PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wo bleibt die Preis/Leistungs-Superkarte?


Seiten : [1] 2

DaBrain
2007-07-06, 19:04:01
Ich überlege gerade daran rum mir bald mal wieder eine neue Grafikkarte zu besorgen.

Allerdings gibt es irgendwie noch kein gutes Angebot.

Bis jetzt habe ich mir eigentlich immer die Karten aus dem unteren High-End Bereich rausgepickt. (GF2 GTS, GF4 TI 4200 , GF6 6800 LE)
Mit denen konnte ich ziemlich lange alle Spiele auf den höchsten Einstellungen spielen.

Die letzte Karte die in diese Richtung ging war die Radeon X1950 Pro, die ja jetzt angeblich auch schon wieder zu langsam für kommende Spiele sein soll...


Wann wird es wieder mal so ein Angebot geben?

AnarchX
2007-07-06, 19:17:23
G92 -> wohlmöglich im Q4 2007 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350597)

oder

RV670 -> wohlmöglich erst 2008 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355&highlight=RV670)

GUNDAM
2007-07-06, 19:22:09
Ich schätze mal wohl frühestens im 4. Quartal wenn der G92 erscheinen soll. Bei den derzeit auf dem Markt befindlichen Modellen sind ja nun wirklich keine Top-P/L Karten dabei. Ich hatte ja gehofft, das der RV630 ein solcher werden könnte. Aber so wie es derzeit aussieht, wird daraus wohl nix.

Das einzigste worauf man derzeit hoffen kann ist, das die G80 Karten (Primär die 8800GTS) günstiger werden. Aber ansonsten sieht es in punkto Karten mit einem super P/L Verhältnis derzeit sehr schlecht aus.

Gast
2007-07-06, 19:36:28
Im Moment ist es die 8800GTS :)

Mr. Lolman
2007-07-06, 19:40:24
Im Moment ist es die 8800GTS :)

Nö: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

http://geizhals.at/eu/a243435.html

dargo
2007-07-06, 19:43:14
Nö: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Wie oft willst du noch den "Quatsch" von CB verlinken? :|

1. Teilweise uralte Spiele.
2. AAA/TSAA, was man eh bei neuen Games vergessen kann.

dildo4u
2007-07-06, 19:43:52
Nö: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

http://geizhals.at/eu/a243435.html


Bei CB wurde keine 1950XT getestet. ;)


Eine 1950XTX kostet immer noch deutlich über 250€.

http://geizhals.at/deutschland/?fs=1950xtx&in=&x=0&y=0

AnarchX
2007-07-06, 19:47:02
2. AAA/TSAA, was man eh bei neuen Games vergessen kann.

Das hatte man hier bei diesem Test weggelassen:
TSSAA (nVidia) oder AAA (ATi) zur Glättung von Alpha-Test-Texturen nutzen wir aufgrund von Kompatibilitätsproblemen nicht mehr in unserem Benchmarkparcours.


Aber es geht wohl hier eher um eine P/L-Karte der neuen Generation und die kommen imo erst mit den von mir oben verlinkten GPUs. ;)

Fetza
2007-07-06, 19:48:01
Nö: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

http://geizhals.at/eu/a243435.html


Danke, für diesen realsatirischen beitrag ;)


Ich überlege gerade daran rum mir bald mal wieder eine neue Grafikkarte zu besorgen.

Allerdings gibt es irgendwie noch kein gutes Angebot.

Bis jetzt habe ich mir eigentlich immer die Karten aus dem unteren High-End Bereich rausgepickt. (GF2 GTS, GF4 TI 4200 , GF6 6800 LE)
Mit denen konnte ich ziemlich lange alle Spiele auf den höchsten Einstellungen spielen.

Die letzte Karte die in diese Richtung ging war die Radeon X1950 Pro, die ja jetzt angeblich auch schon wieder zu langsam für kommende Spiele sein soll...


Wann wird es wieder mal so ein Angebot geben?


Also ich weiss jetzt nicht, was du unter einem guten angebot verstehst. Aber eine 8800 gts 640mb ram ist für 300 euro meiner meinung nach perfekt. Potente karten, die ordentlich saft haben wirst du für weniger nicht kriegen. Eine ausnahme gab es neulich, als die 7950gx2 karten in einer abverkaufsaktion von alternate und noch einigen händlern für deutlich unter 200 euro weggingen. Aber dafür bist du leider zuspät drann.

Gerade unter dem aspekt d3d 10 würde ich mir jetzt keinen dx 9 beschleuniger mehr holen. Und der r600 hat äußerst langsames aa und ne nervige kühlung, fällt daher für mich klar raus.

greetz

Mr. Lolman
2007-07-06, 19:51:02
Bei CB wurde keine 1950XT getestet. ;)


Aber ne X1950XTX. Zieht man 5-15% ab, ist man bei der X1900XTX/X1950XT...


Wie oft willst du noch den "Quatsch" von CB verlinken? :|

1. Teilweise uralte Spiele.
2. AAA/TSAA, was man eh bei neuen Games vergessen kann.


1. Stimmt. Und je neuer die Spiele sind, desto besser steht der R580 vgl zur GTS da. Man sehe sich einfach mal die ersten Tests der 8800GTS an.

2. Find ich auch dumm. Ich verwend eigentlich nur mehr EATM, was quasi keine Mehrperformance vgl zum normalen MSAA braucht.

EDIT:
Das hatte man hier bei diesem Test weggelassen:


Also doch. Gut so. :up:

dargo
2007-07-06, 19:52:04
Das hatte man hier bei diesem Test weggelassen:

TSSAA (nVidia) oder AAA (ATi) zur Glättung von Alpha-Test-Texturen nutzen wir aufgrund von Kompatibilitätsproblemen nicht mehr in unserem Benchmarkparcours.
Na endlich! :massa:
Trotzdem weiß ich nicht was der Link von Mr. Lolman mit der G8800GTS 320MB soll.

Mr. Lolman
2007-07-06, 19:54:38
Na endlich! :massa:
Trotzdem weiß ich nicht was der Link von Mr. Lolman mit der G8800GTS 320MB soll.

Ich weiss auch nicht, was du für ein Problem damit hast...

dargo
2007-07-06, 19:54:46
Und je neuer die Spiele sind, desto besser steht der R580 vgl zur GTS da. Man sehe sich einfach mal die ersten Tests der 8800GTS an.

Ja, natürlich. tzz

AnarchX
2007-07-06, 19:55:51
Na endlich! :massa:

Trotzdem bleibt die Aussagekraft so manchen Benches bei CB und somit das resultierende Rating doch fraglich:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/12/#abschnitt_colin_mcrae_dirt
:|

Mr. Lolman
2007-07-06, 19:58:40
Trotzdem bleibt die Aussagekraft so manchen Benches bei CB und somit das resultierende Rating doch fraglich:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/12/#abschnitt_colin_mcrae_dirt
:|

Vll. die Demo mit Max Details. Die rennt echt absolut kacke. Schaltet man die Schatten ne Stufe runter ists 1A. Die gepatchte Full hat die Schatten auch etwas entschärft...

AnarchX
2007-07-06, 20:00:45
Vll. die Demo mit Max Details. Die rennt echt absolut kacke. Schaltet man die Schatten ne Stufe runter ists 1A. Die gepatchte Full hat die Schatten auch etwas entschärft...

Und ist dort dann eine X1950XTX auch 2.5-3mal so schnell wie die 320er GTS? ;)

PCGH_Carsten
2007-07-06, 20:00:58
Wann wird es wieder mal so ein Angebot geben?
http://www.pcgameshardware.de/?article_id=605645

Kommt demnächst. ;)

LovesuckZ
2007-07-06, 20:03:51
Warum sollte die 8800GTX nicht die Preis/Leistungs-Superkarte sein?
Sie ist unter Last sehr leise, sie ist verdammt schnell und bietet eine Superbildqualität. Der Preis ist einfach gerechtfertigt, da nVidia ein kleines Meisterstück hingelegt hat.

dargo
2007-07-06, 20:05:41
Trotzdem bleibt die Aussagekraft so manchen Benches bei CB und somit das resultierende Rating doch fraglich:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/12/#abschnitt_colin_mcrae_dirt
:|
Die GTS 320 kackt da so ab weil CB mit Ultra Schatten (also max. Details) gebencht hat. Die weichen Schatten fressen verdammt viel Leistung und Vram. Bei Ultra bist du schnell bei >400MB Vram. Wohingegen mittlere Schatten >200MB bedeuten.

Mr. Lolman
2007-07-06, 20:07:15
Ja, natürlich. tzz

Älterer Spieleparcour: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet

x) In 1280x1024 4xAA/16xAF ist die 320MB 8800GTS ~12% vor der X1950XTX
x) In 1600x1200 4xAA/16xAF ist die 320MB 8800GTS ~5% vor der X1950XTX


Neuerer Spieleparcour (Colin Mcrae Dirt statt CoH, D3, HL2:LC, Riddick SC3 und TRL): http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

x) In 1280x1024 4xAA/16xAF ist die X1950XTX ~3% vor der 320MB 8800GTS
x) In 1600x1200 4xAA/16xAF ist die X1950XTX ~17% vor der 320MB 8800GTS

Und ist dort dann eine X1950XTX auch 2.5-3mal so schnell wie die 320er GTS? ;)

Wahrscheinlich nicht. Aber zumindest sieht man, dass 320MB jetzt schon ziemlich das Limit für 1280+AA/AF darstellen...

dildo4u
2007-07-06, 20:10:39
Sieht man doch reine V-ram Limitierung wegen der höheren Auflösung plus AA.Unsinn die Benches bei 1600 mit AA zu vergleichen da die Karte sicher nicht für 1600*1200 gekauft wird.

dargo
2007-07-06, 20:10:50
@Mr. Lolman
Spar dir die CB Benchmarks. Warum, habe ich dir schon gesagt. Außerdem, wen interessiert eine "halbe" GTS? Mich nicht.

Mr. Lolman
2007-07-06, 20:11:56
@Mr. Lolman
Spar dir die CB Benchmarks. Warum, habe ich dir schon gesagt. Außerdem, wen interessiert eine "halbe" GTS? Mich nicht.

Vll. jemanden der nen P/L Sieger haben will. Und was an den CB Benchmarks nicht passen soll, nachdem sie ohnehin nicht mehr mit AAA/TSSAA testen versteh ich auch nicht ganz...

Sieht man doch reine V-ram Limitierung wegen der höheren Auflösung plus AA.

Stimmt wohl. Aber auch bei 1280 ohne AA/AF sich der Vorsprung verringert.

Blaire
2007-07-06, 20:16:32
Nvidias Vista Performance ist derzeit eh noch bescheiden, unter XP würde das Ergebnis sicher deutlich zu Gunsten der 320MB GTS drehn.

dargo
2007-07-06, 20:18:09
Und was an den CB Benchmarks nicht passen soll, nachdem sie ohnehin nicht mehr mit AAA/TSSAA testen versteh ich auch nicht ganz...

Schau dir nochmal genau an was du im Post #20 verlinkt hast. :rolleyes:

Popeljoe
2007-07-06, 20:20:10
Ich finde eure Preis/Leistungs Definition echt merkwürdig...
Ne GTX dabei zu diskutieren ist doch echt an Absurdität nicht zu toppen!;D
P1

LovesuckZ
2007-07-06, 20:24:45
Ne GTX dabei zu diskutieren ist doch echt an Absurdität nicht zu toppen!;D
P1

Das führe dochmal bitte aus.

Mr. Lolman
2007-07-06, 20:27:47
Schau dir nochmal genau an was du im Post #20 verlinkt hast. :rolleyes:

Wenn du TSAA/AAA meinst geht der Punkt an dich. Zumindest zur Hälfte. Denn bei den noAA Benchmarks siehts nicht viel anders aus...

Nvidias Vista Performance ist derzeit eh noch bescheiden, unter XP würde das Ergebnis sicher deutlich zu Gunsten der 320MB GTS drehn.

Das ist allerdings ein Argument...

Grey
2007-07-06, 20:31:58
Finde die 8800 GTS im Grunde schon das Beste in Sachen P/L was aktuell auf dem Markt ist und dem Generationsanspruch gerecht wird. Könnte noch 30-50€ günstiger sein für das optimale Verhältnis.

Blaire
2007-07-06, 20:40:05
Das ist allerdings ein Argument...

Viele meinen zwar etwas anderes , aber es gibt schon noch Unterschiede vor allem ist der Speicherverbrauch unter Vista deutlich höher als unter XP. D.h. umso höher die Qualitätseinstellungen desto mehr brechen die FPS ein.
Ist nicht generell so, aber ich hab das z.b. bei TD:U und FEAR beobachten können.

Popeljoe
2007-07-06, 20:42:51
Das führe dochmal bitte aus.
Okay: ich ergebe mich!
Lieber diskutiere ich ein Frauenthema...;)

High end kann per Definition schon kein PL Kracher sein!
High end ist eher eine Frage von mehr oder weniger positivem Wahnsinn (sorry Tombman, aber imo kannst du damit leben! :)).
Die paar Prozent die eine GTX vor einer GTS liegen machen welche Karte (wenn überhaupt) zum PL Knaller?
Die günstigste GTX liegt bei 450€, die günstigste GTS bei 300€.
Du erkaufst also eine Mehrleistung von 10-20% durch einen Mehrpreis von 50% und willst dann noch behaupten, dass die GTX ein PL Knaller sei? ;D
P1

seahawk
2007-07-06, 20:43:58
Ich würde sagen die XT2900XT bietet ein tolles P/L verhältnis.

Der_Korken
2007-07-06, 20:47:47
Die Benches von CB mit GTS320 vs X1900 kann man vergessen. Da wurden sehr viele Spiele gebencht, die viel VRAM fressen und die GTS320 natürlich total runterziehen (teilweise wird die sogar langsamer als die 8600GTS ...). Die GTS640 hatschon ein ziemlich gutes Preis/Leistung-Verhältnis, die 320er ist halt so ne Sache ... in den richtigen Einstellung der Kracher, in den falschen Einstellungen totaler Verlierer.

dargo
2007-07-06, 20:48:30
Die günstigste GTX liegt bei 450€, die günstigste GTS bei 300€.
Du erkaufst also eine Mehrleistung von 10-20% durch einen Mehrpreis von 50% und willst dann noch behaupten, dass die GTX ein PL Knaller sei? ;D
P1
Sorry, aber das ist Unsinn. Eine GTX kann bis zu 50% schneller sein als eine GTS. Und dementsprechend ist das P/L Verhältnis ausgehend von der GTS genauso gut.

oids
2007-07-06, 20:49:02
Hab im Moment ne x1950gt 512 MB :rolleyes:

Meine Wunschkarte:Eine 8800 GTS 640 Mb
für 250 Euronen.
Das wäre sicherlich der Preis-Leistungsknaller :biggrin:

Ähm hat Nvidia nicht vor kurzem preissenkungen angekündigt? :|

Gast
2007-07-06, 20:49:30
High end kann per Definition schon kein PL Kracher sein!

Du würdest eher eine Karte für 200€ kaufen, die aber nur 25% der Leistung einer 500€ Karte erreicht? P/L definiert sich anhand der Leistung für den Preis, nicht anhand des Preises.


High end ist eher eine Frage von mehr oder weniger positivem Wahnsinn (sorry Tombman, aber imo kannst du damit leben! :)).

Hier muss man unterscheiden. Es gibt Karten, die sind proportional überteuert und lohnen den Aufpreis nicht. Dann gibt es wiederum Karten, die setzen sich von dem nächstunterem Angebot deutlich ab. Eine GTX gehört zur zweiten Gattung.

Die paar Prozent die eine GTX vor einer GTS liegen machen welche Karte (wenn überhaupt) zum PL Knaller?
Die günstigste GTX liegt bei 450€, die günstigste GTS bei 300€.
Du erkaufst also eine Mehrleistung von 10-20% durch einen Mehrpreis von 50% und willst dann noch behaupten, dass die GTX ein PL Knaller sei? ;D
P1

Die GTX kann bis zu 50% schneller als die GTS sein. Dazu hat sie den Bonus der größeren Speichermenge, die der Karte nochmal einen Boost geben kann.
Wenn die GTS eine P/L Karte wäre, müsste es die GTX auch sein, da 50% teurer in 50% Mehrleistung resultiert.

LovesuckZ

Undertaker
2007-07-06, 20:50:46
Ich würde sagen die XT2900XT bietet ein tolles P/L verhältnis.

in der tat, wenn die treiber mitspielen ist die karte recht fix - allerdings muss man mit dem stromverbrauch leben können...

[x] 8800gts (640mb) oder x1950xt wenns billiger sein muss (aber halt auch deutlich schwächer)

Popeljoe
2007-07-06, 20:53:29
Ich würde sagen die XT2900XT bietet ein tolles P/L verhältnis.
Naja, eigentlich ja auch nur, weil der Druck von NV so immens ist.
Die Karte bietet ebisher immer noch ein - maximal - gleiches PL Verhältnis, wie die GTS.
Als Tiger gestartet und nu eher Bettvorleger... ;(
Mich erinnert sie irgendwie an die 8500er Serie. Da wurde einiges angetestet aber die Performance lies, wg. Hardwarefehlern, doch zu wünschen übrig...
P1

Schlammsau
2007-07-06, 20:56:10
solche diskussionen liest man nur hier! :)
500 Teuronen (1000 Deutsche Mark!) für ne Karte hinzublättern, die in spätestens 2 Jahren eh wieder ausgetauscht wird! Nicht wegen der Leistung, sondern wegen der Features, is totaler Dünnsch.....
Da könnte man gleich auch diskutieren ob FIAT oder BMW das beste Preis/Leistungsverhältniss hat! LOL

Popeljoe
2007-07-06, 20:56:58
Sorry, aber das ist Unsinn. Eine GTX kann bis zu 50% schneller sein als eine GTS. Und dementsprechend ist das P/L Verhältnis ausgehend von der GTS genauso gut.
Du sagst es: "bis zu" ist das Stichwort aber im Mittel sind es wohl kaum 50%! ;)
Und dementsprechend ist das PL Verhältnis schlechter, als bei der GTS!

Popeljoe
2007-07-06, 20:57:32
solche diskussionen liest man nur hier! :)
500 Teuronen für ne Karte hinzublättern, die in spätestens 2 Jahren eh wieder ausgetauscht wird! Nicht wegen der Leistung, sondern wegen der Features, is totaler Dünnsch.....
Da könnte man gleich auch diskutieren ob FIAT oder BMW das beste Preis/Leistungsverhältniss hat! LOL
:up:
Mein Reden! THX! ;D

Gast
2007-07-06, 21:00:29
solche diskussionen liest man nur hier! :)
500 Teuronen für ne Karte hinzublättern, die in spätestens 2 Jahren eh wieder ausgetauscht wird! Nicht wegen der Leistung, sondern wegen der Features, is totaler Dünnsch.....


Nur habe ich jetzt von der GTX mehr als von der GTS.
Wenn du das mit dem Auto vergleichst, dann musst du auch fragen: Schnell am Ziel oder nicht. Wer mehr Frames pro Sekunde und bessere Bildqualität haben will, ist mit einer GTX länger bedient.

Schlammsau
2007-07-06, 21:04:02
ich glaub eher, dass ist nur das typisch männliche getue....immer den längsten ähh schnellsten haben zu wollen! Obwohl es gar nicht wirklich gebraucht wird!

Gast
2007-07-06, 21:06:49
ich glaub eher, dass ist nur das typisch männliche getue....immer den längsten ähh schnellsten haben zu wollen! Obwohl es gar nicht wirklich gebraucht wird!

Das ist lächerlich, was du geschrieben hast.
Eine GTX kann bis zu 50% schneller sein. 50% bedeuten, dass man statt 20fps 30fps haben kann. Oder statt 40fps ganze 60fps. Die Wahrscheinlichkeit, dass die GTS karte eher in den unspielbarenbereich fällt, ist deutlich höher. Da die Karte auch noch über mehr Speicher verfügt, hat sie einen Vorteil, den die Karte unantastbar für die GTS macht.

Crazy_Chris
2007-07-06, 21:11:13
Schon lustig wie hier diskutiert wird. Hab gerade erst auf ein X1950GT @ Pro 512Mb für 120€ aufgerüstet. Wenn das mal nicht eher der Preis/Leistungskracher ist. :eek::cool:

Popeljoe
2007-07-06, 21:11:41
ich glaub eher, dass ist nur das typisch männliche getue....immer den längsten ähh schnellsten haben zu wollen! Obwohl es gar nicht wirklich gebraucht wird!
Sagen wir es mal so: aus deiner Sig entnehme ich, dass du einen etwas anderen Ansatz zu PL hast.
Deine gesamtes Sys verbraucht ungefähr soviel Strom, wie eine GTX!
Und kannst du damit leben/spielen? ;)
P1
@Crazy Cris: das würde ich auch eher so sehen...

Schlammsau
2007-07-06, 21:17:34
du verstehst mich nicht....es wird nicht benötigt!!!!
ich habe eine 7600GT für sage und schreibe 100 Euro in meinem Rechner.
Und ich kann auch noch jedes, noch so neue Zock spielen. Vielleicht nicht wirklich mit 1280x1024 4AA/8xAA aber für 1024x768 4xAA/8xAF reichts fast immer! Und mir persönlich reicht das!
Werd mir demnächst auch eine HD2600XT besorgen.

Gast
2007-07-06, 21:22:29
du verstehst mich nicht....es wird nicht benötigt!!!!
ich habe eine 7600GT für sage und schreibe 100 Euro in meinem Rechner.


Meine Playstation 2 hat mich 70€ gekostet. Und ich kann Spiele (God of War, Batman) auf dem TV genießen und sie spielen. Trotzdem stelle ich mich nicht und schreibe: Alle über die Qualität der PS2 wird nicht benötigt.
Es ist deine Meinung, die darfst du gerne haben. Aber stelle bitte nicht deine Meinung als Gültig dar.

Popeljoe
2007-07-06, 21:24:45
du verstehst mich nicht....es wird nicht benötigt!!!!
ich habe eine 7600GT für sage und schreibe 100 Euro in meinem Rechner.
Und ich kann auch noch jedes, noch so neue Zock spielen. Vielleicht nicht wirklich mit 1280x1024 4AA/8xAA aber für 1024x768 4xAA/8xAF reichts fast immer! Und mir persönlich reicht das!
Werd mir demnächst auch eine HD2600XT besorgen.
Meintest du mich? :confused:
Ich hab die Ironie Tags weggelassen... ;(
Ansonsten sehe ich das genauso, wie du!
Das PL richtet sich ja nach den Bedürfnissen der Usermasse und ob die ein neues Game auf nem 24'' Monitor mit AA/AF auf Monstereinstellung spielen wage ich doch zu bezweifeln!
Es ist deine Meinung, die darfst du gerne haben. Aber stelle bitte nicht deine Meinung als Gültig dar.
Wo hat er das getan? Versuche doch bitte nicht den Leuten hier einfach wild was zu unterstellen!
Oder wolltest du ihm verbieten seine Meinung öffentlich zu sagen? ;)

reunion
2007-07-06, 21:25:44
Schon lustig wie hier diskutiert wird. Hab gerade erst auf ein X1950GT @ Pro 512Mb für 120€ aufgerüstet. Wenn das mal nicht eher der Preis/Leistungskracher ist. :eek::cool:

Meine Rede. Mehr Leistung/€ gibt es aktuell nicht.

dargo
2007-07-06, 21:25:48
Du sagst es: "bis zu" ist das Stichwort aber im Mittel sind es wohl kaum 50%! ;)

Was ist denn für dich im Mittel?


Und dementsprechend ist das PL Verhältnis schlechter, als bei der GTS!
Nein! Beide Karten haben in etwa ein gleich gutes P/L Verhältnis. Und sowas gab es in der Vegangenheit kaum/nie, dass ein absolutes High-End Produkt ebenfalls ein genauso gutes P/L Verhältnis hatte. Die Ultra lasse ich jetzt mal außen vor.


Und ich kann auch noch jedes, noch so neue Zock spielen. Vielleicht nicht wirklich mit 1280x1024 4AA/8xAA aber für 1024x768 4xAA/8xAF reichts fast immer! Und mir persönlich reicht das!

Das ist schön wenn dir das reicht. Schon mal daran gedacht, dass es User gibt die erst mit 1920x1200 4xAA/16xAF zufrieden sind?
Und für 1024x768 4xAA/8xAF soll eine 7600GT mit max. Details immer reichen? Bitte erzähle keinen Blödsinn. Bei Games vor 1-2 Jahren vielleicht, aber bei neuen hast du damit nur noch eine Diashow.

Schlammsau
2007-07-06, 21:30:32
Meintest du mich? :confused:
Ich hab die Ironie Tags weggelassen... ;(
Ansonsten sehe ich das genauso, wie du!
Das PL richtet sich ja nach den Bedürfnissen der Usermasse und ob die ein neues Game auf nem 24'' Monitor spielen wage ich doch zu bezweifeln!
P1
nein, den Gast :)

reunion
2007-07-06, 21:31:37
Nein! Beide Karten haben in etwa ein gleich gutes P/L Verhältnis. Und sowas gab es in der Vegangenheit kaum/nie, dass ein absolutes High-End Produkt ebenfalls ein genauso gutes P/L Verhältnis hatte. Die Ultra lasse ich jetzt mal außen vor.

Was nur daran liegt, dass die 8800GTS sehr stark abgespeckt wurde, von der 8600er gar nicht zu reden. Der Vergleich Ultra zu GTX zeigt ja wie es mit dem P/L-Verhältnis aussieht, wenn man nur über den Takt selektiert. Eine im übrigen nicht unbedingt begrüßenswerte Entwicklung, wenn man nicht gerade absoluter High-End-Käufer ist.

dargo
2007-07-06, 21:33:49
Der Vergleich Ultra zu GTX zeigt ja wie es mit dem P/L-Verhältnis aussieht, wenn man nur über den Takt selektiert. Eine im übrigen nicht unbedingt begrüßenswerte Entwicklung, wenn man nicht gerade absoluter High-End-Käufer ist.
Die Ultra halte ich eh für Blödsinn, NV konnte sich diese Karte ebenso gut sparen.

Gast
2007-07-06, 21:34:26
Was nur daran liegt, dass die 8800GTS sehr stark abgespeckt wurde

Ähm, ja deswegen. Aber es gibt nunmal keine Karte unter der GTX, die nur im Takt beschnitten ist. Es ist ungefähr wie bei der X800pro und der X800XT(PE). Dort war die X800pro auch bis zu 50% langsamer als die X800XT. Dagegen war der Preis der 6800GT deutlich besser, da die Karte nur von den Taktraten abgespeckt war.

Popeljoe
2007-07-06, 21:40:25
Was ist denn für dich im Mittel?
=MITTELWERT(WENN(A2:A7<>0;A2:A7;""))Bildet den Durchschnitt aller Zahlen in der Liste, die keine Null enthalten, wie Zelle A6 (11,4)

;)

Das ist schön wenn dir das reicht. Schon mal daran gedacht, dass es User gibt die erst mit 1920x1200 4xAA/16xAF zufrieden sind?
Und für 1024x768 4xAA/8xAF soll eine 7600GT mit max. Details immer reichen? Bitte erzähle keinen Blödsinn. Bei Games vor 1-2 Jahren vielleicht, aber bei neuen hast du damit nur noch eine Diashow.
Die Masse der User spielt also genau in diesen Auflösungen?=)
Wenn es hochkommt, sind es 20% aller user des 3DC, aber das auf das RL zu übertragen ist hanebüchen!
Eine im übrigen nicht unbedingt begrüßenswerte Entwicklung, wenn man nicht gerade absoluter High-End-Käufer ist.
:up:

dargo
2007-07-06, 21:44:34
Die Masse der User spielt also genau in diesen Auflösungen?=)

Ich habe nirgendwo erwähnt, dass es die Masse ist. Es gibt aber solche User. Wobei für 1920x1200 4xAA/16xAF in neuen Games schon nicht selten SLI nötig ist.

Lightning
2007-07-06, 21:46:45
Die Masse der User spielt also genau in diesen Auflösungen?=)

Das behauptet doch keiner. Es sollte nur ein Hinweis darauf sein, dass "es wird nicht benötigt" einfach eine falsche Aussage ist, weil es einige eben doch benötigen.

Popeljoe
2007-07-06, 21:48:55
Ich habe nirgendwo erwähnt, dass es die Masse ist. Es gibt aber solche User. Wobei für 1920x1200 4xAA/16xAF in neuen Games schon nicht selten SLI nötig ist.
Eben!
Für mich als Otto Normaler ist doch nicht der Ferrari Fuzzie der Massstab, sondern meine Ansprüche!
Der Wagen soll mich kostengünstig und so schnell, wie möglich, von A nach B bringen.
Ein PL Knaller waren damals die GF4Ti4200, oder jetzt die 1950GT.

Popeljoe
2007-07-06, 21:50:32
Das behauptet doch keiner. Es sollte nur ein Hinweis darauf sein, dass "es wird nicht benötigt" einfach eine falsche Aussage ist, weil es einige eben doch benötigen.
Gut, dann ist es eben für "einige" auch ein PL Tip ein SLI Sys aus 2 Ultras zu nehmen, für andere ist es schlicht 4thetrouser! ;)
Wenn es von 1% der User "benötigt" wird (zu dem Wort könnte man auch noch was sagen), ist die Aussage von Schlammsau für 99% der User korrekt! :)
P1

Lightning
2007-07-06, 21:58:34
Gut, dann ist es eben für "einige" auch ein PL Tip ein SLI Sys aus 2 Ultras zu nehmen, für andere ist es schlicht 4thetrouser! ;)
P1

Nein, das wäre kein gutes P/L-Verhältnis. Eine Ultra kostet zu viel im Verhältnis zur 8800 GTX, und durch SLI geht auch nochmal Leistung verloren.

Wenn hingegen eine 300€-Karte das doppelte einer 150€ Karte bietet, dann ist deren P/L-Verhältnis gleich gut.

dargo
2007-07-06, 22:00:35
Gut, dann ist es eben für "einige" auch ein PL Tip ein SLI Sys aus 2 Ultras zu nehmen, für andere ist es schlicht 4thetrouser! ;)
Wenn es von 1% der User "benötigt" wird (zu dem Wort könnte man auch noch was sagen), ist die Aussage von Schlammsau für 99% der User korrekt! :)
P1
Tja, dann falle ich unter die Kategorie 1%. Und nein, ich bin kein High-End Freak. Aber meine Ansprüche liegen nunmal bei min. 1280x960 4xAA/16xAF, ~max. Details.

Popeljoe
2007-07-06, 22:07:05
Tja, dann falle ich unter die Kategorie 1%. Und nein, ich bin kein High-End Freak. Aber meine Ansprüche liegen nunmal bei min. 1280x960 4xAA/16xAF, ~max. Details.
Alleine schon statistisch bist du ein "Highend Freak"! ;)
Sicher: es gibt natürlich immer Leute vom Schlage Tombmans.
@Lightning: hier stand mal was anderes...

Lightning
2007-07-06, 22:17:40
@Lightning: draussen wird es in D'land grade dunkel...
Hat schätzungsweise denselben Aussagewert. Das Offensichtliche herausstellen um jemanden als blöd hinzustellen ist schlicht arm! Hat sich aber als rhetorisches Mittel in Politikerkreisen eingebürgert!

Sorry, aber ich weiß nicht, wovon du redest. Was ich sagte war absolut ehrlich und ohne falsch gemeint. Ich dachte nicht, dass man das so missverstehen kann.

blackbox
2007-07-06, 22:18:41
Kann man sich nicht darauf einigen, dass es zur Zeit keine P/L-Superkarte gibt? :rolleyes:

Ein Tip: Die X1950 Pro soll nahe dran sein.;)

Lightning
2007-07-06, 22:20:59
Kann man sich nicht darauf einigen, dass es zur Zeit keine P/L-Superkarte gibt? :rolleyes:

Der Meinung bin ich auch. Es gibt derzeit keine Karte, die sich in der Beziehung deutlich von anderen absetzt. Was nicht bedeutet, dass nicht mehrere Karten trotzdem ein gutes P/L-Verhältnis haben können.

Popeljoe
2007-07-06, 22:26:58
Sorry, aber ich weiß nicht, wovon du redest. Was ich sagte war absolut ehrlich und ohne falsch gemeint. Ich dachte nicht, dass man das so missverstehen kann.
gut!

sun-man
2007-07-06, 23:22:06
Am derzeiitigen Status der Karten sieht man was passiert wenn die Konkurrenz schlicht fehlt. Selbiges würde passieren wenn Intel oder AMD keine Prozessoren mehr liefern würde. Der Preis bleibt stehen und bewegt sich monatlang nur marginal - die 320'er GTSen werden ja sogar noch teurer :D
Aus dem Blickwinkel der Vram Fetischisten ist die 320'er eh zu klein, mit durschnittlich 250-270€ sogar einfach und schlicht zu teuer. Die 640'er sind zwar da, aber auch nicht gerade günstig.

Stichwort DX10: Unsinnig. Natürlich spekuliert HEUTE jeder auf nen ordentliche DX10 Leistung, immerhin kosten die Karten ab ~250€. welche Leistung die Karten in realen Spielen unter DX10 bringen werden ist unabsehbar. somit ist die spekulation auf DX10 Unsinn....und der Preis IMHO nicht gerechtfertigt. Für reine DX9 Hardware sind die NV's schlicht und einfach zu teuer.....DX10 soll man ja nicht einplanen.

Natürlich gibts Leute für die sind 500€ keine Kohle, ich denke aber das dies die wenigsten sind.

Mit ATI braucht man nicht zu rechnen, die Karten sind wiederum für die gebotene Leistung zu teuer und Nvidia weiß das die ATI's kaum Chancen haben und keine Gefahr sind mit den aktullen Preisen. Sobald ATI die Presie auf ~300€ senkt wird der Martk wieder bewegt - vorher tut sich da nix.

MFG

Gast
2007-07-06, 23:56:01
Diese Problematik könnte sich auch auf die Veröffentlichung von PC-Games auswirken. Das ganze dümpelt vor sich hin. Die High End User sind mit nVs Karten gut bedient, der Mainstream schaut hingegen noch voll in die Röhre und eine Konsole bietet für ihn immer noch die günstigere Alternative für gute Grafik. Das muss sich schleunigst ändern. Verstehe nicht, dass die Hardwarehersteller da nicht etwas Leben in die Bude bringen, am Ende schießen sie sich doch auch selbst ins Bein. (PC)-Games leben hauptsächlich von der grafischen Verbesserung und dafür benötigts eine solide Hardwarebasis, die aber immer noch zu wenige Leute haben, verglichen mit der Größe der Konsolenfraktion.

DaBrain
2007-07-07, 09:48:30
Der Meinung bin ich auch. Es gibt derzeit keine Karte, die sich in der Beziehung deutlich von anderen absetzt.

Genau das meinte ich.

Es gibt Karten mit einem guten P/L Verhältnis, aber eben nicht die Karte.


So wie es aussieht werde ich da wohl bis zur nächsten Generation waren müssen...

Gast
2007-07-07, 10:09:51
Mit ATI braucht man nicht zu rechnen, die Karten sind wiederum für die gebotene Leistung zu teuer

Die HD2900XT kostet genausoviel wie ne GTS und leistet tw. aber deutlich mehr.

sun-man
2007-07-07, 10:45:54
wo denn? In 1024x768 ohne Qualitätsfeatures?

Gast
2007-07-07, 10:52:59
wo denn? In 1024x768 ohne Qualitätsfeatures?Eben. Bis auf einige Ausnahmefälle ist die R600-Serie den 8800ern total unterlegen und daher für die meisten keine Alternative. Wenn man dann noch die überlegenen BQ-Features des G80 hinzurechnet, gibt es kaum noch einen Grund eine vermurkste x2900xt zu kaufen.

Gast
2007-07-07, 11:00:42
In 1024x768 ist sie sogar auf GTX Niveau. Erst mit AA sinkt sie auf GTS Niveau herab - zumindest bei älteren Spielen!

Gast
2007-07-07, 11:03:05
In 1024x768 ist sie sogar auf GTX Niveau.Toll, in 640x480 ist sogar eine olle 6600GT auf 8800GTX-Niveau. Was sagt uns das jetzt?

Gast
2007-07-07, 11:05:39
http://www.ixbt.com/video3/r600-part3-d.shtml#p18

Lightning
2007-07-07, 11:22:03
Die HD2900XT kostet genausoviel wie ne GTS

Wo? Laut geizahals.at kriegt man eine 2900XT lagernd für 340€, eine 8800 GTS 640 MB für 300€.

Von der leistung bin ich der Meinung, dass sich die 2900XT zwischen der GTS und der GTX einordnet. Das P/L-Verhältnis ist also in Ordnung.

Odal
2007-07-07, 11:43:53
looool es ist immer wieder lustig zu sehen wie sich einige leute scheinbar einen hardwareschrein gebaut zu haben nachdem sie sich neue hardware zugelegt haben

da fragt hier jemand nach preis leistungs schnäppchen und da wird doch tatsächlich mit der 88GTX/GTS argumentiert das ist hardware die jenseits der 300€ marke liegt d.h. 600DM und mehr....
in einem halben bis einem jahr werden dir die dinger hinterher geschmissen...

ich habe selbst nicht das allerlangsamste system und spiele z.b. leidenschaftlich gern company of heroes (ein hardwarefresser) aber mit niedrig einstellungen läuft das sogar auf einer 6200TurboCache mit 32Bit speicherinterface....und da liegen Universen zwischen

nun sollte man sich mal fragen was man spielt und ob man wirklich alles auf maximal stellen muss und diesen exponentiellen performancebedarf wirklich braucht...oder ob ein zwischending nicht eher preisleistungssieger ist...

z.b. eine 1950GT 512MB für 120€ schafft vielleicht einen verlust von 40€ in einem jahr

bei einer 88GTX für 450€ mit der hier argumentiert wird sind es locker 200€ (das 5 fache)

dann stelle ich eben z.b. bei stalker grass und sonnenschattten aus fahre "nur" 8x AF und freue mich trotzdem über spielbare 30FPS bei kaum zu unterscheidener visueller qualität....

also bei manchen leuten scheint es mir das die ihre hardware verbal verteidigen wie ihre frau oder ihren besitz und das in jedem thread der die thematik auch nur ansatzweise tangiert (ich nenne mal keine namen) XD

zu lächerlich

Gast
2007-07-07, 11:46:08
Wo? Laut geizahals.at kriegt man eine 2900XT lagernd für 340€, eine 8800 GTS 640 MB für 300€.

Das kommt wohl davon, dass die günstigen 2900XT Karten weggehen wie warme Semmeln...

Lightning
2007-07-07, 11:54:58
Das kommt wohl davon, dass die günstigen 2900XT Karten weggehen wie warme Semmeln...

Entweder das, oder sie wurden nur in geringen Stückzahlen geliefert. Bei der 8800 GTS sah es ja lange Zeit ganz ähnlich aus, ständig vergriffen und am Preis hat sich immer noch kaum was getan.
Wie dem auch sei, eine 2900 XT ist in jedem Fall teurer als eine 8800 GTS, bietet dafür imo aber auch etwas mehr.

Gast
2007-07-07, 12:01:53
Wie dem auch sei, eine 2900 XT ist in jedem Fall teurer als eine 8800 GTS

2900XT - 330€: http://geizhals.at/eu/a256994.html
8800GTS - 303€: http://geizhals.at/eu/a224906.html

Die 27€ sind in der Preisklasse ziemlich egal.

Lightning
2007-07-07, 12:04:16
2900XT - 330€: http://geizhals.at/eu/a256994.html
8800GTS - 303€: http://geizhals.at/eu/a224906.html

Die 27€ sind in der Preisklasse ziemlich egal.

Ups, die Powercolor hatte ich wohl übersehen. Ob 27€ "egal" sind, ist allerdings Ansichtssache.

Smoke Screen
2007-07-07, 17:48:30
Wer eine Grafikkarte mit bestmöglichem P/L sucht wird wohl sicher nicht
die aktuellen Spitzenmodelle im Auge haben. Sicher,sie sind halt momentan
die Schnellsten,aber auch mit Abstand die Teuersten.
Die Leute die Spitzenleistung brauchen,zahlen auch Spitzenpreise. Denen stellt
sich die Frage nach optimalem P/L-Verhältniss nicht. Sie wollen halt maximale
Power,ob nun für 350€ oder 450€ ist da letzlich nicht so relevant.
Leute die auf ein optimales P/L-Verhältniss schauen,haben oft nicht diese tiefen
Brieftaschen. Ansonsten wär ihnen das nämlich Latte.
Im Moment sehe in imho bei NVidia keine P/L-Superkarte a la 7900GS OC im
letzten Jahr,dazu klafft einfach eine zu große Leistungslücke zwischen 8600GTS
und 8800GTS/640.
Bei ATI ist es vielleicht die 1950pro/TX,obwohl die Leute die in der Zukunft leben
ein morgen aktuelles Featureset vermissen werden.

Schlammsau
2007-07-07, 19:33:32
looool es ist immer wieder lustig zu sehen wie sich einige leute scheinbar einen hardwareschrein gebaut zu haben nachdem sie sich neue hardware zugelegt haben

da fragt hier jemand nach preis leistungs schnäppchen und da wird doch tatsächlich mit der 88GTX/GTS argumentiert das ist hardware die jenseits der 300€ marke liegt d.h. 600DM und mehr....
in einem halben bis einem jahr werden dir die dinger hinterher geschmissen...

ich habe selbst nicht das allerlangsamste system und spiele z.b. leidenschaftlich gern company of heroes (ein hardwarefresser) aber mit niedrig einstellungen läuft das sogar auf einer 6200TurboCache mit 32Bit speicherinterface....und da liegen Universen zwischen

nun sollte man sich mal fragen was man spielt und ob man wirklich alles auf maximal stellen muss und diesen exponentiellen performancebedarf wirklich braucht...oder ob ein zwischending nicht eher preisleistungssieger ist...

z.b. eine 1950GT 512MB für 120€ schafft vielleicht einen verlust von 40€ in einem jahr

bei einer 88GTX für 450€ mit der hier argumentiert wird sind es locker 200€ (das 5 fache)

dann stelle ich eben z.b. bei stalker grass und sonnenschattten aus fahre "nur" 8x AF und freue mich trotzdem über spielbare 30FPS bei kaum zu unterscheidener visueller qualität....

also bei manchen leuten scheint es mir das die ihre hardware verbal verteidigen wie ihre frau oder ihren besitz und das in jedem thread der die thematik auch nur ansatzweise tangiert (ich nenne mal keine namen) XD

zu lächerlich

....genau meine meinung!!!!:up:

Undertaker
2007-07-07, 19:35:46
l
ich habe selbst nicht das allerlangsamste system und spiele z.b. leidenschaftlich gern company of heroes (ein hardwarefresser) aber mit niedrig einstellungen läuft das sogar auf einer 6200TurboCache mit 32Bit speicherinterface....und da liegen Universen zwischen

ha-ha

habe selber eine 6200 mit 32bit si, die karte ist sogar zu langsam für wc3 in 1280x1024 :ugly:

selbst wenn coh startet, das reicht nichtmal für 5fps

Roi Danton
2007-07-07, 20:08:25
habe selber eine 6200 mit 32bit si, die karte ist sogar zu langsam für wc3 in 1280x1024 :ugly:Bei mir läuft WC3 mit dem GMA3000 in dieser Auflösung gut ... ist der schneller als die 6200? ;)

Die 1950GT + Übertakten ist doch ein gutes Preis-Leistungsangebot? DX10 Fähigkeiten werden doch erst in einigen Monaten relevant, da wird die 1950iger bei Bedarf halt wieder verkauft und eine DX10 Karte geholt, die dann (vielleicht) preiswerter ist.

Crazy_Chris
2007-07-07, 20:12:27
Bei ATI ist es vielleicht die 1950pro/TX,obwohl die Leute die in der Zukunft leben
ein morgen aktuelles Featureset vermissen werden.

Wie unsinnig es ist Hardware für die "Zukunft" zu kaufen hat man ja erst letztens bei der Geforce 6x00 Reihe und ihr "Killerfeature SM 3.0" gesehen. :rolleyes: Klar ist es schön wenn mehr Features unterstützt werden jedoch ist das zumindest für mich kein Kaufargument. Zumal schon jetzt abzusehen ist, dass die Geforce 8600 und Radeon HD 2600 zu langsam für D3D10 sind. ;(

Undertaker
2007-07-07, 20:31:42
Bei mir läuft WC3 mit dem GMA3000 in dieser Auflösung gut ... ist der schneller als die 6200? ;)


jap, die karte hat 2pp, 32bit si und damit einfach gar keine power :D der gma 3000 hat 4pp und ein 64bit si durch den hauptspeicher

=Floi=
2007-07-08, 00:04:54
es geht um das preis leistungs verhältnis und die 300€ 8800GTS ist ja auch gut doppelt so schnell

auch müsst ihr euch abfinden dass die karten teurer werden weil auch so sachen wie inflation und neuausrichtung des segmentes miteinspielen (8600GTS 1/3 8800GTX)

Gast
2007-07-08, 00:36:44
es geht um das preis leistungs verhältnis und die 300€ 8800GTS ist ja auch gut doppelt so schnell

auch müsst ihr euch abfinden dass die karten teurer werden weil auch so sachen wie inflation und neuausrichtung des segmentes miteinspielen (8600GTS 1/3 8800GTX)
Mal schauen, ob der Kunde das in Zukunft aktzeptieren wird bzw. kann.

=Floi=
2007-07-08, 00:43:57
er muß, wenn er leistung will
auch die 512mb 7900GT (mit 550mhz) kostete lange zeit 330€

gleiches beobachtet man auch bei autos oder anderen gegenständen

Gast
2007-07-08, 00:52:14
Ab und Zu kommen ins Internet Angebote für die 7950 GX2(Alternate 179 Euro,K&M Elektronik 152 Euro)-von P/L einfach unschlagbar.

OC Raum auch immens(Speicher laüft mit 600 MHZ obwohl Samsung 1,4ns verbaut ist!)

Einzige negative ist keine DX10 Support aber die 86xx/X26xx Karten taugen eh nix für DX10 daher eher unwichtig!

danger!
2007-07-08, 00:58:22
Mit Verlaub, aber Blödsinn. High-End war schon immer teuer, früher sogar noch mehr als heute (GF2 Ultra für 1300DM...).
Durch den großen Konkurrenzdruck sind die normalen Sachen für den Kunden sogar tendenziell verdammt billig geworden: Dualcore für 50 Euro, Graka die noch vor nem Jahr absolut High-End gewesen wäre für 120 Euro, 2GB Ram für 70 Euro...

edit: @Floi, nicht Gast

Mr. Lolman
2007-07-08, 01:01:38
Ab und Zu kommen ins Internet Angebote für die 7950 GX2(Alternate 179 Euro,K&M Elektronik 152 Euro)-von P/L einfach unschlagbar.


Naja, von nem gleichteueren R580 wird sie tw schon geschlagen (mal abgesehen von HDR+AA, HQ-AF, EATM und solchen Spässen)

Gast
2007-07-08, 01:05:31
Hier geht es um PL.

Mit AA/AF(wenn vorhanden SLI Profil vorhanden ist) hat die 7950 GX2 die Gleiche Leistung wie umgefähr eine 8800GTS 640 mit OC sogar etwas mehr.

Zwar keine AA/HDR aber für 152 Euro eine PL Hammer und darum geht es hier!

danger!
2007-07-08, 01:16:54
Das war aber eine einmalige Abverkaufsaktion und kein dauerhaftes Angebot. Dennoch ein Schnäppchen, keine Frage.

DaBrain
2007-07-08, 01:33:31
Die 1950GT + Übertakten ist doch ein gutes Preis-Leistungsangebot?

Gut, aber nicht super.

Ich sehe in der Karte auch das beste Angebot wenn man derzeit sein Geld optimal in Leistung umsetzen will.

So gut wie die GF4 TI früher, ist das Angebot aber lange nicht.
Die war immerhin aus der neusten Generation und man hatte die Chance mit OC sogar das die TI 4600 zu schlagen.

danger!
2007-07-08, 02:03:22
Gut, aber nicht super.

Ich sehe in der Karte auch das beste Angebot wenn man derzeit sein Geld optimal in Leistung umsetzen will.

So gut wie die GF4 TI früher, ist das Angebot aber lange nicht.
Die war immerhin aus der neusten Generation und man hatte die Chance mit OC sogar das die TI 4600 zu schlagen.

Und wie teuer war die Ti4200 im Verhältnis zur 4600er? Ich bin mir ziemlich sicher, daß das ähnlich war wie heute GTS <-> GTX. So billig war die nämlich nicht...manchen scheint da die Erinnerung an die gute alte Zeit einen Streich zu spielen.

P.S.: UNd bevor gesagt wird, dass die GTS aber beschnitten ist: Mit ordentlich OC kann man durchaus die Werte einer (default-)GTX erreichen.

LovesuckZ
2007-07-08, 02:28:05
Naja, von nem gleichteueren R580 wird sie tw schon geschlagen (mal abgesehen von HDR+AA, HQ-AF, EATM und solchen Spässen)

Liest du überhaupt, was du schreibst? :rolleyes:

DaBrain
2007-07-08, 02:31:05
@danger!
Meine hat soweit ich mich erinnern kann um die 200€ gekostet.

Die TI4400 lag 50-60€ darüber. Die TI4600 mehr als 100€.

Muss mal eine alte Preisliste raussuchen...

Ich weiss nur noch dass die beiden Karten an der Spitze einfach den Aufpreis nicht wert waren.

Odal
2007-07-08, 03:17:38
ha-ha

habe selber eine 6200 mit 32bit si, die karte ist sogar zu langsam für wc3 in 1280x1024 :ugly:

selbst wenn coh startet, das reicht nichtmal für 5fps


doch tut es..2xAF kein AA auflösung 1280x1024 alles auf low und per rivatuner auf SM1.4 fokussiert...läuft das im 1on1 mit ca. 30FPS im schnitt...so spiele ich es doch immer auf dem rechner meiner freundin...vielleicht war bei dir einfach die CPU zu schwach (da ein Celeron 2,8Ghz)

jap, die karte hat 2pp, 32bit si und damit einfach gar keine power :D der gma 3000 hat 4pp und ein 64bit si durch den hauptspeicher

stimmt nicht ich bin mir relativ sicher das die karte meiner freundin 4pp hat

Undertaker
2007-07-08, 08:10:15
doch tut es..2xAF kein AA auflösung 1280x1024 alles auf low und per rivatuner auf SM1.4 fokussiert...läuft das im 1on1 mit ca. 30FPS im schnitt...so spiele ich es doch immer auf dem rechner meiner freundin...vielleicht war bei dir einfach die CPU zu schwach (da ein Celeron 2,8Ghz)

nö, hatte die karte auch schon mit dem c2d drin, aber davon abgesehen sind 30fps auch nicht wirklich gut spielbar - etwas action und schon wirds einstellig

edit: stimmt nicht ich bin mir relativ sicher das die karte meiner freundin 4pp hat

ok, ich hab mal wieder nicht richtig gelesen... meine 6200 ist die LE variante, die ist nochmals weiter abgespeckt :D (dachte erst, die 6200 tc wäre immer eine "LE")

dargo
2007-07-08, 09:33:30
Stimmt. Und je neuer die Spiele sind, desto besser steht der R580 vgl zur GTS da.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5651477&postcount=16 :rolleyes:

Odal
2007-07-08, 09:58:52
nö, hatte die karte auch schon mit dem c2d drin, aber davon abgesehen sind 30fps auch nicht wirklich gut spielbar - etwas action und schon wirds einstellig


lol? wozu braucht man in Company of Heroes zur Not mehr als 30FPS um mal ein paar 1v1 games zocken zu können? das ist kein FPS shooter

TobiWahnKenobi
2007-07-08, 10:11:35
P.S.: UNd bevor gesagt wird, dass die GTS aber beschnitten ist: Mit ordentlich OC kann man durchaus die Werte einer (default-)GTX erreichen.

unter gleichen rahmenbedingungen? sicher nicht. wie hoch muss man die GTS denn takten, bis ihr zusätzlicher speicher wächst?

kann es sein, dass du unter "werte" benchmarkwerte aus synthies verstehst?

das thema P/L sollte man an den eigenen gewohnheiten und den spielen, die man spielen will, festmachen. wenn ich am PC colin McDirt spielen will, nutzt mir die beste preis-leistungskarte wenig - auch wenn ich mir bei der diashow dann einrede, dass die karte günstig war.

wenn das budget zu niedrig ist, um aktuelle spiele flüssig bewegen zu können, sollte man sich lieber ne xbox anstelle einer grafikkarte kaufen - da stimmt dann das P/L für die nächsten zwei, drei jahre und man muss sich durch herabsetzen von auflösung und details nicht mit augenkarzinomen herumplagen.


(..)

mfg
tobi

Undertaker
2007-07-08, 10:25:03
lol? wozu braucht man in Company of Heroes zur Not mehr als 30FPS um mal ein paar 1v1 games zocken zu können? das ist kein FPS shooter

wie gesagt, weil es dann minimum 3-5fps werden ;) mit konstant 30fps wäre jeder zufrieden

Undertaker
2007-07-08, 10:27:10
unter gleichen rahmenbedingungen? sicher nicht. wie hoch muss man die GTS denn takten, bis ihr zusätzlicher speicher wächst?

die 128mb mehr, was gerade einmal +20% entspricht, sind so gut wie nie entscheidend - gegenbeispiele erwünscht

TobiWahnKenobi
2007-07-08, 10:52:47
vom heutigen zeitpunkt aus gesehen, wäre es peinlich wenn auf der 640MByte version irgendwas per se am speicher limitieren würde. du kannst aber problemlos mit grenzwertigen spielen testen, wie weit du mit kantenglättung gehen kannst und dann davon ausgehen, dass auf der GTX/Ultra noch eine stufe mehr drin ist, bei mindestens gleicher framerate.

ich bin kein vram-logger - ich spiele ja nicht mal regelmäßig.

hier sollten sich aber durchaus user rumtreiben, die ihre zeit mit solchen messungen verbringen.


(..)

mfg
tobi

Undertaker
2007-07-08, 11:10:25
also ich habe bis jetzt selbst bei vram-fressern wie coh nicht erlebt, das die framerate aber einer gewissen aa-einstellung radikal einbricht, ergo ist eher einfach die rohleistung des chips am ende - das dürfte sich auch in der zukunft verstärken, wo für aa eh keine leistung mehr da ist, insofern denke ich sind die 640mb eine der leistung der karte absolut angemessene menge :)

TobiWahnKenobi
2007-07-08, 11:37:23
AFAIR hat die GTX eine 50% höhere texel- und ca. 40% mehr pixelfüllrate.
wäre ein wunder, wenn wir davon nicht früher oder später etwas merken würden. im mittel müssten also in spielen, die an der rohleistung der karten und nicht an anderen faktoren limitieren ca. 45% mehr frames aus einer GTX herauskommen.

die 20% mehr speicher sollten sich hingegen immer ausreizen lassen; im notfall halt in HD-auflösungen mit (inoffizieller) kantenglättung.

wenn das zutrifft, müsste man eine GTS um 45-50% übertakten, um mit einer GTX gleich-zu-ziehen. das geht nicht. naja, und selbst wenn es ginge, so hätte die GTS dann immernoch 128MByte RAM zu wenig.

ich bleibe dabei: die kluft zwischen GTS und GTX ist mit OC oder modderei nicht zu überbrücken.


(..)

mfg
tobi

Mr. Lolman
2007-07-08, 11:50:46
*edit*

Undertaker
2007-07-08, 12:01:31
AFAIR hat die GTX eine 50% höhere texel- und ca. 40% mehr pixelfüllrate.
wäre ein wunder, wenn wir davon nicht früher oder später etwas merken würden. im mittel müssten also in spielen, die an der rohleistung der karten und nicht an anderen faktoren limitieren ca. 45% mehr frames aus einer GTX herauskommen.

bei den shadern hat die gtx nur 1/3 mehr, bei den rops gar nur 20% - und vorallem erstere werden wohl zukünftig vermehrt limitieren, da ist eine gut taktbare gts (>650mhz) dann nicht mehr weit weg (zumindest deutlich unter 15-20%, damit nicht mehr spürbar)

die 20% mehr speicher sollten sich hingegen immer ausreizen lassen; im notfall halt in HD-auflösungen mit (inoffizieller) kantenglättung.

klar, aber die karte schafft halt keine hd-auflösungen mit aa bei zukünftigen hits wie crysis & co ;) nochmal, ich halte die rammenge für absolut angemessen, als das sie in der praxis wohl praktisch nie limitieren wird

wenn das zutrifft, müsste man eine GTS um 45-50% übertakten, um mit einer GTX gleich-zu-ziehen. das geht nicht. naja, und selbst wenn es ginge, so hätte die GTS dann immernoch 128MByte RAM zu wenig.

siehe oben

ich bleibe dabei: die kluft zwischen GTS und GTX ist mit OC oder modderei nicht zu überbrücken.

komplett in extremsituationen natürlich nicht, aber der unterschied lässt sich auf ein maß senken, wo man die differenzen nur noch messen kann - aus unspielbar wird damit kein spielbar auf der gtx

Odal
2007-07-08, 12:09:52
wie gesagt, weil es dann minimum 3-5fps werden ;) mit konstant 30fps wäre jeder zufrieden

wie gesagt das ist auf dem system nicht der fall in den von mir genannten einstellungen...das minimum sind da eher so bei 20-25 FPS anzusiedeln....

du hast ja auch nur eine "halbe" 6200TC
und diese vielleicht auch noch mit etwas geringerem takt..dann hast du sicherlich nicht sm1.4 mit dem rivatuner forciert..

TobiWahnKenobi
2007-07-08, 12:12:00
@undertaker
der hauptfehler in deiner überlegung ist, dass du OC-potenzial als generell gegeben voraussetzt. du weißt doch gar nicht, ob deine karte unter kommenden blockbustern wie crysis or whatever noch fehlerfrei mit höherem shader- oder ROPtakt arbeitet.


(..)

mfg
tobi

Undertaker
2007-07-08, 12:15:14
ich habe ja gesagt, eine gut taktbare ;) über 650mhz schaffen bestimmt eher wenige, aber 600-630mhz sind eigentlich immer drin - und wenn die heute stabil laufen, wird das in zukünftigen games wohl auch der fall sein

TobiWahnKenobi
2007-07-08, 12:16:51
das ist eher falsch.

probates beispiel ist meine alte 6800GT. die lief auch fehlerfrei mit 425MHz (ultra-bios) - tjo.. bis irgendwann ein neuer splintercell-teil rauskam. der erlaubte standardtakt (350MHz) und ab 370MHz gabs schon grüne dreiecke.

wenn unter irgendwelchen settings in irgendwelchen spielen aus 22fps 33fps werden, hat sich der aufpreis für die GTX gegenüber der GTS schon gelohnt.


(..)

mfg
tobi

Odal
2007-07-08, 12:30:49
@undertaker
der hauptfehler in deiner überlegung ist, dass du OC-potenzial als generell gegeben voraussetzt. du weißt doch gar nicht, ob deine karte unter kommenden blockbustern wie crysis or whatever noch fehlerfrei mit höherem shader- oder ROPtakt arbeitet.


(..)

mfg
tobi


das kann ich nur unterstreichen...meine X1900XT llief bei allen spielen @750/900 aber wo ich jetzt stalker angetestet hab gabs freezes und es war nur noch 735/900 stabil möglich....da die GPU temp von stalker extrem über dem normalwert liegt ^^

PCGH_Carsten
2007-07-08, 12:34:28
Mal rein zum Thema GTS vs. GTX:

Laut aktuellem Geizhalsstand ist die GTX 134 Euro, also ~44% Prozent teurer als die 640er-GTS (Lieferbarkeit und Seriosität des Shops vorausgesetzt).

Wenn ich mir das CB-Qualitätsrating in 1280x1024 so anschaue, liegt die GTX 46% vor der GTS, in 1600x1200 sind's noch 38%.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

Wann war es jemals der Fall, dass man linear mit den ausgegeben Euro auch mehr Leistung bekam im Nahe-High-End?

Odal
2007-07-08, 12:39:27
allerdings kann man es auch andersherum sehen...

wann war es mal der fall das beschnittenes unteres highend noch soviel kostet in relation zum highend

dargo
2007-07-08, 12:42:50
Wann war es jemals der Fall, dass man linear mit den ausgegeben Euro auch mehr Leistung bekam im Nahe-High-End?
Meine Rede. :)
Ich glaube niemals.

allerdings kann man es auch andersherum sehen...

wann war es mal der fall das beschnittenes unteres highend noch soviel kostet in relation zum highend
Warum soviel? An was machst du dein "soviel" fest? :|
Wenn ich von einer X1950XT für 190€ ausgehe dann hat eine 640MB GTS bei neuen Games sogar minimal besseres P/L Verhältnis.

Armaq
2007-07-08, 12:50:17
http://img221.imageshack.us/img221/9990/3d06mk0.th.jpg (http://img221.imageshack.us/my.php?image=3d06mk0.jpg)
CB Test 1280x1024 8AA 16 AF (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/#abschnitt_3dmark06)

Ich würde sagen, meine 8800GTS 320 ist ein echter Preis/Leistungssieger. :)


Edit: 1280x1024 8AA 16 AF GTS = 5704 Punkte / Ultra = 5443 Punkte

Gast
2007-07-08, 12:51:13
Wenn ich mir das CB-Qualitätsrating in 1280x1024 so anschaue, liegt die GTX 46% vor der GTS, in 1600x1200 sind's noch 38%.

Das gilt aber auch nur, wenn ein passender Unterbau vorhanden ist. Bei Durchschnittssystemen sieht das schon ganz anders aus. Einen 3,46 GHz, 4 MB Core 2 hat sicher nicht jeder.

Bench das nochmal auf einem FX60. :)

Wenn ich von einer X1950XT für 190€ ausgehe dann hat eine 640MB GTS bei neuen Games sogar minimal besseres P/L Verhältnis.

Ich weiß ja nicht wie ihr das seht, aber für mich gehören die Folgekosten dazu und da zieht der G80 eindeutig den kürzeren.
Man denke an den 2D Stromverbrauch, der auf einige Zeit gerechnet das tolle Preis-Leistungsverhältniss wieder aufhebt.

Übrigens denke ich auch, das ihr schon am Thema vorbei seid. Eine Preis-Leistungskarte im >350€ Bereich gibt es einfach nicht. :)

Die Frage zielte eher auf Karten im Bereich um 100-250€ ab.

dargo
2007-07-08, 13:01:16
Ich weiß ja nicht wie ihr das seht, aber für mich gehören die Folgekosten dazu und da zieht der G80 eindeutig den kürzeren.
Man denke an den 2D Stromverbrauch, der auf einige Zeit gerechnet das tolle Preis-Leistungsverhältniss wieder aufhebt.

Meine GTS 640 @200/200Mhz zieht in Idle ~5W Netto mehr als die X1900XT 512MB. :)
Jetzt rechne mal hoch was das im Jahr mehr kostet. :rolleyes:

Unter Last zieht meine GTS @Standard 25W Brutto weniger als die X1900XT!

Gast
2007-07-08, 13:08:38
Meine GTS 640 @200/200Mhz zieht in Idle ~5W Netto mehr als die X1900XT 512MB. :)

Hast du dazu irgendwelche verwertbaren und nachvollziehbaren Zahlen oder hast du die dir aus dem Finger gesaugt? :rolleyes:

So wie ich dich kenne, hast du wohl vergessen die Spannungen+Taktraten der X19xx Karten ebenfalls zu senken. ;)

Deine Werte klingen arg unrealistisch.

Odal
2007-07-08, 13:12:35
Meine Rede. :)
Ich glaube niemals.


Warum soviel? An was machst du dein "soviel" fest? :|
Wenn ich von einer X1950XT für 190€ ausgehe dann hat eine 640MB GTS bei neuen Games sogar minimal besseres P/L Verhältnis.


für mich sind über 300€ für ein beschnittenes unteres highend modell welches seit nem 3/4 jahr auf dem markt ist viel

ich sehe da keine preis/leistungs-superkarte vorallem im anbetracht dessen nicht das da bald nachschub an neuen GPUs im anmarsch ist und das ding dann nicht mehr viel wert ist...

ausserdem habe ich schon erwähnt das leute die aufs geld schauen müssen beim preis/leistungsschnäppchen nicht nur die FPS bei max. einstellungen als "leistung" ansehen sollten sondern etwas leicht abgesenkte einstellungen mit geringem BQ verlust dafür aber einer hohen mehrperformance so daß auch eine 120€ karte langt im blick haben

und wer spricht hier von der X1950XT? ich erwähnte mal dasd eine X1950GT 512MB für 120€ dort recht gut hingehört..mit etwas runtergeschraubten einstellungen lässt sich damit eigentlich fast alles flüssig spielen...und wertverlusst ist minimal da der kaufpreis schon recht gering ist

aber ich denke mal den betrachtungswinkel das ingame was runtergeschraubt werden kann und eine viel preiswertere hardware dann dicke ausreicht (und es immer noch sehr ansehnlich bleibt) bleibt den meisten 3DC Leuten verwehrt

dargo
2007-07-08, 13:16:32
Hast du dazu irgendwelche verwertbaren und nachvollziehbaren Zahlen oder hast du die dir aus dem Finger gesaugt? :rolleyes:

Ja klar. Sowas wird mit einem Strommessgerät ermittelt. ;)

X1900XT 512MB:
Idle = 120,7W
Last = 250W

GTS 640MB:
Idle @200/200Mhz = 127,1W
Idle @Standard = 144,xW
Last = 225W

Jetzt nagele mich bei den Werten hinter dem Komma nicht fest, die weiß ich nicht mehr genau.


So wie ich dich kenne, hast du wohl vergessen die Spannungen+Taktraten der X19xx Karten ebenfalls zu senken. ;)

Seit wann kennen wir uns? :D

Die X1900XT hat von Haus aus einen 2D Modus, sprich 1,2V und 500/600Mhz (oder so ähnlich, ist schon etwas länger her). Klar könnte man den Takt noch weiter reduzieren, die Spannung ebenfalls. Das bringt dir dann aber auch höchstens weitere 5W Ersparnis.

Odal
2007-07-08, 13:18:53
Meine GTS 640 @200/200Mhz zieht in Idle ~5W Netto mehr als die X1900XT 512MB. :)
Jetzt rechne mal hoch was das im Jahr mehr kostet. :rolleyes:

Unter Last zieht meine GTS @Standard 25W Brutto weniger als die X1900XT!


ja toll meine X1900XT zieht bei mir im idle @0,95Volt und 164/164

schätzungsweise irgendwas um die 20Watt aus der dose (wenn überhaupt)

im vergleich zu einer 88GTX sind das zwischen 10 und 15% von dieser bzw. 80-90% weniger
http://www.xbitlabs.com/images/video/gf8800/results/8800gtx_power.gif
was sagen uns jetzt diese tollen vergleiche?

und zu deiner 3D problematik..ist ja toll das du 24/7 zeit und lust zum zocken hast XD

Gast
2007-07-08, 13:23:26
@dargo
Dein Vergleich ist dann aber unfair, wenn du die eine Karte untertaktest und die andere nicht.

http://www.xbitlabs.com/images/video/gf8800gtx-roundup/8800gtx_power.gif
http://www.xbitlabs.com/images/video/geforce7950gt/7950gt_power.gif

Wie willst du den Verbrauch der GTS so weit gesenkt haben?
Wenn du bei einer X19xx nun noch Takt + Spannung weiter reduzierst, scheint es mir reichlich unmöglich, einen Unterschied von nur noch 5W zwischen den beiden Generationen zu erreichen.

Außerdem hast du das Gesamtsystem gemessen. Darin sind auch die Bauteile des Mainboards und des Netzteils inklusive. Woher weißt du denn, das der Unterschied nur durch die Grafikkarte und nicht durch die anderen Komponenten verursacht wurde? ...

AnarchX
2007-07-08, 13:24:47
@Odal:
Eine 8800GTX zieht aber keine 145W im Idle:
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0
:rolleyes:

TobiWahnKenobi
2007-07-08, 13:25:38
diese messungen sind doch für'n popo - oder hat das jemand unter vistas aero gemessen.. wohl nicht ;)

alles bleibt anders.


(..)

mfg
tobi

dargo
2007-07-08, 13:25:46
ja toll meine X1900XT zieht bei mir im idle @0,95Volt und 164/164

schätzungsweise irgendwas um die 20Watt aus der dose (wenn überhaupt)

Schätzen kannst du viel. Ich will Zahlen sehen. ;)
Außerdem, wer hat mit dem Thema Stromverbrauch überhaupt angefangen? Oder suchen wir jetzt die beste Pro Watt Grafikkarte? :D


im vergleich zu einer 88GTX sind das zwischen 10 und 15% von dieser bzw. 80-90% weniger
http://www.xbitlabs.com/images/video/gf8800/results/8800gtx_power.gif
was sagen uns jetzt diese tollen vergleiche?

Wer redet hier von einer GTX? :|
Außerdem, die GTX kannst du auch locker in die Region ~40-45W Netto in Idle bringen.


und zu deiner 3D problematik..ist ja toll das du 24/7 zeit und lust zum zocken hast XD
Was für Problematik? Ich habe nur Zahlen genannt die ich unter Last gemessen habe weil der Gast meinte eine GTS würde so viel mehr Strom verbrauchen. Wenn du damit nicht leben kannst, dass eine GTS bei Last weniger Strom verbraucht als die X1900XT ist das dein Problem, nicht meins.

@dargo
Dein Vergleich ist dann aber unfair, wenn du die eine Karte untertaktest und die andere nicht.

Warum unfair? Die X1900XT wird durch den Treiber schon untertaktet. Ja, sogar die Spannung wird in Idle gesenkt im Gegensatz zur GTS. Dass man da noch weiter bei der X1900XT nachhelfen kann habe ich bereits gesagt.


Wenn du bei einer X19xx nun noch Takt + Spannung weiter reduzierst, scheint es mir reichlich unmöglich, einen Unterschied von nur noch 5W zwischen den beiden Generationen zu erreichen.

Nochmal, die ~5W Netto Unterschied beziehen sich auf GTS 640MB@200/200Mhz und X1900XT@500/600Mhz mit 1,2V.


Außerdem hast du das Gesamtsystem gemessen. Darin sind auch die Bauteile des Mainboards und des Netzteils inklusive. Woher weißt du denn, das der Unterschied nur durch die Grafikkarte und nicht durch die anderen Komponenten verursacht wurde? ...
Ich kenne den Wirkungsgrad meines NTs. Ich habe nicht umsonst ~5W Netto gesagt.

Gast
2007-07-08, 13:34:41
Ich habe nur Zahlen genannt die ich unter Last gemessen habe weil der Gast meinte eine GTS würde so viel mehr Strom verbrauchen.

Tut sie auch.
Wenn wir mal realistischer an die Sache herangehen, lässt sich der Verbrauch einer X1950XT (die X1950XTX ist wegen ihres Preises sowieso uninteressant) von knapp 28 auf unter 20W senken. Vielleicht noch etwas mehr.

Selbst wenn du nun den Idle Verbrauch einer GTS auf die hälfte reduzierst, sind es immer noch mehr als deine angesprochenen 5 Watt.

Gehen wir mal von 15 Watt unterschied aus, so ergibt das immer noch eine Summe von knapp 14€ in meinem Anwendungsfall in nur einem Jahr. Den darfst du dann auf den Preis draufrechnen und schon hat die GTS nicht mehr ein besseres Verhältniss...

Übrigens gibts immer noch einige Anwendungen die die X1900 gleichauf sehen. Wenn gerade ich diese Anwendungen nutze, nützt es mir reichlich wenig, wenn sie theoretisch schneller wäre, aber es nicht ist. Das verschlechtert das Verhältniss nochmal enorm!

Gast
2007-07-08, 13:37:11
Warum unfair? Die X1900XT wird durch den Treiber schon untertaktet.

Was isn das für ein Argument?

Nochmal, die ~5W Netto Unterschied beziehen sich auf GTS 640MB@200/200Mhz und X1900XT@500/600Mhz mit 1,2V.

Und warum machst du dir den Aufwand beim G80 den Stromverbrauch zu senken und bei der X1900 nicht? Reichlich dämlich wie ich finde - dieser vergleich.

Ich kenne den Wirkungsgrad meines NTs. Ich habe nicht umsonst ~5W Netto gesagt.
Kennst du nicht. Dafür müsstest du ihn nachmessen. Und zwar ohne PC-Komponenten darin. Ich bezweifel, das du über solch hochwertige Prüfwerkzeuge verfügst. :)

dargo
2007-07-08, 13:43:53
Wenn wir mal realistischer an die Sache herangehen, lässt sich der Verbrauch einer X1950XT (die X1950XTX ist wegen ihres Preises sowieso uninteressant) von knapp 28 auf unter 20W senken. Vielleicht noch etwas mehr.

Das wird schwierig. Nehme als Beispiel einen A64 Singlecore der mit C&Q in Idle mit 1,1V und 1Ghz ~5W verbraucht. Ich hatte mal 0,85V und 800Mhz probiert. Das hat mir eine Ersparnis von <1W Brutto gebracht. Irgendwann ist Schluss mit sparen. ;)


Selbst wenn du nun den Idle Verbrauch einer GTS auf die hälfte reduzierst, sind es immer noch mehr als deine angesprochenen 5 Watt.

Ach Leute, ist es denn so schwer zu verstehen?
Nochmal, die ~5W Netto Unterschied beziehen sich auf GTS 640MB@200/200Mhz und X1900XT@500/600Mhz mit 1,2V.


Gehen wir mal von 15 Watt unterschied aus, so ergibt das immer noch eine Summe von knapp 14€ in meinem Anwendungsfall in nur einem Jahr. Den darfst du dann auf den Preis draufrechnen und schon hat die GTS nicht mehr ein besseres Verhältniss...

Dann kauf dir doch eine sparsamere Graka wenn du jeden €uro zählen willst/musst. :)

Gast
2007-07-08, 13:51:15
Das wird schwierig.

Nicht schwieriger als bei einem G80. Dabei liegen die Nachteile eher beim G80, da er über deutlich mehr Transistoren verfügt, die zu den gefürchteten Leckströmen führen können.

Der 2D Modus ist noch lange nicht ausgereizt bei den X1900-Karten. Wenn, dann vergleiche bitte fair!

In Werkseinstellung scheint der Verbrauch des G80 knapp doppelt so hoch zu liegen. Das wären hier ~28 vs. 56W.

Bei der Rechnung verschlechtert sich das Verhältniss noch weiter. Ich würde fast 10% des Kaufpreises an Stromverbrauch zahlen. Nee, danke.
Unter Preis-Leistung verstehe ich was anderes!

dargo
2007-07-08, 13:54:13
Was isn das für ein Argument?

Ein sehr wichtiges sogar!
Die X1900XT wird durch den Treiber sogar undervoltet, im Gegensatz zur GTS.


Und warum machst du dir den Aufwand beim G80 den Stromverbrauch zu senken und bei der X1900 nicht?
Weil ich gerne mit Hardware experimentiere. Und vom Aufwand kann keine Rede sein. Auch die X1900XT lief bei mir mit weniger Spannung/Takt als der Treiber es zuläßt. ;)
Nur den Stromverbrauch hatte ich @Standard gemessen. Soweit alles klar?


Kennst du nicht.
Wollen wir wetten? ;)
http://www.planet3dnow.de/artikel/hardware/netzteile/netzteil2006/mittelklasse/33.shtml

Ein bissel denken/rechnen kann ich auch. Bei gemessenen 120W hat mein NT eine Effizienz von ~75%.

Der 2D Modus ist noch lange nicht ausgereizt bei den X1900-Karten. Wenn, dann vergleiche bitte fair!

Nenne mir endlich Zahlen und keine Vermutungen deinerseits.

Nee, danke.
Unter Preis-Leistung verstehe ich was anderes!
Mein Gott, dann kauf dir Onboard Grafik und spam den Thread nicht zu, danke.

PCGH_Carsten
2007-07-08, 13:56:45
Das gilt aber auch nur, wenn ein passender Unterbau vorhanden ist. Bei Durchschnittssystemen sieht das schon ganz anders aus. Einen 3,46 GHz, 4 MB Core 2 hat sicher nicht jeder.

Bench das nochmal auf einem FX60. :)

Wenn ich mich natürlich künstlich einschränke, kann ich quasi eine beliebige Karte zum PL-Sieger kühren. Wie wär's mit dem Durchschnittsssystem der Valve-Umfrage als Unterbau? ;) So ein geschätzter Single-Core 3200+ würde bestimmt das komplette High-End zusammenbremsen.

Einen FX-60 hat auch nicht jeder und etliche, gleich"teure" E6600er machen recht problemlos 3,2-3,4 GHz mit.

Gast
2007-07-08, 14:02:32
Auch die X1900XT lief bei mir mit weniger Spannung/Takt als der Treiber es zuläßt. ;)

Die hast du hier aber nicht in gleicher Weise als Vergleich herangenommen, laut deiner Aussage.

Das ist nicht kein fairer und sinniger Vergleich.

Wollen wir wetten? ;)
http://www.planet3dnow.de/artikel/hardware/netzteile/netzteil2006/mittelklasse/33.shtml

Ich wette nicht, wenn ich bereits gewonnen habe.

Mein Gott, dann kauf dir Onboard Grafik und spam den Thread nicht zu, danke.

LOL. Ich empfehle dir das Threadthema zu lesen.
Dann sollte dir auffallen, das eine Diskussion in Richtung eines G80 vollkommen fehl am Platze ist und die hast du und nicht ich hier geführt. :tongue:

Gast
2007-07-08, 14:06:06
Einen FX-60 hat auch nicht jeder und etliche, gleich"teure" E6600er machen recht problemlos 3,2-3,4 GHz mit.

Es ging nur um die Leistung. Ein System in Richtung eines 2,6 GHz Athlon 64 ist wesentlich öfter anzutreffen, als ein 3,46 GHz Core 2.

Wenn du dich hier im Forum umschaust, wirst du selbst an diesem Platz einige User mit 1/2MB Core 2 um 3 GHz finden, der im Vergleich zur 4MB Version auch nochmal langsamer ist.

Theorie und Praxis, schön und gut, aber wenn jemand ne Preis-Leistungskarte sucht, setzt er bei den restlichen Komponenten sicher nicht auf eine High-End CPU a la X6800 oder QX6700@3,5+ GHz

dargo
2007-07-08, 14:07:15
LOL. Ich empfehle dir das Threadthema zu lesen.
Dann sollte dir auffallen, das eine Diskussion in Richtung eines G80 vollkommen fehl am Platze ist und die hast du und nicht ich hier geführt. :tongue:
Ich erspare mir weitere Diskussionen mit dir da es eh sinnlos ist. Oder soll ich gleich mit dem Kühler der GTS und der BQ kommen?

Es ging nur um die Leistung. Ein System in Richtung eines 2,6 GHz Athlon 64 ist wesentlich öfter anzutreffen, als ein 3,46 GHz Core 2.

Das ist vollkommen richtig. Du musst das aber auch von der anderen Seite sehen. Wer sich zb. eine GTS für einen A64 @2,6Ghz holt der kann die "überschüßige" Leistung in die BQ investieren (Auflösung, AA/AF Stufe usw.). :)

PCGH_Carsten
2007-07-08, 14:15:00
Es ging nur um die Leistung. Ein System in Richtung eines 2,6 GHz Athlon 64 ist wesentlich öfter anzutreffen, als ein 3,46 GHz Core 2.

Wenn du dich hier im Forum umschaust, wirst du selbst an diesem Platz einige User mit 1/2MB Core 2 um 3 GHz finden, der im Vergleich zur 4MB Version auch nochmal langsamer ist.

Wenn ich ein Preis-Leistungsverhältnis ermitteln will, sollte ich darauf achten, dass die vorhandene Leistung nicht künstlich gebremst wird, sonst kann ich gleich schätzen.

Aber wenn du unbedingt willst: Schau dir das CB-Rating in 1600x1200 mit 8xAA an. Diese Auflösung schafft ein nahezu beliebiger, billiger 19-CRT und da spielt die CPU kaum noch eine Rolle.



Theorie und Praxis, schön und gut, aber wenn jemand ne Preis-Leistungskarte sucht, setzt er bei den restlichen Komponenten sicher nicht auf eine High-End CPU a la X6800 oder QX6700@3,5+ GHz
Für 3,2 GHz mit 2 MByte Cache pro Core reicht i.d.R. ein 160 Euro teurer E6420. Für solche CPU-Leistung braucht man keinen Prozessor mit einem Ausgangspreis von 800 Euro und mehr.

up¦²
2007-07-08, 14:17:40
Ich überlege gerade daran rum mir bald mal wieder eine neue Grafikkarte zu besorgen.

Allerdings gibt es irgendwie noch kein gutes Angebot.

Bis jetzt habe ich mir eigentlich immer die Karten aus dem unteren High-End Bereich rausgepickt. (GF2 GTS, GF4 TI 4200 , GF6 6800 LE)
Mit denen konnte ich ziemlich lange alle Spiele auf den höchsten Einstellungen spielen.

Die letzte Karte die in diese Richtung ging war die Radeon X1950 Pro, die ja jetzt angeblich auch schon wieder zu langsam für kommende Spiele sein soll...


Wann wird es wieder mal so ein Angebot geben?

Was will man mehr? Mehr an P/L geht einfach nicht :rolleyes:
http://geizhals.at/eu/a237118.html
Karten, die du oben aufführst waren teilweise garnicht so billig, wie du vielleicht vermutest oder in Erinnerung hast, ganz im Gegenteil...
Wenn du jetzt 300-400€ ausgibst, tja...
DX10 ist eben immer noch eine Katze im Sack - leider!!!
Scheinbar hat es Gründe, die Käufer nicht schon jetzt mit der bitteren Realität vertraut zu machen, sonst hätten wir längst "was brauchbares" um DX10 mal real anzutesten, egal ob von Futuremark oder von Crytek :biggrin:

Gast
2007-07-08, 14:27:41
Wenn ich ein Preis-Leistungsverhältnis ermitteln will, sollte ich darauf achten, dass die vorhandene Leistung nicht künstlich gebremst wird, sonst kann ich gleich schätzen.

Da machst du es dir aber sehr einfach.

Wenn jemand nach einer Karte mit gutem Preis-Leistungsverhältniss, wie z.B. die 1950Pro fragt, denkst du dann wirklich, das dieser User eine High End CPU im Einsatz hat?

Wo bleibt da die Praxis? Was bringt es mir zu wissen, das eine Karte mit 4 GHz CPU schneller ist, wenn sie mit der von den Käufern genutzten CPU dann doch nicht ist?

Aber wenn du unbedingt willst: Schau dir das CB-Rating in 1600x1200 mit 8xAA an. Diese Auflösung schafft ein nahezu beliebiger, billiger 19-CRT und da spielt die CPU kaum noch eine Rolle.

Irrtum. Du kannst die Auflösung noch so hoch drehen, es gibt Stellen, die sind und bleiben einfach CPU limitiert. Die CPU ist das Herzstück, ohne die geht gar nichts. Wie will deine Grafikkarte denn etwas berechnen, wenn die CPU keine Daten liefert? ... Denk mal darüber nach!

Bei fast allen Benchmarks sehe ich nirgendwo eine Statistik darüber, wieviele sekunden des Benchmarks nun CPU und wieviele nur Grafikkartenlimitiert waren. Das fehlt eindeutig, um eine eindeutige Prognose abgeben zu können.

Oder soll ich gleich mit dem Kühler der GTS und der BQ kommen?

Geht weiterhin am Threadthema vorbei.

dargo
2007-07-08, 14:47:32
Irrtum. Du kannst die Auflösung noch so hoch drehen, es gibt Stellen, die sind und bleiben einfach CPU limitiert. Die CPU ist das Herzstück, ohne die geht gar nichts. Wie will deine Grafikkarte denn etwas berechnen, wenn die CPU keine Daten liefert? ... Denk mal darüber nach!

Genau diese Stellen werden durch eine X1950pro auch nicht besser. Denk mal darüber nach. ;)
Also, was braucht der User? Richtig, erstmal eine "vernünftige" Ausgangsbasis.


Bei fast allen Benchmarks sehe ich nirgendwo eine Statistik darüber, wieviele sekunden des Benchmarks nun CPU und wieviele nur Grafikkartenlimitiert waren. Das fehlt eindeutig, um eine eindeutige Prognose abgeben zu können.

Wer soll das bitte machen? Weißt du überhaupt was das für ein Aufwand ist? Außerdem kannst du nahezu alle Benchmarks im Netz in die Tonne kloppen da zu 99% nur Timedemos verwendet werden.

Lawmachine79
2007-07-08, 14:52:12
Liegt bestimmt am Speicherbug. ATI-Karten brechen nicht so ein, wenn der VRAM ausgeht.

dargo
2007-07-08, 14:54:02
Liegt bestimmt am Speicherbug. ATI-Karten brechen nicht so ein, wenn der VRAM ausgeht.
Das stimmt nicht! Wie oft muss ich das noch erwähnen? :|
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137

Gast
2007-07-08, 15:04:22
Genau diese Stellen werden durch eine X1950pro auch nicht besser.

Absoluter Denkfehler.
Die schnellere Grafikkarte benötigt mehr Daten pro Zeit um überhaupt schneller zu sein.

Wenn die CPU diese nicht liefern kann, wird in erster Linie die schnellere Grafikkarte ausgebremst, bei der langsameren muss das (noch) nicht der Fall sein. Es kann, aber es muss nicht.

Besonders bei der jetzigen Verteilung, wo die meisten highend chips um Faktor X schneller sind als die des mainstreams, tritt dieser Fall oft ein.

dargo
2007-07-08, 15:13:58
Wenn die CPU diese nicht liefern kann, wird in erster Linie die schnellere Grafikkarte ausgebremst, bei der langsameren muss das (noch) nicht der Fall sein. Es kann, aber es muss nicht.

Vielleicht solltest du mal erwähnen in welchen Dimensionen wir uns hier bewegen. :rolleyes:

Gast
2007-07-08, 15:22:38
Das werde ich nicht erwähnen, weils erstens gar nicht möglich ist und zweitens am Thema vorbei gehen würde.

Wenn deine CPU nicht genügend Instruktionen an die GPU liefert, wie soll diese dann mehr berechnen können?

Bei einer schnelleren GPU ist das nunmal eher der Fall, als bei einer langsameren.

Da liegt der Hund begraben. Die hier prognistieren Prozentwerte beziehen sich meist auf Systemen mit enormer CPU-Power. In den Systemen in denen solche (günstige) Preis-Leistungskarten zum Einsatz kommen, existieren sie aber meistens nicht. Dadurch wird das Ergebniss extrem verfälscht.

dargo
2007-07-08, 15:27:50
Das werde ich nicht erwähnen, weils erstens gar nicht möglich ist und zweitens am Thema vorbei gehen würde.

Natürlich ist das möglich. Man nehme bei, sagen wir mal, einem A64@2,5Ghz System eine X1950pro 512MB und eine G8800GTS 640MB. Und jetzt bencht man eine Szene (keine Timedemo!) und vergleicht. Vorraussetzung - die Szene muss in beiden Fällen 100%-ig cpu-limitiert sein.


Wenn deine CPU nicht genügend Instruktionen an die GPU liefert, wie soll diese dann mehr berechnen können?

Und die wären? Momentan hört sich das für mich bei dir mehr nach Theorie als Praxis an.

Gast
2007-07-08, 15:33:51
Natürlich ist das möglich.

Nein.

Man nehme bei, sagen wir mal, einem A64@2,5Ghz System eine X1950pro 512MB und eine G8800GTS 640MB.

Praxisfern. Jeder hat hier ein anderes System, wem soll das nutzen?

Die hier angeblich viel schnelleren Highend Karten mit gutem Verhältniss aus Leistung und Preis sind dann doch nicht so Highend, wenn sie bei einem Durchschnittssystem zum Einsatz kommen.
Da schrumpft der maximale Unterschied schnell deutlich zusammen und dadurch verschlechtert sich auch das Preis-Leistungsverhältniss wieder.

Das wird bei der ganzen Diskussion hier gar nicht berücksichtigt. Man sollte schon ein wenig weiter denken, als bis zum nächsten realitätsfernen Bench!

TobiWahnKenobi
2007-07-08, 15:43:20
es war noch nie - und das ist kein geheimnis - klug, grafikkarten und infrastrukturen zu mischen, wenn mehr mindestens als eine generation dazwischen liegt.

solche aufklärungsarbeit sollten eigentlich die spiele-magazine leisten.


(..)

mfg
tobi

dargo
2007-07-08, 15:48:11
Nein.

Na du bist mir vielleicht lustig. :)
Ich habe dir geschildert wie man es machen könnte und du sagt einfach nein. :|

Ich zitiere dich nochmal:
Irrtum. Du kannst die Auflösung noch so hoch drehen, es gibt Stellen, die sind und bleiben einfach CPU limitiert. Die CPU ist das Herzstück, ohne die geht gar nichts. Wie will deine Grafikkarte denn etwas berechnen, wenn die CPU keine Daten liefert?
Wenn die CPU diese nicht liefern kann, wird in erster Linie die schnellere Grafikkarte ausgebremst, bei der langsameren muss das (noch) nicht der Fall sein. Es kann, aber es muss nicht.

Darauf hin sagte ich:
Genau diese Stellen werden durch eine X1950pro auch nicht besser.
Dann du:
Absoluter Denkfehler.
Dann erkläre mir mal warum die GTS 640 bei gleicher Szene langsamer laufen sollte bei einem 100%-igem CPU-Limit als die X1950pro. Oder wir reden aneinander vorbei.



Die hier angeblich viel schnelleren Highend Karten mit gutem Verhältniss aus Leistung und Preis sind dann doch nicht so Highend, wenn sie bei einem Durchschnittssystem zum Einsatz kommen.
Da schrumpft der maximale Unterschied schnell deutlich zusammen und dadurch verschlechtert sich auch das Preis-Leistungsverhältniss wieder.

Auch das ist falsch!

Wer bestimmt denn die "BQ-Norm" beim Spielen? Immer noch der User selbst. Wenn derjenige einen 22" TFT hat dann kann er, wie schon gesagt, die "überschüßige" Grafikleistung in bessere BQ investieren (zb. 8xQAA). Mache das mal mit einer X1950pro (abgesehen davon, dass sie max. 6xAA bietet). ;)

Gast
2007-07-08, 16:00:03
Ich habe dir geschildert wie man es machen könnte und du sagt einfach nein. :|

Richtig. Auch nur deshalb, weil der Vorschlag gelinde gesagt Unsinn ist und mit der Realität nichts gemein hat.
Es gibt tausende Anwendungen, jede verhält sich anders und ebensoviele Hardwarekombinationen.
Wenn du es schaffst, diese paar Millionen von verschiedenen Kombinationen zu benchen, bevor die Nachfolgegenerationen raus sind, dann Respekt, aber ich halte das unmöglich. ;D

Über den Rest brauche ich nichts mehr sagen. Fakten lassen sich nicht wegdiskutieren und logisches denken erst recht nicht. Daran mangelt es hier öfters mal.

dargo
2007-07-08, 16:13:45
Richtig. Auch nur deshalb, weil der Vorschlag gelinde gesagt Unsinn ist und mit der Realität nichts gemein hat.
Es gibt tausende Anwendungen, jede verhält sich anders und ebensoviele Hardwarekombinationen.

Ich möchte von dir keine tausende Beispiele sondern nur eins in dem du mir beweist, dass bei einer 100% cpu-limitierten Szene eine GTS langsamer ist als eine X1950Pro. Wenn du mir nicht mal das liefern kannst ist alles was du in diesem Zusammenhang gesagt hast reine Spekulation/Vermutung.

Gast
2007-07-08, 16:21:31
Ich möchte von dir keine tausende Beispiele sondern nur eins in dem du mir beweist, dass bei einer 100% cpu-limitierten Szene eine GTS langsamer ist als eine X1950Pro.

Dann empfehle ich dir mal meine Texte richtig zu lesen. Ich sagte niemals etwas von "langsamer als"!

Ich sagte, das die schnelleren Karten ihr Potential erst mit einer schnellen CPU voll entfalten und das sollte allseits bekannt sein.

Wenn bei einer Benchmarkübersicht mit Core 2 @ 3,46 GHz eine GTX um 50% schneller ist als eine GTS, muss das bei einem anderen System noch lange nicht so sein und genau darum drehte sich alles, was ich geschrieben habe.

Wer eine Karte mit gutem Verhältniss aus Preis-Leistung sucht ist nunmal selten dazu bereit, ausschließlich High End zu kaufen, das gilt daher sehr oft ebenfalls für die CPU.

Mehr habe ich nicht und niemals gesagt. Deine Forderungen sind ziemlich unpassend, meine Zeit vergeude ich nicht für etwas, was mich nicht im geringsten interessiert hat.

=Floi=
2007-07-08, 16:27:25
warum sollte ich bei einem grafikkartentest mit einer limitierenden cpu testen?

wir wollen das beste p/l verhältnis und dazu brauche ich eben ein nicht limitierendes drumherum und entsprechende spiele und settings damit die schnellere karte auch zeigen kann was in ihr steckt

gast deine aussagen sind so falsch, dass es schon wehtut ;D
----
eine GTX hat übrigens 50% mehr shaderpower und eine GTS bräuchte "nur" 1800mhz shaderclock um gleichzuziehen
ich sehe die GTX zz noch immer als die karte mit dem besten p/l da man für die 440€ auch entsprechende grafikleistung bekommt!

dargo
2007-07-08, 16:28:15
Dann empfehle ich dir mal meine Texte richtig zu lesen. Ich sagte niemals etwas von "langsamer als"!

Gut, dann haben wir aneinander vorbei geredet. Oder ich hatte dich falsch verstanden.


Ich sagte, das die schnelleren Karten ihr Potential erst mit einer schnellen CPU voll entfalten und das sollte allseits bekannt sein.

Und ich sage dir, dass es falsch ist. In erster Linie bestimmt die CPU mit wievielen Frames zu spielen kannst. Erst dann bestimmt der User wie weit er mit den Details, der Auflösung und eventuell AA/AF geht bis er seine für ihn flüßige Grenze erreicht hat. Und glaube mir, selbst eine GTS 640 schafft nicht überall in 1280x1024 4xAA/16xAF durchgehend flüßige Frames. Mit flüßig meine ich mindestens 40fps.

reunion
2007-07-08, 17:24:07
Mal rein zum Thema GTS vs. GTX:

Laut aktuellem Geizhalsstand ist die GTX 134 Euro, also ~44% Prozent teurer als die 640er-GTS (Lieferbarkeit und Seriosität des Shops vorausgesetzt).

Wenn ich mir das CB-Qualitätsrating in 1280x1024 so anschaue, liegt die GTX 46% vor der GTS, in 1600x1200 sind's noch 38%.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

Wann war es jemals der Fall, dass man linear mit den ausgegeben Euro auch mehr Leistung bekam im Nahe-High-End?

X800pro/XT zB. Das allerdings als Vorteil zu sehen, ist schon ziemlich gewagt. Denn der einzige Grund, warum das so ist, ist das die GTS sehr stark abgespeckt wurde.

gordon
2007-07-08, 20:09:31
Bis jetzt habe ich mir eigentlich immer die Karten aus dem unteren High-End Bereich rausgepickt. (GF2 GTS, GF4 TI 4200 , GF6 6800 LE)


Wieso spielst du eigentlich mit meinem PC ;) - haargenau dieselbe Reihenfolge bei den Grakas hatte ich auch. Sag Bescheid was du als nächstes nimmst, damit ich nicht lange überlegen muss ;D

deekey777
2007-07-08, 22:01:17
RV670 -> wohlmöglich erst 2008 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355&highlight=RV670)
Bei ATi gibt es ein Riesenloch im Bereich $ 159 - 299, das irgendwie gestopft werden muss. Möglicherweise (!) wird ATi offiziell zwei RV630 auf irgendeine Weise zusammenkleben, um dieses Loch zu stopfen, wobei dies immernoch zu teuer wäre als einen 200-mm²-Chip zu nutzen, den man zuzweit auch als Ultrahighend-Lösung nutzen kann.

Roi Danton
2007-07-08, 23:25:02
Die 1950GT + Übertakten ist doch ein gutes Preis-Leistungsangebot?Gut, aber nicht super.
[...]
Die war immerhin aus der neusten Generation
[...]Pragmatisch betrachtet ist das egal, da derzeit kein auf dem Markt befindliches Spiel diese neuen DX10 Fähigkeiten ausnutzt. Die AF und AA Qualität ist bei den X19xx auch nicht von schlechten Eltern, so dass halt nur die DX10 Architektur als Argument für die neuste Generation gilt? Aber stimmt schon, vom Gefühl her fehlt der "neueste Entwicklung" Bonus, was sich doch auf die (wohl nicht rational entwickelte) Kaufentscheidung niederschlägt. ;)

Davon ab: Wenn es eine Super-P/L-Karte gäbe, wäre das Grafiksegment doch langweilig und jeder einigermaßen versierte Nutzer würde die gleiche Karte kaufen.

So gibt es halt momentan nur gute Karten:
Für den einen ist es die 8800GTS 320, für den anderen die 1950GT, für den dritten die 8800GTX und der vierte liebt die 2900XT. Der eine mag halt Äpfel, der andere nur Schokolade. Hauptsache, es schmeckt. :D

DaBrain
2007-07-08, 23:31:44
Davon ab: Wenn es eine Super-P/L-Karte gäbe, wäre das Grafiksegment doch langweilig und jeder einigermaßen versierte Nutzer würde die gleiche Karte kaufen.



Langweilig? Vielleicht, aber immerhin würde ich mir dann mal eine neue Karte besorgen.

Ich habe bis jetzt halt immer nur bei diesen "Super"Angeboten zugeschlagen.

madjim
2007-07-09, 03:46:42
Ich weis zwar nicht ob das bereits gepostet wurde, dennoch schreibe ich es.
Bei Alternate gibt es wieder 7950GX2 zu kaufen.
http://www.alternate.de/html/product/details.html?articleId=149123

Ist zwar nicht ganz so billig wie die Leadtek die Sie vor einiger Zeit angeboten haben, aber immer noch preiswert für 229€.

=Floi=
2007-07-09, 03:58:50
die unified shader architecture ist aber schon eine feine sache und schon ein gewaltiger fortschritt der gerne übersehen wird

Gast
2007-07-09, 06:15:03
warum sollte ich bei einem grafikkartentest mit einer limitierenden cpu testen?

Du hast kein Wort von dem, was ich geschrieben habe, verstanden.

Versteht doch, das Grafikkartentests nichtssagend sind, wenn sie mit einer CPU durchgeführt worden sind, die der Käufer der Karte hinterher nicht hat. Glaubt ihr das Käufer von Karten wie der X1950GT/Pro die beste CPU ihr eigen nennen? Na?

Es wird hier immer auf Basis solcher Ergebnisse eine Karte empfohlen, obwohl das schlichtweg falsch ist.

Da wird glatt gelogen und behauptet, eine GTX sei immer 50 % schneller als der Rest ... aber daran, das dies nur mit einer CPU im >3,5 GHz Bereich der Fall ist, darauf weist niemand hin. :down:

Und ich sage dir, dass es falsch ist. In erster Linie bestimmt die CPU mit wievielen Frames zu spielen kannst.

... warum stempelst du meinen Text als falsch ab, obwohl ich nie was anderes gesagt habe? :hammer:

Die CPU muss die benötigten Daten liefern können, bevor die GPU sie berechnen kann. Da liegt nunmal das Problem! Das Limit einer schnellen Highend GPU liegt bedeutend höher, als das von Mittelklasse Karten, ergo benötigen diese auch immer eine schnelle CPU, um überhaupt wirklich schneller zu sein.

=Floi=
2007-07-09, 06:31:53
auf der autobahn im stau kann ich keinen porsche turbo gegen einen golf gti _testen_
es würde ein total falsches ergebnis dabei rauskommen

siehe
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=369477


was der user dann macht und kauft ist seine sache
uu kauft er in einem jahr ne neue cpu aber lässt die graka drinnen...

Gast
2007-07-09, 06:38:01
auf der autobahn im stau kann ich keinen porsche turbo gegen einen golf gti _testen_
es würde ein total falsches ergebnis dabei rauskommen

Schlechter und vorallem unpassender Vergleich!

Die Autobahn wird irgendwann frei sein, außerdem gibts für solche Tests, eine Teststrecke. :tongue: Aber deine CPU wird nicht einfach so irgendwann mal schneller werden. Dafür müsstest du schon aufrüsten und das tun Preis-Leistungsfetischten nunmal nur mit begrenzten Geldmitteln, wenn überhaupt.

Es wäre reichlich dämlich, jemanden, der eine neue Grafikkarte sucht, die ein gutes Preis-Leistungsverhältniss hat, eine 8800GTS/GTX zu empfehlen, weil diese angeblich viel Power hat zu dem Preis, aber der User doch nur einen Celeron D besitzt ...

Da sind diese Karten eben nicht immer schneller, was das Preis-Leistungsverhältniss DEUTLICH verschlechtert! Das muss auf jeden Fall immer berücksichtigt werden!

Gast
2007-07-09, 10:32:42
Wenn jemand nach einer Karte mit gutem Preis-Leistungsverhältniss, wie z.B. die 1950Pro fragt, denkst du dann wirklich, das dieser User eine High End CPU im Einsatz hat?Naja, in Hardwareforen wie diesem hier, ist es eigentlich alles andere als selten, dass auch preisbewusste User einen hochgetakteten Core 2 Duo haben. Es muss ja nicht gleich ein QX6800 sein, auch ein E6420 mit ~3 GHz ist stark genug um mit einer 8800GTX seinen Spaß zu haben.
die unified shader architecture ist aber schon eine feine sache und schon ein gewaltiger fortschritt der gerne übersehen wirdHmm, es ist imho nicht hauptsächlich die Unified-Shader-Sache, die den G80 so sexy macht. ;)

Gast
2007-07-09, 10:41:03
Naja, in Hardwareforen wie diesem hier, ist es eigentlich alles andere als selten, dass auch preisbewusste User einen hochgetakteten Core 2 Duo haben. Es muss ja nicht gleich ein QX6800 sein, auch ein E6420 mit ~3 GHz ist stark genug um mit einer 8800GTX seinen Spaß zu haben.

Das streitet auch niemand ab, es ist aber so, je schwächer die CPU, desto weniger gut skalieren die schnellen Karten mit.

Bei diesem Thema dreht es sich bekanntlich um eine Preis-Leistungskarte und das Preis-Leistungsverhältniss ist nunmal nicht konstant, sondern zum einen von der Anwendung abhängig, die man betrachtet, die Auflösung und dem Systemunterbau.

Auf einem Celeron-D hat eine GTX alles andere als ein gutes Preis-Leistungsverhältniss, während sie auf einem Core 2 >3,5 GHz deutlich besser abschneidet.

Das ist es ja, was hier gar nie berücksichtigt wird.

TobiWahnKenobi
2007-07-09, 10:48:57
weil es nicht berücksichtigt werden muss. was du verlangst, ist schwachsinn, sorry.

nebenbei: die kleineren karten werden ebenfalls auf den gleichen infrastrukturen getestet :)


(..)

mfg
tobi

Vertigo
2007-07-09, 11:00:00
Das streitet auch niemand ab, es ist aber so, je schwächer die CPU, desto weniger gut skalieren die schnellen Karten mit.

Bei diesem Thema dreht es sich bekanntlich um eine Preis-Leistungskarte und das Preis-Leistungsverhältniss ist nunmal nicht konstant, sondern zum einen von der Anwendung abhängig, die man betrachtet, die Auflösung und dem Systemunterbau.

Auf einem Celeron-D hat eine GTX alles andere als ein gutes Preis-Leistungsverhältniss, während sie auf einem Core 2 >3,5 GHz deutlich besser abschneidet.

Das ist es ja, was hier gar nie berücksichtigt wird.
Wer würde überhaupt auf diese Idee kommen? :rolleyes:

Wer sich für 8800GTX/GTS interessiert, der hat auch die entsprechende Umgebung (z.Bsp. eine schnelle CPU und einen hochauflösenden Monitor). Und er wird die Karte in hohen Auflösungen und AA/AF-Settings betreiben. Hier ist es nunmal so, dass die GTS 640MB nur etwa 2/3 der Leistung einer GTX erreicht, aber aktuell ca. 4/5 des Preises kostet. Die GTX hat daher sogar das etwas bessere P/L-Verhältnis.

Gast
2007-07-09, 11:02:27
weil es nicht berücksichtigt werden muss.

Bevor du nicht zu der Einsicht kommst, das die eingesetzte CPU eine sehr große Rolle spielt, erübrigt sich jede Diskussion mit dir sowieso.
Da stellt sich nicht mal mehr die Frage, wer hier den schwachsinn von sich gibt...

nebenbei: die kleineren karten werden ebenfalls auf den gleichen infrastrukturen getestet :)

Wenn du jetzt mal ein wenig weiter denken würdest, kämst du vielleicht zu dem Schluß, das schnelle Karten nur dann in mehr fps resultieren, wenn die CPU auch schnell genug ist, die nötigen Daten dafür zu liefern.

Gast
2007-07-09, 11:07:06
Wer würde überhaupt auf diese Idee kommen?

Scheinbar eine menge User hier, sonst würden sie nicht ständig das Gegenteil behaupten ...

Hier ist es nunmal so, dass die GTS 640MB nur etwa 2/3 der Leistung einer GTX erreicht, aber aktuell ca. 4/5 des Preises kostet. Die GTX hat daher sogar das etwas bessere P/L-Verhältnis.

... das erreicht sie aber nur mit passendem Unterbau und das wurde hier von Anfang an nicht berücksichtigt.

Wovon reden wir hier? Von einem System mit Celeron D, von einem Athlon 64 @ 2 GHz, von einem Core 2 @3,5 GHz? Spielt alles eine Rolle, wenn es auf das Preis-Leistungsverhältniss einer Grafikkarte ankommt. Je langsamer der eingesetzte Unterbau, desto weniger weit kann sich die schnellere Karte auch absetzen, was widerum in ein schlechteres Preis-Leistungsverhältniss resultiert.

Man darf sowas nicht losgelößt, vom Rest des Systems betrachen. Wenn ihr schon ne Empfehlung geben wollt, welche Karte die meiste Leistung fürs Geld liefert, dann geht das nur unter dem Gesichtspunkt, bei dem das System bekannt ist.

Also wovon reden wir hier?

Eine PCIe x16 Karte kann ich auch zusammen mit einem Celeron D betreiben, aber ob die dann noch so schnell ist, wie hier einige von sich geben... ;D

TobiWahnKenobi
2007-07-09, 11:07:59
@gast mit komischen forderungen
du musst mit mir nicht diskutieren, weil wir da eh nicht auf einen nenner kommen.

deine aussage bezüglich des skalierungsverhaltens ist nicht falsch - aber der rest ist quark.

wer einen celeron D mit einer 88GTX/Ultra paart, hätte besser jemanden fragen sollen, der sich mit sowas auskennt - oder er hätte mal einen blick ins internet oder die fachpresse geworfen..

es ist usus, dass man mit aktuellen und potenten CPUs misst. was für eine diskussion willst du uns hier eigentlich aufdrücken - ist dir langweilig?


(..)

mfg
tobi

Vertigo
2007-07-09, 11:18:11
Scheinbar eine menge User hier, sonst würden sie nicht ständig das Gegenteil behaupten ...



... das erreicht sie aber nur mit passendem Unterbau und das wurde hier von Anfang an nicht berücksichtigt.

Wovon reden wir hier? Von einem System mit Celeron D, von einem Athlon 64 @ 2 GHz, von einem Core 2 @3,5 GHz? Spielt alles eine Rolle, wenn es auf das Preis-Leistungsverhältniss einer Grafikkarte ankommt. Je langsamer der eingesetzte Unterbau, desto weniger weit kann sich die schnellere Karte auch absetzen, was widerum in ein schlechteres Preis-Leistungsverhältniss resultiert.

Man darf sowas nicht losgelößt, vom Rest des Systems betrachen. Wenn ihr schon ne Empfehlung geben wollt, welche Karte die meiste Leistung fürs Geld liefert, dann geht das nur unter dem Gesichtspunkt, bei dem das System bekannt ist.

Also wovon reden wir hier?

Eine PCIe x16 Karte kann ich auch zusammen mit einem Celeron D betreiben, aber ob die dann noch so schnell ist, wie hier einige von sich geben... ;D
Ich traue eigentlich den meisten Leuten, die sich einen PC selbst zusammenstellen, ein Mindestmaß an Sachverstand zu. Wenigstens ein paar Reviews sollte jeder vor dem Kauf gelesen haben und dort steht auch drin, welche CPU(s) für den Test verwendet wurde(n‏). Daher kann kein mündiger Mensch ernsthaft in Erwägung ziehen, eine 8800er mit einem Celeron zu betreiben. Deine Argumente sind daher extrem weit hergeholt und entbehren jeder Grundlage.

ManuelCalavera
2007-07-09, 12:28:21
Also ich geb dem Gast ziemlich recht. Ein Kumpel von mir hatte sich für seinen Athlon XP 1700+ ne 9800 Pro gekauft die dann aber in der Konsequenz in einigen Spielen langsamer war als meine 9600XT auf nem Athlon64 3000+.

Natürlich hat er sich informiert, aber hätte es Benchmarks mit seiner CPU gegeben hätte er sie sich wahrscheinlich nie gekauft (utopisch, da viel zuviel Aufwand).

So hat er sich ein halbes Jahr geärgert und dann ne neue CPU gekauft...

Das man, wenn man reine GraKa-Power vergleichen will auf nen Stickstoffgekühlten 5 GHz Core2 (;)) setzt macht schon Sinn, aber dem "normalen" Käufer führt das eher in die Irre...

TobiWahnKenobi
2007-07-09, 12:41:30
ich habe damals mal eine gefrosch 5900 in einen pentium 3 mit 800mhz eingebaut; es hat mich aber nicht gewundert, dass ich nur 11fps im AM3 hatte, wo mein 3200+ (barton) mit der gleichen karte 60fps schaffte.

dein kumpel hat entweder sein system überschätzt (..neue graka rein und dann hab ich wieder zwei jahre ruhe..) oder er wusste es nicht besser.

er hätte sich aber bei einem computerhändler beraten lassen können, wenn er keine benchmarks im netz findet.

beratung kommt leider oft zu kurz, wenn man einfach nur billig kaufen möchte und überschätzung der eigenen fähigkeit zur beurteilung des eigenen systems ist auch recht verbreitet ;)

man könnte vielleicht die faustregel aufstellen (sofern man ein aufrüstwilliger PC-user ist), dass eine graka nicht gleichteuer wie, oder teurer als das restsystem sein sollte. zu restsystem zählen dann aber nicht drucker, bildschirm und laufwerke, sondern man sollte das schon auf mainboard, ram und CPU beziehen.

edit:
man sollte auch nicht mit den preisen rechnen, die man selbst vor 1-2 jahren bezahlt hat, sondern immer schön vom zeitwert ausgehen ;)


(..)

mfg
tobi

Gast
2007-07-09, 13:05:43
man könnte vielleicht die faustregel aufstellen (sofern man ein aufrüstwilliger PC-user ist), dass eine graka nicht gleichteuer wie, oder teurer als das restsystem sein sollte. zu restsystem zählen dann aber nicht drucker, bildschirm und laufwerke, sondern man sollte das schon auf mainboard, ram und CPU beziehen.(..)

mfg
tobi
Man muss halt nur wissen, dass Anwendungen beides brauchen: CPU oder GPU Power oder beides. Eine CPU ist nicht zu lahm für eine Karte sondern höchstens zu lahm für eine Anwendung, völlig unabhängig von der Karte. Aufgabe von beiden ist es, zu gewährleisten, dass die Framerate immer über 30 fps oder was derjenige auch immer für flüssig findet, hält. Allerdings bekommt man eine Graka häufiger in Games klein, dank hoher Auflösungen, HQ-AF und massig AA. Da kann man eigentlich nie genug Power davon haben. Bei der CPU ist man schon mit einem C2D 6400 / DC4400+ selbst gepaart mit ner 8800 GTX recht gut dabei. Gibt zwar Games, die sind an einigen Stellen stark cpu limitiert aber die meisten nagen doch an den Grakas bei aufgedrehten Qualitätseinstellungen, vor allem wenn noch ordentlich Rauch ins Spiel kommt, kann man nie genug GPU-Reserven haben.

ManuelCalavera
2007-07-09, 13:12:25
Er hat sich beraten lassen, ist aber wohl leider an einen "Hauptsache Umsatz"-Verkäufer geraten.
Mittlerweile hat er ja auch daraus gelernt, allerdings bin ich jetzt das "Opfer" das sich durch 3DCenter-Forum kämpfen darf :cool:

Er ist ja noch nichtmal ein DAU, nur ging er davon aus das die Benchmarks im Netz einen tieferen Sinn haben als "Wer produziert zur Zeit den schnellsten...".

Bei Online-Spielen kommt ja auch immer die Meldung das die Spielerfahrung sich beim online Spiel ändern kann. Bei Grafikkarten habe ich dazu noch keine Warnung gesehen.

g-string 3
2007-07-09, 13:33:42
so n xp 1700+ mit 9800pro ist ja so unpassend nun nicht.
Klar gibt er mehr her sobald man ihn auf 2GHz bringt, aber sooooo schlecht passt das auch wieder nicht zusammen

ManuelCalavera
2007-07-09, 14:10:25
Es geht hierbei ja auch um den Performance-Unterschied zur 9600XT mit dem A64. Laut Benchmarks sollte die 9800Pro die 9600XT überall vernichten.

g-string 3
2007-07-09, 14:18:39
solche benchmarks sind natürlich etwas irreführend.

Cyphermaster
2007-07-09, 14:22:55
Ich sehe das Problem bei sowas immer in den Dingen, die NICHT dabeistehen. Das Argument "aber das weiß man doch" ist bei Veröffentlichungen, die eben zum Großteil von Leuten gelesen werden, die NICHT den 3DC-Durchschnitts-Wissensstand haben, einfach nicht sinnig, genausowenig wie "hätte er sich halt jemand suchen müssen, der sich auskennt". Wie sollte der Betreffende denn wissen, daß er den Benchmarks gar nicht trauen kann?

Preis/Leistung kann man immer auf 2 Arten definieren: Objektiv und Subjektiv. Objektiv-P/L interessiert sich nur für Leistung/Euro, und zwar arithmetisch und nicht in FPS! Darüber braucht man wenig zu diskutieren. Subjektiv-P/L ist da ganz anders! Da zählt es, welche Karte einem für möglichst wenig Geld möglichst viel Spielgenuß verschafft. Und das hängt eben von wesentlich mehr als nur der Rechenleistung oder FPS-Balkendiagrammen ab!

N0Thing
2007-07-09, 14:24:22
Das man, wenn man reine GraKa-Power vergleichen will auf nen Stickstoffgekühlten 5 GHz Core2 (;)) setzt macht schon Sinn, aber dem "normalen" Käufer führt das eher in die Irre...


Einen Grafikkartentest mit untschdiedlichen CPUs würde ich mir auch wünschen. Die Performancereports von 3DC gehen ja in die Richtung,, es werden leider nur zwei Grafikkarten benutzt.
Und für mich wäre es interessant, ob sich eine 8800GTS bei einem 4200+ lohnt, oder ob ich mit einer x1950pro/gt kaum Leistungsverlust hätte, da die CPU schon am Ende ist.
Mir ist es egal, ob eine 8800GTS mit einem auf 3,5GHz getakteten Core2Duo mehr als 30FPS schafft, wenn meine CPU nur 18FPS ermöglichen würde.

Für einen reinen Leistungsvergleich ist eine sehr schnelle CPU nötig, aber ich spiele auch keinen 3DMark, der auch nur für einen reinen Leistungsvergleich gedacht ist.

Gast
2007-07-09, 14:29:18
Einen Grafikkartentest mit untschdiedlichen CPUs würde ich mir auch wünschen. Die Performancereports von 3DC gehen ja in die Richtung,, es werden leider nur zwei Grafikkarten benutzt.
Und für mich wäre es interessant, ob sich eine 8800GTS bei einem 4200+ lohnt, oder ob ich mit einer x1950pro/gt kaum Leistungsverlust hätte, da die CPU schon am Ende ist.
Mir ist es egal, ob eine 8800GTS mit einem auf 3,5GHz getakteten Core2Duo mehr als 30FPS schafft, wenn meine CPU nur 18FPS ermöglichen würde.

Für einen reinen Leistungsvergleich ist eine sehr schnelle CPU nötig, aber ich spiele auch keinen 3DMark, der auch nur für einen reinen Leistungsvergleich gedacht ist.
Kannst du ja selber rausfinden, indem du Auflösung verringerst. Ändern sich die fps nicht, ist die Wahrscheinlichkeit hoch, dass es cpu limitiert ist. Oder man übertaktet eine Komponente und prüft dann usw..

Cyphermaster
2007-07-09, 14:35:51
Kann man sicher selber rausfinden - dazu muß man aber die Karte schon gekauft haben... :rolleyes:

dargo
2007-07-09, 15:31:02
Das man, wenn man reine GraKa-Power vergleichen will auf nen Stickstoffgekühlten 5 GHz Core2 (;)) setzt macht schon Sinn, aber dem "normalen" Käufer führt das eher in die Irre...
Kannst du mir mal erklären wie man sonst die Performanceunterschiede der verschiedenen Grafikkarten darlegen soll wenn die CPU limitiert? :rolleyes:

N0Thing
2007-07-09, 19:27:09
Kannst du mir mal erklären wie man sonst die Performanceunterschiede der verschiedenen Grafikkarten darlegen soll wenn die CPU limitiert? :rolleyes:


Mit dem vom ihm erwähnten hochgetakteten Prozessor. :wink:
Damit kann man die theoretische Leistungsfähigkeit einer Grafikkarte untersuchten, aber für den Alltag kann man daraus nur dann brauchbare Informationen ziehen, wenn man selber ein ähnlich starke CPU wie im Benchmark benutzt.

Man sollte nicht vergessen, daß die Mehrheit der Anwender und darunter sicherlich auch die Mehrheit der regelmäßigen Spieler, keinen E6700 oder einen auf 3GHz übertakteten E6400 besitzen.

Wäre eigentlich schön, wenn ein paar Reviewseiten die Ideen von 3DC aufnehmen und einen Performancereport mit mehreren CPUs und mehreren Grafikkarten von einer 7600GT bis zu einer 8800GTX durchführen würden. Das bedeutet natürlich einen immensen Aufwand, allerdings wurde der Leser sowohl eine umfassede Darstellung über die theoretische, als auch über die praktische Performance bekommen und nicht nur eines von beiden, wenn überhaupt.

dargo
2007-07-09, 19:44:17
Mit dem vom ihm erwähnten hochgetakteten Prozessor. :wink:
Damit kann man die theoretische Leistungsfähigkeit einer Grafikkarte untersuchten, aber für den Alltag kann man daraus nur dann brauchbare Informationen ziehen, wenn man selber ein ähnlich starke CPU wie im Benchmark benutzt.

Man sollte nicht vergessen, daß die Mehrheit der Anwender und darunter sicherlich auch die Mehrheit der regelmäßigen Spieler, keinen E6700 oder einen auf 3GHz übertakteten E6400 besitzen.

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/13/

Um was wollen wir wetten, dass du die 62fps bei der FEAR-Timedemo in 1600x1200 4xAA/16xAF mit der G8800GTS genauso mit einem E6400@Standard erreicht obwohl CB einen X6800@3,46Ghz verwendet hat?
Ich hoffe, jetzt weißt du worauf ich hinaus will.

N0Thing
2007-07-09, 20:13:52
Ich weiß schon worauf du hinaus willst.
Allerdings interessiert mich ein Durchschnittsframewert bei einer Timedemo nicht sonderlich. Von Interesse für den Spieler ist die minimale Anzahl der Bilder pro Sekunde im eigentlichen Spiel. Das mag bei Fear vielleicht kein Problem sein, ob man mit einer 8800GTS mit einem X2 4200+ aber immer noch hohe Frameraten in neueren Spielen ala Gothic 3, Supreme Commander, C&C3 erreichen kann, halte ich dann doch für fragwürdig.

Und für Besitzer einer 939-CPU ist sowas durchaus von Interesse, denn ein einfaches austauschend der CPU ist nicht möglich, da dann auch direkt Mainboard und Arbeitsspeicher erneuert werden dürfen und nicht jeder hat genug Geld auf der hohen Kante um sich gleichzeitig eine 8800GTS, ein neues Mainboard, 2GB Arbeitsspeicher und eine neue CPU kaufen zu können.

Ist vielleicht auch eine spezielle Situation, aber m.M. nach wahrscheinlicher und häufiger anzutreffen, als Systeme mit den aktuellsten CPUs, oder Leute, die sich mal eben 600€ für ein neues System gönnen.

Gast
2007-07-10, 20:25:53
Ne Superkarte gibt es imo im Preis-/Leistungssegment nicht. Am besten gefallen mir noch die 7900gs und die x1950xt 512MB.

Undertaker
2007-07-10, 21:18:55
Wer würde überhaupt auf diese Idee kommen? :rolleyes:

Wer sich für 8800GTX/GTS interessiert, der hat auch die entsprechende Umgebung (z.Bsp. eine schnelle CPU und einen hochauflösenden Monitor). Und er wird die Karte in hohen Auflösungen und AA/AF-Settings betreiben. Hier ist es nunmal so, dass die GTS 640MB nur etwa 2/3 der Leistung einer GTX erreicht, aber aktuell ca. 4/5 des Preises kostet. Die GTX hat daher sogar das etwas bessere P/L-Verhältnis.

hardwaremäßig hat die gts nirgends weniger als 75% der einheiten der gtx, bei gleichem taktpotenzial

der aktuelle preisunterschied beträgt 304€ zu 437€, ergo kostet die gts nur 70%

-> wer übertaktet, hat mit der gts in jedem fall mehr leistung/€

=Floi=
2007-07-11, 06:56:33
warum?

ausgerechnet die GTX wird pro mhz mehr ca30% schneller (dazu muß sie eben auch richtig gefordert werden)

Bullz
2007-07-11, 08:12:22
Mal rein zum Thema GTS vs. GTX:

Laut aktuellem Geizhalsstand ist die GTX 134 Euro, also ~44% Prozent teurer als die 640er-GTS (Lieferbarkeit und Seriosität des Shops vorausgesetzt).

Wenn ich mir das CB-Qualitätsrating in 1280x1024 so anschaue, liegt die GTX 46% vor der GTS, in 1600x1200 sind's noch 38%.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet

Wann war es jemals der Fall, dass man linear mit den ausgegeben Euro auch mehr Leistung bekam im Nahe-High-End?

Dieser Beitrag sagt schon alles aus...

Die Zeiten sind gut für die Luxxer die viel Kohle in ihr System stecken weil sie mal wirklich die Leistung bekommen die sie in Euros invenstieren...

seien wir doch mal ehrlich... ich habe früher immer die Leute belächelt die irgendeine geforce 2 ultra, Ti 4600 etc gekauft haben.

Ich konnte mit ( Hausnummer ) 50 % des Geldes 75 % der Leistung der Highendkarten kaufen und war Glücklich. Mit Oc wurde das Verhältniss noch besser..

und jetzt ? linearität ist zum kotzen... 1 % aller PC user haben was davon und die restlichen 99 % dürfen richtig fett Auflösung und Details runterdrehen...

ich hoffe ATI holt mal gescheit die Preiskeule raus das sich die Zeiten wieder ändern und ich über viele Mitglieder nur den Kopf schütteln kann

=Floi=
2007-07-11, 08:46:56
das trifft aber nur auf die erste generation zu da hier noch chipgröße und dessen fehler mit in die kalkulation miteinspielen
bei der 7900er serie sah es ja schon wieder anders aus und mit einer 7900GT 512 550mhz kann man auch an eine GTX kommen
meine 7950GT geht auch auf GTX niveau für unter 250€

Gast
2007-07-11, 09:53:54
Dieser Beitrag sagt schon alles aus...

Die Zeiten sind gut für die Luxxer die viel Kohle in ihr System stecken weil sie mal wirklich die Leistung bekommen die sie in Euros invenstieren...

seien wir doch mal ehrlich... ich habe früher immer die Leute belächelt die irgendeine geforce 2 ultra, Ti 4600 etc gekauft haben.

Ich konnte mit ( Hausnummer ) 50 % des Geldes 75 % der Leistung der Highendkarten kaufen und war Glücklich. Mit Oc wurde das Verhältniss noch besser..

und jetzt ? linearität ist zum kotzen... 1 % aller PC user haben was davon und die restlichen 99 % dürfen richtig fett Auflösung und Details runterdrehen...

ich hoffe ATI holt mal gescheit die Preiskeule raus das sich die Zeiten wieder ändern und ich über viele Mitglieder nur den Kopf schütteln kann
So sieht's ja im PC-Spiele Bereich aus: Verbrannte Erde im Vergleich zu früher. Die wenigen "Luxxer" zocken unbeschwert, die meisten mit älterer Hardware spielen noch sporadisch PC und sind größtenteils auf die Konsolen umgeschwenkt. Ein Bruchteil quält sich noch mit langsamen Karten durch die Games mit reduzierten Details, da PC-Spiele recht einfach kostenlos besorgt werden können.

Vertigo
2007-07-11, 09:59:01
hardwaremäßig hat die gts nirgends weniger als 75% der einheiten der gtx, bei gleichem taktpotenzial

der aktuelle preisunterschied beträgt 304€ zu 437€, ergo kostet die gts nur 70%

-> wer übertaktet, hat mit der gts in jedem fall mehr leistung/€
1. Preise ändern sich, okay. :biggrin:
2. Ist die GTS in allen Bereichen wesentlich niedriger getaktet als die GTX, das ergibt dann sehr wohl einen größeren Unterschied zu Gunsten der GTX.
3. Lässt sich auch eine GTX ganz passabel übertakten. ;)

Gast
2007-07-11, 10:02:04
Dieser Beitrag sagt schon alles aus...

Die Zeiten sind gut für die Luxxer die viel Kohle in ihr System stecken weil sie mal wirklich die Leistung bekommen die sie in Euros invenstieren...

seien wir doch mal ehrlich... ich habe früher immer die Leute belächelt die irgendeine geforce 2 ultra, Ti 4600 etc gekauft haben.

Ich konnte mit ( Hausnummer ) 50 % des Geldes 75 % der Leistung der Highendkarten kaufen und war Glücklich. Mit Oc wurde das Verhältniss noch besser..

und jetzt ? linearität ist zum kotzen... 1 % aller PC user haben was davon und die restlichen 99 % dürfen richtig fett Auflösung und Details runterdrehen...

ich hoffe ATI holt mal gescheit die Preiskeule raus das sich die Zeiten wieder ändern und ich über viele Mitglieder nur den Kopf schütteln kann

Gott, heul doch nicht rum. Wenn du kein Geld ausgeben willst, dann lebe mit deiner alten Hardware oder in akzeptiere niedrige Qualität in Spielen.
Hätten die Leute früher die selben Ansprüche gestellt, wäre die frührere "Preis/Leistungs" Hardware ebenfalls nur "Abfall" gewesen.
Früher hat eine 6600GT auch nicht gereicht um in jedem Spiel in 1280*1024 mit 4xAA/16xAF zu spielen. Doch das muss heut ja gehen - sonst keine gute Hardware.
Ts, aufgrund der eigenen Ansprüche ergibt sich keine gute Preis/Leistung Hardware.

Undertaker
2007-07-11, 11:00:30
1. Preise ändern sich, okay. :biggrin:
2. Ist die GTS in allen Bereichen wesentlich niedriger getaktet als die GTX, das ergibt dann sehr wohl einen größeren Unterschied zu Gunsten der GTX.
3. Lässt sich auch eine GTX ganz passabel übertakten. ;)

2. ich habe ja gesagt, @max oc (werden ja hier die meisten machen)
3. absolut gesehen gehen beide im schnitt etwa 600-650mhz (mit dem vorteil, das die gts dabei einen höheren shadertakt bekommt als die gtx, aber der unterschied ist gering) - dann bleiben nur die hardwareunterschiede, wo die gts zwischen 75-83,3% der gtx besitzt

Savay
2007-07-11, 11:25:55
Eben. Bis auf einige Ausnahmefälle ist die R600-Serie den 8800ern total unterlegen und daher für die meisten keine Alternative. Wenn man dann noch die überlegenen BQ-Features des G80 hinzurechnet, gibt es kaum noch einen Grund eine vermurkste x2900xt zu kaufen.

schon funny wie dinge gehyped bzw kaputt geredet werden nur weil ATi mal NICHT nen chip anbietet der momentan im absoluten high end bereich mithalten kann...

der R600 ist nüchtern betrachtet nun wahrlich nicht "vermurkst"...die BQ ist faktisch eh gleichwertig und die performance ist auch mehr als ausreichend

fakt ist bei der füllrate kann sie nicht mithalten ...fakt ist aber genauso das sie ihr potenzial in form ihrer leistungsreserven bei heutigen games NICHT ausspielen kann! die benches zu den karten beweisen im wesentlichen NUR das der G80 der deutlich bessere D3D9 chip ist...

die kommenden D3D10 games werden mehr shaderleistung erfordern als alles was momentan verfügbar ist...und das nutzen die heutigen spiele schlicht garnicht aus!

so unrealistisch die synthetischen benches vom 3dmark2006 auch sind so sehr beweisen die Shader benches AUCH das der R600 im vergleich mit dem G80 boden GEWINNT je mehr die Pixelshader leistung eine rolle spielt.
ich will drauf wetten das sich das verhältniss zwischen R600 vs. G80 unter den in nem Jahr verfügbaren spielen sich doch ein wenig angleichen wird!

oh nicht das der R600 den G80 jemals wirklich wird schlagen könnte ABER der relative abstand wird kleiner je stärker es auf die shaderleistung ankommt :)

bedauerlich ist nur das sowas keinen schwanz interessiert...da wird ja immer nur geschaut wieviel *ugahugah* hundertmillionen fps da in d00m2.536 durch den framebuffer gejagt werden...

wenn man einfach mal hier:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index11.php

etwas genauer hinschaut...gametest 1- 4 da erkennt man die tendenz sehr schön! naja heutzutage wohl kaum "praxisrelevant" aber bei zukünftigen spielen schauts wie gesagt schon wieder anders aus...vorallem wenn HDR rendering dazu kommt steht der R600 recht gut da dünkt mir...

bleibt nur die frage wie weit sich die shaderleistung tatsächlich auswirken wird und wie sehr die HDR leistung in zukunft ne rolle spielt..in aktuellen spielen hats der R600 halt schwer bei ultrahohen auflösungen und hohen AF modi gegen die schiere texturleistung und füllrate des G80 anzukommen :)

Crazy_Chris
2007-07-11, 11:34:31
Wen interessiert wie zukünftige Spiele irgendwann eventuell mal laufen? Es geht um Spiele die jetzt aktuell sind. Die von dir genannten Spiele "der Zukunft" will da eh keiner mehr mit den alten R600 und G80 Karten zocken.

Gast
2007-07-11, 11:38:06
die kommenden D3D10 games werden mehr shaderleistung erfordern als alles was momentan verfügbar ist...Wobei der R600 einem G80GTX in Sachen Shaderleistung auch höchstens in der Theorie das Wasser reichen kann. Praktisch sind die Recheneinheiten des G80 deutlich besser auszulasten.
die BQ ist faktisch eh gleichwertig Das sehe ich anders. Man bekommt bei einem R600 nicht einmal dann vollwertige Filterung, wenn man AI ausschaltet.
ich will drauf wetten das sich das verhältniss zwischen R600 vs. G80 unter den in nem Jahr verfügbaren spielen sich doch ein wenig angleichen wird!Ein Wundertreiber, der den R600 plötzlich konkurrenzfähig macht, ist in meinen Augen genauso unwahrscheinlich, wie dass der G80 einen Stromsparmodus bekommt.

Gast
2007-07-11, 11:43:16
Wen interessiert wie zukünftige Spiele irgendwann eventuell mal laufen?

Mich.

Es geht um Spiele die jetzt aktuell sind.

Gerade die finde ich am uninteressanten, weil die Leistung der jetzigen Karten hoch genug ist um alles spielbar zu machen.

Die von dir genannten Spiele "der Zukunft" will da eh keiner mehr mit den alten R600 und G80 Karten zocken.

Mich interessierts.

Die Zukunft von der er spricht, ist gar nicht so weit weg. Jeden Monat kommen neue Games raus und jeden Monat verschiebt sich das Verhältniss zu gunsten der neuen Generation.

Kann sich hier noch jemand daran erinnern, ab wann die X1900 Generation plötzlich deutlich besser wurde? Wahrscheinlich nicht, weil es fließend passiert ist. Erst Oblivion, dann Gothic etc.... und schon ist die ehemals schnellere 7900GTX plötzlich 30% zurück...

Wenn ich mir eine Highend Karte kaufe, bleibt die bis zu 2,5 Jahre im Rechner drin. Was andere dabei denken, interessiert mich nicht.

Die Zukunftsaussicht ist für Käufer wie mich, sehr entscheidend und da sehe ich beim R600 einiges an Potential. Zum einen wegen der Architektur und zum anderen wegen den Treibern, die noch lange nicht optimal sind.

Das kann man sehen wie man will, aber hätte ich mir damals eine 700/900 7900GTX gekauft, würde ich mir heute in den Arsch beißen. ;D

TobiWahnKenobi
2007-07-11, 11:44:21
ich finds nach-wie-vor affig, dass mancheiner übertaktung als gegebene voraussetzung ansieht.

dieses "GTS @maxOC-gerede" ist völlig naiv und aus meiner sicht auch falsch ohne ende.



(..)

mfg
tobi

Undertaker
2007-07-11, 11:48:52
erklär das doch bitte näher...? deine cpu hast du ja auch übertaktet, ich und die meisten machen das auch mit der grafikkarte - und da ist bei der gts relativ betrachtet mehr potenzial da (gute und schlechte modelle gibts auch bei der gtx), unter diesem gesichtspunkt bietet die gts damit mehr - wo ist meine argumentation falsch?

TobiWahnKenobi
2007-07-11, 11:53:04
das hatten wir schon weiter vorn im thread..

keiner weiß, wie sich deine graka verhält, wenn sie wirklich mal fordernden code ausführen soll.

und ein massiv übertakteter prozessor, kann sich als ente herausstellen, wenn sich archive nicht CRC-fehlerfrei entpacken lassen, wenn es bei der übertragung übers LAN zu datenkorruption kommt oder wenn andere randfunktionen, wie stand-by oder schnödes aufwachen nicht mehr zuverlässig funktionieren. das passiert übrigens auch übertakteten CPUs, die "prime-stable" sind und die die ganzen schnullermarks überstehen.

wg. der übertragung auf graka-OC musst du weiter vorn schauen; nur weil andere sich ständig wiederholen, muss ich das ja nicht auch so machen.


(..)

mfg
tobi

Savay
2007-07-11, 12:19:25
Wen interessiert wie zukünftige Spiele irgendwann eventuell mal laufen? Es geht um Spiele die jetzt aktuell sind. Die von dir genannten Spiele "der Zukunft" will da eh keiner mehr mit den alten R600 und G80 Karten zocken.

mich interessiert das...nicht weil ich nen R600 board habe. nein ganz einfach weil ich es interessant finde wie die dinge sich entwickeln.

der R600 hat schlicht mehr potenzial als man heute sehen kann!

im übrigen geht es nicht um spiele die in 3 jahren rauskommen...ich spreche mehr von mittelfristigen dingen...wer heute nen G80 hat wird damit auch in 1-1.5jahren noch damit zocken

der G80 und der R600 sind der einstieg in die D3D10 welt und folglich will ich WENN ich schon 400€ ausgebe damit auch irgendwann mal D3D10 spiele zocken. für PS3.0 games brauch ich mir so ne karte nicht zu kaufen...dafür ist ALLES oberhalb ner X1950GT sowieso schnell genug...

Wobei der R600 einem G80GTX in Sachen Shaderleistung auch höchstens in der Theorie das Wasser reichen kann. Praktisch sind die Recheneinheiten des G80 deutlich besser auszulasten.

ja aber praktisch gesehen gleicht sich auch die füllrate und rechenleistung beider karten beim HDR rendering an...womit wir dann letztlich nen patt erreichen ;)



Das sehe ich anders. Man bekommt bei einem R600 nicht einmal dann vollwertige Filterung, wenn man AI ausschaltet.

ok sry ich bin grad vom R5x0 ausgegangen! hatte den irgendwie im hinterkopf o.O

mir dünkt aber das es eher ne treibersache ist...beim R5x0 sieht das ja ATM ja wirklich anders aus was AF angeht.

das wäre btw das einzige was ich im wesentlichen von nem wundertreiber erwarten würde ;) ...nen funktionierendes AAA und anständige BQ ohne optimierungen und das ausbügeln der weiteren treibermacken ;)


Ein Wundertreiber, der den R600 plötzlich konkurrenzfähig macht, ist in meinen Augen genauso unwahrscheinlich, wie dass der G80 einen Stromsparmodus bekommt.

blödsinn... kein wundertreiber! ich behaupte nur das unter den momentan verfügbaren spielen der R600 architektur bedingt einfach nichtmal im ansatz optimal ausgelastet wird...der G80 zwar genausowenig ABER dessen architektur ist doch deutlich optimaler für die "klassischen" PS3 shader und non-HDR spiele geeignet wie die des R600

was ATi vorzuwerfen ist das sie sich verschätzt haben...die haben nen chip designed der einfach bei aktuellen spielen nicht so tolle benchmark ergebnisse erzeugt und wirklich D3D10 apps braucht um potential zu entfalten (sieht man auch im vgl. zum R580 bzw der X1950XTX)

nVidia ist da immer ganz clever...die bauen nen chip der massig geile features hat und hammergeil performt bei spielen die beim LAUNCH aktuell sind...denen dann später aber immer flott die puste ausgeht... GF1 ist da das paradebeispiel! die GF6 ist da ne ähnliche "Gurke"...wer auf dem teil nen echtes PS3.0 game zocken will der tut mir wahrlich leid ;)

oh ganz ehrlich nicht das ich befürchte das das mit dem G80 so schnell ähnliches passiert! ich hab mehr den verdacht das wird sowas wie "nVidias R300" das ding ist einfach zu brutal...im grunde die rückkehr zum guten alten GF2 prinzip...bruteforce im shaderzeitalter

...meine nase dagegen verrät mir nur das der G80 in zukünftigen spielen mit viel shadereinsatz und HDR rendering MEHR performance verlieren wird als der R600 und das man letztlich von nem patt zwischen den chips sprechen kann...diese tendenz sieht man ja auch bei den 3mark2006 game tests wirklich SEHR deutlich...

was nur schade ist weil es dann ja keinen mehr interessiert...denn dann gibts ja schon die geilen R700 und G90 und wat weiß ich nicht die dann UT3 mit 150FPS darstellen...

mal ne persönliche anmerkung:
mit verlaub...ich finde das hochgradig albern das von vielen nen hersteller immer nur darüber bewertet wird wieviele penispunkte im penismark2k9 der silizium schwanzersatz (den diejenigen DIE drüber urteilen sich EH kaum leisten werden) grade bringt! ;)

AMD is ja auch voll out weil der C2D grade so geil abgeht...das jeder X2 für jedes scheiß game das aufm markt ist LOCKER reicht und auch noch ne ganze weile reichen wird...das realisiert dann irgendwie keiner...nVidia "pwnt" ATi ja auch sooo derbe weil ja in Prey voll viel mehr FPS dargestellt werden. cool das die nur eh keiner sieht weil im der VSync sowieso das abkappt was an mehrleistung da ist UND weils soweiso nicht flüssiger geht! ;)

naja whatever...in dem sinne: die X1950Pro ist mein "übergangs" P/L sieger...

für leute die highend wollen und die gern pokern würde ich auch ne HD2900XT empfehlen. ich tippe drauf das ding wird bei titeln die im nächsten jahr erscheinen ne 8800GTX ausstechen können... ;)
für die die auf nummer sicher gehen...die 8800GTS! aber nur die 640MB version :)

Vertigo
2007-07-11, 12:20:39
erklär das doch bitte näher...? deine cpu hast du ja auch übertaktet, ich und die meisten machen das auch mit der grafikkarte - und da ist bei der gts relativ betrachtet mehr potenzial da (gute und schlechte modelle gibts auch bei der gtx), unter diesem gesichtspunkt bietet die gts damit mehr - wo ist meine argumentation falsch?
Ich glaube PCGH_Carsten hat vor einigen Seiten mal was ganz Passendes dazu gepostet. Das Verhältnis Mehrkosten:Mehrleistung ist bei der Betrachtung GTS vs. GTX nahezu 1:1. Wann hat es das im High-End schonmal gegeben? Ob Du jetzt Deine GTS prozentual etwas mehr übertakten kannst als ich meine GTX interessiert (zumindest mich) dabei wenig.

Undertaker
2007-07-11, 12:46:25
das hatten wir schon weiter vorn im thread..

keiner weiß, wie sich deine graka verhält, wenn sie wirklich mal fordernden code ausführen soll.

und ein massiv übertakteter prozessor, kann sich als ente herausstellen, wenn sich archive nicht CRC-fehlerfrei entpacken lassen, wenn es bei der übertragung übers LAN zu datenkorruption kommt oder wenn andere randfunktionen, wie stand-by oder schnödes aufwachen nicht mehr zuverlässig funktionieren. das passiert übrigens auch übertakteten CPUs, die "prime-stable" sind und die die ganzen schnullermarks überstehen.

wg. der übertragung auf graka-OC musst du weiter vorn schauen; nur weil andere sich ständig wiederholen, muss ich das ja nicht auch so machen.


(..)

mfg
tobi

oh, dann könnte ja auch die gtx mit ihren 575mhz probleme bekommen - ist ja der gleiche chips wie auf der gts... auf gleiche taktraten kommen wie erwähnt beide, ob man jetzt auf dem def. takt der gtx schluss machen will ist dafür letztlich irrelevant, es bleiben nur die hardwareunterschiede, die wie erwähnt bei 75-83% (hat die gts von der gtx) liegen

letztlich ist das

keiner weiß, wie sich deine graka verhält, wenn sie wirklich mal fordernden code ausführen soll.

doch grober unfug, denn ich bekomme jede graka auch heute schon ausgelastet (wenn wir ehrlich sind, haben doch weder gts noch gtx reserven für zukünftige games (ein coj läuft auf meiner gts bei maximalen details stellenweise mit 10fps in 1920x1200 ohne aa - das sind dann bestenfalls 13fps auf der gleichgetakteten gtx (eine schattenstufe schlechter verdreifacht die fps im übrigen))

Ich glaube PCGH_Carsten hat vor einigen Seiten mal was ganz Passendes dazu gepostet. Das Verhältnis Mehrkosten:Mehrleistung ist bei der Betrachtung GTS vs. GTX nahezu 1:1. Wann hat es das im High-End schonmal gegeben?

was war mit der x800xt -> x800pro? ebenfalls größtenteils 75% der hardwareeinheiten, ähnliches p/l gefüge :) gute angebote im high-end gibts immermal wieder, letztlich sind meines erachtens die realen unterschiede doch zu gering, als das ich das geld lieber bereits für die nächste generation spare - aber kann doch jeder machen wie er will

Vertigo
2007-07-11, 13:01:34
was war mit der x800xt -> x800pro? ebenfalls größtenteils 75% der hardwareeinheiten, ähnliches p/l gefüge :) gute angebote im high-end gibts immermal wieder,

Das hast Du natürlich Recht, ich glaube 9700/9700Pro war damals auch so ähnlich ... :redface:
letztlich sind meines erachtens die realen unterschiede doch zu gering, als das ich das geld lieber bereits für die nächste generation spare - aber kann doch jeder machen wie er will
Keine Frage, aber nüchtern betrachtet ist das P/L-Verhältnis der GTX auch im Vergleich zur GTS für eine High-End-Karte wirklich gut, auch wenn der Absolutpreis natürlich deutlich höher liegt.

Undertaker
2007-07-11, 13:03:00
jop, das will ich gar nicht bestreiten :)

TobiWahnKenobi
2007-07-11, 13:03:37
oh, dann könnte ja auch die gtx mit ihren 575mhz probleme bekommen - ist ja der gleiche chips wie auf der gts... auf gleiche taktraten kommen wie erwähnt beide, ob man jetzt auf dem def. takt der gtx schluss machen will ist dafür letztlich irrelevant, es bleiben nur die hardwareunterschiede, die wie erwähnt bei 75-83% (hat die gts von der gtx) liegen

letztlich ist das



doch grober unfug, denn ich bekomme jede graka auch heute schon ausgelastet (wenn wir ehrlich sind, haben doch weder gts noch gtx reserven für zukünftige games (ein coj läuft auf meiner gts bei maximalen details stellenweise mit 10fps in 1920x1200 ohne aa - das sind dann bestenfalls 13fps auf der gleichgetakteten gtx (eine schattenstufe schlechter verdreifacht die fps im übrigen))
sorry - du erzählst quark - besonders auf bezug der vergleich-, auslast- und taktbarkeit.

zugesichert bekommst du unter maximaler auslastung und belastung nur die default-takte. die kann man vergleichen, weil sie einheitlich sind. und unter default-takten dümpelst du unter schlechtesten bedingungen 50% hinter einer GTX her..


(..)

mfg
tobi

Gast
2007-07-11, 13:09:32
zugesichert bekommst du unter maximaler auslastung und belastung nur die default-takte. die kann man vergleichen, weil sie einheitlich sind. und unter default-takten dümpelst du unter schlechtesten bedingungen 50% hinter einer GTX her..


Zu einem etwa 50% höheren Preis. Also wo ist nun dein Problem?

Mit Preis-Leistung hat das gewiß nicht zu tun. Wer an Preis-Leistung denkt, der kauft sicher keine 450€ Karte, das entbehrt jeglicher Grundlage. :hammer:

TobiWahnKenobi
2007-07-11, 13:10:49
das preisleistungsverhältnis ist identisch, lieber gast. ob du nun 300 oder 450 euro ausgibst.


(..)

mfg
tobi

Vertigo
2007-07-11, 13:15:03
Zu einem etwa 50% höheren Preis. Also wo ist nun dein Problem?

Mit Preis-Leistung hat das gewiß nicht zu tun. Wer an Preis-Leistung denkt, der kauft sicher keine 450€ Karte, das entbehrt jeglicher Grundlage. :hammer:
Tut es nicht. Die Grundlage ist die, dass das P/L bei 8800GTS und 8800GTX nahezu gleich ist. Und zwar gleich gut.

Gast
2007-07-11, 13:16:05
das preisleistungsverhältnis ist identisch, lieber gast. ob du nun 300 oder 450 euro ausgibst.

Tolles Argument. Das Prädikat Preis-Leistung passt hier trotzdem überhaupt nicht, da nur sehr wenige Käufer überhaupt bereit sind, so viel Geld auszugeben. Als Preis-Leistung gelten Karten wie die X1950GT/Pro/XT, aber doch keine >400€ Karten. Das ist schwachsinn³.

Die schnellste 8800Ultra von XFX ist auch nochmal locker 20% schneller, nur da wären wir dann schon bei über 600€. :crazy:

Irgendwo muss man nunmal Grenzen setzen und die liegen mitnichten bei einer GTX. Das Thema zielte auch sicher nicht darauf ab, denn wenn der Threadersteller einfach beste Leistung haben wollte, hätte er gar nicht nach Preis-Leistung gefragt, sondern sich gleich die >400€ Karten gekauft!

Gast
2007-07-11, 13:20:59
Tut es nicht. Die Grundlage ist die, dass das P/L bei 8800GTS und 8800GTX nahezu gleich ist. Und zwar gleich gut.

Gleich SCHLECHT!

Lies dir das Threadthema nochmal durch. Dann fällt euch auf, das ich daran vorbei redet und zwar schon die ganze Zeit.

Jemand der nach Preis-Leistung fragt und die X1950Pro als Beispiel nennt, der zielte nicht darauf ab, sich die beste zur Zeit verfügbare Karte zu kaufen, sondern eine, die eine hohe Basisleistung bietet zu einem günstigen Preis im Verhältniss zum Highend.

Und da haben andere Karte nunmal deutlich die Nase vorn!

Außerdem rechnet ihr hier völlig falsch. Wie wäre es mal mit frames pro Euro? Da gewinnt eine Karte wie die X1950Pro klar... eine GTX ist 4x so teuer, aber nur ~3,5 mal so schnell im Durchschnitt und das auch NUR mit einer Highend CPU.

Fazit: Die X1950Pro gewinnt das Duell.

Gast
2007-07-11, 13:21:05
schon funny wie dinge gehyped bzw kaputt geredet werden nur weil ATi mal NICHT nen chip anbietet der momentan im absoluten high end bereich mithalten kann...

Stromverbrauch und Lautstärke sind "im absoluten high end bereich". Die Leistung dagegen dümpelt irgendwo zwischen "WOW" und "lol".


der R600 ist nüchtern betrachtet nun wahrlich nicht "vermurkst"...die BQ ist faktisch eh gleichwertig und die performance ist auch mehr als ausreichend

Wenn du Lautstärke und Stromverbrauch in Relation dazubringst, ist die Leistung nicht mehr ausreichend, sondern zu schwach.

[quot€]fakt ist aber genauso das sie ihr potenzial in form ihrer leistungsreserven bei heutigen games NICHT ausspielen kann! die benches zu den karten beweisen im wesentlichen NUR das der G80 der deutlich bessere D3D9 chip ist...[/Quote]

Die Karte hat Probleme beim Einsatz von AA und dank ihrer geringeren Texturleistung auch beim AF. Jedoch ist der Einbruch beim AA viel brutaler. Hierher kommt die schlechte Leistung.
Und DX9 Spiele können ebenfalls eine hohe Shaderleistung erfordern. Alle Xbox360 Portierungen gehören hierzu.

so unrealistisch die synthetischen benches vom 3dmark2006 auch sind so sehr beweisen die Shader benches AUCH das der R600 im vergleich mit dem G80 boden GEWINNT je mehr die Pixelshader leistung eine rolle spielt.
ich will drauf wetten das sich das verhältniss zwischen R600 vs. G80 unter den in nem Jahr verfügbaren spielen sich doch ein wenig angleichen wird!

Die Karte gewinnt im 3DMark2006 nicht aufgrund ihrer hohen Rechenleistung. Die SM3.0/HDR verwendet FP Filterung und somit verringert sich der Texturleistungsabstand. Schau dir reine Shadertest an, dort kann die Karte nicht annährend ihre theoretische Rechenleistung ausspielen.
Ach und mit AA und AF bricht dir Karte im 3DMark2006 deutlich ein.


bedauerlich ist nur das sowas keinen schwanz interessiert...da wird ja immer nur geschaut wieviel *ugahugah* hundertmillionen fps da in d00m2.536 durch den framebuffer gejagt werden...
wenn man einfach mal hier:
http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index11.php/Quote]

Schau doch einfach weiterrunter. Nicht immer nur das Betrachten, was gerade hilfreich ist. :rolleyes:

[quote]
vorallem wenn HDR rendering dazu kommt steht der R600 recht gut da dünkt mir...

Nur wenn auch gleichzeitig eine höhrere Genauigkeit bei der Filterung der Texturen verwendet wird.


bleibt nur die frage wie weit sich die shaderleistung tatsächlich auswirken wird und wie sehr die HDR leistung in zukunft ne rolle spielt..in aktuellen spielen hats der R600 halt schwer bei ultrahohen auflösungen und hohen AF modi gegen die schiere texturleistung und füllrate des G80 anzukommen :)

Die Karte wird es auch in zukünftigen Spielen schwer haben, wenn der Spieler AA einsetzt.

Undertaker
2007-07-11, 13:23:22
sorry - du erzählst quark - besonders auf bezug der vergleich-, auslast- und taktbarkeit.

zugesichert bekommst du unter maximaler auslastung und belastung nur die default-takte. die kann man vergleichen, weil sie einheitlich sind. und unter default-takten dümpelst du unter schlechtesten bedingungen 50% hinter einer GTX her..

sag mir, wo der fehler meiner argumentation liegt:

1. die gts und gtx sind ein und derselbe chip, stammen vom gleichen wafer und sind letztlich auch gleich taktbar (chips, die nur aus taktgründen zur gts gemacht wurden, habe ich bis jetzt im netz noch nicht finden können, da darfst du gerne gegenbeispiele bringen wo eine gts nicht die 575mhz der gtx geschafft hat)

2. praktisch gehen beide karten meist bis 600-650mhz, aber einigen wir uns darauf das man zumindest sicher mit dem gtx takt von 575mhz rechnen kann

3. ich kenne keine belegten beispiele, wo eine übertaktete grafikkarte sowohl bei ati-tool und >50 games unter volllast stabil und ohne fehler lief, dann aber in einem neueren game probleme machte - wie soll das auch möglich sein? ohne cpu limit rechnet eine graka immer am maximum, ergo gibt es nur unterschiede in der auslastung z.b. der tmus und der shader, ja nach dem was das spiel besonders fordert. was soll sich da in zukunft ändern? oblivion hängt indoor extrem an der shaderleistung, in den außenwelten ist diese dagegen z.t. völlig egal - need for speed zeigt ebenfalls wieder eine hohe last im shaderbereich (all das erkennt man immer gut am vergleich r520->r580), bei quake4 sind diese völlig bedeutungslos...

also: wenn du jetzt behauptest, dass eine heute stabile gts auf einmal zukünftig nicht mehr stabil einen bestimmten takt laufen soll, bitte begründen warum. letztlich ist das nicht zu erwarten, die ausbeute gut taktbarer chips ist ausreichend (siehe die 8800ultra und oc-ergebnisse der gts), dass jede g80 karte mit gleich taktbaren chips versehen wird. für den, der übertaktet, bleiben damit nur hardwareunterschiede von 75% die die gts von der gtx besitzt (z.t. auch weniger) - wenn du sagst du übertaktest gar nicht, freu ich mich das ich nahezu die gleiche performance für weit weniger geld habe (das sie gleichschnell wäre behaupte ich gar nicht)

nochmal mein fazit: die hardwareunterschiede sind letztlich das einzig entscheidende. die sind geringfügig weniger als der preisunterschied. preislich macht das die gts höchst attraktiv, die gtx aber zu einem keinesfalls schlechten high-end angebot, ja zu einem besseren als häufig in den letzten jahren. mag jeder sich entscheiden wie er denkt

Gleich SCHLECHT!

Lies dir das Threadthema nochmal durch. Dann fällt euch auf, das ich daran vorbei redet und zwar schon die ganze Zeit.

Jemand der nach Preis-Leistung fragt und die X1950Pro als Beispiel nennt, der zielte nicht darauf ab, sich die beste zur Zeit verfügbare Karte zu kaufen, sondern eine, die eine hohe Basisleistung bietet zu einem günstigen Preis im Verhältniss zum Highend.

Und da haben andere Karte nunmal deutlich die Nase vorn!

Außerdem rechnet ihr hier völlig falsch. Wie wäre es mal mit frames pro Euro? Da gewinnt eine Karte wie die X1950Pro klar... eine GTX ist 4x so teuer, aber nur ~3,5 mal so schnell im Durchschnitt und das auch NUR mit einer Highend CPU.

Fazit: Die X1950Pro gewinnt das Duell.

die argumentation ist völlig richtig. aber die gleichen schlüsse ziehen würde ich nicht in jedem fall. es gibt leider einige fälle, wo man mit der x1950pro nix mehr anfangen kann - gothic 3, coj, tdu in jeweils etwas höheren auflösungen als 1280x1024 - hier ist das p/l nach wie vor gut, aber die grundleistung oft nicht mehr ausreichend - in ihrer preisklasse damit nach wie vor die beste wahl, aber eben nicht mehr uneingeschränkt für alle fälle zu empfehlen

Gast
2007-07-11, 13:34:37
Er hat ja nach Preis-Leistung gefragt und bei Preis-Leistung heißt die Frage eindeutig:

"Wo bekomme ich am meisten Leistung fürs wenigste Geld?"

Die meisten der Poster hier gehen aber von einer komplett falschen Basis aus. Da wird argumentiert, das die GTX ein gutes Verhältniss aus Preis-Leistung im Vergleich zur GTS hat, aber glatt unterschlagen, das schon die GTS kein so tolles Preis-Leistungsverhältniss hat im Vergleich zu den Karten im <200€ Segment.

Da liegt nämlich der Denkfehler!

Eine sehr gute Basis wäre nunmal die Berechnungsgrundlage "frames pro Euro" und da liegen die Spitzenkarten mitnichten vorn!

Vertigo
2007-07-11, 13:39:18
Gleich SCHLECHT!

Lies dir das Threadthema nochmal durch. Dann fällt euch auf, das ich daran vorbei redet und zwar schon die ganze Zeit.

Jemand der nach Preis-Leistung fragt und die X1950Pro als Beispiel nennt, der zielte nicht darauf ab, sich die beste zur Zeit verfügbare Karte zu kaufen, sondern eine, die eine hohe Basisleistung bietet zu einem günstigen Preis im Verhältniss zum Highend.

Und da haben andere Karte nunmal deutlich die Nase vorn!

Außerdem rechnet ihr hier völlig falsch. Wie wäre es mal mit frames pro Euro? Da gewinnt eine Karte wie die X1950Pro klar... eine GTX ist 4x so teuer, aber nur ~3,5 mal so schnell im Durchschnitt und das auch NUR mit einer Highend CPU.

Fazit: Die X1950Pro gewinnt das Duell.
Schonmal über den Unterschied von Absolutpreis und Preis-Leistungs-Verhältnis nachgedacht? Außerdem: was nützt eine X1950Pro und deren zweifelsohne gutes P/L, wenn die Leistung der Karte nicht die Ansprüche erfüllen kann?

Gast
2007-07-11, 13:45:15
Schonmal über den Unterschied von Absolutpreis und Preis-Leistungs-Verhältnis nachgedacht? Außerdem: was nützt eine X1950Pro und deren zweifelsohne gutes P/L, wenn die Leistung der Karte nicht die Ansprüche erfüllen kann?

Deswegen solltest du das Threadthema lesen.

Denn hier steht nirgendwo, WELCHE Ansprüche erfüllt werden müssen. Da er jedoch in Richtung einer X1950Pro geschielt hat, war mir sofort klar, worauf er abzielte.

Jemand, der nach Preis-Leistung fragt, hat in der Regel nunmal nicht einen 30" TFT zu hause stehen.

Außerdem ist auch dieses Argument ziemlich hinfällig. Eine X1950XT kann alles darstellen. Die meisten Durchschnittszocker, mich eingeschlossen, haben kein Problem damit, mal eine Auflösung herunterzuschalten, AA zu reduzieren oder die Details herabzusetzen.
Meistens geht das nicht mal auf Kosten der Qualität, wie z.B. Oblivion oder Need for Speed, wo ich die Grasanimationen eher gehasst habe oder den Blur Effekt gleich abschalten musste, weil er genervt hat!

Das berücksichtigt ihr hier aber überhaupt nicht -> Großer Fehler.

PS: Nenn mir doch mal ein Spiel, welches sich nicht auf der X1950 Serie spielen lässt.

Undertaker
2007-07-11, 14:00:57
warum nicht ein mainboard mit onboardgrafik? das kostet im besten fall praktisch gar nix mehr, und starten lässt sich da auch so ziemlich alles ;)

ja das ist jetzt übertrieben, verdeutlicht aber die problematik: ein gutes p/l kann man für jede preisklasse suchen, aber nicht absolut - gäbe es mal den fall einer karte für 2000€, die dann evntl 15x schneller ist als eine für 200€, würde auch keiner zu dieser raten. auch zwischen den zeilen lesen, lieber gast

Gast
2007-07-11, 14:06:22
warum nicht ein mainboard mit onboardgrafik?

Verbuggte, kaum funktionierende Treiber und sehr oft Probleme in Zusammenhang mit Games.

das kostet im besten fall praktisch gar nix mehr, und starten lässt sich da auch so ziemlich alles ;)[

Leider nicht. Ich habs hinter mir. ;) Manche Games wollen nicht mal starten und wenn, dann mit riesigen Darstellungsfehlern.

Die fallen zum zocken auf jeden Fall raus. Außerdem hat es auch andere Nachteile: Die Boards, die man sich wünscht, haben meist gar keine IGP oder keine overclockingfunktionen ...

Ich bleib dabei. Man kann nicht mit Preis-Leistung argumentieren, wenn die Ansprüche nicht bekannt sind.

Fakt ist aber auch, das man mit den derzeitigen Karten im Segment bis max. 200€ alles spielen kann. Alles andere wäre auch eine wirkliche Überraschung, denn ihr glaubt doch wohl selber nicht, das es irgendeinen Publisher gibt, der Games veröffentlicht, die nur auf Karten spielbar sind, die für die meisten "unbezahlbar" sind.

Den Anspruch zu haben, jedes Game in 2560x1600 4xAA + max Details zocken zu müssen, finde ich total überzogen. Da braucht sich auch niemand wundern.
Man kann auch in 1280x960 4xAA Spaß machen und dabei ne menge Kohle sparen!

TobiWahnKenobi
2007-07-11, 14:06:28
@undertaker
was mich an deiner argumentation stört, ist das gesabbel über OC.


(..)

mfg
tobi

Undertaker
2007-07-11, 14:09:17
Verbuggte, kaum funktionierende Treiber und sehr oft Probleme in Zusammenhang mit Games.

Leider nicht. Ich habs hinter mir. ;) Manche Games wollen nicht mal starten und wenn, dann mit riesigen Darstellungsfehlern.

naja, zu intel oder via sollte man nicht greifen, aber sowas:

http://geizhals.at/deutschland/a206865.html

mit dem chip läuft sogar flatout 1 praktisch perfekt :) und billiger kann ein am2 board auch kaum sein ;) ich mein ja nur: auch wenns nicht erwähnt wurde vom ersteller, die gewünschte preisklasse ist für eine empfehlung einfach zwingend notwendig

@undertaker
was mich an deiner argumentation stört, ist das gesabbel über OC.


(..)

mfg
tobi

beachte bitte, das ich über meine meinung "gesabbelt" habe. ich übertakte nuneinmal. was jetzt auch keine große besonderheit darstellt. und da ist die gts ein super tipp - vergleichbar mit aktuellen cpus: ein x2 6000+ ist eigentlich recht fix im vergleich zu den intels dieser preisklasse, wer aber übertakten will sieht klar, was die bessere wahl ist ;)

Mr.Fency Pants
2007-07-11, 14:16:58
Schonmal über den Unterschied von Absolutpreis und Preis-Leistungs-Verhältnis nachgedacht? Außerdem: was nützt eine X1950Pro und deren zweifelsohne gutes P/L, wenn die Leistung der Karte nicht die Ansprüche erfüllen kann?

Der Threadstarter möchte wohl kaum in einer 1600er Auflösung die allerneusten Performancekiller mit allen Details zocken, wenn er nach einem P/L Knaller wie damals der Gf4 fragt.

Savay
2007-07-11, 14:27:22
Stromverbrauch und Lautstärke sind "im absoluten high end bereich". Die Leistung dagegen dümpelt irgendwo zwischen "WOW" und "lol".

Wenn du Lautstärke und Stromverbrauch in Relation dazubringst, ist die Leistung nicht mehr ausreichend, sondern zu schwach.

wie schon gesagt...ATi hat sich verkalkuliert...das ding ist nen fehldesign keine frage...es ist zu sehr auf HDR und D3D10 spiele mit massivem shadereinsatz designed...ich will da auch garnichts schön reden oder sonst irgendwie zerreden, ich denke aber schlicht es ist schon mehr potenzial da als sich heute offenbart...

der chip ist ja ursprünglich als G80 konkurrent in der form der GTX gedacht...und das wird der R600 in "echten" SM4.0 spielen auch erfüllen! :P


Die Karte hat Probleme beim Einsatz von AA und dank ihrer geringeren Texturleistung auch beim AF. Jedoch ist der Einbruch beim AA viel brutaler. Hierher kommt die schlechte Leistung.
Und DX9 Spiele können ebenfalls eine hohe Shaderleistung erfordern. Alle Xbox360 Portierungen gehören hierzu.

die "schwäche" liegt eher in der texturfüllrate und somit beim AF...beim AA hat die karte weniger probleme im vergleich mit dem G80 o.O

nun ich halte xbox360 portierungen nicht grade für besonders günstig wenn es um technikvergleiche für D3D10 geht...
per se hat der xenos ja mitm SM4.0 nicht sonderlich viel am hut würde ich sagen. im grunde haben wir es bei momentanen spielen überall mit verkapptem SM2.0 content zu tun...egal was da nachher für nen stempel drauf geklatscht wird

schön die portierungen bekommen trotzdem alle nen SM4.0 renderpfad aber der content ist ja nun streng genommen wirklich nicht dafür ausgelegt.
es kommt ja nun nicht immer darauf an in welcher sprache du ne architektur fütterst sondern auch womit und vorallem wie... :)


Die Karte gewinnt im 3DMark2006 nicht aufgrund ihrer hohen Rechenleistung. Die SM3.0/HDR verwendet FP Filterung und somit verringert sich der Texturleistungsabstand. Schau dir reine Shadertest an, dort kann die Karte nicht annährend ihre theoretische Rechenleistung ausspielen.
Ach und mit AA und AF bricht dir Karte im 3DMark2006 deutlich ein.

pikanterweise liegt die shaderleistung im 3dmark so ziemlich auf GTX niveau...im shadermark nicht aber weiß der geier wie praxisrelevant die untertests wirklich alle sind


Schau doch einfach weiterrunter. Nicht immer nur das Betrachten, was gerade hilfreich ist. :rolleyes:

jaja shadermark 2.1 schon klar! nur ist es interessant wie die leistung einer karte bei bestimmten shader instruktionen ist? es ist doch haarspalterei ob jetzt dieses oder jenes shader programm schneller läuft wenn praxisnaher code eben "ausreichend" schnell ist.
zumal es alles noch PS2.0/3.0 shader sind...scheinbar eher 2.0 shader

demzufolge kann ich das kompliment ebenfalls zurückreichen...die game tests und pixelshader tests im 3dmark sagen jedenfalls was anderes als ein großteil der anderen benches die mir so unter gekommen sind...gut dem kann man jetzt mangelnde praxisrelevanz vorwerfen...aber irgendwass sagt es mit sicherheit aus...und garantiert nicht das der code auf ATi optimiert ist.

nunja seis drum wenn man jedefalls betrachtet wie sich das verhältniss vom test 1-4 kontinuierlich zugungsten des R600 verschiebt spricht das für mich ne relativ deutliche sprache...zumal die beiden letzten tests (wo der R600 echt GUT abschneidet) wirklich shader und HDR lastig sind. ich will mich nun nicht auf den dämlichen 3dmark versteifen. der sagt ja bekanntlich nicht viel aus...aber es gibt ja nun abseits davon nicht wirklich viele HDR und gleichzeitig shader lastige benchmarks...vorallem mit noch mit echtem auf SM3.0 zugeschnittenen content

apropro praxisrelevanz: bei rainbow six: vegas...immerhin nen UE3 spiel (die engine ist mal wirklich mit hinblick auf SM4.0 designed) liegt der R600 tatsächlich ebenfalls haargenau auf GTX niveau. gut es läuft "nur" SM3.0 code die frage ist was führt dazu das auf ner echten nextgen engine die karte plötzlich so gut dasteht? in 1280 liegt die HD2900XT sogar auf ultra niveau

liegts am fehlenden FSAA? maybe wir werden sehen...die ROP leistung ist geringer keine frage aber ob das reichen wird das der R600 zusammenknickt ist erstmal dahingestellt. überall sonst ist der einbruch bei nutzung von FSAA nämlich relativ gesehen genausogroß wie beim G80...stellenweise auch geringer


Nur wenn auch gleichzeitig eine höhrere Genauigkeit bei der Filterung der Texturen verwendet wird.

nun ich glaube FP16 wird ja wohl usus sein im jahre 2008 :| genau wie intensive nutzung von HDR... we will see. ich bin ja nun wahrlich kein 3d guru aber ich habe augen im kopf und denke schon das ich da wenigstens tendenzen korrekt einschätzen kann :)


Die Karte wird es auch in zukünftigen Spielen schwer haben, wenn der Spieler AA einsetzt.

sie wird es schwerer haben wenn die spieler AF einsetzen. bei AA nicht wirklich...und klar die ROP leistung ist geringer die füllrate beim multitexturing ebenfalls...das spielt alles eine rolle. aber genauso spielt die nutzung von HDR ne rolle und wie weit die R600 architektur mit "echten" DX10 engines/content klar kommt.

ich sage ja nicht das wunder zu erwarten sind...nur ich rechne eben damit das der R600 mit den spielen des jahres 2008 relativ gesehen besser klar kommen wird als heute mit den momentanen SM2.0+ spielen.

momentan mag sie mit der GTS auf augenhöhe sein...in zukunft wirds aber wohl doch "eher" gen GTX niveau pendeln...da möchte ich drauf wetten. ;)

insofern ist sie für mich auch nen P/L tipp für risikofreudige menschen ;D

N0Thing
2007-07-11, 18:52:02
Man kann doch eigentlich sagen: Bis 1280x1024 ist eine X1950pro eine gute Wahl für kleines Geld, ab Widescreenauflösungen von 1680x1050 und höher braucht man eine 8800GTS oder besser, um auch im nächsten Jahr noch einige Spiele mit höheren Details spielen zu können.

Für jedes System gibt es eine andere Grafikkarte, die ein gutes Preisleistungs-Verhältnis hat.
Bei einer AGP-Kiste ist in der Regel eine 7600GT ausreichend, da die CPU irgendwann die Grenze darstellt und schnellere Karten auch gleich deutlich mehr Geld kosten.

Eine universelle, perfekte Preisleistungsknüllerkarte gibt es einfach nicht. Dazu muß man auch noch das Budget beachten, wenn sich jemand einen 22" Widescreen gekauft hat und noch mit einer 6600GT spielt, aber nicht mehr als 200€ ausgeben will, wäre wohl wiederrum mit einer X1950xt am besten beraten.

Mr.Magic
2007-07-11, 20:49:39
Bei einer AGP-Kiste ist in der Regel eine 7600GT ausreichend, da die CPU irgendwann die Grenze darstellt und schnellere Karten auch gleich deutlich mehr Geld kosten.

Für 640x480 ohne AA möglicherweise... :|

iDiot
2007-07-11, 21:13:44
8800GTS.

Yrr
2007-07-11, 21:36:40
Wenn man die Qualität auf mittel stellt wird man denk ich !jedes! Spiel mit einer 7600GT noch gut spielen können bei 1280x1024 oder 1024x768 was bei nicht hardcorezockern soweiso die am verbreitesten Auflösungen sind

Mit meiner 1950GT@GT kann ich jedes Spiel@max spielen auf 1280x1024 z.B. auch Spellforce 2
Da die 1950Gt nur 115€ kostet ist das P/L Verhältnis sehr gut, ähnliches gilt aber natürlich auch für die 8800GTS(320) wobei die gleich doppelt so viel kostet und aber oft nicht ganz die doppelte Leistung bringt

N0Thing
2007-07-12, 00:09:58
Für 640x480 ohne AA möglicherweise... :|

Ja, bei Starcraft ist nichts Besseres möglich, aber es wurden seitem durchaus neuere Spiele veröffentlicht. :rolleyes:

Mr.Magic
2007-07-12, 01:12:09
Ja, bei Starcraft ist nichts Besseres möglich, aber es wurden seitem durchaus neuere Spiele veröffentlicht. :rolleyes:

Dann spielt damit mal schön TDU & Co. Viel Vergnügen!

Volle Details & HDR versteht sich. Sonst könnte man es ja gleich auf der Konsole spielen.

Gast
2007-07-12, 07:33:21
es ist zu sehr auf HDR und D3D10 spiele mit massivem shadereinsatz designed...Das ist eine sehr interessante Begründung für das schlechte Abschneiden von R600-Karten. Könnte glatt aus der ATI-Marketing-Abteilung kommen.
die "schwäche" liegt eher in der texturfüllrate und somit beim AF...beim AA hat die karte weniger probleme im vergleich mit dem G80 o.ODoch, eigenartigerweise bricht der R600 auch bei Nutzung von MSAA recht stark ein, obwohl er eine riesige Speicherbandbreite besitzt. Da ist definitiv irgendwas kaputt im Chip. Ich würde mir da keine Hoffnungen machen, dass sich dies mit zukünftigen Treibern nennenswert verändert.

N0Thing
2007-07-12, 10:33:22
Dann spielt damit mal schön TDU & Co. Viel Vergnügen!

Volle Details & HDR versteht sich. Sonst könnte man es ja gleich auf der Konsole spielen.


Hast du auch etwas Sinnvolles beizutragen? Kannst mir ja gern meine Hardware bezahlen, dann kannst du mir auch vorschreiben, wie und welche Spiele ich zu spielen habe. Was für ein Kindergarten. :(

Mr.Magic
2007-07-12, 10:49:37
Hast du auch etwas Sinnvolles beizutragen? Kannst mir ja gern meine Hardware bezahlen, dann kannst du mir auch vorschreiben, wie und welche Spiele ich zu spielen habe. Was für ein Kindergarten. :(

Willst du mich nerven? Du darfst spielen was du willst. Ich habe dir sogar noch Spaß dabei gewünscht...

Vertigo
2007-07-12, 10:55:20
Der Threadstarter möchte wohl kaum in einer 1600er Auflösung die allerneusten Performancekiller mit allen Details zocken, wenn er nach einem P/L Knaller wie damals der Gf4 fragt.
Nein, er schrieb "Karten aus dem unteren High End, mit denen relativ lange aktuelle Spiele gespielt werden konnten" - das wäre aktuell am ehesten die 8800GTS 320MB. Bei ATI gibt es momentan nur gähnende Leere zwischen 130€ und 330€. Wenn man dann einen Blick über den Tellerrand hinaus wagt, stellt man fest, dass "weiter oben" HD2900XT und 8800GTS 640MB ziemlich gleichwertige Kontrahenten sind, aber auch dass selbst eine 8800GTX ein vergleichbar gutes P/L-Verhältnis hat. "Weiter unten" stößt man auf X1950Pro/GT, die ebenfalls ein ausgezeichnetes P/L-Verhältnis haben, insgesamt gesehen wohl noch immer das beste.

Savay
2007-07-12, 11:40:18
Das ist eine sehr interessante Begründung für das schlechte Abschneiden von R600-Karten. Könnte glatt aus der ATI-Marketing-Abteilung kommen

es geht hier nicht um ausflüchte oder entschuldigungen sondern darum zu analysieren woran es liegt das der chip bei massivem HDR und SM3.0 (mit nativem content) einsatz im vergleich zum G80 aufeinmal recht rosig dasteht...es sonst aber "nirgends" tut!?
gut ihm schmeckt in beiden besagten gametests und in der UE3 scheinbar der code mehr...gibt wohl mehr parallel zu berechnen! woran liegt das? am compiler? oder das vielleicht der massive einsatz von HDR und echtem SM3.0 content dazu führt das der R600 besser ausgelastet wird als er es mit auf 3.0 standart aufgeblasenem 2.0 content tut. grade beim HDR rendering hat der chip ja sowieso seine stärken verglichen mit dem G80...
ich halte es einfach für sehr wahrscheinlich das der R600 mit angepasstem content doch deutlich mehr richtung GTX pendelt als er es jetzt tut.

etwas einfach mal scheiße zu finden weil es einem mal eben passt und ganz trendy ist finde ich befremdlich :)


Doch, eigenartigerweise bricht der R600 auch bei Nutzung von MSAA recht stark ein, obwohl er eine riesige Speicherbandbreite besitzt. Da ist definitiv irgendwas kaputt im Chip. Ich würde mir da keine Hoffnungen machen, dass sich dies mit zukünftigen Treibern nennenswert verändert.


kuck ich falsch oder was ist los... :|

http://www.3dcenter.de/artikel/radeon_hd_2900_xt/index10.php

http://www.anandtech.com/video/showdoc.aspx?i=3029&p=6

demnach verhält sich der R600 so ziemlich genauso wie der G80 wenn man FSAA zuschaltet.

up¦²
2007-07-12, 11:41:31
Mal nebenbei:
wo kann man eigentlich Start-Preise finden zu den älteren P/L Kandidaten:
3dfx - TNT - GTS - GTS2 - ti4200 - 6600GT - 6800 - 9500 - 9700 - 9800 usw.?
Einige davon waren ziemlich teuer... :confused:

Gast
2007-07-12, 18:54:10
es geht hier nicht um ausflüchte oder entschuldigungen sondern darum zu analysieren woran es liegt das der chip bei massivem HDR und SM3.0 (mit nativem content) einsatz im vergleich zum G80 aufeinmal recht rosig dasteht...es sonst aber "nirgends" tut!?
gut ihm schmeckt in beiden besagten gametests und in der UE3 scheinbar der code mehr...gibt wohl mehr parallel zu berechnen! woran liegt das? am compiler? oder das vielleicht der massive einsatz von HDR und echtem SM3.0 content dazu führt das der R600 besser ausgelastet wird als er es mit auf 3.0 standart aufgeblasenem 2.0 content tut. grade beim HDR rendering hat der chip ja sowieso seine stärken verglichen mit dem G80...
Was soll denn nun schon wieder 2.0- und 3.0-"Content" sein? Verwechselst du da gerade was?

Thorin
2007-07-12, 23:43:35
die 1900xt vielleicht für 150€ http://geizhals.at/eu/a184959.html
leider nur in einem shop verfügbar für den preis!

Savay
2007-07-13, 01:46:27
Was soll denn nun schon wieder 2.0- und 3.0-"Content" sein? Verwechselst du da gerade was?

ich spreche davon das es nicht immer auf das format und die sprache ankommt mit der man ne architektur füttert sondern auch wie und was nun drin steht...

du kannst ja nun jeden 2.0 shader aufs 3.0 format aufblasen und einfach durch nen compiler jagen ...nur das bringt ja erstmal keinen unterschied ausser das bestimmter code und funktionen schneller oder effizienter ausgeführt werden.
der R600 ist aber darauf angewiesen das viele daten anfallen die parallel zu berechnen sind...wenn man nun aber nen typisches 2.0 spiel nimmt und es stur auf 3.0 standard aufbläst nutzt man die spezifikation ja nicht wirklich aus.

schau doch mal den gametest 4 im 3dmark an...HDR rendering, softshadows en masse. der ganze test ist komplett mit hinblick auf die möglichkeiten von 3.0 hardware designed. das hast du bisher sonst eigentlich nirgends...die UE3 ist auch voll mit hinblick auf SM3.0 und 4.0 designed (optionaler fallback auf 2.0) und das scheint schon nen derben unterschied zu machen


btw http://www.falcon-nw.com/keltstake/ati_2900xtx.asp
http://www.computerbase.de/artikel/software/2007/bericht_windows_vista_geschwindigkeitscheck/9/#abschnitt_rainbow_six_vegas

ergo mein HighEnd Geheimtipp und P/L sieger mit guten zukunftsaussichten bleibt die HD2900XT :) ...denn wer ne G8800 GTX zu nem P/L sieger kürt wirds wohl zwangsläufig auch mit der R600 machen müssen. denn eines bleibt festzuhalten...sie ist billiger und wird (als 1GB version) bei der performance mit der GTX in künftigen blockbustern wohl eher gleichziehen :P ich wette drum ;)

GanjaBob
2007-07-13, 09:54:03
die 1900xt vielleicht für 150€ http://geizhals.at/eu/a184959.html
leider nur in einem shop verfügbar für den preis!
und schon wieder weg...

N0Thing
2007-07-13, 10:02:17
@Savay

Allerdings wird bei dem Rainbow Six Vegas Benchmark kein AA und kein AF verwendet, was der 2900XT ja bekanntlich Probleme bereitet.
Wenn man sich die anderen Benchmarks bei Computerbase anschaut, wo die 2900XT im Bereich der 8800GTX liegt, ändert sich das sehr deutlich, wenn AA&AF aktiviert werden. Als Beispiele Oblivion, Splinter Cell 4.

Ich möchte damit nicht sagen, daß ich deine Theorie über eine bessere Leistung der 2900XT bei neueren Spielen für Unsinn halte, nur das du deine Theorie nicht mit dem Vegas-Benchmark belegen kannst.

Savay
2007-07-13, 10:12:29
naja die theorie ist momentan sowieso nicht belegbar...ich kann da eh nur indizien bringen! nicht mehr und auch nicht weniger :cool:

ich weiß abseits davon aber eigentlich auch garnicht woher das gerücht kommt das die FSAA leistung beim R600 so schlecht sein soll...das ding skaliert (bei den vergleichbaren reinen MSAA modi) haar genauso wie nen G80 :|

beim AF kann ich dir aber recht geben...da ist die überlegene füllrate des g80 einfach vorteilhafter :) andererseits ist der R600 derartig viel schneller bei der UE3 das ich nicht glaube das es wirklich nen nennenswerten unterschied macht.
die unreal engine ist natürlich auch kein beleg für die zukunftstauglichkeit...wobei sie schon in enorm vielen guten titeln zum einsatz kommen wird man aber auch sagen kann das sich die leistung von titel zu titel natürlich unterscheiden kann! aber bei der UE2/2.5 hat sich am generellen verhalten der GPUs in den verschiedenen titeln auch nie viel getan...

in nem absoluten highend setup (ergo CF/SLI) sollte das sowieso alles weniger spürbar sein...zumal CF (besonders unter vista) ja scheinbar deutlich besser skaliert...wenn es denn mal nen effekt zeigt :tongue:

BAGZZlash
2007-07-13, 10:55:29
ich weiß abseits davon aber eigentlich auch garnicht woher das gerücht kommt das die FSAA leistung beim R600 so schlecht sein soll


Naja, aus den Reviews halt. z.B. hier her: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/38/#abschnitt_fazit


Unter Hinzunahme der beiden qualitätssteigernden Features [AA & AF] bricht die Performance der Radeon HD 2900 XT stark ein.

Savay
2007-07-13, 11:01:22
das kommt davon wenn man nur den text liest statt sich die zahlen dazu mal selber anzuschauen :tongue:

AA skaliert genau wie beim G80...AF ist ne ganz andere geschichte. bestreitet hoffentlich keinre :)

=Floi=
2007-07-13, 11:16:16
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/13/#abschnitt_3dmark06

die XT bricht wesentlich stärker ein bei AA

hier hast du es schriftlich
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/#abschnitt_aa_und_af_skalierung