PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX260 oder 280?


The Dude
2008-09-21, 05:05:36
Hi Leute,
lohnt es sich ca. 100 Steine mehr auszugeben für die 280 gegenüber der 260?

System:
WinXP (demnächst vielleicht auch Vista)
Intel E6850 (2x 3Ghz)
2GB Ram
Bisher genutzte Grafikkarte: 8800GT, 512MB
Auflösung 1680 x 1050

Gedacht für: Crysis Warhead, Stalker Clear Sky, Far Cry2

Greez Dude

mictasm
2008-09-21, 05:42:06
Du hast vergessen, dein bisheriges Netzteil zu nennen ;)

Ich glaube, dass du dir bei der Auflösung die Euros sparen kannst. Es sei denn, du willst extreme Qualitätseinstellungen vornehmen. Ich würde die neue 260 nehmen.

Es gibt hier aber bestimmt noch andere Meinungen, also erstmal abwarten^^

VooDoo7mx
2008-09-21, 06:13:38
Also für Crysis und das neue Stalker in DX10 kann man eigentlich nie genug Rechenleistung haben. Deswegen würde ich (wenn man sich es leisten kann) zur GTX 280 greifen. So wie es aussieht wird diese Karte auch die nächste Zeit die scnellste Single Chip Karte bleiben.

Silverbuster
2008-09-21, 06:53:34
Mir persönlich wäre der Aufpreis zur 280GTX zu hoch, auch wenn ich das Geld hätte. Wegen 1-2 Spielen die absoutes Maximum an Leistung benötigen finde ich das Geldverschwendung.
Schau dir doch viele aktuellen Spiele an. Viele laufen selbst auf einer älteren X1900XT noch in 1680x1050 mit 4xAA und 16xAF noch ziemlich ordentlich. Auch Blockbuster wie Grid, CoD4, Mass Effekt u.s.w laufen auf einer 3870 in dieser Auflösung noch sehr gut.
Hier wegen zwei Spielen so viel Geld auszugeben...... naja.

Und Stalker sollte erstmal Bugfrei werden, das ist ja schlimmer wie Gothic3 am Anfang. Auch finde ich nciht das Crysis optisch so der überflieger ist wie man es sagt. Sicher, es hat vielleicht die Aufwendigsten Effekte, aber wirklich so viel besser als z.B. CoD4 sieht es auch nicht aus. Und mit Mittleren Einstellungen ist Crysis immer noch ein sehr gut aussehendes Spiel und läuft so sogar akzeptabel auf einer X1950Pro.

Wenn du wirklich immer bei allen Spielen alles auf Max mit hohem AA und AF haben willst, dann kauf dir die 280GTX. Hast du kein Problem mal AA und AF etwas runter zu drehen oder mal eben nicht alle Effekte sehen zu müssen, dann die 260GTX/4870!

Armaq
2008-09-21, 09:19:52
Also CoD4 sieht nicht schlecht aus, aber Crysis ist schon eine Nummer für sich.

Kauf dir die 260 und lad von dem Rest (d)ein Mädel ein.

Dktr_Faust
2008-09-21, 10:06:11
Hier (http://ht4u.net/reviews/2008/gigabyte_geforce_gtx_260/)und dort (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/#abschnitt_einleitung) findest Du Reviews, aus denen DU einen Vergleich zw GTX 260 und GTX 280 ableiten kannst. Hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/) kannst Du außerdem sehen wie groß der Unterschied zwischen GTX 260 (alt) und GTX 260 (neu) ist.

Grüße

Gast
2008-09-21, 10:46:28
HD4870 natürlich. Alles andere ist Geldverschwendung.

Dktr_Faust
2008-09-21, 11:05:53
Und wo kommt diese Überzeugung her? Wenn Du die Reviews liest, dann ist die alte GTX 260 einige % schneller und lt. Geizhals gerade mal 2€ teurer. Dazu kommt die geringere Leistungsaufnahme und das nicht ganz so schlechte Kühlkonzept. Einziger echter Vorteil der HD4870 ist DX10.1 und ob es damit jemals ein Game geben wird ist nicht fraglich.

Ergo: z.Z. ist die GTX 260 eindeutig das bessere Paket.

Grüße

pest
2008-09-21, 11:17:09
ich würde die 8800GT behalten, der Mehrspeed rentiert sich doch garnicht richtig
aber ist nur meine Meinung ;)

Spasstiger
2008-09-21, 12:52:59
ich würde die 8800GT behalten, der Mehrspeed rentiert sich doch garnicht richtig
aber ist nur meine Meinung ;)
Crysis macht in 1680x1050 very high auf einer 8800 GT kaum Spass, die GTX 260 und die GTX 280 haben da doch einiges mehr an Reserven (laut Computerbase 60-90% schneller bzw. ~25 fps statt ~14 fps).

dargo
2008-09-21, 12:56:44
Hi Leute,
lohnt es sich ca. 100 Steine mehr auszugeben für die 280 gegenüber der 260?

Nein.

MartinRiggs
2008-09-21, 13:00:00
Nein.

Würde ich auch unterschreiben, die GTX280 ist den Mehrpreis nicht wert.
Entweder HD4870 oder GTX260, viel Leistung für wenig (T)euros;)

pest
2008-09-21, 13:33:36
Crysis macht in 1680x1050 very high auf einer 8800 GT kaum Spass, die GTX 260 und die GTX 280 haben da doch einiges mehr an Reserven (laut Computerbase 60-90% schneller bzw. ~25 fps statt ~14 fps).


kann man halt ein bisschen mehr Eye-Candy dazuschalten, 25fps sind auch keine Offenbarung

dargo
2008-09-21, 13:52:52
kann man halt ein bisschen mehr Eye-Candy dazuschalten, 25fps sind auch keine Offenbarung
Jetzt lasst doch mal dieses DX10@VH endlich weg. Mit dieser Generation ist das eh nicht vernünftig spielbar (zumindest in hohen Auflösungen).

pest
2008-09-21, 14:01:05
Jetzt lasst doch mal dieses DX10@VH endlich weg. Mit dieser Generation ist das eh nicht vernünftig spielbar (zumindest in hohen Auflösungen).

ist geht doch nur um die Kaufargumentation
ich spiele ja auch mit dem Gedanken, aber es muss dann schon was rausspringen
außer Crysis und Stalker:CS ist auf meiner 8800GT das Meiste sehr gut spielbar
kaufe ich jetzt ne Neue in meinem Preisrahmen (GTX260 usw) kann ich das was vorher nicht ging auch nicht viel besser spielen.
Statt 1280x800 VH geht dann halt 1440x900VH, dafür geb ich nicht gern 200€ aus, ist aber nur m.M.

dargo
2008-09-21, 14:09:47
@Pest
Jetzt übertreibst du aber etwas. Von 1280x800 auf 1440x900 sind es gerade mal ~27% mehr Pixel. Wenn du Ersteres mit der G8800GT spielen konntest dann müsste auf der GTX 260 1680x945 genauso gut laufen (fürs 1680x1050 müsste schon eine GTX 280 her).

Gut, ich bin von einer G80GTS umgestiegen. Bei einer G8800GT müsste es schon mindestens eine GTX 280 sein. Aber wenn du noch einigermaßen zufrieden bist würde ich auf den Refresh warten (wenn da überhaupt was nenennswert schnelleres kommt).

tombman
2008-09-21, 14:18:09
HD4870

Gast
2008-09-21, 14:23:50
HD4870

Schwanke auch zwischen ner GTX280 und ner HD4870. Welche ist in 1080p bei Crysis in hohen bis sehr Details schneller?

Dktr_Faust
2008-09-21, 14:28:42
Eine GTX 280 ist in jeder Auflösung schneller als die HD4870 - dafür ist sie ja auch knackig teurer.

Grüße

Cubitus
2008-09-21, 14:29:36
bei Crysis ist die GTX 280 schneller.
in der P/L ist die 4870er das beste Angebot.

Die Nvidia Karten bieten aber in der höchsten Treiber-Qualitätsstufe die bessere Bildqualität.

Was man noch ansprechen sollte ist das Überhitzungsproblem der GTX Serie.
Wobei ich mit meinen Karten Glück hatte.

dargo
2008-09-21, 14:54:38
Im Prinzip ist es doch ganz einfach - will mal pure Leistung bzw. MSAA-Leistung haben die HD4870. Will man bessere BQ (AF und SSAA bzw. Hybridmodis) haben die GTX 260.
Die GTX280 steht hier gar nicht zu Debatte da der Preisunterschied zur HD4870 schon zu groß ist.

Vielleicht hilft auch das - begrenzt einen die native TFT-Auflösung die GTX260 da man hiermit in SSAA investieren kann.

The Dude
2008-09-21, 14:55:42
Thanks für die vielen Antworten.

Was meint Ihr zu Far Cry 2? Gibt es zu den Anforderungen schon Angaben?

dreamweaver
2008-09-21, 15:03:38
bei Crysis ist die GTX 280 schneller.
in der P/L ist die 4870er das beste Angebot.

Die Nvidia Karten bieten aber in der höchsten Treiber-Qualitätsstufe die bessere Bildqualität.

Was man noch ansprechen sollte ist das Überhitzungsproblem der GTX Serie.
Wobei ich mit meinen Karten Glück hatte.

Hinzu käme noch die

- Netzteilproblematik (nvidia/ATI?)
- Treiber und Profilproblematik (ATI)
- Lautstärkeproblematik (nvidia/ATI)

dargo
2008-09-21, 16:59:52
Was meint Ihr zu Far Cry 2? Gibt es zu den Anforderungen schon Angaben?
FC2 ist Multiplattform, deswegen sollte die Frage eigendlich damit schon beantwortet sein. Die Möglichkeit besteht natürlich immer noch, dass die PC-Version bessere Details abbekommt. Je nachdem in welchem Ausmaß spiegelt sich das nachher in den Frames. Aber da hier niemand Hellseher ist würde ich vorschlagen einfach das Game abzuwarten.

tombman
2008-09-21, 17:19:44
Klar ist eine GTX280 schneller als eine HD4870, kostet aber auch mehr.

Die HD4870 hat aber einfach massiv shaderpower, und je neuer die games werden, desto schneller wird die ATI Karte.

Wenn man seine Karte also länger behalten will, dann sollte man HD4870 kaufen, sollte ziemlich lange reichen.

Wer ziemlich genau die Kohle für eine GTX280 ausgeben will, der kann das problemlos tun, wird ebenfalls sehr lange halten.

Wer 400€ ausgeben kann, sollte sich gleich eine HD4870X2 kaufen, die hält dann wirklich sehr lange ;)

Wenn jemand 200€ ausgeben will, dann isses ganz klar die HD4870 ;) (auch meine Empfehlung derzeit, weil man da derzeit nix falsch machen kann)

Jules
2008-09-21, 17:29:23
4870...

Gast
2008-09-21, 17:29:34
Und wo kommt diese Überzeugung her? Wenn Du die Reviews liest, dann ist die alte GTX 260 einige % schneller und lt. Geizhals gerade mal 2€ teurer. Dazu kommt die geringere Leistungsaufnahme und das nicht ganz so schlechte Kühlkonzept. Einziger echter Vorteil der HD4870 ist DX10.1 und ob es damit jemals ein Game geben wird ist nicht fraglich.

Ergo: z.Z. ist die GTX 260 eindeutig das bessere Paket.



Naja, das stimmt halt einfach nicht, was Du da sagst. Die 4870 weiss sich oft merklich von der 260 abzusetzen; mit dem 8.9er Catalyst sind da mal eben noch einige % dazugekommen.
Nicht zu vergessen die Tatsache, dass die ATIs eine bessere 2D-Bildqualität aufweisen.

So wie Du gegen DX 10.1 sprichst, kannst Du genauso gut gegen DX10 als Ganzes sprechen. Denn bislang gibt's kein einziges natives DX10 Spiel, sondern bestenfalls ein paar von DX9 nach DX10 portierte Engines. Mittlerweile kann man wohl sagen, dass die ganze DX10-Geschichte nicht mehr durchstarten wird und -wie seinerzeit DX 8.1- als nette Spielerei in die Annalen eingehen wird.

Jake Dunn
2008-09-21, 17:29:54
Wenn jemand 200€ ausgeben will, dann isses ganz klar die HD4870 ;) (auch meine Empfehlung derzeit, weil man da derzeit nix falsch machen kann)

Oder die "alte" GTX260 ;) man bekommt um 200-220€ sehr gute Leistung bei beiden Karten.

Wer mit ATI besser zurecht kommt nimmt ATI und wer mit Nvidia besser klar kommt eben Nvidia.

Dktr_Faust
2008-09-21, 17:48:27
Naja, das stimmt halt einfach nicht, was Du da sagst. Die 4870 weiss sich oft merklich von der 260 abzusetzen

Dann wirst Du dafür ja sicherlich Belege haben....ich lass mich gerne korrigieren, wenn ich mich irre - aber nicht durch schlichte Behauptungen.
Ansonsten stimme ich meinem Vorredner zu: Wenn man nur auf die Leistung schaut und die B-Tugenden nicht interessieren, dann macht man mit keiner Karte was falsch.

Grüße

dargo
2008-09-21, 17:55:01
Die HD4870 hat aber einfach massiv shaderpower, und je neuer die games werden, desto schneller wird die ATI Karte.

Naja, das ist wieder so ein Ding. Wie komplex sollen die Shader noch werden? Am Beispiel von Crysis sehe ich nicht, dass die arithmetische Leistung wichtiger wäre. Habs mit unterschiedlichen Taktraten schon probiert. Sprich, erhöht man alleine nur den Shadertakt skaliert das Game weit von 1:1 entfernt mit.

tombman
2008-09-21, 18:24:32
Also gegen die 260er habe ich was, weil "verkrüppelte" Karten schneller tot sind als man denkt.

Entweder man nimmt wirklich die 280er oder die 4870- IMO :)

Chris2CB
2008-09-21, 18:36:52
Naja, das ist wieder so ein Ding. Wie komplex sollen die Shader noch werden? Am Beispiel von Crysis sehe ich nicht, dass die arithmetische Leistung wichtiger wäre. Habs mit unterschiedlichen Taktraten schon probiert. Sprich, erhöht man alleine nur den Shadertakt skaliert das Game weit von 1:1 entfernt mit.


Ob er jetzt mit der Shaderleistung recht hat oder nicht sei mal dahin gestellt, aber seine Aussage wird sicher zutreffen, als Beispiel kann man ältere ATI Karten nehmen.

Gast
2008-09-21, 19:21:47
Dann wirst Du dafür ja sicherlich Belege haben....ich lass mich gerne korrigieren, wenn ich mich irre - aber nicht durch schlichte Behauptungen.


Schau Dir einfach diverse Reviews an, anstatt hier mistrauisch aufzutreten.

http://www.anandtech.com/video/showdoc.aspx?i=3341&p=1
uvm.... Google...

Die 260 ist, von ein paar seltenen Ausnahmen abgesehen, klar unterhalb der 4870. Die Vergangenheit zeigt eindeutig, dass die Lücke mit steigendem Alter der Karten grösser wird -zugunsten von ATI. Und eben, mit dem neusten Catalyst wurde die 4800er Familie durchs Band weg etwas flinker.

Gast
2008-09-21, 19:22:59
Da wäre noch das Problem mit den Spannungswandlern bei der HD 4870. Die sind ja anscheinend zu schwach um die GPU bei Vollast zu versorgen, was z.B. bei Furmark dafür gesorgt hat, dass die GPU einfach per Treiber gebremst wird, um den Stromverbrauch der GPU zu senken, damit das Teil nicht abfackelt! Was, wenn das ein oder andere zukünftige Spiel ähnliche Last wie Furmark auf der GPU der 4870 erzeugen würde? Gedrosselt wird das Teil sicher schwere Probleme gegen eine GTX 260/ 280 bekommen. Selbst wenn man selber für bessere Kühlung der Spawas sorgen würde (Wakü etc.) hat man das Problem, da man mit exe-renaming ja auch die Spiele-spezifischen Optimierungen deaktivieren würde und nicht nur die "Treiber-Bremse". Deswegen hab ich bei der HD 4870 kein so gutes Gefühl. Wollte mir eigentlich auch eine kaufen. :(

Black-Scorpion
2008-09-21, 19:36:49
Das Spiel möchte ich sehen das eine Last wie Furmark erzeugt.
Den Entwickler würden sie steinigen.

AnarchX
2008-09-21, 19:44:20
Die Steinigung hat wohl eher ATi verdient, wenn die Fur-Mark-Drosselung, wirklich wegen einer unzureichenden Stromversorgung auf den Karten eingeführt wurde.

Aber da das eher Vermutungen sind, würde ich es aber auch nicht als schwerwiegenden Punkt bei der Kaufentscheidung sehen.

Black-Scorpion
2008-09-21, 20:02:45
Die Steinigung hat wohl eher ATi verdient, wenn die Fur-Mark-Drosselung, wirklich wegen einer unzureichenden Stromversorgung auf den Karten eingeführt wurde.

Aber da das eher Vermutungen sind, würde ich es aber auch nicht als schwerwiegenden Punkt bei der Kaufentscheidung sehen.
Für wie blöd haltet ihr ATI?
Meint ihr ernsthaft die sollen die Spannungsversorgung für ein Programm wie Furmark ausrichten.
Noch dazu wo das Ding nicht einen wirklichen Zweck erfüllt außer die Karte zu Quälen?
Außerdem wurde afaik gedrosselt weil die Karten zu heiß wurden und nicht weil die Spannungsversorgung zu schwach ist.

Gast
2008-09-21, 20:11:00
Für wie blöd haltet ihr ATI?
Meint ihr ernsthaft die sollen die Spannungsversorgung für ein Programm wie Furmark ausrichten.
Noch dazu wo das Ding nicht einen wirklichen Zweck erfüllt außer die Karte zu Quälen?
Außerdem wurde afaik gedrosselt weil die Karten zu heiß wurden und nicht weil die Spannungsversorgung zu schwach ist.

Eine Grafikkarte muss so ausgelegt sein, das sie unter voller Auslastung aller Einheiten immer noch zu 100%, ohne Fehler oder Überhitzung, läuft! Und das auch unter schlechten Bedingungen, wie nicht optimal belüftetes Gehäuse und Sommertemperaturen von 30°C+ im Zimmer! Wo kommen wir denn hin, wenn die Hersteller die Karten so bauen, das sie bei bestimmten Programmen wegen Überlastung abfackeln oder überhitzen? Dann heißt es demnächst noch: jaaa bei Egoshootern kann es passieren, das unser Produkt abfackelt, es war ja nur für Adventures mit extra wenig Last auf der GPU gedacht! :crazy:

Marseille
2008-09-21, 20:11:34
Verschiedene Grafikkarten im Vergleich (http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_260_Amp2_Edition/23.html)

Black-Scorpion
2008-09-21, 20:15:41
Furmark ist kein normales Programm. Ist das so schwer zu begreifen?
Es wird kein Spiel geben das so eine Last erzeugt.

tombman
2008-09-21, 20:17:38
Furmark ist kein normales Programm. Ist das so schwer zu begreifen?
Es wird kein Spiel geben das so eine Last erzeugt.
Begreifst du nicht, daß es keine software der Welt geben darf, die hardware innerhalb der Spezifikation zur Überlastung führt?
Das wäre dann schlicht ein DESIGNFEHLER.

Chris2CB
2008-09-21, 20:20:47
Für wie blöd haltet ihr ATI?
Meint ihr ernsthaft die sollen die Spannungsversorgung für ein Programm wie Furmark ausrichten.
Noch dazu wo das Ding nicht einen wirklichen Zweck erfüllt außer die Karte zu Quälen?
Außerdem wurde afaik gedrosselt weil die Karten zu heiß wurden und nicht weil die Spannungsversorgung zu schwach ist.


Also:

Was du hier schreibst, das währe für viele Sicherheit relevante Bereiche der reine Horror....das Seil muss nur 75kg aushalten...wenn du zu Fett bist können wir nichts dafür.......

Gedrosselt wird wenn die Karte zu warm wird und einen Defekt hat man wenn Personen mit viel "Fachwissen" das Problem leise Kühlung erledigen lässt.

Sonyfreak
2008-09-21, 20:24:14
Furmark ist kein normales Programm. Ist das so schwer zu begreifen?
Es wird kein Spiel geben das so eine Last erzeugt.Das heißt eine CPU muss zb. einer Quad-Prime oder Linpack Vollbelastung auch nicht standhalten, weil diese Programme auch keine Last erzeugen, die realitätsnah ist oder wie? Tut mir leid, aber so eine Aussage ist einfach Schwachsinn. ;)

mfg.

Sonyfreak

dargo
2008-09-21, 20:28:14
Also gegen die 260er habe ich was, weil "verkrüppelte" Karten schneller tot sind als man denkt.

Sorry, aber das ist doch völliger Unsinn. Sie bietet mehr fürs Geld als die GTX 280. Außerdem hatte ich von G80GTS auf GTX 260 einen größeren Performanceboost als du von G8800GTX auf die GTX 280. :wink:

Ob er jetzt mit der Shaderleistung recht hat oder nicht sei mal dahin gestellt, aber seine Aussage wird sicher zutreffen, als Beispiel kann man ältere ATI Karten nehmen.
Lol, wo hat denn der R600 beim G80 aufgeholt bzw. diesen sogar überholt. Was sich manche hier an der Vergangenheit zusammenreimen, unglaublich.

Gast
2008-09-21, 20:46:27
Sorry, aber das ist doch völliger Unsinn. Sie bietet mehr fürs Geld als die GTX 280. Außerdem hatte ich von G80GTS auf GTX 260 einen größeren Performanceboost als du von G8800GTX auf die GTX 280. :wink:


Naja eine GTX280 ist schneller als ein G80er(GTX) SLI system, also der "Sprung" ist jedenfalls nicht gerade klein.

Chris2CB
2008-09-21, 21:53:48
Sorry, aber das ist doch völliger Unsinn. Sie bietet mehr fürs Geld als die GTX 280. Außerdem hatte ich von G80GTS auf GTX 260 einen größeren Performanceboost als du von G8800GTX auf die GTX 280. :wink:


Lol, wo hat denn der R600 beim G80 aufgeholt bzw. diesen sogar überholt. Was sich manche hier an der Vergangenheit zusammenreimen, unglaublich.



Zum ersten hast du aus deiner Sicht absolut recht, aber wenn es ein fehlerfreier Chip gewesen währe hätte NV das Teil sicher als GTX 280 verkauft.

Zum zweiten kannst du sicher google nutzen und aktuelle Spiele.
http://www.3dcenter.org/artikel/die-leistungsfähigkeit-alter-grafikkartengenerationen

Spasstiger
2008-09-21, 22:40:15
Zum ersten hast du aus deiner Sicht absolut recht, aber wenn es ein fehlerfreier Chip gewesen währe hätte NV das Teil sicher als GTX 280 verkauft.
Wenn der Markt entsprechend viele GTX 260 fordert, werden auch fehlerfreie Chips auf der GTX 260 verbaut.
Bei Fehlerquoten von vielleicht 30-50% wird man wohl nicht den Bedarf an GTX-260-Karten decken können, der sicherlich höher liegt als der Bedarf an GTX-280-Karten. Oder verständlicher gesagt: Es fallen höchstwahrscheinlich gar nicht so viele fehlerhafte Chips an wie GTX-260-Karten nachgefragt werden.

Gast
2008-09-21, 22:44:10
Naja eine GTX280 ist schneller als ein G80er(GTX) SLI system, also der "Sprung" ist jedenfalls nicht gerade klein.

Klar nur ist die frage ob es wirklich der unterschied von 4-5 FPS bei crysis z.B. einem wert sind im vergleich von einer gtx 260 zur 280, vorallem weil da über hundert eur zwischen sind. Preis leistung ist sicherlich bei der gtx280 momentan nicht besonders gut. Aber ist halt das flagschiff von nv und somit ist der preis klar...

Die neue gtx260 hat ein wesentlich besseres preis leistungsverhältnis und wird zudem nicht so warm mit dem normalen kühler und ist viel leiser. Kann ich jedenfalls aus eigener erfahrung berichten da ich die gtx 280 damals zurückgeschickt hatte wegen der lautstärke und hitze und mir die gtx 260 geholt habe.

dargo
2008-09-21, 22:45:57
Wenn der Markt entsprechend viele GTX 260 fordert, werden auch fehlerfreie Chips auf der GTX 260 verbaut.
Bei Fehlerquoten von vielleicht 30-50% wird man wohl nicht den Bedarf an GTX-260-Karten decken können, der sicherlich höher liegt als der Bedarf an GTX-280-Karten. Oder verständlicher gesagt: Es fallen höchstwahrscheinlich gar nicht so viele fehlerhafte Chips an wie GTX-260-Karten nachgefragt werden.
Richtig, das selbe wird übrigens auch bei CPUs schon lange praktiziert. Halt nicht über die Kombination aus Takt und Einheiten sondern in der Regel nur über den Takt.

Gast
2008-09-21, 22:55:23
Lol, wo hat denn der R600 beim G80 aufgeholt bzw. diesen sogar überholt. Was sich manche hier an der Vergangenheit zusammenreimen, unglaublich.

Du pickst Rosinen. Es war bei der 9700/9800 Reihe so (dort sogar massiv), ebenso bei den X800ern und sehr stark auch bei der X1800/X1900 Serie. Beim R600 haben wir halt eine Ausnahme, die ja bekanntlich die Regeln bestätigen. Mit dem RV770 hat ATI wieder zu alten Tugenden zurückgefunden, ergo ist die Annahme, dass sich die Geschichte in X1900er-Manier wiederholt, zumindest nicht abwegig. Kein Grund für Dich, gleich aufzubrausen, denn Du hast Dir selbst ein Märchen zusammengestrickt.

Nach Fragen macht man übrigens ein Fragezeichen.

Chris2CB
2008-09-22, 08:08:37
Wenn der Markt entsprechend viele GTX 260 fordert, werden auch fehlerfreie Chips auf der GTX 260 verbaut.
Bei Fehlerquoten von vielleicht 30-50% wird man wohl nicht den Bedarf an GTX-260-Karten decken können, der sicherlich höher liegt als der Bedarf an GTX-280-Karten. Oder verständlicher gesagt: Es fallen höchstwahrscheinlich gar nicht so viele fehlerhafte Chips an wie GTX-260-Karten nachgefragt werden.



Das hat es in der Vergangenheit hier und da gegeben, wurde ja auch schonmal offiziell bestätigt.

Aber, es ist ja nicht so das die GTX260 überall ausverkauft währe und die Core 216 Version lässt auch eher darauf schließen das es doch nicht sooo Toll läuft. Wenn alle Einheiten voll funktionsfähig sind, aber nicht der gewünschte Takt erreicht wird.....ist das auch nicht so ganz Fehlerfrei.


Das dies bei CPU's gemacht wird liegt zu einem daran das gut 90% unter 200$ CPUs sind, zum anderen wird man eher ein wiederholbares Ergebnis für die gesteckten Ziele haben.

Hellstaff
2008-09-22, 14:44:15
IMO ist das upgrade Geldverschwendung. Ich würde warten.