PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

AnarchX
2010-03-31, 16:13:45
Naja bei offenem Aufbau. Hardware.fr hat im Gehäuse ja jetzt schon >100°C gehabt.
Wobei ein Antec Sonata III auch nicht gerade das geeignetste Gehäuse für >200W Grafikkarten scheint.

IVN
2010-03-31, 16:18:57
Wobei ein Antec Sonata III auch nicht gerade das geeignetste Gehäuse für >200W Grafikkarten scheint.
So ist es. Sogar mein vor 5 Jahren gekauftes Chieftec hat an den Seitenwänden Löcher für langsamdrehende 120er Lüfter. 2 Stück, für nen guten Luftzug.

Exxtreme
2010-03-31, 16:24:14
Wiederspiegelt doch schön das Unding "High-End" und wer dafür das Geld ausgiebt.
Naja, trotzdem ist es so, dass sich der Fermi besser als erwartet (<3 Pispers) schlägt in den Umfragen. Die Nichtkäufer sind da eher nicht relevant.

Gast
2010-03-31, 16:34:46
Naja bei offenem Aufbau. Hardware.fr hat im Gehäuse ja jetzt schon >100°C gehabt.

Merkst du gar nicht, dass dies nur auf einem Fehler beruhen kann? Die Lüfter sind Temperaturgeregelt und zwar offensichtlich so, dass sie ca. ab 95°C einen Gang höher schalten. Also entweder ist dort eine Lüftersteuerung kaputt oder der Lüfter hat die 100% erreicht. Allerdings kannst du alle Tests im Internet durchsuchen die es gibt, die 100% wurden nie erreicht! Nebenbei finde ich es echt lustig, wie alle Ati-Fanboys darauf rum hacken, dass teilweise bei offenem Gehäuse getestet wurde. Das die Lautstärke in diesen Fällen ebenso bei offenem Gehäuse gemessen wurde fällt aber keinem auf. selektive Wahrnehmung ist doch was schönes. :)

Gast
2010-03-31, 16:40:24
Naja, trotzdem ist es so, dass sich der Fermi besser als erwartet (<3 Pispers) schlägt in den Umfragen. Die Nichtkäufer sind da eher nicht relevant.


Wie kommst du bitte zu so einer Aussage. Man kann doch nicht ernsthaft irgendwelche Forenumfrage heranziehen, bei denen dann 35 Leute von 200 oder so gesagt haben, dass sie sich eine GTX480/GTX470 holen wollen.

Natürlich werden auch diese Heizkörper mit Düsenantrieb Käufer finden, aber selbst bei einer geringen Gesamtnachfarge wird es ja sowieso nicht genug Karten geben um diese zu bedienen.

derguru
2010-03-31, 16:43:29
Merkst du gar nicht, dass dies nur auf einem Fehler beruhen kann? Die Lüfter sind Temperaturgeregelt und zwar offensichtlich so, dass sie ca. ab 95°C einen Gang höher schalten. Also entweder ist dort eine Lüftersteuerung kaputt oder der Lüfter hat die 100% erreicht. Allerdings kannst du alle Tests im Internet durchsuchen die es gibt, die 100% wurden nie erreicht! Nebenbei finde ich es echt lustig, wie alle Ati-Fanboys darauf rum hacken, dass teilweise bei offenem Gehäuse getestet wurde. Das die Lautstärke in diesen Fällen ebenso bei offenem Gehäuse gemessen wurde fällt aber keinem auf. selektive Wahrnehmung ist doch was schönes. :)
die 100% muss sie gar nicht erreichen,beim uncutvideo von pcgh ist die bei 86% und das ist schon mehr als reichlich.(ab 2.52min)
http://www.youtube.com/watch?v=H4dD94QMz50&feature=youtube_gdata

die 100% haben pcgh sich wegen gesundheitlichen problemen nicht getraut.:biggrin:

Anderer_Gast
2010-03-31, 16:48:14
@Gast
Im Großraumbüro werden bestimmt keine GTX 480/470 im Rechner stecken ...

... außerdem kennen wir Deine Einstellung zu den Karten nun reichlich, das NV-Bashing kann also eingestellt werden.

Ich hätte mir ja eine GTX 470 gekauft, wenn die mal so 260 Euro kosten würde. 350 Euro - dafür kann man sich ja schon eine PS3 mit einem Spiel kaufen. Und zum Preis der GTX 480 gibt es gleich eine PS3 samt Xbox 360. Und dort verpasst man mehr durch Exclusivtitel wie bei den bisher unscheinbaren D3D11 Effekten.

Ich verstehe auch nicht warum man den GF104 nicht parallel entwickelt hat und zeitgleich launcht. Der Chip ist sicher interessanter wie GF100.

IVN
2010-03-31, 16:52:06
@Gast
Im Großraumbüro werden bestimmt keine GTX 480/470 im Rechner stecken ...

... außerdem kennen wir Deine Einstellung zu den Karten nun reichlich, das NV-Bashing kann also eingestellt werden.

Ich hätte mir ja eine GTX 470 gekauft, wenn die mal so 260 Euro kosten würde. 350 Euro - dafür kann man sich ja schon eine PS3 mit einem Spiel kaufen. Und zum Preis der GTX 480 gibt es gleich eine PS3 samt Xbox 360. Und dort verpasst man mehr durch Exclusivtitel wie bei den bisher unscheinbaren D3D11 Effekten.

Ich verstehe auch nicht warum man den GF104 nicht parallel entwickelt hat und zeitgleich launcht. Der Chip ist sicher interessanter wie GF100.



Und hoffentlich hat man den unnötigen DP-Ballast entfernt, dafür aber mehr Spielerelevante Einheiten hineingestopft. Sowie das ALU:Tex-Verhältnis wieder in Ordnung gebracht.

dildo4u
2010-03-31, 16:54:26
Übrigenz auch interresant NV ist ja so Gamer unfreundlich und es wird zu 100% zu erst Tesla Fermi's geben,weil NV mher dran verdient.:rolleyes:
Nix da die Gamer Karten kommen lange vor den Teslas auf den Markt.

Gast
2010-03-31, 16:54:32
Nüchterne Einschätzung:
Für mich ist die Karte als Gamer ein großer Flop. Sie verbraucht zuviel, sie leistet gemessen daran zu wenig, sie wird einen entsprechenden Preis haben ...
Die Kühlung sollte annehmbar und nicht zu laut sein, kann sein, das es schon daran scheitert.

Realistisch betrachtet sehe ich ATi ziemlich gut im Vorteil, sie konnten bisher Karten verkaufen und werden es weiterhin können so lang nVidia es nicht packt auszuliefern.
Ich sehe auch gute Chancen, das eine verbesserte 5870 problemlos an die Leistungen anknüpft und ATi daher gute Möglichkeiten hat, Profit aus der ganzen Sache zu schlagen.
Immerhin, das Geld haben sie auch nötig, da ja im CPU Sektor andere Bedingungen gelten.

Gast
2010-03-31, 16:54:57
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.

http://www.xtremesystems.org/forums/showthread.php?t=248288&page=3
die 100% muss sie gar nicht erreichen,beim uncutvideo von pcgh ist die bei 86% und das ist schon mehr als reichlich.
http://www.youtube.com/watch?v=H4dD94QMz50&feature=youtube_gdata

die 100% haben pcgh sich wegen gesundheitlichen problemen nicht getraut.:biggrin:


Typisch PCGH experten wieder behauptet in spielen erreicht die Karte nie 86%. Im geschlossenen gehäuse wird das kein problem für diesen Burner.
So ne aussage zeugt von sehr viel ahnung. Wenn man das ding offen testet.

Gast
2010-03-31, 16:55:40
Was bei der ganzen Aufregung rund um die desaströse Effizienz von GF100 ja auch bisher außen vor blieb, ist die Tatsache das wir es hier gleichzeitig auch noch mit einem Paper-Launch reinster Güte zu tuen haben. Es hat ja nicht einmal für eine aureichende Menge an GTX470 gereicht, um alle wichtigen Redaktionen zu versorgen und das wird bei beiden GF100-Karten wohl auch noch eine ganze Zeit so weiter gehen.

http://www.fudzilla.com/content/view/18295/34/
http://www.fudzilla.com/content/view/18296/34/

IVN
2010-03-31, 16:57:04
Wasn DP? Double Penetration?
...precision. Ja, falls das überhaupt entfernbar ist. Ein Mid-Range Chip braucht sowas nicht.

Gast
2010-03-31, 17:05:32
Fermi Testing Update
Dirt 2

http://www.bit-tech.net/hardware/graphics/2010/03/31/fermi-testing-update/1

Gast
2010-03-31, 17:09:06
@Gast
Im Großraumbüro werden bestimmt keine GTX 480/470 im Rechner stecken ...

... außerdem kennen wir Deine Einstellung zu den Karten nun reichlich, das NV-Bashing kann also eingestellt werden.

Das kann ich mir nicht vorstellen. Die Anzal der Systeme macht das schon. Zudem hast Du keinen blassen schimmer davon was hier beim mir am Arbeitsplatz an Lastprogrammen läuft. Da läuft ein Quadcore schon mal den ganzen Tag bis er aus einer Fülle von Daten einen Scatterplott angefertigt hat. Aber leb' Du in Deiner Welt und ich in meiner. ;)

Gast
2010-03-31, 17:13:20
Übrigenz auch interresant NV ist ja so Gamer unfreundlich und es wird zu 100% zu erst Tesla Fermi's geben,weil NV mher dran verdient.:rolleyes:
Nix da die Gamer Karten kommen lange vor den Teslas auf den Markt.

Vor dem Respin kommt da Nichts.
4 solcher Karten in einem Blade dürfte ohne kräftiges untertakten/volten nicht möglich sein.

LovesuckZ
2010-03-31, 17:17:09
Fermi Testing Update
Dirt 2

http://www.bit-tech.net/hardware/graphics/2010/03/31/fermi-testing-update/1

Die GTX480 regelt ziemlich unter DX9. Wäre interessant, wie die DX11 Features implementiert wurden, um den krassen Einbruch herbeizuführen.

Gast
2010-03-31, 17:22:23
Die GTX480 regelt ziemlich unter DX9. Wäre interessant, wie die DX11 Features implementiert wurden, um den krassen Einbruch herbeizuführen.

Würde mich nicht wundern, wenn es noch an den Treibern liegt. Mit DX9 hat man nun seit ner ewigkeit Erfahrung, so ist es gut möglich, dass man bei DX11 noch einiges mehr optimieren muss.

Gast
2010-03-31, 17:28:09
Dann guckt euch doch auch mal gleich den kompletten Launch-Test an und das Fazit das sie ziehen. Es ist deutlich das die GTX480 einfach keinen Performancevorteil bietet der auch sinnvoll ist. Sie macht einfach nichts spielbar was mit einer HD5870 auch schon nicht spielbar ist (vielleicht irgendwo in Metro, obwohl auch die GTX480 grundsätzlich zu langsam für das Game ist) und die Mehr-Fps die sie bietet, bietet sie auch nur in Games die ohnehin schon kein Problem mit einer HD5870 darstellen.

http://www.bit-tech.net/hardware/2010/03/27/nvidia-geforce-gtx-480-1-5gb-review/1

"Well, hopefully you’ve had a good look at our performance numbers over the last few pages, and are probably as surprised as we were with how little the GTX 480 offers in extra performance over the HD 5870 in many of the benchmarks we’ve performed. While there are a few games in which the GTX 480 was faster, there are many resolutions in our test games where the HD 5870 comes out on top. Clearly, the GTX 480 is not the world's fastest single-GPU card."

Gast
2010-03-31, 17:36:49
Welchen höllern Lärm das ding schon in dem Haeven bench macht kann man hier hören. Kein vergleich zur 5870: Düsenjägerlärm gegen säuseln.
http://www.youtube.com/watch?v=ASu3Xw6JM1w&feature=sub

Iruwen
2010-03-31, 17:37:30
Man kann doch nicht ernsthaft irgendwelche Forenumfrage heranziehen, bei denen dann 35 Leute von 200 oder so gesagt haben, dass sie sich eine GTX480/GTX470 holen wollen.

Die gleichen Umfragen sind für die gegenseite ja offenbar auch hinreichend um zu belegen dass sich keiner eine GTX4x0 kaufen wird :freak:

Iruwen
2010-03-31, 17:40:56
Welchen höllern Lärm das ding schon in dem Haeven bench macht kann man hier hören. Kein vergleich zur 5870: Düsenjägerlärm gegen säuseln.
http://www.youtube.com/watch?v=ASu3Xw6JM1w&feature=sub
Und wo hört man da die 5870 unter gleichen Bedingungen im Vergleich? :rolleyes: Ein auf den Lüfter gerichtetes Mikro bildet nicht die Realität ab.

aths
2010-03-31, 17:43:00
Die kauf umfragen sehen überall gleich aus in allen Foren.
Diese Heizplatte dürfte der grösste Flopp in NVs geschichte werden.Größer als FX 5800 U?

Chris Lux
2010-03-31, 17:46:30
der unterschied zur FX 5800 ist, dass die GTX 480 performt.

Schlammsau
2010-03-31, 17:48:04
Und hier ist schon die nächste Umfrage.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480522

aths
2010-03-31, 17:49:10
der unterschied zur FX 5800 ist, dass die GTX 480 performt.... und zwar überall. Die FX 5800/Ultra war ja nicht schlecht – in DirectX8. Nur beim DX9-Pixelshading hing das Teil massiv hinter der Radeon 9500 zurück.

Trotzdem ist die Lautstärke einfach nicht akzeptabel für einen PC der in dem Raum steht in dem er benutzt wird.

Gast
2010-03-31, 17:52:29
Und wo hört man da die 5870 unter gleichen Bedingungen im Vergleich? :rolleyes: Ein auf den Lüfter gerichtetes Mikro bildet nicht die Realität ab.

Das kann jeder testen der ne 5870 hat.
Der Lüfter dreht beim Haeven Bench nichtmal hoch.
Die 480 brüllt da schon wie blöde.

Gast
2010-03-31, 17:53:07
Das Ding ist und bleibt ein FAIL, da helfen Rosinenpickerei und allg. Performance nicht weiter. Um diese unfassbar schlechte Effizienz zu rechtfertigen, müsste sie ein ganzes Stück schneller sein. Gemessen an den vorher gehypten Erwartungen (weil es NV ist muss es obergeit werden?) hat sie vollständig versagt.

Gast
2010-03-31, 17:59:35
Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis

http://www.golem.de/1003/74213.html

Gast
2010-03-31, 18:02:58
Also unter Furmark geht der Lüfter der 480 wirklich ab. Davor war der Unterschied net so krass. Der Zusatzlüfter bringt aber anscheinend etwas.

Gast
2010-03-31, 18:04:43
Aber Furzmark ist ja auch wirklich eine Extremsituation. Man muss halt Usertests abwarten.

Megamember
2010-03-31, 18:06:05
Die Final Version der 480 soll noch ein anderes Bios bekommen als die ganzen Test-Karten.

Gast
2010-03-31, 18:06:50
Also unter Furmark geht der Lüfter der 480 wirklich ab. Davor war der Unterschied net so krass. Der Zusatzlüfter bringt aber anscheinend etwas.

Wemm man weis wie sich ein 12 V 1,8 A Delta lüfter schon bei 50% anhört weis man welcher Düsensound bei ner 480 dann herrschen wird beim Zocken.

Gast
2010-03-31, 18:07:37
Also mein Hörfazit: Unter Furmark lauter als 5870, davor bei den Tests fand ich den Unterschied zur 5870 doch tolerierbar.

Gast
2010-03-31, 18:08:16
Wemm man weis wie sich ein 12 V 1,8 A Delta lüfter schon bei 50% anhört...
Erstaunlich zivil.

Schlammsau
2010-03-31, 18:10:02
Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis

http://www.golem.de/1003/74213.html

Alter Schwede, im FUR braucht man ja wirklich nen Gehörschutz.....abartig!

Also mein Hörfazit: Unter Furmark lauter als 5870, davor bei den Tests fand ich den Unterschied zur 5870 doch tolerierbar.
Die ist im FUR nicht nur lauter, die kloppft dir den Schmalz aus die Ohren!
Das ist ja echt krank....das hört sich an als würde ein Flugzeug abheben. :ulol:

Gast
2010-03-31, 18:11:29
Erstaunlich das der Zusatzlüfter soviel bringt. Und nochmal: Nur im Furmark ist die Lautstärke (für mich) deutlich über 5870 Niveau.

aths
2010-03-31, 18:11:30
Das Ding ist und bleibt ein FAIL, da helfen Rosinenpickerei und allg. Performance nicht weiter. Um diese unfassbar schlechte Effizienz zu rechtfertigen, müsste sie ein ganzes Stück schneller sein. Gemessen an den vorher gehypten Erwartungen (weil es NV ist muss es obergeit werden?) hat sie vollständig versagt.Die Effizienz ist – bezogen auf das heute Machbare – gar nicht schlecht. Um im oberen Bereich noch etwas mehr rauszukitzeln, muss man viel mehr Strom in den Chip ballern, was die Verlustleistung entsprechend steigen lässt.

LovesuckZ
2010-03-31, 18:11:34
Jo, abartig. Vorallem dieser Paragraph:
Bei den Versuchen zeigte sich zudem, dass der Bildaufbau auf AMD-Karten mit Furmark 1.8 stockt und zudem die Temperatur weniger schnell steigt als bei Nvidia-Karten. Es liegt der Verdacht nahe, dass AMD seine Grafikkarten hier absichtlich drosselt, um Beschädigungen zu vermeiden. Eine kurzfristige Anfrage bei AMD nach diesem Phänomen ist bisher noch unbeantwortet. Schon mit älteren Versionen des Furmark konnten wir aber bisher keine einzige Grafikkarte beschädigen.
http://www.golem.de/1003/74213-2.html

Gast
2010-03-31, 18:13:13
Jetzt warten wir doch alle mal ab was Finale Karten, finale Biosse und der 256er Treiber bringen.

Schlammsau
2010-03-31, 18:16:44
Jo, abartig. Vorallem dieser Paragraph:

http://www.golem.de/1003/74213-2.html

Dieses stocken tritt auch bei GeForcenutzern auf und kommt höchstwahrscheinlich von der im Sekundentakt abgenommen Temperatur. Blätter mal ein wenig im FURMark Bench Thread. ;)

Hab ich bei mir auch.

Gast
2010-03-31, 18:18:17
Ach, drosselt ATI also wieder die 58er Serie im Furmark? Das traue ich ATI voll und ganz zu.

lilgefo~
2010-03-31, 18:21:10
Ach, drosselt ATI also wieder die 58er Serie im Furmark? Das traue ich ATI voll und ganz zu.

Nur wenn die Board Komponenten zu warm werden kann man dann recht gut nachprüfen, da dann die Ziwschenstufe gewählt wird (bei ner 5870 ist das glaube 500/900).

aths
2010-03-31, 18:21:18
Ach, drosselt ATI also wieder die 58er Serie im Furmark? Das traue ich ATI voll und ganz zu.Halte ich für legitim – sofern ATI das öffentlich kommuniziert.

mironicus
2010-03-31, 18:22:28
Jetzt könnt ihr die PCGH bashen: :D

http://www.pcgameshardware.de/aid,744044/Top-10-VGA-Geforce-GTX-480-oder-GTX-470-im-Preisvergleich-kaum-gefragt-Paper-Launch/Grafikkarte/News/

Gast
2010-03-31, 18:23:33
Ja, und warum antworten die auf Golem-Anfrage nicht? Wenn die im Furmark drosseln würde liegt da was im Argen. Wer sagt denn das die Karte nicht in Spielen drosselt? Bei der 48er Serie brannten doch die Spawas beim Furmark durch.

Gast
2010-03-31, 18:25:11
Jetzt könnt ihr die PCGH bashen: :D

http://www.pcgameshardware.de/aid,744044/Top-10-VGA-Geforce-GTX-480-oder-GTX-470-im-Preisvergleich-kaum-gefragt-Paper-Launch/Grafikkarte/News/

Ich suche erst ab dem 12.4. Was soll das mit der lächerlichen Suchanfrage?

Gast
2010-03-31, 18:26:12
Ja, und warum antworten die auf Golem-Anfrage nicht? Wenn die im Furmark drosseln würde liegt da was im Argen. Wer sagt denn das die Karte nicht in Spielen drosselt? Bei der 48er Serie brannten doch die Spawas beim Furmark durch.

wen interessiert auf diesem planeten ernsthast furmark

Gast
2010-03-31, 18:29:21
Jetzt könnt ihr die PCGH bashen: :D

http://www.pcgameshardware.de/aid,744044/Top-10-VGA-Geforce-GTX-480-oder-GTX-470-im-Preisvergleich-kaum-gefragt-Paper-Launch/Grafikkarte/News/


Zumindest der astreine Paper-Launch ist Realität und was hat man sich doch bei HD5xxx aufgeregt, obwohl die Karten erhältlich waren, wenn auch in sehr begrenzter Stückzahl.

Bucklew
2010-03-31, 18:32:12
Test: Lautstärke und Strom der Geforce GTX 480 in der Praxis

http://www.golem.de/1003/74213.html
Aha:

Bei den Versuchen zeigte sich zudem, dass der Bildaufbau auf AMD-Karten mit Furmark 1.8 stockt und zudem die Temperatur weniger schnell steigt als bei Nvidia-Karten. Es liegt der Verdacht nahe, dass AMD seine Grafikkarten hier absichtlich drosselt, um Beschädigungen zu vermeiden
Jetzt also schon die zweite Seite die sagt, dass AMD Furmark drosselt. Na Schlammsau, wir wärs mal mit ein paar Nachweisen und nicht nur blöden Sprüchen? ;D

Gestrandet
2010-03-31, 18:36:46
die 100% haben pcgh sich wegen gesundheitlichen problemen nicht getraut.:biggrin:
Exakt. Wenn man den delta nämlich auf 100% jagt passiert sowas hier:
http://www.youtube.com/watch?v=L_gpPbpONK4
;)

Jake Dunn
2010-03-31, 18:40:33
Aha:


Jetzt also schon die zweite Seite die sagt, dass AMD Furmark drosselt. Na Schlammsau, wir wärs mal mit ein paar Nachweisen und nicht nur blöden Sprüchen? ;D
Hast eine ATI und F-Mark 1.8 laufen ?

Im Hauptordner liegt die etqw.exe und damt ist das flüssig (ohne die ruckler) und die Temp. ändert sich nicht. :P


E: Mit dem OpenGL 4.0 gibt es 5% Mehrleistung im FUR und ja die Temp. ändert sich nicht :)

Gast
2010-03-31, 18:42:52
Na, dann soll AMD mal ein Statement zur Golem Anfrage rausgeben. Ist ja anscheinend alles halb so wild.

MR2
2010-03-31, 18:44:47
Geforce 400 nicht mit voller GPGPU-Leistung

http://www2.hardware-infos.com/news.php?news=3497
"So besitzen die Geforce-Modelle nur ein Viertel der möglichen Rechenleistung im "Double Precision" (DP)-Modus."

Ist sicher bekannt, oder? Ich wusste es nicht:-)

Jake Dunn
2010-03-31, 18:46:39
Geforce 400 nicht mit voller GPGPU-Leistung

http://www2.hardware-infos.com/news.php?news=3497
"So besitzen die Geforce-Modelle nur ein Viertel der möglichen Rechenleistung im "Double Precision" (DP)-Modus."

Ist sicher bekannt, oder? Ich wusste es nicht:-)

Ja ist bekannt, die Teslas haben die volle DP-Power ;)

LovesuckZ
2010-03-31, 18:48:51
Das Video von Golem.de ist toll. Die GTX480 ist doch wirklich im Vantage leiser als die 5870 Karte. Das zeigt mal wieder, das eine Zahl am Ende nicht soviel aussagt wie der subjektive Eindruck

Gast
2010-03-31, 18:50:02
Aha:


Jetzt also schon die zweite Seite die sagt, dass AMD Furmark drosselt. Na Schlammsau, wir wärs mal mit ein paar Nachweisen und nicht nur blöden Sprüchen? ;D

Wen interessiert diese Rosinenpickerei beim Furmark bitte? Die GTX 480 ist laut und braucht viel mehr Strom als vergleichbare Karten. PUNKT!

Daran braucht man nichts schön reden. Wem diese beiden Punkte egal sind kauft die Karte ohnehin. Das ist aber nicht die breite Masse und diese überzeugen auch die kleinen Sticheleien mit den ständigen ABER und MIT DEM FINGER ZEIG auch nicht. --> Lovesucks und Schlammsau sollten ein eigenes Forum bekommen in dem sie Moderatoren sind. Möge der Flamewar beginnen. :)

aths
2010-03-31, 18:51:38
Wen interessiert diese Rosinenpickerei beim Furmark bitte? Die GTX 480 ist laut und braucht viel mehr Strom als vergleichbare Karten. PUNKT!Dafür leistet sie auch mehr als vergleichbare Karten. Würden die vergleichbaren Karten auf Taktfrequenzen geprügelt dass sie die GTX-480-Leistung bringen, wären sie mit Luftkühlung nicht leiser oder sparsamer.

Bucklew
2010-03-31, 18:53:28
Hast eine ATI und F-Mark 1.8 laufen ?

Im Hauptordner liegt die etqw.exe und damt ist das flüssig (ohne die ruckler) und die Temp. ändert sich nicht. :P
Nein, nur komisch, dass es zwei (nicht gerade kleine Seiten) gibt, die unabhängig voneinander bestätigen, dass AMD den Furmark wie schon zu 4000er Zeiten dosselt.

Aber wenn man jetzt eine Karte haben muss um was zu ihr sagne zu können, wir es ja bald sehr ruhig hier ;)

Geforce 400 nicht mit voller GPGPU-Leistung
GPGPU != DP

SP läuft mit ganz normaler vollen Leistung, und das ist es auch, was Folding@Home & Co benutzen. Nebenbei: Die Midrangechips (Juniper und vorraussichtlich auch GF104) können überhaupt gar kein DP.

Bucklew
2010-03-31, 18:55:18
Wen interessiert diese Rosinenpickerei beim Furmark bitte? Die GTX 480 ist laut und braucht viel mehr Strom als vergleichbare Karten. PUNKT!
Es gibt zur GTX480 keine vergleichbare Karte. Entweder langsamer oder anders (MGPU), aber dazu etwas vergleichbares gibt es nicht.

Gast
2010-03-31, 18:57:21
Jupp, daran zweifelt aber auch niemand. Die 480 leistet mehr als jede andere verfügbare Einzelkarte. Das erreicht sie zu einem Preis (Lautstärke, Strom, Wärme), der vielen nicht gefällt. Diese Tatsache kann man kritisieren und die HD5870 als das "rundere" oder meinetwegen auf "vernüftigere" Gesampaket hinstellen. Mehr nicht. Wer noch auf PhysiX oder CUDA Wert legt und diese Features als "Killerfeatures" ansieht, kommt dann wiederum zu einem anderen Schluss. Da muss man dann aber einfach unterscheiden zwischen jemanden der mit möglichst hohen Framezahlen zocken will und einem Enthusiasten, wie Tombman, der jeden "Schnickschnack" (ist nicht abwerten gemeint) haben will.

Jake Dunn
2010-03-31, 18:59:51
Nein, nur komisch, dass es zwei (nicht gerade kleine Seiten) gibt, die unabhängig voneinander bestätigen, dass AMD den Furmark wie schon zu 4000er Zeiten dosselt.

Aber wenn man jetzt eine Karte haben muss um was zu ihr sagne zu können, wir es ja bald sehr ruhig hier ;)




Bin nur auf die "ruckler" bzw. den von Golem angesprochenen stockenden Bildaufbau eingegangen ;)

Können ja andere User mit HD5K mal selbst anschauen, die "ruckler" sind mit der etqw.exe nicht vorhanden (hier) die Frames sind aber gleich (+-1-2FPS)

Gast
2010-03-31, 19:03:27
Dafür leistet sie auch mehr als vergleichbare Karten. Würden die vergleichbaren Karten auf Taktfrequenzen geprügelt dass sie die GTX-480-Leistung bringen, wären sie mit Luftkühlung nicht leiser oder sparsamer.

Eine bis zum anschlag 1050/1300 übertaktete 5870 brauch noch lange nicht soviel wie ne default 480 Heizbirne und bleibt moch Kühler und leiser.
Und kostet noch viel weniger. Das ding ist Fail da hilft auch kein schönreden.

N0Thing
2010-03-31, 19:03:37
Clearly, the GTX 480 is not the world's fastest single-GPU card."

Da steht die Seite mit dieser Meinung wohl recht alleine da. Im Schnitt sind sich doch alle anderen Reviews einig, daß die GTX 480 vor allen anderen Single-GPU Karten liegt.


Die Final Version der 480 soll noch ein anderes Bios bekommen als die ganzen Test-Karten.

Gibt es dazu nen Link, oder immerhin Informationen über die Änderungen gegenüber dem aktuellen BIOS?



Nein, nur komisch, dass es zwei (nicht gerade kleine Seiten) gibt, die unabhängig voneinander bestätigen, dass AMD den Furmark wie schon zu 4000er Zeiten dosselt.

War das nicht schon bekannt? Ich dachte es wäre bei ATI üblich bei Furmark die Grafikkarte vor Schäden zu schützen.

Hoffentlich sehen nun endlich alle ein, daß man mit Furmark nichts anderes messen kann, als die Performance und den Stromverbrauch unter Furmark. Als theoretisches Extrembeispiel sicher eine Option, interessant ist aber eher der Anstatz von HT4U, die ein Spiel heran ziehen, daß bei beiden Herstellern einen recht hohen Stromverbrauch erzeugt. Zumindest für Zocker definitiv interessanter, als der Stromverbrauch unter Furmark.

IVN
2010-03-31, 19:05:50
Eine bis zum anschlag 1050/1300 übertaktete 5870 brauch noch lange nicht soviel wie ne default 480 Heizbirne und bleibt moch Kühler und leiser.
Und kostet noch viel weniger. Das ding ist Fail da hilft auch kein schönreden.
Schau mal hier (http://www.xbitlabs.com/articles/video/display/gpu-power-consumption-2010_4.html#sect0). Und beachte, es ist eine 5850 mit nur 1GB VRAM.

Gast
2010-03-31, 19:07:02
Eine bis zum anschlag 1050/1300 übertaktete 5870 brauch noch lange nicht soviel wie ne default 480 Heizbirne und bleibt moch Kühler und leiser.
Und kostet noch viel weniger. Das ding ist Fail da hilft auch kein schönreden.

Und ist immernoch nicht genausoschnell. AUsserdem braucht man für 1050 schon ne deftige Volterhöhung.

Bucklew
2010-03-31, 19:08:20
Hoffentlich sehen nun endlich alle ein, daß man mit Furmark nichts anderes messen kann, als die Performance und den Stromverbrauch unter Furmark.
Furmark war solange interessant, bis er von ATI schon zu 4000er Zeiten gezielt ausgebremst wurde, weil die Karten sonst abrauchten oder die PCI-Spec gnadenlos überzogen haben.

Gast
2010-03-31, 19:11:13
Es gibt zur GTX480 keine vergleichbare Karte. Entweder langsamer oder anders (MGPU), aber dazu etwas vergleichbares gibt es nicht.

Da hast du allerdings Recht zu dieser Karte gibt es wirklich nichts vergleichbar uneffizientes und nochmals die Mehrleistung im Durchschnitt (10-15% über HD5870) kann diesen unglaublichen Mehrverbrauch ect. nicht kompensieren.

Bucklew
2010-03-31, 19:13:52
Da hast du allerdings Recht zu dieser Karte gibt es wirklich nichts vergleichbar uneffizientes und nochmals die Mehrleistung im Durchschnitt (10-15% über HD5870) kann diesen unglaublichen Mehrverbrauch ect. nicht kompensieren.
Ja so ist halt das Problem mit der maximalen Leistung. So ein Ferrari verbraucht halt auch deutlich mehr Sprit als ein Porsche o.Ä., der auch "nur" 10-15% langsamer auf 100 sind. Aber eben genau diese 10-15% sind nunmal das Problem. Klingt nach wenig, ist aber viel.

Mr. Lolman
2010-03-31, 19:14:41
Es gibt zur GTX480 keine vergleichbare Karte. Entweder langsamer oder anders (MGPU), aber dazu etwas vergleichbares gibt es nicht.

Najo, kommt draufan, wie eng man die Grenzen zieht. So siehts techreport zB:


These two new GeForces draw more power, generate more heat and noise, and have higher price tags than the closest competing Radeons, but they're not substantially faster at running current games. For many, that will be the brutal bottom line on the GeForce GTX 470 and 480. Given the complexity and the rich feature sets of modern graphics processors, that hardly seems fair, but the GF100 is facing formidable competition that made it to market first and is clearly more efficient in pretty much every way that matters. The GF100's major contribution to real-time graphics, beyond the DirectX 11 features that its competitor also possesses, is an increased geometry processing facility that has little value for today's games and questionable value for tomorrow's. As a graphics geek, it's not hard to admire this aspect of the GF100, but I think it will be difficult for gamers to appreciate for quite some time—perhaps throughout the useful life of these graphics cards.

Then again, given the supply problems and inflated prices that we've seen in the graphics card market over the past six months, we're just glad to see Nvidia back at the table. Even if the value propositions on the GeForce GTX 470 and 480 aren't spectacular, they're a darn sight better than zero competition for AMD.

http://techreport.com/articles.x/18682/14


HardOCP zeigt sich noch weniger begeistert:



The GTX 480 is quite simply not a "Radeon HD 5870 Killer." We don’t know if we were supposed to think it would be or not, but with the power consumption this beast requires, you would hope it would be providing a bit more performance than it is. We can’t say that any of the real world gameplay advantages blew us away compared to the experience of gaming on a Radeon HD 5870. The Radeon HD 5870 proved to allow high AA settings at 2560x1600 in many games, the same as the GTX 280, just not as high. The only game that clearly favors the GeForce GTX 480 is Metro 2033. (And we know that AMD still has its driver team looking over the final code release of the game and has not yet tweaked for it.) Even in BC2, 8X CSAA isn’t a huge improvement over 4X AA which the HD 5870 allowed at 2560x1600. What is the value to the gamer of being able to use 8XAA instead of 4XAA in Bad Company 2?


We are seeing some trades back and forth; in some games the GTX 480 is slightly faster, in other games the HD 5870 is slightly faster. There wasn’t anything that really stood out, other than Metro 2033. Once again, we have to factor in cost, power, and heat. The GeForce GTX 480 consumes more power than the HD 5870, produces more heat, and costs more money (which might also include the cost of a new PSU). It doesn’t seem like the best value with all this factored in. The only thing that "blew us away" was the heat coming out of the video card and the sound of the fan.

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/8



Allerdings kommts natürlich draufan, woher man sich die Fazits holt. Bis vor Kurzem stand im PCGH WoW-Artikel zB folgendes:


Die Benchmarks belegen deutlich, dass die Geforce GTX 480 und die Geforce GTX 470 das Maß der Dinge sind

http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Crosspromo-PCG/Test/

Gast
2010-03-31, 19:15:31
Ha, die 480 ist im Schnitt vielleicht 10-15 Prozent schneller. Dann gibt es Spiele wo sie eine 5970 schlägt. Sie liegt aber immer vor der 5870. Und hetzt warten wir mal die zukünftigen Spiele ab, Mafia 2 wäre hier zu nennen.

Gast
2010-03-31, 19:15:39
Außerdem brauchen wir garnicht über Furmark zu reden. GTX480 normale Spielesituation 90-96C° (auch mal gerne bis zum Totalausfall bei ungeeignetem Case), Dual-Monitor-Betrieb siehe da sofort auf 90C° im Idle (alles natürlich bei dementsprechender Lautstärke und massiver Leistungsaufnahme).

Gast
2010-03-31, 19:17:51
Die 480 ist ein Prestigeobjekt, eine Enthusiastenkarte wo der Stromverbrauch hoch ist. Wer das Geld für die Karte hat gibt nix auf den Mehrverbrauch.

Jake Dunn
2010-03-31, 19:20:01
Furmark war solange interessant, bis er von ATI schon zu 4000er Zeiten gezielt ausgebremst wurde, weil die Karten sonst abrauchten oder die PCI-Spec gnadenlos überzogen haben.

Richtige Games sind besser und Praxisnaher, nebenbei ab dem GF 18x.xx Treibern tuts NV auch ;)

Bucklew
2010-03-31, 19:20:06
Najo, kommt draufan, wie eng man die Grenzen zieht. So siehts techreport zB:

HardOCP zeigt sich noch weniger begeistert:
Techreport z.B. hat auch mal gehauptet, dass die HD5870 doppelt so schnell wie der Vorgänger ist. Das ist ja auch Quatsch.

Allerdings kommts natürlich draufan, woher man sich die Fazits holt. Bis vor Kurzem stand im PCGH WoW-Artikel zB folgendes:
Das steht da immer noch ;)

Richtige Games sind besser und Praxisnaher, nebenbei ab dem GF 18x.xx Treibern tuts NV auch ;)
beleg?

Gast
2010-03-31, 19:20:11
@Mr. LOLMann

Ich kenne Reviewseiten wo eine 5970 geschlagen wird. Die 480 IST die schnellste Singlekarte die es gibt. Und teilweise sogar DEUTLICH die schnellste Karte.

Black-Scorpion
2010-03-31, 19:21:08
Eine gut isolierte Wohnung/Haus erreicht auch im Hochsommer keine 30°C sowas gibts es nur bei mangelter isolation/alt bau oder im Dachgeschoss.
Quatsch

Musst du unbedingt den selben BS erzählen?
Was bringt dir die beste Isolierung der Fassade, wenn durch das große Fenster den halben Tag die Sonne rein knallt?

Mr. Lolman
2010-03-31, 19:23:16
Sie liegt aber immer vor der 5870. Und hetzt warten wir mal die zukünftigen Spiele ab, Mafia 2 wäre hier zu nennen.

Nö. Gibt auch div. Benchmarks wo sie minimal langsamer ist.

@Mr. LOLMann

Ich kenne Reviewseiten wo eine 5970 geschlagen wird. Die 480 IST die schnellste Singlekarte die es gibt. Und teilweise sogar DEUTLICH die schnellste Karte.


Glaub ich dir gerne. Und ich geb dir auch recht. Andererseits ist sie teilweise wiederum auch leicht langsamer als die HD5870. (So kommt dann nämlich auch der 10-15% schneller Schnitt zustande)

Gast
2010-03-31, 19:25:02
Ich habe ungefähr 10 Reviewseiten gelsen. Ich sag mal 8 haben ganz deutlich belegt das die 480 die schnellste Singlekarte ist. Da gabs sogar benches wo eine 5970 mal geschlagen wird. Ich wollte dir das nur mal sagen.

IVN
2010-03-31, 19:25:32
Nö. Gibt auch div. Benchmarks wo sie minimal langsamer ist.
Und auf der anderen Seite hat man dann sowas:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21

Raff
2010-03-31, 19:25:40
Allerdings kommts natürlich draufan, woher man sich die Fazits holt. Bis vor Kurzem stand im PCGH WoW-Artikel zB folgendes:

http://www.pcgameshardware.de/aid,743499/Geforce-GTX-470-und-480-im-Benchmark-Test-mit-World-of-Warcraft/Crosspromo-PCG/Test/

Lolli, ich weiß, dass du kein engstirniger Fanboy bist, also fang du bitte nicht auch noch mit dem Blödfug an. Du kennst das richtige Fazit. Das WoW-Fazit ist, nur auf WoW bezogen, aber völlig korrekt. Und nur weil ein paar Leute zu banane bzw. bösartig sind, steht in dem Satz nun auch nochmal das Spiel – dabei handelt es sich um einen dedizierten Artikel für den Titel ... Es ist schon traurig, was man alles explizit hinschreiben muss, um nicht geflamed zu werden.

Und ja, der Furmark wird auf einer HD 5000 deutlich gebremst. Es kommt alle ~2 Sekunden zu einem Stocken. Das ist auf einer GTX 400 nicht zu sehen.

MfG,
Raff

LovesuckZ
2010-03-31, 19:29:07
Warum hat eigentlich noch niemand das Vantage-Lautstärken-Ergebnis von Golem.de kommentiert? Achja, stimmt: Da ist die 5870 ja lauter.

Gast
2010-03-31, 19:30:58
Lovesuckz, ich fande die eigentlich ziemlich gleich belästigend;)

Jake Dunn
2010-03-31, 19:31:27
beleg?

Hier z.b. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7748255#post7748255


Der Artikel kam bei PCGH (y33H@) welch Wunder natürlich nicht :rolleyes:

Schlammsau
2010-03-31, 19:33:13
Und auf der anderen Seite hat man dann sowas:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21

es gibt heftige Ausreisser nach oben und nach unten!
Im Mittel sind es aber "nur" rund 20%.

Da gibts nichts dran zu rütteln.

Was mich aber stark verwundert, dass Fermi auch nur rund 20% schneller in Metro 2033 ist. Ist das nicht der Vorzeigetitel schlecht hin?
Eine 480 reicht nicht um das Game unter 1080p, Tesselation und AA flüssig darzustellen. Gerade mit Tesselation hat sie kaum mehr Leistung im Vergleich zur 5870.

Wieso "suckt" die Karte gerade hier so?

LovesuckZ
2010-03-31, 19:33:31
Lovesuckz, ich fande die eigentlich ziemlich gleich belästigend;)

Subjektiv - ohne irgendwelche Zahlen - ist das GTX480 Geräusch angenehmer und leiser. Wie du jedoch sagst: Beides ist nicht als leise einzustufen.

Oh: Die 5870 ist im Furmark sogar leiser als im Vantage...

Gast
2010-03-31, 19:33:52
Und auf der anderen Seite hat man dann sowas:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21

Das ist es ja. Da wo es völlig egal ist von den Frames her ist sie viel schneller.
Wos draufankommt eben nicht.
Veballert strom das es knallt plärt mit dem Lüfter und heizt die Bude auf.
Zu guter letzt kostet das Ding noch mehr.
So gibts diese Fail karte sicher nicht lange. Soviel ist sicher.

aths
2010-03-31, 19:33:56
Eine bis zum anschlag 1050/1300 übertaktete 5870 brauch noch lange nicht soviel wie ne default 480 Heizbirne und bleibt moch Kühler und leiser.... und lebt im Durchschnitt wie lange?
Und kostet noch viel weniger. Das ding ist Fail da hilft auch kein schönreden.Ist aber komisch, dass das Ding den Herstellern trotzdem aus den Händen gerissen wird.

Jake Dunn
2010-03-31, 19:34:15
Und ja, der Furmark wird auf einer HD 5000 deutlich gebremst. Es kommt alle ~2 Sekunden zu einem Stocken. Das ist auf einer GTX 400 nicht zu sehen.

MfG,
Raff

Hier wird wohl nicht mitgelesen :rolleyes:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7941066&postcount=2562

Bucklew
2010-03-31, 19:34:35
Hier z.b. http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7748255#post7748255
Wo steht da jetzt, dass das ne gezielte Drosselung von Furmark? :confused:

Black-Scorpion
2010-03-31, 19:35:33
Furmark war solange interessant, bis er von ATI schon zu 4000er Zeiten gezielt ausgebremst wurde, weil die Karten sonst abrauchten oder die PCI-Spec gnadenlos überzogen haben.
Dann dürfte die die 400er erst gar nicht damit getestet werden.Denn die Karte kratz in Spielen schon an der Spec Grenze.
Und interessant war das Ding nur für Leute die Langeweile haben und nichts besseres zu tun haben wie sinnlos ihre Karte zu quälen.

Mr. Lolman
2010-03-31, 19:35:35
Und auf der anderen Seite hat man dann sowas:


Hm, hwluxx waren doch die, die beim GTX260 Review anfangs alle Balken, wo die GTX260 flotter war, schön extrapoliert hatten (10% flotter = 3x längere Balken) Damit mag ich nicht deren Ergebnisse in Frage stellen, sondern möchte bloß zu bedenken geben, wies um die Neutralität einer Reviewseite bestellt sein dürfte, wenn man sich solchen 'Pfusch' erlaubt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6922907&postcount=112

Lolli, ich weiß, dass du kein engstirniger Fanboy bist, also fang du bitte nicht auch noch mit dem Blödfug an. Du kennst das richtige Fazit. Das WoW-Fazit ist, nur auf WoW bezogen, aber völlig korrekt. Und nur weil ein paar Leute zu banane bzw. bösartig sind, steht in dem Satz nun auch nochmal das Spiel – dabei handelt es sich um einen dedizierten Artikel für den Titel ... Es ist schon traurig, was man alles explizit hinschreiben muss, um nicht geflamed zu werden.

Und warum gibts überhaupt einen eigenen WOW-Artikel, wo doch jeder die Benchmarks auch im Review sehen kann? (mal ganz abgesehen davon, dass die Relevanz der Benchmarks, in Anbetracht der Einbrüche auf 20fps bei Raids, ohnehin ein bisschen fragwürdig ist)

AnarchX
2010-03-31, 19:35:59
es gibt heftige Ausreisser nach oben und nach unten!

In welchem Spiel ist eine GTX 480 nur etwa halb so schnell wie eine 5870?

Raff
2010-03-31, 19:36:45
Und warum gibts überhaupt einen eigenen WOW-Artikel, wo doch jeder die Benchmarks auch im Review sehen kann? (mal ganz abgesehen davon, dass die Relevanz der Benchmarks, in Anbetracht der Einbrüche auf 20fps bei Raids, ohnehin ein bisschen fragwürdig ist)

Nichts geschieht ohne Grund. Hier sind's Page Impressions durch Verlinkung bei Fanseiten. Und die Raid-Performance ist ziemlich wayne, da man verdammt viel Zeit draußen in der Pampa herumwackelt. Ich habe beispielsweise nie geraided, auch Instanzen besuchte ich wenig.

MfG,
Raff

Schlammsau
2010-03-31, 19:38:58
In welchem Spiel ist eine GTX 480 nur etwa halb so schnell wie eine 5870?

Wieso halb so schnell? :confused:

Ich meinte ausgehend von den 20% mehr Leistung zur 5870.
Mal ist sie genau so schnell und mal 40% schneller als eine 5870.

Im Mittel halt 20%!

Mr. Lolman
2010-03-31, 19:42:23
Im Mittel halt 20%!

Im Schnitt über alle Reviews sogar zwischen 10-15%. Aber wartem wir mal an, wie sejr die nächsten Tessellationskracher den Schnitt heben werden.

Blaire
2010-03-31, 19:45:09
Außerdem zeigen ATi Karten in Crysis Warhead iirc immernoch die schöneren Schatten an.


Glaub ich nicht, zeig mal Screenshots.

Banding tritt auf Ati Karten ja recht häufig auf, warum versuchst du das wegzureden? Die Karte hat genug Power da braucht es nicht solche Tricks um Speed zu schinden.

AnarchX
2010-03-31, 19:48:21
Wieso halb so schnell? :confused:
Ich dachte bei deiner Aussage, dass du vielleicht einen Spielebenchmark gesehen hättest, wo die 5870 etwa doppelte Leistung erreicht, wie es die GTX 480 teilweise schafft.


Ich meinte ausgehend von den 20% mehr Leistung zur 5870.
Mal ist sie genau so schnell und mal 40% schneller als eine 5870.

Ja, das ist auch mein Eindruck, keine deutliche Unterschreitung der 5870-Performance in Spielen, bis hin zu deutlicher Mehrleistung, in einen momentan noch geringen Anteil der Spiele.

Gast
2010-03-31, 19:48:52
Wichtig wird sein welche Grafikengine in zukünftigen Spielen eingesetzt wird und ob Fermi davon profitieren kann. Da NV eng mit Spieleschmieden zusammenarbeitet denke ich da geht noch was. Hawx, Streetfighter 4, Just Cause 2 profitieren z.B. sehr stark von Fermi.

dildo4u
2010-03-31, 19:49:11
Im Schnitt über alle Reviews sogar zwischen 10-15%. Aber wartem wir mal an, wie sejr die nächsten Tessellationskracher den Schnitt heben werden.
Der Unterschied unter DX11 ist schon wesentlich größer auch ohne (Heftigen)Tessaltionseinsatz.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7931975&postcount=1004

derguru
2010-03-31, 19:54:04
techpowerup (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/32.html)hat im vergleich mit anderen reviews die meisten spiele(19 spiele) im parcour +einige benchmarks und der performancesprung ist überschaubar.

Bucklew
2010-03-31, 19:56:14
techpowerup (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/32.html)hat im vergleich mit anderen reviews die meisten spiele(19 spiele) im parcour +einige benchmarks und der performancesprung ist überschaubar.
UT3, CoD4, Q4, Quake Wars - 200 vs. 220fps, was für ein Showdown mit was für einer Relevanz :rolleyes:

Mr. Lolman
2010-03-31, 19:56:34
Glaub ich nicht, zeig mal Screenshots.


Im direkten Vergleich des 8.12 WHQL mit dem 9.2 RC1 fiel uns jedoch auf, dass erstgenannter im Schatten liegende Kanten nicht mit Anti-Aliasing bedenkt - der 9.2 RC1 dagegen schon. Somit rendert der aktuelle Treiber mehr Fps bei einer besseren Bildqualität. (bis 8.12 war die Schattenqualität mit NV vergleichbar)

http://www.pcgameshardware.de/aid,676773/Treiber-Test-Catalyst-92-RC1-beschleunigt-Radeon-Grafikkarten-deutlich/Grafikkarte/Test/?page=4

AnarchX
2010-03-31, 19:57:18
techpowerup (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/32.html)hat im vergleich mit anderen reviews die meisten spiele(19 spiele) im parcour +einige benchmarks.
Bei den Tschechen von pctuning hat man auch eine große Auswahl an Spielen die man in anderen Reviews nicht sieht:
8. FC2, L4D, Fallout 3, Bioshock, Dead Space
9. CoD 5, World In Conflict, GRID, UT3, ME
10. HL2 Ep2, CoH, ET, Tomb Raider, GTA IV
11. COD 4, DMC4, Crysis Warhead, STALKER CS, BIAHH
12. Mirrors Edge, HAWX, Arma 2, AvP, Bioshock 2
13. BF2, STALKER CoP, DA, Dark Void, 3DM
14. DiRT 2, Unigine, ME2, Metro 2033, RE5, SC2
http://pctuning.tyden.cz/hardware/graficke-karty/17035-geforce-gtx-470-a-gtx-480-rozsahly-test-fermi-gf100?start=8
Wobei da wie bei TPU auch vieles dabei ist wofür man keine GTX 400/HD5800 benötigt, abgesehen von SGSSAA/Hybrid-SSAA/Downsampling, womit aber keiner testet.

dildo4u
2010-03-31, 19:57:48
UT3, CoD4, Q4, Quake Wars - 200 vs. 220fps, was für ein Showdown mit was für einer Relevanz :rolleyes:
Jo und 8XAA kommt auch nicht zum Einsatz war früher mal ganz wichtig für bestimmte Leute hier. :rolleyes: Mit 4XAA kommt man viel eher in CPU Limits.

_DrillSarge]I[
2010-03-31, 19:58:41
(mal ganz abgesehen davon, dass die Relevanz der Benchmarks, in Anbetracht der Einbrüche auf 20fps bei Raids, ohnehin ein bisschen fragwürdig ist)
wow braucht man mit den karten gar nicht benchen, da es technisch (ja, ja schönes artwork usw...) der hinterletzte sch*** ist. der optik nach müsste man schon mit ner GF4TI 100+ fps konstant haben :ufinger: (€: jetzt kommt ja nicht mit den "super tollen" realtime-schatten :lol:)

Raff
2010-03-31, 19:58:56
(bis 8.12 war die Schattenqualität mit NV vergleichbar)

http://www.pcgameshardware.de/aid,676773/Treiber-Test-Catalyst-92-RC1-beschleunigt-Radeon-Grafikkarten-deutlich/Grafikkarte/Test/?page=4

Aaaaaalt. ;) In der Zwischenzeit können sich bereits Welten verschoben haben. Mir ist diesbezüglich nichts aufgefallen. Ok, ich habe nicht drauf geachtet, aber normalerweise fallen mir Unterschiede, die nicht dynamischen Objekten geschuldet sind, ins Auge.

I[;7941211']wow braucht man mit den karten gar nicht benchen, da es technisch (ja, ja schönes artwork usw...) der hinterletzte sch*** ist. der optik nach müsste man schon mit ner GF4TI 100+ fps konstant haben :ufinger:

Äh – nein.

MfG,
Raff

IVN
2010-03-31, 20:00:52
techpowerup (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/32.html)hat im vergleich mit anderen reviews die meisten spiele(19 spiele) im parcour +einige benchmarks und der performancesprung ist überschaubar.
Und gerade da, in Metro 2033, ownt (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/27.html) die 480 ihre Konkurrenz.

tombman
2010-03-31, 20:02:57
Bei den Tschechen von pctuning hat man auch eine große Auswahl an Spielen die man in anderen Reviews nicht sieht:

http://pctuning.tyden.cz/hardware/graficke-karty/17035-geforce-gtx-470-a-gtx-480-rozsahly-test-fermi-gf100?start=8
Wobei da wie bei TPU auch vieles dabei ist wofür man keine GTX 400/HD5800 benötigt, abgesehen von SGSSAA/Hybrid-SSAA/Downsampling, womit aber keiner testet.
Wow:
http://pctuning.tyden.cz/ilustrace3/obermaier/GTX_400/arma2.png

AnarchX
2010-03-31, 20:04:56
Wenn schon Metro2033, dann richtig:
http://pclab.pl/zdjecia/artykuly/miekrzy/fermipremierowy/wykresy/metrodx11_1680_aaa.png
http://pclab.pl/zdjecia/artykuly/miekrzy/fermipremierowy/wykresy/metrodx11_1680_aa4.png
http://pclab.pl/art41241-24.html
:D

Jake Dunn
2010-03-31, 20:06:25
Und gerade da, in Metro 2033, ownt (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/27.html) die 480 ihre Konkurrenz.Und ist dennoch unspielbar in 19x12 (4/16) mit SLI auchnoch grenzwertig wegen MR und der gurken Engine die unter 50FPS sich lausig anfühlt.

Jake Dunn
2010-03-31, 20:09:40
Wow:
http://pctuning.tyden.cz/ilustrace3/obermaier/GTX_400/arma2.png
Ja wow :uclap:

http://www.hardware.fr/articles/787-9/dossier-nvidia-geforce-gtx-480-470.html

IVN
2010-03-31, 20:10:02
Und ist dennoch unspielbar in 19x12 (4/16) mit SLI auchnoch grenzwertig wegen MR und der gurken Engine die unter 50FPS sich lausig anfühlt.
Und?

Ja wow :uclap:

http://www.hardware.fr/articles/787-9/dossier-nvidia-geforce-gtx-480-470.html

Ich denke, er meint das "2AF".

AYAlf_2
2010-03-31, 20:10:09
habe mir jetzt noch mal die benches zur gtx480 angeschaut .. und nur die spiele betrachtet die ich online spiele. da ist meist die 5870 vorn oder die gtx480 fuehrt leicht .. aber bei fps zahlen die ueber 80 liegen. (natuerlich mit meiner aufloesung und aa/af werten).

fuer mich waere also die gtx480 jetzt "noch" ein rueckschritt. wenn ich mal die lautstaerke und die hitze ausser acht lasse (was ich sowieso wahrscheinlich getan haette).

€: bei sp bin ich eh mit 35+ fps zufrieden .. crysis macht halt bescheiden.

r@h
2010-03-31, 20:11:13
Und gerade da, in Metro 2033, ownt (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/27.html) die 480 ihre Konkurrenz.
"Nachtigal ich hör' Dir trapsen!"

Sagt mal... glaubt Ihr wirklich noch an den Weihanchtsmann?
Metro 2033 ist ZEITGLEICH zum Release der GTX480 erschienen... warum wohl :rolleyes:

Aber offenbar hat es ja auf die "Leichtgläubigen" unter uns die entsprechende Wirkung.
Und nur das ist es, was "zählt" - gelle?

Razor

Jake Dunn
2010-03-31, 20:11:44
Und?
Was und ?

Metro 2033 bleibt unspielbar, oder schwer von begriff ?

IVN
2010-03-31, 20:13:21
Was und ?

Metro 2033 bleibt unspielbar, oder schwer von begriff ?
Das hat doch früher keinen Radeon nutzer interessiert. Man vergleicht immer mit den Werten die "passen".

r@h
2010-03-31, 20:13:27
Wo is'n die Mail hin?

Egal, dann ohne Worte:

GeForce GTX 480 Gets a BIOS Update and Cooks an Egg
http://www.legitreviews.com/article/1264/1/

Was für ein Mist!

Razor

Bucklew
2010-03-31, 20:14:08
fuer mich waere also die gtx480 jetzt "noch" ein rueckschritt. wenn ich mal die lautstaerke und die hitze ausser acht lasse (was ich sowieso wahrscheinlich getan haette).
Na klar, bei deiner Ausstattung ja auch kein Wunder. Aber mal ehrlich: Bei deiner Ausrüstung wäre es doch ein Meilenstein gewesen, wenn es sich wirklich gelohnt hätte auf die neuen Nvidias umzurüsten.

Jake Dunn
2010-03-31, 20:15:20
Metro 2033 ist ZEITGLEICH zum Release der GTX480 erschienen... warum wohl :rolleyes:

Razor

Hmm Zeitgleich Razor? :)


Das hat doch früher keinen Radeon nutzer interessiert. Man vergleicht immer mit den Werten die "passen".

Ändert ja denoch nichts an meiner Aussage :)

Gast
2010-03-31, 20:15:43
Der Unterschied unter DX11 ist schon wesentlich größer auch ohne (Heftigen)Tessaltionseinsatz.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7931975&postcount=1004

ja toll in Metro, und? Spielen kanns trotzdem keiner.....oder ich kauf mir wieder einen 17"...zum totlachen.. 3 von den Dingern müssen her :D ihr Weicheier, das Ohr muß brummen und die Füße brennen....

derguru
2010-03-31, 20:15:44
UT3, CoD4, Q4, Quake Wars - 200 vs. 220fps, was für ein Showdown mit was für einer Relevanz :rolleyes:

wenn dir das nicht passt dann schau dir AnarchX gepostete seite an,selbe wurst.
besser als so ne geschönter mist wie bei metro 2033.aber du und andere könnt ja täglich euer metro2033 und heaven benchen,wenns spass macht.:biggrin:
Bei den Tschechen von pctuning hat man auch eine große Auswahl an Spielen die man in anderen Reviews nicht sieht:

http://pctuning.tyden.cz/hardware/graficke-karty/17035-geforce-gtx-470-a-gtx-480-rozsahly-test-fermi-gf100?start=8
Wobei da wie bei TPU auch vieles dabei ist wofür man keine GTX 400/HD5800 benötigt, abgesehen von SGSSAA/Hybrid-SSAA/Downsampling, womit aber keiner testet.

Blaire
2010-03-31, 20:16:10
Aaaaaalt. ;) In der Zwischenzeit können sich bereits Welten verschoben haben. Mir ist diesbezüglich nichts aufgefallen. Ok, ich habe nicht drauf geachtet, aber normalerweise fallen mir Unterschiede, die nicht dynamischen Objekten geschuldet sind, ins Auge.

Banding stört dagegen gewaltig, wenn man es einmal sieht dann nervt es nur noch.

r@h
2010-03-31, 20:16:57
Hmm Zeitgleich Razor? :)
Eine Woche davor = zeitgleich... ja.
Ich hoffe, dass ich Deinen Smilie richtig deute... ;D

Razor

tombman
2010-03-31, 20:18:45
Wenn schon Metro2033, dann richtig:
http://pclab.pl/zdjecia/artykuly/miekrzy/fermipremierowy/wykresy/metrodx11_1680_aaa.png
http://pclab.pl/zdjecia/artykuly/miekrzy/fermipremierowy/wykresy/metrodx11_1680_aa4.png
http://pclab.pl/art41241-24.html
:D
The OWN :cool:
Und ist dennoch unspielbar in 19x12 (4/16) mit SLI auchnoch grenzwertig wegen MR und der gurken Engine die unter 50FPS sich lausig anfühlt.
Und wer zwingt dich zu 19x12 auf einer GTX480? Mit ner 480 ist es maximiert spielbar, mit ner 5870 NICHT- Basta ;)
Ja wow :uclap:

http://www.hardware.fr/articles/787-9/dossier-nvidia-geforce-gtx-480-470.html
Die Tschechen hatten eine schnellere Cpu als die Franzosen- und wir wissen wie cpu-limitiert ARMA2 ist ;)
3.6 Ghz i7 mit HT vs 3.33 Ghz i7 ohne HT -> ich glaub den Tschechen :)

Wishnu
2010-03-31, 20:19:25
Im Schnitt über alle Reviews sogar zwischen 10-15%. Aber wartem wir mal an, wie sejr die nächsten Tessellationskracher den Schnitt heben werden.

Ich bin mal skeptisch und behaupte, dass Spiele, bei denen Tesselation für deutlich hübschere Optik sorgt, mit der 1. Generation der DX11-Grakas so langsam laufen werden, dass man diese ggf. wieder freiwillig abschaltet.
Zumindest war das meiner Erfahrung nach bei neuen Features stets so. Ich lasse mich aber auch gerne vom Gegenteil überzeugen. ;)

Marodeur
2010-03-31, 20:22:33
Warum hat eigentlich noch niemand das Vantage-Lautstärken-Ergebnis von Golem.de kommentiert? Achja, stimmt: Da ist die 5870 ja lauter.

Ich find solche Tests etwas nervig da es dem Anwender nicht viel bis rein gar nix bringt. Bei diesem Testaufbau stecken die Karten in einem offenen Gehäuse, was soll das einem Anwender als Ergebnis denn liefern?

Ein ernstzunehmender Test wäre es wenn die das Gehäuse zu machen damit man weis wie sich sowas denn auswirkt auf die Lautstärke. Meinetwegen auch einen Gehäuselüfter mit rein sonst wirds wohl eh unerträglich.

1. Test mit passiver Karte als Referenz
2. Test jeweils mit GTX und HD mit Vantage

Das wäre mal ein anständiger Anhaltspunkt wie laut die Karten im Alltag unterm Schreibtisch wirklich sind. Alles andere ist doch irgendwie fürn Eimer... :frown:

Lawmachine79
2010-03-31, 20:23:04
Was und ?

Metro 2033 bleibt unspielbar, oder schwer von begriff ?
Wenn Metro 2033 auf einer GTX470+ unspielbar ist, war Crysis ja bis incl. 4890 unspielbar.

Bucklew
2010-03-31, 20:23:28
wenn dir das nicht passt dann schau dir AnarchX gepostete seite an,selbe wurst.
besser als so ne geschönter mist wie bei metro 2033.aber du und andere könnt ja täglich euer metro2033 und heaven benchen,wenns spass macht.:biggrin:
Ach so, jetzt ist Metro also geschönt, weil da Fermi besser drauf läuft. Ist dann Dirt2 auch geschönt? Ja, wahrscheinlich schon, auf ATI-Karten so geschönt, dass es auf Fermi besser läuft ;D;D

Naja so ist das halt mit der großen Brille, man macht sich die Welt halt passend. Zu GT200-Zeiten wurden halt die Benches mit 3fps rausgekramt um zu zeigen wie schnell die Karten doch sind, jetzt werden halt die uralt SPiele mit 200fps und mehr rausgeholt. Und wenn das nicht reicht holt man halt die Leistungsaufnahme raus, ein Punkt, den man vor 6 Monaten noch als absolut unwichtig heruntergespielt hat ;D

Herrlich!

Jake Dunn
2010-03-31, 20:25:14
Eine Woche davor = zeitgleich... ja.
Ich hoffe, dass ich Deinen Smilie richtig deute... ;D

Razor

O.k. könnt ja "weiterspinnen" und fragen wer es schon zockt mit GF100 :D




Und wer zwingt dich zu 19x12 auf einer GTX480? Mit ner 480 ist es maximiert spielbar, mit ner 5870 NICHT- Basta ;)



Auf was willste das zocken? Taschen-TV?

M2033 wird nicht geownt in brauchbarer Auflösung :D


Wenn Metro 2033 auf einer GTX470+ unspielbar ist, war Crysis ja bis incl. 4890 unspielbar.

Hier gehts um Settings@maxed Out ;)

Und ja M2033 geht gut mit schwächeren Karten in hübscher Optik (Tess. und DOF hauen rein und verbessern die Optik nicht wirklich bzw. teilweise erreicht man das Gegenteil imho).

tombman
2010-03-31, 20:28:37
M2033 wird nicht geownt in brauchbarer Auflösung :D
Ähm, 1680x1050 in 4xAA/16xAF und 44fps sind für dich also unspielbar - ooookaaaaay :uconf3: *Zwangsjacke hol*

:upicard:

AYAlf_2
2010-03-31, 20:29:12
jetzt stellt sich mir nur die frage .. wer wuerde ueberhaupt metro spielen?

also ich nicht ... mochte schon stalker nicht... da werde ich bestimmt nicht metro spielen. :freak:

jetzt mal ganz abgesehen von dem nvidia vs. ati gebashe.

klar ist es schoen.. wenn man weiss man koennte ... aber da muss man dann halt auch mal stark sein ;D

und so leise wie jetzt war mein pc schon lange nicht mehr, die letzten drei karten waren... :freak:

...hatte vorher 1900xt, 8800gt(die war mal extrem laut, ist immer noch im 2t pc), hd4890 (aber mit nem leisen luefter).

AYAlf_2
2010-03-31, 20:30:34
Ähm, 1680x1050 in 4xAA/16xAF und 44fps sind für dich also unspielbar - ooookaaaaay :weg: *Zwangsjacke hol*

:upicard:

aber mal ganz ehrlich .. spielst du noch spiele in 1680x1050? :rolleyes:

also ich nicht .. immer nur native aufloesung 1920x1080.... wenn das nicht geht .. dann gar nicht .. fertig!

Gast
2010-03-31, 20:32:10
Ähm, 1680x1050 in 4xAA/16xAF und 44fps sind für dich also unspielbar - ooookaaaaay :weg: *Zwangsjacke hol*

:upicard:

Kannste nicht spielen...und das weist du da du es schon gespielt hast, wen da Gegner en mass kommen gehts runter unter 20 und keine dieser Stellen und die gibts zuhauf haben die zum benchen genommen, oder haste neuerdings ne rosarote Brille?

IVN
2010-03-31, 20:32:53
Ändert ja denoch nichts an meiner Aussage :)
Ob nicht spielbar oder doch, es ist trotzdem ein immenser Leistungsplus.

Gast
2010-03-31, 20:33:17
aber mal ganz ehrlich .. spielst du noch spiele in 1680x1050? :rolleyes:

also ich nicht .. immer nur native aufloesung 1920x1080.... wenn das nicht geht .. dann gar nicht .. fertig!
Er ja auch nicht...irgendwie versteh ich seine Ausbrüche immer weniger....

Jake Dunn
2010-03-31, 20:33:35
Ähm, 1680x1050 in 4xAA/16xAF und 44fps sind für dich also unspielbar - ooookaaaaay :uconf3: *Zwangsjacke hol*

:upicard:

Hast du Metro da, bzw. schon gezockt?

Die Engine fühlt sich unter 50FPS bescheiden an, genauso wie die Frostbyte in BC2 ;)

Gast
2010-03-31, 20:34:24
aber mal ganz ehrlich .. spielst du noch spiele in 1680x1050? :rolleyes:

also ich nicht .. immer nur native aufloesung 1920x1080.... wenn das nicht geht .. dann gar nicht .. fertig!

Ich kanns spielen, hab nen 22er TFT 1680X1050 :D

derguru
2010-03-31, 20:35:02
Ach so, jetzt ist Metro also geschönt, weil da Fermi besser drauf läuft. Ist dann Dirt2 auch geschönt? Ja, wahrscheinlich schon, auf ATI-Karten so geschönt, dass es auf Fermi besser läuft ;D;D

Naja so ist das halt mit der großen Brille, man macht sich die Welt halt passend. Zu GT200-Zeiten wurden halt die Benches mit 3fps rausgekramt um zu zeigen wie schnell die Karten doch sind, jetzt werden halt die uralt SPiele mit 200fps und mehr rausgeholt. Und wenn das nicht reicht holt man halt die Leistungsaufnahme raus, ein Punkt, den man vor 6 Monaten noch als absolut unwichtig heruntergespielt hat ;D

Herrlich!
sorry aber ein spiel geht mit total am arsch vorbei und natürlich ist mir das gesamtergebniss wichtiger als 1 spiel,kann auch das metro2033 geschafel nicht mehr lesen.dann spielt die neue refernz doch und bombadiert nicht jeden 2 post mit metro2033 zu.
alte spiele kann man mit ssgsaa aufwerten und so alt sind die spiele ganz sicher nicht.abgesehen davon sind lustigerweise in den alten spielen die grafikrefernzen dabei wie crysis oder stalker cs.

tombman
2010-03-31, 20:35:39
aber mal ganz ehrlich .. spielst du noch spiele in 1680x1050? :rolleyes:

also ich nicht .. immer nur native aufloesung 1920x1080.... wenn das nicht geht .. dann gar nicht .. fertig!
Seit wann ist 1680x1050 eine niedrige Auflösung, vorallem mit 4xAA? :ufreak:
Du weißt schon, daß 1280x720 im TV-Bereich immer noch HighDefinition genannt wird, oder? ;)

Und was ICH mache ist sowieso GTX480 SLI :cool:

EDIT:
Wenn die engine wirklich böse ist, dann geht eben auf 1280x720 hinunter und oced die 480er- das sind dann garantiert weit über 60fps :rolleyes:

Tatsache bleibt: mit GTX480 sieht man alles, und es bleibt schön spielbar, mit HD5 keine Chance, egal wie

Gast
2010-03-31, 20:37:01
Metro ist net schlecht. Wenn 4Players schon 76% gibt bin ich dabei:D

tombman
2010-03-31, 20:42:13
Ich hab Crysis damals auch auf 12x7 gezockt, nur um VeryHigh sehen zu können, also sagt mir nicht, das wäre 'ne kleine Auflösung...

Bucklew
2010-03-31, 20:43:52
sorry aber ein spiel geht mit total am arsch vorbei und natürlich ist mir das gesamtergebniss wichtiger als 1 spiel,kann auch das metro2033 geschafel nicht mehr lesen.dann spielt die neue refernz doch und bombadiert nicht jeden 2 post mit metro2033 zu.
Was bringen bei einem Test von Grafikkarten (!) denn CPU-Limitierte Spiele?

alte spiele kann man mit ssgsaa aufwerten und so alt sind die spiele ganz sicher nicht.abgesehen davon sind lustigerweise in den alten spielen die grafikrefernzen dabei wie crysis oder stalker cs.
Wo habe ich denn Crysis oder Stalker als Benchmark kritisiert? Du liest auch alles nur so, wie es dir gerade in den Kram passt, wie? ;D

LovesuckZ
2010-03-31, 20:45:06
Von PCPer.com:
http://www.pcper.com/images/reviews/889/metro-1920-bar.jpg
http://www.pcper.com/article.php?aid=889&type=expert&pid=10

DX11 - normal Einstellung - 4xMSAA und 16AF.

/edit: DoF aus, Tessellation an.

IVN
2010-03-31, 20:47:57
Würde gerne nen Metro Bench sehen, wo alles auf Max ist, ausser DOF/Bokeh. Den Effekt mag ich zwar auf Fotos, aber in Spielen (wo sich der Effekt nicht auf die Richtung der Augen anpasst) kann ich ihn nicht ausstehen.

Gast
2010-03-31, 20:48:02
Hmm, ich krieg Bock auf 3x GTX480 :|

Tu es 4x, eine Reserve geht noch, Du kannst nur gewinnen.

9000 Risk-Wafers a 5000$, daraus sind 10000 480er und 20000 470er Chips geworden, der Rest ist. Rechnet man gleichwertig so, ergeben 9000x5000$/30000 Chips = 1500$/Chip oder 1109€/Chip

Die Karte kostet sagen wir 500€, Du machst sozusagen 609€ Gewinn pro Karte.

Allerdings könnte man es auch anders sehen, Du schädigst mit jeder gekauften Karte Deinen alleroberster Lieblingsgrakahersteller........ :D

Gast
2010-03-31, 20:52:04
Unglaublich witzig wie die NV Fans hier Seite für Seite immer und immer wieder die immer gleichen Rosinen picken. Die anderen Spiele/Seiten, welche nicht so Vorteilhaft aussehen um es diplomatisch auszudrücken werden einfach ignoriert. SO kann man sich dann auch seinen eigenen Welt zusammen zimmern.

LovesuckZ
2010-03-31, 20:54:12
Ich bin ja für:
Crank that S#!T up in GTA4 (http://www.hardwareheaven.com/reviews.php?reviewid=950&pageid=10)

Gast
2010-03-31, 20:54:16
Unglaublich witzig wie die NV Fans hier Seite für Seite immer und immer wieder die immer gleichen Rosinen picken. Die anderen Spiele/Seiten, welche nicht so Vorteilhaft aussehen um es diplomatisch auszudrücken werden einfach ignoriert. SO kann man sich dann auch seinen eigenen Welt zusammen zimmern.

Ist es verboten Rosinen zu picken? Wo kann ATI überhaupt eine Rosine gegen GTX480 picken? Nachdenken. Einfach nur nachdenken.

Achso, beim Stromverbrauch bekommt ATI die goldene Rosine:D

tombman
2010-03-31, 20:57:40
Unglaublich witzig wie die NV Fans hier Seite für Seite immer und immer wieder die immer gleichen Rosinen picken. Die anderen Spiele/Seiten, welche nicht so Vorteilhaft aussehen um es diplomatisch auszudrücken werden einfach ignoriert. SO kann man sich dann auch seinen eigenen Welt zusammen zimmern.
Das kommt daher, daß es KEIN Spiel gibt, wo die HD5 eine GTX4 so RICHTIG dominiert, umgekehrt ist das aber sehr wohl der Fall.
Außerdem: schon mal was von Durchschnitt gehört?
Die GTX480 gewinnt einfach, da führt kein Weg dran vorbei :cool:
NV will eben die schnellste GPU und tut ALLES um das zu erreichen, und sei es fette heatpipe cooler zu entwickeln und die Lüfter aufzudrehen-
sie wollen den Sieg und basta. AND I LIKE THAT ;)
Genauso wie fast alle Enthusiasten das mögen.
NVidia= Enthusiasten-Firma.
AMD= P/L-Firma.

IVN
2010-03-31, 20:58:01
Ich bin ja für:
Crank that S#!T up in GTA4 (http://www.hardwareheaven.com/reviews.php?reviewid=950&pageid=10)
Tja, da ist endlich mal der, seitens der Radeon-Nutzer, geforderte Unterschied zw. spielbar und fast unspielbar.

Kein AA und AF --> unbrauchbarer Bench.

Cubitus
2010-03-31, 20:58:35
ja toll in Metro, und? Spielen kanns trotzdem keiner.....oder ich kauf mir wieder einen 17"...zum totlachen.. 3 von den Dingern müssen her :D ihr Weicheier, das Ohr muß brummen und die Füße brennen....

Also mit GTX280 SLI und DX10+very high@1920*1080
ist es spielbar, denke mit einer 480er wird dies unter DX11 erst recht kein Problem sein..

Gast
2010-03-31, 20:58:48
Aber Lovesuckz, das darfst du doch nicht zeigen! Jetzt kommen die ATI`ler und schieben das auf den Ram;)

Iruwen
2010-03-31, 20:58:57
jetzt stellt sich mir nur die frage .. wer wuerde ueberhaupt metro spielen?

also ich nicht ... mochte schon stalker nicht... da werde ich bestimmt nicht metro spielen. :freak:

Crysis ist auch einlangweiliges Scheißspiel und wird ständig rangezogen :freak:

PS: drei Punkte sind kein Ersatz für jegliche Interpunktion :rolleyes:

Raff
2010-03-31, 20:59:20
Ich bin ja für:
Crank that S#!T up in GTA4 (http://www.hardwareheaven.com/reviews.php?reviewid=950&pageid=10)

Was ist das für ein Lötzinn unter der GTX 285 ("DX9, no AA")? :confused: Das ist bei allen Karten D3D9 und kein AA.

MfG,
Raff

AnarchX
2010-03-31, 21:03:37
Bei HW-Heaven gibt es auch noch ein paar interessante Metro-Benchmarks (Indoor/Outdoor und PhysX):
http://www.hardwareheaven.com/reviews.php?reviewid=950&pageid=13

http://img225.imageshack.us/img225/5322/metroheaven.jpg
Da kann man wohl sehen, wo tesselliert wird.

Gast
2010-03-31, 21:04:40
Das muss man auch garnicht, denn die HD5870 und GTX480 sind auch nicht die selbe Preisklasse.

GTX480= Riesenchip + breiteres SI + ca. 0,5GB mehr GDDR5 + dramatischer Stromverbrauch + unerträgliche Lautstärke unter Last + lavamäßige Temperatur + ca. 500€ (es werden aber sicher noch mehr werden) + evt. neues Netzteil + evt. alternative Kühlung/Wakü + 6 Monate Verspätung + reiner Paper-Launch

Ergebnis - 10-15% über HD5870

Grandiose Leistung NV und dazu meine herzlichen Glückwünsche.

Gast
2010-03-31, 21:05:28
Ja genau. Fermi ist ohne Metro nix wert. Oh wei Oh wei. Hier gibts die letzten Seiten ellenlange benches wo die Radeon zurechtgestutzt wird.

Gast
2010-03-31, 21:05:43
http://www2.hardware-infos.com/news.php?news=3497

Geforce 400 nicht mit voller GPGPU-Leistung

So besitzen die Geforce-Modelle nur ein Viertel der möglichen Rechenleistung im "Double Precision" (DP)-Modus.

Nvidia äußerte sich zu dem Thema selbst im eigenen Forum folgendermaßen:

Yes, full-speed double precision performance is a feature we reserve for our professional customers. Consumer applications have little use for double precision, so this does not really affect GeForce users. Having differentiated features and pricing is actually fairer for all. Given the option of enabling all professional features on GeForce and having gamers pay for them, or disabling them on GeForce and offering a more compelling price, we feel the latter is the better choice.

Ja, DP mit voller Leistung ist professionellen Kunden vorbehalten. Software für Endanwender nutzt selten/wenig DP, so dass dies wenig Einfluss auf die Geforce-Nutzer hat. Man muss sich entscheiden, entweder alle professionellen Features auch auf Geforce-Produkten zu aktivieren und die Spieler diese mit bezahlen lassen oder diese zugunsten eines geringeren Preises zu deaktivieren.

IVN
2010-03-31, 21:09:35
Die gtx 480 muss wohl eine noch bessere Karte sein, als ich erst gedacht habe. Sonst würden die Atianer nicht so verbissen auf sie reagieren.

Generell gilt es: Je besser die Karte von nVidia, umso verbissener die Atianer. :D

Gast
2010-03-31, 21:09:44
Ist es verboten Rosinen zu picken? Wo kann ATI überhaupt eine Rosine gegen GTX480 picken? Nachdenken. Einfach nur nachdenken.


Ich find's ja schon interessant, dass hier ständig die 480GTX gegen die 5870 verglichen wird. Ich dachte, die wäre der Gegenspieler der 470.
Offenbar hat die NV_Fraktion ihre Ansprüche drastisch gesenkt. Jetzt "ownt" die 480 die 5870. Vergleicht sie doch gleich gegen die 5750, dann könnt Ihr Euch noch mehr gegenseitig auf die Schultern klopfen.

Und vergessen wir mal die die Tatsache, dass es die Dinger nach wie vor nirgends zu kaufen gibt. Sollte es aber irgendwann soweit sein: Neues NT + Gehäuse + Wakü gleich mitbestellen. Sonst könnte es eine böse Überraschung geben. Einen Tausender müsst Ihr schon einkalkulieren.

Anyway, der Thread ist nicht gerade ein Musterbeispiel an Hochwertigkeit.

Black-Scorpion
2010-03-31, 21:10:13
Was ist das denn für eine verdrehte Logik?
Natürlich bezahlen alle dafür.
Abgeschaltete Einheiten ändern nichts am Preis.

Iruwen
2010-03-31, 21:10:54
Die gtx 480 muss wohl eine noch bessere Karte sein, als ich erst gedacht habe. Sonst würden die Atianer nicht so verbissen auf sie reagieren.

Generell gilt es: Je besser die Karte von nVidia, umso verbissener die Atianer. :D

Jo, die Ossis haben ja auch immer über den Westen geschimpft :rolleyes:

LovesuckZ
2010-03-31, 21:12:56
Tja, da ist endlich mal der, seitens der Radeon-Nutzer, geforderte Unterschied zw. spielbar und fast unspielbar.

Kein AA und AF --> unbrauchbarer Bench.

GTA4 unterstützt kein AA.

Gast
2010-03-31, 21:13:44
Ich find's ja schon interessant, dass hier ständig die 480GTX gegen die 5870 verglichen wird. Ich dachte, die wäre der Gegenspieler der 470.
Offenbar hat die NV_Fraktion ihre Ansprüche drastisch gesenkt. Jetzt "ownt" die 480 die 5870. Vergleicht sie doch gleich gegen die 5750, dann könnt Ihr Euch noch mehr gegenseitig auf die Schultern klopfen.

Und vergessen wir mal die die Tatsache, dass es die Dinger nach wie vor nirgends zu kaufen gibt. Sollte es aber irgendwann soweit sein: Neues NT + Gehäuse + Wakü gleich mitbestellen. Sonst könnte es eine böse Überraschung geben. Einen Tausender müsst Ihr schon einkalkulieren.

Anyway, der Thread ist nicht gerade ein Musterbeispiel an Hochwertigkeit.


Genauso ist es, aber das wollen gewisse Kreise einfach nicht zur Kenntnis nehmen. Der Gegner der HD5870 ist ganz klar die GTX470 und dort hat NV selber sie auch vorgesehen.

Die HD5870 liegt wahrscheinlich im Durchschnitt der Reviews ca. 10% vor GTX470.

Bucklew
2010-03-31, 21:15:28
Geforce 400 nicht mit voller GPGPU-Leistung.
DP != GPGPU-Leistung

Jake Dunn
2010-03-31, 21:15:33
Die gtx 480 muss wohl eine noch bessere Karte sein, als ich erst gedacht habe. Sonst würden die Atianer nicht so verbissen auf sie reagieren.

Generell gilt es: Je besser die Karte von nVidia, umso verbissener die Atianer. :D

Hmm...eigentlich gilt/galt "Je besser die Karte von nVidia, umso günstiger die ATI Karten" ,ein paar Blicke in die Preissuchmaschinen bestättigen das nicht...komisch :(

Gast
2010-03-31, 21:18:20
Hmm...eigentlich gilt/galt "Je besser die Karte von nVidia, umso günstiger die ATI Karten" ,ein paar Blicke in die Preissuchmaschinen bestättigen das nicht...komisch :(

Das ändert sich wohl wenn Fermi endlich beim Händler ist. Dann rutscht der Preis der ATI (etwas). Meine Einschätzung die 5870 wird leicht unter 470 sein um Druck auszuüben. Wäre schön für die ATI`ler und schön für mich weil dann die 470 bei 350 stehen bleibt:D

Bucklew
2010-03-31, 21:18:23
Hmm...eigentlich gilt/galt "Je besser die Karte von nVidia, umso günstiger die ATI Karten [,solange ATI genug Karten auf Halde liegen hat]" ,ein paar Blicke in die Preissuchmaschinen bestättigen das nicht...komisch :(
Hab mal den entscheidenden Nachsatz hinzugefügt ;)

Gast
2010-03-31, 21:22:11
Denn ich habe die Befürchtung falls ATI net mit dem Preis runter geht meine zukünftige 470 Custom Design Karte ca 400 Euro kosten wird:(

Gast
2010-03-31, 21:24:44
Die gtx 480 muss wohl eine noch bessere Karte sein, als ich erst gedacht habe. Sonst würden die Atianer nicht so verbissen auf sie reagieren.

Generell gilt es: Je besser die Karte von nVidia, umso verbissener die Atianer. :D

Tja, Neid ist die schönste Form der Anerkennung. ;)

Gast
2010-03-31, 21:29:13
Tja, Neid ist die schönste Form der Anerkennung. ;)

Worauf sollte man neidisch sein?

Gast
2010-03-31, 21:31:35
http://www.youtube.com/watch?v=ZO31AGOGGTE

tombman
2010-03-31, 21:33:01
GTX480= Enthusiastenkarte

Und E. haben normalerweise bereits schon dicke NTs und 'ne Wakü.

Die gtx 480 muss wohl eine noch bessere Karte sein, als ich erst gedacht habe. Sonst würden die Atianer nicht so verbissen auf sie reagieren.

Generell gilt es: Je besser die Karte von nVidia, umso verbissener die Atianer.
Weise erkannt ;)

Gast
2010-03-31, 21:35:11
Kennt ihr ATI Fans die noch?

http://www.youtube.com/watch?v=PRL7S3FNUvE

Gast
2010-03-31, 21:35:43
Erstmal sollte man einmal festhalten, dass es momentan noch garnichts gibt auf das irgendjemand neidisch sein könnte. So was nennt man Paper-Launch und NV selber redet von Soft-Launch (ist das selbe wie Paper-Launch nur auf NV-PRisch).

Vor Mai! soll sich das übrigens auch nicht ändern und auch dann nur sehr kleine Kontigente an Karten.

tombman
2010-03-31, 21:36:46
http://www.youtube.com/watch?v=ZO31AGOGGTE
Also mich geilt sowas auf :cool:

Da sieht man mal wieder: die Meisten checken E.-Psychologie nicht ;) NV tut das :)

Crank...that...s#!t...up :cool:

Gast
2010-03-31, 21:39:48
Ich finds nur lustig das hier ATI-Fans sind die sich über Lautstärke beschweren und eine ne 2900 (Denke ich mal) im Rechner stecken hatten. Und die 2900 ist in jedem bench abgestunken. Also Füsse still halten.

AMC
2010-03-31, 21:40:51
DP != GPGPU-Leistung

LOL! Natürlich ist es das. Schon mal was von Numerik, Stabilität und Kondition gehört? Dich möchte ich mal iterativ NS-Suche mit SP auf ner GPU machen sehen....da möchte ich mir lieber die Eier mit Honig einreiben und Feuerameisen in unmittelbarer Umgebung freilassen, als irgendwelche iterativen Verfahren (oder am Besten noch Gleichungssysteme mit LU-D, Crout oder Nachiteration + Abbruchbedingung :freak:) in Single-Precision lösen zu lassen. :freak:

Jake Dunn
2010-03-31, 21:41:53
Das ändert sich wohl wenn Fermi endlich beim Händler ist. Dann rutscht der Preis der ATI (etwas). Meine Einschätzung die 5870 wird leicht unter 470 sein um Druck auszuüben. Wäre schön für die ATI`ler und schön für mich weil dann die 470 bei 350 stehen bleibt:D

An den HD58xx wird sich wenig aendern und die GTX4xx wird noch etwas zulegen denk ich :(


Hab mal den entscheidenden Nachsatz hinzugefügt ;)

Das dauert aber noch eine weile...leider

Denn ich habe die Befürchtung falls ATI net mit dem Preis runter geht meine zukünftige 470 Custom Design Karte ca 400 Euro kosten wird:(

Sag ich ja ^^

LovesuckZ
2010-03-31, 21:42:50
Wer braucht denn von den GF100 Käufer DP? Welcher Consumer generell?
Okay, vielleicht die ganze AMD Fraktion. Die selben, die Tessellation den Sinn absprechen, weil man heute kaum einen Unterschied sieht. :rolleyes:

Gast
2010-03-31, 21:44:15
Mal was zum schmunzeln... ^^
http://i.imgur.com/kWRhF.jpg
NVIDIA’s GTX 480 Performance Testing
http://alienbabeltech.com/main/?p=16475&page=19

AMC
2010-03-31, 21:45:39
Mal was zum schmunzeln... ^^
http://i.imgur.com/kWRhF.jpg
NVIDIA’s GTX 480 Performance Testing
http://alienbabeltech.com/main/?p=16475&page=19

Auf gehts Sucky, Vorlage für Dich.... :biggrin:

Jake Dunn
2010-03-31, 21:45:57
Also mich geilt sowas auf :cool:

Da sieht man mal wieder: die Meisten checken E.-Psychologie nicht ;) NV tut das :)

Crank...that...s#!t...up :cool:
:biggrin:

Ich freu mich schon auf den Koffer-PC-Fred mit der GTX480 ^^ oder zwei...

mictasm
2010-03-31, 21:47:05
LOL! Natürlich ist es das. Schon mal was von Numerik, Stabilität und Kondition gehört? Dich möchte ich mal iterativ NS-Suche mit SP auf ner GPU machen sehen....da möchte ich mir lieber die Eier mit Honig einreiben und Feuerameisen in unmittelbarer Umgebung freilassen, als irgendwelche iterativen Verfahren (oder am Besten noch Gleichungssysteme mit LU-D, Crout oder Nachiteration + Abbruchbedingung :freak:) in Single-Precision lösen zu lassen. :freak:
Und das machst du natürlich lieber mit der Consumer-Grafikkarte anstatt mit der professionellen Lösung... na klar, das ist natürlich ein Nachteil der Spielekarte...

Gast
2010-03-31, 21:48:48
Nein die meisten sprechen Tessellation nicht die Relevanz für zukünftige Games ab (obwohl das heute keiner mit Sicherheit sagen kann), aber die GTX480 ist eben einfach auch zu langsam dafür wie auch die HD5870. Da das aber der einzigste Punkt ist der für eine GTX480 spricht, ist sie als Gesamtpacket einfach nicht attraktiv genug.

Ihr benutzt Tessellation momentan inflationär als Rettungsanker.

AMC
2010-03-31, 21:49:19
Und das machst du natürlich lieber mit der Consumer-Grafikkarte anstatt mit der professionellen Lösung... na klar, das ist natürlich ein Nachteil der Spielekarte...

Äh...Entschuldigung...professionelle Lösung? Hab ich in meinen Jahren der Forschung und Entwicklung was verpasst? Ach warte, Du gehörst zu den Menschen die glauben, dass nV einen "Tesla-Chip" und einen "GF100" Chip herstellt, richtig? ;D

/edit Am Ende erzählst Du mir noch, Intel würde 920, 940 und 960er CPUs herstellen... :D

mironicus
2010-03-31, 21:49:47
Die ATI-Fans sind doch in erster Linie nur so genervt, weil die neuen NVidia-Karten nicht so gut geworden sind, wie man es sich erhofft hatte. Jetzt steigt sowohl die Nachfrage als auch die Preise für ATI-Karten. Die meisten hatten wohl auf ein Preisnachlass spekuliert. Aber nein...

Shame on you, NVidia! :P

J0ph33
2010-03-31, 21:51:25
Die HD2900 kostete aber auch nur 350€ zum launch, deshalb passt der vgl. zur HD2900 auch ganz gut...beide brachten damals eine Leistung die verglichen mit der Konkurrenz ihr Geld im Großen und Ganzen Wert war (absolut gesehen ist Fermis Leistung nicht annährend 500€ Wert, genauso wie die der HD5870 nicht annährend 400€ Wert ist, 280€ vs. 350€ würde da besser passen), nur in der B-Note waren bzw. sind beide katastrophal...

Und wenn hier Argumente wie GTX480 = Enthusiastenkarte kommen, ja, Größe des Chips, Verbrauch und damit verbunden Geräuschentwicklung sind kompromisslos Highend, nur die Leistung, die ist (absolut gesehen) da wo wir vor 6 Monaten besseres Performance vermutet haben (HD5870-Bereich)...und dafür gehört nV fertig gemacht, von allen Seiten! Nicht weil dass alle ATI-Fanboys freut, sondern damit nV nächstes Mal nicht nochmal so einen Bullshit abliefert! Stattdessen schön nVs schwachsinnige Marketingparolen verbreiten, gerade die selbsternannten Enthusisasten müssten schimpfen und nicht jubeln.

Gast
2010-03-31, 21:51:33
Mal was zum schmunzeln... ^^
http://i.imgur.com/kWRhF.jpg
NVIDIA’s GTX 480 Performance Testing
http://alienbabeltech.com/main/?p=16475&page=19

Ich finde den Balken hätte man ruhig noch 2-3 mal länger machen können.

Gast
2010-03-31, 21:53:59
Die HD2900 kostete aber auch nur 350€ zum launch, deshalb passt der vgl. zur HD2900 auch ganz gut...beide brachten damals eine Leistung die verglichen mit der Konkurrenz ihr Geld im Großen und Ganzen Wert war (absolut gesehen ist Fermis Leistung nicht annährend 500€

Wat is los? Die 8800GTX versenkte die 2900. Da gabs kein plattwalzen ala Fermi. Also bitte...

AMC
2010-03-31, 21:54:36
Die ATI-Fans sind doch in erster Linie nur so genervt, weil die neuen NVidia-Karten nicht so gut geworden sind, wie man es sich erhofft hatte. Jetzt steigt sowohl die Nachfrage als auch die Preise für ATI-Karten. Die meisten hatten wohl auf ein Preisnachlass spekuliert. Aber nein...

Shame on you, NVidia! :P

Nein, die FanATIker lästern sich die Haare glatt, die nVidioten versuchen zu retten, was zu retten ist. Es ist eh immer dasselbe Spiel, bei jedem Launch. An den Beiträgen im Forum und am Kaufverhalten der Leute hier ändert sich dabei nie etwas. Die FanATIker kaufen immer ihre ATI und die nVidioten immer nV, egal wie gut oder schlecht der Chip ist. Das die ATI-Karten jetzt nicht günstiger werden ist zwar schade, aber aufgrund ihrer noch immer nicht herausragenden Verfügbarkeit auch nicht weiter tragisch, will sagen: es ist wie es vor dem Launch schon war.

J0ph33
2010-03-31, 21:58:53
Wat is los? Die 8800GTX versenkte die 2900. Da gabs kein plattwalzen ala Fermi. Also bitte...

die 8800GTX kostete ~450€ zum HD2900XT-Launch...diesbzgl. hat sich die HD2900 gut eingeordnet, und zudem wurde das Teil zu Recht von allen Seiten fertig gemacht.

AMC
2010-03-31, 21:59:33
Nicht weil dass alle ATI-Fanboys freut, sondern damit nV nächstes Mal nicht nochmal so einen Bullshit abliefert! Stattdessen schön nVs schwachsinnige Marketingparolen verbreiten, gerade die selbsternannten Enthusisasten müssten schimpfen und nicht jubeln.

Das passiert schon an der Kasse, keine Sorge. Irgendwo hier gab es einen Gast, der hat eine mail von einem Vendor online gestellt, in dem offensichtlich wurde, dass nV die Abnahme ihrer anderen Produkte (low-end, mid-range) an die (Pflicht-)Abnahme einer bestimmten Stückzahl Fermis gekoppelt hat. Also: Wer Fermis bekommen möchte, muss x-Mid-End und y-Low-End Karten mitbestellen. Sowas nennt man Querfinanzierung und ist Gang und Gäbe in der SW/HW-Industrie, vor allem bei FAIL-Produkten, die sich alleine nicht von Anfang an rentieren können.

Gast
2010-03-31, 22:00:25
Dann nimm halt die 8800GTS! DIe reichte auch für das "Produkt" 2900.

Gast
2010-03-31, 22:03:32
Ich finds nur lustig das hier ATI-Fans sind die sich über Lautstärke beschweren und eine ne 2900 (Denke ich mal) im Rechner stecken hatten. Und die 2900 ist in jedem bench abgestunken. Also Füsse still halten.

Falsch gedacht. Über die 2900 lachte ich genauso wie heute über die 4XX von NV.

Jake Dunn
2010-03-31, 22:03:48
Dann nimm halt die 8800GTS! DIe reichte auch für das "Produkt" 2900.

Nach ein-zwei Treiber Updates war die davor und bzgl. Strom/Lautstaerke -> Crank...that...s#!t...up :D

Gast
2010-03-31, 22:03:54
Die FanATIker kaufen immer ihre ATI und die nVidioten immer nV, egal wie gut oder schlecht der Chip ist.

Das wage ich zu bezweifeln. Ich hab selbst desöfteren ATI ausprobiert da sie die hardwaretechnisch besseren Karten hatten. Jedes einzelne Mal hatte ich Probleme ohne Ende. Der Gipfel der Frechheit war das ATI die Probleme meiner letzten beiden ATI Karten (2x 3870X2) auf das Mainboard Bios schob, welches CrossfireX zertifiziert war ...
Jedesmal wenn im Browser ein Flash zu sehen war semmelte der Rechner ab wenn man scrollte :fresse:
Doch dem nicht genug, die haben den Bug 3 Monate lang nicht behoben!
Seitdem lasse ich einfach NV Generationen aus wenn sie nicht überzeugen. Aber bevor ich wieder eine ATI in den Rechner stecke muss NV schon pleite gehen.

J0ph33
2010-03-31, 22:05:32
Dann nimm halt die 8800GTS! DIe reichte auch für das "Produkt" 2900.

Was ist an meiner Argumentation so schwer zu verstehen? Deswegen waren 8800GTS und HD2900XT ja am Anfang auch auf einem ähnlichen Preisniveau.

AMC
2010-03-31, 22:05:44
Der Gipfel der Frechheit war das ATI die Probleme meiner letzten beiden ATI Karten (2x 3870X2) auf das Mainboard Bios schob, welches CrossfireX zertifiziert war

Meine Signatur hast Du aber gelesen, oder? Also 2x 3870X2 im CF....wie war das mit dem Honig und den Feuerameisen? :biggrin:

Gast
2010-03-31, 22:05:56
Man kann ja auch gerne 100 mal auf die HD2900 verweisen, nur leider wird GF100 davon auch nicht besser. Also mich interessiert der heutige Stand der Dinge.

LovesuckZ
2010-03-31, 22:06:26
Nach ein-zwei Treiber Updates war die davor und bzgl. Strom/Lautstaerke -> Crank...that...s#!t...up :D

Jo - ganze -10% (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet) Vorsprung. ;D

Gast
2010-03-31, 22:06:33
Nach ein-zwei Treiber Updates war die davor und bzgl. Strom/Lautstaerke -> Crank...that...s#!t...up :D

wow super Leistung! Bis die gleichauf war hats gedauert (An eine GTS!). Und wie lange das erst gedauert hat bis die überhaupt mal an die NV Architektur ran kamen.

Gast
2010-03-31, 22:07:39
Die 2900 war Müll da gibts nix zu deuteln. Du kannst den Fermi damit nicht vergleichen! Das ist wie Tag und Nacht.

IVN
2010-03-31, 22:08:33
die 8800GTX kostete ~450€ zum HD2900XT-Launch...diesbzgl. hat sich die HD2900 gut eingeordnet, und zudem wurde das Teil zu Recht von allen Seiten fertig gemacht.
Wie man 480 und hd2900 vergleichen kann, entzieht sich mir völlig.

Rekapitulieren wir kurz:

Die HD2900 war damals

1) in der BQ schlechter (kein SSAA, schlechtere AF)
2) langsamer
3) viel später am Markt
4) heiss und laut

Also, kein einziger Vorteil, dafür aber ne Menge Nachteile.

480 ist

1) von der BQ gleich aus (AF besser, SSAA schlechter, Rest identisch)
2) bessere Leistung
3) viel später am Markt
4) heiss und laut
5) bessere Technologie (Tesselation, PhysX)

Gast
2010-03-31, 22:09:53
Die 2900 war Müll da gibts nix zu deuteln. Du kannst den Fermi damit nicht vergleichen! Das ist wie Tag und Nacht.

Aber mich interessiert das nicht. Heute gibt es HD5xxx und GTX4xx und nur der Vergleich zwischen diesen aktuellen Gens ist wichtig.

mictasm
2010-03-31, 22:11:33
Äh...Entschuldigung...professionelle Lösung? Hab ich in meinen Jahren der Forschung und Entwicklung was verpasst? Ach warte, Du gehörst zu den Menschen die glauben, dass nV einen "Tesla-Chip" und einen "GF100" Chip herstellt, richtig? ;D

/edit Am Ende erzählst Du mir noch, Intel würde 920, 940 und 960er CPUs herstellen... :D
Chip? Wer sagt denn Chip? Aber lassen wir das ;D

AMC
2010-03-31, 22:12:02
Seitdem lasse ich einfach NV Generationen aus wenn sie nicht überzeugen. Aber bevor ich wieder eine ATI in den Rechner stecke muss NV schon pleite gehen.

So hab ich auch lange gedacht... Schau Dir aber Thermi/Faili an und vergleich sie mit einem Cypress. Im Ernst, ich spreche hier vor allem als Mathematiker und weniger als Spieler, aber z.B. bei einem Berechnungscluster sind so Dinge wie Verlustleistung extrem wichtig. Ich kenne Firmen, die haben in ihr Kühlsystem für HPC-Rechner mehr Geld investiert, als in ihre HPC-Computer. Und mit Verlaub, Tesla auf Faili-Basis ist absolut keine Konkurrenz im HPC-Segment für Cypress. Dies liegt aber sicher auch daran, dass HPC-Systeme von den Firmen/Forschern/Entwicklern frei konfiguriert und die darauf laufende Software selbst programmiert wird (meist sogar handoptimiert), also nicht dieselbe Abhängigkeit von der Treiberqualität wie im Consumer-/Spielebereich besteht.

Gast
2010-03-31, 22:13:07
Ich wollte nur sagen das ATI mit der neuen! Architektur böse gelandet ist. Bruchlandung nennt man sowas. Also kann man hier NV nur bei dem Lastverbrauch einen Makel anhängen. Ansonsten tolle Karte.

J0ph33
2010-03-31, 22:14:08
Wie man 480 und hd2900 vergleichen kann, entzieht sich mir völlig.

Rekapitulieren wir kurz:

Die HD2900 war damals

1) in der BQ schlechter (kein SSAA, schlechtere AF)
2) langsamer
3) viel später am Markt
4) heiss und laut

Also, kein einziger Vorteil, dafür aber ne Menge Nachteile.

480 ist

1) von der BQ gleich aus (AF besser, SSAA schlechter, Rest identisch)
2) bessere Leistung
3) viel später am Markt
4) heiss und laut
5) bessere Technologie (Tesselation, PhysX)

GTX480/HD2900XT

1) Preis/Leistung etwa identisch in Bezug auf Konkurrenz
2) viel zu spät am Markt
3) enormer Verbrauch, heiß, laut und großer Chip

Lesen Leute, wenn man den Punkt nicht hat, den Post einfach zweimal lesen, kann Wunder wirken. :rolleyes:

AMC
2010-03-31, 22:14:37
Chip? Wer sagt denn Chip? Aber lassen wir das ;D

Nenn es meinetwegen GPU....mir egal. ;) Aber Du hast Recht, lassen wir das, Du scheinst meinen Wink aber verstanden zu haben. ;)

Bucklew
2010-03-31, 22:16:38
LOL! Natürlich ist es das. Schon mal was von Numerik, Stabilität und Kondition gehört? Dich möchte ich mal iterativ NS-Suche mit SP auf ner GPU machen sehen....da möchte ich mir lieber die Eier mit Honig einreiben und Feuerameisen in unmittelbarer Umgebung freilassen, als irgendwelche iterativen Verfahren (oder am Besten noch Gleichungssysteme mit LU-D, Crout oder Nachiteration + Abbruchbedingung :freak:) in Single-Precision lösen zu lassen. :freak:
Wieviele PRIVAT(!)anwender nutzen so etwas?

Ob du es glaubst oder nicht: GeForcekarten sind immer noch für Privatanwender gedacht, alle anderen sollen eben die Tesla und/oder Quadroreihe nehmen. Genauso wie sich eben der Privatmensch sich ne Bosch-Bohrmaschine kauft und der Handwerker eben ne Hilti. Und (oh Wunder!) beide kriegen nen Loch in die Wand.

IVN
2010-03-31, 22:17:04
GTX480/HD2900XT

1) Preis/Leistung etwa identisch in Bezug auf Konkurrenz
2) viel zu spät am Markt
3) enormer Verbrauch, heiß, laut und großer Chip

Lesen Leute, wenn man den Punkt nicht hat, den Post einfach zweimal lesen, kann Wunder wirken. :rolleyes:
480 ist jetzt schneller als die Konkurrenz, hd2900 war damals langsamer. 480 hat konkurrenzfähige BQ-Features, hd2900 hatte sie nicht (kein SSAA, schlechtes AF). 480 hat die bessere Tech als die Konkurrenz, hd290 hatte sie nicht.

Siehst du jetzt, wieso man das nicht vergleichen kann?

Jake Dunn
2010-03-31, 22:17:16
Der Gipfel der Frechheit war das ATI die Probleme meiner letzten beiden ATI Karten (2x 3870X2)

ROFL eine war ja schon Crap (und ja ich hatte die nachm Release selbst...ganz kurz ^^)


Jo - ganze -10% (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet) Vorsprung. ;D

Damals war es so :P

16x12 (4x16)
http://www.abload.de/img/unbenannt2g4w.jpg (http://www.abload.de/image.php?img=unbenannt2g4w.jpg)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet

wow super Leistung! Bis die gleichauf war hats gedauert (An eine GTS!). Und wie lange das erst gedauert hat bis die überhaupt mal an die NV Architektur ran kamen.

Gast :rolleyes: Reg.-Button nicht gefunden?

Gast
2010-03-31, 22:19:38
So hab ich auch lange gedacht... Schau Dir aber Thermi/Faili an und vergleich sie mit einem Cypress. Im Ernst, ich spreche hier vor allem als Mathematiker und weniger als Spieler, aber z.B. bei einem Berechnungscluster sind so Dinge wie Verlustleistung extrem wichtig. Ich kenne Firmen, die haben in ihr Kühlsystem für HPC-Rechner mehr Geld investiert, als in ihre HPC-Computer. Und mit Verlaub, Tesla auf Faili-Basis ist absolut keine Konkurrenz im HPC-Segment für Cypress. Dies liegt aber sicher auch daran, dass HPC-Systeme von den Firmen/Forschern/Entwicklern frei konfiguriert und die darauf laufende Software selbst programmiert wird (meist sogar handoptimiert), also nicht dieselbe Abhängigkeit von der Treiberqualität wie im Consumer-/Spielebereich besteht.

Schau, das mag alles stimmen.

ABER:
- ich bin Enduser
- ich hab ne potente Wasserkühlung
- meine letzte luftgekühlte Grafikkarte hatte ich vor 3 Jahren
- Strom ist bei uns billig und ich hab einen dezidierten Gamepc der auch nur zum Gamen eingeschalten wird
Fürn Rest hab ich einen Lowpower Server der 24/7 rennt. nen Lowpower (AMD) HTPC hab ich ebenfalls.

d.h. was mich intressiert ist:
- sorgenfreie Treiber (nicht monatelang auf Fixes warten nur weil ich ein Game spiele welches nicht 0815 Standard ist und es jeder spielt)
- Bildqualität
- Speed

Alles andere intressiert mich schlicht nicht. Das ist Stoff für Grafikkartennerds und CPU/GPU Geeks die sich gern CPU Register vorm schlafengehen reinziehen. Ich will gamen, das so sorgenfrei und schön wie möglich. ;)

tombman
2010-03-31, 22:23:37
Schau, das mag alles stimmen.

ABER:
- ich bin Enduser
- ich hab ne potente Wasserkühlung
- meine letzte luftgekühlte Grafikkarte hatte ich vor 3 Jahren
- Strom ist bei uns billig und ich hab einen dezidierten Gamepc der auch nur zum Gamen eingeschalten wird
Fürn Rest hab ich einen Lowpower Server der 24/7 rennt. nen Lowpower (AMD) HTPC hab ich ebenfalls.

d.h. was mich intressiert ist:
- sorgenfreie Treiber (nicht monatelang auf Fixes warten nur weil ich ein Game spiele welches nicht 0815 Standard ist und es jeder spielt)
- Bildqualität
- Speed

Alles andere intressiert mich schlicht nicht. Das ist Stoff für Grafikkartennerds und CPU/GPU Geeks die sich gern CPU Register vorm schlafengehen reinziehen. Ich will gamen, das so sorgenfrei und schön wie möglich. ;)
Ganz genau- und GTX4 gewinnt ;)

Schlammsau
2010-03-31, 22:24:43
Schau, das mag alles stimmen.

ABER:
- ich bin Enduser
- ich hab ne potente Wasserkühlung
- meine letzte luftgekühlte Grafikkarte hatte ich vor 3 Jahren
- Strom ist bei uns billig und ich hab einen dezidierten Gamepc der auch nur zum Gamen eingeschalten wird
Fürn Rest hab ich einen Lowpower Server der 24/7 rennt. nen Lowpower (AMD) HTPC hab ich ebenfalls.

d.h. was mich intressiert ist:
- sorgenfreie Treiber (nicht monatelang auf Fixes warten nur weil ich ein Game spiele welches nicht 0815 Standard ist und es jeder spielt)
- Bildqualität
- Speed

Alles andere intressiert mich schlicht nicht. Das ist Stoff für Grafikkartennerds und CPU/GPU Geeks die sich gern CPU Register vorm schlafengehen reinziehen. Ich will gamen, das so sorgenfrei und schön wie möglich. ;)

Ok....wenn einen das Geld nicht kümmert und man vor Treiberfehler gefeit ist (GeForce Lüfterbug ;)) kann man ohne bedenken zur 480 greifen.

Aber es ist sinnlos mit Freaks/Nerds zu diskutieren.

Bucklew
2010-03-31, 22:26:33
Damals war es so :P

16x12 (4x16)
http://www.abload.de/img/unbenannt2g4w.jpg (http://www.abload.de/image.php?img=unbenannt2g4w.jpg)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet
"Damals"? :D

Dein Link stammt von 2009, da war die HD2900XT schon fast zwei Jahre alt. Deshalb hast du auch das Foto entsprechend "abgeschnitten", damit man nicht sieht, dass es in wirklich ein Test einer GeForce 9 war :D

Echt netter Versuch kleiner, aber verdammt leicht zu durchschauen ;D;D;D

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

Selbst eine fast 80 Euro günstigere GeForce 8800 GTS macht der Radeon HD 2900 XT das Leben schwer, während die GTX-Version gar lässig Kreise um die R600-Karte zieht.

pest
2010-03-31, 22:28:23
das ist jetzt mal so völlig kackegal, wann wie welche grafikkarte in den letzten 10 jahren besser als eine andere war.

das ist ein preview-thread! eure schlüpfer könnt ihr euch per pm zeigen

Schlammsau
2010-03-31, 22:28:44
Der R600 war ein epic Fail, nicht ganz zu vergleichen mit Fermi!

Dennoch gibt es parallelen zwischen den beiden GPUs.

Ich würde Fermi nicht als epic fail bezeichnen, aber den Titel Fail hat er verdient.

Gast
2010-03-31, 22:28:45
Das mit den angeblich schlechten AMD-Treibern stimmt einfach nicht oder meinetwegen nicht mehr, aber wenn man daran glauben will, kann AMD ja sowieso machen was sie wollen es wird sich die Ansicht mancher User nicht ändern.

Auch bei der BQ gibt es nur noch minimalste Unterschiede, die in einem Game überhaupt nicht auffallen können.

Zur NV-Treiber-Quali. War da nicht was in letzter Zeit mit nicht mehr funktionierenden OC und abschalten der Lüftersteuerung die sogar Karten hat abrauchen lassen?

Bucklew
2010-03-31, 22:31:24
Ich würde Fermi nicht als epic fail bezeichnen, aber den Titel Fail hat er verdient.
Dann müsste eine HD4000 ebenfalls Fail sein.

Gast
2010-03-31, 22:31:52
Ok....wenn einen das Geld nicht kümmert und man vor Treiberfehler gefeit ist (GeForce Lüfterbug ;)) kann man ohne bedenken zur 480 greifen.

Aber es ist sinnlos mit Freaks/Nerds zu diskutieren.

Stimmt nur halb. Nur wenn du mir krampfhaft einreden versucht dass die zuviel Strom verbraucht und zu laut ist. Beides tangiert mich nichtmal peripher.
Wenn du über schlechte Bildqualität bei der GTX480 diskutieren willst bitte. Habe in dem Punkt aber bisher nichts negatives gesehen, wenn du über solche Dinge, die mir wichtig sind, Informationen hast die ich nicht habe, dann raus damit. ;)

Jake Dunn
2010-03-31, 22:32:01
"Damals"? :D

Dein Link stammt von 2009, da war die HD2900XT schon fast zwei Jahre alt.

:confused:

21. Februar 2008

Gast
2010-03-31, 22:32:09
"Damals"? :D

Dein Link stammt von 2009, da war die HD2900XT schon fast zwei Jahre alt. Deshalb hast du auch das Foto entsprechend "abgeschnitten", damit man nicht sieht, dass es in wirklich ein Test einer GeForce 9 war :D

Echt netter Versuch kleiner, aber verdammt leicht zu durchschauen ;D;D;D

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

LOL und beim Fazit: ATI a perfect 10! LOL (Herrlich diese Kundenverarsche! Was ATI wohl gezahlt hat?)

Schlammsau
2010-03-31, 22:32:49
Zur NV-Treiber-Quali. War da nicht was in letzter Zeit mit nicht mehr funktionierenden OC und abschalten der Lüftersteuerung die sogar Karten hat abrauchen lassen?

Das ist einem enthusiasten mit Wasserkühlung reichlich egal.

Bucklew
2010-03-31, 22:33:53
:confused:
Sorry, verlesen 2008. Ändert aber nix dran, dass der Text viel später als die HD2900XT kam und diese gnadenlos vernichtet wurde beim Release.

J0ph33
2010-03-31, 22:35:56
480 ist jetzt schneller als die Konkurrenz, hd2900 war damals langsamer. 480 hat konkurrenzfähige BQ-Features, hd2900 hatte sie nicht (kein SSAA, schlechtes AF). 480 hat die bessere Tech als die Konkurrenz, hd290 hatte sie nicht.

Siehst du jetzt, wieso man das nicht vergleichen kann?

Natürlich kann man vergleichen...und natürlich gibt es auch Unterschiede. Aber die Gemeinsamkeiten sind dennoch nicht von der Hand zu weisen, Fermi enttäuscht, wie auch die HD2900, und das auf Grund ähnlicher Faktoren, wenn auch HD2900 noch nen Stück schlimmer war.

Übrigens: Vergleichen heißt Gemeinsamkeiten und Unterschiede feststellen, und von ersterem gibt es halt ein paar signifikante.

Jake Dunn
2010-03-31, 22:37:32
Sorry, verlesen 2008. Ändert aber nix dran, dass der Text viel später als die HD2900XT kam und diese gnadenlos vernichtet wurde beim Release.

Wir koennten den R600 hier aufdroeseln, aber das wird zu OT, aber bitte verhalte dich anstaendig hier (nicht wie bei PCGH) da ein guter Lacher die allgemeine Stimmung hebt.

BTT :)

IVN
2010-03-31, 22:38:40
Natürlich kann man vergleichen...und natürlich gibt es auch Unterschiede. Aber die Gemeinsamkeiten sind dennoch nicht von der Hand zu weisen, Fermi enttäuscht, wie auch die HD2900, und das auf Grund ähnlicher Faktoren, wenn auch HD2900 noch nen Stück schlimmer war.

Übrigens: Vergleichen heißt Gemeinsamkeiten und Unterschiede feststellen, und von ersterem gibt es halt ein paar signifikante.
Ich kann dem einfach nicht zustimmen. Denn 480 ist in allen Punkten, ausser Verbrauch und Lautstärke, konkurrenfähig. HD2900 war es in keinem einzigen Punkt.

LovesuckZ
2010-03-31, 22:39:23
Wir koennten den R600 hier aufdroeseln, aber das wird zu OT, aber bitte verhalte dich anstaendig hier (nicht wie bei PCGH) da ein guter Lacher die allgemeine Stimmung hebt.

BTT :)

Ich fand deine r600 Verteidigungen erheitern. Wirklich: Wie man r600 nur gut reden kann. Ich wüsste nichtmal einen Grund, dies zu tun. Selbst die 8xMSAA Stärke ist ja heute nichts mehr wert. ;D

Jake Dunn
2010-03-31, 22:40:19
Ich kann dem einfach nicht zustimmen. Denn 480 ist in allen Punkten, ausser Verbrauch und Lautstärke, konkurrenfähig. HD2900 war es in keinem einzigen Punkt.

Das die 29er hinter den Erwartungen zurück blieb ist doch jedem hier Sonnenklar ;)

AMC
2010-03-31, 22:40:30
Wieviele PRIVAT(!)anwender nutzen so etwas?

Ob du es glaubst oder nicht: GeForcekarten sind immer noch für Privatanwender gedacht, alle anderen sollen eben die Tesla und/oder Quadroreihe nehmen. Genauso wie sich eben der Privatmensch sich ne Bosch-Bohrmaschine kauft und der Handwerker eben ne Hilti. Und (oh Wunder!) beide kriegen nen Loch in die Wand.

Bucklew, ich hab es schon ein paar Posts vorher angedeutet, aber wie mir scheint, glaubst auch Du es gäbe einen "professionellen" Chip und einen "Consumer" Chip. Glaubst Du, in Firmen sitzen nur Idioten? Glaubst Du wirklich, dass das Management statt 500€ für eine Karte, die EXAKT gleich ist, wie die 5000€ "professional" Karte, 4400€ mehr ausgibt? Glaubst Du ernsthaft, dass nur Newbs und Daus in der Entscheidungsposition auf dem Firmengeld sitzen, die nicht wissen, dass GF100 und Tesla exakt dasselbe (von einem Lasercut/Treiber-ID abgesehen) sind? Und denkst Du nicht, dass es einen gehörigen monetären Unterschied macht, ob man einen HPC-Cluster mit 128 Teslas oder 128 GF100 ausstattet? Denkst Du ernsthaft, dass sich kein Geldgeber informiert, für was er das "professionelles" Geld ausgibt? Mir sind solche Idioten in meiner Laufbahn noch nicht untergekommen.....

Da nimmt man 128 Cypress, Myrinet, ne Intel-Basis inkl. Support und steckt das Geld, dass man als Differenz (128 * 5000€) - (128 * ~400€) für den Verzicht auf nen "professional"-Chip (egal ob nV "Tesla"/ oder ATI "FireGL") erhält in mehr Cluster, CPUs oder die Kühllösung.

IVN
2010-03-31, 22:44:56
Bucklew, ich hab es schon ein paar Posts vorher angedeutet, aber wie mir scheint, glaubst auch Du es gäbe einen "professionellen" Chip und einen "Consumer" Chip. Glaubst Du, in Firmen sitzen nur Idioten? Glaubst Du wirklich, dass das Management statt 500€ für eine Karte, die EXAKT gleich ist, wie die 5000€ "professional" Karte, 4400€ mehr ausgibt? Glaubst Du ernsthaft, dass nur Newbs und Daus in der Entscheidungsposition auf dem Firmengeld sitzen, die nicht wissen, dass GF100 und Tesla exakt dasselbe (von einem Lasercut/Treiber-ID abgesehen) sind? Und denkst Du nicht, dass es einen gehörigen monetären Unterschied macht, ob man einen HPC-Cluster mit 128 Teslas oder 128 GF100 ausstattet? Denkst Du ernsthaft, dass sich kein Geldgeber informiert, für was er das "professionelles" Geld ausgibt? Mir sind solche Idioten in meiner Laufbahn noch nicht untergekommen.....
Tesla und Geforce sind NATÜRLICH nicht das selbe. Bei einer Geforce kaufst du eine Gamer-Karte, die mit Treibern ausgeliefert wird, und das wars. Bei einer Tesla kaufst du zusätzlich professionellen Support und eventuell Tools, und DAS ist sehr teuer!

Anders gesagt: du kaufst neben der Karte, auch die Arbeitszeit der Leute, die dich gegebenfalls unterstützen und beraten, falls ein Problem auftritt und du nicht weiter weiss. Und da diese Leute hoch gebildet sind, und gut bezahlt werden wollen, ist die Tesla auch teuer.

Jake Dunn
2010-03-31, 22:45:50
Ich fand deine r600 Verteidigungen erheitern.

Quelle?

Bzw. wer verbaut nochmal zwei 9800 GX2 mit 512mb Vram :D

LovesuckZ
2010-03-31, 22:46:38
Quelle?

Bzw. wer verbaut nochmal zwei 9800 GX2 mit 512mb Vram :D

Ich. :D
Mit einem IDLE-Verbrauch von 2 Watt. 10x weniger als Cypress. :P

Gast
2010-03-31, 22:47:31
@AMC: tja dann hattest du wohl noch nie mit professionellen Firmen zu tun. Die kaufen die Karten nicht weil sie andere Treiber haben, sondern wegen deren Zertifizierungen und dem Support. Glaubst du wirklich ein Krankenhaus intressierts ob der PC fürn Röntgen 10.000 oder 20.000 Euro kostet? Weisst du wieviel ein PC einer Intensivstation pro Jahr kostet inkl Support? ~200.000 Euro. (zumal die die PCs ja ned selbst zusammen"basteln" ...)

Deine Argumente sind die eines Gamers der vom professionellen Arbeitsumfeld keine Ahnung hat. Macht aber nix, so dachte ich mit 19 auch. ;)

AMC
2010-03-31, 22:48:15
Tesla und Geforce sind NATÜRLICH nicht das selbe. Bei einer Geforce kaufst du eine Gamer-Karte, die mit Treibern ausgeliefert wird, und das wars. Bei einer Tesla kaufst du zusätzlich professionellen Support und eventuell Tools, und DAS ist sehr teuer!

Willst Du mir jetzt ernsthaft den Unterschied erklären? Willst Du mir erzählen, dass nV uns die Jahre ignoriert hat, weil wir eine UNMENGE von nV Geforce-Chips in der Vergangenheit gekauft haben und TROTZDEM den vollen Support bekommen haben?

Ich hasse das....

AMC
2010-03-31, 22:50:34
Bei einer Tesla kaufst du zusätzlich professionellen Support und eventuell Tools, und DAS ist sehr teuer!.

Der Support hat NULL, ich wiederhole NULL mit dem Typ der Karte, sondern mit dem Namen der Firma für die Du arbeitest und von der aus Du bei nV bestellst, sowie mit dem Auftragsvolumen etwas zu tun. Ich verspreche Dir, wenn Du für ne Millionen € bei nV Geforces für Deine Firma bestellst, kommen die Entwickler persönlich bei Dir vorbei.....

/edit Dies ist bereits bei uns geschehen...

Schlammsau
2010-03-31, 22:50:56
Ich. :D
Mit einem IDLE-Verbrauch von 2 Watt. 10x weniger als Cypress. :P

Und deswegen hast du dir 2 dieser "Wunderwerke" ins Gehäuse gepflanzt? :freak:

Bucklew
2010-03-31, 22:51:05
Das die 29er hinter den Erwartungen zurück blieb ist doch jedem hier Sonnenklar ;)
Auch dir?

Bucklew, ich hab es schon ein paar Posts vorher angedeutet, aber wie mir scheint, glaubst auch Du es gäbe einen "professionellen" Chip und einen "Consumer" Chip. Glaubst Du, in Firmen sitzen nur Idioten? Glaubst Du wirklich, dass das Management statt 500€ für eine Karte, die EXAKT gleich ist, wie die 5000€ "professional" Karte, 4400€ mehr ausgibt? Glaubst Du ernsthaft, dass nur Newbs und Daus in der Entscheidungsposition auf dem Firmengeld sitzen, die nicht wissen, dass GF100 und Tesla exakt dasselbe (von einem Lasercut/Treiber-ID abgesehen) sind? Und denkst Du nicht, dass es einen gehörigen monetären Unterschied macht, ob man einen HPC-Cluster mit 128 Teslas oder 128 GF100 ausstattet? Denkst Du ernsthaft, dass sich kein Geldgeber informiert, für was er das "professionelles" Geld ausgibt? Mir sind solche Idioten in meiner Laufbahn noch nicht untergekommen.....
Tja, da spricht der Techniker, aber eben nicht derjenige, der sein Produkt verkaufen möchte. Natürlich zahlt niemand 4400€ mehr für nichts - aber er kriegt so eben die DP-Leistung und die Software und den Support und die Haltbarkeit und die Garantie usw.

Abgesehen davon ist das ja nicht die einzige Trennung. Die Teslas kriegen auch ECC z.B. Und schau dir mal an was Nvidia mit den Quadros verdient und dann denk nochmal drüber nach, dass sich das ganze nicht lohnt.

Und mal so unter uns: Selbst WENN (!) die GeForce = Tesla wäre, meinst du, dass diese 4400€ Aufpreis bei vielen Produkten und Firmen überhaupt nur den Wimpernschlag einer Erwähnung finden würden? Weißt du überhaupt, was alleine so eine Lizenz eines RICHTIGEN 3D-Konstruktionsprogramm kostet? Meinst du es interessiert IRGENDWEN im Managment, bei einer Softwarebasis für 30.000€ und mehr, ob die Grafikkarte 500 oder 5000€ kostet?

Der Support hat NULL, ich wiederhole NULL mit dem Typ der Karte, sondern mit dem Namen der Firma für die Du arbeitest und von der aus Du bei nV bestellst, sowie mit dem Auftragsvolumen etwas zu tun. Ich verspreche Dir, wenn Du für ne Millionen € bei nV Geforces für Deine Firma bestellst, kommen die Entwickler persönlich bei Dir vorbei.....
1. Nein, ne Million reicht nicht.
2. Wenn ne Million reichen würde - dann würden bei Tesla halt 100.000 reichen ;)

Jake Dunn
2010-03-31, 23:04:07
Ich. :D


Hihi...noch Platz im Keller? :D

Auch dir?



Jedem = mich eingeschlossen..ja :)

Bucklew
2010-03-31, 23:10:50
Jedem = mich eingeschlossen..ja :)
Ok, konnte man aus den Posts nicht schließen :D

AMC
2010-03-31, 23:19:28
Abgesehen davon ist das ja nicht die einzige Trennung. Die Teslas kriegen auch ECC z.B.

ECC spielt in der numerischen Berechnungen eine oftmals untergeordnete Rolle, da Du das Ergebnis Deiner Berechnungen eh verifizieren musst. (z.B. in der medizinischen Bildverarbeitung...) <- ich beziehe mich hier auf automatische Fehlerkorrekturmechanismen. Der Numeriker scheut jede Art von HW-Unterstützung dieser Art, auch wenn ECC vergleichsweise harmlos ist....


Und schau dir mal an was Nvidia mit den Quadros verdient und dann denk nochmal drüber nach, dass sich das ganze nicht lohnt.

Mit den Quadros verdient nV im CAD-Bereich != HPC Bereich. Obwohl ich selbst genug Leute kenne, die lieber einen absolut trivialen ID/Soldering Hack durchführen (und ja, in ihrer Firma, ganz offiziell) um den Dau-Aufschlag von 4000€ nicht zahlen zu müssen. Wie gesagt, Support-Verträge lassen sich immer extern aushandeln, da spielt die verwendete HW-Basis keine Rolle.


Und mal so unter uns: Selbst WENN (!) die GeForce = Tesla wäre, meinst du, dass diese 4400€ Aufpreis bei vielen Produkten und Firmen überhaupt nur den Wimpernschlag einer Erwähnung finden würden?

JA! Eben weil sich die Erkenntnis dieser Portfolio-Verarschung langsam durchsetzt. Hinzu kommt noch, dass gerade die HPC-Cluster (z.b. in der Medizintechnik) auf OpenCL und OpenMP setzen....da zahlst Du keine "Tools" mehr. Schon gar nicht, wenn man bedenkt dass es Lizenzverträge pro Cluster-Unit, oder CPU-Unit gibt :freak: Überleg mal, was man da zahlen würde, wenn man ein Rechenzentrum für Proteinzerlegung aufsetzen würde, mit 1024 CPUs...alles klar? ;) Gerade in diesem Bereich wird wirklich auf jeden € geguckt, da hier ganz andere Randbedingungen wichtig sind: z.B. Energieversorgung und Abwärme. Glaub mir, bei der Simulation von z.B. Kernspintomographen in der Entwicklungsphase per GPGPU ist Wärmeentwicklung und deren Abführung ein ganz "heisses" Thema. Da ist es in der Tat so, dass *professionelle* Kühlinfrastrukturen dasselbe oder knapp weniger als der Cluster selbst kosten.


Weißt du überhaupt, was alleine so eine Lizenz eines RICHTIGEN 3D-Konstruktionsprogramm kostet? Meinst du es interessiert IRGENDWEN im Managment, bei einer Softwarebasis für 30.000€ und mehr, ob die Grafikkarte 500 oder 5000€ kostet?

Du vermischt hier wieder CAD mit HPC. Beim CAD-Kauf kaufe ich einen echten "Mehrwert" für eine Software, die entwickelt werden musste (was ich persönlich von diesen Preisen halte, ist irrelevant), im Falle der Geforce als Tesla, oder Tesla als Geforce zahlst Du ebene KEINEN Mehrwert, es ist derselbe Chip, der für größtmöglichen Gewinn losgeschlagen wird, für Gamer aber "nur" 500€ kostet...ECC und Treibererkennung sind keine ~4000€ Wert, ich hoffe, da sind wir uns einig?


1. Nein, ne Million reicht nicht.


Eine Millionen reicht, versprochen. ;) Der Support sowohl von Intel, nV und ATI war immer gut, umso höher der Auftrag, umso besser wurde er, und ne Millionen € ist mehr als genug, glaubs mir, oder glaub es mir nicht, Dein Ding.

IVN
2010-03-31, 23:33:11
Du vermischt hier wieder CAD mit HPC. Beim CAD-Kauf kaufe ich einen echten "Mehrwert" für eine Software, die entwickelt werden musste (was ich persönlich von diesen Preisen halte, ist irrelevant), im Falle der Geforce als Tesla, oder Tesla als Geforce zahlst Du ebene KEINEN Mehrwert, es ist derselbe Chip, der für größtmöglichen Gewinn losgeschlagen wird, für Gamer aber "nur" 500€ kostet...ECC und Treibererkennung sind keine ~4000€ Wert, ich hoffe, da sind wir uns einig?


Na wenn du je ein Unternehmen von innen gesehen hast, fresse ich nen Besen.

Du fragst wieso Tesla $4000, während eine "vergleichbare" Geforce nur $500 kostet?

Ich sags dir!

Es ist:

1) der Support

2) die Tatsache, das eine so teuere Tesla-Karte 4x so viel Speicher hat

3) bessere Garantie

4) penibelste Einhaltung von Qualitätsstandards

5) vorteilhaftere Vertragsbedingungen (nicht spezifisch für Tesla, aber sogar ne Entschädigung, für ausgefallene Karten/nicht verrichtete Arbeit ist vorstellbar)

Oder auch anders, damit du es verstehen kannst:

Tasla = Werkzeug

Geforce = Spielzeug

Bucklew
2010-03-31, 23:35:35
ECC spielt in der numerischen Berechnungen eine oftmals untergeordnete Rolle, da Du das Ergebnis Deiner Berechnungen eh verifizieren musst. (z.B. in der medizinischen Bildverarbeitung...)
Verfizieren ja, nur wenn man Ergebnis (dank ECC) nur noch alle 0,00001% statt 1% neu berechnen muss, spart das auch ne Menge. Abgesehen davon gibt es noch mehr Anwendungen, außer medizinischer Bildbearbeitung.

Mit den Quadros verdient nV im CAD-Bereich != HPC Bereich. Obwohl ich selbst genug Leute kenne, die lieber einen absolut trivialen ID/Soldering Hack durchführen (und ja, in ihrer Firma, ganz offiziell) um den Dau-Aufschlag von 4000€ nicht zahlen zu müssen. Wie gesagt, Support-Verträge lassen sich immer extern aushandeln, da spielt die verwendete HW-Basis keine Rolle.
Genau daher eben die DP-Begrenzung. ID/Soldering-Hack wird unmöglich. Eben wie es bei Quadro gemacht. Keine Quadro = kein OpenGL. Egal was man umlöten will, es ist im Chip disabled.

JA! Eben weil sich die Erkenntnis dieser Portfolio-Verarschung langsam durchsetzt. Hinzu kommt noch, dass gerade die HPC-Cluster (z.b. in der Medizintechnik) auf OpenCL und OpenMP setzen....da zahlst Du keine "Tools" mehr. Schon gar nicht, wenn man bedenkt dass es Lizenzverträge pro Cluster-Unit, oder CPU-Unit gibt :freak: Überleg mal, was man da zahlen würde, wenn man ein Rechenzentrum für Proteinzerlegung aufsetzen würde, mit 1024 CPUs...alles klar? ;) Gerade in diesem Bereich wird wirklich auf jeden € geguckt, da hier ganz andere Randbedingungen wichtig sind: z.B. Energieversorgung und Abwärme. Glaub mir, bei der Simulation von z.B. Kernspintomographen in der Entwicklungsphase per GPGPU ist Wärmeentwicklung und deren Abführung ein ganz "heisses" Thema. Da ist es in der Tat so, dass *professionelle* Kühlinfrastrukturen dasselbe oder knapp weniger als der Cluster selbst kosten.
Das ist keine Verarschung sondern reine Betriebswirtschaft. Und gerade wo du von Kernspintomographen redest, gerade bei solchen Geräten mit Preisen im Millionenbereich fallen die paar € für die "richtigen" GPUs doch eh nicht ins Gewicht. Denn was du gern vergisst: Natürlich sind die Teslakarten teuer im Vergleich zur GeForce. Aber vergleich mal die Rechenleistung so einer Fermikarte mit einer entsprechenden CPU und auch die Abwärme. Da wird die ach so teure und heiße Teslakarte auf einmal zum Effizenzwunder des Jahrhunderts. Und wenn in der Entwicklung eines Kernspintomographen die GPUs keine so große Rollen spielen - bei den geplanten Installationen ist das Gegenteil der Fall ;)

Du vermischt hier wieder CAD mit HPC. Beim CAD-Kauf kaufe ich einen echten "Mehrwert" für eine Software, die entwickelt werden musste (was ich persönlich von diesen Preisen halte, ist irrelevant), im Falle der Geforce als Tesla, oder Tesla als Geforce zahlst Du ebene KEINEN Mehrwert, es ist derselbe Chip, der für größtmöglichen Gewinn losgeschlagen wird, für Gamer aber "nur" 500€ kostet...ECC und Treibererkennung sind keine ~4000€ Wert, ich hoffe, da sind wir uns einig?
Die Karte ist das Wert, was du bereit bist du dafür zu zahlen - und alle anderen Menschen, die als Zielgruppe in Frage kommen. Es gibt halt ebne die "Doofen", die den Preis bezahlen und gut ist und es gibt die "Schlauen", die meinen ein Chiptuning macht den Motor nicht kaputt - diese Gruppe teilt sich dann in die "Schlauen mit Pech" auf, die sich nen neuen Motor kaufen müssen und die "Schlauen mit Glück", denen nix passiert und dann das ganze nochmal machen. Die Schlauen mit Pech kaufen sich jetzt lieber doch den richtigen Wagen ;)

Und es gibt eben mehr als genug Unterschied zwischen Tesla und GeForce als nur den Chip und ECC. Den Support kann man auch als Ein-Mann-Team bekommen und die Karten sind auch grundsätzlich deutlich besser und ausgereifter Konstruiert. Spulenfiepen kenn ich von unseren Quadros und Tesla aus der GT200-Reihe nicht ;)

Eine Millionen reicht, versprochen. ;) Der Support sowohl von Intel, nV und ATI war immer gut, umso höher der Auftrag, umso besser wurde er, und ne Millionen € ist mehr als genug, glaubs mir, oder glaub es mir nicht, Dein Ding.
Nein, reicht er nicht. Und ich weiß das, weil ich zufällig genau in dem Bereich in dem Support arbeite, von dem du hier sprichst :freak:

Armaq
2010-03-31, 23:45:11
Hat denn ein Distributor schon Karten bzw. ein Einzelhändler?

AMC
2010-03-31, 23:58:18
Verfizieren ja, nur wenn man Ergebnis (dank ECC) nur noch alle 0,00001% statt 1% neu berechnen muss, spart das auch ne Menge. Abgesehen davon gibt es noch mehr Anwendungen, außer medizinischer Bildbearbeitung.

Uninteressant bei hoch-präzisen Berechnungen.


Genau daher eben die DP-Begrenzung. ID/Soldering-Hack wird unmöglich. Eben wie es bei Quadro gemacht. Keine Quadro = kein OpenGL. Egal was man umlöten will, es ist im Chip disabled.

Äh, OpenGL im Chip "disablen"? :freak: Ich tippe nach wie vor auf ID/Soldering, auch bei GF100.


Das ist keine Verarschung sondern reine Betriebswirtschaft. Und gerade wo du von Kernspintomographen redest, gerade bei solchen Geräten mit Preisen im Millionenbereich fallen die paar € für die "richtigen" GPUs doch eh nicht ins Gewicht.

Falsch. Dass mag mal so gewesen sein, aber ich kenne zufälligerweise sowohl a) die Abteilung des Weltmarktführers für die MRT/CRT Entwicklung.
b) die für Simulation und HPC/GPGPU bereitgestellten Kosten.
c) die Reduktion externer Anteile durch die Krise.

;)


Aber vergleich mal die Rechenleistung so einer Fermikarte mit einer entsprechenden CPU und auch die Abwärme.

Ich vergleiche sowas lieber mit einem Cypress. ;)


Da wird die ach so teure und heiße Teslakarte auf einmal zum Effizenzwunder des Jahrhunderts.

Jede GPU ist ein Effizienzwunder in ganz bestimmten mathematischen Ausnahmefällen der Parallelisierbarkeit. ;) Egal ob nV oder ATI, für GPGPU sind natürlich nur GPUs zu gebrauchen. Was Du nicht bedenkst: Was denkst Du erzeugt die nennenswerte und effektive Abwärme in einem Simulationscluster [ ] GPU(s) [ ] CPU(s)


Und wenn in der Entwicklung eines Kernspintomographen die GPUs keine so große Rollen spielen - bei den geplanten Installationen ist das Gegenteil der Fall ;)

Blödsinn, die CT/MRT-Rechner von z.B. Siemens sind lächerlich(!) klein im Vergleich zu den Simulationsrechnern die Siemens zur Entwicklung von neuen CTs/MRTs und anderer bildgebender HW nutzt. Das solltest Du aber wissen.... und ja, ich weiß wovon ich rede.


Den Support kann man auch als Ein-Mann-Team bekommen und die Karten sind auch grundsätzlich deutlich besser und ausgereifter Konstruiert. Spulenfiepen kenn ich von unseren Quadros und Tesla aus der GT200-Reihe nicht ;)

Bla bla? Referenzdesign...bla...weniger vcore, bessere Kühlung. Erzähl mir bitte keine Märchen von "eigenem Chip", "neuer Technologie" bla blubb. Ich spiele schon so jeden zweiten Tag BULLSHIT Bingo.


/edit Ich habe bisher keine Qualitätsprobleme gehabt: Egal ob nV Geforce, Quadro,Tesla oder ATI FireGL, Radeon....


Nein, reicht er nicht. Und ich weiß das, weil ich zufällig genau in dem Bereich in dem Support arbeite, von dem du hier sprichst :freak:

Reicht er. ;) Ich habe mit Treiberentwicklern von NV, ATI, Intel und S3 zu Mittag gegessen.... also bitte. (Wie gesagt: Es kommt auf das Volumen, die Firma und die Verträge an).

P.S. Würselen?

Schrotti
2010-03-31, 23:59:18
Hat denn ein Distributor schon Karten bzw. ein Einzelhändler?

Das frage ich mich auch.

Ich werde warten bis ausreichend Karten verfügbar sind und Watercool mit einem Kühler am Start ist.

Gast
2010-04-01, 00:03:36
Das frage ich mich auch.

Ich werde warten bis ausreichend Karten verfügbar sind und Watercool mit einem Kühler am Start ist.

Könnte ein schönes Weihnachtsgeschenk werden dann ;D