PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Gast
2010-03-28, 16:30:14
ich finde Hardwareluxx haben es in ihrem Fazit am Besten ausgedrückt!

Und auch wenn hier bei einigen verpöhnt, Gamestar:

"Der Fermi ist zwar schneller, aber Radeon die bessere Karte"

Gast
2010-03-28, 16:33:59
die PCGH hat in ihrem Fazit den fermi förmlich mit Samthandschuhen
angefasst. man bekam fast das Gefühl als täte es ihnen leid den Fermi
schlecht zu beurteilen


Das ist leider nichts neues und hat mich auch überhaupt nicht gewundert. Ich habe vorher schon gewettet, dass das Fazit bei PCGH wahrscheinlich eines der positivsten sein wird.

Schön fand ich auch, dass man BF:BC2 nicht in DX11 gebencht hat, um laut PCGH einen fairen Vergleich zu haben. Warum es nicht möglich war das Game separat nur mit den DX11 fähigen Karten zu testen (wie bei Dirt2 ja auch), bleibt wohl ihr Geheimnis. Da das Game eines der momentan beliebtesten Games überhaupt ist, könnte man anhand dieses DX10 Vergleichs ja leicht auf die Idee kommen, dass die beiden GTX4xx deutlich schneller wären. In anderen Reviews wurde natürlich in DX11 getestet und siehe da die beiden HD5er sind jeweils schneller als die GTX4xx (manchmal ist sogar die HD5850 schneller als die GTX480 - http://www.anandtech.com/video/showdoc.aspx?i=3783&p=14). Außerdem wer bitte kauft sich eine DX11 Karte um dann in DX10 zu spielen.

Gast
2010-03-28, 16:47:17
Ja, Golem und c't sind seit jeher für ihre grandiosen GraKa-Tests bekannt. ;DAus welcher Sicht? Des 3D-Fachidioten der AF-Blumen auf 400% vergrößert? Dann natürlich nicht. Solche Leute soll es natürlich auch geben, aber sie sind für den Markt absolut irrelevant und wird mit solchen Tests auch nicht adressiert.

@dildo
Das steht auch alles nicht zur Debatte. Nur von den 9 Leuten die ich als "wenigstens paar Stunden in der Woche WoW Zocker" kenne und bei welchen ich die Tage ganz unschuldig nachgefragt habe, ob sie sich eine 470/480 holen würden, haben 9 freundlich entgegnet ob ich vielleicht den Verstand verloren hätte.

@Gast wegen "bescheuerten" Umfragen
Augenader geplatzt? Es sind alle 4 Chips aufgelistet. Auseinanderzuhalten wer genau welche von den 4 gegenüber einer anderen von den 4 bevorzugt ist nicht das Thema dieser Umfrage. Deswegen ist sie nicht "bescheuert".
Wenn man oberkluge Umfragen starten will, dann husch-husch anmelden und eine erstellen.

Gast
2010-03-28, 16:51:03
Und auch wenn hier bei einigen verpöhnt, Gamestar:

"Der Fermi ist zwar schneller, aber Radeon die bessere Karte"

Kommt drauf an, wie man gewichtet. Stellt man natürlich Lautstärke, Verbrauch und Temperatur in den Vordergrund ja, ansonsten nein.
Denn Fermi ist leistungsmäßig fast ausnahmslos besser, mehr Features, immer noch leicht weniger flimmeranfälliges AF und vor allem bessere, konsistente Treiber. Gerade bei den Treibern kann sich ATI noch viel bei nV abgucken. In Mafia 1 ist bei denen immer noch der lustige Schattenbug vorhanden!
Abhilfe schafft nur der 3D-Analyzer.
GPU-Skalierung in größer DX9 funktioniert nicht, Bug bei der Skalierunsoptionsanzeige unter Vista/Windows 7, Fehler in Gothic 3, Wasserfehler in GTA IV, undurchsichtige AI-Scheiße, keine Profilerkennung u.v.m.

Gast
2010-03-28, 16:51:22
@dildo
Das steht auch alles nicht zur Debatte. Nur von den 9 Leuten die ich als "wenigstens paar Stunden in der Woche WoW Zocker" kenne und bei welchen ich die Tage ganz unschuldig nachgefragt habe, ob sie sich eine 470/480 holen würden, haben 9 freundlich entgegnet ob ich vielleicht den Verstand verloren hätte.


Warum sollten sich die überhaupt für irgendeine Highendgrafikkarte interessieren?

Gast
2010-03-28, 16:53:16
Gut ich muss aber zugeben, dass es bei BF:BC2 tatsächlich auch noch an NVs Treibern liegen kann, obwohl ich es auch merkwürdig fände wenn diese nicht auf das Game optimiert wären, weil NV ja auch klar sein musste, dass das Game häufig mitgebencht würde und sehr wichtig ist.

Ich würde aber auch mal gerne wissen, warum die GTX4xx so auffällig oft bei sehr hohen Auflösungen einbrechen gegnüber HD58xx. Es gibt ja doch viele Fälle in denen z.B. die GTX480 bei 1680x1050 noch einen komfortabelen Vorsprung vor HD5870 hat (z.B. 20-30%), aber bei 2560x1600 sind die Karten meistens fast wieder gleichauf und das auch bei noch spielbaren Fps.

looking glass
2010-03-28, 16:54:18
Weiß vielleicht jemand, wie viel die 470er unter Idle bei Dual Monitor Ausgabe und/oder Blu-Ray/mkv Wiedergabe verbraucht?
Ich finde dazu einfach nichts.

Bei der c't stand was von 100W bei Dualmonitorbetrieb im Idle, ich glaube das sich da die 470 von der 480 nur marginal unterscheidet.

Gast
2010-03-28, 16:54:59
Kommt drauf an, wie man gewichtet. Stellt man natürlich Lautstärke, Verbrauch und Temperatur in den Vordergrund ja, ansonsten nein.
Denn Fermi ist leistungsmäßig fast ausnahmslos besser, mehr Features, immer noch leicht weniger flimmeranfälliges AF und vor allem bessere, konsistente Treiber. Gerade bei den Treibern kann sich ATI noch viel bei nV abgucken. In Mafia 1 ist bei denen immer noch der lustige Schattenbug vorhanden!
Abhilfe schafft nur der 3D-Analyzer.
GPU-Skalierung in größer DX9 funktioniert nicht, Bug bei der Skalierunsoptionsanzeige unter Vista/Windows 7, Fehler in Gothic 3, Wasserfehler in GTA IV, undurchsichtige AI-Scheiße, keine Profilerkennung u.v.m.

Glaubst du tatsächlich dass man sich deswegen eine GTX480 antut?
Bestimmt nicht außer man ist sowieso "Festgelegt".
Dann muss man seine LQ-AF, PhysiX, CUDA, Schatten in Mafia 1-Bibel runterbeten und hoffen dass noch ein paar mitbeten.

LovesuckZ
2010-03-28, 16:56:07
Gut ich muss aber zugeben, dass es bei BF:BC2 tatsächlich auch noch an NVs Treibern liegen kann, obwohl ich es auch merkwürdig fände wenn diese nicht auf das Game optimiert wären, weil NV ja auch klar sein musste, dass das Game häufig mitgebencht würde und sehr wichtig ist.


Unterschiedliche Tests, unterschiedliche Settings im Spiel.
Bei Bit-Tech ist die GTX470 mit AA/AF auf dem Niveau der 5870: http://www.bit-tech.net/hardware/2010/03/27/nvidia-geforce-gtx-480-1-5gb-review/9

Bei der c't stand was von 100W bei Dualmonitorbetrieb im Idle, ich glaube das sich da die 470 von der 480 nur marginal unterscheidet.

Sie sollte sich deutlich unterscheiden. Alleine beim IDLEN verbraucht die GTX480 20 Watt, also 2/3 mehr. Da im MM-Betrieb fast auf 3D taktung geschalten wird, sollte es einen erheblichen Unterschied geben.

ChaosTM
2010-03-28, 16:58:00
Bei der c't stand was von 100W bei Dualmonitorbetrieb im Idle, ich glaube das sich da die 470 von der 480 nur marginal unterscheidet.

THX, ähnliches stand auch in LovesuckZ link.
Sollte Nvidia das noch vernünftig lösen können, wäre die 470er wieder im Spiel. Natürlich nicht für 350€..

Gast
2010-03-28, 16:58:45
"Der Fermi ist zwar schneller, aber Radeon die bessere Karte"Es hat wohl der schlimmste ATI-Fanboy nicht daran gezweifelt, daß NV über 6 Monate nach ATI eine in minFPS wahrnehmbar schnelleren Chip rausbringt. Ob max 90fps oder 120fps interessiert wen noch bitte?
Interessant und aufregend war die Frage wie so eine Karte als "Paket" darsteht.

Für mich sind die Karten mit Fermi Rev.A ein merkbar schlechteres Paket. Im Gegensatz zu früher wo es an allen Ekcen und Enden an Leistung einfach fehlte betrachten und beachten die Leute mittlerweile auch andere Aspekte eines solchen Pakets. Bei sowas schneidet ein Fermi leider sehr mäßig ab.

Bei soviel Druck seitens ATI habe ich das auch nicht anders erwartet. Daß NV Gesamtpakete viel besser schnürren kann weiß man.

Gast
2010-03-28, 17:00:35
Bei der c't stand was von 100W bei Dualmonitorbetrieb im Idle, ich glaube das sich da die 470 von der 480 nur marginal unterscheidet.


Ja ist leider ein absolute Katastrophe, denn der Verbrauch steigt extrem an (ich habe auch schon was von 110W gelesen) und vorallendingen läuft die GPU dann auch gleich mit absurden 90C°.

AYAlf_2
2010-03-28, 17:00:41
Deren Video hast du echt nicht gesehen?

Sie kritisieren die Kritikpunkte der 5890, 4870 X2 oder 4890, nur eben noch weitaus deutlicher.
Zusammen mit der Tatsache, das sie 8xMSAA mit Q getestet haben oder TSSAA vs MSAAA erscheint das nicht sehr pro NV.

Wenn ich das mal so ausdrücken darf, du erscheinst mir heftig pr AMD zu sein, wenn du das nicht erkennst.
du kannst mir glauben, ich habe alles von pcgh zur akuellen nvidia gesehen. und auch vorher mir einige tests angeschaut. die nvidia karten sind nett behandelt worden. ;)

Gast
2010-03-28, 17:01:59
Warum sollten sich die überhaupt für irgendeine Highendgrafikkarte interessieren?Warum sollte man sonst WoW-Benches in die Schlacht führen? Nur als Kuriosum?

Gast
2010-03-28, 17:05:58
@Gast wegen "bescheuerten" Umfragen
Augenader geplatzt? Es sind alle 4 Chips aufgelistet. Auseinanderzuhalten wer genau welche von den 4 gegenüber einer anderen von den 4 bevorzugt ist nicht das Thema dieser Umfrage. Deswegen ist sie nicht "bescheuert".
Wenn man oberkluge Umfragen starten will, dann husch-husch anmelden und eine erstellen.
Schade, ich hab mich so einfach ausgedrückt.

Es werden verschiedene Preisbereiche verglichen.

Keine Ahnung was du nicht daran kapierst.
Ich frag auch gleich mal wer sich eine X1900 XT und wer sich eine 7600 GT gekauft haben. Hat eine ähnlich nicht vorhandene Aussagekraft.

Gast
2010-03-28, 17:06:42
Warum sollte man sonst WoW-Benches in die Schlacht führen? Nur als Kuriosum?

Sehr gute Frage.
Die meisten WOW-Spieler sind wohl keine SSAA oder "unter 200FPS kann ich nicht zocken!" -User.
Vielleicht liegt es an der absurden ultra high Schatteneinstellung, die fast jede aktuelle Grafikkarte an den Rand des unspielbaren treibt und kaum mehr Optik bringt.

Gast
2010-03-28, 17:07:20
du kannst mir glauben, ich habe alles von pcgh zur akuellen nvidia gesehen. und auch vorher mir einige tests angeschaut. die nvidia karten sind nett behandelt worden. ;)
Hast du auch mehr als nur den ersten Satz von mir gelesen? :rolleyes:

Gast
2010-03-28, 17:08:46
Schade, ich hab mich so einfach ausgedrückt.

Es werden verschiedene Preisbereiche verglichen.

Keine Ahnung was du nicht daran kapierst.
Ich frag auch gleich mal wer sich eine X1900 XT und wer sich eine 7600 GT gekauft haben. Hat eine ähnlich nicht vorhandene Aussagekraft.

Nur sind die 7600GT und die X1900XT nicht in der gleichen Leistungsklasse.
Die 5850 und die GTX470 schon.
Dass die 5850 ausgeschlossen wird nur weil sie "zu billig" ist halte ich für Unsinn.

AYAlf_2
2010-03-28, 17:10:05
Hast du auch mehr als nur den ersten Satz von mir gelesen? :rolleyes:
welche gast warst du noch gleich? :biggrin:

Gast
2010-03-28, 17:12:29
@AYAlf_2

Reg dich nicht auf bezüglich PCGH. So wie du sehen das eine Menge anderer Leute auch. Mich eingeschlossen.

Gast
2010-03-28, 17:16:01
Hier noch mal was bezüglich Stromaufnahme bei BR-Wiedergabe und Dual-Monitor Betrieb. Einfach nur krank die GTX480.

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php

Gast
2010-03-28, 17:17:20
Es werden verschiedene Preisbereiche verglichen.

Keine Ahnung was du nicht daran kapierst.Ich kappiere nicht warum man in einem Leistungsbereich noch zusätzlich nach Preisbereiche auflösen sollte. Hätte ATI 2010 300€ auf die Highend Modelle aufgeschlagen dann wären sie fein raus. Dann würde sich dir nach jeder Vergleich mit dem Fermi verbieten :|

Um herauszufinden welche Karten sich im Preisbereich absetzen braucht man keine Umfragen starten. Dafür reicht es 3 Gehirnzellen zu bemühen. Bei den meisten jedenfalls.

LovesuckZ
2010-03-28, 17:24:58
Hier noch mal was bezüglich Stromaufnahme bei BR-Wiedergabe und Dual-Monitor Betrieb. Einfach nur krank die GTX480.

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php

Jo, MM-Betrieb. Ohne zweitem Monitor verbraucht die Karte nicht mehr als die GT200 Karten.

Das sollte auch neu sein: nVidia's Antwort zum Stromverbrauch (ftp://ftp.hitechlegion.com/gtx480/A%20Perspective%20On%20Power.pdf)
http://www.hitechlegion.com/reviews/video-cards/3177?start=26

Gast
2010-03-28, 17:27:05
Meint ihr das NT reicht bei der Konfig?

Q9650 @3600@stock Volts
ein leiser Lüfter
8GB
Gigabyte UD3P
3 HDDs und 1SSD

Corsair 520 Watt

Wollte mir ne GTX470 zulegen bin aber skeptisch ob das NT das noch zulässt...

AnarchX
2010-03-28, 17:29:45
Hier noch mal was bezüglich Stromaufnahme bei BR-Wiedergabe und Dual-Monitor Betrieb. Einfach nur krank die GTX480.

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php
Was bei HT4u bei Bluray passiert ist etwas fraglich, siehe die Bluray-Messungen von HW.fr und CB:
http://www.hardware.fr/articles/787-4/dossier-nvidia-geforce-gtx-480.html
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/27/#abschnitt_bluraymultimonitorverbrauch

Exxtreme
2010-03-28, 17:31:15
Das sollte auch neu sein: nVidia's Antwort zum Stromverbrauch (ftp://ftp.hitechlegion.com/gtx480/A%20Perspective%20On%20Power.pdf)
http://www.hitechlegion.com/reviews/video-cards/3177?start=26
Nichtsagendes Marketing-Blabla ...

Gerade zum Idle-Verbrauch kein Sterbenswörtchen. Und daß man in drei ausgewählten Applikationen ein wenig besser da steht als die Konkurrenz hilft den Leuten auch nicht.

(del)
2010-03-28, 17:31:25
Sehr gute Frage.Find ich aber auch.

Die meisten WOW-Spieler sind wohl keine SSAA oder "unter 200FPS kann ich nicht zocken!" -User.
Vielleicht liegt es an der absurden ultra high Schatteneinstellung, die fast jede aktuelle Grafikkarte an den Rand des unspielbaren treibt und kaum mehr Optik bringt.Was mich interessieren würde wären min. FPS Vergleiche zwischen 5850/5870 und Fermi bei hochen Einstellungen und 1680x1050 / 1280x1024 (4xAA / 8x AF) Und nicht bei maximalen Einstellungen auf fullHD. Also etwas, wovon die meisten etwas hätten.

Zockerkarten mit Settings zu testen die Technologiestudien gerecht wären interessieren wieviele? Überraschendeweise scheint es auf HWluxx nicht so viele davon zu geben, wie vermutet...

Die Unterschiede zwischen max. und hoch sind bei den meisten Spielen noch weit weit weniger als zwischen FF13 auf PS3 und XB360. Da sind sie wenigstens auch beim Spielen erkennbar bzw. fallen auf.

Bis dann mal.

p.s.:
Ich finde es aber sehr ehrgeizig, daß NV beschloss in allen Belangen mit ATI wenigstens gleichzuziehen. Da reizt es schon ziemlich diese glorreichen "Gastbeiträge" zum Thema ATI, Verbrauch und MM-Betrieb wieder rauszukramen :ulol:

DrumDub
2010-03-28, 17:33:01
Was bei HT4u bei Bluray passiert ist etwas fraglich, siehe die Bluray-Messungen von HW.fr und CB:
http://www.hardware.fr/articles/787-4/dossier-nvidia-geforce-gtx-480.html
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/27/#abschnitt_bluraymultimonitorverbrauch na ja, auch ein 45% höherer stromverbrauch (cb) im mm-betrieb ist inakzeptabel. bei hw-fra wurde wohl nur mit einem display getestet.

Gast
2010-03-28, 17:34:01
Jo, MM-Betrieb. Ohne zweitem Monitor verbraucht die Karte nicht mehr als die GT200 Karten.

Das sollte auch neu sein: nVidia's Antwort zum Stromverbrauch (ftp://ftp.hitechlegion.com/gtx480/A%20Perspective%20On%20Power.pdf)
http://www.hitechlegion.com/reviews/video-cards/3177?start=26

Soll das lustig sein?
Ich such mir ein paar Benchmarks in denen ich gut dastehe und rechne dann die Perf/Watt aus.
Das ist doch keine Antwort auf den Vorwurf der generell zu hohen Leistungsaufnahme.

Spasstiger
2010-03-28, 17:36:11
Meint ihr das NT reicht bei der Konfig?

Q9650 @3600@stock Volts
ein leiser Lüfter
8GB
Gigabyte UD3P
3 HDDs und 1SSD

Corsair 520 Watt

Wollte mir ne GTX470 zulegen bin aber skeptisch ob das NT das noch zulässt...
Wenn dein Netzteil schon mit einem 6-Pin- und einem 8-Pin-PCIe-Stecker ausgestattet ist, kannst du es wagen. Bei einer alten Revision mit zwei 6-Pin-PCIe-Steckern würde ich es eher lassen und auf eine sparsamere Alternative warten oder eine HD 5870 kaufen.

AnarchX
2010-03-28, 17:36:32
Das sollte auch neu sein: nVidia's Antwort zum Stromverbrauch (ftp://ftp.hitechlegion.com/gtx480/A%20Perspective%20On%20Power.pdf)
http://www.hitechlegion.com/reviews/video-cards/3177?start=26
Wobei gerade bei Tessellation es so aussieht, also ob man hier auf Basis der TDP rechnet und nicht dem realen Verbrauch, den da soll wohl Cypress sehr wenig verbrauchen, wenn er von seinem Frontend limitiert wird.

Aber das sollten die Testseiten in einem Follow-up nochmal aufgreifen.

z3ck3
2010-03-28, 17:36:43
Hat jemand eine Ahnung wie viel Kubikmeter Luft die Lüfter der 470/480 pro Minute bewegen können? Sollte ich mir eine der Karten besorgen, würden die bei mir nur Milimeter vom 120mm Frontlüfter entfernt sein. Ich könnte mir vorstellen den Lüfter per selbstgebauten Fanduct mit der Graka zu verbinden und den Lüfter der Grafikkarte sogar zu entfernen. Die Frage ist dann nur wie Leistungsfähig der 120mm Lüfter sein sollte, oder ob das ganze schon von Anfang an zum scheitern verurteilt ist *g*

pest
2010-03-28, 17:36:54
Nichtsagendes Marketing-Blabla ...


Ich glaube das hat Bucklew geschrieben


We acknowledge that GTX 480 consumes more power than any other GPU we have produced.
However, it’s important to view its power in the context of what GTX 480 delivers.


:uconf2:

Gast
2010-03-28, 17:36:59
Aber 112W bei BR-Wiedergabe sind ja wohl extrem, dass sind mal so zum Verglecih 151% Mehrverbrauch gegenüber einer HD5970.

Vielleicht ist denen dann doch ein Fehler unterlaufen.

Spasstiger
2010-03-28, 17:39:53
Hat jemand eine Ahnung wie viel Kubikmeter Luft die Lüfter der 470/480 pro Minute bewegen können? Sollte ich mir eine der Karten besorgen, würden die bei mir nur Milimeter vom 120mm Frontlüfter entfernt sein. Ich könnte mir vorstellen den Lüfter per selbstgebauten Fanduct mit der Graka zu verbinden und den Lüfter der Grafikkarte sogar zu entfernen. Die Frage ist dann nur wie Leistungsfähig der 120mm Lüfter sein sollte, oder ob das ganze schon von Anfang an zum scheitern verurteilt ist *g*
Das ganze Design mit dem Loch im PCB ist für einen Radiallüfter ausgelegt. Wenn du den Axiallüfter vom Seitenteil anzapfst und den Originallüfter entfernst, dann musst du mindestens mal das Loch im PCB zukleben, sonst pustet die Luft einfach durch die Karte durch ohne den Kühler zu überstreichen.

LovesuckZ
2010-03-28, 17:41:37
Wobei gerade bei Tessellation es so aussieht, also ob man hier auf Basis der TDP rechnet und nicht dem realen Verbrauch, den da soll wohl Cypress sehr wenig verbrauchen, wenn er von seinem Frontend limitiert wird.

Aber das sollten die Testseiten in einem Follow-up nochmal aufgreifen.

Dafür skaliert man dann aber auch 1:1 zu Cypress: http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-15.html

Leider gibt man nicht an, welche Einstellung verwendet wurde.

AnarchX
2010-03-28, 17:42:19
na ja, auch ein 45% höherer stromverbrauch (cb) im mm-betrieb ist inakzeptabel. bei hw-fra wurde wohl nur mit einem display getestet.
Worauf beziehst du dich?
Der Single-Display-BR-Betrieb scheint laut CB und HW.fr in Ordnung im Vergleich zu anderen Karten zu sein. Da hat HT4u entweder mit mehr als einem Display gemessen oder ein anderes Problem ist aufgetreten.
Multi-Display ist natürlich auch bei CB inakzeptabel.

Bei TPU gibt es auch noch Direktmessungen:
http://techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html
85 Watt Bluray, die im Vergleich zu den anderen Karten, den 112 Watt bei HT4u entsprechen.

Da scheint es wohl ein Szenario zu geben, wo bei Bluray der höchste Powerstate aktiv wird.

Gast
2010-03-28, 17:43:27
Werden die neuen AA-Modi irgendwo genauer beleuchtet? Laut HWL kostet 32xCSAA ja doch nicht nur 10% Leistung sondern halbieren die FPS.

Gast
2010-03-28, 17:43:34
Ja bei der GTX480 ist schon ein bisschen Kreativität und Bastelei angesagt wenns um die Kühlung geht. Es soll sich auch positiv bemerkbar machen, wenn man die Metallplatte auf der Oberseite noch zusätzlich direkt belüftet.

LovesuckZ
2010-03-28, 17:45:43
Ja bei der GTX480 ist schon ein bisschen Kreativität und Bastelei angesagt wenns um die Kühlung geht. Es soll sich auch positiv bemerkbar machen, wenn man die Metallplatte auf der Oberseite noch zusätzlich direkt belüftet.

Im Grunde sollte es eine deutliche Verbesserung geben, wenn die Heatpipes per Lüfter angepustet werden. Immerhin sollte die Wärme dann ins Gehäuse gelangen und von den Rücklüfter raustransportiert werden.
Laut nvnews.net hat es ganze 11°C beim Furmark gebracht - hier aber mit geöffneten Gehäuse. Dabei blieb der Lüfter auf 55% stehen.

Zockmaschine
2010-03-28, 17:49:27
das war aber von vorne herein klar .. schau wer da arbeitet .. und wer hier im forum was schreibt .. pcgh ist leicht pro nvidia... wenn ich es mal so ausdruecken darf.

Ich hab schon an einigen Stellen im Netz gelesen, dass die klar gekauft sind...

Was mich bei nvidias Gebaren auch nicht wundern würde...

:rolleyes:

DrumDub
2010-03-28, 17:50:33
Multi-Display ist natürlich auch bei CB inakzeptabel.
nur das meinte ich.

edit: bei techpowerup beträgt unterschied 45w (gtx 480: 85w), also mehr als das doppelte der 5870 (40w). wobei die werte der 4870 (78w) auch katastrophal sind. wundert mich, dass das damals niemandem aufgefallen ist.

Gast
2010-03-28, 17:50:34
Das sollte auch neu sein: nVidia's Antwort zum Stromverbrauch (ftp://ftp.hitechlegion.com/gtx480/A%20Perspective%20On%20Power.pdf)
http://www.hitechlegion.com/reviews/video-cards/3177?start=26

Die Werte kommen niemals hin, sorry. Auch nicht in den drei ausgewählten Szenarien. Einzige Erklärung die mir einfällt ist das man die TDP genommen hat, die allerdings bei NV einfach nur erlogen ist.

Gast
2010-03-28, 17:53:58
Jo, MM-Betrieb. Ohne zweitem Monitor verbraucht die Karte nicht mehr als die GT200 Karten.

Das sollte auch neu sein: nVidia's Antwort zum Stromverbrauch (ftp://ftp.hitechlegion.com/gtx480/A%20Perspective%20On%20Power.pdf)
http://www.hitechlegion.com/reviews/video-cards/3177?start=26

Schon sehr ulkig wie sich NV ausgerechnet auf die Leistung/Watt bezieht, genau das wo man aber sowas von unterlegen ist. Die typische Leistungsaufnahme in Spielen liegt wie von mehreren Seiten verifiziert annähernd doppelt so hoch wie bei einer 5870. Die typische Leistung vielleicht 15% höher als bei einer 5870.

Dural
2010-03-28, 17:55:27
Die GTX480 ist die schnellste Karte Singlekarte momentan. Aber auch nur,weil sie auch Verbrauch und Lautstärke der Karte sch....en.

ATI könnte morgen eine Single CPU Karte auf den Markt bringen, der die GTX 480 hinter sich lässt.
ATI müsste nur die gleiche Schiene fahren und auf Leistung und Lauztstärke sch....en.

Oderr bezweifelt jemand,das eine auf GTX480 Niveau gepimpte Verlustleistung ATI karte nicht vor der GTX480 liegen würde??

Oder umgekehrt,eine GTX480 auf 5870 gedrosselt von der Verlustleistung her meilenweit hinter der 5870 liegen würde??

Deswegen ist die Fermi Karte eigentlich ein Totalflop,weil die Karte unter gleichen Vorraussetzungen langsamer ist als eine 5870.

Die GTX480 war einfach viel zu langsam für die 5870 und dann musste NVIDIA wohl den Schritt gehen,auf Lautstärke und Stromverbrauch nicht mehr zu achten und die GTX480 quasi so weit übertakten,das sie schneller ist als die 5870.

oder glaubt jemand, NVIDIA hat gesagt,Lautstärke und Stromverbrauch ist und scheissegal??

Nein,sie mussten Lautstärke und Stromverbrauch ignorieren,weil sie ansonsten langsamer gewesen wären als eine 5870 mit der GTX480.


Noch zum aller letzen mal WELCHE GEPIMTE LEISTUNG???

Die GTX480 hat weder einen hohen Takt (Sogar weniger ALU als GTX285) weder noch eine hohe Spannung auf der GPU, deine Aussage ist komplett Falsch! Zudem die GTX470 mit dem brutal geringen Takt ganz klar zeigt das überhaupt das Problem ganz wo anders ist...

Die Spannung der GPU auf der GTX480 beträgt nur 0,99Volt im Vergleich zu den 1,15Volt der 5870 sogar recht wenig... NV senkt ja nicht mal im Idle wirklich die Spannung, entweder weil es zu Probleme kommen könnte weil die Differenz sonst sehr hoch wäre, oder weil es schlicht nicht viel bringen würde! oder beides zusammen...

Zudem muss so ein Chip auch einen gewissen Betrag ein bringen... ein GF100 mit 448SP und 500/1000MHz würde vom Verbrauch sicher besser da stehen, aber wäre im gesamten gehen das noch schlechtere Produkt!

Ahja dein Satz AMD könnte morgen... lol wenn so ein Chip noch nicht in Entwicklung ist würde das locker min. ein Jahr dauern bis zur Auslieferung!

AnarchX
2010-03-28, 17:56:16
Bei Hartware.de gibt es ein paar Gesamtsystemverbrauchswerte der GTX 470 in Spielen:
http://www.hartware.de/review_1079_17.html
Mit den Benchmarks kombiniert ergibt sich folgendes Bild im Vergleich zur 5850:

+104W für ~20% Mehrleistung in Battleforge
+81W für ~0% Mehrleistung in Crysis
+119W für ~30% Mehrleistung in FarCry 2
+116W für ~9% Mehrleistung in Resident Evil 5

Raff
2010-03-28, 17:56:33
Bitteschön

http://www.files.to/get/854716/faya81pfed

oder da

http://rapidshare.com/files/369111366/AF-Test-Map.zip.html

aber nur 10 mal downloadbar bei rapidshare

edit: Hier eine neue Version bei der man direkt in der richtigen Blickrichtung startet, dass ermöglicht Vergleichsbilder.

http://ul.to/4fijhl

Danke! Funktioniert bei mir aber nicht, das Spiel bricht beim Laden der resources ab. Was muss denn wo rein?

MfG,
Raff

Gast
2010-03-28, 17:59:52
Bei Hartware.de gibt es ein paar Gesamtsystemverbrauchswerte der GTX 470 in Spielen:
http://www.hartware.de/review_1079_17.html
Mit den Benchmarks kombiniert ergibt sich folgendes Bild im Vergleich zur 5850:

+104W für ~20% Mehrleistung in Battleforge
+81W für ~0% Mehrleistung in Crysis
+119W für ~30% Mehrleistung in FarCry 2
+116W für ~9% Mehrleistung in Resident Evil 5


Und für Metro ^^
Diese Watt/Performance Vergleiche kann man getrost für alle GPUs machen, da sind nur wenige vertretbar, wenn man 150Watt unter Volllast im nicht Highend Bereich als Grenze nimmt.

Gast
2010-03-28, 18:00:16
Bei der c't stand was von 100W bei Dualmonitorbetrieb im Idle, ich glaube das sich da die 470 von der 480 nur marginal unterscheidet.
http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/27/#abschnitt_bluraymultimonitorverbrauch

CB, Wattangaben der GTX 480 im Vergleich zur HD5870.

2D-Betrieb 25 Watt Mehrverbrauch
2D-Betrieb 2 Monitore 88 Watt Mehrverbrauch

3D-Betrieb Crysis Warhead 147 Watt Mehrverbrauch bei ca. 5% höherer Framerate

Ronny145
2010-03-28, 18:00:47
Bei Hartware.de gibt es ein paar Gesamtsystemverbrauchswerte der GTX 470 in Spielen:
http://www.hartware.de/review_1079_17.html
Mit den Benchmarks kombiniert ergibt sich folgendes Bild im Vergleich zur 5850:

+104W für ~20% Mehrleistung in Battleforge
+81W für ~0% Mehrleistung in Crysis
+119W für ~30% Mehrleistung in FarCry 2
+116W für ~9% Mehrleistung in Resident Evil 5



Das ist echt heftig. Die performance/Watt Leistung stimmt hinten und vorne nicht.

Gast
2010-03-28, 18:02:38
Die typische Leistung vielleicht 15% höher als bei einer 5870.Über die Menge weit weniger. Bis zu 20% kriegt sie hin, wenn unter DX11 alles aufgefahren wird was aktuell geht.

Von dem was ich bis jetzt gesehen habe würde ich "typisch" von eher 10% sprechen.

Gast
2010-03-28, 18:03:57
Die Werte sind überall auch so unterschiedlich, dass man bei bestimmten Games garnicht sagen kann welche Karte eigentlich schneller ist. Bei ht4u.net z.B. unterliegt die GTX480 in sämtlichen Auflösungen und AA-Modi bei CoD:World at War sogar einer HD5850 und in Anno 1404 das gleiche gegenüber HD5870.

Gast
2010-03-28, 18:07:33
Das ist echt heftig. Die performance/Watt Leistung stimmt hinten und vorne nicht.

Wobei man schon erwähnen sollte das die 5850 der absolute Leistung/Watt-King ist. Es gibt keine Karte die mehr fps pro Watt liefert. Gegen die 5870 würde es zumindest etwas besser aussehen, auch wenn es trotzdem bei weitem nicht reicht.

Dural
2010-03-28, 18:08:22
jep ist so... bin gespannt ob die treiber noch was rausholen können oder nicht, bin mir da nicht so sicher...

Gast
2010-03-28, 18:09:11
Zudem die GTX470 mit dem brutal geringen Takt ganz klar zeigt das überhaupt das Problem ganz wo anders ist...Ich bitte dann um Aufklärung.

@Gast
Diese Watt/Performance Vergleiche kann man getrost für alle GPUs machen, da sind nur wenige vertretbar, wenn man 150Watt unter Volllast im nicht Highend Bereich als Grenze nimmt.Das ist auch nicht wirklich viel, wenn man schon 116W für 9% mehr FPS braucht, dann wären die 150Watt fast schon Netbookwerte :usweet:

mapel110
2010-03-28, 18:09:37
Vor allem wenn sich das durch die komplette Serie an Chips ziehen sollte(nvidia PDF zur Leistungsaufnahme), dann werden auch die Midrange-Chips uninteressant und GF100 hätte keine "besonderen Umstände", die zu der Leistungsaufnahme führen.

Aber daran will ich wirklich noch nicht glauben. Da wäre ich dieses Jahr total FFFFUUUU, Radeon zwar fürs allgemeine Daddeln interessant, aber wenn ich nun mal nicht auf die nvidia-Features verzichten will...

Gast
2010-03-28, 18:15:35
Wie ich schon mal sagte, wenn sich dieses Effizienzproblem als grundsätzliches Problem der Architektur herausstellen sollten, dann sieht das richtig böse für NV aus. Schließlich ist diese Architektur die Grundlage für die nächsten Jahre.

Iruwen
2010-03-28, 18:23:58
Wird GF104 nicht wesentlich kleiner und verbrät dadurch zwangsläufig eine ganze Ecke weniger Saft?

AnarchX
2010-03-28, 18:25:54
Wird GF104 nicht wesentlich kleiner und verbrät dadurch zwangsläufig eine ganze Ecke weniger Saft?
Natürlich, aber dadurch wird er ja auch langsamer und die Befürchtungen für eine ähnlich schlechte Pro-Watt-Leistung, abseits von direkten Tessellationsmessungen, besteht.

Gast
2010-03-28, 18:28:17
Klar wird GF104 wesentlich kleiner aus NV Sicht (in etwa so groß wie Cypress!) und verbraucht dann natürlich auch weniger Strom, aber er wird sich halt wieder an den Verbräuchen ect. der HD5750/5770/5830 messen lassen müssen.

Iruwen
2010-03-28, 18:28:26
Müsste der dafür nicht andere Vorteile wie z.B. höhere mögliche Taktraten haben die das zumindest teilweise abfedern? Die Architektur sollte doch auf gute Skalierbarkeit ausgelegt sein.

/e: warum gibts solche Kühllösungen wie die HIS IceQ oder Sapphire Vapor-X eigentlich nicht von Nvidia Partnern, oder seh ich das nur grad nicht? Wie wahrscheinlich ist es überhaupt dass ein Custom Design da noch viel reißt bei dem Monsterstockkühler?

anddill
2010-03-28, 18:46:26
Der Grafikchip an sich interessiert mich nicht, es war klar, daß der die Leistungskrone holen mußte. Aber die Platine und das Drumherum ist interessant. Mich würde mal interessieren, wie die die rund 300A (dreihundert Ampere!) bei Vollast durch die Spannungswandler und die Platine schleusen. Und durch die Chipanschlüsse. Ich bin da auf die Lebensdauer der Karten gespannt.
Und der Kühler ist wohl der leistungsfähigste Doppelslotkühler auf diesem Planeten, zumindest im Consumerbereich. Leisere Kühlung dürfte nur mit PC-füllenden Konstruktionen möglich sein.

Gast
2010-03-28, 18:53:47
"Crank it up", so bekommt man die 300A über die Karte. Bis dass die MOSFETs uns scheiden.

mictasm
2010-03-28, 18:54:20
300A?

Gast
2010-03-28, 18:54:54
Und trotz dieses HighEnd-Kühlkörpers + Turbinenlüfter schafft man es laut mehreren Reviews nicht die Temperaturen bei starker Spielelast unter 90C° zu halten und das bei maximaler Lüfterdrehzahl. Mir ist immer noch unklar wie das im Sommer funktionieren soll.

Gast
2010-03-28, 18:55:12
P = U x I

tombman
2010-03-28, 18:55:20
Bei all dem GeWHINE über Stromverbrauch müßte man ja denken, daß Nvidia bei der nächsten Generation keine leistungsmäßig konkurrenzfähige Karte liefern könnte, weil sie ja jetzt schon bei 1Volt Vcore, 300Watt Verbrauch, 100°C Coretemp und 3 Mrd. Transistoren angekommen sind- also bereits überall an die Limits gestoßen sind.

DAS will ich sehen, daß Nvidia keine Antwort auf einen AMD RV870 Refresh mehr hat- zumindest nicht in 40nm.

Da AMD ja "bald" 28nm mit GF hat, müßte NV eigentlich aus dem Gamingmarket verschwinden.

Nicht wahr, AMD Fanboys? ;)

Gast
2010-03-28, 18:56:08
Und trotz dieses HighEnd-Kühlkörpers + Turbinenlüfter schafft man es laut mehreren Reviews nicht die Temperaturen bei starker Spielelast unter 90C° zu halten und das bei maximaler Lüfterdrehzahl. Mir ist immer noch unklar wie das im Sommer funktionieren soll.

Was ist denn die maximale Lüfterdrehzahl von dem 21W Delta. Gibts irgendwo ein Datenblatt zu dem Ding?

Gast
2010-03-28, 18:56:23
300A?

Der Chip läuft nur mit etwas über 1V. Wobei natürlich nicht alle 300W nur für den Chip draufgehen.

mictasm
2010-03-28, 18:57:36
P = U x I
und die 300W der Karte wurden wo gemessen? hinter den Wandlern? :rolleyes:

Gast
2010-03-28, 18:58:08
Stümmt. Aber tombi will ja noch gnadenlos übertakten. Bis es raucht, möglicherweise nicht nur im übetragenen Sinne.

Gast
2010-03-28, 18:58:18
Bei all dem GeWHINE über Stromverbrauch müßte man ja denken, daß Nvidia bei der nächsten Generation keine leistungsmäßig konkurrenzfähige Karte liefern könnte, weil sie ja jetzt schon bei 1Volt Vcore, 300Watt Verbrauch, 100°C Coretemp und 3 Mrd. Transistoren angekommen sind- also bereits überall an die Limits gestoßen sind.

DAS will ich sehen, daß Nvidia keine Antwort auf einen AMD RV870 Refresh mehr hat- zumindest nicht in 40nm.


Das wirst du noch bald genug sehen. Mit dem Chip ist in 40nm erstmal Ende Gelände.

Gast
2010-03-28, 18:58:57
und die 300W der Karte wurden wo gemessen? hinter den Wandlern? :rolleyes:

Übertakter ftw. Das sind dann eher mehr.

mictasm
2010-03-28, 19:01:29
Übertakter ftw. Das sind dann eher mehr.
Hallo? Es wurde von 300A geredet, die gibt es aber nicht, da die gesamte Karte erstens nicht mit 1V läuft und zweitens wird sie warm^^

Gast
2010-03-28, 19:03:26
GF100.. Hmm Komplexer Bruteforce Chip den man kaum takten kann und ineffizient is er auch noch --> wasn da los?

Nicht gerade der beste Grundstein für die Zukunft.



Sind die 5D Shader doch die bessere Lösung?

Fetza
2010-03-28, 19:03:39
Bei all dem GeWHINE über Stromverbrauch

Um himmels willen, sachliche kritik sollte wirklich verboten werden!

Neben dem stromverbrauch fällt mir auch spontan die kranke lautstärke der lüfter ein, zu guter letzt überzeugt die performance nicht - man muss alle faktoren in relation zueinander setzen. Wer dann die karte noch gut findet kann sie gerne kaufen. Nvidia wird imoho keine großen chancen mit dem teil am markt haben, ausser sie drehen am preis, was wohl unmöglich ist da sie wirtschaftlich bleiben müssen.

Das potential des gf100 mag ja groß sein, aber nv sollte das teil dringend für den refresh überarbeiten.

Gast
2010-03-28, 19:05:22
Hallo? Es wurde von 300A geredet, die gibt es aber nicht, da die gesamte Karte erstens nicht mit 1V läuft und zweitens wird sie warm^^

Das meiste verbrät die GPU. Die läuft mit rund 1V, beim Übertakten kommt man durchaus dahin.

Mann, das sind grobe Schätzungen oder meinst du andill wollte den Strom hier auf 3 Stellen nach dem Komma angeben? :rolleyes:

AnarchX
2010-03-28, 19:07:50
Shamino ist schon bei 2,3 GHz:
http://j.imagehost.org/0792/p29713.jpg
http://www.evga.com/forums/tm.aspx?m=260420

anddill
2010-03-28, 19:09:50
Von den 300W Spitzenleistung dürfte der Löwenanteil an den Grafikchip gehen. Ok, die Wandler werden rund 90% Wirkungsgrad haben, so daß die Leistung nach den Wandlern bei rund 270W liegen dürfte. Ziehen wir noch 30W für den RAM ab (ist aber eher hoch gegriffen) bleiben 240W für den Grafikchip. Sind also etwas über 240A Strom durch die Balls.

mictasm
2010-03-28, 19:11:00
Das meiste verbrät die GPU. Die läuft mit rund 1V, beim Übertakten kommt man durchaus dahin.

Mann, das sind grobe Schätzungen oder meinst du andill wollte den Strom hier auf 3 Stellen nach dem Komma angeben? :rolleyes:

ich wette, dass die 3. stelle vor dem komma beim strom durch die gpu schon mindestens um 30% falsch ist.

andill? die wärme entsteht aus dem nichts?

Gast
2010-03-28, 19:11:07
Ich persönlich sehe leider auch GF104 mit sehr gemischten Gefühlen entgegen und glaube nicht das sie da bei der Effizienz im Vergleich zu AMD wesentlich besser darstehen werden. Sie haben daran ja auch bei GF100 bis zum Schluss gearbeitet und alles versucht, also kann man wohl davon ausgehen, dass das was wir jetzt bei GTX480/GTX470 sehen so ziemlich das Optimum dessen darstellt was momentan möglich ist.

Man stelle sich mal einen GF100 mit 512SPs und vielleicht auch noch höheren Takt vor. Das wäre ohne Wakü garnicht mehr machbar.

Gast
2010-03-28, 19:11:23
Und trotz dieses HighEnd-Kühlkörpers + Turbinenlüfter schafft man es laut mehreren Reviews nicht die Temperaturen bei starker Spielelast unter 90C° zu halten und das bei maximaler Lüfterdrehzahl. Mir ist immer noch unklar wie das im Sommer funktionieren soll.

Hätten die Karten mit dem ultralangen Vollkupferkühlkörper und dem Lüfter der R600-Protoypen ausliefern sollen. Der Lüfter hatte dort um die 2 Ampere, sprich 24 Watt und hätte auch für ordentlich Frischluft gesorgt. Aber halt auch ordentlich Radau. :D
Das wäre wirklich Crank it up gewesen und hätte das Biest auch in geschlossenen Gehäuse im Zaum gehalten. Bester und schönster Dual-Slot-Kühler mit Radiallüfter ever.

Hier ist das schöne Stück:
http://www.3dfx.ch/gallery/d/40332-1/ATi+Radeon+HD+2900+XTX+PCI-E+1024MB+512Bit+GDDR4+Rev_A1+0705+rear.JPG


http://www.3dfx.ch/gallery/d/40335-1/ATi+Radeon+HD+2900+XTX+PCI-E+1024MB+512Bit+GDDR4+Rev_A1+0705+top.JPG

AnarchX
2010-03-28, 19:11:35
Von den 300W Spitzenleistung dürfte der Löwenanteil an den Grafikchip gehen. Ok, die Wandler werden rund 90% Wirkungsgrad haben, so daß die Leistung nach den Wandlern bei rund 270W liegen dürfte. Ziehen wir noch 30W für den RAM ab (ist aber eher hoch gegriffen) bleiben 240W für den Grafikchip. Sind also etwas über 240A Strom durch die Balls.

Vergiss nicht den 20W Lüfter. :D

anddill
2010-03-28, 19:15:37
Die Karte setzt, wie alle PC-Komponenten, die zugeführte Leistung zu 99,999% in Wärme um. Nur das Ausgangssignal an den Anschlüssen mit ein paar µW verläßt die Karte nicht als Wärme.

Gast
2010-03-28, 19:16:52
Und etwa 0.5W Pressluft muss man auch noch abziehen.

anddill
2010-03-28, 19:19:22
Und etwa 0.5W Pressluft muss man auch noch abziehen.

Stimmt, da dürfte mehr Energie drin stecken als in den elektrischen Ausgangssignalen. So gesehen ist der 20W-Lüfter das effizienteste an der Karte. Also rein vom energetischen Standpunkt aus gesehen.

Byteschlumpf
2010-03-28, 19:19:36
Vielleicht würde es ja für den 2D-Part etwas bringen, einen Shrink des 9400M beim Refresh der neuen GTX einzusetzen - quasi als Hybrid-Karte? Der GF100b hätte dann nur unter 3D zu arbeiten. Für den MM-Betrieb müsste die 9400M GPU dann aber auch schnell genug sein!

(del)
2010-03-28, 19:20:11
Bei all dem GeWHINE über Stromverbrauch müßte man ja denkenEs geht doch nicht nur um den Strom. Bei der Zielgruppe die man anvisiert... Diese Gruppe ist aber eher, auch wenn die beiden Sachen zusammenhängen, von der Abwärme und der Kühlung nicht so angetan. Das ist das Problem.

Es dürfte trotzdem nicht zur Debatte stehen, daß 116W MEHR Verlustleistung für 9% mehr FPS etwas ist was man mit einem frühen Refresh lieber schnell in Vergessenheit geraten lassen sollte.

aß Nvidia bei der nächsten Generation keine leistungsmäßig konkurrenzfähige Karte liefern könnte
[...]
DAS will ich sehen, daß Nvidia keine Antwort auf einen AMD RV870 Refresh mehr hatKeine Frage. Sah man schon einmal an dem was nach FX kam.
Es geht hier aber um 470/480 und du hörst dich jetzt so an als wenn man jedenfalls diese mehr oder weniger schon abschreiben sollte :whistle:

Nicht wahr, AMD Fanboys? ;)Sagt... wer nun genau? ;)

mictasm
2010-03-28, 19:22:00
Die Karte setzt, wie alle PC-Komponenten, die zugeführte Leistung zu 99,999% in Wärme um. Nur das Ausgangssignal an den Anschlüssen mit ein paar µW verläßt die Karte nicht als Wärme.

Stimmt, da dürfte mehr Energie drin stecken als in den elektrischen Ausgangssignalen. So gesehen ist der 20W-Lüfter das effizienteste an der Karte. Also rein vom energetischen Standpunkt aus gesehen.

oh ja, du hast damit natürlich recht. ich sollte nicht posten, solange sich mein kopf über ein schreckliches spiel des hsv ärgert...

Labberlippe
2010-03-28, 19:22:39
Hi

Hoffen wir mal das nVIDIA nicht einen Treiber rausbringt wo die Lüftersteuerung wieder versagt.
Tja da hätte Big Bang eine ganz andere Bedeutung.

Also ich persönlich finde die Karte in dieser Form nicht akzeptabel.

Gruss Labberlippe

Dimon
2010-03-28, 19:23:47
Vielleicht würde es ja für den 2D-Part etwas bringen, einen Shrink des 9400M beim Refresh der neuen GTX einzusetzen - quasi als Hybrid-Karte? Der GF100b hätte dann nur unter 3D zu arbeiten. Für den MM-Betrieb müsste die 9400M GPU dann aber auch schnell genug sein!

Wäre wohl die beste Lösung, eine kleine Dedizierte Grafikeinheit für 2D und umschaltung auf 3D sobald es die lage erfordert.

Damit lässt sich ne menge Strom sparen :biggrin:

Daredevil
2010-03-28, 19:24:35
Ein 20w Lüfter???
Da wundert mich der Idle Verbrauch ja garnicht mehr. ;D

Gast
2010-03-28, 19:24:49
Oh Gott das darf ihnen keinesfalls passieren, dann gibts in minutenschnelle ein Haufen Tote.

Dimon
2010-03-28, 19:25:31
Ein 20w Lüfter???
Da wundert mich der Idle Verbrauch ja garnicht mehr. ;D

Der Lüfter arbeitet doch nicht mit vollast im 2D modus :biggrin:

Gast
2010-03-28, 19:29:27
Ein 20w Lüfter???
Da wundert mich der Idle Verbrauch ja garnicht mehr. ;D

Um genau zu sein handelt es sich um einen 21,6W Delta-Lüfter. 12V, 1,8A. ;)

Gast
2010-03-28, 19:29:35
Nah, da bangt nix, das Ding throttelt dann oder stürzt einfach ab. Aber vorher zeigt der 21W Delta, dass er auch in einem Handstaubsauger durchaus zu gebrauchen wäre.

In einem normalen Gehäuse, also nicht so ein Ding das nur aus Maschendraht besteht, mit 20 Lüftern, dürften die Karten im Sommer akustisch absolut unerträglich sein. Wenn sie denn da überhaupt noch ohne Fehler laufen. Vielleicht hätte man doch einen stärkeren Lüfter verbauen sollen, nur als Reserve. Inzwischen kommt mir der verbaute nicht mehr so oversized vor.

tombman
2010-03-28, 19:33:24
Sagt... wer nun genau? ;)
Ich hab nur ausgesprochen, was DIE denken ;) Schließlich muß das ganze auch 'ne Konsequenz außer "keine GTX4 kaufen"
haben. Ansonsten ist und bleibt es ein schön fettes WAYNE bei der Zielgruppe, denn diese will Phys-X, FPS und SLI.
Strom, Hitze und Lärm kann man mit entsprechenden Maßnahmen bekämpfen.

Im Gegenzug müßte man sich Phys-X dazuhacken und mit CF leben- kommt für mich nicht in Frage.

Gast
2010-03-28, 19:35:11
Nah, da bangt nix, das Ding throttelt dann oder stürzt einfach ab. Aber vorher zeigt der 21W Delta, dass er auch in einem Handstaubsauger durchaus zu gebrauchen wäre.

In einem normalen Gehäuse, also nicht so ein Ding das nur aus Maschendraht besteht, mit 20 Lüftern, dürften die Karten im Sommer akustisch absolut unerträglich sein. Wenn sie denn da überhaupt noch ohne Fehler laufen. Vielleicht hätte man doch einen stärkeren Lüfter verbauen sollen, nur als Reserve. Inzwischen kommt mir der verbaute nicht mehr so oversized vor.

Sie sollten mal bei AMD nachfragen, ob Sie noch Lüfter von der 2900XTX vorrätig haben:D

dargo
2010-03-28, 19:36:10
Ineffizient, LOL. Wie dreist kann man eigentlich sein? Da lässt du mal wieder schön den Fanboy raushängen.

Fermi:
Leistung/Watt -> Fail
Leistung/Transistor -> Fail
Leistung/mm² -> Fail.

Fermi verliert in jeder Effizienzstatistik um Häuser, einzig dank brute-force mit einem kaum herstellbaren Chip ist man minimal vorne.
So minimal wie hier? *hust*
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=23
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=24

Daredevil
2010-03-28, 19:36:45
Der Lüfter arbeitet doch nicht mit vollast im 2D modus :biggrin:
Ja, schon klar, aber selbst wenn er "nur" auf 30% läuft, sind das, wenn man das einfach so berechnen kann 6w und das wiederum sind ein wenig mehr als 10% des Idle Verbrauches von ~50w.
Und immerhin ~24% des Gesamtverbrauches einer HD5870, Sorry, aber der Vergleich musste noch sein.

Die GTX480 wird irgendwie immer verlockender, weil man nicht weiß, ob sie ihre Power wirklich noch umsetzen kann in zukünftigen Titeln..... mh.

Gast
2010-03-28, 19:37:28
In einem normalen Gehäuse, also nicht so ein Ding das nur aus Maschendraht besteht, mit 20 Lüftern, dürften die Karten im Sommer akustisch absolut unerträglich sein. Wenn sie denn da überhaupt noch ohne Fehler laufen. Vielleicht hätte man doch einen stärkeren Lüfter verbauen sollen, nur als Reserve. Inzwischen kommt mir der verbaute nicht mehr so oversized vor.
Die Zukunft wird wohl Triple-Slot lauten. Die nächste Generation von nvidia und ATI wird auch in 28nm deutlich mehr verbrauchen als eine 5870, wenn der Speed verdoppelt werden muss, auch bei gutem Performance/Watt-Verhältnis.
Sprich, wir werden mindestens auf 470-Niveau liegen. Das ist einfach der Lauf der Dinge, wenn man sich Grafikkartenhistorie Revue passieren lässt. Es ging immer nach oben. Leistung kostet halt.
Die PCIE-Specs werden dann halt angepasst.

tombman
2010-03-28, 19:40:22
Die GTX480 wird irgendwie immer verlockender, weil man nicht weiß, ob sie ihre Power wirklich noch umsetzen kann in zukünftigen Titeln..... mh.
In DX11 scheint sie ja zu herrschen- wird wahrscheinlich lange dauern, bis man damit nimmer auf max. Details gamen kann :)

Gast
2010-03-28, 19:42:08
So rein vom Sicherheitsaspekt wundert mich auch das nV kein Gitter vor den Delta gesetzt hat. Jetzt ohne Witz, das Ding hat mal richtig Power. Wenn man da beim Hantieren im offenen Gehäuse während des Betriebs reinlang dann spritzt Blut...

Sorkalm
2010-03-28, 19:43:00
In DX11 scheint sie ja zu herrschen- wird wahrscheinlich lange dauern, bis man damit nimmer auf max. Details gamen kann :)

Meinst du? Ist sie doch bspw. in Metro 2033 mit allen aktuellen Features jetzt schon.
Für DX11 finde ich sie eigentlich nur ab SLI sinnvoll. Eine ist doch immer nur zu langsam, und schneller als ne 5870 aber immer noch unspielbar bringt doch irgendwie auch nichts. Grade wenn man auch in die Zukunft schaut.

tombman
2010-03-28, 19:43:27
...Triple-Slot...
Die PCIE-Specs werden dann halt angepasst.
Da müßten sie aber dann die ATX Spec auch ändern, und die NTs und Gehäuse gleich mit dazu,
weil wie sollte sonst Triple-GPU funktionieren- mit 9 Slots?

Gast
2010-03-28, 19:45:39
So minimal wie hier? *hust*
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=23
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=24


So lame wenn hier immer Rosinen gepickt werden. Soll ich jetzt auch Werte raus holen wo die GTX480 von der 5870 gebügelt wird oder siehst du auch so ein dass das zu nichts führt?

Dimon
2010-03-28, 19:46:27
So rein vom Sicherheitsaspekt wundert mich auch das nV kein Gitter vor den Delta gesetzt hat. Jetzt ohne Witz, das Ding hat mal richtig Power. Wenn man da beim Hantieren im offenen Gehäuse während des Betriebs reinlang dann spritzt Blut...

Da erinnere ich mich an den HD4890 lüfter, hab mich daran verbrannt weil das teil so heidenschnell war :freak:

Bei diesen Lüfter muss man aufpassen das man den Finger nach der vermeintlichen berührung noch findet :usweet:

Megamember
2010-03-28, 19:46:47
So rein vom Sicherheitsaspekt wundert mich auch das nV kein Gitter vor den Delta gesetzt hat. Jetzt ohne Witz, das Ding hat mal richtig Power. Wenn man da beim Hantieren im offenen Gehäuse während des Betriebs reinlang dann spritzt Blut...

Wohl kaum, du kommst mit dem Finger ja höchstens an den Rand und die Lüfterblätter sind ja auch abgerundet. Und wer ist schon so blöd und Fingert da im vollen Betrieb rum.

Dimon
2010-03-28, 19:47:12
So lame wenn hier immer Rosinen gepickt werden. Soll ich jetzt auch Werte raus holen wo die GTX480 von der 5870 gebügelt wird oder siehst du auch so ein dass das zu nichts führt?

Dann zeig mal her wo eine GTX480 "deutlich" von einer HD5870 gebügelt wird :biggrin:

pest
2010-03-28, 19:48:15
So minimal wie hier? *hust*
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=19
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=20
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=21
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=23
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=24

hast du Cherry-Picking nötig?

der 61% Vorsprung in Battleforge schrumpft z.B. beim Vergleich mit mehreren Seiten auf 30% ;)

AYAlf_2
2010-03-28, 19:48:52
mich wuerden ehrlich gesagt die verkaufszahlen in porzent usa vs europa interessieren, 58xx vs 47x/48x.

koennte mir vorstellen, dass die amis eher auf den stromverbrauch pfeifen .. und die europaeer auf der green-it welle surfen.

Gast
2010-03-28, 19:49:02
Dann zeig mal her wo eine GTX480 "deutlich" von einer HD5870 gebügelt wird :biggrin:

Wo habe ich deutlich geschrieben? Aber es gibt sehr wohl einige Rechenintensive Szenen wo das der Fall ist. In Spielen allerdings kaum, da gebe ich dir recht.

tombman
2010-03-28, 19:49:19
Meinst du? Ist sie doch bspw. in Metro 2033 mit allen aktuellen Features jetzt schon.
Für DX11 finde ich sie eigentlich nur ab SLI sinnvoll. Eine ist doch immer nur zu langsam, und schneller als ne 5870 aber immer noch unspielbar bringt doch irgendwie auch nichts. Grade wenn man auch in die Zukunft schaut.
Zwingt einen ja keiner auf so hohen Auflösungen/AA zu spielen, 1280x800(720) reicht doch auch-
und dann reichts locker für Metro :)
Aber man bekommt eben alles zu sehen :cool:

Gast
2010-03-28, 19:49:29
Einfach einen anderen Test ansehen.
Man kann sich immer das Ergebnis so hinbenchen, wie man es haben will.
HW-Luxx schein wohl einen grünen Tag gehabt zu haben.
Zum Glück kann man Vergleichen.

Megamember
2010-03-28, 19:49:59
Dann zeig mal her wo eine GTX480 "deutlich" von einer HD5870 gebügelt wird :biggrin:

Pass auf gleich holt er den Crysis Bench raus wo sie 0,5FPS vorne liegt.

Gast
2010-03-28, 19:51:40
Wohl kaum, du kommst mit dem Finger ja höchstens an den Rand und die Lüfterblätter sind ja auch abgerundet.

Keine Ahnung, ich hab die Karte nicht hier. Wenn er sich nicht grundlegend von ähnlichen Konstrukten unterscheidet bin ich ziemlich sicher dass man mit dünnen Fingern/kleinem Finger/Kinderhänden da durchaus gefährlich reingreifen kann.

Und wer ist schon so blöd und Fingert da im vollen Betrieb rum.

Unfälle passieren, niemand hat sie hernach gewollt.

Gast
2010-03-28, 19:55:25
Ich hab eine GTX 275 im Rechner :)

Aber so ein 21W Lüfter hat wirklich ordentlich Wumms, dreht schnell, starke und damit schwere Magnete, dadurch ein irres Moment, wenn du da reinlangst lachst nicht mehr.

Da kann man sich auch als nV Benutzer doch durchaus Gedanken drum machen, findest du nicht?

dargo
2010-03-28, 19:56:07
So lame wenn hier immer Rosinen gepickt werden. Soll ich jetzt auch Werte raus holen wo die GTX480 von der 5870 gebügelt wird oder siehst du auch so ein dass das zu nichts führt?
Hier mal extra für dich damit ich mich nicht wiederholen muss:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7934855&postcount=28

Edit:
hast du Cherry-Picking nötig?

der 61% Vorsprung in Battleforge schrumpft z.B. beim Vergleich mit mehreren Seiten auf 30% ;)
Für dich ebenfalls. :)

Gast
2010-03-28, 19:57:05
Ich kappiere nicht warum man in einem Leistungsbereich noch zusätzlich nach Preisbereiche auflösen sollte. Hätte ATI 2010 300€ auf die Highend Modelle aufgeschlagen dann wären sie fein raus. Dann würde sich dir nach jeder Vergleich mit dem Fermi verbieten :|

Um herauszufinden welche Karten sich im Preisbereich absetzen braucht man keine Umfragen starten. Dafür reicht es 3 Gehirnzellen zu bemühen. Bei den meisten jedenfalls.
Nur sind die 7600GT und die X1900XT nicht in der gleichen Leistungsklasse.
Die 5850 und die GTX470 schon.
Dass die 5850 ausgeschlossen wird nur weil sie "zu billig" ist halte ich für Unsinn.
5850 und 470 sind nicht in der selben Klasse. Ebenso sind 5870 und 480 nicht in der selben Klasse.

5870 und 470 kann man vergleichen.

Dimon
2010-03-28, 19:58:01
Also so langsam drehen die Ati Jünger hier echt am Rad.;)

1,8A ist recht kräftig, man kann sich daran sicherlich verletzen, aber frage ich mich ernsthaft was kinderhände im PC zu suchen haben :rolleyes:

LovesuckZ
2010-03-28, 19:59:00
Vorallem, wenn gerade Furmark läuft...
Aber das sind eben diese nonsens Kommentare.

dildo4u
2010-03-28, 19:59:10
mich wuerden ehrlich gesagt die verkaufszahlen in porzent usa vs europa interessieren, 58xx vs 47x/48x.

koennte mir vorstellen, dass die amis eher auf den stromverbrauch pfeifen .. und die europaeer auf der green-it welle surfen.
Ich denke eher das ab eine bestimmten Kartenklasse 480/5970,der Stromverbrauch extrem Nebensächlich wird für die Käufer.Ferraris werden überall gut verkauft egal ob sie 20 Liter verbrauchen wenn man sie ausfährt Hauptsache Höstleistung.

Megamember
2010-03-28, 19:59:18
Ich meinte mit meinem Kommentar eigendlich den Gast der uns hier dauernd mit Nvidia-Bash Poesie beglückt.

Popeljoe
2010-03-28, 19:59:19
mich wuerden ehrlich gesagt die verkaufszahlen in porzent usa vs europa interessieren, 58xx vs 47x/48x.

koennte mir vorstellen, dass die amis eher auf den stromverbrauch pfeifen .. und die europaeer auf der green-it welle surfen.
Tja, wir wählen eben Merkel statt Bush...
Nee, hast schon Recht: mit Brute Force kannst du die Amis eher beeindrucken, als die Europäer. ;)

tombman
2010-03-28, 20:00:56
Ebenso sind 5870 und 480 nicht in der selben Klasse.
Genau, alle Reviewer sind dumm- nur du hast es gepeilt ;D

Stärkste Single Gpu vs stärkste Single Gpu in vergleichbarer Generation = selbe Klasse. BASTA.

LovesuckZ
2010-03-28, 20:01:13
Tja, wir wählen eben Merkel statt Bush...
Nee, hast schon Recht: mit Brute Force kannst du die Amis eher beeindrucken, als die Europäer. ;)

Hm, GF100 ist in keinsterweise Bruteforce.

Gast
2010-03-28, 20:01:51
Dann zeig mal her wo eine GTX480 "deutlich" von einer HD5870 gebügelt wird :biggrin:


http://www.anandtech.com/video/showdoc.aspx?i=3783&p=14
http://www.anandtech.com/video/showdoc.aspx?i=3783&p=13
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index30.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index31.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index32.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index33.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index34.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index35.php

Was soll der Quatsch. Ich könnte jeztz noch etliche Benches posten in denen die GTX480 langsamer als die HD5870 ist. Sie ist natürlich insgesamt schneller, aber nur deutlich in DX11 (ohne DX11 sind es im Durchschnitt meist keine 10%). Was die HD5870 nicht flüssig darstellen kann, kann auch die GTX480 in 99% der Fälle nicht. Nochmal ob ich 70 oder 83 Fps habe ist total egal.

Gast
2010-03-28, 20:03:47
Da müßten sie aber dann die ATX Spec auch ändern, und die NTs und Gehäuse gleich mit dazu,
weil wie sollte sonst Triple-GPU funktionieren- mit 9 Slots?
Stimmt. Das könnte mannshhohe Multi-GPU zertifizierte Gehäuse- und Mainboards geben. :D Ok, unwahrscheinlich.
Oder es wird das Problem über Versionen mit mitgelieferten Minikomplettwasserkühlungen gelöst, falls jemand keine haben sollte - man könnte trennen nach Multi-GPU-kompatiblen Karten mit Wasserkühler montiert und mit welche mit Miniwasserkomplettkühlung.
Dazu gäbe es Single-GPU-Karten mit Triple-Slotkühlung.
Das wäre die einfachste Möglichkeit und wohl auch die realistischste.
Wenn man es so betrachtet, bietet die Zukunft für Hersteller und Kunden neue, spannende, vielfältige Lösungen.

Jake Dunn
2010-03-28, 20:06:20
Ich denke eher das aber eine bestimmten Kartenklasse 480/5970 der Stromverbrauch extrem Nebensächlich wird für die Käufer.Ferraris werden überall gut verkauft egal ob sie 20 Liter verbrauchen wenn man sie ausfährt Hauptsache Höstleistung.

Das ist doch BS ;)

Stromkosten o.k. muß jeder mit sich ausmachen, aber die Abwärme aus dem PC im Sommer wo man schon ganz "gute" Raumtemp. hat, ist doch nach 3-4h zocken nochmal 3-5° höher je nach Zimmergröße ^^

Dimon
2010-03-28, 20:06:38
http://www.anandtech.com/video/showdoc.aspx?i=3783&p=14
http://www.anandtech.com/video/showdoc.aspx?i=3783&p=13
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index30.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index31.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index32.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index33.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index34.php
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index35.php

Was soll der Quatsch. Ich könnte jeztz noch etliche Benches posten in denen die GTX480 langsamer als die HD5870 ist. Sie ist natürlich insgesamt schneller, aber nur deutlich in DX11 (ohne DX11 sind es im Durchschnitt meist keine 10%). Was die HD5870 nicht flüssig darstellen kann, kann auch die GTX480 in 99% der Fälle nicht. Nochmal ob ich 70 oder 83 Fps habe ist total egal.

Außer in COD und denn niedrigen auflösungen sehe ich keine vorteile für die HD5870..

Verarschen kannst du dich selbst ;)

Megamember
2010-03-28, 20:07:34
Das ist doch BS ;)

Stromkosten o.k. muß jeder mit sich ausmachen, aber die Abwärme aus dem PC im Sommer wo man schon ganz "gute" Raumtemp. hat, ist doch nach 3-4h zocken nochmal 3-5° höher je nach Zimmergröße ^^


Als ob das an der Raumtemp was ändert ob du jetzt 160W 5870 oder 250W Fermi hast, ausser du hast ne 2X2m Besenkammer.

dildo4u
2010-03-28, 20:08:44
Das ist doch BS ;)

Stromkosten o.k. muß jeder mit sich ausmachen, aber die Abwärme aus dem PC im Sommer wo man schon ganz "gute" Raumtemp. hat, ist doch nach 3-4h zocken nochmal 3-5° höher je nach Zimmergröße ^^
Das hast du bei der 5970 auch oder bei einem Crossfire SLI mit 5870 oder GTX 280.

Jake Dunn
2010-03-28, 20:09:46
Das hast du bei der 5970 auch oder bei einem Crossfire SLI mit 5870 oder GTX 280.

Richtig, würde ich auch nicht kaufen :)

tombman
2010-03-28, 20:11:12
Stimmt. Das könnte mannshhohe Multi-GPU zertifizierte Gehäuse- und Mainboards geben. :D Ok, unwahrscheinlich.
Oder es wird das Problem über Versionen mit mitgelieferten Minikomplettwasserkühlungen gelöst, falls jemand keine haben sollte - man könnte trennen nach Multi-GPU-kompatiblen Karten mit Wasserkühler montiert und mit welche mit Miniwasserkomplettkühlung.
Dazu gäbe es Single-GPU-Karten mit Triple-Slotkühlung.
Das wäre die einfachste Möglichkeit und wohl auch die realistischste.
Wenn man es so betrachtet, bietet die Zukunft für Hersteller und Kunden neue, spannende, vielfältige Lösungen.
Nachdem Tom Petersen eine Corsair H50 auf seiner Cpu hat, könnte ich mir wunderbar vorstellen,
wie die nächste NV-Tech im Geforce-Bereich mit
Miniwasserkomplettkühlung (mit Raddi/Pumpe im 5 1/4" Einbauschacht) kommt ;D
NVidia würde ich sowas zutrauen, AMD nicht :)

derguru
2010-03-28, 20:11:22
solang sich die lautstärke fast verdoppelt hat im idle und in last ist die karte eigentlich nicht zugebrauchen und nicht mal ansatzweise alltagstauglich,und wenn sie doppelt so schnell wäre.sorry aber wer will sich das antun,da hilft ja nicht mal wenn man sich kopfhörer aufsetzt.

hat nicht jeder eine kleines kämmerlein wie tombman übrig für den pc.für die 480 gibt es nicht mal eine zielgruppe,wenn überhaupt dann die alles unterwasser setzen.

pest
2010-03-28, 20:11:29
Für dich ebenfalls. :)

was hat die Variation über mehrere Review-Seiten mit dem Treiber zu tun?

Gast
2010-03-28, 20:12:21
Außer in COD und denn niedrigen auflösungen sehe ich keine vorteile für die HD5870..

Verarschen kannst du dich selbst ;)


Bitte da sind immer auch 1920x1080 bzw. 2560x1600 dabei. Eigentlich müsste es ja unmöglich sein, dass die GTX480 überhaupt gegen die HD5870 verliert. Nein sie verliert auch schon mal gegen die HD5850. Sie ist schneller, aber beeindruckend oder überragend ist das nicht mal ansatzweise.

Gast
2010-03-28, 20:12:28
Nachdem David Kirk eine Corsair H50 auf seiner Cpu hat, könnte ich mir wunderbar vorstellen,
wie die nächste NV-Tech im Geforce-Bereich mit
Miniwasserkomplettkühlung (mit Raddi/Pumpe im 5 1/4" Einbauschacht) kommt ;D
NVidia würde ich sowas zutrauen, AMD nicht :)

Dave Kirk wurde längst abgesägt bei Nvidia, jetzt weiß man auch warum.

Undertaker
2010-03-28, 20:13:07
Ja, schon klar, aber selbst wenn er "nur" auf 30% läuft, sind das, wenn man das einfach so berechnen kann 6w und das wiederum sind ein wenig mehr als 10% des Idle Verbrauches von ~50w.

Für 30% Maximaldrehzahl wird der Lüfter sicherlich nichteinmal annähernd 30% der Maximalleistung brauchen.

dildo4u
2010-03-28, 20:14:10
Richtig, würde ich auch nicht kaufen :)
Dann bist du halt nicht die Zielgruppe für diese Karten.Wenn dir die Leistung der 5870 oder 470 reicht hat NV ja auch eine Karte die weniger Nachteile hat was Stromverbrauch bzw Abwärme angeht.Sind ein paar mher Watt als die ATI ok dafür gibt's halt bessere Tesslationsleistung,PhysX und mher V-Ram.

Gast
2010-03-28, 20:14:27
Als ob das an der Raumtemp was ändert ob du jetzt 160W 5870 oder 250W Fermi hast, ausser du hast ne 2X2m Besenkammer.

Als ich meinen uralten 19" CRT gegen einen 22" TFT auswechselte merke man das durchaus angenehm an der Raumtemperatur im Sommer. Echt ohne Flax jetzt.

tombman
2010-03-28, 20:17:03
Dave Kirk wurde längst abgesägt bei Nvidia, jetzt weiß man auch warum.
Ok, war doch wer anderer- kann mir diese Namen nicht merken.

EDIT: Tom Petersen wars ;)

http://www.pcgameshardware.de/screenshots/medium/2009/12/Nvidia-Geforce100-Fermi-SLI-fun-pic-of-the-week.jpg

AYAlf_2
2010-03-28, 20:17:12
Tja, wir wählen eben Merkel statt Bush...
Nee, hast schon Recht: mit Brute Force kannst du die Amis eher beeindrucken, als die Europäer. ;)
ich dachte bei meinem vergleich eher an autos .. dein vergleich hinkt etwas... meinst du nicht?

dargo
2010-03-28, 20:17:55
was hat die Variation über mehrere Review-Seiten mit dem Treiber zu tun?
Falls du dich auf Battleforge beziehst mit den unterschiedlichen Werten - eventuell wurden verschiedene Szenen getestet. Keine Ahnung welche Möglichkeiten dieses Spiel dafür bietet.

Gast
2010-03-28, 20:20:50
Dann bist du halt nicht die Zielgruppe für diese Karten.Wenn dir die Leistung der 5870 oder 470 reicht hat NV ja auch eine Karte die weniger Nachteile hat was Stromverbrauch bzw Abwärme angeht.Sind ein paar mher Watt als die ATI ok dafür gibt's halt bessere Tesslationsleistung,PhysX und mher V-Ram.


Aber da ihr ja solche Enthusiasten seit, müsste euch doch besonders die Leistung in extremen Settings interessieren und da frage ich nochmal, warum eigentlich die GTX480 sehr oft gerade in 2560x1600 stärker einbricht als die HD5870 und das trotz des größeren VRams.

Während es auf 1680x1050 teilweise noch sehr gute 20-30% Vorsprung sins, sind es dann oft im selben Game auf 2560x1600 nur noch 5%.

Gast
2010-03-28, 20:30:33
weil dann die cpu limitiert!?

Gast
2010-03-28, 20:35:11
weil dann die cpu limitiert!?

Bei höherer Auflösung bestimmt...

AnarchX
2010-03-28, 20:53:25
Prolimatech MK-13: Messergebnisse @ HD5850
Durchdacht: Eine Blendenhalterung fixiert die Lüfterschiene - Entlastung für die Grafikkarte. Ein Rotor wird variabel verschraubt oder mit Entkopplern montiert, bei mehreren kommen Kabelbinder zum Einsatz. Selbst mit nur einem Silent Wings USC bei 7 Volt (rund 900 U/min) schlägt der MK-13 die versammelte Konkurrenz mit flüsterleisen 0,2 Sone, egal ob GPU oder Wandler - selbst 1,3 Volt GPU-Spannung und 1.050 MHz Chiptakt stören den Riesen nicht. Der Platzbedarf des Prolimatech-Kühlers ist allerdings exorbitant.
http://www.pcgameshardware.de/aid,706952/Prolimatech-MK-13-VGA-Kuehler-mit-Kompatibilitaet-fuer-Geforce-GTX-480-im-Kurztest/Grafikkarte/Test/

Das wäre wohl dann die Verbrauchsregion einer GTX 480: http://www.xbitlabs.com/articles/video/display/gpu-power-consumption-2010_4.html#sect0

Damit sollte sich wohl eine GTX 480 bei <1 Sone kühlen lassen.

Gast
2010-03-28, 20:55:16
Aber da ihr ja solche Enthusiasten seit, müsste euch doch besonders die Leistung in extremen Settings interessieren und da frage ich nochmal, warum eigentlich die GTX480 sehr oft gerade in 2560x1600 stärker einbricht als die HD5870 und das trotz des größeren VRams.

Während es auf 1680x1050 teilweise noch sehr gute 20-30% Vorsprung sins, sind es dann oft im selben Game auf 2560x1600 nur noch 5%.


VRAM-Bug?

Spasstiger
2010-03-28, 20:55:43
Während es auf 1680x1050 teilweise noch sehr gute 20-30% Vorsprung sins, sind es dann oft im selben Game auf 2560x1600 nur noch 5%.
Das Verhältnis von Geometrielast zu Pixellast verschiebt sich Richtung Pixellast. Und dann kann die HD 5870 ihre hohe Rechenleistung und Texelfüllrate besser ausspielen.

Gast
2010-03-28, 20:58:55
http://www.pcgameshardware.de/aid,706952/Prolimatech-MK-13-VGA-Kuehler-mit-Kompatibilitaet-fuer-Geforce-GTX-480-im-Kurztest/Grafikkarte/Test/

Das wäre wohl dann die Verbrauchsregion einer GTX 480: http://www.xbitlabs.com/articles/video/display/gpu-power-consumption-2010_4.html#sect0

Damit sollte sich wohl eine GTX 480 bei <1 Sone kühlen lassen.

Ja sehr schön wenn 300W im Gehäuse umgequirlt werden statt direkt nach draussen abzublasen. Da freut sich der Rest des Rechners.

dargo
2010-03-28, 21:02:20
http://www.pcgameshardware.de/aid,706952/Prolimatech-MK-13-VGA-Kuehler-mit-Kompatibilitaet-fuer-Geforce-GTX-480-im-Kurztest/Grafikkarte/Test/

Das wäre wohl dann die Verbrauchsregion einer GTX 480: http://www.xbitlabs.com/articles/video/display/gpu-power-consumption-2010_4.html#sect0

Damit sollte sich wohl eine GTX 480 bei <1 Sone kühlen lassen.
Ich frage mich bei solchen Daten - wie kann es noch funktionieren? Ich meine, die 300W sollten mit solchem OC längst weit überschritten sein.

AnarchX
2010-03-28, 21:02:39
Ja sehr schön wenn 300W im Gehäuse umgequirlt werden statt direkt nach draussen abzublasen. Da freut sich der Rest des Rechners.
Bei einer vernünftigen Gehäusebelüftung ist das jedenfalls sinnvoller, als die 7-12 Sone, wenn die GTX 480 ihre Abwärme selbst aus dem Gehäuse führt.
Ich frage mich bei solchen Daten - wie kann es noch funktionieren? Ich meine, die 300W sollten mit solchem OC längst weit überschritten sein.
Der Kühlertest war mit einer HD 5850, die mit 1,3V und 1GHz aber auch deutlich über 200W kommt.

tombman
2010-03-28, 21:03:58
Ja sehr schön wenn 300W im Gehäuse umgequirlt werden statt direkt nach draussen abzublasen. Da freut sich der Rest des Rechners.
Ist trotzdem eine schöne Lösung für Leute ohne Wakü...

Spasstiger
2010-03-28, 21:04:08
Ich frage mich bei solchen Daten - wie kann es noch funktionieren? Ich meine, die 300W sollten mit solchem OC längst weit überschritten sein.
Der Kühler wurde auf einer HD 5850 getestet.
Bei der GTX 480 gibts echt nur zwei Optionen in Sachen Kühlung: Den Prolimatech mit kräftiger Gehäuseentlüftung oder Wakü. Selbst zwei GTX 295 dürften einfacher zu kühlen sein, weil deutlich weniger Abwärme pro GPU-Fläche anfällt und somit die Temperaturen deutlich unkritischer bleiben.
Ok, Option 3 gibt es auch noch: PC in einen Extra-Raum stellen.

tombman
2010-03-28, 21:05:31
Ich frage mich bei solchen Daten - wie kann es noch funktionieren? Ich meine, die 300W sollten mit solchem OC längst weit überschritten sein.
Die 1.3vgpu etc Angaben beziehen sich auf die HD5850- nur diese wurde getestet!!
Hab ich auch erst denken müssen...

dargo
2010-03-28, 21:06:12
Ops, sorry. Man sollte das verlinkte erst richtig lesen. :redface:

Gast
2010-03-28, 21:06:15
Bei einer vernünftigen Gehäusebelüftung ist das jedenfalls sinnvoller, als die 7-12 Sone, wenn die GTX 480 ihre Abwärme selbst aus dem Gehäuse führt.

Ja wenn man ein Gehäuse offen wie ein Schweizer Käse hat (= viele Lärmbrücken nach draussen, ungedämpft) und 6 Gehäuselüfter die ihr unermüdliches Lied singen, dann geht auch das irgendwie.

Ich möchte so einen Staubsammler nicht.

dildo4u
2010-03-28, 21:07:07
Ist zwar ne Mix Einstellung aber die Min fps sind sher gut,die Karte könnte für Crysis besser sein als die ganzen avg Werte vermuten lassen.

http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22165.png

http://www.anandtech.com/video/showdoc.aspx?i=3783&p=9

boxleitnerb
2010-03-28, 21:12:12
Ein Minwert sagt grad mal gar nix aus.

dildo4u
2010-03-28, 21:15:52
Ein Minwert sagt grad mal gar nix aus.
Anandtech meint schon.

We’ve also gone ahead and recorded the minimum framerates for Crysis, as in our testing we’ve found the minimums to be very reliable. And in doing so, we have some data even more interesting than the averages. The GTX 400 series completely tramples the 5000 series when it comes to minimum framerates, far more than we would have expected. At 2560 Crysis is approaching a video RAM limitation in our 1GB and under cards, which gives the GTX 480 cards a clear lead at those resolutions. But even at lower resolutions where we’re not video RAM limited, the GTX 480 still enjoys a 33% lead in the minimum framerate, and the GTX 470 is well ahead of the 5850 and even slightly ahead of the 5870.

For whatever reason AMD can’t seem to keep up with NVIDIA when it comes to the minimum framerate, even at lower resolutions

Eggcake
2010-03-28, 21:17:58
Also reine MinimumFPS vergleichen halte ich für komplett sinnlos. Man muss sie immer in Bezug zu den Avg-Werten setzen. Bei Anand führt die GTX480 in Crysis auch bei den Avg-Werten deutlich. Dass man generell höhere MinFPS bei höheren Avg-Werten hat, ist ja eigentlich klar. Deshalb: immer ins Verhältnis zu diesen setzen.

Dann wird's auch viel deutlicher. Die MinFPS der GTX480 bei diesem Beispiel liegen bei ~75% des AVg.-Wertes, diejenigen der HD5870 liegen im 60er Bereich.

Gast
2010-03-28, 21:19:55
PCGH meint was anderes und nun?

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=10

dildo4u
2010-03-28, 21:20:18
Bei Anand führt die GTX480 in Crysis auch bei den Avg-Werten deutlich.

Nich wirklich bei den min fps ist der Unterschied viel deutlicher,die 5870 ist bei avg schneller als die 470 bei den min fps langsamer.

Exxtreme
2010-03-28, 21:20:30
Anandtech meint schon.
Man sollte schon mehrere Minimum-Werte nehmen damit irgendwelche zufälligen Ausreisser nicht absolut in die Bewertung einfliessen.

Eggcake
2010-03-28, 21:21:42
Ist zwar ne Mix Einstellung aber die Min fps sind sher gut,die Karte könnte für Crysis besser sein als die ganzen avg Werte vermuten lassen.

http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22165.png

http://www.anandtech.com/video/showdoc.aspx?i=3783&p=9
Nich wirklich bei den min fps ist der Unterschied viel deutlicher,die 5870 ist bei avg schneller als die 470 bei den min fps langsamer.

Hallo? Das schreibe ich ja, aber wenn du nur ein Bild der Min-Werte postest ist das reichlich sinnlos.

dildo4u
2010-03-28, 21:24:37
Man sollte schon mehrere Minimum-Werte nehmen damit irgendwelche zufälligen Ausreisser nicht absolut in die Bewertung einfliessen.
Testen halt zu wenige Seiten ist was was wir dann hier selber nachprüfen müssen.In verschiedenen Level etc.

Gast
2010-03-28, 21:24:58
Und bei PCGH sind die min. Fps der HD5870 immer besser als die avg. Fps der GTX470.

boxleitnerb
2010-03-28, 21:31:44
Ein Frameverlauf wäre viel gescheiter, als auf einem Wert rumzureiten oder irgendwelche Verhältnisrechnungen anzufangen.
Damit es auch zahlenmäßig schnell zu erfassen ist, wie damals beim Fear Benchmark zusätzlich noch eine kleine Tabelle aufstellen:

unter 20 fps: 18%
unter 25 fps: 24%

usw.

Viel sinniger als jeweils ein Avg und ein Min Wert.

Gast
2010-03-28, 21:36:01
Ist frage mich gerade wo das schon mal passiert ist, das in einer frühen "Revision" vielleicht sogar eines "Shrinks" eines Grafikkartenchips die Qualität nicht so besonders war?
Ich glaube es gab sowas schon mal bei beiden Grafkkarten Herstellern und zwar garnicht so lange her. Wurde dann aber auch in einem Refresh verbessert soweit ich mich erinnere.

Gast
2010-03-28, 21:38:03
Außerdem testet anandtech mit Gamer-Settings und nur Shaders auf Enthusiast und somit zumindest für mich uninteressant, da ich nur auf Enthusiast spiele.

tombman
2010-03-28, 21:41:39
Ist doch alles wayne, da C. sowieso Multi-Gpu braucht auf FHD + AA + Enthusiast...
Ob die eine oder andere Karte jetzt +- 2fps im 30fps ist, hat keine Bedeutung- da muß MGpu ran um im sorgenfreien Bereich zu zocken.
Ne Single Gpu wird das erst 2011 packen- 4 Jahre nach Erscheinen des Games :ugly:

Gast
2010-03-28, 21:44:40
Ja das ist echt heftig. Gab es sowas eigentlich schon mal, dass es mehrere GPU-Gens benötigte damit ein im Prinzip Uralt-Game richtig läuft.

Obwohl bei Crysis wohl einiges bei der Optimierung brach liegt.

Jake Dunn
2010-03-28, 21:45:24
Testen halt zu wenige Seiten...

Ja, weil es nicht einfach ist und zuviele Sachen des Ergebnis verfälschen koennen ;)

Ich hatte bei Ungine 2.0 auch mit einem "anderen" Treiber 47% mehr min. FPS (auch bei mehr als einem Run), das konnten andere User aber nicht bestättigen ^^

Gast
2010-03-28, 21:47:08
Es bleibt halt festzuhalten, dass die GTX4xx keinen Performancevorteil in Crysis bieten und zum Teil je nach Review sogar langsamer sind.

Spasstiger
2010-03-28, 22:04:35
Hab mal die Ergebnisse des Wireless Security Auditor (Passwort-Knacker) von Elcommsoft zusammengefasst. Die Tesla S2070 ist geschätzt anhand dem Ergebniss der GTX 480 und den von NV veröffentlichten Eckdaten der Tesla S2070.

http://www.abload.de/img/elcommsoftx7k7.png

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479437

Gipsel
2010-03-28, 22:10:09
Hab mal die Ergebnisse des Wireless Security Auditor (Passwort-Knacker) von Elcommsoft zusammengefasst. Die Tesla S2070 ist geschätzt anhand dem Ergebniss der GTX 480 und den von NV veröffentlichten Eckdaten der Tesla S2070.Zur Erinnerung für die Anderen, die Tesla S####-Kisten haben wohlgemerkt 4 GPUs drin.

Gast
2010-03-28, 22:14:51
Man kann sich immer das Ergebnis so hinbenchen, wie man es haben will.
HW-Luxx schein wohl einen grünen Tag gehabt zu haben.

wenn einem das Ergebnis nicht in den Kragen passt, dann wird
da wohl was nicht stimmen, gelle ? ^^

Ich denke eher das ab eine bestimmten Kartenklasse 480/5970,der Stromverbrauch extrem Nebensächlich wird für die Käufer.Ferraris werden überall gut verkauft egal ob sie 20 Liter verbrauchen wenn man sie ausfährt Hauptsache Höstleistung.

da mein Beitrag grundlos gelöscht wurde, werd ich nochmal was dazu bemerken

Ferrari, Porsche usw. sind Erzeugnisse wo man nicht selbst Hand anlegen muss das es rund läuft bzw. so läuft wie es laufen soll. Da bekommt man
auch was für sein Geld geboten. Fermi hingegen ist ein Prototyp der so
nicht hätte auf dem Markt erscheinen dürfen.

Option 3 gibt es auch noch: PC in einen Extra-Raum stellen.

Der Vorschlag zwei Systeme (extra Gaming PC um Strom zu sparen) zu betreiben ist schon irgendwie witzig, aber das ist die Spitze des Eisberges.
Warum sich so derart einschränken lassen nur um die schnellste SGPU zu
betreiben?

Gast
2010-03-28, 22:18:29
Zur Erinnerung für die Anderen, die Tesla Sxxxx-Kisten haben wohlgemerkt 4 GPUs drin.

S2070 das Stück zu 18995$, 900 Watt Abwärme

corvus
2010-03-28, 22:21:40
:lol:
die jenigen die es "brauchen" werden sichs immer so hinlegen ums zu rechtfertigen, egal wo und was...hier isses Furby...mega WAKÜ...anderer Raum etc.pp. wieso schreibt eigendlich noch einer über so viel Bockmiß?

Laßt sie machen wie sie wollen und können und gut ist. In 3 Tagen verläuft der Fred im Sand..nicht immer füttern :D

ChaosTM
2010-03-28, 22:31:46
Ist doch alles wayne, da C. sowieso Multi-Gpu braucht auf FHD + AA + Enthusiast...
Ob die eine oder andere Karte jetzt +- 2fps im 30fps ist, hat keine Bedeutung- da muß MGpu ran um im sorgenfreien Bereich zu zocken.
Ne Single Gpu wird das erst 2011 packen- 4 Jahre nach Erscheinen des Games :ugly:

Crysis/Crisis Warhead haben ihren Zweck perfekt erfüllt!
Ohne diese Spiel hätte es in den letzten Jahren kaum einen Grund für SLI/Crossfire gegeben.

:wink:

Nvidias Investition in dieses Spiel hat sich mehr als amortisiert. Gute Strategie, keine Frage!

Gast
2010-03-28, 22:34:27
Wie schaut es eigentlich mit der Bildqualität aus? Ist sie auf dem Stand der vorherigen nvidia Karten oder hat sich da was grundlegendes geändert?

tombman
2010-03-28, 22:42:36
:lol:
die jenigen die es "brauchen" werden sichs immer so hinlegen ums zu rechtfertigen, egal wo und was...hier isses Furby...mega WAKÜ...anderer Raum etc.pp. wieso schreibt eigendlich noch einer über so viel Bockmiß?

Laßt sie machen wie sie wollen und können und gut ist. In 3 Tagen verläuft der Fred im Sand..nicht immer füttern :D
Manche wollen eben ein gewisses Ergebnis, in dem Fall ALLE Optionen in ALLEN games im FLÜSSIGEN Bereich mit sowenig MR wie möglich.
Das geht derzeit NUR mit GTX480 SLI/TRI SLI.
Der Aufwand, um das praktikabel zu machen, ist ENORM, wenn man die Nachteile nicht spüren will.

Aber manche sind bereit, das auf sich zu nehmen, um das Gewünschte zu erreichen. Das sind TATSACHEN, und keine
Schönrederei. Es gibt KEINEN AMD WEG das Gewünschte zu erreichen. TATSACHE.

Nur mit Nvidia ist das Gewünschte derzeit möglich. Ob dieser Wunsch selbst unsinnig ist, IST IRRELEVANT.

1.) Crank that s#!t up!
2.) You can have it all!
3.) :cool:

Gast
2010-03-28, 22:50:21
Tombman vertritt schon eine sehr extreme Meinung,
und in dieser extremen Sicht (ohne über den Tellerrand) zu schauen
hat er wohl auch recht. Nur, dass Tombmans "Philosophie" absolut kein Maßstab ist. Es ist übertriebener Perfektionismus.

Vor allem wenn man bedenkt, dass es Leute gibt denen noch
nicht einmal der Unterschied zwischen Kantenglättung off/on
auffällt. Oder Konsolenspieler die ebenfalls niedrigere Ansprüche haben
und glücklich sind.

Tombman möchte einfach ein Auto fahren das 350km/h bringt,
ich für meinen Teil bin auch mit einem Auto zufrieden das 320km/h
fährt.

AYAlf_2
2010-03-28, 22:52:46
Manche wollen eben ein gewisses Ergebnis, in dem Fall ALLE Optionen in ALLEN games im FLÜSSIGEN Bereich mit sowenig MR wie möglich.
Das geht derzeit NUR mit GTX480 SLI/TRI SLI.
Der Aufwand, um das praktikabel zu machen, ist ENORM, wenn man die Nachteile nicht spüren will.

Aber manche sind bereit, das auf sich zu nehmen, um das Gewünschte zu erreichen. Das sind TATSACHEN, und keine
Schönrederei. Es gibt KEINEN AMD WEG das Gewünschte zu erreichen. TATSACHE.

Nur mit Nvidia ist das Gewünschte derzeit möglich. Ob dieser Wunsch selbst unsinnig ist, IST IRRELEVANT.

1.) Crank that s#!t up!
2.) You can have it all!
3.) :cool:
ist dir denn auch bewusst warum das so ist? ueberleg mal ... stell dir mal vor ati wuerde den gleichen mist machen, den nvidia da macht.. was wuerde dann wohl passieren?
du kannst dir ja vielleicht jetzt mit nvidia alles einstellen was jetzt gerade moeglich ist... aber den richtigen weg geht nvidia da nicht. und man sollte keinesfalls nvidia dafuer loben was sie da anstellen, nicht dafuer!

LovesuckZ
2010-03-28, 22:55:00
Stimmt. Wieso sollte man nVidia auch für etwas loben. Da ist doch AMD viel besser: Machen nichts und haben dann AYAlf_2, der sich freut, dass er nichts bekommt.
Ich finde, solche Kunden muss jede Firma haben. Die machen doch das Leben einfacher.

AYAlf_2
2010-03-28, 22:58:23
Stimmt. Wieso sollte man nVidia auch für etwas loben. Da ist doch AMD viel besser: Machen nichts und haben dann AYAlf_2, der sich freut, dass er nichts bekommt.
Ich finde, solche Kunden muss jede Firma haben. Die machen doch das Leben einfacher.
da kommt dann doch der fanboy durch. so kurzsichtig kannst auch nur du denken.
bei tombman verstehe ich das ja noch .. aber du .. :freak:

Gast
2010-03-28, 23:01:12
Zu Half-Life 2: Ich habe mir das jetzt auch mal angeschaut und mit meiner 5870 ein kleines Video aufgenommen: http://ul.to/6m2kft
Da sieht man auch eindeutig, dass eine Detailschicht (vermutlich speculars/normals) trotz AI off nur bilinear gefiltert wird. Zwar habe ich im HL2-Menü trilinear angewählt, eventuell hält Valve es aber nicht für nötig, solchen Texturschichten überhaupt trilinear zu spendieren, sodass die Radeon hier nur tut, was ihr aufgetragen wird. Müsste halt mal jemand mit einer Geforce gegenchecken.

Die Stelle ist ganz am Anfang vom Spiel, wo man die Pistole bekommt.

-Carsten
Keine Geforce-User mehr am Leben?

-Carsten

tombman
2010-03-28, 23:02:17
Aber was würde passieren, wenn NV die "Szene" nicht pushen würde, oder gewisse Devs keine extremen Modi einbauten? Hätten wir dann jemals über zb Crysis staunen können? Nein, wir würden mikrokleine steps haben, und PC-gaming würde aussterben, weil Konsolen eh kaum Schlechteres zeigen würden!

Der Krieg heißt: PC vs Konsole.

Die Situation ist eh schon schlimm genug, da kann man ruhig extreme Maßnahmen ergreifen :)

@"übertriebener Perfektionismus": ja, das stimmt wohl :redface:
Aber darum gings ja nicht :)

LovesuckZ
2010-03-28, 23:05:21
da kommt dann doch der fanboy durch. so kurzsichtig kannst auch nur du denken.
bei tombman verstehe ich das ja noch .. aber du .. :freak:

Freu dich doch einfach, dass du nichts bekommst. Niemand will dir diese freude nehmen. Aber dann lass auch andere sich über PhysX freuen. Schon sehr traurig, dass Leute wie du einfach meinen, dass sie irgendwem bestimmen können, über was er sich freuen sollte.
Also, lass doch die ganzen PhysX-Freunde in Ruhe und freu dich weiter über nichts. :)

AYAlf_2
2010-03-28, 23:16:14
Aber was würde passieren, wenn NV die "Szene" nicht pushen würde, oder gewisse Devs keine extremen Modi einbauten? Hätten wir dann jemals über zb Crysis staunen können. Nein, wir würden mikrokleine steps haben, und PC gaming würde aussterben, weil Konsolen eh kaum Schlechteres zeigen würden!

Der Krieg heißt: PC vs Konsole.

Die Situation ist eh schon schlimm genug, da kann man ruhig extreme Maßnahmen ergreifen :)
ok dann mal auf den punkt gebracht...
wenn ati jetzt anfangen wuerde auch einen eigenen physix standard zu entwerfen .. einen eigenen 3d standard. dann haetten wir ueber kurz oder lang .. 2 seiten mit 2 komplett verschiedenen anpassungen fuer die gleichen games. like ps3 und xbox360 auf dem pc. der pc markt ist eh schon so klein, dass es dann noch schneller mit der spielerei am pc vorbei waere.
ati haelt die standards offen und das ist auch gut so.

der krieg mit verschiedenen standards kommt den konsolen zu gute, weil kein causal gamer sich dem mist antun will. nvidia bringt also keinen fortschritt .. sonder eher im gegenteil.

und wer bringt dx weiter, nvidia oder ati? ati bleibt seinem pfad noch treu. sich an dx und der zusammenarbeit mit ms zu orientieren.

das ist meine bescheidene meinung zu dem thema. und das hat nix mit fanboytum zu tun. ich moechte einfach nur noch lange auf dem pc spielen .. mit mind. 2 starken graka und prozessor herstellern, so dass es einen preiskampf geben kann. ich halte da weder zu amd oder intel.. auch nicht zu nvidia oder ati ... mir waere ein moeglichst ausgeglichener markt sehr recht.

@mods sorry 4 ot

Blaire
2010-03-28, 23:16:32
Keine Geforce-User mehr am Leben?

-Carsten

Ich installiere mal HL2...hast du ein Savegame dazu?

AnarchX
2010-03-28, 23:17:52
Über PhysX kann hier diskutiert werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422487

(del)
2010-03-28, 23:20:48
Ansonsten ist und bleibt es ein schön fettes WAYNE bei der Zielgruppe, denn diese will Phys-X, FPS und SLI.Das stimmt. Ich kann mir nur nicht vorstellen, daß der Fermi erstmal alleine davon leben kann. Als Technologiestudie für paar Tausend Leute pro Land (?) =) wird sich das nicht direkt amortisieren können. Bestimmt eine gute Sache als Basis für die folgenden Aufarbeitungen des Designs, aber ~+20% halbes Jahr nach ATI kann man kaum als Paukenschlag bezeichnen. Daß der Chip schneller als ATIs sein wird hat keiner bezweifelt. Sehr ernüchternd ist er trotzdem.
Verschlafen haben "die Kanadier" die letzten 6 Monate bestimmt auch nicht.

Aber was würde passieren, wenn NV die "Szene" nicht pushen würde
[...]
Der Krieg heißt: PC vs Konsole.Schon richtig verstanden :) Das bedeutet aber nicht, daß man jedes neue ATI-Release kaputtseiern muß und bei jedem neuen NV-Chip auch den größten PR-Bullshit feinreden sollte.

Daß einer von den beiden nur noch reglos am Boden liegt können sich nur totale Vollidioten wünschen. Zu denen schonmal wir beide zum Glück nicht gehören :up:

Exxtreme
2010-03-28, 23:28:20
Also ... bei mir wird die UNvernunft immer stärker ... so irgendwie. Welches 700W-Netzteil ist so zu empfehlen? :|

LovesuckZ
2010-03-28, 23:30:07
Also ... bei mir wird die UNvernunft immer stärker ... so irgendwie. Welches 700W-Netzteil ist so zu empfehlen? :|

GTX480? :freak:

(del)
2010-03-28, 23:30:40
uNVernunft? ;)

Außer daß es mal TOTAL ot ist :D könnt ihr gleichzeitig alternative Kühllösungen ansagen. Falls es solche Ansätze schon gibt. Netzteil alleine ist wohl noch nicht das Ende der Fahnenstange... ;)

Bis die Tage

Exxtreme
2010-03-28, 23:32:19
GTX480? :freak:
Ya. ;(


Aber definitiv kein SLI. Weil da müsste ich ein neues Gehäuse kaufen da mein Midi-Tower wohl zum Hitzetod führen wird.

LovesuckZ
2010-03-28, 23:34:06
Ya. ;(


Mein Mitgefühl. :(

Mal Ergebnisse aus HAWX mit AA und AF:
http://www.pcper.com/images/reviews/888/gtx480/hawx-1920-bar.jpg
http://www.pcper.com/article.php?aid=888&type=expert&pid=7

Wäre der Stromverbrauch nur um 50 Watt niedriger. :rolleyes:

Zatoichi
2010-03-28, 23:38:24
Wie ist es denn nun um die Verfügbarkeit bestellt? Gibts dazu offizelle Aussagen? Wenn das von Nelitz stimmen sollte, wär es schon krass, erst ab Mai.

derguru
2010-03-28, 23:38:50
krass wie HAWX abgeht,schade das der vorteil nur durch das af manko von amd profitiert.
macht man af aus sind es gerade mal 10% unterschied zur 5870;)

LovesuckZ
2010-03-28, 23:40:40
krass wie HAWX abgeht,schade das der vorteil nur durch das af manko von amd profitiert.
macht man af aus sind es gerade mal 10% unterschied zur 5870;)

Hm, welches AF Manko? GTX480 hat 60TMUs@700Mhz, 5870 80TMUs@850. Da sollte es kein AF Manko geben. Es stellt sich doch eher die Frage, wieso AMD das nicht endlich gefixt hat...

dildo4u
2010-03-28, 23:42:58
Also ... bei mir wird die UNvernunft immer stärker ... so irgendwie. Welches 700W-Netzteil ist so zu empfehlen? :|
Das Corsair HX 750W sieht sher gut aus.

http://www.technic3d.com/article-902,1-corsair-cmpsu-hx750w-80-gold-netzteil-im-test.htm

http://geizhals.at/deutschland/a429175.html

derguru
2010-03-28, 23:43:17
Hm, welches AF Manko? GTX480 hat 60TMUs@700Mhz, 5870 80TMUs@850. Da sollte es kein AF Manko geben. Es stellt sich doch eher die Frage, wieso AMD das nicht endlich gefixt hat...
der verlust unter 16af ist immer noch sehr groß,hier mal ohne.

1920*1200 4AA/1AF // 1920*1200 4AA/16AF
http://www.abload.de/thumb/hawx_dx102010-03-2823-3kvz.jpg (http://www.abload.de/image.php?img=hawx_dx102010-03-2823-3kvz.jpg) http://www.abload.de/thumb/hawx_dx102010-03-2823-1wvd.jpg (http://www.abload.de/image.php?img=hawx_dx102010-03-2823-1wvd.jpg)


http://www.abload.de/thumb/t1t9v2.png (http://www.abload.de/image.php?img=t1t9v2.png)

Byteschlumpf
2010-03-28, 23:48:57
Ich bin sowohl Besitzer einer GTS640 + GTS512 sowie einer HD5850, somit kann ich mich wohl unmöglich als Fanboy von ATI oder NVIDIA aufführen! ;)
Für die HD5850 habe ich mich vor drei Wochen als Nachfolger der GTS512 entschieden, da die HD gut die doppelte 3D-Leistung der GTS aufweist und dazu noch deutlich genügsamer bei der Leistungsaufnahme ist.

Mit der GTS640 im zweiten Quadcore-System (Q9550@3,6Ghz, 6GB RAM) kann ich Dank 20% OC aktuelle Games mit DX10 + PhysX immer noch ordentlich spielen. Ausserdem wird es mit PPro CS4 genutzt, wobei die GTS eine immer flüssige Video-Vorschau im Gegensatz zur HD5850 ermöglicht (ein Treiberproblem der HD5000 Reihe). Die HD5850 befindet sich im System aus meiner Sig.

Eine GTX470 wäre für mich in Frage gekommen, wenn die hohe Leistungsaufnahme mit dem dazugehörigen Rattenschwanz in Form eines lauten Lüfters nicht wäre! Jedoch performt die GTX470 nicht überall soviel besser, als das sich ein Umstieg für mich lohnen würde.
Als die "Radeon 9700" seinerzeit erschienen ist, habe ich die erst kurz zuvor erworbene "GeForce 4800" wieder abgestoßen und mir die ATI zugelegt, da deren HQ-Performance weitaus überzeugender war!

Im Weiteren haben sich die 800XT, die 1950XT, die 8800GTS 640, die 8800GTS 512 sowie die HD5850 zu mir gesellt! :D

tombman
2010-03-28, 23:52:04
der verlust unter 16af ist immer noch sehr groß,hier mal ohne.

http://www.abload.de/thumb/t1t9v2.png (http://www.abload.de/image.php?img=t1t9v2.png)
Bei den framerates reicht auch ne 5770 ;D

@NT: Corsair HX Serie ;) (HX650 od. HX750)

LovesuckZ
2010-03-28, 23:57:29
Eine GTX470 wäre für mich in Frage gekommen, wenn die hohe Leistungsaufnahme mit dem dazugehörigen Rattenschwanz in Form eines lauten Lüfters nicht wäre! Jedoch performt die GTX470 nicht überall soviel besser, als das sich ein Umstieg für mich lohnen würde.
Als die "Radeon 9700" seinerzeit erschienen ist, habe ich die erst kurz zuvor erworbene "GeForce 4800" wieder abgestoßen und mir die ATI zugelegt, da deren HQ-Performance weitaus überzeugender war!


Der einzige richtig, schwerwiegende "Rattenschwanz" der GTX470 ist der deutlich zu hohe MM-Verbrauch von 70-100 Watt. Da muss nVidia den Kunden einfach die Option geben, die Karte auf "low 2d" zu forcen.
Vom Stromverbrauch müsste man bei 12h Betrieb (10 Idle, 2h Spielen am Tag) im Jahr bei 0,2€ pro KWh 14,6€ mehr bezahlen. Noch in Ordnung und kein Grund, grundsätzlich die Karte nicht in die Entscheidung mit einzubeziehen. Lautstärke entspricht AMD Niveau.

Yesman
2010-03-29, 00:21:27
Der einzige richtig, schwerwiegende "Rattenschwanz" der GTX470 ist der deutlich zu hohe MM-Verbrauch von 70-100 Watt. Da muss nVidia den Kunden einfach die Option geben, die Karte auf "low 2d" zu forcen.
Vom Stromverbrauch müsste man bei 12h Betrieb (10 Idle, 2h Spielen am Tag) im Jahr bei 0,2€ pro KWh 14,6€ mehr bezahlen. Noch in Ordnung und kein Grund, grundsätzlich die Karte nicht in die Entscheidung mit einzubeziehen. Lautstärke entspricht AMD Niveau.

Hi ja das mit dem MM-Verbrauch geht mir auch sehr gegen den strich aber um mal nen anderen Lösungsansatz dafür zubringen. Wie wäre es wenn man sich eine gt220 oder so dazusteckt und jeweils einen Monitor pro Karte betreibt. Da kommt man doch im idle sicher massive billiger weg oder? Steinigt mich peitscht mich wenn das völliger Blödsinn ist aber das waren so meine Gedankengänge dazu.

MFG

LovesuckZ
2010-03-29, 00:25:27
Hi ja das mit dem MM-Verbrauch geht mir auch sehr gegen den strich aber um mal nen anderen Lösungsansatz dafür zubringen. Wie wäre es wenn man sich eine gt220 oder so dazusteckt und jeweils einen Monitor pro Karte betreibt. Da kommt man doch im idle sicher massive billiger weg oder? Steinigt mich peitscht mich wenn das völliger Blödsinn ist aber das waren so meine Gedankengänge dazu.

MFG

Das sollte im Grunde möglich sein. Dank Win7 auch mit jeder anderen Karten oder IGP. Macht vorallem bei der GTX480 sinn, die im MM-Betrieb im Gesamt-PC-Verbrauch glatt 100 Watt drauf packt.
G210 kostet 30€. 12h MM-Betrieb mit einer GTX480 kostet im Jahr zusätzlich 87,6€. Nach ein bisschen mehr als 3 Monate hätte man die zusätzlichen Kosten wieder rausgeholt...

Wuge
2010-03-29, 00:35:27
Es juckt schon ganz schön. Mal sehen wies mit custom-Profilen mit Undervolting im 2D und OC aussieht... Die 470iger dürfen ja ordentlich OC-Headroom haben, wenn mans gekühlt kriegt ;)

Weiß hier schon jemand, ob (und in welchem Rahmen) man die vGPU einstellen kann?

LovesuckZ
2010-03-29, 00:36:48
Es juckt schon ganz schön. Mal sehen wies mit custom-Profilen mit Undervolting im 2D und OC aussieht... Die 470iger dürfen ja ordentlich OC-Headroom haben, wenn mans gekühlt kriegt ;)

Weiß hier schon jemand, ob (und in welchem Rahmen) man die vGPU einstellen kann?

vCore-Verstellung ist möglich. Ob es aber auch nach unten geht? Steht zur Zeit noch nicht fest. MSI Afterburn erlaubt z.B. nur eine Erhöhung.

OgrEGT
2010-03-29, 00:36:49
Von den 300W Spitzenleistung dürfte der Löwenanteil an den Grafikchip gehen. Ok, die Wandler werden rund 90% Wirkungsgrad haben, so daß die Leistung nach den Wandlern bei rund 270W liegen dürfte. Ziehen wir noch 30W für den RAM ab (ist aber eher hoch gegriffen) bleiben 240W für den Grafikchip. Sind also etwas über 240A Strom durch die Balls.

Wieviele Stromanschlusspins hat der GF100? Damit könnte die Stromaufnahme pro Strompin errechnet werden.

Welches Lötmaterial wird hierbei verwendet und gibt es Stressmessungen in diesem Bereich der Stromaufnahme und Wärmeentwicklung?

Falls man sich in einem überdurchschnittlichen Bereich bewegt, könnte das Anlass zur Befürchtung geben, was die Langlebigkeit des Lötmaterials betrifft?

Megamember
2010-03-29, 00:41:54
Also ... bei mir wird die UNvernunft immer stärker ... so irgendwie. Welches 700W-Netzteil ist so zu empfehlen? :|

Im Zack Zack gibts grad eins für 83€ was scheinbar auch sehr ordentlich ist.

derguru
2010-03-29, 00:42:03
vCore-Verstellung ist möglich. Ob es aber auch nach unten geht? Steht zur Zeit noch nicht fest. MSI Afterburn erlaubt z.B. nur eine Erhöhung.

runter gehts auch.

OgrEGT
2010-03-29, 00:46:40
Manche wollen eben ein gewisses Ergebnis, in dem Fall ALLE Optionen in ALLEN games im FLÜSSIGEN Bereich mit sowenig MR wie möglich.
Das geht derzeit NUR mit GTX480 SLI/TRI SLI.
Der Aufwand, um das praktikabel zu machen, ist ENORM, wenn man die Nachteile nicht spüren will.

Aber manche sind bereit, das auf sich zu nehmen, um das Gewünschte zu erreichen. Das sind TATSACHEN, und keine
Schönrederei. Es gibt KEINEN AMD WEG das Gewünschte zu erreichen. TATSACHE.

Nur mit Nvidia ist das Gewünschte derzeit möglich. Ob dieser Wunsch selbst unsinnig ist, IST IRRELEVANT.

1.) Crank that s#!t up!
2.) You can have it all!
3.) :cool:

Immer mit der Ruhe. Kein Grund zu schreien.

ChaosTM
2010-03-29, 01:08:31
Aber was würde passieren, wenn NV die "Szene" nicht pushen würde, oder gewisse Devs keine extremen Modi einbauten? Hätten wir dann jemals über zb Crysis staunen können? Nein, wir würden mikrokleine steps haben, und PC-gaming würde aussterben, weil Konsolen eh kaum Schlechteres zeigen würden!

Der Krieg heißt: PC vs Konsole.

Die Situation ist eh schon schlimm genug, da kann man ruhig extreme Maßnahmen ergreifen :)

@"übertriebener Perfektionismus": ja, das stimmt wohl :redface:
Aber darum gings ja nicht :)

Der Krieg gegen die Konsolen wurde leider verloren !

Deshalb kann man derzeit nur das Beste daraus machen, und zb. Uncharted2 spielen..

;)

Blaire
2010-03-29, 01:20:20
Weiß hier schon jemand, ob (und in welchem Rahmen) man die vGPU einstellen kann?

Das würd ich auch gern wissen...

LovesuckZ
2010-03-29, 01:35:16
Die GTX480 ist eine prächtige GTA4 Karte (http://www.hardwareheaven.com/reviews.php?reviewid=950&pageid=10). Und ich muss noch mein GTA4 für 8€ von Steam spielen...

Blaire
2010-03-29, 02:00:56
Zitat von Gast
Zu Half-Life 2: Ich habe mir das jetzt auch mal angeschaut und mit meiner 5870 ein kleines Video aufgenommen: http://ul.to/6m2kft
Da sieht man auch eindeutig, dass eine Detailschicht (vermutlich speculars/normals) trotz AI off nur bilinear gefiltert wird. Zwar habe ich im HL2-Menü trilinear angewählt, eventuell hält Valve es aber nicht für nötig, solchen Texturschichten überhaupt trilinear zu spendieren, sodass die Radeon hier nur tut, was ihr aufgetragen wird. Müsste halt mal jemand mit einer Geforce gegenchecken.
-Carsten

Hier wird Trilinear gefiltert auf ner 8800GTX.

Coda
2010-03-29, 04:10:53
Gibt's eigentlich irgendwo schon pure Füllraten-Benchmarks oder muss man auf B3D warten?

AnarchX
2010-03-29, 07:07:56
http://www.pcinlife.com/article_photo/gtx480/results_lowlevel/image003.gif
http://www.pcinlife.com/article/graphics/2010-03-26/1269573687d844_4.html

Gast
2010-03-29, 07:14:37
Also bei den Teilen muss man ja mit allem rechnen und immer bereit für eine Notabschaltung sein, wenn man nicht Graka und/oder evt. sogar das System selber gefährden will.

"Das hat allerdings auch seinen Preis. Die Leistungsaufnahme des Gesamtsystems stieg während der Berechnungen mit der GeForce GTX 470 auf 348 Watt und während die GeForce GTX 285 dabei nicht signifikant lauter wurde, wurde die 470 zwischendurch zum Fön. Der Lüfter drehte mit einem Mal auf enorme 3000 Upm und brüllte beinahe das Haus zusammen (Spectrin Test). Bis zum Abschluss der Berechnungen sank die Drehzahl wieder auf 2800 Upm, was aber immer noch sehr, sehr laut ist.
Ein Nachtest brachte außerdem ein kleines Problem zu Tage. Beim Versuch, dieses Verhalten zu reproduzieren, versagte die Lüftersteuerung. Die Chiptemperatur stieg stetig an, bis der Bildschirm bei 112°C schließlich schwarz wurde, ohne dass das System aber anhielt. Ein schneller manueller Reset verhinderte möglichen Schaden an der Grafikkarte.
Wirklich praktikabel ist Folding@Home auf der GeForce GTX 470 in dieser Form nicht, wenn die Chiptemperatur dadurch dermaßen ansteigt."

Ailuros
2010-03-29, 07:55:19
Also ... bei mir wird die UNvernunft immer stärker ... so irgendwie. Welches 700W-Netzteil ist so zu empfehlen? :|

Wenn Du schon ein neues PSU brauchst dann wuerde ich noch mehr auf Nummer Sicher gehen und auf etwas >700W denken.

Der angesetzte 250W TDP von NV ist klipp und klar fuer die Muelltonne und auch das minimal empfohlene Netzteil von 600W, wenn man bedenkt dass die GTX295 bei 289W liegt und ein 680W PSU minimal empfohlen wird.

Gast
2010-03-29, 07:57:28
Die GTX480 ist eine prächtige GTA4 Karte (http://www.hardwareheaven.com/reviews.php?reviewid=950&pageid=10). Und ich muss noch mein GTA4 für 8€ von Steam spielen...
jo wenn du in 3 Monaten eine Karte bekommen hast :D

Gast
2010-03-29, 07:58:36
runter gehts auch.

in beiden Richtungen nur mit digi SPAWA...

Gast
2010-03-29, 08:01:18
Im Zack Zack gibts grad eins für 83€ was scheinbar auch sehr ordentlich ist.

ich hab seid Ewigkeiten ein 750er Coba Nitrox, auch mit einer 295er + i7 und ab und an kräftigem OC.

Gast
2010-03-29, 08:14:16
in beiden Richtungen nur mit digi SPAWA...
Z.b. GTX 280 hat analoge und es geht trotzdem.

Gast
2010-03-29, 08:32:02
nein!

PulsarS
2010-03-29, 09:02:16
2.) You can have it all!

Tombman,

das stimmt so nicht.
Sparsed Grid Super Sampling AA geht mit der GTX 480 nicht.
Deiner Definition nach also kein High-End, da nicht überall führend.
Bei der BQ zumindest nicht. ;)

Gast
2010-03-29, 09:42:44
Gibt's eigentlich irgendwo schon pure Füllraten-Benchmarks oder muss man auf B3D warten?
Was für Füllraten brauchst du denn?

-Carsten

Gast
2010-03-29, 09:47:05
Tombman,

das stimmt so nicht.
Sparsed Grid Super Sampling AA geht mit der GTX 480 nicht.
Deiner Definition nach also kein High-End, da nicht überall führend.
Bei der BQ zumindest nicht. ;)

Schön auch, wie er (leider) zu 100% Marketinggesteuert ist. Dieses "Crank that s#!t up!", ein Sprüchlein, das bestenfalls auf tiefem Stammtischniveau ist, liest man schon das X-te mal von ihm.
Offenbar ist das NVs einziges Argument, was angesichts des negativen Hintergrundtones sämtlicher Reviews auch nicht wirklich verwundert. Selten zuvor waren sich bei einer Kartenpräsentation die Reviews derart einig, zumal zum Kaufpreis der Karte meist auch noch ein neues Gehäuse + 750 Watt Markennetzteil dazuzurechnen ist. Wer's leise mag, muss auch gleich noch einen neuen Kühler zur GPU bestellen. Ein überaus teurer Spaß.

Es kommt mir so vor, als ob NV es den Spieleherstellern gleichmacht: Beta releasen. Ich bin wirklich schwer enttäuscht von diesem Produkt.

Mr. Lolman
2010-03-29, 10:01:26
Gibt's eigentlich irgendwo schon pure Füllraten-Benchmarks oder muss man auf B3D warten?

Hier gibts auch ein paar: http://translate.googleusercontent.com/translate_c?hl=de&sl=ru&tl=en&u=http://www.ixbt.com/video3/gf100-2-part2.shtml&rurl=translate.google.at&usg=ALkJrhgsegHh2qFAOxULnfh9rQGJ1l1a2w

AnarchX
2010-03-29, 10:20:09
Hier gibts auch ein paar: http://translate.googleusercontent.com/translate_c?hl=de&sl=ru&tl=en&u=http://www.ixbt.com/video3/gf100-2-part2.shtml&rurl=translate.google.at&usg=ALkJrhgsegHh2qFAOxULnfh9rQGJ1l1a2w
Bei FFP ist das wohl aber nur ein Texturformat, was Evergreen mit Fullspeed schafft.

Bei HW.fr gibt es noch ein paar weitere Formate im Überblick:
http://img532.imageshack.us/img532/8499/img0028306.gif
http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480.html

Hoffentlich gibt es beim Techreport-Review wieder diesen Graphen:
http://techreport.com/r.x/radeon-hd-5870/rm3d-filtering.gif
http://techreport.com/articles.x/17618/6

Da sollte man herausfinden können, ob man bei der Sampleanordnung noch weiter optimieren konnte.

AnarchX
2010-03-29, 10:28:27
Auch nochmal ein paar differenzierte Ratings bei PCinlife:
http://www.pcinlife.com/article/graphics/2010-03-26/1269573687d844_23.html

GTX 480 vs 5870 @ 1920x1200 4xAA/16xAF

D3D9: + 25%
D3D10/10.1: + 13%
D3D11: + 18%

LovesuckZ
2010-03-29, 10:30:48
Custom-Designs von Palit:
http://www.donanimhaber.com/image.aspx/images/haber/palit_cdfermi_1_dh_fx57.jpg
http://www.donanimhaber.com/image.aspx/images/haber/palit_cdfermi_1a_dh_fx57.jpg
http://www.donanimhaber.com/Palitin_ozel_tasarimli_GeForce_GTX_470_ve_GeForce_GTX_480_modelleri_gorundu-18974.htm

AnarchX
2010-03-29, 10:33:22
Customs-Designs von Palit:
http://www.donanimhaber.com/image.aspx/images/haber/palit_cdfermi_1_dh_fx57.jpg
http://www.donanimhaber.com/image.aspx/images/haber/palit_cdfermi_1a_dh_fx57.jpg
http://www.donanimhaber.com/Palitin_ozel_tasarimli_GeForce_GTX_470_ve_GeForce_GTX_480_modelleri_gorundu-18974.htm
Passende Gehäusebelüftung vorausgesetzt, wohl schon mal deutlich besser durchdacht als das Referenzdesign.

Die 480 wirkt aber dort imo etwas länger als 10.5" bzw. die 470 kürzer.

edit: Folien von Palit dazu
http://img11.imageshack.us/img11/4961/palit03.jpg
http://expreview.com/9955.html
Die 470 hat man wohl auf 9" gekürzt (Referenz ist 9,5" nicht 10,5"), deshalb dieser Eindruck.
Zudem gibt es bei den Palit Karten einen Displayport.

Gast
2010-03-29, 10:36:39
Thoretisch sind diese Fermi karten mit Luftkühlung im Sommer alle unbrauchbar.
Wenns sich jetzt im Frühjahr schon ein 12 Volt 1,8 A Delta Lüfter einen abbrüllt um dieses Ding unter den Flammpunkt zu halten. Im sommer hat dann nicht mal dieser Orkanlüfter ne Chance diese Fehlkonstruktion vor dem Hitzentot zu bewahren. Ob sich nV da nen gefallen dabei tut sowas auf die Fangemeinschaft los zu lassen ist sehr fraglich. Zum Glück wird ja wohl auser ganz harten NV Fanboys keiner die Heizbirne in ein geschlossene gehäuse einbauen.
Es wird wohl schon einige Leute in der NV retouren Abteilung geben die sich auf den Sommer freuen.

Gast
2010-03-29, 10:40:52
Bei BF:BC2 hat jede Seite etwas anderes: http://www.pcinlife.com/article_photo/gtx480/results_games/total.png

Überhaupt habe ich den Eindruck, dass bei diesem Spiel noch so Einiges im Argen liegt, unabhängig vom GPU-Hersteller.

LovesuckZ
2010-03-29, 10:55:17
Für Tombman:
http://img168.imageshack.us/img168/6057/cw2.jpg
http://www.maingearforums.com/entry.php?24-So-You-Want-To-Buy-A-GeForce-Part-2

Klingone mit Klampfe
2010-03-29, 11:00:27
Der Krieg gegen die Konsolen wurde leider verloren !

Deshalb kann man derzeit nur das Beste daraus machen, und zb. Uncharted2 spielen..

;)

Ob ironisch oder nicht, so ganz unrecht hast Du damit nicht. Das ganze Gerede von "zukunftsfähig" basiert einzig auf der Annahme, dass tatsächlich noch einmal ein Schub an technisch herausragenden Spielen (DX11, Tesselation) kommt, was ich angesichts der Verkaufszahlen und des exzessiven Preis-Dumpings von PC-Spielen (UK-Import, Key-Shops) und der neueren DRM-Entwicklungen stark bezweifle. Wenn tatsächlich mittelfristig das Spiele-Live-Streaming im großen Maßstab kommt, soll und wird die Internetleitung wichtiger sein als der Rechner.

Mal Butter bei die Fische: Was außer Crysis 2 und Half-Life Ep. 3 soll denn da noch großartig kommen? Mafia II wird "konsolig" aussehen, ein Just Cause 2 läuft auch mit der aktuellen VGA-Generation zufriedenstellend. Metro 2033 wird wohl nie flüssig laufen und Max Payne 3 wird ein Konsolenspiel, das zufällig auch auf dem PC erscheint (falls es nicht zuvor wie Alan Wake endet). StarCraft 2 ist auf DX9-Techlevel und sieht aus wie ein DX8-Spiel, Dragon Age 2 und The Witcher 2 werden wieder Aurora-artige Engines nutzen und keine bemerkenswerten Technikspielereien bieten (DX11, Tesselation, PhysX, CUDA etc.), außer ATI oder nVidia winken mit den großen Geldscheinen. Dass sich mit moderner Technik allein kein Blumentopf gewinnen lässt, zeigte Shattered Horizon.

Was man aus meiner Sicht momentan realistisch erwarten kann, sind Konsolen-Titel mit aufgeflanschter Tesselation und der gewohnten Alibi-PhysX-Implementierung und vielleicht soger einem DX11-Renderpfad ohne nennenswerte Vorteile (vgl. Dirt 2). Ein echtes, PC-exklusives DX11/Tesselation/PhysX-Spektakel sehe ich nirgends am Horizont.

Gast
2010-03-29, 11:03:10
Für Tombman:
http://img168.imageshack.us/img168/6057/cw2.jpg
http://www.maingearforums.com/entry.php?24-So-You-Want-To-Buy-A-GeForce-Part-2


Du hast FarCry2 vergessen:

http://img97.imageshack.us/img97/6828/fc22.jpg (http://img97.imageshack.us/i/fc22.jpg/)

drum02
2010-03-29, 11:04:19
Thoretisch sind diese Fermi karten mit Luftkühlung im Sommer alle unbrauchbar.
Dann muss es bei Dir ja unerträglich heiss sein :)

Wenns sich jetzt im Frühjahr schon ein 12 Volt 1,8 A Delta Lüfter einen abbrüllt um dieses Ding unter den Flammpunkt zu halten. Im sommer hat dann nicht mal dieser Orkanlüfter ne Chance diese Fehlkonstruktion vor dem Hitzentot zu bewahren. Ob sich nV da nen gefallen dabei tut sowas auf die Fangemeinschaft los zu lassen ist sehr fraglich. Zum Glück wird ja wohl auser ganz harten NV Fanboys keiner die Heizbirne in ein geschlossene gehäuse einbauen.
Möchte gerne mal wissen Was Du für ein Gehäuse hast. Warscheinlich trifft das nur auf Dich zu.
Wenn sich einer eine 480er kauft muss man annehmen das er weiss was macht. Das richtige Equipment vorausgesetzt wird sie auch im Hochsommer unter Volllast laufen.
Wenn Ich mir einen Maibach kaufe werde Ich mir doch auch nicht runderneuerte Reifen aufziehen, oder wie jetzt?
Also kauf Dir ne AMD/ATI und sei glücklich mit dem 2ten Platz.;D

Godmode
2010-03-29, 11:10:18
Du hast FarCry2 vergessen:

http://img97.imageshack.us/img97/6828/fc22.jpg (http://img97.imageshack.us/i/fc22.jpg/)

Die FPS sind in FC2 sowiso hoch genug, da brauchts kein SLI/CF. Bei Crysis schaut es da schon anders aus. :rolleyes:

puntarenas
2010-03-29, 11:24:16
Was man aus meiner Sicht momentan realistisch erwarten kann, sind Konsolen-Titel mit aufgeflanschter Tesselation und der gewohnten Alibi-PhysX-Implementierung und vielleicht soger einem DX11-Renderpfad ohne nennenswerte Vorteile (vgl. Dirt 2). Ein echtes, PC-exklusives DX11/Tesselation/PhysX-Spektakel sehe ich nirgends am Horizont.
Könnte so hinhauen, wobei allein die angeflanschte Tessalation die neue Generation (und Folgende) attraktiv erscheinen lässt, wie ich finde. Folgt man deiner Argumentation ist es allerdings besonders schade, dass Nvidia nicht wieder SuperSampling offiziell eingeführt hat, denn gerade um Konsolenports maximal aufzuhübschen würden Einige sicher gern maximale BruteForce-Leistung verballern.

Die Flexibilisierung des Transparenz-Anti-Aliasing ist natürlich auch noch eine nette Sache, aber Flimmershader bleiben ein Problem und ohne offiziellen SS-Support gibt es halt auch keine Bugfixes und Anpassungen für kritische Engines, das riecht nach Matsch und Artefakten an allen Ecken und Enden.

Zatoichi
2010-03-29, 11:27:47
Ob ironisch oder nicht, so ganz unrecht hast Du damit nicht. Das ganze Gerede von "zukunftsfähig" basiert einzig auf der Annahme, dass tatsächlich noch einmal ein Schub an technisch herausragenden Spielen (DX11, Tesselation) kommt, was ich angesichts der Verkaufszahlen und des exzessiven Preis-Dumpings von PC-Spielen (UK-Import, Key-Shops) und der neueren DRM-Entwicklungen stark bezweifle. Wenn tatsächlich mittelfristig das Spiele-Live-Streaming im großen Maßstab kommt, soll und wird die Internetleitung wichtiger sein als der Rechner.

Mal Butter bei die Fische: Was außer Crysis 2 und Half-Life Ep. 3 soll denn da noch großartig kommen? Mafia II wird "konsolig" aussehen, ein Just Cause 2 läuft auch mit der aktuellen VGA-Generation zufriedenstellend. Metro 2033 wird wohl nie flüssig laufen und Max Payne 3 wird ein Konsolenspiel, das zufällig auch auf dem PC erscheint (falls es nicht zuvor wie Alan Wake endet). StarCraft 2 ist auf DX9-Techlevel und sieht aus wie ein DX8-Spiel, Dragon Age 2 und The Witcher 2 werden wieder Aurora-artige Engines nutzen und keine bemerkenswerten Technikspielereien bieten (DX11, Tesselation, PhysX, CUDA etc.), außer ATI oder nVidia winken mit den großen Geldscheinen. Dass sich mit moderner Technik allein kein Blumentopf gewinnen lässt, zeigte Shattered Horizon.

Was man aus meiner Sicht momentan realistisch erwarten kann, sind Konsolen-Titel mit aufgeflanschter Tesselation und der gewohnten Alibi-PhysX-Implementierung und vielleicht soger einem DX11-Renderpfad ohne nennenswerte Vorteile (vgl. Dirt 2). Ein echtes, PC-exklusives DX11/Tesselation/PhysX-Spektakel sehe ich nirgends am Horizont.

Da hast du vollkomen recht. So etwas wird hier aber gerne übersehen. Außerdem gibt es aktuell wieviele Spiele die nicht unter normalen Settings flüssig laufen (und das sind nicht mal die Gameplay Bomben)?

pXe
2010-03-29, 11:28:10
Leider wurde das Thema SSAA immer noch nicht aufgegriffen.
Deshalb hier von mir nochmal etwas aus dem PCGH Test (scheinbar auch der einzige wo SSAA getested wurde).

Ist dass die auch zu erwartende Performance der GTX470 in anderen Spielen mit SSAA? (also GTX285 Niveau)


pXe

Eggcake
2010-03-29, 11:28:43
Dann muss es bei Dir ja unerträglich heiss sein :)

Möchte gerne mal wissen Was Du für ein Gehäuse hast. Warscheinlich trifft das nur auf Dich zu.
Wenn sich einer eine 480er kauft muss man annehmen das er weiss was macht. Das richtige Equipment vorausgesetzt wird sie auch im Hochsommer unter Volllast laufen.
Wenn Ich mir einen Maibach kaufe werde Ich mir doch auch nicht runderneuerte Reifen aufziehen, oder wie jetzt?
Also kauf Dir ne AMD/ATI und sei glücklich mit dem 2ten Platz.;D

Tjoa, bei mir ist's z.B. ziemlich heiss im Sommer, da der PC im Dachstock ist. Im Zimmer wird's dann schnell mal 30°C. Auf die GPU-Temps kann ich dann meist 10°C hinzuaddieren.
Bei mir ist's wohl schon etwas extrem, das muss ich zugeben. Hab da wirklich die Arschkarte mit dem Dachstock :ugly: Aber bei der GF100 könnte es da schon knapp werden, wobei wohl in diesem Fall einfach der Lüfter höher drehen würde.

Gast
2010-03-29, 11:35:12
Dann muss es bei Dir ja unerträglich heiss sein :)

Möchte gerne mal wissen Was Du für ein Gehäuse hast. Warscheinlich trifft das nur auf Dich zu.
Wenn sich einer eine 480er kauft muss man annehmen das er weiss was macht. Das richtige Equipment vorausgesetzt wird sie auch im Hochsommer unter Volllast laufen.
Wenn Ich mir einen Maibach kaufe werde Ich mir doch auch nicht runderneuerte Reifen aufziehen, oder wie jetzt?
Also kauf Dir ne AMD/ATI und sei glücklich mit dem 2ten Platz.;D


Jawohl jetzt soll dieses unausgereifte Beta-Produkt schon ein Maybach! sein. Na wenn mittlerweile absurder Stromverbrauch, abartige Geräuschkulisse und Temperatur bei kaum Mehrleistung und deutlich höheren Anschaffungskosten ein Qualitätskriterium sein soll, dann hast du natürlich recht.

LovesuckZ
2010-03-29, 11:41:12
Jawohl jetzt soll dieses unausgereifte Beta-Produkt schon ein Maybach! sein. Na wenn mittlerweile absurder Stromverbrauch, abartige Geräuschkulisse und Temperatur bei kaum Mehrleistung und deutlich höheren Anschaffungskosten ein Qualitätskriterium sein soll, dann hast du natürlich recht.

Eine GTX470 ist billiger als die 5870. :)

Gast
2010-03-29, 11:45:14
Eine GTX470 ist billiger als die 5870. :)

Und z.b. bei Race Driver auch 0.2 Sone leiser als eine 5870.