PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Jake Dunn
2010-03-27, 04:20:02
Mehr Leistung => mehr Leistungsaufnahme. Ich verstehe aber schon, das man sich nur am einzigen Salzkorn zuviel in der Suppe aufseilen kann. ;)



10-15% Mehrleistung bei 100% mehr Verbrauch :facepalm:

In dem Fred sieht man die wahren FB ^^

tombman
2010-03-27, 04:20:22
Ok, >3 Stunden Reviewlesen durch :ugly:

AF kostet jetzt mehr, aber unabhängig ob HQ oder nicht :(
AA skaliert recht brav, was vermutlich AF wieder ausgleicht :ugly:

Strom und Hitze sind mir egal, da ein passendes NT (1250W Emermax Revolution) vorhanden ist und Stromkosten eh lächerlich sind.
Gegen die Hitze werde ich zu 99% einen GPU-only Wasserblock verwenden, den Rest kühlt eh die Platte :cool:

Bei "wichtigen" games ist die GTX480 deutlich vorne (außer Crysis), sprich bei games, wo die "Belastung" sehr hoch ist: Red Faction 3, Metro 2033, alles was mit Tess. zu tun hat, DX11 games, etc.
Auch die GPGPU Sachen gefallen mir.
Zeigt IMO DEUTLICH in die Zukunft: die GTX480 ist "robuster" als die HD5870.

Im Schnitt ist sie auch meßbar schneller, also paßt, also ist die "Fps-Gier" auch befriedigt.

Um die Sache abzurunden, werden es bei mir 2 Stück GTX480 im SLI Modus werden- da gibts dann keinerlei Rucklerei mehr, egal unter welcher Belastung/Game/Benchmark ;)
(und ja, ich kenne die Russen-Crysis-SLI Werte; da passen offenbar noch ein paar Profile nicht, wenn man sich das Scaling ansieht-> keine Panik, das kommt noch, ist ja erst der Launchtreiber)

Sie ist definitiv kein "Ouberchip", wie G80 es war, und ja, sie braucht den Holzhammer, um wieder die Krone zu tragen (diesmal ist der Holzhammer sogar leicht beschädigt worden, siehe 480sp :ugly:), aber sie ist der neue Chef im Haus- damit müssen die AMDler jetzt erstmal leben :cool:
Die Zielgruppe ist klar Enthusiast, aber das ist ja bei Nvidia nix neues. Dementsprechend ist auch der Preis angelegt. Daß, besonders in deutschen reviews, über Strom und Hitze geWHINEd wird, überrascht mich auch nicht sonderlich.

Die GTX480 ist sicher nichts für die Masse, da wäre die GTX470 sinnvoller, denn sie "kann alles" (DX11, Phys-X, Cuda, Tess. Power etc), kostet aber weniger. Sie ist daher meine Empfehlung für die "Allgemeinheit" (ja genau, NICHT die HD58xx :P)

Im Prinzip hätte mir die Quad-SLI (2x GTX295) Leistung eh gereicht, aber man will ja auch mal endlich DX11 haben- 2x GT480 kommen gerade recht :)

Fazit:

1.) Dieses Bild zeigt, was durchschnittlich so abgeht:

http://www.abload.de/img/480vs5870udsx.png (http://www.abload.de/image.php?img=480vs5870udsx.png)

2.) Dazu gibt es einfach Belastungen, wo Fermi Cypress leistungsmäßig regelrecht verprügelt- Cypress aber umgekehrt Fermi niemals richtig verprügeln kann (abgesehen von vielleicht einigen rein synthetischen Tests).

Daraus folgt, daß Fermi der bessere Chip ist.
ABER: ist das so tragisch? Ich sage: NEIN, denn Fermi ist auch 6 Monate jünger, also darf der das :D

Sentionline
2010-03-27, 04:28:15
10-15% Mehrleistung bei 100% mehr Verbrauch :facepalm:
Wo 100% mehr verbrauch? Wollen mich veräppeln?

http://www.abload.de/thumb/zwischenablage020vh0.jpg (http://www.abload.de/image.php?img=zwischenablage020vh0.jpg) http://www.abload.de/thumb/zwischenablage038js7.jpg (http://www.abload.de/image.php?img=zwischenablage038js7.jpg)

35% mehr Verbrauch bei 130% Performancezuwachs. So seh ich das. ;)

DrFreaK666
2010-03-27, 04:29:53
Ok, >3 Stunden Reviewlesen durch :ugly:

AF kostet jetzt mehr, aber unabhängig ob HQ oder nicht :(
AA skaliert recht brav, was vermutlich AF wieder ausgleicht :ugly:

Strom und Hitze sind mir egal, da ein passendes NT (1250W Emermax Revolution) vorhanden ist und Stromkosten eh lächerlich sind.
Gegen die Hitze werde ich zu 99% einen GPU-only Wasserblock verwenden, den Rest kühlt eh die Platte :cool:

Bei "wichtigen" games ist die GTX480 deutlich vorne (außer Crysis), sprich bei games, wo die "Belastung" sehr hoch ist: Red Faction 3, Metro 2033, alles was mit Tess. zu tun hat, DX11 games, etc.
Auch die GPGPU Sachen gefallen mir.
Zeigt IMO DEUTLICH in die Zukunft: die GTX480 ist "robuster" als die HD5870.

Im Schnitt ist sie auch meßbar schneller, also paßt, also ist die "Fps-Gier" auch befriedigt.

Um die Sache abzurunden, werden es bei mir 2 Stück GTX480 im SLI Modus werden- da gibts dann keinerlei Rucklerei mehr, egal unter welcher Belastung/Game/Benchmark ;)
(und ja, ich kenne die Russen-Crysis-SLI Werte; da passen offenbar noch ein paar Profile nicht, wenn man sich das Scaling ansieht-> keine Panik, das kommt noch, ist ja erst der Launchtreiber)

Sie ist definitiv kein "Ouberchip", wie G80 es war, und ja, sie braucht den Holzhammer, um wieder die Krone zu tragen (diesmal ist der Holzhammer sogar leicht beschädigt worden, siehe 480sp :ugly:), aber sie ist der neue Chef im Haus- damit müssen die AMDler jetzt erstmal leben :cool:
Die Zielgruppe ist klar Enthusiast, aber das ist ja bei Nvidia nix neues. Dementsprechend ist auch der Preis angelegt. Daß, besonders in deutschen reviews, über Strom und Hitze geWHINEd wird, überrascht mich auch nicht sonderlich.

Die GTX480 ist sicher nichts für die Masse, da wäre die GTX470 sinnvoller, denn sie "kann alles" (DX11, Phys-X, Cuda, Tess. Power etc), kostet aber weniger. Sie ist daher meine Empfehlung für die "Allgemeinheit" (ja genau, NICHT die HD58xx :P)

Im Prinzip hätte mir die Quad-SLI (2x GTX295) Leistung eh gereicht, aber man will ja auch mal endlich DX11 haben- 2x GT480 kommen gerade recht :)

Fazit:

1.) Dieses Bild zeigt, was durchschnittlich so abgeht:

http://www.abload.de/img/480vs5870udsx.png (http://www.abload.de/image.php?img=480vs5870udsx.png)

2.) Dazu gibt es einfach Belastungen, wo Fermi Cypress leistungsmäßig regelrecht verprügelt- Cypress aber umgekehrt Fermi niemals richtig verprügeln kann (abgesehen von vielleicht einigen rein synthetischen Tests).

Daraus folgt, daß Fermi der bessere Chip ist.
ABER: ist das so tragisch? Ich sage: NEIN, denn Fermi ist auch 6 Monate jünger, also darf der das :D

Man sollte auch nicht vergessen, dass der Konkurrent der 5870 die GTX470 ist.
Und diese 2 Karten sind in etwa gleich schnell

Gast
2010-03-27, 04:31:03
Mehr Leistung => mehr Leistungsaufnahme. Ich verstehe aber schon, das man sich nur am einzigen Salzkorn zuviel in der Suppe aufseilen kann. ;)

...die bei ATi nicht vorhanden sind...:ucoffee:

Ein Salzkorn wäere ja noch akzeptabel. Aber 3 Säcke Salz bisschen viel.
Was NV sich da geleistet hat wird in die Geschichte eingehen.
Greenpeace druckt schon warning Grill Force Flugplätter. Und die Atom Lobby plant neue Reaktoren. Mehr hat der Fermi nur messbare Leistung. Aber dafür nen tollen hörbaren Sound. Und ne deutlich spürbare Heizung dabei. Und dann noch versuchen die Deppen abzuzocken. Besser gehts ja kaum. Feilen muss NV sonst niemand.

Sentionline
2010-03-27, 04:34:23
"Ökonomisch" ist ja auch die Featureliste der RV8x. Aber darum solls hier ja nicht gehen, sonst müsste ich wieder die Liste ausm Ärmel fallen lassen :freak:

Man sollte auch nicht vergessen, dass der Konkurrent der 5870 die GTX470 ist.
Sagt wer?

Jake Dunn
2010-03-27, 04:35:44
Wo 100% mehr verbrauch? Wollen mich veräppeln?

http://www.abload.de/thumb/zwischenablage020vh0.jpg (http://www.abload.de/image.php?img=zwischenablage020vh0.jpg) http://www.abload.de/thumb/zwischenablage038js7.jpg (http://www.abload.de/image.php?img=zwischenablage038js7.jpg)

35% mehr Verbrauch bei 130% Performancezuwachs. So seh ich das. ;)

Komm doch gleich mit UHDV Auflösung ^^


235W vs. 128W beim normalen zocken ;)

http://www.abload.de/img/unbenanntrgjp.jpg (http://www.abload.de/image.php?img=unbenanntrgjp.jpg)

DrFreaK666
2010-03-27, 04:39:10
"Ökonomisch" ist ja auch die Featureliste der RV8x. Aber darum solls hier ja nicht gehen, sonst müsste ich wieder die Liste ausm Ärmel fallen lassen :freak:


Sagt wer?

Der Preis

Sentionline
2010-03-27, 04:40:10
Bei keiner vorhandenen Karte. Alles klar ;)

Die GTX470 hat wohl mehr drauf als nur "Spielen", das nur so am Rande hinter die Ohren schreiben. ;)

Nightspider
2010-03-27, 04:41:18
Also Fermi werde ich mir nicht kaufen.

Ich warte 6 Monate und kauf mir dann für Mafia 2, Crysis 2 etc. den Refresh bzw. was es dann halt gibt.

Solange bleibe ich bei 2*GTX280, denn Fermi ist ist:

-mir zu langsam (dort wo Fermi punktet, punkten auch schon die GT200 Chips)
-scheinbar immernoch VRAM bug
-suckt in Crysis
-auf Metro scheiß ich ;D (ich zock es in DX10 flüssig, wozu DX11? auf DoF kann ich verzichten)
-Stromverbrauch (kein großes Kriterium aber schon heftig, wenn man es objektiv betrachtet)
-Lautstärke
-teureres AF

Unterm Strich geb ich jetzt keine 450 Euro aus + 100 Euro für Wasserkühler für kaum Mehrleistung (gegenüber meinem GTX280 SLI gespann).

Gast
2010-03-27, 04:41:47
Der Preis

Nvidia Karten bieten mehr Extras das muss ja auch von irgendwas bezahlt werden.

DrFreaK666
2010-03-27, 04:44:57
Bei keiner vorhandenen Karte. Alles klar ;)

Die GTX470 hat wohl mehr drauf als nur "Spielen", das nur so am Rande hinter die Ohren schreiben. ;)

Die Wenigstens denken an Photoshop oder ähnliches wenn sie eine Graka kaufen wollen.

Sentionline
2010-03-27, 04:45:59
Nvidia Karten bieten mehr Extras das muss ja auch von irgendwas bezahlt werden.
Nicht nur das, der Chip ist in seinen Ausmaßen "gewaltig". Ist doch klar das hier und da noch optimiert werden wird. Die Leistung wird gesenkt und die Featureliste erweitert werden, mit sicherheit.

Bei ATi undenkbar. Der Fermi wird schon recht flexibel werden, zumal mit 3DVision und native C++ viel zu machen sein wird. Warten wir mal bis Sommer. ;)

Die Wenigstens denken an Photoshop oder ähnliches wenn sie eine Graka kaufen wollen.
Dennoch gut zu wissen das da was ist, was die Konkurenz ausserhalb des Tellerrands nicht anbietet. Auch nicht gegen zuzahlung.

Gast
2010-03-27, 04:47:27
Nvidia Karten bieten mehr Extras das muss ja auch von irgendwas bezahlt werden.

ja.
mehr Lautstärke und höhere Stromrechnungen wollen bezahlt werden

DrFreaK666
2010-03-27, 04:48:02
Nicht nur das, der Chip ist in seinen Ausmaßen "gewaltig". Ist doch klar das hier und da noch optimiert werden wird. Die Leistung wird gesenkt und die Featureliste erweitert werden, mit sicherheit.

Bei ATi undenkbar. Der Fermi wird schon recht flexibel werden, zumal mit 3DVision und native C++ viel zu machen sein wird. Warten wir mal bis Sommer. ;)

Was soll denn an Features dazu kommen?

Sentionline
2010-03-27, 04:50:34
Was soll denn an Features dazu kommen?
Meine Kristallkugel ist im Urlaub. Aber moment...

PhysX kam und jetzt? Zig Spiele auf Basis dessen. Cuda kam und jetzt? Zig anwendungen auf Basis dessen. C++ kam und weiter? Es werden zig Anwendungen geben auch für nicht spieler. Wetten?

Als Konsolenersatz taugt eine RV8x. Eine GTX4x eignet sich für leute die mehr wollen und vorbereitet sind.

DrFreaK666
2010-03-27, 04:52:16
Meine Kristallkugel ist im Urlaub. Aber moment...

PhysX kam und jetzt? Zig Spiele auf Basis dessen. Cuda kam und jetzt? Zig anwendungen auf Basis dessen. C++ kam und weiter? Es werden zig Anwendungen geben auch für nicht spieler. Wetten?

gute PhysX-Spiele kann man an 2 Händen abzählen.
Cuda interessiert Zocker nicht

edit: gute Physx-Games: Batman, Mirror's Edge, Sacred 2, Unreal Tournament 3 (4 Games!!! oder habe ich was vergessen??)

Sentionline
2010-03-27, 04:53:58
Darum sag ich ja, die Karte taugt auch als Supercomputer ersatz. Ist nicht nur auf Spieler ausgerichtet. Jetzt verstanden?

Gast
2010-03-27, 04:54:46
ja.
mehr Lautstärke und höhere Stromrechnungen wollen bezahlt werden

Wayne...manche kaufen Plasma wegen SD verknallern doppelt soviel Strom, andere geben sich mit LCD zufrieden. Wers billig mag greift zur Ati, wer mehr fürs Geld will kauf Nvidia.

DrFreaK666
2010-03-27, 04:55:37
Darum sag ich ja, die Karte taugt auch als Supercomputer ersatz. Ist nicht nur auf Spieler ausgerichtet. Jetzt verstanden?

Dann zahlen Spieler für features, die sie nicht brauchen :uclap:

Gast
2010-03-27, 04:55:42
edit: gute Physx-Games: Batman, Mirror's Edge, Sacred 2, Unreal Tournament 3 (4 Games!!! oder habe ich was vergessen??)

Batman2,Mafia2,Gothic4 alles in der Pipe...

Sentionline
2010-03-27, 04:57:46
Dann zahlen Spieler für features, die sie nicht brauchen :uclap:
Die Karte kann alles. Das zählt. Und ist der schnellste SingleChip das auch C++ durchrattern kann. Raytracing wird auch so langsam Praktikabel. Das sind wegweisungen, die ATi nicht sieht oder sehen will.

oder hinterherhinkt

Meine Freundin kann nicht gut kocken, wäre aber schön wenn sie es könnte. ;)

DrFreaK666
2010-03-27, 04:59:39
Die Karte kann alles. Das zählt. Und ist der schnellste SingleChip das auch C++ durchrattern kann. Raytracing wird auch so langsam Praktikabel. Das sind wegweisungen, die ATi nicht sieht oder sehen will.

oder hinterherhinkt

Raytracing ruckelt selbst auf eine GTX480.
Der Konkurrent zur HD5870 ist die GTX470!!!

Sentionline
2010-03-27, 05:02:53
http://www.abload.de/img/zwischenablage02x221.jpg

Deswegen sag ich ja: "So langsam". Was hat denn ATi in dessen Entwicklung beizutragen?

Ich kenne nur das: Cinema 2.0: New RUBY Demo (http://www.youtube.com/watch?v=0YjXCae4Gu0&NR=1)

Und das gibts nicht zum runterladen. Warum auch? Läuft sowieso nicht der "vorgerenderte" Sch*** auf einer RV8x.

DrFreaK666
2010-03-27, 05:05:11
http://www.abload.de/img/zwischenablage02x221.jpg

Deswegen sag ich ja: "So langsam". Was hat denn ATi in dessen Entwicklung beizutragen?

Soll doch nv Geld investieren.
Wenn Raytracing mal soweit ist ist ATI zur Stelle :biggrin:

Nightspider
2010-03-27, 05:07:09
EVGA Wasserkühler:

http://www.evga.com/articles/00539/

Sentionline
2010-03-27, 05:10:23
Quelle (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/nvidia_geforce_gtx_480_470/)
Mit der GeForce GTX 470 will man das gehobene Mainstream-Segment um die starke Radeon HD 5850 bedienen, die GTX 480 hat quasi nur ein Ziel: die Performancekrone!
Soviel dazu...

DrFreaK666
2010-03-27, 05:11:19
Soviel dazu...

Ist ja toll was nv will.
Wenn die GTX470 aber genauso viel kostet wie eine HD5870 dann ist eben diese die Konkurrentin.

Jake Dunn
2010-03-27, 05:12:26
Mein Fazit: Fermi in der Form ist leider schlecht für den (Gamer)-Markt :(

tombman
2010-03-27, 05:12:31
Der Preis
Der Preis ist nicht das Wichtigste.
Ja, eine HD5970 kostet das selbe wie eine GTX480 (oder fast) und ist deutlich schneller.
Trotzdem will ich keine- falls man sie überhaupt kaufen könnte, GH zeigt 0 lagernd in ganz EU ;D

Sentionline
2010-03-27, 05:14:12
Ihr wollt es am Preis festmachen. OK, dann zeig mir mal die Preise der Kaufbaren GTX 4x? Es war schon immer so das die Nvidia Karten etwas teurer sind, denn sie können einfach mehr als ATi Karten. Das war seid der G8x so, und wird auch weiterhin wahrscheinlich so sein.

Durch Cuda, besserer Tesseletationsleistung und PhysX ist man sogar für die nächsten 2 Jahre abgesichert. Ich zahle gerne Geld für eine Karte, mit der ich auch mit Pyrid meine spirenzchen machen kann.

Nightspider
2010-03-27, 05:14:14
Eine GTX 495 dürfte damit wohl auch gestorben sein, solang NV mit einem B2/3 Stepping keine merklichen Erfolge erzielen wird. (Wovon ich nicht ausgehe)

Selbst mit 512sp Karte und niedrigeren Taktraten seh ich keine Chance das Ding halbwegs kühl zu halten mit selber Lautstärke ohne auf 3 Slot auszuweichen.
Und selbst dann wären wohl mindestens zwei 8pol-Stecker nötig was außerhalb der spezifikationen liegt.

Mit Wasser geht alles aber mit Luft stell ich mir eine DualChip-Thermi-Karte schwer vor.

Mal sehen was die neuen Steppings bringen werden.

DrFreaK666
2010-03-27, 05:14:19
Der Preis ist nicht das Wichtigste.
Ja, eine HD5970 kostet das selbe wie eine GTX480 (oder fast) und ist deutlich schneller.
Trotzdem will ich keine- falls man sie überhaupt kaufen könnte, GH zeigt 0 lagernd in ganz EU ;D

Wenn man zwei Karten vergleicht dann müssen diese aber gleichteuer sein, sonst macht das keinen Sinn.
Nicht jeder verplempert sein Geld in teure GPUs.
Für manche sind 350€ das maximale.
Und genau dort sind die GTX470 und die HD5870

Ihr wollt es am Preis festmachen. OK, dann zeig mir mal die Preise der Kaufbaren GTX 4x? Es war schon immer so das die Nvidia Karten etwas teuer sind, denn sie können einfach mehr als ATi Karten. Das war seid der G8x so, und wird auch weiterhin wahrscheinlich so sein.

Die Geforces waren nicht teurer weil sie das tolle PhysX und Cuda können, sondern weil sie komplexer und in der Herstellung teurer als die ATI-Konkurrenz war

Savay
2010-03-27, 05:18:12
Die Wenigstens denken an Photoshop oder ähnliches wenn sie eine Graka kaufen wollen.

ich behaupte mal ganz frech die wenigsten die hier auf GPGPU rumreiten nutzen überhaupt CS4 in der praxis :rolleyes:

die darstellung ist über OpenGL beschleunigt...das kann jede halbwegs aktuelle karte...
von den effekt filtern ist von haus aus keiner in irgendeiner form GPU beschleunigt...das aufwändigste sind mit abstand entrauschfilter ala neat image und DIE laufen selbst über eine ach so lahme CPU derart flott über ein 15MPix RAW das es mich wundert wo der GPGPU vorteil denn letztlich münden soll... :freak:

viele der photoshop filter sind ja nichtmal multicore optimiert ;D

und kommt mir ja nicht mit batch processing...das macht KEIN schwanz ausser es ist ne bilderserie...schonmal im lebtag mehr als 5 bilder gehabt die einen dermaßen geringen unterschied in ihrem aufbau und den lichtverhältnissen haben das batch processing wirklich praktikabel anwendbar ist? :rolleyes: alles andere muss man eh per hand nachbearbeiten

ausser um in einem rutsch nen album zu skalieren und schärfen kann ich mir nicht wirklich eine einsatzmöglichkeit fürs batch processing ausdenken... und genau das geht ausgerechnet auf CPUs bisher auch durchaus schnell genug...
oh halt ich vergass...passend zur fermi und der CS4 version mit kompletten CUDA filtern gibts natürlich eine 40MPix Mittelformat kamera dazu...mea culpa

für den 08/15 anwender bleibt somit meiner meinung nach nur Video Encoding...da bringt es wirklich mal was. einziges problem: wieviele GPGPU video enconder gab es noch gleich die eine anständige qualität liefern!? :redface:

oh nicht missverstehen GPGPU ist eine tolle sache...wenn es sich denn wirklich mal durchsetzt...NOCH steckt es mehr als nur in den kinderschuhen...vorallem für Heimanwender...kurzfristig wird sich da garnix tun.
für Unternehmen ist es dafür mittelfristig umso interessanter.

bleibt zu hoffen das es irgendwann wirklich mal früchte trägt damit das GPGPU argument auch endlich mal zieht und nicht einfach nur nach ausrede schmeckt und wie eine freakige spielerei anmutet :freak:

Kosh
2010-03-27, 05:21:08
Darum sag ich ja, die Karte taugt auch als Supercomputer ersatz. Ist nicht nur auf Spieler ausgerichtet. Jetzt verstanden?

Und was interessiert Spieler, das die Karte noch Sachen kann,die sie niemals im Leben brauchen??

Ich brauche nichtmal PhysX und Cuda.Ganz zu schweigen von irgendwelchen Semi Professionellen Kram.

Sentionline
2010-03-27, 05:21:55
Ich find Ikena, Pyrit und vReveal mehr als nur eine Spielerei. ;) Die andere Software kann ich mir nicht leisten.

DrFreaK666
2010-03-27, 05:29:06
Ich find Ikena, Pyrit und vReveal mehr als nur eine Spielerei. ;) Die andere Software kann ich mir nicht leisten.

Dann ist es wohl die richtige Karte für dich.
Aber für die Masse sind solche Features uninteressant

tombman
2010-03-27, 05:31:50
Wenn man zwei Karten vergleicht dann müssen diese aber gleichteuer sein, sonst macht das keinen Sinn.
Nicht jeder verplempert sein Geld in teure GPUs.
Für manche sind 350€ das maximale.
Und genau dort sind die GTX470 und die HD5870

"Verplempern" und "teuer" sind immer relativ.
Manche wollen einfach das gute Gefühl, jedes verfickte Detail in jedem verkackten game sehen zu können. Für dieses Gefühl zahlen dann manche auch mehr. Das muß nicht jeder verstehen.

Die Geforces waren nicht teurer weil sie das tolle PhysX und Cuda können, sondern weil sie komplexer und in der Herstellung teurer als die ATI-Konkurrenz war
Und was ist, wenn sie C++, Cuda, Phys-X etc können, WEIL sie so komplex sind? ;)

Btw, Metro und Heaven zeigen ja, daß AMD ihren Chip auch verändern müssen, genauso wie Nvidia verändert hat. Vielleicht war der Zeitpunkt bei 40nm etwas zu früh, aber AMD wird es tun müssen.

Vielleicht war Fermi wirklich nur ein Tesla-Chip, für den "wir" jetzt alle "bluten" dürfen, weil wir für Sachen zahlen, die bei games nix bringen- aber so ist nun mal die Situation. Friß oder stirb (= HD58xx ;D)

Savay
2010-03-27, 05:32:23
pyrit ist nun wirklich nichts was du ernsthaft als GPGPU blockbuster verkaufen willst!?

das GPGPU bei postprocessing von video material etwas bringt hat nie jemand abgestritten!
aber im ernst...wieviele videos hast du schon per GPGPU hochgerechnet und restauriert? ;)

das ist für weniger anwender interessant als manche gerne den anschein erwecken wollen wenn sie CUDA oder GPGPU in den mund nehmen...

im grunde ist GPGPU nichts anderes als die nutzbarkeits machung der gamerhardware für wissenschaftliche und wirtschaftliche zwecke als supercomputer ersatz bzw ergänzung....das ganze zielt zu 99,9% auf den professionellen markt.

Sentionline
2010-03-27, 05:32:45
Wenn die Programme richtig geschrieben sind, ist die Leistung der Cuda Anwendungen wirklich "extrem". Und wenn die Programierung solcher durch die Karte selber auch noch beschleunigt wird, dann wirds richtig geil in der nächsten Zeit.

Gast
2010-03-27, 05:34:57
Fermi ist gut. Und jeder der Geld in der Tasche hat und das schnellste haben will holt sich die 480. Liebe Leute, jede Wette die 480 wird den Händlern aus den Händen gerissen.

Wer Performance will greift zu 5870/470.

Sentionline
2010-03-27, 05:37:30
pyrit ist nun wirklich nichts was du ernsthaft als GPGPU blockbuster verkaufen willst!?
Ein Krümmel da, ein klumpen hier...usw. Das addiert sich und ist immernoch mehr, als was ATi mit stream da liefert. ;)

Wer kann sich an das tolle XCoder erinnern? ;D

Mit DX11 wollen die was machen (http://www.tomshardware.de/ATi-Stream-AMD-gpgpu,testberichte-240350.html). Kommt immernoch nix.

Gast
2010-03-27, 05:40:47
Übrigens wurden hier schon EVGA Teile mit Wakü gepostet. Die werden gekauft weil die 480 einfach die schnellste Einzelkarte ist. Dadurch entfällt Hitze+Lautstärke.

Gast
2010-03-27, 05:44:14
EVGA GTX 480 Hydro Copper. 50 Grad steht da. Also bitte. Der Mehrverbrauch unter Last juckt Enthusiasten nicht.

Savay
2010-03-27, 05:47:03
Wenn die Programme richtig geschrieben sind, ist die Leistung der Cuda Anwendungen wirklich "extrem". Und wenn die Programierung solcher durch die Karte selber auch noch beschleunigt wird, dann wirds richtig geil in der nächsten Zeit.

du weichst aus...nenn mir doch die MUST have anwendung für GPGPU für average Joe

bildbearbeitung auf professionellem niveau (CS4) mit bildmaterial von "amateur" kameras bis zur Canon 5DMk2 oder auch der 1DsMk3...also halt ganz alltägliche software mit ganz alltäglicher hardware die jeder zuhause rumfliegen hat :wink:...kann es wohl kaum sein...denn selbst FullFrame DSLR kommen über 24MPix nur schwerlich hinaus! auf dem level reicht bisher noch jede CPU aus...

das einzige was IMO wirklich eine domäne für GPGPU sein könnte wäre Videobearbeitung und Encoding...da ist aber das selbe problem...die passenden video streams müssen auch erstmal auf den Rechner.
daraus folgt ebenfalls teure hardware...
video bearbeitung ist ein eher selten ausgeübtes hobby...video restaurierung erst recht und sogar noch teurer.

was hat der 08/15 nutzer an video material daheim das er restaurieren und womöglich digitalisieren will?! ist es sinnvoll >400€ auszugeben nur um es sich zu ersparen den rechner mal die nacht über einen batch von videos abarbeiten zu lassen?!

bislang fehlt mir abseits von video bearbeitung einfach die killer app für GPGPU die dafür sorgen soll das es in aller munde ist und dazu führt das die leute die läden einrennen nur um eine GPU zu kaufen. :cool:
das ganze ist und bleibt im wesentlichen ein feature für den professionellen markt...das dort nV mehr leidensdruck hat als AMD sollte klar sein.

einerseits werden CPUs immer schneller und haben immer mehr kerne und es fehlen dennoch großteils anwendungen die überhaupt die rechenleistung benötigen und ausreizen und andererseits wird hier nach GPGPU geschrien als wäre es die erlösung für die leidgeplagten nutzer...
eine komische zeit in der wir leben in der einerseits netbooks reichen und zum verkaufsschlager werden und andererseits es ohne GPGPU einfach garnicht mehr auszuhalten ist ;)

DrFreaK666
2010-03-27, 05:54:08
"Verplempern" und "teuer" sind immer relativ.
Manche wollen einfach das gute Gefühl, jedes verfickte Detail in jedem verkackten game sehen zu können. Für dieses Gefühl zahlen dann manche auch mehr. Das muß nicht jeder verstehen.

Und was ist, wenn sie C++, Cuda, Phys-X etc können, WEIL sie so komplex sind? ;)

Btw, Metro und Heaven zeigen ja, daß AMD ihren Chip auch verändern müssen, genauso wie Nvidia verändert hat. Vielleicht war der Zeitpunkt bei 40nm etwas zu früh, aber AMD wird es tun müssen.

Vielleicht war Fermi wirklich nur ein Tesla-Chip, für den "wir" jetzt alle "bluten" dürfen, weil wir für Sachen zahlen, die bei games nix bringen- aber so ist nun mal die Situation. Friß oder stirb (= HD58xx ;D)

Die fermis sind ja so schnell, das AA ist im Vergleich aber schlechter.
Da hat ATI an den Gamer gedacht.

Ein Krümmel da, ein klumpen hier...usw. Das addiert sich und ist immernoch mehr, als was ATi mit stream da liefert. ;)

Wer kann sich an das tolle XCoder erinnern? ;D

Mit DX11 wollen die was machen (http://www.tomshardware.de/ATi-Stream-AMD-gpgpu,testberichte-240350.html). Kommt immernoch nix.

Den Gamer interessiert Cuda nicht

Gast
2010-03-27, 05:57:57
Im EVGA Forum gehts schon los mit den Bestellungen. Wie gesagt, die 480 wird schnell ausverkauft sein. Also liebe ATI Fanboys, nicht alles schwarz malen, es gibt noch Zwischentöne.

Kosh
2010-03-27, 06:04:42
Im EVGA Forum gehts schon los mit den Bestellungen. Wie gesagt, die 480 wird schnell ausverkauft sein. Also liebe ATI Fanboys, nicht alles schwarz malen, es gibt noch Zwischentöne.

Natürlich wird sie das sein. Das Angebot an GTX480 Karten wird sehr gering sein. Somit wäre die Karte auch für 1000 Euro schnell ausverkauft, weil es genug NVIDIA Fans gibt,die jeden preis für ihre NVIDIA Karte zahlen würden.

Für 500-600 Euro gibts da natürlich noch mehr potentielle Käufer.

Ändert aber nichts dran,das wohl primär das geringe Angebot dafür sorgen wird,das sie schnell ausverkauft sein wird.

Savay
2010-03-27, 06:05:59
Den Gamer interessiert Cuda nicht

um mal eine provokante these aufzustellen:
nichtmal enthusiasten mit hang zum benchmarken interessieren sich abseits vom...nunja...benchmarken wirklich für CUDA und konsorten! :freak:

hell_bird
2010-03-27, 06:07:50
ich frag mich welche Rolle der riesige L2-Cache bei den Spielen spielt. Ich könnte mir denken dass der Treiber für jedes Spiel wieder massiv optimiert werden muss um überhaupt davon zu profitieren.

Gast
2010-03-27, 06:10:41
NV bekommt das verkauft was die produzieren. Darum geht es. Es wird NICHT im Regal verstauben.

Gast
2010-03-27, 06:11:52
Da ich jetzt nicht alle Reviews durchgeackert habe, mal 'ne Frage: Hat sich eine der Review-Seiten dazu herabgelassen und das RPG Dragon Age mal mit den neuen Karten getestet?

Sentionline
2010-03-27, 06:12:54
du weichst aus...
Tu ich nicht.

...nenn mir doch die MUST have anwendung für GPGPU für average Joe
Hab ich schon.

...bildbearbeitung auf professionellem niveau (CS4)
Wer bearbeitet denn Bilder auf GPU? Alleine das zu verlangen ist blödsinn, weil im Vergleich zu Videobearbeitung der Zeitaufwand auf einer CPU geradezu lächerlich ist. Das ist eher ein Marketing Argument, aber nicht das "Killer Feature" das du sehen willst. Für Bilder reichen aktuell die schnellen DualCores aus.

bislang fehlt mir abseits von video bearbeitung einfach die killer app für GPGPU...
Videobearbeitung ist auch so ziemlich das Rechenintensivste neben Spiele, und genau da ist Cuda an erster stelle.

Die Richtung geht von SD zu HD. Das Problem der meisten SD Videos ist das Rauschen und die Artefaktbildung. Zudem der Detailverlust und bei Homecams die Bildstabilität. Für genau solche Problemfälle ist Ikena und auch vReveal erste Wahl. Die umrechnung zu HD ist die zusätzliche Last, aber auch das übernehmen die (Cuda-) GPUs. ATi kann sowas nicht, weil deren GPU Design aus dem Jahr 2007 stammt und man an sowas nicht mal gedacht hat, das es möglich ist. Man hats nur gebacken gekriegt sich mit XCoder und auch XCoder 2 lächerlich zu machen.

eine komische zeit in der wir leben in der einerseits netbooks reichen und zum verkaufsschlager werden und andererseits es ohne GPGPU einfach garnicht mehr auszuhalten ist ;)
Gut das du es ansprichst. mit dem Ion kann man wenigstens an ein kleines Spielchen (am Netbook) denken. Nvidia sei dank ;)

DrFreaK666
2010-03-27, 06:31:08
...
Gut das du es ansprichst. mit dem Ion kann man wenigstens an ein kleines Spielchen (am Netbook) denken. Nvidia sei dank ;)

Na dann hoffen wir mal, dass es bald einen Ion3 auf GTX480-Basis geben wird damit man am Netbook Cuda-optimierte Programme nutzen kann.
Nebenbei werden, dank den schnell drehenden Lüftern, die Schenkel mit heissen Luft versorgt

Gast
2010-03-27, 06:32:51
Übertaktungsmöglichkeiten von Guru3D. Schon gepostet?

http://www.guru3d.com/article/geforce-gtx-470-480-review/34

Sentionline
2010-03-27, 06:36:40
Nebenbei werden, dank den schnell drehenden Lüftern, die Schenkel mit heissen Luft versorgt
Jo, damit könnte man die Turions mit einer RV6x / RV7x ablösen :freak:

Savay
2010-03-27, 06:37:36
Die Richtung geht von SD zu HD. Das Problem der meisten SD Videos ist das Rauschen und die Artefaktbildung. Zudem der Detailverlust und bei Homecams die Bildstabilität. Für genau solche Problemfälle ist Ikena und auch vReveal erste Wahl.

jop...als interessierter anwender behalte ich natürlich meine SD DV cam um das schrott ausgangsmaterial mit einer 500 öcken teuren fermi dann in windeseile künstlich aufzupumpen... ;)

das optimum ist und bleibt das ausgangsmaterial qualitativ so hochwertig wie nur möglich aufzunehmen...nicht nachträglich informationen reinzurechnen die eigentlich garnicht da sind. wer sich dafür interessiert...der kauft sich keinen fermi sondern eine anständige HD kamera

was bleibt ist bestandsmaterial...alte videoaufnahmen...VHS material...nur hat VHS eine so geringe auflösung das man daraus nun wirklich keinen HD stream erzeugen will und allein der gedanke daran mir einen schauer über den rücken jagt
aber es ist wenigstens eine einsatz möglichkeit auch wenn die möglichkeit altes analoges material zu digitalisieren vlt einer von 1000 mal wirklich nutzt
nur: kauft der sich dafür extra eine GPU?
wohl kaum vorallem wenn man bedenkt das mindestens 8std am tag der PC ungenutzt in einer ecke steht und nach einigen tagen und wochen alles material gegessen ist...wichtiger als die frage wie schnell ich das analoge material dann später encondiere ist da eh eher die frage womit ich es überhaupt einigermaßen finanzierbar und qulitativ ansprechend digitalisiere...dagegen ist die frage CUDA oder nicht ein witz. zumal das digitalisieren selber in echtzeit geschieht...und das händische nachbearbeiten auch enorm zeit frisst.

bleiben noch die glücklichen leute mit FullHD camcorder die ihre regelmäßig erzeugten videos dann auch wirklich aufwändig bearbeiten! wie groß ist der markt dafür? mal ab davon das in dem segment die rechenleistung etwas weniger limitiert weil wesentlich weniger rechenintensive bearbeitungsschritte erfolgen...aber immerhin es ist DER zielmarkt schlechthin für GPGPU im privaten sektor :freak:

sowas nennt man nun nicht wirklich massentauglich oder? wieviele leute kennst du die einen FullHD DV Camcorder besitzen?!


Gut das du es ansprichst. mit dem Ion kann man wenigstens an ein kleines Spielchen (am Netbook) denken. Nvidia sei dank ;)

du kaufst ein netbook zum spielen? :rolleyes:

mit verlaub...besteht die hälfte deiner aussagen immer aus lobhudelei über die großartigen errungenschaften nVidias? :biggrin:

Sentionline
2010-03-27, 06:43:03
mit verlaub...besteht die hälfte deiner aussagen immer aus lobhudelei über die großartigen errungenschaften nVidias?
Nicht immer, sonst besässe ich keine HD4x. Fortschritte und die Richtung gibt aber nach wie vor Nvidia vor. ATi versuchts per 0€ Strategie OpenSource. Daraus wird nix.

Ich kaufe überhaupt kein Netbook. Aber nachdem ich eine Stunde an einem NC10 gesessen hab und sogar die SD YouTube Videos ruckelten, hab ich müde lächelnd das Ding zurück gereicht. ;) Da sitze ich doch lieber an meiner 9300GS.

DrFreaK666
2010-03-27, 06:48:28
Nicht immer, sonst besässe ich keine HD4x. Fortschritte und die Richtung gibt aber nach wie vor Nvidia vor. ATi versuchts per 0€ Strategie OpenSource. Daraus wird nix.

Ich kaufe überhaupt kein Netbook. Aber nachdem ich eine Stunde an einem NC10 gesessen hab und sogar die SD YouTube Videos ruckelten, hab ich müde lächelnd das Ding zurück gereicht. ;) Da sitze ich doch lieber an meiner 9300GS.

Physx sollte imho sterben.
Von GPU-Physik sollten auch Radeon-Nutzer was haben

Sentionline
2010-03-27, 06:52:38
PhysX stirbt so schnell nicht, das wurde schon vor Jahren (ver-)nostredamus`iert. GPU Physik haben ATi nutzer die nächste Zeit erstmal nicht, solange PhysX noch da ist und Nvidia Zuckerrohre (den Devs) nachreicht. Inkl. Blumen und Pralinen wahrscheinlich ;)

Man sollte lieber hoffen das die Hotfixerei bei ATi aufhört. Das wäre mal wirklich Hardware Physikalisch..:freak:

Gast
2010-03-27, 06:56:26
Ba is die laut :(

http://www.pcgameshardware.de/aid,743374/PCGH-Uncut-HD-Video-Folge-4-Wie-schnell-ist-die-Geforce-GTX-480/Multimeda/News/

Gast
2010-03-27, 07:24:49
So, genug Reviews für heute.

Bin mit meiner Schätzung recht gut gefahren denke ich. 10 bis 15% schneller (sagt auch Anand, Ht4u sagt weniger, hardocp sagt Gleichstand, Hardwarecanucks sagen 13% ... Firingsquad und Driverheaven zeigen ein ähnliches Bild... ).

Also wie erwartet. Leistungsaufnahme und Lautstärke übertreffen allerdings sogar die schlimmsten Horrormeldungen... völlig verrückt ist das!

Vielleicht übersehe ich ja nur irgendwas und du kannst mich aufklären?
Zusammengefasst aus den Reviews ergibt sich folgendes Bild für die GTX480.

- Der idle Verbrauch liegt in beinahe allen reviews unter einer HD4870 und HD4890
- Die idle Lautstärke liegt in den meisten reviews unter einer HD4890
- Die Laustärke unter Last liegt in den meisten reviews unter einer HD4890

Das einzige was eindeutig höher liegt ist der Stromverbrauch unter Last der aber AUCH unter dem einer HD4870x2 liegt.

Damit hat sich nv zwar verschlechtert und liegt leider nur mehr auf dem Niveau der Vorgängergeneration von AMD, aber wenn ich mir ansehe wieviele lautstark zufriedene Kunden dieser Generation hier posten hätte ich mir ein bisschen mehr Selbstreflektion erwartet.

Ist die Lautstärke und Leistungsaufnahme der GTX480 gut? -> NEIN!
Ist die Lautstärke und Leistungsaufnahme der HD870 gut? -> JA!

War die Lautstärke und Leistungsaufnahme der HD48XX gut? -> NEIN!

Trotzdem stellt das für eine High-end Karte keinen Beinbruch dar und daher zu schreiben dass "Leistungsaufnahme und Lautstärke übertreffen allerdings sogar die schlimmsten Horrormeldungen... völlig verrückt ist das!" finde ich an deiner Stelle schon eher dreist und daher wenig verzeihlich.

Mit bayrischen Grüßen,
Dein Gast

Gipsel
2010-03-27, 07:28:50
Ich habe gerade gesehen, daß PCGH ja auch Folding@home getestet hat. Wäre ganz nett gewesen, mal zu sehen, wie sich die Karten bei den BOINC-Projekten Collatz@home (http://boinc.thesonntags.com/collatz/) oder Milkyway@home (http://milkyway.cs.rpi.edu/milkyway/) schlagen. Ist beides praktisch Number-Crunching in Reinform, allerdings sprechen sie zwei Sachen an, die mit Fermi stark verbessert worden sein sollen (momentan sieht eine GTX285 bei beiden richtig alt sogar gegen eine HD4800er aus, die HD5800er spielen in einer ganz anderen Liga).
Bei Collatz@home sind es 32bit Integer-Operationen (sind auf nvidia bisher ziemlich lahm, insbesondere die Multiplikation) und bei Milkyway Rechnungen in doppelter Genauigkeit (weiß man eigentlich schon, ob und wie stark das auf Geforce-Karten im Vergleich zu den Teslas gedrosselt wurde?). Bei Collatz kommt dann noch die Güte des Speichercontrollers (eventuell der Caches) dazu, da dort sehr viel (in praktisch zufälliger Reihenfolge) aus dem Speicher gelesen werden muß. Da hat Fermi gegenüber der GTX285 Faktor 3,5 (Collatz) oder sogar 6,2 (Milkyway) zuzulegen, um mit einer HD5870 gleichzuziehen.

Gast
2010-03-27, 07:32:16
Interessant sind die konkreten Wattangaben der GTX 480 im Vergleich zur HD5870 auf CB.

2D-Betrieb 25 Watt Mehrverbrauch
2D-Betrieb 2 Monitore 88 Watt Mehrverbrauch

3D-Betrieb Crysis Warhead 147 Watt Mehrverbrauch bei ca. 5% höherer Framerate

Die 147 Watt Mehrverbrauch zur HD5870 lassen den Schluß zu, das die Karte rund 300 Watt im Spielebetrieb zieht und damit 41 Watt mehr als eine GTX295 und 60 Watt mehr als eine HD5970

Menace
2010-03-27, 07:36:40
Da ich immer 2 Monitore nutze ist die G4XX in dieser Revision leider für mich gestorben. :frown:

Schwarzmetaller
2010-03-27, 07:49:42
Die Lautstärke ist irrelevant, die Hersteller werden wohl ziemlich zeitnah mit vom Referenzdesign abweichenden Kühllösungen aufwarten.
Aber die Leistungsaufnahme ist, milde ausgedrückt, völlig daneben - 15% Leistungsvorsprung vor der HD5870 bei 50% höherer Leistungsaufnahme (http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_nvidia_geforce_gtx_480/26/#abschnitt_leistungsaufnahme).

Sentionline
2010-03-27, 07:50:15
Hier tun ja alle (ATi Anhänger) so, als wenn ATi immer nur ökonomische und ultra Silent Sahne Chips rausgehauen hätte. :rolleyes:

Gipsel
2010-03-27, 07:54:49
Interessant sind die konkreten Wattangaben der GTX 480 im Vergleich zur HD5870 auf CB.

2D-Betrieb 25 Watt Mehrverbrauch
2D-Betrieb 2 Monitore 88 Watt Mehrverbrauch

3D-Betrieb Crysis Warhead 147 Watt Mehrverbrauch bei ca. 5% höherer Framerate

Die 147 Watt Mehrverbrauch zur HD5870 lassen den Schluß zu, das die Karte rund 300 Watt im Spielebetrieb zieht und damit 41 Watt mehr als eine GTX295 und 60 Watt mehr als eine HD5970
PCGH und noch irgendwer hat es direkt gemessen (isoliert nur die Karte, nicht das ganze System). Die GTX480 verbraucht in normalen Spielen irgendwas zwischen 230 und 265W (das ist mehr als eine HD5970, eine HD5870 liegt so irgendwo zwischen 120 und 160W) und unter Furmark sind es sogar mehr als 300W (Maximum war glaube ich 317W oder so, HD5870 liegt bei knapp 200W), was ebenfalls etwas mehr als eine HD5970 ist. Also verbrauchstechnisch wären 512 SPs bei 5-10% niedrigerem Takt wohl etwas besser gewesen :rolleyes:

Schwarzmetaller
2010-03-27, 07:54:55
Hier tun ja alle (ATi Anhänger) so, als wenn ATi immer nur ökonomische und ultra Silent Sahne Chips rausgehauen hätte. :rolleyes:
Dir sind die allgegenwärtigen Vergleiche mit der HD2900XT entgangen ;)....aber gemessen wird nunmal an der aktuellen Konkurrenz.

Sentionline
2010-03-27, 08:06:30
Na. Die 2900XT war jawohl mehr eine Lachnummer. Hat mehr verbraucht ja, war aber nicht schneller. Konnte erstrecht nicht mehr (-als die Konkurenz). Und dessen Preis war jawohl auch mehr als lächerlich. Ich seh da keine Parallelen.

Schwarzmetaller
2010-03-27, 08:12:50
Die HD2900XT war ATis überteuerte Highendkarte mit miserablem Leistungsaufnahme<->Leistungsverhältnis.

Edit:Ich werfe mal folgendes in den Raum:
Die Kosten für die schnellste Karte werden sich voraussichtlich auf etwa 479 Euro belaufen, wobei der endgültige Marktpreis durchaus etwas geringer ausfallen könnte und es darüber hinaus denkbar ist, dass es noch kleinere Preisanpassungen durch Reaktionen von ATi geben könnte.
Also teurer als die 5870 und dazu noch der Mehrverbrauch an Strom...in ~7 Stunden eine Kilowattstunde.

r@h
2010-03-27, 08:15:11
ARRRRGGGGHHHHHHHH!

Laut dem Test bei HT4U (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php) hat sich "Fermi" für mich endgültig disqualifiziert!
Nicht nur, das die Performance äusserst mau ist (ausser vielleicht bei Metro 2033, dem "Referenz"-Titel für Fermi :rolleyes:)...
...nein, in den 2D-Qualitäten hat des Teil endgültig versagt!

Wie war das noch?
- Leistungsaufnahme Idle... gerade noch erträgliche 50W
- MultiMon Betrieb (bei mir Standard)... krasse 115W!
- Abspielen einer BlueRay... mega-krasse 115W!!!

Mein Fazit?

Wieder eine (weitere) glatte Fehlkonstruktion seitens nVidia!
Geht schon wieder genauso los, wie seinerzeit mit der FX5800 und dananch mit der 8800GTX (G80).

Razor

P.S.: zur "Lautheit" sage ich lieber nichts... sonst rege ich mich nur noch mehr auf!

Sentionline
2010-03-27, 08:23:00
Ich glaube da kommt noch der Refresh des HybridPower. ;)

Amboss
2010-03-27, 08:23:52
So, hab mir soeben CoD MW für 19,95 EUR und Metro 2033 für 28,95 EUR bei Amazon gekauft, um mitreden zu können. Was geht mit den Preisen ab?
Ich denke, die GTX480 ist zwar Mist, aber eine refresh GTX470 (mit vernünftigen Kühler und gefixten 2D-Modus) und die kleineren GT104 Ableger könnten sich zu nem Geheimtipp mausern. Leider hat NV auf Teufel komm raus versucht, die neuen Karten in den Markt zu prügeln.

StevenB
2010-03-27, 08:24:28
Für mich ist die Karte eindeutig ein Fail (wie es hier so schön im Forum gesagt wird)

gem. CB im durschnitt 15-18% schneller, und das bei 150 watt mehr Verbrauch... schön das die Karte High End ist, aber bei dem Stromverbrauch hätte es auch nichts anderes sein dürfen....

PulsarS
2010-03-27, 08:25:15
VIIIEEELLL zu hohe Verlustleistung!

Kommen die Entwickler von Nvidia auch mal an die frische Luft?
Ich denke nicht, denn wie soll man sonst erklären, dass wenn die gesamte Elektronikbranche vom Öko-Virus befallen ist, Nvidia hier einfach die Zeichen der Zeit ignoriert. :freak:
Überall in der Branche wird auf Öko gemacht, auch weil es die Kunden so wollen, nur NV nicht.

Wenn jetzt die Verlustleistung wenigsten im Verhältnis zur gebotenen Leistung stehen würde...
Naja, gemessen an den Tendenzen in der Branche ist das ein ziemlicher Fail.

Die Early Adopters der HD5 Serie führen wahrscheinlich einen Freudentanz auf, weil sie das insgesamt ausgeglichenere Produkt schon vor einem halben Jahr kaufen konnten. Und die Karten haben bis jetzt noch nicht mal an Wert verloren.

Dieses mal sind diejenigen (mich inklusive), die (auf Fermi) gewartet haben, einfach die Loser :(

Gast
2010-03-27, 08:25:25
Ba is die laut :(

http://www.pcgameshardware.de/aid,743374/PCGH-Uncut-HD-Video-Folge-4-Wie-schnell-ist-die-Geforce-GTX-480/Multimeda/News/
Jo... wieder HT4U:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index14.php

5,4 Sone unter Last
9,1 Sone mit FurMark

OK, das dürfte selbst die FX5800 noch in den Schatten stellen!

:eek:
:O :O

Razor

P.S.: die "Idle"-Lautheit ist mir da echt vollkommen wurscht!
So werde ich mich weiter an meinem Scythe Setsugen erfreuen, der mit unauffälligen und permanenten 0,9 Sone vor sich hin säuselt ;)

TheBrother
2010-03-27, 08:27:10
Ich bin schon länger der Auffassung das sich GPU acceleration für Video nur bei mainstream oder Low end grakas lohnen. Fermi bestätigt das ein Glück kann man das meisst ausschalten.

Schwarzmetaller
2010-03-27, 08:27:52
Ich glaube da kommt noch der Refresh des HybridPower. ;)
Der Shrink auf 32nm mitsamt einer Entschlackung des Designs sollte schnell von statten gehen....dann ist auch der Stromverbrauch wieder halbwegs im Rahmen.
Die Lautstärke ist irrelevant, weil es nur das Referenzdesign ist.

Gast
2010-03-27, 08:29:11
Der Shrink auf 32nm mitsamt einer Entschlackung des Designs sollte schnell von statten gehen....dann ist auch der Stromverbrauch wieder halbwegs im Rahmen.
Die Lautstärke ist irrelevant, weil es nur das Referenzdesign ist.

Nur gibt es leider keine Foundry, die 32nm bulk anbieten wird.

Gast
2010-03-27, 08:30:27
Über die Sinnhaftigkeit, eine 470 oder 480 auf älteren Plattformen laufen zu lassen, kann man sicher streiten. Irgendwann kommt einfach nicht mehr genügend Futter vom System.

Trotzdem wäre es mal interessant zu sehen, wie sich Karten dieser Leistungsklasse beispielsweise auf einem alten P35 Board schlagen (Stichwort: kein PCIE 2.0). Gute CPU vorausgesetzt. Ähnliche Tests über die Leistungseinbuße bei nicht vorhandenem PCIE 2.0 gab es in der Vergangenheit ja bereits.

Davon ab: hat jemand schon Skalierungstests in Abhängigkeit der CPU-Leistung für die Karten entdeckt?

Ronny145
2010-03-27, 08:30:36
Der Shrink auf 32nm mitsamt einer Entschlackung des Designs sollte schnell von statten gehen....dann ist auch der Stromverbrauch wieder halbwegs im Rahmen.
Die Lautstärke ist irrelevant, weil es nur das Referenzdesign ist.


Ist nicht 28 nm der nächst angedachte Schritt bei GPUs?

GUNDAM
2010-03-27, 08:31:09
Ich finde nvidia hat mit der Geforce 480 die selben Fehler wiederholt, die sie schon mit der FX5800 Ultra vor 7 Jahren gemacht hatten: Minimal hoehere Performance im Vergleich zur Radeon 5870 wird durch extrem hohen Stromverbrauch und Lautstaerke erkauft.

Somit fuer mich eine 100%ige Fehlentwicklung.

Gast
2010-03-27, 08:31:42
Dieser Sentinel-Scheukpallen-Heini nervt.

Wer sich Zeit nimmt und die Ergebnisse der einzelnen Seiten vergleicht, der merkt, dass es teilweise deutliche Abweichungen in den Resultaten gibt. Der Grundtenor ist aber durchs Band weg derselbe: Die ATis sind die runderen Angebote. Da zeigt sich schon ein Wandel in der Denkweise, absurde Leistungsaufnahmen werden knallhart bestraft, zumal die Performance -bis auf ein paar Ausnahmen- auch nicht begeistert. Metro genieße ich aktuell noch mit Vorsicht.

Aber was ist eigentlich mit den hochgelobten BF:BC2 los? (http://anandtech.com/video/showdoc.aspx?i=3783&p=14) Das legt eine grauenhafte Performance auf den Tisch, auf allen Karten. Diese Frotsbite Engine überzeugt mich überhaupt nicht. Hoffentlich nutzen sie diese nicht für BF3.

Sentionline
2010-03-27, 08:32:31
Leute, Lesen Bildet. Die FX5800 und auch der Nachfolger waren lahm (-er als die Konkurrenz), Stromhungrig und sehr laut.

Hier ist es aber so, das die Karte schneller als die Konkurrenz ist, mehr kann, mehr strom verbraucht und lauter ist. Habt ihr irgendwelche ungeklärte Logiklücken? :| Per DIE Shrink und freischalten der gekapselten Einheiten hat Nvidia ja noch Refresh Luft zum Sommer/Herbst. Wo ist das Problem?

Tobe1701
2010-03-27, 08:35:32
Meine nächste Graka wird nach der Vorstellung wieder von ATI kommen. Lautstärke und Leistungsaufnahme hätte ich nur bei deutlich höherer Leistung akzeptiert, ebenso den Aufpreis gegenüber der Konkurrenz. Davon sehe ich leider nichts.

boxleitnerb
2010-03-27, 08:37:20
Verhältnismäßigkeit und so...Bruteforce ist alles andere als eine elegante Meisterleistung. Bei dem Transistorbudget und der Größe und dem Hype muss Fermi deutlichst schneller sein - ist er aber durchschnittlich nicht im Vergleich zu dem, was da investiert wird. Und selbst die DX11 Ausnahmefälle werden einfach zu teuer erkauft.

Gunslinger
2010-03-27, 08:37:52
Wenn ich bedenke, dass mich die 5870 vor 6 Monaten effektiv 325,-- gekostet hat, war das wohl ein richtiges Schnäppchen.

Das Traurige an der jetzigen Situation ist, dass die Kartenpreise sicher nicht sinken werden, eher sogar noch steigen.

TheBrother
2010-03-27, 08:37:55
Das mit dem Stromverbrauch ist schon extrem traurig nur leider gibt's keine Alternative. Die 5870 will ich nicht Dual GPU lösungen sind Schrott und brauchen gleich viel oder mehr Strom. Da bleibt nur Fermi. Die Gtx 280 ist mit Oc bei 2560x1440 einfach am Anschlag.

Mr. Lolman
2010-03-27, 08:38:02
Jo... wieder HT4U:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index14.php

5,4 Sone unter Last
9,1 Sone mit FurMark

OK, das dürfte selbst die FX5800 noch in den Schatten stellen!

:eek:
:O :O

Razor

P.S.: die "Idle"-Lautheit ist mir da echt vollkommen wurscht!
So werde ich mich weiter an meinem Scythe Setsugen erfreuen, der mit unauffälligen und permanenten 0,9 Sone vor sich hin säuselt ;)

PCGH hat sogar bis 11,9 Sone gemessen.

Amboss
2010-03-27, 08:38:37
Per DIE Shrink und freischalten der gekapselten Einheiten hat Nvidia ja noch Refresh Luft zum Sommer/Herbst. Wo ist das Problem?
Das Problem ist, dass sie sich diese Zeit nicht genommen haben, stattdessen lassen sie so etwas auf die Menscheit los. Völlig unausgereift, da hat ein Manager wieder mal nicht auf die Techniker gehört, sondern nur seinen Terminkalender und ATI im Hinterkopf gehabt.

PulsarS
2010-03-27, 08:38:54
Hier ist es aber so, das die Karte schneller als die Konkurrenz ist, mehr kann, mehr strom verbraucht und lauter ist. Habt ihr irgendwelche ungeklärte Logiklücken?
Klar doch!
15 % mehr Leistung als eine 5870 aber DEUTLICH mehr Verlustleistung als die 15%.
Was gibt es daran nicht zu verstehen?
In der heutigen Zeit, wo fast alle auf Öko machen, zumindest in der Elektonikbranche, ist das einfach ein Fail.
Da kann man nichts schönreden.
Wer schneller ist, der darf auch mehr verbrauchen.
Nur muss das im Verhältnis stehen.
Das ist bei Fermi nicht der Fall.

Ich hoffe es war selbst für Dich verständlich ausgedrückt. :P

boxleitnerb
2010-03-27, 08:40:43
Ich hoffe es war selbst für Dich verständlich ausgedrückt. :P

Ich glaub nicht, wetten? :D

Hier sieht man mal wieder schön den Fanboy (allgemein, niemand fühle sich bitte angesprochen) in seiner natürlichen Umgebung. Ich würde mich selbst als biased bezeichnen, denn NVidia ist für mich persönlich eben die Firma, die insgesamt gesehen am meisten für Fortschritt tut und sich auch am meisten für die Gamer einsetzt. Treiber, PhysX, Cuda...wurde ja alles tausendmal geschrieben. Trotzdem muss auch die Basis einer Grafikkarte stimmen, und das ist eben nunmal die Leistung und der Weg, wie diese erreicht wird. Schließlich will man auch noch Luft für zukünftige Entwicklungen haben.
Daher bin ich von Fermi ziemlich enttäuscht und würde mal eine interessante (obgleich etwas OT) These in den Raum werfen:

Fanboys tun ihrer Firma auf lange Sicht keinen Gefallen. Es gibt imo 2 Arten von FB. Die einen (zu denen gehöre ich) wollen, dass ihre Firma das bessere Produkt bringt, dass sie "gewinnt" und sind enttäuscht, wenn es nicht reicht (nicht nur auf Performance bezogen). Sie kritisieren die eigene Firma genauso wie die Konkurrenz, denn nur so wird sich etwas zum Positiven ändern und nur so werden sie selbst in Zukunft ein (hoffentlich in allen Belangen) noch besseres Produkt erhalten. Und Nummer zwei, naja, die kennt ihr alle. Denen geht es nicht um die Firma, auch nicht um Innovation, die wollen halt nur gewinnen - und sind am Ende die Verlierer ;)

Sentionline
2010-03-27, 08:41:11
Fermi ist die schnellste Single Chip Karte geworden. FERTIG! Im Verhältnis zu der GTX285 hat die Karte deutlich zugelegt. 35% mehrverbrauch bei 130% mehrleistung. Mehr braucht man nicht zu wissen.

r@h
2010-03-27, 08:42:14
Dieses mal sind diejenigen (mich inklusive), die (auf Fermi) gewartet haben, einfach die Loser :(
Mehr ist dazu tatsächlich nicht zu sagen...

Meine GTX260² braucht im MultiMon-Betrieb ca. 21W mehr (was ich auch schon 'heftig' fand!)... vor allem, wenn man den ansonsten recht guten SingleMon-Betreib mit etwa 27W annehmen darf. Das Ganze ist alleine dem im MultiMon-Betrieb nicht mehr vorhandenem 2D-Modus zu "verdanken"... 2. Moni aus (Knopf) oder beide Bildschirme aus (1st PM step) -> 2D-Mode -> 21W weniger... und 'nur' noch ca. 115W Gesamt-Leistungsaufnahme (QuadCPU@3GHz, 2HD, 1Opt, Sound&TV).

Und diese 115W soll alleine Fermi "brauchen", wenn des Teil rein gar nichts tut?
Geht gar nicht... NIE!

Ich habe gewartet, weil ich hoffte, dass nVidia diesen Irrsinn mit dem Fermi fixt... aber nein, sie haben sogar noch kräftig einen drauf gesetzt.
Danke nVidia... und tschau nVidia!

Die GTX260² habe ich geschenkt bekommen, insofern dies kein wirklich großer "Verlust" war (emotional, nicht monetär ;-)...
...aber "Geld" werde ich für nVidia-Produkte wohl keines mehr ausgeben!
(meine letzte "Kaufkarte" war die in allen Punkten wirklich gute 8800GT ;-)

Razor

P.S.: ja, die derzeitigen AMD-Produkte (Grafik) sind ausgewogener... haben aber ähnliche Probleme im 2D-Betrieb.
Allerdings eher vergleichbar mit der GT200-Linie und nicht mit dieser krassen Fehlentwicklung "Fermi".

Gast
2010-03-27, 08:42:53
Fermi ist die schnellste Single Chip Karte geworden. FERTIG!

Das ist toll.
Nur gibt es dafür keinen Pokal oder Preisgeld.

PulsarS
2010-03-27, 08:45:20
Fermi ist die schnellste Single Chip Karte geworden. FERTIG!
Das bezweifelt ja auch niemand.
Die Energieeffizienz ist aber unter aller Kanone. -> FAIL

Gouvernator
2010-03-27, 08:45:52
Ist es jetzt bei diesem Stromverbrauch ein Tribut an:

[ ] TSMC und 40nm

oder

[ ] CUDA/PhysX on Chip?
Ich meine was wäre wenn sie das Zeug einfach weglassen würden.

Sentionline
2010-03-27, 08:46:07
Energieeffizienz hat auch kein High End Fermi warter verlangt. Wer denn?

dargo
2010-03-27, 08:47:08
Das merkwürdigste ist nach wie vor, dass die GTX480 mit zunehmender Auflösung an Vorsprung verliert...

Ach, ist dir das auch schon aufgefallen? ;)

Zu wenig Bandbreite.
Wenn die Bandbreite limitieren würde könnten diese Werte niemals stimmen.
Bei CB (jeweils 16, 19, 26) Vorpsrung der GTX480 zur 5870:

Ohne AA/AF
15%
12%
4%

Mit AA/AF
18%
18%
15%

Popeljoe
2010-03-27, 08:47:50
Dieses mal sind diejenigen (mich inklusive), die (auf Fermi) gewartet haben, einfach die Loser :(
Definitiv NEIN!
Der Looooooser ist letztlich jeder Endverbraucher, wenn NV es nicht schafft, bei den kleineren Karten den Stromverbrauch auf ein vernünftiges Niveau zu drücken.
Bei dem momentanen Stand ist ATI auch nicht gezwungen die Preise ihrer Karten zu senken, dadurch sind wir alle Loooooooooooooser^10. ;(
Außerdem: ein Loser hat eine Sache selbst verbockt; für Etwas, bei dem du keine Verantwortung trägst oder Möglichkeit zum eingreifen hast, kannst du nicht die Verantwortung übernehmen.
Es ist doch keine persönliche Niederlage, wenn dein Klubb mal ein Spiel verliert! ;)

Gast
2010-03-27, 08:47:54
Energieeffizienz hat auch kein High End Fermi warter verlangt. Wer denn?

Weil sich keiner (inklusive mir) einen derart höheren Stromverbrauch vorstellen konnte?

Schwarzmetaller
2010-03-27, 08:49:39
Fermi ist die schnellste Single Chip Karte geworden. FERTIG! Im Verhältnis zu der GTX285 hat die Karte deutlich zugelegt. 35% mehrverbrauch bei 130% mehrleistung. Mehr braucht man nicht zu wissen.
Das ist eine reichlich Nvidia-zentrierte Sicht:
gucke dir mal den entsprechenden Generationswechsel von HD4890 zu HD5870 an.....70% Mehrleistung bei 6 bis 20% weniger Stromverbrauch.
Sicher ist die GTX480 die schnellste Singlechip-Karte, aber der Preis den man dafür zahlen muß (dabei meine ich nichtmal den monetären;)) ist einfach zu hoch.

Gast
2010-03-27, 08:50:17
Lustig ist auch die Tatsache, dass mal wieder das Argument Zukunftssicherheit der Grundtenor der einen Seite ist.
Wenn man in all den Jahren Computertechnik 1 gelernt hat, dann müsste einem auffallen, dass es so was schlicht nicht gibt. Ok, kann ja sein, dass GTX 480 Käufer ihre Karten auch 2012 noch nutzen wollen, aber realistisch ist das nicht. Spätestens beim Refresh oder gar ATIs Northern Islands wird es den geneigten Enthusiasten ohnehin wieder jucken.

Ferner denke ich, dass dieser Chip der letzte Moloch ist, den NV der Öffentlichkeit präsentiert hat. Wie ein Bulldozer pflügt der GT100 sich durch die Landschaft, während der vergleichsweise kleine RV870 wie eine Bergziege effizient durch die Gegend tapselt.
Streng genommen hat NV eine dicke Schelte von allen gängigen Seiten im Netz erhalten. Das wird nicht spurlos an ihnen vorbeigehen, ebensowenig wie das Fertigungsdebakel.

r@h
2010-03-27, 08:51:44
Wo ist das Problem?
Dass Du offenbar einen Spiegel brauchst, damit Du Deine Nase findest, um diese dann selbst anzufassen.

Performance NICHT überzeugend, gigantischer Stromverbrauch und ohrenbetäubende Lautstärke!
Und nimm Metro 2033 aus der Gleichung... JEDEM sollte aufgehen, dass das Erscheinen 1 Woche vor Launch kein Zufall sein kann... :rolleyes:

nVidia selbst hat die FX5800 damals "Fön" oder "Staubsauger" getauft... und es mit den Nachfolge-Generationen besser gemacht...
(erinnere mich noch an meine FX5950 von MSI mit "Sonnenkühler" ;-)

Also: einfach mal "Lesen", vor allem aber "Verstehen"... und auch Dir wird ein Licht aufgehen... da bin ich sicher :up:

Razor

Sentionline
2010-03-27, 08:55:01
Meine Rechner stehen mittlerweile in einem Netz aufm Balkon. Ich höre von meinen Rechnern nix.

Und wer meint besser eine ATi zu kaufen, um den ganzen Tag dessen Idleverbrauch zu bestaunen, dem hält ja keiner auf ;)

Ailuros
2010-03-27, 08:56:20
Ich moechte mich erstmal bei Euch allen bedanken dass der Thread bis jetzt durchaus auf sehr gutem Nivaeu liegt.

Mir sitzt uebrigens etwas nicht richtig mit den CB AF Skalierungswerten und ueberhaupt HQ gegen Q. Wenn irgend ein reviewer hier mitliest, hoeflichste Bitte AF Qualitaet so ausfuehrlich wie moeglich analysieren.

r@h
2010-03-27, 08:57:40
Sicher ist die GTX480 die schnellste Singlechip-Karte, aber der Preis den man dafür zahlen muß (dabei meine ich nichtmal den monetären;)) ist einfach zu hoch.
Du sprichst mir aus der Seele!
:up::up::up:

Razor

boxleitnerb
2010-03-27, 09:02:43
Wenn man sich mal anschaut, wer hier wieviel Luft nach oben hat, wird doch klar, dass es nicht nur ums Hier und Jetzt geht. Schließlich würden beide Firmen von möglichen Shrinks profitieren und das Perf/Watt-Verhältnis könnte wieder genauso aussehen wie jetzt. Wenn AMD bei GF einen richtig guten Prozess bekommt und NV weiter bei TMSC rumgurken sollte, könnte es nur noch krasser werden.

MR2
2010-03-27, 09:03:02
HT4U:
"So summieren sich diese Erfahrungen in unserem Benchmark-Index auf einen gesamten Vorteil von maximal 8 Prozent.
"

...."Schließlich bleibt noch die Lautstärke. Auch dort gibt es keinen Ruhm. Im lastfreien Betrieb arbeitet das Produkt akzeptabel, doch sobald ein Spiel gestartet wird, erkennen wir einen wirklichen Radau-Bruder. Je nach Applikation darf man an dieser Stelle mit massiver Belästigung für die Ohren rechnen.

Wir sind höchst gespannt darauf, wie sich im Ergebnis die GeForce GTX 470 schlagen wird. Die Vorstellung der GTX 480 war leider nicht überzeugend.
"

Die GTX470 ist da schon eher eine Alternative, aber mit einer 1 Woche alten Powercolor 5870PCS+ die auch unter Last wirklich leise ist, hab ich wohl nix falsch gemacht:biggrin:

Ich denke die nordischen Inseln haben gegen dem Vollausbau GTX485 gute Chancen.

Mr. Lolman
2010-03-27, 09:04:42
Mir sitzt uebrigens etwas nicht richtig mit den CB AF Skalierungswerten und ueberhaupt HQ gegen Q. Wenn irgend ein reviewer hier mitliest, hoeflichste Bitte AF Qualitaet so ausfuehrlich wie moeglich analysieren.

Anhand der AF-Skalierung 19x12 – WiC: SA 1xAF vs 1xHQ AF verglichen mit den höheren AF-Modi würd ich, mal schnell ins Blaue geraten, meinen, dass bei HQ-AF brilinear verwendet wird.

Armaq
2010-03-27, 09:07:09
Wer hat das PCGH-Review geschrieben?

Insgesamt ein guter Test, aber bitte was sollen solche Sätze und wundert ihr euch dann wirklich noch?

"Angesichts der allerorts gefeierten Fps-Steigerungen mit neuen Catalyst-Treibern sollen diese Probleme jedoch nicht unerwähnt bleiben."

Aus dem Teilbereich BQ und es geht um das leichte Banding. Das ist ein unprofessioneller Seitenhieb, gegen den 10.3 Release, der in diesem Zusammenhang überhaupt nichts zu suchen hat. Vollkommen unprofessionell.

Gast
2010-03-27, 09:07:58
Jo... wieder HT4U:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index14.php

5,4 Sone unter Last
9,1 Sone mit FurMark

OK, das dürfte selbst die FX5800 noch in den Schatten stellen!
PCGH hat gerade mal 4890 Niveau gemessen.
Abgesehen davon das die Lautstärke einer 4890 noch weniger angemessen erscheint angesichts ihrer Leisung, die FX hat 16 sone geschaft.
16 sone, das ist noch ein gutes Stück mehr als 5-9 sone.

Amboss
2010-03-27, 09:10:37
PCGH hat gerade mal 4890 Niveau gemessen.
Abgesehen davon das die Lautstärke einer 4890 noch weniger angemessen erscheint angesichts ihrer Leisung, die FX hat 16 sone geschaft.
16 sone, das ist noch ein gutes Stück mehr als 5-9 sone.
der 16 sone Kühler einer alten FX würde den Fermi unter Last nicht unter 200grad kühlen können. So gesehen ist der GTX480 Kühler ein echtes Meisterstück. Respekt an den Kühler-Entwickler.

Gast
2010-03-27, 09:10:58
Ich bezweifel dass Nvidia noch weitere GF100 Chips produzieren lassen wird. Sie hoffen dass die Händler die bisher produzierten GTX480 und GTX470 Karten loswerden bevor sich der Rauch gelegt hat.
Selbst mit neuen Steppings würde wohl aus dem GF100 kein guter Chip für den Spielemarkt.
Wenn man ein schlechtes Produkt (für den Spielemarkt) entwickelt hat, fängt man nicht an es in Massen zu produzieren.

Gast
2010-03-27, 09:12:29
Wenn man sich mal anschaut, wer hier wieviel Luft nach oben hat, wird doch klar, dass es nicht nur ums Hier und Jetzt geht. Schließlich würden beide Firmen von möglichen Shrinks profitieren und das Perf/Watt-Verhältnis könnte wieder genauso aussehen wie jetzt. Wenn AMD bei GF einen richtig guten Prozess bekommt und NV weiter bei TMSC rumgurken sollte, könnte es nur noch krasser werden.
Wenn wenn.
Ersteinmal wird AMD keinen 1zu1 Shrink durchführen, sie brauchen auch mehr Leistung und was ihre umgekrempelte Architektur bringt werden wir noch sehen.
Dann weiss man nicht, wie gut die neuen Prozesse bei TSMC oder GF laufen werden.

AnarchX
2010-03-27, 09:13:31
Hardware.fr: http://www.hardware.fr/articles/787-1/dossier-nvidia-geforce-gtx-480.html

http://img413.imageshack.us/img413/3853/img0028340.gifhttp://img413.imageshack.us/img413/7884/img0028342.gif

boxleitnerb
2010-03-27, 09:15:27
Wenn wenn.
Ersteinmal wird AMD keinen 1zu1 Shrink durchführen, sie brauchen auch mehr Leistung und was ihre umgekrempelte Architektur bringt werden wir noch sehen.
Dann weiss man nicht, wie gut die neuen Prozesse bei TSMC oder GF laufen werden.

Alles richtig. Dennoch hat Nvidia - ausgehend von heute - weniger Luft, um den teuer erkauften Vorsprung zu halten. Bin auf das nächste Duell eigentlich mehr gespannt als ich es bei Fermi war.

derguru
2010-03-27, 09:15:34
93°C unter last in cb,im sommer kann man ohne weiteres 5-10°C draufpacken.wer sli wagt gleich nochmal 5-10°C.

gibts eigentlich kauf interessierte hier?

meine skepsis zur przeit wegen der wasserkühlung war berechtigt.;)

DrFreaK666
2010-03-27, 09:18:32
Hardware.fr: http://www.hardware.fr/articles/787-1/dossier-nvidia-geforce-gtx-480.html

http://img413.imageshack.us/img413/3853/img0028340.gifhttp://img413.imageshack.us/img413/7884/img0028342.gif

imho nichts neues

AnarchX
2010-03-27, 09:21:17
imho nichts neues
Wobei man mit 75% sich hier schon bei 4xMSAA deutlich von der GTX 285 abhebt, aber auch die theoretischen Tests sind interessant bei HW.fr.

Der Z-Durchsatz ist jetzt bei allen AA-Stufen sehr hoch, bei 8xMSAA doppelt so hoch wie bei einer GTX 285. Aber die Blending-Performance scheint nocht etwas gering zu sein:
http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480.html
Hier gibt es vielleicht noch etwas Potential.

S940
2010-03-27, 09:21:42
Btw, Metro und Heaven zeigen ja, daß AMD ihren Chip auch verändern müssen, genauso wie Nvidia verändert hat. Vielleicht war der Zeitpunkt bei 40nm etwas zu früh, aber AMD wird es tun müssen.
Zu Metro: Erst mal auf Cat 10.5/10.6 warten, nagelneue Spiele laufen nie sonderlich gut auf den ATis. Das dauert immer, bis die Treiber angepasst sind.

Zu Heaven: Hat soviel Sinn wie SuperPi bei den CPUs. Kein Spiel - selbst wenn es auf der Engine basieren wird, wird eine so derbe Tess. Leistung abverlangen. Vielleicht in 2-3 Jahren Mal, aber dann hat man die nächste GPU.
Abgesehen davon gilt auch wieder der obige Punkt: Warten auf spätere Cat. Treiber. Heaven 2.0 ist ja gerade erst rausgekommen.

S940
2010-03-27, 09:22:10
Ich glaube da kommt noch der Refresh des HybridPower. ;)
Dann werde ich mal sorgen, dass Du vom Glauben abfällst:
Ich sehe gerade bei meinen Tweets wurde auf eine Frage geantwortet:

Me: will there be Optimus for Desktop Geforce Fermi?
Igor Stanek : Nope


Schade, hätte einen kleinen Negativ-Punkt ausradieren können.

Sascha1971
2010-03-27, 09:24:52
Es wird immer schön gesagt das die GTX480 was für High End Gamer ist.
Aber ein High End Gamer spielt nicht ohne Sound. Normalerweise haben sie dann auch sehr gute Lautsprecher, die dann von solchenn Föhngeräuschen erheblich gestört werden.
An sowas sollte NV auch denken. Kommt jetzt nicht mit dem Argument Wasserkühlung. NV verkauft erstmal nur Luftkühlung. Und nicht jeder ist ein Freund von Wasserkühlung.

derguru
2010-03-27, 09:25:21
imho nichts neues

doch schon,das eine 5870 cf kombi aber mal so richtig der 480sli paroli bietet.
das schlechte abschneiden im gesamten liegt an 2-3 titeln wo entweder physX,rammangel oder cf nicht ordentlich funktioniert.

http://www.abload.de/thumb/img0028330i4sm.gif (http://www.abload.de/image.php?img=img0028330i4sm.gif) http://www.abload.de/thumb/img0028311e04o.gif (http://www.abload.de/image.php?img=img0028311e04o.gif) http://www.abload.de/thumb/img0028315p2ka.gif (http://www.abload.de/image.php?img=img0028315p2ka.gif)

Gast
2010-03-27, 09:25:25
Meine Rechner stehen mittlerweile in einem Netz aufm Balkon. Ich höre von meinen Rechnern nix.


Klar, mein Rechner steht in der Tiefgarage.

Sorry, aber da muss man schon ziemlich verblendet (kein Wunder bei dem PR-Aufwand) sein, um die Lautstärke einer GTX 470 oder GTX 480 damit zu rechtfertigen, dass der Rechner ja eh außerhalb der Wohnung steht.
Als ob dies ganz alltäglich wäre.

Wer mal hören will wie sich >10 Sone anhören sollte sich mal die Videos der GTX 470, GTX 480 und GTX 480@Sli anschauen.

http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7

DrFreaK666
2010-03-27, 09:25:58
Zu Metro: Erst mal auf Cat 10.5/10.6 warten, nagelneue Spiele laufen nie sonderlich gut auf den ATis. Das dauert immer, bis die Treiber angepasst sind.

Zu Heaven: Hat soviel Sinn wie SuperPi bei den CPUs. Kein Spiel - selbst wenn es auf der Engine basieren wird, wird eine so derbe Tess. Leistung abverlangen. Vielleicht in 2-3 Jahren Mal, aber dann hat man die nächste GPU.
Abgesehen davon gilt auch wieder der obige Punkt: Warten auf spätere Cat. Treiber. Heaven 2.0 ist ja gerade erst rausgekommen.

Von nv wird es auch neue Treiber geben.
Ich denke an dem Kräfteverhältnis ändert sich nicht mehr allzu viel

Gunslinger
2010-03-27, 09:26:11
Was ist den da bei Luxx im Frameverlauf von Unigine los? Gerade die Min fps sollten doch deutlich höher sein.

http://www.abload.de/thumb/verlauf_unigine77t5.jpg (http://www.abload.de/image.php?img=verlauf_unigine77t5.jpg)

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=27

Gast
2010-03-27, 09:29:53
93°C unter last in cb,im sommer kann man ohne weiteres 5-10°C draufpacken.wer sli wagt gleich nochmal 5-10°C.

Quatsch.

Der Lüfter dreht nicht mit 100% bei besagten 93°C.
Über die Temperaturen auf die Temperaturen bei anderen Bedingungen zu schliessen war schon immer Quatsch. Es geht nicht.
Du kennst die Lüftersteuerung nicht, was sie so erlaubt. Ich dagegen weiss das der Lüfter nicht mit 100% gelaufen ist.

Außerdem sollte man sich deine Aussage noch mal durch den Kopf gehen lassen:
Das Ding ist auf SLI besser vorbereitet als seine Vorgänger, dank dem Schlitz auf der Rückseite.
Mit jedem K weniger wird es viel aufwändiger. Entgegen dazu ist es in die andere Richtung ein Kinderspiel einen Chip auf 200°C zu halten. 200°C sind mit Spielzeugkühler möglich, 400W abzuführen.

Exxtreme
2010-03-27, 09:30:39
Hier tun ja alle (ATi Anhänger) so, als wenn ATi immer nur ökonomische und ultra Silent Sahne Chips rausgehauen hätte. :rolleyes:
Junge, Junge, AMD bekam damals auch eins auf den Deckel wegen dem Stromverbrauch. Jetzt ist halt Nvidia dran, so what?

Mark3Dfx
2010-03-27, 09:30:40
http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7
OMFG, eine 747 startet! Okay ohne Gehäuse, aber mal im Ernst.

Welcher normal hörende Mensch stellt sich sowas unter den Schreibtisch?
Egal ob das Ding jetzt 20% schneller ist, wer täglich 2 Stunden an seinem PC sitzt wird sich sowas sicher nicht einbauen wollen.
Im Hochsommer bei 35 Grad Aussentemperatur und Dachgeschosswohnung
macht der Hobel nen Limbo durch die geschlossene Tür. :facepalm:

Amboss
2010-03-27, 09:31:30
Was ist den da bei Luxx im Frameverlauf von Unigine los? Gerade die Min fps sollten doch deutlich höher sein.

http://www.abload.de/thumb/verlauf_unigine77t5.jpg (http://www.abload.de/image.php?img=verlauf_unigine77t5.jpg)

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=27

LOL, was für Frameeinbrüche beim Fermi ! ATI auch hier konstant besser.

Gast
2010-03-27, 09:32:53
Wer hat das PCGH-Review geschrieben?

Insgesamt ein guter Test, aber bitte was sollen solche Sätze und wundert ihr euch dann wirklich noch?

"Angesichts der allerorts gefeierten Fps-Steigerungen mit neuen Catalyst-Treibern sollen diese Probleme jedoch nicht unerwähnt bleiben."

Aus dem Teilbereich BQ und es geht um das leichte Banding. Das ist ein unprofessioneller Seitenhieb, gegen den 10.3 Release, der in diesem Zusammenhang überhaupt nichts zu suchen hat. Vollkommen unprofessionell.

PCGH fällt leider immer wieder mit Tendenziösen Berichterstattung auf und es ist wohl auch kein Zufall das Fermi nirgends so weit vorne ist wie dort. Aber dafür haben sie ja auch als einzige deutschsprachige Seite eine GTX470 bekommen.

Gast
2010-03-27, 09:33:52
Junge, Junge, AMD bekam damals auch eins auf den Deckel wegen dem Stromverbrauch. Jetzt ist halt Nvidia dran, so what?
Das ist falsch.
AMD hat 4870 X2 und 5970 ohne derartige Kritik an den Mann gebracht. Hatten ja die MGPU Ausrede, wenn schon schrottige Spielbarkeit, dann darf der Rest auch schrott sein?

Gunslinger
2010-03-27, 09:35:02
PCGH fällt leider immer wieder mit Tendenziösen Berichterstattung auf und es ist wohl auch kein Zufall das Fermi nirgends so weit vorne ist wie dort. Aber dafür haben sie ja auch als einzige deutschsprachige Seite eine GTX470 bekommen.

Hast du dir auch das Video auf PCGH angeschaut? Dort ist der Tenor nicht gerade äußerst positiv.

Neocroth
2010-03-27, 09:36:37
kann mich nur dem allgemeinen Tenor anschließen: die Leistungskrone um jeden Preis.

Ich persönlich bin auch enttäuscht, da ich noch auf eine Überraschung gewartet habe und mir keine 5870 zugelegt habe. Dass die GTX480 sich so wenig von den ATi-Karten abheben kann bei dem deutlich höheren Verbrauch und dem größeren Die hätte ich dann doch nicht erwartet. Dazu kommt noch die Lautstärke, die Hitze und für mich immer noch ein Rätsel: warum nur 1 Jahr Garantie für die Partner?

Ein gutes hat Fermi für mich: ich bin momentan gar nicht mehr mal so heiß auf ne neue Karte... von RV870 hatte ich mir doch auch mehr erwartet, wenigstens stimmt dort das Gesamtpaket. Also wird die Generation übersprungen und ich warte auf Northern Islands und auf Bulldozer/Sandy Bridge. Da merk ich dann wenigstens das Upgrade von C2D/4870 :biggrin:

derguru
2010-03-27, 09:36:49
Quatsch.

Der Lüfter dreht nicht mit 100% bei besagten 93°C.
Über die Temperaturen auf die Temperaturen bei anderen Bedingungen zu schliessen war schon immer Quatsch. Es geht nicht.
Du kennst die Lüftersteuerung nicht, was sie so erlaubt. Ich dagegen weiss das der Lüfter nicht mit 100% gelaufen ist.

Außerdem sollte man sich deine Aussage noch mal durch den Kopf gehen lassen:
Das Ding ist auf SLI besser vorbereitet als seine Vorgänger, dank dem Schlitz auf der Rückseite.
Mit jedem K weniger wird es viel aufwändiger. Entgegen dazu ist es in die andere Richtung ein Kinderspiel einen Chip auf 200°C zu halten. 200°C sind mit Spielzeugkühler möglich, 400W abzuführen.

das wäre ja das allerletzte wenn die lüfter auf 100% laufen würden.quatsch ist nur was du von dir gibst,es wird definitive wärmer und noch entscheidender,es wird lauter weil der lüfter mehr zutun bekommt.

unter sli oder cf hat man bei einer karte um die 10°C mehr ob du es glaubst oder nicht und das werden die seitlichen schlitze auch nicht viel dran ändern.

Gast
2010-03-27, 09:40:54
das wäre ja das allerletzte wenn die lüfter auf 100% laufen würden.quatsch ist nur was du von dir gibst,es wird definitive wärmer und noch entscheidender,es wird lauter weil der lüfter mehr zutun bekommt.Hast du meinen Post nicht verstanden?

Nicht 100% bedeutet der Lüfter hat Reserven.
Um 1K Kühler zu werden muss man viel Aufwand betreiben.

Natürlich wirds im Sommerlichen SLI wärmer. Gar keine Frage, nur deine Rechnung ist aus den Haaren herbeigezogen und stellt nicht die Wahrheit dar.

r@h
2010-03-27, 09:41:04
PCGH hat gerade mal 4890 Niveau gemessen.
Abgesehen davon das die Lautstärke einer 4890 noch weniger angemessen erscheint angesichts ihrer Leisung, die FX hat 16 sone geschaft.
16 sone, das ist noch ein gutes Stück mehr als 5-9 sone.
Ja... die 4890 war die letzte "Fehlentwicklung" seitens AMD, keine Frage.

Und ich habe wieder etwas gelernt...
(damals maß man mit 'db', nicht mit 'sone' ;-)
Hast Du für die 16 Sone einen Link?

Sollte das mit den 16 Sone für die FX5800 stimmen, liegt "Fermi" (speziell die GTX480) somit auf Platz 2 der "loudest ever!".

Ach ja, PCGH ist bei weitem nicht so zuverlässig, wie HT4U.
Nicht nur, dass Ihre Messergebnisse äusserst gut dokumentiert werden (Meßprotokolle etc.), sondern sie gehen auch auf einen - nicht ganz unwichtigen - Punkt ein, einfach mal zu schauen, was eigentlich passiert, wenn man mehr als einen Mnitor anschließt... den Mehrverbrauch bei Media-Beschleunigung haben sich die meisten anderen Reviewer ja schon abgeschaut.

Razor

Exxtreme
2010-03-27, 09:41:12
Das ist falsch.
AMD hat 4870 X2 und 5970 ohne derartige Kritik an den Mann gebracht. Hatten ja die MGPU Ausrede, wenn schon schrottige Spielbarkeit, dann darf der Rest auch schrott sein?
Nein, auch damals wurde das kritisiert.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/26/#abschnitt_leistungsaufnahme

http://www.pcgameshardware.de/aid,653614/PCGH-Test-Stromverbrauch-der-HD-4870-optimieren/Grafikkarte/Test/

http://www.hartware.de/review_840_11.html

http://www.pcgameshardware.de/aid,653166/Radeon-HD-4870-X2-im-PCGH-Benchmark-Test/Grafikkarte/Test/?page=11

Ronin2k
2010-03-27, 09:43:16
Stone Giant wo gibts die guten Techdemo zum download? :)

Mark3Dfx
2010-03-27, 09:43:40
Hier tun ja alle (ATi Anhänger) so, als wenn ATi immer nur ökonomische und ultra Silent Sahne Chips rausgehauen hätte. :rolleyes:

Weil ATi ja nix aus dem HD4k Desaster (ich erinnere an die angeblich später noch per Treiber nachgelieferten Stromsparfeatures) gelernt hat.
Mist bauen -> lernen -> besser machen
Bei nV seh ich da aktuell leider nichts.

Armaq
2010-03-27, 09:44:19
PCGH fällt leider immer wieder mit Tendenziösen Berichterstattung auf und es ist wohl auch kein Zufall das Fermi nirgends so weit vorne ist wie dort. Aber dafür haben sie ja auch als einzige deutschsprachige Seite eine GTX470 bekommen.
Insgesamt fand ich die Auswahl von Spielen ok und irgendeine Tendenz braucht man ja immer. :D

Nur dieser Satz hat da nichts verloren und warum Dirt in DX9 mitgenommen wird habe ich nicht verstanden, da DX11 eindeutig die Zukunftsprognose bildet.

DrFreaK666
2010-03-27, 09:44:30
Weil ATi ja nix aus dem HD4k Desaster (ich erinnere an die angeblich später noch per Treiber nachgelieferten Stromsparfeatures) gelernt hat.
Mist bauen -> lernen -> besser machen
Bei nV seh ich da aktuell leider nichts.

Dafür lernen die für die nächste Generation was :wink:

Gast
2010-03-27, 09:45:48
das wäre ja das allerletzte wenn die lüfter auf 100% laufen würden.quatsch ist nur was du von dir gibst,es wird definitive wärmer und noch entscheidender,es wird lauter weil der lüfter mehr zutun bekommt.

Es geht das Gerrücht um das Thermaltake Für die Fermi bald Gehäuse mit automatischer Löschvorichtung,und Wasserkühlungen mit Danpfdruckventilen anbieten will. Diese Fermi cooling Assesoires haben aber dann den Nachteil das sie im sommer nur in einem klimatisierten Raum betrieben werden dürfen.

Ob da wohl was drann ist. ggg

Reneeeeeee
2010-03-27, 09:46:21
Bei dem momentanen Stand ist ATI auch nicht gezwungen die Preise ihrer Karten zu senken, dadurch sind wir alle Loooooooooooooser^10. ;(



das befürchte ich auch , gerade heutzutage wo jeder Strom sparen will geht Nvidia voll am Ziel vorbei und ich werde wohl noch lange warten dürfen bis die 5870 bisl billiger ist :(

Odal
2010-03-27, 09:46:27
weiss jemand (PCGH leute?) was für pwms da drauf sind bzw. ob da ne chance ist die spannung per software aka rivatuner/arschrenner anzupassen?

an den idle takten lässt sich ja nichts mehr drehen aber vielleicht kommt man mit der spannung noch etwas runter

bei meiner GTX260 konnte ich z.b. durch idle taktabsenkung die gpu temp von zimmertemperatur+20°C auf zimmertemperatur+10°C senken, nur das Absenken der Spannung per Software vermisse ich bei GT200b Karten dann doch arg

der Stromverbrauch unter Last wäre beim G100 damit zwar immer noch hoch aber wenigstens im idle könnte man evtl. noch was drehen

Bei PCGH wurde ja auf die GTX480 der Prolimatech geschraub, kommt man da auf erträgliche temps mit 2x92iger bzw. 2x120iger die mit erträglicher Lautstärke (z.b. @7V) laufen?

Bei der GTX470 ist ja GPU kühlkörper und Platte zum kühlen des Rests (SpaWas/Ram) leider eins, wie steht da dich chance mit dremel und etwas handwerklichem geschick den gpu kühler abzudremeln um den Rest weiterzuverwenden und den Prolimatech draufzuschrauben?

Chris Lux
2010-03-27, 09:46:27
http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7
OMFG, eine 747 startet! Okay ohne Gehäuse, aber mal im Ernst.
holy shit!

das hier sollte man nvidia nochmal zeigen.
http://www.youtube.com/watch?v=WOVjZqC1AE4

oder wir sehen noch so ein video.

Gast
2010-03-27, 09:46:32
Nein, auch damals wurde das kritisiert.

Auch von allen Anwesenden im Fred?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/24/#abschnitt_fazit
"Die Leistungsaufnahme unter Windows ist ATi für eine Dual-GPU-Karte gut gelungen."

Liest sich anders als du es darstellst.

Ailuros
2010-03-27, 09:47:25
Wobei man mit 75% sich hier schon bei 4xMSAA deutlich von der GTX 285 abhebt, aber auch die theoretischen Tests sind interessant bei HW.fr.

Der Z-Durchsatz ist jetzt bei allen AA-Stufen sehr hoch, bei 8xMSAA doppelt so hoch wie bei einer GTX 285. Aber die Blending-Performance scheint nocht etwas gering zu sein:
http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480.html
Hier gibt es vielleicht noch etwas Potential.

Seine Geometrie-/Tessellations-Tests sind ebenso interessant; deshalb wartete ich auch auf Damien's review.

Exxtreme
2010-03-27, 09:48:01
Dafür lernen die für die nächste Generation was :wink:
Naja, eigentlich dachte ich, die hätten beim NV30 ihre Lektion gelernt. Ich denke, die Intention hinter der 480'er ist die gleiche: Performancekrone um jeden Preis. Tja, der Preis sind halt 300W Verbrauch.

Ich gehe auch davon aus, daß die 480'er wie Blei in Regalen liegenbleiben wird und die Leute eher zur 470'er greifen werden.


Was mich aber wundert, ist wieso frisst die 470'er so viel weniger Strom als die 480'er? Da sind zwar paar Teile des Chips abgschaltet und der Takt ist auch niedriger. Aber, daß das gleich solche Auswirkungen hat, daß sich der Idle-Verbrauch so dramatisch senkt ...

Sentionline
2010-03-27, 09:49:38
Mist bauen -> lernen -> besser machen
Was bei AMD ja schon ewig die Geschäftsphilosophie ist. Ich muss mal auf die Uhr schauen wie lange weit dein Zitat im Bezug auf ATi zutrifft zurückreicht...;D

Ronny145
2010-03-27, 09:49:43
Wenn AMD wollte, könnten sie wohl auch eine HD5870 mit leicht höherer Taktrate und 2 GB als Prestige Modell bringen. Wird sicher die GTX 480 nicht überholen können, aber gefährlich nah rankommen. Und das wohl auch mit einer deutlich besseren Energieeffizienz.

Exxtreme
2010-03-27, 09:50:33
Auch von allen Anwesenden im Fred?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/24/#abschnitt_fazit
"Die Leistungsaufnahme unter Windows ist ATi für eine Dual-GPU-Karte gut gelungen."

Liest sich anders als du es darstellst.
Wahrscheinlich weil 2 9800'er noch mehr Strom gefressen haben. Ja, dieses Urteil liest sich durchaus anders. Es bleibt aber dabei, daß die 4870'er Grafikkarten trotzdem oft kritisiert wurden für diesen Stromverbrauch. War auch ein Grund mir diese Generation nicht zu geben.

S940
2010-03-27, 09:51:24
Von nv wird es auch neue Treiber geben.
Ich denke an dem Kräfteverhältnis ändert sich nicht mehr allzu viel
Nö, denn nV hat ja die ganze Zeit jetzt auf heaven und Metro optimiert, die hatten das ja schon zur Verfügung. Will nicht ausschließen, dass noch was kommt, aber das wird nichts Nennenswertes werden, ich schätze mal um die 10% Max.

Sascha1971
2010-03-27, 09:52:11
Wenn AMD wollte, könnten sie wohl auch eine HD5870 mit leicht höherer Taktrate und 2 GB als Prestige Modell bringen. Wird sicher die GTX 480 nicht überholen können, aber gefährlich nah rankommen. Und das wohl auch mit einer deutlich besseren Energieeffizienz.

Wieso wenn sie wollten ?

Die kommen im April und du kannst sie z.B. bei Alternate schon vorbestellen. Der Preis liegt bei 499 €.
Ich bin mal auf die ersten Benchmarks gespannt.
Das gute ist das Asus und Saphire einen eigenen leisen Kühler drauf machen.

Denke mal das könnte evtl nun meine Alternative zur 480er werden.

Ronny145
2010-03-27, 09:53:40
Wieso wenn sie wollten ?

Die kommen im April und du kannst sie z.B. bei Alternate schon vorbestellen. Der Preis liegt bei 499 €.
Ich bin mal auf die ersten Benchmarks gespannt.
Das gute ist das Asus und Saphire einen eigenen leisen Kühler drauf machen.

Denke mal das könnte evtl nun meine Alternative zur 480er werden.

Das sind doch aber Custom Lösungen der Hersteller, oder? Übertaktete Karten gibts immer, das ist nicht die Frage. Ich meine aber schon so ein Modell ganz offiziell von AMD.

Undertaker
2010-03-27, 09:53:43
Wenn AMD wollte, könnten sie wohl auch eine HD5870 mit leicht höherer Taktrate und 2 GB als Prestige Modell bringen. Wird sicher die GTX 480 nicht überholen können, aber gefährlich nah rankommen. Und das wohl auch mit einer deutlich besseren Energieeffizienz.

Die Energieeffizienz ist überhaupt das größte Problem der Karte: Die Performance ist durchaus zufriedenstellend, gerade mit steigenden Settings setzt sich die Karte immer weiter ab und ist häufig der HD5970 näher als der HD5870. Der Chip wirkt allerdings etwas überreizt, die noch erträgliche Leistungsaufnahme der GTX470 sprengt bei der GTX480 jeden Rahmen... Aber die Basis für den Refresh sieht gut gebaut aus.

Gast
2010-03-27, 09:54:49
Wahrscheinlich weil 2 9800'er noch mehr Strom gefressen haben. Ja, dieses Urteil liest sich durchaus anders. Es bleibt aber dabei, daß die 4870'er Grafikkarten trotzdem oft kritisiert wurden für diesen Stromverbrauch. War auch ein Grund mir diese Generation nicht zu geben.Ich meine die X2er, AMDs Vorstellung von High-End sozusagen.

Wenn AMD wollte, könnten sie wohl auch eine HD5870 mit leicht höherer Taktrate und 2 GB als Prestige Modell bringen. Wird sicher die GTX 480 nicht überholen können, aber gefährlich nah rankommen. Und das wohl auch mit einer deutlich besseren Energieeffizienz.
220W TDP mit 2GiB, dann noch mehr Spannung und Takt = ~250-260W TDP.
Dazu macht man der 5970 Konkurrenz.
Als Sparsames Gefährt kann die 5870 nicht durchgehen, wir werden sehen ob AMD den Ruf der HD5 dadurch gefährden will.

AYAlf_2
2010-03-27, 09:55:20
Wieso wenn sie wollten ?

Die kommen im April und du kannst sie z.B. bei Alternate schon vorbestellen. Der Preis liegt bei 499 €.
Ich bin mal auf die ersten Benchmarks gespannt.
Das gute ist das Asus und Saphire einen eigenen leisen Kühler drauf machen.

Denke mal das könnte evtl nun meine Alternative zur 480er werden.
ja die 5800 gab es ja spaeter auch in leise ..... NOT :freak:

derguru
2010-03-27, 09:55:37
Hast du meinen Post nicht verstanden?

Nicht 100% bedeutet der Lüfter hat Reserven.
Um 1K Kühler zu werden muss man viel Aufwand betreiben.

Natürlich wirds im Sommerlichen SLI wärmer. Gar keine Frage, nur deine Rechnung ist aus den Haaren herbeigezogen und stellt nicht die Wahrheit dar.
ist es nicht weil der pc zu hause meist im geschlossenem zustand ist und nicht wie bei den meisten reviews frei liegt.ob du es glaubst oder nicht,ich habe noch nie die temps erreicht die von reviewern gemessen wurden,immer drüber.wenn die biosteuerung so eingerichtet ist das sie die karte unter 100°C halten soll dann auf kosten der lautstärke.
na wart mal ab wieviel leute sich zu den temps noch melden werden,eher im luxx denn hier wird sich wohl kaum jemand die karte kaufen geschweige denn sli.

bestes beispiel hab ich gerade bei mir,ich habe im idle 54°C,pcgh gibt an 38°C,selbe wurst unter last.(warum habe ich 54°C,weil eine 2karte gleich daneben steckt)

Die Energieeffizienz ist überhaupt das größte Problem der Karte: Die Performance ist durchaus zufriedenstellend, gerade mit steigenden Settings setzt sich die Karte immer weiter ab und ist häufig der HD5970 näher als der HD5870.

eben nicht,schaumal im pcgh nach den werten unter 2560*1600,maximal gleichwertig zu 5870.

S940
2010-03-27, 09:55:57
Was ist den da bei Luxx im Frameverlauf von Unigine los? Gerade die Min fps sollten doch deutlich höher sein.

[/URL]http://www.abload.de/thumb/verlauf_unigine77t5.jpg (http://www.abload.de/image.php?img=verlauf_unigine77t5.jpg)

[URL]http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14826-nvidia-geforce-gtx-480-im-test-nvidias-comeback.html?start=27

Hmm .. wieder AA/AF Auswirkungen ?

Ronny145
2010-03-27, 09:56:00
220W TDP mit 2GiB, dann noch mehr Spannung und Takt = ~250-260W TDP.
Dazu macht man der 5970 Konkurrenz.
Als Sparsames Gefährt kann die 5870 nicht durchgehen, wir werden sehen ob AMD den Ruf der HD5 dadurch gefährden will.


TDP ist nicht alles wie man an Fermi sieht.

Sascha1971
2010-03-27, 09:56:14
Das sind doch aber Custom Lösungen der Hersteller, oder? Übertaktete Karten gibts immer, das ist nicht die Frage. Ich meine aber schon so ein Modell ganz offiziell von AMD.

Warum soll von AMD da was selber kommen ? Sie haben es den Hersteller frei gelassen so was zu bauen. Und ASUS und Saphire waren da eh schon in der Entwicklung.

Mark3Dfx
2010-03-27, 09:56:46
@ Undertaker
Dem stimme ich zu.
Das ganze sieht immer mehr nach einer Gewaltnummer der Marketing-Abteilung aus.
Wir MÜSSEN jetzt was bringen!

Ein Refresh mit 512 SP, leiser, kühler und sparsamer....bloß wann?
2011?

Winter[Raven]
2010-03-27, 09:57:27
Alles in allem wird Nvidia erst mit dem Refresh wieder Besserung bringen, und durch die Verspätung bei TSMC kommt der wohl ähnlich früh wie Nv30 -> Nv35 ^^.

Die Lautstärke ist wirklich nicht so das Non-Plus Ultra.

Schlammsau
2010-03-27, 09:57:37
Sooo meine Herren,

nach einer durchzechten Nacht, kommt mein von allen heissersehntes Fazit. :naughty:

Ob ihrs glaubt oder nicht, die 470 wollte ich ich mir mal genauer ansehen.
Evtl hätte ich mal wieder ins grüne Lager gewechselt.

Aber nach dem durchwühlen des xten Reviews ist mir die Lust deutlich vergangen. Verbrauch unter Last jenseits von gut und böse, Leistungsmässig leicht unter 5870. Lautstärke solala und kein SGSSAA.

Sorry aber die GTX400 Serie ist zwar kein Epic Fail, wie seinerzeit der R600, aber einen Fail kann man sie schon nennen.

Die 480 ist eine Schweinekarte! Eigentlich unkaufbar mit dem Stromverbrauch und der Lautstärke.


PS: ich lag soooo richtig mit meinen Vermutungen. :biggrin:

Gast
2010-03-27, 09:57:42
Die Energieeffizienz ist überhaupt das größte Problem der Karte: Die Performance ist durchaus zufriedenstellend, gerade mit steigenden Settings setzt sich die Karte immer weiter ab und ist häufig der HD5970 näher als der HD5870. Der Chip wirkt allerdings etwas überreizt, die noch erträgliche Leistungsaufnahme der GTX470 sprengt bei der GTX480 jeden Rahmen... Aber die Basis für den Refresh sieht gut gebaut aus.

Schön wärs. Sie verliert mit höherer Auflösung an Boden. Aber es stimmt, das Problem ist die Leistungsaufname, wenn diese nicht so hoch wäre hätte NV wohl auch mehr Takt fahren können. Denn die Spannung am Chip ist eigentlich mehr niedrig, keine Ahnung wo das herkommt. Wenn ich AMD wäre würde ich die 5870 jetzt einfach mit max. Spannung und Takt so hoch prügeln wie nur irgend wie möglich., bis zu den 300W der GTX480 hat man da viel Luft. Die 10-15% Mehrleistung sollte man so zumindest einholen können.

puntarenas
2010-03-27, 09:57:53
PCGH fällt leider immer wieder mit Tendenziösen Berichterstattung auf und es ist wohl auch kein Zufall das Fermi nirgends so weit vorne ist wie dort.
Lustig, ich habe es beim Lesen gerade andersrum empfunden und dachte mir anhand der Fließtexte in letzter Zeit, dass denen das OGSSAA aber ordentlich das Gehirn gewaschen hat. Es menschelt halt nicht nur bei den Redakteuren, wir Leser bringen auch unsere Erwartungshaltung und Voreingenommenheit mit.

Sehr schön bringt es für mich HT4U im Fazit auf den Punkt:
NVIDIA sagt klar, dass man mit dem Fermi-Konstrukt in der Architektur die Basis geschaffen hat, auf welche man die kommenden Jahre aufsetzen will.
Quelle: HT4U (http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index54.php)

Ich konnte jedenfalls prima schlafen, gestern ist nichts Aufregendes passiert. Das Ding wird Nvidia nicht das Genick brechen, ist aber wohl für die Wenigsten ein rundweg begeisterndes Produkt.

Wann entscheidet sich ein Hersteller eigentlich abschließend für einen Standardkühler? Ich habe fast den Eindruck, Nvidia hat die Auswahl zu einem Zeitpunkt getroffen, als man noch mit einem deutlich genügsameren Endergebnis gerechnet hat.

Ronny145
2010-03-27, 09:58:14
Terry Makedon macht sich auch lustig.

"HardOCP: "The only thing that "blew us away" was the heat coming out of the video card and the sound of the fan."" lolz

http://twitter.com/catalystmaker

AnarchX
2010-03-27, 09:58:32
Ein Refresh mit 512 SP, leiser, kühler und sparsamer....bloß wann?
2011?
Sofern B1/2 etwas daran ändern kann, im 3. Quartal. Da kann man nur hoffen, das 40nm ebenfalls so reift, wie es 90nm damals tat.

Sascha1971
2010-03-27, 09:59:04
@ Undertaker
Dem stimme ich zu.
Das ganze sieht immer mehr nach einer Gewaltnummer der Marketing-Abteilung aus.
Wir MÜSSEN jetzt was bringen!

Ein Refresh mit 512 SP, leiser, kühler und sparsamer....bloß wann?
2011?


Ich frage mich nu,r wie will man die Karte sparsamer machen ?
Wenn sie ein 512 Refresh rauswerfen mit gesenkten Takt, würde die Karte im schlimmsten Falle gleich schnell sein. Wie will man das dem "normalen Kunden" beibringen ?
Ich denke mal sparsamer wäre nur eine komplette neue Generation.

Gast
2010-03-27, 10:00:10
220W TDP mit 2GiB, dann noch mehr Spannung und Takt = ~250-260W TDP.
Dazu macht man der 5970 Konkurrenz.
Als Sparsames Gefährt kann die 5870 nicht durchgehen, wir werden sehen ob AMD den Ruf der HD5 dadurch gefährden will.

Wen interessiert die TDP? NV war ja da auch sehr kreativ. Die 5870 bleibt deutlich unter ihrer TDP, die GTX480 sprengt diese aber sowas von locker. Selbst die 300W der PCIe-Specs werden im Furmark gesprengt.

MSABK
2010-03-27, 10:00:49
Hmm, ich kenne mich zwar nicht aus. Aber warum braucht NV soviel mehr Transistoren und Energie um nur bißle schneller als ATI zu sein?

Undertaker
2010-03-27, 10:05:28
Ich frage mich nu,r wie will man die Karte sparsamer machen ?
Wenn sie ein 512 Refresh rauswerfen mit gesenkten Takt, würde die Karte im schlimmsten Falle gleich schnell sein. Wie will man das dem "normalen Kunden" beibringen ?
Ich denke mal sparsamer wäre nur eine komplette neue Generation.

Das befürchte ich eben auch... Klar, mit 512SPs und dafür evntl. nur konstanten Taktraten mit vielleicht etwas weniger Spannung sollte B1/B2 etwas effizienter werden, aber "etwas" ist hier einfach nicht genug.

AnarchX
2010-03-27, 10:05:45
Hmm, ich kenne mich zwar nicht aus. Aber warum braucht NV soviel mehr Transistoren und Energie um nur bißle schneller als ATI zu sein?
Zwei völlig unterschiedliche Architekturen, teilweise ist die Architektur deutlich breiter (ROPs, SI) und auf der anderen Seite brauch man deutlich mehr Transistoren bei vergleichbarer Leistung im Durchschnitt (skalare SPs @ >1GHz).
Im Bezug auf Stromverbrauch und Taktraten, kann man wohl annehmen, dass sich NV deutlich mit dem Fortschritt der Fertigung verschätzt hat, wie es auch bei Intel mit Netburst passiert ist.

Aber wie schon der Nachredner sagt, langfristig könnte sich die Architektur mit einer verbesserten Fertigung und Spielen mit hohem Geometrieanteil (16 Tessellatoren, 4 Rasterizer) doch rentieren.

Odal
2010-03-27, 10:06:09
Hmm, ich kenne mich zwar nicht aus. Aber warum braucht NV soviel mehr Transistoren und Energie um nur bißle schneller als ATI zu sein?


obs wirklich nur ein bisschen schneller ist kann man bei neuen architekturen erst nach einer weile bewerten

für aktuelle und ältere Titel bleibt das "nur ein bisschen" wohl zu
warum aber das Ding in Crysis so schwächelt wüsste ich gerne mal

y33H@
2010-03-27, 10:07:14
@ Armaq

Dirt 2 mit DX11 ist auch dabei - so what? ;)

Odal
2010-03-27, 10:10:39
@ Armaq
...


ah da kommt mir ja gerade der richtige

Prolimatech verbauer und GTX480/70 rl begutachter

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7931755&postcount=897

anmerkungen dazu?

Gast
2010-03-27, 10:10:40
warum aber das Ding in Crysis so schwächelt wüsste ich gerne mal
Texturleistung.

y33H@
2010-03-27, 10:13:52
@ Odal

Genaue Werte folgen, mehr kann ich aktuell nicht sagen. Ich mach jetzt erst mal 2 Wochen Urlaub und "entfliehe" Fermi, Fanboys und Fails.

Amboss
2010-03-27, 10:14:00
Das sieht man bei [H]OCP ganz anders: (http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/8) (GTX480/470 und 480SLI review)

see the GTX 470 and GTX 480 jump 50 watts with the opening of a web page.[/B]"

AUA....

Eine Web-Page öffnen also genügt, um den Idle-Wert um weitere 50 Watt höher zu prügeln, ein zweiter Monitor schlägt Idle mit weiteren ca. 100 Watt zu Buche. Das Ding ist Schrott!

Armaq
2010-03-27, 10:14:39
@ Armaq

Dirt 2 mit DX11 ist auch dabei - so what? ;)
DX11 zeigt halt auch die neueren Features und der Speed mit ihnen. DX9 zeigt nichts und lässt die GF100 wesentlich besser aussehen als in DX11.
Da gibts auch nichts zu rechtfertigen, mir fiel es nur auf, weil der Unterschied in der Performace doch erheblich ist und damit das Endergebniss zu gunsten von Nvidia verschiebt (es stimmt ja auch, nur spielt keine Sau DX9, wenn er eine GF100/58xx hat).

Eine Web-Page öffnen also genügt, um den Idle-Wert um weitere 50 Watt höher zu prügeln, ein zweiter Monitor schlägt Idle mit weiteren ca. 100 Watt zu Buche. Das Ding ist Schrott!

Haben das auch andere Reviews zertifiziert? Das wäre ein starkes Stück, denn sowas muss auffallen.

Gast
2010-03-27, 10:17:24
Das einzig positive ist - so blöd es klingt - der Kühler. Aber 300W wegzukühlen bei zumindest noch halbwegs akzeptabler Lautstärke finde ich sehr beeindruckend.

Amboss
2010-03-27, 10:17:48
http://www.hardwareluxx.de/images/stories/galleries/reviews/GTX480/Verlauf_Unigine.jpg

zeigt ja wohl, dass im endeffekt ati auch unter tesselation besser spielbar ist. bei nvidia fallen die min frames aber sehr stark ab, da nutzen die höheren frames in der spitze auch nichts mehr.

also selbst das ist kein argument mehr für nvidia. und der benchmark wurde ja soo gerne gezeigt.

alles in allem wohl ein supergau für nvidia.

Ich wette diese hohen fps-Spitzen und brachialen Einbrüche (min-fps) wirken sich bei der GTX480 aus wie Mikroruckler, und das ohne SLI.... LOL

y33H@
2010-03-27, 10:18:21
@ Armaq

Wo ist dein Problem, es wurde beides getestet. Und wer bisher keine HD5k hatte, dem blieb eh nur DX9 *Schulter zuck*
(es stimmt ja auch, nur spielt keine Sau DX9, wenn er eine GF100/58xx hat)Keine Sau? Die Basis an DX9/DX19-HW übersteigt die paar HD5k-Nutzer um Welten :rolleyes:

Sascha1971
2010-03-27, 10:18:52
Ich wette diese hohen fps-Spitzen und brachialen Einbrüche (min-fps) wirken sich bei der GTX480 aus wie Mikroruckler, und das ohne SLI.... LOL

Das sieht mir aber mehr nach einem Treiberproblem aus.

r@h
2010-03-27, 10:21:34
holy shit!

das hier sollte man nvidia nochmal zeigen.
http://www.youtube.com/watch?v=WOVjZqC1AE4

oder wir sehen noch so ein video.
Hehe... danke für den Link!
DAS kam ja direkt von nVidia...

Offenbar vergißt man dort sehr schnell.
Ach ja... die FX5800 wurde im Idle seinerzeit PASSIV gekühlt ("Fön" off ;-).
UND... mit 2 Monis hat sei auch nicht mehr verbraucht, als mit einem... warum auch?

Razor

derguru
2010-03-27, 10:22:07
so langsam habe ich ein abneigung zu den frameverläufen von unigine,ich kann es nit mehr sehen.

S940
2010-03-27, 10:22:57
Genaue Werte folgen, mehr kann ich aktuell nicht sagen. Ich mach jetzt erst mal 2 Wochen Urlaub und "entfliehe" Fermi, Fanboys und Fails.
Gute Erholung, wünsche ich, lass es Dir gut gehen ;-)

@MSABK http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7931796#post7931796)
AnarchX hats ja schon erklärt, noch ein Zusatz: AMD macht mehr in Software, nV mehr in Hardware (kleine Ausnahme: Tessellation), das hat zur Folge, dass ATi bei gleicher oder höherer theoretischen Leistung kleinere Chips bauen kann, aber stark vom Treiber abhängig ist, da es schwieriger ist, die theoretische Leistung auf die Strasse zu bekommen / nutzbar zu machen.

ATi Vorteile: billiger, weniger Stromverbrauch, einfacher zu fertigen
ATi Nachteile: Bis Spiele richtig gut unterstützt werden, braucht es eine gewisse Treiberreifezeit. Das kann schon mal ein halbes Jahr sein, je nachdem welche Priorität einem Spiel / Bench eingeräumt wird.

Gast
2010-03-27, 10:23:25
TDP ist nicht alles wie man an Fermi sieht.
Wen interessiert die TDP? NV war ja da auch sehr kreativ. Die 5870 bleibt deutlich unter ihrer TDP, die GTX480 sprengt diese aber sowas von locker. Selbst die 300W der PCIe-Specs werden im Furmark gesprengt.Es geht um die prozentuale Zunahme.
Ersetzt halt TDP mit Schaukelpferden.

Armaq
2010-03-27, 10:23:57
@ Armaq

Wo ist dein Problem, es wurde beides getestet. Und wer bisher keine HD5k hatte, dem blieb eh nur DX9 *Schulter zuck*
Keine Sau? Die Basis an DX9/DX19-HW übersteigt die paar HD5k-Nutzer um Welten :rolleyes:
Willst du das jetzt so diskutieren? Wer eine HD5K oder eine 470/480 besitzt, spielt nicht auf DX9. Dazu kommt, dass die Performance bei beiden Modi ausreicht, nur! ist die GTX4x0 in DX9 überproportional gut. Dieser Fakt stieß mir nur auf, weil der oben zitierte Satz mMn. unprofessionell ist. Der Zusammenhang hat mich gestört, mehr nicht (BIAS-Keule ahoi).

Interessanter ist eh die Geschichte mit dem IdleVerbrauch und der WebPage.

y33H@
2010-03-27, 10:25:04
Die WebPage *lach* Das Problem gab's mal bei den GTX200 ...

AnarchX
2010-03-27, 10:25:46
UND... mit 2 Monis hat sei auch nicht mehr verbraucht, als mit einem... warum auch?

Da hatte man auch noch kein 384-Bit IMC mit fast 2GHz.

Bei den kommenden Generationen sollten sich AMD und Nvidia definitiv etwas überlegen, wie sie bei mehr als einem Display nur den benutzten Teil des VRAM/IMC auf vollem Takt laufen lassen können.

Armaq
2010-03-27, 10:27:26
Die WebPage *lach* Das Problem gab's mal bei den GTX200 ...
Deswegen existiert es bei 4x0 nicht? Bisher gabs nur die eine Meldung, von daher ist das ja zu bestätigen.

Schönen Urlaub übrigens.

Edit: Der HardOCP-Test ist auch daneben. Warum können Redakteure nicht einfach mal Fakten auf den Tisch legen und die Bewertung da vornehmen, wo man es erwartet? Es ist zum schreien, dass die Funktion missbraucht wird, um die persönliche Meinungskeule zu schwingen.

Odal
2010-03-27, 10:35:55
Willst du das jetzt so diskutieren? Wer eine HD5K oder eine 470/480 besitzt, spielt nicht auf DX9. Dazu kommt, dass die Performance bei beiden Modi ausreicht, nur! ist die GTX4x0 in DX9 überproportional gut. Dieser Fakt stieß mir nur auf, weil der oben zitierte Satz mMn. unprofessionell ist. Der Zusammenhang hat mich gestört, mehr nicht (BIAS-Keule ahoi).

würde ich so nicht sagen, wer auf anständiges AA nicht verzichten will (z.b. per Downsampling) könnte durhaus gewillt sein in DX9 zu zocken aufgrund technischer Dinge bzgl. DS oder anderen AA Modi oder/und performance einbrüche bei z.b. 2560x2048 (was z.b. meine DS auflösung wäre) evtl. wird man nicht mal auf alles maxed spielen zugunsten von AA

MiamiNice
2010-03-27, 10:36:26
Ich finde die Karten gar nicht so schlecht. Allerdings wird es bei mir auch keine 480er, nicht wegen dem Verbrauch, sondern weil sie einfach "unvernünftig" ist.

Bei mir wird es eine 470er, muss erstmal reichen. Allerdings kann ich die nicht schnell genug im Rechner haben, die sollen mal zusehen das die Karten kaufbar werden.

derguru
2010-03-27, 10:36:52
würde ich so nicht sagen, wer auf anständiges AA nicht verzichten will (z.b. per Downsampling) könnte durhaus gewillt sein in DX9 zu zocken aufgrund technischer Dinge bzgl. DS oder anderen AA Modi oder/und performance einbrüche bei z.b. 2560x2048 (was z.b. meine DS auflösung wäre) evtl. wird man nicht mal auf alles maxed spielen zugunsten von AA

Armaq bezieht sich aber auf dirt2 und nicht allgemein.ich dachte ds wäre dx unabhängig?

Schwarzmetaller
2010-03-27, 10:40:35
Eine Web-Page öffnen also genügt, um den Idle-Wert um weitere 50 Watt höher zu prügeln, ein zweiter Monitor schlägt Idle mit weiteren ca. 100 Watt zu Buche. Das Ding ist Schrott!
Wie verhält sich denn die Leistungsaufnahme einer "älteren" Geforce wenn diese Flashinhalte in Hardware wiedergibt?

Zockmaschine
2010-03-27, 10:41:02
Was bei AMD ja schon ewig die Geschäftsphilosophie ist. Ich muss mal auf die Uhr schauen wie lange weit dein Zitat im Bezug auf ATi zutrifft zurückreicht...;D

Nur diesmal ist der Mist von nvidia...

Wenn du dir den fröhlich in den Mund schieben willst nur zu, ich (und die viele andere auch) greifen lieber zu den leckeren und günstigeren Angeboten von ATi...

;D

Mal sehen was der refresh von nvidia bringt, nur ist es so dass bis dann der von ATi schon da ist. Und ich glaube nicht, dass bei einem so grenzwertigen Design wie das der 480 phne deutliche Abstriche viel zu retten ist.

:cool:

Bot@work
2010-03-27, 10:43:15
Das einzig positive ist - so blöd es klingt - der Kühler. Aber 300W wegzukühlen bei zumindest noch halbwegs akzeptabler Lautstärke finde ich sehr beeindruckend.

Bei 304W sind es 11.9 Sone. Unter akzeptabel stell ich mir was anderes vor. Bei der 470 sieht es besser aus aber da sind es auch keine 300W.

AnarchX
2010-03-27, 10:45:03
HT4u noch mit ein paar Einzelmessungen:
[...]Im simulierten Last-Betrieb unter Furmark rennt die GeForce GTX 480 über ihre genannte TDP von 250 Watt hinaus. NVIDIA ist sich diesem Umstand bewusst, wie man uns bestätigt hat. Wie man uns erklärt hat, ermittelte man die TPD anhand eines Mittelwertes in Spielen - das haben wir schon einmal vor einem Weilchen von AMD hören dürfen - und sieht Furmark nicht als repräsentativ an.

Das Argument muss man akzeptieren. Allerdings gab NVIDIA auch an, dass ihre Grafiklösung auf kommende High-End-Titel zugeschnitten sei. Ebenso erklärte man uns, dass einige Boardpartner ihre Supersonic-Demo mit als Beilage in den Karton packen würde. Nun dann, betrachten wir uns die folgenden Resultate auch noch:

# NVIDIA SuperSonic-Demo: 262,70 Watt
# 3DMark06: 283,16 Watt
# Heaven 2: 242,6 Watt
# Stalker CoP: 239,86 Watt


Ausgehend von diesen Resultaten haben wir NVIDIA natürlich kontaktiert und um Rücksprache gebeten. Erst einmal erklärte man uns, dass natürlich ein offener Teststand nicht optimal für die GeForce GTX 480-Konstellation sei. "Gute Gehäuse mit guter Gehäuse-Durchlüftung" seien hier eigentlich vorgesehen. [...]

Anmerkung: Die ermittelten 3DMark 06 Ergebnisse wurden nicht unter den typisch herangezogenen Benchmarks ermittelt, sondern unter den Tests Vertex-Shader Complex, Shader Particles (SM3.0) und Perlin Noise (SM3.0).
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Zockmaschine
2010-03-27, 10:45:54
obs wirklich nur ein bisschen schneller ist kann man bei neuen architekturen erst nach einer weile bewerten

für aktuelle und ältere Titel bleibt das "nur ein bisschen" wohl zu
warum aber das Ding in Crysis so schwächelt wüsste ich gerne mal

Vielleicht ein Treiberproblem. Da tut sich nach einem Release immer noch einiges.

Obwohl ich sagen muss, dass nvidia da ja auch schon seit den letzten 6 Monaten seit dem ATi Release dran gewerkelt haben wird...

derguru
2010-03-27, 10:47:38
HT4u noch mit ein paar Einzelmessungen:

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

omg in veralteten 3dmark06 am meisten verbrauch:confused:
ok anmerkung gesehen.;:)

Odal
2010-03-27, 10:47:47
Armaq bezieht sich aber auf dirt2 und nicht allgemein.ich dachte ds wäre dx unabhängig?


für DX11 kann man aufgrund nicht vorhandener NV Karten ja noch nix sagen
bei DX10 gehts zwar aber nicht out of the box....also ich hab da so meine probleme gehabt (mal wieder in den DS thread gucken ob mir da einer geantwortet hat :D)

Vielleicht ein Treiberproblem. Da tut sich nach einem Release immer noch einiges.

Obwohl ich sagen muss, dass nvidia da ja auch schon seit den letzten 6 Monaten seit dem ATi Release dran gewerkelt haben wird...

naja bis auf Ausreisser wie z.b. Crysis mit deutlich abweichender relativer Performance glaub ich immer noch nicht an den Treiberweihnachtsmann

also bei aktuellen Titeln wird sich da an den +20% wohl nicht mehr was ändern....

Nakai
2010-03-27, 10:48:00
Ja, wie erwartet...eher weniger wie erwartet.

Kein zweiter FX oder R600-Fail, da hat man sich nochmal rauswinden können. GTX480 ist nur für Tombmans zu gebrauchen, die interessantere Karte ist die GTX470.

Eine 1GHz HD5870 mit 2GB, sollte einer GTX480 gut Paroli bieten und dabei die Leistungsaufnahme nicht so sprengen.
Nur GTX470 und GTS460(GF104) werden wirklich interessant.



mfg

Gast
2010-03-27, 10:48:23
HT4u noch mit ein paar Einzelmessungen:

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Angesichts dessen, dass die TDP oft auch in Spielen nicht eingehalten wird (auch nicht im beigelegten Supersonic), finde ich die Begründung schon irgendwie dreist.

Neocroth
2010-03-27, 10:51:59
HT4u noch mit ein paar Einzelmessungen:

http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

wie gut die Gehäuse (gerade bei einem SLI System) belüftet sein müssen zeigt ja der Umstand mit den SLI certified Gehäusen, die nVidia mit Partnern zusammen herstellen will.

PulsarS
2010-03-27, 10:53:29
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2313694/nvidia_geforce_gtx_480.html
Das Fazit ist ziemlich interessant.

Unterm Strich ist die Geforce die schnellere Grafikkarte, die Radeon aber letztlich die bessere.
Die GTX 480 bleibt in der Gesamtwertung hinter der 5870 zurück
Wohl wegen dem Verbrauch und der Lautstärke.

Cubitus
2010-03-27, 10:55:48
Ok, >3 Stunden Reviewlesen durch :ugly:

Strom und Hitze sind mir egal, da ein passendes NT (1250W Emermax Revolution) vorhanden ist und Stromkosten eh lächerlich sind.

Bei "wichtigen" games ist die GTX480 deutlich vorne (außer Crysis), sprich bei games, wo die "Belastung" sehr hoch ist: Red Faction 3, Metro 2033, alles was mit Tess. zu tun hat, DX11 games, etc.
Auch die GPGPU Sachen gefallen mir.
Zeigt IMO DEUTLICH in die Zukunft: die GTX480 ist "robuster" als die HD5870.

Im Schnitt ist sie auch meßbar schneller, also paßt, also ist die "Fps-Gier" auch befriedigt.

Um die Sache abzurunden, werden es bei mir 2 Stück GTX480 im SLI Modus werden- da gibts dann keinerlei Rucklerei mehr, egal unter welcher Belastung/Game/Benchmark ;)

Stimme dir da überein,
Stromsparen wäre für mich ein netter Boni muss aber ned zwingend sein. Von der Dx11 leistung bin ich auch angenehm überrascht.

Zwei 480er dürften mit 3D-Vision schon klein zu kriegen sein ;D

jetzt heißt es eben nur abwarten,
die 540 Euro pro Karte sind mir noch zu teuer.

Ich hoffe mal das die Preise innerhalb von 1-2 Wochen bei besserer Verfügbarkeit etwas fallen.

Schlammsau
2010-03-27, 10:56:01
Angesichts dessen, dass die TDP oft auch in Spielen nicht eingehalten wird (auch nicht im beigelegten Supersonic), finde ich die Begründung schon irgendwie dreist.

Diese Begründung hat ATi vor einiger Zeit auch mal gebracht, und wurde deswegen mit Kritik nur so überhäuft!
Das gleiche muss sich nVidia auch gefallen lassen.

Eine 480 bricht im FURMark ihre eigene TDP um über 50!Watt.

Ich meine, dass muss man sich mal auf der Zunge zergehen lassen....eine 480 verbraucht unter Last 150Watt mehr, also eigentlich das doppelte, wie eine 5870. Und das bei nur rund 20% mehr Leistung. :freak:
Auch im Idle, mehr als das doppelte. :ulol:

Das ist einfach zu krass und lässt sich kaum in Worten beschreiben. :cool:

dildo4u
2010-03-27, 10:56:11
also bei aktuellen Titeln wird sich da an den +20% wohl nicht mehr was ändern....
ATI hat mit dem 10.3 schon rund 20% nachgelegt,die fehlen bei NV noch.Bei der 4800 Gen hat ATI vom Launch bis zum letzten Treiber vor der 5870 ca 30% gemacht also fehlen nur noch ca 10%.Ich schätze im Mittel wird NV noch 15% gegenüber den ATI's zulegen,also Gesammt 35% Abstand 5870 zu GTX 480.

cR@b
2010-03-27, 10:56:28
Man auf Amazon.com für 499.- Dollar ein Traum...

US Dollar (USD) - Euro (EUR)
Werte von: 26.03.2010
499 US Dollar (USD) 372,861 EUR
499 Euro (EUR) 667,812 USD
Interbank Kurs +/-0%
1 US Dollar (USD) = 0,747 Euro (EUR)

Für den Preis würde ich ohne Bedenken zuschlagen!!!

r@h
2010-03-27, 10:57:13
Da hatte man auch noch kein 384-Bit IMC mit fast 2GHz.
Hmmm... damals waren es 128Bit, ebenfalls integriert und ebenfalls 1GHz.
Das Speicherinterface ist einfach nur 3x so breit...
...warum der Takt hier so hoch sein muss, nur um 2 Displays zu betreiben, wurde noch immer nicht hinreichend geklärt.
(vor allen, warum dies anders als "damals" sein soll)

Bei den kommenden Generationen sollten sich AMD und Nvidia definitiv etwas überlegen, wie sie bei mehr als einem Display nur den benutzten Teil des VRAM/IMC auf vollem Takt laufen lassen können.
Ja, da sollte sie etwas tun.
Vor allem aber sollten sie "ein wenig" an der Effizienz basteln - DAS hier geht überhaupt nicht!

omg in veralteten 3dmark06 am meisten verbrauch:confused:
ok anmerkung gesehen.;:)
Und?
Das sind die Tech-Tests, die ich z.Bsp. auch immer mitlaufen lasse.
Solcherart Leistungsaufnahme-Spitzen gibt es da mit den GT200 nicht...

Angesichts dessen, dass die TDP oft auch in Spielen nicht eingehalten wird (auch nicht im beigelegten Supersonic), finde ich die Begründung schon irgendwie dreist.
Sie haben mit der TDP von 250W bei der GTX480 einfach gelogen.
That's it!

Sie hätten einfach bei den zuerst spekulierten TDP von 295W bleiben sollen und den FurMark als "Theorem" abtun sollen.
Dann wäre alles "in Butter" gewesen... sozusagen... oder auch nicht... zumindest aber hätten sie nicht dreist "untertrieben"!
;)

Und da das Ding es sowieso in keine OEM-Rechner schaffen wird, täuscht dies nur die Öffentlichkeit, birgt aber kein Risiko in der Gewährleistung ggü. den Herstellern.

Razor

Gast
2010-03-27, 10:58:43
GrillForce Thermi, einfach genial, alleine deswegen hat sich das Lesen des Thread gelohnt, Danke an die Urheber :)

Gunslinger
2010-03-27, 10:59:20
Man auf Amazon.com für 499.- Dollar ein Traum...

US Dollar (USD) - Euro (EUR)
Werte von: 26.03.2010
499 US Dollar (USD) 372,861 EUR
499 Euro (EUR) 667,812 USD
Interbank Kurs +/-0%
1 US Dollar (USD) = 0,747 Euro (EUR)

Für den Preis würde ich ohne Bedenken zuschlagen!!!

Steuer dazurechnen, dann ist es nicht mehr so prickelnd.

Gast
2010-03-27, 11:00:39
PCGH fällt leider immer wieder mit Tendenziösen Berichterstattung auf und es ist wohl auch kein Zufall das Fermi nirgends so weit vorne ist wie dort. Aber dafür haben sie ja auch als einzige deutschsprachige Seite eine GTX470 bekommen.

Heise hat wohl auch schon eine bekommen, siehe

http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-GeForce-GTX-470-und-GTX-480-965390.html

Gast
2010-03-27, 11:00:51
Diese Begründung hat ATi vor einiger Zeit auch mal gebracht, und wurde deswegen mit Kritik nur so überhäuft!
Das gleiche muss sich nVidia auch gefallen lassen.

Eine 480 bricht im FURMark ihre eigene TDP um über 50!Watt.

Ich meine, dass muss man sich mal auf der Zunge zergehen lassen....eine 480 verbraucht unter Last 150Watt mehr, also eigentlich das doppelte, wie eine 5870. Und das bei nur rund 20% mehr Leistung. :freak:
Auch im Idle, mehr als das doppelte. :ulol:

Das ist einfach zu krass und lässt sich kaum in Worten beschreiben. :cool:

Dass eine Karte im FURMark über seine TDP geht, ist Nichts neues.
Aber dass Sie in normalen Spielen Ihre TDP übertritt ist nicht akzeptabel.
Wo währe das Problem gewesen, wenn NV die TDP mit 280W angegeben hätte?
Selbst das währe im Vergleich zur 5870 noch verhältnismäßig optimistisch gewesen.

Ronny145
2010-03-27, 11:01:35
ATI hat mit dem 10.3 schon rund 20% nachgelegt,die fehlen bei NV noch.


Unfug, Ati hat nie 20% mit Cat 10.3 nachgelegt.

derguru
2010-03-27, 11:02:12
Und?
Das sind die Tech-Tests, die ich z.Bsp. auch immer mitlaufen lasse.
Solcherart Leistungsaufnahme-Spitzen gibt es da mit den GT200 nicht...


aha ok,selten die tech mit gebencht gehabt.

Sie haben mit der TDP von 250W bei der GTX480 einfach gelogen.
That's it!

Razor
wie hatten nv das in den pr folien genannt,typical.:wink:

Gast
2010-03-27, 11:04:17
Was sollen eigentlich diese ganzen "epic fail"-Beiträge? Abgesehen vom (sehr hohen) Stromverbrauch hat die Karte doch eigentlich keine ernsthaften Schwächen oder habe ich da was übersehen?

Wenn Nvidia den Stromverbrauch in den Griff bekommt und Vollausbau fahren kann, ist es doch eigentlich eine verdammt gute GPU, die aufgrund ihrer Vorteile (Treiber, BQ, CUDA) für viele potenzielle Kunden ohne ernsthafte Konkurrenz ist.

Ist das Rechnen in doppelter Präzision mit den Consumer-Geforces jetzt eigentlich möglich?

Schlammsau
2010-03-27, 11:05:00
Dass eine Karte im FURMark über seine TDP geht, ist Nichts neues.
Aber dass Sie in normalen Spielen Ihre TDP übertritt ist nicht akzeptabel.
Wo währe das Problem gewesen, wenn NV die TDP mit 280W angegeben hätte?
Selbst das währe im Vergleich zur 5870 noch verhältnismäßig optimistisch gewesen.

Wie gesagt, ATi hat vor nich allzu langer Zeit, deswegen gehörig einen auf den Deckel bekommen. Aber meines Wissens nach nur wegen der Überschreitung der TDP im FURMark. In Games waren sie immer unter der TDP.
Bis zur HD5000 Serie.....die ist sogar im FUR noch in ihrer TDP. Eine 5870 hat zB eine TDP von 188Watt, die sie auch einhält.

*SCNR*......150Watt mehr als eine 5870.

XuXo
2010-03-27, 11:08:17
Fermi ist wohl nicht so gut angekommen ....
Schade.
Ein Vorredner schreibt hier: Wir sind die looser. Das scheint mir wiedereinmal der Fall zu sein.

Zur Zeit, kann man mit z.B. 280GTXSLI@OC für 2560x1600@Very Details durchaus über die Runden kommen. Zumindestens bis eine Besserung am Markt kommt. Schade natürlich für die aktuellen Games mit DX11. Wenn es aber jetzt DX11 sein muss...dann lieber doch ATI/AMD.

Es gibt aber für mich nachwievor einen Grund bei nvidia zu bleiben: Der Treiber.
IMHO immer noch ein Millimeter besser als bei ATI/AMD.

Gast
2010-03-27, 11:08:51
Was sollen eigentlich diese ganzen "epic fail"-Beiträge? Abgesehen vom (sehr hohen) Stromverbrauch hat die Karte doch eigentlich keine ernsthaften Schwächen oder habe ich da was übersehen?

Wenn Nvidia den Stromverbrauch in den Griff bekommt und Vollausbau fahren kann, ist es doch eigentlich eine verdammt gute GPU, die aufgrund ihrer Vorteile (Treiber, BQ, CUDA) für viele potenzielle Kunden ohne ernsthafte Konkurrenz ist.

Ist das Rechnen in doppelter Präzision mit den Consumer-Geforces jetzt eigentlich möglich?

Die jetzigen Karten sind aber kein Refresh.
Deutlich weniger Energiebedarf wird es erst in 28nm nächstes Frühjahr geben.

Gast
2010-03-27, 11:09:16
Diese Begründung hat ATi vor einiger Zeit auch mal gebracht, und wurde deswegen mit Kritik nur so überhäuft!
Das gleiche muss sich nVidia auch gefallen lassen.

Von dir gabs keine Kritik, im Gegenteil du hast AMD verteidigt.
Genauso musst du jetzt Nvidia verteidigen, das sie die TDP sprengen.

Schlammsau
2010-03-27, 11:11:30
Von dir gabs keine Kritik, im Gegenteil du hast AMD verteidigt.
Genauso musst du jetzt Nvidia verteidigen, das sie die TDP sprengen.

Mir ist nicht bekannt, dass ich das verteidigt habe.

Letztendes ists mir Wurscht ob die TDP durchbrochen wird.
Aber ein Lastverbrauch von über 300Watt bei durchschnittlich nur 20% mehr Leistung.....ist einfach nur :lol:

Gast
2010-03-27, 11:13:24
*SCNR*......150Watt mehr als eine 5870.
Ich frag mich ernsthaft was diese Äpfel Birnen Vergleiche sollen.

GTX 470 vs 5870 oder gar nicht.

Die GTX 480 liegt in einer anderen Liga. Wenn man sie mit der 470 vergleicht, dann muss man auch die Leistung und die Spielbarkeitskrone erwähnen.

Gunslinger
2010-03-27, 11:13:29
Alternate

http://www.alternate.de/html/summaryListing.html?searchCriteria=GTX470480&description=NVIDIA%20GTX480%20Grafikkarten&tn=HARDWARE&l1=Grafikkarten&baseId=671000

Gast
2010-03-27, 11:14:00
Mir ist nicht bekannt, dass ich das verteidigt habe.
Mir schon.
Furmark ist doch ach so Praxisfern. Jetzt nicht mehr?

AnarchX
2010-03-27, 11:14:48
Hmmm... damals waren es 128Bit, ebenfalls integriert und ebenfalls 1GHz.
Das Speicherinterface ist einfach nur 3x so breit...
...warum der Takt hier so hoch sein muss, nur um 2 Displays zu betreiben, wurde noch immer nicht hinreichend geklärt.
(vor allen, warum dies anders als "damals" sein soll)

Doch wurde es von beiden Seiten:
Als Grund dafür nannte uns AMD, dass es im Betrieb mit mehr als einem Monitor zum Bildflackern kommen kann, wenn man den Speichertakt von GDDR5 absenkt. Die teils zu beobachtenden höheren GPU-Taktungen/ -Spannungen könnten dabei eine notwendige Zugabe für die Stabilität des Speichercontrollers sein.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index16.php

"We are currently keeping memory clock high to avoid some screen flicker when changing power states, so for now we are running higher idle power in dual-screen setups. Not sure when/if this will be changed. Also note we're trading off temps for acoustic quality at idle. We could ratchet down the temp, but need to turn up the fan to do so. Our fan control is set to not start increasing fan until we're up near the 80's, so the higher temp is actually by design to keep the acoustics lower." - NVIDIA PR
http://www.legitreviews.com/article/1258/15/

dildo4u
2010-03-27, 11:15:03
GTX 480 @ 900/1.8Ghz Shader LN2 Default Volts

http://www.xtremesystems.org/forums/showthread.php?t=248303

Daredevil
2010-03-27, 11:17:01
Eigentlich ist der Stromverbrauch garnicht so desaströs, wenn Fermi in Zukunft wirklich ihre Karten bei den DX11 Titeln ausspielt.

Wenn man jetzt mal von den FurMark Tests @ PCGH ausgeht.
HD5870: 186w
GTX480: 304w +63.44%

Denn in manchen Benchmarks setzt Fermi der HD5870 so dermaßen zu, das die Stromverbrauchswerte recht legitim sind.
Am Beispiel vom HT4U Test:

HD5870: 100%

Fermi:
Far Cry 2 1920 x 1200 [8xAA /16xAF] : 149%
Battleforge DX11 1920 x 1200 [8xAA /16xAF] : 146%
Colin McRae: Dirt 2 DX11 1920 x 1200 [0xAA /0xAF] : 130%

Das sind jetzt nur drei herausgepickte Werte, die natürlich nicht die Overall Leistung repräsentieren, aber man sieht trotzdem, das Fermi nicht Grundsätzlich ein lahmes, Stromfressendes Stück ist, sondern auch in manchen, hoffentlich Zukünftigen, Szenarien ihren Stromhunger in FPS wandeln kann.

Heise schreibt dazu noch:
Im Unigine-Benchmark rechnet die GeForce GTX 480 bei vierfachem Antialiasing rund 40 Prozent flinker als die AMD-Konkurrenzkarte HD 5870. Daher dürfte Nvidias neue GeForce-Serie erst in zukünftigen DirectX-11-Spielen, die auf Tessellation und DirectCompute setzen, ihre Trümpfe voll ausspielen können. Beim Rennspiel Dirt 2 sind die neuen GeForce-Karten schon deutlich schneller als ihre HD-5800-Pendant.

Also Final ist das ganze noch nicht, mal sehen, ob Nvidia da noch zaubern kann. Time will tell.

Schlammsau
2010-03-27, 11:18:46
Ich frag mich ernsthaft was diese Äpfel Birnen Vergleiche sollen.

GTX 470 vs 5870 oder gar nicht.

Die GTX 480 liegt in einer anderen Liga. Wenn man sie mit der 470 vergleicht, dann muss man auch die Leistung und die Spielbarkeitskrone erwähnen.

Du möchtest eine andere Liga? Ok....ich hätte da noch die 5970 (2 GPUs ;)) im Angebot. Sogar die verbraucht weniger im Idle und unter Last als eine GTX480....

Lächerlich!

Gast
2010-03-27, 11:21:16
Du möchtest eine andere Liga? Ok....ich hätte da noch die 5970 (2 GPUs ;)) im Angebot. Sogar die verbraucht weniger im Idle und unter Last als eine GTX480....

Lächerlich!
Schön besser. Warum nicht gleich so?

PS: Ich finde es geht in Ordnung, das sie im Idle sparsamer als die Mittelklasse 4870 oder Performance 4890 ist.

Gast
2010-03-27, 11:23:09
GTX 480 @ 900/1.8Ghz Shader LN2 Default Volts

http://www.xtremesystems.org/forums/showthread.php?t=248303

Ja, der Stromverbrauch hat es ihnen versaut, ansonsten hätte das Ding ein Monster werden können.

Was sollen eigentlich diese ganzen "epic fail"-Beiträge? Abgesehen vom (sehr hohen) Stromverbrauch hat die Karte doch eigentlich keine ernsthaften Schwächen oder habe ich da was übersehen?

Wenn Nvidia den Stromverbrauch in den Griff bekommt und Vollausbau fahren kann, ist es doch eigentlich eine verdammt gute GPU, die aufgrund ihrer Vorteile (Treiber, BQ, CUDA) für viele potenzielle Kunden ohne ernsthafte Konkurrenz ist.

Ist das Rechnen in doppelter Präzision mit den Consumer-Geforces jetzt eigentlich möglich?

Ja, das stimmt, aber was hilft das? Das einzige was mich sonst noch stört ist das fehlen von SGSSAA, aber wenn man sich ansieht wie man mit hohen Auflösungen an Vorsprung einbüßt weiß man auch warum.

StevenB
2010-03-27, 11:23:37
Eigentlich ist der Stromverbrauch garnicht so desaströs, wenn Fermi in Zukunft wirklich ihre Karten bei den DX11 Titeln ausspielt.

Wenn man jetzt mal von den FurMark Tests @ PCGH ausgeht.
HD5870: 186w
GTX480: 304w +63.44%

Denn in manchen Benchmarks setzt Fermi der HD5870 so dermaßen zu, das die Stromverbrauchswerte recht legitim sind.
Am Beispiel vom HT4U Test:

HD5870: 100%

Fermi:
Far Cry 2 1920 x 1200 [8xAA /16xAF] : 149%
Battleforge DX11 1920 x 1200 [8xAA /16xAF] : 146%
Colin McRae: Dirt 2 DX11 1920 x 1200 [0xAA /0xAF] : 130%

Das sind jetzt nur drei herausgepickte Werte, die natürlich nicht die Overall Leistung repräsentieren, aber man sieht trotzdem, das Fermi nicht Grundsätzlich ein lahmes, Stromfressendes Stück ist, sondern auch in manchen, hoffentlich Zukünftigen, Szenarien ihren Stromhunger in FPS wandeln kann.

Heise schreibt dazu noch:


Also Final ist das ganze noch nicht, mal sehen, ob Nvidia da noch zaubern kann. Time will tell.

Leider sind die Verbrauchswerte nicht legitim. Mein Gott die 300Watt unter Last würde mich persönlich nicht stören, und die Idle Verbrauchswerte sind auch sehr gut!

Aber die Karte Verbraucht rund 150Watt mehr, und das gerade mal für 20% mehr Leistung, das ist leider lächerlich.

Für mich sieht es so aus, als ist der Chip leider für den 40nm Prozess zu groß...

Labberlippe
2010-03-27, 11:24:33
Hi

Ich hätte mir doch erhofft oder gewünscht das die 470/480er besser da steht.
Der Verbrauch den aber beide Karten an den Tag legen ist Jenseits von Gut und Böse.

Ich lasse jetzt extra mal die Features ausser acht über das können wir eh noch zur genüge diskutieren.

Ich finde gerade in Zeiten wo die Konsolenports und Browsergames vormasch nehmen da kommt eine solche Leistung von nVIDIA nicht gerade als optimal daher.

Für nVIDIA wird es Zeit das die schleunigst den OEM und Notebook Bereich auf den Markt bringen.
Leider hat nVIDIA bis auf die 470/480er Karten welche nichtmal noch ernsthaft lieferbar sind quasi kein Produktsortiment.

Man kann nur hoffen das im Einsteiger und Performance Segment die Karten dann auch vernünftige Werte abliefern können.

Ich hoffe das nVIDIA sich diese Kritiken zu Herzen nimmt und schleunigst das ändert so ist das für mich und eingen inakzeptabel.

Wenn die Karten schon über 100Watt beim Blu Ray oder DVD sehen eine
solche Leistung verbraten dann ist das nicht gut.

Gerade wo ja laut eingien hier im OEM und Notebook Bereich das Geld liegt muss dringend das ausgebessert werden.

Es ist zwar schön das nVIDIA es geschafft hat mit "Holzhammer" Methode die Prerformance Krone zu erreichen nur hat der Hersteller bis jetzt keine komplette Produktpallette.

zack zack nVIDIA kommt in die Hufe dann wird es wieder gut und zwar für beide Lager.



Gruss Labberlippe

Schlammsau
2010-03-27, 11:24:55
Schön besser. Warum nicht gleich so?

PS: Ich finde es geht in Ordnung, das sie im Idle sparsamer als die Mittelklasse 4870 oder Performance 4890 ist.

Aber nur mit einem Monitor.

Es ist einfach unglaublich, was das Ding an Energie verschwendet.

Beim Thema ineffizenz bewegt sich eine GTX480 gefährlich nahe an der HD2900XT.
Der R600 war aber auch echt ein Drecksding. ;D

Gast
2010-03-27, 11:27:18
Eigentlich ist der Stromverbrauch garnicht so desaströs, wenn Fermi in Zukunft wirklich ihre Karten bei den DX11 Titeln ausspielt.

Wenn man jetzt mal von den FurMark Tests @ PCGH ausgeht.
HD5870: 186w
GTX480: 304w +63.44%

Denn in manchen Benchmarks setzt Fermi der HD5870 so dermaßen zu, das die Stromverbrauchswerte recht legitim sind.
Am Beispiel vom HT4U Test:

HD5870: 100%

Fermi:
Far Cry 2 1920 x 1200 [8xAA /16xAF] : 149%
Battleforge DX11 1920 x 1200 [8xAA /16xAF] : 146%
Colin McRae: Dirt 2 DX11 1920 x 1200 [0xAA /0xAF] : 130%

Das sind jetzt nur drei herausgepickte Werte, die natürlich nicht die Overall Leistung repräsentieren, aber man sieht trotzdem, das Fermi nicht Grundsätzlich ein lahmes, Stromfressendes Stück ist, sondern auch in manchen, hoffentlich Zukünftigen, Szenarien ihren Stromhunger in FPS wandeln kann.

Heise schreibt dazu noch:


Also Final ist das ganze noch nicht, mal sehen, ob Nvidia da noch zaubern kann. Time will tell.

Also wenn er im Heavenbenchmark zulegt würdest du Ihn kaufen?
Mal im Ernst:
Eine Karte, die so laut ist und so viel Energie benötigt kann sich nicht mit Leistung rechtfertigen.
Sie sit einfach nur nervig und unvernünftig.
Wenn jede Grafikkarte ihre Mehrleistung mit Mehrverbrauch rechtfertigen dürfte, müsste heute jede Grafikkarte mehrere KW benötigen.

Ronny145
2010-03-27, 11:29:47
Also wenn er im Heavenbenchmark zulegt würdest du Ihn kaufen?
Mal im Ernst:
Eine Karte, die so laut ist und so viel Energie benötigt kann sich nicht mit Leistung rechtfertigen.
Sie sit einfach nur nervig und unvernünftig.
Wenn jede Grafikkarte ihre Mehrleistung mit Mehrverbrauch rechtfertigen dürfte, müsste heute jede Grafikkarte mehrere KW benötigen.


Genau, sonst dürfte die nächste Generation bei mehr Leistung noch mehr verbrauchen. Aber wo kommen wir da hin? 400 Watt? Da müssen irgendwo Grenzen gesetzt sein.

Mr. Lolman
2010-03-27, 11:30:19
Bei den ganzen Farcry2 Benchmarks sollte man mal untersuchen, ob bei NV immernoch Schattendetails unterschalgen werden.

Daredevil
2010-03-27, 11:30:23
Leider sind die Verbrauchswerte nicht legitim. Mein Gott die 300Watt unter Last würde mich persönlich nicht stören, und die Idle Verbrauchswerte sind auch sehr gut!

Aber die Karte Verbraucht rund 150Watt mehr, und das gerade mal für 20% mehr Leistung, das ist leider lächerlich.
Diese 20% sind aber der Durchschnitt der momentanen Spiele, bei DX11 Titeln mit Tesselation bewegt sich das ganze in Richtung 30-40% und da kommen wir dem Prozentual höherem Stromverbrauch immer näher, nichtsdestotrotz ist sie natürlich gehörig Ineffizient, bzw. die HD58xx ist einfach in Dingen wie Stromverbrauch hervorragend gut.

Cubitus
2010-03-27, 11:32:11
Du möchtest eine andere Liga? Ok....ich hätte da noch die 5970 (2 GPUs ;)) im Angebot. Sogar die verbraucht weniger im Idle und unter Last als eine GTX480....

Lächerlich!

Eine GTX480 ist teilweise schneller als eine 5970.
Strom Verbrauch hin oder her.

Ein Koenigsseg CXR ist auch schneller als ein Ferrari Enzo
und schluckt daher auch mehr Sprit.

Für die breite Masse ist die Karte allerdings nicht gedacht,
genau so wie diese zwei Sportwagen hier.

Nvidia sollte um den breiten Markt zu erreichen so schnell wie möglich eine B Eco-Revision raus bringen.

Aber im High End Karte Segment hat Nv sich ganz klar und deutlich die Performance Krone zurück ergattert und einem Enthusiast der nur High End und im Gegensatz zu dir keine verkrüppelten Big Bang for Bucks Karten kauft, wobei dieses Kaufverhalten natürlich schon besonnener ist :wink: ist dieser Punkt egal, Hauptsache das Ding ist zufriedenstellend schneller !

pXe
2010-03-27, 11:32:15
Schade dass es ausser bei PCGH keine SSAA Benchmarks gibt.
Dort liegt die GTX 470 bei 16xS leider mit einer GTX285 gleichauf.


pXe

AnarchX
2010-03-27, 11:33:03
Hier noch ein paar Werte für die Durchschnittswert-Interessierten: http://www.xtremesystems.org/forums/showpost.php?p=4309698&postcount=2495

Odal
2010-03-27, 11:33:28
Was sollen eigentlich diese ganzen "epic fail"-Beiträge? Abgesehen vom (sehr hohen) Stromverbrauch hat die Karte doch eigentlich keine ernsthaften Schwächen oder habe ich da was übersehen?

Wenn Nvidia den Stromverbrauch in den Griff bekommt und Vollausbau fahren kann, ist es doch eigentlich eine verdammt gute GPU, die aufgrund ihrer Vorteile (Treiber, BQ, CUDA) für viele potenzielle Kunden ohne ernsthafte Konkurrenz ist.

Ist das Rechnen in doppelter Präzision mit den Consumer-Geforces jetzt eigentlich möglich?

naja gemessen an 5870

pro:
Performance (zuwachs gemessen an der GTX280 nach so langer Zeit natürlich dürftig)
AF
bessere AA Modi (bis auf OGSSAA)
PhysX
Downsampling
Cuda
Treiber vermutlich
zukünftige Performancezuwächse

contra:
extreme Last Leistungsaufnahme
zu hohe IDLE Leistungsaufnahme
resultierend aus obigen zu laut ohne andere Kühllösungen
evtl. der Preis (also bei der GTX480 definitiv bei GTX470 muss man sehen wo der sich einpendelt)
evtl. Verfügbarkeitsprobleme

Gast
2010-03-27, 11:35:03
Diese 20% sind aber der Durchschnitt der momentanen Spiele, bei DX11 Titeln mit Tesselation bewegt sich das ganze in Richtung 30-40% und da kommen wir dem Prozentual höherem Stromverbrauch immer näher, nichtsdestotrotz ist sie natürlich gehörig Ineffizient, bzw. die HD58xx ist einfach in Dingen wie Stromverbrauch hervorragend gut.

Es sind ja auch nicht wirklich 20%. Es sind je nach Seite bis zu 20%. Bei manchen herrscht gar Gleichstand. Bei HT4U sind es ganze 8% im Schnitt. Mehr als 20% sind es nirgends. Auch bei Dx11 bei vielen nur 20%, nicht mehr

Eggcake
2010-03-27, 11:35:58
ATi hat mit der 5800er imho beim Stromverbrauch schon einen extrem guten Job gemacht. Die vergangenen Generationen (insbesondere von ATi)waren diesbezüglich schlicht miserabel. Insofern hat es Fermi imho doppelt schwer, da er gegen einen ziemlichen Stromsparer antreten muss.

Ich würde mich über eine Analyse der Leistung sehr freuen - diese riesen Unterschiede zwischen den Games sind irgendwie schon auffällig. In DX11 kann sich Fermi ja auch meist ohne Tessellation gut behaupten, das ist super, dass es nicht nur an einem "Feature" (Tessellation) hängt.

pest
2010-03-27, 11:36:09
Diese 20% sind aber der Durchschnitt der momentanen Spiele, bei DX11 Titeln mit Tesselation bewegt sich das ganze in Richtung 30-40% und da kommen wir dem Prozentual höherem Stromverbrauch immer näher, nichtsdestotrotz ist sie natürlich gehörig Ineffizient, bzw. die HD58xx ist einfach in Dingen wie Stromverbrauch hervorragend gut.

nicht immer die Werte raussuchen die einem passen

gemittelt über 3 Webseiten (PCGH,CB,HT4U) erreicht die GTX480 in Dirt2 1920x1200 4xAA/16xAF ein Plus von 20%

Gast
2010-03-27, 11:38:55
ATi hat mit der 5800er imho beim Stromverbrauch schon einen extrem guten Job gemacht. Die vergangenen Generationen (insbesondere von ATi)waren diesbezüglich schlicht miserabel. Insofern hat es Fermi imho doppelt schwer, da er gegen einen ziemlichen Stromsparer antreten muss.

Ich würde mich über eine Analyse der Leistung sehr freuen - diese riesen Unterschiede zwischen den Games sind irgendwie schon auffällig. In DX11 kann sich Fermi ja auch meist ohne Tessellation gut behaupten, das ist super, dass es nicht nur an einem "Feature" (Tessellation) hängt.

Stromsparer (vor allem unter Last) heißt Nichts anderes, als dass AMD darauf verzichtet hat, das Letzte heraus zu quetschen.
NV musste dagegen schneller sein und hat dazu nahezu Alles in Kauf genommen.