PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 590: (P)Review-Thread


fondness
2011-03-24, 14:20:21
Fazit: Mehr Leistungsaufnahme als Radeon 6990, dafür deutlich bessere Referenzkühlung. Leistung wie zu erwarten war angesichts der Specs, bei hoher Grafiklast ist die 6990 etwas vorne.

(P)Reviews:
http://www.pcgameshardware.de/aid,817166/Geforce-GTX-590-im-Test-Triumphiert-der-doppelte-Fermi-ueber-die-Radeon-HD-6990/Grafikkarte/Test/
http://ht4u.net/reviews/2011/asus_nvidia_geforce_gtx_590_im_test/
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/#abschnitt_einleitung

Die Moderation kann ja später noch gerne weitere Reviews einfügen.

w0mbat
2011-03-24, 14:26:58
mehr verbrauch + weniger leistung = fail

zumal die kühlung zwar etwas besser ist, aber das wort deutlich hat dort nichts zu suchen.

dildo4u
2011-03-24, 14:31:51
Krass wie klein die Karte ist Kühlung 3.7 vs 10(ATI) sone die Konstruktion ist der Hammer oder AMD kann gar nix wohl ne Mischung aus beidem.

http://www.pcgameshardware.de/aid,817166/Geforce-GTX-590-im-Test-Triumphiert-der-doppelte-Fermi-ueber-die-Radeon-HD-6990/Grafikkarte/Test/?page=2


Anhandtech
http://www.anandtech.com/show/4239/nvidias-geforce-gtx-590-duking-it-out-for-the-single-card-king

Raff
2011-03-24, 14:35:25
mehr verbrauch + weniger leistung = fail

zumal die kühlung zwar etwas besser ist, aber das wort deutlich hat dort nichts zu suchen.

Ihr seht nur, was ihr sehen wollt, eh? Die Karte verbraucht mehr, ist aber nicht einmal halb so laut. Wer ist "fail" beim Design?

Dennoch ist die Entscheidung fragwürdig. Wenn's, wie hier, um Prestige geht, dann hat die Lautstärke kaum Relevanz. Die Leute sehen, dass das Topmodell langsamer ist als das der Konkurrenz – und das kann man durchaus als "Fail" ansehen. Die Karte versagt dort, wo die Kacke am Dampfen ist (hohe Auflösungen, Supersampling). Hier herrscht AMD, brüllt dabei aber aus allen Rohren. Das ist wie Pest oder Cholera. X-D

MfG,
Raff

w0mbat
2011-03-24, 14:38:55
so eine karte kommt wenn dann doch eh unter wasser. die kühlung ist also zweitrangig. wichtig ist, dass die hd6990 schneller ist und weniger verbraucht.

fondness
2011-03-24, 14:41:29
Die Karte verbraucht mehr, ist aber nicht einmal halb so laut. Wer ist "fail" beim Design?


Wobei solche Dinge auch nicht gerade fürs Design sprechen:

"Dafür leidet die Geforce unter bestimmten Voraussetzungen an Problemen, unser Exemplar zeigte trotz nur 86 Grad Celsius Bildfehler beim Betrieb mit Supersampling-AA in Call of Duty Modern Warfare 2. Andere Tester mussten im Betrieb gar einen Defekt erleben - warum, ist aber unklar."

http://www.pcgameshardware.de/aid,817166/Geforce-GTX-590-im-Test-Triumphiert-der-doppelte-Fermi-ueber-die-Radeon-HD-6990/Grafikkarte/Test/?page=10

Die Wandlertemperatur liegt >100°C, ohne bessere Kühlung würde ich mich da nicht mehr übertakten trauen.

Undertaker
2011-03-24, 14:45:07
so eine karte kommt wenn dann doch eh unter wasser. die kühlung ist also zweitrangig. wichtig ist, dass die hd6990 schneller ist und weniger verbraucht.

Vergiss mal nicht den Einfluss der Kühlung auf den Verbrauch. Beide Lüfter auf gleiche Lautstärke gebracht, dürfte sich die Differenz wohl mindestens egalisieren.
Bei der Leistung führt die GTX590 bis 1920x1200, darüber die HD6990 - angsichts der starken Spieleabhängigkeit der jeweiligen Performance ist es schwer, da einen klaren Sieger zu küren. Für völlig überzüchtete Prestigeobjekte halte ich beide Karten. ;)

fondness
2011-03-24, 14:47:00
Vergiss mal nicht den Einfluss der Kühlung auf den Verbrauch.

Du meinst den Einfluss der Temperatur auf den Verbrauch - und da nehmen sich die Karten nicht viel. Die Lautstärke ist bei NV natürlich deutlich besser, zumindest unter Last. Auch weil eine Radiallüfter einfach zum heulen neigt.

Raff
2011-03-24, 14:48:35
Er hat auch Recht: Ein fetter Lüfter braucht mit Vollgas auch eine zweistellige Wattzahl. ;D

MfG,
Raff

Nakai
2011-03-24, 14:50:58
Keine Ahnung, wie ich die Karte beurteilen soll.

Würde man die Karte nach dem klassischem Schema beurteilen, ist sie ein Stück besser als die HD6990.
In den Standardauflösungen ist sie schneller, sie ist leiser und kleiner. Nur beim Stromverbrauch ist sie schneller.

NUR sollte diese Karte nicht nach diesen Kriterien beurteilt werden. Da liegt die HD6990 einfach einen größeren Tick weiter vorn.

Ich würde gerne nen Review mit 3*(2560*1920) sehen.:freak:

boxleitnerb
2011-03-24, 14:50:59
Niedrigere Temperaturen bringen doch eher bei GF100 was, weil der verstärkt mit Leckströmen zu kämpfen hatte. Bei GF110 nicht mehr so.

Ich finde es auch schade, dass die Karte nicht immer an der 6990 vorbeikommt. Aber wenn man sich mal die Pixel- und Texelfüllraten anschaut, ist es schon beeindruckend, wieviel Nvidia mit so wenig Ressourcen erreicht.

Die 6990 mag mit SSAA rulen, aber das kann sie auch nur dort, wo man es einschalten kann :tongue:
Nene, also imo ist die 590 für Enthusiasten die deutlich bessere Karte - es sei denn, man hat 3 Monitore (extrem hohe Auflösung) oder ist NUR fps-geil und schert sich nicht so um die Bildqualität. In diesen Leistungsregionen ist das für mich aber unverständlich.

Knuddelbearli
2011-03-24, 14:56:07
bin wirklich enttäuscht vor allem vom Verbrauch.

wie gesagt ob es ein durchstartender Jet ist oder oder Hubschrauber dürfte wohl ziemlich egal sein, der wichtige Idle wert ist dafür sogar minimal höher als bei der 6990 bei CB nur leicht bei HT4u deutlich und sie verbraucht sogar ein gutes Stück mehr als die 6990.

Rein von der balkenlänge also fast immer hinten ( ausser in Auflösungen die eh egal sind und Lautstärke siehe oben ) dafür halt die typischen pro NV Sachen. Kann man zumindest 4 Bildschirme drann anschliessen? Aber selbst da reicht es aus meiner betrachtungsweise knapp NICHT für einen Gleichstand bei selben Preis.

Tarkin
2011-03-24, 15:01:39
so oder so... beide Karten sind kein guter Deal

Zwei 5870er um je €170 sind auch fast so schnell, verbrauchen weniger und sind LEISER!

(hab seit kurzem 2 5870 Powercolor PCS+ .. schön silent und schön schnell!) :D

Undertaker
2011-03-24, 15:02:05
Du meinst den Einfluss der Temperatur auf den Verbrauch - und da nehmen sich die Karten nicht viel.

Ich sprach bewusst von Kühlung, letztlich geht es aber um genau das Gleiche. Die GTX590 hat anscheinend die deutlich leistungsfähigere Lösung, löblicherweise wird diese auch so genutzt, dass zumindest halbwegs erträgliche Lautstärken erzielt werden, nicht aber bessere Temperaturen als bei der HD6990. Ist dem potentiellen Käufer der beiden Karten die Lautstärke egal, würde die GTX590 mit Lüfter auf 100% (oder eben der Stärke, die der Geräuschentwicklung der HD6990 entspricht) eine niedrigere Temperatur erzielen können und damit wohl auch deutlich den Verbrauch senken. Ich würde vermuten, dass damit der von HT4U ermittelte Verbrauchsnachteil von ~28W/gut 10% egalisiert wird.
Letztlich sind aber eh beide mehr als jenseits von gut und böse - die HD6990 bei der Lautstärke, die GTX590 beim Verbrauch, was sich aber wie erwähnt auch gegenseitig angleichen lässt. :freak:

fondness
2011-03-24, 15:06:30
Bei der Leistung führt die GTX590 bis 1920x1200, darüber die HD6990

Hier bleibt die Frage inwiefern es relevant ist ob ich 150fps oder 170fps habe. Ich den zumindest grenzwertigen Bereich kommt man mit beiden Karten erst bei Auflösungen >1920x1200. In diesem Zusammenhang finde ich es von Seite wie PCGH oder AnandTech auch gut sich vorallem auf diese Szenarien konzentriert zu haben.

dildo4u
2011-03-24, 15:06:33
guru3d 590 SLI Review

http://www.guru3d.com/article/geforce-gtx-590-sli-review/


guru3d 590 Review
http://www.guru3d.com/article/geforce-gtx-590-review/

BlackBirdSR
2011-03-24, 15:08:15
Letztenendes haben damit doch beide, AMD und Nvidia bewiesen, dass diese Art von Karten nur Statussymbole für die Reviews sind... leider haben durch den Gleichstand beide quasi versagt.

derguru
2011-03-24, 15:15:46
so oder so... beide Karten sind kein guter Deal

Zwei 5870er um je €170 sind auch fast so schnell, verbrauchen weniger und sind LEISER!

(hab seit kurzem 2 5870 Powercolor PCS+ .. schön silent und schön schnell!) :D

wie wahr aber trotzdem sehe ich die 6990 vor der gtx590,sie ist immer dann schneller wenn es wichtig .

+ssaa
+ds-tool(klappt nicht immer)
+tent-modi,hübscher und mit kaum performance-verlust
+und wahrscheinlich deutlich billger

lautstärke sehe ich hier nicht als großen negativfaktor weil es enthusiasten entweder wurst ist oder gleich unterwasser setzen.

Nakai
2011-03-24, 15:19:49
Die Frage die wirklich gestellt werden muss:
Schlägt die GTX590 die HD6990?

Die Antwort ist ganz klar "Nein", was nicht heißt, dass es andersrum ist. ;)

Man kann die beiden Karten nur subjektiv oder gar nicht bewerten.


mfg

TheBrother
2011-03-24, 15:38:49
Ich finde beide Dual-GPU Karten uninteressant. Die Hersteller kommen einfach an die Grenzen was Wärme und Leistungsaufnahme angeht. Wer Gewinnt? Keiner. absolut unvernünftig.

Nightspider
2011-03-24, 15:40:01
so eine karte kommt wenn dann doch eh unter wasser. die kühlung ist also zweitrangig. wichtig ist, dass die hd6990 schneller ist und weniger verbraucht.

Unter wasser könnte sich aber gerade die GTX590 deutlich besser übtertakten lassen. ;)

airbag
2011-03-24, 15:40:03
Wie kommt es eigentlich, dass die HD6990 im CB-Test teilweise extreme Framedrops hat(COD, Mafia und Stalker )? Auch bei anderen Test der Fall ? Peter ? Raff?
Außerdem scheint Nvidia für Stalker noch keine ordentlichen Profile anzubieten.

Hugo78
2011-03-24, 16:00:17
Die GTX 590 ist mal schneller, mal langsamer.
Aber selbst in 2560x1600 8xAA/16xAF laut CB Ranking, keine 3% insgesamt.
In 1920x1200 8xAA/16xAF liegt sie gar 4% vor der HD 6990.
Und hätte NV nicht paar SLI Profile verkackt ... na ja, c´est la vie.

Deutlich leiser unter Last, wenn gleich die Idlelautheit enttäuscht, grad mit Blick auf die Temps.

Na und der Mehrverbrauch, bewegt sich zwischen 15-30W im Vergleich zur Radeon,
was aber bei einer realistischen Rechnung (8h idle, 4h zocken, 5Tage / Woche, 24cent/kWh), grad mal ~60kWh oder 15€ aufs Jahr sind.
Geschenkt bei Kartenpreisen > 500€.

Wäre die Idlelautheit bei ~ einem Sone, und nicht zwei, wäre die GTX 590 sogar ne runde Karte.
Zumindest im Vergleich zur 6990, denn ich bin nicht scharf auf einen Hörsturz.

Knuddelbearli
2011-03-24, 16:02:34
naja Hugo spanne ist schon grösser bei CB sinds 66W mehr die die 590 verbraucht

Blaire
2011-03-24, 16:10:05
Ich finde es auch schade, dass die Karte nicht immer an der 6990 vorbeikommt.

Das war sicher eine Kompromiss Entscheidung, nicht auf Teufel komm raus vorne zu liegen.
Die bessere SSAA Performance der HD6990 ist allenfalls nur Theorie oder wird durch mehr MR wieder aufgefressen. Im Endeffekt Gleichstand.

Hugo78
2011-03-24, 16:12:00
naja Hugo spanne ist schon grösser bei CB sinds 66W mehr die die 590 verbraucht

Bezogen aufs Gesamtsystem und Crysis at max., was als realistischer Maximallastfall auch sicher ok ist,
aber als Durchschnittwert über alle Spiele hinweg, ist es (für mich) fraglos etwas "to much".

Ein zb. BFBC2 seh ich da schon als repräsentativer, um eine allgemein gültige Aussage treffen zukönnen.
Und das liegt nicht nur daran , dass BC2 mein persönlicher Zeitfresser ist.

Aber lass es unter Last ruhig 66W sein. Dann sind es halt 100kWh oder 25€ aufs Jahr. So what?.., bei der Preisklasse.

Spasstiger
2011-03-24, 16:22:57
Die Karten sind imo in fast allen Belangen recht dicht beeinander, so dass letzlich die persönliche Präferenz entscheidet. Ich kann hier keinen Sieger ausmachen.
Zu laut wären mir übrigens beide, ohne Wakü-Umbau würde ich glaube ich mit den Kärtchen nicht warm werden. ;)

aylano
2011-03-24, 16:49:54
so oder so... beide Karten sind kein guter Deal

Wenn man die nur diese Grafikkarte betrachtet, dann ja, wenn Preise & Verfügbarkeit gleich sind/werden.

(Man müsste noch abwarten, wie sich Preise & Verfügbarkeit entwickeln, denn es bringt nicht die Beste Benchmark-Karte, wenn es keine zu kaufen gibt.
Aber wir können mal eine äquivalente Verfügbarkeit annehmen)

Gesamtheitlich ist AMDs Strategie voll aufgegangen.
Denn hätte AMD keine MGPU rausgebracht, hätten sie nicht die schnellste Grafikkarte und somit keine Performance-Krone.

Jetzt stehen sie mit Nvidia ganz oben am Grafikkarten-Performance-Krone-Treppchen. (Ende der 40nm-Ära)

Das ist ein Fortschritt bei AMD, denn HD 4870 vs. GTX295 (Ende der 55nm-Ära) sah es noch etwas anders aus.

Spasstiger
2011-03-24, 18:52:08
Ich bin mal gespannt, ob Asus eine Mars II auf Basis der GTX 590 ankündigt. 2*3 GiB VRAM und GTX-580-Taktraten, schon würde jede Radeon HD 6990 OC in Sachen Performance alt aussehen.
Kann man ja dann auf 525 Watt TDP (3*8-Pin) spezifizieren. :freak:

Blediator16
2011-03-24, 18:59:14
Ich bin mal gespannt, ob Asus eine Mars II auf Basis der GTX 590 ankündigt. 2*3 GiB VRAM und GTX-580-Taktraten, schon würde jede Radeon HD 6990 OC in Sachen Performance alt aussehen.
Kann man ja dann auf 525 Watt TDP (3*8-Pin) spezifizieren. :freak:

Wer hätte gedacht, dass eine 1000€ Graka besser sein wird als eine 540€:freak:

Tarkin
2011-03-24, 19:26:27
http://www.sweclockers.com/nyhet/13710-geforce-gtx-590-brinner-i-sweclockers-testlabb-drivrutin-boven-i-dramat

etwa bei 0:15 wirs interessant

tja, was soll man dazu noch sagen. Qualität Made by nvidia :eek: :freak:

nagus
2011-03-24, 19:28:44
http://www.sweclockers.com/nyhet/13710-geforce-gtx-590-brinner-i-sweclockers-testlabb-drivrutin-boven-i-dramat

Kein Kommentar :eek::freak:

sehe ich das richtig, dass da irgendwelche bauteile zerfetzt? spricht wohl für nvidias "superior" grafikkarten. also ich würde mir ja sofort eine kaufen ;D

Nightspider
2011-03-24, 19:29:41
http://www.sweclockers.com/nyhet/13710-geforce-gtx-590-brinner-i-sweclockers-testlabb-drivrutin-boven-i-dramat

Kein Kommentar :eek::freak:

Was steht denn da? Ich glaub hier kann keiner Usbekistanisch.... ;)

0:15? Ich seh kein Video. Richtiger Link?

Peter Gräber
2011-03-24, 19:39:00
Wie kommt es eigentlich, dass die HD6990 im CB-Test teilweise extreme Framedrops hat(COD, Mafia und Stalker )? Auch bei anderen Test der Fall ? Peter ? Raff?
Außerdem scheint Nvidia für Stalker noch keine ordentlichen Profile anzubieten.

Das müsstest du bitte mal spezifizieren. Ich habe mir die Benchmarks auf CB nicht näher angesehen und weiß aktuell nicht genau was du meinst.

Welches Problem NVIDIA genau bei Stalker hat, das weiß ich nicht. Wenn man Stalker CoP unter höchsten Details im DX10 Modus mit AA betreibt, brechen die Framerraten extrem ein. Auf jeden Fall ist Stalker lange genug am Markt, so dass NVIDIA ausreichend Zeit gehabt hätte, dort Profile anzupassen. Und wenn ihnen das möglich gewesen wäre, hätten sie es mit Sicherheit getan.

http://www.sweclockers.com/nyhet/13710-geforce-gtx-590-brinner-i-sweclockers-testlabb-drivrutin-boven-i-dramat

etwa bei 0:15 wirs interessant

tja, was soll man dazu noch sagen. Qualität Made by nvidia :eek: :freak:

Also ich konnte nicht nachvollziehen was genau die dort getan haben, als das passierte. Wizzard von Techpowerup hat ebenfalls eine Karte geschrottet und zwar bei 1,2 Volt Spannungszugabe.

Was die Umsetzung der GTX 590 betrifft, so kann ich sagen, dass dies mit eines der hochwertigsten PCBs (inklusive Bauteilwahl) ist, welches mir bei all den Grafikkarten unter die Finger gekommen ist. Aber es ist halt schon in dieser Umsetzung und mit diesen Taktraten für 375 Watt in der Praxis konfrontiert. Wenn man dann noch richtig "nett" übertaktet und dazu noch die Spannungen hochschraubt, stellt sich eben die Frage, was genau alles schief gehen kann.

Spasstiger
2011-03-24, 19:39:49
sehe ich das richtig, dass da irgendwelche bauteile zerfetzt? spricht wohl für nvidias "superior" grafikkarten. also ich würde mir ja sofort eine kaufen ;D
Overclocking + Treiberbug (kein Throtteling bei Überhitzung).

Wer hätte gedacht, dass eine 1000€ Graka besser sein wird als eine 540€:freak:
Ich hab da jetzt nicht an den Preis gedacht, sondern nur an die Machbarkeit. Die HD 6990 läuft ja schon mit umgelegten AUSUM-Switch fast am Limit, was die GPUs hergeben. Die GF110 auf der GTX 590 haben noch Reserven. Außerdem könnte NV dank dem 384-Bit-SI mehr Speicher verbauen als AMD.

Tarkin
2011-03-24, 19:44:16
Was steht denn da? Ich glaub hier kann keiner Usbekistanisch.... ;)

0:15? Ich seh kein Video. Richtiger Link?

http://www.youtube.com/watch?v=sRo-1VFMcbc

"oh fuck" LMAO!!

Blaire
2011-03-24, 19:45:15
Welches Problem NVIDIA genau bei Stalker hat, das weiß ich nicht. Wenn man Stalker CoP unter höchsten Details im DX10 Modus mit AA betreibt, brechen die Framerraten extrem ein. Auf jeden Fall ist Stalker lange genug am Markt, so dass NVIDIA ausreichend Zeit gehabt hätte, dort Profile anzupassen. Und wenn ihnen das möglich gewesen wäre, hätten sie es mit Sicherheit getan.

Das SLI Profil skaliert nicht gut genug, kann ich bestätigen, ebenso wie bei Gothic Arcania auch. Nvidia wird das nicht weiter stören, was mich auch wundert, warum Nvidia Ambient Occlusion in recht vielen Games (Profile!) per Treiberdefault aktiviert hat, obwohl es auch ganz schön Leistung kosten kann.

fondness
2011-03-24, 19:57:12
Also ich konnte nicht nachvollziehen was genau die dort getan haben, als das passierte. Wizzard von Techpowerup hat ebenfalls eine Karte geschrottet und zwar bei 1,2 Volt Spannungszugabe.


Normalerweise sollte eine Karte die zu heiß wird oder zu viel Strom zieht jedenfalls Throtteln, und nicht Grafikfehler erzeugen wie bei PCGH oder gar abfackeln wie bei dem Video.

gedi
2011-03-24, 20:08:36
Das müsstest du bitte mal spezifizieren. Ich habe mir die Benchmarks auf CB nicht näher angesehen und weiß aktuell nicht genau was du meinst.

Welches Problem NVIDIA genau bei Stalker hat, das weiß ich nicht. Wenn man Stalker CoP unter höchsten Details im DX10 Modus mit AA betreibt, brechen die Framerraten extrem ein. Auf jeden Fall ist Stalker lange genug am Markt, so dass NVIDIA ausreichend Zeit gehabt hätte, dort Profile anzupassen. Und wenn ihnen das möglich gewesen wäre, hätten sie es mit Sicherheit getan.



Also ich konnte nicht nachvollziehen was genau die dort getan haben, als das passierte. Wizzard von Techpowerup hat ebenfalls eine Karte geschrottet und zwar bei 1,2 Volt Spannungszugabe.

Was die Umsetzung der GTX 590 betrifft, so kann ich sagen, dass dies mit eines der hochwertigsten PCBs (inklusive Bauteilwahl) ist, welches mir bei all den Grafikkarten unter die Finger gekommen ist. Aber es ist halt schon in dieser Umsetzung und mit diesen Taktraten für 375 Watt in der Praxis konfrontiert. Wenn man dann noch richtig "nett" übertaktet und dazu noch die Spannungen hochschraubt, stellt sich eben die Frage, was genau alles schief gehen kann.

Stalker ist ein Spezialfall mit dem beide Distributoren zu kämpfen haben. Hier wie da mikroruckelt es trotz ausreichend hoher FPS.

boxleitnerb
2011-03-24, 21:05:32
Btw, schon gesehen?

http://www.abload.de/img/iqslidem77h.jpg (http://www.abload.de/image.php?img=iqslidem77h.jpg)

Wobei ich mit "support" vorsichtig wäre. SSAA kann man ja nichtmal offiziell im Treiber aktivieren, egal welches. Aber immerhin bewerben sie die Pluspunkte mal etwas. Je mehr Leute um die tolle Bildqualität wissen, desto besser für alle. Vielleicht zieht AMD dann ja nach.

airbag
2011-03-24, 21:15:56
Das müsstest du bitte mal spezifizieren. Ich habe mir die Benchmarks auf CB nicht näher angesehen und weiß aktuell nicht genau was du meinst.



Die Aussage war auf die CB-Frameverläufe bezogen. In manchen Verläufen zeigt sich nämlich, dass die HD6990 zwischenzeitlich manchmal sehr stark einbricht oder keine stabilen Frameraten halten kann.
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/7/#abschnitt_frameverlaeufe

Knuddelbearli
2011-03-24, 21:17:29
Ich bin mal gespannt, ob Asus eine Mars II auf Basis der GTX 590 ankündigt. 2*3 GiB VRAM und GTX-580-Taktraten, schon würde jede Radeon HD 6990 OC in Sachen Performance alt aussehen.
Kann man ja dann auf 525 Watt TDP (3*8-Pin) spezifizieren. :freak:

525 werden da nicht ansatzweise reichen

Userxy
2011-03-24, 21:20:12
Wenn man die Kommentare zum Tubenvideo liest, wurde manchen Testern wohl ein Treiber mitgeliefert, der kein Thermalthrottling implementiert hat. Das würde auch die Unterschiede bei den Verbrauchs und Lautstärkemessungen erklären, die man in den Tests findet. Die Schweden hatten halt den falschen Treiber installiert, der laut Kommentar noch nicht mal für die Karte zugelassen war. Sie schreiben noch nicht mal was sie überhaupt eingestellt hatten als die Bauteile abrauchten.

Blaire
2011-03-24, 21:20:52
Wobei ich mit "support" vorsichtig wäre. SSAA kann man ja nichtmal offiziell im Treiber aktivieren, egal welches. Aber immerhin bewerben sie die Pluspunkte mal etwas. Je mehr Leute um die tolle Bildqualität wissen, desto besser für alle. Vielleicht zieht AMD dann ja nach.

Im Treiber nicht, aber offiziell per Tool. Bislang hielten sie sich ja deswegen immer recht bedeckt, nun scheint es bei NV angekommen das es Leute gibt, denen es doch ganz wichig mit der Bildqualität ist.

boxleitnerb
2011-03-24, 21:32:20
Im Treiber nicht, aber offiziell per Tool. Bislang hielten sie sich ja deswegen immer recht bedeckt, nun scheint es bei NV angekommen das es Leute gibt, denen es doch ganz wichig mit der Bildqualität ist.

Ach, das Tool. Hab ich seit dem Inspector schon völlig vergessen, da viel zu umständlich weil nicht profilabhängig :biggrin:

gedi
2011-03-24, 22:21:22
Im Treiber nicht, aber offiziell per Tool. Bislang hielten sie sich ja deswegen immer recht bedeckt, nun scheint es bei NV angekommen das es Leute gibt, denen es doch ganz wichig mit der Bildqualität ist.

...oder aber muss NV die vorhandenen Stärken explizit erwähnen - denn rein von der Performance reichts diesmal nur zu Platz 2.

Knuddelbearli
2011-03-24, 22:21:37
wie kann das eigentlich sein das bei PCGH die 590 deutlich leiser ist obwohl sie näher dran messen als ht4u so eine streunung kann doch gar nicht sein

das benutzte spiel kanns auch nicht sein da die 6990 hingegen bei pcgh viel lauter ist als bei ht4u

Blaire
2011-03-24, 22:49:17
...oder aber muss NV die vorhandenen Stärken explizit erwähnen - denn rein von der Performance reichts diesmal nur zu Platz 2.

Marketing halt...ist bei AMD genauso
Und wer nur auf lange Balken starrt, der macht ohnehin etwas falsch. :wink:

Schaffe89
2011-03-24, 23:08:32
Wie kommt es eigentlich, dass die HD6990 im CB-Test teilweise extreme Framedrops hat(COD, Mafia und Stalker )? Auch bei anderen Test der Fall ? Peter ? Raff?
Außerdem scheint Nvidia für Stalker noch keine ordentlichen Profile anzubieten.

http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/7/#abschnitt_frameverlaeufe

Wo siehst du das konkret?
Ich sehe da eigentlich keine relevanten Einbrüche, die darauf hinweisen dass dies "extreme" Framedrops seien.
Battlefield BAd Company, ne kleine Spitze nach unten..hm.. nicht wirklich, würd ich behaupten.
Okay, Stalker, aber da scheinen Dual GPu´s generell nicht gut zu laufen. Nvidia skaliert da sehr schwach.

Aber immerhin bewerben sie die Pluspunkte mal etwas. Je mehr Leute um die tolle Bildqualität wissen, desto besser für alle. Vielleicht zieht AMD dann ja nach.

Pluspunkte welche Nvidia nicht offiziell im Treiber anbietet.
Zudem gibt es leider immernoch keine automatische vernünftige LOD-Anpassung unter directx9 und unter directx10/11 gar nüsch.
Fraglich, warum dann dieses Feature als Pluspunkt unter directx10/11 genannt wird.

wie kann das eigentlich sein das bei PCGH die 590 deutlich leiser ist obwohl sie näher dran messen als ht4u so eine streunung kann doch gar nicht sein


DAs ist seit ca 2 Jahren mit kleineren Ausnahmen durchweg der Fall, so wie ich mich erinnere.
Eventuell bemüht sich Nvidia, sehr gute Samples an PCGH zu schicken, ist ja schließlich auch eine Print Zeitung, an falschen Messmethoden liegts sicher nicht.

Hugo78
2011-03-25, 00:03:27
Pluspunkte welche Nvidia nicht offiziell im Treiber anbietet.
Zudem gibt es leider immernoch keine automatische vernünftige LOD-Anpassung unter directx9 und unter directx10/11 gar nüsch.

Wenn ich nicht völlig falsch liege, geht schon seit paar Monaten die LOD Anpassung auch unter DX10/11, manuel per NV Inspector.
Und per Profile ist ne Autofunktion auch nicht so dringend notwendig.

Spasstiger
2011-03-25, 00:09:45
525 werden da nicht ansatzweise reichen
Das wäre mehr als 2*GTX 580 (je 250 Watt TDP). Warum sollte das nicht reichen?

Knuddelbearli
2011-03-25, 00:15:21
weill ich von echter tdp ausgehe und es ja auch mehr speicher dazu kommt und der BLX Xhip zieht angeblich auch nicht grade wenig

Spasstiger
2011-03-25, 00:34:23
Die GTX 590 hat auch nur zwei 8-Pin-Anschlüsse (=> 375 Watt) bei fast 450 Watt Verbrauch im Extremfall. Ergo sollten drei 8-Pin-Anschlüsse für eine Asus Mars II (GTX 580 im Doppelpack) reichen.

EVGA verkauft zwei wassergekühlte GTX 590 im Bundle: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/maerz/evga-zwei-wassergekuehlte-gtx-590-fuer-1.730-us-dollar/. Dumm nur, dass die aktuellen Treiber kein Quad-SLI mit der GTX 590 unterstützen.

Cpl. Dwayne Hicks
2011-03-25, 00:46:29
Find ich ja mal krass dass nVidia diesmal nicht die absolute Performance Krone unter den single cards hat.

OBrian
2011-03-25, 04:14:53
Find ich ja mal krass dass nVidia diesmal nicht die absolute Performance Krone unter den single cards hat. Eben, gerade bei solchen Karten, die sowieso nur reine PR-Stunts in winzigen Stückzahlen sind, kann es kaum mit Ausbeuteproblemen oder "wir wollten eine benutzbare Karte bauen" begründet werden. Der Grund muß sein, daß sich Nvidia verkalkuliert hat und nicht geglaubt hat, das AMD so eine extreme Überkarte bastelt und damit jede TDP-Grenze sprengt. Hätten sie das geahnt, hätten sie ja die Chips deutlich höher getaktet, der Platine drei oder vier 8-polige Anschlüsse verpaßt und dann eine entsprechend stärkere Kühlung verbaut mit ebenfalls ohrenbetäubenden 70dB oder gleich serienmäßiger Wasserkühlung.

Wenn also AMD als knapper Sieger dieses High-End-Duells ausgerufen wird, dann liegt der Grund nicht in der Ingenieurskunst (die ist sicherlich vorhanden, aber auf beiden Seiten), sondern im firmeninternen "Geheimdienst", der alle Spitzel mundtot macht und stattdessen genug Falschinfos verbreitet, damit der Gegner sich verkalkuliert. Daß sie knapp gewonnen haben, zeigt übrigens auch, daß AMD über Nvidias Entwicklung genug wußte, um nicht unnötig viel zu basteln, sondern gerade genug.

Hugo78
2011-03-25, 06:55:59
@OBrian

Ich will dir ja nicht deine "Geheimdientst" Theorie kaputt machen, aber hätte Nvidia nicht paar SLI Profile verkackt,
dann wären sie in allen 3 relevanten Auflösungen und Qualitätseinstellungen, mindestens bei +/-0 gelandet.


http://i282.photobucket.com/albums/kk272/hugo78_2008/004.jpg

C.D.B.
2011-03-25, 07:20:59
:eek: OMG! Welcher "Redakteur" testet denn da High-End-Boliden mit 1680x1050? :freak: ;D

boxleitnerb
2011-03-25, 07:50:25
Pluspunkte welche Nvidia nicht offiziell im Treiber anbietet.
Zudem gibt es leider immernoch keine automatische vernünftige LOD-Anpassung unter directx9 und unter directx10/11 gar nüsch.
Fraglich, warum dann dieses Feature als Pluspunkt unter directx10/11 genannt wird.

Warum überrascht es mich nicht, dass du wieder meckerst? :rolleyes:

Wir haben doch schon längst geklärt, dass:

- Nvidia es offiziell über ein Tool anbietet wie Blaire richtig sagt
- Enthusiasten, die sich Karten mit genug Performance dafür kaufen, sowieso den Inspector genutzen
- LOD-Anpassung unter DX9 möglich ist (mir ist es sogar lieber, selbst über den Grad der Anpassung zu bestimmen, wenn es mit vorgegeben Werten Probleme gerade bei älteren Spielen geben sollte oder man das Bild doch lieber schärfer/weicher hätte)
- AMD unter DX10/11 überhaupt kein SSAA kann und dort munter vor sich herflimmert

Der DAU, der nicht checkt, dass es solche genialen Zusatztools gibt, der nicht fähig oder willig ist, selbst mal Hand anzulegen, um das Beste herauszuholen und dem die Bildqualität eher egal ist, greift halt zu AMD. Im Westen also nichts Neues :tongue:

Reaping_Ant
2011-03-25, 09:00:41
Gibt es eigentlich außer bei Coputerbase noch irgendwo SSAA-Tests der Karte? Gerade hierfür wäre die Karte interessant; der GTX 480 geht dann doch manchmal die Puste aus.
Ist schon bekannt, ob man den Lüfter im Idle noch drosseln kann, oder ob man dazu erst wieder am BIOS schrauben muss? Die Temperaturen würden eine geringere Drehzahl ja durchaus zulassen. Gerade dieser Punkt könnte für mich letztlich kaufentscheident sein, denn so wie sie ist, wäre mir die Karte im Idle viel zu laut.
Eigentlich habe ich mich bisher noch jedes Mal selbst dafür verflucht mir eine MultiGPU Lösung gekauft zu haben, allerdings würden mich die ~70% Mehrleistung zur GTX 480 in hohen Einstellungen durchaus reizen, zumal dann endlich mal wirklich alles in 2560x1600 mit 4xAA laufen sollte. Und irgendwie wäre die Welt ja langweilig, wenn man immer aus seinen Fehlern lernen würde...

Knuddelbearli
2011-03-25, 09:13:05
Eben, gerade bei solchen Karten, die sowieso nur reine PR-Stunts in winzigen Stückzahlen sind, kann es kaum mit Ausbeuteproblemen oder "wir wollten eine benutzbare Karte bauen" begründet werden. Der Grund muß sein, daß sich Nvidia verkalkuliert hat und nicht geglaubt hat, das AMD so eine extreme Überkarte bastelt und damit jede TDP-Grenze sprengt. Hätten sie das geahnt, hätten sie ja die Chips deutlich höher getaktet, der Platine drei oder vier 8-polige Anschlüsse verpaßt und dann eine entsprechend stärkere Kühlung verbaut mit ebenfalls ohrenbetäubenden 70dB oder gleich serienmäßiger Wasserkühlung.

Wenn also AMD als knapper Sieger dieses High-End-Duells ausgerufen wird, dann liegt der Grund nicht in der Ingenieurskunst (die ist sicherlich vorhanden, aber auf beiden Seiten), sondern im firmeninternen "Geheimdienst", der alle Spitzel mundtot macht und stattdessen genug Falschinfos verbreitet, damit der Gegner sich verkalkuliert. Daß sie knapp gewonnen haben, zeigt übrigens auch, daß AMD über Nvidias Entwicklung genug wußte, um nicht unnötig viel zu basteln, sondern gerade genug.


ähm WTF ? wenn hier jemand dei TDP Werte sprengt dann ist das doch NV mit deutlich über 400W im maximalfall

N0Thing
2011-03-25, 09:16:08
Die Schweden hatten halt den falschen Treiber installiert, der laut Kommentar noch nicht mal für die Karte zugelassen war. Sie schreiben noch nicht mal was sie überhaupt eingestellt hatten als die Bauteile abrauchten.

Doch, aber scheinbar nur in der Beschreibung des Youtube-Videos (http://www.youtube.com/watch?v=sRo-1VFMcbc&hd=1):


Settings used during card failure:
GPU Clock @ 772 MHz
GPU VCore @ 1,025 V

fondness
2011-03-25, 09:18:05
@OBrian

Ich will dir ja nicht deine "Geheimdientst" Theorie kaputt machen, aber hätte Nvidia nicht paar SLI Profile verkackt,
dann wären sie in allen 3 relevanten Auflösungen und Qualitätseinstellungen, mindestens bei +/-0 gelandet.


http://i282.photobucket.com/albums/kk272/hugo78_2008/004.jpg

Merkst du eigentlich selbst nicht auch das diese Erklärung zu nichts führt? Denn auch die Radeon skaliert bei vielen Spielen ebenso mies. Insgesamt skaliert die Radeon bei ComputerBase sogar minimal schlechter. Das sind eben Probleme dieser Multi-GPU-Technik, kein Hersteller schafft es wirklich bei jedem Spiel in jedem Szenario optimal zu skalieren.

Der Punkt ist aber, dass ein Cayman mit 830Mhz eben schneller ist und weniger Strom schluckt als ein GF100 mit 600Mhz. Das kann man ja auch sehr einfach aus den Singel-Karten herleiten. Und daran kann sich - da beide die selbe Multi-GPU-Technik verwenden - nur etwas zugunsten von NV ändern wenn man eine für sie günstige Spieleauswahl trifft.

Peter Gräber
2011-03-25, 09:44:32
Die Aussage war auf die CB-Frameverläufe bezogen. In manchen Verläufen zeigt sich nämlich, dass die HD6990 zwischenzeitlich manchmal sehr stark einbricht oder keine stabilen Frameraten halten kann.
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/7/#abschnitt_frameverlaeufe

Uh, da ich unter einer Rot-Grün-Schwäche leidet, versagt mein Auge zuerst einmal beim Unterscheiden von AMD und NVIDIA in diesen Verläufen :D. Ich kann da jetzt nicht unbedingt Extreme in den Diagrammen erkennen. Darüber hinaus ist es auch sehr stark abhängig, welche 25 Sekunden man wo im Benchmark nimmt. Wir durften bei unseren sporadischen Messungen dieser Art erkennen, dass man unter Umständen in einer späteren Szene in einem Benchmark ein konträres Bild zeichnet oder vielleicht sogar kaum Einbrüche bei CF-/SLI-Gespannen verzeichnen muss. Ist und bleibt ein schwieriges Thema und damit auch schwer zu diskutieren.

Wenn man die Kommentare zum Tubenvideo liest, wurde manchen Testern wohl ein Treiber mitgeliefert, der kein Thermalthrottling implementiert hat. Das würde auch die Unterschiede bei den Verbrauchs und Lautstärkemessungen erklären, die man in den Tests findet. Die Schweden hatten halt den falschen Treiber installiert, der laut Kommentar noch nicht mal für die Karte zugelassen war. Sie schreiben noch nicht mal was sie überhaupt eingestellt hatten als die Bauteile abrauchten.

Das kann ich jetzt so nicht "unterschreiben". Dieser 267.52 sollte meines Wissens sogar zur WHQL-zertifizierung. Er fand sich beispielsweise auf der ASUS CD und da mein Muster schon vier Tage vor dem NVIDIA-Beta-Treiber vorlag, habe ich natürlich erste Gehversuche mit dem CD-Treiber vorgenommen. Ich kann betonen, dass NVIDIAs Schutzmechanismus auch dort bereits "Powerviren" sofort erkannte und drosselte. Ich war mit keinem Tool in der Lage die Karte in bedenkliche Temperaturbereiche zu bringen - weder mit dem einen, noch mit dem anderen Treiber. Allerdings haben wir, in Anbetracht der Tatsache, dass wir schon beim Übertakten in Spielen die 375 Watt locker reißen konnten, auch kein Interesse daran gehabt die Spannungen hochzuschrauben.

wie kann das eigentlich sein das bei PCGH die 590 deutlich leiser ist obwohl sie näher dran messen als ht4u so eine streunung kann doch gar nicht sein

das benutzte spiel kanns auch nicht sein da die 6990 hingegen bei pcgh viel lauter ist als bei ht4u

Andere Anlage, anderes Last-Szenario, anderes Messverfahren und anderes Muster.

y33H@
2011-03-25, 10:11:21
Gibt es eigentlich außer bei Coputerbase noch irgendwo SSAA-Tests der Karte?Jupp, PCGH (http://www.pcgameshardware.de/aid,817166/Geforce-GTX-590-im-Test-Triumphiert-der-doppelte-Fermi-ueber-die-Radeon-HD-6990/Grafikkarte/Test/?page=5).

airbag
2011-03-25, 10:48:38
Uh, da ich unter einer Rot-Grün-Schwäche leidet, versagt mein Auge zuerst einmal beim Unterscheiden von AMD und NVIDIA in diesen Verläufen :D. Ich kann da jetzt nicht unbedingt Extreme in den Diagrammen erkennen. Darüber hinaus ist es auch sehr stark abhängig, welche 25 Sekunden man wo im Benchmark nimmt. Wir durften bei unseren sporadischen Messungen dieser Art erkennen, dass man unter Umständen in einer späteren Szene in einem Benchmark ein konträres Bild zeichnet oder vielleicht sogar kaum Einbrüche bei CF-/SLI-Gespannen verzeichnen muss. Ist und bleibt ein schwieriges Thema und damit auch schwer zu diskutieren.
.

Auf die Namen unter den Framediagrammen klicken. Dann erscheint eine Gerade, die dir die genauen Frames anzeigt':)
Aber das was ich meine zählt wahrscheinlich eher unter Messtoleranz.

aylano
2011-03-25, 11:19:15
@OBrian

Ich will dir ja nicht deine "Geheimdientst" Theorie kaputt machen, aber hätte Nvidia nicht paar SLI Profile verkackt,
dann wären sie in allen 3 relevanten Auflösungen und Qualitätseinstellungen, mindestens bei +/-0 gelandet.

Seit wann sind 8xAA (& 16xAF) die relevanten Qualitätseinstellungen?

Warum nicht schon damals, als laut CB die HD 4870 laut deinen relevanten Auflösungen & Qualitätseinstellungen schneller als GTX280 war?

Hugo78
2011-03-25, 11:23:53
Merkst du eigentlich selbst nicht auch das diese Erklärung zu nichts führt? Denn auch die Radeon skaliert bei vielen Spielen ebenso mies.

Ich zeig OBrian auf, dass seine Theorie von der "Gehiemdienst Allwissenheit" nicht zutrifft.
Beide Fimen bauen ihre Karten nach dem was machbar und/oder der besste Kompromiss für das jeweilige Marktsegment ist.


Der Punkt ist aber, dass ein Cayman mit 830Mhz eben schneller ist und weniger Strom schluckt als ein GF100 mit 600Mhz. Das kann man ja auch sehr einfach aus den Singel-Karten herleiten. Und daran kann sich - da beide die selbe Multi-GPU-Technik verwenden - nur etwas zugunsten von NV ändern wenn man eine für sie günstige Spieleauswahl trifft.

Was hat jetzt der Verbrauch schon wieder mit dem Speed zutun?
Aber ich hab dazu schon meine Ansicht hier geschrieben.

Die GTX 590 ist mal schneller, mal langsamer.
Aber selbst in 2560x1600 8xAA/16xAF laut CB Ranking, keine 3% insgesamt.
In 1920x1200 8xAA/16xAF liegt sie gar 4% vor der HD 6990.
Und hätte NV nicht paar SLI Profile verkackt ... na ja, c´est la vie.

Deutlich leiser unter Last, wenn gleich die Idlelautheit enttäuscht, grad mit Blick auf die Temps.

Na und der Mehrverbrauch, bewegt sich zwischen 15-30W im Vergleich zur Radeon,
was aber bei einer realistischen Rechnung (8h idle, 4h zocken, 5Tage / Woche, 24cent/kWh), grad mal ~60kWh oder 15€ aufs Jahr sind.
Geschenkt bei Kartenpreisen > 500€.

Wäre die Idlelautheit bei ~ einem Sone, und nicht zwei, wäre die GTX 590 sogar ne runde Karte.
Zumindest im Vergleich zur 6990, denn ich bin nicht scharf auf einen Hörsturz.

Schaffe89
2011-03-25, 15:49:17
LOD-Anpassung unter DX9 möglich ist (mir ist es sogar lieber, selbst über den Grad der Anpassung zu bestimmen, wenn es mit vorgegeben Werten Probleme gerade bei älteren Spielen geben sollte oder man das Bild doch lieber schärfer/weicher hätte)
- AMD unter DX10/11 überhaupt kein SSAA kann und dort munter vor sich herflimmert

Was heißt meckern?
Das SSAA ist unter directx10/11 von Nvidia teilweise unbrauchbar, weil keine LOD Verschiebung möglich ist.
Das wird bei den Vorteilen und Nachteilen nicht mit erwähnt, was imho wichtig ist, denn daher schwindet der Vorteil der BQ, vor allem unter 10/11.

der nicht fähig oder willig ist, selbst mal Hand anzulegen, um das Beste herauszuholen und dem die Bildqualität eher egal ist, greift halt zu AMD.

Für ne kontroverse Aussage, warst du dir nicht zu schade.^^

Hugo78
2011-03-25, 16:37:07
Seit wann sind 8xAA (& 16xAF) die relevanten Qualitätseinstellungen?

Wir reden hier von >500€ Karten.


Warum nicht schon damals, als laut CB die HD 4870 laut deinen relevanten Auflösungen & Qualitätseinstellungen schneller als GTX280 war?

Wann hab ich was zur 4870 geschrieben?.. :confused:

Blaire
2011-03-25, 18:52:04
Was heißt meckern?
Das SSAA ist unter directx10/11 von Nvidia teilweise unbrauchbar, weil keine LOD Verschiebung möglich ist.
Das wird bei den Vorteilen und Nachteilen nicht mit erwähnt, was imho wichtig ist, denn daher schwindet der Vorteil der BQ, vor allem unter 10/11.

Hat AMD erwähnt das MLAA oft zu Matsch führt? Also manchmal...:freak:

boxleitnerb
2011-03-25, 18:58:40
Was heißt meckern?
Das SSAA ist unter directx10/11 von Nvidia teilweise unbrauchbar, weil keine LOD Verschiebung möglich ist.
Das wird bei den Vorteilen und Nachteilen nicht mit erwähnt, was imho wichtig ist, denn daher schwindet der Vorteil der BQ, vor allem unter 10/11.


Soweit ich weiß, bekommt man durch die LOD-Anpassung "nur" besseres AF (16x hat man ja immer noch, nur nicht bis zu 64x) und ein leicht schärferes Bild. Der imo wichtigste Vorteil von SSAA (Glättung, Bildruhe) bleibt bestehen. Zumindest ich persönlich finde ein glattes leicht unscharfes Bild immer besser als eine gestochen scharfe Flimmerorgie, wie sie so manche Spiele heute leider auf den Bildschirm zaubern, auch mit MSAA.


Für ne kontroverse Aussage, warst du dir nicht zu schade.^^

Kontrovers hin oder her, sie stimmt ;)

Schaffe89
2011-03-25, 23:31:29
Hat AMD erwähnt das MLAA oft zu Matsch führt? Also manchmal...

Ich rede nicht von MLAA. Und MLAA ist nur ne Notlösung und nicht mit SSAA zu vergleichen.
Zudem geht es mir nicht darum dass Nvidia zugibt es würde das Bild unschärfer aussehen lassen, sondenr darum, dass es in reviews eventuell angemerkt wird. :)

Zumindest ich persönlich finde ein glattes leicht unscharfes Bild immer besser als eine gestochen scharfe Flimmerorgie, wie sie so manche Spiele heute leider auf den Bildschirm zaubern, auch mit MSAA.

Da stimme ich völlig zu.

Soweit ich weiß, bekommt man durch die LOD-Anpassung "nur" besseres AF (16x hat man ja immer noch, nur nicht bis zu 64x) und ein leicht schärferes Bild. Der imo wichtigste Vorteil von SSAA (Glättung, Bildruhe) bleibt bestehen.

Ohne LOD anpassung wirkt laut den PCGH Screenshots teils gar kein AF mehr und die nähere Umgebung ist mit unscharfen und verschwommenen Bodentexturen versehen.
Ich weiß nicht was da das geringere Übel ist.
Mir persönlich ist mehr schärfe + bissle Flimmern lieber als schlechteres AF und unschärfe, zumindest in einem bestimmtem Maß.

Kontrovers hin oder her, sie stimmt

Kaum, denn Pauschalurteil, als wenn man mit AMD keine hohe BQ nutzen könnte :rolleyes:. Die Vorteile sind nach wie vor äußerst geringer Natur. Aber das siehst du anders und ist imho auch berechtigt.:)

Raff
2011-03-25, 23:41:28
(SG)SSAA ohne LOD-Anpassung führt zu Oversampling der Pixel, wodurch hochfrequente Details "weggefiltert" werden. Das kann eine feine Struktur sein, die vom Entwickler flimmrig aber scharf vorgesehen wurde. Bügelt man da mit SGSSAA drüber, ohne das LOD anzupassen, werden diese Elemente kontrastärmer, aber ruhig. Das Sampling des Bildes ist natürlich besser, nur wirkt das subjektiv nicht immer so. Daher: LOD-Anpassung FTW.

MfG,
Raff

Blaire
2011-03-25, 23:53:19
Zudem geht es mir nicht darum dass Nvidia zugibt es würde das Bild unschärfer aussehen lassen, sondenr darum, dass es in reviews eventuell angemerkt wird.

Wozu? Es ist ein Vorteil, ebenso wie frei wählbares TRSSAA was keine LOD Anpassung benötigt. Man könnte genauso gut kritisieren das AMD unter Verwendung von SGSSAA durch negatives LOD zu stärkeren Flimmern neigt und man auch oft nachregeln muss, um ein akzeptables Ergebnis zu bekommen. Und da wo es matscht liegt nicht am LOD, meist beißen sich Postprocessing oder Vollbildeffekte die das verursachen. Ein LOD Regler für DX10/11 wäre trotzdem nicht schlecht, nicht das ich falsch verstanden werde. Man müsste sovieles kritisieren, da würde man bzw. die Reviewer garnicht mehr fertig werden.

derguru
2011-03-26, 00:08:58
ab dx10 aufwärts versuche ich es lieber mit ds.sgssaa ohne lod-anpassung kommt bei mir gar nicht mehr als option vor,entweder ds oder doch nur standardzeug.

Blaire
2011-03-26, 00:16:21
ab dx10 aufwärts versuche ich es lieber mit ds.sgssaa ohne lod-anpassung kommt bei mir gar nicht mehr als option vor,entweder ds oder doch nur standardzeug.

Man kann den SGSSAA Grad ja frei bestimmen, oft bietet 8xMSAA+2xSGSSAA einen guten Kompromiss und man kann dies dann noch mit DS kombinieren. Downsampling allein ist mir auch zu wenig, wenn ich da an Gothic Arcania denke, da flimmert es trotz 2x2OGSSAA immer noch recht heftig um bsplw. 3360x2100 zu stemmen, braucht man da schon zwei GTX570/480er.
Bei Games wie Colin Dirt2 DX11 sieht 8xSGSSAA ohne LOD Anpassung immer noch spitzenmäßig aus, ohne das es matscht, es kommt eben drauf an...

derguru
2011-03-26, 00:20:22
echt bei dirt2?da reicht mir sogar msaa aus und in arcania flimmert es natürlich noch aber ds ist bei dem spiel die einzige option.

boxleitnerb
2011-03-26, 07:02:43
Kann man nichtmal Nvidia anhauen, die LOD-Anpassung unter DX10/11 zu ermöglichen? Natürlich nicht direkt im Treiber, sondern über die NVAPI, weil es ja ein Hack wäre.

Duke Nukem
2011-03-29, 20:18:13
Kommt immer toller. Jetzt müssten die Dinger neu gebencht werden mit dem neuen Treiber.
http://www.xtremesystems.org/forums/showpost.php?p=4797238&postcount=254

Reaping_Ant
2011-03-29, 20:52:48
Jetzt müssten die Dinger neu gebencht werden mit dem neuen Treiber.

Gibt es dazu eine seriöse Quelle?

Duke Nukem
2011-03-29, 21:00:07
Gibt schon user dies getestet haben im Luxx muss wohl stimmen.
Da wäre dann ein update der Reviews angebracht.
http://www.hardwareluxx.de/community/16562590-post284.html

Reaping_Ant
2011-03-29, 21:25:09
Im Luxx steht aber nichts davon, dass die Karten throtteln. Lediglich Overvolting per Tool ist nicht mehr möglich. Naja mal abwarten, wenn das wirklich zutreffen sollte wird man da die nächsten Tage bestimmt noch mehr von hören.

Duke Nukem
2011-03-29, 21:49:39
Eben wenns stimmt erfährt man das bald.
Dann gibts für die Reviewer wieder Arbeit.:smile:
edit:
Hier hats einer getested drop down 550 Mhz.
http://hardforum.com/showpost.php?p=1037041026&postcount=349
Darum wohl.
http://www.kitguru.net/components/graphic-cards/jules/updated-gtx590-bios-rushed-out-to-repair-reputation/

Edgecrusher86
2011-03-31, 13:51:28
Bei DAII läuft sie auch teils im P1, also auch mit 0,888V (getestet mit 270.51 Beta), aber idR nur sehr kurz.
VCore hatte ich je 0,913V gesetzt.

Crysis 2 (bis jetzt nur mit 267.91 getestet) lief komplett im P0 @ VIDs durch.
Werde das mal später mit dem neuen 270er testen.


E: Die P0 Overvoltage-Sperre ab 267.91 kann man per Flash aushebeln - allerdings ist noch fraglich wie schnell OCP dann greift - auf jeden Fall ist vorsicht geboten, gerade unter Luft:

http://www.hardwareluxx.de/community/16562685-post286.html


E2: Hier noch ein paar Fotos der Zotac: http://www.abload.de/gallery.php?key=r04DJVUg

Ja, aufgerüstet wird auch...erstmal wohl auf 3D Vision @ BenQ XL, dann wohl auf ein 1155er System mit Z68 - das sollte mit OC dann bis Hashwell reichen. ;)


E3: Hier auch noch ein paar Benches - auch mit einem 1336er System gegen eine GTX 580 (auch mit 1GHz) gebencht:

http://www.hardwareluxx.de/community/16547711-post180.html

MfG
Edge

Duke Nukem
2011-03-31, 14:11:54
@Edgecrusher
Liegt das Problem bei den Karten am Chip? Wohl eher nicht. Oder es wäre Resteverwertug bei der 590. Die 580er gehen vom Takt ja auch viel besser. Oder hat NV an der Spannungsversorgung gespart. Das wäre aber bei so einer Karte bei dem Preis nicht zu verstehen. Die Kühlung scheint ja besser zu sein als bei ner 6990. Aber da gibts ja anscheinend diese Probleme nicht. Wenn man sich die OC Fähigkeit der 6990 so anschaut.

Knuddelbearli
2011-03-31, 15:19:09
kühlung ist nur für den chip besser die Spawa Kühlung ist beinahe katastrophal

Edgecrusher86
2011-04-01, 08:50:35
Nun ja, höher als die 580er Taktraten bin ich unter Luft nicht gegangen - ich denke mal mit einem aquagrafx GTX 590 wird man sicherlich auch die 900er Marke erreichen können -
so hätte eine HD 6990 @ OC in der Regel nichts mehr zu melden.

Stimmt aber, dass mal lieber 2 x die SpaWas der 580er verbauen hätte sollen + besserer Kühlung dort...
NV hätte das PCB ja auch 12 Zoll lang bauen können, wie bei der HD - wäre ja an für sich bei den meisten Käufern solcher Karten kein Problem gewesen (bei mir auch nicht. :)).


Eventuell rüste ich das kommende System dann auch auf Wasser um, mal sehen (auch abhängig davon, wie gut der Rubel dann hier rollt).
Etwas OC würde ich dann testen, aber wohl später "nur" die 580er Taktraten für 24/7 flashen - das reicht. ;)


Btw.: Flashen -> Ich bin gerade Tester des NiBiTor 6.03 (non-public, noch!):
Funktioniert bestens - wie erwartet:

http://www.hardwareluxx.de/community/16577321-post798.html

MfG
Edge