PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pro nVidia - aber warum eigentlich???


Seiten : 1 [2]

Iruwen
2012-09-17, 13:59:16
Und das hatte sicherlich nichts mit Windows 8 zu tun :cool:

TobiWahnKenobi
2012-09-17, 14:08:20
womit sonst..? den installer von win7 wird win8 sicher nicht nutzen... :-)


(..)

mfg
tobi

kruemelmonster
2012-09-17, 14:37:06
Deinstallieren klappt doch problemlos, sicher das du nicht versucht hast den Win8-eigenen Treiber loszuwerden? ;)

Im Härtefall: Gerätemanager, Rechtsklick aufs Gerät, Deinstallieren, Haken bei "Treiber löschen" setzen

Treiberdeinstallation ist generell aber ein schönes Beispiel. Habe schonmal 15min der Deinstallationsroutine von ATI zugeguckt wie jede einzelne Hilfedatei von gefühlt 587 unterstützen Sprachen gelöscht wurde. Schuld daran war letztlich der McAf(f)ee Virenscanner welcher auf "alles scannen" administiert wurde und nicht deaktivierbar war. Nichtsdestotrotz ist bzw war das CCC enorm aufgebläht und in zig einzelne Dateien fragmentiert, da finde ich den kompakten* NV-Treiber wesentlich pflegeleichter.

* nicht auf die gesamte Paketgröße bezogen, da nehmen sich beide nicht viel, und es ist mir auch wurscht.

aufkrawall
2012-09-17, 15:33:27
sieht so aus, aber AMD hat doch ein anderes 8x-muster - oder haben sie das in der neusten generation geändert? das alte war jedenfalls so ein zick-zack-ding.
Das ist doch 8x. :confused:

Arcanoxer
2012-09-17, 15:38:06
Ein Wort: Linux.
dito

Tesseract
2012-09-17, 16:00:23
Das ist doch 8x. :confused:

was meinst du? :confused:

früher hatten nvidia und amd jeweils eine andere 8x-maske, nvidia hatte immer schon das was ihr gepostet habt, amd hatte ein anderes, das auf "geometry only" ein zick-zack-muster ergeben hat. wenn amd inzwischen das selbe wie nvidia hat, haben das irgendwann geändert.

aufkrawall
2012-09-17, 16:20:07
Harry hat ja von AMD gepostet, dann decken die sich mittlerweile.

Langenscheiss
2012-09-17, 17:10:59
Ob sich dadurch eine Änderung ergibt, könnte man leicht erfahren...wenn sich nur endlich ein Tahiti-User erbarmen würde, mal ein paar Screenshots von den "Problemzonen" zu machen. Und falls immer noch das gleiche Problem besteht, wissen wir, dass es nicht an der Verteilung liegen kann.

Blaire
2012-09-17, 18:06:28
Das ist doch 8x. :confused:

Das ist 8xMSAA... 8xSGSSAA wurde auf AMD schon damals nicht mehr korrekt angezeigt.
8xMSAA AMD/NV ist identisch laut AA-Viewer, 8xSGSSAA unterscheiden sie sich.

aufkrawall
2012-09-17, 18:24:15
Ah, das muss man erstmal wissen. :freak:
Wie dämlich ist das denn...
Die Samplemaske sieht bei AMD mit 8xSGSSAA anders aus als bei Nvidia mit 8xSGSSAA?

Blaire
2012-09-17, 18:27:00
Ah, das muss man erstmal wissen. :freak:
Wie dämlich ist das denn...
Die Samplemaske sieht bei AMD mit 8xSGSSAA anders aus als bei Nvidia mit 8xSGSSAA?

Ja da bin ich mir sehr sicher. Mit dem Launchtreiber damals auf der HD5800 ging es noch, danach nie wieder.
So sieht 8xSGSSAA bei NV aus (ohne GK), hab mal das Bild von damals rausgesucht.
NV: http://www.abload.de/img/8xsgpuqg.png
AMD: http://www.abload.de/img/8xsgssaal88c.jpg

aufkrawall
2012-09-17, 18:49:08
Könnte jemand mit SI das nochmal ausprobieren?

Tesseract
2012-09-17, 19:03:05
hier (http://imgur.com/a/xyOrZ), das meine ich mit zick-zack.

aufkrawall
2012-09-17, 19:07:11
Ja, so sieht das bei Blaires Bild (Edit ;) ) auch aus.

Welchen Grund könnte AMD denn haben, bei SGSSAA ein anderes Samplemuster als bei MSAA zu verwenden?

Sir Integral Wingate Hellsing
2012-09-17, 19:38:29
womit sonst..? den installer von win7 wird win8 sicher nicht nutzen... :-)


(..)

mfg
tobi

Nicht das Nvidia Win8 Treiber anbietet. :rolleyes:

http://www.nvidia.de/object/win8-win7-winvista-64bit-306.23-whql-driver-de.html

WHQL sogar - steck(t) also den Flame-Versuch sonstwo hin ;)

Deinstallieren klappt doch problemlos, sicher das du nicht versucht hast den Win8-eigenen Treiber loszuwerden? ;)


Nein, war ein (nachträglich) installierter Windows8-Treiber von der nv-website.

fondness
2012-09-17, 20:48:11
Welchen Grund könnte AMD denn haben, bei SGSSAA ein anderes Samplemuster als bei MSAA zu verwenden?

SSAA glättet auch die Texturen und ein gleichmäßiges Muster erzeugt einen besseren AF-Effekt. Deshalb ist OG-SSAA bei der Texturschärft SG-SSAA auch vorzuziehen.

Allerdings hätte ich für die Aussage von Blaire gerne noch eine Beleg, denn das höre ich zum ersten mal. Ich sehe auch keinen Grund warum der FSAA-Viewer hier falsche Sample-Positionen anzeigen sollte. Vermutlich hat AMD das Muster mit der HD7 einfach geändert.

aufkrawall
2012-09-17, 20:54:24
SSAA glättet auch die Texturen und ein gleichmäßiges Muster erzeugt einen besseren AF-Effekt. Deshalb ist OG-SSAA bei der Texturschärft SG-SSAA auch vorzuziehen.

Ich glaube nicht, dass das wirklich Sinn macht, weil die Texturfilterung eh gut genug ist.
Bei SI könntest du wahrscheinlich das LOD auf -1,5 verschieben, ohne dass die Flimmerneigung wirklich sichtbar zunimmt, und das mit der weniger symmetrischen Sampleverteilung.

Die AMD Hardware ist so geil, aber dann machen die so was...


Allerdings hätte ich für die Aussage von Blaire gerne noch eine Beleg, denn das höre ich zum ersten mal.
Du siehst ja die Bilder von Evergreen.
SI wär allerdings ganz nett...

fondness
2012-09-17, 20:56:59
Du siehst ja die Bilder von Evergreen.
SI wär allerdings ganz nett...

Ich habe SI, das Muster ist dasselbe wie bei HarryHirsch und damit identisch zu NV.
Deshlab habe ich auch geschrieben das AMD das Muster mit SI wohl geändert hat.

Coda
2012-09-17, 20:59:11
Kann sein, dass DirectX 11.1 die Muster standardisiert hat.

aufkrawall
2012-09-17, 21:04:36
Ich habe SI, das Muster ist dasselbe wie bei HarryHirsch und damit identisch zu NV.
Deshlab habe ich auch geschrieben das AMD das Muster mit SI wohl geändert hat.
Ach so.
Könntest du einen Screenshot posten? :)

Tesseract
2012-09-17, 21:21:08
seid ihr da sicher mit dem unterschiedlichen muster je nach MS/SS?

ich wäre eher davon ausgegangen, dass amd in der neusten generation generell das muster von nvidia übernommen hat weil es in den meisten situation wohl einfach die bessere verteilung ist.

SSAA glättet auch die Texturen und ein gleichmäßiges Muster erzeugt einen besseren AF-Effekt. Deshalb ist OG-SSAA bei der Texturschärft SG-SSAA auch vorzuziehen.

nvidias muster sollte auch für texturfilterung besser sein weil die verteilung homogener ist. die regelmäßigkeit von der alten amd-variante sorgt eher nur für schwächen in bestimmten winkeln bzw. größeren löchern in der verteilung.
wobei man dazu sagen muss, dass der unterschied sehr gering sind. im prinzip sind beides gute verteilungen. der unterschied ist da eher ein akademischer als praxisrelevanter.

Blaire
2012-09-17, 21:27:16
Allerdings hätte ich für die Aussage von Blaire gerne noch eine Beleg, denn das höre ich zum ersten mal. Ich sehe auch keinen Grund warum der FSAA-Viewer hier falsche Sample-Positionen anzeigen sollte. Vermutlich hat AMD das Muster mit der HD7 einfach geändert.

Nein haben sie nicht. Bei CF konnte man per Vollbild im FSAA-Viewer das korrekte Muster erkennen, im Fenstermodus wird immer nur 8xMSAA angezeigt.

fondness
2012-09-18, 13:01:51
Ach so.
Könntest du einen Screenshot posten? :)

MSAA:
http://imageshack.us/a/img208/9599/fsaa.png

SSAA:
http://imageshack.us/a/img404/8376/ssaa.png

Nein haben sie nicht. Bei CF konnte man per Vollbild im FSAA-Viewer das korrekte Muster erkennen, im Fenstermodus wird immer nur 8xMSAA angezeigt.

Sorry, aber das ergibt keinen Sinn. Warum sollte man im Vollbildmodus ein anderes AA-Grid wählen?
Sofern du nicht das Gegenteil beweisen kannst sehe keinen Grund warum der FSAA-Viewer hier Blödsinn anzeigen sollte. Der saugt sich das Muster ja nicht aus einer Datenbank.

Blaire
2012-09-18, 18:43:46
Sorry, aber das ergibt keinen Sinn. Warum sollte man im Vollbildmodus ein anderes AA-Grid wählen?

Weil es schon immer so war und immer nur im Vollbild das Supersample-Muster zu sehen gab.
Hier sieht man es schön beim HD5870 Review mit dem Lauchtreiber wurde es noch korrekt angezeigt: http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-5870/5/
Ich hab Screenshots weiter oben gepostet, wenn du es nicht glaubst hast du Pech gehabt. EOD

fondness
2012-09-18, 20:43:45
Weil es schon immer so war und immer nur im Vollbild das Supersample-Muster zu sehen gab.
Hier sieht man es schön beim HD5870 Review mit dem Lauchtreiber wurde es noch korrekt angezeigt: http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-5870/5/
Ich hab Screenshots weiter oben gepostet, wenn du es nicht glaubst hast du Pech gehabt. EOD

Das es bei der 5870 zu beginn noch anders war bestreitet niemand. Auch deine Screenshots weiter oben sind von der 5870. Einfach irgendwas zu behaupten ohne den geringsten Beweis ist halt etwas dürftig. Besonders wenn diese Aussage wenig Sinn macht. Warum sollte der FSAA-Viewer bei der HD7-Serie einen falsches Grid anzeigen? Da ist es doch viel wahrscheinlicher das der Grid einfach geändert wurde. Bei mir ist jedenfalls auch im Vollbildmodus derselbe Grid wie oben zu sehen. Und wie schon gesagt, der FSAA-Viewer holt sich die Subpixelpositionen nicht aus einer Datenbank, sondern er ermittelt sie. Sofern AMD keine App-Erkennung eingebaut hat (warum sollte man das tun?) wird dort genau dasselbe Grid angewandt wie bei jeder anderen Anwendung auch.

AMD kann die Samplepositionen im übrigen bereits seit R300 beliebig programmieren, es braucht also nur einen neuen Treiber um den AA-Grid zu ändern, nicht mal eine neuen Hardware.

Blaire
2012-09-18, 20:54:57
Kann natürlich sein, nur war der Screenshot von Harry nicht mit 8xSGSSAA von einer HD7970? Ansonsten zieh ich meine Aussage natürlich zurück.

fondness
2012-09-19, 12:11:37
Kann natürlich sein, nur war der Screenshot von Harry nicht mit 8xSGSSAA von einer HD7970? Ansonsten zieh ich meine Aussage natürlich zurück.

Hm? Ich kann dir nicht folgen, welcher Screen? Der FSAA-Screen hinten von Harry war 8xMSAA wie man sieht.

HarryHirsch
2012-09-21, 22:55:53
Weil es schon immer so war und immer nur im Vollbild das Supersample-Muster zu sehen gab.
Hier sieht man es schön beim HD5870 Review mit dem Lauchtreiber wurde es noch korrekt angezeigt: http://www.computerbase.de/artikel/grafikkarten/2009/test-ati-radeon-hd-5870/5/
Ich hab Screenshots weiter oben gepostet, wenn du es nicht glaubst hast du Pech gehabt. EOD

du verwechselst 8xmsaa/sgssaa mit 16xmsaa/sgssaa. ;)

AYAlf
2012-09-23, 12:49:15
du verwechselst 8xmsaa/sgssaa mit 16xmsaa/sgssaa. ;)

So werden Gerüchte geboren... und es sind immer die Gleichen. :freak:

Simon Moon
2012-09-23, 13:18:23
Das ist das dumme an AMD (Graphics Dept): sie sind Softwareseitig einfach nicht aggressiv genug. NV denkt sich ständig was neues aus und vermarktet das auch gut. Software ist da die halbe Miete. AMD tut offenbar nur, was absolut nötig ist.
Wenn ich da CEO wäre, würde ich die SW Abteilung deutlich verstärken, um Ähnliches zu leisten.

Natürlich sind AMDs Treiber nicht schlecht und die Features sind auch gut. Aber wer möchte (in der Gesamtheit) schon das Zweitbeste?
Da bin ich persönlich auch bereit ein paar fps zu opfern und die leicht schlechtere HW zu kaufen wenn nötig.

Die AMD Politik konzentriert sich doch wieder verstärkt ins OEM Segment. Im Retail-Markt scheint mir AMD so tot wie seit K6 Zeiten... Und wenn man sich dann die Intel Grafiktreiber anschaut, scheint ein anständiges Treiberpanel in diesem Markt kaum Relevanz haben.

Raff
2012-09-26, 10:34:11
Aktuelle Spiele, bei denen Nvidia deutliche Vorteile gegenüber AMD hat:

- Borderlands 2: Schneller und GPU-PhysX-Effekte (http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-im-Test-mit-20-Grafikkarten-1025812/)

- WoW Mists of Pandaria: Unter DX11 klare Fps-Vorteile (http://www.pcgameshardware.de/World-of-Warcraft-Mists-of-Pandaria-PC-238645/Tests/WoW-Mists-of-Pandaria-Benchmarks-Test-1026549/)

Dem gegenüber steht beispielsweise Sleeping Dogs (http://www.pcgameshardware.de/Sleeping-Dogs-PC-233842/Tests/Sleeping-Dogs-im-DirectX-11-Test-1020709/), das AMD besser liegt.

MfG,
Raff

boxleitnerb
2012-09-26, 11:51:19
Also ich sehe bei Sleeping Dogs Nvidia und AMD gleichauf. Klar, wenn man unspielbare Frameraten will und 4xSSAA reinhaut, zieht die GHz-Edition um 17% davon. Bei den höheren Taktraten und Verbrauch ggü. der normalen Variante auch nicht anders zu erwarten.

(del676)
2012-09-26, 11:54:36
Warum nVidia? Weil mich der ATI Treiber jede Woche neue Moeglichkeit findet mich zu ficken. Jetzt semmelt der Windows Explorer mit der atiumdag64.dll ab, wohl weil ein OSD wie der MSI Afterburner aktiv ist. Aber noch bleibe ich standhaft und lasse die ATIs drin, aber nicht jeder duerfte derart geduldig sein.

dargo
2012-09-26, 12:17:05
Also ich sehe bei Sleeping Dogs Nvidia und AMD gleichauf. Klar, wenn man unspielbare Frameraten will und 4xSSAA reinhaut, zieht die GHz-Edition um 17% davon.
Ich weiß auch nicht wo Nvidia bei Borderlands 2 so überlegen sein soll? :confused: Für mich ist das eher Gleichstand zwischen Tahiti und Kepler. Zudem fehlt mir 2560x1440 @normal in Sleeping Dogs. Extrem @Full-HD haut schon zu stark rein. Die fps finde ich zu niedrig.

boxleitnerb
2012-09-26, 12:36:46
Naja man ist etwas schneller als die GHz-Edition und bringt deutlich höhere min-fps zustande (bei PCGH vertraue ich mal, dass die Werte dort plausibel sind). Das ist schon beachtlich finde ich.

fondness
2012-09-26, 12:52:28
Solche Benchmarkwerte werden nach wie vor viel zu sehr als absolut gültig betrachtet. Da ist eine Karte in einer Szenen eines Spiel um ein paar Prozent schneller und schon hat "Nvidia deutliche Vorteile gegenüber AMD" laut einem Redakteur.

Schon ein anderes Level oder eine andere Szene wenige Sekunden nach der getesteten Stelle kann ausreichen um vollkommen konträre Ergebnisse zu erhalten. Das sollte man bei solchen Aussagen nicht vergssen.

Raff
2012-09-26, 12:57:10
Völlig konträr ist ausgeschlossen, zumal Catalysm ja dasselbe Bild zeigt (das steht in dem viel zu detaillierten Fließtext ;)).

MfG,
Raff

dargo
2012-09-26, 12:57:34
Naja man ist etwas schneller als die GHz-Edition und bringt deutlich höhere min-fps zustande (bei PCGH vertraue ich mal, dass die Werte dort plausibel sind). Das ist schon beachtlich finde ich.
Die min.fps beachte ich hier nicht mal weil sie bei Savegames öfter mal Murks sind. Ich gehe jetzt mal davon aus es wurde ein Savegame genommen. Dafür reicht nur ein Blick auf die min.fps zwischen GTX680/670 in den beiden Auflösungen. Völlig Banane.

Oder liegen die min.fps in Full-HD noch im starken CPU-Limit? Wenn die Anwendung stark vom Quad profitiert ist der NV-Treiber etwas im Vorteil. Dann müssten die min.fps auch bei 2560 noch im starken CPU-Limit liegen denn da gibt es Gleichstand zwischen GTX670 und HD7970 GE. Auf der anderen Seite kanns aber auch nicht daran liegen, dafür sind die min.fps der GTX680 zu hoch. Für mich sind die min.fps nicht plausibel.

Edit:
Auch lustig... in Full-HD trennen Tahiti XT GE und Tahiti Pro 15% bei den avgs. und bei den min.fps sind es 1,5%. :freak:

Raff
2012-09-26, 13:03:25
Die Min-Fps ergeben doch konsequent Sinn (wir reden von Borderlands 2, richtig?). :confused: Die Geforce-Karten produzieren stets höhere Werte und die Min-Fps sind natürlich über mehrere Savegame-Durchläufe "sanity checked" und gemittelt. Die schnellen Karten kleben in Full-HD stark am CPU-Limit. Ich find's immer etwas befremdlich, wenn derartige Benchmarks angezweifelt werden, denn da sitzen wahrlich keine Anfänger. ;)

MfG,
Raff

dargo
2012-09-26, 13:08:48
Die Min-Fps ergeben doch konsequent Sinn (wir reden von Borderlands 2, richtig?). :confused: Die Geforce-Karten produzieren stets höhere Werte und die Min-Fps sind natürlich über mehrere Savegame-Durchläufe "sanity checked" und gemittelt. Ich find's immer etwas befremdlich, wenn derartige Benchmarks angezweifelt werden, denn da sitzen wahrlich keine Anfänger. ;)

MfG,
Raff
Ich sag doch nicht, dass da ein Fehler beim Reviewer automatisch vorliegt. Das kann ich aus der Ferne kaum beurteilen. Wenn aber die GTX680 in Full-HD bei den minfps. vor der GTX670 1% liegt und in 2560 plötzlich 16% vorne ist dann ist da irgendwas nicht in Ordnung. Sowas müsste einem "Nicht-Anfänger" sofort auffallen. ;)

Raff
2012-09-26, 13:10:42
Wenn sich Dinge einwandfrei reproduzieren lassen, werden sie genommen. ;)

MfG,
Raff

V2.0
2012-09-26, 13:42:14
Sehe naber doch arg sinnlos aus. Wenn man das Ergebnis der 680 in 2560 ausbelendet, dann dominiert die 7970 GE das Feld. Ich finde es ist ein Zeichen von der Stärke der AMD karten dass sie in Borderlands vorne liegen, obwohl das ein NV-Spiel ist.

dargo
2012-09-26, 15:35:46
Ich habe mir den Borderlands 2 Benchmark nochmal genauer angeschaut. Was auch sehr merkwürdig ist:

HD7850 @Full-HD:
minfps = 63
avgfps = 84,1 (+33,5%)

HD7970 GE @Full-HD:
minfps = 68
avgfps = 122,5 (+80%)

:confused:

aufkrawall
2012-09-26, 15:40:37
Wieso merkwürdig?
Da kann doch irgendwas bei Pitcairn ähnlich limitieren (etwa Geometrieleistung) wie bei Tahiti.

G 80
2012-09-27, 01:14:51
Richtig Toll finde ich auch wie 3870 und, mehr noch, 4870 von einer niedlichen 8/9800 GT 1G, und wie ich dann aus dem Text und Leistungsverhältnis zu GT schließe, und auch 8800 GTX Dresche beziehen.

Awesome Legacy Treiber mal wieder, der macht wasser soll. ;D - aber hey ne 3870X2 kann mit Hilfe der MR-Teufels persöhnlich vielleicht sogar mit ner 88GTX mithalten. (Wobei wenn ich darüber nachdenke ..... wie muss den erst einLegacy CF Profil aussehen? :ucrazy3: )



An Vram glaube ich nicht (nichtmal bei der 512 mb 3870), liegen doch alle Einbußen aller Karten 1900 auf 2500 im selben Rahmen, außerdem geht die 900 MB 260 auch bei 2500 nicht mehr ein als zb aller anderen.


wobei auch 5850 gegen 460 und 7770 gegen 260 nicht schlecht sind. :eek:

Iruwen
2012-09-27, 10:41:03
Ich sag doch nicht, dass da ein Fehler beim Reviewer automatisch vorliegt. Das kann ich aus der Ferne kaum beurteilen. Wenn aber die GTX680 in Full-HD bei den minfps. vor der GTX670 1% liegt und in 2560 plötzlich 16% vorne ist dann ist da irgendwas nicht in Ordnung. Sowas müsste einem "Nicht-Anfänger" sofort auffallen. ;)

Ich habe mir den Borderlands 2 Benchmark nochmal genauer angeschaut. Was auch sehr merkwürdig ist:

HD7850 @Full-HD:
minfps = 63
avgfps = 84,1 (+33,5%)

HD7970 GE @Full-HD:
minfps = 68
avgfps = 122,5 (+80%)

:confused:

In beiden Fällen limitiert irgendwas die kleinere Karte, was ist daran jetzt so ungewöhnlich?

dargo
2012-09-27, 10:51:26
In beiden Fällen limitiert irgendwas die kleinere Karte, was ist daran jetzt so ungewöhnlich?
Irgendwas ist gut. :tongue:

So langsam werde ich das Gefühl nicht los, dass PhysX bei den min.fps stark limitiert und die Geforces damit besser klar kommen. Kann man das Spiel auch ohne PhysX benchen?

Blutelfchen
2012-09-27, 12:35:02
Mich wundert es ein wenig das in der Umfrage oben überhaupt nicht das immer noch etwas bessere AF der Geforce Karten erwähnt wird während das erwähnte reine Supersampling an sich auf den Radeons eigentlich nicht schlechter ist.

Mr. Lolman
2012-09-27, 12:50:20
Das etwas bessere NV-AF ist nur bei bilinearem Filtering besser. AMDs AF ist dafür bei negativem LOD besser. Insgesamt hält sich das in Waage.

Hübie
2012-09-27, 13:02:37
Ich bezog mich ja auch auf aktuelle Kaufentscheidungen. Da ist es in der Tat egal ob NV-AF oder AMD-AF.
SSAA hob ich heraus, weil man die Filter sowie den Grad einstellen kann und unter Umständen es auf Anwendungen mittels AA-Bits applizieren kann bei denen AMDs Karten nix machen.
Mangels persönlicher Erfahrungen mit GCN und entsprechenden Spielen ist letztere Aussage jedoch nur unter Vorbehalt zu verstehen ;)

Blutelfchen
2012-09-27, 13:08:31
Ah okay, wieder was gelernt. Danke :)

Locutus2002
2012-09-27, 13:41:08
Ich persönlich ziehe nVidia-Karten aus einem ganz bestimmten Grund vor: GPU-Computing. In meinem Arbeitsbereich kommt man um CUDA derzeit nicht herum, OpenCL wird (derzeit noch) von keiner meiner alltäglichen Scientific Computing Software unterstützt und die Zeit, es mir selbst zu basteln habe ich nicht, während es für CUDA bereits eine Menge Pakete gibt. Und da sind wir schon beim nächsten Punkt. Die Mehrheit dieser Pakete läuft nur unter Linux, weshalb gute Linux-Treiber Pflicht sind. Und da ist wieder nVidia deutlich besser.

Privat nehme ich das, was meinen persönlichen Vorlieben gerade am besten entspricht. Die minimalen Unterschiede bei AA/AF sind dabei für mich nicht wirklich ausschlaggebend, da ich diese persönlich nicht wahrnehme. Die Wahl auf meine derzeitige 7970 fiel seinerzeiut wegen des von Haus aus LOD-korrigierten SSAA. Da ich sowieso kaum noch Zeit zum Zocken habe und aktuelle Spiele für mich keinen Reiz mehr besitzen, reicht die Karte sicher noch einige Jahre für meine älteren Perlen.

Raff
2012-09-27, 13:43:13
Nachschlag. ;)

Borderlands 2 im Physx-Test mit 14 Grafikkarten und 7 Prozessoren (http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-Physx-Test-1026921/)

Interessant, dass eine übertaktete Ivy fast spielbare Fps im Worstcase liefert.

MfG,
Raff

Ronny145
2012-09-27, 13:48:49
Das etwas bessere NV-AF ist nur bei bilinearem Filtering besser. AMDs AF ist dafür bei negativem LOD besser. Insgesamt hält sich das in Waage.


Das stimmt nicht. Nvidia filtert etwas ruhiger und schärfer. Beim bilinearen wird es übel.




Interessant, dass eine übertaktete Ivy fast spielbare Fps im Worstcase liefert.

MfG,
Raff


Die aktuelle AMD CPU Gen fehlt leider.

Raff
2012-09-27, 13:49:31
Schau doch erst mal, was vorhanden ist. Die Werte sind spannend genug. :)

MfG,
Raff

Hübie
2012-09-27, 13:52:10
Nachschlag. ;)

Borderlands 2 im Physx-Test mit 14 Grafikkarten und 7 Prozessoren (http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-Physx-Test-1026921/)

Interessant, dass eine übertaktete Ivy fast spielbare Fps im Worstcase liefert.

MfG,
Raff

Das macht es aber auch nicht wirklich wett. Die Effekte sind doch sicher geschrumpft wenn du keine PhysX-Karte aká GeForce drin hast, oder?
Ganz schön krass wie die Radeons (künstlich) kastriert werden. Ist doch echt kacke. Heute musst du echt ne 680 und ne 7970 drin haben, damit du immer das optimum erreichst. :rolleyes:

Wie stehts mit SSAA-Benchmarks?? :smile:

btw: Finde es übrigens immer wieder gut dass ihr stets aktuelle Patches & Treiber benutzt. Muss man ja auch mal hervorheben.

Mr. Lolman
2012-09-27, 13:55:31
Das stimmt nicht. Nvidia filtert etwas ruhiger und schärfer. Beim bilinearen wird es übel.

Wie soll denn das gehen bitteschön? Coda wars, der den AMD-Leuten gezeigt hat, wie ordentliches AF auszusehen hat, indem er ihnen den Algorithmus für nyquistconformes AF zur Verfügung gestellt hat.

Und genau das wird bei HQ-AF mWn. auch angewendet.

Ronny145
2012-09-27, 14:03:58
Wie soll denn das gehen bitteschön?


Ich betrachte screenshots und Videos. Wenn das stärker flimmert und unschärfer aussieht, auch wenn nur geringfügig, dann ist das so. Frag besser AMD wie das aussehen soll. Im übrigen sollte man sich das nochmal anschauen, da AMD seit release dran rumgefummelt hat. HQ hat stärker geflimmert, Q weniger stark bei allerdings weniger Schärfe.


Mit dem Catalyst 12.4 WHQL zeigt sich die bessere Schärfe zusätzlich im Treiberstandard „Quality“, allerdings kehrt das Flimmerproblem gut sichtbar wieder zurück. Zwar ist das Flimmern damit immer noch deutlich besser als auf einer älteren Radeon-HD-6000- und Radeon-HD-5000-Karte, jedoch entfernt man sich wieder von der „Ursprungsqualität“ und damit auch von den Nvidia-Karten.
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-catalyst-12.4-whql/3/#abschnitt_anisotrope_filterung_wurde_geaendert

Tesseract
2012-09-27, 14:25:01
Wie soll denn das gehen bitteschön? Coda wars, der den AMD-Leuten gezeigt hat, wie ordentliches AF auszusehen hat, indem er ihnen den Algorithmus für nyquistconformes AF zur Verfügung gestellt hat.

Und genau das wird bei HQ-AF mWn. auch angewendet.

wird es nicht. codas implementierung unterscheidet sich immer noch von sowohl nvidias als auch amds implementierung und ja, nvidia filtert auf HQ (mit LOD auf 0.0) imho nach wie vor etwas besser. der unterschied liegt zwar in einem bereich der für mich persönlich nicht mehr kaufbeeinflussend wäre aber im filtertester sieht man nach wie vor einen kleinen unterschied.

aufkrawall
2012-09-27, 14:35:11
Wobei allerdings AMD mit LOD-Verschiebung schärfer ist und weniger flimmert.
Meist merkt man jedoch davon bei NV nichts und für alte Spiele kann man auch 32xSSAA ohne LOD-Verschiebung nutzen, da kommt an BQ bei AMD nichts ran.
Das Flimmern durch negativen Textur-LOD wiegt imho längst nicht so schwer wie AMDs dusseliges Hardware-AA.

Tesseract
2012-09-27, 14:39:31
natürlich merkt man das. negatives LOD ist bei nvidia unbrauchbar da schlechter als 0.0.

dargo
2012-09-27, 14:53:55
Nachschlag. ;)

Borderlands 2 im Physx-Test mit 14 Grafikkarten und 7 Prozessoren (http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-Physx-Test-1026921/)

Interessant, dass eine übertaktete Ivy fast spielbare Fps im Worstcase liefert.

MfG,
Raff
Ok... jetzt sieht man es eindeutig, dass es an PhysX liegt. Im vorigen Test auch schon.

Coda
2012-09-27, 15:03:00
wird es nicht. codas implementierung unterscheidet sich immer noch von sowohl nvidias als auch amds implementierung und ja, nvidia filtert auf HQ (mit LOD auf 0.0) imho nach wie vor etwas besser. der unterschied liegt zwar in einem bereich der für mich persönlich nicht mehr kaufbeeinflussend wäre aber im filtertester sieht man nach wie vor einen kleinen unterschied.
Das ganze war sowieso eine sehr obskure Sache. Ich hab durchaus auch etwas Arroganz entgegengebracht bekommen.

Übrigens arbeitet der Typ der es damals gefixt hat schon gar nicht mehr bei AMD.

Mr. Lolman
2012-09-27, 15:23:03
Ah. Gibts da noch ein paar weitere Hintergrundinfos? PN?

Ok... jetzt sieht man es eindeutig, dass es an PhysX liegt. Im vorigen Test auch schon.

@PCGH: Habt ihr euch eigentlich auch die Frametimes angesehen?

Raff
2012-09-27, 15:25:53
Nein, bitte nicht per PN, sondern öffentlich (oder die PN bitte auch an mich :D).

Ok... jetzt sieht man es eindeutig, dass es an PhysX liegt. Im vorigen Test auch schon.

Bei den anderen Benchmarks war doch gar kein PhysX an ("Gering"-Einstellung).

MfG,
Raff

Blutelfchen
2012-09-27, 15:30:46
und ja, nvidia filtert auf HQ (mit LOD auf 0.0) imho nach wie vor etwas besser. der unterschied liegt zwar in einem bereich der für mich persönlich nicht mehr kaufbeeinflussend wäre aber im filtertester sieht man nach wie vor einen kleinen unterschied.

Allein kaufbeeinflussend bei mir auch nicht aber sicher das Zünglein an der Waage. Die gute BQ hat man dann in jedem Spiel, Physix Unterstützung dagegen nicht immer ;)

aufkrawall
2012-09-27, 15:31:00
natürlich merkt man das. negatives LOD ist bei nvidia unbrauchbar da schlechter als 0.0.
Jetzt übertreibst du aber, die meisten Texturen und Shader bleiben ziemlich ruhig.

boxleitnerb
2012-09-27, 15:33:53
Ich muss zugeben, außerhalb der Schienenszene hab ich auch nix festgestellt, und ich nutze das SGSSAA jetzt schon seit fast 2 Jahren so.

dargo
2012-09-27, 15:39:49
Bei den anderen Benchmarks war doch gar kein PhysX an ("Gering"-Einstellung).

Also gering ist für mich kein off. :confused:

Es ist zumindest auffällig, dass bei den Radeons bei den min.fps in Full-HD nicht die GPU limitiert.

PS: bei den schnellen Geforces auch nicht. Da liegt sicherlich ein starkes CPU-Limit vor (PhysX gering @CPU) mit dem der NV-Treiber etwas besser umgeht. Bezogen auf Full-HD versteht sich.

Tesseract
2012-09-27, 15:41:49
Jetzt übertreibst du aber, die meisten Texturen und Shader bleiben ziemlich ruhig.
ich meine nicht die shader sondern nur die texturfilterung. SS+negatives LOD erzeugt imho eine schlechtere gesamtfilterung als kein SS mit LOD 0.0 - schon allein weil die schwächen in der praxis wesentlich deutlicher auffallen als die stärken. sobald eine textur anfängt sichtbar zu schwimmen, flimmern oder wellen zu schlagen ist die immersion kaputt, da bringt es auch nicht viel wenn eine andere 200 pixel daneben dafür supersauber ist.

wenn du das ganze holistisch sehen willst (inkl. shader usw.) erzeugt SS natürlich das bessere bild, dann musst du allerdings auch den performanceimpact miteinbeziehen und der ist imho sowieso das KO-argument gegen supersampling und der grund warum ich es in der praxis weder auf nvidia- noch auf amd-karten jemals wirklich verwendet habe. es gibt einfach keine karte die dabei für mich hinreichend hohe, konstante und homogene frameraten und brauchbaren inputlag liefert und dabei preislich nicht vollkommen aus dem rahmen fällt.

aufkrawall
2012-09-27, 15:48:11
ich meine nicht die shader sondern nur die texturfilterung. SS+negatives LOD erzeugt imho eine schlechtere gesamtfilterung als kein SS mit LOD 0.0 - schon allein weil die schwächen in der praxis wesentlich deutlicher auffallen als die stärken. sobald eine textur anfängt sichtbar zu schwimmen, flimmern oder wellen zu schlagen ist die immersion kaputt, da bringt es auch nicht viel wenn eine andere 200 pixel daneben dafür supersauber ist.

Wo fallen dir denn flimmernde/schwimmende Texturen großartig auf?
Bisher hab ich das eigentlich hauptsächlich bei so altem Kram wahrgenommen.

Wegen Shader: Flimmer-LOD ist mir auch schon bei Specular Lighting aufgefallen, gibt bei Mirror's Edge ne recht üble Stelle.
Aber immer noch besser als schlechte Glättung ala AMD.

Vielleicht ne Idee, warum etwa mit G94 es noch gut aussah? ;)

Cubitus
2012-09-27, 15:52:31
Nachschlag. ;)

Borderlands 2 im Physx-Test mit 14 Grafikkarten und 7 Prozessoren (http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-Physx-Test-1026921/)

Interessant, dass eine übertaktete Ivy fast spielbare Fps im Worstcase liefert.

MfG,
Raff

Schade das der Test erst per Patch nachgeliefert wird. Ich hätte das Ding jetzt gerne mit meinem I3820@5Ghz getestet. Mal schauen wie sich die alte Sandy-Bitch mit mehr Cache denn so schlägt^^

Tesseract
2012-09-27, 16:04:37
Wo fallen dir denn flimmernde/schwimmende Texturen großartig auf?
da ich es in der praxis, wie gesagt, aus performancegründen kaum verwende fallen mir keine beispiele ein, die nicht ohnehin schon in einem der threads zum thema vorgekommen wären. da das problem aber nicht spiel-spezifisch ist werden sich wahrscheinlich in den meisten open world spielen ähnliche beispiele finden lassen. wenn ich nachher zeit habe kann ich mal schauen ob ich was finde.

Bisher hab ich das eigentlich hauptsächlich bei so altem Kram wahrgenommen.
ironischerweise sind genau das die titel, bei denen man supersampling oft ohne performance-nebenwirkungen verwenden kann. :wink:

aufkrawall
2012-09-27, 16:42:11
ironischerweise sind genau das die titel, bei denen man supersampling oft ohne performance-nebenwirkungen verwenden kann. :wink:
Mit ner 680 kann man häufig auch 32xSSAA nehmen.

Damit kann man jedenfalls das LOD auf 0 belassen, wobei es schärfer bleibt als 8xSGSSAA mit LOD-Verschiebung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9421166&postcount=3066

Blaire
2012-09-27, 18:07:46
Ich muss zugeben, außerhalb der Schienenszene hab ich auch nix festgestellt, und ich nutze das SGSSAA jetzt schon seit fast 2 Jahren so.

Zumal es bei HL2 eher am Game selber liegt, stell mal 16xQ oder 32xAA statt 8xMSAA ( jeweils immer mit 8xSGSSAA) ein, schon ist die Linie verschwunden, selbst bei LOD -1.5 ist es noch erträglich.
http://www.multiupload.nl/5X22N5M0I6

Tesseract
2012-09-27, 19:01:31
ich habs mal bei skyrim getestet und da ist mir tatsächlich nix negatives aufgefallen (pun intended :freak:), auch nicht an eher "bösen" stellen - abgesehen von den schlechten fps natürlich.

l0wrider
2012-09-27, 19:27:10
bei mir ganz klar cuda wegen adobe premiere.

Ronny145
2012-09-27, 19:35:41
ich habs mal bei skyrim getestet und da ist mir tatsächlich nix negatives aufgefallen (pun intended :freak:), auch nicht an eher "bösen" stellen - abgesehen von den schlechten fps natürlich.


Welch Neuheit. Diejenigen, die damit wirklich spielen, predigen es die ganze Zeit. Vom ach so kaputten lod konnte ich bislang mit SGSSAA nicht viel merken.

Coda
2012-09-27, 23:03:21
Mit ner 680 kann man häufig auch 32xSSAA nehmen.

Damit kann man jedenfalls das LOD auf 0 belassen, wobei es schärfer bleibt als 8xSGSSAA mit LOD-Verschiebung:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9421166&postcount=3066
Ordered Grid funktioniert anders, da ist die LOD-Verschiebung implizit da.

clockwork
2012-09-27, 23:42:50
[x] sonstiges Kaufargument - siehe Thread


Die AMD Karten haben (hatten?) irgend was gegen Starcraft 2. Nur weil PCGH die einzigen sind die das mal testen habe ich mir ne Ausgabe davon gekauft. :wink:

Knuddelbearli
2012-09-28, 10:15:10
wenn ich mich recht erinnere hat amd hat probleme mit dem transparenten flächen und aa und das wird in sc2 so stark genutzt wie nirgendwo anders

aufkrawall
2012-09-28, 16:20:53
Ordered Grid funktioniert anders, da ist die LOD-Verschiebung implizit da.
Das ist doch sowohl OG als auch SG (hauptsächlich letzteres).

Tesseract
2012-09-28, 16:47:25
Das ist doch sowohl OG als auch SG (hauptsächlich letzteres).
man kann OG auf verschiedene arten berechnen. nvidia macht das afaik mit einer höheren internen auflösung, wodurch das LOD auch implizit ist. 32xS ist also quasi 8xMS mit 4-facher auflösung.

aufkrawall
2012-09-28, 16:55:25
man kann OG auf verschiedene arten berechnen. nvidia macht das afaik mit einer höheren internen auflösung, wodurch das LOD auch implizit ist. 32xS ist also quasi 8xMS mit 4-facher auflösung.
Man kann die Hybride aber auch mit SGSSAA aufwerten.
Daher komm ich ja überhaupt erst auf 32xSSAA (= 8xSGSSAA bei vierfacher Auflösung).

Coda
2012-09-28, 17:02:47
Trotzdem hat man dann schon ein impliziertes -1 LOD, durch den 2x2 Anteil.

Tesseract
2012-09-28, 17:03:46
Man kann die Hybride aber auch mit SGSSAA aufwerten.
Daher komm ich ja überhaupt erst auf 32xSSAA (= 8xSGSSAA bei vierfacher Auflösung).
ja, und in dem fall muss man das LOD nur entsprechend der 8xSG anpassen. was anderes wär es wenn man tatsächlich 32 samples bei "normaler" interner auflösung hätte, also quasi ein "schlechtes 32xSG" bei dem sich das muster wiederholt. dann müsste man tatsächlich das LOD für alle anpassen. (in dem fall wär es aber natürlich sinnvoller die 32 samples gleich besser zu verteilen)

aufkrawall
2012-09-28, 17:14:31
ja, und in dem fall muss man das LOD nur entsprechend der 8xSG anpassen.

Das birgt Potential für Fehlinterpretationen. :D
Man könnte doch theoretisch auf insgesamt -2,2 kommen: -1 implizit + -1,2 für SGSSAA.
Oder nicht?


was anderes wär es wenn man tatsächlich 32 samples bei "normaler" interner auflösung hätte, also quasi ein "schlechtes 32xSG" bei dem jeweils immer 4 subpixel auf der selben horizontalen/vertikalen liegen. dann müsste man tatsächlich das LOD für alle anpassen. (in dem fall wär es aber natürlich sinnvoller die 32 samples gleich besser zu verteilen)
Du meinst, bei bei 32x wäre SG nicht mehr optimal?
Durch OG würden Winkel, die viele Stufen brauchen, ja wieder kürzer kommen.
Sollten die Winkel, die wenig Stufen brauchen, bei 32x SG nicht gut genug abgetastet werden?

Tesseract
2012-09-28, 17:47:40
Du meinst, bei bei 32x wäre SG nicht mehr optimal?nein, ich meine wenn man 32 frei setzbare samples hätte wär eine verteilung wie bei 32xS nicht optimal, das ginge dann besser.

Das birgt Potential für Fehlinterpretationen. :D
Man könnte doch theoretisch auf insgesamt -2,2 kommen: -1 implizit + -1,2 für SGSSAA.
Oder nicht?
implizit -> keine händische änderung nötig. d.h. 32xS braucht das selbe LOD wie 8xSG.

aufkrawall
2012-09-28, 18:00:20
nein, ich meine wenn man 32 frei setzbare samples hätte wär eine verteilung wie bei 32xS nicht optimal, das ginge dann besser.

Ok.


implizit -> keine händische änderung nötig. d.h. 32xS braucht das selbe LOD wie 8xSG.
Da wird wohl irgendwas schief laufen, wenn es mit LOD 0 (implizit -1) schärfer aussieht als 8xSGSSAA -1,25?

Thunder99
2012-09-28, 18:27:30
[x] sonstiges Kaufargument - siehe Thread


Die AMD Karten haben (hatten?) irgend was gegen Starcraft 2. Nur weil PCGH die einzigen sind die das mal testen habe ich mir ne Ausgabe davon gekauft. :wink:
Da ist PCGH ein Vorbild :up: Selbst mit einer HD7950OC ruckelt mit SGSSAA es z.B. im Labor bei um die ~14fps

nvidia liefert insgesamt das bessere Paket in meinen Augen ab. Merke es gerade bei meinen Games

Hasenpfote
2012-10-09, 18:33:57
Ich war bis dato AMD-Fan, aber seit dem ich vergangene Woche eine 7950 gekauft habe, hat sich das schlagartig geändert. Bisherige Grafikkarten-Historie: 9500pro, 7950GX2 (ging nach 2 Wochen wieder weg), 3870, 5750, jetzt 7950 (geht nach einer Woche wieder weg).

Ein Argument der Nvidia-Anhänger war immer, dass AMDs-Treiber für Ar*** seien. Bisher hatte ich keien Probleme, aber die 7950 gleicht alles wieder aus:

1. Overdrive im CCC läßt sich nicht aktivieren (nach klick auf "Accept" der EULA, ist der Eintrag einfach raus, Neustart CCC kann ich wieder die EULA akzeptieren) - frisch installiertes CCC, bei dem mit DriverCleaner alte Sachen entfernt wurden

2. Die Boost-Funktion erlaubt kein Undervolten. Im MSI-Afterburner kann ich die Spannung für den normalen Takt einstellen. ist die Karte aber nicht unter Vollast, geht sie in den Boost-Modus. Mit 925Mhz und 1,25V. Man kann zwar den PowerTune-Regler auf -2 oder so setzen, dann springt er nicht in den Boost-Modus.

3. Flackern, Flimmern und Bildfehler bei Spielen, die die GPU kaum auslasten. Mein Haupt-Spiel benötigt kaum GPU-Ressourcen bzw. die 7950 ist so leistungsfähig, dass sie im 2D-Takt mit <5% CPU-Last bleibt. Bei Crysis 2 hab ich keinerlei Bildfehler (bei der 5750 habe ich keinerlei Probleme).

Aber am schlimmstern und der Hauptgrund für die Rückgabe:
4. Zerocore funtkioniert nicht. Bzw. es funtkioniert zu gut, denn die Kiste wacht nicht mehr auf und erfordert einen Neustart via Power-Button. Eigentlich war ZeroCore DAS Kaufargument. Aber so ist es nicht zu gebrauchen (ja, ich kann den Monitor auch manuell ausschalten und die Stromsparfunktion umgehen. Das ist aber keine Lösung.)

Der Treiber ist in allen Fällen der 12.9 beta.

Ich bin von AMD damit erstmal kuriert.

Knuddelbearli
2012-10-09, 18:58:56
schonmal daran gedacht das du vielleicht ein Montagsmodell hast bzw sie einfach defekt ist?

aufkrawall
2012-10-09, 19:06:58
Zerocore hat bei mir auch nicht funktioniert, ich hatte allerdings 3 Montagsmodelle. ;)

Hasenpfote
2012-10-09, 20:18:06
schonmal daran gedacht das du vielleicht ein Montagsmodell hast bzw sie einfach defekt ist?ZeroCore funktioniert (kann es mittels GPU-Z sehen), aber man darf den Rechner nicht zu lange in Ruhe lassen. Ab ca. 30min kommt er nicht mehr hoch.

Iruwen
2012-10-10, 10:51:34
Die Boost-Funktion erlaubt kein Undervolten. Im MSI-Afterburner kann ich die Spannung für den normalen Takt einstellen. ist die Karte aber nicht unter Vollast, geht sie in den Boost-Modus. Mit 925Mhz und 1,25V. Man kann zwar den PowerTune-Regler auf -2 oder so setzen, dann springt er nicht in den Boost-Modus.

Undervolten geht seit Kepler bei NV übrigens auch nicht mehr. Ist bei der Effizienz der Karten aber imo auch nicht mehr unbedingt notwendig im Vergleich zu Fermi.

TobiWahnKenobi
2012-10-10, 11:03:34
zero-core funktioniert "angeblich" nur dann zuverlässig, wenn man ein DVI-gerät angeschlossen hat und die ausgänge, die auch ton übertragen (DP + HDMI) untoucht lässt. scheint also eher was für single-display-user zu sein.

wo mich mein AMD-rechner abseits der spiele mit lustigen AMD-features unterhält, wird mein intel mit der NVidia gradezu langweilig.. egal, welchen treiber ich dem grafiksystem meines i7 unterschiebe - alles funktioniert.. *gääähn*



(..)

mfg
tobi

Hasenpfote
2012-10-10, 14:35:12
Undervolten geht seit Kepler bei NV übrigens auch nicht mehr. Ist bei der Effizienz der Karten aber imo auch nicht mehr unbedingt notwendig im Vergleich zu Fermi.Danke für die Info! Hatte überlegt mir stattdessen eine 660TI zu holen. Das fällt dann ja auch aus. Vielleicht schieß ich in ein paar Monaten, wenn die Karten die Hälfte kosten, eine 7950 ohne Boost. Hoffentlich sind die Treiber bis dahin ausgereifter. Wenn nicht, dann nicht.

Naja, das Undervolten IMO ist schon sinnvoll. Nachdem was ich gelesen habe, lassen sich unter Vollast bis zu 40W einsparen. D.h. 40W weniger, die von der Grafikkarte und dem Netzteil wegeschaufelt werden müssen.