PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Großer GTX-980-Erfahrungsbericht


aths
2014-10-24, 21:18:22
Als ich am Launch-Tag auf den Button klickte, um die GTX 980 zu bestellen, war mir klar, dass ich die 549 Euro schon bald bereuen würde. Erstens brauche ich diese Leistung nicht und zweitens ist der Preis reiner Wucher, im Fast-High-End-Bereich.

Was bringt die Karte nun?


Supersampling und Downsampling – der Weg zur Extra-Qualität

Wer oldschool von der Voodoo 4/5 kommt, will das wahre Antialiasing: Supersampling.

Für Supersampling braucht man entweder das Nvidia-SSAA-Tool, oder ein Drittprogramm wie den Nvidia Inspector. Die Option ist seit vielen Geforce-Generationen verfügbar, aber Supersampling lastet die GPU so gut aus, dass bei den bisherigen Referenz-Karten der Lüfter nervte. Jetzt mit der GTX 980 wird Supersampling endlich ohne Hörschutz nutzbar, denn auch unter Volllast hält sich die Leistungsaufnahme in Grenzen.

Eine andere Art des Supersamplings ist das Rendern in höherer Auflösung als der Monitor darstellen kann und anschließendem Herunterskalieren auf die Monitorauflösung. Für dieses Downsampling braucht man nicht mehr herumfrickeln, die Option ist nun direkt im Treiber. Damit wird alles glatt, auch die wenigen Stellen die das normale Supersampling übersieht. Dank Smoothness-Option beim Downsampling ist das gesamte Bild sehr gut, ohne störende Einzelpixel. Hat man sich einmal daran gewöhnt, wie ruhig das gesamte Bild sein kann, will man nicht mehr zurück.

In Skyrim lässt sich Downsampling sinnvoll mit Multisampling und Transparenz-Antialiasing kombinieren. Die Leistung ist bei einem 1920-er Monitor dafür locker da. Wasser-Darstellung und die Bäume gewinnen deutlich, erst mit Downsampling fällt auf dass es vorher doch ziemlich geflimmert hat.

Spiele, die mit herkömmlichen Einstellungen bereits genug geglättet sind, wie The Stanley Parable, sehen mit DSR (so die Downsampling-Bezeichnung im Treiber) dann doch noch einen Tick besser aus. Der Vollbildglättungseffekt verwöhnt das Auge, man wird empfindlich für kleinste Stör-Pixel.

Das DSR-Feature hat ein Problem – die Mausgeschwindigkeit. Ich kann meine Razer von 1800 dpi (meine Standard-Einstellung) auf 3500 dpi hochschalten, also fast doppelt so schnell machen. Das gleicht bei 2x2 = 4x-DSR die Maus fast komplett aus. Nur mit schneller Maus ist DSR sinnvoll nutzbar.


Minus mal Minus ergibt Plus?

Downsampling geht mit der Leistung verschwenderisch um. FXAA ist kein echtes Antialiasing, nur ein Postfilter. Beides zusammen hingegen ergänzt sich besser als man denkt. Denn mit Downsampling wird FXAA vom Postfilter zum Prefilter.

Wenn es für 4x DSR performancetechnisch nicht reichen sollte und man ein kleineres DSR-Level verwendet, ist irgendein anderes zusätzliches Antialiasing zwingend notwendig, um halbwegs glatte Kanten zu bekommen. Das kann 2x Multisampling sein. Im Notfall kann es Treiber-FXAA sein.

Diese Kombination bringt sowohl vorgetäuschtes als auch echtes Antialiasing gleichzeitig in Spiele, die von Haus aus gar kein AA unterstützen. Die Schwäche bei FXAA+DSR sind Winkel um nahezu 90°. Hier bleiben Hüggel. Sofern angeboten, wäre Ingame- oder Treiber-AA vorzuziehen, da es bessere Qualität liefert.


Einsatzgebiete für Downsampling

In alten Spielen ist für DSR immer genug Leistung da. Doom 3 sieht sowohl in der Original-Version, als auch in der BFG-Version mit DSR besser aus, da dünne Objekte besser geglättet werden und das Moiré-Muster einiger Bodentexturen nicht mehr so ins Auge springt.

Grafisch eher anspruchslose Games wie Prison Architect, oder Not The Robots packen 4x DSR spielend und wirken noch mal einen Zacken schöner als in Standard-Auflösung.

Problematisch sind alle Spiele, dessen User-Interface nicht mit der Auflösung skaliert. Civilization V ist hier ein Kandidat, bei dem DSR nicht viel Sinn ergibt. Tropico 4 könnte über das im Spiel einstellbare Antialiasing hinaus eine weitere Glättung wirklich gebrauchen, doch das Spiel wird mit dem kleinen Interface schwerer zu bedienen.

Zwar ist die Leistung für alte Spiele immer da, doch Games mit festem 4:3-Bildformat lassen sich auf einem Breitformat-Bildschirm mit DSR nicht sinnvoll aufwerten, da die Zusatz-Auflösungen immer nur für das native Monitor-Seitenformat angelegt werden.


MFAA

Supersampling berechnet das ganze Bild in höherer Auflösung, Multisampling lediglich die Geometrie. Der bisherige Weg von Geforce-Karten, mehr Antialiasing-Qualität zu bieten ohne zusätzliche Multisamples berechnen zu müssen, waren Coverage-Samples, die nur noch Dreiecks-Bedeckungsinformation speichern. Diese Coverage-Samples müssen ohne Tiefen-Information auskommen, weshalb bei ungünstiger Dreiecks-Sortierung die tatsächliche Glättung auf den zugrunde liegenden Multisampling-Anteil zurückgeht.

Die neuen Nvidia-Karten ersetzen diese Methode mit Multi-Frame-Antialiasing. Es werden weiterhin volle Multisamples berechnet, diese aber in jedem zweiten Frame leicht verschoben. MFAA scheint dabei nicht nur pro Frame, sondern auch pro Pixel zu alternieren. So entsteht auch in einem einzelnen Frame eine Zwischenstufe – als Raster.

Die Grafikkarte sucht bei aktiviertem MFAA im fertigen Bild nach Rastern und vergleicht mit dem vorherige Bild, ob dort ein Gegenraster vorkommt. Wenn ja, werden die Raster zusammengerechnet und man sieht auf dem Monitor eine herkömmliche Zwischenstufe.

In Bewegung bleibt das Raster sichtbar, in Ruhe erscheint das Bild als hätte es normales Antialiasing.

MFAA lässt sich mit Downsampling kombinieren. Beides ergänzt sich exzellent: 4x-Downsampling bietet pro Achse nur 2x-Glättung. MFAA bringt beinahe ohne Kosten pro Achse die doppelte Glättung. Das heißt, mit 4x DSR und MFAA hat man pro Achse eine 4x-Glättung. Die erwähnten MFAA-Rasterartefakte in Bewegung sind kaum noch sichtbar.

MFAA ist nur bei 40 fps oder mehr möglich, da der Treiber diesen Modus bei zu niedriger Framerate automatisch abschaltet. Erreicht die Framerate wieder 40 fps oder mehr, wird MFAA wieder aktiv.


Leistung

Die Star-Citizen-Alpha, auf der GTX 680 im Hangar noch grenzwertig, ist mit der 980 deutlich flüssiger. Hier scheint die Mehrleistung 1:1 umgesetzt zu werden, der Unterschied im Herumgeh-Gefühl (spielen kann man im Hangar ja nicht) ist beträchtlich. Dank Downsampling kann man auch 3840x2400 einstellen. Das Bildflimmern nimmt ab, doch die Grafik wird so zäh dass es mit der GTX 980 in dieser Auflösung keinen Spaß mehr macht.

Exemplarisch für ein neues Spiel darf Shadow of Mordor herhalten. Zunächst werden eine Reihe Logos eingeblendet, ich hoffe dass die Nvidia-Werbung nicht auch ATI-Besitzern angezeigt wird. Dann wird man mit einem Aufgebot an irgendwelchen Technologie-Logos erschlagen – inklusive Speedtree.

Technisch gesehen ist das Spiel modern, sofern man davon absieht dass Schattenränder unrealistisch scharf sind, und dass keine herkömmliche Kantenglättung geboten wird.

Für schwächere Systeme hat das Spiel die Option, zwar das Interface weiterhin in voller Auflösung anzuzeigen aber die 3D-Szene in geringerer Auflösung zu rendern um die Szene dann hochzuskalieren. Wer einen 3,8-k-Monitor hat (4k haben ja die wenigsten) wird die Option zu schätzen wissen, um in spielbare fps-Bereiche zu gelangen.

Meine native Monitor-Auflösung von 1920x1200 packt die GTX 980 mühelos. Eingebautes Downsampling steht auch zur Auswahl: 150% und 200%. Bereits 150%, also eine 2880-er Auflösung, lässt die Grafik hakelig werden. Zusätzliches DSR via Treiber ist auch möglich.

Was hat es nun mit den ominösen HD-Texturen auf sich, die 6 GB Grafikspeicher voraussetzen sollen? Bereits mit High-Texturen belegt das Spiel auf der Grafikkarte knapp 3 GB Speicher. Mit Ultra-Texturen sind es knapp 4 GB. Der eigebaute Benchmark zeigt, dass mit Ultra-Texturen die Frameraten zum Glücksspiel werden. Manchmal sind es unter 70 fps, manchmal knapp 80. Bei High-Texturen ist die Streuung deutlich kleiner, es geht von 80 bis 82 fps.

Auf generellen Very-High-Settings (statt Ultra) gehen in 1920x1200 die Frames auf fast 100 fps hoch. Schaltet man eine 3840-er Auflösung an, sind es nur noch gut 30 fps.

Der Mittelweg, 2880x1800, ist im Spiel nicht mehr durchgängig flüssig. Auch der Benchmark zeigt das mit 45 fps (Ultra-Settings) bzw. 50 fps (Very-High-Settings.) Da hat man nun die GTX 980 gekauft und muss Shadow of Mordor ohne Antialiasing spielen? Nein – MFAA sei Dank. MFAA auf Antialiasing-off-Grundlage bringt 2x-Glättung. Die MFAA-Rasterartefakte fallen kaum auf, die erworbene Glättung ist ein Segen.


Grenzen

Der Grafikkarten-Packungstext mit den von Nvidia vorgegebenen Inhalten behauptet, die Karte sei doppelt so schnell wie die vorherige Generation. Nicht nur, dass man lediglich über ein Sternchen kleingedruckt findet, dass hier unter der vorherigen Generation nur die 680 zu verstehen ist – die Aussage kommt trotzdem nicht hin. Real sind es um die 50 Prozent plus zur GTX 680.

Entgegen meinem Ersteindruck schafft es die GTX 980 doch nicht, auf Maximaldetails stabile 60 fps zu halten, wenn man in Starcraft 4x-MSAA zuschaltet.

Verzichtet man auf Antialiasing, aber dreht man die Grafik ansonsten voll auf, wird Max Payne 3 mit 4xDSR ruckelig. Diablo 3 läuft bei 4x DSR ebenfalls nicht durchgehend mit 60 fps. Kleinere DSR-Faktoren sehen gerade in Diablo nicht gut aus.

Die Karte ist nicht die Radeon 9700 ihrer Zeit, oder die GTX 8800.


Übertaktung

Zunächst die wichtigste Frage: Limitiert das Speicher-Interface? Je nach Anwendung ja, oder nein. Die echtzeitgerenderten Starcraft-2-Kampagnengebiete wie das Raumschiff sind bei vollem Detailgrad, also mit aktiviertem Ambient Occlusion, komplett speicherbandbreitenlimitiert. Der 3DMark hingegegen reagiert noch gut auf die GPU.

Zum Übertakten habe ich das Powertarget immer auf das Maximum, also 125% gezogen. Man darf sich von Benchmarks nicht trollen lassen: Mit +240 MHz GPU-Takt erhalte ich über 1500 MHz real anliegenden Takt. Es gibt Grafikfehler, aber der Benchmark läuft durch. Spannungserhöhung bringt keine Vorteile: Es kommen trotzdem Artefakte ab 1500 MHz, und die sind sogar stärker.


Standard-Takt: Graphics Score 5986, Physics Score 9215, Combined Score 2615
Robuster OC-Takt: Graphics Score 6688, Physics Score 9275, Combined Score 2888
Cheat-OC-Takt: Graphics Score 6941, Physics Score 9255, Combined Score 3053 (Benchmark läuft noch durch, es gibt aber Grafikfehler)


+180 MHz eingestellter Takt läuft auf 1466 MHz GPU-Takt heraus. Das ist bei meiner Karte grafikfehlerfrei. Im Dauereinsatz würde nur +140 MHz fahren, was in einem Takt von knapp oberhalb 1400 MHz resultiert.

Der Speicher lässt +400 MHz zu, würde also auf 3900 MHz laufen. Real würde ich den aber nur auf 3800 MHz stellen, um einfach noch die Sicherheit zu haben. Das OC von +140/+300 nenne ich in der Tabelle "robust"

An zusätzlichen Frames oder 3DMark-GPU-Punkten bringt das Übertakten bei stabilen Einstellungen zwischen zehn und elf Prozent real mehr Leistung. Der Lüfter dreht dabei bis auf 63%. Das sind mir die 10% Leistung nicht wert. Die Karte nutze ich im Alltag komplett ohne Übertaktung und ohne Powertarget-Erhöhung.


Lautstärke

Erst im Sommer wird man die Grafikkarte komplett beurteilen können. Der Lüfter lässt sich natürlich auch manuell setzen, dann sieht es so aus:

 26% - 1115 U/min (Mindesteinstellung. Karte praktisch nicht zu hören.)
 30% - 1223 U/min
 40% - 1662 U/min (Sehr leises Geräusch, wenn es im Zimmer wirklich still ist.)
 50% - 2063 U/min (Karte wird hörbar)
 60% - 2480 U/min (Kartengeräusch als Lüftergeräusch zu hören)
 70% - 2932 U/min (Hochfrequenter Anteil wird hörbar)
 80% - 3323 U/min (es kommt Druck in das Geräusch)
 90% - 3745 U/min (der hochfrequente Anteil wird lauter)
100% - 4160 U/min ("Dssssschshchschssssschschsch")

Bislang habe ich mit dem Referenz-Takt die Karte nur auf 52% Lüfter bekommen. Das ist nicht laut, aber schon hörbar. Mit eigener Lüfterkennlinie, zum Beispiel via MSI Afterburner 4.0, lässt sich der Lüfter auf nur 43% betreiben ohne dass sich die GPU-Temperatur erhöht. 43% ist, wenn es ansonsten leise ist im Zimmer, auch noch zu hören, aber für eine Luftkühlung trotzdem fantastisch.


Technik

Die ganzen Computing-Fähigkeiten des GM204 dürften für die meisten Gamer unwichtig sein. Architektur-Details, wie die Zusammenlegung von L1-Cache und Textur-Cache, weisen natürlich darauf hin dass immer mehr dedizierte Blöcke in allgemeiner verwendbare Funktionen umgewandelt werden.

Bandbreite ist bei Grafikkarten in aller Regel der Flaschenhals. Z-Werte, also Tiefen-Informationen, werden seit GeForce 3 komprimiert – seit über 13 Jahren. Die Komprimierung spart keinen Platz im Grafikspeicher, da für die lineare Adressierung weiterhin der volle Speicher allokiert wird. Es spart aber Bandbreite, da das Frame in in kleine Kacheln unterteilt wird und eine solche Kachel einzeln komprimiert werden kann.

Bei Z-Werten ist damit zu rechnen, dass über mehrere Pixel die Z-Wert-Änderung gleichbleibend ist, was sich gut komprimieren lässt. Wie sieht es mit Farbkomprimierung aus?

Bei aktivem Multisampling haben alle Subpixel, durch die keine Dreiecks-Kante geht, denselben Farbwert. Das lässt sich recht einfach komprimieren. Erst jetzt, beim Maxwell-2.0-Release, wird Nvidia deutlicher dass Fermi bereits Delta-Komprimierung beherrschen soll. Das heißt, wenn sich die Farbe über einige Pixel nur wenig ändert, ist das ebenfalls komprimierbar. Gegenüber Kepler, der mit Fermi hier wohl gleichzieht, will Nvidia mit Maxwell nun auch ohne Antialiasing eine brauchbare Farbkomprimierung entwickelt haben und einen erhöhten Rohdatendurchsatz von durchschnittlich 25% erreichen. Leider sind die Unterlagen dazu dürr.

Wir dürfen davon ausgehen, dass die Farbkomprimierung in zukünftigen GPUs verfeinert wird. Da die im Hintergrund stehende Technik einfach sein muss, ist die Komprimierung darauf angewiesen, dass in dieser Bildkachel die meisten Pixel die ungefähr gleiche Farbe haben. Die Frage ist, ob einige Ausreißer-Pixel, die sich stark unterscheiden, bereits die Komprimierung der ganzen Kachel verunmöglichen, oder ob der Platz da ist, einige sich farblich stark abgrenzende Pixel mitzunehmen. Allgemein gilt: Je höher die Bildschirmauflösung, desto höher die Chance auf Komprimierbarkeit.

Der zweite Weg den Maxwell geht, sind große Caches. Damit lassen sich eine Menge Speicherzugriffe komplett abfangen – effektiver als jede Komprimierung.

Maxwell ist ansonsten eigentlich ein "Kepler done right". Wir müssen auf Pascal warten für die wirklich dicken Neuerungen.


Zusammenfasstung Leistung und Bildqualität

Leider muss man im Treiber erst mal wieder volle trilineare Texturfilterung aktivieren. Die GTX 980 hat genug Leistung dafür. Die Maxwell-Karte zeigt das seit der GTX 8800 gewohnte sehr gute Bild mit aktiver anisotroper Filterung im HQ-Modus.

Das Fehlen von CS-Antialiasing ist ein Rückschlag, allerdings zu verschmerzen. Neben den im Treiber ohnehin verfügbaren Multisampling-Modi mit konfigurierbarem Transparenz-Antialiasing (Off, Multisampling, Supersampling) lässt sich mit Zusatztools auch komplettes Supersampling einschalten. Sogar die alten Supersampling-Modi im rechtwinkligen Raster und die alten Mischmodi aus GeForce-4-Zeiten – wie 4xS-Antialiasing – stehen mit Tools wie dem Nvidia Inspector noch zur Verfügung. Es ist sehr gut, dass der Hersteller uns nicht im Regen stehen lässt und so weit verfügbar noch alte Antialiasing-Modi im Treiber belässt.

Alan Wake zeigt sich bei Supersampling-Einstellungen zickig und hat heftige Grafikfehler – dank Downsampling bekommt man trotzdem echtes Antialiasing.

Downsampling ist sehr gut, um einfachere Spiele aufzumöbeln. Bei einem neuen Grafikracher wie Ryse: Son of Rome reicht die Leistung nicht mehr für DSR. Doch alle Spiele können Antialiasing bekommen. Sei es eine eingebaute Methode – Ryse bietet ein Ingame-Antialiasing – oder zur Not MFAA für Spiele wie Shadow of Mordor, wo DSR bei Maximal-Details ebenfalls nicht mehr drin ist.

MFAA ist offiziell noch nicht verfügbar. Dank "Nvidia Inspector" kann man es schon aktivieren, doch nur in einigen Spielen hat es eine Wirkung. Auf Basis der Tests mit dem 344.48-Treiber lässt sich jedoch ableiten, dass MFAA schon deshalb dem weggefallenen CSAA-Modus vorzuziehen ist, da es aus "Antialiasing off" ein 2x-Antialiasing machen kann. Sind die Kanten in Bewegung, offenbart sich das MFAA-Getrickse. Es ist jedoch allemal besser, als ganz ohne Antialiasing leben zu müssen.

Die GTX 980 bewirkt, dass PC-Gaming wieder Spaß macht: Endlich gibt neue Optionen, die Bildqualität zu verbessern. Für dessen Einsatz wird man auch nicht mehr mit einem nervigen Lüfter bestraft, endlich kann man Grafik bei erträglich niedrigem Geräuschpegel genießen.

Gast
2014-10-24, 22:49:24
Als ich am Launch-Tag auf den Button klickte, um die GTX 980 zu bestellen, war mir klar, dass ich die 549 Euro schon bald bereuen würde.
Das nehme ich dir nicht ab. Wenn dir das ab Kauf schon klar war, dann hättest du es nicht getan. Dazu postest du hier schon zu lange. :D
Tombman hätte ich es geglaubt. Der hatte aber eine andere Einstellung.

Was bringt die Karte nun?
(..)
Die GTX 980 bewirkt, dass PC-Gaming wieder Spaß macht
Was meinst du damit? ... Ich kenne eine Menge Leute, die sich keine GTX980 für 549€ gekauft haben und trotzdem eine Menge Spaß mit ihren PC-Games haben. ;)
Manche haben sogar schlechtere Hardware als ich und dennoch mehr Spaß ingame. Weil sie einen besseren Ping haben oder einfach besser sind als ich. Traurig aber immernoch wahr: Geld alleine macht nicht glücklich. :D

Grenzen

Der Grafikkarten-Packungstext mit den von Nvidia vorgegebenen Inhalten behauptet, die Karte sei doppelt so schnell wie die vorherige Generation. Nicht nur, dass man lediglich über ein Sternchen kleingedruckt findet, dass hier unter der vorherigen Generation nur die 680 zu verstehen ist – die Aussage kommt trotzdem nicht hin. Real sind es um die 50 Prozent plus zur GTX 680.
Nein - selbst 50% sind imo grob übertrieben:

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/14

Cyrsis3@FullHD:

GTX780Ti - 93.9 FPS
GTX980 - 95.7 FPS

Ich könnte jetzt am Taschenrechner mal nachrechnen, wieviel Prozent das sind.... aber so kleine Zahlen werden im Display nicht mehr angezeigt.

Da eine 780TI und 980 je nach Spiel gleichauf sind, müßte demnach ja schon die 780TI damals 50% schneller gewesen sein, als eine 680 (beides Kepler). Ne - also irgendwo hört's dann doch auf. :ulol:

Zudem wurde oben mal wieder nur auf 'High' mit dick AA gebencht. Wenn man das ganze realistisch bencht (so wie die meisten Leute spielen) 'very high' und AA aus, dann kann man es vermutlich ohne Rechtsschutz nicht veröffentlichen. ;)

Maxwell ist ansonsten eigentlich ein "Kepler done right".
Nee - das ist schon die 780TI. Und auch andere Kepler sind "well done". ;)
Der Bigchip von Maxwell ist auch noch gar nicht am Markt.
Die GTX980 ist imo eher ein "Maxwell in early access".

Wir müssen auf Pascal warten für die wirklich dicken Neuerungen.
Oder wir hoffen auf DX12 und AMD?

Ich finde Maxwell eigentlich ganz OK. Es ist auf alle Fälle nicht weniger als vorher. Aber der Preis ist imo völlig überzogen. Du hast zB. 550,-€ für eine Karte ausgegeben mit der dir Crysis 3 genausoviel Spaß macht, wie auf einer 780Ti.
Ich könnte noch einen draufsetzen und sagen, daß selbst auf einer GTX680 Crysis 3 und andere Titel noch erschreckend viel Spaß machen. Aber das behalte ich lieber für mich. Wenn jemand schon völlig am Boden zerstört ist, muß man ja nicht auch noch drauftreten.....

(nur Spaß!)

Trotz allem ein schöner Beitrag von dir. Er regt andere hoffentlich zum nachdenken an. Besonders wenn für diese 550€ doch eine Summe ist, die man nicht mal eben aus der Portokasse nimmt.
Auch als Enthusiast hat man ja im Stillen die Erwartung, daß bei so einem Preis wenigstens ein kleiner technischer Meilenstein der Computergeschichte geliefert wird.

Meine ganz persönliche Meinung:
Ich finde Maxwell zwar OK, bin aber eher enttäuscht, weil ich mir mehr versprochen hatte. Alles was mit Silent, noch mehr AA und Auflösungen über FullHD/Downsampling/DSR zu tun hat, hat für mich nur einen ganz geringen Unterhaltungswert.

Ich erinnere mich noch an Zeiten, wo Spieleentwickler extra Patches für ihre Spiele rausgebracht haben, um echte neue Technik zu nutzen. Wer kennt noch die 3DNow!-Version von Quake?
Ich bezweifle stark, daß es eine 'MaxwellNow!'-Version von überhaupt irgendeinem Spiel geben wird. Den Grund sehe ich darin, daß man Maxwell auch problemlos als Kepler-Refresh hätte vermarkten können.

Ist an Maxwell überhaupt irgendwas neu? Kann er eventuell schon das neue PhysX²? DX12 wenigstens mit Featurelevel 12.0? Nein?

Schade.

:devil:

PS: Humor ist, wenn man trotzdem lacht.

gnomi
2014-10-25, 01:06:59
@ Performance
Ich habe da zwischen GTX 680 & 980 in Metro Redux schon 80% gesehen.
Gerade bei neueren Spielen dürfte das ein Gradmesser sein.
Ansonstenn sind 40-60% aktuell realistisch, aber die braucht man quasi auch zwingend, wenn man beispielsweise von Full HD auf 1440P umsteigt.

Raff
2014-10-25, 20:13:18
Vorweg: Schöner Bericht! Aths ist zurück. :up:

Die Karte ist nicht die Radeon 9700 ihrer Zeit, oder die GTX 8800.

Hehe, überhaupt nicht. Meiner Meinung nach wird die Karte ziemlich überschätzt. Aber gut, wer von einem GK104 kommt, erhält einen ordentlichen Bump. GK110-Nutzer aber nicht. R300 und G80 sind ganz andere Kaliber. Sogar Titan ist ein anderes Kaliber.

Bislang habe ich mit dem Referenz-Takt die Karte nur auf 52% Lüfter bekommen. Das ist nicht laut, aber schon hörbar. Mit eigener Lüfterkennlinie, zum Beispiel via MSI Afterburner 4.0, lässt sich der Lüfter auf nur 43% betreiben ohne dass sich die GPU-Temperatur erhöht. 43% ist, wenn es ansonsten leise ist im Zimmer, auch noch zu hören, aber für eine Luftkühlung unter trotzdem fantastisch.

52 % sind übrigens ziemlich genau 2,5 Sone.

MFAA ist offiziell noch nicht verfügbar. Dank "Nvidia Inspector" kann man es schon aktivieren, doch nur in einigen Spielen hat es eine Wirkung. Auf Basis der Tests mit dem 344.48-Treiber lässt sich jedoch ableiten, dass MFAA schon deshalb dem weggefallenen CSAA-Modus vorzuziehen ist, da es aus "Antialiasing off" ein 2x-Antialiasing machen kann. Sind die Kanten in Bewegung, offenbart sich das MFAA-Getrickse. Es ist jedoch allemal besser, als ganz ohne Antialiasing leben zu müssen.

Dass MFAA auch mit Multisamples funktioniert, war mir nicht klar (das hat Nvidia auch nirgends erwähnt). Danke für diese Info. :)

MfG,
Raff

aufkrawall
2014-10-25, 20:28:09
Gibt halt solche und solche Fälle.
Für einen 256 Bit Chip recht mächtig. Abgesehen von Grenzfällen, die sich vermeiden lassen (etwa das miese MSAA in Hitman: Absolution), erlaubt sich die GPU keine Durchhänger bei einzelnen Spielen vs. AMD/Hawaii.

Das war mit GK104 vs. AMD/Tahiti noch anders (etwa bei Anno 2070).
Außerdem ist halt die Compute-Performance enorm verbessert und wenn man von der Leistung nicht an Hawaii rankommt, kann man ihn wenigstens bei der Effizienz noch schlagen. Das war damals auch nicht so (teilweise auch bei Spielen nicht).
Gut, Hawaii ist nicht ganz neu. Beim Duell GM200 vs. Fiji wird es aber wohl nicht anders sein.

Für die NextGen-Spiele wird ja vermehrt auf Compute gesetzt, etwa die Kleidungssimulation in Assassin's Creen: Unity.
Man kann davon ausgehen, dass es Fälle geben wird, in denen der Abstand zu GK104 deutlich größer sein wird. Die kleinen Keplers sind einfach Compute-Krüppel.
Wenn den Kepler-ALUs was nicht schmeckt, ist der Abstand auch jetzt schon deutlich größer (Risen 3, wieder Anno 2070...).

Raff
2014-10-25, 20:31:59
(HQ-)AF ist auf GM204 übrigens oft ziemlich teuer ggü. GK110. Das ist aber kein Wunder angesichts seines ALU:TMU-Verhältnisses. Der Chip ist vorausschauend stark auf Compute getrimmt, wo die TEX-Befehle prozentual abnehmen.

MfG,
Raff

aufkrawall
2014-10-25, 20:32:35
Hast du das mit DX9 oder 11 gebencht?

Raff
2014-10-25, 20:33:50
Sowohl als auch. Ältere DX9-Spiele sind aber natürlich etwas texturlastiger als DX11-Shader-Spektakel.

MfG,
Raff

aths
2014-10-26, 00:21:02
Das nehme ich dir nicht ab. Wenn dir das ab Kauf schon klar war, dann hättest du es nicht getan. Dazu postest du hier schon zu lange. :D
Tombman hätte ich es geglaubt. Der hatte aber eine andere Einstellung.

Was meinst du damit? ... Ich kenne eine Menge Leute, die sich keine GTX980 für 549€ gekauft haben und trotzdem eine Menge Spaß mit ihren PC-Games haben. ;)
Manche haben sogar schlechtere Hardware als ich und dennoch mehr Spaß ingame. Weil sie einen besseren Ping haben oder einfach besser sind als ich. Traurig aber immernoch wahr: Geld alleine macht nicht glücklich. :DZuvor hatte ich eine GTX 680, dessen reine Leistung okay war, aber unter Last aufdrehte und nervig laut wurde. Das war der Hauptgrund für einen Neukauf. Ob das gleich 550 Euro wert ist, bezweifelte ich, weshalb ich davon ausging, hier bald mit dem teuren Spielzeug zu sitzen und mich zu fragen ob die Anschaffung sinnvoll ist.

Im Eingangsposting bin ich mit einer persönlichen Anektdote eingestiegen, um klarzumachen dass es kein um Neutralität bemühtes Review ist, sondern der Eindruck von mir.


Nein - selbst 50% sind imo grob übertrieben:

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/14

Cyrsis3@FullHD:

GTX780Ti - 93.9 FPS
GTX980 - 95.7 FPS

Ich könnte jetzt am Taschenrechner mal nachrechnen, wieviel Prozent das sind.... aber so kleine Zahlen werden im Display nicht mehr angezeigt.

Da eine 780TI und 980 je nach Spiel gleichauf sind, müßte demnach ja schon die 780TI damals 50% schneller gewesen sein, als eine 680 (beides Kepler). Ne - also irgendwo hört's dann doch auf. :ulol:Du vergleichst mit 780, ich schreibe dass ich mit der 680 vergleiche (und beschwere mich darüber, dass Nvidia die 680 als Vergleich nimmt, und dann auch noch mit "doppelter Leistung" stark übertreibt.)


Trotz allem ein schöner Beitrag von dir. Er regt andere hoffentlich zum nachdenken an. Besonders wenn für diese 550€ doch eine Summe ist, die man nicht mal eben aus der Portokasse nimmt.
Auch als Enthusiast hat man ja im Stillen die Erwartung, daß bei so einem Preis wenigstens ein kleiner technischer Meilenstein der Computergeschichte geliefert wird.

Meine ganz persönliche Meinung:
Ich finde Maxwell zwar OK, bin aber eher enttäuscht, weil ich mir mehr versprochen hatte. Alles was mit Silent, noch mehr AA und Auflösungen über FullHD/Downsampling/DSR zu tun hat, hat für mich nur einen ganz geringen Unterhaltungswert.Immerhin habe ich jetzt die Erfahrung gemacht, eine Karte am Launchtag zu bestellen und tags darauf geliefert zu bekommen.

Man ist für rund eine Woche der King, da einen alle fragen ob man mal dies testen kann oder das ausprobieren kann. Bereits eine Woche später ist man der Dödel, weil der Preis schon nachgelassen hat.

Doch endlich kann ich die GPU auslasten ohne nervige Lüfter-Lautstärke ertragen zu müssen. Vergleicht man die Referenz-680 mit "nur schwach hörbarem Lüfter" und die GTX 980 mit ebenfalls "nur schwach hörbarem Lüfter", ist der Performancegewinn enorm.

Ich erinnere mich noch an Zeiten, wo Spieleentwickler extra Patches für ihre Spiele rausgebracht haben, um echte neue Technik zu nutzen. Wer kennt noch die 3DNow!-Version von Quake?
Ich bezweifle stark, daß es eine 'MaxwellNow!'-Version von überhaupt irgendeinem Spiel geben wird. Den Grund sehe ich darin, daß man Maxwell auch problemlos als Kepler-Refresh hätte vermarkten können.

Ist an Maxwell überhaupt irgendwas neu? Kann er eventuell schon das neue PhysX²? DX12 wenigstens mit Featurelevel 12.0? Nein?
Ich schrieb doch, Maxwell ist Kepler done right.

aths
2014-10-26, 00:23:40
@ Performance
Ich habe da zwischen GTX 680 & 980 in Metro Redux schon 80% gesehen.
Gerade bei neueren Spielen dürfte das ein Gradmesser sein.
Ansonstenn sind 40-60% aktuell realistisch, aber die braucht man quasi auch zwingend, wenn man beispielsweise von Full HD auf 1440P umsteigt.
Ich habe mich sehr gefreut, dass die 980 gegenüber der 680 bzw. 770 dann auch in der Praxis deutlich mehr PS auf die Straße bringen kann, obwohl das Speicherinterface ja ebenfalls nur 256 Bit breit ist.

52 % sind übrigens ziemlich genau 2,5 Sone.

Dass MFAA auch mit Multisamples funktioniert, war mir nicht klar (das hat Nvidia auch nirgends erwähnt). Danke für diese Info. :)

Falsche Frage, aber wie laut sind 2,5 Sone in Dezibel?

Wie MFAA genau implementiert wird, ist mir noch nicht ganz klar. Dass Multisample-Positionen verschoben werden, hatte ich der Nvidia-Erklärung entnommen. Da die Texturen durch MFAA anscheinend nicht angefasst werden, scheinen nicht die generellen Sampling-Positionen (für Texturfilterung) beeinflusst zu werden, nur die Koordinaten für die Geometrie werden geändert.

Es findet eine zeitliche wie räumliche Versetzung statt, habe vorhin noch zwei Screenshots gemacht: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10400910&postcount=3221

Gast
2014-10-26, 06:47:15
Zuvor hatte ich eine GTX 680, dessen reine Leistung okay war, aber unter Last aufdrehte und nervig laut wurde. Das war der Hauptgrund für einen Neukauf.
Das kann ich nachvollziehen, wobei ich mich inzwischen daran gewöhnt habe. Die 680 wird unter Last zwar auch laut - es ist aber noch eher ein angenehmes Rauschen. Bei Resonanzen oder hohen Tönen wäre ich auch schnell genervt gewesen. Vielleicht habe ich auch einfach nur Glück gehabt. In meinem Gehäuse (Dragon) ist die 680 kaum lauter als eine 460.

Ob das gleich 550 Euro wert ist, bezweifelte ich, weshalb ich davon ausging, hier bald mit dem teuren Spielzeug zu sitzen und mich zu fragen ob die Anschaffung sinnvoll ist.
Ok - es ist also keine richtige Reue, sondern eher die Stimme der Vernunft, die sich meldet. :D

Im Eingangsposting bin ich mit einer persönlichen Anektdote eingestiegen, um klarzumachen dass es kein um Neutralität bemühtes Review ist, sondern der Eindruck von mir.
Das finde ich ok. Manche bemühen sich um scheinbare Objektivität und schreiben dann Dinge, die sie eigentlich nicht so schreiben würden, wenn sie ehrlich wären. Z.B. wenn sie sich über irgendetwas geärgert hätten (zB. Preisverfall). Das wird dann aus Gründen der 'Fairness'/'Objektivität' übergangen/ausgeblendet, da ja zu subjektiv / sehr vom Einzelfall abhängig.

Du vergleichst mit 780, ich schreibe dass ich mit der 680 vergleiche
Ich mache das auch - zugegeben um eine Ecke. ;) Ich kenne in etwa das Kräfteverhältnis zwischen 680 und 780. Jetzt kommen die ersten Eckdaten für das Kräfteverhältnis von 780 und 980. Daraus ziehe ich dann meine Schlüsse für 680 <-> 980.
PC-Spiele wie Crysis 3 und Konsolenports sind für Maxwell-Besitzer wohl eher ein Alptraum (in FullHD). :D
Damit meine ich nicht, daß zB. Crysis 3 auf Maxwell schlecht/schlechter aussieht, sondern daß Maxwell dort unter 'herkömmlichen' Spielesettings nur wenig Chancen hat, sich von Kepler abzusetzen. Mit entsprechendem Kepler holt man imo aus der Cryengine schon so ziemlich das Maximum raus unter FullHD.

Man ist für rund eine Woche der King, da einen alle fragen ob man mal dies testen kann oder das ausprobieren kann. Bereits eine Woche später ist man der Dödel, weil der Preis schon nachgelassen hat.
Eine glückliche Woche im Leben. - Das kann dir keiner nehmen. ;)

Vergleicht man die Referenz-680 mit "nur schwach hörbarem Lüfter" und die GTX 980 mit ebenfalls "nur schwach hörbarem Lüfter", ist der Performancegewinn enorm.
Das ist auch um die Ecke konstruiert. Außerdem hängt das stark vom Gehäuse ab. Ein gedämmter Dragon kostet nicht die Welt. ;)
Wenn man wollte, dann könnte man bei einem Anschaffungspreis von 550,-€ die Lautstärke auch mit einem nachträglich wassergekühlten Kepler vergleichen. Oder mit einer Poseidon von ASUS. Aber das sind alles gedankliche Spielereien...

Ich schrieb doch, Maxwell ist Kepler done right.
Was du damit sagen wolltest ist klar. Aber so wie du es schreibst, könnte man auch auf den Gedanken kommen, daß nVidia mit den echten Keplern keinen guten Chip abgeliefert hätte. Im Umkehrschluß wäre dann Kepler ein Maxwell done wrong? ;)
Ich finde, daß ein guter Kepler für die meisten PC-Spiele in FullHD eigentlich schon ein ziemlich gutes Gesamtpaket darstellt. Unter 'nur' FullHD ist selbst mit 'nur' 2GB VRam nach oben nicht mehr viel Raum.

Da müßte schon ein Titel wie Crysis 4 kommen, um mich umzustimmen. Aber danach sieht es momentan ganz und gar nicht aus. Wenn ich die neuesten Spiele 'für PC' *hust* sehe, dann ist plötzlich von 30FPS-Lock und dicken schwarzen Balken in 1080p die Rede. Letzteres ist ja mal ein ganz 'toller' Trick, um ein Spiel selbst auf einer XBOX auf 1080p zu bringen. ;)
Die PC-Version darf dann natürlich auf keinen Fall besser aussehen, als die Konsolenversion...
Besonders dann nicht, wenn heute schon ein unterer Mittelklasse PC/Notebook genügt, um das Spiel besser aussehen zu lassen, als auf Microsofts neuester NexGen-Konsole. :devil:

Cubitus
2014-10-26, 07:18:49
Toller und lesenswerter Beitrag. :)

Und ich bin ebenfalls der Meinung das Nvidia zu stark bei dem Preis zulangt.
Du hast Recht, diese Karte ist keine 8800GTX. Beim G80 war man aber auch bereit teilweise über 600 Euro auszugeben, dafür bekam der anspruchsvolle Anwender dann wirkliches HighEnd.

Ich hoffe auch AMD kommt in die Puschen und setzt Nvidia etwas unter Druck, damit dem Preisdiktat etwas Wind aus den Segeln genommen wird.
Der große Max wird sicherlich sehr teuer...

Witzig finde ich zudem das vollmundig mit DX12 geworben wird. :freak:
Zumindest auf den Verpackungen von Gigabyte und Zotac konnte ich das schon lesen.

DSR+MFAA sind natürlich tolle Features! Nvidia hat ja sonst bei seinen proprietären Techniken ordentlich eingebüßt.

Besonders im Bereich der Exklusivität + Kompatibilität
Im 3D-Land nix neues, Phsyx mau, SLI schwächelt an Profil-Verfügbarkeit, in Verbindung mit Gsync ein weiteres Sorgenkind.

Mal den Jahreswechsel abwarten und schauen was noch kommen wird.
Ich sehe bis jetzt noch keinen Bedarf meine dauerhaft auf 1300Mhz getakteten Tis in Rente zu geben.. Wer eine TI mit 928 Mhz fährt und meint einen neuen Maxwell mit 1200 Mhz betreiben zu müssen........., ist selbst schuld :D;)

aufkrawall
2014-10-26, 10:00:16
Eine 970@1,5Ghz war hier (1440p, 1xAA) etwas schneller in BF4@Ultra als eine 780 Ti @1,24Ghz.
Gibt Fälle, da ist GK110 etwas schneller, oder eben etwas langsamer.
Man darf auch nicht vergessen, wie teilweise enorm GK110 über die Zeit von Treiberupdates profitiert hat. Für GM204 ist da sicherlich in einigen Titeln auch noch Potenzial.

Der Preis ist eigentlich nicht zu hoch, vor GM204 war das P/L-Verhältnis wesentlich schlechter.

aths
2014-10-26, 20:22:32
Das kann ich nachvollziehen, wobei ich mich inzwischen daran gewöhnt habe. Die 680 wird unter Last zwar auch laut - es ist aber noch eher ein angenehmes Rauschen. Bei Resonanzen oder hohen Tönen wäre ich auch schnell genervt gewesen. Vielleicht habe ich auch einfach nur Glück gehabt. In meinem Gehäuse (Dragon) ist die 680 kaum lauter als eine 460.

Ok - es ist also keine richtige Reue, sondern eher die Stimme der Vernunft, die sich meldet. :D

Das finde ich ok. Manche bemühen sich um scheinbare Objektivität und schreiben dann Dinge, die sie eigentlich nicht so schreiben würden, wenn sie ehrlich wären. Z.B. wenn sie sich über irgendetwas geärgert hätten (zB. Preisverfall). Das wird dann aus Gründen der 'Fairness'/'Objektivität' übergangen/ausgeblendet, da ja zu subjektiv / sehr vom Einzelfall abhängig.
Meine 680 hat gute Dienste geleistet.

Witzigerweise hatte ich jetzt einige Grakas mit 2x6-Pin-Anschluss: GTX 285, 680, jetzt 980. Was mich an der 980 fasziniert, sind die Zweiterpotenzen: 2048 Rechenwerke, 256 Speicher-Leitungen, 128 Texturfilter, 64 Raster-Operationen, 2 MiB Cache. Klingt komisch, aber diese geraden Zahlen waren mit ein Kaufgrund. Und der Graka-Speicher taktet mit 3,5 GHz so schnell wie meine CPU.

Zur Nvidia-Verkaufspsychologie gehört wahrscheinlich auch das Kühler-Design der Referenzkarte. Die Karte sieht hochwertig aus.

Ich mache das auch - zugegeben um eine Ecke. ;) Ich kenne in etwa das Kräfteverhältnis zwischen 680 und 780. Jetzt kommen die ersten Eckdaten für das Kräfteverhältnis von 780 und 980. Daraus ziehe ich dann meine Schlüsse für 680 <-> 980.
PC-Spiele wie Crysis 3 und Konsolenports sind für Maxwell-Besitzer wohl eher ein Alptraum (in FullHD). :D
Damit meine ich nicht, daß zB. Crysis 3 auf Maxwell schlecht/schlechter aussieht, sondern daß Maxwell dort unter 'herkömmlichen' Spielesettings nur wenig Chancen hat, sich von Kepler abzusetzen. Mit entsprechendem Kepler holt man imo aus der Cryengine schon so ziemlich das Maximum raus unter FullHD.Jetzt raffe ich, wie du das gemeint hattest.

Die 780 Ti ist im Vergleich zur 770, die wiederum etwa schneller ist als eine 680, laut Computerbase-Rating ca. 46-50% schneller, natürlich mit Antialiasing. Das Erstaunliche aus meiner Sicht ist, dass die 980, obwohl sie nur ein 256-Bit-Interface hat, sich auch mit Antialiasing gegen eine 780 Ti knapp behauptet, die 980 ist (erneut laut CB) 7-10% schneller.

Für Crysis 3 legt dieses Video nahe, dass die 980 fast durchgehend stabile 60 fps hat, während die 780 Ti öfter mal darunter liegt: https://www.youtube.com/watch?v=JalO4oHjhQA

Eine glückliche Woche im Leben. - Das kann dir keiner nehmen. ;)

Das ist auch um die Ecke konstruiert. Außerdem hängt das stark vom Gehäuse ab. Ein gedämmter Dragon kostet nicht die Welt. ;)
Wenn man wollte, dann könnte man bei einem Anschaffungspreis von 550,-€ die Lautstärke auch mit einem nachträglich wassergekühlten Kepler vergleichen. Oder mit einer Poseidon von ASUS. Aber das sind alles gedankliche Spielereien...

Was du damit sagen wolltest ist klar. Aber so wie du es schreibst, könnte man auch auf den Gedanken kommen, daß nVidia mit den echten Keplern keinen guten Chip abgeliefert hätte. Im Umkehrschluß wäre dann Kepler ein Maxwell done wrong? ;)
Ich finde, daß ein guter Kepler für die meisten PC-Spiele in FullHD eigentlich schon ein ziemlich gutes Gesamtpaket darstellt. Unter 'nur' FullHD ist selbst mit 'nur' 2GB VRam nach oben nicht mehr viel Raum.
Das Gute an der 980 ist, dass man ohne Wakü oder weitere Modifikation an der Karte oder am Computergehäuse die gebotene Leistung ohrenschonend serviert bekommt. Ich hatte mit der 680 zum Beispiel die Framerate im Starcraft-2-Menü auf 40 fps begrenzt, um den Lüfter im Zaum zu halten.

Die 780 ohne Ti hatte ich noch gebenchmarkt (arbeitete damals bei Point of View) und während die Grundleistung keine neuen Maßstäbe setze, war die Karte mit hohen Settings und Antialiasing einfach souveräner als die 680.

Maxwell sehe ich nicht als neue Architektur, die Kepler-Abstammung ist deutlich zu erkennen. Nvidia hat offenkundig Wege gefunden, die Parallelisierung noch zu steigern und die Leerzyklen zu minimieren und die externe Speicheranbindung zu optimieren. In diesem Sinne sehe ich Maxwell als Kepler done right.

aths
2014-10-27, 00:08:13
Toller und lesenswerter Beitrag. :)

Und ich bin ebenfalls der Meinung das Nvidia zu stark bei dem Preis zulangt.
Du hast Recht, diese Karte ist keine 8800GTX. Beim G80 war man aber auch bereit teilweise über 600 Euro auszugeben, dafür bekam der anspruchsvolle Anwender dann wirkliches HighEnd.
Die Karte dann noch 980 zu nennen (statt 880) ist auch der Hammer.

Immerhin kann ich mit dem Teil die Leistung sorglos abrufen: Auch wenn die GPU am Anschlag ist, bleibt der Lüfter erträglich.

Ich hoffe auch AMD kommt in die Puschen und setzt Nvidia etwas unter Druck, damit dem Preisdiktat etwas Wind aus den Segeln genommen wird.
Der große Max wird sicherlich sehr teuer...

Witzig finde ich zudem das vollmundig mit DX12 geworben wird. :freak:
Zumindest auf den Verpackungen von Gigabyte und Zotac konnte ich das schon lesen.Ich glaube im Moment setzt eher Nvidia ATI unter Druck – mit der 970.

Auf meiner Packung (Gigabyte) steht auch was von DirectX 12. Nvidia nimmt es hier ohnehin gerne sehr großzügig: Die Kepler-Karten werden als "11.2" beworben, irgendwo steht klein dass es nur um die API geht, das Feature-Level steht auf Profil 11_0.

Kornflakes
2014-11-03, 15:05:02
Herr aths, im Namen einer deutlichen Mehrheit der 3Dcenter Community verlange ich den großen 3D Bildqualitätsverbessungstest. Das sorgt für massig Klicks, trifft das Herz der meisten User und macht Leo glücklich. Was ich mir vorstelle wäre eine Übersicht über aktuelle DO´s und DONT´s um ein bestehendes Spiel qualitativ zu verbessern. Mich nervt das Flackern der Texturen in Spielen, aber ich bin eben kein 3Dc Pro und kenne mich damit aus. Ich schalte einfach auf hohe Qualität und hoffe auf ein gutes Bild.

aufkrawall
2014-11-03, 15:16:55
Hoffnung ist in dem Fall alles.

occ-kh@Mirko
2014-11-03, 19:47:20
Nvidia nimmt es hier ohnehin gerne sehr großzügig: Die Kepler-Karten werden als "11.2" beworben, irgendwo steht klein dass es nur um die API geht, das Feature-Level steht auf Profil 11_0.
Eigentlich nicht wenn man das hier auseinander friemelt.
Microsoft DirectX 11.1 API-Unterstützung (unterstützt Level 11_0)
Wo hast du das gelesen? Auf den Kartons hier steht es nicht. In der dxdiag wird nur 11.0 angegeben. Im Treiber wird lediglich die Direct3D-API Version angegeben die dieser unterstützt (Basis), darunter steht die 3D-Level-Version der Hardware.

Systemsteuerung öffnen/Hilfe/Systeminformationen. Die bedienen sich dessen, was M$ zulässt.

aths
2014-11-04, 01:31:47
Herr aths, im Namen einer deutlichen Mehrheit der 3Dcenter Community verlange ich den großen 3D Bildqualitätsverbessungstest. Das sorgt für massig Klicks, trifft das Herz der meisten User und macht Leo glücklich. Was ich mir vorstelle wäre eine Übersicht über aktuelle DO´s und DONT´s um ein bestehendes Spiel qualitativ zu verbessern. Mich nervt das Flackern der Texturen in Spielen, aber ich bin eben kein 3Dc Pro und kenne mich damit aus. Ich schalte einfach auf hohe Qualität und hoffe auf ein gutes Bild.
Die optimale Einstellung ist von Spiel zu Spiel unterschiedlich, man kann leider nicht einfach ein Rezept angeben.

Manchmal ist das Ingame-Antialiasing ausreichend. Manchmal sollte man via Treiber Multisampling zuschalten.

Generell ist Sparse-Grid-Supersampling (nur mit Dritt-Tools möglich) qualitätsmäßig besser, aber auch deutlich teurer. Und für viele Spiele muss man erst die notwendigen AA-Bits herausfinden, damit es optimal, oder überhaupt erst läuft.

Wenn alle Stricke reißen, bleibt DSR. Aber das geht krass auf die Framerate. Je nach dem, wie das Font-Rendering im User-Interface des Spiels ist, kann man einen größeren oder kleineren Smoothness-Faktor nehmen.

MFAA bringt in einige Spiele unschöne Artefakte und ist in der jetzigen inoffziellen Implementierung defakto unbrauchbar, in anderen Spielen ist es eine wundersame AA-Verdopplung fast ohne fps-Verlust.

FXAA, in fast allen Spielen möglich (aber in Shadow of Mordor zum Beispiel ohne Auswirkung) verschmiert oft das User-Interface, kann je nach Spiel aber insgesamt brauchbar sein


Was Texturqualität angeht, profitieren einige Games nach wie vor von per Treiber eingestelltem 16x AF. Andere Spiele werden damit spürbar langsamer, ohne gleichwertige sichtbare Qualitätsverbesserung.

aths
2014-11-04, 01:35:45
Eigentlich nicht wenn man das hier auseinander friemelt.

Wo hast du das gelesen? Auf den Kartons hier steht es nicht. In der dxdiag wird nur 11.0 angegeben. Im Treiber wird lediglich die Direct3D-API Version angegeben die dieser unterstützt (Basis), darunter steht die 3D-Level-Version der Hardware.

Systemsteuerung öffnen/Hilfe/Systeminformationen. Die bedienen sich dessen, was M$ zulässt.
http://www.computerbase.de/2012-11/nvidias-kepler-gpus-unterstuetzen-directx-11.1-nur-zum-teil/

Als ich bei Point of View gearbeitet hatte und die GTX 780 rauskam, bekamen wir von Nvidia unter anderem vor, dass die DirectX 11.1-API unterstützt wird. Technisch gesehen ist das korrekt, aber von Nvidia verwirrend formuliert.

Inzwischen wird es noch verwirrender angegeben, Beispiel GTX 780: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-780/specifications

"Microsoft DirectX 11.2 API 11"

Gast
2014-11-04, 21:23:13
Die optimale Einstellung ist von Spiel zu Spiel unterschiedlich, man kann leider nicht einfach ein Rezept angeben.
Es ist zudem ein Unterschied ist, ob man, bei der Bewertung von AA als 'qualitätssteigernd', stehende Bilder oder bewegte Sequenzen heranzieht.

Spiele, wo AA imo sinnvoll sein kann:
Flipper wie zB. FX2. Dort ist der Fokus des Spielers häufig auf ruhende Hintergründe gerichtet, da sich je nach Blickwinkel nur der Ball bewegt.

Spiele, wo AA imo keinen Sinn macht:
Actiontitel wie zB. Metro LL. Dort wird durch starke optische Einschränkungen bewußt Atmosphäre erzeugt: Sicht auf die Spielwelt auf eine von innen beschlagene Gasmaske. Da braucht es einfach kein AA mehr.

Ich bin nicht überzeugt von AA. Es frißt oft Leistung ohne erkennbaren Mehrwert für den Spieler. Wer hat ingame denn schon die Zeit dazu, sich an der Grafik zu berauschen? Selbst bei Quicktime-Events schauen die meisten doch auf alles andere, als den Hintergrund.

Wenn die Pixel am TFT so groß sind, daß man unter FullHD noch Treppchen sieht, sollte man vielleicht nicht gerade mit dem Augapfel auf dem Panel kleben. Einfach den Stuhl einen halben Meter zurückschieben und schon sieht das ganz anders aus. Wahlweise kann man sich auch einfach ein TFT mit kleineren Pixeln und kleinerem Pixelabstand gönnen.

................................................................................ ..............................

Zum Thema DirectX12 auf Featurelevel 11.0:
Solange es kein Spiel gibt, welches auf einer DX11 Karte nicht mehr startet, interessiert es 90% der Spieler nicht, was hinten auf dem Karton steht. Und das braucht es imo auch nicht. Was ist denn so tolles an DX12, daß man es unbedingt haben will? Ich frage dies aus Sicht eines Gamers mit potenter DX11 Hardware.
Der von dir verlinkte CB-Artikel bringt es so ziemlich auf den Punkt. Alles, was mit 2D-Rendering in Zusammenhang steht, ist für Spieler doch vollkommen uninteressant. Schriftenglättung und Smooth-Scrolling im Browser. Das schaffen selbst die ältesten AMD-CPUs mit 2 Kernen schon heute auch ohne, daß am PC die Grafikkarte aushelfen müßte. Was bringen denn solche DX12-Features den Leuten, die 'schon heute' über einen Quadcore verfügen, der sowas ohne mit der Wimper zu zucken in Software emulieren kann?

Ich weiß es nicht.

Meine Meinung:
Die Ankündigung von DX12 steht in unmittelbarem Zusammenhang mit der sehr dürftigen Performance der XB1 unter FullHD. DX12-Hardware und das zwingend dazugehörige DX12-OS sind in meinen Augen nichts weiter, als der Versuch die PC-Gamer weltweit nachträglich für eklatante Fehlentscheidungen des XB1-Managements zur Kasse zu bitten.

Bevor auch nur ein einziger PC-Besitzer in den Genuß verringerter Drawcalls kommt, muß er M$ erst alles abkaufen, was die dort aus der verschmähten Windows 8-Wundertüte noch alles so rumliegen haben.... und die Kosten von der Vernichtung Nokias und zigtausenden Arbeitsplätzen müssen auch noch von uns PC-Gamern mit abbezahlt werden. ;)

Ich frage mich, wen sie mit den Einnahmen aus Windows 10 vernichten werden. Hoffentlich Apple. [/sarcasm]

aths
2014-11-06, 13:41:52
Es ist zudem ein Unterschied ist, ob man, bei der Bewertung von AA als 'qualitätssteigernd', stehende Bilder oder bewegte Sequenzen heranzieht.

Spiele, wo AA imo sinnvoll sein kann:
Flipper wie zB. FX2. Dort ist der Fokus des Spielers häufig auf ruhende Hintergründe gerichtet, da sich je nach Blickwinkel nur der Ball bewegt.

Spiele, wo AA imo keinen Sinn macht:
Actiontitel wie zB. Metro LL. Dort wird durch starke optische Einschränkungen bewußt Atmosphäre erzeugt: Sicht auf die Spielwelt auf eine von innen beschlagene Gasmaske. Da braucht es einfach kein AA mehr.Ich kenn jetzt nur Metro 2033, dort braucht es definitiv AA.

Dort funktioniert auch MFAA, allerdings ist das Ingame-4x-MSAA insgesamt schon okay. Für 4x DRS reicht die Leistung leider nicht.

Ich bin nicht überzeugt von AA. Es frißt oft Leistung ohne erkennbaren Mehrwert für den Spieler. Wer hat ingame denn schon die Zeit dazu, sich an der Grafik zu berauschen? Selbst bei Quicktime-Events schauen die meisten doch auf alles andere, als den Hintergrund.

Wenn die Pixel am TFT so groß sind, daß man unter FullHD noch Treppchen sieht, sollte man vielleicht nicht gerade mit dem Augapfel auf dem Panel kleben. Einfach den Stuhl einen halben Meter zurückschieben und schon sieht das ganz anders aus. Wahlweise kann man sich auch einfach ein TFT mit kleineren Pixeln und kleinerem Pixelabstand gönnen.Das ist nicht effizient. Anti-Aliasing kostet für die wahrgenommene Qualität weniger, als zusätzliche Pixel im rechtwinkligen Raster zu berechnen. Die Bildqualität ergibt sich nicht einfach aus der Pixeldichte, sondern der Informationsdichte. Das Pixel ist zwar der elementare Informationsträger, die Frage ist jedoch, wie viel Information drin steckt.


Zum Thema DirectX12 auf Featurelevel 11.0:
Solange es kein Spiel gibt, welches auf einer DX11 Karte nicht mehr startet, interessiert es 90% der Spieler nicht, was hinten auf dem Karton steht. Und das braucht es imo auch nicht. Was ist denn so tolles an DX12, daß man es unbedingt haben will? Ich frage dies aus Sicht eines Gamers mit potenter DX11 Hardware.
Der von dir verlinkte CB-Artikel bringt es so ziemlich auf den Punkt. Alles, was mit 2D-Rendering in Zusammenhang steht, ist für Spieler doch vollkommen uninteressant. Schriftenglättung und Smooth-Scrolling im Browser. Das schaffen selbst die ältesten AMD-CPUs mit 2 Kernen schon heute auch ohne, daß am PC die Grafikkarte aushelfen müßte. Was bringen denn solche DX12-Features den Leuten, die 'schon heute' über einen Quadcore verfügen, der sowas ohne mit der Wimper zu zucken in Software emulieren kann?Was du jetz für sinnvoll erachtest oder nicht, hat doch nichts mit der Frage zu tun, ob technische Spezifikationen möglichst klar formuliert werden sollten oder ob man ein Auge zudrückt, wenn eine Firma versucht, den Anschein zu erwecken, up-to-date zu sein obwohl eben nicht die aktuellsten Features implementiert sind.

y33H@
2014-11-06, 16:21:38
Die Hersteller-Logos sieht übrigens jeder ;)

aufkrawall
2014-11-06, 16:23:48
Ich kenn jetzt nur Metro 2033, dort braucht es definitiv AA.

Dort funktioniert auch MFAA, allerdings ist das Ingame-4x-MSAA insgesamt schon okay.
Das versagt doch bei so ziemlich jeder Lichtquelle...
Nun auch egal, im Redux gibts SSAA + Post.

-/\-CruNcher-/\-
2014-11-07, 01:14:53
Es ist zudem ein Unterschied ist, ob man, bei der Bewertung von AA als 'qualitätssteigernd', stehende Bilder oder bewegte Sequenzen heranzieht.

Spiele, wo AA imo sinnvoll sein kann:
Flipper wie zB. FX2. Dort ist der Fokus des Spielers häufig auf ruhende Hintergründe gerichtet, da sich je nach Blickwinkel nur der Ball bewegt.

Spiele, wo AA imo keinen Sinn macht:
Actiontitel wie zB. Metro LL. Dort wird durch starke optische Einschränkungen bewußt Atmosphäre erzeugt: Sicht auf die Spielwelt auf eine von innen beschlagene Gasmaske. Da braucht es einfach kein AA mehr.

Ich bin nicht überzeugt von AA. Es frißt oft Leistung ohne erkennbaren Mehrwert für den Spieler. Wer hat ingame denn schon die Zeit dazu, sich an der Grafik zu berauschen? Selbst bei Quicktime-Events schauen die meisten doch auf alles andere, als den Hintergrund.

Wenn die Pixel am TFT so groß sind, daß man unter FullHD noch Treppchen sieht, sollte man vielleicht nicht gerade mit dem Augapfel auf dem Panel kleben. Einfach den Stuhl einen halben Meter zurückschieben und schon sieht das ganz anders aus. Wahlweise kann man sich auch einfach ein TFT mit kleineren Pixeln und kleinerem Pixelabstand gönnen.

................................................................................ ..............................

Zum Thema DirectX12 auf Featurelevel 11.0:
Solange es kein Spiel gibt, welches auf einer DX11 Karte nicht mehr startet, interessiert es 90% der Spieler nicht, was hinten auf dem Karton steht. Und das braucht es imo auch nicht. Was ist denn so tolles an DX12, daß man es unbedingt haben will? Ich frage dies aus Sicht eines Gamers mit potenter DX11 Hardware.
Der von dir verlinkte CB-Artikel bringt es so ziemlich auf den Punkt. Alles, was mit 2D-Rendering in Zusammenhang steht, ist für Spieler doch vollkommen uninteressant. Schriftenglättung und Smooth-Scrolling im Browser. Das schaffen selbst die ältesten AMD-CPUs mit 2 Kernen schon heute auch ohne, daß am PC die Grafikkarte aushelfen müßte. Was bringen denn solche DX12-Features den Leuten, die 'schon heute' über einen Quadcore verfügen, der sowas ohne mit der Wimper zu zucken in Software emulieren kann?

Ich weiß es nicht.

Meine Meinung:
Die Ankündigung von DX12 steht in unmittelbarem Zusammenhang mit der sehr dürftigen Performance der XB1 unter FullHD. DX12-Hardware und das zwingend dazugehörige DX12-OS sind in meinen Augen nichts weiter, als der Versuch die PC-Gamer weltweit nachträglich für eklatante Fehlentscheidungen des XB1-Managements zur Kasse zu bitten.

Bevor auch nur ein einziger PC-Besitzer in den Genuß verringerter Drawcalls kommt, muß er M$ erst alles abkaufen, was die dort aus der verschmähten Windows 8-Wundertüte noch alles so rumliegen haben.... und die Kosten von der Vernichtung Nokias und zigtausenden Arbeitsplätzen müssen auch noch von uns PC-Gamern mit abbezahlt werden. ;)

Ich frage mich, wen sie mit den Einnahmen aus Windows 10 vernichten werden. Hoffentlich Apple. [/sarcasm]

Du kennst anscheinend kein Specular Aliasing naja du wirst es noch vermehrt kennen lernen ;)

Gast
2014-11-19, 19:43:51
Als ich am Launch-Tag auf den Button klickte, um die GTX 980 zu bestellen, war mir klar, dass ich die 549 Euro schon bald bereuen würde. Erstens brauche ich diese Leistung nicht und zweitens ist der Preis reiner Wucher, im Fast-High-End-Bereich.

Was bringt die Karte nun?


Supersampling und Downsampling – der Weg zur Extra-Qualität

Wer oldschool von der Voodoo 4/5 kommt, will das wahre Antialiasing: Supersampling.

Für Supersampling braucht man entweder das Nvidia-SSAA-Tool, oder ein Drittprogramm wie den Nvidia Inspector. Die Option ist seit vielen Geforce-Generationen verfügbar, aber Supersampling lastet die GPU so gut aus, dass bei den bisherigen Referenz-Karten der Lüfter nervte. Jetzt mit der GTX 980 wird Supersampling endlich ohne Hörschutz nutzbar, denn auch unter Volllast hält sich die Leistungsaufnahme in Grenzen.

Eine andere Art des Supersamplings ist das Rendern in höherer Auflösung als der Monitor darstellen kann und anschließendem Herunterskalieren auf die Monitorauflösung. Für dieses Downsampling braucht man nicht mehr herumfrickeln, die Option ist nun direkt im Treiber. Damit wird alles glatt, auch die wenigen Stellen die das normale Supersampling übersieht. Dank Smoothness-Option beim Downsampling ist das gesamte Bild sehr gut, ohne störende Einzelpixel. Hat man sich einmal daran gewöhnt, wie ruhig das gesamte Bild sein kann, will man nicht mehr zurück.

In Skyrim lässt sich Downsampling sinnvoll mit Multisampling und Transparenz-Antialiasing kombinieren. Die Leistung ist bei einem 1920-er Monitor dafür locker da. Wasser-Darstellung und die Bäume gewinnen deutlich, erst mit Downsampling fällt auf dass es vorher doch ziemlich geflimmert hat.

Spiele, die mit herkömmlichen Einstellungen bereits genug geglättet sind, wie The Stanley Parable, sehen mit DSR (so die Downsampling-Bezeichnung im Treiber) dann doch noch einen Tick besser aus. Der Vollbildglättungseffekt verwöhnt das Auge, man wird empfindlich für kleinste Stör-Pixel.

Das DSR-Feature hat ein Problem – die Mausgeschwindigkeit. Ich kann meine Razer von 1800 dpi (meine Standard-Einstellung) auf 3500 dpi hochschalten, also fast doppelt so schnell machen. Das gleicht bei 2x2 = 4x-DSR die Maus fast komplett aus. Nur mit schneller Maus ist DSR sinnvoll nutzbar.


Minus mal Minus ergibt Plus?

Downsampling geht mit der Leistung verschwenderisch um. FXAA ist kein echtes Antialiasing, nur ein Postfilter. Beides zusammen hingegen ergänzt sich besser als man denkt. Denn mit Downsampling wird FXAA vom Postfilter zum Prefilter.

Wenn es für 4x DSR performancetechnisch nicht reichen sollte und man ein kleineres DSR-Level verwendet, ist irgendein anderes zusätzliches Antialiasing zwingend notwendig, um halbwegs glatte Kanten zu bekommen. Das kann 2x Multisampling sein. Im Notfall kann es Treiber-FXAA sein.

Diese Kombination bringt sowohl vorgetäuschtes als auch echtes Antialiasing gleichzeitig in Spiele, die von Haus aus gar kein AA unterstützen. Die Schwäche bei FXAA+DSR sind Winkel um nahezu 90°. Hier bleiben Hüggel. Sofern angeboten, wäre Ingame- oder Treiber-AA vorzuziehen, da es bessere Qualität liefert.


Einsatzgebiete für Downsampling

In alten Spielen ist für DSR immer genug Leistung da. Doom 3 sieht sowohl in der Original-Version, als auch in der BFG-Version mit DSR besser aus, da dünne Objekte besser geglättet werden und das Moiré-Muster einiger Bodentexturen nicht mehr so ins Auge springt.

Grafisch eher anspruchslose Games wie Prison Architect, oder Not The Robots packen 4x DSR spielend und wirken noch mal einen Zacken schöner als in Standard-Auflösung.

Problematisch sind alle Spiele, dessen User-Interface nicht mit der Auflösung skaliert. Civilization V ist hier ein Kandidat, bei dem DSR nicht viel Sinn ergibt. Tropico 4 könnte über das im Spiel einstellbare Antialiasing hinaus eine weitere Glättung wirklich gebrauchen, doch das Spiel wird mit dem kleinen Interface schwerer zu bedienen.

Zwar ist die Leistung für alte Spiele immer da, doch Games mit festem 4:3-Bildformat lassen sich auf einem Breitformat-Bildschirm mit DSR nicht sinnvoll aufwerten, da die Zusatz-Auflösungen immer nur für das native Monitor-Seitenformat angelegt werden.


MFAA

Supersampling berechnet das ganze Bild in höherer Auflösung, Multisampling lediglich die Geometrie. Der bisherige Weg von Geforce-Karten, mehr Antialiasing-Qualität zu bieten ohne zusätzliche Multisamples berechnen zu müssen, waren Coverage-Samples, die nur noch Dreiecks-Bedeckungsinformation speichern. Diese Coverage-Samples müssen ohne Tiefen-Information auskommen, weshalb bei ungünstiger Dreiecks-Sortierung die tatsächliche Glättung auf den zugrunde liegenden Multisampling-Anteil zurückgeht.

Die neuen Nvidia-Karten ersetzen diese Methode mit Multi-Frame-Antialiasing. Es werden weiterhin volle Multisamples berechnet, diese aber in jedem zweiten Frame leicht verschoben. MFAA scheint dabei nicht nur pro Frame, sondern auch pro Pixel zu alternieren. So entsteht auch in einem einzelnen Frame eine Zwischenstufe – als Raster.

Die Grafikkarte sucht bei aktiviertem MFAA im fertigen Bild nach Rastern und vergleicht mit dem vorherige Bild, ob dort ein Gegenraster vorkommt. Wenn ja, werden die Raster zusammengerechnet und man sieht auf dem Monitor eine herkömmliche Zwischenstufe.

In Bewegung bleibt das Raster sichtbar, in Ruhe erscheint das Bild als hätte es normales Antialiasing.

MFAA lässt sich mit Downsampling kombinieren. Beides ergänzt sich exzellent: 4x-Downsampling bietet pro Achse nur 2x-Glättung. MFAA bringt beinahe ohne Kosten pro Achse die doppelte Glättung. Das heißt, mit 4x DSR und MFAA hat man pro Achse eine 4x-Glättung. Die erwähnten MFAA-Rasterartefakte in Bewegung sind kaum noch sichtbar.

MFAA ist nur bei 40 fps oder mehr möglich, da der Treiber diesen Modus bei zu niedriger Framerate automatisch abschaltet. Erreicht die Framerate wieder 40 fps oder mehr, wird MFAA wieder aktiv.


Leistung

Die Star-Citizen-Alpha, auf der GTX 680 im Hangar noch grenzwertig, ist mit der 980 deutlich flüssiger. Hier scheint die Mehrleistung 1:1 umgesetzt zu werden, der Unterschied im Herumgeh-Gefühl (spielen kann man im Hangar ja nicht) ist beträchtlich. Dank Downsampling kann man auch 3840x2400 einstellen. Das Bildflimmern nimmt ab, doch die Grafik wird so zäh dass es mit der GTX 980 in dieser Auflösung keinen Spaß mehr macht.

Exemplarisch für ein neues Spiel darf Shadow of Mordor herhalten. Zunächst werden eine Reihe Logos eingeblendet, ich hoffe dass die Nvidia-Werbung nicht auch ATI-Besitzern angezeigt wird. Dann wird man mit einem Aufgebot an irgendwelchen Technologie-Logos erschlagen – inklusive Speedtree.

Technisch gesehen ist das Spiel modern, sofern man davon absieht dass Schattenränder unrealistisch scharf sind, und dass keine herkömmliche Kantenglättung geboten wird.

Für schwächere Systeme hat das Spiel die Option, zwar das Interface weiterhin in voller Auflösung anzuzeigen aber die 3D-Szene in geringerer Auflösung zu rendern um die Szene dann hochzuskalieren. Wer einen 3,8-k-Monitor hat (4k haben ja die wenigsten) wird die Option zu schätzen wissen, um in spielbare fps-Bereiche zu gelangen.

Meine native Monitor-Auflösung von 1920x1200 packt die GTX 980 mühelos. Eingebautes Downsampling steht auch zur Auswahl: 150% und 200%. Bereits 150%, also eine 2880-er Auflösung, lässt die Grafik hakelig werden. Zusätzliches DSR via Treiber ist auch möglich.

Was hat es nun mit den ominösen HD-Texturen auf sich, die 6 GB Grafikspeicher voraussetzen sollen? Bereits mit High-Texturen belegt das Spiel auf der Grafikkarte knapp 3 GB Speicher. Mit Ultra-Texturen sind es knapp 4 GB. Der eigebaute Benchmark zeigt, dass mit Ultra-Texturen die Frameraten zum Glücksspiel werden. Manchmal sind es unter 70 fps, manchmal knapp 80. Bei High-Texturen ist die Streuung deutlich kleiner, es geht von 80 bis 82 fps.

Auf generellen Very-High-Settings (statt Ultra) gehen in 1920x1200 die Frames auf fast 100 fps hoch. Schaltet man eine 3840-er Auflösung an, sind es nur noch gut 30 fps.

Der Mittelweg, 2880x1800, ist im Spiel nicht mehr durchgängig flüssig. Auch der Benchmark zeigt das mit 45 fps (Ultra-Settings) bzw. 50 fps (Very-High-Settings.) Da hat man nun die GTX 980 gekauft und muss Shadow of Mordor ohne Antialiasing spielen? Nein – MFAA sei Dank. MFAA auf Antialiasing-off-Grundlage bringt 2x-Glättung. Die MFAA-Rasterartefakte fallen kaum auf, die erworbene Glättung ist ein Segen.


Grenzen

Der Grafikkarten-Packungstext mit den von Nvidia vorgegebenen Inhalten behauptet, die Karte sei doppelt so schnell wie die vorherige Generation. Nicht nur, dass man lediglich über ein Sternchen kleingedruckt findet, dass hier unter der vorherigen Generation nur die 680 zu verstehen ist – die Aussage kommt trotzdem nicht hin. Real sind es um die 50 Prozent plus zur GTX 680.

Entgegen meinem Ersteindruck schafft es die GTX 980 doch nicht, auf Maximaldetails stabile 60 fps zu halten, wenn man in Starcraft 4x-MSAA zuschaltet.

Verzichtet man auf Antialiasing, aber dreht man die Grafik ansonsten voll auf, wird Max Payne 3 mit 4xDSR ruckelig. Diablo 3 läuft bei 4x DSR ebenfalls nicht durchgehend mit 60 fps. Kleinere DSR-Faktoren sehen gerade in Diablo nicht gut aus.

Die Karte ist nicht die Radeon 9700 ihrer Zeit, oder die GTX 8800.


Übertaktung

Zunächst die wichtigste Frage: Limitiert das Speicher-Interface? Je nach Anwendung ja, oder nein. Die echtzeitgerenderten Starcraft-2-Kampagnengebiete wie das Raumschiff sind bei vollem Detailgrad, also mit aktiviertem Ambient Occlusion, komplett speicherbandbreitenlimitiert. Der 3DMark hingegegen reagiert noch gut auf die GPU.

Zum Übertakten habe ich das Powertarget immer auf das Maximum, also 125% gezogen. Man darf sich von Benchmarks nicht trollen lassen: Mit +240 MHz GPU-Takt erhalte ich über 1500 MHz real anliegenden Takt. Es gibt Grafikfehler, aber der Benchmark läuft durch. Spannungserhöhung bringt keine Vorteile: Es kommen trotzdem Artefakte ab 1500 MHz, und die sind sogar stärker.


Standard-Takt: Graphics Score 5986, Physics Score 9215, Combined Score 2615
Robuster OC-Takt: Graphics Score 6688, Physics Score 9275, Combined Score 2888
Cheat-OC-Takt: Graphics Score 6941, Physics Score 9255, Combined Score 3053 (Benchmark läuft noch durch, es gibt aber Grafikfehler)


+180 MHz eingestellter Takt läuft auf 1466 MHz GPU-Takt heraus. Das ist bei meiner Karte grafikfehlerfrei. Im Dauereinsatz würde nur +140 MHz fahren, was in einem Takt von knapp oberhalb 1400 MHz resultiert.

Der Speicher lässt +400 MHz zu, würde also auf 3900 MHz laufen. Real würde ich den aber nur auf 3800 MHz stellen, um einfach noch die Sicherheit zu haben. Das OC von +140/+300 nenne ich in der Tabelle "robust"

An zusätzlichen Frames oder 3DMark-GPU-Punkten bringt das Übertakten bei stabilen Einstellungen zwischen zehn und elf Prozent real mehr Leistung. Der Lüfter dreht dabei bis auf 63%. Das sind mir die 10% Leistung nicht wert. Die Karte nutze ich im Alltag komplett ohne Übertaktung und ohne Powertarget-Erhöhung.


Lautstärke

Erst im Sommer wird man die Grafikkarte komplett beurteilen können. Der Lüfter lässt sich natürlich auch manuell setzen, dann sieht es so aus:

 26% - 1115 U/min (Mindesteinstellung. Karte praktisch nicht zu hören.)
 30% - 1223 U/min
 40% - 1662 U/min (Sehr leises Geräusch, wenn es im Zimmer wirklich still ist.)
 50% - 2063 U/min (Karte wird hörbar)
 60% - 2480 U/min (Kartengeräusch als Lüftergeräusch zu hören)
 70% - 2932 U/min (Hochfrequenter Anteil wird hörbar)
 80% - 3323 U/min (es kommt Druck in das Geräusch)
 90% - 3745 U/min (der hochfrequente Anteil wird lauter)
100% - 4160 U/min ("Dssssschshchschssssschschsch")

Bislang habe ich mit dem Referenz-Takt die Karte nur auf 52% Lüfter bekommen. Das ist nicht laut, aber schon hörbar. Mit eigener Lüfterkennlinie, zum Beispiel via MSI Afterburner 4.0, lässt sich der Lüfter auf nur 43% betreiben ohne dass sich die GPU-Temperatur erhöht. 43% ist, wenn es ansonsten leise ist im Zimmer, auch noch zu hören, aber für eine Luftkühlung trotzdem fantastisch.


Technik

Die ganzen Computing-Fähigkeiten des GM204 dürften für die meisten Gamer unwichtig sein. Architektur-Details, wie die Zusammenlegung von L1-Cache und Textur-Cache, weisen natürlich darauf hin dass immer mehr dedizierte Blöcke in allgemeiner verwendbare Funktionen umgewandelt werden.

Bandbreite ist bei Grafikkarten in aller Regel der Flaschenhals. Z-Werte, also Tiefen-Informationen, werden seit GeForce 3 komprimiert – seit über 13 Jahren. Die Komprimierung spart keinen Platz im Grafikspeicher, da für die lineare Adressierung weiterhin der volle Speicher allokiert wird. Es spart aber Bandbreite, da das Frame in in kleine Kacheln unterteilt wird und eine solche Kachel einzeln komprimiert werden kann.

Bei Z-Werten ist damit zu rechnen, dass über mehrere Pixel die Z-Wert-Änderung gleichbleibend ist, was sich gut komprimieren lässt. Wie sieht es mit Farbkomprimierung aus?

Bei aktivem Multisampling haben alle Subpixel, durch die keine Dreiecks-Kante geht, denselben Farbwert. Das lässt sich recht einfach komprimieren. Erst jetzt, beim Maxwell-2.0-Release, wird Nvidia deutlicher dass Fermi bereits Delta-Komprimierung beherrschen soll. Das heißt, wenn sich die Farbe über einige Pixel nur wenig ändert, ist das ebenfalls komprimierbar. Gegenüber Kepler, der mit Fermi hier wohl gleichzieht, will Nvidia mit Maxwell nun auch ohne Antialiasing eine brauchbare Farbkomprimierung entwickelt haben und einen erhöhten Rohdatendurchsatz von durchschnittlich 25% erreichen. Leider sind die Unterlagen dazu dürr.

Wir dürfen davon ausgehen, dass die Farbkomprimierung in zukünftigen GPUs verfeinert wird. Da die im Hintergrund stehende Technik einfach sein muss, ist die Komprimierung darauf angewiesen, dass in dieser Bildkachel die meisten Pixel die ungefähr gleiche Farbe haben. Die Frage ist, ob einige Ausreißer-Pixel, die sich stark unterscheiden, bereits die Komprimierung der ganzen Kachel verunmöglichen, oder ob der Platz da ist, einige sich farblich stark abgrenzende Pixel mitzunehmen. Allgemein gilt: Je höher die Bildschirmauflösung, desto höher die Chance auf Komprimierbarkeit.

Der zweite Weg den Maxwell geht, sind große Caches. Damit lassen sich eine Menge Speicherzugriffe komplett abfangen – effektiver als jede Komprimierung.

Maxwell ist ansonsten eigentlich ein "Kepler done right". Wir müssen auf Pascal warten für die wirklich dicken Neuerungen.


Zusammenfasstung Leistung und Bildqualität

Leider muss man im Treiber erst mal wieder volle trilineare Texturfilterung aktivieren. Die GTX 980 hat genug Leistung dafür. Die Maxwell-Karte zeigt das seit der GTX 8800 gewohnte sehr gute Bild mit aktiver anisotroper Filterung im HQ-Modus.

Das Fehlen von CS-Antialiasing ist ein Rückschlag, allerdings zu verschmerzen. Neben den im Treiber ohnehin verfügbaren Multisampling-Modi mit konfigurierbarem Transparenz-Antialiasing (Off, Multisampling, Supersampling) lässt sich mit Zusatztools auch komplettes Supersampling einschalten. Sogar die alten Supersampling-Modi im rechtwinkligen Raster und die alten Mischmodi aus GeForce-4-Zeiten – wie 4xS-Antialiasing – stehen mit Tools wie dem Nvidia Inspector noch zur Verfügung. Es ist sehr gut, dass der Hersteller uns nicht im Regen stehen lässt und so weit verfügbar noch alte Antialiasing-Modi im Treiber belässt.

Alan Wake zeigt sich bei Supersampling-Einstellungen zickig und hat heftige Grafikfehler – dank Downsampling bekommt man trotzdem echtes Antialiasing.

Downsampling ist sehr gut, um einfachere Spiele aufzumöbeln. Bei einem neuen Grafikracher wie Ryse: Son of Rome reicht die Leistung nicht mehr für DSR. Doch alle Spiele können Antialiasing bekommen. Sei es eine eingebaute Methode – Ryse bietet ein Ingame-Antialiasing – oder zur Not MFAA für Spiele wie Shadow of Mordor, wo DSR bei Maximal-Details ebenfalls nicht mehr drin ist.

MFAA ist offiziell noch nicht verfügbar. Dank "Nvidia Inspector" kann man es schon aktivieren, doch nur in einigen Spielen hat es eine Wirkung. Auf Basis der Tests mit dem 344.48-Treiber lässt sich jedoch ableiten, dass MFAA schon deshalb dem weggefallenen CSAA-Modus vorzuziehen ist, da es aus "Antialiasing off" ein 2x-Antialiasing machen kann. Sind die Kanten in Bewegung, offenbart sich das MFAA-Getrickse. Es ist jedoch allemal besser, als ganz ohne Antialiasing leben zu müssen.

Die GTX 980 bewirkt, dass PC-Gaming wieder Spaß macht: Endlich gibt neue Optionen, die Bildqualität zu verbessern. Für dessen Einsatz wird man auch nicht mehr mit einem nervigen Lüfter bestraft, endlich kann man Grafik bei erträglich niedrigem Geräuschpegel genießen.

wie sieht es mit spulenfiepen bei deiner gtx 980 referenzkarte aus?

aths
2014-11-21, 16:27:46
wie sieht es mit spulenfiepen bei deiner gtx 980 referenzkarte aus?
Bei ATITool hörbar. In Spielen habe ich es bislang nirgends vernommen.

Mr. Lolman
2014-11-27, 23:12:36
Netter Usertest. Andererseits ists doch irgendwie ziemlich peinlich, dass der BQ-affine Arne auch nix vom HQ-AF Bug bemerkt hat, oder?

aths
2014-11-30, 03:21:44
Netter Usertest. Andererseits ists doch irgendwie ziemlich peinlich, dass der BQ-affine Arne auch nix vom HQ-AF Bug bemerkt hat, oder?Ja, ist es. Ich hatte Tests gemacht und es nicht gesehen, aber die BQ gelobt.

vinacis_vivids
2017-11-23, 16:22:52
@aths
Nun, wie ist die Karte gealtert, spricht wie ist deine Langzeiterfahrung dazu?
Für damalige 550€ doch eine satte Summe.

nimrod
2017-11-23, 17:22:38
@aths
Nun, wie ist die Karte gealtert, spricht wie ist deine Langzeiterfahrung dazu?
Für damalige 550€ doch eine satte Summe.

ich bin zwar nicht aths, aber seit ende 2014 auch im besitz einer gtx 980. und ja, sie läuft immer noch :P

ist wohl alles eine frage des anspruchs … ich zocke seit 2011 in 1440p @ 60hz (gtx 570, 680 und aktuell eben die 980). bei älteren games kann ich durchaus auf high/highest settings zocken, bei aktuelleren games wie zB destiny 2 eine mischung aus mid/high/highest für konstante 60 fps. dafür reicht dann auch der verbaute VRAM von 4 gb. so gesehen war es eine gute investition zum damaligen zeitpunkt. durch den verkauf meiner alten karte habe ich für die 980 effektiv auch nur um die 400€ bezahlt.

die frage der langzeiterfahrung kannst du eh bei jeglicher HW stellen … irgendwann ist alles überholt und altbacken. die beste investition war damals definitiv die 2600k CPU – die wird mich auch noch ein paar monate begleiten. die 980 wird wohl nächstes jahr einen neuen besitzer im freundeskreis finden.