PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GTX 980 – ein Jahr später


aths
2015-09-23, 13:48:04
Das hier ist ein wohlmeinender Erfahrungsbericht nach gut einem Jahr 980-Nutzung.


Lautstärke und Leistung

Die Leistung der zuvor genutzten GTX 680 reichte mir zwar aus, aber unter Last drehte die Karte krass den Lüfter auf. Das wollte ich mir nicht länger antun. Von der 980 versprach ich mir angesichts der Testergebnisse Besserung.

In der Tat, die 980 ist unter Vollllast zwar hörbar, aber nicht laut oder irgendwie störend. Die Erwartungen an geringe Lautstärke wurden weit übertroffen.

Jahre zuvor hatte ich eine 9800 GTX mit weniger Spannung und geringerem Takt betrieben, um die Ohren zu schonen. Die 9800 konnte dann mit eingestelltem 40%-Lüfter arbeiten, ohne zu überhitzen. Die Leistungsbilanz der 9800 GTX war architekturbedingt jedoch durchwachsen: Hohe Grundperformance, aber schnelles Schwächeln bei Antialiasing. Ein ähnliches Verhalten erwartete ich auch bei der GTX 980: Zwar rund 50% mehr Shaderleisung als die 680, aber nicht mal 20% zusätzliche Speicherbandbreite. 4x-Multisampling dürfte gut reinhauen.

Dann die positive Überraschung: 4x Multisampling wird so souverän weggesteckt wie nie zuvor. Bei den alten Games, die Multisampling überhaupt noch ordentlich unterstützen, kann ich mir oft sogar noch 4x DSR leisten – obendrauf, wohlgemerkt. Skyrim sieht mit 4x Multisampling plus 4x DSR fantastisch aus und läuft mit 60 Frames.

In den Wochen und Monaten nach dem Release kaufte ich einige aktuelle Spiele und drehte alles auf Max. Supersampling oder DSR geht da natürlich nicht, aber ich hatte bei Max-Details inklusive Ingame-AA volle 60 fps in 1200p. Und das ohne nervtötenden Lüfter. Wie geil ist das denn?


Antialiasing

Um Multisamling oder Supersampling optimal einzustellen, reicht das Treiberpanel nicht aus, man braucht den Inspector von orbmu2k.

Doch dann gehts rund. Bei aller Kritik an Nvidia – die Firma könnte bei MFAA und DSR mehr Modi freischalten – die Auswahl an treiberseitig gebotenen (im offiziellen Panel aber versteckten) Antialiasing-Optionen ist unfassbar. Multisampling mit wählbarem Supersampling-Anteil, bei DX9-Games wählbares zusätzliches Ordered-Grid-Supersampling, AA-Bits um in Starcraft Grafikfehler zu vermeiden. DSR in allen Games, mit einem weiteren orbmu2k-Tool auch 9x DSR und mehr. Als Notlösung FXAA via Treiber-Panel.

So fühlt man sich als Pixelfetischist ernst genommen. DSR verballert die zur Verfügung stehende Leistung. Trotzdem ist es ein hilfreiches Feature, welches vielen Games noch den letzen Zacken Extra-Brillianz verleiht. Heroes of the Storm gewinnt sogar deutlich. Blizzard hat bei einigen Texturen geschlampt, die leider flimmern. Mit 4x DSR sieht es wie geleckt aus.

In Witcher 3 hat das eingebaute Antialiasing keine gute Qualität, Multisampling funktioniert nicht und für Supersampling ist die Leistung nicht da. FXAA, sonst eigentlich als Lachnummer bekannt, bietet hier eine sinnvolle Aufwertung.

Was den Speicherausbau angeht bin ich gelassen, mit 4 GB in kein reales Limit zu laufen. Immerhin ist es doppelt so viel Speicher wie bei der 680, oder der noch immer breit verkauften Standard-960. Im oberen Bereich haben AMDs Fury und Fury X bis heute wie die 980 ebenfalls 4 GB.


Multimonitoring und andere Probleme

Die anfänglichen Probleme einiger User mit schwarzen Bildschirmen wurde später mit neuen Treibern gelöst, außer für mich. Hier stellte sich eine Inkompatibilität mit dem Monitor heraus. Seitdem ich den am DVI betreibe, ist auch das gelöst. An der Stelle möchte ich User Blaire danken, der im Forum aktiv Feedback aufnimmt und weiterleitet.

Trotzdem darf man Nvidia eine Panne vorwerfen: Die Schwierigkeiten zu Beginn weisen auf ein vorschnelles Bios- und Treiber-Release hin. Der Treiber hatte anfänglich auch Probleme, ordentlich anisotrop zu filtern.

Rein formal könnte man der 980-Referenz-Karte vorwerfen, den Boostclock nicht lange halten zu können. Allerdings ist der Boostclock ohnehin eine Erfindung, um in Presse-Benchmarks besser abzuschneiden: Es besteht die Chance, dass die Karte kalt getestet wird und höher boostet. Zweitens kann man die Presse mit handselektierten Karten bedienen und später das Geraffel verkaufen, das eben weniger hoch boostet.

Mir ist es aber lieber, wenn die Leistungaufnahme gedrosselt wird, als dass der Lüfter hochjault. Unter Last ständig 13-26 MHz unterhalb des Boosts zu liegen, spielt bei der gebotenen Performance einfach keine Rolle.

Einen schalen Nachgeschmack hinterlässt jedoch Nvidias Umgang mit MFAA: Erst wurde es vollmundig angekündigt, dann nur für eine handvoll Titel freigeschaltet und vor allem an Multisampling gekoppelt. Dabei funktioniert das Verfahren auch ohne. Sägezahn-Kanten hin oder her, es wäre eine Notlösung, wenn Multisampling nicht funktioniert und ein Segen, wenn man DSR zuschaltet.


Das Drumherum

Das Referenzmodell der 980 sieht gut aus, die Kühlleistung ist vorbildlich und legt mit dem geringen Lautstärkepegel die Messlatte höher.

Wie konnte ich mir früher einen aufheulenden Lüfter antun? Das nervt doch nur. Ich kann mich nicht auf das Spiel konzentrieren wenn der PC neben mir Krach macht. Die 980 ist nicht nur einfach deutlich leiser, man muss sie schon foltern um sie überhaupt herauszuhören. Das ist nervlich gesehen ein unfassbares Upgrade für den Computer. Da brauche ich auch kein Lüfter-Ausschalten im Windows-Betrieb, die Karte ist im 2D-Modus nicht aus dem PC heraushörbar.

Psychologisch punktet die 980 mit schönen Zweierpotenzen. In der Praxis spielen krumme Zahlen zwar keine Rolle, doch 2048 Shader klingen vertrauenserweckender als 2304 oder 1536.


Reichweite und Grenzen

Ich spiele alles mit 60 fps. Auf 40 runterzugehen, auch bei Single-Player-Spielen, ist keine Option. Es muss flüssig sein.

Wie hoch die Leistung der 980 wirklich ist, fällt witzigerweise nicht unbedingt bei den aktuellen Spielen auf. Sondern wenn ich alte Games mit 8x Sparse-Grid-Supersampling zocke. Das ging mit vorherigen Karten natürlich auch, doch erst jetzt steckt die Graka das weg, ohne sich jemals zäh anzufühlen. Das schwammige Gefühl mit aktivem 8x SGSSAA ist endlich weg.

Alternativ lässt sich in älteren Spielen auch 4x DSR, mit Tools sogar 9x und oder ein noch höherer DSR-Faktor verwenden. Doom 3 ist mit 9x DSR plus Ingame-2x-Antialiasing endlich in der Lage, seinen Content voll auszuspielen. Mich hatte an einer Stelle am Anfang immer eine hochkontrastige Flimmerkante aufgeregt. Die ist nun GLATT. Doom 3 ist endlich bis auf das letzte Subpixel einfach nur geil.

In modernen Spielen hat die Leistung natürlich Grenzen. Supersampling ist da nicht mehr drin, und in The Witcher muss ich schon einige Ingame-Details runterschrauben, um mit 1200p stabil bei 60 Frames zu liegen.

Im Moment gibt es Diskussionen um die Fähigkeit, asynchrone Shader laufen zu lassen. Das juckt mich zu null Prozent. Bis wir DX12-Hardwarefeatures brauchen wird noch Zeit vergehen. Im Hier und Jetzt ist die 980 eine schöne rassige Gamerkarte, obwohl schon ein Jahr alt.

Der Eulenträger von Athen
2015-09-23, 14:19:02
Bei Doom 3 habe ich mit meiner 2 GB GK104 auch immer Slowdowns mit 8x SGSSAA gehabt. Meistens dann, wenn die Imps ihre Feuerbälle geworfen haben.

Fusion_Power
2015-09-23, 16:15:48
Dazu fällt mir wieder mal ein dass ich von diesem ganzen Anti-Aliasing-Gebastel 0 Ahnung hab. Ich nutz den Inspektor höchstens zur Überwachung, diese Gaming Optionen da sind für mich böhmische Dörfer, wird auch nicht wirklich was erklärt. Warum kann man das nicht einfach mit einem Klick im Treiber einstellen, warum muss das alles so kompliziert sein? Ich meine, ich hab relativ schlechte Augen, ich seh da eh nie nen Unterschied aber man will ja trotzdem ein hübsches Bild haben wenns die (teure) GraKa hergibt. :)

InsaneDruid
2015-09-23, 16:57:04
Dafür gibts ja Geforce Experience. Kein soo übles Tool, grade für Leute wie dich (und das ist null abwertend gemeint, man kann nicht alles wissen und manchmal will mans auch garnicht.) Ein Klick -> fast komplett optimale Settings (generisch optimal gibts so nicht hundertprozentig). Und hat dennoch ein paar einfache Slider und Settings, beispielsweise zur Wahl des Bildschirmmodes (fenster/full/borderless) oder generell optik<->speed.

Fusion_Power
2015-09-23, 20:31:46
Dafür gibts ja Geforce Experience. Kein soo übles Tool, grade für Leute wie dich (und das ist null abwertend gemeint, man kann nicht alles wissen und manchmal will mans auch garnicht.) Ein Klick -> fast komplett optimale Settings (generisch optimal gibts so nicht hundertprozentig). Und hat dennoch ein paar einfache Slider und Settings, beispielsweise zur Wahl des Bildschirmmodes (fenster/full/borderless) oder generell optik<->speed.
Ist das nicht das, was man immer als erstes deinstallieren sollte, damits keine Probleme mitm Treiber und in Spielen gibt? :freak: Ich hab echt die Schnauze voll von TDR's (bin meine zum Glück los geworden) drum werd ich bei meinem nächsten PC wirklich nur das notwendigste aufspielen und Geforce Experience (und 3D Vision, etc...) gehört sicher nicht dazu. Gerad wenn man liest wie Instabil diese neumodischen "Game Ready" Treiber zu sein scheinen, gruselig. ^^""
Die Idee von Geforce Experience ist natürlich nicht übel, wußte auch nicht dass dieses Tool auch gleich das "pefekte" Anti Aliasing auswählen kann. Aber ich bin es halt gewohnt, meine Spiele und Programme selber zu konfigurieren. Bis auf die Quahl der Wahl beim AA hab ich damit auch keien Probleme.

aufkrawall
2015-09-23, 20:35:54
Die GameReady-Treiber sind Treiber wie jede andere auch.
Das ganze drumrum scheint bei AMD und Nvidia gleichermaßen durchgehend verbugt zu sein.
In Spielen läuft hier aber Maxwell mit neusten Treibern so gut wie keine Generation vorher. Ich hab nach über einem Jahr eigentlich überhaupt keine Grafikfehler oder sonstige Verluste durch Regressions gehabt. GK104 und Fermi waren die reinste Seuche dagegen (auch ohne AFR).

Schrotti
2015-09-23, 21:11:47
Sehr schönes Fazit.

Ich habe den kauf meiner beiden 980er auch nicht bereut (vorher zwei 680er). Selbst in 4k kann ich noch flüssig spielen so es denn ein SLI Profil gibt.

Meine beiden laufen allerdings unter Wasser und ohne Boost immer mit 1455MHz GPU und 2001MHz VRAM Takt bei unter 50°C (Powerlimit liegt bei 275W).

lilgefo~
2015-09-23, 22:38:50
Schöner Bericht Aths. Erinnert etwas an deine alten Artikel fuers 3DC.
Mit 9xDSR meinst du 17280x10800? Ist das nicht ein bisschen schwammig (jetzt nicht auf die dargestellten fps bezogen)? Insbesondere denk ich da ans HUD?

Wasser H²O
2015-09-23, 23:14:45
Ich kann mir vorstellen, daß die GTX980 einen hohen Zufriedenheitsfaktor mit sich bringt. Da sind ja auch mal wieder viele Sachen zusammengekommen:

Die GTX970 ist ein No-Go.
Die erst so groß aufgeblasene Mantle-API ist heute toter als tot.
Neue Spiele-Engines <- Fehlanzeige.
DX12 gibt es nur im Zusammenhang mit der Windows 'alle-10-Finger-im-Hals-Edition'.
Und dann noch der 'Top-Konkurrent' AMD.........kaufen Sie jetzt schnell eine AMD Radeon(TM) 9 Grafikkarte und suchen sie sich als Entschädigung gleich 25 Spiele aus.

Aber was, wenn die technische Entwicklung bei Spielen weiterhin auf Konsolenniveau stagniert.....

"Wie hoch die Leistung der 980 wirklich ist, fällt witzigerweise nicht unbedingt bei den aktuellen Spielen auf."

Maybe you just have come face to face with the fact that power is nothing without Crysis 4.

;)

Der Eulenträger von Athen
2015-09-24, 09:15:39
Schöner Bericht Aths. Erinnert etwas an deine alten Artikel fuers 3DC.
Mit 9xDSR meinst du 17280x10800? Ist das nicht ein bisschen schwammig (jetzt nicht auf die dargestellten fps bezogen)? Insbesondere denk ich da ans HUD?
Ähm, nein. 9x bezieht sich auf die gesamte Auflösung, nicht auf einzelne Achsen. Ausgehend von 1920x1080 wären das 5760x3240

Godmode
2015-09-24, 13:20:39
Spam gelöscht. Wenn ihr nichts außer Spam zum beitragen habt, dann lasst es bitte.

aths
2015-09-24, 14:14:50
Dazu fällt mir wieder mal ein dass ich von diesem ganzen Anti-Aliasing-Gebastel 0 Ahnung hab. Ich nutz den Inspektor höchstens zur Überwachung, diese Gaming Optionen da sind für mich böhmische Dörfer, wird auch nicht wirklich was erklärt. Warum kann man das nicht einfach mit einem Klick im Treiber einstellen, warum muss das alles so kompliziert sein? Ich meine, ich hab relativ schlechte Augen, ich seh da eh nie nen Unterschied aber man will ja trotzdem ein hübsches Bild haben wenns die (teure) GraKa hergibt. :)
Antialiasing-Methoden die garantiert in jedem Spiel funktionieren, kosten viel. Es gibt diverse Verfahren, Berechnungen einzusparen und trotzdem gute Kantenglättung zu bringen. Das funktioniert aber nur, wenn das Spiel traditionelle Render-Methoden zur Erzeugung des Bildes nutzt.

Bei Sonderfällen artet es schnell in Gebastel aus. In Starcraft 2 schaltet der Treiber die Treiber-Einstellung für das Spiel ab. Man kann es mit dem Inspektor erzwingen, was aber für bestimmte Grafikfehler sorgt. Diese lassen sich umgehen, wenn die richtige AA-Feature-Bitmaske gesetzt wird. Das ist ziemlich aufwändig, das alles rauszufinden.

Immerhin: In Max Payne 2, wo es in den Bullet-Time-Sequenzen eigentlich kein Antialiasing gibt (weil das Ergebnis zunächst in eine Textur gerendert wird und nicht gleich in den Framebuffer) kann man mit den richtigen Settings via Extra-Tools dann doch Antialiasing erzwingen. Gibt man sich genug Mühe und liest lange genug im Netz, oder bekommt man die richtigen Tipps im Forum, erweitert man mit dem Gebastel nett die Möglichkeiten. Die Frage ist, ob man dazu die Zeit hat.

aufkrawall
2015-09-24, 14:19:34
Nah, 0x204412C1 geht so gut wie immer, wenn SGSSAA überhaupt geht.
Wenn man den Inspector kennt, kann man das für jedes entsprechende Spiel innerhalb von ein paar Sekunden einrichten.

Ansonsten gehört jeder Entwickler geteert und gefedert, der nicht optional etwas wie das Ryse-SMAA oder UE4-TAA anbietet.

aths
2015-09-24, 20:26:11
Ich kann mir vorstellen, daß die GTX980 einen hohen Zufriedenheitsfaktor mit sich bringt. Da sind ja auch mal wieder viele Sachen zusammengekommen:

Die GTX970 ist ein No-Go.
Die erst so groß aufgeblasene Mantle-API ist heute toter als tot.
Neue Spiele-Engines <- Fehlanzeige.
DX12 gibt es nur im Zusammenhang mit der Windows 'alle-10-Finger-im-Hals-Edition'.
Und dann noch der 'Top-Konkurrent' AMD.........kaufen Sie jetzt schnell eine AMD Radeon(TM) 9 Grafikkarte und suchen sie sich als Entschädigung gleich 25 Spiele aus.Gegen AMD sticheln wollte ich eigentlich nicht, auch Nvidia hat es bisher nicht geschafft, die 980-Leistung zu deklassieren. Der Chipfertigungsprozess setzt hier anscheinend das Limit.

Abgesehen von den Bildschirm-Erkennungsproblemen anfangs, freute ich mich seit dem Launch über gut laufende Spiele ohne Grafikfehler oder Abstürze. Um Spulenfiepen zu hören, muss man schon spezielle Tools nutzen.


Aber was, wenn die technische Entwicklung bei Spielen weiterhin auf Konsolenniveau stagniert.....

"Wie hoch die Leistung der 980 wirklich ist, fällt witzigerweise nicht unbedingt bei den aktuellen Spielen auf."

Maybe you just have come face to face with the fact that power is nothing without Crysis 4.

;)
Wenn ich an die Unkenrufe vor dem Launch denke, wie Midrange die 980 doch sei ...

Die Leistung der GTX 980 hat zwar ihre Grenzen, aber das Stabilitätsgefühl der Performance ist ziemlich gut. Das erinnert mich an die Grafikkarten die ich früher hatte und eine besonders großzügig dimensionierte Speicherbandbreite hatten. Obwohl die Bandbreite bei der 980 eigentlich nicht gerade großzügig ist, fühlt sich die Leistung durchweg souverän an. Entweder limitiert schon meine CPU (2700K) oder die Framebuffer-Komprimierung bringt doch was.

aths
2015-09-24, 20:30:21
Schöner Bericht Aths. Erinnert etwas an deine alten Artikel fuers 3DC.
Mit 9xDSR meinst du 17280x10800? Ist das nicht ein bisschen schwammig (jetzt nicht auf die dargestellten fps bezogen)? Insbesondere denk ich da ans HUD?
Das Interface skaliert mit (leider nicht in allen Spielen, wie Tropico oder Civilization.)

9x DSR steht für 3x3 Oversampling, ausgehend von meinen 1920x1200 also 5760x3600. Mit dem 2x-Multisampling zusammen ergibt das zwar 18x-Antialiasing, aber die Glättungswirkung auf Kanten ist aufgrund der Sample-Verteilung eher mit 6x-Antialiasing vergleichbar. Trotzdem ist das Ergebnis sehr schön, da auch die Shadereffekte (Bumpmapping auf den Texturen) ordentlich mitgeglättet werden.

lilgefo~
2015-09-24, 22:36:12
Ähm, nein. 9x bezieht sich auf die gesamte Auflösung, nicht auf einzelne Achsen. Ausgehend von 1920x1080 wären das 5760x3240
Das Interface skaliert mit (leider nicht in allen Spielen, wie Tropico oder Civilization.)

9x DSR steht für 3x3 Oversampling, ausgehend von meinen 1920x1200 also 5760x3600. Mit dem 2x-Multisampling zusammen ergibt das zwar 18x-Antialiasing, aber die Glättungswirkung auf Kanten ist aufgrund der Sample-Verteilung eher mit 6x-Antialiasing vergleichbar. Trotzdem ist das Ergebnis sehr schön, da auch die Shadereffekte (Bumpmapping auf den Texturen) ordentlich mitgeglättet werden.

Ah, danke fuer die Klarifizierung.

InsaneDruid
2015-09-25, 12:05:07
Ist das nicht das, was man immer als erstes deinstallieren sollte, damits keine Probleme mitm Treiber und in Spielen gibt? :freak: Ich hab echt die Schnauze voll von TDR's (bin meine zum Glück los geworden) drum werd ich bei meinem nächsten PC wirklich nur das notwendigste aufspielen und Geforce Experience (und 3D Vision, etc...) gehört sicher nicht dazu. Gerad wenn man liest wie Instabil diese neumodischen "Game Ready" Treiber zu sein scheinen, gruselig. ^^""
Die Idee von Geforce Experience ist natürlich nicht übel, wußte auch nicht dass dieses Tool auch gleich das "pefekte" Anti Aliasing auswählen kann. Aber ich bin es halt gewohnt, meine Spiele und Programme selber zu konfigurieren. Bis auf die Quahl der Wahl beim AA hab ich damit auch keien Probleme.

Es wird sicher Leute geben die diese "Ratschläge" verteilen. Wahrscheinlich die, die alles von MS verdächtigen, aber jedes russische tweaktool was ihnen über den weg läuft installieren. Oder alle möglichen und unmöglichen Dienste deaktivieren und später dann vom "dummen Windowfs, was nicht das macht was ich will" fabulieren.

Geforce Experience ist einfach nur ein Tool was nebenbei laufen kann. Ich hab damit jedenfalls keine schlechten Erfahrungen gemacht. 3DVision installier ich meist (!) auch nicht, weil ich kein 3D Equipment habe. Aber es war auch schon mal drauf und wirklich einen Unterschied macht es genau nicht. Das hat auch mit Gameready nichts zu sein.

Schnäppchenjäger
2015-09-26, 21:45:01
Wo es grade um Aliasingmethoden geht, wie macht man das am besten mit CS:GO? Das Game hat ja ingame Mulitsampling AA und nochmal FXAA. Ist es ratsam, beides zu aktivieren? Ich spiele auf FullHD und benutze kein DSR, deshalb wäre das für mich schon wichtig zu wissen.
Die 4xAA benutze ich auf jeden Fall, weiß nur nicht ob ich noch FXAA dazuschalten sollte oder nicht?

gnomi
2015-09-28, 10:47:17
Ausprobieren und entscheiden.
Prinzipiell würde ich es lassen, wenn das MSAA gut greift und das Spiel eine saubere Optik hat und benötigt. (beides sollte bei CS der Fall sein)
Post Processing AA ist oft interessant, wenn man mehr Auflösung fährt und MSAA keine guten Ergebnisse mehr bringt. Sehr visuelle, filmische Spiele kommen mir da außerdem stärker in den Sinn.

@ Thema
Bin auch äußerst zufrieden mit der 980.
80% Mehrleistung gegenüber einer 680 sind nicht unrealistisch, sondern zunehmend die Regel.
1 Jahr ist jedoch nichts! Interessanter sind 18-24 Monate. Dann lässt sich schon entscheiden, ob was Neues her muss, oder ob noch 1 Jahr drin ist.
Die Taktraten habe ich nach oben gezogen, weil sich das Teil OOTB tatsächlich wie gedrosselt anfühlt.
Auch mit 65% Lüfter und knapp 1400 Takt ist die Lautstärke für mich locker im Rahmen.
Die neusten Spiele können das trotz GSync gebrauchen, wenn man 1440P und mehr bei 40 fps+ haben will.
Und bei 2D sowie anspruchslosen Szenen und Spielen drosselt die sich ja eh wieder runter.

Gast
2015-09-28, 13:43:04
Nah, 0x204412C1 geht so gut wie immer, wenn SGSSAA überhaupt geht.
Wenn man den Inspector kennt, kann man das für jedes entsprechende Spiel innerhalb von ein paar Sekunden einrichten.

Ansonsten gehört jeder Entwickler geteert und gefedert, der nicht optional etwas wie das Ryse-SMAA oder UE4-TAA anbietet.

Pro Evolution Soccer ist so ein Fall. Da geht ab ca PES 2013 kein AA mehr. Es gibt irgendeine komische Art von Ingame-AA, aber da wird nur ca die Häflte geglättet. Nicht mal DSR geht, da muss man per Tool erst die Settings App modifizieren, damit die höhere Auflösungen als 2560*1440 kennt.
Das ist so ziemlich das renitenteste Spiel, das ich kenne.

Krischi
2015-09-28, 14:05:33
Habe meine 980er seit Ende Juni und bin bis dato auch sehr zufrieden.
Bin von einer 560er Ti umgestiegen und das war schon ein Sprung: ungefähr gleicher Stromverbrauch, aber die dreifache Leistung (der Unterbau, ein 3750k auf 4,5GHz, blieb gleich).
Ich spiele auch auf 1200p (16:10) und habe es z.B. bei Fallout New Vegas gemerkt, wo ich nun mit allen Settings auf Anschlag ein in jeder Situation absolut smoothes Spielgefühl habe. Und an Takt und Power Target sowie den für mich "neuen" Quali-Features (DSR) konnte ich bis dato noch gar nicht schrauben. Es geht also noch was.
Aktuell überlege ich noch, ob es Sinn macht, die Karte unter Wasser zu setzen.

Viele Grüße,
Krischi

Schrotti
2015-09-28, 17:27:59
Und ob das Sinn macht.

Noch mehr Bums bei niedrigen Temperaturen. Dann das Powerlimit nach oben setzen und du hast noch mehr "Bums".

Raff
2015-10-01, 21:34:50
Psychologisch punktet die 980 mit schönen Zweierpotenzen. In der Praxis spielen krumme Zahlen zwar keine Rolle, doch 2048 Shader klingen vertrauenserweckender als 2304 oder 1536.

Nerd. :biggrin:

Ich stimme dir zu, die GTX 980 ist eine feine, absolut balancierte Karte, die "normalen" Menschen alle Wünsche erfüllt. Ich habe jedoch keine so gute Meinung vom Referenzkühler wie du und halte DHE nach wie vor für eine schwächelnde Notlösung für schlecht belüftete Gehäuse. Deswegen habe ich im Zweitrechner (120-Hz-1080p -> DSR) auch eine manuell gepimperte MSI Gaming, die wirklich rund läuft. :)

MfG,
Raff

Mr. Lolman
2015-10-02, 09:26:11
Die 980 war bei der Vorstellung eh absolutes Highend. (Titan abgesehen). Und sich zu freuen, dass sie nach 1 Jahr immernoch nicht zum alten Eisen gehört, zeugt doch eher davon, wie (performancetechnisch) kurzlebig NV GraKas doch normalerweise sind.

Meine 290X OC ist mittlerweile ~22 Monate alt und in der Auflösung in der ich spiel (3840x1620) eigtl durchgehend auf 980 Niveau - und das um einen deutlich geringeren Preis, als die 1 Jahr später vorgestellte GTX980.


Trotzdem bin ich bisher nicht auf die Idee gekommen, einen Artikel darüber zu schreiben, wie sehr ich in meine GraKa verliebt bin... ;)

Djudge
2015-10-02, 10:04:19
Lol man, ich finde es schade, dass die Asynchronous Shader und damit das verkrüppelte DX 12 es nicht in das nett zu lesende Review geschafft haben. Da kann man AMD echt mal loben, ihre Karten scheinen Weitblick für ihre Käufer zu garantieren. Die "nächste" NV Generation wird es zwar auch drauf haben, aber ein erneuter Neukauf ist damit psychologisch sicher. Nicht die feine englische Art.

Dicker Igel
2015-10-02, 15:23:53
Die 980 war bei der Vorstellung eh absolutes Highend. (Titan abgesehen). Und sich zu freuen, dass sie nach 1 Jahr immernoch nicht zum alten Eisen gehört, zeugt doch eher davon, wie (performancetechnisch) kurzlebig NV GraKas doch normalerweise sind.
Naja, ist alles relativ. Gibt imo genügend Leute, die mit 'ner 580(3GB) oder 670/680 weiterhin glücklich sind. Man muss halt sehen was man hat, UHD, WQHD samt AA braucht Leistung, unter 1080, 1200p benötigt man das mit moderaten Settings und Ansprüchen nicht wirklich, egal ob mit AMD oder NV.

aufkrawall
2015-10-02, 15:30:04
Meine 290X OC ist mittlerweile ~22 Monate alt und in der Auflösung in der ich spiel (3840x1620) eigtl durchgehend auf 980 Niveau - und das um einen deutlich geringeren Preis, als die 1 Jahr später vorgestellte GTX980.

Kommt halt drauf an, was man spielt.
Insgesamt fährt man mit einer hochgetakteten NV-GPU einfach am besten. Der 780 Ti wurde nur der VRAM zum Verhängnis, genau wie der 970. :freak:
Für HotS oder BF4 gibts keine Alternative zur 980.

Wobei ich es durchaus für möglich halte, dass mit DX12 die Performance insgesamt schon zu AMDs Gunsten kippen könnte.
Ich rate ja schon seit dem AMD-Refresh meist von der 970 ab...

Cubitus
2015-10-02, 15:40:53
Kommt halt drauf an, was man spielt.
Insgesamt fährt man mit einer hochgetakteten NV-GPU einfach am besten. Der 780 Ti wurde nur der VRAM zum Verhängnis, genau wie der 970. :freak:
Für HotS oder BF4 gibts keine Alternative zur 980.


Stimme ich dir prinzipiell zu.
Eine hochgeprügelte 780TI bügelt noch so einiges weg.

Problem ist der Vram aber auch nur dann wenn die Spiele ein mieses Streaming abliefern! Ist aber zu 90% nicht der Fall.

Egal ob GTAV, Mad-Max, Wolfenstein, Witcher 3, Dying Light, Project Cars, etc liefen alle problemlos hier, sogar mit QuadHD (SLI).. Einzig so manches Ubi Game gierte nach mehr Speicher, warum auch immer ;D

aufkrawall
2015-10-02, 15:48:30
Problem ist der Vram aber auch nur dann wenn die Spiele ein mieses Streaming abliefern! Ist aber zu 90% nicht der Fall.

Ja, die meisten Spiele laufen mit 3GB problemlos in 1080p. Eventuell hat hier auch Windows 10 noch etwas Linderung veschafft.
Aber es gibt halt immer Spiele, bei denen 4GB schon spürbar besser oder gar perfekt laufen würden, und das ist nicht nur Nischen-Zeugs wie irgendwelche OpenGL-Flugsimulatoren. :(

Raff
2015-10-02, 15:55:38
Stimme ich dir prinzipiell zu.
Eine hochgeprügelte 780TI bügelt noch so einiges weg.

Problem ist der Vram aber auch nur dann wenn die Spiele ein mieses Streaming abliefern! Ist aber zu 90% nicht der Fall.

Egal ob GTAV, Mad-Max, Wolfenstein, Witcher 3, Dying Light, Project Cars, etc liefen alle problemlos hier, sogar mit QuadHD (SLI).. Einzig so manches Ubi Game gierte nach mehr Speicher, warum auch immer ;D

"Mieses Streaming" ist ein Wink mit dem Zaunpfahl. Wenn alle auf ihren 2-/3-GiB-Karten hocken, dauert's mit dem Texturfortschritt länger. Es wäre gut, wenn wir alle 4 GiB onboard hätten.

Ja, die meisten Spiele laufen mit 3GB problemlos in 1080p. Eventuell hat hier auch Windows 10 noch etwas Linderung veschafft.
Aber es gibt halt immer Spiele, bei denen 4GB schon spürbar besser oder gar perfekt laufen würden, und das ist nicht nur Nischen-Zeugs wie irgendwelche OpenGL-Flugsimulatoren. :(

Im Gegenteil, unter Windows 10 laufen Geforce-Karten mit weniger als 4 GiB schlechter als unter 7 und 8.1, das habe ich diese Woche wieder messen dürfen.

MfG,
Raff

Mr. Lolman
2015-10-02, 16:10:15
Kommt halt drauf an, was man spielt.
Insgesamt fährt man mit einer hochgetakteten NV-GPU einfach am besten

Meine 5870 konnte ich deutlich länger nutzen, als die damals vermeintlich bessere GTX470. Bei der 290X schauts vgl mit der damals gleich teuren 780 (nonTi!) noch viel ärger aus - gerade in hohen Auflösungen - und auch schon mit DX11.

Cubitus
2015-10-02, 17:01:08
Ja, die meisten Spiele laufen mit 3GB problemlos in 1080p. Eventuell hat hier auch Windows 10 noch etwas Linderung veschafft.
Aber es gibt halt immer Spiele, bei denen 4GB schon spürbar besser oder gar perfekt laufen würden, und das ist nicht nur Nischen-Zeugs wie irgendwelche OpenGL-Flugsimulatoren. :(

Joa 1080p problemlos.
Teilweise lassen sich neuere Games aber auch in 1440p problemlos spielen, sofern die Randbedingungen stimmen. Wie gesagt die letzten Games was ich aufzählte waren keine Nischen Games.


"Mieses Streaming" ist ein Wink mit dem Zaunpfahl. Wenn alle auf ihren 2-/3-GiB-Karten hocken, dauert's mit dem Texturfortschritt länger. Es wäre gut, wenn wir alle 4 GiB onboard hätten.

Sofern das Streaming gut umgesetzt oder gut skaliert werden kann, stört es doch niemanden? Beispiel GTA V oder Witcher 3, sogar das "alte" Crysis³ zeigt wie es geht. Dann gibt es noch die U4E. Welche sehr fordernd sein kann.
Was ja an einigen PC-Demos sehr deutlich wird.
Diese Engine beherrscht dennoch Streaming oder LOD-Trickerserein wie aus dem FF. Teilweise grandiose Texturen wie bei Evan Carter Redux benötigen durch Tricksereien oder Optimierungen auch keine Unmengen an Ressourcen (Vram).
Die Crux dabei ist, dass die Konsolen im Prinzip deutlich mehr als 3GB Vram bereitstellen, was für unkomprimierte Texturen ja okay ist.
Allerdings fehlt der APU die nötige Leistung wieder alles komplett darzustellen. Also ist man doch wieder beim Streaming angelangt, was natürlich den PC-Pendants auch wieder zu Gute kommt.

Also liegt die "Ausbremsung des Fortschritts" nicht an den Leuten welche jetzt noch mit 3 GB rumgurken, sondern diese sind viel mehr die Nutznießer der jetzigen Situation ;) Obwohl der allgemeine Tenor ein anderer ist..
Nvidia muss eben seine letzte 28nm Gen an den Mann bringen. Und greift dabei zu Instrumenten wie Gsync oder DSR.

Vor allem DSR spielt zusätzlich die Rolle des "Speicherfüllers"
ist ja auch okay, hilft ja der Qualitäts-Optimierung. Aber man sieht doch deutlich wie bisher die Ressourcen eingesetzt werden.

Die Balance zwischen Content und Leistung wird sich mit Pascal eher angleichen. Wobei die Konsolen weiterhin die Entwicklung bremsen werden.

Gespannt bin ich im Zuge von Pascal besonders auf das VR-Gedöns, im speziellen auf SLI-VR... Wird nächstes Jahr mit Sicherheit ein größeres Thema werden ;)
Und natürlich auch auf die native Nutzung von DX12 in den ersten Games. Imo lohnt sich Pascal deutlich mehr als Maxwell ;)

Gast
2015-10-02, 17:20:06
Meine 290X OC....
http://ecx.images-amazon.com/images/I/41KQumlhrnL._SX466_.jpg
http://ecx.images-amazon.com/images/I/41KQumlhrnL._SX466_.jpg

:D

unter Windows 10
Windows 10 ist ja nun irgendwie doch kein Gamer-OS geworden.

Einer der Hauptvorzüge von DX12 war afair, daß der Overhead durch Drawcalls verringert wird. Das kommt midrange Systemen mit schwacher CPU sehr entgegen. Ich sehe keinen Grund dafür, auf einem Highend-Gaming-Rig ein OS zu installieren, welches für den Einsatz von US-Überwachungstechnik auf Smartgeräten optimiert wurde.

Jeder, der einen echten Gamer-PC mit entsprechender Hardware hat, kann mit DX12 im gegenwärtigen Zustand doch rein gar nichts anfangen. Es gibt bis dato gar keine Games, die hieraus wirklich etwas machen. Und fangt jetzt bitte nicht schon wieder mit Downsampling an. Das brauchen echte Gamer genauso dringend, wie einen Ferrari-Sticker auf einem Lamborghini Countach.

Für HotS oder BF4 gibts keine Alternative zur 980.
Da gibt es sicher einige, die das etwas anders sehen.

Mr. Lolman
2015-10-02, 17:29:09
Die Drawcalllimits sind der einzige Grund, warum wir uns immernoch mit repetitiver Grafik herumschlagen müssen.


BTW: 290X rulez!!! ;D;D;D

aufkrawall
2015-10-02, 17:43:37
Im Gegenteil, unter Windows 10 laufen Geforce-Karten mit weniger als 4 GiB schlechter als unter 7 und 8.1, das habe ich diese Woche wieder messen dürfen.

Ich hatte dich schon mal nach Werten gefragt, da kam aber nichts...
Außerdem sind niedrigere fps nicht automatisch schlechter als miese Frametimes.

Meine 5870 konnte ich deutlich länger nutzen, als die damals vermeintlich bessere GTX470.
Wers glaubt...

Dicker Igel
2015-10-02, 18:01:51
Wenn alle auf ihren 2-/3-GiB-Karten hocken, dauert's mit dem Texturfortschritt länger. Es wäre gut, wenn wir alle 4 GiB onboard hätten.
Liegt aber auch an den Herstellern. Könnte mich immer noch über so Sachen wie 570 mit 1280 MB aufregen. Die Karten mit der doppelten Portion waren/sind dann meist unverschämte Abzocke, obwohl man auch mehr und länger etwas davon hatte. Davon ab war der Content auch bescheidener, für LastGen hat eigentlich durchweg 'ne 285 2G gereicht, solange kein aufgesetzter DX11 Zwang bestand. Oder eben 'ne 580 3GB, wenn man alles abdecken wollte.

Djudge
2015-10-02, 18:47:26
Es gibt bis dato gar keine Games, die hieraus wirklich etwas machen.

Keine Ahnung warum und wieweit hier DX12 reinspielt, aber Trackmania Stadium 2 lief in DSR 4k Win 8.1 mit 60 FPS und regelmäßigen slow downs, mit Win 10 sind die weg. Echt richtig durchgehend flüssig, kann nicht meckern und die Anderen Wins sind imho genau so überwacht. daher mäh

Schrotti
2015-10-02, 22:09:31
Über Windows 10 meckern aber dann mit einem Android oder Apple Smartphone durch die Gegend laufen :wink: :rolleyes:

Ich habe aktuell noch beides am laufen (8.1 & 10) weil ich einfach keinen Bock habe unter 10 alles neu einrichten zu müssen.

aufkrawall
2015-10-02, 22:13:17
Wenn du eine Upgrade-Installation machst, musst du gar nichts neu einrichten.

Schrotti
2015-10-02, 22:48:32
Meine 8.1 install ist aber auch schon 3 fast 4 Jahre alt (und entsprechend zugemölt).

Original 8 dann auf 8.1 mit Systemumzug von HDD auf eine andere HDD und dann auf eine SSD. Von der alten SSD auf eine neue und nun noch das Update auf 10?

Von einem i7-860 auf einen i7-2600k und von da auf einen i7-4930k mit jeweils anderem Chipsatz.


Neee das will und kann ich mir nicht antun. Da ist jede Menge Müll vorhanden den ich dann weiter mit schleppe.

PS: Das gehört hier aber nicht hinein. Ich möchte den Thread nicht crashen.

Gast
2015-10-03, 00:17:02
Und fangt jetzt bitte nicht schon wieder mit Downsampling an.

aber Trackmania Stadium 2 lief in DSR 4k....
:freak:
abba abba abba....

Es gibt Leute, denen ist es einfach Wurst, ob ein Spiel in DSR 4K, 8K oder 64K ruckelt. Die haben ein 1080p-Display und sehen einfach keinen nennenswerten Unterschied zwischen nativem 1080p und 4K DSR:

http://www.computerbase.de/forum/showthread.php?t=1397559

Bei BF4 muß man schon ganz feste dran glauben. Denn nur dann kann DSR sein volles Potential entfalten... ...manche glaubten seinerzeit sogar, daß die Farben in BF4 besser werden durch DSR.

[x] Gib den Affen Zucker.

;)

Djudge
2015-10-03, 02:19:31
:freak:
abba abba abba....

;)

Lol, ist mir glatt entgangen.
Klar bei kompetitiv Shootern wie CS ist DS BS, aber ESL Größen wie TM, SC, LOL ect nicht in 4K zu spielen, entzieht sich meiner Logik.