PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24

(del)
2016-01-26, 17:57:53
Das ist eine Nebenwirkung des aggressiven Powermanagements, für das Maxwell so gelobt wird.Es ist auch die Nebenwirkung dessen, dass die Hersteller im Cost-Down-Wahn ein paar Solids einsparen. Solange auch noch die Spikes so heftig auf den PEG durchballern (Asus GTX 750 Ti Strix mit bis zu 136 Watt), so lange gibt es auch das berüchtigte WYHIWYS (what you hear is what you see). MSI hat mittlwerweile den ganzen Audiokrempel auf den besseren Boards umgelagert und abgeschirmt. Hilft, aber nicht völlig. Je nach Karte und Netzteil.

aufkrawall
2016-01-26, 18:03:58
Das ist eine Nebenwirkung des aggressiven Powermanagements, für das Maxwell so gelobt wird.
Aha, und Fiji-Karten haben das nicht?
(Bei der Fury X hört man es natürlich eh nicht wegen der Pumpe.)

Nightspider
2016-01-26, 18:05:42
Wer lobt die denn dafür? Am gruseligsten ist für Soudkarten derzeit übrigens die R9 Nano.

Kannst du mal bitte ein paar Worte im Nano Thread dazu schreiben? Das interessiert mich.

aufkrawall
2016-01-26, 18:13:07
Es gibt relativ häufig Meldungen über störende elektonisch bedingte Geräusche bei der Nano.
Wenn schon etwas mit dem bloßen Ohr sehr laut fiept, dürfte die Chance hoch sein, dass es sich auch aufs Audiosignal auswirkt.

Btw. hatte ich eine MSI 980 Gaming da, bei der so gut wie nichts gefiept hat, trotz pösem feingranulären Maxwell-Powermanagement.

Loeschzwerg
2016-01-26, 18:13:30
Brummen/Rauschen auf den Audioleitungen, wobei ich das persönlich nur von billigeren Onboard Sound kenne.

R9 Nano + X99-A Onboard Sound war ok, aber ich nutze hier eh meine Xonar U7 + Headphone Amp.

(del)
2016-01-26, 18:14:16
Die Nano ist deutlich regelwütiger als eine R9 390, das stimmt schon. Allerdings verursacht sie auf meinem MSI X99S XPower AC kein Störfeuer wie die Asus 750 Ti (siehe oben). Bei preiswerten oder kleineren Boards (ITX) kann das aber auch mit der Nano kritisch werden. Deswegen nutze ich seit fast 2 Jahren aktive Boxen mit eigenem Chip. Da zirpt nix mehr, Günther N. sei Dank. :D

dargo
2016-01-26, 18:28:00
Deswegen nutze ich seit fast 2 Jahren aktive Boxen mit eigenem Chip. Da zirpt nix mehr, Günther N. sei Dank. :D
Du auch? Willkommen im Club. ;)

(del)
2016-01-26, 18:38:11
Du auch? Willkommen im Club. ;)2x A200 + 1x AW350. Wenn schon... ;)

B2T:
Ich habe heute eine GTX 970 verschenkt. Bin ich jetzt deswegen ein Fiesling, der vorgebliche Krüppel verschachert oder ein netter älterer Herr, der nur was Gutes tun wollte?
Dem Thread und seiner Logik zufolge wohl eher Ersteres. Aber es hat Spaß gemacht und tat auch gar nicht weh :P

dargo
2016-01-26, 18:48:00
B2T:
Ich habe heute eine GTX 970 verschenkt. Bin ich jetzt deswegen ein Fiesling, der vorgebliche Krüppel verschachert oder ein netter älterer Herr, der nur was Gutes tun wollte?
Dem Thread und seiner Logik zufolge wohl eher Ersteres. Aber es hat Spaß gemacht und tat auch gar nicht weh :P
Da du kein Geld dafür verlangt hast Zweiteres. ;)

(del)
2016-01-26, 19:25:20
Denke ich auch. Redundante Dinge dürfen gern mal bissl wandern. Zu Weihnachten habe ich eine 980 Ti gespendet, aber das war ja auch ein Feiertag :D

Arcanoxer
2016-01-27, 17:25:39
Rise of the Tomb Raider PC: Benchmarks mit 18 Grafikkarten (http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/)

Die GTX970 liegt vor der Fury, mit manuellen oc kann man sicherlich auch die Fury X abhängen.

3,9GB Speicherbelegung (UHD)...

BK-Morpheus
2016-01-27, 17:45:24
Es gibt relativ häufig Meldungen über störende elektonisch bedingte Geräusche bei der Nano.
Wenn schon etwas mit dem bloßen Ohr sehr laut fiept, dürfte die Chance hoch sein, dass es sich auch aufs Audiosignal auswirkt.

Btw. hatte ich eine MSI 980 Gaming da, bei der so gut wie nichts gefiept hat, trotz pösem feingranulären Maxwell-Powermanagement.
Das hatte ich auch mal bei einer GTX 760. Diese hatte mittelstarkes bis leicht nerviges Spulenfiepen und hat mir synchron zum fiepen auch leichte Störgeräusche in eine Soundblaster PCI Soundkarte gestreut (obwohl diese so weit entfernt von der GTX 760 platziert wurde, wie möglich).

Ich hatte Glück und der Online Shop hat mir die Karte ausgetauscht. Dann hatte ich nochmal Glück, denn die Austauschkarte hat nicht mehr gefiept (zumindest aus dem geschlossenen Case nicht störend wahrnehmbar) und auch die Störungen in der Soundkarte waren nicht mehr vorhanden.

Flusher
2016-01-27, 20:09:29
Rise of the Tomb Raider PC: Benchmarks mit 18 Grafikkarten (http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/)

Die GTX970 liegt vor der Fury, mit manuellen oc kann man sicherlich auch die Fury X abhängen.

3,9GB Speicherbelegung (UHD)...

Zugegeben, NVIDIA macht das sehr clever. Zugang zu angepassten Treibern direkt zum Release des Spiels und die ersten Benchmark Orgien werden gewonnen. Dass AMD einen Monat später nachlegt, interessiert dann keine Sau mehr.

Raff
2016-01-27, 20:15:32
Zugegeben, NVIDIA macht das sehr clever. Zugang zu angepassten Treibern direkt zum Release des Spiels und die ersten Benchmark Orgien werden gewonnen. Dass AMD einen Monat später nachlegt, interessiert dann keine Sau mehr.

Eher stellt sich AMD dumm an, da man das Naheliegende verschlafen hat. Es wäre ein Leichtes gewesen, ebenfalls einen angepassten Treiber am Start zu haben, immerhin ist das das einzige "große" Spiel diesen Monat (okay, neben The Division, aber das ist 'ne Beta). Vermutlich haben die ganzen Problemchen im Crimson dazu geführt, dass unplanmäßig fast alle Entwicklerressourcen ins nötige Bugfixing geflossen sind und man daher nicht rechtzeitig zum NDA-Fall von Rise of the Tomb Raider PC fertig wurde. Das ist – mal wieder, leider – dumm gelaufen.

Die GTX 970 ist trotzdem auf Kante genäht. Apropos: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10926211#post10926211 ;)

MfG,
Raff

fondness
2016-01-27, 20:21:09
Es wird für AMD nie bei jedem Spiel möglich sein zum Release einen entsprechend angepassten Treiber zu liefern. Zumindest nicht so wie man sich das vorstellt.

Raff
2016-01-27, 20:23:43
Aber wieso? Das ist eine Investition in den ersten Eindruck, die Außenwirkung sowie gegen das Einbrennen unschöner Momente und sollte daher Priorität haben. Das klappt bei Nvidia mindestens genauso gut wie das Verschweigen pikanter Details. :ugly:

MfG,
Raff

fondness
2016-01-27, 20:25:18
Aber wieso? Das ist eine Investition in den ersten Eindruck, die Außenwirkung sowie gegen das Einbrennen unschöner Momente und sollte daher Priorität haben. Das klappt bei Nvidia mindestens genauso gut wie das Verschweigen pikanter Details. :ugly:

MfG,
Raff

Weil man je nach Deal mit der Konkurrenz oft nur wenige Tage vor Release eine fertige Version bekommt und AMD nicht hunderte Leute hat die sich auf sowas in letzter Sekunde stürzen können.

aufkrawall
2016-01-27, 20:31:24
Der Fps-Gewinn des Geforce 361.75 WHQL im Verhältnis zur Version 361.43 WHQL beträgt mit einer Geforce GTX 980 Ti gemittelt über alle getesteten Auflösungen rund fünf Prozent.
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/
NV hat überhaupt nicht in dem Umfang speziell optimierte Treiber zum Release nötig, Maxwell ist auch so fast immer sehr gut ausgelastet.

fondness
2016-01-27, 20:37:00
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/
NV hat überhaupt nicht in dem Umfang speziell optimierte Treiber zum Release nötig, Maxwell ist auch so fast immer sehr gut ausgelastet.

Das ist aber auch eine Frage des Spielecodes, nicht nur was der Treiber beim Release zusätzlich raus holt.

aufkrawall
2016-01-27, 20:38:26
Und warum sollte der Spielecode so Maxwell-freundlich sein, wenn es sich um Konsolen-Ports von GCN handelt? Das ergibt überhaupt keinen Sinn.

Schnoesel
2016-01-27, 21:01:39
Keine Ahnung aber hört sich das an wie ein Problem dass AMD angehen sollte?:

"Nebenbei kündigte unser Pressekontakt bei Square Enix weitere Optimierungen mit besonderem Augenmerk auf AMD an - hier könnte (und sollte - siehe Benchmarks) sich also auch nach Release noch etwas tun."

http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/

Offenbar liegt es eher an Eidos als an AMD. Optimierung nur für den Sponsor dann der Rest, so kann es einem zumindest vorkommen und ich Dummerchen dachte immer man macht Optimierungen für alle Hersteller vor Release.

Allerdings gut OT. Der VRAM der GTX 970 ist ja in diesem Fall kein Problem.

Flusher
2016-01-27, 21:04:36
Und warum sollte der Spielecode so Maxwell-freundlich sein, wenn es sich um Konsolen-Ports von GCN handelt? Das ergibt überhaupt keinen Sinn.

Auch wieder wahr. Jetzt wo du es sagst: scheint als würde AMD bei keinem der bisherigen Konsolen-Ports wirklich von der GCN-Abstammung profitieren.

Sowas ist schon ziemlich dämlich :freak:

Troyan
2016-01-27, 21:05:05
Kein Unterschied zu Tomb Raider 2013. Immerhin vergleicht nVidia nicht ihre Karten mit denen von AMD. :lol:

iuno
2016-01-27, 21:27:31
NV hat überhaupt nicht in dem Umfang speziell optimierte Treiber zum Release nötig, Maxwell ist auch so fast immer sehr gut ausgelastet.
Das hat aber auch mit dem Treiber und der Software generell zu tun, nicht mit der Architektur.

Und warum sollte der Spielecode so Maxwell-freundlich sein, wenn es sich um Konsolen-Ports von GCN handelt? Das ergibt überhaupt keinen Sinn.
Es ergibt auch keinen Sinn, als Spieleentwickler den PC-spezifischen Code komplett umzuschreiben fuer 20% der Kunden. Es ist ja nicht im entferntesten so, dass die fuer Konsolen erstellte Software 1:1 auf den PC uebernommen werden kann.

Auch wieder wahr. Jetzt wo du es sagst: scheint als würde AMD bei keinem der bisherigen Konsolen-Ports wirklich von der GCN-Abstammung profitieren.
Nvidia hat halt auch im Gegensatz zu AMD die Mittel vendor-optimierten Code auszugleichen, falls es aktuell sowas ueberhaupt zu AMDs Gunsten. DICE arbeitet ja beispielsweise eng mit AMD zusammen, Battlefront ist auch eins der absolut seltenen Spiele, wo Fiji gegenueber Hawaii ungefaehr die Mehrleistung auf die Strasse bekommt (endlich "normale" 30-40%, statt wie so oft 10-20%). Trotzdem steht Nvidia hier immer noch normal und nicht allzu schlecht ggue. den AMD Karten da.

von Richthofen
2016-01-27, 23:52:14
CB schreibt:
Tessellation: Kostet viel, bringt aber nur selten was

Crystal Dynamics nutzt in Rise of the Tomb Raider bei der Schneedarstellung und einigen Objekten wie Bäumen und Wegoberflächen die DirectX-11-Technologie Tessellation. Der optische Effekt von Tessellation ist jedoch klein. Beim Schnee ist der Unterschied, wenn überhaupt, nur mit der Lupe zu erkennen. Bäume und einige (wenige) Wegoberflächen erhalten zwar in der Tat ein wenig mehr Tiefe und realistischere Oberflächen, allerdings ist der optische Gewinn gering.

Irgendwas sagt mir, das hier natürlich wieder völlig sinnfrei volle 64x gefordert werden. Deja vu a la Fallout 4. Lässt man's weg wird das Ganze schon viel rot-freundlicher:
http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/4/#diagramm-rise-of-the-tomb-raider-2560-1440-ssao-keine-tessellation

Zur 970:
So ist die zweite Testszene deutlich speicherfordernder als die erste und die GeForce GTX 970 bricht dort stark gegenüber der GeForce GTX 980 ein – und ruckelt störend.

Spätestens ab WQHD wird es unlustig:
Einzige Voraussetzung für Auflösungen ab 2.560 × 1.440: Eine Grafikkarte mit mindestens 4.096 MB echtem Grafikspeicher. Je nach Spielszene bekommt die GeForce GTX 970 zum Beispiel Probleme.

Natürlich handelt es sich bei der 970 um eine reine FullHD-Karte. *Hust*

Savay
2016-01-28, 14:23:39
Allerdings gut OT. Der VRAM der GTX 970 ist ja in diesem Fall kein Problem.

Das Teil mutiert trotzdem irgendwie immer mehr zu ner reinen FullHD karte...und deshalb bin ich momentan echt geneigt nen Sidegrade auf ne Hawaii Karte zu machen. :freak:

aufkrawall
2016-01-28, 14:34:09
Deshalb hatte ich mir dann auch die 980 geholt, in WQHD einfach sorgenfrei drauf loszocken ging nur damit.

Immerhin sind die Frametimes in 1080p mit der 970 besser als mit Hawaii:
http://www.gamestar.de/spiele/rise-of-the-tomb-raider/artikel/tomb_raider_rise_of_the_tomb_raider_systemanforderungen_und_voraussetzungen,5119 7,3242822,2.html#systemvoraussetzungen-fps-verlaeufe-und-vram
Die 970-Verarsche verkommt immer mehr zur Peinlichkeit für AMD. Wie unfähig ist dieser Verein bitte?

dargo
2016-01-28, 15:16:23
Peinlich ist auch, dass man dem nicht weiter nachgeht.
Radeon R9 290X
Bei den Frametimes der eigentlich ähnlich schnellen R9 290X macht sich die teils etwas schlechtere Leistung von AMD-Karten bemerkbar. Ebenfalls gut zu erkennen: Es kommt häufiger zu kleinen Rucklern in Form von Ausreißern nach oben. Dieses Phänomen ist aber nicht auf all unseren Testsystem aufgetreten.
Nicht, dass hier zufällig das Problem zum Vorschein kommt welches ich seit mehreren Seiten im Crimson 16.1 Thread bespreche. Mittlerweile bin ich sehr vorsichtig bei Crimson-Benchmarks, besonders im stärkeren CPU-Limit. Erst recht auch bei Frametimemessungen.

Lurtz
2016-01-28, 15:23:50
Was sollen sie denn machen, AMDs Treiber fixen? Man kann von keinem Steamuser erwarten dass er Clockblocker installiert weil der Treiber sonst nicht vernünftig läuft.

dargo
2016-01-28, 15:42:11
Fangfrage... sind das jetzt die Frametimes von dem gut oder schlecht laufenden System bei der R9 290X?

MartinRiggs
2016-01-28, 15:44:39
Tja er hat aber Recht, AMD muss da endlich ran und die Bugs aus Crimson kriegen.
Kann ja nicht sein das ne R9 290 schlechtere Frametimes als die Krüppelkarte hat.:freak:

Savay
2016-01-28, 15:46:57
Wie unfähig ist dieser Verein bitte?

Ob man jetzt nun schlichten Ressourcenmangel als "Unfähigkeit" abtun sollte?

Warten wir doch erstmal ein Treiberupdate und den nächsten Spielepatch ab. ;)

dargo
2016-01-28, 15:47:49
Ich sag ja auch nicht, dass AMD unschuldig wäre. Natürlich haben sie das selbst zu verantworten. Mich würde es halt nur interessieren ob die Frametimes mit einem Catalyst 15.11.1 oder eben Crimson mit Clockblocker ganau so aussehen.

aufkrawall
2016-01-28, 15:53:51
Bei Witcher 3 hieß es auch, dass die schlechten Frametimes irgendwie nicht eindeutig reproduzierbar gewesen seien.
Trotzdem waren sie in so ziemlich jedem Test mit der 980 ziemlich sauber, mit Hawaii immer recht schlecht oder zumindest klar schlechter. Und das ohne Crimson.

dargo
2016-01-28, 15:55:16
Du weißt ganz genau, dass Witcher 3 erst mit Prerenderlimit 1 sauber läuft also was soll dieser Einwand jetzt?

aufkrawall
2016-01-28, 15:57:51
Da bist du falsch informiert, mit der 980 läuft es auch ohne Prerenderlimit 1 sauber.

dargo
2016-01-28, 16:07:27
Aha...
http://extreme.pcgameshardware.de/news-kommentare-zu-rollenspielen-und-adventures/389821-witcher-3-im-technik-test-das-schoenste-rollenspiel-benchmark-live-ticker-aktuell-14-gpus-91.html

aufkrawall
2016-01-28, 16:09:43
Gibt immer irgendwelche random user reports mit Problemen.
http://techreport.com/review/28513/amd-radeon-r9-fury-x-graphics-card-reviewed/6

Alle GCNs haben bei dem Test Schrott-Frametimes, alle Maxwell-Karten brauchbare. So ein Zufall...

dargo
2016-01-28, 16:15:48
Du hast aber schon mitbekommen, dass ich gesagt habe Witcher 3 läuft erst seit Crimson absolut sauber? Sofern natürlich der Takt nicht wild flukturiert.

Edit:
Eine Sache dabei noch vergessen. Der Hauptgrund warum es so gut läuft dürfte nicht nur Prerenderlimit 1 sondern vor allem auch Shadercache sein.

Palpatin
2016-01-28, 16:28:52
Rise of the Tomb Raider PC: Benchmarks mit 18 Grafikkarten (http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/)

Die GTX970 liegt vor der Fury, mit manuellen oc kann man sicherlich auch die Fury X abhängen.

3,9GB Speicherbelegung (UHD)...
Bereits in 1440p schneidet die 970 http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/4/#diagramm-rise-of-the-tomb-raider-2560-1440-ssao-keine-tessellation hier alles andere als gut ab. In einer Szene 21% langsamer als die 290x.

iuno
2016-01-28, 16:49:28
Und in derselben Szene in FHD auf Fury Niveau ;D
ROTTR ist alles andere als durchschnittlich

aufkrawall
2016-01-28, 16:55:42
Das kann man auch so interpretieren, dass eine komplette Durchschnitts-Verwurstung eben auch nicht mehr besonders aufschlussreich über die reale Performance ist.

Palpatin
2016-01-28, 16:58:35
So sieht es aus, AMD und NV zu vergleichen zumal AMD auch noch Treiberseitig vermutlich zulegen wird ist hier sehr schwer.
Vergleicht man nur die NV karten stinkt die 970 hier schon überdurschnittlich stark gegen die 980 ab. Satte 45% ist die 980 in der Szene schneller als die krüppel Karte.

aufkrawall
2016-01-28, 17:00:54
Tja, das ist der WDDM 2.0 Effekt. Die 780 Ti ist ja auch betroffen.

Savay
2016-01-28, 17:02:10
Traue keiner Statistik die du nicht selbst gefälscht hast. ;)

dildo4u
2016-01-28, 19:03:06
Rise of the Tomb Raider Gameplay auf meiner GTX970 1080p SMAA Very High Preset,Very High Texturen

Zeigt mir 4GB Vram Auslastung scheint aber keine Probleme damit zu geben.

https://mega.nz/#!BYcHwBrC!pOCeDBpZknTRQECtyJs809O3Bep2Ov6_QhAxkY7Tw88

robbitop
2016-01-29, 12:16:12
Kann man im neuen Tomb Raider die VRAM Auslastung durch Reduzieren einiger Details reduzieren? Ich habe im 2. PC eine GTX970 und einen 27" WHQD Acer Predator.

Palpatin
2016-01-29, 12:30:21
Kann man im neuen Tomb Raider die VRAM Auslastung durch Reduzieren einiger Details reduzieren? Ich habe im 2. PC eine GTX970 und einen 27" WHQD Acer Predator.
Reduzierung der Texture Details sollte das bewirken und das Ruckeln bei der 970 stark einschränken.

Achill
2016-01-29, 12:59:58
Kann man im neuen Tomb Raider die VRAM Auslastung durch Reduzieren einiger Details reduzieren? Ich habe im 2. PC eine GTX970 und einen 27" WHQD Acer Predator.

Ja, Texturen auf High - der Rest kann bzgl. VRAM auf Max. bleiben - dann gibt es ein Verbrauch von 3.2-3.3 GB VRam je nach Level/Szene auf meiner AMD Karte, sollte sehr ähnlich bei eine 970 sein.

Thunder99
2016-01-29, 16:28:09
Ich würde mich sehr verarscht vorkommen wenn die ja Rohleistung ja noch langt, aber dank der VRAM Limitierung es ruckelt.

Und wir haben erst Beginn von 2016 :wink:

aufkrawall
2016-01-29, 16:31:26
Leider reichen auch die 4GB der 980 in WQHD nicht aus, die fps kacken sonst mit max Details zeitweise ein.
Ist nicht unwahrscheinlich, dass das auch mit 3GB in 1080p passiert.

dargo
2016-01-29, 17:00:09
Hmm... dann sind die 4GB Karten schneller am Limit als ich dachte. Ob TR ein Ausnahmefall bleibt?

aufkrawall
2016-01-29, 17:10:18
Hoffentlich, der VRAM-Hunger steht nicht in passendem Verhältnis zur Qualität der Texturen (im Sibirien-Level).
Dass sie ihre Engine nicht bestmöglich im Griff haben, zeigt ja auch die negative Skalierung mit HTT. Nach Witcher 3 oder AC: Syndicate ist das echt ein Unding.

Aber: Das könnte Böses ahnen lassen fürs nächste Hitman. Schon das alte war ein Speicherfresser.

Dorn
2016-01-29, 17:12:04
Hmm... dann sind die 4GB Karten schneller am Limit als ich dachte. Ob TR ein Ausnahmefall bleibt?

Gibt ja immer mehr Spiele welche 4GB zum Frühstück verpeisen in 1080p. Ob die "Programmierer" daran Schuld sind, sei mal dahin gestellt.

-/\-CruNcher-/\-
2016-01-29, 18:06:51
CB schreibt:


Irgendwas sagt mir, das hier natürlich wieder völlig sinnfrei volle 64x gefordert werden. Deja vu a la Fallout 4. Lässt man's weg wird das Ganze schon viel rot-freundlicher:
http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/4/#diagramm-rise-of-the-tomb-raider-2560-1440-ssao-keine-tessellation

Zur 970:


Spätestens ab WQHD wird es unlustig:


Natürlich handelt es sich bei der 970 um eine reine FullHD-Karte. *Hust*


Mich hätte eher interessiert wie es aussieht wenn das SSAA der Engine off ist gegen die GTX 980 ;)

Die GTX 970 ist vor allem an einer MSAA kante gebaut hier versucht Nvidia schon selber mit MFAA zu kompensieren der Nachfolger ist schon in Arbeit ;)

Raff
2016-01-29, 18:08:40
Mich hätte eher interessiert wie es aussieht wenn das SSAA der Engine off ist gegen die GTX 980 ;)

Je nach Szene ist das egal. Um die Sowietbasis herum zeigen Karten mit 4 GiB, ob vollwertig oder nicht, schon in Full HD Nachladeruckler. Das wird natürlich nicht besser, wenn man 512 MiB davon nicht ordentlich nutzen kann. Mit 6 GiB sind die Probleme passé, in UHD kann es aber schon mal eng mit dem Speicher werden.

MfG,
Raff

aufkrawall
2016-01-29, 18:10:49
Also sind die 8GB der R9 390 schon sinnvoll. Wenns jetzt noch einen gescheiten Treiber gäbe...

-/\-CruNcher-/\-
2016-01-29, 18:21:07
Je nach Szene ist das egal. Um die Sowietbasis herum zeigen Karten mit 4 GiB, ob vollwertig oder nicht, schon in Full HD Nachladeruckler. Das wird natürlich nicht besser, wenn man 512 MiB davon nicht ordentlich nutzen kann. Mit 6 GiB sind die Probleme passé, in UHD kann es aber schon mal eng mit dem Speicher werden.

MfG,
Raff

Dann kann es mit der Qualität des Texturestreaming aber nicht weit her sein in Fusion momentan in die Engine wird scheinbar Szenario bedingt relativ wenig in Open World Stabilität investiert.
Der AA Layer zeigt schon das man hinten dran hängt an ein Stabiles Uncharted Result wird man so lange nicht herankommen auf der Konsole ;)

fondness
2016-01-29, 18:21:40
War zu erwarten, ist ja nicht wirklich eine bahnbrechende Erkenntnis, dass der VRAM-Bedraf kontinuierlich steigt. Nächstes Jahr werden die Leute mit 4GB wieder zu heulen beginnen, so wie letztes Jahr die Leute mit 3GB VRAM. Trotzdem werden die VRAM-Krüppel von Nvidia wie wild gekauft.

-/\-CruNcher-/\-
2016-01-29, 18:28:33
Ich sehe eher voraus das der Shitstorm auf Engines riesig werden wird die kein vernünftiges Multithreaded Texturestreaming leisten ;)

Das konnte man schon sehr gut bei Batman Arkahm Night beobachten, possitive besispiele dagegen sind z.b Battlefront und GTA V :)

Wer sich auf der Konsolen Effizienz ausruht wird auf dem PC über kurz oder lang auf der Strecke bleiben, selbst Epic hat das begriffen ;)

Loeschzwerg
2016-01-29, 18:28:43
War zu erwarten, ist ja nicht wirklich eine bahnbrechende Erkenntnis, dass der VRAM-Bedraf kontinuierlich steigt. Nächstes Jahr werden die Leute mit 4GB wieder zu heulen beginnen, so wie letztes Jahr die Leute mit 3GB VRAM. Trotzdem werden die VRAM-Krüppel von Nvidia wie wild gekauft.

Erzähl das mal den Fiji Besitzern ;D (Mich mal ausgeschlossen)

dildo4u
2016-01-29, 18:38:41
War zu erwarten, ist ja nicht wirklich eine bahnbrechende Erkenntnis, dass der VRAM-Bedraf kontinuierlich steigt. Nächstes Jahr werden die Leute mit 4GB wieder zu heulen beginnen, so wie letztes Jahr die Leute mit 3GB VRAM. Trotzdem werden die VRAM-Krüppel von Nvidia wie wild gekauft.
Bei 1080p + SMAA hat man nicht viel von den Texturen,das sind wirklich 4k Texturen,das ganze Bild ist unter 1080p viel zu Matschig.Eigentlich ist jedes aktuelle Game eine Post Processing Katastrophe mit 15 verschiedenen Bild Filtern,nur ganz ohne AA bei nur 1080p geht auch nicht.

-/\-CruNcher-/\-
2016-01-29, 18:42:10
Jo schon bei Tomb Raider 2013 wurden echte 4K texturen genutzt zumindestens für Lara :)

aufkrawall
2016-01-29, 18:45:10
Die Texturen von Felsen sind in Sibirien leider häufig recht schäbig und detailarm, der hohe Speicherbdearf ist überhaupt nicht gerechtfertigt.
Es wird einfach nicht effizient gestreamt, offenbar wird da die Levelgröße zum Problem (ist beim kleineren Syrien-Level nicht der Fall).

Raff
2016-01-29, 18:46:46
In der gerade gestarteten Beta von The Division scheinen 3,5+0,5 GiB ebenfalls zu bremsen: http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/Beta-Benchmark-Test-1184726/

Bewiesen ist das noch nicht, nur eine Vermutung anhand der Stichprobenbenchmarks mit manuell maximierten Details, wo eine GTX 970 OC gegen eine R9 290 OC verliert.

MfG,
Raff

dildo4u
2016-01-29, 18:48:43
Ich hab da Gleich auf High gestellt um in die Nähe von 60fps zu kommen das Game scheint mit der Einstellung bewusst unter 3.5GB zu bleiben.


https://mega.nz/#!9B9BXQpA!Dn8vE8hL_SeEX2kFweq6YAXNAG8oCpcMQfFhuu-gtX0

aufkrawall
2016-01-29, 18:52:12
Was nicht in diese Vermutung passt, ist, dass der Abstand zwischen 970 und 980 Ti mit steigender Auflösung immer geringer wird.

dildo4u
2016-01-29, 19:01:55
PCGH hat jetzt die 980 drin ist 24% schneller als die 970 scheint mir nicht übermäßig viel.4 gegen 5 TFlops?

Arcanoxer
2016-01-29, 19:21:53
Trotzdem werden die VRAM-Krüppel von Nvidia wie wild gekauft.Die GTX970 ist so schnell ist wie eine 500€ Fury der Konkurrenz, da würde ich auch nicht lange überlegen.

Wenn AMD lieber an der GUI vom Treiber bastelt als die Probleme anzugehen, wird sich da vermutlich auch nichts dran ändern.

Novum
2016-01-29, 20:19:02
Die GTX970 ist so schnell ist wie eine 500€ Fury der Konkurrenz
Not.

maguumo
2016-01-29, 20:31:45
Pass auf, gleich kommen die Linux Benchmarks :freak:

dargo
2016-01-29, 20:37:20
;D

Edit:
Hier was für Arcanoxer...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928363&postcount=559

[Trollmodus Off]

Arcanoxer
2016-01-30, 09:12:36
;D

Edit:
Hier was für Arcanoxer...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928363&postcount=559

Du hast die Frametimes vergessen, geht kaum schlechter als die Nano (4k Karte!).

http://www.pcper.com/files/imagecache/article_max_width/review/2016-01-29/RoTR_2560x1440_PLOT_0.png

Mr. Lolman
2016-01-30, 09:22:49
Lustig wie sich immer wieder die gleichen an ein paar (fragwürdigen) Diagrammen aufgeilen.

http://www.techpowerup.com/forums/threads/rise-of-the-tomb-raider-performance-analysis.219597/#post-3409516

EDIT: Techpowerup hat wenigstens mit dem letzten Patch gestestet. Und am Montag kommt dann auch der 16.1.1, also mal besser den Ball flach halten, liebe Leute.

dargo
2016-01-30, 09:25:08
Du hast die Frametimes vergessen, geht kaum schlechter als die Nano (4k Karte!).

http://www.pcper.com/files/imagecache/article_max_width/review/2016-01-29/RoTR_2560x1440_PLOT_0.png
Dann nimmt die R9 390, die kostet weit weniger als deine 500€. :P

Dorn
2016-01-30, 09:27:12
Unverständlich was hier AMD geleistet hat, bei solch einem Top Spiel muss sofort von Anfang an so gut wie alles stimmen und nicht erst nach Wochen. So gewinnt man keine Kunden zurück oder neue dazu. Also AMD macht es mir wirklich nicht leicht von einer 970GTX auf eine Radeon 490(X) zu wechseln.

Mr. Lolman
2016-01-30, 09:28:37
Und es ist natürlich überhaupt nicht weiter verwunderlich, dass es wiedermal ein Gameworksspiel ist, gell?

dildo4u
2016-01-30, 10:07:54
Und wie immer hat es nix damit zu tun laut DF läuft AMD im GPU Limit besser.
Nvidia's Effekte belasten die GPU es sei denn das Game nutzt CPU PhysX.


https://youtu.be/YHhPOvlnLGM

Savay
2016-01-30, 10:11:09
Ich denke er meint nicht explizit die Performance im CPU Limit, sondern das ein angepasster Treiber nicht direkt zum Release fertig ist.

Schnoesel
2016-01-30, 10:21:07
Jap das ist auch nicht in Ordnung. Wenn man Marktanteile will darf das auch nicht passieren. Hat aber mit der GTX 970 Problematik aber mal gar nix zu tun. Scheint fast als gäbe es mit Division den nächsten Titel der Probleme macht. So zumindest die erste Vermutung von PCGH.

Blediator16
2016-01-30, 12:47:29
Jap das ist auch nicht in Ordnung. Wenn man Marktanteile will darf das auch nicht passieren. Hat aber mit der GTX 970 Problematik aber mal gar nix zu tun. Scheint fast als gäbe es mit Division den nächsten Titel der Probleme macht. So zumindest die erste Vermutung von PCGH.

Wir wissen doch garnicht was im Hintergrund läuft. Jeder war überrascht, dass TR plötzlich ein GW Titel geworden ist und TressFX umbenannt wurde. Sämtliche GE Titel waren mehr oder weniger unproblematisch auf jedem Hersteller was man von GW Titeln nicht sagen kann. Wer weiß ob AMD überhaupt die Möglichkeit hatte da was zu drehen.

Schnoesel
2016-01-30, 12:52:58
Ja mag sein aber dann sollte man offensiv an die Sache ran gehen was Nvidia damals auch getan hat (finalen Code zu spät bekommen). Da aber nichts kommt hinterlässt es bei den meisten einen faden Beigeschmack. Auf Tauchstation zu gehen wäre in so einem Fall das Dümmste was man machen kann.

dargo
2016-01-30, 12:56:20
Da aber nichts kommt hinterlässt es bei den meisten einen faden Beigeschmack.
Wir haben gerade mal zwei Tage nach Release und noch ein Wochenende dazwischen. :uconf3:

Schnoesel
2016-01-30, 13:00:29
Die Benches sind aber draußen und der Schaden angerichtet. Man hört es doch überall: "Kauf Nvidia AMD bringt nicht rechtzeitig die Treiber". Mir ists egal aber AMD muss den 0815 Nixblicker überzeugen. Kein Wunder wenn AMD nicht vom Nimbus der schlechten Treiber wegkommt.

Beispiel vor ein paar Minuten:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928843&postcount=26

dargo
2016-01-30, 13:17:00
Die Benches sind aber draußen und der Schaden angerichtet. Man hört es doch überall: "Kauf Nvidia AMD bringt nicht rechtzeitig die Treiber".
Und das machst du jetzt an den "fünf" Meldungen im 3DC fest? Zudem von einem Gast der gleichzeitg eine GTX970 empfiehlt und The Division anspricht wo AMD aktuell gut aufgestellt ist, zumindest wenn man Fiji weglässt. Na dann... :uup: Ich dachte eigentlich du wüsstest wie man mit Trollen umgeht. Welchen "Schaden" habe ich davon nochmal mit einer Radeon wenn ich das neue Tomb Raider noch nicht gekauft habe weil ich bsw. auf einen niedrigeren Preis warte?

Schnoesel
2016-01-30, 13:20:56
Wie gesagt es geht nicht um mich oder um dich. Man sollte Spiele sowieso erst Monate nach Release kaufen. Die meisten wollen es eben bei Release zocken und da fällt es eben negativ auf wenn der Treiber nicht fertig ist (aus welchen Gründen auch immer). Das ist Wasser auf die Mühlen der Trolle. Mich braucht AMD auch nicht zu überzeugen (erst bei ZEN wieder ;-) ) aber ich denke wir sind mittlerweile arg OT.

aufkrawall
2016-01-30, 14:58:59
Man sollte Spiele sowieso erst Monate nach Release kaufen.
Kann ich wirklich nicht bestätigen. Dieses Argument hört man ziemlich häufig von Radeon- oder AFR-Besitzern.

dildo4u
2016-01-30, 15:36:47
Jup genau so wie das Argument es ist dann in ein paar Monaten deutlich billiger am PC gibt es massig billig Key's zur Release.Ob ich nun 20 oder 30€ Zahle beides sind Ramschpreise wenn man bedenkt was diese Games in der Produktion kosten.

dargo
2016-01-30, 16:12:39
Kann ich wirklich nicht bestätigen. Dieses Argument hört man ziemlich häufig von Radeon- oder AFR-Besitzern.
Das hört sich bei dir hier aber ganz anders an. :wink:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10929020&postcount=629

aufkrawall
2016-01-30, 16:15:00
Ich habe geschrieben, dass es gut läuft, sonfern der VRAM nicht voll ist.
Was auf AMD wohl weniger zutrifft...

dargo
2016-01-30, 16:30:48
Nein... du hattest geschrieben du hoffst, dass der Vram-Bedarf mit kommenden Patches niedriger ausfällt. Das war nämlich deine Antwort auf folgende Frage.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928996&postcount=628

Also wären wir wieder beim Thema nicht fertige Spiele zum Release. ;) Natürlich nur wenn der Vram-Bedarf tatsächlich noch sinkt.

Schnoesel
2016-01-30, 16:31:38
Kann ich wirklich nicht bestätigen. Dieses Argument hört man ziemlich häufig von Radeon- oder AFR-Besitzern.

Batman, Heroes 7, Watchdogs, AC Unity, Battlefield 4 und das sind nur die Übelsten die mir gerade eingefallen und sind natürlich alle nur wegen meiner AMD schlecht gelaufen... nicht.

aufkrawall
2016-01-30, 16:36:30
Nein... du hattest geschrieben du hoffst, dass der Vram-Bedarf mit kommenden Patches niedriger ausfällt. Das war nämlich deine Antwort auf folgende Frage.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928996&postcount=628

Also wären wir wieder beim Thema nicht fertige Spiele zum Release. ;) Natürlich nur wenn der Vram-Bedarf tatsächlich noch sinkt.
Es ist überhaupt nicht gesagt, dass der VRAM-Bedarf des Spiels jemals niedriger ausfallen wird.
Im Gegensatz zu dir hege ich nicht ständig verzweifelte Hoffnungen, dass in Zukunft schon alles besser wird. Nur mal als Hinweis: Deine ganzen DX12 Träumereien haben sich bisher völlig zerschlagen.

Ich zocke dann mal weiter, Texturen eine Stufe tiefer gesetzt mit perfekten Frametimes, hohen fps und offenbar vollständigem GPU-Limit...

Batman, Heroes 7, Watchdogs, AC Unity, Battlefield 4 und das sind nur die Übelsten die mir gerade eingefallen und sind natürlich alle nur wegen meiner AMD schlecht gelaufen... nicht.
Kalter Kaffee. Außerdem lief Batman auf NV-Systemen mit genügend RAM & VRAM nicht unbedingt schlecht, Unity übrigens genau so wenig...
BF4 lief zudem von Anfang an gut auf NV mit Win 8...

Btw. läuft auch Tomb Raider mit genügend RAM & VRAM auf NV-Systemen perfekt...

dargo
2016-01-30, 16:40:56
Nur mal als Hinweis: Deine ganzen DX12 Träumereien haben sich bisher völlig zerschlagen.

Aha... wo denn? Bisher sehe ich keinen einzigen DX12/Vulkan Titel. Also auf was beruht deine Erkenntnis? Einen kleinen Vorgeschmack auf low level? Bitte schön:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928383&postcount=1111

Und das ist noch Beta. Ich bin ein geduldiger Mensch, im Gegensatz zu dir. ;)

aufkrawall
2016-01-30, 16:46:10
Aha... wo denn? Bisher sehe ich keinen einzigen DX12/Vulkan Titel. Also auf was beruht deine Erkenntnis?

Wer hofft denn hier ständig bei neuen Titeln, dass sie einen DX12 Pfad haben?
Ständig machen du und andere sich hier Illusionen, etwa bei Project: Cars, Battlefront, Just Cause 3 oder Tomb Raider.
Nichts ist bisher draus geworden.


Einen kleinen Vorgeschmack auf low level? Bitte schön:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928383&postcount=1111

Das ist ein Spiel, das quasi mit dem Hintergedanken konzipiert wurde, die Vorteile von Low Level auf der CPU-Seite herauszustellen.
Zwar ein gültiges Beispiel, aber nicht automatisch repräsentativ für die Gesamtheit der Spiele. Stichwort extreme Effizienzverbesserungen bei Frostbite und Ubisoft auf CPU-Seite mit DX11.


Und das ist noch Beta. Ich bin ein geduldiger Mensch, im Gegensatz zu dir. ;)
Viel Spaß noch beim Warten!

Schnoesel
2016-01-30, 16:50:04
Ah stimmt kalter Kaffee deswegen hat Nvidia auch 300 Leute für Batman abgestellt weils so perfekt lief. Du drehst es dir so hin wie es dir gerade passt dazu hat keiner von "genügend" VRAM/RAM gesprochen. Fakt ist: Es gibt genügend Spiele zu Beginn die unzählige Bugs haben und die haben nicht nur diejenigen mit AMD Karten. Du konstruierst einen Zusammenhang wo keiner ist .

aufkrawall
2016-01-30, 16:51:44
Ah stimmt kalter Kaffee deswegen hat Nvidia auch 300 Leute für Batman abgestellt weils so perfekt lief.
Wo steht das?

Wer hier wohl irgendwas verdreht. Es gab die letzten zwei bis drei Jahre so gut wie kein Spiel, das wegen schlechter NV-Treiber nicht gut spielbar war. Bei AMD sieht das ganz anders aus. Ich weiß, du willst es nicht wahrhaben...

Schnoesel
2016-01-30, 16:56:50
http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/News/Nvidia-Verbesserungen-1163114/

Es gab die letzten zwei bis drei Jahre so gut wie kein Spiel, das wegen schlechter NV-Treiber nicht gut spielbar war.

Und das habe ich auch nicht behauptet. Du kannst entweder nicht lesen oder du verstehst nur was du verstehen willst. Die meisten Bugs gibt es unabhängig vom IHV aber träum du mal schön weiter.

Troyan
2016-01-30, 16:57:01
Weder Unity noch RotTR haben Probleme. Unitys Engine ist eben grottig, aber es lief astrein mit meiner GTX980 in 1440p mit allen Effekten und FXAA.
RotTR macht überhaupt keine Probleme. 4GB sind einfach zu wenig, um mit allen Effekten spielen zu können. Verstehe die Aufregung nicht.

dargo
2016-01-30, 16:57:32
Wer hofft denn hier ständig bei neuen Titeln, dass sie einen DX12 Pfad haben?
Ständig machen du und andere sich hier Illusionen, etwa bei Project: Cars, Battlefront, Just Cause 3 oder Tomb Raider.
Nichts ist bisher draus geworden.

Und weiter? Geld gespart. Zumal mich Battlefront (wegen MP), Just Cause 3 eh nicht anspricht. Würde ich also auch mit DX12 nicht kaufen. pCars finde ich mittlerweile nachdem ich Assetto Corsa kenne auch nur noch Mainstream. Spricht mich einfach nicht mehr an. Und TR hole ich mir später noch, keine Sorge. Bei dir habe ich langsam das Gefühl du musst immer alles sofort haben damit du hier so schön mitreden kannst.


Viel Spaß noch beim Warten!
Danke. :)


Es gab die letzten zwei bis drei Jahre so gut wie kein Spiel, das wegen schlechter NV-Treiber nicht gut spielbar war. Bei AMD sieht das ganz anders aus. Ich weiß, du willst es nicht wahrhaben...
Du hast aber ein sehr kurzes Gedächtnis. Im NV-Unterforum hatte ich einige Beispiele mit der GTX970 genannt. Bioshock Infinite läuft bis heute grottig auf Nvidia.

aufkrawall
2016-01-30, 17:45:01
Und weiter? Geld gespart. Zumal mich Battlefront (wegen MP), Just Cause 3 eh nicht anspricht. Würde ich also auch mit DX12 nicht kaufen. pCars finde ich mittlerweile nachdem ich Assetto Corsa kenne auch nur noch Mainstream. Spricht mich einfach nicht mehr an. Und TR hole ich mir später noch, keine Sorge. Bei dir habe ich langsam das Gefühl du musst immer alles sofort haben damit du hier so schön mitreden kannst.

Na, wenn dich Spiele, die mit AMD schlecht laufen, automatisch nicht mehr interessieren, hast du aber großes Glück gehabt. :freak:



Du hast aber ein sehr kurzes Gedächtnis. Im NV-Unterforum hatte ich einige Beispiele mit der GTX970 genannt. Bioshock Infinite läuft bis heute grottig auf Nvidia.
Soll ich es mal eben per Steam laden und schauen, wie es läuft?

dargo
2016-01-30, 17:57:26
Na, wenn dich Spiele, die mit AMD schlecht laufen, automatisch nicht mehr interessieren, hast du aber großes Glück gehabt.

Lass dir was besseres einfallen, ich habe noch andere Hobbys.


Soll ich es mal eben per Steam laden und schauen, wie es läuft?
Das müsstest du schon mit einer GTX970 testen. Wäre mir neu, dass Nvidia nur noch GTX980 produziert.

aufkrawall
2016-01-30, 17:59:18
Warum hab ich diese Schrott-Karte wohl verkauft?
Egal, Download läuft...

dargo
2016-01-30, 18:14:50
Warum hab ich diese Schrott-Karte wohl verkauft?

Ich zitiere dich gerne nochmal.
Es gab die letzten zwei bis drei Jahre so gut wie kein Spiel, das wegen schlechter NV-Treiber nicht gut spielbar war. Bei AMD sieht das ganz anders aus.
Mir wäre wie gesagt neu, dass NV nur für die GTX980 Treiber schreibt. Zudem bringt dir jetzt ein Test mit Bioshock Infinite eh nichts. Dazu müsstest du schon einen damals zum Release aktuellen Treiber nehmen. Da gabs Maxwell nicht mal. Schließlich versuchst du ständig uns beizubringen wie toll die NV-Treiber zum Release der Spiele doch sind.

robbitop
2016-01-30, 18:36:12
Wenn der Speicher bei der nativen Auflösung das Problem ist, kann man doch einfach Texturdetails ein wenig runterschrauben. So arg ist es dann wohl nicht auf der 970. Sofern es das Ego zulässt, einen Detailregler ein wenig nach links zu schieben, natürlich. :D

aufkrawall
2016-01-30, 18:49:07
Ich zitiere dich gerne nochmal.

Mir wäre wie gesagt neu, dass NV nur für die GTX980 Treiber schreibt.

Was ist denn das jetzt für ein billiger Taschenspielertrick?
Ein korrekt funktionierender Treiber kann nicht einfach so kaputte Hardware fixen.
Man stelle sich mal vor, wie eine wie die 970 verkrüppelte Radeon mit dem AMD-Treiber liefe... :freak:
Abgesehen davon ist die von dir ins Spiel gebrachte 970 doch auch nur eine Nebelkerze, ich schrieb nämlich überhaupt nicht von der, sondern vom Nvidia-Treiber allgemein (mal nicht nur auf den Threadtitel starren, sondern auch den Kontext der Diskussion beachten).

Aber um dich zu zitieren:Bioshock Infinite läuft bis heute grottig auf Nvidia.
Das ist eine völlige Bullshit-Aussage.
Frametimes von Bioshock: Infinite mit der 980 in WQHD (Nachladespikes treten immer an den exakt selben Levelstellen auf, selbst wenn man wieder zurück geht, Run dauerte ca. fünf Minuten):
http://abload.de/thumb/bsi92jwg.png (http://abload.de/image.php?img=bsi92jwg.png)
:facepalm:


Zudem bringt dir jetzt ein Test mit Bioshock Infinite eh nichts. Dazu müsstest du schon einen damals zum Release aktuellen Treiber nehmen. Da gabs Maxwell nicht mal.
Warum ich das eben nicht muss, siehst du ja anhand deines Quotes von oben.

dargo
2016-01-30, 19:12:24
Das ist eine völlige Bullshit-Aussage.

Ja, ich weiß.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10404031&postcount=608

In der Traumwelt von aufkrawall existiert nur eine GTX980 bei Nvidia.

aufkrawall
2016-01-30, 19:14:49
Versuch dich nicht rauszureden und schreib halt 970, wenn du 970 meinst.

dargo
2016-01-30, 19:26:55
Ich habe mir jetzt extra für dich die Mühe beim Suchen gemacht, auch wenn ich es albern finde.

http://www.pcper.com/files/review/2014-09-18/G1-Bioshock_2560x1440_PLOT.png
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-980-and-GTX-970-GM204-Review-Power-and-Efficiency/Bioshock

Schon interessant, dass bei dir immer alles mit der GTX980 so einwandfrei läuft. :rolleyes:

aufkrawall
2016-01-30, 19:41:14
Neuere Treiber, Win 10, Prerenderlimit 1...
Meine Frametimes habe ich gepostet, was soll ich noch machen?

Mcdave
2016-01-30, 19:53:26
Ich kann nur bestätigen, dass Bioshock Infinite auf meiner (stark übertakteten) GTX 980 ebenfalls astrein läuft in WQHD.

Mit fast 1.5 Jahre alten Tests zu kommen, ist natürlich auch etwas eigenartig.

Das alles ändert aber nichts an der Tatsache, dass es die GTX 970 tunlichst zu meiden gilt.

-/\-CruNcher-/\-
2016-01-30, 20:01:21
Jetzt macht es sowieso keinen Sinn mehr wenn man umsteigen will und den Spar effekt mitnehmen wollte ist die Zeit schon lange abgelaufen dann lieber gleich auf die neue Generation warten dieses Jahr und den Energie Spareffekt noch zusätzlich mitnehmen, man kann sich allerdings sicher sein das Spiele noch weiter ordentlich mit den gesetzten Targets auch in Zukunft laufen werden mit einem minimum target von 1080p 30 FPS (Konsolenziel)

dargo
2016-01-30, 20:05:37
Ich kann nur bestätigen, dass Bioshock Infinite auf meiner (stark übertakteten) GTX 980 ebenfalls astrein läuft in WQHD.

Mit fast 1.5 Jahre alten Tests zu kommen, ist natürlich auch etwas eigenartig.

Ist doch nicht meine Argumentationskette.
Es gab die letzten zwei bis drei Jahre so gut wie kein Spiel, das wegen schlechter NV-Treiber nicht gut spielbar war. Bei AMD sieht das ganz anders aus.

aufkrawall
2016-01-30, 20:44:05
Das Spiel ist auch schon drei Jahre alt. Wenn du weiter darauf herumreiten willst, bitte...
Trotzdem hat es AMD massiv bei TR verkackt.

dargo
2016-01-30, 20:48:36
Das Spiel ist auch schon drei Jahre alt. Wenn du weiter darauf herumreiten willst, bitte...

Nein, danke.

Mr. Lolman
2016-01-31, 07:35:23
Das Spiel ist auch schon drei Jahre alt. Wenn du weiter darauf herumreiten willst, bitte...
Trotzdem hat es AMD massiv bei TR verkackt.

Was denn, nur weils bei einem Gameworksspiel schon wieder Detailstugen gibt, die zufälligerweise NV ganz gut in den Kram passen? Die Techreportergebnisse sprechen jedenfalls für sich.

fondness
2016-01-31, 10:03:53
Das Spiel ist auch schon drei Jahre alt. Wenn du weiter darauf herumreiten willst, bitte...
Trotzdem hat es AMD massiv bei TR verkackt.

Deine Aussage war, bei Nvidia gibt es sowas nicht. Das ist erwiesenermaßen falsch, auch NV hatte immer mal wieder Probleme bei neuen Titeln. Aktuell hat NV auch sicher den Vorteil des sehr hohen Marktanteils, das muss AMD mit Polaris unbedingt wieder gerade biegen, sonst ist das einfach ein Teufelskreis, weil die Entwickler automatisch gezwungen werden auf NV zu optimieren.

BTW sehe ich auch nicht, was jetzt in TR massiv verkackt wurde, mit einer 390 muss man jedenfalls nicht die Texturdetails reduzieren, vielleicht den maximalen Tess-Level auf x16 limitieren und fertig. Ja die Fury macht Probleme, das Ding hätte man sich wohl besser sparen sollen, der Chip ist ja schon mehr Anti-Werbung als das es irgendwas bringt.

aufkrawall
2016-01-31, 14:02:14
Deine Aussage war, bei Nvidia gibt es sowas nicht. Das ist erwiesenermaßen falsch, auch NV hatte immer mal wieder Probleme bei neuen Titeln.
Meine Aussage war, dass der NV-Treiber zum Launch neuer Spiele in den letzter Zeit sehr zuverlässig war.
Und das ist erwiesenermaßen richtig.
Ob Bioshock damals mit Radeons mit nur 2GB VRAM so perfekt lief, möchte ich auch mal anzweifeln.

Schnoesel
2016-01-31, 14:52:57
Das hatte auch nie einer in Zweifel gezogen der ganze Eiertanz fing wegen dieser Auslassung von dir an:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10928971&postcount=5337

+ deine Behauptung dass es ja wohl keine Probleme mit Unity und Batman gab wenn man nur eine Nvidia hätte + genügend VRAM/RAM. Bugs in Spielen trifft beide IHVs, die sind daran auch nicht schuld also tu mal nicht so als ob das ein AMD only Problem wäre.

aufkrawall
2016-01-31, 14:56:07
Ich habe mich nicht ein einziges Mal auf Bugs in Spielen bezogen, sondern ausschließlich auf Bugs in Treibern.
Und ist ja ein Ding, dass Unity hier mit der 970 in WQHD FXAA gleich zu Release schon ziemlich anständig lief.. :eek:
Bei AMD war die Performance grottig und es brauchte erstmal den Omega-Treiber.

Kriton
2016-01-31, 16:52:30
Kalter Kaffee. Außerdem lief Batman auf NV-Systemen mit genügend RAM & VRAM nicht unbedingt schlecht

Das war mit AMD auch nicht anders.

captain_drink
2016-01-31, 18:11:42
Die Frametimes bei B:I haben mit IHV/Treiber übrigens nichts bis sehr wenig zu tun.
Das meiste davon ließ und lässt sich auf das Verhalten der UE3 zurückführen, welches zudem von System zu System variierte.
B:I dahingehend als Maßstab für eine wie immer geartete Treibergüte zu nehmen, entbehrt insofern jeglicher Sinnhaftigkeit.

aufkrawall
2016-01-31, 18:32:29
Das war mit AMD auch nicht anders.
Ich hab ja gar nicht Batman ins Spiel gebracht (und auch nicht Bioshock: I).

dildo4u
2016-01-31, 18:33:41
Das UE 3.0 Streaming war immer Abfall so lange es unter DX11 läuft Batman AK zeigt das Wunderbar.Die PS4 hatte mit dünner API weniger Probleme.

gnomi
2016-02-01, 11:21:27
Na ja. Konsolenversionen haben eben vergleichsweise lachhafte FPS und Detail Vorgaben bei mehr Qualitätssicherung.
Nerviges UE3 Streaming war zumeist auch eine Sache schlechter Anpassung und fehlender Ressourcen.
Mit schneller Hardware und SSDs ließen sich die Probleme ja selbst in so Härtefällen wie Batman per INI Anpassung kaschieren.
Nvidia hat aus meiner Sicht zumeist das Möglichste getan.
Zwar kamen viele Treiber, die die Performance und einzelne Dinge angingen, aber ich kann mich gerade für die letzten Generationen nicht groß daran erinnern, wann ein Spiel nicht von Beginn an passabel lief.
Bioshock Infinite habe ich mit einer 680 AFAIR auch gut spielen können...
Sie entwickeln ja die Spiele jetzt auch nicht.
Genau wie Epic nur die Engine stellt.
Zwar müssen Dinge auf PC mehr ineinander greifen und abgesprochen werden, aber es ist und bleibt doch Sache des Entwicklers und der Ressourcen. Je verbreiteten und erfolgreicher ein System ist, umso weniger Probleme gibt es natürlich...

The_Invisible
2016-02-01, 12:09:01
wasn hier los :freak:

bioshock habe ich in 1440p@max ohne probleme gespielt. das neue tomb raider habe ich jetzt schon zu 50% durch, das auch mit 1440p@max. obwohl die vram anzeige immer über 4000MB ist, hatte ich nie das bedürfnis irgendwas herunterzuregeln, bin aber auch kein 60fps spieler. wo die "harten" ruckler laut computerbase sein sollen ist mir schleierhaft.

so, und jetzt steinigt mich, ich gehe am abend weiterzocken. ;D

M4xw0lf
2016-02-02, 14:11:26
Neues Material von PCGH: http://www.pcgameshardware.de/XCOM-2-Spiel-55610/Specials/Technik-Test-1184829/
Maximum Settings @1440p - 970 halb so schnell wie 980, nur noch knapp schneller als eine 960.
Bis dorthin sind die Abstände im zu erwartenden Bereich.

aufkrawall
2016-02-02, 14:34:26
Bei dem max-Preset wird 8xMSAA genutzt, was ziemlich unsinnig ist.

M4xw0lf
2016-02-02, 14:51:48
Es hat immer hin den Sinn, das Speicherfeature in Aktion bewundern zu können. :freak:

Megamember
2016-02-02, 15:05:16
Naja, wenn immer nur irgendwelche komplett unrealistischen settings herhalten müssen um das Speicherproblem der 970 zu zeigen bin ich ja beruhigt. ;)

M4xw0lf
2016-02-02, 15:08:59
Was heißt komplett unrealistisch - wenn du einfach ingame Maximum auswählst, dann hast du genau das.

Savay
2016-02-02, 16:41:53
Fakt ist, die Karte ist trotz "4GB" deutlich kurzlebiger als man zum Release hätte erwarten können!
Ehrlich gesagt scheint das von der Langlebigkeit nen echter Rohrkrepierer zu werden wenn sich die 980 bei gleichen Settings z. T. schon derart absetzen kann...

aufkrawall
2016-02-02, 16:57:10
Wobei man fairerweise sagen muss, dass Tomb Raider wohl mit den gleichen Settings wie mit der 980 gut spielbar ist.
Und bei XCOM sind die fps auch mit der 980 mit dem unsinnigen 8xMSAA wenig prickelnd in WQHD.

Troyan
2016-02-02, 18:15:15
Sicher, dass es irgendwas mit dem Speicher zu tun hat? Die GTX960 ist a)nicht schneller und b) ebenfalls deutlich weiter von der GTX980 entfernt...

Undertaker
2016-02-02, 18:32:21
Was heißt komplett unrealistisch - wenn du einfach ingame Maximum auswählst, dann hast du genau das.

Nur wer wählt auf einer GTX 970 Settings aus, für die selbst eine GTX 980 zu langsam ist (22 fps?). Praxisrelevant wird's doch erst, wenn solche Einbrüche in Einstellungen über 30-60 fps je nach Genre auftreten.

Der_Korken
2016-02-02, 19:31:24
Sicher, dass es irgendwas mit dem Speicher zu tun hat? Die GTX960 ist a)nicht schneller und b) ebenfalls deutlich weiter von der GTX980 entfernt...

Die GTX960 hat "echte" 4GB. Der Rest ist einfach der generelle Leistungsunterschied zwischen 960 und 980 (Faktor 2, 1024 vs 2048 Shader).

AnarchX
2016-02-02, 19:43:04
Da erreicht die GTX 970 durch wechselnden Zugriff auf die beiden Speicherpools wohl nur noch ~100GB/s. Wäre interessant ob man da nicht mit einer Limitierung auf den 3,5GiB Pool mehr Leistung erzielen könnte.

dildo4u
2016-02-02, 19:45:56
X-Com 2 hat Probleme auf einer Titan X scheint dürftig optimiert zu sein.

https://youtu.be/W1dLGihV0No?t=46s

Seine System Specs:

CPU: Intel Core i7-5930K @ 4.0ghz.
RAM: Corsair Vengeance LPX 16GB DDR4-2800
BOARD: ASUS Rampage V Extreme
COOLER: Corsair H110i
GPU: 2x Nvidia Geforce Titan X

https://www.youtube.com/user/TotalHalibut/about

aufkrawall
2016-02-02, 19:55:00
Da erreicht die GTX 970 durch wechselnden Zugriff auf die beiden Speicherpools wohl nur noch ~100GB/s. Wäre interessant ob man da nicht mit einer Limitierung auf den 3,5GiB Pool mehr Leistung erzielen könnte.
Vorsicht, das täuscht wahrscheinlich.
Wenn mit WDDM 2.0 der VRAM "zu voll" ist, verfällt es in eine Art "Langsam-Modus", bei der es nicht zu starken Stockern kommen muss, aber zu einer allgemein deutlich reduzierten Framerate.
Es testen ja neuerdings fast alle Seiten mit Windows 10, damit fällt der defakto "knappere" VRAM der 970 eher bei den Durchschnittsframeraten auf als noch unter Windows 8.1 mit WDDM 1.3 oder älter.

Das Problem hatte übrigens schon Just Cause 3 in 1080p auf einer 780 Ti.

Andron
2016-02-02, 21:48:49
Vorsicht, das täuscht wahrscheinlich.
Wenn mit WDDM 2.0 der VRAM "zu voll" ist, verfällt es in eine Art "Langsam-Modus", bei der es nicht zu starken Stockern kommen muss, aber zu einer allgemein deutlich reduzierten Framerate.
Es testen ja neuerdings fast alle Seiten mit Windows 10, damit fällt der defakto "knappere" VRAM der 970 eher bei den Durchschnittsframeraten auf als noch unter Windows 8.1 mit WDDM 1.3 oder älter.

Das Problem hatte übrigens schon Just Cause 3 in 1080p auf einer 780 Ti.

Ich glaube, es kommt sehr stark darauf an, was in den Arbeitsspeicher ausgelagert wird.Shadow of Mordor, wo fast nur die Texturen und fehlendes Streaming für die Ruckler verantwortlich sind, läuft unter Windows 10 tadellos auf 3GB Karten, sogar in 4k mit Ultra Texturen:


https://www.youtube.com/watch?v=eaNJReO9g4k (https://www.youtube.com/watch?v=eaNJReO9g4k)

Watch Dogs mit Ultra Texturen auf einer 660ti:

https://www.youtube.com/watch?v=4D7oSzjdQDo

Die Texturen sind nicht sehr Bandbreitenabhängig und WDDM 2.0 bringt einen riesigen Vorteil (Auf meiner 780 hat Mordor unter Windows 8.1 schon in 1080p stark geruckelt, Watch Dogs mit Ultra Texturen bei 1,5 + 05 GB muss man wohl nicht kommentieren)

Mit GTA 5 habe ich den Test auf einer 660ti gemacht. Bei den Texturen konnte ich auf die höchste Stufe gehen, ohne das es zu Stockern kam, lediglich die Framerate sank etwas (unter 8.1 war das undenkbar). Sobald ich hochauflösende Schatten aktivierte, kam es zu dem "langsamen Modus" den du ansprichst, auch wenn ich an anderer Stelle Details etwas reduzierte, um den Speicherverbrauch auf das gleiche Level zu bringen wie bei den vorherigen Einstellungen. Außerdem kam es zu unschönen, starken Rucklern. Die hochauflösenden Schatten sind scheinbar zu Bandbreiten abhängig um sie auszulagern.
Mich wundert daher, dass es bei Tomb Raider solche Probleme unter Windows 10 gibt, wo auch die Texturen den größten Anteil beim Speicherverbrauch haben.

aufkrawall
2016-02-02, 21:53:10
Würde mich nicht wundern, wenn das Streaming der Engine einfach kaputt ist. Der Verbrauch explodiert ja von Texturen High -> Very High förmlich.
4GB reichen nicht mal wirklich für 720p:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10931124&postcount=434

Mr. Cruise
2016-02-02, 22:53:17
Würde mich nicht wundern, wenn das Streaming der Engine einfach kaputt ist. Der Verbrauch explodiert ja von Texturen High -> Very High förmlich.
4GB reichen nicht mal wirklich für 720p:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10931124&postcount=434

Das streaming ist nicht kaputt, bei very high werden einfach unkomprimierte Texturen genutzt, was den Speicherbedarf bei FHD auf ~6 gb hoch fährt.

Troyan
2016-02-02, 22:55:28
Jap, habe ich ihm versucht auch bei zubringen.
Mit 6GB gibt es keine Probleme bis mindesten 1440p. Die Texturen sind eben höher aufgelöst. Von High auf Very High verdoppelt sich der Speicherverbrauch - 3GB -> 6GB. Das Streaming an sich funktioniert einwandfrei. Mir sind keine kaputten Texturen oder Streamingfehler aufgefallen.

aufkrawall
2016-02-02, 23:19:23
Jap, habe ich ihm versucht auch bei zubringen.
Mit 6GB gibt es keine Probleme bis mindesten 1440p.

Behauptest du. Soll ich bei Guru3D nach mehr Berichten suchen, die das Gegenteil sagen?


Die Texturen sind eben höher aufgelöst. Von High auf Very High verdoppelt sich der Speicherverbrauch - 3GB -> 6GB. Das Streaming an sich funktioniert einwandfrei. Mir sind keine kaputten Texturen oder Streamingfehler aufgefallen.
Wenn sich der Speicherverbrauch bei etwas höher aufgelösten Texturen und Decals verdoppelt, funktioniert das Streaming eben nicht fehlerfrei.
Dass man bei VRAM-Mangel auch kein Streaming sieht, könnte bedeuten, dass überhaupt kein Streaming stattfindet...

Und unkomprimierte Texturen verwendet sicherlich niemand mehr.

Troyan
2016-02-02, 23:27:03
Kannst du gerne. Ich habe es ohne Probleme durchgespielt. Irgendwie ist es nervig, dass jemand mit einer 4GB Karte mehr über das Spielerlebnis angeblich wissen will als jemand mit einer 6GB Karte.

Und wenn du soviel weißt: Gib mir einfach das Savegame von der Stelle.

Anderenseits kann ich dir vergewissern, dass 6GB mit "Very High" in 1440p ausreichen sind, um ein flüssiges Spielererlebnis zu ermöglichen.

aufkrawall
2016-02-02, 23:31:20
Nach dem Laden jedenfalls schon mal nicht, wie du ja schon selbst meintest...
Hast du mal ReShade injected? Das spieleigene AA ist ja nicht zumutbar. Aktive ReShade-Effekte haben mir das das Problem sofort getriggert, und wenn es bei dir auch schon kurz nach dem Laden klemmt...

Troyan
2016-02-02, 23:37:30
Was interessieren mich die 5 Sekunden nach dem Laden?!
Ich habe das gleiche Phänomen auch, wenn ich von "High" auf "Very High" gehe.

Nach den 5 Sekunden gibt es trotz 6GB Anzeige keine Probleme.

aufkrawall
2016-02-02, 23:42:57
Was interessieren mich die 5 Sekunden nach dem Laden?!

Weil es auch nach Cutscenes auftreten kann, nach denen man oft sofort handeln muss?!

Troyan
2016-02-02, 23:45:39
Das Spiel lädt nicht nach Cutscenes. Und ich habe im anderen Thread geschrieben, dass es keine Probleme beim Übergang gibt. Der Speicher wird dynamisch verwaltet und 6GB reichen aus, dass das Spiel und die API in der Lage ist ohne Probleme Daten vorzulagern.

aufkrawall
2016-02-02, 23:48:26
Das Spiel lädt nicht nach Cutscenes.

Egal, die Cutscenes haben einen höheren VRAM-Verbrauch, wofür dann ausgemistet und dementsprechend wieder nachgeladen werden muss.


Und ich habe im anderen Thread geschrieben, dass es keine Probleme beim Übergang gibt.

Auch nicht mit SMAA-Inject? Kannst du das ganze Spiel bitte nochmal damit durchspielen? Danke!


Der Speicher wird dynamisch verwaltet und 6GB reichen aus, dass das Spiel und die API in der Lage ist ohne Probleme Daten vorzulagern.
Offenbar ja nicht, sonst würde es nach dem Laden ja nicht mit reduzierter Performance laufen.

Arcanoxer
2016-02-03, 12:27:57
Neues Material von PCGH: http://www.pcgameshardware.de/XCOM-2-Spiel-55610/Specials/Technik-Test-1184829/
PCGH macht sich wohl gar keine Mühe mehr die Radeons zu testen?!
Oder sind die Radeons auf ein Day1 Treiber angewiesen der possible mal wieder eine Woche später kommt?
8xMSAA in 1440p mit der GTX970. :facepalm:

Die ganze topic wird immer lächerlicher.

edit:
Xcom2 Linux Systemanforderung, nVidia only.
http://www.gamingonlinux.com/articles/want-to-play-xcom-2-the-system-requirements-for-linux-steamos-have-been-sent-out.6603

N0Thing
2016-02-03, 16:34:36
PCGH macht sich wohl gar keine Mühe mehr die Radeons zu testen?!
Oder sind die Radeons auf ein Day1 Treiber angewiesen der possible mal wieder eine Woche später kommt?


Oder...

Die Reviewversion, die wir haben, ist leider auf meine IP daheim gelockt. Ich kann also nur daheim testen.

Scheinbar fehlt dem guten Mann eine Radeon in seinem Besitz. Warum man ihm dann nicht Karten aus dem Redaktionsfundus mitgibt, verstehe aber wer will.

The_Invisible
2016-02-03, 17:25:01
PCGH macht sich wohl gar keine Mühe mehr die Radeons zu testen?!
Oder sind die Radeons auf ein Day1 Treiber angewiesen der possible mal wieder eine Woche später kommt?
8xMSAA in 1440p mit der GTX970. :facepalm:

Die ganze topic wird immer lächerlicher.

edit:
Xcom2 Linux Systemanforderung, nVidia only.
http://www.gamingonlinux.com/articles/want-to-play-xcom-2-the-system-requirements-for-linux-steamos-have-been-sent-out.6603

Ja, ein bisschen realistisch sollte man mit den Einstellungen schon bleiben und nicht irgendwas provozieren was sowieso nicht mehr spielbar ist.

Aja, bin in TombRaider schon im geothermalen Tal und spiele noch immer mit 1440p@max. VRAM ist rappelvoll aber hatte noch keinen einzigen Ruckler der mir mein Spiel deswegen versaute. Das einzige ist das er nach Spielstart mal ordentlich Daten nachlädt. :biggrin:

@xcomlinux: Auch deswegen will ich von nvidia nicht weg, hat mir sicher schon viele Nerven gespart.

M4xw0lf
2016-02-03, 17:41:42
Ja, ein bisschen realistisch sollte man mit den Einstellungen schon bleiben und nicht irgendwas provozieren was sowieso nicht mehr spielbar ist.
Das Preset "Maximum" ist eben so vom Hersteller eingestellt. Ist also nicht PCGH anzukreiden. ;)

Marodeur
2016-02-03, 17:44:29
Schön wäre halt noch eine Karte mit mehr als 4 GB gewesen.

M4xw0lf
2016-02-03, 20:22:38
Schön wäre halt noch eine Karte mit mehr als 4 GB gewesen.
Die 390 kommt noch.

aufkrawall
2016-02-03, 20:49:17
Das Preset "Maximum" ist eben so vom Hersteller eingestellt. Ist also nicht PCGH anzukreiden. ;)
Ich find schon. Zumindest, wenn man ansonsten die gleichen Einstellungen ohne 8xMSAA auch händisch festlegen könnte.
Früher hatte man MSAA auch immer gesondert getestet. Das macht mit Deferred Rendering (ich nehme mal an, dass es zum einsatz kommt) um so mehr Sinn.

Marodeur
2016-02-04, 11:51:50
Die 390 kommt noch.

Ah, schön. Grad gesehen. Daheim hab ich derzeit ja noch die Wahl ob 970 oder 290x 8G. Denke die Wahl steht fest. ;)

Knuddelbearli
2016-02-10, 13:38:27
Nur wer wählt auf einer GTX 970 Settings aus, für die selbst eine GTX 980 zu langsam ist (22 fps?). Praxisrelevant wird's doch erst, wenn solche Einbrüche in Einstellungen über 30-60 fps je nach Genre auftreten.

Also mit OC empfinde ich das spielbar bei nem Spiel wie XCom sofern OC gut skaliert, 30 fps erreicht man da ja

TW3 spiele ich auch bei 35-40 fps mit meiner 970 in 1440p und allem max bzw an außer HW

aufkrawall
2016-02-10, 13:58:26
Selbst ein Knuddelbaerli würde sicher nicht mit 8xMSAA spielen: Wer "maximal" wählt, schaltet besser händisch die Multisampling-Kantenglättung (MSAA) von 8x auf 4x runter – 8x kostet einfach viel mehr Leistung und zwingt selbst High-End-Systeme in die Knie, ohne eine sichtbar bessere Bildqualität zu erzeugen.
http://www.heise.de/ct/artikel/Strategie-Hit-XCOM-2-Port-ist-Mord-3098163.html

Robspassion
2016-02-11, 14:00:30
8x MSAA ist zwar Overkill aber Die Grafik runterschrauben suckt auch :D

M4xw0lf
2016-02-22, 11:13:01
http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/Benchmarks-1186853/

Man beachte besonders die Ergebnisse unter 1440p. :ulol:

dildo4u
2016-02-22, 11:22:36
Jup nur leider irrelevant man muss schon in 1080p Detail reduzieren,da sich Game sich erst mit 50fps + halbwegs gut anfühlt.1440p @Ultra das Macht höstens mit einer 980 Ti Sinn.


Eine aktuelle Grafikkarte der Performance-Klasse wie eine Geforce GTX 970 oder Radeon R9 390 hat schon in 1080p samt Ultra-Details schwer zu kämpfen. Für flüssige Bildraten empfehlen wir daher dringend freiwilligen Detailverzicht

Zur 1440p Performance

Dieser Umstand ist aber nicht so dramatisch, wie es hier den Anschein hat, denn in 1440p mit Ultra-Details ist The Division weder mit GTX 970 noch R9 390 oder GTX 780 und erst recht nicht R9 280X wirklich vernünftig spielbar - es gibt Slowdowns, in der Stadt sinken die Frameraten schon mal auf träge 30 Fps oder weniger ab, was das Zielen erschwert. Mit geschickt reduzierten Details im erfreulich umfangreichen Grafikmenü sind flüssige Bildraten in WQHD auch mit Nvidias GTX 970 kein Problem.

InsaneDruid
2016-02-22, 11:25:57
Ja, und? 1440+Supersampling. Auch die meisten anderen Karten im unspielbaren 30er Bereich.

Nicht gerade die Entdeckung von Gravitationswellen, diese "Erkenntnis".

dargo
2016-02-22, 11:26:14
Nö... mit min. 40fps fühlt sich das Game dank Freesync auch noch sehr gut an. Und 1440p sind mit leicht reduzierten Details (AO VH, 62% Sichtweite) auch mit der R9 390 kein Problem.

Troyan
2016-02-22, 11:26:56
Die GTX970 soll also nur 3% schneller als die GTX770 sein. Türlich, türlich.

dargo
2016-02-22, 11:35:19
Die GTX970 soll also nur 3% schneller als die GTX770 sein. Türlich, türlich.
Wenn die extrem langsamen 512MB Speicher mit verwendet werden warum nicht? Das Game ist noch Beta, die besondere Treiberpflege sollte für die 970 noch kommen. ;) Nochmal.... eine 970 ist keine normale 3,5GB Karte!

Raff
2016-02-22, 11:38:20
Die GTX970 soll also nur 3% schneller als die GTX770 sein. Türlich, türlich.

Doppelt verifiziert: http://extreme.pcgameshardware.de/news-kommentare-zu-online-spielen/428520-division-open-beta-erhellende-grafikkarten-und-cpu-benchmarks.html#post8051148, die GTX 970 hat mit dem "Ultra"-Preset zu kämpfen. Warum? -> http://extreme.pcgameshardware.de/news-kommentare-zu-online-spielen/428520-division-open-beta-erhellende-grafikkarten-und-cpu-benchmarks.html#post8051211

MfG,
Raff

Troyan
2016-02-22, 11:39:18
Klar - weil die >1,5Gb der GTX770 auch über PCIe soviel schneller durchgeschaufelt werden können.
Oder die fehlenden 512MB der GTX780.
Und natürlich ist die GTX970 eine "normale" 3,5GB Karte. Das Thema hatten wir hier schon.

PCGH sind die einzigen, die dauernd solchen "Mist" produzieren und dann die Schuld auf den Speicher schieben. Vielmehr kommt man hier zur Erkenntnis, dass solche Zahlen mit voller Absicht veröffentlicht werden, um gegen die GTX970 zu hetzen...

M4xw0lf
2016-02-22, 11:40:21
Du bist so putzig.

Troyan
2016-02-22, 11:53:29
Und du wohl ein Troll.
Hier mal Beispiele aus anderen Spielen, wo die 2GB der GTX770 nicht mehr reichen:
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/
http://www.pcgameshardware.de/Batman-Arkham-Knight-Spiel-54131/Specials/Benchmarks-Interim-Patch-Test-1170419/

Komisch, wie die GTX970 hier 70%+ schneller.

Datarecovery09
2016-02-22, 12:02:08
Was ist wahrscheinlicher: Dass PCGH mit Absicht die Ergebnisse einer ganz bestimmten Grafikkarte verfälscht, um den armen Troyan zu ärgern...
... oder dass besagte Karte eben (noch?) Probleme mit der Beta-Version eines Spiels hat?

Botcruscher
2016-02-22, 12:22:54
Wir sehen da schlicht das zukünftige Leistungslevel der 970.

woodsdog
2016-02-22, 12:32:22
Wir sehen da schlicht das zukünftige Leistungslevel der 970.


this.

Schnoesel
2016-02-22, 12:35:53
Und das mit bereits angepasstem Treiber (dem 2.?)... da kommt nicht mehr viel von der GTX 970.

HOT
2016-02-22, 13:06:01
NV kann die Karte nicht auf 3,5GB drosseln, weil die nicht so verkauft wurde. Die haben einfach Glück, dass Win10 anders mit dem Speichermurks umgeht als die Vorgängerversionen. Wird der Speicher knapp gibts halt weniger FPS unter Win10, genau das galt ja für das 8x MSAA. Brauchen jetzt Games von sich aus ohne diese Extremeinstellung in FullHD so viel RAM, läuft die 970 in diese FPS-"Falle", das lässt sich einfach nicht vermeiden. Und der VRAM-Verbrauch wird steigen.

Troyan
2016-02-22, 13:09:05
Was ist wahrscheinlicher: Dass PCGH mit Absicht die Ergebnisse einer ganz bestimmten Grafikkarte verfälscht, um den armen Troyan zu ärgern...
... oder dass besagte Karte eben (noch?) Probleme mit der Beta-Version eines Spiels hat?

PCGH schiebt die Leistung auf die 3,5GB. Gleichzeitig zeigen sie, dass 2GB vollkommen ausreichend.

Ergo stimmt erstens. ;D

Zettabit
2016-02-22, 13:10:36
Die Benchmarks für 1440p mögen ja richtig sein - warum taucht das Problem der 970 dann nicht im 4K-Bench auf? Warum ist sie da wieder in normaler Form?

Das macht doch keinen Sinn, in 4K müsste das Problem doch NOCH krasser auftreten?

Troyan
2016-02-22, 13:14:49
Die Szenen sind wohl nicht vergleichbar. Die GTX770 läuft ja auch einwandfrei in 4K gegenüber der GTX960 mit 4GB.

von Richthofen
2016-02-22, 13:16:04
PCGH sind die einzigen, die dauernd solchen "Mist" produzieren und dann die Schuld auf den Speicher schieben. Vielmehr kommt man hier zur Erkenntnis, dass solche Zahlen mit voller Absicht veröffentlicht werden, um gegen die GTX970 zu hetzen...

Die 970 über Gebühr zu kritisieren und sie gleichzeitig in ein Drittel der (PCGH-)PCs einzubauen wäre nicht logisch.

Darüberhinaus handelt es sich bei The Division um Software im Beta-Status und da es sich um ein "nVidia-Spiel" handelt das zudem noch mit den nV High-Endern gebundelt (http://www.3dcenter.org/news/nvidia-legt-seinen-highend-loesungen-division-bei)wird, rechne ich stark damit dass man die Benchmarkbalken spätestens mit einem Game-Ready Treiber und finalem Spielecode gerade zieht.

iuno
2016-02-22, 13:16:54
Dass die 970 da mal eben 50% hinter einer 390 liegt ist definitiv nicht normal. Was man aber auch sagen muss, ist dass die Karten da alle zu langsam sind. Bei 20 min FPS ist es doch ziemlich egal, ob es avg. nun 23 oder 25 sind. Man darf in die Ergebnisse nicht zu viel hineininterpretieren, weil sie sowieso in dem Bereich unspielbar sind. Hilfreicher waeren da Frametime Diagramme bei niedrigeren Settings
Waeren die 'hinteren' 512 MiB das einzige Problem, laegen imho die min. FPS noch niedriger als bei den Karten, die vergleichbare avg. FPS liefern. Und bei 4k ist das Bild ja wieder relativ 'normal'
Da kommt sicher noch was

Schnoesel
2016-02-22, 13:21:43
Ich zitiers mal:

Wir nutzen für unsere Benchmarks schon den zweiten für The Division angepassten Geforce-Treiber - inwieweit sich die Performance der GTX 970 bis zum Release noch verbessern wird, ist ungewiss.

Und daher glaube ich nicht dass da noch was kommt und das Ruder rumreißt. Release ist am 8.März. Die GTX 970 war nie was für 1440p und wird es nie sein.

Raff
2016-02-22, 13:24:28
Die 970 über Gebühr zu kritisieren und sie gleichzeitig in ein Drittel der (PCGH-)PCs einzubauen wäre nicht logisch.

Das hat rein gar nichts miteinander zu tun. Die 970 steckt in vielen PCGH-PCs, weil die Klientel das so will (AMD-Angebote wurden nicht gekauft). Das heißt aber nicht, dass PCGH diese Grafikkarte deswegen nicht kritisieren kann, sofern es Anlass dafür gibt.

MfG,
Raff

dargo
2016-02-22, 13:29:12
Klar - weil die >1,5Gb der GTX770 auch über PCIe soviel schneller durchgeschaufelt werden können.
Oder die fehlenden 512MB der GTX780.
Und natürlich ist die GTX970 eine "normale" 3,5GB Karte. Das Thema hatten wir hier schon.

Ich kann mir das bei der 970 nur so erklären, dass ohne einen optimierten Treiber einzelne Daten im lahmen Speicher landen und erst danach über den PCIe im Arbeitsspeicher wenn insgesamt 4GB immer noch zu wenig sind. Sprich... doppelte Bremse.

gnomi
2016-02-22, 13:33:24
Also ich finde es selbst mit Tastatur & Maus erstaunlich gut spielbar bei niedrigen FPS in 1440P @ Max. (um die 35-40 im Schnitt mit GSync auf einer OC 980)
Mit den zig Einstelloptionen lässt es sich nach Bedarf dann noch locker enorm beschleunigen.
Also Performance & Grafik sind schon spitze.
Ähnlich schnell und schön ist wohl nur Battlefront, aber das hat ja nicht ansatzweise diese Objektdetails und Einstelloptionen. (daher auch mehr FPS @ Ultra)

@ 970
Die Karte zickt rum und kann man einfach vergessen als Gamer.
Die Gründe, also ob mal wieder dauerhaft oder übergangsweise, interessieren schon kaum noch.
Der ungewöhnlich angebundene Speicher wird zur Achillesferse. Besonders jetzt, wo überraschenderweise auch schon 4GB schnell zu wenig werden. (will baldmöglichst 8 bei nvidia)

von Richthofen
2016-02-22, 13:36:32
Das heißt aber nicht, dass PCGH diese Grafikkarte deswegen nicht kritisieren kann, sofern es Anlass dafür gibt.


So wollte ich es auch nicht verstanden wissen.
Es sollte eher ein (verstecktes) Lob sein und die mMn überzogene Kritik Troyan's entkräften.

Raff
2016-02-22, 13:39:54
Alles gut – ich wollt's nur klarstellen. :)

MfG
Raff

Troyan
2016-02-22, 13:51:24
Wir sehen hier doch, wie durch voreingenommene Berichterstattungen Meinungen gebildet werden, die kaum die Realität widerspiegeln.
Und PCGH macht dies seit Monaten schon. Erinnert ein wenig an den Frosch im Kochtopf. In jedem neuen Artikel ein bisschen mehr: Mehr Kritik, mehr "Abzug" bei der Leistung.

Ich kann mir das bei der 970 nur so erklären, dass ohne einen optimierten Treiber einzelne Daten im lahmen Speicher landen und erst danach über den PCIe im Arbeitsspeicher wenn insgesamt 4GB immer noch zu wenig sind. Sprich... doppelte Bremse.

Der Treiber lässt erst mal nur 224bit und 3,5GB zu. Die GTX770, die mit 256bit und 2GB keine Probleme zeigt, macht es also deutlich sichtbar, dass der Speicher kein Problem ist.

Die GTX960 zeigt, dass die Bandbreite ebenfalls kein Problem darstellt, ansonsten wäre die GTX960 deutlich langsamer.

just4FunTA
2016-02-22, 14:06:14
Wir sehen hier doch, wie durch voreingenommene Berichterstattungen Meinungen gebildet werden, die kaum die Realität widerspiegeln.
Und PCGH macht dies seit Monaten schon. Erinnert ein wenig an den Frosch im Kochtopf. In jedem neuen Artikel ein bisschen mehr: Mehr Kritik, mehr "Abzug" bei der Leistung.



Der Treiber lässt erst mal nur 224bit und 3,5GB zu. Die GTX770, die mit 256bit und 2GB keine Probleme zeigt, macht es also deutlich sichtbar, dass der Speicher kein Problem ist.

Die GTX960 zeigt, dass die Bandbreite ebenfalls kein Problem darstellt, ansonsten wäre die GTX960 deutlich langsamer.

Wenn man bedenkt wie nvidia uns alle verarscht hat ist es echt verwunderlich wie wenig nvidia dafür zahlen musste. In anderen Branchen müsste die Firma nach so einer Aktion um die Existenz bangen.

Und was ist mit nv? Ich habe hier eine 970 und frage mich nur ob ich zu 980ti wechseln soll oder auf pascal warten soll. :freak::frown:

So gesehen sollten wir alle froh sein wenn es noch wenigstens einzelne Magazine gibt die den Finger immer wieder in die Wunde von NV halten. ;)

Lurtz
2016-02-22, 14:16:13
Wir sehen hier doch, wie durch voreingenommene Berichterstattungen Meinungen gebildet werden, die kaum die Realität widerspiegeln.
Und PCGH macht dies seit Monaten schon. Erinnert ein wenig an den Frosch im Kochtopf. In jedem neuen Artikel ein bisschen mehr: Mehr Kritik, mehr "Abzug" bei der Leistung.
Selbst wenn es so wäre, das Thema ist doch eh gegessen. Die GTX 970 ist einer der größten GPU-Verkaufserfolge ever, völlig egal was ein deutsches Magazin jetzt dazu schreibt.

Botcruscher
2016-02-22, 14:28:07
Die GTX960 zeigt, dass die Bandbreite ebenfalls kein Problem darstellt, ansonsten wäre die GTX960 deutlich langsamer.
Die 970 hat eben nicht nur 3,5+0,5GB Ram. Es sind auch 228 ODER 28bit Speicherbandbreite.
Wenn der extra Treibersupport ,nv typisch mit erscheinen des Nachfolgers aus läuft, war es das.

Selbst wenn es so wäre, das Thema ist doch eh gegessen. Die GTX 970 ist einer der größten GPU-Verkaufserfolge ever, völlig egal was ein deutsches Magazin jetzt dazu schreibt.
Spannend bleibt ob sich die Käufer gleich noch mal verarschen lassen. Vermutlich eindeutig ja.

aufkrawall
2016-02-22, 15:33:16
Echt schwach, dass nie die 980 sofort vergleichbar mit im Test-Parkour ist...

M4xw0lf
2016-02-22, 15:42:18
Echt schwach, dass nie die 980 sofort vergleichbar mit im Test-Parkour ist...
Die 960 4GB ist doch das Nächstbeste. Die verliert 31% Leistung von 1080p auf 1440p (bis auf die 970 verlieren alle Karten im Testfeld 21-31%, die Fijis erwartungsgemäß am wenigsten), während die 970 gleich mal 48% einbüßt. Da braucht es noch nichtmal die 980 um das abnorme Performancebild festzustellen.

aufkrawall
2016-02-22, 15:46:40
Die 960 4GB ist doch das Nächstbeste. Die verliert 31% Leistung von 1080p auf 1440p (bis auf die 970 verlieren alle Karten im Testfeld 21-31%, die Fijis erwartungsgemäß am wenigsten), während die 970 gleich mal 48% einbüßt. Da braucht es noch nichtmal die 980 um das abnorme Performancebild festzustellen.
Dann sollten sie aber nicht so etwas schreiben: Mit geschickt reduzierten Details im erfreulich umfangreichen Grafikmenü sind flüssige Bildraten in WQHD auch mit Nvidias GTX 970 kein Problem. Wollen Sie die volle Ultra-Pracht mit halbwegs guter Performance genießen, ist eine GTX 980 Ti momentan die einzige GPU mit genügend Reserven sowohl was Leistung als auch Speicher betrifft.
Ob der VRAM der 980 reicht, haben sie ja gar nicht getestet...
Btw. konnte ichs gut mit der 980 OC in WQHD mit max. Details ohne GW spielen...

Frametime-Vergleich zwischen 980 und 390X hätte man auch machen können...

Raff
2016-02-22, 15:53:52
Echt schwach, dass nie die 980 sofort vergleichbar mit im Test-Parkour ist...

Nie ist unwahr, faktisch fehlt sie nur hier, ist aber bei allen anderen Tests der vergangenen Zeit dabei.

Der Grund für die wenigen Werte: The Division ist aufgrund der sich automatisch ändernden Tageszeit ekelhaft zu benchen, da man ständig auf "besseres Wetter" warten muss (gleiche Bedingungen pro Karte). Mehr gibt's bei Release der Finalversion, dann vielleicht an einer Stelle mit normiertem Wetter. Dann läuft das Spiel außerdem auch mal zu Zeiten, an denen Profis bezahlt werden, sodass die ständigen Wochenendschichten wegfallen und mehr Zeit für Testwerte ist. ;)

MfG,
Raff

dildo4u
2016-02-22, 15:59:59
Das Game verhält sich komisch ich hätte die 390 weiter Vorne erwartet,dafür sieht die Fury ganz gut aus.Jetzt könnte man meinen es schmeckt den neueren AMD Karten besser aber dafür ist die 380 zu weit von der 280X weg.

aufkrawall
2016-02-22, 16:00:05
Nie ist unwahr, faktisch fehlt sie nur hier, ist aber bei allen anderen Tests der vergangenen Zeit dabei.

Ich habe nicht "nie" gesagt, sondern "nie sofort".
Schade, dass die diesmal nicht nachgereicht wird. Besonders, wenn man die Schwäche der 970 analysieren will, hätte man das tun sollen.


Der Grund für die wenigen Werte: The Division ist aufgrund der sich automatisch ändernden Tageszeit ekelhaft zu benchen, da man ständig auf "besseres Wetter" warten muss (gleiche Bedingungen pro Karte). Mehr gibt's bei Release der Finalversion, dann vielleicht an einer Stelle mit normiertem Wetter.
Aber die 770 2GB mit 12fps testet man dann in 4k?
Na ja...

Raff
2016-02-22, 16:29:09
Na wenn das Wetter nach der Warteperiode zur Abwechslungs mal stimmt, macht man natürlich alle Werte. :) Mehr gibt's, wie gesagt, wenn das Ding final ist. Ihr könnt euch derweil auf delikate Hitman-Werte freuen (Release: morgen früh um 10).

MfG,
Raff

Achill
2016-02-22, 16:41:53
@aufkrawall, die 980 wird zwischen der 970 und 980TI laden und wahrscheinlich sogar zwischen 390 und Fury.

Dafür das es noch Beta ist, finde ich die Auswahl der Karten schon sehr gut und man kann sich leicht ein Bild machen, wo die eigene Karte ungefähr liegt. Und man kann auch feststellen, dass man beim aktuellen Stand des Spiels und Treiber für FHD ein 980TI braucht für Max.Settings & 60fps stable - fertig aus.

@Raff/PCGH - könnte man ggf. für ein paar Karten einführen, ab welchen Preset diese zu 60fps bei FHD fähig sind (i5/8350 ohne OC).

Troyan
2016-02-22, 16:45:07
Nö, die GTX980 würde in 1440p auf Niveau der Fury Karte liegen und damit 73% schneller als die GTX970 und ca. 20% langsamer als die GTX980TI. Die Karte ist nämlich +-80% schneller als die GTX960.

Deswegen sind die Werte der GTX970 auch einfach falsch.

blaidd
2016-02-22, 16:54:55
Deswegen sind die Werte der GTX970 auch einfach falsch.

Weil die ja auch dank total identischer Speicheranbindung natürlich in jedem Szenario mit der Leistung der anderen Karten vergleichbar ist - steht ja sogar über jedem Post hier dick und fett in der Headline :rolleyes: /s

Troyan
2016-02-22, 17:07:09
Die GTX980 ist nur dann deutlich schneller - aka 73% - wenn das Spiel mehr als 3,5GB benötigt.
Da eine GTX770 mit 2GB auf dem selben Niveau zu GTX960 4GB liegt, gibt es kein Speichermengenproblem. Mal davon abgesehen, dass in 4K die GTX970 keine Probleme zeigt. :rolleyes:

Also bringt doch eure Werte in Ordnung, bevor ihr hier auf technische Ebene reden wollt.

aufkrawall
2016-02-22, 17:09:45
Wenn PCGH die Werte der 970 so reproduzieren kann, gibt es daran nichts zu rütteln.
Und dass du die technische Einschränkung der 970 immer noch nicht kapiert hast (wohl auch gar nicht kapieren willst), wirft kein gutes Licht auf dich.

Don't feed, plz...

blaidd
2016-02-22, 17:14:03
Mal davon abgesehen, dass in 4K die GTX970 keine Probleme zeigt. :rolleyes:

Tut sie nicht? Sie liegt fast 20 % hinter einer R9 390... In Full HD sind die beiden Karten praktisch gleichauf. Zudem könnte man eventuell vermuten, dass in Ultra HD die Shader der Karte wieder stärker limitieren als der Speicher bzw. dessen Bandbreite.

aufkrawall
2016-02-22, 17:17:36
Nicht WDDM 2.0 vergessen. Erst seitdem ihr auf Win 10 umgestiegen seid, fällt die 970-Schwäche in Balken (!) so auf.

N0Thing
2016-02-22, 17:47:54
Ich frage mich, wie oft hier noch die Speicheranbindung als Ursache genannt werden muss, bis der Spin Doctor nicht mehr gegen ein Speichermengenproblem argumentiert. :freak:

dargo
2016-02-22, 17:54:09
Mal davon abgesehen, dass in 4K die GTX970 keine Probleme zeigt. :rolleyes:

Schon mal daran gedacht, dass die exotische Speicheranbindung in 4k sich relativiert weil die Rechenleistung schon lange am Limit ist?

Edit:
Im übrigen würde ich die Beta Software mit Beta Treibern nicht überbewerten. Kepler sieht mir hier etwas schwach aus wenn schon eine R9 280X etwas schneller als eine GTX780 ist. Zumal die PCGH hier noch "nv-freundliche" Settings @HQAF verwendet.

Godmode
2016-02-22, 18:12:49
Was wird hier eigentlich noch diskutiert? Gibt es immer noch kein Fazit, nach fast 220 Seiten? Ihr dreht euch nach gefühlten 200 Seiten im Kreis...:rolleyes:

Vielleicht muss ich es nochmal für euch Zusammenfassen:

- Kundentäuschung
- wenig Zukunftssicherheit
+ weniger Probleme als erwartet
+ für 1080p reicht es fast immer

Habe ich was vergessen?

aufkrawall
2016-02-22, 18:14:38
Wir drehen und eher um einen gewissen jemand, der für NV arbeitet.
So schlimm war es selbst mit fondness auf AMD-Seite nie...

G3cko
2016-02-22, 18:53:25
Das hat rein gar nichts miteinander zu tun. Die 970 steckt in vielen PCGH-PCs, weil die Klientel das so will (AMD-Angebote wurden nicht gekauft). Das heißt aber nicht, dass PCGH diese Grafikkarte deswegen nicht kritisieren kann, sofern es Anlass dafür gibt.

MfG,
Raff

Das ist echt traurig und zeigt am Ende nur wie gut das Marketing ist. Vor allem Infomierte "Enthusiasten" müssten doch klüger sein.

Wenn man bedenkt wie nvidia uns alle verarscht hat ist es echt verwunderlich wie wenig nvidia dafür zahlen musste. In anderen Branchen müsste die Firma nach so einer Aktion um die Existenz bangen.

Und was ist mit nv? Ich habe hier eine 970 und frage mich nur ob ich zu 980ti wechseln soll oder auf pascal warten soll. :freak::frown:

So gesehen sollten wir alle froh sein wenn es noch wenigstens einzelne Magazine gibt die den Finger immer wieder in die Wunde von NV halten. ;)

Ne, sind sie nicht. :rolleyes:

Muss man sich mal reinziehen. Die Leute werden bei einer 350-400€ Karte übers Ohr gehauen und überlegen ernsthaft das nächst teurere Produkt zu kaufen oder die nächste Generation. War bestimmt ein einmaliger Ausrutscher! ;D;D;D;D;D;D

Wenn ich schon sehe wie meine 4 Jahre alte 7970 !!!release 2011!!! an der GTX970 klebt - muss ich echt lachen. Vermutlich in Dx12 dann entgültig schneller, da der Treibersupport dann wohl endgültig ausbleibt.
@Raff bitte in DX12 ausgiebig weiter testen. Schlagzeile hab ich schon: "Tahiti aus 2011 schlägt Kepler in DX12." oder "Warum Nvidia Käufer 2x kaufen"

Mir könnts ja egal sein, aber 18% Marktanteil sind echt bedenklich. Und wo soll ich dann meine Graka kaufen wenns AMD nicht mehr gibt? Und Bechmarktester wirds dann auch weniger geben. Wird ja eh nur Nvidia gekauft. ;)

just4FunTA
2016-02-22, 19:19:09
Das ist echt traurig und zeigt am Ende nur wie gut das Marketing ist. Vor allem Infomierte "Enthusiasten" müssten doch klüger sein.



Ne, sind sie nicht. :rolleyes:

Muss man sich mal reinziehen. Die Leute werden bei einer 350-400€ Karte übers Ohr gehauen und überlegen ernsthaft das nächst teurere Produkt zu kaufen oder die nächste Generation. War bestimmt ein einmaliger Ausrutscher! ;D;D;D;D;D;D

Du meinst aus Prinzip gar keine NV-Karte mehr kaufen auch nicht wenn sie besser als die Konkurrenzkarte von AMD ist? Ne das ist mir zu blöd.

Was den Kauf von neuer Karte angeht, da ist halt das "Problem" das ich seit einer weile auf nem 4k tv Spiele und dann ist natürlich das Ziel auch in 4k zu spielen. Aktuell fällt mir da nur die 980ti ein (wobei die auch zu langsam ist) oder eben die nächste Generation der Karten.

Will AMD Kunden gewinnen geht das nur über Leistung (Preis ist natürlich auch nicht egal) ich werde eine AMD Karte nicht aus Frust oder weil ich noch beleidigte Leberwurst spielen möchte kaufen.

Schlimm genug wenn man von nv verarscht wurde, da muß man sich nicht auch noch selber verarschen..

Achill
2016-02-22, 19:21:08
Das ist echt traurig und zeigt am Ende nur wie gut das Marketing ist. Vor allem Infomierte "Enthusiasten" müssten doch klüger sein.



Ne, sind sie nicht. :rolleyes:

Muss man sich mal reinziehen. Die Leute werden bei einer 350-400€ Karte übers Ohr gehauen und überlegen ernsthaft das nächst teurere Produkt zu kaufen oder die nächste Generation. War bestimmt ein einmaliger Ausrutscher! ;D;D;D;D;D;D

Wenn ich schon sehe wie meine 4 Jahre alte 7970 !!!release 2011!!! an der GTX970 klebt - muss ich echt lachen. Vermutlich in Dx12 dann entgültig schneller, da der Treibersupport dann wohl endgültig ausbleibt.
@Raff bitte in DX12 ausgiebig weiter testen. Schlagzeile hab ich schon: "Tahiti aus 2011 schlägt Kepler in DX12." oder "Warum Nvidia Käufer 2x kaufen"

Mir könnts ja egal sein, aber 18% Marktanteil sind echt bedenklich. Und wo soll ich dann meine Graka kaufen wenns AMD nicht mehr gibt? Und Bechmarktester wirds dann auch weniger geben. Wird ja eh nur Nvidia gekauft. ;)

Das war jetzt der Probelauf ... ;)

Wenn es keine Konkurrenz mehr gibt, dann erwarte ich sowas wie DLCs für GPUs:
- Du willst 100MHz mehr Takt - macht 50€
- Du willst nicht 1:16 bei der SP/DP Leistung - 150€ für 1:8 (TI-Power) bzw. 1000€ für 1:4 (Quadro-Starter)
- Du willst GW-Effekt XYZ aktivert haben, macht 20€ oder 60€ im 100MHz+GW-Bundle ...

Mit entsprechenden DRM und spezifischen Signaturen je Karte kein Problem. Im Business-Bereich ist es ja auch üblich, dass Man Lizenzen pro nutzbare CPU/Core abdrückt. Die Masse will halt gemolken werden.

Datarecovery09
2016-02-22, 19:29:08
Pscht, Still! Bring die Kerle doch nicht noch auf Ideen...^^

dargo
2016-02-22, 19:44:07
Pscht, Still! Bring die Kerle doch nicht noch auf Ideen...^^
Sind auch keine neuen Ideen. Intel macht das schon seit Jahren. :weg: Nicht nur bei der CPU, sondern auch beim Chipsatz. X-D Nvidia versucht ähnliches auch schon mit G-Sync.


Schlimm genug wenn man von nv verarscht wurde, da muß man sich nicht auch noch selber verarschen..
Du denkst einfach viel zu kurzsichtig. :)

M4xw0lf
2016-02-22, 19:48:59
Will AMD Kunden gewinnen geht das nur über Leistung (Preis ist natürlich auch nicht egal) ich werde eine AMD Karte nicht aus Frust oder weil ich noch beleidigte Leberwurst spielen möchte kaufen.

Schlimm genug wenn man von nv verarscht wurde, da muß man sich nicht auch noch selber verarschen..
Sehenden Auges zum Monopol :uup:

aufkrawall
2016-02-22, 19:59:47
Was wir machen, ist ziemlich egal im Vergleich zu Notebook Design Wins. Den Misserfolg dort im GPU-Bereich hat sich AMD komplett selbst zuzuschreiben. GameWorks ist hauptsächlich nur ein Symptom des ohnehin schon kaputten Marktes, auf dem auch so etwas wie der 970-Betrug möglich ist.

just4FunTA
2016-02-22, 20:00:01
Sehenden Auges zum Monopol :uup:

ich sag nur AMD R9 Fury x HDMI 1.4 wenn man den pc an den TV anschließt ist das ganz toll..

M4xw0lf
2016-02-22, 20:07:34
ich sag nur AMD R9 Fury x HDMI 1.4 wenn man den pc an den TV anschließt ist das ganz toll..
Sicher ist das nicht optimal, aber es gibt Lösungen. http://geizhals.de/659602980

aufkrawall
2016-02-22, 20:13:04
Würde mich nicht überraschen, wenn das Risiko für Treiber-Bugs wegen Display-Timings etc. mit so einem Adapter exponentiell ansteigt.
Oder auch einfach der VRAM auf Hawaii die ganze Zeit mit Volltakt läuft...

blaidd
2016-02-22, 20:22:28
Was wir machen, ist ziemlich egal im Vergleich zu Notebook Design Wins. Den Misserfolg dort im GPU-Bereich hat sich AMD komplett selbst zuzuschreiben. GameWorks ist hauptsächlich nur ein Symptom des ohnehin schon kaputten Marktes, auf dem auch so etwas wie der 970-Betrug möglich ist.

Das sehe ich im Übrigen sehr ähnlich - es wäre auch vermessen, einen Teil der Verantwortung für die unausgeglichene Marksituation nicht auch AMD anzukreiden. Wollen wir mal hoffen, dass sich das in naher Zukunft bessert. Das müssen die aber selbst gebacken kriegen.

Botcruscher
2016-02-22, 21:04:41
Das ist im GPU und vor allem CPU Markt unzweifelhaft. Die 970er Mogelpackung verteidigen zu wollen ist aber trotzdem lächerlich. Das bei den Medienberichten aber eben nur die 3,5+0,5 hängen geblieben sind macht einen aber irgendwie traurig. Der eigentliche Knackpunkt ist die Bandbreite. Dann ist es eben keine 256bit auch keine 228bit sondern eine 28bit Karte. Aber "bis zu" scheint sich ja eingebürgert zu haben.

mrt
2016-02-22, 21:52:39
Was wir machen, ist ziemlich egal im Vergleich zu Notebook Design Wins. Den Misserfolg dort im GPU-Bereich hat sich AMD komplett selbst zuzuschreiben.
38% Marktanteil im Mobilbereich ist jetzt nicht so wenig. Schließt nicht immer von den Desktop-SKUs auf Mobile.

woodsdog
2016-02-22, 22:57:05
Was wir machen, ist ziemlich egal im Vergleich zu Notebook Design Wins. Den Misserfolg dort im GPU-Bereich hat sich AMD komplett selbst zuzuschreiben. GameWorks ist hauptsächlich nur ein Symptom des ohnehin schon kaputten Marktes, auf dem auch so etwas wie der 970-Betrug möglich ist.

sagt derjenige, der eine 970 kauft, merkt das es Betrug am Käufer ist (sehr positiv!), zurück schickt... und ne 980 kauft. (fehler hier...!). Danke NV, alles richtig gemacht, bitte weiter gehen. :P

Hör einfach auf diesen bullshit zu posten. kthxbye.

G3cko
2016-02-22, 23:06:05
Mit maxwell hat nvidia einen guten effizienzsprung hingelegt keine Frage. Dennoch hat amd , mal abgesehen von den +400€ Karten konkurenzfahige Angebote. Besonders wenn man die Leistung am Ende des Lebenszyklus betrachtet. Wie gesagt hier sind keine 1000 Euro Karten gemeint und nicht User die alle halbe Jahr die Karte wechseln, sondern sie nutzen bis es wirklich keinen Sinn mehr macht. Und hier hatte amd das bessere Angebot in den letzten Jahren. Interessiert nur anscheinen niemanden, da sich fälschlicherweise eingebürgert hat AMD = schlecht. Dabei ist genau das Gegenteil der Fall wenn durch treibermangel eine Titan auf GTX960 Niveau rumdümpelt.

-/\-CruNcher-/\-
2016-02-22, 23:18:07
Tut sie nicht? Sie liegt fast 20 % hinter einer R9 390... In Full HD sind die beiden Karten praktisch gleichauf. Zudem könnte man eventuell vermuten, dass in Ultra HD die Shader der Karte wieder stärker limitieren als der Speicher bzw. dessen Bandbreite.

Sagt über die Effitzienz garnichts aus immerhin verbraucht die R 390 dabei auch ordentlich mehr pro frame.

Diese ganze Diskussion wird langsamt totall langweilig je nach Workload der besser schmeckt wird es immer differenzen geben, warten wir mal z.b den ROTR VXGI Patch ab da würde die GTX 970 noch glimpflich davonkommen bei 1080p die GTX 960 wird schon ordentlich wegbrechen und die 770 wird nicht mal auf die GTX 960 Performance kommen ;)

Dann warten wir mal ab bis mehr CR nutzen und sio weiter es ist einfach nur langweilig hier zu hypothesieren was wie wo, es ist gut das die GTX 970 den Nvidia standard setzt ihr solltet euch freuen mit GTX 980 und Co ;)

Die GTX 970 ist so wie sie ist sie wurde nach ihrem Shader limit Designed das immer auschlaggebend ist wenn man ordentlich mit den Resourcern umgeht.

Garnix zu lachen haben die die gedacht haben die GTX 960 ist immernoch das was mal z.b die GTX 460/660 war seit Maxwell hat sich da einiges geändert in Nvidias Strategie, diesen Strategiewechsel hat übrigens PCGH in ihrem Interview mit Petersen als erstes gezeigt ein guter Analyst hat schon damals gemerkt worauf Petersen hinauswill es nur nicht sagt.

Nach diesem Interview stand für micht fest x60 wird nicht mehr das wie früher sein ;)

Dieses Interview war das aller wichtigste und es war Wertvoll ohne Ende http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Videos/Interview-mit-Nvidia-zur-Geforce-GTX-750-Ti-und-Maxwell-Technik-englisch-1109968/

Wenn wir die GTX 970 Wegbrechen sehen werden wird das bei VR passieren und dort einen erheblich heftigeren Impact haben, die Nvidie Engineers haben hier aber wirklich alles versucht das zu verhindern was letztendlich auch uns non VR usern zu gute gekommen ist ;)

aufkrawall
2016-02-22, 23:28:22
sagt derjenige, der eine 970 kauft, merkt das es Betrug am Käufer ist (sehr positiv!), zurück schickt... und ne 980 kauft. (fehler hier...!). Danke NV, alles richtig gemacht, bitte weiter gehen. :P

So scheiße, wie Tomb Raider bei AMD im CPU-Limit oder Spiele wie The Division mit der 970 in WQHD laufen, hab ich mit der 980 alles richtig gemacht.
So super, wie hier alles mit der 980 läuft, überleg ich mir den Kauf von Radeons in Zukunft drei Mal und evtl. wirds dann auch Gsync statt FreeSync. =)

Btw. hatte ich gleich zu Anfang schon eine 980 gekauft, war aber mit dem Referenzdesign nicht zufrieden. Wenn du hier schon olle Kamellen aufwärmst...

Achill
2016-02-23, 00:08:52
Sagt über die Effitzienz garnichts aus immerhin verbraucht die R 390 dabei auch ordentlich mehr pro frame.
[...]


Das Problem ist hier oft, dass die FPS-Werte von einer 970 OC verwendet werden (völlig OK) aber bei der Effizienz oft mit Referenz-Karte von NV argumentiert wird (nicht OK).

Es ist schwer einen Verbrauchstest zu finden, wo eine MSI GTX 970 Gaming und eine 390 8G von Powercolor getestet wurden (oder sogar mit inkl. zusätzlichen OC bei der 970 wie bei der PCGH im Einsatz) ... von der gleichen Seite, mit den gleichen Testsystem und dem gleichen Testparcours.

Aber es geht:
- MSI 970 Gaming (http://www.overclockersclub.com/reviews/msi_gtx_970_gaming_4g/15.htm) ~290W* (Unigine Heaven, System)
- PowerColor PCS+ R9 390 8GB (http://www.overclockersclub.com/reviews/powercolor_pcs_r9_390_8gb/15.htm) ~337W** (Unigine Heaven, System)

* Core i7 4770K @ 4.4GHz
** Core i7 4770K @ 4.5GHz

-/\-CruNcher-/\-
2016-02-23, 00:13:20
So scheiße, wie Tomb Raider bei AMD im CPU-Limit oder Spiele wie The Division mit der 970 in WQHD laufen, hab ich mit der 980 alles richtig gemacht.
So super, wie hier alles mit der 980 läuft, überleg ich mir den Kauf von Radeons in Zukunft drei Mal und evtl. wirds dann auch Gsync statt FreeSync. =)

Btw. hatte ich gleich zu Anfang schon eine 980 gekauft, war aber mit dem Referenzdesign nicht zufrieden. Wenn du hier schon olle Kamellen aufwärmst...

Naja da können wir mal drüber streiten rein vom Preis und vom zusätzlichen Stromverbrauch und deinem letzendlichen nutzen Ratio auf der Visuellen seite ;)

Achill vergiss dieses Amateur Review seiten einfach.

Achill
2016-02-23, 00:17:10
Naja da können wir mal drüber streiten rein vom Preis und vom zusätzlichen Stromverbrauch und deinem letzendlichen nutzen Ratio auf der Visuellen seite ;)

Die MSI 980 Gaming (http://www.overclockersclub.com/reviews/msi_gtx980_gaming_4g/15.htm) verbraucht laut den von mir verlinkten Test/Seite nur 11W mehr (~301W) unter Unigine Heaven ... den zusätzlichen Stromverbrauch kann man hier jetzt vernachlässigen.

---
Edit:


Achill vergiss dieses Amateur Review seiten einfach.


Ich würde auch gern eine bekantere (bessere?) Quelle verwenden, habe aber aber nach 10m Google abgebrochen. Die Werte müssen ja nicht zu 100% stimmen und würde die jetzt auch nicht auf die Goldwaage legen - das generelle Problem sollte aber ersichtlich sein.

-/\-CruNcher-/\-
2016-02-23, 00:27:09
Es sind +~28 Watt

von Richthofen
2016-02-23, 00:36:36
Achill vergiss dieses Amateur Review seiten einfach.

Hehehe, sehr schön. ;D
Ja genau, was verlinkst du hier eigentlich für nen Noobkram? ;)

Zugegeben, die Lastverbrauchswerte sehen auf anderen Seiten und damit im Durchschnitt schon etwas freundlicher für die 970 aus. Andererseits gibt es eben auch immer wieder die bekannten Ausreisser.

aufkrawall
2016-02-23, 00:44:07
Es sind +~28 Watt
Es sind ~10% mehr Strom bei 15-20% mehr Performance, wenn der VRAM-Verbrauch mit der 970 nicht zu hoch ist.
Die echten 4GB reichen für WQHD fast immer, die gefaketen 3,5GB der 970 tun es zunehmend nicht.

-/\-CruNcher-/\-
2016-02-23, 00:53:58
Dann ist die Textur Kompression einfacht grottig + AA

- Innefiziente Textur Kompression
- Innefiziente AA Balance
- Innefizientes Multithreaded Streaming

Das sind meist so die Hauptgründe wo die GTX 970 unnötig drunter leiden kann, wenn mehrere zusammenkommen wirds schnell unlustig.

aufkrawall
2016-02-23, 01:08:23
The Division lief hier einwandfrei auf der 980. Ich glaub nicht, dass die Engine schlecht ist...

dargo
2016-02-23, 06:14:07
Sagt über die Effitzienz garnichts aus immerhin verbraucht die R 390 dabei auch ordentlich mehr pro frame.

Ich kann diesen Bullshit bald nicht mehr lesen. Meine R9 390 verbraucht im Schnitt 190-200W. Aber anscheinend haben sich die hochgezüchteten Grenadas von MSI & Co in den Köpfen eingebrannt die schon weit über dem Sweet Spot arbeiten. Zudem hat man die Leistung pro Watt bei low level noch gar nicht richtig gesehen. Das kommt noch.

aufkrawall
2016-02-23, 06:35:12
Er sprach von "pro Frame", ein 200W Hawaii kann von der Performance im Schnitt überhaupt nicht mit einem 200W GM204 mithalten.

The_Invisible
2016-02-23, 06:45:13
ich verstehe sowieso 2 dinge nicht:

1. wieso musste man anscheinend mit biegen und brechen unbedingt eine 4gb version bringen, die 512MB machen den braten auch nicht mehr fett. früher gabs ja auch zb 768 zu 640 und 1536 zu 1280MB Karten, trotzdem wurden die kleineren auch gekauft.

2. warum baut man nicht endlich einen (versteckten) schalter ein der die speichermenge begrenzt? nicht möglich oder nicht erwünscht, eventuell ein BIOS update?

aufkrawall
2016-02-23, 07:09:41
ich verstehe sowieso 2 dinge nicht:

1. wieso musste man anscheinend mit biegen und brechen unbedingt eine 4gb version bringen, die 512MB machen den braten auch nicht mehr fett. früher gabs ja auch zb 768 zu 640 und 1536 zu 1280MB Karten, trotzdem wurden die kleineren auch gekauft.

Sie müssen ausgerechnet haben, dass sie mit angebenen 4GB mehr Geld verdienen als mit 3,5GB. Sonst hätten sie nicht betriebswirtschaftlich gedacht.
Btw. sind 3,5GB für WQHD schon nicht mehr so toll.


2. warum baut man nicht endlich einen (versteckten) schalter ein der die speichermenge begrenzt? nicht möglich oder nicht erwünscht, eventuell ein BIOS update?
Eine Erklärung wäre, dass man nicht unnötig weitere mediale Aufmerksamkeit auf das Thema lenken will.

dargo
2016-02-23, 07:18:04
Er sprach von "pro Frame", ein 200W Hawaii kann von der Performance im Schnitt überhaupt nicht mit einem 200W GM204 mithalten.
Er meint R9 390 würde deutlich mehr verbrauchen als die GTX970. Darauf beziehe ich mich. An 30-40W mehr (bei OC Modellen der 970 hast du da nur noch 10-20W) sehe ich nichts Deutliches. Zumal die 390 in einzelnen neueren Games auch bissel schneller als die 970 ist. Und die Anzahl der Spiele wo das passiert wird mit DX12/Vulkan steigen.

ich verstehe sowieso 2 dinge nicht:

1. wieso musste man anscheinend mit biegen und brechen unbedingt eine 4gb version bringen, die 512MB machen den braten auch nicht mehr fett. früher gabs ja auch zb 768 zu 640 und 1536 zu 1280MB Karten, trotzdem wurden die kleineren auch gekauft.

Man würde in diesem Punkt schlechter gegenüber der Konkurrenz aussehen. Offenbar hat man sich von dem Design mehr versprochen, was ja auch funktioniert hat.


2. warum baut man nicht endlich einen (versteckten) schalter ein der die speichermenge begrenzt? nicht möglich oder nicht erwünscht, eventuell ein BIOS update?
Das würde denke ich rechtlich nicht funktionieren.

kruemelmonster
2016-02-23, 07:22:36
zu 1. der Vergleich zur Konkurrenz: bezogen auf das Referenzdesign hat NV oft mehr Speicher (sogar in der kleineren Version) als ATI geboten: 768/640 MB 8800 vs 512 MB HD2900, 1024/896 MB GTX 200 vs 512 MB HD 4800, 1536/1280 MB GTX 400 vs 1024 MB HD5800
Die 600er Serie dagegen hatte weniger Speicher als die HD7900er, genau diese Situation wollte NV wohl um Teufel komm raus bei Maxwell vermeiden. Und der Teufel kam auch raus...

zu 2. das käme einem Schuldeingeständnis oder zumindest dem Anerkennen des Problems gleich -> wird niemals passieren.
Die Karte hat sich wie geschnitten Brot verkauft und dieses Jahr steht Pascal an, da wird jetzt niemand mehr alte Speicherkrüppel-Leichen aus dem Keller holen.

=Floi=
2016-02-23, 07:37:11
Habe ich was vergessen?

ja, den überzeugend günstigen preis!
und danach geht der kunde.

aufkrawall
2016-02-23, 07:45:44
An 30-40W mehr (bei OC Modellen der 970 hast du da nur noch 10-20W) sehe ich nichts Deutliches.
Das stimmt einfach nicht, die Asus Strix 970 hat mit Werks-OC ein standardmäßiges Powertarget von 165W, während man bei Hawaii-Karten kaum oder gar nichts unter 250W finden wird.
Und ja, das kann in Spielen ausgereizt werden und nein, Maxwell ist durch das niedrige PT dabei nicht langsam.

dargo
2016-02-23, 07:55:01
Das stimmt einfach nicht, die Asus Strix 970 hat mit Werks-OC ein standardmäßiges Powertarget von 165W, während man bei Hawaii-Karten kaum oder gar nichts unter 250W finden wird.

Willst du mit mir jetzt über jeden Watt diskutieren oder was? Die 165W machen den Braten auch nicht fett. Andere Karten liegen bei 170-190W.
http://www.tomshardware.de/nvidia-geforce-gtx-970-gtx-980-roundup-vergleichstest,testberichte-241658-20.html

Nichts anderes passiert bei Grenada! Wenn man will bekommt man auch eine ~200W Karte. Die 250W sind völliger Blödsinn. Jedenfalls wenn man am sparsamen Grenada interessiert ist.

aufkrawall
2016-02-23, 08:08:21
Ich hatte eine 290X Tri-X New, die bei 1020Mhz eine TDP von 250W hat, und die hat schon mit dem diesem Standard-Takt bei Trine 2 leicht gedrosselt.
Du glaubst ja wohl selber nicht, dass man da einfach noch -25% PT ohne spürbare Nebenwirkungen geben kann.

Btw. kann man auch bei Maxwells das PT noch weiter runterdrehen, was soll dieser hirnrissige Vergleich mit selbst rausgefundenen Optimalwerten?

dargo
2016-02-23, 08:12:34
Was interessiert mich hier eine 290X? Du hast schon mitbekommen, dass ich von Grenada Pro spreche, speziell HiS?


Btw. kann man auch bei Maxwells das PT noch weiter runterdrehen, was soll dieser hirnrissige Vergleich mit selbst rausgefundenen Optimalwerten?
Informiere dich einfach mal vernünftig über eine R9 390, speziell HiS bevor es peinlich wird.

aufkrawall
2016-02-23, 08:21:30
Klar, Hawaii läuft auf einem Board von His auf einmal viel sparsamer.
Muss an der Umdeklarierung auf den Namen "Grenada" liegen...

Erwzähl wem anders deine Ammenmärchen.

dargo
2016-02-23, 08:26:30
Also doch nur aufs Trollen raus, habe ich doch gleich gewusst.

kruemelmonster
2016-02-23, 08:41:33
Eine Schwalbe macht noch keinen Sommer: http://ht4u.net/reviews/2015/amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/index19.php

Solange deine HiS die Ausnahme von der Regel ist hast du hier getrollt.

dildo4u
2016-02-23, 08:44:35
Solche Aussagen wie Meine lässt sich super Undervolten hat keine Relevanz für die Masse der Karten,davon ab das die AMD's durch die miesen DX11 Treiber gar nicht ausgelastet werden.Die Hersteller müssen garantieren das ihre Karten auch mit DX12 noch vernünftig laufen,daher die hohe Spannung und TDPs um 300 Watt.PCGH hat 390 Strix und Nitro getestet beide liegen über 300 Watt.

dargo
2016-02-23, 08:53:04
Eine Schwalbe macht noch keinen Sommer: http://ht4u.net/reviews/2015/amd_radeon_r9_390x_-_hawaii_in_neuen_gewaendern/index19.php

:facepalm:

Solche Aussagen wie Meine lässt sich super Undervolten hat keine Relevanz für die Masse der Karten...
Wer hat hier vom Undervolten gesprochen? Leute... beschäftigt euch mal mit Powertune. Wenn ich meine Karte nicht undervolte ändert sich am Stromverbrauch gar nichts! Das einzige was passiert ist, dass der avg. Takt minimal kleiner ausfällt. Dann habe ich anstatt 980-1000Mhz avg. eben 950-970Mhz avg. Wahnsinn. :eek: Die 1-2% weniger Leistung machen die Spiele natürlich sofort unspielbar. :rolleyes: Jeder Chip (auch Maxwell) wird überproportional ineffizient wenn man den weit außerhalb vom Sweetspot betreibt, ist keine neue Erkenntnis.