PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24

Tomislav
2015-03-15, 15:51:21
Hallo
Kann es sein, dass dir gerade langweilig ist?
Nicht wirklich, ich verdaue gerade mein Mittagessen, schaue nebenbei den "Foodhunter" und verbringe die Zeit bis zum Nachmittagskuchen im Forum.

Grüße Tomi

Kriton
2015-03-15, 15:53:55
Wieso geht denn keiner von denen den Rechtsweg wenn es so sicher ist das es rechtlich ein Mangel und ein Gewährleistungsfall ist, hat denn von denen keiner eine Rechtsschutzversicherung ?

Ein Grund könnte sein, dass das immer wieder von Leuten angezweifelt wird, die die rechtliche Materie nicht durchdringen. Andere scheuen den Aufwand. Wiederum andere sehen das Problem nicht (Karte ist in den Benchmarks ja nicht schlechter geworden). Mag noch andere Gründe geben, aber das müsstest Du die Betroffenen fragen.

InsaneDruid
2015-03-15, 15:55:27
Wahrscheinlich bockt es viele nur an, das AMD aus der Sache keinen Profit ziehen konnte. Also muss die große Moralkeule kommen.

Ich denke, das sagt ne Menge über AMDs Produkte aus.

Beispiel: Kumpel, beruflicher Programmierer, studierter Informatiker hat ne 970 und gibt sie nicht zurück, weil es für ihn in diesem Preissegment keine Alternative gibt. Und er war sogar noch in der 14 Tages-Frist, als die erste NV-Reaktion kam. Btw: Er hatte die letzten sechs Jahre AMD.

Tomislav
2015-03-15, 15:57:57
Hallo

Ein Grund könnte sein, dass das immer wieder von Leuten angezweifelt wird, die die rechtliche Materie nicht durchdringen.

Ja aber wenn du, der die rechtliche Materie als einziger voll durchdringt, denen doch quasi garantiert das Sie vor Gericht gewinnen dann können die das doch riskieren.


(Karte ist in den Benchmarks ja nicht schlechter geworden).

Evtl. ist das der Grund der die Sache rechtlich wackeln lässt, ich bin wirklich sehr gespannt was aus der US Sammelklage wird.

Wahrscheinlich bockt es viele nur an, das AMD aus der Sache keinen Profit ziehen konnte. Also muss die große Moralkeule kommen.

Ich denke, das sagt ne Menge über AMDs Produkte aus.

Na endlich mal ein schlüssiges Argument das ich verstehe.

Grüße Tomi

Kriton
2015-03-15, 16:22:48
Hallo

Ja aber wenn du, der die rechtliche Materie als einziger voll durchdringt, denen doch quasi garantiert das Sie vor Gericht gewinnen dann können die das doch riskieren.

Habe nicht behauptet, dass ich der Einzige bin, sondern dass es einige gibt, die es nicht tun (und dennoch ständig Aussagen zu diesem Thema treffen). Das ist ein großer Unterschied.

Und wie ich auch schon sagte, besteht z.B. ein Risiko dahingehend den technischen Teil einem Anwalt und/oder Richter verständlich zu machen, damit er die Abweichung zwischen den Aussagen und der Realität nachvollziehen kann.
Zudem ist unser Zivilrecht so aufgebaut, dass man für sein Vorbringen allein verantwortlich ist. D.h. es wird vor dem Zivilgericht nichts verwendet, was keine Partei (substantiiert) dargelegt hat.
Nehmen wir also z.B. an Du machst einen Mangel wegen der 4GB geltend, aber wegen nichts anderem. Dann würde ich wagen zu behaupten, dass Du verlieren würdest (weil die Karte 4 GB hat), selbst wenn der Richter weiß, dass es andere Mängel gibt (die Du aber weder dargelegt, noch ggf. bewiesen hast - weswegen er sie unberücksichtigt lassen muss (!)).


Evtl. ist das der Grund der die Sache rechtlich wackeln lässt, ich bin wirklich sehr gespannt was aus der US Sammelklage wird.

Das deutsche Recht unterscheidet sich vom amerikanischen. Und ich wiederhole mich noch einmal: Die Benchmarks spielen für die Frage des Sachmangels in diesem Kontext keine Rolle (das kann im Rahmen des Rücktritts relevant werden wenn wir darüber reden ob der Mangel unerheblich ist)


Na endlich mal ein schlüssiges Argument das ich verstehe.

Mein Empfinden ist eher, dass es etwas ist, dass in Dein Bild passt. Stichwort: confirmation bias (http://de.wikipedia.org/wiki/Best%C3%A4tigungsfehler)

Ansonsten warte ich ja noch darauf, dass Du Dich auf die rechtlichen Argumente einlässt anstatt nur pauschal gegenteilige Behauptungen in den Raum zu werfen.

Grestorn
2015-03-15, 22:16:00
Ich habe diesen Absatz drei mal langsam gelesen, kann aber nicht erkennen wie es funktionieren soll. Es gibt nur eine Verbindung vom L2, die sich zwei MC teilen müssen. Es ergibt keinen Sinn, dass dieser Datenpfad doppelt breit ausgelegt ist.Ist er nicht. Es hat nur zur Folge, dass nur die halbe Cache-Menge im letzten Segment verfügbar ist.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Aus dem Artikel:

"Bei der Geforce GTX 980 ist jedem der acht L2-Abschnitte ein 32-Bit-Speichercontroller mit je 512 MiB (4 GBit) GDDR5-RAM zugeordnet. Um die Zugriffe möglichst effizient und schnell abzuarbeiten, werden die Daten in kleine Häppchen zerlegt und reihum ("round robin") an die L2s mit ihren Controllern verteilt. So wird aus acht 32-Bit-Controllern das parallel arbeitende 256-Bit-Interface.

Bei der Geforce GTX 970 ist das im Prinzip ebenfalls möglich, jedoch gibt es einen Bereich, in dem der L2-Block abgeschaltet ist. Während in früheren Geforce-Generationen gleich auch der zugehörige Speichercontroller deaktiviert werden musste, ist es bei Maxwell möglich, dass ein L2-Block zwei Speichercontroller versorgt. Solange eine niedrige Last auf dem Speichersystem anliegt, funktioniert das auch problemlos. Wenn jedoch viele Zugriffe anstehen und die Controller überbeschäftigt sind, stauen sich die Anfragen ("Requests") in den Warteschlangen ("Queues") der L2-Blöcke.

Dieser Datenstau würde sich bei der L2-Partition, die zwei Speichercontroller bedienen muss, natürlich doppelt so schnell einstellen. Da die Daten jedoch zugunsten der Parallelität aufgesplittet werden, würde durch diesen lokalen Rückstau die Datenversorgung der Shader-Engine deutlich gebremst.

Nvidia hat sich daher naheliegender- und sinnvollerweise entschieden, im Regelbetrieb nur sieben der acht Speichercontroller anzusteuern, um einen solchen Rückstau zu vermeiden. Effektiv entsteht daraus im Normalfall ein 224-Bit-Speicherinterface mit ergo 196 GB/s anstelle des beworbenen 256-Bit-Interfaces mit 224 GB/s. Nicht sinnvoll, naheliegend oder akzeptabel finden wir dagegen, dass dieses "Maxwell-Feature" nicht zum Launch und auch im Nachgang nur häppchenweise erklärt wurde."

Damit sollte eigentlich alles erklärt sein.

Der Treiber könnte optional einen 256bit Modus anbieten, bei dem dann aber eben nur 1024 kByte L2 Cache nutzbar wären (128 kByte für jedes der 8 32bit Segmente). Im Normalmodus nutzt die Karte dann wie üblich 224 bit und kann dafür 1792 kByte Cache nutzen, also 256 kByte für jedes der verbleibenden 7 32bit Segmente.

Unter Umständen wäre ein solcher 256bit Modus für einige Anwendungsszenarien sogar besser.

Doch selbst wenn er das wäre, ist deine Argumentation Ablenkung. Die 970 funktioniert nicht ohne Treiber, und mit dem Treiber gibt es keine 224 GB/s. Ende der Analyse.Ende der Analyse, aths hat recht. Was Grestorn hier übrigens auch nie bestritten hat. Dummerweise ist es rechtlich schlicht nicht relevant, was der Treiber in der Praxis erreicht, sondern rechtlich es geht schlicht und einfach nur darum, was vom Anbieter zugesichert wurde und in wie weit etwas davon nicht eingehalten wird. Nicht mehr und nicht weniger.

Was mich echt nervt, ist dass man alleine deswegen als Verteidiger für nVidia denunziert wird, nur weil man klar stellt, dass nVidia nach der Rechtssprechung nicht so eindeutig im Unrecht ist, wie die meisten es sich vorstellen. Das ändert überhaupt nichts daran, dass nVidia aus Marketinggründen die Presse und die Kunden über die Details der Einschränkungen im Unklaren gelassen hat und damit das Vertrauen eklatant missbraucht hat.

Einige Leute können offenbar nicht zwischen meiner persönlichen Wertung über nVidias Handlungen und der Diskussion über die Details der technischen und rechtlichen Fakten unterscheiden. Schade eigentlich, dass es nicht möglich zu sein scheint, über solche Dinge nüchtern und ohne Emotionen zu diskutieren.

maximus_hertus
2015-03-15, 22:33:15
Ich bin zwar kein Jurist, aber der Treiber gehört zur Hardware dazu, da ohne nicht lauffähig. Wenn der Treiber also teile der Hardware "deaktiviert" oder sonstwie die Praxisleistung wesentlich beeinflusst, ist das rechtlich wohl dann doch eher relevant. Aber wie gesagt, ich bin kein Jurist ;)

Grestorn
2015-03-15, 22:40:07
Ich bin zwar kein Jurist, aber der Treiber gehört zur Hardware dazu, da ohne nicht lauffähig. Wenn der Treiber also teile der Hardware "deaktiviert" oder sonstwie die Praxisleistung wesentlich beeinflusst, ist das rechtlich wohl dann doch eher relevant. Aber wie gesagt, ich bin kein Jurist ;)

Das stimmt.

Aber nVidia wäre rechtlich sofort auf der sicheren Seite, wenn sie optional den oben von mir beschrieben Modus anbieten würden

"Der Treiber könnte optional einen 256bit Modus anbieten, bei dem dann aber eben nur 1024 kByte L2 Cache nutzbar wären (128 kByte für jedes der 8 32bit Segmente)."

Dann wären die technischen Daten auch vom Treiber her erfüllt. Die Karte wäre dann zwar langsamer, da nur noch 1 MB Cache nutzbar wäre, aber sie würde 256bit nutzen und auch tatsächlich 244GBit/s übertragen können.

maximus_hertus
2015-03-15, 22:57:02
1 MB Cache meinst du wohl ;)

Ja, aber diesen Modus gibt es ja nicht? Aber warten wir mal ab, was die US-Klagen (so sie denn überhaupt zur Verhandlung kommen) bringen werden.

Ich finde es nur schade, dass nVidia den Käufern nicht einfach ein Gratisgame oder sonst eine Kleinigkeit hat zukommen lassen. Oder ganz im Sinne von nV einen sagen wir mal 30-50 Euro Gutschein für die GTX 980 ;) Quasi doppelt kassieren...

Grestorn
2015-03-15, 22:59:01
1 MB Cache meinst du wohl ;)Sorry, natürlich :redface:

Ja, aber diesen Modus gibt es ja nicht? Aber warten wir mal ab, was die US-Klagen (so sie denn überhaupt zur Verhandlung kommen) bringen werden.

Wenn es darauf ankommt, bietet nVidia den Modus durch ein Treiberupdate halt an, und gut ist (quasi als "Nachbesserung").

Für den Anwender ändert das nur alles nichts.

Ich finde es nur schade, dass nVidia den Käufern nicht einfach ein Gratisgame oder sonst eine Kleinigkeit hat zukommen lassen. Oder ganz im Sinne von nV einen sagen wir mal 30-50 Euro Gutschein für die GTX 980 ;) Quasi doppelt kassieren...

Ja, das wäre viel besser für nVidia. Eine Reaktion mit Demut statt Arroganz und dazu eine Maßnahme, wie von Dir beschrieben, um die Wogen etwas zu glätten.
Das Krisenmanagement von nVidia ist eine einzige Katastrophe!

Matrix316
2015-03-16, 09:47:20
1 MB Cache meinst du wohl ;)

Ja, aber diesen Modus gibt es ja nicht? Aber warten wir mal ab, was die US-Klagen (so sie denn überhaupt zur Verhandlung kommen) bringen werden.

Ich finde es nur schade, dass nVidia den Käufern nicht einfach ein Gratisgame oder sonst eine Kleinigkeit hat zukommen lassen. Oder ganz im Sinne von nV einen sagen wir mal 30-50 Euro Gutschein für die GTX 980 ;) Quasi doppelt kassieren...
Oder einfach generell 50 Euro Cashback für alle 970 Käufer von da bis da. Dann hätte keiner die Karte zurückgeben können (nach der 14 Tage Grenze) und wer sie nicht mehr wollte, hätte sie verkaufen können und mit den 50 Euro drauf die Differenz ungefähr ausgeglichen. So hätte Nvidia vielen Händler den Ärger mit den Retourene ersparen können und sie hätten ihr Image nicht ganz so ramponiert.

Godmode
2015-03-16, 10:01:20
Es hätte viele Lösungen gegeben, aber anscheinend war ihnen das einfach egal.

aths
2015-03-16, 12:41:04
Ist er nicht. Es hat nur zur Folge, dass nur die halbe Cache-Menge im letzten Segment verfügbar ist.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Aus dem Artikel: Selbst wenn es technisch möglich wäre bringt die Karte in Echt keine 224 GB/s. Wie gesagt, weiter braucht man nicht zu analysieren.

Doch der im zitierten Artikel genannte "Stau" impliziert, dass der Datenpfad nur normale Breite hat und eben nicht zwei Controller parallel bedient werden können, also nicht an beide Controller pro Datentakt 32 Bit rein- oder rausgehen.

Alles andere ergäbe auch keinen Sinn.

Die 970 hat keine 224 GB/s Speicherbandbreite. Gerade dazu wurde der Einschnitt ja auch vorgenommen, dass neben der Shader- auch die Speicherleistung sinkt.

Botcruscher
2015-03-16, 12:47:46
Nvidia hat sich daher naheliegender- und sinnvollerweise entschieden, im Regelbetrieb nur sieben der acht Speichercontroller anzusteuern, um einen solchen Rückstau zu vermeiden. Effektiv entsteht daraus im Normalfall ein 224-Bit-Speicherinterface mit ergo 196 GB/s anstelle des beworbenen 256-Bit-Interfaces mit 224 GB/s.


Ich wehre mich gegen das Wort Normalfall. Bei Nutzung beider Speicherbereiche sieht der Normalfall ganz anders aus.

Grestorn
2015-03-16, 13:05:11
Doch der im zitierten Artikel genannte "Stau" impliziert, dass der Datenpfad nur normale Breite hat und eben nicht zwei Controller parallel bedient werden können, also nicht an beide Controller pro Datentakt 32 Bit rein- oder rausgehen.

Das impliziert er gerade nicht. Der Stau bezieht sich klar auf den Cache, der eben nur einfach statt doppelt ausgelegt ist, und nicht auf das Speicherinterface. Das steht da ganz klar drin.

Die 970 *könnte* 244 GBit/s nutzen. Du magst das noch so oft leugnen, Argumente lese ich von Dir eh schon lange keine mehr, außer "ich bin aths und habe deswegen Recht".

Ich wehre mich gegen das Wort Normalfall. Bei Nutzung beider Speicherbereiche sieht der Normalfall ganz anders aus.
Bis zur Nutzung von 3,5 GB tritt das Problem ja nicht ein. Wenn mehr als 3,5 GB benötigt werden, muss der Treiberentwickler entscheiden, ob es mehr Performance kostet, Daten über den PCIe Bus zu schicken und dafür die Bandbreite des VRAMs voll nutzen zu können, oder lieber die Daten in die 512 MB zu packen und dafür auch den Zugriff auf die ersten 3,5 GB auszubremsen wegen die Notwendigkeit die Zugriffspattern umzuschalten zu müssen.

Ist halt ein Tradeoff.

Es wäre wirklich interessant, wenn man den Treiber steuern könnte. So drei Modi:

- So wie jetzt, quasi "Auto-Modus", bei der der Treiber versucht sich auf 3,5 GB zu begrenzen aber die 512 MB zu nutzen kann, wenn es sinnvoll erscheint.
- Fixierung auf 3,5 GB mit 224 Bit Zugriff und 1792 kByte Cache
- Fixierung auf 4 GB mit 256 Bit Zugriff und 1024 kByte Cache

Es würde mich wirklich brennend interessieren, wie jeweils die Performance aussieht. Ich bin mir sicher, dass die Ingenieure alle drei Varianten ausprobiert haben und sich nicht ohne Grund für den Auto-Modus entschieden haben. Aber es wäre wirklich sinnvoll, diese Modi zumindest inoffiziell zugänglich zu machen, einfach der Diskussion halber.

-/\-CruNcher-/\-
2015-03-16, 13:09:10
Sorry, natürlich :redface:



Wenn es darauf ankommt, bietet nVidia den Modus durch ein Treiberupdate halt an, und gut ist (quasi als "Nachbesserung").

Für den Anwender ändert das nur alles nichts.



Ja, das wäre viel besser für nVidia. Eine Reaktion mit Demut statt Arroganz und dazu eine Maßnahme, wie von Dir beschrieben, um die Wogen etwas zu glätten.
Das Krisenmanagement von nVidia ist eine einzige Katastrophe!


Dazu würde ich gerne mal was sagen ich war hoch entäuscht als Early Adopter from nachträglichen Free Game Ubisofts Aufgrund des frühen Kaufdatums der GTX 970 ausgeschlossen zu werden so etwas merkt man sich einfach das ist wahrlich peinlich was Marketing angeht, early Adopter zu verprellen ist das dümste was man machen kann diese Aktion war schon ein Denkzettel.


Hallo xxxxxxxxxxxx,

wir haben Ihre Anmeldung für die Aktion erhalten, können Ihnen aber leider keinen Code zusenden. Dies kann folgende Gründe haben:

Ihre Bestellung liegt außerhalb Aktionszeitraumes
Der Name stimmt nicht mit der Rechnung überein
Die Rechnungsnummer ist ungültig
Auf der Rechnung befindet sich kein teilnehmender Artikel

Sollten Sie merken, dass Sie eine falsche Rechnungsnummer eingegeben haben, tragen Sie sich bitte mit der richtigen Rechnungsnummer erneut ein und nutzen eine alternative E-Mail Adresse. Beachten Sie bitte, dass Großteile immer getrennt von kleinen Artikeln versendet werden und damit auch eine andere Rechnungsnummer erhalten.

Folgende Daten haben wir von Ihnen erhalten:

Vorname: xxxxxx
Nachname: xxxxxxxxx
E-Mail: xxxxxx
Rechnungsnummer: xxxxxxxx
Aktion: NVIDIA Pick Your Path (AC5, FC4 oder Crew) (04.11.2014)

Wir möchten Sie bitte n Ihre A nfrage vor dem Verschicken genau zu prüfen, damit Sie den Code ohne Beanstandung schnell erhalten. Lesen Sie sich dazu die Aktion mit den Teilnahmebedingungen genau durch.

Sollten Sie noch Fragen haben hilft Ihnen dieser Beitrag: http://blog.mindfactory.de/wie-bekomme-ich-meinen-spielecode



Mit freundlichen Grüßen

Ihr Mindfactory-Team

gnahr
2015-03-16, 13:15:10
diese Aktion war schon ein Denkzettel.du bist nicht vertraut mit der praxis? die aktionen gelten immer erst ab dem start und nicht rückwirkend. bei beiden herstellern.

N0Thing
2015-03-16, 13:20:09
du bist nicht vertraut mit der praxis? die aktionen gelten immer erst ab dem start und nicht rückwirkend. bei beiden herstellern.

Aber man kann es trotzdem beim Händler versuchen. Hat bei mir auch noch 3-4 Wochen nach dem Start der Aktion funktioniert und bin so in den Genuß von Watch Dogs gekommen. :)

aths
2015-03-16, 13:33:21
Das impliziert er gerade nicht. Der Stau bezieht sich klar auf den Cache, der eben nur einfach statt doppelt ausgelegt ist, und nicht auf das Speicherinterface. Das steht da ganz klar drin.

Die 970 *könnte* 244 GBit/s nutzen. Du magst das noch so oft leugnen, Argumente lese ich von Dir eh schon lange keine mehr, außer "ich bin aths und habe deswegen Recht".
Es gibt nur einen (offenkundig 32 Bit breiten) Datenpfad vom Cache zu zwei Memorycontroller. Der L2-Cache kann abwechselnd einen bedienen.

Doch wie gesagt, die Diskussion darüber ist ein Ablenkungsmanöver. Denn selbst wenn der L2-Block zwei MC gleichzeitig bedienen könnte, was jedoch komisch wäre wenn diese Anbindung doppelte Breite hätte, nutzt der Treiber das nicht. Ich halte mich an Fakten die nachprüfbar sind, die 970 hat noch nie 224 GB/s Speicherbandbreite gezeigt. Du bist der, der bei der 970 etwas für möglich hält, was bislang nirgends gemessen wurde.

Grestorn
2015-03-16, 13:50:31
Ohne einen nVidia Ingenieur werden wir diesen Disput wohl nicht lösen können. Ich bestreite nicht, dass Du recht haben könntest - wenn dem aber so sein sollte, dann ist aber die Erläuterung der PCGH zumindest ungünstig geschrieben.

Pirx
2015-03-16, 14:10:37
@Grestorn: Um deine Posts besser einschätzen zu können: Arbeitest du eigentlich bei/für NVIDIA?

Grestorn
2015-03-16, 14:24:30
Nein, ich bin freiberuflicher Software Ingenieur in Deutschland und habe beruflich nichts mit Grafikkarten zu tun.

-/\-CruNcher-/\-
2015-03-16, 14:27:49
du bist nicht vertraut mit der praxis? die aktionen gelten immer erst ab dem start und nicht rückwirkend. bei beiden herstellern.

Das ist mir sehr bewusst aber wenn ich meine user schätze dann ignorier ich sowas auch einmal oder glaubst du wirklich das enorme wirtschaftliche probleme daraus entstehen wenn man mal einfach so etwas ignoriert ich halte nichts von strikt durchgezogenen werbemasnahmen, so eine heuchelei kann ich aufs blut nicht ab vor allem wenn es um digitale güter innerhalb von werbemasnahmen geht meine Einstellung dazu must du jetzt aber nicht wirklich verstehen, trotzdem bin ich sauer was hier passiert ist vor allem im Zuge des Skandals selbst hätte man so auch teils versuchen können zu Entschädigen zumindestens willen zu demonstrieren einen Fehler in irgend einer Art und Weise wieder gut zu machen.
Ubisoft selbst hat ja gezeigt das so etwas durchaus machbar ist mit ihrem eigenen AC5 Skandal und der versuchten Widergutmachung nach diesem enormen negativen Feedback.
Also meine Einstellung gegenüber Nvidia hat sich seit jahren massiv verändert zu viel vorgefallen natürlich wird das bei AMD nicht anders werden sollten sie es schaffen Marktanteile in der nächsten Zeit von Nvidia zu entziehen und das sehe ich sehr positiv als gegeben an das sie das in Zukunft schaffen werden, so langsam kommen sie dahin.
Nvidias Ökosystem Vorteile sind auch langsam am Zerbröckeln soweit schon das sie sogar versuchen sich mit ihren eigenen Platformen zu differenzieren ob das gelingen wird da bin ich noch sehr skeptisch.

Der Weg mit der GTX 970 war richtig die Preisreduzierung wichtig zeigt aber auch die Angst ob er erfolgreich sein wird auch nach dem Skandal das bezweifele ich noch stark im Zuge AMDs anstehendem Release Zyklus, der den Anfang des heftigen Zerfalls von Nvidias Marktanteilen darstellen könnte.

Bin überzeugt das Lisa T. Su Huang einen Fight demonstrieren wird denn er so schnell nicht vergessen wird, die Frau weiss was sieh tut und sieht die schwächen sehr genau und investiert endlich dort um sie aus dem Weg zu Räumen :)

dllfreak2001
2015-03-16, 19:36:02
Ist er nicht. Es hat nur zur Folge, dass nur die halbe Cache-Menge im letzten Segment verfügbar ist.

http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/

Aus dem Artikel:

"Bei der Geforce GTX 980 ist jedem der acht L2-Abschnitte ein 32-Bit-Speichercontroller mit je 512 MiB (4 GBit) GDDR5-RAM zugeordnet. Um die Zugriffe möglichst effizient und schnell abzuarbeiten, werden die Daten in kleine Häppchen zerlegt und reihum ("round robin") an die L2s mit ihren Controllern verteilt. So wird aus acht 32-Bit-Controllern das parallel arbeitende 256-Bit-Interface.

Bei der Geforce GTX 970 ist das im Prinzip ebenfalls möglich, jedoch gibt es einen Bereich, in dem der L2-Block abgeschaltet ist. Während in früheren Geforce-Generationen gleich auch der zugehörige Speichercontroller deaktiviert werden musste, ist es bei Maxwell möglich, dass ein L2-Block zwei Speichercontroller versorgt. Solange eine niedrige Last auf dem Speichersystem anliegt, funktioniert das auch problemlos. Wenn jedoch viele Zugriffe anstehen und die Controller überbeschäftigt sind, stauen sich die Anfragen ("Requests") in den Warteschlangen ("Queues") der L2-Blöcke.

Dieser Datenstau würde sich bei der L2-Partition, die zwei Speichercontroller bedienen muss, natürlich doppelt so schnell einstellen. Da die Daten jedoch zugunsten der Parallelität aufgesplittet werden, würde durch diesen lokalen Rückstau die Datenversorgung der Shader-Engine deutlich gebremst.

Nvidia hat sich daher naheliegender- und sinnvollerweise entschieden, im Regelbetrieb nur sieben der acht Speichercontroller anzusteuern, um einen solchen Rückstau zu vermeiden. Effektiv entsteht daraus im Normalfall ein 224-Bit-Speicherinterface mit ergo 196 GB/s anstelle des beworbenen 256-Bit-Interfaces mit 224 GB/s. Nicht sinnvoll, naheliegend oder akzeptabel finden wir dagegen, dass dieses "Maxwell-Feature" nicht zum Launch und auch im Nachgang nur häppchenweise erklärt wurde."

Damit sollte eigentlich alles erklärt sein.

Der Treiber könnte optional einen 256bit Modus anbieten, bei dem dann aber eben nur 1024 kByte L2 Cache nutzbar wären (128 kByte für jedes der 8 32bit Segmente). Im Normalmodus nutzt die Karte dann wie üblich 224 bit und kann dafür 1792 kByte Cache nutzen, also 256 kByte für jedes der verbleibenden 7 32bit Segmente.

Unter Umständen wäre ein solcher 256bit Modus für einige Anwendungsszenarien sogar besser.


Ich hätte mir den PCGH-Artikel mal durchlesen sollen.
Das Szenario wie es da steht ist ganz schön zusammen gesponnen und liest
sich eher wie ein krankhafter Versuch Nvidias Vorgehen zu rechtfertigen.
aths hat schon ausgeführt wieso dieses Szenario unwahrscheinlich ist.

Außerdem kann ich mir nicht vorstellen, dass der Treiber mehr kann als bestimmte Speicherbereiche auszublenden oder hinten anzustellen.
Wie er es eben jetzt schon tut.

Grestorn
2015-03-16, 19:42:31
Du meinst ernsthaft, die PCGH würde "krankhaft" versuchen, nVidias Vorgehen zu rechtfertigen? Oder habe ich Dich missverstanden?

samm
2015-03-16, 19:47:56
Wohl weil es so formuliert ist, dass die "Lösung" mit der Speicherverkrüppelung und allen daraus entstehenden notwendigen Workarounds im Treiber/Spielen oder den Folgen fehlender Workarounds wunderbar richtig, "naheliegend und sinnvoll" ist. Und das in einem schwurbeligen Artikel, der für den Durchschnittsleser noch weniger leicht verdaulich ist als mein vorheriger Schachtelsatz ;)

Grestorn
2015-03-16, 19:49:29
Dass es halt einfach so *ist* wie die PCGH es darstellt, ist in Euren Augen also schlicht ausgeschlossen?

Liest Raff hier mit?! :)

samm
2015-03-16, 20:02:12
Keine Ahnung, wie das in den Augen anderer mit "euch" gemeinten Leute aussieht, aber in meinen:

Ja, es ist meiner Meinung nach nicht so, wie die die PCGH es suggeriert:

Die Kausalität scheint mir falsch dargestellt (Der Text sagt etwas in diesem Sinne aus: "sie haben einen Teil des L2 deaktiviert, müssen aber nach wie vor alle Speichercontroller nutzen können (um den ganzen Speicher nutzen zu können), also dürfen sie einen Speichercontroller möglichst nicht nutzen"), und einige durch Konjunktionen als Erklärungen gekennzeichneten Sätze sind für mich schwer nachvollziehbar (z.B. "Da die Daten jedoch zugunsten der Parallelität aufgesplittet werden, würde durch diesen lokalen Rückstau die Datenversorgung der Shader-Engine deutlich gebremst.")

Dazu kommen nun die äusserst positiven Adjektive "naheliegender- und sinnvollerweise" im Zusammenhang mit einer aufwändigen Verkrüppelung des Speichersystems, die in ihrer Klarheit bei einem Leser erst recht hängen bleiben, wenn er vom Schwierigkeitsgrad des sonstigen Textes überfordert ist.

Skysnake
2015-03-16, 20:05:31
Es macht einfach keinen Sinn, zumal sich, wäre es denn wirklich so, Bedingungen schaffen liesen, um es zu testen. Der L2 ist nämlich schneller, als das SI.

Man müsste also, solange man z.B. kein Cache trashing betreibt schön die 224GB/s dauerhaft halten können. Kann man aber eben nicht..

Die ganze Beschreibung stinkt einfach zum Himmel. Das ist mal wieder typisch nVidia. Es werden ein paar missverständliche Brocken hingeschmissen, die Redaktionen machen das daraus, was Sie können, und nVidia lacht sich ins Fäustchen, weil wieder FUD verbreitet wird, und man am Ende zur Not sagen kann: Nene, so war das doch gar nicht gemeint und von uns auch nie gesagt...

Sorry, aber so lange nVidia nicht zeigt, dass das GENAU! so ist, kann man nVidia das nicht glauben. Wer mehrfach lügt, dem glaubt man nicht mehr...

Grestorn
2015-03-16, 20:08:17
@samm:
Aus meiner Sicht kommt die verwendete Formulierung schlicht da her, dass man die Erklärungen von nVidia übernommen hat und deswegen das übliche Konjunktiv eingesetzt hat, dass in solchen Fällen eben benutzt wird (wie man es z.B. jeden Tag in den Nachrichten höhrt).

Die PCGH kann die Fakten selbst ja weder prüfen noch selbst ermitteln sondern letztlich sich das immer nur von nVidia erklären lassen und dann wiedergeben.

Es macht einfach keinen Sinn, zumal sich, wäre es denn wirklich so, Bedingungen schaffen liesen, um es zu testen. Der L2 ist nämlich schneller, als das SI.
Es geht um Cache Misses, die deutlich häufiger auftreten, wenn der Cache kleiner ist, die Geschwindigkeit des Caches ist bei dieser Betrachtung zunächst nicht von Belang. Zudem muss die Behandlung von allen 256bit gleich erfolgen (sprich, entweder sind alle 256 bit eines gesuchten Datenworts im Cache oder gar keines der Bits. Wenn nur 224 von den 256 Bits im Cache Hit sind, weil dem letzten Segment nur der halbe Cache verfügbar ist, würde das den gesamten Cache Hit wertlos machen). Deswegen müssen alle 8 Segmente identisch konfiguriert werden, was den Cache angeht.

Deswegen muss der Treiber, wie ich gestern beschrieben habe, entweder alle Segmente mit nur einem Cache Modul konfigurieren oder er nutzt eben nur 7 Segmente, die er dann dafür aber mit jeweils zwei Cache Modulen konfigurieren kann - dafür muss er aber dann das letzte Segment außen vor lassen.

Tomislav
2015-03-16, 20:11:18
Hallo

@Grestorn

Mal völlig unabhängig von der PCGH so allgemein gefragt:
Was meinst du wer bekommt von NVidia eher ein Titan X Testexemplar ?
Eine Redaktion die das GTX 970 Speicher Problem wohlwollend beschrieben hat oder eine Redaktion die wegen des Speicher Problems die GTX 970 verrissen hat ?

Grüße Tomi

Grestorn
2015-03-16, 20:16:29
Hallo

@Grestorn

Mal völlig unabhängig von der PCGH so allgemein gefragt:
Was meinst du wer bekommt von NVidia eher ein Titan X Testexemplar ?
Eine Redaktion die das GTX 970 Speicher Problem wohlwollend beschrieben hat oder eine Redaktion die wegen des Speicher Problems die GTX 970 verrissen hat ?

Es wäre schade, wenn das eine Rolle spielen würde. Aber klar ist, dass Webseiten, die nVidia oder auch AMD aufs heftigste in die Pfanne hauen, natürlich nicht unbedingt bevorzugt behandelt werden.

Ich denke, man würde der PCGH Unrecht tun, wenn man ihnen eine solche Motivation unterstellt. Presse sollte neutral und ausgewogen berichten und sich nicht von Vorurteilen und Zorn leiten lassen. Und in diesem Sinne sehe ich die Berichterstattung der PCGH. Ist ja nicht so, dass man dort keine Kritik geübt hätte.

Skysnake
2015-03-16, 20:20:13
Es geht um Cache Misses, die deutlich häufiger auftreten, wenn der Cache kleiner ist, die Geschwindigkeit des Caches ist bei dieser Betrachtung zunächst nicht von Belang. Zudem muss die Behandlung von allen 256bit gleich erfolgen (sprich, entweder sind alle 256 bit eines gesuchten Datenworts im Cache oder gar keiner). Deswegen müssen alle 8 Segmente identisch konfiguriert werden, was den Cache angeht.
[quote]
Es geht doch nicht um Cache misses. Du musst nur an die richtigen Stellen schreiben, dass du durch den Cache durchreichst, weil eben jeder an eine andere Stelle des Caches schreibt. Das sollte an sich machbar sein, weil man ja die MC unabhängig voneinander arbeiten.

[quote]
Also, wie ich schrieb, entweder alle Segmente mit nur einem Cache Modul konfigurieren oder eben nur 7 Segmente nutzen, die dann aber mit zwei Modulen konfigurieren. und dafür dann das letzte Segment außen vor lassen.
Und jetzt bitte auf Deutsch...

Das versteht doch kein MEnsch, was du gerade sagen willst. Du drückst dich gerade um eine klare Aussage herum.

Es ist nämlich so, das man nicht! davon ausgehen kann, dass der L2-Slice von zwei MC gleichzeitig Daten entgegen nehmen kann, und das Umstellen eben auch Zeit benötigt, weil man z.B. einen kompletten Cacheflush machen muss.

Genau DAS hat aber zur Folge, das man NIE das komplette 256 Bit interface gleichzeitig nutzen kann, und damit auch NIE die volle Bandbreite erreichen kann. Was du zwischen den Zeilen oben auch durchaus nahe legst.

Grestorn
2015-03-16, 20:22:18
Es geht doch nicht um Cache misses. Du musst nur an die richtigen Stellen schreiben, dass du durch den Cache durchreichst, weil eben jeder an eine andere Stelle des Caches schreibt. Das sollte an sich machbar sein, weil man ja die MC unabhängig voneinander arbeiten.Natürlich geht es um Cache Misses (bzw. deren Häufigkeit), wenn man über die Größe eines Caches diskutiert. Das ist die Aufgabe eines Caches: Zu verhindern, dass man auf den vergleichsweise langsamen Speicher zugreifen muss und statt dessen die Daten aus dem schnellen Cache holen kann.

Sorry, wenn meine Ausführungen nicht klar genug waren. Ich hab sie eben nochmal umgeschrieben, da sie evtl. etwas verworren formuliert waren.

Skysnake
2015-03-17, 07:01:24
Du willst ja aber eben NICHT den Cache testen, sondern das SI, also willst du im Prinzip nie einen Cache hit haben. Dann hängste komplett am SI, und da davon auszugehen ist, dass der Cache deutlich schneller ist als das SI, wird dieses dadurch nicht eingebremst.

An genau der Stelle entscheidet es sich ja, ob man die 224GB/s nutzen könnte oder nicht. Wenn es selbst da nicht geht, dann kann man es eben nicht nutzen, und davon ist auszugehen, weil die Architektur ansonsten ziemlich umständlich und hässlich wäre.

EDIT:
Ja, so ist es verständlich. Der springende Punkt ist aber, das wir über die maximal mögliche Bandbreite des SI sprechen, die theoretisch erreicht werden kann. Da interessieren Cache hits erstmal nicht. Du hast Recht mit deiner Ausführung zu den Hits, und es ist eben auch der Grund/Argumentation, warum es eben keinen Sinn macht, warum man das komplette SI nutzen könnte. Les dir deine eigene Argumentation nochmal durch. Dann solltest du an sich merken, warum es schwachsinn ist, dass die 224GB/s möglich wären.

aths
2015-03-17, 11:43:56
Ohne einen nVidia Ingenieur werden wir diesen Disput wohl nicht lösen können. Ich bestreite nicht, dass Du recht haben könntest - wenn dem aber so sein sollte, dann ist aber die Erläuterung der PCGH zumindest ungünstig geschrieben.Die Idee hinter dem GTX-970-Speichersystem ist doch gerade die Reduktion der Speicherbandbreite.

Um trotzdem 4 GB RAM zu bieten, musste die Speichersegmentierung eingeführt werden. Diese Reihenfolge hat auch Huang bestätigt. Warum sollte Nvidia erst den Aufriss betreiben, das Interface schmaler zu machen, dann aber doch einen 256-Bit-Zugriff ermöglichen?

Die offiziellen Specs sind noch die falschen Zahlen, übrig geblieben vom Versuch, die 970 als speicherseitig vollwertig ausgerüstet zu vermarkten. Könnte die 970 ihre 224 GB/s schaffen, würden Nvidia-Ingenieure das jetzt ganz klar sagen, und sich nicht schwammig und unkonkret ausdrücken. Es stünde dann noch immer eine Messung aus, welche 224 GB/s bestätigt. Das geht aber schon von der Speicher-Organisation her nicht. Die ist erforderlich, weil ein L2-Block inaktiv ist und damit auch einige Datenpfade inaktiv sind. Das Interface schmaler zu machen war ja auch gerade der Sinn der Übung.

Doch selbst wenn die Segmentierung reine Treibersache wäre und nur der Treiber verhindern würde, dass die Karte ihre 224 GB/s bringt obwohl sie es könnte, ist die Angabe noch immer falsch. Denn es interessiert dann nicht, was die zugrunde liegende Hardware könnte, sondern was das Produkt "GTX 970" kann. Dafür braucht man auch keinen Nvidia-Ingenieur.

kruemelmonster
2015-03-17, 21:52:05
Perhaps you've begun to absorb the fact that the Titan X ships with 12GB of video memory, which is enough to supply the main memory partitions on six GeForce GTX 960 cards—or 3.42857 GeForce GTX 970s.

X-D

fondness
2015-03-18, 10:13:33
Next Chapter: :D

lZuZ0CTxKmI

kruemelmonster
2015-03-18, 13:47:58
Unlustig, da eine GTX 960 eine halbe 980 ist und keine halbe 970.

Better luck next time.

Tomislav
2015-03-24, 05:30:54
Sorry hier stand Unsinn

Disco_STFU
2015-03-27, 19:28:26
Hier wurde doch mal ein Video gepostet in dem man die Microruckler in Shadows of Mordor gut erkennen konnte. Ich glaube es war aufkrawall.

Hat jemand noch den Link zur Hand? :)

aufkrawall
2015-03-27, 19:49:01
Wenn, dann war es nicht von mir gemacht, da ich das Spiel nicht besitze.
Es ist auch nicht das beste Beispiel, da es auch auf echten 4GB nicht wirklich rund läuft.
Ich hatte ein Hitman-Video gemacht.

Angiesan
2015-03-28, 08:47:50
Hier wurde doch mal ein Video gepostet in dem man die Microruckler in Shadows of Mordor gut erkennen konnte. Ich glaube es war aufkrawall.

Hat jemand noch den Link zur Hand? :)

Das läuft auch auf 3 GB nach dem Patch der schon im Januar gekommen ist einwandfrei, und das was noch übrig bleibt läuft auch auf den geforderten 6 GB nicht rund das sind Nachladeruckler die aber nicht mit der Größe des Vram zusammenhängen sonder mit dem Spiel selbst.

Schaltet man Vsync ein hat man auf Ultra mit allem auf Vollgas selbst in 2560x1440 ein Flatline und vielleicht 2-3 Spikes in 20 Minuten Spielzeit.

Menace
2015-03-30, 12:46:26
Im User-Forum vom RAW-Konverter Capture One berichten zwei GTX-970 Benutzer davon, dass die Unterstützung mit Open Cl wohl nicht (richtig) funktioniert. Ist davon etwas bekannt?

http://forum.phaseone.com/En/viewtopic.php?f=57&t=18561&p=90086&sid=de409a77710dd676df4084a479768d6f#p90086

Skysnake
2015-03-30, 14:29:31
Es gibt keine OpenCL Unterstützung von nVidia seit Kepler...

The_Invisible
2015-03-30, 14:37:13
Naja, es kommt dann halt irgendwann der Punkt wo es lächerlich wird und man alles auf den Speicher schiebt.

btw
habe übers wochenende längere zeit "the new order" gezockt und da waren bei meiner gtx 970 so 3,7 bis 3,8 belegt, allerdings hätte ich nicht bemerkt das es irgendwie schlechter laufen würde. wurde da schon was optimiert oder merke ich das einfach nicht oder schlechtes beispiel?!? ;D

bezüglich den langsamen 512mb: man sieht ja das auch unter windows so 200 bis 300mb belegt werden, werden diese beim start einer 3d anwendung freigeräumt oder verbleiben die noch im vram? Wenn ja könnte man ja die langsameren 512mb dafür nutzen.

Nakai
2015-03-30, 14:56:04
Es gibt keine OpenCL Unterstützung von nVidia seit Kepler...

NV ist dahingehend ein riesiges Arschloch...auch weil ich mich das selber mit rumschlagen muss.

Air Force One
2015-03-30, 15:02:21
Ist das eig. eher Hardware oder Software bedingt?

aufkrawall
2015-03-30, 15:06:35
Das ist firmenpolitisch bedingt.
Demnächst kommt wohl auch 1.2 Unterstützung, "keine Unterstützung" sieht anders aus.
Dass sie nicht toll ist, ist klar. Für den End User reichts aber.

fondness
2015-03-30, 15:12:15
Ist das eig. eher Hardware oder Software bedingt?

Die Sache ist relativ einfach: Wenn es einen funktionierenden, gemeinsamen Standard gibt, hat CUDA keine Daseinsberechtigung mehr. Deshalb bremst NV OpenCL aus wo es nur geht, anstatt wie AMD mit Vulkan oder DX12 offensiv an die Sache ran zu gehen. Das man dabei seit Jahren den Fortschritt behindert scheint man gerne in Kauf zu nehmen und den Kunden scheint es auch egal zu sein.

aufkrawall
2015-03-30, 15:15:10
Die Sache ist relativ einfach: Wenn es einen funktionierenden, gemeinsamen Standard gibt, hat CUDA keine Daseinsberechtigung mehr. Deshalb bremst NV OpenCL aus wo es nur geht.
Aber nicht auf den eigenen GPUs, zumindest nicht absichtlich bei der Performance.
Gibt durchaus OpenCL-Anwendungen, die sehr gut auf NV laufen. Auf AMD läuft es in der Breite aber besser.
Wobei man auch nicht völlig die Perf/W ignorieren sollte.

fondness
2015-03-30, 15:18:03
Aber nicht auf den eigenen GPUs, zumindest nicht absichtlich bei der Performance.


Das wäre auch ungeschickt. Es reicht schon das man jede OpenCL Version erst Jahre später halbgar unterstützt, um eine breite Akzeptanz möglichst lange hinaus zu zögern / zu verhindern.

dildo4u
2015-03-30, 15:18:33
Nvidia hat vor ein paar Monaten am Treiber geschraubt Maxwell steht ganz gut da.2X gegenüber Kepler.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34550-nvidia-geforce-gtx-titan-x-im-test.html?start=7

Thunder99
2015-03-30, 16:06:28
Naja, es kommt dann halt irgendwann der Punkt wo es lächerlich wird und man alles auf den Speicher schiebt.

btw
habe übers wochenende längere zeit "the new order" gezockt und da waren bei meiner gtx 970 so 3,7 bis 3,8 belegt, allerdings hätte ich nicht bemerkt das es irgendwie schlechter laufen würde. wurde da schon was optimiert oder merke ich das einfach nicht oder schlechtes beispiel?!? ;D

bezüglich den langsamen 512mb: man sieht ja das auch unter windows so 200 bis 300mb belegt werden, werden diese beim start einer 3d anwendung freigeräumt oder verbleiben die noch im vram? Wenn ja könnte man ja die langsameren 512mb dafür nutzen.
Werden frei gemacht. Das es nicht schlechter anscheinend läuft hängt damit zusammen das die Daten im langsamen Bereich nicht angesprochen werden ;). Wird darauf mal zugegriffen gibt es spürbare Nachteile im Vergleich zu einer echten 4GB Karte ;)

Menace
2015-03-30, 16:59:33
Es gibt keine OpenCL Unterstützung von nVidia seit Kepler...

Andere nvidia Karten laufen aber. Aber gut zu wissen; Danke.

Skysnake
2015-03-30, 18:15:08
Ja, es läuft, aber du hast keine Garantie dafür. Das ist einfach bullshit.

Das ist firmenpolitisch bedingt.
Demnächst kommt wohl auch 1.2 Unterstützung, "keine Unterstützung" sieht anders aus.
Dass sie nicht toll ist, ist klar. Für den End User reichts aber.
Dann zeig doch mal bitte, wo nVidia offiziell zertifizierten OpenCL Support hat...

Das ist alles nur unter der Hand auf gut Glück, das es läuft.

aufkrawall
2015-03-30, 18:41:04
Wofür brauch ich "zertifizierten OpenCL-Support"?
Ich code nix und will es etwa einfach nur in madVR nutzen, was auf NV problemfrei funktioniert (auf AMD dagegen defakto gar nicht).

Skysnake
2015-03-30, 19:00:33
Weil es ansonsten immer ein Glücksspiel ist, ob etwas funktioniert oder nicht.

Es gab und gibt oft genug Probleme mit nVidia und OpenCL.

Tellion
2015-03-31, 09:32:01
Ich habe mir eine MSI GTX970 gekauft und bin mit den 4GB zufrieden!!!!

derF
2015-03-31, 10:06:46
Danke für diese Information!!!1
Da würde mich dann außerdem noch interessieren ob du mit den schnellen 3,5 GB noch zufriedener als mit den langsamen 4 GB bist?
Und die AMD Grafikkarten hast du sicher gehört, dass die total schlechte Treiber haben und so laut sind, dass man sein eigenes Wort nicht mehr versteht?
:):):)

Thunder99
2015-03-31, 11:16:17
Danke für diese Information!!!1
Da würde mich dann außerdem noch interessieren ob du mit den schnellen 3,5 GB noch zufriedener als mit den langsamen 4 GB bist?
Und die AMD Grafikkarten hast du sicher gehört, dass die total schlechte Treiber haben und so laut sind, dass man sein eigenes Wort nicht mehr versteht?
:):):)
Sarkasmus pur, oder? :freak:

MSI baut eine der besten GTX970er aber wehe du brauchst mal wirklich aktiv die 4GB... ;)

derF
2015-03-31, 11:20:55
Sarkasmus pur, oder? :freak:
Sagass-Mus? Ist das lecker? ;)

Tellion
2015-03-31, 12:01:40
Danke für diese Information!!!1
Da würde mich dann außerdem noch interessieren ob du mit den schnellen 3,5 GB noch zufriedener als mit den langsamen 4 GB bist?
Und die AMD Grafikkarten hast du sicher gehört, dass die total schlechte Treiber haben und so laut sind, dass man sein eigenes Wort nicht mehr versteht?
:):):)

Siehs entspannt.
Mir is das Thema völlig egal.
Und das kann man ja auch mal sagen.
Sie läuft und hat meine 580er würdig ersetzt!

Back2Soul
2015-03-31, 13:32:51
Solange wie man kein Problem hat, kann es einem ja auch egal sein.
Die Frage ist allerdings nur, ab wann man das Problem selbst haben wird ;)

Aber wenn du zufrieden bist , ist doch alles gut.
Ich bin von meiner 970 zu 290x 8GB gewechselt. 8GB Darum, weil ich sie sehr günstig gekriegt habe durch den Bekanntenkreis.

Und ich hatte mit der 970 in 2-3 Games Probleme, darum flog sie raus.
Ansonsten hätte ich sie wohl auch behalten.
Auch wenn ich den Umgang den NV da mit den Kunden pflegt bzw. gepflegt hat absolut enttäuschend und traurig finde.

derF
2015-03-31, 13:39:07
Nix für ungut Tellion. Dein Post mit den vielen Ausrufezeichen kam nur recht sinnfrei daher, also nutzte ich ihn um zumindest ein bisschen Spaß daran zu haben. :rolleyes:

The_Invisible
2015-04-04, 11:47:43
Danke für diese Information!!!1
Da würde mich dann außerdem noch interessieren ob du mit den schnellen 3,5 GB noch zufriedener als mit den langsamen 4 GB bist?
Und die AMD Grafikkarten hast du sicher gehört, dass die total schlechte Treiber haben und so laut sind, dass man sein eigenes Wort nicht mehr versteht?
:):):)

Naja, ich habe wirklich lange überlegt eine AMDzu nehmen und habe mich auch viel darüber informiert und war motiviert dazu.

Dann bin ich aber auf diesen Artikel bei computerbase gestoßen: http://www.computerbase.de/2014-12/early-access-spiele-benchmarks-test/

Scheint so als würden die AMD Treiber nicht so gut sein wenn noch nichts optimiert wurde. Hat mich ein bisschen abgeschreckt da ich gerne solche Spiele teste bzw. auch Games abseits vom Mainstream.

Und dann halt noch das leidige Linux Thema. Ich habe beruflich sehr viel mit Linux zu tun und habe daher privat auch noch einen Linux Desktop installiert. Es gibt nun wirklich sehr (gute) viele Games unter Steam die mit LInux schon funzen. Habe mir gedacht das nach so vielen Jahren AMD endlich gleichgezogen bzw. aufgeholt hat, aber laut Phoronix ist noch immer sehr oft sogar ne GTX 760/960 schneller als ne 290er von AMD, wirklich schade.

So ist es halt eine verkrüppelte GTX 970 geworden, 200€ mehr für ne 980er wollte ich nicht ausgeben. Ich hoffe bis zum nächsten Upgrade hat AMD nachgebessert, dann gerne.

Darlie
2015-04-04, 23:19:26
Naja, ich habe wirklich lange überlegt eine AMDzu nehmen und habe mich auch viel darüber informiert und war motiviert dazu.

Dann bin ich aber auf diesen Artikel bei computerbase gestoßen: http://www.computerbase.de/2014-12/early-access-spiele-benchmarks-test/

Scheint so als würden die AMD Treiber nicht so gut sein wenn noch nichts optimiert wurde. Hat mich ein bisschen abgeschreckt da ich gerne solche Spiele teste bzw. auch Games abseits vom Mainstream.

Und dann halt noch das leidige Linux Thema. Ich habe beruflich sehr viel mit Linux zu tun und habe daher privat auch noch einen Linux Desktop installiert. Es gibt nun wirklich sehr (gute) viele Games unter Steam die mit LInux schon funzen. Habe mir gedacht das nach so vielen Jahren AMD endlich gleichgezogen bzw. aufgeholt hat, aber laut Phoronix ist noch immer sehr oft sogar ne GTX 760/960 schneller als ne 290er von AMD, wirklich schade.

So ist es halt eine verkrüppelte GTX 970 geworden, 200€ mehr für ne 980er wollte ich nicht ausgeben. Ich hoffe bis zum nächsten Upgrade hat AMD nachgebessert, dann gerne.

Ich habe leider auch eine GTX970 3,5gb und bin von einer HD7970Ghz gewechselt. Ich lese immer wieder was von schlechten Treibern und AMD Karten betreffend. Dem ist nicht so, AMD Treiber sind nicht besser oder schlechter, beide Hersteller haben Mängel. Zur Zeit bereue ich das ich meine 7970Ghz verkauft habe und nun eine supertolle Treibergottheit 970GTX von Nvidia im Rechner habe. Nvidia ist ein Drecksladen der die Käufer bescheisst, da ist mir jetzt egal wie schnell die Karten gegenüber den Kokurrenten sind.

Knuddelbearli
2015-04-05, 02:05:46
abgesehen davon das das 5 Spiele sind 3 davon Rennspiele man da also sowieso nichts verallgemeinern darf / kann.

Alter Sack
2015-04-05, 09:09:23
Mal eine Frage, oder ein Gedanke:

GSync 144Hz Bildschirme müssten doch die Frametime-Problematik bei vollem VRAM der GTX970 eigentlich halbwegs oder komplett ausbügeln... zumindest düfte man beim zocken davon weitaus weniger mitbekommen, oder?!

Geldmann3
2015-04-05, 09:34:49
Das würde höchstens gegen das Microruckeln helfen was durch den plötzlichen Bandbreitenabfall entstehen könnte. Doch in der Praxis hat sich die Speicherproblematik kaum als Quelle für Mikroruckler herausgestellt. Bzw. nur in sehr seltenen Fällen.

UtWL3D9ZL3Q

Das Problem tritt meistens eher dann auf, wenn die 3,5GB wirklich maßlos überfordert sind. Dann bricht die Framerate allerdings so sehr ein, dass auch variable Refreshraten nicht mehr helfen. Zumal diese auch erst bei hohen Frameraten anfangen aktiv zu werden. 30/40FPS. Was eigentlich sehr schade ist, da GSync/Free Sync gerade bei leicht unter 30FPS die Spielbarkeit aufrechterhalten könnten.

Alter Sack
2015-04-05, 09:37:48
OK Danke.
Habe mir die Kombi aus GSync-TFT udn GTX970 zugelegt. Far Cry 4 download ist gleich abgeschlossen. Bin gespannt, was geht.
GSync mit dem ASUS-ROG-Swift ist jedenfalls ne Granate.

gnomi
2015-04-05, 10:23:16
Ja, teste das mal aus.
Bin mal gespannt. =)

Far Cry 4 hat seit 1.3 verbessertes Streaming und auch einige Treiberoptimierungen hinter sich, läuft hinsichtlich der Frametimes aber selbst auf der 980 bei um die 60 fps und GSync noch immer nicht ganz optimal.
Auch Watch Dogs @ Ultra wäre so ein Kandidat. (High hingegen kein Problem mehr)
Das liegt aber definitiv am Streaming dieser Spiele. (wenn die Grafik so eingestellt ist, dass der VRam reicht)
Ich hoffe, Ubisoft bekommt das bei den Nachfolgern Out of the Box besser in den Griff.

Alter Sack
2015-04-05, 10:54:19
Habe jetzt ne kurze Runde FC4 hinter mir. Alles auf high bis Ultra. Sieht rattengeil aus und ist flüssig spielbar. Hier macht sich vor allem die 1440P Auflösung positiv bemerkbar und dank GSync bin ich unabhängig von VSync wenn´s um´s tearing geht.
Watch Dogs wird im nächsten Steam-Sale mal mitgekauft.

Beim ROG-Swift Bildschirm war ein Ubi Gutschein mit dabei. Habe AC-Unity genommen. Bin schonmal gespannt, wie da die GTX970 performen wird.

gnomi
2015-04-05, 11:29:49
Klingt doch soweit prima. Ostern ist gerettet. ;D
AC Unity oder Ryse sind auch genau das Richtige, um die Combo mal ans Limit zu bringen. FPS würde ich für SP Games wie diese so einstellen, dass 35 fps mit GSync Minimum bleiben. Für FPS wie Far Cry 4 würde ich eher 60 empfehlen.
Na dann viel Spaß mit dem neuen Equipment. =)

bertramfx
2015-04-05, 17:24:44
Nvidia ist ein Drecksladen der die Käufer bescheisst, da ist mir jetzt egal wie schnell die Karten gegenüber den Kokurrenten sind.

+1

DerKleineCrisu
2015-04-06, 10:32:30
Welches Fazit kann man nun aus dem ganzen 970er Problem ziehen ?.

NVidia hat "durch einen PR Fehler " nicht ganz die Wahrheit erzählt
und kommt damit bei den Spielern durch. :freak:

Gute gemacht Leute, nun ist die Büchse der Pandora geöffnet da man
nun dem Chip Hersteller gezeigt hat das zwar der Kunde mault aber
doch wie Lemminge ihnen hinterher rennt und noch immer
von ihnen Karten besonders auch die 970er Empfohlen und auch
gekauft werden.

Für die Zukunft zieht man daraus eine Lehre, alles halb so schlimm,
wenn mal Nvidia bei irgendetwas lügt macht nix das passt schon.

Grüße

DerkleineGrisu

p.s. Jetzt nicht falsch Verstehen die Graka mag ja noch gut sein nur
stimmt nun das Preis / Leistungsverhältnis nicht mehr.
Eine Karte mit dieses Daten, mit diesen Einschränkungen ist wie ich finde
keine 300 - 400 € wert. Meiner Meinung sollte sich die Karte bei
200 - 250 Euro sich bewegen, nur da würde man ja der 960er ihre
Kunden weg nehmen und so Weniger verdienen.

Grestorn
2015-04-06, 10:49:29
Eine Karte mit dieses Daten, mit diesen Einschränkungen ist wie ich finde
keine 300 - 400 € wert. Meiner Meinung sollte sich die Karte bei
200 - 250 Euro sich bewegen, nur da würde man ja der 960er ihre
Kunden weg nehmen und so Weniger verdienen.

Das macht ja nur dann Sinn, wenn es andere Karten in dem Preissegment gibt, die Leistungstechnisch an die 970 heranreichen. Das ist aber bei weitem nicht der Fall.

200-250€ ist ein Witz für die 970. Ich kann verstehen, dass Du das gerne so hättest, aber warum sollte nVidia eine Karte mit einem Leistungspotential wie der 970 ohne Grund derart billig verscherbeln? Wenn AMD eine passende Karte in dem Leistungssegment anbieten würde, die preislich auch in dem Bereich liegen würde, dann könnte nVidia seine 970 nicht wesentlich teurer verkaufen. Aber so wie die Dinge liegen...

gnomi
2015-04-06, 11:07:46
Hier wird ja zumeist nur über dramatisiert und die Moralkeule ausgepackt, doch das ganze interessiert in diesem Maßstab weder die Firma noch die Kunden. :wink:
So einen PR Fehler will nvidia übrigens sicher auch nicht nochmals machen wollen, da absolut unprofessionell. :down:
Und im Gegenzug bleibt die Karte in ihrem Segment ja kaufenswert, weshalb eben auch nicht jeder 970 Besitzer jetzt unbedingt böse ist. ;D
Verstehen kann ich hingegen, wenn Erstkäufer die Karte auch aus diesem Grund konsequent umtauschen möchten, und das dann nicht problemlos klappt...

Alter Sack
2015-04-06, 11:59:17
Wasr selbst entrüstet, als ich das mit dem 3,5 GB Thema laß.
Mittlerweile und nach reiflicher Überlegung habe ich trotzdem vor 2 Tagen eine GTX970 gekauft.

Warum? Wer hier und jetzt ein smoothes Spielerlebnis mit 144 Hz TFT haben will, kommt um GSync (siehe meine Signatur) nicht herum. GTX980 Karten sind nochmal spürbar teurer, ohne dass man die Leistung HIER/JETZT/HEUTE tatsächlich braucht.
ATI mag ebenfalls nette Karten bauen, die aber um Welten mehr Strom verbrauchen (was UltraSilent-Systeme wie meine Kiste hier deutlich schwieriger bauen lässt).
Ein weiterer Punkt, der für die GTX970 spricht ist, dass es auf absehbare Zeit keine wirkliche Weiterentwicklung geben wird. Erst kommendes Jahr gibts endlich 14nm Fertigungstechnolgie für NVidia und ATI. Die 380€, die ich in die GTX970 (ASUS) investiert habe, werden also noch mind. 1 Jahr lang gut investiert sein.

Wenn NVidia Pascal rauskommt, dann sicherlich gleich mit 8 GB VRAM und damit wird es in 1,5 Jahren völlig schnuppe sein, ob man ne 970 oder 980 gekauft hat. Beide haben dann (für 4K) zu wenig VRAM, wobei man bei der 970 eben 250€ in 2015 gespart hat und die Knete sicherlich sehr gut für Pascal gebrauchen kann ;) .

Ich habe vor 2 Tagen selber von 1080P 60Hhz und GTX660 auf 1440P Gsync 144 Hz und GTX970 aufgerüstet und bereue es bisher in keinster Weise. Eine Sache bereue ich jedoch: Ich hätte das schon viel früher machen sollen :) !

An alle Leute die hier militantisch gegen die 970 wettern: ihr solltet euch mal nüchtern überlegen, was derzeit wirklich sinnvoll ist, wenn man von einer 3 Jahre alten Graka aufrüstet. Technologisch ist das vor allem 144 Hz, wenn möglich 1440P (für 4K gibt´s aktuell keine SingleGPU-Karten am Markt) und GSync um dieses jahrzehnte-alte Problem mit Tearing endgültig abzuschalten. Da kommt man derzeit um eine 970/980 nebst GSync-TFT (siehe Signatur) einfach nicht herum und bei ATIs FreeSync ist soweit ich weiß noch nichts am Markt erhältlich, wo GSync schon getestet und für geil befunden wurde.

von Richthofen
2015-04-06, 12:36:05
Fortwährendes Herunterbeten von Alternativlosigkeit bietet nunmal keinen Entscheidungsspielraum und es wird diesen, aller Voraussicht nach, und dieser Denke zufolge in Zukunft ohnehin nur noch scheinbar geben, wenn entscheiden heißt: Die GTX oder doch die GTX nehmen?

Kartenlehrling
2015-04-06, 12:41:11
Bist ja ein richtiger Philosoph.

Atma
2015-04-06, 13:04:00
GTX980 Karten sind nochmal spürbar teurer, ohne dass man die Leistung HIER/JETZT/HEUTE tatsächlich braucht.
Leistung kann man nie genug haben, erst recht nicht in 1440p und mit den 144 Hz deines Rog Swifts. Da macht es sich schon bemerkbar ob eine 970 oder 980 im Rechner steckt.

Alter Sack
2015-04-06, 13:08:45
Leistung kann man nie genug haben, erst recht nicht in der Auflösung und der 144 Hz deines Rog Swifts. Da macht es sich schon bemerkbar ob eine 970 oder 980 im Rechner steckt.

Hatte am Samstag die Karte bei Alternate direkt abgeholt und es war sogar zuerst eine GTX 980 (von Gainward) im Einkaufswagen. Die hatte jedoch nur einen MiniDP Anschluss und man hat damit potenziell Probleme mit dem ROG-SWift-TFT. Deshalb hatte ich kurzerhand die ASUS GTX970 Strix gekauft.
Wäre die MSI GTX980 4G vorrätig gewesen, wäre es diese Karte geworden.
Jetzt wo ich die 970 drin habe und bereits ein paar Stunden damit zocken konnte, bereue ich die Entscheidung jedenfalls nicht. Alles wirklich wunderbar und wie schon geschrieben 250€ gespart (die wird dann vorraussichtlich in 1, 5Jahren in Pascal in 14nm und mit 8 GB VRam investiert).

EDIT: zur 980 vs970 habe
Zur Not lässt man halt 1-2 Regler in den Spielen statt auf Ultra in High stehen und hat dieselben FPS wie die 980. Ein gutes Beispiel hierfür ist Far Cry 4. Hier gefällt mir z.B. die niedrigste AA-Stufe deutlich besser, als die höchste Stufe (sieht verwaschener aus mit der höchsten Stufe). Da merkt man die 70% mehr Bildpunkte des 1440p Displays schon sehr deutlich.

Atma
2015-04-06, 13:17:22
EDIT: zur 980 vs970 habe
Zur Not lässt man halt 1-2 Regler in den Spielen statt auf Ultra in High stehen und hat dieselben FPS wie die 980.
Damit widersprichst du dir selber. Mit der 980 müsstest du die 1-2 Regler vielleicht nicht runterstellen, also kann man mehr Leistung wohl doch gut gebrauchen ;).

Hier gefällt mir z.B. die niedrigste AA-Stufe deutlich besser, als die höchste Stufe (sieht verwaschener aus mit der höchsten Stufe). Da merkt man die 70% mehr Bildpunkte des 1440p Displays schon sehr deutlich.
Zu FarCry 4 kann ich nichts sagen weil UbiSchrott und so. Ich habe seit ner Weile auch einen 27 Zoller mit 1440p und egal welches Spiel ich bisher gezockt hatte, viel AA ist immer noch Pflicht für ein ruhiges Bild. Da gibt es nicht wirklich einen Unterschied zu 1080p @ 24 Zoll oder vergleichbar.

aufkrawall
2015-04-06, 13:26:50
Mit temporalem Post-AA siehts schon deutlich besser aus.
Natürlich ist mit der Pixeldichte Aliasing immer noch gut als solches zu erkennen, was Lösungen wie nur lückenhaft funktionierendes MSAA nicht wirklich besser werden lässt.

Gibt schon Spiele, wo die 980 die 970 ziemlich prügelt:
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index34.php

Alter Sack
2015-04-06, 14:26:34
Damit widersprichst du dir selber. Mit der 980 müsstest du die 1-2 Regler vielleicht nicht runterstellen, also kann man mehr Leistung wohl doch gut gebrauchen ;).


268€: das ist der Preisunterschied zwischen einer ASUS GTX970 zu ASUS GTX980.

268€: Das ist die Kohle, die ich bei erscheinen von NVidia Pascal in 14nm bereits übrig habe.

214€: soviel hatte vor 2,5 Jahren meine damals niegelnagelneue GTX660 gekostet und meine vorherige GTX285-2GB abgelöst (Leistungsschub: 100%)

268€: für soviel Geld hätte ich mir vor meiner GTX285 nicht eine, sondern gleich zwei neue Radeon 4850 kaufen können (ich hatte "nur" eine Radeon 4850).

268€: lassen sich soviel sinnvoller investieren, als in ein Upgrade von GTX970 auf 980.

Wer jedoch Ultra-Settings in die letzten 20% Mehrleistung braucht, für den sind die 250€ sinnvoll in die GTX980 investiert. mir reicht das jetzige Upgrade jedoch voll und ganz aus und mich würde aktuell eine GTX980 kaum glücklicher machen.
14nm Fertigungstechnoligie und 6-8 GB VRAM in 1 bis 1,5 Jahren werden mich sicherlich mehr reizen, als ein jetziges Upgrade von 970 auf 980.

Alter Sack
2015-04-06, 14:33:23
Mit temporalem Post-AA siehts schon deutlich besser aus.
Natürlich ist mit der Pixeldichte Aliasing immer noch gut als solches zu erkennen, was Lösungen wie nur lückenhaft funktionierendes MSAA nicht wirklich besser werden lässt.

Gibt schon Spiele, wo die 980 die 970 ziemlich prügelt:
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index34.php

Dying Light 1440P: 40 zu 52 FPS. Das sind 30% Mehrleistung.

ASUS GTX 970: 362€
ASUS GTX 980: 630€ --> das sind 74% Mehrkosten

Hier stehen also bestenfalls 30% Mehrleistung einem 74% höheren Preis gegenüber.

Die 980 prügelt nicht die 970, sondern des Käufers Geldbeutel und darüber freut sich vor allem NVidia.

aufkrawall
2015-04-06, 14:34:54
Du hast halt nicht den VRAM-"Bug". Der wird den Wiederverkauf der 970 schwer machern, wenn Pascal da ist.
Hast du in deiner Rechnung vergessen, neben der Uneinschätzbarkeit der VRAM-Problematik.

Alter Sack
2015-04-06, 14:38:11
Du hast halt nicht den VRAM-"Bug". Der wird den Wiederverkauf der 970 schwer machern, wenn Pascal da ist.
Hast du in deiner Rechnung vergessen, neben der Uneinschätzbarkeit der VRAM-Problematik.

Habe im Keller noch die GTX285-2GB und nun die GTX660 rumliegen.
Habe keine Lust mich mit dem Verkauf der Grakas zu beschäftigen... bin zu faul.

Die GTX970 wird meine Frau in ihren Zocker-PC bekommen, wenn ich auf Nvidia Pascal. Wiederverkauf demnach ausgeschlossen.
Meine Frau zockt derzeit Max Payne 3 auf ihrem 27" FullHD mit ihrer GTX750Ti-Karte. Wird für sie also allemal ein lohnenswertes Upgrade.

gnomi
2015-04-06, 15:00:11
Mit temporalem Post-AA siehts schon deutlich besser aus.
Natürlich ist mit der Pixeldichte Aliasing immer noch gut als solches zu erkennen, was Lösungen wie nur lückenhaft funktionierendes MSAA nicht wirklich besser werden lässt.

Gibt schon Spiele, wo die 980 die 970 ziemlich prügelt:
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index34.php

Jo, bin auch froh, seit Release gleich zur 980 gegriffen zu haben.
Mit dem Swift kann man mehr Leistung sofort umsetzen.
Ich hätte auch gerne Titan X Leistung und mehr für 1440P.
Im Test bei HT4U sieht man sofort, welche Spiele neu sind und wie gut die auf 980 und besser noch Titan dann rennen.
Allerdings bleiben für mich 500 Euro so die persönliche Schmerzgrenze. (habe sogar die Referenz gekauft, um drunter zu bleiben und nicht auf Custom Versionen gewartet)
Für mich reicht die dortige Kühllösung auch vollkommen aus.
Die VRam Problematik der 970 würde ich ebenfalls nicht unterschätzen wollen.
Ich erinnere mich da an die vielen Frametimes Meckereien von dargo, die ich beispielsweise mit GSync und der 980 nicht in dem Ausmaß nachstellen konnte/wollte.
Es ist dann schnell nicht alles eine Preis/Leistungs Sache, sondern die Ansprüche müssen eben auch erfüllt werden.
Da sind mir bereits sehr viel Nerven erspart geblieben, was für mich mittlerweile das wichtigste ist.

von Richthofen
2015-04-06, 15:05:33
Habe im Keller noch die GTX285-2GB und nun die GTX660 rumliegen.
Habe keine Lust mich mit dem Verkauf der Grakas zu beschäftigen... bin zu faul.


Wobei die unbedingt "einsparenwerten" 250 € durch zeitnahen Wiederverkauf erheblich niedriger oder gar komplett ausgefallen wären.

@aufkrawall
Der schön umfangreiche und mit aktuellen Treibern angefertigte HT4U-Test verschweigt leider im Gegensatz zu den (ziemlich konservativ gewählten) nV-Taktraten diese für AMD. Weiss man ob hier Uber- oder Quiet-BIOS zum Einsatz kommen? Vermute stark ersteres.

Hierzu nur dies gefunden:

GPU-Takt

Auf die GPU-Boost-Spielereien (http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index10.php), welche sich vermehrt einstellen und Benchmark-Resultate verfälschen, sind wir bislang oft genug eingegangen. Normalerweise wirken wir hier mittels Eingriffen in den Treiber entgegen. Bei NVIDIA-Grafikkarten zeigen wir in aller Regel nur die Leistung auf typischem Boost, wie vom Hersteller angegeben. In manchen Fällen ist gar das zu hoch – orientiert an einer Referenzgrafikkarte. Aber auch bei AMD-Grafikkarten finden sich zwischenzeitlich solche Augenwischereien ein, weshalb wir auch dort einschreiten müssen. Die Taktraten erwähnen wir separat in den Benchmark-Diagrammen.

gnomi
2015-04-06, 15:11:09
Dying Light 1440P: 40 zu 52 FPS. Das sind 30% Mehrleistung.

ASUS GTX 970: 362€
ASUS GTX 980: 630€ --> das sind 74% Mehrkosten

Hier stehen also bestenfalls 30% Mehrleistung einem 74% höheren Preis gegenüber.

Die 980 prügelt nicht die 970, sondern des Käufers Geldbeutel und darüber freut sich vor allem NVidia.

Gehe mal nicht so nach Prozenten. :wink:
Bei Dying Light ist die gesamte Spielerfahrung mit 52 fps avg bereits eine Stufe besser, denn 40 fps avg könnten in GPU limitierten Szenarien schon zu wenig sein.
Nehmen wir ferner an, du spielst über Lebzeit der Karte beispielsweise 1-2 Dutzend derartige Games ausführlich, dann kommen schnell 200-400 Betriebsstunden zusammen, was umgemünzt auf den Preis dann auch keine große Sache wäre. =)
Und dann wird der Wiederverkauf der 980 unter Garantie um einiges besser sein.
Mit dem schwachen Euro und der 970 Problematik rechne ich jedenfalls mit ganz guten Werten in 12-18 Monaten...

aufkrawall
2015-04-06, 15:29:58
@aufkrawall
Der schön umfangreiche und mit aktuellen Treibern angefertigte HT4U-Test verschweigt leider im Gegensatz zu den (ziemlich konservativ gewählten) nV-Taktraten diese für AMD. Weiss man ob hier Uber- oder Quiet-BIOS zum Einsatz kommen? Vermute stark ersteres.

Finde ich auch nicht gut und inkonsequent, zumal es ja auch gar keine Referenz 290X 8GB gibt.
Ich hab mit OC mitunter deutlich größere Unterschiede zwischen Hawaii und GM204 festgestellt. Deshalb würd ich auch davon ausgehen, dass bei HT4U 1Ghz anliegen.

The_Invisible
2015-04-06, 15:30:45
Jo, bin auch froh, seit Release gleich zur 980 gegriffen zu haben.
Mit dem Swift kann man mehr Leistung sofort umsetzen.
Ich hätte auch gerne Titan X Leistung und mehr für 1440P.
Im Test bei HT4U sieht man sofort, welche Spiele neu sind und wie gut die auf 980 und besser noch Titan dann rennen.
Allerdings bleiben für mich 500 Euro so die persönliche Schmerzgrenze. (habe sogar die Referenz gekauft, um drunter zu bleiben und nicht auf Custom Versionen gewartet)
Für mich reicht die dortige Kühllösung auch vollkommen aus.
Die VRam Problematik der 970 würde ich ebenfalls nicht unterschätzen wollen.
Ich erinnere mich da an die vielen Frametimes Meckereien von dargo, die ich beispielsweise mit GSync und der 980 nicht in dem Ausmaß nachstellen konnte/wollte.
Es ist dann schnell nicht alles eine Preis/Leistungs Sache, sondern die Ansprüche müssen eben auch erfüllt werden.
Da sind mir bereits sehr viel Nerven erspart geblieben, was für mich mittlerweile das wichtigste ist.

Ja genau, die Ansprüche müssen passen und das sind bei mir sicher keine 200eur mehr und referenzdesign. Meine Wunsch GTX 980 hätte sogar fast 250eur mehr gekostet, und das ist einfach zu viel. Vor allem bekommt man damit keine Highendkarte mehr sonder nur mehr obere mittelklasse, oberklasse gibts ab 1100eur, dazu muss ich wohl keine worte verlieren.

Wenn dann 8gb karten standard sind macht man mit der GTX 980 den selben wertverlust. Ich verstehe darum nicht warum alle so versessen auf die 980er sind. Ich hoffe das AMD mit Fiji dann endlich mal nvidia auf/überholen kann und man dann auch bei nvidia wieder mit 500 bis 600 eur eine absolute highendkarte bekommt.

Alter Sack
2015-04-06, 15:49:17
@GTX980 Besitzer:
Ich verstehe was ihr meint. Es kommt wohl auf die individuellen Anforderungen an. Bei mir kommt dazu, dass mein i7-2600k nur PCI-E 2.0 kann (kostet ebenfalls 1-2% je nach Spiel). Ich lege auch keinen großen Wert auf die letzten paar Prozente Mehrleistung.

Aus heutiger Sicht ist eine GTX680 genauso unbrauchbar wie eine GTX660, nur dass die GTX680 damals mehr als doppelt so teuer war.

Wir haben seit ein paar Monaten zudem noch einen ziemlich miesen Dollarkurs, weshalb der Aufpreis zur 980 nochmal höher liegt. Ich glaube nicht daran, dass der Eurokurs so niedrig bleibt.

Wenn ATI endlich mal wieder abliefert, könnten wir bereits in 12-15 Monaten die kuriose Situation haben, dass man für 250-300€ ne brauchbare 8-GB Karte bekommt, die dank 14nm Fertigung auch noch 50% schneller ist, als ne GTX980.
Wer allerdings zu jeder Zeit die best-mögliche Qualität wünscht, der kauft eben HighEnd.

aufkrawall
2015-04-06, 15:57:48
Niemand hat was gegen die fps der 970.
Trotzdem kann die Karte auch bei aktuellen Spielen schon miese Frametimes im Vergleich zur 980 haben. Das sollte dir eigentlich klar sein, wo du doch die VRAM-Sache offenbar verfolgt hast...
Und nein. Nur weil dir bei deinen Spielen nichts auffällt, muss das noch lange nicht allgemeine Tatsache sein. Die Hardline-Frametimes haben dir ja auch gereicht, wo andere hier schon vom Video Brechreiz bekamen.

Grestorn
2015-04-06, 16:02:27
Hardline hatte aber doch eben auch auf einer 980 Frametimes zum Erbrechen. Und es gab keinen angepassten Treiber. Gibt es den inzwischen? Ich bin absolut kein BF Spieler, sorry für meine Ignoranz... :)

Alter Sack
2015-04-06, 16:07:20
Niemand hat was gegen die fps der 970.
Trotzdem kann die Karte auch bei aktuellen Spielen schon miese Frametimes im Vergleich zur 980 haben. Das sollte dir eigentlich klar sein, wo du doch die VRAM-Sache offenbar verfolgt hast...
Und nein. Nur weil dir bei deinen Spielen nichts auffällt, muss das noch lange nicht allgemeine Tatsache sein. Die Hardline-Frametimes haben dir ja auch gereicht, wo andere hier schon vom Video Brechreiz bekamen.

Kommt darauf an, was man gewöhnt ist.
Ich könnte jetzt auf keinen Fall mehr zu FullHD mit 60Hz und ggf. "VSync-off Tearing" zurück.

Ich spiele derzeit COD-AW, Hardline und Far Cry 4. Alles mit High/Ultra-Settings (sehe da aber keine riesen Unterschiede zwischen High und Ultra).
Vom Spielgefühl/Optik/Smoothness her alles bombig gut.

Da frage ich mich, inwiefern mich aktuell hier und jetzt, wo die GTX980 auch noch 268€ teurer ist, als meine 970; ob mir die GPU-Mehrleistung und die 14% mehr VRAM der GTX 980 (ja, es sind NUR 14 Prozent mehr, NUR 14% !!!!) tatsächlich ein soviel besseres Spielgefühl vermitteln würden, dass ich sagen könnte: ja , doe 268€ Mehrkosten haben sich übelst geil gelohnt, dass wars mehr als Wert.
Ich glaube ehrlich gesagt ohne jetzt die GTX980 zu besitzen nicht daran, dass ich das von der 980 im Vergleich zur 970 denken würde.
Ich bin aber auch kein Enthusiast-Markt Käufer, auch wenn ich sehr viel und lange PC-Spiele zocke.
EDIT: gut möglich, dass ich als 980-Besitzer sogar denke könnte: was, dass soll´s gewesen sein? Dafür habe ich 630€ hingeblättert? Wäre eine 970 wirklich soviel schlechter gewesen?

aufkrawall
2015-04-06, 16:09:01
Hardline hatte aber doch eben auch auf einer 980 Frametimes zum Erbrechen. Und es gab keinen angepassten Treiber. Gibt es den inzwischen? Ich bin absolut kein BF Spieler, sorry für meine Ignoranz... :)
Ja, die schlechten Frametimes mit Hardline gibts auf jeder NV-GPU.
Es war auch nicht so gemeint. Er hatte mal ein Video mit Frametime-Graphen der Engine gepostet, wo klar schlimme Ruckler zu erkennen waren, die ihn aber nicht sonderlich juckten.

The_Invisible
2015-04-06, 16:19:25
Mit temporalem Post-AA siehts schon deutlich besser aus.
Natürlich ist mit der Pixeldichte Aliasing immer noch gut als solches zu erkennen, was Lösungen wie nur lückenhaft funktionierendes MSAA nicht wirklich besser werden lässt.

Gibt schon Spiele, wo die 980 die 970 ziemlich prügelt:
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index34.php

liegt anscheinend aber nicht am vram da die titan auch auf gleichen niveau liegt.

ich verstehe aber euer problem nicht, man bekommt für weniger geld eben weniger leistung oder für mehr geld eben mehr leistung, war immer so und wird auch immer so bleiben. heute sollte die vram problematik hier jedem bekannt sein, deswegen kann man die 970er ja trotzdem empfehlen.

aufkrawall
2015-04-06, 16:22:11
Eben nicht, weil du nicht 3,5GB + X hast, auch nicht nur 3,5GB, sondern im Zweifel 3,5GB - X.
blaidd meinte auch, Dying Light läuft in 1440p definitiv ruckliger als auf der 980, eben wegen des VRAMs (Frametimes).
So etwas unberechenbares ist nicht zu empfehlen.

Grestorn
2015-04-06, 16:41:27
Eben nicht, weil du nicht 3,5GB + X hast, auch nicht nur 3,5GB, sondern im Zweifel 3,5GB - X.

Wie kommst Du darauf? Im schlimmsten Fall kann der Treiber die Karte immer wie eine 3,5 GB Karte behandeln und die zusätzlichen 512 einfach komplett ignorieren.

aufkrawall
2015-04-06, 16:56:16
Hä? Hattest du die 970 oder ich?
Ich weiß sehr wohl, was der schlimmste Fall ist. Den kannst du dir bei CB im Talos-Video auch nochmal anschauen, du hast ihn ja offenbar vergessen. Und dann sag mir bitte nochmal, bei welcher anderen Karte bei Erreichen des VRAM-Maximums sekundenlange Hänger auftreten...

Grestorn
2015-04-06, 17:17:22
Hä? Hattest du die 970 oder ich?
Ich weiß sehr wohl, was der schlimmste Fall ist. Den kannst du dir bei CB im Talos-Video auch nochmal anschauen, du hast ihn ja offenbar vergessen. Und dann sag mir bitte nochmal, bei welcher anderen Karte bei Erreichen des VRAM-Maximums sekundenlange Hänger auftreten...

Das bezweifle ich doch gar nicht. Die Frage ist, ob die selben Probleme nicht auch bei jeder anderen Karte mit 3,5 GB aufgetreten wären.

Meine Aussage bezieht sich auch nur darauf, dass eine Treiberoptimierung immer darauf hinauslaufen kann, dass die Karte im schlimmsten Fall wie eine 3,5 GB Karte behandelt wird, wenn es wirklich keine andere Chance gibt. Die Aussage 3,5 - X halte ich für problematisch. Bestenfalls im "Default-Modus", wenn der Treiber das Spiel gar nicht kennt und nicht weiß, wie er besser damit umgehen kann, könnten die 512 MB auch mal bremsen als helfen.

aufkrawall
2015-04-06, 17:25:13
Solch ein sauberer Schnitt wär defakto ein Schuldeingeständnis und eine nachträgliche Minderung.
Wird das Unternehmen nicht machen, so lange Klagen nicht vom Tisch sind.
Und danach interessiert es eh keinen mehr, wenn die Klagen keinen Erfolg hatten, und man wird einen Teufel tun...

Es sind 3,5GB - X. Solche Freezes wurden mit keiner anderen Karte beobachtet.
Man wird getrieben sein, der Grenze fernzubleiben bzw. ist es schon.
Beweislage abgeschlossen, weitere Diskussion müßig.

Coda
2015-04-06, 17:26:00
Kann schon sein, dass es da noch ein Treiberproblem gibt, aber das sollte behebbar sein. Im Moment natürlich ein schwacher Trost.

dargo
2015-04-06, 18:45:09
Gibt schon Spiele, wo die 980 die 970 ziemlich prügelt:
http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index34.php
Schon mal die Skalierung zwischen den einzelnen Auflösungen genauer angeschaut? Schon merkwürdig wenn die 980 in 4k nur noch 25% vor der 970 liegt wo es noch in 1080p 35% waren. Die Skalierung zwischen Titan X und 980 sieht dagegen was die Auflösungen angeht ganz anders aus. Je höher die GPU-Last durch höhere Auflösung umso stärker die Skalierung, also eigentlich das was man erwarten würde.

Alter Sack
2015-04-06, 19:04:20
Also die GTX970 kann man doch empfehlen, wenn man nicht überpropotional viel mehr Geld für das letzte bisschen Leistung raushauen will.

Die 14% mehr addressierbarer VRAM, welche die GTX980 hat, werden die Karte in 1,5 bis 2 Jahren auch nicht mehr retten, wenn dann 4K-Gaming das große Thema sein wird und Mainstreamkarten allesamt mit 8 GB daherkommen.

Ich kann Leute verstehen, die bereit sind, überpropotional viel für eine 980 oder Titan ausgeben. Man kann damit die Games einfach in der maximal-Stufe zocken.
In Far Cry 4 muss es bei mir eben nicht der größte AA-Level sein, da ich irgendwo beim zocken keinen Unterschied mehr sehe. Habe in Far Cry 4 eigentlich alles auf Ultra, bis auf AA (SMAA1) und ich glaube die Umgebungsverdeckung habe ich auch noch aus. FC4 performt mit diesen Settings auf der GTX970 wirklich sehr zufriedenstellend. Wenn man beim AA noch 1-2 Stufen höher will, muss man halt zur übertakteten GTX980 greifen, so einfach ist das. Mir wär´s das aber nicht wert.

AnarchX
2015-04-06, 19:10:28
Die 14% mehr addressierbarer VRAM, welche die GTX980 hat, werden die Karte in 1,5 bis 2 Jahren auch nicht mehr retten, wenn dann 4K-Gaming das große Thema sein wird und Mainstreamkarten allesamt mit 8 GB daherkommen.

Wenn die GTX 970 eine 3,5GiB Karte ohne Einschränkungen wäre, dann wäre ja alles in Ordnung. Nur hat man hier aber noch 512MiB @ 32-Bit, die sofern nicht richtig angesteuert, die Frametimes kaputt machen, da Anwendungen nicht mit dieser Speicheraufteilung rechnen und dann dort Daten landen können, die bei durch häufiges Laden den restlichen Speicherkontroller ausbremsen.
NV versucht das ganze über den Treiber zu steuern, aber möglicherweise ist die einzig richtige Lösung ein 192-Bit / 3GiB BIOS.

aufkrawall
2015-04-06, 19:15:54
Schon mal die Skalierung zwischen den einzelnen Auflösungen genauer angeschaut? Schon merkwürdig wenn die 980 in 4k nur noch 25% vor der 970 liegt wo es noch in 1080p 35% waren. Die Skalierung zwischen Titan X und 980 sieht dagegen was die Auflösungen angeht ganz anders aus. Je höher die GPU-Last durch höhere Auflösung umso stärker die Skalierung, also eigentlich das was man erwarten würde.
Kann mir das auch nicht erklären. Aber wenn schon in 1440p 4GB voll sind und man hier und da nicht vollaufgelöste Texturen sieht, kann man sich vorstellen, wie es mit der 970 in 4k stellenweise aussehen oder laufen muss.

Abgesehen davon sind 25% Vorsprung immer noch ein guter Wert dafür, dass die 970 5% höher taktet. Angeblich zumindest, die real gemittelten Taktraten über die Zeit des Benchmark-Runs sind nicht angegeben.

Monsta
2015-04-06, 19:19:41
Empfehlen kann man die 970er aber trotzdem.
Sie ist leistungsmäßig deutlich näher an der 980er als an der 960er.
Aber preislich näher an der 960ér.
Ich bin mit der Situation auch unzufrieden und werde als nächstes versuchen eine AMD Karte zu kaufen.
Aus mangelnder Alternative konnte ich nicht wechseln, da ich 2x Displayport 1.2 brauche wegen 2x4k Monitor.

Alter Sack
2015-04-06, 19:26:54
Wenn die GTX 970 eine 3,5GiB Karte ohne Einschränkungen wäre, dann wäre ja alles in Ordnung. Nur hat man hier aber noch 512MiB @ 32-Bit, die sofern nicht richtig angesteuert, die Frametimes kaputt machen, da Anwendungen nicht mit dieser Speicheraufteilung rechnen und dann dort Daten landen können, die bei durch häufiges Laden den restlichen Speicherkontroller ausbremsen.
NV versucht das ganze über den Treiber zu steuern, aber möglicherweise ist die einzig richtige Lösung ein 192-Bit / 3GiB BIOS.

So wie ich gelesen habe, ist das mit meiner vorherigen GTX660-2GB auch so gewesen.
Da waren nur 1,5 GB davon komplett angebunden. Das hat man auch wunderbar monitoren können, denn aktuelle Spiele wie COD-AW und Dying-Light haben exakt nur die 1,5 GB VRAM (voni 2 GB) befüllt.
Für mich zumindest was meine alte GTX660-2GB angeht eigentlich ein Indiz dafür, dass NVidia das Thema im Griff hat.
Ich gehe daher davon aus, dass bei der 970 ähnlich gut funktionieren wird.

Rein praktisch habe ich diese Aussetzer bisher bei der 970 nicht gehabt. Habe mir extra noch Far CRy 4 zum Vollpreis mitgenommen und kann es superbutterweich zocken (AA ist allerdings nur auf SMAA1).
COD-AW läuft ebenfalls butterweich, dass es eine Augenweide auf dem GSync-TFT ist.
Klar, rein von den Fakten her klingt die 970 nicht gut, wo die 980 doch die 4 GB komplett und in 256bit ansprechen kann. Rein von der Praxis beim Alltags-Zock finde ich dei 970 echt super gut, zumal das Teil auch schön leise und mein Rechner damit super-silent bleibt. Ne 980 hätte das Case sicherlich nochmal 40 Watt mehr aufgeheizt und das kann dann schonmal den Tausch der Case-Lüfter und damit mehr Lärm bedeuten.

Alter Sack
2015-04-06, 19:30:53
Empfehlen kann man die 970er aber trotzdem.
Sie ist leistungsmäßig deutlich näher an der 980er als an der 960er.
Aber preislich näher an der 960ér.


Sehe ich auch so und deshalb wurde es bei mir vor 2 Tagen dann doch die 970 und nicht die 980.


Ich bin mit der Situation auch unzufrieden und werde als nächstes versuchen eine AMD Karte zu kaufen.
Aus mangelnder Alternative konnte ich nicht wechseln, da ich 2x Displayport 1.2 brauche wegen 2x4k Monitor.

Ich habe mir das Angebot aktueller AMD-Karten angeschaut und da ich ultra-silent Feteschist bin, wäre das Gehäuse-Modding für eine R290X-Karte doch schon sehr aufwendig geworden.
Bin jedenfalls schon auf den Fiji-Chip gespannt, aber ich glaube nicht, dass AMD das Effizienzproblem auch nur ansatzweise so gut hinbekommt wie NVidia mit Maxwell. Erst wenn beide Hersteller im kommenden Jahr in 14nm fertigen können, werden die Karten neu gemischt (hoffentlich).
Deshalb ist die 970/980 derzeit auch ziemlich alterantivlos, wenn man wg. ultra-silent auf Effizienz achten muss.

aufkrawall
2015-04-06, 19:31:57
Far Cry 4 läuft schon mal garantiert bei niemandem butterweich...

aths
2015-04-06, 22:13:38
Siehs entspannt.
Mir is das Thema völlig egal.
Und das kann man ja auch mal sagen.
Sie läuft und hat meine 580er würdig ersetzt!
Die 580 wurde gebaut, um schön lange zu halten: Für die Fermi-Generation eine brauchbare Kühlung, schöne 512 Cores, für damalige Verhältnisse gute 1,5 GB RAM. Die 970 wurde entwickelt, um erst gekauft, aber dann auch bald wieder ausgewechselt zu werden wenn die 4-GB-Ära kommt. Selbst die 960 ist inzwischen mit 4 GB RAM erhältlich. Immer mehr Spiele werden bei gängiger Auflösung um die 4 GB sinnvoll nutzen können. Dann muss man mit der 970 Kompromisse eingehen, um die Belegung nach Möglichkeit unterhalb von 3,5 GB zu halten.

Godmode
2015-04-06, 22:21:13
Hätten meine 980er 8 GB gehabt, hätte ich jetzt wohl weniger Grund gehabt, auf die Titan X zu wechseln. Der VRAM war mein Hauptgrund für den Wechsel und das wird auch Nvidia erkannt haben. Der Enthusiast zahlt also zweimal und Nvidia macht mehr Umsatz.

aths
2015-04-06, 22:27:39
p.s. Jetzt nicht falsch Verstehen die Graka mag ja noch gut sein nur
stimmt nun das Preis / Leistungsverhältnis nicht mehr.
Eine Karte mit dieses Daten, mit diesen Einschränkungen ist wie ich finde
keine 300 - 400 € wert. Meiner Meinung sollte sich die Karte bei
200 - 250 Euro sich bewegen, nur da würde man ja der 960er ihre
Kunden weg nehmen und so Weniger verdienen.
250 Euro? Das ist Quatsch. Die 970 bringt, solange der Speicher reicht, exzellente Leistung, die weit oberhalb dessen liegt was man aktuell im Segment von 200-250 Euro erwarten kann. Da wäre es auch zu verschmerzen, dass die Karte keine volle 4 GB sinnvoll nutzen kann.

aths
2015-04-06, 22:36:04
Ich glaube ehrlich gesagt ohne jetzt die GTX980 zu besitzen nicht daran, dass ich das von der 980 im Vergleich zur 970 denken würde.
Ich bin aber auch kein Enthusiast-Markt Käufer, auch wenn ich sehr viel und lange PC-Spiele zocke.
EDIT: gut möglich, dass ich als 980-Besitzer sogar denke könnte: was, dass soll´s gewesen sein? Dafür habe ich 630€ hingeblättert? Wäre eine 970 wirklich soviel schlechter gewesen?
Es gibt immer Leute, die sich an den Kopf fassen, dass du überhaupt mehr als 200 Euro für eine Grafikkarte gelöhnt hast, es wird immer Leute geben die dir jetzt einreden, dass es eine Karte der 600-Euro-Klasse sein müsse.

Als Nicht-Enthusiast-Käufer interessiert es dich einfach nicht, ob es Produkte gibt die 30% mehr bringen. Schon gar nicht mit dem 2600K. Wärst du Enthusiast, wäre da jetzt ein Haswell in deinem Computer und du würdest nur noch überlegen: 980 oder Titan X?

Wenn die 970 wirklich nicht mehr reicht, wird es genug Alternativen geben die mehr Wumms haben und nicht die Welt kosten.

Kriton
2015-04-06, 22:53:02
Das macht ja nur dann Sinn, wenn es andere Karten in dem Preissegment gibt, die Leistungstechnisch an die 970 heranreichen. Das ist aber bei weitem nicht der Fall.


Öhm die 290X ist im Bereich der 970. :rolleyes:

http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-februar-2015

Sicher bei mehr Verbrauch, aber Leistung ist nicht das Problem. Bleiben wir doch mal bei den Tatsachen.

Grestorn
2015-04-06, 22:59:52
Öhm die 290X ist im Bereich der 970. :rolleyes:

Im Bereich der 970, ja, aber nicht im Bereich von 200-250€

http://www.heise.de/preisvergleich/?fs=290x&cat=gra16_512

Du musst schon vollständig lesen, was ich schreibe, und nicht nur auf einzelne Wörter im Satz losspringen :)

Kriton
2015-04-06, 23:07:15
Stimmt, mein Fehler.

AnarchX
2015-04-07, 18:20:28
So wie ich gelesen habe, ist das mit meiner vorherigen GTX660-2GB auch so gewesen.
Da waren nur 1,5 GB davon komplett angebunden. Das hat man auch wunderbar monitoren können, denn aktuelle Spiele wie COD-AW und Dying-Light haben exakt nur die 1,5 GB VRAM (voni 2 GB) befüllt.
Für mich zumindest was meine alte GTX660-2GB angeht eigentlich ein Indiz dafür, dass NVidia das Thema im Griff hat.
Ich gehe daher davon aus, dass bei der 970 ähnlich gut funktionieren wird.


Zwischen echten 192-Bit mit +512MiB und 224-Bit 3,5GiB + 32-Bit Shared-Cache 512MiB ist halt doch noch ein Unterschied. Bei ersterem ist der Worst-Case 1/3 des Speeds, bei der 970 ist nur 1/8 und dann die Sache, dass sich der 8 Controller den Cache mit dem 7. teilen muss.
Sicherlich hat NV das ganz gut unter Kontrolle, aber bei neuen Spielen und eventuell in der Pascal-Ära bleibt die Frage ob man da weiter Freude haben wird. Sofern da nicht weitere Informationen / Tools von NV kommen, wie z.B. eine permanente Limitierung auf 3,5GiB für den User als Schalter, ist die Langzeitbrauchbarkeit der Karte doch sehr fraglich.

Botcruscher
2015-04-07, 18:28:20
Im Bereich der 970, ja, aber nicht im Bereich von 200-250€
http://www.heise.de/preisvergleich/?fs=290x&cat=gra16_512

Du musst schon vollständig lesen, was ich schreibe, und nicht nur auf einzelne Wörter im Satz losspringen :)

Da war sie aber. Inzwischen ist dank Euro ja alles teurer.

The_Invisible
2015-04-07, 22:25:16
Zwischen echten 192-Bit mit +512MiB und 224-Bit 3,5GiB + 32-Bit Shared-Cache 512MiB ist halt doch noch ein Unterschied. Bei ersterem ist der Worst-Case 1/3 des Speeds, bei der 970 ist nur 1/8 und dann die Sache, dass sich der 8 Controller den Cache mit dem 7. teilen muss.
Sicherlich hat NV das ganz gut unter Kontrolle, aber bei neuen Spielen und eventuell in der Pascal-Ära bleibt die Frage ob man da weiter Freude haben wird. Sofern da nicht weitere Informationen / Tools von NV kommen, wie z.B. eine permanente Limitierung auf 3,5GiB für den User als Schalter, ist die Langzeitbrauchbarkeit der Karte doch sehr fraglich.

Ich behaupte mal wenn es da keinen generischen Fix gibt wird man ab einem gewissen zeitpunkt einfach statisch auf 3,5gb limitieren, macht das Kraut auch nicht mehr fett um auf die letzten 0,5gb zu bestehen.

Traxx
2015-04-09, 10:54:11
Ich wollte eigentlich für den 2. Rechner des Frauchens eine 970er als Upgrage für die Gtx570 kaufen. Habe nun wegen dem Speichergedöns lange hin und her überlegt, da die 970 in den aktuellen Games/Auflösungen eigentlich immer noch gute Leistung bringt.

Da mir die Story aber so gar nicht gefällt und ich diese Politik nicht unterstützen mag wird's jetzt eine R290 (Tri-x). Eine 970 3.5GB (voll angebunden) hätte ich gekauft, dieses ungewisse Zwitterding aber nicht.

Danke euch an dieser Stelle für die vielen Infos hier im Thread!

Greets

Troyan
2015-04-09, 11:47:07
Zwischen echten 192-Bit mit +512MiB und 224-Bit 3,5GiB + 32-Bit Shared-Cache 512MiB ist halt doch noch ein Unterschied. Bei ersterem ist der Worst-Case 1/3 des Speeds, bei der 970 ist nur 1/8 und dann die Sache, dass sich der 8 Controller den Cache mit dem 7. teilen muss.
Sicherlich hat NV das ganz gut unter Kontrolle, aber bei neuen Spielen und eventuell in der Pascal-Ära bleibt die Frage ob man da weiter Freude haben wird. Sofern da nicht weitere Informationen / Tools von NV kommen, wie z.B. eine permanente Limitierung auf 3,5GiB für den User als Schalter, ist die Langzeitbrauchbarkeit der Karte doch sehr fraglich.

Warum wiederholen die Leute dauernd, dass die Karte perse nicht schon auf 3,5GiB durch den Treiber limitiert wird?! :confused:

Erst wenn die Anwendung wirklich dauernd mehr als 3,5GiB pro Frame anfordert, öffnet der Treiber den zweiten Pool. Bis dahin sieht man nur maximal 3,5GiB, wo bei einer GTX980 z.B. 4GiB und bei einer Titan mehr als das angezeigt wird.

aufkrawall
2015-04-09, 12:09:54
Stimmt nicht, die angezeigte Auslastung liegt auch häufig bei 3,6-3,7GB.
Es muss dann natürlich nicht direkt harte Freezes geben, aber Mikroruckler können vorkommen.

Troyan
2015-04-09, 12:17:36
Im Gegensatz zur GTX980 kappt der Treiber die GTX970 zu erst bei 3,5GiB - siehe das Video zu AC:Unity: http://www.computerbase.de/2015-01/geforce-gtx-970-vram-speicher-benchmarks/3/

Die GTX980 ist weit über 3,5GiB, die GTX970 hängt dagegen an dieser Grenze.

aufkrawall
2015-04-09, 13:34:24
Ich brauch mir keine Videos ansehen, ich kann das selber anhand eigener Erfahrungen beurteilen. Klingt großspurig, ist aber so.
Und es stimmt so pauschal nicht. Mit 2xMSAA hatte ich in 1440p in AC:U durchweg 3,6-3,7GB und es lief weitestgehend ohne harte Stocker.
So lange die letzten 0,5GB irgendwie so belegt werden können, dass sie nicht ständig abgefragt werden müssen, werden nicht selten mehr als 3,5GB Belegung angezeigt und es muss nicht unbedingt schlecht laufen.
Rat mal, warum das Problem relativ lange brauchte, um eindeutig erkannt zu werden.

Troyan
2015-04-09, 13:52:42
Das Problem fiel auf, weil Leute den Verbrauch zwischen der GTX970 und GTX980 verglichen haben - siehe dazu das AC:Unity Video.

Und es war deswegen möglich, weil der Treiber solange wie möglich nur die ersten sieben Speicherbereiche mit Daten füllt. Würde nVidia es zu handhaben, wie Leute es hier beschreiben, wäre es erstmal garnicht aufgefallen.

aufkrawall
2015-04-09, 14:03:07
Wie oft denn noch: Die 3,5GB werden bei manchen Szenarionen wirklich nicht überschritten, bei anderen aber schon.
Hatten wir vor gefühlten und tatsächlichen 100 oder 200 Seiten schon...

Troyan
2015-04-09, 14:10:25
Darauf habe ich mich nicht bezogen. Mehr als 3,5GiB werden bei der GTX970 erst im Laufe der Zeit gefüllt.

Würde man eine GTX980 und eine GTX970 gegenüberstellen, dann wird auffallen, dass bei der GTX980 schon im Ladebildschirm oder kurz danach mehr als 3,5GiB gefüllt sind, wo die GTX970 erstmal noch bei 3,5GiB steht. Der Treiber lässt am Anfang einfach nicht mehr zu. Und erst in Laufe der Zeit wird auch der zweite Pool geöffnet und langsam gefüllt.

The_Invisible
2015-04-09, 14:17:36
Hatte gestern auch eine längere Wolfenstein Session (4Stunden) wo ich es durchgespielt habe, stellenweise waren auf meiner 970er in 1440p so 3,8 bis max 4gb belegt, ich konnte mich trotzdem problemlos durch die gegner ballern.

Schade das nvidia keine genaueren Details gibt wie der 0,5gb speicher nun genau verwaltet wird. Anscheinend hängt es aber auch vom Game selber ab bzw. der Treiber erkennt vielleicht im Laufe der Zeit was nicht so wichtig ist und packt es in den 0,5gb bereich.

Eine genauere Aussage von nvidia wäre hier schön.

aufkrawall
2015-04-09, 14:20:58
Darauf habe ich mich nicht bezogen. Mehr als 3,5GiB werden bei der GTX970 erst im Laufe der Zeit gefüllt.

Würde man eine GTX980 und eine GTX970 gegenüberstellen, dann wird auffallen, dass bei der GTX980 schon im Ladebildschirm oder kurz danach mehr als 3,5GiB gefüllt sind, wo die GTX970 erstmal noch bei 3,5GiB steht. Der Treiber lässt am Anfang einfach nicht mehr zu. Und erst in Laufe der Zeit wird auch der zweite Pool geöffnet und langsam gefüllt.
Nein, bei AC: U sind sofort nach dem Laden mehr als 3,5GB gefüllt in 1440p 2xMSAA.

Troyan
2015-04-09, 18:53:20
Deaktiviere 2xMSAA.
2xMSAA benötigt sofort mehr Speicher pro Frame. Hier erkennt der Treiber wohl die Notwendigkeit den anderen Pool umgehend freizugeben.

Alter Sack
2015-04-11, 09:34:13
zocke gerade mit der 970 Far Cry 4 (auf 2540x1440).
Alles auf Ultra komme ich auf durchschnittlich 54 FPS (nie unter 50). Gibt dannk GSync ein wirkliche gutes und ruckelfreies Bild ab.
AA habe ich aber komplett deaktiviert, weil bereits FXAA 10 FPS kostet.

Air Force One
2015-04-11, 09:42:22
Warum kostet fxaa performance?
Liegt das an der Auflösung?

Alter Sack
2015-04-11, 10:56:20
Warum kostet fxaa performance?
Liegt das an der Auflösung?


Vermutlich, wobei habe gesehen, dass FC4 kein FXAA anbietet. Es geht da erst mit SMAA1x los und damit springt die FPS von 50-60 auf 40 runter, wobei das zur not dank GSync-TFT auch noch gehen würde.
AA ist aber bei meinem 27 Zöller mit 2560x1440 nicht wirklich notwendig, da die WQHD-Auflösung ca.70% mehr Bildpunkte als FullHD hat.

gnomi
2015-04-11, 14:50:57
AA schadet selbst in 4k nicht. :wink:
In 1440P liefert moderne Post AA allerdings bereits sehr gute Resultate.
Sicher, dass SMAA so viel Frames in Far Cry 4 kostet? Ich wäre jetzt von einem einstelligen Prozentsatz ausgegangen.klick (http://www.hardocp.com/article/2015/01/12/far_cry_4_graphics_features_performance_review/6#.VSkYXpUcQuU)

Alter Sack
2015-04-11, 15:04:09
Direkt mit Fraps gemessen.
Ohne SMAA1x ca. 55 FPS, mit SMAA1+ sinds nur noch ca. 42 FPS.

Angiesan
2015-04-13, 07:34:18
Ne! SMAA kostet bei FC4 nie mehr wie 3 FPS, wenn überhaupt, was so reinhaut ist TXAA2.

Grestorn
2015-04-13, 08:36:09
SMAA bringt zusammen mit SLI hässliche Schattenbilder in FC4...

Alter Sack
2015-04-13, 09:16:22
Muss ich nochmal antesten.
Von keinAA auf die erste AA-Stufe in FC3 sprang Fraps in 1440P (nicht FullHD!) direkt von 54 auf 42 FPS.

aufkrawall
2015-04-13, 10:56:59
SMAA bringt zusammen mit SLI hässliche Schattenbilder in FC4...
Zum Glück skaliert das eh nicht richtig.

Flusher
2015-04-14, 19:34:28
Schon jemand Framtimes in GTA V gemessen? Soll ja sehr nach VRAM zu schreien das Spiel.

Coda
2015-04-14, 19:41:56
SMAA bringt zusammen mit SLI hässliche Schattenbilder in FC4...
Fixed that for you. Temporales AA ist mit AFR immer kacke.

aufkrawall
2015-04-14, 19:43:09
Was hat wohl mehr Zukunft? :D

dargo
2015-04-14, 20:13:58
Fixed that for you. Temporales AA ist mit AFR immer kacke.
Jetzt wo du es sagst. Ich meine in Crysis 3 ging mit SLI auch kein SMAA T2x und 4x oder? Oder war zumindest nicht anwählbar.

Coda
2015-04-14, 22:32:08
Korrekt, in Ryse auch nicht.

aufkrawall
2015-05-09, 16:16:37
Mit SLI verschlechtert sich mit TXAA afair auch die Skalierung, hatte das bei AC: BF festgestellt. GPUs laut Anzeige voll ausgelastet, aber die fps sind zu niedrig.

Nochmal zum Thema:
Mit der GTX 980 hab ich übrigens auch keine Stocker in AC: U mit 1440p 4xMSAA. Dass es mit der 970 stockt, ok. Ist klar.
Aber was macht der AMD-Treiber da wieder, dass es trotz echten 4GB genau so kacke läuft wie mit der 970?

Übrigens braucht man auch unter Win X weiterhin das Pagefile, sonst crasht bei dem Spiel mit o.g. Settings das System irgendwann sang- und klanglos, genau wie unter Win 8/7.

dargo
2015-05-09, 16:24:43
Nochmal zum Thema:
Mit der GTX 980 hab ich übrigens auch keine Stocker in AC: U mit 1440p 4xMSAA. Dass es mit der 970 stockt, ok. Ist klar.
Aber was macht der AMD-Treiber da wieder, dass es trotz echten 4GB genau so kacke läuft wie mit der 970?

Unter Windows 10 scheint es wesentlich besser zu laufen. Geht zumindest in die richtige Richtung.
http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/DirectX-11-Treiber-Draw-Calls-Verbesserung-1158379/

fondness
2015-05-09, 17:05:20
Unter Windows 10 scheint es wesentlich besser zu laufen. Geht zumindest in die richtige Richtung.
http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/DirectX-11-Treiber-Draw-Calls-Verbesserung-1158379/

Gibt ja auch schon Vergleiche mit Project Cars wo der Treiber erheblich mehr Leistung liefert. Der Branch wird dann wohl mit Fiji auch offiziell verfügbar.

4U3h3QfsRho

dargo
2015-05-09, 17:23:01
Kenne ich. :wink:

aufkrawall
2015-05-09, 18:14:52
Unter Windows 10 scheint es wesentlich besser zu laufen. Geht zumindest in die richtige Richtung.
http://www.pcgameshardware.de/AMD-Catalyst-Grafikkarte-255517/News/DirectX-11-Treiber-Draw-Calls-Verbesserung-1158379/
Hä, wieso zitierst du mich? Da geht es offenbar um eine ganz andere Thematik.
Ich habe mich doch 0 Stück auf irgendetwas CPU-Artiges bezogen...

Bei AC: U hat auch Computerbase mit Hawaii eine Art "970-Verhalten" beobachtet, bei dem die Belegung von mehr als 3,5GB rumzickt.
Das Problem hat die 980 nicht.

Bleibt doch im GW-Thread mit dem CPU-Kram, den habt ihr ja schon erfolgreich dafür gehijackt.

dargo
2015-05-09, 19:26:34
Bei AC: U hat auch Computerbase mit Hawaii eine Art "970-Verhalten" beobachtet, bei dem die Belegung von mehr als 3,5GB rumzickt.

Link?

-/\-CruNcher-/\-
2015-05-09, 19:43:21
Gibt ja auch schon Vergleiche mit Project Cars wo der Treiber erheblich mehr Leistung liefert. Der Branch wird dann wohl mit Fiji auch offiziell verfügbar.

http://youtu.be/4U3h3QfsRho

Schön währe hier jetzt noch ein vergleich mit Windows 7 und WDDM 1.1 :)

theoretisch könnte bei 10 auch der overhead von Afterburner und NVAPI selbst weiter vermindert werden das I²C pooling könnte jetzt komplett durch Windows Nativ I²C API ersetzt werden dadurch der externe Kerneltreiber overhead weiter reduziert werden :)

Mal sehen wie Unwinder das in Zukunft handeln wird :)

aufkrawall
2015-05-09, 22:17:30
Link?
Die GeForce GTX 980 nutzt mit 3.994 MB die fast vollen vier Gigabyte, die GeForce GTX 970 mit demselben Speicher dagegen nur 3.575 MB – dies ist aufgrund der Speicherlimitierung der GeForce GTX 970 der Fall, die Daten wieder aus dem Speicher herausschmeißt. Auch die AMD-Karten belegen in Assassin's Creed Unity maximal 3,5 Gigabyte und werfen Daten wieder aus dem Speicher, obwohl dies gar nicht nötig wäre.
http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#abschnitt_speicherverbrauch_spiele
Und entsprechend stockt es auch mit MSAA auf der 290X. Ist kein Beinbruch, weil die fps eh zu niedrig dafür sind, aber irgendwo auch blöd, falls die "3,5GB" an manchen Stellen ohne MSAA doch mal nicht reichen sollten.
Insbesondere, wenn man von einer 970 auf eine 290X wechselt. :freak:

aths
2015-05-10, 00:37:21
Insbesondere, wenn man von einer 970 auf eine 290X wechselt. :freak:
Könntest du in 2-3 Sätzen die Erfahrung im Vergleich beschreiben? Ist die 290X insgesamt eine adäquate, oder ist sie die bessere Karte?

aufkrawall
2015-05-10, 01:13:18
Könntest du in 2-3 Sätzen die Erfahrung im Vergleich beschreiben? Ist die 290X insgesamt eine adäquate, oder ist sie die bessere Karte?
Es gibt keine Custom Designs, die ich als gut bezeichnen würde. Die von vielen gelobten Sapphire-Customs fielen mir wiederholt durch schlechte Lüfterqualität auf. Das kommt leider im Leben alles nicht ansatzweise an eine MSI 970 Gaming ran.
Die Leistung war nicht so übel, AC: U (ohne MSAA) oder Dying Light liefen zufriedenstellend in WQHD.
Man muss aber halt wissen, dass es im Vergleich zu GM204 ein Takt- und gleichzeitig auch Effizienzkrüppel ist. Verglichen mit der 970 bleibt halt immer der Vorteil von echt mehr VRAM. Wenn man also einen Billigheimer für WQHD sucht, der nicht perfekt sein muss, ist man mit Hawaii gut bedient.

Ich denke, die 980 ist ihren Aufpreis wert: Schneller, leiser, effizienter, kühler, besser (Prerenderlimit für DX11 einstellbar, bessere Texturfilterung), und das alles gleichzeitig.
In niedrigeren Preisbereichen hat man momentan einfach die Arschkarte. Bleibt nur, Ansprüche runterschrauben und 290 non-X kaufen, wobei die auch schon mal billiger war (verdammter €).
Schade, dass man 780 6GB nicht mehr bekommt.

dargo
2015-05-10, 08:04:13
http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#abschnitt_speicherverbrauch_spiele
Und entsprechend stockt es auch mit MSAA auf der 290X. Ist kein Beinbruch, weil die fps eh zu niedrig dafür sind, aber irgendwo auch blöd, falls die "3,5GB" an manchen Stellen ohne MSAA doch mal nicht reichen sollten.
Insbesondere, wenn man von einer 970 auf eine 290X wechselt. :freak:
Ich sehe da leider keine Frametimemessung. :confused:

Edit:
Achso... du beziehst dich da auf die Schlussfolgerung von CB. Da muss man vorsichtig sein imho. Dass die Radeon ebenfalls 3,5GB bei 1080p belegt kann reiner Zufall sein. Der Speicherpool den die Karten belegen variiert immer. Schau dir nur mal an was die Radeon in 1080p bei Farcry 4 belegt im Vergleich zu Maxwell, besonders GM200 (letztere hat sogar die 3 fache Speichermenge Onboard). Es gibt einfach keinen Grund, dass die Radeon schon bei 3,5GB dicht macht. Außer vielleicht einen Softwarebug wie es den bei FC4 mit irgendeinem Patch gab. Aber dann betraff diese 3,5GB Begrenzung alle Karten.

Edit 2:
Mir fallen einige Ungereimheiten bei den Speicherverbräuchen auf.

Radeon @4GB in FC4
1080p = 3760MB
1440p = 3416MB
2160p = 3707MB

Radeon @4GB in AC: U
1080p = 3572MB
1440p = 3972MB
2160p = 3710MB

Ziemlich merkwürdiges Verhalten sofern paar Werte in den Tabelle nicht irrtümlich vertauscht wurden.

The_Invisible
2015-05-10, 09:10:43
betrifft auch die Titan X, in 4k manchmal weniger speicherverbrauch als in 1440p.

entweder wurden zahlen vertauscht oder die messungen sind alle für nix. :biggrin: ich schäzte mal die apps werden den speicher einfach als cache benutzen, darum der unterschiedliche verbrauch, darum ist es ja anscheinend so schwierig den wirklichen speicherverbrauch zu messen (ohne caches)

is anscheinend wie in linux, ram wird mal vollgepulvert, aber der wirkliche speicherverbrauch ist viel niedriger, dort sieht man es wenigstens mit "free"

edit: gerade gelesen, in 4k wurde msaa abgeschalten, wie bescheuert ist das denn :D

dargo
2015-05-10, 09:29:13
edit: gerade gelesen, in 4k wurde msaa abgeschalten, wie bescheuert ist das denn :D
Argh... diese Info hätten die ins Diagramm packen können. :usad: Bleibt dann noch die Ungereimheit zwischen 1080p und 1440p.

-/\-CruNcher-/\-
2015-05-10, 10:02:50
Es gibt keine Custom Designs, die ich als gut bezeichnen würde. Die von vielen gelobten Sapphire-Customs fielen mir wiederholt durch schlechte Lüfterqualität auf. Das kommt leider im Leben alles nicht ansatzweise an eine MSI 970 Gaming ran.
Die Leistung war nicht so übel, AC: U (ohne MSAA) oder Dying Light liefen zufriedenstellend in WQHD.
Man muss aber halt wissen, dass es im Vergleich zu GM204 ein Takt- und gleichzeitig auch Effizienzkrüppel ist. Verglichen mit der 970 bleibt halt immer der Vorteil von echt mehr VRAM. Wenn man also einen Billigheimer für WQHD sucht, der nicht perfekt sein muss, ist man mit Hawaii gut bedient.

Ich denke, die 980 ist ihren Aufpreis wert: Schneller, leiser, effizienter, kühler, besser (Prerenderlimit für DX11 einstellbar, bessere Texturfilterung), und das alles gleichzeitig.
In niedrigeren Preisbereichen hat man momentan einfach die Arschkarte. Bleibt nur, Ansprüche runterschrauben und 290 non-X kaufen, wobei die auch schon mal billiger war (verdammter €).
Schade, dass man 780 6GB nicht mehr bekommt.

Wiedersprech ich dir ist sie jetzt nicht und war sie von Anfang an nicht, vor allem wenn man sie nicht OC betreibt aber Nvidia kann den Preis trotzdem verlangen die 980 TI wird interessanter gegenüber der GTX 970 ;)

MSAA sollte heute eigentlich Standard bei 4x liegen und das schaft die GTX 970 sehr gut auch noch höher als 1080p für 4K sollte es dann aber schon die GTX 980 sein vor allem wenn man dort in Zukunft zusätzlich mit VXGI und Co load kalkuliert :)

für 1080p 60 fps ist die GTX 970 sehr gut ausbalanciert Performance/Verbrauch :)

BitJäger
2015-05-10, 10:10:59
Schade, dass man 780 6GB nicht mehr bekommt.

ASUS STRIX-GTX780-OC-6GD5
(http://geizhals.de/asus-strix-gtx780-oc-6gd5-90yv04h4-m0na00-a1122403.html?hloc=de)

gnomi
2015-05-10, 10:11:28
Mich würden die Verkaufszahlen so einer Karte wie der 980 oder 290X eh mal interessieren.
Wie viel Tausend gehen da wohl deutschlandweit überhaupt weg. :confused:
Wahrscheinlich sind diese starken Karten eher wegen des Image besonders wichtig.

The_Invisible
2015-05-10, 11:42:07
ASUS STRIX-GTX780-OC-6GD5
(http://geizhals.de/asus-strix-gtx780-oc-6gd5-90yv04h4-m0na00-a1122403.html?hloc=de)

super preis, dann doch lieber ein 980er ; )

Disco_STFU
2015-05-10, 12:34:23
GTX 980 für unter 500, wo? ;)

R9 290x mit 8GB...

DerKleineCrisu
2015-05-10, 13:08:32
Mich würden die Verkaufszahlen so einer Karte wie der 980 oder 290X eh mal interessieren.


Wenn man das Forum als Referenz nehmen würde, müssten
60 % alle Pc´s in DE eine 980er, 30 % eine 970er, 5 % eine 290er
und 5 % alle anderen GraKa´s verbaut haben.

So fühlt es sich zumindest mal an. Denke aber das hier wahrscheinlich
das Gefühl einen Streich Spielt.

Richtig Zahlen würden mich auch Interessieren gerade auf den Blick
ob dieser 970er Fall Auswirkungen beim Verkauf hatte oder
ob Nvidia / Händler da wirklich nicht gelogen haben mit dem
"Ist alles halb so schlimm, wenn wir die Verkaufszahlen anschauen ".

Andere Frage gibt es vielleicht schon ein Mod Bios für die 970er
womit man diese 512 MB Krücke der Graka abschalten kann ?.

würden sich sicher ein paar 970er Besitzer vielleicht freuen darüber.

Grüße

Undertaker
2015-05-10, 13:28:52
Für die Frage zur GTX 970 wäre die Aufteilung folgender Gruppen interessant:

1) 3,5-GB-Thematik ist gänzlich unbekannt
2) Thematik ist bekannt, hält aber nicht vom Kauf der Karte ab
3) Thematik ist bekannt und hält vom Kauf der Karte ab

Da mittlerweile sogar Portale wie Geizhals auf Artikel bzgl. des Themas verlinken, würde ich Gruppe 1 (bezogen auf alle Käufer in diesem Preissegment) auf <20 Prozent schätzen. Unter den hier anwesenden Forennutzern oder PC-Zeitschriften-Lesern dürften es <3 Prozent sein. Wer >300 Euro für eine GPU investiert, ist technisch überwiegend halbwegs informiert und wird idR demnach davon gehört haben.

Bleiben noch die Gruppen 2 und 3. Hätte Gruppe 3 eine bedeutsame Größe, müsste der Preis simplen marktwirtschaftlichen Regeln folgend insbesondere in den nahezu vollständig informierten Foren merklich abstürzen. Davon ist allerdings rein gar nichts zu sehen. Ebensowenig sind die Händlerpreise der GTX 970 erkennbar gefallen, was auch dort auf eine mehr oder weniger konstante Nachfrage schließen lässt.

Ich folgere daraus: Die oftmals konstruierten Situationen, in denen die GTX 970 bei spielbaren fps mehr stockt als eine vergleichbar schnelle Konkurrenzkarte, sind offensichtlich viel zu selten, um von einem Kauf abzusehen. Bzw. überwiegt noch immer das sehr gute P/L und die hervorragende Energieeffizienz. Und wenn es wirklich mal in einem Fall Probleme gibt, bleibt dem Nutzer noch immer der Verzicht z.B. auf eine MSAA-Stufe, um den Speicherverbrauch zu drücken.

Troyan
2015-05-10, 13:31:22
Bei Steam liegt die GTX970 jetzt schon auf einen der vorderen Plätze. Laut nVidia hat man Mitte Januar 1 Million GTX980 und GTX970 Karten verkauft. Laut Steam liegt das Verhältnis bei ca. 1:4.

Raff
2015-05-10, 13:51:25
Wie schon öfter gesagt: Nvidia-Produkte verkaufen sich auch mit Mängeln, Image ist alles. Die Ausnahme dieser Regel war die FX-Reihe, als man trotz großer Anstrengungen signifikant Marktanteile verlor. Da haben die Karten aber wirklich gesuckt. ;)

MfG,
Raff

Undertaker
2015-05-10, 13:56:44
Auch innerhalb des NV-Angebotes könnten die Kunden nach oben (GTX 980) oder unten (GTX 960 4 GB) ausweichen. Das 3,5-GB-Thema wird von der Masse der Käufer als offenbar nicht relevant betrachtet.

Zumal man natürlich auch immer sehen muss, dass es keine ähnlich teure Alternative ohne widerum andere Makel (Stichwort Leistungsaufnahme) gibt.

Troyan
2015-05-10, 13:59:18
Wie schon öfter gesagt: Nvidia-Produkte verkaufen sich auch mit Mängeln, Image ist alles. Die Ausnahme dieser Regel war die FX-Reihe, als man trotz großer Anstrengungen signifikant Marktanteile verlor. Da haben die Karten aber wirklich gesuckt. ;)

MfG,
Raff

Ein Mangel wird dann zum Problem, wenn es eine Alternative gibt, die besser ist.
Jedoch von einem Produkt mit Mangeln auf ein anderes Produkt mit anderen Mangeln zu verweisen, bringt nichts.

So haben vielleicht die Leute eine Alternative, die 4GB wollen. Aber was ist mit denen, die einen geringeren Stromverbrauch schätzen? Oder DSR? Oder die geringere CPU-Last der Treiber benötigen...

TobiWahnKenobi
2015-05-10, 14:00:56
Auch innerhalb des NV-Angebotes könnten die Kunden nach oben (GTX 980) oder unten (GTX 960 4 GB) ausweichen. Das 3,5-GB-Thema wird von der Masse der Käufer als offenbar nicht relevant betrachtet.

von der masse der wirklichen nutzer, also die, die sich so ein ding gekauft haben und nicht nur die alle-regler-rechts-tests irgendwelcher webseiten kennen, sicher auch. ich kenne den speicherkrüppel jetzt eine woche und er ist völlig okey und gut nutzbar..


..und man bricht sich auch nicht die augen darauf ;)

http://abload.de/thumb/gta5_2015_05_10_01_2008koj.jpg (http://abload.de/image.php?img=gta5_2015_05_10_01_2008koj.jpg) http://abload.de/thumb/gta5_2015_05_10_01_20rdjcg.jpg (http://abload.de/image.php?img=gta5_2015_05_10_01_20rdjcg.jpg) http://abload.de/thumb/gta5_2015_05_10_01_20skj82.jpg (http://abload.de/image.php?img=gta5_2015_05_10_01_20skj82.jpg) http://abload.de/thumb/gta5_2015_05_10_01_21kekd0.jpg (http://abload.de/image.php?img=gta5_2015_05_10_01_21kekd0.jpg)



(..)

mfg
tobi

Raff
2015-05-10, 14:07:28
von der masse der wirklichen nutzer, also die, die sich so ein ding gekauft haben und nicht nur die alle-regler-rechts-tests irgendwelcher webseiten kennen, sicher auch. ich kenne den speicherkrüppel jetzt eine woche und er ist völlig okey und gut nutzbar.

(..)

mfg
tobi

Ich kenne niemanden, der sich eine neue, teure Grafikkarte kauft, um dann in Spielen die Regler doch nur wieder "halbrechts" zu stellen. Normalerweise kostet eine GTX 970 nämlich nicht 250, sondern 350 Euro. ;) Das ist ein ziemlicher Batzen für etwas, das vielleicht schon in einem Jahr keine Treiberliebe mehr bekommt und daher besonders hart suckt.

MfG,
Raff

Undertaker
2015-05-10, 14:15:27
Mit einer ähnlich teuren und schnellen 290X kannst du das ebenfalls nicht immer. 350€ sind nun einmal nicht absolutes High-End sondern eine Stufe tiefer. ;) Die Fälle, wo du speicherbedingt in spielbaren Settings Probleme bekommst, sind an einer Hand abzuzählen, das haben sämtliche Tests gezeigt. Notfalls haut man eben das speicherhungrige MSAA raus und maximiert dafür ein anderes Setting.

Über persönliche Einschätzungen brauchen wir uns hier eh nicht zu streiten. Selbst die Verkaufspreise unter informierten Geeks hier im Forum beweisen, dass die Masse das Thema nicht wirklich kritisch sieht. Imo berechtigt.

-/\-CruNcher-/\-
2015-05-10, 14:32:16
Und Nvidia optimiert hier Visuell gezielt es gibt ja auch noch die möglichkeit MSAA mit MFAA zu betreiben schon das alleine kann die Frametimes stabilisieren ohne wirklichen sichtbaren verlust in einem 4K->1080p Downsampling Szenario sichtbar wird es dann erst in Screenshots in der Nativen Auflößung :)

Für mich erfüllt es jeden Aspekt einer gezielten Psychovisuellen Optimierung mit dem Versuch den Overhead in diesem spezielen Szenario zu minimieren und effizienter zu sein und mein persönlicher Eindruck es klapt sehr gut und die Arbeit hieran ist ordentlich gemacht worden mit der Einbeziehung des Display outputs (LCD) :)

Desweiteren arbeiten sie ja sehr kräftig an ihrem effizienteren MSAA 8x competitor gegen SMAA T2x ;)

Palpatin
2015-05-10, 16:10:48
Edit 2:
Mir fallen einige Ungereimheiten bei den Speicherverbräuchen auf.

Radeon @4GB in FC4
1080p = 3760MB
1440p = 3416MB
2160p = 3707MB

Radeon @4GB in AC: U
1080p = 3572MB
1440p = 3972MB
2160p = 3710MB

Ziemlich merkwürdiges Verhalten sofern paar Werte in den Tabelle nicht irrtümlich vertauscht wurden.

Man hat zum Teil mit MSAA gebencht und in 4k nur mit SMAA, könnt mir vorstellen das man für Speichermessung die MSAA Werte bei 1440p bzw 1080p genommen hat und bei 4k nur SMAA.
Dann würden die Werte auch absolut Sinn ergeben. Denn es ist in der Tat so das 4x MSAA in 1440p z.T. mehr Speicher braucht als 2160p ohne AA. Im Fall von Farcry evtl nur 1080p mit MSAA.

aufkrawall
2015-05-10, 16:13:52
Die Werte sind ja zweitrangig. Wichtig sind die Frametimes, und die waren mit der 290X in WQHD 4xMSAA unter aller Sau, im Gegensatz zur 980.

dargo
2015-05-10, 19:43:11
...

dargo
2015-05-10, 19:46:31
Die Werte sind ja zweitrangig. Wichtig sind die Frametimes, und die waren mit der 290X in WQHD 4xMSAA unter aller Sau, im Gegensatz zur 980.
Vielleicht gibts mit MSAA bei AC: U Probleme @AMD. Jedenfalls konnte ich bei Eurogamer so schlechte Frametimes in 1440p nicht beobachten. Wenn mich nicht alles täuscht hatte DF mit FXAA gebencht.

gnomi
2015-05-10, 21:03:50
Mit MSAA ist die 980 in 1440P bei Unity doch auch am Ende, oder gab es da treiberseitige Performancesteigerungen?

aufkrawall
2015-05-10, 21:14:51
Bitte richtig lesen: Ich habe selbst geschrieben, dass die fps mit der 980 mit 4xMSAA nicht mehr hoch genug sind. Darum ging es gar nicht.

Embodier
2015-05-15, 12:18:09
Für die Frage zur GTX 970 wäre die Aufteilung folgender Gruppen interessant:

1) 3,5-GB-Thematik ist gänzlich unbekannt
2) Thematik ist bekannt, hält aber nicht vom Kauf der Karte ab
3) Thematik ist bekannt und hält vom Kauf der Karte ab
[...]


Ich habe seit Anfang Dezember 2014 mein SLi 970 System und spiele via 1440p auf dem ASUS RoG Swift, knalle die Regler auf Anschlag bei den Games und beobachte amüsiert die beeindruckten Mimiken meiner Kumpels aufgrund dieser Leistungsdemonstration.
Kollegen und Kumpels spielen bisher auf 1080p und jeweils 3-5 Jahre alten System und werden nun aufrüsten bzw. einige haben bereits aufgerüstet.

Am Ende landeten alle bei der 970 und gehören zur Gruppe 3 und wollten mal live schauen, wie sich diese "Probleme" denn auswirken in der "Praxis".

Shadows of Mordor mit 6 GB Texturen? Go for it. GTA V auf Very High/Ultra und 2x MSAA und Advanced Scaling Effekte am Schlag? Go for it.
NBA 2K15 mit 8xMSAA? Go for it.
Project Cars auf Ultra? Go for it.
Bf4 auf Ultra? Feuer frei!
The Golf Club auf Ultra? Feuer frei!
WOlfenstein The New Order auf Ultra? let's do it.

Nun ist es klar, dass zwei 970er via SLI zusammen mit einem i7-5930K den Swift natürlich ideal fluten können, und das kostet ein paar Euro.

Aber wie man sah, sah man "nix" von den 3,5 GB Limitis oder Problemem in der Praxis. FÜr 4K Zukunftsinvestitionen taugen die 970er nichts, aber für 1080p und 1440p kann ich die 970er bedenkenlos empfehlen. Die Teile laufen super und schaffen mit etwas Übertaktung bereits 980er Werte - für rund 200 Euro weniger Cash. (Firestrike 18150 Punkte).
Das Desaster hatte für nvidia offensichtlich wenig Auswirkungen. Zweifler in meinem Freundes- und Kollegenkreis konnte ich live davon überzeugen, wie hammer diese GPUs rennen.

Insofern, Undertaker, ja, Die oftmals konstruierten Situationen, in denen die GTX 970 bei spielbaren fps mehr stockt als eine vergleichbar schnelle Konkurrenzkarte, sind offensichtlich viel zu selten, um von einem Kauf abzusehen. kann ich nur unterschreiben. In den rund 5 1/2 Monaten Nutzung in Spielen und gfx Reglern am Anschlag habe ich nichts wahrgenommen, was irgendwie auf eine 3,5 GB VRAM "Problematik" schließen lässt. Das ist unter 1080p udn 1440p wohl kaum abbildbar, und wenn, dann sehr inszeniert.

Für mich persönlich ist eine einzenlne 970 für 1440p jedoch zu "wenig". Aber mit SLI ideal und wirtschaflticher und attraktiver als eine Titan X, die nochmal 300 Euro teurer aber nicht wirklich schneller ist

Evil Ash
2015-05-15, 12:32:22
Ich habe nie verstanden, worum es in diesem Thread eigentlich ging. Ich hatte mehrmals gefragt, wie ich mit der 970 GTX ein VRAM-bedingtes Ruckeln provozieren könnte, sagen konnte mir das niemand.

Stattdessen kauften sich Leute eine 290x, das find ich viel schlimmer:
http://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/3/

Djudge
2015-05-15, 15:41:46
Mhmm, habe ja auch an diese Karte gedacht und habe das Glück diese Karte zu testen.
Als Test lief GTA 5 und was soll ich sagen, ich fahre so schnell und sauber wie möglich und beobachte genüsslich das OSD vom Afterburner und kann mit Ansage folgendes Szenario beschreiben,

Guck Mate, wir sind mal wieder bei 3450-90 und gleich passierts wieder, Sekunden später
Bämm VRam bei 3200-3300 und eine 970 Gedenk-Sekunde, ok vielleicht etwas übertrieben die Sekunde, aber wer nicht bemerkt, dass es eben ein Break gab, der hat hier imho nix zu suchen.

Ob es das Spiel oder die Karte ist kann jeder selbst entscheiden. Für mich mit dem Hintergrundwissen ist es immer die Karte ob nun richtig oder nicht.

aufkrawall
2015-05-15, 15:46:04
Exakt, das ist miese Psychologie. Hat mir das Produkt auch versaut.
Ich sags ja immer: Wer das Problem einmal selbst gesehen hat, wird sich hüten, irgendwas verharmlosendes rumzuschwafeln.

Evil Ash
2015-05-15, 15:50:19
Mhmm, habe ja auch an diese Karte gedacht und habe das Glück diese Karte zu testen.
Als Test lief GTA 5 und was soll ich sagen, ich fahre so schnell und sauber wie möglich und beobachte genüsslich das OSD vom Afterburner und kann mit Ansage folgendes Szenario beschreiben,

Guck Mate, wir sind mal wieder bei 3450-90 und gleich passierts wieder, Sekunden später
Bämm VRam bei 3200-3300 und eine 970 Gedenk-Sekunde, ok vielleicht etwas übertrieben die Sekunde, aber wer nicht bemerkt, dass es eben ein Break gab, der hat hier imho nix zu suchen.

Ob es das Spiel oder die Karte ist kann jeder selbst entscheiden. Für mich mit dem Hintergrundwissen ist es immer die Karte ob nun richtig oder nicht.

Bei was für Einstellungen werden denn bitte 3500 MB benötigt? Da ist doch die 970er sowieso zu langsam für. Und ob nun bei 30 fps kurz ein Hänger drin ist, kann mit allem möglichen zusammenhängen ...

GTA V zock ich mit der 970er mit 60 fps und bin damit weit entfernt von den 3500 MB.

TobiWahnKenobi
2015-05-15, 15:51:00
kommt das bei dir oft vor?


(..)

mfg
tobi

aufkrawall
2015-05-15, 15:52:22
Das dürfte nicht so oft vorkommen, ohne MSAA und Reflexions-MSAA gar nicht bei Auflösungen bis WQHD.

TobiWahnKenobi
2015-05-15, 16:33:37
Bei was für Einstellungen werden denn bitte 3500 MB benötigt? Da ist doch die 970er sowieso zu langsam für. Und ob nun bei 30 fps kurz ein Hänger drin ist, kann mit allem möglichen zusammenhängen ...

GTA V zock ich mit der 970er mit 60 fps und bin damit weit entfernt von den 3500 MB.

http://abload.de/img/14du2c.jpg
http://abload.de/img/294uqw.jpg

die einzigen hänger in GTAV, die ich seit GTX970 erlebe und die ich mit titan nicht wahrgenommen habe, sind die wenn man quer über die karte nagelt. da wird dann irgendwann die pampa nachgeladen und die frames droppen für den bruchteil einer sekunde in den 20er bereich runter.

den speicher zu beobachten ist mit abstand die absurdeste nebenbeschäftigung, die ich mir beim GTA-spielen vorstellen kann..


bei mir ist das höchste der gefühle, dass ich während des spielens fraps ein paar frames loggen lasse.




http://abload.de/thumb/gta5_2015_05_15_16_02gpxwt.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_02gpxwt.jpg) http://abload.de/thumb/gta5_2015_05_15_16_0201bap.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_0201bap.jpg) http://abload.de/thumb/gta5_2015_05_15_16_0328x3b.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_0328x3b.jpg) http://abload.de/thumb/gta5_2015_05_15_16_0341zst.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_0341zst.jpg) http://abload.de/thumb/gta5_2015_05_15_16_04l6aps.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_04l6aps.jpg) http://abload.de/thumb/gta5_2015_05_15_16_064kxmq.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_064kxmq.jpg) http://abload.de/thumb/gta5_2015_05_15_16_073fz8y.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_073fz8y.jpg) http://abload.de/thumb/gta5_2015_05_15_16_083czll.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_083czll.jpg) http://abload.de/thumb/gta5_2015_05_15_16_08rqxno.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_08rqxno.jpg) http://abload.de/thumb/gta5_2015_05_15_16_08n6yn4.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_08n6yn4.jpg) http://abload.de/thumb/gta5_2015_05_15_16_09emaal.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_09emaal.jpg) http://abload.de/thumb/gta5_2015_05_15_16_09tjbs4.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_09tjbs4.jpg) http://abload.de/thumb/gta5_2015_05_15_16_12diy04.jpg (http://abload.de/image.php?img=gta5_2015_05_15_16_12diy04.jpg)

GTA5 2880x1620p (schatten weich, gras hoch, rest max +FXAA)
Frames: 33245 - Time: 612125ms - Avg: 54.311 - Min: 42 - Max: 64

GTA5 2880x1620p (schatten weich, gras hoch, rest max +FXAA +2xMSAA)
Frames: 5629 - Time: 148203ms - Avg: 37.982 - Min: 30 - Max: 43



(..)

mfg
tobi

Djudge
2015-05-15, 18:40:27
den speicher zu beobachten ist mit abstand die absurdeste nebenbeschäftigung, die ich mir beim GTA-spielen vorstellen kann..


Ach Toby, mir drückt grad der Schuh..

Wenn ich ne Karte teste und auf das OSD schiele, dann spiele ich zwar praktisch, aber eigentlich teste ich mit "Spielen" :rolleyes:

@Evil Ash, ich lass mir die Setting nachher durchgeben,

war 2,25 DSR 2560x1600 alles Ultra und etwas gespielt an Distance Scaling auf 3,5 3,6 3,4 Gb Vram.
in Allen Varianten der beschriebene Effekt. Ebend nochmal reproduziert. Letzter Pach alles ok soweit.

Find ich echt nicht so pralle, wenn auch in der Stadt mit 50-60Fps und außerhalb 30-40 nicht optimales Spielvergnügen verspricht, kann ich mich an die gelegentlichen Slowdowns gewöhnen , aber die doch häufigen Hänger suck´n derb.

dargo
2015-05-15, 18:57:20
den speicher zu beobachten ist mit abstand die absurdeste nebenbeschäftigung, die ich mir beim GTA-spielen vorstellen kann..

So kann die Probleme auch wegdiskutieren.

-/\-CruNcher-/\-
2015-05-15, 18:58:15
Hab noch 0 probleme festgestellt das Streaming ist einfach bombe ;)

der einzigste tot für die GTX 970 das ist MSAA höher als 2x bei 4K das schaft sie einfach nicht dafür wurde sie aber auch nicht ausgelegt von Nvidia für DX 11, das max ist dort 2x und am besten mit MFAA (wobei ich den vorteil von MFAA noch nicht selbst bestätigen kann) ;)

bei 4K ist sie wie oft den noch auf 30 FPS ausgelegt

bei 1080p auf 60 fps

wenn jemand schaft effizienteren code als Nvidia zu basteln schaft sie auch mehr ;)

Gameworks kann sie etwas schwächen hier steht die GTX 980 besser da vor allem viel Gameworks viel Physx wenn dann noch VXGI hinzukommt wird die GTX 970 aber wohl endgültig nichts mehr reisen bei 4K ;)

Hier mal der Unterschied von PCCS visuell relativ ordentlich implementiert in RAGE bei ~6ms frametime verlust vergleichbar AMD CHS verlust :)


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10625973#post10625973

Nutze allerdings nicht das volle Potenzial meiner GTX 970 hab noch ca 22% headroom in der theorie ;)

Embodier
2015-05-15, 20:22:32
Ich habe nie verstanden, worum es in diesem Thread eigentlich ging. Ich hatte mehrmals gefragt, wie ich mit der 970 GTX ein VRAM-bedingtes Ruckeln provozieren könnte, sagen konnte mir das niemand.

Stattdessen kauften sich Leute eine 290x, das find ich viel schlimmer:
http://www.computerbase.de/2015-05/project-cars-guide-grafikkarte-prozessor-vergleich/3/

Ich hatte vor Monaten eine Diskussion über die "stutter" Effekte, die aufgrund der 3,5 GB + 0,5 GB Limitierung entstünden. Dabei filmte jemand Shadows of Mordor auf 1440p mit Textruren Pack und Ultra und ließ die 970 gegen die 290x antreten und wollte beweisen, dass die 970 viel mehr drops hatte. Als das 290x Video (https://www.youtube.com/watch?v=QCeg6EQKYQo) dann nach 2 Minuten ebenfalls komplette Ruckler und Einbrüche auf 14 fps zeigte, war mir klar, dass die AMD und nvidia Gruppen schlicht ideologisch diskutieren.

Ein Heavy modded skyrim und auch 4 K Auflösungen auf Ultra Details in SPielen zwingen eine 970 sicher in die Knie. Eine 980er aber auch, und das führt die Debatte ad absurdum.
Fakt ist, dass nvidas Lügen zu einem PR Debakel führte, doch dennoch funktioniert die Karte "wie sie soll" mit ihrer Architektur. Da ich direkt zwei 970er gekauft hatte, wäre ich einer der ersten gewesen, der die Ding direkt zurückgeben hätte, mein Händler machte ein kulantes Angebot. Alleine, es gab keine Probleme und nichts, was mein Spielerlebnis bisher einschränkte.
Wer in 1080p und 1440p unterwegs ist, wird kaum etwas entdecken können, was sein SPielen einschränkt, wenn überhaupt.

In diesem Sinne - referenziert auf den Threadtitel - würde ich die (künstlich inszenierten) Leistungsprobleme und nvidas Lügenaktion differenzieren wollen.
Die Verkaufszahlen und die Nachfrage der 970 wären längst eingebrochen, wenn die Karte in der Praxis wirklich Probleme hätte.
Das betrifft dann wohl doch nur Einsätze in Nischenkonfigs von 1-5 %, wenn überhaupt.
Die User in diesen Nischen sind nun aber Enthusiasten, die auch in den Foren und Blogs aktiv sind.
In diesem Sinne hat man in den Beiträgen das Gefühl, als wäre jede dritte 970er mit Problemen versehen und in zig Spielen gibts es Leistungsdefizite.
Die 95 % der User, die keine Probleme haben, schreiben in diesen Technikforen wohl kaum. Zieht man nun noch die obligatorische Kritik der AMD fanboys ab (zur Klarstellung: Ist andersherum genauso. Wenn die 390x nur ansatzweise enttäuscht, werden die "Team green" Fans mit Freude nachtreten), welche die 970er kaputtschreiben wollen, ergibt sich ein Bild, das der Realität nicht standhält.


Ob eine 970er für 1440p in 2 Jahren noch solide 50-70 fps fahren kann, ohne dass man die gfx settings runterregeln muss, ist nicht ausgeschlossen, aber auch Spekulation.
Die 970 SLI Lösung werde ich nutzen bis AMD oder nvidia eine GPU präsentieren, die mein SLI Gespann fps mäßig demontiert. Ich bezweifle, dass das die 390x oder 980ti schaffen.

gnomi
2015-05-16, 06:59:52
Das Problem wird sicherlich überbewertet, da die 970 für gewöhnlich astreine Performance bietet.
Dennoch ist eben nicht ausgeschlossen, dass es im Grenzbereich wegen des Speichers problematisch werden kann.
Noch nutzen die Games auch i.d.R. keine vollen 3,5-4GB mit Post AA in Full HD bis WQHD, aber das dürfte zunehmend noch in dieser Generation der Fall sein, wenn mehr 4-8GB Karten im Umlauf sind.
Wer die Karte nur 18-24 Monate einsetzt (3/4 Jahr ist ja schon um) und nicht überreizt, sollte kaum Probleme feststellen, aber darüber hinaus bin ich etwas skeptisch.
Die 980 finde ich deshalb auch nicht überteuert, denn die Rohleistung gegenüber der Konkurrenz ist höher, die Referenzversion qualitativ ausreichend und die Sicherheit, auf keine Probleme zu stoßen weit angenehmer.

Angiesan
2015-05-16, 10:22:04
Das die GTX 980 bei Taktgleichstand fast immer 20-25% Schneller ist kann ich nun bestätigen.
Das sich das bis auf Far Cry 4 mit der GTX 980 besser anfühlt nicht!
Ich hatte jetzt ein paar Tage, um die GTX 980 zu testen, meine Meinung zum normalen Preis viel zu teuer!
Den Preis, den ich hier im Forum für eine Austauschkarte bezahlt habe (420,--Euro) wäre der Preis, der angemessen wäre, wenn man die GTX 980 beim Händler kaufen würde.

Was fällt auf:

1.) Das Ref -Design ist besser wie man es ihm nachsagt, die EVGA GTX 980 SC hält konstant über 1,3 GHz ohne das ich PT oder TT verändern musste.

2.) Die Lautstärke @2000-2200 RPM ist wirklich ertragbar

3.) Die Karte ist aus der Packung immer schneller wie meine 970er Asus Strix, auch wenn ich diese übertakte auf 1504 MHz, komme ich nicht an die GTX 980 SC ran.

4.)Auch die 980er belegt nicht immer die vollen 4GB Speicher einzig Shadow of Mordor haut den randvoll (macht das Spiel aber auch bei der GTX 970 wenn man länger wie 3 Minuten testet)

5.) Muss man um die GTX 970 gegen die GTX 980 in die Knie zu drücken, so hohe Qualitätseinstellungen (AA, gameworks) einstellen, dass es dann auch auf der GTX 980 nicht mehr spielbar ist, zumindest nicht für mich.
Ein gutes Beispiel sei hier Far Cry 4, das läuft auf der GTX 980 mit AA deutlich besser wie mit der GTX 970 gute 25% schneller ....toll
Spielbar jedoch meiner Meinung nach nur mit 2xAA.
4xAA reicht zwar immer für über 30 FPS, aber das MR ist verheerend.
Das Spielgefühl steigt bei dem Spiel eben mit steigenden FPS und da liefert die GTX 980 mehr ab.
Gut aussehen und gut spielbar ist es jedoch nur mit SMAA und da kann die GTX 970 wieder gut mithalten.


Habe jetzt viele "moderne" Spiele getestet alles in 1440p, mein Fazit:

Die GTX 970 hat wie geplant wieder ihren Platz in meiner Kiste eingenommen.
Die GTX 980 wandert wie geplant in den PC eines Freundes.
Die GTX 980 ist eine tolle Karte die einfach wie fast alles von NV schlicht zu teuer ist.
Die GTX 970 ist im Vergleich dazu ein Schnappi und gerade die Strix noch toller, da unhörbar...immer :-)
Die immer wieder breit geredete Problematik ist aktuell nicht vorhanden und wird meiner Meinung nach auch nie durchschlagen, meine Quellen sprechen eben nicht von Optimierungen auf den kleinen Speicher sondern das man das sehr allgemein regeln könnte.
Sollte die Liebe von NV zu ihrerem Baby abkühlen, sollten keine zusätzlichen Nachteile entstehen.
Das die Maxwell Karten aber mehr Treiberpflege benötigen wie vorherige Generationen höre ich auch immer wieder, dass würde dann aber ja alle M´s treffen und nicht nur die GTX 970.

Für alle die noch am hadern sind, im direkten Vergleich ist die GTX 980 immer schneller! Taktnomiert, ca. 20-25%
Geht man heute das OC ohne Modbios an wird der preislich Abstand noch größer.
Die guten Custom-Designs der GTX 980 kosten alle über 600,-- Euro die besten der GTX 970 bekommt man für 350,-- Euro, macht eine Differenz von 250 Euro für die o.a. Mehrperfomance :mad:
Eine gute GTX 970 OC kann es mit einer normalen GTX 980 aufnehmen.

Was bleibt ist immer noch die Sache der Moral
Alle die von einer 970er zu einer 980 gewechselt haben, haben müssen dies aus anderen Gründen getan haben wie dem Speicher.
Die Situationen muss man zuerst mal konstruieren wo die GTX 980 spielbar und erlebbar Vorteile bietet, meßbar ist sicherlich vieles.

Ab und an glaube ich NV hat das zugelassen damit die GTX 980 belebt wird, vorher haben sich für das Teil nur wenige Spieler interessiert.
Seit man weiß das die GTX 970 ein nogo ist, ist die 980er ein guter Deal und wird nicht nur von denen gekauft, die nicht rechnen können, oder denen es egal ist was der Kram kostet:biggrin:
Ein gutes Beispiel hier ist der Freund für den ich jetzt den PC baue, dem wollte ich eine GTX 970 verkaufen, nein es muss eine GTX 980 sein.
"Er will seine Ruhe haben für die nächsten Jahre", dabei steht er eh spätestens in 2 Jahren wieder hier und sagt: "Ich brauch was Neues" :freak::biggrin:

The_Invisible
2015-05-16, 10:40:52
Wie ich schon so oft sagte: für 200€ mehr bekommt man eben mehr leistung, mit gutem custom design sogar mehr für die 980er, war immer so und wird auch immer so sein. Für 420eur hätte ich auch nicht lange überlegt, aber knapp 600eur sind einfach zu viel für eine gute 980er.

darum verstehe ich auch nicht wie manche eine 970er mit einer 980er vergleichen können, da das eine ganz andere leistungs/preisklasse ist, vor allem da man auch nur einen besseren speicherkrüppel bekommt.

gnomi
2015-05-16, 11:05:25
Na ja. Ich finde die 980 schon mit dem Referenz Design klar besser.
Das läuft überall und ist qualitativ einwandfrei. Lautstärke unter Idle muss nicht passiv sein, da auch so schon brutal leise. Unter Last kann man wählen. Ich hole lieber viel raus und nehme 60-70% Lüfterdrehung hin, aber man kann genau so gut in die andere Richtung gehen.
Die Mehrkosten gegenüber der 970 sind in meinen Augen unbedeutend, wenn man den Anschaffungspreis auf die geplante Einsatzdauer rechnet und die Wertigkeit mit einbezieht. Wer solche Karten kauft, ist meiner Ideal Vorstellung nach ja auch nicht knausrig und spielt tatsächlich so einiges. (in meinem Fall sind 500 Euro das gesetzte Limit und 2-3 Dutzend Games An- oder Durchspielen pro Jahr immer noch der Normalfall)
Mit GSync kombiniert sind die Leistungsreserven ein Vorteil und für Auflösungen ab 1440P kann man auch den Speicher gebrauchen.
Die 970 finde ich im Grunde genommen nur dann besser, wenn der Anschaffungspreis der limitierende Faktor beim Kauf ist und es für gewöhnlich bei Full HD bleibt.

TobiWahnKenobi
2015-05-16, 11:16:52
warum sehen eigentlich die ganzen 970er so popelig aus? meine hat volle länge..

http://abload.de/thumb/gtx9701ipblh.jpg (http://abload.de/image.php?img=gtx9701ipblh.jpg) http://abload.de/thumb/gtx9702jzb04.jpg (http://abload.de/image.php?img=gtx9702jzb04.jpg)
meine ominöse 250-Euro-970 unbekannten herstellers
mit 83% ASIC vor dem accelero-umbau


(..)

mfg
tobi

Angiesan
2015-05-16, 13:36:53
alle 970er wohl nicht:biggrin:
schön wenn sie nicht nur lang sondern auch dick ist ;D
http://abload.de/thumb/img_0571qgk06.jpg (http://abload.de/image.php?img=img_0571qgk06.jpg)

Deine Karte kommt im Übrigen von Manli ist ein Auftragsfertiger für NV.

aufkrawall
2015-05-16, 13:53:59
Angiesan, dir ist schon klar, dass komischerweise nach Aufkochen der 970-Affäre es für mehrere Spiele (Dying Light, FC4, Attila) Patches gab, die den VRAM-Verbrauch senkten?
FC4 halte ich auch insofern für ein schlechtes Beispiel, weil es eh immer recht unsauber läuft.

Man hat jetzt einfach Glück gehabt, dass GTA V und Witcher nicht die großen VRAM-Fresser waren/sind, nennenswert mehr ist ja gerade nicht erschienen.
Warten wir mal das nächste CoD ab oder mal schauen, wie viel VRAM sich Frostbite NextGen-only genehmigen wird.

Angiesan
2015-05-16, 15:09:33
Ja ich weiß das, auch das Far Cry4 ein schlechtes Beispiel ist aber das läuft halt wirklich spürbar besser auf der GTX 980, ob das aber am Speicher liegt wollte ich jetzt nicht unterschreiben.

Dying Light habe ich bis auf ein paar Stunden von Anfang an mit der GTX 970 gezockt und das lief schon immer klasse egal was da ein Tool anzeigte.
Die Reduzierung der Sichtweite war wohl eher wegen der Performance-Probleme und nicht wegen der GTX 970 reingepatcht worden. Hier finde ich es schlimm genug, dass ein Entwickler den Verstand einiger Spieler mit einem Patch unterstützen muss :freak:

Zu Attila kann ich nix sagen, dass habe ich nicht.

Ich will ja auch nicht ausschließen, das es in Zukunft Probleme geben kann, aber die 512 MB machen den Bock auch nicht fett, zumindest nicht wenn man es weiß.
Was sicherlich aber ein Problem sein kann, ist was viele hier beschreiben. Zuckt irgendwas, denkt man immer gleich ist die Graka, abei muss das nicht der Fall sein.
Gutes Beispiel ist Diablo 3, da geht der GTX 980 und auch der GTX 970 gewiss nicht der Vram aus.
Mit dem neuen Treiber ruckt das alle paar Sekunden als ob die Karte nachladen müsste.

Wenn man auf Nummer sicher gehen will, ist die GTX 980 sicherlich die bessere Wahl. Bei mir bleibt die aber wohl nicht lange genug drin, dass ich erleben werde wie sie in Probleme kommt.
Es würde natürlich immer noch die Option bleiben, die Regler eben nicht nach rechts zu schieben sondern den ein oder anderen vielleicht mal in der Mitte zu lassen, aber wer will das schon:rolleyes:

Zur Zeit, und für diese Jahr reicht das Ding auf alle Fälle, danach kommt eh der neue Fertigungsprozess mit neuem Spielzeug:biggrin:
Alles was heute toll ist wird dann wieder so alt aussehen, dass wir doch alle wieder in den Laden rennen oder unseren virtuellen Einkaufswagen füllen;D

Alter Sack
2015-05-16, 15:59:58
Also ich bin mit meines 970-Stix fdie letzten 2 Monate seit dem Kauf super zufrieden gewesen. Habe in der Zeit zB Far Cry 4 durchgezockt und war mit der Performance absolut zufrieden. Die Settings habe ich so gewählt, dass ich in Durchschnitt bei 60 FPS hatte.
Zocke mit 2440P und G-Sync und alles ist absolut perfekt.
Mit sind bei der hohen Pixeldichte auf 27 Zoll aber auch AA-Modi relativ unwichtig geworden... Wenn ich da an früher denke: 1280x1024 auf 18 Zoll; da war AA noch deutlich wichtiger. Bei 2440P und 27 Zoll kann ich auf AA meist komplett verzichten, sind das ja schließlich ca 70% mehr Bildpunkte, als 1080P.
Habe den 970-Kauf bisher nicht bereut und ein stromsparenden und fast lautloses System.

MartinRiggs
2015-05-16, 16:54:21
Nur gut das du grade mal mit 1440P spielst und nicht mit 2440P

Djudge
2015-05-16, 17:42:58
Naja ist halt ein alter Sack, der doppelte Rittberger sei ihm verziehen.

Alter Sack
2015-05-16, 17:52:54
Sorry, ich tippe die Zeilen, während ich im Urlaub bin mit meinem Smartphone... "Alter Sack" eben.

The_Invisible
2015-05-16, 19:22:20
Angiesan, dir ist schon klar, dass komischerweise nach Aufkochen der 970-Affäre es für mehrere Spiele (Dying Light, FC4, Attila) Patches gab, die den VRAM-Verbrauch senkten?
FC4 halte ich auch insofern für ein schlechtes Beispiel, weil es eh immer recht unsauber läuft.

Man hat jetzt einfach Glück gehabt, dass GTA V und Witcher nicht die großen VRAM-Fresser waren/sind, nennenswert mehr ist ja gerade nicht erschienen.
Warten wir mal das nächste CoD ab oder mal schauen, wie viel VRAM sich Frostbite NextGen-only genehmigen wird.

naja, vielleicht fangen die entwickler jetzt auch mal an den vram vernünftig zu nutzen und vernünftiges streaming zu implementieren, dann würde man auch mit einer 2/3/4gb karte noch lange gut fahren. gta5 und vor allem witcher 3 scheinen da ja schon mal gut aufzuzeigen. ich hoffe mal das das in zukunft eher die regel als die ausnahme wird.

irgendwie war das thema vram in der vergangenheit nie so der hauptgrund für eine grafikkarte, früher war es eigentlich immer so das die grafikkarte schon zu langsam war bevor der speicher ausging. mir kommt vor das hat erst mit erscheinen der neuen konsolen (ps4, xone) angefangen. ich hoffe die entwickler besinnen sich wieder zurück auf alte tugenden.

aufkrawall
2015-05-20, 14:03:57
Toll, die 970 produziert sogar miese Frametimes, obwohl die 3,5GB überhaupt nicht überschritten sind :freak: :
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

dildo4u
2015-05-20, 14:07:51
Weil 1440p zu viel GPU last erzeugt wüsste nicht was daran verwunderlich ist,ein Gegentest mit 1080p wäre interessant.

fondness
2015-05-20, 14:08:13
Wurde das von PCGH mehrmals verifiziert? Ich bekomme hier keine reproduzierbaren Frametimes raus, mal sind sie glatt und mal nicht. Jedenfalls sollte klar sein das so ein 120 sec Aufnahme noch lange nichts über das gesamte Spiel aussagt, bzw. hier ev. auch beim Spiel noch was im argen ist und es keine reproduzierbaren Werte gibt.

blaidd
2015-05-20, 14:09:26
Toll, die 970 produziert sogar miese Frametimes, obwohl die 3,5GB überhaupt nicht überschritten sind :freak: :
http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196/

Ich hab das Nvidia schon gesteckt und ihnen die Methodik erklärt. Dürfte schnell zu beheben sein. Das sollte eigentlich jedem auffallen, der in 1440p mit einer GTX 970 durch den Wald reitet, das stockt schon kräftig.

aufkrawall
2015-05-20, 14:10:03
Weil 1440p zu viel GPU last erzeugt wüsste nicht was daran verwunderlich ist,ein Gegentest mit 1080p wäre interessant.
Wie bitte? :freak:
Kannst du das ein wenig genauer erklären? :freak: :freak:

Troyan
2015-05-20, 14:11:46
Vor allem ist die GTX980 hier 20% schneller. In der Tabelle nur 10%.

Soviel zur Reproduzierung der Werte.

dildo4u
2015-05-20, 14:19:48
Die Engine belastet die 970 im Wald besonders stark das sieht man an diesen Benches,dort liegt sie hinter der 290 sonst gleichauf bzw schneller.

1440p
http://pclab.pl/art63116-30.html

In 1080p ist sie überall vor der 290.
http://pclab.pl/art63116-20.html

aufkrawall
2015-05-20, 14:23:18
Und welche anderen Salvages neigen auf einmal zum stärkeren Mikroruckeln bei bestimmten Belastungen, die auch nicht mit der VRAM-Belegung zu tun haben sollten?
Mir ist nichts dahingehend bekannt.

The_Invisible
2015-05-20, 14:29:17
Ich hab das Nvidia schon gesteckt und ihnen die Methodik erklärt. Dürfte schnell zu beheben sein. Das sollte eigentlich jedem auffallen, der in 1440p mit einer GTX 970 durch den Wald reitet, das stockt schon kräftig.

Wirklich jetzt?

Hatte gestern ne schöne 5 Stunden Session und wäre mir nicht aufgefallen, auch in 1440p ultra (ohne hairworks). Verwundert mich jetzt doch etwas...

Gimmick
2015-05-20, 15:25:10
naja, vielleicht fangen die entwickler jetzt auch mal an den vram vernünftig zu nutzen und vernünftiges streaming zu implementieren, dann würde man auch mit einer 2/3/4gb karte noch lange gut fahren. gta5 und vor allem witcher 3 scheinen da ja schon mal gut aufzuzeigen. ich hoffe mal das das in zukunft eher die regel als die ausnahme wird.

irgendwie war das thema vram in der vergangenheit nie so der hauptgrund für eine grafikkarte, früher war es eigentlich immer so das die grafikkarte schon zu langsam war bevor der speicher ausging. mir kommt vor das hat erst mit erscheinen der neuen konsolen (ps4, xone) angefangen. ich hoffe die entwickler besinnen sich wieder zurück auf alte tugenden.

Also Speicher nutzen und gleichzeitig leer lassen geht ja nicht. Es wird halt viel gestreamt, aber vielleicht würde sichs ja smoother anfühlen wenn wirklich der Speicher genutzt werden würde.

aufkrawall
2015-05-20, 15:48:34
Das Spiel läuft hier auf der 980 absolut smooth und bisher waren in WQHD nie 2GB VRAM voll.

The_Invisible
2015-05-20, 15:55:46
Laut CB sind die Frametime-Ergebnisse nicht reproduzierbar bzw. 980GTX identisch zur 970er: http://www.computerbase.de/2015-05/witcher-3-grafikkarten-test-benchmark-prozessoren-vergleich/2/

Na was jetzt, langsam können mir die ganzen Frametimes Messungen gestohlen bleiben...

aufkrawall
2015-05-20, 16:09:42
Ich hatte in noch keiner einzigen W3-Session Ruckler bemerkt.
Mal prerenderlimit auf 1 stellen im Treiber, werte Tester?

Edit: Ich hab das immer so gespielt. Habs nun mal auf app-gesteuert gesetzt und, ihh, das das auf einmal zäh. :eek:

blaidd
2015-05-20, 17:44:55
Laut CB sind die Frametime-Ergebnisse nicht reproduzierbar bzw. 980GTX identisch zur 970er.

Nicht in meiner Szene die ist sehr gut reproduzierbar. Ich bekomme bei drei Durchläufen fast deckungsgleiche Ergebnisse. Und sowohl Radeons wie auch die allermeisten Geforces zeigen ein sehr charakteristisches Bild. Ich könnte nur anhand der Frametimes erkennen, von welchem Hersteller die Grafikkarte stammt. Die Geforces haben offenbar mit dichtem Wald bzw. Speedtree Probleme. Da spiken u.a GTX 970, GTX 960, GTX 780... ohne Wald sind die Frametimes der Nvidia-GPUs ziemlich glatt, da haben die Radeons Schwächen. Die keilen aber lang nicht so aus wie die betroffenen Nvidia-GPUs.

Reitet mal bei u 40 aber deutlich ü 30 mit Plötze durch dichten Wald. Das müsstet ihr eigentlich spüren, wenn eure Karten betroffen sind.

Wie gesagt, ich hab das Problem schon an Nvidia weitergeleitet.

Raff
2015-05-20, 17:46:09
Ich hatte in noch keiner einzigen W3-Session Ruckler bemerkt.
Mal prerenderlimit auf 1 stellen im Treiber, werte Tester?

Edit: Ich hab das immer so gespielt. Habs nun mal auf app-gesteuert gesetzt und, ihh, das das auf einmal zäh. :eek:

Der Nächste schlägt vor, dass man auch HP-AF einstellen könnte. Oder den AMD-Tessellation-Regler auf 8x. :ugly: Bei regulären Tests wird nicht alles subjektiv hingezimmert, dafür ist keine Zeit – die fehlt schon für den Auslieferungszustand. Als Tuning-Tipp ist sowas hingegen natürlich gut. :)

MfG,
Raff

aufkrawall
2015-05-20, 18:31:02
Schon klar. Ich hab auch mit app-controlled nicht mehr Ruckler bemerkt.
Seltsam ist das schon, dass sowohl bei PCGH als auch CB von zufälligen Ruckel-Sessions gesprochen wird.
Ist denn wirklich auch die 980 betroffen, oder nur Hawaii und 970 ruckelt eh?

Grestorn
2015-05-20, 19:04:02
Ich hatte eben mal bei W3 Frametimes mitgelogged um das mit den auffälligen Frametimes nachzuvollziehen. Und mich gewundert, warum ich ständig Frametimes hatte, die auffällig zwischen etwa 16 und 24 ms hin und hergependelt sind... Bis mir klar wurde, dass irgendwie Borderless Windows aktiv war.

Ich hab den Eindruck, das Spiel schaltet gerne von sich aus in den Borderless Window Modus, wenn man nicht aufpasst!

Mit Fullscreen sind mir auch in den Wäldern keine besonderen Ausschläge aufgefallen. Im Gegenteil, die Frametimes sind erstaunlich homogen mit einzelnen Ausbrechern, die man aber beim Spielen nicht merkt.

blaidd
2015-05-20, 19:05:05
Die 980 ruckelt auch sporadisch - sie hat aber keine größeren Probleme mit den Speedtrees. Die GTX 770 auf "mittel" interessanter Weise auch nicht - wohl aber die GTX 960 und die GTX 780 (beide auf "hoch"). Immer im gleichen Szenario, immer besonders stark an der gleichen Stelle der Messung, nämlich dann, wenn auf breiter Front die Speedtrees im Bild sind.

@Grestorn: Die Titan X war auch recht unauffällig, jedenfalls was die Speedtrees betrifft - ein paar Ausschläge hatte sie aber auch im Graphen. Und ja, The Witcher 3 geht gern ins Borderless Window. Checken wir aber genau wie die Settings bei jedem Start extra nach. Die Review-Fassung hat zusätzlich gern noch die Einstellungen auf das Preset "hoch" gesetzt, inklusive Hairworks.

aufkrawall
2015-05-20, 19:05:11
Stimmt, darüber hat sich mein Bruder auch schon beschwert. Ist bei mir allerdings noch nicht passiert. :confused:

dargo
2015-05-20, 19:36:00
Nicht in meiner Szene die ist sehr gut reproduzierbar. Ich bekomme bei drei Durchläufen fast deckungsgleiche Ergebnisse. Und sowohl Radeons wie auch die allermeisten Geforces zeigen ein sehr charakteristisches Bild. Ich könnte nur anhand der Frametimes erkennen, von welchem Hersteller die Grafikkarte stammt. Die Geforces haben offenbar mit dichtem Wald bzw. Speedtree Probleme. Da spiken u.a GTX 970, GTX 960, GTX 780... ohne Wald sind die Frametimes der Nvidia-GPUs ziemlich glatt, da haben die Radeons Schwächen. Die keilen aber lang nicht so aus wie die betroffenen Nvidia-GPUs.

Reitet mal bei u 40 aber deutlich ü 30 mit Plötze durch dichten Wald. Das müsstet ihr eigentlich spüren, wenn eure Karten betroffen sind.

Wie gesagt, ich hab das Problem schon an Nvidia weitergeleitet.
Haha, also das übliche. Je nach Szene spiked mal der eine mal der andere stärker. Man müsste sich eigentlich mehrere unterschiedliche Szenen aus den Games raussuchen. Nur so bekommt man einen einigermaßen guten Eindruck. Aber ich weiß, wer will diesen Aufwand betreiben? :usad:

aufkrawall
2015-05-20, 23:21:27
Wegen Mikroruckler:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10633484&postcount=2942
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10633561&postcount=2951

gnomi
2015-05-21, 08:52:17
Mit Prerenderlimit 1 und Vollbild ruckelt auf der 980 in 1440P plus GSync maximiert bei mir nichts.
Habe sogar jetzt noch Hairworks mit MSAA=4 hinzugeschaltet, und selbst das geht noch einwandfrei.
Ohne GSync und Gamepad muss man natürlich extrem runterstellen, aber das sieht auch noch prima aus. (Gelände, Grass, Schatten, Details und Wasser eins runter)
Ich finde The Witchet 3 anspruchslos, wenn man weiß, was wie eingestellt werden muss oder eben in der Experience die konservativen Vorgaben wählt.
VRam sollte bei der 970 kein Problem sein, aber Rohleistung reicht ohne GSync und Gamepad maximiert nur für Full HD.

The_Invisible
2015-05-21, 18:08:45
wie gesagt, spiels mit ner OC 970er in 1440p ultra (ohne hw) ohne probleme, habe allerdings auch vollbild und prerender 1, wäre eh mal ein bericht interessant welche auswirkungen das auf die frametimes hat. jedenfalls scheint da wirklich viel immer reinzuspielen.

TobiWahnKenobi
2015-05-21, 18:21:23
ja, kann ich stützen.. 1440p ohne HW sind ~40fps auf der 970. wir daddeln den witcher in FHD und dafür halt die berüchtigte "alle regler rechts" einstellung. übrigens ohne OSD, weil meine freundin spielt und ich eigentlich nur zugucke oder schlafe. sie hat mich gefragt, ob ich die dämlichen zahlen da oben nicht wegmachen kann (AB OSD). dieses tolle spiel ist absolut keine hürde für ne anständige 970. "anständig", weil ich meine im ref-layout mit acceleroIV, 83% ASIC und modbios (ich erlaube der karte 130% statt 106%) für wirklich sehr anständig halte.

altes läuft wie immer und neues erstaunlich gut.

frametimes haben mich auf keiner karte sonderlich gejuckt (vsync + gamepad -user).


edit

http://abload.de/thumb/witcher3_2015_05_21_1meuk6.jpg (http://abload.de/image.php?img=witcher3_2015_05_21_1meuk6.jpg) http://abload.de/thumb/witcher3_2015_05_21_1syute.jpg (http://abload.de/image.php?img=witcher3_2015_05_21_1syute.jpg)
W3 1.03 hairworks AUS | hairworks EIN


(..)

mfg
tobi

gnomi
2015-05-21, 20:31:22
Ihr nutzt ja auch OC Karten und teils Gamepad. Da geht natürlich auch mit der 970 schon wieder etwas mehr.
Am meisten bringt aber GSync.

TobiWahnKenobi
2015-05-21, 21:35:56
ja, ganz ohne frage. nur fesselt einen das wieder an den schreibtisch und diese fessel hat mir langfristig schon den spaß an sequenziellem 3DVision genommen.

meine karte sah mal so aus.

http://abload.de/thumb/gtx97018vyx8.jpg (http://abload.de/image.php?img=gtx97018vyx8.jpg)

OC - finde ich - macht bei maxwell durchaus sinn und mit blick aufs leistungsmessgerät sogar spaß. das basteln kam, weil der kühler der titan hier noch rumflog. ob ich vorsätzlich nochmal einen AC4 gekauft hätte, weiss ich nicht sicher. aber sicher weiss ich, dass ich dem keplerkraftwerk kein stück hinterher trauere.. und was fand ich die karte nicht geil :)


(..)

mfg
tobi

gnomi
2015-05-21, 22:19:10
Über 1500 Chip Takt und plus 500 Mhz beim Ram sind auch Spitzenklasse. :) Tolle Karte und mit dem AC 4 quasi das Non Plus Ultra. Da sieht die Titan wirklich alt aus- erst recht, wenn Spiele mit sauberem Streaming und VRam Verbrauch wie GTA V und The Witcher 3 erscheinen. Hoffentlich bleibt es so...

TobiWahnKenobi
2015-05-23, 01:27:50
solange sie das rockt, was ich jetzt auf der platte habe, und das ist ja zeugs, für das ich GTX680SLi, GTX690 und Titan "brauchte" "wollte", waren die 250 tacken ein schnäppchen, wie es kein zweites gibt. selbst ein steinaltes und total zermoddetes skyrim zimmert die karte in 4K +4xMSAA noch mit über 40fps auf den schirm.

Skyrim


weisslauf ist da schon worst case..

http://abload.de/thumb/tesv_2015_05_23_00_554auyj.jpg (http://abload.de/image.php?img=tesv_2015_05_23_00_554auyj.jpg)

die mods ein bisschen entrümpelt, und auf das MSAA verzichtet, sind es sogar viel zu viele frames. die engine braucht 60Hz sync.

http://abload.de/thumb/tesv_2015_05_23_00_33i1uar.jpg (http://abload.de/image.php?img=tesv_2015_05_23_00_33i1uar.jpg)

2015-05-23 00:28:14 - TESV (4K /GTX970)
Frames: 43985 - Time: 432157ms - Avg: 101.780 - Min: 67 - Max: 147


FC 4



2015-05-24 12:05:42 - FarCry4 (1440p, ultra)
Frames: 19421 - Time: 337985ms - Avg: 57.461 - Min: 47 - Max: 80

2015-05-24 12:12:16 - FarCry4 (FHD, ultra)
Frames: 29075 - Time: 347672ms - Avg: 83.628 - Min: 70 - Max: 114


Dying Light


http://abload.de/thumb/dyinglightgame_2015_0zeql2.jpg (http://abload.de/image.php?img=dyinglightgame_2015_0zeql2.jpg)

2015-05-28 19:30:53 - DyingLightGame (1440p)
Frames: 41149 - Time: 712562ms - Avg: 57.748 - Min: 29 - Max: 123

2015-05-28 19:43:42 - DyingLightGame (1080p)
Frames: 68476 - Time: 716062ms - Avg: 95.629 - Min: 62 - Max: 178


GTA V



2015-05-15 16:02:10 - GTA5 2880x1620p (schatten weich, gras hoch, rest max +FXAA)
Frames: 33245 - Time: 612125ms - Avg: 54.311 - Min: 42 - Max: 64

unter 1440p mit allen einstellungen auf "sehr hoch" + alle regler auf rechts + 2xMSAA (über CP zu MFAA erweitert)
reicht's in GTA V für vSync @50Hz, was für HDTV und beamer okay ist und gleichzeitig eine DSR-stufe, wo ich optional noch mit dem gaussfilter glätten kann.

2015-06-01 20:04:18 - GTA5 (1440p, sehr hoch, +2MFAA)
Frames: 35988 - Time: 720094ms - Avg: 49.977 - Min: 47 - Max: 51

more... (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10623434&postcount=4935)


Battlefield 4



2015-02-15 13:39:59 - bf4 (baku, 1440p, ultra) Titan @1.3GHz
Frames: 14135 - Time: 200359ms - Avg: 70.548 - Min: 47 - Max: 91

2015-05-14 21:40:07 - bf4 (baku, 1440p, ultra) GTX970 @1.55GHz
Frames: 12270 - Time: 191110ms - Avg: 64.204 - Min: 45 - Max: 86

2015-05-14 20:47:47 - bf4 (ultra ohne kantenglättung, UHD) GTX 970 @1.55GHz
Frames: 23397 - Time: 397031ms - Avg: 58.930 - Min: 43 - Max: 87

2015-05-04 23:30:13 - bf4 (1440p - ultra - kein AA) GTX 970 @1.55GHz
Frames: 10740 - Time: 100532ms - Avg: 106.832 - Min: 76 - Max: 142

2015-05-04 23:32:10 - bf4 (1440p - ultra - kein AA) GTX 970 @1.55GHz
Frames: 5574 - Time: 51109ms - Avg: 109.061 - Min: 65 - Max: 146

2015-05-04 23:33:16 - bf4 (1440p - ultra - kein AA) GTX 970 @1.55GHz
Frames: 9338 - Time: 83625ms - Avg: 111.665 - Min: 83 - Max: 144


Witcher 3


http://abload.de/thumb/witcher3_2015_05_22_2ofuny.jpg (http://abload.de/image.php?img=witcher3_2015_05_22_2ofuny.jpg) http://abload.de/thumb/witcher3_2015_05_22_2nsuyf.jpg (http://abload.de/image.php?img=witcher3_2015_05_22_2nsuyf.jpg) http://abload.de/thumb/witcher3_2015_05_22_2c2u22.jpg (http://abload.de/image.php?img=witcher3_2015_05_22_2c2u22.jpg) http://abload.de/thumb/witcher3_2015_05_22_2y6uyt.jpg (http://abload.de/image.php?img=witcher3_2015_05_22_2y6uyt.jpg) http://abload.de/thumb/witcher3_2015_05_22_2bbu55.jpg (http://abload.de/image.php?img=witcher3_2015_05_22_2bbu55.jpg) http://abload.de/thumb/witcher3_2015_05_23_0asu92.jpg (http://abload.de/image.php?img=witcher3_2015_05_23_0asu92.jpg) http://abload.de/thumb/witcher3_2015_05_23_0s6uo5.jpg (http://abload.de/image.php?img=witcher3_2015_05_23_0s6uo5.jpg) http://abload.de/thumb/allg1wtuq8.jpg (http://abload.de/image.php?img=allg1wtuq8.jpg) http://abload.de/thumb/allg2a5u87.jpg (http://abload.de/image.php?img=allg2a5u87.jpg) http://abload.de/thumb/allg3reu0a.jpg (http://abload.de/image.php?img=allg3reu0a.jpg) http://abload.de/thumb/nb1guus2.jpg (http://abload.de/image.php?img=nb1guus2.jpg) http://abload.de/thumb/nb2zoubj.jpg (http://abload.de/image.php?img=nb2zoubj.jpg)

2015-05-22 23:55:25 - witcher3
Frames: 17489 - Time: 347640ms - Avg: 50.308 - Min: 43 - Max: 62


läuft.


(..)

mfg
tobi

gnomi
2015-05-23, 09:46:34
Bitte an Fakten halten.
In The Witcher 3 sieht es eben aktuell so aus.
Die 970 OC ist bei PCGH ~45% schneller in Ultra als Titan OC auf Full HD.
Bei Hardwareluxx nur auf Hoch sind es 20% mit Referenztaktung.

Berserkervmax
2015-05-24, 19:30:56
Irgentwie hat die Gk nur 3,5GB.
Aber bis jetzt , trotz 21/9 2560x1080 Monitor hab ich kein Probleme!
Wenn in Zukunft der RAM von 3,5GB voll ist wird die GPU sowieso so langsam sein.

Daher....schon blöde und ich finde es nicht gut was NV da gemacht hat ..aber es gibt zur Zeit keine Preisliche Alternative !

Die 980GTX ist zu teuer...
Titan ist volligaus dem Rahmen Preislich !

Witcher 3 läuft Astrein und der Rest auch !

Embodier
2015-05-26, 14:59:36
ja, kann ich stützen.. 1440p ohne HW sind ~40fps auf der 970. wir daddeln den witcher in FHD und dafür halt die berüchtigte "alle regler rechts" einstellung.
Passt dann ziemlich genau, ich habe testweise SLi deaktiviert. Eine einzelne 970 erlaubt Witcher3 mit ultra gfx settings und maximierten postfx ~ 35 fps unter 2560*1440, das ist mit hairworks on.
35 frames ingame, drops auf 30, peaks von 40 bis 44 frames habe ich gesehen.
SLI skaliert sehr gut bei W3, ich habe dann 55-65 fps, drops bis 50, peaks auf 70.

Wixi
2015-05-26, 16:47:45
Gibt's eigentlich Infos wie es mit mehreren angeschlossenen Monitoren aussieht?
Ich frage weil: Sagen wir ein weiterer angeschlossener FHD Monitor verbraucht für die Desktop Darstellung 250MB Speicher.

Nimmt er diesen dann aus dem 3,5GB Pool oder aus den langsamerem 0,5GB Pool?
Hat Nvidia das so schlau gemacht, dass die 250MB vom 0,5GB Pool abgezwackt werden!?

aufkrawall
2015-05-26, 16:58:09
Dazu gibt es wahrscheinlich überhaupt keine Erkenntnisse.

Knuddelbearli
2015-05-26, 17:13:08
Wobei sich das am ende eh kaum auswirken dürfte da wenn die 250MB in den langsamen 0,5gb liegen trotzdem ja die anderen 3,5gb blockiert werden wenn auf die 250mb zugegriffen wird

The_Invisible
2015-05-26, 18:22:15
Gibt's eigentlich Infos wie es mit mehreren angeschlossenen Monitoren aussieht?
Ich frage weil: Sagen wir ein weiterer angeschlossener FHD Monitor verbraucht für die Desktop Darstellung 250MB Speicher.

Nimmt er diesen dann aus dem 3,5GB Pool oder aus den langsamerem 0,5GB Pool?
Hat Nvidia das so schlau gemacht, dass die 250MB vom 0,5GB Pool abgezwackt werden!?

Im Detail kann das wohl alles nur nvidia sagen, da es laut nvidia aber kein "bug" ist bzw. das Thema sowieso sensibel ist wird man da wohl nie was genaueres hören. Außer vielleicht in ein paar Jahren wenn es sowieso egal ist a la Geforce FX. Im Desktop-Betrieb wirds aber sowieso egal sein, da gibts auch Karten die so schon viel langsamer sind als die 512mb der 970er, trotzdem aber ohne probleme mehrere monitore ansprechen können.

Knuddelbearli
2015-05-26, 19:56:50
Im Desktop-Betrieb wirds aber sowieso egal sein, da gibts auch Karten die so schon viel langsamer sind als die 512mb der 970er, trotzdem aber ohne probleme mehrere monitore ansprechen können.

Naja denke ihm ging es eher darum was passiert wenn neben dem Spiel eben noch der Desktop abgebildet wird auf einem weiteren Monitor

aufkrawall
2015-05-26, 20:00:44
Ich weiß nicht, wie das bei MM gemanaged wird, aber im FSE sollte das Spiel Vorrang haben.
Eventuell wird bis auf den Framebuffer ausgelagert, falls das FSE-Programm auch den Speicher will, der für den 2. Monitor veranschlagt ist.
Aber reine Mutmaßung.

TobiWahnKenobi
2015-05-26, 20:45:14
was passiert denn auf den anderen bildschirmen während ein spiel läuft?

fernsehen per media center ist jedenfalls möglich, ohne dass spiele sich davon stören lassen.

http://abload.de/thumb/gtavvstv1xzkqe.jpg (http://abload.de/image.php?img=gtavvstv1xzkqe.jpg)http://abload.de/thumb/111d9ku6.jpg (http://abload.de/image.php?img=111d9ku6.jpg)
GTAV + TV vs. GTV only


(..)

mfg
tobi

captain_drink
2015-05-27, 17:24:27
https://www.youtube.com/watch?v=sLmK4J_utZE

Bei Shadows of Mordor in 4k Belegung des 2. VRAM-Segments, ohne dass sich Drops oder übermäßiges Stuttering (FPS bei ~25) ergeben würden.

https://www.youtube.com/watch?v=fFbhTuAPm8E

Bei Dying Light in 4k wird das 2. Segment nicht genutzt. Kein seltsames Verhalten feststellbar.

https://www.youtube.com/watch?v=5qIK6R_YEJs

Bei FC4 in 1440p wird das 2. Segment genutzt, keine Drops, minimales Stuttering. Die Aufnahme (SP) scheint zwischendrin auszusetzen. Ähnlich hier: https://www.youtube.com/watch?v=-6v5waK3dB4

Ich weiß immer noch nicht, was ich von der Praxisrelevanz der VRAM-Segmentierung halten soll. Die Videos sehen abseits ggf. verbesserungswürdiger Frametimes i.O. aus. Einige Praxismeinungen dazu würden mich noch interessieren.

Thunder99
2015-05-27, 18:22:10
Wie oft denn noch... ES HAT eine Auswirkung siehe meine Links unten. Falls das Spiel nachgepatched wurde wegen der GTX970 mag das ja schön sein aber ist kein allheilbringer! Nebenbei sehe ich das Stuttering, auch wenn es gering ist in Shadow of Mordor. Wird halt teilweise unterdrückt durch das Streaming

Raff
2015-05-27, 18:26:00
Shadow of Mordor stottert übrigens immer, selbst auf 'ner Titan X. Die Engine streamt einfach nicht effizient. Frankenstein-RAM macht die Geschichte natürlich nicht besser. :ugly:

MfG.
Raff

TobiWahnKenobi
2015-05-27, 19:21:33
https://www.youtube.com/watch?v=sLmK4J_utZE

Bei Shadows of Mordor in 4k Belegung des 2. VRAM-Segments, ohne dass sich Drops oder übermäßiges Stuttering (FPS bei ~25) ergeben würden.

https://www.youtube.com/watch?v=fFbhTuAPm8E

Bei Dying Light in 4k wird das 2. Segment nicht genutzt. Kein seltsames Verhalten feststellbar.

https://www.youtube.com/watch?v=5qIK6R_YEJs

Bei FC4 in 1440p wird das 2. Segment genutzt, keine Drops, minimales Stuttering. Die Aufnahme (SP) scheint zwischendrin auszusetzen. Ähnlich hier: https://www.youtube.com/watch?v=-6v5waK3dB4

Ich weiß immer noch nicht, was ich von der Praxisrelevanz der VRAM-Segmentierung halten soll. Die Videos sehen abseits ggf. verbesserungswürdiger Frametimes i.O. aus. Einige Praxismeinungen dazu würden mich noch interessieren.

farcry4 mit 8x multisampling und alles auf ultra.. nicht schlecht.. derart hohe modi habe ich nichtmal auf titan genutzt.. because of unrundigkeit.

mordor scheint grundsätzlich schlecht zu streamen; ist vllt. ein stilmittel.

http://abload.de/img/unbenannt-1c6xbs.jpg

eine praxismeinung: auflösung und details in spielen so wählen, dass sich die framerate auf die bildwiederholfrequenz synchronisieren lässt.

in FC4 etwa so:
http://abload.de/thumb/1080viz3s.jpg (http://abload.de/image.php?img=1080viz3s.jpg) http://abload.de/thumb/1440k6bmn.jpg (http://abload.de/image.php?img=1440k6bmn.jpg) http://abload.de/thumb/1620awlbek.jpg (http://abload.de/image.php?img=1620awlbek.jpg) http://abload.de/thumb/1620b7rlic.jpg (http://abload.de/image.php?img=1620b7rlic.jpg)

alles über 1620p ist mit der GTX970 nicht mehr auf flüssige hertzen (50+) synchronisierbar und "spielerei".


(..)

mfg
tobi