PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

y33H@
2015-01-25, 19:23:31
Hihi, in der PCGH-Tabelle stehen bei der GTX 970 zwar 64 ROPs, aber die Pixelfüllrate entspricht dem Wert von 52 ROPs: http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/

fdsonne
2015-01-25, 19:24:00
Da muss ich dir widersprechen, der 970-Salvage performt eben in bestimmten, aber real auftretenden Szenarien, durch die Frametime-Spikes beschissen.

Das ist dann aber KEIN Problem der 970er, sondern einfach zufälligerweise (ja zufälligerweise triffts da recht genau) dem Fakt geschuldet, dass du dem Spiel und der Hardware so viele Daten abverlangst, dass du damit ins Limit rennst.

Ich sags gern nochmal, JEDE andere NV/AMD Karte zeigt ein analoges Verhalten, wenn man ihr den VRAM überbucht. Das dabei bei einer Karte mit 3GB VRAM weniger Mittel notwendig sind als bei einer Karte, die real 4GB nutzt, sollte logisch sein... Die ~3,3GB der 970er liegen da fast in der Mitte. Deckeln also eher als die 4GB Karte, aber später als die 3GB Karte.

In deinen Einstellungen und deinen Spielen kann das Problem also vielleicht mit der 970er so auftreten, wie geschildert. Drehst du die Einstellungen allerdings mit einer schnelleren Karte höher als bei dir jetzt, liegt die Warscheinlichkeit extrem hoch, dass du in exakt das gleiche Problem läufst...
Eben ein klassisches VRAM Limit. -> Erste Instanz erzeugt Nachladeruckler, die mit zunehmender Mehrbelastung eben zunehmen, und zweite Instanz erzeugt niedrige FPS Raten über gewisse Zeiten bis hin zu dauerhaft einbrechenden Frames...

Black-Scorpion
2015-01-25, 19:27:56
Der Ram wird aber nicht überbucht. Wie kann etwas bei 3,5GB überbucht werden wenn die Karte 4GB hat? Ich kann nur überbuchen wenn die 4GB voll sind. Bei der 970er habe ich aber schon vorher das Problem bevor der Speicher voll ist. Ist das wirklich so schwer zu verstehen.

-/\-CruNcher-/\-
2015-01-25, 19:30:40
High Speed Streaming ist hier perfekt um die Stabilität zu testen ich bevorzuge da Dunia 2 mit all dem overhead (CPU/GPU/Memory) also im spezielen momentan Watch_Dogs und Far Cry 4 (vor allem interessant mit Nvidias reichlichem Gameworks Overhead) auch AC Unity (Scimitar), Dragon Age Inquisition (Frostbite) und demnächst kommen noch GTA 5 (Rage) und Witcher 3 (RedEngine 3) hinzu auch mit Rage und Wolfenstein teste ich (Megatextures) ;)

Das ziel sind immer 16.666 ms bei so wenig aussetzer wie möglich im Multithreading.

Das ganze dann auch nochmal mit Nvenc Recording overhead gemischt.

Avalance
2015-01-25, 19:39:16
Hi,

wie komm ich denn nun an Ergebisse, um das bei meiner 970M nachvollziehen zu können? Die wurde ja mit 6 GB "beworben" ... und ist eigentlich noch viel abgespeckter als die Desktop Version :freak::rolleyes:

Sind mit anderen Worten die Mobilen 980M (8GB) und 970M (6GB) auch nur "show" :freak:;D ich mein, Performance technisch gesehen habe ich kein Problem mit der Karte aber wär halt echt sehr geblendet wenn die zB nur 2GB statt der 6 "schnel/performantl" ansprechen könnte. Die 980M kommt in etwa der Desktop 970 nahe ...

Grüße
aVa

fdsonne
2015-01-25, 19:46:47
Der Ram wird aber nicht überbucht. Wie kann etwas bei 3,5GB überbucht werden wenn die Karte 4GB hat? Ich kann nur überbuchen wenn die 4GB voll sind. Bei der 970er habe ich aber schon vorher das Problem bevor der Speicher voll ist. Ist das wirklich so schwer zu verstehen.

Der Treiber sagt der Karte offenbar, dass sie nur bis 3,5GB nutzen soll, weil eben im Bereich 3328 - 4096MB die Bandbreite extrem in den Keller geht. Das heist, die Karte "überbucht" sich eigentlich schon um ein paar MB. Bei paar MB überbuchen ist aber erfahrungsgemäß kein wirkliches Problem... Das Problem entsteht bei stärkerer Überbuchung als nur ein paar MB. Also wenn du sagen wir, 500MB über Limit drauf packen willst, was fast 20% mehr wären als die ~3,3GB mit "hoher" Bandbreite...

Zwingst du die Karte allerdings, diesen Breich auch zu nutzen, kippen dir die FPS um und die Performance geht sichtlich nach untern. Vorher hast du "nur" diese Nachladeruckler.



Ich denke man muss sich bei der 970er einfach davon lösen, dass diese eben 4GB VRAM hat. Die hat sie verbaut, ja aber sie kann diese offensichtlich nicht in voller Geschwindigkeit ansprechen. Was die Nai-Benchwerte über quasi ALLE 970er Modelle hinweg bestätigen.
Damit also die Karte nicht "aus heiterem Himmel" in allen erdenklichen Situationen, die mehr wie diese ~3,3GB belegen, mit Framedrops und Einbrüchen kämpft, hat NV wohl versucht via Treiber eine Art "softes Limit" bei ~3,5GB zu setzen...
-> unter diesem Gesichtspunkt "überbucht" man also die Karte, wenn man sie zwingt, mehr wie eben diese ~3,5GB zu nutzen.

Das einzige Problem was ich hier sehe ist, das es nicht so offen kommuniziert wurde. Die Karte hat zwar ihren RAM so verbaut wie angegeben. Aber eben wird man "künstlich" eingeschränkt... Um den Shitstorm zu vermeiden hätte man das eigentlich Kommunizieren müssen... Hat man aber nicht. Jetzt müssen sie halt sehen, wie sie die Suppe wieder ausgelöffelt bekommen :freak:


@Avalance
na was kommt denn bei dir mit der 970M an Werten in Nais Benchmark raus?
Hast du 6GB VRAM Verbaut? Oder nur 3GB?

Du solltest optimalerweise entweder mit IGP als Hauptkarte und abgeschaltetem Windows DWM testen, damit das vergleichbar bleibt...

tdon
2015-01-25, 19:50:46
Wie schnell der VRAM auf der 0,5GB Partition in directx fullscreen ist, ist nicht klar. Mit dem CUDA Test lässt sich das leider nicht endgültig beweisen. Es gibt zu wenig VRAM Tester.

-/\-CruNcher-/\-
2015-01-25, 19:51:29
@fdsonne
Frag mich ob die Entwickler genauso im Dunkeln gelassen werden und Nvidia denen sagt wir managen das schon keine Panik ;)

So ist es ja bei Far Cry 4 gelaufen Ubisoft Kiev konnte das problem nicht fixen bzw eindämen erst Nvidias magic Dunia 2 treiber hat Spürbar Linderung verschaft und das dann auch gleichzeitig für Watch_Dogs und ohne irgend einen Changelog hinweis ;)

Ätznatron
2015-01-25, 19:51:43
Ich denke man muss sich bei der 970er einfach davon lösen, dass diese eben 4GB VRAM hat.

Jetzt wird's esoterisch.

Lösen wir uns einfach von der spinnerten Idee, die GTX 970 sei eine 4GB-Karte.

Und alles wird gut...

AnarchX
2015-01-25, 19:52:52
Hi,

wie komm ich denn nun an Ergebisse, um das bei meiner 970M nachvollziehen zu können? Die wurde ja mit 6 GB "beworben" ... und ist eigentlich noch viel abgespeckter als die Desktop Version :freak::rolleyes:

Sind mit anderen Worten die Mobilen 980M (8GB) und 970M (6GB) auch nur "show" :freak:;D ich mein, Performance technisch gesehen habe ich kein Problem mit der Karte aber wär halt echt sehr geblendet wenn die zB nur 2GB statt der 6 "schnel/performantl" ansprechen könnte. Die 980M kommt in etwa der Desktop 970 nahe ...

Die 980M ist nicht betroffen. Die 970M AFAIR auch nicht, aber ich finde den Link nicht mehr. Testen kannst du es natürlich noch einmal, aber bitte das DWM deaktivieren.

fdsonne
2015-01-25, 19:56:51
Jetzt wird's esoterisch.

Lösen wir uns einfach von der spinnerten Idee, die GTX 970 sei eine 4GB-Karte

Wenn NV es so kommunizieren würde, wäre es ja im Grunde kein Problem... Die Karte wird ja nicht langsamer als sie die ganze Zeit schon ist/war.
Rein aus der Sicht vom Verständnis, wird die Karte angewiesen eben nicht 4GB zu nutzen, sondern nur maximal um die 3,5GB. Somit ists im Grunde keine 4GB Karte, wenn man es genau nimmt.

Aktuell bewirbt man das Teil allerdings mit 4GB, was dezent im Widerspruch zur Endleistung des Produkts steht.
Zumindest wenn man sich nicht mit dem FPS Einbruch bei "Überbuchung" zufrieden gibt...

Air Force One
2015-01-25, 20:00:12
Also AC:U zieht bei meiner R9-290X schon 3,2GB mit 1080p ohne AA.

Ich sehe da nicht wirklich viel Luft bis 3,5GB.
Das ist jetzt ein Spiel von heute.....

Ich meine gut klar, wenn nVidia da irgendwie mit kompressionen tricksen kann und die 3,5GB so wie 4GB sind, kann es ja egal sein.
Wird aber wohl nicht so sein.

Exxtreme
2015-01-25, 20:01:00
Wenn NV es so kommunizieren würde, wäre es ja im Grunde kein Problem... Die Karte wird ja nicht langsamer als sie die ganze Zeit schon ist/war.
Rein aus der Sicht vom Verständnis, wird die Karte angewiesen eben nicht 4GB zu nutzen, sondern nur maximal um die 3,5GB. Somit ists im Grunde keine 4GB Karte, wenn man es genau nimmt.

Diese Ansicht ist falsch. Die Karte wird angewiesen die ersten 3,5 GB zu priorisieren. Erst wenn mehr als 3,5 GB rein wollen werden die letzten 0,5 GB benutzt. Sprich, 4 GB werden genutzt wenn sie auch benötigt werden.

Ätznatron
2015-01-25, 20:02:56
Aktuell bewirbt man das Teil allerdings mit 4GB, was dezent im Widerspruch zur Endleistung des Produkts steht.

Ja, man spezifiziert es, man bewirbt es, man verkauft es nach wie vor zum stolzen Preis mit 4GB.

@Exxtreme

Sprich, 4 GB werden genutzt wenn sie auch benötigt werden.

Das sehe ich anders, die werden dann genutzt, wenn es sich gar nicht mehr vermeiden lässt.

Avalance
2015-01-25, 20:02:56
Danke, ich hab dann mal die Dateien bei Megaupload gefunden über den CB Link aus http://linustechtips.com/main/topic/296960-nais-vram-benchmark/


http://abload.de/thumb/does5qui0.png (http://abload.de/image.php?img=does5qui0.png)

Nai's Benchmark
Allocating Memory . . .
Chunk Size = 128 MiByte
Drücken Sie eine beliebige Taste . . .
Allocated 46 Chunks
Allocated 5888 MiByte
Benchmarking DRAM
Drücken Sie eine beliebige Taste . . .
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte): 107 GByte/s
DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 30 (3840 MiByte to 3968 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 31 (3968 MiByte to 4096 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 32 (4096 MiByte to 4224 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 33 (4224 MiByte to 4352 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 34 (4352 MiByte to 4480 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 35 (4480 MiByte to 4608 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 36 (4608 MiByte to 4736 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 37 (4736 MiByte to 4864 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 38 (4864 MiByte to 4992 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 39 (4992 MiByte to 5120 MiByte): 108 GByte/s
DRAM-Bandwidth of Chunk no. 40 (5120 MiByte to 5248 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 41 (5248 MiByte to 5376 MiByte): 109 GByte/s
DRAM-Bandwidth of Chunk no. 42 (5376 MiByte to 5504 MiByte): 26 GByte/s
DRAM-Bandwidth of Chunk no. 43 (5504 MiByte to 5632 MiByte): 26 GByte/s
DRAM-Bandwidth of Chunk no. 44 (5632 MiByte to 5760 MiByte): 14 GByte/s
DRAM-Bandwidth of Chunk no. 45 (5760 MiByte to 5888 MiByte): 18 GByte/s
Drücken Sie eine beliebige Taste . . .
Benchmarking L2-Cache
Drücken Sie eine beliebige Taste . . .
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte): 281 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte): 282 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte): 281 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte): 281 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 30 (3840 MiByte to 3968 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 31 (3968 MiByte to 4096 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 32 (4096 MiByte to 4224 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 33 (4224 MiByte to 4352 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 34 (4352 MiByte to 4480 MiByte): 281 GByte/s
L2-Cache-Bandwidth of Chunk no. 35 (4480 MiByte to 4608 MiByte): 281 GByte/s
L2-Cache-Bandwidth of Chunk no. 36 (4608 MiByte to 4736 MiByte): 284 GByte/s
L2-Cache-Bandwidth of Chunk no. 37 (4736 MiByte to 4864 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 38 (4864 MiByte to 4992 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 39 (4992 MiByte to 5120 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 40 (5120 MiByte to 5248 MiByte): 279 GByte/s
L2-Cache-Bandwidth of Chunk no. 41 (5248 MiByte to 5376 MiByte): 280 GByte/s
L2-Cache-Bandwidth of Chunk no. 42 (5376 MiByte to 5504 MiByte): 28 GByte/s
L2-Cache-Bandwidth of Chunk no. 43 (5504 MiByte to 5632 MiByte): 14 GByte/s
L2-Cache-Bandwidth of Chunk no. 44 (5632 MiByte to 5760 MiByte): 14 GByte/s
L2-Cache-Bandwidth of Chunk no. 45 (5760 MiByte to 5888 MiByte): 45 GByte/s
Drücken Sie eine beliebige Taste . . .

:smile:

-/\-CruNcher-/\-
2015-01-25, 20:03:31
@fdsonne

Hier ist etwas passiert das Nvidia komischerweise nicht kommuniziert hat ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10461732&postcount=3609

Kriton
2015-01-25, 20:04:14
Also AC:U zieht bei meiner R9-290X schon 3,2GB mit 1080p ohne AA.

Ich sehe da nicht wirklich viel Luft bis 3,5GB.
Das ist jetzt ein Spiel von heute.....

Ich meine gut klar, wenn nVidia da irgendwie mit kompressionen tricksen kann und die 3,5GB so wie 4GB sind, kann es ja egal sein.
Wird aber wohl nicht so sein.

Mein technisches Verständnis (welches sehr wohl fehlerhaft sein kann) ist, dass Kompression dir nur bei der Bandbreite aber nicht beim verfügbaren Speicher hilft.

Exxtreme
2015-01-25, 20:09:28
@Exxtreme



Das sehe ich anders, die werden dann genutzt, wenn es sich gar nicht mehr vermeiden lässt.
Vermeiden lässt es sich fast immer, nämlich per Auslagern in den Hauptspeicher über Pcie. Macht die Karte aber offenbar nicht sondern sie priorisiert die letzten 0,5 GB ggü. der noch langsameren Auslagerung.

Matrix316
2015-01-25, 20:10:59
Jetzt wird's esoterisch.

Lösen wir uns einfach von der spinnerten Idee, die GTX 970 sei eine 4GB-Karte.

Und alles wird gut...
http://abload.de/img/58456743oru5n.jpg (http://abload.de/image.php?img=58456743oru5n.jpg)

;D:freak:;D

Hätte man das Thema nicht thematisiert, hätte ich das garnicht bemerkt. Hab die Karte seit zwei Monaten und mir war erstmal wichtiger, dass die Karte schön leise ist.

dargo
2015-01-25, 20:13:17
@fdsonne
Frag mich ob die Entwickler genauso im Dunkeln gelassen werden und Nvidia denen sagt wir managen das schon keine Panik ;)

So ist es ja bei Far Cry 4 gelaufen Ubisoft Kiev konnte das problem nicht fixen bzw eindämen erst Nvidias magic Dunia 2 treiber hat Spürbar Linderung verschaft und das dann auch gleichzeitig für Watch_Dogs und ohne irgend einen Changelog hinweis ;)
Das sehe ich bei Nvidia schon als eine Selbstverständlichkeit an. Grobe Fehler werden nicht offiziell verkündet.

Also AC:U zieht bei meiner R9-290X schon 3,2GB mit 1080p ohne AA.

Ich sehe da nicht wirklich viel Luft bis 3,5GB.
Das ist jetzt ein Spiel von heute.....

Jetzt geht das schon wieder los. :facepalm:

Achte mal auf die unterschiedliche Vram-Reservierung (ich spreche hier extra von Reservierung da du immer noch nicht weißt was tatsächlich davon zeitkritisch gebraucht wird) zwischen den beiden IHVs je nach Auflösung und Antialiasing in der gewählten Testszene:
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html

Air Force One
2015-01-25, 20:17:32
Nochmal zu AC:U ...mit 2xAA oder 4xAA zieht das Ding ja schon 3.7GB VRAM...
Damit habe ich dann knapp über 45FPS bei 1080p...
Wie weit brechen denn hier dann die 970er ein?
45FPS ist ja schon übel, oder ist der Verbrauch bei den 970ern besser?
Damals gab es ja auch mel so ein VRAM Thema, dort wurde es jedoch bei AMD bzw. ATI? kritisiert.
nVidia hat bis zum letzten MB den VRAM genutzt und AMD hat angefangen früher auszulagern.
Ich meine es wurde an einem MMO Spiel bemerkt....(GUILDWARS? WARHAMMER?...k.A)

-/\-CruNcher-/\-
2015-01-25, 20:18:59
Wieso ist das übel wenn du stabile 33 ms schafst reicht das erstmal vollkommen :)

Schnoesel
2015-01-25, 20:20:35
@ Air Force One

Du meinst jetzt nicht den VRAM Bug vom G80?!
http://de.wikipedia.org/wiki/Nvidia-Geforce-8-Serie#Fehler_im_Speichermanagement

Ätznatron
2015-01-25, 20:20:35
Vermeiden lässt es sich fast immer, nämlich per Auslagern in den Hauptspeicher über Pcie. Macht die Karte aber offenbar nicht sondern sie priorisiert die letzten 0,5 GB ggü. der noch langsameren Auslagerung.

Es wird die langsame der noch langsameren Lösung vorgezogen. Und das ist ja auch gut so. Aber beide sind weit von der Geschwindigkeit des restlichen 3,5 GB schnellen GDDR5-RAMs entfernt.

Das Auslagern ist also keine Vermeidung der Ruckelproblematik, sondern nur deren Minderung.

Coda
2015-01-25, 20:30:04
Offenbar anders deaktiviert, die 980M hat laut Tools auch die vollen 2MB L2.
Der L2 hängt an den ROP-Partitions. Wenn das mit den 3,5GB stimmt, glaube ich immer noch, dass das Ding tatsächlich nur ein 224 bit Interface hat, NVIDIA aber 4GB drauf lötet.

aths
2015-01-25, 20:40:05
Nope, Gipsel hatte den Sachverhalt mal technisch fundiert erklärt.Was war seine Argumentation?


Mit 3GB sind mehrere neue Spiele am stocken in 1440p, häufig auch ohne MSAA.
Bitte nicht mit 1080p argumentieren, das ist nur noch Entry-Level für Displays.
Ich bins auch langsam leid, immer solche Spiele aufzählen zu sollen (schon so oft gemacht).
Guckt doch mal über den Tellerrand hinaus.

Die ist zu langsam für 1440p.
Maßstab ist für mich BF4 MP ohne MSAA.Dann frage ich mich umso mehr, warum nicht gleich GTX 980.

Beim Display hielte ich Paneltyp für wichtiger als Auflösung – 1440p mit TN-Panel würde mich direkt mit Augenkrebs anstecken. Jeder hat andere Präferenzen, für mich kommts auf 1200p an :D

Ja, wären die Angaben ehrlich gewesen.
Auch mit 52 ROPs, 224-Bit-SI (wobei mir das noch nicht klar ist) und 3.5 GB + 0.5 GB RAM wäre die 970 für den Preis noch attraktiv. Gerade deshalb raffe ich nicht, warum sie die Angaben schönrechnen.

aufkrawall
2015-01-25, 20:45:02
Was war seine Argumentation?

Ich weiß es ehrlich gesagt nicht mehr.
Frag ihn doch per PM. :)


Dann frage ich mich umso mehr, warum nicht gleich GTX 980.

Weil teurer. Die 970 war laut Specs & Tests ein preisneutraler Tausch mit mehr VRAM.


Beim Display hielte ich Paneltyp für wichtiger als Auflösung – 1440p mit TN-Panel würde mich direkt mit Augenkrebs anstecken. Jeder hat andere Präferenzen, für mich kommts auf 1200p an :D

Beides wichtig, sowohl TN als auch ~<109ppi sind für mich nicht mehr akzeptabel (Fliegengitter).


Auch mit 52 ROPs, 224-Bit-SI (wobei mir das noch nicht klar ist) und 3.5 GB + 0.5 GB RAM wäre die 970 für den Preis noch attraktiv. Gerade deshalb raffe ich nicht, warum sie die Angaben schönrechnen.
Ja. :(
Dann hätte ich mir gleich eine 980 geholt. Hoffentlich kriegen sie noch etwas ihr Fett weg.

Coda
2015-01-25, 20:46:09
Naja ich weiß ja nich, ob die 12,5% VRAM jetzt wirklich so wichtig sind.

Idee: Mit Infrarotkamera Karte im Betrieb anschauen. Wenn ein RAM-Chip kühl bleibt wissen wir was Sache ist :ugly:

Air Force One
2015-01-25, 20:47:53
Naja ich weiß ja nich, ob die 12,5% VRAM jetzt wirklich so wichtig sind.

Naja von 3.5GB->4GB nicht..

aber von 0MB auf 512MB?....... :smile:

Hoffe du verstehst was ich meine....
Will dich jetzt nicht irgendwie dumm anmachen oder so.

fdsonne
2015-01-25, 20:49:04
Diese Ansicht ist falsch. Die Karte wird angewiesen die ersten 3,5 GB zu priorisieren. Erst wenn mehr als 3,5 GB rein wollen werden die letzten 0,5 GB benutzt. Sprich, 4 GB werden genutzt wenn sie auch benötigt werden.

Neja, dann dürfte es keine Nachladeruckler geben ;) Sondern es gäbe nur "Hop" oder "Top". Offenbar klagen aber auch User über Nachladeruckler, die sie mit anderen Karten nicht hätten/haben bzw. wo andere User sagen, diese wären nicht vorhanden...
Das ist zwar etwas subjektiv, keine Frage, aber die Karte "zwingt" wenn möglich auf unter 3,5GB zu bleiben... Auch wenn die Szenen mehr wie 3,5GB benötigen würden. Was zu Nachladerucklern führt, die es hätte womöglich nicht gegeben, wenn mehr Platz nutzbar wäre, der ja zwar physisch vorhanden ist, aber eben nicht genutzt wird, es sei denn, es kommt zum Äußersten!

Das Problem dabei ist doch, dass der obere Speicherbereich unbrauchbar ist... Egal wie man es dreht und wendet. Lass die Karte dort Daten ablegen können. Die Bandbreite fehlt um den Bereich effektiv so nutzen zu können, wie den unteren Bereich.
Zumindest mit derzeitigen Bios Versionen und derzeitigen Treibern... -> ob sich dran was ändert? Muss sich zeigen.

Nach deinem Argument hätte jede Grafikkarte ja die Möglichkeit, Daten über den RAM Auszulagern... Das gabs schon zu XP Zeiten mit local und non local VRAM mit dem Rivatuner zu monitoren.
Das Problem einer VRAM Knappheit wird dadurch aber keinesfalls vermindert... Bestenfalls verhindert man dadurch Abstürze oder ähnliches. Zumal der Durchsatz hinten so gering ist, das er sich nicht sonderlich von der PCIe Bandbreite bei 16x 3.0 Anbindung unterscheidet, was es gerade nicht unbedingt besser macht ;)


Sinnvollerweise hätte NV eher die weggelaserten SMMs anders auswählen sollen, vielleicht sogar müssen. Maximal ein SMM pro ROP Partition und du hättest zwar immernoch nur im Bereich 0-3328MB "vollen" Durchsatz, über drei ROP Partitionen verteilt (mit je drei SMMs pro ROP Partition -> in Summe also drei weggelaserte SMMs) wäre der Rest allerdings mit immerhin noch um die 100GB/sec da durchgewandert, wenn ich mich nicht verrechnet habe. Und das aus meiner Sicht ohne irgendwas an der GPU überhaupt im Design zu verändern, sondern einfach dadurch, dass am Ende nicht eine ROP Partition, die nur noch zwei aktive SMMs hat alleine Daten schaufeln muss! -> denn genau danach sieht es nach Nai-Benchwerten ja aus. Es ist eine ROP Partition mit zwei aktiven SMMs im Bereich 3328-3840MB (deswegen rechnerisch passende ~22GB/sec) und der Rest kommt sogar noch langsamer dran, weil dann nur noch ein SMM arbeitet. -> was das Tool allerdings nicht mehr richtig misst, da idR nur bis 3840MB, bestenfalls bis 3968MB allokiert wird.

AnarchX
2015-01-25, 20:52:55
Naja ich weiß ja nich, ob die 12,5% VRAM jetzt wirklich so wichtig sind.

Idee: Mit Infrarotkamera Karte im Betrieb anschauen. Wenn ein RAM-Chip kühl bleibt wissen wir was Sache ist :ugly:
Laut den Benchmarks sind die restlichen 0,5GiB aktiv, aber halt nur mit 32-Bit ansprechbar.

aufkrawall
2015-01-25, 20:53:01
Naja ich weiß ja nich, ob die 12,5% VRAM jetzt wirklich so wichtig sind.

In Ryse nicht.
Woanders schon, wurde hier ja zur Genüge ausgebreitet.

4GB sind häufig ein Garant, dass es wegen VRAM-Mangel nicht stockt. Mit 3,5GB hat man das schon nicht mehr.

Ist durch die Erkenntnisse von Nais Benchmark zwar OT, aber was solls: Wär interessant, ob Windows 10 sich anders verhält beim Paging.

aths
2015-01-25, 21:01:22
@aths:

Die Spec-Schindluderei bei Highend SKUs geht gar nicht und ärgert mich ebenfalls am meisten; die GTX 970 ist nur 1 Produkt, die Gedankengänge dahinter reichen aber meist etwas weiter.

Daher: Wehret den Anfängen!
Unabhängige Berichterstattung, ihr Auftritt...Je länger ich darüber nachdenke, umso weniger verstehe ich Nvidias Vorgehen. Bei dem großen Preisunterschied von der 970 zur 980 sieht die 970 ja mit den offiziellen Specs extrem gut aus. Vermutlich haben die sich einige 980-Verkäufe durch die Lappen gehen lassen, weil die 970 wie der klar bessere Deal wirkt: Volle Speicherbandbreite, volle 4 GB RAM.

Ist aber nicht so, egal was auf dem Papier steht.


Die 970 ist imho genauso ein Produkt wo das Marketing sich durchgesetzt hat, wo "Form follows Function" nicht beachtet wurde. Die technisch saubere Lösung wäre eine 3.5 GB Karte gewesen, so wie es in der Vergangenheit ebenfalls 640/896/1280 MB Salvage Karten ggü dem 768/1024/1536 MB Vollausbau gegeben hat.
Wenn durch die SMX Deaktivierung bei Maxwell gewisse Nebeneffekte auftreten und man keine 4 GB mit voller Bandbreite ansprechen kann, und trotzdem 4 GB verbaut werden ist es genauso eine Marketing Architektur.
Denn mun muss sich der Treiber mit dem zusätzlichen Management des halben GB TurboCache beschäftigen, und falls das dann zu Rucklern welcher Art auch immer führt (weil angefragte Daten entweder länger brauchen oder zwischendurch schon umsortiert werden) welche auf 980ern oder einer 3.5 GB Karte naturgemäß nicht vorhanden wären, hat man die Arschkarte gezogen die das Marketing einem ausgeteilt hat.

Die GTX 670 war (und ist) eine tolle Karte, eine Vernunftskarte wie du kürzlich sagtest, aber die GTX 970 kann imho jetzt eingestampft und durch eine vernünftige GTX 975 (Erinnerungen an die GTX 260-216 werden wach) ersetzt werden. Bisherigen Käufern kann man dann einen Spielegutschein als Kompensation in die Hand drücken.
Rein formal sind die Specs der 970 irgendwie auch korrekt. Insofern erwarte ich hier keine Aktion von NV.

Die 970 selbst finde ich auch mit den wahren Specs einen gelungenen Salvage-Part. Nur rund 15% langsamer als die 980, aber 40% günstiger. Es gibt einen schmalen Bereich, wo die Leistung schneller abfällt. Allerdings operiert man da in aller Regel eh schon an der Grenze. Rein praktisch habe ich, da ich zwei Monitore nutze und Aero aktiv ist, auch mit der 980 eine Lücke von mehreren 100 MB.

Die Wut vieler 970-Besitzer kann ich trotzdem nachvollziehen. Ob Speicherbandbreite oder Speicherausbau: Es fehlt ein kleines Stück Zukunftssicherheit, dass man mitgekauft zu haben glaubt.

-/\-CruNcher-/\-
2015-01-25, 21:02:46
Also ich bin jetzt schon gespannt auf die Digitalfoundry GTA 5 FCAT Ergebnisse mit der GTX 970 (3.5GB) und 980 (4GB) vs AMD 290/290X (4GB) Omega ;)

Witcher 3 wird dann auch nochmal interessant im Mai :)

fdsonne
2015-01-25, 21:04:24
Der L2 hängt an den ROP-Partitions. Wenn das mit den 3,5GB stimmt, glaube ich immer noch, dass das Ding tatsächlich nur ein 224 bit Interface hat, NVIDIA aber 4GB drauf lötet.

Es sieht stark danach aus, dass die Bandbreite bei 3328MB einknickt. Also 3072 + 256MB. Der Rest, also 768MB sind exakt 3/16tel von der absoluten Menge von 4096MB, wie die 3/16tel fehlende SMM.

Zumindest der Benchmark ohne sichbaren Einfluss von DWM und mit IGP als Hauptkarte zeigt einen Einbruch ab 3328MB, was diese Aussage natürlich stüzt.


Die ~3,5GB, die allerdings in Spielen offenbar versucht werden zu halten könnten wiederum aus Lust und Laune von NV gewählt worden sein... Denn ich kenne keine Benchmessung der 970er, die bis 3584MB in dem Test ihre Bandbreite hält... Es knickt schon früher ein.

urbi
2015-01-25, 21:07:06
Je länger ich darüber nachdenke, umso weniger verstehe ich Nvidias Vorgehen. Bei dem großen Preisunterschied von der 970 zur 980 sieht die 970 ja mit den offiziellen Specs extrem gut aus. Vermutlich haben die sich einige 980-Verkäufe durch die Lappen gehen lassen, weil die 970 wie der klar bessere Deal wirkt: Volle Speicherbandbreite, volle 4 GB RAM.

Ist aber nicht so, egal was auf dem Papier steht.


Rein formal sind die Specs der 970 irgendwie auch korrekt. Insofern erwarte ich hier keine Aktion von NV.

Die 970 selbst finde ich auch mit den wahren Specs einen gelungenen Salvage-Part. Nur rund 15% langsamer als die 980, aber 40% günstiger. Es gibt einen schmalen Bereich, wo die Leistung schneller abfällt. Allerdings operiert man da in aller Regel eh schon an der Grenze. Rein praktisch habe ich, da ich zwei Monitore nutze und Aero aktiv ist, auch mit der 980 eine Lücke von mehreren 100 MB.

Die Wut vieler 970-Besitzer kann ich trotzdem nachvollziehen. Ob Speicherbandbreite oder Speicherausbau: Es fehlt ein kleines Stück Zukunftssicherheit, dass man mitgekauft zu haben glaubt.

Genau. Es geht glaube ich kaum einem um die jetzigen Auswirkungen die das ganze hat. Ich bin z.B. bin einfach angefressen weil mir falsche Daten gegeben wurden und ich auf dieser Grundlage meine Kaufentscheidung getroffen habe.

Ich wollte 4GiB oder mehr und ich habe - da ich mit keiner Grafikkartenmarke verheiratet bin, obwohl ich ein ziemlicher NVIDIA/EVGA-Fan bin - sowohl mit dem Gedanken gespielt eine Geforce GTX 980 zu nehmen, als auch eine GTX 780 im Ausverkauf oder eine Radeon R9 290X (ggf. mit 8GiB). Schließlich ist es die GTX 970 von MSI geworden.

Um meine Kaufentscheidung von damals mal zu "rechtfertigen": Eine GTX 780 OC hätte ich für etwa 100€ weniger kaufen können. Ich habe mich zu 90% wegen dem 1GiB mehr Ram dagegen entschieden. Gegen die Radeon sprach, dass ich die letzten Jahre mit NVIDIA-Karten ganz zufrieden war und eigentlich keine große Lust auf einen Wechsel hatte. Außerdem sah ich was Preis und Leistung anging keinen Vorteil zur GTX 970 - 8GiB wären natürlich schön gewesen aber 4GiB reiche ja auch, dachte ich. Mehr geschwankt habe ich da schon in Richtung GTX 980, letztlich war sie mir dann im Verhältnis zu teuer und weil sie gerade eh nicht verfügbar war lies ich mich auf das Glücksspiel mit dem Spulenfiepen ein.
Man muss sich nur die Threads zur GTX 970 von damals durchlesen um festzustellen dass es vielen so ging. Die GTX 970 schien der GTX 980 bis auf die paar Recheneinheiten in jeder Beziehung ebenbürtig zu sein und dieses Manko konnte man ja durch das teilweise sehr gute OC-Potenzial weitestgehend wett machen. Gleichzeitig haben sehr viele Leute von recht potenten Grafikkarten wegen dem Grafikspeicher auf die GTX 970 gewechselt, sei es nun von GTX 780 (Ti) oder GTX 770, GTX 680, GTX 670. Wie soll man sich da nicht verarscht vorkommen?

Toll finde ich auch, dass jetzt von 3328MB "normalem" Grafikspeicher gesprochen wird - war das NVIDIA Statement also nicht die ganze nichtmal die halbe Wahrheit?

BZ
2015-01-25, 21:12:00
Es sieht stark danach aus, dass die Bandbreite bei 3328MB einknickt. Also 3072 + 256MB. Der Rest, also 768MB sind exakt 3/16tel von der absoluten Menge von 4096MB, wie die 3/16tel fehlende SMM.

Zumindest der Benchmark ohne sichbaren Einfluss von DWM und mit IGP als Hauptkarte zeigt einen Einbruch ab 3328MB, was diese Aussage natürlich stüzt.


Die ~3,5GB, die allerdings in Spielen offenbar versucht werden zu halten könnten wiederum aus Lust und Laune von NV gewählt worden sein... Denn ich kenne keine Benchmessung der 970er, die bis 3584MB in dem Test ihre Bandbreite hält... Es knickt schon früher ein.

Ja ist bei meiner auch so,
der Einbruch kommt schon bei 3200MB.
Das sieht bald aus als wenn das ursprünglich 3GB Karten werden sollten.

-/\-CruNcher-/\-
2015-01-25, 21:13:02
Ja ist bei meiner auch so,
der Einbruch kommt schon bei 3200MB.
Das sieht bald aus als wenn das ursprünglich 3GB Karten werden sollten.

Ja es sollte das update zur 780 TI werden das war mir schon von Anfang an bewusst die 780 TI mir aber damals viel zu teuer ;)

Die 3.2 GB sind Borderless (TB) nicht Fullscreen EX

Fullscreen EX sind es diese ~3.5 GB bevor der hehe "Kack Ram" kommt ;)

Aber der Kack Ram muss keine großen probleme bereiten es gibt auch Shadow of Mordor Ergebnisse wo ich bei den 4GB keine grosartigen probleme sehe bis auf den Kamera pan aber das ist auch ein relativ langsames content streaming

aths
2015-01-25, 21:13:42
Ich weiß es ehrlich gesagt nicht mehr.
Frag ihn doch per PM. :)Pfff, ich disktutiere doch mit dir.

Weil teurer. Die 970 war laut Specs & Tests ein preisneutraler Tausch mit mehr VRAM.Und ich dachte schon, mit dem "Upgrade" von 680 auf 980 würde ich als Sidegrader belächelt.

Beides wichtig, sowohl TN als auch ~<109ppi sind für mich nicht mehr akzeptabel (Fliegengitter).

Ja. :(
Dann hätte ich mir gleich eine 980 geholt. Hoffentlich kriegen sie noch etwas ihr Fett weg.Eben, mit ehrlichen Specs hätten sie an die informierten Leute mehr GTX 980 verkauft. Wer sich die nicht hätte leisten können, hätte weiterhin die 970 gekauft.

Gut, dass du nix mit TN-Panel hast :) Ich habe 103 dpi (1920x1200, 22 Zoll, SPVA-Panel.)

tdon
2015-01-25, 21:20:54
Es sieht stark danach aus, dass die Bandbreite bei 3328MB einknickt. Also 3072 + 256MB. Der Rest, also 768MB sind exakt 3/16tel von der absoluten Menge von 4096MB, wie die 3/16tel fehlende SMM.

Zumindest der Benchmark ohne sichbaren Einfluss von DWM und mit IGP als Hauptkarte zeigt einen Einbruch ab 3328MB, was diese Aussage natürlich stüzt.


Die ~3,5GB, die allerdings in Spielen offenbar versucht werden zu halten könnten wiederum aus Lust und Laune von NV gewählt worden sein... Denn ich kenne keine Benchmessung der 970er, die bis 3584MB in dem Test ihre Bandbreite hält... Es knickt schon früher ein.



Im Nai Fenster Benchmark werden fast 100MB ausgelagert mit aktuellen Treibern auf der GTX 970. 344.11, der 50MB auslagert, bricht vollständig erst ab Chunk 27 3456MB ein. Könnte schon sein das es genau 3,5GB sind in fullscreen Spielen. Davon gehe ich aus. Die erste Partition ist 3,5GB groß, warum sollte Nvidia das volle Potenzial in Spielen herschenken, macht kein Sinn. Wie gesagt bräuchte es einen Directx fullscreen VRAM Tester.

aufkrawall
2015-01-25, 21:21:34
Pfff, ich disktutiere doch mit dir.

Es war jedenfalls schon Pre-GCN so:
http://www.pcgameshardware.de/Serious-Sam-Forever-PC-201896/Tests/SeSam-BFE-Benchmarks-856735/
Mit mehr Pixeln holen die Radeons auf. Dass damals der NV D3D9-Treiber nennenswert weniger Overhead erzeugte, wage ich zu bezweifeln.

Knuddelbearli
2015-01-25, 21:23:05
http://ht4u.net/news/30578_geforce_gtx_970_-_nvidia_raeumt_beschraenkungen_bei_der_nutzung_der_4_gbyte_hauptspeicher_ein/

BZ
2015-01-25, 21:31:22
http://ht4u.net/news/30578_geforce_gtx_970_-_nvidia_raeumt_beschraenkungen_bei_der_nutzung_der_4_gbyte_hauptspeicher_ein/

Das drucke ich gleich aus,
danke.

fdsonne
2015-01-25, 21:53:37
Im Nai Fenster Benchmark werden fast 100MB ausgelagert mit aktuellen Treibern auf der GTX 970. 344.11, der 50MB auslagert, bricht vollständig erst ab Chunk 27 3456MB ein. Könnte schon sein das es genau 3,5GB sind in fullscreen Spielen.

Nur sieht man denn, was wirklich ausgelagert wurde?
Das Problem dabei ist, wir wissen doch nur, das womöglich was ausgelagert wurde. Was genau? Sieht man nicht...

Wenn also im 344.11er Treiber 50MB ausgelagert werden, in einem anderen fast 100MB, wäre das doch nach reiner Logik gesehen der Teilbereich ganz oben. Also 50-100MB unter der maximal allokierten Größe. Auf den Wert, wo es einbricht, dürfte es normal gar keinen Einfluss haben... Zumindest dann nicht, wenn die Karte eine VRAM Belegung von 0MB aufweist. -> mit IGP als Main GPU bspw.
Auch sehe ich immernoch nicht geklärt, was mit ausgelagert gemeint ist. 22GB/sec sind mehr wie der PCIe 16x 3.0 Durchsatz. Wenn die Karte also Daten in den RAM anstatt VRAM schieben soll(te), dann müsste normal PCIe deckeln. Was bei ~16GB/sec sein müsste... (theoretisch)
Oder switcht CUDA auf die CPU um, wenn die GPU Ressourcen ausgehen? Kann ich mir ehrlich gesagt nicht vorstellen...

-/\-CruNcher-/\-
2015-01-25, 21:57:03
Nvidia hat aber ja auch noch eine eigene PCI-E Kompression oder nicht da war mal vor allem die rede von im Mobile Treiber wenn ich mich recht entsinne ;)

http://forums.guru3d.com/showthread.php?t=344232

Nakai
2015-01-25, 22:04:16
Es war jedenfalls schon Pre-GCN so:
http://www.pcgameshardware.de/Serious-Sam-Forever-PC-201896/Tests/SeSam-BFE-Benchmarks-856735/
Mit mehr Pixeln holen die Radeons auf. Dass damals der NV D3D9-Treiber nennenswert weniger Overhead erzeugte, wage ich zu bezweifeln.

AMD/ATI verwendet einen größeren "Verschnitt". Ein Warp bei NV ist 32 Threads groß, bei AMD/ATI 64 Threads. Höhere Auflösung -> größere Dreiecke bzw. Dreiecke haben mehr Pixel. Jedenfalls war das damals so eine der Erklärungen. AMD hat auch empfohlen, dass die Dreiecke eher 32 Pixel groß sein sollten. Bei NV waren es 16 Pixeln, afaik.

Ahja, die FBC bzw. DCC bringt für Compute relativ wenig. Es wird zwar daran gearbeitet, Computedaten auch scho zu komprimieren, aber es bringt eher nur was bei Pixeldaten.

aths
2015-01-25, 22:08:44
Es war jedenfalls schon Pre-GCN so:
http://www.pcgameshardware.de/Serious-Sam-Forever-PC-201896/Tests/SeSam-BFE-Benchmarks-856735/
Mit mehr Pixeln holen die Radeons auf. Dass damals der NV D3D9-Treiber nennenswert weniger Overhead erzeugte, wage ich zu bezweifeln.
Seit GeForce 2 sind NV-Treiber für gute CPU-Optimierung in oft gebenchmarkten Titeln bekannt. (Siehe die absurd hohen Ergebnisse in Quake 3.) Auch vor dem GCN-Release boten ATI-Karten oft eine bessere Rohleistung, oder eine Architektur mit weniger Fallstricken.

AMD/ATI verwendet einen größeren "Verschnitt". Ein Warp bei NV ist 32 Threads groß, bei AMD/ATI 64 Threads. Höhere Auflösung -> größere Dreiecke bzw. Dreiecke haben mehr Pixel. Jedenfalls war das damals so eine der Erklärungen. AMD hat auch empfohlen, dass die Dreiecke eher 32 Pixel groß sein sollten. Bei NV waren es 16 Pixeln, afaik.Der Effekt davon (falls die Werte so stimmen) sollte eigentlich gering sein.

aufkrawall
2015-01-25, 22:11:19
AMD/ATI verwendet einen größeren "Verschnitt". Ein Warp bei NV ist 32 Threads groß, bei AMD/ATI 64 Threads. Höhere Auflösung -> größere Dreiecke bzw. Dreiecke haben mehr Pixel. Jedenfalls war das damals so eine der Erklärungen. AMD hat auch empfohlen, dass die Dreiecke eher 32 Pixel groß sein sollten. Bei NV waren es 16 Pixeln, afaik.

:up:

labecula
2015-01-25, 22:13:44
Das mit der 660TI war für den Dau nicht bekannt frag mich warum es damals nicht so ne Welle gab.Die Karten wurden auch mit 2GB vermarktet.

Wobei eine 3GB 660Ti auch positives an der Performance drehte. Hab sie deshalb gekauft und keine Einbrüche. Gsd.

Schaffe89
2015-01-25, 22:15:14
Damit bestätigt Nvidia zwar im Grunde die Ergebnisse der Tests, weist aber gleichzeitig darauf hin, dass der Leistungseinbruch nicht höher ausfällt als bei einer Geforce GTX 980, wenn mehr als 3,5 GByte verwendet werden. Als Beleg nennt Nvidia Benchmarks verschiedener Spiele. Bei Mittelerde: Mordors Schatten bricht die Leistung bei mehr als 3,5 GByte genutztem Speicher bei einer Geforce GTX 980 um 24 Prozent ein, bei der Geforce GTX 970 um 25 Prozent. Bei Battlefield 4 liegen die Werte bei 47 und 50 Prozent und bei Call of Duty: Advanced Warfare bei 41 und 44 Prozent. Es bleibt abzuwarten, ob diese Aussagen die Wogen wieder glätten.

Ist das bei der GTX 980 jetzt doch auch der Fall??

BZ
2015-01-25, 22:19:14
Leute,
wie kann ich die langsamen 500MB deaktivieren,
damit die Karte nicht ausgebremst wird. ;D
Eine Lane durchtrennen? :eek:
Das ist doch ein Witz oder.

y33H@
2015-01-25, 22:21:53
Nö.

Isen
2015-01-25, 22:21:55
@BZ,

vergiss den eingerollten 100 Dollar dabei nicht :D

fdsonne
2015-01-25, 22:22:48
Ist das bei der GTX 980 jetzt doch auch der Fall??

Nein ist es nicht...

A) > 3,5Gb kann auch heißen, dass man die 980er zum massiven VRAM Überbuchen zwingt
B) avg. FPS Messung ohne jegliche Frametime/Frameverlaufsangaben


Die GTX 970 performt ja nicht schlecht(er) als noch vor drei Wochen...
Sie zeigt nur eher Nachladeruckler und bei Zwang von mehr als 3,5GB VRAM usage womöglich dauerhaft niedrigere Frames als üblich für 4GB VRAM.
Einen fundierten Gegentest müsste man damit machen, dass die 980er in dem Fall maximal unwesentlich mehr als 4GB VRAM belegen darf. Das wären dann >15% mehr VRAM als bei der 970er und sollte zu Unterschieden in den Ergebnis führen.
Gehst du deutlich drüber mit dem Überbuchen, dann bricht dir auch die 980er weg. Sowohl was Nachladeruckler angeht, als auch was dauerhaft niedrige FPS angeht.

Leute,
wie kann ich die langsamen 500MB deaktivieren,
damit die Karte nicht ausgebremst wird. ;D
Die "ohne-Hammer-und-Meisel" Methode wäre ganz einfach, deine Settings so zu wählen, dass du bei einer VRAM Belegung von maximal 3,5GB bleibst...
Kannst du selbst das nicht so granular steuern, übernimmt der Treiber das heute schon für dich ;) Hüte dich aber vor massiver Überbuchung... Steigt die Usage >3,5GB, steigt die Gefahr auf Folgeprobleme.

-/\-CruNcher-/\-
2015-01-25, 22:23:50
AMD/ATI verwendet einen größeren "Verschnitt". Ein Warp bei NV ist 32 Threads groß, bei AMD/ATI 64 Threads. Höhere Auflösung -> größere Dreiecke bzw. Dreiecke haben mehr Pixel. Jedenfalls war das damals so eine der Erklärungen. AMD hat auch empfohlen, dass die Dreiecke eher 32 Pixel groß sein sollten. Bei NV waren es 16 Pixeln, afaik.

Ahja, die FBC bzw. DCC bringt für Compute relativ wenig. Es wird zwar daran gearbeitet, Computedaten auch scho zu komprimieren, aber es bringt eher nur was bei Pixeldaten.

hehe ich hab mich echt gefragt ob Nvidia vielleicht ihren DSP nutzt um die Daten mit CABAC zu komprimieren und das vielleicht part ihrer neuen intra compression sein könnte womit sie dann bandbreite sparen wäre crazy ;)

BZ
2015-01-25, 22:25:44
@BZ,

vergiss den eingerollten 100 Dollar dabei nicht :D

100 Dollar will ich von Nvidia für meinen Herzkasper.
Da gönnt man sich einmal was gutes und fast wieder in die Scheiße. :wink:

aths
2015-01-25, 22:30:11
Ist das bei der GTX 980 jetzt doch auch der Fall??
Entweder ja, oder das Nvidia-Marketing streut wieder Sand in die müden Redakteurs-Augen, indem Settings genommen wurde welche auch die 980 zum Auslagern zwingen (> 4 GB VRAM-Anforderung.)

Air Force One
2015-01-25, 22:35:16
:freak:

irgendwie auch unsinnig (bin da kein Fachmann)


Wenn ich bei AC:U AA auf 4X stelle sind es so zwischen 45-50FPS und ~3.2VRAM-3.7GB VRAM
Stelle ich AA auf 8X AA habe ich 2-3FPS und VRAM ~2.2GB? :biggrin:

Schätze mal wird ausgelagert und dann falsch ausgelesen?
Warum wird dann aber so viel ausgelagert?

Ist das normal?

EDIT:
SORRY 290X! :ulol:

aufkrawall
2015-01-25, 22:47:18
Das ist jetzt aber der Witz des Abends. :freak:

y33H@
2015-01-25, 22:50:20
Entweder ja, oder das Nvidia-Marketing streut wieder Sand in die müden Redakteurs-Augen, indem Settings genommen wurde welche auch die 980 zum Auslagern zwingen (> 4 GB VRAM-Anforderung.)Dafür unterscheiden sich IMHO die fps zwischen beiden Karten zu sehr und der Einbruch ist zu gering.

Dorn
2015-01-25, 22:50:40
Idee: Mit Infrarotkamera Karte im Betrieb anschauen. Wenn ein RAM-Chip kühl bleibt wissen wir was Sache ist :ugly:

Nvidia könnte das als Energiesparend verkaufen, darauf fahren die Leute doch voll ab. :biggrin:

Matrix316
2015-01-25, 23:20:28
Ist halt "progressive memory management". ;)

Stellt euch vor es gäbe eine 970 mit 2 GB. Wäre die schneller? ;)

Und es gibt immer noch viele gute Gründe für eine 970:

-Der niedrige Stromverbrauch...
-Die niedrige Lautstärke...
-Immer noch schnell genug für fast alles in "normalen" Auflösungen...

Isen
2015-01-25, 23:22:57
Mal schauen, wie neue Games, die hungriger sind darauf ansprechen und was nvidia bei der " Entwicklung " dazu beiträgt... ich sehe da ein wenig Schwarz, selbst Evolve verlangt unter FHD spitze 3,6Gb. Mit DSR auf 1440p bereits 3,7-3,8Gb ... ( bei sehr annehmbaren 60fps, wenn das Problem nicht wäre, denn die sind nur von kurzer Dauer ) ...

MorPheuZ
2015-01-25, 23:24:05
Das ist wirklich nicht gerade Gentlemans like was NV da abliefert. Da bin ich froh hab ich mich doch durchgerungen auf den GM200 zu warten und/oder dann auf Rot zu wechseln. Aber seien wir doch ehrlich, schlussendlich reden wir doch hier nur vom Staub des Spreu vom Weizen, oder?

fdsonne
2015-01-25, 23:31:16
Dafür unterscheiden sich IMHO die fps zwischen beiden Karten zu sehr und der Einbruch ist zu gering.

Es müsste sich einfach mal eine Redaktion finden, die das Konstrukt entsprechend mal nachstellt...
Eigentlich finden sich bis jetzt nur Userbenches, die zum Teil nichtmal wirklich greifbar sind.

Mir fallen spontan mehrere Mittel ein, um Messmethoden so hinzubiegen, dass die gestellten Ergebnise am Ende das aussagen, was sie aussagen sollen, aber eben nicht das, was hier und andernorts beklagt wird.

Die > 3,5GB Werte könnte man bspw. dahingehend manipulieren, dass für das Bilden der avg. Werte eine Szene gesucht wird, die zwar A) den VRAM belegt, aber B) wo gerade keine Nachladeruckler auftreten und C) wo man eben während der Benchzeit nicht derart viele Daten im VRAM ändert, dass es zu starken FPS einbrüchen kommt. Ob nun 3,5GB, 3,7GB oder 3,9GB, das macht den Kohl doch idR nicht Fett... Solange alle Daten der Szenen wärend der Messung im VRAM drin sind, wird die Karte sich nicht unauffällig verhalten. Weder durch Ruckler noch durch niedrigere FPS. Das gleiche gilt für die 980er, die ja sogar noch "mehr" Luft nach oben hat... Mehr nutzbaren VRAM macht die Karte ja nicht schneller. Entsprechend wird sie keine anderen Werte zeigen und auch nicht weniger stark einbrechen!


Für VRAM Messungen müssen langzeit Analysen her. Und langzeit meint dabei nicht nur 30 - 60 Sekunden. Sondern eher sowas wie 10 - 30 Minuten. Das Ganze aufgearbeitet in einem Frameverlaufsdiagramm... Natürlich mit Angabe von den Ausreißern. Ähnlich wie man es bei den FCAT Messungen auch macht. Um so länger die Szene, desto aussagekräftiger die Werte.
Es geht ja hier nicht darum, Karten gegenüber Anderen zu vergleichen, wo es reicht, das Leistungsniveau über kurze Szenen zu bestimmen. Sondern Spielbarkeiten/Auffälligkeiten dieser einen Karte zu analysieren... VRAM Analyse = langzeit Analyse, war eigentlich schon immer so, macht aber fast Niemand, warum auch immer.

-/\-CruNcher-/\-
2015-01-25, 23:37:05
https://www.youtube.com/user/DigitalFoundry/videos

Oxtel5strVs
QSx9w0OR23s
Alles Zeitkritisch ;)

derguru
2015-01-25, 23:49:46
Ist halt "progressive memory management". ;)

Stellt euch vor es gäbe eine 970 mit 2 GB. Wäre die schneller? ;)

Und es gibt immer noch viele gute Gründe für eine 970:

-Der niedrige Stromverbrauch...
-Die niedrige Lautstärke...
-Immer noch schnell genug für fast alles in "normalen" Auflösungen...

für normale auflösungen sicherlich, imo sind die gearschten eigentlich die von einer gtx780 3gb rambegründet umgerüstet haben.^^

Thunder99
2015-01-26, 00:01:16
Kann einer bitte mit einer GTX980 gegen testen wie viel GB Ram belegt werden bei welcher fps in FC4 unter folgenden Settings:

2880x1620
3840x2160
jeweils alles Ultra mit SMAA und allen nvidia Effekten

Danke :). Komme da bei 1620p auf 47fps bei 3GB sowie ca. 30fps bei 4k bei 3,5GB (mehr will er nicht). Es werden auch ca. 200MB auf die HDD ausgelagert von der GPU

Edit: Szene ist Bales Haus raus gehen und dann zur Kante wo man mit dem Seil runter könnte :)

Schnoesel
2015-01-26, 00:08:57
Ohne die genaue Szene zu kennen die du testest fürchte ich hilft dir das nicht viel.

Thunder99
2015-01-26, 00:25:18
Ohne die genaue Szene zu kennen die du testest fürchte ich hilft dir das nicht viel.
Hab es editiert, siehe Post oben. Und alles mit Win7 Basis (kein Aero)

Hab nun paar Vergleiche gemacht, zusätzlich mit bei 4k mit TX2AA und TX4AA um wirklich die 3,5GB Grenze zu durchbrechen. Ging erst ab TX2AA (3,7-3,9GB, ~20fps) sowie mit TX4AA (4GB, ~15fps).
Danach wieder auf wieder auf SMAA und 1620p runter gestellt und der Verbrauch blieb oben bei 3,7-3,8GB :eek: :freak:

Zusätzlich hab ich den Process Explorer mitloggen lassen. Es wird einiges auf die HDD verlagert :( . Dokumentation ist jetzt nicht perfekt. Es gab aber 2x ein Nachladeruckler!

Wechsel bei SMAA zwischen 1620p und 4k..........4k TX2AA >3,7GB.............4k TX4AA.......................TX2AA (von 4k zurück) auf 1620p
http://abload.de/thumb/gtx9702160pund4ksmaatsfwo.png (http://abload.de/image.php?img=gtx9702160pund4ksmaatsfwo.png).................................... ...http://abload.de/thumb/gtx970vramverbrauchfcj0eso.png (http://abload.de/image.php?img=gtx970vramverbrauchfcj0eso.png)..........http://abload.de/thumb/gtx970vramverbrauchfcivere.png (http://abload.de/image.php?img=gtx970vramverbrauchfcivere.png)..........http://abload.de/thumb/gtx970vramverbrauchfcozic2.png (http://abload.de/image.php?img=gtx970vramverbrauchfcozic2.png)

Mit TX4AA läuft wohl der Speicher über (>4GB werden benötigt), bei TX2AA scheinen gerade so 2GB langen, daher auch diese Einstellung untersucht. Bild 3 war vorher TX4AA aktiv, d.h. Benchreihenfolge war SMAA 2160p, 4k, 4k TX4AA, 4k TX2AA und dann wieder 2160p TX2AA oder SMAA (nicht sicher gerade)

Coda
2015-01-26, 00:34:19
Laut den Benchmarks sind die restlichen 0,5GiB aktiv, aber halt nur mit 32-Bit ansprechbar.
Kannst du bitte noch mal erklären was du damit meinst. Das ergibt so nicht wirklich Sinn.

Was für 32 bit Adressen? Virtuelle User-Space-Adressen, Physikalische RAM-Adressen, PCIe-Address-Space?

Radeonfreak
2015-01-26, 00:36:14
Kann einer bitte mit einer GTX980 gegen testen wie viel GB Ram belegt werden bei welcher fps in FC4 unter folgenden Settings:

2880x1620
3840x2160
jeweils alles Ultra mit SMAA und allen nvidia Effekten

Danke :). Komme da bei 1620p auf 47fps bei 3GB sowie ca. 30fps bei 4k bei 3,5GB (mehr will er nicht). Edit: Szene ist Bales Haus raus gehen und dann zur Kante wo man mit dem Seil runter könnte :)

Mal so auf die schnelle.
2880x1620 ca. 55-60fps 3200MB
3840x2160 ca. 35FPS 3500MB
jeweils alles Ultra mit SMAA und allen nvidia Effekten

Lords of the Fallen haut gut rein. 1620p @ max heute 4049 MB.

Air Force One
2015-01-26, 00:39:25
Wie wurde eig. damals bei Intel reagiert bei dem Bug in der Befehlserweiterung?
Gab es da irgendwie eine Regulierung?

Naja...wird ja mal Zeit für eine Cash-Back Aktion oder so...nur so eine Idee.

Coda
2015-01-26, 00:42:58
Übrigens könnten NVIDIA auch bescheißen und die 512MB "VRAM" auch einfach im PCIe-Aperture-Speicher allozieren und im Treiber dann als VRAM ausgeben.

Andere Möglichkeit wäre, dass die 0,25MB weniger L2-Cache dazu führen, dass die letzten 512 MB nicht gecacht werden können.

Thunder99
2015-01-26, 00:45:03
Mal so auf die schnelle.
2880x1620 ca. 55-60fps 3200MB
3840x2160 ca. 35FPS 3500MB
jeweils alles Ultra mit SMAA und allen nvidia Effekten

Lords of the Fallen haut gut rein. 1620p @ max heute 4049 MB.
ok danke, dann werden 3,5 @ 4k mit SMAA benötigt. Wie schaut es aus mit TX2AA? :)

Thunder99
2015-01-26, 00:46:13
Übrigens könnten NVIDIA auch bescheißen und die 512MB "VRAM" auch einfach im PCIe-Aperture-Speicher allozieren und im Treiber dann als VRAM ausgeben.

Andere Möglichkeit wäre, dass die 0,25MB weniger L2-Cache dazu führen, dass die letzten 512 MB nicht gecacht werden können.
Siehe meine Vergleiche mit den Bildern wo VRAM Verbrauch + was Ausgelagert wird im Vergleich zur Anzeige "Verbrauch"
http://abload.de/image.php?img=gtx970vramverbrauchfcj0eso.png

Radeonfreak
2015-01-26, 00:49:38
ok danke, dann werden 3,5 @ 4k mit SMAA benötigt. Wie schaut es aus mit TX2AA? :)

1620p ca 45-50 FPS 3500MB
2160p ca. 25FPS 3700 MB

-/\-CruNcher-/\-
2015-01-26, 00:50:43
Siehe meine Vergleiche mit den Bildern wo VRAM Verbrauch + was Ausgelagert wird im Vergleich zur Anzeige "Verbrauch"
http://abload.de/image.php?img=gtx970vramverbrauchfcj0eso.png

versuch mal den 344.11 treiber danach den Far Cry 4 release treiber 344.75, und vergleich mal die Speicher Auslagerung und ob sich da etwas verändert hat und danach den 347.09 ;)

am Besten mit der Intro Szene sobald die Auto Drive Sequence losgeht (Escape Sequence)

Thunder99
2015-01-26, 01:02:28
Heute nicht mehr und was soll es überhaupt bringen? :confused: Es ist ja kein Treiber Fehler sondern ein HW Problem. Der Treiber kann es nur so gut es geht ausgleichen oder verschleiern

-/\-CruNcher-/\-
2015-01-26, 01:09:18
Werd das gefühl nicht los das man dort erkennt das sie langsam aber stetig das problem optimiert haben vor allem für Far Cry 4 und gleichzeitig so für The Crew und Watch_Dogs ;)

Was dann Final hier geendet hat http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10461732&postcount=3609

Trotzdem hat NV die Spikes um ~50% reduziert.


Sprich was ich erwarte zu sehen ist das der Ausgelagerte Speicher am Anfang größer war dann immer kleiner wurde ;)

Coda
2015-01-26, 03:02:16
PCGH schreibt:
Zudem darf gesagt werden, dass die 256 Bit definitiv physisch vorhanden sind, an dieser Stelle reicht schon ein Blick auf das PCB.
Ich weiße noch mal drauf hin, dass das kein ausreichendes Merkmal ist.

Die Chips könnten durchaus draufgelötet sein, aber einfach nicht angesprochen werden.

Hat denn wirklich keine Redaktion nen IR-Messgerät? Das will ich jetzt wissen ;)

Marty98
2015-01-26, 03:23:19
http://www.anandtech.com/show/8931/nvidia-publishes-statement-on-geforce-gtx-970-memory-allocation

4Fighting
2015-01-26, 07:08:18
Erhalten Händler für sowas eigentlich Kompensationszahlungen? Muss ja eigentlich...oder werden mal wieder nur 1 Promille die Karten zurückgeben?

RMA bzw. Nachbesserung ist ja hinfällig, da bleibt ja nur "Geld-zurück".

Dawn on Titan
2015-01-26, 07:09:47
Ist wahrscheinlich ein Resultat des "schiefen" SMM Aufbaus. Ich hoffe es gibt bald ein klares Statement zur Rückgabe. Mein Händler hat erstmal ein RMA verweigert.

BitJäger
2015-01-26, 07:23:47
Nun geht die Nachricht durch das Netz.

Nvidia bestätigt limitierten Speicher der GeForce GTX 970 (http://www.computerbase.de/2015-01/geforce-gtx-970-speicherprobleme-statement/?utm_source=newsletter-daily&utm_medium=email&utm_content=html&utm_term=content-title&utm_campaign=newsletter-daily)

GeForce GTX 970 - NVIDIA räumt Beschränkungen bei der Nutzung der 4 GByte Hauptspeicher ein (http://ht4u.net/news/30578_geforce_gtx_970_-_nvidia_raeumt_beschraenkungen_bei_der_nutzung_der_4_gbyte_hauptspeicher_ein/)

Die Geforce GTX 970 hat ein kurioses Videospeicher-Problem (http://www.golem.de/news/maxwell-grafikkarte-die-geforce-gtx-970-hat-ein-kurioses-videospeicher-problem-1501-111925.html)

Avalance
2015-01-26, 08:20:00
Ich hoff mal da generiert sich kein zu großer Shitstorm daraus :rolleyes: wie gesagt, die P/L ist ja dennoch okay für die Desktop 970, und Ottonormaluser der in Full HD die Titel bei "alles ultra" spielt, sollte davon auch noch nichts merken dürfen (??oder??). Andererseits, ein kleiner Hieb vor den Bug macht vllt. schon Sinn, ich mein man hat ja eh das Monopol und dreht Kunden dann auch noch sowas an :rolleyes: (wobei die 4GB auch physisch da sind nur die letzten 500MB halt n bisschen sehr langsam angesprochen werden).

Ich hab mal im NBC und MSI Forum einen Thread aufgemacht um die Situation bei den Mobilen Chips zu "sammeln", die von einem solchen Umstand noch etwas "härter" getroffen sein könnten (Leistungstechnisch und auf Zukunftsaussichten, denn mobile Gamer sind halt teurer und mit Aufrüsten ist meistens nicht viel).


Wobei man auch hier sagen muss, die Performance (zur Zeit) lässt keine Wünsche übrig bei den Mobilen Versionen, interessant wäre allerdings wie vor allem eine 970M 3GB oder 980M 4GB abschneidet, denn ich kenne nur die 970M 6GB und 980M 8GB (wo jeweils ca. 500MB "langsam sind") und wenn´s da die letzten 500MB sind bekommt man das nicht mit bevor die Chips End of Life haben.

http://www.notebookchat.com/index.php?topic=49498.msg245279#msg245279
http://msi-forum.de/index.php?page=Thread&postID=841663#post841663

Grüße
aVa

Angiesan
2015-01-26, 09:03:25
Na da passiert ja wirklich mal was, aber mal sehen was als nächstes kommt ;-)ich vermute mal, dass jetzt Tests folgen, die genau das gleich machen was NV schon selbst gemacht hat.
Es werden nur die FPS gemessen, die teuren FCat Systeme sind bei vielen eh schon in der Versenkung verschwunden, warum eigentlich :confused:

Ich kann nur soviel dazu sagen, ich habe damals bei der GTX 670 und des nicht voll unterstützten DX Level mal einen Test gefahren und ein großer Händler hat nach ausführlicher Erklärung des Problems zugestimmt die Karte zu retournieren.
Es liegt ein klarer Sachmangel vor, der von dem Hersteller auch bestätigt wurde, da ist kein Interpretationsspielraum.

Ob nun heute ein Problem vorliegt oder nicht spielt in dem Fall auch keine Rolle, da das Produkt eine zugesicherte und beworbene Eigenschaft nur eingeschränkt zur Verfügung stellen kann. Wenn ein Händler die Retoure verweigert und nicht von seinem Rückgriffsrecht auf seinen Lieferanten Gebrauch macht, muss man ihn halt mit leichtem Druck dazu zwingen.
Es kann nicht sein, dass einige Händler ihre Marktmacht nutzen um Anfragen von Kunden zurückschmettern, wir reden hier nicht von wollen sondern von müssen!
Es gibt da auch recht gute Beispiele aus der Automobilindustrie, einige BMW M Motoren hatten in der Vergangenheit Probleme die versprochenen Leistung zu liefern, natürlich waren die Fahrzeuge trotzdem in der Lage die 250 KM/H Grenze (der freiwilligen Beschränkung) zu erreichen. Konnte sich BMW da rausreden und sagen na das Ding läuft doch die versprochenen 250 Sachen? Nein das konnten sie nicht, da die Differenzen zum Teil deutlich über den Toleranzgrenzen waren die man als üblich ansieht.
Da konnte man auch keine Diskussion losbrechen wo kann man die Leistung den ausfahren, oder merken sie das wirklich, oder sie leben in einem Land mit Geschwindigkeitsbeschränkung, wir schützen sie davor eine Straftat zu begehen ;)

MechWOLLIer
2015-01-26, 09:09:45
Na da passiert ja wirklich mal was, aber mal sehen was als nächstes kommt ;-)ich vermute mal, dass jetzt Tests folgen, die genau das gleich machen was NV schon selbst gemacht hat.
Es werden nur die FPS gemessen, die teuren FCat Systeme sind bei vielen eh schon in der Versenkung verschwunden, warum eigentlich :confused:


Ich vermute deswegen, da der Aufwand für FCAT einfach nur unglaublich hoch ist. Das ganze Ding ist einfach nur krass umständlich und fehleranfällig und bringt eben auch nur in gewissen Situationen etwas.

Dural
2015-01-26, 09:17:32
Wo ist den bitte ein Fehler? Die Karten werden mit 4GB verkauft und haben auch 4GB. Auch wenn die letzten paar MB nicht Vollspeed gehen kann man da wohl kaum von fehlender Beworbener Eigenschaften sprechen.

Eine billig Desktop Karten mit 8GB und nur 64Bit Anbindung kann man ja auch kaum zurück geben mit der Begründung "mit dieser Bandbreite sind die 8GB nicht sinnvoll nutzbar obwohl sie beworben wurden"

Die Karte ist Preis/Leistung immer noch Super. Aber ich mag das jetzt allen User gönnen die gesagt haben man sei blöd für den Aufpreis eine 980 zu kaufen :P

robbitop
2015-01-26, 09:18:47
Einen Shitstorm hat NV aber verdient. Die GTX970 ist eine gute Karte. Es wurde aber um diese Limitierung um keinster Weise aufgeklärt und wurde jetzt zufällig aufgedeckt. Dinge nicht zu erzählen, entspricht einer Lüge.
Effektiv ist die GTX970 offenbar eine GPU mit 3,5 GiB VRAM. Natürlich reizen heutige Spiele das selten aus. Aber die Situation wird sich verschlimmern. Das ist empirisch gesehen schon immer so gewesen. VRAM Bedarf steigt. In 1-2 Jahren könnte das ein nervender Nachteil sein. Produkte sollten nicht nur für die Gegenwart bewertet werden sondern auch für die vorhersehbare Zukunft des Lebenszyklus des Produktes beim Kunden. Die Wenigsten kaufen alle paar Monate neue HW.

Wäre NV von Anfang an offen damit umgegangen, wäre es OK gewesen - so aber hat man dreist gelogen. (absichtliches Auslassen wesentlicher Informationen)

M4xw0lf
2015-01-26, 09:20:28
Hat denn wirklich keine Redaktion nen IR-Messgerät? Das will ich jetzt wissen ;)
Doch, es gibt einige, die standardmäßig IR-Aufnahmen ihrer Testsamples veröffentlichen. Ich bin mir grade nicht sicher, aber möglicherweise auch hardware.fr und guru3d? - Ich suche mal.

€: hardware.fr hat auf jeden Fall schon öfter Aufnahmen gezeigt: http://www.hardware.fr/articles/926-8/bruit-temperatures-thermographie.html
€2: und guru3d ebenfalls. http://www.guru3d.com/articles_pages/msi_geforce_gtx_960_gaming_oc_review,9.html
Bei den bisher veröffentlichten GTX970-Reviews von Guru3d konnte ich allerdings noch keine finden, wo der Ram überhaupt sichtbar ist. Müsste auf jeden Fall extra gemessen werden, indem man den Kühlkörper entfernt... :freak:

robbitop
2015-01-26, 09:21:33
Wo ist den bitte ein Fehler? Die Karten werden mit 4GB verkauft und haben auch 4GB. Auch wenn die letzten paar MB nicht Vollspeed gehen kann man da wohl kaum von fehlender Beworbener Eigenschaften sprechen.
Stell dich nicht dümmer als du bist. Die letzten 500 MiB sind um Größenordnungen langsamer als die ersten 3,5 GiB und damit praktisch nicht nutzbar. Es kommt zu Rucklern. Die sind so viel langsamer, dass es das gleiche Ergebnis ist, als wenn man über den RAM (über PCIe) alloziert. Wenn das nicht sogar der Fall ist - siehe Coda.


---------------------

Bei den Nail Benchmarks war die Datenrate der ersten 3,5 GiB ca. 12 % niedriger als bei der GTX980. Ist man sich wirklich ganz sicher, dass es nicht so sein könnte, wie Coda vermutet und nicht einfach 1x Baustein nicht genutzt wird und damit nur ein 224 bit SI vorliegt?

Dural
2015-01-26, 09:21:35
Das stimmt schon, aber da hat mal wieder das Geld reagiert.

NV war wohl bewusst wenn sie von Anfang an diese Problem ansprochen hätten, sie sicherlich deutlich weniger Karten verkauft hätten.

Angiesan
2015-01-26, 09:23:24
@Dural: Dein Vergleich hinkt, es werden 256 Bit mit 3500 MHz Speichertakt beworben, NV selbst spricht gar von 320 Bit SI durch das cachen im L2, als überdenke deine Aussage noch mal ob das wirklich das Gleiche ist ;-)

@ Coda: HT4y machen das doch auch mit dem Wärmebild. Ich glaube aber nicht daran, das ist das gleiche Problem wie damals bei der GTX 660 die konnte die letzten 512 MB auch nur mit knapp 40 GB/s anbinden ist halt immer noch schneller wie über den PCIe Bus ;-) und fällt unter FHD auch nicht wirklich auf ab 1440p ist aber Ende und dann reicht es oft auch nicht mehr für mittlere Details, aber dafür wurde die auch nie gebaut, oder gekauft :-)

Thunder99
2015-01-26, 09:25:35
Ich hoff mal da generiert sich kein zu großer Shitstorm daraus :rolleyes: wie gesagt, die P/L ist ja dennoch okay für die Desktop 970, und Ottonormaluser der in Full HD die Titel bei "alles ultra" spielt, sollte davon auch noch nichts merken dürfen (??oder??). Andererseits, ein kleiner Hieb vor den Bug macht vllt. schon Sinn, ich mein man hat ja eh das Monopol und dreht Kunden dann auch noch sowas an :rolleyes: (wobei die 4GB auch physisch da sind nur die letzten 500MB halt n bisschen sehr langsam angesprochen werden).

Ich hab mal im NBC und MSI Forum einen Thread aufgemacht um die Situation bei den Mobilen Chips zu "sammeln", die von einem solchen Umstand noch etwas "härter" getroffen sein könnten (Leistungstechnisch und auf Zukunftsaussichten, denn mobile Gamer sind halt teurer und mit Aufrüsten ist meistens nicht viel).


Wobei man auch hier sagen muss, die Performance (zur Zeit) lässt keine Wünsche übrig bei den Mobilen Versionen, interessant wäre allerdings wie vor allem eine 970M 3GB oder 980M 4GB abschneidet, denn ich kenne nur die 970M 6GB und 980M 8GB (wo jeweils ca. 500MB "langsam sind") und wenn´s da die letzten 500MB sind bekommt man das nicht mit bevor die Chips End of Life haben.

http://www.notebookchat.com/index.php?topic=49498.msg245279#msg245279
http://msi-forum.de/index.php?page=Thread&postID=841663#post841663

Grüße
aVa
Nochmal extra für dich. Die Karte ist für mehr als FHD ausgelegt! Selbst in FHD kannst du die Karte an die 4GB Grenze bringen. Envolve ist so ein Beispiel (close Beta). Es wird aber nicht das einzige Spiel bleiben!

Weiter vermute ich nach meinen Messungen gestern das in der Tat eher die letzten 512MB auf der HDD ausgelagert werden und dann die Grafikkarte genutzt wird (sie 3,4GB und 3,7GB Screenshots mit ProcessExplorer) :confused: . Meine SSD wird es danken...

Und nochmal, die 970M und 980M sind nicht betroffen da nvidia den Cut dort nicht gemacht hat!

Dural
2015-01-26, 09:28:29
ich würde mich auch ziemlich verarscht vorkommen wenn ich eine 970 gekauft hätte.

Jetzt bin ich froh das ich es nicht getan habe.

An die 224Bit Theorie glaube ich aber nicht, es hat wohl schon fast mit den SMM oder Cache zutun.

mironicus
2015-01-26, 09:35:26
Manche 4K-Benchmarks in der Vergangenheit zeigten schon häufig das die GTX 970 ungewöhnlich stark einbricht gegenüber ihrer größeren Schwester - mehr als "normal" üblich war.

Konsequenz für den Kunden kann nur die zukünftige Vermeidung von jeglichen NVidia-Produkten sein.

BlacKi
2015-01-26, 09:43:33
falls jemand den link zu tool sucht Nai's Vram Benchmark download https://mega.co.nz/#!5pU0TZzI!bYaoUsJN9NvEWcO-2_ocg6cZ5EnrRoLzGqI2HG9mZG0

dargo
2015-01-26, 09:45:06
Das stimmt schon, aber da hat mal wieder das Geld reagiert.

NV war wohl bewusst wenn sie von Anfang an diese Problem ansprochen hätten, sie sicherlich deutlich weniger Karten verkauft hätten.
Also doch vorsätzliche Kundentäuschung?

Dawn on Titan
2015-01-26, 09:57:13
Hätte man es gesagt, hätte ich ne 980 gekauft. Die jetzige Situation ist sehr unbefriedigend. Eigentlich wäre nur ein Umtausch der Karte richtig.

mironicus
2015-01-26, 09:58:08
Bei diesen VRAM-Test bricht meine 970 bereits ab 3,2 Gigabyte ein (22 GB/S). Bein letzten Speicherbereich (3800) sind es nur noch kümmerliche 8 Gigabyte/S.

Dawn on Titan
2015-01-26, 10:00:55
DWM aus?

BZ
2015-01-26, 10:02:14
Bei diesen VRAM-Test bricht meine 970 bereits ab 3,2 Gigabyte ein (22 GB/S). Bein letzten Speicherbereich (3800) sind es nur noch kümmerliche 8 Gigabyte/S.

So auch bei meiner Karte zu beobachten. :mad:

Exxtreme
2015-01-26, 10:03:02
Bei diesen VRAM-Test bricht meine 970 bereits ab 3,2 Gigabyte ein (22 GB/S). Bein letzten Speicherbereich (3800) sind es nur noch kümmerliche 8 Gigabyte/S.
Wenn der Test im Fenster läuft dann ist das Verhalten normal und wird auch auf anderen Nvidia-Grafikkarten passieren.

Lowkey
2015-01-26, 10:07:19
Das erinnert mich an die letzte "Verschwiegenheit" von Nvidia zum Thema DX 11.1

http://www.3dcenter.org/news/nvidias-geforce-600-serie-unterstuetzt-offiziell-kein-directx-111

Damals wurde es auch im Unklaren gelassen.

Thunder99
2015-01-26, 10:22:00
So, nochmaliger Vergleich der VRAM Auslastung und was auf die HDD gelagert wird. Es wird nach meinem Vergleich eher die HDD bevorzugt genutzt bevor die letzten 512MB VRAM angesprochen werden :freak: .

Reihenfolge: 4k SMAA, 4k TXAA2, 4k TXAA2 mit mehr Bewegung, 4k TXAA4 (mehrmals Nachladeruckler), 1620p TXAA4 mit Nachladeruckler

http://abload.de/thumb/gtx970vramverbrauchfcbpu3p.png (http://abload.de/image.php?img=gtx970vramverbrauchfcbpu3p.png)http://abload.de/thumb/gtx970vramverbrauchfc06u03.png (http://abload.de/image.php?img=gtx970vramverbrauchfc06u03.png)http://abload.de/thumb/gtx970vramverbrauchfcauurf.png (http://abload.de/image.php?img=gtx970vramverbrauchfcauurf.png)http://abload.de/thumb/gtx970vramverbrauchfczquol.png (http://abload.de/image.php?img=gtx970vramverbrauchfczquol.png)http://abload.de/thumb/gtx970vramverbrauchfcljuu1.png (http://abload.de/image.php?img=gtx970vramverbrauchfcljuu1.png)

Angiesan
2015-01-26, 10:26:16
Ich vermute deswegen, da der Aufwand für FCAT einfach nur unglaublich hoch ist. Das ganze Ding ist einfach nur krass umständlich und fehleranfällig und bringt eben auch nur in gewissen Situationen etwas.

Du bist doch meines Wissens nach Redakteur, das hat sich zu Zeiten wie es relevant war um die Schwächen des roten Vereins aufzuzeigen aber noch ganz anders angehört. :rolleyes: Das ist jetzt nicht auf Dich bezogen, sondern eher auf deine Zunft. :wink:

BlacKi
2015-01-26, 10:27:56
wird nicht normalerweise in den ram ausgelagert?

und zur speicher auslastung: deine gpu auslastung bricht nicht ein, so kann man sagen das die gpu nicht auf den speicher wartet, d.h. die ruckler werden nicht durch den speicher erzeugt oder?

robbitop
2015-01-26, 10:31:25
An die 224Bit Theorie glaube ich aber nicht, es hat wohl schon fast mit den SMM oder Cache zutun.
Gut, dass du dich da auf deinen Glauben verlässt.

Caching erklärt IMO nicht die geringeren Durchsatzraten im Nail Tool. Da werden sequenziell 128 MiB Chunks geschrieben. Da sollte der Cache zweitrangig, da zählt nur Durchsatz des SIs. Und dort war der Durchsatz der ersten 3,5 GiB signifikant langsamer als die GTX980. Man sollte das untersuchen.

So oder so wird es sicherlich jetzt von allen ernstzunehmenden 3D Redaktionen der Welt beäugt und es wird sicherlich die genaue Ursache an's Tageslicht kommen. Egal was wer vermutet. :)

Wenn der Test im Fenster läuft dann ist das Verhalten normal und wird auch auf anderen Nvidia-Grafikkarten passieren.
Gab es nicht Screenshots von einer GTX980 hier im Thread bei der das nicht der Fall war?

Angiesan
2015-01-26, 10:39:16
Es gibt ein Tool das nennt sich HWinfo 64 und kann man bei der CB runterladen, dort kann man unter Monitoring HW-Sensors, dann auf das Zahnrad ganz unten klicken und dann kann man den dedizierten V-Ram Verbrauch anzeigen lassen aber auch den dynamischen ;-) man braucht halt den RTSS dafür wenn man es im Spiel angezeigt haben will. Dabei bitte darauf achten die aktuelle Version ist 6.2.0 die funktioniert auch mit FC 4.

urbi
2015-01-26, 10:40:20
Wie ist das eigentlich? Sind jetzt 3584 oder 3328 MB schnell ansprechbar?

Erhalten Händler für sowas eigentlich Kompensationszahlungen? Muss ja eigentlich...oder werden mal wieder nur 1 Promille die Karten zurückgeben?

RMA bzw. Nachbesserung ist ja hinfällig, da bleibt ja nur "Geld-zurück".

Ja. Der deutsche Händler bei dem Du die Karte kaufst ist fein raus. Das deutsche Recht sieht vor dass die Lieferantenkette einfach rückwärts läuft, vgl. § 478 II BGB. Am Ende der Kette werden die NVIDIA-Partner / Hersteller (EVGA, MSI, Asus usw) stehen. Vielleicht haben die dann ein Problem ihrerseits ihre Rechte gegen NVIDIA durchzusetzen - das hängt davon ab wie die Verträge da gestaltet sind.

TobiWahnKenobi
2015-01-26, 10:41:13
sinniger als auflösungen, die eh nicht geschmeidig laufen, wäre ne nutzbare auflösung (1080 od. 1440p) + größere texturen. die framerate geht bei übertriebenen einstellungen nunmal zurück, egal wieviel RAM man hat. ich kriege bei 4k mit AA auch keine spielbaren frames zustande, was nicht daran liegt, dass ich zuwenig VRAM habe.

oder denkt hier irgendwer, dass aus ruckelnden 21fps plötzlich 45 oder gar 60 werden, wenn die popeligen 512mb voll cachbar respektive angebunden wären?!

mäh, die neue karte ist @4K ja gar nicht so toll wie ich dachte.. wenn ich sie doch nur zurückgeben könnte.. vllt sogar so dass ich ohne aufpreis was geileres kriege.. /lol


(..)

mfg
tobi

BitJäger
2015-01-26, 10:44:32
ich würde mich auch ziemlich verarscht vorkommen wenn ich eine 970 gekauft hätte.

Jetzt bin ich froh das ich es nicht getan habe.

An die 224Bit Theorie glaube ich aber nicht, es hat wohl schon fast mit den SMM oder Cache zutun.

Zum Glück habe ich diesen Thread vor meiner Kaufentscheidung gefunden. Nun sehe ich mich vor der Wahl GTX 980 oder R9 290X (8GB ?).

Angiesan
2015-01-26, 10:46:02
Tobi das stimmt, aber darum geht es nicht ;)

robbitop
2015-01-26, 10:47:07
Tja und in 1-2 Jahren haben Spiele >3,5 GB VRAM in FullHD geknackt. Und dann? Nicht immer nur die Gegenwart betrachten und nicht immer nur seine eigene subjektive Sicht darstellen.

IMO braucht man das nicht herunter zu spielen. NV hat schlichtweg die Leute belogen. Und genau das ist nicht OK. Das sollte man keinem IHV durchgehen lassen. IMO müssen sie daraus jetzt lernen und das benötigt nunmal den Druck aus der Öffentlichkeit / Presse.

Ja es wirkt sich aktuell nur in Extremsituationen aus. Aber was ist mit nächstem und übernächstem Jahr. Nicht alle kaufen sich ständig neue GPUs.

In Shadows of Mordor sollte es bspw bereits in 1440p mit Ultra Texturen auswirken. Das Spiel kippt unter diesen Umständen sogar die 6 GiB VRAM meiner Titans zu. Und das wird sich mit neuen kommenden Spielen nicht bessern.

Isen
2015-01-26, 10:47:23
Hatte meine 970er bereits seit gestern eingepackt und wollte die ja am Montag einpacken und wieder abgeben, wegen Widerrufsrecht der gilt ja noch bis Mittwoch bei mir.

Ich ging da rein, beide Kartons auf die Theke gelegt, während ich die Rechnung aus meiner Brieftasche raushole kam schon der Spruch: " Ahhhjaa... wieder eine 970er " ...

Naja hat beide nochmal angeguckt, ging kurz mit beiden weg... hab mein Geld nun wieder.

Exxtreme
2015-01-26, 10:48:40
Wie ist das eigentlich? Sind jetzt 3584 oder 3328 MB schnell ansprechbar?

Im Fenster 3328 MB, im Vollbild 3584 MB.

dargo
2015-01-26, 10:57:23
Tja und in 1-2 Jahren haben Spiele >3,5 GB VRAM in FullHD geknackt. Und dann?
Dann ist die Karte eh nur noch ~150€ wert. Und man kann bzw. muss eventuell die Texturauflösung eine Stufe reduzieren. Das könnte allerdings auch der GTX 980 passieren (0,5GB mehr schnell ansprechenden Vram ist jetzt nicht die Welt). ;) Mein Senf zu diesem Fall... es ist nicht dramatisch, aber auch nicht schön. NV hätte es von Anfang an entsprechend kommunizieren müssen. Durch diese Entdeckung verliert die Karte bei mir auf jeden Fall an wert. Somit sollte es für alle Käufer zumindest eine kleine finanzielle Entschädigung geben. Wie hoch ist hier nur die Frage. Und ob man das zb. mit bestimmten Spielegutscheinen auch kompensieren kann.


In Shadows of Mordor sollte es bspw bereits in 1440p mit Ultra Texturen auswirken. Das Spiel kippt unter diesen Umständen sogar die 6 GiB VRAM meiner Titans zu. Und das wird sich mit neuen kommenden Spielen nicht bessern.
Bitte nicht auch du noch. :usad:

Angiesan
2015-01-26, 10:59:47
Tja und in 1-2 Jahren haben Spiele >3,5 GB VRAM in FullHD geknackt. Und dann? Nicht immer nur die Gegenwart betrachten und nicht immer nur seine eigene subjektive Sicht darstellen.

IMO braucht man das nicht herunter zu spielen. NV hat schlichtweg die Leute belogen. Und genau das ist nicht OK. Das sollte man keinem IHV durchgehen lassen. IMO müssen sie daraus jetzt lernen und das benötigt nunmal den Druck aus der Öffentlichkeit / Presse.

Ja es wirkt sich aktuell nur in Extremsituationen aus. Aber was ist mit nächstem und übernächstem Jahr. Nicht alle kaufen sich ständig neue GPUs.

In Shadows of Mordor sollte es bspw bereits in 1440p mit Ultra Texturen auswirken. Das Spiel kippt unter diesen Umständen sogar die 6 GiB VRAM meiner Titans zu. Und das wird sich mit neuen kommenden Spielen nicht bessern.

Ja das sehe ich genau so, nur laufen viele Spiele eben auch mit 3 und 4 GB Karten sehr gut auch wenn bei einer Titan 6 GB belegt werden. Das von dir angesprochene Mordor ist so eine Gurke seit dem letzten Patch läuft das mit allem auf Vollgas auch mit 3 GB schon sehr anständig, mit 4 GB sollte das komplett flüssig laufen.
Es ist halt unglaublich schwer zu greifen, was wird belegt und was wird wirklich gebraucht an VRam:mad:

Ätznatron
2015-01-26, 11:06:36
Es ist halt unglaublich schwer zu greifen, was wird belegt und was wird wirklich gebraucht an VRam:mad:

Das ist sehr einfach festzustellen, du brauchst nur zwei Karten mit unterschiedlicher Speicherausstattung (möglichst gleicher Hersteller und gleiche GPU).

Dann weisst du genau, wie es sich verhält.

MechWOLLIer
2015-01-26, 11:11:27
Du bist doch meines Wissens nach Redakteur, das hat sich zu Zeiten wie es relevant war um die Schwächen des roten Vereins aufzuzeigen aber noch ganz anders angehört. :rolleyes: Das ist jetzt nicht auf Dich bezogen, sondern eher auf deine Zunft. :wink:
Der Unterschied ist einfach, dass sich Mikroruckler eben anders nicht messen konnten und es eben eine einmalige (bzw. zweimalige Sache nach dem Mikroruckler-Treiber) war. Das ist etwas anderes als andauernd mit FCAT die Frametimes zu messen.

Ätznatron
2015-01-26, 11:15:34
Das ist etwas anderes als andauernd mit FCAT die Frametimes zu messen.

Entweder man ist als Tester ambitioniert genug oder lässt es besser gleich bleiben...

dargo
2015-01-26, 11:16:25
Das ist sehr einfach festzustellen, du brauchst nur zwei Karten mit unterschiedlicher Speicherausstattung (möglichst gleicher Hersteller und gleiche GPU).

Und hier fangen schon die Probleme an. Nicht jede GPU hat zweifache Ausführung der Vram-Menge.

robbitop
2015-01-26, 11:16:40
Bitte nicht auch du noch. :usad:
Es ist ein empirisch belegter Fakt, dass der VRAM Bedarf stetig steigt. Mordor ist nur ein Beispiel aus der "Speerspitze" kommender Spiele - nicht was die Optik angeht - aber sehr wohl den Ressourcenhunger.

Das von dir angesprochene Mordor ist so eine Gurke seit dem letzten Patch läuft das mit allem auf Vollgas auch mit 3 GB schon sehr anständig, mit 4 GB sollte das komplett flüssig laufen.
Es ist halt unglaublich schwer zu greifen, was wird belegt und was wird wirklich gebraucht an VRam:mad:
Das mag sein - aber es wird mittelfristig kein Einzelbeispiel bleiben.

mironicus
2015-01-26, 11:18:07
Die Spielehersteller könnten aber auch sparsamer mit dem GPU-Speicher umgehen, was ist z.B. mit Kompressions-Techniken? Manche Spiele sind heute schon 50 GB lang und da frage ich mich manchmal warum die Hersteller hier nichts machen.

Isen
2015-01-26, 11:18:27
@MechWOLLIer,

was macht dein Test dann Wertvoller, als wenn jeder 0815-Type das ebenso machen kann?
Aus Nächstenliebe macht niemand die Arbeit.... wo ist der Mehrwert für den Leser, der selbst nur 0815 Tests machen kann?
Ausführliche Ambitionierte Tests, sind ein echter Mehrwert, als eigene 0815-Tests.
Nebenbei decken die Tests ein viel breiteres Informationsfeld ab, wo es sich deutlich leichter zu argumentieren lohnt.

Angiesan
2015-01-26, 11:19:03
@MechWOLLIer: Verstehe ich, danke für deine Antwort.

Ätznatron
2015-01-26, 11:19:36
Und hier fangen schon die Probleme an. Nicht jede GPU hat zweifache Ausführung der Vram-Menge.

Es reichen mindestens 2 GPUs, und die gibt es (bspw. vom GK110).

Du brauchst also nicht alle GPUs zu testen, sondern es sollte ausreichen, festzustellen, wann es bei der 3 GB GK110 zu ruckeln anfängt, während die 6GB-Karte noch ruckelfrei läuft.

Dann kannst du zumindest schon mal Aussagen treffen.

robbitop
2015-01-26, 11:21:00
Die Spielehersteller könnten aber auch sparsamer mit dem GPU-Speicher umgehen, was ist z.B. mit Kompressions-Techniken?
Texturen werden immer komprimiert. Da ist nicht mehr so viel zu holen. Und wer ineffizient umgeht und wer nicht, lässt sich von außen nur schwerlich beurteilen.

Was halt richtig VRAM kostet, ist dass man immer mehr Content/Assets liefert und Texturwiederholung immer seltener Wird. Das kostet nunmal.
Auch ist der Speicherbedarf bei DR-Engines gestiegen, da man bei heutigen renderpipelines mit mehreren weiteren Puffern abseits des klassischen Framebuffers arbeitet.

dargo
2015-01-26, 11:21:23
Es ist ein empirisch belegter Fakt, dass der VRAM Bedarf stetig steigt. Mordor ist nur ein Beispiel aus der "Speerspitze" kommender Spiele - nicht was die Optik angeht - aber sehr wohl den Ressourcenhunger.

Darum gehts mir gar nicht sondern darum, dass du der Meinung bist nur weil deine Graka xGB reserviert diese auch benötigt werden. Die GPU-Last steigt übrigens auch stätig in den Jahren wenn du es so sehen willst. ;)

dargo
2015-01-26, 11:26:23
Es reichen mindestens 2 GPUs, und die gibt es (bspw. vom GK110).

Du brauchst also nicht alle GPUs zu testen, sondern es sollte ausreichen, festzustellen, wann es bei der 3 GB GK110 zu ruckeln anfängt, während die 6GB-Karte noch ruckelfrei läuft.

Dann kannst du zumindest schon mal Aussagen treffen.
In diesem Fall gebe ich dir recht. Es geht hier aber speziell um die GTX970. Also wäre es sinnvoller eine mit "3,5GB" und eine mit "7GB" zu vergleichen.

robbitop
2015-01-26, 11:26:26
Darum gehts mir gar nicht sondern darum, dass du der Meinung bist nur weil deine Graka xGB reserviert diese auch benötigt werden. Die GPU-Last steigt übrigens auch stätig in den Jahren wenn du es so sehen willst. ;)
Korrekt in beiden Fällen.
Allerdings wird sicher nicht grundlos reserviert. Für den Fall das man die reservierten Daten braucht, müssen sie nicht erst spontan geladen werden. Das hat sicher auch einen Einfluss.

Eine GTX 680 ist für aktuelle Spiele noch halbwegs schnell genug. Aber es passiert auch schneller als man denkt, dass die 2 GiB VRAM zum Flaschenhals werden. Rechenleistung und VRAM Bedarfssteigerung ist nicht notwendigerweise gleich hoch. Insbesondere in Zeiten, in denen man ewig lange auf Shrinks warten muss und jede Gen nur noch +50 % Leistung bringt - aber häufig +100 % mehr VRAM.

Ätznatron
2015-01-26, 11:33:36
In diesem Fall gebe ich dir recht. Es geht hier aber speziell um die GTX970. Also wäre es sinnvoller eine mit "3,5GB" und eine mit "7GB" zu vergleichen.

Es geht darum, wieviel Speicher notwendigerweise belegt wird.

Die Unterschiede werden trotz unterschiedlicher Architekturen nicht so gewaltig ausfallen, dass ein Spiel auf einem GK110 plötzlich Unmengen an Mehrspeicher gegenüber einer Maxwell-Karte brauchen sollte.

Die Unterschiede werden marginal sein.

Kann man auch schön testen, in dem man identische Settings wählt, die in jedem Fall unterhalb der max. VRAM-Menge der jeweiligen Karten bleiben sollten.

edit: Ich führe seit Jahren so eine Art Statistik bzgl. VRAM-Gebrauch (da ich gerne modde) und selbst architekturübergreifend (von AMD zu NV oder vice versa) sind mir keine wirklich erheblichen Unterschiede in der Belegung aufgefallen, vielleicht Differenzen von 200MB, wenn überhaupt.

Exxtreme
2015-01-26, 11:35:51
Die Spielehersteller könnten aber auch sparsamer mit dem GPU-Speicher umgehen, was ist z.B. mit Kompressions-Techniken? Manche Spiele sind heute schon 50 GB lang und da frage ich mich manchmal warum die Hersteller hier nichts machen.
Bei verlustfreier Kompression muss man den gesamten Speicher immer vorhalten. Deshalb kann man nichts sparen.

dargo
2015-01-26, 11:38:55
Korrekt in beiden Fällen.
Allerdings wird sicher nicht grundlos reserviert. Für den Fall das man die reservierten Daten braucht, müssen sie nicht erst spontan geladen werden. Das hat sicher auch einen Einfluss.

Da sagt mir dieser Test aber was anderes.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html

Wie kommt es zu diesen unterschiedlichen Speicherreservierungen wenn beide GPUs die gleiche Menge haben?


Eine GTX 680 ist für aktuelle Spiele noch halbwegs schnell genug. Aber es passiert auch schneller als man denkt, dass die 2 GiB VRAM zum Flaschenhals werden.
Völlig am Thema vorbei. Hier gehts nicht um 2GB vs. 4GB sondern 3,5GB vs. 4GB.

Dural
2015-01-26, 11:50:44
Eventuell ist es doch ein Hardware Bug und er viel beim Testen nicht auf, die meisten ES Karten dürften doch sicher mit allen Einheiten laufen.

Isen
2015-01-26, 11:53:04
Wenn Tests nicht mehr dazu dienen, derartiges aufzudrecken, was ist dann noch der Grund für solche Tests? ... Copy & Past scheint ja nicht mehr zu helfen, Hinterfragen (lieber nicht?) ?

MechWOLLIer
2015-01-26, 11:58:45
Entweder man ist als Tester ambitioniert genug oder lässt es besser gleich bleiben...
Nimms mir nicht bitte übel, aber so Sätze können nur von jemanden kommen, der von dem Job einfach nicht die geringste Ahnung hat.

@Isen
Natürlich möchte man sich von den Redakteurs-Kollegen absetzen (mit wer weiß was) und versucht dies auch. Und macht auch Dinge, die komplexer sind und mehr Zeit kosten als bis dato. Doch brauchen die Sachen eine nötige Balance aus Arbeitsaufwand und Nutzen/Vorteile. Dass muss man das entscheiden, ob sich das lohnt, oder ob man von etwas anderem mehr hat.

Die Frage ist jetzt nur, in wie weit das in den Thread hier rein passt ;)

Slashman
2015-01-26, 12:01:18
Mal so eine Frage ist das überhaupt schlimm wenn nur 3,5 GB genutzt wird? 99% aller Spiele nutzen doch nie mehr als 3 GB Vram... eher nur 2-3 GB (Aktuell), aber klar einen 6 GB fresser gibt es auch.

Ätznatron
2015-01-26, 12:02:56
Nimms mir nicht bitte übel, aber so Sätze können nur von jemanden kommen, der von dem Job einfach nicht die geringste Ahnung hat.

Muss ich auch nicht.

Aber als Leser darf ich eine gewisse Erwartungshaltung bzgl. des Testniveaus haben.

Noebbie
2015-01-26, 12:07:29
In die Tests müsste dann eine Anwendung, die nicht zu viel GPU Last erzeugt aber definitiv den VRAM komplett vollknallt. Dann könnte man sowas früher aufdecken.

Isen
2015-01-26, 12:07:55
@Slashman,

vorerst für Spiele die sich mit 3-3,5Gb begnügen sicher nicht, und stellt Aktuell noch die Mehrheit dar. Wenn man allerdings breits jetzt schon Games hat, die einfach mehr wollen und auch schon weitere auf den Weg sind, hat man bei diesen schon ein Problem....
Bei dieser Preisklasse wird die Karte doch schon mindestens 1 Jahr benutzt, wenn nicht sogar 2-3...

MechWOLLIer
2015-01-26, 12:10:03
Muss ich auch nicht.

Aber als Leser darf ich eine gewisse Erwartungshaltung bzgl. des Testniveaus haben.
Natürlich darfst du das. Nur muss der entsprechende Redakteur vor jedem Artikel entscheiden, in wie weit er seine vorhandenen Ressourcen innerhalb eines gegebenen Zeitrahmens investiert. Und ihr dürft nicht vergessen: Die Zielgruppe im 3DC ist sehr speziell. Das ist zwar viel wert, doch muss jeder Redakteur eben auch die "Massen" ansprechen.

So, und nun genug von mir zu dem Thema, das hört hier nur arg bedingt rein.

Angiesan
2015-01-26, 12:10:11
Da sagt mir dieser Test aber was anderes.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html

Völlig am Thema vorbei. Hier gehts nicht um 2GB vs. 4GB sondern 3,5GB vs. 4GB.

Ne sehe ich anders: Die Standards der Industrie sind 1GB, 2GB, 3GB und 4GB.
Man wird in Zukunft eher kein Spiel finden, das auf 3,5 Gb optimiert ist.
Es werden 2,3 oder 4 GB sein je nachdem wie schnell die Durchdringung sein wird, 3 GB ist quasi aktuell der Standard und viele Spiele setzten das auch in 1440p voraus um die maximale Qualität abzuliefern.
Ich glaube man kann davon ausgehen, dass der neue Standard 4GB sein wird, da hilft es dann auch nicht das man mit 3,5 das ganze nur knapp verfehlt hat:freak:

Frag mal die vielen GTX 670/680 und 770 Nutzer was man mit 2GB in neuen Spielen noch reißen kann, die Rechenleistung würde oft noch reichen, aber der Speicher geht aus, dass es so schnell geht hätte ich auch nie vermutet,
ist aber so.

duzenko
2015-01-26, 12:17:34
It says using device GTX 970 and nothing happens.

http://fs2.directupload.net/images/150125/sjz5fqkh.png

Same here with Hawaii and OpenCL.
CPU-Test runs fine but only uses 1GB out of 16GB.

New version, runs on a Radeon
http://www.filedropper.com/oclmembench
http://firepic.org/images/2015-01/26/tjm84ewvfck7.png

robbitop
2015-01-26, 12:23:35
Da sagt mir dieser Test aber was anderes.
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html

Wie kommt es zu diesen unterschiedlichen Speicherreservierungen wenn beide GPUs die gleiche Menge haben?

Was willst du mir mit diesem russischen Link sagen? Ich bin dieser Sprache nicht mächtig. Eine Grafikkarte reserviert sich sicherlich nicht aus Spaß mehr VRAM als gerade genutzt wird. Egal was ein russischer Test sagt - das ist sicherlich nur eine Blitzlichtaufnahme.


Völlig am Thema vorbei. Hier gehts nicht um 2GB vs. 4GB sondern 3,5GB vs. 4GB.
Du entscheidest, was am Thema vorbei ist? Es ging um eine Analogie und die ist treffend. Nur die Intensität der Auswirkung ist geringer.

Völlig ohne Frage ist es, dass 512 MiB VRAM Verlust wesentlich weniger schlimm sind. Aber dennoch fehlen sie praktisch. Und das kann in Einzelsituationen zu unterschiedlichen Spielerlebnissen führen. Das hatte ein User, der von der GTX970 SLI auf GTX980 SLI (dort hat man dann auch genug Rechenleistung um in diese Situation zu kommen) bereits bestätigt.

Gerade SLI Käufer, welche gleich 2x Karten kaufen und die Leistung für Extremsituationen (4K, 5K, DSR, Texturmods etc) haben sind mit den 4 GiB VRAM wirklich eng dran. Da tut dann stellenweise jedes MB weh.

Am Ende ist es auch völlig egal, wie stark die Auswirkung ist. Wesentlich ist, dass IHVs so ein Verhalten aberzogen werden muss.

Raff
2015-01-26, 12:34:20
Natürlich darfst du das. Nur muss der entsprechende Redakteur vor jedem Artikel entscheiden, in wie weit er seine vorhandenen Ressourcen innerhalb eines gegebenen Zeitrahmens investiert. Und ihr dürft nicht vergessen: Die Zielgruppe im 3DC ist sehr speziell. Das ist zwar viel wert, doch muss jeder Redakteur eben auch die "Massen" ansprechen.

... und dann hat der Kram gefälligst auch kostenlos und ohne Werbung zu sein, jawoll! :freak:

Hinter einem vernünftigen Grafikkartentest steckt unfassbar viel Aufwand, das ist den wenigsten Leuten bewusst (woher auch).

MfG,
Raff

Schaffe89
2015-01-26, 12:35:16
New version, runs on a Radeon

Welche Radeon wurde da getestet?
Wenn nur 1343mb V-ram "available" ist, dann muss man offenbar schonmal die Tetsmethodik hinterfragen.

Bitte ein Test mit einer r9 290!
Mit 53GB/s dürfte das ja eher ne IGP sein?

Effe
2015-01-26, 12:37:57
Steht doch da: Capeverde, also eine 7770/50 oder 250(X). Die geringe Bandbreite lässt auf 2GB DDR3 schließen.

Matrix316
2015-01-26, 12:38:43
... und dann hat der Kram gefälligst auch kostenlos und ohne Werbung zu sein, jawoll! :freak:

Hinter einem vernünftigen Grafikkartentest steckt unfassbar viel Aufwand, das ist den wenigsten Leuten bewusst (woher auch).

MfG,
Raff
Eigentlich müsste doch dieses Thema ein gefundenes Fressen für alle Hardware Magazine sein, oder? Da ist die hohe Auflage oder sind viele Klicks doch schon quasi garantiert, weil es ganz viele interessiert.

duzenko
2015-01-26, 12:38:44
Welche Radeon wurde da getestet?
Wenn nur 1343mb V-ram "available" ist, dann muss man offenbar schonmal die Tetsmethodik hinterfragen.

Bitte ein Test mit einer r9 290!
Mit 53GB/s dürfte das ja eher ne IGP sein?

It was a 250X with 2GB memory and a 128-bit bus. An IGP would show about 10GB/s.
Sorry, I don't own a r9 290

Dawn on Titan
2015-01-26, 12:39:23
Die Frage, die ich mir stelle lohnt sich ein RMA Kampf. Die erste Reaktion eines großen Versenders war negativ. Gut jetzt könnte man mit mehr Druck oder Anwalt was erreichen, die Frage ist lohnt das? Ich hoffe die Presse schafft da etwas Druck und erreicht eine Lösung für die Kunden.

derguru
2015-01-26, 12:47:18
na hoffentlich, die frage für mich bleibt trotzdem erst mal drauf sitzen bleiben und die neue gen abwarten was die können oder gleich ne 980gtx holen,im gpu-limit sind es ja knapp 25% vorsprung, auch nicht gerade wenig.

nv soll per biosupdate aus den 970iger halt eine 980 machen und gut ist.;D

Dawn on Titan
2015-01-26, 12:49:12
Ich überlege auch ne 980 zu holen. Schade, dass mein Step-up einige Tage vor dem Bekanntwerden des Problems auslief... Auf der anderen Seite habe ich von den Problemen bisher auch nichts gemerkt.

Angiesan
2015-01-26, 12:56:01
... und dann hat der Kram gefälligst auch kostenlos und ohne Werbung zu sein, jawoll! :freak:

Hinter einem vernünftigen Grafikkartentest steckt unfassbar viel Aufwand, das ist den wenigsten Leuten bewusst (woher auch).

MfG,
Raff
Abgesehen, dass es hier nicht hingehört, habe ich euer Heft seit Jahren im Abo.
Wenn ich mir die Qualität der Berichte so anschaue frage ich mich warum?
Das beste Beispiel ist doch hier wieder der Bericht über NV´s Gameworks.
Der Bericht strotzt nur so von inhaltlichen Fehlern, falsche Ingame- Bezeichnungen, falsche Beschriftung an den Bildern..... da wundert es mich nicht das der Wunsch aufkommen könnte, dass es nix kostet :P
Sorry aber wer hat damit angefangen, ach übrigens herzlichen Glückwunsch nachträglich zur Position des Leitenden Redakteurs :biggrin:

Thunder99
2015-01-26, 13:02:43
Ha doch, wenn ich bei einer Bewegung ein Peak in der Frametime habe wird was ausgelagert oder nicht in Fullspeed berechnet

Schaffe89
2015-01-26, 13:03:48
It was a 250X with 2GB memory and a 128-bit bus. An IGP would show about 10GB/s.
Sorry, I don't own a r9 290

Wehre is the source to download this stuff?
I will check it with my r9 290 and r9 290x:smile:

duzenko
2015-01-26, 13:07:04
Wehre is the source to download this stuff?
I will check it with my r9 290 and r9 290x:smile:
The exe files are here: https://drive.google.com/file/d/0B9OoHSmkeSeNbGFEaTdkaDdON1k/view?usp=sharing
Source code is here: https://github.com/duzenko/OpenclMemBench

Raff
2015-01-26, 13:07:56
Abgesehen, dass es hier nicht hingehört, habe ich euer Heft seit Jahren im Abo.
Wenn ich mir die Qualität der Berichte so anschaue frage ich mich warum?
Das beste Beispiel ist doch hier wieder der Bericht über NV´s Gameworks.
Der Bericht strotzt nur so von inhaltlichen Fehlern, falsche Ingame- Bezeichnungen, falsche Beschriftung an den Bildern..... da wundert es mich nicht das der Wunsch aufkommen könnte, dass es nix kostet :P
Sorry aber wer hat damit angefangen, ach übrigens herzlichen Glückwunsch nachträglich zur Position des Leitenden Redakteurs :biggrin:

Poste das Artikel-Feedback doch bitte etwas präziser im PCGH-Forum, dann sehen wir, ob wir etwas klären können. :)

MfG,
Raff

PS: Danke! Ich klinke mich hier aber direkt wieder aus, bis die Analysen spruchreif sind.

Skysnake
2015-01-26, 13:10:48
Der L2 hängt an den ROP-Partitions. Wenn das mit den 3,5GB stimmt, glaube ich immer noch, dass das Ding tatsächlich nur ein 224 bit Interface hat, NVIDIA aber 4GB drauf lötet.
Ob es ein 256 Bit Bus ist oder nicht, lässt sich eigentlich recht einfach klären.

Man muss an sich ja "nur" schauen, ob die Transferraten schnell genug sind, um mit einem 256Bit Bus bei den entsprechenden Taktfrequenzen überein zu stimmen.

Die große Frage ist da ja an sich nurvorhanden, wenn es Leistungsverluste gibt. Dann könnte es noch immer an nem schlechten Test, oder eben internen Verschaltungsproblemen liegen. Das könnte man nur mit ner GTX980 checken, dafür aber eben sehr sehr einfach.

Ansonsten würde noch die Möglichkeit bestehen, mit gewissen Workgroupe Größen zu probieren, aber das ist dann wirklich recht aufwendig.

Entweder ja, oder das Nvidia-Marketing streut wieder Sand in die müden Redakteurs-Augen, indem Settings genommen wurde welche auch die 980 zum Auslagern zwingen (> 4 GB VRAM-Anforderung.)
Schon allein, das man nur Avg FPS angibt ist genug. Wenn muss man ja davon ausgehen, das eben kurze Framedrops da sind, weil eben Daten benötigt werden, die bei der einen Krate da sind, bei der anderen aber nicht. Auf die Avg FPS hat das aber fast keinen Einfluss. Man müsste sich vielleicht mal überlegen, eher den RMS Wert an zu geben.

Auf jeden Fall muss man sagen, das nVidia hier natürlich versucht den Leuten Sand in die Augen zu streuen, und wenn ich mir die letzten Beiträge teils so anschaue, dann funktioniert das doch auch wunderbar :(

Eins muss man nVidia einfach lassen. Sie sind fast so gut im Marketing wie Apple, die da ja göttliche Fähigkeiten bewiesen haben in der Vergangenheit....

Man sieht aber dadurch, wie mühselig das hier alles ist, das nVidia einfach keine Whitepapers mehr rausgibt, und das schon seit Jahren inzwischen... Das ist einfach nur Grütze :mad::down: Aber von nVidia ist man ja nichts anderes gewohnt. Geheimniskrämerei bis zum geht nicht mehr, aber wenns Probleme gibt mauern, mauern und nochmal mauern. Sowas schadet einfach der ganzen Branche. Man stellt sich auch immer wieder die Frage, welche Leichen sie wohl im Keller haben, bzw auf was für Trivialitäten so manches beruht.

Übrigens könnten NVIDIA auch bescheißen und die 512MB "VRAM" auch einfach im PCIe-Aperture-Speicher allozieren und im Treiber dann als VRAM ausgeben.

Ja könnte durchaus sein.

Andere Möglichkeit wäre, dass die 0,25MB weniger L2-Cache dazu führen, dass die letzten 512 MB nicht gecacht werden können.
DAS ist eine verdammt gute Frage, die ich mir auch schon oft gestellt habe inzwischen. Hat das Ding jetzt 2MB L2 oder nicht? Dafür müsste man auch mal einen Test schreiben. Leider habe ich ja keine nVidia Karte zum Testen/Entwickeln...

Eins sollte aber klar sein. "Die letzten XY" ist eine unglückliche Formulierung. An sich sieht der Nutzer ja "nur" die virtuellen Adressen, und eben auch den Verbrauch an physikalischem Adressraum, den man dadurch ableiten kann. Man weiß aber natürlich NICHT! wo der Speicher denn nun genau liegt. Zumindest wäre mir das nicht bekannt, das hier direkt auf physikalische Adressen gemapped wird unter Windows, also korrigiert mich bitte, falls ich da falsch liegen sollte.

Was ich an sich sagen will ist, das es einfach zu viele Möglichkeiten gibt, woran es denn nun genau hängt. Am Interconnect? Am Cache? Am Speicherinterface? Das kann man so gar nicht sagen, so lange man nicht den Aufbau kennt, und den kennen wir dank fehlender Whitepaper eben nicht....

Für mich ergibt sich daraus aber noch ein ganz anderes Problem. Aus dem Verhalten von nVidia, drängt sich einem doch die Frage auf, ob solche Probleme auch bei Tesla/Quadro-Karten auftreten können? Da wäre es natürlich extrem fatal, weil man unter umständen aufgrund ganz falscher Annahmen heraus gewisse Optimierungen vornimmt. Das würde aber oft gar nicht auffallen, einfach weil man ja gar nicht genug Informationen über die Architekturen von nVidia hat, und zu nem Großteil mit ner Blackbox arbeiten muss. Also auch immer davon ausgehen kann, dass der eigene Code einfach schlecht ist....

PCGH schreibt:

Ich weiße noch mal drauf hin, dass das kein ausreichendes Merkmal ist.

Die Chips könnten durchaus draufgelötet sein, aber einfach nicht angesprochen werden.

Hat denn wirklich keine Redaktion nen IR-Messgerät? Das will ich jetzt wissen ;)
Wie gesagt, ob die Chips alle angebunden sind sollte sich an sich sehr einfach aus der maximalen Bandbreite ermitteln lassen von GTX970 und GTX980 im direkten Vergleich. Wenn da bei gleichem Takt keine anderen Werte rauskommen, dann ist das Ding gleich angebunden.

Ich vermute deswegen, da der Aufwand für FCAT einfach nur unglaublich hoch ist. Das ganze Ding ist einfach nur krass umständlich und fehleranfällig und bringt eben auch nur in gewissen Situationen etwas.
Jetzt mal ganz ernst gefragt, habt ihr dafür nicht längst skripte erstellt, die das fast vollständig automatisiert machen :confused:

Der Unterschied ist einfach, dass sich Mikroruckler eben anders nicht messen konnten und es eben eine einmalige (bzw. zweimalige Sache nach dem Mikroruckler-Treiber) war. Das ist etwas anderes als andauernd mit FCAT die Frametimes zu messen.
Und damit hat nVidia ihren Marketingerfolg gefeiert. Genau aus diesem Grund stehe ich solchen Tools extrem kritisch gegenüber, zumal FCAT ja auch so manche Schwäche hat...

So was sollte maximal mit der Unterstützung der Hardwarehersteller erstellt werden, aber nicht als Closed Source rausgehauen werden.

Ich warte ja btw. noch immer auf den kompletten Code...

BlacKi
2015-01-26, 13:11:05
im prinzip ist das alles jammern auf hohem niveau.

das performance pro speichermenge bleibt gleich.

ich hätte ne 970 auch mit 3,5gb gekauft.

allerdings finde ich es halt nicht ok wie nvidia die kunden hinters licht führt. 4gb und gleichzeitig die volle speicherbandbreite zu vermarkten + es steht nichtmal in der fußnote erwähnt! eigentlich betrug!

zufrieden bin ich trotzdem mit der karte und würde sie mir trotzdem nochmals kaufen.

Screemer
2015-01-26, 13:17:40
Du bist doch meines Wissens nach Redakteur, das hat sich zu Zeiten wie es relevant war um die Schwächen des roten Vereins aufzuzeigen aber noch ganz anders angehört. :rolleyes: Das ist jetzt nicht auf Dich bezogen, sondern eher auf deine Zunft. :wink:Damals wurde fcat zum heilige Gral für benchmarker hoch stilisiert und heute ist es quasie verschwunden. Mich wurde auch nicht wundern wenn NV die fcat-systeme zum Großteil gestellt oder finanziert hatte. Natürlich nicht direkt, sondern über den perfieden weg der werbungsbuchung. Da warwn die Redaktionen nämlich dann auch fein raus und können sagen "wir bekommen von NV keine Zahlungen für fcat Messungen".

Hobby
2015-01-26, 13:17:46
Mein Senf:

Hätte mir die Karte nicht gekauft - zumindest länger überlegt - , wenn ich das vorher gewusst hätte!
Für solche "Nvidia-Info-Mätzchen" dann doch einfach zu teuer.

Hier: MSI GTX 970 Gaming - 4G, GeForce GTX 970, 4GB DDR5

------------------------

Karte ist sowieso vor 5 Wochen an den Online-Händler zurückgegangen, da ich das ebenfalls bekannte und im Nvidia-Forum diskutierte "No-signal-Problem" nicht in den Griff bekommen habe.

https://www.google.de/search?q=MSi+GTX+970+Gaming+no+signal&ie=utf-8&oe=utf-8&gws_rd=cr&ei=bgSTVIyEL8uxPJiBgbAL

Nachfrage letzte Woche beim Händler ergab: - wird ausgetauscht oder ich bekomme eine Gutschrift! - mal abwarten!

Ätznatron
2015-01-26, 13:25:19
Die Frage, die ich mir stelle lohnt sich ein RMA Kampf. Die erste Reaktion eines großen Versenders war negativ. Gut jetzt könnte man mit mehr Druck oder Anwalt was erreichen, die Frage ist lohnt das? Ich hoffe die Presse schafft da etwas Druck und erreicht eine Lösung für die Kunden.

Natürlich versuchen's die erst mit abwimmeln.

Bist du rechtsschutzversichert?

Ein Brief vom Anwalt wirkt bisweilen Wunder.

Angiesan
2015-01-26, 13:26:37
@ BlacKi: Genau das ist die Einstellung die NV ermuntert so etwas zu machen, herzlichen Glückwunsch.

Es zeigt aber auch, dass NV faktisch schon auf dem Weg zum Monopolisten ist, denn in der Tat gibt es keinen wirklichen Konkurrenten zur GTX 970, zumindest nicht wenn man die Summe der Eigenschaften nimmt: Schnell, leise stromsparend und preiswert.
Daran ändert auch die 3,5 GB nicht wirklich was.
NV kann sich zur Zeit in dem Bereich nur selbst schlagen.

@Dawn of Titan: Da reicht es schon nicht den Hörer in die Hand zu nehmen sondern ein Brief zu schreiben, oder wenn es sein muss eine E-Mail.
Das hat eine ganz andere Wirkung wie wenn man da nur mal anruft.
Darauf muss eine Reaktion kommen und die muss oder sollte dann auch schriftlich sein, so etwas hat eine ganz andere Verbindlichkeit, wie wenn man nur mal den Hörer in die Hand nimmt ;-)

Skysnake
2015-01-26, 13:28:59
The exe files are here: https://drive.google.com/file/d/0B9OoHSmkeSeNbGFEaTdkaDdON1k/view?usp=sharing
Source code is here: https://github.com/duzenko/OpenclMemBench
Hi Duzenko,

thanks for writing this simple Test on OpenCL. I have already thought about the possibility to write it fast, but atm i have no time for this, and without an nVidia card for testing its no good idea...

But i have question on your code. If i understand your code atm right, you use only one workitem per workgroupe. Sorry, i only use pure OpenCL in C/C++. If i remember right, this would lead to a degraded memory performance on AMD cards, and also on nVidia cards, because not all ALUs are used. A workgroupe size of minimum the number of alus per SMx/CU should be used, better 2 or even 4 times the number.

Sorry, if i am wrong, i have nothing written in OpenCL for more than one year. So i am a bit out of training.

Ätznatron
2015-01-26, 13:33:32
@ BlacKi: Genau das ist die Einstellung die NV ermuntert so etwas zu machen, herzlichen Glückwunsch.

Es zeigt aber auch, dass NV faktisch schon auf dem Weg zum Monopolisten ist, denn in der Tat gibt es keinen wirklichen Konkurrenten zur GTX 970, zumindest nicht wenn man die Summe der Eigenschaften nimmt: Schnell, leise stromsparend und preiswert.
Daran ändert auch die 3,5 GB nicht wirklich was.
NV kann sich zur Zeit in dem Bereich nur selbst schlagen.

Leise mag sie vielleicht sein, aber der Rest? Schnell nur bis zur magischen Grenze, was die Leistungsaufnahme angeht liegen die beliebtesten Modelle auf Augenhöhe mit den Vorgängern, und von preiswert zu sprechen, verbietet sich nach dem Debakel von selbst.

dargo
2015-01-26, 13:36:32
Ne sehe ich anders: Die Standards der Industrie sind 1GB, 2GB, 3GB und 4GB.
Man wird in Zukunft eher kein Spiel finden, das auf 3,5 Gb optimiert ist.
Es werden 2,3 oder 4 GB sein je nachdem wie schnell die Durchdringung sein wird, 3 GB ist quasi aktuell der Standard und viele Spiele setzten das auch in 1440p voraus um die maximale Qualität abzuliefern.
Ich glaube man kann davon ausgehen, dass der neue Standard 4GB sein wird, da hilft es dann auch nicht das man mit 3,5 das ganze nur knapp verfehlt hat:freak:

Das ist doch Quatsch. Deine genannten Vram-Ausführungen sind einfach nur die logischen Folgen vom SI. Zudem wird Vram nicht nur für Texturen zeitkritisch gebraucht. Höhere Auflösung beansprucht den Vram ebenfalls stärker. Man kann am PC nicht explizit für bestimmte Vram-Menge ein Spiel auslegen. Da orientieren sich die Entwickler einfach nur daran was am Markt üblich ist.

Schaffe89
2015-01-26, 13:43:01
Das tool funktioniert weder auf meiner r9 290 noch auf der r9 290x.
Es macht nüscht.

Exxtreme
2015-01-26, 13:44:19
Ne sehe ich anders: Die Standards der Industrie sind 1GB, 2GB, 3GB und 4GB.
Man wird in Zukunft eher kein Spiel finden, das auf 3,5 Gb optimiert ist.

Optimieren auf Speichergrößen wird man so oder so kaum machen können da das OS und die Treiber viel zu viel mitreden und hier einen Strich durch die Rechnung machen könnten. Sowas kann man vielleicht auf der Konsole machen wo es kaum Störfaktoren gibt.

Isen
2015-01-26, 13:44:55
Als Admin 1+enter?

dargo
2015-01-26, 13:45:11
Was willst du mir mit diesem russischen Link sagen? Ich bin dieser Sprache nicht mächtig. Eine Grafikkarte reserviert sich sicherlich nicht aus Spaß mehr VRAM als gerade genutzt wird. Egal was ein russischer Test sagt - das ist sicherlich nur eine Blitzlichtaufnahme.

Um die Memory Usage vom Diagramm abzulesen brauchst du kein russisch können. Schon zwischen diesen zwei Architekturen gibts es teilweise große Unterschiede was die Speicherreservierung angeht. Und auch bei diesem Test siehst du natürlich nicht was tatsächlich gebraucht wird.


Du entscheidest, was am Thema vorbei ist?
2GB von Kepler stehen hier gar nicht zur Debatte. Die 2GB waren schon damals bei NV knapp bemessen. Das hatte ich schon damals öfter gesagt und u.a. deshalb zu Tahiti gegriffen.

robbitop
2015-01-26, 13:47:52
Ändert nichts an der Argumentationskette.

Ätznatron
2015-01-26, 13:55:48
Um die Memory Usage vom Diagramm abzulesen brauchst du kein russisch können. Schon zwischen diesen zwei Architekturen gibts es teilweise große Unterschiede was die Speicherreservierung angeht. Und auch bei diesem Test siehst du natürlich nicht was tatsächlich gebraucht wird.


2GB von Kepler stehen hier gar nicht zur Debatte. Die 2GB waren schon damals bei NV knapp bemessen. Das hatte ich schon damals öfter gesagt und u.a. deshalb zu Tahiti gegriffen.

Dann lass mal ein wenig Treiberoptimierung und ein paar Gamepatches verstreichen und du wirst sehen, wie es sich annähert.

edit: obwohl, Ausreisser gibt's ja immer wieder. Man muss halt mehr als nur ein Spiel betrachten.

Air Force One
2015-01-26, 13:57:25
Ich hab das Tool mal mit meiner 290X laufen lassen:

http://www.imageupload.co.uk/images/2015/01/26/Air_Force_One_-_3dcenterxyZhd.png (http://www.imageupload.co.uk/5fiC)

Auffällig oder?
Ich habe da jetzt aber nichts eingestellt oder so unter Windows (wurde ja bei nVidia irgendwas unter Windows dafür deaktiviert?)

BitJäger
2015-01-26, 13:59:38
Mein Senf:

Hätte mir die Karte nicht gekauft - zumindest länger überlegt - , wenn ich das vorher gewusst hätte!
Für solche "Nvidia-Info-Mätzchen" dann doch einfach zu teuer.

Hier: MSI GTX 970 Gaming - 4G, GeForce GTX 970, 4GB DDR5

------------------------

Karte ist sowieso vor 5 Wochen an den Online-Händler zurückgegangen, da ich das ebenfalls bekannte und im Nvidia-Forum diskutierte "No-signal-Problem" nicht in den Griff bekommen habe.

https://www.google.de/search?q=MSi+GTX+970+Gaming+no+signal&ie=utf-8&oe=utf-8&gws_rd=cr&ei=bgSTVIyEL8uxPJiBgbAL

Nachfrage letzte Woche beim Händler ergab: - wird ausgetauscht oder ich bekomme eine Gutschrift! - mal abwarten!


Das Problem kenne ich von AMD. Meine Sapphire HD7970 GHz Edition und die ASUS HD7970 Matrix hatten das beide. Die Sapphire nach 16 Monaten und die ASUS nach 13 Monaten.

Marodeur
2015-01-26, 13:59:46
Mein Senf:

Hätte mir die Karte nicht gekauft - zumindest länger überlegt - , wenn ich das vorher gewusst hätte!


Geht mir ähnlich.

Habe 2 970 in 2 Rechnern im Einsatz und hätte es mir zumindest mal im Hauptrechner auch noch länger überlegt.

Auch die 780 oder 780 TI stand noch im Raum aber auch aufgrund der 3 GB RAM hab ich das verworfen (und weil ich eine halbwegs leise Karte wollte was da schwieriger ist) weil soll ja etwas herhalten.

Von daher schon ziemlich fieses Ding...

So wärs im Hauptrechner wohl eher eine 980 geworden und nur im Zweitrechner die 970.



Gut, die im Zweitrechner läuft ja nur mit gesenktem Takt. Eventuell lässt sich da gegen Aufpreis eine 980 rausschlagen...

Angiesan
2015-01-26, 14:01:43
Leise mag sie vielleicht sein, aber der Rest? Schnell nur bis zur magischen Grenze, was die Leistungsaufnahme angeht liegen die beliebtesten Modelle auf Augenhöhe mit den Vorgängern, und von preiswert zu sprechen, verbietet sich nach dem Debakel von selbst.

Jam aber das Problem ist, dass selbst wenn die GTX 970 einbricht, sie immer noch schneller ist wie ein vergleichbares Produkt der Vorgänger Generation und das die Karte weniger Strom verbraucht wie eine R9 290 / X steht ja auch außer Frage und das sie sich eher mit dem High End Vorgänger rumschlägt ist auch eine Feststellung und keine Frage. Und ab runden 310 Euro lieferbar, dass ist preiswert wenn man denn weiß was man kauft.
Nun weiß man es ja!:freak:
Also was bleibt, tolle Karte nur hat NV beim Speicher schamlos gelogen.:P

Isen
2015-01-26, 14:02:20
@Air Force One,

dwn deaktivieren, wenns ne iGPU hast, diese verwenden. Seite 60 sind Anleitungen dazu.

Und korrigier dein Bild mal, die URL mag nicht :)

urbi
2015-01-26, 14:02:30
Sagt mal kann es sein, dass der "VRAM bei GTX 970: Kommt jetzt eine Welle von Rückläufern auf die Händler zu?"-Artikel auf PCGH.de nicht mehr zu finden ist?

BitJäger
2015-01-26, 14:05:11
Sagt mal kann es sein, dass der "VRAM bei GTX 970: Kommt jetzt eine Welle von Rückläufern auf die Händler zu?"-Artikel auf PCGH.de nicht mehr zu finden ist?

Da werden die Händler Druck gemacht haben.

Ätznatron
2015-01-26, 14:07:28
Da werden die Händler Druck gemacht haben.

Oder der Artikel wird einfach nur überarbeitet?

Info: Wenn Sie unseren Artikel zu den rechtlichen Folgen eines möglichen Sachmangels bei der GTX 970 suchen, der wird aktuell überarbeitet und steht dann sobald als möglich wieder zur Verfügung.
http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/3-5-GiB-nutzbarer-VRAM-1147764/

Matrix316
2015-01-26, 14:07:36
Leise mag sie vielleicht sein, aber der Rest? Schnell nur bis zur magischen Grenze, was die Leistungsaufnahme angeht liegen die beliebtesten Modelle auf Augenhöhe mit den Vorgängern, und von preiswert zu sprechen, verbietet sich nach dem Debakel von selbst.
Warum? 350 Euro ist doch relativ Preiswert für die Leistung die eine 290X überholt. Die AMD Karten wurden ja nur billiger WEIL die 970er so gute Leistung für diesen Preis geliefert hat. EDIT Bis zum GTX970 Release haben die 290X Karten noch über 400 Euro gekostet und sind dann um 100 Euro runter.

Eigentlich ist das sogar zwei Mal Betrug, da es den Wiederverkaufswert der AMD Karten kaputt gemacht hat.

BitJäger
2015-01-26, 14:09:09
Ab jetzt berichtet auch der Heise Verlag.

Nvidia führt Käufer der GeForce GTX 970 hinters Licht: Nur 3,5 statt 4 GByte RAM schnell angebunden (http://www.heise.de/newsticker/meldung/Nvidia-fuehrt-Kaeufer-der-GeForce-GTX-970-hinters-Licht-Nur-3-5-statt-4-GByte-RAM-schnell-angebunden-2528588.html)

Skysnake
2015-01-26, 14:13:41
Und damit ist das ab jetzt auch ein ernsthaftes Problem für nVidia, denn wenn Heise darüber berichtet, dann am Ende wirklich jeder, und so mancher IT'ler informiert sich eben doch auch über Medien wie Heise usw. Da wird es sicherlich zu vermehrten Nachfragen kommen.

Avalance
2015-01-26, 14:14:30
Das tool funktioniert weder auf meiner r9 290 noch auf der r9 290x.
Es macht nüscht.

Das geht nur auf nVidia Karten wegen Cuda (??) (dachte ich, hab eben gelesen es hat auch einer auf ner ATI 290 laufen gelassen *grübeL*) ach ich halt mich mal raus :)

Grüße,
aVa

derguru
2015-01-26, 14:16:02
ein vermerkt bei geizhals und co. wäre auch nicht verkehrt.

Ätznatron
2015-01-26, 14:16:21
Warum? 350 Euro ist doch relativ Preiswert für die Leistung die eine 290X überholt. Die AMD Karten wurden ja nur billiger WEIL die 970er so gute Leistung für diesen Preis geliefert hat.

Ich bezweifel, dass die Karte in dem Maß erfolgreich gewesen wäre, wären von Anfang an die korrekten Spezifikationen bekannt gewesen.

Preiswert im wahrsten Sinn des Wortes ist jetzt die 290X.

Isen
2015-01-26, 14:16:40
Das geht nur auf nVidia Karten wegen Cuda (??)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10500793&postcount=1410


Wunderschönen guten Morgen Sonnenschein ;D


@Ätznatron,

unter dem Gesichtspunkt von Verzerrung zu sprechen, halte ich nicht für abwegig...

Marodeur
2015-01-26, 14:17:18
Eins versteh ich übrigens nicht ganz aber ich kenn mich ja auch nicht so gut aus. Vielleicht kann mich mal jemand aufklären.

Ich habe keine integrierte Grafik in der CPU also brauch ich schonmal von Haus aus 360 MB Speicher in der Grafikkarte wie mir NV Inspector anzeigt.

Kann man den Treiber nicht so programmieren das er den Speicher der für Windows reserviert wird in diesen langsamen Bereich legt und wenigstens die vorhanden 3,5 GB Speicher die mit voller Geschwindigkeit angesprochen werden auch zu 100 % für Spiele genutzt werden können? :confused:

Hobby
2015-01-26, 14:19:53
- ein wenig OT

- bei AMD knallen bestimmt zur Zeit die Korken!:biggrin:

Isen
2015-01-26, 14:21:22
Ist, Huddy irgendwo unterwegs, der hat doch bestimmt nen Spruch auf Lager ^^

@Marodeur,

würde da die Anwendungen bzw. Programme die davon Gebrauch machen, nicht eher ein Wort mitreden wollen?
Wenn nun Nvidia bestimmt, wo, was und wie gespeichert/übertragen wird...
denke das geht nicht.

BitJäger
2015-01-26, 14:23:24
In einem Kommentar zum Heise Artikel (http://www.heise.de/newsticker/foren/S-Die-NVIDIA-GmbH/forum-291252/msg-26403204/read/) wird von Anzeige wg. vorsätzlichen Betruges geredet.


Die NVIDIA GmbH (Editiert vom Verfasser am 26.01.15 um 14:20)
flatterhafte, Svenja Toblin (mehr als 1000 Beiträge seit 06.05.12)
sitzt in 52146 Würselen, Adenauerstr. 20 A4, die Geschäftsführer
heißen Karen Burns und Michael Byron.

Wie wäre es damit, die beiden wegen vorsätzlichen Betrugs bei der
zuständigen Staatswanwaltschaft in Aachen
(http://www.sta-aachen.nrw.de/) anzuzeigen? Ich meine von Seiten der
betroffenen Käufer?

Selbst dann, wenn der Ausgang eines solchen Verfahrens bereits jetzt
feststeht, wäre immerhin mehr als nur 'symbolisch', den beiden Stress
und Kosten zu bescheren, wobei die 'Arbeit' ohnehin von der
Staatsanwaltschaft zu leisten ist. Würde NVIDIA sicher hin und wieder
gut tun, so ein Tritt in den Arsch.

Hobby
2015-01-26, 14:29:53
In einem Kommentar zum Heise Artikel (http://www.heise.de/newsticker/foren/S-Die-NVIDIA-GmbH/forum-291252/msg-26403204/read/) wird von Anzeige wg. vorsätzlichen Betruges geredet.

Auch aufgrund des "Heise-Artikels" habe ich meinen Händler soeben angeschrieben - fehlende Produkteigenschaften geltend gemacht - und um eine Gutschrift gebeten. Ich hatte die Karte ( MSI 970 GTX Gaming 4 GB ) vor 5 Wochen wegen des "No-signal-Problems" eingeschickt.

Mal abwarten, wie der Händler reagiert.

Exxtreme
2015-01-26, 14:31:54
In einem Kommentar zum Heise Artikel (http://www.heise.de/newsticker/foren/S-Die-NVIDIA-GmbH/forum-291252/msg-26403204/read/) wird von Anzeige wg. vorsätzlichen Betruges geredet.
Weiss nicht ob das was bringt. Die Grafikkarte erfüllt eigentlich alle zugesicherten Eigenschaften.

Thunder99
2015-01-26, 14:33:46
Entscheidung für Pest oder Colera. Behalten, mehr Ausgeben für eine 980er (falls Umtausch möglich ist) oder ebenso falls Rückgabe möglich ist Wechsel ins rote Lager mit dem entsprechenden Einschränkungen :(

Air Force One
2015-01-26, 14:36:26
Wird wohl bald so sein wie mit Internet Tarifen. ,,Bis ZU *220GB/s''

*ab 3,5GB VRAM ~ 10GB/S.
Optional: Für einmalige 5€ kann das Limit für einen Monat aufgehoben werden.
Oder wechseln Sie einfach in den nächst höheren Tarif: GTX 980

So oder so in der Art....

aths
2015-01-26, 14:37:43
Und es gibt immer noch viele gute Gründe für eine 970:

-Der niedrige Stromverbrauch...
-Die niedrige Lautstärke...
-Immer noch schnell genug für fast alles in "normalen" Auflösungen...
Die 970 ist für den Preis schon gut, imo, solange man keine mit Spulenfiepen hat. Die offiziellen technischen Specs sind trotzdem irreführend.

Die Einschnitte sind nicht so gravierend, aber hätte der Hersteller die von vornherein angeben können. Oder müssen, wenn er an seinem Ruf interessiert ist.

Florida Man
2015-01-26, 14:38:41
Das erinnert mich an die neuen Festplatrten für Cloud-Rechenzentren: "Min. 6 TB Kapazität". Da wird der Verschnitt verkauft, unfassbar. Weil studierte BWLer festgestellt haben, dass man mit kostenlosen Produkten in der Cloud weniger als USD 12 Umsatz pro Jahr / Benutzer macht. So wertvoll scheinen Profile und Daten wohl doch nicht zu sein.

Und NVIDIA? Was hat die geritten? Unfassbar.

urbi
2015-01-26, 14:41:00
Die 970 ist für den Preis schon gut, imo, solange man keine mit Spulenfiepen hat. Die offiziellen technischen Specs sind trotzdem irreführend.

Die Einschnitte sind nicht so gravierend, aber hätte der Hersteller die von vornherein angeben können. Oder müssen, wenn er an seinem Ruf interessiert ist.

Mich wurmt es halt schon 370€ für eine GTX 970 gezahlt zu haben. Hätte für 110€ weniger eine GTX 780 OC bekommen können. Die habe ich wegen dem einen Gigabyte mehr Ram nicht genommen. Für nur 500MB mehr hätte ich diesen Aufpreis nicht bezahlt.

Avalance
2015-01-26, 14:41:31
Auch aufgrund des "Heise-Artikels" habe ich meinen Händler soeben angeschrieben - fehlende Produkteigenschaften geltend gemacht - und um eine Gutschrift gebeten. Ich hatte die Karte ( MSI 970 GTX Gaming 4 GB ) vor 5 Wochen wegen des "No-signal-Problems" eingeschickt.

Mal abwarten, wie der Händler reagiert.

Der arme Händler kann doch da aber auch nicht was für :confused: (und wenn er ein kleiner Händler ist, wird der sich nur selber ärgern und kann auch nicht wirklich was bewirken) das zieht sich dann auf seine Margen :(


@ Isen ja ich hab das schon mal editiert ;D

Grüße
aVa

Ätznatron
2015-01-26, 14:41:38
Für mich jedenfalls ist die Konsequenz, dass ich mir ab jetzt beim Kauf höherpreisiger Hardware vom Händler bestätigen lasse, dass die Hardware auch die vom Hersteller auf dessen Homepage (im Fall der GTX 970 diese hier (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications)) beschriebenen Spezifikationen exakt erfüllt.

Lässt der Händler sich darauf nicht ein, kommt halt kein Kaufvertrag zustande.

aths
2015-01-26, 14:42:43
Übrigens könnten NVIDIA auch bescheißen und die 512MB "VRAM" auch einfach im PCIe-Aperture-Speicher allozieren und im Treiber dann als VRAM ausgeben.

Andere Möglichkeit wäre, dass die 0,25MB weniger L2-Cache dazu führen, dass die letzten 512 MB nicht gecacht werden können.
Letzters ist imo naheliegend, da es von der Relation her hinkommt: Jeder RAM-Chip hängt vermutet an 256 KB L2-Cache.

Hobby
2015-01-26, 14:43:50
Die Einschnitte sind nicht so gravierend, aber hätte der Hersteller die von vornherein angeben können. Oder müssen, wenn er an seinem Ruf interessiert ist.

Richtig - aber selten naiv von Nvidia anzunehmen, dass Marketing-Tricksereien nicht an das Licht kommen.

Die Karte hätte mit hoher Wahrscheinlichkeit nicht den bisherigen Verkaufserfolg, wenn von Anfang an auf der Verpackung - nicht 4 GB, sondern 3.5 GB und bei bestimmten Anwendungen zusätzlich 512 MB - gestanden hätte.

urbi
2015-01-26, 14:45:05
Für mich jedenfalls ist die Konsequenz, dass ich mir ab jetzt beim Kauf höherpreisiger Hardware vom Händler bestätigen lasse, dass die Hardware auch die vom Hersteller auf dessen Homepage (im Fall der GTX 970 diese hier (http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications)) beschriebenen Spezifikationen exakt erfüllt.

Lässt der Händler sich darauf nicht ein, kommt halt kein Kaufvertrag zustande.

Nahezu jeder Händler hat diese Daten doch auch in seinem Shop (gehabt). Außerdem muss er die Daten gegen sich gelten lassen solange er nicht ausdrücklich andere Angaben macht.

Ätznatron
2015-01-26, 14:46:48
Nahezu jeder Händler hat diese Daten doch auch in seinem Shop (gehabt). Außerdem muss er die Daten gegen sich gelten lassen solange er nicht ausdrücklich andere Angaben macht.

Das mag sein. Um so einfacher wird es dem Händler fallen, die Angaben dann im Kaufvertrag nochmal extra zu bestätigen.

Hobby
2015-01-26, 14:47:28
Der arme Händler kann doch da aber auch nicht was für :confused: (und wenn er ein kleiner Händler ist, wird der sich nur selber ärgern und kann auch nicht wirklich was bewirken) das zieht sich dann auf seine Margen :(



Das ist ein ganz großer Händler am Markt. Und wenn ich die Karte "nur" ausgetauscht bekomme und sie funktioniert, werde ich auch nicht in den "Krieg" ziehen. Spätestens in drei Jahren gehört die GTX 970 auch wieder zum Schrott.:biggrin:

urbi
2015-01-26, 14:56:35
Der arme Händler kann doch da aber auch nicht was für :confused: (und wenn er ein kleiner Händler ist, wird der sich nur selber ärgern und kann auch nicht wirklich was bewirken) das zieht sich dann auf seine Margen :(


@ Isen ja ich hab das schon mal editiert ;D

Grüße
aVa

Nein, der Händler kann bei seinem Lieferanten Rückgriff nehmen, der bei seinem etc. Am Ende sind die NVIDIA-Partner dran und die können sich dann an NVIDIA selbst wenden.

Ätznatron
2015-01-26, 15:03:55
So, hiermit wäre die Sache so gut wie geklärt:

Update:

Wir hatten inzwischen die Gelegenheit uns etwas ausführlicher mit diesem Thema zu beschäftigen und nach Rücksprache mit NVIDIA konnten wir einige Details klären. So bedauert man es bei NVIDIA, dass man diesen Umstand nicht direkt zum Launch der GeForce GTX 970 kommuniziert habe. Die Konzentration auf die GeForce GTX 980 habe dazu geführt, dass diese geringe Einschränkung beim Grafikspeicher unerwähnt bliebe und auch dem mehrmaligem Review durch das Marketing- und Technik-Team nicht aufgefallen sei.

(http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html)

Oder sind etwa noch Fragen offen? :D

BitJäger
2015-01-26, 15:04:43
Eigentlich hatte ich mit dem Gedanken gespielt mir zum Beginn des kommenden Monats bei EVGA eine GTX 980 SC zu kaufen. Heute morgen kostete sie noch 562€. Doch heute Nachmittag sind es 620€ (http://www.evga.de/products/moreInfo.asp?pn=04G-P4-2983-KR&family=GeForce%20900%20Series%20Family&uc=EUR).

mironicus
2015-01-26, 15:09:16
Eigentlich hatte ich mit dem Gedanken gespielt mir zum Beginn des kommenden Monats bei EVGA eine GTX 980 SC zu kaufen. Heute morgen kostete sie noch 562€. Doch heute Nachmittag sind es 620€ (http://www.evga.de/products/moreInfo.asp?pn=04G-P4-2983-KR&family=GeForce%20900%20Series%20Family&uc=EUR).

Nachträgliche Dollar-Euro Anpassung?

Air Force One
2015-01-26, 15:09:17
Jetzt nochmal aus interesse.

Das hier sind ja meine Werte mit der 290X:
http://www.imageupload.co.uk/images/2015/01/26/Air_Force_One_-_3dcenterxyZhd.png

Das sind ja auch so grob 3,6GB oder nicht?

Bedeutet doch für mich als Laie das es keinen Unterschied macht ob da jetzt eine 290er oder 970er drin steckt oder nicht?
Das ich mit der Aussage falsch liege, ist mir klar, jedoch nicht ganz genau warum.
Es wird ja davon gesprochen, das man den Manager da deaktivieren muss oder mit der iGPU booten sollte, dann sind die 4GB auch komplett frei, aber ich Spiele doch auch nicht mit der iGPU und habe nur eine HighEnd Karte als Dekoration eingebaut.

Also wie darf ich das nun verstehen, stehen in Spielen die 4GB dennoch vollständig zur verfügung und nur beim Benchmarktool nicht? (Afterburner sagt ja)

derguru
2015-01-26, 15:10:46
Eigentlich hatte ich mit dem Gedanken gespielt mir zum Beginn des kommenden Monats bei EVGA eine GTX 980 SC zu kaufen. Heute morgen kostete sie noch 562€. Doch heute Nachmittag sind es 620€ (http://www.evga.de/products/moreInfo.asp?pn=04G-P4-2983-KR&family=GeForce%20900%20Series%20Family&uc=EUR).
evga hat sich wohl abgesichert um viele step up kunden zu vermeiden^^

dieses step up programm ist eh nichts wert ,man hat im grunde keinerlei vorteil denn der aufpreis den man zahlen muss ist mindestens genauso so hoch wie wenn man eine karte gebraucht verkauft und den aufpreis für die größere in einem onlinshop bezahlt.

Nakai
2015-01-26, 15:10:54
So, hiermit wäre die Sache so gut wie geklärt:

(http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html)

Oder sind etwa noch Fragen offen? :D

Kein fehlender L2-Cache und das Problem ist das Fehlen der SMMs. Hübie und meine Theorie bestätigt sich.

NV hat kein volles Crossbar bei Maxwell integriert. Womöglich sind pro SMM genau 4 ROPs bzw. pro SMM sogar zweimal 4 ROPs angebunden. Deaktiviert man die SMMs werden ROP-Teile nicht mehr angesprochen. Bitter. Sieht nach einer krassen Architekturbeschränkung aus. Kein Wunder, dass Maxwell im professionellen Bereich keinelei Rolle spielen wird. Mit so einem "beschnittenem" Backend, hat man sich direkt auf den Vorgänger für den professionellen Bereich entschieden.

Ätznatron
2015-01-26, 15:11:10
Jetzt nochmal aus interesse.

Das hier sind ja meine Werte mit der 290X:
http://www.imageupload.co.uk/images/2015/01/26/Air_Force_One_-_3dcenterxyZhd.png

Das sind ja auch so grob 3,6GB oder nicht?

Bedeutet doch für mich als Laie das es keinen Unterschied macht ob da jetzt eine 290er oder 970er drin steckt oder nicht?
Das ich mit der Aussage falsch liege, ist mir klar, jedoch nicht ganz genau warum.
Es wird ja davon gesprochen, das man den Manager da deaktivieren muss oder mit der iGPU booten sollte, dann sind die 4GB auch komplett frei, aber ich Spiele doch auch nicht mit der iGPU und habe nur eine HighEnd Karte als Dekoration eingebaut.

Also wie darf ich das nun verstehen, stehen in Spielen die 4GB dennoch vollständig zur verfügung und nur beim Benchmarktool nicht? (Afterburner sagt ja)

Eine 290X kann Cuda-Code ausführen?

Ex3cut3r
2015-01-26, 15:11:14
Eigentlich hatte ich mit dem Gedanken gespielt mir zum Beginn des kommenden Monats bei EVGA eine GTX 980 SC zu kaufen. Heute morgen kostete sie noch 562€. Doch heute Nachmittag sind es 620€ (http://www.evga.de/products/moreInfo.asp?pn=04G-P4-2983-KR&family=GeForce%20900%20Series%20Family&uc=EUR).

Hier für 548€: http://www.mindfactory.de/product_info.php/4096MB-EVGA-GeForce-GTX-980-SuperClocked-ACX-2-0-Aktiv-PCIe-3-0-x16--Reta_980239.html

Oder musst du die bei Evga direkt kaufen?

Shaft
2015-01-26, 15:12:38
So, hiermit wäre die Sache so gut wie geklärt:



(http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html)

Oder sind etwa noch Fragen offen? :D


Es ist ihnen nicht aufgefallen?

Ja ne ist klar.

Da war doch eine bewusste Entscheidung die GPU zu kastrieren, das muss doch irgendwo intern Schwarz und Weiß auf Papier gestanden haben.

Ätznatron
2015-01-26, 15:15:04
Es ist ihnen nicht aufgefallen?

Ja ne ist klar.

Da war doch eine bewusste Entscheidung die GPU zu kastrieren, das muss doch irgendwo intern Schwarz und Weiß auf Papier gestanden haben.

Ja, es ist ihnen sogar so wenig aufgefallen, dass sie in ihre Treiber eine Funktion implementiert haben, doch bitteschön bei der GTX 970 wenn möglich nicht mehr als 3,5 GB Speicher zu nutzen. :biggrin:

mironicus
2015-01-26, 15:16:17
Mal was zum Schmunzeln
http://i.imgur.com/FFFuw5e.gif

Schaffe89
2015-01-26, 15:21:23
Bedeutet doch für mich als Laie das es keinen Unterschied macht ob da jetzt eine 290er oder 970er drin steckt oder nicht?
Das ich mit der Aussage falsch liege, ist mir klar, jedoch nicht ganz genau warum.

Die R9 290x ist der Vollausbau, da ist nichts beschnitten, von daher kann das schonmal nicht stimmen.
Ich habe es jetzt nochmal versucht, den PC mit der IGP gestartet, aber das Tool macht bei mir gar nichts.

Angiesan
2015-01-26, 15:25:11
@Ätznatron: Prophylaxe;D
Ähhhh und wenn es tatsächlich so ist würde ich wirklich sehr gerne einen Test sehen bei der man den Speicher an die 3,5 GB heran ausreizt und dann bitte ein Wärmebild macht.
Dann den Rechner neu Starten und bitte das Gleiche noch mal, wenn es so sein sollte wie es NV beschreibt müsste jedes mal außer durch Zufall andere Speicherbausteine nicht angesprochen werden da ja der Treiber dann nicht wissen muss welche er nicht voll ansprechen kann, er kennt ja dann nur die Menge.
Ich wette aber, dass es immer die gleichen sind die nicht voll angesprochen werden und das müsste man normalerweise in Farbunterschiede auf dem Wärmebild sehen ;-)

MegaManX4
2015-01-26, 15:46:01
Die Frage ist doch: Wenn NVidia recht hat, und die Sache sowieso nur 1% Performance kostet, warum dann der HokusPokus darum, das die RAM Auslastung immer bei 3500MB gehalten werden soll? Sollen sie doch einfach alle 4GB adressieren.
Da Nvidia aber mit aller Gewalt versucht den RAM Verbrauch bei 3500MB zu belassen, muss(!) es einen dringenden Grund dafür geben, dringender als 1% Performance zu verlieren.

M4xw0lf
2015-01-26, 15:58:00
So, hiermit wäre die Sache so gut wie geklärt:



(http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html)

Oder sind etwa noch Fragen offen? :D

Die Konzentration auf die GeForce GTX 980 habe dazu geführt, dass diese geringe Einschränkung beim Grafikspeicher unerwähnt bliebe und auch dem mehrmaligem Review durch das Marketing- und Technik-Team nicht aufgefallen sei.

Alter ;D Das ist schon kackdreist.

y33H@
2015-01-26, 16:03:18
Wenn L2 und SI identisch sind, dann würde mich echt interessieren, was da genau an der Crossbar anders läuft, wenn "nur" SMMs deaktiviert sind ...

Nakai
2015-01-26, 16:10:17
Wenn L2 und SI identisch sind, dann würde mich echt interessieren, was da genau an der Crossbar anders läuft, wenn "nur" SMMs deaktiviert sind ...

Die werden keine vollständige Crossbar zwischen SMMs und den ROP-Partitionen oder den ROPs haben. Ergo können bestimmte Teile einer ROP-Partition nur mangelhaft angesprochen werden. Wie das genau aussieht, kA.

Auf den Diagrammen eines SMM findet man auch kein Interconnect Network. Die werden das rausgeschmissen haben.

€: SI und L2-Cache identisch ist, wird der L2-Cache an den MCs gekoppelt sein. Immer 256KB für ein 32Bit Memory Channel. Wie ROPs an den MCs gekoppelt sind, kA. Wahrscheinlich irgendwie dediziert oder auch nur ein reduzierter Crossbar. Das einzige was eine ROP-Partition ausmacht, sind eher die MCs. Der Begriff ROP-PArtition ist sowieso schon irre-führend.

Mark3Dfx
2015-01-26, 16:10:38
Mal was zum Schmunzeln
http://i.imgur.com/FFFuw5e.gif


;D;D;D

duzenko
2015-01-26, 16:14:14
Hi Duzenko,

If i understand your code atm right, you use only one workitem per workgroupe. Sorry, i only use pure OpenCL in C/C++. If i remember right, this would lead to a degraded memory performance on AMD cards, and also on nVidia cards, because not all ALUs are used. A workgroupe size of minimum the number of alus per SMx/CU should be used, better 2 or even 4 times the number.



I'm not sure about workitems but the idea was not to get max possible performance, but to compare memory speed on different addresses

dargo
2015-01-26, 16:15:31
So, hiermit wäre die Sache so gut wie geklärt:



(http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34026-limitierte-speichergeschwindigkeit-bei-der-geforce-gtx-970.html)

Oder sind etwa noch Fragen offen? :D
Diesen Abschnitt finde ich besonders geil. ;D
MSI hat uns in einer Mail mitgeteilt, dass man ein BIOS für die GeForce GTX 970 Gaming 4G veröffentlicht habe, die das Problem beheben soll. Auf Rückfrage konnte man uns noch nicht sagen, wie dies der Fall sein soll. NVIDIA bestreitet außerdem, dass es einen direkten Zusammenhang gibt. Die langsamere Adressierung des 512-MB-Bereichs lässt sich laut NVIDIA nicht durch ein BIOS-Update beheben, da dies eine Limitierung der Architektur sein, die sich mit Software nicht aufheben lässt.
Schön zu sehen, dass sich der IHV und die Partner einig sind. :freak:

aths
2015-01-26, 16:19:47
Einen Shitstorm hat NV aber verdient. Die GTX970 ist eine gute Karte. Es wurde aber um diese Limitierung um keinster Weise aufgeklärt und wurde jetzt zufällig aufgedeckt. Dinge nicht zu erzählen, entspricht einer Lüge.
Effektiv ist die GTX970 offenbar eine GPU mit 3,5 GiB VRAM. Natürlich reizen heutige Spiele das selten aus. Aber die Situation wird sich verschlimmern. Das ist empirisch gesehen schon immer so gewesen. VRAM Bedarf steigt. In 1-2 Jahren könnte das ein nervender Nachteil sein. Produkte sollten nicht nur für die Gegenwart bewertet werden sondern auch für die vorhersehbare Zukunft des Lebenszyklus des Produktes beim Kunden. Die Wenigsten kaufen alle paar Monate neue HW.

Wäre NV von Anfang an offen damit umgegangen, wäre es OK gewesen - so aber hat man dreist gelogen. (absichtliches Auslassen wesentlicher Informationen)
Ganz ehrlich, ich glaube nicht dass die 3,5-er Begrenzung breit zum Nachteil wird. Als praktische Standards sehe ich 1, 2 und 3 GB, in Zukunft wohl noch 6 GB (weil es solche Karten schon gab, und wohl wieder geben wird.) Speziell für 4 GB dürften kaum Games optimieren, da es sinnvoller wäre, gleich auf 3 GB runterzuoptimieren um eine viel größere Basis anzusprechen.

Natürlich ist das mit der 970 trotzdem ärgerlich, da man mit eigenen Settings eben auch in den Bereich 3,5-4,0 kommen kann.

Thunder99
2015-01-26, 16:21:23
@Ätznatron: Prophylaxe;D
Ähhhh und wenn es tatsächlich so ist würde ich wirklich sehr gerne einen Test sehen bei der man den Speicher an die 3,5 GB heran ausreizt und dann bitte ein Wärmebild macht.
Dann den Rechner neu Starten und bitte das Gleiche noch mal, wenn es so sein sollte wie es NV beschreibt müsste jedes mal außer durch Zufall andere Speicherbausteine nicht angesprochen werden da ja der Treiber dann nicht wissen muss welche er nicht voll ansprechen kann, er kennt ja dann nur die Menge.
Ich wette aber, dass es immer die gleichen sind die nicht voll angesprochen werden und das müsste man normalerweise in Farbunterschiede auf dem Wärmebild sehen ;-)
Ich hatte ja schon heute morgen ein weiteren Vergleich gepostet wo ich dargelegt habe das durchaus 4GB belegt werden, sofern der Prozessexplorer es richtig anzeigt. Nur wird anscheinend eher bis das geschieht es auf die Fesplatte ausgelagert :( :mad:
Hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10500555&postcount=1356

Air Force One
2015-01-26, 16:23:29
Wenn ich es verheimlichen würde, würde ich wohl den Speicher ab 3GB VRAM prozentual künstlich schneller voll werden lassen.
Also:
1-3GB 1x
3-4GB 2x

Also Speicher ist mit 3.5GB voll, zeigt aber 4.0GB an.
Hardware ist ja verbaut.

naja auffallen würde das natürlich auch.



PS: Keine eine Antwort auf meine Frage dort oben?
Ist zwar OT aber naja...also eine Seite davor...

dargo
2015-01-26, 16:26:39
Ganz ehrlich, ich glaube nicht dass die 3,5-er Begrenzung breit zum Nachteil wird. Als praktische Standards sehe ich 1, 2 und 3 GB, in Zukunft wohl noch 6 GB (weil es solche Karten schon gab, und wohl wieder geben wird.) Speziell für 4 GB dürften kaum Games optimieren, da es sinnvoller wäre, gleich auf 3 GB runterzuoptimieren um eine viel größere Basis anzusprechen.

Mal davon abgesehen, dass wir das Thema schon hatten und es absolut keinen Sinn beim PC macht für irgendwelche Vram Größen zu optimieren (sowas kannst du nur bei einer festen Hardware wie Konsole machen wo überall die Vram-Menge gleich ist und die Zielauflösung sowie Grafikdetails fest vorgegeben sind, ergo du die volle Kontrolle über den Speicher hast) hier mal ein kleiner Überblick was es schon alles mit 4GB Vram gibt.
http://geizhals.at/de/?cat=gra16_512&xf=132_4096#xf_top

Matrix316
2015-01-26, 16:39:24
Mal davon abgesehen, dass wir das Thema schon hatten und es absolut keinen Sinn beim PC macht für irgendwelche Vram Größen zu optimieren (sowas kannst du nur bei einer festen Hardware wie Konsole machen wo überall die Vram-Menge gleich ist und die Zielauflösung sowie Grafikdetails fest vorgegeben sind, ergo du die volle Kontrolle über den Speicher hast) hier mal ein kleiner Überblick was es schon alles mit 4GB Vram gibt.
http://geizhals.at/de/?cat=gra16_512&xf=132_4096#xf_top
Frage ist ob 4 GB VRAM bei 70 Euro Karten überhaupt Sinn machen. Es gab ja schon immer Karten die weitaus mehr VRAM hatten ohne die Power dieses auch sinnvoll nutzen zu können.

Zocker84
2015-01-26, 16:42:10
Mich wurmt es halt schon 370€ für eine GTX 970 gezahlt zu haben. Hätte für 110€ weniger eine GTX 780 OC bekommen können. Die habe ich wegen dem einen Gigabyte mehr Ram nicht genommen. Für nur 500MB mehr hätte ich diesen Aufpreis nicht bezahlt.

Die GTX 780 wäre nicht die bessere Wahl gewesen. Die GTX 970 ist performance mäßig eine 780 mit 1 GB (oder halt eben 512 MB) mehr VRAM.

BZ
2015-01-26, 16:44:31
Alter ;D Das ist schon kackdreist.

Das ist ne ganz billige primitive Ausrede.
Fakt ist das die Karte nicht vollwertig ist,
es ist eine 3-3,5GB Karte.

Air Force One
2015-01-26, 16:45:56
Hat jemand eig. mal die Performance unter 3DSMAX, Blender, Maya und so mal getestet?
Dort wären ja 500MB ja doch schon Gold Geld Wert.....

Nakai
2015-01-26, 16:53:03
Wenn L2 und SI identisch sind, dann würde mich echt interessieren, was da genau an der Crossbar anders läuft, wenn "nur" SMMs deaktiviert sind ...

Eventuell so:

This is just a guess and does NOT necessarily need to represent the truth!
http://s10.postimg.org/nnbbg0krt/NV_GM204.png


Werden SMMs beschnitten, dann wird das Backend weniger gut angesprochen. Ich hoffe man kann es erkennen, worauf ich hinaus will. Ich habs einfach mal schnell hingeklatscht!

captain_drink
2015-01-26, 16:59:04
Ich hatte ja schon heute morgen ein weiteren Vergleich gepostet wo ich dargelegt habe das durchaus 4GB belegt werden, sofern der Prozessexplorer es richtig anzeigt. Nur wird anscheinend eher bis das geschieht es auf die Fesplatte ausgelagert :( :mad:
Hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10500555&postcount=1356

In dem Artikel von Hwluxx stand allerdings auch, dass man den Tools zur VRAM-Belegung nur halb vertrauen könne, weil nicht alles abgefragt werden kann, was Karte und Treiber so machen. Das macht m.E. auch insofern Sinn, als dass die Belegung ja bis zu 4k und hohem MSAA bei 3,5 GB hängenbleibt, ohne dass sich auf VRAM-Überlauf zurückzuführende Ruckler bemerkbar machen. Was, wann und wohin ausgelagert wird, kann man aktuell nur spekulieren.

Thunder99
2015-01-26, 16:59:38
Jetzt nochmal aus interesse.

Das hier sind ja meine Werte mit der 290X:
http://www.imageupload.co.uk/images/2015/01/26/Air_Force_One_-_3dcenterxyZhd.png

Das sind ja auch so grob 3,6GB oder nicht?

Bedeutet doch für mich als Laie das es keinen Unterschied macht ob da jetzt eine 290er oder 970er drin steckt oder nicht?
Das ich mit der Aussage falsch liege, ist mir klar, jedoch nicht ganz genau warum.
Es wird ja davon gesprochen, das man den Manager da deaktivieren muss oder mit der iGPU booten sollte, dann sind die 4GB auch komplett frei, aber ich Spiele doch auch nicht mit der iGPU und habe nur eine HighEnd Karte als Dekoration eingebaut.

Also wie darf ich das nun verstehen, stehen in Spielen die 4GB dennoch vollständig zur verfügung und nur beim Benchmarktool nicht? (Afterburner sagt ja)
Das Programm läuft im Fenstermodus, dass ist das Problem was bei dir ohne entsprechende Gegenmaßnahmen die reduzierte Leistung am Ende anzeigt :wink: . Daher DWM deaktivieren oder besser mit iGPU als primäre Grafik testen

Skysnake
2015-01-26, 17:05:32
Wäre durchaus möglich.

Nettes Bild :up:

Jetzt nochmal aus interesse.

Das hier sind ja meine Werte mit der 290X:
http://www.imageupload.co.uk/images/2015/01/26/Air_Force_One_-_3dcenterxyZhd.png

Das sind ja auch so grob 3,6GB oder nicht?

Bedeutet doch für mich als Laie das es keinen Unterschied macht ob da jetzt eine 290er oder 970er drin steckt oder nicht?
Das ich mit der Aussage falsch liege, ist mir klar, jedoch nicht ganz genau warum.
Es wird ja davon gesprochen, das man den Manager da deaktivieren muss oder mit der iGPU booten sollte, dann sind die 4GB auch komplett frei, aber ich Spiele doch auch nicht mit der iGPU und habe nur eine HighEnd Karte als Dekoration eingebaut.

Also wie darf ich das nun verstehen, stehen in Spielen die 4GB dennoch vollständig zur verfügung und nur beim Benchmarktool nicht? (Afterburner sagt ja)
Du musst zwischen Fenstermodus und Vollbild unterscheiden. Wenn du im Fenster bist, muss Windows ja auch den Desktop usw usf anzeigen. Dafür wird eben eine gewisse Menge RAM von der GPU belegt. Sobald du im Vollbildmodus bist, wird der Teil "einfach" in den RAM gewapped, und die Anwendung kann den kompletten GPU-RAM für sich beanspruchen. Hier haste aber eben eine Fensteranwendung, wodurch du erst mit Tricks dafür sorgen musst, dass Sie den ganzen Speicher bekommt.

Alter ;D Das ist schon kackdreist.
Kackdreist trifft es ziemlich gut.

Sowas kann man nicht "übersehen". Sorry, aber so etwas macht man nicht mal eben, und sollte jedem Techniker klar sein. Da sind ja angefangen von Hardware bis Software-Entwicklern alle mit dran beteiligt gewesen, das hinzubiegen....

Die werden keine vollständige Crossbar zwischen SMMs und den ROP-Partitionen oder den ROPs haben. Ergo können bestimmte Teile einer ROP-Partition nur mangelhaft angesprochen werden. Wie das genau aussieht, kA.

Auf den Diagrammen eines SMM findet man auch kein Interconnect Network. Die werden das rausgeschmissen haben.

€: SI und L2-Cache identisch ist, wird der L2-Cache an den MCs gekoppelt sein. Immer 256KB für ein 32Bit Memory Channel. Wie ROPs an den MCs gekoppelt sind, kA. Wahrscheinlich irgendwie dediziert oder auch nur ein reduzierter Crossbar. Das einzige was eine ROP-Partition ausmacht, sind eher die MCs. Der Begriff ROP-PArtition ist sowieso schon irre-führend.
Der L2 Cache bei GPUs hängt natürlicherweise immer! direkt am MC. Anders macht es einfach keinen Sinn von dem her, wie GPUs arbeiten. Also die Cohärenzbeziehungen zwischen den Threads implizieren, dass das eine optimale Lösung ist, weil man den geringsten Aufwand hat.

I'm not sure about workitems but the idea was not to get max possible performance, but to compare memory speed on different addresses
Ah ok, that is an answer. I have made also a benchmark suite that proofe the performance of the PCI-E and also of the VRAM, but i have had some difficulties to achieve the max performance of the Memory Interface.

As i sad before, thanks for the test.

dargo
2015-01-26, 17:06:10
Frage ist ob 4 GB VRAM bei 70 Euro Karten überhaupt Sinn machen. Es gab ja schon immer Karten die weitaus mehr VRAM hatten ohne die Power dieses auch sinnvoll nutzen zu können.
Es gibt dort nicht nur 70€ Karten. Zudem hast du die Grafikoptionen am PC womit du die GPU-Last erheblich senken kannst. Die Texturen kannst du @Ultra lassen sofern genug Vram vorhanden ist. Ist eben jedem selbst überlassen was, wie eingestellt wird. Die gleiche Frage über den Sinn könnte ich stellen mit Settings wo Spiel XY 20-25fps nur noch liefert. Ist für mich ebenfalls sinnfrei da schon lange unspielbar.

HarryHirsch
2015-01-26, 17:07:34
Jetzt nochmal aus interesse.

Das hier sind ja meine Werte mit der 290X:
http://www.imageupload.co.uk/images/2015/01/26/Air_Force_One_-_3dcenterxyZhd.png

Das sind ja auch so grob 3,6GB oder nicht?

Bedeutet doch für mich als Laie das es keinen Unterschied macht ob da jetzt eine 290er oder 970er drin steckt oder nicht?
Das ich mit der Aussage falsch liege, ist mir klar, jedoch nicht ganz genau warum.
Es wird ja davon gesprochen, das man den Manager da deaktivieren muss oder mit der iGPU booten sollte, dann sind die 4GB auch komplett frei, aber ich Spiele doch auch nicht mit der iGPU und habe nur eine HighEnd Karte als Dekoration eingebaut.

Also wie darf ich das nun verstehen, stehen in Spielen die 4GB dennoch vollständig zur verfügung und nur beim Benchmarktool nicht? (Afterburner sagt ja)

Same here und meine 2. Karte hat nur 3GB :|

Nakai
2015-01-26, 17:08:17
Der L2 Cache bei GPUs hängt natürlicherweise immer! direkt am MC. Anders macht es einfach keinen Sinn von dem her, wie GPUs arbeiten. Also die Cohärenzbeziehungen zwischen den Threads implizieren, dass das eine optimale Lösung ist, weil man den geringsten Aufwand hat.


Das ist mir klar, nur weiß man bei NV einfach gar nix.;)

Ich hoffe so ein Bild hilft einigen Redakteure bessere Fragen zu stellen. ;)

Schaffe89
2015-01-26, 17:09:44
Lest mal die Anleitung, dann klappt es auch.^^

aths
2015-01-26, 17:11:00
In Shadows of Mordor sollte es bspw bereits in 1440p mit Ultra Texturen auswirken. Das Spiel kippt unter diesen Umständen sogar die 6 GiB VRAM meiner Titans zu. Und das wird sich mit neuen kommenden Spielen nicht bessern.
Ultra-Texturen bringen auf meinem System (GTX 980) die Performance schon ein gutes Stück runter, ohne jedoch in den unspielbaren Bereich zu gehen. Offenbar hat Shadow of Mordor ein brauchbares Texturmanagement.

HarryHirsch
2015-01-26, 17:11:54
Lest mal die Anleitung, dann klappt es auch.^^

Laber nich du 89er Jungspund.

tdon
2015-01-26, 17:13:47
Es wird ja davon gesprochen, das man den Manager da deaktivieren muss oder mit der iGPU booten sollte, dann sind die 4GB auch komplett frei, aber ich Spiele doch auch nicht mit der iGPU und habe nur eine HighEnd Karte als Dekoration eingebaut.

Also wie darf ich das nun verstehen, stehen in Spielen die 4GB dennoch vollständig zur verfügung und nur beim Benchmarktool nicht? (Afterburner sagt ja)


Im fullscreen Modus ja. Darauf wurde unzählige male hingewiesen.

Air Force One
2015-01-26, 17:21:25
Ok danke für den Hinweis. Trift das auch auf den randlos Modus zu?
Wobei dieser wohl auch ein Fenster Modus nur ohne Rand ist? also auch weniger vram.

Mars81
2015-01-26, 17:23:21
Ich hab Nails Benchmark mal auf meiner 460GTX mit 1GB laufen lassen:
Entweder ein Bug oder mein RAM kommt aus der fernen Zukunft :D
Und warum erkennt er nur 896MB?

aufkrawall
2015-01-26, 17:23:41
Ok danke für den Hinweis. Trift das auch auf den randlos Modus zu?
Wobei dieser wohl auch ein Fenster Modus nur ohne Rand ist? also auch weniger vram.
Ja.