PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Diskussion zur GTX970-Problematik: Nur 3,5 GB, nur 224 Bit DDR, nur 56 ROPs


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

StefanV
2015-01-22, 06:30:24
...was NICHT erklärt, warum das nur die GTX970 und nicht alles andere betrifft...

Dawn on Titan
2015-01-22, 07:10:36
Bei Gigabyte wohl doch: http://www.gigabyte.de/products/product-page.aspx?pid=4920#sp

Dieser Hinweis steht auch bei 290er Karten.

Hübie
2015-01-22, 07:16:41
Es handelt sich hierbei um die ganz normalen 100 MB die Windows sich genehmigt. Je mehr man offen hat desto mehr VRAM wird verbraten. Sollte doch eigentlich klar sein.

Palpatin
2015-01-22, 08:10:31
Mal ganz unabhängig von der Problematik: Lohnt es sich eigentlich den 2. Bildschirm an die IGPU zu hängen um beim Zocken mehr VRAM zur Verfügung zu haben?

aufkrawall
2015-01-22, 08:14:46
Mal ganz unabhängig von der Problematik: Lohnt es sich eigentlich den 2. Bildschirm an die IGPU zu hängen um beim Zocken mehr VRAM zur Verfügung zu haben?im fse nicht.

Ätznatron
2015-01-22, 08:44:57
Mal ganz unabhängig von der Problematik: Lohnt es sich eigentlich den 2. Bildschirm an die IGPU zu hängen um beim Zocken mehr VRAM zur Verfügung zu haben?

Der IGPU-Speicher wird vom Arbeitsspeicher genommen und entsprechend langsam ist das Ganze dann ja auch.

Mit VRAM hat die IGPU nichts zu tun.

Wenn du einen Monitor an die Grafikkarte und einen an die IGPU anschliesst, teilen sich beide den VRAM der Grafikkarte, die IGPU dient nur zur Bildausgabe und nicht zu dessen Berechnung. Die findet in der viel schnelleren Grafikkarte statt.

Palpatin
2015-01-22, 09:02:54
Der IGPU-Speicher wird vom Arbeitsspeicher genommen und entsprechend langsam ist das Ganze dann ja auch.

Mit VRAM hat die IGPU nichts zu tun.

Wenn du einen Monitor an die Grafikkarte und einen an die IGPU anschliesst, teilen sich beide den VRAM der Grafikkarte, die IGPU dient nur zur Bildausgabe und nicht zu dessen Berechnung. Die findet in der viel schnelleren Grafikkarte statt.
Das der IGPU vom Arbeitsspeicher genommen wird ist schon klar, von dem ist ja genung vorhanden und die Performance auf dem 2. Monitor ist mir beim Zocken auf dem 1. Monitor absolut latte.
Das der 2. Monitor allerdings Einfluss hat auf das zocken hat hatte ich schon immer wieder in verdacht. Ganz krass war es z.B. als ich SLI hatte da musste ich bei vielen Spielen den 2. Monitor komplett deaktivieren das 3dvision richtig funktionierte.
Wenn ich jetzt hier so die Tests sehe, zeigt es, das sich der Windows Desktop ordentlich VRAM genehmigt, hätte gedacht das das viel weniger ist.
Wenn ich jetzt nur einen Monitor hab und im Fullscreen zocke ist das absolut egal. Wenn ich 2. Monitore hab und im Borderless Window Modus zocke wird da schon gut was für den Desktop drauf gehen.
Aufkrawall hat geschrieben das generell im Fullscreen Modus egal ist, da bin ich allerdings etwas skeptisch da der Inhalt ja trozdem irgendwie dargestellt werden muss, der 2. Bildschirm schaltet ja nicht ab.
Warum die IGPU nur die Bildausgabe machen sollte ist mir auch nicht klar, wenn ich jetzt ne 2te Graka reinhängen würde ohne SLI zu fahren wäre das doch auch nicht so oder?
Entschuldigung für das viele OT jetzt.

Leonidas
2015-01-22, 09:03:03
Leonidas könnte eine ausführlichere News drüber schreiben, etwa die Benchmark- und Spieleergebnisse komplett auswerten.


Das kann ich mir nur leisten, wenn es wirklich jemand mit zwei Karten (970+980) im selben System testet.

Ätznatron
2015-01-22, 09:18:19
@Palpatin

Als Beispiel dient mein Setup:

Ein Monitor an der Grafikkarte, 2 Monitore an der IGPU, beim Zocken mit drei Monitoren (bspw. mit dem Flusi DCS:World) steht trotzdem nur der VRAM der Grafikkarte zur Verfügung. Und auch nur dort wird das Bild berechnet. Die Bildausgabe erfolgt dann sowohl über die Ausgänge der Grafikkarte, als auch die der IGPU.

Ansonsten würde die Bildberechnung ja in zwei sich deutlich voneinander unterscheidenden Geschwindigkeiten stattfinden und das wäre das Ende vom Spielspaß.

edit: Wenn ich jetzt alle drei Monitore an der Grafikkarte habe, macht es FPS-mäßig keinen Unterschied zum oben genannten Setup.

Matrix316
2015-01-22, 10:06:09
@Matrix316:

Welche Einstellungen nutzt du in FC4 um auf 38fps zu kommen und dabei fast 4GB zu verbrauchen?

DSR mit 3413x1920 und Details auf "Sehr Hoch". Aber ich kuck noch mal nach wie AA und so ist.

Wenn ich die auf Ultra stelle sinds nur 15-20 FPS.

Stell ich die Auflösung noch auf 5K, dann sind's im Menü schon nur 0.3 FPS oder so. :freak:

Du hast kein Plan wovon du sprichst das Game bricht schon in 1080p auf 40fps ein.

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Far_Cry_4-nv-ultra-FarCry4_1920_.jpg

Um auf den V-Ram verbrauch zu kommen muss er ne wesentlich höhere Auflösung fahren.

Mach ich ja mit DSR. Mein Monitor hat nativ aber nur 2560x1440 und da werden die 4 GB (soweit ich mich erinnern kann) noch nicht erreicht, selbst wenn ich alles hochsetze.

Allerdings schwankt der Speicherverbrauch laut Afterburner auch zwischen 3,5 und 4 hin und her, je nach dem wie ich wo rumlaufe.

TobiWahnKenobi
2015-01-22, 10:35:14
fc4 nimmt sich gern 4GiB und mehr.. damit sich das auf 3 oder 3.5GiB drücken lässt, muss man unter 4K schon auf mittlere einstellungen zurück.

http://abload.de/thumb/farcry47iygi.jpg (http://abload.de/image.php?img=farcry47iygi.jpg) http://abload.de/thumb/farcry4_2dqz5r.jpg (http://abload.de/image.php?img=farcry4_2dqz5r.jpg) http://abload.de/thumb/farcry4_36ebij.jpg (http://abload.de/image.php?img=farcry4_36ebij.jpg)


(..)

mfg
tobi

komolze
2015-01-22, 12:09:04
Speicherbelegung FC4 mit 31irgendwas x 1irgendwas DSR

http://abload.de/thumb/fc31xx78xmn.jpg (http://abload.de/image.php?img=fc31xx78xmn.jpg)

hier die Settings:

http://abload.de/thumb/fc4settings2zzqa.jpg (http://abload.de/image.php?img=fc4settings2zzqa.jpg)


Speicherblegung mit nativer 1440er Auflösung:

http://abload.de/thumb/fc41440qnusz.jpg (http://abload.de/image.php?img=fc41440qnusz.jpg)

Zum Einsatz kamen 2xGTX 980 im SLI zusammen mit nem i7 3770k @ 4,5ghz

Matrix316
2015-01-22, 12:24:36
Ich teste mal heute abend mit genau diesen Einstellungen. Wie geht denn das Anzeigen der Speicherverbrauchsdaten im Game? Ist das eine Afterburner oder Fraps Einstellung oder gibt's da im Game eine Option? :redface:

Thunder99
2015-01-22, 12:28:46
Ich teste mal heute abend mit genau diesen Einstellungen. Wie geht denn das Anzeigen der Speicherverbrauchsdaten im Game? Ist das eine Afterburner oder Fraps Einstellung oder gibt's da im Game eine Option? :redface:
Im Afterburner OSD aktivieren und dann die Graphen auf OSD einstellen (die wo man im Display angezeigt haben will)

robbitop
2015-01-22, 13:05:54
Wäre sinnvoll ohne SLI zu testen, damit man vergleichbare Bedingungen hat. :)

tdon
2015-01-22, 14:12:47
Ja und ein dahingeworfenes Bild ist auch nicht toll. Das sollte man ein paar Minuten mit GPUz aufzeichnen.

robbitop
2015-01-22, 14:39:39
Idealerweise gleiche Szene (Savegame?) und angepasster CPU- und GPU Takt (so gut es geht) um die Nebenbedingungen weitgehend gleich zu halten.

Wenn ihr euch jetzt noch ein klein wenig abstimmt, könnte man wirklich ernsthaft schauen, ob (in Rearlword) etwas an diesem Problem dran ist oder nicht.

Thunder99
2015-01-22, 14:54:06
Wie gesagt, ich konnte beobachten das vom Sprung von 4GB auf 3,7GB die FPS von 9 auf 15 gestiegen sind (FC4 in 4k in Ultra & TX4AA). Wenn ich dazu komme kann ich es nochmal reproduzieren und besser dokumentieren

tdon
2015-01-22, 16:09:03
Idealerweise gleiche Szene (Savegame?) und angepasster CPU- und GPU Takt (so gut es geht) um die Nebenbedingungen weitgehend gleich zu halten.

Wenn ihr euch jetzt noch ein klein wenig abstimmt, könnte man wirklich ernsthaft schauen, ob (in Rearlword) etwas an diesem Problem dran ist oder nicht.


Es gibt zu wenig 980 Nutzer, die sich dem annehmen können. Daran scheitert es doch schon. In Unity könnte man das leicht ohne save umsetzen. Einfach den Startpunkt bei Ankunft in der Stadt nutzen und sich auf die gleichen game settings einigen. Gleichen CPU Takt und GPU Takt halte ich für Quatsch. Selbst dann wird es Kritiker geben, die sich dem verweigern mit dem Argument nicht gleiches System. Siehe Nai Test, wo es klar ist das die 970 ab 3,5GB einbricht. Solange die Presse kein Druck aufbaut, wird nichts passieren. Nvidia wird die Unterschiede ohne Druck nicht verraten. Wir drehen uns jetzt schon im Kreis.

komolze
2015-01-22, 19:24:09
ich habe vorher 2 x GTX 970 gehabt (video habe ich schon gepostet)

und jetzt habe ich 2 x GTX 980 (video auch schon gepostet), man sieht die Unterschiede deutlich bei Mordors Schatten und von daher ist für mich zumindest bewiesen, dass in Realworld was dran ist an diesem Probelm

@tdon

wenn du mir sagst, was ich zu tun habe, mache ich das gerne für die community.
ich würde dafür auch eine karte ausbauen, muss ich sowieso noch zwecks ASIC

Unity hätte ich ebenfalls, könnte ich also installieren

Matrix316
2015-01-22, 20:21:57
Aaalso noch mal ein Test mit ähnlichen Settings wie gestern:
http://abload.de/img/003qnjlq.jpg (http://abload.de/image.php?img=003qnjlq.jpg)
http://abload.de/img/006x6jlr.jpg (http://abload.de/image.php?img=006x6jlr.jpg)
http://abload.de/img/007krk6q.jpg (http://abload.de/image.php?img=007krk6q.jpg)

Und ein kleines Video, leider nicht das ganze Bild, sonst sieht man den Text nicht und ich hab keine Ahnung wie ich das Gameplay aufnehmen soll, auch wenn das der Afterburner oder Fraps können soll. Aber das wird dann vielleicht zu groß, wenn man noch den Text lesen will. ;) Man sieht aber, dass ich mich gerade bewegt und mit einer Hand die Kamera halte und mit der anderen steuere...
yNS8kPMg2CQ

Die FPS sind zwar niedriger als gestern, aber da war wahrscheinlich AA niedriger. Allerdings wird da nix einstellig.

Nakai
2015-01-22, 22:04:31
Ich bin mir nicht sicher, aber denke es wird mit den ROP-Partitionen (oder zumindest mit etwas am backend) zusammenhängen. Diese sind laut Infos direkt an einem L2$-Slice welcher wiederum an 2*32Bit IMC ist. Ein slice is 128 KByte und ist wohl über ne crossbar mit allen SMMs verknüpft / verdrahtet. Wenn jetzt also die selber Datenmenge versucht L2 Hits zu landen dann muss sequenziert werden. So meine Theorie.
Leider gibt es immer noch keine dieshots frei verfügbar, sonst könnte man mehr sagen. Was nVidia whitepaper nennt, nenne ich Info-Broschüre. Null Infos zur MMU, MMIO etc.


Wir beide hatten schon einen ähnlichen Ansatz. ;)

Ich glaube wir werden dazu nie wirkliche Infos finden. Aber interessant ist auch, dass GM206 genau ein halber GM204 ist. Einschränkungen bei der Architektur, welche sonderbare Skalierungseffekte verrusachen?

€: Und selbst wenn ein GM204 geätzt werden würde? Was würde man erkennen? Wenn man direkt sehen würde, dass pro GPC/4 SMMs genau eine ROP-Partition vorhanden ist? Da müsste der generelle Chip-Aufbau schon sonderlich dramatisch anders aussehen.

Matrix316
2015-01-22, 23:12:46
Habs jetzt auch mal in Watchdogs geschafft die 3,5 GB zu überschreiten, ohne dass es unspielbar wird. Wobei 15-19 FPS auch nicht viel sind, aber es ist zumindest in dieser Konfig konstant (am Anfang im Stadionkeller).
http://abload.de/img/watchdogsauflsungk4y98.jpg (http://abload.de/image.php?img=watchdogsauflsungk4y98.jpg)
http://abload.de/img/watchdogsauflsung11xys4.jpg (http://abload.de/image.php?img=watchdogsauflsung11xys4.jpg)
http://abload.de/img/watchdogsfpstbxlq2.jpg (http://abload.de/image.php?img=watchdogsfpstbxlq2.jpg)

Das Problem ist auch, dass man nicht genau weiß ob die Performance auch mit der VRAM Nutzung gleich steigt/fällt, denn ich hatte in bestimmten Konfigs auch mit nur 3 GB VRAM Auslatung weniger FPS als mit mehr als 3,5 GB. Je nach Details, AA und Auflösung.

Hübie
2015-01-22, 23:52:00
Wir beide hatten schon einen ähnlichen Ansatz. ;)

Ich glaube wir werden dazu nie wirkliche Infos finden. Aber interessant ist auch, dass GM206 genau ein halber GM204 ist. Einschränkungen bei der Architektur, welche sonderbare Skalierungseffekte verrusachen?

€: Und selbst wenn ein GM204 geätzt werden würde? Was würde man erkennen? Wenn man direkt sehen würde, dass pro GPC/4 SMMs genau eine ROP-Partition vorhanden ist? Da müsste der generelle Chip-Aufbau schon sonderlich dramatisch anders aussehen.

Anhand der Anordnung kann man schon einiges ablesen. Unter einem Mikroskop kann man schon gut was erkennen. Hab neulich aus Neugier mal einen Xilinx Virtex-4 betrachtet :freak:

Nichts desto trotz hast du natürlich Recht. Man kann a) nicht genug "lesen" und b) ist es den Aufwand nicht wert.

@Matrix: Irgendwie sinnfrei was du machst ;)

Matrix316
2015-01-23, 00:12:31
Ich versuche es nur in der Praxis nachzuvollziehen oder das Gegenteil zu beweisen. ;)

Nakai
2015-01-23, 00:30:39
Anhand der Anordnung kann man schon einiges ablesen. Unter einem Mikroskop kann man schon gut was erkennen. Hab neulich aus Neugier mal einen Xilinx Virtex-4 betrachtet :freak:

Nichts desto trotz hast du natürlich Recht. Man kann a) nicht genug "lesen" und b) ist es den Aufwand nicht wert.


Naja bei GK110 gab es nur einen Block für ROP-Partitionen etc... Bei AMD ist das meistens außenrum verteilt gewesen. Wenn es bei GM204 nun anders aussieht, könnte man schon sehr wage Schlüsse ziehen. Aber selbst GK104 und GK110 sehen schon etwas unterschiedlicher aus.

Was ich interessant finde ist, dass Maxwell anscheinend deutlich höher taktbar ist, als Kepler. Womöglich hat man die SMs aufgeräumt und es geschafft die Latenzen zu senken. Bei Kepler gab es noch globale Scheduler in den SMXs, bei Maxwell sind diese für bestimmte SIMDs nur noch zuständig. Wenn man das konsequent durch die Architektur durchzieht, kann man Komplexität aus dem Design nehmen, Latenzen senken und indirekt höhere Taktraten fahren. Wäre auch ein Grund für dedizierte DP-Units. Sind die SP-Units fähig DP-Berechnungen durchzuführen, geht da schonmal die Latenz hoch, wegen höherer Komplexität, wodurch die SPs niedriger taktbar sein sollten. Habe dazu jedenfalls mal ein Paper gelesen.

Ich vermute, dass NV einen Bullshot für GM204 geliefert hat, hat irgendwie seine Gründe.

Hübie
2015-01-23, 00:32:19
Na ja: A) darfst du im Video auch sprechen (sofern du nicht stumm bist), B) solltest du schon etwas mehr herumlaufen als nur in dem Popeldorf (vielleicht mit dem Heli von A nach B oder so) und C) ist es deine Zeit. Wenns dir nix ausmacht dann mach weiter, aber halt dich nicht so lang dran auf ;)

Edit: @Nakai: Wahrscheinlich hat Maxwell mehr Domänen/PLLs die man separieren kann. Ist eigentlich kein Hexenwerk. Dazu kommt noch eine wahrscheinlich höhere Anzahl an kleinen Transistoren. Die 28nm sind ja bekanntlich nicht flächendeckend angewandt. Gibts irgendwo einen dieshot vom GK110 frei verfügbar? =)

dildo4u
2015-01-23, 02:17:14
NV guckt sich das Verhalten gearde an.

https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/post/4430032/#4430032

Angiesan
2015-01-23, 07:41:40
Die müssen sich da nix angucken, die müssen einfach mal sagen was Sache ist.
Was die jetzt machen ist einen Weg finden wie man die Belegung auf 4 GB in den einschlägigen Tool hochbekommt, damit wieder Ruhe ist.
Die paar Anwendungen wo man es wirklich zu merken scheint interessieren dann nicht mehr.
Als ob die nicht wissen was sie gebaut hätten :mad:

Dann lassen sie sich noch feiern, siehste NV behebt die Probleme :biggrin:

Matrix316
2015-01-23, 09:24:20
Wobei ich immer noch nicht 100% überzeugt davon bin, dass es was mit der Speicheranbindung zu tun hat.

Stelle mer uns doch mal janz domm:

Wenn bei gleichen Settings eine 980 4 GB und eine 970 nur 3,5 GB Speicher füllt, müssen die restlichen 500 MB ja irgendwo sein, oder reduziert der Treiber die Datenmenge, je nach Grafikkarte? Wenn die 500 MB da irgendwo sind, sind sie ausgelagert und DANN müsste es eigentlich zu schlechten Leistungen kommen. Tut es das?

Dass die FPS runter gehen, wenn mehr als 3,5 GB Speicher verwendet, könnte zum Beispiel einfach mit der Datenmenge zutun haben, die anlegen und durch die 970er Architektur gebremst werden. Es war ja von Anfang an in den Benchmarks zu sehen, dass z.B. eine 290X in höheren Auflösungen mehr Power hat.

Die 4 GB kann man durchaus füllen, aber es gibt nur bestimmte Szenarien wo das bei mir zumindest passiert und diese sind schon ziemlich extrem und da ist die Performance selbst mit anderen Karten nicht so toll.

(UND ICH WILL EINFACH KEINE KAPUTTE KARTE HABEN!!! Deswegen das Suchen nach den letzten Strohhälmen. ;))

EDIT: Schaut mal hier die UHD Benchmarks von Watchdogs vs Battlefield an. In Battlefield liegt die 970 mit der 290X gleichauf und in Watchdogs massiv dahinter Liegts vielleicht an der Engine vom Spiel?
http://www.allround-pc.com/artikel/grafikkarten/2014/test-nvidia-geforce-gtx-970-980

Hübie
2015-01-23, 09:30:09
Wenn das Programm unbedingt diese 500 MB haben will dann werden die auch in den VRAM geladen. Sind die 4 GB voll wird geswappt. Also in deinem Fall wird einfach der Pool verringert, was nicht weiter tragisch ist.
@Angiesan: Hahahaa :biggrin: Ja die tun was fürs Image ;D

Palpatin
2015-01-23, 09:55:07
Wenn die 500 MB da irgendwo sind, sind sie ausgelagert und DANN müsste es eigentlich zu schlechten Leistungen kommen.

Eben nicht zwangsläufig, am besten kann man das Sicher in einer 970er SLI vs 980er SLI Umgebung mit einem 4k Monitor und den bekannten speicherfressenden Spielen testen.

Matrix316
2015-01-23, 09:57:34
Genau. Die Frage ist halt ob die Karte überhaupt schnell genug wäre für die Fälle wo wirklich 4 GB VRAM gebraucht werden. Gerade SLI Tests wären dafür sogar noch interessanter.

Bei den Watchdogs Tests in 4K sind z.B. alle Karten langsam und eine 290X sogar schneller als eine GTX980.
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/#diagramm-watch-dogs-3840-2160

Mit SLI sind die Ergebnisse hier in 4K eigentlich normal:
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/15/#diagramm-tomb-raider-sli-in-3840-2160

Hübie
2015-01-23, 10:01:51
Im Grunde kosten höher aufgelöste Texturen nicht viel Leistung. (Render-) Auflösung dagegen bricht auf 1/3 bei Faktor 4 (MPixel) ein. Problem ist eigentlich dass durch PS4/XBONE immer rund 5,6 GB vorausgesetzt werden wenn man einen Port vor sich liegen hat. Meine nächste Karte soll mindestens 6 oder gar 8 GB haben, sonst wird nicht umgerüstet.

Matrix316
2015-01-23, 10:11:11
Ich hatte ja vorher eine Gigabyte 290X und nur weil die so verd.... laut war, bin ich gewechselt. In manchen Sachen ist die GTX970 ja auch schneller.

Auf eine GTX980 wechseln wäre eine Option, aber die hat ja auch nur 4 GB.

Eine 290X mit 8 GB wäre auch eine Idee, aber die kostet a) mehr und b) wäre die Frage ob der viele RAM was bringt, wenn man nicht gerade Crossfire fährt. Außerdem sind selbst die leisesten 290er Karten AFAIK lauter als die 970er. Ich hatte mal eine MSI 290 Gaming und selbst die war relativ laut unter Last. Bei der 970er hör ich kaum was im Spiel.

Air Force One
2015-01-23, 10:38:13
Bei der 970er hör ich kaum was im Spiel.

Also ist die 970er doch lauter als deine alte 290er? xD *Spaß*

Also ich finde die Vapor bzw. Trix 290er genau so leise wie die 970er....

AngelDust 32
2015-01-23, 10:41:00
@Matrix
Die einzigen die einen guten Kühler für die 290 gebaut haben sind Powercolor und Sapphire (siehe CB Roundup)

Aber genug offtopic

Wäre sehr interessant wenn den mal eine Hardware Seite einen 970 980 Vergleich die Speichergeschwindigkeit testen würde.
Bis jetzt gibt es den Vergleich ja nur von einigen Usern mit dem Cuda bench von Nai.

Mit dem Mäusekino getippt

Palpatin
2015-01-23, 10:47:21
Meine nächste Karte soll mindestens 6 oder gar 8 GB haben, sonst wird nicht umgerüstet.
So sieht es aus, bis dahin muss die 780TI herhalten und zur not halt Texturen etc runtergedreht werden bzw heb ich mir die Spiele für die Zukunft auf.
Und abseits von 3-4 aktuellen AAA Titel läuft eigenlich auch alles mit 780Ti in 4k einwandfrei.
Ich warte im Prinzip auf den richtigen Nachfolger der 780 bzw 780ti, Titan zeug ist mir zu teuer und die 980 ist halt der Nachfolger der 680.

Thunder99
2015-01-23, 11:10:48
Für mich ist nun die Sache klar:

Bis 3,5GB full Speed, danach low Speed bis 4GB mit teilweisen Auslagerung in die Pagefile.

Ist das schlimm? Derzeit für mich nicht! Wie kommt das zustande? Dazu gibt es sehr gute Ansätze/Spekulationen hier im Thread.

Wird es "schlimm"? Ja, zumindest mit Spielen die 4GB ohne Probleme füllen können. Bestes Beispiel wurde hier schon genannt. Envole, ein Monster Shooter wo es ja blöd wäre wenn man im MP keine 60fps mehr schafft wegen dem "Bug", sprich von 60 auf 30/40 fällt

komolze
2015-01-23, 12:04:41
Neuer treiber da, 347,25 ändert aber nichts bzw steht nichts im change log.

der kommt nur wegen der 960 denke ich

horn 12
2015-01-23, 13:01:45
@Komolze

Dann wechselst wieder zu einer R9 290 4/8GB Karte
oder wartest auf R9 380(X) oder GM 200

ChaosTM
2015-01-23, 13:05:34
Ich stand schon knapp vor einem Sidegrade - gsd habe ich es nicht gemacht.

Die Speicherbelegung liegt bei mir praktisch immer ganz knapp am 4GB Limit..

Hübie
2015-01-23, 13:06:38
Wäre zumindest in sofern sinnvoll dass man halt zeigt man akzeptiert solch Gebahren nicht, jedoch fände ich es voreilig. Ich lehne mich jetzt mal eins zwei Monate zurück und schau mir die Geschichte dann noch mal an. Wenns dann immer noch thematisiert wird ists wirklich schlimm und offenbar nicht behebbar.

BitJäger
2015-01-23, 13:28:55
Im Overclock.net Froum (http://www.overclock.net/t/1535502/gtx-970s-can-only-use-3-5gb-of-4gb-vram-issue/220#post_23445878) hat ein User die Vermutung das SMMs deaktiviert sein könnten.

Nakai
2015-01-23, 13:38:41
Im Overclock.net Froum (http://www.overclock.net/t/1535502/gtx-970s-can-only-use-3-5gb-of-4gb-vram-issue/220#post_23445878) hat ein User die Vermutung das SMMs deaktiviert sein könnten.

Das wäre zu simpel. Die 4GB auf der Karte sind zur Verfügung. Wenn es ein Hardware-Problem ist, dann hängt es woanders. Eine lineare Reduktion kann man nicht beobachten.

Reinher von der Beobachtung sieht es eher so aus, dass das Backend nicht "gleich" angesprochen wird. Treiberproblem? Wenn NV "TBA" diesbezüglich nennt, könnte es doch schon etwas problematischer sein. Derzeit denke ich einfach, dass bestimmte Backend-Bereiche(ROP-Partitionen oder deren Teile) nicht homogen angesprochen werden. Der Treiber versucht die auszugleichen bzw. der Treiber scheint hierzu Speicher nur bei "guten" Partitionsbereichen zu alloziieren.

BitJäger
2015-01-23, 13:41:43
Solange eine Software Lösung (Treiber oder/und VGA BIOS) das neutralisieren kann ist alles OK. An eine Reparatur oder Aus/Umtausch seitens NV glaube ich nicht.

M4xw0lf
2015-01-23, 13:42:42
Im Overclock.net Froum (http://www.overclock.net/t/1535502/gtx-970s-can-only-use-3-5gb-of-4gb-vram-issue/220#post_23445878) hat ein User die Vermutung das SMMs deaktiviert sein könnten.
Hä? Natürlich sind SMMs deaktiviert, sonst hätte man ja eine GTX980 :uconf:
Das bedeutet aber ja noch nicht, dass das SI damit fest gekoppelt ist, wäre im Gegenteil wohl eher ziemlich seltsam.

komolze
2015-01-23, 14:41:16
könnte mir bitte jemand sagen, wie ich dieses dmw bei Win8.1 beende damit NAIs Benchmark optimal laufen kann? DANKE

aufkrawall
2015-01-23, 15:27:12
Probier das mal:
https://osu.ppy.sh/forum/t/141175

Elite_Warrior
2015-01-23, 17:25:17
@aufkrawall: Danke schön! Hat wunderbar geklappt. Als 970 Besitzer auch hier das gleiche Phänomen. Mit DWM wird Bandbreite des 24ten Chunks vebraucht, ohne gibt es dort die Maximale Bandbreite, die restlichen letzten Chunks hingegen krebsen bei 25GB/s.

Maxwell hat bei mir mittlerweile den 'meh' Status erreicht.

Hübie
2015-01-23, 18:29:30
Auf Gefahr hin alt zu sein: was ist in unserer Sprache "meh-Status"?

Isen
2015-01-23, 18:35:22
Nicht wohltuender Beigeschmack.

Oder Klassisch: Leibniz mit nur 51 Zähnen

Bandi
2015-01-23, 19:12:40
etwa so:http://i2.kym-cdn.com/photos/images/original/000/724/811/13a.jpg

Aber die Affäre ist schon etwas ärgerlicher als "meh". Bei so einer Firma wil ich einfach nicht mehr Kunde sein, unabhängig davon ob man rechtliche Handhabe hat oder nicht.

Isen
2015-01-23, 19:15:45
Trifft es treffender (meh), zustimm.

dildo4u
2015-01-23, 19:19:54
Könnte ne Treiber Sache sein die 980M hat das Problem nicht.

https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/post/4430975/#4430975

aufkrawall
2015-01-23, 19:22:16
Könnte ne Treiber Sache sein die 980M hat das Problem nicht.

https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/post/4430975/#4430975
Wie viel L2 Cache liest Aida unter GPGPU für die aus?

Maorga
2015-01-23, 20:01:43
Das würde mich jetzt auch mal interessieren. Theoretisch müsste die 2MB haben. Auch müsste dies die 980 und 970 haben. Da die 16 Rops direkt am Memorycontroller hängen und mit 512 kb Cache haben. Alle 3 haben 64 Rops ergo sollte 2 MB sich herauskristallisieren.

AnarchX
2015-01-23, 20:08:02
Dann sind wohl doch die 1,8MiB L2 und eine von den SMM unabhängige Deaktivierung Schuld:
Die GTX 980M - 12SMM - 256-Bit hat laut SiSoft wohl 2MiB L2: http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffc9f0d6b7d6ebdceddce8cebc81b197f297aa9abccff2ca&l=en
SiSoft waren es auch die schon kurz vor dem Launch der 970 1,8MiB attestiert haben, wohl über CUDA bestimmt. Schon bei den Prototypen (http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e290f181e980e390b6d1ecc1f0d6a499a98fe6dbea cca499ac8af2cffed8bdd8e5d5f380bd85&l=en)waren die Angaben korrekt.

Sofern das stimmen sollte, hängt das wohl nicht mit der Zahl der SMM zusammen, sondern man hat hier gezielt L2-Cache deaktiviert, sei es aus Yield-Gründen oder eben um die 970 hinter den Key-Specs in der Leistung etwas gegenüber der 980 zu drücken.

Thunder99
2015-01-23, 20:10:51
Dann sind wohl doch die 1,8MiB L2 und eine von den SMM unabhängige Deaktivierung Schuld:
Das wäre echt mies :( Trotz das es ne gute Karte ist ärgert das einen :mad: :frown:

Maorga
2015-01-23, 20:17:25
Dann sind wohl doch die 1,8MiB L2 und eine von den SMM unabhängige Deaktivierung Schuld:

Ja die SMM sind ja bei der 980M (12-96TMU) geringer als bei der 970 (13-104TMU). ROPs sind aber bei beiden gleich 64.


In diesen Whitepapers (http://international.download.nvidia.com/geforce-com/international/pdfs/GeForce_GTX_980_Whitepaper_FINAL.PDF) steht auf Seite 7 folgendes:

The GeForce GTX 980 features four 64-bit memory controllers (256-bit total).
Tied to each memory controller are 16 ROP units and 512KB of L2 cache. The full chip ships with a total of 64 ROPs and 2048KB of L2 cache(this compared to 32 ROPs and 512K L2 on GK104)

AnarchX
2015-01-23, 20:21:24
Ja die SMM sind ja bei der 980M (96) geringer als bei der 970 (104). ROPs sind aber bei beiden gleich 64.


Auf der GTX 970 waren nie 64 ROPs messbar:
http://www.hardware.fr/articles/928-3/performances-theoriques-pixels.html
http://techreport.com/blog/27143/here-another-reason-the-geforce-gtx-970-is-slower-than-the-gtx-980

Insofern wurden wohl in diesem Schritt auch ROPs deaktiviert. Damals war die Vermutung, dass es noch mit SMM zusammenhängt. Was aber wohl nun mit den Daten der 980M eher in Richtung einer zusätzlichen Deaktivierung geht.

tdon
2015-01-23, 20:31:58
Shadow of Mordor unverändertes Bild bei mir, Blockade bei 3,5 GB. Ich habe schon in 1920x1080p 3,5GB Verbrauch. Stelle ich auf 150% und sogar 200% Auflösung, bleibt es bei 3,5GB. Afterburner zeigt etwas mehr an, aber ich denke GPUz Aufzeichnung ist sauberer ohne Einfluss von irgendwelchen OSD Tools. Treiberseitig so lange wie möglich auf 3,5GB zu limitieren ist wahrscheinlich schneller als wenn gleich die vollen 4GB reingeladen werden.

Matrix316
2015-01-23, 21:16:37
Ok, ein Ergebnis ist komisch und deutet irgendwie auf ein Problem hin - oder hab ich den Benchmark nicht verstanden?

MSI Kombustor 3 - jeweils in Full HD und kein AA. Wieso krieg ich mit 2 GB Speicherauslastung mehr als doppelt so viel FPS wie mit 4 GB? Oder wäre das normal?

http://abload.de/img/1wpdwv.jpg (http://abload.de/image.php?img=1wpdwv.jpg)

http://abload.de/img/20sck9.jpg (http://abload.de/image.php?img=20sck9.jpg)

Sollte da nicht das gleiche Ergebnis rauskommen, egal wie viel Speicher verwendet wird? Mit 1 GB krieg ich auch nicht viel mehr FPS wie mit 2 GB.
http://abload.de/img/349u5m.jpg (http://abload.de/image.php?img=349u5m.jpg)

http://abload.de/img/4hyutq.jpg (http://abload.de/image.php?img=4hyutq.jpg)

doktor
2015-01-23, 21:20:46
Matrix darum gehts doch mehr oder weniger die letzten ~40 Seiten schon, dass dieses Verhalten nicht normal ist.:tongue:

aufkrawall
2015-01-23, 21:23:49
Die 980 bricht nicht ein, wenn man die zu quälende VRAM-Menge erhöht in diesen Synthie-Tools?
Ich hatte es so in Erinnerung, dass das eigentlich vergleichbar war.

Matrix316
2015-01-23, 21:26:47
Die 980 bricht nicht ein, wenn man die zu quälende VRAM-Menge erhöht in diesen Synthie-Tools?
Ich hatte es so in Erinnerung, dass das eigentlich vergleichbar war.
DAS wäre die Frage.

Bei Spiele Benchmarks muss man ja erst drastische Auflösungen und AA einstellen, damit überhaupt 4 Gigabyte genutzt werden. Aber wenn in nur Full HD und kein AA die Karte FPS verliert, nur weil mehr VRAM genutzt werden...

Kann vielleicht jemand mit einer 290X oder 980 diesen VRAM Test mit 2 und 3 Gigabyte Full HD ohne AA machen und fällt die Leistung dort auch so drastisch ab?

doktor
2015-01-23, 21:34:19
Aber bitte bitte mit einem Proccess Explorer Screen wie diesen hier
http://i.imgur.com/IHKkY6t.png
Hab schon bei 3dguru um solch einen Screen gebeten... leider keinen erhalten.

hier ebenfalls :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10493741&postcount=667
...

Ein Process Explorer Screenshot des 3GB Kombustor test mit einer GTX980 wäre verdammt interessant.

...


Edit: Ging auch auf Seite 35 dann kurz darüber, dass die Burner mit dem VRAM arbeiten und die Frames einbrechen im vergleich 2-3 GB Test.

irgendwie haben einige das Problem immernoch nicht verstanden.
Es lassen sich sehr wohl 4GB voll machen auch in games, nicht nur mit irgendwelchen "burnern", aber diese "burner" laden ihn nur voll, sie arbeiten nicht damit. Das ist genau das Problem! Die Leistung bricht extremst ein >3,5Gb weil die Bandbreite fehlt, bei mir wars sogar noch eher.

Nein ich habe die GTX970er nicht mehr @den der vorher fragte

Edit: @komolze: die burner arbeiten wohl damit. Der 2GB Test läuft mit fast 3x so vielen FPS wie der 3GB Burner test. Was ich nur gerne mal sehen würde ist ein Game/Prog das alleine den VRAM über 3,3 GB auslasten kann/darf und so wie ich den Post über den EVGA Burner verstanden habe dachte ist das dies hier der Fall ist.


Edit: wobei ich im kombuster AA eingeschalten hatte

tdon
2015-01-23, 21:35:37
GTX 970M keine Auffälligkeit
http://forums.guru3d.com/showpost.php?p=4998194&postcount=86

Dant3
2015-01-23, 21:38:04
Sagen wir mal die sache bleibt jetzt wie sie ist.
Die karte kackt einfach bei 3,5 GB belegung ein und Nvidia kann nichts dagegen machen, was passiert dann realistisch gesehen? Rueckgabe fuer alle besitzer nach wunsch an die haendler und Nvidia muss die nötigen kosten tragen oder ist die wahrscheinlichkeit groß das sie einfach so davon kommen, schlechte presse kassieren und wir auf den karten sitzen bleiben?

Isen
2015-01-23, 21:44:49
@Matrix316,

Auf AMDs geht Kombuster nicht.


@Dant3,

Nvidia Optimiert einfach den Treiber, sodass der Verbrauch auf 3,5Gb gehalten werden kann.
Bei Titeln mit NV-Sponsor wird dies wohl auch so sein.... werde ich ja beim Evolve Release sehen, vorher war bzw. jetzt (Closed Beta) auf 1440p mit FXAA > 3700mb - Auf 1600p mit FXAA > 3900mb, genau wie bei der 980, 290 und 290x.

aufkrawall
2015-01-23, 21:45:36
Das wäre ja ein Finanzfiasko sondergleichen, wenn sie theoretisch alle 970-Chips zurücknehmen müssen.
Mit was wollte man die denn ersetzen?

Ich tippe auf aussitzen und wegducken.

Shaft
2015-01-23, 21:46:01
Kann man derzeit ungefähr abschätzen, wieviele GPUs betroffen sind?

aufkrawall
2015-01-23, 21:52:00
Kann man derzeit ungefähr abschätzen, wieviele GPUs betroffen sind?
Alle Desktop-970s. Oder meinst du eine konkrete Zahl?

Isen
2015-01-23, 21:54:50
Kann mal meinen Bekanntenkreis abklappern und darum bitten Nais Tools durch zu hauen. Wenn alle das Problem bestätigen wäre es 9 von 9 inkl der meine.
Dann haste deine " Zahlen " ...
Sind alle betroffen.

M4xw0lf
2015-01-23, 21:56:03
Das wäre ja ein Finanzfiasko sondergleichen, wenn sie theoretisch alle 970-Chips zurücknehmen müssen.
Wegen 1/8 nicht richtig nutzbarem Speicher? Wohl kaum. Da sehe ich auch die Verhältnismäßigkeit nicht wirklich, muss ich sagen :redface:

Matrix316
2015-01-23, 21:57:15
Aber bitte bitte mit einem Proccess Explorer Screen wie diesen hier
http://i.imgur.com/IHKkY6t.png
Hab schon bei 3dguru um solch einen Screen gebeten... leider keinen erhalten.
[...]
Hmmm...
http://abload.de/thumb/hmmm1rqvx.jpg (http://abload.de/image.php?img=hmmm1rqvx.jpg)

aufkrawall
2015-01-23, 21:58:03
Wegen 1/8 nicht richtig nutzbarem Speicher? Wohl kaum. Da sehe ich auch die Verhältnismäßigkeit nicht wirklich, muss ich sagen :redface:
Ist gut möglich, dass da juristisch nichts zu machen ist.
Es sind trotzdem häufig die 500MB, die fehlen, damit es gut statt beschissen läuft.

Dant3
2015-01-23, 21:58:04
@Dant3,

Nvidia Optimiert einfach den Treiber, sodass der Verbrauch auf 3,5Gb gehalten werden kann.
Bei Titeln mit NV-Sponsor wird dies wohl auch so sein.... werde ich ja beim Evolve Release sehen, vorher war bzw. jetzt (Closed Beta) auf 1440p mit FXAA > 3700mb - Auf 1600p mit FXAA > 3900mb, genau wie bei der 980, 290 und 290x.

Aber wenn der verbrauch maximal auf 3,5GB geht (wie auch immer man das programmieren will) habe ich ja trotzdem nicht die 4GB zur verfuegung die auf meinem Karton beworben werden. Wenn die Karte dann ueber 3,5GB hinaus geht kackt sie doch trotzdem ein.

Ich habe also fuer speicher bezahlt den ich aber nicht wirklich benutzen kann, das ist doch betrug?

Isen
2015-01-23, 21:58:04
Fiasko (https://www.youtube.com/watch?v=iQ_u4MatC7U) wäre es viel eher, wenn die Presse ihr Mund hält.
Für sowas sind die da, oder ist das " Für den lieben Consumer " nur eine Floskel :D?


@Dant3,

Betrug nicht. Eher Täuschung.
Wie gesagt, Presse ^^
Wenn die den Mund halten und ein auf DDR machen, kriegen das eh nur ein paar Pappenheimer mit, dem Rest ist das egal.

doktor
2015-01-23, 21:59:49
Hmmm...
http://abload.de/thumb/hmmm1rqvx.jpg (http://abload.de/image.php?img=hmmm1rqvx.jpg)

Mit einer GTX980 darum gehts.

Shaft
2015-01-23, 22:03:46
Alle Desktop-970s. Oder meinst du eine konkrete Zahl?


Konkrete Zahl, denn so wie ich das sehe sind nicht alle betroffen? :confused:

Isen
2015-01-23, 22:05:30
Naja... zu den Anfänglichen Tests und jenen die SLI/iGPU verwenden/dwn-off ... wo letzteres korrekt ist.... too much Kindergarten-getummel dazwischen.

Nakai
2015-01-23, 22:06:05
Insofern wurden wohl in diesem Schritt auch ROPs deaktiviert. Damals war die Vermutung, dass es noch mit SMM zusammenhängt. Was aber wohl nun mit den Daten der 980M eher in Richtung einer zusätzlichen Deaktivierung geht.

Gibt es nicht GTX 970, welchen den vollen 2MB L2-Cache haben?

Isen
2015-01-23, 22:10:49
Wars nicht ne Messungenauigkeit, geschuldet des Tools:confused: ( die 2mb anzeigten ) ...

tdon
2015-01-23, 22:10:50
Ich frage mich wo das Gerücht immer herkommt. Unter CUDA zeigt jede 970 1.75MB an.

Hübie
2015-01-23, 22:13:33
Unter was CUDA? :rolleyes:

Thunder99
2015-01-23, 22:22:04
Was sind die Alternativen zur GTX970 außer ne R290(x)? Entweder ne langsame 960er oder noch mehr zahlen für ne 980er.

Einzige (wenn) was passiert ist ein Image Schaden von nvidia. Aber sonst nicht viel da ja 4GB belegt werden können, nur nicht mit full speed :(

Ätznatron
2015-01-23, 22:35:33
So'n kleiner Imageschaden halt, was soll's.

Der aktuelle Imageschaden für die sogenannte Fachpresse ist viel erheblicher.

Nakai
2015-01-23, 23:13:29
So'n kleiner Imageschaden halt, was soll's.

Der aktuelle Imageschaden für die sogenannte Fachpresse ist viel erheblicher.

Mhh, schon beeindruckend, wie sich die gesamte Presse vor diesem "Problem" gedrückt hat. Vor allem wäre dieses Problem deutlich schneller publik bzw. aufgeklärt worden, wenn die Presse mal "mitgeholfen" hätte.

Da war nur PCGH dabei, welche relativ bald bei NV angefragt haben.

Ich muss hier auch wirklich sagen, dass die meisten Reviews einfach nicht ins Detail genug gehen. Sowas wie hardware.fr gemacht hat, mit Füllratenvergleich bei NV Karten, wäre allgemein toll. Viel toller wäre es, wenn man noch mehr ins Detail gehen würde, mit deutlich mehr Tests, sei es synthetischer Natur, Speicherauslastung, Speicherverbrauch, Latenzen, etc.

Hübie
2015-01-23, 23:45:01
Na ja welche Erkenntnis in Bezug auf Spiele erlangt man dadurch? Eher keine verwertbaren Daten. Also irgendwie muss man die Kirche im Dorf lassen.

aufkrawall
2015-01-23, 23:55:31
Genau, Spiele brauchen keine Bandbreite.
secret sauce wirds richten.

Wie naiv muss man sein...

-/\-CruNcher-/\-
2015-01-24, 00:00:30
@aufkrawall: Danke schön! Hat wunderbar geklappt. Als 970 Besitzer auch hier das gleiche Phänomen. Mit DWM wird Bandbreite des 24ten Chunks vebraucht, ohne gibt es dort die Maximale Bandbreite, die restlichen letzten Chunks hingegen krebsen bei 25GB/s.

Maxwell hat bei mir mittlerweile den 'meh' Status erreicht.

Sorry aber wie das leute aufbauschen ist echt nicht mehr feierlich wenn es kein Bug ist ist es eine Wirtschaftliche Entscheidung und sie war absolut richtig.

Keiner brauch irgendwas fürchten der weiss worauf er sich mit der GTX 970 eingelassen hat.

Die Install base ist aussreichend vorhanden und die Entwickler werden sich anpassen.

aufkrawall
2015-01-24, 00:02:22
Welchen Käufer interessiert es, was das Produkt dem Hersteller bringt?
Gesteh dir lieber ein, dass es eine unaufrichtige Umgangsweise mit dem Kunden ist und man dir so auch dein Geld aus der Tasche geleiert hat.

-/\-CruNcher-/\-
2015-01-24, 00:15:10
Nein hat man mir nicht ich kenne Nvidia ich kenne ihre vorgehensweise und ich bin immernoch überzeugt von ihrem Ökosystem, sehe die stettigen Fortschritte von AMD aber auch und ich war schon immer der Überzeugung das ATI/AMD Hardware mehr leistet. Ausserdem beobachte ich eher sehr genau die Veränderung von Intel die ist viel interessanter ;)

Im Gegenteil ich bin jemand der nicht ewig hin und herjumpt nur weil A plötzlich was announced ich betrachte sachen sehr nüchtern und mit Auswirkungen auf die Zeit.

Thunder99
2015-01-24, 00:59:55
Wobei ich kein Versagen der Fachpresse beim Release der Karte sehe. Es gab zu dem Zeitpunkt nicht die Spiele wo 4GB bei spielbaren fps im Benchmark Parcour vorhandenen waren.

Und warum sie sich jetzt zurückhalten ist wahrscheinlich auch dem Launch der GTX960 geschuldet.

Und mal ehrlich. Welche HW Seite überprüft die wirklich belegbare Speichergröße

tdon
2015-01-24, 01:10:02
In 4k mit 2xMSAA kann ich die 3.5GB Blockade durchbrechen in Unity. Läuft natürlich sehr mies. Nur so 15 fps und starke VRAM bedingte Ruckler.


2015-01-24 01:04:51 , 1290.9 , 1752.8 , 3973 , 99 , 4 ,

2015-01-24 01:04:52 , 1290.9 , 1752.8 , 4032 , 99 , 6 ,

2015-01-24 01:04:53 , 1290.9 , 1752.8 , 4086 , 99 , 3 ,

2015-01-24 01:04:54 , 1290.9 , 1752.8 , 4008 , 99 , 4 ,

2015-01-24 01:04:55 , 1290.9 , 1752.8 , 4025 , 99 , 6 ,

2015-01-24 01:04:56 , 1290.9 , 1752.8 , 4025 , 98 , 6 ,

2015-01-24 01:04:57 , 1290.9 , 1752.8 , 4024 , 98 , 4 ,

2015-01-24 01:04:58 , 1290.9 , 1752.8 , 4026 , 98 , 4 ,

2015-01-24 01:04:59 , 1290.9 , 1752.8 , 4025 , 99 , 4 ,

2015-01-24 01:05:00 , 1290.9 , 1752.8 , 4025 , 99 , 6 ,

2015-01-24 01:05:01 , 1290.9 , 1752.8 , 4027 , 99 , 4 ,

2015-01-24 01:05:02 , 1290.9 , 1752.8 , 4021 , 99 , 6 ,

2015-01-24 01:05:03 , 1290.9 , 1752.8 , 4021 , 99 , 5 ,

2015-01-24 01:05:04 , 1290.9 , 1752.8 , 4030 , 96 , 7 ,

2015-01-24 01:05:05 , 1290.9 , 1752.8 , 4036 , 99 , 9 ,

2015-01-24 01:05:06 , 1290.9 , 1752.8 , 4048 , 99 , 8 ,

2015-01-24 01:05:07 , 1290.9 , 1752.8 , 4073 , 86 , 10 ,

2015-01-24 01:05:08 , 1290.9 , 1752.8 , 4077 , 99 , 6 ,

2015-01-24 01:05:10 , 1290.9 , 1752.8 , 4072 , 99 , 7 ,

2015-01-24 01:05:11 , 1290.9 , 1752.8 , 4075 , 99 , 6 ,

2015-01-24 01:05:12 , 1290.9 , 1752.8 , 4087 , 98 , 5 ,

2015-01-24 01:05:13 , 1290.9 , 1752.8 , 4081 , 99 , 7 ,

2015-01-24 01:05:14 , 1290.9 , 1752.8 , 4086 , 97 , 6 ,

2015-01-24 01:05:15 , 1290.9 , 1752.8 , 4085 , 99 , 5 ,

2015-01-24 01:05:16 , 1290.9 , 1752.8 , 4086 , 99 , 7 ,

2015-01-24 01:05:17 , 1290.9 , 1752.8 , 4085 , 99 , 8 ,

2015-01-24 01:05:18 , 1290.9 , 1752.8 , 4086 , 99 , 5 ,

2015-01-24 01:05:19 , 1290.9 , 1752.8 , 4086 , 95 , 7 ,

2015-01-24 01:05:20 , 1290.9 , 1752.8 , 4084 , 99 , 8 ,

2015-01-24 01:05:21 , 1290.9 , 1752.8 , 4084 , 99 , 8 ,

2015-01-24 01:05:22 , 1290.9 , 1752.8 , 4086 , 99 , 4 ,

2015-01-24 01:05:23 , 1290.9 , 1752.8 , 4083 , 99 , 5 ,

2015-01-24 01:05:24 , 1290.9 , 1752.8 , 4086 , 99 , 4 ,

2015-01-24 01:05:25 , 1290.9 , 1752.8 , 4085 , 99 , 6 ,

2015-01-24 01:05:26 , 1290.9 , 1752.8 , 4084 , 99 , 7 ,

2015-01-24 01:05:27 , 1290.9 , 1752.8 , 4081 , 99 , 5 ,

2015-01-24 01:05:28 , 1290.9 , 1752.8 , 4081 , 99 , 4 ,

2015-01-24 01:05:29 , 1290.9 , 1752.8 , 4081 , 98 , 3 ,

2015-01-24 01:05:30 , 1278.3 , 1752.8 , 4080 , 99 , 2 ,

2015-01-24 01:05:31 , 1290.9 , 1752.8 , 4080 , 98 , 3 ,

2015-01-24 01:05:32 , 1290.9 , 1752.8 , 4073 , 99 , 3 ,

2015-01-24 01:05:33 , 1290.9 , 1752.8 , 4068 , 87 , 2 ,

2015-01-24 01:05:34 , 1290.9 , 1752.8 , 4068 , 92 , 1 ,

2015-01-24 01:05:35 , 1278.3 , 1752.8 , 4067 , 99 , 1 ,

2015-01-24 01:05:36 , 1278.3 , 1752.8 , 4067 , 99 , 1 ,

2015-01-24 01:05:37 , 1278.3 , 1752.8 , 4067 , 99 , 2 ,

2015-01-24 01:05:38 , 1290.9 , 1752.8 , 4079 , 83 , 5 ,

2015-01-24 01:05:39 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:05:40 , 1278.3 , 1752.8 , 4080 , 99 , 2 ,

2015-01-24 01:05:41 , 1290.9 , 1752.8 , 4084 , 93 , 4 ,

2015-01-24 01:05:42 , 1290.9 , 1752.8 , 4078 , 98 , 1 ,

2015-01-24 01:05:43 , 1290.9 , 1752.8 , 4078 , 71 , 1 ,

2015-01-24 01:05:44 , 1290.9 , 1752.8 , 4083 , 98 , 2 ,

2015-01-24 01:05:45 , 1290.9 , 1752.8 , 4084 , 99 , 2 ,

2015-01-24 01:05:46 , 1290.9 , 1752.8 , 4082 , 98 , 2 ,

2015-01-24 01:05:47 , 1278.3 , 1752.8 , 4082 , 99 , 2 ,

2015-01-24 01:05:48 , 1278.3 , 1752.8 , 4079 , 99 , 1 ,

2015-01-24 01:05:49 , 1278.3 , 1752.8 , 4075 , 99 , 1 ,

2015-01-24 01:05:50 , 1278.3 , 1752.8 , 4073 , 99 , 2 ,

2015-01-24 01:05:51 , 1290.9 , 1752.8 , 4072 , 99 , 2 ,

2015-01-24 01:05:52 , 1278.3 , 1752.8 , 4069 , 99 , 2 ,

2015-01-24 01:05:53 , 1290.9 , 1752.8 , 4066 , 99 , 1 ,

2015-01-24 01:05:54 , 1290.9 , 1752.8 , 4066 , 91 , 1 ,

2015-01-24 01:05:55 , 1278.3 , 1752.8 , 4066 , 99 , 1 ,

2015-01-24 01:05:56 , 1278.3 , 1752.8 , 4066 , 99 , 1 ,

2015-01-24 01:05:57 , 1290.9 , 1752.8 , 4066 , 99 , 1 ,

2015-01-24 01:05:58 , 1278.3 , 1752.8 , 4064 , 99 , 1 ,

2015-01-24 01:05:59 , 1290.9 , 1752.8 , 4084 , 95 , 3 ,

2015-01-24 01:06:00 , 1290.9 , 1752.8 , 4085 , 92 , 6 ,

2015-01-24 01:06:01 , 1290.9 , 1752.8 , 4085 , 96 , 4 ,

2015-01-24 01:06:02 , 1290.9 , 1752.8 , 4084 , 98 , 3 ,

2015-01-24 01:06:03 , 1290.9 , 1752.8 , 4074 , 95 , 3 ,

2015-01-24 01:06:04 , 1290.9 , 1752.8 , 3664 , 7 , 4 ,

2015-01-24 01:06:05 , 1290.9 , 1752.8 , 3664 , 0 , 0 ,

2015-01-24 01:06:06 , 1290.9 , 1752.8 , 3824 , 7 , 0 ,

2015-01-24 01:06:07 , 1290.9 , 1752.8 , 3970 , 23 , 0 ,

2015-01-24 01:06:08 , 961.9 , 1752.8 , 3991 , 23 , 0 ,

2015-01-24 01:06:09 , 961.9 , 1752.8 , 3970 , 0 , 0 ,

2015-01-24 01:06:10 , 961.9 , 1752.8 , 3970 , 0 , 0 ,

2015-01-24 01:06:11 , 911.3 , 1502.3 , 3970 , 0 , 0 ,

2015-01-24 01:06:12 , 911.3 , 1502.3 , 3970 , 0 , 0 ,

2015-01-24 01:06:13 , 911.3 , 1502.3 , 3970 , 0 , 0 ,

2015-01-24 01:06:14 , 772.0 , 405.0 , 3970 , 0 , 0 ,

2015-01-24 01:06:15 , 772.0 , 405.0 , 3970 , 0 , 0 ,

2015-01-24 01:06:16 , 202.5 , 162.0 , 3970 , 0 , 0 ,

2015-01-24 01:06:17 , 911.3 , 1752.8 , 3806 , 0 , 0 ,

2015-01-24 01:06:18 , 911.3 , 1752.8 , 3806 , 0 , 0 ,

2015-01-24 01:06:19 , 911.3 , 1752.8 , 3922 , 31 , 1 ,

2015-01-24 01:06:20 , 911.3 , 1752.8 , 3952 , 30 , 1 ,

2015-01-24 01:06:22 , 911.3 , 1752.8 , 3993 , 29 , 0 ,

2015-01-24 01:06:23 , 911.3 , 1752.8 , 3828 , 36 , 7 ,

2015-01-24 01:06:24 , 1126.4 , 1752.8 , 3947 , 0 , 0 ,

2015-01-24 01:06:25 , 1126.4 , 1752.8 , 3939 , 0 , 0 ,

2015-01-24 01:06:26 , 1290.9 , 1752.8 , 3836 , 4 , 4 ,

2015-01-24 01:06:27 , 1290.9 , 1752.8 , 4010 , 0 , 0 ,

2015-01-24 01:06:28 , 1290.9 , 1752.8 , 4010 , 0 , 0 ,

2015-01-24 01:06:29 , 1290.9 , 1752.8 , 4063 , 0 , 0 ,

2015-01-24 01:06:30 , 1290.9 , 1752.8 , 4063 , 0 , 0 ,

2015-01-24 01:06:31 , 1290.9 , 1752.8 , 3842 , 52 , 16 ,

2015-01-24 01:06:32 , 1290.9 , 1752.8 , 3714 , 0 , 0 ,

2015-01-24 01:06:33 , 1290.9 , 1752.8 , 3714 , 0 , 0 ,

2015-01-24 01:06:34 , 1290.9 , 1752.8 , 3714 , 0 , 0 ,

2015-01-24 01:06:35 , 1290.9 , 1752.8 , 3567 , 8 , 6 ,

2015-01-24 01:06:36 , 1290.9 , 1752.8 , 3567 , 0 , 0 ,

2015-01-24 01:06:37 , 1290.9 , 1752.8 , 3566 , 0 , 0 ,

2015-01-24 01:06:38 , 1290.9 , 1752.8 , 3565 , 0 , 0 ,

2015-01-24 01:06:39 , 1290.9 , 1752.8 , 3759 , 0 , 0 ,

2015-01-24 01:06:40 , 1290.9 , 1752.8 , 3759 , 0 , 0 ,

2015-01-24 01:06:41 , 1290.9 , 1752.8 , 3981 , 37 , 12 ,

2015-01-24 01:06:42 , 1290.9 , 1752.8 , 4027 , 0 , 0 ,

2015-01-24 01:06:43 , 1290.9 , 1752.8 , 4084 , 6 , 1 ,

2015-01-24 01:06:44 , 1290.9 , 1752.8 , 4084 , 84 , 1 ,

2015-01-24 01:06:45 , 1290.9 , 1752.8 , 4084 , 99 , 2 ,

2015-01-24 01:06:46 , 1290.9 , 1752.8 , 4084 , 99 , 1 ,

2015-01-24 01:06:47 , 1290.9 , 1752.8 , 4087 , 77 , 2 ,

2015-01-24 01:06:48 , 1290.9 , 1752.8 , 4085 , 58 , 1 ,

2015-01-24 01:06:49 , 1290.9 , 1752.8 , 4087 , 21 , 4 ,

2015-01-24 01:06:50 , 1290.9 , 1752.8 , 4083 , 99 , 1 ,

2015-01-24 01:06:51 , 1290.9 , 1752.8 , 4087 , 98 , 3 ,

2015-01-24 01:06:52 , 1290.9 , 1752.8 , 4086 , 99 , 2 ,

2015-01-24 01:06:53 , 1290.9 , 1752.8 , 4087 , 2 , 0 ,

2015-01-24 01:06:54 , 1290.9 , 1752.8 , 4087 , 99 , 1 ,

2015-01-24 01:06:55 , 1290.9 , 1752.8 , 4084 , 91 , 2 ,

2015-01-24 01:06:56 , 1290.9 , 1752.8 , 4073 , 25 , 0 ,

2015-01-24 01:06:57 , 1290.9 , 1752.8 , 4087 , 99 , 2 ,

2015-01-24 01:06:58 , 1290.9 , 1752.8 , 4087 , 99 , 1 ,

2015-01-24 01:06:59 , 1290.9 , 1752.8 , 4082 , 99 , 2 ,

2015-01-24 01:07:00 , 1290.9 , 1752.8 , 4085 , 99 , 3 ,

2015-01-24 01:07:01 , 1290.9 , 1752.8 , 4059 , 88 , 2 ,

2015-01-24 01:07:02 , 1290.9 , 1752.8 , 4083 , 99 , 2 ,

2015-01-24 01:07:03 , 1290.9 , 1752.8 , 4083 , 99 , 2 ,

2015-01-24 01:07:04 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:07:05 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:07:06 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:07:07 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:07:08 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:07:09 , 1290.9 , 1752.8 , 4085 , 99 , 2 ,

2015-01-24 01:07:10 , 1290.9 , 1752.8 , 4085 , 99 , 1 ,

2015-01-24 01:07:11 , 1290.9 , 1752.8 , 4083 , 99 , 2 ,

tdon
2015-01-24, 03:44:20
http://fs1.directupload.net/images/150124/b4psnqxh.png


344.11 geht bis Chunk 25 ohne Einbruch.

Lurtz
2015-01-24, 07:32:41
Wenn das nicht groß in der Presse rumgeht und da kein unvorhersehbarer Shitstorm entsteht, wird da gar nichts passieren. Leute, die keine Ahnung von der Technik haben, interessieren solche "Details" doch gar nicht, die freuen sich über ihre hohen fps und sind eh der Meinung, dass man 4GB Ram gar nicht braucht, denn "die meisten Spiele brauchen ja gerade mal 2GB" :ugly:

BitJäger
2015-01-24, 08:14:53
Nvidia wird sich zuerst mit deren Anwälten absprechen bevor sie das Wort "Fehler" in den Mund nehmen. Je nach Rechtslage in den jeweiligen Land könnten erhebliche Kosten auf Händler bzw. Importeure kommen.

Hier zu Lande ist der Händler der juristische Partner des Käufers. Ausnahme wäre wenn man(n) direkt beim Hersteller, wie z. B. EVGA kauft. Das im Falle eines "Fehler" seitens NV der Gewährleistungsfall eintritt haben die Käufer noch Zeit vom Händler Nachbesserung zu verlangen.

Doch wie eingangs schon gesagt NV wird es sich mehrmals überlegen von einem "Fehler" zu sprechen. Da werden andere Fromulierungen gewählt um nicht das ganze "Ökosystem" zu gefährden.

Palpatin
2015-01-24, 08:38:36
Ist gut möglich, dass da juristisch nichts zu machen ist.
Es sind trotzdem häufig die 500MB, die fehlen, damit es gut statt beschissen läuft.
Ja sowenig ist das nicht, aktuell ist es egal, aber kann mich noch gut an 8800 GTS vs GTX erinnern, die GTS mit den 640 MB hatte bei Spielen wie Age of Conan dann krass das Nachsehen Aufgrund des fehlenden VRAMs.

NemesisTN
2015-01-24, 09:28:52
Obacht, es folgt meine persönliche Meinung:

Mal ganz ehrlich, die 970 mit 4k zu befeuern ist für ihre Preisklasse nicht zielführend.
Findet bitte ein Spiel, welches unter 1080p oder 1200 mehr als 3,5 GB belegt und dann ruckelt...
DANN haben wir ein Problem.
Ich hab sie im HTPC, welcher einen normalen 1080p Fernseher befeuert und im Alltag nicht ein einziges Problem damit.
Demnächst wird wohl eine 4k-Glotze kommen, aber ich werde die Spiele jedoch weiter in 1080p betreiben, weil ich kein Fan von Ruckel-Dia-Shows bin.
Deshalb spiele ich auch nur mit aktivem Vsync und solange dort der fps-Counter stabil auf 60 steht, bin ich zufrieden.

Die 970 mit 4k auf 20..40 fps zu betreiben und sich über Ruckler beschweren... -.-
Wenn ihr kein Geld habt, um eine anständige Grafikkarte für 4k zu kaufen, dann lasst es...
Wenn 4k akut wird (ca. 3..4 Jahre), ist sowieso eine neue Grafikkarte fällig.

Persönliche Meinung Ende.

Dawn on Titan
2015-01-24, 09:33:10
Hat schon einer wegen Sachmangel getauscht?

AngelDust 32
2015-01-24, 09:36:59
@Nemesis

Die Speicherbelegung hat wenig mit der Auflösung zu tun siehe

http://www.computerbase.de/forum/showthread.php?t=636865

doktor
2015-01-24, 09:45:36
Die 970 mit 4k auf 20..40 fps zu betreiben und sich über Ruckler beschweren... -.-
Wenn ihr kein Geld habt, um eine anständige Grafikkarte für 4k zu kaufen, dann lasst es...
Wenn 4k akut wird (ca. 3..4 Jahre), ist sowieso eine neue Grafikkarte fällig.

Persönliche Meinung Ende.

Persönliche Meinung schön und gut aber auch meine GTX970 hat einen batzen Geld gekostet! Für diesen Batzen möchte ich auch bekommen was ich gekauft habe! Eine Karte mit 4GB Speicher und 256Bit Speicheranbindung.
Ein 1080P Game das Ruckelt wäre Morodor mir Ultra Texturen... Gerade 15 min angespielt wieder und es würde eigentlich gut laufen. Wenn da nicht diese kleinen Ruckler wären alle paar Sekunden wenn augenscheinlich wieder etwas Daten in den VRAM sollen. (Auslastung ~3600MB FullScreen Afterburner).

Die Karte limiert hier eindeutig am VRAM und das ist das Problem!

TobiWahnKenobi
2015-01-24, 09:57:37
Obacht, es folgt meine persönliche Meinung:

Mal ganz ehrlich, die 970 mit 4k zu befeuern ist für ihre Preisklasse nicht zielführend.
Findet bitte ein Spiel, welches unter 1080p oder 1200 mehr als 3,5 GB belegt und dann ruckelt...
DANN haben wir ein Problem.
Ich hab sie im HTPC, welcher einen normalen 1080p Fernseher befeuert und im Alltag nicht ein einziges Problem damit.
Demnächst wird wohl eine 4k-Glotze kommen, aber ich werde die Spiele jedoch weiter in 1080p betreiben, weil ich kein Fan von Ruckel-Dia-Shows bin.
Deshalb spiele ich auch nur mit aktivem Vsync und solange dort der fps-Counter stabil auf 60 steht, bin ich zufrieden.

Die 970 mit 4k auf 20..40 fps zu betreiben und sich über Ruckler beschweren... -.-
Wenn ihr kein Geld habt, um eine anständige Grafikkarte für 4k zu kaufen, dann lasst es...
Wenn 4k akut wird (ca. 3..4 Jahre), ist sowieso eine neue Grafikkarte fällig.

Persönliche Meinung Ende.

ich frage mich auch schon seit einigen seiten, was die leute eigentlich von einer 300€ karte erwarten. einstellungen in spielen, die über 4 GiB hinausgehen (wolfenstein), die sich gern mal 5GiB nehmen (shadow of mordor) oder gar 6GiB beschlagen (watch dogs) sind titanland (die hat 6GiB).


(..)

mfg
tobi

Schnoesel
2015-01-24, 10:02:13
Also ich denke sie erwarten, dass die Karte 4GB Grafikspeicher uneingeschränkt nutzen kann so wie eben beworben und das sogar unabhängig davon ob es benötigt ist oder nicht.

Wenn das schon zu viel verlangt ist dann kann ich echt nur noch den Kopf schütteln.

Mr. Lolman
2015-01-24, 10:02:22
Also Watch Dofs rennt mit Ultra Details, SweetFX und 2560->1920 VSR durchaus proper auf meiner 290X. Bein Fahren sind die Frametimes vllt nicht 100% glatt, aber ruckekig, oder gar mit störenden Stockern versetzt, ist da garnichts.

TobiWahnKenobi
2015-01-24, 10:05:22
Also ich denke sie erwarten, dass die Karte 4GB Grafikspeicher uneingeschränkt nutzen kann so wie eben beworben und das sogar unabhängig davon ob es benötigt ist oder nicht.

Wenn das schon zu viel verlangt ist dann kann ich echt nur noch den Kopf schütteln.

gemessen mit einem tool, das irgendwer geschrieben hat, weil es in der realworld nicht negativ auffällt. wie konstruiert ist sowas?!

wir haben doch sogar einen thread zu dem lustigen "reg.exe" CUDA-benchkrempel und würde ich mich darauf verlassen, läge bei mir wohl auch etwas im argen. allerdings etwas, das mir in 2 jahren zocken mit der karte nie aufgefallen ist und bis dato auch nirgends sauer aufstößt. sturm im wasserglas?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560461


(..)

mfg
tobi

aufkrawall
2015-01-24, 10:08:17
gemessen mit einem tool, das irgendwer geschrieben hat, weil es in der realworld nicht negativ auffällt. wie konstruiert ist sowas?!

Bitte äußer dich hier erst wieder, wenn du wirklich alle Seiten gelesen hast.

Isen
2015-01-24, 10:08:28
@TobiWahnKenobi,

gibt genug Games wo der Speicher über die Goldene Marke gelangt und erst dann unspielbar wird, wegen des Problems. Und nicht, weil man utopische Auflösungen fährt. Wenn du die Seiten schon alle gelesen hast, sollte dir das doch bereits klar sein, oder etwa nicht?

@aufkrawall,

+1

AnarchX
2015-01-24, 10:13:24
Die Guru3D Redaktion hat sich dem Problem nun auch angenommen: http://www.guru3d.com/news-story/does-the-geforce-gtx-970-have-a-memory-allocation-bug.html
Dort hat man den Benchmarks auf Nai's Codebasis noch etwas erweitert.

Und noch eine 980M 8GiB die keine Probleme zeigt: http://forums.guru3d.com/showpost.php?p=4998360&postcount=121

Kladderadatsch
2015-01-24, 10:24:01
Palit GTX 970 Jetstream, 347.09
http://abload.de/img/neuesbildo2qeq.png

TobiWahnKenobi
2015-01-24, 10:27:22
Palit GTX 970 Jetstream, 347.09
http://abload.de/img/neuesbildo2qeq.png

schalte mal DWM aus.


(..)

mfg
tobi

dargo
2015-01-24, 10:28:43
ich frage mich auch schon seit einigen seiten, was die leute eigentlich von einer 300€ karte erwarten. einstellungen in spielen, die über 4 GiB hinausgehen (wolfenstein), die sich gern mal 5GiB nehmen (shadow of mordor) oder gar 6GiB beschlagen (watch dogs) sind titanland (die hat 6GiB).

Und ich frage mich wann der letze Honk begreift, dass Anzeige Vram Tool nicht gleich Vram nötig ist? Besonders bei Karten mit viel Vram.

Schnoesel
2015-01-24, 10:36:47
Auch extremetech scheint sich der Sache anzunehmen:

http://www.extremetech.com/extreme/198214-198214

BitJäger
2015-01-24, 10:52:56
Auch extremetech scheint sich der Sache anzunehmen:

http://www.extremetech.com/extreme/198214-198214

Jetzt fehlt nur noch Nvidia:D

Matrix316
2015-01-24, 10:53:42
Nehmen wir mal an, es wäre ein Fehler, Nvidia gesteht es ein. Was wären die Konsequenzen? Stellt euch vor alle GTX970 müssten eingezogen werden, weil wie will man es "gleichwertig" ersetzen? Kriegt jeder eine GTX980? Kriegt jeder eine zweite 970, damit es nicht so auffällt? ;) Kriegt jeder eine AMD 290X? ;D Außer Geld zurück, gibt's ja wenige Optionen.

Was ich mich noch frage, wenn wirklich das Speicherinterface effektiv nicht 256 Bit ist, wie können dann trotzdem 4 GB angesprochen werden und die letzten 500 MB langsamer sein? Oder werden die letzten 500 MB direkt ausgelagert und es sieht nur so aus als ob sie gefüllt werden?

aufkrawall
2015-01-24, 10:56:05
Hm, wenn man einfach erzählt, dass man es irgendwie per Treiber richten will, könnte man sich von Treiber zu Treiber immer etwas Ruhe erkaufen. :freak:

AnarchX
2015-01-24, 11:03:45
Was ich mich noch frage, wenn wirklich das Speicherinterface effektiv nicht 256 Bit ist, wie können dann trotzdem 4 GB angesprochen werden und die letzten 500 MB langsamer sein? Oder werden die letzten 500 MB direkt ausgelagert und es sieht nur so aus als ob sie gefüllt werden?
Es ist schon ein 256-Bit Interface, aber mit dem reduzierten L2-Cache gibt es wohl Probleme hier richtig zu adressieren:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10487218#post10487218

Wenn NV Glück hat, können sie vielleicht da noch etwas über die Software bauen.

derguru
2015-01-24, 11:11:43
du meinst glück für 970 besitzer, was sollte nv schon groß passieren, rüchnahme aller 970 karten bestimmt nicht und an ein imageschaden glaub ich auch nicht oder besser gesagt ein imageschaden ohne konsequenzen ist auch nichts wert.

Thunder99
2015-01-24, 11:27:03
Naja der Image Schaden ist schon da, siehe in den entsprechenden Foren und deren aufgebrachten User. Die einzige Konsequenz wäre, dass weniger GTX970er empfohlen werden bzw deren Kauf boykottiert wird (Wunschdenken, ich weiß)

@Tobi:
Ich finde es hat nichts damit zu tun was eine Karte kostet sondern was der Hersteller einem verspricht oder nicht. Bei der GTX780 gab es ja Varianten mit mehr oder weniger GPC. Nur das Verschweigen das wir den L2 beschnitten haben stellt sich halt nun als Fehler heraus. Es gibt halt schon jetzt Szenarien wo man es negativ merkt bei sonst eigentlich spielbaren fps :(

Dawn on Titan
2015-01-24, 11:30:11
Ich werde wohl mein ein RMA wegen Sachmangel versuchen.

derguru
2015-01-24, 11:31:20
lol, viel gl !^^

am besten als entschädigung gleich ne gtx 980 rüberwachsen lassen.;D

Isen
2015-01-24, 11:32:53
Ich warte noch bis Mittwoch... erst dann ist mein Rückgaberecht weg...
Was mich wirklich am meisten anpisst deswegen: Hab mir bereits fullcover Kühler gekauft, Anschlüsse und co... die kann ich dann auch direkt umtauschen -.-

Bin nur froh, nicht zu voreilig auf WaKü umgebaut zu haben...

Isen
2015-01-24, 11:46:36
Ne... ich klopp dann wieder meine angestaubte 470 rein, bissle nachlöten damit die wieder geht und dann warte ich knall hart auf ende des Jahres, wie sich die 390/x schlägt.

Aber ich warte erstmal bis Mittwoch, sollte für NV ja ein leichtes sein, bis Mittwoch nen Treiber zu liefern :-)

Auch hier war ironie im Spiel

grafikluder
2015-01-24, 13:18:23
Die Guru3D Redaktion hat sich dem Problem nun auch angenommen: http://www.guru3d.com/news-story/does-the-geforce-gtx-970-have-a-memory-allocation-bug.html
Dort hat man den Benchmarks auf Nai's Codebasis noch etwas erweitert.

Und noch eine 980M 8GiB die keine Probleme zeigt: http://forums.guru3d.com/showpost.php?p=4998360&postcount=121


Ich weiß jetzt nicht, ob das Sinn ergibt, aber ich habe das Tool mal mit 'vRamBandwidthTest.exe 16 4096 > test.txt' laufen lassen (EVGA GTX970 SC ACX 2.0, Windows 7, 347.25) ...

... mit DWM:
Nai's Benchmark, edited by VultureX
Device: GeForce GTX 970 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 224.320000

Allocating Memory . . .
Chunk Size: 16 MiByte
Allocated 240 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 16 MiByte):155.89 GByte/s
[...]
DRAM-Bandwidth of Chunk no. 193 (3088 MiByte to 3104 MiByte):156.09 GByte/s
DRAM-Bandwidth of Chunk no. 194 (3104 MiByte to 3120 MiByte):22.34 GByte/s
[...]
DRAM-Bandwidth of Chunk no. 224 (3584 MiByte to 3600 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 225 (3600 MiByte to 3616 MiByte):155.64 GByte/s
DRAM-Bandwidth of Chunk no. 226 (3616 MiByte to 3632 MiByte):156.09 GByte/s
DRAM-Bandwidth of Chunk no. 227 (3632 MiByte to 3648 MiByte): 5.94 GByte/s
[...]
DRAM-Bandwidth of Chunk no. 239 (3824 MiByte to 3840 MiByte): 5.95 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 16 MiByte):438.23 GByte/s
[...]
L2-Cache-Bandwidth of Chunk no. 193 (3088 MiByte to 3104 MiByte):439.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 194 (3104 MiByte to 3120 MiByte):78.25 GByte/s
[...]
L2-Cache-Bandwidth of Chunk no. 224 (3584 MiByte to 3600 MiByte):78.27 GByte/s
L2-Cache-Bandwidth of Chunk no. 225 (3600 MiByte to 3616 MiByte):439.33 GByte/s
L2-Cache-Bandwidth of Chunk no. 226 (3616 MiByte to 3632 MiByte):439.01 GByte/s
L2-Cache-Bandwidth of Chunk no. 227 (3632 MiByte to 3648 MiByte): 5.92 GByte/s
[...]
L2-Cache-Bandwidth of Chunk no. 239 (3824 MiByte to 3840 MiByte): 5.92 GByte/s


Chunks 225 und 226?

... ohne DWM:
Nai's Benchmark, edited by VultureX
Device: GeForce GTX 970 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 224.320000

Allocating Memory . . .
Chunk Size: 16 MiByte
Allocated 240 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 16 MiByte):151.99 GByte/s
[...]
DRAM-Bandwidth of Chunk no. 204 (3264 MiByte to 3280 MiByte):155.45 GByte/s
DRAM-Bandwidth of Chunk no. 205 (3280 MiByte to 3296 MiByte):22.35 GByte/s
[...]
DRAM-Bandwidth of Chunk no. 235 (3760 MiByte to 3776 MiByte):22.35 GByte/s
DRAM-Bandwidth of Chunk no. 236 (3776 MiByte to 3792 MiByte):156.04 GByte/s
DRAM-Bandwidth of Chunk no. 237 (3792 MiByte to 3808 MiByte):153.79 GByte/s
DRAM-Bandwidth of Chunk no. 238 (3808 MiByte to 3824 MiByte): 5.95 GByte/s
DRAM-Bandwidth of Chunk no. 239 (3824 MiByte to 3840 MiByte): 5.95 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 16 MiByte):438.94 GByte/s
[...]
L2-Cache-Bandwidth of Chunk no. 204 (3264 MiByte to 3280 MiByte):438.31 GByte/s
L2-Cache-Bandwidth of Chunk no. 205 (3280 MiByte to 3296 MiByte):78.25 GByte/s
[...]
L2-Cache-Bandwidth of Chunk no. 235 (3760 MiByte to 3776 MiByte):78.26 GByte/s
L2-Cache-Bandwidth of Chunk no. 236 (3776 MiByte to 3792 MiByte):439.17 GByte/s
L2-Cache-Bandwidth of Chunk no. 237 (3792 MiByte to 3808 MiByte):439.17 GByte/s
L2-Cache-Bandwidth of Chunk no. 238 (3808 MiByte to 3824 MiByte): 5.92 GByte/s
L2-Cache-Bandwidth of Chunk no. 239 (3824 MiByte to 3840 MiByte): 5.92 GByte/s


Ohne DWM passiert das Ganze erwartungsgemäß etwas später:
Chunks 236 und 237.

-/\-CruNcher-/\-
2015-01-24, 13:19:37
Wenn das nicht groß in der Presse rumgeht und da kein unvorhersehbarer Shitstorm entsteht, wird da gar nichts passieren. Leute, die keine Ahnung von der Technik haben, interessieren solche "Details" doch gar nicht, die freuen sich über ihre hohen fps und sind eh der Meinung, dass man 4GB Ram gar nicht braucht, denn "die meisten Spiele brauchen ja gerade mal 2GB" :ugly:

Das normale (durchschnitts maximum) liegt momentan bei diesen 3.5G bei 1080p

hq-hq
2015-01-24, 13:25:03
hm bei mir kommt das manchmal auch durcheinander

http://abload.de/img/painteradsfgwlip.png

kommt evtl. vom sli an und abschalten

komisch ist auch, dass selbst mit k-boost und verschiedenen Taktraten die Bandbreite nicht zu oder abnimmt...

Bandi
2015-01-24, 13:33:24
Ich möchte das Problem mal von Herstellernamen und Marken abstrahieren.

1. Wenn ihr ein 8GB Speicherkit kauft, und ein Riegel davon stellt sich als extrem langsam heraus, was würdet ihr tun? Würdet ihr euch sagen, nicht so schlimm, die Spiele die letztes und vorletztes Jahr rauskamen haben eh nur 6 GB belegt?

2. Wenn ihr euch ein Motherboard kauft, und ihr findet heraus, das der letzte RAM-Sockel nur sehr langsam angesteuert wird. Der Hersteller hat euch nicht darauf hingewiesen, sondern versucht nur über eine Treiberoptimierung das Problem zu verstecken / vertuschen. WAS würdet ihr tun?

Ernst gemeinte Frage. Ich stehe nämlich gerade vor dem Problem. Habe extra ein Upgrade von der 660 gemacht, weil dort die letzten 500MB Crap waren, und jetzt wieder das. Hätte der Hersteller diese Einschränkung kommuniziert, hätte ich vermutlich sogar zur 980 gegriffen. So bleibt mir nur dieser Hardwarealptraum, und keine Ahnung was ich nun tun soll.

Kriton
2015-01-24, 13:34:39
Wegen 1/8 nicht richtig nutzbarem Speicher? Wohl kaum. Da sehe ich auch die Verhältnismäßigkeit nicht wirklich, muss ich sagen :redface:

Wenn ein Produkt mit einem nicht nutzbarem Feature beworben wird ist die Sache (unter rechtlichen Gesichtspunkten) eigentlich eindeutig. Man hat entsprechende Gewährleistungsansprüche.
Eine Verhältnismäßigkeitsprüfung (die eigentlich im im öffentlich-rechtlichen Bereich relevant ist) findet insoweit nicht statt. Und über Deine Einschätzung könnte man insoweit auch gut diskutieren.


Ich habe also fuer speicher bezahlt den ich aber nicht wirklich benutzen kann, das ist doch betrug?

Betrug würde (unter anderem) eine Täuschungsabsicht voraussetzen. Bei Nvidia müsste also erst einmal jemand gewusst haben, dass nur 3,5 GB nutzbar sind.


Betrug nicht. Eher Täuschung.


Eine Täuschung(sabsicht) ist Tatbestandmerkmal eines Betrugs.

Sorry aber wie das leute aufbauschen ist echt nicht mehr feierlich wenn es kein Bug ist ist es eine Wirtschaftliche Entscheidung und sie war absolut richtig.

Keiner brauch irgendwas fürchten der weiss worauf er sich mit der GTX 970 eingelassen hat.

Die Install base ist aussreichend vorhanden und die Entwickler werden sich anpassen.

Deine Nvidia-Hörigkeit in letzter Zeit ist langsam echt nicht mehr zu ertragen. Aber wenigstens mal nicht ein Smiley hinter jedem Satz...

Wenn es eine wirtschaftliche Entscheidung war, solltest Du den oberen Teil meines Posts noch mal lesen.

BitJäger
2015-01-24, 13:45:14
Anscheinend hat NV noch nicht die Ursache gefunden. Im GeForce Forum hat ein User ein paar Zeilen vom Nvidia Chat Support (https://forums.geforce.com/default/topic/803518/geforce-900-series/gtx-970-3-5gb-vram-issue/post/4431924/#4431924) veröffentlicht.

grafikluder
2015-01-24, 13:45:41
hm bei mir kommt das manchmal auch durcheinander

http://abload.de/img/painteradsfgwlip.png

kommt evtl. vom sli an und abschalten

komisch ist auch, dass selbst mit k-boost und verschiedenen Taktraten die Bandbreite nicht zu oder abnimmt...

Ich hab kein SLI und kann es reproduzieren. Bei einem höheren Chunk-Size (> 32) werden diese Ausbrüche -- über eine Mittelung? -- glatt gebügelt.

Kriton
2015-01-24, 13:49:15
Obacht, es folgt meine persönliche Meinung:

Mal ganz ehrlich, die 970 mit 4k zu befeuern ist für ihre Preisklasse nicht zielführend.
Findet bitte ein Spiel, welches unter 1080p oder 1200 mehr als 3,5 GB belegt und dann ruckelt...
DANN haben wir ein Problem.
Ich hab sie im HTPC, welcher einen normalen 1080p Fernseher befeuert und im Alltag nicht ein einziges Problem damit.
Demnächst wird wohl eine 4k-Glotze kommen, aber ich werde die Spiele jedoch weiter in 1080p betreiben, weil ich kein Fan von Ruckel-Dia-Shows bin.
Deshalb spiele ich auch nur mit aktivem Vsync und solange dort der fps-Counter stabil auf 60 steht, bin ich zufrieden.

Die 970 mit 4k auf 20..40 fps zu betreiben und sich über Ruckler beschweren... -.-
Wenn ihr kein Geld habt, um eine anständige Grafikkarte für 4k zu kaufen, dann lasst es...
Wenn 4k akut wird (ca. 3..4 Jahre), ist sowieso eine neue Grafikkarte fällig.

Persönliche Meinung Ende.

Ok, ich halte also mal fest:

Wenn Dein vermeintlicher 4k-Fernseher in Wirklichkeit beispielsweise nur 1920x1080 kann stört dich das eigentlich gar nicht, weil Du ja eh nur in 1920x1080 spielst.

Ich hätte da noch eine Brücke nahe San Franciso - die könntest Du günstig haben.

ich frage mich auch schon seit einigen seiten, was die leute eigentlich von einer 300€ karte erwarten. einstellungen in spielen, die über 4 GiB hinausgehen (wolfenstein), die sich gern mal 5GiB nehmen (shadow of mordor) oder gar 6GiB beschlagen (watch dogs) sind titanland (die hat 6GiB).


Vielleicht solltest Du die Seiten noch einmal lesen. Die Erwartungshaltung ist, dass ein Feature, welches beworben wurde, auch nutzbar ist. Ich weiß, so etwas ist schwer nachvollziehbar. Der Preis ist in diesem Kontext vollkommen irrelevant.

Wenn Ihr einen (theoretisch) günstigen Porsche für 30.000,- € kauft, dessen Spitzengeschwindigkeit mit 300 km/h angegeben wird, der aber in Wirklichkeit nur 140 km/h fahren kann, würdet ihr das Argument aktzeptieren, dass das keine Rolle spielt, weil ihr zu 99% eh nur im Stadtverkehr unterwegs seid und Autos die 300 km/h fahren eigentlich teurer sind (also ihr eigentlich zu blöd wart zu erkennen, dass das was nicht stimmen kann)?

Dawn on Titan
2015-01-24, 13:52:27
Nach Tests glaube ich immer mehr, dass es zu Problemen kommt, wenn der L2 voll läuft und zwar weil dort 2MB angesprochen werden. Mit dem Tool kann ich nämlich auch schon weit unter 3GB Slow-Downs erzeugen.

Air Force One
2015-01-24, 14:12:08
Hardware=Auto/Vergleich :D

ich kaufe mir ja auch kein Auto mit 250PS wo am ende nur 200Pferdchen ankommen.

Ist ja genau so wenn ich für 200Euro arbeit nur 150€ bekommen würde.. ne ne.. so geht das nicht.

TobiWahnKenobi
2015-01-24, 14:16:08
@kriton

Ich konnte in keinem i-net-Review zur 970/980 schlechte oder abnormale Messungen in Spielen finden. Und was die Analogie angeht, so ist die 970 doch eher ein leistungsstarker Kleinwagen, der zwar schnell fährt, jedoch ein spitzenmodell nicht einzuholen vermag. Das Wägelchen pfeift sicherlich auf dem letzten Loch wenn es hinter dem Porsche herfährt.. Kostet aber auch deutlich weniger. Freilich drücke ich jedem Käufer die Daumen, dass sich das alles in Wohlgefallen auflöst. Denke, den Strohhalm derer, die jetzt Hoffnung haben, dass man die Hardware aufgrund des Shitstorms auch außerhalb der FAG-tauschzeit zurückgeben kann, kann man Knicken..

btw
Für einige scheint ja sogar der Leistungsunterschied zwischen 4 und 8fachem MSAA einzig an dem vermeintlich krüppeligen VRAM zu liegen.

Lemminge sind zum Glück keine Fachkräfte und wenn das Thema bei Nv gemeldet ist und man
dort zusichert, es sich anzuschauen ist doch alles in Butter.


(..)

mfg
tobi

-/\-CruNcher-/\-
2015-01-24, 14:18:24
Ich möchte das Problem mal von Herstellernamen und Marken abstrahieren.

1. Wenn ihr ein 8GB Speicherkit kauft, und ein Riegel davon stellt sich als extrem langsam heraus, was würdet ihr tun? Würdet ihr euch sagen, nicht so schlimm, die Spiele die letztes und vorletztes Jahr rauskamen haben eh nur 6 GB belegt?

2. Wenn ihr euch ein Motherboard kauft, und ihr findet heraus, das der letzte RAM-Sockel nur sehr langsam angesteuert wird. Der Hersteller hat euch nicht darauf hingewiesen, sondern versucht nur über eine Treiberoptimierung das Problem zu verstecken / vertuschen. WAS würdet ihr tun?

Ernst gemeinte Frage. Ich stehe nämlich gerade vor dem Problem. Habe extra ein Upgrade von der 660 gemacht, weil dort die letzten 500MB Crap waren, und jetzt wieder das. Hätte der Hersteller diese Einschränkung kommuniziert, hätte ich vermutlich sogar zur 980 gegriffen. So bleibt mir nur dieser Hardwarealptraum, und keine Ahnung was ich nun tun soll.


Zuerstmal würde ich versuchen den Hersteller seine Entscheidungen zu reflektieren, dann versuchen zu verstehen welche Auswirkungen das in Zukunft haben wird. Als Otto normal ist das aber äusserst schwer weil man von leuten bombardiert wird die gleich den Untergang sehen oder noch witziger sich einreden sie hätten plötzlich zu viel bezahlt und wurden betrogen, dabei haben sie eine Entscheidung bassierend auf der Preis/Leistung getroffen und eben der Balance des Produktes.

Kriton
2015-01-24, 14:19:22
Ich neige zu Autovergleichen, weil das die meisten verstehen (normalerweise habe ich Diskussionen mit Leuten die weniger von Technik verstehen als ich - in diesem Forum ist das so drastisch umgekehrt, dass ich meistens still bleibe oder gleich einen Hinweis bringe, dass mein technisches Verständnis in dem konkreten Fall hoffentlich noch richtig ist :redface:).

@kriton
Und was die Analogie angeht, so ist die 970 doch eher ein leistungsstarker Kleinwagen, der zwar schnell fährt, jedoch ein spitzenmodell nicht einzuholen vermag. Das Wägelchen pfeift sicherlich auf dem letzten Loch wenn es hinter dem Porsche herfährt.. Kostet aber auch deutlich weniger. Freilich drücke ich jedem Käufer die Daumen, dass sich das alles in Wohlgefallen auflöst. Denke, den Strohhalm derer, die jetzt Hoffnung haben, dass man die Hardware aufgrund des Shitstorms auch außerhalb der FAG-tauschzeit zurückgeben kann, kann man Knicken..
i

Ich bin wirklich nicht sicher, ob wir auf einer Ebene miteinander diskutieren. Vielleicht solltest Du über mein Beispiel noch einmal nachdenken (no pun intended) - Du kannst auch gern Porsche durch einen beliebigen anderen Hersteller ersetzen. Das ist irrelevant für meine Aussage.

[...] dabei haben sie eine Entscheidung bassierend auf der Preis/Leistung getroffen und eben der Balance des Produktes.

Das wird Dich überraschen, aber ich kaufe Grafikkarten auch unter Berücksichtigung ihrer Speichermenge unabhängig davon was Balken in aktuellen Testsszenarien sagen.

NemesisTN
2015-01-24, 14:23:00
Ok, ich halte also mal fest:

Wenn Dein vermeintlicher 4k-Fernseher in Wirklichkeit beispielsweise nur 1920x1080 kann stört dich das eigentlich gar nicht, weil Du ja eh nur in 1920x1080 spielst.


Lesen und verstehen...
Ich habe nur eine FullHD-Glotze und mit der GTX970 befeuert läuft so ziemlich alles mit 60 fps und Vsync on -> reicht mir.

Wenn ich endlich meine 4k-Glotze habe (WENN), dann müsste ich mir, um dasselbe Erlebnis zu erhalten, wohl zwei Titan II im SLI kaufen müssen.

Mit der GTX970 jedoch erwarte ich bei 4k Frameraten unter 35..40 fps und deshalb werde ich nicht in 4k spielen.

Und 99,8 % aller (bewussten) Käufer der GTX970 denken wie ich...

Ich hab bewusst in diesem Preisbereich gekauft und nichts anderes erwartet.
Ich weiß nicht wieso ihr euch Consumer-Grakas kauft und euch ärgert, dass in 4k der Kram anfängt zu ruckeln...
Bei mir kommt jedenfalls mit 15..20 fps kein Spielspaß auf, egal wie geil die Grafik aussieht...

Air Force One
2015-01-24, 14:26:14
Es geht ja nicht nur um 4k.

-/\-CruNcher-/\-
2015-01-24, 14:26:53
Und dafür bietet Nvidia sogar MFAA als kompensation und demnächst noch mehr ;)

eratte
2015-01-24, 14:33:00
Erstmal abwarten, aber man muss auch nicht den Fanboy raushängen lassen und es schön reden.

Bodo-Ffo
2015-01-24, 14:39:30
Erstmal abwarten, aber man muss auch nicht den Fanboy raushängen lassen und es schön reden.So siehts aus ;)


Ich hoffe mal das lässt sich wieder richten mit ein Bios/Treiber update

NemesisTN
2015-01-24, 14:42:29
Es geht ja nicht nur um 4k.
Um was denn dann?
Wenn ich eine Grafikkarte mit Ultra-8k-Texturen vollstopfe, die dafür garnicht vorgesehen ist, muss ich mich nicht wundern.
Wenn ich das BESTE Erlebnis haben will, kaufe ich auch nur das BESTE.
Frag mich was da so schwer zu verstehen ist...

Und Nvidia bemüht sich ja mit dem Treiber, das (ihnen natürlich bewusste) Problem zu begrenzen, indem er die Speicherauslastung auf 3,5 GB begrenzt.
Und jetzt einen Baustein weniger zu verlöten macht wahrscheinlich aus Gründen der Art der Speicherzugriffe keinen Sinn.

Mich würde mal der Unterschied in der Bildqualität interessieren, einmal mit der 980 und 4 GB voll und einmal mit der 970 und 3,5 GB vom Treiber begrenzt.
Von euch 0,001 % werden nochmals nur 10 % den Unterschied überhaupt erkennen können.
Wahrscheinlich erkennt man den Unterschied nur über exakt dieselben Bilder über einen Differenzfilter in Photoshop. -.-

In meinen Augen ist das ein rumgeheule um ein Luxusproblem, weil ihr offensichtlich nicht willens oder könnens seid, euch Grafikkarten für eure Ansprüche zu kaufen...

NemesisTN
2015-01-24, 14:48:33
So siehts aus ;)


Ich hoffe mal das lässt sich wieder richten mit ein Bios/Treiber update

Das beste, was sie machen könnten, ist bereits über das BIOS den Speicher auf 3,5 GB zu begrenzen, dann gibt es keine Ruckler mehr wegen den lahmen letzen 512 MB sondern tatsächlich nur noch wegen übertriebenen und der Grafikkarte nicht gerechten Settings...

Thunder99
2015-01-24, 14:48:54
Oftmals lässt es sich erst in 4k das Problem erzwingen. Aber es geht hier mittlerweile generell um die nutzbaren GB an VRAM und nicht ob 4GB belegt werden können oder nicht. Sie können belegt werden aber halt nicht mit voller Geschwindigkeit. Daher versucht der Treiber so lange auf 3,5GB zu begrenzen wie es geht und schiebt es dann eher an die Auslagerungsdatei?!
Das beste, was sie machen könnten, ist bereits über das BIOS den Speicher auf 3,5 GB zu begrenzen, dann gibt es keine Ruckler mehr wegen den lahmen letzen 512 MB sondern tatsächlich nur noch wegen übertriebenen und der Grafikkarte nicht gerechten Settings...
Das stimmt nicht, es gibt keine übertrieben Settings ;) Es gibt genug Beispiele hier wo 4GB sinnvoll genutzt werden können. Und Besitzer einer GTX970/980 geben sich nicht mit 1080p only und ohne AA zufrieden ;)

Peicy
2015-01-24, 14:49:41
In meinen Augen ist das ein rumgeheule um ein Luxusproblem, weil ihr offensichtlich nicht willens oder könnens seid, euch Grafikkarten für eure Ansprüche zu kaufen...
Dann besorg dir mal ne Sehhilfe.
Der Golf kommt zwar nicht so schnell auf 150 wie der Ferrari, aber wenn drauf steht dass er auf 150 in 20 Sekunden kommt dann sollte das auch so funktionieren OHNE das am Tacho manipuliert wurde.

NemesisTN
2015-01-24, 14:54:52
Dann besorg dir mal ne Sehhilfe.
Der Golf kommt zwar nicht so schnell auf 150 wie der Ferrari, aber wenn drauf steht dass er auf 150 in 20 Sekunden kommt dann sollte das auch so funktionieren OHNE das am Tacho manipuliert wurde.
Dein Beitrag hat genau 0 Information.
Bitte, bitte erstellt mal Vergleichsbilder.
4k und maximale ultra 8k-Details und 16x SSAA und sonstwas.
Und dann den Unterschied mit bloßem Auge zw. 4 GB und 3,5 GB erkennen.
Ungeachtet der 10 fps auf 980 UND 970... -.-

Shaft
2015-01-24, 15:01:10
Dein Beitrag hat genau 0 Information.
Bitte, bitte erstellt mal Vergleichsbilder.
4k und maximale ultra 8k-Details und 16x SSAA und sonstwas.
Und dann den Unterschied mit bloßem Auge zw. 4 GB und 3,5 GB erkennen.
Ungeachtet der 10 fps auf 980 UND 970... -.-


Dafür gibt es eben Tools, die dies Aufzeigen.

Wenn dann auf einer 970 GTX die FPs dramatisch abnormal einfallen als sie sollten, dann ist nunrmal was faul. ;)

Ich reize gerne meine Grafikkarten aus, solange Rechenleistung und VRAM genügen.

Da möchte ich ungern von VRAM ausgebremst werden, der nicht den Spezifikation entspricht und falsch beworben wird.

NemesisTN
2015-01-24, 15:12:31
Sie fallen doch nur auf für die Grafikkarte unrealistischen Settings ab...
Sicher ist es nicht schön, wenn statt 4 GB nur 3,5 verwendet werden können, aber ich zweifle an signifikant großen Unterschieden in der Bildqualität.
Wenn ich mit der 970 und 3,5 GB im Spiel 25 fps bekommen kann, bekomme ich mit der 980 und 4 GB nich wesentlich mehr...
Und genau dann interessiert mich nur noch der Unterschied in der Bildqualität, welchen ich als faktisch nicht existent unterstelle.

Persönlich meide ich ALLE Settings, die unter Vsync < 60 fps erzeugen.
Demzuolge werde ich zur angestrebten Laufzeit der 970 von ca. 2 Jahren keine Einbußen erleben...
Und 99% der Käufer auch nicht.

Isen
2015-01-24, 15:14:59
Evolve ist also ein unrealistisches Setting, wo die Rohleistung für 60fps ausreicht und dann, bei 3,6Gb auf 30-40fps zusammen kracht? Und bei 3,7-3,9gb aufs unspielbare?

Also so wirklich gelesen hast du in den Thread nicht ... ist auch nicht das einzige spiel, gibt ja nochn paar.
Darum geht es ja im Grunde, dass bei Spielbaren Settings ( 60+) mit mehr als 3,5Gb es eben nicht mehr ist.

Ätznatron
2015-01-24, 15:17:02
@NemesisTN

Wen interessieren deine persönlichen Vorlieben?

NemesisTN
2015-01-24, 15:17:17
Doch, leider stehen nirgends die GENAUEN Settings dabei (Antialiasing hat zB. teilweise einen enormen Impact auf die Framerate, vor allem bei 4k).
Und 4k auf der 970 IST ein unrealistisches Setting...

tdon
2015-01-24, 15:20:07
Mit dem Tool kann ich nämlich auch schon weit unter 3GB Slow-Downs erzeugen.


Du hast nicht verstanden wie der Test funktioniert.

Shaft
2015-01-24, 15:22:02
Evolve ist ein unrealistisches Setting, wo die Rohleistung für 60fps ausreicht und dann, bei 3,6Gb auf 30-40fps zusammen kracht?

Also so wirklich gelesen hast du in dem Thread nicht ...


Würde ich auch meinen.

Wenn Spielbare FPS zustanden kommen >40, in extremen Szenarien, dann möchte ich die auch uneingeschränkt nutzen.

Sicher seltene Szenarien, aber es geht um das Prinzip.

Wie verhält es sich eigentlich bei Shadow of Mordor?

Wurde sicher schon getestet und ich habe es übersehen.

Immerhin ein Spiel was schon 4GB fordert.

Isen
2015-01-24, 15:26:58
1-3 Seiten zurück @SoM

aufkrawall
2015-01-24, 15:28:10
Es darf auch bei 20fps nicht wie irre anfangen zu stocken, wenn ähnlich schnelle Karten mit gleich viel RAM das nicht tun.

dildo4u
2015-01-24, 15:28:46
Würde ich auch meinen.

Wenn Spielbare FPS zustanden kommen >40, in extremen Szenarien, dann möchte ich die auch uneingeschränkt nutzen.

Sicher seltene Szenarien, aber es geht um das Prinzip.

Wie verhält es sich eigentlich bei Shadow of Mordor?

Wurde sicher schon getestet und ich habe es übersehen.

Immerhin ein Spiel was schon 4GB fordert.
Hab's vor ein paar Tagen mal getestet AMD 1055T mit 970.

3360*2100(Downsampling) mit HD Texturen.
https://mega.co.nz/#!dd0WVa5B!Z5L3vjkl_iTkxBA4dn2o-e6owuh320p4GNHKxqO4Ph0

urbi
2015-01-24, 15:53:30
Sollten sich die aktuellen Erkenntnisse bewahrheiten werde ich persönlich alles unternehmen um zu meinem Recht zu kommen. Ich werde meinen Händler kontaktieren und ihm mitteilen dass ich nicht gewillt bin das so hinzunehmen und ihn fragen was er mir anbietet. Sollte da nichts ansprechendes dabei sein werde ich vom Kauf zurücktreten oder den Kaufpreis mindern.

Ein schlechtes Gewissen gegenüber meinem (bisher sehr kulanten) Händler habe ich wegen § 478 BGB nicht. Am Ende werden die NVIDIA-Partner oder NVIDIA selbst die dummen sein und ganz ehrlich: Die haben es verdient. Ich glaube nicht, dass dieses Problem - sollte es denn tatsächlich bestehen - bei NVIDIA nicht vor dem Marktstart bemerkt wurde.

InsaneDruid
2015-01-24, 15:54:12
Ich möchte das Problem mal von Herstellernamen und Marken abstrahieren.

1. Wenn ihr ein 8GB Speicherkit kauft, und ein Riegel davon stellt sich als extrem langsam heraus, was würdet ihr tun? Würdet ihr euch sagen, nicht so schlimm, die Spiele die letztes und vorletztes Jahr rauskamen haben eh nur 6 GB belegt?

2. Wenn ihr euch ein Motherboard kauft, und ihr findet heraus, das der letzte RAM-Sockel nur sehr langsam angesteuert wird. Der Hersteller hat euch nicht darauf hingewiesen, sondern versucht nur über eine Treiberoptimierung das Problem zu verstecken / vertuschen. WAS würdet ihr tun?

Ernst gemeinte Frage. Ich stehe nämlich gerade vor dem Problem. Habe extra ein Upgrade von der 660 gemacht, weil dort die letzten 500MB Crap waren, und jetzt wieder das. Hätte der Hersteller diese Einschränkung kommuniziert, hätte ich vermutlich sogar zur 980 gegriffen. So bleibt mir nur dieser Hardwarealptraum, und keine Ahnung was ich nun tun soll.
Hier wird mal wieder wild durcheinandergehauen. Welche Aufgabe hat Speicher? Richtig. Speichern. Als solches und nur solches wird er beworben. Eine Grafikkarte soll Grafiken berechnen. 4GB sind auf der Schachtel abgedruckt, 4GB sind auf der Karte und ansprechbar. Machst du auch so einen Wind wenn 6 Phasen Stromversorgung dasteht, und dann - wie MSI? wenn ich mich recht erinnere - intern 4Phasen gemultiplext werden? Hat man "Ansprüche", wenn ein Treiber 0.1/5/10% der theoretischen Fullrate nicht ausnutzt? Was mache ich, wenn mein Diesel als 1,9Liter TDI beworben wird, aber doch nur 1896cm^3 aufweist? Meine Festplatte nur in den äußeren Sektoren schnell is?

Ich hab ne 970, bewusst trotz der beschnittenen Bandbreite (gegenüber der 980 erworben). Ärgert mich die Sache mit den 512MB? Ja. Würde ich deswegen eine andere Karte kaufen? Nein. Ich weiß wie schnell die Karte ist. Sie wird mit der Erkenntnis das 512 MB schneller sein könnten nicht langsamer. Sie war immer so, als man es nicht wusse alle "yeah" und jetzt alle "Zeter, Mordio", dabei hat sich effektiv NICHTS geändert. Will ich deshalb, dass die jeden Furtz ankeifenden Magazine jetzt auf einmal schweigen? Nein. Kommt mal hoch, berichtet mal. Wenn irgendwo in China auf einen aus dem Dreck gezogegen Lüfter eine blaue LED aus dem Abfall geklebt wird wird ja auch gleich ein 20 Seiten Essay aufgesetzt. Aber bitte wie erwachsene Menschen, nicht wie geifernde Kinder.

Darkearth27
2015-01-24, 15:57:45
Tagchen Zusammen.

Also fassen wir alles nochmal kurz zusammen.

Ja, die 970 hat 4GB die adressiert werden können.

Das Problem ist nur, dass es ab ca. 3.5GB (mit Aero aktiv auch eher) zu Leistungseinbrüchen kommt, da die vorgesehene Bandbreite nicht gegeben ist. Dies kann man Nai's Benchmark entnehmen.

Das stuttering und die Framedrops bei Spielen die sich eben 4GB genehmigen (dazu gehört auch Dragon Age Inqisition bei 1440P @ max "vom Nichts berührt" Texturqualität und 4x MSAA) sind ab ca 3.5 GB deutlich spührbar.

Das volle Ausnutzen der 4GB dauert bei Games generell also schon deutlich länger als mit einer 980?

Selbes Verhalten bei SoM. Egal ob in 4K oder geringerer Auflösung, die Bandbreite der 970 ist geringer als die der 980 und laut Datenblatt sollte das eben nicht so sein.

Obendrein werden bei der GTX 970 auch noch 256kb fehlender L2 Cache unter Aida64 bei GPGPU Cuda angezeigt, wohingegen bei GPU unter Architektur 2MB L2 Cache angezeigt werden.


Habe ich das alles richtig verstanden?

Wenn ja, dann wird das ein Treiberupdate wohl nicht richten können, da es hardwareseitige Fehler sind?

MFG

Thunder99
2015-01-24, 15:59:49
Schöner Beitrag :)

Man erwartet ein einwandfreies Produkt was anscheinend hier nicht gewährleistet werden kann. Aber es nichts gravierendes das die Karte nicht mehr funktioniert.

Daher bleibt wirklich nur die Möglichkeit abzuwarten und dann nach dem Statement entsprechend für sich zu entscheiden wie man vorgehen möchte.

Bodo-Ffo
2015-01-24, 16:04:17
Daher bleibt wirklich nur die Möglichkeit abzuwarten und dann nach dem Statement entsprechend für sich zu entscheiden wie man vorgehen möchte. :up:

Schnoesel
2015-01-24, 16:04:23
4GB sind auf der Schachtel abgedruckt, 4GB sind auf der Karte und ansprechbar.

Nun zu den Spezifikationen gehören aber auch die 256 bit Anbindung und die ist (falls sich das bewahrheitet) nicht über die vollen 4GB verfügbar, und das hätte erwähnt werden müssen. Bei der GTX 660 (ti) war das schließlich auch bekannt. (1,5 GB können dadurch per „Interleaving“ mit den vollen 192 Bit angesteuert werden, während die restlichen 512 MB nur einen einzelnen Controller, sprich 64 Bit, nutzen können.)

Wenn sich manche hier damit zufrieden geben ist das ja OK, aber man sollte anderen nicht das Recht absprechen sich nicht damit zufriedenzugeben.

dildo4u
2015-01-24, 16:06:37
Das mit der 660TI war für den Dau nicht bekannt frag mich warum es damals nicht so ne Welle gab.Die Karten wurden auch mit 2GB vermarktet.

NemesisTN
2015-01-24, 16:09:07
Evolve ist also ein unrealistisches Setting, wo die Rohleistung für 60fps ausreicht und dann, bei 3,6Gb auf 30-40fps zusammen kracht? Und bei 3,7-3,9gb aufs unspielbare?

Also so wirklich gelesen hast du in den Thread nicht ... ist auch nicht das einzige spiel, gibt ja nochn paar.
Darum geht es ja im Grunde, dass bei Spielbaren Settings ( 60+) mit mehr als 3,5Gb es eben nicht mehr ist.

Bei welchem Setting hast du da 60 fps?
Wieviel VRAM ist dabei belegt?
Was änderst du an den Settings, damit du über den Treiber-Block kommst um mehr als 3,5 GB zu belegen?
Was genau wird (unabhängig von der Framerate) dabei BESSER?

Ich habe noch kein Spiel zum übermäßigen Ruckeln bekommen, bei dem ich nicht genau wusste, dass es ein Nachladeruckler war.

Arschhulio
2015-01-24, 16:09:42
Ich verstehe nicht was die dämlichen Beiträge wie zb: Ihr habt halt nicht so viel Geld bezahlt, ihr habt ja nur die Billig Variante bla bla bla, mit dem Aktuellen Problem zu tun hat? Fakt ist das das Problem besteht, scheiss egal ob Ultra HD oder was weiß ich. Die vollen 4GB könne nicht mit der Leistung genutzt werden die Versprochen wurden und immer noch werden.

Da kann es eigentlich keine zwei Meinungen geben! Im Gegenteil, man sollte sogar froh sein das es nicht jeder stillschweigend hin nimmt!

aufkrawall
2015-01-24, 16:10:00
Das mit der 660TI war für den Dau nicht bekannt frag mich warum es damals nicht so ne Welle gab.Die Karten wurden auch mit 2GB vermarktet.
Es geht hier nicht um DAUs?
Aber bitte, wenn ihr euch zu der Gruppe zählt und alles gut ist, so lange es irgendwie läuft...

Schnoesel
2015-01-24, 16:14:28
Das mit der 660TI war für den Dau nicht bekannt frag mich warum es damals nicht so ne Welle gab.

Weil jeder der einen halbwegs vernünftigenTest gelesen hat das mitbekommen hat und zwar bei Release:

Nachzulesen hier:

http://www.computerbase.de/2012-09/test-nvidia-geforce-gtx-660/
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-der-Geforce-GTX-660-1023513/
http://ht4u.net/reviews/2012/evga_geforce_gtx_660_ti_sc_3_gb_test/index4.php
oder
http://www.tomshardware.de/nvidia-geforce-gtx-660-geforce-gtx-650-benchmark-test,testberichte-241099-2.html

dildo4u
2015-01-24, 16:16:04
Ja aber es gab kein Welle wie jetzt wo Leute einen Rückruf oder ne 980 als Ersatz wollen.

InsaneDruid
2015-01-24, 16:18:37
Das mit der 660TI war für den Dau nicht bekannt frag mich warum es damals nicht so ne Welle gab.Die Karten wurden auch mit 2GB vermarktet.

Weil jetzt jeder hofft für 300+x Öcken eine >500 Euro karte abzugrasen. Wer wirklich daran glaubt täte gut jetzt noch einen Sack 970er zu horten ;)

NemesisTN
2015-01-24, 16:18:59
Ich verstehe nicht was die dämlichen Beiträge wie zb: Ihr habt halt nicht so viel Geld bezahlt, ihr habt ja nur die Billig Variante bla bla bla, mit dem Aktuellen Problem zu tun hat? Fakt ist das das Problem besteht, scheiss egal ob Ultra HD oder was weiß ich. Die vollen 4GB könne nicht mit der Leistung genutzt werden die Versprochen wurden und immer noch werden.

Da kann es eigentlich keine zwei Meinungen geben! Im Gegenteil, man sollte sogar froh sein das es nicht jeder stillschweigend hin nimmt!

Ganz einfach:
Wie viele Leute werden in diese Problem laufen?
1 %? 10 %? 50 %? 80 %?
Ihr bauscht hier ein Problem auf, welches zwar nicht zu leugnen ist, jedoch vom groß der Käufer niemals bemerkt werden wird...
Wenn ihr euch betrogen fühlt, verkauft doch die Grafikkarte und kauft euch eine Titan II.
Die sollte keine Einbrüche zeigen...

Frage, wieso habt ihr euch nicht gleich solch eine gekauft?
Was war der Grund, euch eine 970 zuzulegen?
Die guten Benchmarks zum Release?
In welchen Settings wurden diese Benches erzeugt?
Und in welchen Settings tritt jetzt das geruckele auf?
Überprüft euch mal..

urbi
2015-01-24, 16:19:49
Ich verstehe nicht was die dämlichen Beiträge wie zb: Ihr habt halt nicht so viel Geld bezahlt, ihr habt ja nur die Billig Variante bla bla bla, mit dem Aktuellen Problem zu tun hat? Fakt ist das das Problem besteht, scheiss egal ob Ultra HD oder was weiß ich. Die vollen 4GB könne nicht mit der Leistung genutzt werden die Versprochen wurden und immer noch werden.

Da kann es eigentlich keine zwei Meinungen geben! Im Gegenteil, man sollte sogar froh sein das es nicht jeder stillschweigend hin nimmt!

Ich behaupte einfach mal dass es genug Leute gab die zwischen GTX 970 und GTX 980 geschwankt haben und dann zur GTX 970 griffen weil sie im Vergleich aufgrund der Herstellerangaben attraktiver erschien. Bei mir war es jedenfalls so. Ich hätte die GTX 970 niemals gekauft wenn ich von diesem Problem gewusst hätte, nicht zu dem Preis.

dildo4u
2015-01-24, 16:22:07
Weil jetzt jeder hofft für 300+x Öcken eine >500 Euro karte abzugrasen. Wer wirklich daran glaubt täte gut jetzt noch einen Sack 970er zu horten ;)
Jup man will Titan Performance für 300€ und jetzt wird geheult da der Chip beschnitten ist was bekannt war.

aufkrawall
2015-01-24, 16:27:39
Ich behaupte einfach mal dass es genug Leute gab die zwischen GTX 970 und GTX 980 geschwankt haben und dann zur GTX 970 griffen weil sie im Vergleich aufgrund der Herstellerangaben attraktiver erschien. Bei mir war es jedenfalls so. Ich hätte die GTX 970 niemals gekauft wenn ich von diesem Problem gewusst hätte, nicht zu dem Preis.
Exactly.
Die Mentalität einiger hier ist beispiellos armselig...

Freed
2015-01-24, 16:28:34
Ach wie die Trollaccounts mit ihren 4-5 Beiträgen hier aus dem Boden sprießen, meist mit NV-Tarnname und nur Gabashe, herrlich. Scheint Pilzsaison zu sein, man sollte mal sammeln gehen.

Aber hier wird mal wieder wild durcheinandergehauen. Welche Aufgabe hat Speicher? Richtig. Speichern. Als solches und nur solches wird er beworben. Eine Grafikkarte soll Grafiken berechnen. 4GB sind auf der Schachtel abgedruckt, 4GB sind auf der Karte und ansprechbar. Machst du auch so einen Wind wenn 6 Phasen Stromversorgung dasteht, und dann - wie MSI? wenn ich mich recht erinnere - intern 4Phasen gemultiplext werden? Hat man "Ansprüche", wenn ein Treiber 0.1/5/10% der theoretischen Fullrate nicht ausnutzt? Was mache ich, wenn mein Diesel als 1,9Liter TDI beworben wird, aber doch nur 1896cm^3 aufweist? Meine Festplatte nur in den äußeren Sektoren schnell is?

Ich hab ne 970, bewusst trotz der beschnittenen Bandbreite (gegenüber der 980 erworben). Ärgert mich die Sache mit den 512MB? Ja. Würde ich deswegen eine andere Karte kaufen? Nein. Ich weiß wie schnell die Karte ist. Sie wird mit der Erkenntnis das 512 MB schneller sein könnten nicht langsamer. Sie war immer so, als man es nicht wusse alle "yeah" und jetzt alle "Zeter, Mordio", dabei hat sich effektiv NICHTS geändert. Will ich deshalb, dass die jeden Furtz ankeifenden Magazine jetzt auf einmal schweigen? Nein. Kommt mal hoch, berichtet mal. Wenn irgendwo in China auf einen aus dem Dreck gezogegen Lüfter eine blaue LED aus dem Abfall geklebt wird wird ja auch gleich ein 20 Seiten Essay aufgesetzt. Aber bitte wie erwachsene Menschen, nicht wie geifernde Kinder.

Deine Vergleiche hinken so sehr, dass man gar nicht weiss, wo man anfangen soll ...

Ganz blöde mal hier http://www.hardocp.com/image.html?image=MTQxMTk3NjU5NW5pdEZaMTFFZzFfMV8yX2wuZ2lm ist der Reviewers's Guide von nvidia zur 970er. Da steht 2 MB L2 Cache, offiziell, von nvidia! SiSoft liest bei den 970er aber nur 1792 KB aus. Somit entspricht die Karte schonmal nicht den Specs und die Beobachtung von abbrechender Leistung ab ~3,5GB soll ja mit dem L2 zusammenhängen.

Zweitens versucht die Software nach allem was ich hier so gelesen habe AKTIV eine Speicherbelegung von mehr als 3,5 GB zu unterbinden, da muss also ein failsafe einprogrammiert sein, oder aber nvidia hat den ersten selbstdenkenden Treiber erfunden. Und sobald es über 3,5GB geht, bricht die FPS Zahl unverhältnismässig ein. Um bei Deinem unpassenden Autovergleich zu bleiben, wenn du nur auf 5 Zylindern unterwegs wärest, wäre alles ok, aber ab dem 6ten bricht plötzlich die Leistung weg ... aber Du kannst ja alle 6 nutzen, nur nicht gleich gut.

Würde jetzt gerne wieder Dieter Nuhr zitieren!

Exactly.
Die Mentalität einiger hier ist beispiellos armselig...

970er wurde als das neue Preis/Leistungs-Optimum angepriesen, war daher auch meine Kaufentscheidung. Egal ob ich jetzt in die Leistungsgrenze reinrenne oder nicht, nach dem, was hier gezeigt wurde, komme ich mir ziemlich verarscht vor. Und da, wie geschrieben, der Treiber ja auch noch aktiv versuchen soll, die Belegung von mehr als 3,5 GB zu verhindern, sieht es für mich nach Absicht aus!

doktor
2015-01-24, 16:29:56
Ganz einfach:
Wie viele Leute werden in diese Problem laufen?
1 %? 10 %? 50 %? 80 %?
...
Überprüft euch mal..

Nur weil im MOMENT im Jänner 2015 keine Probleme in den meisten Spielen mit normalen Settings herrschen, heißt das noch lange nicht das alles in Ordnung ist mit unseren Karten.
Ich will mit dieser Karte solange wie möglich Spielen, bis mir die Leistung nicht mehr ausreicht. Ob dies in 2 oder in 4 Jahren ist steht noch offen. Fakt ist jedoch das ich nicht in 2 Jahren wechseln muss für Hohe Einstellungen in den Games die dann erscheinen, da diese einfach mit funktionstüchtigen 4GB Grafikspeicher rechnen für solche Einstellungen.
Die Karte ist derzeit NICHT das wofür sie beworben worde und in den kommenden Games wird sich das immer mehr zeigen.

Ätznatron
2015-01-24, 16:31:27
Exactly.
Die Mentalität einiger hier ist beispiellos armselig...

+1

aths
2015-01-24, 16:52:23
Wo kann ich eigentlich dieses Tool runterladen von dem hier alle Screenshots machen?

doktor
2015-01-24, 16:57:02
Im Guru3d Forum wurde Nai's bench ein wenig erweitert. Nun kann man die Chunk Size bestimmen und wie viel MB getestet werden sollen. Hier der Post http://forums.guru3d.com/showpost.php?p=4998341&postcount=115

aufkrawall
2015-01-24, 17:00:02
Ein OpenCL-Port wär ganz nett.

Shaft
2015-01-24, 17:02:52
Jup man will Titan Performance für 300€ und jetzt wird geheult da der Chip beschnitten ist was bekannt war.


Die Bandbreite wird auf der Nvidia Homepage für die 970 und 980 gleich beziffert, dann darf man auch erwarten, das der VRAM voll und mit gesamter Leistung angesprochen wird.

Exactly.
Die Mentalität einiger hier ist beispiellos armselig...

+1

aufkrawall
2015-01-24, 17:03:52
Die Bandbreite wird auf der Nvidia Homepage für die 970 und 980 gleich benannt.
Es wird jedenfalls suggeriert, 970 sei nur etwas langsamer als 980 und ansonsten gleich.

dildo4u
2015-01-24, 17:09:14
Der Bench taugt nix der Treiber lässt bei jedem Game bis 3.5GB zu ich hab aber angeblich ab 3.2GB miese Performance.

http://abload.de/img/vramflyakj.png

tdon
2015-01-24, 17:14:20
Bei 3072 sollte es nicht schon einbrechen. Wundert mich bei dir nicht, dass du nicht geschnallt hast, wie man testen sollte.

doktor
2015-01-24, 17:19:36
Der Bench taugt nix der Treiber lässt bei jedem Game bis 3.5GB zu ich hab aber angeblich ab 3.2GB miese Performance.

http://abload.de/img/vramflyakj.png

Lies doch mal die letzten paar Seiten durch da steht genug wie man den Bench benutzt.

Ohne DWM gehts auch bei dir noch weiter.

dildo4u
2015-01-24, 17:23:37
Der Bench ist Schrott ich hab 280 belegt mit DWM also müsste ich bis 3.7 keine Einbrüche haben.

-/\-CruNcher-/\-
2015-01-24, 17:30:55
Es darf auch bei 20fps nicht wie irre anfangen zu stocken, wenn ähnlich schnelle Karten mit gleich viel RAM das nicht tun.

Wie bitte da schraubst du die komplexität des ganzen aber sehr weit nach unten völliger quatsch.

aufkrawall
2015-01-24, 17:45:40
:facepalm::facepalm:

-/\-CruNcher-/\-
2015-01-24, 18:06:20
:facepalm::facepalm:

Nope aussagen wie

Es wird jedenfalls suggeriert, 970 sei nur etwas langsamer als 980 und ansonsten gleich.

sind einfach nur undifferenziert bis zum geht nicht mehr genauso wie dein 5K test sorry.

Nvidia denkt bei dem Design ein wenig weiter als du es tust.

aufkrawall
2015-01-24, 18:11:10
So ein Schwachsinn, was du da verschwurbelst...
Die Karte ist schneller als die 290 und die kann ohne Probleme 4GB adressieren (was auch Sinn macht! Erst recht, wenns auf der Packung steht...).

dildo4u
2015-01-24, 18:12:42
Nvidia Statement und Benches

The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

We understand there have been some questions about how the GTX 970 will perform when it accesses the 0.5GB memory segment. The best way to test that is to look at game performance. Compare a GTX 980 to a 970 on a game that uses less than 3.5GB. Then turn up the settings so the game needs more than 3.5GB and compare 980 and 970 performance again.


http://abload.de/img/nvidiaf7da2n.png

http://www.pcper.com/news/Graphics-Cards/NVIDIA-Responds-GTX-970-35GB-Memory-Issue

aufkrawall
2015-01-24, 18:13:58
;D
Was ne peinliche Ausflucht...

Einfach unter den Teppich kehren, dass es üble Stocker geben kann. So kann mans auch machen.
*GTX 970 Verkaufswelle incoming...*

tdon
2015-01-24, 18:16:12
Der Bench ist Schrott ich hab 280 belegt mit DWM also müsste ich bis 3.7 keine Einbrüche haben.


Genau darum geht es doch, dass die GTX 970 im Gegensatz zur 980 und vergleichbaren Kepler Karten ohne Einbruch durchlaufen.

NemesisTN
2015-01-24, 18:17:33
Nur weil im MOMENT im Jänner 2015 keine Probleme in den meisten Spielen mit normalen Settings herrschen, heißt das noch lange nicht das alles in Ordnung ist mit unseren Karten.
Ich will mit dieser Karte solange wie möglich Spielen, bis mir die Leistung nicht mehr ausreicht. Ob dies in 2 oder in 4 Jahren ist steht noch offen. Fakt ist jedoch das ich nicht in 2 Jahren wechseln muss für Hohe Einstellungen in den Games die dann erscheinen, da diese einfach mit funktionstüchtigen 4GB Grafikspeicher rechnen für solche Einstellungen.
Die Karte ist derzeit NICHT das wofür sie beworben worde und in den kommenden Games wird sich das immer mehr zeigen.
Momentan sind wir bei der Grafikqualität an einem Punkt angelangt, an dem die aufzubringende Leistung exponentiell mit der Bildqualität steigt.
Von einer 2014er Performance-Grafikkarte in ZWEI bis VIER Jahren noch hohe Settings zu verlangen ist absolut illusorisch...

Und ob die 1792 kb Cache stimmen weiß auch niemand.
Ich will Nvidia hier nicht in Schutz nehmen, aber diese Tools basieren meist auf Datenbanken, weniger auf dem tatsächlichen auslesen.
Leider finden sich heutzutage immer weniger Cracks, die noch mit Assembler klar kommen und Algorithmen schreiben können, die basierend auf der Laufzeit von Schleifen auf die Größe des Cache schließen lassen.
Alle Welt verlässt sich auf bereits vorhandene Information...

Dass der Treiber aktiv versucht, die Speichermenge zu begrenzen finde ich sehr gut.
Der sich damit ergebende Bildqualitätsunterschied ist offensichtlich so minimal und die Performance stimmt bis 3,5 GB auch.
Wenn der Treiber und/oder das BIOS verbessert wird, dass rigoroser auf 3,5 GB begrenzt wird, ist doch ok, irgendwo MUSS ja der Performance-Unterschied zur 980 erzeugt werden...
Sonst könnte ich ja gleich eine 980 für 500 Eier kaufen. -.-

Dass Nvidias Marketing-Abteilung mit 4 GB wirbt, ist doch logisch, diese sind ja (wohl wegen dem Interleave) zwingend notwendig.
Wenn also etwas verwerfliches dabei ist, dann das Marketing, nicht die Technik.

Matrix316
2015-01-24, 18:20:13
So ein Schwachsinn, was du da verschwurbelst...
Die Karte ist schneller als die 290 und die kann ohne Probleme 4GB adressieren (was auch Sinn macht! Erst recht, wenns auf der Packung steht...).
Kommt drauf an. In allen Reviews waren die 290(x) Karten in sehr hohen Auflösungen mit AA meistens einen Ticken schneller als die 970.

Z.B.

http://abload.de/img/290nntd5xnj.jpg (http://abload.de/image.php?img=290nntd5xnj.jpg)

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32847-fuenf-modelle-der-geforce-gtx-970-im-test.html?start=16

Nakai
2015-01-24, 18:23:46
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system.

:freak::freak::freak:

Ganz einfach, keine n:m Verbindungen zwischen n SMMs und m ROP-Partitionen, sondern irgendwas anderes. Da war mein Gedanke bzw. Hübies Gedanke schon mal nicht abwegig. Achja, das ist eine Hardware-Einschränkung!

aufkrawall
2015-01-24, 18:23:53
Kommt drauf an. In allen Reviews waren die 290(x) Karten in sehr hohen Auflösungen mit AA meistens einen Ticken schneller als die 970.

Z.B.

http://abload.de/img/290nntd5xnj.jpg (http://abload.de/image.php?img=290nntd5xnj.jpg)

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32847-fuenf-modelle-der-geforce-gtx-970-im-test.html?start=16
Ja, z.B. dies, z.B. das.
Ist nicht zielführend.

Rente
2015-01-24, 18:24:33
;D
Was ne peinliche Ausflucht...

Einfach unter den Teppich kehren, dass es üble Stocker geben kann. So kann mans auch machen.
*GTX 970 Verkaufswelle incoming...*
Eventuell können sie das aber noch per Treiber optimieren.

Darüber hinaus gibt es jetzt immerhin mal eine Aussage, mal sehen was noch kommt.
Schön ist die Aktion aber definitiv nicht, ich werde mir jedenfalls in Zukunft 3x überlegen eine Salvage-Variante einer nVidia-Karte zu kaufen.

-/\-CruNcher-/\-
2015-01-24, 18:25:20
@aufkrawall

du musst wissen, daß nvidia die karte nur zu unserem vorteil kastriert hat.
sie machen das explizit nicht um den gewinn zu maximieren :biggrin:

Oh mann ich bin raus hier das ist nicht mehr auszuhalten

eratte
2015-01-24, 18:27:56
Dass der Treiber aktiv versucht, die Speichermenge zu begrenzen finde ich sehr gut.
Der sich damit ergebende Bildqualitätsunterschied ist offensichtlich so minimal und die Performance stimmt bis 3,5 GB auch.

So einen Kunden wie dich kann sich jede Firma als Fanboy nur wünschen.

Ich habe ja nun reichlich Test incl Tabelle zur GTX970 und 980 gelesen, ausser das die 970 weniger Recheneinheiten stand da nirgendwo etwas das sie an anderen Stellen auch abgespeckt ist. Ja nun ist das aufgefallen. Das Verhalten sollte man klar verurteilen.

Und natürlich nimmst du nVidia in Schutz. Hinterfrage mal deine Aussagen wenn es ein anderer Hersteller wäre.

NemesisTN
2015-01-24, 18:28:20
Ja, z.B. dies, z.B. das.
Ist nicht zielführend.

Was willst du denn noch?
Da steht schwarz auf rot auf weiß, dass die GTX970 in (nicht ihrer Klasse) entsprechenden Settings ein bricht.
Genau das ist erwartbar und eingetroffen und darauf hin sollte man seinen Grafikkartenkauf hin ausrichten.
Hier hat sich noch KEINER aufgeregt, dass die Karte in 1080 oder 1200 laggt...
Nur ihr mit euren 4k und ultra-8k-Details regt euch auf... -.-

aufkrawall
2015-01-24, 18:29:04
Eventuell können sie das aber noch per Treiber optimieren.

Früher oder später dürfte es immer spürbar sein.

Oh mann ich bin raus hier das ist nicht mehr auszuhalten
Oh nein, was soll ohne wirres Geschreibsel denn nun aus dem Thread werden?

-/\-CruNcher-/\-
2015-01-24, 18:31:11
Du wirst den schon sinvoll füllen da bin ich mir sicher ;)

NemesisTN
2015-01-24, 18:32:02
So einen Kunden wie dich kann sich jede Firma als Fanboy nur wünschen.

Ich habe ja nun reichlich Test incl Tabelle zur GTX970 und 980 gelesen, ausser das die 970 weniger Recheneinheiten stand da nirgendwo etwas das sie an anderen Stellen auch abgespeckt ist. Ja nun ist das aufgefallen. Das Verhalten sollte man klar verurteilen.

Und natürlich nimmst du nVidia in Schutz. Hinterfrage mal deine Aussagen wenn es ein anderer Hersteller wäre.

Ich kaufe Hardware primär nach Performance/(elektrische) Leistung.
Das ist der Grund, weshalb ich derzeit AMD (CPU & GPU) meide.

Wie ich vorhin angeführt habe, zieht bitte gegen die Marketing-Abteilung in den Krieg, nicht gegen die Technik.

Kladderadatsch
2015-01-24, 18:32:27
Darüber hinaus gibt es jetzt immerhin mal eine Aussage, mal sehen was noch kommt.
was soll denn noch kommen? wer in extremen auflösungen zocken will, muss high end kaufen. das war schon immer so. daher fällt es mir als käufer dieser karte auch schwer, mich ob dieser "einschränkung" zu ärgern..

aufkrawall
2015-01-24, 18:34:18
was soll denn noch kommen? wer in extremen auflösungen zocken will, muss high end kaufen. das war schon immer so. daher kann ich mich als käufer dieser karte auch irgendwie gar nicht ärgern..
Nope, welcher HighEnd-Salvage (oder was dafür verkauft wird) konnte zuletzt den Speicher nicht genau so nutzen wie der Full-Chip mit gleicher Speichermenge?

Lurtz
2015-01-24, 18:36:26
Wer sagt dass das Statement direkt von nVidia kommt? Die Quelle verweist auf die eigene Seite...

-/\-CruNcher-/\-
2015-01-24, 18:36:36
was soll denn noch kommen? wer in extremen auflösungen zocken will, muss high end kaufen. das war schon immer so. daher fällt es mir als käufer dieser karte auch schwer, mich ob dieser "einschränkung" zu ärgern..

[ironie on]Du bist Fanboy eindeutig[/ironie off]

Du wirst aber noch sehr unglücklich mit deiner GTX 970 werden laut aufkrawall pass mal auf also besser jetzt verkaufen und noch Gewinn machen um zu AMD zu wechseln ;)

AnarchX
2015-01-24, 18:36:44
:freak::freak::freak:

Ganz einfach, keine n:m Verbindungen zwischen n SMMs und m ROP-Partitionen, sondern irgendwas anderes. Da war mein Gedanke bzw. Hübies Gedanke schon mal nicht abwegig. Achja, das ist eine Hardware-Einschränkung!
Seltsam nur, dass die 980M (12SMM - 2MiB - 256-Bit) nicht betroffen ist.

Kladderadatsch
2015-01-24, 18:37:37
Nope, welcher HighEnd-Salvage (oder was dafür verkauft wird) konnte zuletzt den Speicher nicht genau so nutzen wie der Full-Chip mit gleicher Speichermenge?
wie die limitierung zustande kommt, spielt keine rolle. die karte ist mainstream und für mainstream (full hd) bestens geeignet.

dildo4u
2015-01-24, 18:38:11
Wer sagt dass das Statement direkt von nVidia kommt? Die Quelle verweist auf die eigene Seite...

Nvidia has been looking into the issue and has now issued the following statement

http://techreport.com/news/27721/nvidia-admits-explains-geforce-gtx-970-memory-allocation-issue

Die Techwebseiten werden das als Email bekommen haben.

Techreports Kommentar:

Interesting. We explored a similar datapath issue related to the GTX 970's disabled SMs in this blog post. In that case, we looked at why the GTX 970 can't make full use of its 64 ROP partitions at once when drawing pixels. Sounds to me like this issue is pretty closely related.

Beyond satisfying our curiosity, though, I'm not sure what else to make of this information. Like the ROP issue, this limitation is already baked into the GTX 970's measured performance. Perhaps folks will find some instances where the GTX 970's memory allocation limits affect performance more dramatically than in Nvidia's examples above. If so, maybe we should worry about this limitation. If not, well, then it's all kind of academic.

aufkrawall
2015-01-24, 18:39:52
wie die limitierung zustande kommt, spielt keine rolle. die karte ist mainstream und für mainstream (full hd) bestens geeignet.
Jawohl!

Ex3cut3r
2015-01-24, 18:40:19
Falsche Specs von Nvidia sind eine Frechheit (punkt)

Also ich werde auf jeden fall kein Salvage Chip mehr bei denen kaufen, hab zwar keine 970er, aber das geht gar nicht. Viel spaß mit den Stocklern in nem halben Jahr dann. :freak:

Nakai
2015-01-24, 18:41:09
Seltsam nur, dass die 980M (12SMM - 2MiB - 256-Bit) nicht betroffen ist.

Ich glaube nicht, dass das schon alles ist.

Eventuell kann der L2-Cache noch extra deaktiviert werden, oder die interne Organisation erlaubt es, dass, trotz deaktivierter SMMs, das gesamte Backend gut anzusprechen. Sprich, bei einer 980M könnte es sich selektierte deaktivierte Chips handeln, welche dieses Problem nicht haben.

"fewer crossbar resources to the memory system" ist eine wirlich ungenaue Ausdrucksweise. Damit ist nicht geklärt, was genau gemeint ist.

eratte
2015-01-24, 18:41:09
Ist das eigentlich absichtliches Dummstellen? Es geht darum das ein Produkt eine Einschränkung hat die nicht veröffentlicht wurde sondern nun auf Nachfrage zugegeben wurde.

Wie die Auswirkungen für die unterschiedlichen Endanwender sind ist nebensächlich. So etwas kann man einfach nicht gutheißen.

NemesisTN
2015-01-24, 18:42:10
Seltsam nur, dass die 980M (12SMM - 2MiB - 256-Bit) nicht betroffen ist.
12 SMM ist wieder eine gerade Zahl, irgendwie kann Nvidia die wohl wieder auf 4 GB mappen.

@-/\-CruNcher-/\-:
Eine entsprechende AMD-Karte verbrät die doppelte Leistung.
Von euch muss wohl keiner seinen Strom selbst zahlen...

eratte
2015-01-24, 18:42:22
wie die limitierung zustande kommt, spielt keine rolle. die karte ist mainstream und für mainstream (full hd) bestens geeignet.

Haha, ich dachte für FullHD ist die GTX 960 gedacht *trommel

Und lasst doch mal AMD aus dem Spiel - um die geht es hier nicht.

Lurtz
2015-01-24, 18:43:22
Nvidia has been looking into the issue and has now issued the following statement

http://techreport.com/news/27721/nvidia-admits-explains-geforce-gtx-970-memory-allocation-issue

Die Techwebseiten werden das als Email bekommen haben.

Techreports Kommentar:
Der Kommentar geht ja mal voll am eigentlichen Thema vorbei :ugly: Wie es aussieht hat nVidia Etikettenschwindel betrieben, Punkt.

Kladderadatsch
2015-01-24, 18:44:01
Viel spaß mit den Stocklern in nem halben Jahr dann. :freak:
wenn man schon mainstream kauft, dann wenigstens alle halbe jahr:biggrin:

-/\-CruNcher-/\-
2015-01-24, 18:47:01
12 SMM ist wieder eine gerade Zahl, irgendwie kann Nvidia die wohl wieder auf 4 GB mappen.

@-/\-CruNcher-/\-:
Eine entsprechende AMD-Karte verbrät die doppelte Leistung.
Von euch muss wohl keiner seinen Strom selbst zahlen...

Das ist mir bewusst dieser fakt wird hier aber nirgends in den tests gebracht nur dummes ich fühl mich betrogen blablabla :(

Dieser fakt gilt für AMD noch die Veränderungen diesbezüglich werden aber schon sichtbar bei Tonga und differenzieren sich nicht sehr von Nvidia ;)

Die jetzige AMD GCN generation ist outdatet auch die 285 (1 Jahr zu spät) interessanter wird der nächste Zyklus ;)

Und das ganze in der Hand von einem neuen CEO

AnarchX
2015-01-24, 18:50:23
Ich glaube nicht, dass das schon alles ist.

Eventuell kann der L2-Cache noch extra deaktiviert werden, oder die interne Organisation erlaubt es, dass, trotz deaktivierter SMMs, das gesamte Backend gut anzusprechen. Sprich, bei einer 980M könnte es sich selektierte deaktivierte Chips handeln, welche dieses Problem nicht haben.

"fewer crossbar resources to the memory system" ist eine wirlich ungenaue Ausdrucksweise. Damit ist nicht geklärt, was genau gemeint ist.

Ja das könnte sich dahinter verbergen.
Aber die Angaben hier waren dann wohl nicht ganz korrekt: http://www.hardocp.com/image.html?image=MTQxMTk3NjU5NW5pdEZaMTFFZzFfMV8yX2wuZ2lm

Im Endeffekt wird es wohl NV nicht wirklich gewusst haben, ansonsten wäre das wohl kommuniziert wurden, ähnlich wie die GPC-Sache bei der 780er oder die 1/2GiB@192-Bit Karten.


12 SMM ist wieder eine gerade Zahl, irgendwie kann Nvidia die wohl wieder auf 4 GB mappen.

Hinter "and fewer crossbar resources to the memory system." verbirgt sich wohl der reduzierte L2-Cache der GTX 970.

Maorga
2015-01-24, 18:56:36
Was eigentlich bisher merkwürdig ist, sind wirklich die 0.5 GiB. An jedem der 4 Memorycontroller hängt 1 GiB. Wären die ROPs mit den SMM beschnitten und äußerst ungünstig gelegen so wäre nur noch eine SMM für die Befüllung des Memorycontrollers zuständig. Ergo sollte ein ganzes GiB um den Faktor 4 langsamer laufen (Eine SMM statt 4 SMM). Trifft aber irgendwie nicht zu.

Die GTX 970 muss auf jeden Fall ungleiche Last auf den MemoryControllern erzeugen. Bestensfalls einer mit Fullspeed und 3 mit 3/4 Speed. Schlechtestens 3 mit Fullspeed und einer mit 1/4 Speed. Kann schon sein, die Geschichte mit der Crossbar für den Memorycontroller allerdings müsste es sich wie gesagt auf ganze GiB auswirken und nicht auf ein halbes.

Den Vergleich mit der GTX 980 zur 970 mit <3.5 GiB und >3.5 GiB sieht schon sehr schlüssig aus. Auch wenn da einige schreiben sie wollen Frametimes sehen. Wir bräuchten 2 Freiwillige (mit vergleichbaren Systemen Win7 64 bit 16 GiB i5/7 mit gleichen Speed) die sich auch die Taktraten ihrer Grakas einstellen trauen eine GTX 980 und eine GTX 970 mit gleichen Takt laufen lassen. Dann die Frametimes aufzeichnen mit <3.5 GiB und dann >3.5 GiB. Dann könnte man den Vergleich von nVidia nachvollziehen. Selben Savepunkt verwenden.

Yeah so it was same as mine speculations, Memory adresses are allocated to exact CUDA Cores. Each CUDA core has his dedicated memory space to compute.
^kann dies möglich sein?

Wenn dem so ist, dann kann das Thema einen ticken ruhiger gegessen werden.

-/\-CruNcher-/\-
2015-01-24, 18:56:37
Übrigens Shadowplay als Nvidia Bonus in GFE wird mit Windows 10 praktisch zerplatzen

Seph
2015-01-24, 18:58:10
Wenn die fehlende Performance in den letzten 500MB zu einem ernsthaften Problem wird, habe ich wahrscheinlich eh schon längst wieder die nächste Performancekarte gekauft, in einem Jahr oder so. Der Aufpreis von meiner 660TI auf die 970 lag bei rund 150 Euro, das finde ich ok. Für die nächste Gen wird's genauso sein. Ob 3,5 oder 4GB...wirkt sich aus, aber das ist sicherlich nicht make it or break it in den meisten Games. Für VR und Co. braucht es eine andere Hausnummer.

Shaft
2015-01-24, 18:59:09
wie die limitierung zustande kommt, spielt keine rolle. die karte ist mainstream und für mainstream (full hd) bestens geeignet.


Quark³.

Die 970 ist prädestiniert für 4K, Leistung und RAM ist ausreichend. Preislich ist das auch keine Frage, billig ist sie nicht.

Habe oft genug eine 560 TI (869 VRAM) mit solchen 4K Settings genutzt, wenn Leistung für Spielbare FPS ausreichend waren. Da habe ich gelegentliche Nachladeruckler in hingenommen.


Nvidia hat die VRAM Belegung vergessen, der Vollständigkeit halber.


Ich glaube nicht, dass das schon alles ist.

Eventuell kann der L2-Cache noch extra deaktiviert werden, oder die interne Organisation erlaubt es, dass, trotz deaktivierter SMMs, das gesamte Backend gut anzusprechen. Sprich, bei einer 980M könnte es sich selektierte deaktivierte Chips handeln, welche dieses Problem nicht haben.

"fewer crossbar resources to the memory system" ist eine wirlich ungenaue Ausdrucksweise. Damit ist nicht geklärt, was genau gemeint ist.


Das wars, da wird auch nichts weiter kommen, schade.

Nakai
2015-01-24, 18:59:19
Ja das könnte sich dahinter verbergen.
Aber die Angaben hier waren dann wohl nicht ganz korrekt: http://www.hardocp.com/image.html?image=MTQxMTk3NjU5NW5pdEZaMTFFZzFfMV8yX2wuZ2lm

Im Endeffekt wird es wohl NV nicht wirklich gewusst haben, ansonsten wäre das wohl kommuniziert wurden, ähnlich wie die GPC-Sache bei der 780er oder die 1/2GiB@192-Bit Karten.

Hinter "and fewer crossbar resources to the memory system." verbirgt sich wohl der reduzierte L2-Cache der GTX 970.

Warten wir mal ab. Dass es NV nicht gewusst hat, glaube ich nicht. Nach meiner Meinung hat es sich schon angedeutet. NV hat keine Interconnect Network bei den SMMs angegeben. Das war seit jeher ein Bestandteil im Aufbau der SMs.

Was IHVs kommunizieren und was sie gezielt aussprechen, sind immer zwei paar Stiefel.

tdon
2015-01-24, 18:59:28
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section.


Eine technische Limitierung wie vermutet. Auch wie vermutet, versucht der Treiber so lange wie möglich auf 3.5GB zu begrenzen. Mich verärgert vor allem, wieso Nvidia den Unterschied nicht gleich offengelegt hat. Stattdessen wird 2 Wochen lang auf unwissend getan, obwohl sie natürlich von Anfang an davon wussten. Wo bleibt die Ehrlichkeit? Bezüglich der Auswirkungen denke ich auch, wenn der Treiber es geschickt anstellt, werden sich die Nachteile in Grenzen halten. Aber dass es Nachteile geben kann, ist kaum zu bestreiten. Derzeit wohl nicht so einfach zu finden, aber es gab auch schon Beispiele von Usern, die auf eine 980 gewechselt sind und Nachteile bemerkt haben.

BitJäger
2015-01-24, 19:00:01
The GeForce GTX 970 is equipped with 4GB of dedicated graphics memory. However the 970 has a different configuration of SMs than the 980, and fewer crossbar resources to the memory system. To optimally manage memory traffic in this configuration, we segment graphics memory into a 3.5GB section and a 0.5GB section. The GPU has higher priority access to the 3.5GB section. When a game needs less than 3.5GB of video memory per draw command then it will only access the first partition, and 3rd party applications that measure memory usage will report 3.5GB of memory in use on GTX 970, but may report more for GTX 980 if there is more memory used by other commands. When a game requires more than 3.5GB of memory then we use both segments.

It´s not a Bug, it´s a Feature :D

aths
2015-01-24, 19:09:31
Mit der 980 hab ich auch einen Einbruch ab 3,5 GB. Getestet mit Standard, und danach mit 64-MB-Chunks.

N0Thing
2015-01-24, 19:10:14
Ohne DWM?

aths
2015-01-24, 19:10:28
Eine technische Limitierung wie vermutet. Auch wie vermutet, versucht der Treiber so lange wie möglich auf 3.5GB zu begrenzen. Mich verärgert vor allem, wieso Nvidia den Unterschied nicht gleich offengelegt hat. Stattdessen wird 2 Wochen lang auf unwissend getan, obwohl sie natürlich von Anfang an davon wussten. Wo bleibt die Ehrlichkeit? Bezüglich der Auswirkungen denke ich auch, wenn der Treiber es geschickt anstellt, werden sich die Nachteile in Grenzen halten. Aber dass es Nachteile geben kann, ist kaum zu bestreiten. Derzeit wohl nicht so einfach zu finden, aber es gab auch schon Beispiele von Usern, die auf eine 980 gewechselt sind und Nachteile bemerkt haben.
Wenn jemand aus der Treiber-Entwicklung davon weiß, heißt es nicht, dass der Customer-Support davon weiß.

aths
2015-01-24, 19:10:44
Ohne DWM?
Was ist DWM?

AnarchX
2015-01-24, 19:13:08
Was ist DWM?
DWM. (https://de.wikipedia.org/wiki/Desktop_Window_Manager) Sofern aktiv verbraucht diese auch VRAM und Nais Benchmark im Fenstermodus kann so natürlich nicht allen VRAM allokieren.
Aber am L2-Cache-Wert sieht man, dass bei dir alles in Ordnung ist.

N0Thing
2015-01-24, 19:13:21
Was ist DWM?

https://en.wikipedia.org/wiki/Desktop_Window_Manager

Maorga
2015-01-24, 19:14:10
Das du die Graka nicht zur Desktopansicht verwendest also am besten die iGPU für die Anzeige verwendest. Sonst genehmigt sich Windows eine bestimmte Menge an Speicher, welcher wiederum langsamer anspricht deswegen.

tdon
2015-01-24, 19:16:39
Wenn jemand aus der Treiber-Entwicklung davon weiß, heißt es nicht, dass der Customer-Support davon weiß.


Der Customer Support kann das sowieso nicht beantworten. Es gab schon vor 2 Wochen eine Anfrage an Nvidia direkt von PCGH. Meinst du nicht, die leiten das weiter? Und der Nvidia Foren Support wird auch nicht zum Customer Support gerannt sein. Für so etwas gibt es normalerweise whitepaper. Bei Nvidia muss man sowas leider als Marketinpaper bezeichnen.

aths
2015-01-24, 19:21:19
Okay ich habe DWM mal beendet. (net stop uxsms) Außerdem bin ich vom Zwei-Monitor-Betrieb auf 1-Monitor-Betrieb gewechselt.


Nai's Benchmark, edited by VultureX
Device: GeForce GTX 980 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 224.320000

Allocating Memory . . .
Chunk Size: 128 MiByte
Allocated 30 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):178.19 GByte/s
DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):178.27 GByte/s
DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):178.29 GByte/s
DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):178.31 GByte/s
DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):178.27 GByte/s
DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):178.30 GByte/s
DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):178.31 GByte/s
DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):178.24 GByte/s
DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):178.32 GByte/s
DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):178.24 GByte/s
DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):178.21 GByte/s
DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):178.33 GByte/s
DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):178.27 GByte/s
DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):178.24 GByte/s
DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte):178.29 GByte/s
DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte):178.22 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):479.59 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):479.60 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):479.85 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):479.78 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):479.65 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):479.75 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):479.59 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):479.66 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):479.51 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):479.66 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):479.80 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):479.78 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):479.56 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte):479.73 GByte/s
Press any key to continue . . .



Nai's Benchmark, edited by VultureX
Device: GeForce GTX 980 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 224.320000

Allocating Memory . . .
Chunk Size: 64 MiByte
Allocated 60 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):178.14 GByte/s
DRAM-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 2 (128 MiByte to 192 MiByte):178.15 GByte/s
DRAM-Bandwidth of Chunk no. 3 (192 MiByte to 256 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 4 (256 MiByte to 320 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 5 (320 MiByte to 384 MiByte):178.12 GByte/s
DRAM-Bandwidth of Chunk no. 6 (384 MiByte to 448 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 7 (448 MiByte to 512 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 8 (512 MiByte to 576 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 9 (576 MiByte to 640 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 10 (640 MiByte to 704 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 11 (704 MiByte to 768 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 12 (768 MiByte to 832 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 13 (832 MiByte to 896 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 14 (896 MiByte to 960 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 15 (960 MiByte to 1024 MiByte):178.09 GByte/s
DRAM-Bandwidth of Chunk no. 16 (1024 MiByte to 1088 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 17 (1088 MiByte to 1152 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 18 (1152 MiByte to 1216 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 19 (1216 MiByte to 1280 MiByte):178.17 GByte/s
DRAM-Bandwidth of Chunk no. 20 (1280 MiByte to 1344 MiByte):178.30 GByte/s
DRAM-Bandwidth of Chunk no. 21 (1344 MiByte to 1408 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 22 (1408 MiByte to 1472 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 23 (1472 MiByte to 1536 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 24 (1536 MiByte to 1600 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):178.15 GByte/s
DRAM-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 30 (1920 MiByte to 1984 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 31 (1984 MiByte to 2048 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 32 (2048 MiByte to 2112 MiByte):178.14 GByte/s
DRAM-Bandwidth of Chunk no. 33 (2112 MiByte to 2176 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 34 (2176 MiByte to 2240 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 35 (2240 MiByte to 2304 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 36 (2304 MiByte to 2368 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 37 (2368 MiByte to 2432 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 38 (2432 MiByte to 2496 MiByte):178.15 GByte/s
DRAM-Bandwidth of Chunk no. 39 (2496 MiByte to 2560 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 40 (2560 MiByte to 2624 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 41 (2624 MiByte to 2688 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 42 (2688 MiByte to 2752 MiByte):178.14 GByte/s
DRAM-Bandwidth of Chunk no. 43 (2752 MiByte to 2816 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 44 (2816 MiByte to 2880 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 45 (2880 MiByte to 2944 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 46 (2944 MiByte to 3008 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 47 (3008 MiByte to 3072 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 48 (3072 MiByte to 3136 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 49 (3136 MiByte to 3200 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 50 (3200 MiByte to 3264 MiByte):178.31 GByte/s
DRAM-Bandwidth of Chunk no. 51 (3264 MiByte to 3328 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 52 (3328 MiByte to 3392 MiByte):178.17 GByte/s
DRAM-Bandwidth of Chunk no. 53 (3392 MiByte to 3456 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 54 (3456 MiByte to 3520 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 55 (3520 MiByte to 3584 MiByte):178.17 GByte/s
DRAM-Bandwidth of Chunk no. 56 (3584 MiByte to 3648 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 57 (3648 MiByte to 3712 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 58 (3712 MiByte to 3776 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 59 (3776 MiByte to 3840 MiByte):178.22 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):480.05 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (128 MiByte to 192 MiByte):480.07 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (192 MiByte to 256 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (256 MiByte to 320 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (320 MiByte to 384 MiByte):479.65 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (384 MiByte to 448 MiByte):479.93 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (448 MiByte to 512 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (512 MiByte to 576 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (576 MiByte to 640 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (640 MiByte to 704 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (704 MiByte to 768 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (768 MiByte to 832 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (832 MiByte to 896 MiByte):480.16 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (896 MiByte to 960 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (960 MiByte to 1024 MiByte):480.00 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (1024 MiByte to 1088 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (1088 MiByte to 1152 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (1152 MiByte to 1216 MiByte):480.02 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (1216 MiByte to 1280 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (1280 MiByte to 1344 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (1344 MiByte to 1408 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (1408 MiByte to 1472 MiByte):479.58 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (1472 MiByte to 1536 MiByte):479.88 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (1536 MiByte to 1600 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):480.02 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):479.93 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 30 (1920 MiByte to 1984 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 31 (1984 MiByte to 2048 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 32 (2048 MiByte to 2112 MiByte):479.60 GByte/s
L2-Cache-Bandwidth of Chunk no. 33 (2112 MiByte to 2176 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 34 (2176 MiByte to 2240 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 35 (2240 MiByte to 2304 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 36 (2304 MiByte to 2368 MiByte):479.98 GByte/s
L2-Cache-Bandwidth of Chunk no. 37 (2368 MiByte to 2432 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 38 (2432 MiByte to 2496 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 39 (2496 MiByte to 2560 MiByte):479.34 GByte/s
L2-Cache-Bandwidth of Chunk no. 40 (2560 MiByte to 2624 MiByte):479.60 GByte/s
L2-Cache-Bandwidth of Chunk no. 41 (2624 MiByte to 2688 MiByte):480.16 GByte/s
L2-Cache-Bandwidth of Chunk no. 42 (2688 MiByte to 2752 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 43 (2752 MiByte to 2816 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 44 (2816 MiByte to 2880 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 45 (2880 MiByte to 2944 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 46 (2944 MiByte to 3008 MiByte):479.91 GByte/s
L2-Cache-Bandwidth of Chunk no. 47 (3008 MiByte to 3072 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 48 (3072 MiByte to 3136 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 49 (3136 MiByte to 3200 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 50 (3200 MiByte to 3264 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 51 (3264 MiByte to 3328 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 52 (3328 MiByte to 3392 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 53 (3392 MiByte to 3456 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 54 (3456 MiByte to 3520 MiByte):479.58 GByte/s
L2-Cache-Bandwidth of Chunk no. 55 (3520 MiByte to 3584 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 56 (3584 MiByte to 3648 MiByte):479.98 GByte/s
L2-Cache-Bandwidth of Chunk no. 57 (3648 MiByte to 3712 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 58 (3712 MiByte to 3776 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 59 (3776 MiByte to 3840 MiByte):479.93 GByte/s
Press any key to continue . . .

aths
2015-01-24, 19:25:49
Die Bandbreite wird auf der Nvidia Homepage für die 970 und 980 gleich beziffert, dann darf man auch erwarten, das der VRAM voll und mit gesamter Leistung angesprochen wird.
Das war zum Beispiel bei der GTX 660 Ti auch nicht der Fall. Nvidia gibt einen Ausbau von 2048 MB und eine Bandbreite 144.2 GB/sec an, obwohl nur 1.5 GB damit angesprochen werden und der Rest sich mit 48 GB/s zufriedengeben muss.

Black-Scorpion
2015-01-24, 19:31:13
Für eine US Firma schon sehr blöd. Damit begibt man sich aufs Glatteis. Man verspricht etwas was man nicht halten kann.

aths
2015-01-24, 19:33:53
Für eine US Firma schon sehr blöd. Damit begibt man sich aufs Glatteis. Man verspricht etwas was man nicht halten kann.
Bei der 660 Ti ist immerhin 1/4 des Speichers betroffen. Bei der 970 nur 1/8.

InsaneDruid
2015-01-24, 19:34:20
Okay ich habe DWM mal beendet. (net stop uxsms) Außerdem bin ich vom Zwei-Monitor-Betrieb auf 1-Monitor-Betrieb gewechselt.


Nai's Benchmark, edited by VultureX
Device: GeForce GTX 980 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 224.320000

Allocating Memory . . .
Chunk Size: 128 MiByte
Allocated 30 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):178.19 GByte/s
DRAM-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):178.27 GByte/s
DRAM-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):178.29 GByte/s
DRAM-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):178.31 GByte/s
DRAM-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):178.27 GByte/s
DRAM-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):178.30 GByte/s
DRAM-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):178.31 GByte/s
DRAM-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):178.24 GByte/s
DRAM-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):178.32 GByte/s
DRAM-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):178.24 GByte/s
DRAM-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):178.21 GByte/s
DRAM-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):178.33 GByte/s
DRAM-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):178.27 GByte/s
DRAM-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):178.24 GByte/s
DRAM-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte):178.29 GByte/s
DRAM-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte):178.22 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 128 MiByte):479.59 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (128 MiByte to 256 MiByte):479.60 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (256 MiByte to 384 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (384 MiByte to 512 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (512 MiByte to 640 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (640 MiByte to 768 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (768 MiByte to 896 MiByte):479.85 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (896 MiByte to 1024 MiByte):479.78 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (1024 MiByte to 1152 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (1152 MiByte to 1280 MiByte):479.65 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (1280 MiByte to 1408 MiByte):479.75 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (1408 MiByte to 1536 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (1536 MiByte to 1664 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (1664 MiByte to 1792 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (1792 MiByte to 1920 MiByte):479.59 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (1920 MiByte to 2048 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (2048 MiByte to 2176 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (2176 MiByte to 2304 MiByte):479.66 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (2304 MiByte to 2432 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (2432 MiByte to 2560 MiByte):479.51 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (2560 MiByte to 2688 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (2688 MiByte to 2816 MiByte):479.66 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (2816 MiByte to 2944 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (2944 MiByte to 3072 MiByte):479.80 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (3072 MiByte to 3200 MiByte):479.78 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (3200 MiByte to 3328 MiByte):479.56 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (3328 MiByte to 3456 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (3456 MiByte to 3584 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (3584 MiByte to 3712 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (3712 MiByte to 3840 MiByte):479.73 GByte/s
Press any key to continue . . .



Nai's Benchmark, edited by VultureX
Device: GeForce GTX 980 (4.00 GB)
Memory Bus Width (bits): 256
Peak Theoretical DRAM Bandwidth (GB/s): 224.320000

Allocating Memory . . .
Chunk Size: 64 MiByte
Allocated 60 Chunks
Allocated 3840 MiByte
Benchmarking DRAM
DRAM-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):178.14 GByte/s
DRAM-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 2 (128 MiByte to 192 MiByte):178.15 GByte/s
DRAM-Bandwidth of Chunk no. 3 (192 MiByte to 256 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 4 (256 MiByte to 320 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 5 (320 MiByte to 384 MiByte):178.12 GByte/s
DRAM-Bandwidth of Chunk no. 6 (384 MiByte to 448 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 7 (448 MiByte to 512 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 8 (512 MiByte to 576 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 9 (576 MiByte to 640 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 10 (640 MiByte to 704 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 11 (704 MiByte to 768 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 12 (768 MiByte to 832 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 13 (832 MiByte to 896 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 14 (896 MiByte to 960 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 15 (960 MiByte to 1024 MiByte):178.09 GByte/s
DRAM-Bandwidth of Chunk no. 16 (1024 MiByte to 1088 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 17 (1088 MiByte to 1152 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 18 (1152 MiByte to 1216 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 19 (1216 MiByte to 1280 MiByte):178.17 GByte/s
DRAM-Bandwidth of Chunk no. 20 (1280 MiByte to 1344 MiByte):178.30 GByte/s
DRAM-Bandwidth of Chunk no. 21 (1344 MiByte to 1408 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 22 (1408 MiByte to 1472 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 23 (1472 MiByte to 1536 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 24 (1536 MiByte to 1600 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):178.15 GByte/s
DRAM-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 30 (1920 MiByte to 1984 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 31 (1984 MiByte to 2048 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 32 (2048 MiByte to 2112 MiByte):178.14 GByte/s
DRAM-Bandwidth of Chunk no. 33 (2112 MiByte to 2176 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 34 (2176 MiByte to 2240 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 35 (2240 MiByte to 2304 MiByte):178.20 GByte/s
DRAM-Bandwidth of Chunk no. 36 (2304 MiByte to 2368 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 37 (2368 MiByte to 2432 MiByte):178.26 GByte/s
DRAM-Bandwidth of Chunk no. 38 (2432 MiByte to 2496 MiByte):178.15 GByte/s
DRAM-Bandwidth of Chunk no. 39 (2496 MiByte to 2560 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 40 (2560 MiByte to 2624 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 41 (2624 MiByte to 2688 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 42 (2688 MiByte to 2752 MiByte):178.14 GByte/s
DRAM-Bandwidth of Chunk no. 43 (2752 MiByte to 2816 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 44 (2816 MiByte to 2880 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 45 (2880 MiByte to 2944 MiByte):178.18 GByte/s
DRAM-Bandwidth of Chunk no. 46 (2944 MiByte to 3008 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 47 (3008 MiByte to 3072 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 48 (3072 MiByte to 3136 MiByte):178.22 GByte/s
DRAM-Bandwidth of Chunk no. 49 (3136 MiByte to 3200 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 50 (3200 MiByte to 3264 MiByte):178.31 GByte/s
DRAM-Bandwidth of Chunk no. 51 (3264 MiByte to 3328 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 52 (3328 MiByte to 3392 MiByte):178.17 GByte/s
DRAM-Bandwidth of Chunk no. 53 (3392 MiByte to 3456 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 54 (3456 MiByte to 3520 MiByte):178.23 GByte/s
DRAM-Bandwidth of Chunk no. 55 (3520 MiByte to 3584 MiByte):178.17 GByte/s
DRAM-Bandwidth of Chunk no. 56 (3584 MiByte to 3648 MiByte):178.28 GByte/s
DRAM-Bandwidth of Chunk no. 57 (3648 MiByte to 3712 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 58 (3712 MiByte to 3776 MiByte):178.25 GByte/s
DRAM-Bandwidth of Chunk no. 59 (3776 MiByte to 3840 MiByte):178.22 GByte/s
Benchmarking L2-Cache
L2-Cache-Bandwidth of Chunk no. 0 (0 MiByte to 64 MiByte):480.05 GByte/s
L2-Cache-Bandwidth of Chunk no. 1 (64 MiByte to 128 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 2 (128 MiByte to 192 MiByte):480.07 GByte/s
L2-Cache-Bandwidth of Chunk no. 3 (192 MiByte to 256 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 4 (256 MiByte to 320 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 5 (320 MiByte to 384 MiByte):479.65 GByte/s
L2-Cache-Bandwidth of Chunk no. 6 (384 MiByte to 448 MiByte):479.93 GByte/s
L2-Cache-Bandwidth of Chunk no. 7 (448 MiByte to 512 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 8 (512 MiByte to 576 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 9 (576 MiByte to 640 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 10 (640 MiByte to 704 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 11 (704 MiByte to 768 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 12 (768 MiByte to 832 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 13 (832 MiByte to 896 MiByte):480.16 GByte/s
L2-Cache-Bandwidth of Chunk no. 14 (896 MiByte to 960 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 15 (960 MiByte to 1024 MiByte):480.00 GByte/s
L2-Cache-Bandwidth of Chunk no. 16 (1024 MiByte to 1088 MiByte):479.72 GByte/s
L2-Cache-Bandwidth of Chunk no. 17 (1088 MiByte to 1152 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 18 (1152 MiByte to 1216 MiByte):480.02 GByte/s
L2-Cache-Bandwidth of Chunk no. 19 (1216 MiByte to 1280 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 20 (1280 MiByte to 1344 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 21 (1344 MiByte to 1408 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 22 (1408 MiByte to 1472 MiByte):479.58 GByte/s
L2-Cache-Bandwidth of Chunk no. 23 (1472 MiByte to 1536 MiByte):479.88 GByte/s
L2-Cache-Bandwidth of Chunk no. 24 (1536 MiByte to 1600 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 25 (1600 MiByte to 1664 MiByte):480.02 GByte/s
L2-Cache-Bandwidth of Chunk no. 26 (1664 MiByte to 1728 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 27 (1728 MiByte to 1792 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 28 (1792 MiByte to 1856 MiByte):479.93 GByte/s
L2-Cache-Bandwidth of Chunk no. 29 (1856 MiByte to 1920 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 30 (1920 MiByte to 1984 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 31 (1984 MiByte to 2048 MiByte):479.70 GByte/s
L2-Cache-Bandwidth of Chunk no. 32 (2048 MiByte to 2112 MiByte):479.60 GByte/s
L2-Cache-Bandwidth of Chunk no. 33 (2112 MiByte to 2176 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 34 (2176 MiByte to 2240 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 35 (2240 MiByte to 2304 MiByte):479.67 GByte/s
L2-Cache-Bandwidth of Chunk no. 36 (2304 MiByte to 2368 MiByte):479.98 GByte/s
L2-Cache-Bandwidth of Chunk no. 37 (2368 MiByte to 2432 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 38 (2432 MiByte to 2496 MiByte):479.74 GByte/s
L2-Cache-Bandwidth of Chunk no. 39 (2496 MiByte to 2560 MiByte):479.34 GByte/s
L2-Cache-Bandwidth of Chunk no. 40 (2560 MiByte to 2624 MiByte):479.60 GByte/s
L2-Cache-Bandwidth of Chunk no. 41 (2624 MiByte to 2688 MiByte):480.16 GByte/s
L2-Cache-Bandwidth of Chunk no. 42 (2688 MiByte to 2752 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 43 (2752 MiByte to 2816 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 44 (2816 MiByte to 2880 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 45 (2880 MiByte to 2944 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 46 (2944 MiByte to 3008 MiByte):479.91 GByte/s
L2-Cache-Bandwidth of Chunk no. 47 (3008 MiByte to 3072 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 48 (3072 MiByte to 3136 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 49 (3136 MiByte to 3200 MiByte):479.79 GByte/s
L2-Cache-Bandwidth of Chunk no. 50 (3200 MiByte to 3264 MiByte):479.84 GByte/s
L2-Cache-Bandwidth of Chunk no. 51 (3264 MiByte to 3328 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 52 (3328 MiByte to 3392 MiByte):479.95 GByte/s
L2-Cache-Bandwidth of Chunk no. 53 (3392 MiByte to 3456 MiByte):479.77 GByte/s
L2-Cache-Bandwidth of Chunk no. 54 (3456 MiByte to 3520 MiByte):479.58 GByte/s
L2-Cache-Bandwidth of Chunk no. 55 (3520 MiByte to 3584 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 56 (3584 MiByte to 3648 MiByte):479.98 GByte/s
L2-Cache-Bandwidth of Chunk no. 57 (3648 MiByte to 3712 MiByte):479.81 GByte/s
L2-Cache-Bandwidth of Chunk no. 58 (3712 MiByte to 3776 MiByte):479.86 GByte/s
L2-Cache-Bandwidth of Chunk no. 59 (3776 MiByte to 3840 MiByte):479.93 GByte/s
Press any key to continue . . .


Ein Schelm könnte also sagen: wenn man wie bisher eh oft im Borderless Fullscreen im Dual Screen Modus fährt ändert sich herzlich wenig, da der Treiber die performanten 3,5GB fürs Gamen nutzt, und den Rest für solche Späße^^

Matrix316
2015-01-24, 19:39:34
Quark³.

Die 970 ist prädestiniert für 4K, Leistung und RAM ist ausreichend. Preislich ist das auch keine Frage, billig ist sie nicht.[...]
Moment Moment, die Benchmarks haben von Anfang an gezeigt, dass 4K selbst für eine GTX980 nicht unbedingt super toll ist. http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/8/#diagramm-watch-dogs-3840-2160

dargo
2015-01-24, 19:44:18
@-/\-CruNcher-/\-:
Eine entsprechende AMD-Karte verbrät die doppelte Leistung.
Von euch muss wohl keiner seinen Strom selbst zahlen...
:facepalm:

Ich kann diesen Blödsinn @Stromverbauch echt nicht mehr sehen. Ich hatte letztes Jahr 1260 KWh verbraucht. Und oh Wunder... da war noch Tahiti XT im Rechner. Wahnsinn, wieviel Strom die AMD-Karte zieht. :eek: :ucrazy:

dildo4u
2015-01-24, 19:45:12
4k mit einer 970/980 kannste natürlich knicken so bald die Cross-Gen Games vorbei sind werden wir GPU Anforderungen im Bereich von AC Unity sehen.Die meisten Games werden sich eh nicht die Mühe machen für PC besser Texturen anzubieten,(wie z.b Mordor)daher wird sich das alles im Bereich um 3GB bewegen.

aufkrawall
2015-01-24, 19:47:35
So ziemlich jedes Spiel hatte auf dem PC bisher bessere Texturen.

Nakai
2015-01-24, 19:52:33
Also reinher von der Diskussionskulturen in den korrespondierenden Threads und der angepissten User(und weil es schon woanders angemerkt wird), scheint langsam ein richtiger Shitstorm loszugehen.;D

Warten wir mal ab, wenn es auf den größeren Hardwareseiten publiziert wird.

Matrix316
2015-01-24, 19:54:24
So, da wir jetzt wissen, dass es kein "Bug" ist, behalten die 970 Besitzer ihre Karte? Wechseln sie zu AMD? Oder gleich zu einer GTX980?

So eine 290X mit 8 GB würde ja schon ziemlich reizvoll sein, aber es gibt halt auch viele Benchmarks wo die GTX970 schneller ist. Außerdem weiß man nicht genau wie die Lautstärke ist, denn die AMDs sind schon Radaubrüder. Der Stromverbrauch sehe ich da jetzt nicht sooo kritisch.

GTX980 wäre klar schneller, aber auch eigentlich viel zu teuer in der Relation.

Oder einfach eine zweite 970, damit man die Performance aufwertet, wenn die 3,5 GB überschritten werden? ;)

BitJäger
2015-01-24, 19:54:33
4k mit einer 970/980 kannste natürlich knicken so bald die Cross-Gen Games vorbei sind werden wir GPU Anforderungen im Bereich von AC Unity sehen.Die meisten Games werden sich eh nicht die Mühe machen für PC besser Texturen anzubieten,(wie z.b Mordor)daher wird sich das alles im Bereich um 3GB bewegen.

GTA V wird das nächste Game mit besseren Texturen sein und ob da 3GB reichen wage ich zu bezweifeln.

dargo
2015-01-24, 19:56:33
4k mit einer 970/980 kannste natürlich knicken so bald die Cross-Gen Games vorbei sind werden wir GPU Anforderungen im Bereich von AC Unity sehen.
Was ist mit SLI? Kein Thema mehr?