PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia räumt das "3,5-GB-Problem" der GeForce GTX 970 ein


Leonidas
2015-01-27, 16:54:49
Link zum Artikel:
http://www.3dcenter.org/artikel/nvidia-raeumt-das-35-gb-problem-der-geforce-gtx-970-ein


Eigentlicher Diskussionsthread zum Thema (inkl. Umfrage) ist natürlich hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=560256

Freed
2015-01-27, 18:00:33
Ich stell hier meine Frage nochmal, im "offiziellen" Thread geht's grad drunter und drüber und die Frage unter:

Ist nach dem Diagramm nicht anzunehmen, dass bei voller Belegung von 4 GB Speicher nicht nur die letzten 0,5 GB langsam sind, sondern die vorletzten auch? Zumindest deswegen, weil die gleiche Menge L2 Cache, die vorher für 0,5 GB zur Verfügung stand, nun von 1 GB geteilt genutzt wird? Denn einen andren Weg zur Memory Crossbar haben die letzten 0,5 GB ja nicht, wenn ich die Grafik richtig verstehe.
So dass wir nicht 3,5 schnelle GB + 0,5 ganz langsame GB haben sonder nur 3,5 schnelle GB, denn ab werden aus den 3,5 schnellen dann 3 schnelle + 1 verlangsamte.


So ist der Gedanke vielleicht mal auf SLI aufzurüsten, wenn mehr Power benötigt wird, bei mir schon begraben, und die nächste Karte wird wohl wieder AMD :-(

Spasstiger
2015-01-27, 18:17:41
Die Nvidia-Angabe der max. Speicherbandbreie von 224 GB/s für die GTX 970 und die GTX 980 gleichermaßen ist auch falsch, denn die Beschneidung lässt der GTX 970 keine höhere Maximalbandbreite als 196 GB/s.
An dem Thema sollte das 3DC dranbleiben und bei weiteren beschnittenen Maxwell-2.0-Varianten, die folgen werden, ganz genau hinschauen. NV ist imo den GTX-970-Käufern wenigstens ein Trostpflaster in Form von Spielegutscheinen oder einer Cashback-Aktion schuldig.

Mark3Dfx
2015-01-27, 18:25:44
Kommentar: Nvidias schmutzige Kartentricks
http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html

derF
2015-01-27, 18:34:57
Ist nach dem Diagramm nicht anzunehmen, dass bei voller Belegung von 4 GB Speicher nicht nur die letzten 0,5 GB langsam sind, sondern die vorletzten auch? Zumindest deswegen, weil die gleiche Menge L2 Cache, die vorher für 0,5 GB zur Verfügung stand, nun von 1 GB geteilt genutzt wird? Denn einen andren Weg zur Memory Crossbar haben die letzten 0,5 GB ja nicht, wenn ich die Grafik richtig verstehe.
So dass wir nicht 3,5 schnelle GB + 0,5 ganz langsame GB haben sonder nur 3,5 schnelle GB, denn ab werden aus den 3,5 schnellen dann 3 schnelle + 1 verlangsamte.
Das ist auch mein Gedanke bei dem Diagramm. Aber ob das die Realität abbildet weiß ich leider nicht.

seba86
2015-01-27, 18:57:12
An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch.
Hmmm... Freezes, Spiele die genau in dieser toten Zone nach Speicher gieren.. Ich weiß nicht so recht, ob man es so stehen lassen sollte.

BTW: Welche Speicherbandbreite hat den nun die letzten extrem langsamsten 512MB überhaupt?

Ansonsten wie immer: Toller Artikel, Leonidas :up

M4xw0lf
2015-01-27, 19:08:18
Kommentar: Nvidias schmutzige Kartentricks
http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html
Richtig so.

Wolfram
2015-01-27, 19:29:38
Was ich mich als Nicht-Techniker frage: Warum haben die die GTX 970 überhaupt so konstruiert? Gab es dafür einen technischen "Zwang"? Oder wäre der Abstand zur 980 sonst noch geringer ausgefallen und deren P/L-Verhältnis damit ebenso nochmal schlechter?

Gast
2015-01-27, 19:33:52
So einen großen Einfluss auf die reale nutzbare Speicherbandbreite wie hier dargestellt wird diese spezielle Konfiguration bei weitem nicht haben, insbesondere nicht in Spielen.

Die vollen 224GB/s sind durchaus erreichbar, da die ja zwischen GPU und VRAM möglich sind, erst wenn der Crossbar zwischen SMM und Speichercontroller ausgelastet ist limitiert dieser.
Die 224GB/s wird man zwar nie lesend bzw. schreibend auf den gesamten VRAM erreichen, mittels Interleaving kann man aber durchaus gleichzeitig lesend und schreibend auf den VRAM zugreifen und in Summe die 224GB/s erreichen.

Durch geschickte Verteilung der Speicherbereiche auf welche hauptsächlich lesend (z.B. Texturen) und schreibend (z.B Framebuffer) zugegriffen wird, dürfte man in der Spielepraxis in den meisten fällen die volle Bandbreite erreichen können.
Wobei fraglich ist ob das real überhaupt gebraucht wird, mit real nur ~80% der verfügbaren SMMs ist die 970GTX schon eher Bandbreitenlastig, verglichen mit der 980GTX, aber für übertaktete Karten ist es eventuell sinnvoll etwas mehr Reserve zu haben.

Was man dagegen real niemals erreichen wird ist die Pixelfüllrate mit den angegebenen 61,6 GPixel/s, wobei das nicht wirklich neu ist. Die ROPs könnten zwar 56 Pixel/Takt, verarbeiten, die 13SMMs aber nur 52 erzeugen.
Die daraus ergebende Pixelfüllrate ist also nur 54,6 GPixel/s (offizieller Base Takt) bzw. 61,26 GPixel/s (offizieller Turbo-Takt).

Wir halten es für sehr enttäuschend, was nVidia hier den Nutzern an Fehlinformationen über viele Monate vorgesetzt hat, obwohl es nVidia-intern sicherlich ziemlich schnell aufgefallen sein dürfte, daß die Spezifikationen nicht korrekt angegeben waren. Das Argument einer "fehlerhaften Kommunikation" mag für ein paar Tage gelten, aber nicht dauerhaft – und daß keiner der nVidia-Techniker irgendwann einmal die nVidia- oder Hersteller-Webseiten nachschlägt, darf nVidia dem Osterhasen erzählen.

Das ist ja gerade das Problem, weshalb man leider als Konsument gegen Nvidia kaum was machen kann. Auf offiziellen Produktwebseiten steht weder die Anzahl der ROPs, noch der L2 Cache. Damit kann man auch nicht auf irgendwelche versprochene Produktfeatures pochen, da Nvidia diese offiziell dem Kunden niemals mitgeteilt hat.

Gast
2015-01-27, 19:34:19
Dieser Artikel ist genauso wie verfasst wie die "legendäre" Umfrage -
Nur Positives über Nvidia

Das muss man sich vorstellen Firma N verkauft seine Grafikkarten unter völlig falschen Produktdaten. Und das beste daran: Die Fans und die Journalie
fressen diesen Betrug mühelos.

Seit der Geforce256 frisst die Journalie aber auch alles von der Firma, ohne kritische abwägung,

Selbst jetzt wo der schmuh auf dem Tisch liegt , wird wieder nur beschwichtigt.

Aber schon klar was kann man vom "3dcenter" - upps der Nvidia-Times schon anderes erwarten.

urbi
2015-01-27, 19:34:27
Der GTX 970 Chip ist ja quasi ein kaputter GTX 980-Chip bei dem man drei von 16 Einheiten deaktiviert hat. Das macht man um "kaputte" Chips verkaufen zu können. Und aus eben dieser Teildeaktivierung resultiert das Problem. Wenn man weniger deaktivieren würde hätte man ein Problem weil man dann weniger Chips nutzen könnte und natürlich der Abstand zur GTX 980 geringer werden würde. Eine GTX 970 mit 16 Einheiten wäre ja eine GTX 980.
Die Frage warum man diese merkwürdige 4GiB-Konstruktion gemacht und die Karte nicht als "ehrliche" 3,5GiB-Karte gebracht hat kann aber wohl nur mit: AMD! Beantwortet werden. Wenn man die Wahl hat ob man 3,5 oder zu einem ähnlichen Preis 4 bzw. 8 GiB Grafikspeicher nimmt wird man sich u.U. eher mal für 4 bzw. 8 entscheiden...

AnarchX
2015-01-27, 19:36:40
Der GTX 970 Chip ist ja quasi ein kaputter GTX 980-Chip bei dem man drei von 16 Einheiten deaktiviert hat. Das macht man um "kaputte" Chips verkaufen zu können. Und aus eben dieser Teildeaktivierung resultiert das Problem.
Nein, nach aktuellem Erkenntnisstand liegt es an einer weiteren Deaktivierung im Bereich des L2-Caches und der ROPs. Hätte man dies unterlassen, wäre es ein normale 256-Bit Karte mit 13 SMM. Die GTX 980M hat z.B. nur 12 SMMs aber ein vollwertiges 256-Bit Interface.

Was ich mich als Nicht-Techniker frage: Warum haben die die GTX 970 überhaupt so konstruiert? Gab es dafür einen technischen "Zwang"? Oder wäre der Abstand zur 980 sonst noch geringer ausgefallen und deren P/L-Verhältnis damit ebenso nochmal schlechter?
Der Chip ist 400mm² groß und 2MiB L2 sind ein wohl größerer Flächenanteil am Die, als noch bei GK104. Insofern hat man damit die Ausbeute wohl nochmal erhöht.
Insgesamt ist die Lösung auch relativ elegant im Vergleich zu früheren Möglichkeiten, wo man direkt auf 192-Bit beschneiden musste. Aber man hätte das ganze halt zum Launch der Fachpresse mitteilen müssen. Das der L2 beschnitten schien, war hier im Forum schon zum Launch aufgefallen.

Gast
2015-01-27, 19:37:06
Die Frage warum man diese merkwürdige 4GiB-Konstruktion gemacht und die Karte nicht als "ehrliche" 3,5GiB-Karte gebracht hat kann aber wohl nur mit: AMD!

ROFL - Jetzt ist also AMD schuld das Nvidia ABSICHTLICH die Kunden hintergeht?

Also das ist Kackdreist.

Gast
2015-01-27, 19:38:00
Was ich mich als Nicht-Techniker frage: Warum haben die die GTX 970 überhaupt so konstruiert?


Herstellungskosten.
Man kann nun auch GM204 DIEs verwenden die einen Fehler in einer ROP-Partition haben.

Nennenswerte Performanceunterschiede wird es kaum geben, schon die Karten der Vergangenheit mit "gerader" Speichermenge an "ungeraden" Interfaces haben gezeigt, dass eine derartige Konfiguration in Spielen kaum Performance kostet.

nagus
2015-01-27, 19:40:01
sind eigentlich alle deutschen "fachmedien" von nvidia gekauft? wenn ich solche sätze lese, kommts mir nämlich leider so vor, als ob 3dcenter dazu gehört:

"...An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch. Selbst der geringere performant nutzbare Speicher dürfte letztlich kaum jemals wirklich relevant werden:..."

im prinzip ist das schon richtig. es ändert sich nichts, weil die karte schon von anfang an so beschnitten war und weil dies vermutlich bei einem schnellen benchmark-durchlauf nicht auffält - im spielealltag offenbar schon!

MadManniMan
2015-01-27, 19:56:23
Was für mich dringend wird: Frametime-Untersuchungen. Vorher sollten wir keine Schlüsse ziehen, die darüber hinaus gehen - zurecht - das Marketing von nVidia künftig nur noch mit gaaaanz viel Salz zu konsumieren ...

Wolfram
2015-01-27, 20:19:05
Der Chip ist 400mm² groß und 2MiB L2 sind ein wohl größerer Flächenanteil am Die, als noch bei GK104. Insofern hat man damit die Ausbeute wohl nochmal erhöht.
Insgesamt ist die Lösung auch relativ elegant im Vergleich zu früheren Möglichkeiten, wo man direkt auf 192-Bit beschneiden musste. Aber man hätte das ganze halt zum Launch der Fachpresse mitteilen müssen. Das der L2 beschnitten schien, war hier im Forum schon zum Launch aufgefallen.
Herstellungskosten.
Man kann nun auch GM204 DIEs verwenden die einen Fehler in einer ROP-Partition haben.

Nennenswerte Performanceunterschiede wird es kaum geben, schon die Karten der Vergangenheit mit "gerader" Speichermenge an "ungeraden" Interfaces haben gezeigt, dass eine derartige Konfiguration in Spielen kaum Performance kostet.

Danke Euch, das kann auch ich nachvollziehen.

Rente
2015-01-27, 20:21:09
Was für mich dringend wird: Frametime-Untersuchungen. Vorher sollten wir keine Schlüsse ziehen, die darüber hinaus gehen - zurecht - das Marketing von nVidia künftig nur noch mit gaaaanz viel Salz zu konsumieren ...
Da sind die ersten: http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/
Wie man sieht werden zu mindestens bei Watch_Dogs die Befürchtungen bzgl. Mikroruckler und Nachladeruckler erfüllt.

Knuddelbearli
2015-01-27, 20:33:57
finde den Autovergleich unpassend.

Auch für Autos gibt es Tests, somit finde ich die falsche PS Angabe durchaus passend ( die letzten 50 PS aktivieren sich nur wenn der Mond am Himmel zu min 50% scheint und es dem hersteller gefällt )

Zum Glück kaufe ich trotz höheren Preisen immer bei Amazon ( auch um 3DC und HT4U abwechselnd was gutes zu tun ) dort wird eine Rückgabe sicher möglich sein. Für ein Sidegrad auf eine 290X tu ich mir den Stress aber nicht an und warte auf die 380X. Beweislastumkehr ist in dem Fall ja egal da NV die Beweise erbracht hat.

Den mich betrifft in Skyrim auch der Bug stark. Habe immer wieder kurze aber massive Framedropps wenn die 3,5 Grenze durchbrochen wird. Nach einigen Sekunden läuft es dann aber auch mit 3,7GB stabil scheint nur bei der erstmaligen befüllen zu Hängen. Was wohl dafür spricht das NV wohl für die Spiele einzeln "entbuggen" muss. Und Skyrim braucht normalerweise ja nicht soviel VRAM.

Wird aber wohl für sehr lange mein letztes NV Produkt gewesen sein. Da müsste die Leistung schon so wie Intel vs AMD auseinander klaffen. Eher noch weiter, den bei GPU kann man notfalls ja immer in die Breite gehen Leistung pro Kern kann man aber nicht ersetzen.

Und das NV Lügt ( keine Ruckler angeblich dadurch ) und sicher bewusst nur AVG FPS werte bringt ist nochmal ein starkes Stück ...
PCGH konnte ja port auch bereits das Gegenteil beweisen!


Bei mir war es damals eine ewig lange Entscheidung zwischen 970 und 290(X) da ich immer noch mit einer GTX 480 rumgurkte. Habe da ewig lange hin und her überlegt zusammen mit HT4U Peter eine pro und Contra liste erstellt ( der mich da immer wieder als NV Fanboy "beschimpfte" ^^ ) usw. und min 4GB Ram war da auf meiner Liste gleich nach Downsampling sehr weit vorne.

MadManniMan
2015-01-27, 20:34:43
Danke für den Link. Sieht mies aus. (mal die Radeon-Probleme ignorierend, aber von denen wusste man halt vorher schon)

MrSpadge
2015-01-27, 21:33:58
Ist nach dem Diagramm nicht anzunehmen, dass bei voller Belegung von 4 GB Speicher nicht nur die letzten 0,5 GB langsam sind, sondern die vorletzten auch? Zumindest deswegen, weil die gleiche Menge L2 Cache, die vorher für 0,5 GB zur Verfügung stand, nun von 1 GB geteilt genutzt wird? Denn einen andren Weg zur Memory Crossbar haben die letzten 0,5 GB ja nicht, wenn ich die Grafik richtig verstehe.
So dass wir nicht 3,5 schnelle GB + 0,5 ganz langsame GB haben sonder nur 3,5 schnelle GB, denn ab werden aus den 3,5 schnellen dann 3 schnelle + 1 verlangsamte.
Nein, das ist nicht so. Anandtech erklärt es ausführlicher: link (http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation)

Das Problem ist nicht direkt der fehlende L2 Cache, sondern der Bus vom Crossbar zum L2 zum Speichercontroller ist sinnvollerweise nur so breit, wie er normalerweise auch benötigt wird. D.h. hier passen pro Takt genau 32 Bit für einen Speichercontroller durch. Über diesen Bus können nicht 2 Speichercontroller zugleich mit Daten beliefert werden, auch wenn nach dem L2 genug Bandbreite für beide vorhanden wäre (über die Querverbindung zwischen den Speichercontrollern, die in nVidias Skizze nur in dem teil-deaktivierten Cluster aktiv ist).

D.h. wenn die ersten 3.5 GB voll sind, greift der Chip weiterhin entweder mit 224 Bit auf 3.5 GB zu oder mit 32 Bit auf 0.5 GB.

Interessanterweise ist der Bus zwischen Crossbar und L2 aber wohl bidirektional, d.h. der Chip könnte zugleich mit 224 Bit in den ersten 3.5 GB lesen und mit 32 Bit in den restlichen 0.5 GB schreiben. Dann würde er auch wieder die theoretische Maximalbandbreite erreichen können. Das gezielt in Anwendungen auszunutzen wird aber verdammt schwierig.. am ehesten könnte ich es mir vorstellen, wenn für GP-GPU die Ausgabedaten gesammelt werden sollen, bevor sie auf den PCIe geschickt werden.

MrS

gast
2015-01-27, 21:39:19
Hi Leonidas,

durch die Beschneidung der SMM kann die 970 nur 52 ROPs mit Pixeln versorgen (52 Pixel pro Takt) die restlichen 4 ROPs von 56 vorhandenen, könnten dann eher bei AA+Modi sinnvoll/hilfreich sein.

Habs nicht gelesen bzw. überlesen. Text ist ganz schön lang.;)

Gruß Mirko

Freed
2015-01-27, 22:48:37
Nein, das ist nicht so. Anandtech erklärt es ausführlicher: link (http://www.anandtech.com/show/8935/geforce-gtx-970-correcting-the-specs-exploring-memory-allocation)

Das Problem ist nicht direkt der fehlende L2 Cache, sondern der Bus vom Crossbar zum L2 zum Speichercontroller ist sinnvollerweise nur so breit, wie er normalerweise auch benötigt wird. D.h. hier passen pro Takt genau 32 Bit für einen Speichercontroller durch. Über diesen Bus können nicht 2 Speichercontroller zugleich mit Daten beliefert werden, auch wenn nach dem L2 genug Bandbreite für beide vorhanden wäre (über die Querverbindung zwischen den Speichercontrollern, die in nVidias Skizze nur in dem teil-deaktivierten Cluster aktiv ist).

D.h. wenn die ersten 3.5 GB voll sind, greift der Chip weiterhin entweder mit 224 Bit auf 3.5 GB zu oder mit 32 Bit auf 0.5 GB.

Interessanterweise ist der Bus zwischen Crossbar und L2 aber wohl bidirektional, d.h. der Chip könnte zugleich mit 224 Bit in den ersten 3.5 GB lesen und mit 32 Bit in den restlichen 0.5 GB schreiben. Dann würde er auch wieder die theoretische Maximalbandbreite erreichen können. Das gezielt in Anwendungen auszunutzen wird aber verdammt schwierig.. am ehesten könnte ich es mir vorstellen, wenn für GP-GPU die Ausgabedaten gesammelt werden sollen, bevor sie auf den PCIe geschickt werden.

MrS

Danke für den Link, hatte ich noch nicht gelesen.

Aber in Teilen trifft's dann doch eben zu, oder? Denn wenn die 0,5GB angesprochen werden, können die andren 3,5GB nicht angesprochen werden und die Gesamtleistung geht noch weiter runter ("Furthermore because the 512MB segment cannot be read at the same time as the 3.5GB segment, reading this segment blocks accessing the 3.5GB segment for that cycle, further reducing the effective memory bandwidth of the card"), also sind's entweder 3,5 schnelle und 0,5 ignoriert oder 4 GB werden angesprochen, aber dafür werden die 3,5 GB schlechter angesprochen; da wären die 3+1 ja fast schon fast besser!

Würde Mem-Overclock dann relativ mehr lohnen bei Vollauslatung? Oder verhaut das vermurkste Speichermanagment dann die Latenzen und den Framelags ist nicht beizukommen?

CD-LABS
2015-01-27, 23:27:21
sind eigentlich alle deutschen "fachmedien" von nvidia gekauft? wenn ich solche sätze lese, kommts mir nämlich leider so vor, als ob 3dcenter dazu gehört:

"...An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch. Selbst der geringere performant nutzbare Speicher dürfte letztlich kaum jemals wirklich relevant werden:..."

im prinzip ist das schon richtig. es ändert sich nichts, weil die karte schon von anfang an so beschnitten war und weil dies vermutlich bei einem schnellen benchmark-durchlauf nicht auffält - im spielealltag offenbar schon!
Genau! Alle bisherigen Benchmark-Aussagen bleiben 1:1 so stehen, die in jedem bisher getesten Szenario erzielten Ergebnisse haben nicht an Aussagekraft eingebüßt.
Nur gab es halt mittlerweile auch neue Ergebnisse (z.B. die aus WatchDogs), die zeigen, dass es tatsächlich auch Situationen gibt, in denen Unterschiede festzustellen sind!

Woher du allerdings auf die merkwürdige Idee kommst, dass 3DCenter von Nvidia gekauft worden wäre, musst du mir nochmal erklären. Im Endeffekt schreibt hier Leonidas ausgesprochen neutral, korrekt und einfach richtiges Zeugs! Die Relativierungen stimmen halt genauso wie die Verurteilungen!

Ich halte die gesamte Aktion von Nvidia einfach für äußerst dumm.
Hätte man die 970 mit 3,5 GiB auf den Markt geworfen, dann hätten wahrscheinlich sogar mehr User zur 980 gegriffen! So ist nichts weiter festzustellen als eines: Nvidia hat nicht an das eigene Produkt "im Rohzustand" geglaubt! Und das ist einfach nur erbärmlich!

Gast
2015-01-28, 00:03:26
Auch wenn's keiner lesen will, außerhalb von 3D-Center wird diese Website+Forum in anderen Foren zuweilen ziemlich Pro-Nvidia-lastig bezeichnet. Warum weiß ich nicht, ist aber so. Habe gerade heute mehrere Beiträge dazu auf @CB, PCGH und H-Luxx von Forenmitgliedern dort gelesen. Hoffe mal das sind nicht alles die Gleichen. Der Ruf scheint aber "ruiniert".

...Hoffe der zuständige Mod veröffentlicht meinen Beitrag trotzdem. Von mir stammt das persönlich nicht.

Insgesamt haben bis auf @heise alle deutschen Medien das Thema entsprechend versagt (ausser PCGH vielleicht die angefragt haben). Wie lange das gedauert bis dazu Kritik geäußert wird, peinlich und von Sachmangel ist nicht mehr die Rede. Alle kuschen vor den Grünen, die Armen, die...die ein Kommunikationsproblem haben (wer den Scheiß glaubt der hat sie nicht alle).

Hut ab vor dem @heise-Redakteur, der sich auch traut Nvidias Verhalten genauso anzuprangern wie sie es verdienen.

Als AMD das Filterproblem der HD 5-/ und 6-/ Serie in Hardware eingestehen musste haben sie den Laden fast auseinander genommen und nichts Gutes mehr daran gelassen. Würde behaupten AMD kämpft mit dem Imageschaden noch heute. Visuell festgestellt hat es in Wirklichkeit kaum jemand (ausser die Freaks und Gurus), ansonsten, der Großteil hat nur nachgeplappert was einige Wenige dazu veröffentlicht haben.

Nvidia soll mit solchen Machenschaften (ja als solches kann diese wirklich bezeichnen) so durchkommen, weil ja die vorgestellte (bereits getestete) Performance der 970 nicht leidet? (wer weiß schon was sie alles schon nachträglich optimiert haben)? Bei mir jedenfalls nicht. Die haben verschissen.

Das @Leonidas jetzt sehr lastig im Sinne von Nvidia schreibt ist mir aber auch nicht aufgefallen, Pro und Kontra gleichen sich eigentlich weitgehend aus. Ob er unparteiisch ist kann ich nicht sagen, kenne ihn ja nicht persönlich und was jemand schreibt ist wieder ein paaSchuher anderes

Hallo
2015-01-28, 00:57:11
Himmel ist das lame von NV. Hab mich schon richtig gefreut eine 970er zu kaufen. Aber so geht es nicht NV.

Kann mich noch erinnern wie Gainward das Timing des Rams der GF6800 Ultra zu scharf angesetzt hatte mit dem Ergebnis das sie sich ständig aufgehängt hat aber direkt von NV so "beschenkt" zu werden...?

Weiter so 3DC! Aufdecken und berichten:up:

Leonidas
2015-01-28, 05:59:48
Was ich mich als Nicht-Techniker frage: Warum haben die die GTX 970 überhaupt so konstruiert? Gab es dafür einen technischen "Zwang"? Oder wäre der Abstand zur 980 sonst noch geringer ausgefallen und deren P/L-Verhältnis damit ebenso nochmal schlechter?


Das ist ja der Gag: Im Normalfall wäre die 3,5-GB-Karte genauso schnell wie die 4-GB-Karte. Kein Performanceunterschied. Und sogar minimal günstiger in der Herstellung. Allein das Marketing wollte wohl die 4 GB haben.




"...An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch. Selbst der geringere performant nutzbare Speicher dürfte letztlich kaum jemals wirklich relevant werden:..."

im prinzip ist das schon richtig. es ändert sich nichts, weil die karte schon von anfang an so beschnitten war und weil dies vermutlich bei einem schnellen benchmark-durchlauf nicht auffält - im spielealltag offenbar schon!


Da hast Du etas mißverstanden. Die Karte wird durch die Entdeckung des Fehlers nicht langsamer - weil alle Benchmarks immer nur unter Existenz dieses Fehlers durchgeführt wurden. Was die GTX970 gestern konnte, kann sie heute auch noch.




durch die Beschneidung der SMM kann die 970 nur 52 ROPs mit Pixeln versorgen (52 Pixel pro Takt) die restlichen 4 ROPs von 56 vorhandenen, könnten dann eher bei AA+Modi sinnvoll/hilfreich sein.



Ist korrekt. Aber da man die 4 restlichen ROPs dann doch nutzen kann für MSAA etc., ist dies nicht so wirklich ein Problem. Ist ein internes Bottleneck, aber keine falsche Spezifikation.

Ätznatron
2015-01-28, 08:10:46
Lieber Leonidas,

wodurch ist die Täuschung eigentlich aufgeflogen?

Hier ist die Antwort:

An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch.

Oder möchtest du das nicht doch lieber dem Osterhasen erzählen?

Es ist megapeinlich, was du da zu Papier gebracht hast.

DinosaurusRex
2015-01-28, 10:39:24
Nvidia kann so gute Produkte machen, wie es möchte (und das tun sie ja offensichtlich nicht, siehe GTX 970 und GTX 960), aber kaufen werde ich von denen aus Prinzip nichts. Meine letzte Nvidia Grafikkarte war eine GeForce 7900 Schlagmichtot und die ist auch noch relativ früh defekt gegangen. Ich finde die Marketingstrategie von Nvidia einfach unerträglich, das sind alles Lügen und Halbwahrheiten, alleine wie kackendreist die Shadowplay vermarktet haben... Dazu diese ätzende TWIMTBP-Scheiße mit herstellerexklusiven Grafikoptionen (WTF???). Ich bin davon überzeugt, dass Nvidia mit seiner Aggressivität mehr Schaden anrichtet, als das sie der Branche nutzen.

Und dann ist hier natürlich noch das tolle Interview mit dem Nvidia CEO aus dem Jahr 2011. Auf die next-gen Konsolen (PS4,X1) angesprochen antwortete er:


Q: Do you think there will be another round of consoles coming?

A: Oh, no question about it.

Q: And can you predict when it will be in terms of how many years from now?

A: We will build one of them, right. And the reason for that is because the world doesn’t have enough engineering talent for anybody to build three of them at one time. It takes the entire livelihood of a computer graphics company to build one of them. And every single time they build one, my life is in danger. You build it once every five or seven years, but you have to build it all in a very short time. That’s because they wait and wait and then they say, ‘Can I have it next week?’

Quelle (http://venturebeat.com/2011/03/04/qa-nvidia-chief-explains-his-strategy-for-winning-in-mobile-computing/)

Wie das dann weiter ging, wissen wir ja: Nvidia hat den Zuschlag nicht bekommen und zwar für KEINE EINZIGE Konsole und wird vermutlich so schnell auch keine Konsolen-Chips mehr herstellen, denn die Ingenieure der Konsolenhersteller lassen sich offensichtlich nicht so leicht verarschen, wie der durschnittliche PC Gamer. Lächerlicherweise hat Nvidia in den Jahren danach ganz andere Töne anklingen lassen und in peinlichster Kleinkindmanier bei jeder Gelegenheit gegen diese Konsolen geschossen. Man erinnere sich nur mal an diesen Chart, der zeigen sollte, wie viel besser Nvidia Hardware gegenüber den Konsolen ist. Das dreisteste war dabei allerdings, dass sie als Vergleich eine 1000 Euro teure GeForce Titan hergenommen haben, die nicht nur die List Wars gegen Console Gaming gewinnen sollte, sondern obendrein auch noch eine drastische und dauerhafte Preiserhöhung für Grafikkarten mit sich brachte.

Was Nvidia macht, ist respektlos gegenüber der eigenen Kundschaft und gegenüber der Konkurrenz. Ich für meinen Teil meide diesen Konzern wie die Pest und der Launch der GTX 970 hat mich erneut in meiner Entscheidung bestätigt.

Es gibt im NeoGAF übrigens einige Videos, die zeigen, wie sich eine GTX 970 bei Vollauslastung des 4GB RAM Pools verhält und die heftigen Ruckler werden sogar in so einem YouTube-Video deutlich. In Spielen, die weniger als 3,5GB VRAM brauchen, ist und bleibt die Performance natürlich gut, aber 4GB bei so einem teuren high-end Produkt auf den Karton zu schreiben, ist dennoch ein dreister Täuschungsversuch. Das diese Lüge zum Zeitpunkt der Veröffentlichung von keinem Journalisten entlarvt werden konnte, lässt nicht nur an der Glaubwürdigkeit der Presse zweifeln (die doch sowieso nichts anderes ist als eine Zwischenzielgruppe für die PR-Abteilung der Konzerne), sondern vor allem auch an deren Kompetenz. Wieviel die Reviews dieser Seiten wert sind, weiß jetzt zum Glück jeder: Einen Scheißdreck.

Gast
2015-01-28, 11:11:32
Ich bin mit der Analyse im Artikel nicht ganz einverstanden:

Ich finde nicht, dass es sich rein um ein reines Marketingdebakel handelt. Wenn es so wäre würden sich nicht so viele Anwender über Performanceprobleme beschweren. Es ist also folglich in einigen Spielen nicht so, dass die Karte nicht schneller wäre wenn sie 4 GB (analog GTX980) mit voller Geschwindigkeit zur Verfügung hätte.

Daher sehe ich durchaus eine Minderung, der Käufer erhält faktisch eine 3,5 GB Karte mit 224Bit Interface , obwohl er für 4GB mit 256Bit bezahlt. Anhand der technisch clever von Nvidia gelösten Konstellation wird es rechtlich natürlich sehr schwer das eizufordern.

Trotzdem würde ich mir, sofern ich so eine Karte gekauft hätte, mir betrogen vorkommen. Auch wenn natürlich die guten Benchmarkwerte der Karte weiterhin Bestand haben, gibt es offensichtlich Spiele/Auflösungen in dem dieser Mangel zum tragen kommt.

Diese Sichtweise fehlt mir im Artikel. ;)

Gruß Tobi

MadManniMan
2015-01-28, 11:26:38
Es ist megapeinlich, was du da zu Papier gebracht hast.

Lies richtig: er schrieb, dass durch die Korrektur in der Kommunikation über die Specs keine andere Leistung in der Praxis entsteht.

derF
2015-01-28, 11:36:53
DinosaurusRex: Treffender Post. Ich hab mich ja auch zwischendurch wieder von nVidia fangen lassen, weil das zu meinem Grafikkartenkauf-Zeit- und Preispunkt damals sinnvoll erschien. Aber letztendlich arbeiten sie seit ich mich mit der Materie beschäftige (2000) gegen die Kundschaft und den Fortschritt. Damals 3dfx, die deutlich innovativer waren, dank besserem Marketing gefressen und dann die 3dfx-Technologie im Archiv verschwinden lassen. Gab ja keine Konkurrenz mehr, gegen die man das benötigt hätte.
Und jede nVidia-Innovation ist proprietär. Ich brauch nen speziellen Monitor, ne spezielle Brille und ne nVidia-Grafikkarte für 3D. An meinem TV, der Polarisations-3D kann, was mir mehr liegt als Flimmer-3D, muss ich 3rd-Party-Software benutzen, selbst wenn ich ne nV hab. PhysX wird künstlich auf einen CPU-Core begrenzt, damit es ohne nV nicht läuft. Mit GSync-Monitoren werden die Käufer direkt gebunden.
Und trotzdem haben sie immer den Großteil der öffentlichen Meinung hinter sich. Ist wie bei intel: als AMD die besseren CPUs hatte, wurden trotzdem mehr Intels verkauft. Der Presse und den Kunden ist es im Großen und Ganzen halt scheißegal, sie sehen nur den kurzfristigen Eigennutzen (manchmal übersehen sie ihn auch, nach dem Motto: "wir wählen schon immer CDU").

Dass sie damit der Entwicklung in den Bereichen Technologie, Kundenfreundlichkeit und Preisen schaden, wird ausgeblendet.

DinosaurusRex
2015-01-28, 12:51:59
http://i.imgur.com/Wcq4OBo.gif

---

Aber ich finde AMD sollte man in diesem Kontext auch mal kritisieren. Das was Nvidia zu viel macht, macht AMD nämlich zu wenig. AMD hat eine grauenvolle PR-Abteilung. Die sollte man alle mit 'nem kräftigen Arschtritt feuern. Das die semi-custom Sparte von AMD so gut läuft, ist ja wohl ein deutliches Zeichen dafür, dass AMD gute Hardware produziert. Aber um diese Hardware an den Verbraucher zu bringen, sind die offensichtlich viel zu blöde. Das war aber, wie bereits gesagt wurde, schon in den früher Nullerjahren beim Kampf gegen Intel so: AMD hatte die besseren Produkte im Portfolio aber dafür eine handzahme Marketingabteilung. Das Intel überall und jeden bestochen hat, damit die eigenen CPUs den Weg in die Rechner der Endkunden finden, ist ja mittlerweile allseits bekannt.

Gast
2015-01-28, 13:19:07
AMD hatte die besseren Produkte im Portfolio aber dafür eine handzahme Marketingabteilung. Das Intel überall und jeden bestochen hat, damit die eigenen CPUs den Weg in die Rechner der Endkunden finden, ist ja mittlerweile allseits bekannt.
Wenn Marketing irgendwann mehr kostet als das Produkt selbst ist auch keinem geholfen, frag mal Nvidia was die so verpulvern?

Leonidas
2015-01-28, 15:16:17
Lieber Leonidas,

wodurch ist die Täuschung eigentlich aufgeflogen?

Hier ist die Antwort:

An der Karten-Performance der GeForce GTX 970 ändert sich mit diesen Korrekturen natürlich überhaupt nichts, die Karte wird nicht schlechter, langsamer oder weniger nutzbar dadurch.

Oder möchtest du das nicht doch lieber dem Osterhasen erzählen?

Es ist megapeinlich, was du da zu Papier gebracht hast.



Ehrlicherweise verstehe ich das nicht, was Du sagen willst.

DinosaurusRex
2015-01-28, 15:27:17
Ich denke er will damit sagen, dass dieses Problem doch sicher deswegen überhaupt erst ans Tageslicht gelangen konnte, weil irgendein Besitzer der GTX 970 in bestimmten Szenarien Performance-Einbrüche beobachten konnte und der Sache dann auf den Grund gegangen ist.

Alleine die Tatsache, dass Nvidia ein Treiber-Update angekündigt hat, bestätigt diese Hypothese. Das ist nur logisch: Würde es derzeit nicht zu Performance-Problemen kommen, wäre ein Treiber-Update redundant.

Die von Ätznatron zitierte Passage ist dementsprechend schlicht falsch (und für meinen Geschmack auffällig irreführend formuliert) und seine Kritik absolut berechtigt.

Und darüber hinaus würde ich mir genau überlegen, ob man sich bei dieser Angelegenheit wirklich an die Seite von Nvidia stellen sollte, da mitterlweile sogar große Händler wie Amazon Rückerstattungen für GTX 970-Käufer anbieten. Was hier passiert ist, ist unsäglich und genauso unsäglich finde ich die fadenscheinigen Rechtfertigungsversuche, die man an einigen Stellen im Netz lesen kann.

MrSpadge
2015-01-28, 22:05:34
@Leo: Ätznatron hat dich wohl nicht verstanden. Dein Satz ist ganz klar richtig. Er will aber darauf hinaus, dass die Weste der GTX970 nicht mehr komplett weiß ist (in allen Punkten super), sondern man einen ekligen braunen Fleck darauf gefunden hat (Geschwindigkeit bei 3.5 - 4.0 GB VRAM Nutzung). Deshalb sei die GTX970 jetzt viel schlechter. Du sagst aber nur (richtigerweise), dass der Fleck vorher schon dagewesen ist - man wusste nur nicht, dass man dort mal hinschauen sollte.

@Freed: richtig, entweder die 3.5 GB werden mit normaler Geschwindigkeit angesprochen oder die 0.5 GB mit geringer Geschwindigkeit. Sollen alle 4 GB gemischt angesprochen werden, liegt die durchschnittliche Datenrate deutlich unter der normalen. Wurden die letzten 0.5 GB beschrieben, kann aber trotzdem mit voller Geschwindigkeit auf die ersten 3.5 GB zugegriffen werden - solange nicht "gleichzeitig" auf die letzten 0.5 GB im gleichen Modus (Lesen/Schreiben) zugegriffen werden.

MrS

Laz-Y
2015-01-28, 23:05:36
...
Da hast Du etas mißverstanden. Die Karte wird durch die Entdeckung des Fehlers nicht langsamer - weil alle Benchmarks immer nur unter Existenz dieses Fehlers durchgeführt wurden. Was die GTX970 gestern konnte, kann sie heute auch noch. ...

Natürlich wir die Karte dadurch langsamer. Nämlich weil man (zumindest ich, als ich auf der Suche nach einer Karte mit 4GB war) die Ergebnisse der Benchmarks der verschiedenen Karten direkt verglichen habe. Das ist aber falsch, da der Vergleich nur bis 3,5 GB stand hält. Ab 3,5 GB ist die Karte aber de fakto langsamer, was die Benchmarks aber nicht widerspiegelten.

Mein Anwendungsfall ist (unter anderem) Skyrim mit vielen Mods in hoher Auflösung - nämlich so viel Mods wie der Grafikspeicher her gibt. Bei der GTX970 weiß ich nun, dass die Karte bei den ketzten 500MB viel langsamer ist, als angenommen. Und in Zukunft wird das bei imemr mehr 'normalen' Spielen auch zutreffen.

Ich find die Aktion von nVidia eine riesen Sauerei. Und ich verstehe nicht, warum das von Dir so lappidar mit "Was die GTX970 gestern konnte, kann sie heute auch noch." abgetant wird.

Timbaloo
2015-01-28, 23:36:02
Natürlich wir die Karte dadurch langsamer.
Durch die Entdeckung des Betrugs wird die Karte langsamer? Krasse Typen die bei NV, bauen die erste Quantengrafikkarte und erzählen das niemandem.

PS: Ich schau mal was die Katze macht. Ist sie langsam oder schnell?

seba86
2015-01-28, 23:58:47
Bin Laz-Ys Meinung: In den heutigen Benchmark-Szenarien wird die Karte nicht langsamer, aber in den künftigen Titeln bzw. mit vielen Mods sehr wohl...

Bitte ein Calm Down! Sind nur Fachsimpeleien...

maximus_hertus
2015-01-29, 00:13:20
Aaaalso, ganz einfach:

Leo hat mit seiner Aussage recht, dass die Karte erstmal nicht langsamer wird. Der Speed bleibt wie er zum Launch getestet worden ist.

Aber quasi alle Reviews waren schlicht nicht auführlich genug und Ihre Empfehlungen teilweise fehlerhaft. Ergo wurden nicht genug / die falschen Benchmarks eingesetzt (bzw. Testmethoden) und aufgrund der nicht 100% genauen Ergebnisse "falsche" Aussagen getroffen.

Das heißt, dass die "perfekte" Empfehlung aus den Reviews nicht mehr gegeben ist und dadurch die Karte "langsamer" geworden ist. Es ist zudem nicht so unwahrscheinlich, dass der Speicher der GTX 970 das ein oder andere mal (öfter) zu fps-Problemen führen kann. Die Zukunftssicherheit (blödes Wort, speziell bei Grafikkarten) ist daher nur noch bedingt gegeben, schliesslich Mikroruckeln schon (teilweise) 2014er Games.

MrSpadge
2015-01-29, 00:17:07
In den heutigen Benchmark-Szenarien wird die Karte nicht langsamer, aber in den künftigen Titeln bzw. mit vielen Mods sehr wohl...
Wenn man das "wird" noch durch ein "ist" ersetzt stimmt's. Da ist natürlich was dran, und sicherlich der Grund für die ganze Aufregung: der zukünftige Wert der Karte ist jetzt geringer als vor der Aufdeckung des Problems.

Allerdings sollte man sich hier auch vor Augen halten: wie Leo schon gesagt hat.. wenn 3.5 GB nicht reichen, sind 4.0 GB auch kaum mehr. Das bisschen könnte man locker durch eine Qualitätseinstellung herausholen. Und nen wirklich spürbaren Unterschied wird's erst ab 6 oder 8 GB geben (wenn sie denn gebraucht werden, sonst natürlich nicht).

MrS

maximus_hertus
2015-01-29, 00:34:58
wenn 3.5 GB nicht reichen, sind 4.0 GB auch kaum mehr.

Da wäre ich vorsichtig. Die Radeon HD 5870 war lange Zeit eine sehr gute, ausgeglichene Karte. Aber in der "Moderne" wurden ihr die 1 GiB zum Verhängnis und die eigentlich schlechtere GTX 470 (1,25 GiB) konnte teilweise einen flüssigeren Spielablauf bewerkstelligen. Nicht aufgrund der GPU-Leistung, sondern weil der Radeon der Speicher ausging.

L.ED
2015-01-29, 10:20:37
Dieser Verhalt bei/in rund um diese Firma (Nvidia), war und ist mit einer der letztendlich besiegelnden Gründe warum seit langem eben jener den Rücken gekehrt. Quasi das sie sozusagen erst gar nicht in Frage mehr kommen wenn es um Rechnerprojekte geht. Egal ob Neuaufbau oder Umrüstungen (ab/auf), faktisch wie ein nicht Existent!

Dieses permanente mittels entweder wirklichen und direkt dann falschen Angaben oder alternativ bewusst so Suggestiv Formulierend das man selbst wenn man sich eigentlich als in der Materie drin betrachtet sieht, sie im ersten und auch zweiten Anlauf anders verstehen muss, setzte dem Praktisch die Krone auf! ( :motz: )
Abgesehen davon das auch AMD diesbezüglich so manch Leiche im Keller was die unmittelbare Kommunikation gegenüber Medien oder Enduser belangt (jüngeres Stichwort wären hier u.a. TDP Angaben vs. Realität im negativ sinne). Nur mit dem Unterschied das man es letztendlich dann doch immer noch zeitnahe bisher irgendwo genauer nachschlagen und oder aufgeführt bekommt (wenn man sich für Interessiert oder auch alternativ Wissen muss, w.z.b. OEMs). Und sollte hier nicht weiter Thema sein da nur der Vollständigkeit zu Sache wegen! ^^
System Harries sehen derlei ohnehin wohl tendenziell noch um einiges verschärfter, da es im Zweifel in Support super GAUs enden kann. Dabei ist inner Sachlich unwesentlich ob nur im Privaten oder in/für Firmen, kommt aufs gleiche raus! Fragen sich ausgesetzt zu sehen und ggf. mehr Arbeit, zuzüglich leidet vielleicht auch noch die Reputation (ganz gleich ob man dafür was konnte oder nicht), haften bleibt oft was. :|

PS:
Hoffe wirklich das AMD sich daran niemals weiterführend ein Beispiel nimmt, gleich wenn Zweifelsohne Nvidia sich damit auch im aktuellen Fall mehr Einnahmen generierte die anderenfalls bei AMD gelandet wären. Wieviel oder gewichtig lässt sich schwer abschätzen aber das es an dem ist, steht auch außer Frage. Und es ist um so bitterer das Firmen die solches tätigen damit auch permanent noch gut durch und raus kommen am Ende (mal sehen wie es diesmal und was haften bleibt?)!
Selbst als ultra- grüner oder neutraler würde ich nun eigentlich mindestens bei der nächsten Generation und Anschaffung einmal Nvidia aussetzen, ganz Egal wie gut das Ding oder was auch immer. Der Punkt ist, diese Firma braucht ein Denkzettel denn sie mal hört, so Art Monetärer Protest seitens der Enduser! Und sie verkraften das auch mal eine Runde deutlich weniger Einnahmen zu generieren, davon gehen die nicht unter keine Sorge. ^^ Aber ihr holt sie vielleicht wieder zurück auf den Boden und näher an den Endusern dran (Stichwort wäre auch die allgemeinen Produkt vs. Preisgestaltungen)!

²Thom
2015-01-29, 16:58:21
Das Nvidia nochmal diesen Fehler macht ist echt peinlich.

Es gab schon mal Karten mit "ungeradem Speicherinterface" und "gerader Speicherausstattung", die einen ähnlichen Fehler zeigten.

1024MB aufgeteilt in 768MB fullspeed und die restlichen 256MB waren nur mit 16 Bit angeschlossen. Genau gleicher Effekt.

seba86
2015-01-29, 17:12:21
Welche denn? Nicht etwa die 660?

²Thom
2015-01-29, 17:25:59
Welche denn? Nicht etwa die 660?

Könnte sein, ich glaub aber noch ein oder zwei Generationen vorher war das.
Es gab öfter mal Modelle, die 1 GB an 96 Bit hatten oder 2GB an 192 Bit hatten. Nur ist es nicht so aufgefallen, da der Normale Spieler damals mit 1280x1024 auf 17"-19" Röhre gespielt hat, da wurde nicht so viel Speicher gebraucht.

seba86
2015-01-29, 17:32:57
Man lernt nie aus... Danke!

AnarchX
2015-01-29, 18:52:38
Die GTX 550 Ti hat als erste eine unbalancierte Bestückung (1GiB@192-Bit -> effektiv 768MiB @ 192-Bit + 256MiB @ 64-Bit, wenn der Treiber gut verwaltet). Danach gab es noch ein paar andere Karten mit dieser Konfiguration: GTX 560 SE, GTX 660 Ti, GTX 660. Aber auf Röhren wird mit diesen Karten (2011+) die wenigsten gespielt haben. :D

seba86
2015-01-29, 18:57:21
An was ich mich entsinnen kann, sind die Turbo-Cache Karten der Geforce 6200 - Ära: Die Schwester meiner Ex hatte da eine 6200 mit einem 16bit-Speicherinterface; also noch weniger als eine Geforce2MX. Konnte aber Fifa '09 nach eigener Aussage flüssig zocken.

16bit Speicherbandbreite ist wirklich das absolute Minimum einer 3D-Karte oder gab es sogar weniger??

AnarchX
2015-01-29, 19:15:38
Die GeForce 6200 gab es AFAIR mit 32-Bit SI:
http://www.heise.de/newsticker/meldung/Nvidia-spart-Grafikspeicher-mit-Turbo-Cache-121928.html
... die 4GB/s über PCIe im Hauptspeicher waren hier damals fast so schnell, wie manches 64-Bit SI. Besonderheit war hier damals, dass nicht nur Textur/Geometrie-Daten ausgelagert werden konnten, sondern auch der Framebuffer.

seba86
2015-01-29, 19:17:44
Ja es gab mehrere Versionen, ich habe explizit eine der langsamsten genannt...

EDIT: Vielleicht waren es wirklich 32bit und die Erinnerung spielt mir einen Streich.. Ich denke ja, 32bit sinds gewesen xD

AnarchX
2015-01-29, 19:20:11
Eine 16-Bit Version wäre mir aber neue bei TPU ist diese auch nicht gelistet: http://www.techpowerup.com/gpudb/#Geforce%206200 Eventuell waren es die 16MiB?

seba86
2015-01-29, 19:24:23
Hast Recht. 16MB @32bit an einem C2D... Da hatte ich anno 2011 doof aus der Wäsche geschaut xD

Gast
2015-01-29, 20:41:08
Das ist ja der Gag: Im Normalfall wäre die 3,5-GB-Karte genauso schnell wie die 4-GB-Karte. Kein Performanceunterschied. Und sogar minimal günstiger in der Herstellung. Allein das Marketing wollte wohl die 4 GB haben.


Eben nicht, wie anandtech sehr schön zeigt, sind die vorhandenen 4GiB@256bit in jedem Fall besser als 3,5GiB auf 224bit.

Die volle Bandbreite auf 4GiB ist sehr wohl erreichbar, nur eben nicht in jeder Konstellation des Speicherzugriffs, wie es normalerweise der Fall ist.
Wenn man die Daten auf den Speicher vernünftig verteilt und beispielsweise Texturen, auf welche hauptsächlich lesend zugegriffen wird in den oberen Bereich speichert, und den Framebuffer, auf welchen hauptsächlich schreibend zugegriffen wird im unteren Bereich lässt, dürfte die volle Bandbreite wohl meistens real zur Verfügung stehen, lesend und schreibend kann nämlich durchaus auf beide Bereiche parallel zugegriffen werden, nur 2x lesend oder 2x schreibend geht nicht.

Problematisch dürfte es wohl werden, wenn ein Spiel im laufe der Zeit immer mehr Speicher benötigt. Da der Treiber offenbar zuerst nur die ersten 3,5GiB benutzt müsste er sobald mehr Speicher benötigt wird erstmal die vorhandenen Daten umschichten um diese ideal zwischen beiden Bereichen zu verteilen, was wohl zumindest für kurzfristige Performanceeinbrüche sorgen wird.

MrSpadge
2015-01-29, 22:14:36
@Gast: Leo meint damit eine theoretische 3.5 GB GTX970 mit 224 bit gegenüber der jetzigen 4 GB Version, nicht gegenüber vollwertigen mit 4 GB mit unbeschränkter Anbindung.

Dass man die Bandbreite der jetzigen GTX970 mit nem Mix aus Lese- und Schreibzugriffen trotzdem noch untzen könnte, hatte ich anfangs auch geschrieben. Allerdings wird das praktisch sehr schwer auszunutzen sein. Erstens weil beim Zocken überwiegend gelesen wird und zweitens, weil die Zuordnung der Daten zu den Speicherbereichen statisch ist - und Daten hin- und herkopieren / verschieben, z.B. weil man auf diese jetzt anders zugreifen möchte, kostet dann mehr Speicherzugriffe als normal nötig wären.

Am ehesten kann ich mir als sinnvolle Nutzung dieser 0.5 GB nen automatisch vom Treiber verwalteten Cache für selten gebrauchte Datenvorstellen. Schneller als über den PCIe bekommt man sie von dort immernoch, und man hat in Summe 0.5 GB mehr zur Verfügung. Vielleciht sollten Anwendungen diesen Speicherbereich besser gar nicht sehen, damit sie nicht in Versuchung kommen, ihn nutzen zu wollen..

MrS

Gast
2015-01-30, 12:54:09
@Gast: Leo meint damit eine theoretische 3.5 GB GTX970 mit 224 bit gegenüber der jetzigen 4 GB Version, nicht gegenüber vollwertigen mit 4 GB mit unbeschränkter Anbindung.

Meine ich ja auch.

Eine theoretische 3,5GB-Version (wobei die Frage wäre ob eine solche überhaupt umsetzbar wäre, weil die Speichercontroller sind ja jeweils 64bit breit, ich bin mir nicht sicher ob es da einfach möglich wäre 32bit von einem nicht zu belegen) ist schlechter als die vorhandene 4GB-Version, eine 4GB-Version mit vollen ROPs wäre natürlich noch besser.

Dass man die Bandbreite der jetzigen GTX970 mit nem Mix aus Lese- und Schreibzugriffen trotzdem noch untzen könnte, hatte ich anfangs auch geschrieben. Allerdings wird das praktisch sehr schwer auszunutzen sein. Erstens weil beim Zocken überwiegend gelesen wird und zweitens, weil die Zuordnung der Daten zu den Speicherbereichen statisch ist - und Daten hin- und herkopieren / verschieben, z.B. weil man auf diese jetzt anders zugreifen möchte, kostet dann mehr Speicherzugriffe als normal nötig wären.

Gerade bei Spielen hat man einen gut vorhersehbaren Mix aus Lese- und Schreibzugriffen.
Schwieriger wird es eher bei GPGPU-Anwendungen wenn diese entweder sehr Lese- oder Schreiblastig sind, und auch die Maxwellsche Speicherkompression sollte bei "zufälligen" Daten deutlich schlechter funktionieren als bei typischen Bildinformationen

Ich denke, dass man über den Treiber auch durchaus noch einiges optimieren kann, wie du schreibst ist es ja eher schlecht wenn man plötzlich auch die langsamen 0,5 GB braucht und erst dann beginnt die Daten optimal zu verteilen.

Ich denke Nvidia wird hier applikationsspezifische Profile verwenden, in welchen hinterlegt ist wie der Speicher am besten benutzt wird. Diese werden aber teilweise nicht optimal sein, wenn beispielsweise der Treiber davon ausgeht, dass die 3,5GB ausreichen, "exotische" Einstellungen aber zu deutlich höherem Speicherverbrauch führen.


Am ehesten kann ich mir als sinnvolle Nutzung dieser 0.5 GB nen automatisch vom Treiber verwalteten Cache für selten gebrauchte Datenvorstellen. Schneller als über den PCIe bekommt man sie von dort immernoch, und man hat in Summe 0.5 GB mehr zur Verfügung. Vielleciht sollten Anwendungen diesen Speicherbereich besser gar nicht sehen, damit sie nicht in Versuchung kommen, ihn nutzen zu wollen..

Im WDDM ist der Grafikspeicher eh schon komplett virtualisiert, die Anwendung sieht nicht wie viel VRAM real zur Verfügung steht, theoretisch könnte sogar der VRAM-Inhalt ins Pagefile ausgelagert werden.

Was man eventuell machen könnte, wäre die benötigten Daten vom DWM generell in den langsamen Bereich zu legen, dafür dürfte dieser auf jeden Fall schnell genug sein. Der DWM kann bei vielen offenen Fenstern auch schnell mal einige 100MB brauchen, und die schnellen 3,5GB bleiben frei für andere Dinge, welche die Bandbreite notwendiger brauchen.

seba86
2015-01-30, 15:40:28
Hier das lang erwartete Nvidia Statement (https://www.youtube.com/watch?x-yt-ts=1422579428&x-yt-cl=85114404&v=spZJrsssPA0)...

aths
2015-01-30, 21:59:24
Ich stell hier meine Frage nochmal, im "offiziellen" Thread geht's grad drunter und drüber und die Frage unter:

Ist nach dem Diagramm nicht anzunehmen, dass bei voller Belegung von 4 GB Speicher nicht nur die letzten 0,5 GB langsam sind, sondern die vorletzten auch? Zumindest deswegen, weil die gleiche Menge L2 Cache, die vorher für 0,5 GB zur Verfügung stand, nun von 1 GB geteilt genutzt wird? Denn einen andren Weg zur Memory Crossbar haben die letzten 0,5 GB ja nicht, wenn ich die Grafik richtig verstehe.
So dass wir nicht 3,5 schnelle GB + 0,5 ganz langsame GB haben sonder nur 3,5 schnelle GB, denn ab werden aus den 3,5 schnellen dann 3 schnelle + 1 verlangsamte. Die Daten im 3,5-GB-Block dürften interleaved über 7 Speicherchips verteilt werden. Wenn man dann auf das letzte halbe GB zugreifen will, könnte die Karte möglicherweise auf die unteren 3,0 GB zugreifen. Das bringt aber nichts wenn man alle sieben RAM-Chips braucht. Insofern vermute ich, dass zu einem Zeitpunkt entweder auf die 3,5, oder auf die 0,5 zugegriffen wird, aber nicht auf den ganzen Speicher insgesamt.

aths
2015-01-30, 22:00:30
Was ich mich als Nicht-Techniker frage: Warum haben die die GTX 970 überhaupt so konstruiert? Gab es dafür einen technischen "Zwang"? Oder wäre der Abstand zur 980 sonst noch geringer ausgefallen und deren P/L-Verhältnis damit ebenso nochmal schlechter?
Hier der wahrscheinliche Hintergrund: Um den hohen Preis der 980 zu halten, durfte ihr die 970 nicht zu gefährlich werden. Also musste neben Shader- und Texturleistung auch die Speicherbandbreite runter.

Der naheliegende Weg wäre, einfach 3000-MHz-RAM statt 3500-MHz-RAM zu verbauen. Allerdings hätte Nvidia die Boardpartner nicht wirklich davon abhalten können, einfach 3500-er RAM zu verbauen. Zusammen mit etwas GPU-Übertaktung wäre so eine Karte der 980 anbetrachts der Preisgestaltung unangenehm nahe gekommen.

Also ging man einen anderen Weg. Doch wenn man die Bandbreite via Speichercontroller senkt, hat das weitere Auswirkungen. Eine ehrliche 3,5-GB-Karte rauszubringen, würde wie Flickwerk erscheinen, vor allem wenn der Wettbewerb eine ordentliche 4-GB-Karte im Angebot hat.

Gast
2015-02-01, 00:13:17
Hier der wahrscheinliche Hintergrund: Um den hohen Preis der 980 zu halten, durfte ihr die 970 nicht zu gefährlich werden. Also musste neben Shader- und Texturleistung auch die Speicherbandbreite runter.



Sehr unwahrscheinlich.

Man hat für 13/16 der Textur/Rechenleistung immer noch 7/8 der Speicherbandbreite (nicht mitgerechnet eventuelle Taktunterschiede), die 970 hat also auch so einen Überschuss an Speicherbandbreite, verglichen mit der 980.

Es ist sehr unwahrscheinlich, dass die vorhandene 970er gegenüber einer hypothetischen 970er mit vollen ROPs und L2-Cache irgendeinen Nachteil hat, sofern die Speicherauslastung unter 3,5GiB liegt, was noch immer in >90% der Benchmarks der Fall ist.

Wenn man unbedingt einen größeren Unterschied zwischen den 2 Karten erreichen wollte, wäre es auch wichtig gewesen diesen von Anfang an zu Kommunizieren.

Da dies aber bis jetzt auch bei Nvidia niemandem aufgefallen ist (ich glaube jetzt einfach mal nvidias Ausführung, dass es eine fehlerhafte Kommunikation war, für so dämlich dass sie es absichtlich gemacht hätten halte ich sie jetzt nicht) gehe ich eher vom umgekehrten Fall aus.

Durch die vorhandene zusätzliche Entkopplung von ROPs und Speichercontroller war es eben jetzt möglich die ROPs zusätzlich zu deaktivieren, ohne das Speicherinterface zu beschneiden, und man hat das auch angewendet, da man damit die Ausbeute erhöhen kann, ohne die Performance großartig zu beeinflussen. Durch die deaktivierten SMMs bräuchte man für die volle Pixelfüllrate eh nur 52 ROPs.

AYAlf
2015-02-02, 14:55:46
Stimmt das so?
Damit sind 1,5 GB Speicher dieser Karte mit dem vollen 192 Bit DDR Speicherinterface ansprechbar

Gast
2015-02-02, 17:12:48
Stimmt das so?

Nein, da stimmt überhaupt nichts.

Die Karte hat 4 GiB an 4 64bit Speichercontrollern

Weder am Speichercontroller noch am Interface ist was beschnitten.

Was fehlt ist die Hälfte vom L2 Cache und 1 ROP-Paket im letzten Speichercontroller.

In weiterer Folge fehlt dann die Verbindung vom deaktivierten L2-Block in den eigentlichen Grafikkern, in welchem die GPCs sitzen. Und das ist dann auch das eigentliche Problem, was die 970 GTX so besonders macht. Die Bandbreite zwischen Crossbar und den Speichercontrollern ist um 1/8 geringer, als beim Vollausbau.

mekakic
2015-05-08, 16:07:47
Ich habe das Thema nicht ganz verfolgt, wie kann man denn jetzt mit dem Thema am besten umgehen? Kann oder wird von NVIDIA der Treiber so eingestellt werden nur 3.5GB zu nutzen? Oder hat jemand seine 970er mit diesem Mangel auch zurückgegeben?

Ich habe die 970 seit Oktober und seitdem auch nur fairerweise lediglich einmal ein Spiel gestartet, aber falls man da etwas ändern könnte, würde ich es tun.

Leonidas
2015-05-09, 02:28:31
Dieser Treiber wäre sinnvoll, aber weil es ein zu großer Gesichtsverlust für NV wäre, wird es den leider nicht geben.

Machen kannst Du gar nichts. Du kannst versuchen, die Karte jetzt noch zurückzugeben. Ich denke aber, daß Dir die jetzt keiner mehr abnimmt. Das ging nur im Februar/März.

aths
2015-05-09, 11:35:36
Nein, da stimmt überhaupt nichts.

Die Karte hat 4 GiB an 4 64bit Speichercontrollern

Weder am Speichercontroller noch am Interface ist was beschnitten.

Was fehlt ist die Hälfte vom L2 Cache und 1 ROP-Paket im letzten Speichercontroller.

In weiterer Folge fehlt dann die Verbindung vom deaktivierten L2-Block in den eigentlichen Grafikkern, in welchem die GPCs sitzen. Und das ist dann auch das eigentliche Problem, was die 970 GTX so besonders macht. Die Bandbreite zwischen Crossbar und den Speichercontrollern ist um 1/8 geringer, als beim Vollausbau.
Die 970 hat aber keine 4 GB an 4 64-Bit-Controllern. Sie hat 3,5 GB and 7 32-Bit-Controllern und kann entweder darauf zugreifen, oder über einen 32-Bit-Controller noch mal 0,5 GB ansprechen.

MrSpadge
2015-05-09, 23:45:04
@mekakic: lehn dich zurück und erfreu dich an der Leistung der Karte, wenn du irgendwann mal wieder ein Spiel wagst. Sollte der RAM dann echt mal limitieren, schalte Auflösung oder Details einfach eine Stufe zurück und gut ist's. Müsstest du bei ner GTX980 auch machen, nur eben bei einer Detailstufe drüber. Und bei allen anderen Karten auch.

MrS