PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Entwicklung der Speicherbandbreite (speziell bei entry level gpus)


E.T.
2016-07-15, 00:30:02
Die Speicherbandbreite von Grafikkarten nahm über die letzten 20 Jahre exponentiell zu, aber...

...nur bei High-End-Grafikkarten. (siehe angehängte Grafik)

Bei Low-Cost Grafikkarten (bzw. ich habe die Kategorie definiert mit Grafikkarten bis 25W TDP) stagnierte die Entwicklung zwischen 2001 bis heute (mit einem Ausreisser 2014, der Geforce GT 730 mit GDDR5 Speicher).

Warum stört mich das? Ich habe einen alten Silent-PC mit einer ebensolchen Grafikkarte, einer GT 630 mit DDR3. Mir ist klar, dass man mit solchen Grafikkarte keine aktuellen Spiele zocken kann. Aber, so habe ich mir gedacht, müsste die Karte doch wenigstens mit deutlich älteren Spielen zurecht kommen.
Beispielsweise habe ich neulich Crysis installiert. Das Spiel ist 6 Jahre älter als die Grafikkarte! In SVGA-Auflösung läuft es auch flüssig mit allen BQ-Settings auf "high". Aber sobald ich die Auflösung erhöhe, geht die Performance in den Keller. Die Karte verhungert ganz offensichtlich an ihrem Speicherinterface, das niedriger ist als das einer mehr als 10 Jahre älteren 9700 pro!
Eine kurze Recherche scheint dies zu bestätigen: Die GF GT730 mit GDDR5 ist je nach Benchmark 30-100% schneller trotz gleichem Core!

Dadurch stellen sich mir drei Fragen:

1. Interpretiere ich das richtig: Mit einer aktuellen Low-End-Karte kann man aufgrund des geringen Speicherinterfaces so gut wie keine Spiele (neue wie alte) in zeitgemäßer (hoher) Auflösung spielen. Bei neuen Spielen stört das allerdings deswegen nicht, weil die Rechenleistung für höhere Auflösungen nicht reichen würde, bei alten Spielen ist es dafür umso ärgerlicher.

2. Ein häufiges Argument gegen solche Low-End Pixelschleudern ist ja, dass die in die CPU integrierte GPU heutzutage oft eine gleichwertige oder gar höhere Rechenleistung erreicht. Das Problem mit dem Speicherinterface müsste auf die integrierte GPU aber auch zutreffen, die hat vielleicht ein paar dutzend MB schnellen Cache, aber wenn sie mehr braucht, muss sie auf den langsam RAM zugreifen...

3. Warum zur Hölle ist das so? Warum scheint Moores Law beim Speicherinterface in dieser Grafikkartenklasse nicht zu gelten?

BlacKi
2016-07-15, 00:36:47
weil mehr bandbreite mehr geld kostet. zusätzlich sparen die heutigen chip bandbreite durch die kompression, das zieht sich durch alle bereiche bis hin zu highend. erst mit hbm2 wird ausreichend bandbreite/durchsatz zur verfügung gestellt. dazu muss aber der neue speicher erstmal günstiger werden, auch wenn ein chip von der menge und der bandbreite eigentlich reichen sollte.

man stellt die chip kosten mit den speicherkosten ins verhältniss um so günstig wie möglich produzieren zu können aber die meiste leistung rausholt.

E.T.
2016-07-15, 00:51:29
Also wenn eine Sache in den letzten Jahren immer schneller und günstiger geworden ist, dann ja wohl Speicher. RAM kriegt man mittlerweile hinterhergeschmissen.

Und Low-Cost Karten hatten früher oft 128bit Speicherinterfaces, heute fast nur noch 64bit. Klar ist es immer eine Kostenfrage, aber das war es früher auch und erklärt nicht den völligen Entwicklungsstillstand.

BlacKi
2016-07-15, 01:16:17
Klar ist es immer eine Kostenfrage, aber das war es früher auch und erklärt nicht den völligen Entwicklungsstillstand.
die tendenz ist bei nvidia größer ausgeprägt als bei amd, bei amd bekommst du immernoch mehr bandbreite für den preis. schon alleine wenn duvergleichst das die 480 verglichen mit den anderen amd karten schon wenig bandbreite hat, die 1070 mit derselben bandbreite nochmals erheblich schneller ist(nochmals weniger bandbreite pro performance).

nv hätte auch die 1060 mit 256bit ausstatten können und mit gddr5x speicher. damit hätte man mit 2ghz chiptakt auch die 1070 erreicht. wäre aber teurer als eine 1070. heir fehlt halt die konkurenz, damit die sowas machen.

das kleinere SI + weniger ramsteine an sich, machen einen nicht zu kleinen unterschied im verbrauch und preis.

mczak
2016-07-15, 04:36:10
Aber sobald ich die Auflösung erhöhe, geht die Performance in den Keller. Die Karte verhungert ganz offensichtlich an ihrem Speicherinterface, das niedriger ist als das einer mehr als 10 Jahre älteren 9700 pro!
Wieso ist das offensichtlich? Wenn du die Auflösung erhöhst, steigen die Anforderungen sowohl an Rechenleistung wie auch an Bandbreite mehr oder weniger gleich stark (kann durchaus etwas unterschiedlich (in beide Richtungen!) sein, aber so als grobe Schätzung dürfte das nach wie vor taugen).

Dass die low-end Karten ziemlich schlecht dastehen punkto Bandbreite liegt nicht wirklich an den Chips, denn die skalieren das Speicherinterface durchaus ähnlich wie die Anzahl Shader (verglichen mit den HIgh-End Chips). Aber es wird dann halt ddr3 verbaut - erstens ist das billiger, und zweitens kriegst du sonst auch keine marketingwirksame grosse Speichermenge hin. Bei 64bit gddr5 gehen mit den bis vor kurzem üblichen 4gbit Chips nun mal nur 1GB (2x4gb, die sind jeweils 32bit breit), es sei denn du brauchst clamshell-Mode (was man eigentlich gar nie sieht ausser auf Profi-Karten, also garantiert nicht bei low-end) dann geht das doppelte. Die 2GB mit ddr3 Chips (16bit breit) hingegen gibt's spottbillig (4x4gb Chips). Dasselbe gilt analog nun auch für die 8gbit ddr3/gddr5 Chips (gibt massenhaft gm108 mit 4GB ddr3...)

seaFs
2016-07-15, 15:39:11
64bit Speicherinterface bedeuten auch einen kleineren Chip und ein einfacheres PCB. Alles Kostenersparnisse, die einer Billiggrafikkarte zugutekommen. Wo wird denn solch eine kleine GPU verwendet? In HTPCs, Bürorechner, usw. Überall dort, wo es meist nur darum geht, überhaupt ein Videosignal auszugegeben. Die Featurecheckliste mit Hardware-Videodecoding ist dann auch nochmal ganz nett, alles im allem aber keine Anwendung, die großartig Bandbreite benötigt.

E.T.
2016-07-15, 18:30:42
Wieso ist das offensichtlich? Wenn du die Auflösung erhöhst, steigen die Anforderungen sowohl an Rechenleistung wie auch an Bandbreite mehr oder weniger gleich stark (kann durchaus etwas unterschiedlich (in beide Richtungen!) sein, aber so als grobe Schätzung dürfte das nach wie vor taugen).

Richtig, anhand einer einzelnen Karte kann man das nicht wissen, ob es so ist, nur vermuten.

Aber wie ich in dem Post bereits geschrieben habe, es gibt den Vergleich:

CB Test mit GT 730 DDR3 und GT 730 GDDR5 (https://www.computerbase.de/2014-09/amd-nvidia-guenstige-grafikkarten-euro-test/3/)

Die zwei 730er in diesem Test unterscheiden sich nur durch die Speicherbandbreite von 14.4GB/s zu 40GB/s. Das bringt im Schnitt in den dortigen Tests 61% mehr Performance.

(Die GT 730 DDR3 ist übrigens, wenn ich die technischen Daten vergleiche, ein Rebranding meiner GT 630, einfach mit 2GB statt 1GB. Meine 630 muss aber nicht unbedingt identisch sein mit der 630, die CB ebenfalls im Test hat, von der GT 630 gab es drei Chipversionen und dazu noch verschiedene Taktraten zwischen 700 bis 900 MHz und verschiedene Speicherbestückungen).

E.T.
2016-07-15, 18:47:38
64bit Speicherinterface bedeuten auch einen kleineren Chip und ein einfacheres PCB. Alles Kostenersparnisse, die einer Billiggrafikkarte zugutekommen. Wo wird denn solch eine kleine GPU verwendet? In HTPCs, Bürorechner, usw. Überall dort, wo es meist nur darum geht, überhaupt ein Videosignal auszugegeben. Die Featurecheckliste mit Hardware-Videodecoding ist dann auch nochmal ganz nett, alles im allem aber keine Anwendung, die großartig Bandbreite benötigt.

Ich möchte einfach nochmal darauf hinweisen, dass es im TDP-Bereich 25W und darunter heutzutage zwar nur LowCost-GPUs gibt, vor 15 Jahren das aber der Bereich von High-End war (und alte, spieleuntaugliche 2D-Karten damals noch deutlich weniger Leistungsaufnahme hatten). Videos in HD-Auflösung anschauen kann ich auch auf meinem Tablet das ebenfalls deutlich weniger Leistung braucht. Nein, auch wenn es LowCost sein mag, es sind in erster Linie 3D-fähige Grafikkarten und ich verstehe immer noch nicht, wieso da die Entwicklung stehen geblieben ist.

...und zweitens kriegst du sonst auch keine marketingwirksame grosse Speichermenge hin. Bei 64bit gddr5 gehen mit den bis vor kurzem üblichen 4gbit Chips nun mal nur 1GB (2x4gb, die sind jeweils 32bit breit), es sei denn du brauchst clamshell-Mode (was man eigentlich gar nie sieht ausser auf Profi-Karten, also garantiert nicht bei low-end) dann geht das doppelte. Die 2GB mit ddr3 Chips (16bit breit) hingegen gibt's spottbillig (4x4gb Chips). Dasselbe gilt analog nun auch für die 8gbit ddr3/gddr5 Chips (gibt massenhaft gm108 mit 4GB ddr3...)

Okay, das klingt schon plausibler. Wenn ich mir die High End-Grafikkarten zu Zeiten von Crysis anschaue, hatten die maximal ein 0.5 GB RAM aber deutlich mehr Bandbreite. Das wäre (für alte Spiele) auch heute noch die sinnvollere Konfiguration, aber langsame 2GB verkaufen sich halt womöglich tatsächlich besser.

mczak
2016-07-15, 19:21:31
CB Test mit GT 730 DDR3 und GT 730 GDDR5 (https://www.computerbase.de/2014-09/amd-nvidia-guenstige-grafikkarten-euro-test/3/)

Die zwei 730er in diesem Test unterscheiden sich nur durch die Speicherbandbreite von 14.4GB/s zu 40GB/s. Das bringt im Schnitt in den dortigen Tests 61% mehr Performance.


Das bestreite ich ja auch überhaupt nicht, nur so wie du das geschrieben hast klingt das so als wäre das bloss in höheren Auflösungen ein Problem. Auch bei tieferen Auflösungen wird der Unterschied etwa 60% betragen. Und ja, die low-end Karten haben definitiv ein Bandbreitenproblem wegen der Bestückung mit ddr3.


(Die GT 730 DDR3 ist übrigens, wenn ich die technischen Daten vergleiche, ein Rebranding meiner GT 630, einfach mit 2GB statt 1GB. Meine 630 muss aber nicht unbedingt identisch sein mit der 630, die CB ebenfalls im Test hat, von der GT 630 gab es drei Chipversionen und dazu noch verschiedene Taktraten zwischen 700 bis 900 MHz und verschiedene Speicherbestückungen).
Der CB-Artikel enthält im Uebrigen einen Riesenfehler, der listet GT740 als gk208 mit 128bit. Das ist schlicht unmöglich denn der gk208 hat nur ein 64bit interface. GT740 sind immer gk107 basiert. Wobei die Unterschiede zwischen gk208 und gk107 nicht so gross sind - der gk208 verliert eben das halbe Speicherinterface inklusive ROPs, und hat nur halb so viele TMUs. Letzteres ist kaum der Erwähnung wert (gk1xx hat einen Overkill an TMUs), ersteres ist was den Unterschied ausmacht (wobei dann eben ein gk208 64bit mit gddr5 (und halb so vielen ROPs) genau so schnell sind wie ein gk107 128bit mit ddr3).

mczak
2016-07-15, 19:34:15
Okay, das klingt schon plausibler. Wenn ich mir die High End-Grafikkarten zu Zeiten von Crysis anschaue, hatten die maximal ein 0.5 GB RAM aber deutlich mehr Bandbreite. Das wäre (für alte Spiele) auch heute noch die sinnvollere Konfiguration, aber langsame 2GB verkaufen sich halt womöglich tatsächlich besser.
Interessanterweise hat die Zotac GT 730 im CB-Test ja tatsächlich 2GB gddr5. Also entweder 4gb Chips im Clamshell-Modus oder 8gb Chips. Wobei die 8gb Chips da noch sehr neu gewesen wären (und dementsprechend wohl mit deutlichem Aufpreis). Also wohl eher clamshell-Modus - da staune ich tatsächlich dass das jemand gebaut hat... So wahnsinnig viel teurer wären gddr5 Varianten also wohl wirklich nicht. Nur eben, low-end ist das wohl einfach schlecht wenn dann eine Karte mit gddr5 50 statt 40 Euro kostet. Auch wenn sie dadurch 50% schneller ist... die Käufer in dem Segment sind wahrscheinlich einfach zu ahnungslos... Deswegen finde ich ja auch schon lange es grenzt an Betrug dass AMD und Nvidia es zulassen dieselben Namen zu verwenden bei gleichem Chip aber unterschiedlicher Speicherbestückung (so ein Paradebeispiel war z.B. die HD 6450, ist also kein neues Problem - da gab's Review-Samples, natürlich nur in der gddr5-Variante, zu kaufen gab's die nirgends).

seaFs
2016-07-15, 19:37:41
Nein, auch wenn es LowCost sein mag, es sind in erster Linie 3D-fähige Grafikkarten und ich verstehe immer noch nicht, wieso da die Entwicklung stehen geblieben ist.
Weil die Speicherentwicklung schon immer langsamer war als die Prozessorentwicklung. Nach 15 Jahren hat sich an der Zugriffszeit null getan. Gut, das hat hier zwar nur eine untergeordnete Relevanz (GDDR4 oder HD7970 @ 280X Bios), trotzdem ändern sich die Speicherstandards wesentlich langsamer als die Archtiekturen. Welche Grafikkarte war denn überrsättigt mit Bandbreite? So viele gibt es da nicht. Wenn ich raten darf, fallen mir da spontan nur 2900XT (512bit), 8800GTX (384bit), HD4870(GDDR5) und Fury(HBM) ein.

Trotzdem: Lowcost Karte heißt: billig. Also DDR3 und 64bit. Die Karten zuvor hatten DDR2 und 64bit.

Emperator
2016-07-15, 20:00:23
INein, auch wenn es LowCost sein mag, es sind in erster Linie 3D-fähige Grafikkarten und ich verstehe immer noch nicht, wieso da die Entwicklung stehen geblieben ist.


Firmen arbeiten gewinnorientiert und im LowCost Bereich kann man als GPU Hersteller einfach kein Geld mehr verdienen, daher wird auch nichts mehr in die Entwicklung gesteckt. CPUs mit integrierter GPU haben den LowCost Bereich komplett übernommen. Für 40€ bekommt man CPUs mit integrierter GPU die für Office, Internet, Videos, (einfache Spiele wie Moorhuhn, Bejeweled, Solitair, etc.) reichen. Und was anderes können LowCost GPUs wie die zb. Gt730, R240 usw. auch nicht. Also warum nochmal ~50€ für etwas zahlen was, schon die integrierte GPU leistet?! Denn für richtige Spiele sind LowCost GPUs und integrierte GPUs beide einfach zu lahm.

E.T.
2016-07-15, 21:14:23
Nur eben, low-end ist das wohl einfach schlecht wenn dann eine Karte mit gddr5 50 statt 40 Euro kostet. Auch wenn sie dadurch 50% schneller ist... die Käufer in dem Segment sind wahrscheinlich einfach zu ahnungslos... .

Ja, es ist ein Jammer.

Deswegen finde ich ja auch schon lange es grenzt an Betrug dass AMD und Nvidia es zulassen dieselben Namen zu verwenden bei gleichem Chip aber unterschiedlicher Speicherbestückung.

Meinst du jetzt Codenamen oder Produkt-/Kartennamen? Bei den Produktnamen blickt im unteren Segment ohnehin niemand durch. Dank Rebranding hat der gleiche Chip mehrere Produktnamen (z.B. heisst der RV910 mal HD6450 und drei Jahre später heisst er R5 230) und unter einem Produknamen können mehrere Chips laufen (z.B. als GF GT 630 gibt es den GK107, GF108 und GK208)


Welche Grafikkarte war denn überrsättigt mit Bandbreite?

Vermutlich gar keine. Wobei es tatsächlich so aussieht, dass Speicherbandbreite sich nicht immer am wirtschaftlichen Optimum orientiert, sondern gezielt versucht wird, entweder bei einer unterlegenen High End-Architektur noch ein paar Prozentpunkte mehr Performance rauszukitzeln oder eine zu schnelle Low Cost-Architektur künstlich zu bremsen (um nicht den teureren Lösungen das Wasser abzugraben).

Firmen arbeiten gewinnorientiert und im LowCost Bereich kann man als GPU Hersteller einfach kein Geld mehr verdienen, daher wird auch nichts mehr in die Entwicklung gesteckt.

Nach dieser Logik dürfte es gar keine Neuentwicklungen in dem Bereich mehr geben. Gab es aber in der Vergangenheit alle zwei-drei Jahre, also vielleicht nur in jeder zweiten Architekturserie, aber es gab sie, regelmäßig.

Für 40€ bekommt man CPUs mit integrierter GPU die für Office, Internet, Videos, (einfache Spiele wie Moorhuhn, Bejeweled, Solitair, etc.) reichen. Und was anderes können LowCost GPUs wie die zb. Gt730, R240 usw. auch nicht.

Sie können sehr wohl mehr und sie könnten nocht viel mehr, wenn sie nicht durch das Speicherinterface künstlich ausgebremst würden und nicht im Schnitt mindestens einen Fertigungsprozess-Schritt hinterherhinken würden.

mczak
2016-07-16, 00:54:58
Meinst du jetzt Codenamen oder Produkt-/Kartennamen? Bei den Produktnamen blickt im unteren Segment ohnehin niemand durch. Dank Rebranding hat der gleiche Chip mehrere Produktnamen (z.B. heisst der RV910 mal HD6450 und drei Jahre später heisst er R5 230) und unter einem Produknamen können mehrere Chips laufen (z.B. als GF GT 630 gibt es den GK107, GF108 und GK208)

Produktnamen. Trotz der Riesenmenge an verschiedenen Namen für genau dasselbe Produkt (Rebranding sei dank) hat man den gleichen Namen mit gddr5 oder ddr3. Aber klar, nvidia und amd haben das noch gesteigert und verkaufen mittlerweile völlig andere Chips unter demselben Namen mit ziemlich unterschiedlichen Eigenschaften.
Verschiedene Namen für dasselbe Produkt ist auch nicht gerade super, finde ich aber weniger schlimm als der umgekehrte Fall - da findet man dann kaum heraus was verbaut ist, ist gerade bei Notebooks ein Problem. Das ist eigentlich eher ein Fall von "Reverse-Rebranding". Da blickt wirklich keiner mehr durch.

E.T.
2016-07-16, 14:24:15
Ich habe nun mal die aktuellen Low End Grafikkarten GT 630/730 mit DDR3 und GT 730 mit GDDR5 mit einer alten High End Grafikkarte, der GF 8800 GT, verglichen.

Wie man deutlich sieht, haben die aktuellen Low End Beschleuniger zwar eine deutlich höhere Rechenleistung, bringen diese aber nicht auf die Straße.

(Falls jemand die Werte der Gaming Performance nachvollziehen möchte: Bei Computerbase (https://www.computerbase.de/2014-09/amd-nvidia-guenstige-grafikkarten-euro-test/3/)- wie bereits einmal verlinkt - gibt es die Leistung der 630/730 verglichen mit der GTX 750, zu der es einen 3DCenter Performance Index gibt. Auf Tom's Hardware (http://www.tomshardware.de/charts/gaming-grafikkarten-charts-2010-high-quality/Sum-of-FPS-Benchmarks-1920x1200,2489.html) findet sich die 8800 GT und eine GTX 480, zu der es wiederum den 3DC-Index gibt.

seaFs
2016-07-16, 15:53:35
OK, um es nochmal genauer zu erklären:

Seit ca 10 Jahren sind GPUs aus logisch zusammenhängenden Blöcken aufgebaut. Das ermöglicht die einfache Skalierung einer Architektur von kleinen bis zu riesigen Chips. Bei Kepler besteht ein logischer Block (ein Shadercluster bei nVidia genannt) aus 192 ALUs und 8 TMUs. Daran kann man nichts rütteln, ändern oder abschneiden. Weiterhin sind (Vermutung meinerseits, weil es damals bei Fermi der Fall war) die ROPs an das Speicherinterface gekoppelt, was in dem Fall heißt, dass pro Speicherkanal (64bit) genau 8 ROPs dranhängen. Daran lässt sich auch nichts ändern, rütteln oder abschneiden.
Aus dieser Minimalkonfiguration (1 Shadercluster und 1 Speicherkanal) ergibt sich die GT720 mit 8 ROPs, 64bit Speicherinterface, 192ALUs und 8 TMUs.
Damit sich der Name GT730 verdingt macht, wurde ein zweiter Shadercluster dazughenommen. Genaugenommen ist eine GT720 allerdings eine teildeaktivierte GT730.
Punkt, aus, Ende, Feierabend. Die Lowcost-Karten haben nicht zu wenig Bandbreite, sondern schlichtweg zu viel Rechenleistung. Weniger Rechenleistung ist nicht machbar, höchstens über den Takt. Aber den schraubt man so hoch, wie es wirtschaftlich (aka Konkurrenz) sinnvoll ist.
Warum bauen die Hersteller trotzdem so einen Schrapel? Weil es einen Markt dafür gibt, der diesen Schrapel kauft, damit aber auch nicht spielt.
Und wenn wir das Fass noch weiter aufmachen wollen, dann soll es auch Anwendungen geben, die nicht von der Speicherbandbreite, sondern von der Rechenleistung abhängig sind.

AnarchX
2016-07-16, 18:10:04
Die Margen in dieser Preisklasse sind äußerst gering, da hier schon ein hoher Anteil in Fixkosten drin ist, da ist der Speicher eine Größe wo man noch etwas verdienen kann, wenn man da spart. Man erinnere sich an die GTX 550 Ti, wo es später auch Versionen mit nur ~30GB/s @ 128-Bit DDR3-800 gab, Nvidia selbst kann offiziell nur ~90GB/s. :freak:

Vielleicht wird die HBM-Infrastruktur mal so günstig, dass hier auch im Low-End ein Stack mit >>100GB/s Standard wird.

E.T.
2016-07-16, 19:03:40
Seit ca 10 Jahren sind GPUs aus logisch zusammenhängenden Blöcken aufgebaut. Das ermöglicht die einfache Skalierung einer Architektur von kleinen bis zu riesigen Chips. Bei Kepler besteht ein logischer Block (ein Shadercluster bei nVidia genannt) aus 192 ALUs und 8 TMUs (...)

Danke für den Denkansatz, so hatte ich das bisher noch nicht betrachtet. Nach etwas Recherche (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21816-test-nvidia-geforce-gtx-680.html?start=1)aber ein paar Korrekturen:

Eine Streaming Multiprozessor Einheit (SMX) besteht bei Kepler aus 192 Unified Shader Units 16 Texture Mapping Units.

Die Rendering Einheiten sind in Clustern ("Partitionen") zu acht ROPs verbaut, jede Partition hat ein 64bit Speicherinterface.

Aus dieser Minimalkonfiguration (1 Shadercluster und 1 Speicherkanal) ergibt sich die GT720 mit 8 ROPs, 64bit Speicherinterface, 192ALUs und 8 TMUs.
Damit sich der Name GT730 verdingt macht, wurde ein zweiter Shadercluster dazughenommen. Genaugenommen ist eine GT720 allerdings eine teildeaktivierte GT730. Punkt, aus, Ende, Feierabend.

Reden wir lieber von Codenamen, sonst gibts ein Durcheinander. Der GK208 (z.B. GT 630 Rev. 2 / 730) hat offensichtlich 2 SMX und eine ROP-Partition, das ist das gleiche Verhältnis (2:1) wie bei der GTX 680 (8:4).

Der GK107 (z.B. GT 640 / 740) hat aber 2 SMX und 2 ROP-Partition, also ein 128bit-Interface. Jetzt behauptest du, wenn ich dich richtig verstehe, das müsse demzufolge ein teildeaktivierter GK106 sein? Das scheint mir aus zwei Gründen nicht plausibel. Erstens wäre es wohl unwirtschaftlich, zweitens sehe ich nicht ein, wieso es technische einfacher sein soll, doppelte Hardware zu verbauen und dann zur Hälfte zu deaktivieren als gleich nur einfache Hardware zu verbauen.

Edit: Ausserdem, wenn nvidia bei der Kombination von SMX und die ROP-Partitionen keine Freiheiten hätte, dürfte es auch die GTX 660 Ti (GK104-300-KD-A2) (http://www.nvidia.de/object/geforce-gtx-660ti-de.html#pdpContent=2) nicht geben, die hat nämlich 7 SMX auf 3 ROP-Partitionen, mit welcher Deaktivierung soll das gehen?

Vielleicht wird die HBM-Infrastruktur mal so günstig, dass hier auch im Low-End ein Stack mit >>100GB/s Standard wird.

Scheint mir realistisch, dass VRAM irgendwann in die GPU integriert wird und HBM dazu ein Zwischenschritt ist. Daran wird vermutlich auf lange Sicht kein Weg vorbeiführen, weil Leiterbahnen halt schon Frequenz, Latenz und damit Geschwindigkeit limitieren. So wie es auch beim Level 2 Cache der CPUs war, zuerst auf dem Mainboard, dann, bei Slot-Prozessoren auf der CPU-Karte, dann in der CPU.

seaFs
2016-07-16, 19:58:16
SMX und ROP-Partitionen können beliebig miteinander verknüpft werden über eine Crossbar/Interconnect.

Es gibt aber nur 3 oder 4 verschiedene Chips pro Grafikkartenserie.
GK208: 1 ROP-Part., 2 SMX --> GT720 1 ROP-Part., 1 SMX (Rest deaktiviert)
--> GT730 Vollausbau

Warum das ganze? Yields. Erträge. Ein billig verkaufter, kaputter Chip ist immer noch besser als ein gar nicht verkaufter, kaputter Chip. GT720 ist der Abfall von GK208.
GTX780 ist der Abfall von GTX780Ti und Titan. (GK110)
GTX760 ist der Abfall von GTX770. (GK104)
Damit bedient man damit alle Preissegmente und wird möglichst viele Chips los.

seaFs
2016-07-31, 02:48:02
Mir ist da noch so ein Gedanke gekommen.

Kann es sein, dass die kleinsten GPUs-Chips vom Platz des Speicherinterface ausgehend designt werden? Das SI benötigt bekanntlich immer den gleichen Platz, unabhängig vom Herstellungsverfahren, da die Pinabstände zum Interposer (oder wie auch immer das organische PCB unterm Chip heißt) gleich bleiben. Da nun ein 64bit-SI eine bestimmte Größe hat und ein rechteckiger Chip gewünscht wird, muss der "Rest" der Fläche auch gefüllt werden. Diverse Schnittstellen (PCIe, Display-Anschlüsse), Video Decoder usw. reichen nicht aus, um die Fläche komplett zu füllen.

Jetzt die Annahme: Auch eine Minimalkongfiguration mit einem logischen Shaderblock würde diese Fläche nicht füllen, weshalb immer mehr als ein Block genommen wird. Daraus ergibt sich dann das vom TE genannte Dilemma aus vorhandener Speicherbandbreite und der ungleich höheren Rechenleistung der Shader.
Es ist demnach zu viel Rechenleistung vorhanden, weil die Chipfläche sinnvoll genutzt werden musste.

Macht das Sinn?