PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie mehr Grafikspeicher in 2020er Karten bauen?


paul.muad.dib
2020-01-07, 21:43:07
Wenn ich mir die aktuellen Portfolios der Hersteller anschaue, haben viele Karten für ihre Leistung zu wenig Arbeitsspeicher.

Mainstream: 4Gb vorhanden, mind. 6gb benötigt
Mittelklasse: 6gb vorhanden, 8 gb benötigt
Performance passt einigermaßen mit 8
High End: 8gb vorhanden, 10-12 gb benotigt

Doch wie lässt sich das mit der nächsten Gen verbessern, ohne die Kosten deutlich zu erhöhen?

Bei gleichem Speicherinterface müsste der Ram glatt verdoppelt werden. (Optional) 8gb im Mainstream machen wohl noch Sinn, aber gleich 12 gb in Mittelklasse und 16 gb in High End erscheint mir dann schon sehr viel.

Anpassung der SI könnte auch teuer werden. 256 bit in der Mittelklasse war wohl bei Polaris eher eine Not als eine Wunschlösung. 128 bit ist wohl zu wenig, gerade wenn mehr Speicher benötigt angebunden wird.

Oder doch auf HBM wechseln um Konfigs wie 8 und 12 GB zu realisieren?

Ghost1nTh3GPU
2020-01-07, 21:47:00
GDDR6 spezifiziert Module mit 12Gbit(1,5GB). Damit wäre ein Zwischenschritt möglich.

Aber wahrscheinlicher wird wohl eher eine Verdopplung sein, die 8GB 5500XT zeigt ja schon die Richtung.

Der_Korken
2020-01-07, 22:34:10
Das Verhältnis zwischen Bandbreite und Menge ist bei GDDR6 irgendwie suboptimal. Eine 5600XT z.B. hätte mit 256bit SI etwas zu viel Bandbreite, da sie deutlich weniger Rohleistung als die ungefähr ausbalancierte 5700XT hat. Mit 128bit SI wären 8GB auch möglich, aber da ist die Bandbreite dann viel zu knapp. Würde GDDR6 nur 10Gbps schaffen, wären 256bit wieder gerechtfertigt und würde es 20Gbps schaffen, würde man mit 128bit hinkommen. Die 14Gbps liegen leider genau dazwischen. Die 2080S ist auch so ein Kandidat, wo man ruhig 12GB gebrauchen könnte, aber 192bit wären viel zu langsam und 384bit totaler Overkill bei der Bandbreite. Die 1,5GB-Chips wären eigentlich die ideale Lösung, aber ich befürchte, dass die als Nischenprodukt zu teuer sind und man dann gleich 2GB-Chips nehmen kann.

Leonidas
2020-01-13, 07:53:25
GDDR6 spezifiziert Module mit 12Gbit(1,5GB). Damit wäre ein Zwischenschritt möglich.


Leider nicht möglich, sondern nur denkbar. Diese 1,5Gbyte-Chips werden praktisch nicht hergestellt.

SKYNET
2020-01-13, 10:08:20
Leider nicht möglich, sondern nur denkbar. Diese 1,5Gbyte-Chips werden praktisch nicht hergestellt.

eigentlich ne schande, damit hätte man die 5600XT wirklich attraktiv machen können mit 9GB speicher... :) und die 5700XT wäre mit 12GB auch nett gewesen, dann würde auch der letzte honk zu dieser anstelle zur 2070 greifen, gleiches für die 5700 non XT, würde für die meisten auch die 2060S obsolent machen.

Opprobrium
2020-01-13, 10:24:13
Funktioniert denn AMDs High Bandwith Cache Controller Technologie nur mit HBM?

Raff
2020-01-13, 10:25:40
Es scheint so. Zumindest ist sie derzeit nur dort (bei allen Vega-SKUs) implementiert. So cool das ist, ein echter Ersatz für Grafikspeicher ist's nicht ("weniger crappy" trifft es wohl eher).

MfG
Raff

Daredevil
2020-01-13, 10:31:29
Ich hab 600€ für 16GB HBM2 auf ner VII gezahlt @1TB/s und sehe jetzt nicht das Problem, wieso das bei Highend Karten bis 1000€ nicht auch verfügbar sein sollte. Da muss doch was gehen.

Opprobrium
2020-01-13, 10:32:30
Es scheint so. Zumindest ist sie derzeit nur dort (bei allen Vega-SKUs) implementiert. So cool das ist, ein echter Ersatz für Grafikspeicher ist's nicht ("weniger crappy" trifft es wohl eher).

MfG
Raff
Aber die Idee ließe sich ja auch weiterspinnen: 4 - 8 GB direkt an die GPU angebundenen Highspeed RAM wie bisher, und dann noch etwas extra Cache/RAM auf das GPU Board pappen der nicht direkt an die GPU angebunden sein muß. Damit wäre man in mancherlei Hinsicht flexibler als derzeit.

Ich wäre ja ohnehin dafür einen extra Sockel mit eigenen Ram Slots für die GPU direkt auf das Mainboard zu packen :D

Der_Korken
2020-01-13, 13:33:48
Es scheint so. Zumindest ist sie derzeit nur dort (bei allen Vega-SKUs) implementiert. So cool das ist, ein echter Ersatz für Grafikspeicher ist's nicht ("weniger crappy" trifft es wohl eher).

Gibt es einen technischen Grund dafür, dass es nur mit HBM funktioniert? Bei V10 hat das durchaus was gebracht, da hatte afaik dargo mal etwas mit rumgespielt und Szenen gefunden, wo die Karte ohne HBCC völlig umgefallen ist und mit HBCC kaum was verloren hat. Klar ersetzt das keinen echten Speicher, aber wenn die Karte dadurch 10-20% mehr VRAM-Verbrauch wegsteckt, bevor sie einknickt ist das doch ziemlich nice.

BoMbY
2020-01-13, 13:42:53
Der technische Grund ist: Es wurde nicht eingebaut. Der Grund warum es nicht eingebaut wurde ist: Man wollte es nicht einbauen.

unl34shed
2020-01-13, 13:43:27
Sollte keinen Grund geben warum das nur mit HBM funktionieren sollte. Im Prinzip muss der memorycontroller nur wissen, dass es noch weitere Speicherpools gibt und wie er darauf zu greifen kann.

Vermutlich ist es allerdings ein Datacenter Feature, das zweckentfremdet wurde. Und ob es da mit Navi Karten für gibt?

Der_Korken
2020-01-13, 14:58:59
Der technische Grund ist: Es wurde nicht eingebaut. Der Grund warum es nicht eingebaut wurde ist: Man wollte es nicht einbauen.

Kann man so sehen. Es wäre nur interessant zu erfahren, warum es nicht eingebaut wurde. Das Feature wurde damals bei Vega groß beworben und dann nie wieder ein Wort zu verloren. Dabei wären die 4GB 5500 und die 6GB 5600XT die "idealen" Karten für dafür, zumal mit PCIe 4.0 auch noch der Durchsatz pro Lane verdoppelt wurde.

BoMbY
2020-01-13, 15:02:13
Naja, vielleicht beißt sich das mit der neuen RDNA-Cache-Hierarchie, und man hatte nicht genug Zeit das anzupassen, und zusätzlich hat es vermutlich noch ein paar Quadratmillimeter gespart.

RavenTS
2020-01-13, 20:23:05
...
Ich wäre ja ohnehin dafür einen extra Sockel mit eigenen Ram Slots für die GPU direkt auf das Mainboard zu packen :D

Eigene RAM-Slots auf den Grafikkarten hatten wir in der Anfangszeit schon einmal, aber da erreicht man nur leider nicht die Latenzen und Bandbreiten, eines direkt/fest angebundenen Speichers. Erst Recht nicht wenn man dafür HBM direkt neben der GPU auf einem Interposer hat.