PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD arbeitet parallel auch an GDDR6-Speicherinterfaces


Leonidas
2017-12-01, 06:06:43
Link zur News:
https://www.3dcenter.org/news/amd-arbeitet-parallel-auch-gddr6-speicherinterfaces

foenfrisur
2017-12-01, 09:31:15
wie hoch sind die latenzen zwischen gddr5 z.b. uns hbm2?

ist das nicht der hauptvorteil von hbm, das es im ggs. zu gddr cacheähnliche vorteile bietet ggü. dem typischen ram?
wenn hier niemand den vorreiter spielen würde, hätte man wieder weniger Fortschritt. amd ist in zugzwang, da nimmt man sowieso alle notnägel, die einem zugeworfen werden.

hbm wäre sicher schon weiter, wenn sich mehr darin engagieren würden.

mfg

mfg

Gast #1
2017-12-01, 09:50:36
AMD war in der Vergangenheit was neue Speichertechnologien betrifft oft Vorreiter, Nvidia hat sich das immer angesehen und wenn es dann Massen tauglich war nachgezogen.
Des weiteren war AMD bei vielen Entwicklungen aktiv beteiligt siehe GDDR3, GDDR4 und HBM.

Leonidas
2017-12-01, 10:08:16
Stimmt absolut. AMD war bei Speichertechnologien (auch GDDR) immer vorn dabei.

Gast Ritis
2017-12-01, 11:32:03
Ich werfe mal in den Ring, dass AMD für Custom Designs sämtliche gängigen Technologien anbieten muss. Das kann genauso gut für Konsolen eine Entwicklungsstufe werden, für günstigste GPU-Lösungen muss man auch immer für die Mainstream-Technologie gerüstet sein.

Die Übergänge von GDDR5 über X zu GDDR6 sollen ja fließend sein. Sicherlich hätte man bei AMD auch jederzeit GDDR5X Interfaces anbieten können.

AMD hat schon immer gerne auch bei Gamer-Karten neuen teuren Speicher gepusht wobei nVidia eher die billigere Massenverfügbarkeit abgewartet hatte und zur Not das SI breiter ausgelegt hat.

Konzeptuell ist HBM der bessere Weg, aber AMDs Strategie ist von den RAM-Herstellern abhängig. Wenn die es nicht schaffen mehr Volumen zu verkaufen und zu produzieren um über die Masse die Herstellung in den Griff zu bekommen bleibt es teuer. Deshalb hat man auch versucht HBM in allen möglichen Sparten zu platzieren.

Auf der HotChips 2016 war noch von Low Cost HBM und HBM3 die Rede, seither ist es recht still um weitere Entwicklungen bei HBM. Nur Anandtech hatte mal im Sommer eine Produktionssteigerung bei Samsung zu HBM2 verkündet, wahrscheinlich für AMDs Vega und Intels neuem MCM.

AMD und Intel (mit Coffee Lake-H) sind also recht zuversichtlich, dass heute HBM und MCM das richtige Konzept sind. Langfristig war Integration auch immer billiger bzw. lukrativer für den jew. Hersteller. Allerdings scheint AMD der einzige Hersteller zu sein, der das in ordentlichen Stückzahlen verbaut, die Entwicklung der Prozesse und Produktreife gehen allein auf deren Kappe.

Weil ja wieder bald Weihnachten ist wünsche ich mir allerdings eine Abkehr von GDDR und dafür ab nächstem Jahr nur noch LowCost HBM bei billigen GPUs und HBM2 und HBM3 im Mainstream und Highend-Segment.

Gast
2017-12-01, 12:27:54
Soweit ich weiß ist die HBM2 Verfügbarkeitsgeschichte aber auch nur ne Theorie bestätigt ist da nix oder?
Ich mein Samsung gibt an HBM 2 seit Januar 2016 in Serie zu fertigen da sollten doch bis zum Vegastart halbwegs Kontingente Verfügbar gewesen sein, dazu kommt noch SK Hynix.

ICh denke mal da klemmt es noch an anderer Stelle bei Vega.

Limit
2017-12-01, 12:31:12
Bei der Bandbreite kann es GDDR6 ja mit HBM2 aufnehmen. Latenzen mögen bei HBM evtl. niedriger sein, für GPUs relevant ist das aber eher weniger. Für HBM auf GPUs spricht damit hauptsächlich wenige Flächenbedarf für das SI und geringerer Stromverbrauch. Das ist für High-End-GPUs und mit deutlichen Abstrichen für Mobil-GPUs relevant. Für die große Masse an GPUs dürfte es bei GDDR bleiben bis die HBM-Preise sich deutlich angeglichen haben, sofern das jemals geschieht.

Gipsel
2017-12-01, 14:14:10
wie hoch sind die latenzen zwischen gddr5 z.b. uns hbm2?Jeder DRAM hat praktisch identische Latenzen (bei speziellem eDRAM mag es Unterschiede geben). Das Interface ist dafür beinahe egal. Das entscheidet nur über die Bandbreite. Die absoluten Latenzen (in ns) von DDR3, DDR4, GDDR5, GDDR5X, GDDR6, HBM und HBM2 zeigen kaum Abweichungen, mithin sind sie praktisch identisch (die Variationen innerhalb einer Sorte ist größer als die zwischen den Sorten).

Kulasko
2017-12-01, 14:38:13
Also liegen die heute bekannten Latenzen ausschließlich am DRAM selbst und die Entfernung zum Interface spielt praktisch keine Rolle?

Gast Ritis
2017-12-01, 15:36:35
Also liegen die heute bekannten Latenzen ausschließlich am DRAM selbst und die Entfernung zum Interface spielt praktisch keine Rolle?

Die Latenz wird üblicherweise bei 2ns für GDDR und HBM angegeben.

Die Entfernung spielt eine Rolle. Das wird aber nicht am RAM festgemacht, sondern am Memory Controller, der für den Zugriff und ein sauberes Signal vllt. mehr Clocks oder weniger MHz benötigt.

Dort hatte vor der Zen-Zeit z.B. AMD ein deutliches Nachsehen gegenüber Intel, obwohl AMD den integrierten Memory Controller zuerst brachte.

Bei den GPU-Workloads im Gaming spielt die Latenz aber zumindest keine grosse Rolle. Könnte bei Compute mit schnellen Read-Write Wechseln bedeutender werden.

Gast
2017-12-02, 02:05:21
Ist einer der kolportierten Vorteile von HBM, der geringere Stromverbrauch des Speicherinterfaces in der GPU, schon wieder überholt?

Leonidas
2017-12-02, 05:35:35
Ist einer der kolportierten Vorteile von HBM, der geringere Stromverbrauch des Speicherinterfaces in der GPU, schon wieder überholt?


Nicht direkt. Es gibt keine neuen Infos, die diese alte These wirklich stützen. Das könnten wohl nur die Chip-Entwickler genau sagen.

Da aber selbst nVidia für seine HPC-Chips HBM einsetzt, spricht eher dafür, das Flächenvorteil und Stromverbrauchsvorteil wirklich da sind.