PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DDR, GDDR, Memory Cubes, HBM und WideIO - NextGen-Speichertechnologien


Seiten : [1] 2 3

Spasstiger
2011-04-22, 20:05:39
DDR4-SDRAM wird 2012 kommen, es gibt lauffähige Prototypen und zumindest Hynix peilt eine Serienfertigung bis 2012 an: http://www.heise.de/ct/meldung/Hynix-erwartet-DDR4-SDRAM-Serienfertigung-Ende-2012-1222406.html.
Wie schon bei Samsungs LPDDR2-SDRAM wird es auch bei DDR4-RAM Through-Silicon Vias für das Die-Stacking geben, so dass man flache Speicherchip-Packages mit sehr großen Speicherkapazitäten umsetzen kann. Vielleicht hält dann DDR4-RAM auch Einzug in Smartphones. Ein anderer Einsatzzweck wären Multichip-Module mit DRAM wie es gerüchteweise für Intels Ivy-Bridge-Prozessoren geplant ist (dort noch mit LPDDR2).
Außerdem scheinen mit DDR4 ECC-SO-DIMMs zu kommen.
Das Funktionsprinzip von DDR4-RAM ist ein 16n-Prefetch, bei DDR3 und GDDR5 ist es ein 8n-Prefetch. Damit erreicht DDR4 bei gleicher Performance-Spezifikation der Speicherzellen die doppelte Datenrate.
Die Standard-Speicherspannung von DDR4 soll bei 1,2 Volt liegen (DDR3 = 1,5 Volt), womit die höhere Datenrate ohne eine steigende Leistungsaufnahme möglich sein soll.

Zu GDDR6 konnte ich noch keine Informationen finden. Hat Jemand dazu Infos?

AnarchX
2011-04-22, 20:08:14
http://pc.watch.impress.co.jp/img/pcw/docs/319/593/ph09.jpg

http://translate.google.ch/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fnews%2Fevent%2F20091005 _319593.html%3Fref%3Drss&sl=ja&tl=en&hl=de&ie=UTF-8

http://forum.beyond3d.com/showthread.php?t=59907

Spasstiger
2011-04-22, 20:26:19
Wide I/O mit Through-Silicon Vias sieht mal nach was Neuem aus, 1024 Bit Datenbreite pro Speicherchip wären schon pervers. Aber auf einem Grafikkarten-PCB macht so eine breite Anbindung an einen einzelnen Chip doch gar keinen Sinn, das ist eher was für Multichip-Module, d.h. wenn man z.B. DRAM ins GPU-Package integriert.
Die andere Lösung mit Differential IO wäre die logische Fortsetzung von GDDR5. Man erhöht die Datenrate, indem man differentielle Datensignale verwendet, die robuster gegenüber Störungen sind. Allerdings vergrößert das auch den Pinout deutlich bei gleicher Datenbreite und erschwert das Board-Design. Differentielle Leitungspaare sollten parallel, eng beieinander, in identischer Länge und mit identischer Impedanz geführt werden, sonst wird das äquivalente Single-Ended-Signal verfälscht.

PacmanX100
2011-04-22, 20:27:20
2012 ist utopisch, DDR3 hat sich gerade erst so richtig am Markt breit gemacht, da kann man locker noch 2 Jahre draufrechnen.
Außerdem brauchts erstmal Plattformen, damit überhaupt etwas verkauft werden kann und anfangs werden die Stückzahlen gering sein = hohe Preise, unattraktiv.

Die Standard-Speicherspannung von DDR4 soll bei 1,2 Volt liegen (DDR3 = 1,5 Volt), womit die höhere Datenrate ohne eine steigende Leistungsaufnahme möglich sein soll.

Auch nicht so beeindruckend, gibt schon länger 1,35V und 1,25V (http://www.hardwareluxx.de/index.php/news/hardware/arbeitsspeicher/14654-ddr3-1600-mit-nur-125-volt-kingston-kuendigt-ultra-low-voltage-hyperx-module-an-.html) Abwandlungen, nur scheinen die im Desktop keinen Platz zu finden.

Spasstiger
2011-04-22, 20:29:49
Auch nicht so beeindruckend, gibt schon länger 1,35V Abwandlungen, nur scheinen die im Desktop keinen Platz zu finden.
Bei DDR4 hast du dann halt Ableger mit 1,0-1,1 Volt.

2012 ist utopisch, DDR3 hat sich gerade erst so richtig am Markt breit gemacht, da kann man locker noch 2 Jahre draufrechnen.
Sagt ja Niemand, dass der PC die Einführungsplattform für DDR4 sein wird. Als Nachfolger von LPDDR2 für Smartphones der nächsten Generation und Multichip-Module kann ich mir DDR4 auch schon 2012 vorstellen.

PacmanX100
2011-04-22, 20:31:50
Für Homeuser reichlich irrelevant, guck mal wieviel so ein Speichermodul überhaupt noch verbraucht. :tongue:
Im Desktop wird sich das noch wesentlich länger verzögern, es sei denn zahlst 200-300€ pro Modul... und wie man ja aus der Vergangenheit kennt, ist die Bezeichnung irreführend - Speicher mit höherer Bandbreite kann Latenzmäßig schlechter sein - die ersten Klötze können sie gern behalten. ;)

Spasstiger
2011-04-22, 20:42:08
Speicher mit höherer Bandbreite kann Latenzmäßig schlechter sein.
Tendentiell sinkt die absolute Latzenz. Schauen wir mal die CAS Latency gängiger Mainstream-Speichertypen an:
PC-133 CL2 -> 15 ns
DDR-400 CL3 -> 15 ns
DDR2-800 CL5 -> 12,5 ns
DDR3-1600 CL9 -> 11,25 ns

Zudem haben CPUs Caches, um hohe Latenzen beim Speicherzugriff zu vermeiden.

PacmanX100
2011-04-22, 20:59:27
Die Werte sind aber rausgepickt. ;) DDR2 wurde anfangs als 400er, 533er in den Markt gedrückt, 800er und höher kam später dazu. Außerdem gabs höherwertige DDR1 SDRAM und CL2 war dort möglich... waren also schon 10ns und weniger drin ohne das es sich um superteuren OC-RAM handelte (DDR400 war das ja nichtmal, es gab noch mind. DDR550-DDR600). Oft eingesetzt wurde DDR333/400, DDR2 533/667/800 (1066 wurde erst spät abgesegnet), DDR3 1066/1333/1600, alles andere ist bis heute Luxus geblieben.
CAS Latency bei DDR3 liegt auch oft bei CL6, CL7 bis 9 oder gar 10. Je billiger das Modul, desto schlechter.
DDR2 hatte einen schweren Stand bei der Veröffentlichung, war nicht einmal immer besser. Die Notwendigkeit eines Umstiegs bei DDR4 sieht ähnlich aus, es gibt fast keine. Die CPU selbst reizt die Bandbreite nicht aus, höchstens die integrierte Grafik könnte es tun, aber da kann man keine Performancewunder erwarten. Außerdem wird sich die Frage stellen, wie z.B. Intel damit umgeht, ob sie die neue Speichersorte durchdrücken oder noch auf bewährtes setzen, denn wenn die Riegel teuer sind, wird sich ein Käufer so eine Plattform zweimal überlegen...

RavenTS
2011-04-24, 16:03:12
Die Werte sind aber rausgepickt. ;) DDR2 wurde anfangs als 400er, 533er in den Markt gedrückt, 800er und höher kam später dazu. Außerdem gabs höherwertige DDR1 SDRAM und CL2 war dort möglich... waren also schon 10ns und weniger drin ohne das es sich um superteuren OC-RAM handelte (DDR400 war das ja nichtmal, es gab noch mind. DDR550-DDR600). Oft eingesetzt wurde DDR333/400, DDR2 533/667/800 (1066 wurde erst spät abgesegnet), DDR3 1066/1333/1600, alles andere ist bis heute Luxus geblieben.
CAS Latency bei DDR3 liegt auch oft bei CL6, CL7 bis 9 oder gar 10. Je billiger das Modul, desto schlechter.
DDR2 hatte einen schweren Stand bei der Veröffentlichung, war nicht einmal immer besser. Die Notwendigkeit eines Umstiegs bei DDR4 sieht ähnlich aus, es gibt fast keine. Die CPU selbst reizt die Bandbreite nicht aus, höchstens die integrierte Grafik könnte es tun, aber da kann man keine Performancewunder erwarten. Außerdem wird sich die Frage stellen, wie z.B. Intel damit umgeht, ob sie die neue Speichersorte durchdrücken oder noch auf bewährtes setzen, denn wenn die Riegel teuer sind, wird sich ein Käufer so eine Plattform zweimal überlegen...


Also weiter Evolution statt Revolution. Letztere findet wohl eher in den CPU-Cachestufen statt, wo doch nun langsam neue Transistor-Typen zum Einsatz kommen bzw. generell die Cache-Größen immer weiter wachsen...

Coda
2011-04-24, 16:33:38
bzw. generell die Cache-Größen immer weiter wachsen...
Was für eine Revolution :D

Duplex
2011-04-24, 16:58:11
Bezgl. x86 CPUe
DDR4 wird erst 2013 bei Intel & AMD erscheinen, Ivy Bridge ist nur ein DIE Shrink, glaube nicht das Intel einen 2. Controller einbaut oder den Controller leicht Redesigned wie K10, es bringt sowieso nichts bei Intel, sieht man im CB Test selbst DDR3-2000 ist nicht schneller als 1333, das Cache/Uncore ist anders als bei Nehalem.

Bei AMDs Bulldozer läuft der DDR3-RAM mit 1600 Mhz 20% schneller als K10 mit 1333, hier skalliert wenigstens mehr Takt=mehr Leistung, möglich das DDR4 auch gut mit dem Design skaliert.

Botcruscher
2011-04-24, 17:10:19
Bulldozer sollte mal ein die Hände von Testern gelangen. Vor nicht all zu langer Zeit gab es noch Tests für Sandy mit 1333 gegen 1600MHz. Einzig GDDR6 wird doch wirklich gebraucht.

Duplex
2011-04-24, 18:06:02
Das nächste Architektur Update kommt 2013, das Nehalem Team macht diesmal den Tock bzw. Haswell Prozessor Design, das wird dann möglicherweise auf DDR4 optimiert sein, sowas wie K10 DDR2 vs. DDR3 wird es aber zum glück nicht.

Undertaker
2011-04-25, 16:26:35
Bei ungeöffneter Originalverpackung und vorhandenem Kaufbeleg hat bisher noch jeder Shop bei mir einen Artikel zurückgenommen und den vollen Kaufpreis erstattet - selbst wenn er es nicht müsste. :)

@Topic: Den größten Bedarf für schnelleren Speicher haben wir neben Grafikkarten auch bei aktuellen und kommenden CPUs mit IGP. Deren limitierte Bandbreite wird mit zur Zeit stark steigender Rechenleistung immer deutlicher.

AnarchX
2011-04-25, 16:42:24
Bulldozer-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=506995

Ronny145
2011-04-26, 20:08:52
http://www.abload.de/img/01417kr.jpg
http://translate.google.de/translate?hl=de&sl=auto&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F017%2FG001762%2F20110425023%2F

In der Bildergalerie gibt es noch mehr Folien. Die Seite berichtet auch von Intels Plänen, allerdings ist die google Übersetzung schlecht zu verstehen.

Ronny145
2011-06-28, 20:30:51
It took over three years for DDR3 dynamic random access memory (DRAM) to take off and become dominating type of memory and it looks like it will remain on the market till at least 2015 as the debut of DDR4 is now delayed till 2014
http://www.xbitlabs.com/news/memory/display/20110627143149_DDR4_Memory_Now_Projected_to_Debut_in_2014_But_Ramp_Up_Rapidly.ht ml


Für Haswell 2013 ist es damit noch zu früh.

AnarchX
2011-08-03, 15:36:27
Einige Folien zu WideIO-RAM von der JEDEC und Micron:

http://pc.watch.impress.co.jp/img/pcw/docs/464/030/6.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/464/030/14.jpg

http://pc.watch.impress.co.jp/docs/column/kaigai/20110801_464030.html

Fragt sich nur ob das auch für High-End-Speicher angewandt wird.

Knuddelbearli
2011-08-04, 17:29:58
wie sieht es eigentlich mit dem GDDR6 aus? frühestens beim SI Refresh ?

ATI kann die Speicherbandbreite gut gebrauchen wenn sei weiter bei 256bit bleiben möchten

AnarchX
2011-08-04, 18:00:55
ATI kann die Speicherbandbreite gut gebrauchen wenn sei weiter bei 256bit bleiben möchten
Sofern sie das möchten, laut Spekulationen skaliert AMD mit SI den IMC auch in 64-Bit Schritten.

Ronny145
2011-08-23, 10:35:27
ARLINGTON, Va., USA – AUGUST 22, 2011 –JEDEC Solid State Technology Association, the global leader in the development of standards for the microelectronics industry, today announced selected key attributes of its widely-anticipated DDR4 (Double Data Rate 4) standard. With publication forecasted for mid-2012, JEDEC DDR4 will represent a significant advancement in performance with reduced power usage as compared to previous generation technologies.
http://www.jedec.org/news/pressreleases/jedec-announces-key-attributes-upcoming-ddr4-standard

Ronny145
2011-10-06, 18:49:14
http://s14.directupload.net/images/111006/vocf9od8.jpg
http://www.4gamer.net/games/135/G013536/20111006083/screenshot.html?num=011

Spasstiger
2011-10-14, 18:15:15
Sind die Hybrid Memory Cubes der von Samsung unter der Beschreibung "Wide IO w/TSV technology" (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8696673&postcount=2) propagierte GDDR5-Nachfolger?
Samsung und Micron wollen diese neue Speichertechnik auf jeden Fall vorantreiben und haben letzte Woche das Hybrid Memory Cube Consortium gestartet: http://www.heise.de/ct/meldung/Micron-und-Samsung-kooperieren-beim-Hybrid-Memory-Cube-1356958.html.

Knuddelbearli
2011-10-14, 18:50:09
nein wenn dann eventuell GDDR6 Nachfolger

dauert ja noch einige Jährchen

Skysnake
2011-10-15, 02:33:24
Sind die Hybrid Memory Cubes der von Samsung unter der Beschreibung "Wide IO w/TSV technology" (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8696673&postcount=2) propagierte GDDR5-Nachfolger?
Samsung und Micron wollen diese neue Speichertechnik auf jeden Fall vorantreiben und haben letzte Woche das Hybrid Memory Cube Consortium gestartet: http://www.heise.de/ct/meldung/Micron-und-Samsung-kooperieren-beim-Hybrid-Memory-Cube-1356958.html.

Ich glaube nicht, die Technik ist aber auf jeden Fall interessant :biggrin:

Was ein kleiner Denkanstoß sein sollte, ist mal Hasswell ;)

AnarchX
2011-10-28, 15:05:52
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9007111#post9007111

-> http://sites.amd.com/us/Documents/TFE2011_006HYN.pdf

Hynix plant High Bandwidth Memory HBM mit Wide-IO und TSV:
- 65% mehr Bandbreite als Single-Ended-IO-GDDR5 (1024-Bit @ 1Gbps VS 32-Bit@7Gbps)
- 40% niedriger Vebrauch als GDDR5 (1,2V vs 1,5V)

Als weitere Alternative nennt man aber auch aber auch GDDR5 mit Differential-IO, welcher wohl bis 14Gbps skalieren könnte, aber einen extrem hohen Stromverbrauch haben soll.

Spasstiger
2011-10-28, 16:33:42
Hynix plant High Bandwidth Memory HBM mit Wide-IO und TSV:
- 65% mehr Bandbreite als Single-Ended-IO-GDDR5 (1024-Bit @ 1Gbps VS 32-Bit@7Gbps)
- 40% niedriger Vebrauch als GDDR5 (1,2V vs 1,5V)
Eigentlich genau das gleiche Spiel wie bei den Hybrid Memory Cubes, nur unter anderer Schirmherrschaft. ;)
Sogar die Datenrate ist identisch, die Hybrid Memory Cubes sollen auch 1 Tbit/s pro Modul erreichen.

AnarchX
2011-11-07, 13:34:14
http://pc.watch.impress.co.jp/docs/column/kaigai/20111107_488696.html

http://pc.watch.impress.co.jp/img/pcw/docs/488/696/2.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/488/696/15.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/488/696/29.jpg

Ronny145
2011-11-07, 13:47:31
Erst ab 2015 DDR4-2400? Das sind langsame Einführungsmodule. Also bringt DDR4 für iGPUs in 3-4 Jahren keine Besserung.

Nightspider
2011-11-07, 16:37:22
Erst ab 2015 DDR4-2400? Das sind langsame Einführungsmodule. Also bringt DDR4 für iGPUs in 3-4 Jahren keine Besserung.

Dafür kommen ja auch integrierte Caches und Stacked (V)RAM auf CPUs mit IGPs.
DDR4 wird sowieso nur ein kleiner Schritt. Der Flaschenhals wird erst mit Memory Cubes beseitigt.

Konami
2011-11-07, 16:53:10
Dafür kommen ja auch integrierte Caches und Stacked (V)RAM auf CPUs mit IGPs.
DDR4 wird sowieso nur ein kleiner Schritt. Der Flaschenhals wird erst mit Memory Cubes beseitigt.
Mit Stacked-RAM ist auch erst frühestens 2016 zu rechnen laut dieser Folie:

http://www.abload.de/img/28ft8qe.jpg

(Oder bezieht sich das nicht auch auf VRAM?)

john carmack
2011-12-02, 09:15:05
IBM stellt Microns „Hybrid Memory Cube“ her

http://www.computerbase.de/news/2011-12/ibm-stellt-microns-hybrid-memory-cube-her/

"Ein 512 MB große HMC-Prototyp, den Micron Anfang September auf dem Intel Developer Forum zeigte, erreicht eine Datenübertragungsrate von 128 Gigabyte pro Sekunde. Ein 4 GB großes DDR3-1333-Modul ist im Gegensatz dazu mit 10,66 GB/s deutlich im Hintertreffen. Auch zur Leistungsaufnahme der platzsparenden Bausteine gibt es erste Informationen. Bezogen auf die Übertragungsrate gibt Micron für den HMC 62,23 Milliwatt pro GB/s an, während das oben beschriebene Speichermodul auf 431,83 Milliwatt kommt.

Zuletzt wurde 2013 als Jahr für die ersten kommerziellen Lösungen im Unternehmensbereich genannt."


habs erst mal hier rein geschrieben, obwohl das mir DDR Ram net so viel zu tun hat. Ist das einen eigenen Thread wert?
Immerhin soll die Technologie 2013 kommen!

ndrs
2011-12-02, 09:48:39
Lustig wie in den Kommentaren über den Stromverbrauch lamentiert wird :)

john carmack
2011-12-02, 11:01:47
@ndrs...

hehe... ja, hatte auch ein breites Grinsen im Gesicht :D

Insgesamt aber eine sehr interessante Technologie wie ich finde! 128GB/s im "SingleChannel Mode" (wenn man das so nennen kann) ist schon beeindruckend.

Na mal abwarten... gab ja schon sehr lange keine "Quantensprünge" in sachen Leistung was RAM angeht.

Screemer
2011-12-02, 12:10:11
das ganze an ne apu per silicon-interposer und das bandbreitenproblem aktueller (amd-)apus solle geschichte sein.

john carmack
2012-06-20, 09:22:35
Hi,

wie hoch schätzt Ihr die Wahrscheinlichkeit das nach DDR4 die ersten HMC´s (Hybrid Memory Cube) auf den Markt kommen werden?

Hatte im Mai mal gelesen das jetzt auch Microsoft dem Hybrid Memory Cube Consortium beigetreten ist.

Skysnake
2012-06-20, 09:48:57
Da sind auch noch ein paar mehr dem Konsortium inzwischen beigetreten ;)

Ich hoffe ja AMD entscheidet sich auch auf zu springen. HMC hat eigentlich alle großen dabei und wird sicherlich ein Standard werden, der von allen akzeptiert wird. Vielleicht spart sich ja AMD aber auch die direkte Mitgliedschaft, weil eh schon ARM mit drin ist, sowie IBM und Samsung, mit welchen entweder AMD, oder GF zusammen arbeitet.

Ansonsten mal ne Übersicht, wer alles inzwischen dabei ist ;)

Developer Members
Altera Corporation (FPGA)
ARM (ARM halt ;D)
Hewlett-Packard Company
IBM
Micron Technology, Inc. (Speicherhersteller)
Microsoft
Open-Silicon, Inc. (?)
Samsung Electronics Co., Ltd (Riesen Mischkonzern inkl Speicherhersteller)
SK hynix (Speicherhersteller)
Xilinx, Inc. (FPGA)

Adopter Members:
APIC Corporation
Cadence Design System, Inc.
Convey Computer Corporation
Cray Inc. (Hersteller von Supercomputern)
DAVE Srl
Design Magnitude Inc.
eSilicon Corporation
Exablade Corporation
Galaxy Computer System Co.,Ltd
GDA Technologies
GLOBALFOUNDRIES (Darüber kann dann AMD "mitreden", oder haben die keine Anteile mehr an GF?)
GraphStream Incorporated
Huwei Technologies
Infinera Corporation
Inphi Corporation
ISI / Nallatech
Juniper Networks
LeCroy Corporation
Luxtera, Inc.
Maxeler Technologies Ltd.
Montage Technology, Inc.
Netronome
Northwest Logic
Oregon Synthesis
Science & Technology Innovations
Suitcase TV Ltd.
Tabula
Und dann sogar noch zwei Unis:
Tongji University
University of Heidelberg ZITI (Center of Computer Engineering)

Also das ist mal ne ganz anstendige Liste. Vergleich man das mit so manch anderem Standard, dann sieht HMC bereits jetzt verdammt gut aus. Die Frage ist halt nur, wie schnell wird man DDR4 absägen. Das hat ja in der Entwicklung auch einiges gekostet.

Die Aussage von Samsung nichts mehr im GDDRx Bereich machen zu wollen sagt aber eigentlich schon alles. Eventuell wird HMC erst mal GDDR5 beerben und dann nach einer gewissen Zeit dann auch DDR4, wenn das die Investitionskosten wieder reingespielt hat nach ein paar Jahren.

john carmack
2012-06-20, 16:47:08
JA, hab ich ja gesagt, - Nach DDR4.

Für HMC ist es eh zu früh. Aber wenn man bedenkt das eine DDR Generation etwa (ich weiß nicht genau...?) etwa 3-4 Jahre auf dem Markt bleibt dann könnten die ersten HMC´s so wie ich auch irgendwo gelesen haben 2016 auf den Markt kommen.

Das HMC erst GDDR5 beerbt hört sich aber auch realistisch an...

128GB/s pro Hybrid Memory Cube :D

Spasstiger
2012-06-20, 18:14:39
Als klassisches DIMM-Modul (Speicherriegel) eignen sich die HMCs wegen der vielen Interconnects (Leitungen) nicht. HMCs werden über SI-Interposer, spezielle HDI-Leiterplatten oder direkt als Stacked-Die mit den treibenden Prozessoren verbunden. Deshalb sehe ich es als schwierig, dass HMCs in den nächsten Jahren DDR4-DIMMs ablösen. Ich könnte mir aber vorstellen, dass künftige Prozessoren direkt einen HMC auf dem Träger haben als dedizierten Grafikspeicher, um die DDR4-Bandbreite zu schonen.

Nightspider
2012-06-20, 18:26:31
Im Moment scheint sich ja recht wenig zu tun was GDDR6 betrifft.
Und schnellerer GDDDR5 scheint auch kaum noch zu kommen.

Bleibt die Frage was die Grafikkarten in 2 Jahren auf dem PCB haben werden.
Womöglich müssen AMD und Nvidia mit 512Bit SIs die Zeit überbrücken bis HMC marktreif sind.

Samsung ist ja sogar komplett aus der GDDR6 Entwicklung ausgestiegen.

Skysnake
2012-06-20, 19:02:15
Als klassisches DIMM-Modul (Speicherriegel) eignen sich die HMCs wegen der vielen Interconnects (Leitungen) nicht. HMCs werden über SI-Interposer, spezielle HDI-Leiterplatten oder direkt als Stacked-Die mit den treibenden Prozessoren verbunden. Deshalb sehe ich es als schwierig, dass HMCs in den nächsten Jahren DDR4-DIMMs ablösen. Ich könnte mir aber vorstellen, dass künftige Prozessoren direkt einen HMC auf dem Träger haben als dedizierten Grafikspeicher, um die DDR4-Bandbreite zu schonen.

Das Package sollte nicht mehr Kontakte haben als nen DDR3/GDDR5 Chip.

john carmack
2012-06-21, 09:02:47
Dann gibts halt neue Sockel speziell für HMC´s auf dem MB. Wäre auch mal die Chance endlich diesen uralten ATX Standard abzulösen.

Die HMC`s sehen aus wie kleine CPUs :D
http://www.brightsideofnews.com/Data/2011_9_19/Intel-Micron-Hybrid-Memory-Cube-Future-of-Exascale-Computing/INTC_Micron_MemoryCube_689.jpg

AnarchX
2012-06-21, 13:55:33
VR-Zone: GDDR6 Memory Coming in 2014
http://vr-zone.com/articles/gddr6-memory-coming-in-2014/16359.html

john carmack
2012-06-22, 11:35:54
"Enter GDDR6. This is the memory standard that will take us to the 2020 and beyond, i.e. third decade of the 21st century."

Das bezweifele ich aber!

OBrian
2012-06-28, 06:19:07
och naja, wenn es erst 2014 kommt, sind es schlappe 6 Jahre, GDDR5 gibt es seit 2008 in Serie, das wären dann auch 6 Jahre.

Deinorius
2012-06-28, 10:31:05
Ich glaube, john carmack bezog sich dabei besonders auf das "and beyond".

john carmack
2012-06-28, 11:45:09
Ich hoffe einfach das es mal einen Durchbruch auf im RAM Segment gibt.

Egal ob das HMC oder eine andere technologie wird. Aber schön das ein ganz großer wie MS aufgesprungen ist...

Wenn man die Geschwindigkeit um etwa faktor 7-10 steigern kann wäre das ne echt tolle Sache!

Deinorius
2012-06-28, 11:52:04
Bei GDDR gerne, aber bei System-RAM müsste man den CPUs auch noch beibringen, dass sie diese Bandbreite auch zu nutzen lernen.

Coda
2012-06-28, 11:58:24
Aber schön das ein ganz großer wie MS aufgesprungen ist...
Wat?

ENKORE
2012-06-28, 13:32:15
MS ist dem HMC im Mai beigetreten...

john carmack
2012-06-28, 15:31:36
@ ENKORE

und jetzt noch mehr Hersteller:-)

Sogar HP und Hynix :-)

http://www.computerbase.de/news/2012-06/arm-hp-und-sk-hynix-treten-hybrid-memory-cube-konsortium-bei/


Hier mal ein kleiner Performance Überblick:

gixe
2012-06-28, 17:12:45
Bei GDDR gerne, aber bei System-RAM müsste man den CPUs auch noch beibringen, dass sie diese Bandbreite auch zu nutzen lernen.

Wieso sollte man, es wurde doch viel Aufwand betrieben um die CPU "unabhängiger" vom RAM zu machen (verschiedene Cache lvl, integrierter Speichercontroller, verschiedene "spekulative" Ausführungen der CPU, usw.). Am meisten braucht man den neuen Speicher und die höhere Bandbreite beim Endkunden für die iGPU und nicht für die CPU.

Spasstiger
2012-06-28, 18:02:50
Das Package sollte nicht mehr Kontakte haben als nen DDR3/GDDR5 Chip.
Es ging mir ja um DIMM vs. HMC und ein DDR3-DIMM hat bekanntermaßen 240 Pins. Wenn ich auf dem von john carmack verlinkten Foto richtig gezählt haben, sind es bei einem HMC-Modul schon 556 Pins.
Ok, sobald man zwei DIMMs an einem Dual-Channel-Interface hat, egalisiert sich die Anzahl an Leitungen, die übers Board geführt werden müssen. Ein Problem beim HMC ist aber auch, dass die einzelnen Leitungen weit höhere Datenraten transportieren müssen als bei einem DDR3-DIMM, schließlich will man die zehnfache Bandbreite erreichen (mit nur doppelt sovielen Pins). Somit werden viele Leitungen dann wieder doch ein Problem (Übersprechen, hohe Peak-Belastung der Versorgungsspannung im Verhältnis zur mittleren Last, Timing ist kritischer). Der Pitch von einem HMC ist auch weit feiner als bei einem DIMM-Modul, was man aber natürlich damit lösen könnte, dass man den HMC auf ein DIMM-Modul setzt. Das aber beißt sich wiederum mit den hohen Anforderungen an die Datenrate.

So richtig sinnvoll sind die HMCs mit dem Ziel hoher Bandbreiten nur, wenn man sie räumlich nahe und ohne Umwege mit dem treibenden Prozessor verbindet. Z.B. über einen SI-Interposer, wo man dann auch mal acht oder mehr HMCs anbinden kann und auf Bandbreiten im Bereich von Terabyte/s kommt.

Skysnake
2012-06-28, 18:59:10
Klar, da spielen Sie voll auf, aber auch auf nem stink normalen MB kannste ja auch einfach mehrere hintereinander schalten. Das ist ja dann ja auch wie aktuell nicht DAS große Thema. 2-4 Module hintereinander und gut ist.

Vor allem wird durch die höheren Taktraten ja auch schneller wieder die Verbindung frei. Sprich man kann mit weniger Aufwand zwischen den einzelnen Modulen hin und her springen, als das aktuell der Fall ist, was bedeutet, das man mehr Module hintereinander klemmen kann.

john carmack
2012-07-19, 23:33:06
PCM/PRAM in 45 nm erstmals in Massenproduktion
Microns Phase Change Memory für Mobilgeräte verfügbar

http://www.computerbase.de/news/2012-07/microns-phase-change-memory-fuer-mobilgeraete-verfuegbar/

Skysnake
2012-07-20, 01:25:03
Naja, ich sag doch DDR4/GDDR6 sind nicht die Zukunft...

john carmack
2012-07-20, 16:14:30
kann schon sein das nach DDR4 schluß ist mit "DDR" Speicher...

boxleitnerb
2012-07-20, 16:19:29
Ja was kommt denn dann als Nächstes für Grafikkarten? Spätestens HD9000 und Maxwell dürften klar mehr als 300GB/s brauchen. Will man keinen traditionellen 512bit breiten Bus verbauen, muss was Neues her. 7Gbps GDDR5 gibts ja trotz jahrealter Samples noch nicht und die 15% reißen es dann auch nicht, wenn die Rechenleistung in anderthalb Jahren wieder um 50-100% steigen sollte.

Spasstiger
2012-07-20, 18:06:02
PCM/PRAM in 45 nm erstmals in Massenproduktion
Microns Phase Change Memory für Mobilgeräte verfügbar
Das ist aber nicht als Nachfolger von DDR3 und GDDR5 geeignet, sondern als schneller ROM bzw. Programm- und OS-Speicher für Featurephones (später auch Smartphones) gedacht. Teile des Flashspeichers sollen damit ersetzt werden.
Am PC sehen wir PRAM vielleicht mal in SSD-Form.

Skysnake
2012-07-20, 19:34:05
Bist du dir da sicher?

Spasstiger
2012-07-20, 20:45:44
Als DRAM-Ersatz am PC ist PRAM zu langsam, das reicht nur für die Featurephones, die aktuell die angepeilte Zielplattform sind. Und es reicht auch nur, weil auf den PRAM-Modulen zusätzlich DDR2-Speicher verbaut ist. Zudem, wenn PRAM ein Ersatz für DRAM wäre, müsste man auf die PRAM-Module keinen DRAM dazu packen.
Am PC könnte ich mir Caching-SSDs auf PRAM-Basis vorstellen, die Zugriffe auf häufig gelesene Daten auf dem eigentlichen Festspeichermedium beschleunigen. Für normale SSDs haben die PRAM-Module natürlich noch viel zu wenig Kapazität und wären dementsprechend auch viel zu teuer.

Skysnake
2012-07-20, 21:44:16
Und wo wäre jetzt das Problem PCM mit XY-RAM Buffer als Cache für den PCM in Zukünftigen PCs statt DDRXY oder GDDRXY ein zu setzen?

Dir ist schon klar, warum PCM sehr cool, aber auch sehr uncool wäre als Arbeitsspeicher, oder?

Wenn nicht würde es mich wundern, du hast die Problematik, als auch Lösungen ja bereits angesprochen ;)

john carmack
2012-09-13, 20:53:08
hier stand Müll...

john carmack
2012-11-19, 12:30:47
Samsung Plans to Manufacture Hyper Memory Cube Solutions in 2013 - 2014.

http://www.xbitlabs.com/news/memory/display/20111102133147_Samsung_Plans_to_Manufacture_Hyper_Memory_Cube_Solutions_in_2013_ 2014.html

heißen die Dinger nicht HYBRID memory Cube?

Gipsel
2012-11-19, 14:53:59
heißen die Dinger nicht HYBRID memory Cube?Inzwischen ja, aber der Originalname war wohl wirklich mal Hyper Memory Cube, die haben das nur später umbenannt.

Edit:
Und in der Meldung werfen die beide Begriffe auch munter durcheinander. :rolleyes:

john carmack
2012-11-19, 15:13:55
ist ja eigentlich auch egal...

Wäre schön wenn mal in Sachen RAM mal ein großer Schritt nach vorne gemacht wird.

HMC sollen ja ca. die 10x Banbreite von DDR X zu verfügung stellen.

hab irgendwas mit 130GB/s im gedächtnis

Ronny145
2013-01-12, 14:01:26
Ein paar Folien zu DDR4: http://chinese.vr-zone.com/33462/ddr4-need-to-wait-until-2014-will-come-with-haswell-ep-broadwell-09132012/
http://pics.computerbase.de/4/6/6/8/1/1.png

boxleitnerb
2013-02-07, 07:33:29
Wie stehen die Chancen, dass 20nm GPUs schon GDDR6 o.ä. an Bord haben? Außer einem 512bit Speicherinterface gibts ja keine Möglichkeit mehr, die Bandbreite weiter zu steigern. Man könnte höchstens die vorhandene Bandbreite noch besser nutzen, aber ich schätze mal, auch da sind Grenzen gesetzt.

Knuddelbearli
2013-02-07, 07:53:08
höchsten für den Refresh

oder eventuel nur fürs spitzenmodell

( bis 8890 / 860 mit GDDR5 )

AnarchX
2013-02-07, 09:02:04
Bis jetzt gibt es wohl noch nicht mal Spezifikationen zu GDDR6. Laut Gerüchten könnten diese wohl 2014 vorgestellt werden. Von diesem Zeitpunkt bis zu realen Produkten dauert es wohl auch noch einige Jahre.

GDDR5 könnte wohl noch bis 8Gbps skalieren.

john carmack
2013-02-20, 11:05:42
Micron bereitet öffentliche Präsentation der Hybrid Memory Cube Technologie vor. Produktion für 2013/2014 geplant :)

"...the Hybrid Memory Cube will be in full production at the end of this year or early 2014. In fact, contracts are already in place for the 2014 timeframe."

http://www.hpcwire.com/hpcwire/2013-01-17/micron_readies_hybrid_memory_cube_for_debut.html




@ Admins
Könnte man die Überschrift zu diesem Thread vielleicht mit "HMC" ergänzen?

HPVD
2013-02-21, 12:22:10
Ein paar Folien zu DDR4: http://chinese.vr-zone.com/33462/ddr4-need-to-wait-until-2014-will-come-with-haswell-ep-broadwell-09132012/
http://pics.computerbase.de/4/6/6/8/1/1.png

DDR4: Max 24Ranks/ch (DDR3: max 8Max 24Ranks/ch)

wow das ist ja mal richtig interessant - da müssten nur noch die Servermainboards größer werden und man könnte statt max 24Modulen 72 Dual Rank Module mit 2 Xeon CPUs mit je 4 speicherkanälen nutzen :-)

aber die Anzahl der Speicherkanäle etc ändert sich beim DDR4 unterstützenden Hashwell EX wahrscheinlich eh...

Skysnake
2013-04-03, 13:40:08
Hier war interessantes zu HMC. Die Specs nämlich ;)
http://hybridmemorycube.org/files/SiteDownloads/HMC_Specification%201_0.pdf

Man sollte sich vor allem mal die Seite 114 anschauen. Da sieht man mal schön, warum Sockel BÄH sind ;) Mehr als 15 GHz kannste über den Sockel knicken. Das kannste nicht mehr wirtschaftlich realisieren, und selbst die 5 GHz hauen schon ziemlich rein mit ihren -5dB.

Ansonsten habe ich jetzt nicht so viel spannendes gefunden. Der für mich spannendste Punkt ist auch nicht dabei. Schade eigentlich.

Nunja, die Art und weiße, wie die arbeiten wird dennoch erklärt, und ich denke einige werden viel Spaß dabei haben, sich die Sachen mal durch zu lesen ;) Besonders das Protokoll sollte man sich mal genauer anschauen. Eventuell gibts da paar interessante Punkte. Bin selbst aber noch nicht dazu gekommen, mir das an zu schauen.

ndrs
2013-04-03, 14:10:23
Man sollte sich vor allem mal die Seite 114 anschauen.
So eine Grafik fände ich mal allgemein für sämtliche mögliche Links interessant. Also der Vergleich zwischen x Leitungslänge, BGA, LGA, PGA über die Frequenz geplottet. Dann kann sich jeder der spekulieren will seine Variante selber zusammenbauen und die Dämpfung einfach addieren :)

Ohne jetzt alles durchzuwühlen: Wieviele Bits bei (ca) welcher Frequenz sind eigentlich für HMC geplant? Ich meine mich an 1024 Bit erinnern zu können.

=Floi=
2013-04-03, 14:15:30
wow das ist ja mal richtig interessant - da müssten nur noch die Servermainboards größer werden und man könnte statt max 24Modulen 72 Dual Rank Module mit 2 Xeon CPUs mit je 4 speicherkanälen nutzen :-)

aber die Anzahl der Speicherkanäle etc ändert sich beim DDR4 unterstützenden Hashwell EX wahrscheinlich eh...

welchen sinn hätte dies noch, bei spottbilligen 8/16 und bald 32gb modulen? ich denke am arbeitsspeicher scheitert es heute nicht mehr wirklich.

john carmack
2013-04-03, 14:16:07
HMC 1.0

Mehr und schnellerer Speicher dank Hybrid Memory Cube

Das Hybrid Memory Cube Consortium hat mit HMC 1.0 einen Standard für Stacked RAM verabschiedet. Mit den Chipstapeln soll sich mehr Speicher dichter packen lassen und schneller werden.


http://www.golem.de/news/hmc-1-0-mehr-und-schnellerer-speicher-dank-hybrid-memory-cube-1304-98486.html

john carmack
2013-04-03, 14:21:30
welchen sinn hätte dies noch, bei spottbilligen 8/16 und bald 32gb modulen? ich denke am arbeitsspeicher scheitert es heute nicht mehr wirklich.


wohl eher an der Bandbreite...

Skysnake
2013-04-03, 14:23:25
So eine Grafik fände ich mal allgemein für sämtliche mögliche Links interessant. Also der Vergleich zwischen x Leitungslänge, BGA, LGA, PGA über die Frequenz geplottet. Dann kann sich jeder der spekulieren will seine Variante selber zusammenbauen und die Dämpfung einfach addieren :)

Ohne jetzt alles durchzuwühlen: Wieviele Bits bei (ca) welcher Frequenz sind eigentlich für HMC geplant? Ich meine mich an 1024 Bit erinnern zu können.
Das ist immer designspezifisch. So 0815 kannste das nicht sagen. Du musst dafür schon wirklich die Dinge implementieren, da bereits kleine Abweichungen verdammt große Auswirkungen haben können.

Und da für so ein Package ein Mitarbeiter Wochen/Monate dran sitzt, und der sehr gut bezahlt wird, kannste dir vorstellen, wie teuer so was ist. Paar 10k € bis hin zu 100k€ musst du da wohl schon für deine Idee einplanen.

Deswegen wirst du sowas auch nicht zu gesicht bekommen. Zumal das Simulieren von so nem Package mal locker 1-2 Tage dauern kann. Der Designflow ist also nicht wirklich prickelnd...

welchen sinn hätte dies noch, bei spottbilligen 8/16 und bald 32gb modulen? ich denke am arbeitsspeicher scheitert es heute nicht mehr wirklich.
Hast du ne Ahnung :ugly:

Spasstiger
2013-04-03, 14:23:28
Laut den Specs wird der Maximalausbau eines HMCs mit 8 Links zu je 16 Sende- und 16-Empfangslanes erreicht. Also quasi 2*128 Bit Datenbreite, es ist aber kein paralleler Datenbus, sondern funktioniert eher wie mehrere parallele PCI-Express-Interfaces. Für einen größeren Speicherausbau ist ein sogenanntes Chaining vorgesehen, mit dem die Links durch andere HMCs zum Host durchgeschleift werden können. Das erhöht allerdings nicht die Bandbreite.

Es hindert einen natürlich Niemand daran, mehrere HMC-Hosts in seinen Mikroprozessor zu pflanzen. Für High-Performance-GPUs wäre das imo eine denkbare Variante.

Godmode
2013-04-03, 14:31:03
Das denke ich auch. Am Anfang wäre man zb. mit 2 HMCs für eine Highend GPU gut bedient, damit liesen sich dann 320-640GB/s realisieren, wenn man auf Seite 10 schaut. Mehr als 2 HMCs werden wir aber wohl am Anfang nicht sehen, da pro HMC doch einige Pins benötigt werden. Chaining ist wohl eher nur für sehr große Speichermengen interessant.

http://hybridmemorycube.org/files/SiteDownloads/HMC_Specification%201_0.pdf

Wenn ich das richtig sehe, würden die HMCs nicht auf dem PCB sitzen sondern GPU-Die und HMCs auf einem eigenen Ding?

Skysnake
2013-04-03, 14:40:43
geht beides. Stichwort UltraShortRange und ShortRange. Es sind aber bei SR nur wenige Zentimeter spezifiziert. 3" und 5" halt. Genau müsste man das nochmal nachlesen.

Mehr als 10 cm dürften es aber wohl nicht sein, unda da ist man eben dann auch schon sehr begrenzt bzgl der Übertragungsfrequenz.

Godmode
2013-04-03, 14:48:46
Ok.

Ich hab mir jetzt das Ball-Out eines HMCs angesehen und laut dem Dokument hat ein HMC ca. 1050 Balls, das ist schon viel oder? Ein GDDR5 Modul mit 7Gbps hat 170 Balls.

ndrs
2013-04-03, 15:16:25
Und da für so ein Package ein Mitarbeiter Wochen/Monate dran sitzt, und der sehr gut bezahlt wird, kannste dir vorstellen, wie teuer so was ist. Paar 10k € bis hin zu 100k€ musst du da wohl schon für deine Idee einplanen.
Mir ist schon klar, dass das keiner in echt ausprobieren wird. Aber so grobe Erfahrungswerte wären schon mal interessant. Und die sollte es ja geben. Zumindest ein Vergleich in Größenordnungen.
Und ja, ich weiß, dass immer alles "drauf ankommt" und "abhängig von der implementierung ist" :D

Ist mit den 320GB/s eigentlich die addierte Bandbreite in beide Richtungen oder einzeln gemeint? Wenn ich das so überschlage komme ich auf 5 bzw. 10GHz, also die Größenordnung von PCIe3.

Spasstiger
2013-04-03, 15:29:07
320 GB/s sind die Bandbreite in beide Richtungen addiert. Die Datenfrequenz auf einer Leitung liegt nach Spezifikation bei 10-15 GHz, also über PCIe 3.

ndrs
2013-04-03, 15:42:30
Ahja, stimmt ... danke. Da hatte sich ein Faktor 2 bei mir eingeschlichen.

Nightspider
2013-04-03, 17:00:50
Mich würde interessieren, ob man auch "kleine" HMCs in ~2 Jahren in Smartphones finden wird.

Smartphones brauchen auch immer mehr Bandbreite und der Vorteil beim Stromsparen ist sowieso DAS Killerfeature für HMCs in mobilen Geräten.

Und Platzsparender wären die dann vielleicht auch noch. Wenn ich mich nicht irre, wird jetzt sowieso schon der RAM auf den Controller gestapelt, nur eben ohne TSV Technik oder?

Skysnake
2013-04-03, 17:37:52
Mir ist schon klar, dass das keiner in echt ausprobieren wird. Aber so grobe Erfahrungswerte wären schon mal interessant. Und die sollte es ja geben. Zumindest ein Vergleich in Größenordnungen.
Und ja, ich weiß, dass immer alles "drauf ankommt" und "abhängig von der implementierung ist" :D

Das kannst du dann aber so ziemlich in die Tonne treten. Du musst das einfach richtig machen, ansonsten können die Ergebnisse schnell mal um eine ganze Größenordnung daneben liegen.

Mich würde interessieren, ob man auch "kleine" HMCs in ~2 Jahren in Smartphones finden wird.

Davon kann man durchaus ausgehen.

john carmack
2013-04-03, 17:57:02
Mich würde interessieren, ob man auch "kleine" HMCs in ~2 Jahren in Smartphones finden wird.




"...the Hybrid Memory Cube will be in full production at the end of this year or early 2014. In fact, contracts are already in place for the 2014 timeframe."

http://www.hpcwire.com/hpcwire/2013-01-17/micron_readies_hybrid_memory_cube_for_debut.html

Nightspider
2013-04-03, 18:16:58
Und das hat jetzt was genau mit HMCs in Smartphones zu tun? ^^ Schließlich werden keine Desktop HMCs einzug in Mobiltelefone halten. ;)

Zumal man LowPower HMCs mit LPDDR Speicher verwenden würde.

Gipsel
2013-04-03, 18:31:11
Zumal man LowPower HMCs mit LPDDR Speicher verwenden würde.HMC oder auch WideIO2 definiert genau wie (LP/G)DDR2/3/4/5 eine bestimmte Schnittstelle zum Speicher. Das läßt sich also nicht kombinieren.

john carmack
2013-04-10, 12:04:33
hatten wir zwar schon,aber hier noch mal von einer anderen Quelle:

http://www.heise.de/newsticker/meldung/Stapel-Speicher-Hybrid-Memory-Cube-schafft-320-GByte-pro-Sekunde-1834540.html

Spasstiger
2013-04-10, 12:26:00
Ok.

Ich hab mir jetzt das Ball-Out eines HMCs angesehen und laut dem Dokument hat ein HMC ca. 1050 Balls, das ist schon viel oder? Ein GDDR5 Modul mit 7Gbps hat 170 Balls.
Alleine 512 Pads gehen ja schon für die Datenleitungen drauf (je 128 differentielle Sende- und Empfangsleitungspaare). Und dann geht man noch recht großzügig mit den Versorgungsspannungen um.

john carmack
2013-04-13, 14:45:13
Wide I/O2 folgt LPDDR4, DDR4 ab 2014, ab 2016 über 50%
Arbeitsspeichertechnologien zum IDF Spring 2013

http://www.computerbase.de/news/2013-04/arbeitsspeichertechnologien-zum-idf-spring-2013/

john carmack
2013-04-15, 15:52:19
Adoption of DDR4 memory faces delays

"But analysts said that DDR4 will likely take on volume shipments starting in 2015 or 2016, starting in servers followed by client devices like PCs."

http://www.pcworld.com/article/2034175/adoption-of-ddr4-memory-facing-delays.html

john carmack
2013-08-30, 23:43:31
Wide I/O 2, Hybrid Memory Cube (HMC) – Memory Models Advance 3D-IC Standards

http://www.cadence.com/Community/blogs/ii/archive/2013/08/06/wide-i-o-2-hybrid-memory-cube-hmc-memory-models-advance-3d-ic-standards.aspx

Ronny145
2013-09-10, 17:57:24
Neue Folien von der IDF.

http://s14.directupload.net/images/130910/u5ga8nhv.png

http://s14.directupload.net/images/130910/9ys7l66t.png

http://s14.directupload.net/images/130910/pto9uv7b.png

2phil4u
2013-10-10, 10:51:43
Ist zwar schon etwas älter die news, aber Micron verschickt 2 GB Cubes an Partner.
Wie ich hoerte sind die Dinger so gross, wie die GPU von Titan.

Was das wohl kostet ?

Anfangs wahrscheinlich gut 1000 Euro, bin gespannt wann das bezahlbar wird, man stelle sich vor, die Dinger als L4 Cache mh.

http://www.computerbase.de/news/2013-09/micron-liefert-hybrid-memory-cube-mit-160-gb-s-aus/

john carmack
2013-10-10, 13:18:45
Ist zwar schon etwas älter die news, aber Micron verschickt 2 GB Cubes an Partner.
Wie ich hoerte sind die Dinger so gross, wie die GPU von Titan.

Was das wohl kostet ?

Anfangs wahrscheinlich gut 1000 Euro, bin gespannt wann das bezahlbar wird, man stelle sich vor, die Dinger als L4 Cache mh.

http://www.computerbase.de/news/2013-09/micron-liefert-hybrid-memory-cube-mit-160-gb-s-aus/


dann stimmt das ja, das Verträge für 2014 unterschrieben wurden:

"...the Hybrid Memory Cube will be in full production at the end of this year or early 2014. In fact, contracts are already in place for the 2014 timeframe."
http://www.hpcwire.com/hpcwire/2013-01-17/micron_readies_hybrid_memory_cube_for_debut.html


COOL :cool:

john carmack
2013-10-23, 10:13:50
Aktuelle Designs ungeeignet für die Zukunft
Intel sucht den Speicher der nächsten Generation

http://www.computerbase.de/news/2013-10/intel-sucht-den-speicher-der-naechsten-generation/

Hammer des Thor
2013-11-17, 14:52:19
Was mich irritiert, ist dass es wohl bei Desktop-Systemem kein Dual-Channel bei DDR4 mehr geben wird, laut Heise und 3D-Center!
Damit wäre DDR4 2400 langsamer als DDR3 1600 mit Dual-Channel, was soll das bitter sehr?

Naitsabes
2013-11-17, 14:54:44
es gibt keinen dual channel mehr, weil es streng genommen keine Kanäle mehr gibt, sondern die Riegel direkt angesprochen werden ;)

ndrs
2013-11-17, 15:08:29
Naja, man kann es auch so sehen: Du hast genau so viele Kanäle, wie du Speicherriegel verbaust :) Zumindest im Consumer-Bereich. Das Durchschnittliche Mainboard wird also zwei Speicherslots haben, womit die Bandbreite dann im erwarteten Maß steigt.

Gipsel
2013-11-17, 15:28:49
Was mich irritiert, ist dass es wohl bei Desktop-Systemem kein Dual-Channel bei DDR4 mehr geben wird, laut Heise und 3D-Center!
Damit wäre DDR4 2400 langsamer als DDR3 1600 mit Dual-Channel, was soll das bitter sehr?
Du meinst wohl eher, daß man nicht mehr mehrere Speichermodule an einem Kanal nutzen kann. Mehrere Kanäle wird es natürlich weiterhin geben, aber eben immer nur ein Modul pro Kanal. Ist halt wie GDDR5 eine Punkt-zu-Punkt-Verbindung und kein Bus mehr.

Hammer des Thor
2013-11-17, 15:59:50
Naja, man kann es auch so sehen: Du hast genau so viele Kanäle, wie du Speicherriegel verbaust :) Zumindest im Consumer-Bereich. Das Durchschnittliche Mainboard wird also zwei Speicherslots haben, womit die Bandbreite dann im erwarteten Maß steigt.

So wie ich das verstanden haben wird das so nicht sein, die Bandbreite bleibt dann bei 64 bit und wird nicht auf 128 verdoppelt mit einen 2. Modul!
Heute gängie 4-Slot-Mainbords bieten ja bei Vollbestückung auch nich 256 bit Bandbreite an sondern nur 128 bei 2 oder 4 Modulen!

Du meinst wohl eher, daß man nicht mehr mehrere Speichermodule an einem Kanal nutzen kann. Mehrere Kanäle wird es natürlich weiterhin geben, aber eben immer nur ein Modul pro Kanal. Ist halt wie GDDR5 eine Punkt-zu-Punkt-Verbindung und kein Bus mehr.

"Dual-Channel" ist der Marketing-Begriff für 2-Moldul-Kits, mit einen 2. Modul verdoppel ich die Bandbreite auf 128 bit, dass soll m.w. bei DDR4 ausser ber Servern mit ECC entfallen.

Gipsel
2013-11-17, 16:45:30
"Dual-Channel" ist der Marketing-Begriff für 2-Moldul-Kits, mit einen 2. Modul verdoppel ich die Bandbreite auf 128 bit, dass soll m.w. bei DDR4 ausser ber Servern mit ECC entfallen.
Nein, es ist genau andersrum. Du kannst mit DDR4 an einem 64Bit-Controller nur noch genau einen Speicherriegel betreiben. Benutzt Du zwei, benötigst Du automatisch ein Dual-Channel-Controller (2x64Bit), für 3 Module dann schon Triple-Channel und so weiter. Bis DDR3 ist das Speicherinterface ein Bus, man kann also mehrere Speicherriegel an einen Controller hängen. Diese Möglichkeit fällt mit DDR4 weg (da Punkt-zu-Punkt-Verbindung und kein Bus). Die CPU hat also immer genau so viele Speichercontroller, wie es Slots auf dem Board gibt (theoretisch wäre es natürlich möglich, z.B. eine Dual-Channel CPU in ein Quad-Channel-Board zu stecken, aber dann wären 2 Speicherslots schlicht nicht mit der CPU verbunden und tot).

Btw., wenn Du die zwei Module aus einem Dual Channel Kit an eine CPU mit nur Single-Channel-Controller hängst (oder in zwei Slots steckst, die nur an einem einzigen der verbauten Controller hängen), hast Du natürlich keine erhöhte Bandbreite. Merke: Dual-Channel ist eine Funktion des Speichercontrollers (bzw. gibt deren Anzahl an), nicht der Speichermodule, die man da ran hängt.

Hammer des Thor
2013-11-17, 18:23:07
Also, ist das mit den "Dual-Channel-Kits" tatsächlich wiedermal sachich falschen Marketing-Gebubbler!
Ich kann also bei DDR 4 wenn ich beide Slots mit den gleichen Modulen belege auch auf 128 bit verdoppeln?
Dann kann diese beim Aufrüsten wohl nur noch austauchen und nicht weiternutzen!

Konami
2013-11-17, 19:13:27
Also, ist das mit den "Dual-Channel-Kits" tatsächlich wiedermal sachich falschen Marketing-Gebubbler!
Ich kann also bei DDR 4 wenn ich beide Slots mit den gleichen Modulen belege auch auf 128 bit verdoppeln?
Dann kann diese beim Aufrüsten wohl nur noch austauchen und nicht weiternutzen!
Marketing? Naja, klar. Sachlich falsch? Eigentlich nicht. Es ist halt ein Kit, fertig für den Dual-Channel-Betrieb, oftmals auch mit leicht angepassten Timings im Vergleich zu einzeln verkauften Modulen. Weiß nicht wo das Problem ist.

Und ja, mit zwei Riegeln nutzt du weiterhin 128 bit...

Nightspider
2013-11-17, 19:16:02
Hat man also mit 3 Modulen 50% mehr Bandbreite als mit 2 Modulen? Quasi also wie früher Triple-Channel?

Hammer des Thor
2013-11-17, 19:20:17
Marketing? Naja, klar. Sachlich falsch? Eigentlich nicht. Es ist halt ein Kit, fertig für den Dual-Channel-Betrieb, oftmals auch mit leicht angepassten Timings im Vergleich zu einzeln verkauften Modulen. Weiß nicht wo das Problem ist.

Und ja, mit zwei Riegeln nutzt du weiterhin 128 bit...

Gipsel hat doch erklärt, dass es bei DDR2 und DDR3 ein Bus ist wo 2 Module über einen Channel laufen sollen und innerhall diesen die BB auf 128 bit verdoppeln würden, bei DDR4 bräuchte man aber 2 Channel da das kein Bus sei sondern direkt angesprochen würde? :confused:

Konami
2013-11-17, 19:22:20
Hat man also mit 3 Modulen 50% mehr Bandbreite als mit 2 Modulen? Quasi also wie früher Triple-Channel?
Jo, und mit 4 Modulen gleich Quadchannel. Muss natürlich der Prozessor erstmal unterstützen, indem er so viele Speichercontroller hat. Was für Consumer-Skylakes momentan noch unklar ist, soweit ich weiß.

Gipsel hat doch erklärt, dass es bei DDR2 und DDR3 ein Bus ist wo 2 Module über einen Channel laufen sollen und innerhall diesen die BB auf 128 bit verdoppeln würden, bei DDR4 bräuchte man aber 2 Channel da das kein Bus sei sondern direkt angesprochen würde? :confused:
Ja... Warte, was? Innerhalb der Channels die Bandbreite verdoppelt? Herrje, nein... beide Channels parallel zu nutzen verdoppelt die Bandbreite. Ich weiß echt nicht, warum du es dir so kompliziert machst.

http://abload.de/img/art4-2nqum5.jpg

Das hier ist Dual-Channel. Und die dargestellte Möglichkeit fällt mit DDR4 weg. Sprich: ab DDR4 nur noch 1 DIMM pro Channel. Aber weiterhin doppelte/dreifache/vierfache Bandbreite bei parallel genutzten Channels. Alle Klarheiten beseitigt?

Knuddelbearli
2013-11-17, 22:12:54
So wie ich das verstanden haben wird das so nicht sein, die Bandbreite bleibt dann bei 64 bit und wird nicht auf 128 verdoppelt mit einen 2. Modul!
Heute gängie 4-Slot-Mainbords bieten ja bei Vollbestückung auch nich 256 bit Bandbreite an sondern nur 128 bei 2 oder 4 Modulen!



"Dual-Channel" ist der Marketing-Begriff für 2-Moldul-Kits, mit einen 2. Modul verdoppel ich die Bandbreite auf 128 bit, dass soll m.w. bei DDR4 ausser ber Servern mit ECC entfallen.


Nein es ist aktuell genau umgekehrt wie du meinst.

Wenn man 2 Module am selben Channel hat hat man eben kein Dual Channel sondern nur 1 * 64 Bit

man muss die 2 Module auf unterschiedliche Channels aufteilen dann hat man Dual / Multichannel und eben X * 64 Bit

Mit DDR4 kann man dann eben gar nicht mehr mehrere Module an einem Channel betreiben

Deinorius
2013-11-17, 22:23:49
Es sollte jetzt schon kein Problem mehr sein, mit nur 2 DIMM genug RAM für ein System zusammen zu kriegen, aber was ist, wenn jemand 4 DIMM benötigt, aus welchen Gründen auch immer? Sollte ich dann immer davon ausgehen, dass dieser so oder so genug Geld für sein System ausgibt, dass sich dieser auch ein Mainboard und CPU mit Quad-Channel leisten müsste?

Hammer des Thor
2013-11-17, 22:31:01
http://abload.de/img/art4-2nqum5.jpg

Das hier ist Dual-Channel. Und die dargestellte Möglichkeit fällt mit DDR4 weg. Sprich: ab DDR4 nur noch 1 DIMM pro Channel. Aber weiterhin doppelte/dreifache/vierfache Bandbreite bei parallel genutzten Channels. Alle Klarheiten beseitigt?


Bei mir sind aber die Farben zusammen, also 2 weiße zuerst und dann 2 schwarze. Entsprechend stecken auch die beiden Dimms schon nebeneinander drin.
Jetzt habe ich glaube ich verstanden, die Möglichkeit von mehr als 1 Dimm pro Channel erlaubt eine entsprechende Speichererweiterung ohne den alten auszuwechseln.

ndrs
2013-11-18, 00:11:09
Es sollte jetzt schon kein Problem mehr sein, mit nur 2 DIMM genug RAM für ein System zusammen zu kriegen, aber was ist, wenn jemand 4 DIMM benötigt, aus welchen Gründen auch immer?
Dann gibt es immernoch Server-Hardware. Dort wird es auf jeden Fall möglich sein, mehrere Riegel an einen Controller zu hängen. Ich weiß nur grad nichtmehr wie das realisiert wird. Ich meine über spezielle Switches die dann auf dem Board sitzen müssen.
Bei mir sind aber die Farben zusammen, also 2 weiße zuerst und dann 2 schwarze.
Wie dein Boardhersteller die Sachen verdrahtet oder anmalt ist vollkommen willkürlich. Da kann dir nur das Handbuch weiterhelfen.

Nightspider
2013-11-18, 00:13:18
Es sollte jetzt schon kein Problem mehr sein, mit nur 2 DIMM genug RAM für ein System zusammen zu kriegen, aber was ist, wenn jemand 4 DIMM benötigt, aus welchen Gründen auch immer? Sollte ich dann immer davon ausgehen, dass dieser so oder so genug Geld für sein System ausgibt, dass sich dieser auch ein Mainboard und CPU mit Quad-Channel leisten müsste?

Nächstes Jahr dürften bestimmt auch 16GB Module günstig zu haben sein. Mehr braucht man in einem Gamer PC derzeit absolut nicht und sicherlich auch nicht innerhalb der nächsten Jahre. Selbst Star Citizen dürfte 2015 perfekt laufen mit 16GB RAM.

Skysnake
2013-11-18, 00:27:13
Es sollte jetzt schon kein Problem mehr sein, mit nur 2 DIMM genug RAM für ein System zusammen zu kriegen, aber was ist, wenn jemand 4 DIMM benötigt, aus welchen Gründen auch immer? Sollte ich dann immer davon ausgehen, dass dieser so oder so genug Geld für sein System ausgibt, dass sich dieser auch ein Mainboard und CPU mit Quad-Channel leisten müsste?
Du vergisst dabei, dass die DIMMS deutlich an Kapazität zulegen bei DDR4 im Vergleich zu DDR3. ;)

Du kannst also mit 2 DDR4 Modulen genau so viel RAM, oder gar mehr haben als mit 4 DDR3 Modulen ;)

Dann gibt es immernoch Server-Hardware. Dort wird es auf jeden Fall möglich sein, mehrere Riegel an einen Controller zu hängen. Ich weiß nur grad nichtmehr wie das realisiert wird. Ich meine über spezielle Switches die dann auf dem Board sitzen müssen.

Eigentlich sehen dass die Specs nicht vor, aber Intel will wohl sowas wirklich machen. Im Prinzip ist das aber nur für Systeme ähnlich zu Westemere-EX interessant/wichtig.

Das wird nichts sein, was man auf 0815 Boards finden wird, und selbst im Serverumfeld eher die Ausnahme sein.

Deinorius
2013-11-18, 00:56:44
Du vergisst dabei, dass die DIMMS deutlich an Kapazität zulegen bei DDR4 im Vergleich zu DDR3. ;)


Nein, das vergesse ich nicht. Das schreibe ich ja in meinem ersten Teilsatz. Ich sehe ja jetzt schon, dass 16 GB Kits für die Menge bezahlbar sind. Und mehr brauchen mit 2 DIMM sicher nur irgendwelche Spezialfälle. Mich hat im Grunde nur interessiert, dass man im Grunde schon von vornherein eher wissen sollte, wieviel RAM man braucht. Denn wenn man aufrüsten muss, müssen die eingebauten weg. Aber durch die mittlerweile hohe Menge an RAM sollte das, wie im ersten Teilsatz geschrieben, kein Problem für die meisten sein.
Und was bei der Server-Hardware gemacht wird, interessiert mich nur proforma halber, sehen wir dann.

Skysnake
2013-11-18, 10:55:51
Ja RAM-Kapazität hat sich für den Heimanwender völlig erledigt im Prinzip als Thema. Vielleicht mit dem Start der NextGen Konsolen und endlich mal massenhaft nativen x64 APs, werden Leute mit 4GB RAM wohl sich nochmal ums Aufrüsten auf 8 GB kümmern müssen, aber ich kann mir nicht so ganz vorstellen, dass sich Leute mit 8GB RAM demnächste Gedanken machen müssen. Und selbst wenn, 16GB mit DDR4 werden wohl der Standard werden.

Ich bin aber mal gespannt, wie sich die Preise der 64+GB DDR4 RAMS entwickeln. Nen Bekannter würde sich sicherlich freuen, wenn er relativ günstig 2TB+ RAM bekommen würde in naher Zukunft. Astro hat so verdammt große Datensätze ;D

Botcruscher
2013-11-18, 12:42:08
Bei zwei möglichen DIMM und 16GB pro Riegel sind das großartige 32GB für das Jahr 2015 und darüber hinaus.
Da besteht ja dann echt bedarf für noch größere Riegel.

ndrs
2013-11-18, 13:18:42
Ich glaub, wer mehr RAM wirklich braucht, profitiert auch von ner Quadchannel-Plattform.

Skysnake
2013-11-18, 14:25:41
Ach es soll ja auch 128/256 GB DIMMs geben :biggrin: Nagel mich auf die 256GB bitte nicht fest, aber 128er sollte es relativ bald geben.

Ich glaub nen viertel/halbes TB an RAM wird mehr als ausreichen für den Heimbereich auch über Jahre hinweg ;)

Deinorius
2013-11-18, 15:29:54
Ich glaub, wer mehr RAM wirklich braucht, profitiert auch von ner Quadchannel-Plattform.


Würde ich nah mal stark behaupten. Wer dann auch soviel Geld für RA RAM ausgibt, kann sich auch das entsprechende Mainboard mit Quad-Channel leisten.

Nakai
2013-12-23, 17:41:14
Weils in einem anderen Thread gepostet wurde:
http://www.pcgameshardware.de/RAM-Hardware-154108/News/Partnerschaft-AMD-SK-Hynix-Entwicklung-3D-DRAM-HBM-verkuendet-1101960/

Soso, also zwei Varianten:
- Eine Version für Hauptspeicher
- Eine Version für Network und GPUs

Mal gucken, wann wir APUs von AMD sehen, welche diesen Speicher unterstützen oder "beinhalten".


mfg


€: Ich denke auf mittlerer oder langer Sicht, wird der Speicher ins Package wandern um Kosten und Platz zu sparen. Mit 3DS wär das möglich. Dazu müsste AMD ein geeignetes Package anbieten, was ich derzeit nur im LowCost-Bereich sehe(Kabini und Co.). Wird interessant...

Botcruscher
2013-12-23, 18:25:20
Dazu müssten CPU/GPU erst mal zu einer voll programmierbaren APU zusammen wachsen und für normale Software nutzbar sein. Für integrierte Grafik ist es einfach Perlen für die Säue. Von unbrauchbar unendlich zu langsam auf viel zu langsam bringt niemandem was. Eine zuschaltbare Grafikkarte wird immer die bessere Wahl sein.
Bin mal gespannt ob wir vor 2017 überhaupt noch große Verbreitung von Speicherstapeln sehen.

Nightspider
2014-01-03, 22:20:28
Gibt es denn irgendwo Infos bzw. gehen Spekulationen in eine bestimmte Richtung, wo Microns erste HMC dieses Jahr verbaut werden?

Intel und Micron arbeiten ja oft eng zusammen und produzierten auch zusammen Flash-Speicher, wenn ich mich nicht irre. Wäre es nicht denkbar, das Intel die ersten HMC bekommt und diese vllt schon im Herbst auf die neuen Iris Pro Modelle der 14nm Generation steckt?

Wobei Intel ja letztes Jahr davon sprach, auch dieses Jahr noch den gleichen 128MB eDRAM zu verwenden und wenn Intel dieses Jahr wirklich schon HMC verbauen würde, hätten wir sicherlich schon etwas davon gelesen.

Zumindest startet dieses Jahr die Massenproduktion von HMCs und irgendwo müssen dieses ja verbaut werden. Vorschläge? :)

ndrs
2014-01-04, 00:39:32
Für die Iris Pro sagte Intel sinngemäß ja folgendes:
Haswell GT3 braucht 32MB, Broadwell GT4 dann das doppelte und wir verdoppeln nochmal um sicherzugehen.

Wenn sie also die Pläne nicht verworfen haben, bleibt der eDRAM-Die unangetastet. Ich meine allerdings im Zusammenhang mit Knights Landing/Ferry (oder welcher das auch immer war) was von stacked RAM gelesen zu haben.

Skysnake
2014-01-04, 00:46:44
Das wird aber 2015, genau wie bei nVidia mit Volta.

john carmack
2014-02-26, 08:27:30
Datenraten von bis zu 30 Gbit/s
Spezifikation 2.0 für „Hybrid Memory Cube“ angekündigt

http://www.computerbase.de/news/2014-02/spezifikation-2.0-fuer-hybrid-memory-cube-angekuendigt/

Mandalore
2014-02-26, 12:29:54
Ist HBM und HMC dasselbe???


Dieses Wide IO 2 (und 1) ist jetzt für den mobilen Bereich gedacht oder? Habe mir ne Folie von JEDEC angeshaut, und da wurde es unter Mobile Devices eingeordnet wenn ich mich recht erinnere.

Unicous
2014-07-14, 16:04:47
HBM ist jetzt laut SK hynix übrigens in der "Graphics Memory" Sparte (Q3'14) verfügbar:

https://www.skhynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/Databook_3Q%272014_GraphicsMemory.pdf


http://i.imgur.com/sRZ7esy.jpg

Akkarin
2014-07-14, 17:54:30
HBM ist on package und wird nicht auf den die gestacked, oder ?

Unicous
2014-07-14, 18:26:54
HBM ist on package und wird nicht auf den die gestacked, oder ?

In der Gen1 wird es sicherlich nur on package sein (also 2.5D). Aber später dürfte meines Erachtens nichts gegen 3D Stacking sprechen. Größtes Problem ist ja, die Wärme abzuführen.

Akkarin
2014-07-14, 18:44:23
Wenn man RAM eh on-die hat, wie viele leitungen müsste man dann noch raus führen ? Könnte man den RAM dann auch "unter" den die legen alles über TSV raus führen ?

Unicous
2014-07-14, 18:59:27
Theoretisch möglich? Na klar. Aber es scheitert wie so oft an der praktischen Durchführung. Das ist natürlich noch mal etwas komplizierter als den schnöden RAM einfach oben drauf zu pappen.

http://www.i-micronews.com/upload/Micronews/images/Intel_3DIC_TSV.jpg
http://www.i-micronews.com/news/Intel-readies-Tera-Scale-computing-using-Through-Silicon-Via,694.html

Edit:

Das Bild ist übrigens schon mehrere Jahre alt.

ndrs
2014-07-14, 20:03:33
Theoretisch möglich? Na klar. Aber es scheitert wie so oft an der praktischen Durchführung. Das ist natürlich noch mal etwas komplizierter als den schnöden RAM einfach oben drauf zu pappen.
Und vom Routing her wahrscheinlich auch unlogisch. Der Speicher redet nur mit dem Prozessor, braucht also eigentlich keine Verbindung zum Package/Board (außer das bisschen Stromversorgung). Der Prozessor hingegen braucht noch seine PCIe-Links zum Chipssatz, Displayausgänge, benötigt deutlich mehr Strom und wenn es ein SoC ist, kommt noch der ganze Rest an I/O dazu.

Unicous
2014-07-14, 20:17:45
Genau das macht es ja kompliziert. Aber der Vorteil wäre eben, dass du einen HS an den Hauptprozesser pappen und so die wärmebedingten Beschränkungen umgehen kannst.

http://edagraffiti.com/wp-content/uploads/2011/01/ibm3d.jpg
https://www.semiwiki.com/forum/f142/ieee-international-3d-system-integration-conference-395.html


Das Department of Energy in den USA hatte im letzten Jahr einen Auftrag für Exascale-Prozessoren an mehrere Unternehmen (AMD, IBM, Intel, Nvidia) vergeben. HBM/HMC ist da auch ein großes Thema.

https://asc.llnl.gov/fastforward/

bzw. hier gibt es .pdfs zu den Präsentationen

https://asc.llnl.gov/fastforward/vendor-news.php

Godmode
2014-08-25, 22:35:37
Was ist eigentlich mit GDDR6, ist da irgendwas in der Mache? 2012 hieß es ja noch, dass 2014 Grafikkarten mit GDDR6 Speicher kommen werden, aber momentan findet man zu GDDR6 rein gar nichts. GDDR6 wird ja auf DDR4 basieren, oder? Oder kommen die On-Package, bzw. On-Die Lösungen sogar noch früher, was dann GDDR6 wieder eher uninteressant erscheinen lässt?

Unicous
2014-08-25, 22:48:11
GDDR6 ist nicht nur MIA es scheint komplett tot zu sein. JEDEC hat keine Spec veröffentlicht und Nvidia, AMD und Intel konzentrieren sich auf HMC/HBM.

Godmode
2014-08-26, 09:35:08
GDDR6 ist nicht nur MIA es scheint komplett tot zu sein. JEDEC hat keine Spec veröffentlicht und Nvidia, AMD und Intel konzentrieren sich auf HMC/HBM.

Ok, so etwas hab ich mir fast gedacht, weil man überhaupt nichts davon hört.

Unicous
2014-09-08, 17:10:38
JEDEC Publishes Wide IO 2 Mobile DRAM Standard (http://www.techpowerup.com/204994/jedec-publishes-wide-io-2-mobile-dram-standard.html)

Da haben wir vllt. unseren GDDR5M Nachfolger.:biggrin:

krötenfresse
2014-12-01, 12:07:40
kommt gddr6 dann jetzt gar nicht mehr, oder kommt es bei low-end-karten zum einsatz?

Knuddelbearli
2014-12-01, 12:10:25
wird wohl nicht kommen da es auch nicht so einfach ist da ddr4 ja bereits gesteigerte Taktraten und eine ende zu ende übertragung hat. Und das waren ja die Vorteile von GDDR gegenüber DDR

Thunder99
2014-12-01, 12:44:35
DDR4 wird aber nicht die Bandbreite von GDDR5 erreichen. Daher denke ich schon das GDDR6 kommen wird sofern HBM und co nicht durchsetzt

Nakai
2014-12-01, 12:51:33
Es war kurzzeitig GDDR5M als Zwischending zwischen GDDR5 und HBM gedacht. Dieser war auch irgendwie mit DDR4 kompatibel(x8 Anbindung möglich) und man würde dadurch deutlich höhere Speicherdichten erreichen.

Aber irgendwie findet man nichts mehr im Netz...

john carmack
2014-12-02, 10:01:17
DDR4 wird aber nicht die Bandbreite von GDDR5 erreichen. Daher denke ich schon das GDDR6 kommen wird sofern HBM und co nicht durchsetzt


Warum sollte sich HBM nicht durchsetzen?

GDDR6 habe ich zumindest noch auf keiner Roadmap gesehen...
HBM dagegen schon auf recht vielen ;)

Locuza
2014-12-02, 10:24:57
Aber irgendwie findet man nichts mehr im Netz...
Das letzte was ich dazu gelesen habe war, dass es gescheitert ist.
Wahrscheinlich ist am Ende kein Hersteller darauf aufgesprungen und es ist einfach unter die Räder gekommen.

Nakai
2014-12-02, 22:14:28
Das letzte was ich dazu gelesen habe war, dass es gescheitert ist.
Wahrscheinlich ist am Ende kein Hersteller darauf aufgesprungen und es ist einfach unter die Räder gekommen.

Naja die Bandbreite hätte GDDR5M eher nicht so übertrumpft, dafür wäre das Volumen pro 32Bit Kanal verdoppelt worden. GDDR5M hätte auch 8x Modus unterstützt.

Ich hoffe AMD bringt bald den ersten HBM-Chip auf den Markt. Ich bin schon sehr gespannt.

john carmack
2015-03-19, 08:18:23
Hi Leute,

ok es passt jetzt hier vielleicht nicht ganz rein, aber weiß jemand wie weit man mit der Entwicklung von nichtflüchtigem RAM ist... Ich habe noch PRAM und MRAM oder so ähnlich im Kopf?

Davon hab ich schon vor 10 Jahren gehört, aber wirklich Zählbares gibt es wohl noch nicht...?!
So wirklich handfestes findet man im Netz nun auch nicht dazu.

Jetzt kommt wohl erst mal HBM/HMC

dildo4u
2015-11-26, 18:21:48
Laut Nvidia wird HBM schnell zur Sackgasse.


http://i.imgur.com/pD249za.jpg?1

http://wccftech.com/nvidia-pascal-volta-gpus-sc15/

Godmode
2015-11-26, 18:25:25
Das haben wir gestern im Pascal Thread diskutiert. Bis Volta sollte es noch einigermaßen erträglich sein, ab dann muss aber was neues, deutlich energieeffizienteres her.

Unicous
2015-11-26, 18:36:37
Da steht doch nur, dass sie Probleme haben die Bandbreite ins Unendliche zu erhöhen bzw. es dann Probleme bei der Leistungsaufnahme gibt. Sollte einem ja irgendwie bekannt vorkommen diese Situation.;)

Solange Nvidia keine Lösungsansätze anbietet empfinde ich das als unnötiges fearmongering.

Nightspider
2015-11-26, 18:40:56
Selbst 1500GB/s werden noch Ewigkeiten reichen.

Die Leistungsverdopplung bei Grafikkarten findet jetzt eh nur noch aller 3 Jahre statt mit Tendenz zu 4 Jahren. 10nm und darunter werden eh massive Probleme machen und in Moment reichen sogar noch 500GB/s.

Godmode
2015-11-26, 18:53:56
Selbst 1500GB/s werden noch Ewigkeiten reichen.

Die Leistungsverdopplung bei Grafikkarten findet jetzt eh nur noch aller 3 Jahre statt mit Tendenz zu 4 Jahren. 10nm und darunter werden eh massive Probleme machen und in Moment reichen sogar noch 500GB/s.

Für 3D hast du recht, für HPC allerdings nicht.

AnarchX
2015-12-05, 11:59:37
0.22ns - 9Gbps GDDR5 bei Samsung als Sample erhältlich?
http://www.samsung.com/semiconductor/products/dram/graphic-dram/gddr5-component/K4G41325FE?ia=759

Spasstiger
2015-12-07, 23:12:16
Nach der NV-Prognose haben wir mit HBM 2 und 1,2 TB/s wieder die Leistungsaufnahme der aktuellen GDDR5-Spitze mit knapp 400 GB/s erreicht. Aber das entspricht ja der Aussage von AMD, dass HBM dreimal so effizient sei wie GDDR5.
Wie auch immer, HBM muss ebenso eine Evolution mitmachen wie GDDR5, sonst ist nach zwei GPU-Generationen mit HBM schon wieder die Situation wie aktuell mit GDDR5 erreicht.
NV hätte das Diagramm auch positiv darstellen können von wegen wir können weitere zwei Generationen lang aufatmen und wir haben das Problem vertagt.

Nightspider
2015-12-09, 01:50:44
Das ist jetzt leicht OT aber die Frage brennt mir gerade auf der Seele:
Kommt man irgendwo im Netz an einzelne GDDR5 Chips heran zum bestellen?

Wenn man in kleiner Stückzahl 9gbps Chips bekommen könnte könnten doch die Weltrekordjäger bei Benchmarks (welche gesponsert werden) ihre Grafikkarten umlöten lassen und zB. auf ihre GTX980ti oder Titan Karten 9gbps Chips löten lassen. BGA Chips austauschen zu lassen ist schließlich kein Hexenwerk heutzutage.

Novum
2015-12-09, 02:20:21
Für 3D hast du recht, für HPC allerdings nicht.
3D und HPC Workloads sind sehr aehnlich. Kannst du das besser erklaeren?

Ailuros
2015-12-09, 08:13:24
3D und HPC Workloads sind sehr aehnlich. Kannst du das besser erklaeren?

Pascal soll 4 TFLOPs DP/1TB haben und Volta 7 TFLOPs DP/1.2TB. Entweder Pascal hat zu viel Bandbreite fuer seine DP Rate oder Volta zu wenig.

mboeller
2015-12-09, 09:05:30
Laut Nvidia wird HBM schnell zur Sackgasse.


http://i.imgur.com/pD249za.jpg?1

http://wccftech.com/nvidia-pascal-volta-gpus-sc15/

Was hat der Verbrauch mit HBM zu tun? ... richtig NICHTS!

Wenn du dir den Slide von Nvidia genau anschaust dann benötigen die Speicherbänke selbst (Column-Power; ROW-Power) das meiste. Das HBM-Interface (in rot) verschwindet dagegen regelrecht weil der Strombedarf dafür so klein ist.

IMHO typische Nvidia Schmutzkampagne weil sie HBM nicht selbst gebracht haben oder einfach nur schlechter Journalismus.

Godmode
2015-12-09, 09:14:33
Das ist jetzt leicht OT aber die Frage brennt mir gerade auf der Seele:
Kommt man irgendwo im Netz an einzelne GDDR5 Chips heran zum bestellen?

Wenn man in kleiner Stückzahl 9gbps Chips bekommen könnte könnten doch die Weltrekordjäger bei Benchmarks (welche gesponsert werden) ihre Grafikkarten umlöten lassen und zB. auf ihre GTX980ti oder Titan Karten 9gbps Chips löten lassen. BGA Chips austauschen zu lassen ist schließlich kein Hexenwerk heutzutage.

Fraglich ob das soviel bringt. IIRC limitiert ja auch der Speichercontroller noch höhere Taktraten und diesen kann man leider nicht austauschen, da dieser in der GPU sitzt.

Was hat der Verbrauch mit HBM zu tun? ... richtig NICHTS!

Wenn du dir den Slide von Nvidia genau anschaust dann benötigen die Speicherbänke selbst (Column-Power; ROW-Power) das meiste. Das HBM-Interface (in rot) verschwindet dagegen regelrecht weil der Strombedarf dafür so klein ist.

IMHO typische Nvidia Schmutzkampagne weil sie HBM nicht selbst gebracht haben oder einfach nur schlechter Journalismus.


HBM besteht aber aus den Chips+Interface, dass kann man jetzt nicht einfach trennen.

Wer hier eine Schmutzkampagne sieht, sollte sich vielleicht erstmal den Vortag anhören.

http://wccftech.com/nvidia-pascal-volta-gpus-sc15/


On further explaining the next generation GPU architectures and efficiency, Stephen pointed out that HBM is a great memory architecture which will be implemented across Pascal and Volta chips but those chips have max bandwidth of 1.2 TB/s (Volta GPU). Moving forward, there exists a looming memory power crisis. HBM2 at 1.2 TB/s sure is great but it adds 60W to the power envelope on a standard GPU. The current implementation of HBM1 on Fiji chips adds around 25W to the chip. Moving onwards, chips with access of 2 TB/s bandwidth will increase the overall power limit on chips which will go from worse to breaking point. A chip with 2.5 TB/s HBM (2nd generation) memory will reach a 120W TDP for the memory architecture alone, a 1.5 times efficient HBM 2 architecture that outputs over 3 TB/s bandwidth will need 160W to feed the memory alone.

This is not the power of the whole chip mentioned but just the memory layout, typically, these chips will be considered non-efficient for the consumer and HPC sectors but NVIDIA is trying to change that and is exploring new means to solve the memory power crisis that exists ahead with HBM and higher bandwidth. In the near future, Pascal and Volta don’t see a major consumption increase from HBM but moving onward in 2020, when NVIDIA’s next gen architecture is expected to arrive, we will probably see a new memory architecture being introduced to solve the increased power needs.

Botcruscher
2015-12-09, 12:44:51
Wer hier eine Schmutzkampagne sieht, sollte sich vielleicht erstmal den Vortag anhören.

Dann verstehe ich eigentlich nicht warum es so hochgespielt wird. Chips hängen an der Fertigung und wir wissen, dass die beschissen läuft. Für Grafikchips ist absehbar mehr als genug Bandbreite da. Bei HPC sieht es anders aus aber da muss dann eben entsprechend Geld fließen und mal richtig optimiert werden. Der HPC Bereich dürfte enormes Optimierungspotential bei der Hard und Software haben.
So wie es jetzt aussieht wird die Fertigung zu teuer, lange bevor die Bandbreite ausgeht. Der HBM ist ein Schritt und womöglich sehen wir danach wirklich 3D Chips.

Ailuros
2015-12-09, 13:20:50
Dann verstehe ich eigentlich nicht warum es so hochgespielt wird.

Ein einziger daemlicher slide ist keine Hochspielung per se, ausser man will wirklich jeglichen Furz auf einen Blitz-sturm zuechten.

Chips hängen an der Fertigung und wir wissen, dass die beschissen läuft.

HBM ist aber im Gegensatz weder ein Allerheilmittel noch kommt jegliche Skalierung auch hier nicht umsonst.

Für Grafikchips ist absehbar mehr als genug Bandbreite da.

Jegliche Grafik-einheit wird nie wirklich "genug" Bandbreite haben.

Bei HPC sieht es anders aus aber da muss dann eben entsprechend Geld fließen und mal richtig optimiert werden. Der HPC Bereich dürfte enormes Optimierungspotential bei der Hard und Software haben.

....und wie "optimiert" man Deiner Meinung nach dass N TFLOPs DP um zich Mal weniger Bandbreite brauchen als bisher?

Wenn NVIDIA bzw. IHVs kurzfristig irgendwann mit dedizierten HPC only chips antanzen ist das Problem teilweise erstmal geloest, aber bis zu dem Zeitpunkt wo IHVs wie NV sowohl fuer HPC als auch fuer 3D im high end entwickeln muesen, kann es durchaus zum Kopfschmerz werden.

So wie es jetzt aussieht wird die Fertigung zu teuer, lange bevor die Bandbreite ausgeht. Der HBM ist ein Schritt und womöglich sehen wir danach wirklich 3D Chips.

Alles was NV mit dem slide andeuten wollte ist dass IHVs wie sie und AMD den hohen HBM Stromverbrauch der Zukunft durch die Entwicklung effizienterer Speichercontroller dafuer loesen werden.

Die Fertigung ist schon heute suendhaft teuer fuer alles FinFETs, das hat aber bis jetzt ueberhaupt keine Entwicklung unter solchen Prozessen aufgehalten und schon gar nicht fuer high end smartphone SoCs wie Exynos 7420 bzw. Apple A9, A9X.

Botcruscher
2015-12-09, 14:30:01
Smartphone SoCs sind doch eine ganz andere Geschichte. Die Dinger sind im Vergleich winzig, billig und die Bandbreite ist ein Witz. Die von Intel prognostizierten 4x Kosten für die gleiche Chipfläche bei 5nm werden auch in dem Bereich richtig Wirkung zeigen.

Skysnake
2015-12-09, 18:36:33
Pascal soll 4 TFLOPs DP/1TB haben und Volta 7 TFLOPs DP/1.2TB. Entweder Pascal hat zu viel Bandbreite fuer seine DP Rate oder Volta zu wenig.
Jedweder Chip hat an sich zu wenig, sofern Sie unter Flops*3 liegt, was bei jedem Chip seit wohl Jahrzehnten der Fall ist.

Läuft auch unter Memory-gap, aber das weißt du ja.


Jegliche Grafik-einheit wird nie wirklich "genug" Bandbreite haben.

Und für GPGPU im Prinzip auch nicht, denn man hat immer Probleme denen Caches Null nutzen...

Je weniger Bandbreite hat, desto weniger Probleme kann man halt vernünftig lösen, genau wie auf CPU, und GPUs leiden schon eh immer stark an mangelnder Bandbreite. Etwas entgegenwirken kann man mit mehr Cache, aber das ist halt immer so eine Sache, entweder es hilft, oder eben nicht.


....und wie "optimiert" man Deiner Meinung nach dass N TFLOPs DP um zich Mal weniger Bandbreite brauchen als bisher?

Wie bisher auch, man sucht sich "neue" Vorzeigepropleme, die eben einifach weniger Bandbreite pro Flop brauchen :freak:

Und wenns jemandem auffällt, dann kommt einfach ein "deal with it!"


Wenn NVIDIA bzw. IHVs kurzfristig irgendwann mit dedizierten HPC only chips antanzen ist das Problem teilweise erstmal geloest, aber bis zu dem Zeitpunkt wo IHVs wie NV sowohl fuer HPC als auch fuer 3D im high end entwickeln muesen, kann es durchaus zum Kopfschmerz werden.

Glaub ich nicht dran, denn Memory Bandbreite ist teuer, man kann also nicht ganz so effiziente Chips bauen. Das mag das Marketing nicht. Scheis doch drauf, dass die Dinger eh schon fast nie wirklich ausgefahren werden können, weil MemoryBandbreite fehlt....

Für Linpak oder sonst was, wird man schon die Dinger ausfahren können, also große Zahlen generieren für das Marketing, auf mehr scheint es ja heutzutage nicht mehr anzukommen.....:mad:

Ailuros
2015-12-09, 20:06:25
Smartphone SoCs sind doch eine ganz andere Geschichte. Die Dinger sind im Vergleich winzig, billig und die Bandbreite ist ein Witz. Die von Intel prognostizierten 4x Kosten für die gleiche Chipfläche bei 5nm werden auch in dem Bereich richtig Wirkung zeigen.

Ein A9 ist knapp ueber 100mm2 gross ergo so gross wie die meistverkauften GPU chips jeglicher Generation und dazu in Volumen wovon NV nur noch traeumen kann. Du darfst gerne glauben dass Apple weniger in Herstellung pro Jahr ausgiebt, aber es bleibt nach wie vor verdammt naiv.

Nach dem Zeug hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10658173&postcount=1226

...sind die Herstellungskosten in letzten Jahren um einiges mehr gestiegen und trotzdem hat es weder die Entwicklung bzw. die Groesse der chips egal in welchem Markt bis jetzt beinflusst.

Ein A9X im iPad PRO unter 16FF hat als SoC fast so viel Transistoren wie ein heutiger performance GPU chip. Ist zwar kein Ereignis gegen die 17Mrd. eines Pascal, aber zu behaupten das ungefaehr ein Viertel davon "winzig" ist ist schon fahrlaessiger Duennschiss; wenn man jetzt auch nocht "billig" mitbedenkt wird es schon um einiges wahnwitziger.

Jedweder Chip hat an sich zu wenig, sofern Sie unter Flops*3 liegt, was bei jedem Chip seit wohl Jahrzehnten der Fall ist.

Läuft auch unter Memory-gap, aber das weißt du ja.

Musst Du mir nicht erzaehlen. 20% mehr Bandbreite fuer 75% mehr DP throughput schreit einfach nur so an zu wenig Bandbreite.

Und für GPGPU im Prinzip auch nicht, denn man hat immer Probleme denen Caches Null nutzen...

Je weniger Bandbreite hat, desto weniger Probleme kann man halt vernünftig lösen, genau wie auf CPU, und GPUs leiden schon eh immer stark an mangelnder Bandbreite. Etwas entgegenwirken kann man mit mehr Cache, aber das ist halt immer so eine Sache, entweder es hilft, oder eben nicht.

IMHO gibt es bei 3D schon noch genug "low hanging fruit" Bandbreite zu sparen fuer so manches dort draussen. Fuer DP muss mir etwas entgehen; entweder man hat die benoetigte Bandbreite oder die tollen 7 TFLOPs DP glaenzen eigentlich nur noch auf Papier am Ende.

Wie bisher auch, man sucht sich "neue" Vorzeigepropleme, die eben einifach weniger Bandbreite pro Flop brauchen :freak:

Und wenns jemandem auffällt, dann kommt einfach ein "deal with it!"

Glaub ich nicht dran, denn Memory Bandbreite ist teuer, man kann also nicht ganz so effiziente Chips bauen. Das mag das Marketing nicht. Scheis doch drauf, dass die Dinger eh schon fast nie wirklich ausgefahren werden können, weil MemoryBandbreite fehlt....

Für Linpak oder sonst was, wird man schon die Dinger ausfahren können, also große Zahlen generieren für das Marketing, auf mehr scheint es ja heutzutage nicht mehr anzukommen.....:mad:

Jedesmal wenn AMD und NVIDIA einen fundamental neuen memory controller entwickeln muessen hapert es meistens beim ersten Versuch. Fall es nicht dazu kommt fehlte eher die Zeit oder engineering auf der einen oder beiden Seiten haben einfach mal wieder eine Gurke entwickelt. Von solchen Wehwehchen ist kein IHV immun auch Intel nicht.

Godmode
2015-12-09, 20:14:47
Jedweder Chip hat an sich zu wenig, sofern Sie unter Flops*3 liegt, was bei jedem Chip seit wohl Jahrzehnten der Fall ist.

Läuft auch unter Memory-gap, aber das weißt du ja.


Der Speicher wird früher oder später auf den Die gestackt werden, bzw. noch besser in den Die Integriert werden. Alles andere sind nur Kompromisse, die eingegangen werden, weil die Fertigung noch nicht so weit ist. Mal sehen was sie bis 2020 zusammenbringen, davor braucht man jedenfalls nicht damit rechnen.

Ailuros
2015-12-09, 20:18:47
Der Speicher wird früher oder später auf den Die gestackt werden, bzw. noch besser in den Die Integriert werden. Alles andere sind nur Kompromisse, die eingegangen werden, weil die Fertigung noch nicht so weit ist. Mal sehen was sie bis 2020 zusammenbringen, davor braucht man jedenfalls nicht damit rechnen.

Ich lass mich gerne eines besseren belehren, aber fuer IHVs wie NVIDIA die immer am oberen Rand eines jeglichen Prozesses entwickeln wohl nicht die beste Idee den Speicher zu integrieren.

Spasstiger
2015-12-10, 00:06:59
Jedweder Chip hat an sich zu wenig, sofern Sie unter Flops*3 liegt, was bei jedem Chip seit wohl Jahrzehnten der Fall ist.

Die Caches haben die nötige Bandbreite.
Bei doppelter Genauigkeit bräuchtest du übrigens für Peak-Auslastung 8 Bytes pro Flops. Dass diese Bandbreite von den L1-Caches moderner CPUs gestellt wird, bezweifle ich allerdings auch.

Nakai
2015-12-10, 01:04:52
HBM ist eine Zwischenlösung bis zum richtigen 3D-Stacking. Und klar ist diese Technik irgendwann auch am Ende. Aber das dauert noch. Im Grunde ist man bei HBM durch den Interposer limitiert. Da das Reticle-Limit bei Interposer keine Rolle spielt, jedenfalls wurde das von AMD erwähnt, afair.

8 HBMs und niedrigere Taktraten...man kann jede Technologie ausreizen. :freak::freak::freak:

Novum
2015-12-10, 01:11:27
Die Caches haben die nötige Bandbreite.
Bei doppelter Genauigkeit bräuchtest du übrigens für Peak-Auslastung 8 Bytes pro Flops. Dass diese Bandbreite von den L1-Caches moderner CPUs gestellt wird, bezweifle ich allerdings auch.
Double hat auf CPUs den halben Durchsatz, ich versteh nicht warum das ein Problem sein soll?

Godmode
2015-12-10, 09:48:21
HBM ist eine Zwischenlösung bis zum richtigen 3D-Stacking. Und klar ist diese Technik irgendwann auch am Ende. Aber das dauert noch. Im Grunde ist man bei HBM durch den Interposer limitiert. Da das Reticle-Limit bei Interposer keine Rolle spielt, jedenfalls wurde das von AMD erwähnt, afair.

8 HBMs und niedrigere Taktraten...man kann jede Technologie ausreizen. :freak::freak::freak:

Dh. mann könnte auch 10x10cm Interposer fertigen? Weiß man was der Interposer von Fiji kostet?

Spasstiger
2015-12-10, 13:22:00
Man kann eine GPU/CPU auf mehrere Interposer setzen, Stichwort Stitched Interposer. Jeder Interposer setzt dann z.B. vier HBM-Interfaces mit vier HBM-Modulen um.

mksn7
2015-12-10, 13:44:17
Bei doppelter Genauigkeit bräuchtest du übrigens für Peak-Auslastung 8 Bytes pro Flops. Dass diese Bandbreite von den L1-Caches moderner CPUs gestellt wird, bezweifle ich allerdings auch.

Es ist schon einigermaßen ausgeglichen, Intel hat die L1 Cache load/store raten schon an die exeuction units angepasst.

Haswell kann 2x 32Byte = 2x 256Bit AVX Register vom L1 Cache pro Takt laden und 1x 32byte = 1x AVX Register schreiben. Also zwei Vektorloads, ein Vektorstore gegenüber zwei Vektor-FMA.

Die meisten Streamkernel sind aber schon load/store bound. Der Schoenauer Vectortriad (A[i] = B[i] + C[i] * D[i]) wäre load bound (1FMA, 3 loads, 1 store = 1/3 der maximalen Leistung). Ein Scale Kernel (A[i] = B[i] * c, 1 Load, 1 Store, 1 Multiplikation) ist dann Store bound (Hälfte der maximanlen Leistung).

Die Streamkernel sind aber auch schon das Extrembeispiel für Memory starved kernels. Stencilkernels verhalten sich ähnlich, für lang genuge Stencils ist aber die Load-rate ~ Add-rate. Bei so memory intensiven Sachen passsen die Sachen sowieso meist nicht in den L1, dann hängts an L2/L3/memory.

Botcruscher
2015-12-10, 13:58:11
Ein A9X im iPad PRO unter 16FF hat als SoC fast so viel Transistoren wie ein heutiger performance GPU chip. Ist zwar kein Ereignis gegen die 17Mrd. eines Pascal, aber zu behaupten das ungefaehr ein Viertel davon "winzig" ist ist schon fahrlaessiger Duennschiss; wenn man jetzt auch nocht "billig" mitbedenkt wird es schon um einiges wahnwitziger.

Was soll eigentlich der "wahnwitzige" "Duennschiss"-Vergleich mit dem A9?! Ja das Ding ist aus Sicht der Speicheranbindung winzig und billig. Die Gurke hat 25GB/s. Der A9X soll laut Wiki auf 51 bringen.
Ausgang war die NV-Presentation zu HBM 2 weit jenseits der 1000GB/s und die Speichertechnologie danach.
Wenn SOCs hier relevant werden, dann womöglich AMDs Zeppelin.

Ailuros
2015-12-10, 14:00:52
Wenn Du etliche Relativierungen nicht verstehen willst, dann lass auch gefaelligst die Finger vom keyboard.

------------------------------------------

Sonst zum Thema von Fudo mal wieder: http://www.fudzilla.com/news/graphics/39438-most-gpus-in-2016-are-gddr5-gddr6

....so langsam macht mir der Kerl Angst :freak:

Skysnake
2015-12-10, 18:49:40
Es ist schon einigermaßen ausgeglichen, Intel hat die L1 Cache load/store raten schon an die exeuction units angepasst.

Haswell kann 2x 32Byte = 2x 256Bit AVX Register vom L1 Cache pro Takt laden und 1x 32byte = 1x AVX Register schreiben. Also zwei Vektorloads, ein Vektorstore gegenüber zwei Vektor-FMA.

Die meisten Streamkernel sind aber schon load/store bound. Der Schoenauer Vectortriad (A[i] = B[i] + C[i] * D[i]) wäre load bound (1FMA, 3 loads, 1 store = 1/3 der maximalen Leistung). Ein Scale Kernel (A[i] = B[i] * c, 1 Load, 1 Store, 1 Multiplikation) ist dann Store bound (Hälfte der maximanlen Leistung).

Die Streamkernel sind aber auch schon das Extrembeispiel für Memory starved kernels. Stencilkernels verhalten sich ähnlich, für lang genuge Stencils ist aber die Load-rate ~ Add-rate. Bei so memory intensiven Sachen passsen die Sachen sowieso meist nicht in den L1, dann hängts an L2/L3/memory.
Naja, das würde ich jetzt aber nicht unterschreiben.

Immerhin verwendet ein Stream benchmark immer eine ganze cacheline und dazu hast du auch noch konsekutive zugriffe. Da gibt es deutlich schlimmeres. Geh mal durch eine Liste durch...

Ailuros
2015-12-11, 18:33:12
Wenn man z.B. nur wenig Bandbreite pro DP FLOP braucht dann ist es auch kein Problem. Wenn aber Zeug wie eine Wetter-simulation z.B. 1 Byte / FP64 FLOP braucht, dann braucht man eben fuer 4 TFLOPs/s auch theoretisch 4 TB/s Bandbreite, wobei dann eben Pascal einfach einen Flaschenhals von der Bandbreite abbekommt. So schlimm ist es im gegebenen Fall nicht, nur wird der Flaschenhals dann bei um einiges mehr TFLOPs diametrisch groesser.

Dafuer gibt es eben nichts zu "optimieren"; man muss lediglich verstehen koennen wieviel und wieso am anderen Ende wirklich herauskommen kann.

Sonst ist mit HBM die Busbreite brutal gestiegen, man muss eben einfach die Speicherfrequenzen innerhalb Grenzen halten, damit der Stromverbrauch nicht zu hoch wird.

Nakai
2015-12-11, 19:39:36
Wenn Du etliche Relativierungen nicht verstehen willst, dann lass auch gefaelligst die Finger vom keyboard.

------------------------------------------

Sonst zum Thema von Fudo mal wieder: http://www.fudzilla.com/news/graphics/39438-most-gpus-in-2016-are-gddr5-gddr6

....so langsam macht mir der Kerl Angst :freak:

Ja, ein Klickloser-Author. :D

Wie man GDDR5X mit GDDR6 verwechseln kann...:freak:

Dh. mann könnte auch 10x10cm Interposer fertigen? Weiß man was der Interposer von Fiji kostet?

Ich weiß nicht, was das Reticle-Limit bei 65nm ist, aber ich denke der Fiji-Interposer liegt darüber.

Aber wie gesagt, ich denke HBM hat noch Reserven. Dann verbaut man eben 6 Stacks statt 4 Stacks und hat 1,5TB/s. Und dann legt man eben noch etwas Speicher nach Außen in der Form von GDDR5X/DDR4/.... Dann gibt es irgendwann 3D-Stacking mit deutlich mehr Stacks.

Ich sehe das alles halb so wild. NV demonstriert eben, dass HBM auch irgendwann am Limit ist, was auch stimmen wird. Aber jegliches Ende einer Technologie wurde bisher hinausgezögert. Sei es durch bessere Kompressions-Algorithmen, welche auch im HPC-Bereich angewendet werden können, eventuell Processing-In-Memory, usw.

OBrian
2015-12-12, 00:06:31
Ist stinknormaler DDR4 eigentlich geeignet für GPUs? Also ohne großartigen Umbau des MCs? So wie GDDR5-Karten gerne mit billigem DDR3 ausgestattet werden (da beide ziemlich kompatibel sind), muß es ja auch für die Schrottkarten der kommenden Jahre eine billige Lösung geben, und da drängt sich nun mal DDR4 auf, der ja jetzt schon auf dem Weg ist, billiger als DDR3 zu werden.

Novum
2015-12-12, 00:30:10
DDR4 hat viel zu wenig Bandbreite.

Rente
2015-12-12, 00:34:44
Aber DDR3 hat mehr? Es geht doch um eine Alternative im Low-End-Bereich.
Oder ist GDDR5 inzwischen so günstig das sowieso kein DDR3 mehr eingesetzt wird?

Novum
2015-12-12, 01:29:31
DDR3 hat noch weniger, aber wird ja auch nur fuer Low-End eingesetzt.

Jetzt verstehe ich was du meinst, DDR4 sollte vergleichbar im Aufwand sein wie DDR3, braucht aber schon Modifikationen.

Knuddelbearli
2015-12-12, 04:23:06
Naja da wäre ich mir nicht so sicher.

GDDR5 stammt ja direkt von DDR3 ab, DDR4 hat dann zwar mehr Gemeinsamkeiten mit GDDR5 aber eben keine direkte Abstammung davon.

Novum
2015-12-12, 09:15:28
Das physikalische Interface von GDDR5 ist komplett anders als von DDR3 (Differentielles Interface mit Aushandlung von Signal-Timings etc). Nichts dergleichen existiert in DDR3 oder 4. Evtl. sind paar Sachen im Protokoll aehnlich, aber das war's auch schon.

AffenJack
2015-12-12, 12:12:06
Microns Gddr5X wurde mittlerweile standardisiert:
http://www.jedec.org/standards-documents/results/GDDR5x

Ich bin gespannt welche GPUs mit welchem Ram nächstes JAhr ankommen

Nakai
2015-12-12, 12:25:53
Es gibt von Cadence und Symopsys Multi-IP PHYs und Controller, für verschiedene DDR-Versionen, GDDR ist jedoch ausgeklammert.

AnarchX
2015-12-12, 12:49:02
Fraglich ob DDR4/gDDR4 Grafikkarten erreichen wird. DDR3/gDDR3 wird wohl noch einige Zeit verfügbar sein und ist absolut ausreichend für "Bildausgabe"-Karten. Für mehr Ambitionen gibt es Low-End-GDDR5 mit >5Gbps, eine Region wo DDR4 noch nicht angekommen ist und wohl auch der Mainstream-DDR4 lange nicht sein wird.
Und 2017 sind Interposer vielleicht schon so verbreitet, dass man gleich diese mit HBM2/WideIO auch für Low-End-GPUs einsetzen kann. Die resultierende Bauteilgröße bietet sich daneben auch besser für den dann dominierenden Formfaktor (UB, Tablet, AiO) an.

Unicous
2015-12-12, 13:04:02
Es gibt von Cadence und Symopsys Multi-IP PHYs und Controller, für verschiedene DDR-Versionen, GDDR ist jedoch ausgeklammert.

Kaveri hat de facto ein DDR3/GDDR5 Hybrid PHY und ich denke nicht, dass Nvidia/AMD extra neue Dies auflegt nur um das PHY zu ändern.


Zu DDR 3 vs. DDR4

DDR4 hat bei gleicher Taktrate keine höhere Bandbreite als DDR3 und hat zudem deutlich höhere Latenzen. Das mag bei GPUs vllt. nicht soo schlimm sein, dennoch wäre es nicht sehr sinnvoll auf DDR4 umzusteigen. Viel Aufwand für wenig Nutzen und im Zweifelsfall Performanceverlust. DDR4 ist DDR3 bis jetzt noch! nicht in allen Belangen überlegen.

Ailuros
2015-12-12, 16:55:28
Microns Gddr5X wurde mittlerweile standardisiert:
http://www.jedec.org/standards-documents/results/GDDR5x

Ich bin gespannt welche GPUs mit welchem Ram nächstes JAhr ankommen

http://www.fudzilla.com/news/graphics/39450-micron-to-offer-2x-gddr5-speed-in-2016

Frag Fudo er weiss es... :weg:

:freak:

Nakai
2015-12-12, 19:22:42
Kaveri hat de facto ein DDR3/GDDR5 Hybrid PHY und ich denke nicht, dass Nvidia/AMD extra neue Dies auflegt nur um das PHY zu ändern.


Zu DDR 3 vs. DDR4

DDR4 hat bei gleicher Taktrate keine höhere Bandbreite als DDR3 und hat zudem deutlich höhere Latenzen. Das mag bei GPUs vllt. nicht soo schlimm sein, dennoch wäre es nicht sehr sinnvoll auf DDR4 umzusteigen. Viel Aufwand für wenig Nutzen und im Zweifelsfall Performanceverlust. DDR4 ist DDR3 bis jetzt noch! nicht in allen Belangen überlegen.

Ja, das stimmt. Worauf ich hinaus will ist eher, wenn es bereits Hybrid PHYs gibt, sollte es auch für DDR 4 funktionieren. Und selbstverständlich ist das kein Selbstgänger. Da muss einiges ausgetauscht werden, also die PHYs und die Memory Controller. Intern wird bestimmt schon an solche DDR 4/GDDR(X)5 MultiPHYs/MCs gearbeitet werden, welche dann als konfigurierbare IP Blöcke eingesetzt werden können.

OBrian
2015-12-12, 23:29:02
Zu DDR 3 vs. DDR4

DDR4 hat bei gleicher Taktrate keine höhere Bandbreite als DDR3 und hat zudem deutlich höhere Latenzen. Das mag bei GPUs vllt. nicht soo schlimm sein, dennoch wäre es nicht sehr sinnvoll auf DDR4 umzusteigen. Viel Aufwand für wenig Nutzen und im Zweifelsfall Performanceverlust. DDR4 ist DDR3 bis jetzt noch! nicht in allen Belangen überlegen. geht ja nur um den Preis, ich rede ja von den lahmarschigen Karten, die nur ein Bild machen sollen, GUI beschleunigen und vielleicht noch mal ein Video.

Wär ja egal, wenn man sich in dem Bereich mit DDR3 noch solange hinhalten kann, bis es wirklich keinen Bedarf mehr für solche Karten gibt. Ein Ende sehe ich aber nicht, solange noch reine CPUs ohne GPU verkauft werden.

Und was ist, wenn die Produktionsumstellung der "DRAMurais" wiedermal so chaotisch unabgestimmt ist, daß plötzlich der DDR4-Preis ins Bodenlose sackt und der von DDR3 genauso in die Höhe schießt? Dann stehen die Kartenhersteller da und wollen nicht auf eine 10-$-Karte RAM für 15 $ verbauen. GDDR5 ist dann sicherlich auch keine Alternative.

Die nächste Kleinst-GPU für solche Karten muß also DDR4 verkraften können, auch wenn das ggf. gar nicht eingesetzt wird.

Unicous
2015-12-13, 00:47:18
Die Tage von Entry-Karten ist gezählt ich sehe nicht den Nutzen dahingehend Geld zu investieren.

2017 werden IMO sämtliche Entry-Karten von iGPUs überholt sein und obsolet und maximal für Bauernfang genutzt (Hybrid-CF Blödsinn). DDR3 wird nur noch in Karten unter 100 Euro eingesetzt und auch da ist es oft der zigste rebrand einer GPU die schon viele Jahre auf dem Buckel hat.

Die Methodik ist jetzt nicht sehr wissenschaftlich aber man kann sich das einigermaßen gut veranschaulichen wenn man sich bei einer Preissuchmaschine die Verhältnisse bei den Listungen anschaut.

Im Zeitraum 2008-2015 sind ca. 900 SKUs mit GDDR5 gelistet und ca. 300 mit DDR3. Also 3:1.

Bei den SKUs die seit 2014 gelistet sind haben wir schon fast ein Verhältnis von 5:1. 2015 sind nur 22 "neue" SKUs mit DDR3 zu verzeichnen während es 363 SKUs mit GDDR5 gibt und 26 mit HBM.

Wenn man sich diese 22 SKUs noch mal genauer anschaut sieht man, dass die entweder special interest sind (2xGM107+8DP-Anschlüsse) oder alte bis ganz alte GPUs die noch auf TeraScale und Fermi basieren bzw. neuaufgelegte SKUs/rebrands von GCN(1.0) bzw. Kepler.

Es sind also so gut wie keine neuen SKUs mit DDR3 hinzugekommen. Da wird es sicherlich noch den ein oder anderen rebrand geben der ein weiteres Jahr am Leben gehalten wird um die Systemintegratoren und OEMs nicht zu verärgern die noch einen schnellen Euro machen wollen, aber der Markt wird allmählich von den iGPUs aufgefressen. Darüber würden die GPUs schlicht an DDR3 verhungern.

Ich sehe mittelfristig keinen Sinn noch auf DDR4 umzuschwenken wenn wirklich jede Consumer-CPU von Intel eine iGPU hat die sich mit den Entry-Karten von AMD und Nvidia messen kann und AMD eh schon ihre eigenen Karten kannibalisiert.
Ich stelle auch mal die kühne Behauptung auf, dass zumindest AMD kein neues GPU-design (1.2+) mit DDR3 oder gar DDR4 auflegen wird sondern lediglich bis zum Erbrechen rebranded. Theoretisch ist jetzt auch TeraScale bzw. VLIW4/5 aus dem Portfolio verschwunden, selbst die 300er OEM Rebrands bestehen komplett aus GCN und nur Oland krepelt noch (wahlweise!) mit DDR3 herum.

Leonidas
2015-12-14, 04:01:30
Das Verschwinden von DDR3-Angeboten könnte aber auch etwas damit zu tun haben, daß GDDR5 *möglicherweise* nicht mehr viel teurer ist. Zudem ist die Performance-Schere zwischen DDR3 und GDDR5 extrem aufgegangen: Waren es anfänglich 15%, können es heutzutage 40% sein.

Nakai
2015-12-14, 13:47:25
Mittlerweile liefert DDR 3 für den LowCost-Sektor auch nicht mehr genug Bandbreite. Für die nexte Gen wäre Gddr5(x) für den unteren Bereich noch völlig akzeptabel. Ein 128Bit MI mit DCC sollte ausreichen. Damit könnte man schon genug Bandbreite für eine 1000SP-SKU (GCN) liefern.

Godmode
2016-01-13, 13:19:09
Spezifikationen für HBM2 wurden heute von der JEDEC vorgestellt: http://www.computerbase.de/2016-01/hbm2-spezifikationen-fuer-bis-zu-32-gb-grafikspeicher-veroeffentlicht/

iuno
2016-01-13, 13:54:47
Eine andere Sache wäre, dass Tegra X2 keine FP32-ALUs hat, sondern nur FP16. Das ist extreeeem unwahrscheinlich, praktisch unmöglich.
Ist etwa nicht jede ALU mixed precision?

@Godmode: das ist falsch von CB. "HBM2" ist lediglich Hynix' Bezeichnung fuer deren zweite Generation an HBM die sie fertigen koennen. "HBM2" waere auch unter der bekannten spec moeglich gewesen. Es sind Details, die Aenderungen stehen auf Seite 170.

maguumo
2016-01-13, 13:55:01
Spezifikationen für HBM2 wurden heute von der JEDEC vorgestellt: http://www.computerbase.de/2016-01/hbm2-spezifikationen-fuer-bis-zu-32-gb-grafikspeicher-veroeffentlicht/
Verstehe ich nicht, das wurde doch alles schon von der ersten Spezifikation abgedeckt? Bis zu 1000MHz, 8Hi Stacks und mehr Speicher pro Channel waren zumindest definitiv schon letztes Jahr drin, und zu Pseudo Channels meine ich auch was gelesen zu haben...

iuno
2016-01-13, 14:03:47
@maguumo: pseudo channels sind neu. Da war glaube ich nur bei Hynix bisher was zu lesen, nicht in der JEDEC spec.
Ob meine Aussage oben stimmt, muss ich daher nochmal pruefen, habe jetzt aber keine Zeit :redface: Hinsichtlich der Channels hat sich daher naemlich schon etwas geaendert
edit: pro Channel waren def. 4 Gb genannt, mit 2 channels pro die waeren also 4 GiB wie schon gedacht kein Problem. "HBM2" my ass

maguumo
2016-01-13, 14:26:04
Ich habe gerade nochmal nachgeschaut, die JESD235 erlaubt explizit bis zu 32Gb pro Channel, 8Hi Stacks und 1000MHz. Von Pseudochannels steht tatsächlich gar nichts drin, merkwürdig, irgendwo hatte ich davon schon gehört/gelesen... Wer auch immer diesen CB Artikel verbrochen hat hat offenbar noch nicht mal die ersten 3 Seiten der ersten Spezifikation gelesen...

Sunrise
2016-01-13, 14:32:15
Ich habe gerade nochmal nachgeschaut, die JESD235 erlaubt explizit bis zu 32Gb pro Channel, 8Hi Stacks und 1000MHz. Von Pseudochannels steht tatsächlich gar nichts drin, merkwürdig, irgendwo hatte ich davon schon gehört/gelesen... Wer auch immer diesen CB Artikel verbrochen hat hat offenbar noch nicht mal die ersten 3 Seiten der ersten Spezifikation gelesen...
Steht auf der Jedec-Seite im Text sogar mit dabei:

Additional improvements in the recent update include a new pseudo channel architecture to improve effective bandwidth, and clarifications and enhancements to the test features. JESD235A also defines a new feature to alert controllers when DRAM temperatures have exceeded a level considered acceptable for reliable operation so that the controller can take appropriate steps to return the system to normal operation.

iuno
2016-01-13, 14:36:25
Von Pseudochannels steht tatsächlich gar nichts drin, merkwürdig, irgendwo hatte ich davon schon gehört/gelesen...
Wie gesagt, Hynix spricht schon laenger davon
Z.B. http://www.memcon.com/pdfs/proceedings2014/NET104.pdf (Oktober 14) auf Seite 23

Leonidas
2016-01-13, 15:55:07
Verstehe ich nicht, das wurde doch alles schon von der ersten Spezifikation abgedeckt? Bis zu 1000MHz, 8Hi Stacks und mehr Speicher pro Channel waren zumindest definitiv schon letztes Jahr drin, und zu Pseudo Channels meine ich auch was gelesen zu haben...


Das war schon anno 2014 Vorschau, aber noch nicht offiziell spezifiziert.

iuno
2016-01-13, 16:01:16
Dann lies besser nochmal nach. 8 Hi stacks sind definitiv drin, mehr Speicher pro stack auch.

maguumo
2016-01-13, 16:03:11
Das war schon anno 2014 Vorschau, aber noch nicht offiziell spezifiziert.
Zum DRAM Takt konnte ich in beiden nichts finden, zum Rest habe ich im anderen Thread Screens aus der JESD235 (nicht 235A!) hochgeladen.

Leonidas
2016-01-14, 06:31:28
Ich hab jetzt nochmal nachgeschlagen und muß Euch Recht geben:

originale HBM-Spec im Oktober 2013 (JESD235) -> entspricht vermutlich HBM1, genaues ist dazu schwer zu finden

zweite HBM-Spec im November 2015 (JESD235) -> entspricht vermutlich HBM2, auch hier fehlen aber die exakten Angaben bezogen auf diesen Zeitpunkt

Update vom Januar 2016 (JESD235A) -> bringt wirklich nur zwei Nebenfeatures mit, bleibt ansonsten aber gleich zum Stand November 2015

y33H@
2016-01-19, 10:24:00
Samsung fertigt HBM2 mit 4 GByte per Stack in Serie, später im Jahr folgen 8 GByte: http://www.golem.de/news/hbm2-samsung-startet-produktion-von-4-gbyte-stapelspeicher-1601-118600.html

iuno
2016-01-19, 10:42:12
Samsung hat mit der Massenproduktion von HBM begonnen:
https://news.samsung.com/global/samsung-begins-mass-producing-worlds-fastest-dram-based-on-newest-high-bandwidth-memory-hbm-interface

offenbar haben sich die Leute schon so an "HBM2" gewohnt, dass sogar Samsung den Begriff aufgreifen muss

AnarchX
2016-01-21, 07:44:03
HBM2 Stacks sind deutlich größer:
HBM1 5.48mmx7.29mm
HBM2 7.75mmx11.87mm
http://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification

Damit fällt wohl schon einmal aus den aktuellen Fiji-Interposer mit HBM2 Stacks zu bestücken.

OBrian
2016-01-21, 08:57:49
den Interposer zu ändern, dürfte aber kein großes Problem sein (weder zeitlich noch finanziell). Ist ja nicht nur nur 65nm-Technik, sondern auch relativ wenig drin, also wenig Layer.

AffenJack
2016-01-21, 09:40:35
HBM2 Stacks sind deutlich größer:
HBM1 5.48mmx7.29mm
HBM2 7.75mmx11.87mm
http://www.anandtech.com/show/9969/jedec-publishes-hbm2-specification

Damit fällt wohl schon einmal aus den aktuellen Fiji-Interposer mit HBM2 Stacks zu bestücken.

War ja klar, dass die bei 4facher Größe auch physikalisch größer werden. Mich wundert allerdings, dass die auch noch nen gutes Stück höher geworden sind. Das machts etwas schwieriger die GPU die weniger hoch ist ordentlich zu kühlen denke ich, weil da mehr WLP oder irgendwas anderes Wärmeleitendes drauf muss um den Unterscheid auszugleichen.

horn 12
2016-01-21, 11:26:52
Dies alles sollte seine Zeit benötigen, sodass wir vor August / September 2016 keine Fertigen Produkte mit HBM2 sehen werden... wenn gar nicht später.

Sunrise
2016-01-21, 11:31:52
War ja klar, dass die bei 4facher Größe auch physikalisch größer werden. Mich wundert allerdings, dass die auch noch nen gutes Stück höher geworden sind. Das machts etwas schwieriger die GPU die weniger hoch ist ordentlich zu kühlen denke ich, weil da mehr WLP oder irgendwas anderes Wärmeleitendes drauf muss um den Unterscheid auszugleichen.
Die Bodenplatte wird in der Mitte (GPU) einfach etwas dicker und bei den HBMs dünner, das sollte machbar sein.

iuno
2016-01-21, 12:56:14
War ja klar, dass die bei 4facher Größe auch physikalisch größer werden.
Mir nicht, die Strukturbreite ist ja auch geschrumpft.
Haette man unbedingt Kompatibilitaet beibehalten wollen, haette man vielleicht den Basis-Chip von Anfang an etwas groesser gemacht, dass er spaeter auch die 8 Gb dies aufnehmen kann. Scheint aber kein Problem zu sein, warum auch. Sollte Fiji nochmal mit mehr Speicher verwendet werden, waere ein neuer Interposer wohl nicht wahnsinnig teuer.

Die Bodenplatte wird in der Mitte (GPU) einfach etwas dicker und bei den HBMs dünner, das sollte machbar sein.
Die "Bodeplatte" ist der Si-Interposer. Den wird man sicherlich nicht einfach so mal "abschleifen".
Man kan doch die Kuehlplatte einfach anpassen, was soll daran problematisch sein? Man darf beim Auf-/Abbau halt die Stacks nicht kaputt machen...

Sunrise
2016-01-21, 13:56:25
Die "Bodeplatte" ist der Si-Interposer. Den wird man sicherlich nicht einfach so mal "abschleifen".
Man kan doch die Kuehlplatte einfach anpassen, was soll daran problematisch sein? Man darf beim Auf-/Abbau halt die Stacks nicht kaputt machen...
Du liest definitiv zu schnell, bzw. ich habe mich etwas undeutlich ausgedrückt. Ich rede von der Bodenplatte des Kühlers. Das Ding wird einfach nur entsprechend gefräst und an der GPU dicker und bei den HBMs dünner und optimalerweise muss der Kühler eben einen guten Halt haben, dann passiert auch nichts. Das sollte selbst bei den kurzen Abständen von GPU und HBM machbar sein.

y33H@
2016-01-21, 14:54:21
Die HBM2-Stacks sind 0,72 statt 0,49 mm hoch. Das wird einfach per Wärmeleitpaste ausgeglichen.

iuno
2016-01-21, 15:51:33
Du liest definitiv zu schnell, bzw. ich habe mich etwas undeutlich ausgedrückt. Ich rede von der Bodenplatte des Kühlers.
oh :redface: Dann sind wir uns ja einig ;)

Der_Korken
2016-01-21, 18:27:06
Die HBM2-Stacks sind 0,72 statt 0,49 mm hoch. Das wird einfach per Wärmeleitpaste ausgeglichen.

Ich hoffe doch nicht. Ein Viertel Millimeter ist ne Menge. Ich will bei GPUs nicht das selbe Problem haben wie damals bei Ivy Bridge: Super sparsam, aber trotzdem heiß. Vor allem läuft ein GPU-Hersteller Gefahr sich für seine neuen GPUs einen Ruf als "Hitzkopf" einzuhandeln. Da würden sich (hoffentlich) einige drauf stürzen wie auf die Speicherproblematik der GTX970.

Godmode
2016-01-21, 18:34:16
Ich hoffe doch nicht. Ein Viertel Millimeter ist ne Menge. Ich will bei GPUs nicht das selbe Problem haben wie damals bei Ivy Bridge: Super sparsam, aber trotzdem heiß. Vor allem läuft ein GPU-Hersteller Gefahr sich für seine neuen GPUs einen Ruf als "Hitzkopf" einzuhandeln. Da würden sich (hoffentlich) einige drauf stürzen wie auf die Speicherproblematik der GTX970.

Das sollte mit einer speziellen Fräsung des Kühlkörpers kein Problem sein. Eventuell gibts ja wieder Heatspreader

Novum
2016-01-21, 18:36:20
Ich hoffe doch nicht. Ein Viertel Millimeter ist ne Menge. Ich will bei GPUs nicht das selbe Problem haben wie damals bei Ivy Bridge: Super sparsam, aber trotzdem heiß. Vor allem läuft ein GPU-Hersteller Gefahr sich für seine neuen GPUs einen Ruf als "Hitzkopf" einzuhandeln. Da würden sich (hoffentlich) einige drauf stürzen wie auf die Speicherproblematik der GTX970.
DRAM ist in der Regel kein Hitzeproblem.

iuno
2016-01-21, 19:36:18
Vor allem nicht bei nur 1000 MHz, aber darum geht es aber auch nicht. Es geht darum, die GPU zu kuehlen, die offenbar niedriger sein koennte als die Stapel drum herum. Bei denen ist hoechstens die Befuerchtung, dass sie sich durch die Abwaerme der GPU zu stark erhitzen.

Ein Hitzkopf wird es ganz sicher nicht, nach dem eigentlich starken Hawaii, bei dem die Kuehlung einfach komplett versagt hat.
Es steht zu viel auf dem Spiel, als dass sie da jetzt pfuschen wuerden. Das kostet ja auch nicht wirklich was. Also keine Panik

Heatspreader koennte ich mir aber wirklich vorstellen, alleine um es den Boardpartnern einfacher zu machen. Vielleicht ist das aber ja auch gar nicht noetig.

=Floi=
2016-01-21, 20:27:49
nur ist die gpu der tiefere und das gleicht keiner mit nem heatspreader oder mit WLP aus. ihr habt da nen mächtigen denkfehler!


angepasste kühlkörper kosten geld. es langt ja oft nicht mal für ne nomale gut kühlung.

basix
2016-01-21, 21:47:23
Ich hoffe doch nicht. Ein Viertel Millimeter ist ne Menge. Ich will bei GPUs nicht das selbe Problem haben wie damals bei Ivy Bridge: Super sparsam, aber trotzdem heiß.

HBM hätte trotzdem eine gute Wärmeabführung: Nämlich über den Interposer und die GPU zum Kühler. Aber es ist eher wahrscheinlich, dass die GPU den HBM mitheizt.

Der_Korken
2016-01-21, 23:14:19
Mein Beitrag bezog sich auch auf die GPU. Ich hatte y33H@s Beitrag so verstanden, dass man auf der GPU einfach 0,23mm mehr WLP aufträgt, um auszugleichen, dass der umliegende HBM2 0,23mm höher ist als der alte HBM1. Dann doch lieber speziell gefräste Kühlplatten oder (verlötete!) Heatspreader.

Gipsel
2016-01-22, 00:02:45
Mich wundert allerdings, dass die auch noch nen gutes Stück höher geworden sind. Das machts etwas schwieriger die GPU die weniger hoch ist ordentlich zu kühlen denke ich, weil da mehr WLP oder irgendwas anderes Wärmeleitendes drauf muss um den Unterscheid auszugleichen.Bei Fiji sind die HBM-Stacks etwas niedriger als die GPU. Mit 0,23mm extra sind die jetzt vielleicht auf gleicher Höhe ;).
Und selbst wenn nicht, eine 0,2mm Stufe in der Bodenplatte des Kühlers ist nun kein wirkliches Problem.

N0Thing
2016-01-22, 02:07:34
Und selbst wenn nicht, eine 0,2mm Stufe in der Bodenplatte des Kühlers ist nun kein wirkliches Problem.

Die Herstellung sicher nicht, aber wenn man sich anschaut, wie schlau manche Kühler mit direct touch verbaut wurden, möchte ich lieber nicht auf einen milimetergenau ausgerichteten Kühler angewiesen sein. ;)
Dann lieber einen Heatspreader seitens AMD und Nvidia.

AffenJack
2016-01-22, 07:38:05
Bei Fiji sind die HBM-Stacks etwas niedriger als die GPU. Mit 0,23mm extra sind die jetzt vielleicht auf gleicher Höhe ;).
Und selbst wenn nicht, eine 0,2mm Stufe in der Bodenplatte des Kühlers ist nun kein wirkliches Problem.

Nungut, dann wäre das erst recht kein Problem. Ich dachte eher HBM ist schon höher als fiji und nun kommt 0,2mm noch dazu, wo die Befürchtung da ist, dass das einfach mit WLP unterdrückt wird, was zu mittelmäßigen Ergebnissen führen kann. Aber stimmt. Man kann auch einfach den Kühler unten verändern. Der Gedanke war auch, dann braucht man unter Umständen 2-3 Kühler pro Chip, was kosten addiert.

Man stelle sich das mal bei zb GP100 vor. 8 Hi-Stack für HPC 32GB, 4Hi-Stack für Titan und Vollausbau und 2-Hi-Stack für GP100 Salvage. Da hat man einfach viele verschiedene Höhenprofile und man spart ja bei Kühlern oft wo es nur geht.

Aber alles zu sehr offtopic hier. Wieso wird HBM2 überhaupt höher? Fläche versteh ich, da 4fache Kapazität, aber auf Höhe hat das ja keinen Einfluss.

y33H@
2016-01-22, 08:35:31
Die Zahlen stammen von SK Hynix, vll sprechen sie von 4Hi vs 8Hi, so könnte man die Slide zumindest interpretieren.

iuno
2016-01-22, 13:23:51
Nach dem Update fuer HBM wurde nun auch die Spezifikation zu GDDR5X von der JEDEC freigegeben:
http://www.jedec.org/news/pressreleases/jedec-announces-publication-gddr5x-graphics-memory-standard
http://www.jedec.org/standards-documents/docs/jesd232


vll sprechen sie von 4Hi vs 8Hi, so könnte man die Slide zumindest interpretieren.
Wie das? Es wird nur Gen. 1 mit 2 verglichen. Auf der zugehoerigen Skizze sind auch 4 slices.

y33H@
2016-01-22, 13:41:18
Stimmt, ich habe mit oben vom "8 core" verwirren lassen.

EDIT
Zu GDDR5X: 2 statt 1 GByte pro Channel, doppelter Prefetch und sogar ein kleineres Package.

Sunrise
2016-01-22, 13:48:17
Zu GDDR5X: 2 statt 1 GByte pro Channel, doppelter Prefetch und sogar ein kleineres Package.
Wohl alles nur wieder rein durch effizientere und kleinere Prozesse möglich und dann als Standard eingetütet, siehe HBM2, wobei hier noch ein paar nette Details hinzukamen, daher nicht ganz vergleichbar (ist ja auch noch relativ neu).

Sieht ja fast so aus, als würden in Kürze GDDR5X-GPUs vorgestellt. Damit hat ja garkeiner gerechnet. :D

Troyan
2016-01-22, 13:54:25
GTX970 Mini Karten zeigen ja, dass man kein HBM benötigt, um kurze, sehr schnelle Karten bauen zu können.

Für ein Größteil der Leute ist es auch absolut egal, welcher Speichertyp verbaut wird.

Kriton
2016-01-22, 14:43:57
GTX970 Mini Karten zeigen ja, dass man kein HBM benötigt, um kurze, sehr schnelle Karten bauen zu können.

Für ein Größteil der Leute ist es auch absolut egal, welcher Speichertyp verbaut wird.

Können wir beim Thema bleiben und uns das Marketing für den jeweils präferierten Hersteller sparen?

AnarchX
2016-02-09, 19:00:19
Micron München vermeldet Fortschritte beim GDDR5X:
https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived

Godmode
2016-02-09, 19:18:23
Micron München vermeldet Fortschritte beim GDDR5X:
https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived

Die schreiben davon, dass es jetzt erst Samples gibt. Wenn ein hypothetischer GP104 auf GDDR5X setzen würde, müssten sie doch die Samples schon deutlich früher haben? Oder kann man anhand der Spezifikation von GDDR5X, die NV vielleicht schon früher hatte, dass Chipdesign entwickeln, ohne ein Sample zu haben?

AnarchX
2016-02-09, 19:31:51
Entweder man entwickelt da gemeinsam, immerhin werden wohl die Hauptabnehmer von GDDR5X NV und AMD sein oder man setzt auf den Samples noch GDDR5 ein, da kompatibel zu GDDR5X-IMCs.

Rampage 2
2016-02-09, 21:44:44
Micron München vermeldet Fortschritte beim GDDR5X:
https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived

Jetzt schon 13Gbps realisierbar! Yay!:ucatch:

Dann gibts doch keinen Grund mehr für NV und AMD, zuerst 10Gbps einzusetzen - wenn jetzt schon 13Gbps einsatzfähig sind, dann sollten 12Gbps garantiert klappen!

R2

Nakai
2016-02-09, 22:13:41
Man wird erst klein anfangen. 10 Gbps ist ein guter Einstieg und liefert erstmal genug Bandbreite für die mittleren Pascal/Polaris.

iuno
2016-02-09, 22:47:06
Dann gibts doch keinen Grund mehr für NV und AMD, zuerst 10Gbps einzusetzen - wenn jetzt schon 13Gbps einsatzfähig sind, dann sollten 12Gbps garantiert klappen!
Doch. Es gibt immer zwei Seiten, das SI muss ja auch ueberhaupt erstmal den hohen takt mitmachen. Und dann auch noch mit akzeptabler Leistungsaufnahme.

Oder kann man anhand der Spezifikation von GDDR5X, die NV vielleicht schon früher hatte, dass Chipdesign entwickeln, ohne ein Sample zu haben?
Dafuer gibt es ja Spezifikationen/Standards, damit die Produkte hinterher zusammenpassen.
Dass GDDR5X nicht sofort in Massenproduktion geht war klar, allerdings kann man schon erwarten, dass da "engere" Zusammenarbeit stattgefunden hat. Wenn es nicht gebraucht wuerde, wuerde es auch nicht hergestellt und ausser fuer Grafik taugt der Speicher ja nicht.
Davon aber mal abgesehen, wissen wir ja ueberhaupt nicht, ob Pascal ueberhaupt auf GDDR5X setzen wird.

krötenfresse
2016-03-01, 20:17:57
Micron München vermeldet Fortschritte beim GDDR5X:
https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived
also ist das dann quasi gddr6

wird das dann auf low-end oder der unteren mittelklasse der karten zum einsatz kommen, wo sich h.b.m. nicht lohnt?

ndrs
2016-03-01, 22:02:38
also ist das dann quasi gddr6

Nö. Es ist GDDR5X.

wird das dann auf low-end oder der unteren mittelklasse der karten zum einsatz kommen, wo sich h.b.m. nicht lohnt?
Wohl eher im Bereich Midrange bis Performance, wahrscheinlich (nVidia) bzw. womöglich (AMD) sogar alles unterhalb des Enthusiastensegments. Drunter wird es weiterhin GDDR5 und DDR3 oder DDR4 geben.

Deinorius
2016-03-01, 22:11:16
Wenn ich das richtige verstanden habe, müsste doch GQDR die bessere Bezeichnung sein.

Ansonsten könnte man das auch in der Performance Klasse vorfinden.

ndrs
2016-03-01, 23:59:05
Müsste vielleicht. Aber der Hrsteller kann sich den Namen für sein Produkt ja selber aussuchen :)

y33H@
2016-03-05, 01:56:09
SK Hynix legt mit HBM2 und 4-GB-Stacks erst im Q3 los, die 8-GB-Stack dann im Q4.

http://www.golem.de/news/high-bandwidth-memory-sk-hynix-produziert-4-gbyte-stapel-ab-dem-dritten-quartal-1603-119580.html

iuno
2016-03-05, 04:13:36
D.h. dann wohl keinen HBM fuer Polaris 11.

Du hast von bis zu 8 Stacks geschrieben. Ist das denn realistisch fuer einen die oder meint Hynix damit wohl eher eine dGPU Karte?

y33H@
2016-03-05, 09:08:00
Meinst du mit dGPU eine dedizierte GPU oder eine Dual-GPU? Acht Stacks wohl eher für HPC oder Spezialfälle.

iuno
2016-03-05, 12:34:58
Ich meinte dual GPU :redface:
Und ob ein SI von 8k Bit auf einem die realistisch ist

Botcruscher
2016-03-05, 12:37:40
D.h. dann wohl keinen HBM fuer Polaris 11.

Oder 4GB (am Anfang). AMD trau ich das zu.

iuno
2016-03-05, 13:33:38
Oder 4GB (am Anfang). AMD trau ich das zu.
Ich nicht, aber falscher Thread ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10962583#post10962583

y33H@
2016-03-05, 19:16:15
Ich meinte dual GPU :redface: Und ob ein SI von 8k Bit auf einem die realistisch istAuf absehbare Zeit nicht.

Ailuros
2016-03-18, 11:46:44
https://forum.beyond3d.com/posts/1900184/

A brief aside, but HBM is (going to be) used in more than just GPUs.

hmmmm.....well I'll be damned :eek: