PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: DDR4-Speicher spruchreif schon für 2012, real im Markt aber nicht ...


Leonidas
2012-09-13, 12:22:29
Link zur News:
http://www.3dcenter.org/news/ddr4-speicher-spruchreif-schon-fuer-2012-real-im-markt-aber-nicht-vor-2014

Wau neus Captcha
2012-09-13, 13:38:12
Wie viel müssen die OEMs den an RAM abnehmen, damit die Speicherhersteller die Massenfertigung in einer Fabrik starten können?

Wenn nVidia und AMD bei ihren Refreshkarten für den unteren Mainstream bzw. oberen Low-End-Bereich im Jahr 2013 anstatt auf DDR3 auf DDR4 setzen würden. Würde das schon reichen?

Die GeForce GT640 mit DDR3 wird von DDR3 stark gebremst. Wenn DDR4 billiger als DDR5 wäre, könnten die GPU-Hersteller da schon auf DDR4 setzen.


Offtopic: Auf was setzt das neue "Puzle-Captcha"? Ist das Java?

boxleitnerb
2012-09-13, 16:07:28
DDR ist nicht gleich GDDR! Das ist was völlig anderes. Grafikkarten benutzen keinen DDR-Speicher.

AnarchX
2012-09-13, 16:15:25
Im Low-Budget Segment wird durchaus sDDR auf Grafikkarten verbaut. Mittlerweile ist dieser bei knapp 900MHz angelangt, siehe GT 640 (8 16-Bit DDR3 Chips).

Durchaus denkbar, dass auch sDDR4 hier verbaut werden wird.

Wau neus Captcha
2012-09-13, 16:16:10
DDR5 war ein Vertipper. Ich meinte GDDR5

DDR3 war kein Vertipper. Es gibt unzählige Grafikkarten mit DDR statt GDDR. Einfach mal über den Tellerrand des High-End-Marktes hinausschauen

Flusher
2012-09-13, 17:23:42
Ich frage mich was noch höhere Speichertaktungen überhaupt bringen sollen. Die Leistung derzeitiger CPU-Architekturen hängt doch ohnehin kaum noch an der Speicherbandbreite. Einzig für iGPUs schadet mehr Speicherbandbreite nie - doch haben die Tests der vergangenen Jahre gezeigt, dass die Leistung der iGPUs kaum mit erhöhten Speicherbandbreiten skalieren. Da scheint eher das Aufteilen des Speicherinterfaces zwischen CPU und GPU das Problem zu sein.

Was den Energiebedarf betrifft, so ist dieser bei DDR3-Modulen zu vernachlässigen in einem Desktop-PC. Selbst in einem Notebook wäre der Unterschied bei der Laufzeit kaum zu bemerken. Und im Smartphone- und Tablet-Bereich setzt man schon seit längerem auf LP-DDR-Speicher. Aktuell auf LPDDR2 mit 1.2V Betriebsspannung.

AnarchX
2012-09-13, 17:41:47
Mit AVX2 verdoppelt sich bei Intel die FP-Leistung, da ist mehr Bandbreite schon sinnvoll.
HSW-EP wird wohl bis zu 14 Kerne haben (-> >=1 TFLOPs SP), da ist der Schritt auf DDR4 durchaus sinnvoll.

Spasstiger
2012-09-13, 19:27:17
(8 16-Bit DDR3 Chips).
Da liegt aber der Knackpunkt, auf den sich boxleitnerb möglicherweise bezieht. DDR-Chips auf den DIMM-Riegeln sind nur 8 Bit breit angebunden. Für Grafikkarten werden also nicht die gleichen Chips für wie für die DIMM-Riegel benutzt.

AnarchX
2012-09-13, 19:34:14
Trotzem ist kein GDDR. Samsung nennt ihn gDDR. Im Endeffekt sind es wohl sDDR-Zellen, die man mit hohen Latenzen für höheren Takt betreibt in einem 16-Bit Package.

GT 640:
http://www.computerbase.de/bildstrecke/42113/22/
http://www.micron.com/parts/dram/ddr3-sdram/mt41j128m16jt-107

mczak
2012-09-13, 19:35:50
DDR3 war kein Vertipper. Es gibt unzählige Grafikkarten mit DDR statt GDDR. Einfach mal über den Tellerrand des High-End-Marktes hinausschauen
Ich denke ddr4 wird in (Low-End) Grafikkarten nicht sinnvoll sein bevor der Speicher nicht auch als "normaler" Arbeitsspeicher verwendet wird. Dies schlicht wegen der Kosten, ohne entsprechende Verbreitung wird der einfach zu teuer sein. Ausserdem sind die kleinsten hergestellten Chips höchstwahrscheinlich 4gbit, mit den (bei ddr3 für Graka) üblichen 16bit Chips brauchst du also 8 davon was 4GB Speicher ergibt. Das ist nicht wirklich sinnvoll (obwohl die Hersteller sowas lieben!!!), aber das eigentliche Problem ist halt dass die Kosten dafür deutlich höher sein dürften als für 1GB gddr5 (und der Speicher bei ddr4-2400 trotzdem nicht einmal halb so schnell ist).
Ging übrigens auch relativ lange bis Grafikkarten ddr3 verwendet haben da war das schon Mainstream als Arbeitsspeicher (selbst Karten wie die HD4650 kamen als Referenz noch mit ddr2 daher obwohl eigentlich IIRC ddr3 Speicher damals schon nicht mehr teurer war als ddr2).

mczak
2012-09-13, 19:47:49
Da liegt aber der Knackpunkt, auf den sich boxleitnerb möglicherweise bezieht. DDR-Chips auf den DIMM-Riegeln sind nur 8 Bit breit angebunden. Für Grafikkarten werden also nicht die gleichen Chips für wie für die DIMM-Riegel benutzt.
Das stimmt nicht ganz es gibt duchaus DIMM-Riegel die 16 Bit breite Chips benutzen, die Chips gibt es also schon (genau so wie 4 Bit breite). Zumindest bei früheren Ram-Standards war das noch so, bei ddr3 habe ich das persönlich nie gesehen ist aber von jedec offiziell vorgesehen.
Wobei der Grund dafür wieso man Riegel mit 16bit breiten Chips hergestellt hat war meist weil alle bloss noch billig grössere Chips fertigten - um ein 1GB Riegel herzustellen mit 2gbit Chips benötigst du nun mal 4 16bit breite Chips (das war dann ziemlich lustig wenn du ein altes System aufrüsten wolltest das z.B. sagt "max. 1GB Riegel" - denn solche Riegel liefen dann garantiert nicht).

Leonidas
2012-09-14, 05:04:37
Ich denke ddr4 wird in (Low-End) Grafikkarten nicht sinnvoll sein bevor der Speicher nicht auch als "normaler" Arbeitsspeicher verwendet wird. Dies schlicht wegen der Kosten, ohne entsprechende Verbreitung wird der einfach zu teuer sein.


Korrekt. DDR4 muß erst so günstig wie DDR3 werden, ehe man den auf LowEnd-Grafikkarten einsetzt.