PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nach memory Contoller on CPU kommt


Liszca
2009-03-20, 20:44:35
Was ist nach dem memory controller in der CPU zu erwarten?

wäre es nicht möglich den controller direkt in die ram module zu integrieren?

Der vorteil wäre ja eigentlich ganz simpel, man bräuchte nur noch das board passend zur cpu wählen, der speicher wäre in einem universalslot.

würde das sinn machen in anbetracht von geringeren latenzen und einer autarken verwaltung des rams sprich nicht mehr die cpu bestimmt, sondern eher der rest des systems, da die CPU ja bekanntlich ihren eigenen cache besitzt.

Gast
2009-03-20, 21:12:59
FB-DIMM zumindest ganz grob ein ähnlicher ansatz, aber performance bringt das nicht, ganz im gegenteil, die latenzen werden dadurch schlechter.

Gast
2009-03-20, 22:07:24
FB-DIMM zumindest ganz grob ein ähnlicher ansatz, aber performance bringt das nicht, ganz im gegenteil, die latenzen werden dadurch schlechter.

Dafür hatte man aber mehr RAM, Latenzen sind meist uninterressant, vor allem im Serverbereich.

Mehr RAM bringt deutlich mehr Leistung (DBs).

PS bei Servern wird seit Jahren Registred RAM eingesetzt, dieser ist ebenfalls entkoppelt und damit mit höherer Latenz angebunden.

mfg

BlackBirdSR
2009-03-20, 22:33:18
Was ist nach dem memory controller in der CPU zu erwarten?

wäre es nicht möglich den controller direkt in die ram module zu integrieren?

Der vorteil wäre ja eigentlich ganz simpel, man bräuchte nur noch das board passend zur cpu wählen, der speicher wäre in einem universalslot.

würde das sinn machen in anbetracht von geringeren latenzen und einer autarken verwaltung des rams sprich nicht mehr die cpu bestimmt, sondern eher der rest des systems, da die CPU ja bekanntlich ihren eigenen cache besitzt.

ich glaube, es geht eher in Richtung "Stacked-Chips", wo Speicher und CPU übereinander im Package liegen. Aktuell wird sehr viel in Richtung 3D-Integration geforscht.

robbitop
2009-03-20, 22:37:18
ich glaube, es geht eher in Richtung "Stacked-Chips", wo Speicher und CPU übereinander im Package liegen. Aktuell wird sehr viel in Richtung 3D-Integration geforscht.
Naja das bringt nur was für den Low-Cost Bereich. High End Chips sind dafür viel zu groß. Ansonsten ist die Anbindung zw CPU und GPU eigentlich kein Flaschenhals.

AnarchX
2009-03-20, 22:42:44
Naja das bringt nur was für den Low-Cost Bereich. High End Chips sind dafür viel zu groß. Ansonsten ist die Anbindung zw CPU und GPU eigentlich kein Flaschenhals.
Momentan, aber mit AVX wird bei Sandy Bridge die Durchsatzleistung erheblich steigen, weshalb Intel hier wohl auch schnell angebundenen (~64GB/s) DRAM plant, der wohl auf das Package wandert. Langfristig (Haswell) kommt wohl auch noch ein Pool an Co-Vektorprozessoren auf das Package bzw. den CPU-Die, sodass hier durchaus ein erhöhter Bandbreitenbedarf besteht den extenerner DDRx wohl so nicht stillen kann.

Zur Idee des TI:
Ich bezweifele, dass AMD und Intel die Kontrolle über ihre MC aus der Hand geben würden und das die Latenz besser als bei einem IMC sein soll, kann ich mir auch schwer vorstellen.

Gast
2009-03-20, 22:55:22
Naja das bringt nur was für den Low-Cost Bereich. High End Chips sind dafür viel zu groß. Ansonsten ist die Anbindung zw CPU und GPU eigentlich kein Flaschenhals.
Kommt drauf an was man machen will.
Ich kann mich an eine Folie aus einer Vorlesung erinnern die sinngemäß besagte dass die 140GB/s Speicherbandbreite der GTX280 vieeeel zu langsam für die wirklich interessanten Sachen wären ;) (Es ging um GPGPU mit CUDA). Mit dem shared Memory und den on-chip Caches ist man da mittlerweile in der Größenordnung TB/s.
An die Bandbreite zwischen Graka und Hauptspeicher denkt man bei sowas nur mehr mit Grausen. :D

lg

robbitop
2009-03-21, 10:26:17
Momentan, aber mit AVX wird bei Sandy Bridge die Durchsatzleistung erheblich steigen, weshalb Intel hier wohl auch schnell angebundenen (~64GB/s) DRAM plant, der wohl auf das Package wandert. Langfristig (Haswell) kommt wohl auch noch ein Pool an Co-Vektorprozessoren auf das Package bzw. den CPU-Die, sodass hier durchaus ein erhöhter Bandbreitenbedarf besteht den extenerner DDRx wohl so nicht stillen kann.


Eine CPU wird nie Enthusiast oder High End GPUs ersetzen können. Dafür gibt es zu viele technische als auch betriebswirtschaftliche Gründe, die das verhindern.
Ich kann mir vorstellen, dass zusätzlich zu 4-16x sehr schnellen, komplexen CPU Kernen mit hoher IPC viele viele simple SIMDs dazu kommen. Also eine asymetrische Architektur. Und die könnte dann im Bereich GPGPU / Physik viel selbst machen.

Kommt drauf an was man machen will.
Ich kann mich an eine Folie aus einer Vorlesung erinnern die sinngemäß besagte dass die 140GB/s Speicherbandbreite der GTX280 vieeeel zu langsam für die wirklich interessanten Sachen wären ;) (Es ging um GPGPU mit CUDA). Mit dem shared Memory und den on-chip Caches ist man da mittlerweile in der Größenordnung TB/s.
An die Bandbreite zwischen Graka und Hauptspeicher denkt man bei sowas nur mehr mit Grausen. :D

lg
Mir ist eigentlich so, dass Arithmetik weniger Bandbreite benötigt, da die Operationen viele Takte brauchen.

AnarchX
2009-03-21, 10:39:15
Eine CPU wird nie Enthusiast oder High End GPUs ersetzen können.
Natürlich nicht, nur wie schon gesagt könnte der Bedarf an Speicherbandbreite bei CPUs in der Zukunft etwas schneller steigen, als es der extene DDRx Speicher zulässt, der zudem ja auch noch ausreichend groß sein muss für entsprechende Workloads.

Hier die Tabelle aus der alten Larrabee Präsentation (Sandy Bridge hieß damals noch Gesher):
http://img204.imageshack.us/img204/8018/larrabeespecsnu4.png (http://imageshack.us)

Bei PCWatch gab es vor einiger Zeit auch noch ein paar Intel Folien zum Thema DRAM auf dem Package und der Speicherhierarchie bei zukünftigen CPUs:
http://translate.google.ch/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2008%2F1226%2Fkaigai483 .htm&sl=ja&tl=de&hl=de&ie=UTF-8
... den Speicher unter den CPU-Die zu befestigen und dessen Signalleitungen durch diesen durchzuleiten scheint wohl laut Intel momentan der beste Ansatz zu sein, wenn wohl auch der schwierigste.

Im B3D gab es auch mal die Idee, dass man bei Nvidias monströsen Dies ja auch gleich den Speicher unter den Die kleben könnte.:D

Avalox
2009-03-21, 12:41:23
Was ist nach dem memory controller in der CPU zu erwarten?

wäre es nicht möglich den controller direkt in die ram module zu integrieren?


Mittelfristig?

Sicherlich wird der Speicher selbst direkt in die CPU wandern.

Coda
2009-03-21, 12:51:01
Sicherlich? Ich bin mir da nicht so sicher, vor allem stellt da die Erweiterbarkeit so ein Problem dar.

BlackBirdSR
2009-03-21, 13:18:38
Sicherlich? Ich bin mir da nicht so sicher, vor allem stellt da die Erweiterbarkeit so ein Problem dar.

Es ist ein sehr aktives Forschungsgebiet und auf die ein oder andere Weise, wird das auch im Markt erscheinen.
Und wenn es nur gigantische Zwischenspeicher werden...

AnarchX
2009-03-21, 13:55:37
Sicherlich? Ich bin mir da nicht so sicher, vor allem stellt da die Erweiterbarkeit so ein Problem dar.
Im HPC-Markt wird man sicherlich noch eine Erweiterbarkeit anbieten, aber gerade im Endkundenmarkt wäre so ein Schritt denkbar, da hier die meisten wohl eh keine Aufrüstung vornehmen und man so mit dieser weiteren Integration weiter Kosten sparen könnte.
Zudem könnte ja der Anbieter auch entsprechende Konfigurationen mit sinnvollen Speichermengen anbieten.

Stone2001
2009-03-21, 14:52:08
Einiges was nach dem Memory Controller in die CPU (zumindest ins Package) wandern wird, wurde hier ja schon genannt. Darunter zählen asymmetrische Prozessoren und die Integration von Speicher und CPU in einem 3D-Package.

Asymmetrische Prozessoren, also Prozessoren mit unterschiedlichen Architekturen / Befehlssätzen oder auch Prozessoren mit dedizierten Beschleunigereinheiten werden definitiv kommen. AMD Fusion ist nur eine von vielen möglichen Ausprägungen. Auch wenn man sich aktuelle HPC-Systeme (z.B. IBM Roadrunner) oder den Cell-Prozessor ist eigentlich schon ersichtlich, wohin die Reise geht. Neulich hat mir ein Mitarbeiter eines großen Prozessorherstellers sogar bestätigt, dass darüber nachgedacht wird rekonfigurierbare Logik in CPU zu integrieren. Auch bei den dedizierten Beschleunigereinheiten gibt es genügend Beispiele, die früher oder später in den Prozessor selbst wandern werden (zuerst werden es wohl Kryptoprozessoren sein ...).

Auch im HPC-Markt werden asymmetrische Prozessoren kommen. Cell ist schon hier. Prozessoren mit einem oder zwei sehr großen Kernen (OoOE, ...) und vielen kleinen Kernen (z.B. wie die vom Larabee) sind bei massiv parallelen Anwendungen ideal. Die großen Prozessoren kommen zu Einsatz, wenn Teile sequentiell abgearbeitet werden müssen, die vielen kleinen, bei den parallelen Teil der Anwendung. Amdahls Law läßt grüßen. Problem hierbei ist Versorgung mit Daten...

Was bringt einem ein ManyCore mit 100 oder mehr Prozessoren, wenn die Speicheranbindung nur Daten für wenige Prozessoren liefern kann? Die Kombination von Speicher mit Prozesoren, um vorallem die Speicherbandbreite zu steigern, ist etwas was vorallem vom HPC-Markt getrieben wird. Die Multicore-Entwicklung ist etwas, was zwar die Peak-Performance in die Höhe treibt, unter dem Strich aber nur wenig Mehrleistung bringt. Schon bei MultiCore-Architekturen können aktuelle Speicheranbindungen einfach nicht jeden Prozessor dauerhaft mit Daten versorgen. Wie wird es dann erst mit ManyCore-Architekturen? Die großen Prozessorhersteller forschen gerade an Lösungen, wie man CPU und RAM so gut wie möglich verbinden kann. Erste Erfolge hat Intel mit dem 80-Kern Polaris ja schon gezeigt.

Stone2001
2009-03-21, 15:01:13
Im HPC-Markt wird man sicherlich noch eine Erweiterbarkeit anbieten, aber gerade im Endkundenmarkt wäre so ein Schritt denkbar, da hier die meisten wohl eh keine Aufrüstung vornehmen und man so mit dieser weiteren Integration weiter Kosten sparen könnte.
Zudem könnte ja der Anbieter auch entsprechende Konfigurationen mit sinnvollen Speichermengen anbieten.
Kurze Anmerkung: Erweiterbarkeit spielt im HPC-Markt eigentlich gar keine Rolle. Da kauft man ein System, das den Anforderungen genügt und lässt dieses dann ein paar Jahre laufen. Das die Prozessoren oder der Arbeitsspeicher im laufenden Betrieb erweitert werden ist durchaus möglich, aber eher unwahrscheinlich. Meistens kommt eine Aufrüstung noch vor, wenn die HPC-Hersteller Leistungen / Prozessoren versprechen, die Prozessorhersteller bis zum Liefertermin aber nicht liefern können. Dann wird das System mit kleineren, ältern Prozessoren ausgeliefert, damit es wenigstens draussen ist die Strafe klein bleibt.

Wie es im Server-Markt aussieht, kann ich nicht sagen, dafür fehlt mir da die Erfahrung. Ich denke, dass auch hier die Erweiterung eher eine untergeordnete Rolle spielt. Hier werden wohl Verfügbarkeit, ... eine wichtigere Rolle spielen.

Aufrüstbarkeit ist etwas, was eigentlich nur bei Heimrechnern üblich ist.

Gast
2009-03-21, 17:06:44
und deshalb ist der heimanwenderbereich ja auch so erfolgreich, weil viel weniger PC´s verkauft würden, wenn man diese nicht aufrüsten könnte, wie eine konsole.
so kann man seinen pc im nachhinein noch umkonfigurieren, also den geänderten wünschen anpassen. das liegt zum einen daran, das wir laufend unsere wünsche ändern, zum anderen daran, das sich private leute einfach nicht leisten können, für jeden anwendungsbereich ein eigenes system zu kaufen.
das geht nur in firmen mit großem budget, die können immer das kaufen was gebraucht wird.
Wenn es so kommen sollte, das ram, graka etc in die cpu integriert werden, ohne die möglichkeit, auf dem mainboard aufzurüsten, dann werden viele leute nur noch "langsame" pc nutzen, weil es sich nicht rechnet, alle paar monate eine neue cpu für 300€ zu kaufen nur weil man 1gb ram mehr haben will.
folglich werden sich die endkundenpreise insgesamt stark erhöhen, die einzigen die einen vorteil dadurch hätten wären unternehmskunden, da sich bei denen einsparpotenziel ergäbe.

Der Integrationswahn wird am ende vom retailkunden getragen werden, eine ps3 ist auch nur so teuer weil dort sachen drin sind die kaum genutzt werden und am ende den preis treiben, das gleiche steht dem pc bevor, unter dem slogan fertigungskosten zu senken.

basti333
2009-03-21, 17:43:34
wenn speicher in die CPU kommt und es sich zusätzlich um eine CPU mit integrierter GPU handelt dürfte dürfte die schlechte Speicheranbindung von on board grafik doch ein ende haben oder?

Gast
2009-03-23, 10:03:42
Kleine Frage nebenbei:
Warum ist die GPU<->Speicher Anbindung weitaus schneller als CPU<->Speicher

AnarchX
2009-03-23, 10:16:19
Kleine Frage nebenbei:
Warum ist die GPU<->Speicher Anbindung weitaus schneller als CPU<->Speicher
Weil CPUs (z.B. i7 965 = 51.2GFLOPs) nicht so einen hohen Durchsatz wie GPUs (z.B. HD4870 = 1200GFLOPs) haben und dementsprechend auch nicht soviel Bandbreite benötigen.

Aber wie schon dargestellt könnte in Zukunft der Durchsatz bei CPUs etwas schneller wachsen, als die die durch DDRx bereitgestellte Bandbreite, deshalb auch Intels Ideen zum näher angebundenen Fast DRAM.

Kurze Anmerkung: Erweiterbarkeit spielt im HPC-Markt eigentlich gar keine Rolle. Da kauft man ein System, das den Anforderungen genügt und lässt dieses dann ein paar Jahre laufen.
Da hast du recht, ich dachte auch eher in die Richtung der flexiblen Gestaltung des Ausgangssystems, zumal im HPC-Markt kosten ja nicht so ein großer Faktor sein sollten, sodass man auf diese Sparmaßnahme verzichten kann.

BlackBirdSR
2009-03-23, 11:47:15
Kleine Frage nebenbei:
Warum ist die GPU<->Speicher Anbindung weitaus schneller als CPU<->Speicher

Hoher Durchsatz erfordert hohe Bandbreite. Hoher Durchsatz an paralellisierbaren, nahezu identischen Arbeitsschritte, erfordert gigantischen Durchsatz. Das wäre die typische GPU, Vektorprozessoren etc.

Probleme, die weniger linear und vorhersehbar sind, legen dagegen viel mehr Wert auf kurze Latenzzeiten und damit schnellen Zugriff. Hunderte GB im Burst-Zugriff bringen wenig, wenn die CPU auf einzelne Daten verhältnismäßig ewig warten muss. Daher macht es wenig Sinn, für CPUs so große Kosten auf sich zu nehmen. Kommt Zeit kommt Bandbreite :) Eben im Verhältnis zur gestiegenen CPU Leistung.

haifisch1896
2009-03-23, 16:01:16
Was widerum aber, denke ich, nicht vollständig die Frage erklärt.
Neben dem Bedarf hat es elektrische Gründe.

So sind CPUs wie auch der Speicher gesockelt. Bei jedem Übergang von den Leitungen auf einen Sockel entsteht Rauschen, weshalb die Taktfrequenz nicht so hoch gehalten werden kann, ohne dass es zu korrupten Daten kommt.

Zudem sind die Signalwege auf einem PCB für Grafikkarten kürzer als die auf einem Mainboard.