PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 128-Bit-CPUs


Larucio
2011-04-02, 21:35:55
Hallo,

gibt es 128 Bit CPUs bzw. sind welche in Planung, oder wäre eine 128-Bit-CPU technisch theoretisch gar nicht möglich. Denn irgendwenn wird ja auch mal 64 Bit zu wenig sein.

Hat jemand dazu die technischen Hintergründe?

MfG

Ric
2011-04-02, 21:41:14
Such dir einen Artikel zwischen 32 bit und 64 bit, oder 16 bit und 32 bit Plattformen. Tausche die Zahlen gegen 64 und 128 aus und schon hast du alles.

Immer wieder die selben gründe und probleme.

anddill
2011-04-02, 21:42:06
Sind problemlos möglich. Und heutige CPUs rechnen bei vielen Datentypen zB. in den SIMD-Registern schon mit 128 Bit Breite. Nur 128 Bit Adressraum macht keinen Sinn, denn so ein Speicher wäre nicht zu bauen.

iltis2k
2011-04-02, 21:45:55
Und heutige CPUs rechnen bei vielen Datentypen zB. in den SIMD-Registern schon mit 128 Bit Breite.
Bei AVX sind es sogar schon 256 Bit.

Spasstiger
2011-04-02, 21:46:24
IPv6 adressiert mit 128 Bit.

Lokadamus
2011-04-02, 21:47:14
mmm...

Wenn man mit 128Bit rechnen will, kann man SSE verwenden.
http://de.wikipedia.org/wiki/Streaming_SIMD_Extensions

Ansonsten ist der nutzen für 128Bit eher fragwürdig. 64Bit machen mittlerweile Sinn, aber auch nur um mehr Speicher ansprechen zu können.

anddill
2011-04-02, 21:49:11
@ Spasstiger
Ja, damit kann man wahrscheinlich jedem Atom im Universum eine IP verpassen. Aber Du kannst aus genau dem selben Grund keinen Speicher mit 128Bit Adressierung bauen, denn dann müßtest Du so einige 100 Universen zu Speicher verarbeiten.

Exxtreme
2011-04-02, 21:51:38
@ Spasstiger
Ja, damit kann man wahrscheinlich jedem Atom im Universum eine IP verpassen. Aber Du kannst aus genau dem selben Grund keinen Speicher mit 128Bit Adressierung bauen, denn dann müßtest Du so einige 100 Universen zu Speicher verarbeiten.
Wieso dass denn? :confused:

Lokadamus
2011-04-02, 21:53:33
Wieso dass denn? :confused:mmm...

Ich verweise dazu mal einfach auf einen Kommentar zu ZFS:
ZFS ist für sehr große Datenmengen ausgelegt, was durch die durchgängige Verwendung von 128-Bit-Zeigern erreicht wird. In der Praxis sind die Grenzen jedoch mit denen eines 64-Bit-Dateisystems vergleichbar. Bei der Implementation unter Solaris und beispielsweise auch FreeBSD werden 64-Bit-Datentypen verwendet, da es in C derzeit keine 128-Bit-Datentypen gibt. Im Wesentlichen werden die ersten 64 Bits des Zeigers immer zusammen mit 64 Nullen abgespeichert, die bei der Verarbeitung ignoriert werden. Das ermöglicht es, bestehende Dateisysteme später als echte 128-Bit-Dateisysteme weiterhin verwenden zu können. Die Kapazität von ZFS ist so ausgelegt, dass sie für immer ausreicht.
http://de.wikipedia.org/wiki/ZFS_%28Dateisystem%29

anddill
2011-04-02, 21:55:04
Wieso dass denn? :confused:

Weil Du mehr als ein Atom pro Speicherzelle brauchst.

Ähm, natürlich könnte man Speicher bauen, der Adressen im 128Bit-Format akzeptiert. Aber Du kannst den Adressraum nicht nutzen, weil Dir irgendwann das Universum ausgeht.

Exxtreme
2011-04-02, 22:22:58
Weil Du mehr als ein Atom pro Speicherzelle brauchst.

Ähm, natürlich könnte man Speicher bauen, der Adressen im 128Bit-Format akzeptiert. Aber Du kannst den Adressraum nicht nutzen, weil Dir irgendwann das Universum ausgeht.
Ich meinte ja nicht den theoretischen Vollausbau. ;)

Lokadamus
2011-04-02, 22:41:17
Ich meinte ja nicht den theoretischen Vollausbau. ;)mmm...

Ich frage mich eher, wie viele Jahre es dauern wird, bis wir Speicher mit Exabyte- Kapazitäten haben. Wenn kein Genie eine Idee für die Speicherung von Daten hat, wird es wohl frühestens in 20 Jahren sein, dass Raid/ Cluster- Systeme mit zig Platten an diese Grenze überhaupt kommen.
http://de.wikipedia.org/wiki/Bin%C3%A4rpr%C3%A4fix

Edit: Nee, das wird schneller sein ...
http://www.lhsystems.de/company/did-you-know/data-center-2300-servers-1000-terabyte.htm

Gauron Kampeck
2011-04-03, 03:51:06
@ Spasstiger
Ja, damit kann man wahrscheinlich jedem Atom im Universum eine IP verpassen.
Nicht ganz, wohl aber fast jedem Molekül auf der Erdoberfläche ;)
Aus dem Studium hab ich noch irgendwas in der Größenordnung "ein paar Trilliarden Adressen pro Quadratzentimeter" im Kopf.

Coda
2011-04-03, 05:21:23
Wenn man mit 128Bit rechnen will, kann man SSE verwenden.
Kann man nicht.

Bei AVX sind es sogar schon 256 Bit.
Nein. Es sind vier mal 64 Bit oder acht mal 32 Bit.

Und das Thema langweilt. Selbst wenn sich die Hauptspeicherkapazität weiterhin alle 18 Monate verdoppelt reicht 64 bit zur Adressierung noch für gut 50 Jahre. Wir haben dieses Mal 32 36 Bits dazubekommen, nicht 16 12. Die Zeitspanne bis zur nächsten Architektur ist also bei gleichem Zuwachs 3 mal so groß wie die zwischen 16 20 und 32 Bit.

Abgesehen davon müsste man mal durchrechnen ob mehr als 64 bit Adressraum in einem Heimcomputer rein physikalischer überhaupt machbar sind.

Edit: 16-Bit-x86 hatte ja einen 20-Bit-Adressraum physikalisch. Damit wird der Unterschied noch größer.

san.salvador
2011-04-03, 07:20:48
Ist es nicht so, dass heutige (Intel-)CPUs nur 40Bit für den Speicher verwenden?

Lokadamus
2011-04-03, 07:22:24
Kann man nicht.mmm...

Stimmt. Wenn ich es richtig verstehe, gibt es nur ein AND- Befehl, um alle 128Bit auf einmal anzusprechen (bzw. 2, addps und pand).
http://en.wikipedia.org/wiki/Streaming_SIMD_Extensions#ExampleIst es nicht so, dass heutige (Intel-)CPUs nur 40Bit für den Speicher verwenden?Meinst du PAE? http://de.wikipedia.org/wiki/Physical_Address_Extension

san.salvador
2011-04-03, 07:25:42
Das wirds sein, so falsch wars ja nicht. ^^

Coda
2011-04-03, 07:30:04
mmm...

Stimmt. Wenn ich es richtig verstehe, gibt es nur ein AND- Befehl, um alle 128Bit auf einmal anzusprechen (bzw. 2, addps und pand).
Logisches AND ist eine Bitoperation. Es ist also völlig egal ob ich die 128 Bit dafür als 1x128 Bit oder 128x1 Bit betrachte.

Aber ja: Das ist auf dem Papier einen 128-Bit-Operation wenn man so will :ugly:

Ist es nicht so, dass heutige (Intel-)CPUs nur 40Bit für den Speicher verwenden?
48 Bit virtuell und 40 bit physikalisch. Ist aber beides transparent erweiterbar, ohne Softwarekompatibilität zu bestehenden x86-64-Programmen zu brechen.

1024 GiB Hauptspeicher pro System sollten derzeit aber ausreichen, oder?

S940
2011-04-03, 11:01:00
@Larucio:
Ähnlicher Thread vor Jahr und Tag:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350325

G A S T
2011-04-03, 13:59:21
@Larucio:
Ähnlicher Thread vor Jahr und Tag:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=350325

Jupp. Und dieser Thread hier ist genauso sinnbefreit wie der alte von vor 4 Jahren.
Auch hier wird alles kunterbunt durcheinander geworfen 64-Bit in Hard- und Software. Der eine Schreibt was über den Adressraum, der nächste über Register und noch jemand über IPv6. Fehlt eigentlich nur noch AES.

Leute die heute nach 128-Bit-CPUs fragen, blicken es doch sowieso nicht.
Und durch solche Antworten werden sie garantiert auch nicht "erhellt"...

Apropos - wo steckt eigentlich unser Spezialist für Bit-Fragen?
Wo ist duty?

Tigerchen
2011-04-06, 15:41:53
Jupp. Und dieser Thread hier ist genauso sinnbefreit wie der alte von vor 4 Jahren.
Auch hier wird alles kunterbunt durcheinander geworfen 64-Bit in Hard- und Software. Der eine Schreibt was über den Adressraum, der nächste über Register und noch jemand über IPv6. Fehlt eigentlich nur noch AES.

Leute die heute nach 128-Bit-CPUs fragen, blicken es doch sowieso nicht.
Und durch solche Antworten werden sie garantiert auch nicht "erhellt"...

Apropos - wo steckt eigentlich unser Spezialist für Bit-Fragen?
Wo ist duty?
Na die meisten wissen doch gar nicht mehr so genau was ein Bit eigentlich ist. Bei 64 Bit geht es ja nur um den Adressraum. Und da ist der Endpunkt der Entwicklung erreicht. Die 64 Bit sind ja nicht mal ansatzweise ausgereizt und da jedes mehr verschaltete Bit den Adressraum gleich verdoppelt wird das wohl auch nie passieren.

Spasstiger
2011-04-06, 15:47:42
und noch jemand über IPv6
Das war ein Beispiel für eine technische Anwendung, die mit 128 Bit addressiert. Ich wollte damit nur den Gegenbeweis für die Aussage liefern, dass es keinen Sinn machen würde, mit mehr als 64 Bit zu addressieren. Aber einen philosophischen Charakter meiner Aussage will ich nicht abstreiten.

Headjunkie
2011-04-09, 12:43:45
Antwort auf Threadfrage:

Addressraum ist dafür da um bestimmte Bereiche im Speicher anzusprechen.
Nun hat man also bei :
16 bit Addressraum => 2^16 = 65,536 mögliche Bereiche
32 bit Addressraum => 2^32 = 4,294,967,296 mögliche Bereiche
64 bit Addressraum => 2^64 = 18,446,744,073,709,551,616 mögliche Bereiche
(Der Einfachheit halber werden "Verlust"-Bits u. ä. ignoriert)

Bei einer x64 CPU hat man also 18,446,744,073,709,551,616 Bereiche, und das ist einfach mehr als genug um auf absehbare Zeit keinerlei "Upgrade" notwendig zu machen, versucht einfach mal die Zahl auszusprechen und man stellt fest wie verdammt groß das ist.


Warum gibt es dann trotzdem z.B. Protokolle wie IP6 das mehr Bits verwendet?
Weil IP6 wie auch IP4 in zig Untergruppen aufgeteilt wird, und um sicherzustellen das jede Untergruppe immer noch "praktisch unendlich" viele Bereiche(halt 2^64) ansprechen zu können müssen automatisch mehr Bits verwendet werden. Im Prinzip erlaubt also IP6 "praktisch unendlich" viele Untergruppen mit jeweils "praktisch unendlich" vielen Gruppenmitgliedern.

Bei Speicher gibt es diese Form der Gruppierung aber nicht und daher reichen 2^64.

Gruß Headjunkie

Edit: @Spasstiger: Angepasst, trotzdem gehts mir nur um die einfachst mögliche Erklärung da Leute die nach soetwas fragen in der Regel einfache Antworten brauchen.

Spasstiger
2011-04-09, 12:50:50
Addressraum ist dafür da um bestimmte Bereiche im physikalischen!! Speicher anzusprechen.
[...]
Bei einer x64 CPU hat man also 18,446,744,073,709,551,616 Bereiche
Leider ist das falsch. Ein 64-Bit-Atom kann z.B. physikalisch nur mit 32 Bit adressieren, der Zugriff auf 64-Bit-Adressen erfolgt virtuell.
Selbst ein Phenom II kann physikalisch nur mit 48 Bit adressieren.

Virtuelle Speicherverwaltung ist ein zentrales Thema bei modernen Rechnerarchitekturen.

anddill
2011-04-09, 13:15:59
Falsch nicht. Nur aktuell nicht in vollem Umfang umgesetzt. Die CPUs können mit 64Bit Adressen arbeiten, nutzen aber im Moment nur bis zu 48Bit davon Physikalisch. Man könnte aber einer 64Bit-CPU problemlos 64 Adress-Beinchen anbacken (mit den entsprechenden Registern, Dekodern etc. dahinter natürlich), und die würde damit arbeiten können, ohne daß an der Software irgendwas angepasst werden müsste.

Spasstiger
2011-04-09, 13:26:05
Ich hab ja nie bestritten, dass eine 64-Bit-CPU mit 64-Bit-Adressen umgehen kann. Aber bei einer 64-Bit-CPU davon auszugehen, dass diese 2^64 Adressen physikalisch ansprechen kann, ist zu stark vereinfacht.
Ich hatte das Thema zur Genüge in meinen Technische-Informatik-Vorlesungen und könnte einen Speichercontroller in VHDL implementieren. Vielleicht bin ich deshalb auch kein Freund von zu starken Vereinfachungen. Die Materie ist komplex und wer sie verstehen will, muss sich halt durchbeißen.

Headjunkie
2011-04-09, 13:48:41
Ich kann auch nen Speichercontroller in VHDL zimmern, und da ich mich mit CPU Architekturen nie so en Detail auseinandergesetzt habe sondern einige Etagen tiefer und kleiner, hatte ich auch einfach übersehen das die Dinger im noch teilweise virtuell ihren Speicher ansprechen (was ich in der Form noch nie selber implementiert habe), deswegen habe ich es ja rausgenommen.

Für Ottonormalverbraucher (und damit wahrscheinlich den Fragesteller) ist dies jedoch völlig schnurze und ich bin der Meinung das meine zugegebenermaßen "Extremst"-Vereinfachung seine Frage hinreichend beantwortet.

Ich trainiere immer wieder mit meinen Großeltern denen ich meine MSc Thesis über eine FPGA Implementierung zur automatischen realtime Bildstabilisierung erklärt habe, und man sollte auch komplexe Zusammenhänge passend zum Fragesteller erklären, weil die komplette 1. Seite dieses Threads ist für den Threadstarter vermutlich komplett nutzlos.

Aber deine Kritik war ja berechtigt, und daher hab ichs einfach rausgenommen, egal ob virtuell oder physikalisch, die Anzahl der Bereiche ist extremst groß.

Gruß Headjunkie

ENKORE
2011-04-25, 00:58:33
Abgesehen davon müsste man mal durchrechnen ob mehr als 64 bit Adressraum in einem Heimcomputer rein physikalischer überhaupt machbar sind.

Ein DDR RAM Modul ist gut 13 cm lang, 4 cm hoch und 0,5 cm dick (das behaupt ich einfach mal, mit Heatspreadern könnte das sogar passen)

Ich rechne hier jetzt einfach mal ein bissl rum, sagen wir mal unser Super-Duper-Speicher (SDP RAM) ist so groß wie 4 DDR-irgendwas-Module und ist komplett massiv. (Was alles mehr als reichlich optimistische Annahmen sind. Gradezu euphemistisch)

Volumen eines Moduls: 13 cm * 4 cm * 0,5 cm = 26 cm^3
Volumen von vier Modulen: 26 cm^3 * 4 = 104 cm^3

Dichte von Silizium: 2,336 g/cm^3
Masse des SDP RAMs: 104 cm^3 * 2,336 g/cm^3 = 242,944 g
(Das nur mal als Maßstab)

Molares Volumen von Silizium: 12,06 · 10^-6 m^3/mol = 12,06 * 10^-3 cm^3/mol = 0,01206 cm^3/mol
Volumen pro Mol: 1/(0,01206 cm^3/mol) = 82,92 mol/cm^3
Stoffmenge des Moduls: 82,92 mol/cm^3 * 104 cm^3 = 8623,55 mol
Anzahl der Atom des Moduls: 8623,55 mol * NA = 8623,55 mol * 6,022 * 10^23 = 5 193 101 160 862 354 892 205 638 474

5 193 101 160 862 354 892 205 638 474 Atome hat also unser SDP RAM. Pro Speicherzelle braucht er meinetwegen 10000 Atome

5 193 101 160 862 354 892 205 638 474 / 10000 = 519 310 116 086 235 489 220 563 Bits

519 310 116 086 235 489 220 563 Bits
64 913 764 510 779 436 152 570 Bytes (*1/8)
63 392 348 155 058 043 117 Kilobytes (*1/1024)
61 906 589 995 173 870 Megabytes (*1/1024)
61 906 589 995 173 Gigabytes (*1/1000)
61 906 589 995 Terabytes (*1/1000)
61 906 589 Petabytes (*1/1000)
61 906 Exabytes (*1/1000)
61 Zettabytes (*1/1000)

Ehm ja... nur...
a) Ist kein Speicher massiv und wird es wohl auch nie sein (Wärmeableitung aus dem Zentrum wäre sehr schwer)
b) Braucht man deutlich mehr als ein paar tausend Atome für eine Speicherzelle (So kleine Strukturgrößen gehen weder mit Licht noch mit Strom. Denn sowohl Photonen als auch freie Elektronen würden da einfach "durchschlagen")
c) Wird man, und das dürfte i.G. zur 640k-Sache nie NIE NIE soviel Speicher brauchen! Zumindest nicht als Privatperson.
0,6 MB => 8 GB ist lediglich eine Größenordnung, wir sprechen hier von 4 Größenordnungen bei einer Basis von 1000!

Naitsabes
2011-04-25, 21:25:59
:eek:

mehr fällt mir jetzt nicht ein^^

Spasstiger
2011-04-25, 21:55:25
Mit 30-nm-Fertigung und Die-Stacking sind derzeit 16 Gibit in einem FBGA-Package wie man es von Grafikspeicher kennt Stand der Technik: http://www.computerbase.de/news/hardware/arbeitsspeicher/2011/april/elpida-entwickelt-4-gbit-grossen-lpddr2-chip/.
Angenommen, man stapelt 16 statt 4 Chips und bringt in 10-nm-Fertigung pro Siliziumscheibchen die 8-fache Speichermenge unter, dann wären das 512 Gibit in einem FBGA-Package. Packt man 16 davon auf einen DRAM-Riegel und steuert mit einer CPU 16 dieser Riegel an, hätte man insgesamt 128 Tebibit = 128*2^40 Bit = 2^44 Byte, die von einer einzelnen CPU verwaltet werden müssten. Die 64-Bit-Grenze ist da immer noch weit entfernt, obwohl das schon eine optimistische Prognose für das ist, was man auf Basis von Silizium in den nächsten 15 Jahren erreichen könnte.

Knuddelbearli
2011-04-26, 00:52:41
naja bei quanten pcs wirds dann aber übel Tianhe A1 wird von 30 Quantenbits bereits getoppt und letzte Woche wurden erstmals gelungen 14 Quantenbits miteinander zu verschränken. Wird aber wohl über 15 jahre dauern bis es soweit ist ^^.

Will damit nur sagen das 128bit nicht für immer ausgeschlossen werden kann nur weill es mit heutigem Speicher nicht möglich ist,

Coda
2011-04-26, 01:57:37
Bitte was?

(del)
2011-04-26, 01:59:38
Der will dich nur fertig machen =) Die warten nur bis ich mal paar Tage ruhig bin und dann ;)

ENKORE
2011-04-26, 15:42:37
Will damit nur sagen das 128bit nicht für immer ausgeschlossen werden kann nur weill es mit heutigem Speicher nicht möglich ist,
Wird man, und das dürfte i.G. zur 640k-Sache nie NIE NIE soviel Speicher brauchen! Zumindest nicht als Privatperson.
0,6 MB => 8 GB ist lediglich eine Größenordnung, wir sprechen hier von 4 Größenordnungen bei einer Basis von 1000!

nie NIE NIE => nicht während meine Kinder noch Leben. Wir haben seit der 640k Aussage in rund 30 Jahren nur eine Größenordnung geschafft. Wir werden bis zur Ablösung von x86 also auf keinen Fall vier schaffen.

Avalox
2011-04-26, 15:57:26
Warum gibt eigentlich ELKO an, dass der Core i7 nur einen physikalischen Adressbereich von 36Bit hat?

http://www.elektronik-kompendium.de/sites/com/1401191.htm

Was kann der i7 denn tatsächlich?

AnarchX
2011-04-26, 16:06:11
32GiB gibt Intel sowohl für Core i7 als auch die Xeon-Versionen an.

Avalox
2011-04-26, 16:11:13
32GiB gibt Intel sowohl für Core i7 als auch die Xeon-Versionen an.

:| dann kann ein i7 System die nächste Generation von Speichermodul Größen schon gar nicht mehr komplett umsetzen? Das ist aber sehr mager.

Wie soll denn ein System mit 3 Speicherbänkten überhaupt vernümftig auf 32GB RAM kommen? Mit 24GB Ram ist dann Sense, wenn man nicht auf ein Kanal verzichten will und vor allen gibt es diese mit 24GB bestückten i7 ja schon heute in der Praxis.

Dann wird ELKO bestimmt Recht haben und irgendwo schwebte mal ein i7 mit gar nur 36Bit (35?) Adressleitungen umher.

Das mit dem arg limitierten Adressleitungen des i7 ist aber kaum thematisiert worden.. Das ist ja ein Ding.

Headjunkie
2011-04-27, 11:40:43
5 193 101 160 862 354 892 205 638 474 Atome hat also unser SDP RAM. Pro Speicherzelle braucht er meinetwegen 10000 Atome

Also erreicht ist es zwar noch nicht ganz, aber vorstellbar sind auch heute schon Transistoren die nur aus <10 Atomen bestehen, dann bräuchte man für ne komplette Speicherzelle mit extremst kurzen Leiterbahnen vielleicht weniger als 100 Atome!
http://www.gizmag.com/single-atom-transistor-quantum-computing/13524/

Ansonsten sind die Berechnungen relativ egal, weil nur wieder irgendein Meilenstein/Durchbruch in der Forschung auch mal schnell noch nen Faktor 1000 rausholen kann, und das die jetzige Leistung auf jeden Fall nicht genug ist, ist doch klar. Oder erinnert sich noch wer an die ersten 100MB Festplatten und PCs mit 16MB RAM wo es hiess, NIE UND NIMMER Kann ein Mensch mehr brauchen...

Mögliche Anwendungen für einige Faktoren mehr Leistung sind Häuser mit vollautomatischer Steuerung inclusive einer AI like Steuerung.

Die Sprünge in der Elektronik sind unvorstellbar und vorallem auch unvorhersehbar. Oder hätte wer vor 10 Jahren gewettet das im Jahr 2011 in allen Häusern 50Zoll Flachbildfernseher hängen, jetzt auch mit 3D Funktion(demnächst ohne Brille) die in riesigen OnlineVideodiensten das Fernsehen ersetzen und die User nebenbei in einem Onlinenetzwerk Bescheid sagen wenn sie auf Klo gehen?

Shink
2011-04-27, 12:17:11
Ansonsten sind die Berechnungen relativ egal, weil nur wieder irgendein Meilenstein/Durchbruch in der Forschung auch mal schnell noch nen Faktor 1000 rausholen kann, und das die jetzige Leistung auf jeden Fall nicht genug ist, ist doch klar.
Nun ja. Selbst wenn wir mal Speicher aus 10 Quarks bauen können :freak: können wir die Speichergröße nicht bis in alle Ewigkeit vergrößern weil jedes Teilchen eine Masse hat.

Lokadamus
2011-04-27, 19:31:25
Nun ja. Selbst wenn wir mal Speicher aus 10 Quarks bauen können :freak: können wir die Speichergröße nicht bis in alle Ewigkeit vergrößern weil jedes Teilchen eine Masse hat.mmm...

Ich glaube, euer Problem ist gerade die Größe der bisherigen Bausteine.
Wer sagt, dass RAM ein kleiner Riegel bleibt? Er könnte auch ohne Probleme in der Größe einer 3,5Zoll HDD, als Zusatzpack in Form eines Koffers oder als Rackmodul raus kommen. Durch Cluster sind für Firmen die Größen nicht so beschränkt wie für den Heimanwender, wobei dieser mittlerweile auch immer mehr Vernetzungen hat (Nas, Entertainment- PC).
Alternativ schlage ich so was als Speicher vor: http://i.ytimg.com/vi/oZ7kKA8Pb80/0.jpg

Spasstiger
2011-04-27, 19:39:09
Das mit dem arg limitierten Adressleitungen des i7 ist aber kaum thematisiert worden.. Das ist ja ein Ding.
Für Anwendungen, die sehr viel Speicher benötigen, gibt es die Xeon-E7-Familie (Nehalem-EX, Westmere-EX): http://www.intel.com/products/server/processor/xeonE7/index.htm.
Die unterstützen 32 GiB pro DIMM und bis zu 2 Terabyte RAM in einer 4-Sockel-Konfiguration (von Dell gibts reine Speicherinterface-Module für die Sockel, wenn man nicht in ganze CPUs investieren möchte).

nomadhunter
2011-04-27, 20:15:31
Nun ja. Selbst wenn wir mal Speicher aus 10 Quarks bauen können :freak: können wir die Speichergröße nicht bis in alle Ewigkeit vergrößern weil jedes Teilchen eine Masse hat.
Denk mal etwas weiter. Ein einzelnes Teilchen kann nicht nur ein Bit Information speichern, sondern beinahe unendlich viel. Du könntest die Information z.B. in der Wellenlänge von Photonen verschlüsseln. Dazu unterteilst du das Wellenlängenspektrum in 2^n Bereiche und kannst dann pro Photon n Bits Information speichern. Dem Spielchen sind zwar auch Grenzen gesetzt (Quanteneffekte/heisenbergsche Unschärferelation), aber davon sind wir noch weit weit weit entfernt. Auf absehbare Zeit sind dem Wachstum der Speicherdichte keine physikalischen Grenzen gesetzt.

Ich sehe keinen Grund, wieso der Sprung von 64bit auf 128bit länger als der von 32bit auf 64bit dauern sollte. Für den nachfolgenden Schritt von 128bit auf 256bit gilt das gleiche. Dass wir uns heute noch nicht vorstellen können, wie man derartige Speichermengen in kleinem Raum unterbringt und was man mit soviel Speicherplatz überhaupt macht, liegt in der Natur der Sache. Wenn dem nicht so wäre, hätten wir die 1000-Exabyte-USB-Sticks schon heute.

Avalox
2011-04-27, 20:31:16
Für Anwendungen, die sehr viel Speicher benötigen, gibt es die Xeon-E7-Familie (Nehalem-EX, Westmere-EX):

Ja ich denke auch, dass man den i7 dort von Serveranwendungen fernhalten möchte.

Nun sind 32GB RAM ja ordentlich für einen selbst für einen HighEnd Desktop oder einer Workstation. Aber bei dem Preisverfall sicherlich nicht exotisch. Das ist ganz schön dicht geschossen.

Lokadamus
2011-04-27, 20:59:18
Ja ich denke auch, dass man den i7 dort von Serveranwendungen fernhalten möchte.

Nun sind 32GB RAM ja ordentlich für einen selbst für einen HighEnd Desktop oder einer Workstation. Aber bei dem Preisverfall sicherlich nicht exotisch. Das ist ganz schön dicht geschossen.mmm...

Ich hab mich eher gewundert, weil PAE mit 36Bit arbeitet, aber bis 64GB addressiert.
http://de.wikipedia.org/wiki/Physical_Address_Extension
Weiter unten bin ich auf eine Notiz gestoßen, die eh einiges relativiert.
Win7 Home Premium unterstützt eh nur 16GB max., wodurch einige schon vorher Probleme bekommen werden.
http://msdn.microsoft.com/de-de/library/aa366778%28v=vs.85%29.aspx#physical_memory_limits_windows_7

Coda
2011-04-27, 21:30:40
Dazu unterteilst du das Wellenlängenspektrum in 2^n Bereiche und kannst dann pro Photon n Bits Information speichern.
Ein Photon hat nur eine Wellenlänge, die direkt von der Energie abhängt. Mal abgesehen davon, dass die Dinger die blöde Eigenschaft haben sich immer mit Lichtgeschwindigkeit bewegen zu wollen.

Auf absehbare Zeit sind dem Wachstum der Speicherdichte keine physikalischen Grenzen gesetzt.
Das ist eine reine Mutmaßung. Es gibt da auch ein Kostenproblem. Silizium ist vergleichsweise billig durch Lithografie zu produzieren, aber wir haben bisher keine Nachfolgeverfahren gefunden.

Avalox
2011-04-27, 22:10:52
Win7 Home Premium unterstützt eh nur 16GB max., wodurch einige schon vorher Probleme bekommen werden.
http://msdn.microsoft.com/de-de/library/aa366778%28v=vs.85%29.aspx#physical_memory_limits_windows_7

Ja. Da habe ich schon drüber gemeckert. Ich denke, es hat sich zum Vista Äquivalent bei dem Produkt nichts geändert. Es waren 16GB und sind es mit Win7 immer noch.

nomadhunter
2011-04-29, 00:52:16
Ein Photon hat nur eine Wellenlänge, die direkt von der Energie abhängt. Mal abgesehen davon, dass die Dinger die blöde Eigenschaft haben sich immer mit Lichtgeschwindigkeit bewegen zu wollen.

Natürlich haben sie nur eine Wellenlänge. Zumindest wenn wir Superposition mal weglassen. Deswegen unterteilst du das Wellenlängenspektrum in 2^n Bereiche, um mit einem Photon n bit Information zu speichern. Im einfachsten Fall (n=1) gibt es Photonen mit hoher Wellenlänge (1) und Photonen mit niedriger Wellenlänge (0). Bei n=2 gibt es vier Wellenlängenbereiche und ein Photon ist dann entweder 00, 01, 10 oder 11. Das kannst du fast beliebig weitertreiben, erst die Unschärferelation setzt irgendwann eine Grenze. Und was hat die Geschwindigkeit damit zu tun?

Das ist eine reine Mutmaßung. Es gibt da auch ein Kostenproblem. Silizium ist vergleichsweise billig durch Lithografie zu produzieren, aber wir haben bisher keine Nachfolgeverfahren gefunden.
Es ist keine Mutmaßung, sondern Fakt. Physikalisch ist dem Wachstum der Speicherdichte auf absehbare keine Grenze gesetzt. Das war das Thema. Hier wurde nämlich behauptet, dass es physikalisch unmöglich wäre, jemals einen handlichen Speicher zu bauen, für dessen Adressierung 128bit nicht ausreichen. Und das ist völliger Unsinn.

Wie man das Ganze dann technisch oder wirtschaftlich umsetzt, ist eine andere Frage. Aber auch hier ist der Versuch, die zukünftige Entwicklung vorherzusagen, zum Scheitern verurteilt. Kein Mensch weiß, wie sich die Speichertechnik in den nächsten 10-15 Jahren weiterentwickelt. Die gängige Behauptung, dass in naher Zukunft die ganze technologische Entwicklung zum Stillstand kommt, weil die heute eingesetzte Siliziumtechnik an ihre Grenzen kommt, halt ich für einfach nur dämlich. Natürlich wissen wir heute nicht, wie es in Zukunft weitergehen soll. Das muss so sein. Würden wir die Verfahren und Methoden der Zukunft heute kennen, würden wir sie auch schon heute einsetzen.

Die einzige Prognose, die in der Vergangenheit halbwegs funktioniert hat, ist Moore's Law. Also eine primitive Hochrechnung, die sich gerade nicht mit dem "wie" beschäftigt, sondern physikalische oder technische Grundlagen vollkommen ignoriert. Meiner Meinung nach ist das der Grund, wieso Moore's Law so lange Bestand hatte, während andere "Studien" oder "Prognosen" nur dazu gut sind, sich später mal darüber totzulachen, wie naiv die Leute vor x Jahren doch waren.

Knuddelbearli
2011-04-29, 20:19:55
naja denke es wird noch ca 10 jahre mit moore's weitergehen danach ca 10-15 jahre stagnation in der das Militär usw bereits mit Quantencomputer rechnet und dann langsam durchbruch auch für den normalen.