PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann gibts 128Bit CPUs?


Gast
2007-02-21, 01:18:14
Kann mir das jemand beantworten?
Arbeiten GPUs nicht schon mit 128Bit?

(+44)
2007-02-21, 01:25:33
Wenn sie nötig werden.

Mit 64-Bit wird man lange auskommen, theoretisch kann mit bis zu 16ExaByte Adressieren, und das ist verdammt viel. http://de.wikipedia.org/wiki/Megabyte

Der Umstieg auf 64-Bit wurde ja auch weniger wegen der erhöhten Performance mit 64-Bit, sondern wegen der Physikalischen Limitierung eines 32-Bittigen Adressraumes auf 4Gigabyte notwending.

Im Übrigen solltest du das Thema nur einmal erstellen ;)

Gast
2007-02-21, 01:32:36
Ich glaube das 128 bit CPUs keinen Sinn zum derzeitigen Zeitpunkt machen.

Das Hauptproblem ist wie gesagt nicht die Leistung, denn die ist bei 64 bit nur unwesentlich höher in den meisten Fällen, sondern der begrenzte RAM Ausbau.


Normalerweise hätte es sogar gravierende Nachteile, wenn wir schon heute 128 oder 256 bit CPUs nutzen würden: Der Programmcode wäre erheblich größer. Wo heute noch 2 GB bei 32 bit Programmen locker ausreichen, wären 2 GB bei 128 bit wahrscheinlich untere Grenze oder zu wenig und das kann sich dann keiner mehr leisten.

Nachteil - Speicherverbrauch
Alle Adresswerte sind 64 Bit statt 32 Bit breit, ihre Speicherung verbraucht daher doppelt soviel Platz, bei Bewegungen zwischen RAM und CPU müssen somit doppelt so viele Bytes bewegt werden, und sie verbrauchen auch in den Caches doppelt soviel Platz. Auch manche andere Objekte werden bei der Neuübersetzung von herkömmlichem x86-Code von 32 Bit auf 64 Bit im x86-64-Modell erweitert - sichtbar wird dieses in den erzeugten Programmdateien, die typisch 25%-30% größer sind.

del_4901
2007-02-21, 01:54:09
http://en.wikipedia.org/wiki/PlayStation_2 ... gibt es schon lange

Spasstiger
2007-02-21, 01:58:06
Arbeiten GPUs nicht schon mit 128Bit?
Die einzelnen Recheneinheiten einer modernen GPU können 32 Bit parallel verarbeiten.
Wie groß der Adressraum eines modernen Grafikchips ist, weiß ich leider nicht.

Nightspider
2007-02-21, 03:17:09
32 Bit limitierte bei 4 GB Ram...wo limitiert 64 Bit, also bei Wieviel Ram ?

del_4901
2007-02-21, 03:20:00
32 Bit limitierte bei 4 GB Ram...wo limitiert 64 Bit, also bei Wieviel Ram ?

2^64 bytes

StefanV
2007-02-21, 03:24:20
bei 40bit, momentan...
48bit Virtuell, rechne selbst...

Ganon
2007-02-21, 08:39:58
http://en.wikipedia.org/wiki/PlayStation_2 ... gibt es schon lange

Marketing. Arbeitet auch nur mit 2x64bit oder 4x32bit.

Der_Donnervogel@work
2007-02-21, 09:02:58
Für 128 Bit gibt es auch kaum sinnvolle Anwendungen. Vielleicht irgendwelche wissenschaftlichen Simulationen, aber auf jeden Fall nichts von dem die Masse profitieren würde. Von der adressierbaren Speichergrösse her werden 64-Bit fürs erste völlig reichen und für Berechnungen braucht man auch nur höchstens in irgendwelchen Spezialanwendungen Ganzzahlen die den Wertebereich von 64 Bit übersteigen. Für den überwiegenden Teil aller Anwendungen reichen selbst 32-Bit Ganzzahlen vollkommen aus.

turboschlumpf
2007-02-21, 11:04:10
Spätestens 256 Bit ergeben dann wirklich keinen Sinn mehr. 2^256 reicht schon fast an die Anzahl der Elementarteilchen im Universum heran. ;)

Anarchy-HWLUXX
2007-02-21, 11:26:14
Also bevor mer so weit kommen gibbet scho Quantenrechner für Privatleute ;D

BlackBirdSR
2007-02-21, 11:58:10
Für 128 Bit gibt es auch kaum sinnvolle Anwendungen. Vielleicht irgendwelche wissenschaftlichen Simulationen, aber auf jeden Fall nichts von dem die Masse profitieren würde. Von der adressierbaren Speichergrösse her werden 64-Bit fürs erste völlig reichen und für Berechnungen braucht man auch nur höchstens in irgendwelchen Spezialanwendungen Ganzzahlen die den Wertebereich von 64 Bit übersteigen. Für den überwiegenden Teil aller Anwendungen reichen selbst 32-Bit Ganzzahlen vollkommen aus.

Stimmt

Wenn man wirklich 128Bit Datentypen braucht, so kann man diese auch jetzt schon nutzen. Es dauert etwas länger, aber man kann es trotzdem machen.
Dazu braucht man keine 128Bit CPU.

Und eine Adressierung über 64Bit hinaus ist noch auf längere Zeit unnötig. Daher kann man nicht sagen, wann es nötig sein wird.
Alles darüber hinaus wird dann wirklich sehr abstrakt. Mehr Speicherzellen als Teilchen im Universum? Warum sollte man den Zustand jedes Elektrons abspeichern wollen für einen Heimcomputer? ;)

Ob es irgendwann einmal Rechenwerke mit 128Bit oder mehr geben wird?
Natürlich.. schon jetzt kann die FPU des Core2 128Bit auf einmal verarbeiten. Das ist aber nicht das Gleiche wie ein 128Bit Datentyp oder 128Bit Adressierung.

Paul Brain
2007-02-21, 12:10:01
Und 16 Exabyte sind 17179869184 Gigabyte. Also selbst wenn sich der Speicherbedarf jedes Jahr verdoppelt haben wir ausgehend von jetzt etwa 1-2GB Speicherausbau 23-24 Jahre Zeit, bis der Adressraum erschöpft ist.

Das deckt sich recht gut mit der bisherigen Geschichte; der 80386 (und damit 32bit) wurde 1985 eingeführt und langt bis heute, das sind 22 Jahre später. Erst jetzt wird der Adressraum knapp.

OBrian
2007-02-21, 12:10:11
Ich meine, möglich wäre das natürlich, alles komplett auf 128bit auszulegen. Bloß nützt es nicht nur gar nichts, sondern es frißt auch einen Haufen zusätzliche Transistoren (vergleiche z.B. den K8-Core mit dem K7-Core), die Software wird etwas langsamer und umfangreicher (wo die diversen Optimierungen von x86 nach x86-64 nicht greifen; und Code für 64bit ist ca. 10% größer als 32bit).

Und ich will mal die Leute sehen, die jetzt nach 128bit schreien, wenn ihnen sowas serviert würde, was 128bit hat, aber nirgendwo schneller ist, dafür überall langsamer und dazu die CPU noch teurer, größer, heißer und weniger taktbar ist.

Also ich will nicht ausschließen, daß das irgendwann kommt, aber das wird wohl noch 30 Jahre dauern, mindestens.

BlackBirdSR
2007-02-21, 12:16:42
Also ich will nicht ausschließen, daß das irgendwann kommt, aber das wird wohl noch 30 Jahre dauern, mindestens.

Aber ich kann die Frage danach gut verstehen.
Ich Zeiten von Speicherinterfaces die von 64Bit bis 512Bit skalieren, und der Propaganda mit 128Bit HDR etc, ist es nicht leicht sich vorzustellen, warum gerade das Herzsstück eines PCs bei 64Bit bleiben sollte. Und das für 30 Jahre....

Aber Bit ist nunmal nicht Bit ;)

Mastermind
2007-02-21, 12:20:59
Stimmt

Wenn man wirklich 128Bit Datentypen braucht, so kann man diese auch jetzt schon nutzen. Es dauert etwas länger, aber man kann es trotzdem machen.
Dazu braucht man keine 128Bit CPU.

Und eine Adressierung über 64Bit hinaus ist noch auf längere Zeit unnötig. Daher kann man nicht sagen, wann es nötig sein wird.
Alles darüber hinaus wird dann wirklich sehr abstrakt. Mehr Speicherzellen als Teilchen im Universum? Warum sollte man den Zustand jedes Elektrons abspeichern wollen für einen Heimcomputer? ;)

Ob es irgendwann einmal Rechenwerke mit 128Bit oder mehr geben wird?
Natürlich.. schon jetzt kann die FPU des Core2 128Bit auf einmal verarbeiten. Das ist aber nicht das Gleiche wie ein 128Bit Datentyp oder 128Bit Adressierung.
Aber es kann doch Fälle geben, in denen es entscheidend ist, mit 128, 256 oder gar noch mehr Bit gleichzeitig zu rechnen. Um dies bei Komplexen Berechnungen möglichst schnell zu machen bräuchte man doch einen entsprechenden Datentyp, oder etwa nicht?

Natürlich kann man jetzt sagen, der Heimanwender würde so etwas nicht brauchen. Aber ich wäre mir da nicht so sicher. War es in der Anfangszeit der Grafikkarten etwa absehbar, dass diese irgendwann mit 128 Bit Farbgenauigkeit rechnen werden? Hat das damals auch nur irgendwer für nötig gehalten? Und dann wären da noch die wissenschaftlichen und wirtschaftlichen Simulationen. Es ist doch heute schon so, dass es zwar auch Exoten gibt, aber die Servervarianten der normalen CPUs oft vorkommen und sich von den Desktop-Varianten wenig unterscheiden. Es macht wirtschaftlich doch wenig Sinn zwei Architekturen gleichzeitig weiterzuentwickeln, wenn man für die Forschung 128 oder 256 Bit braucht aber die Heimanwender eigentlich nicht. Dann stellt man eben auch die Desktoppalette um und auch die Prospektgestalter haben wieder was für ihre Werbekästen. :wink:

Außerdem ist der Mandelbrotrenderer ein gutes Beispiel, wo auch heute schon Bit en Masse im Heimbereich sinnvoll wären. :smile: Von Spielereien wie Verteiltes Rechnen gar nicht erst zu sprechen. :wink:

BlackBirdSR
2007-02-21, 12:27:06
Aber es kann doch Fälle geben, in denen es entscheidend ist, mit 128, 256 oder gar noch mehr Bit gleichzeitig zu rechnen. Um dies bei Komplexen Berechnungen möglichst schnell zu machen bräuchte man doch einen entsprechenden Datentyp, oder etwa nicht?

Natürlich kann man jetzt sagen, der Heimanwender würde so etwas nicht brauchen. Aber ich wäre mir da nicht so sicher. War es in der Anfangszeit der Grafikkarten etwa absehbar, dass diese irgendwann mit 128 Bit Farbgenauigkeit rechnen werden? Hat das damals auch nur irgendwer für nötig gehalten? Und dann wären da noch die wissenschaftlichen und wirtschaftlichen Simulationen. Es ist doch heute schon so, dass es zwar auch Exoten gibt, aber die Servervarianten der normalen CPUs oft vorkommen und sich von den Desktop-Varianten wenig unterscheiden. Es macht wirtschaftlich doch wenig Sinn zwei Architekturen gleichzeitig weiterzuentwickeln, wenn man für die Forschung 128 oder 256 Bit braucht aber die Heimanwender eigentlich nicht. Dann stellt man eben auch die Desktoppalette um und auch die Prospektgestalter haben wieder was für ihre Werbekästen. :wink:

Außerdem ist der Mandelbrotrenderer ein gutes Beispiel, wo auch heute schon Bit en Masse im Heimbereich sinnvoll wären. :smile: Von Spielereien wie Verteiltes Rechnen gar nicht erst zu sprechen. :wink:

Natürlich wäre es in manchen Situationen schneller einen 128Bit Datentyp zu haben. Aber dazu müsste man sich überlegen für was?
Atomexplosionen? Berechnung von Schwarzen Löchern? Da kommt es nicht auf zeitkritische Aspekte an. Zumal man hier gigantische Cluster von Rechnern nutzen kann und wird. Niemand wird sich einen Opteron128 ins Labor stellen und mit diesem alleine ein Schwarzes Loch berechnen.
Alle anderen können solche Datentypen auch jetzt schon nutzen. Halt mit 2-3 Schritten statt einem. Das ist nicht wirklich ein Beinbruch.

128Bit Farbgenauigkeit sind in Wirklichkeit 32Bit Präzision für 4 Komponenten. Hier sind wir also noch lange nicht bei 128Bit. Das ist Marketing.
So sind auch die 128Bit des Core2 einfach ein 128Bit Vektor aus 2x64Bit Datenpacketen.

Wie gesagt: Sollte man irgendwann einmal ein solches Rechenwerk brauchen, so wird man das auch bauen können. Das reicht aber noch lange nicht um eine 128Bit CPU daraus zu machen. Und all die anderen notwendigen Aspekte dafür sind auf Jahre hin mit großer Wahrscheinlichkeit völlig unnötig.

paul.muad.dib
2007-02-21, 21:29:56
Es wird wohl noch ein Weilchen dauern, bis überhaupt so viel RAM verbaut werden kann, dass 64 bit voll sind. 32 Verdopplungen von 4 GB sind schon eine Menge.

Und dann braucht man auch die Rechenkraft um das sinnvoll ausznutzen. Und es bleibt die Frage, was denn so komplex ist. Klar gerade bei technischen Simulationen kann man die Granulität noch stark verkleinern, allerdings nimmt auch der Präzisionsgewinn immer weiter ab. Man muss nicht wirklich Atome simulieren, um einen Crashtest zu machen.

Dann bleiben nur wenige wissenschaftliche Anwendungen.

(Bitte korrigier mich hier, falls folgendes Quatsch ist) Aber selbst da setzt eher die Quantenmechanik bzw. Unschärferelation Grenzen als 64 bit.

Ganon
2007-02-21, 22:31:59
Wie sagten die ZFS-Entwickler (ZFS ist ein 128bit Dateisystem)... wenn man wirklich den Speicher befüllen möchte, den man mit 128bit adressieren könnte, dann müsste man so viel Energie aufwänden, dass man damit die Ozeane verdampfen könnte. ;)

Monger
2007-02-21, 22:44:10
Und last but not least: es ist ja jetzt schon arg fraglich, ob wir das technisch überhaupt auf die Reihe kriegen. Diese Daumenregel mit Taktverdoppelung alle 18 Monate halten wir ja jetzt schon nicht mehr durch. Werden also Rechner in 30 Jahren 4 Milliarden mal stärker sein als heute?

Man soll niemals nie sagen, aber ich bezweifle es.
Und dann gibt es da natürlich noch den ganz simplen Fakt, dass sich die allermeisten Zahlen der realen Welt eben im Bereich von maximal ein paar Milliarden aufhalten. Wir haben ca. 6 Milliarden Menschen, Finanzgeschäfte spielen sich im Billiardenbereich ab, die meisten Maßeinheiten haben in der Praxis maximal eine Auflösung von 10^12...

Schwer vorstellbar, welche alltägliche Anwendung denn jemals so große Zahlenbereiche brauchen könnte, dass man mehr als 64Bit in einem Arbeitsschritt verarbeiten können muss.
Wenn jemand wirklich Bedarf daran hat, wäre es sicher kein Akt, spezielle wissenschaftliche Rechner für so große Zahlenbereiche zu entwickeln. Ich denke, für den Heimkunden ist mit 64Bit für sehr, sehr lange Zeit erstmal Schluss.

Kinman
2007-02-21, 23:54:11
Und last but not least: es ist ja jetzt schon arg fraglich, ob wir das technisch überhaupt auf die Reihe kriegen. Diese Daumenregel mit Taktverdoppelung alle 18 Monate halten wir ja jetzt schon nicht mehr durch. Werden also Rechner in 30 Jahren 4 Milliarden mal stärker sein als heute?


Leistungsverdopplung, oder?

Gast
2007-02-22, 00:15:02
Trifft bei CPUs glaube ich nicht mehr zu, vieleicht noch alle 18Monate die Transistoren Verdopplung, aber da is auch nur Cache der größer wird. Taktrate stagniert, weil man die Effizienz verbessert, und 2 Cores als "Leistungsverdopplung" zu zählen halte ich für Cheaten ^^
Momentan rennen GPUs den CPUs in Bereich "Fortschritt" den Rang ab. Nicht auf Taktraten bezogen aber auf Transistoren und Leistungsfähigkeit.

Ganon
2007-02-22, 08:16:17
http://de.wikipedia.org/wiki/Mooresches_Gesetz

So und nicht anders ist die Regel ;)

Gast
2007-02-22, 08:49:54
... und der Propaganda mit 128Bit HDR etc ...

Wenn das kommen sollte, dann müßte man etliche Leute wegen Volksverdummung verklagen. Ein 128Bit HDR ... schwachsinniger gehts nicht mehr und zeigt nur zu deutlich, welcher Wissensstand über HDR Technologie besteht. Er scheint gegen null zu streben ...

Konami
2007-02-22, 19:19:42
http://de.wikipedia.org/wiki/Mooresches_Gesetz

So und nicht anders ist die Regel ;)
Merkwürdig, laut englischem Wiki-Artikel (http://en.wikipedia.org/wiki/Moore's_Law) und Intel selbst (http://www.intel.com/technology/mooreslaw/index.htm) besagt das Gesetz, dass sich die Anzahl der Transistoren alle 2 Jahre verdoppelt - im deutschen Artikel ist aber stetig von 18 Monaten die Rede. :|
Naja, ich vertrau da lieber dem Original.

BTW, das Gesetz ist immer noch gültig und wird laut Intel-Spekulationen noch mindestens bis 2015 anhalten.

Ganon
2007-02-22, 19:36:11
Jo, les mal weiter, da steht die Antwort:

---
In 1975, Moore projected a doubling only every two years. He is adamant that he himself never said "every 18 months", but that is how it has been quoted.
---

Ist doch jetzt eigentlich auch egal ;) Es geht halt darum das sich die Komplexität der Schaltungen verdoppelt, und nicht Leistung, oder Mhz... Wie viele Monate jetzt genau, ist doch egal ;) Für den Normalanwender ist es eigentlich recht egal, da die Komplexität des Chips ihm nix bringt, wenn die Leistung nicht stimmt. ;)

Zool
2007-02-23, 11:29:15
http://en.wikipedia.org/wiki/PlayStation_2 ... gibt es schon lange

128Bit Register gab es auch schon vor PS2. Der betagte PIII-Katmai brachte seine 128Bit breiten SSE-Register.

Die FPU-Register sind schon seit dem i387 immerh schon 80bit breit.

Gast
2007-02-24, 03:11:18
Die PS2 hat ganz bestimmt keine 128-Bit-Register. Das sind 4x32-Bit-Register für SIMD. Das hat eine x86-CPU seit SSE auch. Genauso wie Grafikkarten auf 4x32-Bit rechnen.

Das ganze ist Marketing und eigentlich ziemlich langweilig.

Gast
2007-02-24, 21:07:41
Wofür bräuchten wir auf GPUs bezogen auch 4x128bit? Wäre völlig sinnfrei.

Bei CPUs mag das anders aussehen, vor Allem im wissenschaftlichen Bereich, aber für Heimanwender dürfte es in frühestens 30 Jahren einen Sinn machen. Sofern die Entwicklung linear wie die Vergangenheit verläuft.