Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum gibt es keine großbittige Server-CPU-Erweiterung?


Mastermind
2006-08-25, 13:58:04
Ich habe einige Threads über 64bit und auch den Thread über das Mandelbrötchen gelesen. Sehr interessant. :smile:

Nur eins kann ich bisher überhaupt nicht nachvollziehen. Und zwar ist mir klar, dass es bisher nicht nötig ist und auch längere Zeit nicht nötig sein wird, mehr als 2^64 Bit Speicher zu adressieren. Auch ist es für Desktopsysteme kaum nötig, mit einer höheren Genauigkeit zu rechnen. Aber wenigstens bei Server-CPUs, die meines Wissens bisher kaum Unterschiede zu den herkömmlichen haben (z.B. Opteron vs. Athlon64), wäre es doch sinnvoll, eine Erweiterung mit sagen wir 256 Bit einzubauen um auch präzise Berechnungen extrem schnell durchführen zu können! Und das tolle wäre, dass solche Prozzies auch für Desktopsysteme in Frage kämen, wenn man Wert auf sowas legt. Kenner haben ja jetzt schon teilweise Desktopsysteme mit Optis drin.

Oder stelle ich mir das technisch etwa falsch vor? Was mir vorschwebt ist eine Erweiterung, ähnlich wie SSE, aber eine, die wirklich 256 Bit hat. Die kann man dann zusätzlich bei den Server-CPUs dranbauen, wenn es sich für Desktop-CPUs nicht lohnt. Und genutzt wird die Einheit nach Bedarf. Schließlich werden wir lange mit 64 Bit auskommen, was Speicherbedarf betrifft. Aber in manchen Fällen lässt die Rechenpräzision (bei vernünftiger Geschwindigkeit) zu wünschen übrig und das schon heute!

Was spricht also dagegen?

Fatality
2006-08-25, 14:02:49
Was spricht also dagegen?

Ganz einfach.
Die Nachfrage besteht nicht.
Zumindest nicht in einem Ausmaß das sich eine Entwicklung lohnt.

HellHorse
2006-08-25, 14:13:27
Ich habe einige Threads über 64bit und auch den Thread über das Mandelbrötchen gelesen. Sehr interessant. :smile:

Nur eins kann ich bisher überhaupt nicht nachvollziehen. Und zwar ist mir klar, dass es bisher nicht nötig ist und auch längere Zeit nicht nötig sein wird, mehr als 2^64 Bit Speicher zu adressieren. Auch ist es für Desktopsysteme kaum nötig, mit einer höheren Genauigkeit zu rechnen. Aber wenigstens bei Server-CPUs, die meines Wissens bisher kaum Unterschiede zu den herkömmlichen haben (z.B. Opteron vs. Athlon64), wäre es doch sinnvoll, eine Erweiterung mit sagen wir 256 Bit einzubauen um auch präzise Berechnungen extrem schnell durchführen zu können! Und das tolle wäre, dass solche Prozzies auch für Desktopsysteme in Frage kämen, wenn man Wert auf sowas legt. Kenner haben ja jetzt schon teilweise Desktopsysteme mit Optis drin.

Oder stelle ich mir das technisch etwa falsch vor? Was mir vorschwebt ist eine Erweiterung, ähnlich wie SSE, aber eine, die wirklich 256 Bit hat. Die kann man dann zusätzlich bei den Server-CPUs dranbauen, wenn es sich für Desktop-CPUs nicht lohnt. Und genutzt wird die Einheit nach Bedarf. Schließlich werden wir lange mit 64 Bit auskommen, was Speicherbedarf betrifft. Aber in manchen Fällen lässt die Rechenpräzision (bei vernünftiger Geschwindigkeit) zu wünschen übrig und das schon heute!

Was spricht also dagegen?
Arithmetik mit mehr als 64bit Präzision geht ja auch auf 32bit Systemen problemlos. Man kann problemlos und recht schnell 9^(9^9) exakt auf einer 32 bit Kiste berechnen. n-bit Arithmetik schränkt dich immer ein, wenn du n+1-bit Präzision brauchst.

Und wie die schon sagtest, ein 64bit Adressraum ist _verdammt_ gross.

Trap
2006-08-25, 14:15:27
"Präzise Berechnungen" ist eine sehr unpräzise Beschreibung. Welche Anwendung meinst du?

Wissenschaftliche Simulationen sind meist mit Fließkommazahlen und die sind schon sehr lange 64 bit breit. Mehr braucht man selten, die Welt gibt da Grenzen vor wie groß und klein Sachen sein können und die passen recht gut in 64 bit Fließkommazahlen.

Für Geld braucht man das auch nicht, da reichen 2^63 Cent noch ein paar Jahre ;)