PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 64 Bit - Wann erreichen wir die Grenze?


][immy
2008-10-03, 01:56:05
Ich weiß, mit 64Bittiger Speicheraddressierung hat man eine ganze menge Speicher zur verfügung (rein theoretisch).
doch was mich derzeit eher interessieren würde, wann wird 64 bit zu eine Grenze?

Was ich derzeit schön finde, das ich bei meinen Entwicklungen (im Serverbereich) kaum noch auf den Speicher achten muss und wahnsinnig viel Cachen kann ohne rücksicht auf den Speicher (zumindest solange der physikalische reicht) zu nehmen was doch ungemein zur performance beiträge. Klar speicherlecks erkennt man dadurch doch ein ganzes stück schwerer, eben weil man erwartet das das programm wächst, aber dank managed code produziert man nicht mehr ganz so viele lecks :)

Vorher hatte man im Serverbereich (zumindest windows 32-bit) immer diese magische 2 GiB Grenze. Also musste man darauf achten, das man ja nicht zu viel cached und die caches "klein" hällt. Dies dürfte über kurz oder lang aber wohl eher zu einem verschwenderischen umgang mit ressourcen führen wodurch die Datenmengen die im Speicher gehalten werden, wohl auch rasant ansteigen könnten.

die frage ist, wie lange wird das dauern bis wir an diese grenze stoßen, dadurch das immer mehr in den speicher geladen wird (was ja auch erstmal nichts negatives ist).
vor ~15 Jahren konnten wir uns kaum vorstellen mal mehr als 4 GiB ram im Computer zu haben.
zwar ist der schritt von 16 auf 32 bit nichtmal ansatzweise so groß wie von 32 auf 64 bit, aber dafür entwickeln sich die speichertechnologien ja auch immer schneller, aber selbst dann dürfte es noch ne ganze weile dauern. Wann kommen wir also zu dieser Grenze?
oder braucht es erst völlig neue technologien um überhaupt an diese grenze einer einzelnen maschine zu stoßen?

Ich bezweifle es derzeit aber, das ich es noch miterleben werde, obwohl ich vor habe, sehr lange zu leben :)

Mordred
2008-10-03, 02:12:06
Also 16 Pebibyte Speicher sollten schon noch sehr sehr lange reichen. Wie es mit der Verarbeitung von Befehlen aussieht wird sich zeigen.

Trap
2008-10-03, 11:51:10
Wenn man Moores Law (Verdopplung alle 2 Jahre) einfach konstant weiterrechnet kommt man auf etwa 64 Jahre.

Die Physik ist einem da noch nicht zwangsläufig im Weg, bei 1 Gramm hat man etwa 2^80 Elektronen, so ist es zumindest denkbar, dass irgendwann in einem Baustein sinnvoller Größe 2^64 Bit speicherbar sind.

Exxtreme
2008-10-03, 12:18:10
Wenn man Moores Law (Verdopplung alle 2 Jahre) einfach konstant weiterrechnet kommt man auf etwa 64 Jahre.

Moore's Law besagt, daß sich die Komplexität der Schaltkreise alle 2 Jahre verdoppelt. Da ist von Speicherplatz zu keinem Zeitpunkt die Rede. Und doppelt so komplexe Schaltkreise bedeuten noch lange nicht doppelt soviel RAM.

Trap
2008-10-03, 12:28:51
Und doppelt so komplexe Schaltkreise bedeuten noch lange nicht doppelt soviel RAM.
Sondern? Was hindert mich daran mit doppelt soviel Transistoren 2 RAM-Chips zu bauen?

GeneralHanno
2008-10-03, 12:34:46
Moore's Law besagt, daß sich die Komplexität der Schaltkreise alle 2 Jahre verdoppelt. Da ist von Speicherplatz zu keinem Zeitpunkt die Rede. Und doppelt so komplexe Schaltkreise bedeuten noch lange nicht doppelt soviel RAM.

gerade bei RAM und Flash sollte bei mores law doch gelten:
transistorendichte ~ speichermenge (je baustein)

Corny
2008-10-03, 13:05:19
Man müsste doch einfach hochrechnen wieviel Speicher ein durchschnittlicher Desktop PC die letzten Jahre hatte.

Gast
2008-10-03, 13:23:47
= 2048 MB Arbeitsspeicher !

Spasstiger
2008-10-03, 13:25:39
Die Frage ist halt, wie die Anforderungen der Software steigen, wie sich Betriebssysteme verändern und welchen Adressraum man für zukünftige Peripherie bereitstellen muss.
x86-64-kompatible Prozessoren stellen ja 48 Bit virtuellen Adressraum und 40 Bit physikalischen Adressraum zur Verfügung. Das sind die Grenzen, an die man zuerst denken muss.
Und 2^40 physikalische Adressen entsprechen gerade mal 1 Terabyte RAM, was man doch recht schnell erreichen wird, wenn man daran denkt, dass man diese Prozessoren auch heute schon locker mit 16 GB RAM betreiben kann.
Aber die Architektur-Erweiterungen werden sicherlich rechtzeitig implementiert werden.

reunion
2008-10-03, 13:36:38
Intel hat bei ihren EM64T-Prozessoren nur 36bit physikalischen Adressraum, macht max. 64GB. K8/10 haben 40bit. Itanium AFAIK sogar 50bit.

PatkIllA
2008-10-03, 13:40:11
Intel hat bei ihren EM64T-Prozessoren nur 36bit physikalischen Adressraum, macht max. 64GB. K8/10 haben 40bit. Itanium AFAIK sogar 50bit.
Das kann man aber mit der nächsten Hardwarerevision problemlos ändern ohne die Software anpassen zu müssen.

jorge42
2008-10-03, 13:52:49
[immy;6823726']
Was ich derzeit schön finde, das ich bei meinen Entwicklungen (im Serverbereich) kaum noch auf den Speicher achten muss und wahnsinnig viel Cachen kann ohne rücksicht auf den Speicher (zumindest solange der physikalische reicht) zu nehmen was doch ungemein zur performance beiträge. Klar speicherlecks erkennt man dadurch doch ein ganzes stück schwerer, eben weil man erwartet das das programm wächst, aber dank managed code produziert man nicht mehr ganz so viele lecks :)


ja das liebe ich, so macht das unsere Anwendungsentwicklung und ich darf dem Chef dann erklären warum wir neue Server brauchen, zum vergleich unsere "alte" Wawi hat ca. 20-30 MB pro User geschluckt, die neue 200-300 MB, was in einem Terminal Server Umfeld doch die Kosten/Nutzen Kalkulation völlig durcheinander bringt.

Aber da muss nun ebenfalls auf 64 Bit umgestellt werden.

Gast
2008-10-03, 14:48:22
ja das liebe ich, so macht das unsere Anwendungsentwicklung und ich darf dem Chef dann erklären warum wir neue Server brauchen, zum vergleich unsere "alte" Wawi hat ca. 20-30 MB pro User geschluckt, die neue 200-300 MB, was in einem Terminal Server Umfeld doch die Kosten/Nutzen Kalkulation völlig durcheinander bringt.

Aber da muss nun ebenfalls auf 64 Bit umgestellt werden.
jo, geht mir ebenso. mühsame sache, bei uns sinds halt die hobbyprogrammierer die .net halt nicht sauber und effizienz coden sondern den "müll" liegen lassen - schöne neue welt.

PatkIllA
2008-10-03, 16:50:28
ja das liebe ich, so macht das unsere Anwendungsentwicklung und ich darf dem Chef dann erklären warum wir neue Server brauchen, zum vergleich unsere "alte" Wawi hat ca. 20-30 MB pro User geschluckt, die neue 200-300 MB, was in einem Terminal Server Umfeld doch die Kosten/Nutzen Kalkulation völlig durcheinander bringt.
Aber da muss nun ebenfalls auf 64 Bit umgestellt werden.
jo, geht mir ebenso. mühsame sache, bei uns sinds halt die hobbyprogrammierer die .net halt nicht sauber und effizienz coden sondern den "müll" liegen lassen - schöne neue welt.
Ist denn sparsame Programmierung Vorgabe gewesen?
Zumindest bei einem Einzelplatzrechner wäre es Verschwendung den RAM brachliegen zu lassen. Bei ThinClients sind halt andere Voraussetzungen.

jorge42
2008-10-03, 19:51:24
Ist denn sparsame Programmierung Vorgabe gewesen?
Zumindest bei einem Einzelplatzrechner wäre es Verschwendung den RAM brachliegen zu lassen. Bei ThinClients sind halt andere Voraussetzungen.
zumindest bei uns ist das Vorgabe, denn unsere Anwender arbeiten zu 95% an Thin Clients und Terminal Services und das schon seit 1999 :D

Aber dass etwas in der Entwicklung etwas schief läuft merkt man schon daran, dass die Entwickler ihre Software auf Dual Core Rechnern mit 2 GB Ram unter LINUX testen und sich dann wundern, dass ihre Java Software sich auf einem Windows Terminal Server System "etwas" anders verhält. Und so was fällt natürlich erst dann auf wenn die User schon produktiv damit arbeiten. :mad:

SimonX
2008-10-03, 20:45:36
Die Frage die man sich bei der Benutzung eines 64 bit Addressraumes auch stellen muss ist: Welche CPU wird diese Datenmenge überhaupt aktive bearbeiten können und welche Applikationen/Spiele würden soviel Daten benötigen? Das wären immerhin so der 2 milliardenfache Speicher der heute in high-end PC's drin ist.

Selbst heutige Server mit 1TiB oder mehr, haben das Problem diesen Speicher erstmal mit sinnvollen Daten zu füllen. Es ist eigentlich besser anstatt einem 1TiB Rechner acht 128GiB Rechner, schon wegen der Ausfallsicherheit, zu benutzen.

Man sieht ja wo alle CPU-Designes hin gehen: Immer mehr Cores. Zur Zeit scheint erstmal ein Leistungslimit der aktuellen CPU-Technologie erreicht zu sein. Ich habe meine Zweifel, ob wir überhaupt jemals einen Rechner mit 1000TiB sehen werden, der weniger als 1000 CPU's bzw. 65000 Cores hat.

Botcruscher
2008-10-03, 23:17:28
Der Arbeitsspeicher im Rechner verdoppelt sich idR alle 2 Jahre. Ausgehend von 2GB 2006 macht das 1024GB 2024. 100TB hast du dann schon um 2037. 1000 schon 2044. 2064 sind es über 100000.

Einfach die Werte der letzten Jahre mal in Exel eingeben. Kann also noch eine weile dauern.

PS: Bei Festplatten könnte es natürlich schneller gehen. ;)

=Floi=
2008-10-04, 01:46:21
ein 64bit (consumer) windows unterstützt aktuell leider nur bis 128gb ram und da sehe ich die grenze schon sehr nahe. Ab herbst sollte man auch 6x4GB verbauen können und das sind schon beachtliche 24 GB ram!


im serverbereich muß man mal sehen wie sich hier der konkurrent SSD entwickelt. zeit kostet geld und die ist im vergleich mit dem ram wesentlich teurer. alleine schon deswegen kann ich mir nicht vorstellen, dass wir hier so schnell an eine grenze stoßen werden. Es kommen eher fertigungstechnische probleme auf uns zu!

PatkIllA
2008-10-04, 09:28:53
ein 64bit (consumer) windows unterstützt aktuell leider nur bis 128gb ram und da sehe ich die grenze schon sehr nahe. Ab herbst sollte man auch 6x4GB verbauen können und das sind schon beachtliche 24 GB ram!Bis dahin gibt es bestimmt ne aktuelle Version. Dürfte auch nicht so schwer sein da notfalls einen Patch zu erstellen.

The_Invisible
2008-10-04, 09:40:29
ein 64bit (consumer) windows unterstützt aktuell leider nur bis 128gb ram und da sehe ich die grenze schon sehr nahe. Ab herbst sollte man auch 6x4GB verbauen können und das sind schon beachtliche 24 GB ram!


im serverbereich muß man mal sehen wie sich hier der konkurrent SSD entwickelt. zeit kostet geld und die ist im vergleich mit dem ram wesentlich teurer. alleine schon deswegen kann ich mir nicht vorstellen, dass wir hier so schnell an eine grenze stoßen werden. Es kommen eher fertigungstechnische probleme auf uns zu!

server ist nicht gleich server.

käme nie auf die idee in unsere web/mailserver ssds reinzustecken die zig mal teurer sind.

mfg

Neosix
2008-10-04, 12:29:50
Leicht OT:
Ich frage mich wieso wird Moore's Law ständig falsch interpretiert? Er hat nie was von Rechenleistung gesagt.
Zitat aus dem Gedächtnis "die Integrationsdichte der am billigsten zu dem Zeitpunkt verfügbaren Transistoren verdoppelt sich alle 2 Jahre".
Das eine Verdoppelung der Kerne keine Verdoppelung der Leistung bringt, sollte mittlerweile angekommen sein. Ok bei Grafikkarten kann man gut in die Breite bauen, aber irgend wann würd sich das ding durch den Mainboard brennen. Sprich Hitze. Also auch keine Lösung.
Und wieso nehmen alle hier die Topprodukte zum vergleich der Rechenleistungssteigerungen? Nach dem Gesetzt sollte man die lowcost Prozessoren/Produkte vergleichen. Und deren Kurve vorhersagen.

bloodflash
2008-10-04, 16:56:31
Der Arbeitsspeicher im Rechner verdoppelt sich idR alle 2 Jahre. Ausgehend von 2GB 2006 macht das 1024GB 2024. 100TB hast du dann schon um 2037. 1000 schon 2044. 2064 sind es über 100000.


Wie war das noch kurz vor der Jahrhundertwende:
Wenn die Anzahl der Pferdekutschen weiter so rapde steigt, werden wir in 10 Jahren knietief durch Pferdemist waten müssen.
;)

(frei nach meinem Gedächtnis)

Gast
2008-10-04, 17:53:38
Damit der Speicherbedarf erstmal anfällt bedarf es ja erstmal schnellerer Medien, daher denke ich das das inet und die durchschnittlich verfügbare Übertragungsrate für Otto-Normal-User in den nächsten Jahren der größte "Bremsklotz" beim Speicherbedarf auf client und (eingeschränkt auch) serverseite sein wird.

Botcruscher
2008-10-04, 18:09:57
Wie war das noch kurz vor der Jahrhundertwende:...



Mobilität bleibt Mobilität und Speicher bleibt Speicher. Ob das nun eine Pferde Kutsche oder ein Auto ist bzw. DRAM oder irgend was anderes.
Der Vergleich past deswegen nicht ganz. Schneller geworden sind wir ja alle. Und sogar in einem Umfang wie es mit dem Pferde unmöglich wäre.

bloodflash
2008-10-04, 22:33:28
[Kutschen vs. Speicher]
Der Vergleich past deswegen nicht ganz.

Das war auch kein Vergleich, sondern ein kleiner Hinweis. Voraussagen die mehr als 10 Jahre in der Zukunft liegen, sollte man doch sehr mit Vorsicht geniessen, besonders bei Computerthemen und Jahreszahlen ab 2030 ;)

Selbst Intel hat sich mit 5-Jahres-Vorhersagen schon grob verschätzt.

seeigel
2008-10-05, 18:53:10
Gibt es denn in 10 Jahren noch so PCs wie jetzt ? Oder arbeiten die Computer dann auf anderer Basis bzw mit einer anderen Technologie wo es nur noch Monitore gibt die die Rechenleistung extern bekommen

RavenTS
2008-10-06, 00:18:46
Gibt es denn in 10 Jahren noch so PCs wie jetzt ? Oder arbeiten die Computer dann auf anderer Basis bzw mit einer anderen Technologie wo es nur noch Monitore gibt die die Rechenleistung extern bekommen

Woher soll das denn jemand wissen? Und was du da beschreibst is wohl n ThinClient oder sowas in nen Monitor integriert, mehr nicht, gibts schon arg lange...

Gast
2008-10-06, 03:21:50
In Office-Umgebungen sind 2 oder 3 GiB im Allgemeinen mehr als ausreichend, aber wem erzähle ich das.

Nur soviel - mit heftigen Texture-Packs (und sehr vielem mehr) merke ich selbst bei Oblivion (x86) einen deutlichen Unterschied zwischen 4 und 8 GiB (Vista 64 Ultimate) -- erstaunlich.

Das alleine wär mir egal - Oblivion rennt bei mir meistens auch mit 4 GiB und allen (heftig!) überdimensionierten Eyecandies.

Aber viel schlimmer: Vectorworks (Architektur-CAD) lahmt EXTREM mit nur 4 GiB und großen Plänen! Erst mit 8 GiB aufwärts kann man überhaupt mit großen Plänen arbeiten (Stichwort: DXF und die leidigen Kreissegmente)!

Corny
2008-10-06, 13:01:14
In Office-Umgebungen sind 2 oder 3 GiB im Allgemeinen mehr als ausreichend, aber wem erzähle ich das.


als ich mir anno 1999 einen PC mit 128MB RAM gekauft habe war das auch gigantisch und ich hätte mir kaum vorstellen können das man es allein mit normaler Office Arbeit voll bekommt.
Aber betreib mal heute einen Office Rechner mit 128MB RAM, das wird schon arg zäh. Office 2007 geht damit imho garnicht. In wiederum 9 Jahren werden wir wohl mit 2-3Gbyte auch keine aktuelle Office Suite mehr betreiben können / wollen.

Ganon
2008-10-06, 13:30:38
Aber betreib mal heute einen Office Rechner mit 128MB RAM, das wird schon arg zäh.

Das kann man knicken. Habe letztens einen PC zusammengebaut. Pentium III 700 MHz, 192 MB RAM.

Windows2000 ca. 80MB RAM, Avira AntiVir ca. 60MB RAM, OpenOffice.org ca. 60MB.

Dann ist der RAM komplett dicht. Dann kann man fast nix mehr machen. Zusätzlich noch FireFox starten z.B. endet übel. ;) Nur Office ohne AntiVirus mag vllt. noch gehen, aber dann auch NUR Office. 2 Programme gleichzeitig = böse :D

Gast
2008-10-06, 16:29:38
Trotz allem wird nach meiner Einschätzung der Speicherbedarf "abflachen", weil der Mensch, der schließlich die Informationen ebenfalls erfassen muss, nicht unendlich auffassungsfähig ist.
Anders mag das ganze aussehen, wenn die Rechner eine Art künstliche Intelligenz verpasst bekommen. Alleine die Grundbefüllung an Wissen damit eine Rechner-Mensch-Kommunikation einen ähnlichen Tiefgang wie eine Mensch-Mensch-Kommunikation enthält, würde heutige Speicherkapazitäten sprengen.

Fragman
2008-10-06, 17:53:15
naja, wenn ich von heute ausgehe und so an die vergangenen jahre denke glaub ich schon das man in 5-6 jahren 64 gig ohne probs auslasten kann, vielleicht schon 128 pro rechner.

heute hast du keine chance mit 128 mb irgendwas zu machen. 256 mb sind das minimum, wenn man da firefox aufmacht ist das auch kein spass mehr, von office ganz abgesehen. 512mb muessen es sein (fuer xp als beispiel), dann nochmal 512 fuer programme, alles andere ist heut schon zu wenig. ;)

][immy
2008-10-06, 18:32:04
Trotz allem wird nach meiner Einschätzung der Speicherbedarf "abflachen", weil der Mensch, der schließlich die Informationen ebenfalls erfassen muss, nicht unendlich auffassungsfähig ist.
Anders mag das ganze aussehen, wenn die Rechner eine Art künstliche Intelligenz verpasst bekommen. Alleine die Grundbefüllung an Wissen damit eine Rechner-Mensch-Kommunikation einen ähnlichen Tiefgang wie eine Mensch-Mensch-Kommunikation enthält, würde heutige Speicherkapazitäten sprengen.

naja, an puren informationen wird es vielleicht nicht mehr werden, aber die präsentation der informationen wird immer dynamischer. allein word kann inzwischen verdammt speicherintesiv sein, Bildbearbeitung erst recht.
Wenn man jetzt mal davon ausgeht das in zukunft immer in den speicher geladen wird, einfach weil man mehr in den speicher laden kann, glaube ich schon das man immer relativ schnell an erstmal physikalisch vorhandenen grenzen stoßen wird.

aber erstmal muss sich wohl 64-bit breitflächig durchsetzen und die otto-normalverbrauchersysteme entsprechend viel speicher haben, damit die programme nachziehen.