PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue Rechnerarchitektur? ...


Frager
2004-05-06, 21:29:49
Hallo,

ich würd gern einmal wissen ob es nun bestrebungen gibt die recht verbrauchte "von Neumann" architektur komplett abzu legen und durch eine neue zu ersetzen...

Teilweise sind bestimmt schon dinge diesbezüglich passiert aber im grossen und ganzen ist es nur getixe welches keinen bleibenden erfolg verbuchen kann...

gibt es vielleicht schon aktuelle geräte die komplett anders aufgebaut sind?

mfg

mrdigital
2004-05-06, 23:19:39
wieso ist die Neumann Maschine "verbaucht"?

Stone2001
2004-05-07, 22:45:06
Original geschrieben von mrdigital
wieso ist die Neumann Maschine "verbaucht"?
Kann ich mir schwer vorstellen!

Es wird zwar immer wieder Neuerungen in der Rechnerarchitekur geben, aber am Grundprinzip wird sich nichts ändern. (Z.B. kann ich mir schwer einen Datentransfer ohne Verbindungseinrichtung vorstellen ;) )

Frager
2004-05-08, 11:57:51
hm ihr müsst schon weiter denken ... es geht um die immer noch vorhandenen flaschenhälse welche ebend durch die von neuman architektur entstehen, nur damals war es egal da bandbreite und rechenleistung nciht in diesen dimensionen vorhanden war.

Aquaschaf
2004-05-08, 12:01:18
Bitte um nähere Erläuterung; welche Flaschenhälse wären bei was für einer Architektur denn nicht mehr vorhanden?

Monger
2004-05-08, 13:18:51
Harvard Architektur hat nicht ganz so sehr mit Flaschenhälsen zu kämpfen, weil sie Programmspeicher und Datenspeicher parallel anzapfen können...


Andererseits hat die von Neumann-Architektur Vorteile, wo ich mir nur schwer vorstellen kann mit was man denn diese bewährte Architektur ablösen soll...


Momentan ist das noch nicht so aktuell, aber für lernende KI ist es dringend notwendig, dass die Programmsoftware sich selbst im Betrieb umschreiben kann. So etwas erfordert dringend einen einheitlichen Speicher, und damit wird man auch immer diesen gewissen Flaschenhals haben...

Man kann nicht alles haben, aber für PCs scheinen mir die wenigen Nachteile von der von Neumann Architektur doch ziemlich unwichtig zu sein.

Stone2001
2004-05-08, 14:04:18
Die 'Von-Neumann'-Architektur hat an sich keinen Flaschenhals.

Der kam erst später (z.b. mit dem 486 DX2 66). Bei Von-Neumann läuft der Speicher eigentlich so schnell, das der Prozessor ständig mit Daten versorgt werden kann. Erst seitdem der Prozessor schneller getaktet wird, als der Speicher, haben wir den Flaschenhals Speicherbandbreite. (BTW: Deswegen hat man auch die Speicherhierachie (Reg, L1, L2, RAM, Platte,...) eingeführt)

mrdigital
2004-05-08, 14:05:41
Original geschrieben von Frager
hm ihr müsst schon weiter denken ... es geht um die immer noch vorhandenen flaschenhälse welche ebend durch die von neuman architektur entstehen, nur damals war es egal da bandbreite und rechenleistung nciht in diesen dimensionen vorhanden war.
wenn du es doch schon so genau weisst, wieso fragste dann erst noch? Ich sehe dein Flaschenhals Problem nicht, aber vielleicht kannst du hier ja ein paar Denkanstösse, statt nur einiger Phrasen, liefern

mrdigital
2004-05-08, 14:10:42
Original geschrieben von Stone2001
Die 'Von-Neumann'-Architektur hat an sich keinen Flaschenhals.

Der kam erst später (z.b. mit dem 486 DX2 66). Bei Von-Neumann läuft der Speicher eigentlich so schnell, das der Prozessor ständig mit Daten versorgt werden kann. Erst seitdem der Prozessor schneller getaktet wird, als der Speicher, haben wir den Flaschenhals Speicherbandbreite. (BTW: Deswegen hat man auch die Speicherhierachie (Reg, L1, L2, RAM, Platte,...) eingeführt)
eben drum!
Die PC´s sind eine Implementierung der Architektur, die sich ja auch immer wieder ändert, das was Neumann entworfen hat ist ja eine rein "theoretische" Maschine, kein Bauplan für einen PC, sozusagen "nur" ein Konzept. Dieses konzept wird ja nur als Ausgangsbasis heute verwendet (SMP ist eine Möglichkeit, die "Flaschenhälse" zu umgehen, vor allem wenn man das mit NUMA macht)

Frager
2004-05-08, 15:24:04
nun ja es ist richtig das diverse zwischenbuffer eingebaut wurden aber die sollen eigentlich nur diverse unzulänglichkeiten vor allem bei der bandbreite reduzieren...

also der klassiker ist ja wohl CPU - Ram da haperts am meissten..., bzw. bei allen stufen die niedrigere bandbreite benutzen.

Drum frage ich da ich mir nicht vorstellen kann das die kisten so wie sie heute sind bleiben ...

Monger
2004-05-08, 15:29:22
Wie hier schon richtig gesagt: das einzige Problem bei aktuellen Computern ist, dass sich die CPUs wesentlich schneller entwickelt haben als die Speicher.

AMD hat ja schonmal einen großen Schritt vorwärts gemacht, indem sie die Speicherkontroller integriert haben.

Natürlich muss man in der Richtung noch einiges tun, aber das ist wohl ein technisches Problem, kein prinzipielles.

Stone2001
2004-05-08, 17:11:14
Original geschrieben von Monger
AMD hat ja schonmal einen großen Schritt vorwärts gemacht, indem sie die Speicherkontroller integriert haben.

Dabei ist das Prinzip des integrierten Speicherkontrollers schon recht alt, der Sun Ultrasparc hat z.b. auch einen!

Original geschrieben von Frager
Drum frage ich da ich mir nicht vorstellen kann das die kisten so wie sie heute sind bleiben ...
Naja, irgendwoher müssen die Daten ja kommen. Du kannst dir ja schonmal eine neue Architektur überlegen, mal schaun, ob du eine findest die auf zukünftiger Hardware keine Flaschenhälse hat! Ich bin gespannt.

BTW: weiß einer wie Quantencomputer ihre Daten bekommen?

Lokadamus
2004-05-08, 18:14:54
mmm...

Im Prinzip wurde doch schon lange das Problem "Flaschenhals" beseitig, doch irgend ein dummer Trottel schreibt viel zu grosse Programme ;) ... 128 KB 1-Level-Cache zeigen doch schon, das theoretisch eine Lösung besteht, praktisch müsste man die auf die Grösse des Rams bringen und man wäre den Flaschenhals los. Technisch ist diese Grössenordnung wohl selbst in 10 Jahren nicht möglich, jede Architektur hat den selben Flaschenhals => Datentransfer zwischen Ram und CPU, wobei immer beides vorhanden sein muss ... wegen Quantencomputer, Google (http://www.google.de/search?hl=de&ie=UTF-8&oe=UTF-8&q=Quantencomputer&btnG=Suche&meta=lr%3Dlang_de) wirft zu den ersten 3 Antworten schon interessante Sachen raus, hab sie mir aber nicht durchgelesen ... dieser Beschreibung nach erinnert mich die Harvard Architektur (http://www.net-lexikon.de/Harvard-Architektur.html) an die damaligen Grafikkarten mit ihrem Ram, wo auch lesend und schreiben parallel zugegriffen werden konnte ...

Chris Lux
2004-05-10, 07:50:50
Original geschrieben von Stone2001
BTW: weiß einer wie Quantencomputer ihre Daten bekommen?

ich glaub wer auf diese frage eine praktikable antwort hat bekommt nen nobelpreis für physik. denn daran wird schon lange geforscht. im grunde funktionieren die quantencomputer so, dass werte als verschränkte quantenbits (quantenregister) dargestellt werden (wie das quantenbit realisiert ist, ist eben die frage), so können bei n qbits 2^n zustände gleichzeitig dargestellt werden. auf diesem quantenregister wird nun eine quantenoperation ausgeführt, was in exponentieller parallelität ausartet ;).

wie gesagt, finde eine realisierung für ein quantenregister, die sich dann auch noch zu 2^n zuständen verschränken lassen, PLUS die operationen dafür, die es erlauben einen praktikablen rechner zu bauen und du bist ein gemachter mann ;).

p.s. für genauere erklärungen bitte vorlesungen zu speziellen rechnerarchitekturen in der nächsten uni besuchen ;)

ZilD
2004-05-12, 01:55:13
da gehört einiges erneuert.
zu erst mal die analoge festplattentechnik vernichten und was neues finden. (laser-hologramm-bildflächen?).

pc architektur mainboard-graka etc. alles viel zu gross, zu heiss, zu umständlich.

am besten alles auf eine platine packen und logisch verknüpfen sowie ohne flaschenhals und genügend bandbreite etc.

dieses "aufrüstkonzept" eines pc's ist doch total unnötig.
das entwickelt sich so schnell, wie will man da aufrüsten?
passt da nicht, passt dort nicht, ist zu alt, skaliert nicht mehr wirklich mit etc.
für externe geräte kann man ja s-ata/fire wire/usb verwenden.

externe fire wire audiokarte und gut ists.
was brauch ich da pci? und so einen riesen tower?

mrdigital
2004-05-12, 09:33:04
Original geschrieben von ZilD
da gehört einiges erneuert.
zu erst mal die analoge festplattentechnik vernichten und was neues finden. (laser-hologramm-bildflächen?).

pc architektur mainboard-graka etc. alles viel zu gross, zu heiss, zu umständlich.

am besten alles auf eine platine packen und logisch verknüpfen sowie ohne flaschenhals und genügend bandbreite etc.

dieses "aufrüstkonzept" eines pc's ist doch total unnötig.
das entwickelt sich so schnell, wie will man da aufrüsten?
passt da nicht, passt dort nicht, ist zu alt, skaliert nicht mehr wirklich mit etc.
für externe geräte kann man ja s-ata/fire wire/usb verwenden.

externe fire wire audiokarte und gut ists.
was brauch ich da pci? und so einen riesen tower?

ZilD, es ging um eine neue Rechnerarchitektur, nicht um eine (technisch fortgeschrittene) Implementierung. An einem doofen Autobeispiel: Benz hat das "Urauto" gebaut, und wenn man es auf das Prinzip Reduziert, sind heutige Autos immer noch das selbe Ding, auch wenn man einen 911 Turbo damit vergleicht. Der Threadstarter wollte nun wissen, ob man statt 4 Rädern und einem Verbrennungsmotor nicht was ganz anderes machen könnte (Antigravitationsfeld und Fusionsreaktor ;)).

ZilD
2004-05-13, 17:49:43
aso jo ;D

na dann ki software und ki hardware.
hehe!

BlackBirdSR
2004-05-13, 19:58:52
Original geschrieben von Lokadamus
möglich, jede Architektur hat den selben Flaschenhals => Datentransfer zwischen Ram und CPU,

hmm ich würde sogar noch hinzufügen, dass ILP und TLP zwei der größten Probleme und Engpässe sind.
Inzwischen kommt man ja langsam davon ab, so viel Parallelität wie möglich pro Befehl zu erhalten (siehe SUNs neueste Bemühungen) um dafür mehr Threads abzuarbeiten.

Vedek Bareil
2004-05-14, 00:25:31
Original geschrieben von Stone2001
BTW: weiß einer wie Quantencomputer ihre Daten bekommen? Die Innovationen, die einen Quantencomputer ausmachen, drehen sich im wesentlichen um die Verarbeitung der Daten, d.h. um das was irgendwo intern in der CPU passiert. Der Transfer von Daten zwischen der CPU (oder Q-CPU, wie man das Ding dann vielleicht nennen wird) und anderen Komponenten wie dem Speicher bleibt gegenüber einem klassischen Rechner nahezu unverändert.

Original geschrieben von Hans Ohlo
im grunde funktionieren die quantencomputer so, dass werte als verschränkte quantenbits (quantenregister) dargestellt werden (wie das quantenbit realisiert ist, ist eben die frage), so können bei n qbits 2^n zustände gleichzeitig dargestellt werden. gleichzeitig dargestellt werden kann auch auf dem Quantencomputer immer nur ein einziger Zustand ;)
Entscheidend ist, daß dieser Zustand nicht nur einer der 2^n Produktzustände aus den Einbit-Zuständen sein kann wie auf dem klassischen Computer, sondern auch jede beliebige Superposition dieser 2^n Zustände. Von Verschränkung spricht man, wenn der Zustand kein Produktzustand ist, sondern eine Superposition.

Einfaches Beispiel: man stelle sich einen Computer mit n=2 Bits vor. Ein klassischer Computer kann sich in einem der 2^n=4 Produktzustände

|00>, |01>, |10>, |11>

befinden. Ein Quantencomputer dagegen auch in jeder Superposition der Form

|psi> = c_1|00> + c_2|01> + c_3|10> + c_4|11>

wobei die c_i komplexe Zahlen mit

|c_1|^2 + |c_2|^2 + |c_3|^2 + |c_4|^2 = 1

sind. Eine mögliche Superposition ist z.B.

sqrt(1/4) * (|00> + |01> + |10> + |11>)

eine andere

sqrt(1/2) * (|00> + |10>)

Matti
2004-05-14, 13:18:08
mal ne ganz verrückte Idee, praktisch sicherlich noch nicht umsetzbar, aber gerade für KI ideal:

man verschmilzt CPU und RAM, so daß jede Speicherzelle noch ein paar mehr Transistoren bekommt und die Rechen-Operationen schon im RAM gemacht werden können. Das Ergebnis wäre ein ultra-parralleler Rechner, bei dem jede Speicherzelle quasi eine CPU ist.
...das menschliche Gehirn arbeitet ja nach dem selben Prinzip...

mrdigital
2004-05-14, 18:36:59
ich hab solche Konzepte schon gesehen, bzw sie werden ja schon verwendet, siehe z.B. SGRAM, der kann schon im Speicher Datenblöcke bearbeiten, aber sicherlich könnte da noch mehr Potential drinstecken. Das Problem ist halt der enorme Transistoraufwand, der damit verbunden ist. In einem DRAM wird nur ein Transitor pro Bit verbraucht (plus Auslese / Adressierungslogik). Wenn man nun Operationen mit jedem Bit durchführen will, wird es schnell mehr, denn Logikfunktionen benötigen zwei Transitoren pro Eingang in die Logigfunktion, d.h. ein UND mit zwei Eingängen besteht aus vier Transistoren. Dadurch ist man im Moment auf einfache Funktionen beschränkt, bzw kann nur kleine Speicher bauen.

Gast
2004-05-14, 23:24:26
CPU-Arrays gibt es schon.
z.B. www.picochip.com
Infos unter: http://www.picochip.com/technology/faq

Matti
2004-05-17, 16:15:50
Original geschrieben von Gast
CPU-Arrays gibt es schon.
z.B. www.picochip.com
Infos unter: http://www.picochip.com/technology/faq

"(Peak of 4 LIW instructions per operation) x (160 MHz clock) x (308 processors per device) = 197.1 GIPS"
...und das bei nur 3-4W !!! Daran sollte sich Intel mal ein Beispiel nehmen!