PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gigahertzwahn - gibt es ein theoretisches physikalisches Limit?


Gast
2007-11-30, 04:15:29
Setzt die Physik der in CPUs machbaren Frequenz ein theoretisches Limit
oder könnten wir in vielen Jahren später Rechner haben die > 100 Millionen Gigaherz erreichen?


Das die heutige Fertigung Grenzen setzt, das ist mir klar,
das sind aber Grenzen in der Praxis.

Mir geht es um die Frage, ob es in der Theorie eine maximale Frequenzgrenze für CPUs gibt.

betasilie
2007-11-30, 05:34:23
Setzt die Physik der in CPUs machbaren Frequenz ein theoretisches Limit
oder könnten wir in vielen Jahren später Rechner haben die > 100 Millionen Gigaherz erreichen?


Das die heutige Fertigung Grenzen setzt, das ist mir klar,
das sind aber Grenzen in der Praxis.

Mir geht es um die Frage, ob es in der Theorie eine maximale Frequenzgrenze für CPUs gibt.
Ganz klar und einfach - ja, die gibt es. Wo diese in 100 oder 1000 Jahren sein wird, kann dir sicher niemand sagen, wobei CPUs so weit in der Zukunft ohnehin auf anderen Konzepten aufbauen werden, als heutige.

#44
2007-11-30, 06:01:50
Mir geht es um die Frage, ob es in der Theorie eine maximale Frequenzgrenze für CPUs gibt.

Bei heutiger Funktionsweise setzt ganz klar die Elektronenlaufzeit eine Obergrenze. Kürzere Wege könnten diese Nach oben verschieben aber prinzipiell ist das eine Grenze.

betasilie
2007-11-30, 06:05:46
Bei heutiger Funktionsweise setzt ganz klar die Elektronenlaufzeit eine Obergrenze. Kürzere Wege könnten diese Nach oben verschieben aber prinzipiell ist das eine Grenze.
Jup, die Lichtgeschwindigkeit ist mal das größte Problem und die Wege kann man nur begrenzt verkürzen. Aber auch so - einen Taktgeber mit unendlich hoher Frequenz wird es ohnehin nicht geben. ;)

Gast
2007-11-30, 06:21:39
Und bei wieviel GHz wäre diese Grenze?

BlackBirdSR
2007-11-30, 08:33:52
Und bei wieviel GHz wäre diese Grenze?

Das liegt an der Größe des Chips, den Signalwegen sowie thermischen und rauschbedingten Faktoren.
Eine Antwort kann dir niemand hier geben.

Ein Industrieexperte bei IBM oder Intel könnte dir vielleicht auf ein gängiges Standardmodell Antwort geben. Das besitzt hier aber keiner, und die erforderlichen Abschätzungen auch nicht.

Gast
2007-11-30, 08:42:12
Die Schätzung muß ja nicht sehr genau sein.


Sind wir bei 100 GHz schon am Ende?

Gast
2007-11-30, 08:43:19
Es ist ja auch so, dass man in Zukunft wohl spezialisierte Cores in die CPUs einbaut, die dann eben auch wieder viel kleiner als general purpose Cores sind und dadurch kann man deren Taktrate bestimmt noch deutlich steigern.
Taktung für jeden einzelnen Core bietet AMD ja schon an. Intel wird da sicherlich nachziehen.

BlackBirdSR
2007-11-30, 08:52:46
Die Schätzung muß ja nicht sehr genau sein.


Sind wir bei 100 GHz schon am Ende?

Oder bei 200GHz, vielleicht bei 10GHz.. oder haben wir in 10 Jahren schon nahezu vollständig asynchron getaktete Prozessoren?

Aber da du so sehr darauf bestehtst! Ich habe einmal irgendwo von irgendwem gehört, dass aus irgendeinem physikalischen Effekt bei 154 GHz Schluss sein muss.

Ash-Zayr
2007-11-30, 09:20:14
Es hat gut und gerne 15-20 Jahre ernstzunehmender Entwicklung für Desktop-PCs gebraucht, und wir haben noch nicht einmal eine gängige 4GHz CPU...und ich denke mal, die sogenannten "low hanging fruits" in der CPU Entwicklung sind abgergriffen; sprich, die großen Takterhöhungen in relativ kurzer Zeit, haben wir bereits genossen....es wird exponentiell nun immer größere Anstrengungen erfordern, um auch nur noch kleine Erhöhungen zu erreichen......
Ich denke, die Zukunft der CPU liegt schon längst nicht mehr allein im Takt als maßgeblicher Größe, sondern in Architektur, Multi-Core und Dingen, die wir vielelicht noch gar nicht kennen.

Ash-Zayr

Gast
2007-11-30, 09:44:51
Aber da du so sehr darauf bestehtst! Ich habe einmal irgendwo von irgendwem gehört, dass aus irgendeinem physikalischen Effekt bei 154 GHz Schluss sein muss.


Na das ist doch mal eine Antwort mit der man etwas anfangen kann.

Jetzt müßte man nur noch wissen, wie der Effekt genau heißt.

BlackBirdSR
2007-11-30, 09:57:24
Na das ist doch mal eine Antwort mit der man etwas anfangen kann.

Jetzt müßte man nur noch wissen, wie der Effekt genau heißt.

Ich bin mir ja nicht sicher.
Es müsste irgendwas mit Phonon Scattering zu tun haben. Irgendwer mit Namen Callway

pest
2007-11-30, 10:01:14
Ich wäre dafür x86 und von-Neumann-Architektur aufzugeben und alles den heutigen Anforderungen entsprechend anzupassen. es gab da mal vor Jahren ein Projekt eines Uni-Profs, sah echt vielversprechend aus...naja...Preis der Kompatibilität

Neosix
2007-11-30, 10:16:47
Das passiert doch bereits, die Neumann Architektur stirbt aus und wird immer stärker durch Harvard ersetzt. Der Prozess ist allerdings fliesend

pest
2007-11-30, 10:20:44
Das passiert doch bereits, die Neumann Architektur stirbt aus und wird immer stärker durch Harvard ersetzt. Der Prozess ist allerdings fliesend

naja im x86-Bereich wäre das ein großer Cut und da sehe ich auch nix
spezialisierte DSPs ausgenommen

Tigerchen
2007-11-30, 15:46:45
naja im x86-Bereich wäre das ein großer Cut und da sehe ich auch nix
spezialisierte DSPs ausgenommen

Wieviel x86 ist denn noch? Außer den Mnemonics meine ich.

nomadhunter
2007-11-30, 16:11:37
Ich habe einmal irgendwo von irgendwem gehört, dass aus irgendeinem physikalischen Effekt bei 154 GHz Schluss sein muss.
IBM hat doch schon 500-GHz-Transistoren gezeigt: http://www.golem.de/0606/45998.html

Mstrmnd
2007-11-30, 16:46:39
IBM hat doch schon 500-GHz-Transistoren gezeigt: http://www.golem.de/0606/45998.html
Eine Transe ist noch LANGE kein Prozessor. :wink: Da ist durch die Größe das Limit natürlich viel höher.

GeneralHanno
2007-11-30, 16:48:30
und das bei 4° Kelvin :biggrin:

Klar beim absoluten Nullpunkt (-273° Celsius) könnte man die höchsten Taktraten erhalten :wink:

Gast
2007-11-30, 16:52:24
IBM hat doch schon 500-GHz-Transistoren gezeigt: http://www.golem.de/0606/45998.html

Und jetzt das gleiche bitte nochmal mit einer MILLIARDE Transistoren. ;)

Allein die Kühllösung lässt sich in einem Heim-PC nicht bewerkstelligen. Praktikabel wären da höchstens noch Kompressorkühlungen...

Spasstiger
2007-11-30, 17:00:59
Eine Transe ist noch LANGE kein Prozessor. :wink: Da ist durch die Größe das Limit natürlich viel höher.
Das hat nix mit der Größe zu tun.
Nur wenn du aber sinnvolle Schaltungen aufbaust, z.B. in einer Prozessorpipeline eine Execute-Stufe mit ALU, dann brauchts immer mehrere Transistoren hintereinander. Die Gatterlaufzeiten addieren sich, der Takt muss heruntergebrochen werden, damit alles synchron läuft.

Mstrmnd
2007-11-30, 17:31:38
und das bei 4° Kelvin :biggrin:
Kelvin ohne °, bitte.

Klar beim absoluten Nullpunkt (-273° Celsius) könnte man die höchsten Taktraten erhalten :wink:
Beim absoluten Nullpunkt würde sich gar nichts bewegen. Und man kann ihn in der Realität auch nicht erreichen.

-

Das hat nix mit der Größe zu tun.
Nur wenn du aber sinnvolle Schaltungen aufbaust, z.B. in einer Prozessorpipeline eine Execute-Stufe mit ALU, dann brauchts immer mehrere Transistoren hintereinander. Die Gatterlaufzeiten addieren sich, der Takt muss heruntergebrochen werden, damit alles synchron läuft.
War blöd verkürzt von mir, genau das hab ich auch gemeint. Die Größe war auf die Komplexität des Gesamtproduktes bezogen. :wink:

Gast
2007-11-30, 17:49:19
Das müste ja noch lange so gehen wenn ich mir die Praxis so vorstelle,
bin vor gut 10 Jahren mit einen Pentium 133 MHz angefangen
und habe jetzt den grösten neuen Pentium mit 2x 2000 MHz gekauft !

Da dürfte dann wohl noch viel Lüft nach oben drin sein oder ?

Mstrmnd
2007-11-30, 17:55:49
Das müste ja noch lange so gehen wenn ich mir die Praxis so vorstelle,
bin vor gut 10 Jahren mit einen Pentium 133 MHz angefangen
und habe jetzt den grösten neuen Pentium mit 2x 2000 MHz gekauft !

Da dürfte dann wohl noch viel Lüft nach oben drin sein oder ?
Geht so. Hier scheint immer wieder vergessen zu werden, dass die Entwicklung in der Computerwelt exponentiell läuft. :wink:

Man kann nicht sagen, wann wir ernsthafte Schwierigkeiten bei der Produktion bekommen. Das hängt ganz von den zur Verfügung stehenden Technologien ab. :smile:

Gast
2007-11-30, 19:06:44
Dazu sagen würde ich noch, das 200 MHz damals nicht mehr mit "heutigen" zu vergleichen sind. Es kann durchaus sein, das ne heutige 200 MHz-CPU einer damaligen 200 MHz CPU um Welten davon rennt ...

Richtig interessant wird die Ausgangsfrage erst in ein paar Jahren. Sobald die ersten technischen Limits erreicht werden. Bis dahin können wir eigentlich ohne Probleme mit steigender Rechenleistung rechnen.
Der 32 nm-Prozess wird definitiv noch machbar sein, in Planung sind auch schon 22 nm und 11 nm (glaub ich). Das allein wird schonmal für eine Vervielfachung sorgen können. Meistens steigt nicht nur die Recheneffizienz pro Takt, sondern auch die Anzahl der Kerne wird ja vorran getrieben.

Die interessantere Frage ist aber: Was tun, wenn ein Shrink nicht mehr möglich ist?

Es wurde schon mit anderen Materialien experimentiert, die hier noch eine kleine Steigerung erhoffen lassen. Ich glaube es wurde mal etwas mit Dimanten gezeigt, das bei gleicher Prozesstechnik weitaus höhere (Betriebs)Temperaturen erlaubt und daher heutiger Technologie noch mehr abgewinnen könnte. Aber damit stellen sich ganz neue Probleme, wenn eine CPU dann mit 500 oder 1000 Grad Betriebsstemperatur arbeitet. :)

Avalox
2007-11-30, 20:40:51
J Aber auch so - einen Taktgeber mit unendlich hoher Frequenz wird es ohnehin nicht geben. ;)


Wenn sich die Ideen der Quantengravitation bewahrheiten sollten, wird es eine höchstmögliche Frequenz geben, die man nicht überschreiten kann.

Shink
2007-11-30, 21:38:18
Das müste ja noch lange so gehen wenn ich mir die Praxis so vorstelle,
bin vor gut 10 Jahren mit einen Pentium 133 MHz angefangen
und habe jetzt den grösten neuen Pentium mit 2x 2000 MHz gekauft !

Da dürfte dann wohl noch viel Lüft nach oben drin sein oder ?
Naja, wann gab es denn den ersten 3.2GHz-Prozessor und wo sind wir heute?

Gast
2007-11-30, 21:43:07
Naja, wann gab es denn den ersten 3.2GHz-Prozessor und wo sind wir heute?

Im Juni 2003, der 3.2 GHz Penryn im November07. ;)

_DrillSarge]I[
2007-11-30, 21:56:05
naja so ein prescott pentium 4 ( gingen die nicht bis 3.8Ghz?) waren bzw. sind deutlich langsamer als heutige c2d/ a64 (x2) modelle, welche mit wesentlich weniger takt operieren.
die takt grenze scheint mir, schon heute (praktisch!!!) erreicht, da mit dem aufkommen von multicore es nicht möglich wäre einen quadcore mit 100w tdp (oder wie man es nennen mag) pro kern zu versorgen/zu kühlen. dem kann man ja mit shrinks zu leibe rücken, doch man sieht ja, wie schwer sich die hesteller damit tun, bzw. damit dann (physikalisch, bei silizium) demnächst schluss ist. somit geht der trend zu effizienteren (leistung/takt) und breiteren (mehr kerne ) architekturen.

ESAD
2007-11-30, 22:14:41
es kommt hald immer auf die architektur an ... "einfache" in order designs wie ibms power 6 sind ja momentan bei 6 gigaherz denk ich

Plutos
2007-11-30, 22:26:11
Jup, die Lichtgeschwindigkeit ist mal das größte Problem und die Wege kann man nur begrenzt verkürzen. Aber auch so - einen Taktgeber mit unendlich hoher Frequenz wird es ohnehin nicht geben. ;)

Elektronen bewegen sich nicht mit Lichtgeschwindigkeit, sondern mit ca. 1mm/s.

Kelvin ohne °, bitte.


Beim absoluten Nullpunkt würde sich gar nichts bewegen. Und man kann ihn in der Realität auch nicht erreichen.

-


War blöd verkürzt von mir, genau das hab ich auch gemeint. Die Größe war auf die Komplexität des Gesamtproduktes bezogen. :wink:

Falsch, bei 0 K existiert nur de facto keine "Brown'sche Bewegung" der Elementarteilchen mehr. Dass diese stillstehen, ist damit noch lange nicht gesagt...wir haben (bzw. hatten) schon Satelliten, die mit 8km/s um die Erde düsen und dabei trotzdem eine Temperatur von ca. 1 K hatten ;). Ja, mit einer großen Wahrscheinlichkeit können wir (dank der kosmischen Hintergrundstrahlung mit rund 3 K) behauptet, das kälteste Objekt im ganzen Universum gebaut zu haben.

sam2323
2007-11-30, 22:39:40
Eine SPE eines Cell-Prozessors taktet ungefähr bis 5Ghz und hat ein FO4-delay von 11 und wird zurzeit in einem 90 nm Prozess gefertig.
Das FO4-Delay zu reduzieren ist zwar möglich allerdings leidet darunter immer mehr die Effizientz, siehe Pentium 4.
Ein FO4-Delay unter 5 ist kaum noch sinvoll, da die meiste Zeit und Energie dann alleine für den Takt gebraucht wird,
deswegen geht der Trend eigentlich eher zu längeren Delays z.B. 25 beim Barcelona.
Die Prozessgeometrie wird zwar weiter verkleinert, allerdings wird dies immer schwieriger, da die einzelnen Schichten eines Transistors nur noch wenige Atome dick werden.
Schon bei Intels 65 nm-Prozess sind manche Schichten nur noch 4 Atomlagen dick.
Durch den Einsatz von anderen Materialien, z.b Hafium bei Intels 45nm Prozess, kann diese Grenze zwar verschoben werden, allerdings nicht unendlich weit.
Je mehr sich die Prozessgeometrie der Gatterlänge der einzelnen Atome annähert, umso weniger verhalten diese sich physikalisch konstant, sondern quantenmechanisch unberechenbar.
Man geht daher von einer Grenze von ca 10nm für die minimale Größe eines Transistors aus.
Geht man davon aus, dass sich die Schaltzeit eines Transistors wie bisher 40% verbessert, was allerdings wegen anderer physikalischen Effekte fraglich ist, kommt man auf eine um (90nm -> 65 nm -> 45nm -> 32nm -> 22nm-> 16 nm-> 11nm) => 1,4^6 = 7,53 verbesserte Schaltzeit für eine 11 nm Fertigung.
Eine Reduzierung des FO4 Delays von 11 auf 5 bring ca (11 + ca 3 für die Latches/ 5 + 3) = 1,75 fache Verbesserung der Frenquenz.
Dadurch ergibt sich aus 5Ghz * 7,53 * 1,75 = 65,9 Ghz als maximale Freqenz für eine Schaltung aus herkömmlichen Transitoren bei Raumtemperatur, die irgentwie sinnvoll eingesetzt werden könnte.
Natürlich könnte man die Transistoren auch durch Nanoröhrchen oder sowas ersetzen, die funktionieren zur Zeit leider nicht mal in Labors halbwegs zuverlässig.
Dies ist nätürlich keine wissentschaftliche Abhandlung, sondern nur eine grobe Schätzung :-D

Ajax
2007-11-30, 22:46:17
Ich wäre dafür x86 und von-Neumann-Architektur aufzugeben und alles den heutigen Anforderungen entsprechend anzupassen. es gab da mal vor Jahren ein Projekt eines Uni-Profs, sah echt vielversprechend aus...naja...Preis der Kompatibilität

Hm... Eine Alternative gibt es ja:
http://de.wikipedia.org/wiki/Harvard-Architektur
Hat sich allerdings nicht ni Reinform durchgesetzt.

Wobei meines Wissens zumindest AMD mit einer Mischform antreten müsste. :uponder:

Ich denke im Moment sollte der Knackpunkt die Fotolithografie zur Belichtung der Wafer sein.
http://de.wikipedia.org/wiki/Fotolithografie

Welche Größe (40 nm?) lässt sich denn noch belichten?

Spasstiger
2007-11-30, 23:25:58
Es gibt heute durchaus auch schon Prozessoren, die bei 10 GHz und mehr operieren, Signalprozessoren für digitale Messgeräte z.B.
Da kommen auch keine CMOS-Transistoren, sondern Bipolartransistoren zum Einsatz.

Gast
2007-12-01, 00:17:58
FO4-delay 8, 22nm und maximal 15ghz. Wirtschaftlich in der Produktion und für den Kunden kommen wir nicht weiter. Wenn man aber 16 solche SSE6 Cores hat, dann geht das schon ;) Das wichtigste ist, daß man auf dem Desktop pro Sockel unter 110W bleibt.

Mindestens eine Generation sollten sie aber auslassen und das Budget in die dafür ausgelegte Kernel-, Kompiler- und Entwicklungswerkzeugenforschung ausgeben :mad:

Spasstiger
2007-12-01, 02:16:42
Elektronen bewegen sich nicht mit Lichtgeschwindigkeit, sondern mit ca. 1mm/s.
Elektronen bewegen sich in Leiterbahnen mit 1/3 bis 2/3 Lichtgeschwindigkeit und so schnell werden auch Informationen übertragen. Oder musst du eine halbe Stunde warten, bis die Signale deiner Maus am Rechner ankommen und vom Prozessor verarbeitet werden?
Was du meinst, ist die Geschwindigkeit, mit der die Elektronen ihren mittleren Aufenthaltsort ändern, wenn an einen Leiter eine Spannung angelegt wird.

Beomaster
2007-12-01, 03:10:31
Hm... Eine Alternative gibt es ja:
http://de.wikipedia.org/wiki/Harvard-Architektur
Hat sich allerdings nicht ni Reinform durchgesetzt.

Wobei meines Wissens zumindest AMD mit einer Mischform antreten müsste. :uponder:

Ich denke im Moment sollte der Knackpunkt die Fotolithografie zur Belichtung der Wafer sein.
http://de.wikipedia.org/wiki/Fotolithografie

Welche Größe (40 nm?) lässt sich denn noch belichten?

65nm werden noch mit 193nm belichtet
darunter wird dann Immersionslitho verwendet, 45nm dürften auch noch mit 193nm gemacht werden
ab 2009 hab ich gelesen will dann Intel mit ner Extremen UV Quelle mit irgendwas zwischen 10nm und 20nm Wellenlänge belichten
wie das genau gehen soll, keine Ahnung, ich finde es eh schon verwunderlich das man Strukturen präzise Abbilden kann die bis zu 4x kleiner sind als die Wellenlänge des verwendeten Lichts

Was du meinst, ist die Geschwindigkeit, mit der die Elektronen ihren mittleren Aufenthaltsort ändern, wenn an einen Leiter eine Spannung angelegt wird.
war das nicht Abhängig vom Potentialgefälle der Spannung?

sam2323
2007-12-01, 03:12:26
Elektronen bewegen sich nur mit circa 1mm/s durch die Leiterbahnen, das ist aber nicht sonderlich wichtig, da die Informationen bzw. Spannung durch das elektromagnetische Feld übertragen werden, und das breitet sich je nach Medium mit 1/3 bis 2/3 Lichtgeschwindigkeit aus ( im Vakuum natürlich mit voller Lichtgeschwindigkeit).

Plutos
2007-12-01, 03:16:57
Elektronen bewegen sich in Leiterbahnen mit 1/3 bis 2/3 Lichtgeschwindigkeit und so schnell werden auch Informationen übertragen. Oder musst du eine halbe Stunde warten, bis die Signale deiner Maus am Rechner ankommen und vom Prozessor verarbeitet werden?
Was du meinst, ist die Geschwindigkeit, mit der die Elektronen ihren mittleren Aufenthaltsort ändern, wenn an einen Leiter eine Spannung angelegt wird.

Hm...aber was ist denn der Unterschied zwischen einer Leiterbahn auf einem elektronischen Bauteil oder Chip und einem "Stück Kupfer"? Bei 1/3 bis 2/3 Lichtgeschwindigkeit wären das ja schon (hoch)relativistische Elektronen, die sich ja de facto durch einen Festkörper bewegen. Das müsste ja bei vielen vielen Elektronen eine unglaubliche Reibung verursachen: die Leiterbahn müsste davon eigentlich (gefühlsmäßig) augenblicklich zerstört werden :confused:

Ich muss ja auch nicht eine halbe Stunde warten, wenn ich das Licht einschalte ;)...die Elektronen geraten ja sofort in Bewegung, und sie sind ja näherungsweise gleichmäßig über die Länge des Leiters verteilt.

Oder fehlen mir hier ganz elementare Physik- (oder eher Mikroelektronik-)Kenntnisse?


war das nicht Abhängig vom Potentialgefälle der Spannung?

Das war es meiner Meinung nach nur, wenn die Elektronen in einem elektrischen/magnetischen Feld beschleunigt werden. Da kann ich mich aber irren, das Anfängerpraktikum I ist zu lange her ;).

Elektronen bewegen sich nur mit circa 1mm/s durch die Leiterbahnen, das ist aber nicht sonderlich wichtig, da die Informationen bzw. Spannung durch das elektromagnetische Feld übertragen werden, und das breitet sich je nach Medium mit 1/3 bis 2/3 Lichtgeschwindigkeit aus ( im Vakuum natürlich mit voller Lichtgeschwindigkeit).

Ich werde mal daran arbeiten, das nachzuvollziehen...muss mal wieder nachschlagen wie das alles war mit Maxwell.

Beomaster
2007-12-01, 03:20:15
er meint wenn du ne Spannung anlegst wandern die Elektronen sofort, das passiert wohl mit deinen 1/3 bis 2/3 c (daher geht das Licht auch sofort an wennde den Stecker umlegst)
dabei bewegen sie sich selbst aber nur mit 1mm/s fort

sam2323
2007-12-01, 03:51:50
Zur Bewegungsgeschwindigkeit von Elektronen.
Anschaulich beschrieben:
Wenn du ein Rohr voller Kugeln hast und du drückst auf der einen Seite eine zusätzlich rein, fällt natürlich gleich auf der anderen Seite eine andere raus.
Die Information ist sozusagen sofort da, obwohl sich die einzelnen Kugeln alle nur wenig bewegt haben.
In der Leiterbahn verhält sich das genauso.
Es reicht wenn sich alle Elektronen nur ein winziges Stück bewegen, um am anderen Ende eine Potenzial-Überschuss oder Mangel zu erzeugen.

HotSalsa
2007-12-01, 05:12:13
Hatte mal einiges im inet und in der ct zu diesem Thema gelesen.

Eine Richtung ist imo das Teil, mit dem Intel schon seit einiger Zeit experimentiert, nämlich ihr sogenannter POLARIS Prozessor.

http://www.computerbase.de/news/hardware/prozessoren/intel/2007/februar/intel_polaris_80_kerne_1_teraflop_62_watt/

Seit dem Artikel wurde Polaris aber noch 2 - 3 mal überarbeitet.
Afaik ist man zur Zeit bei etwas 3 Teraflops angelangt. Also ein Many Core Design (mit vielen simplen cores), evtl. später auch mal mit 2 - 4 richtigen cores noch drauf und dazwischen eine Schicht, die nur als cache dient. Auf 2 Ghz hat man Polaris heute schon. In der Form kommt das Ding nie aufn Markt - könnte aber durchaus die Richtung vorgeben, in die es gehen wird.

Desweiteren hab ich mal ein Diagramm von Intel gesehen, wo es darum ging, wie man mit einer CPU immer mehr Leistung erhalten will. Das sah bei Intel in etwas so aus:

Neue Instruktionen (SIMD) ---> effizientere/grössere caches ---> many cores ---> schnellere Speicheranbindung/Speicher ---> CPU Takt

So stufte Intel die Wichtigkeit ein, um mehr performance in der Zukunft zu erhalten.

beos
2007-12-01, 05:37:13
Wir sollten nicht vergessen, dass es ja auch analoge Prozessoren gibt. Da diese natürlich auch mit Elektronen betrieben werden stellt hier auch die Geschwindigkeit dieser eine Grenze dar. Allerdings ist es dort nicht so, dass der ganze Prozessor einen festen Taktzyklus besitzen muss...vielleicht wird das ja in Zukunft aktueller ....

Spasstiger
2007-12-01, 12:42:28
Die Geschwindigkeit, mit der sich ein Elektronik letztendlich von Punkt A zu einem weit entfernten Punkt B in einem Leiter bewegt (Driftgeschwindigkeit), spielt keine Rolle für die Taktfrequenz von Prozessoren.
Die Information breitet sich dadurch aus, dass freie Elektronen ihre Impulse an andere freie Elektronen weitergeben. Dies geht sehr schnell, weil die Elektronen eben rasend schnell lokal (z.B. in der Nähe eines Atoms) rumzappeln und somit schnell Einfluss auf ein benachbartes Elektron ausüben können.

Relevant für die Taktfrequenz ist die Geschwindigkeit, mit der sich Information und Energie in einer Schaltung ausbreitet. Das ist die Phasengeschwindigkeit und die ist typischerweise 1/3 bis 2/3 c.

RavenTS
2007-12-01, 23:30:59
In Zukunft wird man eine CPU kaum noch anhand solch toll einfacher Schlagmichtotmerkmale wie Taktrate etc vergleichen können, da die CPUs einfach immer komplexer, weil spezieller (versch. "Core-Arten") werden. Was sich das Marketing da wohl ausdenken wird...
Irgendwelche physikalischen Limits sind für den Endanwender allerhöchstens potenziell interessant, aber nicht relevant...