PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Produktionstechnik. Bei wievielen nm ist schluß?


Gmax
2007-06-02, 22:18:53
Die Größe der Transistoren ist doch nicht unendlich schrumpfbar, oder? Aktuell sind wir bei 65nm, 45 nm soll bald folgen und wie ich gerade gelesen habe, sind 26nm (http://www.theinquirer.net/default.aspx?article=40002) schon in Vorbereitung.
Wo ist eigentlich die Grenze? Ein Transistor kann doch nicht kleiner sein als ein Elektron:confused:

=Floi=
2007-06-02, 22:42:34
du meinst eher EIN atom

es gibt ja mit dem stapeln erste ideen die chips als sandwitch zu bauen

Spasstiger
2007-06-02, 23:00:23
Bei ~10 nm liegt nach derzeitigem Kenntnisstand die physikalische Grenze, dann hätte man ein Schicht von nur noch einer Dicke von etwa 10 Atomen. Problematisch ist dabei nicht nur die Schichtdicke an sich (Stichwort Elektromigration), sondern auch das Lithografieverfahren, um überhaupt Strukturen auf den Halbleiter aufbringen zu können. Aber mal abwarten, was den Ingenieuren noch so einfällt, schon oft wurden angebliche physikalische Grenzen durchbrochen.

Bei uns in den Vorlesungen heißts auf jeden Fall 10 nm.

Stone2001
2007-06-02, 23:03:16
Irgendwo in der Gegend von ca. 10nm wird wohl es schwer werden!
Vielleicht findet sich auf www.itrs.net genauere Infos darüber. (AFAIK werden die 10nm nach der Roadmap ca. 2020 erreicht werden)

@Spasstiger: Nur die Massenfertigung hat ein Problem mit der Lithographie! Die 193nm-Laser kommen so langsam an ihre Grenzen, EUV-Lithographie ist aber auch nicht mehr weit, dann sollten Strukturen unter 32nm kein Problem mehr sein. Für Einzelfertigungen gibt ja noch z.B. Elektronenstrahl-Lithograhpie, mit der sich schon heute Strukturen von wenigen nm herstellen lassen.

Spasstiger
2007-06-02, 23:16:53
@Stone2001: Ok, dass die Lithografie auch im 10-nm-Bereich für Spezialanwendungen beherrschbar wäre, wusste ich nicht. Bin auch kein Mikroelektroniker, muss nur zwangsläufig als E-Technik-Student was von der Materie verstehen. ;)

Soll 26 nm eigentlich ein größerer Schritt werden oder ist das nur so ein Zwischenschritt wie 80 nm (welcher nur bei GPUs eingesetzt wurde)?
Denn die Schritte stehen ja normalerweise in einem Verhältnis von Wurzel(2) zueinander. Z.B. gut zu sehen an 45 nm und 32 nm oder an 65 nm und 45 nm.
Der nächste Schritt nach 32 nm sollte ja dann 23 nm sein und nicht 26 nm.

Wenn 26 nm aber doch der nächste Schritt wäre, ist das in meinen Augen schon ein Zugeständnis, dass man auf eine Beherrschbarkeitsgrenze zuläuft.

Gmax
2007-06-02, 23:58:04
Ok, danke für eure Antworten.

Bei ~10 nm liegt nach derzeitigem Kenntnisstand die physikalische Grenze, dann hätte man ein Schicht von nur noch einer Dicke von etwa 10 Atomen.

Bei 1nm wäre es ja nur noch ein Atom, wie soll das denn noch funktionieren? Die absolutete Grenze dürfte also bei ~5nm sein, denn die Physik läßt sich doch nicht austricksen...

Gast
2007-06-03, 00:55:10
Ist echt ne gute frage, wie es weiter geht, aber erstmal stehen noch 45 nm, 32 nm 22 nm und vielleicht 11 nm an. Darüber hinaus kann es noch niemand sagen, denn man sagte auch für 2006 eine physikalische Grenze vorraus ;D

Das wird schonmal für einen ordentlichen Boost sorgen. Wie es danach weiter gehen wird, muss man dann sehen. Es gab ja schon mehrere Experimente in der Richtung.

Vielleicht brauchen wir weitere Shrinks überhaupt nicht. Nach bisherigen Erkenntnissen ist es durchaus möglich, aus synthetischen Diamant einen Prozessor herzustellen, der bis 800 Grad tadellos funktionieren soll :eek:
http://www.heise.de/newsticker/meldung/61545

Coda
2007-06-03, 02:02:13
Mit 2kW Stromverbrauch?

boxleitnerb
2007-06-03, 07:38:15
LOL, die CPU mag funktionieren, aber wenn dir das Board, die Kabelmantel usw. fortschmilzt, ist das nicht so toll. Und wenn du einmal dein Gehäuse anlangst (das schon leicht glüht), kriegst du Brandblasen!

Gouvernator
2007-06-03, 08:35:44
Damals in CT Artikel hiess es auch etwa 12nm. Die haben noch andere Gründe aufgezählt warum das schwer werden könnte eines davon war halt die Sauberkeit im Reinraum. Man müsste praktisch wirklich nichts mehr im Raum haben.

Avalox
2007-06-03, 09:33:02
Na ja. In 5 Jahren werden wir es wissen.

Steckt ja einiges an Risiko in der Geschichte. Die voranschreitende Mikroelektronik ist ja der Wirtschaftsmotor schlechthin. Kann dramatische Folgen haben, wenn die Entwicklung gebremst werden sollte, weil niemand so recht eine Idee hat.

Gast
2007-06-03, 09:44:22
Mit 2kW Stromverbrauch?

Keine Ahnung, aber wenn höhere Temperaturen zulässig sind, heißt das ja, das man die jetzigen Grenzen sehr viel weiter ausdehnen kann.

LOL, die CPU mag funktionieren, aber wenn dir das Board, die Kabelmantel usw. fortschmilzt, ist das nicht so toll. Und wenn du einmal dein Gehäuse anlangst (das schon leicht glüht), kriegst du Brandblasen!

Also das würde man sicher in den Griff bekommen. Man könnte die CPU von allen anderen Dingen abschirmen. Man weiß es halt noch nicht.

Vielleicht gibts dann Mainboards nach heutiger Bauweise gar nicht mehr, wer weiß das schon ...

Gauron Kampeck
2007-06-03, 15:16:54
Hab mal kurz gesucht und hab das hier gefunden:
http://www.golem.de/0212/23061.html

Natürlich ist das ein Labortransistor und hat nicht mit den milliardenfachen Transistoren heutiger Schaltungen zu tun. Ich denk aber, es zeigt sehr schön was physikalisch möglich ist. Die Frage ist nur ob sich die Herstellung derartig kleiner Schaltungen auch finanziell bezahlen lässt. Ich hab noch dunkel in Erinnerung irgendwo mal gelesen zu haben, dass man spätestens ab 22 nm wieder kleinere Wellenlängen für die Belichtung benötigt, was die entsprechenden Maschinen (wg. Lichtquellen, Linsensystem, usw.) deutlich verteuern soll. Letztendlich schätz ich mal, dass man irgendwo bei 1X nm auf ne neue Technologie umsteigen wird.

Hamud
2007-06-03, 15:35:24
Ich finde die Frage nach den nm gar nicht so brennend. Viel interersannter finde ich die Frage wie viele Transistoren kann ein Prozessor haben(unter der Vorraussetzung noch kühlbar und bezahlbar für die Masse). Die Entwicklung wird bestimmt noch ein paar Überraschungen haben, um die Integrationsdichte zu erhöhen(z.B.: Vertikale Transistoren, Stacking, Packaging). Man sollte auch nicht vergessen das das Gate je der mit Abstand kleinste Teil des Transistors ist, der kaum Platz belegt. Die Anschlüsse an Drain und Source verbrauchen ein vielfaches an Platz. Wichtig ist die nm Angabe dennoch, weil diese einen Entscheidenden Anteil an der Schaltgeschwindigkeit des Transistors hat(nicht direkt auf CPU/GPU übertragbar).

Gast
2007-06-03, 15:43:35
LOL, die CPU mag funktionieren, aber wenn dir das Board, die Kabelmantel usw. fortschmilzt, ist das nicht so toll. Und wenn du einmal dein Gehäuse anlangst (das schon leicht glüht), kriegst du Brandblasen!

immerhin könnte es interessant werden dass man trotz hohem stromverbrauch passiv kühlbare cpus usw. einsetzen kann.

Gast
2007-06-03, 15:55:54
Der große Schritt in den kommenden Jahrzehnten wird nicht die wesentlich kleinere Architektur sein, sondern die 3-dimensionale Verknüpfung der Transistoren, flexiblen Verbindungen, etc. liegen. Hier wird der Schub in der Leistung wesentlich größer sein, als alles, was bisher gewesen ist.

Coda
2007-06-03, 16:05:38
Die Verbindungen der Transistoren ist bereits 3D.

Kladderadatsch
2007-06-03, 16:35:25
Ich finde die Frage nach den nm gar nicht so brennend. Viel interersannter finde ich die Frage wie viele Transistoren kann ein Prozessor haben(unter der Vorraussetzung noch kühlbar und bezahlbar für die Masse).
das hängt unter anderem direkt von der größe der transistoren ab;)

T86
2007-06-03, 17:09:07
physikalische grenzen haben wir doch jetzt auch schon

warum tun sich amd und intel denn so schwer mit der 3,x ghz marke?
bevor man auf 4ghz kommt gibts wieder ne neue architektur mit ner großeren pro takt leistung
es muss also eine grenze geben sonst hätten wir inzwischen 4ghz K7 und 4,5Ghz P4 cpus in den regalen bei den händlern stehen ;)

Gast
2007-06-03, 17:41:12
physikalische grenzen haben wir doch jetzt auch schon

warum tun sich amd und intel denn so schwer mit der 3,x ghz marke?
bevor man auf 4ghz kommt gibts wieder ne neue architektur mit ner großeren pro takt leistung
es muss also eine grenze geben sonst hätten wir inzwischen 4ghz K7 und 4,5Ghz P4 cpus in den regalen bei den händlern stehen ;)

Nein, das sind nur Grenzen der jeweiligen Chip-Architektur aber keine physikalischen Grenzen.

Brotzeit
2007-06-03, 17:50:23
physikalische grenzen haben wir doch jetzt auch schon

warum tun sich amd und intel denn so schwer mit der 3,x ghz marke?
bevor man auf 4ghz kommt gibts wieder ne neue architektur mit ner großeren pro takt leistung
es muss also eine grenze geben sonst hätten wir inzwischen 4ghz K7 und 4,5Ghz P4 cpus in den regalen bei den händlern stehen ;)


4/5/6 GHz P4s wären technisch möglich, nur wäre das gegenüber nem 2,4Ghz E6600 ineffizient. ( Siehe scheitern der Netburst Generation )

Spasstiger
2007-06-03, 18:05:14
Man kann mit heutiger Technologie auch CPUs mit 10 GHz fertigen, man muss nur den kritischen Pfad innerhalb der Chippipeline entsprechend kurz bekommen.
Die Transistoren ließen sich durchaus im 10-GHz-Bereich takten.

Nur man sieht ja an Netburst und vor allem dem Prescott, dass eine 30-Stufen-Pipeline mit kurzem kritischem Pfad auch nicht das Wahre ist (obwohl die Dinger sogar noch mit 7 GHz bei Extrem-OC-Versuchen liefen).

Außerdem wirkt sich ein hohe Takt negativ auf den Stromverbrauch aus. Ein Transistor in CMOS-Technik verheizt nämlich jeweils bei den Taktflanken die elektrische Energie. Und der Energieverbrauch bedeutete letztendlich auch das Aus für Netburst, den Takt hätte man sicherlich auch noch auf 5-6 GHz in Serie hochschrauben können.

Mastermind@home
2007-06-03, 20:36:11
Nur man sieht ja an Netburst und vor allem dem Prescott, dass eine 30-Stufen-Pipeline mit kurzem kritischem Pfad auch nicht das Wahre ist (obwohl die Dinger sogar noch mit 7 GHz bei Extrem-OC-Versuchen liefen).
Bei guten 8 GHz liegt der Weltrekord. :smile:

Gast
2007-06-03, 20:48:18
Na ja. In 5 Jahren werden wir es wissen.

Steckt ja einiges an Risiko in der Geschichte. Die voranschreitende Mikroelektronik ist ja der Wirtschaftsmotor schlechthin. Kann dramatische Folgen haben, wenn die Entwicklung gebremst werden sollte, weil niemand so recht eine Idee hat.
Jo das wird spannend. Aber ich vermute mal die "Pionierzeiten" dürften so langsam vorbei sein. Man muss sich nur mal die rasante Entwicklung von 1997 bis jetzt vor Augen führen. Ich erinnere mich da auch gerne an ehemalige nV Refreshes. Da kam jedes halbe Jahr was Neues. Das ist leider auch schon Geschichte.

Spasstiger
2007-06-03, 20:57:27
Man muss sich nur mal die rasante Entwicklung von 199771 bis jetzt vor Augen führen.
:wink:
Die Entwicklung schreitet schon seit dem Intel 4004 rasant voran.

Stone2001
2007-06-03, 21:03:08
Man kann mit heutiger Technologie auch CPUs mit 10 GHz fertigen, man muss nur den kritischen Pfad innerhalb der Chippipeline entsprechend kurz bekommen.
Die Transistoren ließen sich durchaus im 10-GHz-Bereich takten.

Man kann ja immer noch auf andere Halbleiter umsteigen, wenn man mehr Taktfrequenz braucht (Ge oder GaAs), allerdings hat man dann keine so hohe Intergrationsdichten mehr wie beim Si-CMOS-Prozess.

Außerdem wirkt sich ein hohe Takt negativ auf den Stromverbrauch aus. Ein Transistor in CMOS-Technik verheizt nämlich jeweils bei den Taktflanken die elektrische Energie. Und der Energieverbrauch bedeutete letztendlich auch das Aus für Netburst, den Takt hätte man sicherlich auch noch auf 5-6 GHz in Serie hochschrauben können.
Die 5-6 GHz werden wir jetzt wohl vom IBM Power 6 bekommen. Aber auch der Cell-Prozessor hat noch Potenzial nach oben, wenn man sich sein Design anschaut ist das beim Cell auch kein Wunder. (Ich kenn das Design des Power 6 nicht genau, um darüber aussagen treffen zu können)

Stone2001
2007-06-03, 21:04:39
:wink:
Die Entwicklung schreitet schon seit dem Intel 4004 rasant voran.
Moore's Law, die selbsterfüllende Prophezeiung! :) Die Intel-Ingenieuer machen alles um das Gesetz ihres Firmengründers weiter am Leben zu erhalten. ;)

Gast
2007-06-03, 21:09:42
:wink:
Die Entwicklung schreitet schon seit dem Intel 4004 rasant voran.
Ja, ich wollte aber mal eine Dekade als Vergleichszeitraum nehmen. Außerdem ging es von da an afaik mit der 3D Grafik im Privatbereich richtig voran. Wo nV richtig eingestiegen ist mit dem TNT, dann halbes Jahr später TNT2, dann Geforce SDR/DDR usw und dazu die Voodoos. Da kam keine Langeweile auf und die PC Magazine hatten immer im Hardwarebereich was zu schreiben. Die Grakaentwicklung dürfte am meisten davon betroffen sein. Denn die sind wirklich auf die kleineren Fertigungsprozesse angewiesen, spätestens dann, wenn 1 Milliarde Transitoren vereint werden sollen.

Gast
2007-06-03, 21:25:09
Man kann ja immer noch auf andere Halbleiter umsteigen, wenn man mehr Taktfrequenz braucht (Ge oder GaAs), allerdings hat man dann keine so hohe Intergrationsdichten mehr wie beim Si-CMOS-Prozess.


vor allem ist silizium deutlich temperaturbeständiger.

Gast
2007-06-03, 23:16:08
Nur mal so: Atombindungslängen ligen im Bereich 150-300 pikometer. 10nm wären also immer noch zig Atomlagen, denke also dass es noch kleiner gehen sollte, allerdings dürften sich Quanteneffekte schon extrem bemerkbar machen, irgendwas zwischen 1-5 nm wird man wohl kaum unterschreiten können,
Aber im Prinzip eignen sich ja sogar einzelne Atome als Qubits für Quantencomputer, allerdings muss man diese Qubits auch von aussen manipulieren können und vor Dekohärenz schützen und das braucht auch wieder platz.

Möglicherweise lässt sich später auch die innere Struktur der Atome für Rechenoperationen verwenden,da fehlen bloss noch sämtliche Grundlagen^^

Gast
2007-06-05, 12:31:13
:wink:
Die Entwicklung schreitet schon seit dem Intel 4004 rasant voran.nuja, wenn ich bedenke, daß ganze drei Prozessorgenerationen - 286, 386, 486 - im Taktfrequenzbereich von 25-33 MHz herumdümpelten, dann muß ich sagen ist die Entwicklung seit dem Pentium 1 (der startete bei 60 MHz und ging bis 233) doch schon etwas schneller geworden.

Gast
2007-06-05, 12:50:32
den 486er gabs afaik bis zu 100 Mhz, während der 286er nur bis 12,5 Mhz ging. Ist also immerhin schon der Faktor 8 auf die Mhz bezogen.

Gast
2007-06-05, 12:51:44
edit: http://de.wikipedia.org/wiki/Liste_der_Mikroprozessoren_von_Intel#1990.E2.80.931994

Avalox
2007-06-05, 19:34:11
nuja, wenn ich bedenke, daß ganze drei Prozessorgenerationen - 286, 386, 486 - im Taktfrequenzbereich von 25-33 MHz herumdümpelten, dann muß ich sagen ist die Entwicklung seit dem Pentium 1 (der startete bei 60 MHz und ging bis 233) doch schon etwas schneller geworden.

Hmm. Die Taktunterschiede waren auch in der vor P5 Zeit differenzierter.
Der 486er wurde ja bei AMD zudem bis auf 160Mhz getrieben. Der Pentium erlebte auch, wenn man den MMX dazu zählt drei Strukturverkleinerungen mit.

Ich denke der 486er ist der x86 Prozessor mit dem grössten Taktspektrum. Immerhin Faktor 6,4 bei nur einer Strukturverkleinerung.(Bei AMD zumindest)

SavageX
2007-06-05, 20:55:16
Der 486er wurde ja bei AMD zudem bis auf 160Mhz getrieben.


Auch offiziell? Die Dinger gingen zwar üblicherweise problemlos auf 160 MHz... mir ist aber nicht bekannt, dass AMD die auch offiziell so verkauft hat.

laser114
2007-06-05, 21:18:58
Auch offiziell? Die Dinger gingen zwar üblicherweise problemlos auf 160 MHz... mir ist aber nicht bekannt, dass AMD die auch offiziell so verkauft hat.

Waren wohl geplant, aber nicht veröffentlicht. Bei Wikipedia steht es so:

* Am5x86-P75: 133 MHz (33 MHz × 4)
* Am5x86-P75+: 150 MHz (50 MHz × 3) - nicht auf den Markt gekommen
* Am5x86-P90: 160 MHz (40 MHz × 4) - nicht auf den Markt gekommen

Avalox
2007-06-05, 21:29:40
Waren wohl geplant, aber nicht veröffentlicht. Bei Wikipedia steht es so:


* Am5x86-P90: 160 MHz (40 MHz × 4) - nicht auf den Markt gekommen

Dann hat mich meine Erinnerung betrogen. Aber ich dachte auch, dass Intel einen 486er>100MHz auf dem Markt hatte. Scheint wohl auch nicht so gewesen zu sein.

Gast
2007-06-06, 10:50:21
Vor 3 Jahren war im PCGH eine kleine Prognose:

2017: CPU mit 40 GHz und 32 Milliarden Transistoren. An die Zahlen kann ich mich gut erinnern, aber obs glaubhaft ist, ist eine andere Frage ;)

Coda
2007-06-06, 11:40:20
Naja in 90nm haben wir jetzt 0,7 Mrd. Transistoren bei den GPUs, d.h. in 10nm gehen auf die gleiche Fläche >50 Mrd.

Aber bei der Frequenz geh ich noch nicht ganz mit.

Gast
2007-06-06, 11:46:53
Die Prognose wurde auch noch zu zeiten gemacht, als die Netbrust-Architektur in voller Munde war, und Intel vollmundig schon von über 10Ghz und mehr träumte.

Gast
2007-06-06, 12:47:33
Dann hat mich meine Erinnerung betrogen. Aber ich dachte auch, dass Intel einen 486er>100MHz auf dem Markt hatte. Scheint wohl auch nicht so gewesen zu sein.

Intel bis 100Mhz, AMD bis 120 MHz.

http://en.wikipedia.org/wiki/Intel_80486

http://en.wikipedia.org/wiki/Am486

Gast
2007-06-06, 14:03:43
Intel bis 100Mhz, AMD bis 120 MHz.

http://en.wikipedia.org/wiki/Intel_80486

http://en.wikipedia.org/wiki/Am486
Wikipedia ist da leider eine sehr schlecht Quelle. Da sind verdammt viele Fehler.
Intels 486DX2 ging bis 120MHz, hatte so ein Teil in einer früheren Firma.
AMD brachte auf jeden Fall noch den 133MHz breit in den Markt.

Gast
2007-06-06, 14:06:24
Ein "DX2" geht höchstens bis 66MHz, wenn schon dann ein "DX4".

Mr.Magic
2007-06-06, 14:21:21
Ein "DX2" geht höchstens bis 66MHz, wenn schon dann ein "DX4".

Da ich noch einen AMD DX-2 mit 80Mhz besitze kann das schonmal nicht stimmen. Ich hatte auch mal einen AMD DX-4 mit 133Mhz, und beide sind 80486er.

Coda
2007-06-06, 16:08:13
Ich denke er meinte die Orignale von Intel.

Spasstiger
2007-06-06, 16:34:54
Naja in 90nm haben wir jetzt 0,7 Mrd. Transistoren bei den GPUs, d.h. in 10nm gehen auf die gleiche Fläche >50 Mrd.
Bis 2017 werden wir imo allerdings noch nicht in 10 bzw. 11 nm fertigen.
Da sich die Zahl der Transistoren auf einem Chip ca. alle 18-24 Monate verdoppelt (im Mittel 21) und die aktuell aufwändigsten Chips für den Heimgebrauch rund 700 Mio. Transistoren aufweisen, können wir in 10 Jahren mit etwa 35-40 Mrd. Transistoren auf einem Chip für den Heimgebrauch rechnen. Allerdings wäre dazu auch schon eine Fertigung in 12-13 nm erforderlich. Vielleicht wächst die Transistorzahl auch doch nicht mehr so schnell (exponentiell bleibt das Wachstum natürlich, das besagt ja das Mooresche Gesetz).

Bei der Taktfrequenz würde ich nicht mehr mit allzugroßen Steigerungen rechnen, 2017 werden wir vielleicht nichtmal die 10 GHz sehen außer bei Spezialprozessoren.

Wie sehen eigentlich die nächsten Fertigungsgrößen nach 45 nm aus?
Imo kommen da:
- 32 nm
- 26 nm (da angekündigt)
- 23 nm (32 nm / Wurzel(2))
- 16 nm (32 nm / 2)
- 11 nm (45 nm / 4 bzw. 16 nm / Wurzel(2))
- evtl. 8 nm

Gast
2007-06-06, 17:38:59
65 > 45nm > 32 nm > 22 nm plant Intel nach dem was ich so gelesen habe.

Weitergehen könnte es vielleicht so: 90 nm > 65 nm > 45 nm > 32 nm > 22 nm > 16 nm > 11 nm > (8 nm > 5 nm).

Mal abwarten was da noch kommt!

Die Transistorenmenge ist nicht wirklich unser Problem:
2005: 1,7 Milliarden! http://www.heise.de/newsticker/meldung/60976

Spasstiger
2007-06-06, 17:45:31
Die Transistorenmenge ist nicht wirklich unser Problem:
2005: 1,7 Milliarden! http://www.heise.de/newsticker/meldung/60976
Die 1,7 Mrd. Transistoren sind aber fast nur Cache und der Chip ist auch riesig im Vergleich zu den Desktop-Chips.

NiCoSt
2007-06-06, 18:22:25
na denn, drückt mir mal die daumen dass ichs pack ;)

werd mich fürs praxissemester in der Maskenfabrik in Dresden bewerben...

Was mir auffiel:

10nm sind btw ca. 100 Atomlagen, nicht 10.
Der Strukturbehinderne Prozess ist derzeit tatsächlich die Lithografie. Immerhin basiert die Komplette HL-Industrie auf Massenproduktion. Anders wären eure CPUs nicht so verhältnismäßig günstig. Der Schwellwert, ab dem sich die Fertigung für ein Durchschnittliches HL-Unternehmen lohnt liegt bei ~10^5 Stück. Ionen/Elektronenstrahllitho ist noch lange nicht Serienreif, sodass wir abwarten müssen. Btw arbeitet man ja schon heute mit Maskentricks noch und nöcher (z.B. Phase-Shifting, beidem das Licht einen Phasensprung um 180° macht um nicht mit dem "benachbarten, nicht gedrehten Photon" ein großes Gebiet abzudecken, vereinfacht gesprochen).

Aber noch ist ja Potential da für 45 und 32nm. Man darf gespannt sein auf die Folgegrößen. Ich hatte vor kurzem im Struktur der Materie Praktikum den Versuch "Quantenleitfähigkeit", beidem ein Golddraht abgerissen wurde und versucht wurde, eine Stufenweise abklingende Leitfähigkeit zu beobachten, da die Elektronen beim Abreißen ideal gesehen nur eine stehende Welle ausbilden können. Irgendwann wird man auch daran denken müssen

laser114
2007-06-06, 18:29:44
http://en.wikipedia.org/wiki/Intel_80486

http://en.wikipedia.org/wiki/Am486

Der AMD 5x86 war auch ein 486er, trotz des Namens.

Spasstiger
2007-06-06, 19:14:17
10nm sind btw ca. 100 Atomlagen, nicht 10.
Ja hast recht, hab mich da verlesen.

Spasstiger
2007-06-06, 19:35:51
@Gast-Spam
Das Mooresche Gesetz besagt, dass die Komplexität von integrierten Schaltkreisen sich in festen Zeitabständen verdoppelt. -> exponentielles Wachstum
Ursprünglich legte Moore diesen Zeitabstand auf 1 Jahr fest, korrigierte ihn später aber auch 2 Jahre. Vielleicht werden irgendwann auch noch 3 Jahre festgelegt. Das ist dann aber immer noch exponentielles Wachstum.

Wenn du noch was zum Thema beizutragen hast, dann teile dich mit. Ansonsten hättest du dir dein Posting auch sparen können.

Coda
2007-06-06, 19:48:12
Das ist auch logisch, wenn man bedenkt dass bei jedem Die-Shrink immer ca. die 2-fache Transistormenge rauskommt vom vorherigen Verfahren rauskommt.

Aber es stimmt nicht ganz dass es exponentiell bleiben muss, wenn die Abstände immer größer werden. Ich denke am Ende haben wir eher logistisches Wachstum.

Gast
2007-06-06, 19:53:05
Das Mooresche Gesetz besagt, dass die Komplexität von integrierten Schaltkreisen sich in festen Zeitabständen verdoppelt. -> exponentielles Wachstum
Ursprünglich legte Moore diesen Zeitabstand auf 1 Jahr fest, korrigierte ihn später aber auch 2 Jahre. Vielleicht werden irgendwann auch noch 3 Jahre festgelegt. Das ist dann aber immer noch exponentielles Wachstum.

Wenn du noch was zum Thema beizutragen hast, dann teile dich mit. Ansonsten hättest du dir dein Posting auch sparen können.

Also zuerst schreibst du die Abstände sind "fest", aber danach schreibst du das die Länge der Zeitabstände geändert wurde. Ich finde das passt nicht zusammen.

Spasstiger
2007-06-06, 20:12:58
Also zuerst schreibst du die Abstände sind "fest", aber danach schreibst du das die Länge der Zeitabstände geändert wurde. Ich finde das passt nicht zusammen.
So ist es aber. Definitonen ändern sich bzw. sind nur unter bestimmten Rahmenbedingungen (hier z.B. innerhalb eines bestimmten Zeitraums) gültig.
Weiß doch jeder, der sich mal mit Physik beschäftigt hat. ;)

laser114
2007-06-06, 20:56:13
So ist es aber. Definitonen ändern sich bzw. sind nur unter bestimmten Rahmenbedingungen (hier z.B. innerhalb eines bestimmten Zeitraums) gültig.

Man kann die Definition doch auch ändern. Sollte mathematisch ja auch möglich sein, da eine weitere Komponente herein zu bringen...

Liszca
2007-06-06, 20:56:20
Keine Ahnung, aber wenn höhere Temperaturen zulässig sind, heißt das ja, das man die jetzigen Grenzen sehr viel weiter ausdehnen kann.
...

da irrst du aber ganz schön, was ist mit den spannungswandler? die vertragen nicht viel. Die Spannungswandler meiner GF4 wurden damals auf dauer zu warm, da ich den chip mit wasser gekühlt hatte, und so kein luftzug über die spannungswandler kam, also die grenze ist defakto nicht mehr weit. Oder schon mal erlebt wie heiss der dvi anschluss von einer grafikkarte wird bei der der chip 92°C hat (geforce GX2) da hat auf einmal mein board gemeckert dass es den spannungswandlern schon zu warm wird.

NiCoSt
2007-06-07, 11:02:32
Das Mooresche Gesetz besagt, dass die Komplexität von integrierten Schaltkreisen sich in festen Zeitabständen verdoppelt. -> exponentielles Wachstum
Ursprünglich legte Moore diesen Zeitabstand auf 1 Jahr fest, korrigierte ihn später aber auch 2 Jahre. Vielleicht werden irgendwann auch noch 3 Jahre festgelegt. Das ist dann aber immer noch exponentielles Wachstum.

Wenn du noch was zum Thema beizutragen hast, dann teile dich mit. Ansonsten hättest du dir dein Posting auch sparen können.


ich will mich jetzt nicht festlegen, aber ich würde mal behaupten, dass das mooresche gesetz weniger ein gesetz, sondern vielmehr ein Zusammenhang ist der Empirisch beobachtet wurde und erstaunlicherweise bis heute bestand hat. Jedoch ist das eher so zu verstehen wie:

So Pi*Daumen verdoppelt sich die Transistorzahl/Die alle 18 Monate

aber kein Ingenieur wird jemals beim chip-design sagen: "Oh, mein Chip hat zu wenig Transistoren, ich verletze das moorsche gesetz"

Zusammenfassend wollte ich sagen: Das Moorsche Gesetz ist nicht als Gesetz (wie SPasstieger es irgendwie suggeriert hat), sondern als Richtwert zu verstehen

Spasstiger
2007-06-07, 14:28:19
Zusammenfassend wollte ich sagen: Das Moorsche Gesetz ist nicht als Gesetz (wie SPasstieger es irgendwie suggeriert hat), sondern als Richtwert zu verstehen
Natürlich ist es kein Naturgesetz.
Im Kern sagt das Mooresche Gesetz einfach aus, dass zumindest bis jetzt sich die Komplexität von integrierten Schaltung exponentiell erhöht. Irgendwann wird das Wachstum vielleicht auch logistisch werden, das wissen wir heute nicht und sollte es soweit sein, gilt auch das Mooresche Gesetz nicht mehr (den das prophezeit ausschließlich exponentielles Wachstum).

P.S.: Das Mooresche Gesetz von 1965 gilt heute schon gar nicht mehr, da Moore nur eine Vorhersage bis 1975 gemacht hat. Deshalb wurde 1975 der Zeitraum, in dem sich die Komplexität verdoppelt, auch erhöht. Heute gelten 24 Monate als Verdopplungszeitraum.

/EDIT: Ich hab eben nochmal in meinem Skript zur Technischen Informatik nachgeschaut:
Moore selbst formulierte ursprünglich kein Gesetz von allgemeiner Bedeutung. Da seine Beobachtungen und Annahmen jedoch mit gewissen Einschränkungen heute noch gelten, wird generell das Prinzip der fortschreitenden Integrationsdichte und der damit verbundenen Leistungssteigerung in der Rechnertechnik als Moore's Law bezeichnet.

NiCoSt
2007-06-07, 20:51:34
Selfdel

Avalox
2007-06-09, 00:31:32
Das Mooresche Gesetz ist die Handlungsvorgabe von Intel. Intel ist der Weltmarktführer in der Mikroelektronik und damit die Messlatte. Wenn es ein Hersteller nicht schafft Moore's Law einzuhalten kann er einfach nicht mithalten, wird nicht mehr konkurrenzfähig sein.

Moore's Law ist aber auch der Indikator für die gesamte Wirtschaft. Im Informationszeitalter basiert alles auf dem Kalten Krieg Prinzip, nur auf die EDV bezogen. "meine EDV Lösung ist besser als Deine", dass ist der Schlüssel sein einiger Zeit. Mein SAP R/3 neuer, mein CAD leistungsfähiger, meine Datenbank grösser. Leistungsfähigere Software benötigt allerdings leistungsfähigere Hardware. Leistungsfähigere EDV Lösungen sind der Motor unserer Wirtschaft. Ein guter Teil des vergangenen Wirtschaftswachstum, war gekoppelt mit der immer besser werdenden EDV.

Das neu definieren von Moore's Law hätte mächtige Auswirkungen. Analysten würden dieses sofort in ein sinkende Wachstumsraten interpretieren. Ganz schlimm.

Roi Danton
2007-06-09, 01:13:26
10nm sind btw ca. 100 Atomlagen, nicht 10.Könntest Du das genauer erklären? Bei einer Si-Si-Bindung ist der Bindungsabstand doch um die 0,24nm (hab 2,4Angström im Kopf), was bei dichter Packung zw. maximal 40-50 Atomen pro 10nm bedeutet? Oder waren die 100 nur größenordnungsmäßig gemeint? Oder hab ich einen Denkfehler?

Gast
2007-06-09, 18:29:04
siehe nano imprinting:
http://www.scienceagogo.com/news/20040623041741data_trunc_sys.shtml
http://en.wikipedia.org/wiki/Nanoimprint_lithography

Ein Freund, der gerade an dieser Technologie arbeitet, erzählte mir das 5 nm in absehbarer Zeit durchaus möglich wären.
Diese Lithographie-Methode scheint ziehmlich vielversprechend zu sein.

tombman
2007-06-09, 19:12:25
Ich denke, es wird sowieso alles Richtung MULTI-chip /-core gehen.
Ist am einfachsten zu verkaufen mit geringstem Risiko. Wer mehr Leistung will bekommt mehr cores oder chips, fertig.

Problem wird es nur bei der software geben, die diese verteilte Leistung auch nutzen kann-> wer da die Nase vorn hat, wird reich :)

Gast
2007-06-09, 20:03:47
Ich denke, es wird sowieso alles Richtung MULTI-chip /-core gehen.


nur nützt dir gerade multicore nichts wenn du die strukturen nicht weiter verkleinern kannst.

Nakai
2007-06-09, 23:24:54
Wenn die physikalischen Grenzen erreicht sind, gibt es eh wieder spezialisierte Chips.

mfg Nakai

RavenTS
2007-06-10, 01:27:33
ich will mich jetzt nicht festlegen, aber ich würde mal behaupten, dass das mooresche gesetz weniger ein gesetz, sondern vielmehr ein Zusammenhang ist der Empirisch beobachtet wurde und erstaunlicherweise bis heute bestand hat. Jedoch ist das eher so zu verstehen wie:

So Pi*Daumen verdoppelt sich die Transistorzahl/Die alle 18 Monate

aber kein Ingenieur wird jemals beim chip-design sagen: "Oh, mein Chip hat zu wenig Transistoren, ich verletze das moorsche gesetz"

Zusammenfassend wollte ich sagen: Das Moorsche Gesetz ist nicht als Gesetz (wie SPasstieger es irgendwie suggeriert hat), sondern als Richtwert zu verstehen

Eine Heuristik mit dem Titel "Moore´s law", mehr nicht, aber für INTeL eben immernoch eine gewisse Prestige-Sache..!

Das Mooresche Gesetz ist die Handlungsvorgabe von Intel. Intel ist der Weltmarktführer in der Mikroelektronik und damit die Messlatte. Wenn es ein Hersteller nicht schafft Moore's Law einzuhalten kann er einfach nicht mithalten, wird nicht mehr konkurrenzfähig sein.

Moore's Law ist aber auch der Indikator für die gesamte Wirtschaft. Im Informationszeitalter basiert alles auf dem Kalten Krieg Prinzip, nur auf die EDV bezogen. "meine EDV Lösung ist besser als Deine", dass ist der Schlüssel sein einiger Zeit. Mein SAP R/3 neuer, mein CAD leistungsfähiger, meine Datenbank grösser. Leistungsfähigere Software benötigt allerdings leistungsfähigere Hardware. Leistungsfähigere EDV Lösungen sind der Motor unserer Wirtschaft. Ein guter Teil des vergangenen Wirtschaftswachstum, war gekoppelt mit der immer besser werdenden EDV.

Das neu definieren von Moore's Law hätte mächtige Auswirkungen. Analysten würden dieses sofort in ein sinkende Wachstumsraten interpretieren. Ganz schlimm.

Ich glaube du siehst die Sache zu technisch. Sicherlich werden die Hilfsmittel immer besser und ausgereifter, doch wirklich analysieren und entscheiden muss weiterhin der Mensch und dessen "Verbesserung" lässt nicht nur schwer messen. In Bereichen wie Controlling/Kostenrechnung führt der EDV-Fortschritt vor allem dazu, daß immer weniger die Arbeit von (früher) mehr machen...

RavenTS
2007-06-10, 01:30:45
*beitraglöschen?*

Gast
2007-06-10, 13:36:25
Wenn die physikalischen Grenzen erreicht sind, gibt es eh wieder spezialisierte Chips.

mfg Nakai
Trotzdem müssen die Strukturen kleiner werden, oder? Spezialisierte Chips bedeutet doch auch, dass ich recht viele von ihnen brauche. Ohne Shrinks explodiert die Leistungsaufnahme und der Preis. Für solche "Home Superrechner" wäre der Absatzmarkt sehr sehr klein. Selbst jetzt sieht es da ja schon beschissen aus, nicht umsonst richten die meisten Publisher vorrangig ihre Prioritäten auf den Konsolenmarkt aus.
Dann würde die Computerbranche in der gleichen Misere stecken wie die Autobranche. Da werden neue Errungenschaften auch mit höherem Gewicht, mehr Leistung, mehr Verbrauch, höherer Preis usw. begleitet, weil die Technikentwicklung weitesgehend ausgelutscht ist.

NiCoSt
2007-06-10, 14:51:00
Könntest Du das genauer erklären? Bei einer Si-Si-Bindung ist der Bindungsabstand doch um die 0,24nm (hab 2,4Angström im Kopf), was bei dichter Packung zw. maximal 40-50 Atomen pro 10nm bedeutet? Oder waren die 100 nur größenordnungsmäßig gemeint? Oder hab ich einen Denkfehler?


ja, nein ;)

das mit denn 100 war eher PI*Daumen gemeint. Man rechnet für nen groben überschlag 1 Atom~0,1nm. Si ist etwas dicker und daher wahrscheinlich <100 Atomlagen...


Ich war mal bei einem Vortrag, den eine Frau gehalten hat, die an der Forschungsgruppe für Nanoimprinting beteildigt war. Klang wirklihc vielversprechend, jedoch bedarf das auch noch viel Forschung. Die ganze Sache an sich bringt keine strukturellen Vorteile. Der Vorteil liegt darin, auf Licht als "selektive einheit", was eben zu groß ist, verzichten zu können. Jedoch muss man auch den Nanoimprintstempel herstellen, was man wohlmöglich mit speziellen Lithografieverfahren (Elektronen/Röntgen/Ionenlithografie, was heutezutage nocht für massenfertigung geeignet ist) realisieren könnte.

ManHammer
2007-06-10, 23:52:55
Die Schwierigkeit in der Lithografie und die schlechte Ausbäute bei immer kleineren Strukturen veranlasst die Entwickler langsam zum Umdenken. Es wird zur Zeit viel mehr auf mit Materialien, Anordnung und Architekturen experimentiert als früher.
Man geht davon aus das Moore irgendwann nicht mehr ein zu halten ist. Das heisst ja nicht, dass die Rechner nicht mehr schneller werden. Wir können nur die Packungsdichte nicht mehr erhöhen.

Gast
2007-06-11, 03:10:57
Bei ~10 nm liegt nach derzeitigem Kenntnisstand die physikalische Grenze, dann hätte man ein Schicht von nur noch einer Dicke von etwa 10 Atomen.

Also das mit den 10 Atomen kann nicht stimmen.

Laut Wikipedia hat ein Atom von der ganzen Atomhülle aus gesehen einen Durchmesser von 10^-10 m, also 0.00000000010000000000 m bzw. 0,1 nm.
1 nm ist nämlich 10^-9 m.

Demnach müßten es also 100 Atome sein und nicht 10.

Stone2001
2007-08-07, 09:26:37
Also das mit den 10 Atomen kann nicht stimmen.

Laut Wikipedia hat ein Atom von der ganzen Atomhülle aus gesehen einen Durchmesser von 10^-10 m, also 0.00000000010000000000 m bzw. 0,1 nm.
1 nm ist nämlich 10^-9 m.

Demnach müßten es also 100 Atome sein und nicht 10.
Der Atomdurchmesser ist aber nicht entschiedend wie viele Atome man auf 10nm unterbringen kann, sondern der Gitterabstand.

Der Gitterabstand von Silizium beträgt 5.43 A, also 0,543 nm, d.h. auf 10nm haben wir nur noch 19 Atome.
Damit haben wir unter dem Gate aber auch nur noch 361 Atome. Wenn wir mal annehmen, dass unsere Anzahl an Dotieratomen nur 2 Größenordnungen unterhalb von den Si-Atomen ist (was schon recht hoch dotiert ist), dann haben wir nur noch 4 Atome pro Lage unterhalb des Gates ... Die Frage ist dann, erfüllt ein solcher Transistor noch seine Funktion.
Und die Wahrscheinlichkeit, das es mal ein Transistor ohne Dotiermaterial gibt, wird immer größer....

EDIT: Kurze weitere Anmerkung: Bei 10nm Fertigungstechnologie, wird die effektive Gatelänge wohl im Bereich zwischen 3 und 5 nm sein. Das Verkompliziert obigen Sachverhalt noch weiter.

elChico
2007-08-17, 23:06:21
wieso bei 5nm??
das ist blödsinn du kannst keine sperrschicht mehr aufbauen mit den "paar" frei umherschwirrdenen elektronen