PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist dies die Technik mit der zukünftig maximale Strukturverkleinerungen möglich sind?


gisbern
2010-02-05, 14:16:52
Lest mal bitte diesen Artikel:

http://www.spiegel.de/spiegel/0,1518,675403,00.html

Es geht um neue Generationen von Mikroskopen, die die bisherigen Gesetze der Physik austricksen, und Lichtstrahlen mit wenigen Nanometern breite erzeugen können. Würde das nicht auch die Problematik aktueller Verkleinerungen im Siliziumbau umschiffen ?

Desti
2010-02-05, 16:09:19
Nein.

Gipsel
2010-02-05, 18:12:21
Lest mal bitte diesen Artikel:

http://www.spiegel.de/spiegel/0,1518,675403,00.html

Es geht um neue Generationen von Mikroskopen, die die bisherigen Gesetze der Physik austricksen, und Lichtstrahlen mit wenigen Nanometern breite erzeugen können. Würde das nicht auch die Problematik aktueller Verkleinerungen im Siliziumbau umschiffen ?
Destis Antwort trifft es schon ganz gut.
Bei dieser Mikroskopie-Technik werden ja gar keine "Lichtstrahlen mit wenigen Nanometern Breite" erzeugt. Im Prinzip wird da auch nur auf ~200nm fokussiert, allerdings gleich 2 Lichtpulse (mit unterschiedlicher räumlicher Modenstruktur, der erste macht die Anregung, der zweite stimulierte Emission, dann schaut man über Fluoreszenz, was angeregt übrig geblieben ist). Was da ausgenutzt wird, ist im Prinzip die starke Nichtlinearität eines Prozesses (Licht doppelt so intensiv -> Prozeß deutlich mehr als doppelt so wahrscheinlich).

Das Gleiche bekommt man prinzipiell auch mit nichtlinearen Photolacken bei der Belichtung hin. Vom ganz groben Grundkonzept ist es eine Spielart der Doppelbelichtung.

Monger
2010-02-05, 18:19:17
Das Problem der Strukturverkleinerung ist ja nicht, dass man keine so kleinen Schaltungen belichten könnte - sondern material- und prinzipbedingte Probleme die bei Halbleitermaterialien auftreten.

gisbern
2010-02-05, 22:23:54
vielen Dank für eure Beiträge. Ich bin relativ unbeleckt in solch komplexen physikalischen Dingen.

aths
2010-02-06, 14:41:38
Es stehen ja 32- und 28-nm-Prozesse an. Müsste da nicht fertigungstechisch bald Schluss sein? Ich weiß nicht mehr wo ich das gelesen haben will, aber bei 28 nm glaube ich mich daran erinnern zu können, dass derzeitige Fertigungstechnik am Ende wäre?

mapel110
2010-02-06, 14:43:57
Nein, es soll noch unter 10nm gehen. Hab ich zumindest gelesen.

fdk
2010-02-06, 15:21:32
Die (Immersions-)Lithographie mit Reinstwasser und 193nm ArF-Lasern als Lichtquelle ist wohl irgendwann vor 20nm am Ende, unter 30nm sind damit aber auf jeden Fall noch drin, ggf. durch Austausch von Wasser gegen ein Medium mit höherem Brechungsindex. Laut Intel Aussage sind sogar 7nm noch machbar ... mit vierfacher Belichtung, 15 nm mit dreifacher.*
Der nächste Schritt bei der Beleuchtung bringt wohl größere Änderungen an den Fertigungsanlagen mit sich. Da Licht mit Wellenlängen <= 185nm von Luft oder anderen Prozessgasen stark absorbiert wird muss das ganze dann im Hochvakuum ablaufen.
Bei der vielbeschworenen EUV-Lithografie hapert es (noch immer) an einer geeigneten Lichtquelle für die Anwendung im industriellen Maßstab sowie an den enorm hohen Anforderungen an die "Optik". Wenn überhaupt dann ist die Technik frühestens 2015 einsatzbereit.

Intel's first use of immersion 193 nm lithography comes at the 32 nm generation. Bohr said immersion will continue to serve Intel's needs at the 22 nm generation. Asked if EUV lithography will be ready for the 15 nm generation, Bohr said, "It is not looking like EUV will will be ready, at least initially, for 15 nm production." He added that the company is working on techniques to extend immersion 193 nm lithography to the 15 nm generation.
-> http://www.semiconductor.net/article/353759-Intel_Ramping_32_nm_Manufacturing_in_Oregon.php

Monger
2010-02-06, 15:41:49
Es stehen ja 32- und 28-nm-Prozesse an. Müsste da nicht fertigungstechisch bald Schluss sein? Ich weiß nicht mehr wo ich das gelesen haben will, aber bei 28 nm glaube ich mich daran erinnern zu können, dass derzeitige Fertigungstechnik am Ende wäre?
Ich glaub, es geht schon noch weiter runter. Hatte auch 10nm im Kopf. Bisher arbeitet man ja bei der Belichtung noch nahezu im sichtbaren Licht - erst so langsam bewegt man sich in den UV Bereich. Da wäre schon noch Luft.

Leckströme und Hotspots sind wohl eher das Problem. Die Leiterbahnen sind ja mittlerweile nur noch einige hundert Atome breit - da braucht es nur geringste Unregelmäßigkeiten, um die Schaltung zu zerstören. Das lässt sich auch mit besseren Fertigungsverfahren nur bedingt verbessern, irgendwo da stößt Silizium als Halbleiter an natürliche Grenzen.

Also: wird man so kleine Chips bauen können? Ja, schon. Ob die dann allerdings zuverlässig funktionieren, steht auf einem ganz anderen Blatt.

Zool
2010-02-07, 08:56:45
Ich glaub, es geht schon noch weiter runter. Hatte auch 10nm im Kopf. Bisher arbeitet man ja bei der Belichtung noch nahezu im sichtbaren Licht - erst so langsam bewegt man sich in den UV Bereich. Da wäre schon noch Luft.


Das Problem ist nicht die Wellenlänge, sondern die Brechkraft der Medien. Für kurzwelliges Licht ist alles "Luft". Schon bei den typischen 193nm-UV Quellen gibt es nur noch teurere CaF2-Linsen, die für diese Wellenlänge noch eine Brechkraft haben.

Bei noch kürzeren Wellenlängen geht der Brechungsindex gegen 1 und man kann kein Licht mehr fokussieren und somit eine Maske abbilden und belichten.

Der Ausweg für kurzwelliges Licht wären Fresnel-Zonenplatten, aber die kann momentan niemand in entsprechender Qualität fertigen, um Strukturen <100nm abzubilden. Da ist die Immersionstechnik doch etwas weiter.

Elektronenstrahl- oder Ionenstrahlithographie kann Strukturen von <5nm belichten oder sogar ganze Transistoren direkt ätzen (FIB mit GIS). Aber da die Strukturen seriell belichtet werden, ist das ganze sehr langsam und nicht für eine Massenfertigung geeignet. Das nötige Ultrahochvakuum macht eine entsprechende Fertigung auch nicht billiger.

Daneben spielt natürlich das Quantenconfinement ab <10nm Strukturbreite eine Rolle und Effekte wie Bandkantenveränderung und Tunneln tritt auf.

(del)
2010-02-08, 02:26:11
Wir können experimentell seit 2001 15nm belichten. Ich denke das ist dann später auch für komplexe Chips auf 300mm Waffern möglich. Es geht ja bereits.

Das Problem der Strukturverkleinerung ist ja nicht, dass man keine so kleinen Schaltungen belichten könnte - sondern material- und prinzipbedingte Probleme die bei Halbleitermaterialien auftreten.Ging ja die Tage durch die Presse. Graphen und 100 Ghz Transistoren.
Später die Datenübermittlung mit Laserlicht (Germanium) und in den Schubladen liegen eh noch paar andere Sachen rum. Wie z.B. Intels Tri-Gate.

Die Effizienz steigern wir so oder so weiter mit Mehrfach-SMT. Längst an der Tagesordnung. Dazu kommt noch die GPU (oder GPU in der CPU. Egal.) welche die wirklich dicken Rechenaufgaben schön fachidiotisch übernehmen kann.

Also ich weiß nicht, ob man sich da Gedanken machen müßte. Im krassen Gegensatz zu früher schwimmen wir jetzt schon so in Leistung, daß uns langsam sinnvolle Anwendungen ausgehen ;)

Um die Rechenkraft der Einheiten mach ich mir überhaupt keine Sorgen. Was wirklich bremst und was viel mehr Aufmerksamkeit benötigt sind die SSDs und vor allem der Hauptspeicher. Der Hauptspeicher natürlich wesentlich mehr. Eine 300/300 (MB/s) SSD die ihre Leistung nur noch mehr sehr gelegentlichen TRIMmen beibehält ist nicht das größte Problem dann =)

Coda
2010-02-08, 03:36:33
100 Ghz Transistoren.
100Ghz Transistorschaltfrequenz ist nur leider etwas anderes als der Chiptakt. Weniger als 1/10 davon ist realistisch.

(del)
2010-02-08, 04:02:05
Das ist erstmal klar. Gab es aber früher nicht auch solche Transistoraufbauten die 1 Ghz schafften und man sprach davon, komplette CPUs könnten damit real um die 500Mhz hinbekommen? =) Ich weiß es nicht...
Dann sind es halt 10 Ghz. DARPA finanziert ja IBM&Co das Forschungsprojekt für 1 Thz Transistor. 1/10 davon sind 100 Ghz. Bei guter Gesundheit dürften wie beide das noch erleben.

30% mehr Effizienz pro Takt als Gulftown, 12 logische CPUs, 95W TDP, SSE6, AVX2, Crypto-IN, 6x 128 KB L1, 6x 1 MB L2, 32 MB L3, 50 Ghz Chiptakt. Was solls :cool: Braucht hier jemand einen Holodeck? ;)

Selbst mit meinem 2x 3.9 Ghz Wolfdale renne ich nicht mehr jedem Mhz hinterher. Momentan geht der Trend zahlenmäßig sowieso langsam zur leichten Abkehr von dem ganzen Heimrechner-Schickimicki. Die Leute werden immer satter was Leistung angeht. Es gibt nur noch sehr wenige Gebiete wo man noch bisschen mehr gebrauchen könnte. Das meisten davon sind auch noch klare Nischen und dazu sollte man auch die Power und Möglichkeiten der GPUs unter DX11 (OS build in APIs) nicht vergeßen.

Nacht ;)

roidal
2010-02-08, 09:14:50
Das ist erstmal klar. Gab es aber früher nicht auch solche Transistoraufbauten die 1 Ghz schafften und man sprach davon, komplette CPUs könnten damit real um die 500Mhz hinbekommen? =) Ich weiß es nicht...
Dann sind es halt 10 Ghz. DARPA finanziert ja IBM&Co das Forschungsprojekt für 1 Thz Transistor. 1/10 davon sind 100 Ghz. Bei guter Gesundheit dürften wie beide das noch erleben.



Dieser 1THz Transistor soll aber in einem ganz anderen Bereich eingesetzt werden, für Sender/Empfänger von Funkwellen, soweit ich weiß.

(del)
2010-02-09, 14:59:49
Da gibt es wie bei jeder spezialisierten Entwicklung dieser Art mit Sicherheit genug Seiteneffekte die man nicht nur für den vorbestimmten ZWeck nutzen kann.

Coda
2010-02-09, 17:05:28
BH das ist für Analog-Schaltkreise gedacht. Die Transistoren werden wohl auch zu groß sein für normale Chips.

Z.B. waren bis vor einiger Zeit auch noch alle Mobiltelefon-Empfänger aus Germanium, weil nur damit die nötigen Frequenzen zu schaffen sind.

(del)
2010-02-09, 20:06:43
Leute für ein Technologie-Unterforum seid ihr einfach zu pessimistisch ;)

(aber Recht hast du)

Gast
2010-02-09, 20:15:25
Leute für ein Technologie-Unterforum seid ihr einfach zu pessimistisch ;)

(aber Recht hast du)

Naja der Glaube an das stündlich nahende Taktwunder ist halt ziemlich out ;)

(del)
2010-02-09, 21:55:39
Spätestens seit i-Core ;)

neustadt
2010-02-10, 23:01:40
[kann man beiträge löschen?]

neustadt
2010-02-10, 23:08:35
DARPA finanziert ja IBM&Co das Forschungsprojekt für 1 Thz Transistor. 1/10 davon sind 100 Ghz. Bei guter Gesundheit dürften wie beide das noch erleben.


100GHz in synchronen Prozessoren wird es meiner Meinung nie geben. Mit 10GHz sind wir größenordnungstechnisch am Ende der Fahnenstange angekommen. Das Problem: c ist zu lahm!
Bei 10GHz kommt der Strom - bei idealer Lichtgeschwindigkeit - gerade mal 3 cm voran. Innerhalb von Silizium noch entspechend weniger als im Vakkum. (weiß jemand wie schnell?)

Evt. werden Caches deutlich langsamer takten als die Rechnerkerne an sich, da sie am meisten Platz einnehmen. Oder sie werden verhältnismäßig klein Ausfallen. Aber solange es keine wirklichen asynchronen Prozesoren geben wird, wird das nix mit >>10GHz.

Die nächsten 5-10 Jahre wird es wohl noch einigermaßen gewohnt weitergehen. Danach wird es sehr spannend.
Meine erste eigene CPU war ein K6-2 450. Laut wikipedia am 26. Februar 1999 released. Das ist dann ziemlich genau 11 Jahre her. Ich kann also schonmal anfangen rückwerts zu zählen :)

Coda
2010-02-11, 00:09:02
Bei 10GHz kommt der Strom - bei idealer Lichtgeschwindigkeit - gerade mal 3 cm voran. Innerhalb von Silizium noch entspechend weniger als im Vakkum. (weiß jemand wie schnell?)
Das reicht doch. Das Signal muss ja nicht über den kompletten Chip, sondern nur zur nächsten Pipeline-Stage.

Viel eher ist die Temperaturentwicklung ein Problem.

fdk
2010-02-11, 02:54:40
Wie schnell sich das Signal ausbreitet hängt vom isolierenden Medium ab. (Es ist nicht ausschlaggebend wie schnell die Elektronen sich im Leiter bewegen können, sondern wie schnell sich das EM-Feld mit der Spannungsändderung die das Signal ausmacht ausbreiten kann.) In PCBs aus FR-4 mit k=4.34 kommt man damit näherungsweise auf c*0.48 also halbe Lichtgeschwindigkeit. Das blöde ist nur das k in PCBs mit ihren verwurschtelten Schaltungen und damit Leiterabständen (Man stelle sich ein low-profile PCB einer graka mit 256bit SI vor) variert was man beim PCB-Design berücksichtigen muss damit man keine Probleme mit Signallaufzeiten bekommt.
Innerhalb des Prozessors sind dann afaik eh die Schaltzeiten der Transistoren ausschlaggebend.
Das ganze Problem (Leistungsgewinne durch Fortschritte in der Prozesstechnik werden durch lahme Infrastruktur ausgebremst) nennt man dann je nach Gusto Memory Wall oder von Neumann/Interconnect-bottleneck.

Gast
2010-02-11, 09:03:32
In PCBs aus FR-4 mit k=4.34 kommt man damit näherungsweise auf c*0.48 also halbe Lichtgeschwindigkeit.
Thx


Innerhalb des Prozessors sind dann afaik eh die Schaltzeiten der Transistoren ausschlaggebend.

Darum geht es ja gerade, dass die die Schaltzeiten der Transistoren "zu schnell" werden.


Das ganze Problem (Leistungsgewinne durch Fortschritte in der Prozesstechnik werden durch lahme Infrastruktur ausgebremst) nennt man dann je nach Gusto Memory Wall oder von Neumann/Interconnect-bottleneck.
Grad etwas rumgelesen. So wie ich das verstanden habe geht es um zwei Dinge (die anscheinend miteinander zusammenhängen?)

1. Je dichter Transistoren auf einem Schaltkreis zusammengepackt werden, desto größer werden die Parasitärkapazitäten, welche zu Signallaufzeit Verzögerungen führen. Laut Wikipedia soll gegen 2010 herum die Schaltungsdichte ihr maximum erreicht haben.
Wurde dieses Problem nicht mit High-K Gates angesprochen? Wikipedia scheint hier wohl nicht mehr auf dem aktuellen Stand zu sein.

2. Prozessorkerne, welche aus Transistoren bestehen, schalten inzwischen schneller als DRAM Zellen, welche aus Kondensatoren bestehen. => RAM ist der flaschenhals. Mit Caches wird versucht das Problem in den Griff zu bekommen.
So richtig?



Das reicht doch. Das Signal muss ja nicht über den kompletten Chip, sondern nur zur nächsten Pipeline-Stage.


Hm, da hast du natürlich recht. Aber gibt es da nicht längere Wege innerhalb der CPU? Ich erinnere mich dunkel daran, dass Intel mal ihren Schaltungsaufbau komplett nach minimalen Laufzeiten umkrempeln wollte. Glaube während der P4 Ära, als man von noch 10GHz träumte. Ich habe da Bilder von Wafern im Kopf auf denen man dadurch nichtmehr die einzelnen Logikeinheiten der CPU erkennen konnte.

andererGast
2010-02-11, 21:30:34
Darum geht es ja gerade, dass die die Schaltzeiten der Transistoren "zu schnell" werden.
hmmm nein, einzelne Transistoren kann man mit 100GHz takten.


1. Je dichter Transistoren auf einem Schaltkreis zusammengepackt werden, desto größer werden die Parasitärkapazitäten, welche zu Signallaufzeit Verzögerungen führen. Laut Wikipedia soll gegen 2010 herum die Schaltungsdichte ihr maximum erreicht haben.
Wurde dieses Problem nicht mit High-K Gates angesprochen? Wikipedia scheint hier wohl nicht mehr auf dem aktuellen Stand zu sein.

2. Prozessorkerne, welche aus Transistoren bestehen, schalten inzwischen schneller als DRAM Zellen, welche aus Kondensatoren bestehen. => RAM ist der flaschenhals. Mit Caches wird versucht das Problem in den Griff zu bekommen.
So richtig?

zu 1) Jein, es gehört physikalisch gesehen noch wesentlich mehr dazu. Fakt ist, dass Gatterlaufzeit > Leitungslaufzeit ist. Das heißt aber nicht dass man die Leitungslaufzeit vernachlässigen kann. Wichtige Leitungen werden vergrößert und ggf. geschirmt -> Produkt RC verkleinert sich (vereinfacht gesagt).
zu 2) Zwischen Prozessorkern und RAM(hier Hauptspeicher gemeint, die Riegel die man austauschen kann) liegt einiges dazwischen. Im Prozessor wird überwiegend SDRAM verwendet (6T design http://de.wikipedia.org/wiki/Static_random_access_memory ), dass erstens auch angepasst wird und zweitens recht viel Transistoren braucht (genau so viel wie ein NAND3 Gatter[CMOS]). IBM hat mit dem POWER7 Prozessor DRAM im Prozessor verwendet, scheint also auch zufriedenstellend zu funktionieren.
Den Cache im Prozessor braucht man um die Rechenwerke _schnell_ mit Daten zu versorgen. Folglich wird es keine Zeitgemäßen Prozessoren ohne Cache geben.


Aber gibt es da nicht längere Wege innerhalb der CPU? Ich erinnere mich dunkel daran, dass Intel mal ihren Schaltungsaufbau komplett nach minimalen Laufzeiten umkrempeln wollte. Glaube während der P4 Ära, als man von noch 10GHz träumte. Ich habe da Bilder von Wafern im Kopf auf denen man dadurch nichtmehr die einzelnen Logikeinheiten der CPU erkennen konnte.
Wichtig ist der Begriff des Pipelining. Du hast in einem Prozessor verschiedene Rechenwerke, die einen unterschiedlichen Komplexitätsgrad haben. Grob gesagt braucht man für komplexere Arithmetik mehr Logik und somit mehr Zeit. Was vielleicht für einfache Operationen in einem Takt geht, so braucht man für komplexe Operationen mehrere Takte. Natürlich ist eine höhere Taktung im ersten Moment sinnvoll. Aber die Rechenwerke müssen das auch mitmachen bzw. dafür ausgelegt sein. Als Faustregel gilt, je höher der Takt, desto mehr Piplinestufen hat auch die Arithmetik. Man muss halt die goldene Mitte finden.

mapel110
2010-02-16, 17:23:05
http://en.wikipedia.org/wiki/32nm
Hab gerade zufällig den Wiki-Artikel gefunden.


32 nm (Double Patterning) — 2010
22 nm (End of Planar Bulk CMOS) — 2011
16 nm (Transition to Nanoelectronics) — 2013?
11 nm (Nanoelectronics) — 2015?
7,9 nm (Hypothesized end to scaling in silicon)

Coda
2010-02-16, 17:29:34
Hm, da hast du natürlich recht. Aber gibt es da nicht längere Wege innerhalb der CPU? Ich erinnere mich dunkel daran, dass Intel mal ihren Schaltungsaufbau komplett nach minimalen Laufzeiten umkrempeln wollte. Glaube während der P4 Ära, als man von noch 10GHz träumte. Ich habe da Bilder von Wafern im Kopf auf denen man dadurch nichtmehr die einzelnen Logikeinheiten der CPU erkennen konnte.
Die einzelnen Cores werden ja auch immer kleiner. In 10nm werden wir wahrscheinlich >32 pro Chip haben.

Gast
2010-02-16, 17:33:32
Die einzelnen Cores werden ja auch immer kleiner. In 10nm werden wir wahrscheinlich >32 pro Chip haben.

Wenn dann die Cores noch so ohne Weiteres abzählbar sind.

Gast
2010-02-20, 05:01:12
Als Faustregel gilt, je höher der Takt, desto mehr Piplinestufen hat auch die Arithmetik.Geht so. Ein 3 Ghz Penryn kommt mit weniger Stufen aus als gleichschnell getakteter P4 damals.

Als Faustregel gilt also eher daß man die Goldene Mitte finden sollte. Die Anzahl ist keine Faustregel =)

Coda
2010-02-20, 05:17:28
Geht so. Ein 3 Ghz Penryn kommt mit weniger Stufen aus als gleichschnell getakteter P4 damals.
Das ist kein Vergleich, der P4-Prozess ist viel älter.

Gast
2010-02-20, 05:40:38
Die Faustregel bleibt trotzdem bisschen schwammig. Bei Wolfdales reichen die Pipelines bei Standardtakt bis zu ungefähr 3.7 Ghz.

Was gemacht wird und was unbedingt gemacht werden müßte sind oft zwei unterschiedliche Paar Schuhe.

Gast
2010-02-20, 05:41:22
Bei Wolfdales reichen die Pipelines bei StandardtaktBei Standardspannung.