PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was passiert, wenn man nicht mehr weiter shrinken kann, wenn die 5nm erreicht sind?


Hamillll
2014-05-04, 17:14:08
Hallo,

ich stelle mir aktuell die Frage, welchen Weg die Entwicklung nehmen wird, sobald die Breite 5nm erreicht hat. 5nm gilt ja als Schwelle des physikalisch Möglichen, weniger wird atm nicht gehen.
Wird man dann stapeln? Und wie bekommt man den Stromverbrauch in den Griff, wenn man nicht mehr shrinken kann?

Hamillll
2014-05-04, 18:28:09
Wäre cool, wenn mir das ein Experte hier erläutern könnte :smile:

Tesseract
2014-05-04, 18:47:17
ich bin in dem bereich kein wirklicher experte, aber stapeln ist auf mittlere sicht sicher eine interessante lösung weil erstens mehrere kleine dies leichter fehlerfrei zu fertigen sind als ein großer monolithischer, zweitens bekommt man so viel mehr transistoren auf gleichem raum unter und kann damit indirekt die effizienz steigern indem man mehr transistoren niedriger taktet. intel macht sich das z.B. teilweise heute schon zu nutze und baut xeons mit bis zu 12 cores mit relativ niedrigem takt weil man so auf viel mehr performance/watt kommt als mit den hochgetakteten deaktop-modellen. der spaß ist heute natürlich extrem teuer aber es würde mich nicht wundern wenn zukünftige generationen schon vor ~5nm in diese richtung gehen.

Shink
2014-05-04, 19:00:55
ich bin in dem bereich kein wirklicher experte, aber stapeln ist auf mittlere sicht sicher eine interessante lösung weil erstens mehrere kleine dies leichter fehlerfrei zu fertigen sind als ein großer monolithischer, zweitens bekommt man so viel mehr transistoren auf gleichem raum unter und kann damit indirekt die effizienz steigern indem man mehr transistoren niedriger taktet.
Irgendwann hab ich dann nen Transistorwürfel in der Größe 10x10cm in meinem Desktop - mehr geht dann nicht mehr. Und Server wachsen wieder nur mehr in die Größe.:freak:
Ehrlich gesagt frag ich mich das schon seit 10 Jahren, was da passieren wird.
Damals war die Antwort noch: Es gibt immer eine Lösung für Moore's Law.:freak:

Hades11
2014-05-04, 20:00:05
ich verfolge schon seit einiger zeit die (leider) recht kleinen Fortschritte bei den Supraleitern. Wenn es denn in vermutlich eher ferner Zukunft möglich sein wird diese Materialien für die Fertigung zu nutzen sollte man damit doch auch die Wärmeerzeugung verringern können. Gerade in verbindung mit Stapeln könnte das interessant werden. Da beim Stapeln das verhältniss der Oberfläche zur Gesamtdiefläche geringer wird (soll heißen die kontaktfläche der dies mit der umgebung welche potentiell auch wärme an einen Kühlkörper übertragen kann ist bei einem Würfel geriger als bei einer flachen Scheibe) könnte man bei gestapelten CPU bzw GPU recht schnell an ein Größenlimit stoßen und dann kommen die Supraleiter. In der Praxis wird es vielleicht nicht möglich sein die wärmeentstehung völlig zu verhindern aber man sollte sie dennoch deutlich verringern und somit auch das durch die Kühlung auferlegte Größenlimit noch mehr oder weniger deutlich anheben können. Das sollte auch die Effizienz wieder steigen, da weniger Energie in nutzlose Wärme umgewandelt wird.

Ich hab zwar nur sehr wenig Ahnung davon, wie eine heutige CPU genau funktioniert aber so ungefähr stell ich mir das vor.

und jetzt bin ich gespannt wo da die fehler liegen :freak:

Psychopat
2014-05-04, 20:21:13
Wenn man Silizium nicht mehr weiter shrinken kann, wird man auf andere Materialien umsteigen. Hier gäbe es erst einmal die ganzen anderen Halbleitermaterialien, mit denen man bessere Transistoren als mit Silizium bauen kann. Dann gibt es noch die ganz anderen Materialien wie Graphen und Carbon-nanotubes. Und zu guter letzt gibt es noch generell andere Ansätze Logikschaltungen zu machen wie Spintronik.

Ich habe aber keine Ahnung, was sich davon dann tatsächlich kommen wird.

boxleitnerb
2014-05-04, 20:21:46
Stapeln hat nur einen Nachteil bzw. man muss eines bedenken:
Die Chips muss man auch bezahlen. Man kann nicht einfach so lange stapeln wie man will, die einzelnen Chips muss man ja weiterhin herstellen, prozessieren - auch wenn die Yields vergleichsweise hoch bleiben, weil man kleinere Dies nimmt, summiert sich das natürlich weiter auf.

Iruwen
2014-05-04, 20:23:17
Wenn die Fertigungsgrenze soweit in greifbare Nähe rückt, dass die Forschung in andere Richtungen günstiger wird als die Weiterentwicklung alter Technologien wird sich da jawohl mehr tun. Vermutlich hätten wir auch längst brauchbare, günstige Elektroautos wenn die Ölreserven aufgebraucht wären. Kosten-/Nutzenfrage.

Shink
2014-05-04, 20:32:36
Wenn man Silizium nicht mehr weiter shrinken kann, wird man auf andere Materialien umsteigen.
Wenn die Fertigungsgrenze soweit in greifbare Nähe rückt, dass die Forschung in andere Richtungen günstiger wird als die Weiterentwicklung alter Technologien wird sich da jawohl mehr tun. Vermutlich hätten wir auch längst brauchbare, günstige Elektroautos wenn die Ölreserven aufgebraucht wären.
Gut, dann haben wir halt bald Wasserstoff-Halbleiter (:freak:). Das ändert nichts an der Tatsache, dass man irgendwann nicht mehr weiter shrinken kann.

occ-kh@Mirko
2014-05-04, 20:34:16
Die Fertigungsindustrie stand schon oft vor der Frage, was und wie machen wir jetzt. Das mooresche Gesetzt trägt derzeit noch Gültigkeit und Intel hält auch daran fest. Trotzdem wird man immer irgendwie in der Zwickmühle sein, selbst wenn man kleinere Elemente zum Schalten als den Transistor liefern kann. Man muss das Ganze ja elektrisch verbinden und für solche Verbindungsstrukturen braucht man Platz. Wenn der Platz dafür dann irgendwann größer wird als der Schalter muss man sich definitiv Gedanken machen. Dann würde auch eine Verkleinerung des Schaltkreises nicht viel bringen da die Schaltzeiten dann durch die Verdrahtung begrenzt sind. Man könnte theoretisch auch noch auf andere Materialien wie Silber etc. umsteigen um ein paar Prozente rauszuquetschen, aber ob das auf Dauer sinnvoll ist wer weiss dass schon genau.

Aber man wird sich was einfallen lassen müssen. Siehe die Lithografie, da hatte man lange Zeit geglaubt am Ende angelangt zu sein und trotzdem wieder Lösungen gefunden. Begrenzt wird das Ganze dann irgendwann wohl durch den Nutzen und dazugehörigen Aufwand.

Warten wir mal ab. :)

Bei 11nm Strukturbreite könnte die Gategröße des Transistors nur noch 5nm betragen, dann werden wir sehen.

drkohler
2014-05-04, 22:41:50
Wäre cool, wenn mir das ein Experte hier erläutern könnte :smile:Die wirst du hier nicht finden. Respektive, wenn jemand wirklich _die_ Idee hat, wird er sie nicht preisgeben. Grundsätzlich gilt aber, je kleiner die Strukturen, desto mehr treten Quanteneffekte in Erscheinung (Elektronen dringen durch Potentialwälle, wer sich noch an QM erinnern kann). Das heisst für Normalmensch, die Leckströme werden immer grösser (in Richtung gigantisch). Das heisst wiederum, man muss immer mehr zusätzliche Schaltungen einbauen, damit der Chip überhaupt noch funktioniert. Man bezahlt letzten Endes immer mehr Fläche/Geld für immer mehr "unnütze" Strukturen. zB Kosten für 1mio Gates (Quelle IGS 2013):
28nm: $0.014
20nm: $0.0142
14/16nm: $0.0162
das heisst der Preis steigt schon jetzt an.
Und die Wafer müssen natürlich immer reiner werden, dh auch da steigen die Preise steil an. Man kann schon endlos Zone-Refining machen mit dem Roh-Silizium, aber irgend wann ist da auch Schluss vom Preis her. Mit Immersionslithographie ist man wahrscheinlich auch bald am Ende, da müssen andere Verfahren herangezogen werden, und die werden garantiert wesentlich teurer werden.
Ich würde man behaupten, für "Zeug für den Mann von der Strase" (PCs, Konsolen, etc) ist wahrscheinlich bei 14/16nm Schluss. Die Zukunft wird wohl in 3D Verfahren sein (wenn man mal das Kühlproblem löst. IBM forscht da seit Jahren an Microröhren, durch die Wasser gepresst werden kann durch die Stacks). Was jetzt als "stacked" angeprisen wird ist ja lediglich low power Zeug, dass man noch konventionell kühlen kann.
Graphen/Diamant/Nanoröhren sind wohl noch Spielwiesen zur Zeit.

OBrian
2014-05-04, 23:31:00
Respektive, wenn jemand wirklich _die_ Idee hat, wird er sie nicht preisgeben.ach, Ideen gibt es genug, die man in diversen Patenten nachlesen kann. Das Problem ist immer die Umsetzbarkeit. Daß Chips in 10 nm besser sind, wußte man schon, als man die Chips in 10 µm hergestellt hat. Konnte man nur damals noch nicht. Hätte es zu Leonardo da Vincis Zeiten schon Kohlefaserverbundwerkstoffe gegeben, hätte er so einige seiner Ideen umsetzen können.

Was also den großen Ideen zur Umsetzung fehlt, sind zigtausende kleine und kleinste Ideen, für die keiner einen Nobelpreis bekommt, für viele kriegen die Leute nicht mal eine Gehaltserhöhung.

Deswegen ist sicher nicht irgendwo Schluß und die menschliche Entwicklung bleibt da stehen für alle Zeiten. Möglicherweise geht es erstmal langsamer, bis es wieder mal einen Durchbruch gibt, der mehr Performance wieder günstiger macht.

Man muß auch sehen, daß die Entwicklung von CPUs und GPUs seit langem Jahren immer etwas schneller als die Fertigungsentwicklung war, deswegen ist ja der Verbrauch auch immer weiter hochgegangen. Da mußte also zwangsläufig auch irgendwann eine aufholende Gegenbewegung einsetzen, die ja jetzt auch gerade stattfindet (CPUs werden kaum schneller, aber TDP geht runter). Und das geht deswegen, weil die CPU-Kerne noch längst nicht ausgenutzt werden, bzw. Aufgaben in GPUs oder anderen ASICs effektiver berechnet werden können. Es gibt also auch immer ungeahnte Möglichkeiten, wie man mehr Daten verarbeiten kann, selbst wenn wir eine Weile bei der Fertigungsgröße festhängen.

Hamillll
2014-05-04, 23:35:22
sinkender Grenzertrag kommt wohl auch noch hinzu. Für kleine Verbesserungen in der Software nimmt die Komplexität/Kosten exponentiell zu. Soweit ich das mitbekommen habe, sind die Spielehersteller wohl ganz froh, dass es zur Zeit eher stagniert... wenn man sich die Entwicklungskosten anguckt, dann sind die in den letzten 10 Jahren ja geradezu explodiert...

Ridcully
2014-05-05, 00:10:33
Ich würde vermuten das die Dies deutlich größer werden. Im Grunde ist die SI-Halbleiter Technik soweit das einige Verkleinerungen der Strukturen einfach durch größere dies erstezt werden können.

Shink
2014-05-05, 09:05:15
Deswegen ist sicher nicht irgendwo Schluß und die menschliche Entwicklung bleibt da stehen für alle Zeiten.
Ja klar. Irgendwann ersetzen wir dann Neutronen, Protonen und Elektronen durch was anderes, weil die zu groß sind für die Strukturbreite.

Felixxz2
2014-05-05, 12:48:51
Ja klar. Irgendwann ersetzen wir dann Neutronen, Protonen und Elektronen durch was anderes, weil die zu groß sind für die Strukturbreite.

Du hast da erfasst.

gnahr
2014-05-05, 13:28:46
Hier gäbe es erst einmal die ganzen anderen Halbleitermaterialien, mit denen man bessere Transistoren als mit Silizium bauen kann.
so lang es nicht großindustriell kostendeckend zu fertigen ist, kannst du den heiligen gral mit nanotubes oder sonst was im labor bauen, es kommt nicht an! ich gucke mir daher immer gerne erst alle möglichen und bald greifbaren materialquellen an um kommende möglichkeiten zu bewerten.
klar intensivieren sich auch alle anstrengungen eine quelle für was bestimmtes zu finden, wenn der stoff im labor wunder verspricht, aber du kannst im ingenieurswesen nicht mit dem kopf durch die wand, wenn mutter physik was dagegen hat. :cool:

Tobalt
2014-05-10, 10:07:50
Binäre Datenverarbeitung ist ja immer an das Vorhandensein oder Nichtvorhandensein eines Zustandes gebunden. Also eine Ladung, Spin, Photon .. Wenn die möglichen Packungsdichten für diese Informationsträger (in etwa die Dichte von Atomen im Festkörper) nicht mehr ausreichen um die Integrationsdichte zu erhöhen, muss man weg von dieser einfachen Art der Datenverarbeitung.

Quantencomputer bieten einen völlig neuen Ansatz und nicht binäre Datenverarbeitung, aber viele Algorythmen kennt man wohl noch nicht, also ist es schwer, abzuschätzen ob solche Computer die Performance heutiger Binärtechnik in den nächsten 30 Jahren schon übertrumpfen können wird.

Intensivste Forschung betrieben wird auch beim Verstehen der neuronalen Datenverarbeitung (ebenfalls nicht-binär). Aufgrund des hohen Aufwandes der hier betrieben wird, sowohl auf Algorythmusebene, als auch auf Hardwareebene (Erforschung von Konstrukten die neuronale Datenverarbeitung nachahmen), vermute ich, dass die binäre Technologie irgendwann im 21. Jh. von solcherart Verarbeitung abgelöst wird. Die Datenspeicherung wird aber wohl noch länger auf Binärbasis erfolgen können, als die Verarbeitung.


Die Binärtechnik wird sich aber noch ein paar Jahrzehnte hinziehen, durch a) marginale Strukturverkleinerungen, b) deutliche Effizienzsteigerungen und evtl. c) Umschwenken auf andere Materialien bzw. andere Informationsträger als das Elektron.

BlacKi
2014-05-10, 23:27:57
wenn ich mir kepler vs maxwell ansehe brauchen wir garnicht so schnell die 5nm fertigung. wenns keinen durchbruch auf materialebene gibt, kann man doch designmäßig noch einiges tun, und softwaremäßig sind wohl auch noch scheunentore zu öffnen.

Leonidas
2014-05-11, 06:15:00
Solche Designsprünge macht man aber nicht in Reihe. Das macht man 1x, vielleicht 2x ... und danach ist man so nahe am Optimum dran, dann gibt es nur noch kleine und kleinste Verbesserungen.

Bei der Grafik hat man wenigstens den Vorteil, das sich die Anforderungen mit der Zeit verschieben und man daher spätere Grafikchips immer irgendwie auf diese speziellen Anforderungen optimieren kann (Beispiel: TMUs runter, SE rauf). Aber ganz viel holt man damit niemals raus.

Botcruscher
2014-05-11, 11:47:06
Schaltungsoptimierung geht immer und massiv mehr Kerne wäre auch nicht schlecht. 3D Chips wären auch mal ein Anfang.

Brillus
2014-05-11, 14:44:39
Schaltungsoptimierung geht immer und massiv mehr Kerne wäre auch nicht schlecht. 3D Chips wären auch mal ein Anfang.
1. Irgendwann hat man das optimum erreicht.
2. Auch bei 3D Chips braucht ein Transitor nunmal eine bestimmte Menge an Energie, bei der aktuell verwendeten Logig. (Im extremfall halt die Landau-Grenze von der wir garnichtmal mehr soweit weg sind zeitlich gesehen). Leitungen könnte man sich so etwas an Länge/Widerstand sparen.


Spätestesn 2030 werden wir reversible logic haben in den Chips und wegen Quantencomputer die können zwar viele Probleme schneller berechnen aber viele auch nicht. Wenn man och bedenkt die Probleme die laufen zu lassen kann man sicher davon ausgehen, dass die nie zum Heim-PC werden. Zumindest nicht zu unseren Lebzeiten.

Flusher
2014-05-12, 12:31:15
Letzlich sind die Strukturverkleinerungen doch nur Mittel zum Zweck um mehr Transistoren pro Fläche reinzupressen und somit die Leistungsfähigkeit zu erhöhen. Sobald Strukturverkleinerungen nicht mehr möglich sein werden bzw. wirtschaftlich nicht mehr sinnvoll sind, wird man sich eben anderen Technologien widmen - der Transistor ist sicherlich nicht der Weissheit letzter Schluss.

Grabhopser
2016-06-11, 22:40:55
Aber haben potentielle "andere Technologien" nicht auch ihre Grenzen des physikalisch Möglichen? Und welche "anderen Technologien" meinen wir eigentlich?


Alles hat Grenzen :wink:

Aber möglich Alternativen mit mehr oder weniger großem Potential gibt es schon noch einige.
Wenn du beim klassischen Transistor bleiben willst, zb. bessere Multigate Geschichten, auch GaAs oder andere III/V oder II/VI Halbleiter als Kanal sind nicht auszuschließen.
Je weiter man in die Zukunft schau, desto unschärfer wid das Bild natürlich. 2D-Materialien sind gerade die neuen CNTs :biggrin: und selbst die sind noch nicht aus dem Rennen. Tunnel-FETs oder SETs werden auch häufig genannt.

Wie hier schon angedeutet wurde, ist die Frage eher ob man das ganze noch wirtschaftlich fertigen kann und nicht ob es prinzipiell geht.

Rabiata
2016-06-11, 22:59:26
Thread nach zwei Jahren wiederbelebt? :biggrin:

Aber in dem Fall finde ich es OK, weil das Thema als solches nicht veraltet ist. Ich werfe gleich noch einen Link in Englisch (http://www.sciencemag.org/news/2012/05/return-vacuum-tube) hinterher:
Nasa-Ingenieure arbeiten an integrierten Nano-Elektronenröhren. Bisher noch etwas größer als Transistoren in einem aktuellen Fertigungsprozeß, aber extrem schnell.
Vielleicht bekommen wir irgendwann doch noch 10 GHz-Chips, aber mit Röhrchen :wink:

Foobar2001
2016-06-12, 01:15:32
Was passiert sehen wir doch jetzt schon, wir hatten vier (!) Jahre lang 28nm GPUs. Das ganze wird einfach wesentlich langsamer werden. 16FF wird wohl auch 4+ Jahre reichen müssen.

Früher hatten wir in 6 Jahren 10x Leistung zwischen den Konsolen-Generationen (drei Nodes). Das wird's nicht mehr geben.

Hübie
2016-06-12, 02:31:09
Ich bin kein Experte, aber kann aufgrund meiner Vergangenheit etwas dazu sagen (da ich müde bin und kaum Zeit habe die Kurzfassung): Andere Materialien (Kohlenstoffe, seltene Erden die effektiver gefördert werden??), andere Schaltungen (bzw. Ansätze) und die Tatsache das der Transistor irgendwann ausgedient hat werden dafür sorgen, dass wir bestimmt nicht stehen bleiben werden. Das "Wann" hängt vom "Wieviel" ab.

DavChrFen
2016-06-12, 02:39:46
Ich glaube, dass ich irgendwo was gelesen habe, dass man Lichtwellenleider (also den Emitter und den Detektor) direkt auf dem DIE realisieren kann und mit relativ wenig Aufwand die heutigen Fertigungstechnologien daran anpassen kann. Ich glaube, es war von IBM.

Und dann gibt es noch den Ansatz von Elekronen zu Photonen zu wechseln. Also sie nicht nur zur Signalübertragung, sondern auch zum Rechnen zu benutzen.

Was auch recht interessant ist: Programmierbare neuronale Netze in Hardware. Das kann bei bestimmten Fällen einen deutlichen Schub, was Rechenleistung/Fläche betrifft, bringen. Und dafür braucht man keine neue Fertigungsmethoden. Ich halte dies für eine passable Interimslösung.

Hakim
2016-06-12, 05:14:39
Zen? Gerüchten zufolge soll es skylake angreifen können, aber zurzeit kann keiner mehr zu sagen

Foobar2001
2016-06-12, 06:12:48
Was soll daran heisse Luft sein? Es zumindest sicher eine neue Architektur. Du wolltest doch wissen was neues kommt?

Rabiata
2016-06-12, 12:05:27
Ich meinte heiße Luft im Sinne von "haut niemanden vom Hocker"... ;)

Bei mir im Bekanntenkreis sind selbst die AMD Hardcore Nerds zu Intel abgewandert. AMD muss sich echt anstrengen, wenn sie wieder ein paar Leute zurückholen wollen.
Leicht OT, aber die Ankündigungen zu Zen klingen schon vielversprechend.
Ich warte zumindest den Launch und erste Tests noch ab, bis ich mich entscheide. Bis dahin muß mein Phenom II X4 955 durchhalten :smile:.

Geächteter
2016-06-12, 13:02:26
Ich meinte heiße Luft im Sinne von "haut niemanden vom Hocker"... ;)

Bei mir im Bekanntenkreis sind selbst die AMD Hardcore Nerds zu Intel abgewandert. AMD muss sich echt anstrengen, wenn sie wieder ein paar Leute zurückholen wollen.
Es schickt schon, wenn die ganz große Gap zwischen heutigen AMDs stromfressenden Luftpumpen und die Effizienzwunder von Intel zu dreiviertel geschlossen wird. Denn dann sind die APUs wieder sehr interessant, Intel hat bis heute bei APUs mit ihrer GPU den schlechteren Wirkungsgrad pro Transistor und ganz wichtig, die Treiber sind Obermurks und haben einen Haufen versteckter Inkompabilitäten bei vielen Anwendungen bis heute und Intel ist bis heute nicht willens oder in der Lage Abhilfe zu schaffen. Normalerweise dürfte es ja sowas nicht geben, die Specs von DirectX und OpenGL sind bekannt, man hat das Gefühl, dass man es manchmal mit einem Emulator zu tun hat. Entweder pfuscht Intel motzmäßig rum oder viele Anwendungen verletzen selber die Specs und AMD und Nvidia haben lange in ihrer jahrzehntelangen Treiberentwicklung darauf reagiert. :confused:

mboeller
2016-06-12, 18:02:52
es gibt noch viel Luft nach oben...

reversible logic Computing zum Beispiel
edit: link: http://www.zettaflops.org/fec05/Michael-Frank.pdf

oder das hier:
http://nextbigfuture.com/2016/05/bilayer-graphene-quantum-tunneling.html

und jede Menge weitere Ideen. Leider dauert die Umsetzung jeder dieser Technologien einige Zeit. Kurzfristig, also innerhalb der nächsten 10 Jahre wird es vielleicht schwierig wesentlich mehr Leistung bei gleichem Verbrauch zu erreichen. Bei AMD sind sie aber zumindest beim Leerlauf-Verbrauch optimistischer und versprechen bis 2020 einen Faktor 25 gegenüber Kaveri:

http://www.tomshardware.com/news/amd-carrizo-apu-6th-gen-processor,29230.html

basix
2016-06-12, 21:35:37
Wie schon öfters gesagt ist 5nm wie "wir es kennen" lange nicht das Ende. Einfach weil man sich physikalisch noch in ganz anderen Dimensionen bewegt:
http://images.anandtech.com/doci/8367/14nmFeatureSize.png

Die Nanometerangaben sind mehr oder weniger Werbung und beschreiben eher die Packdichte als die effektiven Strukturgrössen. Früher war es noch korrekt und die Strukturbreite entsprach dem Gate-Pitch (glaube um paar hundert Nanomenter herum stimmte es noch). Als Vergleich: Ein Silizium-Atom hat einen Durchmesser von etwa 1 Angström (1/10nm). Also Platz wäre da schon noch ;)

Ich denke aber man wir in Richtung stapelbarer Designs gehen. Aber auch Designs mit Interposer sind denkbar, das wäre dann mehr oder weniger "2D-Stacking". Grundsätzlich ein ähnliches Vorgehen wie man das bei der Transition von Single zu Multi Core gesehen hat, als die Single Core Leistung nicht mehr schnell genug anwuchs. Unter Umständen werden so super hochtakt Designs mit Carbon Nanotubes ebenfalls mal industriell nutzbar, dann brauch man auch nicht so viel Die Fläche.

gedi
2016-06-13, 01:57:13
Ich weiß jetzt nicht, ob der SweetSpot tatsächlich bei 5nM liegt, aber trotzdem eine interessante Frage. Stapeln, Highpackage usw. wohl kaum noch zu kühlen.

Vielleicht gibt es irgendwann mal die Möglichkeit, Einheiten in veränderbaren Flüssigmetallen zu registern.

Hübie
2016-06-13, 03:56:00
Es gibt einige Forschungsprojekte für mini-Kapilaren für Flüssigkeitstransport durch Silizium-Stapel. Total interessant. :smile: Kühlbar wirds noch sein, wenn man sich eben an die rules hält. Physik kann man jedoch nicht aushebeln (jedenfalls wissen wir nicht wie).

Tobalt
2016-06-13, 08:14:33
wirklich neue Konzepte wie photonik, Spintronik usw. werden schon noch paar jahrzehnte brauchen um zu sinnvollen Kontrahenten zu reifen.

bis dahin wird es bei digitalen elektronischen computern bleiben und ds werden zwei dinge wesentlich verbessert:

Algorithmen in hard- und software. insbesondere solche die neuronales processing emulieren sind für eine reihe von problemen sehr stark.

materialien mit höherer elektronenmobilität, größerer bandlücke usw. Si ist dicher nicht das beste aber eben das billigste. graphen wird intensiv entwickelt. im bereich der power elektronik wird GaN bereits breit eingesetzt.

gravitino
2016-07-09, 11:19:03
Wäre cool, wenn mir das ein Experte hier erläutern könnte :smile:

Quantum Computing

http://www.quantenbit.physik.uni-mainz.de/popular-science/

oder Many-Core-Layouts. Wahrscheinlich erstmal Letzteres.

mironicus
2016-07-09, 11:46:22
Hallo,

ich stelle mir aktuell die Frage, welchen Weg die Entwicklung nehmen wird, sobald die Breite 5nm erreicht hat. 5nm gilt ja als Schwelle des physikalisch Möglichen, weniger wird atm nicht gehen.

Kommt der Augenblick in dem es wirklich nicht mehr weiter geht, schließen wir die Fabriken, gehen in den Wald und fangen an Holzfiguren zu schnitzen. :freak:

Thunder99
2016-07-09, 12:00:44
Es werden wohl zwei Sachen erst mal gemacht: Fertigung angepasst (EUV Lithographie und andere Lösungen) und dann andere Materialien eingesetzt.

Die Forschung bleibt bzw steht ja nicht still. Schauen wir uns dann mal 2020 hat wie da der Stand ist ;)

Setsul
2016-07-09, 20:19:06
Aus Silizium, vor allem in Verbindung mit exotischeren Sachen kann man noch einiges rausholen.

Aber ja, irgendwann ist das Ende der Fahnenstange erreicht. Deshalb schauen sich schon alle nach Alternativen um. Möglichkeiten gibt es wie Sand am mehr, nur bis jetzt nichts was in allen Aspekten besser ist. Lustigerweise ist das um das sich momentan alle Sorgen machen, Größe und Effizienz, kein Problem. An der Geschwindigkeit hapert es.
http://www.eetimes.com/document.asp?doc_id=1328835

Also alles was man breit bauen kann (z.B. GPUs) seh ich keinerlei Probleme. Wenn man CPUs irgendwo im GHz Bereich will, dann wirds schwierig.

Aber wie gesagt, es gibt genug Alternativen. Kohlenstoff ist einigermaßen vielversprechend. Graphen funktioniert recht gut (sprich: schnell) und man kann einen Großteil der bisherigen Technik weiterverwenden (IBM hat da entsprechende chips gebaut, die auch funktionieren), aber leider nur analog. Nanoröhrchen könnten / sollten funktionieren.
https://www.technologyreview.com/s/541921/ibm-reports-breakthrough-on-carbon-nanotube-transistors/

Alles sieht danach aus, dass man so ab 2020, vielleicht etwas später, funktionierende, massenproduktionsfähige Alternativen hat. Bis dahin kann man sich mit Silizium noch durchschummeln.

No.3
2016-07-09, 21:36:14
Was passiert, wenn man nicht mehr weiter shrinken kann, wenn die 5nm erreicht sind...

... dann wird (hoffentlich) endlich wieder effiziente Software programmiert...

Rooter
2016-07-10, 11:49:39
Also alles was man breit bauen kann (z.B. GPUs) seh ich keinerlei Probleme.Naja, wie groß sollen die Dies denn werden? 3000mm²!? X-D

... dann wird (hoffentlich) endlich wieder effiziente Software programmiert...So schlecht sind die heutigen Kompiler doch gar nicht.

MfG
Rooter

Setsul
2016-07-10, 12:51:51
Lustigerweise ist das um das sich momentan alle Sorgen machen, Größe und Effizienz, kein Problem. An der Geschwindigkeit hapert es.


Wer lesen kann ist klar im Vorteil.
100 MHz sind für eine GPU kein Problem wenn man auf 600mm² und 250W ein paar Hundertausend Shader unterbringen kann.

Breit im Sinne der Architektur, nicht physisch.

Bringt einem natürlich reichlich wenig für CPUs. 1000 Kerne auf 500 MHz sind ziemlich nutzlos, wenn der größte Teil des Programms nicht mehr als 10 nutzen kann, abschnittsweise auch nur 1.

Tobalt
2016-07-10, 14:30:50
Wer lesen kann ist klar im Vorteil.
100 MHz sind für eine GPU kein Problem wenn man auf 600mm² und 250W ein paar Hundertausend Shader unterbringen kann.

Breit im Sinne der Architektur, nicht physisch.

Bringt einem natürlich reichlich wenig für CPUs. 1000 Kerne auf 500 MHz sind ziemlich nutzlos, wenn der größte Teil des Programms nicht mehr als 10 nutzen kann, abschnittsweise auch nur 1.

ich finde dass der mythos mit der unparallelisierbarkeit diverser probleme übertrieben wird. mal am beispiel einer einfachen numerischen extremwertfindung, ein typisches sequentielles weil iteratives problem. es gibt da sehr schnelle sequentielle algorithmen. wenn die hardware aber breit genug ist, kommt man irgendwann in regionen wo andere mit der breite skalierende algos die sequentiellen einholen. man kann dann zb einfach 100000 zufällige werte rechnen um den extremwert zu finden.

parallele algorithmen können also durch educated guessing die länge von sequentiellen problemen evtl deutlich reduzieren und sind dadurch auf weniger Takt angewiesen.

also ich finde auch dass durch Parallelisierung noch deutlich Luft nach oben ist.

mboeller
2016-07-10, 20:48:40
Wer lesen kann ist klar im Vorteil.
100 MHz sind für eine GPU kein Problem wenn man auf 600mm² und 250W ein paar Hundertausend Shader unterbringen kann.

Breit im Sinne der Architektur, nicht physisch.

Bringt einem natürlich reichlich wenig für CPUs. 1000 Kerne auf 500 MHz sind ziemlich nutzlos, wenn der größte Teil des Programms nicht mehr als 10 nutzen kann, abschnittsweise auch nur 1.

lies dir mal den Thread zur SWARM-Architektur durch bzw. die PDFs
Die haben angeblich das Problem gelöst indem sie eine Art "Reverse Multithreading" machen. Naja, irgendeinen Pferdefuß wird die Sache schon haben

No.3
2016-07-10, 21:11:40
So schlecht sind die heutigen Kompiler doch gar nicht.

naaaja, wenn selbst ein Winz-Tool das fast keine Funktionalität hat, aber 5 MB gross ist...

Rooter
2016-07-10, 21:35:57
naaaja, wenn selbst ein Winz-Tool das fast keine Funktionalität hat, aber 5 MB gross ist...Wenn du glaubst zwei Dutzend Bibliotheken gegenlinken zu müssen... :D

MfG
Rooter

Setsul
2016-07-10, 22:13:50
@tobalt
@mboeller

Ich kenne entsprechende Konzepte, aber die haben alle die selben zwei Nachteile:
1. Müsste man dazu die Programme entsprechend schreiben. Alles was nicht automatisch ist also Arbeit macht wird vermieden wie die Pest. Man könnte schon heute fast alles auf 4 Threads oder mehr verteilen. Macht aber keiner. Wenn man die Hardware selbst zahlt ist es meistens immernoch billiger dort einen entsprechenden Aufpreis zu zahlen. CPUs kosten garantiert genauso viel wie geplant. Softwareprojekte kosten garantiert mehr als geplant und dauern auch immer länger als geplant.
2. Kompatibilität. Intel kann davon ein Liedchen singen. Oder wenn man sich anschaut wie viel IBM damit verdient Mainframes zu verkaufen auf denen System/360 Code noch läuft.
Aber des geht auch umgekehrt. Die alten Programme laufen nicht auf solcher "exotischer" neuer Hardware und neuartige Programme laufen nicht auf alter Hardware. Momentan sind Threads noch so teuer, dass "Microthreads" einfach nicht funktionieren.

Klar man könnte es alles, aber alle werden es so lange wie nur irgendwie möglich vermeiden.

Kurzfristig am interessantesten finde ich VISC. Andy Glew hat vor über 10 Jahren etwas ähnliches skizziert, also nehme ich mal an, dass es machbar ist. Wobei ich nicht weiß wieviel in Software und wieviel in Hardware ist, ist aber eigentlich auch egal wie, solange man die Programme nicht umschreiben muss und es funktioniert.