Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Chips der Zukunft


2phil4u
2013-03-20, 16:48:47
Leider habe ich noch kein Thread zu dem Thema gefunden, obwohl es das Spannendste überhaupt ist.
Wie werden die Chips von übermorgen aussehen, mittel und langfristig.
Die EUV ist noch nicht ganz einsatzbereit, wird aber wohl herkömmliche Siliziumchips bis 5 nm ermöglichen.
Ausserdem ist Graphen ein heisser Kandidat für 100 mal schnellere Chips, bis zu 1 Terrabyte sollen damit möglich sein, allerdings steckt das ganze noch in den Kinderschuhen.
Auch interssant wird die Verschmelzung von CPU und GPU.
Ich frage mich,ob es nicht möglich ist ein Mainboard zu konstruieren, in welchem die APU ähnliche wie eine Grafikkarte arbeitet mit ähnlicher Kühlung.
Auf diesem Mainboardsind nur noch die wenigstens Komponenten auf dem Mainboard selbst, Ram, CPU und GPU werden auf einer Platine ähnlich wie auf einer Grafikkarte stecken, welche dann auch 300 Watt verbrauchen kann durch die besseren Kühlmölichkeiten.
Wahrscheinlich könnte man es als fest verlötetes System rausbringen.
CPU und GPU würden sich entweder GDDR6 teilen oder sie hätten embedded Ram, der ab einer gewissen Fertigungsgröße gross genug sein wird.
Es gibt natürlich auch mittelfristig spannende Themen.
Welche Vorteile wird die 14 nm Technologie bringen.
Und wer wird der Antrieb sein. Wird es am Schluss ähnlich sein wie beim Coreduo, dass irgendwann durch die enormen Umsätze bei Handys eben diese extrem stromsparenden Chips in einer Manycoreumgebung (100-1000 Kerne) laufen werden ?

Und wird es mit bsp Graphen oder ähnlichen Materialien irgendwann 3d Chips geben mit hunderten von Layern, eine Art Würfel, der eventuell sogar in einer extrem kalten Flüssigkeit schwimmt um nicht zu überhitzten, zumindest bei Supercomputern durchaus vorstellbar, ein Würfel der 1 Kilowatt Strom verbraucht, 1 Milionen Kerne hat und mit flüssigem Stickstoff gekühlt wird.

xxMuahdibxx
2013-03-20, 20:27:30
Träum weiter ....

Im Endeffekt muss das Mainboard selber auch immer weiterentwickelt werden denn man kann ja nicht heute schon wissen wieviele Leiterbahnen das System 2020 haben wird .

fdk
2013-03-20, 21:46:25
"Graphene can do everything except getting out of the lab."

Leonidas
2013-03-23, 10:04:30
Vor einigen Jahren hätte man an dieser Stelle sicherlich geträumt, was alles machbar sein könnte. Ich denke aber, daß die Zukunft der Chips vor allen von Wirtschaftlichkeit geprägt sein wird, da größere Performance-Sprünge auf den meisten Consumer-Geräten einfach kaum noch notwendig sind bzw. deutlich längere Zeiträume als früher benötigen. Der Umsatz der gesamten Branche, auch inkl. Tablets geht zurück, womit die Kosteneffizienz das Maß der Dinge wird - nicht mehr das technogisch fortschrittlichste.

2phil4u
2013-03-23, 11:25:14
Diese Probleme sehe ich auch, vorallem die EUV-Litographie wird ja immer weiter nach hinten verschoben.
Allerdings gibt es doch schon einige Bekannmachungen, die die Performance nach oben ziehen werden.
Nvidia will ja stacked DRAM bei der übernächsten Grafikgeneration einsetzen, ist doch das gleiche wie Hyper Memory Cube, wenn ich das richtig gelesen habe.
Wenn der also in CPU integriert wird und wirklich so riesig ist, wie der Nvidia Sprecher das meinte, werden wir bald 32 GB superschnellen Speicher direkt auf der CPU haben.
Bin mal gespannt, was die 14nm Produktion bringen wird.
Leider wird es halt zunehmend nicht mehr so viel preiswerter pro Transistor werden bei Dieshrinks wie früher, da man inzwischen Doublepattering einsetzt.
Da wie gesagt die Umsätze der Computer und Laptops auch durch die Tatsache, dass die Leistungssteigerung der letzten Jahre nicht mehr so gross waren, zurückgehen aber Smartphones nach wie vor boomen, kann ich mir halt vorstellen, dass irgendwann die Smartphone CPUs so stark sein werden, dass halt mehrere davon bzw mit mehr KErnen in PCs eingesetzt werden.

Skysnake
2013-03-23, 12:09:04
...
Nvidia will ja stacked DRAM bei der übernächsten Grafikgeneration einsetzen, ist doch das gleiche wie Hyper Memory Cube, wenn ich das richtig gelesen habe.
...
Nein, das ist nicht das Gleiche...

Botcruscher
2013-03-23, 17:16:47
Chips der Zukunft werden langweilig. Es geht ja heute schon immer langsamer voran. Auf der einen Seite geht es Richtung Mobilmarkt und auf der anderen stagniert der Leistungsverbrauch. Ein Crysis 5 wird nicht den Sprung machen wie ein Unreal.
Hoffen wir das wenigstens die HMD und echtes 3D mal kommen.

PS: Bei den CPU müsste man eh erst mal Intel aufspalten. Der Markt ist einfach tot.

Kladderadatsch
2013-03-23, 22:59:51
ist die rasche entwicklung der letzten jahr(zehnt)e wirklich so sehr auf die ansprüche des consumer-markts zurückzuführen? und nur weil dort der leistungshunger derzeit abnimmt, heißt das ja nicht, dass die performance für andere (professionelle) anwendungen ansatzweise ausreicht- und im consumer-markt noch länger stagniert..
(ist es nicht eher so, dass die entwicklung (bzw. forschung) vom consumer-verhalten relativ unbeeindruckt bleibt, und letzteres lediglich die produkt-entwicklung antreibt?)

Neon3D
2013-03-24, 00:09:15
mir gefallen die "gehirn-cpu" die es irgendwann einmal geben soll sehr, die sind sehr vielversprechend. es ist wohl nur eine frage der zeit bis man solche systeme realisieren wird.


zwar keine cpu, aber zumindest ein einblick:
"Google X simuliert Gehirn mit 16.000 Prozessorkernen
Forscher von Google und der Stanford-Universität haben ein neuronales Netz mit 16.000 Prozessoren gebaut und damit ein System zum Maschinenlernen getestet. Es lernte selbstständig, Menschen- und Katzengesichter zu erkennen.
Wissenschaftler vom Google X Labor und der Stanford-Universität haben ein simuliertes Gehirn aus 1.000 Computern gebaut. Damit simulierten sie Vorgänge im menschlichen Gehirn. "

"Duncan Graham-Rowe:

Ein internationales Team aus europäischen Wissenschaftlern hat einen Siliziumchip entwickelt, der ähnlich wie der menschliche Denkapparat arbeiten soll. Mit 200.000 künstlichen Nervenzellen, die über 50 Millionen Synapsen miteinander verbunden sind, soll der Prozessor die Lernfähigkeit des Gehirns genauer abbilden als jede Maschine zuvor.

Obwohl der Chip nur einen Bruchteil der Neuronen und Nervenverbindungen besitzt, über die der Mensch in seinem Kopf verfügt, lasse sich das Design doch hochskalieren, erläutert Karlheinz Meier, Physiker an der Universität Heidelberg, der das so genannte FACETS-Projekt ("Fast Analog Computing with Emergent Transient States") koordiniert. Die Hoffnung der Forscher liegt darin, die Struktur des Gehirns möglichst genau nachzubilden, um zu ermitteln, wie sich massiv parallel arbeitende, leistungsstarke neue Rechner bauen lassen."

auch ibm hat ein interssantes projekt bei der die cpu das menschliche gehirn mit synapsen und neuronen imitieren soll.

Leonidas
2013-03-24, 03:32:23
ist die rasche entwicklung der letzten jahr(zehnt)e wirklich so sehr auf die ansprüche des consumer-markts zurückzuführen?


Das ist richtig. Die frühere rasche Entwicklung war einfach auf Wettbewerb und der Möglichkeit zur Entwicklung zurückzuführen. Heutzutage fehlt der Wettbewerb und die Möglichkeiten zur Entwicklung nehmen ab bzw. sind teurer geworden.

Skysnake
2013-03-24, 07:49:59
ist die rasche entwicklung der letzten jahr(zehnt)e wirklich so sehr auf die ansprüche des consumer-markts zurückzuführen? und nur weil dort der leistungshunger derzeit abnimmt, heißt das ja nicht, dass die performance für andere (professionelle) anwendungen ansatzweise ausreicht- und im consumer-markt noch länger stagniert..
(ist es nicht eher so, dass die entwicklung (bzw. forschung) vom consumer-verhalten relativ unbeeindruckt bleibt, und letzteres lediglich die produkt-entwicklung antreibt?)
Ja ist Sie. Der Consumermarkt hat einfach für die nötigen Stückzahlen gesorgt, und unterm Strich einfach durch die gewaltigen Volumina ein abartiges Kapital zu den Firmen getragen.

Das Problem ist die Fixkostenremanenz. Nen Chip zu designen ist so ziemlich das Teuerste an der ganzen Geschichte, hängt aber 0 davon ab, wieviele Chips man am Ende verkauft. Sprich je mehr du verkaufst, desto weniger Kostenanteil stecken in einem Chip drin, und damit wird er billiger.

Was wir aktuell aber haben, ist ein rückläufiger Markt. Da schlägt die Fixkostenremanenz voll durch. Du hast die Produktionsanlagen, die du zahlen musst, und die Entwicklung wird auch nicht billiger. Also steigt der Fixkostenanteil pro Chip.

Nehmen wir mal nur den HPC-Bereich. Du hast da einige 10k bis 1000k Chips, die du im Jahr absetzen kannst. Mehr ist einfach nicht drin. Eine Millionen Chips sind aber einfach nur ein Klacks wenn man sich den Consumermarkt anschaut.


"Duncan Graham-Rowe:

Ein internationales Team aus europäischen Wissenschaftlern hat einen Siliziumchip entwickelt, der ähnlich wie der menschliche Denkapparat arbeiten soll. Mit 200.000 künstlichen Nervenzellen, die über 50 Millionen Synapsen miteinander verbunden sind, soll der Prozessor die Lernfähigkeit des Gehirns genauer abbilden als jede Maschine zuvor.

Obwohl der Chip nur einen Bruchteil der Neuronen und Nervenverbindungen besitzt, über die der Mensch in seinem Kopf verfügt, lasse sich das Design doch hochskalieren, erläutert Karlheinz Meier, Physiker an der Universität Heidelberg, der das so genannte FACETS-Projekt ("Fast Analog Computing with Emergent Transient States") koordiniert. Die Hoffnung der Forscher liegt darin, die Struktur des Gehirns möglichst genau nachzubilden, um zu ermitteln, wie sich massiv parallel arbeitende, leistungsstarke neue Rechner bauen lassen."

auch ibm hat ein interssantes projekt bei der die cpu das menschliche gehirn mit synapsen und neuronen imitieren soll.
HA! Ich wusste schon nach dem ersten Satz, dass das die Leuts aus Heidelberg um den Meier sein müssen. :biggrin: Echt nen TOP Prof :up: Btw. der macht auch Erwachsenenbildung. Lohnt sich echt mal auf Youtube (http://www.youtube.com/user/uniheidelbergphysik?feature=results_main) danach zu suchen :D

PS: Ich finds noch immer cool, dass wir in der Physik unsere eigenen Chips produzieren können, auch wenns nen total veralteter Prozess ist. Wer kann schon seine eigenen Chips bauen? :cool:

kevsti
2013-03-24, 11:47:39
Ein weiteres Problem ist auch einfach die Konkurrenz auf den Halbleitermarkt.
Gerade bezüglich des Desktop-CPU Bereich ist Intel weit vor AMD und kann sich momentan ausruhen - geringe Leistungsschübe von Modell zu Modell sind völlig ausreichend um die Modell an den Mann zu bringen, man kann ohne Probleme einige Fortschrittsreserven als Ass in den Ärmel stecken und ggf. die Karte spielen, falls unerwartete Fortschritte anderer Firmen (wie z.B. AMD) geleistet werden.

Ich denke schon das Intel wesentlich leistungsfähigere CPUs herstellen könnte und auch eine menge Forschungsprojekte am laufen hat, die aber momentan einer niedrigere Priorität haben.

Wäre mal schön wenn AMD auf dem Desktop Markt wieder durchstarten könnte, aber das wollen sie selbst ja nicht wirklich.

Da Intel aber wiederum sehr viele Patente hält, ist es auch nicht so einfach für neue Startups an den Markt zu kommen. Selbst wenn sie das nötige Know How und finanzielle Grundlagen hätte.

Natürlich gehts hier im Thread nicht nur Primär um Desktop CPUs - aber ich denke dass diese dennoch der Technologiemotor ist nach dem sich alle anderen Bereich orientieren.

Lokadamus
2013-03-24, 13:00:40
Ich denke schon das Intel wesentlich leistungsfähigere CPUs herstellen könnte und auch eine menge Forschungsprojekte am laufen hat, die aber momentan einer niedrigere Priorität haben.http://en.wikipedia.org/wiki/Intel_Tick-Tock
Intel hat doch schon einiges in Planung.
Das Problem ist nur, der Wettbewerb fehlt. In den Büros laufen wohl überwiegend Dual- und Quadcores, wodurch in den meisten Bereichen keine Neuanschaffung der Hardware notwendig ist bzw. nicht mehr die schnellsten Geräte genommen werden.
Im Consumermarkt geht die Nachfrage ebenfalls zurück. Ein IPad oder ähnliches reicht den meisten Leuten. Emails lesen und schreiben, Skypen, Video gucken, fertig.
Im High- End- Bereich dürfte momentan auch eine gewisse Sättigung vorhanden sein.
MS als Zugmotor hat in diesem Sinne versagt. Während damals Win9x und XP besser lief, wenn mehr RAM und eine größere HDD drinne ist, läuft Win7 schon auf einem Standard- PC ordentlich.
Intel wird eher die neuen Modelle raushauen und die Preise weiter anheben und die älteren Modelle nur minimal senken.

Zum eigentlichen Thema: Forschung am Quantencomputer, eine kleine News dazu.
http://www.heise.de/newsticker/meldung/Quantencomputer-mit-Saiteneffekt-1828096.html

Interessant finde ich eher die allgemeine Forschung anstatt die Chipentwicklung.
http://suche.golem.de/search.php?l=10&q=bci

2phil4u
2013-03-24, 16:22:33
Ich habe nochmal die News bezüglich des stacked Memory gelesen und die Querverweise weisen eindeutig darum, dass es sich hierbei um einen Hypermemorycube handelt, also ein Transistorgebilde mit mehreren Schichten, sozusagen 3-dimensional.
Spielekonsolen sind auch nicht zu unterschätzen, was die Hardwareentwicklung anbelangt, auch wenn Sony hier mal richtig geizig geworden ist.

Wäre doch mal eine Idee (Kapital vorausgesetzt) eine neue zu entwickeln, die mit topaktueller Hardware incl SLi gerade so 1024 * 600 packt und dafür Spiele entwickeln zu lassen.
2016-2018 dürfte die Hardware dann dank stacked Memory und 7 nm Produktion relativ günstig sein, um das ganze in FullHD laufen zu lassen.

Hätte AMD nur 100 Mia, denk seit einigen Tagen darüber nach, was dann drin wäre.

Wir können ja mal sammeln hier im Forum.:wink:

2phil4u
2013-03-24, 16:28:43
Das war jetzt natürlich alles etwas Wunschdenken.
Hier mal eine News zu Graphen, welches derzeit massiv gefördert wird.
Potentielle Chips wären damit mind hundert mal so schnell.
Aber es hat noch zahlreiche andere Anwendungsgebiete.

http://computer-oiger.de/2013/03/24/graphen-lost-herdentrieb-der-atome-aus/21137

kevsti
2013-03-24, 21:32:12
http://en.wikipedia.org/wiki/Intel_Tick-Tock
Intel hat doch schon einiges in Planung.
[...]
Ich sag ja nicht dass sie gar nicht forschen bzw. überhaupt kein Fortschritt machen, aber Intel könnte wesentlich mehr machen bzw. bessere CPUs auf den Markt schmeißen. Aber damit hätte man keine Reserven wäre... Was wäre wenn den Forschern plötzlich wirklich nichts mehr so schnell "einfällt" und so über 2-3 Jahren wirklich nichts mehr kommt... oder AMD "morgen" eine Super CPU raus wirft die Intels TOP-Modell um Längen schlägt... für solche Fälle braucht Intel ein Ass im Ärmel und genau deswegen werden sie nicht das maximal mögliche auf den Markt werfen - solang sie nicht gezwungen sind, was sie nun seit einigen Jahren nicht mehr sind... vor einigen Jahren gabs ja noch so etwas wie Konkurrenz zwischen Intel und AMD, mal was AMD besser... mal Intel... aber nun mehr kommt AMD nicht mehr hinterher und konzentriert sich auch auf verstärkt auf andere Bereiche (APU z.B.).

@2phil4u und wer sollte eine Konsole kaufen die >1000€ kostet?
Was meinst du mit 100 Mia? Milliarden?
Und wenn sies hätten, was dann? Forschung lässt sich nicht zwangsläufig durch mehr Geld beschleunigen - und AMD hat auch einfach kein Interesse dran. Warum auch? Wenn sie die 100 Milliarden zur Bank schaffen und jedes Jahr 5 Milliarden Zinsen bekommen, machen sie weit höheren und sicheren Umsatz...

ndrs
2013-03-24, 22:50:16
Hier mal eine News zu Graphen, welches derzeit massiv gefördert wird.
Bei uns an der Uni wird schon nach einem Nachfolger gesucht. Ich glaube ehrlich gesagt nicht, dass Graphen noch zur marktreife gebracht wird.

kevsti
2013-03-24, 23:33:18
Naja schau mal wie lange schon an Graphen geforscht wird... ähnlich lange wird wohl auch der "Nachfolger" an euer Uni brauchen. d.H. wenn z.B. Graphen in 10 Jahren massentauglich sind und "eurer Nachfolger" in 30 Jahren, dann macht es schon Sinn dass Graphen bis zur Marktreife gebracht werden.

Und es ist auch überhaupt nicht sicher ob die ganzen Problemen bei den verschiedenen potenziellen "Nachfolgern" überhaupt irgendwann (wirtschaftlich) lösbar sind - da sollte man lieber auf viele Pferde setzen. Gerade auch auf Pferde die relativ weit sind, auch wenn eine andere Technik möglicherweise höhere Leistung/Nutzen versprechen mag.

edit://Es geht ja auch nicht nur rein um Chips & Co. Graphen und andere Techniken sind bestimmt auch in anderen Bereichen einsetzbar, sofern sie dann mal marktreif sein.

Flusher
2013-03-25, 13:32:18
Afaik ist einer der Vorteile von Graphen auch seine Kosteneffizienz. "Arschteure" Dotierungen mit exotischen Elementen wären dann nicht mehr nötig.

Allerdings lese ich schon seit 10 Jahren immer wieder was von Graphen und bis Heute ist da soweit ich weiss nichts auf dem Markt.

Konami
2013-03-26, 15:34:44
Allerdings lese ich schon seit 10 Jahren immer wieder was von Graphen und bis Heute ist da soweit ich weiss nichts auf dem Markt.
Seit 10 Jahren? Ende 2004 wurde das Zeug überhaupt zum ersten Mal isoliert und das Paper veröffentlicht. 2010 wurde Geim und Novoselov der Nobelpreis dafür verliehen. Ich würd jetzt nicht unbedingt 2013 fertige Produkte in den Regalen erwarten. Kommt schon noch. ;)

Hammer des Thor
2013-04-21, 14:28:00
Also, Strukturen unter 10 nm sehe ich nicht als sinnvoll an, da dort Quanteneffekte zu häufig sein dürften und dadurch zu viele Fehler entstehen.
Interessanter sind 3-D-Chips auf Memristor-Basis nicht nur bei Speicher sondern auch bei Prozessoren wegen dem geringen Stromverbrauch (würden viele Layer gehen ohne dass die Kühlung überfordert wäre). Na gut hier könnte man wegen der anderen Funktionsweise auch unter 10 nm irgendwann gehen.
Dann wären in der Zukunft auch optische Prozessoren denkbar ind 3d. Das wären aber keine "Chips" mehr.

2phil4u
2013-04-21, 23:53:29
3D bei Speicher ist ja ein vergleichsweise kleines Problem.
Man nimmt einfach langsam getakteten Speicher und erhöht die gleichzeitige Ansteuerung.
Aber wie stellst du Dir das bei CPUs vor, die viel verbrauchen.
In die 3- Dimension bauen geht wohl nicht, man könnte höchstens mehrere Kerne übereinander stapeln, eventuell auch versetzt.
Aber wie willst du das kühlen bei Performancechips ?
Sinn machen würde es für stark parallelisierbare Sachen wie Grafikchips oder halt CPUs mit 100ern von Kernen, die nur 0.1 W verbraten.
Vielleicht kommen in Zukunft aber Prozessoren mit 4 starken Kernen und vielen kleinen stromsparenden.
Es muss endlich gelingen jeden Thread auf möglichst viele CPUs zu verteilen oder die CPU selbst breiter zu machen (was aber wohl nicht geht, sonst gaebe es die laengst).
Es wird doch immer deutlicher, dass Halbleiter mit weniger Takt eine viel besseres Performance / Watt Verhaeltnis haben.

Letztendlich brauchen wir halt einen Siliziumersatz, der weniger Leckströme hat, aber das kann bei dem enormen Geld, welches in Siliziumoptimierung fliesst noch 10 Jahre dauern.
Erst die immer schwierigeren Shrinks und höheren Kosten werden da wohl entgültig andere Stoffe profitabel werden lassen.


Und klar würden sie noch gerne kleiner als 10 nm gehen, die Quanteneffekte würden sie wohl bis 2 nm noch einigermassen im Griff haben oder sie sogar ausnutzen.
Aber so wie es aussieht werden sie jetzt erstmal eine Weile auf 14-16 nm bauen, da haben sie dann endlich mal Zeit neue Dinge auszuprobieren, anstatt immer Miliarden für den naechsten Shrink auszugeben.
Man darf auch nicht vergessen, dass die Prozessordesigns keine freien Desings mehr sind, sondern stark von dem vielen Pattering begrenzt sind.
Die Qualitaet des Siliziums in Bezug auf Genauigkeit wird auch nicht mehr so toll sein bei 14 nm mit 193 nm Licht.
EUV scheint so spaet zu kommen, dass man eigentlich schon wieder eine kleinere Wellenlaenge braeuchte, weil man bei EUV nicht so stark verkleinern kann wie bei dem jetzigen Licht.
Gibt ja aber noch Nanoprining, Electrobeam und sich selbst erzeugende Stoffe.
Aber das ist alles noch so lange hin und TCMC und Globalfoundrys tun ja fast so, als könnten sie jederzeit mit 16 nm Finfet beginnen.
Wenn ich die Roadmaps von Globalfoundries lese und überlege, dass sie gerade mal 28 nm produzieren, naja optimistisch ist milde ausgedrückt.

Hammer des Thor
2013-04-22, 02:30:45
Hallo, ich habe doch geschrieben, dass Memristoren sehr wenig Strom verbrauchen im Gegensatz zu Feldeffekt-Transistoren, da wäre die Kühlung bei Stack, später bei 3D kein Problem. Zuerst könnte man die CPU-Kerne übereinanderstapeln.
Auch eine Zukunft für billige Chips hat die gedruckte Elektronic, da kann man auch Memristoren auf hauchdünne Folie drucken, da kann man dann entsprechend viel übereinander stapeln- Wer weiss ob nicht irgendwann Nano 3d-Druck für CPUs geht, wäre aber wohl teuer weil langsam, 1 Billion Schaltelemente wollen erst mal gedruckt werden.
"Lichtschalter" für optische 3-D-Elektronik sind auch schon erfunden, müsste dann aber Photonic heissen.
So viel ich weiss sind es jetzt schon nur noch ein paar hundert Elektronen bei den kleinsten Strukturen von ca 20 nm. Da bekommen die irgendwann das Problem des Statistikrauschens durch Quanteneffekte. Schon jetzt sollten wir nahe an der physikalischen Grenze sein. "Ausnutzen" kann man Quanteneffekte nur in speziellen Quatenrechnern, für einen klassischen Digitalrechner (der auch gebraucht werden wird wegen anderer Funktionen) sind solche Effekte Gift, weshalb Deine 2 Nanometer zumindest bei Transistoren gar nicht gegen dürften.
Roadmaps bis runter auf 4 nm sind doch bloss was um Aktionäre zu täuschen . ;-)

Konami
2013-04-22, 05:20:19
Also, Strukturen unter 10 nm sehe ich nicht als sinnvoll an, da dort Quanteneffekte zu häufig sein dürften und dadurch zu viele Fehler entstehen.
http://www.xbitlabs.com/news/other/display/20120513115821_Intel_Begins_Work_on_7nm_5nm_Process_Technologies.html ;)

2phil4u
2013-04-23, 17:07:16
Wobei man sagen muss, dass sie noch keinen Plan haben, wie sie kleiner als 10 nm fertigen wollen.
Mit EUV waere es wohl möglich, aber selbt bei den 13.5 nm Wellenlaenge müsste man schon extreme Tricks anwenden und derzeit gibt es nicht ansatzweise eine stark genuge Lichtquelle um profitabel zu produzieren.
Testen kann man allerdings schon bald mit schwaecheren Lichtquellen.
Die Roadmaps von von 2-3 Jahren wurden in bezug auf die Leistungsfaehigkeit nicht eingehalten und derzeit werkelt man bei 30-40 Watt rum, wohlgemerkt im Extrembereich und 250 Watt waeren bei Doublepattering wohl schon nötig, um nicht zu teuer zu sein.

Interssant finde ich derzeit FD-SOI, welches einen Stromsparchip bei niedriger Spannung bis auf 3 ghz hochtakten liess.
Derzeit wird versucht das Ganze in 28 nm anzubieten und es würde auch gut nach unten skalieren, da die Leckströme bei Bulk immer weiter zunehmen bei ausgeschalteten Transistoren, wobei sie bei FD-SOI durch die Isolierung stark zurückgehen.
Wenn ich so Prognosen anschaue, versprechen sie wohl von 28 nm bis 14 nm mit Finfet oder FDSOI ingesamt weit über 50% weniger Verbrauch.
Man wird sehen.
Was diese Menristoren betrifft, naja, wieder so ein Labprodukt, dass nicht mal ansatzweise für die naechsten Jahre geplant ist, ich lese viel von Synapsensimulation.
Vor 2020 wird das aber nix und EUV wird auch immer schwieriger, je laenger es sich verzögert.
Vielleicht kommt man auch von x86 weg, um mehr Leistung zu erreichen.
Man sieht ja an Benchmark, dass andere CPUs gerade in Servern schneller sind und auch die ARM Dinger sind ja eine andere Technologie (Risc oder keine Risc prozessoren).

Wobei man ja schon bei 64-bit gesehen hat, wie lange 32-bit noch mit rumgescheppt wird.
Von daher wird es natürlich schwierig von x86 wegzukommen, weil die ganze Software daraus ausgelegt ist.
Man könnte allerdings bei schnelleren Prozessoren, x86 Emulatoren benutzen, die dann mit der Power von übermorgen für die Programme von heute immer noch schnell genug sind.

Skysnake
2013-04-23, 17:57:35
Verabschiede dich bitte mal von ARM=RISC und x86=CISC

Das war mal, aber heutzutage ist weder ein x86 ein reiner CISC Chip, noch ARM ein reiner RISC Chip.

Die haben sich beide angenaehert. Beide Ansaetze haben halt ihre Vorteile.

Hammer des Thor
2013-04-25, 01:56:38
Was diese Menristoren betrifft, naja, wieder so ein Labprodukt, dass nicht mal ansatzweise für die naechsten Jahre geplant ist, ich lese viel von Synapsensimulation.



Stimmt nicht, zumindest nicht bei Speicher. Hynix wollte noch vor gut einen Jahr Anfang dieses Jahres anfangen die Dinger kommerziel zu produzieren. Sie verschoben dies auf Ende 2014, da Sie nicht ihr derzeit guten Flash-Geschäft "korrumpieren" wollten. Glaubt man den Berichten könnte Sie alleine von den technischen Möglichkeiten sofort mit der Produktion beginnen, was natürlich geschäftlich nicht klug ist, denn so kann man die Produkte eher mehrmals verkaufen!

Hammer des Thor
2013-04-29, 15:25:39
Hier mal was zum lesen:

http://www.elektroniknet.de/halbleiter/sonstiges/artikel/89376/

2phil4u
2013-05-03, 15:45:24
Diesen Artikel habe ich schon 2 mal gelesen.
Eine andere Form, weniger Watt pro Performance zu erzielen, scheint laut einigen Experten in den Multiplikatoren zu liegen.
So wird gesagt, dass es wesentlich effektiver ginge mit Addieren und man nur noch Rest multiplizieren muss.
Habe jetzt aber die Quelle nicht mehr im Kopf.

2phil4u
2013-08-27, 18:04:53
Ich muss mal wieder diesen Thread rausholen.
Ein Thema, dass gerade für Multi GPU,s wichtig wäre, wenn ich das richtig verstanden habe sind Interposer.
Das sind wohl extrem schnelle Verbindungen zwischen 2 Chips, hohe Bandbreite und somit hätte sich das Problem von Stuttering mit SLI erledigt.

Auserdem liessen sich damit natürlich viele kleine GPU verbinden, man könnte also viel mehr Transistoren kostengünstiger oder energieeffizienter verwenden.

Als absolutes Highend wäre dann wohl ein wahres Monster möglich, relativ niedrig getaktet und mit sehr niedriger V-Core.

Aber so genau kenne ich mich da auch nicht aus, vielleicht könnte ein User mit mehr Fachwissen was dazu sagen.

Wann werden wir das sehen ?
Scheint ja eigentlich schon reif zu sein.

Ansonsten habe ich viel über FDSOI, Finfet usw recherchiert, es soll wohl auch eine Mischung
möglich sein.

Trotzallem gibt es noch keine Grafikkarte oder CPU von AMD in 28nm FDSOI, naja Glofo halt
mit ihren Versprechungen.

20 nm wird wesentlich teurer, die früheren Ersparnisse sind nicht mehr drin, doublepattering sei Dank und EUV hat immer noch lange nicht die nötige Sourcepower um kostengünstig eingesetzt zu werden und bis 2016 wirds wohl auch so bleiben.

Wenn ich das richtig verstanden habe, überlegt man auch schon noch kürzere Wellenlängen einzusetzten, da mit normaler Litographie wohl noch 10 nm hergestellt wird und dann EUV wieder in Zugzwang gerät.

Aber soweit erstmal genug.

Wollte den Thread mal erhalten, ist ja eigentlich interessanter, als sich über irgendwelche Grafiikengines zu unterhalten.

Skysnake
2013-08-30, 11:39:11
Also auf viele von den Fragen bin ich ja schon in nem anderen Topic eingegangen, daher will ich mich hier nicht wiederholen. Schade, das keiner drauf einsteigt.