PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie weit geht es noch: 110nm, 90nm, 2 Kerne ...


Cenmocay
2005-01-11, 10:43:03
das interessiert mich mal,was passiert wenn die fertigung nicht mehr verfeinert werden kann,kommen dann neue technologien ?

oder versuchen sie das so lang wie möglich zu umgehn und baun dann mehere kerne auf die karten ?

wann kann man mit einer komplett neuen bauweise rechnen weil die aktuelle gibts ja schon seid der pc steinzeit

:uconf2:

ironMonkey
2005-01-11, 10:51:23
das interessiert mich mal,was passiert wenn die fertigung nicht mehr verfeinert werden kann,kommen dann neue technologien ?

oder versuchen sie das so lang wie möglich zu umgehn und baun dann mehere kerne auf die karten ?

wann kann man mit einer komplett neuen bauweise rechnen weil die aktuelle gibts ja schon seid der pc steinzeit

:uconf2:


Wird immer alles angepasst und bisher ist kein Ende in sicht, schon vor 4 Jahren haben einige geschrieben das es langsam zu ende geht, Pentium M und A64 zeigen aber das Gegenteil.

mal abgesehen von Dualcore, erwarte ich in den nächsten 6 Jahren nix neues, Weltbewegendes.


Gruß

Cenmocay
2005-01-11, 11:07:36
mich interessiert mehr die grakas außerdem will ich wissen was man erwarten kann.
welche technologie die aktuelle wahrscheinlich ablösen wird

ironMonkey
2005-01-11, 11:41:04
Gibt mehr als genug Info hier im Forum.


Gruß

Gost
2005-01-11, 11:44:32
Gibt mehr als genug Info hier im Forum.


Gruß

hab jetzt genug von dir gehört es reicht

ironMonkey
2005-01-11, 11:49:03
hab jetzt genug von dir gehört es reicht


Log dich ein und schau mal meine Beiträge durch wieviel Fragen ich seit über 1 Jahr hier gestellt habe..........

Wenn ich was wissen will dann nutze ich die Suchfunktion oder google, ich kann auch auf die schnelle einen Text kopieren und so machen als ob ich mich damit auskenne(was nicht der Fall ist), was einige hier machen!!!!

gisbern
2005-01-11, 14:17:18
um deinen wissensdurst zu stillen : bic ca. 2014 sind heute schon strukturverkleinerungen geplant. 2014 soll es z.b. Prozessoren im 0,022 mikron bereich geben, heute haben die prozzies 0,09 mikron. d.h. die transistorenzahl wird sich einige male vervielfältigen. dann werden es natürlich immer mehr cores auf einem die, usw..... und so fort......

Spasstiger
2005-01-11, 18:41:47
Dürfte schon noch so ca. 20 Jahre so weiter gehen wie bisher. Die aktuelle Technologie ist noch nicht am Ende.

stav0815
2005-01-11, 20:11:39
Dürfte schon noch so ca. 20 Jahre so weiter gehen wie bisher. Die aktuelle Technologie ist noch nicht am Ende.
was ja auch SOI oder Strained Silicon zeigt -> man braucht nur gewisse Verbesserung am Vorhandenen Stamm

AnarchX
2005-01-14, 16:56:20
laut eines AMD-Mitarbeiter von AMD Dresden, wird man 2011 so bei 22nm andere Neuerungen ausdenken müssen um die Performance zu steigern, wenn man bedinkt das der Winderstand vom Gate jetzt schon nur noch 7 Atomschichten dick ist...

Tigerchen
2005-01-14, 18:53:35
Wird immer alles angepasst und bisher ist kein Ende in sicht, schon vor 4 Jahren haben einige geschrieben das es langsam zu ende geht, Pentium M und A64 zeigen aber das Gegenteil.

mal abgesehen von Dualcore, erwarte ich in den nächsten 6 Jahren nix neues, Weltbewegendes.


Gruß

Die Entwicklung hat sich ja wohl auch deutlich verlangsamt. Man kommt auch deutlich länger mit einer neuen CPU aus. Aus monetären Gründen begrüße ich dies auch.

Duran05
2005-01-14, 19:02:05
Also Theoretisch wird es kein Ende geben, denn wer weiß heute schon, welche Techniken in den nächsten 10, 20, 50 Jahren eingesetzt werden?

Vielleicht gibt es die heutigen Probleme, in den nächsten paar Jahrzehnten gar nicht mehr? Wir wissen es nicht...

Wenn man mal zurück schaut, dann wurde jedes mal gesagt: "Bei xy ist Schluss", aber trotzdem wurden die gesetzten "Grenzen" locker übertroffen. So wird es wahrscheinlich weiter gehen. ;)

AnarchX
2005-01-14, 20:16:19
sobald die grösse der bauteile an die molekulare ebene rankommt, wirds probleme geben

Cenmocay
2005-01-14, 20:22:57
was ich meine ist wenn man diese silizium ? technik nicht mehr verbessern kann

kommt dann nanotechnologie oder .......... :|

z.b grakas ,sie werden seid es sie gibt in der gleichen bauweise hergestellt.
für mich ist eine wirkliche nextgen karte eine die komplett anders gebaut wird,keine karten die mit transistoren vollgestopft sind sondern eine die nur aus einem komplexen kleinen chip besteht...wer weiß

das cpu und graka verschmelzen wirds wohl nicht geben weil sich die firmen ihr geschäft nicht zerstören lassen wollen

3d
2005-01-14, 20:44:19
ich denke die nächste technologie wird auf licht basieren anstatt trasistoren.
wann was neues kommt kann man nicht sagen, aufjedenfall nicht in den nächsten 10 jahren.

schrubbern
2005-01-14, 20:44:22
naja, ganz so optimistisch darf man auch nicht sein, es gibt zwar jede menge technologien, die noch ausgelotet werden (das grösste problem ist im moment die lithografie), aber irgendwann wird auch da eine kosten/nutzen grenze kommen.
der nächste grosse schritt werden optoelektronische (photonische) cpus werden, quantencomputer sind noch zu weit entfernt, auf dem gebiet optischer schalter und leitungen wird aber sehr viel geforscht, industrielle anwendungen wird es aber wohl kaum vor 10 bis 20 jahren geben (ausser in spezialgebieten, wie der datenübertragung)

schrubbern
2005-01-14, 20:48:16
hehe...da war jemand 3 sekunden schneller..;)

OBrian
2005-01-14, 22:55:54
Also für die nächsten Jahre kann man erwarten (alles ziemlich sicher):

- 90-> 65-> 45nm
- SOI auch bei Intel (gegen Leckströme), intensive Nutzung von Strained Silizium bei AMD, IBM etc. für höheren Takt
- nach Dual-Cores kommen 4, 8, 16 etc., damit Diversifizierung der Produktlinien (wie bei Grafikchips über die Pipelines)
- Takt eher gering nach oben, bei 3GHz-4GHz werden wir wohl noch ne Weile bleiben
- Intel kann noch den Speichercontroller on-die setzen (brächte sofort +20%, wird auch irgendwann nötig, da schon jetzt der FSB limitiert, mit mehreren Cores noch mehr)
- verbesserte Cacheanbindungen (da kann vor allem AMD noch was rausholen), besserer Prefetch, etc.
- bestimmte kleinere, oft benutzte Funktionen direkt in Hardware gießen

Damit sind wir schon mal 5 Jahre weiter und die CPU-Leistung ließe sich um ein Mehrfaches steigern, ohne dabei über 100W zu kommen oder den momentanen Marktbereich zu verlassen.

Wenn man weiterdenkt: Speicherzellen, die durch Verschieben einzelner Atome Daten ändern, Übertragung von Daten mit Photonen statt Elektronen, andere Materialien etc.
Aber das dauert eben solange wie´s dauert, durch diese Dual-Core-Geschichten versucht man erstmal ein paar Jahre Zeit zu gewinnen.

Stone2001
2005-01-15, 15:07:14
Die Entwicklung hat sich ja wohl auch deutlich verlangsamt. Man kommt auch deutlich länger mit einer neuen CPU aus. Aus monetären Gründen begrüße ich dies auch.

hmm, da gab es vor kurzem auf der IEDM einen netten Vortrag, den hätte ich nur zugern gehört "Was begrenzt das Moore'sche Gesetz? Die Physik oder die Kosten?"

Die CMOS-Technologie ist noch lange nicht tot, immer neuere Lithographieverfahren dürften sicherstellen, das Moores Law auch in 20 Jahren noch gültig ist. Zur Zeit arbeitet man noch mit 193 nm-Lasern, den Sprung auf 157nm-Lasern, wird es wahrscheinlich nicht geben, da man z.b. mit "Unterwasser-Lithographie" noch kleinere Strukturen herstellen kann und wahrscheinlich die Zeit bis zur Fertigstellung der EUV-Lithographie überbrücken kann. EUV-Lithographie mit 13nm wird es voraussichtlich gegen Ende des Jahrzehnts geben.

Und zum anderen haben die Computerdesigner noch so eiginge Ideen in der Schublade, die nur darauf warten mal in der Praxis erprobt zu werden. Von 16-fach Superskalaren Prozessoren, bis hin zu MTAs (Multithreaded-Architecture) zur Latenzzeitverdeckung gibt es noch eigenes.

Als nächster Technologieschritte würde ich mal auf Supraleitende Halbleiter tippen, ein, zur Zeit, hochinteressantes Forschungsgebiet und vorallem nicht so abgehoben, wie Quatencomputer. Optische Rechner wären zwar auch nicht schlecht, aber ich bezweifle, das man die hoch integrieren kann.

laut eines AMD-Mitarbeiter von AMD Dresden, wird man 2011 so bei 22nm andere Neuerungen ausdenken müssen um die Performance zu steigern, wenn man bedinkt das der Winderstand vom Gate jetzt schon nur noch 7 Atomschichten dick ist...
Deswegen gibt es demnächst High-K-Gates. Durch Erhöhung der Dielektrizitätskonstante, kann man das Gateoxid wieder dicker machen und trotzdem die gleiche Gatekapazität haben. Ein dünnes Gate hat halt leider den Nachteil, das es für die Elektronen ein leichtes ist, da durch zu tunneln (die Wahrscheinlichkeit ist viel zu hoch), das ergibt dann ein Leckstrom der wirklich unangenehm ist. ;)

Byteschlumpf
2005-01-15, 15:44:12
was ich meine ist wenn man diese silizium ? technik nicht mehr verbessern kann

kommt dann nanotechnologie oder .......... :|

z.b grakas ,sie werden seid es sie gibt in der gleichen bauweise hergestellt.
für mich ist eine wirkliche nextgen karte eine die komplett anders gebaut wird,keine karten die mit transistoren vollgestopft sind sondern eine die nur aus einem komplexen kleinen chip besteht...wer weiß

Ohne Transistoren kann es nicht funktionieren, da diese die Zustände 0 und 1 erst möglich machen, auf denen digitaler Datenverkehr basiert.

Das Thema ist leider dermaßen kompliziert, dass wir als Noobs da nicht mitreden können, mangels Fachwissen.
Chips werden heute ja schon als hochintegrierte Bauteile realisiert, wobei deren Entwicklung virtuell stattfindet. Die Produktion in Hardware auf Silizium-Basis stellt nach zahlreichen Testläufen den Finalen Schritt dar.


Eine GPU besteht ja aus einer Vielzahl von unterschiedlichen Komponenten, für jeweils verschiedene Aufgaben.
http://www.computerbase.de/artikel/hardware/grafikkarten/2002/parhelia/4/

zeckensack
2005-01-15, 16:10:14
was ich meine ist wenn man diese silizium ? technik nicht mehr verbessern kann

kommt dann nanotechnologie oder .......... :|Moderne Halbleitertechnik ist "Nanotechnologie".

Byteschlumpf
2005-01-15, 18:37:53
Nanoelektronik bezieht sich das auf die Strukturgröße der Transistoren.
http://www.bmbf.de/de/684.php

Nochwas zu Mikrocomputern - die Ahnen heutiger Computer:
http://www.elektronik-kompendium.de/sites/com/0309141.htm

G. Nervt
2005-01-15, 22:04:50
Mir ist es im Moment egal, "wie weit es geht", die Frage die mich beschäftigt:
Wann wird das Vorhandene endlich richtig genutzt?!

govou
2005-01-16, 00:04:55
Gibt sicherlich illegale Absprachen, die die schnelle Entwicklung bremsen oder neue Technologien in "Ablage P" verschwinden lassen. Neuerungen gibt es immer nur, wenn der Markt gesättigt ist.
Meiner Meinung nach, könnte man heute schon viel effizientere und schnellere Kerne bauen

Mike
2005-01-16, 00:13:06
Gibt sicherlich illegale Absprachen, die die schnelle Entwicklung bremsen oder neue Technologien in "Ablage P" verschwinden lassen. Neuerungen gibt es immer nur, wenn der Markt gesättigt ist.
Meiner Meinung nach, könnte man heute schon viel effizientere und schnellere Kerne bauen

Hm. unwahrscheinlich, oder? z.B. Transmeta oder Via würden bestimmt gerne mehr CPUs verkaufen und sich einen größeren Teil am Kuchen abschneiden, was sie ja mit entsprechend besseren CPUs machen könnten...

Tigerchen
2005-01-16, 13:12:04
Hm. unwahrscheinlich, oder? z.B. Transmeta oder Via würden bestimmt gerne mehr CPUs verkaufen und sich einen größeren Teil am Kuchen abschneiden, was sie ja mit entsprechend besseren CPUs machen könnten...


Ja. Extrem unwahrscheinlich daß da irgendwas in der Ablage P landet. Bei AMD dasselbe. So wie die kämpfen müßen um in der Gewinnzone zu bleiben.

Unfug
2005-01-16, 13:21:22
ich habe den kompletten thead nicht gelesen, sorry.

Ein NeuroInformatiker sagte vor ein paar Jahren, daß die Entwicklung von Prozessoren, dahin geht, daß sie immer mehr dem Gehirn ähneln.
Also das es hunderte Cores gibt anstatt die Pure MHZ Leistung.
Er hatte bisher ja recht , wir sind grad am Anfang mit 2.
Außerdem werden wohl Prozessoren mit biologischen Teilen interessant.
Was damit gemeint ist sei dahingestellt (kleine Pilze auf der CPU ;D ).

superdash
2005-01-16, 14:05:11
Hi!

War kürzlich in einer Vorlesung über Nanotechnologie, bei der es um zukünftige bzw. inovative Entwicklungen geht. Dort wurden sog. Nanotubes vorgestellt. Diese Röhren haben eine Wandstärke von einem Atom. Mit diesen Nanotubes lassen sich dann Trasistoren bauen, wobei die Tubes zum Transport der Elektronen dienen.

Ein Bild dazu:

http://www.itthought.com/messages/technical/file/003702.gif

Aber das dauert noch ein paar Jahre. Und danach muss man sich überlegen, wie man den Zustand 0 und 1 anders Darstellen kann. Aber es gibt ja noch kleinere Dinge als Elektronen!....

MfG

Superdash

Noch was zur Erklärung:

http://images.google.de/imgres?imgurl=http://www.weizmann.ac.il/condmat/imry/images/nano14b.gif&imgrefurl=http://www.weizmann.ac.il/condmat/imry/images/nano.html&h=371&w=550&sz=14&tbnid=ST6EYnPS-aQJ:&tbnh=87&tbnw=128&start=20&prev=/images%3Fq%3Dnanotube%2Btransistor%26hl%3Dde%26lr%3D%26sa%3DG

immi
2005-01-16, 18:25:58
Ohne Transistoren kann es nicht funktionieren, da diese die Zustände 0 und 1 erst möglich machen, auf denen digitaler Datenverkehr basiert.


jein. Der Phasenuebergang, also der transistormaessige Sprung von 0 auf 1, wird durchaus auch in anderen materialien/technologien gesucht. Es gab da mal eine Arbeit, die exakt dieses Verhalten fuer einen Kristall auf optischem Wege nachgewiesen hatte - war leider ein hoax :-(( Hat damals tierische Wellen geschlagen...



Was aber durchaus kommen wird/muss ist der Wegfall eines globalen Taktes. Datenflussarchitekturen werden immer weiteren Einfluss auf die Entwicklung von Prozessoren haben muessen, da der meiste Platz auf einem Chip mittlerweile fuer die Verteilung des Taktsignals verbraucht wird (meine irgendwas von 16% gelesen zu haben). Gibts auch ne Menge forschungsgebiete drin, einige beschaeftigen sich wie schon erwaehnt wurde, mit optischer Weiterleitung durch Nanoroehrchen.
Multicore wird auch irgendwann ein Ende finden muessen, weil man XBars nicht endlos erweitern kann, werden aber sicherlich spaetestens ab 8 cores neues Entwicklungsgebiet sein.
Ausserdem duerfte zu allererst in den caches der 2-Bit-pro-Zelle-Speicher einzug halten, wo die Verzoegerungen aufgrund von Lauflaenge am meisten auffaellt (normaler Speicher ist eh langsam).

Aber was wir wohl alle hoffen duerften was nicht kommen wird: Bluetooth onchipcommunikation. Wenn die chips anfangen leiterlos ihre Daten auszutauschen "weils schneller und platzsparender geht", mach ich mir ernsthaft sorgen um den Geisteszustand der entwickler. Mal ganz von Abhoermoeglichkeiten und Strahlungsgefahren abgesehen: wie will man das bei nem guten Dutzend chips im regelfall ordnen? Wer darf was? Darf mein Fernseher auf einmal nen explorer oeffnen? Am besten uebers tpm? Das muss ja dann eh die Absicherung uebernehmen....
Gut, mag ein bisschen weit hergeholt sein, versteckte Aengste eben... ;) Aber wer weiss....

Tigerchen
2005-01-16, 19:08:14
ich habe den kompletten thead nicht gelesen, sorry.

Ein NeuroInformatiker sagte vor ein paar Jahren, daß die Entwicklung von Prozessoren, dahin geht, daß sie immer mehr dem Gehirn ähneln.
Also das es hunderte Cores gibt anstatt die Pure MHZ Leistung.
Er hatte bisher ja recht , wir sind grad am Anfang mit 2.
Außerdem werden wohl Prozessoren mit biologischen Teilen interessant.
Was damit gemeint ist sei dahingestellt (kleine Pilze auf der CPU ;D ).


Neuroinformatiker? Sind das die Leute die bereits seit Jahrzehnten vor dem Durchbruch in der KI stehen?
Wer weiß eigentlich wie ein Gehirn arbeitet?

Neon3D
2005-01-21, 09:29:38
ich hatte vor ca. 1jahr eine sendung über die entwicklung von "licht-cpu" 's gesehen.

eine spezielle flüssigkeit wird mit licht angestrahlt und kann so nicht nur viel trennschärfer 0 / 1 wiedergeben sondern noch eine vielzahl anderer zustände.

sollte diese erfindung marktreif werden, kommt es zu einem sprung was die cpuleistung angeht.

mal sehen was noch für andere neue erfindungen in den nächsten 10 jahren kommen werden.

:massa:

adio
2005-01-21, 13:23:09
problem bei dieser gesamten licht-technologie ist eigentlich das es sehr schwer ist optische verstärker zu bauen. wenn dies in naher zukunft nicht adäquat gelöst wird, seh ich keine zukunft dafuer.