PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Chipfertigung nach 11nm /Split aus Nehalem-Thread


FutureIsNow
2008-08-31, 13:47:17
Letzten Sonntag in der Primetime Spätausgabe auf RTL sprach ein Nobelpreißträger über Supraleiter usw. und sofort.

Naja, der meinte auch irgendwann stoßen wir an die Grenzen des Machbaren, was die Verkleinerung der Strukturgröße? anbelangt.

Und das dürfte doch bald erreicht werden. Heisst also auch, man wird den Takt nie mehr großartig steigern können und die Zukunft liegt deshalb in Multicore. Aber so neu ist das ja nicht.

Man muss sich nur die GPUs anschauen...

Coda
2008-08-31, 14:28:41
~10nm dürfte die Grenze sein. Dann ist das Gate nur noch 5nm breit.

FutureIsNow
2008-08-31, 14:51:20
~10nm dürfte die Grenze sein. Dann ist das Gate nur noch 5nm breit.

Und dann? Lichtwellenleiter?

Raff
2008-08-31, 15:06:12
~10nm dürfte die Grenze sein. Dann ist das Gate nur noch 5nm breit.

Intel wagte auf dem IDF einen Blick bis einschließlich 2015, wo man in 11 Nanometern Strukturbreite fertigen will. Man schloss aber nicht aus, dass es doch weitergeht. Aber welche Materialien dabei helfen, ist unbekannt.

MfG,
Raff

Coda
2008-08-31, 15:38:55
Und dann? Lichtwellenleiter?
3D-Strukturen oder gar nichts.

Intel wagte auf dem IDF einen Blick bis einschließlich 2015, wo man in 11 Nanometern Strukturbreite fertigen will. Man schloss aber nicht aus, dass es doch weitergeht. Aber welche Materialien dabei helfen, ist unbekannt.
Auf 1nm kommen wir auf keinen Fall mehr runter. Das wären noch 5 Silizium-Atome Dicke. Von mir aus 7nm oder sowas. Aber das war's dann.

dildo4u
2008-08-31, 15:52:40
Und dann? Lichtwellenleiter?
Ein möglicher Ansatz wäre der Quantencomputer.
http://de.wikipedia.org/wiki/Quantencomputer

pest
2008-08-31, 16:18:37
Ein möglicher Ansatz wäre der Quantencomputer.


davon sind wir noch lichtjahre entfernt

Coda
2008-08-31, 16:40:58
Ein möglicher Ansatz wäre der Quantencomputer.
Nein.

FutureIsNow
2008-08-31, 16:47:32
Okay dann sagen wir mal es wäre bei 10 mü.... Schluss. FInde gerade das Zeichen net auf meiner Mac Tastatur. xD

Dafür bräuchten wir dann schon selbst kühlende Chips?

HOT
2008-08-31, 17:12:11
Ein Quantencomputer ist undenkbar als Rechnerersatz.
Man wird dennoch verstärkt Quanteneffekte nutzen und die Fertigung effizienter machen. 22nm sind bis 2012 erreichbar, bei 11nm sieht es schon schwieriger aus. Das wird vor 2015 nichts, eher noch später. Und kleinere Strukturen sind sicherlich noch drin, aber erst 2020 oder so. Bis dahin werden Chips auch noch 3-Dimensional, IBM will ja schon 3-Dimensionale 32nm Chips fertigen. Wie es dann weitergeht ist völlig offen. Vermutlich wird man ne ganze Zeit lang auf 7nm bei ca. 0,7V Betriebsspannung festsitzen. Das ist dann schon wirklich sehr hart an der Grenze.

Bei 5-10nm ist Schluss, da dann ein Gate nurnoch einige Atomschichten breit wäre und es verdammt schwierig wird, dass es eine isolierende Wirkung bei einem guten Effizienzgrad bringt. Weniger als 5 Atomschichten Breite ist wohl nicht drin.

@FutureIsNow
1µm = 1000nm
1nm = 1000pm

Raff
2008-08-31, 17:41:42
Nein.

Ein-Wort-Postings demonstrieren zwar Überzeugung und dürfen damit als prägnantes Stilmittel gesehen werden, etwas Erläuterung wäre aber trotzdem nett. :)

Warum denn nicht? Nur weil Intel darin keinen Sinn sieht und deswegen fast nicht auf diesem Gebiet forscht? Immerhin verspricht der Ansatz krasseste Rechenleistung, da man so vom "alles oder nichts", "sein oder nicht sein" oder einfacher "1 oder 0" - dem Binärsystem - wegkäme. Einfach mehrere Zustände gleichzeitig, yay!

MfG,
Raff

FlashBFE
2008-08-31, 18:30:57
Es gibt doch noch den "Crossbar-Latch" als vielgepriesenen Transistor-Nachfolger, der auch wieder ordentliche Taktratensteigerungen versprach?! Aber das hat nun echt nix mehr mit dem Thema zu tun.

Coda
2008-08-31, 18:35:38
Ein-Wort-Postings demonstrieren zwar Überzeugung und dürfen damit als prägnantes Stilmittel gesehen werden, etwas Erläuterung wäre aber trotzdem nett. :)
Hab ich schon öfters gesagt. Es ist einfach nicht möglich normale Algorithmen auf einem Quantencomputer beschleunigt laufen zu lassen. Es laufen extrem spezielle Algorithmen besonders schnell und auch nur die. So einfach wie sich das manche vorstellen ist es einfach nicht.

Zudem braucht man ohne abgeschlossenes Physikstudium mit Spezialisierung auf Quantenzeug nicht damit anfangen das Ding zu programmieren. Sonst kapierst du nämlich überhaupt gar nichts (http://de.wikipedia.org/wiki/Shor-Algorithmus#Quantenteil).

Schöne neue Welt durch Quantencomputer is nich.

Gast
2008-09-01, 04:22:46
Ein Quantencomputer ist undenkbar als Rechnerersatz.
Man wird dennoch verstärkt Quanteneffekte nutzen und die Fertigung effizienter machen. 22nm sind bis 2012 erreichbar, bei 11nm sieht es schon schwieriger aus. Das wird vor 2015 nichts, eher noch später.
Wie, kein Tick Tock mehr im Jahresrhythmus? Mit 32nm ist man bei Intel dem Zeitplan doch sogar voraus wenn ich mich recht erinnere.

Mike11
2008-09-01, 04:47:49
Hab ich schon öfters gesagt. Es ist einfach nicht möglich normale Algorithmen auf einem Quantencomputer beschleunigt laufen zu lassen. Es laufen extrem spezielle Algorithmen besonders schnell und auch nur die. So einfach wie sich das manche vorstellen ist es einfach nicht.

Zudem braucht man ohne abgeschlossenes Physikstudium mit Spezialisierung auf Quantenzeug nicht damit anfangen das Ding zu programmieren. Sonst kapierst du nämlich überhaupt gar nichts (http://de.wikipedia.org/wiki/Shor-Algorithmus#Quantenteil).

Schöne neue Welt durch Quantencomputer is nich.
Hm, soviel ich weiß ist es noch ziemlich offen genau welche Probleme wie effizient von einem Quantencomputer gelöst werden können. Bewiesen ist da noch recht wenig, was ja aber auch nicht ungewöhnlich ist für so ein komplexes und junges Gebiet. Und wenn die sich zumindest als Supercomputer in bestimmten Bereichen durchsetzen dann gibt's dafür auch irgendwann spezielle eigene Ausbildungen von Grund auf (vom ersten Computer bis zum ersten studierten Informatiker hats ja auch eine Weile gedauert). Aber wie auch immer, bis wir Quantencomputer im weit verbreiteten Einsatz sehen werden bauen wir wahrscheinlich schon 5nm 3D-Chips in perfekter Würfelform und assimilieren damit fremde Lebensformen ;)

HOT
2008-09-01, 10:35:25
Wie, kein Tick Tock mehr im Jahresrhythmus? Mit 32nm ist man bei Intel dem Zeitplan doch sogar voraus wenn ich mich recht erinnere.
Das ist eh pures Marketing. Intel wird es sowieso nichtmal schaffen, 32nm in Serie in 2009 zu bringen, wie soll dann der Rest eingehalten werden? Vergiss Tick-Tock, das ist pure Augenwischerei. 22nm ist für 2012/13 angesetzt, 11nm für 2016+. Da kann man Tick-Tock machen sooft man will, daran wird sich wohl kaum etwas ändern. Dazu sind die nächsten Verkleinerungen viel zu aufwändig.

Undertaker
2008-09-01, 12:39:03
Woher hast du denn die offizielle Info, dass 32nm nicht mehr 2009 kommt? Bisher wird das Tick-Tock Modell, sollte der Nehalem wie geplant dieses Jahr launchen, absolut eingehalten, und Infos zu Problemen mit 32nm, die den angekündigten Start nächstes Jahr verhindern könnten, gibt es bisher nicht :) Weiter als 32nm 22nm, angekündigt für 2011, geht das Tick-Tock Modell übrigens gar nicht :)

Mike11
2008-09-01, 13:47:25
Das ist eh pures Marketing. Intel wird es sowieso nichtmal schaffen, 32nm in Serie in 2009 zu bringen, wie soll dann der Rest eingehalten werden? Vergiss Tick-Tock, das ist pure Augenwischerei. 22nm ist für 2012/13 angesetzt, 11nm für 2016+. Da kann man Tick-Tock machen sooft man will, daran wird sich wohl kaum etwas ändern. Dazu sind die nächsten Verkleinerungen viel zu aufwändig.
Also zumindest der 32nm SRAM Test Chip war 4 Monate (September 07) vor dem 45nm dran (Januar 06), relativ gesehen zum 2-Jahres-Rhythmus. Und offiziell heißt es bei Intel auch noch immer 2009 für 32nm, oder gibt es da irgendwelche überzeugende Hinweise die für eine Verschiebung sprechen? Klar das werden wieder nur die teuren High-End Modelle sein, aber Serie ist das trotzdem.

Coda
2008-09-01, 13:53:22
Hm, soviel ich weiß ist es noch ziemlich offen genau welche Probleme wie effizient von einem Quantencomputer gelöst werden können. Bewiesen ist da noch recht wenig, was ja aber auch nicht ungewöhnlich ist für so ein komplexes und junges Gebiet.
Ich kann es dir nicht beweisen, aber ich glaube nicht, dass es möglich ist z.B. einen Dreiecks-Rasterizer als Quantenalgorithmus umzusetzen.

Überhaupt dürfte das sehr wenig sein und man muss jedes Ergebnis immer verifizieren, weil es mit einer bestimmten Wahrscheinlichkeit einfach falsch ist.

Mike11
2008-09-01, 14:38:17
Ich kann es dir nicht beweisen, aber ich glaube nicht, dass es möglich ist z.B. einen Dreiecks-Rasterizer als Quantenalgorithmus umzusetzen.

Überhaupt dürfte das sehr wenig sein und man muss jedes Ergebnis immer verifizieren, weil es mit einer bestimmten Wahrscheinlichkeit einfach falsch ist.
Vielleicht habe ich das falsch in Erinnerung, aber gilt das nicht nur für die meisten aber nicht alle bisher bekannten Algorithmen?

Aber insgesamt stellt sich hier wieder mal das Problem dass wir uns vorstellen (müssen) wie (weit) zukünftige Computer heutige, und in der Zukunft vielleicht obsolete, Aufgaben lösen (z.B. Dreiecks-Rasterizer).

Sorry für off topic.

Coda
2008-09-01, 14:44:10
Vielleicht habe ich das falsch in Erinnerung, aber gilt das nicht nur für die meisten aber nicht alle bisher bekannten Algorithmen?
Ein normaler Rechner macht solange er keinen Defekt hat genau das was du ihm sagst. Ein Quantenrechner macht bei jeder Operation nur zu einer gewissen Wahrscheinlichkeit was du willst.

Aber insgesamt stellt sich hier wieder mal das Problem dass wir uns vorstellen (müssen) wie (weit) zukünftige Computer heutige, und in der Zukunft vielleicht obsolete, Aufgaben lösen (z.B. Dreiecks-Rasterizer).
Das war doch nur ein Beispiel. Das gilt für fast alles. Quantenalgorithmen kann man einfach nur für ganz bestimmte Dinge einsetzen, weil man eben daran gebunden ist, dass die Quantenphysik auch etwas in die Richtung hergibt. Es ist nicht einfach so, dass man alle Additionen von NxM Zahlen auf einmal in einem Quantencomputer berechnen kann weil es dort Superpositionen gibt.

roidal
2008-09-02, 09:32:49
Wäre es mit Carbon-nanotubes möglich in noch kleineren Strukturbreiten zu fertigen?

pt3
2008-09-02, 09:58:37
Ein normaler Rechner macht solange er keinen Defekt hat genau das was du ihm sagst. Ein Quantenrechner macht bei jeder Operation nur zu einer gewissen Wahrscheinlichkeit was du willst.


Das stimmt so nicht. Auch "normale" Rechner basieren ausschließlich auf Wahrscheinlichkeiten.

Gast
2008-09-02, 10:04:41
Zudem braucht man ohne abgeschlossenes Physikstudium mit Spezialisierung auf Quantenzeug nicht damit anfangen das Ding zu programmieren.


Heutzutage braucht man auch kein abgeschlossenes Elektrotechnikstudium um programmieren zu können. Falls sich Quantencomputer irgendwann mal durchsetzen sollten, wird man die imho ganz "normal" programieren können, und ein Compiler wird das dann in "Quantencode" umwandeln können. Der Compiler kann dann auch ruhig auf einen herkömmlichen Rechner laufen.

Zu dem nur mit einer bestimmten Wahrscheinlichkeit richtigen Ergebnis: Eine Berechnung wird bei den heutigen Quantencomputern (ja es gibt schon welche, die imho aus bis zu 16 Qubits bestehen) so oft durchgeführt bis das selbe Ergebnis 2-3 aufgetaucht ist. Bsp.: Ergebnis: 1. 25678(falsch) 2. 3791(richtig) 3. 21399(falsch) 4. 3791(richtig) = 2x 3791, also ist 3791 das richtige Ergebnis. AFAIK liegt die Wahrscheinlichkeit bei Entschlüsselungsalgorithmen (welche momentan das Hauptanwendungsgebiet bei Quantencomputern sind) bei ca 90%.

roidal
2008-09-02, 10:39:22
Das stimmt so nicht. Auch "normale" Rechner basieren ausschließlich auf Wahrscheinlichkeiten.

Das bezweifle ich.

HOT
2008-09-02, 10:39:27
Das ist aber doch ein wenig zu optimistisch. Erstmal muss man begreifen, was das ist, bevor man daraus einen Computer bauen kann. Solange man das "warum" nicht ergründet hat, kann man auch keinen Quantencomputer bauen. Und die Bedienung ist mit heutigen Rechnern ganz sicher nicht vergleichbar.

Coda
2008-09-02, 15:33:22
Das stimmt so nicht. Auch "normale" Rechner basieren ausschließlich auf Wahrscheinlichkeiten.
Hört ihr mir eigentlich zu? Es geht um das Ergebnis der Rechnung. Und das ist bei einem klassischen Rechner immer das gleiche, wenn man nicht übertaktet oder ein Hardwaredefekt vorliegt. Wie die Schaltung dahinter aussieht ist völlig egal.

Heutzutage braucht man auch kein abgeschlossenes Elektrotechnikstudium um programmieren zu können. Falls sich Quantencomputer irgendwann mal durchsetzen sollten, wird man die imho ganz "normal" programieren können, und ein Compiler wird das dann in "Quantencode" umwandeln können. Der Compiler kann dann auch ruhig auf einen herkömmlichen Rechner laufen.
Allerhöchstens als Library. Eine Sprache dafür wäre schon wieder viel zu komplex um sie ohne Quantenphysik verstehen zu können. Das ist nicht orthogonal zur Elektrotechnik in der klassischen Informatik, weil ich die Elektrotechnik nicht verstehen muss, sondern nur die Logik um programmieren zu können. Die Logik bei einem Quantencomputer sind die Effekte die auftreten wenn physikalisch Dinge auf sehr kleinen Maßstäben interagieren, wir haben es dort mit Dingen zu tun die völlig unserer normalen Auffassungsgabe widersprechen.

Man kann auch ein normales Programm nicht durch einen Quantencomputer beschleunigen, außer man ersetzt bestimmte erkannte Rechnungen durch einen Quantenalgorithmus. Das war's dann aber schon.

Zu dem nur mit einer bestimmten Wahrscheinlichkeit richtigen Ergebnis: Eine Berechnung wird bei den heutigen Quantencomputern (ja es gibt schon welche, die imho aus bis zu 16 Qubits bestehen) so oft durchgeführt bis das selbe Ergebnis 2-3 aufgetaucht ist. Bsp.: Ergebnis: 1. 25678(falsch) 2. 3791(richtig) 3. 21399(falsch) 4. 3791(richtig) = 2x 3791, also ist 3791 das richtige Ergebnis. AFAIK liegt die Wahrscheinlichkeit bei Entschlüsselungsalgorithmen (welche momentan das Hauptanwendungsgebiet bei Quantencomputern sind) bei ca 90%.
Es gibt keinen "Entschlüsselungsalgorithmus", es gibt nur Shor der große Zahlen in polynomieller Zeit faktorisieren kann. Der Quantenteil davon hat eine Wahrscheinlichkeit von 50% das richtige auszuspucken.

Und ich sagte doch, dass man das Ergebnis immer verifizieren muss.

HOT
2008-09-02, 17:43:21
Es ist vielen nicht klar, dass die Quatenmechanik nicht den Regeln fer Physik folgt, die wir im Alltag einsetzen und worauf unsere Gehirne quasi "geeicht" sind, ich denke mal, dass das ein Problem ist, weswegen viele gleich mal eben nen Quantencomputer bauen wollen und vor allem das mal eben so bedienen wollen :D. Das Ganze steckt noch dermassen in den Kinderschuhen - man weiss bisher, einige wenige Effekte zu nutzen (z.B. Tunneleffekt), von dem Verständnis von der Welt dahinter, hat bisher noch niemand wirklich Ahnung. Es ist aber auch schwer, weil in dieser Welt eigentlich alles möglich ist und die Regeln so völlig anders und schwer zu erfassen sind. Unser menschliches Vorstellungsvermögen ist auf unseren physikalischen 4-dimensionalen Raum ausgerichtet. Die Quantenmechanik geht darüber hinaus. Es ist mal jemand auf die Idee gekommen, man könnte Quanteneffekte zum Rechnen nutzen, aber weiter sind wir (die Menschheit) damit noch nicht. Mehr als die bloße Idee gibt es bisher nicht bezüglich des Quantencomputers. Das Einzige, was wir nutzen können und was genutzt wird sind Quanteneffekte bei unseren Binärrechnern einzusetzen. Das wird sicherlich die nächsten 50 Jahre bestimmen in der Computertechnik.

Coda
2008-09-02, 18:07:22
Unser menschliches Vorstellungsvermögen ist auf unseren physikalischen 4-dimensionalen Raum ausgerichtet. Die Quantenmechanik geht darüber hinaus.
Ich wüsste nicht wo in der Quantenphysik mit mehr als 4 Dimensionen gerechnet wird.

Es ist mal jemand auf die Idee gekommen, man könnte Quanteneffekte zum Rechnen nutzen, aber weiter sind wir (die Menschheit) damit noch nicht. Mehr als die bloße Idee gibt es bisher nicht bezüglich des Quantencomputers.
Falsch. Es gibt funktionierende Quantencomputer und Algorithmen dafür.

HOT
2008-09-02, 19:02:02
Ich wüsste nicht wo in der Quantenphysik mit mehr als 4 Dimensionen gerechnet wird.
Darum ging es mir ja nicht wirklich. Aber mit unseren normalen physikalischen Normen kommt man da halt nicht weiter. Zudem ist eine Zusammenführung der Quantenmechanik mit der klassischen Physik, z.B. der Stringtheorie sehr wohl Mehrdimensional.

Falsch. Es gibt funktionierende Quantencomputer und Algorithmen dafür.
Richtige, nicht nur theoretische Quantencomputer und keine Binärrechner? Wo denn? ;)

Dalai-lamer
2008-09-02, 19:23:58
Ich musste mal einen Vortrag über Quantencomputer halten.
Und bin dann leider auch zu dem Schluss gekommen, dass es wirklich nicht das ist, wo farcry 5 mit laufen wird ^^

Das ist einfach so komplex, und je weiter man sich damit beschäftigt desto komplizierter wird es.

wie ging der Spruch:" Jetzt weiß ich, das ich nichts weiß" ^^

Quantencomputer sind schon interessant, aber die berechnungen die diese ausführen sind so speziell.

Vielleicht gehts auch irgendwann gar nciht mehr groß weiter. Es gibt viele Gebiete wo physikalisch einfach Schluß ist. Ich hoffe aber, dass es noch möglich wird fotorealistische Spiele hinzubekommen. Wozu danach noch mehr Rechenleistung ^^

Coda
2008-09-02, 19:42:18
Richtige, nicht nur theoretische Quantencomputer und keine Binärrechner? Wo denn? ;)
http://domino.research.ibm.com/comm/pr.nsf/pages/news.20011219_quantum.html

2001. Heute gibt es schon Quantencomputer mit mindestens 8 Quibits. Und zwar nicht nur einen, sondern viele aufbauend auf verschieden Methoden einen Quantenzustand zu erreichen.

Kriton
2008-09-02, 20:53:17
War falsch.

pt3
2008-09-02, 21:08:03
Hört ihr mir eigentlich zu? Es geht um das Ergebnis der Rechnung. Und das ist bei einem klassischen Rechner immer das gleiche, wenn man nicht übertaktet oder ein Hardwaredefekt vorliegt. Wie die Schaltung dahinter aussieht ist völlig egal.

Wenn die Schaltung nur mit Wahrscheinlichkeiten funktioniert, kann auch nur das Ergebnis mit einer bestimmten Wahrscheinlichkeit richtig berechnet worden sein.
Deshalb gibt es ja z.B. auch ECC-Speicher dieser verringert die Möglichkeit einer Falschberechnung nochmals. Bei Digitalen Rechnern hat man halt die Möglichkeit, die Wahrscheinlichkeit für eine Falschberechnung fast beliebig klein zu wählen (z.B. durch wiederholtes Berechnen) aber auf ein mit 100% Wahrscheinlichkeit richtiges Ergebnis kann man mit (heutigen) Rechnern nicht kommen.

Einfaches Beispiel: Jeder hier hat schon einmal eine fehlerhafte Datei herruntergeladen, welche sich durch erneutes Herunterladen 'reparieren' lies. Dies kommt idR bei großen Übertragungswegen häufiger vor. Aber auch bei kleinen Übertragungswegen von Arbeitsspeicher zu Prozessor oder innerhalb des Prozessors können diese Übertragungsfehler auftreten. Diese Fehler werden idR durch Fehlerkorrekturen erkannt und behoben, aber eben nicht mit 100% Sicherheit, sondern nur mit bestimmter Wahrscheinlichkeit.

Gast
2008-09-02, 21:14:33
2001. Heute gibt es schon Quantencomputer mit mindestens 8 Quibits.

Was ist denn daraus geworden? http://www.heise.de/newsticker/meldung/85299
Ist die Betriebstemperatur immer so ungünstig?:)

Aquaschaf
2008-09-02, 21:14:54
Wenn die Schaltung nur mit Wahrscheinlichkeiten funktioniert, kann auch nur das Ergebnis mit einer bestimmten Wahrscheinlichkeit richtig berechnet worden sein.

Es ist doch prinzipiell etwas völlig anderes wenn alle paar Billiarden Zyklen vielleicht eine fehlerhafte Schaltung passiert, als wenn jede Berechnung genauso wahrscheinlich korrekt wie falsch ist.

pt3
2008-09-02, 21:22:52
Es ist doch prinzipiell etwas völlig anderes wenn alle paar Billiarden Zyklen vielleicht eine fehlerhafte Schaltung passiert, als wenn jede Berechnung genauso wahrscheinlich korrekt wie falsch ist.

Das ist richtig. Ist die Berechnung aber nur zu 49% falsch und zu 51% richtig, kann ich dir eine zu 99,999% richtige Berechnung daraus machen.

Coda
2008-09-02, 21:39:51
Natürlich, aber bei einem normalen Rechner muss man nicht immer verifizieren, weil es nicht (*) vorkommt. Genauer gesagt tut das niemand. Es liegt in der Natur der quantenmenchanischen Vorgänge, dass immer Zufall im Spiel ist. Das hast du bei klassischer Arithmetik einfach nicht, egal wie du es hindrehst.

(*) Die Fehler durch kosmische Strahlung usw. kann man wirklich vernachlässigen. Es sind hier völlig andere Maßstäbe.

Einfaches Beispiel: Jeder hier hat schon einmal eine fehlerhafte Datei herruntergeladen, welche sich durch erneutes Herunterladen 'reparieren' lies. Dies kommt idR bei großen Übertragungswegen häufiger vor. Aber auch bei kleinen Übertragungswegen von Arbeitsspeicher zu Prozessor oder innerhalb des Prozessors können diese Übertragungsfehler auftreten. Diese Fehler werden idR durch Fehlerkorrekturen erkannt und behoben, aber eben nicht mit 100% Sicherheit, sondern nur mit bestimmter Wahrscheinlichkeit.
Das sind Probleme mit Übertragungsmedium, nicht am Prozessor. Wenn dein Prozessor einen Fehler im Kernelmode macht hast du zu 99% einen Bluescreen. Es passiert bei weitem nicht so oft wie du dir das vorstellst, sonst wären Rechner viel viel instabiler. Es dürfte so ungefähr bei 2-3 Fehlern pro Jahr liegen. Wenn überhaupt.

pt3
2008-09-02, 22:13:30
Es dürfte so ungefähr bei 2-3 Fehlern pro Jahr liegen. Wenn überhaupt.

Diese Zahl würde ich so durchaus unterschreiben wollen.

Das Beispiel mit dem Rauschen ist vielleicht wirklich kein besonders gutes. Aber auch atomar gesehen basieren Computer ja auf Wahrscheinlichkeiten (unabhängig vom Rauschen).
So berechnet sich z.B. die Verteilung der Elektronen im Halbleiter rein über Wahrscheinlichkeiten (Fermi-Verteilungsfunktion).

Und wie gesagt auch wenn eine Berechnung nur zu 51% richtig ist, kann ich trotzdem auf 2-3 Fehler pro Jahr kommen, wenn ich das Ergebnis nur oft genug verifiziere. Und wenn der Rechner um einen Faktor schneller ist, der größer ist als der Faktor, wie oft ich das Ergebnis überprüfen muss, ist der Rechner ja trotzdem schneller.

Und auch jeder aktuell 'normale' Rechner arbeitet mehrfachst mit Fehlerkorrekturen um überhaupt auf diese 2-3 Fehler pro Jahr zu kommen.

Spasstiger
2008-09-02, 22:53:28
Und das dürfte doch bald erreicht werden. Heisst also auch, man wird den Takt nie mehr großartig steigern können und die Zukunft liegt deshalb in Multicore. Aber so neu ist das ja nicht.
Um immer mehr Kerne auf gegebener Chipfläche unterzubringen, braucht man auch immer kleinere Strukturen. Multicore ist eine gute Option, gerade weil die Strukturbreiten immer weiter schrumpfen.

Coda
2008-09-02, 23:00:52
Diese Zahl würde ich so durchaus unterschreiben wollen.

Das Beispiel mit dem Rauschen ist vielleicht wirklich kein besonders gutes. Aber auch atomar gesehen basieren Computer ja auf Wahrscheinlichkeiten (unabhängig vom Rauschen).
So berechnet sich z.B. die Verteilung der Elektronen im Halbleiter rein über Wahrscheinlichkeiten (Fermi-Verteilungsfunktion).

Und wie gesagt auch wenn eine Berechnung nur zu 51% richtig ist, kann ich trotzdem auf 2-3 Fehler pro Jahr kommen, wenn ich das Ergebnis nur oft genug verifiziere. Und wenn der Rechner um einen Faktor schneller ist, der größer ist als der Faktor, wie oft ich das Ergebnis überprüfen muss, ist der Rechner ja trotzdem schneller.

Und auch jeder aktuell 'normale' Rechner arbeitet mehrfachst mit Fehlerkorrekturen um überhaupt auf diese 2-3 Fehler pro Jahr zu kommen.
*seufz*

Du kapierst es wohl einfach nicht. Wenn ich eine Addiererschaltung aus TTL-Logik baue, dann wird die nie falsche Ergebnisse liefern wenn sie nicht defekt ist. So viel kosmische Strahlung gibt es gar nicht.

Eine Quantenoperation wird auch in den bestmöglichen Fällen immer nur mit einer bestimmten Wahrscheinlichkeit korrekt sein. Das ist kein Fehler in der Schaltung, das ist die Natur der Sache. Es muss grundsätzlich immer überprüft werden ob etwas richtig gerechnet wird, das macht bei klassischen Programmen keiner.

Und nein, so viel Fehlerkorrektur wie du dir es vorstellst gibt es auch nicht. Vor allem nicht in Desktop-CPUs. Da wird nichtmal der Speicher überprüft und der Cache sowieso nicht. Das gibt's nur bei Power- oder SPARC-CPUs.

Es ist mir schon klar, dass z.B. der Faktorisierungsalgorithmus von Shor auch mit dieser Eigenschaft immer noch deutlich schneller ist. Ich wollte nur ausdrücken, dass die Quantenrechnerei von vornherein sehr komplex ist. Ein Hello-World-Programm kann jeder Idiot programmieren wenn er ein Tutorial gelesen hat, um einen Quantenalgorithmus programmieren zu können braucht er mindestens höhere Mathematik.

roidal
2008-09-03, 10:37:29
Wenn die Schaltung nur mit Wahrscheinlichkeiten funktioniert, kann auch nur das Ergebnis mit einer bestimmten Wahrscheinlichkeit richtig berechnet worden sein.
Deshalb gibt es ja z.B. auch ECC-Speicher dieser verringert die Möglichkeit einer Falschberechnung nochmals. Bei Digitalen Rechnern hat man halt die Möglichkeit, die Wahrscheinlichkeit für eine Falschberechnung fast beliebig klein zu wählen (z.B. durch wiederholtes Berechnen) aber auf ein mit 100% Wahrscheinlichkeit richtiges Ergebnis kann man mit (heutigen) Rechnern nicht kommen.

Einfaches Beispiel: Jeder hier hat schon einmal eine fehlerhafte Datei herruntergeladen, welche sich durch erneutes Herunterladen 'reparieren' lies. Dies kommt idR bei großen Übertragungswegen häufiger vor. Aber auch bei kleinen Übertragungswegen von Arbeitsspeicher zu Prozessor oder innerhalb des Prozessors können diese Übertragungsfehler auftreten. Diese Fehler werden idR durch Fehlerkorrekturen erkannt und behoben, aber eben nicht mit 100% Sicherheit, sondern nur mit bestimmter Wahrscheinlichkeit.
Kann mir jemand sagen wo eine Schaltung bei einem PC nur mit einer bestimmten Wahrscheinlichkeit funktioniert? Transistoren werden doch auf bestimmte Werte (Spannungen bei denen sie schalten) hingetrimmt, und sofern man diese Werte einhält und der Transistor nicht defekt ist wird er dann auch zu 100% durchschalten?! Die Fehler die du meinst sind störungen von außen (Elektromagnetische Strahlung usw.) welche mit der Schaltung selbst nichts zu tun haben?!

Coda
2008-09-03, 16:14:33
Kann mir jemand sagen wo eine Schaltung bei einem PC nur mit einer bestimmten Wahrscheinlichkeit funktioniert?
Nein. Ich vermute auch dass er da eine falsche Vorstellung davon hat. Es gibt zwar Produktionsschwankungen, aber die Toleranzen sind groß genug gewählt um einen störungsfreien Betrieb unter praktisch allen Bedingungen sicherzustellen.

Actionhank
2008-09-03, 16:28:20
Der Punkt ist einfach, dass es keinen absoluten Determinismus gibt. Somit hat
pt3 grundsätzlich recht, über die Größenordnung läßt sich sicherlich streiten.

Kriton
2008-09-03, 16:43:36
Der Punkt ist einfach, dass es keinen absoluten Determinismus gibt.

Über diesen Punkt könnten wir vermutlich tagelang diskutieren, aber um da nicht zu sehr abzuschweifen möchte ich nur meine abweichende Meinung zu Protokoll geben ;-)

Gast
2008-09-04, 16:33:29
Und dann? Lichtwellenleiter?
3D-Strukturen oder gar nichts.

das würde mich mehr intressieren, als diese Quantencomputer-Diskussion


was ist an 3D-Strukturen besser, als wenn man mehrere Chips übereinander/nebeneinander packt?

Coda
2008-09-04, 16:47:01
Über diesen Punkt könnten wir vermutlich tagelang diskutieren, aber um da nicht zu sehr abzuschweifen möchte ich nur meine abweichende Meinung zu Protokoll geben ;-)
Die Matrizenmechanik ist absolut gleichwertig zu den schrödinger Gleichungen und genausowenig deterministisch.

Das kann auch überhaupt nicht sein, da in der Physik z.B. noch niemand den Zerfall von Atomen vorhersagen konnte und es damit gar keine Basis für eine deterministische Theorie gibt.

Kriton
2008-09-04, 17:45:55
Die Matrizenmechanik ist absolut gleichwertig zu den schrödinger Gleichungen und genausowenig deterministisch.


Hast recht - da habe ich was falsch verstanden, möglicherweise auch mit Bohmscher Mechanik durcheinander gebracht - muss ich mir noch mal ansehen.

pest
2008-09-04, 17:58:20
über die Größenordnung läßt sich sicherlich streiten.

ob etwas zu 50% oder zu 99.9% "out of the box" funktioniert ist ein großer Unterschied, bei ähnlicher Größenordnung :D

SavageX
2008-09-04, 19:50:19
Ich glaube hier geraten Ansichten aneinander, weil geredet wird, dass Fehler passieren (richtig) - aber nicht, wo diese Fehler veranlagt sind.

*Klassische Algorithmen* produzieren bei gleichen Eingaben immer dasselbe, "richtige" Ergebnis.

Die Maschinen, die diese Algorithmen umsetzen sollen, können aber schonmal Fehlfunktionen haben (ionisierendes Teilchen rauscht rein und Bit kippt um, thermisches Rauschen verfälscht Signal etc. etc.). Die "Theorie" des "eigentlichen Vorgangs" ist an sich aber nicht mit Fehlern behaftet - doch Shit happens (selten), wenn es um die Durchführung in der Praxis geht.


Bei Quantencomputern werden Zustände quantenmechanisch verschränkt und durchgeknetet, am Ende kollabiert eine Wellenfunktion auf ein Ergebnis (Messung). Der "Quantenalgorithmus" sorgt dafür, dass die Wahrscheinlichkeit, dass die Wellenfunktion auf "das richtige Ergebnis" kollabiert, maximal wird. Es bleibt eine Restwahrscheinlichkeit, dass nicht das gewünschte Ergebnis zustande kommt. Die Unsicherheit liegt somit schon im Prinzip, nicht in der technischen Realisierung ("jemand in der Chipfabrik hat gefurzt, die Schaltung ist wackelig und raucht vielleicht später ganz ab").

Gast
2008-09-07, 20:48:03
1.) Eine CPU rechnet, solange sie richtig funktionier immer richtig, genauso wie ein RAM, Cache oder eine Verbindung innerhalb des Rechners. Die möglichen Fehlerquoten, die nicht durch designbedingte Bugs auftreten sind so gering, dass man sie vernachlässigen kann. Genauso gut ist es zu einer Möglichkeit von 1:10^10000000000 Möglich, dass der Rechner, der am Boden steht auf einmal ohne jede Krafteinwirkung auf dem Fenster fliegt, weil sich gerade alle Atome unter ihm zufällig in die selbe Richtung bewegt haben, aber das interessiert auch kein Schwein.

2.) Der Grund, warum es Fehlerkorrektur innerhalb eines Rechners gibt ist, weil zu einem gewissen Prozentsatz eine Komponente nur teilweise defekt ist und die Spezifikationen nicht mehr immer einhält. Da ist bei einem Großrechner möglicherweise 1 RAM ein bisschen defekt und liefert bei einer sehr ungünstigen Kombination an Spannungen einen Fehler, der dann korrigiert werden kann.

3.) Der fehlerhafte Dateien ist entweder ein instabiler Rechner, ein mechanisches Problem mit der Festplatte oder ein Softwareproblem z.B. der Schreibcache wird nicht vollständig auf die Platte geschrieben, bevor der Rechner abstürzt.

4.) Fehler im Netzwerk sind in der heutigen Zeit da, weil sie absichtlich in Kauf genommen werden. Ein Router, der am Gigabit LAN Unmengen an Daten auf einmal bekommt, aber nur über die 1mbit Leitung senden kann, wird irgendwann anfangen einzelne Pakete zu verwerfen, die PCs stellen das fest und verlangsamen den Datentransfer. Man könnte auch Fehlermeldungen generieren wie "Buffer ist fast voll", aber man hat sich eben aus gewissen Gründen dafür entschieden, die Pakete einfach zu verwerfen. Genauso wird beim WLAN einfach gesendet auf gut Glück, obwohl trotz einiger Vorkehrungen man nicht 100% sicher sein kann, dass nicht jemand anders auch sendet. Hier wird einfach ein fehlerhaftes Paket korrigiert. Im Internet können auch durch temporäre Kapazitätsengpässe Pakete zu spät ankommen oder gar nicht. Bei normalen Netzwerkkabeln gibt es auch oft den Fall, dass ein Kabel einfach zu schlecht ist, die Dose nicht nach den Spezifikationen verbaut wurde usw. und es deshalb zu Fehlern kommt. Die Fehlererkennung dient einfach nur dazu, dass man hier keine fehlerhaften Daten verschickt, sondern einen Gang zurückschaltet (z.B. 100Mbit/s), wenn bei 1Gbit/s bei einer ungünstigen Kombination die Daten nicht mehr richtig ankommen. Das wird jedoch auch alles absichtlich in Kauf genommen. Notwendig wäre es jedoch nicht, wenn man alle Kabeln sauber verlegt, nicht zu lange macht usw.

5.) Die Logik bei Quantencomputern mag zwar komplizierter sein und nicht der klassischen Physik entsprechen, aber wer hat vor 50 Jahren schon gewusst, was ein Event, eine Klasse, eine Funktion usw. ist, von Primärschlüsseln, Beziehungen zwischen Tabellen etc. ganz zu schweigen. Das muss man auch lernen. Genauso werden die Programmierer am Quantencomputer die möglichen Algorithmen kennen müssen, aber nicht die physikalischen Vorgänge an sich. Es ist nur wichtig, was sind die Eingabedaten, was bekomme ich heraus und vielleicht noch wie lange dauert es, obwohl das heute auch schon den meisten Leuten egal ist (es gibt viele Leute, die glauben nur, sie könnten programmieren).

6.) Dass das Ergebnis nur zu 50% richtig ist, liegt nicht daran, dass die Quantenrechner vom Prinzip her nicht exakt funktionieren, sondern dass da einfach Effekte auftreten, die wir noch nicht erforscht haben. Wenn ich mit einem Metallstab in die Steckdose rein fahre, reißt es mich auch nur jedes zweite Mal. Das liegt aber auch nicht daran, dass der Strom so böse zufällig ist, sondern dass einfach eine Seite der Neutralleiter ist und eine Seite die Phase. Solange man aber selbst alles einfach irgendwie verkabelt, weil man sich nicht auskennt und jede Steckdose anders ist, wird man hier nie ein Muster finden können.

7.) Das 2 Jahres Modell hat bisher immer halbwegs gepasst und das wird es auch die nächsten Jahre weiter geben. Das war schon immer so und schon immer haben die Hersteller gemeint, dass sie schneller sein und immer haben sie länger gebraucht. Die ersten Penryns in der Masse gab es im 2. Quartal 2008 und genauso wird man von den Nehalems nicht viel sehen vor dem 2. Quartal, auch wenn Intel noch so viel von Oktober redet. 32nm wird es auch erst im Frühling 2010 geben, 22nm 2012 und 11nm werden wenn es so weiter geht irgendwann 2016 am Plan stehen. Alles, was früher ist, ist unrealistisch.

8.) 3D Fertigung wäre der einzige Ansatz, der mittelfristig (20-30 Jahre) etwas bringen würde. Das Problem ist hier einfach das Herstellungsverfahren. Rein physikalisch gesehen wäre es kein unlösbares Problem einfach 1K Schichten übereinander zu packen. Das Problem ist, dass dann auch 1K Mal eine Maske drauf gebrannt werden muss, was einfach 100 Mal so viel kostet, wie wenn man das nur 10 mal hintereinander macht (heutige CPUs haben auch mehrere Layer). Hier müsste man sich ein Verfahren einfallen lassen, wie man die komplexen Bahnen im Inneren des Chips herstellen kann, ohne direkten Zugriff darauf zu haben.

9.) Das denke ich einmal größte Problem, das schon momentan besteht wird sein, dass man Programme parallel ablaufen lässt, ohne dass der Programmierer selbst eingreifen muss, da der Takt nur mehr sehr langsam gesteigert werden kann. Von mehreren Kernen oder sogar Grafikkarten als Rechenkern (z.B. CUDA) profitieren nur einige wenige Anwendungen, wo sehr viel Zeit in die Performance gelegt wird. Bei normalen 0815 Programmen wie diversen Office Produkten, Browsern, diversen Desktop Tools usw. ist hier von einer Dual Core Optimierung noch absolut keine Spur, von Individualsoftware einmal ganz zu schweigen.

Coda
2008-09-07, 20:49:49
6.) Dass das Ergebnis nur zu 50% richtig ist, liegt nicht daran, dass die Quantenrechner vom Prinzip her nicht exakt funktionieren, sondern dass da einfach Effekte auftreten, die wir noch nicht erforscht haben.
Das ist ganz einfach falsch. Die Quantenphysik beschreibt sehr exakt das was wir sehen.

Kriton
2008-09-07, 21:29:47
Er sagt ja nicht, dass dass die Quantenphysik nicht vereinbar wäre mit unseren Beobachtungen, nur, dass die Wahrscheinlichkeiten, die derzeit berechnet werden auf mangelndem Wissensstand beruhen und letztlich deterministischen Ergebnissen weichen müssen, wenn dieser Wissensmangel nicht mehr besteht.
Ob dies so ist kann man letztlich nicht beantworten - oder wie es Feynman formuliert hat:

„Ich denke, man kann mit Sicherheit sagen, dass niemand Quantenmechanik versteht."

Lokadamus
2008-09-07, 21:34:39
Wenn die Schaltung nur mit Wahrscheinlichkeiten funktioniert, kann auch nur das Ergebnis mit einer bestimmten Wahrscheinlichkeit richtig berechnet worden sein.
Deshalb gibt es ja z.B. auch ECC-Speicher dieser verringert die Möglichkeit einer Falschberechnung nochmals.

Einfaches Beispiel: Jeder hier hat schon einmal eine fehlerhafte Datei herruntergeladenmmm...

Ich kann mich ja irren, aber bei mir rechnet nur die CPU, mehr nicht. Ram und Co. dienen nur zum Transport und Speichern der von der CPU berechneten Werte. ECC hat in diesem Sinne keine Bedeutung, da es nicht an der Berechnung teil nimmt, sondern sicher stellen soll, dass die Daten fehlerfrei transportiert werden. Dadurch entfällt auch das einfache Beispiel, es hat nichts mit dem Berechnen eines Algorithmus zu tun, sondern mit dem Transport von Daten.

Der große Unterschied zwischen CPU und Quantenhaufen ist, dass die CPU digital arbeitet, während der Quantenhaufen in diesem Sinne analog (nicht wirklich analog!) arbeitet. Zumindest hab ich es so verstanden (CPU = 0 und 1, Quantenhaufen = 0 - keine Ahnung).

Edit: Hier wird erklärt, wie ein Quantencomputer funktionieren soll http://www.mbezold.de/quantencomputer/anwendungen.html#densecoding

Coda
2008-09-07, 21:38:46
Er sagt ja nicht, dass dass die Quantenphysik nicht vereinbar wäre mit unseren Beobachtungen, nur, dass die Wahrscheinlichkeiten, die derzeit berechnet werden auf mangelndem Wissensstand beruhen und letztlich deterministischen Ergebnissen weichen müssen, wenn dieser Wissensmangel nicht mehr besteht.
Das ist aufgrund der Faktenlage nur sehr sehr unwahrscheinlich. Selbst wenn es so wäre hätten wir keine Möglichkeit an die benötigten Daten zu bekommen weil genaue Messungen im Quantenbereich nicht möglich sind bzw. sofort das Ergebnis verändern.

ESAD
2008-09-07, 22:20:32
4.) Fehler im Netzwerk sind in der heutigen Zeit da, weil sie absichtlich in Kauf genommen werden. Ein Router, der am Gigabit LAN Unmengen an Daten auf einmal bekommt, aber nur über die 1mbit Leitung senden kann, wird irgendwann anfangen einzelne Pakete zu verwerfen, die PCs stellen das fest und verlangsamen den Datentransfer. Man könnte auch Fehlermeldungen generieren wie "Buffer ist fast voll", aber man hat sich eben aus gewissen Gründen dafür entschieden, die Pakete einfach zu verwerfen. Genauso wird beim WLAN einfach gesendet auf gut Glück, obwohl trotz einiger Vorkehrungen man nicht 100% sicher sein kann, dass nicht jemand anders auch sendet. Hier wird einfach ein fehlerhaftes Paket korrigiert. Im Internet können auch durch temporäre Kapazitätsengpässe Pakete zu spät ankommen oder gar nicht. Bei normalen Netzwerkkabeln gibt es auch oft den Fall, dass ein Kabel einfach zu schlecht ist, die Dose nicht nach den Spezifikationen verbaut wurde usw. und es deshalb zu Fehlern kommt. Die Fehlererkennung dient einfach nur dazu, dass man hier keine fehlerhaften Daten verschickt, sondern einen Gang zurückschaltet (z.B. 100Mbit/s), wenn bei 1Gbit/s bei einer ungünstigen Kombination die Daten nicht mehr richtig ankommen. Das wird jedoch auch alles absichtlich in Kauf genommen. Notwendig wäre es jedoch nicht, wenn man alle Kabeln sauber verlegt, nicht zu lange macht usw.



hier liegt du leider falsch. methoden und funktionen zu flusssteuerung sind schon lange implimentiert. und ja es gibt auch deinen buffer ist voll befehl.
auch für funkt gibt es systeme die eine 100% ige "freiheit" des mediums garantieren können
fehlerhafte pakete werden in der regel nicht korriegiert sondern noch einmal angefordert. fehler werden durch prüfsummen erkannt. nicht übertragenen pakete durch einer durchgehenden nummerierung und ack pakete
das zurückschalten der übertragungsgeschwindigkeit hat auch mit der oben genannten flusssteuerung zu tun.
und neine es gibt nicht DAS internet. um das system am laufen zu halten greift viel ineinander.

wie das alles funktioniert hängt in der regel von der implimentiertung der OSI schichten ab. ist alles variabel

Gast
2008-09-07, 23:09:38
Ein Quantencomputer funktioniert nicht mit Wahrscheinlichkeiten, sondern arbeitet ebenfalls theoretisch rein deterministisch.

Das Problem an der Sache ist nur, dass jeder äußere Einfluß die Information vernichtet und somit eine Fehlerkorrektur nötig ist. Nicht nur die Messung verändert einen Quantenzustand!
So genaue Aussagen macht die Quantenphysik keinesfalls, da es immernoch viele Unwägbarkeiten gibt und die technische Umsetzung extrem aufwändig bis unmöglich ist. Je kleiner die Strukturen werden, desto schwieriger wird es auch, irgendetwas mit Mathematik zu beschreiben.
In der Quantenphysik macht man sich diverse makroskopisch nachvollziehbare Effekte zunutze, ohne deren Entstehung vollends nachvollziehen zu können. Man spielt also mit einer Sache, die man nicht versteht und als Mensch mathematisch auch niemals 100%ig erfassen können wird.

Am besten stellt man sich einen Quantenrechner als eine Art hochsensibles Räderwerk vor, vergleichbar mit den simpelsten Ausführungseinheiten heutiger Chips, allerdings unendlich komplex miteinander verschränkt und ein ganzes Stück beweglicher.

Coda
2008-09-07, 23:12:02
Ein Quantencomputer funktioniert nicht mit Wahrscheinlichkeiten, sondern arbeitet ebenfalls theoretisch rein deterministisch.
Nein tut er nicht.

Bei jeder Messung gibt es Wahrscheinlichkeiten, das hat nichts mit äußeren Einflüssen zu tun.

Gast
2008-09-07, 23:22:29
Nein tut er nicht.

Bei jeder Messung gibt es Wahrscheinlichkeiten, das hat nichts mit äußeren Einflüssen zu tun.


Es tut mir leid, das sagen zu müssen, aber du darfst dich in das Heer derer einordnen, die die Funktionsweise eines Quantenrechners nicht verstehen:(

Natürlich kann man praktisch nur mit Wahrscheinlichkeiten arbeiten. Man muss aber zwischen Theorie und Praxis unterscheiden können!
Vermengt man beides, zeugt dies von Unverständnis gegenüber der Materie.

Um die Fehleranfälligkeit durch äußere (oder innere) Einflüsse zu vermindern, muss man den Rückschritt in einen makroskopischen Bereich (Fehlerkorrektur) machen, um wieder an vorhersagbare bzw. valide Informationen zu kommen.

Coda
2008-09-07, 23:28:30
Es tut mir leid, das sagen zu müssen, aber du darfst dich in das Heer derer einordnen, die die Funktionsweise eines Quantenrechners nicht verstehen:(
Ich denke du hast vielmehr Probleme damit.

http://de.wikipedia.org/wiki/Shor-Algorithmus#Quantenteil
Auch in der theoretischen Betrachtung hast du dort Wahrscheinlichkeiten, das hat mit äußeren Effekten NICHTS zu tun. Das wird immer passieren, weil es zufällig ist wie die Wellenfunktion bei einer Messung kollabiert.

Gast
2008-09-07, 23:34:04
Es tut mir leid, das sagen zu müssen, aber du darfst dich in das Heer derer einordnen, die die Funktionsweise eines Quantenrechners nicht verstehen:(
Und du verstehst sie?
Disqualifiziert!

Gast
2008-09-07, 23:35:55
http://de.wikipedia.org/wiki/Shor-Algorithmus#Quantenteil
Auch in der theoretischen Betrachtung hast du dort Wahrscheinlichkeiten, das hat mit äußeren Effekten NICHTS zu tun.

Und wo ist jetzt die theoretische Betrachtung? Das ist bereits eine praktische mathematische Anwendung, die du da verlinkt hast und hat nur sekundär etwas mit der grundlegenden praktischen Funktionsweise zu tun.

Ich denke, wir reden aneinander vorbei.

Der Teufel bzw der grundlegende Fehler steckt bei Anwendungen der Quantenmechanik immer im Detail. Das interessiert den Anwender/Programmierer nicht, den Entwickler solcher Systeme allerdings schon;)

Bist du zufällig Mathematiker?

Coda
2008-09-07, 23:42:28
Und wo ist jetzt die theoretische Betrachtung? Das ist bereits eine praktische mathematische Anwendung, die du da verlinkt hast und hat nur sekundär etwas mit der grundlegenden praktischen Funktionsweise zu tun.
Es reicht, wenn ich dir an einem Algorithmusbeispiel zeige, dass es an einer Stelle Wahrscheinlichkeiten gibt um deinen Determinismus zu widerlegen.

Diese Wahrscheinlichkeiten kommen nicht von einem "mathematischen Modell", sondern sind real zu beobachten und haben nichts mit dem Versuchsaufbau zu tun, sondern sind bei Superpositionen immer reproduzierbar.

Ich denke, wir reden aneinander vorbei.
Nein. Ich denke nicht. Du behauptest hier unhaltbare Dinge. Quantenphysik ist nicht deterministisch und wird es auch nie sein.

Bist du zufällig Mathematiker?
Ich habe zumindest ein Grundstudium in höherer Mathematik und brauche es häufig.

Gast
2008-09-08, 00:00:49
Diese Wahrscheinlichkeiten kommen nicht von einem "mathematischen Modell", sondern sind real zu beobachten und haben nichts mit dem Versuchsaufbau zu tun, sondern sind bei Superpositionen immer reproduzierbar.


Reproduzierbar in der Praxis? Ich wußte doch, dass du ein Praktiker bist:)
Superpositionen haben in der Theorie eine recht unromantische mögliche Erklärung...Stichwort Billard
Mathematik ist bereits die praktische Anwendung physikalischer Erkenntnisse. Hier in diesem Bereich ist es nur unglaublich schwer, harte Fakten und Konstanten zu deklarieren bzw einzuhalten, weshalb man eben einen gewissen Fehler in die Berechnung mit einbezieht.
Und nochmal, dein Algo bezieht bereits den unausweichlichen aber minimierbaren Fehler in der praktischen Anwendung mit ein.

Nein. Ich denke nicht. Du behauptest hier unhaltbare Dinge. Quantenphysik ist nicht deterministisch und wird es auch nie sein.

Nunja, ich gestehe jedem einen Glauben zu, kein Problem. Allerdings könntest du Recht haben, da das System so unendlich komplex ist, dass wir es wohl niemals vollständig durchblicken können.
Insofern und unter dem Gesichtspunkt der Anwendung verschränkter Quanten als Rechenwerk kann ich deinen Ausführungen nur zustimmen.


Den anderen Gast ignorier ich jetzt mal. Ein Zweizeiler bringt weder mir, noch sonstwem irgendetwas und dient nur der Provokation.

Coda
2008-09-08, 00:04:20
Und nochmal, dein Algo bezieht bereits den unausweichlichen aber minimierbaren Fehler in der praktischen Anwendung mit ein.
Das weiß ich und meine ich.

Nunja, ich gestehe jedem einen Glauben zu, kein Problem. Allerdings könntest du Recht haben, da das System so unendlich komplex ist, dass wir es wohl niemals vollständig durchblicken können.
Selbst wenn es einen inherenten Determinusmus geben sollte in quantenphysikalischen Maßstäben werden wir nie an die dazu nötigen Daten kommen. Deshalb ist diese philosophische Diskussion hier total fehl am Platz.

In der Physik lässt sich natürlich nie etwas beweisen. Das sollte klar sein.

Gast
2008-09-08, 00:21:32
Deshalb ist diese philosophische Diskussion hier total fehl am Platz.

Hm, nicht unbedingt. Mit immer kleiner werdenden Strukturen, gewinnen auch solche Überlegungen an Bedeutung. Es steht dann in Frage, ob ein solch hochintegrierter und miniaturisierter Schaltkreis überhaupt noch vorhersehbar arbeiten wird. Daher würde ich die Frage nicht gleich als philosophisch abstempeln;)

In der Physik lässt sich natürlich nie etwas beweisen. Das sollte klar sein.

Klar lässt sich etwas physikalisch beweisen. Die Komplexizität steigt allerdings bis ins Unendliche, je kleiner die Strukturen sind, die wir mathematisch oder physikalisch betrachten. Der "Butterfly Effect" gewinnt zunehmend an Wichtigkeit.
Aber ja, nichts ist absolut, außer die Mathematik;)

Coda
2008-09-08, 00:42:57
Hm, nicht unbedingt. Mit immer kleiner werdenden Strukturen, gewinnen auch solche Überlegungen an Bedeutung. Es steht dann in Frage, ob ein solch hochintegrierter und miniaturisierter Schaltkreis überhaupt noch vorhersehbar arbeiten wird. Daher würde ich die Frage nicht gleich als philosophisch abstempeln;)
Die Frage ob Quantenphysik evtl. irgendwie deterministisch ist, ist philosophisch, weil es praktisch zufällig ist.

pest
2008-09-08, 09:14:31
Aber ja, nichts ist absolut, außer die Mathematik;)

Nicht wirklich, jedes noch so komplexe mathematische System besitzt unentscheidbare Aussagen

ein Beweis beweist per se Nichts, da die Sache die wir beweisen auch ohne Beweis existiert. Er dient "nur" dazu durch Formalisierung Anderen die eigenen Schlussfolgerungen nahezubringen.

Krischi
2008-09-08, 14:53:41
Quatenphysikalische sind (noch) nicht hunderprozentig durcherforscht.
Denn wie sollte das auch gehen... schon mein Physikleerer sagte, je genauer die Messung, desto größer der Energieaufwand dafür.
Und wir wissen auch, dass wir von einem Elektron, das unbestreibtar quantenmechanische Eigenschaften hat, ENTWEDER wissen, wo es ist, aber nicht, wie schnell, ODER ABER wie schnell es ist, aber nicht wo.
Weiter wissen wir auch, dass JEDE Messung das zu "messende" System beeinflußt, sie die Beeinflussung auch noch so gering.

Um beim Quantencomputer die Zustände zu bestimmen, müssen wir sie messen und beeinflußen damit das Ergebnis. Das ist bei jedem physikalischen Problem der Fall, nur haben wir bei den klassischen physikalischen Problem völlig andere Verhältnisse zwischen den Energien, die das System umwandelt und denen, die nötig sind, um zu messen. Sollte jedem klar sein, dass je kleiner der Untschied hier wird, die Beeinflussung immer größer wird.
"Makroskopische" Physik erscheint exakt (und damit auch mathematisch exakt ausdrückbar), weil die Stärke der Beeinflussung durch die Messung so klein ist. Im atomaren oder subatomaren Bereich ist der Energieaufwand zum Messen so groß im Verhältnis zur umgesetzten Ernergie, dass es ja gar nicht mehr anders geht, als Messergebnisse in Wahrscheinlichkeiten auszudrücken. Und da hilft dann nur eins: So oft rechnen wie möglich (oder nötig), um den Fehler zu minimieren. Heutige Elektronik (CPUs etc.) sind im Vergleich zu diesen Vorgängen einfach fast unendlich präzise und brauchen diesen Aufwand deswegen nicht.


Gruß Krischi

Coda
2008-09-08, 15:14:00
Denn wie sollte das auch gehen... schon mein Physikleerer sagte, je genauer die Messung, desto größer der Energieaufwand dafür.
Das ist nicht das Problem. Es geht nicht um die Genauigkeit, sondern dass durch jede Messung sofort die Superposition unwiderbringlich zerstört wird.

Genauso kannst du nicht gleichzeitig die Position und die Geschwindigkeit messen sondern immer nur eins von beidem (Heisenbergsche Unschärferelation).

Im atomaren oder subatomaren Bereich ist der Energieaufwand zum Messen so groß im Verhältnis zur umgesetzten Ernergie, dass es ja gar nicht mehr anders geht, als Messergebnisse in Wahrscheinlichkeiten auszudrücken.
Es ist völlig egal mit welcher "Energie" du misst. Es passiert immer das gleiche. Und nein, es ist bei weitem nicht so einfach wie du dir das vorstellst.

Quanteneffekte resultieren nicht einfach aus der "Verkleinerung des Maßstabes", sondern kollidieren völlig mit unserer normalen Vorstellung der Physik. Das ist wohl auch der Grund warum es Leute immer wieder nicht wahrhaben wollen.

Krischi
2008-09-08, 15:34:00
Das ist nicht das Problem. Es geht nicht um die Genauigkeit, sondern dass durch jede Messung sofort die Superposition unwiderbringlich zerstört wird.

Das habe ich ja mit meiner Aussage zum Ausdruck gebracht - die Messung beeinflußt das System, je stärker, desto schlechter für die Aussagekraft, weil man hitnerher ja nicht mehr weiß, was der eigentlcihe Zustand vor der Messung war.

Genauso kannst du nicht gleichzeitig die Position und die Geschwindigkeit messen sondern immer nur eins von beidem (Heisenbergsche Unschärferelation).

Hab' ich so ja auch gesagt.


Es ist völlig egal mit welcher "Energie" du misst. Es passiert immer das gleiche. Und nein, es ist bei weitem nicht so einfach wie du dir das vorstellst.

Quanteneffekte resultieren nicht einfach aus der "Verkleinerung des Maßstabes", sondern kollidieren völlig mit unserer normalen Vorstellung der Physik. Das ist wohl auch der Grund warum es Leute immer wieder nicht wahrhaben wollen.

Diese von dir so genannte Kollision der verschiedenen Vorstellungen hängen aber auch mit einfach noch nicht vorhandem Wissen um viele Vorgänge mit quantenmechanischem Bezug ab. Und der Maßstab ändert sich ja eher wieder nach oben, heißt, es werden zumenehmen quantenmechanische Effekte im makroskopischen Bereich beobachtet. Es aber richtig, dass überprüft werden muss, ob die Beeinflussung der Messung oder sontige, aus der makroskopischen Physik kommende Erkenntnisse ihre Gültigkeit behalten (was ja oft nicht der Fall ist) oder von Therorien abgelöst werden, die sowohl quatenmechanisch aks auch makroskopisch ihre Gültigkeit behalten (was ich für sehr wahrscheinlich halte). Hier müssen wir warten, was die Forschung in der nächsten Zeit an Entdeckungen vervorbringt.




Gruß Krischi

pest
2008-09-08, 17:42:50
Genauso kannst du nicht gleichzeitig die Position und die Geschwindigkeit

meinst du nicht position/ort und impuls?

Markus89
2008-09-08, 17:55:21
meinst du nicht position/ort und impuls?

Impuls = Masse * Geschwindigkeit.

Freakazoid
2008-09-08, 18:00:40
~10nm dürfte die Grenze sein. Dann ist das Gate nur noch 5nm breit.

Ein bekannter (Entwickelt u.A. Halbleitermaterialen für CPUs) meinte, dass bereits 20nm ein technisches Minimum darstellen, weil dann Quantenmechanische Effekte eine zu große Rolle spielen. Wieso? Keine Ahnung, das habe ich dann nichtmehr verstanden ;(

Coda
2008-09-08, 18:09:07
Ob 5, 10 oder 20nm spielt ja auch keine Rolle. Die Sache ist, dass es langsam zu Ende geht.

Gast Hitcher
2008-09-08, 19:04:24
ein wenig beschleunigen könnte man die CPUs dann bei 11nm noch,
indem man sie so optimiert konstruiert, dass sie noch mit möglichst hohem Takt arbeiten können, aber nicht mehr so, dass die Chipfläche bei möglichst vielen Transistoren möglichst klein ist. Dh. durchaus auch mal etwas Freiraum lassen um Hotspots entgegenzuwirken. Oder um mehrfach Leiterbahnen zu legen.
Auch ist bei -50°C herabgekühlt eine CPU doch schon um einiges schneller als bei +50°C. Von daher könnten sich dann, wenn man bei der Fertigung an die Grenze stösst, diese zweistufigen Kompressorkühlungen endgültig in Serie durchsetzen.
Ich warte jedenfalls noch auf 10+ GHz CPUs, die Intel ja auch schon vorausgesagt hat.

SimonX
2008-09-13, 11:28:31
Ob 5, 10 oder 20nm spielt ja auch keine Rolle. Die Sache ist, dass es langsam zu Ende geht.

Glaube ich nicht. Der nächste Schritt wird die Spintronik sein. Da werden dann keine Elektronen mehr transportiert, sondern nur deren Spins. Da gab es letztens in 3Sat oder Arte eine einstündige Doku.

Keine Elektronen mehr bewegen heist:
- weniger Verlustleistung
- weniger Strom/Spannung
- weniger Leckströme

Ein Spin-Gate, das wie ein Transistor (oder so) funktioniert wurde schon gebaut. Mal sehen wann sowas in Massen produziert werden kann. Vor 2020 glaube ich eigentlich nicht.

Edit: Ein Link zur aktuellen Forschung: http://www.spinelektronik.de/zusammenfassung.php

roidal
2008-09-13, 16:38:09
Stell sich halt die Frage wie klein man "Spintransitoren" bauen kann.

Coda
2008-09-13, 16:59:51
Und welche Taktfrequenzen sich damit erzielen lassen. Wenn die sehr hoch sind braucht man ja evtl. gar nicht so viele Gates.

Gast
2008-09-13, 17:05:26
was ist eigentlich mit gallium arsenit statt silizium transistoren und sehr hohen taktraten?

AffenJack
2008-09-13, 17:09:34
spintronik ist ja wirklich noch ferne zukunft, das wird da auch noch dauern, denn wirklich weit ist die forschung da nicht, eher könnten da vll nanotubes kommen für 5nm oder so
gallium arsenit,hmm war das nicht mal für 11nm angedacht? weils unter 22nm mit silizium sehr schwer wird?

Coda
2008-09-13, 17:27:48
was ist eigentlich mit gallium arsenit statt silizium transistoren und sehr hohen taktraten?
Zu teuer, zu giftig, zu kleine Wafer, kein CMOS möglich

Gast
2008-09-13, 21:07:35
ja gut nur wenn man mit silizium nicht weiter kommt (bis auf sehr grosse komplexe DIEs) werden die Chip schmieden ja wohl kaum dichtmachen, und nur noch Kaputt gegen Neu austauschen ^^

Gauron Kampeck
2008-09-13, 21:24:42
Zunächst einmal geht es mit der aktuellen 193nm-Excimer-Belichtung bis 22nm runter. Danach wird wahrscheinlich XRL/DXRL-Belichtung kommen, aber schon hier ist noch nicht ganz geklärt wie genau es denn gemacht werden soll und damit insbesondere, wie weit man damit die Strukturbreiten nach unten treiben kann. Nur wird ab diesem Technologiesprung nicht mehr die Wellenlänge der Belichtung der limitierende Faktor sein. Klar dürfte sein, dass in den nächsten 10 bis 15 Jahren ein Paradigmenwechsel bei der Technologie und Fertigung von Mikrochips ansteht - obwohl, auch das sagt man schon seit Jahren;).
Um auf dem Laufenden zu bleiben, einfach mal jedes Jahr in die ITRS-Roadmap reinschauen.

BlackBirdSR
2008-09-13, 22:39:34
Intel selbst sprach letztes Jahr bei Hotchips noch davon, dass aktuelle Methoden und Vortschritte bis ins Jahr 2020 hinein reichen könnten.
Danach würde sich entscheiden wie es mit Silizium und CMOS weiter geht.

roidal
2008-09-14, 10:04:36
Die wahrscheinlichste Alternative werden wohl Kohlenstoffnanoröhren sein, wie in diesem Artikel (http://www.golem.de/0804/59128.html) beschrieben sollen da Strukturbreiten von 1nm möglich sein. Zur Zeit zwar nur mit einer Ausbeute von 50%, aber das wird sicherlich noch mehr. Dennoch wird es einmal ein Ende geben wo es einfach nicht mehr kleiner geht, egal mit welcher (Fertigungs)technologie.

Armaq
2008-09-14, 12:11:31
Die wahrscheinlichste Alternative werden wohl Kohlenstoffnanoröhren sein, wie in diesem Artikel (http://www.golem.de/0804/59128.html) beschrieben sollen da Strukturbreiten von 1nm möglich sein. Zur Zeit zwar nur mit einer Ausbeute von 50%, aber das wird sicherlich noch mehr. Dennoch wird es einmal ein Ende geben wo es einfach nicht mehr kleiner geht, egal mit welcher (Fertigungs)technologie.
Das stimmt nicht. Es gibt kein Ende. Wir wissen nichtmal um den Anfang, warum also schon ein Ende prognostizieren. Die Schritte werden länger, aber ein Ende ist sicherlich nicht in Sicht.

Kriton
2008-09-14, 13:48:28
Das stimmt nicht. Es gibt kein Ende. Wir wissen nichtmal um den Anfang, warum also schon ein Ende prognostizieren. Die Schritte werden länger, aber ein Ende ist sicherlich nicht in Sicht.

Irgendwann gibt es physikalische Grenzen - und sei es auf Ebene der Elementarteilchen.

Gast
2008-09-14, 14:14:19
Früher dachte man Atome sind nicht teilbar bzw bestehen aus einem Teil. Heute wissen wir es besser... Warum sollte dies nicht auch bei den heute kleinsten Teilchen wieder genauso passieren?

ESAD
2008-09-14, 15:03:46
die heutigen kleinsten teilchens sind doch IHMO quarks. und sie bestehen doch scho aus "reiner" energie?

Krischi
2008-09-14, 16:33:32
Bei Quarks weiß man es einfach nicht besser.

Lassen wir uns überraschen, was die Zukunft bringt, und sagen wir niemals "Das wird nie gehen".

Gruß Krischi


PS: Ich bin Berufsoptimist ;-)

roidal
2008-09-14, 16:43:56
Ahja, und dann willste Transistoren aus einem einzelnen Quark bauen?!

Gast
2008-09-14, 17:13:15
Was ist eigentlich aus der Idee geworden, einen Chip zu bauen, der mit Licht statt mit Strom arbeitet? Dadurch wären ja vielleicht enorme Taktfrequenzen möglich

Deinorius
2008-09-14, 18:08:24
Daran muss auch noch seeeeehr viel geforscht werden. Du musst das Licht schließlich auch in die richtigen Bahnen lenken können, obwohl man zumindest dort schon etwas weiter gekommen ist.

roidal
2008-09-14, 18:39:53
Was ist eigentlich aus der Idee geworden, einen Chip zu bauen, der mit Licht statt mit Strom arbeitet? Dadurch wären ja vielleicht enorme Taktfrequenzen möglich
Zum rechnen selbst glaub ich das (vorerst) weniger. Intel gab bekannt das sie in Zukunft vorhaben die Kerne untereinander mit Licht kommunizieren zu lassen. Der Vorteil liegt beim geringeren Stromverbrauch, ob man damit höhere Taktraten erreich weiß ich nicht.

roidal
2008-09-16, 13:44:43
US-Wissenschaftler vernetzen mehrere Chips dreidimensional (http://www.golem.de/0809/62452.html)

Gast
2008-09-16, 13:58:43
Zu teuer, zu giftig, zu kleine Wafer, kein CMOS möglich


Unterhalb von 11nm funktioniert CMOS anscheinend sowieso nicht mehr.

zB.:

http://www.research.ibm.com/journal/rd/462/taur.html

roidal
2008-09-18, 10:24:14
Und wieder mal ein paar neue Infos: http://www.golem.de/0809/62489.html

Coda
2008-09-18, 16:54:28
Unterhalb von 11nm funktioniert CMOS anscheinend sowieso nicht mehr.
Ich glaube du interpretierst das falsch. Ich meinte dass bei GaAs nur NMOS-Transistoren hergestellt werden können und keine PMOS und deshalb kein CMOS möglich ist.

In dem Paper geht's darum, dass wohl überhaupt keine normale Transistorschaltung mehr gebaut werden kann.

Carl-Gustav
2008-09-18, 17:24:50
US-Wissenschaftler vernetzen mehrere Chips dreidimensional (http://www.golem.de/0809/62452.html)
Ich versteh immer noch nicht, was der Vorteil gegenüber noch mehr Kernen/Chips sein soll :confused:

Gast
2008-09-18, 19:15:19
Ich versteh immer noch nicht, was der Vorteil gegenüber noch mehr Kernen/Chips sein soll :confused:
Kürzere Wege? Wenn die Chips echt dreidimensional aufgebaut werden und nicht nur 2d Chips gestapelt werden.

Spasstiger
2008-09-18, 19:26:54
Kürzere Wege? Wenn die Chips echt dreidimensional aufgebaut werden und nicht nur 2d Chips gestapelt werden.
Exakt. Zu lange Laufwege waren z.B. beim Cellprozessor der Grund, warum man auf eine Double-Precision-Recheneinheit in den SPEs verzichtet hat. Der vorgesehene Ort für diese Einheiten war nämlich von den Datenleitungen zu weit entfernt für den vorgesehenen Takt. Zumindest hat mir das ein Komilitone erzählt, welcher wiederum einen Ingenieur bei IBM kennt, welcher die SPEs mitentwickelt hat.

Carl-Gustav
2008-09-18, 20:06:35
Kürzere Wege? Wenn die Chips echt dreidimensional aufgebaut werden und nicht nur 2d Chips gestapelt werden.
Hab ich mir fast gedacht. Dann bedeutet das aber, dass wenn mit 2D-Bauweise keine Steigerung mehr möglich ist, die 3D-Bauweise wenige Jahre danach auch schon am Limit sein wird.

roidal
2008-09-18, 20:07:37
Ich glaube du interpretierst das falsch. Ich meinte dass bei GaAs nur NMOS-Transistoren hergestellt werden können und keine PMOS und deshalb kein CMOS möglich ist.

In dem Paper geht's darum, dass wohl überhaupt keine normale Transistorschaltung mehr gebaut werden kann.
Wenn sie mit Graphen doch schon Schaltungen von 1nm realisiert haben?!

Ich versteh immer noch nicht, was der Vorteil gegenüber noch mehr Kernen/Chips sein soll :confused:
Hier gehts um mehrere Siliziumplätchen übereinander, also mehr Transistoren und nicht direkt um mehr Kerne. Zum Beispiel könnte mein ein zusätzliches Plättchen nur mit Cache dazu geben.

Simon Moon
2008-09-19, 03:07:57
Wird so ein 3D Chip dann nicht wesentlich schwieriger zu kühlen sein?

roidal
2008-09-19, 09:00:38
Wird so ein 3D Chip dann nicht wesentlich schwieriger zu kühlen sein?
Leider finde ich den Artikel nicht dazu, aber dafür gibt es auch eine eigene Kühlmethode.

Dalai-lamer
2008-09-19, 09:02:38
irgendwann ist es einfach vorbei.
Klar die letzten Jahre war es immer so, aber nur weil es ewig gedauert hat diese grenze zu erreichen.
Selbst wenn jetzt ein neues Material gefunden werden würde, (dabei muss man bedenken das eben schon die meisten auf die nutzbarkeit getestet wurden) dann ist dies auch irgendwann ausgereizt.

Jede technologie ist mal am Ende, auch wenn die Leute die Augen davor verschließen.

roidal
2008-09-19, 14:12:59
Stellt sich halt nur die Frage ob es eine bessere Technologie gibt und ob wir sie finden, oder ob wir damit Leben müssen und mit anderen Methoden die CPU's verbessern. (Bessere Architekturen z.b.)

Gast
2008-09-19, 20:17:27
Stellt sich halt nur die Frage ob es eine bessere Technologie gibt und ob wir sie finden, oder ob wir damit Leben müssen und mit anderen Methoden die CPU's verbessern. (Bessere Architekturen z.b.)
man wird irgendwann den ansatz verändern. ich persönlich glaube nicht dass die letzte mögliche steigerung oder besser gesagt verkleinerung des fertigungsprozesses erreicht wird - in naher zukunft. vorher wird die architektur und der gesamte "aufbau" verändert, damit man parallelisiert mehr leistung erhält. ich würde also behaupten dass die schritte von 32nm abwärts immer länger dauern und dafür anderweitig leistung ausgebaut wird.
[fu]121Ah

Gast
2008-09-20, 21:06:22
irgendwann ist es einfach vorbei.
Klar die letzten Jahre war es immer so, aber nur weil es ewig gedauert hat diese grenze zu erreichen.
Selbst wenn jetzt ein neues Material gefunden werden würde, (dabei muss man bedenken das eben schon die meisten auf die nutzbarkeit getestet wurden) dann ist dies auch irgendwann ausgereizt.

Jede technologie ist mal am Ende, auch wenn die Leute die Augen davor verschließen.
Das ist ja uach nicht so tragisch, schließlich steht eigentlich ausreichend Leistung zur Verfügung um den Alltag und Beruf wesentlich zu vereinfachen. Institutionen die wirklich sehr viel Power benötigen, können auf große Rechenzentren zurückgreifen. Nur wird halt in diesem bekloppten System immer Wachstum gebraucht, ansonsten gibt es ein Crash. Und da die ganze Computertechnik sehr langlebig ist, ist stagnierende Leistung tödlich, da es kein Grund gibt, "alte" Hardware zu verschrotten. Sieht man auch im Autobereich. Im Grunde Stagnation, gut wird halt als Extra noch ne Kaffeemaschine integriert und das Design verschlimmbessert - fertig ist das neue Modell.

Rüdiger
2008-09-21, 12:57:10
Ich glaube, der 3D-Prozessor wird irgendwann die Oberklasse sein und normale 2D-Chips sind dann low-cost. Sowas wird immer aufwendiger herzustellen sein, als 2D-Chips.
Irgendwann könnte es nahezu Würfel-förmige Chips geben.

roidal
2008-09-22, 16:22:15
Glaube ich nicht. Der nächste Schritt wird die Spintronik sein. Da werden dann keine Elektronen mehr transportiert, sondern nur deren Spins. Da gab es letztens in 3Sat oder Arte eine einstündige Doku.

Keine Elektronen mehr bewegen heist:
- weniger Verlustleistung
- weniger Strom/Spannung
- weniger Leckströme

Ein Spin-Gate, das wie ein Transistor (oder so) funktioniert wurde schon gebaut. Mal sehen wann sowas in Massen produziert werden kann. Vor 2020 glaube ich eigentlich nicht.

Edit: Ein Link zur aktuellen Forschung: http://www.spinelektronik.de/zusammenfassung.php
Ich habe mir heute in diesem Artikel (http://www.nanoquit.de/_media/Physik_Journal_3(2004)11.pdf) die Funktionsweise eines Spintransistors angesehen. Der Transistor scheint so gebaut zu sein das er nur Elektronen mit einem bestimmten Spin durchlässt, welcher über ein elektrisches Feld gesteuert wird. Wo liegt da jetzt der große Vorteil gegenüber eines herkömmlichen FET's? Weniger Strom wird er wohl kaum brauchen da ja bei diesem ebenso ein elektrisches Feld benötigt wird?

roidal
2008-10-05, 22:36:10
Hab wieder mal was neues entdeckt: http://www.tecchannel.de/test_technik/grundlagen/1756696/

Was haltet ihr davon?

AnarchX
2008-10-11, 11:04:22
Hmmm... hier sieht ein Gartner Analyst im Zusammenhang mit 450mm Wafern, 5 bzw. 8nm für 2017:
http://www.eetimes.com/rss/showArticle.jhtml?articleID=210900029&cid=RSSfeed_eetimes_newsRSS

Gast
2008-10-22, 15:49:55
http://winfuture.de/news,43105.html - mal was von Intel.

Gast
2008-10-28, 13:38:48
Zumindest scheint da schon ein Ansatz da zu sein.

Für den Einsatz in der Lithographie entwickelten die Forscher Plasmon-Linsen: Konzentrische Ringe auf einer Metallplatte bündeln das Licht auf winzige Löcher im Zentrum. In einem Versuchsaufbau waren diese Öffnungen kleiner als 100 nm im Durchmesser, theoretisch können sie aber bis zu 5 nm klein sein. http://www.heise.de/ix/news/meldung/118016

Gast
2008-12-28, 20:40:13
Hallo,

nach derzeitigen Stand der Technik muß die Schichtdicke einer Oxidschicht mindestens 8 Atomlagen dick sein. Ich weis jedoch nicht welche Oxidschicht gemeint ist, also mit welchen Materialen. Gibt es ja auch mehrere je nach Bedarf.
Ich wette jedoch, auch das wird noch nach unter gedrückt mit irgendwelchen Tricks. Neue Materialen, Spannung nahe der 0 Volt Grenze ... und und und ...