PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Prozessorarchitektur nach Erreichen der magischen "10nm" Grenze


Roi Danton
2005-04-07, 15:00:15
Auch wenn dies hier kein Ingenieursforum ist, hoffe ich, dass sich jemand unter den Freaks hier ;) trotzdem damit auskennt.

In den nächsten Jahren (3-5, unsicher zu sagen) wird ja die physikalische Grenze der Größe von Transistoren erreicht. Kleiner als etwa 10nm (kann auch 8 oder 12 sein, diese Differenz ist aber angesichts der heutigen Größe von 130nm uninteressant) geht physikalisch nicht.
Nun gibt es verschiedene Ansätze, wie dieses Problem "umgangen" werden soll, d.h., es wird daran gearbeitet, ein völlig neues Konzept für die physikalische Prozessorarchitektur zu erstellen (z.B. Kohlenstoffnanoröhren) oder gar ganz auf eine mechanische Signalübertragung zu setzen (die bei Teilchengrößen im Nanobereich (z.B. 10x10x10nm) wesentlich schneller als die elektrische funktioniert ... kann man z.B. mit dem einfachen Newtongesetz F=m*a etwa für Diamant nachrechnen, wo man auf eine Beschleunigung im Bereich von 10^14 m/s² kommt).

Nun meine Frage: Ist jemand hier, der sich schon näher mit solchen Ansätzen (im Allgemeinen, der wirtschaftlichen oder der technologischen Seite) beschäftigt hat oder Artikel dazu kennt?

DrumDub
2005-04-07, 16:25:39
nanotubes sind ja schon mal ein ansatz.

Gast
2005-04-07, 19:00:32
kenne zwar keine artikel, kann aber googlen;)

http://www.google.com/search?q=nanor%C3%B6hrchen+kohlenstoff


da findest du bestimmt was, z.b.

http://www.infochembio.ethz.ch/links/werkstoffe_nanoroehr.html

Roi Danton
2005-04-08, 07:36:30
kenne zwar keine artikel, kann aber googlen;)Manchmal steht man sich selbst im Weg. ;) Danke.

G@st
2005-04-08, 14:17:20
wer sagt denn, dass mit 10nm schluss ist?!?!?
vor ein paar jahrzenten hat man sich erzählt, dass bei 350nm schluss ist und dass es physikalisch einfach weiter nicht mehr funktionieren wird... heute wird schon an 65nm prozessoren gearbeitet^^
von daher halte ich diese ganzen aussagen von "da isses schluss und da ist die grenze erreicht" für nicht allzu glaubwürdig...

Godmode
2005-04-08, 14:21:12
naja Elektronen haben ja auch eine gewisse Größe, und wenn die Strukturgröße mal so kleine wie die Elektronen sind, dann kann man irgendwie keinen richtigen Leiter mehr herstellen, dann springen die Elektronen über. Such mal in Google nach der Heisenbergsche Unschärferelation!

DrumDub
2005-04-08, 14:32:54
hier noch was zu den nanotubes-transistoren: http://www.heise.de/newsticker/meldung/17395

HOT
2005-04-08, 15:04:49
wer sagt denn, dass mit 10nm schluss ist?!?!?
vor ein paar jahrzenten hat man sich erzählt, dass bei 350nm schluss ist und dass es physikalisch einfach weiter nicht mehr funktionieren wird... heute wird schon an 65nm prozessoren gearbeitet^^
von daher halte ich diese ganzen aussagen von "da isses schluss und da ist die grenze erreicht" für nicht allzu glaubwürdig...

Atome sind nunmal leider nicht unendlich klein.... Ein Leiter muss mindestens ein paar Atomlagen breit sein, kleinste denkbare Einheit wäre eine Atomlage. Mit der klassischen Fertigung ist da nix mehr zu holen nach 10nm.

stav0815
2005-04-08, 15:06:45
hier noch was zu den nanotubes-transistoren: http://www.heise.de/newsticker/meldung/17395
das ist vier Jahre her !

VooDoo7mx
2005-04-08, 19:54:01
Mein Dozent hat mir irgendetwas von Fluor basierten Krams im Jahre 2015 oder so erzählt. :|

Roi Danton
2005-04-10, 22:35:34
wer sagt denn, dass mit 10nm schluss ist?!?!?Wie hier schon gesagt wurde, man brauch schon ein paar Atomlagen, um was leiten zu können. ;)

Das mit den Fluor basierten Nanozeugs hab ich auch in ner Vorlesung zu Nanomaterialien gehört (das soll irgendwie an die äußere Wandung der Tubes angeheftet werden und z.B. - wenn ich mich recht erinnere :) - den örtlichen Transport derselben ermöglichen und andere Dinge). Das soll aber jetzt schon praktisch getestet worden sein (Stand dieses Semester), so kommt das vielleicht - wenn's funktioniert - schon eher.

Kampfwurst87
2005-04-10, 23:02:19
AFAIK hatten mal sollche wissenschaftler gesagt das es was mit organischen zeugs kommt, aber schon ne weile her ca. 7monate, daher kann ichs nicht 100pro sagen. aber OLED machts vor das o steht für organisch

vinacis_vivids
2005-04-10, 23:56:53
hmm alles nur Spekulation aber vielleicht arbeitet man bis dahin mit elektronengitter. Atome sind ja dann viel zu groß also muss man zu elektronengreifen.
Ich halte von der Organischen Theorie irgendwie nix. kann ich mir einfach nicht vorstellen. naja bis dahin werden wir ja sehen. Ich bin ja noch Jung :biggrin:

Bokill
2005-04-11, 00:45:33
Was angedacht wird, ist, dass mehr in die Tiefe gegangen wird. Bislang war das Design der Prozessoren immer noch vergleichsweise flächenhaft.

Zusätzlich kann, wie jetzt schon bei Speicher, gepackt "stacked" die CPU entworfen werden.

Weiter bleibt die Möglichkeit, statt immer S-RAM klassischen SD-RAM als L3/L2 Cachesubstitut zu verwenden. War schon bei dem HP PA RISC 8800 so angedacht worden.

Eine weitere Möglichkeit ist, dass man ein Design so von Transistoren entrümpelt, dass eben mit weniger Transistoern, dennoch die gleiche Rechenleistung möglich ist ... ein Pentium 4 ist sicherlich kein Vorbild an Effizienz.

Parallel, wird aber schon an Optischen Gittern gespielt (2001 und HAL lässt grüssen).

Auch bei Nanotubes bleiben Atome so wie sie sind, die sind bei Nanotubes ja nicht per se kleiner. Da muss irgendwann ein Paradigmenwechsel stattfinden ...

MFG Bokill

Kampfwurst87
2005-04-11, 07:47:09
Weiter bleibt die Möglichkeit, statt immer S-RAM klassischen SD-RAM als L3/L2 Cachesubstitut zu verwenden. War schon bei dem HP PA RISC 8800 so angedacht worden.

die dumme eigentschaft vom DRAM ist das aller einer gewissen zeit ein refreh geben muss, sonst gehen die daten verloren, wenn der cpu sich noch um seinen cach derartig kümmern muss, gibts bestimmt leistungseinbrüche gegenüber SRAM. und wenn der strom weg ist bleiben die daten im SDRAM bei DRAM kennt man es aus dem arbeitsspeicher, sie sind weg da es kondensatoren und keine transistoren sind

Gast
2005-04-11, 09:52:01
Hat bei dem HP PA RISC 8800 funktioniert.

Der Vorteil ist bei dynamischen RAM, dass deutlich weniger Platz verbraucht wird. Statischer RAM braucht ca. 3x mehr Schaltlogik wie dynamischer RAM. Die hohen Laufzeiten fressen den Zeitvorteil wegen langer Laufwege bei statischen RAM wieder auf. Is vor kurzem auch bei Real World Tech eine Studie darüber gewesen.

MFG Bokill

Gast
2005-04-11, 12:11:07
die dumme eigentschaft vom DRAM ist das aller einer gewissen zeit ein refreh geben muss, sonst gehen die daten verloren, wenn der cpu sich noch um seinen cach derartig kümmern muss, gibts bestimmt leistungseinbrüche gegenüber SRAM. und wenn der strom weg ist bleiben die daten im SDRAM bei DRAM kennt man es aus dem arbeitsspeicher, sie sind weg da es kondensatoren und keine transistoren sind

auch SRAM verliert die daten wenn der strom weg ist, er muss "nur" nicht refreshed werden. bei cache dürfte sowas aber ziemlich egal sein, denn was nützt es dir wenn der cache die daten nach dem stromausfall hält und im DRAM-basierten arbeitsspeicher nix mehr ist ;)

Kladderadatsch
2005-04-11, 13:52:14
momentan geistert ja wieder der quantencomputer umher.
angeblich können atome wesentlich besser rechnen als transistoren.
es gibt auch schon einen ersten prototypen, der allerdings noch nicht mal 1 und 1 zusammenzählen kann;)

so abwegig das nun klingen mag; am quantencomputer forscht zur zeit nicht nur das max planck institut...
nach denen würden übrigens 50 atome ausreichen, um die rechenleistung aller existierenden computer zu übertreffen.

wie das nun funktioniert, verstehen wohl nur die wenigsten;)



ot:
diese geschichte hängt mit der parallel-universum-geschichte (deutsch: woher soll die rechenleistung eines atoms stammen, wenn es nur ein universum gäbe?) zusammen. zeilinger, ein mittlerweile ziemlich bekannter quantenphysiker hat bereits erfolgreich photonen teleportiert. kein witz, ist bewiesen, dass es mögich ist; banken, bzw. die industrie hat bereits angeklopft, um an deren konzept der unknackparen verschlüsselung teilnehmen zu können...

Cyphermaster
2005-04-11, 15:51:50
momentan geistert ja wieder der quantencomputer umher.
angeblich können atome wesentlich besser rechnen als transistoren.
es gibt auch schon einen ersten prototypen, der allerdings noch nicht mal 1 und 1 zusammenzählen kann;)

so abwegig das nun klingen mag; am quantencomputer forscht zur zeit nicht nur das max planck institut...
nach denen würden übrigens 50 atome ausreichen, um die rechenleistung aller existierenden computer zu übertreffen.

wie das nun funktioniert, verstehen wohl nur die wenigsten;)

Das Funktionsprinzip an sich ist ja nun nicht wirklich wahnsinnig kompliziert; nur wenn man in die Details geht, dann wird's übel... Wo ich bei einem Quantencomputer (imho trifft's aber Quanteneffekt-Computer besser) meine Bedenken hätte, wäre die Zuverlässigkeit. In diesen winzigen Dimensionen werden die Signale teilweise immens anfällig für Störungen/Beeinflussungen.

Stone2001
2005-04-11, 16:00:24
Naja, mit 2015 und 10nm, wäre ich etwas vorsichtig, nicht zu unrecht wird in Fachkreisen gerade die Frage diskutiert, was Moore's Law begrenzt, die Physik oder die Kosten.
Die Halbleiterindustrie hat zwar noch ein paar Eisen im Feuer, abzuwarten, was sie daraus machen werden, aber auch einige Probleme (die Abwärme ist nur ein Teil davon).
es gibt auch schon einen ersten prototypen, der allerdings noch nicht mal 1 und 1 zusammenzählen kann
Naja, Boole'sche Verknüpfungen bekommen sie inzwischen hin. Bis zum alltäglichen Einsatz der Quantencomputer, dürfte es aber auch noch hier ein weiter Weg sein. Wenn es nach den Kryptologen geht, werden sie wohl nie kommen. ;)

Kladderadatsch
2005-04-11, 18:10:33
Wenn es nach den Kryptologen geht, werden sie wohl nie kommen. ;)

gerade diese verschlüsselungstechnik soll spätestens in 5 jahren marktreif sein.

oder meinst du "wird es das wohl nie geben"? also die perfekte verschlüsselung? dieser wissenschaftler meint, es wäre ein naturgesetz, dass sie nicht entschlüsselt werden kann.

Wo ich bei einem Quantencomputer (imho trifft's aber Quanteneffekt-Computer besser) meine Bedenken hätte, wäre die Zuverlässigkeit. In diesen winzigen Dimensionen werden die Signale teilweise immens anfällig für Störungen/Beeinflussungen.

dazu soll auch schon eine lösung gefunden worden sein. ich kann bei diesem thme leider nur sagen, was ich gelesen habe, weil mir die materie schlichtweg unbekannt ist. man kann sich hier wohl nur auf deren namen verlassen- und da das nicht gerade nobodies sind und an institutionen arbeiten, die ebenfalls einen namen zu verlieren haben, nehme ich die schon für sehr ernst.

das fällt schwer, wenn man deren theorien, schuldigung, entdeckungen, akzeptieren will. das beamen ist heute bewiesen!
photonen beeinflussen sich fernab von zeit und raum; völig egal, wo sich das gegenstück befindet. darauf baut diese technik auf und ist wirklich schon so weit fortgeschritten, dass sie in 5 jahren marktreif sei.

es gibt ein weiteres team, welches sich mit diesem effekt bei größeren teilchen, ja sogar molekülen befasst. dort ist scheinbar leider noch nichts besonderes gelungen- wäre ja auch wahnsinn. damiot wäre das beamen von gegenständen möglich...

Amun-Re
2005-04-11, 19:05:52
Quantencomputer sicherlich ein interessantes futuristisches Gedankenkonstrukt.
Allerdings wie soll das funktionieren denn bereits die Heisenbergsche Unschärferelation sagt ja das man Aufenthaltsort und Geschindigkeit eines Teilchens nicht genau messen kann respektive das erst durch den Messvorgang als solches der Aufenthaltsort oder eben aber die Geschwindigkeit eines Teilchens konkret quantifiziert werden kann.

Viele von euch kennen ja das Gedankenexperiment mit Schrödingers Katze:

Man nehme eine Katze stecke sie in eine Kiste zusammen mit einem Geigerzähler einer Giftampulle und einem radioaktiven Teilchen.
Die Wahrscheinlichkeit das nun nach einer Minute das radioaktive Teilchen zerfallen ist besteht in diesem Experiment bei 50% wäre dem der Fall würde der Geigerzähler ausschlagen die Giftampulle zerstört und die Katze würde..... genau

Nun wissen wir aber erst tatsächlich was mit der Katze passiert ist wenn wir den Deckel hochheben und nachschauen bis dahin ist die Katze weder tot noch lebendig.

Dieses Experiment veranschaulicht finde ich sehr gut die Inkonsitenz von Quanten.
Wie daraus eine CPU entstehen soll übersteigt meine Phantasie :)

Die Quantentheorie besagt doch das jedes Elementarteilchen auch Wellencharakter hat zumindest laut den mir vorliegenden Informationen.

Kampfwurst87
2005-04-11, 19:38:28
denke mal bis 32nm gehts in einiger masen flotten schritten aber dann wirds teuer weil neue getäte her müssen und bis 10nm denke mal 2018 oder gar 2020 :rolleyes: man da bin ich schon 38, alter knacker :eek:

pancho
2005-04-11, 19:56:19
denke mal bis 32nm gehts in einiger masen flotten schritten aber dann wirds teuer weil neue getäte her müssen und bis 10nm denke mal 2018 oder gar 2020 :rolleyes: man da bin ich schon 38, alter knacker :eek:
wie kommst du zu dieser erkenntnis? neue geräte mussten bei jeder verkleinerung der strukturbreite her, weil man z.b. mit sichtbarem licht (~600 nm) schlecht kleinere strukturen erzeugen kann. folglich hätte es auch jetzt schon unglaublich teuer sein müssen. die entwicklung immer kurzwelligerer lichtquellen und berechnung der interferenzen machte es aber möglich. (verwenden die heutzutage noch licht oder schon elektronenstrahl?) und das auf einem prinzipiell unveränderten preisniveau.

moores gesetz wird imo noch eine ganze weile bestand haben. es bezieht sich ja nicht auf die strukturbreite, sondern auf die komplexität und damit die leistungsfähigkeit. gerade in diesem bereich stehen mit den dualcore prozessoren neue (alte) entwicklungen ins haus. die parallelität nimmt immer mehr zu. und das geschieht schon seit einigen jahren (pentium 1?), ein pipelined prozesor ist im grunde auch nur eine parallele abarbeitung der nötigen schritte zum ausführen eines befehls.

Kampfwurst87
2005-04-11, 20:06:09
wird man erst dann sehen, schlieslich muss man ja noch den prozess von der verlustleistung im griff haben, wenn das noch unausgerereift ist ist er auch nicht marktfähig und bevor das nicht ist kann man auch nicht sagen ja wir habens geschafft

Bokill
2005-04-11, 21:15:10
So unglaublich es klingen mag, aber man ist schon eine ganze Zeit bei 0,193 µm "hängen" geblieben. Dank immer weiterer "Tricks" Phase-Shift Masken, Ätztechnik, ... und zuletzt der "Nasstechnik" Immersion-Belichtung werden mit übergroben Licht deutliche kleinere Strukturen erzeugt.

Weder Röntgenlithograpie, noch Elektronenstrahllithograpie ist derzeit kostengünstig in Großserie machbar.

MFG Bokill

Cyphermaster
2005-04-12, 09:29:19
das fällt schwer, wenn man deren theorien, schuldigung, entdeckungen, akzeptieren will. das beamen ist heute bewiesen!
photonen beeinflussen sich fernab von zeit und raum; völig egal, wo sich das gegenstück befindet. darauf baut diese technik auf und ist wirklich schon so weit fortgeschritten, dass sie in 5 jahren marktreif sei.

es gibt ein weiteres team, welches sich mit diesem effekt bei größeren teilchen, ja sogar molekülen befasst. dort ist scheinbar leider noch nichts besonderes gelungen- wäre ja auch wahnsinn. damiot wäre das beamen von gegenständen möglich...

"Beamen" ist in der Form, wie es bei StarTrek zu sehen ist (lebendes Gewebe zu zerlegen und woanders nach einem eingescannten Original aus der Energie neu entstehen zu lassen), nicht bewiesen. Man könnte eher sagen, es ist gelungen, ein Photons von A nach B zu teleportieren.

Und auch wenn man ein Molekül teleportieren kann, ist das noch lange nicht mit der Teleportation von makroskopischen Gegenständen gleichzusetzen - der Aufwand, den man für dieses eine Photon brauchte, war immens. In Anbetracht der Tatsache, wieviele Fehlversuche bei diesen Aufbauten bisher immer noch passiert sind, halte ich 5 Jahre für eine wirklich breitenverfügbare Nutzungsmöglichkeit für sehr gewagt.

<EDIT: Ein Beispiel - Kernfusion z.B. ist im Labor auch schon recht lang bekannt und kurzzeitig künstlich erzeugt worden; wirklich funktionierende Reaktoren lassen aber bekanntermaßen schon sehr lange auf sich warten. Brennstoffzellen wären ein weiteres Beispiel, wie es noch viele Andere gibt. Forschung ist imho einfach nichts, wo man derartige Prognosen sonderlich ernst nehmen sollte.>

Kladderadatsch
2005-04-13, 06:23:06
"Beamen" ist in der Form, wie es bei StarTrek zu sehen ist (lebendes Gewebe zu zerlegen und woanders nach einem eingescannten Original aus der Energie neu entstehen zu lassen), nicht bewiesen. Man könnte eher sagen, es ist gelungen, ein Photons von A nach B zu teleportieren.


Und auch wenn man ein Molekül teleportieren kann, ist das noch lange nicht mit der Teleportation von makroskopischen Gegenständen gleichzusetzen - der Aufwand, den man für dieses eine Photon brauchte, war immens.

klar. aber wenn es beim molekül möglich wäre, kann man davon ausgehen, dass es irgendwann auch bei größeren gegenständen möglich sein wird. diese wirkung zwischen zwei "verschränkten" photonen ist ja bislang eben nur dort festgestellt- so echtes beamen, wie man es sich schon immer vorgestellt hat, ist es ja nicht. dafür aber noch unvorstellbarer;)


In Anbetracht der Tatsache, wieviele Fehlversuche bei diesen Aufbauten bisher immer noch passiert sind, halte ich 5 Jahre für eine wirklich breitenverfügbare Nutzungsmöglichkeit für sehr gewagt.


ich glaube, wie haben den gleichen artikel gelesen;)
aber das problem der rechenleistung dürfte sich im selbigen ebenfalls gelöst haben:tongue:
(von wegen quantencomputer)

ildottore
2005-04-14, 14:53:29
Der Gag am "Beamen" von Photonen ist ja auch weniger, sich Shuttles zu sparen und mehr die abhörsichere Informationsübermittlung. Im Übrigen ist der Unterschied zwischen dem Beamen eines Moleküls und eines makroskopischen Objekts allein schon durch die für das Wiederzusammensetzen nötige gigantische Speicherkapazität/Rechenleistung etwas völlig anderes.

Interessant wäre die Frage ob sich nicht an der Produktion etwas drehen lässt, das die Kosten für Waferplatz senkt, statt ständig in den Strukturbreiten runterzugehen. Ischt letztlich eine Kostenfrage (mal außer Acht gelassen dass größere Fläche vielleicht mehr Fehler bedeutet, ist die Wahrscheinlichkeit für eine kaputte Einheit eher von der Transistorzahl oder eher von der Diegröße abhängig?).

Roi Danton
2005-04-14, 15:09:03
Das Funktionsprinzip an sich ist ja nun nicht wirklich wahnsinnig kompliziert; nur wenn man in die Details geht, dann wird's übel... Wo ich bei einem Quantencomputer (imho trifft's aber Quanteneffekt-Computer besser) meine Bedenken hätte, wäre die Zuverlässigkeit. In diesen winzigen Dimensionen werden die Signale teilweise immens anfällig für Störungen/Beeinflussungen.Wow wow, Leute ... Quantencomputer ... damit kenn ich mich nicht aus. Kann man die Wirkung der Signalübertragung mit der Vereinfachung der Schrödinger Gleichung für Freie Teilchen erklären? (wie gesagt, hab von Quantenmechanik bis auf Schrödinger und den Unterschied von Orts- & k-Raum keinen Plan)

Aber um nochmal auf mein erstes Posting zurückzukommen: Die Alternative zur derzeitigen Übertragung über elektrische Signale wäre eine Informationsweiterleitung über mechanische Wege. Da Kräfte und Beschleunigungen im Nanobereich stark skalieren, also stark von der Größe des Teilchens abhängig sind (je kleiner das Teilchen, desto höher die Beschleunigung), kann man auch daraus schließen, dass die Frequenz stark ansteigt:
Angenommen, wir bringen einen Diamantkristall mit der Länge von 10nm zum Schwingen, so erreicht der rein rechnerisch eine Frequenz von 10^12 Hz, also 1000GHz oder 1THz (ermittelt über Schallgeschwindigkeit (v/Länge) aus Wurzel von Dichte & E-Modul des Diamanten).
So zur Veranschaulichung, was Bauteile im Nanobereich leisten können. In diesen Dimensionen wird ja bereits experimentiert ...

... mit der Speicherung von Daten laufen bereits praktische Versuche: Dafür gibts sogenannte MEMS (Mikro-Elektro-Mechanische Systeme -> siehe CeBit dieses Jahr) sowie eine Weiterentwicklung, die NEMS (Nano ...). Im Labormaßstab hat bereits die Speicherung, das Auslesen, als auch das Löschen und Wiederbeschreiben funktioniert. Das Prinzip beruht auf der Basis des AFMs (Atomkraftmikroskop), wo eine kleine Spitze (nennt sich Cantilever und hat Größen im nm Bereich) eine Oberfläche abtastet. Bei diesem MEMS werden Löcher in eine Polymeroberfläche "gebrannt" (über Spannung und Temp.unterschiede .. ni so wichtig hier). Jedenfalls heißt Loch = 1 & kein Loch = 0. Bei der höchsten hergestellten Dichte der Löcher hat man 200GBit/cm² erreicht. Die Datenraten sind theoretisch ebenfalls hoch (mehrere hundert MB/s bis GB/s), ist technologisch aber noch nicht realisiert.

... weiterhin veranschaulichen die oberen Überlegungen den Sinn der Nanotubes oder überhaupt jeglicher "Maschine" im Nanobereich, da die physikalischen Grundgrößen, eben wie Beschleunigung (siehe erstes Posting) und Frequenz, ganz anders dimensioniert sind. Insofern ist es schon wahrscheinlich, dass die Organik den Rechnern einen neuen Leistungsschub gibt. Wie gesagt, ich weiß aber zu wenig über Quantenmechanik, um vergleichen zu können und zu sagen: "Ey, Quantencomputer zeigen den Nanotubes den Finger." ;) (am Ende kommts auf selbe hinaus?)

beos
2005-04-15, 23:03:51
Was mich ja schon immer interessiert hat - ein Quantencomputer hat ja
alle möglichen Lösungen - und Unlösungen zur gleichen Zeit.

Aber wie bekommt man die richtige Lösung raus - wenn man sie gar nicht weiß...

Sieht ja nach dem Frauen Problem aus.....

Frauen wisen ja oft nicht was sie wollen....wie sollten wir als männer wissen was sie wollen ;)

Coda
2005-04-16, 16:25:51
AFAIK muss das Ergebnis dann noch traditionell überprüft werden, was aber meistens sehr schnell geht.
Sehr lustig ist auch, dass man damit unvorhersehbare Ausführungszeiten hat :D

der Lustige
2005-04-16, 23:47:20
Ein Quantencomputer hat vereinfacht gesagt, genau drei Lösungsantworten; Ja, Nein und Jein. Ein herkömmlicher Computer hat bekanntlich nur zwei..

beos
2005-04-17, 10:08:28
Aber doch nur bei Fragen die solche Antworten suchen?

Ich habe das immer so verstanden:

Bei Standartalgorithmen (z.B Suchalg. usw) hat der Q-Computer alle Ergebnisse zur gleichen Zeit....also das Element das gesucht wird und alle die nicht gesucht werden....

Aber wie findet man jetzt aus dieser Ergebnissmenge das gesuchte Element?








Ein Quantencomputer hat vereinfacht gesagt, genau drei Lösungsantworten; Ja, Nein und Jein. Ein herkömmlicher Computer hat bekanntlich nur zwei..

Saugbär
2005-04-25, 02:43:54
Hochtemperatursupraleiter (die sind zwar erst bei -130 °C) müßten eigendlich die Probleme mit den Fehlstömen bei so kleinen Strukturen beheben. Das ganze muß nur noch mit flüssigem Stickstoff gekühlt werden, was relativ einfach ist, da der Stromverbrauch einer solchen CPU minimal ist.

Gast
2005-04-25, 16:29:26
Hochtemperatursupraleiter (die sind zwar erst bei -130 °C) müßten eigendlich die Probleme mit den Fehlstömen bei so kleinen Strukturen beheben. Das ganze muß nur noch mit flüssigem Stickstoff gekühlt werden, was relativ einfach ist, da der Stromverbrauch einer solchen CPU minimal ist.
Man hat Hochtemperatursupraleiter hinblicklich für den Einsatz in Höchstintegrierten Schaltungen untersucht und ist zu dem Entschluß gekommen, das sie sich einfach nicht hoch genug integrieren lassen, um wirtschaftlich zu sein.

Aber insgesamt frage ich mich, was dieser Thread mit Prozessorarchitektur zu tun hat? Hier werden eher über technische Aspekte spekuliert, weniger über die Architektur ansich. Eine Frage wie, was kommt nach CISC oder RISC, wäre hier wohl eher angebracht (zumindest, wenn man dem Threadtitel folgt).

Roi Danton
2005-04-25, 20:53:20
Ich glaub auch wie Gast, davon gehört zu haben, dass die Hochtemp.supraleiter technisch dazu noch nicht in der Lage sind. Bis über das Beispiel mit dem schwebenden Zug eines bekannten Instituts ist davon noch nicht viel praktischer Nutzen hervorgegangen(?) Ich glaub auch, die Zahl derer, die ständig flüssigen Stickstoff zu Hause haben, ist noch zu gering. ;)

Aber insgesamt frage ich mich, was dieser Thread mit Prozessorarchitektur zu tun hat?Elender Polemiker ;). Wie bezeichnet man den physikalischen Aufbau eines Prozessors korrekt? Ein Threadname in der Art "Bottom-Up- & Top-Down-Technik - was kommt danach" wäre weniger aussagend gewesen. Allein die "10nm", eine immerhin physik. Größe ( :D ), trifft den Threadinhalt und begrenzt den Begriff Prozessorarchitektur. Ich lass mich aber gern belehren, falls Du einen treffenderen Vorschlag zu machen hast, anstatt lediglich der Lieblingsbeschäftigung des deutschen Bürgers zu fröhnen. :)

DrumDub
2005-05-06, 15:56:41
bei telepolis gibts weder einen interessanten artikel zu thematik, auch wenn das anwendungsgebiet erstmal nichts mit prozessoren zu tun hat:
http://www.heise.de/tp/r4/artikel/20/20018/1.html