PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Zukunft der Elektronik ... eine binäre Sackgasse?


HiddenGhost
2004-05-10, 23:30:21
Ich habe gerade diese BBC Doku "BBC Exklusiv -
'Nanoroboter - Die Geschichte einer Vision (The Dark Secret of Hendrik Schön)'" gesehen, die von den Chancen, Gefahren und der Notwendigkeit einer auf Kohlenstoffen basierten Nanotechnologie referierte. U.A. ging man neben den potentiellen Gefahren ( Stichwort Borg: "resistance is futil" ;) auch auf das Moorschegesetz ein.

Auffallend war, dass sie immer und immer wieder versucht haben, final erfolglos, organischen Materialien die Funktion eines Transistors aufzuzwängen um dem Ende des moorschen Gesetzes einhalt zu gebieten.
Würde dieses Gesetzt der Leistungsverdopplung obsolid, wäre dies mit Sicherheit das Ende für die wirtschaftliche Entwicklung, ferner für das globale Leben wie wir es kennen, da dies immer und immer wieder auf Speudowahn nach unendlichem Wachstum beruht.

Doch ist es wirklich so sinnvoll weiterhin krampfhaft nach einem binären Lösungsweg zu suchen, nach einem heiligen Gral der in die Menscheheitsgeschichte eingehen würde? Ist es wirklich das naheliegenste zu versuchen Nullen und Einsen einem organischen Molekül aufzuzwängen?
Sschließlich arbeit kein Organismus dieser Welt nach diesen Konzepten, nicht mal Nervengewebe läßt sich in den eifnachsten Modellen auf ein derartiges Schema reduzieren. IMO müsste man versuchen ein neues Konzept zu entwickeln, dass die Eigenschaften der organischen Struckturen ausnutzt um Daten zu verarbeiten.
Selbst wenn andere KOnzepte pro Recheneinheit mit mehr als binärem Zeichensatz (null und eins; ausgehend von Siliziumtransistoren) mehr Raum für die Berechnung bräuchten, wäre organisches Material in dieser Hinsicht wohl nicht der limitierende Faktor. Selbst zu Mikrogeweben verwoben, wären diese deutlich kleiner als alles, was aus der Miniaturisierung des Siliziums herausköme.
Das Problem ist im Grunde nur, zu verstehen, wie man ein komplett neues Konzept anwendet, das alte hinter sich zu lassen.

Wenn die Leute schon nach diesem heiligen Gral der Wissenschaft suchen, sollten sie dann nicht auch nicht das Risiko scheuen, das bereits erlernte Wissen hinter sich zu lassen? Brauchen wir wirklich erst einen genialen Geist wie Einstein oder Hawking der unser Leben revolutioniert, einen Querdenker ohne eigene Handlungsgrenzen um so ein Konzept zu erschaffen? Ich hoffe nicht, denn die Folgen ohne baldige, neue Entwicklungsansätze sind abzusehen (Depression) und erschreckend, wenn man sie das globale, fragile Gefüge unserer Welt projeziert (Kriege als Folge der Depression).

Ich bin kein Techniker, noch kenne ich mich mit den Problemen dieser Studien aus. Ich schreibe hier nur meine Gedankengänge nieder, die weder Ansätze noch Lösungen beinhalten, sondern im Grunde nur offene Fragen darstellen.

Aquaschaf
2004-05-11, 12:02:17
Mal durchgerechnet, um wie viel die Komplexität schon ansteigt, wenn man nur einen weiteren Schaltzustand hinzufügen würde?
Es geht doch so wie es ist sehr gut - was wollen wir überhaupt mit richtig intelligenten Maschinen?

GloomY
2004-05-11, 13:25:06
Die Binärlogik wird deswegen verwendet, weil mit zunehmender Anzahl an Zuständen die Unterscheidung immer schwieriger wird, ganz besonders bei immer höheren Frequenzen. Imho wird die Technik sich auch in Zukunft dort nicht von wegbewegen. Man kann ja zur Kommunikation mit der Außenwelt diese binären Signale dann immer noch in ein anders Codierungsschema umwandeln. Intern wird die Binärlogik aber weiterhin erhalten bleiben.

HiddenGhost
2004-05-11, 13:34:09
Aber versuchen mineralische Eigenschaften auf biologische zu übertragen ist höchstwahrscheinlich nicht möglich. Sollte man nicht versuchen, andere Konzepte der Verarbeitung zu finden?

@Aqua: in der doku hat man gesagt, das wenige biologische Moleküle die Funktion eines 100x größeren Transisotrs ausfüllen könnten. VOn daher wäre ja gerade die zusätzliche logsiche komplexität zu kompensieren.

svenw
2004-05-11, 13:53:50
analoge Technik würde einen riesen Schritt nach vorne bringen, wenn man sie denn beherrscht. Das größte Problem bei Analogtechnik ist, das sie sie nur besch... saklierbar oder änderbar ist. Signalbahn etwas anders und schon kann man alles neu machen. Etwas anderer Widerstand, siehe oben etc.
Man sollte allerdings auch bedenken das in Computern heute schon massig analoge Technik steckt. Was meint ihr was für ein Signal aus den physikalischen RAM zellen kommt oder wie das ausgelesene Signal von der DVD/HD ist? Das sind alles analoge Signale die dann erst wieder für digital aufbereitet werden müssen. Ich sag nur Jitter bei CDs/DVDs.
In einem Spiegelartikel stand letztens das in naher Zukunft ein absoluter MAngel an analogen Chipdesignern zu erwarten ist und das die Fehlersuche bei analoger Chiptechnik reichlich anspruchsvoll ist.

mrdigital
2004-05-11, 16:37:34
Original geschrieben von HiddenGhost
Aber versuchen mineralische Eigenschaften auf biologische zu übertragen ist höchstwahrscheinlich nicht möglich. Sollte man nicht versuchen, andere Konzepte der Verarbeitung zu finden?

@Aqua: in der doku hat man gesagt, das wenige biologische Moleküle die Funktion eines 100x größeren Transisotrs ausfüllen könnten. VOn daher wäre ja gerade die zusätzliche logsiche komplexität zu kompensieren.
ich glaube du versteigst dich ein bisschen auf kohlenstoffbasiert = biologisch. Nur weil man Kohlenstoff als Material nutzt handelt es sich noch nicht um ein Gebilde mit "biologischen" Eigenschaften. Auch wenn man von organischen Molekülen spricht, hat das nicht zwingend was mit "Biologie" zu tun.
Aber man versucht ja andere Ansätze der Informationsverarbeitung, es gibt bereits funktionierende "DNS - Rechner", es ist gelungen mit Hilfe von (künstlichen) DNS - Ketten Berechnungen (eine Addition) durchzuführen, nur dadurch, dass man verschiedene Stoffe gemischt hat. Das ist dann schon stark von der Biologie inspiriert, ich denke dass man hier erst am Anfang ein Entwicklung steht.

PhoenixFG
2004-05-11, 23:19:16
Wenn man heute 0 und 1 als Spannung bzw. keine Spannung kodiert, wäre ein 3. Zustand noch relativ zu realisieren. Man könnte noch eine -1 als negative Spannung kodieren.
Allerdings ist die installierte Basis an binären System so enorm groß, dass es schwer fallen dürfte, mal eben einen 3. Zustand hinzuzufügen.
Man siehts ja shcon bei der x86er-Plattform. Die wird auch nur erweitert und aufgebohrt. Aber diverse alte Zöpfe mal abzuschneiden und neue wachsen zu lassen traut sich niemand. Kompitibilität um jeden Preis.

MfG

HiddenGhost
2004-05-12, 00:12:37
Aber angesichts einer drohenden Repression durch wirtschaftlichen Stillstand wird jeder bereit seinOpfer zu bringen.
Die Zukufnt beginnt mit dem Moment, indem es organische Rechner gibt. Damit wäre das Ende der moorschen Problematik behoben. Selbst wenn das neue Konzept radikal neue Lösungswege bräuchte, dies jedoch vergleichbare Kosten und höhere physikalische Leistung bedeuten würde, wäre es dann nicht auch für die allgemeinheit interessant, sich diesem neuen Pfad anzuschließen?

HellHorse
2004-05-12, 00:24:28
Original geschrieben von HiddenGhost
Doch ist es wirklich so sinnvoll weiterhin krampfhaft nach einem binären Lösungsweg zu suchen, nach einem heiligen Gral der in die Menscheheitsgeschichte eingehen würde? Ist es wirklich das naheliegenste zu versuchen Nullen und Einsen einem organischen Molekül aufzuzwängen?
Sschließlich arbeit kein Organismus dieser Welt nach diesen Konzepten, nicht mal Nervengewebe läßt sich in den eifnachsten Modellen auf ein derartiges Schema reduzieren. IMO müsste man versuchen ein neues Konzept zu entwickeln, dass die Eigenschaften der organischen Struckturen ausnutzt um Daten zu verarbeiten.

Naja, selbst DNA ist ja diskret und es gibt ja fuzzy logic und neuronale Netze auf Computern, allerdings auf Softwareebene. Auf Hardwareebene ist es halt etwas doof, wenn du Summe von 2 und 2 bloss mit grosser Wahrscheinlichkeit in der Nähe von 4 liegt.

Ich habe mal ein Artikel gelesen, dass ein Typ bei Sun an einem Programmiermodell arbeitet, dass auf Bilderkennung beruht. So dass eine kleine Änderung am Programmcode zu einer kleinen Änderung am Resultat führt.
Leider finde ich ihn gerade nicht.

tokugawa
2004-05-12, 03:28:34
Original geschrieben von PhoenixFG
Wenn man heute 0 und 1 als Spannung bzw. keine Spannung kodiert, wäre ein 3. Zustand noch relativ zu realisieren. Man könnte noch eine -1 als negative Spannung kodieren.
Allerdings ist die installierte Basis an binären System so enorm groß, dass es schwer fallen dürfte, mal eben einen 3. Zustand hinzuzufügen.
Man siehts ja shcon bei der x86er-Plattform. Die wird auch nur erweitert und aufgebohrt. Aber diverse alte Zöpfe mal abzuschneiden und neue wachsen zu lassen traut sich niemand. Kompitibilität um jeden Preis.

MfG

Ein Zustand mehr würde nichts bringen. Wär genau dasselbe Problem mit anderer Basis.


Die Problematik mit Elektronischer Digital-Technik heutzutage ist nicht dass es binär ist - dieselben Probleme gäbe es mit Trinär usw. (es gibt übrigens trinäre Bauelemente, Tristate-Schalter. Aber darauf geh ich jetzt nicht ein).

Die Problematik ist die Diskretisierung. Die Welt ist analog - mit anderen Worten, die meisten Werte in der Natur sind kontinuierliche Werte (reele Zahlen aus dem gesamten Zahlenbereich R).

Jedes Zahlensystem im Computer ist aber letztendlich diskret, kann also weder unendliche Zahlenbereiche abdecken, noch einen kompletten begrenzten Teil-Zahlenbereich aus R.

Damit ergeben sich Probleme mit der Modellierung einiger "Universums-Entitäten" im Rechner. Mit anderen Worten: ein Computer ist extrem schlecht in der Mathematik, er ist nur ziemlich schnell bei einfacher diskreter Arithmetik.

EDIT: Das Problem der Diskretisierung wird übrigens auch in der mathematischen Teildisziplin der Numerik behandelt.

PhoenixFG
2004-05-12, 18:30:22
Derzeit kann ich doch mit einem Bit max. 2 Zustände kodieren. Meinethalben 0 und 1. Mit 3 Bit 8 Zustände. Würde man jetzt konsequent Tri-State-Gatter einsetzen und pro "Bit" 3 Zustände kodieren, wären mit nur 3 bit schon 27 Zustände möglich (wenn ich mich nicht verrechnet habe). Um das mit binärer Logik zu erreichen, bräuchte man mind. 5 bit. Dieses Verhältnis zugunsten der Tri-State-Gatter offenbart seinen Vorteil mit steigender Auflösung natürlich noch besser.

An eine Rückkehr von der digitalen zur analogen Technik glaub ich noch nicht wirklich. Zumindest beim heutigen Stand der Technik überwiegen einfach die Vorteile der digitalen Technik gegenüber der analogen.

MfG

PS: Sprechen eigentlich noch andere Sachen außer dem großen Bandbreitenbedarf und der "mangelhaften" Quantisierung gegen Digitaltechnik?

RLZ
2004-05-12, 19:07:21
Original geschrieben von HiddenGhost
Die Zukufnt beginnt mit dem Moment, indem es organische Rechner gibt.
Dann kriegt der Begriff Computervirus eine ganz neue Dimension . Die ersten Computerbakterien werden dann auch nicht lange auch sich warten lassen. ;D
Inwiefern irgendwelche Gesetze nicht mehr zutreffen würde ich aber abwarten. Auch organische Stoffe sind an die Physik gebunden....

Major
2004-05-12, 19:36:12
És gibt auch Überlegungen (hatten wir in unserer E-technik oder Informatikvorlesung) anstatt die Ladung eines Elektrons zu nutzen, also Binär 1 und 0, man die Spin eines Elektrons nutzen kann. Es gibt dafür sogar schon einen Studiengang, nennt sich Spintronic.
Aber das Problem ist auch hier die grosse Basis an installierten Rechnern und auch dieses Verfahren ist, wenn mich nicht alles täuscht, analog.

Gast
2004-05-14, 14:02:15
Original geschrieben von tokugawa

Die Problematik ist die Diskretisierung. Die Welt ist analog - mit anderen Worten, die meisten Werte in der Natur sind kontinuierliche Werte (reele Zahlen aus dem gesamten Zahlenbereich R).



Auf der Quantenebene ist die Welt auch diskret und quantisiert kann sehr diskret durch die Quantemechanik beschrieben werde. Gibt da eben nur angeregte und nicht angeregte Zustände. Würde mich nicht wundern wenn sogar die Zeit quantisiert wäre (Stichwort Plancksekunde). Nur würden wir als Teil des System es nicht merken, wenn von "außen" jemand mit einem PLL-Chip uns mit 1.0E+32 Hz taktet

Monger
2004-05-14, 19:43:28
Original geschrieben von Gast
Auf der Quantenebene ist die Welt auch diskret und quantisiert kann sehr diskret durch die Quantemechanik beschrieben werde. Gibt da eben nur angeregte und nicht angeregte Zustände. Würde mich nicht wundern wenn sogar die Zeit quantisiert wäre (Stichwort Plancksekunde). Nur würden wir als Teil des System es nicht merken, wenn von "außen" jemand mit einem PLL-Chip uns mit 1.0E+32 Hz taktet

:D Ach ja, Quantenmechanik...

An so etwas sollte man nichtmal denken. Prozesse in diesen Größenordnungen entziehen sich nachweislich JEDER Kontrolle. Für den Alltag ist und bleibt die Welt analog, von technischen Anwendungen ganz zu schweigen.

Das Problem an nicht binären Systemen ist, dass sie nicht das geringste mehr mit Computern zu tun haben.

Es gibt keine Logik mehr in dem Sinne, keine Linearität, keine scharfe Abgrenzung mehr zwischen Prozessor und Speicher.

Der Vorteil einer CPU ist ja gerade, dass sie sehr schnell einfache Befehle hintereinander ausführen kann, ohne Fehler zu machen.
Ein biologisches System wie z.B. Nervenzellen funktioniert sozusagen nach Mehrheitsentscheidungen, und kann sehr komplexe Verknüpfungen bilden, aber nur mit lausiger Zuverlässigkeit. Es ist einfach ein VÖLLIG anderer Ansatz.

Sicherlich könnte man damit Dinge tun, die man jetzt nicht kann. Dafür könnte man all das NICHT machen, was man jetzt kann...

Es sind zwei völlig getrennte Welten.

avalanche
2004-05-14, 20:07:33
Ich wäre auch eher für den binären, heiligen Gral anstatt plötzlich alles mit einer biologischen Revolution machen zu wollen. Ich hab heute im Rahmen meines Informationstechnik-Unterrichts (11 Klasse, 2. Halbjahr) mein erstes NAND-Gatter gebastelt und zusammen mit dem OR- und dem AND-Gatter kann man da ja schon ganz lustige Sachen mit machen. Allerdings hab ich dafür eben auch ein bisschen lernen dürfen und Übung brauchts auch. In 7 Jahren hab ich dann mein Abi und mein ET/IT-Studium fertig und bin anschließend arbeitslos, weil irgendwer mit der biologischen Revolution kommt. Ok, etwas viel geschwalelt, aber ich musste euch mal mein Erfolgserlebnis mitteilen; was ich damit aber eigentlich sagen wollte: Wenn es denn wirklich mal so kommt, dass man sich von der "jetzigen" Elektronik verabschieded, dann gibts wohl ein paar tolle neue Möglichkeiten, die von wahrscheinlich echt guten Leuten entwickelt wurden, aber es gäbe kaum jemanden, der damit basteln könnte. Die Elektronik, wie wir sie jetzt haben, hat sich so schön langsam entwickelt, jetzt das alles was wir haben plötzlich anders machen zu wollen, wäre eine Katastrophe. Also: lasst uns lieber den heiligen Gral finden und wir sparen uns den ganzen Umstellungs-Ärger.

HeinzimBernd
2004-05-14, 20:27:25
Ich wäre dafür, den organischen Computer mit dem Computer wie wir ihn heute kennen zu verbinden.

Denn der biologische Computer mag zwar fehleranfällig sein, klar, aber dafür kann er auch die Möglichkeiten haben, die wir auch besitzen. Kreative Einfälle, kognitive Fähigkeiten bei Robotern sind nicht unbedingt die Stärken der 0 1 Generation.

Ich darf auch darauf hinweisen, dass nicht die rohe Hardwarepower des Rechners zählt, sondern das Resultat und die Geschwindigkeit an sich, mit der das Resultat erzeugt wurde. Was nützt es euch, wenn ihr auf der einen Seite euren AMD 10+ Ghz mit einer Flugzeugturbine kühlen müsstet, damit ihr euer neustes Game zocken könntet, während auf der anderen Seite euer Roboter noch zu dumm ist, euch ein Glas Wasser zu bringen, wenn ihr es ihm sagt? Euer biologischer Computer wird da anfangen, wo Moore's Law bei Silizium aufhört.

Desweiteren folgendes: Mit einer biologischen KI könnte sich rein theoretisch die Technologie viel weiter entwickeln, da diese KI sich ihre Technologie durch Kreativität selber erfindet, während der PC mittels Brute Force Methode jede Kombination eines Moleküls ausrechnen muss, damit etwas gescheites dabei rauskommt. Ich glaube nicht, dass wir in naher Zukunft es noch fertigbringen, noch komplexere Formeln im Kopf zu handhaben.

Aber biologische Computer (besonders KIs) sind wieder einmal eine ethische Frage, die es zu klären gilt. Den im Grunde sind wir (unser Gehirn) auch nur biologische Computer.

Monger
2004-05-14, 20:52:40
Original geschrieben von HeinzimBernd
Ich wäre dafür, den organischen Computer mit dem Computer wie wir ihn heute kennen zu verbinden.

Netter Vorschlag... wie willst du das machen? Das eine arbeitet mit Spannungen, das andere mit einem Mischmasch aus chemischen und elektrischen Vorgängen. Das eine arbeitet mit zwei diskreten Zuständen, das andere überhaupt nicht.
Dementsprechend ist das Ergebnis eines "organischen Computers" überhaupt nicht sinnvoll in diskreten Werten zu fassen.

Es gibt wohl keine bessere Definition von "inkompatibel" als dieses Beispiel.


Aber biologische Computer (besonders KIs) sind wieder einmal eine ethische Frage, die es zu klären gilt. Den im Grunde sind wir (unser Gehirn) auch nur biologische Computer.
Genauso könnte man behaupten, dass ein Computer ein elektrisches Gehirn ist. Oder dass ein Baum ein ausgefranster grüner Würfel ist...

Ich weiß dass der Vergleich von Gehirn zu Computer populär ist, aber meiner Meinung nach ist er sowas von falsch.

Cyphermaster
2004-05-15, 10:22:45
Der Vergleich Gehirn - Digitaler Prozessor ist imho nur so weit in Ordnung, wie man rein die Ergebnisse, und nicht den Weg zu diesen betrachtet. Beide Modelle verarbeiten Daten, und kommen zu Endergebnissen; und beide haben so ihre Schwächen und Stärken!

Ein Gehirn ist prinzipiell einem Chip in der potentiellen Leistung um Größenordnungen überlegen, auch in der Realisation von zigtausenden "Schaltzuständen" (Jede Nervenzelle ist mit vielen anderen verbunden, entsprechend viele Signalmöglichkeiten gibt es!) und daraus resultierender möglicher Abarbeitung von immens viel Information gleichzeitig und der Varianz-bedingten Kreativität können die Silizium-"Verwandten" keinen Stich machen. Aber biologische Technik hat auch durchaus Nachteile! Durch die vielen Schaltzustände ergibt sich ein recht analog anmutendes, also "unscharfes" Verhalten, das allgemein die biologische Unberechenbarkeit ausmacht, und man kann diese hochkomplexen Strukturen praktisch unmöglich 100%ig reproduzieren etc.pp.
Der Chip hingegen ist an sich ziemlich beschränkt in der Datenverarbeitung (man muß sich nur mal ansehen, wie leicht biologisch Bilder verarbeitet werden, und welche Probleme das noch bei Rechnern macht!) und kann durch seine Nicht-Abweichung kaum Ideen entwickeln - dafür holt er durch seine Wiederholgenauigkeit und sehr hohe Präzision wieder viel auf bzw. setzt sich dort vor das Gehirn.

Insgesamt ist das dann so etwas wie das Heisenberg'sche Unschärfetheorem, nur auf Daten bezogen: Entweder, ich weiß sehr genau das Ergebnis, benötige dafür aber viel Zeit - oder umgekehrt bekommen ich schnell ein Ergebnis, habe aber dann eine größere Unsicherheit in Kauf zu nehmen. Eine "Fusion" beider positiver Eigenschaften ohne Nachteile halte ich für nicht realistisch erreichbar; wir werden uns aber vielleicht je nach Anwendung die entsprechende Technik auswählen können, wenn sie mal verfügbar ist.

][immy
2004-05-15, 10:50:57
also das problem dieses threads liegt wohl eher in dem verstehen zwischen analog und digital

ein analoges signal (bzw ein natürlich analoges signal) hat egal wie kurz es ist unendlich zustände. wenn man es digitalisieren wollte, müsste man (wenn man genau bleiben will) eine gigantische bzw unendliche auflösung wählen
aber um noch genau genug zu bleiben wählt man einfach eine "sehr hohe" auflösung
bei einem erzeugten analogen signal im computer handelt es sich nicht um ein "natürlich" analoges signal. diese signale bestehen z.B. mehreren digitalen signalen die nur zusammengelegt wurden
z.B. jedes signal hat eine einzigartige spannung. addiert man 2 oder mehr spannungen entsteht wiederum eine einzigartige spannung in diesem system. nun haben wir unser "analoges signal" welches ansich einfach nur ein signal aus x-zuständen ist, und daher eigendlich doch wieder kein analoges signal darstellt, denn ein analoges signal hat unendlich zustände.

analog und digital sind in der technik ansich ziemlich gleich. weil analog im rechner so wirklich nicht existiert.
manche prozesse wollen lieber digitale signale und manche (technisch) analoge. z.B. ein ton-singnal muss erst analogisiert werden

analog ansich wäre zu komplex um damit wirklich zu genau rechnen. es würde bei allein schon komplexen rechnen einem (bis auf die xte stelle nach dem komma) eher einem raten gleichkommen. die digital technik bzw (technisch) analog ist sehr genau. je nach rechnung erhöht man einfach die anzahl der bits die man überträgt bzw verwendet.


stell dir z.B. eine sinuskurve bei irgendeiner messung vor. würdest du diese kurve vergrößern würdest du sehen das diese kurve selbst, ebenfalls wieder aus einer kurve besteht. vergrößerst du diese geht es immer so weiter usw.
wie willst du ein solches analoges signal speichern?
was du kannst, ist höchstens einen teil der kurve speichern, der rest würde verloren gehen. hier muss man sich einfach dafür entscheiden wie weit man diese kurve speichern will, denn alles ist so oder so nicht möglich

stell dir einen strich vor. zeichne nun an diesen strich eine eckkante ein. wiederhole das letzte usw usw.
dadurch entsteht, egal wie weit du es vergrößerst ein sich immer wieder wiederholendes muster. ein analoges signal müsste eigendlich in der lage sein dies alles in einem signal unterzubringen. diesen strich könntest du dir auch direkt als welle vorstellen. die informationen die in diesem srich zu finden sind, sind so komplex, das absolut nichts ausreichen würde dies abzuspeichern (da das signal in sich unendlich ist). ein digitaler algorithmus wäre dazu allerdings in der lage. schon allein dadurch, das dieser begrenzt ist. doch der computer wäre ansich auch unendlich lange damit beschäftigt dieses zu berechnen, da diese aufgabe kein ende hat
damit hast du mit analogtechnik schonmal ein problem
du kannst zwar etwas speichern, aber es muss irgendwann mal gezwungen beendet werden. beim digitalen zwar auch, aber die auflösung ist anpassbar

selbst wenn du analog-technik bis zum x ausbauen würdest, es wäre immernoch endlich und damit noch immer nicht besser als digitaltechnik (es würden sich sogar noch leichter fehler einschleichen).

Lokadamus
2004-05-15, 11:17:51
Original geschrieben von HiddenGhost
Ich habe gerade diese BBC Doku "BBC Exklusiv -
'Nanoroboter - Die Geschichte einer Vision (The Dark Secret of Hendrik Schön)'" gesehen, die von den Chancen, Gefahren und der Notwendigkeit einer auf Kohlenstoffen basierten Nanotechnologie referierte. U.A. ging man neben den potentiellen Gefahren ( Stichwort Borg: "resistance is futil" ;) auch auf das Moorschegesetz ein.

Auffallend war, dass sie immer und immer wieder versucht haben, final erfolglos, organischen Materialien die Funktion eines Transistors aufzuzwängen um dem Ende des moorschen Gesetzes einhalt zu gebieten.
Würde dieses Gesetzt der Leistungsverdopplung obsolid, wäre dies mit Sicherheit das Ende für die wirtschaftliche Entwicklung, ferner für das globale Leben wie wir es kennen, da dies immer und immer wieder auf Speudowahn nach unendlichem Wachstum beruht.mmm...

Man versucht andere Materialien zu finden, welche die Eigenschaften von Kohlenstoff haben, aber schneller sind. Was bringt es mir, wenn ich eine chemische Verbindung finden kann, die die gleichen Eigenschaften wie Kohlenstoff hat, aber langsamer ist? genau, ich habe nix gewonnen. Bei den biologischen Sachen weiss man jetzt schon, das es Strom besser/ schneller leiten kann => höhere Übertragungsgeschwindigkeiten wären möglich, perfekt, wenn es bei kleinen Strukturen geht. Dort hängen zur Zeit aber die Probleme, man hat bisher keine richtige biologische Struktur gefunden, welche die Eigenschaften von Kohlenstoff hat und sich nachbauen lässt.Doch ist es wirklich so sinnvoll weiterhin krampfhaft nach einem binären Lösungsweg zu suchen, nach einem heiligen Gral der in die Menscheheitsgeschichte eingehen würde? Ist es wirklich das naheliegenste zu versuchen Nullen und Einsen einem organischen Molekül aufzuzwängen?
Sschließlich arbeit kein Organismus dieser Welt nach diesen Konzepten, nicht mal Nervengewebe läßt sich in den eifnachsten Modellen auf ein derartiges Schema reduzieren. IMO müsste man versuchen ein neues Konzept zu entwickeln, dass die Eigenschaften der organischen Struckturen ausnutzt um Daten zu verarbeiten.
Selbst wenn andere KOnzepte pro Recheneinheit mit mehr als binärem Zeichensatz (null und eins; ausgehend von Siliziumtransistoren) mehr Raum für die Berechnung bräuchten, wäre organisches Material in dieser Hinsicht wohl nicht der limitierende Faktor. Selbst zu Mikrogeweben verwoben, wären diese deutlich kleiner als alles, was aus der Miniaturisierung des Siliziums herausköme.
Das Problem ist im Grunde nur, zu verstehen, wie man ein komplett neues Konzept anwendet, das alte hinter sich zu lassen.

Wenn die Leute schon nach diesem heiligen Gral der Wissenschaft suchen, sollten sie dann nicht auch nicht das Risiko scheuen, das bereits erlernte Wissen hinter sich zu lassen? Brauchen wir wirklich erst einen genialen Geist wie Einstein oder Hawking der unser Leben revolutioniert, einen Querdenker ohne eigene Handlungsgrenzen um so ein Konzept zu erschaffen? Ich hoffe nicht, denn die Folgen ohne baldige, neue Entwicklungsansätze sind abzusehen (Depression) und erschreckend, wenn man sie das globale, fragile Gefüge unserer Welt projeziert (Kriege als Folge der Depression).

Ich bin kein Techniker, noch kenne ich mich mit den Problemen dieser Studien aus. Ich schreibe hier nur meine Gedankengänge nieder, die weder Ansätze noch Lösungen beinhalten, sondern im Grunde nur offene Fragen darstellen. Ich bin auch kein Techniker, aber was hätten wir von einem 3. oder 4. Zustand? Wir brauchen ein "ja" oder "nein", ein "an" oder "aus", aber was sollen wir mit einem "vielleicht"? Es gibt zwar die Fuzzylogik, die auf mittlere Zustände aufsetzt, doch kann man das auch mit der binären Darstellung realisieren (zwar über mehrere Wege, dürfte aber leichter sein, als eine rein analoge Lösung, vor allem, wenn sie klein sein soll) ... nebenbei gesagt, woher willst du bei einer rein analogen Lösung wissen, dass die biologische Struktur "richtig" geht? stell dir vor, jemand benutzt eine perfekte biologische Struktur, gibt an einer Stelle ausversehen zuviel Spannung drauf => das Endergebniss ist falsch und die beim binären Rechnen fehlerfrei funktionierende Struktur landet im Müll ...

[LOG]Skar
2004-05-15, 18:00:19
Hi!

Ich finde es alle ganz nett mit dem Kohlenstoff und den "Transistor" Molkülen, aber die ändern noch lange nichts an der Architektur. Da werden wir immer noch mit Bits rechnen.
Und "Trits" bringen einem zwar gesparte Bandbreite, aber
auch den Designern Kopfschmerzen ;) Einzig RAM auf Basis eines "Trits" könnte ich mir vorstellen. Die Speicherzelle
kennt z.B. 3 Zustände. Auf dem RAM Modul sitzt dann direkt ein CHIP, welcher die Tristate-Signale in Binärsignale umwandelt. Das bringt einem dann einen Vorteil, wenn die Chips nahezu keine Latenzen erzeugen. Unter der Voraussetzung, dass Chips weit schneller sind als Speicher.
[als einfaches Bsp. könnte der 3. Zustand eine 11 darstellen]

Viel spannender finde ich aber Quantenrechern! Und die sind
alles andere als unbeherrschbar. Es gibt sie sogar schon, zumindest mit einigen wenigen Qubits wurde schon gerechnet.
Damit könnte man z.B Suchen WESENTLICH schneller machen.
Auch RSA Verschlüsselung wäre kein Problem mehr, wenn es um das Knacken geht.

Oder Rechner mit Lichtleitung statt Elektronenleitung?
Das Problem sind hier wohl noch die Speicher. Auch wenn es schon Medien gibt in denen die Lichtgeschwindigkeit auf Schrittgeschwindigkeit gebremst wurde.

Greetz und föhliches träumen.
Skar

mrdigital
2004-05-15, 18:35:18
ihr verwendet den Begriff Tristate hier falsch, Es wird heute schon mit Tristate Logik gearbeitet, und zwar immer dann, wenn man ein Bussystem hat, an dem mehrere (Informations)Quellen und Senken angeschlossen sind. Auf einem Bus darf immer nur eine aktive Staion sein, daher müssen alle anderen in einen 3. hochohmigen Zustand gehen, da es sonst einen schönen Kurzschluss geben würde. Wenn man nun Informationen zur Basis 3 codieren will, hätte man Bausteine mit 4 Zuständen!
Davon mal abgesehen ist dieser Thread teilweise echt haarsträubend von dem was ihr hier so aussagt. Ich kann ja verstehen, dass sowas die Phantasie beflügelt, aber bitte, eine gewisse Grundlage sollte das schon haben. Wenn ihr von analogen und digitalen Informationen sprecht, aber die Grundlagen der Informations / Signaltheorie nicht kennt, ist das recht gehaltlos, was hier so erzählt wird, denn diese Grundlagen wird auch eine andere Informationsverarbeitungsarchitektur (was für ein Wort ;)) nicht ändern.

Gast
2004-05-16, 12:02:33
Original geschrieben von PhoenixFG
Wenn man heute 0 und 1 als Spannung bzw. keine Spannung kodiert, wäre ein 3. Zustand noch relativ zu realisieren. Man könnte noch eine -1 als negative Spannung kodieren.
Allerdings ist die installierte Basis an binären System so enorm groß, dass es schwer fallen dürfte, mal eben einen 3. Zustand hinzuzufügen.
Man siehts ja shcon bei der x86er-Plattform. Die wird auch nur erweitert und aufgebohrt. Aber diverse alte Zöpfe mal abzuschneiden und neue wachsen zu lassen traut sich niemand. Kompitibilität um jeden Preis.

MfG
aber die 0 wird nicht als Spannungslos "übertragen". Wenn ein Transistor das Ergebnis 0 überträgt wird eine wesentlich niedrigere Spannung angelegt als bei der 1 (die Spannungen hängen von dem verwendetem Chip ab). Mehr als 2 Zustände sind sehr schwierig zu realisieren. Durch den Spannungsfall innerhalb der Leitungen (welcher zwar gering ist, aber trotzdem vorhanden) wird das Ergebniss verfälscht und der nachfolgende Transistor könnte es falsch interpretieren.
Eine negative Spannung halte ich ebenfalls für schwierig(zumal es dann schon 4 Zustände wären)! Die Spannungsquelle kann nicht einfach nach belieben umgepolt werden (zumindestens ist mir kein Bauteil bekannt welches in der Lage ist auf Befehl in Bruchteilen von Sekunden die Spannung ständig umzupolen). Leider wird es absehbarer Zukunft keine Alternative geben

tokugawa
2004-05-16, 23:36:12
Original geschrieben von Gast
aber die 0 wird nicht als Spannungslos "übertragen". Wenn ein Transistor das Ergebnis 0 überträgt wird eine wesentlich niedrigere Spannung angelegt als bei der 1 (die Spannungen hängen von dem verwendetem Chip ab). Mehr als 2 Zustände sind sehr schwierig zu realisieren. Durch den Spannungsfall innerhalb der Leitungen (welcher zwar gering ist, aber trotzdem vorhanden) wird das Ergebniss verfälscht und der nachfolgende Transistor könnte es falsch interpretieren.
Eine negative Spannung halte ich ebenfalls für schwierig(zumal es dann schon 4 Zustände wären)! Die Spannungsquelle kann nicht einfach nach belieben umgepolt werden (zumindestens ist mir kein Bauteil bekannt welches in der Lage ist auf Befehl in Bruchteilen von Sekunden die Spannung ständig umzupolen). Leider wird es absehbarer Zukunft keine Alternative geben

Mal abgesehen davon, dass mehr Zustände wie gesagt nichts am grundsätzlichen Problem - der Diskretisierung - ändern.

HiddenGhost
2004-05-17, 01:10:50
Original geschrieben von tokugawa
Mal abgesehen davon, dass mehr Zustände wie gesagt nichts am grundsätzlichen Problem - der Diskretisierung - ändern.

Das grundsätzliche Problem, das Szenario das von mir angedacht war,ist dass Moores Gesetz versagt und die Welt aufgrund des fehlenden Fortschritts in eine tiefe Depression gestürzt worden ist.

Ihr glaubt also, dass in dieser Welt kein Platz für neue Konzepte ist, sodass man auch weiterhin an binären Zuständen festhalten wird, um dennoch Moores Gesetz zu erfüllen?

Abseits von ehtischen Grundfragen. In wie weit wäre es sinnvoll künstliche Neuronalestruckturen züchten zu lassen, sich selbst generierende, reproduzierende künstliche Nervensysteme zur Datenverarbeitung? Diese wären dann zwar nicht so klein wie Naniten, könnten aber IMO noch flexibler und schneller sein wie Konstrucktionen auf Mineralbasis.
Die Frage der Kontrolle ist ein anderes Paar Schuh, das aus dieser potentiellen Not heraus gelöst werden würde.

Die Kontrolle der Struckturen, ein ureigenster menschlicher INstinkt, ist vielleicht kontraproduktiv. Was wäre, wenn man normale Computer als Mittler zwischen binärer und triärer, quartären Rechner, quasi als Interface zwischen Superrechner anderer Architektur schalten würde?

Lokadamus
2004-05-17, 06:11:04
Original geschrieben von HiddenGhost
Das grundsätzliche Problem, das Szenario das von mir angedacht war,ist dass Moores Gesetz versagt und die Welt aufgrund des fehlenden Fortschritts in eine tiefe Depression gestürzt worden ist.

Ihr glaubt also, dass in dieser Welt kein Platz für neue Konzepte ist, sodass man auch weiterhin an binären Zuständen festhalten wird, um dennoch Moores Gesetz zu erfüllen?mmm...

Hö? das Problem ist einfach, man kann die Strukturen nach dem derzeitigen Stand der Kenntniss nicht weiter verkleinern kann => Moores Gesetz wird darum in einigen Jahren nicht mehr erfüllbar sein. Was hat das mit einem anderen Funktionskonzept zu tun? ...Abseits von ehtischen Grundfragen. In wie weit wäre es sinnvoll künstliche Neuronalestruckturen züchten zu lassen, sich selbst generierende, reproduzierende künstliche Nervensysteme zur Datenverarbeitung? Diese wären dann zwar nicht so klein wie Naniten, könnten aber IMO noch flexibler und schneller sein wie Konstrucktionen auf Mineralbasis.
Die Frage der Kontrolle ist ein anderes Paar Schuh, das aus dieser potentiellen Not heraus gelöst werden würde.

Die Kontrolle der Struckturen, ein ureigenster menschlicher INstinkt, ist vielleicht kontraproduktiv. Was wäre, wenn man normale Computer als Mittler zwischen binärer und triärer, quartären Rechner, quasi als Interface zwischen Superrechner anderer Architektur schalten würde? Das ist doch das Problem, man kann diese Strukturen bisher nicht in diesem Sinne züchten, das sie brauchbar werden. Die einzigen Lösungen, die im kleinen Test geklappt haben, würden auf eine CPU bezogen, so teuer werden, dass niemand sowas testen wird (gutes Material in der benötigten Menge zu erzeugen, dürfte das grösste Problem für den Prototypen sein) ...

Gast
2004-05-17, 10:33:55
Original geschrieben von Lokadamus
mmm...

Hö? das Problem ist einfach, man kann die Strukturen nach dem derzeitigen Stand der Kenntniss nicht weiter verkleinern kann => Moores Gesetz wird darum in einigen Jahren nicht mehr erfüllbar sein. Was hat das mit einem anderen Funktionskonzept zu tun? ...Das ist doch das Problem, man kann diese Strukturen bisher nicht in diesem Sinne züchten, das sie brauchbar werden. Die einzigen Lösungen, die im kleinen Test geklappt haben, würden auf eine CPU bezogen, so teuer werden, dass niemand sowas testen wird (gutes Material in der benötigten Menge zu erzeugen, dürfte das grösste Problem für den Prototypen sein) ...

Das ist nur das was du weisst und von der Ind... und der Reg... hingeschmissen bekommst. Auch wenn es nur ne Spekulation ist so wissen wir eigentlich gar nix von dem was es wirklich gibt.

Beispiel:
Galileo Galilei entdeckte 1543 das die Erde kein scheibe ist und Veröffentlicht Buecher ueber die Umdrehungen der Himmelskoerper. Der normal Sterbliche ist eine sehr lange Zeit danach noch davon ausgegangen das die Welt ein Scheibe ist.

Im Maerz 1616 indizierte Rom alle Buecher, die behaupteten, die kopernikanische Lehre widerspreche nicht der heiligen Schrift (in unserem Fall an die heutige Neuzeit angelehnt, der marktwirtschaftlich Profit der Indutriellen)

Im Jahre 1632 erschien Galileis Buch "Dialog ueber die beiden hauptsaechlichen Weltsysteme", in dem die kopernikanische Lehre mit Nachdruck verteidigt wurde. Kein geringerer als Albert Einstein sagte ueber dieses Werk: "Da offenbart sich ein Mann, der den leidenschaftlichen Willen, die Intelligenz und den Mut hat, sich als Vertreter des vernuenftigen Denkens der Schar derjenigen entgegenzustellen, die auf die Unwissenheit des Volkes .... sich stuetzend, ihre Machtpositionen einnehmen und verteidigen. Seine ungewoehnliche schriftstellerische Begabung erlaubte es ihm, zu den gebildeten seiner Zeit so klar und eindrucksvoll zu sprechen, dass er das Denken der Zeitgenossen ueberwand und sie zu einer objektiven, kausalen Einstellung zum Kosmos zurueckfuehrte, die mit der Bluete der griechischen Kultur der Menschheit verlorengegangen war."

Und das trifft in der heutigen Zeit genauso zu, wie damals.

Tut mir leid wenn ich hier von der Thematik abgekommen bin,
ich wollte nur aufmerksam machen, da es ist nicht auszuschliessen ist, daß es schon solche Computer als Prototypen gibt.

P.S.: Die Frage der Ethik find ich sehr amüsant
"Aber biologische Computer (besonders KIs) sind wieder einmal eine ethische Frage, die es zu klären gilt. Den im Grunde sind wir (unser Gehirn) auch nur biologische Computer."

Es kann genauso sein das die erde/Evoltion das Ergebnis oder Experiment eines anorganischen Wesens sein kann. :)

So genug gesponnen :)

Lokadamus
2004-05-17, 11:10:49
mmm...

Und nochmal: hö? Moores Gesetz:
Firmengründer Gordon Moore formulierte schon in den 60er Jahren sein berühmtes Gesetz, nachdem sich alle 18 bis 24 Monate die Zahl der Transistoren auf einem Prozessor verdoppelt.
Das hat nix mit der Funktionsweise und auch nix mit der Leistung zu tun, sondern nur, dass die Strukturen kontinuierlich kleiner werden => irgendwann geht es auf der Basis von Silizium nicht mehr kleiner ... der derzeitige Nachfolger unserer derzeitigen CPU wird in Form des Quantencomputers erwähnt ...

http://www.g-o.de/index.php?cmd=focus_detail2&f_id=9&rang=6
http://www.3sat.de/3sat.php?http://www.3sat.de/nano/astuecke/30428/

HiddenGhost
2004-05-17, 11:47:07
Mooresgesetz sagt, dass mit der alle 18-24 Monaten einhergehenden Verkleienrung der Struckturen eine verdopplung der Leistung einhergeht.

Nur er hat nie davon gesprochen, mit welcher Architektur das verbunden ist. Wenn, und so nur der HYPOTHETISCHE FALL, Computerchips auf mineralbasis am Ende ihrer physikalischen Entwicklung angelangt sind und man nur noch mit einer komplett neuartigen Architektur weiterkäme, glaubt ihr dann wirklich, dass man nicht diesen Weg beschreiten würde.

Die Folgen eines Ausbleibens dieser Entwicklung habe ich schon mehrfach erwähnt und die Dimensionen dürften damit wohl erschreckend genug sein.

Ich glaube irgendiwe habt ihr mich falsch verstanden. Im Grunde gings mir nur darum, wei wahrschenlich es ist, dass dieWissenschaft alle bisherigen Erfahrungen mit bsp. Binärcode über den Haufen werfen würde, wenn es nur noch mit einer alternierenden Technik vorranginge.

Lokadamus
2004-05-17, 13:47:12
Original geschrieben von HiddenGhost
Mooresgesetz sagt, dass mit der alle 18-24 Monaten einhergehenden Verkleienrung der Struckturen eine verdopplung der Leistung einhergeht.mmm...

Und das hat er eben nicht gesagt, diese Aussage wird sich aber auch noch in 100 Jahren halten ... Verdoppelung der Anzahl der Transistoren, nicht der Leistung ...Nur er hat nie davon gesprochen, mit welcher Architektur das verbunden ist. Wenn, und so nur der HYPOTHETISCHE FALL, Computerchips auf mineralbasis am Ende ihrer physikalischen Entwicklung angelangt sind und man nur noch mit einer komplett neuartigen Architektur weiterkäme, glaubt ihr dann wirklich, dass man nicht diesen Weg beschreiten würde.Deine Ausgangsstellung setzt vorraus, dass die Entwicklung im Bereich Silizium/ Mineralien am Ende wäre => Quantencomputer wäre der nächste Schritt, bei allen anderen Alternativen könnte man ohne Probleme eine Kompatiblität gewährleisten (du kannst alles nehmen, was 2 (oder mehr) Zustände darstellen/übertragen kann: Laser, biologisches Material und was weiss ich nicht noch alles) ... Frage wäre eher, warum wird das nicht gemacht => kein Geld da, bzw. wird nicht von der Industrie unterstützt, um solche Sachen erst bei Bedarf zu präsentieren ...
Gehen wir von dem Fall aus, es gäbe keine Alternative. Na und? Dann würde daran gearbeitet werden, die Sachen zu parallelisieren und dadurch einen höheren Durchsatz zu erreichen, Quad-Cores würden der neue Standard werden ...
Ich glaube irgendiwe habt ihr mich falsch verstanden. Im Grunde gings mir nur darum, wei wahrschenlich es ist, dass dieWissenschaft alle bisherigen Erfahrungen mit bsp. Binärcode über den Haufen werfen würde, wenn es nur noch mit einer alternierenden Technik vorranginge. Du meinst die Einführung eines anderen Zahlensystems für die Funktionsweise einer CPU => sehr unwahrscheinlich, egal, was in Zukunft kommen wird, es werden die Daten immer in der binären Darstellung gespeichert werden und damit müssen sie zwangsläufig auch wieder so abgearbeitet werden. Wenn ich mir das Prinzip des Quantencomputers anschaue, arbeitet dieser nachher auch nur nach dem Binärprinzip, nur kann er aufgrund der Quantenmechanik die Sachen anders (und dadurch schneller) berechnen, das Ergebniss ist aber wieder binär ...

HellHorse
2004-05-17, 16:55:01
Gebe Lokadamus recht.
Und "Moores Gesetz" ist ja bloss eine Beobatchung und nicht mit "Gesetzen" wie den Newtonschen Gesetzen vergleichbar.
War halt bisher mehr oder weniger so, aber deswegen muss es in Zukunft nicht so sein.

avalanche
2004-05-17, 17:37:52
Original geschrieben von HellHorse
Und "Moores Gesetz" ist ja bloss eine Beobatchung und nicht mit "Gesetzen" wie den Newtonschen Gesetzen vergleichbar.
War halt bisher mehr oder weniger so, aber deswegen muss es in Zukunft nicht so sein. Das wäre mal eine andere Frage: Warum ist das "Gesetz" von Moore eigentlich so wichtig?

anorakker
2004-05-17, 17:59:09
naja, da müsst man sich jetzt mal genau damit auseinandersetzen, was moore gesagt hat, denn unbestritten wird wohl weiterhin gelten, das die anzahl der "aktiven elemente" immer weiter steigen wird, unabhängig davon, welcher art sie auch sein werden (heute halt cmos)..
denn es gibt grenzen! es mag sein, das man viele milliarden transistoren klassischer bauart miteinander verschalten kann, aber spätestens bei atomradius (also ca. 1stelliger nm bereich) wird es probleme bei den signallaufzeiten im makroskopischen bereich geben (also der kompletten schaltung an sich),was massive probleme für die seit 50jahren angewandte "rechner"architektur bedeutet..
ich denke der grösste umbruch müsste dann im bereich der software bzw. rechenweise einer schaltung stattfinden, also z.b massiv paralleles rechnen (quantencomputer?), so wie es z.b. unser gehirn macht.
mir kam da so ein kleiner vergleich in den sinn:

das rad wurde vor tausenden jahren erfunden und es erfüllt seinen eigentlichen zweck bis heute, doch um z.b.noch schneller von a nach b zu kommen haben die menschen das flugzeug erfunden(wobei das rad einen guten dienst beim starten leistet ;) ), eine komplett andere methode der fortbewegung, die auf völlig neuen wissenschaftlichen erkenntnissen basiert(e).
ein ähnlicher schritt wird imho auch für die "computertechnik" nötig sein, um die heute absehbaren probleme zu umgehen und hinter sich zu lassen..

Monger
2004-05-17, 18:14:11
Original geschrieben von anorakker
...

das rad wurde vor tausenden jahren erfunden und es erfüllt seinen eigentlichen zweck bis heute, doch um z.b.noch schneller von a nach b zu kommen haben die menschen das flugzeug erfunden(wobei das rad einen guten dienst beim starten leistet ;) ), eine komplett andere methode der fortbewegung, die auf völlig neuen wissenschaftlichen erkenntnissen basiert(e).
ein ähnlicher schritt wird imho auch für die "computertechnik" nötig sein, um die heute absehbaren probleme zu umgehen und hinter sich zu lassen..

Den Vergleich finde ich auch nicht schlecht, weil er noch was ganz anderes sagt: So uralt das Rad auch sein mag, es ist bis heute absoluter Standard, und wird es vermutlich für die nähere Zukunft auch bleiben.

Selbst wenn es irgendwann Alternativen gibt, sind sie möglicherweise für den Hausgebrauch unbrauchbar, sei es wegen zu hohen Kosten oder weil sie für die jeweilige Aufgabe einfach nicht zu gebrauchen sind.

Beispiel 64Bit Architektur: Für wissenschaftliche Zwecke wird ja schon sehr lange mit 64- oder sogar 128bit Werten gerechnet. So gut diese CPUs auch mit gigantisch großen Summen umgehen können, so lahm sind sie für den Standarduser, der sein Photopaint braucht und Doom3 spielen will.

HiddenGhost
2004-05-17, 18:37:47
Original geschrieben von avalanche
Das wäre mal eine andere Frage: Warum ist das "Gesetz" von Moore eigentlich so wichtig?

Weil es eben zum Schrittmotor unsere Zivilisation geworden ist. Allein vom stetigen, virtuellen unendlichen Wachstum hängt unsere Gesellschaft ab.
Scheitert Mooresgesetz, weil die konventionelle Technik nicht mehr weiter parallelisiert, minituarisiert, etc. werden kann, so kommt dies einem Gau für unsere Welt nah. Wir brauchen keinen Atomschlag, sondern es reicht wenn dieses essestentielle Glied aus der Reihe tanzt. Wenn die Weltwirtschaft kollabiert, dann

Sein oder nicht sein, das ist eine Frage der Computer!

Gast
2004-05-18, 18:18:11
hmm klingt ja ganz interessant was hier niedergeschrieben wird, jedoch fehlen vielen (auch mir) die wirklich nötigen fakten und kentnisse um mit verstand davon auszugehen, ob es wegen des "moorschen gesetzes" zu einem weltkonflikt kommt.

Analog vs Digital

Digital ist die zukunft. Analoges wird es so nicht mehr geben, prozessgesteuerte Abläufe werden nur noch digital verarbeitet. Ein Analoges Signal kann man nicht komplett digitalisieren, warum auch ? Man wählt die Auflösung, die dazu ausreicht, um das analoge signal digital zu verwerten. Allerdings kann ich mir vorstellen, daß die Menscheit eine "neue Mathematik" bzw. "Logik" erfinden müssen, um komplexere Vorgänge zu beschreiben.
Die Mathematik ist ja auch endlich, und wie oft bekommt man bis zur 10ten Klasse eigentlich gesagt "Man darf nicht durch 0 teilen, das ist verboten!" ?

Es bleibt nunmal nur wenigen klugen Köpfen vorbehalten, eine Gedankenleistung zu vollbringen, die sonst eigentlich nur 100kluge Köpfe in einem bestimmten augenblick vollbracht hätten.

Lokadamus
2004-05-21, 12:29:47
mmm...

Moores Law scheint weiter zu gehen ... guckst hier (http://www.heise.de/newsticker/meldung/47543) ...

DrumDub
2004-05-21, 13:04:08
hier gibts das ganz noch mal ausführlicher:

Ermöglichen Nanotransistoren bald die Fortsetzung von Moore's Law? (http://www.heise.de/tp/deutsch/inhalt/lis/17471/1.html)

interssant. damit könnte tatsächlich eine ganz neue entwicklung in der halbleitertechnik bevorstehen.

tokugawa
2004-05-21, 17:54:45
Original geschrieben von Gast
hmm klingt ja ganz interessant was hier niedergeschrieben wird, jedoch fehlen vielen (auch mir) die wirklich nötigen fakten und kentnisse um mit verstand davon auszugehen, ob es wegen des "moorschen gesetzes" zu einem weltkonflikt kommt.

Analog vs Digital

Digital ist die zukunft. Analoges wird es so nicht mehr geben, prozessgesteuerte Abläufe werden nur noch digital verarbeitet. Ein Analoges Signal kann man nicht komplett digitalisieren, warum auch ? Man wählt die Auflösung, die dazu ausreicht, um das analoge signal digital zu verwerten.


Das allein reicht nicht. Es gibt sowas wie Fehlerfortpflanzung. Bei der Diskretisierung mag eine bestimmte Auflösung noch ausreichen, aber wenn man mit diesem Wert etwas anfängt (also in Berechnungen einsetzt; was im Normalfall der Sinn einer Messung), kann aus einem Fehler im hundertstel-Bereich leicht ein Fehler im hunderFACH-Bereich werden.

Folglich hat "Digital" (ich präferiere allerdings das Wort "diskret") einige echte Probleme.

Original geschrieben von Gast
Allerdings kann ich mir vorstellen, daß die Menscheit eine "neue Mathematik" bzw. "Logik" erfinden müssen, um komplexere Vorgänge zu beschreiben.


Mit dem Problem der Fehlerfortpflanzung (Konditionszahlen, usw.) beschäftigt sich der Bereich der Numerischen Mathematik (auch Computernumerik genannt). Unter anderem auch, wie man Berechnungen so anstellen kann, um die Fehlerfortpflanzung zu minimieren.

Original geschrieben von Gast
Die Mathematik ist ja auch endlich, und wie oft bekommt man bis zur 10ten Klasse eigentlich gesagt "Man darf nicht durch 0 teilen, das ist verboten!" ?


Die Mathematik an sich ist weder endlich noch unendlich, aber unendliche Prozesse kommen sehr wohl in der Mathematik vor. Man darf nicht durch Null teilen, aber man kann einen Wert "durch 0" sehr wohl berechnen durch Grenzprozesse (lim 1/x mit x gegen 0). Genau wie man "0^0" (null hoch null) ebenfalls ausrechnen kann (ist 1; sh. Satz von De L'Hôpital).

Außerdem sind in der Mengenlehre (ist auch Mathematik), so ziemlich alle Zahlenmengen (N, Q, R, C) unendlich (manche sogar kontinuierlich unendlich, also eine höhere "Klasse" von unendlich).

Original geschrieben von Gast
Es bleibt nunmal nur wenigen klugen Köpfen vorbehalten, eine Gedankenleistung zu vollbringen, die sonst eigentlich nur 100kluge Köpfe in einem bestimmten augenblick vollbracht hätten.

Was willst du mit diesem Satz aussagen?

anorakker
2004-05-22, 17:16:48
imho ist das mooresche geset nicht unbedingt an die binäre logik geknüpft, oder anders gesagt, heutzutage basieren die meisten elek. schalkreise auf binärer logik, aber wieso sollte nicht irgendwann einmal die heutige technik zu einer "unscharfen" logik weiterentwickelt werden. neuronale netze werden ja schon in vielen bereichen eingesetzt, nur beschränkt sich das bis jetzt auf die software. hirnzellen sind im grunde genommen ja auch nichts anderes als einzelne "schalter", die entscheidungsgrenzen in abhängigkeit von diversen parametern haben. man könnte durchaus gatter designen, die ähnlich funktionieren, denn auch ein einzelnes gatter ist eigentlich ein absolute analoges system, dass meistens nicht so "digital" schaltet, wie es die schaltungsdesigner gerne hätten...
es ist aber ein riesiger technologischer schritt nötig um solch nicht mehr deterministische systeme zu designen und sinnvoll einzusetzen.

Gast2k4
2004-05-22, 18:54:48
Hi,

ich finde den Thread ziemlich interessant, bloß kann mir jemand erklären, wie ein analoge Schaltkreis (kann man dazu überhaupt Schaltkreis sagen?) funktioniert? Wurde vielleicht hier schon einigermaßen erklärt, mir wäre aber eine gute Erklärung lieber :).

mrdigital
2004-05-26, 11:00:13
Original geschrieben von Gast2k4
Hi,

ich finde den Thread ziemlich interessant, bloß kann mir jemand erklären, wie ein analoge Schaltkreis (kann man dazu überhaupt Schaltkreis sagen?) funktioniert? Wurde vielleicht hier schon einigermaßen erklärt, mir wäre aber eine gute Erklärung lieber :).
dann mach ich mal ne provokante Behauptung ;)
Es gibt keine digitalen Schaltkreise, es gibt nur analoge. In den so genannten digitalen Schaltkreisen werden letzlich auch nur Analogwerte verarbeitet und interpretiert. Man schränkt den "interessanten" Wertebereich ein und ordnet den Bereichen eine logische Bedeutung zu. Ein Logikbaustein interpretiert Spannungen zwischen -0,5V und ca 1V als logische Null und Spannungen über 2V als logische eins (die Spannungen sind nur als Beispiel gedacht, wie diese Pegel in der Realität sind hängt vom verwendeten Baustein ab). Der Unterschied zwischen einem analogen Baustein und einem digitalen ist also die Interpretation er Spannungen / Ströme. Dadurch das man einen grösseren Bereich einem logischen Zustand zuordnet macht man die Entscheidungssicherheit grösser (was ist als null, was als eins zu verstehen). Des weiteren interessiert bei einem digitalen Bauelement nur der logische Zustand (das stellt ja das Ergebniss dar) und bei einem analogen ist der tatsächliche Spannungswert / Strom von interesse ist. Aber beide Arten von Bausteinen unterliegen den Gesetzmässigkeiten der Elektrotechnik.