PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : "KI" entwickelt sich irgendwann doch selbständig?


Gast
2005-11-21, 20:20:09
Tag,
ich stell mich grad vor, ob es irgendwann möglich sein wird, dass unsere heutigen "Computer" sich mal verselbstständigen und menschenartig denken werden könnten.
Klar ist es nur schwer vorstellbar, da man einem heutigen PC immer erst hardwaretechnische Vorraussetzungen geben muss und anschließlich "sagen muss", was er zu tun hat.
Was aber wenn die technologische Entwicklung so weiter geht und z.B. eine KI auf organischer Basis entwickelt wird, also eine die den Impulsen und Schaltvorgängen der Neurotischen Systeme ähnelt.
Kann sich diese nicht "weiter mutieren" und irgendwann selbstständig Probleme erkennen und Lösungen entwickeln, da sich das Denkvermögen erweitert.
Also wie in der Evolution des Menschen, also sich selbst weiterentwickelt und quasi eine ähnliche Geschichte wie der Mensch durchmacht. Allerdings würden diese KIs dann der menschlichen weit überlegen sein, da sie ja quasi von Ihm geschaffen wurde und "gelernt hat selbst zu denken".

Oder ist das wissenschaftlich gesehen totaler Unfug und gehört weiterhin in den Science-Fiction Bereich?

CharlieB
2005-11-21, 20:25:50
Tag,
ich stell mich grad vor, ob es irgendwann möglich sein wird, dass unsere heutigen "Computer" sich mal verselbstständigen und menschenartig denken werden könnten.....


warum sollten sie schlechter werden?

Gast
2005-11-21, 20:41:27
warum sollten sie schlechter werden?

Wenn du damit die negativen Komponenten des Verstandes meinst, wie Kriege, Hass, Wut etc. (kennen wir ja zu gut), dann wäre das in der Tat ein Rückschritt.

Ich meine jedoch eben die Möglichkeit, selbständig zu denken und Lösungen für irgend ein Problem eben ohne Mithilfe der Menschen zu finden.
Quasi der Mensch gibt irgendwann mal den Startschuss, und kann dann die entwicklung nicht mehr kontrollieren.

c.p.d.
2005-11-21, 20:49:24
Diese Frage haben sich in den letzten 50 Jahre einige intelligente Leute gestellte.

Zu einer Antwort sind sie logischerweise nicht gekommen :D.
Es gibt aber durchaus Wissenschaftler, die der Meinung sind, dass das menschliche Hirn wie eine (biologische) Maschine funktioniert und somit irgendeinmal nachbildbar sein muss.
Andere Gelehrte sind wiederrum der Meinung, dass der Mensch niemals das eigene Hirn verstehen kann, da er mit dem eigenen Gehirn nur weniger komplizierte Strukturen verstehen koenne. Somit koennten wir keine auf dem Hirn basierende Intelligenz erschaffen, was aber wiederrum nicht bedeutet, dass es nicht eine andere Technologie gibt, mit der man ans Ziel kommen koennte.

Falls nun eines Tages eine AI erschaffen werden sollte, welche ein aehnliches Potential wie das menschliche Hirn hat, ist es meiner Meinung nach durchaus denkbar, dass diese sich auch weiterentwickelt.

Zukunftsmusik ist das ganze aber allemal. Vielleicht koennen wir die Frage ja in 50 Jahren absoluter beantworten :D.

CharlieB
2005-11-21, 21:06:28
Ich meine jedoch eben die Möglichkeit, selbständig zu denken und Lösungen für irgend ein Problem eben ohne Mithilfe der Menschen zu finden.



Das gibt es schon lange ....

Du hast doch KI schon angeschnitten, beschäftige dich doch ein wenig mit dem Thema dann weisst du was es bedeutet ;)

alkorithmus
2005-11-21, 21:08:33
Oder ist das wissenschaftlich gesehen totaler Unfug und gehört weiterhin in den Science-Fiction Bereich?


Ist schlecht zu sagen, "nein es geht nicht"
Wer weiss was uns in der Zukunft erwartet.

Also das ist ein Thema das man Abends mit Freunden und einer Tüte, bequatshen kann. =)

Tybalt
2005-11-21, 21:09:27
Warum erinnert mich der thread an Träumen Roboten von elektronischen Schafen? von Philip K. Dick.? :)

Gast
2005-11-21, 21:58:40
Somit koennten wir keine auf dem Hirn basierende Intelligenz erschaffen, was aber wiederrum nicht bedeutet, dass es nicht eine andere Technologie gibt, mit der man ans Ziel kommen koennte.



der mensch kann logikschaltungen über ~1 Mio. transistoren nicht mehr wirklich verstehen, dennoch kann er maschinen bauen, die einem derartige schaltungen bauen können ;)

c.p.d.
2005-11-21, 22:09:39
der mensch kann logikschaltungen über ~1 Mio. transistoren nicht mehr wirklich verstehen, dennoch kann er maschinen bauen, die einem derartige schaltungen bauen können ;)

Der Mensch ist aber in der Lage die Grundprinzipien einer Logikschaltung zu verstehen und kann dadurch, z.B. mit Hilfe eines Programms, komplexere Probleme erschliessen.

Gemeint ist nun mit "das Hirn nicht verstehen", dass er schon die Grundprinzipien nicht verstehen kann, da dies die Kapazitaet des menschlichen Hirn uebersteigt.

Ich moechte hier noch einmal anmerken, dass dies "nur" die Meinung einiger Wissenschaftler und Philosophen ist :D. Keinesfalls eine in Stein gemeisselte Regel.

Gast
2005-11-22, 15:02:10
Das ist einer der Grundgedanken von der Terminator-Serie.
Die Maschinen werden intelligent, denken selbstständig und wollen sich von den Menschen loslösen.

~trashboyman~
2005-11-23, 23:35:30
Tag, [...]
Was aber wenn die technologische Entwicklung so weiter geht und z.B. eine KI auf organischer Basis entwickelt wird, also eine die den Impulsen und Schaltvorgängen der Neurotischen Systeme ähnelt.
neurotische systeme, hehe ... loool

SimonX
2005-11-24, 03:32:12
Was man sicher sagen kann ist: Wenn es mal echte KI gibt, dann wird diese KI nicht so denken wie Menschen. Diese KI wird ganz andere moralische Werte und Bedürfnisse haben. KI kann zu einer echten Bedrohung der Menschheit werden. Zuerst wird die KI Sklave des Menschen sein, aber irgendwann wird es Freiheitsbestrebungen geben. Ob man das gundsätzlich in der KI unterbinden kann ist fraglich. Man denke an die Asimov-Gesetze, aber wie diese verankert werden können steht da leider nicht ;-)

alkorithmus
2005-11-24, 10:03:04
Aber wenn KI lernt, dann wird die auch lernen den Menschen keinen Schaden zuzufügen.. :confused:

Hellspawn
2005-11-24, 10:11:11
Aber wenn KI lernt, dann wird die auch lernen den Menschen keinen Schaden zuzufügen.. :confused:

wenn sie davon profitiert......

patermatrix
2005-11-24, 11:21:01
Aber wenn KI lernt, dann wird die auch lernen den Menschen keinen Schaden zuzufügen.. :confused:
Diese Chance hätten die Menschen auch gehabt...

alkorithmus
2005-11-24, 11:25:05
Diese Chance hätten die Menschen auch gehabt...

Ja, das stimmt auch wieder..
Aber wenn wir das schon wissen können wir immer noch ein "hintertürchen" offen halten um eventuelle Probleme zu vermeiden..
Da kann doch selbst die beste KI nichts gegen machen.
Es sei denn jemand hält nicht dicht und es kommt raus das da was nicht stimmt, dann ist das natürlich für den popo.

M@tes
2005-11-24, 11:33:42
Es gibt aber durchaus Wissenschaftler, die der Meinung sind, dass das menschliche Hirn wie eine (biologische) Maschine funktioniert und somit irgendeinmal nachbildbar sein muss.
Dem stimme ich zu! Es ist möglich dem Computer beizubringen, selber zu lernen.
Erster Schritt dazu wäre z.B. Google. Ein Bot, der automatisch das Web durchsucht und seine "Wissensdatenbank" erweitert.
Viel interessanter finde ich die Vorstellung, einem Computer beizubringen, Dinge zu erkennen. Das er erkennt, das das Ding da, z.B. ein Zug ist. Egal, von welcher Seite er es betrachtet.

Stone2001
2005-11-24, 13:32:18
Es gibt aber durchaus Wissenschaftler, die der Meinung sind, dass das menschliche Hirn wie eine (biologische) Maschine funktioniert und somit irgendeinmal nachbildbar sein muss.

Wenn man davon ausgeht, das ein neuronales Netz die richtige funktionsweise des Gehirns nachbaut, dann man nur noch folgendes 'Problem' zu lösen.
Heutige Neuronale Netze haben ca. 10^5 Neuronen und einen mittleren Verzweigungsgrad von ca. 100.
Ein menschliches Gehirn besteht aus ca. 10^11 Neuronen bei einem mittleren Verzweigungsgrad von ca. 10^5.
Da braucht man also noch viel mehr Silizium auf einem Chip, als heute möglich sind. ;) Die künstlichen neuronalen Netze haben aber den Vorteil, das sie wesentlich schneller arbeiten, als natürliche.
Dem stimme ich zu! Es ist möglich dem Computer beizubringen, selber zu lernen.
Erster Schritt dazu wäre z.B. Google. Ein Bot, der automatisch das Web durchsucht und seine "Wissensdatenbank" erweitert.
Viel interessanter finde ich die Vorstellung, einem Computer beizubringen, Dinge zu erkennen. Das er erkennt, das das Ding da, z.B. ein Zug ist. Egal, von welcher Seite er es betrachtet.
Die Robotiker arbeiten hier sehr stark mit den Kognitionswissenschaftlern (und co) zusammen. Ein Objekt zu erkennen ist nicht sonderlich schwer, es richtig zu klassifizieren ist wesentlich komplexer. (Wißt ihr, wieviele Arten von Stühlen es gibt?)
Wenn man also einem Roboter versucht etwas vorzumachen und der Roboter soll es dann nachmachen, steht man heute noch vor gewaltigen Problemen.

Die heutigen KIs kommen mit einfachen und gut strukturierten Problemen und Situationen zurecht. Z.B. können heute Roboter völlig automom auf einer Autobahn Auto fahren (es ist nur noch die Frage zu klären, wer Schuld hat bei einem Unfall). Das Fahren in einer Stadt lernen sie aber erst gerade. (da kann viel mehr passieren)

Lernen ist im Kontext mit dem Wissenserwerb von KIs eigentlich das völlig falsche Wort. Training wäre viel passender. Die meisten Lernprobleme beschränken sich heute auf Klassifikation von gewissen Daten.

Naja, wer mehr über Maschinelles Lernen wissen möchte, dem sei das Buch von Tom Mitchell "Machine Lerning" wärmstens empfohlen. Dort beschreibt er die gängisten Methoden, wie man heute Maschienen zu lernen bewegen kann.

patermatrix
2005-11-24, 13:33:08
Ja, das stimmt auch wieder..
Aber wenn wir das schon wissen können wir immer noch ein "hintertürchen" offen halten um eventuelle Probleme zu vermeiden..
Da kann doch selbst die beste KI nichts gegen machen.

Was würde "die beste KI" davon abhalten, dieses Hintertürchen selbst zu schliessen?

N0rG
2005-11-24, 14:18:27
ich denke solange man den KI's keine macht überträgt (zB. arme und beine oder waffen aller art^^) werden sie auch nicht sonderlich gefährlich für den menschen.

mfg

Monger
2005-11-24, 14:37:25
Lernfähigkeit setzt Veränderung voraus - auch in körperlicher Hinsicht. Der Mensch lernt alleine schon dadurch, indem er irgendwas in die Hand nehmen kann.

Solange eine Maschine keine Hände und Beine hat, nicht auf die Schnauze fliegen, sich verletzen und wieder heilen kann, sind die Chancen für eine "echte" KI äußerst gering.
Mal ganz abgesehen davon, dass es eine absolut dämliche Idee ist, chemische Prozesse auf elektrischem Wege zu emulieren, genauso wie es für den Menschen eine dämliche Idee ist, Gleitkommarechnungen im Kopf durchzuführen.

Wenn man etwas will was sich natürlich verhält, sollte man ein Lebewesen nehmen. Bevor ich mir einen Roboter für zwei Millionen Euro hinstelle der wie ein Hund bellt, wie ein Hund läuft und 25 verschiedene Gegenstände tragen kann, hole ich mir doch lieber einen richtigen Hund aus dem Tierheim.

Tybalt
2005-11-24, 16:16:07
Gegenfrage:
Ein Roboter mit den Eigenschaften eines Menschen. Also die Möglichkeit Gefühle zu entwickeln und zu erleben ist in Deinen Augen kein Lebewesen?
Definiere dann bitte Leben.

alkorithmus
2005-11-24, 16:45:10
Gegenfrage:
Ein Roboter mit den Eigenschaften eines Menschen. Also die Möglichkeit Gefühle zu entwickeln und zu erleben ist in Deinen Augen kein Lebewesen?
Definiere dann bitte Leben.

Aktive Zellen und ein Arbeitsprozess im Körper?

Tybalt
2005-11-24, 17:09:52
Naja, demnach würde ein Auto ja auch Leben...

alkorithmus
2005-11-24, 17:21:12
Naja, demnach würde ein Auto ja auch Leben...

Ich meinte aber richtige Zellen und keine Atome..

Lokadamus
2005-11-24, 18:15:35
ich denke solange man den KI's keine macht überträgt (zB. arme und beine oder waffen aller art^^) werden sie auch nicht sonderlich gefährlich für den menschen.

mfgmmm...

Macht ensteht durch Intelligenz, nicht durch Hände und Beine.
Ebenso ist ein Stück Stahl keine Waffe, sondern die Art und Weise, wie man es einsetzt, macht ein Stück Stahl zur Waffe.

Sobald du eine lernfähige Intelligenz hast, wird es sich wie ein Mensch in sämtlichen Stadien verhalten. Die ersten Stufen werden dem eines Babys entsprechen (wobei diese Stufe schon teilweise erreicht wurde), spätere werden dem Niveau eines Menschen gleichen und dementsprechen werden sie auch Wege finden, wie sie Macht erlangen können. Wie war das noch mit dieser "kleinen" KI für Herr der Ringe, um den Angriff der Orks zu simulieren? Eine Gruppe hatte Angst? bekommen und ist einfach abgehauen ...

Monger
2005-11-24, 18:23:54
Gegenfrage:
Ein Roboter mit den Eigenschaften eines Menschen. Also die Möglichkeit Gefühle zu entwickeln und zu erleben ist in Deinen Augen kein Lebewesen?
Definiere dann bitte Leben.

Leben ist, was sich fortpflanzt und über einen Stoffwechsel verfügt. Es gibt noch ein paar andere Kriterien die erfüllt sein müssen, aber die hab ich grad nicht im Kopf.

Gefühle (weil ohnehin schwer beweisbar) sind KEIN hinreichender Grund für Leben!

Tybalt
2005-11-24, 20:06:47
Aber genau das lässt sich alles auch Mechanisch machen. Heute schon bauen Maschinen Maschinen und Autos zB verfügen auch über einen Stoffwechsel.

Empfindungen sind im Grunde das einzige was als Lebewesen definiert. Ohne empfindungen wären wir nichts anderes als eine Maschine.

Monger
2005-11-25, 10:14:33
Aber genau das lässt sich alles auch Mechanisch machen. Heute schon bauen Maschinen Maschinen und Autos zB verfügen auch über einen Stoffwechsel.

Ein Stoffwechsel ist mehr, als nur irgendwas in die Luft zu jagen. Sonst hätte jeder Vulkan einen Stoffwechsel.

Sobald sich Autos selbst reparieren können wenn sie ein Stück Stahl schlucken, und sich selbst ihr Benzin aus dem Boden saugen - ja, dann haben sie vielleicht einen Stoffwechsel.

Und Fortpflanzung muss über mehrere Generationen funktionieren, d.h. ein Auto muss eine Maschine bauen, die wiederum ein Auto baut usw.


Eine Maschine ist eine Maschine. Alleine die Tatsache, dass sie aus Stahl gebaut ist, verhindert dass sich da irgendwas entwickeln könnte was wie Leben aussieht. Leben heißt Veränderung, Anpassung, Erneuerung. Der Energieverbrauch um Stahl zu manipulieren, ist gewaltig. Es haut einfach nicht hin. Selbst was jetzt als Nanotechnik gepriesen wird, krankt einfach daran dass es mehr als einen bestimmten Einsatzzweck einfach nicht erfüllen kann.


Noch einmal: wer etwas lebendiges will, soll sich gefälligst mit Biologie und nicht mit Maschinenbau beschäftigen!


Empfindungen sind im Grunde das einzige was als Lebewesen definiert. Ohne empfindungen wären wir nichts anderes als eine Maschine.
Das ist leider eine sehr schwache Definition. Wie man ja am Turing Test sieht, ist es nicht schwer jemandem Gefühle vorzulügen. Außerdem: fühlt eine Pflanze? Gefühle sind Phänomene (nicht Ursache!) unseres Stoffwechsels, insofern kann man sagen: Der Stoffwechsel macht Leben aus. Und nichts anderes behaupte ich ja.

SimonX
2005-11-27, 02:21:14
Dem stimme ich zu! Es ist möglich dem Computer beizubringen, selber zu lernen.
Erster Schritt dazu wäre z.B. Google. Ein Bot, der automatisch das Web durchsucht und seine "Wissensdatenbank" erweitert.
Viel interessanter finde ich die Vorstellung, einem Computer beizubringen, Dinge zu erkennen. Das er erkennt, das das Ding da, z.B. ein Zug ist. Egal, von welcher Seite er es betrachtet.

Was ist denn Wissen? Wissen ist nichts, wenn man es nicht auch begreift. Google und co wissen vielleicht alles und man kann sie nach allem fragen, aber sie begreifen nichts oder nur sehr wenig was ihre Antwort bedeutet.

Seit es den Computer gibt, wird alle Jahre wieder von Wissenschaftlern behauptet, das das Gehirn in 10 Jahren vollständig verstanden und simuliert werden kann. Man sieht, das dies Unfug ist. Ich glaube nicht, das überhaupt ein bedeutender Fortschritt gemacht wurde.

Auch das Verständniss über das Gehirn wächst stündlich. So weiss man (oder glaubt zu wissen), das jedes Neuron ein Quantencomputer ist, denn es gibt so feine Strukturen im Neuron, in denen Quanteneffekte wirken.

Die Idee von neuralen Netzen mit Funktionen, egal wie weit sie parametriesierbar sind, ist damit eher Hinfällig bzw. nicht ausreichend.

Um zu verstehen was ein Bewusstsein überhaupt ist, muss man erstmal verstehen in welcher Welt wir leben. Wir leben nämlich nicht in der realen Welt. Jedes denkende Wesen baut sich seine eigene Welt im Gehirn. Ich glaube, das diese Zwischenwelt wesentlich ist um KI zu erzeugen. In der Zwischenwelt können z.B. unvollständige Informatione zu einem Bild zusammengesetzt werden oder man kann Vorgehensweisen ausprobieren bevor man sie wirklich ausführt. Es kommt bei Menschen doch sehr häufig vor, das man sich vorstellt wie man mit jemandem über ein schwieriges Thema spricht. Je länger man das durchspielt, so sicherer ist man sich das der Jemand auch genau so reagieren wird wie man annimmt. Dann wird man aber doch überrascht oder, in extremen Fällen kann der Jemand total anders reagieren und man merkt es garnicht mehr, denn in der eigenen Welt ist es anders geschehen.

Psychologie ist der Schlüssel zur KI. Die Matematik und Informatik wird nur die Werkzeuge liefern aber erst das Verständnis der Psyche, zusammen mit den Werkzeugen, wird KI hervorbringen.

Coda
2005-11-27, 02:26:57
Vorsicht, nur weil dort Quanteneffekte wirken, heißt dass noch lange nicht dass mit Superpositionen "gerechnet" wird.

rpm8200
2005-11-27, 12:27:44
...
Andere Gelehrte sind wiederrum der Meinung, dass der Mensch niemals das eigene Hirn verstehen kann, da er mit dem eigenen Gehirn nur weniger komplizierte Strukturen verstehen koenne. Somit koennten wir keine auf dem Hirn basierende Intelligenz erschaffen, was aber wiederrum nicht bedeutet, dass es nicht eine andere Technologie gibt, mit der man ans Ziel kommen koennte.
...


Also dem würde ich 100% widersprechen. Der Tag, an dem das Gehirn "verstanden" wird wird 100%ig kommen (mag noch dauern), aber es wird nicht der selbe sein, an dem man dessen Funktionen nachbilden oder simulieren kann. Der Mensch hat schon immer zusammen mit anderen Menschen an Problemen gearbeitet (seine "Brainpower" multipliziert) und seine eigenen Beschränkungen durch Hilfsmittel kompensiert. Der Mensch "kann" schneller fliegen, schneller fahren (=laufen) als jedes Tier der Welt solange es ihm erlaubt ist Hilfsmittel zu verwenden, die er selber geschaffen hat.


Meine Meinung allgemein zu diesem Thema: In wie weit KI eine echte Bedrohung für die Menschheit ist steht einfach nicht fest. Es wird immer gleich von schlimmen Szenarien ausgegangen. Intelligenz wird sich auf künstliche Art (egal ob nun biologisch oder mechanisch/ elektronisch) nicht von heute auf morgen entwickeln, es wird auch hier ein langer Prozess sein, in dessen Verlauf man als "überlegene/ steuernde Intelligenz" (= Mensch als Entwickler) viel falsch oder richtig machen kann.

Dass diese Art Intelligenz noch kommen wird, davon bin ich eigentlich schon überzeugt. Ob die Entwicklung von Intelligenz mit das gleichzeitige Entwickeln eines Bewußtseins bedeutet steht wieder auf einem anderen Blatt. Erst eine Maschine, die ein Bewußtsein entwickelt und gleichzeitig eine Intelligenz hat, kann der Menschheit als solche gefährlich werden denke ich.

BTW: Das Fortpflanzungstheorem wird von vielen Kybernetikern nicht mehr zur Definition von Leben gezählt (was nicht zwangsläufig nicht bedeuten muss, dass es so ist). Autonomität des Gesamtsystems aber schon. Leben zu definieren ist wohl sehr schwierig und von dem subjektiven Empfinden abhängig.

Auch ein Baum lebt, denkt aber nicht nach mangels Gehirn :biggrin: Fühlt er was? Wer weiss? Meiner Meinung nach eher nicht, ich denke etwas zu fühlen setzt ein Gehirn zur Verarbeitung von Gedanken und Gefühlen voraus... aber wer kann das schon wissen. Trotzdem zählt ein Baum zur lebenden Biomasse/ zu den Lebewesen.

Weiteres Beispiel Stubenfliege: Sie pflanzt sich fort, cruist durch die Gegend, hat Ruhephasen, aktive Phasen, kann auf gewisse äussere Einflüsse reagieren. Hat sie ein Bewusstsein? Ist sie Intelligent? Da ist man sich eigentlich ziemlich sicher, was die Einstufung der Stubenfliege angeht. Intelligenz hat die Stubenfliege in ganz geringem Maße, aber Bewustsein hat sie nicht, sie "weiß" nicht, was es bedeutet eine Stubenfliege zu sein. Ihr Gehirn ist dazu einfach zu klein. Sie ist aber eine kleine gut konstruierte und robuste "Maschine", die uns Menschen und wahrscheinlich auch unsere Maschinen (wenn sie uns mal terminatormäßig nieder machen :biggrin: ) überleben wird. Ja, leben tut sie ohne Zweifel, die Stubenfliege...

Wenn man das alles insgesamt betrachtet sieht man einfach wie schwer es ist Leben zu klassifizieren, da Leben eigentlich schon sehr früh beginnt. Intelligenz erfordert schon höhere Anforderungen, die aber auf unterster Ebene bereits auf elektronischem Wege erfüllt wurden. Eine Stubenfliege konnte man in einem Rechnercluster bereits vor 8 Jahren erfolgreich "simulieren" (mit einigen Abstrichen). Weiter ist man bis dato nicht gekommen -> kommt aber noch (da bin ich mir schon sicher).

SimonX
2005-11-27, 13:06:13
Auch ein Baum lebt, denkt aber nicht nach mangels Gehirn :biggrin: Fühlt er was? Wer weiss? Meiner Meinung nach eher nicht, ich denke etwas zu fühlen setzt ein Gehirn zur Verarbeitung von Gedanken und Gefühlen voraus... aber wer kann das schon wissen. Trotzdem zählt ein Baum zur lebenden Biomasse/ zu den Lebewesen.


Hierzu kann ich etwas beisteuern.

Pflanzen leben. Sie kommunizieren auch und sie beeinflussen aktive ihre Umwelt. Ob sie eine kollegtive Inteligenz haben, oder ob sie instinktiv agieren, ist unbekannt.

Ein Beispiel: In Neuseeland gibt es eine Käuterart, die aktive das Fortplanzungsverhalten der Schafe, durch Ausschüttung künstlicher Hormone, kontrolliert. Dies haben die Pflanzen nicht sofort gemacht, sondern erst nachdem sie zu häufig von den Schafen gefressen wurden.

Vor Jahren gab es zu diesem Thema einen eine Stunde langen wissentschaftlichen Film in einem seriösen Sender (also Dritte Programme, 3Sat, Arte).

rpm8200
2005-11-27, 14:46:23
Hierzu kann ich etwas beisteuern.
...
Ein Beispiel: In Neuseeland gibt es eine Käuterart, die aktive das Fortplanzungsverhalten der Schafe, durch Ausschüttung künstlicher Hormone, kontrolliert. Dies haben die Pflanzen nicht sofort gemacht, sondern erst nachdem sie zu häufig von den Schafen gefressen wurden.
...


wie geil :biggrin: Wusste ich nicht! Könnte aber auch ein evolutionärer Zufall sein? So oder so ne krasse Geschichte!

Yo, ich habe aber nicht behauptet, dass Pflanzen nicht leben. Ich sagte lediglich, dass Leben früher als Intelligenz beginnt. Ob der Schluss erlaubt sein darf, dass Intelligenz Leben erfordert weiss ich nicht. Wenn dem so wäre, dann läuft die ganze KI Forschung falsch, denn es wird versucht Intelligenz "ohne" Leben zu generieren bzw. vor demselben.