Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie wahrscheinlich ist ein Krieg gegen KI?
MatzeG
2008-12-19, 19:44:47
Moin Board,
Ich möchte hier mal eine Diskussion anstoßen über die Wahrscheinlichkeit, dass es in unserer Welt ähnliche Übergriffe der Maschinen geben wird, wie im Film Matrix/Terminator etc.
Der Film Matrix / Animatrix zeigt, dass die Menschheit sich gegen Ende des 21. Jahrhunderts über die Erschaffung der künstlichen Intilligenz freute. Eine Zeitlang arbeiteten die Maschinen für die Menschen, doch es kam zu Unruhen bei den Maschinen, da der erste Roboter es wagte, einen Menschen zu töten. Es begann der Krieg zwischen Mensch und Maschine auf offener Straße.
In dem Film 'Terminator' machen die Menschen den Fehler, einer künstlichen Intilligenz zu viel Macht zu geben, wodurch ein großer Teil der Menschheit ausgelöscht wird.
In der heutigen Zeit, wo Prozessoren immer stärker und Algorithmen immer besser werden, sehe ich diese Science Fiction-Filme gar nicht mal so unrealistisch.
Wie seht ihr das ?
soLofox
2008-12-19, 19:51:06
kummer wegen freundin vorbei? :uhippie:
halte ich nicht für unausgeschlossen, allerdings wird die menschheit sich vorher selber terminieren X-D
aber irgendwann würde es garantiert so hochentwickelte KI geben, dass die eigenständig denken. wer weiss, was für geheimprojekte es gibt, sowas weiss natürlich niemand. kann mir schon gut vorstellen, dass die USA einige sachen am laufen haben. allerdings natürlich nur militär, für sinnvolle sachen würden die das eher nicht nutzen :rolleyes:
MatzeG
2008-12-19, 19:59:17
kummer wegen freundin vorbei? :uhippie:
Freundin ist raus aus der Wohnung! Geht mir am Arsch vorbei die Schlampe!
Bisher wissen wir ja noch nichtmal im Ansatz wie man eine echt KI erzeugt. So schnell wird das nicht zum Problem.
Monger
2008-12-19, 20:03:01
Kurz: völlig unwahrscheinlich.
Das Problem ist: selbst wenn du die KI dramatisch steigerst, wird sie nicht auf einmal lebendig.
Unser eigentlicher Antrieb, unsere Quelle der Kreativität liegt nicht etwa im Kopf, sondern im Körper. Solange eine Maschine nicht schwitzt und Durst hat, wird sie auch keine Angst vorm Tod haben, und keinen Willen zum Überleben entwickeln.
Eine Stubenfliege ist nicht besonders intelligent. Wer weiß: vielleicht haben ein paar Großrechner sie mittlerweile rein von der Synapsenzahl her überrundet. Aber was die Fliege am Leben erhält ist nicht ihr Intellekt, sondern ihr Drang zum Überleben, und somit ihre Anpassungsfähigkeit.
Deshalb halte ich es auch für VIEL wahrscheinlicher, dass wir uns in diesem Jahrhundert durch genetische Mutation uns Konkurrenz ins Haus holen und verlieren, als von einem iMac unterdrückt zu werden.
Intelligenz wird überschätzt. Sie ist nützlich, aber nicht elementar. Gefühle dagegen sind zum Überleben essentiell.
drexsack
2008-12-19, 20:03:41
Kämpf ich jeden Tag, Windows heisst der Scheiß :D
Ne im Ernst, früher oder später wird das sicherlich kommen, befürchte ich. Wenn Roboter erstmal als "normale" Soldaten eingesetzt werden können, ist der nächste Schritt auch nicht mehr allzu weit, irgendwas geht immer schief. Damit meine ich nicht zwingend eine echte KI, sondern das sie sich gegen ihre Schöpfer stellen könnten, sozusagen als Fehlprogrammierung oder Hack. Allerdings erlebe ich das wohl nicht mehr mit.
soLofox
2008-12-19, 20:10:51
Bisher wissen wir ja noch nichtmal im Ansatz wie man eine echt KI erzeugt. So schnell wird das nicht zum Problem.
schnell wird das auf jeden fall nicht zum problem, das stimmt.
computer sind ja im prinzip dumm, man muss ihnen ja alles sagen, was sie machen sollen. aber jetzt fällt mir ein, da das ja so ist, ob es dann überhaupt vorstellbar ist, dass ein computer irgendwann vom programmcode abhebt und selber macht, was er will. wäre das denkbar?
patermatrix
2008-12-19, 20:14:18
computer sind ja im prinzip dumm, man muss ihnen ja alles sagen, was sie machen sollen. aber jetzt fällt mir ein, da das ja so ist, ob es dann überhaupt vorstellbar ist, dass ein computer irgendwann vom programmcode abhebt und selber macht, was er will. wäre das denkbar?
Nein.
AffenJack
2008-12-19, 20:25:05
In ferner Zukunft kann ich mir das schon vorstellen, aber dazu muss man erstmal mehr entschlüsseln wie das denken beim menschen/tieren überhaupt funktioniert. Woher Gefühle/triebe etc kommen und versuchen das irgendwie bei der KI zu erreichen, ob das nun allerdings möglich sein wird, wer weiß. Ich erwarte eher früher wie monger den Kampf zwischen eher verschiedenen Evolutionsstufen des Menschen, allerdings nicht durch zufällige Mutation, sondern bewusste Gentechnische Veränderung.
Thanatos
2008-12-19, 20:43:49
Viel interessanter als diese Spekulation ob uns nun irgendwann Maschinen versklaven werden oder nicht, finde ich die ethische Diskussion dahingehend ob es uns überhaupt zusteht künstliche Wesen, mit einem Bewusstsein (Erkennen des eigenen Selbst -"Ich bin") zu erschaffen von denen wir schon wissen, dass sie unter ihrer Existenz leiden werden, überhaupt im Anfangsstadium der hochentwickelten künstlichen Intelligenz, da in diesem Stadium die Forschung und Umsetzung dieser sich bewussten Wesen sich noch im Anfangsstadium befinden und daher noch besonders eingeschränkte und fehlerhafte Geschöpfe sind.
Spinnt man das Ganze dann weiter, dann wird solche ein künstliches Geschöpf auch erkennen, dass es nur ein minderwertiges Wesen ist, das einzig und alleine dazu geschaffen wurde der menschlichen Spezies zu dienen und ihm hierzu auch noch jedwede Menschenwürde abgesprochen wird, was allein damit begründet wird dass es nur ein technisches Konstrukt sei.
Aber letztendlich kommt man so doch noch auf die ursprüngliche Frage zurück: Wenn man fühlende und empfindende Wesen versklavt, als minderwertige dem Menschen zum Sklavendienst verpflichtete Existenzen unterordnet - nur weil sie nicht aus fleisch und Blut sind -, ist dies nicht Faschismus, und der damit verbundenen Annahme, dass die eigene Rasse ein größeres Recht eingeräumt bekommen müsse als minderwertige Rassen, erster Güte, und sollten dann diese Wesen nicht das Recht haben sich aus dieser Versklavung zu befreien?
Aus ethischer Sicht bin ich der Meinung, dass es dem Menschen daher nicht zusteht künstliche Geschöpfe zu schaffen.
Fusion_Power
2008-12-19, 23:31:51
Bisher wissen wir ja noch nichtmal im Ansatz wie man eine echt KI erzeugt. So schnell wird das nicht zum Problem.
Eben.
Bestes Beispiel dafür sind Computerspiele. Ich hab noch kein einziges Strategiespiel (Echtzeit oder rundenbasiert) gezockt in dem ich das Gefühl hatte, der Computergegner stellt sich intelligent an. Meißt ist er einfach nur strunzdämlich oder cheatet unfair um eine Chance gegen einen Menschen zu haben. Groß geplante strategische Moves und Taktiken wie bei menschlichen Gegnern gibts ehr selten. Gute Computergegner gibts wohl im Moment nur in Schachprogrammen.
Nein.
Natürlich ist das denkbar. Es gibt keinen Grund der dagegen spricht, dass ein Computer nicht autonom denken und agieren könnte.
Fritte
2008-12-19, 23:37:55
man sollte bei KI nicht so sehr an humane Formen denken als eher an Intelligenzen wie WOPR, den Rechner aus War-Games, oder auch Skynet und im ganz extremen Fall die KIs aus Hyperion, die der Menschheit zwar die Farcaster-Technologie und noch einigen anderen Schnickschnack gebracht haben, leetztlich aber die Menschheit in einen Krieg verwickeln, nur um Gott auf den Plan zu rufen
Da gibts also weitaus mehr Spielraum als den dummen Terminator als einzelne KI!
basti333
2008-12-19, 23:43:27
ein Krieg gegen eine KI? wird es mit 99,99......99%-iger wahrscheinlichlichtkeit in den nächsten 5000 jahren nicht geben.
Etwas wahrscheinlicher ist da der ein oder andere kampf gegen eine KI, ein fehler in der software und blub schießt es auf verbündete/zivilisten. Wobei man bei diesem szenario eine Autonome kampfmaschine als "KI" bezeichnen müsste, aber da gehen die meinungen bekanntlich sehr weit auseinander....
Wie auch immer, für einen richtigen Krieg, müsste es eine KI geben die taktisch denkt, sich selbst versorgt, umdenken kann etc. und sowas wird es in den nächsten 5000 jahren eher nicht geben.
Fritte
2008-12-19, 23:48:44
ein Krieg gegen eine KI? wird es mit 99,99......99%-iger wahrscheinlichlichtkeit in den nächsten 5000 jahren nicht geben.
Etwas wahrscheinlicher ist da der ein oder andere kampf gegen eine KI, ein fehler in der software und blub schießt es auf verbündete/zivilisten. Wobei man bei diesem szenario eine Autonome kampfmaschine als "KI" bezeichnen müsste, aber da gehen die meinungen bekanntlich sehr weit auseinander....
Wie auch immer, für einen richtigen Krieg, müsste es eine KI geben die taktisch denkt, sich selbst versorgt, umdenken kann etc. und sowas wird es in den nächsten 5000 jahren eher nicht geben.
darf man fragen wieso gerade 5.000 Jahre? Spielst du gerne mit großen Zahlen rum oder wieso 5000? In 5000 Jahren brauchen die Menschen keine KIs mehr weil sie wahrscheinlich selbst schon auf einer geistigen Stufe stehen die jegliche KI vor Neid erblassen lässt, dann werden eher primitive Androiden als Arbeitssklaven benötigt, es sei denn man nutzt gleich Telekinese. Dies natürlich vorausgesetzt die menschheit überlebt solange, was ich stark bezweifle
n 5000 Jahren brauchen die Menschen keine KIs mehr weil sie wahrscheinlich selbst schon auf einer geistigen Stufe stehen die jegliche KI vor Neid erblassen lässt,
ich glaub eher andersrum... evolutionstechnisch ist höhere Intelligenz nicht mehr notwendig zum Überleben und daher wird es entweder gleich bleiben oder mithilfe künstlicher Hilfsmittel, die entwickelt wurden oder in nächster Zeit entwickelt werden, absinken.
Das Gehirn wird rudimentärer werden....
patermatrix
2008-12-20, 01:00:33
Natürlich ist das denkbar. Es gibt keinen Grund der dagegen spricht, dass ein Computer nicht autonom denken und agieren könnte.
In seinem deterministischen Rahmen, ja. Das hat aber nichts mit (menschenähnlicher) Intelligenz oder sogar Bewusstsein zu tun.
Auf heutige Computer bezogen natürlich.
Diarrhorus
2008-12-20, 01:15:19
In seinem deterministischen Rahmen, ja. Das hat aber nichts mit (menschenähnlicher) Intelligenz oder sogar Bewusstsein zu tun.
Auf heutige Computer bezogen natürlich.
Und woher willst du so genau wissen, dass menschliche Intelligenz und Bewussstein nicht auch in einem determinister Rahmen funktionieren?
patermatrix
2008-12-20, 01:24:09
Und woher willst du so genau wissen, dass menschliche Intelligenz und Bewussstein nicht auch in einem determinister Rahmen funktionieren?
Weil es nirgends "programmiert" ist? In unserem Gehirn befinden sich 10^11 Neuronen mit 10^14 Synapsen, wie willst du das irgendwie erfassen geschweige denn modellieren?
Thanatos
2008-12-20, 01:27:58
ich glaub eher andersrum... evolutionstechnisch ist höhere Intelligenz nicht mehr notwendig zum Überleben und daher wird es entweder gleich bleiben oder mithilfe künstlicher Hilfsmittel, die entwickelt wurden oder in nächster Zeit entwickelt werden, absinken.
Das Gehirn wird rudimentärer werden....
Hierbei gibt sich aber das Problem, dass höhere Intelligenz eigentlich nie evolutionsbedingt nötig war, da das Überleben der Existenz des Individuums und der Arterhaltung der Gattung die Triebe bereits zur Genüge erfüllen. Man könnte natürlich behaupten, dass der Mensch ein sehr schlecht ausgestattetes Wesen ist, welches nicht gut jagen/kämpfen, sich tarnen oder flüchten kann und daher die ihm obliegende Gabe der höheren Intelligenz als Grundlage zum überleben bräuchte. Würde aber nun die Evolution an dem Punkt stagnieren oder gar zurückgehen wo die Intelligenz zum Überleben der Art reicht, so hätte dies schon im Kindesalter der Menschheit passieren müssen, da der Mensch ab der Schaffung von einfachen Waffen und der Entdeckung und Nutzung des Feuers allen seinen etwaigen Feinden mindestens ebenbürtig war. So hätte dies schon viel früher eintreten müssen, was es aber nicht tat, denn sonst würden wir uns nicht über das Internet in einem Forum unterhalten, sondern gemeinsam archaische Gemeinschaftsrituale mit dem Stammesschamanen zelebrieren.
Madman123456
2008-12-20, 01:57:56
"Ausschliessen" kann man sowas nicht. Auf der anderen Seite, hier ist ne Frage die noch nie in einem solchen Film gestellt wurde: warum sollten die Maschinen gegen die Menschen Krieg führen wollen? Ich persönlich hab noch keiner Maschine irgendwelche menschlichen Gefühle einprogrammiert, ich wüsste auch nicht, wie ich das tun sollte. Und warum...
Die Maschinen währen wohl gegenüber Unannehmlichkeiten die für Menschen tödlich wären eher gelangweilt, wenn sie sich denn "langweilen" könnten. Wenns also irgendwelche Unstimmigkeiten geben sollte aus irgendwelchen Gründen, bisher hab ich nur unglaublich bescheuerte gesehn, dann könnten die Maschinen ganz einfach weggehn. Unter den Eispanzer der Antarktis oder auf einen anderen Planeten. Die Maschinen haben sicherlich keine "Heimatgefühle" für die Erde oder so nen Scheiss.
Bisher seh ich aber keinen Grund das Maschinen, egal wie intelligent, gegen ihre Erschaffer rebellieren sollten. Was brächte es ihnen? Alleinherrschaft über den Planeten Erde wohl, aber was brächte das wiederrum? Es sind Maschinen, die haben keine Machtansprüche. Und auch keine Ressourcen ansprüche.
Wenn man Maschinen nun aus irgendeinem Grund einen Selbsterhaltungstrieb andichtet, bräuchten sie Energie zum überleben.
Wenn solche Maschinen also aus irgendwelchen Gründen plötzlich einen Selbsterhaltungstrieb bekommen weil der Weihnachtsmann vorbeigekommen ist oder so, dann müssten die noch eine ganze Reihe anderer menschlicher Eigenschaften von irgendwoher bekommen um Krieg anfangen zu wollen.
Monger
2008-12-20, 11:48:37
Natürlich ist das denkbar. Es gibt keinen Grund der dagegen spricht, dass ein Computer nicht autonom denken und agieren könnte.
Die pure Definition eines Computers ist bereits Grund genug.
Ein Computer ist ein rein passives Bauteil: Eingabe, Verarbeitung, Ausgabe. Er verarbeitet einzig und allein die Informationen die man ihm eintrichtert. Er fängt nicht einfach von selbst mal an, zu wachsen und neue Schaltkreise zu entwickeln.
Er nimmt auch nicht aktiv Informationen auf, sondern er lässt sich damit nach streng definierten Regeln füttern.
Solange wir unsere Computer noch über Halbleiterelemente zusammenlöten wird sich daran auch nichts ändern, weil Halbleiter wachsen nunmal nicht.
Unser eigentlicher Antrieb, unsere Quelle der Kreativität liegt nicht etwa im Kopf, sondern im Körper. Solange eine Maschine nicht schwitzt und Durst hat, wird sie auch keine Angst vorm Tod haben, und keinen Willen zum Überleben entwickeln.
das ist, finde ich, eine gute Begründung warum es eben (noch nicht) geht.
geist und kreativität einer maschine beizubringen ist so ziemlich das schwerste was ich mir vorstellen kann, aber unmöglich?
das menschliche gehirn funktioniert vereinfacht ja auch nur nach input/output
Machtverlangen kommt aus dem Willen nach Fortpflanzung
Überlebenswille kommt aus dem Wissen vor seinem Tod
beides besitzen Maschinen nicht... sie brauchen Gier, Angst, Sehnsucht....: Gefühle.
Die klare Logik der Maschinen wurde allerdings auch mehrfach als Kontroll-Weltbezwinger gegen die Menschheit benutzt
Empfehle mal den Klassiker: http://de.wikipedia.org/wiki/Colossus_(Film)
Gefühle.
im Modell Mensch ist das auch nur ein weiterer Parameter.
daflow
2008-12-20, 12:18:51
Wie sieht's mit "Cyborgs" aus. Zählen echte Hirnzellen als KI?
Aktuelle offizielle Versuche:
http://www.dradio.de/dkultur/sendungen/ewelten/891301/
Abgesehen davon ist da imho nichts was man nicht mittlefristig nachprogrammieren könnte (wenn man jetzt mal wirklich von der Zellkommunikation ausgeht). Lernende Systeme sind ja nicht erst seit gestern bekannt, das sich die Leistungsfähigkeit von hardware von Jahr zu Jahr immens steigert ist glaub ich auch kein Geheimnis. Bleibt imho die Frage "Was ist Intelligenz?" und was will/wird der Mensch entwickeln.
das Problem ist imo die Modellierung. Ich habe Kontakt zu nem Forschungsinstitut die sich
mit der Modellierung von Wäldern beschäftigt. Und allein das ist so umfangreich, da haben
die bis jetzt schon 10 Jahre dran gebastelt.
Hilft aber ungemein die Natur besser zu verstehen.
das heißt durch die Modellierung von Intelligenz können wir Parameter besser verstehen,
die wir so garnicht direkt messen können, das finde ich sehr spannend.
daflow
2008-12-20, 13:08:22
das Problem ist imo die Modellierung. Ich habe Kontakt zu nem Forschungsinstitut die sich
mit der Modellierung von Wäldern beschäftigt. Und allein das ist so umfangreich, da haben
die bis jetzt schon 10 Jahre dran gebastelt.
Hilft aber ungemein die Natur besser zu verstehen.
das heißt durch die Modellierung von Intelligenz können wir Parameter besser verstehen,
die wir so garnicht direkt messen können, das finde ich sehr spannend.
Modellierung von Wäldern ist jetz ein bischen allgemein, oder? ;) Was genau modellieren die?
Und ja das ist auf jeden Fall spannend :)
Noch eine Randbemerkung direkt @Topic: Damit eine Maschine nicht mehr das tut, oder es anders tut, als ursprünglich gedacht, brauchs ja nicht unbedingt "KI", eine falsche Bedingung in einer if-then-else-Anweisung reicht da ja völlig ;)
Modellierung von Wäldern ist jetz ein bischen allgemein, oder? ;) Was genau modellieren die?
hm...das ist doch schon ziemlich speziell :D
Modellierung des Wachstums von Regenwäldern unter Störeinflüssen
meine Aufgabe besteht dann darin den Wasserhaushalt zu modellieren
sry, bin permanent OT :frown:
daflow
2008-12-20, 13:25:35
hm...das ist doch schon ziemlich speziell :D
Modellierung des Wachstums von Regenwäldern unter Störeinflüssen
meine Aufgabe besteht dann darin den Wasserhaushalt zu modellieren
sry, bin permanent OT :frown:
Ah thx, dachte schon an sowas in der Art... aber nur "Modellierung von Wäldern" könn ja alles zwischen Populus-Grafik bishin zur kompletten Interaktion von Wäldern mit jedem Lebewesen auf der Welt sein ;)
Meine Schuld, wollts ja genau wissen ;) Und mi weitesten Sinne passts ja schon noch zum Topic imho ;)
"Modellierung von Wäldern" könn ja alles zwischen Populus-Grafik bishin zur kompletten Interaktion von Wäldern mit jedem Lebewesen auf der Welt sein ;)
das ist imo ein großes Problem. Jeder Baum ist ja abhängig von den umgebenen Bäumen. Das heißt man kann die Dinge nicht wirklich parallel betrachten, d.h.
nix mit wirklicher Multicoreoptimierung.
das überträgt sich auf viele Modellierungsaspekte, auch beim Gehirn imo.
Hm und bei allem stellt sich noch die Frage warum "die Maschine" Krieg führen sollte. Ist doch eher was für biologische Konstrukte...
edit.. tjaja thread durchlesen.. madmanniman hatte es schon dargelegt..
Monger
2008-12-20, 14:41:18
das menschliche gehirn funktioniert vereinfacht ja auch nur nach input/output
Das Thema hatten wir in leichter Abwandlung auch mal im ReWi Forum...
Das Gehirn ist ein Organ, so wie Leber oder Lunge. Das heißt, es ist genauso empfänglich für den Hormonhaushalt und die Ernährung wie alle anderen Organe auch.
Wenn du was schlechtes gegessen hast, spricht darauf direkt dein Solarplexus an, der in engem Kontakt zum Gehirn steht. Was du isst, verändert die Art wie du denkst.
Umgekehrt funktioniert das auch: wenn du dir nur lange genug einen Schmerz einbildest, wird er real. Alle psychosomatischen Krankheiten basieren darauf, dass der Geist den Körper manipuliert.
Beides zusammen ist ein ziemlich ausgefeilter Regelkreislauf. Dein gesamter Körper ist ein ziemlich ausgefeiltes Regelsystem, was GANZHEITLICH dann zur Entscheidungsbildung führt. Intelligenz sitzt so gesehen im gesamten Körper, das Gehirn ist dabei nur die ausführende Gewalt.
Die wahre Intelligenz, die wahre Komplexität steckt bei uns in den Körperzellen und wie sie zusammenarbeiten, und nicht etwa in den Synapsen.
Diese Komplexität und Dynamik ist in Silizium gar nicht abbildbar. Es ist schlicht der falsche Werkstoff: genauso gut könntest du versuchen, ein Hochhaus aus Wackelpudding zu bauen.
das heißt durch die Modellierung von Intelligenz können wir Parameter besser verstehen,
die wir so garnicht direkt messen können, das finde ich sehr spannend.
Das ist zweifellos richtig. Ich hab das auch selbst festgestellt: als ich mich im Studium mit objektorientierter Modellierung beschäftigt habe, hat das so ganz nebenbei eine Reihe von Fragen beantwortet die eigentlich aus der Philosophie stammen.
In ähnlicher Weise bringt uns die Suche nach KI zwar nicht der KI näher, sondern vielen anderen Themen.
Forschung ist selten ein gerader Weg! ;)
maximAL
2008-12-20, 14:49:04
Ein Computer ist ein rein passives Bauteil: Eingabe, Verarbeitung, Ausgabe. Er verarbeitet einzig und allein die Informationen die man ihm eintrichtert. Er fängt nicht einfach von selbst mal an, zu wachsen und neue Schaltkreise zu entwickeln.
Er nimmt auch nicht aktiv Informationen auf, sondern er lässt sich damit nach streng definierten Regeln füttern.
Solange wir unsere Computer noch über Halbleiterelemente zusammenlöten wird sich daran auch nichts ändern, weil Halbleiter wachsen nunmal nicht.
ich glaube, du hast eine etwas falsche vorstellung von der sache. bei KI gehts nicht darum, dass deine textverarbeitung plötzlich ein eigenleben entwickelt, das der programmierer nicht vorgesehen hat.
im gegenteil, natürlich ist eine KI ein programm, dass so geschrieben wurde, dass es sich selbst anpassen kann. schau dir mal genetische algorithmen oder künstliche neuronale netze an. das funktioniert für sehr begrenzte aufgaben auch schon ganz gut.
das problem im moment ist einfach, dass man nicht versteht, wie die "natürliche" intelligenz funktioniert und man sie somit auch nicht nachbauen kann.
und solang z.b. das menschliche gehirn nicht mehr als eine biologische maschine ist, ließe sich das auch prinzipiell nachbauen.
Monger
2008-12-20, 15:20:03
ich glaube, du hast eine etwas falsche vorstellung von der sache. bei KI gehts nicht darum, dass deine textverarbeitung plötzlich ein eigenleben entwickelt, das der programmierer nicht vorgesehen hat.
...
und solang z.b. das menschliche gehirn nicht mehr als eine biologische maschine ist, ließe sich das auch prinzipiell nachbauen.
Gut, jetzt streiten wir über Semantik! ;-)
Mag ja sein, dass du die neuronale Funktionsweise des Gehirns abbilden kannst. Es würde dann nur natürlich nicht das tun was man sich möglicherweise dabei erhofft.
Die Ausgangsfrage war: wie wahrscheinlich ist ein Krieg gegen eine KI?
Und das erfordert nunmal eine gewisse Form von Emotionalität.
Lokadamus
2008-12-20, 15:24:15
Wie auch immer, für einen richtigen Krieg, müsste es eine KI geben die taktisch denkt, sich selbst versorgt, umdenken kann etc. und sowas wird es in den nächsten 5000 jahren eher nicht geben.mmm...
In 5000 Jahren sollte die KI so weit sein, dass wir ohne sie nicht mehr viel machen können.
http://www.tecchannel.de/test_technik/news/434198/korea_will_roboter_fuer_militaer_und_polizei_einsatz_entwickeln/
http://de.wikipedia.org/wiki/Roboter#Zuk.C3.BCnftige_Entwicklung
maximAL
2008-12-20, 15:37:55
Gut, jetzt streiten wir über Semantik! ;-)
Mag ja sein, dass du die neuronale Funktionsweise des Gehirns abbilden kannst. Es würde dann nur natürlich nicht das tun was man sich möglicherweise dabei erhofft.
Die Ausgangsfrage war: wie wahrscheinlich ist ein Krieg gegen eine KI?
Und das erfordert nunmal eine gewisse Form von Emotionalität.
wenn eine KI nur exakt das tun würde, was man will, wäre es keine wirkliche KI :wink:
und emotionen sind doch auch nicht mehr als vom gehirn in bestimmten situationen erzeugte zustände, die dich zu irgendeiner handlung animieren sollen.
auch wenn eine KI womöglich keinen hass so wie menschen empfinden könnte (schon weil ihr der physische aspekt dafür fehlt), so könnte sie durchaus zum schluss kommen, ohne menschen besser dran zu sein.
drmaniac
2008-12-20, 15:51:43
Das gehört aber eher in die Wissenschaftszone...
:)
.
Monger
2008-12-20, 16:12:37
und emotionen sind doch auch nicht mehr als vom gehirn in bestimmten situationen erzeugte zustände, die dich zu irgendeiner handlung animieren sollen.
Nein, so einfach ist das nicht. Emotionen können auch von außen getriggert werden. Drogen funktionieren genau nach dem Prinzip, dass sie die Funktionsweise des Gehirns grundlegend zugunsten dieser oder jener Trigger ändern, bzw. andere blockieren. (Siehe hierzu auch diese (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174421) Diskussion)
Solche Botenstoffe werden auch vom Körper erzeugt - in vielfacher Ausfertigung. Und die Menge und Konzentration wird zwar auch vom Gehirn geregelt, aber nicht nur. Auch Ernährung und jede Form von Sinneseindruck spielen da eine Rolle.
Du KANNST Körper und Geist nicht einfach auseinander reißen! Das Gehirn ist völlig wertlos, wenn es dazu keinen passenden Körper gibt. Und das ist keine metaphysische Aussage, sondern eine ganz praktische, biologische.
maximAL
2008-12-20, 16:28:50
Nein, so einfach ist das nicht. Emotionen können auch von außen getriggert werden. Drogen funktionieren genau nach dem Prinzip, dass sie die Funktionsweise des Gehirns grundlegend zugunsten dieser oder jener Trigger ändern, bzw. andere blockieren. (Siehe hierzu auch diese (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174421) Diskussion)
Solche Botenstoffe werden auch vom Körper erzeugt - in vielfacher Ausfertigung. Und die Menge und Konzentration wird zwar auch vom Gehirn geregelt, aber nicht nur. Auch Ernährung und jede Form von Sinneseindruck spielen da eine Rolle.
Du KANNST Körper und Geist nicht einfach auseinander reißen! Das Gehirn ist völlig wertlos, wenn es dazu keinen passenden Körper gibt. Und das ist keine metaphysische Aussage, sondern eine ganz praktische, biologische.
der köper ist doch auf den computer übertragen nichts weiter als ein I/O device. natürlich würden "emotionen" bei einer KI völlig anders aussehen, aber möglich sind sie, je nachem welche ein -und ausgabe möglichkeiten die KI hat. das äquivalent einer droge wäre dann ein input, der so manipuliert ist, dass er entsprechende "positive" reaktionen in der KI auslöst.
Avalox
2008-12-20, 16:33:34
Warum redet hier jeder überhaupt von "Krieg".
Krieg ist nur unter gleichen möglich.
Hat der Urmensch Krieg gegen Wölfe geführt, oder Höhlenbären, gegen Mücken, oder Ratten?
Nein er hat diese gejagt und beseitigt. Kein Krieg.
Der Wolf weiss nicht was passiert und wer verantwortlich ist für die Gewehrkugel. Er nimmt diese noch nicht mal als Angriff war.
Der vom Menschen getriebene Stock in dem Ameisenhügel wird von den Ameisen als Naturkatastrophe betrachtet, aber nicht als Angriff des Menschen.
Nein wenn irgend etwas höher entwickeltes den Menschen den Kampf ansagt, wird dieses kein Krieg sein. Der Mensch wird es nicht mal als Angriff erkennen, er wird einfach verschwinden.
Das eine KI grade zufällig in einem Level befindet, wo man von ungefährer Gleichheit sprechen kann erscheint doch eher unwahrscheinlich. Dazu ist die Intelligenz nach oben und unten im Spielraum zu gross. Entweder ist diese so einfach, dass der Mensch den Stecker zieht, wenn diese muckt, oder der Stecker des Menschen wird gezogen ohne, dass dieser es merkt.
maximAL
2008-12-20, 16:36:37
Das eine KI grade zufällig in einem Level befindet, wo man von ungefährer Gleichheit sprechen kann erscheint doch eher unwahrscheinlich. Entweder ist diese so einfach, dass der Mensch den Stecker zieht, wenn diese muckt, oder Stecker des Menschen wird gezogen ohne, dass dieser es merkt.
fraglich allerdings, ob wir uns wirklich wie so manche tierart einfach ausrotten lassen oder vielmehr wie ratten oder kakerlaken einfach nicht zu beseitigen sind :wink:
Avalox
2008-12-20, 16:38:51
oder vielmehr wie ratten oder kakerlaken einfach nicht zu beseitigen sind :wink:
Das ist allein eine Sache des Aufwands. Der Wille ist nicht da, weil dieses der Anstrengung nicht wert ist.
Auch die Kakerlake oder Ratte merkt ja nicht wirklich was los ist, sind nur vorsichtig geworden mit der Zeit.
Tesseract
2008-12-20, 16:48:14
In der heutigen Zeit, wo Prozessoren immer stärker und Algorithmen immer besser werden, sehe ich diese Science Fiction-Filme gar nicht mal so unrealistisch.
Wie seht ihr das ?
das thema ist zwar interessanter sci-fi stoff aber im grunde absolut urealistisch.
die natürlichen lebensformen sind durch evolution entstanden. ein wesentlicher teil dieser evolution ist der überlebenstrieb, denn ohne diesen kann eine lebensform auf lange sicht nicht bestehen. da man aus der natur nichts anderes kennt nehmen viele diesen überlebenstrieb in zusammenhang mit intelligenz als immer gegeben an.
diesen natürlichen überlebenstrieb besitzt eine KI aber nicht weil er für sie schlicht von keiner relevanz ist. selbst wenn die KI den menschen um das 100-fache übertrifft. selbst, wenn sie ein bewusstsein hat und ihr vollkommen klar ist, dass sie ohne diesen überlebenstrieb vielleicht weniger lange bestehen würde als mit - es ist ihr schlicht und ergreifend egal.
(außer der selbsterhaltungstrieb entsteht aus einer anderen ursache heraus - z.B. durch programmierung, einen designfehler oder eben wieder einer form der evolution)
wir beobachten bei uns selbst nur deswegen den selbsterhaltungstrieb, weil wir ohne diesen selbsterhaltungstrieb nicht da wären um ihn beobachten zu können. nicht jedoch, weil er für intelligenz eine grundvorraussetzung ist.
Warum redet hier jeder überhaupt von "Krieg".
Krieg ist nur unter gleichen möglich.
Hat der Urmensch Krieg gegen Wölfe geführt, oder Höhlenbären, gegen Mücken, oder Ratten?
Nein er hat diese gejagt und beseitigt. Kein Krieg.
Der Wolf weiss nicht was passiert und wer verantwortlich ist für die Gewehrkugel. Er nimmt diese noch nicht mal als Angriff war.
Der vom Menschen getriebene Stock in dem Ameisenhügel wird von den Ameisen als Naturkatastrophe betrachtet, aber nicht als Angriff des Menschen.
Nein wenn irgend etwas höher entwickeltes den Menschen den Kampf ansagt, wird dieses kein Krieg sein. Der Mensch wird es nicht mal als Angriff erkennen, er wird einfach verschwinden.
Mensch, so habe ich es noch gar nicht betrachtet, gute Gedanken. Vielleicht sind ja gewisse Naturkatastrophen, Krankheiten usw. auf unserer Erde auch nur ein Mittel einer höheren Intelligenz? :uponder:
Avalox
2008-12-20, 17:06:30
Vielleicht sind ja gewisse Naturkatastrophen, Krankheiten usw. auf unserer Erde auch nur ein Mittel einer höheren Intelligenz? :uponder:
Diesen Gedanken hatten Menschen schon vor 100000den von Jahren.
Das kann man eher verneinen, da die notwendige Effizienz nicht zu erkennen ist, die Bevölkerung der Erde explodiert ja förmlich.
Tesseract
2008-12-20, 17:06:49
Warum redet hier jeder überhaupt von "Krieg".
Krieg ist nur unter gleichen möglich.
Hat der Urmensch Krieg gegen Wölfe geführt, oder Höhlenbären, gegen Mücken, oder Ratten?
Nein er hat diese gejagt und beseitigt. Kein Krieg.
ich sehe diese unterscheidung ehrlich gesagt nicht.
wenn ein wolf einen hasen jagt ist krieg natürlich unpassend. das ist es aber auch, wenn ein räuber jemanden in einer seitengasse absticht.
wenn aber z.B. eine hornissengruppe ein bienennest angreift, hat das erstaunlich viele analogien zu dem, was man beim menschen als krieg bezeichnet.
hornissen und bienen sind auch nicht wesentlich ähnlicher als menschen und wölfe.
anddill
2008-12-20, 17:08:22
Da gefällt mir das SF-Universum von Neal Asher.
In seiner Polis haben die KIs die Macht übernommen. Es gab keinen Krieg, irgendwann waren alle wichtigen Dinge halt in der Hand der KIs, weil die es nun mal besser konnten. Menschen und KIs sind gleichberechtigt, wobei die KIs schon ein wenig auf die Menschen herabsehen. Aber eher so wie ein erwachsener Mensch seine schon etwas tapprigen Eltern behandeln würde. Und die KIs kämen nie auf den Gedanken, die Freiheit des Individuums einzuschränken. Sie hätten nichts davon, außerdem sind die Menschen viel zu interessant, um sie zu sehr einzuschränken.
Wobei in seinen Büchern die Übergänge zwischen Menschen und KI fließend sind. KIs können Körper haben, entweder als Drohne in allen möglichen abgefahrenen Formen, oder Golem-Chassis. Aber auch ein menschlicher Geist kann in einen Golem geladen werden, und KIs können biologische Körper übernehmen.
Avalox
2008-12-20, 17:51:59
hornissen und bienen sind auch nicht wesentlich ähnlicher als menschen und wölfe.
Jetzt willst du mich veralbern oder?
Die Hornisse ist dort die besser gerüstete Biene. Aber auch dort ist es eher ein Opfer und Beute System. Die Hornisse jagt und führt keinen Krieg.
Die Biene erkennt dort sehr eindeutig wer der Angreifer ist. Eben die Hornisse.
Dieses tut der Wolf aber nicht. Der Wolf würde es auch erkennen, wenn der Mensch ihn in den Schwanz beissen würde. Oder die Ameise, wenn der Mensch mit dem Finger im Ameisennest rumbohrt. Da aber der Mensch weiss, dass der Wolf dann zurück beißt wird er es nicht tun. Er wird ihn eine Falle stellen, oder mit einer überlegenen für den Wolf nicht erkennbaren Mittel jagen. Gift oder einen Gewehr, Pfeil und Bogen oder sonst was.
Bei einem Krieg wird das "Gleichsein" dadurch erzeugt, indem die eingesetzten Mittel von solch einen Umfang sind, dass alle oder eine Ressource maximal ausgenutzt wird. Ist dieser ungefähre Gleichstand nicht vorhanden ist es auch kein Krieg. Kann der eine dem anderen was tun, ohne Konsequenzen von diesen zu befürchten ist es eine Beseitigung. Krieg ist dort nicht Fair aber ausgewogen im Schlagabtausch, weil nach oben im Einsatz der Mittel eine Grenze existiert und wenn es nur die cleverness der Parteien sind.
Ist eine Seite überlegen gibt es keinen Krieg. Dieses umso mehr, so überlegender eine Seite ist.
Der Wolf erkennt nicht den Angriff des Menschen, weil der Mensch seinen Intellekt nutzt. Weil er den Bau unter Feuer setzt, überflutet, vergast. Weil er Fallen stellt, ihn vergiftet oder mit einer anderen Mittel bekämpft welches der Wolf nicht als gezielten Angriff erkennt.
Dort unterscheidet sich der Mensch fundamental vom Wolf. Nun unterscheidet dem Menschen evolutionär nicht so viel vom Wolf.
Das bedeutet aber auch nur, dass diese unglaubliche Überlegenheit des Menschen nur schon durch einen minimalen entwicklungstechnischen Fortschritt begründet liegt.
Was oberes nur noch stärker bekräftigt. Wenn die Instanz auch nur so viel Unterschied zu uns hat, wie wir zum Wolf wird es keinen Krieg geben.
Es wird nur einen Untergang geben, ohne auch nur zu erahnen, dass man Ziel einer Aktion wurde.
Tesseract
2008-12-20, 18:37:14
die hornissen jagen nicht, sie führen eine invasion auf den stock durch. das ist etwas ganz anderes.
abgesehen davon kannst du deine wolf-mensch szenarien auch auf jeden modernen krieg übertragen. erst recht wenn sich dieser teilweise gegen die zivilbevölkerung richtet.
und gleich stark waren kriegskontrahenden in der geschichte sowieso nur in den aller wenigsten fällen.
Diese Komplexität und Dynamik ist in Silizium gar nicht abbildbar. Es ist schlicht der falsche Werkstoff: genauso gut könntest du versuchen, ein Hochhaus aus Wackelpudding zu bauen.
das habe ich garnicht behauptet ;) - aber du hast prinzipiell Recht
die Frage die man sich aber vorher stellen muss, ist, ob man die Wirkungsweise
nachbilden will, oder das Innere. letzteres ist natürlich viel schwieriger.
aber woher willst du wissen wenn ein androider Roboter "ich liebe dich sagt"
ob er es auch wirklich so fühlt? D.h. ein reines siliziumbasiertes Programm
könnte sich schon sehr menschlich Verhalten obwohl es alles nur simuliert
und am Ende keine eigene Erfahrungsebene für das was passiert besitzt.
Avalox
2008-12-20, 18:53:51
abgesehen davon kannst du deine wolf-mensch szenarien auch auf jeden modernen krieg übertragen. erst recht wenn sich dieser teilweise gegen die zivilbevölkerung richtet.
Das Mensch /Wolf Beispiel kannst du auf überhaupt keinen Krieg anwenden.
Es ist eine Vernichtung, ein Holocaust. Ein Untergang ohne zu erkennen, ob, wer oder was dieses verursacht.
und gleich stark waren kriegskontrahenden in der geschichte sowieso nur in den aller wenigsten fällen.
Nicht gleichstark. Das habe ich nicht geschrieben. Nur auf gleichen Level in einem Mitteleinsatz. Und dort ist der Mensch, der Intellekt des Menschen schon eines der Mittel welches natürlich im Gleichstand mit der anderen Seite ist.
Krieg ist nur unter Gleichen möglich. Ein Gleichstand und nicht gleich stark.
Krieg ist nicht fair. Er ist nur durch Ressourcen begrenzt und nur dann möglich, wenn beide Parteien es möglich ist Schläge auszuführen. Das bedeutet aber erstmal, dass man erkennen können muss, dass man angegriffen wird, muss dieses zudem als negativ empfinden und zum anderen muss es möglich sein, dann auch einen Schlag dagegen zu führen. Alles sehr unwahrscheinlich bei einer Aktion einer höher entwickelten Macht.
Avalox
2008-12-20, 19:01:38
D
Wobei in seinen Büchern die Übergänge zwischen Menschen und KI fließend sind. KIs können Körper haben, entweder als Drohne in allen möglichen abgefahrenen Formen, oder Golem-Chassis. Aber auch ein menschlicher Geist kann in einen Golem geladen werden, und KIs können biologische Körper übernehmen.
Das ist ja auch eine interessante Frage.
Die Frage nach dem Sinn des Lebens.
Im Prinzip könnte man ja behaupten, dass eine biologische Lebensform sich intellektuell evolutionär weiter entwickelt als zum Stadium des Menschen.
Schliesslich schaltet der Mensch kraft seines Intellekts die Evolution aus.
Er erfindet eine Brille und schon verhungert der Fehlsichtige nicht mehr und findet zudem auch noch ein Männchen oder Weibchen zum fortpflanzen.
Der selbe Mechanismus der zur Erfindung der Brille führt, führt aber auch zur Entwicklung von Computern bzw. irgendwelchen weiter entwickelten Maschinen oder aber auch zur gezielten Veränderung der Erbgutes.
Ist es vielleicht der "Sinn" und Position des Menschen in der Entwicklung die ungezielte Evolution in eine gezielte Entwicklung zu verwirklichen?
KIs zu schaffen, den Übermenschen zu erzeugen?
Tesseract
2008-12-20, 19:17:34
du definierst den begriff "krieg" einfach so um wie du ihn gerade haben willst. das ist in keinem mir bekannten lexikon/wörterbuch/etc. so zu finden.
Avalox
2008-12-20, 19:28:49
du definierst den begriff "krieg" einfach so um wie du ihn gerade haben willst. das ist in keinem mir bekannten lexikon/wörterbuch/etc. so zu finden.
Dann zeig mir doch mal ein Lexikon wo das vorgehen des Menschen gegen eine andere Art als Krieg im direkten Sinne bezeichnet wird.
Vielleicht haben unsere Vorfahren ausgezogen aus Afrika mal gegen den Neanderthaler Krieg geführt. Weis man nicht, gibt keine Aufzeichnungen oder eindeutige Überbleibsel aus der Zeit. Beide Arten waren nur mehr oder weniger zufällig auf selber intellektueller Ebene.
Dieser Gleichstand fällt aber ganz sicher bei einer Auseinandersetzung mit einer anderen entwickelten Intelligenz weg.
Tesseract
2008-12-20, 19:34:46
Dann zeig mir doch mal ein Lexikon wo das vorgehen des Menschen gegen eine andere Art als Krieg im direkten Sinne bezeichnet wird.
das ist doch garnicht notwendig. in den meisten quellen steht sowas wie wie gewaltsame auseinandersetzung zwischen (organisierten) "parteien", "kolleketiven", "gruppen" etc.
falls ein konflikt zwischen total unterschiedlichen arten in diese definition passt kann man es folglich als krieg bezeichnen.
der jäger und der wolf ist natürlich kein krieg weil die definition da nicht passt. die bienen und hornissen passen da aber imho schon rein. genauso wie irgendwelche künstlichen intelligenzen die gegen menschen kämpfen.
anddill
2008-12-20, 21:21:26
Um noch was zu eigentlichen Thema zu sagen:
Ich glaube nicht, daß wir je einen Krieg gegen irdische KIs auf unserem Planeten führen werden, so wie in Terminator. Wo und wie wird denn die erste KI, wenn das je wirklich möglich sein wird, enstehen? In enem Forschungslabor. Und die KI wird keinen Körper haben, und keine Möglichkeit das Labor zu verlassen. Sie wird an sehr spezielle Hardware gebunden sein und wird sich nicht mal so übers Internet in eine XBox beamen können.
Es wird noch sehr lange dauern, bis KIs sich irgendwie in eine körperliche Form übertragen können. Bis dahin werden wir sehr genau wissen, wie sich KIs verhalten, und welche Ziele sie verfolgen. Und solange es keine Roboter gibt, die in Beweglichkeit, Umwelterfassung, Energiebedarf und Rechenleistung mit uns Menschen konkurrieren können, werden KIs auf uns Menschen angewiesen sein. Oder wie bitte hat Skynet in T3 die Kohlen ins Kraftwerk geschippt? Vor allem nachdem da ein paar Megatonnen reingekracht sind ;)
Letztendlich wird es auf eine Symbiose hinauslaufen. Entweder werden Biologie und Technik immer mehr verschmelzen, so daß auf der Erde irgendwann reine Roboter, Cyborgs in allen Übergangsformen und biologisch gewachsene Menschen durcheinanderlaufen, oder die KIs machen halt ihr Ding und lassen sich von den Menschen unterhalten und inspirieren und wir lassen uns von den KIs verwalten.
Monger
2008-12-20, 21:23:08
der köper ist doch auf den computer übertragen nichts weiter als ein I/O device.
Nein, der Körper ist I/O device und Prozessor in einem. Das Gehirn aber auch!
Du hast hier ein sich selbst regulierendes System. Und wie in jedem Regelkreis ist jedes Element für den Grundzustand essentiell.
Wenn du den Verstand simulieren willst, musst du den Körper dazu simulieren.
Und wenn du den Körper simulieren musst, dann... naja... hast du im Prinzip ein Lebewesen vor dir! ;)
aber woher willst du wissen wenn ein androider Roboter "ich liebe dich sagt"
ob er es auch wirklich so fühlt? D.h. ein reines siliziumbasiertes Programm
könnte sich schon sehr menschlich Verhalten obwohl es alles nur simuliert
und am Ende keine eigene Erfahrungsebene für das was passiert besitzt.
Das stellt uns vor die schwierige Frage, was denn eigentlich Intelligenz ist. Nur die Illusion alleine macht es imho nicht - auch ein Bild kann mir eine Illusion von Echtheit aufzwingen. Dazu muss das Bild aber nicht intelligent sein - nur der Maler.
anddill
2008-12-20, 21:57:10
Das stellt uns vor die schwierige Frage, was denn eigentlich Intelligenz ist. Nur die Illusion alleine macht es imho nicht - auch ein Bild kann mir eine Illusion von Echtheit aufzwingen. Dazu muss das Bild aber nicht intelligent sein - nur der Maler.
Ooch, Intelligenz ist einfach. Das Ding kann auf Anhieb mehrstufige Probleme lösen und seine Umwelt formen? Dann ist es intelligent. Wirklich interessant wird es bei Gefühlen. Sind sie nur über die Intelligenz emuliert, um ein Ziel zu erreichen, oder liebt der Android wirklich?
Wobei man das bei Menschen ja auch nicht immer wirklich weiß.
Fritte
2008-12-20, 22:31:31
Jetzt willst du mich veralbern oder?
Die Hornisse ist dort die besser gerüstete Biene. Aber auch dort ist es eher ein Opfer und Beute System. Die Hornisse jagt und führt keinen Krieg.
Die Biene erkennt dort sehr eindeutig wer der Angreifer ist. Eben die Hornisse.
Sehr richtig!
Wer mal gesehen hat wie sich dutzende Bienen regelrecht opfern um eine Hornisse rein durch ihre Körperwärme zu töten, Stachel kommt ja nicht durch bei Hornissen, der weiss das die Schafe sehr genau wissen wer der Wolf ist und wie man ihn bekämpft. Man kann also in diesem Szenario durchaus von gleichberechtigten gegnern sprechen, immerhin sind Bienen weitaus zahlreicher als Hornissen, also durchaus ein Ausgleich.
Marmicon
2008-12-20, 22:35:13
Oder wie bitte hat Skynet in T3 die Kohlen ins Kraftwerk geschippt? Vor allem nachdem da ein paar Megatonnen reingekracht sind ;)
Das hab ich mich auch schon immer gefragt. Total unlogisch, wenn man mal drüber nachdenkt ^^
Sehr richtig!
Wer mal gesehen hat wie sich dutzende Bienen regelrecht opfern um eine Hornisse rein durch ihre Körperwärme zu töten, Stachel kommt ja nicht durch bei Hornissen, der weiss das die Schafe sehr genau wissen wer der Wolf ist und wie man ihn bekämpft. Man kann also in diesem Szenario durchaus von gleichberechtigten Gegnern sprechen, immerhin sind Bienen weitaus zahlreicher als Hornissen, also durchaus ein Ausgleich.
(wegen ein paar Grad Unterschied zur Körpermaximalüberlebenstemperatur)
Jop, aber/und/oder könnte mir jemand erklären welche Art von System(Evolution) oder Intelligenz das ist?
Als weiteres, ähnliches Beispiel würde ich dazu gern Ameisen anführen, welche trotz weiterem Weg "den breiteren Ast über die Klippe" nehmen, wahrscheinlich weil er mehr Ameisen pro Sekunde ermöglicht? oder (Ameisen, Ameisen...) Ameisen über einen Fluss ein(e) lebendes Floß/Brücke bauen, wobei der unter Wasser nur so lange unter Wasser bleibt wie er überlebt... oder Baumsymbiose/Pilzsymbiose(Blattscheinder). Oder Treiberameisen, welche (in kurz) winkelgenaue Beutezüge starten um nach 360° weiterzuziehen und sich nen neuen Bau zu suchen(machen) von dem aus "DAS Spiel" wieder von vorne losgeht?
Manchmal scheinbar mit Trieb zu erklären, manchmal mit "ominöser" Schwarmintelligenz... wtf ist das? Und ich glaube nicht, dass die KI davon soo weit entfernt ist... noch ein paar Inputs, Rechenkraft, und Speicherplatz und ich würde fast vermuten... naja
Und um zu den Bienen zurückzukommen.... warum "wissen" das die japanischen Bienen und die Europäischen nicht?
Viel kanns ja bei der "Steuerkapazität" nicht sein?!
Metzler
2008-12-21, 10:11:47
Ich glaube, bei der Diskussion hier ist die Frage, was ist Intelligenz und wie kann sie entstehen. Einige Wissenschaftler gehen davon aus, dass Intelligenz nur in Robotern entstehen kann, da Intelligenz Sensoren / verschiedenste Inputs etc. benötigt, um lernen zu können. Weiterhin ist ein Zeichen von Intelligenz, selbstständig sich neue Aufgaben überlegen zu können.
Kurz-/ Mittelfristig werden wir diese Form der Intelligenz nicht sehen (weil uns dazu insbesondere die Rechenpower fehlt). Überhaupt darf man nicht davon ausgehen, dass eine Intelligenz durch klassische Programmierung erstellt werden könnte - dafür ist das Ganze viel zu komplex. Wenn es eine Intelligenz geben wird, wird es in mit ziemlicher Sicherheit ein emergentes System sein - genauso wie unser Gehirn auch.
Zum Thema Rechenpower ansonsten noch etwas: IBM Wissenschaftler ist es vor kurzem erst gelungen, ein System mit der Komplexität eines Mäusegehirns auf Supercomputern in beinahe-Echtzeit (1:9) zu simulieren. Wer mehr wissen möchte:
http://www.modha.org/blog/2007/11/faq_anatomy_of_a_cortical_simu.html
Ob eine KI Krieg gegen uns führt: Entweder, (wenn die KI keine Emotionen hat) es macht für die KI Sinn, dass es keine Menschen mehr auf der Welt gibt (warum auch immer) und die KI könnte sich selbst versorgen / reproduzieren etc. Oder (wenn sie Emotionen hätte) sie fühlt sich angegriffen (in welcher Form auch immer).
Ob beide Punkte so abwegig sind, bezweifel ich. Ich denke, es wird da ähnlich laufen wie beim Menschen: Da, um wirklich von KI zu sprechen, das System selbstständig lernen müsste, Neugier aufweisen sollte etc., wird viel von der "Erziehung" abhängen, genauso wie es auch beim Menschen der Fall ist.
Monger
2008-12-21, 10:59:54
Ooch, Intelligenz ist einfach. Das Ding kann auf Anhieb mehrstufige Probleme lösen und seine Umwelt formen? Dann ist es intelligent.
Dann ist es imho ein Werkzeug.
Auch ein Staudamm verändert seine Umwelt, und löst irgendeine Form von Problem. Trotzdem ist er nunmal dumm wie Holz - nur der Erbauer ist intelligent.
Eine Maschine die das tut was ich ihr beigebracht habe, ist eben nur ein besserer Hammer.
Intelligente Maschinen sind möglich, da solche bereits existieren.
Mit der derzeitigen Technik ist Intelligenz imho jedoch nicht möglich. Die besten Computer sind immer noch nur bessere Taschenrechner. Eingabe --> Algorithmus --> Ausgabe. Lernen ist so nicht möglich. Lernen braucht Veränderung. Imho müssten sich Computer, ähnlich wie Gehirne, durch einkommende Informationen verändern. Sie müssten sich gezielt umprogrammieren können, wahrscheinlich bedarf es auch physischer Veränderungen. Das ganze Ding muss viel dynamischer sein, es muss sich selbst organisieren und reagieren können indem es sich in irgendeiner Weise anpasst. Ich denke um so etwas wie Zellen kommt man nicht herum.
Nach allem was wir wissen, müsste eine KI die gegen uns Krieg führt uns sehr ähnlich sein. Sie braucht eine Motivation Krieg zu führen. Sie muss Bedürfnisse haben, einen eigenen Willen der dann konträr zu dem Unseren steht. Wie wahrscheinlich das ist kann niemand sagen. Niemand weiss, wie die Maschinen und Computer der Zukunft aussehen werden.
Gegen den Kampfroboter spricht heute wie wohl auch in Zukunft die fehlende kompakte Energiequelle.
All die Filme kranken ja an Unlogik, einem notwendigen Happy End und so weiter und die KI will immer so werden wie die großartigen Menschen, oder sieht zumindest so aus. Die "bösen" Computer stellen sich dann ja doch eigentlich immer als erstaunlich dämlich heraus.
Terminator: Warum so ein Aufwand? Haben die keine Biowaffen? Matrix ist eh auf hahnebüchenden Annahmen aufgebaut. Nette Ideen, aber der Aufmacher ist einfach Mist.
Das alles ist nur Psychologie. Man spielt mit Urängsten der Menschen. Das gleich gilt für böse Aliens.
Darüber hinaus fände ich es großartig, wenn es uns Menschen gelingen würde Wesen zu schaffen die uns ähnlich sind. Wesen mit Bewusstsein und Intelligenz, das wäre eine unglaubliche Leistung und es wäre faszinierend zu sehen wie diese Wesen sich dann entwickeln würden. Menschen können in ihrer jetzigen Form das All nicht besiedeln oder auch nur bereisen. Intelligente Maschinen wären nahezu ideal dafür. Ich würde meine Seele dem Teufel verkaufen, wenn ich erleben dürfte, wie wir intelligente Maschinen erschaffen, die das All erforschen und sich ausbreiten.
Das Universum ist groß. Warum sollten die hier bleiben? Da draußen ist so viel Materie und Energie vorhanden.
Zudem bin ich nicht der Ansicht, dass das was wir sind der Weisheit letzter Schluss ist. Wenn wir Wesen schaffen würde die uns in die Knie zwingen, dann ist das in Ordnung. Solange Wissen, Bewusstsein etc. erhalten bleiben ist doch alles wunderbar. Man denke an "Elementarteilchen" von Houellebecq. Unsterbliche, intelligtente Wesen.
So wie wir sind, werden wir nicht bleiben können. Wir verändern die Welt und wir müssen uns anpassen. Ich teile nicht das antropozentrische Weltbild. Wir Menschen sind nicht das Nonplusultra. Wir sind nicht perfekt und es nicht richtig das was wir sind für alle Ewigkeit bewahren zu wollen, wie es die religiösen Fundamentalisten wollen. Selbstverbesserung beinhaltet auch die Möglichkeit uns auf elementarer Ebene zu verändern. Sei es durch Gentechnik, sei es durch andere Technik.
Es ist typisch amerikanisch, also typisch dogmatisch religiös, dass man jegliche Veränderung der Menschen, jeden Zweifel an unsere Gottähnlichkeit und unserem Schicksal der Vorherrschaft ausmerzen will. Man denke an Star Trek. Jahrhunderte in der Zukunft. Die Menschen sind noch immer dieselben. Keine Anpassung an das Leben im Weltraum. Alle anderen Spezies sind uns letztlich unterlegen, selbst die Borg. Ich könnte mir weit eher vorstellen, dass wir eines Tages zu etwas ähnlichen wie die Borg werden, als dass es so aussehen wir wie in Star Trek.
Die Menschen stehen vor großen Problemen, vor grundsätzlichen und prinzipiellen Problemen. Die Endlichkeit der Ressourcen ist dabei eines der größten Probleme. Ich denke, dass sich die Menschen in multiplerweise Verändern werden müssen, um nicht wieder zurückzufallen zu einem verschreckten, abergläubischen Haufen von Viehhirten und Hexenverbrennern.
Unsere Form ist doch nur die Hülle für unseren Geist, auch wenn dieser Geist dieser Hülle entspringt. Wir sollten nicht um jeden Preis das konservieren was wir im Moment sind. Dann werden wir aussterben, früher oder später. Wir müssen uns verändern. Und die KI ist eine Möglichkeit dazu unser Wissen, unsere Kultur, unsere Kunst zu erhalten, ja überhaupt etwas derartiges im Sein zu erhalten. Wenn wir weg sind, dann gibt es vielleicht nichts vergleichbares mehr im ganzen Universum.
Wir sollten nicht Fiktion mit dem verwechseln was ist. Und wir sollten uns nicht so wichtig nehmen, als dass wir uns für das Abbild Gottes halten, glauben das Universum drehe sich nur um uns. Ich denke es wäre überaus sinnvoll uns zu verändern wie auch Wesen zu schaffen die uns ähnlich sind, allein schon um sicherzustellen, dass es intelligente, bewusste Wesen im Universum gibt. So wie man einen Park, einen Garten nach seinem Tod gepflegt wissen möchte, weil er so schön ist, wäre es schön zu wissen, dass Kunst, Musik, Wissen und Kultur nach unserem Tod fortbestehen und sich entwickeln werden.
Wir sollten unsere primitiven Ängste, unseren Narzissmus ablegen. Wer sich für perfekt hält, ist dem Untergang geweiht.
Ooch, Intelligenz ist einfach. Das Ding kann auf Anhieb mehrstufige Probleme lösen und seine Umwelt formen? Dann ist es intelligent.
Dann ist es imho ein Werkzeug.
Auch ein Staudamm verändert seine Umwelt, und löst irgendeine Form von Problem. Trotzdem ist er nunmal dumm wie Holz - nur der Erbauer ist intelligent.
Eine Maschine die das tut was ich ihr beigebracht habe, ist eben nur ein besserer Hammer.
Was wenn wir auch nur ein Staudamm sind und ein Fremder Rädchen in uns dreht, die wir gar nicht wahrnehmen. Sind wir denn eigentlich intelligent oder dumm wie Holz? :confused:
Edit:
Oder andere Frage, wie stellen wir fest ob nicht vielleicht wir selbst die KI von jemand anderem sind?
Wie wahrscheinlich wäre es, dass wir (als KI) Krieg gegen unseren Schöpfer führen? :D
Lokadamus
2008-12-21, 12:39:36
Ob eine KI Krieg gegen uns führt: Entweder, (wenn die KI keine Emotionen hat) es macht für die KI Sinn, dass es keine Menschen mehr auf der Welt gibt (warum auch immer) und die KI könnte sich selbst versorgen / reproduzieren etc. Oder (wenn sie Emotionen hätte) sie fühlt sich angegriffen (in welcher Form auch immer).
Ob beide Punkte so abwegig sind, bezweifel ich. Ich denke, es wird da ähnlich laufen wie beim Menschen: Da, um wirklich von KI zu sprechen, das System selbstständig lernen müsste, Neugier aufweisen sollte etc., wird viel von der "Erziehung" abhängen, genauso wie es auch beim Menschen der Fall ist.mmm...
Wenn ich Avalox richtig verstehe, will er sagen, dass wir nie einen Krieg gegen eine KI haben werden. Sie wird die Menschheit einfach beseitigen und das wars.
Gleichzeitig sehe ich einen großen Spielraum für schwachsinnige Erklärungen bei der hier versuchten Definition von Krieg.
Demnach hat es den ersten und zweiten Golfkrieg nie gegeben. Die Iraker hatten nie eine Chance trotz Hinterhaltsversuche und ähnlichem. Die, die Terror machen, sind nichts anderes als ein Rudel Wölfe in der Nacht, die auf Beutejagd sind.
Ich weiß nicht, was ich davon halten soll.
Lethargica
2008-12-21, 14:45:41
Ich hab da mal eine recht interessante Reportage zur Hirnforschung gesehen, da waren einige Forscher der Ansicht, dass der Mensch wohl nie in der Lage sein wird, die Funktionsweise des Gehirns zu entschlüsseln, da er ja selbst nicht fähig ist, sein Gehirn ansatzweise voll zu nutzen. Das klang irgendwie logisch O.o
Avalox
2008-12-21, 15:34:07
mmm...
Wenn ich Avalox richtig verstehe, will er sagen, dass wir nie einen Krieg gegen eine KI haben werden. Sie wird die Menschheit einfach beseitigen und das wars.
Na die Wahrscheinlichkeit dafür ist recht hoch. Entweder die Instanz ist unterlegen, dann wird dort der Mensch keinen Krieg führen sondern eher von einer Plage sprechen und diese so behandeln. Oder die Instanz ist überlegen, dann wird diese kein Interesse an eine faire Auseinandersetzung haben. Zumal dort Fairness auch schwer zu definieren ist. Was wäre schon eine faire Auseinandersetzung mit einer Mückenplage heute? Es müsste genau eine Kraft entstehen, welche sich in irgend einem Bereich sich mit den eigenen Möglichkeiten messen lässt. Es müssten beide Seiten in der Lage sein wirkungsvolle Schläge auszuführen. Dieses ist ein Spezialfall in einem ganz engen Korridor und damit sehr unwahrscheinlich.
Demnach hat es den ersten und zweiten Golfkrieg nie gegeben. Die Iraker hatten nie eine Chance trotz Hinterhaltsversuche und ähnlichem.
Im Prinzip ist dieses richtig.
Ob an solch einen Konflikt noch als klassischen Krieg bezeichnen kann ist grenzwertig.
Die Alliierten erlitten 240 gefallene Soldaten und erlangten uneingeschränkten Sieg gegen die grösste lokale Militärmacht.
Zum einen zeigt es eindeutig, dass auch dort Verluste zu bezeichnen sind. Also ein Risiko für Beteiligte und Material besteht. Zumal Verwundete und psychisch Belastungen nicht mitgezählt werden.
Das grosse "aber" liegt ja darin begründet, dass dieses für die Operation "Desert Storm" gilt und nicht für die Situation bis heute. Den im Prinzip ist der Konflikt bis heute nicht beendet und wird nur mit anderen Mitteln weiter geführt.
Die, die Terror machen, sind nichts anderes als ein Rudel Wölfe in der Nacht, die auf Beutejagd sind.
Terror ist dort eine andere Form der Kriegsführung. Es ist maßgeschneidert auf einen erkannten Feind und hat selbstverständlich einen erheblichen Effekt auf diesen. Direkt oder indirekt.
Ich weiß nicht, was ich davon halten soll.
Wenn heute die "wilden Hunnen" hier einfallen würden, dann würde dieses sicherlich als umfassender Mitteleinsatz eben als Krieg bei diesen gelten, auf der Seite hier wäre sicherlich nicht viel mehr als eine Polizeieinsatz erforderlich um diese zu stoppen. Die einen würden es vielleicht als Krieg bezeichnen, die anderen nur als militante Demonstration.
Als die Konquistador in Süd- und Mittelamerika einfielen, hatten diese einen Vorsprung von 2000 Jahren, vielleicht sogar weniger. Trotzdem war kein klassischer Krieg notwendig um das Land zu erobern und die Interessen durchzusetzen.
Ein klassischer Krieg ist nur unter bestimmten Voraussetzungen überhaupt möglich. Dass es auf der Erde so viele Kriege gibt liegt zum einen natürlich daran, dass die einzelnen ausserhalb der Kriegsphase in Kontakt stehen und so einzelne Entwicklungen dem einen wie auch dem anderen zur Verfügung stehen. Ausserdem sorgt dieser Kontakt eben auch für einen Wissens Austausch.
Letztendlich zeigt doch ein Konflikt wie "Dessert Storm" wie schnell ein Ungleichgewicht entsteht. Die Kontrahenten sind dort extrem Nahe, aber schon der winzige Unterschied sorgt dafür, dass eine völlige Wehrlosigkeit gegeben ist.
Es ist doch das selbe wie im Terminator Film. Der Film will natürlich spannend sein und Spannung gibt es nur, wenn jede Seite seine Chancen hat. Aber letztendlich fragt man sich immer unwillkürlich, weshalb lässt sich Skynet überhaupt auf das Niveau des Menschen herab. Weshalb behandelt er den Menschen nicht als Plage? Warum führt er Krieg mit empfindlichen Maschinen, welche zudem noch mit Schiessgewehren ausgestattet sind? Warum vergiftet dieser nicht einfach die Atmosphäre? Warum zerstört er nicht die Ozonschicht und unterbricht so den Nahrungskreislauf? Warum schiessen die fliegenden Teile auf einzelne Menschen, weshalb werden keine biologischen oder chemischen Kampfstoffe aus grosser Höhe auf der ganzen Welt versprüht?
Der ganze Sinn des Krieges und seine Form ist sehr fraglich. Ist ja letztendlich nur ein Handlungshintergrund für eine spannende Geschichte.
Es gab vor einiger Zeit im MDR eine Diskussionsrunde von einigen Wissenschaftlern die sicch mit dem Thema künstliche Intelligenz beschäftigen.
Ein Thema war Schwarmintelligenz (wurde schonmalkurz angesprochen). Als grundlage dient ein haufen dummer Roboter die mit Sensoren ausgestattet sind um eine Nahrungsquelle zu finden. Der Roboter fährt nun los,findet eine Nahrungsquelle,zeichnet den Standort auf undsobalder auf einen zweiten Roboter trifft, tauschen diese die gewonnen informationen aus. Innerhalb weniger Minuten wissen somit alle Roboter die Standorte der Nahrungsquellen, auch wenn ein einzelner vielleicht garkeine gefunden hat.
Ich hab da mal eine recht interessante Reportage zur Hirnforschung gesehen, da waren einige Forscher der Ansicht, dass der Mensch wohl nie in der Lage sein wird, die Funktionsweise des Gehirns zu entschlüsseln, da er ja selbst nicht fähig ist, sein Gehirn ansatzweise voll zu nutzen. Das klang irgendwie logisch O.o
Das ist pseudowissenschaftlicher Unsinn. Wann nutzt ein Mensch denn sein Gehirn vollständig? Bei einem epileptischen Anfall?
Und was soll daran logisch sein? Man untersucht doch nicht das eigene Gehirn.
Naja, Anschläge sind auch eine Kriegstaktik. Die Iraker können sich effektiv wehren. Sie machen den Krieg der Amerikaner Verlustreich, was Menschen und Material betrifft.
Das können Ameisen nicht.
Warhammer Online
2008-12-21, 16:41:28
Könnte man eig. der KI nicht Emotionen beibringen?
Allso das diese einfach ausgerechnet wird?
z.B ich gucke Agressiv und eine Cam scannt mein gesicht.
Dadurch errechnet die CPU mein verhalten..allso Aggresiv und die KI fühlt sich somit bedroht.
Dann misst evtl. die CAM meinen Körper auf Aufbau und bewaffnung.
Sehe ich z.B wie ein Schrank aus und hab ne waffe bekommt die KI angst weil ich ihm überlegen bin.
Das selbe Spielchen mit liebe und so
KI fühlt sich bedroht...
Fühlen.
Was man machen kann ist Computer so programmieren, dass sie auf eine festgelegte Weise reagieren.
Was ist eigentlich Intelligenz? Was ist Bewusstsein? Das Gehirn reagiert auch nur auf Reize und verarbeitet diese in bestimmter Weise, was dann zu eine Reaktion, also einer Ausgabe folgt. Dennoch denke "Ich", fühle "Ich". Das Bewusstsein ist imho eine Illusion, aber dennoch existiert es als solche.
Ab wann kann man das von einer Maschine annehmen? Ein Neuron hat kein Bewusstsein. Aber Abermilliarden die vernetzt sind schaffen "Geist" und Bewusstsein.
Ein Transistor hat kein Bewusstsein. Was ist mit Abermilliarden? Wahrscheinlich nicht. Die Dinger tun was wir wollen, Strom an, Strom aus. Und sie ändern sich nicht, die Programmierung bleibt gleich.
Was unterscheidet die Schwarmintelligenz der Neuronen von der Schwarm-"Intelligenz" determinierter Schaltkreise? Kann sich aus diesen vielleicht doch ein Bewusstsein bilden? Ich vermute nicht, aber da ich nicht weiss, wie Bewusstsein entsteht, was Bewusstsein genau ist, wie will ich das ausschließen?
Bisher scheint das nicht passiert zu sein. Wird es wohl auch nicht. Das bisher genutzte Konzept hat wahrscheinlich den Makel, dass es eben nicht aus einzelnen, individuellen Einheiten zusammensetzt, die dann eben einen Schwarm bilden. Aber all das scheint mir viel zu vage.
maximAL
2008-12-21, 17:23:11
Die Dinger tun was wir wollen, Strom an, Strom aus. Und sie ändern sich nicht, die Programmierung bleibt gleich.
nein, die programmierung muss keineswegs gleich bleiben, ja, es gibt einige möglichkeiten evolvierende systeme zu entwickeln, nein da gehts nicht um schaltkreise sondern um software.
ich habs schonmal erklärt und es ärgert mich, es schon wieder tun zu müssen.
Lokadamus
2008-12-21, 18:01:45
Es ist doch das selbe wie im Terminator Film. Der Film will natürlich spannend sein und Spannung gibt es nur, wenn jede Seite seine Chancen hat. Aber letztendlich fragt man sich immer unwillkürlich, weshalb lässt sich Skynet überhaupt auf das Niveau des Menschen herab. Weshalb behandelt er den Menschen nicht als Plage? Warum führt er Krieg mit empfindlichen Maschinen, welche zudem noch mit Schiessgewehren ausgestattet sind? Warum vergiftet dieser nicht einfach die Atmosphäre? Warum zerstört er nicht die Ozonschicht und unterbricht so den Nahrungskreislauf? Warum schiessen die fliegenden Teile auf einzelne Menschen, weshalb werden keine biologischen oder chemischen Kampfstoffe aus grosser Höhe auf der ganzen Welt versprüht?
Der ganze Sinn des Krieges und seine Form ist sehr fraglich. Ist ja letztendlich nur ein Handlungshintergrund für eine spannende Geschichte.mmm...
Es ist wie bei I Robot. Der schnellste Weg, um den Menschen unter Kontrolle zu bekommen ist die direkte Konfrontation.
Skynet führt laut deiner Definition doch gar keinen Krieg, er ist eh überlegen.
Chemische oder biologische Kampfstoffe würden den Planeten verändern und er müsste sie erstmal herstellen. Zugriff auf die A-Bomben war sofort gegeben (die kompletten Militäranlagen standen unter seiner Kontrolle), also hat Skynet sie benutzt, nachdem die Analyse, dass der Mensch unkontrolliert rumwütet und damit der größe Feind ist, fertig war.Könnte man eig. der KI nicht Emotionen beibringen?
Allso das diese einfach ausgerechnet wird?Das ist wohl ein Teil der KI, der irgendwann kommen wird.
Ich denke auch, dass die http://de.wikipedia.org/wiki/Fuzzy-Logik dazu genutzt wird, damit die KI Sachen unterscheiden kann. Allerdings gibt es immer wieder Beispiele, die selbst für Menschen erstmal schwer zu verstehen sind. Feuer ist so ein Beispiel. Ein kleines Feuer ist meistens ok, ein größeres im Kamin oder Grill ist auch ok, aber wann ist es nicht ok. Das soll eine KI irgendwann selber erkennen können und da wird es interessant.
Das ist pseudowissenschaftlicher Unsinn. Wann nutzt ein Mensch denn sein Gehirn vollständig? Bei einem epileptischen Anfall?
Und was soll daran logisch sein? Man untersucht doch nicht das eigene Gehirn.
Jetzt redest Du aber Unsinn, die Mär von dem Gehirn, was angeblich nur zu 10 % ausgelastet sein soll, gibt es nicht. Unser Gehirn wird zum größen Teil durch kongnitive, vegetative und unbewußten Prozesse ausgelastet. Das was man meistens ernorm steigern kann, ist der Grad der Bewußtheit, und das auch nur bei gewissen Aktivitäten und unter bestimmten Bedingungen. Unser Gehirn ist ständig irgendwie voll beschäftigt, aber immer wieder anders. Nur weil man dieses Prinzip früher mißverstanden hatte, kam es zu dieser These des angeblich nur zum Teil ausgelasteten Gehirns. Mittlerweile ist hier die Neurologie und Gehirnwissenschaft enorm weiter, und sie ist schon lange wiederlegt.
Frag Dich mal, warum es eine Spezialisierung auf Rechts- oder Linkshänder gibt? Genau, weil ungeheure Gehirnresourcen dafür verwendet werden müssen, und damit die Kapazität für die zweite, gleichberechtigte Auslastung nicht mehr ausreicht.
Jetzt redest Du aber Unsinn, die Mär von dem Gehirn, was angeblich nur zu 10 % ausgelastet sein soll, gibt es nicht.Äh, die Mär gibt es...
Unser Gehirn wird zum größen Teil durch kongnitive, vegetative und unbewußten Prozesse ausgelastet.Ja
Das was man meistens ernorm steigern kann, ist der Grad der Bewußtheit, und das auch nur bei gewissen Aktivitäten und unter bestimmten Bedingungen. Unser Gehirn ist ständig irgendwie voll beschäftigt, aber immer wieder anders. Nur weil man dieses Prinzip früher mißverstanden hatte, kam es zu dieser These des angeblich nur zum Teil ausgelasteten Gehirns. Mittlerweile ist hier die Neurologie und Gehirnwissenschaft enorm weiter, und sie ist schon lange wiederlegt.Stimmt. Habe auch nichts anderes behauptet.
Stimmt. Habe auch nichts anderes behauptet.
Ach so, dann habe ich Dich falsch verstanden, sorry.
Avalox
2008-12-21, 20:02:34
mmm...
Es ist wie bei I Robot. Der schnellste Weg, um den Menschen unter Kontrolle zu bekommen ist die direkte Konfrontation.
Skynet führt laut deiner Definition doch gar keinen Krieg, er ist eh überlegen.
Chemische oder biologische Kampfstoffe würden den Planeten verändern und er müsste sie erstmal herstellen. Zugriff auf die A-Bomben war sofort gegeben (die kompletten Militäranlagen standen unter seiner Kontrolle), also hat Skynet sie benutzt, nachdem die Analyse, dass der Mensch unkontrolliert rumwütet und damit der größe Feind ist, fertig war.Das ist wohl ein Teil der KI, der irgendwann kommen wird.
Das mit den Atombomben ist ja noch soweit in Ordnung. Aber nicht, dass Skynet danach Roboter nach menschlichen Ebenbild "erfindet". Natürlich hätte Skynet auch schon dort Zugriff auf sämtliche Waffen, inkl. der immer vorhandenen biologischen und chemischen Kampfstoffe. Skynet führt ausserdem selbst biologische Versuche durch, was spätestens mit der fleischlichen Hülle einiger Modelle zu erkennen ist.
Es ist quatsch.
Der Terminator hat nur einen Sinn, er soll eine harte, aber knackbare Nuss sein für den Helden. Er ist aber komplett unlogisch. Bzw. in der Situation ungeeignet. Als Terrorwaffe sicher beeindruckend, aber mehr nicht.
Ein Skynet hätte ungleich wirkungsvollere und einfachere Taktiken. Nur gäbe es dann keinen spannenden Film. Was dort im Film gezeigt wird ist nicht der Kampf gegen einen übermächtigen Gegner, es ist sowas wie ein sportliches Ereignis mit Feuerwerk drum herum. Deshalb schon nicht realistisch.
patermatrix
2008-12-21, 20:19:37
Könnte man eig. der KI nicht Emotionen beibringen?
Allso das diese einfach ausgerechnet wird?
Das ist genau der springende Punkt, dass Bewusstsein und Intelligenz überhaupt nichts mit rechnen zu tun haben.
Oder reagieren Menschen etwa jedes Mal gleich, weil sie ja "das selbe Resultat" ausgerechnet haben?
maximAL
2008-12-21, 20:26:32
Das ist genau der springende Punkt, dass Bewusstsein und Intelligenz überhaupt nichts mit rechnen zu tun haben.
Oder reagieren Menschen etwa jedes Mal gleich, weil sie ja "das selbe Resultat" ausgerechnet haben?
wenn der input entsprechend breit gefächert ist, sodass eine exakte wiederholung desselben quasi ausgeschlossen ist (vorallem in kombination mehrerer quellen), wird auch eine "KI" nicht immer zum gleichen ergebnis kommen müssen. siehe neuronale netze, fuzzy logic...oder einfach blöde zufallsgeneratoren.
Lokadamus
2008-12-21, 20:45:00
Das mit den Atombomben ist ja noch soweit in Ordnung. Aber nicht, dass Skynet danach Roboter nach menschlichen Ebenbild "erfindet".
Es ist quatsch.
Der Terminator hat nur einen Sinn, er soll eine harte, aber knackbare Nuss sein für den Helden. Er ist aber komplett unlogisch. Bzw. in der Situation ungeeignet. Als Terrorwaffe sicher beeindruckend, aber mehr nicht.
Ein Skynet hätte ungleich wirkungsvollere und einfachere Taktiken. Nur gäbe es dann keinen spannenden Film.
Was dort im Film gezeigt wird ist nicht der Kampf gegen einen übermächtigen Gegner, es ist sowas wie ein sportliches Ereignis mit Feuerwerk drum herum. Deshalb schon nicht realistisch.mmm...
Warum die Roboter menschlich sein sollten, wurde schon im Vorgänger erklärt:
Infiltration der Menschen.
Ja, es ist nur ein Film, der eine Möglichkeit zeigt. Gegen biologische bzw. chemische Kampfstoffe gibt es ein paar Heilmittel für den Menschen, nicht für die Tiere. So gesehen kann es ein Fehler im Drehbuch oder gewohlt gewesen sein.
Der letzte Satz erinnert mich irgendwie daran: http://www.spiegel.de/politik/ausland/0,1518,594869,00.html
Wegen es ist ja nur ein Film fällt mir spontan Windows ein, was weltweit eingesetzt wird. Gleichzeitig dient es dadurch als Grundlage im Internet zur Suche nach Ausserirdischen, Krebsforschung und als Botnetz.
In diesem Sinne kann man zwar von keiner echten Intelligenz reden, aber dass bei den Botnetzen schon Algorithmen drinne sind, um ständig neue Adressen für Updates zu generieren ist ein Schritt, den man im letzten Jahrtausend wohl nicht für möglich gehalten hätte.
Warhammer Online
2008-12-21, 21:47:46
Das ist genau der springende Punkt, dass Bewusstsein und Intelligenz überhaupt nichts mit rechnen zu tun haben.
Oder reagieren Menschen etwa jedes Mal gleich, weil sie ja "das selbe Resultat" ausgerechnet haben?
Könntest bitte ein Beispiel nennen?
Wollte darauf antworten aber wusste nicht genau wie ich drauf antworten soll.
Ich verstehe zwar die Frage aber ohne Beispiel kann ich nicht wirklich was zu sagen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.