PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann kommt KI-CPU?


PHuV
2005-03-14, 14:47:59
Nachdem es ja demächst eine Physik-CPU (siehe News 3DCenter vom 14.März) von Ageia gibt, stelle ich mir die berechtigte Frage nach einer speziellen CPU, die das Verhalten von Computergegnern besser und effektiver simuliert als die normale CPU. Eigentlich wäre so eine KI-CPU an sich wichtiger als eine Phsyik-CPU, weil die CPU heute eigentlich damit am meisten belastet wird (wers nicht glaubt, soll mal mit nur 2-3 Computergegnern und einer großen Karte C&C Generals/Generäle spielen!)

Hauwech
2005-03-14, 15:01:52
So ein spezieller KI Chip dürfte gar nicht realisierbar sein.

Wenn jetzt, theoretisch, die PPU jeglich Physik übernimmt und die von Coda im anderen Thread genannten bis zu 40% CPU Belastung durch die Physik frei werden, dürfte das schon nicht unerheblich sein. Damit sollte imho, DualCore und DualCPU gar nicht berücksichtigt, schon genügend Freiraum für "bessere" KI da sein.

BlackArchon
2005-03-14, 15:04:08
Mit den kommenden Dual Core-CPUs hast du deine Physik-CPU.

Trap
2005-03-14, 15:18:04
Wenn kommt die Hardware-Engine? ;)

mrt
2005-03-14, 15:21:11
Mit den kommenden Dual Core-CPUs hast du deine Physik-CPU.

OT
Eine PPU wäre trotzdem sinnvoll weil sie einfach spezialisiert ist und damit mehr Leistung für Physikberechnungen bietet. Abgesehen davon wäre es wünschenswert wenn endlich die Ladebildschirme in Spielen verschwinden. Und gerade dies wird mit DC CPU's möglich.

zum Thema
Ich denke auch, dass ein KI chip kaum realisierbar ist. Alleine schon weil er sehr flexibl sein müsste. Ähnlich wie unsere heutigen CPU's.

Coda
2005-03-14, 15:28:40
und die von Coda im anderen Thread genannten bis zu 40% CPU Belastung durch die PhysikDas hab nicht ich gesagt :rolleyes:

Ich meinte nur dazu, dass ich mir das bei FarCry durchaus vorstellen kann, weil Lua nicht gerade schnell ist.

Zum Thema: Da könnte ich nur einen Beschleuniger für neuronale Netzwerke vorstellen. Sonst ist eigentlich nichts generell machbar.

Trap
2005-03-14, 15:43:15
Man könnte einfach eine PCIe-Karte mit http://www.altera.com/products/devices/stratix2/st2-index.jsp verkaufen und das Spiel dann die benötigten Funktionen draufladen lassen.
Dummerweise kosten diese Chips zu viel um es für den Massenmarkt und damit für die Spielehersteller interessant zu machen.

Hauwech
2005-03-14, 17:21:35
Das hab nicht ich gesagt :rolleyes:

Ich meinte nur dazu, dass ich mir das bei FarCry durchaus vorstellen kann, weil Lua nicht gerade schnell ist.

Zum Thema: Da könnte ich nur einen Beschleuniger für neuronale Netzwerke vorstellen. Sonst ist eigentlich nichts generell machbar.

Naja, da du ja "ein wenig mehr" Ahnung hast als ich :D, gehe ich mal davon aus, das die Prozentangabe doch recht realistisch ist.

Monger
2005-03-14, 17:44:01
Ein extra Chip würde ja nur Sinn machen, wenn er sehr stark auf seine Aufgabe spezialisiert werden könnte...

Das würde voraussetzen, dass man sich hundertprozentig klar darüber ist wie eine KI auszusehen hat. Bei Physik ist das relativ eindeutig, deshalb wäre da ein passender Chip gar nicht so schlecht. Grafik ist eigentlich überhaupt nicht eindeutig - nur die pure Not hat die Industrie zu passenden Standards gezwungen.

Trap
2005-03-14, 18:12:59
Der von mir verlinkte Chip ist programmierbare Hardware (mindestens halb so schnell wie echte Hardware, nur viel teurer) und damit auf beliebige Algorithmen spezialierbar.

Physiksimulation würde ich nicht als relativ eindeutig einordnen, da ist Dreiecke zeichnen deutlich genauer als Anforderung.

Coda
2005-03-14, 18:15:00
Grafik ist eigentlich überhaupt nicht eindeutig - nur die pure Not hat die Industrie zu passenden Standards gezwungen.Wo ist Grafik nicht eindeutig? Es gibt eigentlich nur Rasterizing und Raytracing. Man hat sich halt für Rasterizing entschieden, weil es einfacher zu handhaben ist.

Monger
2005-03-14, 18:59:23
Wo ist Grafik nicht eindeutig? Es gibt eigentlich nur Rasterizing und Raytracing. Man hat sich halt für Rasterizing entschieden, weil es einfacher zu handhaben ist.

Stellt sich die Frage, was man unter "Grafik" versteht...
Ich denke da z.B. an die Voxel Technik...
Okay, vielleicht war es eine technische Sackgasse, vielleicht wäre es aber mit der nötigen Unterstützung vielleicht doch noch was draus geworden. Afaik hat es aber nie Voxel 3D Beschleunigerkarten gegeben, und somit waren die Chancen auf größere Verbreitung von vornherein schlecht.


Genauso dass man sich bei der Hardware auf dreieckige Polygone beschränkt, ist halt mathematisch geschickt, aber ansonsten willkürlich. Genauso die vielen verschiedenen Varianten von Beleuchtung.

Und mal im Ernst: Könnten die IHVs mit so vielen Features werben, wenn es nicht so viele verschiedene Techniken zur Grafikdarstellung gäbe? ;)

Coda
2005-03-14, 19:01:55
Es gab nie wirkliche Voxelengines. Das Zeug in Comanche ist eine Heightmap und keine richtige Volumenrepräsentation.

Das Problem ist das Voxel immense Speichermengen verschlingen die auch in ferner Zukunft nicht so einfach zur Verfügung stehen.

Und mal im Ernst: Könnten die IHVs mit so vielen Features werben, wenn es nicht so viele verschiedene Techniken zur Grafikdarstellung gäbe?Mhm? Die Grafikkarten können zur Zeit nichts anderes als Polygone füllen.

Monger
2005-03-14, 19:09:58
Mhm? Die Grafikkarten können zur Zeit nichts anderes als Polygone füllen.

Ich kann mich noch ganz gut an die ersten T&L Karten erinnern, und wie man über ein paar Partikeleffekte, farbiges Licht und volumetrischen Nebel gestaunt hat. Bevor ein fertiges Bild hinten aus der Grafikkarte rausflutscht, muss doch etwas mehr passieren als nur geometrische Daten mit Texturen zu beschichten, oder?

Coda
2005-03-14, 19:21:51
Heute gibt's halt nicht nur Texturen sondern auch Programme die pro Pixel und Vertex ausgeführt werden, aber ansonsten ist das Prinzip immer noch das gleiche.

Paulus 10
2005-03-15, 00:03:24
Zum Thema: Da könnte ich nur einen Beschleuniger für neuronale Netzwerke vorstellen. Sonst ist eigentlich nichts generell machbar.

Dafür bräuchtest du keinen extra Beschleuniger. Die Mathematik die dahinter steckt ist so einfach, dass damit sogar jede total veraltete CPU klar kommen würde.
Das Problem liegt vielmehr darin, das es recht lange dauert ein NN zu erstellen. Außerdem könnte man überhaupt erst dann mit der Entwicklung beginnen, wenn alles andere am Spiel schon fertig ist. Balancing Änderungen wären auch schwierig. Man müßte jedesmal davor umfangreiche Tests machen um Trainingsdaten zum Rekalibrieren der KI zu bekommen.

Coda
2005-03-15, 00:06:13
Dafür bräuchtest du keinen extra Beschleuniger. Die Mathematik die dahinter steckt ist so einfach, dass damit sogar jede total veraltete CPU klar kommen würde.Ein sehr großes Neuronales Netz braucht sehr viel Rechenleistung. Bei uns an der Uni laufen mehrere Projekte die sich damit befassen.

Außerdem soll die KI ja vielleicht während des Spiels noch was lernen und dann wird's wirklich heavy (back propagation)

DrumDub
2005-03-15, 10:52:57
Es gab nie wirkliche Voxelengines.

und was ist mit delta force (2)? die engine heißt schließlich voxel space (2).

mrt
2005-03-15, 11:01:21
und was ist mit delta force (2)? die engine heißt schließlich voxel space (2).


Outcast hatte auch eine. ;)

ExXter
2005-03-15, 14:29:27
@Topic:

KI ist in Hardwareform NIE realisierbar. Einfachste Möglichkeit sich selbst davon zu überzeugen ist ein BioBuch aufzuschlagen und nachzuschauen wann Gliazellen aufhören zu wachsen und Neuronen aufhören ihre Dedriten zu verlängern bzw. Axonterminals an andere Neuronen anzunähern bzw. zu verlängern >>NIE.

So, wenn dieses Stück HW nicht direkt mit Zellen in einer Art CSF bzw Liquor Medium realisierbar ist wobei dieses "Reticulum", dann auch noch Sinn machen müsste, wird es NIE realisierbar ein. Und wenn, dann kann man es nicht mehr HW nennen, eher Hybrit-DenkZelle oder sowas und selbst dann wird diese eine Zelle vielleicht mal die Leistung eines unsere Standart-Neuronen grade so erbringen können, heißt du bräuchtest 100-150 Milliarden davon, sprich "BrainSize".

Coda
2005-03-15, 14:31:54
und was ist mit delta force (2)? die engine heißt schließlich voxel space (2).Das ist die Comanche Engine. Outcast sind auch keine Voxel.

Beides sind nur Heightmap Raycaster, warum dafür der Voxel-Term verwendet wurde weiß ich auch nicht. Vermutlich weil es so aussieht.

Trap
2005-03-15, 14:57:58
@ExXter: Standard
KI heißt künstliche Intelligenz weil es nicht echte Intelligenz ist und auch nicht so funktionieren muss.

aths
2005-03-15, 16:34:39
Nachdem es ja demächst eine Physik-CPU (siehe News 3DCenter vom 14.März) von Ageia gibt, stelle ich mir die berechtigte Frage nach einer speziellen CPU, die das Verhalten von Computergegnern besser und effektiver simuliert als die normale CPU. Eigentlich wäre so eine KI-CPU an sich wichtiger als eine Phsyik-CPU, weil die CPU heute eigentlich damit am meisten belastet wird (wers nicht glaubt, soll mal mit nur 2-3 Computergegnern und einer großen Karte C&C Generals/Generäle spielen!)Ich halte die Ansprüche an "KI" für übermäßig hoch. Die KI die wir brauchen, um das Verhalten von Computer-Gegnern zu berechnen, lässt sich ganz gut als Zustandsautomat beschreiben. Was soll noch "besser" werden? Dass man weniger gescriptete Aktionen als solche erkennt.

Ein Ansatz wäre imo, dass die "KI" verschiedene Möglichkeiten miteinander kombiniert und dann versucht, den Erfolg zu bewerten. Wenig erfolgreiche Strategien werden dann weniger oft genutzt. Beim Computerschach spielen Computer, wie Computer so spielen. Wer seine Schacherfahrung in ein Programm einfließen lassen will, wird wesentlich länger zur Implementierung brauchen und wohl auch ein weniger spielstarkes Programm schreiben als jemand, der mit wenig Schacherfahrung (aber natürlich in Kenntnis des Regelwerks) einen generellen spieltheoretischen Ansatz wählt, und den Computer "unmenschlich" spielen lässt.

Wenn man gegen Menschen spielen will, ist das im Online-Zeitalter ja möglich.

ExXter
2005-03-15, 19:04:56
@ExXter: Standard
KI heißt künstliche Intelligenz weil es nicht echte Intelligenz ist und auch nicht so funktionieren muss.

Künstlich hin oder her, falls du die Definition nachschlägst findest du unter mindestens 99% aller wissenschaftlichen Betrachtungsformulierung folgendes : "Ziel der KI ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz (John McCarthy, 1955)."

Dann schlägt man nach unter Intelligenz und findet :"Allen Definitionen von Intelligenz ist gemeinsam, dass sie einen Bezug zu Verstehen, Denken und Begreifen haben, also in irgendeiner Weise mit Geist, Verstand und Funktionen des Gehirns in Zusammenhang stehen."

So wo bitte hab ich den Fehler gemacht? Ich halte meinen Standpunkt für äußerst korrekt. Es gibt keine halbe KI oder ne Viertel, es gibt nur KI oder Code.

Code ist wenn ich zwei Zeilen schreiben und ein Bot sich vorwärts und rückwärts bewegt, weil nach Auswertung und Abarbeitung der beiden Zeilen der Bot sich vorwärts und rückwärts bewegen kann, mehr aber auch nicht.
KI ist, wenn ich nur einen Bot Progammiere, sage er hat zwei Augen für visuelle - , zwei Ohren für Sound- und Nase für Geruchsreize und Gleichgewichtssinn für Schwerkraftswahrnehmung etc. Dann sag ich noch wie groß in einer virtuellen Umgebung dieser Bot ist, welches Geschlecht er hat oder eben keins ..ellen lange Liste. Jedenfalls kommt dann das was KI genant wird, ich stelle mich neben diesen Bot innerhalb der virtual Reality und beginne zu laufen, der Bot sieht, das meine zwei Beine mich tragen, und erkennt Relationene/Korrelationen etc... auch ellenlange Liste. Am Ende macht er seinen ersten Schritt, nur durch Lernen, wie ein Kind lernt seinen ersten Schritt zu gehen.
Wer dieses Prinzip versteht wird auch begreifen wieso KI niemals in HW implementiert werden kann sondern nur durch Software emuliert und HW dabei nur die Basis der Ausführung, sprich Synaptische Bahnen, Speicher und ähnliches zur Verfügung stellt.

ExXter
2005-03-15, 19:14:54
Ich halte die Ansprüche an "KI" für übermäßig hoch. Die KI die wir brauchen, um das Verhalten von Computer-Gegnern zu berechnen, lässt sich ganz gut als Zustandsautomat beschreiben. Was soll noch "besser" werden? Dass man weniger gescriptete Aktionen als solche erkennt.

Ein Ansatz wäre imo, dass die "KI" verschiedene Möglichkeiten miteinander kombiniert und dann versucht, den Erfolg zu bewerten. Wenig erfolgreiche Strategien werden dann weniger oft genutzt. Beim Computerschach spielen Computer, wie Computer so spielen. Wer seine Schacherfahrung in ein Programm einfließen lassen will, wird wesentlich länger zur Implementierung brauchen und wohl auch ein weniger spielstarkes Programm schreiben als jemand, der mit wenig Schacherfahrung (aber natürlich in Kenntnis des Regelwerks) einen generellen spieltheoretischen Ansatz wählt, und den Computer "unmenschlich" spielen lässt.

Wenn man gegen Menschen spielen will, ist das im Online-Zeitalter ja möglich.


Du hast recht, doch der Zustandsautomat ist auch! HW, sprich nicht geeignet für KI. Für KI muss man dieses Schema um eine flexible Komponente erweitern, die du selber schon erwähnt hast. Und zwar das Anpassen an Umweltbedingung und Gegner. Ein Zustandsautomat wird definiert und realisiert mit festen Bedingungen, wenn du über die Auswertung von Strategien einige dieser Zustände weniger wichtig als andere machen willst, also sozusagen die Bewertung von Situation davon abhängig machst, ob dieser Zustand in den letzten 2 Stunden spielen wirklich von Relevanz gegen diesen Gegner war, dann müsstest du ein unendlich großes Programm/Bzw. Zustandsmodel programmieren/aufstellen, denn Menschen haben soviele mögliche Ideen und Strategien das es gar nicht möglich ist alle zu implementieren bzw mögliche Reaktionen darauf.

Es ist jedoch möglich eine rudimentäre Basis von Zuständen zu schaffen die jedem Menschen eigen sind und um diese Basis dem Computer ermöglichen aus dem "lernen" heraus selber neue Zustände zu kreieren. Erstens bleibt dadurch der gesamte Code kleiner und man selbst muss keine unendlichen Zustände betrachten, dabei sollte man jedoch beachten das solch "Lernen" wieder nur auf eine Season und nicht auf Ewig beschränkt werden muss, sonst wird man unweigerlich vor das Speicherproblem gestellt, das jetzt schon Probleme bereitet.

Trap
2005-03-15, 19:56:38
Künstlich hin oder her, falls du die Definition nachschlägst findest du unter mindestens 99% aller wissenschaftlichen Betrachtungsformulierung folgendes : "Ziel der KI ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz (John McCarthy, 1955)."

Dann schlägt man nach unter Intelligenz und findet :"Allen Definitionen von Intelligenz ist gemeinsam, dass sie einen Bezug zu Verstehen, Denken und Begreifen haben, also in irgendeiner Weise mit Geist, Verstand und Funktionen des Gehirns in Zusammenhang stehen."

So wo bitte hab ich den Fehler gemacht?
Du hast den Konjunktiv in McCarthys Definition anders interpretiert als ich.

Ich lese es so: Das Ziel ist dass die KI auf Menschen so wirken als ob die KI intelligent sei. Damit verwandt ist der Turing-Test. Der Maßstab für KI ist wie lange die KI von Menschen für Intelligent gehalten wird und wie groß der Themenbereich ist auf dem die Kommunikation stattfindet.
Schach ist ein Themenbereich in dem die KI sehr gut ist. Für 90% der Erdbevölkerung ist es sicher nicht möglich menschliche Züge von Zügen einer KI zu unterscheiden.

ExXter
2005-03-15, 20:24:39
Far off topic:

Beide Definitionen habe ich aus Wikipedia copy paste rausgeholt, ich sah keinen Anlass eine Abhandlung über die philosophische Definition beider Dinge zu tätigen, da jeder selbst dazu fähig sein sollte. Das diese in sich "Haarspalterei" zu lassen ist wohl klar aber auch nebensächlich.

Trotzdem ist die Interpretation nicht richtig, denn "Verhalten als verfügten sie über Intelligenz" heißt nicht, das sie jemanden eine Wirkung vormachen sollen, sondern soll erklären das "true" Intelligenz nicht progammierbar ist, nur "best" möglich nachempfindbar.

Der Maßstab für KI ist wie lange die KI von Menschen für Intelligent gehalten wird und wie groß der Themenbereich ist auf dem die Kommunikation stattfindet.

Das stimmt teils, deswegen wird es wenn überhaupt erste KI's nur auf bestimmte Bereiche bezogen geben, soll heißen, man versucht über Logikprogrammierung entscheidungsfreiheit auf ein Gebiet beschränkt zu simulieren, da das einfacher ist als einen gesamten KI Komplex zu entwickeln, wenn man zu frieden ist wird expandiert ...
Der Maßstab für Intelligenz ist unantastbar. Man sagt entweder in welchem Bereich etwas intelligent ist oder läßt es sein. Ein KI für nicht intelligent zu halten heißt das es keine KI ist. (streitbar, aber rein aus der 0/1 Logik wahr)


Das Ziel ist dass die KI auf Menschen so wirken als ob die KI intelligent sei. Damit verwandt ist der Turing-Test.

Verwandt vielleicht, aber weitaus nicht so weit entwickelt. Denn Intelligenz schließt A nach C Schlußfolgerungen ein ohne B zu kennen, Turingmachinen verlaufen streng linear, selbst k bandige, deshalb nicht intelligent, jede Entscheidung beruht auf ifs elses und ähnlichem, alle Fakten müssen bekannt sein, wenn sie es nicht sind, muss es eine Möglichkeit zum Ausweichen geben -> wieder if-else.

Experimentalanordnung: Tisch mit Schachbrett, Gegenspieler hinter Wand nicht ersichtlich, macht Züge über Funk.

Nimmt man den Fall eines schlechten Schachspielers ist die Unterscheidung wohl möglich, wenn man lange genug spielt, denn menschliche Fehler sind nicht programmierbar bzw. lange genuges Testen der Fehler wird aufzeigen ob der Mensch aus vorhergehenden Fehlern gelernt hat oder nicht bzw. Fehler immer wieder begeht. Die Wahrscheinlichkeit das eine Schach-KI einen Fehler, wenn überhaupt, zweimal begeht ist 0. Das ein Mensch dies tut, >0%, vorallem wenn die Konstellation der Figuren anders ist.

Im Falle Kasparow mit sehr guten Schachcomputer wird es schwer aber selbst hier ist, um mal spitzfindig zu sein, die Unterscheidung im unendlichen möglich, bzw schon nach 48 Stunden Schachmarathon. Der Mensch macht Müdigkeitsfehler, der PC NIE.

Trap
2005-03-15, 20:44:35
Ich bin mir sehr sicher dass ich Kasparow als Gegner nicht von einem für diesen Test entwickelten Schachprogramm unterscheiden kann. Und auch >90% der Weltbevölkerung können das nicht.

Turing-Test ist was ganz anderes als du vermutest, guck mal nach: http://de.wikipedia.org/wiki/Turing-Test

Xmas
2005-03-15, 21:54:38
Verwandt vielleicht, aber weitaus nicht so weit entwickelt. Denn Intelligenz schließt A nach C Schlußfolgerungen ein ohne B zu kennen, Turingmachinen verlaufen streng linear, selbst k bandige, deshalb nicht intelligent, jede Entscheidung beruht auf ifs elses und ähnlichem, alle Fakten müssen bekannt sein, wenn sie es nicht sind, muss es eine Möglichkeit zum Ausweichen geben -> wieder if-else.
Wer sagt dir denn bitte, dass "wahre" Intelligenz auf einer bestimmten Ebene nicht so funktioniert?

Wer dieses Prinzip versteht wird auch begreifen wieso KI niemals in HW implementiert werden kann sondern nur durch Software emuliert und HW dabei nur die Basis der Ausführung, sprich Synaptische Bahnen, Speicher und ähnliches zur Verfügung stellt.
Das einzige Problem hier ist lediglich die Definition, was "in Hardware implementiert" überhaupt bedeutet. Wir sagen auch, dass etwas "in Hardware" gerendert wird, dabei arbeitet die GPU auch nur immer und immer wieder die gleiche Software ab und wird ansonsten von der CPU gesteuert.

Xmas
2005-03-15, 21:59:39
Ich halte die Ansprüche an "KI" für übermäßig hoch. Die KI die wir brauchen, um das Verhalten von Computer-Gegnern zu berechnen, lässt sich ganz gut als Zustandsautomat beschreiben. Was soll noch "besser" werden? Dass man weniger gescriptete Aktionen als solche erkennt.

[...]

Wenn man gegen Menschen spielen will, ist das im Online-Zeitalter ja möglich.
Es geht aber nicht nur um das Verhalten irgendwelcher "Gegner", also Ausweichen, Schießen, etc., sondern auch um intelligente "normale" Interaktion. Mit/gegen Menschen spielen reicht leider nicht aus, denn (zumindest in den Spielen die ich häufiger Spiele) gibt es jede Menge Rollen die einfach kein Mensch spielen will.

PHuV
2005-03-16, 11:25:28
Was bei der ganzen Diskussion vergessen wird:

Ein KI-Chip kann durchaus in HW gegossen werden, wenn man in HW eine Art Framework einbaut, spricht Vorraussetzungen für KI schafft. Man kann eine Art Intelligenz nicht in einen Chip giessen, korrekt, aber wer sagt den, das dies auch erforderlich ist? Die KI wird zur Laufzeit ermöglicht, aber der spezialisierte Chip bietet die Grundlagen und Vorraussetzungen an.

RoKo
2005-03-16, 16:39:16
Es gibt schon KI-Chips - in IBMs alten Schachcomputern.
Die Frage ist hier, wie auch beim Physik-Chip: Welche mathematischen Operationen könnte man in Hardware implementieren, um bestimmte KI-Berechnungen oder bestimmte Physik-Berechnungen zu beschleunigen. Und das ganze dann als zusätzliche Befehle in die CPU oder die GPU zu packen (je nachdem, ob es in einem normalen oder einem Streamprozessor mehr Sinn macht), wäre wahrscheinlich auch besser als ein zusätzlicher Chip.

Monger
2005-03-16, 19:14:23
Meiner Meinung nach sind alle Definitionen von KI bis jetzt schwammig. Oder besser gesagt: Ich bin nicht sicher ob "KI" überhaupt sinnvoll oder wünschenswert ist.


Ich fand den Ansatz des "Künstlichen Lebens" interessant. Keine Ahnung ob der Begriff auf einer Uni akzeptiert werden würde, aber ich finde die Idee klever, dass das zentrale Problem das "Warum" und nicht das "Wie" ist. Wenn man dem Computer den Spaß am abwechslungsreichen Spielen beibringen kann, und eigene Fehler unangenehm in Erinnerung zu behalten, ist man imho der Intelligenz wesentlich näher als mit irgendwelchen hochkomplexen Berechnungen.

Die Bots aus UT2004 funktionieren ja auf dieser Gefühlsebene(Bedürfnis Gegner zu töten, Munition zu sammeln, sich zu heilen...), und ich finde das Ergebnis ziemlich überzeugend. Allerdings fressen bereits einige wenige Bots massiv Ressourcen, und das würde bei Strategiespielen garantiert nicht besser werden...