PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : KI über GPGPU angeblich nächstes Jahr ;)


Cpl. Dwayne Hicks
2009-01-23, 03:49:23
http://www.custompc.co.uk/news/605389/nvidia-and-amd-to-accelerate-gaming-ai-on-gpus/page2.html

Bin mal gepannt was draus wird und wer sich durchsetzt... selbst die Top PC Spiele heutzutage haben ja immernoch ein miserables KI Verhalten... siehe Crysis.
Wäre ja schön wenn man die KI Berechnungen nicht nur beschleunigen und vor allem auch verbessern könnte.

derguru
2009-01-23, 03:53:17
was bleibt eigentlich noch für die cpu übrig,die wird ja bald arbeitslos,
an und ausmachen nimm ich an:D

Coda
2009-01-23, 04:23:10
Bin mal gepannt was draus wird und wer sich durchsetzt... selbst die Top PC Spiele heutzutage haben ja immernoch ein miserables KI Verhalten... siehe Crysis.
Was genau ist daran so "miserabel"?

Wäre ja schön wenn man die KI Berechnungen nicht nur beschleunigen und vor allem auch verbessern könnte.
Es ist gar nicht die Rechenleistung was heute das Problem ist.

AI ist ein weites Feld. Was auf der GPU wohl primär gemacht wird dann ist Schwarmdynamik, Pathfinding und ähnliche Dinge. Ich glaube kaum, dass deshalb irgend etwas "intelligenter" wird.

Jake Dunn
2009-01-23, 04:24:51
Was genau ist daran so "miserabel"?




Würde mich auch interessieren :|

N0Thing
2009-01-23, 12:15:53
Vielleicht in dem Sinne, daß sich fast alle NPCs nicht realistisch verhalten. Aber das dürfte weniger an fehlender Rechenleistung liegen, als an einem Kompromiss zwischen Realismus (sucht Deckung, benutzt keinen Raketenwerfer im Nahkampf) und Spielbarkeit (macht Fehler, darf nicht zu schlau sein). Zudem ist es eine Zeit- und damit auch eine Geldfrage.

Gast
2009-01-23, 12:38:03
http://www.custompc.co.uk/news/605389/nvidia-and-amd-to-accelerate-gaming-ai-on-gpus/page2.html

Bin mal gepannt was draus wird und wer sich durchsetzt... selbst die Top PC Spiele heutzutage haben ja immernoch ein miserables KI Verhalten... siehe Crysis.
Wäre ja schön wenn man die KI Berechnungen nicht nur beschleunigen und vor allem auch verbessern könnte.

Soso, dann schreib doch einfach mal selbst ne KI !
Wahrscheinlich hast du nichtmal ansatzweise irgendnen Plan davon, wie aufwändig es ist, eine KI in eine "Welt" zu integrieren aber hauptsache mal das Maul aufreißen und Magazinen wie Gamestar etc. nachplappern...

Mark
2009-01-23, 12:46:02
Interessant,aber solange der typische Kunde nichts davon mitbekommt wird es sich nicht durchsetzen.Schon bei PhysX muss man den Leuten erst mit einem Beispielvideo zeigen welche Effekte man ohne PhysX nicht hat. Und selbst dann sind viele dieserEffekte auch auf die Grafik bezogen. Ein physikalisch korrekter Flug einer Granate wird wohl niemanden beeindrucken. Bei Grafik sieht man den Unterschied zwischen gut und schlecht sofort. "Mensch schaut die Grafik geil aus" ist ein wichtiges Verkaufsargument,aber kaum ein Mediamarkt-Kunde wird sagen: "Mensch ist diese KI intelligent"

Grey
2009-01-23, 12:49:45
Interessant,aber solange der typische Kunde nichts davon mitbekommt wird es sich nicht durchsetzen.Schon bei PhysX muss man den Leuten erst mit einem Beispielvideo zeigen welche Effekte man ohne PhysX nicht hat. Und selbst dann sind viele dieserEffekte auch auf die Grafik bezogen. Ein physikalisch korrekter Flug einer Granate wird wohl niemanden beeindrucken. Bei Grafik sieht man den Unterschied zwischen gut und schlecht sofort. "Mensch schaut die Grafik geil aus" ist ein wichtiges Verkaufsargument,aber kaum ein Mediamarkt-Kunde wird sagen: "Mensch ist diese KI intelligent"

Kommt rein auf das Marketing an. Ist alles möglich...

deekey777
2009-01-23, 12:51:07
So, so, KI als GPGPU-Anwendung. Kommt bekannt vor, http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422987 (die Tech-Demo lässt sich in der Version 1.1 auch zB unter Win7 installieren).
Und schon nächstes Jahr? Das dauert.

Wo soll das verwendet werden? Relativ "dumme" KI, aber in sehr großer Menge (siehe Froblins-Demo)? Ich glaube nicht, dass KI@GPGPU in so einem Spiel wie Crysis Sinn machen würde, da die ganzen Interaktionen der NPCs/mit den NPCs immer im Sichtfeld des Spielers ablaufen und diese sind (vermutlich) deutlich komplizierter als die der Froblins.

Mordred
2009-01-23, 15:42:08
Sowas wurde doch schonmal vorgestellt vor einieger Zeit (da sollte es ein eigener Beschleuniger sein wie der PhysX anfangs). Wird einen Grund haben warum man davon dann doch nichts gesehen hat.

Damals wurde in einer recht simplen Simulation primär gezeigt wie schnell sich irgendwelche Ereignisse unter den einzelnen "individuen" verbreitet haben (glaube war ein Angriff oder ein Überfall oder sowas). Ging der Demo nach wirklich gewaltig schneller als mit einer CPU aber war halt auch ein Marketing Video wieviel da jetzt dran war keine Ahnung.

Hab es grade mal ergoogelt http://www.aiseek.com/ war der Haufen. 2006 wurde das angekündigt.

Avalox/Gast
2009-01-26, 11:30:17
Ist denn, indem was dort in Spielen zu finden ist überhaupt ein Ansatzpunkt der schwachen K.I. zu erkennen?

Lässt sich die Spielereaktion als rationelle Intelligenz dort begreifen?
Wenn ja wo lässt sich solch eine Shooter K.I. einordnen? Ist es sowas wie ein Expertensystem, indem der Spieler mittels GamePad navigiert? Finden sich heuristische oder approximations Methoden, oder andere klassische Ansätze wieder?

Das Ziel der Spiel K.I. ist dort klar. Sie soll den Computer generierten Gegner so vor das Fadenkreuz des Spielers führen, dass es eine Herausforderung darstellt, aber keinesfalls den Spieler frustriert.

HOT
2009-01-26, 12:02:30
Wieso sollte das grossartig dauern? Eine DX11 umsetzung läuft dann eben über die GPU und ältere Hardware muss halt mit der CPU auskommen. Es wird natürlich noch Jahre dauern, den CPU-Fallback herauszubekommen, aber das ist ein anderes Thema. DX11 bringt doch alles mit.
PhysX&CUDA ist was vollkommen anderes. Das steht nicht jedem sofort zur Verfügung, da es Hardwaregebunden ist. DX11 bekommt jeder, der mindestens Vista hat und GP wohl jeder, der na DX10 GPU hat. Und 2009 wird XP endgültig veralten (ENDLICH).