PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ageias PhysX - Physik-Prozessor


Seiten : [1] 2 3 4

Nightspider
2006-02-10, 15:31:52
...sollte nach der Verschiebung letzten Jahres diesen Februar erscheinen. Da Spiele mit PhysX-Unterstützung noch nicht da waren.

Und wo bleibt er nun, der Wunderprozessor ?
Bet on Soldier hat soweit ich weiß ja schon die Novodex Engine und unterstützt somit den Physikprozessor. Ebenso 3Dmark2006.

In wenigen Wochen/Monaten werden die ersten Unreal3-Engine-Spiele mit dieser Unterstützung kommen, sowie Gothik 3.

Also wo bleibt der PhysX ? Gibt es Neuigkeiten ?

Was meint ihr, hat Agaia die letzten 6 Monate noch verbessert ?

Vielleicht doch 90nm Herstellung und Asus vllt. mit passiven Karten ?

Sind noch weitere neue Spiele bekannt, welche den PhysX unterstützen ?

Ich habe mal gelesen, dass auch andere Physik Engines gepatcht werden können, wie in AoE3 um einen kleinen Teil der PhysX zu nutzen.

Es kann doch nicht sein, dass es ein halbes Jahr ruhig ist, in dieser Szene.
Schließlich ""weiß"" man jetzt schon genug über GPUs, welche erst in 6-10 Monaten erscheinen.

Spasstiger
2006-02-10, 16:26:11
Ich denke mal, dass die wirklich noch einen marktstrategisch günstigeren Zeitpunkt zum Release wählen. Die Karte im Bundle mit Gears of War wäre z.B. denkbar.

Gast
2006-02-10, 16:39:14
Das rot umkreiste war am Anfang noch nicht da. Soll heissen: Abwarten wie gut ein zweiter Kern die PhysX ausführen kann. Wenn es ausreichend ist könnte es sein, dass dedizierte Prozessoren überhaupt nicht mehr auf den Markt kommen.

http://img486.imageshack.us/img486/8962/ageia5zz.th.jpg (http://img486.imageshack.us/my.php?image=ageia5zz.jpg)

Avalox
2006-02-10, 17:22:11
Wo kommt denn die Folie her?

Warum ist denn der umkreiste Kasten hervor gehoben und wo liegt denn der funktionale Unterschied zu den Kasten PowerPC und Cell? Es sieht doch eher danach aus, dass man sich durchgerungen hat eine Software Emulations nun auch für den PC anzubieten.

Wenn man sich die Demo mit dem 6 zu 30 FPS Unterschied ansieht, dann bezweifele ich aber, dass nur ein zweiter CPU Kern den dedizierten Chip ersetzen kann.

Gast
2006-02-10, 17:35:45
Wo kommt denn die Folie her?

Warum ist denn der umkreiste Kasten hervor gehoben und wo liegt denn der funktionale Unterschied zu den Kasten PowerPC und Cell? Es sieht doch eher danach aus, dass man sich durchgerungen hat eine Software Emulations nun auch für den PC anzubieten.

Wenn man sich die Demo mit dem 6 zu 30 FPS Unterschied ansieht, dann bezweifele ich aber, dass nur ein zweiter CPU Kern den dedizierten Chip ersetzen kann.

Folie: http://www.ageia.com/products/physx.html

Eigentlich gibt es keinen Unterschied zwischen PowerPC, Cell und AMD/Intel. Warum die da jetzt "Software" schreiben weiss ich auch nicht. Es geht einfach nur darum auf welchen Plattformen die Engine ausgeführt werden kann. Der PhysX-Prozessor ist jedoch der Einzige der dediziert ist.
Ob die Leistung nun reicht oder nicht kann man jetzt noch nicht sagen, da der Implementierungsgrad noch nicht bekannt ist. Wenn man natürlich eine Demo auf dem zweiten Kern ablaufen lässt, die den PhysX-Prozessor schon voll ausreizt verwundert einen auch nicht der 6-30FPS Unterschied.

Rhönpaulus
2006-02-10, 17:39:22
erst muß die nachfrage generiert werden,danach kommt das passende (teure) produkt.
andersrum würde man sich den markt,falls tatsächlich einer entstehen sollte,im vorraus kaputt machen.

Gmax
2006-02-10, 17:52:53
Wenns mit einem dual/quad core genauso so gut gehen sollte, sehe ich nicht ein, nochmal 200 Euro für die Karte hinzublättern. Aber wie gesagt, nur meine Meinung...

tokugawa
2006-02-10, 18:28:18
Warum die da jetzt "Software" schreiben weiss ich auch nicht.


Die Software gab's schon bevor der Prozessor fertig wurde. Und die gibt's halt nur auf x86 Plattformen.

Die ist übrigens multithreaded, d.h. die NovodeX bzw. PhysX Physikengine (die Software-basierte) kann schon komplett in einem zweiten Kern laufen.


Das wär natürlich super (für die User), wenn die Physikengine auf dem zweiten Kern genauso schnell laufen würde.

Denn: erstens unterstützt der PhysX Prozessor nicht alle geometrischen Primitive die die Software-Engine kann.

Zweitens wär's natürlich billiger für die User.

Und für Ageia hat das zumindest (trotz dass der Prozessor dann Vaporware wäre) trotzdem Vorteile:
- sie sind dadurch jetzt zumindest bekannt
- ihre Software-Engine ist auch fein (die Dokumentation braucht etwas Verbesserung, aber deren Solver ist exzellent und steht z.B. Havoc nicht wirklich nach - obwohl Havoc besser dokumentiert ist)

tombman
2006-02-10, 18:35:10
Der Chip + Karte ist schon lange fertig, die warten nur bis es games gibt und den idealen Markteintritt...

Gaßt
2006-02-12, 12:47:21
unterstützt crysis auch physX? wurde nur gesagt das prozessoren mit vier kernen unterstützt werden , wenn nicht wird die entscheidung für mich schwer fallen dualcore oder singelcore+ppu

Nightspider
2006-02-12, 18:25:53
Das ist eine sher gute Frage, über die ich auch schon nachgedacht habe.

Wenn wirklich jedes Blatt und jeder Grashalm physikalisch korrekt bewegt werden kann, wäre das doch schon für einen 2.Core, zuviel, ganz abzusehen von den Singlecore CPUs oder ?
Ich lasse mich überraschen, wie CryTek es machen will, dass die Pyhsik spielerischen Einfluss nimmt unt trotzdem noch Spieler mit älteren PCs die gleiche Chance bekommen sollen.
Das wird interessant.

So nach dem Motto: "Für den Multiplayer wird zwingend eine Quadcore CPU vorrausgesetzt, und wird 2007 mit einem Patch zeitgleich mit den CPUs erscheinen " ;D

hans_wurst
2006-02-12, 19:30:35
Das wird doch voll der flopp. Die bald kommenden 4CoreCPU's können das doch genau so gut. Wofür also noch ne extra Karte in den PC hauen :uhammer:

RLZ
2006-02-12, 19:49:55
Das wird doch voll der flopp. Die bald kommenden 4CoreCPU's können das doch genau so gut. Wofür also noch ne extra Karte in den PC hauen :uhammer:
1. nein das werden sie nicht können
2. ist es etwas unfair eine PPU von 2005 mit einer CPU von 2007 zu vergleichen. :rolleyes:

Ich würde mal abwarten, ob Ageia nicht noch etwas am Chip geändert hat. Vielleicht könnten sie ja sogar noch einen Shrink nutzen.

tokugawa
2006-02-12, 20:38:43
1. nein das werden sie nicht können
2. ist es etwas unfair eine PPU von 2005 mit einer CPU von 2007 zu vergleichen. :rolleyes:

Ich würde mal abwarten, ob Ageia nicht noch etwas am Chip geändert hat. Vielleicht könnten sie ja sogar noch einen Shrink nutzen.

Ich muß hier zu bedenken geben dass ein zweiter Core mit der Software-PhysX-Engine auch mehr könnte als die PPU.

Die PPU unterstützt gar nicht alle Primitive die die Engine unterstützt.

Ich zitiere aus dem PhysX SDK:


In this release the PhysX PPU supports a subset of the functionality supported by the software SDK. Exact details of which API calls are supported by the PPU are provided in the API references. But as a broad overview:-


Supported by the PPU
Simple rigid body actors
Convex, box, sphere and capsule dynamic shapes
Convex, box, sphere, capsule and non-convex triangle meshs static shapes
Forces and impulses applied to dynamic shapes
Fluids (no surface mesh)



Not supported by the PPU
Compound shapes (multiple shapes attached to an actor)
Joints
Most body flags, actor flags and shape flags.
Continuous collision detection
Contact streams
sub stepping
Only one way interaction between fluids and rigid bodies(ie fluids do not excert a force on rigid bodies)


In addition, using large meshes with the PPU requires the application to perform mesh paging operations.

Neon3D
2006-02-13, 04:45:52
software ersetzt hardware.

so würde ich es zumindest machen.

Monger
2006-02-13, 09:21:17
Wie sieht es auf dem Grafikkartenmarkt aus?

ATI hat ja bereits gezeigt, dass man Physikberechnungen auch über Shader realisieren kann. Und ich vermute mal, das könnte nVidia auch.

Die beiden sehe ich als wesentlich bedrohlichere Konkurrenz zu Ageia als irgendwelche superteuren Quad-CPUs.

Avalox
2006-02-13, 10:14:04
Die beiden sehe ich als wesentlich bedrohlichere Konkurrenz zu Ageia als irgendwelche superteuren Quad-CPUs.

Ich denke auch, denn solche Zusatzleistungen sind willkommene Ergänzungen im Portfolio dieser Hersteller. Fehlen doch tatsächliche Abgrenzungen der Produktlinien beider Hersteller zueinander.

Windi
2006-02-13, 11:53:18
Das größte Problem, was ich mal wieder seh sind die Spiele. Die große Masse an Rechnern wird 06/07 nur nen billigen Singelcore haben und darauf werden die Hersteller achten. Jedes Spiel, in diesem und dem nächstem Jahr, muss noch auf einem Singelcore einigermaßen gescheit laufen. Das bedeutet aber auch, das der Physikteil nicht astronomisch groß sein kann und eine Auslagerung auf dem 2.Core schon fast den maximal möglichen Leistungssprung darstellen würde. Eine PhysX-Karte würde in diesem Fall nichts mehr bringen.
Wenn man sich allerdings darauf beschränken würde, mit der ppu nur optische Dinge besser zu berechnen gäbe es wieder Probleme (Also Pflanzen und Kleidung). Bei jedem Grashalm den man einzelnt berechnet und jeder zusätzlichen Falte eines Kleides müßte die Grafikkarte mehr arbeiten. Wenn diese Effekte wirklich von Spielern bemerkt werden sollen, dann bräuchte man eine solch große Masse an Effekten, die die Grafikkarte ganz schön einknicken lassen würden (ein einzelner bewegter Grashalm bringt nicht viel).

RLZ
2006-02-13, 14:20:58
Ich muß hier zu bedenken geben dass ein zweiter Core mit der Software-PhysX-Engine auch mehr könnte als die PPU.
Aber nur von den Features her.
Dafür wird auch ein Quadcore nicht in die Leistungsbereiche eines dedizierten Physikprozessors kommen.
Mit der Begründung "Die CPU kann ja viel mehr" hätten wir auch nie solche Grafikkarten bekommen.

Monger
2006-02-13, 16:01:40
Aber nur von den Features her.
Dafür wird auch ein Quadcore nicht in die Leistungsbereiche eines dedizierten Physikprozessors kommen.
Mit der Begründung "Die CPU kann ja viel mehr" hätten wir auch nie solche Grafikkarten bekommen.

Aber die Grafikkarte könnte es.

Wie auch Avalox gesagt hat: für ATI und nVidia wäre das eine sinnvolle Erweiterung ihres Portfolios. Aktuelle Grafikkarten sind flexibel genug, um beliebige Physikberechnungen durchführen zu können und spezialisiert genug, um dafür auch richtig schnell zu sein.

Der Trend geht nunmal zu leistungsstarken Shadern hin, und Physikberechnungen stellen erstaunlich ähnliche Ansprüche an die Hardware wie Shader. (Matrizenberechnung, Schwerpunkt auf Addition und Multiplikation...)

Im Grunde ist es so offensichtlich, dass ich mich frage warum da noch vorher keiner drauf gekommen ist.
Und wenn die Gerüchte stimmen, dass MS eine Schnittstelle für Physikberechnungen in DirectX einfließen lassen möchte, wird Ageia sich auch schwer tun, einen eigenen Standard zu etablieren.


Ich kann mir beim besten Willen nicht vorstellen, wie Ageia unter solchen Umständen sich im Massenmarkt etablieren will. Wenn sie auch nur den Hauch einer Chance haben wollen, müssen sie ihren Marktantritt SEHR sorfältig auswählen!

RLZ
2006-02-13, 16:17:51
Aber die Grafikkarte könnte es.
Das Thema hatten wir hier im Forum schon einmal. Damals hat mir keiner Vergleichszahlen zur Performance nennen können. Solange das niemand kann, kann man vielleicht drüber dikutieren wo eine Grafikkarte theoretisch Vorteile hätte, aber absolute Aussagen halte ich ohne Quellen als Beleg für gewagt.
Im Grunde ist es so offensichtlich, dass ich mich frage warum da noch vorher keiner drauf gekommen ist.
Und wenn die Gerüchte stimmen, dass MS eine Schnittstelle für Physikberechnungen in DirectX einfließen lassen möchte, wird Ageia sich auch schwer tun, einen eigenen Standard zu etablieren.
Es gab dafür öffentliche Stellenausschreibungen. Wird also wohl etwas dran sein. ;)
Die Schnittstelle hat aber relativ wenig mit der Hardware zu tun. Multiplattformtitel werden zudem noch einige Zeit auf externen Physikengines setzen.

ilPatrino
2006-02-13, 16:31:54
Aber die Grafikkarte könnte es.

also bräuchtest du zusätzlich zu der (oder den) graka(s), die du schon zur grafikausgabe brauchst, noch ne weitere, die für die physik zuständig ist :|

[glaskugel aus dem schrank hol]
spiele, die die physikberechnungen ausnutzen, werden gleichzeitig optisch erste klasse sein (die meisten zumindest) und jeden takt der graka brauchen.
[/glasku...err]
lottozahlen ankuck
[/glaskugel wegpack]

tokugawa
2006-02-13, 17:05:03
Der Trend geht nunmal zu leistungsstarken Shadern hin, und Physikberechnungen stellen erstaunlich ähnliche Ansprüche an die Hardware wie Shader. (Matrizenberechnung, Schwerpunkt auf Addition und Multiplikation...)


Nicht ganz. Der Kern jeder Physikengine ist der Linear Solver (für "gewöhnliche Differentialgleichungen" oder auch genannt "ordinary differential equations") - die Qualität und numerische Genauigkeit dessen bestimmt im Prinzip alles in einer Physikengine. Das ist doch eine Komplexitätsstufe höher als einfache Matrizenalgebra.


Ich kann mir beim besten Willen nicht vorstellen, wie Ageia unter solchen Umständen sich im Massenmarkt etablieren will. Wenn sie auch nur den Hauch einer Chance haben wollen, müssen sie ihren Marktantritt SEHR sorfältig auswählen!

Ageia macht's schon gut - sie haben ja auch eine Physik-Engine im Angebot, die von der Qualität her ziemlich gut ist (ich benutze sie selbst). D.h. sollte die PPU nichts werden haben die trotzdem eine Physik-Engine im Portfolio - die ja anscheinend auch von Entwicklern benutzt wird.

Aber nur von den Features her.
Dafür wird auch ein Quadcore nicht in die Leistungsbereiche eines dedizierten Physikprozessors kommen.
Mit der Begründung "Die CPU kann ja viel mehr" hätten wir auch nie solche Grafikkarten bekommen.

Das halte ich für Spekulation. Mit Grafikkarten ist das nur bedingt vergleichbar.

Bei Grafikkarten hat die Hardwarebeschleunigung auch erst dann einen Boost erhalten, weil die Qualität besser war und features wie bilineares Filtering computational möglich wurden.

Wenn eine PPU keine bessere Qualität liefern kann, wird sie es meiner Ansicht nach schwer haben. Vor allem wenn sie nicht mal "Joints" unterstützt (die anderen nicht unterstützten Features halte ich für nicht gar so wichtig, Joints aber schon).

Nightspider
2006-02-13, 17:41:56
Es wird zwar möglich sein, mit QuadCore-CPUs schöne Effekte und Physik darzustellen. Aber ich denke, dass diese ihre Leistung trotzdem mehr für
andere Dinge benötigen werden. Zum Beispiel die KI, realistischerer Sourround Sound, mehr Details, dynamischere Umgebung.
Die Grafikkarten könnten sicherlich auch einen Teil der Physik übernehmen.
Allerdings wird wohl kaum jemand seine Grafik herunterstellen wollen, damit die Grafikkarte noch Physik berechnen kann.
Ihr seht doch, wie schnell Grafikkarten veralten.
-Kaum jemand hat High End Grafikkarten. Die meisten Leute besitzen 100-200 Euro teure Grafikkarten, die schon von aktueller Grafik ausgereitzt werden.

Nur eine ordentliche Physikengine mit einem Physikprozessor, der ausnahmslos für Physikberechnungen zuständig ist, kann da abhilfe schaffen.

Schaut euch doch mal das Video von Bournout Revenge an !
Das spiel nutzt die 3 Kerne der Xbox360 !
Und was kommt raus ? Ein paar schöne Effekte, die zum Teil schon vorgegeben sind und Explosionen bei denen optische Partikel herumfliegen
und danach verschwinden bzw. sich in Luft auflösen ABER KEINE ordentlichen Physikberechnungen/-effekte.
Sicherlich kann man aus der Konsole noch einiges mehr rausholen.
Aber die CPUs sind einfach nicht für komplexe Physik ausgelegt.

Sowas können CPUs in absehbarer Zeit einfach nicht berechnen.

Ihr seht ja den Siegeszug der Grafikkarte nach den CPUs vor 8 Jahren (oder wann das war)

Meiner Meinung nach wird man nicht um einen Physikprozessor herumkommen.

Denn wer will schon sein Spiel auf 800*600 spielen, weil die Grafikkarte die Physik übernimmt !? - Keiner.

Das Video zu Bournout gibts bei http://www.fileplanet.com/160520/160000/fileinfo/Burnout-Revenge-360-Trailer
http://www.sro.at/bildupload/images/bsp1.JPG
Sehr sehr schöne Effekte.
http://www.sro.at/bildupload/images/bsp2.JPG
http://www.sro.at/bildupload/images/bsp3.JPG

Gast
2006-02-13, 18:52:59
hmm ist dieses Ding auch für den PCI-E 1X Slot geplant oder nur PCI ?

MFG

tokugawa
2006-02-13, 19:20:46
Es wird zwar möglich sein, mit QuadCore-CPUs schöne Effekte und Physik darzustellen. Aber ich denke, dass diese ihre Leistung trotzdem mehr für
andere Dinge benötigen werden. Zum Beispiel die KI, realistischerer Sourround Sound, mehr Details, dynamischere Umgebung.
Die Grafikkarten könnten sicherlich auch einen Teil der Physik übernehmen.
Allerdings wird wohl kaum jemand seine Grafik herunterstellen wollen, damit die Grafikkarte noch Physik berechnen kann.
Ihr seht doch, wie schnell Grafikkarten veralten.
-Kaum jemand hat High End Grafikkarten. Die meisten Leute besitzen 100-200 Euro teure Grafikkarten, die schon von aktueller Grafik ausgereitzt werden.

Nur eine ordentliche Physikengine mit einem Physikprozessor, der ausnahmslos für Physikberechnungen zuständig ist, kann da abhilfe schaffen.

Schaut euch doch mal das Video von Bournout Revenge an !
Das spiel nutzt die 3 Kerne der Xbox360 !
Und was kommt raus ? Ein paar schöne Effekte, die zum Teil schon vorgegeben sind und Explosionen bei denen optische Partikel herumfliegen
und danach verschwinden bzw. sich in Luft auflösen ABER KEINE ordentlichen Physikberechnungen/-effekte.
Sicherlich kann man aus der Konsole noch einiges mehr rausholen.
Aber die CPUs sind einfach nicht für komplexe Physik ausgelegt.

Sowas können CPUs in absehbarer Zeit einfach nicht berechnen.

Ihr seht ja den Siegeszug der Grafikkarte nach den CPUs vor 8 Jahren (oder wann das war)

Meiner Meinung nach wird man nicht um einen Physikprozessor herumkommen.

Denn wer will schon sein Spiel auf 800*600 spielen, weil die Grafikkarte die Physik übernimmt !? - Keiner.



Und ich wiederhole nochmals - solange die PPU nicht alle wichtigen Primitive unterstützt, ist diese PPU nur Quantität und keine Qualität. Man kann zwar mehr "Festkörper" rumfliegen lassen, aber von "überzeugend" würde ich erst sprechen wenn Primitive wie Fluids, Joints, usw. auch auf der PPU laufen.

Ich bin sowieso für Qualität vor Quantität. Eine überzeugende Physik mit komplexen, aber weniger Objekten ist mir lieber als tausende Objekte aber jedes ist ein einfacher konvexer Festkörper.

Deswegen müssen sie entweder die PPU verbessern (wodurch sie unerschwinglich teuer wird), oder man muß auf wirklich komplexe Physik verzichten.

Im Übrigen sollte es meiner Ansicht nach allerdings (theoretisch) möglich sein, Software- und Hardware-berechnete Physik zu kombinieren (PPU für die Massenphysik, und CPU für die hochwertigeren komplexen Objekte). Die Frage ist wie die Anbindung an die PPU gelöst ist (wenn die mit einem Query/Polling-Mechanismus gelöst ist, kann es ähnlich wie bei Hardware Occlusion Queries wohl zu Stalls kommen).

Nightspider
2006-02-13, 22:33:22
Ja ist klar, aber da ist man doch mit der PhysX auf dem richtigen weg.
Vllt werden dann mit der 2. Generation diese Primitive unterstützt.
Außerdem wird das erstmal reichen. Die ist für den Anfang genug.
Die Spiele werden die Karte erstmal eine ganze Weile nicht ausreizen können.

Von daher bin ich trotzdem der Meinung, dass man auf dem richtigen weg ist.
Selbst wenn diese jetzt noch kein Wasser beim Baden 100% physikalisch korrekt darstellen kann. :)

Juice
2006-02-14, 00:00:24
Was mich interessieren würde:

Die PPU würde ja die Physikberechnungen übernehmen, aber welches Hardwareteil ist denn nun für die grafische Darstellung dieser verantwortlich, nimmt die PPU nun der Grafikkarte das Rendering dieser Effekte ab? Soweit ich das sehe ist ja immernoch die Grafikkarte hauptverantwortlich für die Geschwindigkeit, mit der die Bilder über den Bildschirm flimmern. Es ist für mich kaum vorstellbar, wieso die PPU nun so einen großen Einfluss darauf haben sollte...und je mehr Physikspielereien die PPU berechnet, umso mehr wird auch die GPU rendern müssen, oder sehe ich das falsch?

tokugawa
2006-02-14, 03:29:22
Was mich interessieren würde:

Die PPU würde ja die Physikberechnungen übernehmen, aber welches Hardwareteil ist denn nun für die grafische Darstellung dieser verantwortlich, nimmt die PPU nun der Grafikkarte das Rendering dieser Effekte ab? Soweit ich das sehe ist ja immernoch die Grafikkarte hauptverantwortlich für die Geschwindigkeit, mit der die Bilder über den Bildschirm flimmern. Es ist für mich kaum vorstellbar, wieso die PPU nun so einen großen Einfluss darauf haben sollte...und je mehr Physikspielereien die PPU berechnet, umso mehr wird auch die GPU rendern müssen, oder sehe ich das falsch?

Nein, das Rendering übernimmt die Grafikkarte.

Die PhysX Physik-Engine (vormals NovodeX, ein Name der mir eigentlich besser gefällt) nimmt zwar auch "Triangle Soups" auf (wie eigentlich jede bessere Physikengine), und es gibt einen Mechanismus (Callback-Klasse), womit man die Sachen die die Physik-Engine sieht auch rendern kann, allerdings sieht die Physikengine die "Welt" nicht in derselben Weise (normalerweise) wie die Render-Engine:
- erstens werden States (Texturen/Materials) anders sortiert, das ist der Physik-Engine prinzipiell wurscht (außer eventuelle "Oberflächenparameter" wie Reibung usw.)
- zweitens kriegt die Physik-Engine normalerweise eine niedrigere Detailstufe (oder einfach andere Detailstufe) als die Grafik - es ist normalerweise nicht wünschenswert, dieselben Details in der Physik zu berechnen wie sie graphisch auftauchen, das ist aber hauptsächlich eine Frage des "Game-Feel". Man will ja nicht hängenbleiben an kleinen Erhebungen an einer Wand, normalerweise sollte eine Wand sich schon "glatt" anfühlen aus der Sicht der Physik (nicht aus der Graphik).



In meiner Engine hab ich's mit der Software-PhysX-Engine so gelöst, dass ich die "Berechnungen" (also Endposition und Endrotation jedes "Actors") am Ende der Berechnung (die ich periodisch weitercycle) den "Game-Objekten" wieder zurückzuweise, damit sie sich dann in neuer Position/Rotation rendern. Das ist denk ich mal Standardprozedur.

Monger
2006-02-14, 09:20:02
...
Die Grafikkarten könnten sicherlich auch einen Teil der Physik übernehmen.
Allerdings wird wohl kaum jemand seine Grafik herunterstellen wollen, damit die Grafikkarte noch Physik berechnen kann.
Ihr seht doch, wie schnell Grafikkarten veralten.
-Kaum jemand hat High End Grafikkarten. Die meisten Leute besitzen 100-200 Euro teure Grafikkarten, die schon von aktueller Grafik ausgereitzt werden.
...

Noch so ein Problem: wer gibt 150 Euro für eine Physikkarte aus, wenn er schon kein Geld für die Grafikkarte hat?
Selbst für Soundkarten wird wenig Geld ausgegeben, obwohl deren Vorteil völlig offensichtlich ist. Schicken 5.1 Sound hat inzwischen fast jedes Spiel, komplexe Physikspielereien werden auch in Zukunft nur wenige Spiele haben, weil es sich einfach nicht für jedes Genre anbietet. Für den gesamten Multiplayerbereich ist die Physik ja beinahe irrelevant, weil man sowieso aufgrund der schmalen Bandbreite (fast) nur clientseitig Effekte machen kann.

tokugawa
2006-02-14, 15:31:54
Noch so ein Problem: wer gibt 150 Euro für eine Physikkarte aus, wenn er schon kein Geld für die Grafikkarte hat?
Selbst für Soundkarten wird wenig Geld ausgegeben, obwohl deren Vorteil völlig offensichtlich ist. Schicken 5.1 Sound hat inzwischen fast jedes Spiel, komplexe Physikspielereien werden auch in Zukunft nur wenige Spiele haben, weil es sich einfach nicht für jedes Genre anbietet. Für den gesamten Multiplayerbereich ist die Physik ja beinahe irrelevant, weil man sowieso aufgrund der schmalen Bandbreite (fast) nur clientseitig Effekte machen kann.


Was ich befürchte ist dasselbe wie mit bisher fast jedem Grafik-Effekt, der gehypt wurde... es wird zum Exzess eingesetzt, egal wie unpassend, egal wie übertrieben (ich denk hier z.B. an die speckig-glänzenden Oberflächen beim Normalmapping). Sowas geht mir auch ziemlich auf die Nerven, weil ein Grafik-Effekt eigentlich der Ästhetik dienen sollte, aber bei übertriebener Darstellung genau dieser Punkt verletzt wird. So ähnlich wird es, befürchte ich, auch mit der Physik werden.

Gast
2006-02-16, 13:54:48
Noch so ein Problem: wer gibt 150 Euro für eine Physikkarte aus, wenn er schon kein Geld für die Grafikkarte hat?
Selbst für Soundkarten wird wenig Geld ausgegeben, obwohl deren Vorteil völlig offensichtlich ist. Schicken 5.1 Sound hat inzwischen fast jedes Spiel, komplexe Physikspielereien werden auch in Zukunft nur wenige Spiele haben, weil es sich einfach nicht für jedes Genre anbietet. Für den gesamten Multiplayerbereich ist die Physik ja beinahe irrelevant, weil man sowieso aufgrund der schmalen Bandbreite (fast) nur clientseitig Effekte machen kann.

Verstehe dein Argument nicht ganz, egal ob nun neue Grafikeffekte oder Physikeffekte, dass ganze wird sowieso nur clientmässig ablaufen. Neben Positionsdaten, irgendwelchen Waffenwerte, Schadensdaten und Text wird doch eh nichts grossartig übertragen.
Den ganzen restlichen Krempel mit Detailstufen, Effekte und so weiter wird man weiterhin nur am Client einstellen können und dementsprechend auch Physikzeug. Solange die Physik nicht einen wirklichen Einfluss auf das Spiel hat, welcher schon von Anfang an bei der Planung festgelegt werden muss, wird sich mit einer PPU nur was auf der Clientseite was ändern, sonst nichts. Sicher, es kommen vielleicht noch einige Physikdaten bei der Übertragung hinzu damit der Client weiss was er machen soll aber soviel kann das gar nicht zusätzlich sein das da nur noch DSL oder so benötigt wird.

Monger
2006-02-16, 14:53:34
Solange die Physik nicht einen wirklichen Einfluss auf das Spiel hat, welcher schon von Anfang an bei der Planung festgelegt werden muss, wird sich mit einer PPU nur was auf der Clientseite was ändern, sonst nichts.
Ganz genau das meine ich.

Wieviele rein clientseitige Anwendungen kannst du dir vorstellen? Irgendwelche Wasserfälle? Grashalme die sich im Wind wiegen?

Aber wäre es nicht viel schicker, wenn sich serverseitig was tun würde, damit auch wirklich das Gameplay von der Physik profitiert?

Physik ist SEHR bandbreitenintensiv. Die Physik Engine von Battlefield 2 dürfte wohl der einzige Grund sein, weshalb das Spiel so hohe Anforderungen an die Internetverbindung stellt. Vergleichbare Spiele wie z.B. Joint Operations die ein extrem simples physikalisches Modell haben, kommen da gleich um ganze Größenordnungen besser weg.

Man muss sich also auf reine Client Effekte konzentrieren - was irgendwie widersinnig ist, weil es ist ja gerade der Sinn einer Physikengine, die Umgebung interaktiver zu machen.
Da Ageia ja gerade komplexere, physikalische Effekte ermöglichen soll, sind die im Multiplayerbereich außen vor. Da sitzt der Flaschenhals nunmal in der Bandbreite bzw. in den Latenzen.

Gmax
2006-02-16, 16:09:48
Hier (http://www.gametrailers.com/gamepage.php?id=2399) gibts das Video ohne sich anmelden zu müssen

Android
2006-02-16, 17:24:53
Ich denke, dass ein Quad-Core eine AGEIA-Karte "marktstrategisch" überflüssig machen könnte. Es geht nicht darum ob ein Quad-Core Prozessor das Gleiche leistet, sondern darum ob es ausreichend ist. Denn man kann natürlich den Grad der Physikberechnung unglaublich einfach beeinflussen. Und der Grad der Physikberechnung macht sich im laufenden Spiel nicht so stark bemerkbar, wenn die beiden Stufen die elementare Physikberechnung (nicht ganz so elementar wie momentan :D ) der Engine schnell genug ausführen können. Ob nun eine Kiste in 100 Teile zerspringt oder in 200 wird einem während des Spielens nicht mehr grossartig auffallen. Denn ist euch mal aufgefallen, dass viele Demos von AGEIA in Slo-Mo sind ? ;)

Wenn man jedoch ein Kriegsszenario hat in dem wirklich tausende von Teilen wüst in der Gegend rumfliegen, ist ein dedizierter Prozessor a la AGEIA momentan und auch nächstes Jahr Pflicht.
Mir wäre es am liebsten, wenn Nvidia und ATI die Engine lizensieren und die Hardwareausführung selber realisieren. Im Prinzip also nichts anderes wie bei DirectX. Der Vorteil gegenüber DirectX wäre natürlich, dass die Physikberechnung rein featureseitig keine grossen Sprünge mehr machen kann. Einzig die Performance liesse sich steigern, wobei selbst diese, anfangs richtig gewählt, auch keine Riesenschritte mehr machen kann.

Gmax
2006-02-16, 18:50:30
Ich hab mir das Video angesehen. Es hat mich nicht sonderlich beeindruckt, vor allem da man hierfür ja den Spezalchip braucht. Entweder, die Entwickler holen noch mehr raus aus der Karte oder lassen es gleich sein.
Ein Extrachip für Global Illumination fände ich da sinnvoller. Aber was da im Video an Physikberechnung demonstiert wird, halte ich spätestens mit Quadcores ebenfalls für realisierbar.

tokugawa
2006-02-17, 00:15:53
Zumindest im ersten Video sehe ich nichts was nicht schon auf heutigen Single-Core-Prozessoren (und erst recht auf Dual-Core) schon gut laufen würde.

Am ehesten noch die paar Szenen wo wirklich viele Festkörper herumfliegen, rechtfertigen eine Entlastung der CPU durch die PPU - allerdings ist das genau das was ich gemeint habe mit "Masse statt Klasse". Ich find's nicht besonders beeindruckend, da hier einfach (aufgrund mangelnder Unterstützung von komplexeren Primitiven) einfach simple Festkörper herumgeschleudert werden was geht.


Übrigens gibt's ein weiteres Argument dafür dass die Physik in Software bleibt: Programmierbarkeit.

Da die Physik (im Idealfall) noch viel enger am Gameplay liegt, wäre es sehr gut, wenn man die Physik auch tatsächlich "sehr verschieden" auslegen kann, und zwar nicht nur dass man Werte in den Fixformeln (= quasi Fixed Function mit Parametern) ändern kann, sondern auch das Verhalten komplett umkrempeln kann.

Das geht derzeit in der PhysX Software-Engine über Klassen die Callback-Methoden implementieren. Wie man solche "Notification" Mechanismen mit Hardware effizient implementieren will sehe ich noch nicht - im Worst Case läuft hier ein ähnlicher Asynchronismus ab wie bei Occlusion Queries in der GPU (wo man immer pollen muß bis die "Antwort" kommt).


Ich finde Dual-Core-CPU-unterstützte Physik deswegen so fein, weil sie eben dadurch dass sie Software-basiert ist, auch vielfältig änderbar/umprogrammierbar ist. Bei Hardware-Physikprozessoren müssten wir wohl erst warten bis "programmierbare Physikprozessoren" kommen ("Physik-Shader" quasi).

Coda
2006-02-17, 00:34:58
Ein Extrachip für Global Illumination fände ich da sinnvoller.Oooh je. Das ist aber ein bischen zu spezifisch für einen Siliziumbrocken. Zu vergleichen mit einem "KI-Chip" usw. Wenn dann brauchen wir programmierbare Raytracing-Einheiten in den GPUs, was auch mit Sicherheit irgendwann kommen wird. Allerdings nur als Zusatz, nicht als Ablösung denke ich.

Realtime-GI ist eh so ne Sache die kaum beherschbar ist weil der Aufwand mit der Levelgröße etc. ziemlich stark steigt. Da sind wohl eher gute Hacks gefragt, die erst noch gefunden werden müssen.

aufgrund mangelnder Unterstützung von komplexeren PrimitivenDas Ding kann schon belebiege Objekte. Ansonsten wär es ja auch etwas daneben sowas in Silizium zu gießen.

Ich finde Dual-Core-CPU-unterstützte Physik deswegen so fein, weil sie eben dadurch dass sie Software-basiert ist, auch vielfältig änderbar/umprogrammierbar ist. Bei Hardware-Physikprozessoren müssten wir wohl erst warten bis "programmierbare Physikprozessoren" kommen ("Physik-Shader" quasi).Das Teil ist laut Demirug eigentlich recht gut programmierbar, nur gibt es dafür keine direkte API oder Compiler bisher.

Allerdings bin ich auch noch nicht ganz überzeugt ob sich das durchsetzen wird. Zwar ist die Leistung sicher trotzdem besser als von Multicore-general-purpose-CPUs, aber brauchen wir wirklich so viel mehr Physik als jetzt?

svenw
2006-02-17, 09:05:20
Ein paar physikalisch korrekt herrumfliegende Teile finde ich nicht sonderlich beeindruckend. Was viel interessanter sein dürfte wären Haare im Wind, Capes, flüssigkeiten etc. Das könnte in der Grafik wirklich einen Schub bringen.

Wer auf spielrelevante Physik auf der PPU wartet wird lange warten können. Kein Spiel wird es sich leisten können einen hysik Chip vorrauszusetzen um spielbar zu sein. Die Physikeffekte die Hardwaremäßig berechnet werden, werden also immer optional sein.

@Monger: Online Spiele und solche Ohysik schließen sich nicht aus. Der Witz bei Computern ist ja, das die Berechnung auf 2 Computern gleich sein sollte. Der Server schickt also die Meldung das der Kronleuchter von einer Kugel getroffen wurde + meinetwegen einer Zufallszahl und die Physikengine stellt den Fall physikalisch korrekt dar. Dann muß nur noch ermittelt werden, ob dich der Kronleuchter erwischt oder nicht. Die MAsse an Daten die über die Leitung geht wird aber minimal sein.

Monger
2006-02-17, 09:49:18
@Monger: Online Spiele und solche Ohysik schließen sich nicht aus. Der Witz bei Computern ist ja, das die Berechnung auf 2 Computern gleich sein sollte. Der Server schickt also die Meldung das der Kronleuchter von einer Kugel getroffen wurde + meinetwegen einer Zufallszahl und die Physikengine stellt den Fall physikalisch korrekt dar. Dann muß nur noch ermittelt werden, ob dich der Kronleuchter erwischt oder nicht. Die MAsse an Daten die über die Leitung geht wird aber minimal sein.

Das ist eine zu optimistische Annahme. Das setzt voraus, dass alle Ereignisse rechtzeitig und vollständig ankommen.

Frühere Netzwerkspiele haben das noch genau so gemacht. Ich kann mich noch an Duke Nukem 3D erinnern, wo wirklich nur jede Positionsänderung übertragen wurde, statt die Position selbst. Da kamen dann (selbst im LAN) nach einiger Zeit diese hässlichen "Out of Sync" Fehler, so nach dem Motto: "Ha, hab dich gerade erschossen!" "Nein, hast du nicht!", und beide hatten recht...

Aber selbst wenn: ein Körper mit einer komplexen Hitbox löst innerhalb kurzer Zeit eine MENGE Ereignisse aus. Stell dir ein Auto vor was sich überschlägt: für die nachfolgenden Fahrer kann eine geänderte Hitbox über Straßengraben oder Sieg entscheiden, deshalb muss JEDER physikalische Kontakt mit dem anderen Wagen ausgewertet werden. Je komplexer das physikalische Modell, desto mehr gibt es da auch zu sagen. Bei den klassischen Hitboxes ist Aufschlagswinkel gleich Einschlagswinkel, das ist also nicht das Problem. Aber sobald man irgendwelche Sachen wie z.B. Haftreibung etc. berücksichtigen will, muss man auch die Fläche der sich berührenden Teile kennen. Und plötzlich explodiert der Datenaufwand...

Warum wohl hat Trackmania keine Kollisionsabfrage? Einzig und allein aus dem Grund, um ein reibungsloses Spiel im Internet zu ermöglichen.

TheGamer
2006-02-17, 12:48:43
Jo es kommen bei komplexen Objekten auf wleche Physik einfluss hat eine enorme Datenmenge zusammen. Das ist das Prob atm IMO

Atalan
2006-02-19, 09:55:06
Ich denke bei diesen ganzen Physikspielereien muss man unterscheiden zwischen denen die nur für "Eye Candy" sorgen und denen die wirklich (auch in einem Netzwerkspiel) spielrelevant sind. So eine Grenze muss man natürlich etwas willkürlich ziehen - siehe "Schmetterlingseffekt" :-) aber in der Praxis sind Partikeleffekte, Blätter die im Wind umherwehen etc. gute Kandidaten für Effekte die lokal ruhig unterschiedlich zu anderen Spielern sein dürfen.

Interessanterweise sind das ja auch die Effekte die zB Havok in seiner Havok FX Lösung per GPU-Shader beschleunigt, hier zahlt es sich aus dass die Daten nicht nochmal über eine Extrakarte geschoben werden müssen; die Ergebnisse werden ja nur für die Graphik gebraucht.

Bei der Gameplay-relevanten Physik wird es bei Netzwerkspielen natürlich schwierig. Es hat ja eine Weile gedauert bis der "Lag" auch nur bei einfachen Fragen wie "Habe ich getroffen oder nicht" kompensiert wurde, und selbst da gibt es immer noch Lücken und ungereimtheiten. Würde man da nur Aktionen verteilen und jeden Client die Folgen in der Welt selber ausrechnen lassen würde das sehr schnell nicht mehr in Sync sein. Dagegen wäre eine Übertragung von serverberechneter Physik sehr Bandbreitenaufwendig.

Ich denke aber dass sich schon eine Mischung durchsetzen wird, also lokal berechnen und ab und zu vom Server das "gemeinsame Bild" holen, auch wenn es ab und zu kleinere Ungereimtheiten geben wird. Sowas wird aber nicht mehr unter nem Megabit/s laufen, dürfte uns aber deutlich interaktivere Spielwelten bescheren. Ich bin gespannt !

Atalan

Hacki_P3D_nA
2006-03-20, 13:52:10
jojo...

http://www.golem.de/0603/44129.html

Gast
2006-03-20, 14:46:59
Nunja physik prozessor schön und gut... ich denke da aber einfach mal an HL² das auch ne cpu berechnete physik benutzt und diese ist mmn wirklich nicht schlecht (ok steigerungen sind immer möglich(und auch erwünscht))... klar... exakte reibungsberechnungen u.ä. würden die rechenlast erhöhen... aaber dafür kann man ja nen 2. core nutzen...

(ihr sagt den braucht man doch für xxx ?) naja ich glaube nicht das die rechenlast durch die phy so stark zunimmt das nicht auch noch die ki auf dem 2. core laufen würde... (siehe bsp hl2) und für den rest gibts doch noch den 1. denn wenn all das (rechentechnisch) so unmöglich wäre, wie sind wir dann bisher mit singlecore ausgekommen? ;) ausserdem sinkt durch dc ja auch die zeiten die der die cpu zwischen threads wechselt da ers duch den 2. core ja nur halb so oft tut und das ist mmn ein nicht unwichtiger leistungsschub, gerade wenn man noch ne fw oder nen av laufen hat (sollte man auch berücksichtigen da nicht alle proz leistung auf das spiel verwendet wird)

(ich merk grad das ich zuviele argumente zu zusammenhangslos bring, egal... ihr versteht mich trozdem... hoffe ich :P)

und dinge wie sich im wind wiegendes gras... wow ich glaub ihr geht da nen bisschen weit... da bräuchte man dann doch wirklich ne ppu...(aber mal ehrlich für gras?!? da is mir mein geld mehr wert) und sowas lässt sich ja auch geschickt durch (verschiedene) animationen simulieren, wobei der unterschied nicht auffallen sollte.

das alles ist nur ne fixe überlegung von mir aber doch garnicht so unrealistisch, ich lasse mich natürlich gerne mit vernünftigen beispielen (kein gras & wasserfälle die man auch animieren kann und auch die zigtausend teile die rumfliegen könnten... nunja ich bin auch der meinung das man den unterschied von viel nach sehr viel optisch kaum wahrnimmt, dafür ist zb bei ner explosion die dauer zu kurz (wobei viele herumwirbelnde objekte noch als argument am überzeugendsten sind(wobei auch hier wieder das bsp HL² und die dort auftretenden exps genannt sein wollten die ebne auch auf ner single core cpu liefen, da ist mit dc doch DEUTLICH mehr drinne (die klammer ist nur da weil ich verschachtelungen so liebe >.< sry))) überzeugen.

Gast
2006-03-20, 15:15:23
jojo...

http://www.golem.de/0603/44129.html

Hm. Und wenn man nun in einer Spielszene Havok FX tausende von Objekten gleichzeitig rumwirbeln lässt, wie viel Leistung bleibt dann noch für eine "NextGen"-Grafik übrig?







:idea:

Coda
2006-03-20, 15:27:52
Ziemlich viel. Eine GPU ist für solche Berechnungen ziemlich gut geeignet.

#44
2006-03-20, 15:56:02
Ziemlich viel. Eine GPU ist für solche Berechnungen ziemlich gut geeignet.
da geb ich aber #45 recht... denn gerade beim "tausende teile gleichzeitig realistisch durch die gegend fliegen lassen" sind physik UND grafik berechnungen in hohem maße erforderlich (man denke daran das jedes teil zig polygone hat, texturiert ist und dazu vlt auch noch durch shader effekte verpasst kriegt UND dazu noch physikalisch korrekt dagestellt werden muss... schon allein die grafische komponente vermag es oft grakas in die knie zu zwingen...(er nehm mal wieder HL² als bsp auf meiner 9800er (für das spiel durchaus angemessen selbst bei 4xaa u 8x anisotrop in 1024*765) kam es wenn, dann bei größeren explosionen zu hängern)

Coda
2006-03-20, 16:15:49
Gerade in HL² ist das Physik-Zeug höchstgradig CPU-limitiert. Da wäre es sehr viel besser das Ganze zumindest partiell (ganz wird eh nicht gehen) auf die GPU zu legen, vor allem läuft es dort auch um einiges schneller.

Monger
2006-03-20, 16:51:11
Hm. Und wenn man nun in einer Spielszene Havok FX tausende von Objekten gleichzeitig rumwirbeln lässt, wie viel Leistung bleibt dann noch für eine "NextGen"-Grafik übrig?

:idea:

Die Frage ist doch: in was ist mein Geld besser angelegt: in eine bessere/zweite Grafikkarte, oder in einen Physikbeschleuniger?

Angenommen ich stehe jetzt vor der Wahl, mir einen völlig neuen Spiele PC zusammenzubauen. Ich hab eine begrenzte Menge an Geld, und jetzt stehe ich vor der Wahl, ob ich 150 Euro in eine PhysX Karte oder in eine bessere Grafikkarte investiere. Jetzt kommt es darauf an, was mehr und schönere Effekte auf den Schirm bringt.

Wer da besser abschneidet, werden wir wohl irgendwann in der Zukunft durch Benchmarks erfahren, aber ich gehe ganz schwer davon aus, dass der Abstand subjektiv gesehen nicht dramatisch sein wird.


Und jetzt wo auch noch Havoc auf den Zug aufgesprungen ist (was ja zu erwarten war), sieht es WIRKLICH düster für Ageia aus.

Nightspider
2006-03-20, 17:55:44
Wenn eine PPU eine Langzeitinvestition wird und jeder Physikprozessor mind.1 Jahr aktuell bleibt wird sich wohl die PPU durchsetzen.
Besonders in Anbetracht dessen, dass es einige Jahre dauern wird eine PPU voll auszunutzen.

Windi
2006-03-20, 18:02:45
Die Frage ist doch: in was ist mein Geld besser angelegt: in eine bessere/zweite Grafikkarte, oder in einen Physikbeschleuniger?

Angenommen ich stehe jetzt vor der Wahl, mir einen völlig neuen Spiele PC zusammenzubauen. Ich hab eine begrenzte Menge an Geld, und jetzt stehe ich vor der Wahl, ob ich 150 Euro in eine PhysX Karte oder in eine bessere Grafikkarte investiere. Jetzt kommt es darauf an, was mehr und schönere Effekte auf den Schirm bringt.

Wer da besser abschneidet, werden wir wohl irgendwann in der Zukunft durch Benchmarks erfahren, aber ich gehe ganz schwer davon aus, dass der Abstand subjektiv gesehen nicht dramatisch sein wird.


Und jetzt wo auch noch Havoc auf den Zug aufgesprungen ist (was ja zu erwarten war), sieht es WIRKLICH düster für Ageia aus.
Genau so sehe ich das auch. Nur bin ich mir jetzt schon sicher, daß man von den 150€ für eine bessere Grafikkarte mehr hat. Bei einer besseren Grafikkarte profitieren nicht nur die neusten Spiele sondern auch ältere Spiele und neuerdings auch Aufgaben aus dem Multimediabereich.

Ausserdem stellt sich die Frage, ob man die Leistung der PhysX Karte überhaupt braucht. Kein Spielepublisher wird ein Spiel produzieren, daß nur auf Rechnern läuft die eine PPU haben. Deshalb müsste die Anzahl der Physikeffekte so gering sein, daß die Spiele auch auf einem Durchschnittscomputer ohne Physik-Karte gescheit geläuft. Und diese geringe Zusatzleistung dürfte heutzutage ein Dualcore gegenüber einem Singelcore problemlos erbringen.

Nightspider
2006-03-20, 18:16:24
Wo profitiert ein (noch etwas) älteres Spiel bei einer guten Karte wenn man sowieso schon max details und 100 fps hat ?

Dann doch lieber eine PPU, die einige Jahre was hält.

Zudem wurde auch bestätigt, dass man mit einer PPU bessere Grafikeffekte ermöglichen kann bzw. mehr wie in Spellforce 2 etc.

Während manche also 2-3 mal ihre GPU wechseln wechselt man nur 1 mal die PPU...

#44
2006-03-20, 20:03:35
ist das mit den 150€ ne fundierte aussage oder ne aus dem blauen gegriffene vermutung? (ich habe die arge vermutung das das bissl mehr werden könnte... was mir auch am meisten sorgen macht da ich kein 2 karten für 400€ haben will damit mein pc aktuelle spiele gut darstellen kann)

und mmn ist das eh spätestens mit nem quad core erledigt... weil man da nen kompletten core für die physik hernehmen kann... (ki braucht keinen eigenen da niemand so ne aufwändige ki programmieren wird... (budget&zeitkosten))

das eine ppu vorteile hat ist unstrittig... die sache ist nur ob man das potential überhaupt nutzen kann... und da reicht mmn ein core einer cpu (evlt sogar 2 wenn mans extrem treibt) völlig aus.

und ob hl2 cpu limitiert ist oder nicht... mir gings darum zu verdeutlichen welche nachteile es hat die gpu phys effekte gerade in aufwändigen szenen berechnen zu lassen... (ich glaub nicht das nen 3200+64bit die ruckler verursacht hat...mmn die graka)

und auch ich glaube nicht das ein hersteller auf ppu effekte setzt die dann natürlich ne karte brauchen... würde ja den umsatz schädigen...
und 2 versionen? naja da würden dann weniger von der ppu version verkauft da sie ja nicht zwingend notwendig ist und ne ppu geld kostet... wieso kaufen wenns auch ohne läuft?

#44
2006-03-20, 20:51:26
noch etwas sehr interresantes... (das mir das etz erst einfällt):
spiele werden bist zu den *NÄCHSTEN* next gen consolen ppu´s maximal als optional unterstützen... alle aktuellen consolen haben mehrere kerne (ok bei nintendos neuem weiss ichs nicht) und da wird kein mehrplattformspiel (wie sie immer häufiger werden wegen der höheren gewinnspanne) ppus als sys.vorraussetzung haben da kein der konsolen soetwas besitzt... auch hier geht der trend dahin das ein core die phy.berechnung übernehmen wird

Monger
2006-03-21, 09:07:48
Wo profitiert ein (noch etwas) älteres Spiel bei einer guten Karte wenn man sowieso schon max details und 100 fps hat ?

Kantenglättung. Mit ausreichend Supersampling zwingt man auch uralte Spiele auf 30 fps runter! ;)


Während manche also 2-3 mal ihre GPU wechseln wechselt man nur 1 mal die PPU...
Das ist ja eher ein Argument gegen PPUs als dafür: bei dem Preisverfall von Grafikkarten wird es bald billiger, sich eine zweite Grafikkarte nur für Physikberechnungen zu holen als eine PPU.


Das ist doch wie in der Evolutionslehre: eine Lebensnische wird - über lange Sicht gesehen - immer nur von einer Art besetzt. Grafikkarten können alles was Physikbeschleuniger auch können, nur noch wesentlich mehr. Wenn jetzt die PPUs nicht WESENTLICH effizienter in der Physikberechnung sind als GPUs, werden sie verdrängt. Was ich vermute, weil sich die beiden Gebiete einfach zu ähnlich sind um völlig unterschiedliche mathematische Anforderungen zu haben.
Ich vermute dass nVidia und ATI diese Lücke besetzen werden, bevor Ageia überhaupt eine Chance hat sich zu etablieren.

ShadowXX
2006-03-21, 09:28:29
noch etwas sehr interresantes... (das mir das etz erst einfällt):
spiele werden bist zu den *NÄCHSTEN* next gen consolen ppu´s maximal als optional unterstützen... alle aktuellen consolen haben mehrere kerne (ok bei nintendos neuem weiss ichs nicht) und da wird kein mehrplattformspiel (wie sie immer häufiger werden wegen der höheren gewinnspanne) ppus als sys.vorraussetzung haben da kein der konsolen soetwas besitzt... auch hier geht der trend dahin das ein core die phy.berechnung übernehmen wird

Aber für Konsolen gibt es ebenfalls Havok und Aegis als Physikengines.....d.h. wenn du einen PC-Port eines Games machst und das Game auf der Konsole Havok oder Aegis benutzt, hättest du bei der PC-Version dann automatsich PPU bzw. GPU als PPU Support...

(Bei Sony sind beide Physikengines mit ins SDK "integriert" und bei MS ist es AFAIK ähnlich).

Dein Argument zieht da also nicht so sehr......


Während manche also 2-3 mal ihre GPU wechseln wechselt man nur 1 mal die PPU...

Das glaubst du doch selbst nicht, das du nur durch eine PPU im Rechner mal eben 2-3 Generationen/Refreshes an Grakas "aufwiegen" kannst.


Zum Viel vs. Wenig Physik:
AFAIR ist z.B. bei Aegis im SDK das ganze so automatisiert, das wenn keine PPU-Karte gefunden wird, automatsich simplere und weniger Physikeffekte benutzt werden.
Die Devs können also durchaus für Leute mit PPU voll aufdrehen und die Leute ohne PPU werden trotzdem nicht wirklich benachteiligt.
Im schlimmsten Fall nimmt man 2 Physik-Pfade....soooo aufwendig sollte das auch nicht sein.

#44
2006-03-21, 10:23:05
Aber für Konsolen gibt es ebenfalls Havok und Aegis als Physikengines.....d.h. wenn du einen PC-Port eines Games machst und das Game auf der Konsole Havok oder Aegis benutzt, hättest du bei der PC-Version dann automatsich PPU bzw. GPU als PPU Support...

(Bei Sony sind beide Physikengines mit ins SDK "integriert" und bei MS ist es AFAIK ähnlich).

Dein Argument zieht da also nicht so sehr......


Das glaubst du doch selbst nicht, das du nur durch eine PPU im Rechner mal eben 2-3 Generationen/Refreshes an Grakas "aufwiegen" kannst.


Zum Viel vs. Wenig Physik:
AFAIR ist z.B. bei Aegis im SDK das ganze so automatisiert, das wenn keine PPU-Karte gefunden wird, automatsich simplere und weniger Physikeffekte benutzt werden.
Die Devs können also durchaus für Leute mit PPU voll aufdrehen und die Leute ohne PPU werden trotzdem nicht wirklich benachteiligt.
Im schlimmsten Fall nimmt man 2 Physik-Pfade....soooo aufwendig sollte das auch nicht sein.

ja konsolen unterstützen das sdk... und das softwareseitig... das ist nichts schlechtes... aber die unterstützen die ppu an sich nit... (wenn man das auf der konsole die software macht wird das auf dem pc auch so möglich sein)

ausserdem ist mein argument darauf ausgelegt die arbeit an nen mc prozi zu geben, anstatt so ner ppu

ja aber wenn sich die physik dann mal aufs spieldesign auswirkt... (fallen, realistisch simulierte maschinen und was man sich nicht noch alles vorstellen kann) kann man doch nur 1 weg gehen... ;) ausser das man rein optische phy effekte weglässt...

wobei die wiederum zu sehr großen teilen ohne irgendwelche abstriche animiert werden können... -> keine phy nötig (bsp gras im wind oder wasserfälle)


Ich hab mir mal die vids von aegis angesehn... wenn das die ppu leistung darstellt... ohweh... das wird nix... (man sollte ja annehmen das einem das beste vorgesetzt wird um einen "heiss" zu machen) ist das allerdings "nur" die softwareseitige umsetzung dann ok. optische machen gerade die carwash videos stark was her (finde nur das der nebel aussieht wie große einzelne wattebauschen ohne kollisionsabfrage(ist auch bei den anderen sache so aber da wesentlich feiner) wobei ich physikalisch nichts sehe was nen 2. core nicht auch könnte...(in keinem von allen vids)

für mich zählt am ende der diskussion ob man nicht all das auf nen anderen core einer mc einheit verteilen kann, da einfach keine neue hw benötigt wird

(bitte kommt etz keiner der sagt nen 1.8 ghz core (bei mehreren cores wird die einzeltaktrate ja sicher sinken) das nicht schaffen kann... er ist schließlich ausschließlich für phy zuständig)(bis die ppu kommt (wenn sie denn kommt) sind auch mc sys verbreitet nehme ich mal an)

nunja... ich verklammer mich mal wieder (oder wie auch immer ihr das nennen möchtet (ich tus schon wieder ^^))

ShadowXX
2006-03-21, 10:36:31
ja konsolen unterstützen das sdk... und das softwareseitig... das ist nichts schlechtes... aber die unterstützen die ppu an sich nit... (wenn man das auf der konsole die software macht wird das auf dem pc auch so möglich sein)

Wie schon erwähnt...die Benutzung der PPU erfolgt dann ja automatsich, wenn erkannt wird, das diese im Rechner vorhanden ist.

Es ist also egal, ob auf einem anderen System (in diesem Fall die Konsolen) es eine PPU gibt oder nicht. Den Automatismus der Benutzung der PPU erledigt der Code im SDK (zum größten Teil) von selbst.

Du musst den Physik-Code also nicht nochmal extra umschreiben bzw. nur geringstfügig anpassen, so das die PPU auf den PCs genutzt wird.


ausserdem ist mein argument darauf ausgelegt die arbeit an nen mc prozi zu geben, anstatt so ner ppu

siehe weiter unten.....


ja aber wenn sich die physik dann mal aufs spieldesign auswirkt... (fallen, realistisch simulierte maschinen und was man sich nicht noch alles vorstellen kann) kann man doch nur 1 weg gehen... ;) ausser das man rein optische phy effekte weglässt...

Du wirst davon ausgehen können, das spielentscheidene Physik immer so gemacht werden wird, das diese auch welche ohne PPU nutzen können.....das wofür man die PPU haben will, sind tatsächlich hauptsächlich optische Gimmicks.


wobei die wiederum zu sehr großen teilen ohne irgendwelche abstriche animiert werden können... -> keine phy nötig (bsp gras im wind oder wasserfälle)

Jupps...genau das passiert dann eben, wenn man keine PPU-Karte hat....es sieht "nur" schlechter aus, die Gamemechanik bleibt aber dieselbe.


Ich hab mir mal die vids von aegis angesehn... wenn das die ppu leistung darstellt... ohweh... das wird nix... (man sollte ja annehmen das einem das beste vorgesetzt wird um einen "heiss" zu machen) ist das allerdings "nur" die softwareseitige umsetzung dann ok. optische machen gerade die carwash videos stark was her (finde nur das der nebel aussieht wie große einzelne wattebauschen ohne kollisionsabfrage(ist auch bei den anderen sache so aber da wesentlich feiner) wobei ich physikalisch nichts sehe was nen 2. core nicht auch könnte...(in keinem von allen vids)

für mich zählt am ende der diskussion ob man nicht all das auf nen anderen core einer mc einheit verteilen kann, da einfach keine neue hw benötigt wird

(bitte kommt etz keiner der sagt nen 1.8 ghz core (bei mehreren cores wird die einzeltaktrate ja sicher sinken) das nicht schaffen kann... er ist schließlich ausschließlich für phy zuständig)(bis die ppu kommt (wenn sie denn kommt) sind auch mc sys verbreitet nehme ich mal an)

Nicht mal ein 3GHz Conroe oder 3GHz A64 X2 haben annähernd die Rechenleistung einer spezialisierten PPU...selbst wenn diese nicht anderes auf beiden Cores gleichzeitig machen würden (sehr wahrscheinlich nicht mal beide zusammen).

Das das ganze in den Vids nicht so eindruckvoll rüberkommt liegt an was anderen: Die Devs haben bisher teilweise verdammt gut "Physik" in die Games reingefaked...das in den Vids ist aber Echtzeitberechnung und das dazu völlig physikalisch Korrekt auf jedes Teilchen.

Wenn man da jetzt durch die PPU 30FPS hat, hätte ein FX-62 da vielleicht 30 FPM (oder sogar weniger).


nunja... ich verklammer mich mal wieder (oder wie auch immer ihr das nennen möchtet (ich tus schon wieder ^^))
Kenn ich...mach ich auch ganz gerne.

Monger
2006-03-21, 11:16:13
Das das ganze in den Vids nicht so eindruckvoll rüberkommt liegt an was anderen: Die Devs haben bisher teilweise verdammt gut "Physik" in die Games reingefaked...das in den Vids ist aber Echtzeitberechnung und das dazu völlig physikalisch Korrekt auf jedes Teilchen.


Womit sich wieder die Frage stellt: wozu brauche ich eine PPU, wenn es sowieso nur besser aussehen soll, und das offensichtlich nicht tut?

Wenn eine PPU einen echten Mehrwert für ein Spiel bringen würde, wäre das ja ein Kaufargument. Das wird es aber wohl nicht geben, und die normalen Lösungen über CPU (oder eben auch GPU) sehen genauso gut aus. Wofür sollte ich also Geld ausgeben?

#44
2006-03-21, 12:14:29
Ich habe (auch vorher schon mal gesagt) nie daran gezweifelt das die leistung der ppu höher ist... ich sage nur: aktuell kann ich das (und mmn auch noch locker bis 2010) noch mit nem anderen core realisieren (siehe konsolen) und bis die phy wirklich deutlich viel besser wird (lachhafte sachen wie gras &haare im wind(lachhaft deswegen weil der aufwand das zu coden gigantisch ist)) dauert es eben wegen dem aufwand noch ein bisschen...

ich glaube nicht das ein entwickler gegen jeden aspekt der wirtschaftlichkeit verstößt und nochmal nen jahr mehr zeit investiert nur um das realistischste physikerlebniss zu bieten...

und das man den unterschied von grad das echtzeitberechnet vom wind bewegt wird und welchem das sich durch versch. anis genauso verhält sooo deutlich sieht glaub ich nicht (und ist für mich kein kaufgrund einer 250€ karte)

und das vid... gugg mal genauer hin dann entdeckst du vlt das das ca 500 "wattebauschen" (ich nenns einfach mal so weil die form ähnlich ist) den nebel bilden und am auto herrunterrutschen... wenn das eine cpu nicht packt... dann versteh ich die welt nicht mehr (der vgl gilt nur für dc da sc noch das betriebssys &hintergrund progs verwalten muss)!

und wenn das wirklich schon alle leistung sein sollte die die ppu darstellen kann (was ich annehme wenn nicht sw-engine verwendet wurde) dann prophezei ich doch einfach mal den untergant (bzw keinen verwendungszweck vor ca 2008(und wer weiss ob da intels 4corer noch aktuell sind.... ;) ))
ich glaube nämlich nicht das man sein produkt mit nur durchschnittlichen vids bewerben würde... siehe oblivion, bei dem sich grad jeder aufregt das es auf seinem pc nie so aussehn wird... naja wers geglaubt hat... :P ss (sebst schuld)

und da ist dann noch ein anderer kleiner punkt der glaub ich schonmal angesprochen wurde...: die programmierbarkeit (nicht die möglichkeit den ppu in den code zu integrieren!) was ist wenn mal absichtlich die physik NICHT so sein soll wie in der realität? (zb bergauf fließendes wasser) da bleibt die frage ob ein chip so flexibel ist wie eine software... (ok ich gebs zu das ist schon echte pfennigfuchserei das argument....aber spiele sind immernoch eine "kunstform" und nicht irgendwelchen gesetzmäßigkeiten unterworfen wie etwas umgesetzt sein MUSS)

ShadowXX
2006-03-21, 12:16:33
Womit sich wieder die Frage stellt: wozu brauche ich eine PPU, wenn es sowieso nur besser aussehen soll, und das offensichtlich nicht tut?

Wenn eine PPU einen echten Mehrwert für ein Spiel bringen würde, wäre das ja ein Kaufargument. Das wird es aber wohl nicht geben, und die normalen Lösungen über CPU (oder eben auch GPU) sehen genauso gut aus. Wofür sollte ich also Geld ausgeben?

Naja....mit PPU hättest du dann 20.000 Steine die den Hang runterrollen (und das pyhsikalische Korrekt) und ohne PPU nur 5.000 (und dann wahrscheinlich dazu noch halb gescripted).

Es geht auch mehr ums Gesamtbild und wie "echt" sich das ganze anfühlen soll.
Wenn du die beiden Versionen direkt gegeneinander siehst, würdest du wohl auch den Unterschied bemerken.

Beispiel:
Ein Auto wird durch runterwerfen von einem Haus geschrottet.
Bei der Non-PPU-Version wirst du es höchstens so haben, das im besten Falle das Auto-Grundmodell realistisch auf den Grund aufschlägt und reagiert.
Das zerbersten des Glases, das Rausfallen der Türen usw. sind dann rein gescriptet.

Mit PPU ist auch das zerberstende Glas pyhsikalische Korrekt und die Türen fallen nicht nur Korrekt aus dem Auto, sondern verhalten sich auch nach dem Rausfallen weiterhin korrekt.

Wenn du beide Versionen nur 1x hintereinander siehst, wird dir der Unterschied gering vorkommen....wenn du beide Versionen 10x hintereinander anguckst, wirst di feststellen, das es bei der Non-PPU-Variante jedesmal fast gleich aussieht (bis drauf, das der Wagen mal ein bisserl anders durch die Gegend "hüpft" nach dem Aufprall -> der Rest ist ja gescripted), wogegen bei der PPU-Variante der Aufprall incl. alles was dazugehört (Türen, Glas, Rahmen) jedesmal völlig anders aussieht.

Wie bei den Grakas gilt bei sowas wie einem PPU-Chip, dass der Aufwand für Kleinigkeiten immer größer wird, obwohl man rein vom Sehen her vieles erst auf den 2ten Blick bemerkt.

Das ist auch der Grund, warum viele meinen, das die Grafik gar nicht mehr besser wird.....Sie wird es....aber es sind teilweise Kleinigkeiten, die aber extrem viel Leistung kosten, und dadurch erst bei genauerem Hingucken auffallen bzw. erst dann auffallen, wenn man den Vergleich mit älteren Games zieht, wo man meinte das die Grafik genausogut ist.
-> Was ähnliches ist es mit einem PPU-Chip vs. SW.

ShadowXX
2006-03-21, 12:24:37
Ich habe (auch vorher schon mal gesagt) nie daran gezweifelt das die leistung der ppu höher ist... ich sage nur: aktuell kann ich das (und mmn auch noch locker bis 2010) noch mit nem anderen core realisieren (siehe konsolen) und bis die phy wirklich deutlich viel besser wird (lachhafte sachen wie gras &haare im wind(lachhaft deswegen weil der aufwand das zu coden gigantisch ist)) dauert es eben wegen dem aufwand noch ein bisschen...

ich glaube nicht das ein entwickler gegen jeden aspekt der wirtschaftlichkeit verstößt und nochmal nen jahr mehr zeit investiert nur um das realistischste physikerlebniss zu bieten...

Dafür hast du ja das SDK bzw. die Middelware....du als Devs kümmerst dich dann ja gar nicht (bzw. nicht großartig) um die Physikengine und die HW-Unterstützung passiert automatsich.

Für das Gras braucht du sehr wahrscheinlich gar keine so großen Codeaufwand, da du einfach an jeden Grashalm eine Physikobjekt ranhängst....nur schaffst du das dann definitiv nicht mehr per SW-Engine. Da muss dann eine PPU ran.


und das man den unterschied von grad das echtzeitberechnet vom wind bewegt wird und welchem das sich durch versch. anis genauso verhält sooo deutlich sieht glaub ich nicht (und ist für mich kein kaufgrund einer 250€ karte)

und das vid... gugg mal genauer hin dann entdeckst du vlt das das ca 500 "wattebauschen" (ich nenns einfach mal so weil die form ähnlich ist) den nebel bilden und am auto herrunterrutschen... wenn das eine cpu nicht packt... dann versteh ich die welt nicht mehr (der vgl gilt nur für dc da sc noch das betriebssys &hintergrund progs verwalten muss)!

Das Packt eine CPU tatsächlich nicht mehr (zumindest nicht mit den Frames).


und da ist dann noch ein anderer kleiner punkt der glaub ich schonmal angesprochen wurde...: die programmierbarkeit (nicht die möglichkeit den ppu in den code zu integrieren!) was ist wenn mal absichtlich die physik NICHT so sein soll wie in der realität? (zb bergauf fließendes wasser) da bleibt die frage ob ein chip so flexibel ist wie eine software... (ok ich gebs zu das ist schon echte pfennigfuchserei das argument....aber spiele sind immernoch eine "kunstform" und nicht irgendwelchen gesetzmäßigkeiten unterworfen wie etwas umgesetzt sein MUSS)
Da man selber die Physik erst mal definitiert (man die Variablen für die Engine setzt, wahrscheinlich sogar per Objekt möglich), sollte das keine Problem sein.

#44
2006-03-21, 12:41:35
ich kann zwar nicht wirklich glauben das das ne halbwegs aktuelle cpu nicht schaffen soll die 500 (bin mir ziemlich sicher das das so um den dreh liegt) wattebällchen nicht auch über das auto rutschen zu lassen...

(ich mach das mal an nem bsp fest: athlon xp 2200+ spiel b&w: ich hab da einfach mal nen ganzen wald (ca 50 wenn nciht mehr bäume) ausgerissen und auf nen haufen in ne mulde gekippt... das ganze war die ganze zeit in bewegung da auch das spiel ne physik dafür hatte und das hatt dann klar die framerate gedrückt... ABER dazu kommt noch ne kollisionsabfrage für die ganzen objekte UND alles was sonst noch "nebenher" von der cpu gemeistert wird... (hunderte dorfbewohner usw halt das ganze spiel(achja und nen betriebssystem :P)) BUTAL wurde das ruckeln erst als ich das ganze angezündet hab ^^)

wenn ich jetzt alle andere last wegdenken würde und "nur" die physik die dafür nötig war.... hätte das wohl kaum soviel leistung gebraucht vorallem da der cpu ja noch threads wechseln musste zwischendurch... daher kann ich das einfach nicht glauben

ich sage auch nicht das nie ppus kommen werden... sie werden... aber noch nicht jetzt... denn bisweilen können cpus noch ohne 2. core komplette spiele (inkl ki, physik, gameengine) berechnen... da ist ein extrachip für phsik fehl am platz... gerade da durch multicore die leistungsreserven dafür stark aufgestockt werden..-

ShadowXX
2006-03-21, 13:09:10
ich kann zwar nicht wirklich glauben das das ne halbwegs aktuelle cpu nicht schaffen soll die 500 (bin mir ziemlich sicher das das so um den dreh liegt) wattebällchen nicht auch über das auto rutschen zu lassen...

Die PPU ist in Sachen Physikberechnung der CPU mindestens um den Faktor 10 (eher wesentlich höher) überlegen...


(ich mach das mal an nem bsp fest: athlon xp 2200+ spiel b&w: ich hab da einfach mal nen ganzen wald (ca 50 wenn nciht mehr bäume) ausgerissen und auf nen haufen in ne mulde gekippt... das ganze war die ganze zeit in bewegung da auch das spiel ne physik dafür hatte und das hatt dann klar die framerate gedrückt... ABER dazu kommt noch ne kollisionsabfrage für die ganzen objekte UND alles was sonst noch "nebenher" von der cpu gemeistert wird... (hunderte dorfbewohner usw halt das ganze spiel(achja und nen betriebssystem :P)) BUTAL wurde das ruckeln erst als ich das ganze angezündet hab ^^)

Da ist zwar eine Pseudo-Physik hinter, aber keine richtige Physiksimulation.....das ist der Unterschied.

Guck mal was passiert, wenn du auf deinen Haufen mit 49 Bäumen den letzten so richtig aus großer Höhe rauffallen lässt...gibt es dann wirklich eine Reaktion aller 49 schon liegenden Bäume bis ins letzte Detail darauf?

Tut es nicht (ich hab auch B&W2 zu hause)....mit PPU-Unterstützung wäre das möglich.

Higans
2006-03-21, 13:36:51
Die PPU ist in Sachen Physikberechnung der CPU mindestens um den Faktor 10 (eher wesentlich höher) überlegen...

Ich meine mal was von einem Faktor 40 gelesen zu haben.

Und ich weiss garnicht was die Diskussion soll, nachdem sich die Ageia Physx Schnittstelle als propitärer Standard langsam durchsetzt und sogar Microsoft bereits eine standarisierte Physikschnittstelle für DirectX entwickelt (Direct Physics http://members.microsoft.com/careers/search/details.aspx?JobID=37e85b2b-76b9-45bc-9424-d5f0236343d9 ), ist eine Hardwarebeschleunigung die logische Folge, und der Nutzen sind einfach mehr Frames, und danach schreien in der Gaming Branche doch noch immer alle oder?

#44
2006-03-21, 13:43:23
ja das mit der pseudo physik in b&w(1 <-- davon sprach ich sogar nur) ist mir bewusst... aber ich verdeutliche nur das sich da die nächsten 2 jahre (ist mal so meine vermutung) mmn noch keine große fortschritte zeigen werden, und bis dahin bin ich noch der meinung das man das nicht braucht... erst wenn das erste spiel mit der physX engine sich nicht mehr von meinem cpu in niedrigen (physik)details darstellen lässt werde ich zu greifen

(klar werden einzelne spiele mit unwarsch. guter physik erscheinen die eine ppu unterstützen aber nichts was sich "flächig" etabliert... das wird noch daueren)
und ich wiederhole nochmal: auch mir ist klar das eine ppu standard wird... nun eben doch nicht ganz so schnell wie mancher hier das denken mag...
(und ich merke grad das erst mit diesem post das klar ersichtlich wird... naja war ne schwere geburt ;) )

wobei ich hier auch skeptisch bei der entwicklung werde... das geht sich irgendwann so wie mit den grakas... noch mehr effekte auf einmal... 100 bäume die sich im wind wiegen sind nicht genug... etz müssen auch noch komplette getreidefelder wogen... *wenn ich nur an die kosten den >.<+

ShadowXX
2006-03-21, 13:48:29
und ich wiederhole nochmal: auch mir ist klar das eine ppu standard wird... nun eben doch nicht ganz so schnell wie mancher hier das denken mag...
(und ich merke grad das erst mit diesem post das klar ersichtlich wird... naja war ne schwere geburt ;) )

wobei ich hier auch skeptisch bei der entwicklung werde... das geht sich irgendwann so wie mit den grakas... noch mehr effekte auf einmal... 100 bäume die sich im wind wiegen sind nicht genug... etz müssen auch noch komplette getreidefelder wogen... *wenn ich nur an die kosten den >.<+

Da stimme ich dir zu....."flächendeckenden" Physik wird sowieso erst dann richtig losgehen, wenn MS seine eigene DX-Schnittstelle dafür veröffentlicht hat.

Higans
2006-03-21, 13:50:20
Sobald sich eine Physicschnittstelle etabliert, wird die auch von den Entwicklern genutzt, weil das einfach Entwicklungsarbeit spart, weil sich die Entwickler dann nicht mehr um komplizierte Physikalgorythmen kümmern müssen. 3dfx hat sich ja im Grafikbereich auch ziemlich schnell durchgesetzt, und ist dann ganz rasch von Direct3d abgelöst wurden.
Dann wird man sehr schnell merken, dass eine Hardwarebeschleunigung die Framerate ganz erheblich steigern wird, egal wie kompliziert jetzt die Physik ist, Ati denkt ja auch schon drüber nach, ein Teil der Physxroutinen von der GPU übernehmen zu lassen ( http://www.hardwarecrew.com/news/grafikkarten/zukunftig_physikberechnung_mit_ati_grafikkarten.html ).

Gast
2006-03-21, 14:05:40
Sobald sich eine Physicschnittstelle etabliert, wird die auch von den Entwicklern genutzt, weil das einfach Entwicklungsarbeit spart, weil sich die Entwickler dann nicht mehr um komplizierte Physikalgorythmen kümmern müssen. 3dfx hat sich ja im Grafikbereich auch ziemlich schnell durchgesetzt, und ist dann ganz rasch von Direct3d abgelöst wurden.

da gebe ich dir leider recht... leider weil das so einen ähnlichen kartenwahn wie bei den grakas auslösen könnte.


Dann wird man sehr schnell merken, dass eine Hardwarebeschleunigung die Framerate ganz erheblich steigern wird, egal wie kompliziert jetzt die Physik ist, Ati denkt ja auch schon drüber nach, ein Teil der Physxroutinen von der GPU übernehmen zu lassen.

Framerate steigern? nein! aber das spiel weniger cpu lastig machen... und somit mehr cpu zeit und power für ki bereitzustellen was niedrigere anforderungen nach sich zieht...

von diesen plänen (die auch nVidia und die Havok hersteller arbeiten an sowas) halte ich nicht viel... da müssten die anzahl der shadereinheiten der graka schon (?um ein ganzes stück?) steigen oder entweder auf shader oder auf physik in bestimmten levelbereichen verzichtet werden da mmn beides gleichzeitig nicht zu bewerkstelligen ist.

hier ist der pci-e bus der flaschenhals... irgendwann wird die bandbreite ausschließlich für grafik gebraucht... und dann schlägt die stunde der ppu´s (auf welche ich aus selbem grund schon vorher setzen würde)

(nebenbei schafft das auch nicht jede graka... (diese shader hat nicht jede...) also auch hier ist noch 1-2 jahre zu warten bis solche karten verschwunden sind bis sich sowas generell (als alleinstehende lösung ohne extra sw-phy-engine) durchsetzen könnte.

#44
2006-03-21, 14:09:05
der obige beitrag war von mir... hab vergessen das reinzuschreiben

und natürlich meinte ich auch das die cpu zeit für alle anderen sachen verfügbar ist nicht ausschließlich die ki... nicht das da jmd was durcheinander bringt

Higans
2006-03-21, 14:14:25
Framerate steigern? nein!

Aber selbstverständlich, dann schau dir dochmal die Ageia Demo an. Dort kann man sehen wie die Framerate aufgrund der Software Beschleunigung in den Keller geht, mit einer entsprechenden Hardwarebeschleunigung hättest du mit Sicherheit deutlich höhere Frameraten.
Und zu deiner Logik, also Entlastung der CPU, was ja auch richtig ist, wird die CPU die 3D Leistung weniger ausbremsen, also mehr FPS.

#44
2006-03-21, 14:20:38
Aber selbstverständlich, dann schau dir dochmal die Ageia Demo an. Dort kann man sehen wie die Framerate aufgrund der Software Beschleunigung in den Keller geht, mit einer entsprechenden Hardwarebeschleunigung hättest du mit Sicherheit deutlich höhere Frameraten.
Und zu deiner Logik, also Entlastung der CPU, was ja auch richtig ist, wird die CPU die 3D Leistung weniger ausbremsen, also mehr FPS.

JEIN also hmmm stimmt schon ^^ aber man sollte nicht annehmen das in einem top system die framerate steigt nur weil ein pps drinne ist... der sorgt nur dafür das die physik besser aussieht(stichwort physik-detailstufe) (das wollte ich eigentlich sagen)

Monger
2006-03-21, 14:23:58
Beispiel:
Ein Auto wird durch runterwerfen von einem Haus geschrottet.
Bei der Non-PPU-Version wirst du es höchstens so haben, das im besten Falle das Auto-Grundmodell realistisch auf den Grund aufschlägt und reagiert.
Das zerbersten des Glases, das Rausfallen der Türen usw. sind dann rein gescriptet.

Mit PPU ist auch das zerberstende Glas pyhsikalische Korrekt und die Türen fallen nicht nur Korrekt aus dem Auto, sondern verhalten sich auch nach dem Rausfallen weiterhin korrekt.

Deine Bezeichnung von "geskriptet" ist irreführend. In aktuellen Softwareimplementierungen wird selbstverständlich für jeden Partikel eine Kollisionsabfrage durchgeführt. Diese Kollisionsabfrage ist natürlich extrem simpel, und beschränkt sich in aller Regel auf "sobald du den Boden berührst, bleib liegen!"
Es ist ein rein gradueller Unterschied. Ob es jetzt wirklich besser aussieht, wenn hunderte von kleinen Glasscherben mit komplexen Hitboxes in ihren Kollisionen berechnet werden, kann ich nicht beurteilen. Das sind imho Effekte, die man in einem normalen Spielablauf mit der Lupe suchen müsste um sie zu finden.


Nur um das klarzustellen: ich halte die Idee, Physik über spezielle Hardware zu beschleunigen für eine tolle Idee. Ich bin mir nur ziemlich sicher, dass Ageia scheitern wird.

ShadowXX
2006-03-21, 14:54:36
Deine Bezeichnung von "geskriptet" ist irreführend. In aktuellen Softwareimplementierungen wird selbstverständlich für jeden Partikel eine Kollisionsabfrage durchgeführt. Diese Kollisionsabfrage ist natürlich extrem simpel, und beschränkt sich in aller Regel auf "sobald du den Boden berührst, bleib liegen!"
Es ist ein rein gradueller Unterschied. Ob es jetzt wirklich besser aussieht, wenn hunderte von kleinen Glasscherben mit komplexen Hitboxes in ihren Kollisionen berechnet werden, kann ich nicht beurteilen. Das sind imho Effekte, die man in einem normalen Spielablauf mit der Lupe suchen müsste um sie zu finden.


Das kommt wohl auch auf die Implementierungs an....und selbst das, was du da beschreibst, würde ich als "gescripted" bezeichnen.

Huhamamba
2006-03-21, 18:34:58
ja das mit der pseudo physik in b&w(1 <-- davon sprach ich sogar nur) ist mir bewusst... aber ich verdeutliche nur das sich da die nächsten 2 jahre (ist mal so meine vermutung) mmn noch keine große fortschritte zeigen werden, und bis dahin bin ich noch der meinung das man das nicht braucht... erst wenn das erste spiel mit der physX engine sich nicht mehr von meinem cpu in niedrigen (physik)details darstellen lässt werde ich zu greifen

Dies wird niemals so eintreffen, dass eine CPU des oberen Leistungssegment die Physik in einem Spiel nicht meistern kann, solange noch keine PPU auf den Markt ist. Erst muss die Hardware draußen sein, dann kann auch die Software mitziehen...
Es wird langsam Zeit, dass Ageia die PPU endlich rausbringt, damit die Sache ins Rollen kommt!

Bis sich das aber wirklich durchgesetzt hat und vom Markt nicht mehr wegzudenken ist wird's freilich einige Zeit dauern, zuerst kaufen sich die PPU wie immer nur die Freaks. Ich erwarte für den Anfang auch nicht mehr, als dass die Spiele-Devs nur dezente Experimente mit der PPU wagen - wie z.B. dass die Framerate aufgrund der (nun auch echten) Spielphysik keine Einbußen mehr nimmt. Aber vorerst wird die neue Hardware nur optional sein, damit die natürlich sehr viel stärker verbreitete (MC)-CPU da noch mitkommt und man für sein Spiel eine möglichst große potentielle Käuferschicht ansprechen kann. Die ersten 6 bis 12 Monate nach Markteinführung sehen wir meiner Einschätzung nach nur die selben, wenigen interaktiven Objekte, wie wenn es die PPU gar nicht geben würde, nur mit glaubwürdigerer Physik und besserer Performance.
DANN aber wird's interessant, wenn das Ding - einer verheißungsvollen PR-Kampagne sei dank - nach und nach immer mehr Akzeptanz und Kaufbereitschaft bei den Leuten erfährt und die ersten Entwickler gezielt auf die Fähigkeiten der PPU eingehen und diese gar vorraussetzen. DANN wird die Spielphysik auch großflächig eingesetzt und als neumodisches Gameplayelement integriert und das Spielerlebnis möglicherweise immens bereichern (HL² hat schon den richtigen Schritt in diese Richtung getan).


Und man wird sich fragen, wie man nur jemals ohne so ein Ding überhaupt ausgekommen ist. :wink:

Nightspider
2006-03-21, 19:40:55
Mal eine ganz andere Frage:

Sollte "Bet on Soldier" nicht auch die Unsterstützung der PPU besitzen? Oder irre ich mich da? Also ich denke ich habe Recht aber was wäre in dem Spiel dann das Feature? Ich glaub man konnte in diesem Spiel die Rüstungen "pysikalischer" herunter schießen oder? :confused:

Gast
2006-03-22, 13:15:41
Wann ist denn nun Veröffentlichung, ich will das Teil mal in Action sehen.
Das wird doch immer wieder weiter verschoben.

Bye

Gast
2006-03-22, 20:02:35
Juhuuuuuuuuuu
http://www.winfuture.de/news,24633.html

Nightspider
2006-03-22, 21:34:20
Nein sie kommt noch nicht jetzt...erst ab Mai kommen die ersten Komplettsysteme...

http://www.k-hardware.de/news.php?s=c&news_id=5076

*schon freu*

Wenn ich schon wegen der Vista Verschiebung sauer bin, kann ich mich wenigstens auf die PPU und die damit verbundenen Physik Spielereien freuen :D

up¦²
2006-03-22, 21:35:18
Dann scheint dies eins der ersten spiele zu sein:
Jedenfalls prunkt da unten ein banner von
http://www.cityofvillains.com/images/logos/physx_logo.gif

http://www.cityofvillains.com/ :smile:

aylano
2006-03-22, 21:45:37
http://www.golem.de/0603/44197.html

Einzelne Steckkarten kommen im Mai 2006 in den Handel

Während Havok-Partner Nvidia versucht mit eigenen Ankündigungen Ageias "PhysX" getauftem Physikberechnungs-Chip etwas das Wasser abzugraben, wurden nun erste PhysX-bestückte Spiele-PCs als lieferbar angekündigt. Bis bestehende Systeme mit PhysX-Steckkarten aufgerüstet werden können, müssen interessierte Spielefans aber noch warten.

MuLuNGuS
2006-03-23, 08:28:33
nur der preis...der preis... :-/


das ding muß für ca. 150€ raus...so wird das doch nix....

Raff
2006-03-23, 11:43:42
300 US-Dollar. :| Geht's noch? Wenn man eine Technik durchdrücken will, die dank Dual-Cores eigentlich keine Sau zwingend braucht, dann sollte man sich schon mal darüber Gedanken machen, zu welchem Preis. Für den Betrag bekommt man eine deutlich sinnvollere 7900 GT ...

*aus dem Titel-a ein "e" macht*

MfG,
Raff

Coda
2006-03-23, 12:20:58
die dank Dual-Cores eigentlich keine Sau zwingend brauchtIch glaube kaum dass eine CPU selbst mit Dual Core an die Rechenleistung ranreicht.

Wenn sie sich nicht einem Vorteil bewusst wären würden sie sowas nicht auf den Markt schmeißen.

svenw
2006-03-23, 12:22:49
Den Chip wird man eh nie brauchen. Die Physik die man "braucht" wird immer auf der CPU berechnet werden. Allerdings das "Physik AA/AF" wird es wohl nur mit Chip geben. whende Haare und Mäntel, realistisches Wasser etc sind alles Effekte die unter "nice to have" fallen aber für Grafik enthusiasten durchaus auch ein "must have" sein können.

Das bei dem Preis allerdings keine schnelle Marktdurchdringung passieren wird sollte klar sein.

Raff
2006-03-23, 12:24:21
Klar ist die Leistung nicht gleichwertig. Aber mal im Ernst: Wer braucht 65687 physikalisch korrekt agierende Objekte gleichzeitig? Solange Spielwelten nicht annähernd zerstörbar sind, ist das Blödsinn. Für heutige Physikaufgaben reicht selbst ein Single-Core.

Sollte Ageia mit dem PhysX-Spaß allerdings dafür sorgen, dass ein gutes Spiel erscheint, dessen Umgebung physikalisch korrekt mit explosivem Material zerstörbar ist, dann sehe ich gleich mehr Sinn darin.

Ich frage mich nur immer wieder, warum man der zentralen Recheneinheit, dem ehemals wichtigsten Part im PC, so langsam alles abnimmt. T&L ist weg, nun auch die noch recht neue Physikberechnung. Und jetzt? Für was braucht man dann immer schnellere CPUs? Klar ist das stark vereinfacht und die CPU muss noch viel rechnen ... aber es werden insgesamt stets weniger Aufgaben (natürlich bei mehr Aufwand durch bessere Grafik) ... :|

MfG,
Raff

Higans
2006-03-23, 12:33:04
Ich frage mich nur immer wieder, warum man der zentralen Recheneinheit, dem ehemals wichtigsten Part im PC, so langsam alles abnimmt. T&L ist weg, nun auch die noch recht neue Physikberechnung. Und jetzt? Für was braucht man dann immer schnellere CPUs? Klar ist das stark vereinfacht und die CPU muss noch viel rechnen ... aber es werden insgesamt stets weniger Aufgaben (natürlich bei mehr Aufwand durch bessere Grafik) ...

Weil eine Hardwarebeschleunigung immer um ein vielfaches effektiver ist, als eine Softwarebeschleunigung die von der CPU übernommen wird.
Ageia Physx wird ja auch von Dualcore beschleunigt, dass kann man gut am 3d06 erkennen, ich hab mit einem gleich schnell getakteten Dualcore Prozessor fast die doppelten CPU Scores wie mit einem Singlecore, genau Faktor 1,8. Eine Hardwarebeschleunigung würde aber den Faktor 40 bringen.

Und wie gesagt, geht es auch bei einer Physikbeschleunigung in erster Linie darum, dass die Systemleistung gesteigert wird, denn die Systemleistung ist auch heute noch ein limitierender Faktor, was sich auch in den nächsten Jahren nicht ändern wird.

Raff
2006-03-23, 12:46:02
Richtig – aber wer braucht die 40-fache Leistung? Man kann natürlich extra verschwenderisch programmieren, um diese auszunutzen (so AFAIK geschehen im 3DQuark06). Oder aber man bringt einen Quantensprung – das wäre das von mir erwähnte Spiel. Solange Physik allerdings so "unbedeutend" bleibt wie heute, gibt es keinen Markt. Ups, Henne-Ei-Problem. ;) Aber bei dem Preis klärt sich das wohl von selbst ...

MfG,
Raff

Higans
2006-03-23, 12:49:12
Naja gut, ich komme aus der Motosportsimulationsecke, und da ziehen die komplexen Physikengines auf Softwarebasis die 3DLeistung schon jetzt gehörig in den Keller, da nützen dann auch die schnellsten Grafikkarten nix mehr.
Und der Trend von echten Physics auch bei 3D Shootern ist ja auch unverkennbar. In der Vergangenheit ist eben nur drauf verzichtet wurden, weil A: kompliziert zu programmieren und B: zu wenig CPU Power.
Punkt A wird sich ändern mit einer Physikschnittstelle, da ist Ageia Physx der Anfang, wird später von DirectPhysicx abgelöst werden.
Punkt B wird sich ändern, wenn sich mit einer Hardwarebeschleunigung die 3DPerformance steigern lässt, dann finden entsprechende Chips ganz schnell den Weg auf Grafikkarten.

Gast
2006-03-23, 13:08:31
Das die PPU vorrangig für Spiele gesehen wird ist klar, aber wie sieht es mit anderer Nutzung aus? Wie man an www.gpgpu.org sehen kann, kann eine Grafikkarte auch für mehr als nur Grafik "missbraucht" werden.

Ich dachte an so Sachen wie zB SETI oder F@H und andere Projekte.

Rehhirsch
2006-03-23, 15:30:03
Die Karte steckt übrigens auch in dem neuen Dell HIGH END PC der nur in den USA zwischen dem 10.04. und 16.04. in begrenzten Stückzahlen verkauft werden soll...

Link : http://www.dell.com/html/us/products/renegade/renegade.html

Wie soll das also gehen? Bekommen die Leutz die knapp 10000 Dollar für nen PC ausgeben die Karte früher?!?

MfG Reh

Gast
2006-03-23, 15:37:20
Aber mal im Ernst: Wer braucht 65687 physikalisch korrekt agierende Objekte gleichzeitig? Solange Spielwelten nicht annähernd zerstörbar sind, ist das Blödsinn. Für heutige Physikaufgaben reicht selbst ein Single-Core.

Man nehme ein Glas voll mit Wasser und schütte dieses auf eine plane Fläche (braucht nichtmal eine Spiegelfläche mit aufwendiger Beleuchtung sein) aus.
Sollte der Wassfluß halbwegs realistisch sein, bist mit 65k Objekten schon gut dabei. Wenn im Hintergrund dann noch irgendwas effektvoll und physikalisch korrekt explodieren soll und vll als Spiegelung im ausgeschüttedem Wasser zu sehen sein, wirds schon eng. Der Phantasie sind keine Grenzen gesetzt.

Ich erinnere mal an "Terminator 2" als der t-1000 aus Flüssigmetall zu Eis erstarrte und dann in winzigste Eispartikel zerbarst, nachdem eine Pistolenkugel auf ihn abgefeuert wurde und anschließend sich langsam auftauend wieder zusammensetze. Völlig unkomprimiert und mit hoher Dreiecksdichte wird das die Karte schon genug fordern.

Neu Technik ist immer anfangs teuer, aber wenn alle abwbwarten und keiner kauft, wirds nix mit der Marktdurchdringung und damit billigen Preis. Auch hier kann man aus alten Tagen lernen: Creative Sounblaster 2.0 (konnte 16bit Stereo) kostete 500 DM zur Einführung und ich kaufte sie trotzdem, denn das PC-Speaker Gedudel ging mir auf den Keks. Andere haben anscheinend weitere 3 Jahre ihre Ohren nicht ausgeputzt und konnten das Gepfeife ertragen.

Ich freue mich auf diese neue Innovation und was Havok mit NVidea da zusammenbastelt ist totaler Blödsinn. Die Grafikkarten sind jetzt schon bei einer Auflösung von 1600x1200 oder 1920x1200 total am Limit und dann noch Physik mit Shadereinheiten??!!

Monger
2006-03-23, 16:29:27
Ich erinnere mal an "Terminator 2" als der t-1000 aus Flüssigmetall zu Eis erstarrte und dann in winzigste Eispartikel zerbarst, nachdem eine Pistolenkugel auf ihn abgefeuert wurde und anschließend sich langsam auftauend wieder zusammensetze. Völlig unkomprimiert und mit hoher Dreiecksdichte wird das die Karte schon genug fordern.

Das ist genau der Punkt: solche Manipulationen in der Geometrie sind momentan grafisch noch gar nicht möglich. Man kann es berechnen, aber nicht darstellen. Das wird erst mit den Geometry Shadern in Direct3D 10 gehen...

Ansonsten kann man Flüssigkeiten (Wasserfälle etc.) recht gut mit Sprites animieren, und da reichen einige dutzend bis wenige hundert. Ich hab das mal im Unreal Editor ausprobiert: der Unterschied zwischen einem Wasserstrom aus wenigen dutzend Partikeln zu mehreren tausend ist nicht mehr sichtbar. Man sieht schon lange vorher einen durchgehenden Strom, nur die Rechenlast steigt spürbar an...

Jetzt ist die alte Unreal Engine natürlich nicht gerade das technische nonplusultra. Aber die Frage ist berechtigt: wenn ich keine zerstörbaren Einheiten habe und nur clientseitige Effekte berechnen kann, wo bleibt der fundamentale Vorteil meiner Physikkarte?

Hansea7
2006-03-23, 20:12:25
300 Dollar für eine Karte? :|

Ich hab da eher mit 100€ gerechnet, weil es ja nur eine Zusatzkarte ist, bei dir man nur in den unterstützten Spielen die Vorteile ausnutzen kann...

Hoffentlich gibt es noch eine SE/LE Karte! ;D

Gast
2006-03-23, 20:45:39
Hoffentlich gibt es noch eine SE/LE Karte! ;D

Hoffentlich verschwindet dieser mist so schnell vom Markt, wie er gekommen ist. Das wäre das einzig sinnvolle.

Im Homeuserbereich würde sich sowas nie durchsetzen können, wenn es nur als PCI-Karte erhältlich ist.

Denn die Entwickler von kommerziellen Anwendungen und Games interessieren sich nur für die Masse. Damit sie überhaupt mal darüber nachdenken würden, sowas einzusetzen, braucht es erstmal breitflächigen Hardwaresupport und der ist nicht gegeben. Was meinst du, wie lange es dauern würde, weltweit Rechner damit auszustatten... Jahre, Jahrzehnte...

Es wäre viel sinnvoller, Multi-GPU zu verbauen als sowas.

hofmetzger
2006-03-23, 21:41:00
Ich bin mir sicher die 300$ sind an die "early Adopters" gerichtet, die die Entwicklungskosten begleichen sollen. So Menschen, die sich eben einen dieser Dells kaufen.

Eigentlich war ich auch immer gegen diese Dezentralisierung im PC. Aber wenn wir uns überlegen, welch teure Monster-CPU wir bräuchten, wenn wir immer noch ohne 3D-Karte zocken würden... unbezahlbar! :eek:

Dann lieber "The right tool for the right job". Und wenns die Teile in 2 Jahren noch gibt, kosten sie vielleicht wirklich nur noch 100 €.

Gast
2006-03-23, 22:44:44
Ich bin für diese Innovation offen, doch allerdings nicht bereit 300€ dafür zu bezahlen.Ich erhoffe mir von dieser technischen Neuerung-gesetzt den Fall,dass Spieleentwickler sie konsequent nutzen- endlich wieder innovative Spieleideen zu sehen. So kann es wirklich nicht weitergehen.

Gast
2006-03-24, 00:12:02
Ich denke, wirklich innovativ kann durch diese Physikkarte nichts werden.
Höchstens, dass man, z.B. in Shootern, mehr Sachen kaputtmachen kann.

Was sollte sich durch eine zusätzliche Physikkarte groß ändern? Die CPU hat nur mehr Zeit, andere Sachen zu berechnen, z.B. die KI und den Onboardsound, da der ja oft genutzt wird.

TITAN>Steel
2006-03-24, 05:40:33
Eigentlich war ich auch immer gegen diese Dezentralisierung im PC. Aber wenn wir uns überlegen, welch teure Monster-CPU wir bräuchten, wenn wir immer noch ohne 3D-Karte zocken würden... unbezahlbar! :eek:

Ich glaube, wenn es so wäre, dann hätten wir eine andere CPU Architektur, die nicht mehr x86 Kompatibel wäre, die irgendwann sowieso auf uns zukommt, weil die Firmen irgendwann keine kleineren Fertigungstechniken mehr realisieren können oder kein alternativ - Material zu Silizium finden. Es ist ja heute schon so, das die Leiterbahnen übereinander liegen und nur noch ein Moleküldurchmesser dick und Breit sind.

Was Ageias PhysX PPU angeht, den würde ich eher nehemen, als meiner GraKa einen "Rechenmehraufwand" zuzumuten, was vermutlich empfindlich auf die fps geht. Ich hoffe die karte kommt auch als PCI-Express 1x Raus, habe nämlich kein PCI mehr frei.

Da war doch was, von dem man garnichts mehr hört: T&L (Transform & Lightning) war das nicht sowas, haben das die neuen Karten etwa nicht mehr, denn eingeführt wurde es mit der "UrGeforce" GeForce256... Raff hatte es weiter oben im Text erwehnt...na,na da wird doch nicht ein altes feature für neu verkauft?

mfg TITANsteel

Mr.Magic
2006-03-24, 08:43:13
Heutige Grafikkarten übernehmen wesentlich mehr Aufgaben als Transform & Lighting (übrigens Beleuchtung nicht Beblitzung ;)). Aber das soll bei Bedarf einer der 3D-Gurus, die solche Informationen aus dem Stehgreif rezitieren können, genau erklären.

mapel110
2006-03-24, 11:10:27
http://www.computerbase.de/news/hardware/multimedia/2006/maerz/physx-karten_mai_handel/
Aktuell bekannte Spiele mit PhysX-Unterstützung
Tom Clancy's Ghost Recon Advanced Warfighter (GRIN)
Rise of Nations: Rise of Legends (Big Huge Games)
Bet on Soldier: Blood Sport (Kylotonn Entertainment)
CellFactor (Artificial Studios)
City of Villains (Cryptic Studios)
Gunship Apocalypse (FAKT Software)
Unreal Tournament 2007 (Epic Games)
Sacred II (ASCARON)
Loki (Cyanide)
Dogtag (DiezelPower Studios)
Fallen Earth (Icarus Studios)
Crazy Machines 2 (FAKT Software)
Arena Online (Game Consulting)
Infernal (Metropolis Software)
Warhammer MMORPG (Mythic Entertainment)
Eye of the Storm (Yager Development GmbH)
KARMA (Quantic Dream)
Vanguard: Saga of Heroes (Sigil Games)
Alpha Prime (Black Element Software)

Simon
2006-03-24, 11:19:21
Ob man das Ding in einen Server packen könnte und damit die CPU entlasten? Also die PPU macht dann den ganzen Collision Detection And Response Kram und die CPU könnte z.B. AI machen =)
Das dürfte zu einer ziemlichen Entlastung der CPU führen... Was meint ihr?

Mhm, da gibts sicherlich einen Haken... nur find ich den gerade nicht... ich hätte vll. nicht die ganze Nacht Oblivion spielen sollen ;D

Gast
2006-03-24, 11:45:09
Da war doch was, von dem man garnichts mehr hört: T&L (Transform & Lightning) war das nicht sowas, haben das die neuen Karten etwa nicht mehr, denn eingeführt wurde es mit der "UrGeforce" GeForce256... Raff hatte es weiter oben im Text erwehnt...na,na da wird doch nicht ein altes feature für neu verkauft?



T&L wird jetzt schon ziemlich lange mit der grafikkarte gemacht, nämlich in den vertex-shadern ;)

sioux
2006-03-24, 11:51:24
hier sind paar videos ,falls noch nicht bekannt sein soll.


videos (http://media.gear.ign.com/articles/697/697450/vids_1.html)

svenw
2006-03-24, 11:55:50
Ich denke, wirklich innovativ kann durch diese Physikkarte nichts werden.
Höchstens, dass man, z.B. in Shootern, mehr Sachen kaputtmachen kann.

Was sollte sich durch eine zusätzliche Physikkarte groß ändern? Die CPU hat nur mehr Zeit, andere Sachen zu berechnen, z.B. die KI und den Onboardsound, da der ja oft genutzt wird.
bis vor kurzem hat sich doch noch keiner richtig Gedanken gemacht, was man mit so einer Karte alles anstellen kann. Eine CPU wäre für die Probleme wofür die PPU die Lösung ist in jedem Fall zu schwach. Was meint ihr wohl, warum aus Oblivion die angedachten wehenden Mäntel und Haare rausgeflogen sind? Es war einfach mit der bisherigen Technik nicht machbar.

Die PPU ist ein Quantensprung in der Physikdarstellung. Havok und Co können einige Objekte korrekt darstellen, aber nun laß mal unseren Helden vor einem Laubbaum im Wind stehen und nun versuch das mal realistisch darzustellen. Da macht jeder normale Computer die Grätsche. Die PPU ist Physik AA/AF. Es geht auch ohne sieht aber mit viel schöner aus.

Gast
2006-03-24, 12:08:08
Die PPU ist ein Quantensprung in der Physikdarstellung. Havok und Co können einige Objekte korrekt darstellen, aber nun laß mal unseren Helden vor einem Laubbaum im Wind stehen und nun versuch das mal realistisch darzustellen. Da macht jeder normale Computer die Grätsche. Die PPU ist Physik AA/AF. Es geht auch ohne sieht aber mit viel schöner aus.

einige crysis-videos haben schon ähnliches gezeigt, und das ohne PPU.

wenn dort ein söldner an einer palme entlang geht schmiegt sich das blatt physikalisch korrekt um seinen körper, ganz ohne PPU.

Gast
2006-03-24, 12:19:11
Hoffentlich verschwindet dieser mist so schnell vom Markt, wie er gekommen ist. Das wäre das einzig sinnvolle.

Im Homeuserbereich würde sich sowas nie durchsetzen können, wenn es nur als PCI-Karte erhältlich ist.

Denn die Entwickler von kommerziellen Anwendungen und Games interessieren sich nur für die Masse. Damit sie überhaupt mal darüber nachdenken würden, sowas einzusetzen, braucht es erstmal breitflächigen Hardwaresupport und der ist nicht gegeben. Was meinst du, wie lange es dauern würde, weltweit Rechner damit auszustatten... Jahre, Jahrzehnte...

Es wäre viel sinnvoller, Multi-GPU zu verbauen als sowas.

Multi-GPU gibt es doch schon lange. Recht dir die Leistung von einer Grafikkarte nicht mehr kannst du entweder aufrüsten oder auf DSLI setzen, demnächst sogar QSLI. Dumm nur das PCIe dafür erforderlich ist. Was meinst du, wie lange es dauern würde, weltweit Rechner damit auszustatten... Jahre, Jahrzehnte...

Seit wieviel Jahren gibt es mindestens HTT und mittlerweile DC in Desktop CPUs? Oder 64bit? Ist da gross was passiert wo die Entwickler für die Massen zumindest im Spielebereich wirklich einen fetten Vorteil herausarbeiten konnten? Nicht wirklich. Die hochgepriesenen Vorteil von PCIe und der schnellen Verbreitung waren auch nur ein Wunschtraum. Was gibt es denn bis jetzt schon gross an PCIe Karten ausser Grafik? Controller ja, aber für die Massen ist das auch nichts.

SM2.x, SM3 haben sich auch nicht über Nacht weltweit verbreitet. Würde man SM2.x oder SM3 voll ausnutzen, könntest du jede Grafikkarte mit Leichtigkeit, egal ob Single, SLI oder CF in die Knie zwingen.

Du brauchst dir die PPU ja nicht zu kaufen. Warum soetwas nicht mal eine Chance geben? Stellt sich das Dingen als richtig schlecht heraus wird es sowieso vom Markt verschwinden. Ist es gut, dann wird es sich durchsetzen und selbst dann hast du immer noch die Möglichkeit es nicht zu kaufen. Innovationen, egal wie sinnig oder unsinnig, gleich von vornherein abzulehnen ist Quatsch, da wären wir ja immer noch in der Steinzeit.

tokugawa
2006-03-24, 13:20:08
bis vor kurzem hat sich doch noch keiner richtig Gedanken gemacht, was man mit so einer Karte alles anstellen kann. Eine CPU wäre für die Probleme wofür die PPU die Lösung ist in jedem Fall zu schwach. Was meint ihr wohl, warum aus Oblivion die angedachten wehenden Mäntel und Haare rausgeflogen sind? Es war einfach mit der bisherigen Technik nicht machbar.

Die PPU ist ein Quantensprung in der Physikdarstellung. Havok und Co können einige Objekte korrekt darstellen, aber nun laß mal unseren Helden vor einem Laubbaum im Wind stehen und nun versuch das mal realistisch darzustellen. Da macht jeder normale Computer die Grätsche. Die PPU ist Physik AA/AF. Es geht auch ohne sieht aber mit viel schöner aus.


Naja. Mit der PPU gehen nur sehr primitive Sachen, die dafür in Massen.

Wirkliche Qualität (Stoffsimulation, Flüssigkeitssimulation, Federndynamik) schaffst du nur mit der Software-Implementierung von PhysX, weil die PPU das einfach nicht kann.

Also derzeit: CPU = Qualität, PPU = Quantität.


Übrigens nachlesbar im Ageia PhysX SDK.

Pappy
2006-03-24, 13:23:18
Ich sehe da kein Muss diese Karte zu kaufen. Wer keine Karte hat, der stellt halt die Physikdetails runter und fertig. Das Fehlen einer solchen Karte tut der Spielbarkeit sicher keinen Abbruch. Meine Prioritäten gehen da nach wie vor eher in Richtung CPU/ GPU und RAM.

Coda
2006-03-24, 13:30:10
Ich glaube, wenn es so wäre, dann hätten wir eine andere CPU Architektur, die nicht mehr x86 Kompatibel wäre, die irgendwann sowieso auf uns zukommt, weil die Firmen irgendwann keine kleineren Fertigungstechniken mehr realisieren können oder kein alternativ - Material zu Silizium finden. Es ist ja heute schon so, das die Leiterbahnen übereinander liegen und nur noch ein Moleküldurchmesser dick und Breit sind.x86 limitiert eine general purpose CPU in keinster Weise. Der Transistoraufwand ist nur etwas höher, was bei den derzeitigen Logikdichten nicht mehr großartig interessiert.

was vermutlich empfindlich auf die fps geht.Eher nicht.

Da war doch was, von dem man garnichts mehr hört: T&L (Transform & Lightning) war das nicht sowas, haben das die neuen Karten etwa nicht mehr, denn eingeführt wurde es mit der "UrGeforce" GeForce256... Raff hatte es weiter oben im Text erwehnt...na,na da wird doch nicht ein altes feature für neu verkauft?T&L wurde durch die Vertexshader ersetzt, die sehr viel mächtiger sind.

RLZ
2006-03-24, 15:02:34
Wirkliche Qualität (Stoffsimulation, Flüssigkeitssimulation, Federndynamik) schaffst du nur mit der Software-Implementierung von PhysX, weil die PPU das einfach nicht kann.
Mit der neusten SDK sind nun auch Joints mit Hardwarebeschleunigung verfügbar. Das macht Hoffnung auf zusätzliche Erweiterungen. :)

HisN
2006-03-24, 15:25:05
Tja.. wer top-Leistung möchte muss auch Top-Preise zahlen. Und die Leute die das machen wird es immer geben.

Ich gehöre dazu, sobald ich rausgefunden habe wie ich nen PCI-Slot frei bekomme kaufe ich mir die Karte. Ich mag Eye-Candy.

Es kommt wohl wirklich drauf an was man mit seiner Kiste macht. Es gibt halt Online-Gamer die auf die Effekte verzichten können weil sie ihre Sicht behindern, oder Online-Raser die eine Strecke 30sec schneller schaffen weil dann keine Müll-Reste im Weg stehen.. aber ich für meinen Teil mag umherfliegende Trümmer in Massen.. für mich eine Bereicherung. Und ganz ehrlich.. meine beiden Grakas waren teurer als die PPU ... also was solls.. ich kurble die Wirtschaft an.
Es soll ja auch Leute geben die auf die Onboard-Soundkarte schwören .. das schafft die CPU auch noch nebenbei ... mich jedenfalls ärgert es wenn der Sound hängt weil ich gerade ein Browser-Fenster öffne oder verschiebe ... da geb ich doch lieber Kohle für ne Audigy aus.
Alex

Gast
2006-03-24, 15:27:16
Als externe Karte sehe ich keine große Erfolgschance. Selbst wenn der Preis nur 100$ hoch wäre, es sind immerhin 100$ die alle paar Jahre zusätzlich anfallen. Glaubt ja nicht, das so eine Karte ewig hält, denn irgendwann fehlt der Treibersupport oder die Schnittstelle verändert sich etc.

Damits überhaupt Sinn macht, müsste sowas breitflächig eingesetzt werden und am besten direkt auf Grafikchips oder Mainboards (?) verbaut werden.

Mir missfällt der Gedanke, das sich alles von einer Universal (CPU) zu einer Speziallösung hin entwickelt.

Slipknot79
2006-03-24, 15:30:33
http://www.computerbase.de/news/hardware/multimedia/2006/maerz/physx-karten_mai_handel/
Aktuell bekannte Spiele mit PhysX-Unterstützung



289€ will Alienware, dann können wir davon aussgehen dass die Karte für den Massenmarkt weit billiger sein wird^^

Spasstiger
2006-03-24, 16:04:08
289€ will Alienware
In Verbindung mit einem Rechner, oder? Dann denke ich nämlich, dass die Karte im Einzelhandel eher teurer sein wird.

Slipknot79
2006-03-24, 16:09:21
In Verbindung mit einem Rechner, oder? Dann denke ich nämlich, dass die Karte im Einzelhandel eher teurer sein wird.


So wie ich Alienwares Preispolitik beobachtet habe, sind die immer teurer. Auch bei diesen +XYZ€ Preisangaben für Zusatzfeatures. Schliesslich kostet ja der Ausbau und Einbau von Hardware auch etwas, und nach Alienware selbstverständlich in astronomischen Bereichen.

Gast
2006-03-24, 16:31:07
Als externe Karte sehe ich keine große Erfolgschance. Selbst wenn der Preis nur 100$ hoch wäre, es sind immerhin 100$ die alle paar Jahre zusätzlich anfallen. Glaubt ja nicht, das so eine Karte ewig hält, denn irgendwann fehlt der Treibersupport oder die Schnittstelle verändert sich etc.

Damits überhaupt Sinn macht, müsste sowas breitflächig eingesetzt werden und am besten direkt auf Grafikchips oder Mainboards (?) verbaut werden.

Mir missfällt der Gedanke, das sich alles von einer Universal (CPU) zu einer Speziallösung hin entwickelt.

Wenn du vernünftig spielen willst, musst du sowieso alle paar Jahre deinen Computer aufrüsten. Da dürfte der Wertverlust vor allem von Grafikkarten und Prozessoren deutlich höher ausfallen als von dieser Karte, vor allem wenn sie tatsächlich nur 100$ oder € kosten sollte.

Speziallösungen gab und gibt es immer bei Computern, heute fällt das nur nicht so auf weil schon vieles, was es früher nur als externe Karte gab, mittlerweile auf fast jedem Mainboard schon so dabei ist. Man muss aber auch sehen, dass Speziallösungen meistens eine deutliche bessere Qualität bieten als das, was einfach mitgeliefert wird, siehe vor allem Soundkarten. Grafikkarten sind auch nur Speziallösungen oder kann man mit integrierten Grafikchips in hohen Auflösungen mit allem Pipapofeatures aktiviert vernünftig spielen? Theoretisch braucht auch fast kein Mensch SATA oder schaffen Festplatten mittlerweile weit mehr als 100 oder 133MB/s? Brauchst du schon DC bei deinen Programmen? Bist du wirklich darauf angewiesen? Werden bei dir schon 64bit voll ausgenutzt? Kannst du die auf Mainboards viel beworbenen möglichen 4GB RAM nutzen?

Nebenbei wirst du auch irgendwann für 0815 Hardware entweder keine oder nur popelige Standardtreiber bekommen. Schon mal probiert mit einem Drucker oder Scanner der jahrelang gehalten und unter 98/ME wunderbar funktioniert hat, teilweise neue Treiber für 2K/XP zu bekommen?

Gast
2006-03-24, 19:14:38
Wenn du vernünftig spielen willst, musst du sowieso alle paar Jahre deinen Computer aufrüsten.

Klar, aber ich muss jetzt nicht alle paar Jahre einen hunderter Extra zahlen...

Da dürfte der Wertverlust vor allem von Grafikkarten und Prozessoren deutlich höher ausfallen als von dieser Karte, vor allem wenn sie tatsächlich nur 100$ oder € kosten sollte.

Der Wertverlust ist noch das geringste Problem. Die Karte wird irgendwann veraltet und zu langsam sein oder nicht mehr unterstützt werden... schon braucht man ne neue und setzt weitere Euros in den Sand. Darauf kann ich gerne verzichten, jetzt sind die Preise schon recht stabil und ich soll nochmal blechen um alles nutzen zu können? ... Nicht mit mir!

Außerdem ist da die Sache der Unterstützung. Im Gamermarkt wird nur das breitflächig unterstützt, was auch von den meisten Anwendern genutzt werden kann.
Nur welcher User, der sich beispielweise immer nur 200 Euro Grafikkarten kauft, investiert nochmal 100-300 Euro in eine PhysX Karte? ...

Neomi
2006-03-24, 20:47:12
Klar, aber ich muss jetzt nicht alle paar Jahre einen hunderter Extra zahlen...

Das mußt du auch in Zukunft nicht, niemand zwingt dich. Wenn du die PhysX-Karte nicht willst, dann kauf sie nicht, so einfach ist das. Wo genau ist dein Problem dabei?

Neomi
2006-03-24, 21:09:33
Als externe Karte sehe ich keine große Erfolgschance. Selbst wenn der Preis nur 100$ hoch wäre, es sind immerhin 100$ die alle paar Jahre zusätzlich anfallen. Glaubt ja nicht, das so eine Karte ewig hält, denn irgendwann fehlt der Treibersupport oder die Schnittstelle verändert sich etc.

Warum sollte die Karte so schnell veralten? Sicher, es wird irgendwann stärkere bzw. stromsparendere Modelle geben, für PCIe werden die Karten irgendwann auch kommen. Aber das heißt doch nicht, daß die Karte deshalb gleich unbrauchbar ist. Eine X1800 ist auch kein lahmer Elektroschrott, bloß weil es die X1900 gibt. Die PhysX-Karte wird erstmal recht lange halten. Solange es nicht absolut nötig ist, eine zu haben, ist es nichtmal ansatzweise nötig, eine noch stärkere zu haben. Und da Vista auch recht lange halten wird, ist der Treibersupport über diesen Zeitraum schonmal sichergestellt.

Damits überhaupt Sinn macht, müsste sowas breitflächig eingesetzt werden und am besten direkt auf Grafikchips oder Mainboards (?) verbaut werden.

Ja super. Dann muß man 100$ mehr für eine Kombikarte zahlen, um 100$ für eine weitere Einzelkarte zu "sparen". Und wenn dann die Grafikkarte oder das Mainboard aktualisiert wird, muß man den Extrapreis beim neuen Kombimodell wieder zahlen, obwohl die alte Physikhardware noch völlig gereicht hätte. Man verliert Flexibilität und zahlt drauf, wirklich ein toller Plan. Und was machen die Leute, die so ein Ding nicht brauchen? Die müssen es entweder trotzdem mitblechen oder sich Hardware raussuchen, die ohne PPU daherkommt. Dabei schrumpft dann die Auswahl, also auch keine gute Lösung.

Mir missfällt der Gedanke, das sich alles von einer Universal (CPU) zu einer Speziallösung hin entwickelt.

Das ist keine neue Entwicklung, sondern war schon immer so. Der PC ist nunmal modular aufgebaut. Jeder kann sich die Komponenten zusammenbauen, die er braucht. So ist es sogar bei Dingen, die wirklich jeder Rechner braucht, aber eben nicht in der gleichen Ausbaustufe. Die CPU ist nicht fest auf das Mainboard gelötet, der RAM ist es auch nicht, wäre auch ziemlich doof wenn es anders wäre. Warum also sollte eine Komponente, die nicht jeder braucht und die nichts mit den anderen Dingen zu tun hat, direkt verlötet werden?

PhysX ist eine optionale Erweiterung, optionale Erweiterungen gehören auf eine Steckkarte. Wer will, kann sich so eine dazustecken und wer nicht will, läßt es bleiben. Das ist ganz einfach die beste Lösung.

papachrischi
2006-03-25, 01:28:46
Ich habe mir gerade mal diesen Artikel rein gezogen:

http://www.hartware.de/news_39657.html

300 US Dollar? Haha sicherlich, das wird der Knaller. :D

Zukunftsweisende Technologie? Ja klar, deshalb setzt man auch auf den alten PCI Port anstsatt auf PCIe. Die Dinger werden nicht lange am Markt sein.

Ausserdem werden sich NVidia und Ati nicht die Butter vom Brot nehmen lassen und eigene Beschleuniger in zukünftige Cores integrieren.

Nightspider
2006-03-25, 01:42:54
papachrischi, ich will dir ja nich zu nahr treten...

...ABER wer keien Ahnung hat einfach mal d.....den Mund halten !

Nvidia und ATI können sowas gar nicht. Und schon gar nicht auf Grafikkarten integriert, höchstens mit minimaler Leistung...

Nur weil die Karten für PCI kommen ist die Technologie nicht veraltet !

Die meistern Mainboard haben noch Jahre PCI und wenn man sich einen neuen PC kauft, verkauft man seine PCI Karte und kauft sich eine PCI-X Karte, da sowieso noch genug normales PCI haben werden...
...oder man wartet gleich...

Also wenn du nix sinnvolles beizusteuern hast...

...außerdem wurde mittlerweile bestimmt "300 € :eek: "gesagt

Zudem sind solche Preise am Anfang normal...also spamt die Threads nicht immer sinnlos zu. Danke.

Slipknot79
2006-03-25, 01:46:51
Ich habe mir gerade mal diesen Artikel rein gezogen:

http://www.hartware.de/news_39657.html

300 US Dollar? Haha sicherlich, das wird der Knaller. :D

Zukunftsweisende Technologie? Ja klar, deshalb setzt man auch auf den alten PCI Port anstsatt auf PCIe. Die Dinger werden nicht lange am Markt sein.

Ausserdem werden sich NVidia und Ati nicht die Butter vom Brot nehmen lassen und eigene Beschleuniger in zukünftige Cores integrieren.


Nvidia und Havoc arbeiten schon zusammen. Was draus wird, werden wir sehen. Habe aber so meine Zweifel dass das was gscheites wird. Immerhin ist die GPU schon recht ausgelastet in manchen Spielen, und dann soll sie auch noch Physik bewältigen?!?!

Gast
2006-03-25, 01:52:49
Schade das es die Karte nicht von Anfang an auch auf PCIe geben wird...
Die Kombilösung auf dem Pic damals hätte mir gefallen. (PCI + PCIe)

Naja so kann man das selbe Ding 2x verkaufen

Coda
2006-03-25, 02:31:51
Es ist auch fast unmöglich eine Karte so zu bauen dass man sie zweiseitig benützen kann.

Das würde ja erfordern dass der Benutzer die Blende abschrauben kann - ich denke nicht dass das dem Support gefallen würde :tongue:

Immer ein bischen praktisch denken und nicht gleich ans böse im Menschen ;)

ilPatrino
2006-03-25, 03:55:15
Es ist auch fast unmöglich eine Karte so zu bauen dass man sie zweiseitig benützen kann.

Das würde ja erfordern dass der Benutzer die Blende abschrauben kann - ich denke nicht dass das dem Support gefallen würde :tongue:

Immer ein bischen praktisch denken und nicht gleich ans böse im Menschen ;)

wenn die karte keine anschlüsse nach draußen führen muß, geht das recht einfach. eine modifizierte slotblende wird einfach mit der karte zusammengesteckt und leicht eingerastet. reinschrauben - fertig.

BiG OnE
2006-03-25, 09:39:20
Moin, moin

sorry aber bei 300€ sehe ich keine Chanche für die Karte, bei 100€ wäre dat schon was.

Bis denne ...

Coda
2006-03-25, 13:14:50
reinschraubenEben das ist das Problem. Du glaubst ja gar nicht was Leute mit Schraubendrehern alles auf PCBs anrichten.

Gast
2006-03-25, 14:40:20
Eben das ist das Problem. Du glaubst ja gar nicht was Leute mit Schraubendrehern alles auf PCBs anrichten.

Hast schon recht.
So sollte man die Sache auch mal betrachten :)

Crazy_Bon
2006-03-25, 14:45:25
Es ist auch fast unmöglich eine Karte so zu bauen dass man sie zweiseitig benützen kann.

Das würde ja erfordern dass der Benutzer die Blende abschrauben kann - ich denke nicht dass das dem Support gefallen würde :tongue:

Immer ein bischen praktisch denken und nicht gleich ans böse im Menschen ;)
Unmöglich ist das nicht, es gab früher auch einen Hybrid aus einer PCI- und AGP-Grafikkarte.

aylano
2006-03-25, 16:16:06
Nur welcher User, der sich beispielweise immer nur 200 Euro Grafikkarten kauft, investiert nochmal 100-300 Euro in eine PhysX Karte? ...
Also, wer sich eine 200/300 Euro Grafikkarte kauft, wird sich wohl eine 100 Euro Karte leisten wollen/könne.

Und wer sich eine Geforce 7900 GTX oder ATI 1900 XTX gekauft hat, wird eher zu einer 300 Euro PPU karte greifen.

superdash
2006-03-25, 17:55:37
Hmm.. naja. Die Frage wird halt insgesamt sein, in wie weit die Karte von Spielen unterstützt wird und ob dann spiele schneller und "schöner" laufen. Gibt es nur eine Hand voll spiele, die von der Karte wirklich profitieren wird das wohl ein ziemlicher Rohrkripierer werden.

Vor allem ist auch Dualcore immer mehr im kommen. Das ist auch nicht gerade positiv für die Karte. Weil was könnte man denn auf einem zweiten Prozessor laufen lassen: Genau - Physikberechnungen.

Es ist wirklich fraglich ob so eine Karte je aus einem Nieschen Darsein herauskommt.

Wenn NV oder Ati noch einen extra chip für extra Geld (z.B. Geforce GTX mit Coprozessor für Physik *g*) mit auf Ihre Karten integrieren würden hätte da weit mehr Chancen. Die könnten das mit Sicherheit besser vermarkten. Wenn ein Markt dafür da wäre würden die großen das ganze produzieren.

MfG

Superdash

SentinelBorg
2006-03-25, 18:45:14
Imho eine Totgeburt. Extra Devices im PC setzen sich nur durch, wenn sie einen wirklich großen Mehrnutzen haben. Grafikkarten, naja nun gut, ohne Bild gehts halt nicht, beim Sound ebenso. Die Vorteile der teureren mit 3D-Sound/Grafik kann man direkt durch seine Sinne wahrnehmen. Grafik sehr deutlich, Sound je nach Situation fast ähnlich deutlich. Aber eine ordentliche Soundkarte kostet auch nicht mehr als 100€.
Die Voodoo 1 als Zusatzkarte hatte damals einen gigantischen Mehrwert für den Spieler. Selbst ein Halbblinder konnte die stark verbesserte Grafik noch von Metern weit weg sehen. Solch einen Aha-Effekt, wird es bei PhyX nicht geben:

a.) weil es keinen Effekt gibt, den die CPU nicht auch noch berechnen könnte (anders als z.B. bilineare Filterung, die Softwareseitig praktisch unmöglich ist)

b.) weil wir uns schon jetzt in Größenordnungen bei den Physikeffektobjekten befinden, dass eine Verzehnfachung z.B. nur wenig auffällt

c.) weil Physik ein integraler Teil des Gameplays ist und darum fast zu 100% auf das Game selbst bezogen wird. Bei Grafik dagegen, sind sich die meisten schon länger über die Korrelation von der Grafik zum Game UND zur Graka hin klar.

Und zu guter Letzt muss man sagen, dass 300€ einfach um Welten zu teuer ist. Selbst eine Voodoo 1 hat beim Release nicht 600 DM gekostet.

Sentinel

Coda
2006-03-25, 18:47:29
a.) weil es keinen Effekt gibt, den die CPU nicht auch noch berechnen könnte (anders als z.B. bilineare Filterung, die Softwareseitig praktisch unmöglich ist)10000 Rigid Bodies sind CPU-seitig genauso "unmöglich" wie bilineare Filterung.

b.) weil wir uns schon jetzt in Größenordnungen bei den Physikeffektobjekten befinden, dass eine Verzehnfachung z.B. nur wenig auffälltHm? Wo? Ich seh bisher nur sehr eingeschränkt Physik.

c.) weil Physik ein integraler Teil des Gameplays istStrömungsdynamik und Partikeleffekte müssen darauf z.B. keinen Einfluss haben.

Und zu guter Letzt muss man sagen, dass 300€ einfach um Welten zu teuer ist. Selbst eine Voodoo 1 hat beim Release nicht 600 DM gekostet.Naja 500 waren auch nicht viel weniger, vor allem wenn man die Inflation einrechnet.

Gast
2006-03-25, 18:49:49
a.) weil es keinen Effekt gibt, den die CPU nicht auch noch berechnen könnte (anders als z.B. bilineare Filterung, die Softwareseitig praktisch unmöglich ist)



auch bilineare filterung ist softwareseitig möglich.

es gibt glaub ich sogar einen software-renderer für D3D der ältere spiele in moderater auflösung mit bilinearem filter halbwegs flüssig darstellt (ich glaube sogar shader-effekte bis 1.3 werden dargestellt)

aths
2006-03-25, 18:55:26
a.) weil es keinen Effekt gibt, den die CPU nicht auch noch berechnen könnte (anders als z.B. bilineare Filterung, die Softwareseitig praktisch unmöglich ist)

b.) weil wir uns schon jetzt in Größenordnungen bei den Physikeffektobjekten befinden, dass eine Verzehnfachung z.B. nur wenig auffällt

c.) weil Physik ein integraler Teil des Gameplays ist und darum fast zu 100% auf das Game selbst bezogen wird. Bei Grafik dagegen, sind sich die meisten schon länger über die Korrelation von der Grafik zum Game UND zur Graka hin klar.a) Per Refrast kann die CPU auch DirectX9-SM3-Grafik berechnen. Dauert nur ziemlich lange, das sind Sekunden pro Frame. Schlanke und schnelle SW-Rasterizer können durchaus in Echtzeit bilinear filtern.

b) Hrm? Ein paar Kisten hin- und herzutreten ist bisher so ziemlich alles, was man in Spielen machen kann. Ziel ist eine komplett deformierbare Spielwelt, in dem alles mit allem reagieren kann. Das wird so durch eine PPU nicht von heute auf morgen möglich sein, aber jede Dual- und Quadcore-CPU überfordern. Zumal man die CPU damit zweckentfremden würde, die ist nunmal nicht dafür gedacht, riesige Mengen an stupiden Berechnungen durchzuführen.

c) Gewisse Effekt-Physik (schönere Explosionen etc.) geht auch mit SM3-Grafikkarten. Grafikkarten sind aber nach wie vor auf Pixelrendering spezialisiert. Eine durchdachte PPU könnte die CPU viel effektiver entlasten. Ich hätte gerne mal ein paar Eckdaten zum PhysX-Chip.

SentinelBorg
2006-03-25, 19:10:44
a.) Dass eine CPU letztendlich alles berechnen kann, wissen wir alle. Es geht um die praktische Umsetzbarkeit. Und die liegt meines Erachten im Unpraktischen Bereich.

b.) Alles ganz toll, aber dennoch bezweifel ich das sowas den Spielern soviel Geld wert sein würde. Ich beziehe mich da vor allem auf das "fallende Auto"-Beispiel von vor paar Seiten. Zudem muss das ja auch alles noch ins Game rein. 3D-Beschleunigung war damals recht einfach zu integrieren und hatte neben dem klaren Effekt der viel besseren Grafik ansonsten aber keine Nebenwirkungen. Eine solche Physik dagegen, ändert das Gameplay entscheidend. Umso interaktiver die Welt ist, umso schwerer wird es für den Gamedesigner die Spieler überhaupt noch auf einem Pfad zu halten. Dass muss er aber irgendwie, zumindest bei Games mit Story. Zudem muss die KI dann auch noch lernen mit dieser Umgebung klar zu kommen.

Sentinel

Coda
2006-03-25, 19:11:06
a) Per Refrast kann die CPU auch DirectX9-SM3-Grafik berechnen. Dauert nur ziemlich lange, das sind Sekunden pro Frame.Minuten passt eher ;)

a.) Dass eine CPU letztendlich alles berechnen kann, wissen wir alle. Es geht um die praktische Umsetzbarkeit. Und die liegt meines Erachten im Unpraktischen Bereich.Wie gesagt, mit Physik stößt man da auch ziemlich schnell an eine Grenze. Sieht man ja an Half-Life 2 wieviel CPU-Power das braucht.

3D-Beschleunigung war damals recht einfach zu integrierenWoher eigentlich dieses Insiderwissen?

Eine solche Physik dagegen, ändert das Gameplay entscheidend.Wie gesagt: Nein: Wettereffekte, Strömungsdynamik und Partikelzeugs brauchen das nicht tun.

[dzp]Viper
2006-03-25, 19:22:28
Hab ihr schon das Video von Cellfactor gesehen? Das erste mal, dass man diesen Chip in Aktion sieht.

Imho schon ein kleiner Meilenstein. Physikspielerein gabs in dieser Menge und in dieser Qualität noch nicht (mir sind da keine Bugs aufgefallen)

http://www.gameradio.de/indexnews.php?pn_go=details&id=0005153 (60MB)

SentinelBorg
2006-03-25, 19:26:47
Woher eigentlich dieses Insiderwissen?Wozu diese Frage?
Wie gesagt: Nein: Wettereffekte, Strömungsdynamik und Partikelzeugs brauchen das nicht tun.Alles drei Dinge, die zumeist mehr der Grafik als der Physik zugeschrieben werden und alles drei Dinge, die zumindest mir nicht soviel Geld wert wären, nur damit der Regentropfen nun physikalisch korrekt auf das Blatt am Baum trifft. Eine vereinfachte Darstellung tuts genauso. Die meisten Menschen können korrektes physikalisches Verhalten ja meist nichtmal selbst benennen, wenn man sie fragt. Umso unwahrscheinlicher ist, dass es ihnen großartig in einem Game auffallen würde.

Sentinel

Coda
2006-03-25, 19:30:44
Wozu diese Frage?Weil du Dinge als gegeben in den Raum stellst die du wahrscheinlich gar nicht so genau weißt.

Alles drei Dinge, die zumeist mehr der Grafik als der Physik zugeschrieben werdenVon der Kalkulation ganz klar alles Physik.

Eine vereinfachte Darstellung tuts genauso.Geht bei Flüssigkeiten leider nicht gut.

SentinelBorg
2006-03-25, 19:35:44
Weil du Dinge als gegeben in den Raum stellst die du wahrscheinlich gar nicht so genau weißt.
Also bist du der Meinung, dass 3D-Beschleunigung einst nicht relativ einfach im Vergleich zu Game-Physik integriert werden konnte?

Sentinel

just4FunTA
2006-03-25, 19:39:57
Was sagt ihr dazu ein Interview mit Gabe Newell von Valve. Komplettes Interview. (http://www.gameinformer.com/News/Story/200603/N06.0324.2249.59492.htm)


GI: I think you guys have one of the best physics setups in gaming, and with things like Aegia and what Havok is doing with NVidia, how will you implement that in Half-Life?

Newell: There are a couple of different issues going on there. With our physics, the player can collide with objects. This is a good thing. The stuff that is being shown by NVidia right now, the latencies are too high. Their physics is essentially to make prettier pictures. It’s like you can have a bunch of different things bouncing around so long as they don’t actually touch anything that matters. If you don’t actually have to read the data out – if your AI system ever needed to know about whether or not one of those objects had collided with something else it would run slower by running on the GPU than having it run on the main CPU. So physics that matter is different than physics that makes pretty pictures.

The presentation quality is fine. I think we went through a round of that with graphics acceleration. It wasn’t until it enabled different types of games, games that involve the game logic being able to ascertain the state of the physics system I think that that’s the really important long term direction from everybody. So having pretty explosions is cool, but you stop seeing it pretty quickly. You only see the stuff that actually matters. There’s still a lot of work to be able to figure out how to get an order of magnitude or two orders of magnitude improvement in that kind of physics. That’ll be a big challenge for everybody.

Coda
2006-03-25, 19:54:51
Also bist du der Meinung, dass 3D-Beschleunigung einst nicht relativ einfach im Vergleich zu Game-Physik integriert werden konnte?Eine 3D-Pipeline für einen Software-Renderer + Voodoo zu implementieren war sicher ähnlich aufwändig.

aylano
2006-03-25, 20:30:30
Vor allem ist auch Dualcore immer mehr im kommen. Das ist auch nicht gerade positiv für die Karte. Weil was könnte man denn auf einem zweiten Prozessor laufen lassen: Genau - Physikberechnungen.
Oder man hätte mit den zweiten Kern die GPU ersetzt. Komisch das man es nicht gemacht hat.

Wenn NV oder Ati noch einen extra chip für extra Geld (z.B. Geforce GTX mit Coprozessor für Physik *g*) mit auf Ihre Karten integrieren würden hätte da weit mehr Chancen. Die könnten das mit Sicherheit besser vermarkten. Wenn ein Markt dafür da wäre würden die großen das ganze produzieren.
Es könnte meiner Meinung nach schon so sein, dass es bei den High-End Grafikkarten eine PPU-Coprocessor gibt.
Ich bin gespannt, ob es wirklich so sein wird.

Hmm.. naja. Die Frage wird halt insgesamt sein, in wie weit die Karte von Spielen unterstützt wird und ob dann spiele schneller und "schöner" laufen. Gibt es nur eine Hand voll spiele, die von der Karte wirklich profitieren wird das wohl ein ziemlicher Rohrkripierer werden.
Dual Core wird auch schon kräftig gekauft, obwohl der nutzen noch nicht wirklich da ist.

Und zu guter Letzt muss man sagen, dass 300€ einfach um Welten zu teuer ist. Selbst eine Voodoo 1 hat beim Release nicht 600 DM gekostet.
"Es sind jetzt auch andere Zeiten."
Es gibt jetzt mehr Leute die jetzt mehr Geld für sowas ausgeben.

Ich kann mich erinnern, dass wie ich die Geforce256 gekauft hab, es die teuerste Karte um 300 Euro überhaupt war. Zumindestens im Geschäft, wo ich es gekauft hab. Und 1 (bis 2?) Jahre später gabs die teuersten Karten schon um 450 Euro.

Oder

Wie ich das Nodia 6150 Handy 1999 um 200 Euro gekauft (Mehr Wertkarte) hab, gabs damals kaum Leute, gabs zuerst kaum Leute die bei der Anmeldung und Kauf mehr als 50 Euro auszugeben.
Somit sah ich in den nächsten 6 Monaten nur 2 Leute, die auch so ein Handy hatten. Und ein-zwei Jahre später war es dann fast schon normal viel Geld bei
einer Handy Anmeldung hinzublättern.

Die Voodoo 1 als Zusatzkarte hatte damals einen gigantischen Mehrwert für den Spieler. Selbst ein Halbblinder konnte die stark verbesserte Grafik noch von Metern weit weg sehen. Solch einen Aha-Effekt, wird es bei PhyX nicht geben:
Darf ich fragen, warum man sich eigentlich noch Grafikkarten kaufen soll und vorallem Karten über 300 Euro.
Denn ich gehe davon aus, dass bei den meisten Leuten der Unterschied zwischen der Alten und neuen Grafikkarten um vieles Geringer ist als damals mit oder ohne Voodoo1

SentinelBorg
2006-03-25, 20:45:45
Ich hätte gerne mal ein paar Eckdaten zum PhysX-Chip.
PhysX (src: http://www.blachford.info/computer/articles/PhysX2.html):

unknown Processor Core + 4x4 Vector Processing Units
clock speed 500Mhz-1GHz
Performance (32Bit precisision ?): 96 GigaFLOPS for each 500MHz
Manufactured by TSMC
125 Million transistors
182 sq. mm in 130nm
128MB GDDR3
28 watts (entire card)
No Compiler known.
Supported by Novodex-Engine (Ageia-Engine) API only

avaliable as PCI Card soon

http://www.heise.de/bilder/71182/0/1

Wenn ich da schon den Lüfter sehe...

Sentinel

Nightspider
2006-03-25, 20:49:04
Den Lüfter haut man runter und setzt eine Heatpipe drauf, zudem wette ich das die Hersteller leise oder passive Kupfer Kühlkörper draufsetzen werden. :)


Kann mir jmd. sagen was Valve nun von Agaia und der PPU hält ?
Ich habe es so verstanden, dass Grafikkarten für etwas komplexere Physikberechnungen zu langsam sind und zu lange dafür brauchen (Latenz?) aber was halten die von der PPU ??? :confused:

Gast
2006-03-25, 23:31:18
Den Lüfter haut man runter und setzt eine Heatpipe drauf, zudem wette ich das die Hersteller leise oder passive Kupfer Kühlkörper draufsetzen werden. :)



naja, sehr viele hersteller gibt es ja (noch) nicht ;)

quicktimegeschädigter
2006-03-26, 01:54:35
http://physx.ageia.com/footage.html

Hat jemand ne ahnung wie man die quicktime videos zum laufen bringt?
Bei mir kommt immer nur der Ton, obwohl ich den neuesten divx-codec und quick-timeplayer installiert habe.
Der Videocodec ist "divx 5.0".

Mailwurm
2006-03-26, 10:01:07
PhysX (src: http://www.blachford.info/computer/articles/PhysX2.html):

unknown Processor Core + 4x4 Vector Processing Units
clock speed 500Mhz-1GHz
Performance (32Bit precisision ?): 96 GigaFLOPS for each 500MHz
Manufactured by TSMC
125 Million transistors
182 sq. mm in 130nm
128MB GDDR3
28 watts (entire card)
No Compiler known.
Supported by Novodex-Engine (Ageia-Engine) API only

avaliable as PCI Card soon

Wenn ich da schon den Lüfter sehe...

Sentinel

http://www.bfgtech.com/physx/index.htm

Specifications


Processor: AGEIA PhysX


Memory Interface: 128-bit GDDR3


Memory Capacity: 128MB


Peak Instruction Bandwidth: 20 Billion/sec


Sphere-Sphere Collisions: 530 Million/sec max


Convex-Convex (Complex Collisions): 533,000/sec max

Software Included: BFG PhysX Drivers, BFG PhysX Demo DVD

Hauwech
2006-03-26, 11:58:51
Die Integration auf Mainboards wie einige es fordern ist zwar denkbar aber ich glaube nicht, dass wir das zu sehen bekommen. Der Chip braucht schliesslich seinen eigenen Speicher. Bei Serverboards mit 8MB VRAM, die sowieso in anderen Preisregionen spielen, ist das ja kein Problem aber (mindestens?) 128MB plus entsprechende Kühlung?

Der Einstieg mit PCI ist imho auch nicht verkehrt, zumindest sehe ich noch keine PCIe only Mainboards und die wird es so schnell auch nicht geben. Creative Labs hat die neueste Generation bestimmt auch nicht aus Jux und Dollerei vorerst nur auf PCI rausgebracht.

Wer nicht von der Karte begeistert ist, kauft sie sich eben nicht und fertig. Der Preis ist im Moment sicherlich nur was für Freaks aber wenn ich daran denke, dass zB der Pentium I damals neu 2000 DM oder die GF2U bis zu 1300 DM, sind das eher Peanuts ;).

Ob das Dingen nur eine Eintagsfliege wird, hängt von der Unterstützung der Spielehersteller ab wobei ich mir auch andere Einsatzgebiete in der Wissenschaft oder professionellen Bereich vorstellen könnte. Fast schon eine Schande wenn man bedenkt, wie oft die gigantische Leistung von GPUs beim Nichtspielen im PC brachliegt :wink:.

BlackBirdSR
2006-03-26, 12:40:40
(32Bit precisision ?)


Bedeutet die Berechnungen laufen mit Single-Precision.
Gleiche theoretische Genauigkeit wie die Berechnungen bisheriger Engines die z.B SSE nutzen.

svenw
2006-03-26, 12:41:15
Ob das Dingen nur eine Eintagsfliege wird, hängt von der Unterstützung der Spielehersteller ab wobei ich mir auch andere Einsatzgebiete in der Wissenschaft oder professionellen Bereich vorstellen könnte. Fast schon eine Schande wenn man bedenkt, wie oft die gigantische Leistung von GPUs beim Nichtspielen im PC brachliegt :wink:. Für den wissenschaftlichen Einsatz sind GPUs besser geeignet, da flexibler zu programmieren. Die PPU ist eine reine Spiele Zusatzkarte.

BlackBirdSR
2006-03-26, 12:47:25
Für den wissenschaftlichen Einsatz sind GPUs besser geeignet, da flexibler zu programmieren. Die PPU ist eine reine Spiele Zusatzkarte.

Ich weiß nicht, ob die 32Bit Genauigkeit für einen umfangreichen wissenschaftlichen Einsatz reichen.

svenw
2006-03-26, 12:51:34
Ich weiß nicht, ob die 32Bit Genauigkeit für einen umfangreichen wissenschaftlichen Einsatz reichen.
Hat die PPU denn mehr?

Coda
2006-03-26, 13:24:31
Nein, aber die rechnet wahrscheinlich noch wenigstens IEEE 754 kompatibel

Igzorn
2006-03-26, 13:44:02
Bei dieser angabe steht aber noch ein fragezeichen dahinter.

Performance (32Bit precisision ?): 96 GigaFLOPS for each 500MHz

Heisst es das es auch genauer gerechnet werden könnte?

Hauwech
2006-03-26, 14:33:45
Für den wissenschaftlichen Einsatz sind GPUs besser geeignet, da flexibler zu programmieren. Die PPU ist eine reine Spiele Zusatzkarte.

Naja, geht man von den ersten Grafikkarten aus ist die Programmierung von der PPU wahrscheinlich reiner Luxus. Das SDK wurde ja auch schon erweitert und lässt zumindest hoffen.

Coda
2006-03-26, 14:40:35
Heisst es das es auch genauer gerechnet werden könnte?Ich denke es gibt nur eine FLOP-Angabe aber keine Präzisionsangabe, deshalb ging der Autor von 32bit aus (würde ich auch).

Neomi
2006-03-26, 15:19:58
Für den wissenschaftlichen Einsatz sind GPUs besser geeignet, da flexibler zu programmieren. Die PPU ist eine reine Spiele Zusatzkarte.

Und was bringt dich jetzt zu der Annahme? Es gibt viele wissenschaftliche Einsatzgebiete, nicht nur einen generellen. Und für manche Gebiete wird so eine PPU bestimmt ganz nützlich sein.

aths
2006-03-26, 19:49:41
Ich weiß nicht, ob die 32Bit Genauigkeit für einen umfangreichen wissenschaftlichen Einsatz reichen.Ich weiß es: 32-Bit-Genauigkeit reicht nicht.

Und was bringt dich jetzt zu der Annahme? Es gibt viele wissenschaftliche Einsatzgebiete, nicht nur einen generellen. Und für manche Gebiete wird so eine PPU bestimmt ganz nützlich sein.Das meine ich auch. Mit Double Precision wäre das Einsatzgebiet natürlich noch größer.

svenw
2006-03-27, 10:03:27
Hm, also höhere Genauigkeit kann man durch entsprechende Programmierung erreichen. Natürlich kostet das wesentlich mehr Leitung als wenn es nativ unterstützt wird, aber es geht.

Es geht hier ja darum viel rEchenleistung für einen geringen Preis zu bekommen. Das so ein system nicht gegen eine echte Vectormaschine anstinken kann ist klar. Ein Blick auf die Preise bringt aber vieleicht doch den einen oder anderen ins grübeln, ob ein PC mit zweckentfremdeter Graka nicht doch die besser Geldanlage ist. Und das der Phy chip mit höherer Genauigkeit Arbeit wage ich zu bezweifeln, denn die Probleme bei 32Bit treten meist erst bei mehrfachen großen Matrizenoperationen auf.

Neomi
2006-03-28, 01:35:13
Viper']Hab ihr schon das Video von Cellfactor gesehen? Das erste mal, dass man diesen Chip in Aktion sieht.

Imho schon ein kleiner Meilenstein. Physikspielerein gabs in dieser Menge und in dieser Qualität noch nicht (mir sind da keine Bugs aufgefallen)

http://www.gameradio.de/indexnews.php?pn_go=details&id=0005153 (60MB)

Eben nochmal gesehen, immer noch extrem beeindruckend. Eine gute Präsentation von dem, was machbar ist (obwohl da wahrscheinlich noch mehr möglich wäre, aber dann bestimmt schwer übers Netzwerk/Internet zu synchronisieren), wenn das Gameplay die Karte nutzen kann. Scheinbar ist Cellfactor aber noch völlig unbekannt hier, die Forensuche listet gerade mal zwei Postings (jetzt wohl drei).

hofmetzger
2006-03-28, 02:02:15
Eben nochmal gesehen, immer noch extrem beeindruckend. Eine gute Präsentation von dem, was machbar ist (obwohl da wahrscheinlich noch mehr möglich wäre, aber dann bestimmt schwer übers Netzwerk/Internet zu synchronisieren), wenn das Gameplay die Karte nutzen kann. Scheinbar ist Cellfactor aber noch völlig unbekannt hier, die Forensuche listet gerade mal zwei Postings (jetzt wohl drei).

Beeindruckend ja, aber imho nicht "wegweisend". Die Physik wirkt sehr aufgesetzt, sie steht vielleicht doch zu stark im Mittelpunkt. Imho sollte sie eher zum Ambiente beitragen (korrekter Regen, aufgewirbelter Dreck, ...). Andererseits wird die Karte nur verkauft werden können, wenn der Effekt sofort sichtbar ist...

svenw
2006-03-28, 10:21:09
Ich fands beinedruckend, aber IMHO ist damit nur ein kleiner Teil der Physik abgedeckt. Bewegte Flächen (Mäntel, Haare, wasser etc) wären interessant gewesen, aber anscheinend kann der Chip das nicht, was in relativ eindimensional (herrumfliegende Gegenstände) macht. Ein Physik Chip ist sicher ein SChritt in die richtige Richtung, ihn nur auf herrumfliegende TEile zu begrenzen finde ich aber nicht vernünftig, denn damit nutzt man nur ca 50% der Physiksimulation aus.

mapel110
2006-03-28, 12:20:56
http://artificialstudios.com/media/CellFactor_M2a.exe
Wer genügend Bandbreite und Traffic hat, kann hier das Video als Bink runterladen (knapp 600 MB)

ShadowXX
2006-03-28, 12:23:11
Beeindruckend ja, aber imho nicht "wegweisend". Die Physik wirkt sehr aufgesetzt, sie steht vielleicht doch zu stark im Mittelpunkt. Imho sollte sie eher zum Ambiente beitragen (korrekter Regen, aufgewirbelter Dreck, ...). Andererseits wird die Karte nur verkauft werden können, wenn der Effekt sofort sichtbar ist...
Wo wirkt die Physik dann da aufgesetzt?

Es reagiert alles im Video halt nur physikalisch Korrekt....das fällt gegenüber jetzigen Games natürlich auf. Aufgesetzt ist es dadurch noch lange nicht.

just4FunTA
2006-03-28, 13:30:07
http://artificialstudios.com/media/CellFactor_M2a.exe
Wer genügend Bandbreite und Traffic hat, kann hier das Video als Bink runterladen (knapp 600 MB)

Und sehr viel Geduld braucht der jenige auch, der lädt bei mir gerade mit unter 100k. :frown:

Gast
2006-03-28, 13:40:48
Ich hatte erst gestern wieder in einen Spiel das Erlebnis, wie es ist ohne Physik-Karte. Bin an einer Kletterwand hochgestiegen und als ich oben stand wurde ich davongestoßen. Warum? Ganz klar, es sollte starker Wind sein. Weder hörte ich den Wind noch sah man ihn.

Starker Wind ist aber in der Realität zu sehn durch aufgewirbelten Dreck und bewegten Bäumen und Gräsern. Wenn Jetzt noch die PPU die korrekten Steuerdaten an die Sounkarte gibt, je nach Bewuchs der Umgebung gibt es unterschiedliche Soundkulkissen (Laubwald, offene Wiese, Felshang).
Wenn das mal umgesetzt wird mit PPU kann das Teil gerne 300€ kosten und irgendwann gibt es DirektPhysixs 2.0, 3.0, .... und dann hats jeder Aldi PC.

Übrignes kann ich mich entsinnen schon gelesen zu haben, das Ende des Jahres eine PCIe x4 geplant ist.

Wer keinen Platz für diese Karte hat, der hat auch keinen GamerPC sondern irgendeine Frickelkiste mit TV, SAT-TV, Raidstoragesystem, ISDN-Gateway, Networkbrigde, USB2.0 Erweiterungskarte (lol wer billig Mobos hat selber schuld)

Wer TV-klotzen will, kann auch seinen alten Rechner dafür hernehmen ( 1GHZ P3 oder Athlon tuts vollkommen)
Wer USB 2.0 Karte braucht , sollte gleich mal neues Board kaufen
Raidcontroller -> jedes normales Mobo hat heutzutage SATA-Raidcontroller onboard. Wemm das nicht reicht, sollte eh ein Fileserver aufbauen
Isdn-Karte-> gibts heutezutage extern per USB oder Ethernet, also raus mit dem alten Teil)
Netzwerkarte -> neue Mainboards haben heutzutage 1 oder gar 2 Gigabit-Netzanschlüsse onboard. Wer nicht, neues Mobo kaufen. Und wer unbedingt Servernetzwerkkarten braucht, hat zum einen genug Asche und zum anderen haben haben die nix in einen Gamerpc zu suchen, sondern in einen File-/DBserver ansonsten oversized.
Es gibt nur einen Karte die wichtig ist und das ist einen Soundkarte und Grafikkarte. Also ist genug Platz für eine PPU.

Mehrpack
2006-03-28, 13:55:11
Ich fands beinedruckend, aber IMHO ist damit nur ein kleiner Teil der Physik abgedeckt. Bewegte Flächen (Mäntel, Haare, wasser etc) wären interessant gewesen, aber anscheinend kann der Chip das nicht, was in relativ eindimensional (herrumfliegende Gegenstände) macht. Ein Physik Chip ist sicher ein SChritt in die richtige Richtung, ihn nur auf herrumfliegende TEile zu begrenzen finde ich aber nicht vernünftig, denn damit nutzt man nur ca 50% der Physiksimulation aus.

hi,
ich hab von jemanden bei CB.de gelesen das Ageias per Treiberupdate nun Kleidungssimulation per PhysX anbietet und der unterstütze Funktionsumfang soll sich auch weiter erweiter lassen.

mal ne frage: wäre es im grunde nicht auch möglich den beschleuniger nicht auch für KI algorthymen mit ranzuziehn?
denn am ende muss ja die ki auch mit der umgebung interagieren und je nach vorherschender lage eine bestimmte reaktion zeigen.
oder ist das jetzt etwas zu einfach gedacht :D.

Mehrpack

Higans
2006-03-28, 14:11:56
Ich denke mal eine KI ist zu sehr gamespezifisch und muss in jedem Falle immer wieder neu programmiert werden. Da wirds wohl kaum allgemeingültige Routinen geben, die auf jedes Game passen.

MuLuNGuS
2006-03-28, 14:18:51
Es gibt nur einen Karte die wichtig ist und das ist einen Soundkarte und Grafikkarte. Also ist genug Platz für eine PPU.


ich zähl da aber 2 wichtige karten?!

wie auch immer, endlich kommt mit etwas innovation schwung in die bude, ich will grafik, physik und gameplay!!!

Gast
2006-03-28, 15:07:36
mal ne frage: wäre es im grunde nicht auch möglich den beschleuniger nicht auch für KI algorthymen mit ranzuziehn?
denn am ende muss ja die ki auch mit der umgebung interagieren und je nach vorherschender lage eine bestimmte reaktion zeigen.
oder ist das jetzt etwas zu einfach gedacht :D.
Einfach gedacht aber garnicht so falsch.
Die zunehmende Physik stellt auch neue Anforderungen an die KI. Im Prinzip muss eine ("perfekte") KI auch in der Lage sein physikalische Berechnungen durchzuführen zu können, um bestimmte Entscheidungen zu treffen (kann ich das umgefallene Regal vor der Tür wegräumen? wenn ja, wo muss ich es angreifen?). Es gibt afaik aber kein Produkt, dass so etwas schon nutzt und es wird wohl auch in naher Zukunft nichts in der Richtung erscheinen.

Prinzipiell gibt es für die KI momentan noch zu wenig Middleware und die, die verfügbar ist, ist den Herstellern wohl noch zu unflexibel. So baut sich jeder Hersteller jedes mal von Grund auf seine eigene KI und hat damit nie genug Budget um wirklich in solche Bereiche vordringen zu können.

Coda
2006-03-28, 15:19:52
Algorthymus. Kann man Algorithmus eigentlich noch falscher schreiben? :D

hofmetzger
2006-03-28, 17:30:30
Wo wirkt die Physik dann da aufgesetzt?

Es reagiert alles im Video halt nur physikalisch Korrekt....das fällt gegenüber jetzigen Games natürlich auf. Aufgesetzt ist es dadurch noch lange nicht.

Ich finde die Effekte schreien förmlich: Huhu hier schauen: Physiiiiik! Da möchte ich mehr das, wovon der Gast sprach (Effekte des Windes sichtbar):

Ich möchte nicht denken: "Hui, hundert Kisten - tolle Physik", sondern "Hui, hier ists wohl ganz schön stürmisch" (und vergessen, dass ich die Physikkarte überhaupt habe).

Botcruscher
2006-03-28, 17:55:11
Ich finde die Effekte schreien förmlich: Huhu hier schauen: Physiiiiik! Da möchte ich mehr das, wovon der Gast sprach (Effekte des Windes sichtbar):

Ich möchte nicht denken: "Hui, hundert Kisten - tolle Physik", sondern "Hui, hier ists wohl ganz schön stürmisch" (und vergessen, dass ich die Physikkarte überhaupt habe).

Hehe es wir eher wie bei den GraKas kommen:"Hui endlich leuchtet alles was weiß ist wie blöde - HDR ist toll." Ob es teilweise total hässlich und unrealistisch aussieht ist doch egal. :rolleyes:

Gast
2006-03-28, 18:30:30
hi,
ich hab von jemanden bei CB.de gelesen das Ageias per Treiberupdate nun Kleidungssimulation per PhysX anbietet und der unterstütze Funktionsumfang soll sich auch weiter erweiter lassen.


Jup, das habe ich gelesen. Kleidersimulation wurde jetzt nachgereicht.

Außerdem, wer kennt noch Voodoo1 oder Matrox Mystique? Gabs da schon HDR, Shader, StencilShadows, Transparentes Mipmapping/Bumpmapping, Transparentes AA, 16x aa, T&L und und und
Antwort: Nein!
Es brauchte 6 oder gar 7 Grakagenerationen bis das uns heute vertraute Grafikbild so ausgegeben wurde. Wenn das Teil schon mal halbwegs anständige Partikeleffekte, Kollisionsabfragen, Explosionen inkl. Trümmern und jetzt auch Kleidungssimultation und Haare kann, dann sollte das doch für den Anfang schon mal reichen.
Komplexe Physiksimulationen wie in der Realität wird es in den nächsten 10 Jahren nicht geben, dazu sind die PCs einfach noch viel zu schwach. beispiel: Wettersimulation. Dazu werden riesige Supercluster benötigt die einzig einen korrekten Wetterablauf darstellen können. Oder Atombombe. Ist BlueGene/L nicht zur Zeit der schnellste Rechner der Welt? Ich glaube der macht nix anderes alle physikalischen Gegebenheiten einer Atomexplosion korrekt zu simulieren.

Schlussendlich wird es Jahre Dauern bis Physik im begrenzten Rahmen einer Spieleszenerie halbwegs alles abdeckt um RL nachzubilden. Nur wird das uns nicht auffalllen, da wir ja auch selten bewusst wahrnehmen, wie bei einen herbstlichen Waldspaziergang die Blätter physikalisch korrekt von den Bäumen fallen ;-)

Ich werde dem Teil definitiv eine Chance geben, denn Potential ist da und was besseres als dedizierte Hardware gibt es nicht.

(del676)
2006-03-28, 19:08:31
Wer keinen Platz für diese Karte hat, der hat auch keinen GamerPC sondern irgendeine Frickelkiste mit TV, SAT-TV, Raidstoragesystem, ISDN-Gateway, Networkbrigde, USB2.0 Erweiterungskarte (lol wer billig Mobos hat selber schuld)

2x 7900 gtx im sli + creative X-FI is kein gamerpc - wenn du es sagst lieber GAST :|

aylano
2006-03-28, 21:48:16
Dazu werden riesige Supercluster benötigt die einzig einen korrekten Wetterablauf darstellen können.
Es sind Näherungen, aber trotzdem wird enorm viel Computerleistung benötigt.

Aber sonst bin ich vollkommend deiner Meinung.

Bokill
2006-03-28, 22:03:42
Algorthymus. Kann man Algorithmus eigentlich noch falscher schreiben? :DWie wärs mit Symuhtrogla? ;D

Neon3D
2006-03-29, 04:09:04
Ich hatte erst gestern wieder in einen Spiel das Erlebnis, wie es ist ohne Physik-Karte. Bin an einer Kletterwand hochgestiegen und als ich oben stand wurde ich davongestoßen. Warum? Ganz klar, es sollte starker Wind sein. Weder hörte ich den Wind noch sah man ihn.

Starker Wind ist aber in der Realität zu sehn durch aufgewirbelten Dreck und bewegten Bäumen und Gräsern. Wenn Jetzt noch die PPU die korrekten Steuerdaten an die Sounkarte gibt, je nach Bewuchs der Umgebung gibt es unterschiedliche Soundkulkissen (Laubwald, offene Wiese, Felshang).
Wenn das mal umgesetzt wird mit PPU kann das Teil gerne 300€ kosten und irgendwann gibt es DirektPhysixs 2.0, 3.0, .... und dann hats jeder Aldi PC.

Übrignes kann ich mich entsinnen schon gelesen zu haben, das Ende des Jahres eine PCIe x4 geplant ist.

Wer keinen Platz für diese Karte hat, der hat auch keinen GamerPC sondern irgendeine Frickelkiste mit TV, SAT-TV, Raidstoragesystem, ISDN-Gateway, Networkbrigde, USB2.0 Erweiterungskarte (lol wer billig Mobos hat selber schuld)

Wer TV-klotzen will, kann auch seinen alten Rechner dafür hernehmen ( 1GHZ P3 oder Athlon tuts vollkommen)
Wer USB 2.0 Karte braucht , sollte gleich mal neues Board kaufen
Raidcontroller -> jedes normales Mobo hat heutzutage SATA-Raidcontroller onboard. Wemm das nicht reicht, sollte eh ein Fileserver aufbauen
Isdn-Karte-> gibts heutezutage extern per USB oder Ethernet, also raus mit dem alten Teil)
Netzwerkarte -> neue Mainboards haben heutzutage 1 oder gar 2 Gigabit-Netzanschlüsse onboard. Wer nicht, neues Mobo kaufen. Und wer unbedingt Servernetzwerkkarten braucht, hat zum einen genug Asche und zum anderen haben haben die nix in einen Gamerpc zu suchen, sondern in einen File-/DBserver ansonsten oversized.
Es gibt nur einen Karte die wichtig ist und das ist einen Soundkarte und Grafikkarte. Also ist genug Platz für eine PPU.

am pc wird spielen richtig teuer.

demnächst brauch ich ne 200€+ physxkarte, dann ne aktuelle 250€ grakarte mit ner cpu/mainboard kombination die auch nochmal 200€ verschlingt. das sind alles die EINSTIEGSPREISE, also mit 650€ + Spiel bin ich dabei, wenn ich schon nen rechner habe mit 1gb ram, gehäuse, nt usw. Dann kommen die üblichen betaversionproblemchen und beim nächsten Übergame braucht man im grunde wieder ne bessere gra.karte damit es nicht ruckelt.

mehr und mehr drängt einen der pc-softwaremarkt zur konsole hin. bei ut2007 wird es ohnehin maus und tasta per usb unterstützung geben. dann kann jeder mit seiner razorback logitech oder was auch immer wie am pc zocken.

ShadowXX
2006-03-29, 07:37:20
am pc wird spielen richtig teuer.

demnächst brauch ich ne 200€+ physxkarte, dann ne aktuelle 250€ grakarte mit ner cpu/mainboard kombination die auch nochmal 200€ verschlingt. das sind alles die EINSTIEGSPREISE, also mit 650€ + Spiel bin ich dabei, wenn ich schon nen rechner habe mit 1gb ram, gehäuse, nt usw. Dann kommen die üblichen betaversionproblemchen und beim nächsten Übergame braucht man im grunde wieder ne bessere gra.karte damit es nicht ruckelt.

mehr und mehr drängt einen der pc-softwaremarkt zur konsole hin. bei ut2007 wird es ohnehin maus und tasta per usb unterstützung geben. dann kann jeder mit seiner razorback logitech oder was auch immer wie am pc zocken.
Keiner zwingt dich die Physikkarte zu kaufen.....und innerhalb der nächsten 2 Jahre wird diese auch IMHO kein muss sein.

Physik-HW (welcher Art auch immer) wird sich erst richtig durchsetzen, wenn MS seinen eigenen DirectX-Physik-SubAPI rausbringt....und bis dahin ist der Preis solch einer Karte dann auch gefallen oder das ganze wird sogar in Grakas, Soundkarten oder was anderem intergriert sein.

MuLuNGuS
2006-03-29, 08:22:00
am pc wird spielen richtig teuer.



???

noch nie war pc-hardware so günstig wie heute..mal abgesehen was man heute dafür bekommt.

mein DX2-66 mit 4mb 1mb S3(?) graka mit 1mb und 20mb HDD hat weit über 3000DM gekostet und dann kommst du und erzählst spielen am PC wird richtig teuer?
kein vergleich was man heute an rechenleistung für seine geld bekommt.

*edit*
nee quatsch, der hatte schon 4mb, wahnsinn ey!

svenw
2006-03-29, 09:03:00
am pc wird spielen richtig teuer.

mehr und mehr drängt einen der pc-softwaremarkt zur konsole hin. bei ut2007 wird es ohnehin maus und tasta per usb unterstützung geben. dann kann jeder mit seiner razorback logitech oder was auch immer wie am pc zocken.
Ich sehe dein Problem nicht. Moderne Computertechnik drückt jede Konsole an die Wand. Klar ruckelt das bei neuen Spielen, aber wenn du Einstellungen ala Konsole wählst (also massiv mit der Auflösung runtergehst) dann läuft jedes Spiel butterweich. Wieviele Leute spielen denn heute an einem HDTV Monitor mit einer Konsole? Und die PAL Auflösung (was ungefähr 640*480 entspricht) bei 25 bildern die Sekunde bringt auch keine Graka selbst bei modernen Spielen ins schwitzen. Beim Computer zahlst du für zusätzliche Qualität richtig viel Geld. Und dafür das das Teil eben multifunktional ist. Versuch mal deine Filme mit der XBox zu schneiden/aufzunehmen/transkodieren.

aths
2006-03-29, 09:05:46
???

noch nie war pc-hardware so günstig wie heute..mal abgesehen was man heute dafür bekommt.Bei Konsolen bekommt man im Vergleich trotzdem mehr.

Ich sehe dein Problem nicht. Moderne Computertechnik drückt jede Konsole an die Wand. Klar ruckelt das bei neuen Spielen, aber wenn du Einstellungen ala Konsole wählst (also massiv mit der Auflösung runtergehst) dann läuft jedes Spiel butterweich. Wieviele Leute spielen denn heute an einem HDTV Monitor mit einer Konsole? Und die PAL Auflösung (was ungefähr 640*480 entspricht) bei 25 bildern die Sekunde bringt auch keine Graka selbst bei modernen Spielen ins schwitzen. Beim Computer zahlst du für zusätzliche Qualität richtig viel Geld. Und dafür das das Teil eben multifunktional ist. Versuch mal deine Filme mit der XBox zu schneiden/aufzunehmen/transkodieren.Ein Arbeits-PC ist in der Regel so viel preiswerter als ein Spiele-PC, dass man sich von der Differenz 1-2 Konsolen kaufen kann.

svenw
2006-03-29, 09:07:56
Bei Konsolen bekommt man im Vergleich trotzdem mehr. Dafür sind aber auch die Möglichkeiten begrenzt. "Mal eben aufrüsten" ist nicht. Wenn es nur 3 PC Konfigurationen gäbe wäre es auch billiger.

aths
2006-03-29, 09:22:23
Dafür sind aber auch die Möglichkeiten begrenzt. "Mal eben aufrüsten" ist nicht. Wenn es nur 3 PC Konfigurationen gäbe wäre es auch billiger.Dass man nicht aufrüsten kann, sehe ich bei der Konsole sogar als Vorteil.

- Jedes Spiel läuft garantiert ohne irgendwas aufzurüsten.

- Der Entwickler weiß, wie das Spiel performt und kann dafür sorgen, dass man alle Details und Effekte sieht die er für notwendig hält.

- Man kauft die Konsole und gut. Keine Abstimmungsschwierigkeiten von Mainboard, Speicher und CPU, Ärger mit Treiberproblemen, ...

- Physik-Effekte, wie es sie teilweise bei Luigis Mansion (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=285994) gibt, laufen auf jedem Cube, ohne extra Physik-Karte :) Man muss da kein Physik-Detail runterschrauben weil man vielleicht eine notwendige Erweiterung nicht hat. Die Konsolenhardware ist, wie sie ist, komplett. Als es noch Module gab, waren da ja manchmal Zusatz-Chips drin, das ist beim CD-Medium natürlich nicht mehr möglich.

svenw
2006-03-29, 09:41:06
Nur muß man auch sagen, das die Konsolentechnik der Computertechnik meist um mindestens 1 Jahr hinterherhinkt. Von der Konsole kommende Spiele nutzen heute PCs nicht mehr voll aus. Außerdem ist die Frage, was man spielen will. Aktionspiele und noch mehr Jump'n Run sind sicher Konsolentitel. Wenn es aber um Strategie geht, ist sicher der PC vorne. Und wenn es um die Modbarkeit von Spielen geht... Bestes Beispiel dürfte Oblivion sein. Wenn ich sehe was die Leute aus der Asbach Engine von Morrowind rausgeholt haben, dann frage ich mich ob man bei Oblivion auf Konsole nicht die Hälfte des Spielspaßes verpaßt.

PC oder Konsole ist immer die Frage was man will. Für das schnelle Spiel ist sicher die Konsole besser geeignet, anschließen, CD rein, spiel läuft. Für Computerinteressierte, (Grafik-)Extremisten und Leute mit vielfältigen Interessen geht kein weg am PC vorbei. Alleine schon das betrachten dieses Forums möchte ich mir nicht auf einem TV antun, selbst wenn es die Konsole kann. Von Email, skype etc nicht zu reden.

Higans
2006-03-29, 10:12:01
am pc wird spielen richtig teuer.

In den letzten 10 Jahren ist "am pc spielen" erheblich billiger gewurden.

Vor 12 Jahren hat man für einen leistungsfähigen Spiele PC 6000 DM bezahlen müssen, während ein Einstiegs PC für 2000 DM für fast nix zu gebrauchen war.

ShadowXX
2006-03-29, 10:39:24
Bei Konsolen bekommt man im Vergleich trotzdem mehr.

Sehe ich nicht wirklich so.

Das Marketing will es so verkaufen, aber wenn man hinter die Kullissen schaut sieht es meist ganz anders aus.

Stell dir vor nV, ATI , Creative & Co. würde ebenfalls ihre HW subventionieren (+ den Grundpreis der Komponenten nur knapp über den Produktionskosten anlegen) ....dann würde ein GamerPC plötzlich auch nur noch 600Euro kosten, aber man hätte alle Vorteile des PCs.

Der Vorteil der universellen Anpassung an die KonsolenHW wird auch immer geringer werden:
a.) Lassen sich jetzt schon XBox360 und die kommende PS3 nicht mehr so Hardwarenah wie die Vorgänger programmieren.
b.) Ab D3D10 ist auch die PC-Hardware quasi "identisch" (zumindest was das Featueset betrifft, für unterschiedlich schnelle Karten gibts dann den Detailslider).

Die Jungs von Crytek waren überrascht, wie nah XBox360 und PS3 (von den Besonderheiten des Cells mal abgesehen) am "PC-Design" sind.

Und Aufrüstbarkeit ist IMO absolut kein Nachteil.....wenn auf der Konsole ein Game ruckel oder Slowdown produziert (auf der Xbox360 momentan gang und gäbe), muss ich damit leben.
Beim PC kann ich mir schnellere Komponenten kaufen und die Sache ist erledigt.
Auch auch HD-Drives.
Die muss ich für die XBox360 genauso nachkaufen wie für den PC...nur das das nackte PC-Laufwerk billiger und flexibler sein wird.

Das sind nur Beispiele und mir ist auch durchaus bewusst, das auch Konsolen vorteile haben (hab sleber Konsolen), aber es ist nicht immer alles Gold was glänzt, auch wenn man es vielleicht erst beim 10x hingucken bemerkt.

Aquaschaf
2006-03-29, 10:52:23
Bei Konsolen bekommt man im Vergleich trotzdem mehr.

Je mehr Spiele man kauft desto mehr dreht es sich aber wieder in Richtung PC. Der Preisunterschied bei Spielen ist nicht unbeachtlich.

aths
2006-03-29, 10:57:48
Nur muß man auch sagen, das die Konsolentechnik der Computertechnik meist um mindestens 1 Jahr hinterherhinkt. Von der Konsole kommende Spiele nutzen heute PCs nicht mehr voll aus. Außerdem ist die Frage, was man spielen will. Aktionspiele und noch mehr Jump'n Run sind sicher Konsolentitel. Wenn es aber um Strategie geht, ist sicher der PC vorne. Und wenn es um die Modbarkeit von Spielen geht... Bestes Beispiel dürfte Oblivion sein. Wenn ich sehe was die Leute aus der Asbach Engine von Morrowind rausgeholt haben, dann frage ich mich ob man bei Oblivion auf Konsole nicht die Hälfte des Spielspaßes verpaßt.

PC oder Konsole ist immer die Frage was man will. Für das schnelle Spiel ist sicher die Konsole besser geeignet, anschließen, CD rein, spiel läuft. Für Computerinteressierte, (Grafik-)Extremisten und Leute mit vielfältigen Interessen geht kein weg am PC vorbei. Alleine schon das betrachten dieses Forums möchte ich mir nicht auf einem TV antun, selbst wenn es die Konsole kann. Von Email, skype etc nicht zu reden.Genauso wenig, wie man versuchen sollte, den PC krampfhaft als Spielmaschine zu benutzen, sollte man aus einer Konsole ein Arbeitsgerät zu machen versuchen.

Das gute am PC – Aufrüstbarkeit – ist aber für Spiele imo ein großer Nachteil. Wenn ein Spiel nun den PhysX unterstützt, muss es ja trotzdem so designt sein, dass auch Leute ohne PPU vom Spiel noch was haben.

MuLuNGuS
2006-03-29, 11:02:05
nun ja,

das geilste wäre wenn man seinen PC mit 'ner konsole aufrüsten könnte, PC mit der konsole per gigabit-lan connecten und eine PS3 z.b. würde sich um die physik + KI geschichten kümmern...aber das werden wir wohl nicht erleben.

wäre das geil wenn der PC im keller die rechenpower einer 360 oder PS3 ausm wohnzimmer nutzen könnte.(oder 2 x PS3...löl)
®

Hauwech
2006-03-29, 11:13:05
am pc wird spielen richtig teuer.

demnächst brauch ich ne 200€+ physxkarte, dann ne aktuelle 250€ grakarte mit ner cpu/mainboard kombination die auch nochmal 200€ verschlingt. das sind alles die EINSTIEGSPREISE, also mit 650€ + Spiel bin ich dabei, wenn ich schon nen rechner habe mit 1gb ram, gehäuse, nt usw. Dann kommen die üblichen betaversionproblemchen und beim nächsten Übergame braucht man im grunde wieder ne bessere gra.karte damit es nicht ruckelt.

mehr und mehr drängt einen der pc-softwaremarkt zur konsole hin. bei ut2007 wird es ohnehin maus und tasta per usb unterstützung geben. dann kann jeder mit seiner razorback logitech oder was auch immer wie am pc zocken.

Kollege hat noch irgendwo eine uralte Zeitschrift wo ein 386er mit Monitor und Drucker als Komplettpaket für schlappe 32.000 DM angeboten wird....

Gast
2006-03-29, 12:06:05
2x 7900 gtx im sli + creative X-FI is kein gamerpc - wenn du es sagst lieber GAST :|

Ich gebe zu das viel Board Lyaouts unglücklich gelöst sind und auch die Premiumboards teilweise nicht auf SLI und Platzbedarf eingehen.
Bei vielen Boards ist bei SLI lediglich ein Steckplatz wenn überhaupt noch frei, sofern man den Dualslot-Kühler auf den Karten lässt.

Mögliche Boards:
http://www.alternate.de/html/shop/productDetails.html?artno=GPEA41&

Dieses Board bietet trotz 2 SLI Dualslotkarten noch Platz für 2 PCI Karten und der eine x1 PCIe ist auch noch möglich

Eine absolute Ausnahme stellt das Board von Intel das für meinen Gemschack den richtigen Wegt zeigt:

http://www.alternate.de/html/shop/productDetails.html?artno=GPEL33&

3 x PCIx x16!!! Trotz Dualslot SLI wäre noch Platz für eine PPU Karte der nächsten Genration mit ebenfalls x16 und ein PCI Steckplatz für ne X-FI ist auch noch möglich.

Ferner gibt es ja imme rnoch die Möglichkeit Graka-WaKÜ einzusetzen die meist nur als Singleslot Kühler aufgebaut sind. So braucht selbst eine 7900 GTX nur einen Slot.

Gast
2006-03-29, 12:19:08
am pc wird spielen richtig teuer.

demnächst brauch ich ne 200€+ physxkarte, dann ne aktuelle 250€ grakarte mit ner cpu/mainboard kombination die auch nochmal 200€ verschlingt. das sind alles die EINSTIEGSPREISE, also mit 650€ + Spiel bin ich dabei, wenn ich schon nen rechner habe mit 1gb ram, gehäuse, nt usw. Dann kommen die üblichen betaversionproblemchen und beim nächsten Übergame braucht man im grunde wieder ne bessere gra.karte damit es nicht ruckelt.

mehr und mehr drängt einen der pc-softwaremarkt zur konsole hin. bei ut2007 wird es ohnehin maus und tasta per usb unterstützung geben. dann kann jeder mit seiner razorback logitech oder was auch immer wie am pc zocken.

Am PC spielen war noch nie billig, sofern man akutelle Toptitel spielen will.
Aber:
Eine Konsole ist einmal Festgezurrt mit der Technik siehe PS1 und dann tut sich nicht mehr viel. Durch Softwareoptimierungen lassen sich dann noch kleine Verbesserungen erzielen aber eine PS2 wird nie draus!
Das geht bei PC genauso. Kaufe dir nen AMD 3000+ mit 7800 GT und spiele damit fast alle PC-Spiele die es bis jetzt gibt. UT7 wirst dadrauf nicht spielen, denn das wäre wie als wenn du versuchst ein PS3 Spiel auf einer PS2 zu zocken.
Deine Argumentation mit dem Spielen ist teuer lass ich nicht gelten, denn alle 2 Jahre ne neue Konsole für 400€ mit eingeschränkten Funktionsumfang im Vegleich zum PC ist nicht billig. Denn Komplettpcs für 500€ gibts auch schon und selbst die können mehr (natürlich nicht im Spielbereich, aber Internet, Drucken, Scannen, CD Brennen, DVD, Filme schauen, MP3 abspielen, Lohnsteuer machen, Briefe schreiben, Bildbearbeitung, Programmieren, Webserver, etc. die Liste ist fast uneendlich - was aber nicht drauf steht sind dx9 Spiele mit Shader 3.0)

Eine PPU-Karte enstpricht fast schon einer XBOX 3, denn vor dieser wird es keine komplexe Physik in der Konsole geben. Wer schneller als der Konsolenmarkt sein will muss eben auch zahlen dafür, ansonsten bekommt man eben Mainstream

aths
2006-03-29, 12:49:39
In den letzten 10 Jahren ist "am pc spielen" erheblich billiger gewurden.

Vor 12 Jahren hat man für einen leistungsfähigen Spiele PC 6000 DM bezahlen müssen, während ein Einstiegs PC für 2000 DM für fast nix zu gebrauchen war.Die Spiele, die ich kenne, liefen immer auf dem Standard-PC. (Ich habe Wing Commander II und LHX auf einem 286-er mit 1 MiB RAM gespielt, und Privateer auf einem 386-er SX mit 16 MHz und 3 MiB RAM.) Das ist imo auch der entscheidende Grund, warum der PC überhaupt so interessant als Spiele-Plattform ist: Seine bereits sehr große Verbreitung. Ein Spiele-tauglicher Komplett-PC (mit Monitor) kostet seit langem ca. 2000 DM oder 1000 €.

Je mehr Spiele man kauft desto mehr dreht es sich aber wieder in Richtung PC. Der Preisunterschied bei Spielen ist nicht unbeachtlich.Auch für Konsolen gibt es Titel zu 10, 15 oder 20 €. Einige davon sind sogar brauchbar. Wenn man bedenkt, dass eine Konsole 3-4 Jahre hält, während der PC zwischenzeitlich aufgerüstet werden muss, kommt man auch als Vielspieler mit Konsolen günstiger weg. Natürlich gibt es einige, wenige Genres die sich nur auf dem PC komfortabel spielen lassen. Man sollte in der Rechnung auch den Zeitaufwand sehen, den man bei der Installation der Spiele und vor allem der Systempflege des PCs hat. Und das Warten beim Bootvorgang. Und die Spiel-Ladezeiten (gut, gibts bei einigen Konsolen auch, aber auf dem Cube habe ich in vielen Spielen fast gar keine spürbaren Ladezeiten.)

Eine Stunde reine Spielzeit auf dem PC kostet erheblich mehr Geld und deutlich mehr zusätzlichen Zeitaufwand als eine Stunde reine Konsolen-Spielzeit.

aths
2006-03-29, 12:54:14
Und Aufrüstbarkeit ist IMO absolut kein Nachteil.....wenn auf der Konsole ein Game ruckel oder Slowdown produziert (auf der Xbox360 momentan gang und gäbe), muss ich damit leben.Schlechte Spielumsetzungen gibts auch für Konsolen. Ich habe auch einige schlechte Umsetzungen bei mir liegen. Neuerdings bin ich gegen Multiplattform-Titel. Aber auch hastig fertiggestellte Launch-Titel können offenbar unzumutbare Performance-Einbrüche haben. Da sag ich nur: Falsche Konsole gekauft. Bei den Cube-Launchtiteln z. B. ruckelt nichts. Wenn Launch-Spiele bei einer Konsole von MS ruckeln, ach naja …

Subventionierte Konsolen sind im Endeffekt kein Geschenk an den User, da es sich die Hersteller durch die Spiele dann ja wieder (inkl. Extra-Profit) wieder reinholen.

Beim PC kann ich mir schnellere Komponenten kaufen und die Sache ist erledigt.Du musst sie einbauen, oft Treiber installieren. Die schnelleren Komponenten kosten Geld. Oft ist z. B. CPU-Aufrüstung nur sinnvoll, wenn man auch das Motherboard austauscht. Ich will gar nicht, dass der Spieler-Hersteller darauf setzt, dass ich meinen PC aufrüste. Was habe ich für tausende von Mark und Euro in PC-Technik fließen lassen – und was für einen Spielspaß bieten meine Konsolen im Vergleich? Der Unterschied ist krass. Gut, einen PC brauche ich (fürs Internet, zum Texte schreiben und so weiter) ohnehin. Da reichte dann aber auch ein kleiner Home-PC.

Auch auch HD-Drives.
Die muss ich für die XBox360 genauso nachkaufen wie für den PC...nur das das nackte PC-Laufwerk billiger und flexibler sein wird.Microsoft akzeptiere ich bis heute nicht als richtigen Konsolenhersteller.

Das sind nur Beispiele und mir ist auch durchaus bewusst, das auch Konsolen vorteile haben (hab sleber Konsolen), aber es ist nicht immer alles Gold was glänzt, auch wenn man es vielleicht erst beim 10x hingucken bemerkt.Ich könnte lange Traktate verfassen über ärgerliche Schwachstellen im Design der Konsolen, die ich habe, und noch längere Aufsätze und Essays über die extrem nervigen Schwächen so mancher Konsolen-Spiele. Doch das ist nichts verglichen mit dem, was ich beim PC so alles als lästig empfinde. Dazu gehören auch Nachladeruckler.

Für mich ist es deutlich befriedigender, NFS U2 auf der Playsi zu spielen, als auf dem PC – obwohl die PC-Version bei einem PC mit entsprechender Hardware die klar bessere Grafik bieten kann. (NFS: MW macht mir auf der PS2 allerdings nicht so viel Spaß, da mir die technische Umsetzung zu viele Schwächen hat.)

Dass bei WoW ständig neuer Content per Patch eingepflegt wird, ist ein Vorteil. Das wäre mit einer Konsole wie sie mir vorschwebt (ohne Festplatte) nicht möglich. In der Folge müsste das MMORPG von vornherein durchdacht und möglichst vollständig sein. Allerdings wäre es auch nicht der Hammer-Aufwand, erweiterten Content (dann in deutlich größeren Abständen) mit neuen Spiel-CDs zu bringen. Die Materialkosten sind gering, und bei MMORPGs geht es um den bezahlten Account, nicht um das Verhindern von kopierten Spiel-CDs. (Ein Problem wäre das Chatten. Dazu bräuchte man eine Tastatur per USB oder gleich eine Teamspeak-Lösung. Aber möglich wäre auch, dass man rudimentäre Kommunikations-Möglichkeiten über fertige und einige frei definierbare Icons einbaut.)

aths
2006-03-29, 13:03:24
Am PC spielen war noch nie billig, sofern man akutelle Toptitel spielen will.
Aber:
Eine Konsole ist einmal Festgezurrt mit der Technik siehe PS1 und dann tut sich nicht mehr viel. Durch Softwareoptimierungen lassen sich dann noch kleine Verbesserungen erzielen aber eine PS2 wird nie draus!
Das geht bei PC genauso. Kaufe dir nen AMD 3000+ mit 7800 GT und spiele damit fast alle PC-Spiele die es bis jetzt gibt. UT7 wirst dadrauf nicht spielen, denn das wäre wie als wenn du versuchst ein PS3 Spiel auf einer PS2 zu zocken.
Deine Argumentation mit dem Spielen ist teuer lass ich nicht gelten, denn alle 2 Jahre ne neue Konsole für 400€ mit eingeschränkten Funktionsumfang im Vegleich zum PC ist nicht billig. Denn Komplettpcs für 500€ gibts auch schon und selbst die können mehr (natürlich nicht im Spielbereich, aber Internet, Drucken, Scannen, CD Brennen, DVD, Filme schauen, MP3 abspielen, Lohnsteuer machen, Briefe schreiben, Bildbearbeitung, Programmieren, Webserver, etc. die Liste ist fast uneendlich - was aber nicht drauf steht sind dx9 Spiele mit Shader 3.0)

Eine PPU-Karte enstpricht fast schon einer XBOX 3, denn vor dieser wird es keine komplexe Physik in der Konsole geben. Wer schneller als der Konsolenmarkt sein will muss eben auch zahlen dafür, ansonsten bekommt man eben MainstreamIch möchte in diesem Thread eigentlich die Konsolen-Diskussion nicht ausufern lassen, da es ja um eine Erweiterungskarte für den PC gehen soll.

Meine Konsolen kosteten (jeweils mit Memory Card und RGB-Kabel) 157 bzw. 183 €. 400 € kosten vielleicht aktuelle Top-Konsolen. Imo sollte man nicht den Launch-Preis heranziehen, in deinem 500-€-PC sind ja auch keine hochaktuellen Highend-Teile drinnen.

Natürlich kann ein PC mehr als eine Konsole, sein Anwendungsspektrum ist (je nach Ausstattung) deutlich breiter. Trotzdem wird der PC damit nicht zur guten und günstigen Spielmaschine. Meine Playsi habe ich über Weihnachten einfach im Rucksack mit zu meinen Eltern genommen. Das versuche man mal mit einem PC.

Dass man mit dem Kauf einer Konsole auf dessen Hardware "festgezurrt" ist, stimmt natürlich. Aber wo genau ist der Nachteil? Der besteht darin, dass man auf die Folge-Generation warten muss und nicht in kleinen Schritten upgraden kann. Dem gegenüber stehen eine Reihe an Vorteilen, finde ich.

Slipknot79
2006-03-29, 13:07:16
>Doch das ist nichts verglichen mit dem, was ich beim PC so alles als lästig empfinde. Dazu gehören auch Nachladeruckler.


Dann hast du wohl zu wenig RAM :(

Raff
2006-03-29, 13:09:05
Auch Konsolen konnte man schon aufrüsten. Ich denke hier speziell an das Expansion Pack beim N64, das den Arbeitsspeicher von 4 auf gigantische 8 MiB verdoppelte und erst Spiele wie Donkey Kong 64, Perfect Dark oder Banjo-Tooie ermöglichte.

MfG,
Raff

aths
2006-03-29, 13:15:29
Auch Konsolen konnte man schon aufrüsten. Ich denke hier speziell an das Expansion Pack beim N64, das den Arbeitsspeicher von 4 auf gigantische 8 MiB verdoppelte und erst Spiele wie Donkey Kong 64, Perfect Dark oder Banjo-Tooie ermöglichte.Zum Glück hat sich die Nachrüstbarkeit des Speichers nicht durchgesetzt. Somit besteht die Sicherheit: Das Spiel läuft auf meiner Konsole ohne irgendwas aufrüsten zu müssen.

>Doch das ist nichts verglichen mit dem, was ich beim PC so alles als lästig empfinde. Dazu gehören auch Nachladeruckler.


Dann hast du wohl zu wenig RAM :(Wenn ich ein Spiel kaufe, will ich es spielen und nicht noch extra Geld für neue Hardware ausgeben. Ruckler im Spiel kann es auch geben, weil irgendein Hintergrunddienst auf die Platte zugreift. Mich stört sowas extrem – seitdem ich das Konsolen-Feeling kenne, wo beim Spielen nur das Spiel läuft. Und keine Programme, die sich auch mal ungefragt in den Vordergrund holen.

Bei Konsolen interessiert mich z. B. die Hardware-Ausstattung wenig. Wahrscheinlich wird die PS3 in der kommenden Generation die meiste Rechenkraft ihrer Generation bieten. Ja, schön, und weiter? Mich interessieren die neuen Konzepte beim Revolution viel mehr als Cell-Prozessoren und HDTV.

Die PS2 ist eigentlich eine Fehlkonstruktion. Aber Gran Turismo gibts nun mal nur für die PS2. Damit hat die Konsole für mich ihre volle Berechtigung. Wenn ich Resident Evil 4 auf dem Cube sehe, sehe ich zwar keine Shader-Effekte à la HL2, trotzdem halte ich das Spiel für um Klassen besser. Die Grafik auch, obwohl die RE4-Grafik technisch deutlich schwächer ist.

Konsolen sind elektronische Spielzeuge und müssen nicht mit HW-Features protzen. Der Atari 2600, so ziemlich die primitivste Konsole die man sich vorstellen kann, hat viele Jahre gelebt. Trotz schlichter Grafik.


Dass man den PC um eine PhysX-Karte aufrüsten kann, ist in der PC-Welt ein Vorteil, klar. Die PC-Welt treibt auch den Fortschritt voran. Das möchte ich nicht abstreiten. Heutige Konsolen profitieren auch von den Erfahrungen, die man in der PC-Hardwarewelt gesammelt hat, ohne die Spiele-PC-Hardware-Entwicklung wären aktuelle Konsolen wohl lange nicht so weit, wie sie heute sind. Und was habe ich gelacht, als ich mir kürzlich noch NFS3 für die Playsi kaufte … so eine himmelschreiend schlechte Grafik! Grob, Texturen verzerrt, ... zum heulen. Die PC-Version war, daran erinnere ich mich bis heute, hingegen eine richtiges Grafikschmuckstück.

roman
2006-03-29, 14:11:45
ich habe jetzt nicht den ganzen thread gelesen, hoffentlich ist die frage noch nicht gestellt worden: ist das featureset einer solchen PPU eigentlich fix, oder werden da auch im 6-monats-rythmus neue chips mit neuen funktionen vorgestellt? wenn eine solche 250-300 €-investition nämlich mehrere jahre halten würde, könnte ich mich durchaus zum kauf hinreißen lassen.

aths
2006-03-29, 15:29:41
Mehrere Jahre? In mehreren Jahren wird der PhysX-Chip wahrscheinlich völlig überholt sein. Man kann im PC-Bereich sowieso schlecht in die Zukunft planen. Wichtig ist doch erst mal, ob in naher Zukunft Spiele kommen werden, die durch die PPU erheblich bessere Physik realisieren. Sofern es solche Spiele gibt, kann man auch was die PPU anbelangt, zugreifen.

roman
2006-03-29, 16:13:21
Mehrere Jahre? In mehreren Jahren wird der PhysX-Chip wahrscheinlich völlig überholt sein. Man kann im PC-Bereich sowieso schlecht in die Zukunft planen. Wichtig ist doch erst mal, ob in naher Zukunft Spiele kommen werden, die durch die PPU erheblich bessere Physik realisieren. Sofern es solche Spiele gibt, kann man auch was die PPU anbelangt, zugreifen.
naja, aber wenn spiele nur bis in nahe zukunft davon profitieren, ist ein preis von 300 € eindeutig zu viel. ich habe keine lust (und noch weniger kohle), jedes jahr neben einer neuen grafikkarte auch noch dieselbe summe in einen physikbeschleuniger zu investieren.

und inwiefern überholt? was soll bei so einer PPU groß erneuert werden? die art der anfallenden physikberechnungen wird sich ja nicht ändern - es wird höchstens MEHR zu berechnen geben, aber imho sollte die leistung eines dedizierten physikprozessors schon einige jahre ausreichen.

Mehrpack
2006-03-29, 16:14:49
Algorthymus. Kann man Algorithmus eigentlich noch falscher schreiben? :D
Wie wärs mit Symuhtrogla? ;D

hi,
pfff, ich hätte es ja auch mit alygorierendmus versuchen können :P :D

aber ich weiss schon das meine rechtschreibung nicht gerade so toll ist.


Einfach gedacht aber garnicht so falsch.
Die zunehmende Physik stellt auch neue Anforderungen an die KI. Im Prinzip muss eine ("perfekte") KI auch in der Lage sein physikalische Berechnungen durchzuführen zu können, um bestimmte Entscheidungen zu treffen (kann ich das umgefallene Regal vor der Tür wegräumen? wenn ja, wo muss ich es angreifen?). Es gibt afaik aber kein Produkt, dass so etwas schon nutzt und es wird wohl auch in naher Zukunft nichts in der Richtung erscheinen.

Prinzipiell gibt es für die KI momentan noch zu wenig Middleware und die, die verfügbar ist, ist den Herstellern wohl noch zu unflexibel. So baut sich jeder Hersteller jedes mal von Grund auf seine eigene KI und hat damit nie genug Budget um wirklich in solche Bereiche vordringen zu können.


mhh stimmt, also könnte man vielleicht schon sagen das evt Physik und KI in zukunft dann von einem extra stück hardware am besten berechnet werden, wie es ja im grunde jetzt auf der CPU der fall ist.


[...}
Komplexe Physiksimulationen wie in der Realität wird es in den nächsten 10 Jahren nicht geben, dazu sind die PCs einfach noch viel zu schwach. beispiel: Wettersimulation. Dazu werden riesige Supercluster benötigt die einzig einen korrekten Wetterablauf darstellen können. Oder Atombombe. Ist BlueGene/L nicht zur Zeit der schnellste Rechner der Welt? Ich glaube der macht nix anderes alle physikalischen Gegebenheiten einer Atomexplosion korrekt zu simulieren.

Schlussendlich wird es Jahre Dauern bis Physik im begrenzten Rahmen einer Spieleszenerie halbwegs alles abdeckt um RL nachzubilden. Nur wird das uns nicht auffalllen, da wir ja auch selten bewusst wahrnehmen, wie bei einen herbstlichen Waldspaziergang die Blätter physikalisch korrekt von den Bäumen fallen ;-)

Ich werde dem Teil definitiv eine Chance geben, denn Potential ist da und was besseres als dedizierte Hardware gibt es nicht.

uff keine ahnung, aber die modelle die zur simulation von atombomben genutzt werden haben mittlerweile ja praxistest überflüssig gemacht.
also entweder ist es genau genug das es ausreicht oder es ist genau.

ja jahre schon aber ich denke mal das man diese evolution über die jahre nicht so stark wahrnehmen wird.
klar im unterschied zwischen 5 oder 7 jahre alten spielen schon, aber in nacheinander wird der unterschied im echten spielen nicht so gravierend einem auffallen.
war auch bei grafik ja so der fall, bis auf wenige ausnahmen.

Mehrpack

aths
2006-03-29, 16:31:07
naja, aber wenn spiele nur bis in nahe zukunft davon profitieren, ist ein preis von 300 € eindeutig zu viel. ich habe keine lust (und noch weniger kohle), jedes jahr neben einer neuen grafikkarte auch noch dieselbe summe in einen physikbeschleuniger zu investieren.

und inwiefern überholt? was soll bei so einer PPU groß erneuert werden? die art der anfallenden physikberechnungen wird sich ja nicht ändern - es wird höchstens MEHR zu berechnen geben, aber imho sollte die leistung eines dedizierten physikprozessors schon einige jahre ausreichen.Falls die Entwickler auf den Geschmack kommen, werden sie sich beibringen, Effekte zu entwickeln, die deutlich stärkere PPUs auslasten könnten.

Ich bin es ebenfalls leid, immer wieder so viel Kohle in den PC zu stecken – ein wichtiger Grund, auf Konsolen umgestiegen zu sein (wenn man von WC3 und vor allem WoW absieht.)

mapel110
2006-03-29, 16:31:36
Für maximale Physikdetails wird er dann eben nicht mehr ausreichen und es wird die nächste Generation an PPUs geben. Das sollte ähnlich ablaufen wie bei den Grafikkarten oder auch Soundkarten. Wer alles sehen, hören, erleben will, muss was Aktuelles im Rechner haben.

Wer nicht genug Geld hat, wartet eben, bis die nächste Generation an PPUs raus ist und kauft dann eben billig die alte Generation und kann dann obendrein auf breitere Unterstützung hoffen.

Slipknot79
2006-03-29, 16:33:16
Was für Nebenkosten sone PPU noch zusätzlich verursacht. Ich seh schon die Übertrakter zu den Shops rennen wegen einer Wakü..

Wie wärs noch mit einer Zusatzkarte für die KI? Ne AIU vllt?

Botcruscher
2006-03-29, 17:53:04
Was für Nebenkosten sone PPU noch zusätzlich verursacht. Ich seh schon die Übertrakter zu den Shops rennen wegen einer Wakü..

Die 20€ wären mir meine Ohren und Nerven wert. ;) (Zumal ich PhysX sowieso für Schwachfug halte und es imo eine Totgebuhrt wird.)

Zum Konsolen OT. Wenn man alles mit ein berechnet ist die Konsole genau so teuer wie ein PC, kann aber weit weniger.

Der Simulationssektor ist ja auch fast nicht existent auf den K.

(del676)
2006-03-29, 20:23:27
reicht die bandbreite des normalen PCI überhaupt dafür aus? (immer vorrausgesetzt man hat ne X-FI karte drin ;) )

mapel110
2006-03-29, 20:32:26
reicht die bandbreite des normalen PCI überhaupt dafür aus? (immer vorrausgesetzt man hat ne X-FI karte drin ;) )
Das sind doch nur ein paar Geometriedaten, die übertragen werden müssen. Keine gigantischen Datenmengen wie bei Texturen. Das sollten Peanuts sein. 128 bzw 256 MB verbaut man sicher nur, weils ohnehin kaum noch kleinere Speichermengen zu kaufen gibt und man vielleicht auch in dem Bereich nicht allzukleine Daten für Werbezwecke haben wollte.

(del676)
2006-03-29, 22:33:58
Ich gebe zu das viel Board Lyaouts unglücklich gelöst sind und auch die Premiumboards teilweise nicht auf SLI und Platzbedarf eingehen.
Bei vielen Boards ist bei SLI lediglich ein Steckplatz wenn überhaupt noch frei, sofern man den Dualslot-Kühler auf den Karten lässt.

Mögliche Boards:
http://www.alternate.de/html/shop/productDetails.html?artno=GPEA41&

Dieses Board bietet trotz 2 SLI Dualslotkarten noch Platz für 2 PCI Karten und der eine x1 PCIe ist auch noch möglich

Eine absolute Ausnahme stellt das Board von Intel das für meinen Gemschack den richtigen Wegt zeigt:

http://www.alternate.de/html/shop/productDetails.html?artno=GPEL33&

3 x PCIx x16!!! Trotz Dualslot SLI wäre noch Platz für eine PPU Karte der nächsten Genration mit ebenfalls x16 und ein PCI Steckplatz für ne X-FI ist auch noch möglich.

Ferner gibt es ja imme rnoch die Möglichkeit Graka-WaKÜ einzusetzen die meist nur als Singleslot Kühler aufgebaut sind. So braucht selbst eine 7900 GTX nur einen Slot.

www.alienware.de

"Der AGEIA PhysS ist aus Platzgründen nicht mit der GeForce 7900 GTX im SLI-Modus kompatibel"

derMeister
2006-03-29, 22:47:33
Das sind doch nur ein paar Geometriedaten, die übertragen werden müssen. Keine gigantischen Datenmengen wie bei Texturen. Das sollten Peanuts sein.

Dann sollte eine X1800/1900 damit ja auch fertig werden :wink:
Hat sich damit die Diskusion um Ageia erledigt :biggrin:

mapel110
2006-03-29, 22:50:08
Dann sollte eine X1800/1900 damit ja auch fertig werden :wink:
Hat sich damit die Diskusion um Ageia erledigt :biggrin:
Es sind imo wenig Daten, aber mit denen muss viel gerechnet werden.

Coda
2006-03-29, 22:56:08
Das ist auch nicht das Problem, da die Geometry wie bei der Grafikkarte auch lokal im PRAM (:ugly:) gehalten wird. Was danach an die CPU zurückfließt sind wohl die Matrizen die den momentane Transformation der Meshes angibt. Das sind wirklich Peanuts.

Mit der Berechnung an sich hat das wirklich nichts zu tun.

aths
2006-03-30, 09:24:20
Die 20€ wären mir meine Ohren und Nerven wert. ;) (Zumal ich PhysX sowieso für Schwachfug halte und es imo eine Totgebuhrt wird.)

Zum Konsolen OT. Wenn man alles mit ein berechnet ist die Konsole genau so teuer wie ein PC, kann aber weit weniger. Die Rechnung würde ich gerne mal sehen. Gerne in einem neuen Thread.

Tib
2006-03-30, 12:15:59
(Zumal ich PhysX sowieso für Schwachfug halte und es imo eine Totgebuhrt wird.)

http://www.gametrailers.com/player.php?id=9867&pl=game&type=mov

Mal ein Jährchen zurücklehnen, abwarten und dann mal weitersehen. Ich glaube auch eher an "Schwachfug", aber der Markt wird's entscheiden. ;-)

Tib

dilated
2006-03-30, 17:28:47
wenn dann will ich dafür keine extra karte haben sondern

nen chip auf der graka(bzw im graka chip drin sein)

Iwan
2006-03-30, 18:06:55
wenn dann will ich dafür keine extra karte haben sondern

nen chip auf der graka(bzw im graka chip drin sein)

dann haste entweder ne grafikkarte, die von der grafikleistung her betrachtet, mehr kostet als eine gleichschnelle gpu-only karte, oder aber weniger grafik-power hat als eine gleichteure karte mit gpu-only. sprich kostenersparniss gleich null. und wo willste denn noch eine ppu auf dem grafik pcb unterbringen? heutige pcbs von grafikkarten sind recht groß und auch das pcb der ageia ist so groß wie eine kleinere grafikkarte.

wer die karte nicht brauch/will, muss sie ja nicht kaufen bzw warten bis die teile billiger werden. entweder man investiert das geld oder gibt sich mit weniger spiele-qualität zufrieden. gibt ja auch genug kollegen hier die 2 grafikkarten einbaun, also denke ich gibt es auch einen markt an menschen die statt einer 2. grafikkarte lieber noch ne physik-karte einbaun.

Gast
2006-03-30, 18:24:38
dann haste entweder ne grafikkarte, die von der grafikleistung her betrachtet, mehr kostet als eine gleichschnelle gpu-only karte, oder aber weniger grafik-power hat als eine gleichteure karte mit gpu-only. sprich kostenersparniss gleich null.



wenn man eine gute grafikkarte und die physikkarte haben will würde das auf einem PCB sicher weniger kosten wie beide karten extra.

Slipknot79
2006-03-30, 18:33:59
wenn man eine gute grafikkarte und die physikkarte haben will würde das auf einem PCB sicher weniger kosten wie beide karten extra.


Würde ganz bestimmt weniger kosten, da schon mal weniger Versandkosten anfallen.

dilated
2006-03-30, 18:35:14
hm ja.....

imho wird sich das als extra karte nicht durchsetzen,
jedenfalls nicht im massenmarkt (midend^^)

und ma ehrlich so toll sehen die videos nun auch nicht aus als das mir das 200?€ wert wäre (gerademal 50€ viell.)

und das dafür kein platz ist weist du natürlich sicher ;)

HisN
2006-04-06, 19:28:39
von wegen im Mai kommt die Asus-Karte.. die Grosshändler wissen noch von nix....

Botcruscher
2006-04-06, 21:06:28
Würde ganz bestimmt weniger kosten, da schon mal weniger Versandkosten anfallen.

Das zusätliche routing auf dem PCB frist das locker wieder auf. Sonst hätten wir alle schon ein 512er Speicherinterface. ;)

Die Rechnung würde ich gerne mal sehen. Gerne in einem neuen Thread.

20€ für einen 0815 Kühler brauch ich dir nicht vorrechnen und eine WaKü hat man sowieso.

aths
2006-04-06, 22:20:18
20€ für einen 0815 Kühler brauch ich dir nicht vorrechnen und eine WaKü hat man sowieso.Ich habe keine Wakü.

Coda
2006-04-06, 22:26:57
Das zusätliche routing auf dem PCB frist das locker wieder auf. Sonst hätten wir alle schon ein 512er Speicherinterface. ;)
2x256 bit sind sehr viel billiger. Es kommt ja auf die Layeranzahl an.

drmaniac
2006-04-07, 08:49:30
hm ja.....

imho wird sich das als extra karte nicht durchsetzen,
jedenfalls nicht im massenmarkt (midend^^)

und ma ehrlich so toll sehen die videos nun auch nicht aus als das mir das 200?€ wert wäre (gerademal 50€ viell.)

und das dafür kein platz ist weist du natürlich sicher ;)

als passend zum Soundblaster damals die Aufsteckkarte rauskam "Waveblaster" genannt, die nichts anderes konnte, als aus Midi gepiepse schönste Instrumententöne/Konzerte zu machen, wurde die auch von der Masse aufgenommen. Und das zu einem Preis von ca 450dm

Jahre später war sie dann Standard und auf den Soundkarten selber integriert, aber es hat funktioniert...

Mir als Anreiz damals hat es genügt, dass in den Lucasarts Adventures nun statt gepiepse richtige Musikuntermalung vorhanden war, um das Ding zu kaufen :D

Slipknot79
2006-04-07, 14:01:53
>ahre später war sie dann Standard und auf den Soundkarten selber integriert, aber es hat funktioniert...


Ich hatte damals die Yamaha DB-50XG auf meine SB 16 installiert (Berühmte Adresse 330h wenn ich mich ned irre). Die Yamaha klang damals schon viel (!) besser als das was auf die heutigen Audigys implemetiert wird.

Gast
2006-04-07, 14:03:19
als passend zum Soundblaster damals die Aufsteckkarte rauskam "Waveblaster" genannt, die nichts anderes konnte, als aus Midi gepiepse schönste Instrumententöne/Konzerte zu machen, wurde die auch von der Masse aufgenommen. Und das zu einem Preis von ca 450dm



im gegensatz zum physx hat man aber einen sofort verwendbaren eindeutigen vorteil ;)

ShadowXX
2006-04-07, 14:11:59
von wegen im Mai kommt die Asus-Karte.. die Grosshändler wissen noch von nix....
Alienware liefert ab sofort gegen 289$ Aufpreis bei 2 seiner Desktopmodelle jetzt eine PhysX-Karte mit.

HisN
2006-04-07, 14:53:25
Alienware liefert ab sofort gegen 289$ Aufpreis bei 2 seiner Desktopmodelle jetzt eine PhysX-Karte mit.


Jupp.. aber einzeln gibts die noch nicht... was will ich mit nem Alienware-Rechner?

Gast
2006-04-07, 17:20:40
www.alienware.de

"Der AGEIA PhysS ist aus Platzgründen nicht mit der GeForce 7900 GTX im SLI-Modus kompatibel"

Hehe, da kannst noch so oft kontern. Es ist Aufgabe der Industrie sinnige Boardlayouts zu entwerfen, die auf diesen Bedarf eingehen.
Wenn Alienware es nicht für nötig hält anständige Boards zu fordern, die sowohl 7900 GTX SLI plus PPU-Karte zulässt, braucht sich niemand wundern.

Die von mir aufgelisteten Boards wären dazu in der Lage 2 x 7900GTx plus PPU karte zu stecken. Das es leider nur 2 Boards sind und auch nur mit Intel-CPU, zeigt, dass hier noch Defizite sind, die von den Boardhertsellern gelöst werden muss.

Ich glaube ich warte schon seit Einführung von AGP-Port darauf, dass das Graka-PCB "gedreht" wird, also der Kühler Richtung CPU zeigt und nicht nach "unten" zu der Nachbarkarte. Die Entwickler die das verzapft haben, müssen ein ziemlich berauschendes Fest gehabt haben bevor ATX und AGP Spezifikation so verabschiedet haben. Würden die GPUs auf der anderen Seite der PCB sein, hätte man auf allen SLI-Boards die jemals gebaut wurden, schon heute den Platz.

Slipknot79
2006-04-07, 22:21:37
http://www.overclockers.co.uk/acatalog/PhysX_Accelerators.html


Kann hier vorbestellt werden.

up¦²
2006-04-16, 23:06:07
2x CellFactor PhysX HD-demo: und Äktschn! :eek:
http://www.gametrailers.com/player.php?id=9867&pl=game&type=mov

Nicht von der werbung irritieren lassen... !

derMeister
2006-04-19, 14:44:03
2x CellFactor PhysX HD-demo: und Äktschn! :eek:
http://www.gametrailers.com/player.php?id=9867&pl=game&type=mov

Nicht von der werbung irritieren lassen... !

Wie geil ist das denn :eek: ;D

Slipknot79
2006-04-19, 14:53:17
Wie geil ist das denn :eek: ;D


Irengdwo gibts ein 600MB Blink File dieses Vids, habe es auf PLatte liegen, aber den Link weiss ich nicht mehr,. Kommt glaube ich in diesem Thread irgendwo vorher vor^^

Slipknot79
2006-04-19, 14:54:18
http://artificialstudios.com/media/CellFactor_M2a.exe
Wer genügend Bandbreite und Traffic hat, kann hier das Video als Bink runterladen (knapp 600 MB)


Diesen hier.

lilgefo~
2006-04-19, 15:07:04
Diesen hier.

Not Found
The requested URL /media/CellFactor_M2a.exe was not found on this server.

Additionally, a 404 Not Found error was encountered while trying to use an ErrorDocument to handle the request.

Slipknot79
2006-04-19, 15:11:54
Not Found
The requested URL /media/CellFactor_M2a.exe was not found on this server.

Additionally, a 404 Not Found error was encountered while trying to use an ErrorDocument to handle the request.



:(

Rebell
2006-04-19, 15:14:27
http://xbox360.gaming-universe.de/downloads/%5BGU%5DCellFactor-Trailer-Maerz-06.wmv

zwar net das hires format aber immerhin..
habs aber net geladen, ka ob es das überhaupt ist.

Slipknot79
2006-04-19, 15:14:53
Not Found
The requested URL /media/CellFactor_M2a.exe was not found on this server.

Additionally, a 404 Not Found error was encountered while trying to use an ErrorDocument to handle the request.


400MB, sollte auch noch ok sein oO

http://www.artificialstudios.com/Gallery/CellFactor_TrailerNew.exe

Rebell
2006-04-19, 15:24:16
also in dem movie von mir sinds einfach nur irre viele Gegenstände die umhergeschleudert werden.

Das z.b Gebäude in sich zusammenstürzen oder autos crashen oder so wär mal viel interessanter.

Slipknot79
2006-04-19, 15:31:14
also in dem movie von mir sinds einfach nur irre viele Gegenstände die umhergeschleudert werden.

Das z.b Gebäude in sich zusammenstürzen oder autos crashen oder so wär mal viel interessanter.



Zu mehr ist die Karte nicht fähig. Das wird dann wohl eher in den Nachfolgemodellen zu finden sein.

Rebell
2006-04-19, 15:34:22
hab beide movies jetz angesehn.. definitiv nicht die selben.. auch wenn die selbe Umgebung gezeigt wird.

Slipknot79
2006-04-19, 16:36:26
hab beide movies jetz angesehn.. definitiv nicht die selben.. auch wenn die selbe Umgebung gezeigt wird.



meinst du das 400MB File und der Link zuvor? Werde mir mal die 400MB saugen und mir das anschauen oO

Rebell
2006-04-19, 16:38:30
jo das 400mb movie und das wmv was ich gepostet habe.
hab beides mit ~670kb/s gezogen..

Slipknot79
2006-04-19, 17:35:26
Habe mir das jetzt mal angeschaut. Dein WMV File is das geschnittene 600MB File. Das 400MB File besteht aus Szenen des 600MB File und in den 400MB sind auch neue Szenen dabei.

Gast
2006-04-20, 07:08:16
Moin Moin,

also vielleicht schaut ihr hier mal rein da werden einige Fragen beantwortet,
auch die , ob man immer und immer wieder eine neue Karte braucht, wie jemand zu vor (-> Roman glaube ich) gefragt hatte. Dort wird gesagt, dass die notwendigen Änderungen mit Updates eingespielt werden und die Ageia für die Zukunft bestens gerüstet sei.

Also ein weiterer Kauf neben der Grafikarte zum Aufrüsten zur nächsten Generation immer wieder würde mich auch nicht gerade ansprechen.

http://techgage.com/review.php?id=2038&page=1

Gruss,
silencer

Gast
2006-04-20, 08:28:42
Zu mehr ist die Karte nicht fähig. Das wird dann wohl eher in den Nachfolgemodellen zu finden sein.


wer hat dir den blödsinn erzählt, die karte kann sicher nicht alles aber fahrzeuge etc. sollte zu den leichtesten übungen gehören.