Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: BFG Tech Ageia PhysX Review
Leonidas
2006-05-09, 08:13:03
Link:
http://www.3dcenter.org/artikel/ageia_physx/
Santini
2006-05-09, 08:49:45
Interresanter Artikel.
Ich(als Barebone Besitzer) stehe einer zusätzlichen Karte im System aber eher skeptisch gegenüber.
sie ist (noch)relativ teuer.
die Leistung ist relativ durchwachsen
sie braucht eine verbindung zum Netzteil
sie braucht einen Steckplatz (zb. Sli ,Sound,Raid ,Physik x,das wären dann 5 belegte Steckplätze .)
mal schauen ob sich das durchsetz,vielleicht gibts auch bald ne Usb 2.0 Version :biggrin:
Erinnert mich irgendwie an die S3 Virge aka Würg. Dezent schickere Optik, aber noch langsamer als zuvor. Der momentane Rohrkrepierer muss also keineswegs einer bleiben - was aus den anfangs belächelten 3D-"Beschleunigern" wurde braucht man hier ja niemandem erklären.
Monger
2006-05-09, 09:54:01
Ziemlich genau das was ich befürchtet habe, nur noch schlimmer. Eine angemessene Performance bei den Launchtiteln hätte ich eigentlich für selbstverständlich gehalten.
Hardwarebeschleunigte Physik wird in Zukunft ein Riesen Thema werden, keine Frage. Aber Ageia hat sich imho dafür unglaublich schlecht positioniert. Es kann nur eine Frage der Zeit sein, bis ATI und nVidia ein SDK schnüren, mit dem Spieleentwickler relativ stressfrei Physikbeschleunigung mit aktuellen Grafikkarten umsetzen können. Wenn Microsoft in einer neuen DirectX Version da auch noch den Deckel drauf macht, und Ageia immer noch keine nennenswerte Verbreitung gefunden hat (wovon man derzeit wohl nicht ausgehen kann), war es das.
hyperterminal
2006-05-09, 11:27:45
Gutes Review!
Schade um Ageia. Ich haette mir mehr von deren PhysX Karten erwartet.
Bei Geizhals steht, dass der Chip vermutlich mit 250MHz taktet.
Ausserdem soll es neben der kleinen 128MB Version noch eine 256MB Version mit 500MHz Speichertakt geben.
Mich wundert, dass immer gewaltige Verbesserungen im Treiber für möglich gehalten werden, ja sogar manchmal als selbstverständlich angesehen werden. Ich habe selbst schon hochoptimierten Code in Assembler geschrieben und glaube nicht, dass die miserable Performance wirklich mit einer neuen Treiber-Version beseitigt werden kann.
Wenn der Treiber so undurchdacht entwickelt wurde, dass zB 30% Performance fehlen, dann kann man da auch nichts mehr mit ein bisschen Optimieren retten. Die rechenintensivsten Routinen sind ja sicher jetzt schon Assembler-optimiert, also würde nur eine komplette Treiberneuentwicklung wirklich was bringen und die benötigt wohl mindestens 1/2-1 Jahr.
Natürlich kann ich mich irren, aber die Karte beim Launch so schlecht dastehen zu lassen, wird ja wohl nicht im Interesse der Entwickler sein (die sicher alles machen, um die Performance der Launch-Titel möglichst gut aussehen zu lassen).
Mr.Soapdown
2006-05-09, 11:32:19
Meine Güte wie kann man denn nur glauben so etwas verkaufen zu können!!!!!
Leichte fps-einbrueche haette man sich aufgrund von schöneren Effekten noch leisten können, aber sowas ist doch ein dickes Ding. Die Treiber müssen 200-300% an Performance machen, daß es sich überhaupt lohnt in eine solche Karte zu investieren.
Eine derartige Steigerung - treiberseitig - habe ich noch nicht erlebt.
Das wird, wie oben schon genannt, ein Rohrkrepierer. Wenn ich 1 Jahr weiter rechne und ATI oder vielleicht NV soetwas auf den Markt bringt müssen die Jungs gutes finanzielles Durchhaltevermögen haben.
tombman
2006-05-09, 11:34:23
Wenn nvidia oder ati so eine Karte bauen würde mit deren Technik würden sie locker mal 5 mal schneller als Ageia sein ;D;D
PCI-E 1x oder 4x + 300 Mille Transistoren, und dann werden wir ja sehen was geht ;)
Bis jetzt ist das ein Physics-DECELERATOR :naughty:
BlackBirdSR
2006-05-09, 11:38:19
tombman[/POST]']Wenn nvidia oder ati so eine Karte bauen würde mit deren Technik würden sie locker mal 5 mal schneller als Ageia sein ;D;D
PCI-E 1x oder 4x + 300 Mille Transistoren, und dann werden wir ja sehen was geht ;)
Bis jetzt ist das ein Physics-DECELERATOR :naughty:
Die HW ist sicherlich sehr schnell.
Es liegt wohl eher am Zusammenspiel aller anderen Komponenten.
Treiber, CPU/GPU, Overhead, Software und Content.
Das faszinierende ist wirklich:
Hätte man es weniger übertrieben mit den Objekten und gäbe es dann durchgehend 60fps... wir würden jetzt alle jubeln wie die blöden.
Von daher versteh ich es nicht ganz.
ShadowXX
2006-05-09, 11:39:14
Ich finde das Ihr noch auf das extrem gefakte Cellfaktor-Video eingehen hättet müssen...denn das was dort gezeigt wurde, hat mit der Realität nun wirklich nix zu tun.
Das nennt man Kundenverar*che hoch 3 (es gibt/gab bestimmt etliche vorbesteller wie man auch in anderen Foren sehen konnte).
BlackBirdSR[/POST]']Die HW ist sicherlich sehr schnell.
Es liegt wohl eher am Zusammenspiel aller anderen Komponenten.
Treiber, CPU/GPU, Overhead, Software und Content.
Woran es liegt wird sich vielleicht irgendwann noch zeigen....momentan kann man nur sagen, das Tombman mit einem 4GHz-Presler mehr Frames in der Box-Demo schafft als ein PhysX-System.....was nicht für die Karte spricht.
Das faszinierende ist wirklich:
Hätte man es weniger übertrieben mit den Objekten und gäbe es dann durchgehend 60fps... wir würden jetzt alle jubeln wie die blöden.
Von daher versteh ich es nicht ganz.
Nö....bei weniger Objekten hätten ebenfalls alle geschrien:"Und wofür brauche ich da eine Karte, bei 3 Objekten mehr"....
Scoff
2006-05-09, 11:41:08
tombman: Du hast deinen Witz des Tages gefunden oder? ;)
Sehr schade von Ageia. Leider fehlen noch die PCIe Versionen. Aber jetzt sieht das ganze schon recht bitter aus. Wie so oft kann ich nicht verstehen wie ein scheinbar halbfertiges Produkt auf den Markt werfen kann.
sok-1
2006-05-09, 11:43:08
Meine Erwartungen wurden bislang auch enttäuscht. Nun gut, wie im Review schon erwähnt wurde, ist es sicherlich möglich hier und da noch zu optimieren, aber wenigstens die Starttitel hätten doch nun rund laufen müssen!
Ist es nicht wichtig den Early Adaptors die Karte schmackhaft zu machen? Diese Leistung kann man für 300€ nicht anbieten...
Schade...
ATI und Nvidia wirds freuen.
tombman
2006-05-09, 11:47:50
ShadowXX[/POST]']
Nö....bei weniger Objekten hätten ebenfalls alle geschrien:"Und wofür brauche ich da eine Karte, bei 3 Objekten mehr"....
Genau, ich finde Cellfaktor ist eh schon an der Grenze der Anzahl der Boxen. Weniger hätte es auf keinen Fall sein dürfen, weil ein paar Boxen zusammenhauen geht auch bestens in software. (siehe meine Videos, da fliegt auch genug herum, und das flüssig)
Skullcleaver
2006-05-09, 12:48:05
Naja, ich werd das Teil trotz allem holen. Wahrscheinlich liegt es dann neben dem Rechner aber ich find die Idee gut X-D
blackbox
2006-05-09, 12:52:52
Die Karte kommt immer noch zu früh. Da haben sie sich mit ihrer Marketingmaschinerie selbst einen Klotz vors Bein geworfen.
Wahrscheinlich war die Entwicklung des Chips schon lange fertig, aber es fehlte an Partnern wie Microsoft und den Spieleherstellern.
Ich glaube, erst wenn Microsoft sich das Thema annehmen wird, dass erst dann die Karte einen enormen Schub bekommen wird.
Aber in der jeztigen Form ist die Karte doch nutzlos.
Blutmaul
2006-05-09, 12:57:44
Ich find die Idee ansich gut, mal sehn was daraus wird.
Was ich erstmal nicht versteh ist, warum die Physikberechnung über die Grafikkarte vorteilhaft sein soll.
Hat die Grafikkarte heutzutage soviel "Leerlauf", das die Recheneinheiten den zusätzlichen Physikkrams "for nothing" berechnen können?
Oder soll eine zusätzliche PPU auf den Grafikkarten verbaut werden?
Warum nicht auch auf der Soundkarte, oder wie früher als Coprozessor?
Ich glaube Ageia wird letztlich - als eigenständige Firma jedenfalls - nicht überleben.
Allerdings wirkt die Grafik von Hangar of Doom - und dies trotz Unreal 3 Engine! - für die heutige Zeit einfach nur veraltet und völlig lieblos. Die Texturen sind kaum erwähnenswert und die Objekte besitzen wenig Details.
Da hat jemand immer noch nicht verstanden, dass eine Engine nichts mit dem Content zu tun hat. X-D
Mit der UE3 kann man auch Tetris oder Doom1 realisieren.
Ich finde das Ihr noch auf das extrem gefakte Cellfaktor-Video eingehen hättet müssen...denn das was dort gezeigt wurde, hat mit der Realität nun wirklich nix zu tun.
Das gabs bei sovielen Spielen und jedesmal ist es eine Sensation. Am schlimmsten finde ich es wenn die Leute aus einem unscharfen, verwackelten und abgefilmten Video großartig etwas folgern. ;D
Die HW ist sicherlich sehr schnell.
Es liegt wohl eher am Zusammenspiel aller anderen Komponenten.
Treiber, CPU/GPU, Overhead, Software und Content.
Ganz wichtiger Punkt!
Keiner weiss woher die Performanceeinbußen kommen.
Wenn die bei Cellfactor wirklich während des Spiel erst noch die Shader compilieren, würde ich den Entwicklern mal die Programming Guides der GPU-Hersteller in die Hand drücken. Vielleicht liegt auch an irgendwelchen zu langsamen Beschleunigerstrukturen in den Engines, die bisher durch die geringe Anzahl von dynamischen Objekten nicht wirklich optimiert werden mussten.
Kann vieles sein...
Monger
2006-05-09, 13:12:39
Blutmaul[/POST]']Ich find die Idee ansich gut, mal sehn was daraus wird.
Was ich erstmal nicht versteh ist, warum die Physikberechnung über die Grafikkarte vorteilhaft sein soll.
Hat die Grafikkarte heutzutage soviel "Leerlauf", das die Recheneinheiten den zusätzlichen Physikkrams "for nothing" berechnen können?
Wohl schon. Wirklich beurteilen können wir es natürlich erst, wenn HavocFX irgendwo mal eingesetzt wird, aber bei modernen Spielen mit viel Physik limitiert in aller Regel immer noch die CPU, und nicht die GPU.
Warum nicht auch auf der Soundkarte, oder wie früher als Coprozessor?
Weil die Soundkarte ganz anders aufgebaut ist. Die muss in erster Linie sehr präzise und sehr flexibel rechnen können. Eine Grafikkarte ist ein Rechenmonster was addieren und multiplizieren angeht. Genau das, was man für die meisten physikalischen Berechnungen braucht.
Skullcleaver
2006-05-09, 13:13:26
RLZ[/POST]']Da hat jemand immer noch nicht verstanden, dass eine Engine nichts mit dem Content zu tun hat. X-D
Mit der UE3 kann man auch Tetris oder Doom1 realisieren. Da hat jemand den Post nicht verstanden... Man hätte mit der UE3 Engine einieges mehr erreichen können. Das meint er.
Das die Leute das Teil in dem Zustand überhaupt auf den Markt bringen ist eine Beleidigung.-Ausserdem glaube ich, dass der PCI-Bus sehr wohl an einem oder sogar dem Problem schuld ist! Die 133MB/sek (theoretisches Max.) reichen einfach nicht aus.-Was nützt die schnellste Datenverarbeitung auf dem Board, wenn dieses die Daten nicht schnell genug von/zur CPU schicken kann.-Natürl. können es auch Treiberprobs. sein.-Aber bei allen getesteten Games,Anwendungen das selbe Bild.-Sobald PhysX zum Einsatz kommt, dann sinken die FPS-Raten ins unspielbare! -Wer sich z.Zt. so eine Karte kauft ist echt nicht ganz dicht.-Dann lieber ne 2te Graka für SLI/CF.-Da kann ich wenigstens noch wählen.-Und womöglich bringt SLI/CF-Physik-Berechnung ja sogar besser Ergebnisse!-Mal sehen.-300 Stutz!-Die Spinnen echt.
BlackBirdSR
2006-05-09, 13:42:57
Wenn man das Alles auf wenige Aussagen reduziert kommt dabei ja eigetlich Folgendes raus:
Ist es empfehlenswert die Karte jetzt zu kaufen? - Nein
Wenn ich es trotzdem tue, hab ich was davon? - Nein
Es besteht kein Zweifel, dass PhysX ein leistungsfähiger ASIC ist, der die ihm zugewiesenen Aufgaben gut erledigt.
Allerdings funktioniert das Ganze noch nicht so recht.
Erschreckend ist aber, dass Ageie den Launch genau so zugelassen hat.
So wie es momentan aussieht, hätten sie ohne reviews mehr Karten verkauft.
Und an diesem Punkt ist etwas gewaltig schief gelaufen.
tombman
2006-05-09, 13:54:21
BlackBirdSR[/POST]']
Wenn ich es trotzdem tue, hab ich was davon? - Nein
Naja, es befriedigt meine Neugier ;D
So wie es momentan aussieht, hätten sie ohne reviews mehr Karten verkauft.
ROFL, Satz des Tages ;)
Thowe
2006-05-09, 14:11:50
Eine Frage zwischendurch, wurde die Karte mal außerhalb eines nForce-Chipsatz getestet? Wenn nicht hier, dann woanders?
Den nForce 4 stehe ich persönlich mitlerweile relativ skeptisch gegenüber, vor allem was die PCI Anbindung angeht.
BlackBirdSR
2006-05-09, 14:20:57
Thowe[/POST]']Eine Frage zwischendurch, wurde die Karte mal außerhalb eines nForce-Chipsatz getestet? Wenn nicht hier, dann woanders?
Den nForce 4 stehe ich persönlich mitlerweile relativ skeptisch gegenüber, vor allem was die PCI Anbindung angeht.
Auf Computerbase mit einem 955X.
Wir haben uns die letzten Tage viel unterhalten, und die Probleme sind dort auch vorhanden.
Wenn die Benchmarks auch grundlegend anders gemacht wurden als bei uns.
Pinoccio
2006-05-09, 14:29:21
Kurz: schöner Text, aber schlechte Karte.
Im Gegensatz zu einigend er letzten Artikel wiedermal gut lesbar und mit sehr wenig Rechtsschreibe- oder Grammtikfehlern.
Leider enttäuscht die getestete Karte die hohen Erwartungen, hoffen wir, daß es in naher Zukunft da große Fortschrite gibt.
Was mich noch interessieren würde, kann man mit der Karte auch generell wissenschaftliche Simulationssoftware unterstützen oder bleibt man da leiebr bei aktuellen Grafikkarten (http://www.gpgpu.org/)?
Ist das SDK bzw. die Dokumentation in der Hinsicht brauchbar?
mfg Sebastian
Ojeoje... das ist ja mal eine Enttäuschung! Vor allem das das CellFactor-Video so gefaket worden ist, macht mich sauer. Ich denke mal das viele Spieler, die mittlerweile genung von Counterstrike und Co. haben, in CellFactor so etwas wie ein "Rebirth" dieses Spielprinzips gesehen haben (mit ein paar netten Neuheiten wie den Psi-Kräften). Aber wenn das nichtmal auf einem System wie im Review flüssig läuft, hallo?!
Da hab ich auch grade mal ne prinzipielle Frage: soll PhysX eigentlich skalierbar sein? Also das man 2 Karten einbauen kann? Jetzt nicht für Spiele sondern für wissenschaftliche Berechnungen usw. (Hehe, ich stell mir aber grade einen SLI/Crossfire-Fanatiker vor: "wtf? Neue Steckkarten im PC? Ich nehm zwei davon!")
Meiner Meinung nach ist der PCI Bus Schuld an der Misere, egal ob bei NForce oder Intel Chipsätzen. Die wollen die PhysX Karte ja auch auf PCIe bringen, aber dann gleich als 4x ausführung! Wohl nicht umsonst. Anscheinend sind die mit ihrem PCIe Chip aber noch nicht soweit.
Exlua
2006-05-09, 16:05:11
Monger[/POST]']Wohl schon. Wirklich beurteilen können wir es natürlich erst, wenn HavocFX irgendwo mal eingesetzt wird, aber bei modernen Spielen mit viel Physik limitiert in aller Regel immer noch die CPU, und nicht die GPU.
Du vergisst aber das ,wenn du Havoc FX einsetzen willst brauchst du ein SLI system. Ergo zahlste so oder so 300€ ,aber ich würde die 2. Grafikkarte dafür benutzen wofür sie gebaut wurde. Und nicht für Physikeffekte...
Monger
2006-05-09, 16:19:36
Exlua[/POST]']Du vergisst aber das ,wenn du Havoc FX einsetzen willst brauchst du ein SLI system. Ergo zahlste so oder so 300€ ,aber ich würde die 2. Grafikkarte dafür benutzen wofür sie gebaut wurde. Und nicht für Physikeffekte...
Ich hab leider grad keine Quelle dafür, aber afaik muss man eben NICHT zwingend eine Karte für Physikberechnungen reservieren. Das geht inzwischen auch anders.
Ist auch schwachsinnig, weil im Grunde wird ja nix anderes gemacht, als noch zusätzlich ein paar Shader durch die Pipeline zu jagen, aber halt nicht für Grafik zu verwenden.
Und wie gesagt: aktuelle Grafikkarten wie z.B. die X1900XT drehen bei aktuellen Spielen Däumchen, während die CPU ächzt. Wenn man die Physikberechnungen von CPU auf GPU verlagert, dürfte das allgemein die Performance heben. Und was den Mainstream Bereich angeht: dann lieber von einer 200 Euro Karte auf eine 400 Euro Karte aufrüsten, als sich zusätzlich eine 300 Euro PhysX Karte reinzustopfen. Von einer stärkeren Grafikkarte hat man IMMER was (solange die CPU nicht limitiert), von PhysX eben nur sehr beschränkt.
Bokill
2006-05-09, 16:37:12
Gast[/POST]']
... Da hab ich auch grade mal ne prinzipielle Frage: soll PhysX eigentlich skalierbar sein? Also das man 2 Karten einbauen kann? ... Ich persönlich denke schon, das man eine derartige Karte auch skalierbar machen kann (um das Wort "SLI/CrossFire mal zu vermeiden).
Auch wenn derzeit alles andere wie klar ist, welches Design dahinter steckt, es wird sich wohl um einen speziellen Multicore und/oder DSP handeln, der sich sehr flexibel und vor allem multithreaded programmieren lässt.
Ich denke, das Problem derzeit ist aber weniger Skalierbarkeit, sondern es ist erst mal zu zeigen welchen Praxiswert der PhysX derzeit überhaupt hat, bzw. wo da die Limitierung derzeit ist.
A. Overhead der DX9 Engine?,
B. Kann auch OpenGL damit entlastet/beschleunigt werden?,
C. Grottige Treiber des PhysX?,
D. Grottige Treiber der bisherigen GPUs?,
E. Denkbar schlechtestes Interface (PCI-Express doch besser als PCI?),
F Grottige Umsetzung in den Spiele-Engines? ...
Fragen über Fragen, selbst die Auflistung ist bei mir da völlig willkürlich, da ich keinerlei Anhaltspunkte habe, wo da die Probleme derzeit liegen.
MFG Bobo(2006)
Bokill
2006-05-09, 16:41:35
BlackBirdSR[/POST]'] ... Erschreckend ist aber, dass Ageie den Launch genau so zugelassen hat.
So wie es momentan aussieht, hätten sie ohne reviews mehr Karten verkauft.
Und an diesem Punkt ist etwas gewaltig schief gelaufen. He he da hat tombman Recht mit dem "Spruch des Tages" :D :ulol:
MFG Bobo(2006)
Die Ageianer müssen sich doch was versprochen haben, daß sie schon jetzt mit einem so unausgereiften Produkt auf den Markt geprescht sind und auch noch eins, wofür es weit und breit noch keine gescheite Unterstützung seitens der Spieleindustrie gibt. Egal wo ich lese, überall Verriß. So kann man in nullkommanix auch seinen Namen ruinieren. ;(
dilated
2006-05-09, 16:53:08
BlackBirdSR[/POST]']
Das faszinierende ist wirklich:
Hätte man es weniger übertrieben mit den Objekten und gäbe es dann durchgehend 60fps... wir würden jetzt alle jubeln wie die blöden.
Von daher versteh ich es nicht ganz.
jubeln wie ein blöder würde ich nicht mal wenns meine erwartungen erfüllt hätte
was bisher noch kein video/review konnt
für 300€ bisher ne frechheit (btw. ich wussts^^)
OBrian
2006-05-09, 16:57:19
Freut Euch doch, so sparen wir ne Menge Geld, sonst müßten wir Freaks jetzt alle losrennen und erstmal 300€ investieren, um wieder up-to-date zu sein ;D
Monger
2006-05-09, 17:47:46
dilated[/POST]']jubeln wie ein blöder würde ich nicht mal wenns meine erwartungen erfüllt hätte
was bisher noch kein video/review konnt
für 300€ bisher ne frechheit (btw. ich wussts^^)
Vielleicht hat Dell Druck gemacht. "Entweder ihr könnt bis zum Datum XY liefern, oder der Deal platzt bzw. muss neu verhandelt werden." Vielleicht brauchten sie einfach das Geld, auch wenn es ein hohes Risiko bedeutet...
Avalox@Gast
2006-05-09, 17:58:10
Test in PCGH
http://www.pcgameshardware.de/?article_id=468721&page=1
zu Cell-Factor
"bei größeren Explosionen mit vielen durch die Luft wirbelnden Partikeln, Gegenständen und Bruchstücken bleibt die FPS-Rate meist im spielbaren Bereich jenseits der 25 Fps"
Die CPU und die Grafikkarte waren ein wenig schneller (A64 FX-60) in dem Test.
Madkiller
2006-05-09, 18:07:22
BlackBirdSR[/POST]']
Das faszinierende ist wirklich:
Hätte man es weniger übertrieben mit den Objekten und gäbe es dann durchgehend 60fps... wir würden jetzt alle jubeln wie die blöden.
Von daher versteh ich es nicht ganz.
Jap, die richtige Mischung macht's.
Von daher kann man (wohl) nur hoffen, daß bei zukünftigen Spielen bei aktivieren Physik-Effekten eingestellt werden kann, welcher Detailgrat verwendet werden soll.
Daß man also zur Not die Karte bei normalen Physik-Effekten auch einfach nur zur Beschleunigung des Spiels bei CPU-Limitierung hernehmen kann.
Ansonsten, hat mir der kritische Artikel sehr gut gefallen.
Es wurde weder versucht, etwas krampfhaft zu loben, noch etwas schlecht zureden, sondern es wurden (möglichst) beide Seiten neutral beleuchtet. :)
Monger[/POST]']Ich hab leider grad keine Quelle dafür, aber afaik muss man eben NICHT zwingend eine Karte für Physikberechnungen reservieren. Das geht inzwischen auch anders.
Ist auch schwachsinnig, weil im Grunde wird ja nix anderes gemacht, als noch zusätzlich ein paar Shader durch die Pipeline zu jagen, aber halt nicht für Grafik zu verwenden.
Und wie gesagt: aktuelle Grafikkarten wie z.B. die X1900XT drehen bei aktuellen Spielen Däumchen, während die CPU ächzt. Wenn man die Physikberechnungen von CPU auf GPU verlagert, dürfte das allgemein die Performance heben. Und was den Mainstream Bereich angeht: dann lieber von einer 200 Euro Karte auf eine 400 Euro Karte aufrüsten, als sich zusätzlich eine 300 Euro PhysX Karte reinzustopfen. Von einer stärkeren Grafikkarte hat man IMMER was (solange die CPU nicht limitiert), von PhysX eben nur sehr beschränkt.
Sorry, aber das ist Quatsch. Der Sinn der externen Auslagerung der Physikberechnungen ist doch, dass Berechnungen durchgeführt werden sollen, die eben nicht zu Lasten der Performance gehen. Das lässt sich zwar mit einer Physikkarte nur teilweise erreichen (CPU muss immernoch Rechenzeit dafür abzwacken), jedoch kann das Maß aller Dinge wohl kaum sein, der Grafikkarten in Lastscenen (Explosionen z.B.) noch mehr Rechenzeit aufzubürden. Mal ganz davon abgesehen, dass Physikberechnungen nicht nur aus Vektorberechnungen bestehen, sondern auch aus Skalarberechnungen und da sind Grafikkarten nunmal einfach nicht die schnellsten Vertreter, im Gegenteil, du stallst nen kompletten Pixelquad mit so nem Mist.
Sorry, Physik auf Grafik taugt nix, dann lieber auf dem 2. CPU Core oder einer externen Karte. Ich bin überzeugt davon, dass eine PCIe 4x PhysX Lösung funktioniert.
Vielleicht wäre noch eine separate Grafikkarte als zusätzlicher Vektorrechner denkbar (eine X1600 würde sich dafür wohl eigenen) aber die berechnet dann keine Grafik und das Problem der Skalarberechnungen, die die CPU belasten besteht immernoch.
Demirug
2006-05-09, 18:35:36
HOT[/POST]']Meiner Meinung nach ist der PCI Bus Schuld an der Misere, egal ob bei NForce oder Intel Chipsätzen. Die wollen die PhysX Karte ja auch auf PCIe bringen, aber dann gleich als 4x ausführung! Wohl nicht umsonst. Anscheinend sind die mit ihrem PCIe Chip aber noch nicht soweit.
Ich glaube irgenwie nicht das es mit PCIe besser aussieht.
Avalox@Gast[/POST]']Test in PCGH
http://www.pcgameshardware.de/?article_id=468721&page=1
zu Cell-Factor
"bei größeren Explosionen mit vielen durch die Luft wirbelnden Partikeln, Gegenständen und Bruchstücken bleibt die FPS-Rate meist im spielbaren Bereich jenseits der 25 Fps"
Die CPU und die Grafikkarte waren ein wenig schneller (A64 FX-60) in dem Test.
Is klar, nen FX-60, sicher... den hat ja auch jeder halbwegs ambitionierte Gamer rumliegen. Mal im Ernst: so das Wahre kann CellFactor nicht sein, PhysX hin oder her, wenn das nichtmal auf nem "normalen" modernen System, z.B. A64 3600+, zum Laufen zu bekommen ist.
Ich kann irgendwie nicht verstehen, weshalb das so viel Performance verbrauchen soll. Klar ziehen Sachen wie Motion Blur, HDR, etc. die GraKa nach unten (grade Motion Blur bei so vielen Kisten und Bruchstücken), aber trotzdem.
Robbson
2006-05-09, 18:52:45
Demirug[/POST]']Ich glaube irgenwie nicht das es mit PCIe besser aussieht.
Das sehe ich genauso! Für die (im Vergleich zu der übrigen Levelgeometrie) wenigen Vektoren und Skalare sollten die (theoretischen) 133MB/s ja vollkommen genügen, um min. konstante >=50fps erzeugen zu können... und es sind ja auch keine Bandbreite-fressenden Texturen o.ä. wie bei einem GFX Board nötig...
Das Cellfactor Video war zwar ganz nett, würde mich dennoch nicht zu einem Kauf bewegen... Ich bin mir sicher, daß ein zweiter Core eines Athlons das auch noch halbwegs hinbekommen würde (vielleicht mit Abstrichen bei Exaktheit und so)... nur eine faire Vergleichsmöglichkeit gibt's ja leider nicht... und selbst wenn, würde Ageia womöglich reine Softwarelösungen künstlich benachteiligen.
Ich hätte mir lieber ein paar Demos zu Cloth Simulationen oder FEM gewünscht... dazu braucht es doch keine Game Demos... ein paar Techdemos hätten zumindest klargemacht bzw. die Hoffnung erbracht, daß die Grundperformance da ist... von der ist aber nix zu sehen, darum verstehe ich nicht, wieso hier so viele davon überzeugt sind, daß in dem Chip so viel steckt...nicht einmal Details sind bekannt.
In der heutigen Zeit kann man sich unmöglich so einen müden Auftakt erlauben... Ich glaube, damit hat sich Ageia das eigene Grab geschaufelt. Mag ja sein, daß viele Games die PhysX Engine nutzen werden... aber wenn die Hardware nicht gekauft wird, weil's in Software ebenso gut geht, war's das wohl.
Robbson.
EDIT: Kleiner Rechtschreibfehler behoben... gibt ja so Überempflindliche hier... :rolleyes:
Omnicron
2006-05-09, 19:22:48
Hat Aegia was gesagt von wegen es bereits ein PhysX 2 in Entwicklung?
Aqualon
2006-05-09, 19:43:56
Abgesehen von der momentanen Performance, braucht es für einen Durchbruch sowas wie "DirectPhysics" als Erweiterung zu DirectX. Die 3D-Beschleuniger wurden auch erst wirklich erfolgreich, also man Spiele auf der Hardware verschiedener Hersteller spielen konnte und das geht nunmal nicht mit einer mehr oder weniger herstellerspezifischen API (sei es nun PhysX oder HavokFX).
Erst wenn Konkurrenz da ist, fallen auch die Preise und es lohnt sich sowohl für die Spielehersteller als auch für die Spieler über das Thema genauer nachzudenken.
Aqua
Monger
2006-05-09, 19:57:47
Aqualon[/POST]']
Erst wenn Konkurrenz da ist, fallen auch die Preise und es lohnt sich sowohl für die Spielehersteller als auch für die Spieler über das Thema genauer nachzudenken.
Aqua
Oder: erst wenn ein Hersteller eine Marktdeckung von 80% erreicht hat, kann man seinen Standard zum Industriestandard machen, und hat somit etwas Sicherheit. Aber Ageia wird kein zweites 3DFX oder Creative Labs(im positiven Sinne), da bin ich mir ziemlich sicher. Bei Grafikkarten eine gewisse Marktdeckung zu erreichen war ja noch einigermaßen einfach, weil nunmal selbst der schlechteste Office PC irgendeine Grafiklösung braucht. Bei Soundkarten war es schon kniffliger, weil vielen die marginalen Verbesserungen gar nicht auffallen. Aber selbst wenn JEDER hier im Forum sich im nächsten halben Jahr eine Physikkarte kauft, werden das 80% der relevanten Zielgruppe trotzdem nicht tun, schon alleine wegen dem Preis. Wir sind hier bei weitem nicht repräsentativ.
Wenn man heute eine Marktlücke nicht innerhalb weniger Monate besetzt, wird sich ein anderer darin bequem machen.
Wirklich enttäuschende Vorstellung.
Welche Soundkarte kam denn zum Einsatz? IMHO eine wichtige Angabe bei einem Test von PCI-Hardware. Audigy und X-Fi futtern schon dick Bandbreite. Daher wäre auch mal ein Test mit deaktiviertem (Hardware-)Sound interessant gewesen. Ach ja, und mal auf einem System, das die Übertaktung des PCI-Bus ermöglicht. IMHO völlig logische Späße wie letzteres wagt niemand, dabei würde ein 40-MHz-PCI genau zeigen, ob da was limitiert ... ;)
MfG,
Raff
Piffan
2006-05-09, 21:15:13
Avalox@Gast[/POST]']Test in PCGH
http://www.pcgameshardware.de/?article_id=468721&page=1
zu Cell-Factor
"bei größeren Explosionen mit vielen durch die Luft wirbelnden Partikeln, Gegenständen und Bruchstücken bleibt die FPS-Rate meist im spielbaren Bereich jenseits der 25 Fps"
Die CPU und die Grafikkarte waren ein wenig schneller (A64 FX-60) in dem Test.
Ist der Redi dort nicht Quasar? Wäre ja mal schön, wenn er hier auch mal was sagt. :tongue:
Sorry, wenn das Ding erst in Verbindung mit einem Monsterprozessor halbwegs performt, ist das Ding ne Totgeburt. Warum nur läßt mich die Aussage "bleibt die FPS- Rate meist im spielbaren Bereich jenseits der 25 Fps" gaaanz schlimmes ahnen. :redface:
Die wissen schon länger, dass sie fertig haben und keinen Stich machen. Daher der marketingtechnische Selbstmord, vielleicht ist es auch der Deal mit Dell......
tombman
2006-05-09, 22:23:22
Bei rennt es ohne PPU im Editor auch flüssig (ok, weniger Trümmer), also hängts vielleicht von der cpu ab?
Welchen Sinn soll eine PPU haben, wenn eine schnelle CPU das ebenfalls hinkriegt? Und welchen Sinn sollte sie haben, wenn es für brauchbare Fps neben der PPU eine ebenfalls starke CPU braucht? Im jetzigen Stadium völlig sinnlos, wie schon konstatiert.
MfG,
Raff
ShadowXX[/POST]']Ich finde das Ihr noch auf das extrem gefakte Cellfaktor-Video eingehen hättet müssen...denn das was dort gezeigt wurde, hat mit der Realität nun wirklich nix zu tun.
Würd mich mal interessieren, was für ein System die da verwendet haben.
Muss wohl nen kompressorgekühltes/übertaktetes Dual-Core System gewesen sein.
BlackBirdSR
2006-05-09, 23:22:33
Gast[/POST]']Is klar, nen FX-60, sicher... den hat ja auch jeder halbwegs ambitionierte Gamer rumliegen. Mal im Ernst: so das Wahre kann CellFactor nicht sein, PhysX hin oder her, wenn das nichtmal auf nem "normalen" modernen System, z.B. A64 3600+, zum Laufen zu bekommen ist.
Ich kann irgendwie nicht verstehen, weshalb das so viel Performance verbrauchen soll. Klar ziehen Sachen wie Motion Blur, HDR, etc. die GraKa nach unten (grade Motion Blur bei so vielen Kisten und Bruchstücken), aber trotzdem.
hätte man vielleicht erwähen sollen:
Bei den Screenshots und Videos von Ageia waren alle details auf maximum gesetzt. Bei mir unspiebar.
In unserem Test war Motionblur, HDR und AF deaktiviert um die 33fps zu erreichen, die man ohne große Action dann hat.
Crazy_Borg
2006-05-09, 23:34:08
Bokill[/POST]']Ich persönlich denke schon, das man eine derartige Karte auch skalierbar machen kann (um das Wort "SLI/CrossFire mal zu vermeiden).
Nennen wir es doch MultiPhysX :biggrin:
Arbeiten da ehemalige Leute von S3 ???
Erstens sind Spiele mit PhysX-Karte langsamer als ohne. S3 Virge lässt grüßen (wie bereits erwähnt).
Zweitens kommt mir der Spruch "zukünftige Treiber werden die Performance noch weit steigern" aus sehr bekannt vor.
Bei der Deltachrome wurde das oft genug in den Mund genommen.
Gebracht hat es so gut wie nichts. Um Mafia flüssig zocken zu können musste ich mir erst eine Chrome S27 holen...
Was lernen wir daraus?
Auf die PhysX 2.0 warten.
Die derzeitige Karte eignet sich nur um damit Real-Life-Physik zu testen. Um zu sehen wie sie reagiert wenn man sie aus dem Fenster schmeisst! ;D
Es fehlt auch noch die richtige Killer-App für die Karte.
Ghost Recon AW ist da wohl kaum das richtige.
Die bisschen mehr Partikel sind wohl keinem 300€ wert. Nicht mal 100.
Und dafür auch noch langsamer als ohne...
Die Frage ist auch wozu zum Teufel hat das Teil 128mb Ram?
Würden nicht für die reinen Physikdaten 32mb reichen?
Was muss dann da gross ausgelegt werden? Physik-Texturen???
Viel mehr als Vektoren, Koordinaten, Massenwerte, etc kanns doch nicht sein.
Wenn die Karten tatsächlich die 128mb Ram nutzt, wofür auch immer, ist wohl klar das der PCI Slot am Ende ist. Nicht umsonst sind die Grafikkarten von PCI auf erst AGP umgestiegen und nun für die Zukunft auf PCIe.
Mich persönlich hat die Physik von Trespasser (1998!) mehr fasziniert als das was mir PhysX da gross anderehen will.
Die 300€ würde ich auch in Zukunft eher in eine stärkere CPU stecken.
Da habe ich sicher mehr davon.
Ausserdem hätte ich lieber einen KI-Beschleuniger!
Deren Verbesserung wäre mir viel wichtiger.
---EDIT---
Ups, total vergessen:
Schöner Artikel! :up:
Smoke Screen
2006-05-10, 00:05:58
Ein ernüchternder Artikel.
Die Karte macht genau das nicht was sie eigenlich soll und wofür sie
beworben wird. Dreister gehts kaum. Und das für satte 300€ mit dem
lapidaren Hinweis das spätere Treiber es schon richten werden.
Ne,ne,ne. Das wird so nix.
betasilie
2006-05-10, 05:24:36
Das Ding hätte es es schon extrem schwer gehabt sich mit einem wirklich gutem Start zu etablieren. So wird es erst recht nichts.
Thowe
2006-05-10, 07:38:16
betareverse[/POST]']Das Ding hätte es es schon extrem schwer gehabt sich mit einem wirklich gutem Start zu etablieren. So wird es erst recht nichts.
Das würde ich nicht mal sagen wollen, die, die sich die Karte gekauft hätten, werden es auch wohl weiterhin tun. Denn die primäre Kundschaft wird sicherlich die sein, die eben nicht großartig über das Geld nachdenken was sie gerade ausgeben. Somit klassifiziert sich die Karte leider erst einmal als Spielzeug und nicht als must have, aber etwas anderes hätte ich persönlich auch nicht erwartet.
Hätte ich nicht schon die letzten Wochen einiges an Geld ausgegeben, der Conroe nicht vor der Tür stehen, dann würde ich gar ernsthaft darüber nachdenken mir die Karte zu holen. Selbst ein paar Partikel mehr ist mehr als nichts und die Statik in Spielen nervt mich schon seit Ewigkeiten, denn letztendlich sind wir da, wo wir mit den ersten Spielen von id schon waren. Wirklich viel hat sich ja nicht getan, weswegen ein entsprechender Markt erst einmal entstehen muss. Das wenige was sich zum Thema Physik getan hat ruft bei mir eher den gegenteiligen Effekt hervor, ich achte mehr auf diese und bin immer wieder entsetzt von echten Patzern.
Somit steht AGEIA vor dem alten Henne-Ei-Problem, sie müssen zwangsweise den ersten Schritt tun und somit Software-Häuser animieren etwas in die Richtung zu unternehmen. Das wird im Laufe der Zeit Konkurrenz hervorrufen und somit ist die PhysX nichts weiter als der erste Domino-Stein, wenn auch wirklich ein recht kleiner. Bleibt zu hoffen das wirklich viele Karten verkauft werden, damit ein entsprechender Markt entsteht.
Ich denke, in 'zukünftigen Treibern' wird doppelt geschummelt:
1. Einfach mehr mit Listen arbeiten: Kennt jemand noch die Zeiten, als jpg's erst noch entpackt werden mußten, bevor sie angezeigt werden konnten? Es gab mathematisch exakte Entpacker, die haben auf einem 386dx schon mal 25 Sekunden gebraucht, und es gab einen kleinwn trixer, der hat das Bild in 2 Sekunden fertig dargestellt: vorberechnete Werte waren das Zauberwort.
Und jetzt könnt Ihr mal raten, wofür die Karte bis zu 512MB verträgt.
2. Das Volk will fps - das Volk bekommt fps: und schon wird aus der realitätsnahen Abbildung der Wirklichkeit mit zig Differentialgleichungen höherer Ordnung ganz schnell was einfaches schnuckliges lineares - sieht fast so echt aus, wie das Original (wenn man nicht zu lange hinschaut) und läßt sich a la Gaus fast mit einem Taschenrechner ausrechnen...
Ihr werdet es sehen!
Ein ausgezeichneter Artikel: ohne lästiges "Fachchinesisch", damit auch für "Laien" gut verständlich, profund recherchiert, anschaulich dargestellt und vor allem fair und ausgewogen in der Beurteilung - großes Kompliment für die Verfasser!
Das Preis-Leistungs-Verhältnis von PhysX ist derzeit zweifellos indiskutabel, aber wie im Tenor des Artikels schon festgestellt wurde: jeder hat eine zweite Chance! Und wer weiß - immerhin, auch Gottlieb Daimler und Carl Benz haben weiland äußerst bescheiden angefangen ;-))
LG Norbert
BlackBirdSR
2006-05-10, 10:39:22
Gast[/POST]']Ein ausgezeichneter Artikel: ohne lästiges "Fachchinesisch", damit auch für "Laien" gut verständlich, profund recherchiert, anschaulich dargestellt und vor allem fair und ausgewogen in der Beurteilung - großes Kompliment für die Verfasser!
Das Preis-Leistungs-Verhältnis von PhysX ist derzeit zweifellos indiskutabel, aber wie im Tenor des Artikels schon festgestellt wurde: jeder hat eine zweite Chance! Und wer weiß - immerhin, auch Gottlieb Daimler und Carl Benz haben weiland äußerst bescheiden angefangen ;-))
LG Norbert
Vielen Dank.
Freut uns wenn der Artikel seinen Zweck erfüllt.
Wir würden in Zukunft gerne weiter über PhysX berichten, sobald sich neue Möglichkeiten ergeben.
Ageia und BFG selbst sind ja guter Hoffnung, dass man bald positiver über die Karte berichten kann.
Sagt, eines versteh ich nicht, Microsoft bastelt an einer Softwarelösung, Havok gemeinsam mit nVidia auch. Beide haben eines gemeinsam, daß sie eine Grafikkarte benötigen, die die Berechnung der physikalischen Vorgänge vornimmt. Wäre da nicht z.B. eine 2 Kern-CPU viel besser für geeignet. Der Markt an Dual CPUs nimmt doch stetig zu. In einer Mehrkern CPU könnte man sogar die Funktionen komplett per Microcode integrieren.
Jetzt entbrennt erstmal ein Kampf, wer für den Spieler die beste Lösung präsentieren kann. Doch frage ich mich, sind am Ende gar die CPU-Hersteller Intel und AMD die lachenden Dritten?
Ich Spekulier mal ein bissl, auch bezug nehmend auf die heutigen News...
Wenn HavokFX wirklich auf SM3 Grafikkarten beschleunigt werden kann, wirds doch sicher auch möglich sein es auf eine 2. Karte zu verlagern. Wenn nun eine GF6200 "schnell" genug für a bissl mehr Physik in Spielen wäre, stirbt PhysX doch direkt weg.
Was macht die PPU eigentlich wenn die nächste Generation von Spielen kommt die mal ausgiebig Physik einsetzt und nicht nur paar Partikel Effekte und bissl Staub-Aufwirbelei? Muss man wohl alle 2Jahre die PPU ebenfalls aufrüsten oder wieder Details abschalten. Ein Treiber Update wird ja alleine nicht langen, oder liegt die Leistung der PPU so brach?
du vergisst, das havoks engine nur eyecandy ist.
Kladderadatsch
2006-05-10, 17:32:25
das fazit ist wirklich rührend geschrieben;)
aber nur gut, dass BlackBirdSR hier so differenziert rangegangen ist; einerseits um die idee den 'weniger differenziert denkenden' nicht total schlecht- und damit auszureden, und andererseits die firma nicht direkt in ihren ruin zu schreiben- wie es wohl mehr oder minder rücksichtslos die mehrzahl der reviewer getan hat oder tun wird.
Monger
2006-05-10, 17:39:33
Gast[/POST]']du vergisst, das havoks engine nur eyecandy ist.
Ist PhysX derzeit doch auch. Schon alleine aus Kompatibilitätsgründen könnten die gar keine spielrelevante Physik machen, aber offensichtlich wollen sie es auch gar nicht. Spätestens wenn man einige tausend spielrelevante Objekte über die Internetleitung zwecks Multiplayer schieben würde, wäre sowieso Sense.
BlackBirdSR
2006-05-10, 17:55:05
insane in the membrane[/POST]']das fazit ist wirklich rührend geschrieben;)
aber nur gut, dass BlackBirdSR hier so differenziert rangegangen ist; einerseits um die idee den 'weniger differenziert denkenden' nicht total schlecht- und damit auszureden, und andererseits die firma nicht direkt in ihren ruin zu schreiben- wie es wohl mehr oder minder rücksichtslos die mehrzahl der reviewer getan hat oder tun wird.
Ich bedanke mich im Namen von Leonidas.
Wir haben das Fazit zwar in weiten Teilen zusammen konzipiert.
geschrieben hat er es aber.
Also ich leite es weiter.
Aqualon
2006-05-10, 19:34:02
Gast[/POST]']Was macht die PPU eigentlich wenn die nächste Generation von Spielen kommt die mal ausgiebig Physik einsetzt und nicht nur paar Partikel Effekte und bissl Staub-Aufwirbelei? Muss man wohl alle 2Jahre die PPU ebenfalls aufrüsten oder wieder Details abschalten. Ein Treiber Update wird ja alleine nicht langen, oder liegt die Leistung der PPU so brach?Das läuft auf dasselbe raus wie bei GPUs und CPUs. Wer bessere Leistung haben will, braucht bessere Hardware und wenn Physikkarte 1.0 zu langsam ist, muss Physikkarte 2.0 her. Wenn es also schlecht läuft, haben Hightech-Gamer bald 3 Sachen, die ein halbjährliches Update brauchen.
Aqua
J0ph33
2006-05-10, 20:36:00
sehr schöner, informativer Artikel =)
...aber warum schreiben so viele Leute "Age of Empire", das Spiel heißt Age of Empires ;)
das fällt jetzt nicht so doll ins gewicht, aber mir dreht's jedes mal den magen um, wenn ich das lese
Butter
2006-05-10, 21:00:10
Hat denn man einer Überprüft ob es richtig ist was die Karte anzeigt?
Ich meine wenn man so eine Kiste wegschieß/sprengt o.ä. fliegt die auch so wie man es in der Realität erwarten kann?
Ist dort mal ein Review drauf eingegangen?
Monger
2006-05-10, 21:04:23
Butter[/POST]']Hat denn man einer Überprüft ob es richtig ist was die Karte anzeigt?
Ich meine wenn man so eine Kiste wegschieß/sprengt o.ä. fliegt die auch so wie man es in der Realität erwarten kann?
Ist dort mal ein Review drauf eingegangen?
Erstens ist das schwer nachzuprüfen, weil man nicht weiß wie sich Gesteinsformationen unter Einfluss von Psi-Kräften verhalten ;) , andererseits ist es ganz klar NICHT realistisch. Es gibt bis jetzt keine realistische Physik-Simulation. Selbst das was man in CGI-Filmen sieht ist nur eine Annäherung, die oft genug noch sehr verbesserungswürdig ist. Für irgendwas wichtiges würde ich mich auf diese Simulationen auf jeden Fall nicht verlassen...
Butter
2006-05-10, 21:06:38
Monger[/POST]']Erstens ist das schwer nachzuprüfen, weil man nicht weiß wie sich Gesteinsformationen unter Einfluss von Psi-Kräften verhalten ;) , andererseits ist es ganz klar NICHT realistisch. Es gibt bis jetzt keine realistische Physik-Simulation. Selbst das was man in CGI-Filmen sieht ist nur eine Annäherung, die oft genug noch sehr verbesserungswürdig ist. Für irgendwas wichtiges würde ich mich auf diese Simulationen auf jeden Fall nicht verlassen...
Naja vermutlich hast Du Recht, aber wenn man sich schon Physik Besch. nennt, darf man eben keinen Realismus Besch. erwarten.
Quasar
2006-05-10, 21:07:07
Es "wirkt" realistisch.
ich weiß ja nicht, wie die Physikkarte das ganze berechnet und welche Daten sie zur CPU / Grafikkarte liefert.
Ein Problem ist ja, dass die Grafikkarten sehr viel Leistung verballern, weil Objekte gerendert werden, die man eigentlich ja gar nicht sieht => Kyro, GigaPixel (?), o.ä.
Ich vermute mal, die Physikkarte liefert zeitaufgelöst die Koordinaten der durch die Gegend fliegenden Objekte d.h. sie weiss jederzeit wo sich ein Objekt im Raum befindet d.h. die Physikkarte könnte doch nun nch eine Tiefensortierung durchführen und zeitaufgelöst nur die Objekte weiterleiten, da man überhaupt sehen kann und so den Overdraw der Grafikkarten absenken.
Oder bin ich da auf dem völlig falschen Dampfer?
robbitop
2006-05-13, 12:48:37
Ich halte PhysX mittelfristig für die einzig richtige Lösung (auch wenn ich kaum glaube, dass Ageia gegen NV/ATI standhalten können).
Die PPU kann im Gegensatz zu HavokFX auch spielrelevante Phyisk beschleunigen und sie kann (ab SDK 2.5) sogar Joints (für clothes und fluids) berechnen.
Ein ASIC mit 16xVec6 MIMD Rechenwerken und dediziertem Steuerprozessor (ARM oder sowas) ist IMO besser geeignet als ein SIMD Prozessor, der nebenbei auch noch die Grafik zu rendern hat. Woran es im Moment hängt, ist sicher schwierig zu sagen. Am ASIC (wenn es nicht irgendwelche extrem dämlichen Flaschenhälse gibt) liegt es gewiss nicht. Das Ding ist IMO gut für seinen Zweck ausgelegt und rechenstark.
Allerdings muss speziell dafür entwickelt werden, was ohne richtige Marktmacht nichts wird. Henne/Ei. HavokFX hat da bessere Chancen, da die Verbreitung von SM3 HW ja sicherlich immer größer wird.
Ich könnte mir vorstellen, dass der Weg zur PPU + Rückweg zur CPU ein großer Flaschenhals ist (Stichwort Latenz). Bis mit dem 33MHz PCI etwas von A nach B (und zurück) kommt, vergehen sicherlich schonmal ein paar hundert CPU Takte.
Und ich halte es für sinnlos. Meiner Meinung nach gäbe es keine bessere Nutzung von einem zweiten CPU-Core als für Physikberechnungen. Mag sein, dass eine PPU auf dem Papier deutlich schneller ist ... aber davon merkt man wenig. Und da ein Dual-Core bei Spielen aktuell meist Däumchen dreht, sollte man etwas dagegen tun, statt der zentralen Recheneinheit immer mehr Arbeit und damit auch ihren Namen abzunehmen ...
MfG,
Raff
robbitop
2006-05-13, 14:42:09
Raff[/POST]']Und ich halte es für sinnlos. Meiner Meinung nach gäbe es keine bessere Nutzung von einem zweiten CPU-Core als für Physikberechnungen. Mag sein, dass eine PPU auf dem Papier deutlich schneller ist ... aber davon merkt man wenig. Und da ein Dual-Core bei Spielen aktuell meist Däumchen dreht, sollte man etwas dagegen tun, statt der zentralen Recheneinheit immer mehr Arbeit und damit auch ihren Namen abzunehmen ...
MfG,
Raff
Ich kenne den Grund nicht, warum die Leistung derzeit so katastrophal ist. Aber Fakt ist, dass das Teil erstens die CPU entlasten würde und um Größenordnungen besser für sowas ist als eine CPU. Dass du das für sinnlos hällst, liegt daran, dass es derzeit nicht genutzt wird. Das ist nunmal das Henne/Ei Problem.
Aber richtig geniale Kollisionen, Explosionen, Gewässer, flatternde Stoffe u.v.m. können die Grafik als auch den Spielspaß m.E. auf ein ganz neues Level heben. Ergo: abwarten
Die gesparte CPU Leistung könnte (und sollte) man dann bitte für die KI und den Sound verwenden. Auch diese Faktoren machen in einem Spiel viel aus.
Schon ein eigener Core, ergo eine ganze CPU, für Physik wäre ein sehr großer Schritt im Vergleich zu dem, was wir aktuell haben. Ich habe erst kürzlich gelesen, dass Physik vielleicht zehn Prozent der Berechnungen ausmacht ... von einem Kern. Und damit sind schon brauchbare Dinge machbar.
MfG,
Raff
robbitop
2006-05-13, 15:00:31
Raff[/POST]']Schon ein eigener Core, ergo eine ganze CPU, für Physik wäre ein sehr großer Schritt im Vergleich zu dem, was wir aktuell haben. Ich habe erst kürzlich gelesen, dass Physik vielleicht zehn Prozent der Berechnungen ausmacht ... von einem Kern. Und damit sind schon brauchbare Dinge machbar.
MfG,
Raff
Naja noch ist ja in punkto Physik so gut wie gar nichts zu sehen. Das meiste ist geskriptet und das nichtmal sonderlich gut. Weder in Qualität noch in Quantität.
Mit einer seperaten PPU ist ein ganz anderes Level von Spielephysik möglich, als es mit einer CPU denkbar wäre. Stoffsimualtion, Flüssigkeit und massenhafte Partikel. Das ist in brauchbarer Form in den nächsten Jahren mit einer CPU in Echzeit nicht machbar.
Aber man hat bereits jetzt eine größere Basis, die zudem praktisch ungenutzt ist (was man von SM3-GPUs nicht unbedingt sagen kann). Ja, Henne-Ei ... das Problem gab's ja u.a. schon mit T&L.
MfG,
Raff
robbitop
2006-05-13, 16:27:00
Vermutlich also erstmal also erstmal nur Spielirrelevante Physik. :-/
Die gelbe Eule
2006-05-13, 18:01:04
http://www.hardtecs4u.com/?id=1147369508,97757,ht4u.php
Würde das einen Boost geben oder irrelevant?
robbitop
2006-05-13, 18:25:31
vermutlich Letzteres ;)
Die gelbe Eule
2006-05-13, 18:30:15
Dient mir ja nur um das einkreisen der schlechten Performance. Wenn es schon nicht am BUS liegt, Anbindung, RAM sowie Latenzen, dann wird es langsam schwer.
crusader4
2006-05-13, 18:32:21
Die gelbe Eule[/POST]']http://www.hardtecs4u.com/?id=1147369508,97757,ht4u.php
Würde das einen Boost geben oder irrelevant?Wenn es wirklich an den Latenzen hängt, dann wird es dadurch eher noch schlimmer. Ein weiterer Chip mit entsprechenden Signallaufzeiten bringt dann sicher keine Vorteile.
Grüße, Crusader
Ihr habt keine AHNUNG!
Für die breite Masse schob sich Physik allerdings erst mit dem Release von Half-Life 2 in den Vordergrund. Zum ersten Mal wurde jeder Spieler zwangsläufig mit der Physik als wichtiges Spielelement konfrontiert.
FALSCH!
Das erste Spiel war Trespasser und das erschien schon 1997!
Hast du "breite Masse" überlesen? Trespasser ist IIRC ziemlich gefloppt *auf seinen Schrank mit der Trespasser-Packung schaut*
Monger[/POST]']Ist PhysX derzeit doch auch. Schon alleine aus Kompatibilitätsgründen könnten die gar keine spielrelevante Physik machen, aber offensichtlich wollen sie es auch gar nicht. Spätestens wenn man einige tausend spielrelevante Objekte über die Internetleitung zwecks Multiplayer schieben würde, wäre sowieso Sense.
Nein, denn über die Internetleitungen mußt du nur ein Objekt schieben, z.B. das Geschoss, der Rest sind alles Folgeberechnungen die sich vom ersten Objekt ableiten lassen.
Sprich Kugel schießt in einen Haufen von Kisten.
Vektor und Geschwindigkeit von Kugel muß jetzt übertragen werden.
Der Rest wird lokal berechnet.
Monger
2006-05-15, 15:09:24
Gast[/POST]']Nein, denn über die Internetleitungen mußt du nur ein Objekt schieben, z.B. das Geschoss, der Rest sind alles Folgeberechnungen die sich vom ersten Objekt ableiten lassen.
Sprich Kugel schießt in einen Haufen von Kisten.
Vektor und Geschwindigkeit von Kugel muß jetzt übertragen werden.
Der Rest wird lokal berechnet.
Damit hast du aber eben nur clientseitige Effekte, wie z.B. Partikeleffekte. Wenn z.B. größere Splitter von einer Explosion einen umbringen könnten, müssten deren Daten zu allen Clients übertragen werden. Und das können schnell ein paar hundert Objekte werden...
Das ist ja was ich den Physik-Spielereien bis jetzt vorwerfe: sie sind pures Eye-Candy, sie erweitern das Spiel in keinster Weise.
Bushwacker
2006-05-15, 18:04:10
OK, die Hardware ist für den Massenmarkt noch völlig neu und Ageia möchte aus naheliegenden Gründen die Hardware auch für den Massenmarkt der PC-Spieler interessant machen, aber ich frage mich wirklich, ob die Spiele-Benchmarks wirklich der richtige Ansatz sind.
Nun bin ich kein Experte, aber ich glaube gelesen zu haben, dass das Physik-API von Ageia gratis abgegeben wird. Wäre es dann nicht besser, einen Benchmark zu schreiben, der via API nur physikalische Berechnungen durchführen lässt, mal mit mal ohne Hardware-Unterstützung und ohne den ganzen Graphikschnickschnack?
Zugegeben, für Spieler wird das Produkt dadurch immer noch nicht interessanter, aber wir wüssten wenigstens, ob die Hardware wirklich kann, was uns versprochen wird. Dann könnten wir auch die Frage beantworten, ob die miese Performance durch die Hardware oder die Software verursacht wird.
Es ist reine Unterstellung, aber Ageia hält sich mächtig bedeckt mit echten Aussagen über die Hardware, vielleicht brauchen sie ja nur Geld, um die zweite Generation von PhysX-Karten zu finanzieren? Warum gibt es denn keine Karten mit sowohl PCI und PCIe Interface (wie früher schon als Bild gezeigt) oder auch nur wahlweise zu kaufen? Es wäre dann doch einfach gewesen, die Auswirkungen des Interfaces zu vergleichen? Ich behaupte auch mal, dass die Größe des verbauten Speichers die gleichen Auswirkungen haben wird, wie bei den ersten Graphikkarten mit 512MB: Nämlich keine merkbare, weil die Software es sowie nicht nutzt. Wer versucht, die Käufer der ersten Karten vom Vorteil zu überzeugen, wird nicht gleich die Mehrheit der Käufer verschrecken, weil sie die Karte mit zu wenig Speicher gekauft haben.
Das ist jetzt meine Meinung: Wer die karte nicht in 6 Monaten an die Wand nageln will, weil es entweder keine Software dafür gibt oder sie technisch schon wieder überholt ist, sollte sich das Geld lieber sparen.
Und noch eines: Man kann über Microsoft denken was man will, aber bevor das DirectPhysics-API nicht fertig gestellt ist, sehe ich keinen Durchbruch für solche Art Co-Prozessoren kommen.
blackbox
2006-05-15, 18:10:47
Monger[/POST]']
Das ist ja was ich den Physik-Spielereien bis jetzt vorwerfe: sie sind pures Eye-Candy, sie erweitern das Spiel in keinster Weise.
Deshalb hoffe ich, dass es durch die Karte ein Schub geben wird. Physik darf nicht auffallen, wenn sie im Spiel so selbstverständlich wird, fällt sie erst auf, wenn sie fehlt.
Monger[/POST]']Damit hast du aber eben nur clientseitige Effekte, wie z.B. Partikeleffekte. Wenn z.B. größere Splitter von einer Explosion einen umbringen könnten, müssten deren Daten zu allen Clients übertragen werden. Und das können schnell ein paar hundert Objekte werden...
Wo ist das Problem?
Auch der Server könnte mit das bischen Daten vom Geschoß Folgeberechnungen durchführen und dann feststellen, das Spieler XY von einem Splitter getroffen wird und
verreckt.
Wenn man das ganze Intelligent macht, dann kann man bei den Folgebrechnungen sogar
mit einer Sprung Vorhersage unwichtige Folgeberechnungen weglassen.
Z.B. wenn das Geschoß in einen Haufen gefeuert wird ujnd Spieler XY Links vom Haufen
steht, dann sind alle Splitter die nach rechts fliegen für Spieler XY irrelevant.
Das ist ja was ich den Physik-Spielereien bis jetzt vorwerfe: sie sind pures Eye-Candy, sie erweitern das Spiel in keinster Weise.
Ja, ich weiß. Mich stört das auch.
Aber das ist noch lange kein Grund zu sagen, das Multiplayer mit Physik unmöglich werden würde.
Ich finde diese ganze hascherei um die karte total quatsch. Die haben einen miesen start hingelegt. Halten sich über irgendwelche infos recht verdeckt. Zeigen ein Video was brilliant aussieht und läuft, probiert man es selber kriegt man es nichtmal halb so gut hin obwohl man die gleiche hardware nutzt. Hm...
komisch. Ich denke diese ganze sache ist ne clevere abzockerei oder auch nur ein tierischer schuss in den Ofen. Die haben sich gedacht "wir müssen jetzt was machen, damit wir nicht als totale Idioten darstehen. Wir erzählen seit nem Jahr von der ultimativen Physikhardware können aber nichts vorweisen, also schnell schnell auf den markt damit." Ich denke auch wenn der start super gewesen wäre und die Karte mit unglaublichen vorteilen eine Hammer Leistung gezeigt hätte, Wird die Sie nicht lange leben. Nächstes Jahr haben wir die ersten Quadcore CPUs die Können diese aufgabe locker übernehmen. Wie aus den News vor einiger Zeit zu entnehmen war träumen AMD u. Intel bereits von Prozies mit 128Cores, wer braucht da noch ne Phys-X Karte????? LoL!!! Nee echt nicht vorallem nicht für diesen preis, bei 50,- € hätte man noch ok gesagt aber so?? Die Sache das es bald die Grakkas machen daran glaub ich auch nicht, das war nur was von Nvidia um mal wieder zu Zeigen wie cool die Ihre Produkte sind. Meiner meinung nach wird das alles, wie schon gehabt von der CPU übernommen. Grad jetzt wo sich Multicore breitmacht.
Exlua
2006-05-16, 15:15:43
Mag sein auch wenn die CPU 4 Cores hätte wär die immer noch langsamer als die PPU ;) Dazu heisst es doch nicht wenn der Start verkackt wurden ist das die karte dadurch schlecht ist...
Monger
2006-05-16, 16:20:38
Gast[/POST]']Wo ist das Problem?
Auch der Server könnte mit das bischen Daten vom Geschoß Folgeberechnungen durchführen und dann feststellen, das Spieler XY von einem Splitter getroffen wird und
verreckt.
Nein nein nein, so einfach geht das nicht! ;)
Der Spieler muss ja nicht nur auf deinem Bildschirm sterben, sondern auf allen. Denn allein durch Latenzen würde sich jedem ein völlig anderes Bild bieten: bei dem einen Client ist man tot, beim anderen nicht.
Die Alternative wäre, die Physikeffekte nur serverseitig durchzuführen. Sowas wäre aber gegenüber den Spielern kaum zu vertreten, weil so würden sie für Dinge sterben die sie nie gesehen haben und denen sie folglich auch nicht ausweichen konnten. Das ist heute bereits sehr ärgerlich, wenn man aufgrund der Latenzen den Gegner mit Blei vollpumpen kann und man trotzdem noch vor ihm stirbt...
Mit Physik wird das Problem noch VIEL haariger! Das war afaik ja eines der entscheidenden Argumente, weshalb in UT2003 nur Ragdoll Effekte verwendet wurden, obwohl da ursprünglich spielrelevantes geplant war. Im Editor kann man mit Karma auf jeden Fall deutlich mehr machen.
Exlua[/POST]']Mag sein auch wenn die CPU 4 Cores hätte wär die immer noch langsamer als die PPU ;) Dazu heisst es doch nicht wenn der Start verkackt wurden ist das die karte dadurch schlecht ist...
Ich glaube nicht das die Karte schneller ist als eine 4core cpu, schonmal auf grund der Tatsache nicht wie Sie im Test abgeschnitten hat. Und Physik berechnung sind rein Mathematisch soweit ich das weiss und somit hat die Karte denke ich mal kein großen vorteil einer CPU gegenüber. Es soll Ihr nur die Arbeit abnehmen aber genau das wird bei einer Multicore CPU unnötig.
robbitop
2006-05-16, 18:50:04
Gast[/POST]']Ich glaube nicht das die Karte schneller ist als eine 4core cpu,
Und ob die schneller ist. 16 Vec6 MIMD FPUs bei 500MHz Takt sind immerhin
96 Milliarden Operationen pro Sekunde (MAD).
Ein Conroe mit 4 Cores und 3GHz, wenn man SIMD nutzen würde:
4x32 Bit Operationen gehen pro Core und Takt (MUL/ADD).
Das wären 48 Milliarden Operationen pro Sekunde.
Das setzt allerdings voraus, dass:
-alle 4 Cores nur Physik betreiben
-SIMD (ggü MIMD) nicht bremst (was es definitiv tun würde)
-alle 4 Kerne voll ausgenutzt werden würden (eine CPU ist nicht hochparallel)
Es würde also theoretisch einen 8xcore 3 GHz Conroe brauchen, um mit der Rechenleistung der PPU gleichzuziehen. Dann allerdings würde man nichts anderes mehr tun können als Physik. Ich denke in der Praxis müßten es noch deutlich mehr Cores sein.
Und die PPU würde immerhin -zusätzlich- die CPU entlasten.
Und bis ein solcher Monsterprozessor auf dem Markt ist, sollte sicher schon Generation >3 der PPU existieren.
schonmal auf grund der Tatsache nicht wie Sie im Test abgeschnitten hat.
Der Test sagt noch gar nichts aus. Keiner von uns weiß, was der Flaschenhals ist. Die Rechenleistung ist es mit Sicherheit nicht. Ich vermute, dass die Umsetzung einfach noch nicht wirklich brauchbar ist. Die SDK ist auch noch ziemlich tief in der Entwicklung.
Und Physik berechnung sind rein Mathematisch soweit ich das weiss und somit hat die Karte denke ich mal kein großen vorteil einer CPU gegenüber. Es soll Ihr nur die Arbeit abnehmen aber genau das wird bei einer Multicore CPU unnötig.
Was soll es denn sonst sein, außer Mathematik? Ein DSP, eine GPU, eine CPU...alle nutzen nur mit Mathematik. Alles wird hauptsächlich mit MUL/ADD realisiert. Das meiste wird über Makros (z.B. der Sinus über die Taylor-Reihe) realisiert.
Nur ist physikalische Berechnung irre aufwändig. Ich weiß nicht, ob du schonmal Strömungen berechnet hast, aber diese Differenzialgleichungen haben es in sich (z.B. Euler Gleichungen, Bernoulli). Und selbst "einfache" Vorgänge sind schwierig genug (Impuls/Kinematik). Dagegen ist heutige I/O, Sound, K/I lächerlich.
Eine PPU ist mittelfristig die einzige Möglichkeit, vernünftige Physik zu realisieren. Und das sogar "nebenbei". Eine PPU kann eben parallel an Rechenoperationen arbeiten, wohin gegen eine CPU (ohne SIMD zu nutzen, was bis heute in Spielen der Fall ist) bei ~2 Operationen pro Takt liegt. Natürlich sind die höher getaktet.
crusader4
2006-05-16, 19:58:42
An der Stelle ist es empfehlenswert, mal ein paar CPU-Gurus zu befragen. In Sachen Signalverarbeitung steckt ein 100MHz-DSP jeden x-Gigahertz-x86 in die Tasche, aber ein Betriebssystem wird man darauf nie betreiben wollen/können. Hat einfach mit der Spezialisierung der Prozessoren zu tun. Ich hab da leider nicht so viel Ahnung von, nur mal in ner Vorlesung (Digitale Signalverarbeitungssysteme) was drüber gehört - bin ja nur E-Techniker.
Und bei der Ageia dürfte das ähnlich sein. Darauf ausgelegt, viele FP-Muls und Adds zu berechnen.
Grüße, Crusader
robbitop[/POST]']Und ob die schneller ist. 16 Vec6 MIMD FPUs bei 500MHz Takt sind immerhin
96 Milliarden Operationen pro Sekunde (MAD).
Warum untertreibt Ageia dann mit ihren angegebenen 20 GFLOPs so schamlos?
Q
robbitop
2006-05-17, 09:46:48
Das ist natürlich eine Frage der Zählweise.
Hast du dafür mal bitte einen Link? Ich finde bei ageia.com gar keine Angabe in GFLOPs...bin ich blind?
Meinst du vieleicht das hier (bestimmt nicht):
Peak Instruction Bandwidth: 20 Billion Instructions/sec
Die 96GFLOPs schwirrten ziemlich lange im Netz und passen auch genau zum Aufbau dieses Teils (dass es aus 16x Vec6 FPUs besteht ist inzw ja kein Geheimnis mehr).
robbitop[/POST]']Meinst du vieleicht das hier (bestimmt nicht):
Das meine ich.
Q
Ich denke mal, dass eine Instruction immer aus mehreren Operations besteht, da steht ja auch nicht 20GFlops sondern 20 Billion Instructions/sec.
robbitop
2006-05-17, 10:17:33
Gast[/POST]']Das meine ich.
Q
Du weißt, dass Operation =! Instruktion ist?
Eine Instruktion ist z.B. MUL/ADD/Sin/Cos/DP3.
Um allerdings b.s.w. ein Skalarprodukt (eine Instruktion) zu berechnen, müssen ja alle 3 Komponenten des Vektors multipliziert werden. Das sind dann 3 Operationen zur Ermittlung der Richtung des neuen Vektors. Noch mehr, wenn man auch die Länge bestimmen will.
Ich vermute mal, dass mit der Instruction Bandwith gemeint ist, dass der Steuerprozessor (das ist ein embedded core, ein ARM oder soetwas) den Vektoreinheiten nicht mehr als 20 Mrd Instruktionen pro Sekunde zuwerfen kann. Bei 96 Mrd Operationen pro Sekunde wäre das ca Faktor 5. Bei sehr einfachen Berechnungen (DP3), würde das hier limitieren.
Da allerdings zur Berechnung der meisten physikalischen Vorgänge komplexe DGLs zum Einsatz kommen (z.B. Euler), limitiert das vermutlich selten.
Monger
2006-05-17, 11:00:07
robbitop[/POST]']
Da allerdings zur Berechnung der meisten physikalischen Vorgänge komplexe DGLs zum Einsatz kommen (z.B. Euler), limitiert das vermutlich selten.
Ehrlich gesagt glaube ich das nicht. Gerade in der Simulation kann man sehr schön jede Bewegung auf ganz simple Rechnungen zurückführen. Von denen hat man dann zwar gleich eine ganze Menge, aber dazu ist der PC ja da...
Zum Beispiel ein Crashtest. Der wird nie ausgerechnet, der wird immer ausprobiert. Wir machen ein physikalisches Modell eines Autos aus lauter Knoten die per Steifigkeit miteinander verknüpft sind. Wenn jetzt irgendwas vorne aufprallt, werden alle Knoten in die andere Richtung verschoben. Was dabei passiert - dass das Auto Falten wirft, sich zerknatscht, splittert etc. - ist vor Beginn der Simulation völlig unvorhersehbar. Das lässt sich alles mit simpler Vektormathematik beschreiben, ohne auch nur einmal eine Differenzialgleichung aufzustellen.
Das ist ja gerade der Vorteil von Simulationen: man muss eine Situation nicht mathematisch korrekt beschreiben, um zu sehen was hinten raus kommt.
Deshalb glaube ich auch nicht, dass in irgendeiner Physik-Engine irgendwelche komplexen mathematischen Rechnungen auftauchen. Viel zu schwerfällig, viel zu rechenintensiv.
robbitop
2006-05-17, 11:10:32
Um Strömungen und Stoffe zu berechnen, brauchst du aber DGL (oder wie würdest du vorschlagen, z.B. eine Eulergleichung billiger nachzuahmen?). Auch für den Verlauf nach einem Impuls (bsw Kollision) ist die Flugkurve eines einzigen Körpers auch nur nach einer DGL zu lösen (erst muss aus dem Impuls die Anfangsbedingung berechnet werden, diese (z.B. e_kin, e_pot,x_0,y_0, z_0, v_0, Richtung ...) werden in ein das Beschleunigungs--Zeitgesetz eingetragen und integriert, schrittweise die Bedingungen eingesetzt bis die Lage ermittelt werden kann. Da kann man die fertigen Formeln aus dem "Tafelwerk" vergessen, da die Bedingungen plötzlich variabel sind.
Das ist Rechenlastig, zumal alle 3 Richtungskomponenten berechnet werden müssen. Der Verlauf dieser Flugparabel wird dann natürlich zeitlich in gewissen Intervallen abgetastet. Hier könnte man auf Kosten des Verlaufs sparen und die jeweiligen Samples linear interpolieren. Und für jedes Intervall ist die Koordinate zu berechnen.
Klar, einen Crash kann man und muss man mit einem von dir genannten Gitter vereinfachen, da ist FEM einfach nicht drin. Aber es ist keinesfalls so einfach, wie du es dir hier vorstellst. Nicht ohne Grund gibt Ageia hier DGL auf der Präsentation an.
robbitop[/POST]']Du weißt, dass Operation =! Instruktion ist?
Das habe ich tatsächlich völlig überlesen.
Q
Monger
2006-05-17, 11:47:11
robbitop[/POST]']Um Strömungen und Stoffe zu berechnen, brauchst du aber DGL (oder wie würdest du vorschlagen, z.B. eine Eulergleichung billiger nachzuahmen?). Auch für den Verlauf nach einem Impuls (bsw Kollision) ist die Flugkurve eines einzigen Körpers auch nur nach einer DGL zu lösen (erst muss aus dem Impuls die Anfangsbedingung berechnet werden, diese (z.B. e_kin, e_pot,x_0,y_0, z_0, v_0, Richtung ...) werden in ein das Beschleunigungs--Zeitgesetz eingetragen und integriert, schrittweise die Bedingungen eingesetzt bis die Lage ermittelt werden kann. Da kann man die fertigen Formeln aus dem "Tafelwerk" vergessen, da die Bedingungen plötzlich variabel sind.
Okay, nehmen wir mal eine Flugparabel. Im wesentlichen wirken zwei Kräfte: Schwerkraft und Reibung.
Also checkt man das Flugobjekt in regelmäßigen Abständen (sagen wir mal, 30mal pro Sekunde), und multipliziert den aktuellen Bewegungsvektor einerseits mit einer Reibungskonstante, und andererseits per Vektormultiplikation mit dem Schwerkraftsvektor.
Wenn man das oft genug tut, nähert man sich einer realen Bewegung schon sehr gut an.
Eine Differenzialgleichung ist nunmal dazu gut, eine mathematisch vollständige Beschreibung - inklusive der Zeit - zu machen. Das ist für Echtzeitberechnungen aber völlig mit Kanonen auf Spatzen geschossen. Mich interessiert nicht, ob sich die Flugbahn meines Objekts vielleicht irgendwann mal mit etwas relevantem kreuzen könnte (denn genau für solche vollständigen Betrachtungen braucht man ja Differenzialgleichungen), sondern wenn es passiert, hab ich immer noch Zeit zu überlegen was ich mache.
Sobald Benutzerinteraktion im Spiel ist, kann man ja sowieso alle Berechnungen über Bord werfen. Man MUSS zeitorientiert rechnen, weil sich die Situation jederzeit ändern kann.
robbitop
2006-05-17, 12:34:43
Monger[/POST]']Okay, nehmen wir mal eine Flugparabel. Im wesentlichen wirken zwei Kräfte: Schwerkraft und Reibung.
Also checkt man das Flugobjekt in regelmäßigen Abständen (sagen wir mal, 30mal pro Sekunde), und multipliziert den aktuellen Bewegungsvektor einerseits mit einer Reibungskonstante, und andererseits per Vektormultiplikation mit dem Schwerkraftsvektor.
Ok, please help me out:
Erkläre mir bitte, wie du Kräfte (in dem Fall die Reibungskraft und die Schwerkraft) mit einem Geschwindigkeitsvektor multiplizierst und wie du das korrekt quantifizierst. Das ergibt für mich keinen Zusammenhang. Meines Wissens kann man nur gleiche Größen/Einheiten quantifizieren.
Du müßtest vorher die Geschwindigkeitsvektoren, die die beiden Kräfte verursachen ermitteln. Und dazu muss man integrieren, oder nicht? Und das ist prinzipiel die oben von mir erwähnte DGL.
Ich wüßte jedenfalls keine Variante, das effektiv und akurat zu berechnen, ohne b.s.w. eine Stokes DGL einzusetzen. Keine Ahnung, vieleicht fehlt mir hier der mathematische Hintergrund.
So und nun kommen wir mal zu der qualitativ hochwertigen Physik:
Wie möchtest du Strömungen berechnen, ohne Euler/Bernoulli zu verwenden. Die Antwort darauf schuldest du mir auch noch. ;)
Und selbst die sieht die Strömung noch als Ganzes noch ohne genauere Betrachtung. Letztendlich muss das Fluid noch in eine endliche Anzahl von Objekten zerlegt werden. (hier kann man auch an Quantität sparen)
Ich gebe zu, dass es sicher einige Dinge gibt, die man vereinfachen kann, z.B. die Abtastrate über die Zeit und sicher auch Kollisionen. Dennoch erschlägt unter anderem die Pure Masse die CPU förmlich. Mit der PPU als hochparallen Prozessor hat man hier eine gute Lösung. Und einige qualitativen Abläufe (Strömungs- und Stoffsimulation) lassen sich IMO nicht vereinfachen. Nicht umsonst spricht Ageia auch offiziell von Differencial Equotations.
Monger
2006-05-17, 13:25:58
robbitop[/POST]']...
Du müßtest vorher die Geschwindigkeitsvektoren, die die beiden Kräfte verursachen ermitteln. Und dazu muss man integrieren, oder nicht? Und das ist prinzipiel die oben von mir erwähnte DGL.
Sowas machst du genau EINMAL für alle Konstanten die du brauchst. Die Schwerkraft ändert sich nicht. Und selbst wenn, kannst du deinen ausgerechneten Wert problemlos skalieren.
In ganz ähnlicher Weise funktioniert ja die Fast-Fourrier Transformation: erst alles in den zeitdiskreten Bereich bringen, die Konstanten ausrechnen (von leichten Rundungsfehlern abgesehen sind die erstaunlich präzise), einsetzen, und danach mit brachialer Rechengewalt jede einzelne Zeiteinheit ausrechnen. Zu dem Zeitpunkt kannst du alles auf Multiplikation und Addition zurückführen. Keine Division mehr, keine Nullstellen, kein ableiten. Das geht VIEL schneller als wenn du den Computer eine Differentialgleichung lösen lassen würdest.
So und nun kommen wir mal zu der qualitativ hochwertigen Physik:
Wie möchtest du Strömungen berechnen, ohne Euler/Bernoulli zu verwenden. Die Antwort darauf schuldest du mir auch noch. ;)
Einschlagswinkel gleich Ausschlagswinkel. Wenn du die Kollisionen von ein paar Hundert Billiardkugeln berechnest, bist du schon erstaunlich nahe an dem Verhalten von echten Flüssigkeiten dran. Du kannst sowas mit reiner Rechenkraft erschlagen.
Deshalb zweifle ich an, dass PhysX sich von der Architektur her so großartig von einer Grafikkarte unterscheidet. Es gibt imho einfach nichts, was eine Grafikkarte zusätzlich bräuchte um effizient Physik berechnen zu können.
robbitop
2006-05-17, 16:55:47
Monger[/POST]']Sowas machst du genau EINMAL für alle Konstanten die du brauchst. Die Schwerkraft ändert sich nicht. Und selbst wenn, kannst du deinen ausgerechneten Wert problemlos skalieren.
Die Schwerkraft ändert sich nicht, die ist ja auch nur die Ursache, nicht die Wirkung (Beschleunigung -> im Zeitpunkt x abgetastet -> Geschwindigkeit).
Die Kraft der Reibung ändert sich allerdings, sie hängt von der Absolutgeschwindigkeit ab.
Allerdings hast du recht, dass man diese Werte auch skallieren könnte.
Das geht VIEL schneller als wenn du den Computer eine Differentialgleichung lösen lassen würdest.
Ack, das ist allerdings alles nicht der präziseste Weg, aber vermutlich ausreichend.
Deshalb zweifle ich an, dass PhysX sich von der Architektur her so großartig von einer Grafikkarte unterscheidet. Es gibt imho einfach nichts, was eine Grafikkarte zusätzlich bräuchte um effizient Physik berechnen zu können.
PhysX ist nicht umsonst aus MIMD Arrays aufgebaut. Sicher könnte das eine GPU schneller als eine CPU, aber ob's an die PPU ranreicht, wäre zweifelhaft.
Hey,
ich habe mir jetzt ma alle 6 Seiten durchgelesen, incl. dem erstklassigen Review hierzu.
Ich meine, wir sollten froh sein, das ein NEUER Impuls plaziert worden ist. Sicherlich ist das in der Version 1 alles andere als erwartet. Ich denke aber das Version 2 vom PhysX uns schlauer machen wird.
Wie einige schon richtig angesprochen haben, muß jetzt ersteinmal rausgefunden werden, warum die PErformance so ausgefallen ist.
Ich ziehe aber auf alle Fälle meinen Hut vor den Menschen die hinter dem PhysX - Projekt stehen.
Grüsse
3D-Center Gast
_____________________________________________________________
Kill him ATI, kill him! * Zitat Roy Taylor auf einer Retailer - Show in DDorf 2002!
ShadowXX[/POST]']Ich finde das Ihr noch auf das extrem gefakte Cellfaktor-Video eingehen hättet müssen...denn das was dort gezeigt wurde, hat mit der Realität nun wirklich nix zu tun.
Das nennt man Kundenverar*che hoch 3 (es gibt/gab bestimmt etliche vorbesteller wie man auch in anderen Foren sehen konnte).
Woran es liegt wird sich vielleicht irgendwann noch zeigen....momentan kann man nur sagen, das Tombman mit einem 4GHz-Presler mehr Frames in der Box-Demo schafft als ein PhysX-System.....was nicht für die Karte spricht.
Nö....bei weniger Objekten hätten ebenfalls alle geschrien:"Und wofür brauche ich da eine Karte, bei 3 Objekten mehr"....
Gamezero
2006-05-31, 18:40:33
Gast[/POST]']
ageia PhysX ist oficiel der Physik Chip der Plystation 3 und deswegen wurde
die software für den PC convertiert und leicht verendert . PS3 hat sehr
kleines Betriebssystem und anderes format (partation)die 64Bit anschpricht.
Für den PC enwickelte Treiber haben viele Fehler ,weil man gezwungen hat
die Karte auf einem PCI 32 bit Slot zu arbeiten . Anfangs war ein Testsystem
wo die Karte PCI-E 1x/ 4X 64bit benuzte und auch die Treiber Passten Sehr
gut um schnelle PREFORMANCE bei 3d games zu machen die noch auffändiger
sind als Cell Facor . Die Karte Ist nicht schlecht man sieht bei Boxies Demo
das die Karte die Physik gut berechnen kann . man muss den code in dem Treiber so Verendern das die Karten die PCI 32 bit nutzen auch bei Grafischen
Spieleanwendungen funktionieren.
Demirug
2006-05-31, 21:27:19
In die PS3 kommt kein PhysX oder eine andere PPU. Es gibt von Ageia eine für Cell optimierte Variante ihere Software Engine aber das war es auch schon.
Hallo,
es wird so schnell nicht möglich sein alle physiklischen Effekte in einem Computerspiel zu simulieren. Ich bin zufällig Berechnungsingenieur und rechne Dynamik-Themen für versch. grössere Firmen. Das was Berechnungsprogamme (z.B. Nastran) leisten um teilweise Schwingungsprobleme von komplexen Strukturen zu berechnen kann so schnell kein "Spiel" berechnen und auch keine Mainstream-Hardware (da brauchst du einen Rechenserver mit 16 CPUs usw.).
Und so eine kleine Karte kann das schon gar nicht.
Ich denke der Trend geht eher dahin, dass auf meiner Dual- oder zukünftig Quad-Core-CPU, eine CPU für Physikalische-Berechnungen zuständig sein wird. Das wäre wesentlich einfacher als eine zusätzliche Karte, müsste nur von den Spieleherstellern auch so programmiert werden, das wird es aber sicherlich sobald Dualcore-CPUs Standart sind.
mfg
Matthias
PS: komplette Differnzialgleichungen wird da wohl keiner Berechnen, da gibt es bestimmt Näherungsverfahren mit denen man die relevanten Gleichungen erschlagen kann.
Bokill
2006-06-18, 22:48:08
Gast[/POST]'] ...auch keine Mainstream-Hardware (da brauchst du einen Rechenserver mit 16 CPUs usw.).
Und so eine kleine Karte kann das schon gar nicht. ...
PS: komplette Differnzialgleichungen wird da wohl keiner Berechnen, da gibt es bestimmt Näherungsverfahren mit denen man die relevanten Gleichungen erschlagen kann. Du kennst die FPGA Lösungen mit den Altera oder Xilinx Chips?
-> Celoxica und DRC fertigen Opteron-Workstation [FPGA in Sockel 940] (http://www.orthy.de/index.php?option=com_content&task=view&id=1760&Itemid=86)*,
-> FPGA-based tools rev key algorithms [Sockel 940 FPGA warum so schnell] (http://www.orthy.de/index.php?option=com_content&task=view&id=1761&Itemid=86)*,
-> Co-processor Gives Opteron x300 Boost (http://www.orthy.de/index.php?option=com_content&task=view&id=1780&Itemid=86)*,
Kennst du die Firma Clearspeed (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=257)*, die machen genau das, was du für unmöglich hälst, eine Multiprozessorkarte mit brachialer Rechengewalt.
Und seit der AMD Beteiligung an RMI (http://www.orthy.de/index.php?option=com_content&task=view&id=3805&Itemid=86)* sind Multicores mit brachialer Rechenpower (8 Gleitkommaeinheiten Pro Chip) auch in AMD Sockeln denkbar. Es muss nicht immer ein klassischer x86, oder x86 Dual-Core sein.
Und auch der Cell (http://www.mc.com/cell/index.cfm) [mc.com] soll für derartige Aufgaben fit gemacht werden.
MFG Bobo(2006)
* = Orthy.de
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.