PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ist HW-PhysX am Sterben?


Seiten : [1] 2

dllfreak2001
2011-03-18, 11:24:29
Man hört kaum noch etwas neues zu PhysX und auch bei den Neuvorstellungen tut sich nichts. Sogar Futuremark wendet sich von PhysX und deaktiviert den Test standardmäßig im Vantage. In 3DMark wird die Physik von Bullet gestellt.

Was meint ihr, ist PhysX bereits in die Stasis eingetretten in der EAX seit einigen Jahren steckt?

deekey777
2011-03-18, 11:43:17
Hm, auch wenn das Terminator-Spiel fehlt, sieht diese Liste nicht so rosig aus:
http://physxinfo.com/index.php?p=gam&f=gpu
Nvidia hat wohl keinen Bock mehr, Resourcen in (unter-)durchschnittliche Spiele zu stecken.

][immy
2011-03-18, 12:14:58
nunja, es gibt bislang kaum top-titel die physx in hardware nutzen. Physx also solches ist lange nicht tot, aber die hardware-unterstützung ist doch sehr sehr rar.

ist es eigentlich normal das die nvidia treiber standardmäßig die CPU für physx benutzt?
Ist mir bei dem letzten Treiberupdate mal irgendwann aufgefallen das die CPU dort ausgewählt war. lustigerweise läuft mafia 2 trotz der umstellung keinen deut schneller.
wobei ich die szene mit dem zerschießen dieser gang-unterkunft vielleicht noch mal testen müsste. Dort ging die framerate auf 5 fps runter. ob die gpu da was gerissen hätte?

boxleitnerb
2011-03-18, 12:27:18
Ich fürchte ja. Die Softwareentwickler nutzen die Möglichkeiten einfach nicht aus. Vielleicht ist der Entwicklungsaufwand zu hoch oder man will eine breitere Basis erreichen, keine Ahnung. Die bisherige Umsetzung ist meistens mau. Man erinnere sich an Splinter Cell 1, da hat man auch recht schöne Cloth-Simulation gesehen in einigen Szenen und hat dafür kein PhysX gebraucht, nur als Beispiel.

Den ganzen Bildschirm mit Partikeln vollzurotzen kann es ja auch nicht sein, da haben es die Entwickler einfach nicht drauf bzw. sehr verkorkste Vorstellungen. Was mir hingegen extrem gut gefällt, was aber bis auf BatmanAA und Cryostasis irgendwie keiner gemacht hat sind Gas- und Fluidsimulationen. Was könnte man nicht damit alles anstellen? In TES V Skyrim könnte man PhysX prima für die Schneesimulation einsetzen, aber das wird natürlich auch nicht kommen.

Mein Fazit:
PhysX bietet tolle Möglichkeiten, nur werden sie - aus welchen Gründen auch immer - entweder nicht (genug) oder inkompetent umgesetzt. Das wird HW-PhysX über kurz oder lang das Genick brechen.

Eigentlich sehr schade, denn auf OpenCL-Basis hab ich bisher noch kaum Effekte gesehen, die wirklich sehenswert und (mehr oder weniger) revolutionär sind. Vielleicht kommt da was, wenn DX11 wirklich Standard ist. Ich würde mir sofort eine extra Karte nur für Physikberechnungen einbauen, wenn es denn flächenddeckend etwas Ansehnliches gäbe.

Raff
2011-03-18, 12:29:02
Am Sterben? Um zu sterben muss man leben. GPU-PhysX war schon immer rar. Die PhysX-Bibliothek ansich, zur Berechnung auf der CPU, wird allerdings crossplattformig in vielen Spielen genutzt. Einfach mal das PhysX-Paket deinstallieren und alle Spiele auf der Platte durchgehen – da starten einige nicht mehr (NFS Shift, Metro, etc.). ;)

MfG,
Raff

V2.0
2011-03-18, 12:51:30
Solange GPU Pyhsix nicht automatisch anspringt wnn ein Game CPU-Physix nutzt, dann wird es nichts. Und dazu muss CPU PhysiX besser werden und evtl. sogar kostenfrei.

Simon
2011-03-18, 12:53:13
[immy;8630846']Ist mir bei dem letzten Treiberupdate mal irgendwann aufgefallen das die CPU dort ausgewählt war. lustigerweise läuft mafia 2 trotz der umstellung keinen deut schneller.
wobei ich die szene mit dem zerschießen dieser gang-unterkunft vielleicht noch mal testen müsste. Dort ging die framerate auf 5 fps runter. ob die gpu da was gerissen hätte?
PhysX auf der GPU muss vom Spieleentwickler aktiviert/implementiert werden. Genauso wie Multicore Support.

LovesuckZ
2011-03-18, 12:54:22
Solange GPU Pyhsix nicht automatisch anspringt wnn ein Game CPU-Physix nutzt, dann wird es nichts. Und dazu muss CPU PhysiX besser werden und evtl. sogar kostenfrei.

CPU-PhysX ist doch annährend kostenfrei.

Super Grobi
2011-03-18, 13:03:53
Wenn Nvidia und Ati eine gemeinsame PhysX-Geschichte hätte, würde ich chancen sehen, das es sich durch setzt. So nicht!

SG

seaFs
2011-03-18, 13:05:20
Solange GPU Pyhsix nicht automatisch anspringt wnn ein Game CPU-Physix nutzt, dann wird es nichts. Und dazu muss CPU PhysiX besser werden und evtl. sogar kostenfrei.
http://realworldtech.com/page.cfm?ArticleID=RWT070510142143&p=1

PhysX ist auf einer CPU eine absolute Krücke. Und das mit Absicht, aber das wissen wir ja alle schon. Da bleibt nur zu hoffen, dass sich Bullet oder auch Havok (wieder mehr) durchsetzen.

@Boxleitnerb: n bisschen OT, aber schau dir mal Magellan von Farbrausch an. Partieklsimulation mit DX9 auf der GPU...

daywalker4536
2011-03-18, 13:19:51
Die CPU ist für bestimmte PhysX !Simulationen(wichtiges Wort)! nicht geeignet auf Grund der viel schlechteren Rechenleistung gegenüber einer GPU. Für simple Sachen reicht aber meistens ein ordentlicher Mehrkernprozesser aus. Ob man PhysX in Spielen einsetzten will und kann muss immer abgewogen werden.

PhysX steht über Havok und Bullet.

dllfreak2001
2011-03-18, 13:45:15
Die CPU ist für bestimmte PhysX !Simulationen(wichtiges Wort)! nicht geeignet auf Grund der viel schlechteren Rechenleistung gegenüber einer GPU. Für simple Sachen reicht aber meistens ein ordentlicher Mehrkernprozesser aus. Ob man PhysX in Spielen einsetzten will und kann muss immer abgewogen werden.

PhysX steht über Havok und Bullet.

;D Der letzte Satz ist gut! ;)
Ich wollte PhysX diesmal nicht bewerten,
sehe es aber anders als du.

Es ist still geworden, NV geilt sich derzeit vor allem an der Tesselation auf.
PhysX hat wohl gerade wegen der fragwürdigen Umsetzung in Mafia2 einen kleinen Image-Knacks bekommen.
Aber vielleicht springen sie mit PhysX wieder aus dem Busch wenn AMD
in der Tess.-Performance aufgeholt hat...

V2.0
2011-03-18, 14:03:04
CPU-PhysX ist doch annährend kostenfrei.
Aber in der gegenwärtigen Form auch schlecht.

daywalker4536
2011-03-18, 14:05:56
;D Der letzte Satz ist gut! ;)
Ich wollte PhysX diesmal nicht bewerten,
sehe es aber anders als du.

Es ist still geworden, NV geilt sich derzeit vor allem an der Tesselation auf.
PhysX hat wohl gerade wegen der fragwürdigen Umsetzung in Mafia2 einen kleinen Image-Knacks bekommen.
Aber vielleicht springen sie mit PhysX wieder aus dem Busch wenn AMD
in der Tess.-Performance aufgeholt hat...

PhysX steht nun einmal was Realismus und Simulation angeht über Havok und Bullet. Es geht nicht nur um irgendwelche simplen beweglichen Objekte das sollte klar sein. Wer sich mit der nötigen Rechenleistung nicht abfinden will oder kann, der benutzt es nicht oder schaut das er sich die nötige Rechenpower anschafft :). In Mafia2 wurde es einfach zu intensiv eingesetzt. Dafür gab es einfach nicht genug Reserven ohne eine externe schnelle PPU.

PhysX ist einfach eine Glaubensfrage. Es gibt nun einmal auch Leute denen simplere Sachen ausreichen. Es mag sein das es optisch keine Unterschiede gibt in manchen Situationen aber es steckt teilweise schon mehr dahinter.

Batman Arkham City wird interessant. Wird bestimmt wieder PhysX geben.

dllfreak2001
2011-03-18, 14:15:26
PhysX steht nun einmal was Realismus und Simulation angeht über Havok und Bullet..

Nö, mit Havoc und vor allem Bullet kannst du das Gleiche machen.



Es geht nicht nur um irgendwelche simplen beweglichen Objekte das sollte klar sein. Wer sich mit der nötigen Rechenleistung nicht abfinden will oder kann, der benutzt es nicht oder sieht zu das er sich die nötige Rechenpower anschafft :). In Mafia2 wurde es einfach zu intensiv eingesetzt. Dafür gab es einfach nicht genug Reserven ohne eine externe schnelle PPU.


Du kannst dazu den entsprechenden PhysX-Thread rauskrammen, es war eher die schlechte Implementierung die die schlechte Performance verursacht hat.


PhysX ist einfach eine Glaubensfrage. Es gibt nun einmal auch Leute denen simpleren Sachen auch reichen.
.

Wie gesagt Bullet ist imho einfach die sinnvollere Physik-Engine da sie das gleiche kann und sie auch AMD nutzen kann.


Batman Arkham City wird interessant. Wird bestimmt wieder PhysX geben.

Mal schauen ob sich die Entwickler der Kritik noch einmal aussetzen wollen.
Noch habe ich dazu nichts gehört.

Simon
2011-03-18, 14:18:17
Wie gesagt Bullet ist imho einfach die sinnvollere Physik-Engine da sie das gleiche kann und sie auch AMD nutzen kann.
Das mag vielleicht für Endanwender stimmen. Für Entwickler ist PhysX jedoch wesentlich besser als Bullet. Allein der Character Controller ist ein Grund für PhysX, bei Bullet quasi nicht vorhanden.

daywalker4536
2011-03-18, 14:24:16
Wie weit und was Bullet besser machen wird werden wir erst noch sehen müssen ^^. Mehr FPS ist immer gut. Ohne den Thread durchzulesen sage ich das du mit schlechter Implementierung das meinst was ich geschrieben habe :). Es gibt keine schlechte Implementierung nur zuviel des Guten.

Tigerchen
2011-03-18, 15:12:28
Wenn Nvidia und Ati eine gemeinsame PhysX-Geschichte hätte, würde ich chancen sehen, das es sich durch setzt. So nicht!

SG
Ja. Das Problem hatten wir schon mal als 3dfx sein Glide Monopol eifersüchtig hütete.

Quaker
2011-03-18, 15:18:09
Ja. Das Problem hatten wir schon mal als 3dfx sein Glide Monopol eifersüchtig hütete.
...und nVidia die Fahne für gemeinsame Standards nach oben gehalten hat.
Da ich dergleichen Meinung war, habe ich mich natürlich damals gegen 3dfx und für RIVA128 entschieden. :)
Leider sind diese Zeiten bei nv vorbei und nur noch AMD eine gute Alternative. :(

hmx
2011-03-18, 15:52:55
Solange GPU Pyhsix nicht automatisch anspringt wnn ein Game CPU-Physix nutzt, dann wird es nichts. Und dazu muss CPU PhysiX besser werden und evtl. sogar kostenfrei.

Btw, warum geht das denn nicht?

Botcruscher
2011-03-18, 15:56:34
[x] Hat nie gelebt

Außer von NV mit viel Kohle gepushten Titeln war, ist und wird da nichts sein. Gleichzeitig ist die "Glaubwürdigkeit" das größte Problem.

dllfreak2001
2011-03-18, 15:56:57
Das mag vielleicht für Endanwender stimmen. Für Entwickler ist PhysX jedoch wesentlich besser als Bullet. Allein der Character Controller ist ein Grund für PhysX, bei Bullet quasi nicht vorhanden.

Dazu gab es mal glaube ich ein Statement hier im Forum... so soll PhysX ein Krampf sein... ich glaube das soll irgendjemand vom Batman-Team gesagt haben oder so.
Also das lass ich erstmal nicht gelten, möchte diese Diskussion in diesem Thread aber auch nicht vertiefen.

nomadhunter
2011-03-18, 16:07:01
Meiner Meinung nach hat GPU-Physik nur auf Basis von OpenCL oder DX11 DirectCompute eine Chance. Havoc und Bullet können das schon. PhysX wird wohl irgendwann folgen oder in der Versenkung verschwinden.

Windi
2011-03-18, 16:51:14
[x] Hat nie gelebt

Wir haben heute fast nur noch Cross-Platform Entwicklungen, wenn dort für die PC-Version HW-PhysX verwendet wird, dann ist das normalerweise ein lieblos drangeklatschter Schnellschuss der kaum was bringt.
Weder die Konsolen noch die Mehrheit der PC-Systeme unterstützen HW-PhysX. (AMD-Systeme, Intel-Grafik in Notebooks)
Der HW-PhysX-Markt ist einfach zu klein, als das sich die Entwickler dafür extra Mühe geben würden.
Ausser man sponsort sie natürlich.

fondness
2011-03-18, 17:35:59
Btw, warum geht das denn nicht?

Weil es technisch nicht möglich ist Game-Physik damit zu berechnen. Deshalb läuft es immer nur auf ein mehr an Partikel, etc. hinaus.

Dazu kommt die vollkommen verfehlte Politik von NV. Die einzige Chance, welche GPU-Physik hätte, wäre eine Unterstützung einer offenen API.

LovesuckZ
2011-03-18, 19:54:12
Dazu kommt die vollkommen verfehlte Politik von NV.

Hä? nVidia unterstützt DC und OpenCL. Mehr können sie nicht machen.

Ohne nVidia gäbe es heute überhaupt kein GPU-Physik.

fondness
2011-03-18, 19:56:52
Hä? nVidia unterstützt DC und OpenCL. Mehr können sie nicht machen.

Du weißt was ich meine, also stell' dich nicht dumm.

LovesuckZ
2011-03-18, 20:02:20
Du weißt was ich meine, also stell' dich nicht dumm.

Nein. Die Möglichkeit über DC und OpenCL ist im gewissen Rahmen gegeben. Beide Schnittstellen werden von nVidia unterstützt.
Was soll nVidia noch machen? PhysX für alle freigeben und gleichzeitig weiter Geld investieren? :freak:
AMD hat seit bald 4 Jahren nichts auf die Reihe bekommen. Eher haben die eine "vollkommen verfehlte Politik".

Black-Scorpion
2011-03-18, 20:24:36
Seit wann hat AMD GPU Physik? Du kannst es einfach nicht lassen oder?
Was bitte soll AMD auf die Reihe bekommen was sie nicht haben?
Bullet und Hovak gehören nicht AMD. Also unterlasse bitte deine dummen Vergleiche.

fondness
2011-03-18, 20:39:10
Was soll nVidia noch machen? PhysX für alle freigeben und gleichzeitig weiter Geld investieren? :freak:


Das hätte man sich vielleicht vorher überlegen sollen. Ein GPU-Beschleunigung die auf einen bestimmten Herstellen angewiesen ist lässt sich nunmal schlecht verkaufen. Die Alternative ist jedes Jahr irgend einen B-Klasse Entwickler ein paar Millionen zuzuschieben um eine GPU-Unterstützung zu bekommen. Das scheint sich wohl eben so wenig zu rechnen, wenn man sich die kommenden Titel ansieht. Ich finde es Schade, weil so leider Potential verschenkt wird.

bloub
2011-03-18, 20:51:41
Seit wann hat AMD GPU Physik? Du kannst es einfach nicht lassen oder?

ja eben, amd hat sowas nicht.


Was bitte soll AMD auf die Reihe bekommen was sie nicht haben?

woraus sich irgendwie ergibt, dass amd es nicht auf die reihe bekommt. ;)


Bullet und Hovak gehören nicht AMD. Also unterlasse bitte deine dummen Vergleiche.

es bleibt amd unbenommen, was eigenes in richtung gpu-physik zu machen. woran haperts bei denen eigentlich? weiss man da was genaues?

Coda
2011-03-18, 21:16:32
Ihr Management meint wohl, dass sich das nicht lohnt, d.h. die Karten würden sich dadurch nicht häufiger verkaufen um die Investition zu rechtfertigen. Vielleicht haben sie auch gerade einfach kein Budget dafür.

3DMark 11 benutzt ja schon Bullet, das auf allen GPUs beschleunigt werden kann.

IVI
2011-03-18, 21:32:31
solange physX nicht was für das gameplay an sich bringt, wird physix immer nur ne technische spielerei sein. es wird halt mehr auf optik als auf inhalt gesetzt (ich erinnere an den MAFIA II-Screenshot, auf ein man erkennen konnte, dass nicht mal ne simple kollisionsabfrage funzte)

was ich mich allerdings frage: warum hab die "gamer"-Mainboard-hersteller über die ganzen jahre hinweg kein ernsthaftes "gamer"-mainboard mit PhysX-chip rausgebracht? geringe marge durch hohe stückzahlen ... tja, das lässt einen schon grübeln, es gab wohl gute gründe dafür.

Nasenbaer
2011-03-18, 21:32:38
Seit wann hat AMD GPU Physik? Du kannst es einfach nicht lassen oder?
Was bitte soll AMD auf die Reihe bekommen was sie nicht haben?
Bullet und Hovak gehören nicht AMD. Also unterlasse bitte deine dummen Vergleiche.
Also meines Wissen unterstützt AMD die Bullet-Entwickler bei der Implementierung für OpenCL-basierte Berechnungen. Sie haben allerdings nicht irgendeinen Laden aufgekauft und dann ihr Logo draufgepappt - das ist richtig. ;D

Und laut Codas Aussage ist dieser Teil von Bullet wohl auch nutzbar (also nicht mehr Pre-Alpha-irgendwas).


Ich kann dem nur zustimmen, dass nv hier den falschen Weg gewählt hat. Aus Marketingsicht durchaus nachvollziehbar, man will ja seine Investitionen auch schützen aber da sich beide IHVs den Markt quasi 50:50 teilen, macht sich kaum ein Hersteller die Mühe das nur für einen Teil der Nutzer zu implementieren. Vorallem wo die meisten Spiele Crossplattform sind und der PC-Mark ohnehin der kleinste (IMHO).

Black-Scorpion
2011-03-18, 21:48:43
es bleibt amd unbenommen, was eigenes in richtung gpu-physik zu machen. woran haperts bei denen eigentlich? weiss man da was genaues?
Sei froh das es AMD gar nicht erst versucht. Reicht eine proprietäre GPU Physik Engine nicht? Muss man wirklich nach einer zweiten rufen die das Theater nur noch größer macht?

deekey777
2011-03-18, 22:10:51
Ihr Management meint wohl, dass sich das nicht lohnt, d.h. die Karten würden sich dadurch nicht häufiger verkaufen um die Investition zu rechtfertigen. Vielleicht haben sie auch gerade einfach kein Budget dafür.

3DMark 11 benutzt ja schon Bullet, das auf allen GPUs beschleunigt werden kann.
Jetzt hat man einfach viel bessere Möglichkeiten die Hardwareverkäufe zu pushen als nur zT fragwürdige Effekte, die dazu in unterdurchschnittlichen Spielen zum Einsatz kamen. Einzige Lichtblicke waren das Batman-Spiel und vielleicht noch Mafia 2; von Mirror's Ege sollen 2 Mio Kopien verlauft worden sein, aber ich denke mal, dass die PC-Version eher eine untergeordnete Rolle gespielt hat.

Etwas zu Bullet selbst:
Bullet Physics ist ein Open Source Library. Sie gehört weder AMD noch Sony noch Hollywood noch Rockstar, sie wird von ihnen genutzt. Sony ist vielleicht der größte Nutzer überhaupt, dann kommt natürlich Rockstar (GTA4, RDR usw). AMDs Open Physics setzt zwar auf Bullet, nutzt zusätzlich DMM.
Interessant wird Bullet 3.0.

LadyWhirlwind
2011-03-18, 22:32:14
Etwas zu Bullet selbst:
Bullet Physics ist ein Open Source Library. Sie gehört weder AMD noch Sony noch Hollywood noch Rockstar, sie wird von ihnen genutzt. Sony ist vielleicht der größte Nutzer überhaupt, dann kommt natürlich Rockstar (GTA4, RDR usw). AMDs Open Physics setzt zwar auf Bullet, nutzt zusätzlich DMM.
Interessant wird Bullet 3.0.

Wenn ich fragen darf, wieso wird das besonders interessant?

Blaire
2011-03-18, 22:47:24
[x] Hat nie gelebt

Außer von NV mit viel Kohle gepushten Titeln war, ist und wird da nichts sein.

Eigentlich sollte man Nvidia dankbar dafür sein, das sie Gamern ein Mehrwert kostenfrei bereitstellen. Nur weil es von Nvidia kommt, muss man nicht gleich etwas schlechtes dahinter sehen.
Das PhysX sterben soll glaube ich nicht, Nvidia hat sich nicht umsonst die Unreal Engine 3 Rechte geangelt so daß nach und nach Titel erscheinen werden die PhysX nutzen. Besser als nichts.

Hugo78
2011-03-18, 23:13:58
Wenn Nvidia, PhysX in der Kombination aus Radeon + Geforce als PhysX Beschleuniger freigeben würde, gäbe es garnicht so zweifelhaft, sinnvolle Themen wie dieses hier.

Lars Weinand hatte beim PCGH Geforce Themenabend zwar gemeint, sie machen das nicht weil sie dann auch diese Kombi supporten müssten, also haftbar für Fehler im Zusammensspiel mit Radeonkarten wären,
aber man könnte im Geforcetreiber einfach einen Haken, in den erweiterten Settings einbauen, wo man dann per Warnhinweiß ebend so eine Kombi doch freischalten darf.

Die Warnung würde dann einen disclaimer enthalten, a la "Bla, Bla Radeon + Geforce = nicht unser Bier, wenn was passiert" und alle wären glücklich.

Zum Thema direkt nochmal...

Ich seh nicht das GPU PhysX "stirbt".
Es sprechen nur eine Reihe von Überlegungen dagegen die sicher jeder Entwickler hat, der dies als Extra anbieten möchte,
weil er für seine Kosolenversion, ohnehin schon CPU PhysX benutzt.


1a.) brauch ich das überhaupt, oder könnte ich nicht noch ein - zwei CPU kerne mit FX Physik belasten, 1b) und hätte eine Mainstream Geforce überhaupt noch Luft für mehr Aufgaben? ja/nein
2.) haben meine Kunden überhaupt soviele Geforces, dass sich hier die Manpower für GPU PhysX Umsetzung überhaupt lohnt? ja/nein
3.) bringt GPU PhysX dem Spiel wirklich einen Mehrwert? ja/nein.

Und selbst Konsolenports sind oft so grottig, "schnell, schnell" zusammen geproggt, dass es spätestens bei 1b.) scheitert.

Daran wird auch Bullet oder sonstwas nichts ändern.
Das ändert sich erst, wenn auch in den USA ect. die Leute wieder mehr auf dem Rechner zocken.

Grey
2011-03-18, 23:27:26
[x] Hat nie gelebt

So nämlich.

So lange der Kram eher Marketing-Feature ist um so etwas ähnliches wie Interesse für den PC-Markt zu vermitteln (aber im Grunde auch nur nVidias Geld einsteckt) ist es kein Segment was lebt oder stirbt. Ist ja nahezu auf dem Niveau von Trueform... amüsant, aber eigentlich komplett irrelevant für den Markt und den Inhalt von Spielen so wie deren Fortschritt. Insbesondere wenn man dann mal auf Titel wie BFBC2 schielt, wo Physik tatsächlich auch mal als Gameplay-Element verwendet wird... sehr bezeichnend irgendwo (war ja selbst vor dem Thema GPU-Physik bei HL² schon der Fall...)

Das ändert sich erst, wenn auch in den USA ect. die Leute wieder mehr auf dem Rechner zocken.

Das wird nicht passieren. Es ändert sich maximal, wenn sich die Konsolengeneration dahingehend verändert. Was ja nicht mal sehr abwegig ist.

Hugo78
2011-03-18, 23:37:31
Das wird nicht passieren. Es ändert sich maximal, wenn sich die Konsolengeneration dahingehend verändert. Was ja nicht mal sehr abwegig ist.

Jo, genau das ist der Knackpunkt.
Wir hier in Good old Germany, mit unseren 50% PC vs 50% Konsole, sind/wären der Idealzustand ganz allgemein, damit sich überhaupt GPU Physik wieder lohnt.

Aber mit 15-18% Marktanteil für den PC in den USA und GB, wird das nix.
Egal wie offen Nvidia GPU PhysX auch macht.

beos
2011-03-19, 00:13:56
Bin auch der Meinung, dass HW-PhysX nie richtig gelebt hat.
Es hat denn gleiche Status wie 3D HW Beschleunigung vor Glide oder im großen Ganzen DX. Stellen wir uns einfach vor, diesen beiden Standards hätten nie exisitiert...dann gabe es heute auch keine Consumer High-End-3D-Beschleuniger...sie hätten also nie existiert.

LovesuckZ
2011-03-19, 01:56:03
Das hätte man sich vielleicht vorher überlegen sollen. Ein GPU-Beschleunigung die auf einen bestimmten Herstellen angewiesen ist lässt sich nunmal schlecht verkaufen. Die Alternative ist jedes Jahr irgend einen B-Klasse Entwickler ein paar Millionen zuzuschieben um eine GPU-Unterstützung zu bekommen. Das scheint sich wohl eben so wenig zu rechnen, wenn man sich die kommenden Titel ansieht. Ich finde es Schade, weil so leider Potential verschenkt wird.

Aha. Schon ironisch, weil GPU-PhysX die einzige real-existierende Lösung darstellt. Aber für manche ist ja "wenig" immer noch weniger als "nichts". :freak:

Es steht jedem Entwickler frei etwas eigenes anzubieten. Das hat nichts mit nVidia oder AMD zu tun.

So nämlich.

So lange der Kram eher Marketing-Feature ist um so etwas ähnliches wie Interesse für den PC-Markt zu vermitteln (aber im Grunde auch nur nVidias Geld einsteckt) ist es kein Segment was lebt oder stirbt. Ist ja nahezu auf dem Niveau von Trueform... amüsant, aber eigentlich komplett irrelevant für den Markt und den Inhalt von Spielen so wie deren Fortschritt. Insbesondere wenn man dann mal auf Titel wie BFBC2 schielt, wo Physik tatsächlich auch mal als Gameplay-Element verwendet wird... sehr bezeichnend irgendwo (war ja selbst vor dem Thema GPU-Physik bei HL² schon der Fall...)

Jaja, jetzt kommt wieder diese Dummheit ala "Gameplayphysik". Wie beeinflusst eigentlich Grafik das Gameplay? Was kann man denn in den neusten CoD Teile dank grafischer Verbesserung mehr als in Medal of Honor 1?
Schonmal überlegt, dass Effektphysik vielleicht nicht "Gameplayphysik" ist, aber einen wesentlich Teil zur Immersion beiträgt? Wohl nicht. Anscheinend sind viele so stark konditioniert, dass sie denken, dass Cloth star und Debris auch in unserer Welt verschwinden. Das sollte man mal den Japanern sagen, die müssten ihr beschädigtes Atomkraftwerk nur in die Luft jagen. :lol:

TheRaven666
2011-03-19, 02:07:31
Och jetzt mach doch nicht so nen Thread auf....du desillusionierst doch die ganzen Fanboys!

=Floi=
2011-03-19, 08:30:32
Nein. Die Möglichkeit über DC und OpenCL ist im gewissen Rahmen gegeben. Beide Schnittstellen werden von nVidia unterstützt.
Was soll nVidia noch machen? PhysX für alle freigeben und gleichzeitig weiter Geld investieren? :freak:
AMD hat seit bald 4 Jahren nichts auf die Reihe bekommen. Eher haben die eine "vollkommen verfehlte Politik".


ja, genau!
sie sollten es auf OCL oder DC portieren und freigeben. ein coup mit intel, wo die igp zukünftig als physx prozessor genutzt werden kann wäre auch nett.
es zählt in erster linie der spieler und das pc-gaming und physx würde es schon weiterbringen.

problem war schon der übertriebene einsatz.

edit
ati würde mit NVs physx den boden aufwischen, weil die so viel rechenleistung brach liegen haben. das wird nv wohl zu sehr fürchten. siehe tesselation bei nv...

Botcruscher
2011-03-19, 08:59:39
Eigentlich sollte man Nvidia dankbar dafür sein, das sie Gamern ein Mehrwert kostenfrei bereitstellen. Nur weil es von Nvidia kommt, muss man nicht gleich etwas schlechtes dahinter sehen.
Das PhysX sterben soll glaube ich nicht, Nvidia hat sich nicht umsonst die Unreal Engine 3 Rechte geangelt so daß nach und nach Titel erscheinen werden die PhysX nutzen. Besser als nichts.

Natürlich zahle ich über die Grafikkarte für den Quark. Bei NV gibt es kein Schwarzes Loch das aus dem Nichts Geld ausspuckt. Und ja, es kommt von NV und ist schlecht. Einfach weil NV hier versucht(e) künstlich ein Alleinstellungsmerkmal zu erschaffen. NV hätte das Ding öffnen und über die Software Geld verdienen sollen. Aber nein, NV musste mit dem Kopf durch die Wand. Raus gekommen ist eine schlechte Unterstützung, mit unterirdisch schlechter Umsetzung, die am Ende auch noch von meiner gerade verbauten GraKa abhängt. Edit(derzeit GTX570. Eh die Trolle hier aus der Deckung springen)

edit
ati würde mit NVs physx den boden aufwischen, weil die so viel rechenleistung brach liegen haben. das wird nv wohl zu sehr fürchten. siehe tesselation bei nv...

Außerhalb der Pinismarks würde man davon nichts merken. Und Tesselation... die Marketingblase ist noch größer als bei physx. Mal sehen ob wir dieses Jahr noch eine brauchbare Unterstützung ohne Texturverzerrung und CO erleben. Ich tippe auf nein. Falls doch, reichen sollten immer noch beide Hände zum Titel Zählen reichen.

boxleitnerb
2011-03-19, 09:18:43
Wo kann Nvidia etwas dafür, wenn die Spieleentwickler meist nichts aus den Möglichkeiten von PhysX machen?
Ist Eyefinity nicht auch ein Alleinstellungsmerkmal? Ist es deshalb schlecht?

AMD pocht ja so sehr auf offenen Standards, das ist ja schön und gut. Aber was richtig Bahnbrechendes (schon gar nicht auf der GPU) hat man in der Richtung in Spielen noch nicht gesehen, obwohl es Bullet ja schon länger gibt. Wieso nutzt man nicht die immense Rechenpower der Radeons für Gas- und Fluideffekte? Woran liegts? Besser GPU-PhysX als überhaupt keine GPU-Physik.

Hier sind die Spieleentwickler in der Pflicht, endlich durchzustarten, und zwar bitte auf OpenCL und mit Bullet. Solange sie das nicht tun, gibt es zu GPU-PhysX nunmal keine Alternative, wenn man auf der Grafikkarte rechnen will.

Botcruscher
2011-03-19, 09:22:58
Eyefinity läuft mehr oder weniger überall aus der Box(auch und gerade jenseits der Spiele) und ist eigentlich nicht mehr als erweiterte Multimonitorunterstützung. NV kann so etwas jeder Zeit anbieten. Über den Aufwand der Implementation braucht man da schon nichts mehr sagen. Kurz: es ist nicht vergleichbar.
PS: Was Bullet angeht fehlen mir die Infos. Imo tut sich kein Entwickler Hardwareunterstützung an, so lange die Konsolen(und damit der größte Teil der Spieler) nichts davon haben. Alles was DX11 so bietet, wird sich erst mit der neuen Konsolengeneration durchsetzen. Warum auch, Grafik hat sich als Verkaufszugpferd lange verabschiedet.

boxleitnerb
2011-03-19, 09:30:24
Tun sie aber nicht, nicht mit einer Karte. Daher ist es ein valides Alleinstellungsmerkmal für Radeons. Warum müssen Alleinstellungsmerkmale schlecht sein? Der Markt entscheidet schon von selbst, was er will. Damals wurde ja auch niemand daran gehindert, statt auf Glide auf D3D zu setzen. Glide war trotzdem was Tolles, bis es eben gestorben ist.

Genauso wird es hier auch ablaufen. GPU-PhysX wird sterben (wenn es nicht geöffnet wird und die bessere Middleware als Havok oder Bullet darstellt)...aber erst dann, wenn die offene Konkurrenz auch weit verbreitet ist. Solange Bullet irgendwo rumdümpelt, wird es auch GPU-PhysX am Rande geben.

Mit den Konsolen hast du vollkommen Recht. Es würde mich brennend interessieren, wie sich das Ganze entwickelt hätte, wenn es keine Konsolen geben würde.

Botcruscher
2011-03-19, 09:45:28
Alleinstellungsmerkmale sind nicht per se schlecht, bei allem was man "nebenbei" machen kann ist es sogar sehr zu begrüßen. Das alles endet aber spätestens bei der Basis für die der Entwickler programmiert. Hier zählt der kleinste gemeinsame Nenner. Will man etwas durchsetzen, müssen es alle unterstützen. Extravaganzen kann sich mit seiner Marktmacht maximal Intel leisten.

dargo
2011-03-19, 09:49:26
Jaja, jetzt kommt wieder diese Dummheit ala "Gameplayphysik". Wie beeinflusst eigentlich Grafik das Gameplay? Was kann man denn in den neusten CoD Teile dank grafischer Verbesserung mehr als in Medal of Honor 1?
Schonmal überlegt, dass Effektphysik vielleicht nicht "Gameplayphysik" ist, aber einen wesentlich Teil zur Immersion beiträgt? Wohl nicht. Anscheinend sind viele so stark konditioniert, dass sie denken, dass Cloth star und Debris auch in unserer Welt verschwinden.
Da geb ich dir vollkommen recht. Wenn ich mir das hier anschaue:
http://www.ea.com/battlefield3/videos/faultline-episode-2

frage ich mich wie lange wir noch auf den Fortschritt warten müssen? Bei 00:25 wird der Blumentopf zerschossen und die Debris lösen sich in Luft auf. Bei 01:00 und 01:15 genau das selbe. Ich finde das absolut nicht mehr zeitgemäß.

Mal was anderes - warum werden liegende Debris von der CPU nicht berechnet. Ist das auf CPU noch so extrem teuer?

boxleitnerb
2011-03-19, 09:51:48
Du müsstest für Debris auch Kollisionsabfragen einbauen, wenn du konsequent sein wolltest. Nur liegenbleiben ist nicht - wenn man drantritt oder draufschießt, muss es sich bewegen und auch mit anderen Objekten interagieren. Damit führst du Abertausende zusätzliche Kollisionsobjekte im Spiel ein, die auch noch Speicher belegen. Ich weiß nicht, ob das so einfach ist.

dargo
2011-03-19, 09:56:05
Du müsstest für Debris auch Kollisionsabfragen einbauen, wenn du konsequent sein wolltest.
Da denkst du schon weiter. Bei den kleinen Bruchstücken vom Blumentopf oder dem Mauerwerk würde es mir erstmal reichen wenn sie nur liegen bleiben (schließlich braucht keiner eine Simulation wie der Soldat mit seinem Fuss auf ein Bruchstück drauftritt und sich die Schuhsohle physikalisch korrekt verformt:D). Das wäre schon mal ein Fortschritt. Bei der Explosion von diesem Gebäude zum Schluss hast du natürlich recht. Da wären es teilweise schon große Brocken. Und wenn der Spieler dann unten durchläuft müsste man Kollisionsabfragen einbauen.

Dural
2011-03-19, 10:24:43
ja ist erstaunlich ruhig um PhysX geworden, aber das betrifft die anderen Schnittstellen auch zb. Havok hört man auch so gut wie rein gar nichts mehr, wo bleibt die GPU Unterstützung???

Seit Mafia2 steht es irgendwie nicht mehr so gut um Hardware PhysX

Aber ich verstehe die Entwickler auch gut, den für was Geld in die Hand nehmen um dann von den ganzen kidis die es gibt zu hören was für scheiss Programmierer sie sind weil sie sich keine vernünftige Hardware Leisten können :freak:

Das war bis jetzt immer so, immer dasselbe scheiss gelaber wenn ein Spiel raus kommt das die Hardware sehr fordert, ich erinnere nur mal an Crysis da gab es in den Forum Seitenweise solche Stroh dummen Kommentare...

Und die Anzahl der User die das zu schätzen wissen ist nach wie vor extrem klein! Ich schätze das es gerade mal 5% oder weniger sind, die Hardware zuhause haben wo Hardware PhysX Sinn macht...

Das alles verzögert natürlich auch die Entwicklung dieser sehr wichtigen Technologie, vieleicht war es auch einfach noch zu früh für Hardware PhysX

Black-Scorpion
2011-03-19, 10:25:52
Eigentlich sollte man Nvidia dankbar dafür sein, das sie Gamern ein Mehrwert kostenfrei bereitstellen. Nur weil es von Nvidia kommt, muss man nicht gleich etwas schlechtes dahinter sehen.
Das PhysX sterben soll glaube ich nicht, Nvidia hat sich nicht umsonst die Unreal Engine 3 Rechte geangelt so daß nach und nach Titel erscheinen werden die PhysX nutzen. Besser als nichts.
Möchte mal wissen was für einen Mehrwert unrealistische zu tausenden umher fliegende Splitter haben die physikalisch auch noch total daneben sind. Zudem es die Entwickler nur mit viel zureden einbauen.

IVI
2011-03-19, 10:28:34
was nützt dir das tollst gePHYSXt-zerstörte gebäude, wenn du in dem typischen shooter von heute dann eh nur maximal daran vorbeigehst? warum nimmt nicht mal der gegner ne bazooka und schießt die deckung des spielers weg? wieso schafft es der scharfschütze net binnen einer halben sekunde, den bazooka-schützen zu treffen?
physx ... pfff ... lohnt sich gar nicht drüber zu diskutieren, solange logik und KI fehlen.

boxleitnerb
2011-03-19, 10:34:07
Möchte mal wissen was für einen Mehrwert unrealistische zu tausenden umher fliegende Splitter haben die physikalisch auch noch total daneben sind. Zudem es die Entwickler nur mit viel zureden einbauen.

Nvidia setzt sich nicht hin und programmiert die (schlechte) Umsetzung selber. Das ist Aufgabe des Spieleentwicklers. Nvidia stellt nur die Entwicklungsumgebung bzw. die Middleware.

was nützt dir das tollst gePHYSXt-zerstörte gebäude, wenn du in dem typischen shooter von heute dann eh nur maximal daran vorbeigehst? warum nimmt nicht mal der gegner ne bazooka und schießt die deckung des spielers weg? wieso schafft es der scharfschütze net binnen einer halben sekunde, den bazooka-schützen zu treffen?
physx ... pfff ... lohnt sich gar nicht drüber zu diskutieren, solange logik und KI fehlen.

Was du willst, ist Gameplayphysik. Das darf gar nicht über GPU-PhysX laufen, weil das nicht jeder hat. Hier geht es um Effektphysik, die am Gameplay rein gar nichts ändert.
Es gibt nicht nur Zerstörung, auch andere Dinge können zur Immersion beitragen, eben Rauch, Flüssigkeiten, Stoffe, Ragdoll, Partikel (Schnee, Regen usw.)

Nasenbaer
2011-03-19, 10:37:56
was nützt dir das tollst gePHYSXt-zerstörte gebäude, wenn du in dem typischen shooter von heute dann eh nur maximal daran vorbeigehst? warum nimmt nicht mal der gegner ne bazooka und schießt die deckung des spielers weg? wieso schafft es der scharfschütze net binnen einer halben sekunde, den bazooka-schützen zu treffen?
physx ... pfff ... lohnt sich gar nicht drüber zu diskutieren, solange logik und KI fehlen.
Zumal Gebäude zerstören auch sehr schön und dennoch performant ganz ohne GPU-Physik möglich ist (siehe Battlefield: BC2). Ist dann vielleicht nicht physikalisch simuliert, manche Gebäude gehen nicht kaputt und manch einzelne Mauer weigert sich auch hartnäckig. Aber dafür ist es (meist) plausibel, schnell und hat nicht mit den Krankheiten von Physik-Simulationen zu kämpfen (z.B. Partikel, die nie zu Ruhe kommen).

SamLombardo
2011-03-19, 10:46:04
Möchte mal wissen was für einen Mehrwert unrealistische zu tausenden umher fliegende Splitter haben die physikalisch auch noch total daneben sind. Zudem es die Entwickler nur mit viel zureden einbauen.
Sieht geil aus. Das reicht mir als Mehrwert.*









*Wenn es ati könnte und NV nicht, käme so ein Satz garantiert nicht von Dir.

Black-Scorpion
2011-03-19, 10:52:00
Sieht geil aus. Das reicht mir als Mehrwert.*









*Wenn es ati könnte und NV nicht, käme so ein Satz garantiert nicht von Dir.
Das kannst du dir sparen.

Solange es so wie jetzt funktioniert und man eher das kotzen bekommt ist es mit Sicherheit kein Mehrwert. Ganz egal von wem. Auch wenn dir das nicht gefällt. Und wenn dir Partikel die mit Physik zu viel zu tun haben wie eine Kuhn mit fliegen gefallen, ist das dein Problem und nicht meins. Das sollte eher dir zu denken geben wie andere blöd von der Seite anzumachen.

Nasenbaer
2011-03-19, 10:52:56
Von geil kann man bei Mafia 2 nun beim besten Willen nicht mehr reden. Wenn man die GPU-Physik nutzen würde um bspw. bei Bioshock Wasser, dass einen Raum flutet, realistisch zu animieren und den Spieler wegzuspülen, dann wäre das cool.
Aber nicht um eine Millionen faustgroßer Betonklumpen rumfliegen zu lassen, die alle aus 5cm³ Wand stammen. Das sorgt nur für miese Performance und ein totales Cluttering.

dargo
2011-03-19, 11:04:22
Zumal Gebäude zerstören auch sehr schön und dennoch performant ganz ohne GPU-Physik möglich ist (siehe Battlefield: BC2).
Ich rede nicht von Gebäude zerstören sondern von sich in der Luft aufzulösenden Debris. Bleiben Debris in BF:BC2 liegen?


Solange es so wie jetzt funktioniert und man eher das kotzen bekommt ist es mit Sicherheit kein Mehrwert.
Dann schalte es doch einfach aus. Es zwingt dich niemand es zu nutzen.

Nasenbaer
2011-03-19, 11:15:28
Ich rede nicht von Gebäude zerstören sondern von sich in der Luft aufzulösenden Debris. Bleiben Debris in BF:BC2 liegen?
Nein die lösen sich noch in der Luft auf und sind sicher auch gesciptet und nicht simuliert: http://www.youtube.com/watch?v=9fuZdV2vYw4&feature=player_detailpage#t=65s

IVI
2011-03-19, 12:29:32
Was du willst, ist Gameplayphysik.
richtig, denn nur so ist es sinnvoll, alles andere ist effekthascherei.

Das darf gar nicht über GPU-PhysX laufen, weil das nicht jeder hat.
wieder richtig, deshalb wird's auch in den nächsten 5 bis 10 jahren nix werden mit PhysX.

Hier geht es um Effektphysik, die am Gameplay rein gar nichts ändert.
Es gibt nicht nur Zerstörung, auch andere Dinge können zur Immersion beitragen, eben Rauch, Flüssigkeiten, Stoffe, Ragdoll, Partikel (Schnee, Regen usw.)
durch visuelle effekte getrübte wahrnehmung ... na, ob Bartle da an sowas dachte? ich hab nix gegen ne feine grafik, ganz im gegenteil, aber der blender-effekt ist einfach zu groß, heute schon. geht man ein stückchen weiter, versucht man über den tellerand der grafik hinwegzuschauen, fängt man ganz schnell an zu fluchen. DAS ist, was mich stört und weshalb ich von PhysX nix halte. ich wette drauf, dass die nächste generation der konsolen auch wieder nur auf die optik setzt .... hmm, da fällt mir ein, dass ich das direkt mal in meinen report einarbeiten könnte. wird auch zeit, werkle schon seit november an dem ding.

fondness
2011-03-19, 12:41:55
Aha. Schon ironisch, weil GPU-PhysX die einzige real-existierende Lösung darstellt. Aber für manche ist ja "wenig" immer noch weniger als "nichts". :freak:


Ja, und NV hat diese sehr großen Vorsprung eben verspielt. Man hätte die Chance gehabt hier eine Standard zu etablieren. Inzwischen bietet auch Bullet und in kürze auch Havok GPU-Physik über OpenCL an. Damit gibt es genau noch null Gründe Physikbeschleunigung über die GPU durch PhysX zu realisieren. Das spiegelt sich eben auch in den Neuerscheinungen wieder. 3DMark11 verwendet zB inzwischen Bullet und nicht mehr PhysX.

NV kann sich jetzt entscheiden ob sie PhysX doch öffnen, und so eine größere Akzeptanz bei den Entwicklern zu erreichen, was aber aktuell ungleich schwieriger ist als wenn man dies von Anfang an gemacht hätte. Oder sie können weiter Unmengen Geld investieren um irgend welche Ostblockentwickler eine PhysX-Pfad unter zujubeln, was allerdings auf lange Sicht PhysX als Physikengine allgemein nur schaden kann.

boxleitnerb
2011-03-19, 13:01:27
richtig, denn nur so ist es sinnvoll, alles andere ist effekthascherei.


Äh, ich will beides! Und es wird doch immer über fehlenden Realismus und schlechte Grafik gemeckert. Mit Effektphysik über GPU-Physik/PhysX kann (wenn die Entwickler es gescheit umsetzen würden) Tolles erreicht werden.


wieder richtig, deshalb wird's auch in den nächsten 5 bis 10 jahren nix werden mit PhysX.


Ich sprach von Gameplayphysik. Effektphysik ist davon völlig unabhängig. Irgendwann wird das zusammenfließen, aber rechne mal frühestens in 15 Jahren damit.


durch visuelle effekte getrübte wahrnehmung ... na, ob Bartle da an sowas dachte? ich hab nix gegen ne feine grafik, ganz im gegenteil, aber der blender-effekt ist einfach zu groß, heute schon. geht man ein stückchen weiter, versucht man über den tellerand der grafik hinwegzuschauen, fängt man ganz schnell an zu fluchen. DAS ist, was mich stört und weshalb ich von PhysX nix halte. ich wette drauf, dass die nächste generation der konsolen auch wieder nur auf die optik setzt .... hmm, da fällt mir ein, dass ich das direkt mal in meinen report einarbeiten könnte. wird auch zeit, werkle schon seit november an dem ding.

Nochmal, für eine beschissene Umsetzung kann Nvidia nichts. Schreib an die Spieleentwickler. Dass die Möglichkeit besteht, GPU-PhysX zu benutzen, ist erstmal etwas Positives.
Klar, Grafik ist nicht alles, aber es ist abstrus, neue technische Möglichkeiten generell zu verteufeln, nur weil der Start holprig ist. Irgendjemand muss den Anfang machen. Manche Effekte sind gut umgesetzt, manche schlecht. Dem einen gefällts, dem anderen nicht.

Wenn morgen ein Spiel rauskommen würde, in dem du beim Laufen eine Schneeschicht aufwirbelst oder eine Kugel einen Nebel physikalisch korrekt durcheinanderwirbelt (wurde übrigens für Unreal 2 versprochen, da siehste mal, wie lange das her ist) und es grandios aussieht, würde dann immer noch gemeckert? PhysX ist ein Werkzeug für potentiell bessere Grafik. Die Leute müssen es nur einzusetzen wissen. Dann würde auch das Gemecker aufhören.

bloub
2011-03-19, 13:05:17
Sei froh das es AMD gar nicht erst versucht. Reicht eine proprietäre GPU Physik Engine nicht? Muss man wirklich nach einer zweiten rufen die das Theater nur noch größer macht?

tja ich habe lieber proprietäre lösungen als garkeine, denn nur das bringt fortschritt. von daher bin ich überhaupt nicht froh, dass amd nichts in der richtung macht.

Matrix316
2011-03-19, 13:19:04
ähhhh, PhysX ist ja auch keine Nvidia Entwicklung, weswegen ich nicht verstehe, warum man nicht auch ATI/AMD beteiligt hat, weil es hätten doch am Ende alle von profitiert. So, profitiert keiner, weil kaum Spiele das supporten.

deekey777
2011-03-19, 13:23:41
Hä? nVidia unterstützt DC und OpenCL. Mehr können sie nicht machen.
http://developer.download.nvidia.com/PhysX/EULA/NVIDIA%20PhysX%20SDK%20EULA.pdf
1. Definitions. “Licensed Platforms” means the following:
- Any PC or Apple Mac computer with a NVIDIA CUDA-enabled processor executing NVIDIA PhysX;
- Any PC or Apple Mac computer running NVIDIA PhysX software executing on the primary central processing unit of the PC only;
- Any PC utilizing an AGEIA PhysX processor executing NVIDIA PhysX code;
- Microsoft XBOX 360;
- Nintendo Wii; and/or
- Sony Playstation 3

Seltsam: Kein Wort über DC oder OpenCL.


Ohne nVidia gäbe es heute überhaupt kein GPU-Physik.
Ohne Intel hätten wir längst GPU-Physik.

Was ist eigentlich der Unterschied zwsichen GPU-Physik, die nur auf Geforces läuft, und Physik, die nur auf PPU zu sehen ist? Ich sehe keinen.
..
Aber nicht um eine Millionen faustgroßer Betonklumpen rumfliegen zu lassen, die alle aus 5cm³ Wand stammen. Das sorgt nur für miese Performance und ein totales Cluttering.
Wie jetzt? Das entspricht nicht der Realität?

Also meines Wissen unterstützt AMD die Bullet-Entwickler bei der Implementierung für OpenCL-basierte Berechnungen. Sie haben allerdings nicht irgendeinen Laden aufgekauft und dann ihr Logo draufgepappt - das ist richtig. ;D
Der war gut.
Wobei Bullet auch über DirectCompute läuft. Und nicht nur die Broadphase.

Und laut Codas Aussage ist dieser Teil von Bullet wohl auch nutzbar (also nicht mehr Pre-Alpha-irgendwas).
http://code.google.com/p/bullet/downloads/list -> bullet-2.77 precompiled Windows demo executables

Happy 2011: 3DMark 11 uses Bullet Physics, FXGuide Interview (http://bulletphysics.org/wordpress/?p=269)

mapel110
2011-03-19, 13:40:12
Seltsam: Kein Wort über DC oder OpenCL.

nvidia stellt beides via Treiber bereit. Was sollen sie noch tun?! Eine Engine, die auf OpenCL oder DC aufbaut, müssen die Entwickler schon selbst stricken.

deekey777
2011-03-19, 14:09:33
nvidia stellt beides via Treiber bereit. Was sollen sie noch tun?! Eine Engine, die auf OpenCL oder DC aufbaut, müssen die Entwickler schon selbst stricken.
Diese Doppelmoral nervt.
Nvidia wird in den Himmel gelobt, weil sie Ageia samt PhysX aufgekauft haben und Effekte, die bisher der PPU (und extrem lansgam den CPUs) vorbehalten waren, auf Grafikkarten laufen lassen (man achte darauf, dass gerade hier der neutrale Begriff "GPU-PhysX" benutzt wird, obwohl er falsch ist, richtig wäre mindestens "Geforce-PhysX").

Kommt aber der Einwand, dass sog. "GPU-PhysX" nur auf Geforces und nur über CUDA läuft, dann heißt es gleich, Nvidia muss eigenes IP schützen.
Ergibt das einen Sinn?

nomadhunter
2011-03-19, 14:35:38
nvidia stellt beides via Treiber bereit. Was sollen sie noch tun?! Eine Engine, die auf OpenCL oder DC aufbaut, müssen die Entwickler schon selbst stricken.
Ganz einfach: PhysX sollte auf OpenCL oder DC aufsetzen. Dann würde das ganze auf jeder DX11-GPU laufen. So wie Bullet oder Havoc. NVIDIAs ursprünglicher Plan, GPU-Physik mit viel Geld zum Geforce-Alleinstellungsmerkmal zu machen, ist gescheitert. Ageia/PhysX zu kaufen war im Nachhinein betrachtet ein Fehler. Jetzt können Sie GPU-PhysX entweder für alle GPUs öffnen oder NVIDIA-exklusiv untergehen lassen. Das investierte Geld ist so oder so verloren.

Die Behauptung, AMD hätte nichts für GPU-Physik getan, ist auch falsch. Sie verfolgen nur eine andere Strategie. NVIDIA hat Ageia gekauft und PhysX auf CUDA (NV-exklusiv) portiert. Außerdem haben sie viel Geld investiert, um Spieleentwicklern GPU-PhysX schmackhaft zu machen. AMD hat niemanden gekauft, aber geholfen, Havoc auf OpenCL, Bullet auf OpenCL und Bullet auf DX11 DirectCompute zu portieren.

mapel110
2011-03-19, 14:45:21
PhysX ist sicher kein Verlustgeschäft für nvidia. Überall ist der nvidia-PhysX-Sticker drauf. Bessere Werbung gibts nicht. Der Kunde rafft das sowieso nicht, dass es meist auf der CPU berechnet wird.


AMD hat niemanden gekauft, aber geholfen, Havoc auf OpenCL, Bullet auf OpenCL und Bullet auf DX11 DirectCompute zu portieren.

Und wo sind die sichtbaren Ergebnisse?

dllfreak2001
2011-03-19, 15:00:01
Es gab doch einige Versuche wonach PhysX bei Partikelmengen bis 1000 von einer modernen Multicore-CPU schneller berechnet wurde als von einer Geforce.

BF3 ist sozusagen ein Openworld-Spiel, Debris die zumindest eine Weile liegen bleibt sollte für die CPU auch kein Problem darstellen. Man stelle sich aber mal vor wenn 64 Spieler auf der Karte die Umgebung zerlegen, dann dürfte das heftig auf die Performance schlagen.

deekey777
2011-03-19, 15:00:10
3DMark '11?

nomadhunter
2011-03-19, 15:06:23
PhysX ist sicher kein Verlustgeschäft für nvidia. Überall ist der nvidia-PhysX-Sticker drauf. Bessere Werbung gibts nicht. Der Kunde rafft das sowieso nicht, dass es meist auf der CPU berechnet wird.
Ich bezweifle, dass das die Investitionen wieder reinholt. NVIDIA hat eh schon das "The Way It's Meant To Be Played"-Programm mit hochkarätigeren Titeln.

Und wo sind die sichtbaren Ergebnisse?
Das ist der Unterschied. NVIDIA hat viel Geld in die Hand genommen, um GPU-PhysX in den Spielemarkt zu drücken. Das hat zwar sichtbare Ergebnisse gebracht, aber keine Nachhaltigen. Auch heute wird ohne Geld von NVIDIA kein Entwickler GPU-PhysX in einen neuen Titel einbauen. Genau das muss aber passieren, wenn GPU-Physik sich irgendwann durchsetzen soll. Und da seh ich Bullet und Havoc auf Basis von OpenCL oder DirectCompute auf dem besseren Weg.

dllfreak2001
2011-03-19, 16:09:48
3DMark '11?

Ich glaube das war mit dem Fluidmark.

deekey777
2011-03-19, 16:15:40
Ich glaube das war mit dem Fluidmark.
Du hast dich dazwischen gedrängt, ich bezog mich auf mapels Posting.

Was Fluidmark gezeigt hat, ist, dass so eine Simulation auch auf CPUs schnell läuft, so lange es mehrere (unabhängige) Emitter gibt, die nicht zu viele Partikel ausstossen. Damit die GPU sich absetzen kann, darf es nur einem Emitter mit sehr vielen Partikeln geben. Darum killst du so die Performance mit zusätzlichen PhysX-Effekten in Batman AA.

Nasenbaer
2011-03-19, 17:53:41
Ich sprach von Gameplayphysik. Effektphysik ist davon völlig unabhängig. Irgendwann wird das zusammenfließen, aber rechne mal frühestens in 15 Jahren damit.
Es ist sehr wohl möglich beides sinnvoll zu vereinen. Noch nie HL2 gespielt? Dort wurde die Havok-Engine für immersive Interaktionen mit der Spielwelt genutzt und nicht nur um ein paar Betonklumpen fliegen zu lassen (kann nicht anders, als über diese miese Mafia 2-Umsetzung zu lästern^^). Natürlich ist das alles nicht so offensichtlich wie bei den rein grafischen Effekte aber dafür wesentlich essentieller für eine glaubwürdige Spielwelt.

Die Grafikeffekte sind ja auch nicht verkehrt. Realistische Rauchverwirblungen (z.B. in Rennspielen bei Burnouts etc.) wären echt ein Hingucker. Aber wenn man nur Effekt-Physik nutzt und die Spielelemente dadurch zu kurz kommen, dann hilft der beste Effekt auch nix mehr.


Wie jetzt? Das entspricht nicht der Realität?
Hab ich den Ironie-Tag übersehen?!
Wenn aus 5cm³ Beton geschätze gefühlte 3 Tonnen Beton absplittern, dann ist das schon komisch. :)

dllfreak2001
2011-03-19, 17:55:53
ah, ok...
Mehrere Emitter sind bei Effektphysik kein Problem.

boxleitnerb
2011-03-19, 18:02:43
Es ist sehr wohl möglich beides sinnvoll zu vereinen. Noch nie HL2 gespielt? Dort wurde die Havok-Engine für immersive Interaktionen mit der Spielwelt genutzt und nicht nur um ein paar Betonklumpen fliegen zu lassen (kann nicht anders, als über diese miese Mafia 2-Umsetzung zu lästern^^). Natürlich ist das alles nicht so offensichtlich wie bei den rein grafischen Effekte aber dafür wesentlich essentieller für eine glaubwürdige Spielwelt.

Die Grafikeffekte sind ja auch nicht verkehrt. Realistische Rauchverwirblungen (z.B. in Rennspielen bei Burnouts etc.) wären echt ein Hingucker. Aber wenn man nur Effekt-Physik nutzt und die Spielelemente dadurch zu kurz kommen, dann hilft der beste Effekt auch nix mehr.


Natürlich hab ich HL2 gespielt. Was es dort an Physik zu sehen gab, war damals fast revolutionär, heute entlockt mir das nur ein müdes Lächeln. Die Ansprüche (jedenfalls meine) sind da deutlich gestiegen.

Effektphysik sehe ich als Grafikeffekt, nicht mehr und nicht weniger. Beide Arte schließen einander ja nicht aus - bzw. sollten es nicht tun. Das Gameplay sollte stimmen UND es sollte eine ansehnliche Grafik geben. Aber das ist, wie immer, Sache der Entwickler.

Blaire
2011-03-19, 19:00:59
Natürlich zahle ich über die Grafikkarte für den Quark. Bei NV gibt es kein Schwarzes Loch das aus dem Nichts Geld ausspuckt. Und ja, es kommt von NV und ist schlecht. Einfach weil NV hier versucht(e) künstlich ein Alleinstellungsmerkmal zu erschaffen. NV hätte das Ding öffnen und über die Software Geld verdienen sollen. Aber nein, NV musste mit dem Kopf durch die Wand. Raus gekommen ist eine schlechte Unterstützung, mit unterirdisch schlechter Umsetzung, die am Ende auch noch von meiner gerade verbauten GraKa abhängt. Edit(derzeit GTX570. Eh die Trolle hier aus der Deckung springen)

Wegen PhysX kauf ich mir keine Nvidia Karte, ich sehe das als Feature und kostenloses Extra an. Dazu zähle ich auch Ambient Occlusion was man über die NV Treiber aktivieren kann und einen kostenfreien Mehrwert bekommt. Ob man es nutzt oder nicht, bleibt jedem selber überlassen. Ebenso ist es mit PhysX auch, das Nvidia es als Feature anpreist, ist ihr gutes Recht da sie Geld dafür investiert haben. Ob die Unterstützung von PhysX gut oder schlecht ist, kann man Nvidia ebensowenig vorwerfen, schon garnicht in einer Zeit wo Konsolen den PC Markt bremsen. Deshalb kann ich auch nicht nachvollziehen, warum die Schuld immer bei Nvidia gesucht wird, das ist völlig unlogisch. Eher sollte man mal bei AMD nachfragen, warum sie es nötig haben irgendwelche Tesselationschalter einzuführen unter dem Deckmantel der schwächeren Grafikkarten, dies ist viel mehr verwerflich. Gut das ist offtopic, aber ich finde schon das man das auch mal hinterfragen sollte, welchen Sinn das Ganze wirklich hat bevor man immer nur Einseitig auf NV eindrischt.

BlackScorpion: Möchte mal wissen was für einen Mehrwert unrealistische zu tausenden umher fliegende Splitter haben die physikalisch auch noch total daneben sind. Zudem es die Entwickler nur mit viel zureden einbauen.

Dem einen gefällts, dem anderen nicht. So ist das nunmal. Ich meine keiner regt sich über Microsoft auf, nur weil es nur schlechte oder kaum DX10 Games usw. Nvidia hat wenigstens etwas versucht, sieht das denn keiner? Und was AMD und NV für Praktiken im Hintergrund pflegen muss mir als Kunde egal sein, man bewertet ein Produkt nach Features,Qualität und am Preis. So ist es jedenfalls bei mir.

SpielerZwei
2011-03-19, 21:37:56
Für alle die immer noch glauben AMD würde sich nicht für Physik Engines einsetzen bzw irgendwelche Entwickler unterstützen:
http://www.bilder-hochladen.net/files/dovx-14.jpg (http://www.bilder-hochladen.net/files/dovx-14-jpg-nb.html)
AMD hängt es halt nicht an die grosse Glocke, so ist halt deren Firmenpolitik und so halten sie es generell mit "Werbung" - es gibt fast keine. Irgendwo gab's da auch mal ein offizielles Statement von nem AMD Heini dazu...
GPU als tragendes "Gameplay-Feature" wird es so schnell nicht geben - dazu müsste gesichert sein das quasi jede Hardware dieses Feature darstellen kann...

Aso und bevor irgendwer schreit ich hab derzeit n nVidia SLI System...

Mr.Magic
2011-03-19, 21:42:14
Für alle die immer noch glauben AMD würde sich nicht für Physik Engines einsetzen bzw irgendwelche Entwickler unterstützen:
http://www.bilder-hochladen.net/files/dovx-14.jpg (http://www.bilder-hochladen.net/files/dovx-14-jpg-nb.html)

Warum sollte sich AMD für Intel's Havok einsetzen? Does not compute!

LovesuckZ
2011-03-19, 23:33:22
Ja, und NV hat diese sehr großen Vorsprung eben verspielt. Man hätte die Chance gehabt hier eine Standard zu etablieren. Inzwischen bietet auch Bullet und in kürze auch Havok GPU-Physik über OpenCL an. Damit gibt es genau noch null Gründe Physikbeschleunigung über die GPU durch PhysX zu realisieren. Das spiegelt sich eben auch in den Neuerscheinungen wieder. 3DMark11 verwendet zB inzwischen Bullet und nicht mehr PhysX.

3DMark11 verwendet Bullet, weil es ins Konzept eines Benchmarks passt. Das hat mit PhysX überhaupt nichts zu tun. Bullet selbst ist noch nichtmal annährend auf dem selben Niveau wie PhysX. Das sieht sogar noch ziemlich häßlich aus und viel lässt sich damit noch nicht realisieren. Das ist z.B. seit kurzem mit GPU-PhysX möglich:
http://www.youtube.com/watch?v=9lCkB77it-M&feature=player_embedded

Zeige dochmal vergleichbares mit Bullet.


NV kann sich jetzt entscheiden ob sie PhysX doch öffnen, und so eine größere Akzeptanz bei den Entwicklern zu erreichen, was aber aktuell ungleich schwieriger ist als wenn man dies von Anfang an gemacht hätte. Oder sie können weiter Unmengen Geld investieren um irgend welche Ostblockentwickler eine PhysX-Pfad unter zujubeln, was allerdings auf lange Sicht PhysX als Physikengine allgemein nur schaden kann.

Macht Sinn. Im Sozialismus, wo es nur nVidia gibt und AMD nur eine Scheinfirma zum Zwecke des vorgespielten Konkurrenzlebens. Man sollte doch wohl soweit denken können, dass ein Öffnen von GPU-PhysX gleichzeitig dazu führt, dass nVidia jeglichen Support und jegliche Weiterentwicklung einstellen wird.

Möchte mal wissen was für einen Mehrwert unrealistische zu tausenden umher fliegende Splitter haben die physikalisch auch noch total daneben sind. Zudem es die Entwickler nur mit viel zureden einbauen.

Stimmt. "unrealistische zu tausenden umher fliegende Splitter" die sich sofort in Luft auflösen sind natürlich viel realistischer. :lol:
Also manchmal denke ich, dass einige wirklich hier nur zum Trollen angemeldet sind. Solche Aussage kann doch kein denkender Mensch von sich geben, ohne sich selbst ins Fäustchen zu lachen. In Crysis 2 zerspringt Glas immer gleich und verschwindet noch in der Luft. Cloth ala Wandteppiche reagieren null auf die Umgebung und Cloth in den Gewächsgarten haben 3 Animationstufen und reagieren nicht auf Kugeln. Das ist natürlich physikalisch korrekt und entspricht auch dem, was ein Black-Scorpion so in seiner Welt sieht...

ijun
2011-03-19, 23:58:11
http://www.youtube.com/watch?v=9lCkB77it-M&feature=player_embedded

Comment zu einem ähnlichen Video dort:

"i want to have that with a 300 story building, and taking out the left bottom, then have it falling, on fire, into a river"

;D Stimme voll zu.

Sind ja alles schöne Spielereien, aber solange sie in games nicht auftauchen....

Man kann nur hoffen, next next gen consoles werden ordentliche Phys-X mitbringen.

Blediator16
2011-03-20, 00:06:42
Comment zu einem ähnlichen Video dort:

"i want to have that with a 300 story building, and taking out the left bottom, then have it falling, on fire, into a river"

;D Stimme voll zu.

Sind ja alles schöne Spielereien, aber solange sie in games nicht auftauchen....

Man kann nur hoffen, next next gen consoles werden ordentliche Phys-X mitbringen.

Solange NV nicht die GPUs für Sony und MS liefert, wirds sicher kein PhysX geben.

Coda
2011-03-20, 01:18:57
Und wer sagt, dass nicht zumindest einer der drei Konsolenhersteller sich für NVIDIA entscheidet?

Raff
2011-03-20, 01:28:41
3DMark11 verwendet Bullet, weil es ins Konzept eines Benchmarks passt. Das hat mit PhysX überhaupt nichts zu tun. Bullet selbst ist noch nichtmal annährend auf dem selben Niveau wie PhysX. Das sieht sogar noch ziemlich häßlich aus und viel lässt sich damit noch nicht realisieren. Das ist z.B. seit kurzem mit GPU-PhysX möglich:
http://www.youtube.com/watch?v=9lCkB77it-M&feature=player_embedded

Cool. Warum gibt's sowas nie zum Nachspielen? Videos sind sooo lame, nur Echtzeit am eigenen Rechner ist das Wahre.

MfG,
Raff

ijun
2011-03-20, 01:35:39
Und wer sagt, dass nicht zumindest einer der drei Konsolenhersteller sich für NVIDIA entscheidet?
Und wer schreibt dann extra für eine Konsole eine Physikengine, die die anderen eh nicht ausführen können?

LovesuckZ
2011-03-20, 03:00:09
Und wer schreibt dann extra für eine Konsole eine Physikengine, die die anderen eh nicht ausführen können?

Muss doch garnicht. Die Physikengine ist in diesem Fall PhysX.

HarryHirsch
2011-03-20, 03:12:09
Warum sollte sich AMD für Intel's Havok einsetzen? Does not compute!

Weil es auch auf AMD CPUs läuft?

just4FunTA
2011-03-20, 03:22:46
Muss doch garnicht. Die Physikengine ist in diesem Fall PhysX.

Na das halte ich aber nicht für sehr realistisch das ein Spiel für PS4 mit der physx Engine erscheint und für xbox3 dann mit ner Eigenentwicklung. Das macht für Multiplatfromspiele nicht viel Sinn. Für exklusive Spiele wäre das möglich, aber die nutzen meistens ihr eigenes Zeug.

LovesuckZ
2011-03-20, 03:25:13
Na das halte ich aber nicht für sehr realistisch das ein Spiel für PS4 mit der physx Engine erscheint und für xbox3 dann mit ner Eigenentwicklung. Das macht für Multiplatfromspiele nicht viel Sinn. Für exklusive Spiele wäre das möglich, aber die nutzen meistens ihr eigenes Zeug.

PhysX und Konsorten sind plattformunabhängig. Die grundlegende Physik wird über die normale CPU-Schnittstelle realisiert und darüber hinausgehende Effekte könnte dann die GPU auf einer PS4 übernehmen. Sowas passiert doch schon heute bei Multiplattformtitel, wo die grafischen Effekte unterschiedlich sind.

just4FunTA
2011-03-20, 03:34:01
Beim Vergleich Wii vs x360/PS3 ok, aber ob das nicht Ärger gibt bei ähnlichen xbox3 und PS4 wenn auf der einen plötzlich ein deutlicher Unterschied zu sehen ist? Da würden sich die Käufer von der benachteiligten Version recht schnell verarscht vorkommen und die willst du als Entwickler nicht verschrecken. Die sind da immer hinterher doppelt und dreifach zu erklären das die Spiele doch auf PS3 und x360 gleich gut aussehen..

LovesuckZ
2011-03-20, 03:50:47
Beim Vergleich Wii vs x360/PS3 ok, aber ob das nicht Ärger gibt bei ähnlichen xbox3 und PS4 wenn auf der einen plötzlich ein deutlicher Unterschied zu sehen ist? Da würden sich die Käufer von der benachteiligten Version recht schnell verarscht vorkommen und die willst du als Entwickler nicht verschrecken. Die sind da immer hinterher doppelt und dreifach zu erklären das die Spiele doch auf PS3 und x360 gleich gut aussehen..

Das hätten die Leute eben die andere Konsole kaufen sollen. Es sind nunmal Blackboxes mit unterschiedlicher Hardware. Und wenn die eine eben mehr kann als die andere, dann ist die Ausnutzung der zusätzlichen Leistungs bzw. Feature kein Nachteil.

just4FunTA
2011-03-20, 04:05:14
Das Problem ist der Kunde sagt dann vielleicht, hmm die haben sich aber keine Mühe gegeben bei der Version für meine xbox4, das Spiel kaufe ich nicht. Hätten sie es richtig optimiert für meine Konsole und ne andere Engine genutzt wäre das sicherlich auch gegangen..

Genau dieses Problem gab es ja bei der PS3 vs x360. Da kamen auch am Anfang einige Spiele die einfach nur ein billiger Port für die PS3 waren und das sah man denen auch an. Und was ist passiert die Kundschaft hat die Spiele im Regal liegen lassen.

Und spätestens hier kriegst du als Publisher/Entwickler ein Problem weil der Kunde geht dann eben nicht hin und zahlt nochmal 400€ um sich das Konkurrenzprodukt zu kaufen auf dem er dann dein Spiel spielen kann. Nein er kauft das Spiel dann halt garnicht und du musst dann erklären warum die PS3 Version sich so schlecht verkauft hat.. Die Antwort schwer für die PS3 zu proggen bringt dir halt keine neuen Kunden..

fondness
2011-03-20, 10:15:37
3DMark11 verwendet Bullet, weil es ins Konzept eines Benchmarks passt. Das hat mit PhysX überhaupt nichts zu tun. Bullet selbst ist noch nichtmal annährend auf dem selben Niveau wie PhysX. Das sieht sogar noch ziemlich häßlich aus und viel lässt sich damit noch nicht realisieren. Das ist z.B. seit kurzem mit GPU-PhysX möglich:
http://www.youtube.com/watch?v=9lCkB77it-M&feature=player_embedded

Zeige dochmal vergleichbares mit Bullet.

Du beurteilst die Fähigkeiten einer Physik-Engine also anhand von Youtube-Videos? Ja, bei der Werbung war NV schon immer gut, seriös ist aber was anderes. Vorallem sehe ich hier nichts besonderes, die Gameplay-relevante Physik müsste ohnehin von der CPU übernommen werden. Alles andere hat man auch schon mal gesehen, nur halt nicht in dieser Fülle.


Macht Sinn. Im Sozialismus, wo es nur nVidia gibt und AMD nur eine Scheinfirma zum Zwecke des vorgespielten Konkurrenzlebens. Man sollte doch wohl soweit denken können, dass ein Öffnen von GPU-PhysX gleichzeitig dazu führt, dass nVidia jeglichen Support und jegliche Weiterentwicklung einstellen wird.

Man sollte es nicht glauben, aber man kann auch durch die Lizenzierung von Software Geld verdienen. Und ich wage zu behaupten das NV damit mehr verdienen würde als aktuell, denn Spieleentwickler dafür zu bezahlen GPU-Physik zu implementieren wird sich auf Dauer wohl kaum rechnen.

Und um es mit deinen Worten zu sagen: Man sollte doch wohl soweit denken können, dass eine auf einen Hersteller beschränkte API auf lange Sicht keine Chance haben wird sich am Markt durchzusetzen, wenn es zwei Konkurrenten gibt mit offenen Implementierungen.

Sisaya
2011-03-20, 10:16:36
Also die Argumentation ist doch Unsinn. Multikonsoleros kaufen sich die bessere Version, alle anderen das Spiel für die eigene Konsole.

fondness
2011-03-20, 10:21:33
Und wer sagt, dass nicht zumindest einer der drei Konsolenhersteller sich für NVIDIA entscheidet?

Da es nur zwei brauchbare GPU Hersteller gibt, kann man davon wohl sogar ausgehen. Nur selbst dann verwendet man für GPU-Physik wohl eher Bullet oder Havok, denn das kann man auch auf anderen Umgebungen implementieren.

Vorausgesetzt GPU-Physik hat überhaupt eine Zukunft. Denn angesichts der immer mehr Kerne bei CPUs und der zunehmenden Schwierigkeit diese zu füttern, gepaart mit den technischen Einschränkungen der Physikberechnungen über die GPU und der Tatsache das man ohnehin nie genug GPU-Leistung hat, kann man sich zunehmend fragen ob das überhaupt einen Sinn macht.

Screemer
2011-03-20, 10:47:15
Alles andere hat man auch schon mal gesehen, nur halt nicht in dieser Fülle.nie einer von euch nen geo-mod-engine titel ala red faction gespielt? mal von den rumliegenden debris abgesehen, find ich das video nicht groß anders.

nomadhunter
2011-03-20, 10:55:14
Vorausgesetzt GPU-Physik hat überhaupt eine Zukunft. Denn angesichts der immer mehr Kerne bei CPUs und der zunehmenden Schwierigkeit diese zu füttern, gepaart mit den technischen Einschränkungen der Physikberechnungen über die GPU und der Tatsache das man ohnehin nie genug GPU-Leistung hat, kann man sich zunehmend fragen ob das überhaupt einen Sinn macht.
Das seh ich etwas anders. Die CPUs der Zukunft werden nicht nur eine riesige Ansammlung klassischer x86-Kerne sein, sondern der Trend geht in Richtung APU. Deswegen vermute ich eher, dass wir irgendwann Phsikberechnungen auf der integrierten GPU sehen. Die wird auf absehbare Zeit in Spiele-PCs (mit dedizierter GPU) eh brach liegen, aber gleichzeitig immer leistungsstärker werden.

Botcruscher
2011-03-20, 10:55:48
Oder halt Crysis mit Mod. Selbst bei den Konsolenherstellern würde sich keiner GPU PhysX außerhalb der gesponserten Exklusivtitel antun. Bleiben 95% die Multiplattform sind. Alleine die Beschwerden über die Programmierbarkeit von Cell haben doch gereicht.
Das seh ich etwas anders. Die CPUs der Zukunft werden nicht nur eine riesige Ansammlung klassischer x86-Kerne sein, sondern der Trend geht in Richtung APU. Deswegen vermute ich eher, dass wir irgendwann Phsikberechnungen auf der integrierten GPU sehen. Die wird auf absehbare Zeit in Spiele-PCs (mit dedizierter GPU) eh brach liegen, aber gleichzeitig immer leistungsstärker werden.

Bis die integrierte GraKa auch wirklich so ansprechbar ist dauert es noch seine Zeit. Bis dahin müsste PhysX aber erst mal brauchbare Multicoreunterstützung bieten. Damit würde aber der Vorteil der GPU flöten gehen... Warum man zur Zeit meist nur einen Kern nutzt liegt damit auf der Hand.

Mr.Magic
2011-03-20, 11:09:43
Also die Argumentation ist doch Unsinn. Multikonsoleros kaufen sich die bessere Version, alle anderen das Spiel für die eigene Konsole.

Genau. Man braucht sich doch nur CMR: Dirt für die Wii anzusehen.

@HarryHirsch
That's the stupidest thing I've ever heard.

Man tönte bei AMD damals, man würde bald viel geilere GPU-Physik als PhysX zeigen, und dafür mit Havok zusammenarbeiten. Um CPU-Physik ging es nie.

LovesuckZ
2011-03-20, 12:21:23
Du beurteilst die Fähigkeiten einer Physik-Engine also anhand von Youtube-Videos? Ja, bei der Werbung war NV schon immer gut, seriös ist aber was anderes. Vorallem sehe ich hier nichts besonderes, die Gameplay-relevante Physik müsste ohnehin von der CPU übernommen werden. Alles andere hat man auch schon mal gesehen, nur halt nicht in dieser Fülle.

Na, anhand was sollte man es dann vergleichen? ;D
Ich würde ja gerne etwas von Bullet zeigen, aber weder 3DMark11 noch die superduper Demo von AMD sind zeigenswert. Wenn man also nichts zeigen kann - nunja, dann existiert wohl auch nichts.
Und Gameplayrelevante-Physik. Schon wieder dieser Unsinnsbegriff. Als ob Grafik "gameplayrelevant" wäre, aber hier läuft ein fondness nicht durch's Forum und propagiert, dass Wii-Niveau ausreichen würde. Warum wohl?

Man sollte es nicht glauben, aber man kann auch durch die Lizenzierung von Software Geld verdienen. Und ich wage zu behaupten das NV damit mehr verdienen würde als aktuell, denn Spieleentwickler dafür zu bezahlen GPU-Physik zu implementieren wird sich auf Dauer wohl kaum rechnen.

Klar - weil es auch nur alleinig von nVidia abhängt, ob AMD ihnen für die Nutzung was zahlen würde. ;D
Logik, mein Lieber, Logik.


Und um es mit deinen Worten zu sagen: Man sollte doch wohl soweit denken können, dass eine auf einen Hersteller beschränkte API auf lange Sicht keine Chance haben wird sich am Markt durchzusetzen, wenn es zwei Konkurrenten gibt mit offenen Implementierungen.

Na, du sollst hier kein Papagei sein, sondern selbst denken. Dann würde auffallen, dass dies nie von nVidia gewollt war. PhysX gibt ihnen die Freiheit weitaus mehr zu machen als jegwede Konkurrenz in der Lage wäre. Dazu einen riesigen zeitlichen Vorteil. Alles andere läuft ebenso auf nVidia-Hardware. nVidia kann nur gewinnen.

nie einer von euch nen geo-mod-engine titel ala red faction gespielt? mal von den rumliegenden debris abgesehen, find ich das video nicht groß anders.

Ja und? Verschwindene Debris gibt es schon seit Jahrzehnten. Nichts neues.

fondness
2011-03-20, 12:58:05
Na, anhand was sollte man es dann vergleichen? ;D

Anhand der Möglichkeiten welche eine Physikengine einem Entwickler zur Verfügung stellt. Nur weil NV das toll mit der UE3 in Szene setzt sind das trotzdem nur Dinge die auch andere Physikengines schon lange bieten:

Hier - extra für dich - sogar mit Youtube-Video:
http://www.youtube.com/watch?v=k4tbOW5bIfw
http://www.youtube.com/watch?v=J9HaT23b-xc




Ich würde ja gerne etwas von Bullet zeigen, aber weder 3DMark11 noch die superduper Demo von AMD sind zeigenswert. Wenn man also nichts zeigen kann - nunja, dann existiert wohl auch nichts.

Du siehst halt wie immer grün. ;)


Und Gameplayrelevante-Physik. Schon wieder dieser Unsinnsbegriff. Als ob Grafik "gameplayrelevant" wäre, aber hier läuft ein fondness nicht durch's Forum und propagiert, dass Wii-Niveau ausreichen würde. Warum wohl?

Weil deine wirren Behauptungen wie so oft keinen Sinn ergeben.


Klar - weil es auch nur alleinig von nVidia abhängt, ob AMD ihnen für die Nutzung was zahlen würde. ;D
Logik, mein Lieber, Logik.

Ich spreche nicht von AMD. NV bekommt für jedes Spiel das PhysX verwendet Lizenzzahlungen. Würde sie ihre GPU-Beschleunigung auf OpenCL aufsetzten, würden sie vieleicht sogar noch ein paar mehr Spieleentwickler überzeugen können. So können sie PhysX langfristig nur schaden.

LovesuckZ
2011-03-20, 13:05:42
Anhand der Möglichkeiten welche eine Physikengine einem Entwickler zur Verfügung stellt. Nur weil NV das toll mit der UE3 in Szene setzt sind das trotzdem nur Dinge die auch andere Physikengines schon lange bieten:

http://www.youtube.com/watch?v=k4tbOW5bIfw
http://www.youtube.com/watch?v=J9HaT23b-xc

Es geht hier um GPU-Physik und nicht um die CPU-Implementierungsmöglichkeiten. Soweit hätte man schon denken sollen...


Du siehst halt wie immer grün. ;)

Du kannst gerne Videos aus 3DMark2011 und der Techdemo hier posten. Ich empfinde die dortige Implementierung als ziemlich langweilig.



Weil deine wirren Behauptungen wie so oft keinen Sinn ergeben.


Aha. Logisch. Das du hier von "gameplayrelevant" sprichst und dabei vergisst, dass Grafik ebenso nicht "gameplayrelevant" ist, sind also meine Behauptungen wirr und ohne Sinn. Wie ich schonmal sagte: Einfach aufhören irgendeinen Unsinn zuschreiben.


Ich spreche nicht von AMD. NV bekommt für jedes Spiel das PhysX verwendet Lizenzzahlungen. Würde sie ihre GPU-Beschleunigung auf OpenCL aufsetzten, würden sie vieleicht sogar noch ein paar mehr Spieleentwickler überzeugen können.

Und dann? Oh, es läuft über OpenCL und nur nVidia-Hardware. Das ist natürlich ein riesiger Unterschied zu Cuda und nur nVidia-Hardware. :freak:
Wirklich - entweder wir einigen uns auf ein Niveau, indem wir beide auch Logik in unseren Aussagen anwenden, oder wir werfen uns dämliche Aussagen an den Kopf, die keinen Sinn ergeben. Ich jedenfalls habe irgendwie keine Lust in diesem Forum weiterhin sinnvolle Postings zu schreiben, wenn ein Größteil einfach nur mist von sich gibt.

fondness
2011-03-20, 13:14:50
Wirklich - entweder wir einigen uns auf ein Niveau, indem wir beide auch Logik in unseren Aussagen anwenden, oder wir werfen uns dämliche Aussagen an den Kopf, die keinen Sinn ergeben. Ich jedenfalls habe irgendwie keine Lust in diesem Forum weiterhin sinnvolle Postings zu schreiben, wenn ein Größteil einfach nur mist von sich gibt.

Du beschreibst einen Spiegel deiner selbst und wirfst es anderen vor. Ein gutes Beispiel lieferst du wie so oft auch gleich im selben Absatz:

Und dann? Oh, es läuft über OpenCL und nur nVidia-Hardware. Das ist natürlich ein riesiger Unterschied zu Cuda und nur nVidia-Hardware. :freak:

Dieses penetrante Dummstellen ist derart Niveau-los, darauf zu antworten ist mir wahrlich zu blöd. Bleibe sachlich, dann kommt auch eine sachliche Antwort. Ich habe jedenfalls nicht damit angefangen. EoD.

airbag
2011-03-20, 13:19:02
Und dann? Oh, es läuft über OpenCL und nur nVidia-Hardware. Das ist natürlich ein riesiger Unterschied zu Cuda und nur nVidia-Hardware. :freak:

Eben nicht. OpenCL ist ein offener Standard, von dem nicht nur Nvidia profitiert, sondern auch AMD.

fondness
2011-03-20, 13:24:00
Eben nicht. OpenCL ist ein offener Standard, von dem nicht nur Nvidia profitiert, sondern auch AMD.

Du glaubst doch nicht wirklich dass man das nach über 24.000 Beiträgen hier nicht weiß?

LovesuckZ
2011-03-20, 13:24:16
Eben nicht. OpenCL ist ein offener Standard von dem nicht nur Nvidia profitiert.

Frag den lieben Checker fondess. Es macht eben keinen Sinn.
Er plappert von "Lizenzkosten" und dann von "OpenCL". Das nVidia jetzt schon Lizenzkosten in gewissen Rahmen erhält für PhysX als Physikbibliothek, wird hierbei entweder ignoriert oder ist aufgrund von Wissenslücken einfach nicht als Grundlage vorhanden. Daher habe ich auch provokant geschrieben, dass nVidia nunmal AMD nicht zwingen kann für eine Nutzung von GPU-PhysX zu zahlen.

OpenCL und Lizenzkosten. Das ist so dumm, unglaublich.

fondness
2011-03-20, 13:26:58
OpenCL und Lizenzkosten. Das ist so dumm, unglaublich.

Dumm ist es nicht in der Lage zu sein Zusammenhänge zu verstehen. Meine Aussage war das man durch eine OpenCL-Implementierung und der damit verbundenen größeren Akzeptanz unter den Entwicklern auch mehr Lizenzkosten generieren könnte, indem sich ganz einfach mehr Entwickler dafür entscheiden PhysX zu verwenden.

Du machst wie immer das:

werfen uns dämliche Aussagen an den Kopf, die keinen Sinn ergeben.

Siehe:

Frag den lieben Checker fondess. Es macht eben keinen Sinn.
Er plappert von "Lizenzkosten" und dann von "OpenCL". Das nVidia jetzt schon Lizenzkosten in gewissen Rahmen erhält für PhysX als Physikbibliothek, wird hierbei entweder ignoriert oder ist aufgrund von Wissenslücken einfach nicht als Grundlage vorhanden. Daher habe ich auch provokant geschrieben, dass nVidia nunmal AMD nicht zwingen kann für eine Nutzung von GPU-PhysX zu zahlen.

OpenCL und Lizenzkosten. Das ist so dumm, unglaublich.

Aber sich einen Beitrag vorher noch darüber aufregen. Ja, das ist wirklich ... ähm, ja kann sich ja jeder denken.

LovesuckZ
2011-03-20, 13:33:04
Dumm ist es nicht in der Lage zu sein Zusammenhänge zu verstehen. Meine Aussage war das man durch eine OpenCL-Implementierung und der damit verbundenen größeren Akzeptanz unter den Entwicklern auch mehr Lizenzkosten generieren könnte, indem sich ganz einfach mehr Entwickler dafür entscheiden PhysX zu verwenden.

Du machst wie immer das:

PhysX ist eine Inhouse-Entwicklung von nVidia. Es wird nicht für Konkurrenzprodukte freigegeben, solange es für nVidia kosten verursacht. Diese Logik sollte man schon verstehen.
Darauf basierend wird PhysX noch sehr lange an Cuda gebunden sein. Und sollte es doch mal portiert werden, wird nVidia mit großer Wahrscheinlichkeit den Support einstellen und es als "Open Source" auf den Markt bringen. Man generiert auch nicht mehr Lizenzkosten, weil man für seine Spiele sowieso erstmal eine entsprechende Bibliothek benötigt. Keine Firma zahlt dann einfach mehr, weil man die Möglichkeit hat GPU-PhysX auf mehr als nur nVidia-Karten einzusetzen. Davon abgesehen, dass nVidia wohl kaum bei einer Implementierung im selben Stil helfen würde.

Es macht hier keinen Sinn mit dir über Dinge zu reden, die du entweder nicht verstehst oder nicht akzeptieren willst.

fondness
2011-03-20, 13:41:07
Keine Firma zahlt dann einfach mehr, weil man die Möglichkeit hat GPU-PhysX auf mehr als nur nVidia-Karten einzusetzen.

Warum behauptest du immer Dinge die ich nicht gesagt habe? Soll das das von dir geforderte Niveau sein? Ich sagte das sich dann vielleicht auch Entwickler, die aktuell auf Bullet oder Havok setzten PhysX verwenden könnten. Solange GPU-PhysX nur auf NV-Karten läuft, ist das eben für kaum einen Entwickler eine Alternative, und damit wird dieser Vorteil von PhysX und damit letztlich PhysX selbst auch unnötig behindert.

LovesuckZ
2011-03-20, 13:48:37
Warum behauptest du immer Dinge die ich nicht gesagt habe? Soll das das von dir geforderte Niveau sein? Ich sagte das sich dann vielleicht auch Entwickler, die aktuell auf Bullet oder Havok setzten PhysX verwenden könnten. Solange GPU-PhysX nur auf NV-Karten läuft, ist das eben für kaum einen Entwickler eine Alternative.


Man sollte es nicht glauben, aber man kann auch durch die Lizenzierung von Software Geld verdienen. Und ich wage zu behaupten das NV damit mehr verdienen würde als aktuell, denn Spieleentwickler dafür zu bezahlen GPU-Physik zu implementieren wird sich auf Dauer wohl kaum rechnen.


Havok wird wohl nie über GPU-Support verfügen. Bullet ist nichtmal annährend auf dem Niveau von GPU-PhysX.
Entwickler entscheiden sich zZ ganz einfach für die bessere CPU-Bibliothek. Die größte Gefahr für GPU-PhysX besteht in Eigenentwicklungen der Spielentwickler. Diese können nämlich wesentlich besser auf die neue Situation reagieren.

Davon abgesehen verdient nVidia vielleicht mehr Geld durch Lizenzkosten, sie verlieren aber Unmengen an die, die nun anstatt nVidia AMD kaufen. Und das wird weitaus teurer werden als man durch zusätzliche Einnahmen verdient. Und solange wie PhysX innerhalb von nVidia ist, wird es an dem Thema auch keine Änderung geben.

fondness
2011-03-20, 13:55:37
Das ist soweit ich mich erinnern kann die erste rein sachliche Antwort die ich von dir erhalte.

Havok wird wohl nie über GPU-Support verfügen. Bullet ist nichtmal annährend auf dem Niveau von GPU-PhysX.

Beide Dinge sind entweder spekulativ oder werden nicht ewig so bleiben.


Davon abgesehen verdient nVidia vielleicht mehr Geld durch Lizenzkosten, sie verlieren aber Unmengen an die, die nun anstatt nVidia AMD kaufen. Und das wird weitaus teurer werden als man durch zusätzliche Einnahmen verdient. Und solange wie PhysX innerhalb von nVidia ist, wird es an dem Thema auch keine Änderung geben.

So wie es aktuell aussieht kommt da nicht mehr viel was GPU-Physik betrifft. Und ob sich das aktuelle Geschäftsmodell für NV wirklich finanziell rechnet? Ich weiß nicht.

LovesuckZ
2011-03-20, 13:59:05
Beide Dinge sind entweder spekulativ oder werden nicht ewig so bleiben.

Beide Dinge sind mit Stand heute fakt. Was in 2,3,10 Jahren sein wird, ist ungewiss. Es hätte nVidia also null gebracht, PhysX zu öffnen. Das führt uns also zu dem Punkt, dass es auch keine Mehreinnahmen durch höhrere Lizenzkosten gegeben hätte, da es keine Alternative zu GPU-PhysX in den letzten 3 Jahren gab.


So wie es aktuell aussieht kommt da nicht mehr viel was GPU-Physik betrifft. Und ob sich das für NV wirklich finanziell rechnet? Ich weiß nicht.

Das wird die Zukunft zeigen. Denn es kommt von der Konkurrenz genauso wenig.

][immy
2011-03-20, 14:02:55
Davon abgesehen verdient nVidia vielleicht mehr Geld durch Lizenzkosten, sie verlieren aber Unmengen an die, die nun anstatt nVidia AMD kaufen. Und das wird weitaus teurer werden als man durch zusätzliche Einnahmen verdient. Und solange wie PhysX innerhalb von nVidia ist, wird es an dem Thema auch keine Änderung geben.

von welchen zusätzlichen einnahmen redest du da?
Wie viele leute gibt es schon die sich einen nvidia Karte nur wegen Physx unterstützung kaufen?
Den meisten Kunden sagt Physx nichts und sie könnten es nicht mal auf der GPU ausführe, weil die karten dafür viel zu langsam sind (OEM-Geschäfte). Eine Öffnung in richtung OpenCL hätte massive Vorteile für nvidia. Die Lizensgebühren würden steigen weil Entwickler wirklich einen Grund hätten GPU physx zu nutzen, weil der Kundenkreis erweitert werden würde.

Eine andere Möglichkeit, die aber bei weitem nicht so viel einbringen würde, aber einen doch sehr negativen beigeschmack bei der Physx Vermarktung entfernen könnte, wäre die freischaltung von GPU Physx wenn sich eine nvidia Karte im System befindet. Damit könnte hätte man zumindest einen weiteren Verkaufsgrund, auch für ATI/AMD Besitzer.
Allerdings fehlen dafür noch die wirklichen Knüller-Spiele. Da gibt es bisher nichts was GPU beschleunigtes Physx nutzt. Vielleicht Mafia 2 aber auch hier sieht man ehrlich gesagt nichts, was man nicht anderswo auch schon mal "in schnell" gesehen hat.

LovesuckZ
2011-03-20, 14:09:24
[immy;8634963']von welchen zusätzlichen einnahmen redest du da?
Wie viele leute gibt es schon die sich einen nvidia Karte nur wegen Physx unterstützung kaufen?

Nicht wegen, unter anderem. Mindshare und so.


Eine Öffnung in richtung OpenCL hätte massive Vorteile für nvidia. Die Lizensgebühren würden steigen weil Entwickler wirklich einen Grund hätten GPU physx zu nutzen, weil der Kundenkreis erweitert werden würde.

Nein, das würde nicht passieren. Erstens spielt GPU-Physik heutzutage keine große Rolle. Die Bibliotheken werden als zu 99% aufgrund ihrer Multiplattformfunktionalität und Leistungsfähigkeit ausgewählt. Eine Öffnung auf OpenCL hätte keinen positiven Effekt auf eine weitere Verbreitung.
Dazu kommt, dass der Support eingestellt werden würde. Eventuell würde PhysX sogar "OpenSource" werden und somit in der Bedeutungslosigkeit verschwinden. Die ganzen Fortschritte und Verbesserungen sind alleinig darauf zurück zuführen, dass PhysX geschlossen ist. Die Motivation von nVidia ist es nicht eine Softwarebibliothek zu haben, sondern GPU-Physik für ihre Karten zu implementieren und zu promoten. Fällt dieses Alleinstellungsmerkmal weg, stirbt auch PhysX in der jetzigen Form.


Eine andere Möglichkeit, die aber bei weitem nicht so viel einbringen würde, aber einen doch sehr negativen beigeschmack bei der Physx Vermarktung entfernen könnte, wäre die freischaltung von GPU Physx wenn sich eine nvidia Karte im System befindet. Damit könnte hätte man zumindest einen weiteren Verkaufsgrund, auch für ATI/AMD Besitzer.
Allerdings fehlen dafür noch die wirklichen Knüller-Spiele. Da gibt es bisher nichts was GPU beschleunigtes Physx nutzt. Vielleicht Mafia 2 aber auch hier sieht man ehrlich gesagt nichts, was man nicht anderswo auch schon mal "in schnell" gesehen hat.

Das ist genauso dumm. Damit wird der Verkauf von neuen High-End Karten unattraktiv, da man PhysX von der alten Karte mitnehmen kann.

In keinem der Fälle hat nVidia einen Vorteil. Der einzige, der profitiert, ist AMD. Und das sollte wohl kaum im Sinne von nVidia sein.

Screemer
2011-03-20, 14:15:54
Ja und? Verschwindene Debris gibt es schon seit Jahrzehnten. Nichts neues.
eben. welchen mehrwert haben die rumliegenden brocken für dich? außer das sie in zeitlupe von der wand blättern, find ichs jetzt nicht grad spielentscheidend. verschwindende debris ist aber wohl auch keine frage der physik oder? da geht doch der grafikkarte und der cpu noch schneller die luft aus.

Davon abgesehen verdient nVidia vielleicht mehr Geld durch Lizenzkosten, sie verlieren aber Unmengen an die, die nun anstatt nVidia AMD kaufen.
war deine aussage zu gpu-physx nicht immer, dass es kein wirklich ausschlaggebendes kaufargument für nv-karten wäre, sondern als nette dreingabe verstanden werden soll? jetzt auf einmal nicht mehr? fähnchen im wind? ach und noch was: nein ich such dir die posts nicht raus.

LovesuckZ
2011-03-20, 14:22:16
eben. welchen mehrwert haben die rumliegenden brocken für dich? außer das sie in zeitlupe von der wand blättern, find ichs jetzt nicht grad spielentscheidend. verschwindende debris ist aber wohl auch keine frage der physik oder? da geht doch der grafikkarte und der cpu noch schneller die luft aus.

Ich denke, wir sollten da anders rangehen:
Welchen Mehrwert hat denn bessere Grafik für dich?
Brauchst du Dreidimensionalität oder reichen auch platte Texturen? Muss es dynamische Licht- und Schattenberechnungen geben oder reicht dafür auch eine statische?

Wir reden davon, dass Spiele immer realistischer aussehen, aber keinen realistischen Eindruck erwecken. Ich verstehe nicht, wieso die Leute nach "besserer" Grafik lechzen, aber bei Effektphysik auf dem Stand von 2002 stehen bleiben wollen. Zerstörung bedeutet nicht nur kaputt und weg. Masse verschwindet nicht. Genauso auch Stoff, Gase, Rauch etc. Unsere Welt ist weitaus lebendiger als es heutige Spiele darstellen. Und genau hier steigert Effektphysik um ein vielfaches die Immersion.

Jedenfalls müssten wir eigentlich soweit sein, dass wir uns über solche Dinge überhaupt nicht unterhalten müssen, weil sie normal wären. Physikalische korrekte Berechnung von Cloth, Nebel der korrekt auf die Spielfigur und die Umgebung reagiert, Partikel und Debris, die existieren und nicht nach 0,5 Sekunden verschwinden. Ich rege mich zZ auf, dass man in Dragon Age 2 keine richtige Tessellation + Displacement Mapping verwendet. Im grunde ist dies eigentlich noch uninteressanter, weil es nur eine kleine grafische Verbesserung mitbringt. Effektphysik dagegen bietet soviel mehr für's Auge.

nomadhunter
2011-03-20, 14:47:23
Du kannst noch weitere 7 Seiten über die tollen Möglichkeiten von GPU-PhysX erzählen, aber das ändert nichts am grundlegenden Problem: Es gibt viel zu wenig CUDA-Hardware (nur PCs mit NV-GPU, keine Konsolen). Deswegen setzt kein Entwickler freiwillig GPU-PhysX ein. Vor der nächsten Konsolengeneration wird sich sowieso nicht viel tun beim Thema GPU-Physik. Und wenn es mal soweit ist, werden nur die GPU-Physik-Bibliotheken eine Chance haben, die auf der nächsten Playstation und auf der nächsten Xbox und auf den dann aktuellen Spiele-PCs laufen. Und das läuft auf offene Standards raus (OpenCL/DirectCompute), denn es ist sehr unwahrscheinlich, dass die nächste Xbox und die nächste Playstation beide auf NV-GPUs setzen.

Tigerchen
2011-03-20, 14:55:48
Alleinstellungsmerkmale sind nicht per se schlecht, bei allem was man "nebenbei" machen kann ist es sogar sehr zu begrüßen. Das alles endet aber spätestens bei der Basis für die der Entwickler programmiert. Hier zählt der kleinste gemeinsame Nenner. Will man etwas durchsetzen, müssen es alle unterstützen. Extravaganzen kann sich mit seiner Marktmacht maximal Intel leisten.
Alleinstellungsmerkmale sind bei Produkten wichtig und von Vorteil die "Out of the box" genutzt werden. Ohne Rücksicht auf andere Geräte oder irgendwelche Anschlüsse.

Ansonsten sind sie nämlich eher negativ. Schon in der Computersteinzeit haben Firmen wie Sinclair, Commodore oder Amstrad ihre Kunden verärgert mit ihren proprietären Schnittstellen. Jeder dachte er da er könne sich mit eigenen Steckern und Diskettenformaten positiv abheben. Seitdem versucht es immer wieder eine Firma und fliegt regelmässig auf die Fresse. Glide, METAL, Aureal3D, EAX (auch tot) und ganz aktuell HW PhysiX.

Nasenbaer
2011-03-20, 14:59:09
Die größte Gefahr für GPU-PhysX besteht in Eigenentwicklungen der Spielentwickler. Diese können nämlich wesentlich besser auf die neue Situation reagieren.

Eventuell würde PhysX sogar "OpenSource" werden und somit in der Bedeutungslosigkeit verschwinden. Die ganzen Fortschritte und Verbesserungen sind alleinig darauf zurück zuführen, dass PhysX geschlossen ist.

Deine Logik möchte ich mal kapieren!
Einseits gestehst du ein, dass PhysX als geschlossenes System problematisch, da man es nicht an die eigenen Bedürfnisse anpassen kann, da man das bereitgestellte API nutzen muss.
Andererseits wäre eine Öffnung der Bibliothek dessen Todesurteil, obwohl damit genug diese, mitunter wichtigen, Änderungen plötzlich möglich wären?

Hierzu noch ein Zitat um das mal zu untermauern:

Quelle: Trials HD (XBox 360) uses Bullet (http://bulletphysics.org/wordpress/?p=108)
“We are also using a modified version of an open source physics engine called Bullet Physics Library to calculate our physics simulation and collision inside the game. We have in-house optimized it for the Xbox 360 CPU and vector units. Our game engine is designed to be fully multithreaded, and we are simulating physics at the same time we are processing game logic, graphics, sound and particles in other Xbox 360 hardware threads. With extensive optimization, we have achieved a very good balance, with all six CPU hardware threads constantly working under heavy load.”





Und warum behauptest du, dass PhysX anderen Bibliotheken haushoch überlegen sei? Anhand der Integration von Bullet in Blender siehst du was möglich ist. Wenn du dir das SDK mal angeschaut hättest, dann wüsstet du, dass vieles davon auch in Echtzeit machbar ist. Gerade mit der Nutzung der GPU trifft das noch eher zu, als vor 2 Jahren wo ich mal mit Bullet umgespielt habe.
Ob die Implementierung im Vergleich zu PhysX aufwendiger ist, weiß ich nicht aber ich vermute du auch nicht, sondern machst solche Aussagen eher an Nutzungsstatistiken fest, die aber aufgrund von kostenloser Hilfe seiten nVidia (zu Promotionzwecken) verzerrt ist.
GTA 4 und Trials HD (bzw. Trials 2 via Steam) sind gute Beispiele dafür, dass Bullet durchaus sehr gut nutzbar ist. Es kommt natürlich immer auf das zu lösende Problem an. Aber Pauschalaussagen deinerseits sind absolut gehaltlos. Liefer bitte Argumente und keine Totschlagargumente ohne Fakten.

@Tigerchen
Um die Liste mal zu erweitern: Auch PowerSGL (ne Schnittstelle von PowerVR) ist damals auch grandios gescheitert.

LovesuckZ
2011-03-20, 15:09:17
Deine Logik möchte ich mal kapieren!
Einseits gestehst du ein, dass PhysX als geschlossenes System problematisch, da man es nicht an die eigenen Bedürfnisse anpassen kann, da man das bereitgestellte API nutzen muss.
Andererseits wäre eine Öffnung der Bibliothek dessen Todesurteil, obwohl damit genug diese, mitunter wichtigen, Änderungen plötzlich möglich wären?


PhysX lässt sich natürlich auch im Rahmen an die eignen Bedürfnisse anpassen. Nichtsdestotrotz kauft man deswegen solche Produkte ein, weil das Funktionsumfang, die Dokumentation und der Support gegenüber OpenSource deutlich überlegen ist. Stell dir doch mal selbst die Frage, warum Bullet nichtmal annährend an die Verbreitung von Havok und PhysX heranreicht.


Und warum behauptest du, dass PhysX anderen Bibliotheken haushoch überlegen sei? Anhand der Integration von Bullet in Blender siehst du was möglich ist. Wenn du dir das SDK mal angeschaut hättest, dann wüsstet du, dass vieles davon auch in Echtzeit machbar ist. Gerade mit der Nutzung der GPU trifft das noch eher zu, als vor 2 Jahren wo ich mal mit Bullet umgespielt habe.

Ich sehe von Bullet nichts. Es gibt einfach nichts mit Bullet. Wo sind die Techdemos? Mal ein Spiel? Irgendwas?


GTA 4 und Trials HD (bzw. Trials 2 via Steam) sind gute Beispiele dafür, dass Bullet durchaus sehr gut nutzbar ist. Es kommt natürlich immer auf das zu lösende Problem an. Aber Pauschalaussagen deinerseits sind absolut gehaltlos. Liefer bitte Argumente und keine Totschlagargumente ohne Fakten.

Zwei Spiele? Das ist alles? Ich meine, was soll das? Du willst also anhand zweier Beispiele uns weiß machen, dass OpenSource sich so gut durchsetzen kann? Ich sehe nichtmal den Zusammenhang. Bullet ist OpenSource und die Unterstützung für GPU-Berechnungen liegt in den Kinderschuhen. Havok ist Proprietär und erhält wohl keine GPU-Unterstützung. Zwei große Marktteilnehmer, die sich deutlich von einander unterscheiden, aber nicht an die GPU-Funktionalität von PhysX heranreichen. Dazu kommt, dass Bullet auf Hilfe von nVidia und AMD angewiesen war, die beide aktiv geholfen haben.

deekey777
2011-03-20, 15:14:15
Es ist Realismus, wenn auf einen Betonklotz geschossen wird und zig Bruchstücke davon fliegen, ohne dass der Betonklotz Schaden nimmt.
Es ist kein Realismus, wenn zB ein Haus zusammenfällt, weil es vorberechnet ist.
Es ist Realismus, wenn eine Irrenanstalt mit Mülltonnen, Papierstappeln voll gepflastert ist, überall irgendwelche Bettlaken runterhängen und so noch mehr Müll produzieren, der herrlich aufgewirbelt wird.
Es ist aber kein Realismus, wenn man auf einen Betonklotz schießt, dieser aufgrund vorberechneten Simulationen Schaden nimmt und man dann durch die entstandenen Löcher durchschießen kann.

Wir können die Liste elend lang machen. GPUGeforce-PhysX hat nur dann seine Vorteile, wenn es sich echt und nicht aufgesetzt anfüllt (Wasser-, Partikel- und andere Simulationen). Aber wenn man die Überlegenheit dadurch zeigt, dass aus einem umgeworfenen Mülleimer mehr Dosen rausströmen, als eigentlich in so einen Mülleimer reinpasst, dann stimmt was nicht.

Nur so ein Gedanke: PhysX läuft nicht OpenCL, weil es dann auf CPU schneller sein könnte, ohne dass der Entwickler viel machen muss. Aber es gibt ja keinen OpenCL-Treiber von Nvidia und CUDA auf CPUs scheint noch nicht so weit zu sein.

Nasenbaer
2011-03-20, 15:29:40
PhysX lässt sich natürlich auch im Rahmen an die eignen Bedürfnisse anpassen. Nichtsdestotrotz kauft man deswegen solche Produkte ein, weil das Funktionsumfang, die Dokumentation und der Support gegenüber OpenSource deutlich überlegen ist. Stell dir doch mal selbst die Frage, warum Bullet nichtmal annährend an die Verbreitung von Havok und PhysX heranreicht.
Sicher ist der Support und eine gute Doku ein enormer Vorteil aber der ist auch nur möglich da Lizenzgebühren fließen, die das finanzieren.



Ich sehe von Bullet nichts. Es gibt einfach nichts mit Bullet. Wo sind die Techdemos? Mal ein Spiel? Irgendwas?



Zwei Spiele? Das ist alles? Ich meine, was soll das? Du willst also anhand zweier Beispiele uns weiß machen, dass OpenSource sich so gut durchsetzen kann? Ich sehe nichtmal den Zusammenhang. Bullet ist OpenSource und die Unterstützung für GPU-Berechnungen liegt in den Kinderschuhen. Havok ist Proprietär und erhält wohl keine GPU-Unterstützung. Zwei große Marktteilnehmer, die sich deutlich von einander unterscheiden, aber nicht an die GPU-Funktionalität von PhysX heranreichen. Dazu kommt, dass Bullet auf Hilfe von nVidia und AMD angewiesen war, die beide aktiv geholfen haben.
Schau auf die Bullet Physics Webseite - nen Browser wirst du wohl noch bedienen können. Da findest du in den News mehrere Beispiele. Nicht nur Filmproduktionen und Modellierungs-/Animationssoftware, die Bullet nutzen (was für dessen Universalität spricht), sondern auch so manches Spiel, die ich aber meist nicht gespielt habe. Ich habe Trials 2 und GTA 4 ausgewählt, da ich diese persönlich gespielt habe und somit Aussagen zu dessen Qualität treffen kann.

Es ist unbestreitbar, dass es wohl mehr PhysX (CPU+GPU) Spiele gibt als mit anderen Physik-APIs. Aber ich vermute es liegt vorallem daran, dass Physik meist eh bei größeren Projekten genutzt wird (oder dort wo absolut notwendig -> Rennspiele) und größere Studios haben das Geld für eine PhysX-Lizenz und den damit verbundenen besseren Support. Zeit ist nunmal Geld und wer wenig Zeit aber viel Geld hat, der wird wohl eher PhysX nehmen.
Das trifft aber keine Aussage über die Qualität der API als solche, sondern nur über die Unterstützung, die dem Anwender zur Verfügung steht und die ist halt aufgrund der fianziellen Aufwendungen (Lizengebühren) so gut.

Coda
2011-03-20, 15:35:15
Vorausgesetzt GPU-Physik hat überhaupt eine Zukunft.
Natürlich hat es die. Sobald die GPU und die CPU näher zusammenrücken und damit die Probleme verschwinden, die momentan existieren und GPU-Physik nur für Effekte brauchbar machen.

Streamprozessoren sind viel besser dafür geeignet als jede CPU. Allein schon von der Effizienz.

boxleitnerb
2011-03-20, 15:39:06
Was spricht dagegen, CPU-Physik für "Gameplayphysik", also z.B. für Zerstörungssimulation, die den Spielfluss (Deckung, Fallen für den Gegner, Wege durch das Level) beeinflusst, zu benutzen. Und GPU-Physik für rein optische Effekte mit 10-100x so vielen Partikeln wie Simulation von Flüssigkeiten, Gasen, Schnee usw.?

fondness
2011-03-20, 15:47:50
Natürlich hat es die. Sobald die GPU und die CPU näher zusammenrücken und damit die Probleme verschwinden, die momentan existieren und GPU-Physik nur für Effekte brauchbar machen.

Streamprozessoren sind viel besser dafür geeignet als jede CPU. Allein schon von der Effizienz.

Ja klar, das bezog sich natürlich auch heutige Implementierungen.

fondness
2011-03-20, 15:49:28
Was spricht dagegen, CPU-Physik für "Gameplayphysik", also z.B. für Zerstörungssimulation, die den Spielfluss (Deckung, Fallen für den Gegner, Wege durch das Level) beeinflusst, zu benutzen. Und GPU-Physik für rein optische Effekte mit 10-100x so vielen Partikeln wie Simulation von Flüssigkeiten, Gasen, Schnee usw.?

Eine offene API, die von allen* unterstützt wird?

*Damit meine ich sowohl eine sehr großen Teil des PC-Marktes, als auch die Konsolen.

boxleitnerb
2011-03-20, 15:51:53
Die gibt es zwar, aber sie wird noch nicht weitreichend eingesetzt in Spielen. Den Effektteil kann man dann eben optional zuschalten, wenn man die Hardware hat. Den Gameplayteil hat man immer, wie es auch sein muss.

Hugo78
2011-03-20, 15:53:42
größere Studios haben das Geld für eine PhysX-Lizenz und den damit verbundenen besseren Support. Zeit ist nunmal Geld und wer wenig Zeit aber viel Geld hat, der wird wohl eher PhysX nehmen.

Wenn das so stimmt, stellen sich mir grad 2 Fragen:

- Was kostet denn eine PhysX Lizenz?
- Und warum konnte sich grade Rockstar für GTA4 diese nicht mehr leisten?
Sie standen bei GTA4 ja unter Zeitdruck und hatten auf der anderen Seite ein Budget von 100 Mio. USD.

fondness
2011-03-20, 16:01:30
Die gibt es zwar, aber sie wird noch nicht weitreichend eingesetzt in Spielen.

Die gibt es nur auf CPU-, aber nicht auf GPU-Seite - und damit hast du deine Antwort.

boxleitnerb
2011-03-20, 16:10:03
Die gibt es nur auf CPU-, aber nicht auf GPU-Seite - und damit hast du deine Antwort.

Bullet kann doch per OpenCL auch auf der GPU laufen, oder etwa nicht? Also gibt es sie sehr wohl.

Also gäbe es mMn zwei Varianten:

Bullet oder PhysX. Gameplayphysik jeweils über den CPU-Part, Effekte auf der GPU (und nicht auf Konsolen oder sehr stark abgespeckt - die sind dafür eh nicht stark genug). Bullet wird für gpu-beschleunigte Physik offenbar nicht benutzt (obwohl es ginge), also bleibt ja wohl nur PhysX.

Coda
2011-03-20, 16:25:19
Was spricht dagegen, CPU-Physik für "Gameplayphysik", also z.B. für Zerstörungssimulation, die den Spielfluss (Deckung, Fallen für den Gegner, Wege durch das Level) beeinflusst, zu benutzen. Und GPU-Physik für rein optische Effekte mit 10-100x so vielen Partikeln wie Simulation von Flüssigkeiten, Gasen, Schnee usw.?
Man will da nicht unterscheiden. Schnee soll beispielsweise häufig die Reibung des Bodens verändern und somit wie sich die Spielfigur verhält.

boxleitnerb
2011-03-20, 16:35:33
Man will da nicht unterscheiden. Schnee soll beispielsweise häufig die Reibung des Bodens verändern und somit wie sich die Spielfigur verhält.

Bis die nächsten Konsolen kommen (oder eine Middleware genutzt wird, die auf AMD und auf Nvidia läuft und beides verschmelzen kann), müsste man das aber zwangsläufig, sofern man solche Effekte will.

Mit Bullet könnte man es auf dem PC IHV-übergreifend verwirklichen, aber das wird wohl nicht gemacht weil es nur für die PC-Plattform den Entwicklungsaufwand nicht lohnt. So gesehen kommen beide Umgebungen noch nicht von der Stelle, nur GPU-PhysX macht hier und da einen Viertelschritt vorwärts, jedoch nichts Erwähnenswertes.

Ich denke, die rein technischen Möglichkeiten beider Umgebungen sind ähnlich, nur will sie aktuell niemand nutzen. Es ärgert mich eben, dass hier kein Entwickler mit einer Vision den ersten Schritt macht. Ein Spiel mit Interaktivität mit der Umgebung, die auf einem Next-Gen Level ist, gäbe doch mal wieder einen richtigen Kaufsgrund, weil es sich von heutigem Einheitsbrei recht stark absetzen würde.

fondness
2011-03-20, 16:39:39
Bullet kann doch per OpenCL auch auf der GPU laufen, oder etwa nicht? Also gibt es sie sehr wohl.

Also gäbe es mMn zwei Varianten:

Bullet oder PhysX. Gameplayphysik jeweils über den CPU-Part, Effekte auf der GPU (und nicht auf Konsolen oder sehr stark abgespeckt - die sind dafür eh nicht stark genug). Bullet wird für gpu-beschleunigte Physik offenbar nicht benutzt (obwohl es ginge), also bleibt ja wohl nur PhysX.

Schau dir an wieviele Spiele überhaupt Bullet verwenden. Wie genau der Stand ist was die GPU-Implementierung betrifft weiß ich nicht, auf jeden Fall ist das Ganze noch sehr jung und vermutlich wenig ausgereift. Dazu kommt eben das es selbst dann nur auf dem PC mit DX11(?)-GPUs laufen würde, also ein verschwinden geringer Markt. Womöglich wird das erst was wenn die GPUs endgültig in die CPUs gewandert sind und damit auch die technischen Beschränkungen fallen.

Denn man muss sich ja auch fragen wo der Nutzen für diesen wohl zweifellos nicht geringen Aufwand liegen würde. Die Performanceeinbrüche sind auch auf der GPU alles andere als gering wenn man sich aktuelle GPU-PhysX Spiele ansieht. Würde es dort eine ordentliche CPU-Implementierung geben, wäre wohl nicht selten die CPU-Version zumindest nicht groß im Nachteil.

airbag
2011-03-20, 16:41:25
Wenn das so stimmt, stellen sich mir grad 2 Fragen:

- Was kostet denn eine PhysX Lizenz?
- Und warum konnte sich grade Rockstar für GTA4 diese nicht mehr leisten?
Sie standen bei GTA4 ja unter Zeitdruck und hatten auf der anderen Seite ein Budget von 100 Mio. USD.

Bei Ageia damals scheinbar 50k pro Anwendung. Wird seitens Nvidia wohl noch ein bisscehn teurer sein. In den Millionenbereich wird es denke ich mal auch kaum gehen. Bei größeren Projekten könnte es sogar sein, dass gar keine Gebühren anfallen. Dafür andere Sachen, wie TWIMTBP

boxleitnerb
2011-03-20, 16:46:01
Schau dir an wieviele Spiele überhaupt Bullet verwenden. Wie genau der Stand ist was die GPU-Implementierung betrifft weiß ich nicht, auf jeden Fall ist das Ganze noch sehr jung und vermutlich wenig ausgereift. Dazu kommt eben das es selbst dann nur auf dem PC mit DX11(?)-GPUs laufen würde, also ein verschwinden geringer Markt. Womöglich wird das erst was wenn die GPUs endgültig in die CPUs gewandert sind und damit auch die technischen Beschränkungen fallen.

Und woran liegt das? Die AMD-Ankündigung, ein PhysX Gegenstück zu unterstützen ist doch schon Jahre her...

Ich weigere mich zu akzeptieren, dass wir noch so lange warten müssen. Das kann noch locker 5 Jahre dauern. Deshalb finde ich das, was Nvidia tut, ja im Prinzip so gut. Abgesehen von der Scheißumsetzung seitens der Studios und des finanziellen Gemauschels dabei ist der Grundgedanke gut.

Beispiel Glide: Lieber früh eine Reihe Glide-Spiele, die nur mit allen Gimmicks auf 3dfx-HW laufen, als den Kopf in den Sand stecken und warten bis sich D3D5 durchgesetzt hat bzw. von den Entwicklern flächendeckend angenommen wird.

Dass PhysX schädlich für den Markt ist oder gar irgendetwas hemmt, finde ich auch unsinnig aus den Gründen, die du genannt hast. Bis OpenCL-basierte Physik durchstartet, vergehen vermutlich so oder so ein paar Jährchen. Daran ändert PhysX nichts. Und bis dahin hätte man wenigstens in ein paar Spielen und für 50% der Spieler etwas.

fondness
2011-03-20, 16:50:30
Und woran liegt das? Die AMD-Ankündigung, ein PhysX Gegenstück zu unterstützen ist doch schon Jahre her...

Da ich das wie schon gesagt nicht weiß kann ich dazu auch nichts genaueres sagen. Vielleicht läuft auch alles bestens, wir werden es wohl frühestens erfahren wenn es jemand implementiert. Aber da es bei Bullet eben keinen Support gibt ist die Unterstützung davon zumindest aktuell relativ bescheiden.


Ich weigere mich zu akzeptieren, dass wir noch so lange warten müssen. Das kann noch locker 5 Jahre dauern. Deshalb finde ich das, was Nvidia tut, ja im Prinzip so gut. Abgesehen von der Scheißumsetzung seitens der Studios und des finanziellen Gemauschels dabei ist der Grundgedanke gut.

Beispiel Glide: Lieber früh eine Reihe Glide-Spiele, die nur mit allen Gimmicks auf 3dfx-HW laufen, als den Kopf in den Sand stecken und warten bis sich D3D5 durchgesetzt hat bzw. von den Entwicklern angenommen wird.

Dass PhysX schädlich für den Markt ist oder gar irgendetwas hemmt, finde ich auch unsinnig aus den Gründen, die du genannt hast. Bis OpenCL-basierte Physik durchstartet, vergehen vermutlich so oder so ein paar Jährchen. Daran ändert PhysX nichts. Und bis dahin hätte man wenigstens in ein paar Spielen und für 50% der Spieler etwas.

Man hätte auch PhysX für OpenCL portieren können, so könnte man sogar eine Standard schaffen. Aber wie schon oben dazu editiert, muss eben die Kosten/Nutzen-Relation auch passen. Und die scheint aus mehreren Gründen einfach nicht gegeben.

boxleitnerb
2011-03-20, 16:55:59
Ja, Nvidia hätte PhysX öffnen/portieren und massiv promoten sollen als Bullet am Horizont auftauchte. Vielleicht hat man es nicht getan, weil die eigene Hardware da vielleicht ggü. der Konkurrenz den Kürzeren gezogen hätte. Auf jeden Fall hätte man sich hier einen gesunden Vorsprung ausarbeiten können.

Ist halt die Frage, was man damit dann verdient hätte. Wenn Spiele mit PhysX dann auf Radeon schneller gelaufen wären, hätte man womöglich weniger Karten verkauft. Wenn man nichts verlangt für die Middleware, verdient man nichts, wenn man etwas verlangt, greifen die Studios vielleicht zum (kostenlosen?) Bullet...tricky.

fondness
2011-03-20, 17:06:21
Ist halt die Frage, was man damit dann verdient hätte. Wenn Spiele mit PhysX dann auf Radeon schneller gelaufen wären, hätte man womöglich weniger Karten verkauft. Wenn man nichts verlangt für die Middleware, verdient man nichts, wenn man etwas verlangt, greifen die Studios vielleicht zum (kostenlosen?) Bullet...tricky.

Für einen guten Support zahlen Studios gerne. Warum glaubst du das PhysX, aber auch Havok (also jeweils die CPU-Version) deutlich häufiger eingesetzt werden als Bullet? Klar Bullet ist open-source, aber wenn es Probleme gibt steht man eben auch alleine da.

boxleitnerb
2011-03-20, 17:10:01
Gut, damit hätte man ja dann schon mit Geld verdienen können. Lieber bei 100 Studios Kohle für Support kassieren als bei 10 Bestechungsgelder zahlen :freak:

Das Nvidialogo in jedem Spiel und die positive Publicity wären auch nicht zu unterschätzen. Als Laie sag ich einfach mal strategische Fehlentscheidung dazu. Jetzt sitzt man wie die Henne auf dem Ei bis es keiner mehr will.

Nasenbaer
2011-03-20, 17:10:47
Wenn das so stimmt, stellen sich mir grad 2 Fragen:

- Was kostet denn eine PhysX Lizenz?
- Und warum konnte sich grade Rockstar für GTA4 diese nicht mehr leisten?
Sie standen bei GTA4 ja unter Zeitdruck und hatten auf der anderen Seite ein Budget von 100 Mio. USD.

1.) Musst du hier nachfragen: PhysXlicensing@nvidia.com
Die Binary-API Variante ist generell kostenlos, auch für kommerzielle Produkte. Für die SourceCode-Variante wird das wohl individuell ausgehandelt.

2.) Warum muss das gerade der Grund bei Rockstars GTA4 gewesen sein? Ich habe nur gemutmaßt, dass das die häufigste Ursache sein könnte. Spieleentwickler stehen immer unter Zeitdruck, wohl mehr als in vielen anderen Softwarebereich. Es mag aber wohl auch andere Gründe gegeben haben warum Rockstar auf Bullet setzte. Vielleicht weiß google mehr.

deekey777
2011-03-20, 17:22:25
Wenn das so stimmt, stellen sich mir grad 2 Fragen:

- Was kostet denn eine PhysX Lizenz?
- Und warum konnte sich grade Rockstar für GTA4 diese nicht mehr leisten?
Sie standen bei GTA4 ja unter Zeitdruck und hatten auf der anderen Seite ein Budget von 100 Mio. USD.
Keine Ahnung, ob das so stimmt, ist aber sehr wahrscheinlich:
Das SDK ist kostenlos und kann von allen benutzt werden. Was nicht kostenlos ist, ist der Source-Code, das kosten Geld.

Braucht man den Sourcecode, muss man nicht einen sehr hohen Betrag überweisen, sondern man braucht auf Programmierer, die damit was anfangen können. Bei Bullet ist der Sourcecode für alle freiverfügbar. Das ist der Vorteil.

Und wo wir schon bei Rockstar sind: Bullet wird für deren Rage-Engine verwendet (zusammen mit Euphoria). Alles, was auf Rage basiert und basieren wird, nutzt Bullet. Neben GTA IV ist es aktuell auch RDR.

Auch wenn es den Eindruck erweckt, dass hinter Bullet einzig AMD steht, so ist dieser Eindruck falsch: Sony ist wohl der wichtigste Unterstützer. Der "Vater" von Bullet war sieben Jahre bei Sony, bis er letztes oder vorletztes Jahr zu AMD wechselte (bei AMD ist auch ein PhysX-Mitbegründer, der voher bei Nvidia war). Sony nutzt Bullet neben Havok und PhysX in eigener PhyreEngine. Hinzu kommt, dass mehrere Hpllywood-Blockbuster Bullet nutzten (ua 2012).

=Floi=
2011-03-20, 17:53:52
vielleicht portiert man es schon auf ocl oder DC (eher DC) und es ist deswegen so still darum?!

die idee mit den einnahmen über den support-/lizenzvertrag wird sicherlich auch nv gehabt haben und im hinblick auf die konsolen wird es auch sinnvoller sein hier auch ati zu unterstützen.

dllfreak2001
2011-03-20, 18:02:06
Wollen wir mal hoffen Nvidia ist vernünftig.

G A S T
2011-03-20, 19:45:00
Wollen wir mal hoffen Nvidia ist vernünftig.

Ich gehe davon aus. Ansonsten wäre die Ageia-Aquise am Ende ein unnötiger und teurer Griff ins Klo gewesen.
HW-PhysX wird nicht sterben. Ich denke auch, dass die Portierung auf OpenCL bald erfolgen wird.

@ =Floi=:

Oder DirectCompute?
Es ist doch keine adäquate Alternative zu OpenCL, hier ist man wieder an DX gebunden...

AwesomeSauce
2011-03-20, 20:20:28
Es ist doch keine adäquate Alternative zu OpenCL, hier ist man wieder an DX gebunden...
Ist man bei D3D auch, und dennoch ist es meilenweit populärer als OpenGL:P

=Floi=
2011-03-20, 22:13:03
eben mit dem hintergedanken an DX schrieb ich extra DC, weil es hier doch eine breitere basis gibt. quasi "alles" läuft darunter...
NV will/muß damit geld verdienen und je breiter und leichter es genutzt werden kann, desto besser wird es sich verbreiten.

so gesehen wäre OCL natürlich besser. ich habe mich vor kurzem eh wieder über Rollercoaster 1 und 2 und starcraft 1 geärgert, weil deren source nicht veräffentlich wurde und es dadurch nicht möglich ist die auflösung zu erhöhen. ich zwar jetzt OT, aber es nervt mich schon sehr und an ID games und deren tollen pots merkt man erst was möglich ist.

edit
HW physik ist echt geil. mit der neuen grafikkarte und den UT3 physix mod ist es schon eine geile sache. man sollte nur ein wenig gemäßigter vorgehen und mit maß arbeiten. Es wäre auch gut, wenn die effekte auch stärker variiren würden.

Coda
2011-03-20, 22:41:58
Keine Ahnung, ob das so stimmt, ist aber sehr wahrscheinlich:
Das SDK ist kostenlos und kann von allen benutzt werden. Was nicht kostenlos ist, ist der Source-Code, das kosten Geld.
Es ist nicht kostenlos, sobald man das SDK in einem komerziellen Produkt einsetzen will. Richtig ist, dass Source-Code nochmal extra kostet.

Schau dir an wieviele Spiele überhaupt Bullet verwenden. Wie genau der Stand ist was die GPU-Implementierung betrifft weiß ich nicht, auf jeden Fall ist das Ganze noch sehr jung und vermutlich wenig ausgereift.
Errr. GTA IV?!?

Mr.Magic
2011-03-20, 22:53:12
Das SDK ist kostenlos und kann von allen benutzt werden.

Das PhysX SDK für 360/PS3 muss von Developern bei Microsoft/Sony lizensiert werden, und nVidia leistet dann den Support per Lizenzabkommen mit Microsoft/Sony. Quelle (http://news.cnet.com/8301-13924_3-10198809-64.html)

Tigerchen
2011-03-21, 07:26:45
Und woran liegt das? Die AMD-Ankündigung, ein PhysX Gegenstück zu unterstützen ist doch schon Jahre her...

Ich weigere mich zu akzeptieren, dass wir noch so lange warten müssen. Das kann noch locker 5 Jahre dauern. Deshalb finde ich das, was Nvidia tut, ja im Prinzip so gut. Abgesehen von der Scheißumsetzung seitens der Studios und des finanziellen Gemauschels dabei ist der Grundgedanke gut.

Beispiel Glide: Lieber früh eine Reihe Glide-Spiele, die nur mit allen Gimmicks auf 3dfx-HW laufen, als den Kopf in den Sand stecken und warten bis sich D3D5 durchgesetzt hat bzw. von den Entwicklern flächendeckend angenommen wird.

Dass PhysX schädlich für den Markt ist oder gar irgendetwas hemmt, finde ich auch unsinnig aus den Gründen, die du genannt hast. Bis OpenCL-basierte Physik durchstartet, vergehen vermutlich so oder so ein paar Jährchen. Daran ändert PhysX nichts. Und bis dahin hätte man wenigstens in ein paar Spielen und für 50% der Spieler etwas.
Ich hab nichts gegen Glide. Der Punkt ist ein ganz anderer. Das Management dachte wenn sie Glide ganz alleine für sich behalten werden nur sie in Zukunft über die 3D Hardware bestimmen.
Das hat der Firma am Ende nichts genutzt. Und mir und dir als Endanwender auch nichts. Es hat nur Microsoft genutzt die den ganzen API-Wildwuchs ein Ende bereitet haben.

Und John Carmack war auch nicht unschuldig. Hat der doch tatsächlich einen OpenGL ICD für Quake 3 verlangt.:eek:

LovesuckZ
2011-03-21, 07:36:38
Ich hab nichts gegen Glide. Der Punkt ist ein ganz anderer. Das Management dachte wenn sie Glide ganz alleine für sich behalten werden nur sie in Zukunft über die 3D Hardware bestimmen.
Das hat der Firma am Ende nichts genutzt. Und mir und dir als Endanwender auch nichts. Es hat nur Microsoft genutzt die den ganzen API-Wildwuchs ein Ende bereitet haben.


Glide hat nichts mit PhysX zu tun. Wenn, dann sollte man hier die Schnittstellen als Vergleich heranziehen.

Ailuros
2011-03-21, 08:00:20
Glide hat nichts mit PhysX zu tun. Wenn, dann sollte man hier die Schnittstellen als Vergleich heranziehen.

Stimmt. Und ich moechte auch bitten dass die Debatte beim Thema bleibt und jetzt nicht wieder Bandbreite fuer tote APIs verschwendet wird.

Tigerchen
2011-03-21, 09:33:49
Glide hat nichts mit PhysX zu tun. Wenn, dann sollte man hier die Schnittstellen als Vergleich heranziehen.
Weil beide proprietäre Standards und die damit einhergehenden Probleme repräsentieren. Es muß die Frage erlaubt sein ob nV mit dem "Alleinstellungsmerkmal" GPU PhysiX wirklich einen Gefallen tut. Betrachtet man also die Alleingänge der Vergangenheit um solche Standards durchzudrücken sollten selbst dir Zweifel kommen.

Denn wenn nV in dieser Frage erfolgreich gewesen wäre gäbe es diesen Thread gar nicht.

Es ist auch nicht zielführend in dieser Frage nur auf die Technik zu starren. nV will was verkaufen. Und Spieleentwickler auch. Das Wichtige ist also nicht wie toll die Technik ist sondern wie toll sie verkauft werden kann.

Nasenbaer
2011-03-21, 09:42:13
Es ist nicht kostenlos, sobald man das SDK in einem komerziellen Produkt einsetzen will. Richtig ist, dass Source-Code nochmal extra kostet.
Laut nVidia ist der Binary-Teil auch für kommerzielle Zwecke kostenlos:

Quelle: http://developer.nvidia.com/object/physx.html

NOTE: All binary PhysX SDKs are free for commercial and non-commercial uses*
Der Stern verweist auf deren EULA (http://developer.download.nvidia.com/PhysX/EULA/NVIDIA%20PhysX%20SDK%20EULA.pdf). Dort habe ich beim überfliegen auch nichts gegenteiliges gefunden.

fondness
2011-03-21, 10:54:15
Errr. GTA IV?!?

Über die CPU. Ich meinte GPU-Physik.

Gaestle
2011-03-21, 14:53:45
Stimmt. Und ich moechte auch bitten dass die Debatte beim Thema bleibt und jetzt nicht wieder Bandbreite fuer tote APIs verschwendet wird.

Ich stimme Tigerchen nur selten zu, aber hier ist seine Frage bzw. sein Standpunkt aus meiner Perspektive berechtigt. Es geht ihm ja nicht um Glide im Speziellen, sondern um proprietäre Standards im Allgemeinen.

Und PhysX kann man schon als "proprietär" bezeichnen.


Weil beide proprietäre Standards und die damit einhergehenden Probleme repräsentieren. Es muß die Frage erlaubt sein ob nV mit dem "Alleinstellungsmerkmal" GPU PhysiX wirklich einen Gefallen tut. Betrachtet man also die Alleingänge der Vergangenheit um solche Standards durchzudrücken sollten selbst dir Zweifel kommen.

Denn wenn nV in dieser Frage erfolgreich gewesen wäre gäbe es diesen Thread gar nicht.

Es ist auch nicht zielführend in dieser Frage nur auf die Technik zu starren. nV will was verkaufen. Und Spieleentwickler auch. Das Wichtige ist also nicht wie toll die Technik ist sondern wie toll sie verkauft werden kann.


Was mit PhysX möglich ist (mit Auswirkungen aufs Gameplay) ziegt sich m.E. z.B. hier: http://www.youtube.com/watch?v=bsrdrwWDvtw

Bis 1:26 kann man das Video vergessen. Die Szenen 1:26-1:40, 1:59-2:06 und 2:13-2:25 sind IMHO Gameplay-relevant.

Allerdings zeigt sich im Video auch, dass es trotz runtergedrehten Details nicht syncron ist (besonders wenn etwas explodiert, der Sound kommt eher, als die Explosion).

LovesuckZ
2011-03-21, 15:26:57
Ich stimme Tigerchen nur selten zu, aber hier ist seine Frage bzw. sein Standpunkt aus meiner Perspektive berechtigt. Es geht ihm ja nicht um Glide im Speziellen, sondern um proprietäre Standards im Allgemeinen.

So wie Direct3D, gell?


Und PhysX kann man schon als "proprietär" bezeichnen.


Und das hat immer noch nichts mit Glide zu tun. Jede Viele Grafikengines sind ebenfalls "proprietär".

dllfreak2001
2011-03-21, 16:16:40
Nun LZ, warum ist es so ruhig um HW-PhysX geworden?

Tatsache ist doch, dass man gerade überhaupt nichts Neues hört.
Das muss doch einen Grund haben.
Nach deinen Ausführungen ist PhysX ja in allen belangen Spitzenreiter und
sollte demnach von allen Spieleproduzenten mit Kusshand angenommen werden.

G A S T
2011-03-21, 18:29:49
edit
HW physik ist echt geil. mit der neuen grafikkarte und den UT3 physix mod ist es schon eine geile sache. man sollte nur ein wenig gemäßigter vorgehen und mit maß arbeiten. Es wäre auch gut, wenn die effekte auch stärker variiren würden.

Gelle! Schon lange meine Rede. In den UT3-PhysX-Maps sieht man das große Potential.
Und das ist im Grunde nur 'ne simple Techdemo.

Stell' dir mal vor ein komplettes Leveldesign wird exzessiv PhysX getrimmt...

DrFreaK666
2011-03-21, 19:47:55
MS hätte Ageia aufkaufen sollen, dann wäre es nun Teil von DX und würde mit mehreren GPUs zusammenarbeiten

airbag
2011-03-21, 20:32:48
Nun LZ, warum ist es so ruhig um HW-PhysX geworden?

Tatsache ist doch, dass man gerade überhaupt nichts Neues hört.
Das muss doch einen Grund haben.
Nach deinen Ausführungen ist PhysX ja in allen belangen Spitzenreiter und
sollte demnach von allen Spieleproduzenten mit Kusshand angenommen werden.


Er hat doch nur behauptet, dass es die beste Lösung ist, aber nicht dass es sonderlich erfolgreich ist. (hat sogar gegenteiliges geschrieben)

nomadhunter
2011-03-21, 21:08:28
HW-PhysX ist wesentlich "proprietärer" als bisherige Engines oder APIs.

Bei hardwarebeschleunigter 3D-Grafik gibt es normalerweise drei voneinander unabhängige Ebenen:
- Engine (z.B. CryEngine 3)
- API (Direct3D/OpenGL oder Varianten davon bei den Konsolen)
- Hardware (NV/AMD/Intel/...).
Auch "proprietäre" Engines unterstützen heute verschiedene APIs. Und auch "proprietäre" APIs (Direct3D) laufen auf Hardware verschiedener Hersteller.

Bei Bullet oder Havoc auf GPU bleibt diese Dreiteilung erhalten:
- Engine (Bullet/Havoc)
- API (OpenCL oder DirectCompute)
- Hardware (NV, AMD, Intel)

Nur bei HW-PhysX ist alles in einer Hand:
Nvidia-eigene Engine (PhysX) läuft nur auf Nvidia-eigener API (heißt auch PhysX, Teil von CUDA) und die läuft nur auf Nvidia-eigener Hardware.

Dieses Modell ist im Multiplattform-Zeitalter zum Scheitern verurteilt.

Coda
2011-03-21, 21:39:56
MS hätte Ageia aufkaufen sollen, dann wäre es nun Teil von DX und würde mit mehreren GPUs zusammenarbeiten
DirectX ist eine API und keine Middleware. Das ergibt überhaupt keinen Sinn.

heißt auch PhysX, Teil von CUDA
Nö. Die von PhysX verwendete API heißt CUDA und nicht anders.

Gaestle
2011-03-21, 23:11:10
Können Nicht-NV-Chips CUDA ausführen? (ernste Frage, ich weiß es wirklich nicht).

PCGH_Carsten
2011-03-21, 23:13:17
Gelle! Schon lange meine Rede. In den UT3-PhysX-Maps sieht man das große Potential.
Und das ist im Grunde nur 'ne simple Techdemo.

Stell' dir mal vor ein komplettes Leveldesign wird exzessiv PhysX getrimmt...
Kennst du Cellfactor?
http://www.demonews.de/Spiele/CellFactor-Revolution/News/CellFactor-Revolution-18144/

HW-PhysX ist wesentlich "proprietärer" als bisherige Engines oder APIs.

Bei hardwarebeschleunigter 3D-Grafik gibt es normalerweise drei voneinander unabhängige Ebenen:
- Engine (z.B. CryEngine 3)
- API (Direct3D/OpenGL oder Varianten davon bei den Konsolen)
- Hardware (NV/AMD/Intel/...).
Auch "proprietäre" Engines unterstützen heute verschiedene APIs. Und auch "proprietäre" APIs (Direct3D) laufen auf Hardware verschiedener Hersteller.

Bei Bullet oder Havoc auf GPU bleibt diese Dreiteilung erhalten:
- Engine (Bullet/Havoc)
- API (OpenCL oder DirectCompute)
- Hardware (NV, AMD, Intel)

Nur bei HW-PhysX ist alles in einer Hand:
Nvidia-eigene Engine (PhysX) läuft nur auf Nvidia-eigener API (heißt auch PhysX, Teil von CUDA) und die läuft nur auf Nvidia-eigener Hardware.

Dieses Modell ist im Multiplattform-Zeitalter zum Scheitern verurteilt.

Die Dreiteilung ist kein besonders gutes Merkmal von irgendeiner Unabhängigkeit, denn für Physik gilt:

- Engine (Bullet/Havoc/Physx)
- API (OpenCL, DirectCompute, Cuda, Xbox360-zeug, PS3-zeug)
- Hardware (NV, AMD x86, Intel x86, PPC, CELL BBE)

Können Nicht-NV-Chips CUDA ausführen? (ernste Frage, ich weiß es wirklich nicht).

Theoretisch ja, es müsste nur jemand einen Compiler schreiben:
http://www.xbitlabs.com/news/other/display/20100921215150_Nvidia_and_Portland_Group_Announce_CUDA_C_x86_Compiler.html
Davon habe ich seitdem allerdings nichts mehr gehört.

Coda
2011-03-21, 23:14:57
Können Nicht-NV-Chips CUDA ausführen? (ernste Frage, ich weiß es wirklich nicht).
Nein, obwohl es theoretisch vielleicht möglich wäre. Aber da stehen sicher auch rechtliche Fragen im Weg.

Gaestle
2011-03-21, 23:21:13
Kann man daraus schließen, dass GPU-PhysX de facto auf Nvidia-Chips beschränkt ist?


Theoretisch ja, es müsste nur jemand einen Compiler schreiben:
http://www.xbitlabs.com/news/other/display/20100921215150_Nvidia_and_Portland_Group_Announce_CUDA_C_x86_Compiler.html
Davon habe ich seitdem allerdings nichts mehr gehört.

Danke für den Link. Können GPUs z.B. mit speziellen Compilern oder sonstigen (Hilfs-)Mitteln x86-Code auführen?

deekey777
2011-03-22, 00:26:33
PhysX GPU Acceleration on Radeon Update (http://www.ngohq.com/news/14254-physx-gpu-acceleration-on-radeon-update.html)
X-D

Coda
2011-03-22, 00:42:38
Kann man daraus schließen, dass GPU-PhysX de facto auf Nvidia-Chips beschränkt ist?
Ja.

Danke für den Link. Können GPUs z.B. mit speziellen Compilern oder sonstigen (Hilfs-)Mitteln x86-Code auführen?
Nein.

dllfreak2001
2011-03-22, 08:34:57
Er hat doch nur behauptet, dass es die beste Lösung ist, aber nicht dass es sonderlich erfolgreich ist. (hat sogar gegenteiliges geschrieben)

Ich finde nichts dazu.
Er fällt wieder in den Trott Werbung und die Konkurrenz quellenlos schlecht zu machen.

PhysX ist kein eigenständiges Produkt sondern nur ein Extra für Geforce-Grafikkarten, es ist mehr ein Marketinggag. Man kann also nicht erwarten, dass NV ihr PhysX mit OpenCL oder DC für die Konkurrenz öffnet.
Es ist damit zumindest auf dem Papier nicht "proprietärer" als die Konkurrenz,
wird aber nur mit dem Hintergedanken in den Markt geführt die Hardware der Konkurrenz auszusperren und somit den Wert der eigenen Produkte zu steigern ohne in weitere Hardware-Entwicklung zu investieren.

Tesselation zieht wohl gerade mehr, weil hier NV real punkten kann. Wenn AMD aufholt dann gibt es das nächste Mafia2...

PCGH_Carsten
2011-03-22, 11:31:22
Zum Thema Physx-Öffnung via OpenCL/Direct Compute:
Wie hoch wäre der Anreiz für AMD, das aktiv zu unterstützen? Nvidia hat weiterhin die „Herrschaft” über Physx und bräuchte die Solver lediglich so zu gestalten, dass sie ihrer Hardware perfekt liegen (zum Beispiel mehr als 32 kiB L1-Cache nutzen) und schon wären die Radeons Kanonenfutter.

Diese Bedenken, also Nvidias Herrschaft über Physx, hat AMD IIRC auch bereits als einen der Gründe genannt, dass sie keinen eigenen Physx-Treiber entwickeln, was ihnen ja angeblich von Nvidia freigestellt ist.

Der Schritt zu OCL/DC allein würde hier also erstmal gar nichts bringen. Das Foren-Gejammer ginge nur auf einem anderen Level weiter.

deekey777
2011-03-22, 11:41:36
Sieht OpenCL größeres Shared-Memory als 16 KB vor? Ich glaube nicht. Seit OpenCL 1.1 sind's 32 KB.
Zum Thema Physx-Öffnung via OpenCL/Direct Compute:
Wie hoch wäre der Anreiz für AMD, das aktiv zu unterstützen? Nvidia hat weiterhin die „Herrschaft” über Physx und bräuchte die Solver lediglich so zu gestalten, dass sie ihrer Hardware perfekt liegen (zum Beispiel mehr als 32 kiB L1-Cache nutzen) und schon wären die Radeons Kanonenfutter.


Der Schritt zu OCL/DC allein würde hier also erstmal gar nichts bringen. Das Foren-Gejammer ginge nur auf einem anderen Level weiter.
Irgendwie finde ich deinen Einwand nicht sehr brauchbar. Wenn man PhysX über OpenCL laufen lassen will, dann muss so oder so hardwarespezifische Anpassungen vornehmen (für Radeons müssen Workgroups 64 WIs groß sein, für Geforces 32, für CPUs nur 1 WI?).
Wenn Nvidia ihren Solver so schreibt, dass er nur auf Fermis vernünftig läuft, hat AMD weiterhin die Möglichkeit über den JIT-Compiler einzugreifen.


Diese Bedenken, also Nvidias Herrschaft über Physx, hat AMD IIRC auch bereits als einen der Gründe genannt, dass sie keinen eigenen Physx-Treiber entwickeln, was ihnen ja angeblich von Nvidia freigestellt ist.
Ich weiß nicht, ob ein angebliches "Fuck off" gleich "freigestellt" ist.

wosch666
2011-03-22, 13:44:56
Das man nichts mehr von Hardware PhysX hört ist ja so auch nicht richtig.
Leider wurde das gerade in die Funcomeigene Engine für Age of Conan implementiert.
Übrigens ebenfals mit massiven finanziellen Mitteln von nvidia, die wohl auch einen Großteil des Codes selbst geschrieben haben.
An der Vorgehensweise scheint sich also nicht viel geändert zu haben und in sofern ist es wohl noch nicht am sterben.

PCGH_Carsten
2011-03-22, 14:34:22
Sieht OpenCL größeres Shared-Memory als 16 KB vor? Ich glaube nicht. Seit OpenCL 1.1 sind's 32 KB.
DirectX 11 sieht m.W. auch 32 kiB vor.

Irgendwie finde ich deinen Einwand nicht sehr brauchbar. Wenn man PhysX über OpenCL laufen lassen will, dann muss so oder so hardwarespezifische Anpassungen vornehmen (für Radeons müssen Workgroups 64 WIs groß sein, für Geforces 32, für CPUs nur 1 WI?).
Wenn Nvidia ihren Solver so schreibt, dass er nur auf Fermis vernünftig läuft, hat AMD weiterhin die Möglichkeit über den JIT-Compiler einzugreifen.
„Man” muss hw-spezifische Optimierungen vornehmen? Wer muss das und wieso? Der Treiber muss dafür Sorgen, dass der Solver ausgeführt wird. So wie jedes andere Programm. Jeden Solver, inklusive eventueller zwischenzeitlicher Updates manuell zur Laufzeit zu optimieren klingt nach ziemlich viel Arbeit.

Ich weiß nicht, ob ein angebliches "Fuck off" gleich "freigestellt" ist.
Mein Beleg (http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html). Deiner?

deekey777
2011-03-22, 15:17:51
DirectX 11 sieht m.W. auch 32 kiB vor.
CS 5 sieht 32 KB vor.


„Man” muss hw-spezifische Optimierungen vornehmen? Wer muss das und wieso? Der Treiber muss dafür Sorgen, dass der Solver ausgeführt wird. So wie jedes andere Programm. Jeden Solver, inklusive eventueller zwischenzeitlicher Updates manuell zur Laufzeit zu optimieren klingt nach ziemlich viel Arbeit.
Interessant.
Meine Kenntnisse sind da natürlich sehr eingeschränkt. Aber ich frage mich, warum Nvidia und ATi schreiben, dass man die Größe der Workgroups beachten muss. Warum Entwickler in entsprechenden Foren nach der Größe der Workgroups für CPUs fragen.
Irgendwie bin ich da überfragt, insbesondere wenn man so etwas schreibt:
Nvidia hat weiterhin die „Herrschaft” über Physx und bräuchte die Solver lediglich so zu gestalten, dass sie ihrer Hardware perfekt liegen (zum Beispiel mehr als 32 kiB L1-Cache LDS/Shared-Memory nutzen) und schon wären die Radeons Kanonenfutter.

Ist das nicht eine hw-spezifische Optimierung?

Mein Beleg (http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html). Deiner?
Dieses "Bla-Bla" hättest du dir auch sparen können. Das ist einfach nur lächerlich.
Hier noch mehr Bla-Bla für dich:
http://www.pcper.com/article.php?type=expert&aid=584&pid=2
AMD has repeatedly said that they have heard nothing from NVIDIA, and had not been invited to participate. What AMD is doing is working with Havok,...

AMD does feel that there needs to be an open relationship, but I am not entirely sure how they are going about making this happen. As a funny side note, I had brought this subject up with Roy Taylor at NVIDIA. He said that so far nobody from AMD has tried to contact him about joining in with support for GPU accelerated PhysX from the AMD side. And furthermore all they had heard from AMD was that they had complained, “Nobody from NVIDIA has contacted us about joining in.” At which point another person on the NVIDIA call commented, “Well I saw this really attractive girl at the dance, but she didn’t come over to talk to me…obviously she hates me!”

So I am here to put, in writing, a message from NVIDIA to AMD. Richard Huddy, please call Roy Taylor at NVIDIA ASAP. He is awaiting your call.
Das ist ja Bla-Bla von 2008. Ich sehe hier kein Angebot von Nvidia an AMD, sondern nur PR-Bla-Bla.
Was kommt als Nächstes? Das mysteriöse Posting in einem Foum, wonach Nvidia AMD angeboten habe, bei PhysX mitzumachen, was AMD abgelehnt hat?
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.
Und:
I don't know if this e-mail is real or not, but itss certainly not correct. The PhysX license (anyone can download and see) specifically excludes development and running on anything other than nVidia GPUs, CPUs and consoles. And we've all read about the recent change in their drivers for anyone using ATI cards even for rendering.

So if their post on the forum for us to be able to now use PhysX is real, that seems like a substantial position change. It's interesting they didn't contact us directly and only posted this in a forum.

They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely.
Aber hey, du hast beim Thema "PhysX" schon gezeigt, wessen Meinung du bist.

Edit:
Ich habe was ganz lustiges gefunden:
Physx auf der GPU
AMD in Zukunft doch mit Physx? (http://www.pcgameshardware.de/aid,649079/AMD-in-Zukunft-doch-mit-Physx/Grafikkarte/News/)

nomadhunter
2011-03-22, 18:12:50
Die Dreiteilung ist kein besonders gutes Merkmal von irgendeiner Unabhängigkeit, denn für Physik gilt:

- Engine (Bullet/Havoc/Physx)
- API (OpenCL, DirectCompute, Cuda, Xbox360-zeug, PS3-zeug)
- Hardware (NV, AMD x86, Intel x86, PPC, CELL BBE)
Ich hab nur von hardwarebeschleunigter Physik gesprochen. Und da setzen sowohl Bullet als auch Havoc auf "fremde" APIs (OpenCL/DirectCompute*). Und diese APIs laufen auf "fremder" Hardware** (z.B. OpenCL auf AMD-Hardware). HW-PhysX arbeitet dagegen nur mit der firmeneigenen API zusammen (CUDA). Und diese API läuft nur auf firmeneigener Hardware.

*Die nächste Xbox und Playstation werden wohl auch auf angepasste Versionen von DirectCompute und OpenCL setzen. Zusätzlich wär CUDA möglich, wenn ein NVIDIA-Chip zum Einsatz kommt.
**Das gilt natürlich nicht für die kommenden Konsolen-APIs, die nur auf der entsprechenden Konsole laufen.

Gaestle
2011-03-22, 19:44:38
Ja.


Nein.

Danke für die Info.

http://fubap.org/kingston/wp-content/uploads/2008/06/thanks_for_the_info.jpg

:D

PCGH_Carsten
2011-03-22, 19:46:26
Aber hey, du hast beim Thema "PhysX" schon gezeigt, wessen Meinung du bist.
Wenn du mir nichtmal eine eigene Meinung zutraust, hat es wohl keinen Sinn, überhaupt mit dir über irgendwas zu diskutieren.

Trolls gonna troll. Ciao.

Ich hab nur von hardwarebeschleunigter Physik gesprochen. Und da setzen sowohl Bullet als auch Havoc auf "fremde" APIs (OpenCL/DirectCompute*). Und diese APIs laufen auf "fremder" Hardware** (z.B. OpenCL auf AMD-Hardware). HW-PhysX arbeitet dagegen nur mit der firmeneigenen API zusammen (CUDA). Und diese API läuft nur auf firmeneigener Hardware.

Ok, so herum aufgezogen könnte man lediglich CPU-Physx entgegenhalten. :)

deekey777
2011-03-22, 19:48:39
Wenn du mir nichtmal eine eigene Meinung zutraust, hat es wohl keinen Sinn, überhaupt mit dir über irgendwas zu diskutieren.

Trolls gonna troll. Ciao.
Schön, dass wir darüber geredet haben.
"Deine" Meinung hast du mir schon im PCGH-Forum gezeigt (1:1 Reaktion von Nvidia auf Huddys Vorwürfe + irgendwas von "Wie toll Shared-Memory bei Physik" ist).

Nasenbaer
2011-03-22, 21:58:31
@PCGH_Carsten

Ich kann da deekey777 nur zustimmen. Irgendein nvidia PR-Heini hat irgendeiner unbekannten Webseite gegenüber Aussagen getroffen, dass AMD gerne PhysX mitnutzen könne.
Warum gibt es keine offizielle Pressemitteilung, dass man PhysX öffnen werde? Die Berichte sind von 2008, seitdem hat man sogar die Nutzung von PhysX auf nvidia-Chips unterbunden, wenn gleichzeitig eine AMD-Karte genutzt wird. Das klingt nach allem aber keinesfalls nach einer Öffnung. Man will PhysX als Alleinstellungsmerkmal haben und darum auch all diese Maßnahmen.

Neon3D
2011-03-22, 22:09:28
Man hört kaum noch etwas neues zu PhysX und auch bei den Neuvorstellungen tut sich nichts. Sogar Futuremark wendet sich von PhysX und deaktiviert den Test standardmäßig im Vantage. In 3DMark wird die Physik von Bullet gestellt.

Was meint ihr, ist PhysX bereits in die Stasis eingetretten in der EAX seit einigen Jahren steckt?

solange keine aktuelle konsole physx hardware hat, wird sich da kaum etwas entwickeln, denn die konsolentitel sind bei den spielentwicklern die hardware, an der sich alles orientiert, auch für viele pc titel.

deekey777
2011-03-22, 22:23:31
Was ist der Unterschied zwischen einer Partikelsimulation, die auf einer Geforce läuft, und einer, die zB auf dem Cell läuft? Genau: Es gibt keine.
Es gibt Forschungsprojekte, wo auf dem Xenos/C1 GPGPU-Anwendung läuft.

PCGH_Carsten
2011-03-22, 23:14:22
@Nasenbaer:
Zunächst einmal zweierlei zu deiner Wortwahl: Bit-Tech.net ist keine unbekannte Webseite, sondern gehört zu Custom PC, welches eine der der größten PC-Zeitschriften in GB ist. Der PR-Heini ist Nvidias europäischer PR-Chef. Insofern glaube ich diesen beiden Namen schon ein wenig eher, als beispielsweise einem in einem Foreneintrag zitierten Supportmitarbeiter mit dem Vornamen "Tory", der sowas ja auch behauptet haben soll ("unbekannt" und "heini" klingen irgendwie, als sollten sie den von mir gebrachten Beleg für meine Behauptung abwerten).

Wie dem auch sei, ob deekey777 inzwischen einen Beleg für sein "Fuck off" gebracht hat, kann und will ich nun nicht mehr sehen. Vermutlich behauptet AMD genau das Gegenteil von Nvidia, das kann ich mir schon vorstellen und das wäre auch nur natürlich. Schließlich sind beides Firmen, die für ihren eigenen Vorteil arbeiten.

Was die Physx-Lizenzen angeht, ich kann das natürlich nicht mit Gewißheit sagen, aber die öffentlich einsehbaren unter http://developer.nvidia.com/object/physx_EULA.html beziehen sich m.W. auf die Software, welche Nvidia zum Download bereitstellt. Für die Entwicklung eines Physx-Treiber müsste man da sicherlich eine eigene Lizenz beantragen.

Solange aber Nvidia behauptet, AMD hätte sich nicht mit Ihnen in Verbindung gesetzt (1 (http://www.pcper.com/article.php?type=expert&aid=584&pid=2)) und AMD behauptet, sie hätten rundheraus abgelehnt, AMD "access" (was auch immer genau das heißen sollte) zu Physx zu gewähren (2 (http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10)), können wir nur spekulieren - wie ich schrieb: Es ist ihnen angeblich von Nvidia freigestellt [Hervorhebung nicht im Original].

deekey777
2011-03-22, 23:41:26
@PCGH_Carsten

Ich kann da deekey777 nur zustimmen. Irgendein nvidia PR-Heini hat irgendeiner unbekannten Webseite gegenüber Aussagen getroffen, dass AMD gerne PhysX mitnutzen könne.
Warum gibt es keine offizielle Pressemitteilung, dass man PhysX öffnen werde? Die Berichte sind von 2008, seitdem hat man sogar die Nutzung von PhysX auf nvidia-Chips unterbunden, wenn gleichzeitig eine AMD-Karte genutzt wird. Das klingt nach allem aber keinesfalls nach einer Öffnung. Man will PhysX als Alleinstellungsmerkmal haben und darum auch all diese Maßnahmen.
Allein die Tatsache, dass sich jemand auf die News von 2008 bezieht, zeigt, dass man lieber in der Vergangenheit bleibt, denn sonst sieht man, dass man im Unrecht ist.

Aber da ich offenbar auf der Ignore-Liste stehe (das sagt schon einiges), war meine Mühe wohl umsonst.

Noch so ein Scherz aus dem Jahr 2008: ATI will get Physics if... (http://www.fudzilla.com/graphics/item/11654-ati-will-get-physics-if)
In our recent talks with Roy Taylor, the VP of The Way It’s Meant To Be Played, we've learned an interesting fact: that AMD/ATI can get Physics support. All AMD needs in order to be able to support PhysX is to adopt Cuda.

Das mit dem angeblichen Fuck off kommt von Ail. Und dazu soll so gekommen sein: Für die GDC '09 wollte AMD zeigen, wie Physiksimulationen auf GPUs über OpenCL laufen. Man hat bei Intel angefragt, und siehe da, gab es eine Havok-Demo über OpenCL. Man hat bei Nvidia angefragt, und siehe da, es wurde "höflich" abgelehnt, es heißt auch, AMD hätte das für umsonst gewollt (was Intel egal war).

Nasenbaer
2011-03-23, 09:06:44
@PCGH_Carsten

Den britischen Zeitschriftenmarkt kenne ich nicht, deswegen wusste ich das nicht. Für mich hätte eine solche Aussage auf Beyond3D oder Gamasutra dennoch etwas mehr Gewicht. In dem Artikel steht ja auch, dass der PR-Mann für quasi ganz Eurasien zuständig ist - das war mir durchaus bewusst. Aber das war nicht mein Grund für die Abwertung, sondern, dass er nunmal ein PR-Beauftragter von nVidia ist. Und gute PR war das sicherlich aber PR-Leute haben keine Entscheidungsgewalt und damit kann man ihn nicht darauf festnageln.

Schade, dass das Thema nicht bei der nvidia-Themenwoche bei euch angesprochen wurde - ein erneutes Statement wäre sicher mal interessant gewesen. Vielleicht könntet ihr ja nochmals Anfragen in der Richtung and nvidia und AMD starten. Schlimmstenfalls wird nie darauf geantwortet. :)

PCGH_Carsten
2011-03-23, 13:28:31
Nasenbaer:

Beim "AMD-Themenabend" (http://www.pcgameshardware.de/aid,809837/AMD-beantwortet-Leserfragen-GPU-Physx-Mikroruckeln-und-Power-Tune/Grafikkarte/News/) wurde diese Frage gestellt, AMD selbst hat Physx in der Antwort überhaupt nicht erwähnt, Nvidia hat hingegen nochmal betont, es läge "ganz an AMD" (http://extreme.pcgameshardware.de/nvidia-themenabend-12-2010/129907-wird-physx-auch-zukunft-exklusiv-fuer-nvidia-bleiben.html). Die Haltung scheint sich gegenüber 2008 also nicht geändert zu haben, da beide Themenabende in der zweiten Hälfte 2010 stattfanden.

Was PR-Aussagen angeht: Hinter der PR von Nvidia und AMD steht die "Legal"-Abteilung, insbesondere öffentliche Äußerungen in Email-Interviews werden da vorher sicherlich abgeklopft.

dllfreak2001
2011-03-23, 13:48:20
Wie sollte diese Öffnung gegenüber AMD eigentlich aussehen?
NV hat doch mit einem "Fuck off" gerechnet, andernfalls hätte man konkret ein Scherzangebot mit inakzeptablen Konditionen hingelegt.

Aber damals ist es etwas anderes als heute, so langsam etabliert sich die Konkurrenz und die HW-PhysX-nutzenden Produkte haben eine eher durchwachsene Umsetzung an den Tag gelegt. NV kommt langsam in Zugzwang oder sie sehen keine Konkurrenz und lassen das Thema erstmal ruhen.

Nasenbaer
2011-03-23, 13:54:35
Oh dann hab ich die Themen damals übersehen. :/

Nasenbaer:

Beim "AMD-Themenabend" (http://www.pcgameshardware.de/aid,809837/AMD-beantwortet-Leserfragen-GPU-Physx-Mikroruckeln-und-Power-Tune/Grafikkarte/News/) wurde diese Frage gestellt, AMD selbst hat Physx in der Antwort überhaupt nicht erwähnt, [...]

Jup, AMD ist ausgewichen und das auch bei manch anderer interessanter Frage (wie z.B. über Mikroruckler). Damit ist also nichts anzufangen.


Nvidia hat hingegen nochmal betont, es läge "ganz an AMD" (http://extreme.pcgameshardware.de/nvidia-themenabend-12-2010/129907-wird-physx-auch-zukunft-exklusiv-fuer-nvidia-bleiben.html). Die Haltung scheint sich gegenüber 2008 also nicht geändert zu haben, da beide Themenabende in der zweiten Hälfte 2010 stattfanden.

Die Antwort ist aber auch vage. Ich will's keinesfalls schlecht reden aber woran es genau hakt - zeigt AMD kein Interesse?, haben sie das Angebot konkret abgelehnt?, haben ihnen vielleicht die Vertragsmodalitäten nicht gepasst?, wurde überhaupt ein konkreter Kooperationsvertrag vorgelegt? - das alles steht in den Sternen.
Und dann kommt ja auch durchaus die Tatsache hinzu, dass man einzelne Routinen so verändern könnte, dass die auf eigener H/W besser abschneiden. Man könnte bei AMD dann Anpassungen vornehmen aber AMD müsste immer nachziehen aber bei den initialen Benches zum Verkaufsstart wäre nVidia womöglich vorne.
Da dieses Gerücht der absichtlichen Ausbremsung derzeit ohnehin schon für den CPU-Support im Raum schwirrt, würde ich als AMD-Verantwortlicher auch lieber meine Zeit und das Geld in offene Standards investieren, denn davon hat man mittelfristig viel mehr. Außerdem gibt es ja sowieso kaum Spiele, die GPU-PhysX nutzen.


Was PR-Aussagen angeht: Hinter der PR von Nvidia und AMD steht die "Legal"-Abteilung, insbesondere öffentliche Äußerungen in Email-Interviews werden da vorher sicherlich abgeklopft.
Wobei es halt dennoch PR ist. Ich denke da nur an die Sprüche, die gegen Intel gefallen sind. nVidia hat schon häufiger ne große Klappe gehabt. Solange nichts wirklich konkretes mal gesagt wurde, ist das alles schwer zu beurteilen.

deekey777
2011-03-23, 14:05:34
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.
Das sagt Dave Hoff, AMDs Director of Advanced Technology Initiatives.
Was soll da noch "ganz an AMD liegen"?

Ailuros
2011-03-23, 14:27:59
....

Darf ich bitten dass etwas Luft aus dem Ventil von Euch Herren gelassen wird?

Das mit dem angeblichen Fuck off kommt von Ail. Und dazu soll so gekommen sein: Für die GDC '09 wollte AMD zeigen, wie Physiksimulationen auf GPUs über OpenCL laufen. Man hat bei Intel angefragt, und siehe da, gab es eine Havok-Demo über OpenCL. Man hat bei Nvidia angefragt, und siehe da, es wurde "höflich" abgelehnt, es heißt auch, AMD hätte das für umsonst gewollt (was Intel egal war).

Dann solltest Du Dich auch daran erinnern warum es ueberhaupt zu einer solchen Antwort kam. Am Ende wird keiner einen Strich an Logik zwischen dem was beide IHVs darueber aussagen finden.

Mal angenommen Du waerst in NV's Schuhen und die Geschichte mit dem kostenlosen Einstieg Deines Konkurrenten stimmt; Du wuerdest zwar nicht "f*** off* antworten, aber ich wuerde ernsthaft bezweifeln dass Du zusagen wuerdest.

So "angeblich" ist es gar nicht; ich kann privat sogar einen Namen nennen und ich bin nicht der einzige der es gelesen hat in einem Echzeit chat.

deekey777
2011-03-23, 15:12:08
Die Logik ist: Intel gab alles, was nötig war, heraus. Ist was schlimmes passiert? Nein. Und Havok ist immernoch das Schwergewicht, das in Toptiteln verwendet wird.

Wenn AMD wirklich dreist wäre, so hätten sie längst einen eigenen Weg gefunden, PhysX auf Radeons laufen zu lassen. Aber man sieht es überdeutlich: AMD will da nichts machen, das ist einfach nicht ihre Baustelle.

Was mich aber wurmt, ist, wie mit so einer Selbstverständlichkeit eine Äußerung eines PR-Mannes zitiert und an dieser hält.

Ailuros
2011-03-23, 15:53:55
Was mich aber wurmt, ist, wie mit so einer Selbstverständlichkeit eine Äußerung eines PR-Mannes zitiert und an dieser hält.

Egal bei weicher Firma wenn ein PR-Mann nicht die Kunst zu luegen beherrscht, ist er fuer den job auch nicht geeignet.

So gesehen sollte es Dich dann aber auch wurmen dass die "f*** off* Geschichte von einem PR Herren stammt. Und dazu von einem Herren der seine Kunst ziemlich gut beherrscht :P

deekey777
2011-03-23, 16:11:00
Egal bei weicher Firma wenn ein PR-Mann nicht die Kunst zu luegen beherrscht, ist er fuer den job auch nicht geeignet.

So gesehen sollte es Dich dann aber auch wurmen dass die "f*** off* Geschichte von einem PR Herren stammt. Und dazu von einem Herren der seine Kunst ziemlich gut beherrscht :P
Also ich halte die Äußerungen von Dave Hoff schon ehrlicher. Auch die vorsichtigen Äußerungen von Michael Steel (Vize von Ageia) kurz nach der Übernahme.

Niemand hat von Nvidia öffentlich gesagt, dass sie AMD angeboten hätten, bei PhysX mitzumachen, sondern man sagte: "Wir sind für alle offen". Das ist wie "Geiz ist geil!" oder "Geil ist geil!".
Ich habe nicht umsonst auf den Artikel von PCPer verwiesen, der die Lage klar gestellt hat: AMD hat von Nvidia keine Einladung bekommen, und Nvidia hat von AMD keine Anfrage bekommen, ob sie mitmachen können.
Und wenn Dave Hoff im Herbst 2009 sagt: "Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX." Ich kenne keine einzige Reaktion von Nvidia auf diese Äußerung, was für mich nach Eingestehen klingt.

Aber wie gesagt: Mir geht's um die Person, bei der ich wohl auf der Ignore sitze.

Ailuros
2011-03-23, 16:39:57
Ich habe nicht umsonst auf den Artikel von PCPer verwiesen, der die Lage klar gestellt hat: AMD hat von Nvidia keine Einladung bekommen, und Nvidia hat von AMD keine Anfrage bekommen, ob sie mitmachen können.


Die Debatte grenzt ohnehin schon an die Laecherlichkeit, eben weil sich beide Seiten wie verwoehnte Kleinkinder verhalten, aber wenn dem tatsaechlich so ist dann passt auch nicht die "f*** off" Geschichte in das Ganze rein.

Machen wir es einfacher: wo ein Wille ist ist ein Weg. So wie es heute aussieht haben beide Seiten keinen Bock fuer jegliche Naeherung und das nicht nur was PhysX betrifft. Ergo wieso noch lange drueber diskuttieren?

Hat von der anderen Seite AMD irgendeinen "Willen" eine physics Alternative anzubieten?

deekey777
2011-03-23, 16:53:40
Man sollte sich einfach fragen: Was hat Nvidia davon, wenn PhysX-Effekte auf Radeons laufen? Nichts.
Und wenn man jetzt die eigentliche Intention des Threads hinzunimmt, so entsteht der Eindruck, dass Nvidia nicht viel davon hat, dass PhysX-Effekte auf Geforces laufen, sprich ein Synergie-Effekt ist nicht vorhanden. Und wenn man sich erst die Spiele anschaut, die Geforce-PhysX verwenden...

Wovon Nvidia aber definitiv was hätte, ist kostenpflichtige Plugins für professionelle Software bereitzustellen (http://www.beyond3d.com/content/news/765), die den Kauf einer Quadro erfordern.

Gaestle
2011-03-23, 23:33:22
Und wenn man jetzt die eigentliche Intention des Threads hinzunimmt, so entsteht der Eindruck, dass Nvidia nicht viel davon hat, dass PhysX-Effekte auf Geforces laufen, sprich ein Synergie-Effekt ist nicht vorhanden.

Ich wäre mir da nicht ganz so sicher. Aber genau wird das wahrscheinlich nur NV wissen oder erahnen können. Vielleicht weiß es auch gar niemand so genau und es ist auf allen Seiten "glauben" und "vermuten". Kann man den PR-Effekt in einem Umfeld mit sehr vielen dynamischen Einflussgrößen so genau messen bzw. statistisch rausrechnen?

Es ist auf jeden Fall in der GPU-Variante ein potentielles Plus auf der Feature-Liste, egal was man persönlich davon hält. Und wenn das NVidia-Logo auch bei CPU-PhysX auf den Spielepackungen prangt, ist das auch gute Werbung, vor allem im Zusammenhang mit der schon erwähnten Feature-Liste.

Ailuros
2011-03-24, 08:02:31
Man sollte sich einfach fragen: Was hat Nvidia davon, wenn PhysX-Effekte auf Radeons laufen? Nichts.
Und wenn man jetzt die eigentliche Intention des Threads hinzunimmt, so entsteht der Eindruck, dass Nvidia nicht viel davon hat, dass PhysX-Effekte auf Geforces laufen, sprich ein Synergie-Effekt ist nicht vorhanden. Und wenn man sich erst die Spiele anschaut, die Geforce-PhysX verwenden...

Das hat nichts damit zu tun was AMD selber und physics betrifft. Versuch mal ausnahmsweise ausserhalb dem Teufelskreis zwischen den beiden zu denken. Braucht AMD eine eigene GPU physics Platform und dessen Unterstuetzung? Wenn die Antwort ja sein sollte, dann sollten sie sich gefaelligst um eine eigene Alternative und aktive Unterstuetzung dafuer kuemmern.

Wenn aber die Antwort nein sein sollte, dann ist es fuer AMD auch ziemlich geschickt konstant mit dem Finger auf das boese NVIDIA zu zeigen, das proprietaere Loesungen den ISVs "aufzwingt" und das Opfer AMD mit Absicht aussen vorlaesst.

Hab ich als Endverbraucher irgend etwas davon wenn sich die beiden endlos wie Kleinkinder im Sandkasten streiten?

Wovon Nvidia aber definitiv was hätte, ist kostenpflichtige Plugins für professionelle Software bereitzustellen (http://www.beyond3d.com/content/news/765), die den Kauf einer Quadro erfordern.

Ergo ist wohl PhysX alles andere als am "sterben" und NV schafft es dass das Zeug konstant an Wichtigkeit gewinnt. Bleibt immer noch die Frage was AMD fuer den Bereich physics vorhat.

Nasenbaer
2011-03-24, 09:38:41
Ergo ist wohl PhysX alles andere als am "sterben" und NV schafft es dass das Zeug konstant an Wichtigkeit gewinnt. Bleibt immer noch die Frage was AMD fuer den Bereich physics vorhat.
Andererseits wird Bullet gerade bei Modellierungs-/Animationssoftware in immer mehr Produkten verwendet. Und die zLib-Lizenz erlaubt es wohl auch problemlos diese Physik-Plugins direkt in die kostenppflichtigen Suites einzubinden. Was mit Blender anfing ist jetzt auch für Cinema4D und Maya verfügbar - fehlt eigentlich nur noch 3D Studio Max.

Ailuros
2011-03-24, 13:48:06
Andererseits wird Bullet gerade bei Modellierungs-/Animationssoftware in immer mehr Produkten verwendet. Und die zLib-Lizenz erlaubt es wohl auch problemlos diese Physik-Plugins direkt in die kostenppflichtigen Suites einzubinden. Was mit Blender anfing ist jetzt auch für Cinema4D und Maya verfügbar - fehlt eigentlich nur noch 3D Studio Max.

Wunderbar. Dann entschuldige aber IMHO sollte sich AMD darauf konzentrieren auf dieser Basis weiterzuarbeiten und den PhysX Mist/Gezanke mit NVIDIA ein fuer allemal begraben.

Nasenbaer
2011-03-24, 16:16:20
Wunderbar. Dann entschuldige aber IMHO sollte sich AMD darauf konzentrieren auf dieser Basis weiterzuarbeiten und den PhysX Mist/Gezanke mit NVIDIA ein fuer allemal begraben.
Also seit 2009 ist doch von AMD nichts mehr gekommen. Beim PCGH-Themenabend haben sie selbst auf direkte Nachfrage das Wort PhysX nicht mal in den Mund genommen. nVidia hat hingegen weiterhin bei deren PCGH-Themenabend weiter behauptet, dass man für alles offen sei.

Ich denke, dass das Gezanke sich schon seit längeren von den IHVs auf deren Fanboys verlagert hat und diese jetzt fröhlich weiter streiten wer hinsichtlich Physik die besseren Karten hat.
Solange sich allerdings die Hälfte der CPU-Threads bei vielen Spielen langweilen und die nächste Konsolengeneration weit entfernt ist, wird Physik ohnehin kaum einen höheren Stellenwert erhalten - IMO jedenfalls.
Ich meine rein theoretisch wäre es ja sogar möglich GPU-Physik für spielerelevante Physik zu nutzen (siehe Crazy-Machines 2 in der nvidia-Version) aber es ist wohl einfacher den User mit Millionen an Script-Events zu bombadieren, *hust* CoD, *hust* Homefront. :D Da erledigt man die paar Explosionen gleich auch noch per Skript, statt Physik-Simulation. ^^

dllfreak2001
2011-03-25, 08:43:26
Physiksimulationen sind oft nicht besonders cineastisch.

Nasenbaer
2011-03-25, 08:52:40
Physiksimulationen sind oft nicht besonders cineastisch.
Aber in Gegensatz zu Filmen schon ganz hilfreich. Beim Film ist im vorhinein klar wo ein Sprengsatz hochgehen wird und dementsprechend kann man den Einsturz eines Gebäude simulieren. Wenn der User aber selbst den Ort der Detonation festlegt, dann sieht das mit unter doof aus, wenn es streng vorberechnet ist.

Zudem kann man bei den Parametern ja auch von der Realität abweichen. Ne Granate hat dann gegenüber Gebäude in der Simulation die dreifache Sprengkraft (sprich die simulierte Druckwelle wird hochgeschraubt) - dann machts mehr Bums aber dennoch fallen die Steine wie sie soll. Zudem kommen Feuer und Rauch ja auch gescriptet hinzu, wenn was explodiert. Das wird ja nicht mit simuliert, sondern nur schnöde Mechanik.

boxleitnerb
2011-03-25, 13:11:19
Bei HW-Bullet sieht es momentan auch nicht grad rosig aus wie man weiß. AMD sagt dazu:

I don't think there will be a large number of [games with OpenCL GPU hardware-accelerated physics] this year. Hardware-based physics does not seem to be a huge priority for software developers. We want to make it available as we have that technology, but it seems like a lot of developers are still choosing to use their own physics implementations simply because they [...] are just really concerned about making sure that the experience the consumer has is consistent no matter what graphics card they have in their system or whether they have a very powerful discrete GPU or not. The technology is there some developers will take advantage of it."

http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=18178%20%20&catid=38&Itemid=101

Hugo78
2011-03-25, 16:51:51
Ohh ... damit konnte ja keiner rechnen. :rolleyes:

Gaestle
2011-03-26, 01:01:04
Bei HW-Bullet sieht es momentan auch nicht grad rosig aus wie man weiß. AMD sagt dazu:



http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=18178%20%20&catid=38&Itemid=101


Ich dachte, AMD hätte mehr arithmetische Leistung, als sie mit den ROPs in sichtbare Grafik umsetzen können (2.7GFlops bei 6970 vs. 1.6GFlops bei 580). Da müsste sich für sie doch eine zusätzliche Auslastung ihrer arithmetischen Möglichkeiten lohnen, oder nicht? Oder übersehe ich hier, dass AMD auch bzw. vor allem CPUs verkaufen will?

boxleitnerb
2011-03-26, 06:55:59
Zitat nicht richtig gelesen? Es liegt an den Spieleentwicklern. Denk mal an die Mediamarktkäufer: Dicke CPU, aber Mickergrafik. Da würde PhysX oder Bullet auf der GPU nur mies laufen, da sowieso noch die letzten Ressourcen der Karte für die Grafik draufgehen.

Das ist im Grunde was, wo ich mich frage, ob GPU-beschleunigte Physik vom Kosten-Nutzenverhältnis überhaupt stimmt. Wer gerne mit VSync bei 60fps, SSAA usw. spielt, wird sicher keine Effekte einschalten, die die fps glatt mal halbieren.
Andererseits war es früher mit 32bit, 2x oder 4xAA usw. auch so und es hat sich trotzdem durchgesetzt und ist heute im vergleich zu früher praktisch umsonst.

Hugo78
2011-03-26, 09:31:11
Richard Huddy meinte ja noch genau ein Jahr zuvor,
die Entwickler wollen ja alle plattformunabhänige GPU Physik und nur weil Nvidia die bezahlen würde, könnte sich Bullet nicht durchsetzen.

Und jetzt sind plötzlich die Entwickler schuld. :freak:

Mir kommt das ganze so vor, als wenn AMD das von anfang an klar war und man Bullet nur als Vorwand genommen hat, um PR zubetreiben und gegen NV zusticheln.

Nach dem Motto: "Wenns was wird, bekommen wir Kohle von oben und wenn nicht, verlieren wir auch nichts, wir haben ja nichts investiert ..."

Captain Future
2011-03-26, 09:40:00
Denk mal an die fetten CPUs, die da drin immer arbeiten. Da bremst di grafik so stark, dass die CPU doch Däumchen dreht, die kann die physik doch problemlso machen.

Muss nur ordentlich multi-core optimiert werden, was AMD bei physx ja bemänget hat. Bei Bullte können sies nun besser machen.
Zitat nicht richtig gelesen? Es liegt an den Spieleentwicklern. Denk mal an die Mediamarktkäufer: Dicke CPU, aber Mickergrafik. Da würde PhysX oder Bullet auf der GPU nur mies laufen, da sowieso noch die letzten Ressourcen der Karte für die Grafik draufgehen.

boxleitnerb
2011-03-26, 09:43:02
Weiß jemand, welche Einheiten auf der GPU bei Physikberechnungen besonders ausgelastet werden? Schon die Shader, oder? Wenn man hier brachliegendes Potential hat, das genutzt werden könnte, schon ne feine Sache. Aber eben nur, wenn ansonsten keine (größeren) Abstriche gemacht werden müssten.

dllfreak2001
2011-03-26, 10:42:49
@Hugo78
Es ist müßig darüber zu diskutieren wer der Buhmann ist.
NV hat zwar seine eigene Physik-Engine am Markt, nutzte die Situation relativ schamlos aus. Selbst wenn sich AMD auch so eine Engine einkaufen wollte, es gab keine weitere die HW-Physik bot und ähnlich weit entwickelt war.

bloub
2011-03-26, 10:55:49
Selbst wenn sich AMD auch so eine Engine einkaufen wollte, es gab keine weitere die HW-Physik bot und ähnlich weit entwickelt war.

dann sollte amd mal den spruch "weniger reden, mehr bewegen" überdenken und gegebenfalls beherzigen ;).

Gaestle
2011-03-26, 11:13:16
Zitat nicht richtig gelesen? Es liegt an den Spieleentwicklern. (...)

Ich habe es schon gelesen, aber NV fördert die Umsetzung von GPU-PhysX mit nicht geringen Summen, hat aber weniger arithmetische Leistung (GFlops). Gerade in der aktuellen Situation, wo es rein für Grafik nur sehr wenige Gründe für eine High-End-GPU gibt, könnte sowas ja den GPU-Markt unterstützen. Das ist wahrscheinlich ja auch NVs Kalkulation, neben dem Werbeeffekt.

Offenbar kommt aber AMD bei der selben Kalkulation zum selben Thema (GPU-Physik: Aufwand vs. Nutzen) zu einem anderen Ergebnis als NV, obwohl sie eigentlich mehr (arithmetisches) Potential für sowas hätten. Meine Frage ist also, wie stark das mit der zweiten Sparte zusammenhängt (CPUs verkaufen), die NV eben gar nicht hat.

Nasenbaer
2011-03-26, 11:16:06
Weiß jemand, welche Einheiten auf der GPU bei Physikberechnungen besonders ausgelastet werden? Schon die Shader, oder? Wenn man hier brachliegendes Potential hat, das genutzt werden könnte, schon ne feine Sache. Aber eben nur, wenn ansonsten keine (größeren) Abstriche gemacht werden müssten.
Die Aufgaben werden aber üblicherweise sequentiell abgearbeitet. Deswegen wurde ja auch gerade erst mit der neuesten Generation mit "concurrent kernel execution" geworben. Sprich wenn die GPU gerade D3D-Shader abarbeitet, dann kann man nicht hergehen und die GPU so programmieren, dass sie nicht benötigte Shadereinheiten für die Ausführung GPU-Physik nutzt.
Eine GPU ist unter anderem dann effizient, wenn möglichst viele Shader den identischen Programmverlauf haben, weswegen man ja auch auf zu viel branching verzichten soll.

Captain Future
2011-03-26, 11:22:27
Läuft Bullte nicht mit Opencl und so automatisch auch über die CPU?
Meine Frage ist also, wie stark das mit der zweiten Sparte zusammenhängt (CPUs verkaufen), die NV eben gar nicht hat.

Hugo78
2011-03-26, 11:26:36
@Hugo78
Es ist müßig darüber zu diskutieren wer der Buhmann ist.
NV hat zwar seine eigene Physik-Engine am Markt, nutzte die Situation relativ schamlos aus. Selbst wenn sich AMD auch so eine Engine einkaufen wollte, es gab keine weitere die HW-Physik bot und ähnlich weit entwickelt war.

AMD hätte PhysX haben können.
Sommer 2008:
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/

Wie uns Nvidia inzwischen mitgeteilt hat, stimmt unsere Einschätzung nicht. AMD müsse für die Physx-Bibliotheken lediglich einen Solver schreiben, der die Physikroutinen für ihre Hardware übersetzt. Ob dies per CUDA geschehe oder direkt in Maschinensprache, seie nicht von Bedeutung. Aber selbst für eine Portierung über CUDA müsse AMD nicht zwangsläufig alle Geheimnisse ihrer Hardware offenlegen - allerdings könne man anhand der Aufrufe, die dann in den Treiber integriert werden müssen, doch einige über die Funktionsweise der GPU ableiten. Dies könne man allerdings auch über AMDs eigene CTM-Implementierung tun.

Nasenbaer
2011-03-26, 11:33:31
AMD hätte PhysX haben können.
Sommer 2008:
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/
Der Kram wird nicht "wahrer" indem man ihn immer und immer wieder wiederholt. AMD meint, nvidia will tatsächlich gar nicht AMD diese Möglichkeit bieten. nvidia behauptet immer wieder, dass AMD keine Lust habe das Angebot anzunehmen.

Das wurde auf den vorherigen Seiten schon ne halbe Millionen mal durchgekaut.

EDIT: Selbst wenn es das Angebot gäbe, dann hätte es dennoch einige Risiken und auch das wurde alles schon hier gesagt.

Hugo78
2011-03-26, 11:54:22
@Nasenbaer
Natürlich hat AMD keine Lust ein Nvidia Ding zu puschen, am ende würde gar noch was drauß, weil ja dann beide Großen PhysX im Program haben.
Man wäre aber abhänig von Nvidia, was die weitere Entwicklung von PhysX anginge und in Sachen PR wäre auch nichts zuholen.

Was die "Risiken" angeht, da betreiben doch alle Reverse Engineering und dazu braucht es nicht erst PhysX, damit Nvidia die "Geheimnisse" der Radeons erfährt.

Und jetzt wird ganz offen zugegeben, dass selbst die offene Bulletengine nicht attraktiv genug ist, dass Entwickler hier freiwillig Zeit und Manpower investieren, auf Grund der Rahmenbedienungen am Markt.

Da kann mir doch keiner erzählen, dass die AMD Manager das nicht voher schon gewust haben, die werden dafür bezahlt sich zb. u.a. folgende Gedanken zumachen ...

Ich seh nicht das GPU PhysX "stirbt".
Es sprechen nur eine Reihe von Überlegungen dagegen die sicher jeder Entwickler hat, der dies als Extra anbieten möchte,
weil er für seine Kosolenversion, ohnehin schon CPU PhysX benutzt.


1a.) brauch ich das überhaupt, oder könnte ich nicht noch ein - zwei CPU kerne mit FX Physik belasten, 1b) und hätte eine Mainstream Geforce überhaupt noch Luft für mehr Aufgaben? ja/nein
2.) haben meine Kunden überhaupt soviele Geforces, dass sich hier die Manpower für GPU PhysX Umsetzung überhaupt lohnt? ja/nein
3.) bringt GPU PhysX dem Spiel wirklich einen Mehrwert? ja/nein.

Und selbst Konsolenports sind oft so grottig, "schnell, schnell" zusammen geproggt, dass es spätestens bei 1b.) scheitert.

Daran wird auch Bullet oder sonstwas nichts ändern.
Das ändert sich erst, wenn auch in den USA ect. die Leute wieder mehr auf dem Rechner zocken.

dllfreak2001
2011-03-26, 12:11:12
AMD hätte PhysX haben können.
Sommer 2008:
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/

Und weiter?
Natürlich geht das, nur ohne Lizenz wird das nichts, dass NV sowas ohne weiteres erlauben würde glaubst du hoffentlich wohl selber nicht.
Die haben doch den HW-PhysX-Support abgeschaltet sobald eine Fremdkarte das Bild berechnet.
Für mich verbieten sich solche Möglichkeiten die wahrscheinlich einen extremen wirtschaftlichen Schaden zu Folge hätten.

Nasenbaer
2011-03-26, 12:11:33
@Nasenbaer
Natürlich hat AMD keine Lust ein Nvidia Ding zu puschen, am ende würde gar noch was drauß, weil ja dann beide Großen PhysX im Program haben.
Man wäre aber abhänig von Nvidia, was die weitere Entwicklung von PhysX anginge und in Sachen PR wäre auch nichts zuholen.

Was die "Risiken" angeht, da betreiben doch alle Reverse Engineering und dazu braucht es nicht erst PhysX, damit Nvidia die "Geheimnisse" der Radeons erfährt.

Und jetzt wird ganz offen zugegeben, dass selbst die offene Bulletengine nicht attraktiv genug ist, dass Entwickler hier freiwillig Zeit und Manpower investieren, auf Grund der Rahmenbedienungen am Markt.

Da kann mir doch keiner erzählen, dass die AMD Manager das nicht voher schon gewust haben, die werden dafür bezahlt sich zb. u.a. folgende Gedanken zumachen ...
Nimm dir doch mal die 5 Minuten und die dir die letzten 3 Seiten des Threads durch (vorallem die Diskussion zwischen deekey, PCGH_Carsten und mir). Es gibt da durchaus größere Probleme als Reverse Engineering. Wenn das deren Angst wäre, dann wäre man bei AMD vielleicht auch weniger freizügig mit der Veröffentlichung von H/W Infos zur Implementierung offener Linuxtreiber.

Das Problem sehe ich aber nicht unbedingt an den Engine als vielmehr in der Angst der Entwickler/Publisher begründet. Denn selbst, wenn der versierte Entwickler ohne Probleme GPU-Physik über eine Engine einbinden könnte, so bräuchte man für den weit größeren Konsolenmarkt wieder Anpassungen da deren Leistung die Entwicklung ja auch so schon arg limitiert (siehe Crysis 2). Und eine vollkommen unabhängige Entwicklung für mehrere Plattformen kann sich wohl kaum einer leisten.
Hinzu kommt, dass man, wenn man die GPU-Physik für bestimmte Sachen benötigt aber sie nicht generell vorausgesetzt werden kann, man dann damit realisierte Effekte auch nicht für's Gameplay nutzen kann. Was bleibt sind ein paar tolle Grafikeffekte, die man damit umsetzen kann. Und dafür werden die wenigstens Publisher Geld locker machen wollen.

EDIT: In deinem Selbstzitat hast ja praktisch die gleichen Probleme beschrieben. Da kann auch AMD nichts dran ändern, indem man in Bullet investiert. Es ist eine generelleres Problem der aktuellen Spieleentwicklung.

Captain Future
2011-03-26, 12:34:29
Das Gegentum wird aber auch nicht wahrer wenn man immer wiederholt was AMD behaupttet. Es steht aussage gegen aussage
Der Kram wird nicht "wahrer" indem man ihn immer und immer wieder wiederholt. AMD meint, nvidia will tatsächlich gar nicht AMD diese Möglichkeit bieten. nvidia behauptet immer wieder, dass AMD keine Lust habe das Angebot anzunehmen.


Das is wohl auch der Grund warum AMD immer sagt Nvidia kaufe sich den physx support ein. Die Entwickler sagen bestimmt "was haben wir davon" bzw "wer erstattet uns die kosten" und Nvidia schickt halt ein paar Pogrammier hin und so ksotet's die Entwickler nix. AMD hat vielleicht nicht soviele Leute und nicht so eine einfache Lsung mit einem kompletten Baukastensystem und müsste stattdessen Geld geben? Ich weiß es nicht, aber möglich


EDIT: In deinem Selbstzitat hast ja praktisch die gleichen Probleme beschrieben. Da kann auch AMD nichts dran ändern, indem man in Bullet investiert. Es ist eine generelleres Problem der aktuellen Spieleentwicklung.

Nasenbaer
2011-03-26, 12:41:28
Das Gegentum wird aber auch nicht wahrer wenn man immer wiederholt was AMD behaupttet. Es steht aussage gegen aussage

Habe ich auch nie gesagt. Niemand weiß ob und worüber die beiden jemals geredet hat und deshalb ist es sinnlos ständig eine der beiden Parteien zu beschuldigen man würde nicht kooperativ sein.


Das is wohl auch der Grund warum AMD immer sagt Nvidia kaufe sich den physx support ein. Die Entwickler sagen bestimmt "was haben wir davon" bzw "wer erstattet uns die kosten" und Nvidia schickt halt ein paar Pogrammier hin und so ksotet's die Entwickler nix. AMD hat vielleicht nicht soviele Leute und nicht so eine einfache Lsung mit einem kompletten Baukastensystem und müsste stattdessen Geld geben? Ich weiß es nicht, aber möglich
Man sollte sich auch selbst fragen was die paar Effekte bringen. Einen objektiven Mehrwert bringen sie sicher nicht (ich meine die rein grafischen GPU-Physik-Effekte). Vor der nächsten Konsolengeneration wird sicher nix großartiges mehr passieren.

y33H@
2011-03-26, 13:29:25
Was ist ein "objektiver Mehrwert"? Ich halte wenig von HW-PhysX, aber beispielsweise die Zusatzeffekte in Sacred 2 finde ich klasse und diese sind unbestreitbar ein optischer Mehrwert.

Nasenbaer
2011-03-26, 13:51:48
Was ist ein "objektiver Mehrwert"? Ich halte wenig von HW-PhysX, aber beispielsweise die Zusatzeffekte in Sacred 2 finde ich klasse und diese sind unbestreitbar ein optischer Mehrwert.
Hmm doof formuliert. Ich meinte eher einen spielerischen Mehrwert. Ob die optische Sachen für einen persönlich ausschlagebend ist, muss jeder selbst wissen aber es bringt im Normalfall keine "neue" spielerische Erfahrung. Will sagen, dass das Fehlen der Effekte eigentlich bisher nie so stark war, dass es wirklich in Gewicht fiel. Ein Schmankerl ja, aber mehr auch nicht.

N0Thing
2011-03-26, 15:39:40
Mir haben auch schon die zusätzlichen Effekte in Batman teilweise sehr gut gefallen, besonders in den Scarecrow-Leveln hat das ganze viel Stimmung gebracht.
Ich finde PhysX nicht perfekt und es wird leider auch nicht in jedem Spiel gut integriert, aber es ist möglich und dort wo es gut umgesetzt wurde, hat man als Spieler durchaus etwas davon.

Nasenbaer
2011-03-26, 16:54:53
Mir haben auch schon die zusätzlichen Effekte in Batman teilweise sehr gut gefallen, besonders in den Scarecrow-Leveln hat das ganze viel Stimmung gebracht.
Ich finde PhysX nicht perfekt und es wird leider auch nicht in jedem Spiel gut integriert, aber es ist möglich und dort wo es gut umgesetzt wurde, hat man als Spieler durchaus etwas davon.
Das will ich auch nicht schlecht reden aber man würde das Spiel wohl nur unwesentlich anders empfinden ohne die Effekte. Es sind halt eye-catcher und mehr nicht. Der aha-Effekt wie bspw. bei Half-Life 2 (damals war Physik in Spielen ja noch neu), wo man Steine auf ne Wippe legen musste oder den Auftrieb leere Fässer im Wasser nutzen konnte um Rätsel zu lösen, der bleibt bei den grafischen Spielereien eher aus.

mapel110
2011-03-26, 16:58:00
Das will ich auch nicht schlecht reden aber man würde das Spiel wohl nur unwesentlich anders empfinden ohne die Effekte. Es sind halt eye-catcher und mehr nicht. Der aha-Effekt wie bspw. bei Half-Life 2 (damals war Physik in Spielen ja noch neu), wo man Steine auf ne Wippe legen musste oder den Auftrieb leere Fässer im Wasser nutzen konnte um Rätsel zu lösen, der bleibt bei den grafischen Spielereien eher aus.
Und? Ist doch völlig logisch, dass sich PhysX nicht ins Gameplay einmischen kann, weils sonst Radeon-User ja gar nicht spielen könnten.

Nasenbaer
2011-03-26, 17:04:05
Und? Ist doch völlig logisch, dass sich PhysX nicht ins Gameplay einmischen kann, weils sonst Radeon-User ja gar nicht spielen könnten.
Darum ging es mir doch gerade:
Hmm doof formuliert. Ich meinte eher einen spielerischen Mehrwert. Ob die optische Sachen für einen persönlich ausschlagebend ist, muss jeder selbst wissen aber es bringt im Normalfall keine "neue" spielerische Erfahrung. Will sagen, dass das Fehlen der Effekte eigentlich bisher nie so stark war, dass es wirklich in Gewicht fiel. Ein Schmankerl ja, aber mehr auch nicht.

Solange die Konsolen nicht die gleiche Leistung bieten wird nab GPU-Physik erstens nur vereinzelt in Spielen finden und zweitens dann auch nur für grafische Effekte. Besteht eine gemeinsame Basis, dann kann man auch darüber nachdenken ob man je nach Spiel die Grafik nicht voll ausreizt und dafür lieber gameplay-relevante Physik-Effekte über die freie GPU-Power umsetzt.

PCGH_Carsten
2011-03-26, 17:53:26
Das will ich auch nicht schlecht reden aber man würde das Spiel wohl nur unwesentlich anders empfinden ohne die Effekte. Es sind halt eye-catcher und mehr nicht. Der aha-Effekt wie bspw. bei Half-Life 2 (damals war Physik in Spielen ja noch neu), wo man Steine auf ne Wippe legen musste oder den Auftrieb leere Fässer im Wasser nutzen konnte um Rätsel zu lösen, der bleibt bei den grafischen Spielereien eher aus.

Prinzipiell gebe ich dir da recht, auch wenn Gameplay-relevante Physik in Half-Life 2 schon mindestens sechs Jahre alt war, wenn wir uns auf die 3D-beschleunigte Ära beziehen.

Nasenbaer
2011-03-26, 18:02:04
Prinzipiell gebe ich dir da recht, auch wenn Gameplay-relevante Physik in Half-Life 2 schon mindestens sechs Jahre alt war, wenn wir uns auf die 3D-beschleunigte Ära beziehen.
Ok dann spielt mir meine Erinnerung wohl einen Streich. Bei welchen bekanteren Spielen ging das denn los?

PCGH_Carsten
2011-03-26, 18:04:47
Bei mir stellte sich der A-ha-Effekt beim eher erfolglosen, aber immerhin durch seine Jurassic-Park-Lizenz bekannten Trespasser (http://en.wikipedia.org/wiki/Trespasser_%28computer_game%29) ein.

Mars81
2011-03-26, 18:05:25
Prinzipiell gebe ich dir da recht, auch wenn Gameplay-relevante Physik in Half-Life 2 schon mindestens sechs Jahre alt war, wenn wir uns auf die 3D-beschleunigte Ära beziehen.

Wenn wir mal auf die pre-3D Zeit blicken auch schon etwas länger. Ich sag nur Lunar Lander ;)

PCGH_Carsten
2011-03-26, 18:09:07
Dann biete ich mal Tennis for Two. :P

Nasenbaer
2011-03-27, 14:46:54
Bei mir stellte sich der A-ha-Effekt beim eher erfolglosen, aber immerhin durch seine Jurassic-Park-Lizenz bekannten Trespasser (http://en.wikipedia.org/wiki/Trespasser_%28computer_game%29) ein.
Ahh ja das Spiele habe ich geliebt. War voller Macken und die Gummihand machte einen wahnsinning aber ja, die Physik verblüffte mich damals auch. Das hatte ich wirklich vollkommen verdrängt. :smile:

LovesuckZ
2011-05-13, 09:27:55
Das neue Alice unterstützt GPU-PhysX: http://www.geforce.com/#/News/articles/560-game-previews-page2

Schaffe89
2011-05-13, 13:08:57
Mich würde interessieren welche Effekte nun genau von GPU- Physx unterstützt werden.
Anscheinend sinds ja nur die Blätter, die komischen Insekten und lichkreise, oder noch mehr?

y33H@
2011-05-13, 13:18:19
All das, was man halt auf den Bildern und im Video sieht :rolleyes: alles andere ist tba.

Blediator16
2011-05-13, 15:01:52
Erzähl mir jemand, dass das ohne PhysX nie und nimmer möglich wäre...sieht sowieso beschissen aus.

LovesuckZ
2011-05-13, 15:20:51
Erzähl mir jemand, dass das ohne PhysX nie und nimmer möglich wäre...sieht sowieso beschissen aus.

Doch, hier. :freak:
Ich würde dir ja die ganzen Spiele mit solchen Effekten zeigen, die auf der CPU laufen, aber da gibt es leider nichts. :rolleyes:

LovesuckZ
2011-06-16, 21:53:06
/edit: Bitte löschen.

Nasenbaer
2011-06-16, 23:32:42
GPU-PhysX in Alice: http://www.geforce.com/#/News/articles/physx-in-alice-madness-returns
Das Video ganz unten stellt die Realität mal wieder ganz falsch dar. Kennt jemand vielleicht Super Mario Sunshine? Da wurde auch viel mit solche Sauce rumgesaut. Sicherlich nicht physikalisch korrekt aber plausibel. Hier wird es aber wieder so dargestellt, als ob für die Sauerei mit dem quecksilber-ähnlichen Zeug zwingend ne GPU notwendig wäre ... Für plausible Effekte sicher nicht - für physikalisch korrekte Simulation der Suppe womöglich schon aber ist das notwendig für das Spielerlebnis? Bestimmt nicht!!

LovesuckZ
2011-06-16, 23:42:54
/edit: Bitte löschen.

Screemer
2011-06-16, 23:52:40
das video von alice hat mich eher schockiert als bewegt. selten so einen mist gesehen. der hammer war aber die soße die beim durchlaufen schön zur seite spritzt und dann verschwindet und einen fußweg hinterlässt.

p.s.: lz hast du eigentlich jeden nv-thread aboniert und bekommst direkt ne emailbenachrictung damit du auf eventuell andergläubige eindreschen kannst?

LovesuckZ
2011-06-17, 00:01:29
p.s.: lz hast du eigentlich jeden nv-thread aboniert und bekommst direkt ne emailbenachrictung damit du auf eventuell andergläubige eindreschen kannst?

Wolfenstein 3D hat auch "plausible Effekte": Ich schieße auf jemanden und sehe Mündungsfeuer sowie Blut. Besser geht es eigentlich nicht. Trotzdem wünscht sich niemand diese "plausiblen Effekte" zurück.

Knuddelbearli
2011-06-17, 01:32:41
davon ab das die quali des videos wirklich grauenhaft ist und auch die spielgrafik eher mau ist ( die gpu leistung von physikx hätten sie lieber in bessere bild quali investiert .... ) sieht man auch wie das non physikx bewusst verschlechtert wird, auch mit cpu wären ähnliche sachen möglich vor allem das mit den zerspringenden bodenplatten und vor allem cpu leistung hat man in so einem game mehr als genug

w0mbat
2011-06-17, 01:39:43
genau, lächerliche effekte, die jeder dual-core aus dem jahre 2006 kann, jetzt gegen geld nur auf nvidia gpus ist ein extremer fortschritt. so macht man den markt kaputt...

LovesuckZ
2011-06-17, 01:44:38
genau, lächerliche effekte, die jeder dual-core aus dem jahre 2006 kann, jetzt gegen geld nur auf nvidia gpus ist ein extremer fortschritt. so macht man den markt kaputt...

Jap. Und wie man den Markt kaputt macht. Die ganzen physikalisch korrekt berechneten Effekte zwischen 1992-2006 gibt es heute nur noch mit nVidia-GPUs zu sehen. Z.B. nicht verschwindene Debris, Fluid-Simulation, Cloth-Simulation. Was für ein Dreck. :freak:

Es ist schon genial, dass trotz nicht vorhandener Existenz in Spielen die Leute glauben, es wäre mit einer x86 CPU möglich. Aber es soll auch Leute geben, die glauben an die Existenz von Gott, Aliens und toller BQ auf AMD Karten. ;D

Ich vergesse immer wieder, dass in diesem Forum es nonsens ist, über nVidia und Techniken zu reden.