PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX im Jahr 2018


RaumKraehe
2018-06-08, 16:05:05
Vor Jahren wurde ja der PhysX Hype durch das Dorf gejagt und den Ansatz fand ich grundsätzlich interessant. Nun bin ich mal in der Situation das ich in der Tat noch eine GTX 760 rumliegen habe, aber kein Board mit 2 Steckplätzen.

Da ich nun aber auch mein Board und die CPU upgraden möchte dachte ich über ein Board mit 2 Steckplätzen nach und frage mich nun: Gibt es PhysX überhaupt noch? Gibt es noch Spiele die das nutzen? Bringt das überhaupt noch was oder wird das eh auf einem Kern der CPU quasi nebenbei berechnet.

Macht das alles überhaupt noch Sinn oder ist es dann nur ein weiterer Stromfresser?

Erfahrungen wären nett. :)

DrumDub
2018-06-08, 16:13:06
probiers aus. für physx reicht auch nen pcie 1x steckplatz.

Nightspider
2018-06-08, 16:14:53
Jetzt wo wir 16-32 CPU Kerne kriegen brauchen wir tatsächlich kein PhysX mehr. :ulol:

N0Thing
2018-06-08, 16:25:59
Es kann auch sein, dass eine alte Grafikkarte die Berechnungen eher ausbremst, anstatt sie zu beschleunigen, wenn man es mit einer einzelnen aktuellen Gaming-Karte vergleicht. Welche aktuellen Spiele bieten eigentlich noch PhysX@GPU an? Ist das nicht inzwischen in ein Gameworks-Paket integriert worden?

exxo
2018-06-10, 20:56:44
Der neuste Titel den nVidia listet ist Witcher 3:

https://www.geforce.com/hardware/technology/physx/games

Wobei die Information fehlt ob es sich um GPU oder CPU physX handelt.

Witcher 3 ist mittlerweile drei Jahre alt - es sieht so aus als wenn diese Technik tot ist.

Der nächste properitäre Kram von nVidia den niemand vermissen wird ist G-Sync :biggrin:

Raff
2018-06-10, 23:00:50
Das ist CPU-PhysX. Die Engine kommt bei vielen Spielen zum Einsatz, aber nur ein Bruchteil macht von den Zusatzfunktionen inkl. GPU-Beschleunigung Gebrauch. Die beeindruckendste Implementierung bietet Batman: Arkham Knight (ebenfalls 2015).

MfG,
Raff

RaumKraehe
2018-06-10, 23:02:00
Das ist CPU-PhysX. Die Engine kommt bei vielen Spielen zum Einsatz, aber nur ein Bruchteil macht von den Zusatzfunktionen inkl. GPU-Beschleunigung Gebrauch. Die beeindruckendste Implementierung bietet Batman: Arkham Knight (ebenfalls 2015).

MfG,
Raff

In dem Sinne macht es heute kein Sinn mehr dafür eine dedizierte GPU zu verwenden?

Birdman
2018-06-10, 23:13:44
Hat es überhaupt je Sinn gemacht?
Dedizierte PhysiX GPU war doch mehr ein Marketing-Stunt von nVidia als was anderes.
Man darf imho sogar über den Sinn oder Unsinn (oder besser dem Nutzen) von GPU PhysiX im allgemeinen sprechen...ich habe jedenfalls nie viel daon gesehen.

gravitationsfeld
2018-06-10, 23:23:00
Unreal Engine 4 macht alle Kollisionserkennung mit PhysX. Benutzt halt den GPU-Kram nicht, deshalb redet keiner darueber :)

Troyan
2018-06-10, 23:25:27
Hat es überhaupt je Sinn gemacht?
Dedizierte PhysiX GPU war doch mehr ein Marketing-Stunt von nVidia als was anderes.
Man darf imho sogar über den Sinn oder Unsinn (oder besser dem Nutzen) von GPU PhysiX im allgemeinen sprechen...ich habe jedenfalls nie viel daon gesehen.

Spiel Batman Arkham Asylum und schaut dir den dynamischen Nebel an. Das Spiel ist 9(!) Jahre alt.

RaumKraehe
2018-06-10, 23:27:56
Die Frage ist ja: macht es heute noch Sinn. 9 Jahre alte Spiele sind nicht auf meinem Plan. ;)

Ich hatte gehofft das man dadurch z.B. VR-Anwendungen noch etwas unterstützen kann.

Troyan
2018-06-10, 23:29:51
"Heute" gibt es kein "GPU-PhysX" mehr. Rauch wird z.B. mit nVidias Flow umgesetzt.

Daher: Nein, heute macht es kein Sinn mehr irgendwas für PhysX zu kaufen. Außer du willst eben die älteren Spiele zocken.

Mr. Lolman
2018-06-11, 07:16:41
Spiel Batman Arkham Asylum und schaut dir den dynamischen Nebel an. Das Spiel ist 9(!) Jahre alt.

...und hat mit dem Physx Hack sehr gut auf der CPU funktioniert.

Raff
2018-06-11, 09:16:12
Das deutlich feschere Arkham Knight aber nicht. ;) Ich fand die Raucheffekte durchaus beeindruckend.

MfG,
Raff

gnomi
2018-06-11, 10:27:40
Die Effekte waren immer vergleichsweise sehr teuer.
Im Nachhinein mit einer besseren GPU und genug Leistung bei ordentlichen Frametimes genossen, sieht es trotzdem dann teils noch echt toll aus.
Zum Beispiel bei Mafia 2 oder Arkham Knight.
Vieler dieser Konsolen Games wollte man eben ein wenig aufhübschen, was ja auch ganz nett ist.
Reine Effektphysik und generell bessere Grafik macht aber eben mehr Sinn als so aufgesetzte Zusatzeffekte.
In der aktuellen Generation geht es eher um mehr Auflösung, bessere Texturen und weniger Aliasing. Und natürlich darum, ein Spiel Budget gerecht und schnell für viele Plattformen zu entwickeln...

Dural
2018-06-11, 10:56:44
In der Zeit als GPU PhysX aktuell war hatte ich immer eine zweit GPU nur für das im System.

Was vergleichbares suchte man damals weit und breit vergebens. Ich fand es toll, den es war das erste mal wo den Spielen richtig Leben eingehaucht wurde, wobei die Umsetzung nicht immer wirklich gut war. Technisch hätte man wirklich gute Lösungen bringen können, aber für die wenigen die seperate PhysX Beschleuniger hatten rentierte das wohl nicht so gross, schade!

@exxo
Einige Firmen machen wenigstens was für ihre Kunden, nicht so wie andere die sich erst bewegen wenn der Mitbewerber was vorgestellt hat und dann schnell was zusammen basteln das Monate lang nicht richtig läuft... :rolleyes:

Mr. Lolman
2018-06-11, 12:29:34
Das deutlich feschere Arkham Knight aber nicht. ;) Ich fand die Raucheffekte durchaus beeindruckend.

MfG,
Raff

Es ist aber trotzdem nichts, welches unbedingt auf eine proprietäre API aufsetzen müsste. Da gibts (und gabs auch damals schon) genügend Alternativen.

pilzsammler2002
2018-06-11, 12:30:19
In der Zeit als GPU PhysX aktuell war hatte ich immer eine zweit GPU nur für das im System.

Was vergleichbares suchte man damals weit und breit vergebens. Ich fand es toll, den es war das erste mal wo den Spielen richtig Leben eingehaucht wurde, wobei die Umsetzung nicht immer wirklich gut war. Technisch hätte man wirklich gute Lösungen bringen können, aber für die wenigen die seperate PhysX Beschleuniger hatten rentierte das wohl nicht so gross, schade!

@exxo
Einige Firmen machen wenigstens was für ihre Kunden, nicht so wie andere die sich erst bewegen wenn der Mitbewerber was vorgestellt hat und dann schnell was zusammen basteln das Monate lang nicht richtig läuft... :rolleyes:

Wirklich? Nvidia und Kundenorientiert? XD

Ich fand es damals schade als Physx gekauft wurde und Nvidia "only" wurde....

deekey777
2018-06-11, 12:53:32
So viel Halbwissen hier...

RaumKraehe
2018-06-11, 12:56:52
Dann klär uns doch auf.

HisN
2018-06-11, 12:57:02
http://www.physxinfo.com/index.php?p=gam&f=gpu

Wird leider seit letztem Jahr auch nicht mehr gepflegt.
Die Liste auf der NV-Seite ist relativ nutzlos, da ja alle Projekte die das SDK verwenden aufgelistet sind, und nicht explizit die, die HW-Gestützt laufen.
Bei PhysXinfo konnte man wenigstens noch nach Plattform und HW filtern.
46 Games vor 12 Monaten, ist natürlich .. wie schon vor 9 Jahren. Relativ lächerlich.
Aber Deine "kleine" Graka ist es leider auch.

Das muss man ein bisschen differenzierter sehen, als nur "einbauen oder nicht".

Mal ein kleines Beispiel.


Batman-AK Retail-Version-Test mit etwas, über das man nachdenken könnte, wenn man das nächste mal die Frage stellt "welche Graka reicht aus".


3840x2160 (Bewegungsunschärfe, Antialiasing, Chromatic AB, Grain OFF) PhysX komplett


Titan X (Maxwell) 1468/3500 + Ti750 dediz. PhysX


41 - 80 - 55


Titan X 1468/3500


34 -66 -48


Was so eine super schwächliche PhysX-Karte in diesem Fall ausmacht ... kaum zu glauben.



1920x1080 Alles volle Pulle


Titan X (Maxwell) 1468/3500 + 750ti dediz. PhysX


44 - 150 - 93


Titan X 1468/3500


56 - 145 - 100


In der Mini-Auflösung wird die Titan X ganz klar von der PhysX-Karte ausgebremst.


Was bedeutet: Wenn die PhysX-Karte nicht entweder relativ stark im Vergleich zur Hauptkarte ist, oder die Auflösung so hoch ist, das die Hauptkarte sie sowieso nicht mit links bewältigt, sollte man sich schon relativ genau überlegen, was man da macht.

deekey777
2018-06-11, 13:07:43
Dann klär uns doch auf.
Worüber soll ich denn aufklären, wenn seit 2005 immer noch nicht kapiert wird, dass PhysX eine Physik-Engine wie Havok war, die von NovodeX in PhysX umbenannt wurde. NovodeX wurde von Ageia 2002 übernommen, 2005 kam dann die Ageia PhysX-Steckkarte mit der PPU, die zusätzliche Physik-Effekte errechnte, die auf das Spielgeschehen keinen Einfluss hatte und eigentlich hat. Sonst lief und läuft alles auf der CPU. 2008 übernahm Nvidia Ageia und lagerte die zusätzlichen Effekte auf die eigenen Grafikkarten aus, die sonst auf der PPU oder (sehr langsam bzw. extrem lansam) auf der CPU liefen. Daraus entwickelte sich Apex.

Es ist einfach Quatsch zu schreiben, das PhysX "Nividia only" nach dem Kauf von Ageia wurde.

Ex3cut3r
2018-06-11, 14:49:08
Fand die Effekte in Mirrors Edge, Mafia 2 usw. sehr toll damals. Leider war die GTX 260 zu schwach um auch wirklich so Titel vom Anfang bis zum ende durchzuspielen. Aber fürs kleine aktiveren zum testen/anschauen war es genug.

Nächstes Jahr wir Mirrors Edge 1 auch schon wieder 10 Jahre alt, ach wie die Zeit vergeht. :usad:

pilzsammler2002
2018-06-11, 15:06:08
Es ist einfach Quatsch zu schreiben, das PhysX "Nividia only" nach dem Kauf von Ageia wurde.
Ich habe das only deshalb in Anführungszeichen gesetzt :)

deekey777
2018-06-11, 15:11:11
Ich habe das only deshalb in Anführungszeichen gesetzt :)
Und trotzdem ist es falsch.

Die Spielphysik war nie eingeschränkt (jaja, jetzt kommt einer mit Metro und der Handgranate), während die Effektephysik von Anfang an exklusiv* war: zunächst PPU-exklusiv, dann eben Nvidia-exklusiv. Und Nvidia führt diese Politik weiter.

Sprich: Dieser Einwand ist total unberichtigt und falsch.


*Ich weiß, dass die zusätzlichen Effekte in GRAW 2 sich auf CPUs aktivieren ließen, genau wie in Batman AA.

Dural
2018-06-11, 16:51:15
Wirklich? Nvidia und Kundenorientiert? XD

Ich fand es damals schade als Physx gekauft wurde und Nvidia "only" wurde....

Vor dem NV die gekauft haben hat die separaten PhysX Beschleuniger doch kein Mensch interessiert!? Zudem waren die ziemlich teuer und basierten noch auf der GeForce4 Architektur (Wenn es mir recht ist?)

Und ja, NV ist sehr Kundenorientiert, ich würde sogar behaupten dass es ohne NV das heutige PC Gaming längst tot wäre. Natürlich machen die das im eigenen Interesse, aber das ist völlig legitim!

HisN
2018-06-11, 17:22:05
<-- hatte sich das Ageia-Ding damals EXTRA für GR angeschafft. Nerd halt.
Ich fühle mich als niemand :-)

pilzsammler2002
2018-06-11, 17:40:33
Vor dem NV die gekauft haben hat die separaten PhysX Beschleuniger doch kein Mensch interessiert!? Zudem waren die ziemlich teuer und basierten noch auf der GeForce4 Architektur (Wenn es mir recht ist?)

Und ja, NV ist sehr Kundenorientiert, ich würde sogar behaupten dass es ohne NV das heutige PC Gaming längst tot wäre. Natürlich machen die das im eigenen Interesse, aber das ist völlig legitim!

What? Das ist jetzt aber weit aus dem Fenster gelehnt... Man könnte genauso gut sagen es wäre tot wenn es AMD nicht gäbe...
Sehr Spekulativ :)

=Floi=
2018-06-11, 20:48:27
Hat sich physx mal auf einem Ryzen oder treadripper angeschaut?

RaumKraehe
2018-06-18, 13:38:39
Nach dem ich nun hier rausgelesen habe das PhysX mehr oder weniger als dedizierte Beschleunigung tot ist, bin ich gestern auf einen Eintrag eines recht neueren Games gestoßen das explizit PhysX unterstützt und sogar dazu rat, um Performance Verbesserungen zu bekommen damit rumzuspielen oder gar eine GraKa dafür einzubauen.

Und zwar "Onward" für Oculus/Vive.

Leider habe ich keine Schimmer wo Onward PhysX nutzen sollte. Der ausgestoßene Atem? Und wie ich testen könnte ob es was bringt.

Onward PhysX settings

Onward uses a lot of physics via PhysX and this can potentially present performance problems. If you have an NVIDIA GPU you can offload the PhysX processing to the GPU where it is done at much higher speed than can be done on a CPU. To access this setting open up the NVIDIA Control Panel, go to 3D Settings, Configure Surround, PhysX and there should be a dropdown menu on the right half of the page. It is titled PhysX settings and you can select your CPU or GPU for your PhysX processor. Select your GPU and then apply and close this window.

exxo
2018-06-23, 21:10:52
PhysX war von Anfang an ein krummes Ding. Erst gab es diese teure und fast nirgends unterstützen PCIe Karte. Dann hat nVidia die APi gekauft und Geforce Only gemacht. Als findige Leute auf die Idee gekommen sind eine GTS620 als PhysX Beschleuniger parallel zu einer AMD Karte zu verwenden hat nVidia dies in ihrem Treiber gesperrt. Arschlochfirma *SCNR*


@exxo
Einige Firmen machen wenigstens was für ihre Kunden, nicht so wie andere die sich erst bewegen wenn der Mitbewerber was vorgestellt hat und dann schnell was zusammen basteln das Monate lang nicht richtig läuft... :rolleyes:

Aha. Man denke an nVidia SLI das bis heute nicht mit jedem Spiel reibungslos läuft... :biggrin:

Kartenlehrling
2018-06-23, 21:45:07
Am Besten kann man PhysX Entwicklung an der Batman Reihe sehen,


Batman: Arkham Asylum funktioniert mit extra Karte bestens
Batman: Arkham City funktioniert mit extra Karte bestens
Batman: Arkham Origins, hier kommt Apex-Turbulence dazu, AMD+PhsyX funktioniert nur teilweise.
Batman: Arkham Knight, werden noch mehr PhysX entfernt bzw. in Gameworks umgewandlt,
AMD+PhsyX funktioniert nicht mehr und selbst CPU-PhysX wird teitweise abgeschaltet.

dargo
2018-06-23, 22:06:33
Ich nehme an du meinst mit PhysX gpu-beschleunigte Effekt-Physik. Diese ist schon lange tot.

Kartenlehrling
2018-06-23, 22:21:23
Das problem war wohl die Apex engine konnte oder man wollte sie nicht weiter verbessern,
GPUs die schneller als die gtx980 sind werden ausgebremst, am Ende waren es sogar >70%.

HisN
2018-12-03, 16:12:58
Und Opensource

https://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Open-Source-PhysX

DeadMeat
2018-12-03, 17:06:33
Und Opensource

https://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Open-Source-PhysX


Da bin ich ja mal gespannt ob es was ändert, ich finde eine gescheite Physik Engine im Spiel Grundsätzlich viel spannender als die aktuelle Raytracing Diskussion.
Selbst eine simple Interaktion wie in Breath of the Wild liegt Meilen über dem was RT bieten könnte fürs Gameplay.

TGKlaus
2018-12-03, 22:22:12
Tja, kommt ja jetzt so verdammt unerwartet. :freak:


Wie bei jedem toten MMO. Die werden auch auf F2P umgestellt. ;D

Shaft
2018-12-03, 22:34:50
Ich nehme an du meinst mit PhysX gpu-beschleunigte Effekt-Physik. Diese ist schon lange tot.


Tja, ich hoffe das die hiermit wiederbelebt werden.

TGKlaus
2018-12-03, 22:40:03
Ich nicht, die Umsetzung auf der GPU war sehr ineffizient. (Und eigentlich auch nur ein Marketinggag für ein an den Haaren herbeigezogenes "Alleinstellungsmerkmal" für Nvidiakarten.)

Monsta
2018-12-03, 22:56:00
Das ist ja ein Geck, den Schrott machen die Open Source, die sollten sich lieber mal um Ihren Gpu Teiber kümmern. Obwohl ist mir egal, kaufe ich eh nicht mehr.

gravitationsfeld
2018-12-03, 23:14:33
Tja, kommt ja jetzt so verdammt unerwartet. :freak:


Wie bei jedem toten MMO. Die werden auch auf F2P umgestellt. ;D
Dir ist schon klar, dass Unity und Unreal PhysX benutzen? Und zwar exklusiv.

Das allein sind wahrscheinlich schon >50% der Spiele am Markt. Und es gibt noch tausende mehr, wo es einfach nicht auf der Box steht.

Das ist ja ein Geck, den Schrott machen die Open Source, die sollten sich lieber mal um Ihren Gpu Teiber kümmern. Obwohl ist mir egal, kaufe ich eh nicht mehr.
CPU PhysX ist der schnellste Solver am Markt. Nichts daran ist "schrott".

TGKlaus
2018-12-03, 23:25:56
Dir ist schon klar, dass Unity und Unreal PhysX benutzen? Und zwar exklusiv.

Das allein sind wahrscheinlich schon >50% der Spiele am Markt. Und es gibt noch tausende mehr, wo es einfach nicht auf der Box steht.


Lern zwischen GPU und CPU zu unterscheiden, dann können wir nochmal reden!



CPU PhysX ist der schnellste Solver am Markt. Nichts daran ist "schrott".

Sagte ich schon: Lern zwischen GPU und CPU zu unterscheiden, dann können wir nochmal reden!

CPU PhysX ist schon seit Jahren "frei", darum geht es in der Meldung überhaupt nicht!

Nazar
2018-12-03, 23:28:44
Vor dem NV die gekauft haben hat die separaten PhysX Beschleuniger doch kein Mensch interessiert!? Zudem waren die ziemlich teuer und basierten noch auf der GeForce4 Architektur (Wenn es mir recht ist?)

Und ja, NV ist sehr Kundenorientiert, ich würde sogar behaupten dass es ohne NV das heutige PC Gaming längst tot wäre. Natürlich machen die das im eigenen Interesse, aber das ist völlig legitim!

Ninja-Ironie? :confused:
Ansonsten :facepalm:
Ich behaupte, dass nV die Entwicklung der Spiele stark ausgebremst hat, weil sie die GPU Preise künstlich hoch halten und ständig exklusive Entwicklungen tätigen, die zu künstlichen Grabenkämpfen führten und immer noch führen.

BTW ist PhysX nun Open Scource! :rolleyes:
https://www.guru3d.com/news-story/nvidia-physx-engine-now-is-open-source.html
Seit Jahren frei.. das ich nicht lache... so wie man nV es derart gestaltet hat, dass wenn einen AMD GPU im System gefunden wurde, die HW Physx Beschleunigung deaktiviert wurde? Klare Kundenorientierung... oh man, was rauchen hier einige nur? :freak:

SKYNET
2018-12-03, 23:38:41
Und ja, NV ist sehr Kundenorientiert, ich würde sogar behaupten dass es ohne NV das heutige PC Gaming längst tot wäre.


sag mal, glaubt du den shice den du ablässt eigentlich selber? spätestens seit turing sollte dir klar sein das sie definitiv nicht im kundensinne handeln(preis-leistung)....

Unicous
2018-12-03, 23:43:11
Könnt ihr euch noch erinnern... vor 3 Jahren als einige ganz Schlaue hier behauptet haben, PhysX wäre jetzt "open source" und es ihnen völlig egal war, dass diese "Source" hinter einer EULA lag?

Ich schon.:freak:

Ich finde es im übrigen nicht schön, dass Nvidia ein totes Pferd durch die Manege zieht und der Meute zum Draufhauen anbietet. Diesen Schritt hätten sie vor vielen, vielen Jahren gehen sollen. Jetzt ist es meiner Meinung nach "too little too late".

Das einzig interessante ist, dass GPU-PhysX jetzt auch open source ist. Aber ob das überhaupt noch jemanden tangiert muss sich erst noch zeigen.

Ein neues SDK wird am 20.12. veröffentlicht:

https://news.developer.nvidia.com/announcing-physx-sdk-4-0-an-open-source-physics-engine/

Screemer
2018-12-03, 23:44:28
Lern zwischen GPU und CPU zu unterscheiden, dann können wir nochmal reden!
Ich glaub als Senior engines programmer bei einem der größten Studios der Welt, kann er zu dem Thema unter Garantie mehr beitragen als du.

TGKlaus
2018-12-04, 00:05:42
1. Ich denke die Rechtsabteilung eines der größten Meditec Herstellers kann das besser einschätzen als jemand von nem Gamingstudio.

gravitationsfeld
2018-12-04, 00:06:03
Lern zwischen GPU und CPU zu unterscheiden, dann können wir nochmal reden!
Als ob mir das nicht klar waere. Frechheit.

CPU PhysX ist schon seit Jahren "frei", darum geht es in der Meldung überhaupt nicht!
Und doch, darum geht es. Haettest du die Github-Seite angeschaut wuesstest du dass die Lizenz von PhysX inklusive dem CPU-Solver in BSD-3 gewechselt hat.

Screemer
2018-12-04, 00:08:16
@TGKlaus: Genug Gift verspritzt? Informieren dich einfach, bevor du anderen irgendwas in den Mund legst.

Seit dem du im 3dc postet ist das Niveau noch Mal ein gutes Level gesunken. Nur noch dummes angeflame von jeder Seite.

TGKlaus
2018-12-04, 00:08:31
Was meinst du, warum das "frei" in Gänsefüßchen steht?!

gravitationsfeld
2018-12-04, 00:10:28
Wenn dir das alles so bewusst ist, was sollen dann deine schnippischen Beitraege die implizieren, dass PhysX "tot" waere?

Das Ding hat einen riesigen Marktanteil.

BSD ist viel freier als keine Lizensgebuehren. Auch das weisst du.

TGKlaus
2018-12-04, 00:49:43
Wenn dir das alles so bewusst ist, was sollen dann deine schnippischen Beitraege die implizieren, dass PhysX "tot" waere?

Ich bezog mich rein auf die GPU Beschleunigung im Gamingbereich, der ja konsolendominiert ist. (Ja, das ist nicht mein Fachbereich, wenn ich hier falsch liege sags.)



Das Ding hat einen riesigen Marktanteil.


Ja, hat es. Abseits von "normalen PCs" steckt es mittlerweile in Produkten drin, an die wohl kaum einer direkt denkt.



BSD ist viel freier als keine Lizensgebuehren. Auch das weisst du.

Ja. Und trotzdem/ gerade deswegen wird es reges Treiben bei legal verursachen.

gravitationsfeld
2018-12-04, 00:57:42
Ja, um GPU-PhysX ist es ruhig geworden, aber ich glaube irgendwie nicht dass das der Grund war warum NVIDIA auf BSD umgewechselt ist. Das les ich so aus ihrer Begruendung nicht raus.

TGKlaus
2018-12-04, 01:03:22
Der Spruch zu Creation Engine war überreagiert meinerseits, ich hab das mal rausgenommen.

gravitationsfeld
2018-12-04, 01:07:32
Hat auch absolut nichts mit mir zu tun. Einfach nur unter der Guertellinie.

=Floi=
2018-12-04, 03:39:30
dachte man liest hier was gutes zum thema. Die nv news ist ja richtiug gut. Hört sich so an, wie wenn man endlich auch größere sachen überarbeitet.

ich bin gespannt, wann es amd unterstützt.

Dural
2018-12-04, 10:14:31
Komisch das ein posting am 11.06.2018 von mir dank Turing heute komplett bestätigt wurde. :biggrin:

NV ist für die PC Gamer da, sie bringen ständig neue Sachen. Ohne NV wäre PC Gaming längst tot. Selbst die Marktanteile bei den PC-Spieler sprechen Bände.

Zu PhysX gibt es eigentlich nicht viel zu sagen, GPU PhysX ist in Spiele ja schon lange tot. Der CPU Teil wird noch eine lange Zeit nutzbar bleiben, die CPU treiben heute mit den vielen Kernen ja so wie so nur Däumchen in den Spielen.

Godmode
2018-12-04, 10:26:46
Version 4.0 soll bald kommen:

K1rotbzekf0

pilzsammler2002
2018-12-04, 11:05:23
NV ist für die PC Gamer da, sie bringen ständig neue Sachen. Ohne NV wäre PC Gaming längst tot. Selbst die Marktanteile bei den PC-Spieler sprechen Bände.

Etwas weit hergeholt, man könnte genauso sagen das aktuell dank der Preise Nvidia Leute eher vom PC gaming weg zu Konsolen bzw. ihrem Streamingdienst (intended?) schiebt... :freak:

deekey777
2018-12-04, 11:13:10
Ja, um GPU-PhysX ist es ruhig geworden, .

Ist es wirklich so? Es hieß (insbesondere von den üblichen Verdächtigen), dass sich daraus ApeX entwickelt hat, wo jetzt verschiedene Simulationen inbegriffen sind. Oder setzen die Spieleentwickler diesbezüglich auf eigene Lösungen?

Troyan
2018-12-04, 13:07:36
GPU-Physx gibt es nicht mehr. Die Bereiche davon sind in Flex und Flow aufgegangen.

pixeljetstream
2018-12-04, 13:36:00
Historie: PhysX -> Apex -> dedizierte gameworks libraries (flex, blast...)

gravitationsfeld
2018-12-04, 15:58:08
Wobei Flex und Flow "strictly prohibited for reuse without a license" sind. Meh.

Unicous
2018-12-04, 16:17:12
Keine Sorge in 10 Jahren ist es bestimmt Open Source.:wink:

Mr. Lolman
2018-12-04, 17:44:42
Dir ist schon klar, dass Unity und Unreal PhysX benutzen? Und zwar exklusiv.

Das allein sind wahrscheinlich schon >50% der Spiele am Markt. Und es gibt noch tausende mehr, wo es einfach nicht auf der Box steht.


CPU PhysX ist der schnellste Solver am Markt. Nichts daran ist "schrott".

Nachdem Multithreading nicht mehr blockiert wird, glaub ich das sogar.

aufkrawall
2018-12-04, 19:41:20
Keine Sorge in 10 Jahren ist es bestimmt Open Source.:wink:
Wird dann nur halt auch niemanden interessieren, wenn schon lange der Quellcode vergleichbarer Effekte in den Game-Engines öffentlich einsehbar ist oder sogar in FOSS-Engines wie Godot enthalten...

gravitationsfeld
2018-12-04, 20:45:09
Godot ist jetzt nicht wirklich an der Speerspitze der Features.

RaumKraehe
2018-12-05, 22:27:41
GPU-Physx gibt es nicht mehr. Die Bereiche davon sind in Flex und Flow aufgegangen.

Komisch:

https://www.heise.de/developer/meldung/PhysX-wird-Open-Source-4239421.html

Unicous
2018-12-05, 22:38:39
https://www.extremetech.com/computing/281697-nvidia-open-sources-physx-with-a-few-caveats-attached


The APEX SDK is not needed to build either the PhysX SDK nor the demo and has been deprecated. It is provided for continued support of existing applications only… The APEX SDK distribution contains pre-built binaries supporting GPU acceleration. Re-building the APEX SDK removes support for GPU acceleration.:facepalm:

The SDK is open source. The ability to run it on a GPU, on the other hand, is not. It’s not clear how much this actually matters, since the functions have been deprecated or moved to alternate sources. Regardless, it comes off badly, reading more like Nvidia thumbing its nose at stupid gamers who poke their fingers into areas where they shouldn’t be.

gravitationsfeld
2018-12-06, 02:45:25
Was ja meine Annahme bestaerkt, dass es eben nicht um GPU PhysX ging.

dildo4u
2018-12-06, 08:06:38
Wie oben geschrieben Flex und Flow wurden in eigene Module aufgelöst und die werden über DX11/12 angesprochen.

https://developer.nvidia.com/nvidia-flex-110-released


https://developer.nvidia.com/nvidia-flow


PhysX 3.4 und 4 ist eine CPU Lösung.

pilzsammler2002
2018-12-06, 08:27:28
Also ist der CPU Teil jetzt open source, der aber eh offener war da er ja auf Intel und AMD laufen musste und Nvidia ja selber keine Konkurrenz in dem Sinne hat?

deekey777
2018-12-06, 09:24:12
https://www.extremetech.com/computing/281697-nvidia-open-sources-physx-with-a-few-caveats-attached


:facepalm:
Und das heißt?

Wenn jemand auf die Idee kommt, zB GRAW 2 auf PhysX 3.4 zu aktualisieren, dann fliegt die GPU-PhysX raus oder wie?

Für einen Laien wie mich ist die Tragweite dieser Entscheidung nicht ganz klar, insbesondere ist die BSD-3 Lizenz ein Buch mit sieben Siegeln. Während UE 2 diesen Ausrutscher mit der Karma-Physik hatte, ist PhysX seit einem Jahrzeht fester Bestandteil der UE 3.0, dazu gehört PhysX zu den SDKs der PS3/4 (XDK?), oder?

Ich glaube mich zu erinnern, als damals (TM) AMD kräftig bei Bullet Physics mitmischte, was Open Source war. Seitens Nvidianer hieß es gleich, dass das PhysX-SDK für jeden verfügbar ist, der sich als Developer bei Nvidia anmeldet. Dem wurde entgegengehalten, dass das SDK nicht ausreiche, wenn man wirklich etwas Eigenes erschaffen will, dafür sei der Quellcode erforderlich, was Zehntausende US-Dollar koste; bei Bullet sei das nicht der Fall.

Denniss
2018-12-06, 09:58:53
Also wie vermutet nur ein PR-Gag seitens nvidia

gravitationsfeld
2018-12-06, 17:17:11
PhysX als BSD-Lizenz ist kein "PR Gag". Das ist ein riesen Ding fuer die Spiele-Industrie.