Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ist HW-PhysX am Sterben?


Seiten : 1 [2]

N0Thing
2011-06-17, 10:24:46
sieht man auch wie das non physikx bewusst verschlechtert wird

Kannst du da auch ein Beispiel geben, woran man das genau sehen kann?

Und vielleicht auch kurz erklären, warum man laut deiner These auch die Konsolenversion extra beschneidet, obwohl dort sowieso keine zusätzlichen Effekte via GPU möglich sind? Ist das nicht arg unwahrscheinlich?

Knuddelbearli
2011-06-17, 15:48:28
N0Thing:

Wenn ich jetzt ein Verschwörungstheoretiker wäre würde ich sagen es würd ja auffallen wenn es die Konsole plötzlich auf der CPU machen könnte ^^

und hab ja schon gesgat vor allem die zerbspringenden bodenkacheln hat man schon öfters ( ob besser trau ich mich jetzt nicht zu sagen ) mit cpu physik gesehen

Wie gesagt sehe da den Sinn nicht dahinter mom hat man ja vor allem CPU Leistung ohne Ende da man die nicht für AA ,SSAA usw verpulvern kann

LovesuckZ
2011-06-17, 15:53:51
Und wo hat man "zerbspringenden bodenkacheln" gesehen? Es wären mal Beispiele angebracht.

Screemer
2011-06-17, 15:59:57
gleich kommt ein video mit zerspringen kacheln und lz beschwert sich dann über die verschwindenden debris. lasst es also doch lieber gleich sein.

LovesuckZ
2011-06-17, 16:03:56
gleich kommt ein video mit zerspringen kacheln und lz beschwert sich dann über die verschwindenden debris. lasst es also doch lieber gleich sein.

Tja, gehört nunmal zu einem "plausiblen Effekt". ;D
Aber hey, du bist ja auch jemand der sagt: Tessellation ist unnütz, weil man ja das selbe auch mit einfachen Texturen schafft.

Naja, wenn man den Sinn von Techniken nicht versteht, muss man dann unbedingt das ganze auch kommentieren? Wobei, dieses Forum will ja solche Leute wie du. Dann vergiss den Kommentar. ;D

Screemer
2011-06-17, 16:54:34
[...]wie du.[...]
vielleicht "wie dich"? nur mal so nebenbei, der plausible effekt kam nicht von mir und wo bitte hab ich jemals behauptet dass tess durch texturen ersetzt werden kann und soll? so ein provokateur wie dich findet man wirklich selten. aber das ist doch total ot. deinen kommetar schickst du mir am besten per pm.

Nasenbaer
2011-06-17, 17:30:42
@LZ

[ ] Du hast denn Sinn hinter der Bezeichnung "plausibler Effekt" verstanden.

Aber ich versuches es mal zu erklären: Es kommt nicht auf eine physikalisch korrekte Simulation an damit es gut aussieht. Dass Crysis ne geile Graphik hat wird kaum jemand abstreiten aber ist sie physikalisch korrekt? Nein! Ist die Berechnung der Beleuchtung physikalisch korrekt? Sicher nicht, das ist in Echtzeit nicht zu leisten. Ist die Darstellung des Himmels physikalisch korrekt? Das Verfahren ist zwar physikalisch basiert aber für die Echtzeitfähigkeit sind schon so einige Anpassungen notwendig, damit die Framerate stimmt.
Ist die Zerstörung der Gebäube in BF-BC2 physikalisch korrekt? Nö, aber die wenigsten Spieler wird's stören. Solange man auf keine Show-Stopper tifft (damit meine ich Gebäude, die wegen des Gameplays unkaputtbar sind), kommen die Effekte gut rüber.

Langer Reder kurzer Sinn: Es muss nicht alles gemäß physikalischer Gesetze berechnet werden damit es gut rüber kommt.


Ich habe nicht gesagt, dass eine physikalisch korrekte Berechnung nachteilig wäre. Die Rechleistung von CPU und GPU wächst stetig - nichts spricht dagegen diese auch dafür zu verwenden. ABER sollte die CPU-Leistung zur Berechnung eines Effekte gemäß physikalischer Gesetze nicht reichen, dann spricht dennoch nichts dagegen eine Approximation der Berechnung durchzuführen um dennoch ein plausibles Ergebnis zu erreichen.
Bei den meisten PhysX-Spielen ist es dagegen so: PhysX-H/W vorhanden -> Effekt an, keine PhysX-H/W vorhanden -> gar kein Effekt. Dieser krasse Unterschied muss nicht sein. Es liegt meist genug CPU-Leistung brach, da viele Spiele ja nur noch auf die Leistung der Konsolen ausgelegt sind und nicht für PCs optimiert sind.

LovesuckZ
2011-06-17, 18:02:23
Der PC war schon immer Übertriebenheit und Fortschritt. Es er war immer Evolution statt Revolution. Man ging immer am Anfang von übertriebenen Effekten aus, weil sie einfacher zu realisieren waren. Sei es das Quecksilber in Morrowind oder das atomartige HDR in Farcry. Ich sehe in Bezug auf GPU-PhysX kein anderes Verhalten.
Was du als plausible Effekte bezeichnest, ist doch nur ein Synonym für Fake. Nichts weiteres. Und das kann wohl kaum im Sinne des PCs sein, wenn man sich mit weniger zufrieden gibt.
Denn: Reichen tun auch Konsolen.


Bei den meisten PhysX-Spielen ist es dagegen so: PhysX-H/W vorhanden -> Effekt an, keine PhysX-H/W vorhanden -> gar kein Effekt. Dieser krasse Unterschied muss nicht sein. Es liegt meist genug CPU-Leistung brach, da viele Spiele ja nur noch auf die Leistung der Konsolen ausgelegt sind und nicht für PCs optimiert sind.

Das liegt daran, dass eine Grafikkartenfirma den Fortschritt bringt. Du erwartest von nVidia, dass sie x86 unterstützen? Erwartest du auch von Intel, dass sie DX11 in Spielen pushen? Irgendwie scheint die Realität bei einigen noch nicht angekommen zu sein. Seit 2 Jahren reden wir über das selbe. Seit 2 Jahren muss man sich anhören, dass dies alles auch über die CPU möglich wäre. Und was ist? Nichts wird über die CPU gemacht. Crysis 2 hat 3 Animationen für Cloth - und nicht mal eine physikalische Berechnung, wenn Cloth und zusätzliche Masse aufeinander prallen. Mirrors Edge hat dagegen eine klasse Cloth-Simulation, die alles überragt, was es heute gibt.
Selbst im 3DMark2001 gibt es in der Max Payne Szene mehr Partikel (Patronenhülsen) zu sehen als in wohl 99% aller heutigen Spiele.

Du denkst, es gibt heute genug CPU-Leistung? Die Cloth-Simulation in Mafia 2 läuft komplett auf einem Kern. Bei durchschnittlich 4 Kernen reserviert man 25% der Rechenleistung für Cloth. 25%. Das in einem Spiel, dass ohne (GPU-)PhysX über 4 Kerne sehr gut skaliert. Und weißt du, wer am meisten darunter leidet? Die, die einen AMD Prozessor haben. Die deutlich schlechtere Pro-Mhz-Leistung gegenüber Intel führt dazu, dass man kaum vernünftige Frameraten erhält - egal ob mit AMD- oder nVidia-Grafikkarte. AMD koppelt Llano mit CPU-Kernen, die einfach nur veraltet sind. Und du willst diese zusätzlich quälen, trotz der GPGPU-fähigen iGPU?

Ich sehe einfach, dass vorallem dieses Forum darunter leidet, dass Leute Fortschritt ablehnen, wenn er von nVidia kommt. GPU-PhysX ist nicht so toll, weil es von nVidia gepusht wird, sondern weil es den meisten Zugewinn bringt. Unterstütze das selbe über x86 oder OpenCL und es wäre alles bestens. Kein Fake mehr. Kein Quatsch. Realismus sollte das Ziel sein. Und daraus ergibt sich eben nunmal:
Unter den Blinden ist der Einäugige nunmal König.

/edit: Die Glowball Demo von Kal-El zeigt mehr Cloth-Spielereien als Crysis 2. Wo du also in Zukunft viele CPU-Physiks-Sachen von nVidia sehen willst, ist auf Tegra3 Plattformen. Dort verkaufen sie dir ein Produkt mit einer CPU. Deswegen unterstützten sie es auch. Du solltest also deine Kritik an die Firma richten, von der du die CPU besitzt. Die sollte dafür verantwortlich sein, dass das Produkt auch gepflegt wird. Es ist ein komisches Verhalten über den "Nachbarn" zu heulen, weil sein Rasen von einem besseren Gärtner gepflegt wird als es der eigene Gärtner kann.

Nasenbaer
2011-06-17, 20:53:11
Der PC war schon immer Übertriebenheit und Fortschritt. Es er war immer Evolution statt Revolution. Man ging immer am Anfang von übertriebenen Effekten aus, weil sie einfacher zu realisieren waren. Sei es das Quecksilber in Morrowind oder das atomartige HDR in Farcry. Ich sehe in Bezug auf GPU-PhysX kein anderes Verhalten.
Was du als plausible Effekte bezeichnest, ist doch nur ein Synonym für Fake. Nichts weiteres. Und das kann wohl kaum im Sinne des PCs sein, wenn man sich mit weniger zufrieden gibt.
Denn: Reichen tun auch Konsolen.

Jo echt scheiße dies Fakes. Bringt lieber wieder Textadventures, denn da entsteht die Graphik in der Phantasie und aber das wäre dann ja auch wieder nur Fake! ;D
Willkommen in der Welt der Echtzeitfähigkeit (also 25fps und mehr), denn da geht es nicht anders!!! Willst du es nicht verstehen? Du verteufelst gefakte Effekte aber kein einziges Spiel der letzten 30 Jahre bietet etwas anders.


Warum liest du meine Posts eigentlich nicht richtig? Oder liest du nur was du auch lesen willst? Ich habe NICHTS(!!!) gegen physikalisch korrekt berechnete Kleidung, Flüssigkeiten usw. ABER man kann ebend gut gemachte Fakes als Alternative anbieten, falls die Leistung des Systems (bspw. aufgrund nicht vorhandener Spezialhardware) für die korrekte Berechnung nicht ausreicht. Genau diesen Fallback auf gut gemachte Fakes ist das was den Graphikengines von Spielen überhaupt vernünftige Framerates ermöglicht. Oder willst du ne Stunde warten wie bei einem physikalisch korrekten Path-Tracer nur weil Fakes scheiße sind?
Und nVidia betont immer wieder, dass ihr PhysX auch mit Multicore-CPUs super zusammenarbeitet. Nur nutzen tun das ihre PhysX-Vorzeigespiele nie.


Also nochmal ganz langsam. Physikalisch korrekt berechnete Effekte sind schön und gut. Wenn die Leistung des Systems dafür nicht reicht, so ist es aber die Pflicht der Entwickler ein ansprechende Alternative zu liefern. Die Aussage, dass dies halt nur mit der GPU möglich sein, zieht einfach nicht.

Das fett gedruckte stellt die Kernaussagen allem gesagten dar. Nicht mehr, nicht weniger!


P.S.: Ich habe mich nie auf einen IHV konkret bezogen. Das nvidia als PhysX-Anbieter gleichzeitig auch IHV ist, ist zufall. Ich wäre der gleichen Meinung, wenn PhysX mit jeder GPGPU-fähigen Graka laufen würde. Also lass bitte etwaige Sticheleien gegen irgendeinen IHV - damit lockst du mich nicht aus der Reserve. ;)

LovesuckZ
2011-06-21, 12:36:37
Jo echt scheiße dies Fakes. Bringt lieber wieder Textadventures, denn da entsteht die Graphik in der Phantasie und aber das wäre dann ja auch wieder nur Fake! ;D
Willkommen in der Welt der Echtzeitfähigkeit (also 25fps und mehr), denn da geht es nicht anders!!! Willst du es nicht verstehen? Du verteufelst gefakte Effekte aber kein einziges Spiel der letzten 30 Jahre bietet etwas anders.

Ich verteufel keine Fake-Effekte, sondern ich verteufel den Stillstand. Das GPU-Physik genauso wenig 100% realistisch ist, habe ich nie bestritten.
Aber hier auf Mario Sunshine zu verweisen, ist genauso absurd wie mein Verweis auf Wolfenstein 3D.


Warum liest du meine Posts eigentlich nicht richtig? Oder liest du nur was du auch lesen willst? Ich habe NICHTS(!!!) gegen physikalisch korrekt berechnete Kleidung, Flüssigkeiten usw. ABER man kann ebend gut gemachte Fakes als Alternative anbieten, falls die Leistung des Systems (bspw. aufgrund nicht vorhandener Spezialhardware) für die korrekte Berechnung nicht ausreicht. Genau diesen Fallback auf gut gemachte Fakes ist das was den Graphikengines von Spielen überhaupt vernünftige Framerates ermöglicht. Oder willst du ne Stunde warten wie bei einem physikalisch korrekten Path-Tracer nur weil Fakes scheiße sind?
Und nVidia betont immer wieder, dass ihr PhysX auch mit Multicore-CPUs super zusammenarbeitet. Nur nutzen tun das ihre PhysX-Vorzeigespiele nie.

Zwei Dinge:
Du bekommst dein Fake doch. In Alice gibt es Partikel, Rauch, Zerstörung und "Öl". Alles nur in deutlich gering Anzahl bzw. star und sofort verschwindend.
Bei diesen PhysX-Vorzeigespiele geht es rein um GPU-PhysX. Du solltest dich bei den Spielentwicklern beschweren, die zwar PhysX und Konsorten einsetzen, aber die volle Leistungsfähigkeiten der CPUs nicht zeigen bzw. ausnutzen. Oder eben auch bei Intel und AMD.


Also nochmal ganz langsam. Physikalisch korrekt berechnete Effekte sind schön und gut. Wenn die Leistung des Systems dafür nicht reicht, so ist es aber die Pflicht der Entwickler ein ansprechende Alternative zu liefern. Die Aussage, dass dies halt nur mit der GPU möglich sein, zieht einfach nicht.

Nach 2 Jahren Mirrors Edge und dem anhaltenden Stillstand, muss man klar sagen, dass es anscheinend nur über die GPU möglich ist. Deine Aussage ist einzig immer eine Einbahnstraße - nämlich von "zu langsam" -> "Alternative". Was ist denn mit "genug Reserven" -> "mehr Effekte"? Deine Ansicht macht wesentlich mehr Sinn, wenn du den Stillstand irgendwann mal kritisiert hättest. Daher empfinde ich es nur als "heulen", weil irgendwas über irgendeine Hardware umgesetzt wird, die dir nicht passt.


P.S.: Ich habe mich nie auf einen IHV konkret bezogen. Das nvidia als PhysX-Anbieter gleichzeitig auch IHV ist, ist zufall. Ich wäre der gleichen Meinung, wenn PhysX mit jeder GPGPU-fähigen Graka laufen würde. Also lass bitte etwaige Sticheleien gegen irgendeinen IHV - damit lockst du mich nicht aus der Reserve. ;)

Nein, ich bleibe dabei. Anscheinend haben Leute Probleme, wenn Features durch nVidia "durchgesetzt" werden. Deine Ausführungen in diesem Thread sind viel zu engstirnig. Du beschwerst dich immer nur dann, wenn irgendwas über GPU-PhysX umgesetzt wird. Aber wenn in 99,9% aller anderen Spiele nichts passiert, liest man auch von dir kein einziges Wort. Es ist daher sehr offensichtlich, dass es dir nicht um die Effekte gehen kann. Du kannst oder willst einfach nicht akzeptieren, dass diese Effekte über GPU-PhysX umgesetzt werden. Und suchst nun nach einem Kritikpunkt, um die Umsetzung in Misskredit zu bringen.

Nasenbaer
2011-06-21, 16:41:40
Ich verteufel keine Fake-Effekte, sondern ich verteufel den Stillstand. Das GPU-Physik genauso wenig 100% realistisch ist, habe ich nie bestritten.
Aber hier auf Mario Sunshine zu verweisen, ist genauso absurd wie mein Verweis auf Wolfenstein 3D.

Mariop Sunshine ist über 5 Jahre alt und schon damals war der Gamecube nicht die Leistungssptize. Dennoch hat man auch da schon dynamisch irgendwelche "Pampe" in der Szene verteilen können. Sowas kannst du in heutigen Spielen nicht mehr bringen - da gebe ich dir Recht. Aber, wenn Mario Sunshine zeigt was damals möglich war, warum kann man dann nicht heute mit MultiCores nicht wenigstens ein bisschen Physik-Effekte bringen wie das Öl in dem die Alice da rumstampft aus dem Promo-Video? Dort wird ohne PhysX-H/W nämlich das "Öl" oder was das da sein soll gleich gar nicht angezeigt.
(Ich beziehe mich dabei auf das Alice-Video der verlinkten nVidia-Promoseite ab 0:36)


Zwei Dinge:
Du bekommst dein Fake doch. In Alice gibt es Partikel, Rauch, Zerstörung und "Öl". Alles nur in deutlich gering Anzahl bzw. star und sofort verschwindend.
Bei diesen PhysX-Vorzeigespiele geht es rein um GPU-PhysX. Du solltest dich bei den Spielentwicklern beschweren, die zwar PhysX und Konsorten einsetzen, aber die volle Leistungsfähigkeiten der CPUs nicht zeigen bzw. ausnutzen. Oder eben auch bei Intel und AMD.

Sehe ich genauso:

Wenn die Leistung des Systems dafür nicht reicht, so ist es aber die Pflicht der Entwickler ein ansprechende Alternative zu liefern.



Nach 2 Jahren Mirrors Edge und dem anhaltenden Stillstand, muss man klar sagen, dass es anscheinend nur über die GPU möglich ist. Deine Aussage ist einzig immer eine Einbahnstraße - nämlich von "zu langsam" -> "Alternative". Was ist denn mit "genug Reserven" -> "mehr Effekte"? Deine Ansicht macht wesentlich mehr Sinn, wenn du den Stillstand irgendwann mal kritisiert hättest. Daher empfinde ich es nur als "heulen", weil irgendwas über irgendeine Hardware umgesetzt wird, die dir nicht passt.

Das ist ja das Problem. Es gibt ebend meist genug Reserven - auch auf Seiten der CPU. Die ganzen Konsolentitel sind doch keine Herausforderung mehr für aktuelle PCs. Die GPU bekommt man noch mit Anti-Aliasing beschäftigt, wenn die Engine mitspielt aber die CPU-Leistung liegt brach.
Und genau deswegen fordere ich, dass man nicht nur bei Vorhanden sein von PhysX-H/W Effekt-Physik anbietet, sondern auch über die CPU.
Rückblickend muss man sagen, dass dies Mafia 2 eigentlich als eines der wenigen Spiele geboten hat. Deren Umsetzung war allerdings mangelhaft. Für viele CPUs waren die Effekte einfach Overkill und es gab mickrige Frameraten. Erst mit manuellem tweaken einiger Dateien liefs dann. Hätte man das schon im Programm besser umgesetzt, dann hätte ich nix zu meckern.


Nein, ich bleibe dabei. Anscheinend haben Leute Probleme, wenn Features durch nVidia "durchgesetzt" werden. Deine Ausführungen in diesem Thread sind viel zu engstirnig. Du beschwerst dich immer nur dann, wenn irgendwas über GPU-PhysX umgesetzt wird. Aber wenn in 99,9% aller anderen Spiele nichts passiert, liest man auch von dir kein einziges Wort. Es ist daher sehr offensichtlich, dass es dir nicht um die Effekte gehen kann. Du kannst oder willst einfach nicht akzeptieren, dass diese Effekte über GPU-PhysX umgesetzt werden. Und suchst nun nach einem Kritikpunkt, um die Umsetzung in Misskredit zu bringen.
Natürlich habe ich etwas dagegen, wenn etwas von einer Firma im Alleingang durchgeboxt wird. Das ist immer Mist da solch proprietäre nunmal kein Industriestandard sind und somit immer ein Nischendasein fristen werden. Aber eigentlich sollte man auf 3dfx Glide und all den anderen 3D-Standards der letzten 15 Jahre gelernt haben, dass man Schnittstellen nur dann durchboxen kann, wenn man das Monopol besitzt (MS -> DirectX).

Das Problem ist halt, dass PhysX keine einfache Schnittstelle, sondern Middleware ist. nVidia nutzt diese, berichtigterweise, natürlich zum Pushen ihrer eigenen Produkte (wer will es ihnen verdenken). Solange sie aber kein Quasimonopol beim Grakamarkt haben, sind Spieleentwickler immer zu einem zweigleisigen System gezwungen (also Alternativen für nicht nvidia-Nutzer). Deswegen wird sich PhysX auch einfach nicht durchsetzen können. Und das ist halt ein entscheidenens Problem.



nVidia wäre gut beraten, wenn sie PhysX für "fremde" GPUs öffnen würden ob die Marktakzeptanz dieser Middleware zu steigern. Diese Öffnung hätte aber natürlich zur Folge, dass ein Verkaufargument für nvidia-GPUs wegfällt. Da letzteres aber ihr Kerngeschäft ist, wird es natürlich keine Öffnung geben und dafür immer mal wieder irgendwelche Promo-Spiele.
Stimmst du mir da zu?

daywalker4536
2011-06-21, 16:55:56
Was die PhysX Berechnung auf der CPU betrifft. Ist alles eine Frage der Dichte und Genauigkeit. Ihr unterschätzt das alles ganz gewaltig. Vor allem wie unterschiedlich die CPU und GPU untereinander sind. Naja. Ich weis es ist schwer zu begreifen weil man es nicht sieht. In Mafia 2 war es echt Overkill das stimmt allerdings. NVIDA wäre doch blöd wenn sie es ATI möglich machen würden. Was haben die davon?. Vielleicht mit Abgaben? ^^. Nichts. Die wären schön blöd. Macht weiter ^^.

Ob PhysX nun richtige Physik bzw die Wirklichkeit wiederspiegelt sei mal dahin gestellt. Es ist eine Annährung.

LovesuckZ
2011-06-21, 17:15:58
Mariop Sunshine ist über 5 Jahre alt und schon damals war der Gamecube nicht die Leistungssptize. Dennoch hat man auch da schon dynamisch irgendwelche "Pampe" in der Szene verteilen können. Sowas kannst du in heutigen Spielen nicht mehr bringen - da gebe ich dir Recht. Aber, wenn Mario Sunshine zeigt was damals möglich war, warum kann man dann nicht heute mit MultiCores nicht wenigstens ein bisschen Physik-Effekte bringen wie das Öl in dem die Alice da rumstampft aus dem Promo-Video? Dort wird ohne PhysX-H/W nämlich das "Öl" oder was das da sein soll gleich gar nicht angezeigt.
(Ich beziehe mich dabei auf das Alice-Video der verlinkten nVidia-Promoseite ab 0:36)

Das Öl wird auch ohne GPU-PhysX angezeigt. Es verschwindet dann sofort ohne für eine Sekunde den Boden einzufärben (das ist Standard heute!). In Mario kommt es zu Einfärbung des Bodens für eine Sekunde. Das ist dir so wichtig? Ich finde die Einfärbung absolut bescheuert, da es so nach Fake aussieht. Dagegen ist die Fluid-Simulation trotz Mängel deutlich realistischer.

Sehe ich genauso:
Das ist ja das Problem. Es gibt ebend meist genug Reserven - auch auf Seiten der CPU. Die ganzen Konsolentitel sind doch keine Herausforderung mehr für aktuelle PCs. Die GPU bekommt man noch mit Anti-Aliasing beschäftigt, wenn die Engine mitspielt aber die CPU-Leistung liegt brach.
Und genau deswegen fordere ich, dass man nicht nur bei Vorhanden sein von PhysX-H/W Effekt-Physik anbietet, sondern auch über die CPU.
Rückblickend muss man sagen, dass dies Mafia 2 eigentlich als eines der wenigen Spiele geboten hat. Deren Umsetzung war allerdings mangelhaft. Für viele CPUs waren die Effekte einfach Overkill und es gab mickrige Frameraten. Erst mit manuellem tweaken einiger Dateien liefs dann. Hätte man das schon im Programm besser umgesetzt, dann hätte ich nix zu meckern.

Wieso beschwerst du dich über die Leistung in Mafia 2? Die Cloth-Simulation läuft nur über die CPU. Genau das, was du von anfang an hier als "den besseren" Weg beschrieben hast.

Natürlich habe ich etwas dagegen, wenn etwas von einer Firma im Alleingang durchgeboxt wird. Das ist immer Mist da solch proprietäre nunmal kein Industriestandard sind und somit immer ein Nischendasein fristen werden. Aber eigentlich sollte man auf 3dfx Glide und all den anderen 3D-Standards der letzten 15 Jahre gelernt haben, dass man Schnittstellen nur dann durchboxen kann, wenn man das Monopol besitzt (MS -> DirectX).

PhysX hat mit CUDA nur wenig zu tun, außer, dass CUDA eine Schnittstelle für PhysX darstellt.


Das Problem ist halt, dass PhysX keine einfache Schnittstelle, sondern Middleware ist. nVidia nutzt diese, berichtigterweise, natürlich zum Pushen ihrer eigenen Produkte (wer will es ihnen verdenken). Solange sie aber kein Quasimonopol beim Grakamarkt haben, sind Spieleentwickler immer zu einem zweigleisigen System gezwungen (also Alternativen für nicht nvidia-Nutzer). Deswegen wird sich PhysX auch einfach nicht durchsetzen können. Und das ist halt ein entscheidenens Problem.

PhysX setzt sich deswegen durch, weil es mehr Plattformen als die Konkurrenz unterstützt und aktiv von einer Firma gepflegt wird. Man sollte endlich anfangen zu begreifen, was PhysX ist und was den Unterschied zu GPU-PhysX ausmacht. Und dann sollten wir mal darüber reden, warum die Alternative "x86" anscheinend keine ist. Das ist doch viel interessanter als dauernd das bekannte zu wiederholen.

nVidia wäre gut beraten, wenn sie PhysX für "fremde" GPUs öffnen würden ob die Marktakzeptanz dieser Middleware zu steigern. Diese Öffnung hätte aber natürlich zur Folge, dass ein Verkaufargument für nvidia-GPUs wegfällt. Da letzteres aber ihr Kerngeschäft ist, wird es natürlich keine Öffnung geben und dafür immer mal wieder irgendwelche Promo-Spiele.
Stimmst du mir da zu?

PhysX ist akzeptiert. GPU-PhysX ist doch nur ein Feature der Middleware und kann von jedem eingesetzt werden.
Wir hatten diese Diskussion schon. Und wie man an Bullet sieht, ist eine offene Middleware eben nicht besser.

Schaffe89
2011-06-21, 18:55:45
Wieso beschwerst du dich über die Leistung in Mafia 2? Die Cloth-Simulation läuft nur über die CPU. Genau das, was du von anfang an hier als "den besseren" Weg beschrieben hast.

Weil die Leistung fuer das gebotene Ergebnis unterirdisch war. Einfach schlecht umgesetzt.

Wir hatten diese Diskussion schon. Und wie man an Bullet sieht, ist eine offene Middleware eben nicht besser.

Klar.. GPU- Physx wird ja so stark genutzt, da ist ein Vergleich zu Bullet natuerlich sehr sinvoll. Physx selbst ist einfach am Markt etabliert und da wird es so schnell auch nicht verschwinden.
Wenn jemand gegen deine Religion predigt wird jedem gleich Stillstand vor die Fuesse geworfen.
Es waere schoen, wenn erstmal jede Menge Fake-Physik Effekte in mehr Spielen kommen wuerden, bevor man unnoetig Performance fuer korrekt berechnete Effektphysik verbraucht.
Nvidias Arbeit was Spiele betrifft, welche eben genau offensichtlich "zu wenige" Effekte bieten, will ich dabei gar nicht in Misskredit stellen.
Du wirst doch nicht ernsthaft glauben, GPU-Physx setzt sich besser durch, wenn Nvidia das weiterhin so handhabt wie bisher, gerade wenn Direct X Compute etc. langsam Fahrt bekommt.
Nvidia hat soviel ich weiss selbst den GPU-Physx Code ueberarbeitet, um die Last auf mehrere CPU Kerne zu verteilen.

Die Cloth-Simulation läuft nur über die CPU. Genau das, was du von anfang an hier als "den besseren" Weg beschrieben hast.

So konkret hat er das nicht als besseren Weg dargestellt. Du solltest besser lesen, dann ist auch eine Diskussion moeglich.
Du willst einfach nur eine Stimmung erzeugen, welche aussagt, dass solche Berechnungen schlicht nicht ueber die CPU machbar sind. DAs waere aber mit etwas sinvolleren Settings, besserem Code mit etwas multithreading locker moeglich gewesen, nur fehlt eben das noetige Know How und auch die Lust das umzustzen. Daneben kommt dein AMD Bashing unter dem Stichwort "Stillstand", weil deren CPu's 35% langsamer sind.
Reiss dich doch mal bisschen am Riemen.

Nasenbaer
2011-06-21, 21:35:40
Wieso beschwerst du dich über die Leistung in Mafia 2? Die Cloth-Simulation läuft nur über die CPU. Genau das, was du von anfang an hier als "den besseren" Weg beschrieben hast.

Dachte das würde bei verfügbarer H/W auf GPU-beschleunigt arbeiten. Aber wenn es tatsächlich CPU-only ist, dann ist noch weniger verständlich warum man nicht die Option anbot nur die Kleidung des eigenen Charakters zu simulieren. Bemerkt man den Unterschied bei den Fußgängern auf der anderen Straßenseite tatsächlich, wenn man ganz normal spielt??


PhysX hat mit CUDA nur wenig zu tun, außer, dass CUDA eine Schnittstelle für PhysX darstellt.

Habe CUDA erstens mit keinem Wort erwähnt und zweitens habe ich geschrieben, dass PhysX ebend keine einfache API, sondern Middleware ist. Dennoch funktioniert der Vergleich zu "normalen" APIs. Denn Middleware ist normalerweise nicht an konkrete H/W gebunden. GPU-PhysX dagegen schon.
Übringes ist CUDA keine Schnittstelle zu PhysX. PhysX nutzt CUDA vielleicht als Schnittstelle für GPGPU-Berechnungen aber sicher nicht andersrum.


PhysX setzt sich deswegen durch, weil es mehr Plattformen als die Konkurrenz unterstützt und aktiv von einer Firma gepflegt wird. Man sollte endlich anfangen zu begreifen, was PhysX ist und was den Unterschied zu GPU-PhysX ausmacht. Und dann sollten wir mal darüber reden, warum die Alternative "x86" anscheinend keine ist. Das ist doch viel interessanter als dauernd das bekannte zu wiederholen.

@fett: Was es zu belegen gilt, ansonsten nur Marketing Geblubber.

In diesem Thread geht es ausschließlich um H/W-PhysX und ob sich dies durchsetzen wird oder nicht. PhysX allgemein wird häufig genutzt aber die GPU-Variante, die ja erst die wirklich spannenden Effekte und den Fortschritt aus deiner Sicht bringt, wird nur durch Promo-Effekte für ausgewählte Titel am Leben erhalten hat es den Anschein.


PhysX ist akzeptiert. GPU-PhysX ist doch nur ein Feature der Middleware und kann von jedem eingesetzt werden.
Wir hatten diese Diskussion schon. Und wie man an Bullet sieht, ist eine offene Middleware eben nicht besser.
Aber ist sie denn schlechter oder eben nur eine Alternative auf gleichen Niveau? Ich gehe von letzerem aus, solange der OpenCL-Support nicht vollständig integriert ist. Denn dann würde es einen echten Mehrwert gegenüber PhsyX bieten.

y33H@
2011-06-21, 21:56:20
@fett: Was es zu belegen gilt, ansonsten nur Marketing Geblubber.Ich sehe Bullet vor PhysX, denn letzteres läuft nur auf einer Geforce:

Bullet = 360, Wii (U), PS3, PC (CPU + GPU), Android, iOS
PhysX = 360, Wii (U), PS3, PC (CPU + Geforce), Android, iOS
Havok = 360, Wii (U), PS3, PC (CPU), Android

Sollte ich mich bei den Plattformen geirrt haben, bitte melden.

G 80
2011-06-21, 22:21:40
Naja das mit der Bindung PX + GF stimmt zwar, aber wenn ich mir den Ist-Zustand ansehe ...... wieviele Spiele mit Bullet GPU Beschleunigung haben wir denn?


Sollange da keine Veränderung eintritt - sprich etwa Bullet beschleunigt durch Intels HD-Krücke, eine NV oder wenigstens mal durch eine Fusion IGP + ATI oder nur auf einer ATI, ist das etwas so wie wenn du bei nem 20:0 rückstand davon spricht das du die zu 0-Manschaft vorne siehst weil sie könnte ja theoretisch ....


Soll jetzt kein Angriff sein, und ich respektiere deine Meinung und versuche jetzt auch nicht sie durch predigen zu ändern, aber das ist halt meine. :wink:

LovesuckZ
2011-06-21, 22:25:17
Dachte das würde bei verfügbarer H/W auf GPU-beschleunigt arbeiten. Aber wenn es tatsächlich CPU-only ist, dann ist noch weniger verständlich warum man nicht die Option anbot nur die Kleidung des eigenen Charakters zu simulieren. Bemerkt man den Unterschied bei den Fußgängern auf der anderen Straßenseite tatsächlich, wenn man ganz normal spielt??

Das Problem der fehlenden Optionen gibt es auch bei Alice. Der Rauch ist absolut genial. Aber auch genial langsam. Leider kann man keine einzelnen Effekte an/aus schalten. Sowas ist echt dumm und schränkt die Verwendung in Alice stark ein.
Zu den Fußgänger: Hier kommt doch das selbe Problem wie mit LoD zum Tragen: Sieht man den Wechsel von statisch zu dynamisch?


Habe CUDA erstens mit keinem Wort erwähnt und zweitens habe ich geschrieben, dass PhysX ebend keine einfache API, sondern Middleware ist. Dennoch funktioniert der Vergleich zu "normalen" APIs. Denn Middleware ist normalerweise nicht an konkrete H/W gebunden. GPU-PhysX dagegen schon.
Übringes ist CUDA keine Schnittstelle zu PhysX. PhysX nutzt CUDA vielleicht als Schnittstelle für GPGPU-Berechnungen aber sicher nicht andersrum.

Middleware ist im allgemeinen an bestimmte APIs gebunden. PhysX ist auch nicht an CUDA gebunden, sondern kann Berechnungen über x86 oder ARM ausführen. CUDA ist nur eine Möglichkeit. Der Unterschied zu den anderen Möglichkeiten ist jedoch, dass CUDA nur in Zusammenhang mit einer anderen Schnittstelle sinn macht. Daher kann sich GPU-PhysX auch nur dann "durchsetzen", wenn sich PhysX durchsetzt.

In diesem Thread geht es ausschließlich um H/W-PhysX und ob sich dies durchsetzen wird oder nicht. PhysX allgemein wird häufig genutzt aber die GPU-Variante, die ja erst die wirklich spannenden Effekte und den Fortschritt aus deiner Sicht bringt, wird nur durch Promo-Effekte für ausgewählte Titel am Leben erhalten hat es den Anschein.

Durchsetzen tut sich doch kaum noch etwas, dass extra implementiert werden muss. DX11 leidet doch auch darunter. Und das wird von beiden Herstellern unterstützt. H/W-PhysX würde wirklich an Bedeutung gewinnen, wenn es eine der neuen Konsolen unterstützen würde. Und das vollkommen ungeachtet, ob nVidia AMD Zugang zu H/W-PhysX in Zukunft gewähren sollte.
Du kannst das selbe auch über GPGPU im Consumer-Bereich fragen. Dort gibt es bis auf ein paar Anwendungen und Anwendungsfälle auch nichts weiteres.


Aber ist sie denn schlechter oder eben nur eine Alternative auf gleichen Niveau? Ich gehe von letzerem aus, solange der OpenCL-Support nicht vollständig integriert ist. Denn dann würde es einen echten Mehrwert gegenüber PhsyX bieten.

Zur Zeit sehe ich in Bullet keine Alternative. Das, was Futuremark mit Bullet umgesetzt hat, hat kein entsprechendes Niveau für eine Implementierung in einem Spiel. Da ist selbst der Hobbyversuch mit dem UE 3.0 SDK wesentlich besser gelungen.

=Floi=
2011-06-22, 16:33:57
hört doch einfach auf mit LS zu reden. der thread läuft wieder mal total sinnlos aus dem ruder und wir drehen uns eh nur im kreis.

Nasenbaer
2011-06-22, 21:30:24
Durchsetzen tut sich doch kaum noch etwas, dass extra implementiert werden muss. DX11 leidet doch auch darunter. Und das wird von beiden Herstellern unterstützt. H/W-PhysX würde wirklich an Bedeutung gewinnen, wenn es eine der neuen Konsolen unterstützen würde. Und das vollkommen ungeachtet, ob nVidia AMD Zugang zu H/W-PhysX in Zukunft gewähren sollte.
Du kannst das selbe auch über GPGPU im Consumer-Bereich fragen. Dort gibt es bis auf ein paar Anwendungen und Anwendungsfälle auch nichts weiteres.

Der Aufwand etwas für GPGPU selbst zu schreiben ist nich unerheblich. Das Debuggen etc. macht dort keinen Spaß und erst langsam kommen erste Tools dafür raus. Und es macht ja auch keinen Sinn alles auf die GPU auszulagern. Für Bild/Video-Processing kann das durchaus sinnvoll sein und im Gegensatz zu Raytracern bspw. ist sowas auch relativ einfach zu implementieren.

Und das eh fast nur noch Multiplattform-Titel kommen, wird auch erst ne neuen Konsolengeneration etwas Bewegung bringen - das hast du vollkommen Recht.


Zur Zeit sehe ich in Bullet keine Alternative. Das, was Futuremark mit Bullet umgesetzt hat, hat kein entsprechendes Niveau für eine Implementierung in einem Spiel. Da ist selbst der Hobbyversuch mit dem UE 3.0 SDK wesentlich besser gelungen.
Es gibt wesentlich mehr als nur UE3 und 3DMark2011, das auf Bullet basiert. In Filmproduktionen zeigen sie, dass Berechnungsgenauigkeit vorhanden ist (also physikalische Gesetze recht gut damit umgesetzt werden können). Und in GTA4 hat man z.B. gesehen, dass auch AAA-Titel damit arbeiten und Bullet ne Menge möglich macht. Schließlich ist die Fahrphysik echt genial in GTA4. Trials 2 hat auch nur plausible Fahrphysik.
Also möglich ist schon vieles. Wenn ein nVidia-Heini einem bei der Implementierung hilft und eine super Doku beiliegt, ist das natürlich auch sehr praktisch. Ich halte das für die Hauptgründe, dass deswegen PhysX recht häufig verwendet wird.

dllfreak2001
2011-06-24, 11:26:27
Hier gehts aber ab.

Wieviel Zeit liegt eigentlich zwischen dem Release von Alice und dem letzten HW-PhysX-tauglichen Spiel?

LovesuckZ
2011-06-24, 11:27:26
Wann kam Mafia 2 raus? August 2010? Dann sind es knapp 10 Monate.

dllfreak2001
2011-06-24, 12:19:13
Das ist schon ein ordentlicher Zeitraum.
Aber wie es aussieht wird HW-PhysX außerhalb von UE-Spielen kaum noch aufgenommen. Ich könnte mir deshalb vorstellen falls mit der nächsten Version PhysX gegen Bullet ausgetauscht wird, dass Ersteres zumindest vom Hardware-Pfad her in der Bedeutungslosigkeit verschwindet.

Bei allem Lob in Hinblick auf die Innovation, HW-PhysX wurde durch Nvidia doch zu krampfhaft eingeführt.

LovesuckZ
2011-06-24, 12:26:05
Nicht wirklich. Eher setzt Epic auf eine eigene Physik-Engine.

Windi
2011-06-24, 12:53:38
Naja, spätestens bei der nächsten Konsolengeneration wird wohl eine Entscheidung fallen.

Auf heutigen Konsolen läuft PhysX wohl eher in Software.
Bei den zukünftigen Konsolen wird es aber wohl anders aussehen. Dort würden wohl viele gern HW-Physik einsetzen. Einziges Problem dabei ist aber das nicht alle Konsolen nVidia-Chips verbauen. Entweder nVidia gibt dann PhysX für alle frei oder die Entwickler nehmen sich eine andere Lösung.

Die WiiU hat einen Amd/Ati-Grafikchip.
Bei der nächsten Xbox erwarten viele wieder einen Amd/Ati-Grafikchip.
Über die nächste Playstation ist noch nichts bekannt. Die könnte wieder einen nVidia-Chip bekommen, Amd/Ati wäre aber auch möglich.
Zusätzlich gibt auch noch den PC-Sektor:
Dort gehören die spielefähigen Rechener vielleicht zu 50% zu nVidia und 50% zu Amd/Ati.

Bei den zukünftigen Multi-Titeln wird sich wohl eine Lösung durchsetzen, die auf allen Plattformen läuft.
Wenn nvidia PhysX öffnet, dann könnte dies PhysX sein.
Wenn nicht dann ist PhysX endgültig tot.

LovesuckZ
2011-06-24, 12:56:00
Das Problem an HW-Physik ist die Bibliothek, die für die normalen Berechnungen verwendet wird. Was hilft es dir, wenn Bullet zwar über OpenCL HW-Physik ermöglicht, aber das komplette Paket nicht mit Havok oder PhysX mithalten kann? HW-Physik ist daher immer abhängig vom Status der kompletten Engine.

Windi
2011-06-24, 13:14:30
Das Problem an HW-Physik ist die Bibliothek, die für die normalen Berechnungen verwendet wird. Was hilft es dir, wenn Bullet zwar über OpenCL HW-Physik ermöglicht, aber das komplette Paket nicht mit Havok oder PhysX mithalten kann? HW-Physik ist daher immer abhängig vom Status der kompletten Engine.
Die Entwickler werden es sich auf keinen Fall leisten können, das sich die unterschiedlichen Konsolenversionen massiv unterscheiden. Die Spieler würden die in der Luft zerreißen. Auch würden dann manche Levels und Spielabläufe nicht mehr richtig funktionieren.
Notfalls wird halt etwas altes weiter- oder neues entwickelt. Auch wenn es dann vielleicht schlechter aussieht, Hauptsache es läuft überall. Auch die Konsolenhersteller und AMD werden die Programmierer da mit Sicherheit nicht allein im Regen stehen lassen.
Momentan gibt es in dieser Richtung halt kaum ein Vorankommen, das liegt aus meiner Sicht aber eher an den momentan zu schwachen und unflexiblen Konsolen.

Screemer
2011-06-24, 13:36:49
http://www.geforce.cn/whats-new/articles/qqsm-benchmark
http://www.qqsm.com/v5/benchmark.html

neues gpu physX benchmark von epic. basiert scheinbar auf einem neuen epic titel mit dem namen mars.

quell: http://www.gamephys.com/2011/06/23/mars-gpu-physx-benchmark/

mapel110
2011-06-24, 13:41:09
http://www.geforce.cn/whats-new/articles/qqsm-benchmark
http://www.qqsm.com/v5/benchmark.html

neues gpu physX benchmark von epic. basiert scheinbar auf einem neuen epic titel mit dem namen mars.

quell: http://www.gamephys.com/2011/06/23/mars-gpu-physx-benchmark/
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509218
Das ist wohl der hier?!

LovesuckZ
2011-06-24, 13:56:13
Die Entwickler werden es sich auf keinen Fall leisten können, das sich die unterschiedlichen Konsolenversionen massiv unterscheiden. Die Spieler würden die in der Luft zerreißen. Auch würden dann manche Levels und Spielabläufe nicht mehr richtig funktionieren.
Notfalls wird halt etwas altes weiter- oder neues entwickelt. Auch wenn es dann vielleicht schlechter aussieht, Hauptsache es läuft überall. Auch die Konsolenhersteller und AMD werden die Programmierer da mit Sicherheit nicht allein im Regen stehen lassen.
Momentan gibt es in dieser Richtung halt kaum ein Vorankommen, das liegt aus meiner Sicht aber eher an den momentan zu schwachen und unflexiblen Konsolen.

Erstmal muss ich sagen: HW-Physik ist GPU-Physik. Da war ich zu genau.
Wenn du deine Bestandteile für die Engine planst, musst du festlegen, was benötigt oder gewollt wird. Wenn GPU-Physik übergreifend nur über z.B. Bullet möglich ist, muss es argumentiv eben auch dargelegt werden, warum GPU-Physik wichtig ist und und gewichtet werden, welche eventuell Nachteile sich auf der CPU-Seite und der Implementierung gegenüber anderen Engine ergeben.

Es ist also nicht einfach "Wir bauen mal eben GPU-Physik" ein. Deswegen denke ich, dass die Hersteller eher auf GPU-Physik verzichten werden als sich eine schlechtere Physik-Engine ans Bein zu binden.

Screemer
2011-06-24, 14:05:55
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509218
Das ist wohl der hier?!
ajo. hab ich irgendwie verpasst. sorry.

Nasenbaer
2011-06-24, 15:02:45
Deswegen denke ich, dass die Hersteller eher auf GPU-Physik verzichten werden als sich eine schlechtere Physik-Engine ans Bein zu binden.
Da gebe ich dir vollkommen Recht. Die Frage ist in wieweit sich die Engines wirklich unterscheiden? Welche ist besser einsetzbar, welche besser dokumentiert, welche bietet was ich suche.

Das kann wohl keiner von uns hier beantworten, da wohl niemand auch mit nur einer Engine mal etwas gemacht. Ich hatte mal mit Bullet im Hochschul-Praktikum zu tun aber nicht genug um diesbezüglich irgendeine Aussage treffen zu können.

dllfreak2001
2011-06-24, 16:55:21
Also mal ehrlich, hier wird so getan als ob PhysX DAS Physik-Modell besitzt.
Das was ich bis jetzt davon gesehen habe ist aber eine hohe Glitch-Neigung. Ich kann jedenfalls nicht mehr zählen wie oft mich unsichtbare Objekte blockiert haben.
Deshalb sind Features die keine Qualität bieten auch wertlos.

y33H@
2011-06-24, 17:14:42
Ist mir zB nie untergekommen.

Nasenbaer
2011-06-24, 17:18:38
Also mal ehrlich, hier wird so getan als ob PhysX DAS Physik-Modell besitzt.
Das was ich bis jetzt davon gesehen habe ist aber eine hohe Glitch-Neigung. Ich kann jedenfalls nicht mehr zählen wie oft mich unsichtbare Objekte blockiert haben.
Deshalb sind Features die keine Qualität bieten auch wertlos.
Die Spieler-Kollisionsabfrage muss aber nicht zwangsweise mit der gleichen Physik-Lib umgesetzt sein wie die Physik-Effekte. Zudem kann es an mangelhafter Verwendung der Lib liegen. Pauschal würde ich da keine Aussage treffen wollen.

dllfreak2001
2011-06-24, 23:16:54
Ist meine Beobachtung, Vergleiche mal UT3 und Mafia2 bei beiden gibt es merkwürdige Fahrzeugkollisionen wo eigentlich keine sein sollten und beide nutzen PhysX.

Hugo78
2011-06-25, 08:23:53
Ich kann jedenfalls nicht mehr zählen wie oft mich unsichtbare Objekte blockiert haben.

Ja sicher ... wie wäre es mal mit Beispielen?! :uclap:

Black-Scorpion
2011-06-25, 09:19:27
Ja sicher ... wie wäre es mal mit Beispielen?! :uclap:
Wie wäre es mit lesen? Steht ganz schwer zu finden über deinem Beitrag. :rolleyes:

Hugo78
2011-06-25, 12:44:50
Beispiele in Form von Videos. :rolleyes:

N0Thing
2011-06-27, 20:23:27
Weil die Leistung fuer das gebotene Ergebnis unterirdisch war. Einfach schlecht umgesetzt.

Ob es schlecht umgesetzt ist, ist nur eine Vermutung deinerseits. Von außen kann keiner Beurteilen wie effizient der Code ist und ob mehr Leistung bei gleichem Rechenaufwand möglich wäre.

Man kann sicher sagen, daß viele PhysX-Effekte, die über die GPU realisiert werden, nicht sonderlich beeindruckend sind. Dafür sind sie eben in Echtzeit berechnete Effekte in einer mathematischen Genauigkeit, an die vorausberechnete, oder in Echtzeit auf der CPU berechnete Effekte nicht heran kommen.


Es waere schoen, wenn erstmal jede Menge Fake-Physik Effekte in mehr Spielen kommen wuerden, bevor man unnoetig Performance fuer korrekt berechnete Effektphysik verbraucht.

Das wäre sicherlich nett, allerdings muß man dann auch für das ganze Spektrum an Hardware, welche die Käuferschicht so besitzt passende Einstellungen finden, oder Optionsschalter anbieten, um sowohl einen Besitzer einer aktuellen Sandy Bridge CPU wie auch einen Besitzer eines älteren Core2 Duo glücklich zu machen.
Da die meisten Spiele in erste Linie sowieso für die zur Zeit aktuellen Konsolen entwickelt und dann auf den PC portiert werden, kann man diesen Wunsch auch sparen, in Erfüllung gehen wird er nicht.


Du willst einfach nur eine Stimmung erzeugen, welche aussagt, dass solche Berechnungen schlicht nicht ueber die CPU machbar sind. DAs waere aber mit etwas sinvolleren Settings, besserem Code mit etwas multithreading locker moeglich gewesen, nur fehlt eben das noetige Know How und auch die Lust das umzustzen. Daneben kommt dein AMD Bashing unter dem Stichwort "Stillstand", weil deren CPu's 35% langsamer sind.
Reiss dich doch mal bisschen am Riemen.

Fragt sich, wenn dies alles so einfach möglich sein sollte, warum es keine Spiele gibt, die sinnvollere Settings, besseren Code und mehr Multithreading bieten. Entweder, weil es schon sinnvolle Settings sind, der Code "gut" ist und soviel Multithreading verwendet wird, womit noch ein weit verbreiteter Dual-Core klar kommt, oder, weil das Limit in erste Linie die Konsolen sind und für die Umsetzung auf den PC und somit auf unzählige verschiedene Hardwarekonfigurationen, neben den ganzen notwendigen Optimierungen, das Geld für verbesserte Physikeffekte fehlt, wenn man schon über eine vernünftige Maus- & Tastatursteurung glücklich sein kann, von echtem MS-Antialiasing ganz zu schweigen.

Und nur um es noch einmal deutlich zu machen: Ich finde viele PhysX@GPU-Effekte nicht beeindruckend oder für die Stimmung und Glaubwürdigkeit wenig zuträglich. Aber ich freue mich dennoch, daß ich, sofern ich will, diese zusätzlichen Effekte haben kann, denn einige Spiele profitieren für meinen Geschmack sehr von diesen Spielereien.

Schaffe89
2011-06-28, 14:29:05
Ob es schlecht umgesetzt ist, ist nur eine Vermutung deinerseits.

Konfrontiere eine CPU mit schlecht optimierten Code, keinem Multithreading mit GPU- Physx Berechnungen mit wehenden Mänteln. Dass der Code veraltet ist oder war, ist doch alter Kaffee, da gibts nichts zu vermuten.
Auch die die an der anderen Straßenseite oder weit entfernt noch korrekt berechnet werden.
Wie soll da eine gute Umsetzung für Nutzer ermöglicht werden?
Warum hat man nicht eine Abstufung der Settings vorgenommen. Nein man musste mit Tweaks ran, dann liefs. Das ist keine Vermutung. Die Settings waren so völlig unsinnig.

oder Optionsschalter anbieten, um sowohl einen Besitzer einer aktuellen Sandy Bridge CPU wie auch einen Besitzer eines älteren Core2 Duo glücklich zu machen.

Es gibt schon einige Spiele die nur für den PC entwickelt werden.
Man muss wohl auf die nächsten Konsolen warten, da hast du sicherlich recht, allerdings könnte man da sicherlich mehr investieren um mehr Effekte auf Bullet oder Havok basis anbieten, ist ja nicht so, dass keine Konsole damit umgehen kann, siehe y33H@ Beitrag. Für den PC effekte dazuschalten kostet eben einfach zuviel Geld.

ber ich freue mich dennoch, daß ich, sofern ich will, diese zusätzlichen Effekte haben kann, denn einige Spiele profitieren für meinen Geschmack sehr von diesen Spielereien.

Ich honoriere die Arbeit von Nvidia selbst.
Spiele aufpolieren ist besser als nichts zu tun.

Klar sind mehr Berechnungen möglich. Die Bremse ist sicherlich mangelnde Innovation, alte Konsolen und möglichst billige Entwicklungen mit wenig aufwand.
Da wäre der Weg eher frei für gute Fake Physik als für korrekt berechnete GPU Physik..., imho sehe ich letzteres (außer dem Engagement der Nvidia Entwickler) für den Markt als ziemlich unnütz an, da es zuviel Performance kostet und nur auf Nvidia Grakas berechnet werden kann.

Mr. Lolman
2011-06-28, 14:57:14
Dachte das würde bei verfügbarer H/W auf GPU-beschleunigt arbeiten. Aber wenn es tatsächlich CPU-only ist, dann ist noch weniger verständlich warum man nicht die Option anbot nur die Kleidung des eigenen Charakters zu simulieren. Bemerkt man den Unterschied bei den Fußgängern auf der anderen Straßenseite tatsächlich, wenn man ganz normal spielt??
Imo ists auch HW-beschleunigt. Denn wenn man Apex auf CPU laufen lässt (anders bekommt man keine Physikeffekte auf Nicht-NV-Karten), ruckelts wie blöde, solang man nicht die Clothsimulation für alle ausser dem Protagonisten deaktiviert.

Neon3D
2011-06-29, 10:21:24
funktioniert havok mittlerweile mit cuda zusammen? und wie ist dasmit bullet&cuda?

deekey777
2011-06-29, 10:58:14
Bullet nutzte Cuda für die Broadphase, aber nicht für mehr.
Havok lief nie über Cuda.

N0Thing
2011-06-29, 14:54:12
Konfrontiere eine CPU mit schlecht optimierten Code, keinem Multithreading mit GPU- Physx Berechnungen mit wehenden Mänteln. Dass der Code veraltet ist oder war, ist doch alter Kaffee, da gibts nichts zu vermuten.
Auch die die an der anderen Straßenseite oder weit entfernt noch korrekt berechnet werden.
Wie soll da eine gute Umsetzung für Nutzer ermöglicht werden?
Warum hat man nicht eine Abstufung der Settings vorgenommen. Nein man musste mit Tweaks ran, dann liefs. Das ist keine Vermutung. Die Settings waren so völlig unsinnig.


Man konnte die Settings auf Medium stellen, dabei wurde nur die eigene Kleidung per APEX simuliert und die Menge an Debris hat auch realistischer gewirkt. Es gibt also eine Abstufung, wie von dir gewünscht.
Daß man bei einem Spiel, welches auch auf einem Zweikernprozessor noch vernünftig laufen soll, nicht vier Kerne (oder auch nur zwei) komplett für die Physikberechnung abstellt, sollte auch nicht verwundern. Und beim alten SDK liegt es in der Hand der Entwickler, für eine Multithreadinglösung zu sorgen.
Da man bisher in keinem anderen Spiel eine gleichwertige Physiksimulation auf Havok- oder Bulletbasis zu sehen bekommen hat, kann man sich, auch wenn bekannt ist, daß der PhysX-Code nicht der schnellste sein soll, nicht sicher sein, ob eine Lösung durch Havok oder Bullet auf einer CPU schneller laufen würde. Vorstellbar ist das sicherlich, sicher sein kann man sich darüber aber nicht. ;)



Es gibt schon einige Spiele die nur für den PC entwickelt werden.
Man muss wohl auf die nächsten Konsolen warten, da hast du sicherlich recht, allerdings könnte man da sicherlich mehr investieren um mehr Effekte auf Bullet oder Havok basis anbieten, ist ja nicht so, dass keine Konsole damit umgehen kann, siehe y33H@ Beitrag. Für den PC effekte dazuschalten kostet eben einfach zuviel Geld.

Mir fällt da nur Cryostasis ein. Ghost Recon AW2 und Warmonger gab es afaik schon bevor Nvidia Ageia gekauft hat. Somit kann man sagen, daß PhysX@GPU immer ein Bonus für die PC-Version (Portierung) ist.
Ob nun Bullet oder Havok als Physikengine besser sind als PhysX, kann ich nicht beurteilen, auch nicht, ob bei gleichen Anforderungen bessere/schönere/glaubwürdigere Effekte möglich sind. Dazu müßte sich wohl ein Spieleentwickler äußern, denn sonst hat vermutlich keiner Kenntnis über die Punkte, die im Detail für und gegen die einzelnen Lösungen sprechen.

LovesuckZ
2011-08-11, 12:16:14
Anscheinend wird Batman Arkham City wieder über GPU-PhysX verfügen: http://arkhamcity.co.uk/viewtopic.php?f=4&t=4249

LovesuckZ
2011-08-23, 11:05:54
Auch Metro 2033: Last Light wird über GPU-PhysX verfügen. Dann haben wir ja schon 50% der Spiele für 2012, die GPU-PhysX unterstützen. ;D

http://www.pcgameshardware.de/aid,840049/Metro-2033-Last-Light-fuer-PC-Dank-DirectX-11-und-GPU-PhysX-der-Showcase-fuer-Nvidias-Kepler-Video-Update/Action-Spiel/News/

Botcruscher
2011-08-23, 11:24:05
Überraschung! 100% der von NV gesponserten Vorzeigetitel werden es unterstützen.:freak:

LovesuckZ
2011-08-23, 11:26:11
Überraschung! 100% der von NV gesponserten Vorzeigetitel werden es unterstützen.:freak:

Überraschung - 100% von AMD gesponserten Spiele haben kein GPU-Physik, trotzdem es seit 2008 - das sind 3 Jahre für die, die zu faul sind zu zählen - angekündigt wurde. :freak:

SamLombardo
2011-08-23, 11:51:38
Überraschung! 100% der von NV gesponserten Vorzeigetitel werden es unterstützen.:freak:
Selbst wenn es am "Sponsoring" von NVIDIA liegt...Der user bekommt bei NV etwas was er bei AMD nicht bekommt. Und AMD bietet keinen Gegenwert. Pluspunkt für nvidia, so einfach ist das. Und da spielt es keine Rolle ob AMD Besitzer sagen "brauch ich eh nicht". Würde ich wahrscheinlich auch tun wenn ich AMD user wäre;D

dargo
2011-08-23, 11:59:45
Auch Metro 2033: Last Light wird über GPU-PhysX verfügen.

http://www.pcgameshardware.de/aid,840049/Metro-2033-Last-Light-fuer-PC-Dank-DirectX-11-und-GPU-PhysX-der-Showcase-fuer-Nvidias-Kepler-Video-Update/Action-Spiel/News/
Das erste Video sieht richtig geil aus, nicht zuletzt dank der ganzen PhysX-Spielchen. Ich freue mich sehr auf diesen Titel. =)

Dural
2011-08-23, 13:28:19
Überraschung! 100% der von NV gesponserten Vorzeigetitel werden es unterstützen.:freak:


Überraschung! NV macht was für seine Kunden und bei AMD/ATi sitzen sie nur faul rum und versprechen schon seit JAHREN (2006?!?) GPU unterstützung... :freak:



Das Video haut mich nicht um, so was sollte schon seit Jahren standard bei den Spielen sein... ist es aber nicht was einfach nur traurig ist!

Botcruscher
2011-08-23, 18:26:24
AMD ist hier aber nicht Thema und wenn ist es eh Aufgabe der Physikengine-Besitzer.
Damit wird also auch 2012 ein weiteres Jahr der Promotitel, wo abseits davon(in Spielen) quasi nichts existiert. Wenn also nicht durch einen Exklusivdeal irgend etwas in die nächste Konsolengeneration wandert, hat sich seit der Übernahme von Ageia nichts verändert.

N0Thing
2011-08-24, 09:29:34
Gibt es schon eine Ankündigung für ein Spiel, bei dem das PhysX SDK V3.0 eingesetzt wird?

Hugo78
2011-08-24, 22:21:18
@N0Thing

So wie "Sprinkle" auf dem Dual Core T2 läuft, wäre es möglich das es schon mit 3.0 geschrieben wurde.
http://www.tweakpc.de/news/21648/sprinkle-game-fuer-nvidia-tegra-2-mit-tollen-physik-effekten/
http://www.fudzilla.com/reviews/item/23839-sprinkle-game-for-hanheld-devices-based-on-nvidia-tegra

boxleitnerb
2011-08-24, 23:39:17
Mal eine kleine OT-Frage:
Wo bleiben eigentlich die Spiele, in denen so tolle Sachen möglich sind wie in den Techdemos von PhysX und Bullet? Reicht die Leistung da noch nicht aus oder wieso kommt es nur zaghaft in wenigen Games (GPU-PhysX) bzw. gar nicht (Bullet per GPU).

Knuddelbearli
2011-08-24, 23:42:16
zu teuer und aufwendig schätze ich mal

N0Thing
2011-08-25, 03:50:33
@N0Thing

So wie "Sprinkle" auf dem Dual Core T2 läuft, wäre es möglich das es schon mit 3.0 geschrieben wurde.

Ich hab mit meinem Post in erster Linie den PC-Bereich gemeint, im besonderen mit Support für PhysX über eine GPU.
Die (mal ganz polemisch formuliert) Gameboys mit Telefonfunktion interessieren mich nicht, nichts desto trotz danke für den Beitrag. ;)

SamLombardo
2011-08-25, 09:13:31
...und wohl ein weiterer Vorzeigetitel für PhysX (http://www.pcgameshardware.de/aid,841105/Batman-Arkham-City-Die-ersten-Screenshots-mit-GPU-Physx-und-DirectX-11/Action-Spiel/News/). Klar ist es wieder ein NV gesponsertes Promogame aber...so what? Haben oder nicht haben:). Ich freu mich jedenfalls auf das game und auf die Physikspielereien.

Gruss Sam

Blediator16
2011-08-25, 16:06:19
Das wurde schon gepostet^^

SamLombardo
2011-08-25, 16:27:50
In diesem Thread auf jeden Fall nicht. Die Meldung ist von gestern.

Knuddelbearli
2011-08-25, 16:28:00
für mich ist HW-Pysik ( bei AMD und NV ) solange tot solange es kein Hersteller von sich aus Unterstützt ohne Zuwendung der GPU Hersteller

Amboss
2011-10-03, 03:23:01
Wenn jemand schuld ist das auf heutigen PCs viele Spiele fehlerhaft sind bzw. schlecht umgesetzt wurden, dann Nvidia. Nvidia versucht schon seit Jahren irgendwelche eigenen Standards durchzusetzen, dabei sabotierten sie in "gesponserten" Spielen auch noch Konkurrenzprodukte anderer HW-Hersteller.
Nein, ich bin kein Fanboy, aber dieses „Nvidia kocht wieder mal ihre eigene Suppe“ kotzt mich langsam an. Hoffentlich stirbt bald Phys-X und SLI+Crossfire gleich mit. Microsoft sollte mal ein Machtwort sprechen und Standards setzen, so wie sie es vor Jahren mit Creative und deren EAX-Auswüchse in Spielen gemacht haben.
Merkt Nvidia denn nicht das sie auf diese Weise dem PC Schaden zufügen? Statt die PC -Plattform für Spieleentwickler einfacher zu gestalten, wird diese durch NV immer mehr verkompliziert.

=Floi=
2011-10-03, 03:51:52
das stimmt so nicht. nv tut sehr viel für das pc gaming.

N0Thing
2011-10-03, 11:33:09
Einfach ignorieren. Der Unsinn ist es doch gar nicht wert, kommentiert zu werden. ;)

Dural
2011-10-03, 11:41:55
NV tut mehr für PC Spiele als jede andere Firma...

Lord Wotan
2011-10-03, 11:51:09
Hoffentlich stirbt bald Phys-X und SLI+Crossfire gleich mit. Microsoft sollte mal ein Machtwort sprechen und Standards setzen, so wie sie es vor Jahren mit Creative und deren EAX-Auswüchse in Spielen gemacht haben.
.
Und weil Microsoft eingesehen hat, das man gegen gute Standards der Hardware Industrie dauerhaft nicht ankommt. Hat Creaive Labs gewonnen und mit Windows 8 wird wieder voll ohne Umwege EAX unterstützt. Software Soundclone werden Untergehen. EAX wird wieder Standard in Spielen. Soviel zu deiner Anmerkung. Und mit PhysX wird es das selbe sein. Und NVidia setzt Hardware Meilensteine mit GPU PhysX für Gamer.

LovesuckZ
2011-10-03, 11:53:24
Nachdem auch Dice zeigt, dass Effektphysik anscheinend nicht über die CPU vernünftig berechnet werden kann, wäre es das letzte, was ein PC-Spieler mit Anspruch will, dass GPU-PhysX verschwindet.

Die zwei, drei Spiele im Jahr, sind balsam für all diejenigen, die mehr wollen als Konsolenkost. Alle anderen können die Effekte ja abstellen.

Amboss
2011-10-03, 11:54:07
@Wotan
Ja, mal sehen ob sie sich damit einen Gefallen getan haben...

Lord Wotan
2011-10-03, 11:59:22
@Wotan
Ja, mal sehen ob sie sich damit einen Gefallen getan haben...
EAX ist ein Standard die man nicht ignorieren kann. Und das ist gut so das Microsoft da eingeknickt ist. Ich will echten 3D Sound in Games. Und das liefert nur Creative Labs. Und ich will volles GPU PhysX in Games und das liefert nur NVidia.

Amboss
2011-10-03, 12:00:48
Eigene Standards im PC-gaming setzen zu wollen und dabei Konkurrenten auszuschließen oder zu benachteiligen in einer Zeit, in der Konsolen erdrückend den Spielemarkt beherrschen, ist selbstzerstörerisch. Viele Spiele unterstützen default kein AA mehr oder bieten keine vernünftigen Texturen, von der Steuerung diverser Konsolenports ganz zu schweigen. Aber NV tritt wohl lieber die Flucht nach vorne an, da werden ständig neue Features nachgeschoben, die man dann in diversen Demos bewundern darf.

Amboss
2011-10-03, 12:01:39
EAX ist ein Standard die man nicht ignorieren kann. Und das ist gut so das Microsoft da eingeknickt ist. Ich will echten 3D Sound in Games. Und das liefert nur Creative Labs. Und ich will volles GPU PhysX in Games und das liefert nur NVidia.

Wir sind ja eigentlich der selben Meinung, nur im Jahre 2011 interessiert es die Konsolen-geilen Spieleentwickler nicht mehr (Crytek 2011 - Crysis 1 auf Konsole megasupergeil besser als auf PC, LOL). Geld regiert die Welt.

Lord Wotan
2011-10-03, 12:02:48
Eigene Standards im PC-gaming setzen zu wollen und dabei Konkurrenten auszuschließen oder zu benachteiligen in einer Zeit, in der Konsolen erdrückend den Spielemarkt beherrschen, ist selbstzerstörerisch. Viele Spiele unterstützen default kein AA mehr oder bieten keine vernünftigen Texturen, von der Steuerung diverser Konsolenports ganz zu schweigen. Aber NV tritt wohl lieber die Flucht nach vorne an, da werden ständig neue Features nachgeschoben, die man dann in diversen Demos bewundern darf.
NVidia zeigt nur auf das der PC für immer Grafisch den Konsolen um Welten überlegen ist. Microsoft weiß das als Konsolenhersteller auch ganz genau. Es gibt keine Konsole die an guter PC Hardware auch nur ansatzweise ran kommt. Konsolen benutzen immer noch DirectX 9.
Der PC DirectX 11 und DirectX 11.1 steht vor der Tür.

Amboss
2011-10-03, 12:09:03
NVidia zeigt nur auf das der PC für immer Grafisch den Konsolen um Welten überlegen ist. Microsoft weiß das als Konsolenhersteller auch ganz genau. Es gibt keine Konsole die an guter PC Hardware auch nur ansatzweise ran kommt. Konsolen benutzen immer noch DirectX 9 .

Das ist ja klar, nur wo sind die Spiele die unsere zweifelsfrei gewaltig überlegene PC-Hardware auch mal vernünftig ausnutzen?

Mich kotzen diese Konsolen-Ports nur noch an, EA ist bei mir mittlerweile unten durch. Rage ist ein Shooter-Hoffnungsschimmer für mich, wenn das auch nichts wird, k.A. :confused:

Dural
2011-10-03, 12:09:26
klar wenn NV kein GPU PhysX hätte wäre das besser? :freak:

NV verhindert keinen Standard, Sie waren sogar die die AMD PhysX angeboten haben, AMD wollte es aber nicht (kein Geld)

NV ist die Firma die Bullet sogar mit Karten und Treiber unterstütz haben! (weil AMD damals noch nichts liefern konnte)

Wenn es PhysX nicht gäbe, hätten wir auch in Jahren noch keinen Standard weil es kein Mensch Interessiert (wegen den Konsolen)

Die einzige Firma die einen Standard verhindert ist AMD, da von ihnen nämlich so gut wie keinen Beitrag kommt und sie das Thema seit Jahren immer wieder hinaus zögern (Grund dürfte klar sein, kein Geld für Investitionen...)


Ohne NV hätten wir zu 99% nur 1:1 Konsolen umsetztungen, ist dir das eigentlich bewusst???

w0mbat
2011-10-03, 17:13:42
nein, nvidia hat amd nie physX angeboten. das ist eine legende.

Raff
2011-10-03, 17:25:52
Quelle? =)

MfG,
Raff

deekey777
2011-10-03, 17:33:47
Quelle? =)

MfG,
Raff
Das sind die gleichen Quellen wie "Wir sind für alles offen".

Knuddelbearli
2011-10-03, 17:40:28
Nachdem auch Dice zeigt, dass Effektphysik anscheinend nicht über die CPU vernünftig berechnet werden kann, wäre es das letzte, was ein PC-Spieler mit Anspruch will, dass GPU-PhysX verschwindet.

Die zwei, drei Spiele im Jahr, sind balsam für all diejenigen, die mehr wollen als Konsolenkost. Alle anderen können die Effekte ja abstellen.


denke er will NICHt das gpu physik verschwindet sondern nur der hersteller eigene mist


und da gebe ich ihm auch voll recht

Knuddelbearli
2011-10-03, 17:44:15
Quelle? =)

MfG,
Raff

du verlangst nicht wirklich ne quelle dafür das nv ati Physix nicht angeboten hat ?

wenn dann bitte umgekehrt ...

SamLombardo
2011-10-03, 18:11:20
denke er will NICHt das gpu physik verschwindet sondern nur der hersteller eigene mist


und da gebe ich ihm auch voll recht
Also NV sponsort Spieleentwickler mit Geld und Manpower und schenkt das Ergebnis dann der Konkurrenz, die keinen Bock oder kein Geld hat es selber zu tun? So in etwa was Du Dir wünschst?

LovesuckZ
2011-10-03, 18:18:43
denke er will NICHt das gpu physik verschwindet sondern nur der hersteller eigene mist

und da gebe ich ihm auch voll recht

Klar, als AMD User würde ich ihm auch recht geben. Wieso sollte auch der doofe nVidia-Kunde mehr bekommen als man selbst? Ist doch nur unfair. :(

Die Wirklichkeit sieht nunmal so aus, dass man heute ohne nVidia kein GPU-Physik und damit vernünftige Effektphysik erhält. Das ist zwar traurig, aber am Ende muss man eben akzeptieren, dass weder die Entwickler selbst noch AMD irgendwas für PC-Gaming unternehmen. Und wenn es eben Geld, Zeit und Sponsoring von nVidia bedürft, dann soll es mir recht sein.

Amboss
2011-10-03, 18:20:47
Also NV sponsort Spieleentwickler mit Geld und Manpower und schenkt das Ergebnis dann der Konkurrenz, die keinen Bock oder kein Geld hat es selber zu tun? So in etwa was Du Dir wünschst?

Als ob sie das nicht aus Eigeninteresse tun würden... nach dem Motto: "Seht her, nur mit einer original Nvidia Karte läuft das Spiel problemlos..." Werbung nennt man das. Viele Einsteiger sagen stattdessen: "Och, so ein scheiß am PC, mit der Konsole funktioniert das doch immer..." und wenden sich vom PC als Spielemedium ab.

Welche Spieleentwickler sollen denn all die Sonderwünsche gewisser GPU und Soundkartenhersteller berücksichtigen, die Entwicklung ist doch schon so viel zu teuer und dann muss man für ein paar PC-Enthusiasten auch noch 3xmal mehr Arbeit reinstecken. Richtig erkannt, machen sie nicht. Da wird dann schnell eine lieblose Portierung durchgeführt, AA, Vertical-sync und gescheite Texturen vergessen, aber Phys-X, das muss es haben, weil ein gewisser Hersteller extra deswegen ein paar Scheine rüber wandern lässt.

Amboss
2011-10-03, 18:22:16
Die Wirklichkeit sieht nunmal so aus, dass man heute ohne nVidia kein GPU-Physik und damit vernünftige Effektphysik erhält.

Aha, die man dann nur vernünftig in Tech-Demos bewundern kann, weil der Spielemarkt und dessen Multi-Plattform Titel sowas nicht hergeben. Aber die Hoffnung stirbt zu letzt, so long :freak:

Amboss
2011-10-03, 18:28:23
Mal ehrlich, Techdemos finde ich nur noch peinlich. Wenn ich mich daran erinnere wie vor Jahren eine X1800 XT beworben wurde, die ingame-Grafik ist heutzutage noch immer nicht dort, wie es damals ATI gerne gehabt hätte. Und das ist ein paar Jahre schon her und eine X1800 XT schon bald steinzeitlich.
Techdemos = 3Dmark = Peinlich

SamLombardo
2011-10-03, 18:29:28
Als ob sie das nicht aus Eigeninteresse tun würden... nach dem Motto: "Seht her, nur mit einer original Nvidia Karte läuft das Spiel problemlos..." Werbung nennt man das. Viele Einsteiger sagen stattdessen: "Och, so ein scheiß am PC, mit der Konsole funktioniert das doch immer..." und wenden sich vom PC als Spielemedium ab.

Welche Spielentwickler sollen denn all die Sonderwünsche gewisser GPU und Soundkartenhersteller berücksichtigen, die Entwicklung ist doch schon so viel zu teuer und dann muss man für ein paar PC-Enthusiasten auch noch 3xmal mehr Arbeit reinstecken. Richtig erkannt, machen sie nicht. Da wird dann schnell eine lieblose Portierung durchgeführt, AA, Vertical-sync und gescheite Texturen vergessen, aber Phys-X, das muss es haben, weil ein gewisser Hersteller extra deswegen ein paar Scheine rüber wandern lässt.
Klar tun sie es aus Eigeninteresse. Sie wollen ihre Grafikkarten verkaufen und deswegen bezahlen sie Entwickler, damit die Games mit diesen Karten einen deutlichen Mehrwert ggü. Konkurrenz und Konsolen bieten. So sind nun mal die Gesetze der Marktwirtschaft, ohne dieses Sponsoring passiert da leider meist überhaupt nix:(. Das gefällt mir genausowenig, ist aber so. Die frage ist doch, wieso schert es AMD nicht?

Lyka
2011-10-03, 18:31:24
1. die Frage stelle ich mir auch
und
2. ich werde deshalb das erste Mal seit meiner TI4200 als nächstes auf Nv umsteigen. Wenns mit ATI wieder korrekt funktioniert, bin ich gerne wieder bereit, entsprechend zu investieren.

boxleitnerb
2011-10-03, 18:31:27
So wie es momentan aussieht, gibts doch nur zwei Möglichkeiten bzgl. GPU-Physik:

a) gar nichts (oder wer kennt hier Titel mit OpenCL-Physik auf der GPU?)
b) hier und da zusätzliche Spielereien für Geforce-Besitzer

Jetzt könnte man hergehen und sagen, es gibt auch noch c)

c) gar nichts, um die Spieleentwickler/IHVs/Microsoft zu zwingen, einen (offenen) Standard zu entwickeln.

Bloß, das klappt so nicht. Ich weigere mich zu glauben, dass GPU-PhysX einem offenen Standard im Weg steht. Dafür ist die Verbreitung viel zu gering. Und CPU-PhysX läuft eh überall bzw. hat starke Konkurrenz in Form von Havok. Die erstrebenswerteste Variante ist also b). Das mag 50% des Marktes nicht passen, weil sie nichts davon haben, aber gäbe es PhysX nicht, würde es für die AMD-Fraktion rein gar nichts ändern. PhysX läuft parallel als Alternative während sich GPU-Physik per OpenCL im Schneckentempo (oder noch langsamer) ausbreitet.

Amboss
2011-10-03, 18:34:45
und deswegen bezahlen sie Entwickler, damit die Games mit diesen Karten einen deutlichen Mehrwert ggü. Konkurrenz und Konsolen bieten.

Ja, das ist NVs Wunschdenken und würde das funktionieren, währe auch ne NV Karte wieder mal in meinem Rechner. Aber die Realität sieht anders aus. DIe letzten Games haben mich erschrocken, ich spiele mittlerweile lieber alte Perlen als diese lieblosen Konsolenports, die in letzter Zeit den Markt überschwemmen.

Das ganze wird immer perverser, AA, vsync, Texturen werden mittlerweile stark vernachlässigt, hier sollte mal NV und AMD ansetzen, statt sich in Feature-Nirvana zu verrennen.

Knuddelbearli
2011-10-03, 18:34:58
Klar, als AMD User würde ich ihm auch recht geben. Wieso sollte auch der doofe nVidia-Kunde mehr bekommen als man selbst? Ist doch nur unfair. :(

Die Wirklichkeit sieht nunmal so aus, dass man heute ohne nVidia kein GPU-Physik und damit vernünftige Effektphysik erhält. Das ist zwar traurig, aber am Ende muss man eben akzeptieren, dass weder die Entwickler selbst noch AMD irgendwas für PC-Gaming unternehmen. Und wenn es eben Geld, Zeit und Sponsoring von nVidia bedürft, dann soll es mir recht sein.


dummd as ich nen I7 2600K ( auf 5 ghz ) und ne GTX 480 habe ^^

und zähl mal bitte ein spiel auf wo physix wirklich ( spiele relevant ) genutzt wird ?

LovesuckZ
2011-10-03, 18:36:53
Aha, die man dann nur vernünftig in Tech-Demos bewundern kann, weil der Spielemarkt und dessen Multi-Plattform Titel sowas nicht hergeben. Aber die Hoffnung stirbt zu letzt, so long :freak:

Mirrors Edge, Mafia 2, Alice 2, Batman:AA, Dark Void, Cryostasis, Darkest of Days und Sacred 2.

dummd as ich nen I7 2600K ( auf 5 ghz ) und ne GTX 480 habe ^^

und zähl mal bitte ein spiel auf wo physix wirklich ( spiele relevant ) genutzt wird ?

Dann freue dich doch. Du bekommst mehr. Du verlierst nichts, weil es nichts zu verlieren gibt. Wer nicht will, spielt eben die normale Konsolenportierung bzw. das Spiel mit veraltertem Partikelsystem.

y33H@
2011-10-03, 18:41:54
und zähl mal bitte ein spiel auf wo physix wirklich ( spiele relevant ) genutzt wird?Jedes mit PhysX als Gameplay-Physik-Bibliothek. Effektphysik ist praktisch nie relevant für's Gameplay.

Blaire
2011-10-03, 18:44:24
Als ob sie das nicht aus Eigeninteresse tun würden... nach dem Motto: "Seht her, nur mit einer original Nvidia Karte läuft das Spiel problemlos..." Werbung nennt man das. Viele Einsteiger sagen stattdessen: "Och, so ein scheiß am PC, mit der Konsole funktioniert das doch immer..." und wenden sich vom PC als Spielemedium ab.

Ich sehe da keinerlei Zusammenhang, eigentlich solltest du NVIDIA dankbar sein, da sie versuchen sich vom Standard abzusetzen und ihren Kunden eine bessere Qualität zu ermöglichen. Was ist daran verwerflich dies auch im eigenen Interesse zu tun, wenn es die Qualität steigert und als Kaufargument gelten kann? Ich verstehe die Kritik nicht.

Amboss
2011-10-03, 18:53:42
Was ist daran verwerflich dies auch im eigenen Interesse zu tun, wenn es die Qualität steigert und als Kaufargument gelten kann? Ich verstehe die Kritik nicht.

Nun, es heißt nicht "Nvidia gegen Konsolen" sondern "PC vs überlengene Konsolen". Nvidia müsste mit Microsoft, AMD und den Spieleentwicklern an einem Strang ziehen, stattdessen bekriegen sich bald alle gegenseitig. Und wer profitiert davon? richtig.
Multiplattform-Titel schließen zur Zeit und bis auf weiteres vernünftiges DX 11 und Phys-x aus. Punkt.

Coda
2011-10-03, 18:54:57
Jedes mit PhysX als Gameplay-Physik-Bibliothek. Effektphysik ist praktisch nie relevant für's Gameplay.
Ist sie nie. Das ist die Definition davon.

y33H@
2011-10-03, 19:01:57
Ich hatte Cellfactor im Hinterkopf, daher der Zusatz "praktisch". Ich meine, dass Wasser sei da Gameplay-relevant und idR werden SPHs via GPU-PhysX als Effekte hinzu gefügt (wie in Cryostasis etwa).

Blaire
2011-10-03, 19:24:00
Nun, es heißt nicht "Nvidia gegen Konsolen" sondern "PC vs überlengene Konsolen". Nvidia müsste mit Microsoft, AMD und den Spieleentwicklern an einem Strang ziehen, stattdessen bekriegen sich bald alle gegenseitig. Und wer profitiert davon? richtig.

Das ist höchst spekulativ der PC wird immer technisch voraus sein, warum sollte sich da zukünftig etwas daran ändern? Ich sehe nicht das NVIDIA irgendetwas blockiert, das Gegenteil ist der Fall, wie das jüngste Beispiel: Battlefield3 ja auch zeigt. Microsoft verfolgt auch ihre eigenen Interessen, schonmal daran gedacht? ;)

dargo
2011-10-03, 19:30:52
Microsoft verfolgt auch ihre eigenen Interessen, schonmal daran gedacht? ;)
So siehts aus. Wir stecken irgendwie in einer Zwickmühle. Würde MS den PC großartig pushen würde man die eigene Plattform (Xbox) gefährden. Eigentlich bräuchten wir ein ähnlich mächtiges OS am PC wie Windows, nur vom anderen Hersteller, der nicht im Konsolengeschäft rumeiert.

Botcruscher
2011-10-03, 19:45:50
Ein anderes OS bekommst du aber nicht und irgendwelche gesponserten Insellösungen werden nie eine Rolle spielen.
Die Sache sieht doch so aus:
Bei der neuen Konsolengenration einigt man sich auf Druck der Entwickler. Bullet, OpenCL und CO haben deutlich bessere Chancen da plattformübergreifend. Oder: Ein Konsolenhersteller lizenziert irgendwas exklusiv von NV und subventioniert das in Exklusivtiteln den Entwicklern. Bei der Anzahl an Multiplattformtiteln wird das aber eh scheitern.
Bis die nächsten Konsolen kommen heißt es eh abwarten, über schlechte gesponserte Spiele lästern und die noch schlechtere CPU-Skalierung bewundern.

mapel110
2011-10-03, 19:51:53
Spiele sind doch das einzige, was die Leute bei Windows hält. Alles andere gibts auch kostenlos bei Linux.

Exxtreme
2011-10-03, 19:52:56
So siehts aus. Wir stecken irgendwie in einer Zwickmühle. Würde MS den PC großartig pushen würde man die eigene Plattform (Xbox) gefährden. Eigentlich bräuchten wir ein ähnlich mächtiges OS am PC wie Windows, nur vom anderen Hersteller, der nicht im Konsolengeschäft rumeiert.
Korrekt. Dummerweise hat ausser MS niemand ein Interesse dran, dass das eigene OS auch für Spiele taugt.

LovesuckZ
2011-10-03, 19:56:47
Korrekt. Dummerweise hat ausser MS niemand ein Interesse dran, dass das eigene OS auch für Spiele taugt.

Apple und Google. ;)

Exxtreme
2011-10-03, 19:59:21
Apple und Google. ;)
Auch die haben keinen dedizierten Spiele-Support. Die Spiele kann man auch drauf laufen lassen. Aber bei weitem nicht in der Qualität wie sie auf dem Windows-Desktop möglich ist.

Ich hatte ehrlich gesagt auf Linux gehofft. Aber da wird sich nichts mehr tun.

LovesuckZ
2011-10-03, 20:01:06
Auch die haben keinen dedizierten Spiele-Support. Die Spiele kann man auch drauf laufen lassen. Aber bei weitem nicht in der Qualität wie sie auf dem Windows-Desktop möglich ist.

Ich hatte ehrlich gesagt auf Linux gehofft. Aber da wird sich nichts mehr tun.

Aber man kümmert sich um einen Spielesupport. Vorallem von Herstellerseite gibt es wesentlich mehr Unterstützung als bei MacOS oder sonstigen Unix-Systemen.

Lord Wotan
2011-10-03, 20:03:04
Spiele sind doch das einzige, was die Leute bei Windows hält. Alles andere gibts auch kostenlos bei Linux.
Das ist nicht das einzige. Es gibt viele andere Gründe was aber hier den Rahmen Sprengen würde. Kleiner Tipp, man braucht kein Hackerstudium um kleinste Sachen einzustellen. Windows ist bei der Benutzerfreudlichkeit einfach jeden Linux überlegen. Linux schafft ja nicht mal Simples Intel Raid zu laufen zu bekommen. ;D

Coda
2011-10-03, 20:48:05
Spiele sind doch das einzige, was die Leute bei Windows hält. Alles andere gibts auch kostenlos bei Linux.
Gewagte These.

Das ist nicht das einzige. Es gibt viele andere Gründe was aber hier den Rahmen Sprengen würde. Kleiner Tipp, man braucht kein Hackerstudium um kleinste Sachen einzustellen. Windows ist bei der Benutzerfreudlichkeit einfach jeden Linux überlegen. Linux schafft ja nicht mal Simples Intel Raid zu laufen zu bekommen. ;D
:facepalm:

bloub
2011-10-03, 21:10:41
vor 15-20 jahren war alles lockerer. da hat es niemand für nötig befunden, über sowas lächerliches überhaupt zu diskutieren, entweder man hatte die hardware für gewisse features oder eben auch nicht. :wink:

Heelix01
2011-10-03, 21:19:49
Blizzard bietet seine Spiele ( ok, WoW, sc2, D3, .... ) für MacOS :) . Würden sich mal mehr Entwickler dafür entscheiden :/ .

Knuddelbearli
2011-10-03, 21:30:34
na leider geht es die richtung das zumindest linux support oft gestrichen wird

zB der von EvE Online vor nem Jahr

y33H@
2011-10-03, 21:33:08
Oil Rush kommt für Mac.

Hardwarekaeufer
2011-10-03, 21:54:28
Ich verstehe die Frage nicht - inwiefern soll PhysX sterben ?

Soweit ich das mitbekommen habe wurde es doch nur von Nvidia aufgekauft und auf CUDA umprogrammiert, damit es die Grafikkarte selbst rechnen kann ?!

Es gibt doch immernoch die Treiberunterstützung für eine zweite Grafikkarte die sich lediglich der PhysX-Berechnungen zuwendet. Einzige Anforderung: Die Karte muss CUDA unterstützen.

Oder habe ich durch meine SPieleabstinenz der letzten zwei Jahre was verpasst ?!

Blediator16
2011-10-03, 22:18:02
Ich verstehe die Frage nicht - inwiefern soll PhysX sterben ?

Soweit ich das mitbekommen habe wurde es doch nur von Nvidia aufgekauft und auf CUDA umprogrammiert, damit es die Grafikkarte selbst rechnen kann ?!

Es gibt doch immernoch die Treiberunterstützung für eine zweite Grafikkarte die sich lediglich der PhysX-Berechnungen zuwendet. Einzige Anforderung: Die Karte muss CUDA unterstützen.

Oder habe ich durch meine SPieleabstinenz der letzten zwei Jahre was verpasst ?!

Wäre schön, wenns so einfach wäre. Wenn du eine AMD drinne hast und die NV als PhysX Karte nutzen willst, wird dir das nicht so einfach gemacht :freak:

Hugo78
2012-06-09, 13:02:28
Arma 3: Militär-Shooter soll von Nvidias PhysX 3.0-SDK profitieren
http://www.pcgameshardware.de/aid,889815/Arma-3-Militaer-Shooter-soll-von-Nvidias-PhysX-30-SDK-profitieren/Action-Spiel/News/

aufkrawall
2012-06-09, 13:11:23
Aus dem Artikel werd ich nicht so recht schlau.
Das Multithreading soll ja einer der Hauptgründe fürs Update auf PhysX 3 sein.
Mit der GPU hat das doch erstmal gar nichts zu tun, es geht also wohl um Software PhysX.
Gibts auch Hardware-PhysX, die irgendwelche sinnvollen Zusatzeffekte bietet?

dildo4u
2012-06-09, 13:17:02
Nö bisher wurde nur Fahrzeug Physik erwähnt die auf PhysX aufbaut,die muss ja überall gleich ablaufen.Vieleicht ist das SDK jetzt gut genug um ne gute Alternative zu Havok zu sein,auch wenn man nur die CPU nutzt.

Hugo78
2012-06-09, 13:20:59
In SDK 3.0 gings ja auch primär um eine bessere CPU Ausnutzung für Gameplay Physik.

aufkrawall
2012-06-09, 13:23:47
Also ansich ne völlig uninteressante News. :D
Man müsste wissen, ob mit Software-PhysX nicht wesentlich glaubwürdigere Physik als mit Havoc möglich ist.
Ansonsten ist es mir ziemlich einerlei, welche Engine für die Physik zuständig ist.

Hugo78
2012-06-09, 13:33:40
GPU PhysX war schon immer nur zur Erhöhung der Partikeldichte ect. da.
Sich daran hochziehen, ist wie über mehr Kantenglättung oder HighRes Texturen jammern.

Was das CPU PhysX angeht, was heißt hier jetzt glaubwürdiger?
Man bräuchte erstmal einen Bench der Havoc als auch PhysX beherrscht, eine definierte Berechnungsstufe und dann könnte man sehen welcher Code hier schneller arbeitet.

Wie glaubwürdig das dann aber im Spiel ausschaut, hängt dann aber immernoch primär vom Talent des Spieledesigners ab.