PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Mafia 2 Benchmark: Betrug mit PhysX?


Gast
2010-08-12, 16:21:46
... und es kann mir jetzt keiner erzählen, dass das ein "Bug" ist: Folgendes hab ich auf meinem Phenom II (Quadcore mit 3,8Ghz) System mit Radeon 5870 (@900/1300) getestet:

Benchmark run @1280x1024 (maximale Details mit FSAA/16xAF) einmal PhysX auf "Aus" und einmal auf "Hoch". Dabei habe ich nebenbei die CPU-Auslastung meiner 4-Kern CPU beobachtet und festgestellt, dass mit PhysX auf "Hoch" die durchschnittliche Auslastung der CPU sinkt:

PhysX "High": CPU-Auslastung zwischen 30% und 60%
PhysX "Off": CPU-Auslastung zwischen 30% und 80%

Lustigerweise scheint es außerdem ziemlich egal zu sein, in welcher Auflösung man spielt: mit PhysX auf "Hoch" ist die 1280x1024 fast gleich lahm wie 1920x1200... die Durchschnittliche Framerate beträgt einmal 13 und einmal 15 fps.

Wie kann das sein? Wird hier seitens Nvidia schon wieder getrixt? Wieso sinkt die CPU-Auslastung nach aktivieren von PhysX?!

LovesuckZ
2010-08-12, 16:26:20
Die Auslastung sinkt, weil ein Kern zum Bremsklotz wird. Kommt ein Kern mit der Berechnung nicht hinterher, so müssen die anderen warten. Dadurch sinkt die Auslastung.

Gast
2010-08-12, 17:00:56
Das Spiel ist eben halbwegs parallelisiert. Nur da wo es am einfachsten ginge, nämlich bei der Physik hat sich Nvidia eben wieder einen künstlichen Vorteil erkauft indem man alles auf einen Kern quetscht. Traurig, aber nichts neues mehr. Jede Wette das es bei ordentlicher Parallelisierung auf der CPU mit entsprechen vielen Kernen sogar besser liefe, denn die Leistung ist eh auch mit GPU-PhysX bescheiden.

Gast
2010-08-12, 17:06:32
1. PhysX ist Ageias Werk.
2. Nvidia arbeitet an einer Performancesteigerung, auch wenn man es ihnen nicht verübeln könnte wenn sie nichts tun.
3. Nvidia ist nicht der Hersteller von Mafia 2.
4. Flamethread anywhere?

Gast
2010-08-12, 17:10:07
so wie es derzeit umgesetzt ist haut mich physx nicht wirklich vom hocker.
die beschleunigung auf grafikkarten ist eher mau, der mehrverbrauch auch im idle ist leider immer da.
die beschleunigung auf cpus ist katastrophal.
und dass alles für ein paar klötzchen die hin und her purzeln und holzsplitter die aussehen wie zu counterstrike 1.0 zeiten. der Unterschied zu dem was man mit havoc bereits vor drei jahren hatte ist so minimal, dass physx zunehmend lächerlich wirkt.

ich bin sicher bei ordentlicher multithreadoptimierung der physx treiber ist man mit einem sechs-core besser beraten als mit einer zusätzlichen gt260. das ist dann nur eben sehr peinlich für nvidia, daher bremst man physx künstlich aus um besser dazustehen.

Insgesamt degradiert das physx aber zu etwas zweitklassigem. andere softwarephysx lösungen sind dadurch plattformunabhängiger und schneller. sehr blöde firmenpolitik sowas, erst die dedizierten physikbeschleuniger einstampfen und dann wegen schlechter performance auf gpus auch noch die softwarevariante ausbremsen.

Gast
2010-08-12, 17:15:20
Ah ein Flamethread.

der mehrverbrauch auch im idle ist leider immer da.
Hä?
Idle ist Idle.

und dass alles für ein paar klötzchen die hin und her purzeln und holzsplitter die aussehen wie zu counterstrike 1.0 zeiten. der Unterschied zu dem was man mit havoc bereits vor drei jahren hatte ist so minimal, dass physx zunehmend lächerlich wirkt.Na dann nenn mal Beispiele.
Wo zur Hölle kann ich eine ganze Straßenkreuzung in Schutt legen? Wo bleibt dann der Schutt auch noch liegen?

Multi CPU Auslastung ist wirklich etwas, das ist der einzige Punkt den man jetzt nach den ganzen Posts festhalten kann.
Ob der ganze Müll dazwischen nötig war?

Gast
2010-08-12, 17:28:47
Selbst Multi CPU Auslastung kann man kaum einfordern.
Da ist eine Firma die ihre GPU Lösungen durch PhysX aufwerten will, warum sollte man PhysX für die CPU optimieren.
Das wäre dann der Job einer Firma die CPU's verkaufen will, nur scheint sich dort niemand wirklich zu engagieren.

Man will mit dem Feature die eigenen GPU's attraktiver machen, warum sollte man da massiv Ressourcen in einen besseren CPU Support stecken, damit würde man die Sache als solche doch ad Absurdum führen.
Marktwirtschaftlich würde das dann überhaupt keinen Sinn mehr machen.
Nvidia Ziel ist PhysX für ihre GPU's und nicht Samariter spielen und Physik für die CPU optimieren, wovon man als GPU Hersteller keinen Nutzen hätte.

Solche Forderungen kann man an AMD oder Intel stellen, speziell für AMD wäre eine solide Physik über CPU eine Option ihre CPU's attraktiver zu machen und dem Kunden ein Kaufanreiz zu verschaffen.

Jonny1983
2010-08-12, 18:41:05
PhysX "High": CPU-Auslastung zwischen 30% und 60%
PhysX "Off": CPU-Auslastung zwischen 30% und 80%

Was daran ist nicht normal?
Desto höher die GPU belastet wird, desto weniger hat die CPU zu tun, weil diese auf die GPU warten muss. Logisch oder?

Machst du AA+AF an + hohe Auflösung, dürfte die CPU Last auch sinken, weil diese auf die GPU ständig warten muss und rum-IDLEd.

Mr. Lolman
2010-08-12, 18:46:16
mit CPU PhysX sollte die Auslastung allerdings steigen.


Außerdem: Wenn man den Benchmark macht, merkt man wieder, wie ineffizient das ist. Die ganzen Minopartikel und der Rauch brauchen auch noch Rechenzeit wenn sie längst am Boden liegen bzw Verpufft sind. Mit ApoeX @ High sinkt der Benchmark immer weiter auf ~10fps auch wenn sich PhysX mässig gerade garnix tut. Schade, dass man die "time of life" der Partikeleffekte nirgendwo konfigurieren kann.

Andererseits kann man mit Apex@High auch mit nem Q9450@3.6GHz ganz gut zocken, sofern man den Clothhack drauftut (der von allen Passanten bis auf den Protagonisten, die Physikeffekte entfernt).

Gast
2010-08-12, 18:51:22
Liegt wohl an der Implementierung denn kein anderes PhysX Spiel zeigt es so "gravierend". Wer sagt das die CPU Auslastungsanzeige auch immer stimmt...
Als FarCry den SM3 Pfad bekam, war auch klar das die Implementierung relativ bescheiden ist. Aber nV war das böse Kind welches s.... SM3 gepusht hat, immer die gleiche Leier der Fanboys.

Coda
2010-08-12, 18:58:25
Als FarCry den SM3 Pfad bekam, war auch klar das die Implementierung relativ bescheiden ist.
Ich weiß nicht auf was du hinaus willst. FC lief mit SM3 bei gleicher Bildqualität schneller als mit SM2.

Der Grund dafür ist, dass mehr Lichter im gleichen Pass gerendert werden weil mehr Interpolatoren zur Verfügung stehen (12 statt 10). Außerdem war Instancing möglich.

Aber das ist nun völlig themenfremd.

Schlammsau
2010-08-12, 19:09:44
Was daran ist nicht normal?
Desto höher die GPU belastet wird, desto weniger hat die CPU zu tun, weil diese auf die GPU warten muss. Logisch oder?

Machst du AA+AF an + hohe Auflösung, dürfte die CPU Last auch sinken, weil diese auf die GPU ständig warten muss und rum-IDLEd.

Durch was wird die GPU einer Radeon höher belastet?

Gast
2010-08-12, 19:35:40
Die Auslastung sinkt, weil ein Kern zum Bremsklotz wird. Kommt ein Kern mit der Berechnung nicht hinterher, so müssen die anderen warten. Dadurch sinkt die Auslastung.

ein kern wird zum bremslotz? und wieso bitteschön? die auslastung aller 4 kerne ist ziemlich gleichmäßig. egal ob ich physx altiviere oder nicht. das problem ist nur, dass physx offenbar so (absichtlich?) extremst ineffizient ist, dass die cpu auslastung sogar SINKT! und das ist nocht logisch. wieso soll die auslastung sinken wenn mehr gerechnet werden soll(te)!? zeigt das vielleicht, dass nvidia mit physx eingach schnelle mehrkern-cpus absichtlich benachteiligt obwohl diese in der lage wären den mehraufwand leicht zu bewältigen?

Gast
2010-08-12, 19:53:03
zeigt das vielleicht, dass nvidia mit physx eingach schnelle mehrkern-cpus absichtlich benachteiligt obwohl diese in der lage wären den mehraufwand leicht zu bewältigen?

Offensichtlich - wenn man sich einmal vorstellt, dass mit einem 6-Kerner durchaus 4 Kerne für die Berechnung zur Verfügung ständen, ergäbe dass selbst bei dieser ineffezienten Physikimplementierung spielbare Frameraten.

Ärgerlich ist, dass man als Spieler massive Einbußen hinnehmen muss, nur damit der Kunde verarscht werden kann und sich die tolle Gamerkarte GT 220 mit "PhysX" andrehen lässt, viel schlimmer aber ist, dass diejenigen, die von NV kaufen, dies auch noch aktiv unterstützen.

Schlammsau
2010-08-12, 19:57:25
Ist mit Sicherheit so, um GPU-PhysX zu pushen!

BlackBirdSR
2010-08-12, 20:04:52
Ärgerlich ist, dass man als Spieler massive Einbußen hinnehmen muss, nur damit der Kunde verarscht werden kann und sich die tolle Gamerkarte GT 220 mit "PhysX" andrehen lässt, viel schlimmer aber ist, dass diejenigen, die von NV kaufen, dies auch noch aktiv unterstützen.

Mal langsam hier..

haben wir nicht schon gehört, dass PhysX durchaus in der Lage ist, die Berechnungen auf 2 oder mehr Kerne zu verteilen - dies aber vom Entwickler explizit so programmiert werden muss? Als Showcase ist es doch klar, dass hier Wert auf die GPU gelegt wird. Dieses Showcases gab es schon immer und mir wurde schon immer übel davon!

Zum einen nutzt NV natürlich hier Marktmacht und Featureset aus, zum Anderen sind klar AMD und Intel gefordert, hier endlich mal etwas auf die Beine zu stellen. NV ist an die Entwickler herangetreten und hat diese intensiv in Sachen PhysX betreut. Das hat für den Entwickler viele (finanzielle) Vorteile. Weder bei Bullet, noch Havok gäbe es soetwas.

Ergo: Nvidia kann und tut, die anderen können es nicht und tun nix..
Verlieren tun natürlich wir als Käufer insgesamt, da braucht man nicht lange diskutieren!

LovesuckZ
2010-08-12, 20:08:38
Verlieren tun natürlich wir als Käufer insgesamt, da braucht man nicht lange diskutieren!

Wie kann man etwas verlieren, was man nie hatte?
Havok gibt es schon ewig und trotzdem hat nVidia sie innerhalb von zwei Jahren überholt. Alles, was man in Mafia 2 sieht, hat kein einziges Havok Spiel bis heute geboten. Normalerweise sollte Havok und andere Engines aufholen. Nennt man beiläufig auch Konkurrenz.

Schlammsau
2010-08-12, 20:08:56
haben wir nicht schon gehört, dass PhysX durchaus in der Lage ist, die Berechnungen auf 2 oder mehr Kerne zu verteilen - dies aber vom Entwickler explizit so programmiert werden muss? Als Showcase ist es doch klar, dass hier Wert auf die GPU gelegt wird. Dieses Showcases gab es schon immer und mir wurde schon immer übel davon!

Zum einen nutzt NV natürlich hier Marktmacht und Featureset aus, zum Anderen sind klar AMD und Intel gefordert, hier endlich mal etwas auf die Beine zu stellen. NV ist an die Entwickler herangetreten und hat diese intensiv in Sachen PhysX betreut. Das hat für den Entwickler viele (finanzielle) Vorteile. Weder bei Bullet, noch Havok gäbe es soetwas.

Ergo: Nvidia kann und tut, die anderen können es nicht und tun nix..
Verlieren tun natürlich wir als Käufer insgesamt, da braucht man nicht lange diskutieren!

Jupp.....Bullet und Co lassen sich verdammt lange Zeit. Warum die nicht in die pushen kommen ist fraglich. Macht AMD wirklich nichts oder gibt es anderweitige Probleme?

Wie kann man etwas verlieren, was man nie hatte?
Havok gibt es schon ewig und trotzdem hat nVidia sie innerhalb von zwei Jahren überholt. Alles, was man in Mafia 2 sieht, hat kein einziges Havok Spiel bis heute geboten. Normalerweise sollte Havok und andere Engines aufholen. Nennt man beiläufig auch Konkurrenz.

Die Physik von Mafia II, hat man schon in Max Payne II gesehen.
Bzw....find ich die Physik in HL² zB um einiges besser als die von Mafia II.

Robben-cost12k€-a-day
2010-08-12, 20:09:32
Offensichtlich - wenn man sich einmal vorstellt, dass mit einem 6-Kerner durchaus 4 Kerne für die Berechnung zur Verfügung ständen, ergäbe dass selbst bei dieser ineffezienten Physikimplementierung spielbare Frameraten.

Ärgerlich ist, dass man als Spieler massive Einbußen hinnehmen muss, nur damit der Kunde verarscht werden kann und sich die tolle Gamerkarte GT 220 mit "PhysX" andrehen lässt, viel schlimmer aber ist, dass diejenigen, die von NV kaufen, dies auch noch aktiv unterstützen.

Das ist aber seit Ageia so, aendere deren Produkt Name mit Nvidia und das Spiel geht weiter. Seit Ageia habe ich wirklich nichts -wow-, aaaah- maessig an Physikeffekte gesehen, nichts was nicht die CPU abarbeiten koennte, ergo Finger Weg von Thermi und [e]Nvidia/Physik.

Fails 465/470/480/"5970"[wobei bei der letzteren der Verbrauch ja auch 2 GPU zusammen kommt]
High End 5870
Mainstream 5850 / 460 1Gb
Semi-Mainstream 5830/460 768mb
.T
.R
.A
.S
.H

BlackBirdSR
2010-08-12, 20:10:18
Wie kann man etwas verlieren, was man nie hatte?
Havok gibt es schon ewig und trotzdem hat nVidia sie innerhalb von zwei Jahren überholt. Alles, was man in Mafia 2 sieht, hat kein einziges Havok Spiel bis heute geboten. Normalerweise sollte Havok und andere Engines aufholen. Nennt man beiläufig auch Konkurrenz.


Was trägt dein Post jetzt bei?
Auch wenn Du recht hast..

@Topic:
Würden AMD und Intel vergleichbares bieten, könnten wir alle zusammen schon viel weiter sein.
Betrug würde ich das weniger bezeichnen..

@Schlaummsau:
Vielleicht haben auch alle nur Angst mit Bemühungen in diese Richtung Nvidias Ansprüche oder Argumente zu festigen.
Vielleicht idiotisch, aber oftmals stellt man sich eher auf stur, als dem Gegner auch nur etwas zuzustehen. AMD hat IMO mit dem Kauf von ATI Zukunftskompetenz bewiesen, Nvidia beim Kauf einer Physikengine.

LovesuckZ
2010-08-12, 20:14:56
Was trägt dein Post jetzt bei?
Auch wenn Du recht hast..


Es zeigt, dass dein letzter Satz kompletter unsinn ist.
Der Kunde gewinnt, dass es durch nVidia eine forcierende Macht auf dem Markt gibt. Mir kann niemand erzählen, dass Cloth-Simulationen, wie in Mirrors Edge, nicht längst per CPU machbar gewesen wäre. Trotzdem bekommen es die anderen Engines über die CPU jedoch nicht hin. Statt also dauernd nur zu meckern, dass PhysX und nVidia so böse wären, sollten einige Druck bei den Firmen ausrichten, von denen sie ihre CPU und GPU haben.

Jake Dunn
2010-08-12, 20:19:04
Durch was wird die GPU einer Radeon höher belastet?

Die ganzen Teile die liegenbleiben müßen ja auch mitgerendert werden.


...zum Anderen sind klar AMD und Intel gefordert, hier endlich mal etwas auf die Beine zu stellen.

Jep Konkurenz wäre gut, da es eine einheitliche Schnittstelle nicht gibt/geben wird.

BlackBirdSR
2010-08-12, 20:19:14
Es zeigt, dass dein letzter Satz kompletter unsinn ist.
Der Kunde gewinnt, dass es durch nVidia eine forcierende Macht auf dem Markt gibt. Mir kann niemand erzählen, dass Cloth-Simulationen, wie in Mirrors Edge, nicht längst per CPU machbar gewesen wäre. Trotzdem bekommen es die anderen Engines über die CPU jedoch nicht hin. Statt also dauernd nur zu meckern, dass PhysX und nVidia so böse wären, sollten einige Druck bei den Firmen ausrichten, von denen sie ihre CPU und GPU haben.


Genau das habe ich in meinem Post ausgesagt, allerdings nicht so verbittert.

LovesuckZ
2010-08-12, 20:21:18
Genau das habe ich in meinem Post ausgesagt, allerdings nicht so verbittert.

Nein. Du hast am Ende gesagt: Der Kunde verliert. Das ist vollkommender unsinn, denn ohne GPU-PhysX gäbe es die ganzen Diskussionen nicht. Es gäbe auch die Effekte nicht.
Der Kunde gewinnt. Konkurrenzkampf ist immer gut.

Grey
2010-08-12, 20:24:38
Es herrscht kein Konkurrenzkampf, so lange nVidia die einzige Firma ist die die Leute dafür bezahlt, dass sie PhysX nutzen. Und das ist auch keine Vorbild-Funktion für andere Firmen.

IVN
2010-08-12, 20:37:52
Es herrscht kein Konkurrenzkampf, so lange nVidia die einzige Firma ist die die Leute dafür bezahlt, dass sie PhysX nutzen. Und das ist auch keine Vorbild-Funktion für andere Firmen.
Das Problem hier ist die alte "ist das Glas halbvoll oder halbleer?" Leier.

Die meisten PhysX-Kritiker denken wohl, das ohne Nv und ohne PhysX man in Sachen real-time, in-game Physik viel weiter wäre. Man denkt, das Nv hier die Entwicklung ausbremst. Ergo, die "Glas ist halbleer", die negativistische Perspektive.

Es sollte aber einleuchten, das Nv eigentlih die einzige Firma ist, die überhaupt Physik pusht, die ander "just dont give a damn". Von daher ist das was Nv tut nicht als negativ auszulegen, den ohn PhysiX hätte auch die Nv-GPU-Besitzer genau nix. DIe Situation wäre noch schlimmer. Die "Glas halbvoll" Perspektive.

Und jetzt zu mekern, weil Nv nur für die eigenen GPUs optimiert, ist einfach irrsinnig.

w0mbat
2010-08-12, 20:37:53
Nein. Du hast am Ende gesagt: Der Kunde verliert. Das ist vollkommender unsinn, denn ohne GPU-PhysX gäbe es die ganzen Diskussionen nicht. Es gäbe auch die Effekte nicht.
Der Kunde gewinnt. Konkurrenzkampf ist immer gut.

natürlich gäbe es diese effekte, aber eben mit SSE und multi-core für alle spieler. zudem wäre es nicht so homöopathisch vertreten.

und einen konkurrenzkampf gibt es erst, wenn es konkurrenz gibt. das gibt es aber nicht, physx wird von nvidia vergeudet und deshalb verliert der kunde.

dargo@work
2010-08-12, 20:38:46
Es herrscht kein Konkurrenzkampf, so lange nVidia die einzige Firma ist die die Leute dafür bezahlt, dass sie PhysX nutzen. Und das ist auch keine Vorbild-Funktion für andere Firmen.
Sag das MS und Sony. ^^

Gast
2010-08-12, 20:43:48
Die Physik von Mafia II, hat man schon in Max Payne II gesehen.
Bzw....find ich die Physik in HL² zB um einiges besser als die von Mafia II.
HL2 ist bestenfalls auf Crysis Niveau.
Crysis kann zwar mehr, setzt es aber nicht ein.

Cloth, den Rauch oder all die Partikel, die auch liegen bleiben, das gibts nirgends.


und einen konkurrenzkampf gibt es erst, wenn es konkurrenz gibt. das gibt es aber nicht, physx wird von nvidia vergeudet und deshalb verliert der kunde.
Und was kann Nvidia dafür das AMD oder Intel oder wer auch immer keinerlei Interesse an Havok zeigen?

Grey
2010-08-12, 20:44:54
Das Problem hier ist die alte "ist das Glas halbvoll oder halbleer?" Leier.

Die meisten PhysX-Kritiker denken wohl, das ohne Nv und ohne PhysX man in Sachen real-time, in-game Physik viel weiter wäre. Man denkt, das Nv hier die Entwicklung ausbremst. Ergo, die "Glas ist halbleer", die negativistische Perspektive.

Es sollte aber einleuchten, das Nv eigentlih die einzige Firma ist, die überhaupt Physik pusht, die ander "just dont give a damn". Von daher ist das was Nv tut nicht als negativ auszulegen, den ohn PhysiX hätte auch die Nv-GPU-Besitzer genau nix. DIe Situation wäre noch schlimmer. Die "Glas halbvoll" Perspektive.

Und jetzt zu mekern, weil Nv nur für die eigenen GPUs optimiert, ist einfach irrsinnig.

Keine Ahnung wie tief du jetzt schon ins Glas geschaut hast, aber irgendwie sehe ich keinen Zusammenhang zwischen der Meinung und meiner. ;)

So wie das aktuell läuft hilft es essentiell niemandem.

IVN
2010-08-12, 20:46:58
Keine Ahnung wie tief du jetzt schon ins Glas geschaut hast, aber irgendwie sehe ich keinen Zusammenhang zwischen der Meinung und meiner. ;)

So wie das aktuell läuft hilft es essentiell niemandem.
Doch, den Geforce-Benutzern.

Und gäbe es Nv und PhysX nicht, würden ALLE in die Röhre gucken.

Grey
2010-08-12, 20:53:10
Und gäbe es Nv und PhysX nicht, würden ALLE in die Röhre gucken.

Mutige Behauptung. Warst du heimlich auf einem parallelen Zeitfluss unterwegs und hast dir eine alternative Gegenwart angeschaut? ;)

IVN
2010-08-12, 20:57:32
Mutige Behauptung. Warst du heimlich auf einem parallelen Zeitfluss unterwegs und hast dir eine alternative Gegenwart angeschaut? ;)
Stell dir vor, man muss keinen solchen Aufwand betreiben. Man sieht jetz auch, wie scharf die übrigen "Spieler" aufs Physik-Pushen sind. Die Begeisterung auf Seiten Intels und AMDs ist zum verrückt werden. Jedes 2. Wort das aus deren Marketing-Abteilung kommt ist "Physik". Physik hier, Physik da! Der enorme Hype treibt die PC-Spieler zum Wahnisinn. Jeder wartet auf den Moment, in dem Intel und AMD, die Physik-Revolution einleiten mit angehaltenem Atem...ohhh wait!;D

derguru
2010-08-12, 20:59:19
man sieht doch das nv zwanghaft versucht gpu-physX an die leute zubringen(entwickler) was aber nicht von erfolg gekrönt wird,es sind doch meistens nur kleine und ostblock-entwicklungsstudios denen man schon mit paar euros dazu bewegen kann physX einzubauen wie metro,mafia,cryostasis usw.von den großen studios wird es doch meistens nur ignoriert.hauptproblem von physX ist das verstandniss zu gpu-physX,vielen haben gedacht das die cpu dadurch entlastet wird und nicht wie jetzt das die 4,6 oder8 kerne mittagspause haben.nv könnte einen fast schon leid tun,denn gewinn haben sie sicherlich nicht gemacht.

Gast
2010-08-12, 21:01:22
AMD hat IMO mit dem Kauf von ATI Zukunftskompetenz bewiesen, Nvidia beim Kauf einer Physikengine.

Was ist denn das für ein seltsamer Vergleich? Dank Physx wird NV also überleben? Ich bitte Dich...

Machen wir uns nichts vor: Dass es GPU Physik in ein paar Spielen (sind ja nicht wirklich viele) gibt, liegt daran, dass NV kohleschwingend vor der Türe steht und den Käse auch gleich noch ins Programm einbaut. Zwar verschwenderisch bis zum abwinken, so dass selbst 2*480 nicht ausreichen, aber hey, immerhin flattern die Mäntel der Protagonisten physikalisch korrekt im Wind. Man kann das als technisch großartige Errungenschaft sehen oder es einfach beiläufig zur Kenntnis nehmen. Revolutionieren wird diese Technik rein gar nichts.

IVN
2010-08-12, 21:05:28
Was ist denn das für ein seltsamer Vergleich? Dank Physx wird NV also überleben? Ich bitte Dich...

Machen wir uns nichts vor: Dass es GPU Physik in ein paar Spielen (sind ja nicht wirklich viele) gibt, liegt daran, dass NV kohleschwingend vor der Türe steht und den Käse auch gleich noch ins Programm einbaut. Zwar verschwenderisch bis zum abwinken, so dass selbst 2*480 nicht ausreichen, aber hey, immerhin flattern die Mäntel der Protagonisten physikalisch korrekt im Wind. Man kann das als technisch großartige Errungenschaft sehen oder es einfach beiläufig zur Kenntnis nehmen. Revolutionieren wird diese Technik rein gar nichts.
Scheint dann aber doch wichtig genug zu sein, damit du deine Freizeit opferst, um zm Thema PhysX dein Senf dazu zu geben... ;)

Lustigerweise bemerke ich das immer wieder.

Radeon-User X im PhysX-Thread:"PhysX ist so egal wie ein Sack voll Reis in CHina..."

;D

Grey
2010-08-12, 21:06:53
Stell dir vor, man muss keinen solchen Aufwand betreiben. Man sieht jetz auch, wie scharf die übrigen "Spieler" aufs Physik-Pushen sind. Die Begeisterung auf Seiten Intels und AMDs ist zum verrückt werden. Jedes 2. Wort das aus deren Marketing-Abteilung kommt ist "Physik". Physik hier, Physik da! Der enorme Hype treibt die PC-Spieler zum Wahnisinn. Jeder wartet auf den Moment, in dem Intel und AMD, die Physik-Revolution einleiten mit angehaltenem Atem...ohhh wait!;D

Mir ist das einerlei, für mich hat derartiges rein gar nichts bei irgend einem der drei zu suchen. Es wäre *vollkommen* kontraproduktiv wenn AMD jetzt das gleiche machen würde. So etwas muss unabhängig funktionieren.

deekey777
2010-08-12, 21:07:59
Was trägt dein Post jetzt bei?
Auch wenn Du recht hast..


Du hast doch GRAW1 gespielt, oder?
Oder ist jetzt PhysX = GPU-PhysX?

...
haben wir nicht schon gehört, dass PhysX durchaus in der Lage ist, die Berechnungen auf 2 oder mehr Kerne zu verteilen - dies aber vom Entwickler explizit so programmiert werden muss?

Haben wir nicht. Aber dass man eine Simulation auf mehrere Emitter verteilt: Statt eines großen Wasserstrahls haben wir mehrere kleine.

Als Showcase ist es doch klar, dass hier Wert auf die GPU gelegt wird. Dieses Showcases gab es schon immer und mir wurde schon immer übel davon!
Und zeigt, dass die Entwickler weiterhin keinen Bock haben, die entsprechenden Effekte/Simulationen auf die CPU so auszulagern, dass sie vernünftig dargestellt werden. Oder sie dürfen nicht.

Zum einen nutzt NV natürlich hier Marktmacht und Featureset aus, zum Anderen sind klar AMD und Intel gefordert, hier endlich mal etwas auf die Beine zu stellen. NV ist an die Entwickler herangetreten und hat diese intensiv in Sachen PhysX betreut. Das hat für den Entwickler viele (finanzielle) Vorteile. Weder bei Bullet, noch Havok gäbe es soetwas.
AMD und Intel sind gefordert, um was zu tun? Bietet Havok etwa nicht die entsprechenden Simulationen etwa nicht an?
Star Wars: The Force Unleashed bietet so einiges.

Ergo: Nvidia kann und tut, die anderen können es nicht und tun nix..
Verlieren tun natürlich wir als Käufer insgesamt, da braucht man nicht lange diskutieren!
Natürlich ist der Endverbraucher der Verlierer. Auf der anderen Seite ist das das alte Spiel: Ist der Verbraucher Verlierer, wenn er in Crysis nicht alle Effekte aktivieren kann, ohne dass die Framerate zusammenbricht?

IVN
2010-08-12, 21:08:18
Mir ist das einerlei, für mich hat derartiges rein gar nichts bei irgend einem der drei zu suchen. Es wäre *vollkommen* kontraproduktiv wenn AMD jetzt das gleiche machen würde. So etwas muss unabhängig funktionieren.
Mir ist es doch lieber, das irgendjemand etwas macht, statt das keiner was macht.

Grey
2010-08-12, 21:14:45
Mir ist es doch lieber, das irgendjemand etwas macht, statt das keiner was macht.

Ok, fair enough. Ich sehe das nicht so, da habe ich andere Ansprüche an die Umsetzung und was am Ende dabei raus kommt.

Hugo78
2010-08-12, 21:18:03
Lustig die Verschwörungstheoritker, die Nvidia unterstellen, ständig mit Kohle um sich zuwerfen.
Dabei ist Nvidia drei mal kleiner als AMD und fast 20mal kleiner als Intel.
Und sowohl AMD als auch Intel haben ihre eigenen Physikengines und müssten doch auch ein Interesse haben, dass man nur ihre Engine verwendet.
.. also wenns denn wirklich so wäre, wie behauptet wird.

Da passt was nicht in die Verschwörungstheorie. ;D

LovesuckZ
2010-08-12, 21:21:58
Mutige Behauptung. Warst du heimlich auf einem parallelen Zeitfluss unterwegs und hast dir eine alternative Gegenwart angeschaut? ;)

Mutige Behauptung? Wielange gibt es schon Physik über die x86 CPU und über einen anderen Prozessor?
Komisch ist es nur, dass die Kritiker keine Problem mit geskripteter Physik wie in BF: BC2 haben, oder vollkommender Leere wie in Just Cause 2. Aber sobald nVidia es wagt mehr zu machen, kommen alle an und meckern...
Ich warte ja immer noch auf die Implementierung von Mafia 2 ähnlichen Effekten durch andere Engines, die über eine x86 CPU laufen. Aber anscheinend reichen ja Jahre nicht aus, was nVidia in 2 jahren (von mir aus auch in ca. 7 Monaten) erreicht hat.

Gast
2010-08-12, 21:31:22
Wann raffen es die AMD-Fanboys endlich? PhysX gehört Nvidia, sie können folglich damit anstellen, was immer sie wollen. Wenn sie möchten, können sie es auch so proggen, dass man mit AMD-Hardware auf 0,01 fps gelockt ist. Es ist ihr Produkt, ergo ihre Entscheidung.

Wenn's euch nicht passt, beschwert euch bei den Spiele-Entwicklern, dass sie sich auf diesen Deal eingelassen haben. Wobei der eigentliche Schuldige zweifelsfrei AMD ist, das hier zu lange gepennt und nun Nvidia nichts entgegenzusetzen hat...

derguru
2010-08-12, 21:34:08
Lustig die Verschwörungstheoritker, die Nvidia unterstellen, ständig mit Kohle um sich zuwerfen.
Dabei ist Nvidia drei mal kleiner als AMD und fast 20mal kleiner als Intel.
Und sowohl AMD als auch Intel haben ihre eigenen Physikengines und müssten doch auch ein Interesse haben, dass man nur ihre Engine verwendet.
.. also wenns denn wirklich so wäre, wie behauptet wird.

Da passt was nicht in die Verschwörungstheorie. ;D
das ist es doch,gpu-physik ist kein gewinnbringendes geschäftsmodel, deshalb halten sich amd und intel auch zurück.nv muss gas geben um die kohle die sie für den kauf ausgegeben haben wieder einzufahren,viel glück.:tongue:
Wann raffen es die AMD-Fanboys endlich? PhysX gehört Nvidia, sie können folglich damit anstellen, was immer sie wollen. Wenn sie möchten, können sie es auch so proggen, dass man mit AMD-Hardware auf 0,01 fps gelockt ist. Es ist ihr Produkt, ergo ihre Entscheidung.

Wenn's euch nicht passt, beschwert euch bei den Spiele-Entwicklern, dass sie sich auf diesen Deal eingelassen haben. Wobei der eigentliche Schuldige zweifelsfrei AMD ist, das hier zu lange gepennt und nun Nvidia nichts entgegenzusetzen hat...
stimmt.:biggrin:

LovesuckZ
2010-08-12, 21:36:26
das ist es doch,gpu-physik ist kein gewinnbringendes geschäftsmodel, deshalb halten sich amd und intel auch zurück.nv muss gas geben um die kohle die sie für den kauf ausgegeben haben wieder einzufahren,viel glück.:tongue:


Stimmt. Könnte aber auch daran liegen, dass der eine über keine GPUs verfügt, die dazu fähig wären und der andere über kein Geld, um in den Bereich zu investieren. AMD hat aber auch Glück: Können ihre 6 Kern CPUs und GPUs verhökern und gleichzeitig freuen sich die Kunden, dass die Spiele weder die CPU noch die GPU für bessere Physik verwenden. :freak:

Raff
2010-08-12, 21:39:53
AMD hat aber auch Glück: Können ihre 6 Kern CPUs und GPUs verhökern und gleichzeitig freuen sich die Kunden, dass die Spiele weder die CPU noch die GPU für bessere Physik verwenden. :freak:

So wie ich? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8202381&postcount=76) ;) Fakt ist, dass Nvidia CPU-PhysX nicht gescheit multithreaded. Ich verstehe das zwar vollkommen, denn sie wollen ja ihre GPUs pushen, unschön ist das trotzdem. Da hat man einen 6-Kerner, der böse vor sich hinruckelt, weil nur 2,7 Kerne genutzt werden

MfG,
Raff

BlackBirdSR
2010-08-12, 21:41:52
Nein. Du hast am Ende gesagt: Der Kunde verliert. Das ist vollkommender unsinn, denn ohne GPU-PhysX gäbe es die ganzen Diskussionen nicht. Es gäbe auch die Effekte nicht.
Der Kunde gewinnt. Konkurrenzkampf ist immer gut.

Ist kein Unsinn, siehe restliche Posts.
Konkurrenzkampf gibt es ja eben keinen.
Dein Post ist volkommener Unsinn.

LovesuckZ
2010-08-12, 21:42:53
So wie ich? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8202381&postcount=76) ;) Fakt ist, dass Nvidia CPU-PhysX nicht gescheit multithreaded. Ich verstehe das zwar vollkommen, denn sie wollen ja ihre GPUs pushen, unschön ist das trotzdem. Da hat man einen 6-Kerner, der böse vor sich hinruckelt, weil nur 2,7 Kerne genutzt werden

MfG,
Raff

AMD könnte auch Physik in Spielen wie nVidia pushen. So das die 6 Kern und GPU Käufer etwas von ihren Produkten haben. Das hat erstmal nichts mit nVidia zu tun.
Auch ist nVidia ja gnädig, dass du Apex überhaupt einschalten kannst. Also beschwer dich nicht. ;)

Ist kein Unsinn, siehe restliche Posts.
Konkurrenzkampf gibt es ja eben keinen.
Dein Post ist volkommener Unsinn.

PhysX ist also die einzige Möglichkeit auf diesem Planeten physikalische Berechnungen über eine x86 CPU durchzuführen? Habe ich dich da richtig verstanden?

BlackBirdSR
2010-08-12, 21:45:48
PhysX ist also die einzige Möglichkeit auf diesem Planeten physikalische Berechnungen über eine x86 CPU durchzuführen? Habe ich dich da richtig verstanden?

Nein.

@Deekey:
Recht Du hast. Ich frage mich, ab wann sich wieder ein Fokus auf mehr als visuelle Darstellung einstellt. Dem gegenüber hat alles Andere ja immens an Bedeutung verloren.. leider.

Raff
2010-08-12, 21:46:09
Auch ist nVidia ja gnädig, dass du Apex überhaupt einschalten kannst. Also beschwer dich nicht. ;)

Wie nett, doch leider praxisuntauglich umgesetzt. Besser wäre es gewesen, wenn man wenigstens den billigen ApeX-Modus (ApeX Medium) so eingestellt hätte, dass eine übliche High-End-CPU 40+ Fps stemmen kann – und nicht erst auf 5 GHz übertaktete Gulftowns (= Uuuultra High-End).

MfG,
Raff

LovesuckZ
2010-08-12, 21:48:19
Nein.

Tja, dann solltest du aufhören davon zu reden, dass der Kunde verlieren würde.
Ich jedenfalls habe dank nVidia's Investition in Ageia gewonnen.

Rente
2010-08-12, 21:48:55
Ich versteh nicht warum sich hier Leute über eine miese Implementierung so aufregen können, optisch überzeugt wirklich nur die Cloth-Berechnung einigermaßen, die meisten Partikeldarstellungen sind ein Witz und sehr sehr weit weg irgendwie realistisch zu sein.

Ergo: nVidia mag hier ein prima Showcase für lange Balken zu haben, optisch ist es (in meinen Augen) einfach scheiße, dadurch ist es doch Wurst wie es läuft.

Raff
2010-08-12, 21:52:05
Niemand sagt, dass das Dargestellte realistisch aussehen soll. Effekt-Physik war nie realistisch, aber stylisch. Fakt ist, dass es mehr rumst, was oft fett aussieht. Spätestens seit der Lobby-Szene von Matrix sollte das klar sein. ;)

MfG,
Raff

LovesuckZ
2010-08-12, 21:55:30
Man sollte einfach mal mit unendlicher Munition in ein Diner gehen und alles klein schießen. Oder sich hinter der Theke verstecken und nur zusehen, wie es rumst und bamst. Und wenn man danach das "Erschaffene" sieht, dann hofft man, dass dies in baldiger Zukunft standard in jedem Spiel wird.

BlackBirdSR
2010-08-12, 21:57:21
Tja, dann solltest du aufhören davon zu reden, dass der Kunde verlieren würde.
Ich jedenfalls habe dank nVidia's Investition in Ageia gewonnen.

Relativ zu was sein könnte, hast auch Du verloren.
Im Optimalfall wären wir schon bei spielrelevanter Physik. Also solltest Du aufhören davon zu reden, dass der Kund enicht verlieren würde.

Ich persönlich finde auch schön, dass sich etwas tut. Nur leider bin ich unzufrieden damit, dass die aktuelle Situation den Gesamtfortschritt etwas bremst.

die "baldige Zukunft" würde nur passieren, wenn sich alle auf Nvidias Weg einlassen. Da dies nicht passieren wird, gibts kein Baldiges.

Gast
2010-08-12, 21:58:44
Auch ist nVidia ja gnädig, dass du Apex überhaupt einschalten kannst. Also beschwer dich nicht. ;)


Das ist keine Gnade sondern pures Kalkül. Noch viel besser als ein Feature zu haben das die Konkurrenz nicht hat ist es den deutlich längeren Balken zu haben.

LovesuckZ
2010-08-12, 21:59:57
Relativ zu was sein könnte, hast auch Du verloren.
Im Optimalfall wären wir schon bei spielrelevanter Physik. Also solltest Du aufhören davon zu reden, dass der Kund enicht verlieren würde.

Ich persönlich finde auch schön, dass sich etwas tut. Nur leider bin ich unzufrieden damit, dass die aktuelle Situation den Gesamtfortschritt etwas bremst.

Da vorher nichts da war, wo die Möglichkeit jedoch bestand, hat jeder gewonnen.
PhysX ist eine Middleware von vielen. Jedoch ist sie die einzige Middleware, die zZ diesen Effektoverkill flüssig ermöglicht. Dadurch ist der Zustand nach nVidia's Investition natürlich besser als vorher, wo das x86 Monopol die Entwicklung ausbremste und jedem schadete.
Das sollte man erkennen.

BlackBirdSR
2010-08-12, 22:00:12
Das ist keine Gnade sondern pures Kalkül. Noch viel besser als ein Feature zu haben das die Konkurrenz nicht hat ist es den deutlich längeren Balken zu haben.

Richtig. Das ist sicherlich eine der "nachvollziehbaren und verständlichen" Überlegungen gewesen, beim Support der Mafia2 Hersteller. Würde ich auch so tun. Hilft dem Markt leider nicht weiter :(
Hier verliert dann jeder, weil der Rest sich absichtlich nicht auf diesen Weg begeben will.

IVN
2010-08-12, 22:01:19
Relativ zu was sein könnte, hast auch Du verloren.
Im Optimalfall wären wir schon bei spielrelevanter Physik. Also solltest Du aufhören davon zu reden, dass der Kund enicht verlieren würde.

Ich persönlich finde auch schön, dass sich etwas tut. Nur leider bin ich unzufrieden damit, dass die aktuelle Situation den Gesamtfortschritt etwas bremst.

die "baldige Zukunft" würde nur passieren, wenn sich alle auf Nvidias Weg einlassen. Da dies nicht passieren wird, gibts kein baldiges.
Im Vergleich zu was genau? In meinen AUgen ist die Alternative der Stillstand. Hätte Nv die Sache mit PhysX nicht angepackt, wären wir genau da, wo wir heute auch sind, mit PhysX auf "off" gestellt. Ergo, das Argument "der Kunde verliert iV zum Optimalfall" ist einfach naiv und jenseits der Realität.

Grey
2010-08-12, 22:03:15
Niemand sagt, dass das Dargestellte realistisch aussehen soll. Effekt-Physik war nie realistisch, aber stylisch. Fakt ist, dass es mehr rumst, was oft fett aussieht. Spätestens seit der Lobby-Szene von Matrix sollte das klar sein. ;)

MfG,
Raff

Äh klar ist Realismus ein Anspruch von Physik-Engines :| Der Name allein trägt schon die Aussage.

BlackBirdSR
2010-08-12, 22:06:33
Im Vergleich zu was genau? In meinen AUgen ist die Alternative der Stillstand. Hätte Nv die Sache mit PhysX nicht angepackt, wären wir genau da, wo wir heute auch sind, mit PhysX auf "off" gestellt. Ergo, das Argument "der Kunde verliert iV zum Optimalfall" ist einfach naiv und jenseits der Realität.

Ganz schön persönlich, so aus dem Nichts. Mal nen Gang runterschalten.

PhysX hatte schon vor GPU-Beschleunigung eine sehr hohe Verbreitung. Das gilt auch für Konsolen. Nehme man jetzt den Fall, dass Nvidia nicht aufgesprungen wäre, hätten wir natürlich nicht tausende Partikel, die bei MG-Schüssen durch die Gegend fliegen, oder Cloth-Simulation ohne Spielbezug. Allerdings gäbe es dann IMO mehr Bemühungen in Richtung Spielphysik. Dieser Bereich wird aktuell stark gebremst, weil die anderen am Markt natürlich gegen Nvidia agieren wollen. Leistung wäre sowohl auf dem PC, als auch den Konsolen zugenüge vorhanden.
Und mir persönlich ist spielrelevante Physik wichtiger als Partikeloverkill, der nur auf Nvidia-Karten funktioniert.

LovesuckZ
2010-08-12, 22:13:37
Ganz schön persönlich, so aus dem Nichts. Mal nen Gang runterschalten.

PhysX hatte schon vor GPU-Beschleunigung eine sehr hohe Verbreitung. Das gilt auch für Konsolen. Nehme man jetzt den Fall, dass Nvidia nicht aufgesprungen wäre, hätten wir natürlich nicht tausende Partikel, die bei MG-Schüssen durch die Gegend fliegen, oder Cloth-Simulation ohne Spielbezug. Allerdings gäbe es dann IMO mehr Bemühungen in Richtung Spielphysik. Dieser Bereich wird aktuell stark gebremst, weil die anderen am Markt natürlich gegen Nvidia agieren wollen. Leistung wäre sowohl auf dem PC, als auch den Konsolen zugenüge vorhanden.
Und mir persönlich ist spielrelevante Physik wichtiger als Partikeloverkill, der nur auf Nvidia-Karten funktioniert.

Dazu fällt mir eigentlich nur folgendes ein: :facepalm:

nVidia soll für etwas schuld sein, dass überhaupt nicht in ihrem Einflussbereich fällt? Klar. Deiner Argumentation folgend wäre doch Glide, D3D und OpenGL schuld, dass es mit "Bemühungen in Richtung Spielphysik" nicht vorwärts geht, weil die sich alles nur um eins kümmern: Grafik.

IVN
2010-08-12, 22:16:11
Ganz schön persönlich, so aus dem Nichts. Mal nen Gang runterschalten.

PhysX hatte schon vor GPU-Beschleunigung eine sehr hohe Verbreitung. Das gilt auch für Konsolen. Nehme man jetzt den Fall, dass Nvidia nicht aufgesprungen wäre, hätten wir natürlich nicht tausende Partikel, die bei MG-Schüssen durch die Gegend fliegen, oder Cloth-Simulation ohne Spielbezug. Allerdings gäbe es dann IMO mehr Bemühungen in Richtung Spielphysik. Dieser Bereich wird aktuell stark gebremst, weil die anderen am Markt natürlich gegen Nvidia agieren wollen. Leistung wäre sowohl auf dem PC, als auch den Konsolen zugenüge vorhanden.
Und mir persönlich ist spielrelevante Physik wichtiger als Partikeloverkill, der nur auf Nvidia-Karten funktioniert.
Und genau das ist der Punkt, der unhaltbar ist. Zwischen PhysX und CPU-Physik anderer Hersteller/Entwickler gibt es keine Berührungspunkte. Die Behauptung, das PhysX die Entwicklung auf der anderen Front ausbremst ist in meinen AUgen voll mit logischen Fehlern. Fakt ist, niemand hat auch nur einen Finger krumm gemacht um spielrelevante Physik zu pushen. So war es vor PhysX und so ist es jetzt (nach PhysX) auch. Wo sind also die Beweise für dieses angebliche Ausbremsen durch PhysX?

BlackBirdSR
2010-08-12, 22:21:37
Und genau das ist der Punkt, der unhaltbar ist. Zwischen PhysX und CPU-Physik anderer Hersteller/Entwickler gibt es keine Berührungspunkte. Die Behauptung, das PhysX die Entwicklung auf der anderen Front ausbremst ist in meinen AUgen voll mit logischen Fehlern. Fakt ist, niemand hat auch nur ein Finger krüm gemacht um spielrelevante Physik zu pushen. So war es vor PhysX und so ist es jetzt (nach PhysX) auch. Wo sind also die Beweise für dieses angebliche Ausbremsen durch PhysX?

Du fasst das falsch auf, glaube ich.
Ich differenziere stark zwischen PhysX und GPU-PhysX.

Das Problem ist, dass GPU-PhysX keine spielrelevante Physik darstellen kann und darf. Ich denke, so weit können wir uns einigen. Eigentlich müssten AMD und Intel nach Mafia2 ihre ganz eigene Version pushen und einen Hersteller unterstützen, die CPU stark zu nutzen und ein Spiel mit sehr fortschrittlicher Spielphysik auszustatten. Das würde uns alle weiter bringen. Selbst wenn die Physikengine PhysX wäre, kann AMD und Intel ja egal sein.

Wie Eingangs erwähnt, haben die aber anscheinend alle Angst, dass sie damit Nvidia Bemühungen auch noch unterstützen. Für mich unverständlich, aber anders kann ich mir das kaum erklären, dass die so stagnieren. Hier bremst Nvidias Engagement also durchaus. Das ist nicht Nvidias schuld, aber trotzdem der Ursprung und Nvidia weiß das sehr sehr genau zu nutzen.

Dabei bieten gerade die Konsolen zusammen mit PhysX hier die besten Möglichkeiten. Immerhin haben wir eine gemeinsame Engine und Multi-Threading. GPU-Beschleunigung gibt es auf Konsolen dagegen noch nicht.

Gast
2010-08-12, 22:27:37
Es zeigt, dass dein letzter Satz kompletter unsinn ist.
Der Kunde gewinnt, dass es durch nVidia eine forcierende Macht auf dem Markt gibt. Mir kann niemand erzählen, dass ^^^^^^Cloth-Simulationen^^^^, wie in Mirrors Edge, nicht längst per CPU machbar gewesen wäre. Trotzdem bekommen es die anderen Engines über die CPU jedoch nicht hin. Statt also dauernd nur zu meckern, dass PhysX und nVidia so böse wären, sollten einige Druck bei den Firmen ausrichten, von denen sie ihre CPU und GPU haben.

Das war schon vor Jahren mit der Karma-Techdemo, einem Physikraum mit Cloth und anderen Obljekten möglich. War ein P4-Launch Techdemo für HT von intel

IVN
2010-08-12, 22:39:05
Du fasst das falsch auf, glaube ich.
Ich differenziere stark zwischen PhysX und GPU-PhysX.

Das Problem ist, dass GPU-PhysX keine spielrelevante Physik darstellen kann und darf. Ich denke, so weit können wir uns einigen. Eigentlich müssten AMD und Intel nach Mafia2 ihre ganz eigene Version pushen und einen Hersteller unterstützen, die CPU stark zu nutzen und ein Spiel mit sehr fortschrittlicher Spielphysik auszustatten. Das würde uns alle weiter bringen. Selbst wenn die Physikengine PhysX wäre, kann AMD und Intel ja egal sein.

Wie Eingangs erwähnt, haben die aber anscheinend alle Angst, dass sie damit Nvidia Bemühungen auch noch unterstützen. Für mich unverständlich, aber anders kann ich mir das kaum erklären, dass die so stagnieren. Hier bremst Nvidias Engagement also durchaus. Das ist nicht Nvidias schuld, aber trotzdem der Ursprung und Nvidia weiß das sehr sehr genau zu nutzen.

Dabei bieten gerade die Konsolen zusammen mit PhysX hier die besten Möglichkeiten. Immerhin haben wir eine gemeinsame Engine und Multi-Threading. GPU-Beschleunigung gibt es auf Konsolen dagegen noch nicht.
D.h. es ist Nvs Schuld, das AMD und Intel ihre Ärsche nicht hochbekommen? :confused:

BlackBirdSR
2010-08-12, 22:41:08
D.h. es ist Nvs Schuld, das AMD und Intel ihre Ärsche nicht hochbekommen? :confused:

Hast Du den Post überhaupt ganz gelesen? :tongue:
Da steht doch, dass es nicht Nvidias Schuld ist, die aber sehr genau wissen diesen Umstand zu nutzen.

IVN
2010-08-12, 22:42:34
Hast Du den Post überhaupt ganz gelesen? :tongue:
Da steht doch, dass es nicht Nvidias Schuld ist, die aber sehr genau wissen diesen Umstand zu nutzen.
Ja, und was soll diese schwammige Formulierung also bedeuten? Es ist nicht ihre Schuld, aber auf irgendeiner "moralischen Ebene" dann doch wieder?

BlackBirdSR
2010-08-12, 22:44:37
Ja, und was soll diese schwammige Formulierung also bedeuten? Es ist nicht ihre Schuld, aber auf irgendeiner "moralischen Ebene" dann doch wieder?

Nein, du kränkst mich!
Es ist nicht ihre Schuld, aber sie sind die Ursache. Die Folgen daraus weiß Nvidia aber ganz gut zu nutzen. Wie oft soll ich noch das gleiche schreiben?:freak:

IVN
2010-08-12, 22:47:38
Nein, du kränkst mich!
Es ist nicht ihre Schuld, aber sie sind die Ursache. Die Folgen daraus weiß Nvidia aber ganz gut zu nutzen. Wie oft soll ich noch das gleiche schreiben?:freak:
Die Ursache für was genau? Für die Inaktivität von AMD und INtel? Wie soll Nv das wohl geschafft haben, das die beiden viel größeren Firmen einfach kein Interesse an diesem Thema haben?

SIehst du nicht, das du biased bist? Nv, auch wenn sie es wollte, haben nicht die Mittel um AMD oder Intel daran zu hindern. Das bedeutet, wenn die 2 nichts in diese Richtung unternehmen, dann ist das kein "Verdienst" von Nv, sondern es liegt ganz alleine am eigenen Desinteresse.

Und dieses Desinteresse ist völlig unabhängig von der ganzen PhysX-Geschichte. Die beiden hatten kein Interesse davor, und auch keins danach.

LovesuckZ
2010-08-12, 22:52:14
Vorallem gehört Havok zu Intel. Wenn also jemand Macht hätte, dann Intel.

IVN
2010-08-12, 22:55:28
Vorallem gehört Havok zu Intel. Wenn also jemand Macht hätte, dann Intel.
Jo, Intel hat die Mittel/Macht ein Standard gegen das Begehren einer ganzen Industrie (USB3 vs Lightpeak) durchzudrücken, da soll aber Nv mit ihrem kleinen PhysX Intel daran hindern können, eine eigene, viel mächtigere Physik-Engine (die auch MC-CPUs voll ausnutzt) zu entwickeln? Einfach surreal...

BlackBirdSR
2010-08-12, 22:56:40
Die Ursache für was genau? Für die Inaktivität von AMD und INtel? Wie soll Nv das wohl geschafft haben, das die beiden viel großeren Firmen einfach kein Interesse an diesem Thema haben?

SIehst du nicht, das du biased bist? Nv, auch wenn sie es wollte, haben nicht die Mittel um AMD oder Intel daran zu hindern. Das bedeutet, wenn die 2 nichts in Richtung unternehmen, dann ist das kein "Verdienst" von Nv, sondern das eigene Desinteresse.

Muss ich mir jetzt von jemand anderes sagen lassen, was ich bin oder nicht?:confused:
Darf ich das nicht selbst entscheiden? Das kränkt mich gleich noch mehr. Aber ich pass in Zukunft bei Dir auf.

Ich sags jetzt nochmal (langweilig das wird...)
AMD und Intel bekommen ihren Arsch nicht hoch, weil sie Angst haben Nvidia damit eher zu unterstützen. Mal abgesehen von den Problemen, dass die beiden evtl. zusammenarbeiten müssten. Das liegt dann natürlich an Nvidia.. (siehe Zeile davor). Von Verdienst war keine Rede, sondern von Actio = Reactio.

Also nochmal in der Hoffnung, es nicht noch x-Mal schreiben zu müssen.
AMD und Intel haben anscheinend Angst Nvidia quasi mit ihren Bemühungen recht zu geben. Das scheint die beiden eher zum Stillstand zu bewegen.
Nvidia dagegen hat das sicherlich gesehen und weiß das auch gut zu nutzen, in dem man weiter fleißig GPU-Beschl. nach vorne drückt.

AMD und Intel haben also anscheinend Angst das falsche zu tun, da tun sie lieber gar nichts. Das ist natürlich in Nvidia begründet, die mit ihren Ambitionen gerade diesen Stillstand der beiden AUslösen, warum auch immer. Vielleicht haben sie Angst, Nvidia eher in die Hände zu spielen. Wäre an sich ja kein Problem, ein PhysX-Spiel mit Multi-Threading Physik zu pushen. Nvidia dagegen ruht sich nicht aus, sondern nutzt den Stillstand der anderen für ihre Zwecke.

Nvidia hat nichts böses getan, aber durch deren Aktionen sind AMD und Intel irgendwie in einen Stillstand verfallen. Entweder trauen sie sich nicht, oder sie fürchten Nvidias Argumente sogar noch mehr Kraft zu verschaffen. Nvidia hat das sicherlich erkannt und weiß das gut zu nutzen. Mit jedem PhysX-GPU Showcase wird die Sache sogar noch verstärkt, scheinen sich AMD und Intel zurückzuziehen.

AMD und Intel . ..... (Wiederholungen bitte selbst denken)

Bezüglich Intel... Da gibt es ja genug Beispiele was sie tun sollten und könnten, aber durchs Management nicht getan haben ;)

Vento
2010-08-12, 23:13:56
Natürlich ist da kein Interesse vorhanden, AMD/ATI weiß das man damit kein Geld verdienen kann, es ist eher ein Zuschuss Geschäft als das man wirklich die Verkäufe damit ankurbeln kann.
Zumal man Geld investieren muss und Ressourcen, von alleine wird kein Spielentwickler aufwendige Physikeffekte für die PC Versionen implementieren, das funktioniert derzeit nur über Sponsoring.
Im CPU Geschäft schon mal gar nicht, man hat bei AMD sicher nicht vor CPU Physik bei den Entwicklern mit massivem finanziellen Einsatz, Ressourcen zu sponsern, damit ein Großteil der Gamer diese Physik Effekte dann auf einer Intel CPU berechnet.

So etwas muss marktwirtschaftlich Sinn machen und das tut es nicht, dafür ist auch die Masse an Gamern die wirklich bereit wäre mehr Geld auszugeben um aufwendigere Physik Effekte zu bekommen nicht vorhanden.

Man liest es auch die Haltung aus den Statements von Richard Huddy heraus.

"AMD’s Senior Manager of Developer Relations, Richard Huddy, sprach sich in diesem Zusammenhang dafür aus dass PhysX hoffentlich bald zusammen mit Glide und A3D im proprietären-API-Museum landet und von offenen Implementationen wie OpenCL und DirectCompute ersetzt wird".

Für mich klingt das einzig und alleine danach das man selber nichts angehen wird, sondern auf einen offenen Standard hofft, wo die Entwickler dann den Physik Part übernehmen und finanzieren sollen.
Allerdings wird da nichts kommen, selbst wenn PhysX eingestampft wird, die Masse aller Games wird nun mal auf die Konsole zugeschnitten und signifikant mehr wird auch ohne Sponsoring nicht implementiert.
Ändern würde sich das erst wenn neue Konsolengenerationen verstärkt auf aufwendige Physik Effekte setzen.

Es ist und bleibt eine Nische mit der Nvidia derzeit versucht speziell für ihre High End GPU's Kaufanreize zu schaffen.
Von AMD/ATI kommt seit Jahren nichts in der Richtung und da wird auch keine nenneswerte EIgeninitiative mehr kommen und von den Entwicklern wird auch nichts kommen, solange man auf die Konsole produziert und die Spiele portiert.

Was bleibt ist halt die kleine Nische PhysX, wo Nvidia über Sponsoring einzelner Vorzeigetitel die PhysX Implementierung finanziert, damit man damit werben kann, in der Hoffnung sich Wettbewerbsvorteile zu verschaffen und damit mehr GPU's zu verkaufen.
Ich kann es nicht beurteilen, wirklich Geld verdienen werden sie damit aber kaum.

IVN
2010-08-12, 23:20:09
Muss ich mir jetzt von jemand anderes sagen lassen, was ich bin oder nicht?:confused:
Darf ich das nicht selbst entscheiden? Das kränkt mich gleich noch mehr. Aber ich pass in Zukunft bei Dir auf.

Ich sags jetzt nochmal (langweilig das wird...)
AMD und Intel bekommen ihren Arsch nicht hoch, weil sie Angst haben Nvidia damit eher zu unterstützen. Mal abgesehen von den Problemen, dass die beiden evtl. zusammenarbeiten müssten. Das liegt dann natürlich an Nvidia.. (siehe Zeile davor). Von Verdienst war keine Rede, sondern von Actio = Reactio.

Also nochmal in der Hoffnung, es nicht noch x-Mal schreiben zu müssen.
AMD und Intel haben anscheinend Angst Nvidia quasi mit ihren Bemühungen recht zu geben. Das scheint die beiden eher zum Stillstand zu bewegen.
Nvidia dagegen hat das sicherlich gesehen und weiß das auch gut zu nutzen, in dem man weiter fleißig GPU-Beschl. nach vorne drückt.

AMD und Intel haben also anscheinend Angst das falsche zu tun, da tun sie lieber gar nichts. Das ist natürlich in Nvidia begründet, die mit ihren Ambitionen gerade diesen Stillstand der beiden AUslösen, warum auch immer. Vielleicht haben sie Angst, Nvidia eher in die Hände zu spielen. Wäre an sich ja kein Problem, ein PhysX-Spiel mit Multi-Threading Physik zu pushen. Nvidia dagegen ruht sich nicht aus, sondern nutzt den Stillstand der anderen für ihre Zwecke.

Nvidia hat nichts böses getan, aber durch deren Aktionen sind AMD und Intel irgendwie in einen Stillstand verfallen. Entweder trauen sie sich nicht, oder sie fürchten Nvidias Argumente sogar noch mehr Kraft zu verschaffen. Nvidia hat das sicherlich erkannt und weiß das gut zu nutzen. Mit jedem PhysX-GPU Showcase wird die Sache sogar noch verstärkt, scheinen sich AMD und Intel zurückzuziehen.

AMD und Intel . ..... (Wiederholungen bitte selbst denken)

Bezüglich Intel... Da gibt es ja genug Beispiele was sie tun sollten und könnten, aber durchs Management nicht getan haben ;)
Ich denke, du überschätz Nv gewaltig. Intel als Unternehmen hat in der Vergangenheit soo oft eine gewisse Dickköpfigkeit bewiesen, das ich mir nicht im wildesten Traum vorstellen kann, das Nv (egal wie motiviert sie sein mögen) etwas tun könnte, um Intel von einem Vorhaben abzubringen.

Vereinfacht dargestellt:

Szenario 1) Intel will nicht super Physik + egal was Nv macht = Intel unternimmt nix

Szenario 2) Intel will super Physik + Nv versucht zu bremsen/supportet das Unterfangen/einfach egal was Nv macht = Intel macht es!

Die Tatsache das Intel es nicht macht, liegt ganz alleine an Intel. Nv könnte einen Teufel tun und Intel davon abbringen, würde Intel etwas wirklich tun wollen.

LovesuckZ
2010-08-12, 23:20:12
Ageia hat auch nur $12 Millionen gekostet. Also ziemlich wenig für eine komplette Physik-Engine mit Tools und dem Team dahinter.
Man sollte auch nicht vergessen, dass nVidia dadurch auch den PC Sektor stärkt. Wahrscheinlich kaufen auch AMD User eher Spiele mit GPU-PhysX auf dem PC als die Konsolen-Version, weil man eventuell in Zukunft beim Wechsel auf nVidia und/oder extra Karte dann die bessere Version hat.

Mancko
2010-08-12, 23:21:03
Natürlich ist da kein Interesse vorhanden, AMD/ATI weiß das man damit kein Geld verdienen kann, es ist eher ein Zuschuss Geschäft als das man wirklich die Verkäufe damit ankurbeln kann.
Zumal man Geld investieren muss und Ressourcen, von alleine wird kein Spielentwickler aufwendige Physikeffekte für die PC Versionen implementieren, das funktioniert derzeit nur über Sponsoring.
Im CPU Geschäft schon mal gar nicht, man hat bei AMD sicher nicht vor CPU Physik bei den Entwicklern mit massivem finanziellen Einsatz, Ressourcen zu sponsern, damit ein Großteil der Gamer diese Physik Effekte dann auf einer Intel CPU berechnet.

So etwas muss marktwirtschaftlich Sinn machen und das tut es nicht, dafür ist auch die Masse an Gamern die wirklich bereit wäre mehr Geld auszugeben um aufwendigere Physik Effekte zu bekommen nicht vorhanden.

Man liest es auch die Haltung aus den Statements von Richard Huddy heraus.

"AMD’s Senior Manager of Developer Relations, Richard Huddy, sprach sich in diesem Zusammenhang dafür aus dass PhysX hoffentlich bald zusammen mit Glide und A3D im proprietären-API-Museum landet und von offenen Implementationen wie OpenCL und DirectCompute ersetzt wird".

Für mich klingt das einzig und alleine danach das man selber nichts angehen wird, sondern auf einen offenen Standard hofft, wo die Entwickler dann den Physik Part übernehmen und finanzieren sollen.
Allerdings wird da nichts kommen, selbst wenn PhysX eingestampft wird, die Masse aller Games wird nun mal auf die Konsole zugeschnitten und signifikant mehr wird auch nicht implementiert.
Ändern würde sich das erst wenn neue Konsolengenerationen verstärkt auf aufwendige Physik Effekte setzen.

Es ist und bleibt eine Nische mit der Nvidia derzeit versucht speziell für ihre High End GPU's Kaufanreize zu schaffen.
Von AMD/ATI kommt seit Jahren nichts in der Richtung und da wird auch keine nenneswerte EIgeninitiative mehr kommen und von den Entwicklern wird auch nichts kommen, solange man auf die Konsole produziert und die Spiele portiert.

Was bleibt ist halt die kleine Nische PhysX, wo Nvidia über Sponsoring einzelner Vorzeigetitel die PhysX Implementierung finanziert, damit man damit werben kann, in der Hoffnung sich Wettbewerbsvorteile zu verschaffen und damit mehr GPU's zu verkaufen.
Ich kann es nicht beurteilen, wirklich Geld verdienen werden sie damit aber kaum.

Bei so einer Situation ist es aber dann die Aufgabe der Printmedien und Online Webseiten in Ihren Tests AMD und Intel dafür zu bashen. Das erwarte ich einfach. Es kann nicht sein, dass immer nur politisch taktiert wird und die Entwicklung durch sowas ausgebremst wird und wir immer mehr EA und Ubisoft Konsolengrütze angeboten bekommen.

Das Problem würde sich sehr schnell lösen, wenn es knallhart für derartigen Featuremangel Notenabzug bei Reviews gibt. Und jetzt soll bitte keiner damit kommen, dass PhysX kein offener Standard und Nvidia proprietär ist.
X86 ist auch kein offener Standard und die ganzen dubiosen Lizenzstreitereien die da im Intel Bereich ablaufen ( Bus Lizenzen etc.) auch nicht und da sagt keiner etwas.
Einfach knall hart in den Bewertungen abstrafen. Was glaubst wie schnell die sich dann bewegen. Intel wirds egal sein. Die werden im Gamermarkt nie eine Rolle spielen und weiter eher auf IGP's und ähnliches setzen, um die CPU Bastion zu halten. AMD allerdings würde dann ganz schnell die Füße hoch bekommen, da sie keine CPU Bastion haben.

Vento
2010-08-12, 23:24:21
Ageia hat auch nur $12 Millionen gekostet. Also ziemlich wenig für eine komplette Physik-Engine mit Tools und dem Team dahinter.
Man sollte auch nicht vergessen, dass nVidia dadurch auch den PC Sektor stärkt. Wahrscheinlich kaufen auch AMD User eher Spiele mit GPU-PhysX auf dem PC als die Konsolen-Version, weil man eventuell in Zukunft beim Wechsel auf nVidia und/oder extra Karte dann die bessere Version hat.


Du vergisst aber dabei die Kosten des Sponsorings jedes einzelnen Titels, zum einen Geld was an die Entwickler fließt, zum anderen Ressourcen/Arbeitskraft die man rein steckt.
Die Entwickler machen das ja nicht von alleine, sondern schließen einen Sponsoring Vertrag ab, kümmern sich um die Implementierung von PhysX um mit dem Titel dann werben zu können.
Um das zu finanzieren müssen sie schon einige Karten über PhysX verkaufen.

LovesuckZ
2010-08-12, 23:27:48
Du vergisst aber dabei die Kosten des Sponsorings jedes einzelnen Titels, zum einen Geld was an die Entwickler fließt, zum anderen Ressourcen/Arbeitskraft die man rein steckt.
Die Entwickler machen das ja nicht von alleine, sondern schließen einen Sponsoring Vertrag ab, kümmern sich um die Implementierung von PhysX um mit dem Titel dann werben zu können.
Um das zu finanzieren müssen sie schon einige Karten über PhysX verkaufen.

Ja, aber PhysX ist ein Alleinstellungsmerkmal. Man bekommt jetzt bei nVidia alles: 3D Stereo, GPU Physik, "eyefinity", DX11 etc. Und dank der GTX460 greifen zZ imo nur noch AMD Fanboys zu AMD Hardware, wenn diese teurer als 150€ ist.
Es kostet natürlich, aber nVidia arbeitet sowieso schon sehr nah mit den Entwicklern. Imo halten sich die Kosten in Grenzen.

Vento
2010-08-12, 23:30:43
Bei so einer Situation ist es aber dann die Aufgabe der Printmedien und Online Webseiten in Ihren Tests AMD und Intel dafür zu bashen. Das erwarte ich einfach. Es kann nicht sein, dass immer nur politisch taktiert wird und die Entwicklung durch sowas ausgebremst wird. Das Problem würde sich sehr schnell lösen, wenn es knallhart für derartigen Featuremangel Notenabzug gibt. Und jetzt soll bitte keiner damit kommen, dass PhysX kein offener Standard und Nvidia proprietär ist.
X86 ist auch kein offener Standard und die ganzen dubiosen Lizenzstreitereien die da im Intel Bereich ablaufen ( Bus Lizenzen etc.) auch nicht und da sagt keiner etwas.
Einfach knall hart in den Bewertungen abstrafen. Was glaubst wie schnell die sich dann bewegen vor allem AMD. Intel wirds egal sein. Die werden im Gamermarkt nie eine Rolle spielen und weiter eher auf IGP's und ähnliches setzen, um die CPU Bastion zu halten. AMD allerdings würde dann ganz schnell die Füße hoch bekommen, da sie keine CPU Bastion haben.


Niemand kann AMD/ATI, Intel dazu zwingen sich in dem Bereich Spielephysik zu engagieren.
Für die Firmen muss es marktwirtschaftlich Sinn machen dort zu investieren und das tut es derzeit nicht.

Wäre der PC die Gaming Plattform die den Takt vorgeben würde und die größten Umsätze in dem Genre generieren würde, wäre das eventuell anders.
Dann wäre auch die Kritik an Alleingängen wie PhysX angebracht, aber in Zeiten wo ohne PhysX faktisch nichts gemacht würde, ist es eine Nische mehr nicht, wo nichts ist kann auch nichts gebremst werden.
Es ist hochgradig naiv zu glauben das die PC Versionen aktueller Spiele eine ausgereiftere CPU Physik hätten, wenn es PhysX nicht geben würde.
Der einzige Unterschied wäre das es keine Titel mehr mit PhysX geben würde und wir durchgehend Konsolenenphysik hätten.
Aber so wie es derzeit ist gibt die Konsole den Takt vor, dort werden mit Abstand die grössten Umsätze im Spielgenre generiert und darauf ist nahezu alles zugeschnitten, mit allen Limitierungen die das mit sich bringt.
Aufwendige Physik speziell für die PC Version rechnet sich derzeit einfach nicht, vor allem nicht für die Entwicklerfirmen, es sei denn über Sponsoring wie bei PhysX.
Solange sich das nicht ändert, wird es auch keine hochwertigen Physikstandards geben, das ändert sich erst wenn die Spieleentwickler ein Eigeninteresse daran haben.
Alles was derzeit über den Konsolenstandard hinausgeht läuft nahezu ausschließlich über Sponsoring, oder eventuell auch über den Enthusiasmus und Anspruch einzelner Entwickler/Produktionen, das ist aber die absolute Ausnahme.

Gast
2010-08-12, 23:32:12
Die Tatsache das Intel es nicht macht, liegt ganz alleine an Intel. Nv könnte einen Teufel tun und Intel davon abbringen, würde Intel etwas wirklich tun wollen.
Siehe LRB. Mal eben (wieviel?) versenkt für nichts.

Nein, das ist lächerlich das Intel klein bei gibt.
AMD könnte sein, wobei die auch eher von sich aus nichts tun, das ist generell eher AMDs Masche, mit minimalen Einsatz voranzukommen. 6 Kerner verkaufen sich auch ohne das sie jemand auslastet, außerdem würde man dann Intel stützen.

IVN
2010-08-12, 23:36:36
Siehe LRB. Mal eben (wieviel?) versenkt für nichts.Ein gutes Bsp für mein Argument. Man hat jahrelang LRB entwickelt, unmengen von Kohle darin versenkt, und später bemerkt dass das Konzept "Schrott" ist. Statt aufzugeben, werkeln sie immer noch daran, und wollen es zu einem späteren Zeitpunkt rausbringen. Ähnlich sieht es mit Itanium aus.

Intel ist einfach ein dickköpfiges Unternehmen. Sieht man sich mal die "Kopf durch die Wand" Aktionen von denen an, dann ist klar das nicht mal Gott sie von einem Unterfangen abbringen kann, geschweige denn Nvidia.

Bucklew
2010-08-12, 23:37:16
Der einzige Unterschied wäre das es keine Titel mehr mit PhysX geben würde und wir durchgehend Konsolenenphysik hätten.
Du weißt schon, dass PhysX auch viel auf der Konsole eingesetzt wird?

BlackBirdSR
2010-08-12, 23:37:21
Ich denke, du überschätz Nv gewaltig.

Ich dagegen denke, du unterschätzt Nvidia und deren Marktstellung bei Gamern ganz gewaltig.
Im Gegensatz Nvidia ist Intel eher ein Pfeil in viele Richtungen zugleich. Nicht alle liegen in der gleichen Richtung.

dreas
2010-08-12, 23:38:51
Ja, aber PhysX ist ein Alleinstellungsmerkmal. Man bekommt jetzt bei nVidia alles: 3D Stereo, GPU Physik, "eyefinity", DX11 etc. Und dank der GTX460 greifen zZ imo nur noch AMD Fanboys zu AMD Hardware, wenn diese teurer als 150€ ist.
Es kostet natürlich, aber nVidia arbeitet sowieso schon sehr nah mit den Entwicklern. Imo halten sich die Kosten in Grenzen.

yep, wenn ich mich also als kunde auf nv eingelassen habe und damit die proprietäre lösung unterstütze, letztlich die entwicklung von physx finanziere, dann will ich irgendwann mal SEHEN. und tja da sehe ich aber nichts adäquates, zumindest nix was den aufwand rechtfertigt und bei mir nen boah-effekt auslösst. das was man bekommt sieht eher nach -what?- aus. und genau hier muss sich nv fragen lassen was das soll.

nv is nich schuld an der schlechten physik in games aber hätte es eben in der hand gehabt. und viele kunden haben indirekt für das feature physik kohle auf den tresen gelegt und fragen nun wo den die lieferung bleibt. und das muss man sagen völlig zu recht.

das intel eh machen mas die wollen is klar. für die wäre dasn klacks wenn die n paar verwirrte progger die sich sonst mit der parallelisierung von echtzeitraytracingkram beschäftigen abziehen würden, um ne vernünftige physikengine zu kreieren, würde das keine sau merken. die wollen einfach nich.

amd hat den laden anderen überlassen und kämpfen um vernünftige treiber und tools für funktionen die wesentlich besser dokumentiert bei nv schon standart sind.

es bleibt also an nv kleben. also,warum machen sie es nicht wenigstens richtig?

Vento
2010-08-12, 23:40:12
Du weißt schon, dass PhysX auch viel auf der Konsole eingesetzt wird?


Aber auch das läuft nur über Sponsoring.

BlackBirdSR
2010-08-12, 23:40:15
Man sollte auch nicht vergessen, dass nVidia dadurch auch den PC Sektor stärkt. Wahrscheinlich kaufen auch AMD User eher Spiele mit GPU-PhysX auf dem PC als die Konsolen-Version, weil man eventuell in Zukunft beim Wechsel auf nVidia und/oder extra Karte dann die bessere Version hat.

IMO ganz falsch.
AMD User kaufen das Spiel als PC-Variante, weil sie AA/AF wollen und generell als nutzer einer schnellen AMD-Karte, diese auch nutzen wollen.
Dein Argument kann ich überhaupt nicht nachvollziehen, denn dazu gibt es zu wenige Spiele mit den entsprechenden Auswirkungen. Wer Konsole will, kauft nicht wegen Nvidia-Features PC.

LovesuckZ
2010-08-12, 23:41:25
es bleibt also an nv kleben. also,warum machen sie es nicht wenigstens richtig?

Schaue ich mir Mirrors Edge, Batman und Mafia 2 an, dann machen sie es richtig. Natürlich gibt es Hater gegen alles, aber spielt man Mafia 2 mit und ohne Apex, dann wird niemand freiwillig auf Apex verzichten (okay, vielleicht auf Cloth Simulation). Aber Partikel und Rauch/Nebel erhöhen deutlich das grafische Niveau.
Und ehrlich: Wem das nicht gefällt, der sollte vielleicht doch eine Konsole kaufen.

BlackBirdSR
2010-08-12, 23:41:36
Aber auch das läuft nur über Sponsoring.

Im Gegenteil...
warum sollte jemand die Konsolenentwickler dahingegend bezahlen? PhysX war schon auf Konsolen verbreitet, bevor Nvidia eingestiegen ist.

@L
Mirrors Edge, Batman und Mafia 2 machen es leider für die meisten der User nicht richtig.
Etwas mehr als Effektphysik mit tausenden Partikeln wäre den meisten sehr viel lieber.
Zumal wir hier von 3 Spielen gegen hunderte reden, wenn sich alle mal an einen Tisch setzen würden. Aber das will von den 3en keiner. Ergo verlieren wir.

Bucklew
2010-08-12, 23:45:17
Aber auch das läuft nur über Sponsoring.
So ein Quatsch. Da lohnt es sich wohl nichtmal nach Belegen zu fragen ;)

LovesuckZ
2010-08-12, 23:46:27
@L
Mirrors Edge, Batman und Mafia 2 machen es leider für die meisten der User nicht richtig.
Etwas mehr als Effektphysik mit tausenden Partikeln wäre den meisten sehr viel lieber.

Batman bietet: dynamischen Nebel, haufenweise "Partikel" (Partikel, Papier, zerstörbare Umgebung), Cloth-Simulation.
Mirrors Edge bietet: Partikeleffekte (Glas, nebel, Dach), astreine Cloth Simulation.
Mafia 2 bietet: Vernünftige Partikeleffekte bzgl. Zerstörung (ich kann jeden nur empfehlen ein Diner zu zerlegen), Cloth Simulation bei Kleidung (fast jede Figur!), dynamischer Nebel.

Alle drei Spiele bieten mehr als das Standard(Konsolen)Game.

dreas
2010-08-12, 23:46:51
Und ehrlich: Wem das nicht gefällt, der sollte vielleicht doch eine Konsole kaufen.

ja klar, weil er dort für ingamephysik nicht extra zahlen musste und trotzdem in ähnlicher quali geliefert bekommt? der konsolero trifft also unbewusst die wirtschaftlichere wahl? das meinst du doch damit?

Vertigo
2010-08-12, 23:47:25
Im Gegenteil...
Etwas mehr als Effektphysik mit tausenden Partikeln wäre den meisten sehr viel lieber.

Was erwartest du denn zum Beispiel? Es wird bei dem Konzept imo bei optischen Gimmicks bleiben. Kein Entwickler wird PhysX wegen spielerische Inhalte ändern und de facto zwei Versionen entwickeln.

LovesuckZ
2010-08-12, 23:48:19
ja klar, weil er dort für ingamephysik nicht esxtra zahlen musste und trotzdem in ähnlicher quali geliefert bekommt? der konsolero trifft also unbewusst die wirtschaftlichere wahl? das meinst du doch damit?

Nö. Ich habe gesagt: Wem Grafik nicht interessiert, der sollte sich eine Konsole kaufen.
Wer also Mafia 2 wirklich ohne Apex spielt, weil ihm Apex "anekelt", der braucht im Grunde auch nicht am PC spielen. Imo ist es inkonsistent soviel Leistung in Auflösung, AA, Texturen, AF zu legen, aber einer besseren Immersion zu sagen: Ne.

IVN
2010-08-12, 23:48:46
Im Gegenteil...
warum sollte jemand die Konsolenentwickler dahingegend bezahlen? PhysX war schon auf Konsolen verbreitet, bevor Nvidia eingestiegen ist.

@L
Mirrors Edge, Batman und Mafia 2 machen es leider für die meisten der User nicht richtig.
Etwas mehr als Effektphysik mit tausenden Partikeln wäre den meisten sehr viel lieber.
Zumal wir hier von 3 Spielen gegen hunderte reden, wenn sich alle mal an einen Tisch setzen würden. Aber das will von den 3en keiner. Ergo verlieren wir.
Nur iV zu einer perfekten Welt die aber eh nicht existiert, und der man also sowieso nicht nachtrauern sollte.

Im Vergleich zu der der realen Welt sieht es so aus: ohne die PhysX-Initiative von Nv hätte eh niemand ws gemacht. Ergo, wenigstens die Geforce-Besitzer haben was davon.

derguru
2010-08-12, 23:50:47
Ageia hat auch nur $12 Millionen gekostet. Also ziemlich wenig für eine komplette Physik-Engine mit Tools und dem Team dahinter.
woot,wo haste das denn her?soweit ich weiß ging um es ein ~100 mio betrag.

dreas
2010-08-12, 23:51:54
wenigstens die Geforce-Besitzer haben was davon.

wenn sie die hälfte der achso tollen effekte ausschalten sogar auf highend nutzbar. klasse!

dreas
2010-08-12, 23:55:34
Nö. Ich habe gesagt: Wem Grafik nicht interessiert, der sollte sich eine Konsole kaufen.
Wer also Mafia 2 wirklich ohne Apex spielt, weil ihm Apex "anekelt", der braucht im Grunde auch nicht am PC spielen. Imo ist es inkonsistent soviel Leistung in Auflösung, AA, Texturen, AF zu legen, aber einer besseren Immersion zu sagen: Ne.

wenn das auto klasse ist darf der schalthebelknauf gern auch mit brillis besetzt sein. wenns aber ne rostlaube ist die nicht mal anständig fährt reissts der schalthebelknauf auch nicht raus. der überstrahlt die rostlaube einfach nicht.

nix gegen gute sichtbare und fortschrittliche physik. nehme ich als sahnehäubchen gern mit.

LovesuckZ
2010-08-12, 23:55:46
woot,wo haste das denn her?soweit ich weiß ging um es ein ~100 mio betrag.

Hm, muss ich mich wohl geirrt haben. :(

wenn das auto klasse ist darf der schalthebelknauf gern auch mit brillis besetzt sein. wenns aber ne rostlaube ist die nicht mal anständig fährt reissts der schalthebelknauf auch nicht rasu. der überstrahlt die rostlaube einfach nicht.

nix gegen gute sichtbare und fortschrittliche physik. nehme ich als sahnehäubchen gern mit.

Ziemlich lächerliche Begründung, wenn man bedenkt, dass Games immer noch die Rostlaube sind und alles nur langsam dem Rost abhebeln.
Schieße ich ein Diner klein, habe ich mit Apex mehr Spaß als mit ohne. genauso wie mit Downsampling, AF, AA etc. Oder verzichtet hier jemand auf Downsampling in Mafia 2, nur weil er mit dem Auto durch Bäume fahren kann? Wahrscheinlich nicht.

IVN
2010-08-12, 23:57:12
wenn sie die hälfte der achso tollen effekte ausschalten sogar auf highend nutzbar. klasse!
Leben wir in der selben Welt? WIe kann man gegen etwas wettern, das eine zusätzliche Option darstellt?

Gäbe es PhysX nicht, würdest du auch mit einer Geforce die unmodifizierte Konsolenkost vom feinsten bekommen. Ist das in deiner Welt etwa besser, als die Option auf besser Effekte zu haben?

BlackBirdSR
2010-08-12, 23:57:20
Batman bietet: dynamischen Nebel, haufenweise "Partikel" (Partikel, Papier, zerstörbare Umgebung), Cloth-Simulation.
Mirrors Edge bietet: Partikeleffekte (Glas, nebel, Dach), astreine Cloth Simulation.
Mafia 2 bietet: Vernünftige Partikeleffekte bzgl. Zerstörung (ich kann jeden nur empfehlen ein Diner zu zerlegen), Cloth Simulation bei Kleidung (fast jede Figur!), dynamischer Nebel.

Alle drei Spiele bieten mehr als das Standard(Konsolen)Game.

Gähn....
Ich würde Dir ja jetzt gerne die 200 Spiele aufzählen, die dazu auch noch Multi-Core nutzen um subtil sinnvolle Physik darzustellen.
Gibt es leider nicht, weil die 3 sich nicht zusammensetzen wollen.
Gut, dass wir wenigstens 3 haben, wo Effektphysik für ca. 30% der Käufer gut aussieht. Der Rest hat keine Nvidia oder keine die schnell genug wäre.
Ich bin mit dieser Situation nicht zu frieden! Ihr schon?

@IVN
Unterscheide mal bitte ersichtlich zwischen PhysX als Engine und GPU-PhysX. Ist ja sonst kaum zu kapieren!

davidzo
2010-08-12, 23:58:54
es ist wie damals als man das gras bei onlineshootern eingeführt hat. mangels einheitlicher installierter plattformen war es natürlich abschaltbar und hat den spielern mit demniedrigsten detailgrad einen gewissen vorteil was die sichtbarkeit gegenüber natürlichen deckungen angeht verschafft. Daher ist zuschaltbare vegetation zwar ein schönes feature aber leider überhaupt icht gameplayrelevant. Dasselbe dilemma haben wir bei physx. wenn man alle anderen plattformen derart künstlich ausbremst dass es nur auf einer lauufähig ist, wird es nie spielrelevante physx beschleunigung geben, denn die hälfte der installierten Basis verfügt über keinen physx beschleuniger.

Man würde das feature ernsthafter angehen, wenn wenigstens die Plattformen überall dieselben wären, aber so traut sich kein spieleentwickler gameplayrelevante dinge an den seidenen pfaden namens physx zu hängen...
und die plattformähnlichkeit wäre gegeben wenn nvidia mal endlich ernsthafte physxtreiber anbieten würde. derzeit aber bremsen sie nurnoch das eine oder andere system künstlich aus um den hohen preis einer diskreten physx gpu zu rechtfertigen.
solange sie nicht endlich gute software physxtreiber mit guter performance auf multicore cpus machen, wird das nichts mit gameplayrelevantem physx. und das Andere kann mir ehrlich auch gestohlen bleiben, da mekre ich den Unterschied zu hardgecodeten animationen nicht...

Aber offensichtlich hat nvidia in der Hinsicht gar keine ambitionen. physx soll sich nämlich gar nicht relevant durchsetzen, denn dann wäre es ja kein besonderes kleines kaufargument mehr. Stattdessen lieber weiterhin ein nischendasein, marktführerschaft mit physx ist nicht erstrebenswert für nvidia. katastrophe wenn amd da mitmachen würde, dann verliert man ja womöglich ein alleinstellungsmerkmal.

LovesuckZ
2010-08-13, 00:00:04
Gähn....
Ich würde Dir ja jetzt gerne die 200 Spiele aufzählen, die dazu auch noch Multi-Core nutzen um subtil sinnvolle Physik darzustellen.
Gibt es leider nicht, weil die 3 sich nicht zusammensetzen wollen.
Gut, dass wir wenigstens 3 haben, wo Effektphysik für ca. 30% der Käufer gut aussieht. Der Rest hat keine Nvidia oder keine die schnell genug wäre.
Ich bin mit dieser Situation nicht zu frieden! Ihr schon?


:facepalm:

Was haben die hundert anderen Spielen mit den drei Vorzeigegames bezgl. physikalischer Grafik zu tun? Das ist genauso als wenn ich Mafia 2 als Gegenargument zu Tessellation nehme, weil es heute mehr DX9 als DX11+Tessellation Spiele gibt.

BlackBirdSR
2010-08-13, 00:04:23
:facepalm:

Was haben die hundert anderen Spielen mit den drei Vorzeigegames bezgl. physikalischer Grafik zu tun? Das ist genauso als wenn ich Mafia 2 als Gegenargument zu Tessellation nehme, weil es heute mehr DX9 als DX11+Tessellation Spiele gibt.


Tja, dir scheint laut deinen ganzen Postings halt nur Effektphysik wichtig. Wir anderen wollen das ganze Konzept etwas progressiver haben. Ich denke, das ist durchaus logisch und für uns alle gut.
Darum regen sich ja viele wegen Schummeln auf, auch wenns in diesem Fall keines ist. Nvidia nutzt nur die Möglichkeiten, die sie haben. Spielphysik gehört dazu eben leider nicht!

LovesuckZ
2010-08-13, 00:07:15
Tja, dir scheint laut deinen ganzen Postings halt nur Effektphysik wichtig. Wir anderen wollen das ganze Konzept etwas progressiver haben. Ich denke, das ist durchaus logisch und für uns alle gut.

Jemand der Effektphysik verteufelt, weil "spielephysik" sich nicht weiterentwickelt, der verteufelt auch Tessellation, weil die KI sich nicht richtig weiterentwickelt. Zwei unabhängige Bestandteile eines Spieles. Aber künstlich wird hier eine Verbindung gebildet, die einfach nur dämlich ist.

dreas
2010-08-13, 00:07:34
Leben wir in der selben Welt? WIe kann man gegen etwas wettern, das eine zusätzliche Option darstellt?

Gäbe es PhysX nicht, würdest du auch mit einer Geforce die unmodifizierte Konsolenkost vom feinsten bekommen. Ist das in deiner Welt etwa besser, als die Option auf besser Effekte zu haben?

leben wir in der selben welt? wie kann man für etwas eintreten was bei gleicher qualität, nicht proprietär, wesentlich performanceschonender möglich wäre?

gäbe es physx nicht, hätten sich die entwickler gedanken gemacht wie bessere effekte für alle ohne zusatzoption standardmäßig möglich wären!

auch wenn manche das nicht für möglich halten aber auch vor mafia II konnte man kisten zerballern und putz abschießen. und ja es sah hinterher auch so aus.

=Floi=
2010-08-13, 00:08:19
es gibt ja nicht mal richtige OCL/DirectCL demos und brauchbare treiber, wie soll man da erst richtige programme die diese technik nützen erwarten?!

ihr kloppt immer auf den physx rum, aber das funktioniert wenigstens anstandslos.


---
das weiterberechnen der objekte ist wohl eine nötiges übel, um nachher wieder diese objekte "weiterbearbeiten" zu können.

derguru
2010-08-13, 00:13:56
leben wir in der selben welt? wie kann man für etwas eintreten was bei gleicher qualität, nicht proprietär, wesentlich performanceschonender möglich wäre?

gäbe es physx nicht, hätten sich die entwickler gedanken gemacht wie bessere effekte für alle ohne zusatzoption standardmäßig möglich wären!

auch wenn manche das nicht für möglich halten aber auch vor mafia II konnte man kisten zerballern und putz abschießen. und ja es sah hinterher auch so aus.
ja auch schon vor knapp 10 jahren.;D (ab 2.17 min)
http://www.youtube.com/watch?v=0XXMDn9oM9o

IVN
2010-08-13, 00:14:48
leben wir in der selben welt? wie kann man für etwas eintreten was bei gleicher qualität, nicht proprietär, wesentlich performanceschonender möglich wäre? Nein, möglich wäre es eben nicht!

gäbe es physx nicht, hätten sich die entwickler gedanken gemacht wie bessere effekte für alle ohne zusatzoption standardmäßig möglich wären!Nein, die würden weiterhin unveränderte Konsolenkost auf den PC portiern, und das wäre es auch. Die bessere Physik kannste vergessen. Das ist nichts weiter als ein unrealistischer, feuchter Nerd-Traum.

auch wenn manche das nicht für möglich halten aber auch vor mafia II konnte man kisten zerballern und putz abschießen. und ja es sah hinterher auch so aus.Man konnte auch vor 10 Jahren mit einer Maus spieln, die Frage ist nur "wie". Wo ist also dein Punkt?

ja auch schon vor knapp 10 jahren.;D (ab 2.17 min)
http://www.youtube.com/watch?v=0XXMDn9oM9o


Vor 9 Jahren. (http://www.youtube.com/watch?v=bDwMQeqQM3k)

Vertigo
2010-08-13, 00:16:50
ja auch schon vor knapp 10 jahren.;D (ab 2.17 min)
http://www.youtube.com/watch?v=0XXMDn9oM9o
Ja - und damals schon alles voll mit Polygonen und Texturen. Wo bleibt nur der Fortschritt? Manchmal ...

derguru
2010-08-13, 00:24:43
Ja - und damals schon alles voll mit Polygonen und Texturen. Wo bleibt nur der Fortschritt? Manchmal ...
siehste doch in mafia 2 :up:

dreas
2010-08-13, 00:26:02
Man konnte auch vor 10 Jahren mit einer Maus spieln, die Frage ist nur "wie". Wo ist also dein Punkt?


polemischmode (geht nich mehr anders;))
ja wie? genau wie heute, anlegen, zielen, schiessen, treffen->kiste zerbrösselt.

no difference, thats the point!

Bucklew
2010-08-13, 00:30:20
ja auch schon vor knapp 10 jahren.;D (ab 2.17 min)
http://www.youtube.com/watch?v=0XXMDn9oM9o
Man muss schon null Ahnung von der zugrunde liegenden Technologie um diese vorgerechneten Szenen mit PhysX gleich zu setzen.

dreas
2010-08-13, 00:35:38
Man muss schon null Ahnung von der zugrunde liegenden Technologie um diese vorgerechneten Szenen mit PhysX gleich zu setzen.

der konsument geniesst das ergebnis und nicht den prozess wie etwas zu stande kommt. wenn der wein gut mundet ists egal ob er im eichenfass war oder billiger stahltank gereicht hat. wenn dann noch das ambiente in der kneipe zusagt, umso besser!

LovesuckZ
2010-08-13, 00:37:19
polemischmode (geht nich mehr anders;))
ja wie? genau wie heute, anlegen, zielen, schiessen, treffen->kiste zerbrösselt.

no difference, thats the point!


Klar. Wer zwischen "zerbröselt, löst sich in Luft auf" und "zerbröselt und bleibt zum Großteil vorhanden" nichts merkt, der merkt auch den Unterschied zwischen Schatten low und High nicht.
Imo reicht für diese Leute auch eine Konsole. Denn ob AA oder nicht: Man muss es einfach nur wegignorieren. :freak:

Coda
2010-08-13, 00:38:13
ja auch schon vor knapp 10 jahren.;D (ab 2.17 min)
http://www.youtube.com/watch?v=0XXMDn9oM9o
Ein vorbereiteter Benchmark der immer gleich abläuft ist ja wohl etwas anderes als ein Spiel. Dort wurde nichts dynamisch erzeugt.

derguru
2010-08-13, 00:44:06
lol das war ein beispiel zu dreas post,roofl was gleich hier abgeht.was ist mit max payne,auch nichts dynamisch?
bei mafia 2 wiederholt sich auch einiges,so ist es nicht.

der konsument geniesst das ergebnis und nicht den prozess wie etwas zu stande kommt. wenn der wein gut mundet ists egal ob er im eichenfass war oder billiger stahltank gereicht hat. wenn dann noch das ambiente in der kneipe zusagt, umso besser!
wort zum sonntag,amen.

Coda
2010-08-13, 01:24:21
was ist mit max payne,auch nichts dynamisch?
Max Payne hatte keine zerstörbare Umgebung.

Bucklew
2010-08-13, 01:56:32
der konsument geniesst das ergebnis und nicht den prozess wie etwas zu stande kommt. wenn der wein gut mundet ists egal ob er im eichenfass war oder billiger stahltank gereicht hat. wenn dann noch das ambiente in der kneipe zusagt, umso besser!
Ja nur blöd wenn im einen Falle immer nur der gleiche Wein serviert wird, während im andere Falle der Wein wechselt ;)

Wie immer hinken Vergleiche. Es sollte aber (zumindest in diesem Forum) ein Unterschied sein, ob ich einen physikalischen Effekt vorberechnet darstelle oder diesen in Echzeit berechne. Das das Ergebnis natürlich in beiden Fällen anders ist (und durchaus auch völlig anders als man denken würde) ist zwar richtig, aber es entscheidet ja die Technik und das, was auch in Zukunft daraus werden wird. Und was werden wir in 10 Jahren darüber lachen, wie manche hier die Echtzeit-Physikeffekte kaputt geredet haben.

lol das war ein beispiel zu dreas post,roofl was gleich hier abgeht.was ist mit max payne,auch nichts dynamisch?
Ja und du hast wie so oft Quatsch erzählt.

derguru
2010-08-13, 02:27:17
Max Payne hatte keine zerstörbare Umgebung.jo stimmt,dann halt redfaction aus dem jahre,da gings aber definitiv.

Ja und du hast wie so oft Quatsch erzählt.
das ist dein hobby seit du hier aufgetaucht bist,der kleine möchtgern nv-mann:freak:
und jetzt ab ins pow-thread andere leute weiter nerven,mr.cpu-limit:lol:

Coda
2010-08-13, 04:07:03
jo stimmt,dann halt redfaction aus dem jahre,da gings aber definitiv.
Red Faction hatte aber keine Physik.

IVN
2010-08-13, 06:25:48
polemischmode (geht nich mehr anders;))
ja wie? genau wie heute, anlegen, zielen, schiessen, treffen->kiste zerbrösselt.

no difference, thats the point!
Dann stimmt etwas mit deinen Augen nicht. Der Unterschied ist riesig.

Gast
2010-08-13, 07:55:19
ja auch schon vor knapp 10 jahren.;D (ab 2.17 min)
http://www.youtube.com/watch?v=0XXMDn9oM9o
http://www.youtube.com/watch?v=vCnfWneTsMY

Also die Einschusslöcher des vorberechnetenen SPIELS 3DMARK kannst du nicht gemeint haben.
Vielleicht meinst du ja die überzeugende Cloth Simulation des 3DMark. :lol:

Wie auch immer, einen 3DMark als Beispiel, war wohl nichts, gibts nicht noch gescheite Argumente?

V2.0
2010-08-13, 08:24:34
Es gibt ne einfache Lösung für das Problem. Kauft keine Spiele mit PhysX. Wenn die Hersteller merken, das die Nutzung von PhysX den Abstatz reduziert, dann bauen sie es nicht mehr ein. So mache ich das ganz konsequent. So wie man bestimtme Software mit bestimmten Arten von Kopierschutz nicht kauft, sollte man auch Software mit PyhsX einfach nicht kaufen.

Gast
2010-08-13, 08:44:21
Warum sollte ich das tun?
Mafia2 hat mich beeindruckt, das wird auf jeden Fall gekauft.
Mirrors Edge war ein nettes Spiel, mal etwas anderes.
Batman hätte mir sehr gefallen, aber die Steuerung/bzw Sicht von rechts hinten in der Demo hat mir überhaupt nicht gefallen, also nicht gekauft.

Gast
2010-08-13, 11:22:08
Doch, den Geforce-Benutzern.

Und gäbe es Nv und PhysX nicht, würden ALLE in die Röhre gucken.

das ist doch BS. physik in spielen gibts nicht erst seit nvidia ageia geschluckt hat! oder glaubst du ernsthaft, dass physik in spielen verschwunden wäre, hätte nvidia ageia nicht gekauft?

Gast
2010-08-13, 11:27:49
... Wobei der eigentliche Schuldige zweifelsfrei AMD ist, das hier zu lange gepennt und nun Nvidia nichts entgegenzusetzen hat...

ja genau.... und die leiche ist auch selber schuld weil sie hat sich ja ermorden lassen.

Raff
2010-08-13, 11:31:50
das ist doch BS. physik in spielen gibts nicht erst seit nvidia ageia geschluckt hat! oder glaubst du ernsthaft, dass physik in spielen verschwunden wäre, hätte nvidia ageia nicht gekauft?

Natürlich nicht. Aber Nvidia investiert in Studios, die Cross-Plattform-Titel entwickeln, damit diese auf dem PC ein Alleinstellungsmerkmal – erweiterte (GPU-)Physik – integrieren. Täte Nvidia das nicht, würden diese Cross-Plattformer auf dem PC aussehen wie auf den Konsolen: ohne erweiterte Physik. Für Radeon-Besitzer tun sie es faktisch, da CPU-PhysX zu schnarchig performt.

MfG,
Raff

Gast
2010-08-13, 11:40:41
Ganz schön persönlich, so aus dem Nichts. Mal nen Gang runterschalten.

PhysX hatte schon vor GPU-Beschleunigung eine sehr hohe Verbreitung. Das gilt auch für Konsolen. Nehme man jetzt den Fall, dass Nvidia nicht aufgesprungen wäre, hätten wir natürlich nicht tausende Partikel, die bei MG-Schüssen durch die Gegend fliegen, oder Cloth-Simulation ohne Spielbezug. Allerdings gäbe es dann IMO mehr Bemühungen in Richtung Spielphysik. Dieser Bereich wird aktuell stark gebremst, weil die anderen am Markt natürlich gegen Nvidia agieren wollen. Leistung wäre sowohl auf dem PC, als auch den Konsolen zugenüge vorhanden.
Und mir persönlich ist spielrelevante Physik wichtiger als Partikeloverkill, der nur auf Nvidia-Karten funktioniert.

ganz genau! und ganz zufällig wird natürlich die mafia 2 demo gleich mit einem benchmark ausgeliefert, damit jeder depp sehen kann, welche tollen vorteile physx bringt.... bzw. nicht bringt. sämtliche vergleichewerte mit diesem benchmark sind jedenfalls dank der "tollen" mehrkernunterstützung von physx komplett für die tonne. das eignet sich höchstens dazu nvidia karten miteinander zu vergleichen... oder damit sich gebeutelte nvidia fanboys ein bisschen besser fühlen ;)

Gast
2010-08-13, 11:44:32
... Für Radeon-Besitzer tun sie es faktisch, da CPU-PhysX zu schnarchig performt.

MfG,
Raff

aber nicht weil die CPUs das nicht locker berechnen könnten sondern weil nvidia die cpus absichtlich nicht voll auslastet, nur damit ihre lösung besser da steht! würde sie das nicht machen, wäre schlagartig eins ihrer haupt-verkaufsargumente (PhysX) nicht mehr haltbar.

Raff
2010-08-13, 11:55:23
Würdest du es anders machen? Würdest du Geld und Mannstunden investieren, um dafür nichts zurückzukriegen? GPU-PhysX hat zwar einen schlechten Ruf, aber ich bin sicher, dass viele Leute wegen solcher Dinge eine GeForce kaufen, eben weil's einen Mehrwehrt bringt.

MfG,
Raff

Dicker Igel
2010-08-13, 12:10:37
Eben - es ist vollkommen legitim von NV - AMD & Intel investieren ja auch nicht, wieso soll dann NV deren HW supporten?
Wenn ich für Audi arbeite, gehe ich nach Feierabend auch nicht zu Daimler und putz deren Scheiben für lau ... was für eine Logik, rofl :)

Pirx
2010-08-13, 12:18:48
Das, so wie ich es verstanden habe, ist eine künstliche Beschränkung und wäre kein Support fremder Hardware - und das ist wieder mal Konkurrenzkampf auf Kosten der Entwicklung und der Kunden.

derguru
2010-08-13, 12:19:54
Red Faction hatte aber keine Physik.
ok,ok 2001 war wohl ein bissel zu früh dafür,jetzt nicht auf red faction bezogen sondern allgemein.
Würdest du es anders machen? Würdest du Geld und Mannstunden investieren, um dafür nichts zurückzukriegen? GPU-PhysX hat zwar einen schlechten Ruf, aber ich bin sicher, dass viele Leute wegen solcher Dinge eine GeForce kaufen, eben weil's einen Mehrwehrt bringt.

MfG,
Raff
bei identischem preis/leistung nimmt man natürlich gpu-physX mit aber ob viele dafür draufzahlen würden bezweifele ich gerade bei nur einer handvoll spielen.

Raff
2010-08-13, 12:21:26
Das, so wie ich es verstanden habe, ist eine künstliche Beschränkung und wäre kein Support fremder Hardware - und das ist wieder mal Konkurrenzkampf auf Kosten der Entwicklung und der Kunden.

Jemand von Nvidia müsste sich eben hinsetzen und CPU-PhysX so coden, dass es mehr als (gefühlte) ~1,3 Threads nutzt. Das würde wieder Geld und Mannstunden kosten. Und wofür? Dafür, dass dann niemand mehr eine GeForce als Physiker kauft, denn die CPU taugt ja auch. Eigentor. Versteht ihr das wirklich nicht? Denkt doch mal gewinnorientiert und nicht wie "Papi zahlt mir eh alles und Nvidia ist böse." ;)

bei identischem preis/leistung nimmt man natürlich gpu-physX mit aber ob viele dafür draufzahlen würden bezweifele ich gerade bei nur einer handvoll spielen.

Eine GeForce bietet mehr Vorteile als nur GPU-PhysX (aber wem sag ich das? ;)). Nur die jucken eben die wenigsten Käufer.

MfG,
Raff

Pirx
2010-08-13, 12:40:25
Hatte Physx nicht schon mal Multithread-Support?:|

Warum sollte ich mir Gedanken um die Interessen von nV machen? Für mich als Spieler/Nachfrager ist so ein geschlossener Firmenstandard, mit dem dann noch Politik gemacht und die Marktentwicklung behindert wird, jedenfalls mehr als suboptimal.

LovesuckZ
2010-08-13, 13:16:55
Für mich als Spieler ist das nichts tun der x86 Mafia genauso schädigend. Dann nehme ich doch liebers GPU-PhysX mit. Damit geht es wenigsten vorwärts.

RLZ
2010-08-13, 13:52:12
Hatte Physx nicht schon mal Multithread-Support?:|
Klar hat es das. Allerdings muss der Applikationsprogrammierer sich darum kümmern. Macht auf CPUs auch keinen Sinn das anders zu machen. Kein Entwickler will, dass eine Middleware von sich aus anfängt Threads zu erstellen.
Bei der GPU implementierungen kann man sich um die Parallelisierung intern kümmern.

Dass man die CPU Implementierung besser optimieren könnte ist eine andere Sache.

Dicker Igel
2010-08-13, 13:52:43
Das, so wie ich es verstanden habe, ist eine künstliche Beschränkung und wäre kein Support fremder Hardware - und das ist wieder mal Konkurrenzkampf auf Kosten der Entwicklung und der Kunden.

Nein - denn die Kunden von NV bekommen es ja und wenn man nicht gleich zum Release die neuste HW kauft,
hat man auch keine Mehrkosten, dass ist dann eben alles subjektiv.


Für mich als Spieler/Nachfrager ist so ein geschlossener Firmenstandard, mit dem dann noch Politik gemacht und die Marktentwicklung behindert wird, jedenfalls mehr als suboptimal.

Wenn Intel & AMD nicht "auf NV zugeht", kann NV doch nix dafür.
Denn wäre dies der Fall, wäre es "globaler" Standard und alle hätten mehr davon, auch Du als Kunde, der PC Hardware kauft und zum spielen nutzt.

IVN
2010-08-13, 13:55:37
das ist doch BS. physik in spielen gibts nicht erst seit nvidia ageia geschluckt hat! oder glaubst du ernsthaft, dass physik in spielen verschwunden wäre, hätte nvidia ageia nicht gekauft?
Ich rede über PhysX das über die GPU läuft, also die grafischen Effekte.

Und jetzt: hätte Nv die GPU-PhysX nicht gepusht, hätten die Radeon-Nutzer es eh nicht gehabt (kein Unterschied zu heute), aber darüber hinaus, hätte die Geforce-Nutzer es auch nicht. Das Nv PhysX pusht hat niemandem geschadet, im Ggt, es hat den GF-Nutzern was gebracht.

Eggcake
2010-08-13, 13:56:37
@Gast
Büdde? Man sieht doch prächtig, dass PhysX auch mit CPU geht, für das brauche ich keine GPU, zumindest nicht im jetzigen Zustand. Faktisch wird man ja, wenn man z.B. Mafia 2 spielen will dazu gezwungen, weil eben keinen richtigen CPU Support gibt.

Ich würde es ja genauso machen, wenn ich NV wäre, alles andere wäre dumm.

Gast
2010-08-13, 18:00:38
Tatsache ist, dass PhysX eine Lösung für ein Problem ist, dass es in Wirklichkeit dank ausreichend schneller Mehrkern-CPUs nicht gibt: nämlich der CPU Arbeit abzunehmen für aufwändige Physik-Berechnungen.

Die Idee ist ja prinzipiell nicht schlecht... aber die Umsetzung und der absichtlich hervorgerufene Engpass von (CPU) Rechenleistung (den es in Wirklichkeit nicht gibt), ist nicht OK. Es gibt ausreichend viele Beispiele sehr guter und realistischer ingame-Physik wo keine extra Zusatzkarte benötigt. (und sogar John Carmack sagt (http://www.tomshardware.com/news/Carmack-PhysX-PPU-QuakeCon,8513.html), dass das eine"bad idea" ist)

Gast
2010-08-13, 18:28:31
Solange der Markt nichts auf CPU hervorbringt bleiben wir im Spekulationsforum.
Schade, ich würde gerne mehr im CPU oder Spieleforum lesen.

Tatsache ist, das eine CPU Physik auf dem Effektniveau von PhysX nicht in Sicht ist, in keinen einzigen Titel.

Sumpfmolch
2010-08-13, 18:34:02
Zum einen nutzt NV natürlich hier Marktmacht und Featureset aus, zum Anderen sind klar AMD und Intel gefordert, hier endlich mal etwas auf die Beine zu stellen.

eher ist microsoft gefordert einen standard zu entwickeln und physX den verdienten kopfschuss zu erteilen, den auch creatives eax bekommen hat.

derpinguin
2010-08-13, 18:58:41
Warum sollte Microsoft einen Standard entwickeln? Wer hat Microsoft zum Normierungsinstitut gemacht?

LovesuckZ
2010-08-13, 19:05:09
Vorallem: Hat sich x86 in Luft aufgelöst?

dargo@work
2010-08-13, 19:08:18
Warum sollte Microsoft einen Standard entwickeln? Wer hat Microsoft zum Normierungsinstitut gemacht?
Zumal Microsoft eh kaum Interesse im PC-Spiele-Sektor zeigt. Wobei ich mich auf der anderen Seite frage - wenn MS der PC-Spiele-Markt so egal ist warum wird ständig ein neuer DX-Level ins Leben gerufen. Für was noch?

Gast
2010-08-13, 19:10:11
Warum sollte Microsoft einen Standard entwickeln? Wer hat Microsoft zum Normierungsinstitut gemacht?

Weil es Vorteile für sie bringt.
Und z.b. DirectX ist ja auf Windows (spiele) quasi Standard.Oder warum hat MS z.b. eax sterben lassen. usw.... jede "eigene" Norm ist doch für Ms von großem Vorteil.

LovesuckZ
2010-08-13, 19:10:27
Zur Festigung des Betriebssystemmonopol.

Vento
2010-08-13, 19:10:28
eher ist microsoft gefordert einen standard zu entwickeln und physX den verdienten kopfschuss zu erteilen, den auch creatives eax bekommen hat.

Das ist doch absoluter Bullshit, was hat Microsoft mit einem neuen Physikstandard zu tun.:facepalm:

Coda
2010-08-13, 19:44:37
eher ist microsoft gefordert einen standard zu entwickeln und physX den verdienten kopfschuss zu erteilen, den auch creatives eax bekommen hat.
Es gibt einen Standard und der nennt sich DirectCompute oder OpenCL. Die Physikengine gehört ganz sicher nicht in eine System-API. Es gibt jetzt schon alles standardisiert für Spiele um Physikengines herstellerübergreifend auf GPUs beschleunigen zu lassen.

.Oder warum hat MS z.b. eax sterben lassen. usw.... jede "eigene" Norm ist doch für Ms von großem Vorteil.
Microsoft hat EAX nicht "sterben lassen".

Microsoft hatte keinen Bock mehr auf die fürchterlichen 3rd party Sound-Treiber, weshalb sie einen Großteil davon selber implementiert und in den Userspace verlagert haben. EAX funktioniert auch weiterhin über OpenAL.

HarryHirsch
2010-08-13, 20:25:45
@Gast
Büdde? Man sieht doch prächtig, dass PhysX auch mit CPU geht, für das brauche ich keine GPU, zumindest nicht im jetzigen Zustand. Faktisch wird man ja, wenn man z.B. Mafia 2 spielen will dazu gezwungen, weil eben keinen richtigen CPU Support gibt.

Ich würde es ja genauso machen, wenn ich NV wäre, alles andere wäre dumm.

Noch ja.

es gibt ja nicht mal richtige OCL/DirectCL demos und brauchbare treiber, wie soll man da erst richtige programme die diese technik nützen erwarten?!

ihr kloppt immer auf den physx rum, aber das funktioniert wenigstens anstandslos.


---
das weiterberechnen der objekte ist wohl eine nötiges übel, um nachher wieder diese objekte "weiterbearbeiten" zu können.


Du scheinst die "r700-demo" nicht zu kennen.

Gast
2010-08-13, 20:45:31
eher ist microsoft gefordert einen standard zu entwickeln und physX den verdienten kopfschuss zu erteilen, den auch creatives eax bekommen hat.
Ohja, ich als Creative Kartenbesitzer habe mich unglaublich darüber gefreut. Besser noch, ich freue mich immer noch.

Weniger Qualität und zig mal Umständlicher. Genial. Weiter so, so muss das aussehen damit alle profitieren.
Denn es kann nicht im Interesse aller sein, wenn einige meinen, nur weil sie 100€ für eine Soundkarte ausgeben, das sie dann auch besseren Sound bekommen.
Es sollen gefälligst alle Scheisse ins Ohr geblasen bekommen.

Danke für deine Einstellung. :facepalm:

Sumpfmolch
2010-08-13, 23:04:19
Das ist doch absoluter Bullshit, was hat Microsoft mit einem neuen Physikstandard zu tun.:facepalm:

für die physikberechnung der grafischen oberfläche eines zukünftigen windows betriebsystems natürlich :-)

Gast
2010-08-13, 23:11:40
Wovon träumst du nachts.
Bis dahin vergehen Jahre und die 6 Kerner werden schon längst ungenutzt im Müll gelandet sein.

=Floi=
2010-08-14, 00:12:19
ich kenne die r700 demo nicht. eigentlich kenne ich gar keine direct ocl demo, welche auch ich hier daheim starten kann. ich kenne noch die amd demo welche partikel zeigte und auf einem quad lief. von intel habe ich noch nie etwas gesehen und seit gefühlten 12 monaten tut sich da garnichts.

schon ein gigantischer fail, wenn man bedenkt, wie toll doch solch offene systeme wären.

kann eine moderne cpu wirklich die physikberechnungen in maffia 2 berechnen? ich finde die auslagerung auf die gpu schon ganz nett. da gibt es wesentlich mehr brachliegende rechenleistung und das ganze harmonisiert einfach besser auf einer gpu.

y33H@
2010-08-14, 00:20:15
Von Intel gibt's die Smoke-Demo für Nehalem, wobei das iirc keine explizite Physik-Demo war.

Ph0b0ss
2010-08-14, 11:30:46
ich finde die auslagerung auf die gpu schon ganz nett. da gibt es wesentlich mehr brachliegende rechenleistung und das ganze harmonisiert einfach besser auf einer gpu.

Also eigentlich ist es genau andersherum. Die GPU ist bei den meisten Spielen normalerweise in ~90% der Szenen maximal ausgelastet (hohe Auflösung mit AA/AF), während die CPU (bei 4-6 Kernen) nur bei ~30-70% ausgelastet wird.

Gast
2010-08-14, 11:43:11
4-6 Kerne sind nicht die Regel. :facepalm:
Bei Mafia2 ist es im Übrigen ja nicht so, das die CPU gar nichts tun würde. Die Spielrelevante Physik übernimmt sie.
Für Medium in Mafia2 braucht es wirklich keine starke Grafikkarte. Und wir reden hier die ganze Zeit von einem zusätzlichen Feature. Wärs besser wenns nichts gäbe, sozusagen eine Bevormundung wie man sie von AMD kennt?

Aber beschwer dich doch mal bei AMD, die ihren 6 Kerner verkaufen und nichts dafür tun, das Physik ihn auslastet.

Ph0b0ss
2010-08-14, 11:57:37
4-6 Kerne sind nicht die Regel. :facepalm:

4 Kerne sind zumindest deutlich weiter verbreitet als ne 2 Grafikkarte für Physx. ;)

Gast
2010-08-14, 12:45:58
Es besteht keine Notwendigkeit einer zweiten Grafikkarte. :facepalm:

Gestrandet
2010-08-14, 13:38:36
Kann man bitte mal entweder die Gäste oder Picard aus dem Board werfen? In Kombination sind sie etwas schwer erträglich.

Ph0b0ss
2010-08-14, 16:24:53
Es besteht keine Notwendigkeit einer zweiten Grafikkarte. :facepalm:

Wenn man keinen Leistungseinbruch möchte schon! Auf einem 4-Kerner wäre jedoch noch Rechenleistung verfügbar -> kein Leistungseinbruch. ;)

Sumpfmolch
2010-08-14, 17:00:25
gibts gute benchmarks zur auslastung von cpu-physx für dual, quad und hexa cores?

Gast
2010-08-14, 17:42:08
Wenn man keinen Leistungseinbruch möchte schon! Auf einem 4-Kerner wäre jedoch noch Rechenleistung verfügbar -> kein Leistungseinbruch. ;)
Ja ne ist klar, umsonst ist es natürlich nicht. AF ist auch nicht umsonst.

Ph0b0ss
2010-08-14, 17:50:51
Ja ne ist klar, umsonst ist es natürlich nicht. AF ist auch nicht umsonst.

Erklär mir mal, warum ich die, praktisch immer ausgelastete, GPU mit noch mehr Arbeit belasten soll, wenn auf der CPU noch ordentlich ungenutzte Rechenzeit zur Verfügung steht (wo es bei entspechender Anpassung dann quasi "umsonst" ist)?

Gast
2010-08-14, 17:59:28
Programmierabeit ist bei dir umsonst? Wie lautet deine Adresse, ich hätte da ein paar Wünsche. =)

Es stimmt, mit einem nagelneuen High-End Quad hat man CPU Leistung übrig. Ja das ist schade.
Ich würde mir z.B. mehr Autos wünschen. Denn kaum hat man eine Straßensperre, schon versiegt der Strom an Fahrzeugen recht schnell.

dargo
2010-08-14, 18:45:37
Wenn man keinen Leistungseinbruch möchte schon! Auf einem 4-Kerner wäre jedoch noch Rechenleistung verfügbar -> kein Leistungseinbruch. ;)
Da täuschst du dich aber gewaltig. Ohne APEX lastet Mafia II einen 3,7Ghz i5 Quad hervorragend aus. Aufgrund der hohen Framerate von min. ~130-150fps wäre zwar noch Spielraum da aber sicherlich nicht ohne Leistungseinbruch. Und nur mal so nebenbei - ein i5-750@3,7Ghz ist keine CPU die jeder mal so daheim hat. Mal davon ab - was machst du mit den ganzen Dualcore-Besitzern?

Eggcake
2010-08-14, 18:48:57
Frage am Rande:

Wieso müssen bereits am Boden liegende Partikel, welche nicht mehr angerührt werden soviel Leistung fressen? Es muss ja in dem Sinn nichts berechnet werden...?

Ich meine - es ist egal ob die Partikel grad in der Luft herumfliegen oder am Boden liegen, die Leistung ist bei mir dieselbe...?

dargo
2010-08-14, 18:49:37
Erklär mir mal, warum ich die, praktisch immer ausgelastete, GPU mit noch mehr Arbeit belasten soll, wenn auf der CPU noch ordentlich ungenutzte Rechenzeit zur Verfügung steht (wo es bei entspechender Anpassung dann quasi "umsonst" ist)?
Umsonst ist erstens gar nichts. Und zweitens - wie kommst du auf die Schnapsidee die GPU wäre in Mafia II voll ausgelastet? Eine GTX470 ist nämlich in meiner nativen Auflösung von 1680x1050 bei weitem nicht voll ausgelastet. Mit einem nicht OC-i5-750 erst recht nicht.

Ph0b0ss
2010-08-14, 20:28:30
Umsonst ist erstens gar nichts. Und zweitens - wie kommst du auf die Schnapsidee die GPU wäre in Mafia II voll ausgelastet? Eine GTX470 ist nämlich in meiner nativen Auflösung von 1680x1050 bei weitem nicht voll ausgelastet. Mit einem nicht OC-i5-750 erst recht nicht.

Also laut GPU-Z ist bei mir in der Mafia Demo bei ca 70fps 1920x1200 inGame MAX immer 97-99% Auslastung auf der GTX470 @800/1600/1000. Physics läuft auf ner 8800GT @1728, welche maximal auf ~65% Auslastung dabei kommt. Mein W3520 @4Ghz dümpelt dabei so zwischen 40-50% Auslastung herum. Deswegen denke ich schon, dass bei nem Quad noch genug Rechenleistung für ordenlich programmierte Physik übrig ist. Bei kommenden 6/8-Kerne dann noch für ne Stufe mehr Physik.

Auch bei den meisten anderen Spielen ist bei mir die GPU praktisch immer auf 99% Auslastung und die CPU auf 30-65% Last. Daher GPU ausgelastet und CPU noch Rechenleistung verfügbar.

PulsarS
2010-08-14, 20:31:05
Frage am Rande:

Wieso müssen bereits am Boden liegende Partikel, welche nicht mehr angerührt werden soviel Leistung fressen? Es muss ja in dem Sinn nichts berechnet werden...?

Ich meine - es ist egal ob die Partikel grad in der Luft herumfliegen oder am Boden liegen, die Leistung ist bei mir dieselbe...?
Das kommt davon, wenn man nicht richtig programmieren kann.
Man könnte aus der Basis, die eh schon bescheiden ist, deutlich mehr rausholen, wenn man es nur richtig machen würde.

Die Engine bzw die Implementierung ist sehr statisch.
Selbst wenn man in eine Richtung schaut, wo es viele PhysX-Effekte gibt, und sich dann umdreht, wo es kaum Effekte gibt, geht die Framerate kaum hoch, obwohl sie durch die Decke schiessen müsste.
GANZ schlechte Programmierung.

Es gibt bei den meisten Effekten auch keinen Dead-Point.
Man kann doch beim Proggen nicht erlauben, dass ein Effekt immer weiter Last produziert, ohne dass es Beschränkungen gibt, wie max Partikellanzahl pro Quelle.
Beispiel:
"Wenn man paar Donats dreht gehen die FPS fast bist zum Stillstand ^^"
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8201171&postcount=1099

Gast
2010-08-14, 20:52:55
Also laut GPU-Z ist bei mir in der Mafia Demo bei ca 70fps 1920x1200 inGame MAX immer 97-99% Auslastung auf der GTX470 @800/1600/1000. Physics läuft auf ner 8800GT @1728, welche maximal auf ~65% Auslastung dabei kommt. Mein W3520 @4Ghz dümpelt dabei so zwischen 40-50% Auslastung herum. Deswegen denke ich schon, dass bei nem Quad noch genug Rechenleistung für ordenlich programmierte Physik übrig ist. Bei kommenden 6/8-Kerne dann noch für ne Stufe mehr Physik.
Deine CPU hat HT.
Ich komm mit meinem i7 auch auf 40-60%. Jetzt denk die Hälfte der "Kerne" weg.

dargo
2010-08-14, 21:07:05
Also laut GPU-Z ist bei mir in der Mafia Demo bei ca 70fps 1920x1200 inGame MAX immer 97-99% Auslastung auf der GTX470 @800/1600/1000.
Ihr verlasst euch viel zu sehr blind auf irgendwelche, nichts sagende Tools. Ich nenne dir mal ein Beispiel - in meinen zu 100% cpu-limitierten CPU-Tests in Games ist die GPU-Last meiner GTX470 laut Afterburner je nach Game bei 50-65%. Nach deiner Logik oder besser gesagt der Logik dieser Tools müsste eigentlich die GPU-Last genau bei 0% liegen. Also vergiss diese Auslastungs-Anzeige-Tools ganz schnell wieder solange man nicht genau weiß was die überhaupt erfassen.

Ph0b0ss
2010-08-14, 21:10:31
Deine CPU hat HT.
Ich komm mit meinem i7 auch auf 40-60%. Jetzt denk die Hälfte der "Kerne" weg.

Ohne HT sind es zwischen 70-80% Auslastung, also praktisch noch ca 1 ganzer Kern verfügbar. Mit HT dann halt noch etwas mehr Leistung verfügbar.

Ph0b0ss
2010-08-14, 21:21:22
Ihr verlasst euch viel zu sehr blind auf irgendwelche, nichts sagende Tools. Ich nenne dir mal ein Beispiel - in meinen zu 100% cpu-limitierten CPU-Tests in Games ist die GPU-Last meiner GTX470 laut Afterburner je nach Game bei 50-65%. Nach deiner Logik oder besser gesagt der Logik dieser Tools müsste eigentlich die GPU-Last genau bei 0% liegen. Also vergiss diese Auslastungs-Anzeige-Tools ganz schnell wieder solange man nicht genau weiß was die überhaupt erfassen.

Also nach meiner Logik ist die GPU im GPU-Limit 100% ausgelastet. 100% in dem Sinne, das mit mehr CPU-Leistung auch nicht mehr fps geht. Klar kann es hierbei sein, das dabei nicht alle möglichen Recheneinheiten in der GPU voll ausgelastet sind, z.B. TMUs nur bei 60% und die ALUs auf 100%. Aber es ist soweit 100% Auslastung, das die GPU nicht schneller kann.

Es könnte natürlich z.B. der Fall eintreten, das z.B. die TMUs auf 100% sind und die ALUs nur auf 70% und somit Rechenleistung für Physx übrig hätte. Aber anscheinend reicht die übrige Rechenleistung bei den bisherigen Physx-Spielen nicht, da die fps immer drastisch gesunken ist mit aktivem Physx.

Im CPU-Limit ist die GPU-Auslastung dann halt irgendwo zwischen 0-100%, aber niemals 0% oder 100%. Da passen doch deine 50-65%.

LuXon
2010-08-14, 21:46:50
Die Engine bzw die Implementierung ist sehr statisch.
Selbst wenn man in eine Richtung schaut, wo es viele PhysX-Effekte gibt, und sich dann umdreht, wo es kaum Effekte gibt, geht die Framerate kaum hoch, obwohl sie durch die Decke schiessen müsste.
GANZ schlechte Programmierung.

Nicht unbedingt. Die PhysX-Effekte (Glas, Rauch, whatever, also die Positionen/Kollisionen und nicht das Aussehen ansich) müssen auch noch berechnet werden, wenn du nicht hinschaust. Es könnte ja sein, dass du dich wieder umdrehst und dann kann nicht einfach Daumen mal Pi gesagt werden, das Teil ist jetzt so und liegt da usw.
Eigentlich sind es ja nicht die Effekte ansich, die soviel Rechenleistung brauchen (Rauch hatte man auch schon im jahre 2000?), sondern die "korrekte" physikalische Berechnung der Objekte.

Mal als Vergleich zur Verdeutlichung. Wenn du dich umdrehst setzt die KI auf der nicht sichtbaren Seite auch nicht aus oder?

PulsarS
2010-08-14, 21:50:25
Mal als Vergleich zur Verdeutlichung. Wenn du dich umdrehst setzt die KI auf der nicht sichtbaren Seite auch nicht aus oder?
Bei PhysX gibt es keine spielrelevanten Effekte, deswegen mit KI nicht vergleichbar.
PhysX is nur reine Optik.
Wenn man sich umdreht und es gibt keine PhysX-Effekte mehr, dann muss die Bildrate deutlich steigen.

Du vergleichst hier zwei Dinge, die man nicht vergleichen kann.
Optik und Gameplay sind zwei Welten.

IVN
2010-08-14, 21:57:16
Bei PhysX gibt es keine spielrelevanten Effekte, deswegen mit KI nicht vergleichbar.
PhysX is nur reine Optik.
Wenn man sich umdreht und es gibt keine PhysX-Effekte mehr, dann muss die Bildrate deutlich steigen.

Du vergleichst hier zwei Dinge, die man nicht vergleichen kann.
Optik und Gameplay sind zwei Welten.
Du raffst es anscheinend nicht.

Was er meint ist folgendes:

Nur weil du nicht hinschaust, heisst es noch lange nicht, das man mit der Berechnung aufhören kann. Würde man das trotzdem tun, hätte das SPiel keine Ahnung davon wie der "PhysX-Gegenstand" nun aussehen soll.

Praktisches Bsp: Nebel oder Rauch breitet sich aus oder verwirbelt. Du drehst dich um, aber die Bewegung des Nebels/Rauches muss eben weiter berechnet werden, damit die Position der Teilchen klar ist, falls du wieder in die Richtung des Nebels/Rauches schaust. Das ist eben die Leier mit dem umfallenden Baum im Wald.

PulsarS
2010-08-14, 22:07:31
Du raffst es anscheinend nicht.

Was er meint ist folgendes:

Nur weil du nicht hinschaust, heisst es noch lange nicht, das man mit der Berechnung aufhören kann. Würde man das trotzdem tun, hätte das SPiel keine Ahnung davon wie der "PhysX-Gegenstand" nun aussehen soll.

Praktisches Bsp: Nebel oder Rauch breitet sich aus oder verwirbelt. Du drehst dich um, aber die Bewegung des Nebels/Rauches muss eben weiter berechnet werden, damit die Position der Teilchen klar ist, falls du wieder in die Richtung des Nebels/Rauches schaust. Das ist eben die Leier mit dem umfallenden Baum im Wald.
Sorry, aber anscheinend hast du überhaupt keine Ahnung wie Rendering funktioniert. ;(
Auch verstehst du den Unterschied zwischen Optik und Gameplay nicht.

IVN
2010-08-14, 22:09:17
Sorry, aber anscheinend hast du überhaupt keine Ahnung wie Rendering funkioniert. ;(
Auch verstehst du den Unterschied zwischen Optik und Gameplay nicht.
Na so ein Glück das du es weisst. ;D

PulsarS
2010-08-14, 22:11:20
Na so ein Glück das du es weisst. ;D
Irgendjemand muss doch die Unzulänglichkeiten der Engine ansprechen :tongue:

Coda
2010-08-14, 22:25:49
Sorry, aber anscheinend hast du überhaupt keine Ahnung wie Rendering funktioniert. ;(
Was versteht er denn nicht?

Physik muss tatsächlich unabhängig vom Culling erfolgen, sonst gibt's sehr seltsame Effekte.

Eine übliche Optimierung ist allerdings, dass Objekte, die sich nicht mehr bewegen als statisch gelten bis sie wieder in Bewegung gebracht werden.

Eggcake
2010-08-14, 22:29:33
@Coda

Ich denke genau das meine ich. Dass die Objekte nicht einfach ignoriert werden können, wenn man nicht hinschaut, ist mir im Prinzip schon klar (sonst wäre ja z.B. Rauch, wenn man nach vorne schaut und 10s später wieder zurück immernoch an derselben Stelle, oder so ähnlich).

Könntest du evt. erläutern wieso in diesem Fall die Objekte offensichtlich noch weiter "dynamisch" berechnet werden? Zumindest nach meinen Beobachtungen ist das so, es sei denn selbst statische Objekte verschlingen so dermassen viel Performance (was ich nicht ganz glauben kann, da bei Bewegung das Ganze nicht noch schlechter läuft).

Oder gibt's wesentliche Nachteile, wenn sich nicht bewegende Objekte als statisch betrachtet werden? Bzw. wesentliche Vorteile wenn dies nicht geschieht?

PulsarS
2010-08-14, 22:38:12
Was versteht er denn nicht?
Vieles.

Physik muss tatsächlich unabhängig vom Culling erfolgen, sonst gibt's sehr seltsame Effekte.
Wenn man es nicht sehen kann, weil man sich umgedreht hat, dann kann man auf "Pause" schalten, mit einer minimalen Weiterentwicklung, die kaum Performance frißt, aber noch optisch ok aussieht.
Das ist aber schon anscheinend für viele nicht mehr nachvollziehbar.

Eine übliche Optimierung ist allerdings, dass Objekte, die sich nicht mehr bewegen als statisch gelten bis sie wieder in Bewegung gebracht werden.
Genau.
Und hier liegt ja der Hund begraben. ;)

IVN
2010-08-14, 22:42:02
Wenn man es nicht sehen kann, weil man sich umgedreht hat, dann kann man auf "Pause" schalten, mit einer minimalen Weiterentwicklung, die kaum Performance frißt, aber noch optisch ok aussieht.
Das ist aber schon anscheinend für viele nicht mehr nachvollziehbar.

Das kann man eben NICHT machen. Der Baum im Walde ist umgefallen unabhängig davon, ob du es gehört oder gesehen hast. Das muss irgendwie "registriert" werden, damit der Baum tatsächlich aufm Boden ist, solltest du mal im Wald spazieren gehen. Jetzt endlich verstanden?

PulsarS
2010-08-14, 22:45:45
Das kann man eben NICHT machen. Der Baum im Walde ist umgefallen unabhängig davon, ob du es gehört oder gesehen hast. Das muss irgendwie "registriert" werden, damit der Baum tatsächlich aufm Boden ist, solltest du mal im Wald spazieren gehen. Jetzt endlich verstanden?
Klar habe ich es verstanden, ist auch naheliegend.
Wenn du das aber mit der gesamten Umgebung machen willst, dann brauchst du einen Rechner, der von übermorgen kommt.
Deswegen auch die "Pause" von mir. Mit einer minimalen Weiterentwicklung natürlich, sonst würde es auf den ersten Blick inkonsistent wirken.

IVN
2010-08-14, 22:54:53
Klar habe ich es verstanden, ist auch naheliegend.
Wenn du das aber mit der gesamten Umgebung machen willst, dann brauchst du einen Rechner, der von übermorgen kommt.
Deswegen auch die "Pause" von mir. Mit einer minimalen Weiterentwicklung natürlich, sonst würde es auf den ersten Blick inkonsistent wirken.
Man könnte eben die Anzahl der Partikel reduzieren, sie dafür aber vergrößern. Man könnte auch die "Lebensspanne" der Partikel reduzieren. Und wie schon COda gesagt hat, die inaktiven Objekte eben ignorieren, bis was passiert. Womöglich muss man in der derzeitigen Implementierung für jedes Teilchen, egal ob aktiv oder nicht, trotzdem sowas wie ne "Ursache<-->Folge" Rechnung durchführen.

PulsarS
2010-08-14, 23:00:15
Man könnte eben die Anzahl der Partikel reduzieren, sie dafür aber vergrößern. Man könnte auch die "Lebensspanne" der Partikel reduzieren.
Das hört sich sehr vernünftig an.
Das mit der Lebensspanne habe ich ja auch schon kritisiert.


Und wie schon COda gesagt hat, die inaktiven Objekte eben ignorieren, bis was passiert.

Das habe ich indirekt ja auch vorgeschlagen.

Womöglich muss man in der derzeitigen Implementierung für jedes Teilchen, egal ob aktiv oder nicht, trotzdem sowas wie ne "Ursache<-->Folge" Rechnung durchführen.
Das könnte eine der Ursachen sein.
Das wäre dann aber schlecht programmiert. :wink:

Gast
2010-08-14, 23:15:39
Genau alles Müll. Womöglich noch nie eine Zeile programmiert.

PulsarS
2010-08-14, 23:23:31
Genau alles Müll. Womöglich noch nie eine Zeile programmiert.
Das könnte man glatt von den Mafia 2 Entwicklern meinen, keine Frage.
Wäre aber auch ein wenig übertrieben. :wink:

Coda
2010-08-15, 00:02:41
Wenn man es nicht sehen kann, weil man sich umgedreht hat, dann kann man auf "Pause" schalten, mit einer minimalen Weiterentwicklung, die kaum Performance frißt, aber noch optisch ok aussieht.
Das ist aber schon anscheinend für viele nicht mehr nachvollziehbar.
Wie sollte so eine "minimale Weiterentwicklung" deiner Meinung nach aussehen? Ungenaue Kollisionserkennung? Es bewegt sich nichts mehr?

Sorry, aber du redest Blödsinn was das angeht. Entweder man simuliert oder nicht, es gibt nichts dazwischen.

PulsarS
2010-08-15, 00:06:04
Wie sollte so eine "minimale Weiterentwicklung" deiner Meinung nach aussehen? Ungenaue Kollisionserkennung? Es bewegt sich nichts mehr?
Ich weiss nicht, ob du es schon mitbekommen hast, aber wir reden hier darüber, dass zwar keine PhysX-Effekte mehr dargestellt werden, die Performance aber so schlecht bleibt, als ob welche angezeigt würden.

Sorry, aber du redest Blödsinn was das angeht. Entweder man simuliert oder nicht, es gibt nichts dazwischen.
Schwachsinn.

Coda
2010-08-15, 00:08:46
Ich weiss nicht, ob du es schon mitbekommen hast, aber wir reden hier darüber, dass zwar keine PhysX-Effekte mehr dargestellt werden, die Performance aber so schlecht bleibt, als ob welche angezeigt würden.
Ja, weil eben simuliert werden muss was sich bewegt, auch wenn man nicht hinschaut. Sonst gibt's wie gesagt temporale Unstimmigkeiten.

Wenn dann muss man die Objekte gleich komplett aus der Szene entfernen wenn sie weit genug weg sind, bzw. ihre "Zeit abgelaufen" ist. Das wird auch oft so gemacht.

Schwachsinn.
Nein, kein Schwachsinn.

Übrigens hast hast du hier noch keinerlei Argumentationsgrundlage geliefert außer irgend eine obskure "minimalen Weiterentwicklung" die du nicht erklären kannst. Das würde ich gerne genauer ausgeführt haben.

So etwas macht keine Physik-Engine. Weder Bullet (kannst du in den Source-Code schauen), noch Havok, noch PhysX.

PulsarS
2010-08-15, 00:20:24
Ja, weil eben simuliert werden muss was sich bewegt, auch wenn man nicht hinschaut. Sonst gibt's wie gesagt temporale Unstimmigkeiten.
Das habe ich ja in der "Pause"-Funktion angesprochen.

Wenn dann muss man die Objekte gleich komplett aus der Szene entfernen wenn sie weit genug weg sind, bzw. ihre "Zeit abgelaufen" ist. Das wird auch oft so gemacht.
Es ist trotzdem ein Fehler in der Programmierung.

Übrigens hast hast du hier noch keinerlei Argumentationsgrundlage geliefert außer irgend eine "minimalen Weiterentwicklung" die du nicht erklären kannst. Das würde ich gerne genauer ausgeführt haben.
Ich habe den Code nicht, du etwa?
Was soll ich da genauer sagen? :confused:

So etwas macht keine Physik-Engine. Weder Bullet (kannst du in den Source-Code schauen), noch Havok, noch PhysX.
Doch.
Es ist möglich.

Coda
2010-08-15, 00:24:55
Das habe ich ja in der "Pause"-Funktion angesprochen.
Du hast überhaupt nichts angesprochen. Ich sehe nur leere Worthülsen.

Es ist trotzdem ein Fehler in der Programmierung.
Was ist ein Fehler?

Doch.
Es ist möglich.
Ja, und der Mond ist aus Käse. Kann ich auch behaupten.

Erklärungen bitte. Ansonsten wirst du hier niemanden überzeugen.

Grey
2010-08-15, 01:09:52
Entweder man simuliert oder nicht, es gibt nichts dazwischen.

Richtig. Und wenn ich mir den Eye-Catcher-Kram anschaue, simuliert man besser nicht. Cloth, Flüssigkeiten und Rauch (teilweise) sind nicht ohne Simulation authentisch zu erreichen, alles andere schon und meistens auch deutlich besser. Ginge natürlich auch mit guter Physik und schönem Ergebnis, aber das nutzt keiner im Sinne wie ich es mir vorstelle.

pest
2010-08-15, 06:33:48
das eigentlich Erschreckende ist doch, das sich mit APEX@high die einzelnen NV-Karten überhaupt nicht voneinander absetzen können.

Wenn sich eine GTX480 gerade mal so 40-50% vor eine GTX260 setzen kann, wirkt es fast so als würde für die Physik eine feste Anzahl an Einheiten reserviert.

Eine GTX480 ist damit nur 2x-schneller als eine 8800GT :biggrin:

PulsarS
2010-08-15, 08:03:58
Du hast überhaupt nichts angesprochen. Ich sehe nur leere Worthülsen.


Was ist ein Fehler?


Ja, und der Mond ist aus Käse. Kann ich auch behaupten.

Erklärungen bitte. Ansonsten wirst du hier niemanden überzeugen.
Was erwartest du Coda?
Jetzt mal ehrlich.
Soll ich bei den Proggern mal vorbeifahren und denen die perfekte Lösung bieten? In Sourcecode?
Ich habe die Schwachstellen aufgezählt.
Das sollte ja erstmal reichen.
Auch habe ich überlegt, wie man das Problem eindämmen könnte.
Nicht jeder Vorschlag ist immer gleich umsetzbar, das ist mir klar.
Nur darf man nicht gleich behaupten, das der Vorschlag Käse ist, weil man zur Zeit noch keine Idee für die technische Umsetzung hat.

Mafia 2 ist ja nur ein Spiel.
Würde man solche Fehler bei einer ernsthaften Simulation machen, dann wäre das sicherlich nicht mehr so lustig. :wink:

del_4901
2010-08-15, 09:28:55
Was erwartest du Coda?
Jetzt mal ehrlich.
Soll ich bei den Proggern mal vorbeifahren und denen die perfekte Lösung bieten? In Sourcecode?
Ich habe die Schwachstellen aufgezählt.
Das sollte ja erstmal reichen.
Auch habe ich überlegt, wie man das Problem eindämmen könnte.
Nicht jeder Vorschlag ist immer gleich umsetzbar, das ist mir klar.
Nur darf man nicht gleich behaupten, das der Vorschlag Käse ist, weil man zur Zeit noch keine Idee für die technische Umsetzung hat.

Mafia 2 ist ja nur ein Spiel.
Würde man solche Fehler bei einer ernsthaften Simulation machen, dann wäre das sicherlich nicht mehr so lustig. :wink: Deine Ambitionen in Ehren. Ich bin ja eigentlich ein Freund von neuen Koepfen und ihren Ideen, aber Physik ist alles andere als 'robust'. Wenn man da jetzt anfaengt dynamisch die vorhandenen Ressourcen umzuverteilen, dann kann das sehr haessliche Seiteneffekte zur Folge haben, welche sich zudem noch sehr schwer debuggen lassen. Selbst bei reiner Partikelphysik treten dabei schon kleine Problemchen auf. Ich erinnere mich hierbei an eine Rauchgranate die nicht mehr rauchte, wenn man nicht hingeschaut hat. Wir haben uns zwar koestlich amuesiert, aber die einzigle Loesung war es dann doch die Granaten immer komplett zu simuliern.

Dural
2010-08-15, 14:28:50
das eigentlich Erschreckende ist doch, das sich mit APEX@high die einzelnen NV-Karten überhaupt nicht voneinander absetzen können.

Wenn sich eine GTX480 gerade mal so 40-50% vor eine GTX260 setzen kann, wirkt es fast so als würde für die Physik eine feste Anzahl an Einheiten reserviert.

Eine GTX480 ist damit nur 2x-schneller als eine 8800GT :biggrin:

das war aber schon immer so, endweder gibt es ein künstliches limit oder die heutigen syteme/cpus sind zulangsam um genügend zu liefern?!

deekey777
2010-08-15, 15:07:21
das eigentlich Erschreckende ist doch, das sich mit APEX@high die einzelnen NV-Karten überhaupt nicht voneinander absetzen können.

Wenn sich eine GTX480 gerade mal so 40-50% vor eine GTX260 setzen kann, wirkt es fast so als würde für die Physik eine feste Anzahl an Einheiten reserviert.

Eine GTX480 ist damit nur 2x-schneller als eine 8800GT :biggrin:
Warum eigentlich?
Klappt da etwa die Umschaltung nicht?

Coda
2010-08-15, 15:41:46
Was erwartest du Coda?
Eine konkrete Antwort ohne Rumgelaber.

Du stellst hier Programmierer als unfähig dar ohne selber zu wissen wovon du redest. So etwas geht mir gewaltig gegen den Strich.

Gast
2010-08-15, 20:20:17
Verzeiht mir die kurze Frage, aber hab mich länger nicht informiert und es bestehen wohl große Wissenlücken was PhysX angeht bei mir.
Die PhysX-Berechnung kann bei Mafia 2 komplett von der CPU übernommen werden? War das bei allen PhysX Spielen bisher der Fall?

Iruwen
2010-08-15, 20:25:11
So etwas macht keine Physik-Engine. Weder Bullet (kannst du in den Source-Code schauen), noch Havok, noch PhysX.

Doch.

Irgendwie kann man dich so nicht ganz ernst nehmen.

dargo
2010-08-15, 20:37:34
Ich weiß nicht wo ich meine Frage zu Mafia II reinpacken soll also versuche ich es mal hier.

Afaik wird GPU-PhysX über die ALUs berechnet. Zumindest hatte ich das hier im Forum irgendwo aufgeschnappt. Was mich allerdings stark wundert ist folgendes:
Die Anfangsszene, also wo der Protagonist vor dem Telefon steht liefert bei mir mit max. Details und APEX medium in 640x480 1xAA/16xAF 38fps. Die gleiche Szene liefert in 3360x1890 1xAA/1xAF 34fps. Die 4 fps mehr in der kleinen Auflösung werden am anderen FoV liegen. Müsste die Framerate in der sehr hohen Auflösung nicht deutlich geringer sein bzw. in der kleinen deutlich höher? Ich meine die ALUs werden doch auch fürs Rendering gebraucht. Was zum Teufel limitiert mit PhysX bei 640x480 so extrem?

Gast
2010-08-15, 20:40:14
Nvidia hat sehr wahrscheinlich für jede Karte einen festen Anteil an Rechenleistung für PhysX bestimmt.

Gast
2010-08-15, 20:42:48
Ich weiß nicht wo ich meine Frage zu Mafia II reinpacken soll also versuche ich es mal hier.
Ich meine die ALUs werden doch auch fürs Rendering gebraucht. Was zum Teufel limitiert mit PhysX bei 640x480 so extrem?
Müssen die ganzen PhysX-Daten eigentlich durch den PCIe geschaufelt werden um evtl. mit der CPU bevor der Bildausgabe noch einen "Abgleich" zu machen?

Gast
2010-08-15, 20:44:34
Bis PhysX 3.0 wird immer hin und her zwischen CUDA und D3D-Berechnung geschalten, mit 3.0 soll dies dann auf 400er-Karten gleichzeitig ausgeführt werden.

dargo
2010-08-15, 20:49:52
Nvidia hat sehr wahrscheinlich für jede Karte einen festen Anteil an Rechenleistung für PhysX bestimmt.
Die Frameraten machen aber nach meiner Logik gar keinen Sinn wenn die PhysX-Berechnungen über die ALUs laufen. Oder meinst du NV reserviert einen ALU-Anteil für PhysX? Ist das technisch überhaupt möglich?

Wie ichs mir dachte, bei gleichem FoV sind die Frames exakt gleich. 640x480 liefert die gleiche Framerate wie 2520x1890. :freak:
Schalte ich APEX aus sinds in 640x480 250fps, und in 2520x1890 49fps. ;D

Gast
2010-08-15, 20:57:19
Die Frameraten machen aber nach meiner Logik gar keinen Sinn wenn die PhysX-Berechnungen über die ALUs laufen. Oder meinst du NV reserviert einen ALU-Anteil für PhysX? Ist das technisch überhaupt möglich?

Das kommt wie gesagt wohl erst mit PhysX 3.0.
Momentan ist es eben eine feste Rechenzeit in der die PhysX-Berechnung durchgeführt werden und die wird auch nicht mit einer geringeren Auflösung erhöht, sodass es eben immer auf einer GTX 470 ~38 FPS sind, solang die GPU im Render-Zeitfenster ebenso viele Bilder liefern kann.

Gast
2010-08-15, 21:01:13
Insofern wird es wohl auch so sein, dass im Fall von nur 25 FPS auf einer GTX 470, hier 13 nicht dargestellte PhysX-FPS berechnet werden.

dargo
2010-08-15, 21:01:34
Das kommt wie gesagt wohl erst mit PhysX 3.0.

Und wann soll das der Fall sein? Werden dafür auch neue Grafikkarten benötigt? Oder ist es einfach nur ein Versionssprung bei der Software? Falls Zweiteres - kann man mit PhysX 3.0 in Mafia II später rechnen?

Gast
2010-08-15, 21:04:34
Und wann soll das der Fall sein? Werden dafür auch neue Grafikkarten benötigt? Oder ist es einfach nur ein Versionssprung bei der Software? Falls Zweiteres - kann man mit PhysX 3.0 in Mafia II später rechnen?
Es soll wohl eine GeForce 400 nötig sein, da diese gleichzeitig verschiedene Kernels ausführen kann. Wann die Version kommt, ist noch nicht bekannt. Auch Mehrkern-CPUs sollen besser unterstützt werden.

deekey777
2010-08-15, 21:12:39
Nvidia hat sehr wahrscheinlich für jede Karte einen festen Anteil an Rechenleistung für PhysX bestimmt.
Wie soll das gehen?
Bis PhysX 3.0 wird immer hin und her zwischen CUDA und D3D-Berechnung geschalten, mit 3.0 soll dies dann auf 400er-Karten gleichzeitig ausgeführt werden.
Ist das nicht die Sache des Treibers? Bzw. Soll das schon mit CUDA 3.x möglich sein.
Müssen die ganzen PhysX-Daten eigentlich durch den PCIe geschaufelt werden um evtl. mit der CPU bevor der Bildausgabe noch einen "Abgleich" zu machen?
Hm, aber wozu? Die Szene an sich ist eigentlich schon fertig, wenn sie von der CPU kommt, die GPU-Effekte nehmen keinen Einfluss darauf, sondern sie brauchen die Daten, um berechnet zu werden (ja, klingt doof, aber hoffentlich verständlich).

Gast
2010-08-15, 21:21:31
Wie soll das gehen?

feste x ms für die PhysX-Berechnung je Frame

dargo
2010-08-15, 21:22:55
Ist das nicht die Sache des Treibers? Bzw. Soll das schon mit CUDA 3.x möglich sein.

Hmm... kann es dann sein, dass der momentane Treiber einfach Murks in Mafia II Demo ist?

deekey777
2010-08-15, 21:24:58
feste x ms für die PhysX-Berechnung je Frame
Ach so. Ich dachte schon, du sprichst von Einheiten. X-D

Coda
2010-08-15, 21:39:35
Wobei das auch schwer zu machen ist. Man kann ja nicht einfach Berechnungen abbrechen, wenn sie noch nicht fertig sind.

del_4901
2010-08-15, 21:43:40
Wobei das auch schwer zu machen ist. Man kann ja nicht einfach Berechnungen abbrechen, wenn sie noch nicht fertig sind.
Jap, GPUs muessen das cooperativ machen, und da man (pre GF4xx) nicht einmal mehrere Kernel laufen lassen kann, kackt das ganze auch so ab.

deekey777
2010-08-15, 22:03:47
Wobei das auch schwer zu machen ist. Man kann ja nicht einfach Berechnungen abbrechen, wenn sie noch nicht fertig sind.
Das ist schon klar, der Gedanke war auch eine Sackgasse.
Die Frage ist, ob die ganzen Physik-Effekte wirklich so rechenlastig sind, dass die Performance so stark einbricht, oder ob da nicht andere Faktoren spielen (Umschaltung).

Jap, GPUs muessen das cooperativ machen, und da man (pre GF4xx) nicht einmal mehrere Kernel laufen lassen kann, kackt das ganze auch so ab.
Wird das schon unterstützt?

Coda
2010-08-15, 22:44:11
CUDA 3.0 kann concurrent kernels (auf Fermi-Hardware). Ob das PhysX schon nutzt ist fraglich.

Allerdings schalten die Fermi-Chips viel schneller zwischen Compute und 3D um. Das hilft ohne Frage jetzt schon.

][immy
2010-08-15, 23:43:58
Das ist schon klar, der Gedanke war auch eine Sackgasse.
Die Frage ist, ob die ganzen Physik-Effekte wirklich so rechenlastig sind, dass die Performance so stark einbricht, oder ob da nicht andere Faktoren spielen (Umschaltung).


rechenlastig sind sie. die frage ist eher, wieso physik-engines in spielen dazu genutzt werden etwas realitisch aussehen zu lassen (hier könnte man meiner meinung nach einiges an rechenleistung sparen). ein spiel soll schließlich nicht realitisch sein, sonder "cool" wirken, und dafür braucht man keine realitätsnahe physik, sondern eine die einfach "cool" wirkt.

zudem krankt es bei physx einfach daran, das man keine spielerischen elemente verändern darf, sondern nur zusätzliche effekte, denn bei spielerischen elementen würde man den kundenkreis doch arg eingrenzen, wenn es plötzlich nicht mehr möglich wäre, wenn z.B. auf einer ATI karte plötzlich ein rätzel nicht gelöst werden kann.
andererseits dürften solche physik-spielchen auch relativ wenig rechenleistung erfordern, wenn man nicht gerade einen gigantischen turm mit vielen einzelnteilen auf eine bestimmte art zum einsturz bringen muss.

Ph0b0ss
2010-08-16, 13:24:59
Da die Physx-Effekte ja nur aufgesetzt sind, also nicht interagieren, frage ich mich, wieso die nicht ganz enkoppelt berechnet werden? Also das z.B. die fps vom Spiel unbeeinflusst bleiben, wenn man eine 2. GPU als Physx nehmen würde und dann nur die fps-rate der Physx-Effekte durch die Stärke der 2. GPU beeinflusst wird.