PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : [1] 2 3 4 5 6 7 8 9

Gast
2008-06-23, 20:47:19
Was sagt ihr dazu? Ist da was dran?

http://www.theinquirer.net/gb/inquirer/news/2008/06/23/nvidia-cheats-3dmark-177


Ich erlaube mir, diesen Thread um die Diskussion des doch interessanten Themas zu erweitern, indem ab sofort hier über PhysX@Nvidia-GPU diskutiert werden soll(te). Der Hilfe-Thread, in dem wohl alles Mögliche steht, ist hier zu finden:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422059
In diesem Thread geht es um die Spekulation von PhysX@Radeon: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422833


Download PhysX-Techdemos (http://www.nvidia.com/content/forcewithin/us/download.asp)

diverse PhysX- (P)Reviews:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/
http://techreport.com/articles.x/15261
http://www.pcgameshardware.de/aid,654732/Nvidia_Physx_Grafikprozessoren_uebernehmen_Physikberechnungen_in_Spielen/
http://www.tweakpc.de/hardware/infos/grafik/nvidia_geforce_physx/s01.php (Videos)

Gast
2008-06-23, 20:51:39
Ist doch schon länger klar! DX10.1 wurde nicht unterstützt, aber PhysiX was den Score hochtreibt :rolleyes:

Vantage kann man zum vergleichen vollständig knicken.:(

aths
2008-06-23, 20:52:11
TI wirft NV kein echtes Cheaten vor. Lediglich die Ausnutzung eines Vorteils den sie mit dem PhysX-optimierten Test auf der GPU haben.

Gast
2008-06-23, 20:52:48
Und schon wieder naja.

Gast
2008-06-23, 20:53:36
Und schon wieder naja.

lesen


TI wirft NV kein echtes Cheaten vor. Lediglich die Ausnutzung eines Vorteils den sie mit dem PhysX-optimierten Test auf der GPU haben.

LovesuckZ
2008-06-23, 20:53:59
Ähm, ist denn die Verwendung der PhysX-Karte auch ein Cheat?
Futuremark ist selbst schuld, wenn sie ein Featuretest mit in die Gesamtbewertung einbeziehen.

reallord
2008-06-23, 21:19:19
Ähm, ist denn die Verwendung der PhysX-Karte auch ein Cheat?
Futuremark ist selbst schuld, wenn sie ein Featuretest mit in die Gesamtbewertung einbeziehen.

Joar, dem stimm ich zu. Abgesehen davon fliesst der CPU Score im Extreme Setting iirc mit 0.05 ins Endergebnis ein. Nicht wirklich viel. Im Performance Setting macht's aber schon nen erheblichen Unterschied.

Gast
2008-06-23, 22:22:40
Ist Futuremarks Problem würde ich sagen. Wenn ein Test die CPU testen soll, dann hat da keine sonstige Hardware einzugreifen, weder eine PhysX-Karte noch eine GPU mit PhysX-Treiber. Das ist meine Meinung dazu.

Nazar
2008-06-23, 23:41:28
TI wirft NV kein echtes Cheaten vor. Lediglich die Ausnutzung eines Vorteils den sie mit dem PhysX-optimierten Test auf der GPU haben.

Wenn man den Bericht bis zum Schluß liest, heißt es im letzten normal geschriebenen Absatz: "... und das nennt man Cheaten!"

Sie werfen NV serwohl Cheating vor. NV verstößt mit dem Treiber gegen die Bestimmungen seitens Futuremark.
Der 2 CPU Test wird mit dem Treiber auf der GPU durchgeführt, was "mogeln" ist.

Gerade in einer so heißen Phase sollte so etwas nicht durchgehen, da die Käufer sich so recht schnell und leicht täuschen lassen.
Die wenigsten Käufer informieren sich, wie es zu solchen Ergebnissen kommt.

Finde solch ein Verhalten nicht gut, egal von welchem Hersteller!

deekey777
2008-06-23, 23:48:48
Der zweite Test wird auf HW ausgeführt, die wiederum PhysX-Code ausführt. Das ist kein Cheaten, zeigt aber, dass FM sehr naiv war, als die Unterstützung der PhysX-HW in einen Test aufgenommen wurde, dessen Ergebnis ins Gesamtergebnis miteinfließt. Auch ist dieser Sinn dieses Tests die Leistung einer CPU vs. CPU+Ageia PhysX zu zeigen und nicht die Leistung einer GPU als "Physikbeschleuniger", denn dafür gibt es zwei Feature-Tests (GPU-Cloth und GPU-Particles).
Natürlich ist es Mist, dass man sich damit einen nicht zu verachtenden Vorteil verschafft, aber eigentlich ist und war 3DMark nie als Grafikkarten-Benchmark vermarktet, sondern als "Gamer's Benchmark", der die Gesamtperformance eines PCs messen soll (haben wir in 3D2003 ja gesehen...).

Und man darf nicht vergessen, dass UT3+Map-Pack von diesem Treiber profitiert.

3DMark Vantage Whitpaper (http://www.futuremark.com/companyinfo/pressroom/companypdfs/3DMark_Vantage_Whitepaper_v100_Rev2.pdf?m=v):
The default settings will utilize the AGEIA PPU if available to simulate any or all parts of the physics content, as deemed necessary. The utilization of the AGEIA PPU can be switched off and the result will still be approved as a default result. GPU physics performance is not a part of this test as GPU physics capabilities are tested in GT1 and GT2.

Gast
2008-06-23, 23:49:48
Ähm, ist denn die Verwendung der PhysX-Karte auch ein Cheat?
Futuremark ist selbst schuld, wenn sie ein Featuretest mit in die Gesamtbewertung einbeziehen.


In gewisser Weise schon. Ich will nicht von "Cheat" sprechen, und die Nutzung der GPU zur Unterstützung der CPU kann sicherlich je nach Szenario auch Vorteile bringen.

ABER: Im Gegensatz zu einer dedizierten PhysX-Karte wird die Rechenkapazität der GPU in Spielen gemeinhin für die Grafikdarstellung benötigt.
Diese fließt aufgrund der Konzeoption diese Benchmarks allerdings mehrfach in die Berechnung des Ergebnisses ein, obwohl dies in Spielen nicht so wäre. Daher die teils berechtigten Vorwürfe.

Im Endeffekt ist das aber ein Problem von Futuremark. Wer nicht weit genug denkt und ein System mit Lücken schafft wird früher oder später damit konfrontiert, dass diese ausgenutzt werden.

Gast
2008-06-23, 23:54:04
...
Natürlich ist es Mist, dass man sich damit einen nicht zu verachtenden Vorteil verschafft, aber eigentlich ist und war 3DMark nie als Grafikkarten-Benchmark vermarktet, sondern als "Gamer's Benchmark", der die Gesamtperformance eines PCs messen soll (haben wir in 3D2003 ja gesehen...).


Stimmt so nicht, Erklärung ist in meinem vorherigen Posting zu finden. :)

Anders wäre es wenn die Game-Tests im Benchmark durch die Nutzung von PhysX on GPU zulegen würden. Dann wäre es am Treiber, die zur Verfügung stehende Rechenkapazität sinnvoll einzusetzen.

Spasstiger
2008-06-24, 00:04:23
Nvidia cheatet nicht wirklich, aber Futuremark sollte reagieren.
Z.B. löscht Futuremark auch Ergebnisse von PCMark aus der Datenbank, die mit einer Software-Ramdisk entstanden sind. Denn damit hat man direkt mal die doppelte Gesamtpunktzahl.

Gast
2008-06-24, 07:20:52
Futurmark bringt bal ein Patch so das die Physik Punkt nichtmehr mit ins Ergbenis rein gerechnet werden.

Mr.Magic
2008-06-24, 08:06:34
Im Gegensatz zu einer dedizierten PhysX-Karte wird die Rechenkapazität der GPU in Spielen gemeinhin für die Grafikdarstellung benötigt.

Die UT3 PhysX-Maps laufen mit GeForce PhysX durchaus schneller, daher kann man nicht von einem Cheat reden.

177.39 inkl. PhysX-Support OUT NOW! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422059&page=18)

Gast
2008-06-24, 08:51:31
Die UT3 PhysX-Maps laufen mit GeForce PhysX durchaus schneller, daher kann man nicht von einem Cheat reden.

177.39 inkl. PhysX-Support OUT NOW! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422059&page=18)

Lesen und verstehen.

ShadowXX
2008-06-24, 09:10:22
Wenn man den Bericht bis zum Schluß liest, heißt es im letzten normal geschriebenen Absatz: "... und das nennt man Cheaten!"

Sie werfen NV serwohl Cheating vor. NV verstößt mit dem Treiber gegen die Bestimmungen seitens Futuremark.
Der 2 CPU Test wird mit dem Treiber auf der GPU durchgeführt, was "mogeln" ist.

Gerade in einer so heißen Phase sollte so etwas nicht durchgehen, da die Käufer sich so recht schnell und leicht täuschen lassen.
Die wenigsten Käufer informieren sich, wie es zu solchen Ergebnissen kommt.

Finde solch ein Verhalten nicht gut, egal von welchem Hersteller!
Ich würde aussagen des INQ gegenüber nV nicht auf eine zu hohe Waagschale legen, da Sie ein (um es mal freundlich zu sagen) etwas "gespanntes" Verhältnis zu nV haben.

Wenn ATI sowas gemacht hätte, hätte INQ Beifall geklatscht und Ihnen für Ihre Cleverness und Weitsicht gratuliert.

Lesen und verstehen.
Und ab und zumal weiterdenken...ja im Vantage wird an der Stelle wo nV jetzt PhysX einsetzt hauptsächlich die Rechenleistung gemessen, aber der andere Link zeigt das diese Rechenleistung auch tatsächlich in Games eingesetzt werden kann und um das geht es im Endeffekt ja dann wieder bei der Benchmarkmessung.

Ich gebe zu das das ganze ein bisserl "walking on the edge" ist, aber als Cheat würde ich es nicht bezeichnen (überigens würde ich das auch nicht tun wen ATI das gemacht hätte), sondern als Clever.

Mr.Magic
2008-06-24, 09:13:55
Lesen und verstehen.

Was habe ich denn nicht verstanden?

Oben wird gejammert, weil die Werte mit GPU-Hardwarebeschleunigung in den Benchmark einfliesen (obwohl das bei einer PhysX-Karte nicht anders ist).
Deshalb wies ich darauf hin, dass GeForce PhysX auch echte Spiele beschleunigt, weshalb das absolut gerechtfertigt ist.

Die Rechenleistung einer PhysX-Karte hat selbst eine popelige GeForce 8800 praktisch immer übrig.

Taigatrommel
2008-06-24, 09:57:30
Wie sieht es denn aus wenn man eine der komischen Phys-X Karten hat? Haben die den Wert schon beeinflusst oder nicht? Sollte dies der Fall sein, dann hätten ja bereits andere Leute "gecheatet", indem sie Werte mit einer solchen Karte im Rechner veröffentlichen.

Abgesehen davon bin ich nicht überzeugt davon, dass es nvidias Schuld ist. Den ersten Berichten zufolge laufen entsprechende Phys-X Anwendung wirklich schneller, wieso sollte man die GPU also nicht dafür nutzen? Wenn Futuremark also einen CPU Test integriert, ist es im Nachhinein Futuremarks Sache dafür zu Sorgen, das wirklich nur die CPU und nichts anderes getestet wird.

Hier wird ja nicht an der Bildqualität getrickst, um höhere Werte zu bekommen. 3dMark misst ja wohl die gesamte Leistung des Systems, diese spiegelt sich um Punktewert am Ende wieder. Wenn sich die gesamte Leistung in diversen Phys-X Spielen und Anwendungen erhöht, wozu ja auch Vantage zählt, dann sehe ich dies jetzt nicht zwingend als cheaten an.

Neocroth
2008-06-24, 11:38:21
naja, wenn das stimmt, was Futuremark laut dem Inquirer in der Driver Approval Policy stehen hat, dann verstößt man nun mal gegen die Regeln.
An und für sich würde ich sagen, es ginge in Ordnung, wenn man das Ergebnis dann nicht künstlich als "höchsten 3DMark" nur zu Marketingzwecken brauchen würde. So hat das ganze einen seltsamen Beigeschmack. Es wäre klüger, einen extra Score dafür zu haben, welcher nicht in die Gesamtbewertung einfließt.
Der Fehler liegt bei Futuremark - mal sehen, wie sie darauf reagieren werden.

Gast
2008-06-24, 12:27:11
naja, wenn das stimmt, was Futuremark laut dem Inquirer in der Driver Approval Policy stehen hat, dann verstößt man nun mal gegen die Regeln.


Das wäre nur dann der Fall, wenn FM in dem entsprechenden Abschnitt statt "may not" das restriktivere "must not" verwendet hätte.

"may not" = sollte nicht
"must not" = darf nicht

FM soll einfach die Defaults auf "keine PPU" setzen und fertig.

Gast
2008-06-24, 19:21:50
naja, wenn das stimmt, was Futuremark laut dem Inquirer in der Driver Approval Policy stehen hat, dann verstößt man nun mal gegen die Regeln.
An und für sich würde ich sagen, es ginge in Ordnung, wenn man das Ergebnis dann nicht künstlich als "höchsten 3DMark" nur zu Marketingzwecken brauchen würde. So hat das ganze einen seltsamen Beigeschmack. Es wäre klüger, einen extra Score dafür zu haben, welcher nicht in die Gesamtbewertung einfließt.
Der Fehler liegt bei Futuremark - mal sehen, wie sie darauf reagieren werden.

Garnet, hauptsache der Vantage verkauft sich dadurch besser, nun kann man nicht nur die Grafische GPU Leistung messen, sondern auch noch die Physik GPU Leistung. Gut, ist nur ein IHV, aber da is mal wieder der Markt selbst schuld, einfach.
Es ist schließlich ein dedizierter Test, in dem Physikberechnungen gebencht werden, und keine Grafik, also schon legitim.
Können ja auch in den 1. Grafischen Benchmark Physikberechnungen einbauen, solange die Grafik und Physik Berechnungen gleich bleiben, können die IHVs machen was sie wollen, Hauptsache das Endergebniss rennt schnell genug.

Wenn ein Test extrem an der Texelfüllrate hängen würde, würde sich ja auch niemand beschweren, und bei extrem Shaderlastigen Szenarien genauso.

Gast
2008-06-24, 22:50:20
Man kann eben NICHT die "Physik GPU Leistung" messen!

Man hat zugelassen, dass die PhysX Hardware-Beschleunigung, die explizit implementiert werden muss, in das Gesamt-Ergebnis mit einfließt. Man hat EINEM (Hardware-)Hersteller EINER Technologie, die ausschließlich von diesem entwickelt und vertrieben wird, einen Vorteil gegeben und dessen Einfluss in den Gesamt-Score einfließen lassen. Schade nur, dass nVidia diesen Hersteller nun gekauft und damit auch sämtliche Rechte an dieser Technologie erworben hat.

Selbstverständlich ist es legitim, diesen Vorteil zu nutzen, um damit einen Vorteil gegenüber der Konkurrenz zu erhalten.
Schließlich sind wir hier ja nicht im Wunderland, sondern in einem hart umkämpften Markt...

Rechtlich hat sich nVidia absolut sauber verhalten und das gemacht, was jedes Unternehmen machen würde, wenn es die Gelegenheit dazu hätte. Sie haben gegen keinerlei Regeln verstoßen...

...die Markmacher sollten aus ihren Fehlern lernen und dieses bei dem nächsten 'Mark' mit einfließen lassen, denn sie würden sich absolut unglaubwürdig machen, wenn sie jetzt die Berechnungsgrundlage vielfach zitierter Benchmarks verändern würden. Was wenn sich AMD nun etwas ausdenkt, um die von den Markmachern erdachten Physik-Berechnungen mit dem nächsten CPU-Treiber (meinetwegen auch der nächsten CPU-Gerneration) wesentlich zu beschleunigen... was, wenn Intel das tun würde?

Sorry, aber die PhysX-Technologie wurde als Basis für die "Performance-Bewertung" eines Systems nicht nur zugelassen, sondern man hat Aufwand betrieben, diese mit direktem Hardware-Zugriff zu implementieren. Dass diese Berechnungen nun nicht nur auf der (IMO) vollkommen überflüssigen Zusatz-Hardware ausgeführt werden können, sondern auf JEDER geeigneten Technologie (gültige Liznez voraus gesetzt) liegt in der Natur der Dinge.

Um diesen Fall auszuschließen, hätten die Leutz da einfach nur einen Test entwickeln müssen, der von der GPU schlicht ALLES abverlangt (das geht auch mit einem schwarzen Bildschirm) und eben ZUSÄTZLICH ein paar Physik-Berechnungen durchführen lassen. Steht für beides die gleiche Einheit, dann gibt es Leistung auf der einen Seite zu Lasten der anderen.

Das haben sie nicht getan und nun haben sie den Salat.
Zeigt nur einmal mehr, dass es Unsinn - ja regelrecht infam - ist, mit einem Stück Software die ("Gamer"-)Leistung JEDWEDEN Systems messen zu wollen.

Spasstiger
2008-06-24, 22:57:01
Wenn Futuremark nicht reagiert, wird sich AMD vielleicht doch gezwungen sehen, eine PhysX-Lizenz von Nvidia zu kaufen. Mit der brachialen, theoretischen Rechenleistung des RV770 sollte ATI bei Hardware-PhysX jedenfalls nicht schlecht dastehen.

Gast
2008-06-24, 22:59:48
Das haben sie nicht getan und nun haben sie den Salat.
Zeigt nur einmal mehr, dass es Unsinn - ja regelrecht infam - ist, mit einem Stück Software die ("Gamer"-)Leistung JEDWEDEN Systems messen zu wollen.

Selbst schuld kann man da nur sagen, Havoc is doch ebenfalls verbreitet, hätte man Physik Support für beide "Software Engines" einbauen müssen. Was dann die Hardwarehersteller treiben is denen ihr Bier.

pXe
2008-06-24, 23:01:31
Wenn Futuremark nicht reagiert, wird sich AMD vielleicht doch gezwungen sehen, eine PhysX-Lizenz von Nvidia zu kaufen. Mit der brachialen, theoretischen Rechenleistung des RV770 sollte ATI bei Hardware-PhysX jedenfalls nicht schlecht dastehen.

Na ja, für den Kunden kanns eigentlich nicht schlecht sein, wenn Spielehersteller dann auf einmal davon ausgehen können, dass PhysX auf (fast) jeder Grakka läuft.

pXe

Spasstiger
2008-06-24, 23:06:27
Na ja, für den Kunden kanns eigentlich nicht schlecht sein, wenn Spielehersteller dann auf einmal davon ausgehen können, dass PhysX auf (fast) jeder Grakka läuft.

pXe
Es wäre halt nur eine kurze Episode, weil Physikberechnungen auf der GPU ohnehin schon bei Direct3D 11 eingeplant sind.

Gast
2008-06-25, 00:01:12
In gewisser Weise schon. Ich will nicht von "Cheat" sprechen, und die Nutzung der GPU zur Unterstützung der CPU kann sicherlich je nach Szenario auch Vorteile bringen.

ABER: Im Gegensatz zu einer dedizierten PhysX-Karte wird die Rechenkapazität der GPU in Spielen gemeinhin für die Grafikdarstellung benötigt.
Diese fließt aufgrund der Konzeoption diese Benchmarks allerdings mehrfach in die Berechnung des Ergebnisses ein, obwohl dies in Spielen nicht so wäre.Daher die teils berechtigten Vorwürfe.

Im Endeffekt ist das aber ein Problem von Futuremark. Wer nicht weit genug denkt und ein System mit Lücken schafft wird früher oder später damit konfrontiert, dass diese ausgenutzt werden.


Warum versteht mich den hier keiner :(

Neocroth
2008-06-25, 14:15:33
Das wäre nur dann der Fall, wenn FM in dem entsprechenden Abschnitt statt "may not" das restriktivere "must not" verwendet hätte.

"may not" = sollte nicht
"must not" = darf nicht




Das ist Blödsinn. Überspitzt gesagt: Siehst du darin einen Freibrief fürs Raubkopieren von Filmen, weil es ja nicht explizit verboten ist und du sie nur nicht kopieren "solltest"?

"This work may not be reproduced, copied, stored or manipulated in any form without the written permission of the author."

Nur so als Beispiel. Kannst ja gerne bei einem Film deiner Wahl am Anfang nachlesen.

Garnet, hauptsache der Vantage verkauft sich dadurch besser, nun kann man nicht nur die Grafische GPU Leistung messen, sondern auch noch die Physik GPU Leistung. Gut, ist nur ein IHV, aber da is mal wieder der Markt selbst schuld, einfach.
Es ist schließlich ein dedizierter Test, in dem Physikberechnungen gebencht werden, und keine Grafik, also schon legitim.
Können ja auch in den 1. Grafischen Benchmark Physikberechnungen einbauen, solange die Grafik und Physik Berechnungen gleich bleiben, können die IHVs machen was sie wollen, Hauptsache das Endergebniss rennt schnell genug.

Wenn ein Test extrem an der Texelfüllrate hängen würde, würde sich ja auch niemand beschweren, und bei extrem Shaderlastigen Szenarien genauso.

Naja, aber der Bench wird so nicht repräsentativer, als er ohnehin nicht ist. Ich finde, dass es in der News zum 24. Juni (http://www.3dcenter.org/news/2008-06-24) ziemlich gut getroffen wurde.

Gast
2008-06-25, 14:28:03
Na ja, für den Kunden kanns eigentlich nicht schlecht sein, wenn Spielehersteller dann auf einmal davon ausgehen können, dass PhysX auf (fast) jeder Grakka läuft.

physikbeschleunigung läuft nur auf DX10-karten. dort hat NV einen marktanteil von 75%, also kann man mit und ohne ATI davon ausgehen, dass PhysX auf fast jeder karte läuft.

deekey777
2008-06-25, 22:50:27
Wie wurde eigentlich das Ganze gelöst, dass anstelle von einer PhysX-Karte eine Grafikkarte die Physikberechnung übernimmt?

Coda
2008-06-25, 22:54:44
Über CUDA halt. Rechenleistung hat eine GPU genug um das noch mitzumachen.

Demirug
2008-06-25, 23:10:29
Soll nvidia jetzt in ihren PhysX Runtime eine Funktion einbauen die den 3DMark erkennt und dann keine Hardwarebeschleunigung anbietet?

Das Problem liegt hier eindeutig bei Futuremark. Vor allem da nvidia den PhysX Support ja nicht überraschend eingebaut hat. Futuremark hätte also genügend Zeit gehappt im Vorfeld zu reagieren. Mal davon abgesehen dass man in einem CPU Test eine PPU benutzt.

30hours2late
2008-06-25, 23:20:03
Das wäre nur dann der Fall, wenn FM in dem entsprechenden Abschnitt statt "may not" das restriktivere "must not" verwendet hätte.

"may not" = sollte nicht
"must not" = darf nicht

Höflichkeitsformen lassen sich nicht so einfach in eine andere Sprache "pressen".
BTW sogar google übersetzt "you may not" mit "Sie dürfen nicht", ist halt die höflichere Variante jemandem etwas zu verbieten.

Gast
2008-06-26, 08:52:56
BTW sogar google übersetzt "you may not" mit "Sie dürfen nicht",


Diese Aussage ist nicht zu halten, weil verschiedene Treiber unterschiedliche CPU-Lasten erzeugen können und diese das CPU-Test Ergebnis beeinflussen wird. Also wäre die Bedingung von keinem Hersteller einzuhalten. Deshalb steht da "may not" und nicht "must not".

30hours2late
2008-06-26, 08:57:22
Diese Aussage ist nicht zu halten, weil verschiedene Treiber unterschiedliche CPU-Lasten erzeugen können und diese das CPU-Test Ergebnis beeinflussen wird. Also wäre die Bedingung von keinem Hersteller einzuhalten. Deshalb steht da "may not" und nicht "must not".

das mag zwar alles stimmen, änder aber nichts daran, dass "may not" definitiv nicht "sollte nicht" heißt. :)

Gast
2008-06-26, 09:44:36
Ja, es ist eben ein schwaches "darf nicht", im Deutschen gibt es so etwas aber nicht, und deshalb passt da am besten "sollte nicht".

Kriton
2008-06-26, 14:24:05
Interview mit Nvidia zu dem Thema:

http://www.hothardware.com/News/NVIDIA_Responds_To_GPU_PhysX_Cheating_Allegation/

Coda
2008-06-26, 14:26:56
Es wäre halt nur eine kurze Episode, weil Physikberechnungen auf der GPU ohnehin schon bei Direct3D 11 eingeplant sind.
Das wäre mir übrigens neu.

SentinelBorg
2008-06-26, 17:30:43
It should also be noted, that even with the GPU PhysX drivers installed, there is an option in the 3DMark Vantage menu to disable the PPU, and this option works with both AGEIA's dedicated PhysX card or NVIDIA GPU PhysX.
Damit sind die ganzen Anschuldigungen doch vollkommener Mumpitz.

ShadowXX
2008-06-26, 17:43:55
Wie wurde eigentlich das Ganze gelöst, dass anstelle von einer PhysX-Karte eine Grafikkarte die Physikberechnung übernimmt?
nV tauscht die "alte" PhysX DLL gegen Ihre neue aus....darauf absiert ja das PhysX Konzept, das es alles über eine extrene DLL (quasi Treiber) läuft.

Gast
2008-06-26, 17:54:09
Soll nvidia jetzt in ihren PhysX Runtime eine Funktion einbauen die den 3DMark erkennt und dann keine Hardwarebeschleunigung anbietet?


Sollen Sie nicht, sollte aber kein großer Aufwand sein denn den Vantage erkennen sie ja auch jetzt schon, um hier die gesamt Prozessorzeit einzusetzen (ganz im Gegenteil zu UT3)

AnarchX
2008-06-26, 17:59:51
Sollen Sie nicht, sollte aber kein großer Aufwand sein denn den Vantage erkennen sie ja auch jetzt schon, um hier die gesamt Prozessorzeit einzusetzen (ganz im Gegenteil zu UT3)
Das ist nicht korrekt, was man auch nach dem kurzen Studium einiger Ergebnisse im NV-Unterforum erkennt.

Gast
2008-06-26, 18:44:25
Sollen Sie nicht, sollte aber kein großer Aufwand sein denn den Vantage erkennen sie ja auch jetzt schon, um hier die gesamt Prozessorzeit einzusetzen (ganz im Gegenteil zu UT3)


es wird immer die gesamte verfügbare leistung für die physikberechnung verwendet, alles andere wäre sinnfrei und würde nur das rendering verzögern.

Gast
2008-06-26, 19:04:11
es wird immer die gesamte verfügbare leistung für die physikberechnung verwendet, alles andere wäre sinnfrei und würde nur das rendering verzögern.


Stimmt, war Quark.

deekey777
2008-06-29, 15:18:09
NVIDIA's PhysX: Performance and Status Report (http://techgage.com/article/nvidias_physx_performance_and_status_report/)

Ich glaube, das ist der erste Artikel, in dem die PhysX-Karte mit der GPU verglichen wird. Interessant finde ich die Ergebnisse in UT3: http://techgage.com/article/nvidias_physx_performance_and_status_report/3

Wenn jemand weitere Artikel findet, wo nicht bloß Vanatage und UT3 mit einer Geforce getestet wurde, sondern auch gegen eine PPU und auch Erfahrung mit anderen Spielen: Her damit! :D

nV tauscht die "alte" PhysX DLL gegen Ihre neue aus....darauf absiert ja das PhysX Konzept, das es alles über eine extrene DLL (quasi Treiber) läuft.

Läuft PhysX@GPU auch in anderen Spielen? An sich müsste dies der Fall sein.

Coda
2008-06-29, 15:35:58
GPU-PhysX läuft in jedem Spiel das PhysX-Hardware unterstützt.

Birdman
2008-06-29, 17:02:34
Ich glaube, das ist der erste Artikel, in dem die PhysX-Karte mit der GPU verglichen wird. Interessant finde ich die Ergebnisse in UT3: http://techgage.com/article/nvidias_physx_performance_and_status_report/3

Dies zeigt wunderbar was an sich zu erwarten war (aber bei GPUs ja nicht immer wirklich der Fall sein muss) und zwar dass die Physik Calculations linear vom normalen Workload der Grafikkarte abhängen.
Limitiert die CPU und die Graka hat Resourcen übrig, so stellt sich eine sehr gute Beschleunigung ein. Limitiert die Graka dank HiRes Darstellung, bringt die Physik Berechnung auf der GPU gar nix mehr und man würde das besser wieder auf die CPU machen die in solchen Fällen dann oft wieder Däumchen dreht.

Coda
2008-06-29, 17:04:40
Wobei es bei UT3 im Lighthouse-Level immer sinnvoller ist das ganze auf die GPU zu machen weil es einfach zu lange braucht auf der CPU.

Tytator
2008-06-29, 17:37:03
Ja, es ist eben ein schwaches "darf nicht", im Deutschen gibt es so etwas aber nicht, und deshalb passt da am besten "sollte nicht".

theinquirer ist eine britische Seite und im britischen ist das nicht schwach.
Ihr orientiert euch alle zu sehr an Schulenglisch oder ammi-Englisch, in der Originalsprache ist das anders.

Gast
2008-06-29, 18:27:46
1. Der Inquirer hat sehr viele nicht-Muttersprachler, die schreiben
2. Schulenglisch ist (war bei uns zumindest) British English (Oxford)
3. "Originalsprache" = ? Altenglisch? Indoeuropäisch? ;)

Tytator
2008-06-29, 18:45:23
Ich bin im Englisch-Leistungskurs, da behaupte ich einfach mal, dass ich weiß, wovon ich spreche.
Aber das Brandenburger Schulsystem vermittelt nicht viel Wissen, da steh ich zu.;)
Ist aber im Grunde genommen auch egal.

cl55amg
2008-07-01, 03:17:52
Zum Glück darf man in der Oberstufe wählen ob man british oder american englisch verwendet.

Beim INQ schreiben auch nichtmuttersprachler, da wäre ich vorsichtig bei der Interpretation.

Benedikt
2008-07-01, 10:23:42
Vielleicht kann mir jemand von den Insidern hier mal eine prizipielle Frage zu GPU-Physik beantworten, die mir im Kopf rumgeistert:

Mal in ner ruhigen Minute durchdacht ist das ganze doch eigentlich kontraproduktiv: Durch die Physikberechnungen auf der GPU verliere ich doch massiv an freien Kapazitäten für die ohnehin meist fordernden Grafikberechnungen. Die GPU-Physik kostet doch einen guten Teil der Kapazität, die doch ohnehin bei Spielen meist in Richtung 100% GPU-Auslastung - verursacht durch die Grafikberechnungen - geht. Ich ging bisher immer davon aus, dass Grafikberechnungen die GPU meist zu 100% auslasten, da es keinen Framelimiter gibt und die Framerate bis zu dem Punkt steigt, bis die GPU annähernd ausgelastet ist. Außerdem bin ich ehrlich gesagt skeptisch, ob die Effizienz einer GPU noch so gut ist, wenn zwei ziemlich unabhängige Subsysteme (Physik und Grafik) auf einem Grafikprozessor simultan ablaufen!?

Wenn dazu noch Physikberechnungen von der CPU (die ja wohl gerade bei Multicore-CPUs, die in modernen Games eh nicht die Welt zu tun haben) auf die GPU verlagert werden, macht das Sinn?

Canuba
2008-07-01, 10:51:40
Sinn macht das wahrscheinlich nicht gerade, aber man(n) hat was zum rumspielen.

Gast
2008-07-01, 11:50:39
Wenn dazu noch Physikberechnungen von der CPU (die ja wohl gerade bei Multicore-CPUs, die in modernen Games eh nicht die Welt zu tun haben) auf die GPU verlagert werden, macht das Sinn?


ja, bei massivem physikeinsatz ist man praktisch immer cpu-limitiert aufgrund der vielen objekte (auch mit hardwarebeschleunigung), deshalb bringt die beschleunigung auch auf einer GPU was.

wenn der physX-aufwand für eine PhxsX-karte dimensioniert ist, dann ist das ganze für eine GPU kaum ein aufwand, die GPU ist dermaßen massiv leistungsfähiger.

zusätzlich kann man das ganze ja noch mit 2 karten machen oder beispielsweise beim aufrüsten die alte karte für physikberechnungen drinnen lassen anstatt zu entsorgen.

Gast
2008-07-02, 21:17:02
Frage steht ja oben, was ist schneller Agaia PhysX oder Nvida Phys X ?

Müsste doch das selbe sein oder nicht (von der Leistung her im Vantage)?

Gast
2008-07-02, 21:22:36
Kommt auf die Auflösung an. in hohen Auflösungen klaut GPU Physik zuviel Leistung fürs rendern. Da ist dann die orginal Physx-HW schneller.

Gast
2008-07-02, 21:29:56
wie sieht es aus in Vantage ?

Gast
2008-07-02, 21:38:16
Da ist Nvidia PhysX schneller.

Gast
2008-07-02, 21:41:08
bei vantage ist nvidia physx deutlich schneller, bei UT3 hängt es von der auflösung ab, in der regel ist aber physx schneller.

Gast
2008-07-02, 21:44:30
Da ist Nvidia PhysX schneller.


Der Grund ist ja bekannt. Beim Vantage hat die Geforce auch nix anderes zu tun als Physik.

Gast
2008-07-02, 23:01:42
bei vantage ist nvidia physx deutlich schneller, bei UT3 hängt es von der auflösung ab, in der regel ist aber physx schneller.

? Tests zeigten aber, wo die GPU das PhysX übernimmt, rennt es spürbar schneller, egal was eingestellt ist. Zumal die Auflösung garnix damit zu tun hat, die Shaderlast is ja die selbe, und die Shadereinheiten machen auch die PhysX Berechnungen, sicherlich nicht die ROPs und TMUs...

Gast
2008-07-02, 23:47:40
? Tests zeigten aber, wo die GPU das PhysX übernimmt, rennt es spürbar schneller, egal was eingestellt ist. Zumal die Auflösung garnix damit zu tun hat, die Shaderlast is ja die selbe, und die Shadereinheiten machen auch die PhysX Berechnungen, sicherlich nicht die ROPs und TMUs...


1. Wirds mit zunehmender Auflösung in UT und je nach Map teilweise so langsam wie nur auf der CPU berechnet.

2. Natürlich steigt die Anforderung an die Arithmetik mit der Auflösung.

3. Das eigentliche Rendern muss trotz dessen warten bis die Physik Berechnung für den Frame durch ist, egal ob die nur auf den Shadern, den Rops der TMU und was weiss ich läuft.

Coda
2008-07-02, 23:50:49
3. Das eigentliche Rendern muss trotz dessen warten bis die Physik Berechnung für den Frame durch ist, egal ob die nur auf den Shadern, den Rops der TMU und was weiss ich läuft.
Nein. Das wird um ein Frame verzögert. Auch bei Software-PhysX.

Gast
2008-07-02, 23:54:17
Nein. Das wird um ein Frame verzögert. Auch bei Software-PhysX.

Ok, danke für die Info. Ändert aber nix an der Problematik.

nagus
2008-07-08, 07:49:33
Nvidia verändert 3DMark Datein (http://forums.vr-zone.com/showthread.php?t=298553).... das ist wirklich das letzte :|

seahawk
2008-07-08, 07:53:43
Wundert Dich das bei NV ??

Grestorn
2008-07-08, 08:28:14
Wie wär's wenn erst mal einer diese unbestätigte "News" mit Fragezeichen im Titel durch eigenen Test bestätigt bevor hier losgebrüllt wird?

Denn ich hab ein echtes Problem zu glauben, dass ein Treiber einfach DLLs in einer fremden Applikation überschreibt. Und wann genau macht er denn das? Bei der Installation? Was ist wenn Vantage erst nach dem Treiber installiert würde?

deekey777
2008-07-08, 10:42:38
Nvidia verändert 3DMark Datein (http://forums.vr-zone.com/showthread.php?t=298553).... das ist wirklich das letzte :|
Irgendwie beißt sich die Aussage damit (ist von vorletzter Woche):
NVIDIA's PhysX: Performance and Status Report (http://techgage.com/article/nvidias_physx_performance_and_status_report/)

Ich glaube, das ist der erste Artikel, in dem die PhysX-Karte mit der GPU verglichen wird. Interessant finde ich die Ergebnisse in UT3: http://techgage.com/article/nvidias_physx_performance_and_status_report/3

Wenn jemand weitere Artikel findet, wo nicht bloß Vanatage und UT3 mit einer Geforce getestet wurde, sondern auch gegen eine PPU und auch Erfahrung mit anderen Spielen: Her damit! :D



Läuft PhysX@GPU auch in anderen Spielen? An sich müsste dies der Fall sein.

The initial group of tests here were completed on non-overclocked parts. The first test was performed without PhysX-acceleration, while the second relied on the PPU, and finally, the third utilized the GPU. The PhysX driver used is 8.06.12, which was just released this past Wednesday.
Auch der Thread bei VR-Zone wurde um einige Antworten reicher, was die Aussage von CJ (teilweise) entkräftigt, denn mit aktuellen Treibern kann man zwischen der PPU und der GPU "switchen".

Gast
2008-07-08, 12:53:53
Nvidia verändert 3DMark Datein (http://forums.vr-zone.com/showthread.php?t=298553).... das ist wirklich das letzte :|


so ein blödsinn, nvidia verändert lediglich PhysX-dateien die ihnen selbst gehören und von vantage nur unter lizenz verwendet werden.

das gleiche passiert übrigens wenn du den treiber für die PhysX-karte updatest.

James Ryan
2008-07-13, 12:21:23
Hallo Forum!
Derzeit ärgert mich die Tatsache, dass NVIDIA offensichtlich nicht willens ist, den PhysX Support für Grafikkarten >G9x Karten freizuschalten.
Offiziell heißt es, dass es für G8x Karten "bald" Treiber gibt, wo PhysX auch funktionieren wird.
Nach einigen Wochen des Wartens schwindet diese Hoffnung bei mir jedoch.

Nur warum macht NVIDIA dies?
Meine Vermutung ist, dass damit die Verkäufe der Gf 9800 GTX/GTX+ Karten angekurbelt werden soll.
Jedoch ist eine Gf 8800 GT/Ultra meist schneller als die 9800er Karten.
Würde NVIDIA den G8x Karten keinen PhysX Support geben, hätte man ein weiteres "Verkaufsargument" für die G92 Karten.

Wie seht ihr die Sache (speziell die Leute mit Gf 8800 GTX/Ultra Karten)?

MfG :cool:

Gast
2008-07-13, 12:23:33
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6654629#post6654629

Mit modifizierter .inf geht es doch anscheinend.

James Ryan
2008-07-13, 12:24:46
Nicht für G8x Karten!

MfG :cool:

Gast
2008-07-13, 12:27:59
Jedoch ist eine Gf 8800 GT/Ultra meist schneller als die 9800er Karten.
Würde NVIDIA den G8x Karten keinen PhysX Support geben, hätte man ein weiteres "Verkaufsargument" für die G92 Karten.

Wie seht ihr die Sache (speziell die Leute mit Gf 8800 GTX/Ultra Karten)?


Hm ok ned so gründlich gelesen.
Mit Geforce 8800 GT funktioniert es ja scheinbar, aber hab ned nachgeguckt das die auf dem G92 basiert.
Hab leider versehentlich ned an den Anfang vom Thread verlinkt aber ist ja egal.

Coda
2008-07-13, 14:28:03
Ok, danke für die Info. Ändert aber nix an der Problematik.
Zumindest gibt es so keine Pipeline-Stalls deswegen.

Schrotti
2008-07-13, 16:51:27
Hm ok ned so gründlich gelesen.
Mit Geforce 8800 GT funktioniert es ja scheinbar, aber hab ned nachgeguckt das die auf dem G92 basiert.
Hab leider versehentlich ned an den Anfang vom Thread verlinkt aber ist ja egal.

Ja die 8800GT basiert auf dem G92 (hatte selbst PhysX aktiv bei meiner alten 8800GT).

deekey777
2008-08-01, 14:53:56
Nvidia PhysX auf der GeForce 9500 GT in Aktion (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_physx_geforce_9500_gt_aktion/)

Wie versprochen, hat uns Nvidia mittlerweile eine neue Version der PhysX-Software bereitgestellt, mit der wir die beiden PhysX-Tests nachholen.
Alles eine Frage der PhysX-Software?

Coda
2008-08-01, 15:01:42
Inwiefern eine Frage?

deekey777
2008-08-05, 11:44:36
NVIDIA PhysX 8.07.18 Driver

http://en.expreview.com/2008/08/05/driver-updatenvidia-physx-80718-driver/
http://img123.imageshack.us/img123/4104/s040521705907176no1.jpg

Ich Dieb. :biggrin:
Gehört aber auch hierrein.

Inwiefern eine Frage?
Bei vielen (auch bei mir) entstand der Eindruck, dass der Forceware-Treiber darüber entscheidet, ob Physx auf der Grafikkarte läuft oder nicht.

AnarchX
2008-08-06, 16:05:12
Offenbar ein NDA gefallen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/
http://techreport.com/articles.x/15261

Spasstiger
2008-08-06, 16:58:44
Hier noch ein Test:
http://www.pcgameshardware.de/aid,654732/Nvidia_Physx_Grafikprozessoren_uebernehmen_Physikberechnungen_in_Spielen/

Diese neuen Techdemos Nurien und The Great Kulu scheinen recht schick zu sein. Gibts Nurien schon irgendwo zum Download? :naughty:

AnarchX
2008-08-06, 17:23:31
Noch ein gutes Review von Tweak-PC mit Videos zu den Anwendungen:
http://www.tweakpc.de/hardware/infos/grafik/nvidia_geforce_physx/s01.php

Kulu macht vor allem in Bewegung einiges her...

Spasstiger
2008-08-06, 17:32:15
Hier habe ich noch ein Video zu Nurien gefunden:
http://files.filefront.com/nurien+nvidia+physx+demosrar/;10678717;/fileinfo.html

Da sieht man unter anderem auch, wie man das Modell einkleiden kann. Die Grafik und die Animationen sind verdammt schick. Auch die Gesichtsanimationen wirken verdammt natürlich. Das wäre perfektes Material für einen "Beste Ingame-Videos"-Thread. ;)

trollkopf
2008-08-06, 17:44:59
noch ein Nurien film, sieht echt schick aus :)

http://www.vimeo.com/1463107?pg=embed&sec=1463107

][immy
2008-08-06, 18:27:27
also abgesehen davon das das angebot an spielen derzeit doch relativ überschaubar ist sieht es doch nett aus.
plant nvidia auch, das man PhysX auch einsetzen kann, wenn man eine ati karte hat und eine nvidia quasi physik-beschleuniger?
die antwort kann ich mir zwar schon vorstellen, aber so könnte nvidia ansich zusätzliche karten verkaufen.

AnarchX
2008-08-06, 18:32:48
Wenn NV richtig clever wäre, dann würden sie einen UT3-PhysX-Map-Contest starten, für die besten Einsendungen gibt ein paar gute Preise und NV erhält im Gegenzug ordentliches Material für einen der PhysX-Toptitel. Aber in der Richtung scheint sich wohl leider nichts zu tun...

Mark
2008-08-06, 18:39:28
[immy;6705630']also abgesehen davon das das angebot an spielen derzeit doch relativ überschaubar ist sieht es doch nett aus.
plant nvidia auch, das man PhysX auch einsetzen kann, wenn man eine ati karte hat und eine nvidia quasi physik-beschleuniger?
die antwort kann ich mir zwar schon vorstellen, aber so könnte nvidia ansich zusätzliche karten verkaufen.

Vermutlich hat das da mit dem Treibermodell von Vista nicht hin, aber vielleicht kann dir da jemand anderes was genaueres dazu sagen

AnarchX
2008-08-06, 18:42:23
Dazu müsste Nvidia wohl einen zusätzlichen Treiber anbieten, der eben nur das CUDA-Interface mit sich bringt und somit eben kein Grafiktreiber ist, wovon unter Vista ja nur einer laufen darf.

dargo
2008-08-06, 18:52:02
Also ich muss schon sagen - ich bin von den Videos schwer beeindruckt. Diese geschmeidigen Animationen sind einfach fantastisch. Wann gibts ein neues Tomb Raider mit PhysX? :D

Coda
2008-08-06, 19:28:58
Soweit ich weiß dürfen schon mehrere Treiber laufen, nur funktioniert Aero dann nicht.

Mark
2008-08-06, 19:31:42
In Spielen wird sowas dann eh nur benutzt um physikalisch korrekt Brüste zum Wackeln zu bringen :rolleyes:

starfish
2008-08-06, 21:00:51
Funktioniert PhysX@NV-GPU auch bei Maya?
Dort wurde doch beim 8.5er die PhysX Unterstützung eingebaut.

Coda
2008-08-06, 21:27:23
Wenn es Hardware-PhysX unterstützt sollte es gehen.

Gast
2008-08-06, 22:16:58
müssen Grafik und PhysikX immer über eine Karte laufen oder kann man
das auf eine Schwächer, z.B 9600er, auslagern?

danke

AnarchX
2008-08-06, 22:19:41
müssen Grafik und PhysikX immer über eine Karte laufen oder kann man
das auf eine Schwächer, z.B 9600er, auslagern?

danke
Wie wäre es denn mal damit, die oben verlinkten Artikel anzuschauen?
Dort gibt es die Antwort auf deine Frage in detaillierter Form...

deekey777
2008-08-06, 22:23:24
Dazu müsste Nvidia wohl einen zusätzlichen Treiber anbieten, der eben nur das CUDA-Interface mit sich bringt und somit eben kein Grafiktreiber ist, wovon unter Vista ja nur einer laufen darf.
Eine Art Mini-Tesla. Vielleicht bringt NV auch "Grafikkarten" ohne Bildschirmanschlüsse, die nur für CUDA@Home gedacht sind.

Ich frage mich, ob das nicht schon heute funktioniert. Vielleicht findet sich jemand mit einer Radeon, einer Geforce, Mainboard mit zwei PEGs sowie WinXP.

Winter[Raven]
2008-08-06, 22:31:17
Die vids sind sehr beeindruckend, muss man schon sagen.....

=Floi=
2008-08-06, 22:54:42
1. ist das ja total banane. Ich bekomme ja jetzt schon "tesla" UND 2 anschlüsse für monitore.
2. hat CB mit einem X38 getestet und zumindest nv intern funktioniert hier physx auf der 2. karte!

][immy
2008-08-06, 23:54:50
müsste die physx beschleunigung dann nicht an sich auch auf nvidia onboard-grafikchips funktionieren?
so viel performance wird ja vom grafikchip derzeit nicht verlangt. wäre zumindest dann mal ein sinnvoller einsatz einer vielleicht vorhandenen onboard-lösung.

Spasstiger
2008-08-07, 00:28:55
[immy;6706247']müsste die physx beschleunigung dann nicht an sich auch auf nvidia onboard-grafikchips funktionieren?
Würde keinen Vorteil gegenüber einem schnellen Prozessor bringen wie man an den Benchmarks sieht. Eine GeForce 9500 GT ist ungefähr so schnell wie ein Quad-Core @ 4 GHz, die aktuellen onboard-Lösungen sind aber deutlich langsamer als eine GeForce 9500 GT.

Ich hoffe mal, dass mit GeForce-PhysX ein paar wirklich beeindruckende Effekte in Spielen Einzug halten werden. Das was bisher geboten wird, beeindruckt mich nicht mehr, als das was meine CPU schon in Garry's Mod (Source-Engine) in Echtzeit rendert. In Garry's Mod kann ich hunderte von Objekten mit einer Atombombe hunderte Meter weit durch die Gegend schleudern. Das meistert mein Core 2 Duo @ 3 GHz recht souverän.

Ich möchte mal in einem Spiel eine per Flüssigkeitssimulation inszenierte Überflutung sehen, z.B. ein untergehendes Schiff, wo sich die Korridore allmählich mit Wasser füllen. Oder ein Dammbruch in einem Strategiespiel, der zu realistischen Überschwemmungen und Zerstören führt. Gerne dürfen dabei auch Trümmerteile von der Strömung mitgerissen werden.
Man könnte auch ruhig mehr Physikspielereien als Rätsel einbauen. Wenn man z.B. in einem Rollenspiel einen See befahren möchte, sollte man sich das nötige Boot wahlweise für teures Geld kaufen oder selber bauen können. Für den Eigenbau muss man dann Bäume fällen (die natürlich physikalisch korrekt umfallen) und diese dann mit Hilfe einer Zugvorrichtung und einem Pferd an den Bauplatz transportieren. Und ob der Eigenbau tatsächlich schwimmt, sollte dann auch von der Bauform und vom Material abhängen. Evtl. muss der Spieler noch ein paar Holzfässer und Wachs zum Abdichten besorgen, um für mehr Auftrieb zu sorgen. In Garry's Mod sind solche Spielereien heute schon halbwegs möglich und auf manchen Servern gibts auch Baucontests, wo jeder ein Gefährt und Fluggerät bauen und mit diesem dann einen vorgegeben Kurs schneller absolvieren muss als die Konkurrenz.

(del)
2008-08-07, 01:29:40
Würde keinen Vorteil gegenüber einem schnellen Prozessor bringen wie man an den Benchmarks sieht. Eine GeForce 9500 GT ist ungefähr so schnell wie ein Quad-Core @ 4 GHz, die aktuellen onboard-Lösungen sind aber deutlich langsamer als eine GeForce 9500 GT.

Ich hoffe mal, dass mit GeForce-PhysX ein paar wirklich beeindruckende Effekte in Spielen Einzug halten werden. Das was bisher geboten wird, beeindruckt mich nicht mehr, als das was meine CPU schon in Garry's Mod (Source-Engine) in Echtzeit rendert. In Garry's Mod kann ich hunderte von Objekten mit einer Atombombe hunderte Meter weit durch die Gegend schleudern. Das meistert mein Core 2 Duo @ 3 GHz recht souverän.

Ich möchte mal in einem Spiel eine per Flüssigkeitssimulation inszenierte Überflutung sehen, z.B. ein untergehendes Schiff, wo sich die Korridore allmählich mit Wasser füllen. Oder ein Dammbruch in einem Strategiespiel, der zu realistischen Überschwemmungen und Zerstören führt. Gerne dürfen dabei auch Trümmerteile von der Strömung mitgerissen werden.
Man könnte auch ruhig mehr Physikspielereien als Rätsel einbauen. Wenn man z.B. in einem Rollenspiel einen See befahren möchte, sollte man sich das nötige Boot wahlweise für teures Geld kaufen oder selber bauen können. Für den Eigenbau muss man dann Bäume fällen (die natürlich physikalisch korrekt umfallen) und diese dann mit Hilfe einer Zugvorrichtung und einem Pferd an den Bauplatz transportieren. Und ob der Eigenbau tatsächlich schwimmt, sollte dann auch von der Bauform und vom Material abhängen. Evtl. muss der Spieler noch ein paar Holzfässer und Wachs zum Abdichten besorgen, um für mehr Auftrieb zu sorgen. In Garry's Mod sind solche Spielereien heute schon halbwegs möglich und auf manchen Servern gibts auch Baucontests, wo jeder ein Gefährt und Fluggerät bauen und mit diesem dann einen vorgegeben Kurs schneller absolvieren muss als die Konkurrenz.

An Garrys mod dachte ich auch, als ich die Videos gesehen habe.
Hier paar Videos für die die Garrys mod nicht kennen.
Video 1 (http://de.youtube.com/watch?v=jHxAmgayuRI)
Video 2 (http://de.youtube.com/watch?v=NeJCUkiY93c&feature=related)
Video 3 (http://www.youtube.com/watch?v=IJaMecDLslw&feature=related)

Mark
2008-08-07, 02:10:50
Also obwohl Warmonger ja nur ein kostenloses Spiel ist, bin ich der Meinung das PhysX-Spiele so nicht ausschauen sollten. Das einzige was da "neu" ist, sind die Flaggen die man zerschießen kann und das physikalisch korrekt Ascche vom Himmel regnet. Beide Effekte sind total überflüssig. Es gibt kein Bedarf an physiaklisch korrekt fallender Asche und die Fahnen dienen nur zur Zierde.

=Floi=
2008-08-07, 04:18:16
es soll nicht um den content gehen, sondern um die physik! Es ist doch von spiel zu spiel verschieden und dem designer überlassen was er damit macht. Für uns ist nur wichtig, dass man so eine höhere auflösung der einzelnen berechnungen und genauere effekte umsonst bekommt. Ich finde es ganz gut und zu leistungseinbrüchen wie damals führt es heutzutage auch nicht mehr.

Das ist jetzt mal der erste schritt und dann werden wir noch sehen was alles kommen wird.

DrPeacemaker
2008-08-07, 09:34:27
Mal ein doofe Frage, denn das konnte ich nicht raus lesen (blind?).

Gesetzt den Fall, das PysisX in mehreren Titel eine Rolle Spielen sollte. Ich habe jetzt eine 8800GTS (G80) und ich kaufe mir dann irgendwann eine 580GTX ;). Kann ich dem Treiber sagen nimm für die Grafiksachen die 580er und für PhysX die kleine 8800? Natürlich ohne das es zu irgendwelchen Problemen kommt.

AnarchX
2008-08-07, 09:38:34
Mal ein doofe Frage, denn das konnte ich nicht raus lesen (blind?).

Gesetzt den Fall, das PysisX in mehreren Titel eine Rolle Spielen sollte. Ich habe jetzt eine 8800GTS (G80) und ich kaufe mir dann irgendwann eine 580GTX ;). Kann ich dem Treiber sagen nimm für die Grafiksachen die 580er und für PhysX die kleine 8800? Natürlich ohne das es zu irgendwelchen Problemen kommt.

Ich will ja nichts sagen...;)
http://img139.imageshack.us/img139/940/15m4627685ak1.png
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/4/

Dann noch etwas aus dem FAQ von NV:
Question: Can I run PhysX on a different card than the one I use for gaming? When will you release support for asymmetrical multi-GPU configurations?

A: Yes. PhysX will support asymmetric multi-GPU configurations within the next few months. There is some limited Beta support in the first release, but the support will improve in future releases. This will enable users to still use their older 8 or 9-Series card when they upgrade to a newer card based on the GeForce GTX 280 for example.

DrPeacemaker
2008-08-07, 09:42:44
@AnarchX
DANKE

Super. Jetzt muss Nvidia noch die G80 mit dem Treiber beglücken.

AnarchX
2008-08-07, 09:46:14
Super. Jetzt muss Nvidia noch die G80 mit dem Treiber beglücken.
Die verlinkten Artikel hast du wohl nur überflogen?
Denn G80 wird seit PhysX 8.07.18 unterstützt und CB und PCGH haben auch Benchmarks dazu, Usererfahrungen findest du hier:
http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=42

EL_Mariachi
2008-08-07, 10:42:05
Dann noch etwas aus dem FAQ von NV:

ich würde mir zu meiner 8800GTS 640 halt noch ne 8600GT dazustecken...
funktioniert das dann auch? oder nur mit ner 200er Karte als Master?
Kann hier schon jemand was zu sagen?

deekey777
2008-08-07, 10:49:09
ich würde mir zu meiner 8800GTS 640 halt noch ne 8600GT dazustecken...
funktioniert das dann auch? oder nur mit ner 200er Karte als Master?
Kann hier schon jemand was zu sagen?
http://firingsquad.com/hardware/nvidia_geforce_physx_performance/page8.asp

Spasstiger
2008-08-07, 11:42:04
Wenn man zwei sehr unterschiedliche Grafikkarten für PhysX + Grafik verwendet (Multi-GPU-Modus), muss man aber bedenken, dass sich der Leistungsvorteil auch in Grenzen hält: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/11/#abschnitt_multigpuphysx.
Die zusätzliche GeForce 9600 GT für Physik alleine bringt im Mittel auch nur um 12% höhere Frameraten als wenn die GTX280 zusätzlich zur Grafik noch die Physik berechnet. Diesen Unterschied kann man auch durch OC erreichen und spart sich den Einbau einer zweiten Grafikkarte. Wobei da auch ohne AA und AF getestet wurde, vielleicht ist der Unterschied mit AA/AF größer.

Mark
2008-08-07, 11:51:24
Hat eigentlich jemand ein paar alte Ageia-PhysX- Demos zum laufen gebracht? Ich habe bisher nur die Carwash-Demo gefunden, welche beim Auswählen von der HW-Beschleunigung die Szene garnicht rendert und man nur eine graue Fläche sieht.

AnarchX
2008-08-07, 11:55:06
@Spasstiger
Wenn ich mir die Ergebnisse anschaue bei UT3 so scheint CB hier schon MGPU-PhysX unter 1680x1050 4xAA/16xAF getestet zu haben.

Aber Enthusiasten die dann auch bereit wären sich noch eine 2. GraKa für PhysX zu kaufen, die spielen wohl eher in noch höheren Settings, sodass der Gewinn ansteigt.

Zudem steigen in Zukunft die Ansprüche des Renderings weiter und der Umfang der PhysX-Effekte sicherlich auch, was wiederum die Renderlast erhöht...

Mark
2008-08-07, 11:57:32
jetzt wäre noch ein test sinnvoll wie stark bei PhysX die Anbindung über pci-e limitiert. reicht ein x1 slot aus? muss es unbedingt pcie 2.0 sein?

Sorkalm
2008-08-07, 12:06:05
Zudem steigen in Zukunft die Ansprüche des Renderings weiter und der Umfang der PhysX-Effekte sicherlich auch, was wiederum die Renderlast erhöht...

Das ist ja das Dilemma: Wir reden über zukünftige Spiele ohne zu wissen, inwiefern hier auf solche Techniken Bezug genommen wird...

derguru
2008-08-07, 14:09:02
sollten nicht 2 karten wie z.b. 260gtx im sli mehr sinn machen als eine 260gtx+ eine 9600 für physx? abgesehen vom preis unterschied natürlich.

so hat man wenigstens in jedem spiel die mehrleistung und ist nicht physx abhängig.

AnarchX
2008-08-07, 14:13:52
Bleibt halt die Frage, ob man SLI und PhysX gleichzeitig laufen lassen kann, wenn auch es im aktuellen FAQ offenbar so ausgedrückt wird.

Jedoch steht man ja hier vor dem Problem wie PhysX und das AFR-Rendering beider Karten koordiniert wird, wo es verschiedene Möglichkeiten gibt:
- beide Karten bekommen die gleiche Menge an PhysX-Berechnungen, wobei GPU-PhysX momentan aber offenbar nur für ein Device implementiert ist
- eine Karte rechnet PhysX, wo dann die andere entsprechend auf das Niveau der PhysX-rechnende Karte gebremst werden müsste oder bei rechnen etwas ansynchron -> Mikroruckler.

=Floi=
2008-08-07, 18:27:57
das könnte tombman(oder ein anderer fähiger mit drei karten) mal testen der hat ja 2X280er, 1X8600GT, 1Board mit drei slots und auch noch den nötigen verstand :D

The_Invisible
2008-08-07, 22:14:54
hm, ich stell mir gerade meine sparsame ultra als dedizierte physx karte vor ;D

ansonsten sind da ganz nette demos dabei, bin schon gespannt wann das ganze offiziell released wird. hoffentlich hat nvidia damit mehr durchschlagskraft als ageia, sonst sind wieder viele mannstunden den bach runtergegangen. :(

mfg

derguru
2008-08-08, 14:37:29
http://www.pcgameshardware.de/aid,655035/News/Microsoft_lizenziert_Havok_Physik-Engine/

hat nicht direkt damit zutun aber wenn das soweiter geht stirbt physX schon bevor es überhaupt auf den markt sich etablieren kann denn im endeffekt wird am ende nur einer von beiden sich durchsetzen können.
das sieht so aus als ob sich alle gegen nv verschworen haben;)

BlackBirdSR
2008-08-08, 15:14:24
http://www.pcgameshardware.de/aid,655035/News/Microsoft_lizenziert_Havok_Physik-Engine/

hat nicht direkt damit zutun aber wenn das soweiter geht stirbt physX schon bevor es überhaupt auf den markt sich etablieren kann denn im endeffekt wird am ende nur einer von beiden sich durchsetzen können.
das sieht so aus als ob sich alle gegen nv verschworen haben;)

Vorsicht... und Dekey777 kann das gar nicht oft genug irgendwo berichtigen:

die PhysX-Engine ist eine sehr gute Physik-Engine die keine GPU/HW braucht um beeindruckende Ergebnisse zu erzeugen. Zudem existiert sie nicht nur auf dem PC, sondern bedient auch XBox360 und PS3 mit großem Erfolg. PhysX-GPU mag vielleicht nicht den Durchbruch schaffen. Die Engine selbst ist aber noch lange nicht tot deswegen.

Mark
2008-08-08, 15:14:34
http://www.pcgameshardware.de/aid,655035/News/Microsoft_lizenziert_Havok_Physik-Engine/

hat nicht direkt damit zutun aber wenn das soweiter geht stirbt physX schon bevor es überhaupt auf den markt sich etablieren kann denn im endeffekt wird am ende nur einer von beiden sich durchsetzen können.
das sieht so aus als ob sich alle gegen nv verschworen haben;)

Wird schon hier besprochen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=427708

Zusammenfassung: Die Meldung bzw die Interpretation ist Schwachsinn

tombman
2008-08-09, 18:13:14
http://www.guru3d.com/article/physx-by-nvidia-review/1

Ist natürlich klar warum der 12. gewählt wurde- ATI X2 Start :rolleyes:

Aber auf das Pack freue ich mich :)

http://www.guru3d.com/imageview.php?image=14432

_DrillSarge]I[
2008-08-09, 18:24:39
nVIDIA PhysX Pack #1

Full version of Warmonger
Full version of UT III PhysX Mod Pack (Includes three PhysX-specific levels)
Latest Ghost Recon Advanced Warfighter 2 patch (1.05)
First peek at Nurien, an upcoming social networking service, based on UE III
First peek at Metal Knight Zero, an upcoming PhysX-capable title
"The Great Kulu" technology demo
"Fluid" technology demo


chrrrrr. ist ja sehr spannend. anscheinend gibts immer noch nur 3 "richtige" spiele mit physX.
wobei dort (speziell Ut3 und graw2; warmonger ist eh müll) der unterschied eh nicht so prall ist.

Raff
2008-08-09, 18:34:15
Auch für G80 & Co?

MfG,
Raff

_DrillSarge]I[
2008-08-09, 18:58:40
Auch für G80 & Co?

MfG,
Raff
hmm, es wird ja immer wieder von 70 mio gpus geprochen, welche physx tauglich sind (geforce8 und neuer). nun ist die frage, ob man auf die zahl kommt, wenn "erst" ab g92 zählt?
wobei, es wird ja immer von geforce8 gesprochen und da gehört theoretisch ja nun auch der g80 dazu.

Gast
2008-08-09, 19:01:34
Der neue Treiber gibt es ja schon seit ca. einer Woche als Beta, da muss man nicht mehr warten...

Das besste ist aber das PhysX in GRAW2 mit PhysX Extreme bei meinem System (8800Ultra@700MHz, E8500@4500MHz) fast keine Leistung kostet, man hat also Hardware PhysX mit praktisch keinen Leistungseinbrüche!

Und es sieht einfach richtig Toll aus!

Gast
2008-08-10, 15:35:49
War der Physik Prozessor nicht gerade in GRAW total grottig? Zumindest die Benchmarks am anfang mit aktivierter HW-Physik machten sich optisch bemerkbar, aber das Spiel wurde dadurch teils sehr langsam, weil evtl. zuviel Physik für den Prozessor berechnet werden musste.

BlackBirdSR
2008-08-10, 16:14:02
War der Physik Prozessor nicht gerade in GRAW total grottig? Zumindest die Benchmarks am anfang mit aktivierter HW-Physik machten sich optisch bemerkbar, aber das Spiel wurde dadurch teils sehr langsam, weil evtl. zuviel Physik für den Prozessor berechnet werden musste.

das erste GRAW mit den ersten Treibern... fast unspielbar. Inzwischen gibt es da allerdings keine Probleme mehr.
Graw2 auf "Extreme" war allerdings begrenzt.

Gast
2008-08-10, 18:04:38
so doll scheint die physX engine doch nicht zu sein

http://www.mirvadim.com/index.html

die collision in den beispiel videos sieht nicht so high end aus... ^^

Mark
2008-08-10, 18:23:31
Welches Video meinst du genau? Hab mir jetz mal 2 angesehn und finde sie sehen sehr gut aus

Gast
2008-08-10, 18:26:10
http://www.mirvadim.com/Video/RayFireTool_ExplBox.mov hier sieht man es sehr deutlich

Coda
2008-08-10, 18:39:20
Was "sieht" man da?

Gast
2008-08-10, 18:44:17
guck die die steine auf dem boden an -> sehr schlechte collision ;)

das ist doch nicht zu übersehen (?)

http://img13.myimg.de/Screenshot1238a71.png

Coda
2008-08-10, 18:54:19
Das kommt auch darauf an wie die API verwendet wird. Trimeshes sind langsam, d.h. wenn da gespart wurde dann passiert sowas schonmal.

Mark
2008-08-10, 19:22:57
Also die Videos auf der Seite sind schon beeindruckend, aber leider nicht realtime. Ich frag mich wie lange es dauert so eine Szene zu rendern, z.b. den Meteoriteneinschlag. Genial wäre, wenn man sowas mal Ingame in Realtime sehen könnte.


In dem Glas-Video liegen die Scherben sofern ich das Erkennen kann, physikalisch korrekt auf einem Haufen. Es scheitn wohl daran zu liegen wie "korrekt" man das ganze haben will. Wenn das Rendern doppelt so lange dauert nur um alles physikalisch korrekt zu Berechnen, was dann aber im Endprofukt eh nicht auffällt, da spart man lieber die Zeit

Coda
2008-08-10, 19:53:51
Mit PhysX-Hardware sollte das eigentlich in Echtzeit gehen.

Mark
2008-08-10, 20:04:25
Von der Physik her vielleicht, aber jedes der herumfliegendne Teile wirft ja einen eigenen Schatten. In den anderen Szenen spiegeln scich alle Teile nochmal in den Kugeln, usw.

Hier mal übrigens 4 Nurien Screenshots von mir, aus einer frühen Alpha:

http://img149.imagevenue.com/loc784/th_91245_1_122_784lo.jpg (http://img149.imagevenue.com/img.php?image=91245_1_122_784lo.jpg)http://img154.imagevenue.com/loc1160/th_91255_2_122_1160lo.jpg (http://img154.imagevenue.com/img.php?image=91255_2_122_1160lo.jpg)http://img235.imagevenue.com/loc63/th_91266_3_122_63lo.jpg (http://img235.imagevenue.com/img.php?image=91266_3_122_63lo.jpg)http://img242.imagevenue.com/loc1/th_91267_4_122_1lo.jpg (http://img242.imagevenue.com/img.php?image=91267_4_122_1lo.jpg)

Auf den Bildern sieht man das derbe Clipping nicht, aber war ja noch Alpha. Leider lässt sich die Auflösung auch nicht ändern (da die .ini-Dateien der Engine verschöüsselt sind) und über nHancer lässt sich auch kein AA forcieren. Übermorgen dürfte aber die finale Demo rauskommen

Gast
2008-08-11, 20:53:27
es wundert mich das es noch keiner probiert hatt (nich alles gelesen) aber ich hab mit meiner 8800gts 512 ausser dem beta treiber noch einige andere cuda fähige treiber, wenn man das so nennen kann, probiert. keine ahnung ob es damit zusammenhängt aber ich bin zu der erkenntnis gekommen das physx auf nv karten scheinbar nicht vom beta treiber abhängig ist. aktuell benutze ich den 175,19 treiber. die physx software ist installiert und der unterschied in ut ist klar erkennbar wenn ich hardware physx deaktiviere. frameraten gehen mit vielen partikeln in den keller. schalte ich hw physics an bleibt alles spielbar.

mfg

Neon3D
2008-08-12, 08:44:46
http://www.pcgameshardware.de/aid,655035/News/Microsoft_lizenziert_Havok_Physik-Engine/

hat nicht direkt damit zutun aber wenn das soweiter geht stirbt physX schon bevor es überhaupt auf den markt sich etablieren kann denn im endeffekt wird am ende nur einer von beiden sich durchsetzen können.
das sieht so aus als ob sich alle gegen nv verschworen haben;)


na man kann nur hoffen das die spieleentwickler trotzdem alle p.x. ünterstützen, denn wer will schon mit ner schrotten cpu physik berechnen lassen.

AnarchX
2008-08-12, 10:15:51
Nun gibt es den ersten unabhängigen PhysX-Benchmark von oZone3D(Macher von FurMark):

FluidMark (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=428137)

AnarchX
2008-08-12, 16:47:28
Nun kann man alle PhysX-Techdemos bei Nvidia in einem sogenannten Powerpack downloaden:
http://www.nvidia.com/content/forcewithin/us/download.asp

trollkopf
2008-08-12, 16:50:51
oder hier die deutsche Seite mit int. Treiber:

http://www.nvidia.com/content/forcewithin/de/download.asp

AnarchX
2008-08-12, 16:51:33
Great Kulu

nutel
2008-08-12, 16:54:32
uncool... windows only :(

Mark
2008-08-12, 20:00:15
Bei Nurien lässt sich AA forcieren wenn man die exe in bioshock.exe, jedoch fallen die fps dann ins bodenlose.

ok, ein wenig unrealistisch, bei 32xS sinds ganze 0.15fps X-D

aber auch bei 8x sinken die fps unter 25, und das in 1024*768

Crazy_Chris
2008-08-12, 22:03:40
Great Kulu

Tiere quälen powered by NVIDIA.

Das ist mal die mit Abstand dümmste Techdemo die ich je ausprobiert habe. :confused:

Mark
2008-08-12, 22:11:49
http://666kb.com/i/b16offw6zdanztxys.gif
:confused:

Crazy_Chris
2008-08-12, 22:19:47
:confused:

Ist bei mir auch so. Trotzdem laufen die Sachen im Hardwaremodus. :smile:

trollkopf
2008-08-12, 22:23:35
aus der readme:

The Great Kulu: Technology Demo
a. Install The_Great_Kulu_v1.1.2.exe
b. Launch The_Great_Kulu
c. Note: GPU PhysX acceleration is only enabled for GeForce GTX 280 and GeForce GTX 260 GPU in this demo

tombman
2008-08-12, 23:41:35
Also die Wassersim kommt geil. Zwar noch nicht wirklich genug Partikel um es wirklich nach echtem Wasser aussehen zu lassen, aber 10x mehr Partikel und die Party kann steigen.

2010 gibts dann die hardware für massiv Physik + Flüssigkeiten-sim :D

deekey777
2008-08-13, 15:26:41
Fudzilla-Praktikanten (:biggrin:) haben etwas rumgespielt und einige Ungereimheiten gefunden:
Geforce PhysX is heavy on the CPU (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8859&Itemid=65)
PhysX CPU limited on Geforce cards (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8862&Itemid=65)

Wenn ich es richtig verstehe, verursacht PhysX@CUDA einen gewaltigen CPU-Overhead.

HarryHirsch
2008-08-13, 23:45:38
ist zwar nicht das speku-forum aber vielleicht verursacht physx@cuda mit absicht eine geringere cpu auslastung. wird also mit absicht gebremst?

Mark
2008-08-14, 11:13:43
Gibt es irgendwo dieses Level zum Download?
http://de.youtube.com/watch?v=anoH3JQJGlA&feature=related

AnarchX
2008-12-03, 08:49:21
Powerpack 2 ist nun verfügbar:
* CRAZY MACHINES 2 Featuring GPU accelerated NVIDIA® PhysX™ effects:
http://nzone.download.nvidia.com/nodlm/CrazyMachines2_PhysXFluidsLevels.exe

* Power Director 7.0 Trial: CyberLink.2305_Trial_VDE080828-01.exe
http://nzone.download.nvidia.com/nodlm/CyberLink.2305_Trial_VDE080828-01.exe

* FPS Game featuring NVIDIA® PhysX™ gaming effects: Warmonger_v2.5.exe (new levels added)
http://nzone.download.nvidia.com/nodlm/Warmonger_v2.5.exe

* Dark Basic Fluids Demo
http://nzone.download.nvidia.com/nodlm/PhysxFluids_by_KennethBugeja.exe

* Dark Basic PhysX Soft Body Demo
http://nzone.download.nvidia.com/nodlm/PhysXSoftBodies_by_KennethBugeja.exe

* Badaboom™ Media Converter 1.0: Trial Version - 30 Free Transcodes within 30 Days
http://nzone.download.nvidia.com/nodlm/Badaboom_Setup_1.0_Trial_Public.exe

* Screensaver featuring NVIDIA® PhysX™ technology
http://nzone.download.nvidia.com/nodlm/PhysXScreenSaver_by_TheGameCreators.exe

* TMPGENC XPRESS 4.6.2.266 Trial featuring NVIDIA® CUDA™ Accelerated Video Effects
http://nzone.download.nvidia.com/nodlm/TE4XP_Trial_4.6.2.266_setup_en.exe
http://en.expreview.com/2008/12/03/nvidia-offers-upgraded-power-pack-for-geforce-users.html

Blaire
2008-12-17, 20:32:07
Cryostasis Tech Demo Released

http://nzone.download.nvidia.com/nodlm/CryostasisTechDemo.exe

mapel110
2008-12-17, 21:10:28
Cryostasis Tech Demo Released

http://nzone.download.nvidia.com/nodlm/CryostasisTechDemo.exe
http://www.pcgameshardware.de/aid,670585/Test/Benchmark/Cryostasis-_DirectX-10-Techdemo_des_Physx-Shooters_im_Test/

Raff
2008-12-17, 21:26:15
Cryostasis Tech Demo Released

http://nzone.download.nvidia.com/nodlm/CryostasisTechDemo.exe

Zur Info, weil ich die auch suchte: Das Ding läuft laut Nvidia auch mit Windows XP, braucht also kein D3D10.

923 MiB ... und dann nur ~500 KB/s ... meine Fresse. :|

MfG,
Raff

Sonyfreak
2008-12-17, 21:41:55
Muss ich mir gleich mal runterladen. Mal sehen wie die Diashow auf meiner 8800GTS läuft. :D

Download läuft mit ca. 100kb/s *schnarchi*

mfg.

Sonyfreak

Evil Ash
2008-12-17, 21:44:30
Bei Nurien lässt sich AA forcieren wenn man die exe in bioshock.exe, jedoch fallen die fps dann ins bodenlose.

ok, ein wenig unrealistisch, bei 32xS sinds ganze 0.15fps X-D

aber auch bei 8x sinken die fps unter 25, und das in 1024*768

Die Auflösung kann man auch erhöhen, per Commandozeile hinter der exe.

Nurien.exe -RESx=1680 -ResY=1050 -AllowD3D10=True -EnableHighPolyChars=True -MaxAnisotropy=16 -MaxMultisamples=1 -LensFlares=True -MotionBlur=True -Bloom=True -QualityBloom=True -DetailMode=4 -UseVsync=True

dargo
2008-12-17, 23:31:49
Zur Info, weil ich die auch suchte: Das Ding läuft laut Nvidia auch mit Windows XP, braucht also kein D3D10.

923 MiB ... und dann nur ~500 KB/s ... meine Fresse. :|

MfG,
Raff
Ich bin momentan bei 1,6MB/s. :) Ok, sind ja schon 2h vergangen.

Dondy
2008-12-17, 23:46:35
Zur Info, weil ich die auch suchte: Das Ding läuft laut Nvidia auch mit Windows XP, braucht also kein D3D10.

923 MiB ... und dann nur ~500 KB/s ... meine Fresse. :|

MfG,
Raff

Ähm entweder ich habe etwas übersehen oder ich bin zu doof ;)
Aber bei mir kommt "Windows Vista is required to run the demo" :frown:

Raff
2008-12-17, 23:50:25
Das ist gewiss unlustig, denn bei Nvidia steht:

System Requirements:
Compatible with WinXP and Vista. For best enjoyment PhysX acceleration is required. NVIDIA® Geforce® 8, 9 and 200 Series are recommended. Please install the latest NVIDIA GeForce drivers which include the latest PhysX system software.

http://www.nvidia.com/content/graphicsplus/us/download.asp

Säcke. Ich check's mal ... ganz vergessen.

MfG,
Raff

Gast
2008-12-18, 00:17:47
Steht hier auch:
NVIDIA PhysX System Software WHQL
Version: 8.10.13
Release Date: November 19, 2008
Operating System: Windows XP, Windows Vista (32-bit and 64-bit)
Language: U.S. English
File Size: 34.2 MB

Supports for NVIDIA PhysX acceleration on all GeForce 8-series, 9-series and 200-series GPUs with a minimum of 256MB dedicated graphics memory.
Experience GPU PhysX acceleration in several full games and demos today by downloading the GeForce Power Pack.
Resolves PhysX SDK runtime issues with systems without NVIDIA graphics cards.
Runtime upgrade ONLY for AGEIA PhysX processors users. (New installations should install older PhysX system software such as version 8.09.04 – prior to installing this update)
Includes the latest PhysX runtimes used in the latest game titles.
Supports the following NVIDIA PhysX runtime engines: 2.8.1, 2.8.0, 2.7.x, 2.6.x, 2.5.x, 2.4.x and 2.3.x.
Supports NVIDIA PhysX acceleration on GeForce via CUDA 2.0 for SDK versions 2.7.3, 2.7.2, 2.7.5, 2.8.0 and 2.8.1 (requires graphics driver v177.81 or later).
The PhysX control panel can be found in the Windows Start Menu under NVIDIA Corporation.
Fully compatible with graphics drivers with integrated control panel support.
http://www.nvidia.com/object/physx_8.10.13_whql.html

Ri*g*g*er
2008-12-18, 00:22:57
Hi all,

also hab mir die "Cryostasis: The Sleep of Reason" Demo gesaugt aber bei mir kommt (Windows XP)
wie oben schon erwähnt die Fehlermeldung das man Vista benötigt. Na Toll !!!

Die wissen wohl selber nicht was die dort für Software plazieren.
Was für ein Bullshit.

Gruss
Ri*g*g*er

mapel110
2008-12-18, 01:52:31
http://www.firingsquad.com/hardware/cryostasis_techdemo_performance/

dargo
2008-12-18, 12:20:01
Um ehrlich zu sein finde ich die Techdemo alles andere als schön. Die Flüssigkeit zb. sieht eher nach Quecksilber als nach Wasser aus.

EL_Mariachi
2008-12-18, 12:53:55
2010 gibts dann die hardware für massiv Physik + Flüssigkeiten-sim :D

jup, spannende Titel wie "Wasserhahn Simulator Professional" gibts dann 2011 ;) :D

.

Gast
2008-12-18, 14:00:24
Um ehrlich zu sein finde ich die Techdemo alles andere als schön. Die Flüssigkeit zb. sieht eher nach Quecksilber als nach Wasser aus.

viel besseres wasser wird es in den nächsten jahren nicht geben ;)

KonKorT
2008-12-21, 16:47:34
Für Interessierte eine aktuelle Kolumne zum Thema:

Nvidia PhysX war, ist und wird (http://www.hardware-infos.com/kolumnen.php?kolumne=14)

Gast
2008-12-21, 17:59:23
Für Interessierte eine aktuelle Kolumne zum Thema:

Nvidia PhysX war, ist und wird (http://www.hardware-infos.com/kolumnen.php?kolumne=14)

Völliger Quatsch was die da schreiben. Physx ist was ganz anderes als OpenCL oder Compute Shader.

KonKorT
2008-12-21, 21:39:30
Warum sollten OpenCL und DirectX 11 nicht auch eine eigene Physik-Bibliothek ala PhysX wie CUDA anbieten?
Ich sehe hier schon mittelfristig zwei potentielle Konkurrenten PhysX', wie es in der Kolumne steht.

Gast
2008-12-21, 21:45:15
hä?

physX wird sicher mal über eins der beiden laufen wenn nicht sogar beide.. 0.o

Sorkalm
2008-12-21, 21:45:27
DirectX könnte das mittelfristig mittels DirectPhysics oder so bringen, ja. War das nicht mal im Gespräch?

Coda
2008-12-21, 22:05:21
Warum sollten OpenCL und DirectX 11 nicht auch eine eigene Physik-Bibliothek ala PhysX wie CUDA anbieten?
Weil OpenCL und DirectX 11 Grafik bzw. GPGPU-Libs sind. Was soll da Physik drin zu suchen haben?

Wenn dann werden Dritthersteller auf OpenCL bzw. DX11 als Backend für ihre Physik-Libs setzen wie derzeit PhysX mit CUDA.

DirectX könnte das mittelfristig mittels DirectPhysics oder so bringen, ja. War das nicht mal im Gespräch?
Nein.

Gast
2008-12-21, 22:07:09
Wenn dann werden Dritthersteller auf OpenCL bzw. DX11 als Backend für ihre Physik-Libs setzen wie derzeit PhysX mit CUDA.

Das nicht, aber es ist ja überhaupt keine Problem, eine noch bessere Physikengine über die GPU laufen zu lassen dank DirectX Unterstützung.
Das PhysX ewig bleibt, bezweifle ich sehr, dafür muss es konstant weitergewickelt werden und auch bei Ati über die GPU laufen können.

Coda
2008-12-21, 22:09:16
Das nicht, aber es ist ja überhaupt keine Problem, eine noch bessere Physikengine über die GPU laufen zu lassen dank DirectX Unterstützung.
"Eine noch bessere" GPGPU fähige Physik-Lib gibt es derzeit nicht.

Das PhysX ewig bleibt, bezweifle ich sehr, dafür muss es konstant weitergewickelt werden und auch bei Ati über die GPU laufen können.
PhysX wird konstant weiterentwickelt und zwar für alle Platformen, nicht nur CUDA. Darunter fällt auch ein Multicore-x86-Backend, Xbox 360 und PS3. Es gibt überhaupt keinen Grund, warum es nicht in Zukunft auch noch andere Backends geben sollte. Das ist wenn dann eine rein politische Entscheidung von NVIDIA.

Gast
2008-12-21, 22:36:44
"Eine noch bessere" GPGPU fähige Physik-Lib gibt es derzeit nicht.

Das ist ja auch kein Wunder, es gibt noch nicht mal einen breitflächigen Support von PhysX, was Hardware, Software betrifft. :) (bitte beachten;das ist ein freakforum).
Da werden wir erstmal abwarten müssen, wie der Markt sich entwickelt. Mit dem neuen DirectX sehe ich aber durchaus Chancen für Mitbewerber, in den Markt einzusteigen und da wird PhysX schon arge probleme bekommen, sollten sie da nicht jederzeit mitziehen.

PhysX wird konstant weiterentwickelt und zwar für alle Platformen, nicht nur CUDA.

das mag sein, heißt aber immer noch nicht, das es deshalb ewig am markt bestehen wird. Noch gibt es praktisch keine alternativen.

TheDUDE
2008-12-21, 22:39:17
Es scheinen immer mehr Spiele auf den Markt zu kommen, die NV-PhysX nutzen. Es sieht schon verdammt geil aus und erlaubt teilweise völlig neue Spielerlebnisse! CUDA, PhysX ... sind für mich auf jeden Fall zusätzl. Argumente für eine NV-Karte. Da ich aber z.Zt. ne 8800GTX und ne 4850 habe. Bleibe ich erstmal noch ne Weile dabei. Ich hole mir aber auf jeden Fall ne NV9500 und nutze Das Teil dann als PhysX-GPU. Gruß an Alle. Schöne Feiertage und nen guten Rutsch!!!!

Gast
2008-12-21, 22:40:48
Was ist denn eigentlich aus Havok geworden? Hat nicht Intel diese Firma gekauft? Es ist sehr ruhig geworden.

Sorkalm
2008-12-22, 00:38:50
Was ist denn eigentlich aus Havok geworden? Hat nicht Intel diese Firma gekauft? Es ist sehr ruhig geworden.

Jo, wohl kein Interesse an Physik auf der GPU. Die Frage ist also auch, ob AMD daran Interesse hat, oder ob man Nvidia erstmal im Regen stehen lassen wird.

Coda
2008-12-22, 02:45:44
das mag sein, heißt aber immer noch nicht, das es deshalb ewig am markt bestehen wird. Noch gibt es praktisch keine alternativen.
Warum sollte man eine der besten Physikengines einfach wegwerfen?

Viele meinen offenbar, dass das PhysX-Kerngeschäft wirklich GPU-Physik ist. Viele Spiele verwenden es auch einfach als normale Software-Engine.

KonKorT
2008-12-22, 11:17:19
Wenn ich mal eine andere Frage, in den Raum werfen dürfte:

Nvidia hat ja beim GT200 diverse Verbesserungen für GPGPU-Anwendungen gebracht, beispielsweise die Registergrößen erweitert, lokale Caches zwischen den ALUs implementiert, Double-Precision-Einheiten verbaut etc.

Von welchen "Maßnahmen" profitiert er denn bei PhysX-Applikationen?

TheDUDE
2008-12-29, 13:54:32
So langsam wird es echt interessant! Immerhin nutzen/steigen immer mehr namhafte Entwickler/Puplisher (auf) CUDA/PhysX (um). Die Liste der Games, die PhysX nutzen wird immer länger. War ein sehr kluger Zug von NV! OpenCL wird hofftl. gut angenommen. Bis dahin könnten die Spieleentwickler sich mit QC-CPUs, der unglaublichen Leistung die in CUDA bzw. Stream steckt, richtig austoben. Es wird Zt., daß endlich in Games die Leistung der QCs richtig genutzt wird. Dann noch PhysX oder andere CUDA/Stream-Features bzw. openCL und die Grafik wird revolutioniert werden. Na ja, man darf ja träumen! ;o) Euch Allen nen guten Rutsch und ein geiles/fettes neues Jahr!!!!

Darkman]I[
2009-01-08, 17:58:01
kurze frage die bestimmt schon einmal beantwortet wurde.

ich habe im moment noch eine 8800 gtx die ja bekanntermaßen über keine stromsparfunktion verfügt wenn sie idle ist.

wenn ich die 8800 gtx nun als physx karte einsetze, zieht sie dann permanent saft oder nur wenn sie wirklich gebraucht wird?

danke!

AnarchX
2009-01-09, 15:44:10
Unter Windows 7 scheint die Kombination Radeon als Renderer und GeForce für PhysX wohl einfacher nutzbar zu sein:
http://img338.imageshack.us/img338/4305/12314956931622146599mm4.jpg (http://imageshack.us)

http://itbbs.pconline.com.cn/diy/9709947.html

deekey777
2009-01-25, 15:52:24
Alternative zu Nvidia Physx: Ageia-Karte plus Radeon HD 4870 im Test mit Mirror's Edge (http://www.pcgameshardware.de/aid,674016/Test/Benchmark/Alternative_zu_Nvidia_Physx-_Ageia-Karte_plus_Radeon_HD_4870_im_Test_mit_Mirrors_Edge/)
Die PPU ownt die 9600GT und wildert in der Nähe des 9800GT.

y33H@
2009-01-25, 16:09:28
wenn ich die 8800 gtx nun als physx karte einsetze, zieht sie dann permanent saft oder nur wenn sie wirklich gebraucht wird?Die idelt halt dumm vor sich hin ... n G80 schluckt da ziemlich viel.

cYa

LovesuckZ
2009-01-25, 16:58:36
Alternative zu Nvidia Physx: Ageia-Karte plus Radeon HD 4870 im Test mit Mirror's Edge (http://www.pcgameshardware.de/aid,674016/Test/Benchmark/Alternative_zu_Nvidia_Physx-_Ageia-Karte_plus_Radeon_HD_4870_im_Test_mit_Mirrors_Edge/)
Die PPU ownt die 9600GT und wildert in der Nähe des 9800GT.

Woher nimmst du dein Fazit? :confused:

/edit: Ich sehs's. Du hast dich auf die GTX260 bezogen.

Gast
2009-01-25, 18:20:06
Alternative zu Nvidia Physx: Ageia-Karte plus Radeon HD 4870 im Test mit Mirror's Edge (http://www.pcgameshardware.de/aid,674016/Test/Benchmark/Alternative_zu_Nvidia_Physx-_Ageia-Karte_plus_Radeon_HD_4870_im_Test_mit_Mirrors_Edge/)
Die PPU ownt die 9600GT und wildert in der Nähe des 9800GT.


In Anbetracht der Tatsache, daß ohne PhysX Effekte die schnellsten Lösungen auch nur knapp höher liegen als mit Effekten und PhysX Hardware-Beschleunigung, dürfte hier noch etwas anderes anderes limitieren als die PhysX-Leistung. Die PPU ownt nämlich üblicherweise so gut wie gar nix.

=Floi=
2009-01-25, 18:45:07
andere tester haben andere ergebnisse bekommen. da traue ich derpcgh nicht und beim 3dmark waren ganz klar die grafikkarten vorne...

HisN
2009-01-25, 18:56:28
andere tester haben andere ergebnisse bekommen. da traue ich derpcgh nicht und beim 3dmark waren ganz klar die grafikkarten vorne...

Was ja wohl kein Wunder ist wenn man sich den Physik-Test dort anschaut. Da hat die Graka ja "nebenbei" ausser Physik-Berechnung NULL zu tun. Was im normalen Spiele-Alltag NULL vorkommt.

Wieder mal das Schwanzmark vs. Realität-Syndrom.

AnarchX
2009-01-25, 19:04:54
In dem aktuellen Test hatten die Karten aber auch nichts anderes als PhysX zu tun (Diagramm 2).

Durchaus ein etwas sonderbares Ergebnis, in anderen Tests die eigentlich die gleiche Palette an PhysX-Effekten wie ME nutzen, war die PPU deutlich langsamer als eine dedizierte GeForce.

deekey777
2009-01-25, 19:12:26
In Anbetracht der Tatsache, daß ohne PhysX Effekte die schnellsten Lösungen auch nur knapp höher liegen als mit Effekten und PhysX Hardware-Beschleunigung, dürfte hier noch etwas anderes anderes limitieren als die PhysX-Leistung. Die PPU ownt nämlich üblicherweise so gut wie gar nix.
Mit Zusatzeffekten ist das Bild ein ganz anderes: Muss die CPU rechnen, erzielt die HD 4870/1G wie auch die GTX 260-216 nur einstellige Fps. Kombiniert man die Radeon mit der Ageia-PPU, läuft Mirror's Edge rund acht Mal schneller - die Kombination schlägt daher die Geforce mit aktivem GPU-Physx. Die GTX 260-216 legt mit der Ageia-Karte ebenfalls stark zu und überholt sogar die Kombination aus GTX 260-216 und dedizierter 9600 GT. Die Ageia-PPU rechnet offenbar sehr schnell.
:|

horn 12
2009-01-25, 19:29:34
Was kostet so eine Ageia-PPU (Karte)

=Floi=
2009-01-25, 19:35:10
das ist jetzt ein ein spiel und bisher war der 3dmark immer besser für solche sachen. Die wahre leistungsfähigkeit ist dort ersichtlich und mit der zeit werden die grafikkarten in diesem bereich immer stärker. Es sollte zumindest darauf hingewiesen werden.

Gast
2009-01-25, 19:46:49
Die Ageia-PPU ist nie und nimmer so schnell wie eine 9600GT, da stimmt was nicht oder es gibt ein anderes Limit.

Black-Scorpion
2009-01-25, 20:19:23
Wer den 3D Mark ernst nimmt ist selber Schuld.
Das Ding war Schrott und wird immer Schrott bleiben.

Gast
2009-01-25, 20:42:18
:|

:|

Und? Was limitiert denn nun bei etwa 70fps? PhysX ist es definitiv nicht und da es nicht PhysX ist, kann man keine Aussage über die PhysX-Leistung der benutzen HW treffen.

y33H@
2009-01-25, 21:07:22
bisher war der 3dmark immer besser für solche sachenSchwanzmark =! reales Spiel. Oder zockst du Vantage im Clan? ;D

cYa

Fetza
2009-01-26, 01:29:33
Ich habe neulich mal auf meiner gtx 280 ein physx level von ut3 getestet. Irgendwie ruckelte das abnormal. Ist das a) normal und b) wie würde sich eine 8800gts (g80) als physikbeschleuniger machen?

y33H@
2009-01-26, 01:38:07
Mit was für Settings? In 1.680 samt 4x MSAA/16:1-HQ-AF und aktiviertem PhysX dümpelst du mit einer 280 bei 25-35 Fps rum, abnormal ruckeln sollte es eigentlich nicht.

cYa

Fetza
2009-01-26, 05:35:17
Mit was für Settings? In 1.680 samt 4x MSAA/16:1-HQ-AF und aktiviertem PhysX dümpelst du mit einer 280 bei 25-35 Fps rum, abnormal ruckeln sollte es eigentlich nicht.

cYa

Je nachdem spiele ich mit 1440x900 4xaa und 4-8xhqaf, und 1920x1200 ohne aa aber ebenfalls 4-8xhqaf.

Ich frage mich halt, ob die gts noch ordentlich leistung entfalten würde als physik-gpu, da ich sie hier noch rumliegen habe (halt nur noch kein mainboard dafür)

Also bei mir ruckelte es irgendwie doch abnormal, und gezockt habe ich da in der 1440er auflösung mit oben genannten einstellungen.

boxleitnerb
2009-01-26, 07:35:04
Ich hab letzte Woche genau dasselbe probiert: UT3 PhysX Level mit meiner 8800GTX auf 1280x1024, 4xMSAA und es lief wie Butter. Irgendwas stimmt da bei dir nicht.

Fetza
2009-01-26, 09:33:19
Ich hab letzte Woche genau dasselbe probiert: UT3 PhysX Level mit meiner 8800GTX auf 1280x1024, 4xMSAA und es lief wie Butter. Irgendwas stimmt da bei dir nicht.

Hmm ok, danke - da muss ich nochmal checken was nicht stimmt. Habe mich auch schon gewundert.

Fetza
2009-01-27, 03:20:05
Ok, also ich habs jetzt nochmal getestet, nix zu machen > es ruckelt wie blöd. Der witz ist, nicht von anfang an, die ersten 1-2 minuten läufts flüssig, aber dann gehts ab, was mache ich falsch?

THEaaron
2009-01-27, 03:39:24
Hast du auch die Option in der INI korrekt geändert? Boah kann mich gar nicht mehr dran erinnern.. aber man musste einen INI Wert ändern damit die GPU-Physik richtig genutzt wird.
q

Fetza
2009-01-27, 04:12:40
Hast du auch die Option in der INI korrekt geändert? Boah kann mich gar nicht mehr dran erinnern.. aber man musste einen INI Wert ändern damit die GPU-Physik richtig genutzt wird.
q

Nee, dass habe ich nicht gemacht :) Kenn mich mit dem physx kram nicht so.

Nachtrag: Also ich rede in diesem fall aber über diese extra physx-maps, nicht die standard gpu beschleunigung für physik, sondern diesen extrem-physx mod.

Mark
2009-01-27, 04:55:50
Unter Windows 7 scheint die Kombination Radeon als Renderer und GeForce für PhysX wohl einfacher nutzbar zu sein:
http://img338.imageshack.us/img338/4305/12314956931622146599mm4.jpg (http://imageshack.us)

http://itbbs.pconline.com.cn/diy/9709947.html

Das ist doch mal ne gute Nachricht. Hat sich denn etwas am Treibermodell von W7 geändert oder warum geht das nun und vorher mit Vista nicht?

Gast
2009-01-31, 12:21:14
Das ist doch mal ne gute Nachricht. Hat sich denn etwas am Treibermodell von W7 geändert oder warum geht das nun und vorher mit Vista nicht?

vista erlaubt keine 2 verschiedenen grafiktreiber, Win7 schon.

da es für die geforce keinen physX/CUDA-only treiber gibt lässt sie sich nicht gemeinsam mit einer radeon verwenden.

ich wäre aller noch etwas skeptisch ob das ganze vernünftig funktioniert, unter XP geht es ja auch nur mit tricks.

y33H@
2009-01-31, 17:35:18
Bei mir gings nicht. Unter Win7 mit einer H4870 ließ sich eine 88GT einbauen, aber die wurde nur als "unbekanntes Gerät" angezeigt und lies sich schlicht nicht installen. Gleiches galt für ne 280.

cYa

Coda
2009-01-31, 19:23:47
Das ist doch mal ne gute Nachricht. Hat sich denn etwas am Treibermodell von W7 geändert oder warum geht das nun und vorher mit Vista nicht?
Windows 7 erlaubt unterschiedliche Treiber zusammen mit dem WDDM-1.1-Treibermodell.

Unter Vista müssen alle WDDM-Karten den gleichen Treiber verwenden.

_DrillSarge]I[
2009-01-31, 19:28:30
Windows 7 erlaubt unterschiedliche Treiber zusammen mit dem WDDM-1.1-Treibermodell.

Unter Vista müssen alle WDDM-Karten den gleichen Treiber verwenden.
würde dann karte a (bspw ati) WDDM und karte b (nv) WDM dann gehen?

deekey777
2009-01-31, 19:29:00
Also ist je ein WDDM 1.1 Treiber nötig?

EL_Mariachi
2009-02-02, 11:03:18
Ich habe neulich mal auf meiner gtx 280 ein physx level von ut3 getestet. Irgendwie ruckelte das abnormal. Ist das a) normal und b) wie würde sich eine 8800gts (g80) als physikbeschleuniger machen?

dann ist dein UT nicht ordnungsgemäß "gepatched" ...

Probier mal das...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6963297&postcount=18

.

Fetza
2009-02-03, 13:25:54
dann ist dein UT nicht ordnungsgemäß "gepatched" ...

Probier mal das...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6963297&postcount=18

.

Juppie! Du hast recht, so wars - danke! :)

Sollte ich gothic 3 eigentlich auch so patchen?

Edit: Aber mal so nebenbei angemerkt, besonders beeindrucken tun mich die physx-effekte, die epic da eingebracht hat nicht. Habe jetzt diese map heatray oder so angezockt - da sehe ich nichts wo ich denken würde, dass das ein toller zusatzeffekt wäre.

Gaestle
2009-02-03, 13:57:31
AFAIK hat G3 keine Unterstützung für Physik-Hardware, trotz PhysX-Physik-Engine. Das läuft alles in Software auf der CPU.
Das ist bei den meisten Spielen so, die auf die PhysX-Engine setzten, nur eine kleine Minderheit (wie z.B. UT3) hat auch eine Hardware-Unterstützung.

Coda
2009-02-03, 16:07:58
I[;7076248']würde dann karte a (bspw ati) WDDM und karte b (nv) WDM dann gehen?
Nö. In welchem Fall soll das denn überhaupt sinnvoll sein?

Also ist je ein WDDM 1.1 Treiber nötig?
Jepp.

kmf
2009-02-03, 22:46:58
[...]Sollte ich gothic 3 eigentlich auch so patchen?

[...]Funzt ned. Hab ich schon mal versucht. Kommt zu irgend'nem Fehler wegen eines Einsprungpunktes. :(

Coda
2009-02-04, 00:55:03
Bringt eh nix. Solange die App kein Hardware-PhysX anfordert könnt ihr DLLs kopieren bis ihr schwarz werdet ;)

BlackBirdSR
2009-02-04, 01:18:30
Bringt eh nix. Solange die App kein Hardware-PhysX anfordert könnt ihr DLLs kopieren bis ihr schwarz werdet ;)

Irgendwie wollen das viele nicht verstehen....
Es gibt eine Handvoll Spiele die PhysX-HW nutzen können. Der stark überwiegende Anteil kümmert sich einen Dreck um PPU oder GPU.

y33H@
2009-02-04, 01:41:18
Man führe sich diese Liste (http://physx.cwx.ru/) zu Gemüte.

GPU-PhysX in Vollpreis-Games? Kaum vorhanden, genauer gesagt magere vier Titel, wie bereits gelauncht sind. Die da wären:

• Crazy Machines II (n paar Level mit Fluid-Simulation)
• GRAW2 (bissl mehr Effekt-Physik bei Schüssen u. Explosionen)
• UT3 (drei Maps mit PhysX-Effekten wie Hagel)
• Mirrors Edge (berstendes interaktives Glas, Clothsimulation, dynamischer Rauch)

Dann wären da noch Warmonger (zockt eh praktisch niemand, spielerisch wie optisch öde) sowie Cryostasis (bisher nur in Russland verfügbar, zudem ne Techdemo, wird bei uns wohl untergehen).

Wirklich spaßig ist GPU-PhysX alleine bei Mirrors Edge.

cYa

deekey777
2009-02-04, 01:45:23
GRAW2 ist eh ein Rückschritt, was Kaboom-Effelte angeht. NV wäre gut beraten, auch den ersten Teil um GPU-PhysX zu erweitern (ist aber IMO nicht nötig, da Havok auf der CPU eine gute Arbeit leistet).

Gast
2009-02-17, 13:16:14
Ist es eigentlich inzwischen möglich, Physx auf einer NV und die Grafik auf einer ATi laufen zu lassen? Ich meine ich habe mal irgendwo gelesen, dass das unter Windows 7 ging. Allerdings wahrscheinlich nur als Bastellösung? Wie siehts mit XP aus?

y33H@
2009-02-17, 21:00:07
Ist ne übelste Bastellösung und idR nicht möglich, XP das gleiche.

cYa

Gast
2009-02-17, 21:32:58
Also ich muss mal sagen Mirrors Edge mit Physx sieht schon geil aus. Hab ne 260 und einmal mit und ohne gezockt. Finde es aber Schade das ATI nicht auf den Physx Zug aufgesprungen ist. Mein Bruder hat ne 4870 und sieht leider nicht die Effekte. Jetzt denkt er drüber nach sich ne 285 zu holen. Man muss sagen Nvidia hat hier ein klares Ass im Ärmel! Klar Ati hat Havok, aber alle großen Publisher setzen auf Physx. Ich freue mich schon auf die nächsten Physx Games.

AnarchX
2009-07-28, 09:10:56
Ein sehr ausführliches Review zu PhysX in aktuellen Spielen:
http://translate.google.ru/translate?hl=ru&sl=auto&tl=en&u=http%3A%2F%2Foverclockers.ru%2Flab%2F33760.shtml

BlackBirdSR
2009-07-28, 09:28:35
Ein sehr ausführliches Review zu PhysX in aktuellen Spielen:
http://translate.google.ru/translate?hl=ru&sl=auto&tl=en&u=http%3A%2F%2Foverclockers.ru%2Flab%2F33760.shtml

Weisst du, wo es bei mir aufhört und ich in die Luft gehe?
Wenn jemand 86% mehr Performance durch GPU-PhysX messen will, das Spiel aber gar kein PhysX nutzt (Dead Space).

Wie soll ich jetzt die anderen Ergebnisse einschätzen? Auch erfunden?

Zumindest kommen bei den üblichen Verdächtigen (PhysX aber kein HW-Support) nicht mehr Performance raus, auch wenn die Seite nicht kapiert, warum das so ist ;)

AnarchX
2009-07-28, 09:40:39
In der Tat etwas merkwürdige Werte, zumal Havok Games wie Kane&Lynch hier auch skalieren sollen.

deekey777
2009-07-28, 12:08:48
Wenn man schon Probleme bekommt, auf einem System mit Vista x64 eine GTS250 zum Laufen zu bringen, in dem schon eine HD4800 steckt, und sich noch darüber wundert, dann braucht man sich Gedanken über die Qualität des Tests erst gar nicht zu machen.
Die Werte sind wirklich sehr unlogisch, und der Redakteur hat wirklich null Ahnung, was er da gemessen hat.

BlackBirdSR
2009-07-28, 12:30:11
Bin auch über das Fazit überrascht:

Man nehme alle bekannten PhysX-Spiele, ein paar normale Games dazu und wundere sich dann, dass so viele Spiele PhysX unterstützen. AUch der Kommentar bezüglich den Radeons wirkt etwas zu wenig vorsichtig.

Eher ein:
PhysX ist toll -> ich mach nene Artikel darüber
als
Artikel darüber -> oh PhysX ist ja toll.

Und ich bin normal niemand der jemandem Vorsatz vorwirft

dildo4u
2009-08-07, 15:47:51
GPU PhysX in Batman Arkham Asylum Demo Video

http://www.youtube.com/watch?v=vINH6Z9kqgI&fmt=22

boxleitnerb
2009-08-07, 16:07:39
Der Nebel/Dampf ist geil! Wurde sowas nicht auch schon damals für Unreal 2 versprochen?

Daredevil
2009-08-07, 16:26:45
Schreiben die in Gotham City auf Leinentüchern?

Aber die anderen Effekte sind sehr nett. :)

Gimmick
2009-08-07, 17:01:26
Ich finds nur immer schade, dass ohne PhysX viele Elemente komplett weggelassen werden. Dadurch verliert das Level imo an Athmosphäre. Denn nur weil der Nebel z.b. nicht interagiert muss man ihn nicht ganz weglassen =/

boxleitnerb
2009-08-07, 17:11:24
Es wird Zeit, dass es einen offenen Physik@GPU-Standard gibt. Da gewinnt jeder (außer NVidia, die damit ihren Vorteil verlieren). Mehr Spiele mit solcher Physik, wenn nicht gleich alle Neuentwicklungen, wenn es dann auf allen Grafikkarten mit genügend Leistung läuft.

Schlammsau
2009-08-07, 18:14:10
Reine Marketing Entscheidung....90% der wegelassenen Effekte wären auch ohne PhysX möglich gewesen. Funken, Nebel, zerstörbare Fliesen hat man doch schon tausend mal in anderen Games gesehn. *Kopfschüttel*

boxleitnerb
2009-08-07, 18:27:26
Abgesehen vom Nebel hast du sicher Recht. Ich wüsste nicht, wo es sowas schonmal gab, dass er sich teilt, wenn man durchläuft.
Was mich etwas stört, ist dass auch hier fast alle Effekte aufgesetzt wirken. Wann gibt es endlich mal ein Spiel, in das PhysX o.ä. vollkommen integriert ist und auch das Gameplay verändert? Hoffe, wenn eine gemeinsame Basis da ist, wird auch das kommen.

Klingone mit Klampfe
2009-08-07, 18:51:49
In UT2003 und UT2004 verwirbeln Projektile dynamisch Nebel und Rauchspuren anderer Projektile.

@boxtleitnerb: Nie, denn dann würden es die ATI-Besitzer nicht kaufen.

deekey777
2009-08-07, 19:15:12
Ehrlich gesagt, finde ich, dass die zusätzlichen Effekte (bis auf Papier) n stimmig sind (oder man hat sich richtig Mühe gemacht, denn in Terminator Salvation sah das ganz anders aus).

In STALKER CS kann man auch den Dampf beeinflussen, aber bei Weitem nicht so schön wie im gezeigten Video (Der Wasserdampf an sich sieht in CS grausig aus). Platzende Kacheln gab's zB in der Präsentation von Epic zur Engine in GoW2 (das Spiel nutzt was? genau PhysX).
Wenn die gezeigten Effekte auch in Konsolenversionen fehlen, so kann man nicht gleich sagen, sie wären bei der PC-Version ohne einen PhysX-Beschleuniger ausgelassen, aber ich glaube schon, dass mehr möglich ist.

Armaq
2009-08-07, 20:25:19
Sieht imho doch sehr aufgesetzt aus. Physik ja, aber so nicht. Der Bewusstlose müsste im Nebel eingehüllt werden etc. und seine Kameraden drüber stolpern, aber so ist es einfach nur Effekthascherei. Finde ich eher arm, als förderlich.

Edit: Die Funken sind ja wohl sowas von lächerlich...

dildo4u
2009-08-07, 20:29:18
Ich finde eher es sieht ohne die Effekte vorallem den Nebel "Nackt" aus wird zeit für ne GTX 275.Absolut richtig die mher Power der Karten am PC zu nutzen es spricht absolut nichts dagegen,wenn man nicht grad roter Fanboy ist.(Nur von da gibts negative Aussagen)Man sollte sich eher freuen das es Entwickler gibt die noch was fürn Pc Extra machen müssen tun sie es nämlich nicht.

Schlammsau
2009-08-07, 20:33:06
Ich finde eher es sieht ohne die Effekte vorallem den Nebel "Nackt" aus wird zeit für ne GTX 275.

Tut es auch! Die Frage ist nur, warum sind die Effekte ohne PhysX, evtl in einfacherer Form nicht implementiert?

dildo4u
2009-08-07, 20:35:11
Tut es auch! Die Frage ist nur, warum sind die Effekte ohne PhysX, evtl in einfacherer Form nicht implementiert?
Wärs so einfach hätten es sicherlich mher Games.Und einfacher wärs zu statisch so muss es mindestens simuliert werden.

Armaq
2009-08-07, 20:36:04
Ich finde eher es sieht ohne die Effekte vorallem den Nebel "Nackt" aus wird zeit für ne GTX 275.Absolut richtig die mher Power der Karten am PC zu nutzen es spricht absolut nichts dagegen,wenn man nicht grad roter Fanboy ist.(Nur von da gibts negative Aussagen)Man sollte sich eher freuen das es Entwickler gibt die noch was fürn Pc Extra machen müssen tun sie es nämlich nicht.
Ich hab zwar seit einer Woche ne 4870, die ich klasse finde, aber ich habe auch eine 9800GTX+ in RMA. Also ich könnte wenn ich wollte, aber mir gehts eher darum, dass es wirklich aufgesetzt wirkt. Das was gezeigt wurde, kann man ohne PhysX machen, da bin ich mir sicher.

Schlammsau
2009-08-07, 20:37:18
Wärs so einfach hätten es sicherlich mher Games.
Denk ich nicht, da will nVidia nur ihr PhysX verkaufen. ;)
Die Effekte sind bis auf den etwas schöneren Nebel, schon in vielen nicht PhysX-Games vorgekommen.

dildo4u
2009-08-07, 20:44:30
Denk ich nicht, da will nVidia nur ihr PhysX verkaufen. ;)
.
Nvidia hindert keinen Entwickler solche Effekte auf CPU Basis einzubauen.Für die Nebelsim bräuchte man vieleicht Quads,die sind aber auf die Masse gesehen kaum verbreitet also nutzt man das was beim Zocker PC auf jeden fall da ist eine GPU stand mindestens 2006 also z.b G80,G92,G200.

Schlammsau
2009-08-07, 20:58:04
Nvidia hindert keinen Entwickler solche Effekte auf CPU Basis einzubauen.Für die Nebelsim bräuchte man vieleicht Quads,die sind aber auf die Masse gesehen kaum verbreitet also nutzt man das was beim Zocker PC auf jeden fall da ist eine GPU stand mindestens 2006 also z.b G80,G92,G200.
Es ist ein "The Way It's Meant To Be Played" Titel.

dildo4u
2009-08-07, 21:01:35
Es ist ein "The Way It's Meant To Be Played" Titel.
Darum gehts doch gar nich auch bei nicht "The Way It's Meant To Be Played" Titeln sieht man einen solchen Effekt nicht auf CPU Basis.

Schlammsau
2009-08-07, 21:02:27
Darum gehts doch gar nich auch bei nicht "The Way It's Meant To Be Played" Titeln sieht man einen solchen Effekt nicht auf CPU Basis.

Gehts dir nur um diesen einen Effekt?