PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 2 3 4 5 6 [7] 8 9

Winter[Raven]
2010-03-20, 19:50:57
Wollen die mich auf den Arm nehmen? Was ist mit den Sli Notebook z.B. mit zwei 8700 Gts.

AnarchX
2010-03-20, 19:52:58
Da werden auch die eigenen kleineren Lösungen nicht mithalten können.
Trotzdem sollte ein neuer PhysX-Treiber nicht GPU-PhysX für ältere Titel deaktivieren, deren Anforderung geringer sind.
Im Thread wurde der Umstand nun auch auf einer GT 240M bestätigt.

Winter[Raven]
2010-03-20, 19:58:08
Lt. GPU-Z und dem Treiber...

http://img185.imageshack.us/img185/6086/physix.gif

Der Nvidias Seite dürfte es ned mehr sein.

AnarchX
2010-03-20, 20:02:26
Mit PhysX 9.10.0222?
Entweder SLI ist ausgenommen oder man hat bei den alten GF8M die Entfernung der Unterstützung vergessen.:D

Winter[Raven]
2010-03-20, 20:10:53
ok.. my fault... nix mehr mit Physix!

Gast
2010-03-20, 21:02:29
Ich finde dies absolut legithim, schließlich wurden dies Grafikeinheiten niemals mit PhysX beworben.

Gast
2010-03-24, 11:23:42
Wer hätte das gedacht!?

Nvidia (das heilige Unternehmen, dass man nur lieben kann) schaltet die PhysX-Funktionalität weiter ab. Bald kommen auch noch die Desktopkarten der GF8 und dannach die der GF9-Reihe dran.
Ist aber auch gut so, dann braucht man beim Grafikkartenkauf auch nicht mehr so auf eine PhysX-fähige Karte achten.

Liszca
2010-03-24, 19:47:39
Ist aber auch gut so, dann braucht man beim Grafikkartenkauf auch nicht mehr so auf eine PhysX-fähige Karte achten.

Jepp dachte ich mir auch als ich auf die Alternative zu nvidia umgestiegen bin.

Winter[Raven]
2010-03-30, 09:12:58
So, neuester NV Treiber + letztes Phyxs Paket.

http://img222.imageshack.us/img222/6086/physix.gif

Funkzt wieder :) und die NVIDIA PhysX Particle Fluid Demo läuft mit HW Support :)

Gast
2010-04-01, 18:05:30
Wieso hat die 8600er keinen OpenCL-Support?

mapel110
2010-04-21, 19:32:06
http://extreme.pcgameshardware.de/quickpolls/96203-physx-cuda-knecht-nutzt-du-eine-geforce-als-sekundaerkarte-15.html#post1746813
10% nutzen eine Geforce für PhysX. Kein schlechter Schnitt für ein sinnloses Feature.

Sorkalm
2010-04-21, 19:42:59
Allerdings, ganze Arbeit von Nvidia kann man da sagen.

boxleitnerb
2010-04-21, 19:48:30
Naja wir wissen alle, dass so eine Umfrage nicht repräsentativ ist. Klar sind in Hardwareforen prozentual mehr Enthusiasten unterwegs. Selbst wenn man eine Umfrage bei 3dcenter, pcg, luxx etc machen würde, könnt ich mir vorstellen, dass viele doppelt und öfters angemeldet sind.

Gast
2010-04-21, 20:03:44
10% in einem Spiele (Enthusiasten) Forum?
Find ich nicht sonderlich berauschend. Die 55% die für "ich kann auf PhysX verzichten" gevoted haben, sind da schon beeindruckender.

GPU-PhysX hat noch lange nicht den stellenwert den sich nvidia wünscht.
Aus gutem Grund wie ich finde.

LovesuckZ
2010-04-21, 20:14:51
Richtig - denn der Grund heißt nVidia. Hätte AMD etwas aufzubieten, wären doch die ganzen Foren doch überschwemmt von Lobeshymnen.

boxleitnerb
2010-04-21, 20:16:02
Ich hab schonmal in diesem Thread gefragt, aber noch keine Antwort erhalten:
Weiß jemand, ob und wann es erste Spiele/Anwendungen gibt, die GPU-Physik per OpenCL unterstützen?

Gast
2010-04-21, 20:18:31
Warum sollte es die geben?
Interessiert doch keinen. Entscheidend ist, das man damit wirbt, das es möglich ist, es aber zu pushen ist unnötig.

boxleitnerb
2010-04-21, 20:23:25
Damit Radeon-Nutzer auch was davon haben? :)
Eine GPU-beschleunigte Zerstörungsphysik in Spielen wäre schon cool. Und ich rede nicht von Effektphysik, das deckt PhysX ja momentan schon gut ab. Trümmer und so, die dann auch liegenbleiben und mit anderen Objekten und dem Spieler interagieren - und nicht nach 5 Sekunden verschwinden.

Ich frag halt deshalb, weil AMD das doch groß angekündigt hat vor Ewigkeiten und es kommt gar nix.

Gast
2010-04-21, 20:31:12
Und wer soll das realisieren?
Mehr Zerstörphysik wirds erstmal nicht geben, nach HL2 ist dort eh Ebbe, Crysis hat zwar gezeigt das auch mehr geht aber nutzt es nicht aus.
Und das die Entwickler OpenCL nutzen muss man ihnen erstmal schmackhaft machen, freiwillig wird das nichts.

LovesuckZ
2010-04-21, 20:32:25
Damit Radeon-Nutzer auch was davon haben? :)

Denen ist Effektphysik egal.


Eine GPU-beschleunigte Zerstörungsphysik in Spielen wäre schon cool. Und ich rede nicht von Effektphysik, das deckt PhysX ja momentan schon gut ab. Trümmer und so, die dann auch liegenbleiben und mit anderen Objekten und dem Spieler interagieren - und nicht nach 5 Sekunden verschwinden.

Genau das nennt man Effekt-Physik und ist mit GPU-PhysY heute schon realität.


Ich frag halt deshalb, weil AMD das doch groß angekündigt hat vor Ewigkeiten und es kommt gar nix.

Laut Huddy soll es ein Spiel mit OpenCL in diesem Jahr geben.

boxleitnerb
2010-04-21, 20:37:30
Denen ist Effektphysik egal.

Nur weil sie es nicht haben. Ist doch immer so.


Genau das nennt man Effekt-Physik und ist mit GPU-PhysY heute schon realität.

Hm, ich glaube man sollte die Linie da nicht zu hart ziehen. Wenn Spieler A in eine Wand ein Loch sprengen oder mit einer einstürzenden Mauer Feinde töten kann, und Spieler B nicht, ist das Gameplayphysik.
PhysX ist prima für rein optische Effekte - damit kann ich mich inzwischen arrangieren. Aber "Effekte", die auch auf das Gameplay Auswirkungen haben (können), müssen entweder durch die CPU oder OpenCL berechnet werden, damit nicht unterschiedliche Spielerlebnisse zustande kommen. Red Faction 3 zeigt, dass krasse Zerstörungsorgien mit einem Quadcore möglich sind, aber selbst da gibt es viele Einbrüche, wenn ordentlich was los ist. Wenn eine GPU ausreichend Reserve hat, könnte man das und noch mehr drauf berechnen.
Optik ist schön und gut, Interaktivität und Lebendigkeit einer Spielwelt ist aber auch wichtig - da muss noch viel getan werden.


Laut Huddy soll es ein Spiel mit OpenCL in diesem Jahr geben.
Weißt du welches?

Gast
2010-04-21, 21:24:36
Genau das nennt man Effekt-Physik und ist mit GPU-PhysY heute schon realität.


Das Zeug interagiert nicht mit dem Spieler, es reagiert oft noch nicht einmal mit anderen Physikobjekten.

N0Thing
2010-04-22, 00:36:53
Ich erwarte, daß es irgendwann eine Firma geben wird, die eine Physiksoftwarelösung anbieten wird, die über eine gemeinsame Basis der beiden Hersteller Nvidia/ATI realisiert werden kann. Fraglich ist, ob das Produkt sich technisch und wirtschaftlich durchsetzen kann.
Da OpenCL und DirectCompute (falls mit letzterem überhaupt möglich ist) noch relativ neu sind, bin ich auf die nächsten 2-3 Jahre gespannt. Ich hoffe aber, daß es in diesem Zeitraum mehr Bewegung in diesem Bereich gibt.

Gast
2010-04-22, 11:01:40
Das ist nett:

http://www.xbitlabs.com/news/video/display/20090929095918_Nvidia_Reportedly_Limits_PhysX_Support_to_Nvidia_Only_Graphics_Su b_Systems.html

Gast
2010-04-22, 11:04:14
Ich hoffe AMD und Intel arbeiten zusammen und machen ihre produkte zu NVs Grafikkarten inkompatibel.
Sei es auf ihren Mainboards oder in Software.

Sozusagen als Antwort auf PhysX und Co.

N0Thing
2010-04-22, 11:21:46
Das Thema wird bald ein Jahr alt und wurde schon mehr als einmal in diesem Thread diskutiert.

Um gleich zu ziehen, müßte AMD schon GPU-Physik auf ihren eigenen Karten deaktivieren, wenn eine NV-Karte im Rechner steckt und bis das passiert, wird es scheinbar noch eine längere Zeit brauchen...

Grestorn
2010-04-22, 14:08:00
Ich hoffe AMD und Intel arbeiten zusammen und machen ihre produkte zu NVs Grafikkarten inkompatibel.
Sei es auf ihren Mainboards oder in Software.

Sozusagen als Antwort auf PhysX und Co.

Das ist nichts neues. Intel hat schon zweimal neue Prozessorgenerationen herausgebracht und nVidia per (fehlender) Lizenz verboten, dafür Chipsätze anzubieten.

Tut nicht so, als wäre nVidia bös und alle anderen gut. nVidia hat Geld für PhysX ausgegeben, für den Kauf und für die Weiterentwicklung, auch für CUDA usw. Es gibt für andere Firmen kein automatisches Recht, an dieser Investition zu partizipieren.

ATI würde umgekehrt nicht anders vorgehen.

mkh79
2010-04-22, 14:27:48
Grestorn, nvidia verbietet mir als User aber ja eine ATI als Grafikrenderer einzusetzen, obwohl es funktionieren würde.
Jeder wird verstehen, dass nvidia seine Investition (man mag es gut finden, dass sie auf eine proprietäre Schnittstelle setzen, oder nicht) schützen will. Aber dafür würde es genügen, als PhysX-Karte eine nvidia einsetzen zu müssen, als zusätzliche Karte.

Der Vergleich mit den Chipsatzlizensen hinkt an dieser Stelle IMO.

Grestorn
2010-04-22, 14:46:01
Grestorn, nvidia verbietet mir als User aber ja eine ATI als Grafikrenderer einzusetzen, obwohl es funktionieren würde.

Diese Praxis habe ich in diesem Thread auch schon oft genug kritisiert. Ich denke, nVidia schadet sich damit mehr, als es ihnen nutzt. Dennoch ist es nicht ganz vergleichbar mit "Motherboard inkompatibel machen". Schließlich läuft die nVidia Karte ja mit einer ATI Karte zusammen in einem Rechner, und wenn man den Monitor an der nVidia Karte anschließt, kriegt man auch PhysX.

Die Forderung kam vom Gast und nicht von mir. Ich habe ja nur darauf geantwortet. Dass es nicht ganz passt, stimmt sicher... :)

Gouvernator
2010-04-22, 20:59:51
Dark Void stürzt mit der GTX480 mit PhysX ab... Die haben sogar kürzlich ein Patch herausgebracht um das alte PhysX Zeug mit der neuen PhysX Software kompatibler zu machen - funktioniert trotzdem nicht.
Und dann verliert man ständig PhysX Kompatibilität wenn man ältere Spiele mit PhysX installiert,die überschreiben einfach die neusten Treiber mit ihren alten und dann muss ich jedes Mal per Hand PhysX neuinstallieren. Sieht richtig unprofessionell aus. Wenn schon nach halben Jahr alles inkompatibel mit den alten Versionen ist.

Grestorn
2010-04-22, 21:14:41
Das ist nonsense. Kompatibilität geht immer nur in eine Richtung, neuere Treiber/Bibliotheken sollten auch ältere Applikationen unterstützen, aber nicht anders herum. Ist bei Direct3D ganz genauso. Porbier mal ein aktuelles D3D Spiel mit den DirectX Treibern von vor einem viertel Jahr.

Und wenn ein älteres Spiel neuere PhysX Treiber überschreibt, dann liegt das am unfähigen Installationsprogramm des alten Spiels - aber auch an nVidia, weil sie offenbar kein standardisiertes Installationsverfahren für PhysX vorschreibt / anbietet, wie das MS mit DirectX macht.

Gouvernator
2010-04-22, 21:28:13
Lehne dich da nicht zu weit aus dem Fenster. Es geht konkret um Dark Void wo das Spiel trotz Patches abstürzt. Ohne diesen hier war das Spiel mit dem Nvidias PhysX Patch gar nicht spielbar, weil schon beim Jetpack fliegen gab es einen Absturz.

Mit diesem Patch kann man noch spielen aber es kommen immer noch Abstürze bei komplizierten Szenen mit viel Physik Effekten.
An earlier version of PhysX System Installer, called "Game System Installer", was inadvertently provided and subsequently incorporated into the released version of Dark Void for PC. This version is not compatible with some accelerated PhysX configurations and features, most notably the ability to turn on the medium and high PhysX setting within the game.

Please use the new PhysX System Installer patch below which will automatically cleanup and update the PhysX subsystem to resolve this issue.
http://www.4players.de/4players.php/download_info/Downloads/Download/54688/Dark_Void/PhysX_System_Installer_Patch.html

Schrotti
2010-04-22, 21:33:54
Und wenn ein älteres Spiel neuere PhysX Treiber überschreibt, dann liegt das am unfähigen Installationsprogramm des alten Spiels - aber auch an nVidia, weil sie offenbar kein standardisiertes Installationsverfahren für PhysX vorschreibt / anbietet, wie das MS mit DirectX macht.

Und was mache ich wenn es genau andersherum ist?

Ich habe jetzt ein aktuelles PhysX auf dem Rechner aber Medal of Honar Airborne lässt sich nicht installieren.
Deinstalliere ich PhysX und starte dann die Install von MoH dann läuft die Installation. Anschließend kann ich auch das aktuelle PhysX wieder installieren und nutzen.

So was steht nirgends und doch wird der User mit so einem Mist konfrontiert.

Gast
2010-04-22, 22:20:47
Oo Super Schnittstelle, das nenne ich mal Fortschritt.

Ich habe diese komische PhysX-Treiberklamotte von Anfang an kritisiert.
Die hätten das wie stinknormale Physikengines direkt ins Spiel einbauen sollen.

Nur dann kann NV nicht mehr nachträglich den PhysX-Support abschalten.

Iruwen
2010-04-22, 23:13:43
Ist doch nicht Nvidias Schuld wenn MoH eine bestimmte Treiberversion erwartet. Von EA bin ich auch nicht gerade verwöhnt was die Qualität der Software angeht.

Gouvernator
2010-04-23, 06:51:28
Ist doch nicht Nvidias Schuld wenn MoH eine bestimmte Treiberversion erwartet. Von EA bin ich auch nicht gerade verwöhnt was die Qualität der Software angeht.
Es ist Nvidias Schuld allemal. Ich muss ab sofort nach jedem Spiel das ich installiere kontrollieren ob PhysX geht oder nicht. Das heißt GPUZ kurz anschmeißen und dann nochmal zur Kontrolle diese Demo mit dem Boot auf dem Fluss. Und bei ca. 50% aller Fälle muss ich dann PhysX neu installieren. Und wenn die Sache wie mit Dark Void kommt wo das Spiel mit PhysX gar nicht läuft, dann platz auch mir der Kragen.

Iruwen
2010-04-23, 09:49:42
Also wenn ich ein Programm schreibe das dein WINDOWS Verzeichnis löscht ist das Microsofts Schuld? :rolleyes:

DrFreaK666
2010-04-23, 13:34:29
Also wenn ich ein Programm schreibe das dein WINDOWS Verzeichnis löscht ist das Microsofts Schuld? :rolleyes:

nv könnte ja eine Abfrage in das Installationsprogramm einfügen:
If PhysX-Version = new then skip installation

Gast
2010-04-23, 16:33:17
Also wenn ich ein Programm schreibe das dein WINDOWS Verzeichnis löscht ist das Microsofts Schuld? :rolleyes:

Kommt der Installer für PhysX, welcher innerhalb von Spiele-Installationsroutinen aufgerufen wird, nicht von Nvidia selbst?

Grestorn
2010-04-23, 16:55:16
nv könnte ja eine Abfrage in das Installationsprogramm einfügen:
If PhysX-Version = new then skip installation

Das Installationsprogramm ist ja wohl nicht von nVidia, oder? Das ist doch das Problem.

boxleitnerb
2010-04-23, 16:59:13
Das für PhysX schon. Könnte man der übergeordneten Spielinstallationsroutine vorgaukeln, dass die Installation erfolgreich war (auch wenn sie gar nicht stattgefunden hat, weil die schon vorhandene Version neuer ist)?

Grestorn
2010-04-23, 17:23:58
Wenn der Installer wirklich von nVidia ist (ich meine jetzt das, was mit dem fraglichen alten Spiel mitgeliefert wird) und nicht das Spiel einfach die benötigten Dateien selbst installiert, dann ist das extrem schwach von nVidia.

Jeder Installer muss unbedingt prüfen, ob nicht eine neuere Version von einer gemeinsam genutzten Bibliothek bereits im System vorhanden ist. Oder die "Side-By-Side" Installation mehrerer Versionen in Vista/Win7 nutzen.

Tritt das Problem eigentlich auch in Vista/Win7 auf? Gerade da sind ja eigentlich Mechanismen vorhanden, die genau das verhindern sollen...

Schrotti
2010-04-23, 22:54:24
Das Installationsprogramm ist ja wohl nicht von nVidia, oder? Das ist doch das Problem.

Hmm.

Grestorn
2010-04-24, 08:20:08
Hmm.

Nun, das war dann wohl eher noch Ageia.

Schwer zu sagen, wer da Mist gebaut hat. Auf jeden Fall richtig unschön und sollte von nVidia adressiert werden.

Schrotti
2010-04-24, 09:37:21
Das Spiel ist von 2007 also noch nicht so alt.

Die Install startet auch nur wenn PhysX vorher deinstalliert ist ansonsten passiert gar nichts.

Grestorn
2010-04-24, 09:54:12
Die Install startet auch nur wenn PhysX vorher deinstalliert ist ansonsten passiert gar nichts.

Na, dann passt's doch, oder?

Schrotti
2010-04-24, 10:52:42
Wenn du das aber nicht weißt dann wunderst du dich warum es nicht weiter geht.

Kommt ja keiner auf die Idee vorher PhysX zu deinstallieren damit man ein Spiel installieren kann.

mapel110
2010-04-28, 16:40:19
http://www.xbitlabs.com/news/multimedia/display/20100428073151_Nvidia_Mulls_Over_Porting_PhysX_to_OpenCL.html
“In the future it is a possibility that we could use OpenCL, but at the moment CUDA works great. [Our GPU] architecture allows for acceleration by other things like OpenCL. Nvidia works very closely with The Khronos Group, actually Neil Trevett is president of the group and he’s part of Nvidia, so we’ve been driving that standard also, and it’s an excellent standard,” said Nadeem Mohammad, a director of PhysX product management at Nvidia, in an interview with Bit-tech web-site.

However, Mr. Mohammad warned about possible performance issues with non-Nvidia hardware, claiming that ATI is much behind Nvidia when it comes to GPU computing.
;)

Gast
2010-04-28, 16:43:11
[url]
However, Mr. Mohammad warned about possible performance issues with non-Nvidia hardware, claiming that ATI is much behind Nvidia when it comes to GPU computing.
;)

Die Frage ist nur welchen Grund das hat.

AnarchX
2010-04-28, 17:17:38
Published on 27th March 2009 by Ben Hardwidge
http://www.bit-tech.net/news/hardware/2009/03/27/nvidia-considers-porting-physx-to-opencl/1

Gast
2010-04-28, 18:00:22
However, Mr. Mohammad warned about possible performance issues with non-Nvidia hardware, claiming that ATI is much behind Nvidia when it comes to GPU computing.
;)


Warum weiß ich nur jetzt schon das ein hundsmiserabler OpenCL-Pfad kommen wird und die NV-Karten natürlich weiter den besseren CUDA-Pfad verwenden können? Physik braucht Rechenleistung, da geht NV baden, es sei denn man Spiel mal wieder mit unfairen Mitteln.

deekey777
2010-04-28, 18:21:58
Warum weiß ich nur jetzt schon das ein hundsmiserabler OpenCL-Pfad kommen wird und die NV-Karten natürlich weiter den besseren CUDA-Pfad verwenden können? Physik braucht Rechenleistung, da geht NV baden, es sei denn man Spiel mal wieder mit unfairen Mitteln.
Sollen sie doch machen. Denn man hat so legalen Zugriff auf den Code.

Malabolge
2010-04-28, 22:15:24
Sollen sie doch machen. Denn man hat so legalen Zugriff auf den Code.

Nvidia wird nie eine Open-CL Adaption herausbringen.
Eher säuft der Teufel Weihwasser.

Die Cashcow muss noch ne weile gemolken werden !

Gast
2010-04-28, 22:24:04
Sehe ich genauso, PhysX ist Druckmittel und Kaufargument in einem.
Derzeit kann NV AMD eigentlich nur damit Marktanteile abjagen.

y33H@
2010-04-28, 22:37:28
Im Falle von Metro funktioniert CPU-PhysX übrigens recht gut und skaliert brav von vier auf sechs Kerne (Multithreading!), überaus performant ist es aber nicht - GPUs können das halt einfach besser.

Grestorn
2010-04-29, 07:47:46
Hm, was ist jetzt mit der Behauptung, nVidia hätte PhysX@CPU kastriert, so dass es nur auf einem Core läuft? Oopsie...

Gast
2010-04-29, 07:54:26
Hm, was ist jetzt mit der Behauptung, nVidia hätte PhysX@CPU kastriert, so dass es nur auf einem Core läuft? Oopsie...


War wahrscheinlich zu offensichtlich. Man lernt ja dazu ^^

Grestorn
2010-04-29, 07:59:16
War wahrscheinlich zu offensichtlich. Man lernt ja dazu ^^

Ah ja, jetzt hat nVidia das schnell nachgetragen... Dann müssten ja auch andere PhysX@CPU Spiele auf einmal profitieren, oder?

Mannomann. Die Verschörungstheoretiker können einen schon auf den Zeiger gehen. Die total logische und von keinem Techniker widersprochene Erklärung, dass der Applikationsentwickler selbst dafür zuständig ist, mehrere PhysX Threads anzulegen damit das auf die Cores skalieren kann, ist wohl nicht einfach genug.

Gast
2010-04-29, 08:31:44
Im Falle von Metro funktioniert CPU-PhysX übrigens recht gut und skaliert brav von vier auf sechs Kerne (Multithreading!), überaus performant ist es aber nicht - GPUs können das halt einfach besser.

Nicht performant? Gerade PCGH beweist doch das Gegenteil in ihrem Heft. Ich bekomme PhysX in Metro mit meiner 5870 nahezu for free über die CPU.

Hm, was ist jetzt mit der Behauptung, nVidia hätte PhysX@CPU kastriert, so dass es nur auf einem Core läuft? Oopsie...

Ja, mit Metro gibt es endlich ein Spiel mit Multi-Core-Support, und ja da läuft es auch auf ATi-Karten sehr gut.

Gast
2010-04-29, 08:40:41
http://img52.imageshack.us/img52/9646/metro2033physx.png

http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2

Gast
2010-04-29, 09:23:54
http://img52.imageshack.us/img52/9646/metro2033physx.png

http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2

CPU schneller als GPU. ;D

Gast
2010-04-29, 09:32:54
Hm, was ist jetzt mit der Behauptung, nVidia hätte PhysX@CPU kastriert, so dass es nur auf einem Core läuft? Oopsie...

Haben sie auch, man sollte mal abwarten wie es weitergeht.
Bei Metro weiß man noch nicht inwieweit PhysX pro Thread gedrosselt wurde, man sieht nur, dass Multithreading deutlich Performance bringt.

Zu früh freuen würde ich mich auch nicht, das ist ein Spiel von vielen und das nächste könnte wieder total krüppelig laufen (auf Mafia2 schiel).

Odal
2010-04-29, 09:42:55
CPU schneller als GPU. ;D

wenn du in metro adv. physx auf on stellst aber im physx treiber auf CPU physx hast du nicht den gleichen content wie bei GPU physx

ich hab diesbezüglich auch schon mal ein youtube video irgendwo (vielleicht in diesem thread?) gepostet

Gast
2010-04-29, 09:57:39
wenn du in metro adv. physx auf on stellst aber im physx treiber auf CPU physx hast du nicht den gleichen content wie bei GPU physx

ich hab diesbezüglich auch schon mal ein youtube video irgendwo (vielleicht in diesem thread?) gepostet

Wieso nicht?

Bucklew
2010-04-29, 10:43:12
Wieso nicht?
Weil die GPU mehr Leistung hat und daher mehr Content darstellbar ist. Damit sind die Werte zwischen GPU und CPU nicht mehr vergleichbar.

Gast
2010-04-29, 10:44:30
Hm, was ist jetzt mit der Behauptung, nVidia hätte PhysX@CPU kastriert, so dass es nur auf einem Core läuft? Oopsie...

http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Oopsie zurück.

y33H@
2010-04-29, 10:48:40
Nicht performant? Gerade PCGH beweist doch das Gegenteil in ihrem Heft. Ich bekomme PhysX in Metro mit meiner 5870 nahezu for free über die CPU.Nope. Sobald du mit Granaten um dich wirfst, saufen die Fps ab.
Oopsie zurück. Pfff, keine MT-Version von PhysX.

Gast
2010-04-29, 10:58:46
Nope. Sobald du mit Granaten um dich wirfst, saufen die Fps ab.
Pfff, keine MT-Version von PhysX.

Ach, und warum nutzt man solch veralteten Käse noch? Genau, weil's gewollt ist.
Fazit: Mit PhysX ist immer irgendwo etwas faul und nicht nachvollziehbar. Beim einem Spiel läuft's auf der CPU einigermaßen, dafür brechen NVs Karten übel ein. Beim nächsten läuft's wieder total beschissen auf der CPU, es fehlen etliche Effekte und man hat als nicht NV-Nutzer im Grunde genommen eine schlechtere Physik als 2004 in HL2.

Hoffentlich geht diese Seuche bald baden, bevor der PC endgültig zu Grabe getragen werden kann.

Bucklew
2010-04-29, 11:01:45
Fazit: Mit PhysX ist immer irgendwo etwas faul und nicht nachvollziehbar. Beim einem Spiel läuft's auf der CPU einigermaßen, dafür brechen NVs Karten übel ein. Beim nächsten läuft's wieder total beschissen auf der CPU, es fehlen etliche Effekte und man hat als nicht NV-Nutzer im Grunde genommen eine schlechtere Physik als 2004 in HL2.
Ja wenn man natürlich unterschiedlichen Content (=unterschiedliche Rechenlast), unterschiedliche Implementierungen (=Multithreading oder eben nicht) außer Acht lässt, dann ist das ganze natürlich auch nicht nachvollziehbar. Wenn man es allerdings mal allumfassend anschaut, sieht man Recht schnell, warum es in manchen Spielen eben so und in manch anderen so läuft. Wobei sicherlich nicht vergessen werden sollte, dass es manche natürlich auch nicht verstehen WOLLEN - Populismus ist halt angesagt heutzutage :freak:

Gast
2010-04-29, 11:13:06
Ja wenn man natürlich unterschiedlichen Content (=unterschiedliche Rechenlast), unterschiedliche Implementierungen (=Multithreading oder eben nicht) außer Acht lässt, dann ist das ganze natürlich auch nicht nachvollziehbar. Wenn man es allerdings mal allumfassend anschaut, sieht man Recht schnell, warum es in manchen Spielen eben so und in manch anderen so läuft. Wobei sicherlich nicht vergessen werden sollte, dass es manche natürlich auch nicht verstehen WOLLEN - Populismus ist halt angesagt heutzutage :freak:

Nein, es ist eben typischen NV-Lotto: Läuft's gut oder läuft's beschissen? Die Inkonsistenz von PhysX ist grauenhaft.

PS: Wenn Du nicht schon wieder gesperrt werden willst, würde ich dumme Sätze wie den letzten einfach weglassen. Sie verleihen deiner Meinung auch keinen Nachdruck, eher im Gegenteil.

Grestorn
2010-04-29, 13:09:43
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

Oopsie zurück.

Du hast es nicht verstanden. Das hat bestenfalls mit der Implementierung in B:AA zu tun, aber nichts mit PhysX und dessen Multicore-Fähigkeit an sich.

Bucklew
2010-04-29, 13:16:27
Nein, es ist eben typischen NV-Lotto: Läuft's gut oder läuft's beschissen? Die Inkonsistenz von PhysX ist grauenhaft.
Das ist typische Inkonsitenz, die man IMMER hat, wenn es verschiedene Bottlenecks gibt. Es gibt auch einen Haufen Spiele, die GPU-Bottlenecks haben, aber auch genauso gut welche, die CPU als Bottleneck haben.

Odal
2010-04-29, 15:02:20
Wieso nicht?


das musst du entweder die entwickler von metro oder die physx treiber frickler bei nv fragen

wer da genau den hund begraben hat entzieht sich meiner kenntnis

ich weiss nur das GPU-adv. PhysX != CPU adv. PhysX in Metro ist

daher sollte man nicht so schnell irgendwelche Querbeet schlussfolgerungen machen

y33H@
2010-04-29, 15:19:27
GPU- und CPU-PhysX in der Advanced-Version bietet eine identische Optik, aber unterschiedliche Fps-Einbrüche. Abhängig von der CPU, der GraKa und den Settings versteht sich.

Bucklew
2010-04-29, 15:38:32
das musst du entweder die entwickler von metro oder die physx treiber frickler bei nv fragen

wer da genau den hund begraben hat entzieht sich meiner kenntnis
Ganz klar: Einen Kompromiss aus Optik und Performance für sowohl die GPU- als auch die CPU-User.

Odal
2010-04-29, 15:45:29
GPU- und CPU-PhysX in der Advanced-Version bietet eine identische Optik, aber unterschiedliche Fps-Einbrüche. Abhängig von der CPU, der GraKa und den Settings versteht sich.


nope das ist ein irrtum

http://www.youtube.com/watch?v=OmB4Z5xZkHI

ps: bitte wieder keine sinnlosen kommentare einiger gäste ob einem so ein flatterzettel gefällt oder nicht

y33H@
2010-04-29, 16:35:57
Ehem, ich glaube du missverstehst da was. Der Schalter "Advanced PhysX-Effects" ändert die Optik, nicht aber ob die CPU oder die GPU ran muss - das ist schei0egal für die Grafik.

Odal
2010-04-29, 17:24:52
das ist mir doch bekannt das adv. physx nicht bestimmt ob GPU oder CPU physx berechnet und hab ich/ wird auch durch das youtube video nicht geleugnet
du gucken youtube video ;) ist ja gerade der witz an der sache
aber das hier
http://666kb.com/i/bis4sc7ef18qzt69w.jpg
ändert sehr wohl die optik

da gibts 3 modi

1. ohne adv. physx
2. mit adv. physx und dem physx treiber switch auf GPU physx disabled
3. mit adv. physx und dem physx treiber switch auf GPU physx enabled



und bei allen 3en bekommt man was anderes zu sehen ;)

Gast
2010-04-29, 18:05:44
Bei Mirror´s Edge ist da kein unterschied zu erkennen, also wird das wohl am Spiel liegen

PHuV
2010-04-29, 18:07:47
Ehem, ich glaube du missverstehst da was. Der Schalter "Advanced PhysX-Effects" ändert die Optik, nicht aber ob die CPU oder die GPU ran muss - das ist schei0egal für die Grafik.

Hm, bei Batman Arkham Asylum ist doch ein deutlicher Effekt zu sehen, ohne eine Nvidia-Karte sieht man rein nichts, obwohl die Effekte auf High eingestellt sind.

y33H@
2010-04-29, 20:15:00
Ich sprach von Metro 2033.

svenw
2010-04-30, 11:03:37
Mit genau solchem Murks killen sie am Ende das an sich gute PhysX!

PhysX ist gut, aber der Versuch das Ding als only NV Feature durchzudrücken ist ein Schuß in den Ofen. Genau darum wird es nie richtige Bedeutung erlangen! Spätestens mit der nächsten Konsolengeneration wird sich das erledigen, denn die Hersteller werden sicher Physik@GPU haben wollen aber sich definitiv nicht zwangsweise an NV binden wollen. Somit gibt es nur 2 Möglichkeiten: Entweder NV gibt PhysX an irgendeine Organisation ab und kassiert dafür oder sie zahlen die nächsten 2 Jahre noch Knete an Entwickler damit sie es einbauen und sehen dann zu wie das Ganze verreckt, weil die Multiplattformenwickler auf offene Standarts (welcher das auch immer sein mag) setzen. Für die Spieler wäre es besser, wenn NV den ersten Weg geht!

deekey777
2010-04-30, 11:40:19
http://www.xbitlabs.com/news/multimedia/display/20100428073151_Nvidia_Mulls_Over_Porting_PhysX_to_OpenCL.html
“In the future it is a possibility that we could use OpenCL, but at the moment CUDA works great. [Our GPU] architecture allows for acceleration by other things like OpenCL. Nvidia works very closely with The Khronos Group, actually Neil Trevett is president of the group and he’s part of Nvidia, so we’ve been driving that standard also, and it’s an excellent standard,” said Nadeem Mohammad, a director of PhysX product management at Nvidia, in an interview with Bit-tech web-site.

However, Mr. Mohammad warned about possible performance issues with non-Nvidia hardware, claiming that ATI is much behind Nvidia when it comes to GPU computing.
;)
Irgendwie ist der Artikel weg. ;(

mapel110
2010-04-30, 11:47:06
Irgendwie ist der Artikel weg. ;(
http://webcache.googleusercontent.com/search?q=cache:byKRMwklff8J:www.xbitlabs.com/news/multimedia/display/20100428073151_Nvidia_Mulls_Over_Porting_PhysX_to_OpenCL.html+nvidia+opencl+xbit labs&cd=2&hl=de&ct=clnk&gl=de&client=opera
Guckst du Google Cache.

deekey777
2010-04-30, 11:51:13
http://webcache.googleusercontent.com/search?q=cache:byKRMwklff8J:www.xbitlabs.com/news/multimedia/display/20100428073151_Nvidia_Mulls_Over_Porting_PhysX_to_OpenCL.html+nvidia+opencl+xbit labs&cd=2&hl=de&ct=clnk&gl=de&client=opera
Guckst du Google Cache.
Der Artikel ist mir egal. Aber das ist der Beweis, dass sich Xbit vertan hat.

Gast
2010-04-30, 17:49:56
Oder dass Nvidia Xbit freundlich darum gebeten hat, den Artikel richtigzustellen oder offline zu nehmen.

Screemer
2010-04-30, 21:36:56
claiming that ATI is much behind Nvidia when it comes to GPU computing.
da schießen sie sich aber vor allem mit den gpgpu kastrierten gf4x0-karten selbst ins bein.

warum die news verschwunden ist legen folgende kommentare nahe:

3.
This article is referencing an interview posted over a year ago. How is this news, exactly?

4.
WOW you are right !!! This is ridiculous for Anton to publish this as news !!!
I suspect Anton's agenda is to keep Nvidia in the news somehow... All the more reason I will never buy Nvidia, it's all trickery and manipulation !

Bucklew
2010-05-03, 10:08:52
da schießen sie sich aber vor allem mit den gpgpu kastrierten gf4x0-karten selbst ins bein.
die karten sind in double precision beschnitten, nicht in gpgpu.

Gast
2010-05-03, 12:58:09
die karten sind in double precision beschnitten, nicht in gpgpu.

Und Formel1 Autos laufen mit Holzrädern genau so schnell , wie mit Spezialreifen.


passd so checkov

es gibt keine Fehler nur versteckte Features :-) :-)

Bucklew
2010-05-03, 13:32:03
Und Formel1 Autos laufen mit Holzrädern genau so schnell , wie mit Spezialreifen.
und manche vergleiche können mangels beine nichtmal hinken, so schlecht und falsch sind die...

AntiGast
2010-05-04, 12:49:33
Naja, bei Physik und bestimmten Effekten könnte Double Precision durchaus interessant sein.
Aber bis dato bieten immer noch die ATI-Karten die bessere reine GPGPU-Leistung.

Bucklew
2010-05-04, 15:23:18
Naja, bei Physik und bestimmten Effekten könnte Double Precision durchaus interessant sein.
Nö.

Aber bis dato bieten immer noch die ATI-Karten die bessere reine GPGPU-Leistung.
Auf dem Papier, was nachher in der Praxis übrig bleibt, zeigen ja schon die Spiele. Von der doppelten Shaderperformance, die die ATI angeblich haben soll, sieht man im Vergleich zur GTX480 nichts.

Black-Scorpion
2010-05-04, 17:55:02
Und was genau hat die Shaderperformance in Spielen mit der Aussage vom Gast zu tun?
Ich sagte dir schon einmal du sollst wegen der GPGPU Leistung der ATI Karten mal Gipsel (http://www.forum-3dcenter.org/vbulletin/member.php?u=6896) fragen.
Du dürftest erstaunt sein was er dazu sagt.

deekey777
2010-05-22, 12:54:55
PhysX FluidMark 1.2.0 Available with Multi-Core CPU Support (http://www.geeks3d.com/20100521/gpu-tool-physx-fluidmark-1-2-0-available-with-multi-core-cpu-support/)
So viel zum Thema "GPU-PhysX ist tot".
Es war so klar, dass das Setzen weiterer Emitter keine neuen Partikel mit sich bringt, sondern den "Partikelstrom" verteilt. Dennoch sind einige Fragen offen.
Zum Bleistift: Interagieren die verschossenen Partikel untereinander?
Weitere Erkenntnisse: MC-Unterstützung? Fehlanzeige. Sprich: Hat man nur einen Emitter, wird nur ein Kern ausgelastet (dafür aber voll).

http://physxinfo.com/news/2872/physx-fluidmark-1-2-ready-for-download/#more-2872

=Floi=
2010-05-22, 14:25:27
Interagieren die verschossenen Partikel untereinander?
imho können sie das schon, weil es ja nicht nur partikel, sondern auch obejekte oder würfel sein können die sich gegenseitig beeinflussen. (die partikel sind ja nur eine kleinere darstellungsform)

dllfreak2001
2010-05-22, 15:19:56
Ich kann leider nicht genau erkennen ob die Partikel miteinander interagieren, dazu müsste man die Fontänen aufeinander richten.

Die Partikel verschwinden nach einer weile und bis ca. 10000 Partikel kann eine Unterklasse-CPU mit 3 Kernen mit einer GPU (9600GT) prima mithalten.
Je niedriger die Partikelanzahl desto schneller wird CPU und überholt die GPU sogar.
Interessant ist, dass mit steigender Emitter-Anzahl die FPS drastisch abfallen obwohl insgesamt immer die selbe Partikelanzahl gerendert wird.
Auf der GPU sieht man mit 31 Emittern garkeine Partikel mehr, das Programm ist irgendwie verbugt.

Überzeugt bin ich also nicht, besser wären ja so Emitter die blöcke und Kugeln miteinander kolidieren lassen, da könnte man wenigstens sehen, dass die Emitter untereinander interagieren.

Gast
2010-05-23, 11:12:00
GPU-PhysX in Need for Speed Shift:

So here are the results:

Radeon 5870 only:

FPS at back of grid awaiting start: 91
Lowest FPS recorded: 28


Radeon 5870 plus 9800GT for PhysX processing:

FPS at back of grid awaiting start: 104
Lowest FPS recorded: 38


I repeated these tests about 10 times and the results were consistent - the above are averages, though there was little variation between averages
http://www.xtremesystems.org/forums/showthread.php?t=252281

Gast
2010-05-23, 12:28:38
Wo sind denn bei NFS-Shift die besonderen PhysX-Effekte?
In der Demo konnte ich PhysX nicht einmal im Spiel aktivieren.

Gast
2010-05-23, 17:01:35
Wenn man dem Autor des Threads glaubt, so ist wohl nicht nur Effekt-Physik sondern echte Gameplay-Physik, welche die Traktion der Reifen benutzt wird.

Wohl wie hier demonstriert: http://www.youtube.com/watch?v=gMQDPLcqt8s&feature=PlayList&p=A7F2E9152253891E&playnext_from=PL&playnext=1&index=19 (0:20).

Gast
2010-05-23, 17:12:51
Wenn man dem Autor des Threads glaubt, so ist wohl nicht nur Effekt-Physik sondern echte Gameplay-Physik, welche die Traktion der Reifen benutzt wird.

Wohl wie hier demonstriert: http://www.youtube.com/watch?v=gMQDPLcqt8s&feature=PlayList&p=A7F2E9152253891E&playnext_from=PL&playnext=1&index=19 (0:20).

Nö, die anderen Poster dort nehmen den Typen nur auseinander, der das behauptet.

y33H@
2010-05-23, 17:18:37
Wo sind denn bei NFS-Shift die besonderen PhysX-Effekte?
In der Demo konnte ich PhysX nicht einmal im Spiel aktivieren. Weil Shift schlicht die PhysX-Bibliothek für Low-Level-Physik via CPU nutzt? So wie gefühlte 317 andere Spielen ebenfalls.

PhysX ist verdammt noch mal nicht gleichbedeutend mit GPU-beschleunigter Effekthascherei, welche ein Konsolen-Port aufgeflanscht bekommt! :ubash3:

Gast
2010-05-23, 17:43:12
Weil Shift schlicht die PhysX-Bibliothek für Low-Level-Physik via CPU nutzt? So wie gefühlte 317 andere Spielen ebenfalls.

PhysX ist verdammt noch mal nicht gleichbedeutend mit GPU-beschleunigter Effekthascherei, welche ein Konsolen-Port aufgeflanscht bekommt! :ubash3:

Ja, aber wo kommt dann diese große Performance-Steigerung her?
Primitive Low-Level-Physik läuft ja normalerweise auf einer CPU ganz gut.

y33H@
2010-05-23, 18:04:24
Performance-Steigerung?
FPS didn't change but the driving is totally different.

N0Thing
2010-05-23, 18:11:26
Hier wird von Performancesteigerungen gesprochen:

http://www.xtremesystems.org/forums/showpost.php?p=4400940&postcount=58

Gast
2010-05-23, 20:47:39
Die anderen widersprechen der Aussage des Hellhound, ich kann mir auch nicht vorstellen, dass es dann eine Veränderung der Fahrphysik gibt.
Falls aber doch ist es eine extrem schlechte Design-Entscheidung und dürfte deshalb so manches Problem bergen.
Ich denke da an den MP, der sich dann deutlich vom SP unterscheiden muss, da sonst jeglicher sportlicher Vergleich sinnlos ist.

N0Thing
2010-05-23, 21:37:33
Ein Unterschied in der Fahrphysik wäre auch eine massive Veränderung am Spiel und wohl das erste populäre Spiel überhaupt, daß GPU-Physik für die Fahrphysik nutzen würde. Sowas läßt sich in der Regel keine PR-Abteilung entgehen, auch nicht die von EA und Nvidia. Das wird wohl eher der berühmte Placebo-Effekt sein.

Was interessanter ist, wenn die Bilder und FPS-Angaben stimmen sollten, ist die Steigerung der FPS bei Shift, wenn man eine Nvidia-GPU in das System einbaut. Denn warum sollte das bei PhysX@CPU was bringen?

Bucklew
2010-05-23, 21:46:21
Ein Unterschied in der Fahrphysik wäre auch eine massive Veränderung am Spiel und wohl das erste populäre Spiel überhaupt, daß GPU-Physik für die Fahrphysik nutzen würde. Sowas läßt sich in der Regel keine PR-Abteilung entgehen, auch nicht die von EA und Nvidia. Das wird wohl eher der berühmte Placebo-Effekt sein.
Bei PhysX wird halt lieber mit richtigen Veränderungen geworben, als mit marginalen Unterschieden. Das natürlich bei GPU-PhysX Teile der Berechnungen auf die GPU geworfen werden und dadurch die CPU entlastet (und somit insgesamt das Spiel beschleunigt wird) ist durchaus möglich.

N0Thing
2010-05-23, 21:57:44
Wenn über die GPU nicht nur zusätzliche Effekte, sondern elementare Bestandteile eines Spiels berechnet werden, dann ist das für mich nicht gerade ein marginaler Unterschied. Deshalb gehe ich auch davon aus, daß dies bei Shift nicht der Fall ist, eben weil es kein marginaler Unterschied ist. Das würde ich eher Mirrors Edge bescheinigen, daß durch die PhysX-Effekte zwar an Atmosphäre gewinnt, die Unterschiede sind aber, wie du schon sagtest, marginal.

Daß bei einem Spiel auch Teile von PhysX auf die GPU ausgelagert werden, obwohl es im Prinzip "nur" CPU-PhysX ist, wäre mir neu. Trifft das auf alle Spiele zu, die die PhysX-API nutzen?

Darque
2010-05-23, 22:37:23
Ich hoffe mal, dass die Frage hier richtig ist.

Welche NV-Grafikkarte wäre mindestens nötig, damit sie eine potente ATI-Grafikkarte bei PhysX-Effekten nicht ausbremst?

Bucklew
2010-05-23, 23:12:34
Wenn über die GPU nicht nur zusätzliche Effekte, sondern elementare Bestandteile eines Spiels berechnet werden, dann ist das für mich nicht gerade ein marginaler Unterschied. Deshalb gehe ich auch davon aus, daß dies bei Shift nicht der Fall ist, eben weil es kein marginaler Unterschied ist.
Für den Nutzer wird es wohl keinen Unterschied machen, sonst würde das Spiel ja einfacher/schwerer werden....

Gast
2010-05-24, 13:18:41
Wenn man sich mal den aktuellen Fluidmark an, so muss man schon recht komplexe Physik berechnen lassen damit man die CPU überholen kann.
Die Frage ist ja, ist Shift wirklich so komplex?
Diese Softbodys werden wahrscheinlich sowieso nicht verwendet.

Fraglich finde ich dieses optionslose Umschalten auf HW-PhysX.

dllfreak2001
2010-05-25, 10:10:46
http://www.gamestar.de/hardware/news/tools/2315086/3d_mark_11.html

So langsam kommen die Alternativen zu PhysX.
So wird im neuen 3DMark 11 die PhysX-Api wahrscheinlich durch eine über Compute Shaders realisierte Engine ersetzt.
Dann gibt es endlich einen vernünftigen Vergleich zwischen NV und AMD, eventuell wird das sogar die
Industrie zum Umdenken bewegen.

Tarkin
2010-05-25, 14:45:04
NVIDIA CUDA and PhysX VP jumps ship for AMD (http://www.slashgear.com/nvidia-cuda-and-physx-vp-jumps-ship-for-amd-2586950/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+slashgear+%28SlashGear%29)

It’s not uncommon at all in the technology industry for workers and executives to move from one firm within the industry to another that is a direct competitor. Typically we see this when companies start looking for engineers and other folks to help it better compete in the market. On occasion, we see executives leave and head to a competitor of their former employer.

KitGuru reports that NVIDIA VP Manju Hedge, VP of CUDA and PhysX has left NVIDIA and headed to AMD. AMD directly competes with NVIDIA in key categories like GPUs. KitGuru doesn’t expect the departure of Hedge to spell any disaster for NVIDIA.

It’s also unlikely that AMD will glean and NVIDIA secrets from its new employee considering the mass of NDAs Hedge is certainly under. Perhaps Hedge will be able to help AMD sway game developers to support some of its ideas like HDR with AA. Hedge was key in gain support for CUDA at NVIDIA.

deekey777
2010-05-25, 14:47:26
KitGuru hat letzte Woche verichtet, dass Nivdia keinen CUDA-Support für GTX465 anbieten wird.

mapel110
2010-05-25, 14:48:40
KitGuru hat letzte Woche verichtet, dass Nivdia keinen CUDA-Support für GTX465 anbieten wird.
Und die 470er EOL ist. :ulol:

LovesuckZ
2010-05-27, 18:13:15
Neues PhysX Video von Mafia 2 (http://www.gametrailers.com/video/nvidia-physx-mafia-ii/100588)

Bucklew
2010-05-27, 18:26:36
Neue PhysX Video von Mafia 2 (http://www.gametrailers.com/video/nvidia-physx-mafia-ii/100588)
Geil!

N0Thing
2010-05-27, 18:35:59
Hübsch, vor allem das Haus am Anfang des Videos und die Bruchstücke nach den Explosionen der Autos.

Gast
2010-05-27, 18:38:04
Ist das nun via GPU berechnete Physik oder die überall lauffähige CPU Physik?
Wenn's GPU Physik ist, kauf ich es für die Xbox360, sonst für den PC.

Userxy
2010-05-27, 19:31:28
Es ist GPU Physik auf Nvidia

boxleitnerb
2010-05-27, 19:38:44
Ruckelt ziemlich...weiß man was das für ein System war?

Iruwen
2010-05-28, 00:07:53
"Physics are absofuckalutely awesome. Thank you Newton for discovering it." :D

Sieht wirklich ziemlich ruckelig aus, scheint aber nicht an PhysX zu liegen, ruckelt ja die ganze Zeit... oder kommt das vom Capturen?

Gast
2010-05-28, 12:00:22
Laut diesem Puphans hier ist Hybrid-PhysX wieder möglich.
Leider wurde noch nicht offiziell bestätigt ob dies nur ein Fahler war oder ob man zukünftig darauf verzichtet.

http://www.gamestar.de/hardware/news/treiber/2315138/nvidia_grafiktreiber_25715.html

Gast
2010-05-28, 12:10:16
Irgendwie sind die Partikel im Mafia2-Video, wieder zu zahlreich.

Wenne ein Auto explodiert zerspringt es doch nicht in 100000 Teile wie eine Vase. Außerdem kann man zum Schluß sehen, dass die Partikel auf der Straße langsam wegdriften. Die Glaswände scheinen dann auch mehr Splitter zu erzeugen als Maße da ist.
Das ist noch eine PhysX-Demo von NV.

derguru
2010-05-28, 12:29:04
Laut diesem Puphans hier ist Hybrid-PhysX wieder möglich.
Leider wurde noch nicht offiziell bestätigt ob dies nur ein Fahler war oder ob man zukünftig darauf verzichtet.

http://www.gamestar.de/hardware/news/treiber/2315138/nvidia_grafiktreiber_25715.html

funzt tatsächlich aber ich tippe das ist ein bug denn der physX reiter im treiber ist gar nicht vorhanden.

mapel110
2010-05-28, 18:07:28
http://www.pcgameshardware.de/aid,749183/Nvidia-25715-Beta-Radeon-und-Geforce-fuer-Physx-vereint/Grafikkarten-Treiber/News/
Soll aber laut PCGH nur mit GTX 400 als PhysX-Karte funktionieren und ist gewollt.

Gast
2010-05-28, 18:19:36
http://www.pcgameshardware.de/aid,749183/Nvidia-25715-Beta-Radeon-und-Geforce-fuer-Physx-vereint/Grafikkarten-Treiber/News/
Soll aber laut PCGH nur mit GTX 400 als PhysX-Karte funktionieren und ist gewollt.

nVidia versucht echt alles, um die GTX 400 unter den Mann zu bringen. :D

LovesuckZ
2010-05-28, 18:21:48
Logisch, so müssen die Leute sich eine neue Karte kaufen - egal ob GTX405 oder GTX480.

boxleitnerb
2010-05-28, 18:30:40
Wenn die sich da mal nicht verrechnet haben. Ich vermute, die überwältigende Mehrheit der Radeonnutzer ist bereit, maximal 100-150 Euro für eine zusätzliche Karte auszugeben. Und noch gibt es in dem Preisbereich keine Fermis. Bleibt wohl bei dem Hack ;)

Gast
2010-05-28, 18:35:35
Wenn die sich da mal nicht verrechnet haben. Ich vermute, die überwältigende Mehrheit der Radeonnutzer ist bereit, maximal 100-150 Euro für eine zusätzliche Karte auszugeben. Und noch gibt es in dem Preisbereich ja nix. Bleibt wohl bei dem Hack ;)

Wat? 100 - 150 €? Never! NEVER! Es fallen schonmal alle raus, die irgendetwas unterhalb einer HD 5870 besitzen. Wer eine HD 5850 besitzt und 100 - 150 € nochmal für die GPU ausgeben wollte, hätte auch gleich eine HD 5870 gekauft. Dito 5830, 5770 etc. Höchstens die HD 5870-Besitzer würden evtl. noch eine PhysX-Karte zusätzlich kaufen, aber sicher auch nicht für 100 - 150 €. Ich persönlich würde maximal 60 € für irgendetwas Pasives ausgeben.

Gast
2010-05-28, 18:37:07
Und noch gibt es in dem Preisbereich ja nix.
Da gibt es sehr viel.
Nur eben keine Geforce 400.

MorPheuZ
2010-05-28, 18:37:47
Dann wollen wir aber auch nie mehr was von PhysX = NV-only und dergleichen hören.

derguru
2010-05-28, 18:39:20
http://www.pcgameshardware.de/aid,749183/Nvidia-25715-Beta-Radeon-und-Geforce-fuer-Physx-vereint/Grafikkarten-Treiber/News/
Soll aber laut PCGH nur mit GTX 400 als PhysX-Karte funktionieren und ist gewollt.
ja soll aber trotzdem funzt es mit einer 8800gt.:wink:

100-150 euro für physX ausgeben?lol das glaubt ihr wohl selbst nicht.:biggrin:

boxleitnerb
2010-05-28, 18:39:32
Ja ich sagte ja maximal, da sind auch 60 drin :)
Blöd auch deshalb, weil die AMDler vielleicht noch einen G80/G92 oder G200 rumfahren haben und damit - offiziell - nix mehr anfangen können.

Da gibt es sehr viel.
Nur eben keine Geforce 400.

Meinte ja die 400er, ich schreibs dazu.

Gast
2010-05-28, 18:39:35
http://www.pcgameshardware.de/aid,749183/Nvidia-25715-Beta-Radeon-und-Geforce-fuer-Physx-vereint/Grafikkarten-Treiber/News/
Soll aber laut PCGH nur mit GTX 400 als PhysX-Karte funktionieren und ist gewollt.

Da will Nvidia wohl doch nur einen auf Gutmensch machen und unter der Hand geht der Mist doch weiter.
Die GT400er Karten die aktuell zu haben sind, haben einen viel zu hohen Energieverbrauch als das sie als reine PhysX-Karte brauchbar wären.

Gast
2010-05-28, 18:40:49
GPU PhysX ist nVidia only. CPU PhysX kann man quasi überall haben.
AMD ist weiterhin nicht bereit für GPU PhysX und etwas ähnliches wird nicht sehr bald das Licht der Welt erblicken.

Gast
2010-05-28, 18:43:26
Meinte ja die 400er, ich schreibs dazu.
Achso, habe ich überlesen.
Man darf nicht so ungedüldig sein. nVidia zeigt das sie die Situation ändern wollen und im Laufe des Jahres sollte sich die Geforce 400 Reihe nach unten hin füllen.

Gast
2010-05-28, 19:24:08
GPU PhysX ist nVidia only. CPU PhysX kann man quasi überall haben.
AMD ist weiterhin nicht bereit für GPU PhysX und etwas ähnliches wird nicht sehr bald das Licht der Welt erblicken.

Wie meinst du das?

Schlammsau
2010-05-28, 19:36:21
Neues PhysX Video von Mafia 2 (http://www.gametrailers.com/video/nvidia-physx-mafia-ii/100588)

Also ich weiss nicht, wofür für diese Effekte GPU-PhysX gebraucht wird.
http://www.youtube.com/watch?v=WTFQp625FqI
Schaut euch mal das Video an...Crysis CPU Beschleunigt und sieht 100x geiler aus als die Physik von Mafia! Und vor allem, es ist spielbar!

Hab sogar nen Benchmark mit der Mod gemacht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481669

y33H@
2010-05-28, 19:41:06
Als ob das flüssig laufen würde mit AA ...
Run #1- DX10 1920x1080 AA=No AA, 32 bit test, Quality: VeryHigh ~~ Last Average FPS: 28.47

Schlammsau
2010-05-28, 19:42:43
Als ob das flüssig laufen würde mit AA ...
Mit nem i7 oder AMD HexaCore mit Sicherheit! ;)
Ist rein CPU limitiert!

Und hör doch mit dem Schmarrn auf.....diese Effekte in Crysis sind um den Faktor 100 geiler als das was hier PhysX in Mafia zeigt.

y33H@
2010-05-28, 19:54:52
Das ist eine rote subjektive Meinung, also lass du bitte den Schmarrn.

Und wenn es rein (!) CPU-limitiert ist, warum sinken dann die Fps bei deinen Benches mit höheren Settings? :rolleyes:

Gast
2010-05-28, 19:58:06
Das ist eine rote subjektive Meinung, also lass du bitte den Schmarrn.

Und wenn es rein (!) CPU-limitiert ist, warum sinken dann die Fps bei deinen Benches mit höheren Settings? :rolleyes:

Und über die GPU ist es gratis? Da kannst du dann AA ausschalten für PhysX, toller Kompromiss. Aber das darf man ja den NV-Fans nicht laut sagen, alles Schmarren.

Gast
2010-05-28, 20:02:24
Mit nem i7 oder AMD HexaCore mit Sicherheit! ;)
Ist rein CPU limitiert!

Und hör doch mit dem Schmarrn auf.....diese Effekte in Crysis sind um den Faktor 100 geiler als das was hier PhysX in Mafia zeigt.

Eben. Ich wäre froh wenn endlich mal mehr wie zwei oder drei Threads der CPU gut ausgelastet wären anstatt hier Grafikleistung zu opfern. Der ganze Ansatz ist Mist.

y33H@
2010-05-28, 20:02:38
Es ist eine Option, die NV-Usern offen steht. Keiner zwingt dich sie zu nutzen - kannst ja brav mit Konsolen-Optik zocken, das Spiel bleibt eh das gleiche.

Gast
2010-05-28, 20:07:21
Neues PhysX Video von Mafia 2 (http://www.gametrailers.com/video/nvidia-physx-mafia-ii/100588)

Sieht Klasse aus! Das macht Lust auf mehr. :)

Schlammsau
2010-05-28, 20:10:10
Das ist eine rote subjektive Meinung, also lass du bitte den Schmarrn.

Und wenn es rein (!) CPU-limitiert ist, warum sinken dann die Fps bei deinen Benches mit höheren Settings? :rolleyes:

Mann...natürlich gibt es auch Szenen wo die Grafikkarte limitiert. In dem Benchmark wird ja nicht nur geschossen. ;)

Ich will doch nur zeigen, was für Effekte ohne PhysX möglich sind, und die brauchen sich nicht zu verstecken!

y33H@
2010-05-28, 20:13:34
PhysX ist auch nur eine Physik-Bibliothek und zudem eine der mächtigsten. Die der CE2 ist auch super, Havok ebenfalls. Die Frage ist immer nur, wie hoch die Physik-Last ist.

Gast
2010-05-28, 20:17:17
Ich will doch nur zeigen, was für Effekte ohne PhysX möglich sind, und die brauchen sich nicht zu verstecken!
Großes Kino.
Es ist soviel tolles möglich, das hat inzwischen jeder geschnallt.

Es gibt nur einen, einen gewaltigen Hacken. So unermeßlich groß ist er.
Niemand nutz diese Möglichkeiten. GPU PhysX hingegen wird genutzt. Das ist Realität.
Wir können noch Seitenweise über Crysis Physikmöglichkeiten disskutieren, aber davon wird das immer noch nicht genutzt.

boxleitnerb
2010-05-28, 20:19:39
Außerdem weiß man nicht, wie physikalisch korrekt sich beide Varianten im Vergleich verhalten bzw. was für ein Rechenaufwand dahinter steht. Jeder Noob kann 100k Partikel programmieren - ob die dann auch gescheit miteinander und mit der Umgebung interagieren, steht auf einem anderen Blatt.

Nightspider
2010-05-28, 20:41:02
Mit nem i7 oder AMD HexaCore mit Sicherheit! ;)
Ist rein CPU limitiert!

Und hör doch mit dem Schmarrn auf.....diese Effekte in Crysis sind um den Faktor 100 geiler als das was hier PhysX in Mafia zeigt.

Hexacore?

Crysis nutzt nichtmal meinen 2. Kern effizient aus.
Das Spiel braucht nichtmal nen 3. Kern, wozu da 6Kerne ?

Hast du mal nen Bild von der Kern-Auslastung in deinem Benchmark?

Würde mich mal interessieren ob die Mod doch mehr Kerne anspricht.

Schlammsau
2010-05-28, 22:10:36
Auslastung meines Systems, gebencht hab ich mit dem CPU-Benchmark von Crysis.
720p@DX10 und Very High Settings!
Q9550@3,8Ghz, HD5850@900/1220Mhz

ohne Mod...............mit Mod
http://www.abload.de/thumb/ohnemodyeql.png (http://www.abload.de/image.php?img=ohnemodyeql.png) http://www.abload.de/thumb/mod0g8s.png (http://www.abload.de/image.php?img=mod0g8s.png)

Nightspider
2010-05-28, 22:20:17
Interessant...nur schade das man von der MultiCore tauglichkeit der Engine im Spiel nix bemerkt hat. Dort lagen der 3. und 4. Kern brach.

Schlammsau
2010-05-28, 22:25:41
Interessant...nur schade das man von der MultiCore tauglichkeit der Engine im Spiel nix bemerkt hat. Dort lagen der 3. und 4. Kern brach.
:confused: versteh ich jetzt nicht, auch beim zocken werden bei mir auch alle 4 Kerne genutzt.

y33H@
2010-05-28, 22:41:00
Genutzt heißt aber nicht, dass Windows da mal n Thread hin und her schiebt ...

deekey777
2010-05-28, 23:07:56
NVIDIA Forceware 257 & Heterogeneous GPU PhysX: It's a Bug, Not a Feature (http://www.anandtech.com/show/3744/nvidia-forceware-257-heterogeneous-gpu-physx-its-a-bug-not-a-feature)
Yes, this is a bug in the latest build of PhysX that was packaged with the driver. We'll be fixing this issue ASAP - the WHQL driver launching in early June won't have this issue. -NVIDIA

Muahahahaa...

dllfreak2001
2010-05-28, 23:56:15
Tja, pech gehabt. :D
Dann gibt es doch kein GPU-PhysX im Mischbetrieb.

DrFreaK666
2010-05-29, 13:46:52
Tja, pech gehabt. :D
Dann gibt es doch kein GPU-PhysX im Mischbetrieb.

Pech für nvidia. Dann gebe ich halt kein Geld für eine Graka für GPU-PhysX aus... Wie dumm ist das eigentlich?

Gast
2010-05-29, 13:55:11
Das Alleinstellungsmerkmal GPU PhysX ist denen wohl mehr Wert als die paar zusätzlichen Niedrigpreis GPUs, die so verkauft werden würden.

Viele wären es bestimmt nicht geworden, davon kann man ausgehen. nVidia hat es sich ausgerechnet, das das Alleinstellungsmerkmal mehr wert ist, man braucht nicht davon auszugehen, das sie dumm sind.
Was das Merkmal wert ist, kann man schwer beurteilen. Einfacher ist die Beurteilung der zusätzlichen GPUs. Die paar Hansel die es tun würden mal aussen vor gelassen, kein OEM PC verkauft sich um 100$ besser, nur weil eine zusätzliche PhysX Karte drin ist. Das muss die Grafikkarte können, dann nimmt der OEM es sehr dankbar mit.

DrFreaK666
2010-05-29, 13:58:26
Das Alleinstellungsmerkmal GPU PhysX ist denen wohl mehr Wert als die paar zusätzlichen Niedrigpreis GPUs, die so verkauft werden würden.

Viele wären es bestimmt nicht geworden, davon kann man ausgehen. nVidia hat es sich ausgerechnet, das das Alleinstellungsmerkmal mehr wert ist, man braucht nicht davon auszugehen, das sie dumm sind.
Was das Merkmal wert ist, kann man schwer beurteilen. Einfacher ist die Beurteilung der zusätzlichen GPUs. Die paar Hansel die es tun würden mal aussen vor gelassen, kein OEM PC verkauft sich um 100$ besser, nur weil eine zusätzliche PhysX Karte drin ist. Das muss die Grafikkarte können, dann nimmt der OEM es sehr dankbar mit.

Der MM-Käufer weiss doch garnicht was GPU-PhysX ist.
nvidia sollte froh sein, dass es Freaks gibt, die dafür eine zusätzliche Karte kaufen würden.

AnarchX
2010-05-29, 14:02:26
Das Alleinstellungsmerkmal GPU PhysX ist denen wohl mehr Wert als die paar zusätzlichen Niedrigpreis GPUs, die so verkauft werden würden.

Viele wären es bestimmt nicht geworden, davon kann man ausgehen. nVidia hat es sich ausgerechnet, das das Alleinstellungsmerkmal mehr wert ist, man braucht nicht davon auszugehen, das sie dumm sind.

QM für PhysX mit Nicht-NV-GPUs als Render-Device würde auch noch zusätzliche Kosten verursachen.

deekey777
2010-05-29, 14:25:07
Eine Qualitätsprüfung für etwas, was man nicht offiziell anbietet, ist nicht nötig. Dieses Argument für die Blockierung ist einfach nur vorgeschoben.

Iruwen
2010-05-29, 14:48:02
Entwicklungskosten und Marketingvorteile, da braucht man eigentlich gar nichts vorschieben. Wer PhysX haben möchte kauft Nvidia, wer es nicht braucht... trotzdem :D

LovesuckZ
2010-05-29, 15:13:21
Der Support im Beta-Treiber bleibt jedoch erhalten:
While it was not intentional, due to the overwhelming positive response to the beta driver we have decided to leave the beta up with support enabled.
http://blogs.nvidia.com/ntersect/2010/05/update-on-release-256-physx-support-1.html

Gast
2010-05-29, 15:14:01
Der MM-Käufer weiss doch garnicht was GPU-PhysX ist.
Deshalb wird er nicht 100€ zusätzlich zahlen.
Aber wenn PhysX drauf steht, weils die Grafikkarte kann, dann wird der MM Käufer sich freuen. Es ist nicht so, das er weiss was all die anderen Punkte in der Beschreibung bedeuten.


nvidia sollte froh sein, dass es Freaks gibt, die dafür eine zusätzliche Karte kaufen würden.Lohnt sich scheinbar nicht.
Die Punkte wurden genannt. Nur weil man ein paar GPUs mehr loswird bedeuted es nicht zwangsläufig mehr Gewinn.

LovesuckZ
2010-05-29, 15:15:32
Wer kauft sich denn eine Karte extra für PhysX?
Eine GTX480 kostet ca. 40€ mehr als eine 5870 mit 2GB. Da stellt sich die Frage doch garnicht, was man für PhysX nehmen würde...

derguru
2010-05-29, 15:29:55
natürlich stellt sich die frage alleine aus dem grund das der performanceverlust ohne zusatzkarte relative stark ist.eine 5870 2gb +240gt ist in spielen ein gutes stück schneller als eine einzelne 480gtx.

LovesuckZ
2010-05-29, 15:32:50
Nur in den Spielen, wo GPU-PhysX Zum Einsatz kommt. Dazu kommen zusätzliche Kosten in Höhe des Kaufs dazu, Stromkosten von 10€ im Jahr => Sind also Mehrkosten von 70€ im ersten Jahr.

Der Abstand von einer 5870 2GB zur GTX480 beträgt auch nur noch 17€.

Bucklew
2010-05-29, 15:34:29
Eine Qualitätsprüfung für etwas, was man nicht offiziell anbietet, ist nicht nötig. Dieses Argument für die Blockierung ist einfach nur vorgeschoben.
In dem Moment wo man es für ATI-Karten freischaltet, möchte man dafür dann natürlich auch Werbung machen -> offizielles Feature.

derguru
2010-05-29, 15:39:34
Nur in den Spielen, wo GPU-PhysX Zum Einsatz kommt.
ach was wo sonst:rolleyes:.

Dazu kommen zusätzliche Kosten in Höhe des Kaufs dazu, Stromkosten von 10€ im Jahr => Sind also Mehrkosten von 70€ im ersten Jahr.
muss man nicht neu kaufen,kriegt man überall günstig gebraucht gekauft(viele haben sogar vergleichbares zu hause rumfliegen) und die stromkosten sind immer noch geringer als als von einer einzelnen 480gtx.

Mr. Lolman
2010-05-29, 15:40:37
Nur in den Spielen, wo GPU-PhysX Zum Einsatz kommt. Dazu kommen zusätzliche Kosten in Höhe des Kaufs dazu, Stromkosten von 10€ im Jahr => Sind also Mehrkosten von 70€ im ersten Jahr.

Der Abstand von einer 5870 2GB zur GTX480 beträgt auch nur noch 17€.

Aber geh. Selbst mit ner zusätzlichen GT240 braucht ne HD5870 immernoch deutlich weniger als ne GTX480. Oder hast du die zusätzlichen Stromkosten etwa für die NV-Karte berechnet? :biggrin:


Der Abstand von einer 5870 2GB zur GTX480 beträgt auch nur noch 17€.

Wo denn?

Gast
2010-05-29, 15:43:54
muss man nicht neu kaufen,kriegt man überall günstig gebraucht gekauft(viele haben sogar vergleichbares zu hause rumfliegen) und die stromkosten sind immer noch geringer als als von einer einzelnen 480gtx.
Das Mainboard ist ebenfalls teurer.
Entweder Neukauf oder im Vorhinein das teurere kaufen ist angesagt.

Oder wenn man das Glück hat und ein Brett mit 2 8xPCIe hat, dann verzichtet man einfach auf etwas Leistung, wenn man der Hauptggrafikkarte keine 16x mehr gönnt.

AnarchX
2010-05-29, 15:46:20
Glaubt man EVGA, so bringt selbst bei einer GTX 480 eine zusätzliche GT 240 für PhysX etwas: http://www.evga.com/articles/00552/

Inoffiziell könnte man den Mix-Mode durchaus anbieten, QA wird es wohl auch für SG-SSAA geben. Vielleicht lässt man auch die Sperre in künftigen Betas weg.

DrFreaK666
2010-05-29, 19:59:07
Wer kauft sich denn eine Karte extra für PhysX?
Eine GTX480 kostet ca. 40€ mehr als eine 5870 mit 2GB. Da stellt sich die Frage doch garnicht, was man für PhysX nehmen würde...

In welcher Fantasiewelt lebst du denn?
Es gibt sicherlich auch HD5850-Bestizer, die gerne GPU-PhysX hätten...

Bucklew
2010-05-29, 20:06:36
In welcher Fantasiewelt lebst du denn?
Es gibt sicherlich auch HD5850-Bestizer, die gerne GPU-PhysX hätten...
Hätte man vorher dran denken sollen....

Gast
2010-05-29, 20:09:22
In welcher Fantasiewelt lebst du denn?
Es gibt sicherlich auch HD5850-Bestizer, die gerne GPU-PhysX hätten...
Der Markt ist klein und nicht lohnenswert. Was gibts daran nicht zu verstehen?

DrFreaK666
2010-05-29, 20:13:47
Hätte man vorher dran denken sollen....

Oh nein, du schon wieder...

Der Markt ist klein und nicht lohnenswert. Was gibts daran nicht zu verstehen?

Laut LovesuckZ´s Post ist GPU-PhysX nur für GTX480-Besitzer interessant.
Ageia-Zusatz-Karten gab es aber zu GF7/GF8-zeiten...
Wieso sollte ich mir also eine GTX480 holen wenn ich GPU-PhysX schon mit einer HD5850-Karte+Beschleuniger haben könnte?

Bucklew
2010-05-29, 20:51:56
Der Markt ist klein und nicht lohnenswert. Was gibts daran nicht zu verstehen?
Deswegen kauft sich ATI auch für viel Geld von PhysX-Chef von Nvidia ;D

Oh nein, du schon wieder...
Was denn? Wenn ich GPU-PhysX will kauf ich halt ne Nvidia. Was ist da so schwer dran zu verstehen?

mapel110
2010-05-29, 20:54:06
Deswegen kauft sich ATI auch für viel Geld von PhysX-Chef von Nvidia ;D

Und wenn er wirklich Chef war, dann weiß er auch nur wie "PhysX" geschrieben wird und hat keine Ahnung vom Quellcode der Middleware.

DrFreaK666
2010-05-29, 20:56:21
...Was denn? Wenn ich GPU-PhysX will kauf ich halt ne Nvidia. Was ist da so schwer dran zu verstehen?

Würde ich ja gerne, aber dann bringt mir dir Karte nichts, da GPU-PhysX für Zusatzkarten gesperrt ist

Bucklew
2010-05-29, 22:16:04
Und wenn er wirklich Chef war, dann weiß er auch nur wie "PhysX" geschrieben wird und hat keine Ahnung vom Quellcode der Middleware.
Das ist bei Chefs meistens der Fall ;)

Würde ich ja gerne, aber dann bringt mir dir Karte nichts, da GPU-PhysX für Zusatzkarten gesperrt ist
Wenn es dir so wichtig ist, dann behalt es halt beim nächsten Kauf der Haupt-GPU im Hinterkopf.

DrFreaK666
2010-05-29, 22:22:08
Das ist bei Chefs meistens der Fall ;)


Wenn es dir so wichtig ist, dann behalt es halt beim nächsten Kauf der Haupt-GPU im Hinterkopf.

Naja, wichtig nicht unbedingt.
habe bei der Umfrage "Sind die nVidia-Features Cuda, PhysX & HQ-AF ein Grund, über eine niedrigere Performance oder einen höheren Preis hinwegzusehen?" "Möglicherweise, aber nur in sehr geringem Rahmen." angeklickt.
es gibt z.Z. kein GPU-PhysX-Titel, dass ich unbedingt haben muss.
Würde aber gerne damit herumspielen und benchen :smile:

Gast
2010-05-30, 00:24:23
Deswegen kauft sich ATI auch für viel Geld von PhysX-Chef von Nvidia ;D


Der Typ wird aber auch nicht an GPU-Physik arbeiten, sondern an der Integration
einer DX11 Grafikeinheit in eine CPU.

Gast
2010-05-30, 10:01:24
Deswegen kauft sich ATI auch für viel Geld von PhysX-Chef von Nvidia ;D

Was hat das mit der Quote zu tun?
Ich habe erklärt warum man auf die paar zusätzliche GPUs verzichtet.

Gast
2010-05-30, 10:08:39
Laut LovesuckZ´s Post ist GPU-PhysX nur für GTX480-Besitzer interessant.
Ageia-Zusatz-Karten gab es aber zu GF7/GF8-zeiten...
Wieso sollte ich mir also eine GTX480 holen wenn ich GPU-PhysX schon mit einer HD5850-Karte+Beschleuniger haben könnte?
Ist mir egal was LS schreibt.
PhysX ist für für alle Geforce Kunden interessant.

Seit der Einführung ist es ein Argument für eine Geforce als Hauptkarte. Genau dieses Argument möchte man erhalten.
Du bist nunmal unwichtig, seh es ein. Niemand schlägt sich darum, ein paar wenige € von dir zubekommen, wenn es neben dir nur wenige andere gibt die ebenso denken.
Es geht um einen winzigen Markt mit billigen Karten, wo entsprechend der Gewinn sehr gering ausfällt, darüber hinaus aber ein Haufen Nachteile für den Hersteller entstehen.
Es gibt keinen Grund beleidigt zu sein.

Bucklew
2010-05-30, 11:50:29
Der Typ wird aber auch nicht an GPU-Physik arbeiten, sondern an der Integration
einer DX11 Grafikeinheit in eine CPU.
Aber vorallem die Softwareseite:
Rick Bergmann äußerte: "Manju brings prized expertise in developing the ecosystem for enabling breakthrough and heightened experiences on new architectures to AMD. As Manju and his team work with the ecosystem to usher in a new era of visual computing, we expect a wide range of industry leaders to embrace the future of accelerated computing through the combination of the GPU and CPU - a combination only AMD can deliver with its AMD Fusion technology,"
Und da wird zu 100% auch eine Physik-Schnittstelle dazu gehören. Wird ja auch langsam Zeit für AMD, wo auch von Bullet noch gar nichts zu sehen ist...

Gast
2010-05-30, 11:55:55
Deswegen kauft sich ATI auch für viel Geld von PhysX-Chef von Nvidia ;D


Was für ein Bullshit. Vielleicht wollte er auch ganz einfach freiwillig zur besseren Firma wechseln? Seine Aussagen dazu sind eindeutig, aber das interessiert jemanden wie dich natürlich nicht.

boxleitnerb
2010-05-30, 12:00:37
DrFreaK666: Hol dir doch den gemoddeten Treiber, dann passt das doch :)

Gast
2010-05-30, 12:08:57
Aber vorallem die Softwareseite:

Und da wird zu 100% auch eine Physik-Schnittstelle dazu gehören. Wird ja auch langsam Zeit für AMD, wo auch von Bullet noch gar nichts zu sehen ist...

Ich kann das nicht aus diesem Zitat entnehmen. Ich denke eher, das entspringt deiner blühenden Fantasie.

DrFreaK666
2010-05-30, 12:09:36
Ist mir egal was LS schreibt.
PhysX ist für für alle Geforce Kunden interessant.

Seit der Einführung ist es ein Argument für eine Geforce als Hauptkarte. Genau dieses Argument möchte man erhalten.
Du bist nunmal unwichtig, seh es ein. Niemand schlägt sich darum, ein paar wenige € von dir zubekommen, wenn es neben dir nur wenige andere gibt die ebenso denken.
Es geht um einen winzigen Markt mit billigen Karten, wo entsprechend der Gewinn sehr gering ausfällt, darüber hinaus aber ein Haufen Nachteile für den Hersteller entstehen.
Es gibt keinen Grund beleidigt zu sein.

Wieviele Kunden gehen durch diese Einschränkung verloren? Es geht hier nicht nur um mich
Es gibt sicherlich mehr als nur 10 Radeon-User auf der Welt...

DrFreaK666: Hol dir doch den gemoddeten Treiber, dann passt das doch :)

Habe mir mal vor Wochen eine Ageia-PPU gekauft zum Herumspielen. Leider bekomme ich diese nicht zum Laufen :(

Bucklew
2010-05-30, 12:12:57
Ich kann das nicht aus diesem Zitat entnehmen. Ich denke eher, das entspringt deiner blühenden Fantasie.
"As Manju and his team work with the ecosystem to usher in a new era of visual computing, we expect a wide range of industry leaders to embrace the future of accelerated computing through the combination of the GPU and CPU"

Eindeutig, dass es hier um die Softwareseite ("ecosystem") und nicht um die Hardwareseite geht.

Gast
2010-05-30, 12:53:10
Wieviele Kunden gehen durch diese Einschränkung verloren? Es geht hier nicht nur um mich
Es gibt sicherlich mehr als nur 10 Radeon-User auf der Welt...

Meinst du, die können nicht rechnen?
Obs 10.000 oder 100.000 sind, weiss ich auch nicht.

Wie es mit dem Gewinn aussieht ist noch komplexer. Rechne mal nach, was gibts bei 3$ pro GPU, angenommener Gewinn bei 50-100$ Karten ist nunmal gering.
Jetzt zieh ab was es an Kosten verursacht, und was denen ihr Alleinstellungsmerkmal wert ist.

Gast
2010-05-30, 14:15:01
"As Manju and his team work with the ecosystem to usher in a new era of visual computing, we expect a wide range of industry leaders to embrace the future of accelerated computing through the combination of the GPU and CPU"

Eindeutig, dass es hier um die Softwareseite ("ecosystem") und nicht um die Hardwareseite geht.

Ich erinnere dich mal daran:

Aber vorallem die Softwareseite:

Und da wird zu 100% auch eine Physik-Schnittstelle dazu gehören. Wird ja auch langsam Zeit für AMD, wo auch von Bullet noch gar nichts zu sehen ist...

Physik-Schnittstelle!

Und warum ist denn "ecosystem" automatisch Software?
Ich kann mir das auch prima Hardware-seitig vorstellen.

Iruwen
2010-05-30, 15:12:32
Was für ein Bullshit. Vielleicht wollte er auch ganz einfach freiwillig zur besseren Firma wechseln? Seine Aussagen dazu sind eindeutig, aber das interessiert jemanden wie dich natürlich nicht.
Ich bin auch davon überzeugt dass der Wechsel ideologische Gründe hatte. Nicht.

Bucklew
2010-05-30, 15:58:01
Und warum ist denn "ecosystem" automatisch Software?
Ich kann mir das auch prima Hardware-seitig vorstellen.
Weil die IHVs (Nvidia auch) immer die software-seite als ihr "ecosystem" bezeichnen. Wenn du solche grundsätzlichen Begriffe nicht kennst oder verstehst, kann ich dafür auch nichts.

AMD entwickelt und verkauft die Hardware und auf dieser Hardware muss es ein Ecosystem von Programmen und Tools von Drittne geben, damit die Hardware ein Erfolg wird und sich verkauft. Und genau das meint man immer mit Ecosystem. Das dazu eine Physikschnittstelle gehört ist meine Meinung.

Gast
2010-05-30, 22:36:32
Weil die IHVs (Nvidia auch) immer die software-seite als ihr "ecosystem" bezeichnen. Wenn du solche grundsätzlichen Begriffe nicht kennst oder verstehst, kann ich dafür auch nichts.

AMD entwickelt und verkauft die Hardware und auf dieser Hardware muss es ein Ecosystem von Programmen und Tools von Drittne geben, damit die Hardware ein Erfolg wird und sich verkauft. Und genau das meint man immer mit Ecosystem. Das dazu eine Physikschnittstelle gehört ist meine Meinung.

Ah ok, wieso sollten sie bei einer GPU-CPU-Kombi (mit Lowend-Grafik) auf Physik aus sein?
Nvidia hat sich eine Physik-Engine gekauft, aber muss AMD auch eine besitzen?
Seit wann ist das die Pflicht eines IHV und vor allem was hätten wir davon?

Richtig, einen zweigeteilten Markt. Der Dumme macht´s vor und der Rest zieht nach.

Bis jetzt hat Nvidia nicht ein Spiel vorgelegt in dem GPU-Physik sinnvoll eingesetzt wurde und dann soll AMD auch mit dem gleichen Mist anfangen.
Aber naja, dann sehen wir vielleicht wer mehr Partikel darstellen kann. :rolleyes:
Da hätte ich die Befürchtung, dass dies nicht NV sein wird trotz spezieller CUDA-Cores.

Bucklew
2010-05-30, 23:48:09
Ah ok, wieso sollten sie bei einer GPU-CPU-Kombi (mit Lowend-Grafik) auf Physik aus sein?
Nvidia hat sich eine Physik-Engine gekauft, aber muss AMD auch eine besitzen?
Ja, lass uns mal überlegen. Da wollten sie Havok FX machen - das wurde von Intel platt gemacht. Dann ist jetzt auf einmal Bullet in - die erzählen gerne von Nvidia, auf denen sie entwickeln und die ein super Technologiepartner sind. Ja stimmt, wieso sollte AMD nur ne Physikengine haben wollen? :confused:

Richtig, einen zweigeteilten Markt. Der Dumme macht´s vor und der Rest zieht nach.
Stimmt, das war jetzt schon seit Jahrzehnten so bei AMD. Intel macht den Atom - AMD zieht nach (irgendwann werden sie das zumindest). Nvidia kauft PhysX, AMD zieht nach (irgendwann zumindest). Nvidia macht 3DVision AMD zieht nach - irgendwann zumindest. Da stellt sich dann doch die Frage, wer der Dumme ist ;)

Gast
2010-05-31, 00:36:18
Ah ok, wieso sollten sie bei einer GPU-CPU-Kombi (mit Lowend-Grafik) auf Physik aus sein?
Nvidia hat sich eine Physik-Engine gekauft, aber muss AMD auch eine besitzen?
Seit wann ist das die Pflicht eines IHV und vor allem was hätten wir davon?

Richtig, einen zweigeteilten Markt. Der Dumme macht´s vor und der Rest zieht nach.
Besser ein geteilter Markt als ein toter Markt.

Gast
2010-05-31, 17:32:40
Ja, lass uns mal überlegen. Da wollten sie Havok FX machen - das wurde von Intel platt gemacht. Dann ist jetzt auf einmal Bullet in - die erzählen gerne von Nvidia, auf denen sie entwickeln und die ein super Technologiepartner sind. Ja stimmt, wieso sollte AMD nur ne Physikengine haben wollen? :confused:


Und was hat das mit Fusion zutun? Hopala, genau! Gar-nichts!


Stimmt, das war jetzt schon seit Jahrzehnten so bei AMD. Intel macht den Atom - AMD zieht nach (irgendwann werden sie das zumindest). Nvidia kauft PhysX, AMD zieht nach (irgendwann zumindest). Nvidia macht 3DVision AMD zieht nach - irgendwann zumindest. Da stellt sich dann doch die Frage, wer der Dumme ist ;)

AMD hatte schon vorher CPUs die im Atom-Segment wilderten, nur haben die nie daran gedacht, dass jemand solche langsamen Notebooks haben will.

Wen soll AMD denn kaufen? Bullet?
Daß AMD so schlecht beim Thema Physik da steht liegt einzig daran, dass sich die Spieleproduzenten kaum noch darum kümmern selbst etwas auf die Beine zu stellen.
PhysX selber ist nur ein Marketinginstrument NVidias und wird so schnell fallen gelassen wie es eingeführt wurde.
3DVision ist ebenso ein Marketinginstrument dazu noch ein schlechtes, welches nur auf der Hype-Welle verursacht durch die neue Kinotechnik schwimmt. Egal wie man es dreht, letzten Endes ist die Bildqualität noch zu schlecht und die Hardware zu teuer.
Außerdem ist 3D kein NV-only Feature, das ist mit einem zukaufbaren Treiber auch locker mit einer AMD-Karte machbar. Das erste Notebook mit 3D-Polarisationsdisplay, dass ich im Doofmarkt gesehen habe, hatte keine Nvidia Grafik sondern eine von AMD.

Bucklew
2010-05-31, 17:55:19
Und was hat das mit Fusion zutun? Hopala, genau! Gar-nichts!
Physikschnittstelle wäre eine Möglichkeit, eine Fusion-CPU an z.B. Gamer zu verkaufen.

PhysX selber ist nur ein Marketinginstrument NVidias und wird so schnell fallen gelassen wie es eingeführt wurde.
3DVision ist ebenso ein Marketinginstrument dazu noch ein schlechtes, welches nur auf der Hype-Welle verursacht durch die neue Kinotechnik schwimmt. Egal wie man es dreht, letzten Endes ist die Bildqualität noch zu schlecht und die Hardware zu teuer.
Außerdem ist 3D kein NV-only Feature, das ist mit einem zukaufbaren Treiber auch locker mit einer AMD-Karte machbar. Das erste Notebook mit 3D-Polarisationsdisplay, dass ich im Doofmarkt gesehen habe, hatte keine Nvidia Grafik sondern eine von AMD.
So ein Bullshit. PhysX ist inzwischen Physikschnittstelle #1. Klingt ja wirklich extrem danach, das es schnell fallen gelassen wird :rolleyes:
3DVision hast du wohl bis heute auch noch nie benutzt, sonst würdest du nicht erzählen, dass die Bildqualität schlecht ist. Im Gegenteil, 3DVision ist deutlich besser als das, was man im Kino aktuell erhält (http://www.tomshardware.co.uk/blu-ray-3d-3d-vision-3d-home-theater,review-31900-11.html).
AMD ist bis heute auf Drittanbieter angewiesen und Bluray in 3D ist da auch noch Zukunftsmusik.

Gast
2010-05-31, 19:29:22
Physikschnittstelle wäre eine Möglichkeit, eine Fusion-CPU an z.B. Gamer zu verkaufen.


Eine potente Grafikkarte ist wohl immer noch wesentlich besser geeignet für Physik als so eine stark abgespeckte integrierte GPU.


So ein Bullshit. PhysX ist inzwischen Physikschnittstelle #1. Klingt ja wirklich extrem danach, das es schnell fallen gelassen wird :rolleyes:
3DVision hast du wohl bis heute auch noch nie benutzt, sonst würdest du nicht erzählen, dass die Bildqualität schlecht ist. Im Gegenteil, 3DVision ist deutlich besser als das, was man im Kino aktuell erhält (http://www.tomshardware.co.uk/blu-ray-3d-3d-vision-3d-home-theater,review-31900-11.html).
AMD ist bis heute auf Drittanbieter angewiesen und Bluray in 3D ist da auch noch Zukunftsmusik.

Junge, das war kein "Bullshit", aber egal.
Du präsentierst dein CPU-PhysX-Liste um über GPU-PhysX zu diskutieren? FAIL!
Du kannst dir nicht vorstellen, dass NV den PhysX-Support irgendwann einstellen wird, wenn sie es schon an so vielen Stellen gemacht haben (Ageia-PPU, Hybrid-PhysX)? Fail!
Ich suche mir jetzt auch meine subjektiven Testberichte und führe sie als Beweis an für Argumente die keiner geführt hat.
Ich habe nicht gesagt das Kino3D unbedingt besser ist als 3DVision oder über den izd-Treiber.
Qualität gewinnt man nur mit der Shutterbrille, man verliert aber auch Helligkeit und das Bild wird flimmerig.
Viele Leute können den 3D-Effekt garnicht sehen, oder kriegen aufgrund des erzwungenen Focus auf Dauer Kopfschmerzen. Andere wiederrum beschweren sich über jenes Herumgeflimmer. Alternative Konzepte mit Polarisation bringen bei aktuellen Monitoren immer die Halbierung der effektiven Auflösung mit oder verfälschen die Farben. Für die Shutterbrille und den Monitor, der möglichst groß und flott sein sollte muss man einen Haufen Geld ausgeben.
Am Ende funktionieren sowieso nicht alle Spiele mit dem System ==> alles Arsch.

Ich sehe es so, bei AMD muss ich für dieses ungenutzte Feature auch keinen Mehrpreis zahlen. Denn NVidia finanziert sich 3DVision mit Sicherheit auch über den entsprechenden Mehrpreis gegenüber den Radeons.

Bucklew
2010-05-31, 19:32:33
Eine potente Grafikkarte ist wohl immer noch wesentlich besser geeignet für Physik als so eine stark abgespeckte integrierte GPU.
Ist die Frage, wie die GPU ausschaut, aktuell wird eine GT240 dazu empfohlen. Das wäre auch durchaus als integrierte möglich.

Du kannst dir nicht vorstellen, dass NV den PhysX-Support irgendwann einstellen wird, wenn sie es schon an so vielen Stellen gemacht haben (Ageia-PPU, Hybrid-PhysX)? Fail!
Warum sollten sie das tun? Warum sollten sie die Millionen, die sie in PhysX investiert haben auf einmal aus Spaß an der Freude begraben? Das gibt nichtmal ansatzweise Sinn.

Am Ende funktionieren sowieso nicht alle Spiele mit dem System ==> alles Arsch.
"Alles Arsch" - danke für diese höchst intellektuelle und niveauvolle Analyse, typisches Gast-Niveau :rolleyes:

Gast
2010-05-31, 20:35:14
Ist die Frage, wie die GPU ausschaut, aktuell wird eine GT240 dazu empfohlen. Das wäre auch durchaus als integrierte möglich.


Alles ist relativ und ob man seine Hoffnungen auf so ein wackliges Pferd wie einer integrierten Grafikeinheit setzt, ist mehr fraglich als wahrscheinlich.
Eine Bemühung bei Fusion zieht wesentlich und ist ungleich sinnloser als gleich für alle Grafikkarten Physik zu entwickeln und anzukündigen.
Deshalb halte ich die Aussage der Typ entwickelt dort Physik für Fusion für totalen Quatsch.


Warum sollten sie das tun? Warum sollten sie die Millionen, die sie in PhysX investiert haben auf einmal aus Spaß an der Freude begraben? Das gibt nichtmal ansatzweise Sinn.


Geht die Engine aufgrund offener Konkurrenz den Bach runter, so wird Nvidia kein Interesse mehr daran haben den GPU-Part weiter zu pflegen. Das ging bei meinen genannten Beispielen ganz schnell. PhysX ist vorranging Marketing denn echtes Feature, das sieht man deutlich an den Spielen die damit oft total verpfuscht wirken.


"Alles Arsch" - danke für diese höchst intellektuelle und niveauvolle Analyse, typisches Gast-Niveau :rolleyes:

Das einzige Niveau, dass du verstehst. Wenn ich schon nichts verstehe und alles von mir geschriebene Bullenscheiße ist, dann darf ich mir auch ein unpersönliches "Alles Arsch" erlauben.

Bucklew
2010-05-31, 21:09:17
Deshalb halte ich die Aussage der Typ entwickelt dort Physik für Fusion für totalen Quatsch.
Habe ich nie geschrieben. Lesen bildet.

Geht die Engine aufgrund offener Konkurrenz den Bach runter, so wird Nvidia kein Interesse mehr daran haben den GPU-Part weiter zu pflegen. Das ging bei meinen genannten Beispielen ganz schnell. PhysX ist vorranging Marketing denn echtes Feature, das sieht man deutlich an den Spielen die damit oft total verpfuscht wirken.
Dafür müsste sich die offene Konkurrenz erstmal besser entwickeln. Bisher sieht man von Bullet gar nichts.

Das einzige Niveau, dass du verstehst. Wenn ich schon nichts verstehe und alles von mir geschriebene Bullenscheiße ist, dann darf ich mir auch ein unpersönliches "Alles Arsch" erlauben.
Stimmt, "Alles Arsch" war nicht wirklich differenzierter als deine Aussagen vorher. Aber jedem wie es ihm beliebt ;)

Gast
2010-05-31, 21:35:54
Habe ich nie geschrieben. Lesen bildet.


Stimmt, lesen bildet:

Aber vorallem die Softwareseite:

Und da wird zu 100% auch eine Physik-Schnittstelle dazu gehören. Wird ja auch langsam Zeit für AMD, wo auch von Bullet noch gar nichts zu sehen ist...

:rolleyes:


Dafür müsste sich die offene Konkurrenz erstmal besser entwickeln. Bisher sieht man von Bullet gar nichts.

Ich dachte NVidia unterstützt die so tatkräftig?
Klar hat NVidia einen Vorteil, die haben sich doch nur ins gemachte Nest gesetzt. Imho ist das keine große Leistung.


Stimmt, "Alles Arsch" war nicht wirklich differenzierter als deine Aussagen vorher. Aber jedem wie es ihm beliebt ;)

Das ist einfach nur kindisch.
Um es mal mit deinen Worten auszudrücken

So ein Bullshit.

Hat nur leider auch nicht wirklich was mit meiner Aussage zutun, aber egal.
Wenn man nichts vorweisen kann, dann gibt es immer noch die Gast-Karte.
Das ist arm, sehr arm.

Bucklew
2010-05-31, 22:09:15
Stimmt, lesen bildet:
Ja, ich denke, dass sie früher oder später eine Physikschnittstelle entwickeln wollen und supporten wollen. Damit meine ich nicht, dass das einzige wäre oder Fusion-only.

Ich dachte NVidia unterstützt die so tatkräftig?
Klar hat NVidia einen Vorteil, die haben sich doch nur ins gemachte Nest gesetzt. Imho ist das keine große Leistung.
Stimmt, echt keine große Leistung die Physikschnittstelle #1 zu etablierne, das war ja PhysX vorher schon :rolleyes:
Und warum sollte Nvidia BUllet nicht unterstützen? So böse sind die nunmal nicht, wie manche Leute hier gerne tun, auch wenn das gern ins Weltbild passt.

Das ist einfach nur kindisch.
Kindisch ist dein "BUuuhuuuu 3D ist ja soooooo doof!!!!!" - sicherlich ohne, dass du es jemals selbst benutzt hast.

Hat nur leider auch nicht wirklich was mit meiner Aussage zutun, aber egal.
Wenn man nichts vorweisen kann, dann gibt es immer noch die Gast-Karte.
Das ist arm, sehr arm.
Doch, das BUllshit war eine perfekte Zusammenfassung deiner Aussage.

Gast
2010-06-01, 00:18:27
Ja, ich denke, dass sie früher oder später eine Physikschnittstelle entwickeln wollen und supporten wollen. Damit meine ich nicht, dass das einzige wäre oder Fusion-only.


Der wurde offiziell für Fusion abgestellt.


Stimmt, echt keine große Leistung die Physikschnittstelle #1 zu etablierne, das war ja PhysX vorher schon :rolleyes:
Und warum sollte Nvidia BUllet nicht unterstützen? So böse sind die nunmal nicht, wie manche Leute hier gerne tun, auch wenn das gern ins Weltbild passt.


Die Schnittstelle hat die UE3 etabliert nicht NVidia. Auch Ageia hat so einiges getan. Nvidia ist nur zu allen gerannt und hat seine Partikelschlachten in Russenshooter und so mancher B-Produktion etabliert.



Kindisch ist dein "BUuuhuuuu 3D ist ja soooooo doof!!!!!" - sicherlich ohne, dass du es jemals selbst benutzt hast.


Ja, deine Antwort ist es und ja, 3DVision ist völlig überbewertet und nicht NVidia-only. Außerdem besitze ich eine Geforce und habe das 3D-Feature erprobt und letztenendes für unbrauchbar befunden.



Doch, das BUllshit war eine perfekte Zusammenfassung deiner Aussage.

Und das ist ein 1A Grund für eine Meldung an einen Mod.
Schade, dass ich nur Gast bin.

Deine Antworten werden in Zukunft ignoriert, dann habe ich weniger Stress und du kannst dich in deiner vermeintlichen "Genialität" suhlen.

deekey777
2010-07-07, 09:10:10
Der ultimative Beweis, dass GPU-PhysX multithreaded ist:
http://www.realworldtech.com/page.cfm?ArticleID=RWT070510142143&p=3
In each case, the PhysX libraries are executing with an IPC>1, which is pretty good performance. ... . Moreover, PhysX code is automatically multi-threaded on Nvidia GPUs by the PhysX and device drivers, whereas there is no automatic multi-threading for CPUs.
Auf den Rest des Artikels kann man verzichten, da steht nur Blablabalbalablabal.

Bucklew
2010-07-07, 10:03:14
Der ultimative Beweis, dass GPU-PhysX multithreaded ist:
Wie sollte es sonst auch auf ner GPU funktionieren?

deekey777
2010-07-07, 10:49:38
Wie sollte es sonst auch auf ner GPU funktionieren?
Hast du den ganzen Artikel gelesen? Wenn ja, dann wirst du auch erkennen, was die Intention meines Postings überhaupt ist.

Bucklew
2010-07-07, 10:51:24
Hast du den ganzen Artikel gelesen? Wenn ja, dann wirst du auch erkennen, was die Intention meines Postings überhaupt ist.
Die wäre? Warum schreibst du die nicht einfach?

deekey777
2010-07-07, 10:58:34
Die wäre? Warum schreibst du die nicht einfach?
Ich muss weg und mach es kurz: Dieser Artikel ist ein ganz böser Seitenhieb in Richtung PhysX.

BlackBirdSR
2010-07-07, 19:01:33
Wobei ich sagen muss, dass ich sehr sehr viel auf RWT und Davik Kanter gebe. Man sollte diesen Artikel also durchaus ernst nehmen.

Zumal man sonst im Internet und in Magazinen so schnell keine Benchmarks mit Profiling finden wird.

Gast
2010-07-07, 19:05:44
Ich muss weg und mach es kurz: Dieser Artikel ist ein ganz böser Seitenhieb in Richtung PhysX.Als Konsequenz kann man allen (nicht seitens NVidia gekauften) Entwicklern raten, Havok von Intel zu nutzen. Havok wird sowohl auf Intel als auch AMD Mulitcore CPUs den zwei- bis vierfachen Durchsatz erzielen und dabei noch Rechner mit ATI-Grafikkarte unterstützen.

BlackBirdSR
2010-07-07, 19:09:37
Wobei PhysX an sich keine schlechte Physikengine darstellt. Es ist also nicht sicher gesagt, dass eine optimierte Havok-Engine so viel schneller ist als PhysX auf einer CPU.

Auch schreibt DK zurecht, dass die IPC mit >1.x bereits sehr hoch liegt und wohl auch mit packed SIMD nicht unbedingt über 2 Instructionen/Clock average hinauskommen muss.

Gast
2010-07-07, 19:37:51
Wobei PhysX an sich keine schlechte Physikengine darstellt. Es ist also nicht sicher gesagt, dass eine optimierte Havok-Engine so viel schneller ist als PhysX auf einer CPU.

Auch schreibt DK zurecht, dass die IPC mit >1.x bereits sehr hoch liegt und wohl auch mit packed SIMD nicht unbedingt über 2 Instructionen/Clock average hinauskommen muss.Es ist wohl nicht vermessen anzunehmen, daß Havok im Punkt "Qualität der Physikengine" PhysX nicht nachsteht. Es ist ferner anzunehmen, daß die Code-Optimierung seitens Intel exzellent sein sollte. Von daher können wir eher von eine IPC von >2 bei packed SIMD annehmen. DK hat die theoretischen 4 bereits konservativ auf 2 korrigiert. Belegen kann man das natürlich nur mit mehr oder weniger direkten Vergleichen. Auch AVX wird wohl schnell in Havok Einzug halten, dafür wird Intel schon sorgen. AMD hat sich bzgl. Havok mit Intel verbündet, falls das in Vergessenheit geraten sein sollte.

deekey777
2010-07-07, 19:49:43
Als Konsequenz kann man allen (nicht seitens NVidia gekauften) Entwicklern raten, Havok von Intel zu nutzen. Havok wird sowohl auf Intel als auch AMD Mulitcore CPUs den zwei- bis vierfachen Durchsatz erzielen und dabei noch Rechner mit ATI-Grafikkarte unterstützen.
Es muss ja nicht Havok sein, siehe Bullet Physics (GTA4, Red Dead Redemption ua) oder DMM (Force Unleashed mit Havok zusammen).

Wobei mir einiges fehlt: Stimmt die Aussage von 7of9, dass Nvidia die Multicore-Unterstützung zurückgefahren hat? Und zwar abseits der Effekte, die auf der GPU laufen. Wie ist die CPU-Optimierung bei diesen Simulationen?

Ich meine: Dass eine Simulation, die für die GPU gedacht ist, auf einer CPU nicht so läuft, wie es sein sollte, kann man noch verkraften, aber wenn alle Simulationen, die PhysX bietet, auf CPUs ohne heute selbstverständliche Optimierungen laufen, dann läuft da was falsch.

y33H@
2010-07-07, 23:11:05
Die PhysX-Variante von Metro 2033 skaliert hoch bis auf sechs Kerne bzw. 4C/8T. Wenngleich nicht wirklich performant [bei fünf Granaten Richtung 10 Fps].

Bucklew
2010-07-07, 23:17:51
Ich meine: Dass eine Simulation, die für die GPU gedacht ist, auf einer CPU nicht so läuft, wie es sein sollte, kann man noch verkraften, aber wenn alle Simulationen, die PhysX bietet, auf CPUs ohne heute selbstverständliche Optimierungen laufen, dann läuft da was falsch.
Nö, der Punkt ist ein ganz anderer. Auf einer GPU läuft eine PhysX-Simulation den Bruchteil einer Sekunde. Dafür sind maximal viele Threads nötig, damit die Simulation in diesem Bruchteil abgeschlossen wird. Auf einer CPU läuft PhysX dagegen quasi dauerhaft, da muss eben der Entwickler entscheiden, wieviel Threads er der Physik "opfert".

deekey777
2010-07-07, 23:23:02
Nö, der Punkt ist ein ganz anderer. Auf einer GPU läuft eine PhysX-Simulation den Bruchteil einer Sekunde. Dafür sind maximal viele Threads nötig, damit die Simulation in diesem Bruchteil abgeschlossen wird. Auf einer CPU läuft PhysX dagegen quasi dauerhaft, da muss eben der Entwickler entscheiden, wieviel Threads er der Physik "opfert".
Auf der GPU läuft nur ein Thread.

Ikon
2010-07-08, 00:08:41
Schockierende Erkenntnisse von RealWorldTech.
Auch wenn die IPC nicht so schlimm aussieht wie erwartet, so ist der Einsatz von x87 und quasi Singlethreading schon sehr verzweifelt von NV. Es ist gar nicht so einfach einen halbwegs modernen Compiler überhaupt so antiquierten Code ausspucken zu lassen.

Auf der GPU läuft nur ein Thread.

In einem Wort: *autsch*

Coda
2010-07-08, 00:10:01
Ich gehe mal davon aus dass Deekey "Kernel" meinte. Aber auch das ist nicht mehr richtig.

Es ist gar nicht so einfach einen halbwegs modernen Compiler überhaupt so antiquierten Code ausspucken zu lassen.
MSVC++ spuckt im 32-Bit-Modus standardmäßig x87-Code aus. Automatisch signifikant schneller wird da aber auch mit SSE2 nichts.

Um PhysX wirklich 2x flotter zu machen wie im Artikel beschrieben müsste man schon selber Hand anlegen und die zeitkritischen Routinen vektorisieren.

Ikon
2010-07-08, 00:25:54
Um PhysX wirklich 2x flotter zu machen wie im Artikel beschrieben müsste man schon selber Hand anlegen und die zeitkritischen Routinen vektorisieren.

... was man aber von Nvidia nicht ernsthaft erwarten kann, da sie natürlich ihre Hardware verticken wollen. Ich bin eher überrascht, dass man es überhaupt für nötig hält, den Code bewusst zu verlangsamen. Es rückt die (potentiellen?!) Vorteile von hardware-gestützten Physikberechnungen in ein ganz anderes Licht.

Coda
2010-07-08, 00:27:32
Sie verlangsamen ja nichts bewusst. PhysX war als sie es gekauft haben auch nicht schneller.

Man kann ihnen ja auch irgendwie kaum vorwerfen, dass sie den CPU-Code nicht pflegen.

Bucklew
2010-07-08, 00:37:01
Auf der GPU läuft nur ein Thread.
Nö.

Gast
2010-07-08, 13:50:34
http://www.gamestar.de/hardware/news/software/2316188/nvidia_physx.html

Ausführlicher: http://www.realworldtech.com/page.cfm?ArticleID=RWT070510142143

Es stimmt also sehr wohl, dass NV die CPUs absichtlich herumgurken lässt.
Dass etwas nicht stimmen kann, sahen die nicht verblendeten Konsumenten ja ohnehin schon vor langer Zeit.

deekey777
2010-07-08, 14:26:51
In einem Wort: *autsch*
Wieso *autsch*? Die Kernels, die für eine Vielzahl von Elementen ausgeführt werden, werden nacheinander ausgeführt. Dass der Fermi und wohl die Evergreen-Generation mehrere Kernels nebeneinander ausgeführt werden können, ist mir bekannt, aber ist das schon heute bei PhysX der Fall?

Gipsel
2010-07-08, 14:26:57
Auch schreibt DK zurecht, dass die IPC mit >1.x bereits sehr hoch liegt und wohl auch mit packed SIMD nicht unbedingt über 2 Instructionen/Clock average hinauskommen muss.
Der Trick mit SSE ist ja, daß man mit der selben Anzahl (oder sogar weniger, weil man sich x87-Stackakrobatik spart) Instruktionen glatt 4 mal soviel rechnen kann. Die IPC liegt also nicht trotz x87 über 1, sondern wegen ;)

Oder anders gesagt, die Flops/Instruktion sind mit SSE potentiell 4 mal so hoch wie mit x87.

LovesuckZ
2010-07-08, 14:29:54
Das lustigste an der ganzen Diskussion ist, dass sich Entwickler von Spielen, die auf PhysX setzen, überhaupt nicht beschweren. Nur die ganze, fanatische Elite, die sowieso über alles bescheid weiß, hat den Durchblick.
Das sollte einem irgendwie zu denken geben...

deekey777
2010-07-08, 14:35:00
Das lustigste an der ganzen Diskussion ist, dass sich Entwickler von Spielen, die auf PhysX setzen, überhaupt nicht beschweren. Nur die ganze, fanatische Elite, die sowieso über alles bescheid weiß, hat den Durchblick.
Das sollte einem irgendwie zu denken geben...
Warum sollten sie sich beschweren? Einmal bekommen sie PhysX eh umsonst (als Bestandteil von UE3, PS3-SDKs usw) und dann interessiert es wirklich irgendeinen Entwickler, wie gut oder schlecht sein Spiel läuft? Die Vergangenheit hat gezeigt, dass es für die Entwickler bzw. Publisher ausreicht, wenn das Spiel überhaupt läuft.

boxleitnerb
2010-07-08, 14:38:34
Lovesuckz, deine Aussage könnte man 1:1 auf die ganze AF-Diskussion ummünzen. Leute, die etwas zu kritisieren haben, sind dann immer die fanatische Elite oder wie? Blöd nur, dass man in diesem Fall sogar ausführliche und objektive Beweise zu haben scheint.
Ich denke, Kritik führt meistens zu Verbesserungen. Totschweigen braucht man es jedenfalls nicht, auch der Versuch, solche Machenschaften aufzudecken, kann langfristig für den Spieler nur vorteilhaft sein (natürlich theoretisch - bin ja kein Hellseher).

LovesuckZ
2010-07-08, 14:40:33
Natürlich interessiert es den Entwicklern, wie ihr Spiel läuft. Sie müssen die Engine implementieren. Und wäre PhysX so schlecht, dann würden die Leute sich schon längst beschwert haben.
Außerdem nutzen viele die Engine für ihre Hobbyprojekte. Selbst von denen hört man nichts. Wie kann es also sein, dass die, die mit PhysX arbeiten, sich im Gegensatz zu dem AMD fanboys nicht annährend so äußern? Man könnte ja fast meinen, AMD Fanboys äußern sich nur so, weil PhysX jetzt von nVidia kommt...

Lovesuckz, deine Aussage könnte man 1:1 auf die ganze AF-Diskussion ummünzen. Leute, die etwas zu kritisieren haben, sind dann immer die fanatische Elite oder wie? Blöd nur, dass man in diesem Fall sogar ausführliche und objektive Beweise zu haben scheint.
Ich denke, Kritik führt meistens zu Verbesserungen. Totschweigen braucht man es jedenfalls nicht, auch der Versuch, solche Machenschaften aufzudecken, kann langfristig für den Spieler nur vorteilhaft sein (natürlich theoretisch - bin ja kein Hellseher).

Fang gerne an mit PhysX zu arbeiten und erstelle eine Liste, was verbessert werden müsste. Gleichzeitig natürlich auch mit einem Vergleich zwischen den vorhandenen Middlewareoptionen und selbstentwickelten Physikengines.
Denn im Gegensatz zur AF Diskussion, wo man klar die bessere Version aufzeigen kann, ist dies hier nichtmal der Fall. Da wird kritisiert, weil es von nVidia kommt. Punkt. Ende. Aus.

Gast
2010-07-08, 14:41:41
Sie verlangsamen ja nichts bewusst. PhysX war als sie es gekauft haben auch nicht schneller.

Man kann ihnen ja auch irgendwie kaum vorwerfen, dass sie den CPU-Code nicht pflegen.NVidia hat längst angepaßte Versionen für die Vektoreinheiten von Wii, PS3 und XBox 360 (PowerPC) "ready to use". Nein! Da können wir natürlich nicht erwarten, eine SSEx Version zu sehen. Von AVX möchte ich erst gar nicht reden. SSE2 gibt es seit 2000 im P4 und 2003 im K8. 2006 kam Ageia auf den Markt. 2006 war SSE2 bereits gemeinsamer Standard für Vektor-FließkommaOps. Ich gehe sogar noch weiter. NVidia hat PhysX auf x87 gerückt, wohl ganz offensichtlich aus reinem Marketing. Es ist den effizienten Compilern zu verdanken, daß wenigstens noch eine IPC von 1,2 bei x87 haben, oder sollte man besser annehmen, NVidia hat den x87 Code handoptimiert ***lach***

boxleitnerb
2010-07-08, 14:54:56
Fang gerne an mit PhysX zu arbeiten und erstelle eine Liste, was verbessert werden müsste. Gleichzeitig natürlich auch mit einem Vergleich zwischen den vorhandenen Middlewareoptionen und selbstentwickelten Physikengines.
Denn im Gegensatz zur AF Diskussion, wo man klar die bessere Version aufzeigen kann, ist dies hier nichtmal der Fall. Da wird kritisiert, weil es von nVidia kommt. Punkt. Ende. Aus.

Warum musst du berechtigte Kritik immer runtermachen? Du machst genau das, was die AMDler mit der AF-Kritik machen. Aber exakt dasselbe!
Es wird kritisiert, dass man ohne Geforce in bestimmten Spielen einstellige FPS hat - was wohl nicht sein müsste.

Natürlich kann man hier keine bessere PhysX-Version aufzeigen, weil es keine gibt. Ein direkter Performancevergleich mit derselben Szene zwischen Havok und PhysX wäre natürlich sehr aufschlussreich.

Es ist aber auch eine knifflige Sache. Ich frage mich, warum Nvidia hier nicht auch für CPUs richtig optimiert. Verdienen die nicht mit der PhysX-Lizenz auch Geld? Ist halt die Frage, ob man sich den Vorteil der Geforces ggü. CPUs schmälert und dafür performancetechnisch im Vergleich zu Havok besser dasteht. Zwickmühle...

LovesuckZ
2010-07-08, 15:09:21
Warum musst du berechtigte Kritik immer runtermachen? Du machst genau das, was die AMDler mit der AF-Kritik machen. Aber exakt dasselbe!
Es wird kritisiert, dass man ohne Geforce in bestimmten Spielen einstellige FPS hat - was wohl nicht sein müsste.

Ich warte auf Beweise, dass die Konkurrenzprodukte besser sind.


Es ist aber auch eine knifflige Sache. Ich frage mich, warum Nvidia hier nicht auch für CPUs richtig optimiert. Verdienen die nicht mit der PhysX-Lizenz auch Geld? Ist halt die Frage, ob man sich den Vorteil der Geforces ggü. CPUs schmälert und dafür performancetechnisch im Vergleich zu Havok besser dasteht. Zwickmühle...

Weißt du, dass Problem fängt doch schon damit an, dass du nicht verstehst was PhysX ist und dann solche komischen Aussagen triffst.
Ich habe bis heute auch nicht verstanden, dass die Leute nicht kapieren, dass nVidia einem vernünftigen CPU-Support benötig, um GPU-PhysX überhaupt in Spiele zu bekommen. Aber Logik geht einigen in diesem Forum sowieso vollkommen ab.

Ich halte mich daher an Entwickler und nVidia, wenn es um PhysX geht: nvidia-were-not-hobbling-cpu-physx (http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/page-1/)

Bucklew
2010-07-08, 15:10:03
Wieso *autsch*? Die Kernels, die für eine Vielzahl von Elementen ausgeführt werden, werden nacheinander ausgeführt. Dass der Fermi und wohl die Evergreen-Generation mehrere Kernels nebeneinander ausgeführt werden können, ist mir bekannt, aber ist das schon heute bei PhysX der Fall?
Was hat das mit der Anzahl der _THREADS_ zu tun?

Iruwen
2010-07-08, 15:12:51
Wenn Nvidia mit lahmem CPU-PhysX seine Grafikkartenverkäufe anschieben will, will AMD dann mit schlechtem AF Nvidia Grafikkarten verkaufen? :confused:

deekey777
2010-07-08, 15:14:00
Was hat das mit der Anzahl der _THREADS_ zu tun?
Halte dich einfach daraus.

N0Thing
2010-07-08, 15:15:59
Was der Artikel leider nicht zeigt, ist das Verhalten bei Spielen, die keine GPU-PhysX-Unterstützung mitbringen und komplett auf PhysX via CPU setzen.

Nur weil bei der Untersuchung heraus gekommen ist, daß kein (kaum) SSE2 genutzt wird, kann man nicht davon sprechen, daß Nvidia CPUs absichtlich ausbremsen würde.

Bucklew
2010-07-08, 15:21:31
Halte dich einfach daraus.
Warum? Damit weiter unbehelligst Quatsch erzählen kannst? ;D

Genau, PhysX läuft auf ner GPU nur single threaded, deshalb kann es die GPU mit ihren mehreren Hundert Cores auch so toll auslasten ;D

boxleitnerb
2010-07-08, 15:21:32
Ich warte auf Beweise, dass die Konkurrenzprodukte besser sind.


Ich kenne kein Havokspiel, das im einstelligen FPS-Bereich läuft. Du?


Weißt du, dass Problem fängt doch schon damit an, dass du nicht verstehst was PhysX ist und dann solche komischen Aussagen triffst.

Immer noch nachtragend? Ich verstehe sehr wohl, was PhysX ist, unterstell mir hier nichts. Was genau ist an meiner Aussage komisch?


Ich habe bis heute auch nicht verstanden, dass die Leute nicht kapieren, dass nVidia einem vernünftigen CPU-Support benötig, um GPU-PhysX überhaupt in Spiele zu bekommen. Aber Logik geht einigen in diesem Forum sowieso vollkommen ab.

Ein vernünftiger CPU-Support liefert also unterirdische Performance? Was genau verstehst DU an dem verlinkten Artikel nicht?
Der Support besteht aus mehr als eine Anwendung performant zu machen. Gute Entwicklertools, direkter Support durch NV-Mitarbeiter, die Fragen beantworten und bei Bug-Fixing und Problemen helfen.

LovesuckZ
2010-07-08, 15:28:55
Ich kenne kein Havokspiel, das im einstelligen FPS-Bereich läuft. Du?

Ich kenn kein Havokspiel, dass GPU-Physik unterstützt und einen CPU-Fallback-Modus hat.
Wiederrum kenne ich kein CPU-PhysX Spiel, dass im einstelligen FPS-Bereich läuft.


Immer noch nachtragend? Ich verstehe sehr wohl, was PhysX ist, unterstell mir hier nichts. Was genau ist an meiner Aussage komisch?


Nein, das bezweifel ich nach dem obigen Kommentar.


Ein vernünftiger CPU-Support liefert also unterirdische Performance? Was genau verstehst DU an dem verlinkten Artikel nicht?

Wie gesagt: Erst PhysX verstehen, dann nachdenken, wieso nVidia einen vernünftigen CPU Support benötigt.
Dazu kommt, dass nVidia mit PhysX machen kann, was sie wollen. Freier Markt und so.

Gast
2010-07-08, 15:47:45
Wie gesagt: Erst PhysX verstehen, dann nachdenken, wieso nVidia keinen vernünftigen CPU Support benötigt.
Dazu kommt, dass nVidia mit PhysX machen kann, was sie wollen. Freier Markt und so.

ich hab es mal korrigiert.

LovesuckZ
2010-07-08, 15:51:42
ich hab es mal korrigiert.

Aber erkläre doch: Wie kann nVidia GPU-PhysX forcieren, wenn niemand PhysX als Grundlage für die Physikimplementierung einsetzen will? :freak:

Wie gesagt: Logik geht einigen sowas von ab.

boxleitnerb
2010-07-08, 15:52:26
Du bist echt ein Witzbold! Ich rede von Physikberechnungen auf der CPU. Dass Havok mit GPU-Physik nix am Hut hat, brauchst du niemandem hier erzählen - das ist klar.

<10fps:
http://www.pcgameshardware.de/aid,673785/Mirrors-Edge-Physx-Effekte-im-Benchmark-Test/Action-Spiel/Test/?page=2
http://www.computerbase.de/news/software/spiele/rollenspiele/2009/april/video_benchmarks_sacred_2_physx-patch/

um nur zwei Beispiele zu nennen.

Du kannst solange zweifeln, bis es dir hinten wieder rauskommt. Wenn dir das mehr Spaß macht, als die "Unwissenden" zu erleuchten, nur zu.

Nochmal:
Es ist natürlich einfacher, jemandem mangelndes Verständnis zu unterstellen, als fundiert auf Argumente zu antworten. Wobei du mit deinem letzten Satz ja schon selbst zurückruderst ohne es zu merken.
Support ist nicht nur Performance, das hast du wohl überlesen. Es gibt auch andere Gründe, warum Entwickler auf PhysX setzen.

Die Performance in reinen CPU-PhysX Spielen ist ja in Ordnung - sind ja 100+ Stück. Dass bei Spielen, die noch GPU-PhysX unterstützen, der Fallbackmodus so miserable Performance bringt, sollte einem schon zu denken geben - vor allem in Verbindung mit den Analysen aus diesem Artikel.

LovesuckZ
2010-07-08, 15:56:07
Die Performance in reinen CPU-PhysX Spielen ist ja in Ordnung

Danke. Damit ist das Thema ja beendet. :)

Ansonsten: Warum zeigst du dauernd den Fallbackmodus von GPU-PhysX? Und wie kannst du ohne Vergleich mit anderen GPU-Physik-Anwendungen irgendwelche Aussagen treffen?
Entweder wir vergleichen den reinen CPU-Support von PhysX-Spielen mit denen von anderen Physiks-Engine, oder wir vergleichen GPU-Physik Implementierungen. Aber doch bitte nicht beides vermischen und dann Aussagen tätigen, die zeigen, dass man immer noch nicht verstanden hat, was PhysX ist.

Bucklew
2010-07-08, 16:01:07
Dass bei Spielen, die noch GPU-PhysX unterstützen, der Fallbackmodus so miserable Performance bringt, sollte einem schon zu denken geben - vor allem in Verbindung mit den Analysen aus diesem Artikel.
Warum heißt es denn wohl GPU-PhysX? ;)

boxleitnerb
2010-07-08, 16:02:13
Hör doch auf, irgendwas zu behaupten und ERKLÄRE ES, verdammt nochmal. Wenn du meinst du musst!

Schonmal dran gedacht, dass die Performance in reinen CPU-PhysX Spielen in Ordnung ist, weil die Anforderungen nicht so hoch sind? Da sieht man keinen dynamischen Nebel, kein fließendes und tropfendes Wasser etc.

Das ist die eine These.
These zwei ist, dass die CPU-PhysX Implementierungen nur in Spielen, die keinen GPU-PhysX Support haben, richtig optimiert wird. Go figure.

Warum heißt es denn wohl GPU-PhysX? ;)
Der Name sagt überhaupt nichts aus.

BlackBirdSR
2010-07-08, 16:38:17
Der Trick mit SSE ist ja, daß man mit der selben Anzahl (oder sogar weniger, weil man sich x87-Stackakrobatik spart) Instruktionen glatt 4 mal soviel rechnen kann. Die IPC liegt also nicht trotz x87 über 1, sondern wegen ;)

Oder anders gesagt, die Flops/Instruktion sind mit SSE potentiell 4 mal so hoch wie mit x87.

Viel zu pauschal betrachtet und das weisst Du auch ;)
Zumal du ja selbst den Anteil an Gleitkommaoperationen siehst, selbst mit SIMD wird sich der Anteil ggü Integer nicht ändern. Daher wird die IPC auch nicht einfach steil gegen 2.x wandern ;)

Aber das ist egal:
Und auch wenn Leute wie LZ und Co. mal wieder versucht die Diskussion zu zerstören:
Hier geht es eigentlich darum, dass man mit einer Optimierung von PhysX eventuell mehr rausholen könnte und für die Physik die aktuelle möglich ist (auch mit GPU) gar nicht unbedingt eine GPU bräuchte bzw. mehr Physik darstellen könnte, als das mit CPU bisher möglich ist.
Natürlich will das Nvidia nicht und das versteh ich auch! Würd ich auch nicht anders machen

Gipsel
2010-07-08, 17:05:37
Zumal du ja selbst den Anteil an Gleitkommaoperationen siehst, selbst mit SIMD wird sich der Anteil ggü Integer nicht ändern. Daher wird die IPC auch nicht einfach steil gegen 2.x wandern ;)
Der Anteil der Operationen vielleicht nicht so sehr (Anzahl der Addressberechnungen kann aber z.B. auch verringert werden), wohl aber der Anteil an den Instruktionen.

Der IPC würde mit SSE wahrscheinlich sogar sinken, bei allerdings gesteigerten "OPC", also Operationen pro Takt. Darauf wollte ich eigentlich hinweisen.