PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 2 3 4 5 6 7 [8] 9

Gipsel
2010-07-08, 17:11:44
Hier geht es eigentlich darum, dass man mit einer Optimierung von PhysX eventuell mehr rausholen könnte und für die Physik die aktuelle möglich ist (auch mit GPU) gar nicht unbedingt eine GPU bräuchte bzw. mehr Physik darstellen könnte, als das mit CPU bisher möglich ist.
Das schrieb ich bereits vor ein paar Tagen in einem anderen Thread. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8128289&postcount=154)

IVN
2010-07-08, 17:47:13
@Gipsel und BlackBird

Wieso sollte man echte Physik auf den GPUs laufen lassen?

So wie ich das sehe, würde das zu einem perversen Performance-Hit führen. Erst mit der CPU die Vorarbeit erledigen, dann den ganzen "Scheiss" zur GPU (durch das schmle Interface) schieben, dann wieder zur CPU, um im Zeitpunkt, wo man fürs Rendering bereit ist, wieder die Daten an die GPU zu schicken.

Am besten ist es, so wie man es jetzt praktiziert - natürlich wäre eine gemeinsame (AMD+Nv) Schnittschtelle insofern besser, weil sich die Devs mehr Mühe machen würden, das Zeug ordentlich zu implementieren - die GPU macht das was sie besser kann, und die CPU ebenfalls. Und, Gipsel, ich hab dein anderes Posting überflogen, und ich würde zu gerne sehen, wie eine moderne CPU beim berechen von Fluiden und Gasen so abschneidet, während sie auch den normalen Rest (Ai, Scripts, Datenschaufelei, usw), der ja ihr Aufgabengebiet ist, nebenbei erledigt. Ich wette, erst da würde man sehen, wie jämmerlich langsam, und völlig ungeeignet heutige CPUs für diese Aufgabe sind. Mancheiner denkt, die heutigen CPUs wären ja so toll...die iX haben ja so viel Leistung/Clock, usw. ABer klar, die sind so stark in Spielen, weil die heutigen Spiele so gut wie nichts anbieten, was die CPU mehr fordert, als die alten Schinken von vor ner halben Dekade. Hat sich die Physik seit Halflife 2 etwa verbessert? Sieht nicht so aus. Ist vll die AI klüger geworden? Ne. Was hat sich also überhaupt verändert? In meinen AUgen nur die Anzahl GB an Daten, die hin und her geschoben werden. Deswegen setzt sich so ein iX so stark vom C2D/Q ab. Mordsmäßig schneller MC und Cache. Man sollte endlich die "VerCOREung" der CPUs für spielwelt-relevante Physik und ein bisschen weniger debile AI nutzen. Parallel dazu sollten die GPUs weiterhin Physikeffekte berechnen. So arbeitet jede Komponente an dem, was ihr am besten liegt.

deekey777
2010-07-08, 17:58:07
Man kann auch echte Physik von der Grafikkarte berechnen lassen (im Voraus). Das Problem ist aber, dass dies nicht auf allen Rechnern möglich ist (unterschiedliche Hardware: R600/RV670 beherrschen kein OpenCL, kein DirectCompute, die HD4000 beherrschen OpenCL, aber wegen Hardware-Limitierungen eingebremst, die kleinen HD4000 beherrschen kein DC; richtig homogen sind nur Geforces ab G80).

Die Froblins-Demo zeigt ja die Wegfindung auf der GPU.

dllfreak2001
2010-07-08, 18:05:20
Der Artikel ist schon sehr interessant, aber bewegen wird der sicher nichts.
Echt schade, dass Nvidia so einen Mist fabriziert.

LovesuckZ
2010-07-08, 18:09:16
Echt schade, dass Nvidia so einen Mist fabriziert.

nVidia macht garnichts. Es ist die Schuld der Entwickler, dass sie PhysX nehmen.
Freier Markt und so.

/edit: Was ist echte Physik?

deekey777
2010-07-08, 18:23:56
Der Artikel ist schon sehr interessant, aber bewegen wird der sicher nichts.
Echt schade, dass Nvidia so einen Mist fabriziert.
Natürlich bewegt sich da was. Als Huddy sagte, dass PhysX' Multi-Core-Unterstützung bemängelte, gab's gleich eine Reaktion von Nvidia, dass es den Entwickler freistünde eine MC-Optimierung einzubauen. Und alle waren glücklich.
RWTs Artikel bemängelt, dass immernoch nur x87 verwendet wird, gibt's gleich eine Reaktion von Nvidia: x87 ist default, weil einige Entwickler möchten, dass ihre Spiele auch auf älteren CPUs laufen.
Siehst du: Nvidia tut was.

Unechte Physik: Überall hängende Bettlaken usw.
Echte Physik: Man wird von einer Kloschüssel erschlagen.

Gast
2010-07-08, 18:24:12
2006 kam Ageia auf den Markt. 2006 war SSE2 bereits gemeinsamer Standard für Vektor-FließkommaOps.

Skandalös. Ageia ist schon eine ziemlich unverfrorene Firma. tststs.

Gast
2010-07-08, 18:26:15
Das war ich.
Skandalös. Ageia ist schon eine ziemlich unverfrorene Firma. tststs.

Bestimmt würde Nvidia sehr stark anfangen auf SSE2 zu optimieren, wenn sie selbst eine entsprechende CPU hätten, die sie damit verkaufen könnten.

-carsten

deekey777
2010-07-08, 18:29:03
Ob auch NovodeX nur x87 kannte...

Gast
2010-07-08, 19:03:27
Natürlich bewegt sich da was. Als Huddy sagte, dass PhysX' Multi-Core-Unterstützung bemängelte, gab's gleich eine Reaktion von Nvidia, dass es den Entwickler freistünde eine MC-Optimierung einzubauen. Und alle waren glücklich.
RWTs Artikel bemängelt, dass immernoch nur x87 verwendet wird, gibt's gleich eine Reaktion von Nvidia: x87 ist default, weil einige Entwickler möchten, dass ihre Spiele auch auf älteren CPUs laufen.
Siehst du: Nvidia tut was.

Unechte Physik: Überall hängende Bettlaken usw.
Echte Physik: Man wird von einer Kloschüssel erschlagen.

Das sind nur Reaktionen ohne Resultat, alles bleibt beim Alten und das ist schlecht.

BlackBirdSR
2010-07-08, 19:31:17
Ob auch NovodeX nur x87 kannte...

Tja, vielleicht sollte DK mal eine uralt Version der Runtime installieren und dazu Ghost Recon oder Cellfactor....

Es spielt eigentlich keine so große Rolle... aber eine Antwort in Richtung x87 für Legacy-Support ist BS ;)

wieviele CPUs haben kein SSE2?
AthlonXP, Pentium3..............wem fällt noch was ein?
Wer nutzt sowas noch zum Spielen?

y33H@
2010-07-08, 20:40:39
Upcoming PhysX SDK – 3.0 (http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/page-1/)
This doesn't look like a company trying to deliberately cripple CPU-PhysX to make its GPUs look good.

deekey777
2010-07-08, 21:17:06
He points out that you only need to look at the scaling shown in the CPU tests in 3DMark Vantage and FluidMark to see that CPU-PhysX is perfectly capable of scaling performance as more cores are added.
Seltsam: Warum sehe ich so eine schlechte CPU-Auslastung, wenn ich nur einen Emitter habe? Das ist doch irgendwie, nee?

y33H@
2010-07-08, 21:29:26
Kein SDK 3.0 würde ich sagen ... aber ja, ist schon komisch. Da gab's mal ne interessante Benchmark-Studie *such*

deekey777
2010-07-08, 22:01:24
Tja, vielleicht sollte DK mal eine uralt Version der Runtime installieren und dazu Ghost Recon oder Cellfactor....

Es spielt eigentlich keine so große Rolle... aber eine Antwort in Richtung x87 für Legacy-Support ist BS ;)

wieviele CPUs haben kein SSE2?
AthlonXP, Pentium3..............wem fällt noch was ein?
Wer nutzt sowas noch zum Spielen?
Nicht ganz. Es gibt nunmal heute Spiele, deren Mindesvoraussetzung ein Athlon XP ist.
Das ist immernoch keine gute Ausrede, dass Cryostasis auf einem System mit einem Nehalem nur x87 nutzt. Da kann man Märchen erzählen, so lange man will.

Aber: Heute war ich auf PhysiXinfo: Die Reaktion auf Kanters Artikel, die Reaktion von Nvidia und die ungefilterte Wiedergabe ihrer Falschaussagen* durch Redakteure zeigt nur eins: Egal, was man herausfindet, Nvidia schafft es das so hinzubiegen, alsob alles in Ordnung wäre.
Man jubelt ja extrem, dass das PhysX SDK 3.0 mit "automatischem Multi-Threading" kommt, ohne sich Gedanken zu machen, was das überhaupt sein könnte und dass wir im Jahr 2010 leben.

*Ein Emitter pro Kern ist doch was anders als ein Emitter auf vier Kernen.

S940
2010-07-08, 22:34:58
Upcoming PhysX SDK – 3.0 (http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/page-1/)

Klingt gut .. jetzt müssen auf Worte sauch Taten folgen.
Falls die zügig kommen, könnte man in Zukunft doch noch mehr von 6 und 8 Kern CPUs haben ... CPU Physik könnte sich fast durchsetzen :freak:

So ein 1355er Sandy-EN mit 6/8 Kernen bzw. 12/16 Threads hat sicher einiges an Power für Physik übrig :biggrin:

ciao

Alex

Gast
2010-07-08, 22:51:53
Upcoming PhysX SDK – 3.0 (http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/page-1/)Da haben sie ja was in der Hinterhand. Mal schnell den Image-Schaden begrenzen ...

Captain Future
2010-07-08, 23:26:07
Seltsam: Warum sehe ich so eine schlechte CPU-Auslastung, wenn ich nur einen Emitter habe? Das ist doch irgendwie, nee?
Selektives Zitieren FTW?

Der ganze Absatz, von dem du nur selektiv gelesen hast:
"Let's start with multi-threading, which Del Rizzo says is readily available in CPU-PhysX, and "it's up to the developer to allocate threads as they see fit based on their needs." He points out that you only need to look at the scaling shown in the CPU tests in 3DMark Vantage and FluidMark to see that CPU-PhysX is perfectly capable of scaling performance as more cores are added."

Ich hab's für dich mal etwas deutlicher gemacht. :)
In diesem Fall bist du der Developer, weil du dich für nur einen Thread entschieden hast.

deekey777
2010-07-08, 23:48:15
Selektives Zitieren FTW?

Der ganze Absatz, von dem du nur selektiv gelesen hast:
"Let's start with multi-threading, which Del Rizzo says is readily available in CPU-PhysX, and "it's up to the developer to allocate threads as they see fit based on their needs." He points out that you only need to look at the scaling shown in the CPU tests in 3DMark Vantage and FluidMark to see that CPU-PhysX is perfectly capable of scaling performance as more cores are added."

Ich hab's für dich mal etwas deutlicher gemacht. :)
In diesem Fall bist du der Developer, weil du dich für nur einen Thread entschieden hast.
Wie gesagt: Nvidias PR-Maschinerie wirkt.

Es ist schon erstaunlich, dass Huddys Aussage vor einem halben Jahr, dass PhysX eine mangelnde Multicore-Unterstützung hat, immernoch nicht entkräftigt wurde. Weder von Nvidia noch sonst jemandem.
Aber schön, dass du dich zum Wort meldest. :uup:

y33H@
2010-07-08, 23:50:44
Es ist schon erstaunlich, dass Huddys Aussage vor einem halben Jahr, dass PhysX eine mangelnde Multicore-Unterstützung hat, immernoch nicht entkräftigt wurde.Zum gefühlten 17ten Mal: Metro 2033.

Bucklew
2010-07-08, 23:57:05
Es ist schon erstaunlich, dass Huddys Aussage vor einem halben Jahr, dass PhysX eine mangelnde Multicore-Unterstützung hat, immernoch nicht entkräftigt wurde. Weder von Nvidia noch sonst jemandem.
Stimmt, war ja damals schon Quatsch, was er da erzählt hat. Und Quatsch wird mit der Zeit nicht richtiger.

Undertaker
2010-07-09, 00:02:15
Man muss allerdings sagen, dass Metro jetzt nicht gerade die allerbeeindruckendsten Physik-Effekte besitzt... Mich würde mal interessieren, wie es z.B. hier so auf einer aktuellen CPU aussehen würde:

http://www.youtube.com/watch?v=GMHeIGjLZ9I

Eine gute Parallelisierung natürlich vorausgesetzt.

y33H@
2010-07-09, 00:05:32
Mal in Metro 2033 massig Granaten geworfen und mit der AK die Wand pulverisiert? Das steht den Scheiben in Mafia II oder Mirror's Edge in nichts nach.

Mafia II bietet [aktuell] keinen CPU-Pfad für Advanced PhysX.

HarryHirsch
2010-07-09, 01:01:45
Stimmt, war ja damals schon Quatsch, was er da erzählt hat. Und Quatsch wird mit der Zeit nicht richtiger.

Hast du auch nen Link dazu? Oder spamst du nur?

Bucklew
2010-07-09, 01:30:30
Hast du auch nen Link dazu? Oder spamst du nur?
Finden sich hier im Thread, keine Lust die zu wiederholen.

Natürlich ist CPU-PhysX Multithreading-fähig, allerdings muss der Developer dieses Multithreading einbauen, weil natürlich nur entscheiden kann, wieviel Threads PhysX nutzen soll. Wäre ja ziemlich doof, wenn PhysX defaultmäßig die CPU zu 100% auslasten würde und keine CPU-Zeit für den Rest übrig lassen würde.

Gast
2010-07-09, 09:57:42
Video Cards and resolution: APEX High settings
Minimum: NVIDIA GeForce GTX 470 (or better) and a dedicated NVIDIA 9800GTX (or better) for PhysX
Recommended: NVIDIA GeForce GTX 480 for Graphics and a dedicated NVIDIA GTX 285 (or better) for PhysX NVIDIA GPU driver: 197.13 or later.
NVIDIA PhysX driver: 10.04.02_9.10.0522. Included and automatically installed with the game.
http://www.mafia2game.com/community/us/features_pc_specs.php

dllfreak2001
2010-07-09, 10:25:27
Was haben wir denn erwartet, die Anforderungen sind hoch.
So hoch, dass die meisten älteren Grafikkarten gar nicht mehr mitkommen.
So hoch, dass man sich einen neuen Fermi kaufen muss. Ich würde mich wundern wenn
man MafiaII auf einem System mit AMD-Karten überhaupt in Mid-Details zum laufen kriegt.
Wahrscheinlich wird es zum Release eine von Nvidia verordnete Bugseuche im Zusammenhang mit AMD-Treibern geben.

Wenn man sich den Fluidmark ansieht, erkennt man ja, dass CPU-PhysX keinen Support für die Parallelisierung eines Emitters bietet.
Auch kann man nicht feststellen ob parallelisierte Emitter untereinander interagieren.

Ich sehe hier jemanden der sich vor immer schneller werdenden CPUs und dem nahenden Erscheinen von Konkurrenz im HW-Physik-Markt flieht.
Man schraubt ganz einfach die Partikelzahl hoch und "Schwups" alle brauchen eine neue Geforce weil weder die aktuelle CPU noch die Grafik-Vorgängergeneration
im neuen Blockbuster was reißen können. Ein Instrument zur Marktmanipulation in der Hand NVidias und wenn ich einem Konzern nicht traue, dann ist das NVidia.
Die haben sich noch nie mit Ruhm bekleckert!

LovesuckZ
2010-07-09, 10:25:57
Wie gesagt: Nvidias PR-Maschinerie wirkt.

Es ist schon erstaunlich, dass Huddys Aussage vor einem halben Jahr, dass PhysX eine mangelnde Multicore-Unterstützung hat, immernoch nicht entkräftigt wurde. Weder von Nvidia noch sonst jemandem.
Aber schön, dass du dich zum Wort meldest. :uup:

Stimmt. Also abgesehen von Futuremark, deren CPU Test mit der Anzahl an Kerne 1:1 skaliert. :freak:
Aber die fanatische Elite weis sowieso alles besser.

HarryHirsch
2010-07-09, 10:32:19
Stimmt. Also abgesehen von Futuremark, deren CPU Test mit der Anzahl an Kerne 1:1 skaliert. :freak:
Aber die fanatische Elite weis sowieso alles besser.

Von deiner Hand geschrieben lesen sich diese Worte... naja :freak:

dllfreak2001
2010-07-09, 10:43:14
Stimmt. Also abgesehen von Futuremark, deren CPU Test mit der Anzahl an Kerne 1:1 skaliert. :freak:
Aber die fanatische Elite weis sowieso alles besser.

Die Scheiß-Performance auf einem Kern skaliert proportional zur Anzahl der Kerne. Das macht dann bei 4 Kernen 4*Scheiß-Performance und ist deshalb auch nicht so toll.
Außerdem parallelisiert der Futuremark nicht, er belegt einfach jeden Kern mit dem selben Test und lässt in ablaufen.

Das ist so als ob ich vier mal Notepad aufmache und sage: "Was denn?! Notepad kan doch Multithreading!"

Bucklew
2010-07-09, 10:49:24
Man schraubt ganz einfach die Partikelzahl hoch und "Schwups" alle brauchen eine neue Geforce weil weder die aktuelle CPU noch die Grafik-Vorgängergeneration
Ähm, das nennt sich "Fortschritt"? Genauso wie 1920x1200 anstelle von 640x480 und 8xMSAA statt nichts und 16xAF statt nichts?

HarryHirsch
2010-07-09, 10:51:32
http://www.mafia2game.com/community/us/features_pc_specs.php

Wie ist denn die 9800GTX einzuordnen? Vor oder hinter einer GT 240?

LovesuckZ
2010-07-09, 10:59:26
Außerdem parallelisiert der Futuremark nicht, er belegt einfach jeden Kern mit dem selben Test und lässt in ablaufen.

Das ist so als ob ich vier mal Notepad aufmache und sage: "Was denn?! Notepad kan doch Multithreading!"

Das nennt sich Multi-Core Unterstützung. :freak:
Interessant ist doch viel mehr, dass Leute nach etwas verlangen, was sie nichtmal verstehen.

Gast
2010-07-09, 11:04:26
Wie ist denn die 9800GTX einzuordnen? Vor oder hinter einer GT 240?
Theoretisch fast doppelt so schnell.

Gast
2010-07-09, 11:05:32
Ähm, das nennt sich "Fortschritt"? Genauso wie 1920x1200 anstelle von 640x480 und 8xMSAA statt nichts und 16xAF statt nichts?

Ach und sonst hat sich nichts geändert ?
Mehr Objekte , bessere beleuchtung , bessere schatten ?
und CPU bezogen - bessere KI ( Naja , Manchmal), bessere Kollisionstests ,


Nein , wenns nach NV ginge wären wir immer noch bei ca 30000 dreiecken pro frame, goraud-shading mit 128x128 texturen , aber dafür in 1920x1200 64af 128AA.

Nein , das ist kein fortschritt nur die Menge hochzutreiben.
Was Nv hier treibt ist die Anforderungen hochzutreiben ohne die "Qualität"
zu heben.
"Qualität" heist auch 100 mio Partikel machen keinen "besseren" Effekt

Gast
2010-07-09, 11:08:22
Das nennt sich Multi-Core Unterstützung. :freak:
Interessant ist doch viel mehr, dass Leute nach etwas verlangen, was sie nichtmal verstehen.
4 * Notepad offen = MultiCore ??
2 * Calc = Double Precison ??

wow ich wusste nicht das P1 , P2 , P3 und co alle MultiCore waren !

Lächerlich , was einige hier so ablassen !!
Wer hier nix vesteht , wird hier wieder mal Klar !

Bucklew
2010-07-09, 11:09:31
"Qualität" heist auch 100 mio Partikel machen keinen "besseren" Effekt
Kommt drauf an was, Wasser wirst du kaum mit 1000 Partikeln simulieren können, Nebel auch nicht.

Gast
2010-07-09, 11:15:04
Es ist nicht nVidias Schuld, wenn kein Entwickler zig tausend Objekte ohne PhysX implemetiert.
Es zeigt nur, das die Welt nicht an Effekten/Fortschritt interessiert ist.
Diese zig Tausend Objekte könnte der Entwickler hübscher gestalten, auch hier ist es nicht nVidias Aufgabe.

SamLombardo
2010-07-09, 13:32:38
Nein , wenns nach NV ginge wären wir immer noch bei ca 30000 dreiecken pro frame, goraud-shading mit 128x128 texturen

Na das ist ja mal ne interessante Aussage. Wer hat denn gerade eine Grafikkarte auf den Markt gebracht, die die Dreiecksleistung so exorbitant steigert wie noch keine zuvor und im Polygondurchsatz mehr als drei mal soviel leistet wie die Konkurrenz? Also wirklich, wie man NV das von Dir geschriebene vorwerfen kann ist schon sehr merkwürdig.

dllfreak2001
2010-07-09, 14:15:18
Das nennt sich Multi-Core Unterstützung. :freak:
Interessant ist doch viel mehr, dass Leute nach etwas verlangen, was sie nichtmal verstehen.

;D Das sagt der Richtige!

Wenn man es genau nimmt ist "Multi-Core Unterstützung" Käse weil man eigentlich nur Aufgaben auf mehrere Threads aufteilt, das OS verteilt dann diese Threads auf die verschiedenen Kerne.

Iruwen
2010-07-09, 14:15:36
Steht ja jedem frei die Alternativimplementierung von ATI zu verwenden. Ach ups, moment...

LovesuckZ
2010-07-09, 14:17:51
;D Das sagt der Richtige!

Nun, ich habe verstanden, dass Multi-Core nur dann funktioniert, wenn keine Abhängigkeit besteht.
Du denkst anscheinend, man kann selbst dann Kerne mit der Bearbeitungen einer Aufgabe belegen, wenn diese auf ein Ergebnis warten.
Wie gesagt: Anscheinend meinen viele, dass Multi-Core bedeutet, dass mehrere Kerne an der selben Berechnung teilnehmen...

dllfreak2001
2010-07-09, 14:24:08
Nun, ich habe verstanden, dass Multi-Core nur dann funktioniert, wenn keine Abhängigkeit besteht.
Du denkst anscheinend, man kann selbst dann Kerne mit der Bearbeitungen einer Aufgabe belegen, wenn diese auf ein Ergebnis warten.
Wie gesagt: Anscheinend meinen viele, dass Multi-Core bedeutet, dass mehrere Kerne an der selben Berechnung teilnehmen...

Ne zu geil, woher willst du wissen, dass ich das meine?
Ich glaube du willst mich für dumm verkaufen.

Man kann einen Teil der Partikel, auf dem einen Kern berechnen und den anderen auf dem anderen Kern anstatt dumm mit verschiedenen unabhängigen Emittern rumzufuchteln.

HarryHirsch
2010-07-09, 14:31:14
Ne zu geil, woher willst du wissen, dass ich das meine?
Ich glaube du willst mich für dumm verkaufen.

Man kann einen Teil der Partikel, auf dem einen Kern berechnen und den anderen auf dem anderen Kern anstatt dumm mit verschiedenen unabhängigen Emittern rumzufuchteln.

Man könnte doch sicher auch das Ragdoll und zerstörbare Objekte verschiedenen Kernen zuweisen?

Gast
2010-07-09, 14:33:07
Na das ist ja mal ne interessante Aussage. Wer hat denn gerade eine Grafikkarte auf den Markt gebracht, die die Dreiecksleistung so exorbitant steigert wie noch keine zuvor und im Polygondurchsatz mehr als drei mal soviel leistet wie die Konkurrenz? Also wirklich, wie man NV das von Dir geschriebene vorwerfen kann ist schon sehr merkwürdig.

Den Rest hat die "grüne" Sonnenbrille wieder mal ausgeblendet.
NV Marketing at its best.

Wir haben Physik !!! ( wie sie keiner braucht !)
Immer die Sätze richtig "betonen" !

Gast
2010-07-09, 15:32:49
Was braucht man dann?

Ich weiss nach diesen Aussagen nur was man nicht braucht:
Physik
Effekte
Anisotrope Filterung
Antialiasing
Tesselation
gescheite Geometrie, also keine eckigen Steine

Also erzähl mal was man braucht. Vielleicht kannst du mich überzeugen die FX 5900 Ultra aus dem Spielerechner mit dem 4Ghz Gulftown zu entsorgen.

dllfreak2001
2010-07-09, 15:51:06
Man könnte doch sicher auch das Ragdoll und zerstörbare Objekte verschiedenen Kernen zuweisen?

Sicher, das ist aber nur ein Beispiel, dass ich gewählt habe weil sich PhysX bis dato über Partikel definiert.

urbi
2010-07-09, 16:55:46
Das Problem mal schnell zusammengefasst:

1. PhysX ist kein offener Standard und bevorzugt NVIDIA-Hardware enorm. (ACH NEE!)
2. Entwickler setzen es ein, weil es nicht nur nix kostet, sondern weil NVIDIA mit TWIMTBP ihnen ordentlich unter die Arme greift.

Wer ist schuld?

1. Die Leute die NVIDIA-Hardware kaufen (sorry!).
2. Die Leute TWIMTBP bzw. PhysX Spiele kaufen (sorry!).
3. Intel. Die haben schließlich Havok und könnten das angesichts der hohen Verbreitung von Intel-CPUs unter Spielern auch mal etwas interessanter für Entwickler machen. NVIDIA ist doch ein kleiner Fisch. Was die können könnte Intel schon lange. ;)

Problem analysiert und gelöst.

LovesuckZ
2010-07-09, 16:58:01
Wo kann ich CPUs von nVidia kaufen? :confused:

Gast
2010-07-09, 17:00:38
http://www.nvidia.com/page/uli_m6117c.html
Reicht aber wohl nicht ganz für PhysX. :D

y33H@
2010-07-09, 17:01:21
Und Konsolen erst :eek:

pest
2010-07-09, 17:27:10
Upcoming PhysX SDK – 3.0 (http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/page-1/)

den Text hast du dir aber schon durchgelesen, oder?
das du das Ganze mit einer umschmeichelnden Quintessence unterlegst, ist natürlich purer Zufall?


We have found sometimes non-SSE code can result in higher performance than SSE vector code in many situations


:crazy:

Gast
2010-07-09, 17:39:18
pest,

Sollte das Fazit, am Ende eines Artikels, nicht den Inhalt zusammenfassen? Nichts anderes hat y33h@ angegeben - beschwer' dich beim INQ.

-carsten

pest
2010-07-09, 17:45:24
Ich soll mich bei INQ beschweren das y33h@ anscheinend das Fazit ihrer "Recherche" teilt?
Wobei, wie kritisch kann ein Interview NV@PR-Abteilung über NV sein?
Ein bisschen eigene Denkleistung kann man ja schon erwarten, aber nunja ich mag auch nicht diskutieren...solange er keine "It's coming" Bilder postet...

Gast
2010-07-09, 18:01:19
Du "sollst" gar nichts - bzw. das tun, was dir beliebt.

Er hat halt den Link und das Fazit gepostet - alles andere wäre Rosinenpickerei - das Lesen und Denken sollte er, wie du ja selbst sagst, auch von anderen erwarten können, oder?

-carsten

Gast
2010-07-09, 18:27:13
Das Problem mal schnell zusammengefasst:

1. PhysX ist kein offener Standard und bevorzugt NVIDIA-Hardware enorm. (ACH NEE!)
2. Entwickler setzen es ein, weil es nicht nur nix kostet, sondern weil NVIDIA mit TWIMTBP ihnen ordentlich unter die Arme greift.

Wer ist schuld?

1. Die Leute die NVIDIA-Hardware kaufen (sorry!).
2. Die Leute TWIMTBP bzw. PhysX Spiele kaufen (sorry!).
3. Intel. Die haben schließlich Havok und könnten das angesichts der hohen Verbreitung von Intel-CPUs unter Spielern auch mal etwas interessanter für Entwickler machen. NVIDIA ist doch ein kleiner Fisch. Was die können könnte Intel schon lange. ;)

Problem analysiert und gelöst.


Das ist wohl eine sehr einseitige Sicht.
Mich interessieren die Hintergründe um PhysX nicht wirklich, aber wenn es deutlich bessere Methoden gibt als Nvidia's Lösung, warum bietet es die Konkurrenz nicht an, so das ich als Gamer die Wahl habe.
Bietet die Konkurrenz bessere Lösungen an, von denen man als Gamer auch profitiert, dann ist auch wirklich etwas passiert für den Gamer, aber nicht durch Boykott von Mehrwert und Features, solange bis man sich auf einen offenen Standard geeinigt hat.

Das ist so als wenn es nur einen Autohersteller gäbe mit ABS und der Hersteller nutzt es verständlicherweise als Feature um sich von der Konkurrenz abzusetzen.
Leute wie du machen ernsthaft den Käufern von dem ABS Auto den Vorwurf und nicht der oder den anderen Firmen die angeblich ein besseres ABS bauen können, aber den Kunden im Regen stehen lässt.

Sicher wäre es besser wenn PhysX ein offener Standard wäre, nur ist es nicht der Fall und wird es auch wohl vorerst nicht sein, dann ist die Konsequenz nicht das alle Gamer auf PhysX komplett verzichten, sondern die Konsequenz sollte sein das die Konkurrenzfirma die Beine in die Hand nimmt um ein besseres Produkt auf den Markt zu werfen.

Der Grafikkartenmarkt ist doch genauso ein Wettbewerb wie andere Produkte auch, ist also durchaus nachvollziehbar das ein Hersteller bemüht ist sich featuretechnisch von der Konkurrenz abzusetzen.
Das ist letztendlich die Triebfeder für Investitionen und Neuentwicklungen.
Ein offener Standard wäre für die Gamer sicherlich die bessere Lösung, aber wenn es aus marktwirtschaftlichen Überlegungen nicht dazu kommt, dann boykottiere ich nicht die Firma die mir mehr Features bietet, sondern die Firma wird abgestraft die im Feature Bereich hinterherhinkt.
Viele Entwicklungen und Features enstehen erst durch die Tatsache das man sein Produkt von der Konkurrenz absetzen will, ohne diese Antriebsfeder wird es marktwirtschaftlich absolut sinnlos viel Geld und Arbeit in Features zu investieren und man stagniert.

Man sollte sich von der Illusion verabschieden das Hersteller etwas im Interesse der Gaming Community machen, sie machen es ausschliesslich im eigenen Interesse um sich Vorteile am Markt zu verschaffen.
Einheitliche Standards funktionieren immer nur dann wenn alle daran beteiligten Firmen auch davon im gleichen Umfang profitieren, warum sollte man in PhysX investieren wenn man marktwirtschaftlich dadurch keine Vorteile mehr hat.

Hätten alle Konsumenten deine Einstellung, gäbe es viele Entwicklungen überhaupt nicht, weil es für Firmen sehr viel weniger Grund gäbe ihr Produkt so zu verbessern das man sich von der Konkurrenz absetzt.

Bei einem Autohersteller schreit auch niemand wenn er eine neues Feature für seine Produkte anbietet, man solle es boykottieren, wenn er nicht mit der Konkurrenz an einer offenen Lösung arbeitet.
Der Effekt ist, er setzt die Konkurrenz unter Druck und sorgt so sogar noch für einen Innovationswettbewerb/-schub.

Die Grundeinstellung ist zwar löblich einen offenen Standard zu postulieren, im Bezug auf die Gesetzmässigkeiten in einer Marktwirtschaft aber auch illusorisch.
Nicht umsonst kommt das Wort Fortschritt von Voranschreiten.

Grey
2010-07-09, 18:48:36
Das ist wohl eine sehr einseitige Sicht.
Mich interessieren die Hintergründe um PhysX nicht wirklich, aber wenn es deutlich bessere Methoden gibt als Nvidia's Lösung, warum bietet es die Konkurrenz nicht an, so das ich als Gamer die Wahl habe.
Bietet die Konkurrenz bessere Lösungen an, von denen man als Gamer auch profitiert, dann ist auch wirklich etwas passiert für den Gamer, aber nicht durch Boykott von Mehrwert und Features, solange bis man sich auf einen offenen Standard geeinigt hat.

Das ist so als wenn es nur einen Autohersteller gäbe mit ABS und der Hersteller nutzt es verständlicherweise als Feature um sich von der Konkurrenz abzusetzen.
Leute wie du machen ernsthaft den Käufern von dem ABS Auto den Vorwurf und nicht der oder den anderen Firmen die angeblich ein besseres ABS bauen können, aber den Kunden im Regen stehen lässt.

Sicher wäre es besser wenn PhysX ein offener Standard wäre, nur ist es nicht der Fall und wird es auch wohl vorerst nicht sein, dann ist die Konsequenz nicht das alle Gamer auf PhysX komplett verzichten, sondern die Konsequenz sollte sein das die Konkurrenzfirma die Beine in die Hand nimmt um ein besseres Produkt auf den Markt zu werfen.

Der Grafikkartenmarkt ist doch genauso ein Wettbewerb wie andere Produkte auch, ist also durchaus nachvollziehbar das ein Hersteller bemüht ist sich featuretechnisch von der Konkurrenz abzusetzen.
Das ist letztendlich die Triebfeder für Investitionen und Neuentwicklungen.
Ein offener Standard wäre für die Gamer sicherlich die bessere Lösung, aber wenn es aus marktwirtschaftlichen Überlegungen nicht dazu kommt, dann boykottiere ich nicht die Firma die mir mehr Features bietet, sondern die Firma wird abgestraft die im Feature Bereich hinterherhinkt.
Viele Entwicklungen und Features enstehen erst durch die Tatsache das man sein Produkt von der Konkurrenz absetzen will, ohne diese Antriebsfeder wird es marktwirtschaftlich absolut sinnlos viel Geld und Arbeit in Features zu investieren und man stagniert.

Man sollte sich von der Illusion verabschieden das Hersteller etwas im Interesse der Gaming Community machen, sie machen es ausschliesslich im eigenen Interesse um sich Vorteile am Markt zu verschaffen.
Einheitliche Standards funktionieren immer nur dann wenn alle daran beteiligten Firmen auch davon im gleichen Umfang profitieren, warum sollte man in PhysX investieren wenn man marktwirtschaftlich dadurch keine Vorteile mehr hat.

Hätten alle Konsumenten deine Einstellung, gäbe es viele Entwicklungen überhaupt nicht, weil es für Firmen sehr viel weniger Grund gäbe ihr Produkt so zu verbessern das man sich von der Konkurrenz absetzt.

Bei einem Autohersteller schreit auch niemand wenn er eine neues Feature für seine Produkte anbietet, man solle es boykottieren, wenn er nicht mit der Konkurrenz an einer offenen Lösung arbeitet.
Der Effekt ist, er setzt die Konkurrenz unter Druck und sorgt so sogar noch für einen Innovationswettbewerb/-schub.

Die Grundeinstellung ist zwar löblich einen offenen Standard zu postulieren, im Bezug auf die Gesetzmässigkeiten in einer Marktwirtschaft aber auch illusorisch.
Nicht umsonst kommt das Wort Fortschritt von Voranschreiten.

Problem dabei ist, dass es nicht wirklich einen sichtbaren Fortschritt gibt. PhysX wird zu oft als Show-Off genutzt und dann kommt ein Spiel, was "plötzlich" ganz ohne PhysX die Konkurrenz in den Schatten stellt. Oder man schaut 3 Jahre zurück und merkt, dass auch ohne PhysX-Zwang schon richtig geile Partikeleffekte möglich sind, wenn man will.

Obendrein ist auch das was via PhysX berechnet wird nur eine Annäherung die oftmals überreizt wird. Tausende Kleinteile fliegen nicht grundsätzlich bei jedem Scheiß rum der zerstört wird, aber so wird PhysX eingesetzt. Jedes Glas zerbricht in tausende Einzelteile und bei jedes Auto scheint aus ebenso vielen Schrauben und Kleinteilen zu bestehen... das ist kein Fortschritt.


Imo ein möglicher Grund, WEIL es nVidia-Only ist und man (noch) kein großes Spiel entwickelt hat, dass diese Technik wirklich ins Spiel integriert. Dann nämlich schließt man jeden Nutzer der Konkurrenz automatisch aus, aber nur so würde es auch tatsächlich Fortschritt geben. Und genau deswegen ist auch diese Einseitigkeit nicht förderlich.

Coda
2010-07-09, 18:58:07
:crazy:
Kann schon vorkommen, wenn die Datenstrukturen nicht dafür entworfen wurden.

Gast
2010-07-09, 19:12:44
Problem dabei ist, dass es nicht wirklich einen sichtbaren Fortschritt gibt. PhysX wird zu oft als Show-Off genutzt und dann kommt ein Spiel, was "plötzlich" ganz ohne PhysX die Konkurrenz in den Schatten stellt. Oder man schaut 3 Jahre zurück und merkt, dass auch ohne PhysX-Zwang schon richtig geile Partikeleffekte möglich sind, wenn man will.

Obendrein ist auch das was via PhysX berechnet wird nur eine Annäherung die oftmals überreizt wird. Tausende Kleinteile fliegen nicht grundsätzlich bei jedem Scheiß rum der zerstört wird, aber so wird PhysX eingesetzt. Jedes Glas zerbricht in tausende Einzelteile und bei jedes Auto scheint aus ebenso vielen Schrauben und Kleinteilen zu bestehen... das ist kein Fortschritt.


Imo ein möglicher Grund, WEIL es nVidia-Only ist und man (noch) kein großes Spiel entwickelt hat, dass diese Technik wirklich ins Spiel integriert. Dann nämlich schließt man jeden Nutzer der Konkurrenz automatisch aus, aber nur so würde es auch tatsächlich Fortschritt geben. Und genau deswegen ist auch diese Einseitigkeit nicht förderlich.

Natürlich wäre es prinzipiell besser wenn die Hersteller an einem Strang ziehen würden, so das es mehr PhysX Titel gäbe und es keine Einschränkungen geben würde welche Grafikkarte ich nutze.
Zwei verschieden Systeme wo Spiel X nur PhysX mit Firma Y bietet und umgekehrt sind natürlich nicht optimal für den Gamer.

Allerdings ist das marktwirtschaftlich verständlich und absolut logisch.
Bei Konsolen wäre es auch schöner wenn jeder Titel auf jeder Konsole spielbar wäre, aber es gibt nunmal Exklusivtitel.
Viele dieser Exklusivtitel würden bei einer komplett offenen Plattform überhaupt nicht entwickelt werden, da es z.B. für Sony nur Sinn macht ein Spiel wie GT5 zu entwickeln, solange man sich dadurch verspricht das eigene Produkt attraktiver zu machen.
Welchen Grund gäbe es für die Konsolenhersteller noch Manpower und Kapital zu investieren, wenn man sich dadurch keine Marktpositionierungsvorteile mehr versprechen kann.

Das Interesse der Firmen neue Features zu entwickeln basiert eben primär darin sich Wettbewerbsvorteile zu verschaffen, Anreize zu schaffen die das eigene Produkt attraktiver machen.
Ich strafe nicht die Firma ab die mir als Gamer einen visuellen Mehrwert und damit ein besseres Spielerlebnis schafft, sondern die Firma die das nicht tut.

pest
2010-07-09, 21:12:00
Kann schon vorkommen, wenn die Datenstrukturen nicht dafür entworfen wurden.

der Smiley war eher auf das sometimes<->many situations bezogen, oder mein englisch ist zu schlecht
wie dem auch sei...

Gast
2010-07-10, 11:18:01
Natürlich wäre es prinzipiell besser wenn die Hersteller an einem Strang ziehen würden, so das es mehr PhysX Titel gäbe und es keine Einschränkungen geben würde welche Grafikkarte ich nutze.
Zwei verschieden Systeme wo Spiel X nur PhysX mit Firma Y bietet und umgekehrt sind natürlich nicht optimal für den Gamer.

Allerdings ist das marktwirtschaftlich verständlich und absolut logisch.
Bei Konsolen wäre es auch schöner wenn jeder Titel auf jeder Konsole spielbar wäre, aber es gibt nunmal Exklusivtitel.
Viele dieser Exklusivtitel würden bei einer komplett offenen Plattform überhaupt nicht entwickelt werden, da es z.B. für Sony nur Sinn macht ein Spiel wie GT5 zu entwickeln, solange man sich dadurch verspricht das eigene Produkt attraktiver zu machen.
Welchen Grund gäbe es für die Konsolenhersteller noch Manpower und Kapital zu investieren, wenn man sich dadurch keine Marktpositionierungsvorteile mehr versprechen kann.

Das Interesse der Firmen neue Features zu entwickeln basiert eben primär darin sich Wettbewerbsvorteile zu verschaffen, Anreize zu schaffen die das eigene Produkt attraktiver machen.
Ich strafe nicht die Firma ab die mir als Gamer einen visuellen Mehrwert und damit ein besseres Spielerlebnis schafft, sondern die Firma die das nicht tut.

Spätestens wenn du gar kein Spiel mehr ohne die neueste Highendkarte von Nvidia spielen kannst wirst du sehen was hier falsch läuft.

Mr.Magic
2010-07-10, 11:22:30
Spätestens wenn du gar kein Spiel mehr ohne die neueste Highendkarte von Nvidia spielen kannst wirst du sehen was hier falsch läuft.

Habe ich was verpasst? Kommen neue Konsolen auf den Markt, die exklusiv Highend nVidia-Hardware verwenden?

Black-Scorpion
2010-07-10, 11:30:17
Habe ich was verpasst? Kommen neue Konsolen auf den Markt, die exklusiv Highend nVidia-Hardware verwenden?
Den Threadtitel hast du aber schon gelesen?
Was haben Konsolen mit GPU PhysX zu tun.

Mr.Magic
2010-07-10, 11:35:31
Was hatte der Beitrag vom Gast mit GPU-PhysX zu tun? Was hat dein Beitrag mit PhysX zu tun? Eben.

Der Gast hatte behauptet, man könnte zukünftig keine Spiele mehr mit CPU-PhysX spielen, was einfach nur Blahfug ist, da es auf der Technologiebasis AKA Konsolen verwendet wird.

Black-Scorpion
2010-07-10, 11:51:04
Keine Ahnung wo du da etwas von CPU PhysX liest.

Aber was man hier findet sieht eher danach aus das der Gast nicht so falsch liegt.
http://www.mafia2game.com/community/us/features_pc_specs.php

Mr.Magic
2010-07-10, 12:18:28
Keine Ahnung wo du da etwas von CPU PhysX liest.

Aber was man hier findet sieht eher danach aus das der Gast nicht so falsch liegt.
http://www.mafia2game.com/community/us/features_pc_specs.php

Wie schlimm! Dann muss man halt auf die zusätzlichen GPU PhysX Effekte verzichten*, und sich mit CPU PhysX, sprich PS3/360 Grafik, begnügen.

RECOMMENDED SYSTEM REQUIREMENTS
Operating System: Microsoft Windows XP (SP2 or later) / Windows Vista / Windows 7
Processor: 2.4 GHz Quad Core processor
RAM: 2 GB
Video Card: nVidia GeForce 9800 GTX / ATI Radeon HD 3870 or better
Hard Disc: 10 GB
Sound Card: 100% DirectX 9.0c compliant card
Peripherals: Keyboard and mouse or Windows compatible gamepad

Gast
2010-07-10, 13:23:52
Wer Qualität will setzt auf Nvidia, daran ist nichts falsch.
Falsch ist, anderen Qualität vermiesen zu wollen. Das kommt dann imer von den Besitzern von 400€ Karten, die im Grunde nicht an Qualität interessiert sind.

Gast
2010-07-10, 19:53:07
Ich finde die Systemanforderungen von MafiaII in Bezug auf PhysX schon atemberaubend. Für mich sind hohe Systemanforderungen kein Qualitätsmerkmal eines Spiels.
Es ist schon lächerlich, dass es mittlerweile Spiele gibt die eine dedizierte GPU für den reinen PhysX benötigen (selbst bei Medium-Settings), ursprünglich wurde GPU-Physik als Extra zum Auslasten der ungenutzten Ressourcen der modernen GPUs angedacht. Heute ist es ein Selbstläufer man muss schon extra recht potente Grafikkarten kaufen um Physikeffekte in Spielen aktivieren zu können.

Es wird kein Finger krumm gemacht um wenigstens eine vernünftige Illusion von zersplitternden Scheiben oder Holz zu erzeugen. Stattdessen wird einfach alles deaktiviert und dem NV-losen Kunden ein blamables Bild präsentiert, wie Spiele vor 10 Jahren ausgesehen haben.

PhysX ist kein Segen, es ist ein böser Fluch der noch lang nicht ausgestanden zu sein scheint.

y33H@
2010-07-11, 02:35:27
Es wird nichts deaktiviert. Du erhältst Cross-Platform-Optik :rolleyes: NV-User aber sehen optional mehr.

Gast
2010-07-11, 02:52:57
Der Kampf gegen Windmühlen!
Manche Leute begreifen einfach nicht das ihnen nichts weggenommen oder deaktiviert wird, sondern das es bei Nvidia etwas dazu gibt, vorrausgesetzt man hat die passende Hardware.

Es ist prinzipiell wie bei einem TV, Modell N bietet Ambilight, Modell A bietet kein Ambilight.
Da würde auch keiner auf die Idee kommen und die Firma N beschuldigen, dass sie dafür verantwortlich sind das auf dem TV Modell der Firma A kein Ambilight gibt.
Jeder kapiert das es sich um ein Feature der Firma N handelt, nur bei Grafikkarten meinen viele ATI Besitzer das ihnen etwas weggenommen wird und begreifen nicht das dieses Feature einfach nicht von ihrem Hersteller angeboten wird.

ATI-Usern wird nichts weggenommen, sondern NV-Usern haben durch ein Feature was ihr Hersteller anbietet und vermarktet die Option mehr zu sehen.

In allen Produktbereichen kapieren es die Leute, nur bei Grafikkarten nicht.
Ein Toyota Käufer flamed BMW auch nicht dafür das es in seinem Toyota kein Bremsenergierückgewinnungssystem gibt.
Er weiss das er einen BMW kaufen muss wenn er das haben möchte.

Einige ATI Käufer möchten alles haben, verstehen aber nicht das ihr Hersteller dieses Feature nicht im Programm hat.

derguru
2010-07-11, 03:05:57
Der Kampf gegen Windmühlen!
Manche Leute begreifen einfach nicht das ihnen nichts weggenommen oder deaktiviert wird, sondern das es bei Nvidia etwas dazu gibt, vorrausgesetzt man hat die passende Hardware.

Es ist prinzipiell wie bei einem TV, Modell N bietet Ambilight, Modell A bietet kein Ambilight.
Da würde auch keiner auf die Idee kommen und die Firma N beschuldigen, dass sie dafür verantwortlich sind das auf dem TV Modell der Firma A kein Ambilight gibt.
Jeder kapiert das es sich um ein Feature der Firma N handelt, nur bei Grafikkarten meinen viele ATI Besitzer das ihnen etwas weggenommen wird und begreifen nicht das dieses Feature einfach nicht von ihrem Hersteller angeboten wird.

ATI-Usern wird nichts weggenommen, sondern NV-Usern haben durch ein Feature was ihr Hersteller anbietet und vermarktet die Option mehr zu sehen.

In allen Produktbereichen kapieren es die Leute, nur bei Grafikkarten nicht.
Ein Toyota Käufer flamed BMW auch nicht dafür das es in seinem Toyota kein Bremsenergierückgewinnungssystem gibt.
Er weiss das er einen BMW kaufen muss wenn er das haben möchte.

Einige ATI Käufer möchten alles haben, verstehen aber nicht das ihr Hersteller dieses Feature nicht im Programm hat.

vielleichts liegts daran das ati user das gesehene physX nicht als feature sehen.

Gast
2010-07-11, 03:18:13
Ob man NV's GPU-PhysX so wie es ist gut oder schlecht findet ist ein anderes Thema.
Das es ein Feature ist steht ausser Frage.

Fakt ist nunmal das auf einer Radeon schlicht kein GPU-PhysX läuft, b.z.w. es nicht angeboten wird.
Hier ging es ja um Mafia 2 und bei der PC-Version wird ATI Besitzern keine beschnittene Grafik präsentiert, sondern Geforce Besitzern (vorrausgesetzt die Hardware ist spezifiziert und leistungsstark genug) eine erweiterte Grafik.

Das ist ein feiner Unterschied, niemand beschneidet die Grafik bei einer Radeon, sondern dieses Feature wird schlicht und einfach von ATI nicht angeboten.

Von daher sollte man sich nicht bei NV beschweren, sondern beim eigenen Hersteller, warum er nicht etwas Vergleichbares anbietet und ebenfalls entsprechende Spiele pusht, denn von alleine wird kein Publisher den Zusatzaufwand stemmen wollen.

Die Beschwerden sollten in dem Fall an ATI gehen, warum man dem Kunden nicht ebenfalls bei machen Spielen einen grafischen Mehrwert bietet.

y33H@
2010-07-11, 03:25:16
Hat AMD doch. Bei ein paar Spielen via DX11 - bis Fermi kam, der das auch kann. NV hatte also auch DX11 so wie AMD und hat daher zB in Metro 2033 noch erweiterte PhysX-Effekte eingebaut um seinen Kunden einen Mehrwert zu bieten.

HarryHirsch
2010-07-11, 03:39:30
Hat AMD doch. Bei ein paar Spielen via DX11 - bis Fermi kam, der das auch kann. NV hatte also auch DX11 so wie AMD und hat daher zB in Metro 2033 noch erweiterte PhysX-Effekte eingebaut um seinen Kunden einen Mehrwert zu bieten.

Jo, ein Mehrwert der auf Quad CPUs natürlich nicht machbar ist weil SSE zu lahm ist und alles über einem CPU thread nur Wunschdenken ist.

y33H@
2010-07-11, 03:43:01
CPU-PhysX ist in Metro 2033 multithreaded. Die Performance ist trotzdem äh bescheiden (5 Granaten = 10 Fps).

Die normale Gameplay-Physik läuft nicht besser oder schlechter als Havok ...

HarryHirsch
2010-07-11, 03:50:52
Bei 100% Auslastung auf allen Kernen?

HarryHirsch
2010-07-11, 04:07:05
Bei meinem sys mit 2 5870@1020 GPU und E8400 ist die CPU echt am überlegen ob sie runter takten muss oder nicht.
Eine Endlösung sieht anders aus...

y33H@
2010-07-11, 04:12:07
Du erreichst keine 100%, da PhysX natürlich nicht die gesamte CPU auslastet und auch nicht darf - schließlich muss die noch andere Dinge berechnen. Zudem sehe ich NV nicht in der Pflicht, GPU-PhysX für die CPU zu optimieren. Das mag blöd sein, aber wie AMD und Intel auch will NV Geld verdienen und braucht etwas, um einen Mehrwert zu schaffen. HQ-AF, SGSSAA in allen APIs und eben GPU-PhysX.

Warum etwas optionales verdammen?

HarryHirsch
2010-07-11, 04:21:30
Warum darf PhysX keine freien Ressourcen nutzen?

=Floi=
2010-07-11, 04:36:17
du hast zu wenige kerne/threads auf deiner cpu.

HarryHirsch
2010-07-11, 04:48:13
Oho, 2 Kerne sind also zu wenig. Was denkst braucht die Engine ohne PhysX, also nur für die Darstellung des HUD, der Eingabe des Spielers und die Berechnung der hitboxes?
Wenn da 10% von einem Core drauf gehen haben die gepennt.

=Floi=
2010-07-11, 04:53:41
die antwort sollten dir die anderen geben. ich bin zu müde dafür... ;)

----
gerade gefunden:
http://www.hartware.de/news_49584.html
ein bisschen öl fürs feuer...

Mr.Magic
2010-07-11, 08:55:55
Oho, 2 Kerne sind also zu wenig. Was denkst braucht die Engine ohne PhysX, also nur für die Darstellung des HUD, der Eingabe des Spielers und die Berechnung der hitboxes?
Wenn da 10% von einem Core drauf gehen haben die gepennt.

Du spielst also ohne Ton, KI, uswusf? Erstaunlich! Macht das dann noch Spaß?

Gastinelli
2010-07-11, 09:37:53
Dass NV User mehr zu sehen bekommen, stört mich an der Sache kein bisschen, auch wenn die NV-Freaks uns das immer wieder gebetsmühlenartig vorwerfen.

Mich stört an der Sache, dass wir jahrelang weg von diesem proprietären Scheiß waren, und nun keimt der Käse wieder etwas auf. NV wird ja nicht müde zu betonen, wie sehr ihnen die PC-Spieler am Herzen liegen. Nun, ATI Nutzer sind auch PC-Spieler, eventuell sogar irgendwann mal Kunde bei NV, möglicherweise aber auch künftige Konsolennutzer. Das wäre ja besonders förderlich für den PC. Denn gerade PhysX Spiele sind, sofern nur die CPU Variante der Middleware verwendet wird, in etwa auf dem Niveau von Half Life 2 aus dem Jahre 2004. Ach halt, ich habe ja nicht mehr CPU-Power zur Verfügung als damals....Mein damaliger A64 3200+ 2GHZ könnte sicher gut mit meinem 3.8GHZ Phenom II X4 965 mithalten. Oder anders gesagt: Sieht ein ATI Nutzer PhysX auf der Spielepackung, kann er sich auf ein Retro-Erlebnis einstellen. Mafia 2 wird punkto Physik, aber ohne GPU-beschleunigte Physik, in etwa auf dem Niveau von Mafia 1 sein (toller Satz, ich weiß). Das ist messbarer Fortschritt.

Man dürfte verstehen, weshalb ich kein Freund dieser Middleware bin.

LovesuckZ
2010-07-11, 09:44:29
Nein, tut man nicht. Du bist ein AMD Freund und findest es deswegen schlecht. Sonst würdest du nVidia loben, dass sie Physik wieder verstärkt in den Fokus bringen. Aber dies scheint dir efal sein.
Lustig ist ja, dass man von nVidia erwartet, das sie bessereb CPU Support in Spielen liefern sollen...

Gastinelli
2010-07-11, 09:46:19
Nein, tut man nicht. Du bist ein AMD Freund und findest es deswegen schlecht. Sonst würdest du nVidia loben, dass sie Physik wieder verstärkt in den Fokus bringen. Aber dies scheint dir efal sein.
Lustig ist ja, dass man von nVidia erwartet, das sie bessereb CPU Support in Spielen liefern sollen...

Ich bitte die Moderation höflich, diese boshafte Unterstellung umgehend zu löschen.

Gast
2010-07-11, 10:23:41
Wo er Recht hat, hat er Recht.
Nvidia macht wenigstens etwas für den Kunden in dem Bereich, auch wenn GPU-PhysX nach wie vor nur wenige Titel bieten.
Für mich ist das als PC Gamer mit High End Hardware der richtige Schritt, es ist frustrierend genug wie wieviel Potential auf dem PC verschenkt wird durch simple Portierungen und Limitierungen seitens der Konsolen, da bin ich froh über jeden Titel der mir ein besseres visuelles Gamingerlebnis bietet.

Was ich nicht nachvollziehen kann, dass man Nvidia für alles verantwortlich macht.
ATI Besitzer machen Nvidia dafür verantwortlich das sie nur Cross-Platform-Optik bekommen, verantwortlich dafür ist aber nur ATI.
Ganz davon abgesehen gibt es ja auch Möglichkeiten für ATI Besitzer GPU-PhysX zu nutzen, wenn auch nich offiziell supported.
Das passt den Leuten dann aber auch nicht, dann wird über zu hohe Hardwaranforderungen gejammert.

Vielleicht sollte sich eure Kritik mal auf ATI kanalisieren, die ihre Käufer bezüglich GPU PhysX im Regen stehen lässt.
Nicht Nvidia ist dafür verantwortlich das es für ATI Besitzer kein offizielles GPU-PhysX gibt, sondern ATI.
Was hindert ATI daran eine eigene Lösung anzubieten, geht doch angeblich soviel besser als die Nvidia Lösung.

aths
2010-07-11, 10:56:13
Du erreichst keine 100%, da PhysX natürlich nicht die gesamte CPU auslastet und auch nicht darf - schließlich muss die noch andere Dinge berechnen. Zudem sehe ich NV nicht in der Pflicht, GPU-PhysX für die CPU zu optimieren. Das mag blöd sein, aber wie AMD und Intel auch will NV Geld verdienen und braucht etwas, um einen Mehrwert zu schaffen. HQ-AF, SGSSAA in allen APIs und eben GPU-PhysX.Die Frage ist, ob sie den GPU-Vorteil nur durch künstliches Ausbremsen von der CPU-Lösung erreichen. Mit 4- und 6-Kernern könnten CPUs genug Leistung habe, PhysX (vielleicht abgesehen vom Detail-Level in Mafia 2) vernünftig zu unterstützen.

Nvidia sollte mal vom hohen Ross steigen und PhysX-Support ohne angezogene Handbremse auch für CPUs bringen und GPU-PhysX auch in Systemen mit Radeon-Grafik anbieten. Meinetwegen können die auch eine neue Serie entwickeln, praktisch "Tesla für Arme" – GPU-Boards für Cuda und PhysX, wie die alten Tesla-Versionen ohne Bildausgang.

Gast
2010-07-11, 11:07:18
Nvidia soll sich also hinsetzen, teure Manpower investieren, damit sich Intel und AMD die Hände reiben?

Gast
2010-07-11, 11:27:12
Warum sollte Nvidia GPU-PhysX auch für Systeme mit dem Konkurrenzprodukt anbieten?
Absolut unlogisch und auch naiv soetwas zu fordern.
Beide Unternehmen konkurrieren um Marktanteile und da wird tatsächlich verlangt das Nvidia für ATI Kunden GPU-PhysX offiziell zugänglich macht, Spiele pusht, Geld investiert und Manpower bereit stellt um dem Konkurrenten kostenlos zu GPU-PhysX zu verhelfen.

Nirgendwo in der Marktwirtschaft würde man auf die Idee kommen das eine Firma ihre marktstrategischen Vorteile auch der Konkurrenz kostenfrei zukommen lässt, bei Grafikkarten ist man tatsächlich der Meinung Nvidia müsse die ATI Kunden mitversorgen, hier handelt es sich nicht um einen allgemeinnützigen Verein.

Das ist so als wenn man fordert das Red Bull doch bitte auf eigene Kosten das Aerodynamic-Paket ihrer F-1 Cars der Konkurrenz zur Verfügung stellen sollte.

y33H@
2010-07-11, 11:31:06
@ Gastinelli

Wo hast du bei einem Titel mit Havok oder ODE eine weitaus tollere Physik, die PhysX nicht erlaubt? Die Physik-Sparte ist, wenn man so will, generell Retro. Selbst die aus Crysis [Palmen darf ich umnieten und Bäume überleben].

@ aths

Sofern GPUs wirklich performanter sind als CPUs bliebe NV ja noch der Geforce-Benefit. Ich bin nicht gewillt, (m)eine mit GPU-PhysX zu belasten - ich brauche die Rechenpower anderweitig. Solange GPU-PhysX so eingesetzt wird, dass die generelle GPU-Leistung nicht extrem leidet und die Optik dennoch subjektiv besser wird [Metro 2033, Mafia II] ist es ok. So eine Orgie wie in Dark Void oder Sacred 2 aber erachte ich als sinnlos. Und ich hätte gerne die Option, das Ganze meiner CPU aufzubürden - die schaukelt nämlich oft Eier. Aber NV ist eben wie AMD und Intel nicht die Heilsarmee.

Black-Scorpion
2010-07-11, 11:42:34
Vielleicht sollte sich eure Kritik mal auf ATI kanalisieren, die ihre Käufer bezüglich GPU PhysX im Regen stehen lässt.
Nicht Nvidia ist dafür verantwortlich das es für ATI Besitzer kein offizielles GPU-PhysX gibt, sondern ATI.
Was hindert ATI daran eine eigene Lösung anzubieten, geht doch angeblich soviel besser als die Nvidia Lösung.
Sicher nicht, auch wenn du das nicht hören willst.
Außerdem ist es auf Cuda zugeschnitten und nicht mal eben auf ATI lauffähig zu machen.
Aber das wusstest du bestimmt schon. ;)

Malabolge
2010-07-11, 12:31:11
Der Kampf gegen Windmühlen!
Manche Leute begreifen einfach nicht das ihnen nichts weggenommen oder deaktiviert wird, sondern das es bei Nvidia etwas dazu gibt, vorrausgesetzt man hat die passende Hardware.

Es ist prinzipiell wie bei einem TV, Modell N bietet Ambilight, Modell A bietet kein Ambilight.
Da würde auch keiner auf die Idee kommen und die Firma N beschuldigen, dass sie dafür verantwortlich sind das auf dem TV Modell der Firma A kein Ambilight gibt.
Jeder kapiert das es sich um ein Feature der Firma N handelt, nur bei Grafikkarten meinen viele ATI Besitzer das ihnen etwas weggenommen wird und begreifen nicht das dieses Feature einfach nicht von ihrem Hersteller angeboten wird.

ATI-Usern wird nichts weggenommen, sondern NV-Usern haben durch ein Feature was ihr Hersteller anbietet und vermarktet die Option mehr zu sehen.

In allen Produktbereichen kapieren es die Leute, nur bei Grafikkarten nicht.
Ein Toyota Käufer flamed BMW auch nicht dafür das es in seinem Toyota kein Bremsenergierückgewinnungssystem gibt.
Er weiss das er einen BMW kaufen muss wenn er das haben möchte.

Einige ATI Käufer möchten alles haben, verstehen aber nicht das ihr Hersteller dieses Feature nicht im Programm hat.


Frage : muss ich beim Toyota auch den selben (!) Preis wie für einen BMW bezahlen.

Soll Heissen : wenn einige Hersteller meinen für einen bestimmten Graka-Hersteller zu optimieren müssen, warum muss ich dann für ein
Produkt das bei mir "weniger" leistet trotzdem GLEICHVIEL bezahlen ?
Ein ATI-user muss genauso 60-100€ für Mafia 2 bezahlen wie ein Nvidia-User. Also wird doch der ATI-User vom Mafia 2 -Hersteller
beschissen.Warum soll ein ATI-User keine ATI-optimierungen erwarten dürfen.
Nicht nur dass , man wird regelrecht auch noch "zwangsausgeblockt".

Gast
2010-07-11, 12:38:32
Das ist als wenn der eine User sich ein HD Ready TV kauft und der andere einen FullHD, für die 1080p Blu-ray bezahlen beide trotzdem den gleichen Preis.
Erwartest du jetzt ernshaft das der HD Ready TV Besitzer einen Rabatt beim Kauf von Blu-ray's bekommt weil seine Hardware limitiert ist?

Demogod
2010-07-11, 12:44:25
Bestimmt hat jemand die Aussage von John CArmack schon gebracht die ich auch unterstütze, sinngemäß sagte er, dass er von Anfang an wusste, dass sich der Shit so entwickeln wird. Also Ageia wurde blos gegründet, um sich dann später kaufen zu lassen. Supertoll. Hab grad mal kurz nach dem Preis gesucht, über den Ageia letztend Endes über den Tisch ging: 150Millionen $ evtl (http://www.pcper.com/article.php?aid=515) . Möchte da AMD jetzt nicht unbedingt Gutmenschentum zureden und behaupten, sie haben Ageia nicht gekauft einfach weil sie die Kohle nicht hatten aber ich finde das Verhalten von nVidia dementsprechend definitiv auch nicht sauber. My 2€-Cent

Gast
2010-07-11, 12:45:56
Selbst bei Grafikkarten ist es so, jemand der sich eine Budget Karte kauft kann auch nicht jedes Spiel mit vollen Details zocken und du erwartest dann ernsthaft das der User einen Rabatt bekommt, weil er weniger geboten bekommt als der User mit der High End Karte?

[Gast]²
2010-07-11, 13:16:34
Hi,

das nVidia Technologien entwickelt/kauft um sich am Markt von den Konkurrenten abzuheben ist völlig OK.

PhysiX wird allerdings nicht nur für nVidia-Grafikkarten ageboten wird, sondern auch für CPUs. Wenn PhysiX auf CPUs vernünftig laufen würde und auf nVidia GPUs besser wäre auch noch alles OK.

Allerdings entstehen die Vorteile von PhysiX@nVidia GPU wohl hauptsächlich dadurch, das PhysiX auf der CPU absichtlich gebremst/nicht optimiert wird (z.B. quasi Industriestandard SSE2 wir nicht verwendet, ...), und das ist NICHT OK.

Gast
2010-07-11, 14:10:43
Und was vernünftig ist, definierst du?

Gast
2010-07-11, 14:23:00
Frage : muss ich beim Toyota auch den selben (!) Preis wie für einen BMW bezahlen.

Es ist nicht BMWs Schuld, wenn Toyota genauso teuer ist. Um auf den Ursprung zurück zukommen, AMD ist sogar teurer.


Soll Heissen : wenn einige Hersteller meinen für einen bestimmten Graka-Hersteller zu optimieren müssen, warum muss ich dann für ein
Produkt das bei mir "weniger" leistet trotzdem GLEICHVIEL bezahlen ?
Ein ATI-user muss genauso 60-100€ für Mafia 2 bezahlen wie ein Nvidia-User. Also wird doch der ATI-User vom Mafia 2 -Hersteller
beschissen.
Was hat das mit Nvidia zu tun?

Konsolenspieler müssen sogar mehr zahlen, obwohl dort Mafia2 noch beschränkter sein wird.
Rennst du dann auch wieder zu Nvidia um dich zu beschweren?

Ich sehe, du bist darüber erborst das Mafia2 für Radeonnutzer nicht billiger wird. Nun, PhysX ist in dem Fall nunmal unter maximale Details einzuordnen. Besitzer von schwacher Hardware können auch nicht alle Details nutzen und müssen dennoch das selbe zahlen. Hier gäbe es von dir keine Beschwerde.
Akzeptier doch einfach, das du mit der Radeon auf Effekte verzichten musst. Nimm es wie ein Mann oder steig um.

Warum soll ein ATI-User keine ATI-optimierungen erwarten dürfen.
Nicht nur dass , man wird regelrecht auch noch "zwangsausgeblockt".Was sollten das für Optimierungen sein?

Optimierungen, aka Cheats wie in Crysis kommen von AMD aus, nicht von Crytek.

Der Hersteller von Mafia2 wird zusehen das sein Titel möglichst gut überall läuft. Er nutzt die gegebene Hardware/Softwareumgebung, keine Ahnung was du noch willst.

anderer Gast
2010-07-11, 14:58:23
Sicher nicht, auch wenn du das nicht hören willst.
Außerdem ist es auf Cuda zugeschnitten und nicht mal eben auf ATI lauffähig zu machen.
Aber das wusstest du bestimmt schon. ;)

Warum "sicher nicht"? Ich finde er hat durchaus recht.
Der Zuschnitt auf CUDA allein ist ganz bestimmt kein genereller Ausschlussgrund. PhysX lässt sich mit Sicherheit auch sehr gut an Stream als Schnittstelle anbinden. Ansonsten wäre eine solch rasche Umsetzung auf CUDA erst gar nicht möglich gewesen.

Insofern sehe ich in dieser Hinsicht auch ATI am Zug.
Natürlich würde die Umsetzung auf Stream erstmal einen ganzen Batzen kosten und es wären sicherlich auch noch ordentlich Lizenzgebühren dafür fällig, A B E R
ich denke wir können fast davon ausgehen, das die neue 5er Generation von ATI derzeit die potentesten PhysX beschleuniger auf dem Markt wären - dank der überlegenen Rohpower in Relation zu NV im Moment.


Ich persönlich muss sagen, dass PhysX für mich nicht das allein entscheidende Kriterium ist (zumindest so lange wie speziell dafür nur dämliche Batman-Spiele auf dem Markt sind).
Allerdings ist es durchaus ein schönes Gimmick, auf das man - wenn man es mal im Einsatz erlebt hat - wohl auch nur ungern verzichten möchte.
Mit jeder neuen PhysX Version (aktuell 9.10.0224) scheint die Sache auch immer besser zu werden. Gerade auf den Mainstream und Performance-Karten.

Skusi
2010-07-11, 15:09:14
Wie alt ist dieser Thread? Ziemlich genau 2 Jahre. Das heisst für mich als reinen Konsumenten, ATI hatte jetzt wirklich ewig Zeit, etwas dagegen zu setzen. Ist nur leider genau nichts gekommen. Also kaufe ich weiter NV. So einfach ist das für mich.

Vento
2010-07-11, 15:30:12
So sehe ich es auch.
Die Hintergründe von PhysX sind mir relativ gleichgültig, für mich zählt nur was für mich dabei rauskommt und das ist derzeit ziemlich eindeutig, von ATI kommt da einfach nichts.
Bei Nvidia hab ich zumindest den Bonus ein paar wenige Spiele signifikant aufzuwerten, speziell auf Mafia 2 freue ich mich ungemein.

Bucklew
2010-07-11, 16:28:59
vielleichts liegts daran das ati user das gesehene physX nicht als feature sehen.
Warum dann der ständige Aufschrei aus dem ATI-Lager, wenn auch nur ansatzweise das Wort PhysX erwähnt wird?

Soll Heissen : wenn einige Hersteller meinen für einen bestimmten Graka-Hersteller zu optimieren müssen, warum muss ich dann für ein
Produkt das bei mir "weniger" leistet trotzdem GLEICHVIEL bezahlen ?
Ein ATI-user muss genauso 60-100€ für Mafia 2 bezahlen wie ein Nvidia-User. Also wird doch der ATI-User vom Mafia 2 -Hersteller
beschissen.Warum soll ein ATI-User keine ATI-optimierungen erwarten dürfen.
Nicht nur dass , man wird regelrecht auch noch "zwangsausgeblockt".
Warum muss ich eigentlich für ein Spiel 50€ bezahlen, wenn ich nur eine HD5770 habe und daher nur in 1680x1050 spielen kann, während mein Freund mit ner 5870 in 1920x1200 spielen kann und daher mehr davon hat?!?!?!

Malabolge
2010-07-11, 16:43:00
Es ist nicht BMWs Schuld, wenn Toyota genauso teuer ist. Um auf den Ursprung zurück zukommen, AMD ist sogar teurer.


Was hat das mit Nvidia zu tun?

Konsolenspieler müssen sogar mehr zahlen, obwohl dort Mafia2 noch beschränkter sein wird.
Rennst du dann auch wieder zu Nvidia um dich zu beschweren?

Ich sehe, du bist darüber erborst das Mafia2 für Radeonnutzer nicht billiger wird. Nun, PhysX ist in dem Fall nunmal unter maximale Details einzuordnen. Besitzer von schwacher Hardware können auch nicht alle Details nutzen und müssen dennoch das selbe zahlen. Hier gäbe es von dir keine Beschwerde.
Akzeptier doch einfach, das du mit der Radeon auf Effekte verzichten musst. Nimm es wie ein Mann oder steig um.

Was sollten das für Optimierungen sein?

Optimierungen, aka Cheats wie in Crysis kommen von AMD aus, nicht von Crytek.

Der Hersteller von Mafia2 wird zusehen das sein Titel möglichst gut überall läuft. Er nutzt die gegebene Hardware/Softwareumgebung, keine Ahnung was du noch willst.

war ja Klar , die grüne Brille lässt es euch einfach nicht zu ,was anderes als eurten sturen Blickwinkel zu sehen.

und ja ich bin erbost aber nicht über euer ja so super überallenmassen stehendes Nvidia , sondern über die
Spielehersteller ! Nochmal auch für die GRÜNEN : DIE SPIELEHERSTELLER

Das die sowas überhaupt mit machen und nicht eindeutig ein zeichen setzen.
In zukunft kann ich dann spielgenuss nur noch kriegen wenn er "gesponsert" ist.
Nein , wenn die zweierlei Version bieten, sollen die auch für zweierlei Version Preise machen.

Und über diese einseitgen Optimierungen , rede ich ja schon gar nicht mehr.




Ps: Sei gefälligst selbst ein Mann , ung dich nächstes mal ein. Ok ?

Malabolge
2010-07-11, 16:53:13
Warum dann der ständige Aufschrei aus dem ATI-Lager, wenn auch nur ansatzweise das Wort PhysX erwähnt wird?


Warum muss ich eigentlich für ein Spiel 50€ bezahlen, wenn ich nur eine HD5770 habe und daher nur in 1680x1050 spielen kann, während mein Freund mit ner 5870 in 1920x1200 spielen kann und daher mehr davon hat?!?!?!

Davon sprach ich auch nicht.

Es ging um eure ja so hochgelobten Extrafeatures.
Glaubst du eigentlich wirklich das die PhysX benutzen würden , wenn Nvidia nicht FETT sponsern würde ?
Ich verlange nicht das die darauf verzichten, aber ich verlange von den SPIELEHERSTELLERN das sie
einen entsprechenden Mehrwert auch den Benutzern der "dunklen" Seite bieten.
Oder würdest du für Spiell genausoviel bezahlen , wenn schon im vorherein klar ist es läuft nur
auf Exefinity ? zudem würde der Nvidia-Support vom Hersteller Stiefmütterlich behandelt ?
Geschweige denn einer Meldung "Sie besitzen eine XXXX-Karte, YYYY ist nicht möglich"


Das Geschrei wäre unerträglich laut.


oder anders ausgedrückt : wenn du dir ein Auto kauft willst du dann auch einen Kindersitz
, obwohl du keine Kinder hast ?
Dazu noich als "zwangsmassnahme" ?


und nochmal ich kritisiere hier die SOFTWAREHERSTELLER

Bucklew
2010-07-11, 17:04:08
Glaubst du eigentlich wirklich das die PhysX benutzen würden , wenn Nvidia nicht FETT sponsern würde ?
PhysX ist Schnittstelle #1 für Physik, das hat auch andere Gründe als nur Geld (soviel Geld fürs Sponsorn hat Nvidia auch nicht).

Ich verlange nicht das die darauf verzichten, aber ich verlange von den SPIELEHERSTELLERN das sie
einen entsprechenden Mehrwert auch den Benutzern der "dunklen" Seite bieten.
Das musst du mit den Spielepublishern diskutieren. Solange die Benutzer der "dunklen" Seite sich damit zufrieden geben, dass sie einen Konsolenport 1:1 auf dem PC spielen können: Bitte. Ansonsten müssen eben diese Benutzer ein Zeichen setzen, ganz einfach.

Gast
2010-07-11, 18:13:06
war ja Klar , die grüne Brille lässt es euch einfach nicht zu ,was anderes als eurten sturen Blickwinkel zu sehen.

Du bist also nicht fähig zu beantworten, warum BMW schuld ist wenn Toyota teurere Autos verkauft die weniger können.


und ja ich bin erbost aber nicht über euer ja so super überallenmassen stehendes Nvidia , sondern über die
Spielehersteller ! Nochmal auch für die GRÜNEN : DIE SPIELEHERSTELLER
Ich war ausführlich genug, das du antworten könntest.
Was stört dich? Welche zusätzlichen Features sollte der Entwickler einbauen, die nur bei AMD Hardware aus Hardware/Software Beschränkungen funktionieren?

Meckerst du auch aus Konsolensicht, die noch weniger für höhere Preise bekommen?
Zuszusagen ist der Spieleentwickler schuld das die in Uraltenkonsolen keine zeitgemäße Grafik darzustellen in der Lage sind.


Das die sowas überhaupt mit machen und nicht eindeutig ein zeichen setzen.
In zukunft kann ich dann spielgenuss nur noch kriegen wenn er "gesponsert" ist.
Nein , wenn die zweierlei Version bieten, sollen die auch für zweierlei Version Preise machen.

Siehe oben.
Du willst begünstigt werden, dadurch das deine Hardware eine Limitierung darstellt. Absolut nicht nachvollziehbar. Warum sie limitiert ist ein anderes Thema. Ob es an der Leistungsklasse oder am IHV liegt.


Ps: Sei gefälligst selbst ein Mann , ung dich nächstes mal ein. Ok ?
Wenn du dann auf meine Aussagen eingehst würde ich es mir überlegen. Wobei ich es nunmal angenehm finde nicht ständig persöhnlich beleidigt zu werden.


Es ging um eure ja so hochgelobten Extrafeatures.
Glaubst du eigentlich wirklich das die PhysX benutzen würden , wenn Nvidia nicht FETT sponsern würde ?Also auf einmal hat Nvidia PhysX in Mafia bezahlt.
Sag das doch gleich, dann verstehe ich noch weniger, warum du für AMD Besitzer günstige Versionen forderst, während die Konsolen mehr zahlen sollen als alle Anderen.

N0Thing
2010-07-11, 18:19:27
Man sollte bei der Diskussion nicht PhysX via CPU und PhysX via GPU vermischen, immerhin geht es in diesem Thread nicht um die vielen Spiele, die PhysX nur über die CPU einsetzen.

Wer die PhysX-Effekte sehen will, die von Nvidia spendiert worden sind, der muß eben auch eine Nvidia-Grafikkarte kaufen, ansonsten bekommt er das zu sehen, was die Spieleentwickler ursprünglich vorgesehen haben und wie es auch jeder Konsolenspieler zu sehen bekommt.
Nvidia hat weder einen moralischen noch wirtschaftlichen Auftrag, Kunden der Konkurrenz zu bedienen.

Physik@GPU für alle wird es nur dann geben, wenn einer der beiden Hersteller oder ein Drittanbieter eine Physik-API anbietet, die über OpenCL/Direct Compute, oder was auch immer von beiden Herstellern unterstützt wird und für eine solche Aufgabe geeignet ist, realisiert wird.

Bis dahin heißt es PhysX@GPU ignorieren, oder eine entsprechend potente Nvidia-GPU kaufen.

LordDeath
2010-07-11, 19:04:43
Das eigentliche Problem ist, dass Nvidia als GPU Hersteller gleichzeitig der Eigentümer dieser ziemlich verbreiteten Middleware ist. Für die Middleware-Betreiber ist es interessant, möglichst überall vertreten zu sein, während aber Nvidia als Kerngeschäft nunmal möglichst viele GPUs verkaufen möchte.

Das Ganze konnte einfach nur schief gehen, weil beide Unternehmungen meines Erachtens nach einem Zielkonflikt entgegen steuern:

- Ist die Middleware überall gut optimiert und ohne Einschränkungen einsetzbar, entgeht ein Alleinstellungsmerkmal der eigenen GPUs und das Kerngeschäft leidet.
- Wird die Middleware dazu genutzt, die eigenen GPUs zu pushen, geht dies auf Kosten der Middleware. Die Verbreitung der Middleware wird gehemmt und man hat es schwerer, zum "Standard" zu werden.

Da natürlich das Kerngeschäft von Nvidia die oberste Priorität hat, ist natürlich klar, wofür man sich entschieden hat. Das Ergebnis sehen wir: Auf dem PC ist Physx schlecht für CPUs optimiert und lässt nur Nvidia-GPUs zur Beschleunigung zu.

y33H@
2010-07-11, 19:25:04
Wenn PhysX so schlecht wäre für PC, würden die Devs sich doch davon abwenden. Und zB vermehrt Havok nutzen. So schei0e kann PhysX aber offenbar nicht sein ...

Gastinelli
2010-07-11, 19:50:30
@ Gastinelli

Wo hast du bei einem Titel mit Havok oder ODE eine weitaus tollere Physik, die PhysX nicht erlaubt? Die Physik-Sparte ist, wenn man so will, generell Retro. Selbst die aus Crysis [Palmen darf ich umnieten und Bäume überleben].


Da muss ich gar nicht weit suchen: Bei dem von Dir angesprochenen Crysis gibt's unzählige Mods, die teilweise erstaunliche Physik auf den Schirm zaubern. Mit Havok gibt's etwa die altbekannte Gary's Mod von HL2. Beides Beispiele, die mit einem Zweikerner tadellos rennen. Dann sehe ich PhysX, welches für dasselbe erheblich mehr CPU Leistung verbrät und dabei keine größere Effektvielfalt als 6 Jahre alte Spiele bietet. Daher meinte ich auch, dass PhysX für mich jedes Mal eine Zeitreise zurück in die Vergangenheit ist; nur der Ressourcenverbrauch ist auf der Höhe der Zeit.

LordDeath
2010-07-11, 19:53:31
Wenn PhysX so schlecht wäre für PC, würden die Devs sich doch davon abwenden. Und zB vermehrt Havok nutzen. So schei0e kann PhysX aber offenbar nicht sein ...
Oder alle Physik-Engines sind mittlerweile für die Spieleanforderungen auf so einem ähnlichen Level, so dass ihre eigentliche Leistungsfähigkeit bei der Auswahl kaum noch eine Rolle spielt. Zur Verbreitung von Physx trägt sicherlich bei, dass man damit kostenlos an eine Multiplattform-Physik-Engine ran kommt, die schon ausgiebig erprobt ist. Außerdem spricht auch der (angeblich ziemlich gute) Nvidia Support durch das TWIMTBP-Programm auch noch für Physx.

y33H@
2010-07-11, 19:58:20
@ Gastinelli

Die CryEngine ist die wohl beste Inhouse-Engine der Welt. Und Gary's Mod ist eine auf Havok und Physik zugeschnittene Mod. Das ist kein "apples to apples", sondern "cherry picking". zB sind die Fluid-Partikel [Wasser, Rauch, Wind] von PhysX derzeit ungeschlagen imo - um es mal umzudrehen. Im Übrigen wüsste ich nicht, welches Spiel mit CPU-PhysX auf einem Zweikerner nicht auch tadellos läuft . Nenne mir doch mal einen aktuellen Havok-Titel mit grandioser Physik [und eine Handvoll Beispiele, warum das mit PhysX nicht möglich sein soll].

[B]@ LordDeath

Cross-Platform und Support sind natürlich gewichtige Punkte. Wobei ich mir kaum vorstellen kann, dass das Havok-SDK seitens Intel nicht mindestens ebenso gut supportet wird.

Grey
2010-07-12, 12:13:47
zB sind die Fluid-Partikel [Wasser, Rauch, Wind] von PhysX derzeit ungeschlagen imo

BeiSpiele?

Wenn ich mir so etwas (http://www.nzone.com/object/nzone_mkz_home.html) anschaue wird mir schlecht.


PS: Wind ist eine Kraft.

N0Thing
2010-07-12, 13:10:48
Bei China’s first large-scale online first-person shooter game hätte ich auch nicht so hohe Ansprüche und PhysX via GPU wird dort sicherlich nicht genutzt. ;)

deekey777
2010-07-12, 13:23:57
BeiSpiele?

Wenn ich mir so etwas (http://www.nzone.com/object/nzone_mkz_home.html) anschaue wird mir schlecht.


PS: Wind ist eine Kraft.
Und Wasser besteht nicht aus Partikeln.

y33H@
2010-07-12, 13:42:54
@ Grey

Cellfactor, Cryostasis, Sacred 2 und Batman.

dllfreak2001
2010-07-12, 16:58:20
Cryostasis zeigt eher wie häßlich Wasser aussehen kann.

Die ganzen Rauch-Simulationen sind in echten spielen sehr stark vereinfacht.
Bei Mirrors-Edge hat man einfach einen Haufen Rauch-Sprites hin geschmissen die sich bei Kollision mit dem Charakter oder einer anderen Nebelschwade bewegen. Bei Batman ist es der gleiche Kram nur sehr viel dichter.

Grey
2010-07-14, 17:24:13
@ Grey

Cellfactor, Cryostasis, Sacred 2 und Batman.

Cellfactor würde ich generell mal außen vor lassen als reines Promo-Objekt (doch noch für die separate Phys-X Karte damals). Der Rest ist genau das was ich schrieb... Show-Off, wobei Cryostasis teilweise schon wieder in die So-Nicht-Kategorie fällt, weil es ungefähr das statische Niveau von Bioshock erreicht (Wasser, alled andere siehe oben).

Du kennst den Crysis Particle Mod auch. Genau so etwas wird mit PhysX gemacht... nur unter dem Argument, dass man dafür auf jeden Fall nVidia braucht. Imo eben Schwachsinn, weil es in den Situationen wie jetzt genau so ohne den ganzen Unfug realisierbar wäre. Sehr grob: Masse statt Klasse. Nicht überall, aber im Regelfall. Und dazu kommen halt oftmals noch Geschichten, wo es echt scheiße aussieht. Siehe obiges Beispiel von nZone. Nicht mal Soft-Particles einsetzen, aber GPU-Physik einbauen. Ganz großes Kino...

y33H@
2010-07-14, 17:51:31
Ich bin auch kein Fan der GPU-accelerated Version und werde ich wohl auch nie. Was PhysX in manchen Spielen leistet, finde ich aber sehr erfreulich - Mafia II etwa und Cellfactor [ja, Techdmemo]. Und das Wasser in Cryostasis finde ich persönlich auch toll.

Gast
2010-07-14, 18:27:46
Du kennst den Crysis Particle Mod auch.
Schade das beim Mod blieb.

Kein Entwickler war bisher im Stande soetwas zu liefern, ohne Mod. Und es nicht anzunehmen, das sich dies bald ändert.
Ja schöne heile Welt der Theoretikum. Aber das nütz doch einen Scheiss solange nichts passiert.

Grey
2010-07-14, 18:41:35
Was PhysX in manchen Spielen leistet, finde ich aber sehr erfreulich

Warum denn, wenn du kein Freund der Sache bist? Ich meine das war ja generell mein Punkt, dass es eigentlich keinen Grund dafür gibt (vielleicht ist es einfacher zu implementieren, mehr aber nicht) so etwas zu nutzen. Zumal ja eben daran


- Mafia II etwa und Cellfactor [ja, Techdmemo]. Und das Wasser in Cryostasis finde ich persönlich auch toll.

wieder nichts tolles ist. Mafia II würde ich erst nach dem Release auch beurteilen, aber das was das Video was, afaik, du im Thread gepostet hast mehr oder minder das Maximum darstellt... nein. Show-Off, einmal mehr.


Ich meine wenn ich viele Partikel physikalisch korrekt animiert geil finde, dann bau ich mir schnell n Loop in Houdini und hab dann meinen Spaß. Das ist aber für meinen Geschmack nicht Sinn der Technik.

y33H@
2010-07-14, 18:55:00
@ Grey

Ich bin kein Freund von GPU-Acceleration. Die zusätzlichen Debris in Mafia II [zocke es seit Tagen] aber sind klasse ... und sicherlich auch via CPU möglich.

Grey
2010-07-14, 18:58:11
Naja siehste :) Und wenn ich mich umschaue trifft dein Abschluss auf so ziemlich jedes GPU-PhysX-Spiel zu.

y33H@
2010-07-21, 14:09:16
Steht in dem Sinne nichts wirklich neues drin, aber vll hat jemand Lust auf eine Zusammenfassung:

Nvidias PhysX - Fluch oder Segen? (http://www.pcgameshardware.de/aid,764835/WTF-Kolumne-Nvidias-PhysX-Fluch-oder-Segen/Technologie/News/)

LovesuckZ
2010-07-21, 14:27:13
Soviele Wörter und dabei nicht's verstanden: nVidia ist Anbieter einer Software, dass von anderen eingesetzt werden soll. nVidia macht garnichts. Es sind die Entwickler, die PhysX nehmen und es in ihre Projekte einbauen. PhysX kann daher weder Segen noch Fluch für den PC sein, weil es a) Konkurrenz in Form von anderen Produkten gibt und b) die Unternehmen es aufgrund einer freiwilligen Entscheidung einsetzen.

Weder werden also Radeon-User benachteiligt, noch Leute mit CPUs.

y33H@
2010-07-21, 14:29:58
nVidia macht garnichts.Das ist wohl das Problem ;D

Gast
2010-07-21, 14:41:02
Steht in dem Sinne nichts wirklich neues drin, aber vll hat jemand Lust auf eine Zusammenfassung:

Nvidias PhysX - Fluch oder Segen? (http://www.pcgameshardware.de/aid,764835/WTF-Kolumne-Nvidias-PhysX-Fluch-oder-Segen/Technologie/News/)
Netter Artikel. Ich glaube du hast im letzten Absatz nen kleinen Fehler. Da steht das Half Life 2 und Portal 2 vor Jahren zeigten was machbar ist. Es muss sich aber doch glaube ich um Portal eins handeln das 2er is ja noch nicht raus.

y33H@
2010-07-21, 14:43:44
Oh, klar - der erste Teil von 2007. THX.

Gast
2010-07-22, 11:38:48
Das ist wohl das Problem ;D

Stimmt so nicht ganz ;D

Nvidia verhindert das andere die Software auch nutzen können , und verhindert so gleichzeitig eine "ausbreitung" als Standard.

Nvidia zeigt hier wieder mal Perfekt was passiert wenn "BWL"er in Entscheidungspositionen sitzen und nur den kurzfristigen Profit im Auge haben.

So F...t man sich selbst doch am besten ins Knie.Nvidia zeigt hier wie sich eine Firma selbst am besten schadet.

Nvidia müsste jetzt solange die "Kuh auf dem Eis ist" , versuchen soviel Marktanteil wie möglich zu erreichen. Stattdessen wird mit "kindischen" Regularien und Sperren versucht , kurzfristig soviel Profit wie möglich herauszuschlagen.

Geschädigter an sich ist aber leider bei sowas nicht Nvidia, sondern der User den neue techniken nur nach langen "entwicklungzeiten" erreichen.

Schöne neue "Patent"-Welt


Nvidia hatte die Chance sich als "Firma von Welt" zu zeigen , verspielt

LovesuckZ
2010-07-22, 11:41:32
Klar, nVidia kauft Ageia für 12 Millionen und verschenkt es dann an jedem.
Wieso zeigt sich eigentlich AMD nicht als "Firma von Welt"? Achso, die sind ja nicht nVidia. Da gibt es dann auch von der fanatischen Elite nichts zu meckern. :lol:

Man, manchmal finde ich diese Gastpostings wirklich lustig.

MorPheuZ
2010-07-22, 14:37:18
Ab Post #1851 ist eig. Ende Disskussion, beste Argumentation!

PhysX ist eine NV Marke. Die dürfen damit anstellen oder nicht, was sie wollen. Punkt! Ich denke alle nicht-nv Kunden können froh sein wenn sie überhaupt irgendwann oder irgendwie einen Pixel von physX bewegt gesehen bekommen.

Gast
2010-07-23, 10:06:56
Klar, nVidia kauft Ageia für 12 Millionen und verschenkt es dann an jedem.
Wieso zeigt sich eigentlich AMD nicht als "Firma von Welt"? Achso, die sind ja nicht nVidia. Da gibt es dann auch von der fanatischen Elite nichts zu meckern. :lol:

Man, manchmal finde ich diese Gastpostings wirklich lustig.

nö , war ja Klor !

Am Standard Millionen zu verdienen ist nicht Gut genug , man muss gierig sein.

Naja , so oder so wird das ding eben da verschwinden, wo es auf diese art auch hingehört: im Vergessen



Übrigens , bei dir muss ich immer an die Ärtze denken :
Manchmal , aber nur manchmal .....

Immer wieder must du hier irgendein Fanboytum hereininterpretieren wo keiner ist ! Du vergiftest das ganze Forum mit deinem Scheiss.

Gast
2010-07-23, 10:08:30
Klar, nVidia kauft Ageia für 12 Millionen und verschenkt es dann an jedem.
Wieso zeigt sich eigentlich AMD nicht als "Firma von Welt"? Achso, die sind ja nicht nVidia. Da gibt es dann auch von der fanatischen Elite nichts zu meckern. :lol:

Man, manchmal finde ich diese Gastpostings wirklich lustig.


Ageia kaufen - 12 Millionen
Physx daraus machen - xx Millionen

Einen Standard zu erschaffen und Lizenzgebühren zu kriegen - Unbezahlbar !

Bucklew
2010-07-23, 10:17:36
Einen Standard zu erschaffen und Lizenzgebühren zu kriegen - Unbezahlbar !
Die wollte ATI ja nicht zahlen.

Gast
2010-07-23, 11:01:37
Die wollte ATI ja nicht zahlen.

Urban Legend. NV wollte und will ATI bei PhysX nicht an Bord (Stichwort: "Fuck off"). Deswegen unterbinden sie auch die Kombination ATI (Grafik)/NV (Physik).

Irgendwo verständlich, da die ATIs mit ihrer erheblich größeren Rechenleistung die NV-Karten vermutlich derbe abtrocknen würden.

Gast
2010-07-23, 11:28:51
Wo bleibt den AMDs Antwort?
Hardwarebeschleunigte Physik auf AMD GPUs, bzw großzügig auf allen GPUs?
Haben die Jungs keine Lust dem Markt mehr als Konsolenoptik zu verschaffen, warum dann GPUs mit 320TMUs und 6400SPs?

Bucklew
2010-07-23, 11:47:54
Urban Legend. NV wollte und will ATI bei PhysX nicht an Bord (Stichwort: "Fuck off"). Deswegen unterbinden sie auch die Kombination ATI (Grafik)/NV (Physik).
Nö, ATI hat zugegeben in einem Interview, dass sie das Nvidia-Angebot nicht angenommen haben.

Gast
2010-07-23, 11:49:33
Nö, ATI hat zugegeben in einem Interview, dass sie das Nvidia-Angebot nicht angenommen haben.

falsch.

Gast
2010-07-23, 12:01:51
Urban Legend. NV wollte und will ATI bei PhysX nicht an Bord (Stichwort: "Fuck off"). Deswegen unterbinden sie auch die Kombination ATI (Grafik)/NV (Physik).

Tchja das ist leider falsch Kollege. Mit den aktuellen Treiber ist es möglich eine Nvidia als PhysX Karten neben einer Ati zu betreiben.

deekey777
2010-07-23, 12:09:50
Tchja das ist leider falsch Kollege. Mit den aktuellen Treiber ist es möglich eine Nvidia als PhysX Karten neben einer Ati zu betreiben.
http://www.anandtech.com/show/3744/nvidia-forceware-257-heterogeneous-gpu-physx-its-a-bug-not-a-feature
Es ist ein Bug. Auch wenn es immernoch möglich sein sollte, mit einer Radeon eine Geforce als PPU zu nutzen, so ist das ungewollt.

Bucklew
2010-07-23, 12:13:00
falsch.
http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html

deekey777
2010-07-23, 12:15:44
http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html
Wo steht da, dass Nvidia ATi irgendwas angeboten hat?

Gast
2010-07-23, 12:34:06
Ein Angebot hat es durchaus gegeben von Nvidia, wohl auch zu vertretbaren Lizenzgebühren.


"But what about PhysX? Nvidia claims they would be happy for ATI to adopt PhysX support on Radeons. To do so would require ATI to build a CUDA driver, with the benefit that of course other CUDA apps would run on Radeons as well. ATI would also be required to license PhysX in order to hardware accelerate it, of course, but Nvidia maintains that the licensing terms are extremely reasonable—it would work out to less than pennies per GPU shipped."

I spoke with Roy Taylor, Nvidia's VP of Content Business Development, and he says his phone hasn't even rung to discuss the issue. "If Richard Huddy wants to call me up, that's a call I'd love to take," he said.


Allerdings ist man von Seiten AMD/ATI nicht darauf eingegangen und hat sich für Havok entschieden.


Keosheyan says, "We chose Havok for a couple of reasons. One, we feel Havok's technology is superior. Two, they have demonstrated that they'll be very open and collaborative with us, working together with us to provide great solutions. It really is a case of a company acting very indepently from their parent company. Three, today on PCs physics almost always runs on the CPU, and we need to make sure that's an optimal solution first." Nvidia, he says, has not shown that they would be an open and truly collaborative partner when it comes to PhsyX. The same goes for CUDA, for that matter.

Though he admits and agrees that they haven't called up Nvidia on the phone to talk about supporting PhysX and CUDA, he says there are lots of opportunities for the companies to interact in this industry and Nvidia hasn't exactly been very welcoming.


http://www.extremetech.com/article2/0,2845,2324555,00.asp

deekey777
2010-07-23, 13:07:15
Ein Angebot ist nicht, wenn man wartet, bis man angerufen wird, sondern wenn man das Angebot macht. Ich kenne kein Statement von Nvidia, wo gesagt wird, dass Nvidia den Verantwortlichen von AMD ein Angebot unterbreitet wurde.

Bucklew
2010-07-23, 13:45:55
Wo steht da, dass Nvidia ATi irgendwas angeboten hat?
Den Link hatte ich mit Zitat bereits 5x gepostet, ein 6. Mal poste ich den sicher nicht.

sHenker
2010-07-23, 14:49:12
Den Link hatte ich mit Zitat bereits 5x gepostet, ein 6. Mal poste ich den sicher nicht.

Tja, nicht nur posten, sondern auch mal lesen, nicht nv hat sich bei ati gemeldet, sondern ati bei nv. Die Antwort ("fuck off!") kennen wir ja alle. Zumal nv über kurz oder lang die gleiche sh*ce mit ati abgezogen hätte, wie es denen mit intel passiert ist...

deekey777
2010-07-23, 14:57:54
Den Link hatte ich mit Zitat bereits 5x gepostet, ein 6. Mal poste ich den sicher nicht.
Also du bleibst deinem Motto treu: Irgendwas dahin schreiben, und wenn jemand nachhakt, so tun, als derjenige unfähig wäre.
Gib einfach zu, dass es kein Angebot gab.

Gast
2010-07-23, 16:18:33
Wenn es ein Angebot gegeben hätte und AMD wäre darauf eingegangen, dann hätte Nvidia den gesamten Markt unter Kontrolle. Seht es ein, auch wenn, es wäre nicht sinnvoll.

Mit 3D hat es auch erst wirklich übergreifend geklappt als Direct3D eingeführt wurde und sich etabliert hat.
Ein weitestgehend unabhängiger Dritter muss den Standard stellen damit etwas fruchtbares entsteht.

Außerdem wird der Gaul immer wieder am Arsch aufgezäumt, AMD ist ein IHV der hat nicht die Pflicht eine Physik-Engine zu entwickeln und diese dann in irgendwelche Spiele zu quetschen.
AMDs Karten sind ja nicht unfähig Physik zu berechnen, im Vergleich dürften diese sogar flotter sein als die von Nvidia. Nur was soll AMD machen wenn keiner in die Puschen kommt.
Während dessen schleimen sich diverse Nvidia-Mitarbeiter bei Spielefirmen ein um den Source mit Code im eigenen Sinne zu erweitern.
Die Einsparungen scheinen signifikant zu sein, wenn man bedenkt,
dass viele Studios teilweise schwere Kritik in Kauf nehmen.


Als Nvidia und AMD Physik auf der Grafikkarte ankündigten war das noch als reines Extra gedacht. Heute ist es praktisch der Kaufgrund für eine Geforce.

Dieses Alleinstellungsmerkmal wird NV solange wie möglich aufrecht erhalten,
erreichen Konkurrenz-Engines den Markt erstmal durchschlagend wird PhysX so schnell verschwinden wie es gekommen ist.
Die Frage ist nur wann, Bullet muss von den dafür Verantwortlichen vermarktet werden und die aktuelle Spieleentwicklung schert sich einen Scheiß
um die Zufriedenheit der Kunden, also wird PhysX inkl. der NV-Annehmlichkeiten gewählt.

PhysX ist eine logische Seuche, sie wird die Kompatibilität auf dem Spielemarkt für die nächsten Jahre stark herabsetzen.

Bucklew
2010-07-23, 16:39:56
Tja, nicht nur posten, sondern auch mal lesen, nicht nv hat sich bei ati gemeldet, sondern ati bei nv. Die Antwort ("fuck off!") kennen wir ja alle. Zumal nv über kurz oder lang die gleiche sh*ce mit ati abgezogen hätte, wie es denen mit intel passiert ist...
Steht wo? Und wie gesagt es gab ein Interview mit einem ATI-Mitarbeiter der gesagt hat, dass sie das Angebot ovn Nvidia Physik zu nutzen abgelehnt haben.

Also du bleibst deinem Motto treu: Irgendwas dahin schreiben, und wenn jemand nachhakt, so tun, als derjenige unfähig wäre.
Gib einfach zu, dass es kein Angebot gab.
Nur weil manche Leute gewisse Dinge 20x überlesen, um ihre Weltbild nicht zu zerstören, bin ich nicht so doof es 21 mal zu posten. Irgendwann reicht es halt. Und wenn es dich so dermaßen interessiert, dann kannst du es ja gern in meinen Posts suchen. Viel Spaß!

deekey777
2010-07-23, 16:47:06
Steht wo? Und wie gesagt es gab ein Interview mit einem ATI-Mitarbeiter der gesagt hat, dass sie das Angebot ovn Nvidia Physik zu nutzen abgelehnt haben.
Gab es nicht.

Nur weil manche Leute gewisse Dinge 20x überlesen, um ihre Weltbild nicht zu zerstören, bin ich nicht so doof es 21 mal zu posten. Irgendwann reicht es halt. Und wenn es dich so dermaßen interessiert, dann kannst du es ja gern in meinen Posts suchen. Viel Spaß!
Erwischt.

Bucklew
2010-07-23, 16:48:25
Gab es nicht.
In deiner kleinen Traumwelt sicherlich nicht, die Realität schaut eben anders aus. Egal wie oft du es versuchts zu leugnen.

mapel110
2010-07-23, 17:02:52
ATI wollte PhysX unterstützen, dafür aber nvidia keine Kohle zahlen. Nvidia daraufhin "F... O..!"

deekey777
2010-07-23, 17:04:44
Links aus Bucklews 74 Postings in diesem Thread:
Aja?

http://en.wikipedia.org/wiki/OpenCL#Implementation

Also anders gesagt:
Nvidia hat vor einem Jahr bereits OpenCL auf der GPU gezeigt, während AMD noch auf der CPU rumbastelte. Im September letzten Jahres gab es dann den ersten Finalen OpenCL-Treiber/SDK, während AMD zwei Wochen später immer noch bei der Beta fest hing. Im November veröffentlichte Nvidia dann schon einen Treiber/SDL gemäß OpenCL 1.0, AMD kann erst einen Monat später, allerdings NUR für RV8*-Karten, der Support für RV7*-Karten ist noch Beta.

Aber ich weiß, ist einfach ne unverschämtheit von Nvidia doch keinen vernünftigen OpenCL-Port für x86 anzubieten, das ist doch ein Fall fürs Kartellamt ;D
z.B. http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/


Wenn man unbedingt den Sourcecode nutzen möchte, ist das auch so. Dennoch kann man auch mit dem SDK leben. Wenn man halt Champus will kann man sich nicht beschweren das der teurer ist als Leitungswasser.
Du hast immer noch nicht verstanden, dass man PhysX auch rein auf der CPU laufen lassen kann, wenn das der Entwickler so will. Mehr als 90% der PhysX-Spiele sind auch rein CPU-basierend und laufen natürlich auch performant auf der CPU.

Da ist eine Liste:
http://physxinfo.com/

Gut 90% der Spiele nutzen reines CPU-PhysX. Du solltest dich mal lieber informieren, anstelle dich hier so zu blamieren.
http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html
Oh oh, sehr weit aus dem Fenster gelehnt - leider kommt dann jetzt der Fenstersturz.

Wenn wir hier über GPU-PhysX reden, reden wir natürlich auch über OpenCL für die GPU. Was bringt uns OpenCL auf der CPU, die nicht leistungsfähig genug ist? Leider war dieses Release nur für die x86-CPU, bei dieser Diskussion also im Endeffekt nicht relevant:
"AMD Delivers Industrys First OpenCL Software Development Platform for x86 processors"


Die wirklich stabile Software für OpenCL 1.0 hat Nvidia am 26. November veröffentlicht, AMD erst am 21. Dezember. Die AMD-Software allerdings wie gesagt nur für die neusten Karten, der Support für die Karten der letzten Generation ist noch beta (s.u.) und alle älteren Karten werden gar nimmer unterstützt.


Tja, das schreibt ja nur Wikipedia:
"On December 21, 2009, AMD released the production version of the ATI Stream SDK 2.0,[23] which provides OpenCL 1.0 support for R800 GPUs and beta support for R700 GPUs."
Komischerweise schreibt das sogar AMD:
http://developer.amd.com/gpu/ATIStreamSDK/Pages/default.aspx

Mmmh....Märchen? Wohl eher die Fakten.


OpenCL ist eine Middleware und soll relativ hardware-unabhängig Programme laufen lassen. Anders gesagt: Jeder Hersteller einer Hardwareplattform baut eine OpenCL-Schnittstelle für seine Hardware. Warum sollte Nvidia nun einen x86-Port machen, wenn sie keine x86-Hardware herstellen? Verlangen wir dann von Intel auch einen CUDA-Port?

Und abgesehen davon, was hat das jetzt mit dem Punkt zu tun, dass es bei der Veröffentlichtung von PhysX keine Standardschnittstelle für die GPU-Programmierung gab (zumindest nicht für den produktiven Einsatz)?
Wie man sieht, ist es immer der Link zu Bit-Tech, wo nirgendwo steht, dass Nvidia AMD ein Angebot machte, PhysX zu nutzen.

Edit:
Ach so, AMD hat wirklich bei Nvidia nach PhysX Sourcecode nachgefragt und zwar für die OpenCL-Präsentation in Februar 2009. AMD wollte den Sourcecode umsonst haben (Intel gab den Sourcecode für Havok dafür umsonst), die Antwort Nvidias war ... . Man findet sie im Thread.

Bucklew
2010-07-23, 17:09:52
Links aus Bucklews 74 Postings in diesem Thread:
Gibt noch andere als diesen Thread.

deekey777
2010-07-23, 18:13:20
Gibt noch andere als diesen Thread.
Interessant:
Du erzählst, dass Nvidia AMD öffentlich ein Angebot unterbreitet hat, PhysX zu nutzen, das AMD abgelehnt hat. Als Quelle verweist du auf den Artikel von Bit-Tech, wo davon keine Rede ist. Und jetzt heißt es, dass die Quelle dafür in anderen Threads ist.
Großes Kino.

Bucklew
2010-07-23, 18:23:24
Interessant:
Du erzählst, dass Nvidia AMD öffentlich ein Angebot unterbreitet hat, PhysX zu nutzen, das AMD abgelehnt hat. Als Quelle verweist du auf den Artikel von Bit-Tech, wo davon keine Rede ist.
Ist es nicht?

"added that Nvidia would be ‘open to talking with any GPU vendor about support for their architecture.’"

Was ist das denn (deiner Meinung nach) sonst, wenn nicht ein Angebot PhysX zu nutzen?

Und jetzt heißt es, dass die Quelle dafür in anderen Threads ist.
Großes Kino.
Ich habe nie gesagt, dass ich es in diesem Thread gepostet habe. Wenn du unbedingt immer irgendwelche Hirngespinste einbilden musst kann ich nichts dafür.

Aber schon lustig so ein privater Stalker :D

Gast
2010-07-23, 18:37:36
Ist es nicht?

"added that Nvidia would be ‘open to talking with any GPU vendor about support for their architecture.’"

Was ist das denn (deiner Meinung nach) sonst, wenn nicht ein Angebot PhysX zu nutzen?


Ich habe nie gesagt, dass ich es in diesem Thread gepostet habe. Wenn du unbedingt immer irgendwelche Hirngespinste einbilden musst kann ich nichts dafür.

Aber schon lustig so ein privater Stalker :D

So lange nur nVidia die Hand über Physx hält wäre AMD schön dumm diese einzusetzen.

Gast
2010-07-23, 18:47:28
Ein Angebot hat es durchaus gegeben von Nvidia, wohl auch zu vertretbaren Lizenzgebühren.


"But what about PhysX? Nvidia claims they would be happy for ATI to adopt PhysX support on Radeons. To do so would require ATI to build a CUDA driver, with the benefit that of course other CUDA apps would run on Radeons as well. ATI would also be required to license PhysX in order to hardware accelerate it, of course, but Nvidia maintains that the licensing terms are extremely reasonable—it would work out to less than pennies per GPU shipped."

I spoke with Roy Taylor, Nvidia's VP of Content Business Development, and he says his phone hasn't even rung to discuss the issue. "If Richard Huddy wants to call me up, that's a call I'd love to take," he said.


Allerdings ist man von Seiten AMD/ATI nicht darauf eingegangen und hat sich für Havok entschieden.


Keosheyan says, "We chose Havok for a couple of reasons. One, we feel Havok's technology is superior. Two, they have demonstrated that they'll be very open and collaborative with us, working together with us to provide great solutions. It really is a case of a company acting very indepently from their parent company. Three, today on PCs physics almost always runs on the CPU, and we need to make sure that's an optimal solution first." Nvidia, he says, has not shown that they would be an open and truly collaborative partner when it comes to PhsyX. The same goes for CUDA, for that matter.

Though he admits and agrees that they haven't called up Nvidia on the phone to talk about supporting PhysX and CUDA, he says there are lots of opportunities for the companies to interact in this industry and Nvidia hasn't exactly been very welcoming.


http://www.extremetech.com/article2/0,2845,2324555,00.asp


Angebot hin oder her, die Bereitschaft PhysX/Cuda mit ATI zu teilen gegen eine Lizenzgebühr ist ja offen in der Fachpresse seitens Nvidia gemacht worden.
Das man pro GPU eine Lizenzgebühr verlangen wollte ist ja auch absolut nachvollziehbar, laut Nvidia's VP im Penny Bereich.
Oben im Interview ist ja eindeutig gesagt worden das man sich freuen würde PhysX und Cuda mit ATI zu teilen.
Mehr als das Angebot öffentlich in den Raum zu stellen und noch anzufügen das man sich über einen Anruf seitens der verantwortlichen von ATI freuen würde kann man letztendlich auch nicht erwarten.
Wenn ATI wirklich Interesse daran gehabt hätte, dann hätten sie problemlos auf den PhysX/Cuda Zug mit aufspringen können, nur hat man das direkt abgelehnt (siehe Antwort des ATI VP)

Die Antwort des ATI Vicepresident kann man ja auch dort nachlesen, da wird sofort geblockt und darauf hingewiesen das man bei ATI der Meinung mit Havok auf die überlegene Technologie zu setzen.

Wie alt ist dieser Thread jetzt, älter als 2 Jahre, wie alt ist das Interview älter als 2 Jahre.
Was hat ATI in der Zwischenzeit für Gamer auf die Beine gestellt mit ihrer überlegenen Technologie, fast nichts.
Von ATI kommt in dem Punkt gar nichts, null, nada, man bekommt gepflegte Konsolenoptik geboten.
Was man zu hören bekommt sind maximal Sprüche wie, PhysX hat keine Zukunft.
Mag ja durchaus so sein, aber die Gamer interessiert die Gegenwart und da kommt nichts von ATI.

Hier wird seit Jahren nur darüber geredet das PhysX Müll ist und es überlegene Technologien gibt, aber man sieht nichts davon.
Für den PC Gamer stellt sich die Situation derzeit so dar das Nvidia wenigstens bei einigen Spieletiteln etwas macht um das grafische Erlebnis zu verbessern.
Spiele wie Batman AA, Mafia 2 und ein paar andere würden nie mit zusätzlichen Effekten aufwarten wenn man das nicht seitens Nvidia forcieren würde.
Das ist reeller Mehrwert für den Spieler, davon sehe ich bei ATI derzeit nichts.

Hugo78
2010-07-23, 18:56:13
Warum muss Nvidia, AMD überhaupt PhysX anbieten?!
AMD ist einfach gefordert, ein ebenbürtiges Konkurrenzprodukt zu entwerfen.
So war das schon immer. Ich sag nur MMX, SSE vs. 3Dnow, AMD64 vs. EM64T ect. pp.

Und wenn AMD mal irgendwann eine bessere CPU & GPU beschleunigte Physik anbietet,
dann hat auch Nvidia Druck sich zu bewegen und eventuell zu öffnen.

Von Intel verlangt ja auch niemand das sie ihr Havok, auf Radeon und Geforces portieren. :rolleyes:

Gast
2010-07-23, 19:00:46
Von Intel verlangt ja auch niemand das sie ihr Havok, auf Radeon und Geforces portieren. :rolleyes:

Was ist denn das für ein Deppenvergleich? Havok funktioniert auf AMD CPUs UND auf Intel. Es ist also eine Bibliothek für alle PC-Spieler, wohingegen PhysX eine Zweiklassengesellschaft entstehen lässt: Gute Physik mit Geforce im Rechner oder Physik wie anno 2002 mit der CPU-Version, die geradezu lächerlich schlecht performt.

Gast
2010-07-23, 19:01:15
Hier liest man auch immer wieder wie viel mehr Rechenleistung die aktuelle ATI Generation besitzt und wie viel besser PhysX auf ATI laufen würde.
Warum ist man dann nicht auf die Offerte damals eingegangen, eine bessere Werbung für die eigenen Karten hätte man doch gar nicht bekommen können wenn man in PhysX Titeln den längeren auf den Tisch legen kann.

ATI sitzt das derzeit einfach aus, es kommen keine wirklichen Anstrengungen um dem ATI Besitzer mehr als nur Konsolenoptik zu bieten.
Man sieht das sich die Karten auch ohne derartige Features verkaufen und investiert erst gar nicht großartig in diese Richtung.
Im Gegenteil ein Grossteil hackt sogar noch auf Nvidia rum, obwohl es ATI ist die ihre Kunden zu dem Thema im Regen stehen lassen.
Will man sich bei PC Spielen in der Breite wieder von der Multiplattformoptik absetzen, so muss man die Hersteller unter Druck setzen die in diesem Punkt nichts für den Gamer auf die Beine stellen, dann kommt man in Zugzwang und wird Investitionen tätigen um wieder auf Augenhöhe zu sein.
Signalisiert man dem Markt dagegen man ist mit Konsolenoptik absolut zufrieden, wird sich ATI auch nicht bewegen in der Richtung.

Blaire
2010-07-23, 19:08:05
Und wenn AMD mal irgendwann eine bessere CPU & GPU beschleunigte Physik anbietet,
dann hat auch Nvidia Druck sich zu bewegen und eventuell zu öffnen.


Seit 4 Jahren kündigen sie das schon an...:freak:
http://www.golem.de/0603/44306.html
http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/juni/ati_crossfire_physics/

y33H@
2010-07-23, 19:28:30
Gute Physik mit Geforce im Rechner oder Physik wie anno 2002 mit der CPU-Version, die geradezu lächerlich schlecht performt. Wo performt CPU-PhysX den so lächerlich schlecht, dass man es auf Anhieb erkennt?

boxleitnerb
2010-07-23, 19:31:46
Es performt natürlich nur dann lächerlich schlecht, wenn man Effekte, die auf der GPU berechnet werden sollten, auf der CPU berechnen will.

y33H@
2010-07-23, 19:33:28
Bitte den gequoteten Text noch mal lesen, dass gefettete vor allem:
Gute Physik mit Geforce im Rechner oder Physik wie anno 2002 mit der CPU-Version, die geradezu lächerlich schlecht performt.

HarryHirsch
2010-07-23, 19:37:33
Bitte den gequoteten Text noch mal lesen, dass gefettete vor allem:

Ich lese da nichts falsches. :frown:

mapel110
2010-07-23, 19:40:28
ich glaube, damit ist die CPU-Variante der GPU-Effekte gemeint und die performt wirklich schlecht. Aber es gibt ja noch PhysX-Effekte, die für die Performance einer CPU gedacht sind. Siehe zum Beispiel Gothic3. Das performt natürlich recht gut.

y33H@
2010-07-23, 19:44:08
Zeig mir bitte eine aktuell eingesetzte CPU-Physik, die derartige Massen an Debris flüssig rendert.

HarryHirsch
2010-07-23, 19:46:15
Nur wenn du mir vorher beweist das PhysX es nicht besser kann.

y33H@
2010-07-23, 19:46:59
Da hast du das Problem: Es gibt aktuell keine Physik-Bibliothek in einem Spiel außer PhysX, die das zeigt.

HarryHirsch
2010-07-23, 19:53:20
Da hast du das Problem: Es gibt aktuell keine Physik-Bibliothek in einem Spiel außer PhysX, die das zeigt.

Da gibt es doch so eine schöne demo die zeigt wozu CPUs in der Lage sind...
das gab es bis dato nicht auf GPUs

Gast
2010-07-23, 19:58:58
...und jetzt unterhalten wir uns die nächsten 2 Jahre in diesem Thread darüber welche Variante die bessere ist um in 2 Jahren wieder zu dem Fazit zu kommen, dass ATI noch immer nichts auf die Beine gestellt hat.

y33H@
2010-07-23, 20:00:31
Da gibt es doch so eine schöne demo die zeigt wozu CPUs in der Lage sind...Demo ungleich Spiel. Oder was meinst du?

HarryHirsch
2010-07-23, 20:01:48
...und jetzt unterhalten wir uns die nächsten 2 Jahre in diesem Thread darüber welche Variante die bessere ist um in 2 Jahren wieder zu dem Fazit zu kommen, dass ATI noch immer nichts auf die Beine gestellt hat.

Möglich! Aber was schreib ich... Alles ist möglich. In 2 Jahren, werter Gast, können wir gerne diskutieren.

HarryHirsch
2010-07-23, 20:03:28
Demo ungleich Spiel. Oder was meinst du?

Leider schon.

Hugo78
2010-07-23, 20:30:51
...und jetzt unterhalten wir uns die nächsten 2 Jahre in diesem Thread darüber welche Variante die bessere ist um in 2 Jahren wieder zu dem Fazit zu kommen, dass ATI noch immer nichts auf die Beine gestellt hat.

Und so wird es kommen, wenn AMD sich weiterhin so sehr "intensiv" um ihre Software kümmert, wie sie das bisher getan haben.

Nvidia's PhysX mag ja weit unter seinen theoretischen Möglichkeiten performen, dass ist gut möglich.
Aber wenigstens haben die Entwickler was handfestes womit sie jetzt arbeiten können.
Und scheinbar ist es garnicht so grottig wie oft beschrien, ansonst müsste man nur Havok antreffen, ...
denn schließlich erwirtschaftet Intel in einem Quartal allein soviel Gewinn, wie Nvidia an Umsatz im ganzen Jahr hat.
Um mal das Geheule von Richard Huddy aufzugreifen. :biggrin:

Gast
2010-07-23, 21:15:42
Es wäre mal schön den Vergleich zu sehen, wie PhysX gegen Havoc im Bereich der CPU-Physik performt.
Gibt es aber nicht.
Wenn man aber sieht, was alles bei deaktivierter GPU-Physik entfernt wird, bekommt man den Eindruck, dass CPU-PhysX sehr schlecht optimiert ist.
Mit Havoc hat man schon sehr viel mehr gesehen.

Gast
2010-07-23, 21:20:57
Was ist denn das für ein Deppenvergleich? Havok funktioniert auf AMD CPUs UND auf Intel. Es ist also eine Bibliothek für alle PC-Spieler, wohingegen PhysX eine Zweiklassengesellschaft entstehen lässt:
Dein eigener Vergleich ist aber auch nicht viel besser. Du vergleichst CPU-Architekturen mit GPU-Architekturen. Dabei lässt du außer Acht, dass CPUs via x86 und durch gegenseitige Lizenzabkommen quasi dieselbe ISA verwenden. Bei GPUs ist das nicht der Fall.

Gast
2010-07-23, 21:56:47
Und so wird es kommen, wenn AMD sich weiterhin so sehr "intensiv" um ihre Software kümmert, wie sie das bisher getan haben.

Nvidia's PhysX mag ja weit unter seinen theoretischen Möglichkeiten performen, dass ist gut möglich.
Aber wenigstens haben die Entwickler was handfestes womit sie jetzt arbeiten können.
Und scheinbar ist es garnicht so grottig wie oft beschrien, ansonst müsste man nur Havok antreffen, ...
denn schließlich erwirtschaftet Intel in einem Quartel allein soviel Gewinn, wie Nvidia an Umsatz im ganzen Jahr hat.
Um mal das Geheule von Richard Huddy aufzugreifen. :biggrin:


Nur reagieren die Kunden nicht.
Was passiert in der Regel mit einem Hersteller wenn er feature-seitig nicht mehr auf dem Laufenden ist, er bekommt die Quittung von den Kunden und verliert Marktanteile an die Konkurrenz.
In vielen Bereichen zu beobachten, wer seine Produkte optimal am Markt platzieren möchte, der darf dem Kunden nicht weniger bieten als die Konkurrenz, besser sogar einen Mehrwert schaffen.
Was passiert wenn ein Grafikkartenhersteller nicht mehr auf dem Laufenden ist bezüglich Features, die Fanboys machen die Konkurrenz dafür verantwortlich und rufen sogar noch zum Boykott auf.
Solange die Mehrheit der Kundschaft ATI nicht signalisiert das vergleichbare Features Pflichtprogramm sind werden die sich nicht bewegen.

LovesuckZ
2010-07-23, 22:53:06
Ist doch nichts neues im Grafikkarten-Gaming-Markt. Die AF-Qualität wird auch kleingeredet.
Man muss sich das mal vorstellen: Da geben Leute hunderte von Euros aus, um sich dann Defizite der Grafikkarten schön zu reden.

Gast
2010-07-23, 22:54:06
Offenbar finden die PhysX Verfechter die entstehende Zweiklassengesellschaft gut -ich nicht. Was war ich seinerzeit froh als dieses elende Glide endlich verschwand und mit D3D ein einheitlicher Standard geschaffen wurde. Nun fängt der Mist (wenn auch in kleinem Umfang) wieder von vorne an. Ich weiß ja nicht, was man sich alles reinpfeifen muss, bis man das gutheißen kann, aber ich weiß, dass es der Plattform PC nicht gut tut. Und genau deshalb stört es mich.

Bald muss man nicht mehr zwischen PC, PS3 und XBOX360 unterscheiden, sondern zwischen PC(Intel/ATI), PC(AMD/ATI), PC(AMD/NV) PC(Intel/NV), PS3 und XBOX360. Tja, dann würde ich als Entwickler auch sagen: Ohne mich.

Bis zur Fehlermeldung: "Falsche Grafikkarte entdeckt. Bitte kaufen Sie....." dauert's vermutlich gar nicht mehr lange.

Mafia 2 wird punkto Physik mit CPU-Physik in etwa auf dem Level von Half Life 2 sein. Letzteres habe ich Ende 2004 mit einem A64 3200+ 2GHZ problemlos und flüssig durchgespielt. Heute - 6 Jahre später -, mit 4 Kernen und fast 4GHZ Kerntakt, zeigt man mir mehr oder weniger dasselbe und kommt mit der Ausrede, die CPU könne umfangreichere Physik nicht handhaben. Mit Verlaub, aber das ist nichts weiter als einfältiges Geschwätz. Man belügt uns nach Strich und Faden, und das mag ich nicht.

Sollte ich Mafia 2 dennoch kaufen, dann sicher erst nach dem ersten Preisrutsch. Das dürfte beim PC nach 2-3 Monaten spätestens der Fall sein. Vielleicht kaufe ich es aber vorher für die Box und schade dem PC so gleich doppelt. *Zaunpfahl reich*

LovesuckZ
2010-07-23, 23:12:15
Zwischen 2004 und 2008(2010): Wann ist dir eigentlich aufgefallen, dass HL2 die Ausnahme statt die Regel bzgl. physikalischer Interaktion war? Lass mich raten: Nachdem du 300€+ für eine AMD Karte hingeblättert hast, und jetzt heulst, weil du nicht alle Features erhälst. Stimmt's?

Gast
2010-07-23, 23:17:08
Ist doch nichts neues im Grafikkarten-Gaming-Markt. Die AF-Qualität wird auch kleingeredet.
Man muss sich das mal vorstellen: Da geben Leute hunderte von Euros aus, um sich dann Defizite der Grafikkarten schön zu reden.
Genau, sieht ma ja bei der GTX 480 und der exorbitanten Verlustleistung, die in keinsterweise die Mehrleistung im Vergleich zur 5870 rechtfertigt.
Einfach grottig schlecht, was Nvidia da abgeliefert hat.
Aber es gibt trotzdem welche, die sich sowas zulegen, auch wenn es ein riesen Defizit ist. Denn die Verlustleistung beeinflusst direkt die Hitze und dadurch auch die Lautheit der Grafikkarte.
Man hat also 3 Minuse, die aus einem resultieren.
Und trotdem wird die GTX 480 gekauft...

Gast
2010-07-23, 23:23:21
Genau, sieht ma ja bei der GTX 480 und der exorbitanten Verlustleistung, die in keinsterweise die Mehrleistung im Vergleich zur 5870 rechtfertigt.
Einfach grottig schlecht, was Nvidia da abgeliefert hat.
Aber es gibt trotzdem welche, die sich sowas zulegen, auch wenn es ein riesen Defizit ist. Denn die Verlustleistung beeinflusst direkt die Hitze und dadurch auch die Lautheit der Grafikkarte.
Man hat also 3 Minuse, die aus einem resultieren.
Und trotdem wird die GTX 480 gekauft...

Stromverbrauch und Lautstärke haben im HighEnd noch nie eine Rolle gespielt, da zählen Features und Leistung eben das Gesamtpaket mehr, vieleicht solltest du deinen PC verkaufen und besser eine Konsole kaufen das passt dann eher in dein Profil. :-)

deekey777
2010-07-23, 23:27:01
Ist es nicht?

"added that Nvidia would be ‘open to talking with any GPU vendor about support for their architecture.’"

Was ist das denn (deiner Meinung nach) sonst, wenn nicht ein Angebot PhysX zu nutzen?


Ich habe nie gesagt, dass ich es in diesem Thread gepostet habe. Wenn du unbedingt immer irgendwelche Hirngespinste einbilden musst kann ich nichts dafür.

Aber schon lustig so ein privater Stalker :D
Deine Logik:
Open = offen
Ersetzt man in "offen" das N durch R, hat man "offer":
offer = Angebot
Scheiße, nicht wahr? Immernoch nicht geschafft, dein Blabla irgendwie zu untermauern.

Und nein, ich bin nicht dein Stalker. Ich demoliere dich einfach.
Übrigens:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7765592#post7765592
Kurz nachdem Nvidia Ageia aufgekauft hatte, hieß es "Wir sind für alles offen, aber es ist noch viel zu früh".
Dann hat AMD die Unterstützung für Havok angekündigt. Später war so etwas zu lesen:
http://www.pcper.com/article.php?type=expert&aid=584&pid=2

Dann zur GDC'09 hat AMD einige Havok-Demos gezeigt, die über OpenCL auf der Grafikkarte liefen, was viele als AMDs Antwort auf PhysX missverstanden haben.

Irgendwann taucht dann diese "Sensation", dass Nvidia AMD PhysX angeboten hätte, was AMD ablehnte. Keiner weiß, wer das genau war.
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
PhysX

Reputedly, nVidia posted in a public forum that they would welcome AMD to negotiate with them for a PhysX license. Here is a comment from AMD's Director of Advanced Technology Initiatives, Dave Hoff about this:

Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.

Recently an email purportedly from an nVidia customer care agent named 'Tory' has been doing the rounds , supposedly stating that 'PhysX is an open software standard that any company can freely develop hardware or software that supports it'. This is at odds to what has previously been heard, and Dave Hoff agrees:

I don't know if this e-mail is real or not, but itss certainly not correct. The PhysX license (anyone can download and see) specifically excludes development and running on anything other than nVidia GPUs, CPUs and consoles. And we've all read about the recent change in their drivers for anyone using ATI cards even for rendering.

So if their post on the forum for us to be able to now use PhysX is real, that seems like a substantial position change. It's interesting they didn't contact us directly and only posted this in a forum.

They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely

Aber jetzt kommt die Standardreaktion: Alles, was von AMD kommt, ist PR-Getrolle.
Was vergessen: Dieses Posting ist vom 07.01.2010. Hat man dich da schon aus dem PCGH-Forum entfernt? Ich meine, du hättest ja es übersehen können.

Gast
2010-07-23, 23:29:45
Stromverbrauch und Lautstärke haben im HighEnd noch nie eine Rolle gespielt,
Trotzdem ist eine hohe Verlsustlesitung ein Defizit, weil man dann vielleicht ein neues Netzteil oder gar einen neuen Tower braucht.
Oder bist du der Meinung, dass eine hohe Verlustleistung ein Feature ist? Und kein Nachteil?

LovesuckZ
2010-07-23, 23:34:00
Ich finde ja dieses Zitat viel interessanter:

So far AMD has not participated with NVIDIA to develop GPU physics using the PhysX middleware. AMD has repeatedly said that they have heard nothing from NVIDIA, and had not been invited to participate. What AMD is doing is working with Havok, which is now owned by Intel. So far AMD is very happy with what they have done with Havok, and they are actively working with Havok to help enable their “Cloth and Destruction” technologies to potentially work on the AMD GPU. Nothing official has been announced yet, but this does appear to be the direction they are heading.

AMD does feel that there needs to be an open relationship, but I am not entirely sure how they are going about making this happen. As a funny side note, I had brought this subject up with Roy Taylor at NVIDIA. He said that so far nobody from AMD has tried to contact him about joining in with support for GPU accelerated PhysX from the AMD side. And furthermore all they had heard from AMD was that they had complained, “Nobody from NVIDIA has contacted us about joining in.” At which point another person on the NVIDIA call commented, “Well I saw this really attractive girl at the dance, but she didn’t come over to talk to me…obviously she hates me!”

So I am here to put, in writing, a message from NVIDIA to AMD. Richard Huddy, please call Roy Taylor at NVIDIA ASAP. He is awaiting your call.

Hm, da hat sich wohl niemand gemeldet. Und da wir dank Fuddy wissen, dass lügen ein erprobtes Mittel in der PR Abteilung von AMD ist, sind AMD's Aussagen also auch nicht für voll zunehmen.

Trotzdem ist eine hohe Verlsustlesitung ein Defizit, weil man dann vielleicht ein neues Netzteil oder gar einen neuen Tower braucht.
Oder bist du der Meinung, dass eine hohe Verlustleistung ein Feature ist? Und kein Nachteil?

Dann muss es nicht kaufen. Hm, welche AMD Karte kann man dann empfehlen, wenn man konkurrenzfähige AF Bildqualität haben will? XT1900XTX? Wird die noch irgendwo verkauft?

Gast
2010-07-23, 23:54:58
Ist doch in der Quintessenz deckungsgleich mit dem was schon gepostet wurde.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8163853&postcount=1909

Nvidia hat öffentlich die Bereitschaft signalisiert PhysX/Cuda ATI zur Verfügung zu stellen gegen eine Lizenzgebühr, das ist in mehreren Aussagen belegt und unbestritten, sogar noch mit der Betonung man warte auf einen Anruf von ATI.
Den nächsten Schritt in Richtung konkreter Verhandlungen hätte ATI schon machen müssen wenn sie daran interessiert gewesen wären, hat man aber nicht gemacht und lieber auf die "überlegene" Havok Technologie gesetzt.
Was daraus in den letzten Jahren geworden ist sieht man ja heute.

Gast
2010-07-24, 00:51:24
Zwischen 2004 und 2008(2010): Wann ist dir eigentlich aufgefallen, dass HL2 die Ausnahme statt die Regel bzgl. physikalischer Interaktion war? Lass mich raten: Nachdem du 300€+ für eine AMD Karte hingeblättert hast, und jetzt heulst, weil du nicht alle Features erhälst. Stimmt's?


Wie gewohnt gehst Du auch das wesentliche nicht ein, aber das spielt in diesem Wurschtel-Thread auch keine Rolle.
Bloß weil HL2 seinerzeit voraus war, heißt das noch lange nicht, dass wir 2010 noch immer auf demselben Niveau herumkrebsen sollten. Selbst Mafia 1 (2002) dürfte CPU-physikalisch nicht weit weg vom bald erscheinenden Nachfolger sein. Auch da gab es berstende Scheiben, fliegende Mülltonnen, große Explosionen, platzende Reifen und relativ glaubhafte Fahrzeugphysik. Will sagen: NV lässt CPU Physik absichtlich alt aussehen. PhysX könnte das sehr wohl auch auf der CPU wesentlich besser, wenn NV es denn zulassen würde. Das heuchlerische Getue seitens NV, sie würden sich um die PC-Spieler bemühen, macht sie halt angreifbar.

Dass es auch anders geht, zeigte AMD mit Dirt 2, Stalker CoP und AvP. Sie hatten dort ihr Know-How bezüglich DX11 eingebracht; NV Kunden profitierten anschließend auch davon (wie wichtig DX11 den Entwicklern ohne IHV-Support ist, sieht man ja aktuell, nämlich = 0). Bei NVs Gaming Engagement profitieren bestenfalls die Besitzer einer Highend-Karte aus ihrem Hause, alle anderen können ihnen den Buckel runterrutschen.

PS: Meine 5770 war nicht einmal ansatzweise in der Nähe von 300€+.

y33H@
2010-07-24, 02:24:34
Wenn man aber sieht, was alles bei deaktivierter GPU-Physik entfernt wird, bekommt man den Eindruck, dass CPU-PhysX sehr schlecht optimiert ist.Es wird nichts entfernt :rolleyes:

Du erhältst ohne GPU-PhysX schlicht Konsolen-Optik.
NV lässt CPU Physik absichtlich alt aussehen.Falsch, die Entwickler sind verantwortlich.
Sie hatten dort ihr Know-How bezüglich DX11 eingebracht;WoW, Tessellation reingeflanscht.

Gast
2010-07-24, 04:28:24
Also ich an ATIs Stelle würde mir ernsthaft überlegen ob ich PhysX überhaupt übernehmen würde, selbst wenn Nvidia die Lizenz recht günstig hergibt.

Es hängt natürlich stark davon ab wie das vertraglich gereglt ist, aber ggf. hilft man dann dabei mit einen Standart zu etablieren, welcher vom Hauptkonkurent beherrscht wird. Sprich was hält Nvidia davon ab später, wenn sich PhysX als GPU Physik Standart in vielen Spielen etabliert hat einfach zu sagen: "Also die Lizenz wird jetzt mal teurer, entweder ihr bezahlt, oder ihr dürft das Feature dann halt nicht mehr anbieten."

Selbst wenn Nvidia die Lizenzgebühren für ATI immer recht klein halten würde, würde man sie ggf. dennoch dabei unterstützen eine Standart einzuführen bei dem dann halt die Spiele Entwickler zur Kasse gebten werden(man hat also einen Konkurent dabei unterstützt sein Produkt auf dem Markt zu etablieren).

TLDR: ATI würde sich doch von Nvidia abhängig machen würden sie PhysX übernhemen, oder seh ich da was falsch?

Gast
2010-07-24, 05:21:21
Die öffentlich geäußerte Offerte seitens Nvidia an ATI PhysX/Cuda ebenfalls gegen Lizenzgebühren zu nutzen ist ja schon ein paar Jahre her, das Thema ist ja eh längst durch.

Ich denke du hast nicht verstanden wie das derzeit läuft.
Ein Publisher/Spieleentwickler zahlt nicht dafür das er PhysX in einem seiner Spiele nutzt, sondern es läuft umgekehrt.
Nvidia macht kein Geld mit den Spieleherstellern die PhysX supporten, sondern Nvidia zahlt dafür das man PhysX implementiert und dafür das mit dem Spieletitel in Verbindung mit PhysX werben darf, wie z.B. beim kommenden Mafia 2.

Ein Grafikkartenhersteller wie Nvidia betreibt aktives Sponsoring und stellt Finanzen wie auch Ressourcen zur Verfügung damit in einigen Vorzeigetiteln wie z.B. Mafia 2 PhysX Unterstützung implementiert wird.
Ohne aktives Sponsoring würde sich kein Entwickler die Mühe machen aufwendige PhysX Effekte zu implementieren.
Logischerweise macht man das aus dem Eigeninteresse heraus den eigenen Produkten einen Mehrwert zu verschaffen, den man dann entsprechend bewerben kann.
In meinen Augen auch der einzige Weg, es funktioniert nur wenn ein marktwirtschaftliches Interesse vorhanden ist, was im Falle PhysX bei Nvidia gegeben ist.

Von daher glaube ich auch nicht an einen offenen Standard, der funktioniert erst dann wenn ein marktwirtschaftliches Interesse vorhanden ist, wenn sich der Aufwand den man reinstecken muss auch wieder auszahlt und das ist bei einem offenen Standard sehr viel schwieriger zu bewerkstelligen das alle Parteien davon gleichwertig profitieren.
Bei den Spieleherstellern sehe ich das nicht solange primär für die aktuelle Konsolengeneration entwickelt wird, dort bringt ein überdurchschnittlicher Aufwand im Bereich Physik Effekte für die PC Portierungen nur mehr Kosten, von daher wird man sich dort auch nicht bewegen es sei denn ein Grafikkartenhersteller wie Nvidia forciert es über Sponsoring Projekte wie bei Mafia 2.

Gast
2010-07-24, 05:42:28
In meinen Augen ist es in erster Linie ein Feature für Enthusiasten und wird es auch vorerst bleiben.
Einige der Produkte die Nvidia anbietet richten sich eindeutig an Enthusiasten und denen will man mit PhysX einen Mehrwert und indirekt natürlich auch einen Kaufanreiz geben.
In meinen Augen auch der richtige Weg, man kann sich darüber streiten welche Physk Plattform die bessere wäre, letztendlich zählt aber das was dabei rauskommt und zählbares, produktives kommt derzeit in dem Punkt nur von Nvidia.

Von ATI kommt in dem Punkt leider nichts und betrachtet man die letzten Jahre, die Ankündigen zu einem eigenen Standard und dem was dabei letztendlich in die Tat umgesetzt wurde, wird es wohl auch dabei bleiben das man von ATI in dem Punkt nichts erwarten kann.

In der Breite, für die Masse sehe ich da erst wieder Bewegung wenn die nächste Konsolengeneration dort eventuell einen gemeinsamen Standard verabschiedet, vorher sehe ich keine Motivation für Spielehersteller mehr zu machen als es derzeit der Fall ist mit Ausnahme von einigen Spieletiteln wo Nvidia ihr hauseigenes PhysX pusht.

deekey777
2010-07-24, 09:42:49
Es wird nichts entfernt :rolleyes:

Du erhältst ohne GPU-PhysX schlicht Konsolen-Optik.
Falsch, die Entwickler sind verantwortlich.
WoW, Tessellation reingeflanscht.
Wofür sind die Entwickler verantwortlich?
Dafür dass sie den Code für "GPU-Effekte" neukompilieren, damit dieser SSE2-Optimierungen haben? Oder die ganzen Partikelsimulationen uä so umschreiben, damit diese auf mehreren Kernen läuft, aber nur mit einem Emitter?
Klar, das kann man auf die Entwickler abwälzen. Dumm nur, dass sie kaum Geld dafür haben.

Captain Future
2010-07-24, 11:18:06
GANZ EINFACH: Dafür zum Beispiel, dass sie nicht einen Schalter einbauen "Ich will Physik mit 60.000 Partikeln" sondern stattdessen einen Schieberegler mit "Ich will Physik von 100 bis 100.000 Partikeln".

Du verstehst das Prinzip?

Gast
2010-07-27, 12:53:33
Korrekt, ein simpler Schalter wie es ihn überall gibt, das sollten die Entickler integrieren.
An/Aus ist etwas arg wenig. Ein dritter wie Mittel ist bereits purer Luxus und fast nie anzutreffen. Ganz zu schweigen von weiteren Positionen.

Nvidia ist natürlich an all dem Schuld, das die Entwickler zu faul sind.
Klar sie sind auch schuld das sie den fremden Code gekauft haben. Hätten besser gewartet bis Ageia sonstwan optimiert hätte.
So kann man jetzt fein kritisieren, das sie sich jetzt bewegen und selbst optimieren. Sollten besser nichts tun, das scheint eher auf Lob zu treffen, weil Branchenüblich.

Bucklew
2010-07-27, 14:45:30
GANZ EINFACH: Dafür zum Beispiel, dass sie nicht einen Schalter einbauen "Ich will Physik mit 60.000 Partikeln" sondern stattdessen einen Schieberegler mit "Ich will Physik von 100 bis 100.000 Partikeln".

Du verstehst das Prinzip?
Und wie willst du damit Wasser oder Nebel darstellen?

Gast
2010-07-27, 15:18:49
Achso, Wasser mit wenig Partikeln macht keinen Spass also lassen wir gleich alle Schalter weg.
Macht unglaublich Sinn. :ugly:

Ideen wie Teile Abszuschalten oder die Wassermenge zu regulieren sind nicht so in. Naja, mal davon ab das PhysX sich nicht nur auf Nebel und Wasser beschr'nkt.

Bucklew
2010-07-27, 16:52:32
Achso, Wasser mit wenig Partikeln macht keinen Spass also lassen wir gleich alle Schalter weg.
Macht unglaublich Sinn. :ugly:
Ja macht es auch nicht. Wasser mit der Anzahl Partikeln, dass es ne CPU locker schafft macht keinen Spaß, also warum Ressourcen rein investieren?

deekey777
2010-07-27, 16:56:30
Nur besteht Wasser nicht aus Partikeln

LovesuckZ
2010-07-27, 17:00:23
Nur besteht Wasser nicht aus Partikeln

Aus was sonst?

Bucklew
2010-07-27, 17:06:06
Nur besteht Wasser nicht aus Partikeln
Ja für Leute die nichts besseres zu tun haben als klugscheißend durchs Forum zu rennen sind es "Moleküle", ist aber (für die Berechnung) im Grunde nichts anderes als Partikel.

deekey777
2010-07-27, 17:07:51
Ja für Leute die nichts besseres zu tun haben als klugscheißend durchs Forum zu rennen sind es "Moleküle", ist aber (für die Berechnung) im Grunde nichts anderes als Partikel.
Aha, man simuliert also die Molekülenbewegungen. ;D

Bucklew
2010-07-27, 17:09:30
Aha, man simuliert also die Molekülenbewegungen. ;D
Was soll "Molekülenbewegungen" sein?

Grey
2010-07-27, 17:16:43
Was soll "Molekülenbewegungen" sein?

Bewegung von Molekülen.

Bucklew
2010-07-27, 17:21:48
Bewegung von Molekülen.
Ach so. Natürlich bewegen die sich in einem Fluß, was sonst?

deekey777
2010-07-27, 17:27:58
Ach so. Natürlich bewegen die sich in einem Fluß, was sonst?
Wenn Moleküle = Partikel: Wieviele "Partikel" enthält dann ein Liter Wasser?

Die Partikelsimulationen, die für Flüssigkeiten eingesetzt werden, sind eigentlich nur Fakes. Es gibt aber SPH, was das PhysX SDK seit einiger Zeit anbietet, das für Flüssigkeitssimulationen eingesetzt wird.

Bucklew
2010-07-27, 18:52:02
Wenn Moleküle = Partikel: Wieviele "Partikel" enthält dann ein Liter Wasser?
2 :rolleyes:

Die Frage ist nicht wieviele Partikel Wasser enthält, sondern wieviele Partikel die Physiksimulation schafft. Und dann wie man es schafft diese endliche Zahl so mathematisch zu berechnen, dass es wie natürliches Wasser aussieht.

Die Partikelsimulationen, die für Flüssigkeiten eingesetzt werden, sind eigentlich nur Fakes. Es gibt aber SPH, was das PhysX SDK seit einiger Zeit anbietet, das für Flüssigkeitssimulationen eingesetzt wird.
Auch SPH ist nichts anderes als eine Flüssigkeit, die mit aktuellen Methode mathematisch nicht 100%ig berechenbar ist, auf weniger Berechnungen (=weniger Partikel) herunterzubrechen.

Gast
2010-07-27, 20:13:08
Ja macht es auch nicht. Wasser mit der Anzahl Partikeln, dass es ne CPU locker schafft macht keinen Spaß, also warum Ressourcen rein investieren?

Und du darfst bestimmen was uns Spaß macht?
Nix da, verteidige Nvidias Inkompatibilisierungsinstrument weiterhin und wir erfreuen uns an verunstalteten spielen in den selbst einfache Partikeleffekte fehlen.
Nvidia versaut die Spiele, keine Frage, aber das war sowieso klar, denn wo NV mitmischt wird irgendwas asoziales gemacht. Sei es gegen Mitbewerber als auch gegen den Endkunden.

- Wenn man keinen Regler einbauen kann
- Wenn es keinen nativen Multicore-Support gibt
- Wenn moderne Befehlssätze der CPUs nicht genutzt werden
- Wenn man keinen Mischbetrieb mit Konkurrenzkarten zulässt
- Wenn man all dafür nur miese Ausreden hat
dann kann ich nur zu dem Schluss kommen, dass PhysX uns und anderen shadet.

y33H@
2010-07-27, 21:16:24
Nvidia versaut die Spiele, keine Frage, aber das war sowieso klarAch so. Die Entwickler müssen also alle NV huldigen und dürfen ihre Cross-Platform-Titel nur nach NVs Gutdünken entwickeln? Hallo, geht's noch? ;D

Huhamamba
2010-07-27, 21:31:12
[...] dann kann ich nur zu dem Schluss kommen, dass PhysX uns und anderen shadet.
Ah ja? Mir jedenfalls nicht, ich hatte mit Batman:AA + PhysX einen Heidenspaß. :P Es ist nicht Nvidias Problem, dass AMD mit Havok den falschen (sprich CPU-basierten) Weg geht und dank miesem Support bei den Spiele-Devs keinen Anklang findet. Wer auf Physikinteraktionen Wert legt und dann weiterhin AMD kauft, ist selbst Schuld...

Gast
2010-07-27, 22:58:21
Ja macht es auch nicht. Wasser mit der Anzahl Partikeln, dass es ne CPU locker schafft macht keinen Spaß, also warum Ressourcen rein investieren?
Lass die CPU aus dem Spiel.
Mich als Geforce Nutzer interessiert der Schalter.

Ich kann auch das Gras ausschalten und trotzdem noch Bäume sehen.
Also, warum nicht das Wasser ausschalten und den Nebel lassen?
Das man zusätzlich die Wassermenge regulieren kann habe ich ebenfalls bereits erwähnt.

Liefer mal eine anständigie Erklärung. PhysX besteht nicht nur aus Wasser, das eine definierte Menge sein soll.
Erzähl mir, warum es selbstverständlich ist 10000 Grafikdetailstufen zu haben, aber nur 2 PhysX Stufen. Die Entwickler sind schlicht zu faul, mehr nicht.

urbi
2010-07-28, 00:12:51
Ich bin auch kein Fan der GPU-accelerated Version und werde ich wohl auch nie. Was PhysX in manchen Spielen leistet, finde ich aber sehr erfreulich - Mafia II etwa und Cellfactor [ja, Techdmemo]. Und das Wasser in Cryostasis finde ich persönlich auch toll.

Ich finde PhysX ebenfalls gut bis beeindruckend. Das trifft sowohl auf Spiele mit GPU Unterstützung zu (Cellfactor - seit HL2 für mich der erste echte Aha-Moment) als auch auf Spiele ohne (Beispiel: Brothers in Arms: Hell's Highway - eigentlich nichts besonderes aber wirklich auch nicht schlechter als Havok und Co).

Natürlich verstehe ich auch, dass die GPU-Version schneller ist und man im Fall Mafia 2 ohne PhysX/Apex auf Sachen wie den dynamisch schwingenden Mantel oder das 1001. korrekt fliegende Splitterteilchen verzichten muss.
Wenn ich aber mal nur als Spieler die Sache durchdenke verstehe ich nicht wieso ich bei Mafia 2 ohne PhysX/Apex offenbar gar keine Einschusslöcher und gar keine Splitter am Boden habe, obwohl ich das doch spätestens seit Max Payne aus vielen guten 3rd-Person-Shootern gewöhnt war.

Kurzum: Wenn man mit einer PhysX-GPU bei einem PhysX-Spiel mehr bekommt als bei einem Spiel mit anderer Physikengine finde ich das ok, wenn man aber ohne PhysX-GPU bei einem PhysX-Spiel weniger bekommt als bei einem Spiel mit anderer Physikengine nervt das.
Die Frage ist dann, wer hier in die Pflicht genommen werden muss. Das sind für mich in erster Linie die Spieleentwickler, die eine zufriedenstellende Lösung für Rechner ohne PhysX-Hardware bieten sollten. Letztendlich sollte IMO aber auch NVIDIA als PhysX-"Hersteller" daran arbeiten, dass vernünftige Lösungen für die Entwickler leicht(er) umsetzbar sind.
Was nützt dem Mafia2-Spieler CPU-PhysX/Apex wenn es (laut Gamestar) auf einem i5-750@3,6GHz nicht flüssig läuft? Hier sind sinnvolle Zwischenschritte gefragt und kein bloßes Kästchen für "alle Effekte auf CPU berechnen".

LovesuckZ
2010-07-28, 00:15:06
Solange wie sich PC- und Konsolenversion nicht unterscheiden, liegt die Schuld beim Entwickler. Da kann nVidia nunmal nichts machen.

Raff
2010-07-28, 08:58:41
Die Entwickler sind schlicht zu faul, mehr nicht.

Warum noch mehr Ressourcen in etwas investieren, das von gefühlt 99,8 Prozent aller Foren-Trolle Nutzer gar nicht gewollt ist? ;)

MfG,
Raff

Captain Future
2010-07-28, 09:45:27
Und wie willst du damit Wasser oder Nebel darstellen?
So wie jetzt, nur halt weniger dicht beim Nebel und weniger "flüssig" beim Wasser. Wo ist das Problem - auch Entwickler-Ressourcen kostet das eher wenig. Abfrage, auf wieviel der Schieberegler steht, Übergabe dieser Zahl an die Simulation. Peng, Klappe zu, Affe tot.

Bucklew
2010-07-28, 10:32:45
Nix da, verteidige Nvidias Inkompatibilisierungsinstrument weiterhin und wir erfreuen uns an verunstalteten spielen in den selbst einfache Partikeleffekte fehlen.
Typisch Gastlogik: Ohne (GPU-)PhysX gäbe es gar keine Partikeleffekte.

Also was wird verunstaltet? Für Nvidianutzer mit GPU-PhysX gibt es MEHR, für andere nur das Normale, nicht weniger.

Das ist dieselbe Argumentation als wenn man sich beschweren würde, warum eine Fermikarte Metro in 1920x1200 schafft und eine 5870 ja nur 1680x1050. Das ist auch echt Betrug am ATI-Käufer, das sein Spiel schlechter aussieht :rolleyes:

Ich kann auch das Gras ausschalten und trotzdem noch Bäume sehen.
Also, warum nicht das Wasser ausschalten und den Nebel lassen?
Wird doch genauso gemacht:
http://www.pcgameshardware.de/aid,695425/Batman-Arkham-Asylum-mit-Physx-Vergleichsbilder-und-Video-aus-der-Vollversion-Update-Benchmarks/Action-Spiel/Test/

Erzähl mir, warum es selbstverständlich ist 10000 Grafikdetailstufen zu haben, aber nur 2 PhysX Stufen. Die Entwickler sind schlicht zu faul, mehr nicht.
Weil es eben ein enorm komplexes System wäre PhysX "frei" wählen zu dürfen und dann ständig im Spiel entscheiden zu müssen was man darstellen will. Und wie soll man das überhaupt regeln? Verschwindet dann auf einmal der Wasserfall und dafür hat man Nebel?

So wie jetzt, nur halt weniger dicht beim Nebel und weniger "flüssig" beim Wasser. Wo ist das Problem - auch Entwickler-Ressourcen kostet das eher wenig. Abfrage, auf wieviel der Schieberegler steht, Übergabe dieser Zahl an die Simulation. Peng, Klappe zu, Affe tot.
Dann doch bitte ein gut gefaktes Wasser als ein schlecht simuliertes...

Und überhaupt: Wofür sollte der Regler sein, mir ist kein Spiel bekannt, dass nicht mit einer Highendkarte bzw. einer Mittelklassekarte für PhysX reibungslos funktioniert.

Gast
2010-07-28, 10:41:24
Wird doch genauso gemacht:
http://www.pcgameshardware.de/aid,695425/Batman-Arkham-Asylum-mit-Physx-Vergleichsbilder-und-Video-aus-der-Vollversion-Update-Benchmarks/Action-Spiel/Test/

3 Stellungen sind nicht gleich 10000.
Und Batman ist wie gesagt die Ausnahme, die Regel sind 2 Stellungen, an oder aus.

Weil es eben ein enorm komplexes System wäre PhysX "frei" wählen zu dürfen und dann ständig im Spiel entscheiden zu müssen was man darstellen will. Und wie soll man das überhaupt regeln? Verschwindet dann auf einmal der Wasserfall und dafür hat man Nebel?

Es gibt immer noch mehr als nur Wasser und Nebel.
Ich hätte gerne mehr Müll auf dem Boden, trotzdem darf der Rest ruhig auf Mittel sein.

Aber nein, das ist nicht drin.

Und überhaupt: Wofür sollte der Regler sein, mir ist kein Spiel bekannt, dass nicht mit einer Highendkarte bzw. einer Mittelklassekarte für PhysX reibungslos funktioniert.Für jeden Scheiss gibts Regler oder zumindest Schalter mit vielen Stellungen.

y33H@
2010-07-28, 10:44:38
Dark Void hat gar vier :eek: Off, Low, Medium und High!

Bucklew
2010-07-28, 10:48:17
3 Stellungen sind nicht gleich 10000.
Und Batman ist wie gesagt die Ausnahme, die Regel sind 2 Stellungen, an oder aus.
Die Ausnahme? Na dann zähl doch mal die Spiele mit nur 2 Stellungen auf, mir fällt nur Mirrors Edge ein und das war auch early adaptor. Dark Void wurde schon genannt, Mafia2 kriegt auch 4 Stufe (oder sogar mehr?) - welche Spiele haben denn nur 2?

Es gibt immer noch mehr als nur Wasser und Nebel.
Ich hätte gerne mehr Müll auf dem Boden, trotzdem darf der Rest ruhig auf Mittel sein.
Das ist vielleicht auch eine Entscheidung des Designers, wieviel Müll da rum liegt? ;)

Gast
2010-07-28, 10:48:42
Dark Void hat gar vier :eek: Off, Low, Medium und High!
Schon besser. =)
Dennoch möchte ich gerne selbst entscheiden, was ich bekomme.

Warum darf man heutzutage nicht mehr kritisieren?
Alles egal, obs AA gibt, ob AF scheisse ist, ob man bei PhysX wie bei Grafik bekannt indivdueller regeln kann. :(

y33H@
2010-07-28, 10:53:03
Sei doch erst mal froh, dass du überhaupt mehr n Port bekommst ;)

Gast
2010-07-28, 11:01:42
Die Ausnahme? Na dann zähl doch mal die Spiele mit nur 2 Stellungen auf, mir fällt nur Mirrors Edge ein und das war auch early adaptor. Dark Void wurde schon genannt, Mafia2 kriegt auch 4 Stufe (oder sogar mehr?) - welche Spiele haben denn nur 2?

UT3
Mirrors Edge ;)
Crazy Machines 2?
Wie wars bei Cryostasis?

Häng dich mal nicht so an der 2 auf.


Das ist vielleicht auch eine Entscheidung des Designers, wieviel Müll da rum liegt? ;)
Pff, bei Spielen wie Oblivion kann ich entscheiden wie viel Grass es gibt. ;)
Idealerweise wär der Boden voll, da unbezahlbar gibts den Regler.

Sei doch erst mal froh, dass du überhaupt mehr n Port bekommst ;)
Ähm, also froh sein und jeden Rückschritt ertragen?
Man wollen wir nicht alle Fortschritt? Was ist hier los, ist heute irgendein besonderer Tag?

Ja Konsolenports sind am Zug. Schön und du bist zufrieden wenn du etwas mehr als den Port bekommst.
Gut, ich hätte gerne noch mehr. Man muss immer kritisieren, wenn man was findet.
Ich finds doch Klasse das die Jungs PhysX nehmen, aber es geht nunmal noch besser.
Wenns wieder nur 20 Autos auf den Straßen gibt, die nach 100m verschwinden gehört das genauso kritisiert.

Bucklew
2010-07-28, 11:07:44
UT3
Mirrors Edge ;)
Crazy Machines 2?
Wie wars bei Cryostasis?
Ist das jetzt Wissen oder nur Halbwissen? Sind das jetzt wirklich schon alle?

Häng dich mal nicht so an der 2 auf.
Woran dann? Was ist denn jetzt das Kriterium? Einfach nur 10.000 PhysX-Positionen, damit du glücklich bist?

Es ist das übliche: Es wird groß rumgemault, was alles doof ist und wenn man dann mal ein bisschen nachbohrt kommen große Sprüche und wenn man dann Fakten haben will: Nichts.

Wie war das noch mit "Die Regel sind 2 Stellungen" und dann kommst du da oben mit so einer lächerlichen Liste. So kann man seine Argumentation auch direkt selbst zerstören.

Pff, bei Spielen wie Oblivion kann ich entscheiden wie viel Grass es gibt. ;)
Idealerweise wär der Boden voll, da unbezahlbar gibts den Regler.
Man kann es mit Einstellungsmöglichkeiten natürlich auch übertreiben, das ist klar.

N0Thing
2010-07-28, 14:33:28
Ist das jetzt Wissen oder nur Halbwissen? Sind das jetzt wirklich schon alle?

Bei 13 GPU-Physx Titeln sind das anteilsmäßig nicht wenige. ;) *scnr*

Aber man sollte nicht nur nach der reinen Anzahl an Spielen gehen, die nur einen an/aus Schalter haben, sondern ob sich bei den neueren Spielen ein Trend zu mehr Auswahl abzeichnet.
DARKEST OF DAYS, Dark Void und Mafia 2 haben mehr als nur einen on/off Schalter, Cryostasis mit Patch auch, wenn ich mich recht erinnere. Somit scheinen die Entwickler auch an die Spieler zu denken, die keine nvidia-GPU haben, oder vielleicht nur ein kleineres Modell.

Gast
2010-07-28, 19:09:37
Aber man sollte nicht nur nach der reinen Anzahl an Spielen gehen, die nur einen an/aus Schalter haben, sondern ob sich bei den neueren Spielen ein Trend zu mehr Auswahl abzeichnet.
DARKEST OF DAYS, Dark Void und Mafia 2 haben mehr als nur einen on/off Schalter, Cryostasis mit Patch auch, wenn ich mich recht erinnere. Somit scheinen die Entwickler auch an die Spieler zu denken, die keine nvidia-GPU haben, oder vielleicht nur ein kleineres Modell.
Ok, im Prinzip ist die Entwicklung schön.

Die die PhysX eh nicht haben wollen und über die CPU Performance meckern dürften weniger Grund zum meckern haben.

Ist das jetzt Wissen oder nur Halbwissen? Sind das jetzt wirklich schon alle?
Verzeih wenn ich nicht 10 Spiele im Monat kaufe.
Mal davon ab, es gibt zwar nach wie vor mehr GPU PhysX als D3D10.1 Spiele, aber so irre viel ist es noch nicht. Keine Ahnung wo ich mir da 20 Titel aus der Nase ziehen soll.


Woran dann? Was ist denn jetzt das Kriterium? Einfach nur 10.000 PhysX-Positionen, damit du glücklich bist?
So ungefähr.
Was sind für dich zuviele Schalter? 5?

Man kann es mit Einstellungsmöglichkeiten natürlich auch übertreiben, das ist klar.Ich sehe nicht das du einen Schaden davon tragen würdest, wenn es dies, z.B. optional gäbe.
Du erinnerst mich an die Verfechter des Cheat-AF, bloß kein HQ Schalter, auch wenn er einen selbst nicht schaden würde.

Du wehrst dich dagegen als ob es dein Leben bedrohen würde.

Bucklew
2010-07-28, 19:31:00
Verzeih wenn ich nicht 10 Spiele im Monat kaufe.
Mal davon ab, es gibt zwar nach wie vor mehr GPU PhysX als D3D10.1 Spiele, aber so irre viel ist es noch nicht. Keine Ahnung wo ich mir da 20 Titel aus der Nase ziehen soll.
Du sollst mir die (deine Worte) "Regel" zeigen. Ich sehe keine Regel, ich sehe eher die Regel, dass es für PhysX meist mehrere Schalterstellungen gibt, so wie überall auch. Genau deswegen kann ich deine Kritik auch einfach nciht nachvollziehen, weil wir schon lange über die An/Aus-Phase beim GPU-PhysX hinaus sind.

So ungefähr.
Was sind für dich zuviele Schalter? 5?
10.000

Ich sehe nicht das du einen Schaden davon tragen würdest, wenn es dies, z.B. optional gäbe.
Du erinnerst mich an die Verfechter des Cheat-AF, bloß kein HQ Schalter, auch wenn er einen selbst nicht schaden würde.

Du wehrst dich dagegen als ob es dein Leben bedrohen würde.
Nein, überhaupt nicht. Ich sehe nur weder einen Sinn in 10.000 Stellungen für verschiedene PhysX-Abstufungen noch sehe ich die technische Möglichkeit, das wirklich sinnvoll zu implementieren. Im Grunde müsste man sämtliche Effektformen dann einzeln in Abstufungen wählen können. Und das halte ich für Overkill, ganz einfach.

BigKid
2010-07-29, 12:07:18
Irgendwie ist das doch 1:1 die Batmangate Diskussion oder ?

Batman AA:
Nvidia baut in Batman AA etwas zusätzlich ein und beschränkt es auf seine Hardware. ATI zu Faul das zu tun und beschränkt sich drauf zu heulen dass die implementierung von NVIDIA eigentlich auch auf ATI Hardware laufen würde. Und der Developer ist auch zu Faul was zu tun bzw. zeigt auf ATI und NVIDIA.
Und die ATI User schimpfen unverständlicherweise auf NVIDIA.

PhysX@GPU:
NVIDIA pusht und fördert gezielt PhysX@Gpu. Es werden zusätzliche Effekte für PhysX@GPU in Spiele eingebaut. ATI - tut nix der gleichen und bietet keine Physik@GPU an. Die Spiele-Entwickler sind Faul und nutzen was NVIDIA bietet auch wenn sie wissen, das der FallBack auf CPU Physik nicht so toll funktioniert UND VON IHNEN optimiert werden müsste.
Und die ATI User schimpfen unverständlicherweise auf NVIDIA.

Aus meiner Sicht - und ich bin glaube ich echt kein Fanboy sondern versuche Neutral zu sein - ist die Schuld in beiden Fällen bei den Entwicklern und AMD zu suchen. Ich nutze die Hardware die mir besser schmeckt. Das sind aktuell Intel CPUs (die Core Serie ist IMHO ein Super Prozessor und war AMD einfach weit vorraus [zu Core und Core2 Zeiten) ) und NVIDIA GPUs. Ich hatte aber schon genauso AMD CPUs im Rechner und 3DFX und ATI Karten.

Analogie:
Spiele Entwickler X hat ein Spiel das mies performt (egal auf welcher Karte). Er ruft ATI und AMD zu Hilfe. ATI optimiert den Renderpfad für ATI sorgt aber dafür, das dieser optimierte Pfad auch nur auf ATI Hardware geht. NVIDIA tut nix, heult aber rumm, dass die Optmierungen auf auf ihrer Hardware funktionieren würden, hat aber genug Zeit um aufzuzeigen, dass es sich bei dem was ATI getan hat um banales Standardcoding handelt das man überall abschreiben kann. Der Spielehersteller hält sich fein raus, auch wenn er nun theoretisch wüsste was an seiner Implementierung schlecht war.
Ich frage mich was in dieser Situation die ATI-Fans den NVIDIA-Fans sagen würden und ich fürchte, dass hier einige NVIDIA Fans genau das tun würden, was die ATI Fans grade tun: Nämlich auf ATI bashen. Das ändert nix drann dass das Blödsinn ist.
Das hier in beiden Fällen noch andere Begleitumstände herrschen spielt imho keine Rolle und verstellt nur den Blick auf den Kern des Problems.

Noch ein Beispiel:
Canon entwickelt einen Treiber, der 25% Tinte spart und 50% schneller druckt. Epson weist nach, dass diese Technik auch bei ihren Druckern funktionieren würde und die Epson-Fans beginnen auf Canon rumzuhacken, weil diese sich das haben Patentieren lassen...

Es ist erstaunlich dass man darüber 2 Jahre Diskutieren kann...

Ganz unabhängig davon:
Dass eine offene Schnittstelle zur Physikberechnung, die sowohl für MehrkernCPUs als auch für GPUs optmiert ist und von allen GPU Herstellern unterstützt wird für den Verbraucher besser wäre, das ist mal sicher. Wieso aber (vor allem die ATI Fans) gerade auf NVIDIA rummhacken (sorry es mal sagen zu müssen: "Beissreflex" ?) ist für mich nicht nachzuvollziehen. Ich sehe hier Spielehersteller und AMD mindestens genauso in der Pflicht. Zuletzt auch Microsoft, denn letztere hätte die Marktmacht sowas zu etablieren, genau wie damals mit Direct3D.

Gast
2010-07-29, 13:37:12
Problem ist wohl, dass diese GPU-PhysiX Spiele ohne eine NV schlechtere Physik bieten als Spiele von vor 5 Jahren.

y33H@
2010-07-29, 13:49:38
Das ist schlicht falsch.

Gast
2010-07-29, 14:57:13
Achja, zumindest ich sehe das anders, wenn ich mir z.b Batman anschaue.

Gast
2010-07-29, 15:10:39
Bei Batman Arkham Asylum fehlen dir nur die PhysX Effekt bei einer ATI.
Ansonsten gibt es keine Unterschiede bezüglich der Physk Effekte, da bildest du dir etwas ein, b.z.w. interpretierst irgendeinen PhysX Effekt als normalen Physik Effekt.

http://www.youtube.com/watch?v=6GyKCM-Bpuw&hd=1

Gast
2010-07-29, 15:24:42
Beste Beispiel mit dabei.

Bei NV gibt's Rauch bei Ati keinen. Es werden einfach Effekte weggelassen, die sehr wohl auch ohne GPU-Physik möglich wären. Auch wenn diese dann keiner echten Physik nachgehen.

y33H@
2010-07-29, 15:24:57
Ohne GPU-PhysX = Konsole

Beklag dich bei den Devs, aber nicht bei NV.

Gast
2010-07-29, 15:37:41
Ohne GPU-PhysX = Konsole

Beklag dich bei den Devs, aber nicht bei NV.


Bin ich der Einzige der diese Logik nicht versteht?

Ich weiß nicht wie man nicht erkennen kann, dass nV auf Kosten der Konsumer versucht sich mit PhyX einen Vorteil zu verschaffen. Mit Mitteln, die imo nicht in Ordnung sind. Die Devs nehmen doch einfach nur die Unterstürzung von NV an, damit sie selbst keine Physikengine entwickeln müssen. Ist doch klar, dass die nicht nein sagen. Immerhin können sie sich dadurch viel Geld sparen.

Hätten wir einen gemeinsamen Standart, bzw. würden ATI und Nvidea an einem Strang ziehen, wären wohl schon viel mehr Spiele mit besserer Physik da, als es jetzt der Fall ist. Und sich damit natürlich noch besser von Konsolenspielen abzusetzen.

Gast
2010-07-29, 15:37:58
Beste Beispiel mit dabei.

Bei NV gibt's Rauch bei Ati keinen. Es werden einfach Effekte weggelassen, die sehr wohl auch ohne GPU-Physik möglich wären. Auch wenn diese dann keiner echten Physik nachgehen.


Die Rauch, Dampf und Nebeleffekte in Batman AA sind PhysX Effekte und keine normalen Physik Effekte.
Du glaubst nicht wirklich die Entwickler hätten ohne PhysX all diese Effekte von sich aus über CPU Physik implementiert.
Ohne PhysX gäbe es auch bei der PC Version diese Effekte nicht, dann hätten alle User die Konsolengrafik ohne jegliche Rauch, Dampf und Nebeleffekte.

Gast
2010-07-29, 15:39:30
Die Rauch, Dampf und Nebeleffekte in Batman AA sind PhysX Effekte und keine normalen Physik Effekte.
Du glaubst nicht wirklich die Entwickler hätten ohne PhysX all diese Effekte von sich aus über CPU Physik implementiert.
Ohne PhysX gäbe es auch bei der PC Version diese Effekte nicht, dann hätten alle User die Konsolengrafik ohne jegliche Rauch, Dampf und Nebeleffekte.

Klar gäbe es keinen korrekt physikalischen Rauch.. aber es gäbe zumindest normalen Rauch.

Gast
2010-07-29, 15:41:49
Schau dir doch die Masse an Multiplattformtitel an die ohne PhysX kommen, was ja die überwiegende Mehrheit ist, wo sind die ganzen tollen Physik Effekte, die deiner Meinung nach alle da wären wenn es kein PhysX gäbe.

Gast
2010-07-29, 15:43:34
Die Devs machen sich da nicht mehr Mühe als nötig, Konsolenoptik halt, Titel wo wirklich signifikant mehr geboten wird sind die absolute Ausnahme, PhysX ist ein Bonus im Bereich optischer Physik Effekte und kein Malus.

Gast
2010-07-29, 15:46:48
Ich rede doch nicht von Physikeffkten.

Aber wie kann es sein, dass es bsp. keinen einfachen Rauch auf einer ATI zu sehen ist. Das kann ich mir nur so erklären, dass versucht wird PhyX besser aussehen zu lassen als es ist und dass obwohl es das garnicht nötig hätte, weil z.b auch so der Rauch besser ist als ohne.

Gast
2010-07-29, 15:47:33
Die Devs machen sich da nicht mehr Mühe als nötig, Konsolenoptik halt, Titel wo wirklich signifikant mehr geboten wird sind die absolute Ausnahme, PhysX ist ein Bonus im Bereich optischer Physik Effekte und kein Malus.

Behaupte ich doch garnicht?!

y33H@
2010-07-29, 15:50:16
Aber wie kann es sein, dass es bsp. keinen einfachen Rauch auf einer ATI zu sehen istBekommst du Rauch auf der Konsole? Nein. Also meckere bei den Entwicklern, dass sie diesen nicht einbauen. Was hat NV damit zu tun?

Gast
2010-07-29, 15:50:36
Das liegt dann aber an den Entwicklern, ich bezweifele stark das man ohne PhysX bei Batman irgendeinen Nebeleffekt implementiert hätte.
Macht man ja bei fast keinem Titel, auch nicht bei der Masse an Spielen ohne PhysX.
Nach deiner Logik müssten dort ja überall mehr zu sehen sein, da Nvidia mit PhysX ja nach deiner Meinung Standard Physikeffekte mit PhysX verhindert, wo sind die ganzen Effekte dann bei der Masse an nicht PhysX Titeln?

Gast
2010-07-29, 16:06:15
Naja, ich muss zugeben, dass ich in den letzten Jahren jetzt nicht so viele Spiele gespielt hab (vielleicht 10). Aber imo hatten alle sowas wir Rauch. Es wirkt imo halt schon komisch, dass das gerade bei PhysX-Titeln fehlt.
Kann schon sein, dass es letztendlich an den Devs liegt und sich NV genau solche Titel raussucht, damit sie PhysX puschen können. Was ja nicht schlecht ist, wenn man dabei bessere Optik bekommt.

Imo wird es aber früher oder später einen gemeinsamen Standart geben. Und je früher der kommt umso besser.

Nightspider
2010-07-29, 16:11:37
"Sowas wie Rauch" ;D

Welche Titel waren das nochmal genau? ^^

Nen Spiel wo mal bisschen mehr rumfliegt aber nur gescripted und nicht super hübsch ist Bad Company 2...und das ist schon ein sehr neues Spiel mit immensem Hardwarehunger.

Ansonsten fällt mir kein normales Game mit Rauch ein. ;)

Das haben glaube nichtmal die guten Rollenspiele, da könnte man sowas gut im nebligen Wald oder in Sumpfgebieten implementieren.

Aber das wird schon bald kommen. Mittlerweile kriegt jeder günstig 6 Kerne und die nächste Konsolengeneration kommt sicherlich auch in 2 Jahren mit einem kleinen Hardware-Upgrade...

Zudem dürften dank DX11 in Zukunft die meisten PC-Only Spiele auf derartige Effekte setzen.

Gast
2010-07-29, 16:18:18
Das ein gemeinsamer Standard und vor allem gemeinsame Anstrengungen dem Gaming einen optischen Mehrwert zu verschaffen für alle Konsumenten das Optimum wäre steht außer Frage.
Allerdings ist das nicht so einfach, Dinge wie PhysX werden nur gepusht weil wirtschaftliche Interessen dahinter stecken, aktuell halt sich von der Konkurrenz abzusetzen und Kaufanreize für die eigenen Produkte zu setzen.

Bei einem gemeinsamen Standard müsste es sich für alle Parteien rechnen und das sehe ich derzeit nicht.
Für einen Grafikkartenhersteller rechnet sich der Aufwand in dem Moment nicht mehr, wo er keine wirtschaftlichen Vorteile daraus ziehen kann.
Bei einem gemeinsamen Standard gäbe es imho keinen Grund mehr Ressourcen und Gelder zu investieren, da man sich keinen Vorteil damit verschaffen kann und wirtschaftlich nicht mehr von Investitionen ausreichend profitiert.
Mehr Konsumenten als jetzt wird man auch kaum davon überzeugen können auf den PC als Gaming Plattform zu setzen durch einen gemeinsamen Standard.
Die Devs interessiert das Thema auch erst dann wenn es wirtschaftliche Vorteile bietet mehr bezüglich der Physik Effekte zu tun, ist aber derzeit nicht der Fall b.z.w. nur über Sponsoring ala "powered by Nvidia PhysX".
Dadurch das die Masse aller Spieletitel für die Konsolen zugeschnitten sind geben die auch die Pace vor was im Physik Bereich passiert.

Gast
2010-07-29, 16:22:24
"Sowas wie Rauch" ;D

Welche Titel waren das nochmal genau? ^^

Nen Spiel wo mal bisschen mehr rumfliegt aber nur gescripted und nicht super hübsch ist Bad Company 2...und das ist schon ein sehr neues Spiel mit immensem Hardwarehunger.

Ansonsten fällt mir kein normales Game mit Rauch ein. ;)

Das haben glaube nichtmal die guten Rollenspiele, da könnte man sowas gut im nebligen Wald oder in Sumpfgebieten implementieren.

Aber das wird schon bald kommen. Mittlerweile kriegt jeder günstig 6 Kerne und die nächste Konsolengeneration kommt sicherlich auch in 2 Jahren mit einem kleinen Hardware-Upgrade...

Zudem dürften dank DX11 in Zukunft die meisten PC-Only Spiele auf derartige Effekte setzen.


Gibt es schon, wenn man auch danach suchen muss.
Risen z.B. dort gibt es so etwas wie statische Nebeleffekte, sieht allerdings im Vergleich zu den PhysX Nebeleffekten aus Batman AA absolut bescheiden aus, eben weil es total statisch ist.
Besser als nichts ist es allemal.

Gast
2010-07-29, 16:37:11
"Sowas wie Rauch" ;D

Welche Titel waren das nochmal genau? ^^

Nen Spiel wo mal bisschen mehr rumfliegt aber nur gescripted und nicht super hübsch ist Bad Company 2...und das ist schon ein sehr neues Spiel mit immensem Hardwarehunger.

Ansonsten fällt mir kein normales Game mit Rauch ein. ;)

Das haben glaube nichtmal die guten Rollenspiele, da könnte man sowas gut im nebligen Wald oder in Sumpfgebieten implementieren.

Aber das wird schon bald kommen. Mittlerweile kriegt jeder günstig 6 Kerne und die nächste Konsolengeneration kommt sicherlich auch in 2 Jahren mit einem kleinen Hardware-Upgrade...

Zudem dürften dank DX11 in Zukunft die meisten PC-Only Spiele auf derartige Effekte setzen.

Hmm .. wie wäre es mit Battlefield 2? (2005).

y33H@
2010-07-29, 16:53:04
Sich mit dem Spieler drehende Texturen? Klasse, ja.