PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PhysX als Kaufkriterium?


Spasstiger
2009-09-17, 16:45:27
Kleine Umfrage, spielt PhysX bei der Kaufentscheidung für eine Grafikkarte bei euch eine Rolle?
Bei mir eher nein. Irgendwann werden eh alle GPUs einen Teil der Physik beschleunigen, da braucht man nicht zwangsweise auf den PhysX-Zug aufspringen.

/EDIT: Um den Unterschied zwischen Antwortmöglichkeit 1, 3 und 4 bei GeForce-Käufern klar zu machen:
1. bedeutet: Ich bin Pragmatiker. Auch wenn die GeForce kein PhysX könnte, würde ich sie kaufen.
3. bedeutet: PhysX hat einen passiven Einfluss auf meine Kaufentscheidung. Ich feue mich, dass mein Favorit ein Feature bietet, das der Konkurrent in dieser Form nicht beherrscht, und fühle mich dadurch in meiner Kaufentscheidung bestätigt.
4. bedeutet: PhysX ist saugeil, das muss ich haben. GeForce ftw!

deekey777
2009-09-17, 16:50:21
Die Möglichkeit auf der eigenen Grafikkarte CUDA-Programme laufen zu lassen, kann ein Kaufkriterium sein. PhysX selbst ist und bleibt kein Kaufkriterium.

Dieser Marketing-Irrsinn muss endlich aufhören, insbesondere wenn die zusätzlichen herunterhängenden zerschießbaren Bettlaken dem Spieler keinen Vorteil bringen.

Kleine Umfrage, spielt PhysX bei der Kaufentscheidung für eine Grafikkarte bei euch eine Rolle?
Bei mir eher nein. Irgendwann werden eh alle GPUs einen Teil der Physik beschleunigen, da braucht man nicht zwangsweise auf den PhysX-Zug aufspringen.
Der Kernpunkt für einen Käufer, der anstelle von Knusperflocken etwas Hirn in seinem Kopf hat, ist, ob er aus dem Kauf Vorteile ziehen kann. Er hat einen Vorteil eine Geforce zu kaufen, wenn er einwandfreie anisotrope Filterung bekommt, er hat Vorteile auf OGSSAA zurückzugreifen und einige mehr. Dass er in Batman AA die Bodenfliesen kaputtmachen kann, kann für einen Käufer kein Vorteil sein. Auch muss man so ehrlich sein, dass gerade nicht ein Teil der Physik beschleunigt wird, sondern zusätzlich einige Spielereien aufgesetzt werden.

Raff
2009-09-17, 16:52:53
Die Möglichkeit auf der eigenen Grafikkarte CUDA-Programme laufen zu lassen, kann ein Kaufkriterium sein. PhysX selbst ist und bleibt kein Kaufkriterium.

So sehe ich das auch. PhysX ist nett und ich nutze es als GeForce-Nutzer auch, aber ein Kaufkriterium ist PhysX allein nicht. Es gibt weit tollere Features, die mich allein zum Kauf einer Grafikkarte motivieren könnten. SGSSAA wäre beispielsweise ein Grund, sofort die Grafikkarte zu wechseln. :naughty:

MfG,
Raff

LovesuckZ
2009-09-17, 16:55:53
Dieser Marketing-Irrsinn muss endlich aufhören, insbesondere wenn die zusätzlichen herunterhängenden zerschießbaren Bettlaken dem Spieler keinen Vorteil bringen.

Welche "spielerischen" Vorteile bringt denn z.B. D3D11? :rolleyes:
Dann ist auch die Umfrage falsch: PhysX bietet zur Zeit mehr Grafik im spielbaren Bereich. Genauso wie z.B jede Grafik-API. Bei der dieser Argumentation müsste man sich nicht zwischen z.B PhysX und D3D11 entscheiden, sondern Stereo3D und Eyefinity.

deekey777
2009-09-17, 16:58:48
Welche "spielerischen" Vorteile bringt denn z.B. D3D11? :rolleyes:
Dann ist auch die Umfrage falsch: PhysX bietet zur Zeit mehr Grafik im spielbaren Bereich. Genauso wie z.B jede Grafik-API. Bei der dieser Argumentation müsste man sich nicht zwischen z.B PhysX und D3D11 entscheiden, sondern Stereo3D und Eyefinity.
Blablaschnarchschnarch...

Warum sollte ich deine Frage beantworten, wenn du meine Behauptung weder widerlegst noch bestätigst?

y33H@
2009-09-17, 16:59:13
SGSSAA wäre beispielsweise ein Grund, sofort die Grafikkarte zu wechseln.Vor allem eines, was sich nicht auf eine Handvoll Spiele beschränkt und zudem imo die BQ deutlich mehr steigert.

Ergo - PhysX ist nice2have, aber das wars dann auch schon.

mapel110
2009-09-17, 17:03:08
PhysX-Beschleunigung ist für mich wie Ambient Occlusion, nett zu haben, aber wirklich entscheidend ists nicht.

Ich finde, dass nvidia neben der reinen Feature-Checkliste deutlich mehr tut als ATI. Spiegelt sich auch in ein "mehr an Treiberschaltern" wieder.

deekey777
2009-09-17, 17:05:10
Vor allem eines, was sich nicht auf eine Handvoll Spiele beschränkt und zudem imo die BQ deutlich mehr steigert.

Ergo - PhysX ist nice2have, aber das wars dann auch schon.
Wie kann es nice2have sein, wenn der Unterschied zwischen "Software-PhysX" und Hardware-PhysX der ist, dass beim Schießen mehr Brocken herunterfliegen - ohne dass die Oberfläche in irgendweise deformiert wird?
Bei FEAR hat sich eine nicht näher beschriebene Person aufgerecht, dass die Einschusslöcher in den Wänden bloß erweitertes Bumpmapping war, ohne dass die Geometrie selbst verändert wurde. Jetzt soll hardware-beschleunigstes PhysX ein nice2have-Feature sein, obwohl die Geometrie weiterhin nicht verändert wird?

LovesuckZ
2009-09-17, 17:05:20
Blablaschnarchschnarch...

Warum sollte ich deine Frage beantworten, wenn du meine Behauptung weder widerlegst noch bestätigst?

Richtig - warum solltest du deine unhaltbare Behauptung auch rechtfertigen.
Wer "PhysX" den Sinn aufgrund fehlendem "spielerischen Vorteil" abspricht, sollte sich mal fragen, was heutzutage einen "spielerischen Vorteil" bietet. :rolleyes:

deekey777
2009-09-17, 17:06:27
Richtig - warum solltest du deine unhaltbare Behauptung auch rechtfertigen.
Wer "PhysX" den Sinn aufgrund fehlendem "spielerischen Vorteil" abspricht, sollte sich mal fragen, was heutzutage einen "spielerischen Vorteil" bietet. :rolleyes:
Wenn du nicht diskutieren willst, dann was willst du hier?

Raff
2009-09-17, 17:08:33
Er hat aber Recht. Wenn PhysX nicht "vorteilhaft" ist, ist es genaueres HDR-Rendering denn? ;) Fakt ist: Man kriegt mehr. Ob man das nun braucht, ist etwas anderes.

MfG,
Raff

y33H@
2009-09-17, 17:13:26
Wie kann es nice2have sein, wenn der Unterschied zwischen "Software-PhysX" und Hardware-PhysX der ist, dass beim Schießen mehr Brocken herunterfliegen - ohne dass die Oberfläche in irgendweise deformiert wird?Weil eben mehr Brocken/Scherben/whatever fliegen. Besser Optik respektive Atmo. Ergo nice 2 have. Was ist daran nicht zu verstehen?Jetzt soll hardware-beschleunigstes PhysX ein nice2have-Feature sein, obwohl die Geometrie weiterhin nicht verändert wird?Klar wäre veränderte Geometrie besser, aber mehr Partikel usw. ist immer noch besser als nicht mehr Partikel ...

Black-Scorpion
2009-09-17, 17:18:55
Er hat aber Recht. Wenn PhysX nicht "vorteilhaft" ist, ist es genaueres HDR-Rendering denn? ;) Fakt ist: Man kriegt mehr. Ob man das nun braucht, ist etwas anderes.

MfG,
Raff
Du weißt ganz genau wie er es meint.
Wer sich ernsthaft hinstellt und Physicx mit DX11 vergleicht will nichts weiter wie provozieren.
Und das Spiel geht in jedem Thread so wo er auftaucht.
Immer die selben Argumente und wenn sie noch so Blöd sind. Hauptsache sie sind so verdreht wie sie ihm passen.

Zatoichi
2009-09-17, 17:19:09
Ist wirklich nice und kann einiges an Atmo/Optik beitragen. Ob das Gameplay technisch relevant ist, ist mir egal. Ist halt ein Feature was die GeForce zusätzlich mitbringt.

Botcruscher
2009-09-17, 17:54:14
Geht mir am großen A vorbei. Breite Unterstützung gibts eh erst mit einem offenen Standard. Bis dahin bleibt es eh bei den wenigen von NV "gesponsorten" Werbegames.

Mit DX11 werden eh die Karten neu gemischt.

Daredevil
2009-09-17, 17:56:46
PhysX ist nett, aber kein Kaufgrund.
CUDA in Verbindung mit PhysX ist schon eher einer. :D

Nvidia5
2009-09-17, 18:19:44
Bei mir entscheidet noch immer der Preis/Leistungsfaktor.
Für micht ist es also kein Kaufkriterium.

Der Badaboom ist ja ein witz Programm. Großer Hyp aber aus meiner Sicht nix dahinter.
Deshalb kann ich auch nicht viel mit CUDA anfangen.

Pinoccio
2009-09-17, 18:40:47
Die Möglichkeit auf der eigenen Grafikkarte CUDA-Programme laufen zu lassen, kann ein Kaufkriterium sein.
[x] Die Möglichkeit, auf der eigenen Grafikkarte eigene Programme* mit CUDA-Unterstützung** laufen zu lassen, wird für meine nächste*** Grafikkarte Kaufkriterium sein.

* vermutlich MATLAB (http://developer.nvidia.com/object/matlab_cuda.html)-Skripte
** Die ist nunmal ausgereifter und verbreiteter (http://de.wikipedia.org/wiki/CUDA#Programmieren) als die von ATIs Wie-auch-immer-das-heißt (also marketingtechnisch schonmal versagt).
*** Q4/09 aka Weihnachten ;-)


mfg

Sonyfreak
2009-09-17, 19:19:57
[x] Ich ziehe GeForce-Karten vor und nehme die PhysX-Beschleunigung gerne mit. Ist für mich eine nette Dreingabe.

mfg.

Sonyfreak

INDEX75
2009-09-17, 20:06:00
[x] Ich ziehe eigentlich Radeon-Karten vor, bin aber interessiert an einer PhysX-Beschleunigung - notfalls per Ageia-Karte oder zusätzlicher GeForce

PhysX würde mich durchaus interessieren, da nettes Feature. Aber alleine deswegen den GPU-Hersteller wechseln oder sich eine Ageia in die Kiste bauen? Wohl eher nicht.

Ikon
2009-09-17, 20:12:42
Es ist wie üblich:
Solange das Feature nicht eine breite Hardware-Basis erreicht, wird es in Anwendungen nur als Spielerei genutzt. Mir ist es als Spielerei nichts wert und ich würde daher jetzt keinen Mehrpreis dafür zahlen. Falls es sich mal durchsetzen sollte, wird es sowieso praktisch jede Karte unterstützen - also auch meine zukünftige Graka.

Jake Dunn
2009-09-17, 20:48:06
[x] Nein, PhysX-Hardwarebeschleunigung ist mir egal

Die Games die das nutzen kann man getrost in die Tonne kloppen z.b. "
Darkest of Days" oder "Batman" :D

Controller Khan
2009-09-17, 21:07:15
[x] Ich ziehe GeForce-Karten vor.

Allein der Linux Support von Ati/mangelnde Ati-Windows Treiber Support treibt mich zu Nvidia.
Die ganzen Nvidia-only Features sind eine nette Dreigabe.

PhysX ist für mich uninteressant, Cuda ist eine nette Dreigabe.

DaBrain
2009-09-17, 21:23:30
[x] Nein

Warum?

Solange PhysX nur auf Nvidia Karten funktioniert, wird es in Spielen niemals für wirklich wichtige Dinge genutzt werden und immer eine Spielerei bleiben(!)

Bullet is dagegen schon interessanter und kann seit einiger Zeit auch über CUDA und OpenCL angesprochen werden.

Spiele mit wegweisenden Physik Features, werden wahrscheinlich eher Bullet als PhysX verwenden werden... imho steht so ein Spiel noch immer aus.

(Geforce Karten ziehe ich trotzdem vor weil ich mit ATI Karten immer wieder Probleme mit non-mainstream OpenGL Anwendungen hatte...)

Mr. Lolman
2009-09-17, 21:35:49
Bessere Physikeffekte find ich schon interessant. Aber die Form, wies einem aktuell präsentiert wird, ist dilletantisch. Bestes Beispiel Batman: Arkham Asylum

1. Fast alle Partikeleffekte werden ohne PhysX-Karte gestrichen. D.h. ohne PhysX hat man zB. nichteinmal Dampf, der einfach aus physikalisch inkorrekten Partikeln besteht (so wies bei jedem anderen Spiel der Fall ist).

2. zusätzlich macht man aus AA ein exklusives NV-Feature.



Interessanterweise kann man gerade bei Batman, auch mit ner ATi-Karte in den Genuss aller Effekte kommen und zwar in dem man

a) mittels 3D-Analyze dem Spiel vortäuscht man hätte eine NV-Karte im Rechner (durch ändern der Vendor-ID) und deswegen wie von Zauberhand plötzlich AA funktioniert
b) folgende Anleitung befolgt (PhysX-Effekte werden damit von der CPU-berechnet und lassen sich auch performance/qualitätsmäßig auf die vorhandene CPU-Leistung anpassen): http://www.rage3d.com/BOARD/showpost.php?p=1336007626&postcount=44

LovesuckZ
2009-09-17, 21:42:58
Bessere Physikeffekte find ich schon interessant. Aber die Form, wies einem aktuell präsentiert wird, ist dilletantisch. Bestes Beispiel Batman: Arkham Asylum

1. Fast alle Partikeleffekte werden ohne PhysX-Karte gestrichen. D.h. ohne PhysX hat man zB. nichteinmal Dampf, der einfach aus physikalisch inkorrekten Partikeln besteht (so wies bei jedem anderen Spiel der Fall ist).

Das hat nichts mit GPU-PhysX zu tun, sondern kommt von den Konsolen. Als AMD User hat man also kein Nachteil.


Interessanterweise kann man gerade bei Batman, auch mit ner ATi-Karte in den Genuss aller Effekte kommen und zwar in dem man


cheatet. ;D
http://physxinfo.com/news/237/batman-arkham-asylum-cpu-physx-trick-how-it-works/

Mr. Lolman
2009-09-17, 21:56:22
Das hat nichts mit GPU-PhysX zu tun, sondern kommt von den Konsolen. Als AMD User hat man also kein Nachteil.

Vgl. mit NV-Usern schon.


cheatet. ;D
http://physxinfo.com/news/237/batman-arkham-asylum-cpu-physx-trick-how-it-works/

Liegt an dem Wert. Je nach HW-Power kann man wohl den auch höher stellen:
MaxPhysicsSubsteps=1

EDIT: Und bevor man auf die Physikeffekte komplett verzichten muss und die CPU Däumchen dreht, ist so ein 'Cheat' allemal brauchbar.

Inquisitor
2009-09-17, 22:05:19
Hmm, mit den Antwortmöglichkeiten werd ich nicht glücklich ;)

1. Nein, egal ist mir das Feature nicht...
2. Nein, ich ziehe keine Radeonkarten vor, ich nehm immer die Karte mit dem besten P/L-Verhältnis
3. Nein, ich ziehe keine GeForcekarten vor, ich nehm immer die Karte mit dem besten P/L-Verhältnis
4. Nein, wenn eine Radeon in anderen Bereichen deutlich besser wäre, würde ich auf PhysX verzichten.

Passt nüx, am ehesten dann Nr. 3^^

tobife
2009-09-17, 23:29:25
PhysX war kein Kaufkriterium. Ich kaufe nach dem besten Preis- Leistungsverhältnis für mich. Extras nehme ich gerne mit. Gibt es keine Extras, ist das auch OK.


tobife

dllfreak2001
2009-09-18, 00:27:14
Nein, für mich ist PhysX irrelevant.
Die Spielebasis ist zu gering und gleicht oft eher einem Techdemo-Fuhrpark, die Implementation
entsprechender Effekte ist wie schon erwähnt diletantisch.

Hab mir eine Geforce auch wegen Cuda geholt, Zwecks Video-Encoding über Cuda, auch hier ist die Softwarebasis dünn und mein favorisiertes Format wird entweder garnicht oder nur von teurer Software unterstützt. Ich bin reichlich enttäuscht, aber das ist ein anderes Thema.

Die nächste Graka wird nach anderen Kriterien ausgewählt.

Gast
2009-09-18, 10:12:18
Bessere Physikeffekte find ich schon interessant. Aber die Form, wies einem aktuell präsentiert wird, ist dilletantisch. Bestes Beispiel Batman: Arkham Asylum

1. Fast alle Partikeleffekte werden ohne PhysX-Karte gestrichen. D.h. ohne PhysX hat man zB. nichteinmal Dampf, der einfach aus physikalisch inkorrekten Partikeln besteht (so wies bei jedem anderen Spiel der Fall ist).

2. zusätzlich macht man aus AA ein exklusives NV-Feature.



Interessanterweise kann man gerade bei Batman, auch mit ner ATi-Karte in den Genuss aller Effekte kommen und zwar in dem man

a) mittels 3D-Analyze dem Spiel vortäuscht man hätte eine NV-Karte im Rechner (durch ändern der Vendor-ID) und deswegen wie von Zauberhand plötzlich AA funktioniert
b) folgende Anleitung befolgt (PhysX-Effekte werden damit von der CPU-berechnet und lassen sich auch performance/qualitätsmäßig auf die vorhandene CPU-Leistung anpassen): http://www.rage3d.com/BOARD/showpost.php?p=1336007626&postcount=44

Genau das ist es, was mich an den Firmen ATI und NV derart stört. Besonders NV glänzt hier mit teilweise widerlichen "Tricks", wie das Batman-Spiel beweist. Sie schieben einfach ein paar $ rüber, damit auf ATI weder Physik noch AA möglich ist. Ganz grosses Kino.

Anstatt dass sie gemeinsam den Spiele-PC zu stärken versuchen (davon leben die Firmen schließlich), bekriegen sie sich gegenseitig und wundern sich anschließend, warum diverse Gamer dem PC den Rücken kehren. Sie sägen sich den eigenen Ast ab. Bravo. Macht weiter so (und meldet in 5 Jahren Konkurs an).

Zum Thema:

Ich wähle meine Grafikkarten nicht nach Features aus, die jedes 20. Spiel unterstüzt. Ergo fallen Spielereien wie PhysX/DX10(.1)/Tesselation/DX11 weg. Die Karte muss anständige Geschwindigkeit für meinen 22" Monitor liefern, einen geringen Leerlaufstromverbrauch haben und gute DVD-Wiedergabe beherrschen.

LovesuckZ
2009-09-18, 10:20:07
Genau das ist es, was mich an den Firmen ATI und NV derart stört. Besonders NV glänzt hier mit teilweise widerlichen "Tricks", wie das Batman-Spiel beweist. Sie schieben einfach ein paar $ rüber, damit auf ATI weder Physik noch AA möglich ist. Ganz grosses Kino.

Wenn du es haben wolltest, hättest du dir eine nVidia-Karte kaufen müsen. Du heulst rum, weil andere mehr haben. Ohne nVidia gäbe es weder AA noch GPU-PhysX. Man sollte erstmal nachdenken, aus welchen Grund Konsolenportierungen auf dem PC erweitert werden.


Anstatt dass sie gemeinsam den Spiele-PC zu stärken versuchen (davon leben die Firmen schließlich), bekriegen sie sich gegenseitig und wundern sich anschließend, warum diverse Gamer dem PC den Rücken kehren. Sie sägen sich den eigenen Ast ab. Bravo. Macht weiter so (und meldet in 5 Jahren Konkurs an).


Wen beide gleich wären, benötigt man auch keine zwei Firmen. Ich dachte Wettbewerb ist so was tolles? Also sollte man auch mit den Nachwirkungen leben können. :rolleyes:

Schlammsau
2009-09-18, 10:24:20
[x] Ich ziehe eigentlich Radeon-Karten vor, bin aber interessiert an einer PhysX-Beschleunigung - notfalls per Ageia-Karte oder zusätzlicher GeForce

_DrillSarge]I[
2009-09-18, 10:26:34
[x] Nein, PhysX-Hardwarebeschleunigung ist mir egal
solange das nicht überall läuft (und nicht mit irgendwelchen zusatzkarten oder ähnlichem schrott) wird das auch so bleiben.

zumal titel, die bis jetzt durch besondere physik aufgefallen sind, nun auch nur non-gpu-physx waren.

Gast
2009-09-18, 11:13:41
[QUOTE=LovesuckZ;7540242] Ohne nVidia gäbe es weder AA noch GPU-PhysX.QUOTE]

LOL, AA ist also eine Erfindung von NV?

GPU-PhysX bedeutet in der jetzigen Form eine Kastration des Contents für ATI-User. Weil dieser ersatzlos gestrichen wird oder per CPU dank maßloser quantiver Übertreibung selten zu berechnen ist.
Wenn ein Hersteller Content weglässt weil er weiß, dass NV das für ihn macht hat der bei mir verschißen, obwohl ich eine Geforce im Rechner drin hab. Denn dies belebt nicht den Wettbewerb es verzehrt ihn nur.
NV wird auch sein möglichstes tun, damit man PhysX mit den Mainstream-Karten nicht sinnvoll einsetzen kann, siehe Batman Arkham Asylum. Dies sind erste Vorboten einer bevorstehenden Monopolisierung.

Gast
2009-09-18, 11:17:53
Wenn du es haben wolltest, hättest du dir eine nVidia-Karte kaufen müsen. Du heulst rum, weil andere mehr haben. Ohne nVidia gäbe es weder AA noch GPU-PhysX. Man sollte erstmal nachdenken, aus welchen Grund Konsolenportierungen auf dem PC erweitert werden.



Wen beide gleich wären, benötigt man auch keine zwei Firmen. Ich dachte Wettbewerb ist so was tolles? Also sollte man auch mit den Nachwirkungen leben können. :rolleyes:


Wie kann man nur derart vernarrt in eine Firma sein? Was genau stimmt mit Dir nicht? Drehst alles wie es Dir passt, lässt das Wesentliche weg, reißt Sachen aus dem Zusammenhang und behauptest Dinge, die nirgends geschrieben Stehen. Etwa dass ich eine ATI hätte.

Aber hey, sollen sie doch weitermachen wie bisher. Die Quittung werden sie bald erhalten. Dass sie langsam in untiefe Gewässer fahren, merkt man an genau solchen Verzeweiflungstaten.

PS: Du machst viele Fallfehler. Anstatt hier die NV-Fahne in jedem Posting hochzuhalten, solltest Du besser mal dieses Problem in Angriff nehmen.

derguru
2009-09-18, 16:09:37
EDIT: Und bevor man auf die Physikeffekte komplett verzichten muss und die CPU Däumchen dreht, ist so ein 'Cheat' allemal brauchbar.
eben,absichtlich die cpu nichts tun zulassen ist ganz sicher nicht besser.

herrlich,;D

http://www.abload.de/img/2tio2jp6l8k1.jpg

Limit
2009-09-18, 16:30:30
Ich rechne nicht damit, dass sich HW-PhysX durchsetzen wird. Und kein Publisher, der einen potentielle Blockbuster herausbringt, kann es sich leisten eine guten Teil der Fangemeinde auszuschließen oder grob zu benachteiligen. Außerdem glaube ich nicht, dass der Unterschied zwischen eine optimierten Softwarevariante und einer Hardwarevariante optisch so groß ist wie es bei manchem Spiel scheint.

Auf längere Sicht denke ich schon, dass es Hardwarephysikberechnung geben wird, allerdings aufbauend auf einer herstellerunabhängigen Plattform DirectX/OpenGL+OpenCL. Sobald eine Plattform gefunden ist, die von allen Herstellern unterstützt wird, können die Entwickler auch damit anfangen, esentielle Dinge damit zu realisieren und nicht nur rein optische Effekte.

Popeljoe
2009-09-18, 17:02:50
Für mich ist PhysX kein Kaufargument, bestenfalls ein Gimmick, schlimmstenfalls ein unnötiges das den Stromverbrauch erhöht.

AYAlf_2
2009-09-18, 17:06:41
physix macht noch keinen sinn. hatte vorher auch eine nvidia ... physix ist nicht mal grafik aufwertend - meine meinung (hdr schon).

Gast
2009-09-18, 20:43:46
Bessere Physikeffekte find ich schon interessant. Aber die Form, wies einem aktuell präsentiert wird, ist dilletantisch. Bestes Beispiel Batman: Arkham Asylum

1. Fast alle Partikeleffekte werden ohne PhysX-Karte gestrichen. D.h. ohne PhysX hat man zB. nichteinmal Dampf, der einfach aus physikalisch inkorrekten Partikeln besteht (so wies bei jedem anderen Spiel der Fall ist).

2. zusätzlich macht man aus AA ein exklusives NV-Feature.



Interessanterweise kann man gerade bei Batman, auch mit ner ATi-Karte in den Genuss aller Effekte kommen und zwar in dem man

a) mittels 3D-Analyze dem Spiel vortäuscht man hätte eine NV-Karte im Rechner (durch ändern der Vendor-ID) und deswegen wie von Zauberhand plötzlich AA funktioniert
b) folgende Anleitung befolgt (PhysX-Effekte werden damit von der CPU-berechnet und lassen sich auch performance/qualitätsmäßig auf die vorhandene CPU-Leistung anpassen): http://www.rage3d.com/BOARD/showpost.php?p=1336007626&postcount=44
So uninformiert wirken deine Flammen ziemlich kühl...

Wenn du eine Ati-Karte hast, bekommst du fieserweise eine Warnmeldung, deine Karte unterstütze kein Multisampling :ugly:
Im Launcher bei den Grafikeinstellungen steht jedoch klipp und klar, dass du bitte das Treiber-Panel benutzen möchstes für AA - was auch problemlos funktioniert, solange du kein Physx mit "Normal" oder "High" auswählst.


Carsten

aehmkei
2009-09-18, 21:11:34
Absolut:
So lange die Konkurrenz künstlich ausgrebremst werden muss und über ini Settings usw. die gleichen Effekte auch ohne PhysX Hardware dargestellt werden können (unter minimal höherer CPU Last) erschließt sich mir der Sinn nicht ganz.
Typisches NVidia Marketing. Nach den Grafikkarten Umbenennaktionen war ein weiterer Schritt der mich zur Konkurrenz treibt das Deaktivieren von PhysX sobald eine weitere nicht-NVidia Karte im System erkannt wird (ab einer bestimmte Treiberversion).
Sowas darf man nicht unterstützen.

Schlammsau
2009-09-18, 21:40:37
Ich sags ja immer wieder, PhysX auf GPU-Basis ist eine Mogelpackung!

mapel110
2009-09-18, 21:46:32
Ich sags ja immer wieder, PhysX auf GPU-Basis ist eine Mogelpackung!
Und wenns auf ner ATI mittels ComputeShader läuft, ists wieder der heilige Gral?!

Schlammsau
2009-09-18, 22:14:35
Und wenns auf ner ATI mittels ComputeShader läuft, ists wieder der heilige Gral?!

Das hat nichts mit ATi zu tun!
Ich bin der festen Überzeugung das, wie man ja jetzt auch bei Batman sieht, die Physik Effekte ganz locker von der CPU berechnet werden könnte.

boxleitnerb
2009-09-18, 22:16:06
PhysX ist für mich beim besten Willen kein Kaufkriterium. Die Effekte sind praktisch ausschließlich optischer Natur, ein Bonus, mehr nicht.

Irgendjemand musste damit anfangen, Physik auf der GPU umzusetzen, es war halt Nvidia, who cares. Gerade jetzt wo GPUs immer schneller werden und die Spiele nicht ganz Schritt halten kann man die Leistung neben besserer BQ dort einsetzen - wo es halt reicht. Ich kann mir kaum vorstellen, dass da selbst eine 6-Kern CPU mithält, sofern das Spiel ohnehin 3+ Kerne für sich beansprucht wie es neuere tun.
Wenn es einen Standard geben würde, würde auch das ewige Geheule aufhören. Leider kann man nicht sagen, was passiert wäre, wenn Ageia nicht aufgekauft worden wäre, doch ich vermute stark, PhysX wäre den Bach runter gegangen.
Extra Karte, extra lauter Kühler, extra Stromverbrauch für etwas, was eine potente GPU "nebenbei" macht. Klar, durch PhysX kann die Leistung auch um 50% sinken, siehe Batman, aber da hätte die PPU auch längst schlapp gemacht imho.
Hier bekommt immerhin eine Usergruppe was umsonst, warum regen sich eigentlich alle auf? Nvidia hat für PhysX Geld gezahlt, ist doch klar dass die das exklusiv machen. Würde ATI/AMD exakt genauso machen, hätten sie die Firma damals gekauft. Niemand hat was zu verschenken.

@Schlammsau:
Wie erklärst du dir dann bitte die vielen PhysX-Benches, wo bei GPU-PhysX off die fps oftmals in den unspielbaren Bereich stürzen?
Sacred 2, Mirrors Edge, UT3...google selber.
Und wenn wir wirklich von rein optisch aufgesetzten Effekten zu spielerlebnis-relevanten Effekten übergehen, steigen die Anforderungen noch weiter. Da kackt eine CPU einfach nur ab.

Gast
2009-09-18, 22:24:03
Das hat nichts mit ATi zu tun!
Ich bin der festen Überzeugung das, wie man ja jetzt auch bei Batman sieht, die Physik Effekte ganz locker von der CPU berechnet werden könnte.

Wieso gehn dann mit PhysX die FPS so extrem runter wenn es die CPU berechnet?

Schlammsau
2009-09-18, 22:26:18
@Schlammsau:
Wie erklärst du dir dann bitte die vielen PhysX-Benches, wo bei GPU-PhysX off die fps oftmals in den unspielbaren Bereich stürzen?
Sacred 2, Mirrors Edge, google selber.

PhysX On auf nicht PhysX-fähiger Hardware, lastet nur einen Kern der CPU aus!

Meiner Meinung nach nur, um PhysX auf nVidia Karten besser aussehen zu lassen!

Gast
2009-09-18, 22:27:52
PhysX On auf nicht PhysX-fähiger Hardware, lastet nur einen Kern der CPU aus!

Und? Nicht jeder hat Dual oder Quadcore.

Schlammsau
2009-09-18, 22:30:04
Und? Nicht jeder hat Dual oder Quadcore.

Spiel mal mit einem Single Core ein PhysX-Game...... ;)

Gast
2009-09-18, 22:32:04
Spiel mal mit einem Single Core ein PhysX-Game...... ;)

Cryoastasis und Mirrors Edge hab ich erst. Und?

Schlammsau
2009-09-18, 22:34:07
Cryoastasis und Mirrors Edge hab ich erst. Und?
Alles klar....;D

boxleitnerb
2009-09-18, 22:34:25
Und welchen? Einen freien oder den, der schon mit den üblichen Berechnungen dicht ist? Das wäre in der Tat eine interessante Frage.
Hast du ne Quelle, die deine Behauptung untermauert?
Imho kommt es auch aufs Spiel an, nicht nur auf PhysX, siehe den Artikel von Anandtech zu UT3 PhysX.
Aber bei oftmals Faktor 4+ Performanceunterschied bezweifle ich, dass die CPU aufschließen kann, selbst wenn man alle Kerne belegt. Und wieviele Kerne sind denn idR frei? Bei einem Dualcore wohl nur einer und es haben noch viele Dualcore. Bei einem QC würde ich Richtung 2 tippen, also auch keine großartige Steigerung. Wäre cool, wenns diesbezüglich mal eine Techdemo+Benchmarks geben würde, damit man wirklich vergleichen kann.
Außerdem steigt die CPU-Leistung nicht im selben Maße wie die GPU-Leistung an. Das sollte man ebenfalls bedenken.

Gast
2009-09-18, 22:37:46
Alles klar....;D

Und? Siehste wie haltlos deine Behauptungen sind!

boxleitnerb
2009-09-18, 22:39:24
Also das ist Schwachfug, was du da verzapfst. Mit nem Singlecore kannst du das nie und nimmer flüssig spielen. Vielleicht ist 15fps für dich flüssig :freak:
Außerdem hat doch heute kein Gamer mehr einen Singlecore und wer noch einen hat, selbst Schuld. Für 100 Euro gibts schon Quadcore ftw :D

Gast
2009-09-18, 23:03:36
Also das ist Schwachfug, was du da verzapfst. Mit nem Singlecore kannst du das nie und nimmer flüssig spielen. Vielleicht ist 15fps für dich flüssig :freak:
Außerdem hat doch heute kein Gamer mehr einen Singlecore und wer noch einen hat, selbst Schuld. Für 100 Euro gibts schon Quadcore ftw :D

Ist kein Schwachfug. 40fps wie kommst du auf 15fps? Und nicht jeder steht auf Wattschleudern schonmal daran gedacht?

boxleitnerb
2009-09-18, 23:07:34
Was für eine CPU hast du? Mit einem Athlon 64 3800 @2,6GHz kommt man nur auf 21 fps min in Cryostasis. Gut, gerade das Spiel profitiert nicht so wirklich vom 2. Kern. Aber fast alle einigermaßen aktuellen Spiele tun es wohl.
Du weißt schon, dass ein CPU-Kern, der nicht benutzt wird, auch abgeschaltet werden kann? Und dass sich der Verbrauch auch nach der Auslastung pro Kern richtet? Das Watt-Argument zieht hier nicht, vor allem weil DC und QC CPUs naturgemäß in modernerer Fertigungstechnik hergestellt werden.

Gast
2009-09-18, 23:28:05
Äh, das UT3-PhysX ist wie ich finde unter aller Kanone.
Zumindest das PhysX Levelpack demonstriert wie bescheiden das läuft.
Klar wenn da der Tornado weht knickt jede CPU ein, abere auch jede Mittelklasse-GPU außerdem ist die Implementation derart Schei**, dass es zu ständigen Laderucklern und abartigen Ladezeiten der Level kommt.

Die Aktivierung von PhysX bringt zudem auf nicht PhysX-Karten eine Performance-Minderung mit sich.

Das alles ist der Grund warum es praktisch keine Server gibt, die das NV-PhysX-Mappack nutzen.
Überdies sind die tausend ewig gleichen und pott häßlichen Partikel die da entstehen einfach nur unrealistisch (welch Ironie).
Für die Clothsimulation der Flaggen und der Klamotten der Spielfiguren scheint GPU-PhysX sogar vollständig unnötig zu sein, lächerlich.

Das gleiche könnte man auch von Mirror´s Edge sagen welches ebenfalls nur eine Hand voll verschiedener PhysX-Effekte kennt.
Auch hier die maßen an identischen Partikeln. Analog dazu Sacred2....


PhysX definiert sich bewußt durch Quantität anstatt durch Qualität. Das weiß NV und das will es auch.
Für mich ist es schäbigstes Marketing, dass sie aber schon seit Jahren bewußt führen. Ich denke da so an die Schlammschlacht-Kampagnen gegen die Konkurenz und ähnliches.
Hier wird keine neue Technik verkauft, sondern das durchdrücken eines Monopols. Wenn sich GPU-PhysX etabliert und damit meine ich in Effekt wie in funktionaler Physik, dann hat die Konkurenz erstmal Feierabend.
Damit meine ich nicht nur ATI sondern auch Intel und VIA...

Für mich hat PhysX keine Bedeutung ich kaufe nach gutem PL-Verhältnis egal ob NV oder ATI...

Gast
2009-09-18, 23:34:47
Was mich auch mal interessieren würde ist ja wie die Berechnungen von PhysX aussehen.

Wenn man GPU-PhysX aktiviert werden dann auch alle Physikelemente der Spielphysik per GPU berechnet oder bleibt das die Aufgbe der CPU und nur Partikel werden von der GPU berechnet.

boxleitnerb
2009-09-18, 23:36:32
GPU-PhysX steckt noch in den Kinderschuhen und ist in den meisten Spielen noch bloß aufgesetzt oder gar nicht als zentrales Element integriert. Wenn mal ein Standard etabliert ist, den beide IHV unterstützen, wird das auch anders aussehen.

Userxy
2009-09-19, 00:34:11
Nvidia Physixs ist halt ein Alleinstellungsmerkmal für Nvidiagrafikkarten, dass durch Nvidia gesponsort wird. Nichts anderes hat der "Marketingmann" in dem Interview ausgesagt. DirektX11 kann jede Grafikkarte in ein paar Monaten und deshalb ist es kein alleiniger Kaufgrund für einen bestimmten Hersteller. Alle sind von den Anforderungen, die sie erfüllen müssen, um kompatibel zu sein, gleich. Wenn durch den höheren Verkaufspreis der Nvidiakarten in einigen Spielen ein zusätzliches Feature gesponsort wird, ist das nett für deren Käufer. Es ist aber dann unberechtigt als Nichtkäufer das gleiche zu fordern.
Das ganze Rumgeeier mit Physixs oder nicht kommt einem so vor als wenn jemand Anspruch auf die Black Edition von AC2 erhebt, weil er die normale Version vorbestellt hat.

Gast
2009-09-19, 00:42:49
Nvidia Physiks ist halt ein Alleinstellungsmerkmal für Nvidiagrafikkarten, dass durch Nvidia gesponsort wird. Nichts anderes hat der "Marketingmann" in dem Interview ausgesagt. DirektX11 kann jede Grafikkarte in ein paar Monaten und deshalb ist es kein alleiniger Kaufgrund für einen bestimmten Hersteller. Alle sind von den Anforderungen, die sie erfüllen müssen, um kompatibel zu sein, gleich. Wenn durch den höheren Verkaufspreis der Nvidiakarten in einigen Spielen ein zusätzliches Feature gesponsort wird, ist das nett für deren Käufer. Es ist aber dann unberechtigt als Nichtkäufer das gleiche zu fordern.
Das ganze Rumgeeier mit Physixs oder nicht kommt einem so vor als wenn jemand Anspruch auf die Black Edition von AC2 erhebt, weil er die normale Version vorbestellt hat.

Pikant wird es wenn der Marketingmann sagt, dass es die NV-Karte eben dann nicht kann wenn auch noch was anderes als NV mitmischt.
Auch unschön wenn Software die als kompatibel verkauft einen großen Teil des Contents auf Konkurenzhardware nicht sinnvoll darstellbar sind.

Partikeleffekte sind keine Erfindung von NV und es ist dafür auch nicht unbedingt eine physikalisch korrekte Berechnung nötig.
Wenn man das weg lässt schikaniert man nur den Typen der keine Geforce im Rechner stöpseln hat.

Userxy
2009-09-19, 00:44:30
Lese bitte nochmal meinen ersten Satz. Der Käufer zahlt für diesen Mehrwert.

Jake Dunn
2009-09-19, 01:22:46
Nur was hat das AA mit PhysX (NV) zu tun? :freak:

Gast
2009-09-19, 03:48:41
Villeicht dachten sich die Macher: erstmal gescheites AF danach können wir über AA zuschalten reden. :ugly:

Was seid ihr auf das blöde PhysX so eifersüchtig?

Als das COD 4 Mappack für PC gratis dank NV kam hat auch keiner mit ATI Graka gesagt das installier ich nicht oder?

Diablo 2, Wing Commander 5 und viele andere alte game laufen nur mit Glide ideal. Ohne Glide konnte man Leistung haben was man wollte man war mit D3D/OGL verdammt. Damals war auch jeder ohne Voodoo gearscht - nur haben da nicht soviele geheult.

Kane02
2009-09-19, 09:15:32
Nein, solang es nur NVIDIA anbietet wird das über kurz oder lang verschwinden.
Sollte IMO jede Grafikarte verschiedener Hersteller können, erst dann hat das ne Chance.

Gast
2009-09-19, 10:30:46
Villeicht dachten sich die Macher: erstmal gescheites AF danach können wir über AA zuschalten reden. :ugly:

Was seid ihr auf das blöde PhysX so eifersüchtig?

Als das COD 4 Mappack für PC gratis dank NV kam hat auch keiner mit ATI Graka gesagt das installier ich nicht oder?

Diablo 2, Wing Commander 5 und viele andere alte game laufen nur mit Glide ideal. Ohne Glide konnte man Leistung haben was man wollte man war mit D3D/OGL verdammt. Damals war auch jeder ohne Voodoo gearscht - nur haben da nicht soviele geheult.

Es geht nur darum, dass visueller Content bewusst vorenthalten wird sobald man etwas anderes als NV im Rechner stecken hat.
Da ist niemand eifersüchtig.

Ich kann auch ein Spiel entwickeln, Map und Gameplay mache ich, für den Rest bestell ich mir NVidia ins Haus.
Dann kriegt der ATI-User außer der Map und dem Spielermodell nichts, denn alle Effekte von Mündungsfeuer bis Nebelschwaden sind nur NV-Usern vorbehalten.
Das stellt eine Wertminderung dar, da das meiste was jetzt unbedingt per PhysX realisiert wird früher auch per CPU ging und seis nicht physikalisch korrekt.

NV bestimmt den Content und das darf nicht sein.

LovesuckZ
2009-09-19, 11:28:16
Wie kann man nur derart vernarrt in eine Firma sein? Was genau stimmt mit Dir nicht? Drehst alles wie es Dir passt, lässt das Wesentliche weg, reißt Sachen aus dem Zusammenhang und behauptest Dinge, die nirgends geschrieben Stehen. Etwa dass ich eine ATI hätte.

Aber hey, sollen sie doch weitermachen wie bisher. Die Quittung werden sie bald erhalten. Dass sie langsam in untiefe Gewässer fahren, merkt man an genau solchen Verzeweiflungstaten.

PS: Du machst viele Fallfehler. Anstatt hier die NV-Fahne in jedem Posting hochzuhalten, solltest Du besser mal dieses Problem in Angriff nehmen.

Sie schieben einfach ein paar $ rüber, damit auf ATI weder Physik noch AA möglich ist. Ganz grosses Kino.

Du hast anscheinend nicht verstanden, dass nVidia nichts verhindert, sondern ermöglicht. Was macht denn AMD für ihre Käufer? Du hörst dich wie ein Kind an, dass sich für Lolli A entschieden hat und nun den Geschmack von Lolli B haben will.
Also troll dich woanders rum - oder besser: Verkauf deine nVidia Hardware und supporte den IHV, der dir 1:1 Konsolenspiele für deine D3D10 Hardware bietet. Dann verpasst du auch nichts. ;D

gnomi
2009-09-19, 11:33:34
[X] Ich ziehe GeForce-Karten vor und nehme die PhysX-Beschleunigung gerne mit

Wobei aktuell PhysX nunmal nur ein nettes Gimmick ist.
Mal hübsch anzusehen, aber die Bildrateneinbrüche (Min. Frames) auf Single GPU Systemen sind nicht tragbar.
Mirrors Edge oder Batman bspw. bleiben zwar auch so spielbar, aber der große Vorteil, mit angenährten 60 fps in jeder Spielsituation zu spielen, ist dahin, und das drückt denke ich mehr das Spielerlebnis als ein paar Effekte.
Ok, alternativ gingen eventuell noch forcierte 30 fps per INI plus PhysX und Pad Steuerung, aber imho ist das auch wieder ein Kompromiß.

Undertaker
2009-09-19, 14:21:22
So richtig passen die Antworten auf mich alle nicht...

[x] PhysX ist für mich ein ähnlich wichtiges Feature wie DX10.1. Kein "Must-Have", aber ich würde es gerne mitnehmen. Kaufentscheidend sind aber andere Kriterien.

Quaker
2009-09-19, 14:37:20
Absolut:
So lange die Konkurrenz künstlich ausgrebremst werden muss und über ini Settings usw. die gleichen Effekte auch ohne PhysX Hardware dargestellt werden können (unter minimal höherer CPU Last) erschließt sich mir der Sinn nicht ganz.
Typisches NVidia Marketing. Nach den Grafikkarten Umbenennaktionen war ein weiterer Schritt der mich zur Konkurrenz treibt das Deaktivieren von PhysX sobald eine weitere nicht-NVidia Karte im System erkannt wird (ab einer bestimmte Treiberversion).
Sowas darf man nicht unterstützen.
Sehe ich in etwa ähnlich.
Solche "Spielchen" darf man einfach nicht unterstützen, habe damals auch 3DFX gemieden, weil die eigentlich ähnliches gemacht haben...
War damals auf den nv Zug aufgesprungen und war lange zufrieden, jetzt treibt mich nv aber "leider" zu ATI - der Kauf von 3DFX hat ihnen wohl leider mehr geschadet und zu solchen hirnrissigen Aktionen verleitet, welcher Kopf auch immer dahinter steckt...

mapel110
2009-09-19, 14:44:24
welcher Kopf auch immer dahinter steckt...
Es könnte sein, dass da Marktwirtschaft dahinter steckt. Wenn ATI/AMD dazu zu blöd ist, lieber die Hardware verschenkt und immer auf Milliardärsspritzen hofft, ist das ja so sinnvoll und zukunftsweisend. Jede Firma sollte so nobel handeln.

nvidia hat bei Desktop-Gamern wohl ein Marktanteil von 65 %. Irgendwas macht ATI also falsch.

Tigerchen
2009-09-19, 15:14:01
Er hat aber Recht. Wenn PhysX nicht "vorteilhaft" ist, ist es genaueres HDR-Rendering denn? ;) Fakt ist: Man kriegt mehr. Ob man das nun braucht, ist etwas anderes.

MfG,
Raff
Das ist eine alte Frage. Die Anhänger der reinen Technik predigen ja schon seit Jahren daß ein mehr an Features, das ist PhysikX ja auch, per se ein Vorteil ist. Vollkommen egal ob der Käufer das auch nutzen kann.

Das gilt natürlich auch für DX11. Brauch ich nicht. Ich lebe mit Windows XP und DX9 ganz hervorragend. Aber wenn ich irgendwann mal wieder eine neue Grafikkarte kaufe nehm ich DX11 mit. Hauptkriterium ist aber ob mir die neue Grafikkarte am Tag des Kaufs genug Leistung bietet. Da ist mir der Techlevel oder irgendeine Physikunterstützung die ich kaum nutzen kann reichlich schnuppe.

Nevermore4ever
2009-09-19, 20:34:42
Ich persönlich finde PhysX interessant, wenn auch nicht übermäßig wichtig. Entscheidender für mich ist die 3D-Stereo-Unterstützung, von der ich bei ATI immer noch nichts sehe. Stattdessen bietet ATI lieber 6 Displays an einer Karte... was bin ich begeistert...:P

reunion
2009-09-19, 23:42:36
Es könnte sein, dass da Marktwirtschaft dahinter steckt. Wenn ATI/AMD dazu zu blöd ist, lieber die Hardware verschenkt und immer auf Milliardärsspritzen hofft, ist das ja so sinnvoll und zukunftsweisend. Jede Firma sollte so nobel handeln.

nvidia hat bei Desktop-Gamern wohl ein Marktanteil von 65 %. Irgendwas macht ATI also falsch.

Schön wie hier so etwas verteidigt wird. Wen interessiert schon dass derartige PhysX-Effekte locker über die CPU berechnet werden könnten, wen interessiert schon das PhysX natürlich automatisch deaktiviert wird sobald auch nur eine non-NV-Karte erkannt wird? Was von PhysX bleibt ist eine reine Marketingaktion von NV zum Nachteil der Kunden, mit dem sich NV künstliche Vorteile erkauft. Aber anstatt solche Schweinereien zu kritisieren stellt man sich auch noch schützend davon mit einem lapidaren "das ist Marktwirtschaft".

Limit
2009-09-20, 00:47:10
Nvidia Physixs ist halt ein Alleinstellungsmerkmal für Nvidiagrafikkarten, dass durch Nvidia gesponsort wird. Nichts anderes hat der "Marketingmann" in dem Interview ausgesagt. DirektX11 kann jede Grafikkarte in ein paar Monaten und deshalb ist es kein alleiniger Kaufgrund für einen bestimmten Hersteller. Alle sind von den Anforderungen, die sie erfüllen müssen, um kompatibel zu sein, gleich.

Das ist durchaus korrekt, allerdings muss man aber auch sagen, dass solche Zusatzfeatures, die davon abhängen, dass sie von den Spielen unterstützt werden, eigentlich nur dann wirklich wertvoll sind, wenn sie von möglichst vielen Spielen unterstützt werden. Das wiederum ist bei herstellerspezifischen Features eher selten der Fall, weil man einfach zuviele potentielle Kunden damit ausgrenzen würde. PhysX wird zwar mittlerweile von einigen Spielen als Physikengine benutzt, häufig aber beschränkt auf die Dinge, die sich problemlos von der CPU berechnen lassen. Also gibt es für die Hw-Variante höchstens ein paar spieltechnisch irrelevante, aufgesetzte Partikeleffekte.

Wirklich relevant und essentiell wird Hardware-Physikbeschleunigung wohl erst dann, wenn eine Physikengine eine Schnittstelle unterstützt, die auch von allen relevanten Hardwarelieferanten unterstützt wird. Ich stell mir da z.B. PhysX oder Havok mit DX11 Compute-Shader Unterstützung vor. Damit wäre die passende Hardware vorhanden, sobald sich DX11 durchgesetzt hat, was nur eine Frage der Zeit ist.

Wenn durch den höheren Verkaufspreis der Nvidiakarten in einigen Spielen ein zusätzliches Feature gesponsort wird, ist das nett für deren Käufer. Es ist aber dann unberechtigt als Nichtkäufer das gleiche zu fordern.
Das ganze Rumgeeier mit Physixs oder nicht kommt einem so vor als wenn jemand Anspruch auf die Black Edition von AC2 erhebt, weil er die normale Version vorbestellt hat.


Von Nvidia kann man sicherlich nicht verlangen PhysX für andere zugänglich zu machen oder dafür zu sorgen das PhysX Spiele auch CPU-Physik gut unterstützen. Allerdings kann man vom Hersteller des Spiels verlangen, dass er auch bei Verwendung anderer Grafikkarten eine entsprechende Leistung bietet oder darauf aufmerksam macht, dass die "tolle Werbegrafik" nur für Nvidiakarten gilt. Dann bliebe noch die Frage, warum manche Hersteller künstlich Nicht-Hw-PhysX diskriminieren. Das Nvidia als "Sponsor" darauf Einfluss genommen hat, kann man da durchaus vermuten.

Gast
2009-09-20, 02:37:55
Also für mich ists niemals ein Kaufkriterium. Ich würde PhysX sogar vollständig deaktivieren, wenn es die fps in den Keller zieht.

Mir ist ein flüssiger Spielablauf weitaus wichtiger als jedes Gimmick, das spielerisch nichts bringt.
So lang die Single Karten das nicht ohne Performanceverlust schaffen, wirds immer irgendwie ein zweischneidiges Schwert sein.
Ich bin mir auch recht sicher, das zumindest die Spieleeffekte auch von einer CPU berechnet werden könnten, gerade da ja jetzt Quads und Six-Cores im kommen sind. Wenn man 1-2 Kerne nur für solche Berechnungen abstellen würde, wäre das schon ein riesiger Fortschritt im gegensatz zu jetzt. Aber das braucht noch Zeit...

Wäre auch irgendwie besser, wenn solche Sachen nicht herstellergebunden sind und man das ganze als Standalone Karte oder vielleicht irgendwann als Zusatzchip immer mitbekäme.

boxleitnerb
2009-09-20, 07:24:54
Wir wollen uns doch mal nicht in Spekulationen verlieren.

Dass die PhysX Effekte "locker" von der CPU berechnet werden können, glaub ich nicht. Dazu hat noch niemand einen Beweis gebracht, weil die CPU-Implementierung offenbar (!) nur auf einem Kern stattfindet. Aber wie ich schon erwähnte, selbst bei 2-3 Kernen reicht das imho bei so einem krassen Performanceunterschied nicht aus. Zumal bei neuen Spielen, die PhysX nutzen, meist schon 2 Kerne ohne Physik gut ausgelastet werden. Und nicht jeder hat nen Quadcore.
Wenn jemand mal auf diesen Punkt eingehen würde, ohne immer nur dasselbe zu plappern, wäre es sehr nett.

Was man tun müsste:
Zusätzliche (!!!) Physikeffekte auf der GPU durch PhysX
Normale Effekte wie gehabt per CPU, evtl. in der Qualität mit einer Option skalierbar. Grundsätzlich sollten keine Effekte fehlen wie z.B. der Nebel in Batman, sondern nur in höherer Qualität dargestellt werden. Ist halt die Frage, ob ein CPU-berechneter dynamischer Nebel dann kacke aussieht.
Dann hat man volle Flexibilität als Benutzer.

Dass die PhysX-Effekte, wie sie momentan von der Grafikkarte bei aktiviertem PhysX berechnet werden, auch von einer CPU geschafft werden können, erzählt mal dem Weihnachtsmann. Anders sieht es halt aus, wenn man sie besser skalieren und auf mehreren Kernen berechnen kann.

Bei manchen Spielen kann man ja zwischen niedrig, mittel und hoch wählen. Wie das ohne GPU-PhysX auf die Performance wirkt, da müsste ich noch mal im Netz nach Benchmarks suchen.

Gast
2009-09-20, 09:24:13
Du hast anscheinend nicht verstanden, dass nVidia nichts verhindert, sondern ermöglicht. Was macht denn AMD für ihre Käufer? Du hörst dich wie ein Kind an, dass sich für Lolli A entschieden hat und nun den Geschmack von Lolli B haben will.
Also troll dich woanders rum - oder besser: Verkauf deine nVidia Hardware und supporte den IHV, der dir 1:1 Konsolenspiele für deine D3D10 Hardware bietet. Dann verpasst du auch nichts. ;D

q.e.d.

LovesuckZ
2009-09-20, 09:52:25
Dann bliebe noch die Frage, warum manche Hersteller künstlich Nicht-Hw-PhysX diskriminieren.

PhysX wird zwar mittlerweile von einigen Spielen als Physikengine benutzt, häufig aber beschränkt auf die Dinge, die sich problemlos von der CPU berechnen lassen. Also gibt es für die Hw-Variante höchstens ein paar spieltechnisch irrelevante, aufgesetzte Partikeleffekte.

Ein schönes Paradoxon.
Aber so läuft diese Diskussion doch immer ab: Man verurteilt es der Sinnlosigkeit, aber will es trotzdem haben.

Armaq
2009-09-20, 11:43:18
Prinzipiell ist jedes "Mehr" gut. Allerdings ist es eher unschön, wenn Effekte auf einen Hersteller beschränkt werden (Batman ist ja da ein Paradebeispiel), obwohl es keine technische Limitation gibt. DX 10.1 für Battleforge ist ein gutes Gegenbeispiel, denn hier war technisch mehr möglich. Die Implementierung wurde natürlich auch durch ATI gefördert.

LovesuckZ
2009-09-20, 11:52:49
Wenn wir von der fehlenden, unabhängigen und herstellerübergreifende API und den langsamen CPUs absehen, dann stimme ist dir im Punkt "keine technischen Limitierungen" zu.

reunion
2009-09-20, 12:04:03
Wenn wir von der fehlenden, unabhängigen und herstellerübergreifende API und den langsamen CPUs absehen, dann stimmte ist dir im Punkt "keine technischen Limitierungen" zu.

Und eine GPU kann nie zu langsam sein? Selbst als GF-Besitzer wäre es mir lieber ich könnte wählen ob ich lieber die GPU oder die CPU belaste, je nachdem wo eben mehr Leistungsüberschuss vorhanden ist. Bei der GPU gibt es schließlich genug andere IQ-Features mit denen man in schönere Bildqualität investieren könnte. Viele Spiele schaffen es hingegen kaum CPUs mit mehr als zwei Kernen vernünftig auszulasten. Der ganze Ansatz ist IMHO höchst fragwürdig.

Armaq
2009-09-20, 12:20:25
Wenn wir von der fehlenden, unabhängigen und herstellerübergreifende API und den langsamen CPUs absehen, dann stimmte ist dir im Punkt "keine technischen Limitierungen" zu.
DX ist ja nun eher eine relativ gute API. 10.1 hat Ati, Nv hat es nicht. In BF konnte man damit ein wenig rausholen (Performance), in Batman kann man sich die "exklusiven" Features per Cheat/Mod wieder reinbasteln. Irgendwie schon komisch. Batman PhysX hat ja nun nichts mit der API zu tun, auch wenn du bei einer Physik-API generell recht hast.

LovesuckZ
2009-09-20, 12:41:31
Batman PhysX hat ja nun nichts mit der API zu tun, auch wenn du bei einer Physik-API generell recht hast.

Vor über einem Jahr gab es keine Möglichkeit mit einer unabhängigen API die Grafikkarte für generelle Berechnungen verwenden zu können. Diese technische Limitierung wird erst jetzt halbwegs gelöst. Man kann nVidia doch deswegen nicht kritisieren - eher AMD und Intel, denen Physik-Berechnungen auf der CPU am Arsch vorbei gehen.
Und bei Batman sind die PhysX-Effekte immer vorhanden. Man verringert nur den Workload auf der CPU. Das führt zu fehlerhaften Darstellungen, weil die Berrechnungen nicht mehr vernünftig duchgeführt werden. Das kann einem nichts ausmachen, ist aber wohl kaum ein Argument, dass die CPUs schnell genug wären.

Armaq
2009-09-20, 12:50:05
Vor über einem Jahr gab es keine Möglichkeit mit einer unabhängigen API die Grafikkarte für generelle Berechnungen verwenden zu können. Diese technische Limitierung wird erst jetzt halbwegs gelöst. Man kann nVidia doch deswegen nicht kritisieren - eher AMD und Intel, denen Physik-Berechnungen auf der CPU am Arsch vorbei gehen.
Und bei Batman sind die PhysX-Effekte immer vorhanden. Man verringert nur den Workload auf der CPU. Das führt zu fehlerhaften Darstellungen, weil die Berrechnungen nicht mehr vernünftig duchgeführt werden. Das kann einem nichts ausmachen, ist aber wohl kaum ein Argument, dass die CPUs schnell genug wären.
Du meinst CUDA? Sicherlich brauchbar, aber warum nicht gleich OpenCL?

LovesuckZ
2009-09-20, 12:55:35
Du meinst CUDA? Sicherlich brauchbar, aber warum nicht gleich OpenCL?

Weil OpenCL heute noch nichtmal final ist? Weder AMD noch nVidia bieten finale Treiber für OpenCL an.
Letztes Jahr gab es weder OpenCL noch DirectCompute. Auf welche API hätte also nVidia die NovodeX - Engine portieren sollen?

Neocroth
2009-09-20, 12:57:36
So wie GPU-PhysX momentan umgesetzt ist, ist es für mich definitiv kein Kaufkriterium für eine GeForce.

Ich habe ein einziges PhysX-Spiel (UT3), welches ich mit einer 8800GTX und PhysX ausprobiert habe. Mir persönlich gefiels nicht - dafür, dass Ageia UT3 zu den PhysX-Paradebeispielen gezählt hat, war meiner Meinung nach die Implementierung grottig. Die Steine aus dem Boden bzw. aus der Wand haben sich eher wie Styropor verhalten, so zumindest mein Eindruck.
Nachdem ich mir die 4870 gekauft habe, hat meine Freundin die 8800GTX bekommen. Sie spielt darauf (als einziges PhysX-Spiel) Sacred 2 - und hat PhysX wieder ausgeschalten, da sie das rumfliegende Laub eher stört.

Ich stimme zudem reunion zu, solange GPU-PhysX auf einen IHV beschränkt bleibt, wird das nix.

Gast
2009-09-20, 13:08:04
Du hast anscheinend nicht verstanden, dass nVidia nichts verhindert, sondern ermöglicht.

Halte ich für Unsinn. Die Effekte bei Batman beispielsweise hätten die Entwickler auch ohne PhysX eingebaut, einfach um das Spiel besser aussehen zu lassen. Vielleicht wäre nicht jeder Effekt dabei gewesen, aber Dampfwolken z.B. ganz sicher.

Meines Erachtens bezahlt NVidia den Entwicklern Geld, damit sie bestimmte Effekte _ohne_Not_ PhysX-exklusiv machen. D.h. das Geld von Nvidia ermöglicht diese Effekte nicht erst, sondern macht sie im Gegenteil nur einer bestimmten Käufergruppe zugänglich.

LovesuckZ
2009-09-20, 13:12:58
Halte ich für Unsinn. Die Effekte bei Batman beispielsweise hätten die Entwickler auch ohne PhysX eingebaut, einfach um das Spiel besser aussehen zu lassen. Vielleicht wäre nicht jeder Effekt dabei gewesen, aber Dampfwolken z.B. ganz sicher.

Nein, bestimmt nicht. Das Spiel wäre zeitgleich als 1:1 Portierung auf den Markt gekommen.


Meines Erachtens bezahlt NVidia den Entwicklern Geld, damit sie bestimmte Effekte _ohne_Not_ PhysX-exklusiv machen. D.h. das Geld von Nvidia ermöglicht diese Effekte nicht erst, sondern macht sie im Gegenteil nur einer bestimmten Käufergruppe zugänglich.

AMD bezahlt die Entwickler, dass sie 1:1 Konsolenportierungen auf den Markt bringen, um mehr Konsolen abzusetzen. So bekommen sie Lizenzgebühren und stärken nicht die PC Konkurrenz, weil sie unterlegende Hardware haben - vorallen im CPU Bereich. :freak:
Man sollte akzeptieren, dass weder Mirrors Edge noch Batman ohne GPU-PhysX mehr bieten als die Konsolenportierungen. Du hättest nicht mehr Content erhalten, wenn nVidia nicht GPU-PhysX promoten würde.

Malabolge
2009-09-20, 14:14:35
AMD bezahlt die Entwickler, dass sie 1:1 Konsolenportierungen auf den Markt bringen, um mehr Konsolen abzusetzen.


AMD bezahlt die Entwickler, ..., um mehr Konsolen abzusetzen. ???



Welche Konsole verkauft AMD denn ?
AMD verkauft Konsolen ?


Deine AMD/ATI Abneigung nimmt ja wohl langam ernsthafte Züge an.

Naja , wenn schon 4,x % hier im Forum die Meinung bestimmen - was soll da schon Rauskommen ausser Realitätsverlust.

boxleitnerb
2009-09-20, 14:26:58
Ach, da gibt es ja den Ausgleich mit nagus und Stefan Payne :)
Und du weißt genau, dass er sich auf die Xbox 360 und den ATI Chip darin bezieht, also du nicht so.

Gast
2009-09-20, 14:48:33
AMD bezahlt die Entwickler, dass sie 1:1 Konsolenportierungen auf den Markt bringen, um mehr Konsolen abzusetzen. So bekommen sie Lizenzgebühren und stärken nicht die PC Konkurrenz, weil sie unterlegende Hardware haben - vorallen im CPU Bereich. :freak:
Man sollte akzeptieren, dass weder Mirrors Edge noch Batman ohne GPU-PhysX mehr bieten als die Konsolenportierungen. Du hättest nicht mehr Content erhalten, wenn nVidia nicht GPU-PhysX promoten würde.

Tzzzzz was ein geistreiches Kommentar. Sowas dämliches hab ich schon lange nicht mehr gelesen. Typisches dummes Fanboy gelaber. Und nein, PhysX ist kein Kaufkriterium, da dieses System Hersteller abhängig ist. Es muss für alle PC User laufen das PhysX gedöns. So sehe ich da keinen Sinn drinne.

LovesuckZ
2009-09-20, 15:00:18
Welche Konsole verkauft AMD denn ?
AMD verkauft Konsolen ?


Deine AMD/ATI Abneigung nimmt ja wohl langam ernsthafte Züge an.

Naja , wenn schon 4,x % hier im Forum die Meinung bestimmen - was soll da schon Rauskommen ausser Realitätsverlust.

Lern Lesen und schreib dich nicht ab. :)

Gast
2009-09-20, 15:04:06
Nein, bestimmt nicht. Das Spiel wäre zeitgleich als 1:1 Portierung auf den Markt gekommen.

Man sollte akzeptieren, dass weder Mirrors Edge noch Batman ohne GPU-PhysX mehr bieten als die Konsolenportierungen. Du hättest nicht mehr Content erhalten, wenn nVidia nicht GPU-PhysX promoten würde.

Wir können da beide nur spekulieren. Dass kein Entwickler PC-exklusive Effekte einbauen würde bzw. die vorhandenen Effekte ggü. der Konsolenvariante ein wenig aufpeppen würde halte ich aber nach wie vor für Unsinn.

LovesuckZ
2009-09-20, 15:09:08
Wir können da beide nur spekulieren. Dass kein Entwickler PC-exklusive Effekte einbauen würde bzw. die vorhandenen Effekte ggü. der Konsolenvariante ein wenig aufpeppen würde halte ich aber nach wie vor für Unsinn.

Capcom z.B liefert fast jede Konsolenportierung mit einem D3D10 Pfad aus - aber meisten nur im Zusammenhang mit nVidia. Codemaster arbeitet mit AMD zusammen, um D3D11 in Dirt 2 zu implementieren. Jedesmal ist ein IHV an der Umsetzung direkt beteiligt. Ohne diesem Einfluss würden wir 1:1 Portierungen erhalten.
Fakt ist jedoch, dass ohne nVidia wir diese PhysX Effekte nicht sehen würden, da sich kein Entwickler die Mühe macht solch einem Eingriff gegenüber der Konsolenversion durchzuführen.

][immy
2009-09-20, 19:04:46
physX wäre für mich nur ein kaufkriterium wenn man eine geforce karte dazustecken könnte (zu egal welcher grafikkarte). sprich mir wäre die addon-karten funktionalität auf jeden fall lieber solange nvidia physx nicht für alle anderen hersteller frei verfügbar macht. denn solange wird es prestige bleiben und damit allein gewinnt man kaum einen kunden. ganz im gegenteil kostet es mehr als es einbringt.
auf die jetzige weise stellt nvidia nur sicher das z.B. microsoft dazu gezwungen wird einen standard in directx zu schaffen der dann von jeder grafikkarte direkt unterstützt werden müsste oder das intel den neuen standard bringt.

Gast
2009-09-20, 21:53:50
Wenn diese immersiven Effekte bei Batman-Konsole auch fehlen, dann wurden sie zusätzlich gemacht

ShadowXX
2009-09-20, 22:32:44
Wenn diese immersiven Effekte bei Batman-Konsole auch fehlen, dann wurden sie zusätzlich gemacht
Ja, die fehlen bei der Konsole und wurde extra für nVs HW-PhysX mit eingebaut.

Gast
2009-09-20, 23:15:18
Leider muss man für den vollen Genuß der PhysX-Effekte in Batman Arkham Asylum auch eine entsprechned Grafikkarte haben, natürlich von NV ab einer 260er.

Spasstiger
2009-09-21, 00:42:10
Leider muss man für den vollen Genuß der PhysX-Effekte in Batman Arkham Asylum auch eine entsprechned Grafikkarte haben, natürlich von NV ab einer 260er.
Eine GeForce 9800 GTX tuts für PhysX medium auch:

http://img2.pict.com/37/e6/da/1648501/0/mainstream.png

http://forums.slizone.com/index.php?showtopic=39205&st=0

N0Thing
2009-09-21, 10:09:38
Sieht für mich eher so aus, als ob man eine zusätzliche 9800GTX braucht, Durchschnittsframeraten von 30 FPS hören sich nicht nach flüssigem Spielerlebnis an.

LolekDeluxe
2009-09-21, 13:45:49
Eine GeForce 9800 GTX tuts für PhysX medium auch:

http://img2.pict.com/37/e6/da/1648501/0/mainstream.png

http://forums.slizone.com/index.php?showtopic=39205&st=0
Sorry aber diese Combo ist völlig Sinnlos.
9800 gtx + 9600 gt = 155€
260 gtx = 125€

Und eine 260 GTX ist sogar ein Tick schneller in High als die Combo in Medium.
Wobei mir es nicht erschliesst wozu PhysX gut sein soll.
260Gtx im SLI 64 = Fps
260Gtx + 260gtx für PhysX = 69 Fps

Spasstiger
2009-09-21, 14:59:24
Sorry aber diese Combo ist völlig Sinnlos.
9800 gtx + 9600 gt = 155€
Ich meine die einzelne 9800 GTX mit 36 fps in 1680x1050 4xAA. Kostenpunkt: 90€ aufwärts (als GTS 250).

Iceman346
2009-09-21, 15:31:12
Leider muss man für den vollen Genuß der PhysX-Effekte in Batman Arkham Asylum auch eine entsprechned Grafikkarte haben, natürlich von NV ab einer 260er.

Die wird zwar empfohlen, aber mein Bruder spielt das mit ner alten 8800GTS immer noch mit PhysX an. Hatte sogar ne zeitlang auf Hoch bis er dann zu einer Stelle kam wo es Crashes gab die mit Medium weg waren.


Zum Thema: PhysX ist für mich ne nette Dreingabe aber für die Kaufentscheidung völlig egal, dafür ist die Anzahl der Spiele zu gering und die Auswirkungen zu klein.
Eine Entscheidung zum Kauf einer Grafikkarte mache ich auf Basis der Leistung bei möglichst ansprechender Bildqualität und vor diesem Hintergrund alleine halte ich die Nvidia Karte aktuell für das bessere Paket, leider sind sie nur inkompatibel mit meinem Monitor, sonst hätt ich wohl ne GTX260 drin.

Botcruscher
2009-09-21, 15:57:38
Sorry aber diese Combo ist völlig Sinnlos.


Nicht wenn man die alte Karte auf Halde liegen hat.

Gast HITCHER
2009-09-21, 17:28:05
im Vergleich zur originalen Phys-X Karte, die ja nicht extrem schnell war,
sollte doch sogar schon eine Einsteiger-Grafikkarte wie eine 9400 ausreichen um Phys-X in Kombination mit einer schnelleren Grafikkarte GTX 260² ausreichend zu beschleunigen.

http://geizhals.at/deutschland/a354148.html
http://www.nvidia.com/object/physx_gpus.html

Gast HITCHER
2009-09-21, 17:28:52
korrektur:
ab 9500GT

Malabolge
2009-09-21, 18:09:45
Lern Lesen und schreib dich nicht ab. :)

Schon gut , du "alte Kackbratze" :biggrin: Ich komm nicht aus dem Osten.

Aber mit uneinsichtigen Menschen zu diskutiren , macht einfach keinen Spass



Und du weißt genau, dass er sich auf die Xbox 360 und den ATI Chip darin bezieht, also du nicht so.

Ich wusste gar nicht das AMD die Xbox360 vertreibt
Oder vertreibt Nvidia jetzt die PS3 ??



Aber zurück zum Thema : warum soll ich mir eine Grafikkarte kaufen auf der nur "ausserlesene" Spiele ein Feature ausnutzen.
Mir persönlich wäre ein für ALLE anwendbarer Standard viel Lieber

Mr. Lolman
2009-09-22, 19:09:29
Ich persönlich finde PhysX interessant, wenn auch nicht übermäßig wichtig. Entscheidender für mich ist die 3D-Stereo-Unterstützung, von der ich bei ATI immer noch nichts sehe. Stattdessen bietet ATI lieber 6 Displays an einer Karte... was bin ich begeistert...:P

Als ATi-User bekommst du den gratis IZ3D-Treiber mit zusätzlicher Unterstützung für Shutterbrillen (was ansonsten kostenplichtig wäre).

So uninformiert wirken deine Flammen ziemlich kühl...

Wenn du eine Ati-Karte hast, bekommst du fieserweise eine Warnmeldung, deine Karte unterstütze kein Multisampling :ugly:
Im Launcher bei den Grafikeinstellungen steht jedoch klipp und klar, dass du bitte das Treiber-Panel benutzen möchstes für AA - was auch problemlos funktioniert, solange du kein Physx mit "Normal" oder "High" auswählst.


Carsten

Tatsächlich? Hab bisher überall gelesen, dass Batman mit AA nur über den 3D-Analyze Kniff auf ATi-Karten läuft...

LovesuckZ
2009-09-22, 19:13:23
Ich wusste gar nicht das AMD die Xbox360 vertreibt
Oder vertreibt Nvidia jetzt die PS3 ??


Keine Bildung ist keine Tugend. :)

deekey777
2009-09-22, 19:29:22
sry

AYAlf_2
2009-09-23, 09:03:37
Keine Bildung ist keine Tugend. :)

warum machst du hier eigentlich staendig die leute an, die nicht dem nvidia fanclub beigetreten sind. bleib doch wenigstens 1x sachlich! :freak:

LovesuckZ
2009-09-23, 09:29:01
warum machst du hier eigentlich staendig die leute an, die nicht dem nvidia fanclub beigetreten sind. bleib doch wenigstens 1x sachlich! :freak:

Muss ich jetzt wieder den Spruch mit dem Lesen bringen? :freak:
Wer hier wen angemacht hat, solltest du beim korrekten Lesen des Threads sehen können.

Iceman346
2009-09-23, 12:30:00
Tatsächlich? Hab bisher überall gelesen, dass Batman mit AA nur über den 3D-Analyze Kniff auf ATi-Karten läuft...

Nope, mit dem Cat 9.9 geht AA ganz normal über die Treibereinstellungen. Mit dem 9.8er wars noch nicht möglich.

Gast
2009-09-27, 12:29:36
Es schon etwas ironisch das Bullet für OpenCL von ATI auf NVidia Hardware entwickelt wird.

Ok ist auf den 2ten Blick völlig egal aber läßt einen doch Schmunzeln. :D ;)

http://www.hardware-infos.com/news.php?news=3220

StefanV
2009-09-27, 16:02:28
Ein wenig schon, aber das zeigt doch nur, das AMDs Ziel ist, einmal mehr einen offenen Standard zu schaffen, so dass man dann unter Umständen andere Physik Schnittstellen verdrängt.

LovesuckZ
2009-09-27, 16:20:18
Welches Ziel? AMD will keinen offnenen Standard schaffen, sondern sie müssen es. Die Ironie ist, dass AMD überhaupt keine richtige Arbeit investieren muss. Weder OpenCL noch DC wurde expliziert von ihnen angetrieben. Sie nutzen es, um sich in ein besseres Licht zu stellen.
Sieht man auch daran, dass wohl Effektphysik in Spielen nur unter DC5.0 zur Verfügung stehen wird - vollkommen egal, dass es auch mit DC4.0/4.1 realisierbar sein wird.
Und bis jetzt fehlen auch die Ankündigungen von Games, die Physik über OpenCL realisieren. Also bis jetzt sind es schöne PR Aktionen, die von vielen als "toll" aufgenommen wird.

Gast
2009-09-27, 16:48:01
PhysX ist aber auch keine Lösnug. Denn wer holt sich schon jetzt ne Karte wegen PhysX, hat dann noch die Unterstützung in vielen Spielen und bei der nächsten Generation der Grafikkarten zaubert ATI dann eine Karte aus dem Hut, welche der dann neuen NVidia Karte weit überlegen ist. Da müsste man ja dann bei Nvidia bleiben um PhysX weiter nutzen zu können oder man wechselt zu ATI und kann das PhysX in den teuer erstandenen Spielen nicht mehr nutzen. Wie man es auch drehen mag, der Kunde ist immer der Dumme, wenn es keine Standards gibt!

deekey777
2009-09-27, 16:50:23
Es schon etwas ironisch das Bullet für OpenCL von ATI auf NVidia Hardware entwickelt wird.

Ok ist auf den 2ten Blick völlig egal aber läßt einen doch Schmunzeln. :D ;)

http://www.hardware-infos.com/news.php?news=3220
Für mich wirkt diese "News" so, alsob jemand einfach in diesen Thread reingeschaut hat: http://forum.beyond3d.com/showthread.php?t=55244

Ein wenig schon, aber das zeigt doch nur, das AMDs Ziel ist, einmal mehr einen offenen Standard zu schaffen, so dass man dann unter Umständen andere Physik Schnittstellen verdrängt.
Was ist der Unterschied zwischen einer Library und einer API?

Botcruscher
2009-09-27, 17:13:37
Welches Ziel? AMD will keinen offnenen Standard schaffen, sondern sie müssen es. Die Ironie ist, dass AMD überhaupt keine richtige Arbeit investieren muss. Weder OpenCL noch DC wurde expliziert von ihnen angetrieben. Sie nutzen es, um sich in ein besseres Licht zu stellen.


Wie verwerflich... warum NV nicht auf die Idee gekommen ist.:freak:

StefanV
2009-09-27, 17:46:31
Was ist der Unterschied zwischen einer Library und einer API?
Was ist der Unterschied zwischen einem Auto und einem Reifen?

Das eine ist eine Schnittstelle, um etwas ansprechen zu können, das andere ist deutlich 'kleiner' und dient "nur" der Erweiterung von z.B. einer API.

deekey777
2009-09-27, 17:53:19
Was ist der Unterschied zwischen einem Auto und einem Reifen?

Das eine ist eine Schnittstelle, um etwas ansprechen zu können, das andere ist deutlich 'kleiner' und dient "nur" der Erweiterung von z.B. einer API.
Und warum schreibst du dann das:
Ein wenig schon, aber das zeigt doch nur, das AMDs Ziel ist, einmal mehr einen offenen Standard zu schaffen, so dass man dann unter Umständen andere Physik Schnittstellen verdrängt.

Gast
2009-09-27, 18:17:00
ATI erschaft KEINEN offenen Standard. Nur weil es auf beiden Karten läuft und OpenCL verwendet wird ist es noch lange nicht offen.

D3D läuft auch auf beiden Karten - ist das jetzt auch ein offener Standard? :ugly:

(Wobei ATI und NV sogar mehr "Mitspracherecht" V bei nem neuen D3D besitzten X als NV es bei Bullet von ATI haben wird = :ugly:^:ugly: @ "offener Standard")

deekey777
2009-09-27, 18:22:17
Ich glaub, es wird überinterpretiert: Wenn Bullet von heute auf morgen über OpenCL überall läuft, heißt das nicht, dass die Geforces schlechter abschneiden werden (oder die Intel-CPUs). Sicher ist, dass AMD damit sicherstellt, dass ihre Hardware optimial laufen wird.

Mr. Lolman
2009-09-28, 17:21:58
So uninformiert wirken deine Flammen ziemlich kühl...

Wenn du eine Ati-Karte hast, bekommst du fieserweise eine Warnmeldung, deine Karte unterstütze kein Multisampling :ugly:
Im Launcher bei den Grafikeinstellungen steht jedoch klipp und klar, dass du bitte das Treiber-Panel benutzen möchstes für AA - was auch problemlos funktioniert, solange du kein Physx mit "Normal" oder "High" auswählst.


Carsten

http://blogs.amd.com/play/2009/09/11/ati-catalyst-99-driver-everything-you-want-to-know-and-why-you-should-care/#comment-1630


Hm...

Man könnte mal testen obs AA mit der 3D-Analyze Geschichte flotter läuft.

LovesuckZ
2009-09-28, 17:26:18
Wie verwerflich... warum NV nicht auf die Idee gekommen ist.:freak:

Welche Idee? Einen "offenen Standard" zu eigenen PR Zwecken missbrauchen? :freak:

Kephis
2009-10-06, 09:37:51
Hmm für insgesamt 13% ist Physix also ein Kaufargument!
Wahnsinns zahlen, aber naja das Physix ne Tot Geburt war war eh schon von dem Moment klar als Nvidia entschied das es nur auf deren Karten läuft. Das war bis jetzt bei allen neuen Sachen so die sich auf nur einen Teil des gaming Marktes stürzten und den anderen ausliesen. Spieleentwickler entwickeln halt immer für den gesamten Markt und nicht für 50% (Achtung Fantasie Zahl) des Marktes.

Weitere Beispiele die mir dazu Einfallen wären z.b. DX10 nur auf Vista, Segas Mega Drive Expansions, die neue PSP, und und und..........

svenw
2009-10-06, 10:44:09
Ich frag mich ehrlich was der PhysX Blödsinn soll? Bei dem Aufbau der GeForce Karten und erst recht der neuen Fermi Architektur sollte Nvidia mit einem offenen Standart besser dastehen als ATI. Wieso dann dieser Mist mit PhysX und dem abschalten von Features?

Das ATI nicht an einem offenen Standart groß mitarbeitet finde ich eher positiv. Dann wird das ein Standart und Nviida und ATI müssen sich um die beste Implemetierung kümmern und der "Standart" wird nicht so hingebogen das er zu irgendeiner Architektur besonders gut paßt. Wenn es prinzipielle Probleme mit der HW-Umsetzung gibt kann man einen Standart anpassen aber er sollte eben nicht von vornherein irgendjemanden benachteiligen.

Limit
2009-10-11, 00:19:12
Ich frag mich ehrlich was der PhysX Blödsinn soll? Bei dem Aufbau der GeForce Karten und erst recht der neuen Fermi Architektur sollte Nvidia mit einem offenen Standart besser dastehen als ATI. Wieso dann dieser Mist mit PhysX und dem abschalten von Features?

Wieso sollten Geforce Karten besser sein für Physikberechnungen? Was auf jeden Fall stimmt ist, dass nVidia sehr viel mehr Werbung dafür macht, aber von den Features her nimmt sich die aktuelle Generation kaum etwas. Vor allem bei DP hat die aktuelle nVidia Generation nicht den Hauch einer Chance. Mit Fermi könnte sich das ändern (wenn auch nicht so gewaltig wie manche anscheinend glauben), aber das man muss man erst abwarten.

Das ATI nicht an einem offenen Standart groß mitarbeitet finde ich eher positiv. Dann wird das ein Standart und Nviida und ATI müssen sich um die beste Implemetierung kümmern und der "Standart" wird nicht so hingebogen das er zu irgendeiner Architektur besonders gut paßt. Wenn es prinzipielle Probleme mit der HW-Umsetzung gibt kann man einen Standart anpassen aber er sollte eben nicht von vornherein irgendjemanden benachteiligen.

Ein Standard, der vom Design her nur auf der Hardware eines Herstellers gescheit läuft hat seinen Namen nicht verdient, auch wenn das manche Firmen anders sehen (MS mit ihren Office Dateiformaten z.B.)

ATI erschaft KEINEN offenen Standard. Nur weil es auf beiden Karten läuft und OpenCL verwendet wird ist es noch lange nicht offen.

D3D läuft auch auf beiden Karten - ist das jetzt auch ein offener Standard?

(Wobei ATI und NV sogar mehr "Mitspracherecht" V bei nem neuen D3D besitzten X als NV es bei Bullet von ATI haben wird = ^ @ "offener Standard")

Öhmm, Bullet ist ein Open Source Projekt. Wenn die Leitung des Projekts halbwegs kompetent ist, wird man sich keine Sorgen machen müssen, dass ein Hersteller grundsätzlich benachteiligt wird. Beide Hersteller können Optimierungen für ihre Hardware einbauen, die je nach vorhandener Hardware benutzt wird.
Das funktioniert im Linux-Kernel gut (da arbeiten Intel, IBM, AMD, ... an den gleichen Subsystemen ohne das es zu größeren Reibereien kommt) und auch bei vielen anderen Open Source Projekten, wie z.B. x264, das Optimierungen für alle gängigen CPUs enthält und je nach vorhandener Hardware die passenden aktiviert.
Sicherlich kann bei "schlechtem" Projektmanagement ein Hersteller benachteiligt werden (z.B. wine, das viele nVidia-only OpenGL Extensions verwendet). Da liegt es dann aber an den übrigen Entwicklern bzw. dem jeweiligen Hersteller Abhilfe zu schaffen, was durch den offenen Quellcode problemlos möglich ist.

Gast
2009-10-12, 12:58:29
Welche Idee? Einen "offenen Standard" zu eigenen PR Zwecken missbrauchen? :freak:

Nicht doch , lieber noch einen eigenen "standard" mit gewalt durchdrücken wollen.

Mal sehen : inzwischen haben wir
DX9,DX10,DX10.1,DX11 -- Open GL
Physx,CUDA - Havok, Open CL, Bullet
Open AL - EAX


anstatt sich NUR einmal irgendwo aktiv zu beteiligen , wird grundsätzlich die
eigene Schiene gefahren( Egal welcher Hersteller oder HArdware)

Weist du was

Ich freue mich - Glänzende Zukunft für ein Spiel 15 verschiedene "Treiber"
und einstellungen.
Jetzt versteh ich wofür Quadcores und Hexacores überhaupt gebraucht werden - Zur Profilverwaltung zwischen den Einstellungen ;-)

Und ihr fragt euch wo der Spielspass bleibt ?
der bleibt hängen im konfigurieren und Einstellen des ganzen "blödsinns".
Wie wärs mit weniger "fummeln" und mehr spielen(arbeiten) ?
und weniger auf irgendwelchen Balkenmarks oder kaum noch sichtbare "artifakte" schauen


Werde mir jetzt mal nur aus Laune meinen "alten" Atari 800XL anwerfen.
einfach mal wieder Klassiker wie "Bl** M**",Rainbow Walker,Spelunker ...
reinziehen , ohne Gedanken an irgendeinen Schwanzmarkbalken oder gar AA/AF zu machen.
Da wurde Grafik eben noch nicht über Spielspass gestellt.
Oder beim ZX81 das böse "*" als Monster , wer kennt das noch?
Trotdem hatte ich in einigen Spielen mehr spass wie in jedem
19X12 16AF 8aa SuperPerfekt 3D irgendwas.