PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - The Way It's Meant To Be Played -- Die Hintergründe zu dem Logo


Seiten : 1 [2] 3

Klingone mit Klampfe
2010-04-06, 14:58:03
Du vergleichst jetzt nicht wirklich eine reine Grafikdemo ohne Interaktion, KI, Streaming & Co. mit einem echten Spiel, oder? ;)

MfG,
Raff

Warum nicht? Technisch machbar ist je offensichtlich, Interaktion hin oder her. Man sollte nur nicht immer so tun, als sei der PhysX-Kram absolutes Hexenwerk, wie gesagt konnte Havok viele dieser Effekte schon im Jahr 2002, z. B. den interaktiven volumetrischen Nebel, der bei Batman als Weltsensation verkauft wird.

Shaft
2010-04-06, 14:58:04
physx ist auch auf _einer_ gpu nicht wiklich spielbar. so viel sollte man hier schon festhalten. spätestens mit AA ist dann ende.


Welches System hast du wenn du schon so ein Blödsinn schreibst?

Nun, verständnishalber, ein Halbwegs aktuelles System sollte man schon sein eigen nennen. Muss nicht teuer und HighEnd sein.


Batman:AA kann ich auf meiner GTX260 nicht mit PhysX und 4xMSAA spielen. Da schalte ich PhysX lieber ab, um konstant meine 60 FPS zu haben. Das macht mir mehr Freude als interaktiver Rauch, den man mit UT2003 schon vor etlichen Jahren haben konnte, ganz ohne PhysX. Und wenn ich die Effekte doch mal sehen will, schalte ich sie kurz an, bewundere sie für fünf Minunten, ärgere mich über die 25-FPS-Stotterei für das Gebotene und schalte sie wieder ab. Nur weil um Scarecrow einige Steine herumschweben, macht mir das Spiel nicht automatisch (noch) mehr Spaß. Dass man solche Effekte auch ohne PhysX darstellen kann, zeigen zahlreiche "Scene-Demos", wie zum Beispiel rove (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481154).



Eine 260 GTX langt, für mehr als flüssigen Spielegenuss samt PhysX. Zudem kamen damals Zeitgleich neue Treiber mit raus, wodurch die Performance Insgesamt verbessert worde.

Raff
2010-04-06, 15:05:06
Warum nicht? Technisch machbar ist je offensichtlich, Interaktion hin oder her. Man sollte nur nicht immer so tun, als sei der PhysX-Kram absolutes Hexenwerk, wie gesagt konnte Havok viele dieser Effekte schon im Jahr 2002, z. B. den interaktiven volumetrischen Nebel, der bei Batman als Weltsensation verkauft wird.

Ich sagte nicht, dass die PhysX-Effekte für einen Prozessor unberechenbar wären, sondern kreidete deinen Vergleich einer Demo mit einem echten Spiel an. :) Sonst kommt noch einer und wirft den Spiele-Entwicklern Unfähigkeit vor, weil sie selbst nach Jahre danach noch nicht das grafische Niveau von GPU-Techdemos (oder Teilen davon) von 2006 erreichen. :D

MfG,
Raff

derguru
2010-04-06, 15:08:33
Welches System hast du wenn du schon so ein Blödsinn schreibst?

Nun, verständnishalber, ein Halbwegs aktuelles System sollte man schon sein eigen nennen. Muss nicht teuer und HighEnd sein.
Eine 260 GTX langt, für mehr als flüssigen Spielegenuss samt PhysX. Zudem kamen damals Zeitgleich neue Treiber mit raus, wodurch die Performance Insgesamt verbessert worde.

ach ist das so,wenn das nicht spielbar ist.:wink:
http://www.abload.de/thumb/darkvoid1su70.gif (http://www.abload.de/image.php?img=darkvoid1su70.gif) http://www.abload.de/thumb/sacred2f5xn.gif (http://www.abload.de/image.php?img=sacred2f5xn.gif) http://www.abload.de/thumb/batmanfujh.gif (http://www.abload.de/image.php?img=batmanfujh.gif)

Iceman346
2010-04-06, 15:17:57
Batman:AA kann ich auf meiner GTX260 nicht mit PhysX und 4xMSAA spielen. Da schalte ich PhysX lieber ab, um konstant meine 60 FPS zu haben. Das macht mir mehr Freude als interaktiver Rauch, den man mit UT2003 schon vor etlichen Jahren haben konnte, ganz ohne PhysX. Und wenn ich die Effekte doch mal sehen will, schalte ich sie kurz an, bewundere sie für fünf Minunten, ärgere mich über die 25-FPS-Stotterei für das Gebotene und schalte sie wieder ab. Nur weil um Scarecrow einige Steine herumschweben, macht mir das Spiel nicht automatisch (noch) mehr Spaß. Dass man solche Effekte auch ohne PhysX darstellen kann, zeigen zahlreiche "Scene-Demos", wie zum Beispiel rove (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481154).

Ich wollte nur die Behauptung, dass man für PhysX eine MGPU Konfiguration bräuchte entkräften.

Das was man bisher an PhysX Effekten in Spielen gesehen hat empfinde ich auch als wenig lohnenswert. Die zerspringenden Scheiben bei Mirror's Edge waren schön aber haben nicht wirklich was fürs Spiel getan, der Nebel bei Batman: AA könnte dagegen durchaus die Atmosphäre verbessern, das es sowas schon in UT2003 gab, daran hab ich garnicht mehr gedacht. Aber ich kann mich noch dran erinnern, dass ich damals total beeindruckt davon war.

Shaft
2010-04-06, 15:24:41
ach ist das so,wenn das nicht spielbar ist.:wink:
http://www.abload.de/thumb/darkvoid1su70.gif (http://www.abload.de/image.php?img=darkvoid1su70.gif) http://www.abload.de/thumb/sacred2f5xn.gif (http://www.abload.de/image.php?img=sacred2f5xn.gif) http://www.abload.de/thumb/batmanfujh.gif (http://www.abload.de/image.php?img=batmanfujh.gif)


Wenn ich von einer Auflösung von 1680*1050 4MAA in der Regel ausgehe, ja.

Nur darf man bei maximler Grafik auch keine hohen FPS erwarten, nichts ist geschenkt.

Sacred kann ich nicht beurteilen, da ich es nicht mein eigen nenne.

Batman AA, DarkVoid (Demo) liefen Wunderbar, sehr weit von Unspielbar. ;)

Mirrors Edges läuft nach Startschwierigkeiten heute Einwandfrei, hier sah man schön was gute Treiber und Updates ausmacht.

derguru
2010-04-06, 16:02:50
die demo von dark void hatte noch gar kein physX integriert.:rolleyes:

Gast
2010-04-06, 18:11:25
Naja, die Tendenz ist da.

Nvidia baut PhysX mit immer mehr Partikeln ein um ihre Hardware zu rechtfertigen.

Gast
2010-04-06, 18:23:51
Ich sagte nicht, dass die PhysX-Effekte für einen Prozessor unberechenbar wären, sondern kreidete deinen Vergleich einer Demo mit einem echten Spiel an. :) Sonst kommt noch einer und wirft den Spiele-Entwicklern Unfähigkeit vor, weil sie selbst nach Jahre danach noch nicht das grafische Niveau von GPU-Techdemos (oder Teilen davon) von 2006 erreichen. :D

MfG,
Raff

Hier hast du dein Spiel mit vernünftiger Physik ohne PhysX: http://www.youtube.com/watch?v=iwT8XM0AUPM

Cryengine > PhysX. ;D Zeige mir ein PhysX-Spiel, das es bedeutend besser kann.

Gast
2010-04-06, 18:29:05
Hier hast du dein Spiel mit vernünftiger Physik ohne PhysX: http://www.youtube.com/watch?v=iwT8XM0AUPM

Cryengine > PhysX. ;D Zeige mir ein PhysX-Spiel, das es bedeutend besser kann.

Dann muss man sich mal vor Augen halten, wie lächerlich daneben sogar der Mafia II-PhysX-Trailer wirkt: http://www.youtube.com/watch?v=vcpEc6kC0HM

Gast
2010-04-06, 18:37:49
Die eingesetzten Physik-Berechnungen sind noch lange nicht auf dem Niveau, dass aktuelle 4- und 6-Kern-CPUs diese Effekte nicht ebenfalls vernünftig berechnen könnten. Und wenn sie zu komplex werden, geht der GPU sowieso die Luft aus, weil sie zwar leistungsfähiger als eine CPU ist, diese Leistung aber auch für den Rest der Grafikdarstellungen nutzen muss.

Die Propaganda in dem Mafia II-Trailer ist nicht zum Aushalten: "You can shoot out tires on vehicles, you can shoot glass bottles off tables, you can smash entire tables, smash down doors." Man muss das Crysis-Video dabei mal nebenbei laufen lassen. :D

tombman
2010-04-06, 18:44:49
Dann muss man sich mal vor Augen halten, wie lächerlich daneben sogar der Mafia II-PhysX-Trailer wirkt: http://www.youtube.com/watch?v=vcpEc6kC0HM
Ist das überhaupt in RealTime oder wieder nur in diesen speziellen Aufnahmetechnik wie in diesen "50000-Fässer-explodieren" Videos?

Gast
2010-04-06, 18:47:59
Ist das überhaupt in RealTime oder wieder nur in diesen speziellen Aufnahmetechnik wie in diesen "50000-Fässer-explodieren" Videos?

Realtime. Sogar verlangsamt.

Gast
2010-04-06, 18:49:41
Kannst du übrigens selber ausprobieren. Mehr als eine Config-Datei muss man nicht umtauschen: http://www.mediafire.com/?mddkakdwjyd

LieberAal
2010-04-06, 18:49:42
AM geilsten am M2 Trailer find ich ja den Mantel, wenn der Typ rennt (so um 1:30). Schaut aus, als ob der aus Gummi wär - Typ ausgebleichter Ostriesennerz, extradick + hinten geschlitzt :D
In dubio pro reo unterstelle ich mal, dass die cloth simulation dafür NICHT benutzt wurde, sondern der code vom Praktikaten während der Mittagspause schnell in VB zusammengeklöppelt wurde.
Bin jetzt selbst etwas unsicher: ist das schon das uncanny valley, oder ist das einfach nur schlecht gemacht? :confused:
Wenn ich Schlammsau wäre, würde, ich einen Poll dazu starten :biggrin:
@Schlammsau: wie schaut's, hast du bock? ;)

Gast
2010-04-06, 18:52:52
AM geilsten am M2 Trailer find ich ja den Mantel, wenn der Typ rennt (so um 1:30). Schaut aus, als ob der aus Gummi wär - Typ ausgebleichter Ostriesennerz, extradick + hinten geschlitzt :D
In dubio pro reo unterstelle ich mal, dass die cloth simulation dafür NICHT benutzt wurde, sondern der code vom Praktikaten während der Mittagspause schnell in VB zusammengeklöppelt wurde.
Bin jetzt selbst etwas unsicher: ist das schon das uncanny valley, oder ist das einfach nur schlecht gemacht? :confused:
Wenn ich Schlammsau wäre, würde, ich einen Poll dazu starten :biggrin:
@Schlammsau: wie schaut's, hast du bock? ;)

Schlimmer ist eigentlich die Konsolengrafik. Schau dir mal die Plastikgesichter an. Wenn ich mir vorstelle, gerade mit Crysis aus 2007 im Gedächtnis, was heute alles möglich wäre auf einem i7 @ 4 GHz + HD 5870 / GTX 4xx ...

LieberAal
2010-04-06, 18:58:57
Das mit den Plastikgesichtern hab ich auch zuerst gedacht - aber ich denke, das sieht nur so aus, in Wirklichkeit kommt das von den Unmengen physikalisch korrekt simulierter schweißflüssigkeit, die über die Gesichter rinnen. Das verleiht denen halt einen realistischen Speckglanz :wink:

Gast
2010-04-06, 19:10:38
Hier hast du dein Spiel mit vernünftiger Physik ohne PhysX: http://www.youtube.com/watch?v=iwT8XM0AUPM

Cryengine > PhysX. ;D Zeige mir ein PhysX-Spiel, das es bedeutend besser kann.

Wozu brauchen wir PhysX? :eek:

LovesuckZ
2010-04-06, 19:22:50
AM geilsten am M2 Trailer find ich ja den Mantel, wenn der Typ rennt (so um 1:30). Schaut aus, als ob der aus Gummi wär - Typ ausgebleichter Ostriesennerz, extradick + hinten geschlitzt :D
In dubio pro reo unterstelle ich mal, dass die cloth simulation dafür NICHT benutzt wurde, sondern der code vom Praktikaten während der Mittagspause schnell in VB zusammengeklöppelt wurde.
Bin jetzt selbst etwas unsicher: ist das schon das uncanny valley, oder ist das einfach nur schlecht gemacht? :confused:
Wenn ich Schlammsau wäre, würde, ich einen Poll dazu starten :biggrin:
@Schlammsau: wie schaut's, hast du bock? ;)

Ich unterstelle dir, dass du es nicht besser kannst. Also zeig du doch mal wie gut deine Fähigkeiten sind einen Mantel so zu designen. :rolleyes:

Gast
2010-04-06, 19:25:49
Die Propaganda in dem Mafia II-Trailer ist nicht zum Aushalten: "You can shoot out tires on vehicles, you can shoot glass bottles off tables, you can smash entire tables, smash down doors." Man muss das Crysis-Video dabei mal nebenbei laufen lassen. :D
Schon aufgefallen, wie Crysis ohne Moddifikation aussieht?
Möglich hin oder her, Fakt ist, das das was dieses Crysisvideo zeigt kein Spiel, nichtmal Crysis direkt bietet.

Toll oder, dieses es könnte könnte. Meld dich doch bitte in xx Jahren wieder, wenn ein Spiel das aus dem Crysisvideo bietet. Crysis zeigt ja das es geht, wenn man will. Scheinbar will keiner, seltsam?
Nein, nennt sich Konsolenports, aber warum fährt Crysis sein Potential nicht aus oder irgendwer anders? Es tut sich nichts, obwohl alles nötige vorhanden ist.

tombman
2010-04-06, 19:29:07
Im Gegenteil, Crytek rudert sogar zurück- ich wette meinen Arsch, daß Crysis 2 weniger Polygone pro Frame zeigen wird als Crysis 1 ;)
Und die Sichtweite würde mich in Crysis 2 auch interessieren.

Verdammte Konsolen :(

Gast
2010-04-06, 19:33:07
Nochmal in Kurzform: Die Jungs haben den Crysismod ins Spiel gebracht um GPU PhysX zu bashen.
So, jetzt zeigt mir mal wo ich den Crysismod in irgendeinem Spiel finde.

"Verdammte Konsolen :( "
-> Gibts bis dahin nicht mal neue Konsolen?

Raff
2010-04-06, 19:34:11
Das Spiel soll noch 2010 kommen, da gibt's keine neuen Konsolen.

MfG,
Raff

Gast
2010-04-06, 19:39:22
Und jetzt kommt Nvidia ins Spiel, die modden das Spiel so um, dass
es nirgends mehr läuft und das wird dann als das echte Spiel verkauft.... toll!

Nvidia zeigt auch nur ständig was möglich ist und dann sieht das oft sogar noch ziemlich bescheiden aus.

Gast
2010-04-06, 19:39:45
So, jetzt zeigt mir mal wo ich den Crysismod in irgendeinem Spiel finde.

Du findest ihn in keinem Spiel, weil größtenteils Konsolen-Fastfood entwickelt und auf den PC portiert wird. Keine Sau reizt aktuelle Hardware aus, wenn am Ende nur 100.000 oder 200.000 Exemplare verkauft werden können und für die Konsole millionenfach bei weniger Aufwand. Crysis ist ein 3 Jahre altes Spiel und immer noch eines der bestausehendsten und hardwarehungrigsten. Warum wohl?

Der PC-Spiele-Markt ist einfach ein Nischenmarkt.

Gast
2010-04-06, 19:46:43
Im Gegenteil, Crytek rudert sogar zurück- ich wette meinen Arsch, daß Crysis 2 weniger Polygone pro Frame zeigen wird als Crysis 1 ;)
Und die Sichtweite würde mich in Crysis 2 auch interessieren.

Verdammte Konsolen :(

Bei Crytek mache ich mir da noch wenig Sorgen. Crysis 2 wird grafisch sicherlich nirgends eine Verschlechterung liefern.

LieberAal
2010-04-06, 19:53:04
Ich unterstelle dir, dass du es nicht besser kannst. Also zeig du doch mal wie gut deine Fähigkeiten sind einen Mantel so zu designen. :rolleyes:
[Aha, mal wieder ein echtes Ls-"Argument". Danke, das kommt gleich in meine Sammlung.]
Stell ruhig unter, da steht es genau richtig. Und stell dir vor, ich hab vor 20 Jahren Games gezockt, deren Grafik könnt ich heut noch nit nachprogrammieren / -artworken / -whatever (wozu auch, aber das nur am Rande) => Dann muss die wohl heute auch noch als state of the art, ja geradezu exzellent erachtet werden :biggrin:
Das erklärt natürlich manches ... wer C64-Blockgrafik zum Maß aller Dinge erhebt, der kann auch von einer GTX480 ehrlich begeistert sein ^^

Gast
2010-04-06, 20:11:00
Du findest ihn in keinem Spiel, weil größtenteils Konsolen-Fastfood entwickelt und auf den PC portiert wird. Keine Sau reizt aktuelle Hardware aus, wenn am Ende nur 100.000 oder 200.000 Exemplare verkauft werden können und für die Konsole millionenfach bei weniger Aufwand. Crysis ist ein 3 Jahre altes Spiel und immer noch eines der bestausehendsten und hardwarehungrigsten. Warum wohl?

Der PC-Spiele-Markt ist einfach ein Nischenmarkt.
Na also.
Physik Spielen ist bisher weit unter den Möglichkeiten und wird es auch bleiben.
Das ist ein generelles Problem.

LovesuckZ
2010-04-06, 20:18:00
[Aha, mal wieder ein echtes Ls-"Argument". Danke, das kommt gleich in meine Sammlung.]
Stell ruhig unter, da steht es genau richtig. Und stell dir vor, ich hab vor 20 Jahren Games gezockt, deren Grafik könnt ich heut noch nit nachprogrammieren / -artworken / -whatever (wozu auch, aber das nur am Rande) => Dann muss die wohl heute auch noch als state of the art, ja geradezu exzellent erachtet werden :biggrin:
Das erklärt natürlich manches ... wer C64-Blockgrafik zum Maß aller Dinge erhebt, der kann auch von einer GTX480 ehrlich begeistert sein ^^

Na, wenn du es nicht kannst, solltest du auch deine Meinung für dich behalten.
Aber es ist der natürliche Lauf der Dinge: Es ist von nVidia, also wird es jemand niedertrollen. ;D

boxleitnerb
2010-04-06, 20:29:47
Kannst du deinen blöden Spam und die haltlosen Unterstellungen endlich mal sein lassen und akzeptieren, dass andere Leute andere Meinungen haben? Bitte danke!
Gläser von Tischen schießen konnte man schon vor Jahren, Reifen zerschießen ebenfalls etc. etc. Das ist nun wirklich nichts Besonderes. Batmans Cape in Batman AA ist auch ohne GPU-PhysX gut animiert worden.

Wenn PhysX wirklich überzeugen soll, sollte man es auch in Szenarien einsetzen, die vorher auf einer CPU so nicht möglich waren (Performancemäßig). Der Rauch in Batman sah schon sehr prima aus. Leider ist kein Vergleich möglich, ob das ein Quadcore hinbekommen hätte. Ich hab das schon mehrmals angezweifelt, aber es ist wohl nur eine Frage der Partikelanzahl. Ein Regler und schon kann man es ein wenig anpassen.
Wie wäre es in Mafia mit ordentlichen Wasserspritzern, wenn ein Auto schnell durch eine große Pfütze fährt. Zerstörbare Objekte anstatt einfach nur mehr Partikel? Ideen gibt es doch nun wirklich genug.
Woran liegt es, dass die PhysX Effekte zum Großteil einfach nix Neues bieten oder langweilig sind? Wenn Nvidia PhysX schon pusht, könnten sie dann nicht wenigstens auch dafür sorgen, dass der Kunde etwas Gescheites zu sehen bekommt? Hat Nvidia eigentlich seit dem Kauf von Ageia neue Bibliotheken geschrieben?

Armaq
2010-04-06, 20:37:43
BF2BC zeigt ja, dass es ohne GPU-Beschleunigung bereits gut möglich ist. Damit sollten die Fragen gen PhysX beantwortet sein.

Coda
2010-04-06, 20:47:27
Gameplay-Physik ist über PhysX sowieso nicht möglich und die Effekt-Physik wird von keinem Spiel auch nur annähernd ausgereizt.

Das wird erst kommen wenn es vom Hersteller auch ernsthaft für alle Kunden implementiert werden kann.

LovesuckZ
2010-04-06, 20:47:58
Kannst du deinen blöden Spam und die haltlosen Unterstellungen endlich mal sein lassen und akzeptieren, dass andere Leute andere Meinungen haben? Bitte danke!

Aber du kannst es ignorieren? Ich habe auch eine Meinung über die jenigen, die nur dauernd gegen PhysX bashen, weil es a) von nVidia ist und b) etwas zeigt, was solange in Vergessenheit geraten ist.


Gläser von Tischen schießen konnte man schon vor Jahren, Reifen zerschießen ebenfalls etc. etc. Das ist nun wirklich nichts Besonderes. Batmans Cape in Batman AA ist auch ohne GPU-PhysX gut animiert worden.

Und? Darf sich Technik nicht weiterentwickeln? Gestern waren es geskriptete Animationen, heute sind sie dynamisch. Was bei Grafik schöner aussieht, ist bei Physik die realistische Bewegung.
Ich höre von dir nichts gegen "schöne Grafik" bei "gleiche Objekte". Du bist wie Nothing: Immer nur gegen PhysX. :rolleyes:


Wenn PhysX wirklich überzeugen soll, sollte man es auch in Szenarien einsetzen, die vorher auf einer CPU so nicht möglich waren (Performancemäßig). Der Rauch in Batman sah schon sehr prima aus. Leider ist kein Vergleich möglich, ob das ein Quadcore hinbekommen hätte. Ich hab das schon mehrmals angezweifelt, aber es ist wohl nur eine Frage der Partikelanzahl.

Natürlich hast du es angezweifelt, da es in deine beschränkte Argumentation passt. Das aber bis heute niemand solch einen dynamischen Nebel in ein Spiel eingebaut hat, solltest du nur diese eine Frage beantworten: Warum?
Lass deinen Hass vollkommen beiseite. Betrachte nichtmal PhysX. Erkläre doch mal, wieso die ganzen verhassten Implementierungen nicht schon längst Standard wären, wenn es alles so einfach über die CPU zu realisieren wäre.


Woran liegt es, dass die PhysX Effekte zum Großteil einfach nix Neues bieten oder langweilig sind? Wenn Nvidia PhysX schon pusht, könnten sie dann nicht wenigstens auch dafür sorgen, dass der Kunde etwas Gescheites zu sehen bekommt? Hat Nvidia eigentlich seit dem Kauf von Ageia neue Bibliotheken geschrieben?

Hass vernebelt die Sinne. Beeindruckende Implementationen - z.B. Cloth in Mirrors Edge, Papier in Batman, Wasser in Cryostasis - werden einfach nieder geredet. Und ja, nVidia hat PhysX ausgebaut: Neue Tools, neue Bibliotheken, bessere (Konsolen-)Unterstützung. Und im Gegensatz zu AMD ist GPU-PhysX ein reales Produkt. Ein gehasstes, weil es von nVidia kommt, aber es ist real.

BF2BC zeigt ja, dass es ohne GPU-Beschleunigung bereits gut möglich ist. Damit sollten die Fragen gen PhysX beantwortet sein.

Statische Physik-Animationen. Da existiert kaum bis keine dynamik im Ablauf. Das ist heute nicht mehr beeindruckend.

y33H@
2010-04-06, 20:49:26
@ Coda

Du meinst Gameplay-Physik via GPU-PhysX? Mit CPU-PhysX ist's freilich möglich [da bei jedem PC verfügbar].

Gast
2010-04-06, 20:52:42
Hass vernebelt die Sinne. Beeindruckende Implementationen - z.B. Cloth in Mirrors Edge, Papier in Batman, Wasser in Cryostasis - werden einfach nieder geredet. Und ja, nVidia hat PhysX ausgebaut: Neue Tools, neue Bibliotheken, bessere (Konsolen-)Unterstützung.

Unfassbar in Ironietags könnte das Posting als authentisch durchgehen.
DU erklimmst immer weitere Höhen- genial.

LieberAal
2010-04-06, 20:58:41
Na, wenn du es nicht kannst, solltest du auch deine Meinung für dich behalten.
Wie geil ... dann können wir ja im Umkehrschluss ganz beruhigt davon ausgehen, dass du ein viel besserer Programmierer bist als das kombinierte ATI-Treiberteam zusammen. Und ein besserer Chipdesigner als alles, was in Markham so kreucht und fleucht, sowieso :D
Unglaublich.

LovesuckZ
2010-04-06, 21:02:23
Wie geil ... dann können wir ja im Umkehrschluss ganz beruhigt davon ausgehen, dass du ein viel besserer Programmierer bist als das kombinierte ATI-Treiberteam zusammen. Und ein besserer Chipdesigner als alles, was in Markham so kreucht und fleucht, sowieso :D
Unglaublich.


Komisch, ich sage garnichts über AMD. Also nicht ablenken: Du behauptest, es hätte ein Praktikant umgesetzt. Zeige daher, dass du überhaupt in der Position bist, solche Aussagen tätigen zu können. Es sollte ein leichtes sein eine bessere, dynamische Umsetzung eines solchen Mantels in einem aktuellen Spiel zu finden.

boxleitnerb
2010-04-06, 21:09:17
Aber du kannst es ignorieren? Ich habe auch eine Meinung über die jenigen, die nur dauernd gegen PhysX bashen, weil es a) von nVidia ist und b) etwas zeigt, was solange in Vergessenheit geraten ist.


Stopp! Mich stört nicht deine Meinung, sondern deine Unterstellungen. Du kannst schlichtweg nicht beweisen, dass eine Kontra-PhysX Meinung mit Nvidia-Resentiments zu tun hat. Du verbindest die beiden und stellst einfach eine wilde Behauptung auf. Das ist nicht ok.
Bashen ist übrigens auch was anderes. Ich bringe Argumente und Beispiele. Ein Basher tut das nicht.


Und? Darf sich Technik nicht weiterentwickeln? Gestern waren es geskriptete Animationen, heute sind sie dynamisch. Was bei Grafik schöner aussieht, ist bei Physik die realistische Bewegung.
Ich höre von dir nichts gegen "schöne Grafik" bei "gleiche Objekte". Du bist wie Nothing: Immer nur gegen PhysX. :rolleyes:


Da musst du erstmal genauer erklären, was du meinst. Ich bin nicht "immer" nur gegen PhysX. Der Rauch ist toll und Fluidanimationen sind toll. Das Meiste, was man in GPU-PhysX Spielen an Effektphysik sieht, ist aber nunmal nichts grundlegend (Edit: optisch) Neues. Schau dir mal GTA4 an. Edit: Da ist auch sehr viel Physik dynamisch möglich und die läuft auf der CPU.


Natürlich hast du es angezweifelt, da es in deine beschränkte Argumentation passt. Das aber bis heute niemand solch einen dynamischen Nebel in ein Spiel eingebaut hat, solltest du nur diese eine Frage beantworten: Warum?
Lass deinen Hass vollkommen beiseite. Betrachte nichtmal PhysX. Erkläre doch mal, wieso die ganzen verhassten Implementierungen nicht schon längst Standard wären, wenn es alles so einfach über die CPU zu realisieren wäre.


Hass? Alter Latz, Spiele und Hardware sind ein Hobby für mich, Hass hat da nix zu suchen. Ein paar Kontraargumente als Hass zu bezeichnen ist...bezeichnend. Hass ist was ganz anderes. Weiter im Text: Ich schrieb, ich habe es ange"zweifelt". Das impliziert, dass ich es nicht genau weiß. Ich kann es auch nicht wissen, weil es z.B. in Batman ohne PhysX (offiziell) keinen Nebel/Rauch gibt. Wie soll man da jetzt eine gescheite Aussage treffen? Ab einer gewissen Partikeldichte wird eine aktuelle CPU sicherlich überfordert sein, das ist logisch. Da muss die GPU ran. Aber der Rauch war ja auch etwas, das ich an der Umsetzung von PhysX GUT finde. Hast du leider überlesen...


Hass vernebelt die Sinne. Beeindruckende Implementationen - z.B. Cloth in Mirrors Edge, Papier in Batman, Wasser in Cryostasis - werden einfach nieder geredet. Und ja, nVidia hat PhysX ausgebaut: Neue Tools, neue Bibliotheken, bessere (Konsolen-)Unterstützung. Und im Gegensatz zu AMD ist GPU-PhysX ein reales Produkt.


Hass, almighty Hass! Kann es sein, dass du dich da schon fast krankhaft reinsteigerst? Hass und Liebe im PC-Bereich...das ist interessant, um es mal diplomatisch auszudrücken.
Cloth in Mirrors Edge sah ganz nett aus, ja. Es ist die Frage: Könnte es auch so aussehen ohne GPU-PhysX? Wie schon geschrieben, die Cloth-Simulation des Capes in Batman ist (imho - verbessere mich, wenn es nicht stimmt) NICHT GPU-beschleunigt und sieht trotzdem sehr gut aus. Könnte man das nicht auf die Planen in Mirrors Edge übertragen?
Wasser: Bioshock 1, die eine Szene recht zu Beginn des Spiels wo ein Tunnel geflutet wird. Tolle Wasseranimation ohne PhysX. Cryostasis hab ich jetzt nicht gespielt, aber was ich auf Videos gesehen habe, sah schon gut aus. Wasser ist ein guter Anwendungsfall von GPU-Physik.
Papier: Ein Mini-Effekt unter vielen möglichen. Dynamisch schön und gut, aber wenn man es mal genauer betrachtet, wirkt er irgendwie "aufgesetzt". Es ist halt nicht sowas optisch Beeindruckendes wie realistisch fließendes Wasser. Papierfetzen fliegen umher, aber einen Stuhl oder ein Objekt auf einem Schreibtisch kann ich nicht bewegen. Das wirkt dann einfach unrund, unvollständig und (auf mich) überflüssig. Wie wenn man sich krampfhaft überlegt hat, was man noch zusätzlich einbauen könnte. Partikelsimulation ist an sich ein eher abgeschlossener und kompletter Bereich. Da sehe ich nicht in einer Szene, dass der Effekt "funktioniert", aber drei Meter weiter wird die Illusion gleich wieder zerstört.

Dass Nvidia PhysX sehr gut vermarktet und unterstützt, darüber brauchen wir nicht zu diskutieren. Ich habe irgendwo in einem anderen Thread auch geschrieben, dass ich es nicht gut finde, dass AMD immer nur das Maul aufreisst, aber in punkto GPU-Physik nicht wirklich was auf die Beine stellt.


Ein gehasstes, weil es von nVidia kommt, aber es ist real.


Wieder diese nicht zu beweisende Behauptung. Für ein paar Extreme mag das vielleicht sogar zutreffen, aber auf die Mehrheit trifft das eher nicht zu.

Abseits von Cryostasis und Batman, in denen dynamischer Rauch und Fluidsimulation vorkommen, wüsste ich jetzt keine Spiele, die sowas optisch Leckeres zeigen. Du? Wieviele GPU-PhysX Spiele gibt es? Ein, zwei Dutzend? Da geht eben noch viel viel mehr.
Ganz konkret würde ich mal von dir gerne wissen, was du zu dem Mafia 2 Trailer sagst. Wie findest du die beworbenen PhysX Features dort? Die Umsetzung, vor allem im Vergleich zu ähnlichen Implentierungen in Titeln OHNE GPU-PhysX bzw in Titeln, in denen diese Effekte NICHT über die GPU beschleunigt wurden.

Edit:
Um es mal ganz deutlich, wirklich ganz ganz ganz deutlich extra nur für dich zu sagen:
GPU-Physik hat in meinen Augen ein sehr großes Potential. Es wäre für alle sicherlich besser, wenn jede Art von Physik über eine Schnittstelle laufen würde, die von beiden IHVs unterstützt wird, aber lassen wir das mal beiseite.
Wenn es rein um Effektphysik geht, gibt es tolle Beispiele in den bisher unterstützten Spielen. Ich will noch mehr davon sehen! Ich will mehr Rauch, mehr Wasser, Feuer etc. Ich will mich nicht mit (vielleicht dynamischen) Krümeln, Papierfetzen und dergleichen rumschlagen, wenn Nvidia gezeigt hat, dass man so viel mehr mit PhysX anstellen kann. Platzende Reifen? Nehmt die Implementation von GTA4 und baut dafür in Mafia 2 realistische Wasserspritzer ein, die Passanten nassmachen, denen die Drecksoße dann die Trenchcoats runterläuft.

Und jetzt frage ich dich, Lovesuckz:

Ist das Hass?
Ist es Hass, wenn man das Beste, was PhysX optisch bisher zu bieten hat, nimmt und mehr davon will - anstatt sich mit Kleinkram zufriedenzugeben?
Nvidia wäre nie da, wo sie heute sind, wenn sie sich nicht stetig verbessern wollen würden. Und genau das verlange ich von PhysX (sowohl von Nvidia als auch von den Entwicklern). Bringt WOW-Momente. Bringt uns Szenen, wo wir sagen MÜSSEN: PhysX ist wirklich geil!

Grestorn
2010-04-06, 21:10:58
boxleitner, Du merkst gar nicht, dass Du Deine Thesen und Verschwörungstheorien hier als Tatsachen hinstellst, weil Dir das in Deine Argumentation passt.

Dabei hast Du keinen Eindruck davon, wo Aufwand in Physikberechnungen liegt und was dynamisch und was statische/gescriptete Physik ist.

Keiner von uns sollte sich herausnehmen, zu behaupten "x könnte man locker mit der CPU rechnen...". Um so etwas zu erkennen, braucht es ein geschultes Auge.

Viele Animationen können statisch berechnet sein und dennoch gut aussehen. Man muss wissen, worauf man achten muss, um das wirklich zu erkennen und zu unterscheiden zu können.

pest
2010-04-06, 21:11:30
Gameplay-Physik ist über PhysX sowieso nicht möglich


weißt du warum?

Grestorn
2010-04-06, 21:13:37
Würde mich auch interessieren. Ich kann dafür keinen technischen Grund erkennen. Nur einen praktischen: Das Gameplay sollte natürlich auf allen Plattformen die selbe sein...

Armaq
2010-04-06, 21:17:34
boxleitner, Du merkst gar nicht, dass Du Deine Thesen und Verschwörungstheorien hier als Tatsachen hinstellst, weil Dir das in Deine Argumentation passt.

Dabei hast Du keinen Eindruck davon, wo Aufwand in Physikberechnungen liegt und was dynamisch und was statische/gescriptete Physik ist.

Keiner von uns sollte sich herausnehmen, zu behaupten "x könnte man locker mit der CPU rechnen...". Um so etwas zu erkennen, braucht es ein geschultes Auge.

Viele Animationen können statisch berechnet sein und dennoch gut aussehen. Man muss wissen, worauf man achten muss, um das wirklich zu erkennen und zu unterscheiden zu können.
Einspruch!
Wenn man sich BFSBC und GTA IV anschaut, dann sieht man doch, dass schon viel möglich ist ohne die GPU zu benutzen. Am Ende zählt für den Verbraucher das Ergebnis, wie es erreicht wurde ist doch nicht so wichtig. Crysis hat soviel berechnet etc.pp. und technisch ist es 3 Jahre nach Release noch StateoftheArt, aber gescriptete Spiele waren besser im Verkauf (CoDMW2). Also kommt es auf die Art der Umsetzung nicht unbedingt an.

y33H@
2010-04-06, 21:19:21
Es ist was anderes, ob ich Ragdoll und ein paar Crack-Maps berechne oder 30k Fluid-Partikel. Bitte beachten.

LieberAal
2010-04-06, 21:39:25
Komisch, ich sage garnichts über AMD.
Nein, nieeeeeeeeee .... LOL
Ein Satz noch zu Mafia 2: Wenn du nicht (ein-)siehst, dass die Mantelani total kacke ausschaut, dann tut es mir leid. Da war ja Lara Crofts Zopf in Tomb Raider 2 schon deutlich besser animiert (bei Teil 1 bin ich mir jetzt nicht ganz sicher, denke aber auch schon ... ?).
... aber jetzt genug des mahnenden Exempels, dass Diskussionen mit Ideologen furchtbar unfruchtbar sind ^^
Viel Spaß noch mit deiner Weltsicht :)

boxleitnerb
2010-04-06, 21:44:53
boxleitner, Du merkst gar nicht, dass Du Deine Thesen und Verschwörungstheorien hier als Tatsachen hinstellst, weil Dir das in Deine Argumentation passt.

Dabei hast Du keinen Eindruck davon, wo Aufwand in Physikberechnungen liegt und was dynamisch und was statische/gescriptete Physik ist.

Keiner von uns sollte sich herausnehmen, zu behaupten "x könnte man locker mit der CPU rechnen...". Um so etwas zu erkennen, braucht es ein geschultes Auge.

Viele Animationen können statisch berechnet sein und dennoch gut aussehen. Man muss wissen, worauf man achten muss, um das wirklich zu erkennen und zu unterscheiden zu können.

Bitte fang du nicht auch noch so an, von dir habe ich noch eine hohe Meinung! Verschwörungstheorien? Wie zum Geier kommst du jetzt auf dieses Wort?

Ich habe mich auf Beispiele bezogen, die in Spielen existieren und mit guten fps laufen. Ich will hier keinen Experten raushängen lassen, der bin ich nicht. Ich beschreibe es lediglich aus meiner persönlichen Sicht als Spieler. Wie Armaq sagte: Es zählt, was der Spieler sieht. Mag ja sein, dass die Papierschnipsel oder die zerschossenen Reifen in Mafia 2 unglaublich rechenaufwändig sind und man es so korrekt nicht auf einer CPU berechnen könnte, keine Ahnung. Aber was beim Spieler ankommt, ist dann eben "unterwältigend" im Vergleich zu dem, was er schon gesehen hat. Vielleicht fallen die Becher in Mafia 2 korrekter um als in einem älteren Spiel, aber wen juckt das denn wirklich? Gibt es nicht bessere Möglichkeiten, einen Aha-Effekt hervorzurufen? Mir gehts hier eher um die Umsetzung im Spiel (auch das Künstlerische), nicht
um die Technik!

Wo habe ich behauptet "x könnte man locker mit der CPU rechnen"?
Wo habe ich irgendwas als Tatsache hingestellt, was nur meiner Meinung entspricht?
Solche Unterstellungen ohne Zitat sind haltlos. Da habe ich von dir eigentlich mehr erwartet.

DrFreaK666
2010-04-06, 22:37:15
Würde mich auch interessieren. Ich kann dafür keinen technischen Grund erkennen. Nur einen praktischen: Das Gameplay sollte natürlich auf allen Plattformen die selbe sein...

Das reicht doch schon.
Das wäre ja ein Punkt gegen GPU-PhysX.
GPU-PhysX ist nur eine optische Spielrei

Userxy
2010-04-06, 23:19:16
GPU-PhysX wird auch nur zur optischen Aufwertung eingesetzt. Ob das erzielte Ergebnis einem gefällt oder nicht bleibt jedem selbst überlassen. Ich sehe dabei keinen Punkt oder Grund gegen GPU-PhysX. Ohne Nvidia hätten PC-Gamer noch nicht mal diese "Aufwertung" gegenüber der Konsolenversion eines Spiels.
Ein offener Standard muss nicht das Optimum bedeuten.

Gast
2010-04-06, 23:31:51
Das reicht doch schon.
Das wäre ja ein Punkt gegen GPU-PhysX.
GPU-PhysX ist nur eine optische Spielrei
Exakt so wie sämtliche andere Effekte.

Merkst was?

Manch einer erfreut sich daran das Crysis hübscher als Far Cry aussieht.

N0Thing
2010-04-06, 23:44:02
http://http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7954270#post7954270!

Prima Beitrag! :)

Aber vermutlich wird dir mit selektiven Zitaten dennoch unterstellt, daß du PhysX schlecht findest und Nvidia sowieso nicht leiden kannst. Ich würde mich freuen, wenn es doch anders kommen würde.

Gast
2010-04-07, 00:25:43
Es ist was anderes, ob ich Ragdoll und ein paar Crack-Maps berechne oder 30k Fluid-Partikel. Bitte beachten.

Was du vergisst, die Berechnung von Partikeln ist eine sehr primitive und wird nur durch die schiere Unmenge an Listeneinträgen für die CPU zu aufwändig.
Eine Funktionalphysik mit Schwerpunkten und komplexen Modelen, berechnet eine GPU nicht besonders effektiv da es sehr vieler rekursive Schritte benötigt vor allem dann wenn sich viele verschiedene Objekte untereinander beeinflussen sollen. Dann sind die vielen aber einfachen Shadereinheiten nicht so effektiv, weil die GPU mehr Takte braucht um einen Physikoperation zu berechnen.

Wie gesagt ein Garry´s Mod wäre per GPU berechnet auch nicht schneller als mit einer guten CPU.

LovesuckZ
2010-04-07, 00:54:21
Stopp! Mich stört nicht deine Meinung, sondern deine Unterstellungen. Du kannst schlichtweg nicht beweisen, dass eine Kontra-PhysX Meinung mit Nvidia-Resentiments zu tun hat. Du verbindest die beiden und stellst einfach eine wilde Behauptung auf. Das ist nicht ok.


Es ist zu offensichtlich, dass PhysX nur deswegen schlecht ist, weil es von nVidia stammt. Und das spreche ich direkt aus. Da kannst du, Nothing oder der haufen von Leuten auf meiner Ignoreliste auch noch in 10 Jahren das Gegenteil behaupten: Wer so wehement gegen etwas basht, der muss Gründe dafür haben, die weit über ein "neutrales" Maß hinausgehen.


Da musst du erstmal genauer erklären, was du meinst. Ich bin nicht "immer" nur gegen PhysX. Der Rauch ist toll und Fluidanimationen sind toll. Das Meiste, was man in GPU-PhysX Spielen an Effektphysik sieht, ist aber nunmal nichts grundlegend (Edit: optisch) Neues. Schau dir mal GTA4 an. Edit: Da ist auch sehr viel Physik dynamisch möglich und die läuft auf der CPU.

Ich höre dich nicht über grafische Weiterentwicklung meckern. Das führt die ganze Diskussion ins bizarre, da die grafische Weiterentwicklung ebenfalls "nichts grundlegendes Neues" bot. Ob mein Tisch aus einer braunen Textur besteht oder zich Texturschichten betehtt, spielt am Ende keine Rolle. Es ist und bleibt ein Tisch. Komischerweise machst du einen Unterschied jedoch beim "Zerbrechen" des Tisches.


Hass? Alter Latz, Spiele und Hardware sind ein Hobby für mich, Hass hat da nix zu suchen. Ein paar Kontraargumente als Hass zu bezeichnen ist...bezeichnend. Hass ist was ganz anderes. Weiter im Text: Ich schrieb, ich habe es ange"zweifelt". Das impliziert, dass ich es nicht genau weiß. Ich kann es auch nicht wissen, weil es z.B. in Batman ohne PhysX (offiziell) keinen Nebel/Rauch gibt. Wie soll man da jetzt eine gescheite Aussage treffen? Ab einer gewissen Partikeldichte wird eine aktuelle CPU sicherlich überfordert sein, das ist logisch. Da muss die GPU ran. Aber der Rauch war ja auch etwas, das ich an der Umsetzung von PhysX GUT finde. Hast du leider überlesen...

Da du es anzweifelst, müsstest du in der Lage sein meine gestellte Frage direkt zu beantworten. Denn Zweifel bedeuten, dass man Gründe hat, die einem diese Zweifel entwickeln lassen.


Hass, almighty Hass! Kann es sein, dass du dich da schon fast krankhaft reinsteigerst? Hass und Liebe im PC-Bereich...das ist interessant, um es mal diplomatisch auszudrücken.

Nein. Ich sehe nur Leute, die sich so in eine Kontra-GPU-PhysX Haltung reinsteigern, dass sie nicht mehr erkennen, was sie erzahlen. Am Ende wissen viele nichtmal mehr, was PhysX ist.


Cloth in Mirrors Edge sah ganz nett aus, ja. Es ist die Frage: Könnte es auch so aussehen ohne GPU-PhysX? Wie schon geschrieben, die Cloth-Simulation des Capes in Batman ist (imho - verbessere mich, wenn es nicht stimmt) NICHT GPU-beschleunigt und sieht trotzdem sehr gut aus. Könnte man das nicht auf die Planen in Mirrors Edge übertragen?

Sag du es mir. Wieso musste erst nVidia kommen, um zu zeigen, was mit Effektphysik möglich ist? Die Cloth-Simulation in Mirrors Edge ist immer noch beeindruckend und unerreicht.


Wasser: Bioshock 1, die eine Szene recht zu Beginn des Spiels wo ein Tunnel geflutet wird. Tolle Wasseranimation ohne PhysX.

Fluid sollte nicht als (statische) Animation eingesetzt werden. Sondern dann, wenn es dynamisch mit der Umgebung interagieren soll.


Papier: Ein Mini-Effekt unter vielen möglichen. Dynamisch schön und gut, aber wenn man es mal genauer betrachtet, wirkt er irgendwie "aufgesetzt". Es ist halt nicht sowas optisch Beeindruckendes wie realistisch fließendes Wasser. Papierfetzen fliegen umher, aber einen Stuhl oder ein Objekt auf einem Schreibtisch kann ich nicht bewegen. Das wirkt dann einfach unrund, unvollständig und (auf mich) überflüssig. Wie wenn man sich krampfhaft überlegt hat, was man noch zusätzlich einbauen könnte. Partikelsimulation ist an sich ein eher abgeschlossener und kompletter Bereich. Da sehe ich nicht in einer Szene, dass der Effekt "funktioniert", aber drei Meter weiter wird die Illusion gleich wieder zerstört.

Du kannst die Stühle auch ohne das Papier als Objekt nicht bewegen. Batman ist ohne GPU-PhysX ein sehr statisches Spiel. Aber durch den Nebel, durch das Papier, die zerstörbare Umgebung wird es dynamischer. Und das Papier fand ich noch beeindruckender als den Nebel.


Ganz konkret würde ich mal von dir gerne wissen, was du zu dem Mafia 2 Trailer sagst. Wie findest du die beworbenen PhysX Features dort? Die Umsetzung, vor allem im Vergleich zu ähnlichen Implentierungen in Titeln OHNE GPU-PhysX bzw in Titeln, in denen diese Effekte NICHT über die GPU beschleunigt wurden.

Der Trailer ist mir zu schnell geschnitten. Jedoch finde ich den Mantel ansprechend von seinen Bewegungen.


Ist es Hass, wenn man das Beste, was PhysX optisch bisher zu bieten hat, nimmt und mehr davon will - anstatt sich mit Kleinkram zufriedenzugeben?
Nvidia wäre nie da, wo sie heute sind, wenn sie sich nicht stetig verbessern wollen würden. Und genau das verlange ich von PhysX (sowohl von Nvidia als auch von den Entwicklern). Bringt WOW-Momente. Bringt uns Szenen, wo wir sagen MÜSSEN: PhysX ist wirklich geil!

Wenn mehr WOW-Momente haben will, sollte man auch dafür offen sein. :)

uweskw
2010-04-07, 01:18:14
Prima Beitrag! :)

Aber vermutlich wird dir mit selektiven Zitaten dennoch unterstellt, daß du PhysX schlecht findest und Nvidia sowieso nicht leiden kannst. Ich würde mich freuen, wenn es doch anders kommen würde.

noch nicht bemerkt dass jeder der NV nicht zu 100% unterstützt automatisch ATI Fanboy ist? Wer unbequeme Fragen stellt sowieso.


BTT.
Gibt es denn schon Infos ob NV GTX 480/470 in marktüblichen Stückzahlen erscheinen wird? Oder stimmt es dass wg. zu geringer Chip-Ausbeute (und damit zu hohen Kosten) bei TSMC keine weitere Bestellung einging/bzw storniert wurde?
Soll ja nur noch die Menge verarbeitet werden die NV abnehmen muss.

greetz
U.S.

N0Thing
2010-04-07, 01:49:27
noch nicht bemerkt dass jeder der NV nicht zu 100% unterstützt automatisch ATI Fanboy ist? Wer unbequeme Fragen stellt sowieso.

Dieses Verhalten gibt es leider auf beiden Seiten, ohne Gäste und mit einer etwas strengeren Hand seitens der Moderatoren könnte ich mir vorstellen, daß die einzelnen Threads deutlich gesitteter ablaufen würden.
Ich habe immer wieder die Hoffnung, daß man trotz unterschiedlicher Ansichten und Meinungen miteinander diskutieren kann.

Aber du hast schon recht, leider wird man gerne nach dem Motto " wer nicht für mich ist, der ist gegen mich" pauschal als Fanboy oder sonst etwas bezeichnet.
Obwohl meine letzte (und erste) ATI-Karte nur für ca. 6 Monate in meinem PC war, ich prozentual gesehen vor allem Karten von Nvidia hatte und so ziemlich jeden halbwegs guten Titel mit GPU-PhysX auch selber durchgespielt habe, bin ich lauf LZ ein Nvidia-Hasser und ATI-Fanboy.
Im Prinzip würde es Spaß machen mit LZ zu diskutieren, er hat Ahnung von der Materie, wird aber leider schnell persönlich und beleidigend, wenn man nicht seiner Meinung ist. Könnte daran liegen, daß er selber so oft kontra bekommt.

DrFreaK666
2010-04-07, 01:54:38
GPU-PhysX wird auch nur zur optischen Aufwertung eingesetzt. Ob das erzielte Ergebnis einem gefällt oder nicht bleibt jedem selbst überlassen. Ich sehe dabei keinen Punkt oder Grund gegen GPU-PhysX. Ohne Nvidia hätten PC-Gamer noch nicht mal diese "Aufwertung" gegenüber der Konsolenversion eines Spiels.
Ein offener Standard muss nicht das Optimum bedeuten.

Was ist denn das für ein Quatsch?
Wäre es ein offener Standard, dann würde es öfter genutzt werden

AwesomeSauce
2010-04-07, 02:05:46
So oft wie OpenGL?:P

Grestorn
2010-04-07, 06:36:40
Bitte fang du nicht auch noch so an, von dir habe ich noch eine hohe Meinung! Verschwörungstheorien? Wie zum Geier kommst du jetzt auf dieses Wort?

Ich habe mich auf Beispiele bezogen, die in Spielen existieren und mit guten fps laufen. Ich will hier keinen Experten raushängen lassen, der bin ich nicht. Ich beschreibe es lediglich aus meiner persönlichen Sicht als Spieler. Wie Armaq sagte: Es zählt, was der Spieler sieht. Mag ja sein, dass die Papierschnipsel oder die zerschossenen Reifen in Mafia 2 unglaublich rechenaufwändig sind und man es so korrekt nicht auf einer CPU berechnen könnte, keine Ahnung. Aber was beim Spieler ankommt, ist dann eben "unterwältigend" im Vergleich zu dem, was er schon gesehen hat. Vielleicht fallen die Becher in Mafia 2 korrekter um als in einem älteren Spiel, aber wen juckt das denn wirklich? Gibt es nicht bessere Möglichkeiten, einen Aha-Effekt hervorzurufen? Mir gehts hier eher um die Umsetzung im Spiel (auch das Künstlerische), nicht
um die Technik!

Wo habe ich behauptet "x könnte man locker mit der CPU rechnen"?
Wo habe ich irgendwas als Tatsache hingestellt, was nur meiner Meinung entspricht?
Solche Unterstellungen ohne Zitat sind haltlos. Da habe ich von dir eigentlich mehr erwartet.

Du argumentierst einfach einseitig, das ist Dein Problem. PhysX darf nicht gut sein, also ist es das auch nicht.

Es ist nun mal das Problem moderner Grafik, dass der Laie (und dazu zähle ich mich im allgemeinen auch) sich sehr schwer tut, den tatsächlich Rechenaufwand zu erkennen, wenn getrickste Lösungen oft ganz ähnlich aussehen.

Bei Physik ist es natürlich erst mal deutlich beeindruckender, wenn a la HL2 sich große Objekte abhängig voneinander bewegen und aufeinander auswirken. Dass es ein ungleich höherer Aufwand ist, wenn dies mit einer enorm großer Anzahl kleiner Objekte passiert obwohl das erst mal kein bisschen interessanter aussieht (oft im Gegenteil) wird oft übersehen. Oder auch, dass der Laie in der Tat oft ein Problem hat, geschickt vorberechnete Physik-Animationen von dynamisch berechneten zu unterscheiden.

Natürlich kann man das als Argument dafür anführen, dass man GPU-Physik nicht braucht. Aber das ist kurzsichtig. Wir sind in einem Zwischenstadium der Entwicklung, je stärker die Rechenleistung ist, desto dynamischer und vollständiger kann die Gesamtumgebung simuliert werden und damit realistisch dargestellt werden, ohne dass der Programmierer jeden Pfurz vorher vorsehen und scripten muss. Natürlich stellt das auch ganz neue Ansprüche an das Spieldesign, aber eventuell reden wir dann ja auch gar nicht mehr von Spielen sondern von Welt-Simulationen.

Außerdem ist es nichts neues, dass neue Rendertechniken erst mal abgelehnt werden, von wegen "Pah, zu aufgesetzt, geht auch ohne, übertrieben, man sieht ja keinen Unterschied" usw., man siehe nur HDR oder Ambient Occlusion.

Ich persönlich finde ganz grundsätzlich, dass man neue technische Entwicklungen erst mal immer positiv auffassen sollte und nicht gleich skeptisch. Damit blockiert man ja nur die Entwicklung. Es ist klar, dass eine neue Entwicklung nicht optimal sein kann. Und dabei ist es dann ganz egal, von wem diese Technologie kommt, das hat nichts mit ATI oder nVidia zu tun. Aber leider tritt die freie Sicht auf die technische Entwicklung viel zu oft hinter irgendwelcher kurzsichtiger Markenliebe zurück.

Menace
2010-04-07, 08:51:30
Ich persönlich finde ganz grundsätzlich, dass man neue technische Entwicklungen erst mal immer positiv auffassen sollte und nicht gleich skeptisch. Damit blockiert man ja nur die Entwicklung. Es ist klar, dass eine neue Entwicklung nicht optimal sein kann. Und dabei ist es dann ganz egal, von wem diese Technologie kommt, das hat nichts mit ATI oder nVidia zu tun. Aber leider tritt die freie Sicht auf die technische Entwicklung viel zu oft hinter irgendwelcher kurzsichtiger Markenliebe zurück.

Natürlich wäre die Akzeptanz von PhysX größer, wenn auch Ati-Kunden das nützen könnten. So blockiert man aber die Entwicklung und zwar seitens nvidia. Neulich war hier ein tanzender Teppich, welches als PhysX-Demo herhalten musste. Das Problem ist weniger die Technik an sich, sondern die Umsetzung. Und jetzt erkläre mir mal, warum es so häufig an der Umsetzung so hapert? Meine Theorie ist, dass es den Spieleentwicklern selber nicht so wichtig ist, die es aber machen, damit ein Kunde zufrieden ist. Wie gesagt, nur meine Theorie.

BTW: Hatte Deus Ex nicht auch eine Physik-Engine?

Grestorn
2010-04-07, 08:58:37
Menace, das ist die alte Diskussion. Eine Firma investiert, natürlich primär um Marktanteile zu steigern, aber das Mittel zum Zweck ist eine technische Weiterentwicklung. Das ist der Motor, wieso die Technik überhaupt weiterentwickelt wird!

Ich finde es merkwürdig, dass man dies den Firmen vorhält. Und ich finde es noch merkwürdiger, dass man die Firmen ankreidet, dass sie ihre Investitionen nicht an die Konkurenz verschenken wollen. Würde man das vorschreiben, wäre auch sofort der Motor tot, denn der Zweck (Marktanteile zu erhöhen) wäre dann damit nicht mehr zu erzielen.

Das sind ganz grundlegende Mechanismen und es bringt gar nichts, diese in Frage zu stellen!

Mit der 3D Technik war es Anfangs ganz genauso. Wenn sich eine Technik, egal wie proprietär sie ist, einmal durchgesetzt hat, wird sie immer auch auf eine allgemeine, herstellerunabhängige Basis angeboten, meist durch eine offene Schnittstelle, die von allen implementiert werden muss (a la DirectX). Oder in dem die proprietäre Technik lizenziert wird.

Sich gegen dieses grundsätzliche Prinzip zu wehren und es den Firmen vorzuhalten heißt nichts anderes, als die Stagnation der Entwicklung in Kauf zu nehmen.


P.S.: Physik ist ganz ganz alt. Sogar das gute alte Ultima Underworld hatte schon Physik. Man konnte Gegenstände werfen und sie sind sogar an schrägen Böden hinuntergerutscht. Der Punkt ist nur, wie aufwendig und realistisch die Physik berechnet wird. Und da sind aktuelle CPUs ganz schnell am Ende, weil Physik hauptsächlich Vektorrechnungen in enormer Zahl sind. Und dazu braucht man eben entsprechend spezialisierte Hardware, genau wie für 3D Berechnungen. GPUs eignen sich für beide Zwecke ganz hervorragend, CPUs eben nicht wirklich.

boxleitnerb
2010-04-07, 09:12:04
Es ist zu offensichtlich, dass PhysX nur deswegen schlecht ist, weil es von nVidia stammt. Und das spreche ich direkt aus. Da kannst du, Nothing oder der haufen von Leuten auf meiner Ignoreliste auch noch in 10 Jahren das Gegenteil behaupten: Wer so wehement gegen etwas basht, der muss Gründe dafür haben, die weit über ein "neutrales" Maß hinausgehen.


Kein Beweis, nur deine haltlosen Behauptungen -> Keine Antwort von mir.



Ich höre dich nicht über grafische Weiterentwicklung meckern. Das führt die ganze Diskussion ins bizarre, da die grafische Weiterentwicklung ebenfalls "nichts grundlegendes Neues" bot. Ob mein Tisch aus einer braunen Textur besteht oder zich Texturschichten betehtt, spielt am Ende keine Rolle. Es ist und bleibt ein Tisch. Komischerweise machst du einen Unterschied jedoch beim "Zerbrechen" des Tisches.


In dem Punkt hast du sicher Recht. Vielleicht liegt es für mich daran, dass PhysX so stark beworben und gefördert wird. Ich persönlich erwarte dann halt ein bisschen mehr. Dynamische Zerstörungsanimationen würde ich in PhysX liebend gerne sehen. Ungefähr so, wie das, was bei Star Wars - The Force Unleashed damals in einem Techvideo gezeigt wurde. Aber hey, vielleicht liegt es nur an den Entwicklern. Damit du zufrieden bist: Die Entwickler sind Schuld! Das ändert trotzdem nichts daran, dass das, was am Ende für den Kunden bei rauskommt, für MICH zu wenig ist - wobei es auch Ausnahmen gibt, den erwähnten Nebel/Rauch z.B.



Da du es anzweifelst, müsstest du in der Lage sein meine gestellte Frage direkt zu beantworten. Denn Zweifel bedeuten, dass man Gründe hat, die einem diese Zweifel entwickeln lassen.


Ich habe angezweifelt, dass der Nebel auf CPUs gescheit zu berechnen ist, weil ich mir gut vorstellen kann, dass diese mit zig Zehntausend Teilchen überfordert ist. Grafikkarten sind für solche Berechnungen prädestiniert, weil sie eben hochgradig parallel sind.
Antwort zu deiner Frage:
Weil es in der Qualität ohne Physikberechnung durch die Grafikkarte nicht möglich war bisher. Und weil erst seit ein paar Jahren mit PhysX die Schnittstelle existiert, genau das zu berechnen.

Jedoch gilt das nicht für alle Effekte. Es gibt sicherlich solche, die mehr und solche, die weniger rechenaufwändig sind. Sicherlich ist es auch möglich, Effekte bis zu einem gewissen Grad hin zu skalieren, was ja inzwischen bei einigen PhysX-Spielen möglich ist.



Nein. Ich sehe nur Leute, die sich so in eine Kontra-GPU-PhysX Haltung reinsteigern, dass sie nicht mehr erkennen, was sie erzahlen. Am Ende wissen viele nichtmal mehr, was PhysX ist.


Wie du meinst. Ich sehe meine Meinung nicht als Kontra-GPU-PhysX an, ich versuche sachlich zu kritisieren. Wenn das Hass sein soll, weiß ich auch nicht weiter. Und zu Grestorns späterem Kommentar: Einseitig...naja. Jeder ist irgendwie biased. Dass einem dann gleich Hass unterstellt wird ist schon extrem frech!



Sag du es mir. Wieso musste erst nVidia kommen, um zu zeigen, was mit Effektphysik möglich ist? Die Cloth-Simulation in Mirrors Edge ist immer noch beeindruckend und unerreicht.


Du, ich bin Laie, ich weiß es nicht. Du scheinst dich hier besser auszukennen, deshalb frage ich dich ja! Ist das Cape in Batman nun von der GPU berechnet oder nicht? Anhand der Videos, die ich gesehen habe, würde ich sagen, nein. Aber vielleicht bringen Mafia 2 und zukünftige PhysX-Titel ja wieder ähnliches wie in Mirrors Edge. Erwarte aber nicht, dass ich von einem Trenchcoat alleine begeistert bin.



Fluid sollte nicht als (statische) Animation eingesetzt werden. Sondern dann, wenn es dynamisch mit der Umgebung interagieren soll.


Stimmt. Ich hab mir nochmal Videos zu dem Wasser von Cryostasis und Bioshock angesehen. In Cryostasis sieht man schon sehr schön, dass das Wasser sich aus vielen Partikeln zusammensetzt. Sieht schon besser aus.



Du kannst die Stühle auch ohne das Papier als Objekt nicht bewegen. Batman ist ohne GPU-PhysX ein sehr statisches Spiel. Aber durch den Nebel, durch das Papier, die zerstörbare Umgebung wird es dynamischer. Und das Papier fand ich noch beeindruckender als den Nebel.


Dann haben wir da halt unterschiedliche Meinungen. Mir ist schon klar, dass man am Anfang der Entwicklung nicht gleich alles haben kann und erwarten kann, dass sich JEDES Objekt in der Spielwelt physikalisch korrekt verhält. Das Papier hat mir persönlich (grad im Vergleich zum Nebel) eben nicht besonders gefallen - von der künstlerischen Seite her, zu aufgesetzt. Laub in den Aussenbereichen hingegen ist prima, weil es "passt", z.B. im Intro sieht es klasse aus.
Also auch hier: Entwickler, nutzt die Möglichkeiten besser!



Der Trailer ist mir zu schnell geschnitten. Jedoch finde ich den Mantel ansprechend von seinen Bewegungen.


Gut, es liegt wohl im Ermessen des Entwicklers, wie und für was er Cloth verwendet. Vielleicht ist die Cloth-Simulation in Mafia 2 ja ungefähr so ansprechend wie in Mirrors Edge, evtl. hat man im Trailer noch nicht alles gesehen. Ich vergleiche halt nur mit dem, was ich kenne (Batman).



Wenn mehr WOW-Momente haben will, sollte man auch dafür offen sein. :)

Dazu hab ich schon was geschrieben, ich werde mich nicht wiederholen.

boxleitnerb
2010-04-07, 09:22:26
Du argumentierst einfach einseitig, das ist Dein Problem. PhysX darf nicht gut sein, also ist es das auch nicht.


Quatsch mit Soße! PhysX ist gut, die Umsetzung ist es oft nicht (für mich).

Die grundlegenden Möglichkeiten von PhysX kritisiere ich gar nicht. Ich kritisiere, wie sie eingesetzt werden (und wie es dann beworben wird in Vergleichsvideos). Meine Kritik bezieht sich also nicht auf die Technik, sondern auf den künstlerischen Aspekt.
Das hab ich aber in meiner vorigen Antwort schon geschrieben. Danke, dass du das überlesen hast.
Vielleicht können manche diese beiden Aspekte von Kritik an PhysX (Technik und Kunst) nicht trennen, das ist dann aber nicht mein Problem.

Übrigens weiß ich schon, dass Nvidia mit der künstlerischen Umsetzung der Effekte nix am Hut hat. Ich als Spieler und Grafikkartenkäufer kann nur an dem interessiert sein, was hinten rauskommt. Und das überzeugt mich persönlich halt nicht immer. Aber hey, das nennt man wohl Meinungsfreiheit.



Es ist nun mal das Problem moderner Grafik, dass der Laie (und dazu zähle ich mich im allgemeinen auch) sich sehr schwer tut, den tatsächlich Rechenaufwand zu erkennen, wenn getrickste Lösungen oft ganz ähnlich aussehen.

Bei Physik ist es natürlich erst mal deutlich beeindruckender, wenn a la HL2 sich große Objekte abhängig voneinander bewegen und aufeinander auswirken. Dass es ein ungleich höherer Aufwand ist, wenn dies mit einer enorm großer Anzahl kleiner Objekte passiert obwohl das erst mal kein bisschen interessanter aussieht (oft im Gegenteil) wird oft übersehen. Oder auch, dass der Laie in der Tat oft ein Problem hat, geschickt vorberechnete Physik-Animationen von dynamisch berechneten zu unterscheiden.

Natürlich kann man das als Argument dafür anführen, dass man GPU-Physik nicht braucht. Aber das ist kurzsichtig. Wir sind in einem Zwischenstadium der Entwicklung, je stärker die Rechenleistung ist, desto dynamischer und vollständiger kann die Gesamtumgebung simuliert werden und damit realistisch dargestellt werden, ohne dass der Programmierer jeden Pfurz vorher vorsehen und scripten muss. Natürlich stellt das auch ganz neue Ansprüche an das Spieldesign, aber eventuell reden wir dann ja auch gar nicht mehr von Spielen sondern von Welt-Simulationen.

Außerdem ist es nichts neues, dass neue Rendertechniken erst mal abgelehnt werden, von wegen "Pah, zu aufgesetzt, geht auch ohne, übertrieben, man sieht ja keinen Unterschied" usw., man siehe nur HDR oder Ambient Occlusion.

Ich persönlich finde ganz grundsätzlich, dass man neue technische Entwicklungen erst mal immer positiv auffassen sollte und nicht gleich skeptisch. Damit blockiert man ja nur die Entwicklung. Es ist klar, dass eine neue Entwicklung nicht optimal sein kann. Und dabei ist es dann ganz egal, von wem diese Technologie kommt, das hat nichts mit ATI oder nVidia zu tun. Aber leider tritt die freie Sicht auf die technische Entwicklung viel zu oft hinter irgendwelcher kurzsichtiger Markenliebe zurück.

Ack. Ich hoffe dann mal auf zukünftige Titel und noch schnellere Grafikkarten. Vielleicht bin ich einfach zu anspruchsvoll.

Grestorn
2010-04-07, 09:35:05
Das hab ich aber in meiner vorigen Antwort schon geschrieben. Danke, dass du das überlesen hast.

Sorry, dann habe ich Dein Posting wohl in der Tat in den falschen Hals bekommen. Kudos.

_DrillSarge]I[
2010-04-07, 10:37:33
nV könnte den kritikern ganz leicht den wind, bezüglich physx, aus den segeln nehmen, wenn sie sich mehr auf bessere umsetzung statt auf ausgrenzung/künstlicher beschneidung der konkurrenz konzentrieren würden.

Armaq
2010-04-07, 10:50:59
Interessant wäre mal eine Demo, die in einem spielähnlichen Zusammenhang die Macht von PhysX zeigt. So eine Art UT3 Level, aber so konstruiert, dass man zB zwei Gebäude hat, die mit der richtigen Feuerkraft einstürzen können und man dann im Schutt weitermacht. Bisher haben Spiele ohne PhysX teilweise mehr Möglichkeiten aufgezeigt. Ein Traum wäre ein GTAV exklusiv für den PC mit "echter" Physik vom Start weg. Zusätzlich sollte Nvidia die Treiberbeschränkung abschaffen, dann könnte man sich auch ne nette Karte als Beschleuniger holen. Das wäre auch ein Nischenprodukt, welches ATI gar nicht anbietet.

Gast
2010-04-07, 11:40:34
Ich glaube, einige Leute hier haben einfach noch nicht verstanden, was der Unterschied zwischen PhysX und geskripteter Physik ist. Geskriptete Physik sieht klasse aus und ist einfacher zu berechnen (da ja gar nichts berechnet wird). Es ist nur sehr aufwendig für die Programmierer und daher wird man in einem Spiel immer wieder die selben Skripts sehen, immer die selben Sollbruchstellen, egal von wo das Haus gesprengt wurde, es fällt immer auf die gleiche Weise in sich zusammen. Nach dem fünten mal fässt man sich hier nur noch an den Kopf, egal wie gut es auch beim ersten mal aussah.
PhysX ist auch keine vollwertige Physik Engine, viel mehr eine Ansammlung an echten Physikeffekten, die bei Spielen die Grafik aufpeppen können. Allerdings ist es immerhin echte Physik, d.h. es spielt auch eine Rolle wo die Kugel in den Stoff einschlägt. Es sieht eben nicht immer gleich aus.

Grestorn
2010-04-07, 11:46:35
I[;7955070']nV könnte den kritikern ganz leicht den wind, bezüglich physx, aus den segeln nehmen, wenn sie sich mehr auf bessere umsetzung statt auf ausgrenzung/künstlicher beschneidung der konkurrenz konzentrieren würden.

Abgesehen von der Beschränkung mit den zwei Karten (nVidia für GPU, ATI für Anzeige), die ich ehrlich gesagt auch nicht so recht nachvollziehen kann, sehe ich keine künstliche Beschneidung der Konkurenz.

Exxtreme
2010-04-07, 11:48:30
Abgesehen von der Beschränkung mit den zwei Karten (nVidia für GPU, ATI für Anzeige), die ich ehrlich gesagt auch nicht so recht nachvollziehen kann, sehe ich keine künstliche Beschneidung der Konkurenz.
Nachvollziehbar ist das schon. Für Physx reicht wohl die billigste GPU von Nvidia und die hält auch noch mehrere Generationen an Grafikkarten.

Klingone mit Klampfe
2010-04-07, 11:50:51
Interessant wäre mal eine Demo, die in einem spielähnlichen Zusammenhang die Macht von PhysX zeigt. So eine Art UT3 Level, aber so konstruiert, dass man zB zwei Gebäude hat, die mit der richtigen Feuerkraft einstürzen können und man dann im Schutt weitermacht.


Das bietet Dir jede 08/15-Physik-Map für Crysis, z. B. "Physis 3". Klar, das Zeug ist teilweise gescriptet, aber da man davon in der Praxis nicht viel merkt, sehe ich keinen relevanten Unterschied zu PhysX.

AYAlf_2
2010-04-07, 11:52:38
einige glauben wirklich nur weil physx von nvidia stammt .. deshalb ist es scheisse? physx ist NICHT von nvidia sonder von ageia. nvidia hat lediglich diese firma aufgekauft und tut jetzt so, als ob das ganze auf ihrem mist gewachsen waere. es ist NICHT so! ageia physx war vorher schon scheisse .. warum sollte sich was aendern, wenn jetzt eine andere firma damit arbeitet?

egal welcher graka hersteller einen ganz eigenen weg zu pushen versucht ist mit daran schuld, dass immer mehr leute zu den konsolen uebersiedeln PUNKT.

es ist ja nicht so, dass nvidia nicht 10000 moeglichkeiten haette in einem bestimmten rahmen kreativ zu werden. z.b. 3d brillen... sagt kein schwein was dagegen. ati mit ihrem eyefinity .. total i.o.

nvidia sticht sich wie immer in eigene fleisch .. nur merken sie das nicht ein mal. von wegen sie machen etwas fuer die kunden .. nueschts machen sie fuer die kunden .. sie spalten den spielemarkt auf. ist das etwas, was dem kunden gut tut? ich glaube nicht nvidia-fanboys.

ich koennt ja nvidia fuer alles moegliche lieben... aber physx ist die groesste kundenverarsche ever. und damit meine ich noch schlimmer, als das cheaten bei benchmarks, noch schlimmer als der 58xx chip, noch schlimmer als der 4xx chip, noch viel viel schlimmer!

physx kann nicht mehr wie jede andere reine cpu physik engine auf dem pc. physx setzt nur nvidia grafikkarten vorraus, das ist alles. (physx nutz uebrigens haeufig auch/nur die cpu als hilfe).

y33H@
2010-04-07, 12:18:37
Warum bitte war PhysX schon vorher schei0e?

Raff
2010-04-07, 12:23:05
Weil man für 2 Spiele und 3 Techdemos mit je 5 Physik-Effekten einen dreistelligen Euro-Betrag ausgeben musste. Jetzt kriegt man das Zeug wenigstens beim Kauf einer GeForce "geschenkt".

AYAlf_2, ich bin sicher, dass die Attitüde gegenüber GPU-PhysX deutlich positiver wäre, wenn AMD/Ati die Firma gekauft hätte. Vielleicht nicht durchweg positiv, weil "proprietär = böse", aber dennoch besser als die Kombination "böses Nvidia plus böses Proprietariat".

MfG,
Raff

Shaft
2010-04-07, 12:29:12
Warum bitte war PhysX schon vorher schei0e?


Der Frage schließe ich mich gerne an.

Einzig vom Konzept her mit zusätzlich benötigte Hardware war damals Mist.
Wie auch die Treiber und resultierende bescheidene Performance.

Exclusive PhysX Spiele zeigten damals schon unglaublich schöne Effekt Physik.

Alternativen hinsichtlich Effekt PhysX gibt es heute kaum, sind nicht offen oder die Möglichkkeiten werden nicht konsequent genutzt.

AYAlf_2
2010-04-07, 12:36:50
das glaube ich nicht...
ati haette aber niemals physx gekauft ..davon mal abgesehen. aber wenn ati die strategie gefahren haette, die jetzt nvidia faehrt und umgekehrt .. dann wuerde ich wohl ati dafuer flamen.

mir geht es nicht um ati oder nvidia .. ich moechte (das habe ich schon 1000x gesagt) nur die plattform pc erhalten... und das geht nur, wenn es konkurierende unternhemen gibt, die sich gegenseitig versuchen zu uebertrumpfen. aber nur in einem bestimmten rahmen. wenn beide hersteller anfangen ihre eigenen standards zu erfinden, wird die plattform pc bald sehr unattraktiv werden.

es ist echt schlimm wie nvidia-fanboys alles immer so persoenlich nehmen. ich will euch nvidia nicht kaputt machen/reden. ich moechte einfach nur nicht, dass ati gezwungen ist, den gleichen mist zu bauen wie jetzt nvidia. (so wie es ausschaut werden sie das aber nicht)

AYAlf_2
2010-04-07, 12:38:56
Der Frage schließe ich mich gerne an.

Einzig vom Konzept her mit zusätzlich benötigte Hardware war damals Mist.
Wie auch die Treiber und resultierende bescheidene Performance.

Exclusive PhysX Spiele zeigten damals schon unglaublich schöne Effekt Physik.

Alternativen hinsichtlich Effekt PhysX gibt es heute kaum, sind nicht offen oder die Möglichkkeiten werden nicht konsequent genutzt.
warum hat wohl niemand ne ageia im rechner gehabt?

Raff
2010-04-07, 12:39:39
Nicht jeder, der einen Mehrwert gern mitnimmt oder derartige Bestrebungen nicht verteufelt, ist ein Fanboy. Aktuell habe ich bei meiner HD 5870 einen (für mich) deutlichen größeren Mehrwert gegenüber jeglicher GeForce: SGSSAA. Das ist auch gerade "proprietär" (die Art der Implementierung ist's wohl wirklich). :ulol:

MfG,
Raff

LieberAal
2010-04-07, 12:51:04
AYAlf_2, ich bin sicher, dass die Attitüde gegenüber GPU-PhysX deutlich positiver wäre, wenn AMD/Ati die Firma gekauft hätte. Vielleicht nicht durchweg positiv, weil "proprietär = böse", aber dennoch besser als die Kombination "böses Nvidia plus böses Proprietariat".
Herrlich erfrischend, so ein unvoreingenommener Redakteur :rolleyes:
Naja, spätestens seit Gothic 3 weiß man ja, wie man die "Unabhängigkeit" eurer Erzeugnisse einzuschätzen hat. :D

AYAlf_2
2010-04-07, 12:55:28
Nicht jeder, der einen Mehrwert gern mitnimmt oder derartige Bestrebungen nicht verteufelt, ist ein Fanboy. Aktuell habe ich bei meiner HD 5870 einen (für mich) deutlichen größeren Mehrwert gegenüber jeglicher GeForce: SGSSAA. Das ist auch gerade "proprietär" (die Art der Implementierung ist's wohl wirklich). :ulol:

MfG,
Raff

ich dachte jetzt nicht speziell an dich mit nvidia-fanboy... aber wem der schuh past...

Raff
2010-04-07, 12:57:14
Ich werde alle 3 Postings als Fanboy tituliert (neulich war ich sogar ein Ati-Fanboy!), daher bin ich da schon etwas paranoid. Siehe das Tier über dir. Wer Nvidia nicht für PhysX basht, ist hier automatisch ein Fanboy. :ulol:

MfG,
Raff

Shaft
2010-04-07, 13:01:27
warum hat wohl niemand ne ageia im rechner gehabt?


Das steht soweit nun in mein Kommentar. ;)

GPUs eignen sich nunmal auch hervorragend dafür.

Und nochmal und wiederhole mich nicht ein weiteres mal, es geht nicht um eine Spaltung des Pc Marktes, wie makaber ist denn diese These bitte?

Es geht um bemühungen seitens der Hersteller, möglichst Vielfalt der Featurepalette den Endkunden zu bieten und aktraktive zu machen. Das hatten wir seit den ersten 3D Beschleuniger und ist nichts neues auf dem PC Markt.

Das ist zum Haare rausreißen, ich werde darauf nicht weiter eingehen, noch besteht da hinsichtlich Diskussionsbedarf.

AYAlf_2
2010-04-07, 13:01:45
^^ die stimmung ist aber auch etwas aufgeladen. ich scheine auch ein ati-fanboy zu sein... nur weil ich meine ansichten bezueglich physx vertrete.

Raff
2010-04-07, 13:04:11
^^ die stimmung ist aber auch etwas aufgeladen. ich scheine auch ein ati-fanboy zu sein... nur weil ich meine ansichten bezueglich physx vertrete.

Nö, dich halte ich anhand deiner Aussagen nicht für einen Fanboy. Und ich habe einen geschulten Blick für die Dinger, seien sie rot, grün oder gar blau (ja, solche gibt's auch). ;)

MfG,
Raff

DrFreaK666
2010-04-07, 13:07:48
So oft wie OpenGL?:P

War doch klar was ich damit sagen wollte...
Wäre PhysX in DX11 integriert dann hätte jeder Gamer früher oder später(sobald eine DX11-Karte eingebaut wird) was davon.
Ich als AMD-User darf nicht mal eine zusätzliche nv-Karte für PhysX nutzen :uclap:

AYAlf_2
2010-04-07, 13:09:49
Das steht soweit nun in mein Kommentar. ;)

GPUs eignen sich nunmal auch hervorragend dafür.

Und nochmal und wiederhole mich nicht ein weiteres mal, es geht nicht um eine Spaltung des Pc Marktes, wie makaber ist denn diese These bitte?

Es geht um bemühungen seitens der Hersteller, möglichst Vielfalt der Featurepalette den Endkunden zu bieten und aktraktive zu machen. Das hatten wir seit den ersten 3D Beschleuniger und ist nichts neues auf dem PC Markt.

Das ist zum Haare rausreißen, ich werde darauf nicht weiter eingehen, noch besteht da hinsichtlich Diskussionsbedarf.

dann spinnen wir das ganze einfach mal weiter. physx ist .. da gibst du mir sicherlich recht, keine spezifikation von dx oder opengl?

nehemen wir mal an (um es nicht zu kompliziert zu machen) ati wuerde jetzt einfallen ihr eigenes physI zu entwickeln.. und wuerde spielehersteller, genau wie nvidia das jetzt schon macht, dafuer bezahlen dieses feature in spiele zu implementieren.

jetzt hat der kunde die qual der wahl.. er moechte spiel x spielen .. braucht aber dafuer ne ati. wenn er spiel y spielen moechte braucht er eine nvidia. was macht der kunde?

schau dir mal den aktuellen konsolen markt an.. wenn ich spiel a spielen moechte brauch ich eine xbox .. wenn ich spiel b spielen moechte brauch ich eine ps3. faellt dir da vielleicht was auf? nein? naja ... einfacher kann ich es echt nicht machen.

Grestorn
2010-04-07, 13:13:24
dann spinnen wir das ganze einfach mal weiter. physx ist .. da gibst du mir sicherlich recht, keine spezifikation von dx oder opengl?

nehemen wir mal an (um es nicht zu kompliziert zu machen) ati wuerde jetzt einfallen ihr eigenes physI zu entwickeln.. und wuerde spielehersteller, genau wie nvidia das jetzt schon macht, dafuer bezahlen dieses feature in spiele zu implementieren.

jetzt hat der kunde die qual der wahl.. er moechte spiel x spielen .. braucht aber dafuer ne ati. wenn er spiel y spielen moechte braucht er eine nvidia. was macht der kunde?

Sagt mal, habt ihr mein Posting nicht gelesen? Keiner ist darauf eingegangen... Proprietäre Entwicklungen sind der Motor der technischen Weiterentwicklung. Wer das verteufelt, wünscht sich die Stagnation herbei!

Klingone mit Klampfe
2010-04-07, 13:21:06
PhysX, CUDA usw. sind doch nicht das Problem. Dass Problem ist, dass Entwickler entweder für ATI oder für nVidia entwickeln. Ich bezweifle, dass es jemals ein Spiel geben wird, dass sowohl "CUDA" als auch "ATI Stream" (oder wie auch das ATI-Äquivalent heißt) unterstützt. Solange man nicht einen Standard hat, den sich beide Anbieter teilen, wird man als Entwickler lieber weniger als mehr Effekte in seinem Konzept vorsehen, um die jeweils anderen Kunden nicht zu vergrätzen - der PC-Markt ist schließlich schon klein genug.

Erste Ansätze gibt's ja schon. Die Verbreitung von "OpenCL" wird aber scheinbar von nVidia blockiert. Die Entwickler von Just Cause 2 hätten beispielsweise ja auch OpenCL statt CUDA verwenden können - man nenne mir bitte handfeste technische Gründe für diese Entscheidung. Auf der anderen Seite verhindert ATI die Verbreitung der hauseigenen Techniken.

Solange sich die beiden großen Grafikkartenanbieter krampfhaft an ihre ach so tollen proprietären Techniken klammern, in der vagen Hoffnung, auf diese Weise irgendwann eine klare Monopolstellung erreichen zu können, herrscht technische Stagnation. Dem normalen Spielentwickler geht die Unternehmenspolitik der Hardwareanbieter am Bürzel vorbei - aber für eine Stange Geld ist man halt immer offen, da baut man halt ein paar PhysX-Effekte ein, gerne auch nachträglich (siehe Batman). Auf der ATI-Seite ist es auch mal ein ganzer Renderpfad (siehe Dirt 2).

Diese kindische Technik-Aufspalterei schadet dem PC-Markt insgesamt enorm.

Gast
2010-04-07, 13:22:02
Was regt ihr euch eigentlich so auf Leute? ATI-User können doch Physx-Games boykottieren. Theoretisch müssten nV-User die Titel auch nicht bezahlen, denn die Kosten sind eigentlich schon mit der Grafik-Hardware abgegolten worden.
Sprich Fermi kaufen und und mit ruhigem Gewissen PHYSX-Titel "besorgen".

Shaft
2010-04-07, 13:24:50
@grestorn

Nun, ich neige dazu alles zu lesen, obs mir gefällt oder nicht.


@AYAlf_2

Du willst es nicht verstehen oder du kannst es nicht.

Ich bin schon vor einigen Seiten darauf eingegangen und habe begründet, wo es nichts zu begründen gibt.

Dann hast du die Wahl, welchen Hersteller du erwerben möchtest, welche Besonderheiten dir wichtig sind. Sehe soweit kein Problem, PhysX ist optional.

Konsolen sind für sich ein anderes Thema, da gehts um Software Exclusivitäten. PS3 und Xbox unterscheiden sich selbst kaum.

Was regt ihr euch eigentlich so auf Leute? ATI-User können doch Physx-Games boykottieren. Theoretisch müssten nV-User die Titel auch nicht bezahlen, denn die Kosten sind eigentlich schon mit der Grafik-Hardware abgegolten worden.
Sprich Fermi kaufen und und mit ruhigem Gewissen PHYSX-Titel "besorgen".


Tjo, sehe ich auch so.

Nur gibt es User die meinen Krampfhaft deswegen Hersteller nieder machen zu müssen.

Grestorn
2010-04-07, 13:28:57
PhysX, CUDA usw. sind doch nicht das Problem. Dass Problem ist, dass Entwickler entweder für ATI oder für nVidia entwickeln. Ich bezweifle, dass es jemals ein Spiel geben wird, dass sowohl "CUDA" als auch "ATI Stream" (oder wie auch das ATI-Äquivalent heißt) unterstützt.

So ist das nun mal. Die IHVs konkurieren über die Qualität und Verbreitung ihrer Physik-Lösung. Was für einen Grund hätten sie sonst, Geld in die Weiterentwicklung zu investieren?

Grestorn
2010-04-07, 13:29:43
Was regt ihr euch eigentlich so auf Leute? ATI-User können doch Physx-Games boykottieren. Theoretisch müssten nV-User die Titel auch nicht bezahlen, denn die Kosten sind eigentlich schon mit der Grafik-Hardware abgegolten worden.
Sprich Fermi kaufen und und mit ruhigem Gewissen PHYSX-Titel "besorgen".

So ein Quatsch. Da stellen sich mir die Zehnägel hoch. Der Raubkopie-Fraktion ist kein Argument zu blöd, um ihr Handeln zu rechtfertigen.

Klingone mit Klampfe
2010-04-07, 13:30:48
Dann hast du die Wahl, welchen Hersteller du erwerben möchtest, welche Besonderheiten dir wichtig sind. Sehe soweit kein Problem, PhysX ist optional.


"PhysX" ist zwar scheinbar optional, aber die bislang gesehenen Effekte wären eben auch ohne "PhysX" möglich. Das ist so gesehen kein Mehrwehrt für nVidia, das ist ein "Wenigerwert" für ATI.

Grestorn
2010-04-07, 13:32:08
"PhysX" ist zwar scheinbar optional, aber die bislang gesehenen Effekte wären eben auch ohne "PhysX" möglich.

Jemand behauptet das ohne Nachweis (und gegen jede Vernunft) und in null komma nix ist es Wahrheit. Weil es halt in den Kram passt...

Klingone mit Klampfe
2010-04-07, 13:37:30
So ist das nun mal. Die IHVs konkurieren über die Qualität und Verbreitung ihrer Physik-Lösung. Was für einen Grund hätten sie sonst, Geld in die Weiterentwicklung zu investieren?

Aber wenn offensichtlich niemand den Kampf gewinnen kann und wird, sollte man doch irgendwann umdenken und auch einmal daran denken, dass es dem normalen PC-Spieler langsam auf den Sack geht, dass bestimmte Dinge nur bei der jeweils anderen Hardware funktionieren. Ein "PhysX", CUDA oder "ATI Stream" wird sich nie so durchsetzen wie "Hardware T&L" damals, welches die Kyro-Karten und andere Lösungen schlicht vernichtete. Man gewinnt vielleicht hier und da mal einige Prozent Marktanteil, aber bei der absoluten Größe des aktuellen PC-Spielemarkts ist doch alles reichlich albern.

Exxtreme
2010-04-07, 13:37:54
Jemand behauptet das ohne Nachweis (und gegen jede Vernunft) und in null komma nix ist es Wahrheit. Weil es halt in den Kram passt...
Dann wird es doch nicht so schwer sein ein einziges Spiel zu zeigen, welches mit Effekten daherkommt, welche auf der CPU für unspielbare Szenarien sorgen. Und ich muss ehrlich sagen, mir ist kein Spiel bekannt welches das bietet.

Und nein, mir ist es nicht wichtig ob ein Effekt in Echtzeit berechnet oder geskriptet/ein Fake ist solange es gut und glaubwürdig aussieht.

Grestorn
2010-04-07, 13:39:29
Aber wenn offensichtlich niemand den Kampf gewinnen kann und wird, sollte man doch irgendwann umdenken und auch einmal daran denken, dass es dem normalen PC-Spieler langsam auf den Sack geht, dass bestimmte Dinge nur bei der jeweils anderen Hardware funktionieren. Ein "PhysX", CUDA oder "ATI Stream" wird sich nie so durchsetzen wie "Hardware T&L" damals, welches die Kyro-Karten und andere Lösungen schlicht vernichtete. Man gewinnt vielleicht hier und da mal einige Prozent Marktanteil, aber bei der absoluten Größe des aktuellen PC-Spielemarkts ist doch alles reichlich albern.

Du willst also Stagnation, oder?

Grestorn
2010-04-07, 13:40:38
Dann wird es doch nicht so schwer sein ein einziges Spiel zu zeigen, welches mit Effekten daherkommt, welche auf der CPU für unspielbare Szenarien sorgen. Und ich muss ehrlich sagen, mir ist kein Spiel bekannt welches das bietet.Das Problem ist, dass man - so weit ich das verstanden habe - nicht einfach zwischen CPU und GPU Physik umschalten kann, der Code muss für die beiden Targets fundamental anders entwickelt werden.

LieberAal
2010-04-07, 13:44:27
Du willst also Stagnation, oder?
Kurzeitgedächtnis von besonderer Prägung? Zu deiner Stagnationsthese sei dir folgendes Zitat empfohlen:
Jemand behauptet das ohne Nachweis (und gegen jede Vernunft) und in null komma nix ist es Wahrheit. Weil es halt in den Kram passt...

Klingone mit Klampfe
2010-04-07, 13:47:26
Du willst also Stagnation, oder?

Ich will Fortschritt durch Spieleentwickler, die sich voll auf einen offenen Standard wie OpenCL konzentrieren können, in der Gewissheit, dass das Resultat ihrer Arbeit auf allen Grafikkarten hervorragend aussehen wird. Eben wie Direct3D. Oder willst Du ernsthaft wieder 3DFX-Zeiten, wo man für bestimmte Spiele unbedingt GLIDE-Karten haben musste und alle anderen schauten halt in die Röhre?

DrFreaK666
2010-04-07, 13:48:54
Als nv-user hätte ich auch kein Problem damit, dass PhysX-effekte nicht mit einer Radeon funktionieren :rolleyes:

Shaft
2010-04-07, 13:50:10
Aber wenn offensichtlich niemand den Kampf gewinnen kann und wird, sollte man doch irgendwann umdenken und auch einmal daran denken, dass es dem normalen PC-Spieler langsam auf den Sack geht, dass bestimmte Dinge nur bei der jeweils anderen Hardware funktionieren. Ein "PhysX", CUDA oder "ATI Stream" wird sich nie so durchsetzen wie "Hardware T&L" damals, welches die Kyro-Karten und andere Lösungen schlicht vernichtete. Man gewinnt vielleicht hier und da mal einige Prozent Marktanteil, aber bei der absoluten Größe des aktuellen PC-Spielemarkts ist doch alles reichlich albern.


PomerVR, Matrox, die Hersteller hatten gute Ansätze, konnten sich aber nicht im Gamer Segment durchsetzen. 3dfx, Nvidia, ATI hatten einfach die besseren Karten. Obwohl, 3dfx müsste etwa Zeitgleich leider mit ausgestiegen sein.

Und hatte Kyro nicht so einige Probleme mit Spiele Kompatibilität, irgendwas war da doch?


Edit: Hätte auch nüscht dagegen, wenn es wieder mehr GPU Hersteller geben würde.

Klingone mit Klampfe
2010-04-07, 13:50:26
Als nv-user hätte ich auch kein Problem damit, dass PhysX-effekte nicht mit einer Radeon funktionieren :rolleyes:


Nur dumm, dass die nv-user allein nicht genug Spielabsatz generieren können. Da müsste man schon ATI "totmachen" (oder umgekehrt).

Und hatte Kyro nicht so einige Probleme mit Spiele Kompatibilität, irgendwas war da doch?


Genau das meinte ich. Die Dinger konnten kein "Hardware T&L" und waren damit innerhalb weniger Monate komplett weg vom Fenster.

Exxtreme
2010-04-07, 13:52:47
Das Problem ist, dass man - so weit ich das verstanden habe - nicht einfach zwischen CPU und GPU Physik umschalten kann, der Code muss für die beiden Targets fundamental anders entwickelt werden.
Das mag ja freilich so sein.

Am Ende zählt aber trotzdem nur das was beim Spieler ankommt Und die derzeitigen Physx-Effekte in Spielen bieten anscheinend nicht mehr als das was früher durch eine andere Implementation/Annäherung/Skripte ermöglicht wurde.

Und ich wage mich jetzt hier mal weit aus dem Fenster: würde man die derzeitigen Physx-Spielereien durch gut aussehende Skripte/Fakes ersetzen und diese Spielereien durch eine DeviceID-Abfrage freischalten/sperren dann würde niemand dahinter kommen, dass das Skripte/Fakes sind.

Und angesichts dessen frage ich nach dem Sinn von Physx.

Mr. Lolman
2010-04-07, 13:55:29
Das Problem ist, dass man - so weit ich das verstanden habe - nicht einfach zwischen CPU und GPU Physik umschalten kann, der Code muss für die beiden Targets fundamental anders entwickelt werden.

Für Batman gibts nen Hack, womit die GPU PhysX Effecte auf ner CPU berechnet werden können. Und das klappt bis auf ein paar Kleinigkeiten super. Eigentlich bräuchts nur ne LOD-Anpassung und schon würds (auch ganz ohne Multicore Optimierung) perfekt laufen.

Shaft
2010-04-07, 13:58:09
Genau das meinte ich. Die Dinger konnten kein "Hardware T&L" und waren damit innerhalb weniger Monate komplett weg vom Fenster.


Na, war nicht nur T&L, ich glaube die liefen bei einigen Spiele nicht ganz rund. Kann aber auch daneben liegen, so verzeiht mir.

Und ob PhysX in fünf Jahren noch so gibt wie in jetziger Form, offen wird, oder andere Alternativen, ist mir wurscht. Ich glaube nicht, wichtig ist jetzt, was in Zukunft ist weiß man nicht.

derguru
2010-04-07, 14:02:02
das problem ist das es tolle techdemos gibt aber in spielen die umsetzung ein witz ist und das auch noch bei ~50% performanceverlust.kann verstehen das leute physX verteufeln und als lachnummer halten so wie auch ein gewisser carmack.(physX ist spielzeug für experimentierfreudige ostblock-spielentwickler)

gpu-physX sollte zur entlastung der cpu sein und nicht das die cpu in den idle-modus versetzt wird oder ist das mit entlastung gemeint.;)

y33H@
2010-04-07, 14:04:27
Warum hat wohl niemand ne ageia im rechner gehabt? Weil die PPUs teuer waren und die Spiele selten. Nicht aber, weil die Technik schlecht war.

Raff
2010-04-07, 14:06:58
[...] kann verstehen das leute physX verteufeln und als lachnummer halten so wie auch ein gewisser carmack.(physX ist spielzeug für experimentierfreudige ostblock-spielentwickler) [...]

War es nicht ein gewisser John Carmack, welcher neben der proprietären Glide-API von 3dfx auch die ebenso proprietären APIs von Rendition und PowerVR unterstützte? Ja, das war er. Die Vorteile konnten weit weniger Leute nutzen als es jetzt PhysX-fähige GeForce-Rechner gibt. Mittlerweile scheint Carmack nicht mehr ganz so freakig zu denken wie Anfang der 90er-Jahre.

MfG,
Raff

DrFreaK666
2010-04-07, 14:07:17
Microsoft hätte Ageia aufkaufen sollen, dann hätten jetzt alle was davon

_DrillSarge]I[
2010-04-07, 14:07:36
Nicht aber, weil die Technik schlecht war.
neeeiiin...überhaupt nicht ;D.
das ding war unausgereift, die spiele dazu ruckelten mit physx (die speziellen demos auch ;D). (gibt doch auf 3dc hier auch nen älteren artikel dazu)

y33H@
2010-04-07, 14:26:19
Cellfactor läuft damit super :P

AYAlf_2
2010-04-07, 14:28:02
"PhysX" ist zwar scheinbar optional, aber die bislang gesehenen Effekte wären eben auch ohne "PhysX" möglich. Das ist so gesehen kein Mehrwehrt für nVidia, das ist ein "Wenigerwert" für ATI.

danke! in kurzen saetzen .. das was ich damit meine ... nvidia bring mit physx NULL mehrwert! :wink:

ChaosTM
2010-04-07, 14:29:10
Dieser ganze proprietäre Bullshit, egal von welcher Seite, ist einfach nur kontraproduktiv und schadet beiden Parteien.
Als ob der PC-Spielemarkt nicht schon kaputt genug wäre?!
Das schlimmste sind aber die vollkommen betriebsblinden und weltfremden Extrem-Fanboys, die den Scheiß auch noch mit aller Macht verteidigen und unterstützen.
Wozu gibts Standards wie DirectX, wenn jeder sein eigenes, dünn/dümmliches Süppchen dazukocht?!

Sorry für die markige Ausdrucksweise, aber die letzten paar Seiten waren einfach zu schmerzhaft!

AYAlf_2
2010-04-07, 14:29:56
Microsoft hätte Ageia aufkaufen sollen, dann hätten jetzt alle was davon
wir haetten nix davon .. weil es keine grafikeffekt hergibt . die nicht jede andere physik engine kann. wir haetten nur alle unter einem hut.

Mr. Lolman
2010-04-07, 14:30:57
War es nicht ein gewisser John Carmack, welcher neben der proprietären Glide-API von 3dfx auch die ebenso proprietären APIs von Rendition und PowerVR unterstützte?

Hat er das?

Raff
2010-04-07, 14:49:19
Hat er das?

Ja. Schau mal hier: http://www.google.de/#hl=de&source=hp&q=vquake&meta=&aq=f&aqi=g10&aql=&oq=&gs_rfai=&fp=ee5ee57acdb47974

Besonders hier: http://www.google.de/url?sa=t&source=web&ct=res&cd=8&ved=0CCQQFjAH&url=http%3A%2F%2Ffloppsie.comp.glam.ac.uk%2FGlamorgan%2Fgaius%2Fgames%2F16.pdf.4&rct=j&q=vquake&ei=An-8S-OXJNqh_AbWw6DDBg&usg=AFQjCNH_IXGZo73VL9fMCbyXjQZjD5WvIA (PDF)

... wobei ich nicht mehr weiß, ob die spätere PowerVR-Ausgabe, die mir im Kopf herumschwirrt, nicht doch nur eine (verbesserte) OpenGL-Version war.

MfG,
Raff

V2.0
2010-04-07, 15:12:41
Warum regt ihr euch über NV so auf? Die haben auch Havok bei der Entwicklung von Havok FX geholfen, eine Engine die auch auf ATI Karten laufen würde, wenn Intel nicht Havok gekauft hätte und damit die Unterstützung der GPU based engine im Sande verlief.

Das Problem ist eigentlich, dass ATI weder gewillt ist PhysiX zu lizensieren, noch gewillt ist eine eigene brauchbare Middleware zur Verfügung zu stellen.

Exxtreme
2010-04-07, 15:14:12
Das Problem ist eigentlich, dass ATI weder gewillt ist PhysiX zu lizensieren,
Teile und herrsche. Mehr steckt nicht dahinter. Ich wette, Nvidia würde auch keine Technik von AMD lizenzieren.

V2.0
2010-04-07, 15:17:46
Teile und herrsche. Mehr steckt nicht dahinter. Ich wette, Nvidia würde auch keine Technik von AMD lizenzieren.

Das mag sein, aber ohne NV und PhysiX hätten wir gar keine GPU-Physik. Selbst wenn man über deren Nutzen streiten mag, sehe ich nicht die Verfehlung von NV, denn dort kann ich es immer deaktivieren. Gleichzeitig kann jede Softwarefirma auch Havok oder was auch immer nutzen.

Den einzigen Vorwourf den man NV machen kann ist, dass es nicht auf AMD Karten läuft, aber daran kann NV gar nichts ändern. Aus AMD-Sicht es aber gar nicht notwendig so eine Engine zu haben, weil sie ja auch profitieren wenn Physik auf der CPU gerechnet wird, denn die tollen okta-Core wollen ja auch beschäftigt werden.

LovesuckZ
2010-04-07, 15:19:38
Teile und herrsche. Mehr steckt nicht dahinter. Ich wette, Nvidia würde auch keine Technik von AMD lizenzieren.

Würden sie, wenn es etwas erstrebenwertes gäbe. nVidia ging auch ein Lizenzdeal mit Intel ein: FSB Technik gegen Patente und Wissen über ihrer GPUs. Manchmal ist ein Abkommen ertragsreicher als der Verzicht.

AYAlf_2
2010-04-07, 16:31:13
Würden sie, wenn es etwas erstrebenwertes gäbe. nVidia ging auch ein Lizenzdeal mit Intel ein: FSB Technik gegen Patente und Wissen über ihrer GPUs. Manchmal ist ein Abkommen ertragsreicher als der Verzicht.
nur verzichtet ja ati auf nix was es nicht schon gibt .... stichwort MEHRWERT! den gibt es fuer ati nicht, wenn sie physx lizensieren wuerden.

Gast
2010-04-07, 17:14:55
Würden sie, wenn es etwas erstrebenwertes gäbe. nVidia ging auch ein Lizenzdeal mit Intel ein: FSB Technik gegen Patente und Wissen über ihrer GPUs. Manchmal ist ein Abkommen ertragsreicher als der Verzicht.

Die sollten mal Effizienz von AMD lizensieren. Wie wäre es wenn NVidia mal neue Chipsätze mit SLI-Support für AMD-Prozessoren baut?.

Gast
2010-04-07, 17:28:54
Die sollten mal Effizienz von AMD lizensieren. Wie wäre es wenn NVidia mal neue Chipsätze mit SLI-Support für AMD-Prozessoren baut?.


Wieso sollten sie? Reicht doch auch wenn sie die Lizenz dafür an ATI verkaufen, ach nein stop dann meckern die leute noch wieso SLI auf Intel Systemen besser läuft und sie das Extra so machen und ab sofort mit Intel zusammenarbeiten XD

Grestorn
2010-04-07, 17:45:45
Kurzeitgedächtnis von besonderer Prägung? Zu deiner Stagnationsthese sei dir folgendes Zitat empfohlen:

Ich habe doch klar geschrieben, wieso Firmen eine proprietäre Technik entwickeln und warum das dem Fortschritt dient. Wenn Du ein Gegenargument hast, dann bringe das bitte, statt nur zu flamen.

Grestorn
2010-04-07, 17:46:53
Ich will Fortschritt durch Spieleentwickler, die sich voll auf einen offenen Standard wie OpenCL konzentrieren können, in der Gewissheit, dass das Resultat ihrer Arbeit auf allen Grafikkarten hervorragend aussehen wird. Eben wie Direct3D. Oder willst Du ernsthaft wieder 3DFX-Zeiten, wo man für bestimmte Spiele unbedingt GLIDE-Karten haben musste und alle anderen schauten halt in die Röhre?

Beantworte doch einfach, wieso die Hardwarehersteller Geld in die Fortentwicklung ihrer Technik investieren sollten, wenn sie sich nicht von der Konkurenz absetzen dürfen.

Grestorn
2010-04-07, 17:47:45
Für Batman gibts nen Hack, womit die GPU PhysX Effecte auf ner CPU berechnet werden können. Und das klappt bis auf ein paar Kleinigkeiten super. Eigentlich bräuchts nur ne LOD-Anpassung und schon würds (auch ganz ohne Multicore Optimierung) perfekt laufen.

Quelle? Würd ich gern selbst ausprobieren und mir ein Bild machen.

Grestorn
2010-04-07, 17:49:29
Dieser ganze proprietäre Bullshit, egal von welcher Seite, ist einfach nur kontraproduktiv und schadet beiden Parteien.

Bring doch mal ein einziges Argument, warum nVidia (oder sonst jemand) in so etwas wie Physk-Berechnung auf der GPU investieren soll, wenn sie nicht damit Geld verdienen dürfen.

Irgendwie denkt ihr alle, die Firmen wären Euer persönlicher Wohltätigkeitsverein, oder wie?

Gast
2010-04-07, 17:51:10
Quelle? Würd ich gern selbst ausprobieren und mir ein Bild machen.

Google? http://www.google.de/search?q=batman+arkham+asylum+physx+cpu&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a

Ist gleich der erste Treffer:

http://physxinfo.com/news/237/batman-arkham-asylum-cpu-physx-trick-how-it-works/

DrFreaK666
2010-04-07, 17:52:23
@Grestorm

Wieso verteidigst du nv?
Ist GPU-PhysX auf nv-Karten für die Gamer das Beste?

Grestorn
2010-04-07, 18:06:12
@Grestorm

Wieso verteidigst du nv?
Ist GPU-PhysX auf nv-Karten für die Gamer das Beste?

Ich verteitige nicht so sehr nVidia als die allgemeine Praxis, neue Features exklusiv auf dem eigenen Produkt anzubieten. GPU-Physik (egal von wem) ist eine sehr vielversprechende Technik mit viel Potential. Und nVidia investiert hier, bietet Lösungen an. Warum sollte ich nVidia dafür kritisieren?

Grestorn
2010-04-07, 18:11:08
Ist gleich der erste Treffer:

http://physxinfo.com/news/237/batman-arkham-asylum-cpu-physx-trick-how-it-works/


der Treffer beweist nun geradezu, dass es nicht geht. Dir ist klar, das der Parameter "MaxPhysicsSubsteps" aller Wahrscheinlichkeit nach in den Exponenten des Berechnungsaufwand eingeht? D.h. nicht 5-facher Aufwand, sondern Aufwand^5.

V2.0
2010-04-07, 18:17:33
Ich verteitige nicht so sehr nVidia als die allgemeine Praxis, neue Features exklusiv auf dem eigenen Produkt anzubieten. GPU-Physik (egal von wem) ist eine sehr vielversprechende Technik mit viel Potential. Und nVidia investiert hier, bietet Lösungen an. Warum sollte ich nVidia dafür kritisieren?

Es ist noch viel dümmer. Nv hat GPU-Physik als sinnvolle Anwendung für seine GPUs entdeckt. Sie haben eine entsprechende Engine mit Middleware gekauft. NV kümmert sich kaum um CPU-PhysiX.

Intel hat Physik auch entdeckt und sich eine entsprechende Engine und Middleware gekauft. Intel hat den GPU-Teil aufgegeben.

AMD hat gar nichts gemacht. Sie profitieren gegenwärtig von den Bemühungen Intels und reden die von NV schlecht. Dabei könnte NV ATI Karten gar nicht unterstützen bei PhysiX ohne dass ATI zustimmt.

Gast
2010-04-07, 18:18:18
der Treffer beweist nun geradezu, dass es nicht geht. Dir ist klar, das der Parameter "MaxPhysicsSubsteps" aller Wahrscheinlichkeit nach in den Exponenten des Berechnungsaufwand eingeht? D.h. nicht 5-facher Aufwand, sondern Aufwand^5.

Du wolltest die Quelle von diesem "Hack" und hab sie dir geliefert.
Und ob die Genauigkeit der Berechnung nun gesenkt wird oder nicht ist mir egal, ich Spiele so was nicht.

Klingone mit Klampfe
2010-04-07, 18:18:45
Beantworte doch einfach, wieso die Hardwarehersteller Geld in die Fortentwicklung ihrer Technik investieren sollten, wenn sie sich nicht von der Konkurenz absetzen dürfen.

Damit der PC-Markt nicht vollends zusammenbricht? Bin ich eigentlich der einzige, der weiter als sechs Monate denkt? :frown:

Grestorn
2010-04-07, 18:19:59
Damit der PC-Markt nicht vollends zusammenbricht? Bin ich eigentlich der einzige, der weiter als sechs Monate denkt? :frown:

Die Firmen wollen Marktanteile vergrößern. Was ist daran so schwer zu verstehen? Ihr habt offenbar nicht einen Funken Realitätsbezug mit Euren Weltbildern.

Dass der PC-Markt zusammenbricht, versucht nVidia dadurch zu verhindern, dass sie die Spielehersteller dazu bewegen, Konsolen-Ports auf dem PC zu erstellen.

Grestorn
2010-04-07, 18:20:50
Du wolltest die Quelle von diesem "Hack" und hab sie dir geliefert.
Und ob die Genauigkeit der Berechnung nun gesenkt wird oder nicht ist mir egal, ich Spiele so was nicht.

Ok, danke für den Link. Er beweist jedenfalls wunderbar, dass es eben NICHT mit der CPU geht. Kann ich ja dann in Zukunft ausgraben, wenn das wieder jemand behauptet.

V2.0
2010-04-07, 18:24:17
Damit der PC-Markt nicht vollends zusammenbricht? Bin ich eigentlich der einzige, der weiter als sechs Monate denkt? :frown:

Nv denkt doch weiter. Sie haben neue Anwendungsgebiete für GPUs gefunden.

Erkläre mir mal wie NV etwas an der Situation ändern soll. PhysiX für ATI Karten öffnen dürfte wohl nur möglich sein, wenn ATI zustimmt.

mapel110
2010-04-07, 18:26:18
PhysiX für ATI Karten öffnen dürfte wohl nur möglich sein, wenn ATI zustimmt.
Umgekehrt. nvidia muss zustimmen und verlangt dafür logischerweise für ihr Eigentum eine Gegenleistung von ATI.

Klingone mit Klampfe
2010-04-07, 18:26:33
Dass der PC-Markt zusammenbricht, versucht nVidia dadurch zu verhindern, dass sie die Spielehersteller dazu bewegen, Konsolen-Ports auf dem PC zu erstellen.

:freak:

Was soll man da noch anworten?

Grestorn
2010-04-07, 18:27:46
:freak:

Was soll man da noch anworten?

Ja, bitte, mit einem Grund warum Du der Aussage nicht zustimmen kannst.

DrFreaK666
2010-04-07, 18:33:02
Ich verteitige nicht so sehr nVidia als die allgemeine Praxis, neue Features exklusiv auf dem eigenen Produkt anzubieten. GPU-Physik (egal von wem) ist eine sehr vielversprechende Technik mit viel Potential. Und nVidia investiert hier, bietet Lösungen an. Warum sollte ich nVidia dafür kritisieren?

Ich als AMD-User darf nicht mal eine nv-Karte nur für PhysX einbauen.
Wieso gibt es also nichts zum Kritisieren?

V2.0
2010-04-07, 18:33:05
Umgekehrt. nvidia muss zustimmen und verlangt dafür logischerweise für ihr Eigentum eine Gegenleistung von ATI.

Sowohl als auch. Beide müssen zustimmen.

Grestorn
2010-04-07, 18:34:08
Ich als AMD-User darf nicht mal eine nv-Karte nur für PhysX einbauen.
Wieso gibt es also nichts zum Kritisieren?

Das habe ich doch bereits kritisiert. Ich finde das nicht gut, ich finde auch, es schadet nV mehr, als es nutzt.

Sesam öffne dich
2010-04-07, 18:34:50
Die Firmen wollen Marktanteile vergrößern. Was ist daran so schwer zu verstehen? Ihr habt offenbar nicht einen Funken Realitätsbezug mit Euren Weltbildern.

Dass der PC-Markt zusammenbricht, versucht nVidia dadurch zu verhindern, dass sie die Spielehersteller dazu bewegen, Konsolen-Ports auf dem PC zu erstellen.

Der PC wächst derzeit sogar am stärksten. Allerdings nicht dort, wo Nvidia sein Geld hineinpumpt.

Schlammsau
2010-04-07, 18:34:59
Es ist noch viel dümmer. Nv hat GPU-Physik als sinnvolle Anwendung für seine GPUs entdeckt. Sie haben eine entsprechende Engine mit Middleware gekauft. NV kümmert sich kaum um CPU-PhysiX.

Intel hat Physik auch entdeckt und sich eine entsprechende Engine und Middleware gekauft. Intel hat den GPU-Teil aufgegeben.

AMD hat gar nichts gemacht. Sie profitieren gegenwärtig von den Bemühungen Intels und reden die von NV schlecht. Dabei könnte NV ATI Karten gar nicht unterstützen bei PhysiX ohne dass ATI zustimmt.

ATi macht doch was, sie unterstützen offene Standards, die wenn sie einsatsbereit sind auf beiden Herstellern laufen.

DrFreaK666
2010-04-07, 18:35:42
Das habe ich doch bereits kritisiert. Ich finde das nicht gut, ich finde auch, es schadet nV mehr, als es nutzt.

Ja eben. Schlisslich mich ich mir ja dann ne nv-GPU zulegen.
Naja, egal.
Ich hoffe, dass vom DX11 mehr als nur Tess verwendet wird...

Grestorn
2010-04-07, 18:37:14
Der PC wächst derzeit sogar am stärksten. Allerdings nicht dort, wo Nvidia sein Geld hineinpumpt.

Nicht im Spielemarkt, und das ist das Geschäft von nVidia. Also werden sie versuchen, dort Alleinstellungsmerkmale zu bieten. Ist doch wirklich nicht schwer zu verstehen.

V2.0
2010-04-07, 18:38:46
ATi macht doch was, sie unterstützen offene Standards, die wenn sie einsatsbereit sind auf beiden Herstellern laufen.

Dann müssen ATI user eben noch warten bis sie GPU-Physik erleben können.

Grestorn
2010-04-07, 18:39:55
ATi macht doch was, sie unterstützen offene Standards, die wenn sie einsatsbereit sind auf beiden Herstellern laufen.

Ach ja... :) Komischerweise immer erst als Gegenreaktion, weil am eine proprietäre Investition des Konkurenten immer am besten mit einem "offenen Standard" bekämpft.

Besonders praktisch daran ist, dass man selbst eben kein Geld investieren muss. Ich fürchte nur, dass die Rechnung von AMD nicht aufgeht, wenn nicht bald jemand eine GPU Physik-Engine baut, die auf diesem offenen Standard aufsetzt.

Ich frage mich nur, wie die finanziert werden soll. Das Geld kann ja nur von den Spieleherstellern kommen, die die Engine lizenzieren. Wenn nVidia ihre Engine günstiger oder gar kostenlos anbietet...

Schlammsau
2010-04-07, 18:41:24
Dann müssen ATI user eben noch warten bis sie GPU-Physik erleben können.

Machen sie doch auch, wollte nur deine Aussage entkräften.

boxleitnerb
2010-04-07, 18:47:35
Gibts dazu denn eigentlich einen Zeitplan? Wann sind diese offenen Standards denn endlich verfügbar und vor allem: Weiß man schon, ob und welche Spieleentwickler sich dafür interessieren?

dllfreak2001
2010-04-07, 18:48:42
Die Firmen wollen Marktanteile vergrößern. Was ist daran so schwer zu verstehen? Ihr habt offenbar nicht einen Funken Realitätsbezug mit Euren Weltbildern.

:freak: "Nvidia rettet uns" ist aber ein realistisches Weltbild. ;)


Dass der PC-Markt zusammenbricht, versucht nVidia dadurch zu verhindern, dass sie die Spielehersteller dazu bewegen, Konsolen-Ports auf dem PC zu erstellen.

Was? Das ist mal eine interessante These, hast du dafür irgendwelche Belege?

Gast
2010-04-07, 18:49:52
Nicht im Spielemarkt

Doch! Ist sogar hier im Forum nachzulesen. Suche mal nach "Demirug" und erkundige Dich, wer hinter dem Namen steckt. Er weiß erheblich mehr über die Branche als die unzähligen (vermeintlichen) Besserwisser hier.
Und höre endlich auf, ständig Zeugs in fremde Postings hineinzuinterpretieren, das dort gar nicht steht. Das ist hochgradig unanständig.

PS. Glaubst Du tatsächlich, NV würde den PC-Markt retten, indem sie schnöde Konsolenports mit PhysX "aufwerten"? Macht das für Dich ein langweiliges Spiel spielenswert? Sei ehrlich, den Stuss kannst Du unmöglich ernsthaft glauben. Es reicht sogar, die Augen nur ein bisschen zu öffnen: Viele Spiele (BF:BC2, Dirt2, AvP und Metro fallen mir auf die schnelle ein), die in letzter Zeit für alle 3 Plattformen erschienen sind, bieten am PC teilweise erheblich mehr. Das sagen sogar die Entwickler. Der Plattform PC geht's heute massiv besser als etwa 2007.

Grestorn
2010-04-07, 18:50:30
:freak: "Nvidia rettet uns" ist aber ein realistisches Weltbild. ;)Das habe ich nirgendwo geschrieben. nVidia versucht nur, ihren Markt zu erhalten.

Was? Das ist mal eine interessante These, hast du dafür irgendwelche Belege?

Erstens schreibt nVidia das selbst (siehe den Eingangsartikel zu diesem Thread) und zweitens ist es einfach offensichtlich und ein offenes Geheimnis, dass viele Konsolen-Spiele ohne das Engagement von nVidia niemals das Licht des PCs gesehen hätten.

Grestorn
2010-04-07, 18:52:18
Doch! Ist sogar hier im Forum nachzulesen. Suche mal nach "Demirug" und erkundige Dich, wer hinter dem Namen steckt. Er weiß erheblich mehr über die Branche als die unzähligen (vermeintlichen) Besserwisser hier. Ich weiß, wer Demirug ist, und komischerweise argumentieren wir fast immer auf der selben Ebene.

Welches Posting von Demirug meinst Du eigentlich?

Und höre endlich auf, ständig Zeugs in fremde Postings hineinzuinterpretieren, das dort gar nicht steht. Das ist hochgradig unanständig.Und was meinst Du damit genau?

PS. Glaubst Du tatsächlich, NV würde den PC-Markt retten, indem sie schnöde Konsolenports mit PhysX "aufwerten"? Macht das für Dich ein langweiliges Spiel spielenswert? Sei ehrlich, den Stuss kannst Du unmöglich ernsthaft glauben. Es reicht sogar, die Augen nur ein bisschen zu öffnen: Viele Spiele (BF:BC2, Dirt2, AvP und Metro fallen mir auf die schnelle ein), die in letzter Zeit für alle 3 Plattformen erschienen sind, bieten am PC teilweise erheblich mehr. Das sagen sogar die Entwickler. Der Plattform PC geht's heute massiv besser als etwa 2007.

Ohne das Engagement gäbe es deutlich weniger Konsolenports auf dem PC. Das würde die Position des PCs als Spieleplattform kaum stärken, oder?

Gast
2010-04-07, 18:58:32
Ohne das Engagement gäbe es deutlich weniger Konsolenports auf dem PC. Das würde die Position des PCs als Spieleplattform kaum stärken, oder?

Das bleibt eine Behauptung deinerseits. Ich denke nicht, dass ein Hardwarehersteller Geld dafür ausgibt, dass ein Konsolenspiel für den PC veröffentlicht wird.

Gerade bei BFBC2 hat kein Hersteller Unterstützung geliefert, und das Spiel ist vor allem auf dem PC ein großer Erfolg.

dllfreak2001
2010-04-07, 19:03:20
Das habe ich nirgendwo geschrieben. nVidia versucht nur, ihren Markt zu erhalten.

Das deutest du doch an.


Erstens schreibt nVidia das selbst (siehe den Eingangsartikel zu diesem Thread) und zweitens ist es einfach offensichtlich und ein offenes Geheimnis, dass viele Konsolen-Spiele ohne das Engagement von nVidia niemals das Licht des PCs gesehen hätten.

Ist mir neu dieses Geheimnis und Beweise gibt es dafür auch nicht.
Kannst du es denn beweisen, dass ein Hersteller einen Konsolenport nur wegen NV durchgeführt hat?

Gast
2010-04-07, 20:19:58
Sowohl als auch. Beide müssen zustimmen.

ganz toll. Und auch schon mal ein paar Schritte weiter gedacht ? was würde wohl passieren wenn ati lizensieren würde ? mal sehen, alle wären glücklich und physix würde sich bei den spieleherstellern durchsetzen. wenn es dann soweit ist, wird nv physix dahingehend "optimieren", dass es auf der eigenen hardware besser läuft und der / die lizenznehmer haben das nachsehen, da er keinen einfluß auf die weitere entwicklung von physix hat.

mal ´ne einfache frage: wenn du ati wärst, würdest du jetzt physix lizensieren ?

Nazar
2010-04-07, 20:47:30
Die Firmen wollen Marktanteile vergrößern. Was ist daran so schwer zu verstehen? Ihr habt offenbar nicht einen Funken Realitätsbezug mit Euren Weltbildern.

Dass der PC-Markt zusammenbricht, versucht nVidia dadurch zu verhindern, dass sie die Spielehersteller dazu bewegen, Konsolen-Ports auf dem PC zu erstellen.

Oh man, fehlt nur noch das Superman Cape :freak:

Womit versucht nV den Spielemarkt zu retten?
indem sie gegen die einzigen Verbündeten vorgehen?
Indem sie versuchen eigene Ideen ohne die anderen Mitspieler durchzudrücken?
Indem sie einigen PC Spielern das Spielen vermiesen?
Indem sie Mondpreise verlangen?

Sie retten den Spielemarkt, indem sie PhysX abschalten sobald neben der nV GPU auch eine AMD GPU entdeckt wird?
Sie retten den Spielemarkt, indem Sie verhindern, dass AA für AMD Besitzer aktiviert wird?

Ich weiß ja nicht wie bei Dir eine Rettung aussieht, aber bei 99% aller Retter, ist ein gemeinsamens Vorgehen zu beobachten und nicht ein wildes "in die Nüsse treten" der Mithelfer.

nV hat mit der neuen GPU gezeigt wohin sie sich ausrichten und wo sie die Zukunft sehen und das ist nicht der Spielenmarkt.
nV versucht nicht dem PC Markt zu retten, sondern so viel wie möglich vom restlichen Kuchen abzubekommen und dabei gehen sie über Leichen (was für die freie Marktwitschaft nicht verwunderlich ist).

Wo ist nVs hauseigene Spielschmiede, die exclusive PC Spiele auf dem Markt wirft. Genügend Erfahrung scheinen sie ja zu haben, wenn sie den Spieleschmieden mittlerweile einen Großteil der aufwendigen Renderoptimierung abnehmen können?
Bisher sehe ich nur PysX, welches gewollt als Monopolstellung genutzt wird und damit einer Verbesserung des PC Markts entgegenwirkt.

Wie Du auf den Trichter kommst, dass nV durch die Unterstützung billige Konsolenports, welche die Leistung vor allen Dingen durch die miese Portierung verbraten, den PC Markt retten möchte, der Leistungstechnisch den Konsolen mittlerweile Lichtjahre voraus ist, bleibt wohl Dein Geheimnis.

Grestorn
2010-04-07, 21:34:44
Wie Du auf den Trichter kommst, dass nV durch die Unterstützung billige Konsolenports, welche die Leistung vor allen Dingen durch die miese Portierung verbraten, den PC Markt retten möchte, der Leistungstechnisch den Konsolen mittlerweile Lichtjahre voraus ist, bleibt wohl Dein Geheimnis.

Es mag unter Umständen nicht von Erfolg gekrönt sein. Ehrlich gesagt glaube ich nicht daran, dass der PC als Spieleplattform gerettet werden kann, so lange es keinen sicheren Kopierschutz gibt.

Aber meinst Du, es ist besser, die Hände in den Schoß zu legen? Dein ganzes Posting ist ein ATI Apologet.

Dass Du von nVidia erwartest, selbst Spiele auf den Markt zu bringen, ist ja wohl mehr als absurd. Und ich denke, das weißt Du auch ganz genau.

Demirug
2010-04-07, 21:51:10
Gerade bei BFBC2 hat kein Hersteller Unterstützung geliefert, und das Spiel ist vor allem auf dem PC ein großer Erfolg.

Jedes EA Studio bekommt von jedem Hersteller so viel Unterstützung wie es haben will. Ob und welche Logo am Ende auf der Packung und im Vorspann erscheint ist eine Marketing Sache und hat primär mit der Technik nichts zu tun.

dllfreak2001
2010-04-07, 22:03:52
Dass Du von nVidia erwartest, selbst Spiele auf den Markt zu bringen, ist ja wohl mehr als absurd. Und ich denke, das weißt Du auch ganz genau.

Das ist ja interessant, die Rocket-Sled-Demo ist ja ein kleines Spiel und wenn das so absurd ist, warum programmiert Nvidia breitflächig an diversen Spielen mit und baut sogar angepassten Content für diese Spiele?

Ich finde den Gedanken garnicht abwegig, falls er das doch ist. Warum wird dann verlangt, dass AMD das gleiche tun muss?
...die Arbeit der Entwickler abnehmen und Spiele teilweise mit entwickeln.


Ach noch was, welcher Konsolenport bliebe uns denn erspart wenn Nvidia nicht wäre? (das hast du immer noch nicht beantwortet)

Gast
2010-04-07, 22:30:28
Dass nV PhysX pusht und damit auch Physik-Spielereien in Spielen ist imo schon gut. Einfach damit sich in der Richtung allgemein mal etwas bewegt.

Was imo nicht gut ist, ist die Umsetzung. Statt eben auf klassische Darstellung auszuweichen werden viele Objekte und Effekte einfach komplett entfernt. Und das nervt dann schon gewaltig. Dabei können einige PhysX-Effekte sogar problemlos in Software dargestellt werden (diese Plastiklamellen in MirrorsEdge z.B.).

Ich kenne jetzt den Arbeitsaufwand nicht, der nötig ist um statt einer PhysX-Fahne einfach eine normale hinzubauen. Aber diese Effekthascherei, die einfach nur PhysX in den Vordergrund rücken will in dem übertriebene optische Unterschiede konstruiert werden nervt einfach und schadet manchem Spiel gewaltig.

Gast
2010-04-07, 23:03:03
Diese Fahnen, Stoffe und Folien aud Mirrors Edge die auch zerreißen schafft sogar ein Unterklasse-Prozessor darzustellen.

Userxy
2010-04-07, 23:03:12
Sagt mal Leute, geht es euch noch allen gut? Grestorn hat niemanden angegriffen oder beleidigen wollen und trotzdem hacken hier manche auf ihm rum als wenn er deren Religion oder Weltanschauung in den Schmutz gezogen hätte.
Er hat meiner Meinung nach Recht, wenn er sagt, dass propietäre Lösungen die Entwicklung voranbringen. Das selbe habe ich vor etlichen Seiten auch ausgesagt und wurde dafür auch ein bisschen angemacht. Leider habe ich durch meine Arbeit keine Zeit direkt zu antworten.
Alles was NV mit PhysX bis jetzt erreichen wollte, haben sie geschafft. Die Aussage war, das DX11 als Alleinstellungsmerkmal für eine Grafikkarte nicht ausreicht und zusätzliché Anreize für einen Käufer geboten werden müssen.
Davon geht der PC-Spielemarkt garantiert nicht unter.
Und wer nochmal hier behauptet NV bezahlt die Spieleprogrammierer, um deren GPU-Physik einzubauen, sollte doch mal seinen alten Englischlehrer konsultieren und sich darüber beschweren, dass er bei ihm kein Englisch gelehrnt hat. Noch nicht mal Huddy hat das im Interview gesagt.

LovesuckZ
2010-04-07, 23:07:45
Was imo nicht gut ist, ist die Umsetzung. Statt eben auf klassische Darstellung auszuweichen werden viele Objekte und Effekte einfach komplett entfernt. Und das nervt dann schon gewaltig. Dabei können einige PhysX-Effekte sogar problemlos in Software dargestellt werden (diese Plastiklamellen in MirrorsEdge z.B.).

Ich kenne jetzt den Arbeitsaufwand nicht, der nötig ist um statt einer PhysX-Fahne einfach eine normale hinzubauen. Aber diese Effekthascherei, die einfach nur PhysX in den Vordergrund rücken will in dem übertriebene optische Unterschiede konstruiert werden nervt einfach und schadet manchem Spiel gewaltig.

Und hier kommen wir wieder zur Grundfrage zurück: Wieso hat es niemand getan?

Marc-
2010-04-08, 00:10:52
Du argumentierst einfach einseitig, das ist Dein Problem. PhysX darf nicht gut sein, also ist es das auch nicht.

Es ist nun mal das Problem moderner Grafik, dass der Laie (und dazu zähle ich mich im allgemeinen auch) sich sehr schwer tut, den tatsächlich Rechenaufwand zu erkennen, wenn getrickste Lösungen oft ganz ähnlich aussehen.

Bei Physik ist es natürlich erst mal deutlich beeindruckender, wenn a la HL2 sich große Objekte abhängig voneinander bewegen und aufeinander auswirken. Dass es ein ungleich höherer Aufwand ist, wenn dies mit einer enorm großer Anzahl kleiner Objekte passiert obwohl das erst mal kein bisschen interessanter aussieht (oft im Gegenteil) wird oft übersehen. Oder auch, dass der Laie in der Tat oft ein Problem hat, geschickt vorberechnete Physik-Animationen von dynamisch berechneten zu unterscheiden.

Natürlich kann man das als Argument dafür anführen, dass man GPU-Physik nicht braucht. Aber das ist kurzsichtig. Wir sind in einem Zwischenstadium der Entwicklung, je stärker die Rechenleistung ist, desto dynamischer und vollständiger kann die Gesamtumgebung simuliert werden und damit realistisch dargestellt werden, ohne dass der Programmierer jeden Pfurz vorher vorsehen und scripten muss. Natürlich stellt das auch ganz neue Ansprüche an das Spieldesign, aber eventuell reden wir dann ja auch gar nicht mehr von Spielen sondern von Welt-Simulationen.

.


Das ist genau der logikfehler der oft begangen wird, wenn man für GPU Physik argumentiert.
Für das spielerlebnis ist in aller regel belanglos ob details physiktechnisch richtig dargestellt werden. Nehmen wir das auf dem boden zerspringende glas. Ob jetzt physikalisch korrekt die flugbahn jedes einzelnen sichtbaren oder insichtbaren splitters berechnet wird, oder ob dies grob gescripted über einen random mechanismus geschieht wird der betracheter nicht wahrnehmen und es wird auch kein tieferes realistischeres spielgefühl geben. Warum? weil wir solche details eben auch im realen leben nicht so detailiert wahrnehmen. Wenn das glas am boden zerspringt, sehen wirs zerspringen und die splitter in für uns zufällig erscheinende richtungen fliegen. Wie wenig wir !reale! physik! wahrnehmen (und somit auch als real erkennen können) hat jeder schon erlebt wenn ihm mal etwas (zum beispiel eine münze) runtergefallen ist und er minuten damit verbringt diese selbst in einem raum überschaubarer grösse zu finden (unter welchen schrank ists denn jetzt gekullert? und warum überhaupt in die gegenüberliegende seite des raumes?) Auch verbringt im regelfall niemand in einem gespräch mit seinem gegenüber das real physikalisch sich im wind bewegende Haar locke für locke zu betrachten. Man nimmt den gesamteindruck als realistisch wahr. und genau das kann man auch gescriptet tun ohne sehr viel rechenzeit auf physikalisch genaue berechnung zu verschwenden.
Ums kurz zu machen:
Physikalisch reale darstellung ist nur da wichtig, wo wir aus alltäglicher erfahrung eine genau erwartungshaltung haben, wie dieser gegenstand im realen leben sich verhält, heisst also beispielsweise der korrekte abbprallwinkel eines balles den ich gegen die wand werfe. Bei anderen dingen ist es für das spiel auch für das spielerleben absolut belanglos.
Ums plastisch auszudrücken: zeige ich dir die zerspringende Glas szene einmal gut gescriptet, einmal mit realistischer physik, wirst du niemals den unterschied erkennen ohne hilfe.
Den rechenaufwand den man also für quasi nicht wahrnehmbare realität aufbringt, kann man wesentlich besser für andere berechnungen ausgeben die in jedem fall ein realeres erlebnis ergeben. Beispielsweise also für höhere polygonenzahl oder bessere gesichtsmimik etc.

LovesuckZ
2010-04-08, 00:35:33
Wenn Effektphysik überflüssig wäre, dann ist es auch Effektgrafik. Da Grafik generell nur für Effekte vorhanden ist, ist 3D Grafik demnach komplett überflüssig. Das führt zu der Frage: Wie sich dedizierte 3D Karten überhaupt durchsetzen konnten.

Marc-
2010-04-08, 00:50:13
Wenn Effektphysik überflüssig wäre, dann ist es auch Effektgrafik. Da Grafik generell nur für Effekte vorhanden ist, ist 3D Grafik demnach komplett überflüssig. Das führt zu der Frage: Wie sich dedizierte 3D Karten überhaupt durchsetzen konnten.
es wäre sehr sehr schön wenn du bitte durchliest, verstehst, dann antwortest auf beiträge.
Und nicht reflexartig: Ngativäusserung, schlagwort suchen, dummfug antworten der mit dem posting nix zu tun hat.
Ich hab extra versucht mit beispielen zu untermalen was ich meine (was dir um übrigen auch jeder bestätigen kann der ansatzweise was mit wahrnehmungslehre zu tun hat, jeder der also beispielsweise kreativ in der werbebranche zu tun hat. Ich hab mir das nunmal nicht ausgedacht, sondern das sind simple fakten die jeder für sich selbst nachstellen kann.

mapel110
2010-04-08, 00:57:14
Marc, gescriptet sieht aber immer gleich aus, auch mit ein paar Zufallswerten wird das einem sehr schnell im Spielverlauf auffallen. Mit einer komplexeren Berechnung sollte es theoretisch fast immer anders aussehen.
Beispielsweise Sterbeanimationen, sehen mit Ragdoll auch sehr abwechslungsreich aus, obwohl man meinen könnte, 4-5 Sterbeanimationen würden vielleicht reichen. Sie reichen eben nicht.

Man kann das auch mit Lightmaps vergleichen. Sieht am Anfang toll aus, aber wenn dann wie bei HL2 nur eine Lichtquelle berücksichtigt wird, kriegt man schnell das Kotzen bei völlig falschen Schatten sobald eigentlich 2 Lichtquellen vorhanden sein sollten.

LovesuckZ
2010-04-08, 01:06:34
es wäre sehr sehr schön wenn du bitte durchliest, verstehst, dann antwortest auf beiträge.
Und nicht reflexartig: Ngativäusserung, schlagwort suchen, dummfug antworten der mit dem posting nix zu tun hat.
Ich hab extra versucht mit beispielen zu untermalen was ich meine (was dir um übrigen auch jeder bestätigen kann der ansatzweise was mit wahrnehmungslehre zu tun hat, jeder der also beispielsweise kreativ in der werbebranche zu tun hat. Ich hab mir das nunmal nicht ausgedacht, sondern das sind simple fakten die jeder für sich selbst nachstellen kann.

Für das spielerlebnis ist in aller regel belanglos ob details physiktechnisch richtig dargestellt werden.

Es gibt keinen Unterschied zwischen Grafik und Effektphysik. Wer Effektphysik als "belanglos" abstempelt, muss es zwangsläufig auch mit (3D) Grafik tun. Denn 3D will nichts anderes als unsere Welt nachstellen.
Das man dich aber nicht über (3D) Grafik im selben Maße meckern hört, führt dein Postings dagegen komplett ins belanglose.

Labberlippe
2010-04-08, 01:07:42
Wenn Effektphysik überflüssig wäre, dann ist es auch Effektgrafik. Da Grafik generell nur für Effekte vorhanden ist, ist 3D Grafik demnach komplett überflüssig. Das führt zu der Frage: Wie sich dedizierte 3D Karten überhaupt durchsetzen konnten.

Hi

Wenn es so weiter geht das Browsergaming (hässliches Wort) oder Online Casinos, poker, Schnapsen etc etc sich stärker durchsetzten, dann sind Pc Spiele in Zukunft nur noch eine Nischengruppe und die Ports werden uns weiter "belästigen".
Da ist es ehrlich gesagt in Zukunft wurst ob die Hersteller auf propitäre Technik setzen oder nicht.

Den meisten reicht eine durchschnittliche Graka aus damit die deren Poker etc spielen können und der Trend wird noch weiter gehen.

Gruss Labberlippe

Marc-
2010-04-08, 01:11:27
Marc, gescriptet sieht aber immer gleich aus, auch mit ein paar Zufallswerten wird das einem sehr schnell im Spielverlauf auffallen. Mit einer komplexeren Berechnung sollte es theoretisch fast immer anders aussehen.
Beispielsweise Sterbeanimationen, sehen mit Ragdoll auch sehr abwechslungsreich aus, obwohl man meinen könnte, 4-5 Sterbeanimationen würden vielleicht reichen. Sie reichen eben nicht.

Man kann das auch mit Lightmaps vergleichen. Sieht am Anfang toll aus, aber wenn dann wie bei HL2 nur eine Lichtquelle berücksichtigt wird, kriegt man schnell das Kotzen bei völlig falschen Schatten sobald eigentlich 2 Lichtquellen vorhanden sein sollten.

es ist richtig was du sagst generell.
Nur wir wissen beide welches die wirklich fressenden GPU Physiks fordernden effekte sind: Viele Partikel die sich gleichzeitig real bewegen. Nur dafür braucht man eigentlich dies.
Die frage an dich jetzt: Glaubst du im ernst du wirst dieses (beispiel zerspringendes glas) im spiel tatsächlich erkennen koennen, ob es real oder unter gescripteten Randbedingungen randomized wird? Ich bezweifle dies. Und selbst wenn du es bei genauester beachtung sehen könntest... wird dir dies IM Spielverlauf auffallen? Wohl nur wenn das spiel so grotte ist das es garnix sonst im spiel zu sehen ist.
nochmal: es macht sehr wohl sinn visuell relevante dinge physikalisch korrekt zu berechnen. aber eben genau diese xtausend partiikel eben nicht. und auch für abwechslungsreiche ragdolls brauchst du kein GPU Physiks. Beispiel ragdolls: hier kann man sehr viel durch gespriptete teil bewegungsabläufe machen die randomised werden. hier kann auch viel kombiniert werden... beispielsweise physikalisch korrekte auswertung einschlagsrichtung und wucht eines geschosses beispielsweise, dadurch bedingt korrekte bewegungsrichtung und geschwindigkeit des torsos... und der eigentliche ragdoll randomised gescripted .

Marc-
2010-04-08, 01:14:23
Es gibt keinen Unterschied zwischen Grafik und Effektphysik. Wer Effektphysik als "belanglos" abstempelt, muss es zwangsläufig auch mit (3D) Grafik tun. Denn 3D will nichts anderes als unsere Welt nachstellen.
Das man dich aber nicht über (3D) Grafik im selben Maße meckern hört, führt dein Postings dagegen komplett ins belanglose.
du hast recht.
da beispielsweise mapel meinen post offensichtlich vom grundsatz her richtig verstanden ist, beenden wir beide am besten die diskussion an dieser stelle da entweder du nicht willens bist den Post und die beispiele aufmerksam zu lesen, oder ich nicht fähig mich DIR verständlich auszudrücken. in diesem sinne beende ich das gespäch mit dir und *plonke* dich fürs erste.
hf.

AwesomeSauce
2010-04-08, 01:15:13
Den meisten reicht eine durchschnittliche Graka aus damit die deren Poker etc spielen können und der Trend wird noch weiter gehen.
Stimmt, nur bist du hier mit dieser Einstellung im falschen Forum:rolleyes:

Labberlippe
2010-04-08, 01:20:39
Stimmt, nur bist du hier mit dieser Einstellung im falschen Forum:rolleyes:


Hi

Klar, soweit kommts noch das ich hier abziehen soll weil ich eine andere Einstellung habe.

:D

Gruss Labberlippe

LovesuckZ
2010-04-08, 01:23:24
du hast recht.
da beispielsweise mapel meinen post offensichtlich vom grundsatz her richtig verstanden ist, beenden wir beide am besten die diskussion an dieser stelle da entweder du nicht willens bist den Post und die beispiele aufmerksam zu lesen, oder ich nicht fähig mich DIR verständlich auszudrücken. in diesem sinne beende ich das gespäch mit dir und *plonke* dich fürs erste.
hf.

Gut. Ich habe kein Problem damit, dass jemand nur gegen Effektphysik ist, weil nVidia es durchdrückt. :)
Daher noch viel Spaß gegen Effektphysik in Form von PhysX zu wettern und dabei 3D Grafik vollkommen zu ignorieren, was den selben Zweck erfüllt. :freak:


Hi

Wenn es so weiter geht das Browsergaming (hässliches Wort) oder Online Casinos, poker, Schnapsen etc etc sich stärker durchsetzten, dann sind Pc Spiele in Zukunft nur noch eine Nischengruppe und die Ports werden uns weiter "belästigen".
Da ist es ehrlich gesagt in Zukunft wurst ob die Hersteller auf propitäre Technik setzen oder nicht.

Den meisten reicht eine durchschnittliche Graka aus damit die deren Poker etc spielen können und der Trend wird noch weiter gehen.

Gruss Labberlippe

Ich habe damit kein Problem. Denn Grafik ist - und da stimme ich den Marc- Typen zu - ebenfalls vollkommen belanglos. Spielen ist ein Hobby. Und es muss eben zum Großteil spaß machen.
Fakt ist jedoch: Je realer Spiele aussehen, umso realer muss auch die Umgebung sein. Und das geht nur über Effektphysik. Die Masse eines Tisches sollte nachdem zerstören halbwegs vorhanden bleiben. Heutzutage verschwindet er oder zerfällt in ein paar Teile. Das ist unrealistisch.

Mr. Lolman
2010-04-08, 03:55:12
Batman ist sehr wohl ein gutes Beispiel, dass PhysX auch in recht unoptimierter Weise brauchbar auf CPUs laufen könnte. Klar man setzt die Iterationen auf 1 runter, aber der negative Effekt dadurch ist minimal. Gerade die Rauchdarstellungen sind perfekt. Probleme gabs nur bei dem einen Bosskampf, der die halbe Bude zerlegt hat. Mit ein paar LOD-Anpassungen würd das auch laufen.

Wenn man sich jetzt überlegt, was mit PhysX möglich wär, wenn man die vorhandene CPU-Leistung vernünftig ausreizen wollen würde (und damit mein ich nicht nur die fehlende Multicoreunterstützung bei dem Batman-Hack)...

V2.0
2010-04-08, 07:10:01
ganz toll. Und auch schon mal ein paar Schritte weiter gedacht ? was würde wohl passieren wenn ati lizensieren würde ? mal sehen, alle wären glücklich und physix würde sich bei den spieleherstellern durchsetzen. wenn es dann soweit ist, wird nv physix dahingehend "optimieren", dass es auf der eigenen hardware besser läuft und der / die lizenznehmer haben das nachsehen, da er keinen einfluß auf die weitere entwicklung von physix hat.

mal ´ne einfache frage: wenn du ati wärst, würdest du jetzt physix lizensieren ?

Nein, natürlich nicht. Havok hilft mir auch bei den CPUs (di AMd ja auch verkaufen möchte) und es ist im Grakamarkt praktisch, dass sich GPU Physik nicht durchsetzt, da es der Konkurrenz schadet. Abgesehen davon darf man NV aus den von Dir genannten Gründen absolut nicht trauen.

Mir ging es auch nur darum, dass die gegenwärtige Situation existiert weil alle beteiligten Firmen primär ihre eigenen Interessen verfolgen. Jeder könnte das Problem lösen, aber keiner will.

Grestorn
2010-04-08, 08:44:28
Batman ist sehr wohl ein gutes Beispiel, dass PhysX auch in recht unoptimierter Weise brauchbar auf CPUs laufen könnte. Klar man setzt die Iterationen auf 1 runter, aber der negative Effekt dadurch ist minimal. Gerade die Rauchdarstellungen sind perfekt. Probleme gabs nur bei dem einen Bosskampf, der die halbe Bude zerlegt hat. Mit ein paar LOD-Anpassungen würd das auch laufen.

Genau das Gegenteil ist der Fall, Batman und der Hack mit Iteration 1 zeigt perfekt, wieso man Physik mit hoher Rechenleistung braucht.

Mit Iteration 1 werden die Objekte offensichtlich nur einmal beschleunigt und bewegen sich dann immer weiter mit dem selben Impuls ohne weiter mit ihrer Umgebung zu interagieren. Zumindest weisen die Artefakte genau darauf hin und der Name des Parameters weist auch in diese Richtung.

Aber das hat nichts mit moderner Physik zu tun, das können wir schon sehr lange. Ob mit ein paar wenigen großen oder vielen kleinen Objekten, das ändert nur linear etwas am Aufwand.

Physik ist doch dadurch interessant, dass die Objekte miteinander interagieren, sprich etwas passiert, wenn sie aufeinandertreffen. Und genau das schaltest Du mit Iteration = 1 effektiv ab.

Der Aufwand der Berechnung verhält sich dabei ganz ähnlich wie beim Schach: Zu berechnen, welcher Halbzug in einer scheinbar besser Stellung führt (in dem man das Figurenmaterial bewertet), ohne die nachfolgenden Zugmöglichkeiten zu berücksichtigen, ist sehr einfach und schnell zu berechnen. Bringt aber natürlich gar nichts, denn die Antwort des Gegners kann alles ducheinanderwürfeln. Der Aufwand, die Antwortmöglichkeiten des Gegners zu berücksichtigen, also einen zweiten Halbzug zu berechnen, ist schon x^2 (x: Abschätzung der jeweils legalen Zugmöglichkeiten). Jeder Schachspieler weiß, dass 2 Halbzüge gar nichts sind, 5-8 sollten es sein... Und da ist der Aufwand schon x^8. Genau deswegen kommen auch auf modernen Rechnern Schachprogramme immer noch recht schnell an die Grenzen des machbaren.

Und in der Physik ist es ganz genauso. Zu sagen, es reicht doch eine Iterationsstufe zu rechnen wäre, als würde man beim Schach sagen, es reicht doch den ersten Halbzug zu rechnen...

Gast
2010-04-08, 09:13:09
Effekt-Physik ist eine visuelle Spiele-Aufwertung, ebenso wie aufwändige Grafik, und sollte angemessen eingesetzt werden (kein Selbstzweck)! Als Zocker frage ich mich aber: Reichen dazu nicht die ca. 20 GFlops Double Precision eines halbwegs modernen und mittlerweile auch kostengünstigen Quad-Core Kerns in guter Näherung der Realität aus? Muß es hierfür eine Extra-GraKa sein oder muß ich für Effekt-Physik Grafik-Qualität aufgeben? Quad-Cores sind noch immer kaum ausgelastet. Hier hätten wir ein Bsp. für sinnvolle Auslastung mit bald sehr breitflächiger installierter Basis.

Also: Braucht es wirklich eine Extra-Graka für Effektphysik? Muß ich wirklich einen Teil meiner Grafikleistung für Effekt-Physik aufgeben? Den vierten Kern eines mittlerweile Duchschnitts-PCs auszulasten kostet quasi nichts, denn der ist schon vorhanden und liegt brach, aber eine zusätzliche GraKa bzw. extra High-End für Effekt-Physik und High-Einstellungen zu kaufen, finde ich überzogen.

Grestorn
2010-04-08, 09:18:16
Physik in Spielen ist genauso wichtig oder unwichtig wie jede andere Technik, die das Erlebnis näher an die Realität bringen soll, sprich der "Suspension of Disbelief" dient.

Ich halte es für recht nutzlos darüber zu diskutieren, ob man das braucht oder nicht. Natürlich braucht man es nicht, genauso wenig, wie jede andere Technik, die das selbe Ziel verfolgt (Beleuchtung, realistische Animation, gute Texturen, Displacement Mapping, Tesselation, Anti-Aliasing, Wettereffekte usw. usf.).

All das braucht man nicht wirklich...

Eine Extra-Karte sollte man für die Physik übrigens in der Tat nicht brauchen. Ich spiele Batman ja jetzt auch mit vollen Effekten auf einer Karte (nachdem mir meine zweite 280 abgeraucht ist).

Gast
2010-04-08, 09:55:53
Ich spiele Batman ja jetzt auch mit vollen Effekten auf einer Karte (nachdem mir meine zweite 280 abgeraucht ist).

Das sagt viel über die Qualität dieser Grafikkarten aus.

Gast
2010-04-08, 10:30:06
- Physik: Beschreibung der Naturgesetze

- Effekte (allgemein): Spiegelungen, Schatten, Partikel, Impuls, Lichteffekte, etc.

- Effekte physikalisch korrekt dargestellt

- Effekte die auch physikalisch korrekt dargestellt werden, aber immer auf die gleiche Weise ablaufen (egal wie z. B. der Winkel und die Bahn einer Kugel verlaufen).

- Effekte die physikalisch nicht oder nicht ganz korrekt dargestellt werden und immer auf die gleiche Weise ablaufen.


Der Ansatz den Marc- gewählt und beschrieben hat ist der der auch der Realität entspricht. Wer von uns kann z. B. bei der Scene mit der Fahne in Batman sagen wie sich die Fahne wirklich verhält, wenn ein Wurfmesser auf diese auftrifft. Oder wie sich der Nebel verwirbelt, wenn Batman in diesen eintaucht. Das einzige was für den Betrachter wichtig ist und zählt, ist die Wahrnehmung als "realistisch" oder "echt".

Klar wird jetzt der ein oder andere sagen beim zweiten oder dritten mal durchspielen fällt einem das auf. Aber ob das den Rechenaufwand rechtfertigt muss erst die Zukunft zeigen.
Bisher wird aber nur gezeigt, dass Effekte weggelassen werden können wenn man das Skript durch PhysiX ersetzt. -.-

Grestorn
2010-04-08, 12:29:17
Das Problem ist die Dynamik. Wenn alles geskriptet ist, geht halt nur das, was vom Designer vorgesehen ist, sonst nichts. Das schränkt das Spiel schon sehr ein.

DrFreaK666
2010-04-08, 13:29:07
Physik in Spielen ist genauso wichtig oder unwichtig wie jede andere Technik, die das Erlebnis näher an die Realität bringen soll, sprich der "Suspension of Disbelief" dient.

Ich halte es für recht nutzlos darüber zu diskutieren, ob man das braucht oder nicht. Natürlich braucht man es nicht, genauso wenig, wie jede andere Technik, die das selbe Ziel verfolgt (Beleuchtung, realistische Animation, gute Texturen, Displacement Mapping, Tesselation, Anti-Aliasing, Wettereffekte usw. usf.).

All das braucht man nicht wirklich...

Eine Extra-Karte sollte man für die Physik übrigens in der Tat nicht brauchen. Ich spiele Batman ja jetzt auch mit vollen Effekten auf einer Karte (nachdem mir meine zweite 280 abgeraucht ist).

Ich würde sogar eine zweite Karte dafür kaufen.
Darf aber nicht :frown:
@Grestorm: Weisst du ob eine 9600GT in einem PCI-1x-Slot für PhysX ausreicht?

Grestorn
2010-04-08, 14:13:39
Ich denke schon. Ausprobiert habe ich es aber nicht.

Gast
2010-04-08, 14:17:32
Ich denke schon. Ausprobiert habe ich es aber nicht.

Nein reicht nicht, bei Batman@PhysX-max kriegt man nur grad so flüssige Frameraten hin.

DrFreaK666
2010-04-08, 14:19:54
Nein reicht nicht, bei Batman@PhysX-max kriegt man nur grad so flüssige Frameraten hin.

geht das auch genauer??

Grestorn
2010-04-08, 14:31:32
Nein reicht nicht, bei Batman@PhysX-max kriegt man nur grad so flüssige Frameraten hin.

Also, dann reicht es doch (grad so).

Gast
2010-04-08, 18:07:49
Und hier kommen wir wieder zur Grundfrage zurück: Wieso hat es niemand getan?

Ich vermute aus finanziellen Gründen. Wie immer eben in der Wirtschaft. Und damit will ich niemandem was unterstellen :>

Es sieht eben nicht nach "Wir bauen das Spiel schönst möglich und jede weitere Möglichkeit ist ein i-Tüpfelchen" aus, sondern eher nach "Wenn wir PhysX gut aussehen lassen haben wir davon Vorteile". Welcher Art auch immer die sein mögen.
Aus Spielersicht doppelt blöd. Erstmal siehts für non-PhysX-User nicht gut aus. Zweitens hätten PhysX-User wahrscheinlich sogar noch mehr davon, da man ja wieder einen größeren optischen Abstand erzeugen muss ^^

Gast
2010-04-09, 08:23:56
Genau das Gegenteil ist der Fall, Batman und der Hack mit Iteration 1 zeigt perfekt, wieso man Physik mit hoher Rechenleistung braucht.

Mit Iteration 1 werden die Objekte offensichtlich nur einmal beschleunigt und bewegen sich dann immer weiter mit dem selben Impuls ohne weiter mit ihrer Umgebung zu interagieren. Zumindest weisen die Artefakte genau darauf hin und der Name des Parameters weist auch in diese Richtung.

Aber das hat nichts mit moderner Physik zu tun, das können wir schon sehr lange. Ob mit ein paar wenigen großen oder vielen kleinen Objekten, das ändert nur linear etwas am Aufwand.

Physik ist doch dadurch interessant, dass die Objekte miteinander interagieren, sprich etwas passiert, wenn sie aufeinandertreffen. Und genau das schaltest Du mit Iteration = 1 effektiv ab.

Der Aufwand der Berechnung verhält sich dabei ganz ähnlich wie beim Schach: Zu berechnen, welcher Halbzug in einer scheinbar besser Stellung führt (in dem man das Figurenmaterial bewertet), ohne die nachfolgenden Zugmöglichkeiten zu berücksichtigen, ist sehr einfach und schnell zu berechnen. Bringt aber natürlich gar nichts, denn die Antwort des Gegners kann alles ducheinanderwürfeln. Der Aufwand, die Antwortmöglichkeiten des Gegners zu berücksichtigen, also einen zweiten Halbzug zu berechnen, ist schon x^2 (x: Abschätzung der jeweils legalen Zugmöglichkeiten). Jeder Schachspieler weiß, dass 2 Halbzüge gar nichts sind, 5-8 sollten es sein... Und da ist der Aufwand schon x^8. Genau deswegen kommen auch auf modernen Rechnern Schachprogramme immer noch recht schnell an die Grenzen des machbaren.

Und in der Physik ist es ganz genauso. Zu sagen, es reicht doch eine Iterationsstufe zu rechnen wäre, als würde man beim Schach sagen, es reicht doch den ersten Halbzug zu rechnen...


So ein Stuss. In der Form könnte man ja auch argumentieren, dass alle Detailstufensettings <max unnötig sind. Du forderst nämlich gerade entweder volle Detaildarstellung oder garkeine. Mein Zugang ist, dass man leute mit schwächeren Systemen per se nicht ausschliessen sollte. Bei den Spieledetails klappt das ja auch ganz gut. Nur bei PhysX muss wohl alles dargestellt werden, oder wie? Da ist garkein Rauch wohl besser als bloß 1-fach iterierter (der optisch genau überhaupt keinen Unterschied zum 5-fachen zeigt!), oder wie?
Und garkeine Partikeleffekte sind wohl besser, als wenigstens ein paar?

Da spricht wohl die Arroganz des Überflusses aus dir.


Ich bleib dabei, dass NV jedem (sich selbst auch) einen Gefallen tun würde, wenn man CPU-PhysX auch halbwegs ordentlich unterstützen würde. Volle Details gibts halt nur mit GPU-PhysX, das detailschwächere CPU-PhysX würde wohl aber schon reichen um die Leute anzufixen - und zu zeigen: "Hey mit ordentlicher HW würd das alles noch besser aussehen"

Momentan ists eher so: "Ätsch, ihr nicht NV User dürft div. Details nicht sehen, weil wir in einer Position sind, wo wir den ISVs mit geschenktem Code indirekt vorschreiben können, wie weit der Spielgenuss bei Nutzern der Konkurrenz reichen darf."


Und was das TWIMTBP Programm anrichtet sieht man ja auch bei Crysis. Da erscheint nach >1 Jahr nach dem Release ein Treiber, der nicht nur die Schattendarstellung verbessert, sondern auch die Performance derselbigen erhöht - was ja eindeutig den Schluß zulässt, dass die bisherige Schattenimplementation zwar für NV optimal war (kein Wunder bei 7000 Mannstunden Programmierarbeit die NV in Crysis gesteckt hat), aber bei ATi viel Spielraum für Verbesserungen offen gelassen hat.

Wenn ATi nun mit gleicher Intensität anfangen würde ihr eigenes TWIMTBP-Programm durchzuziehen, führt das zur gleichen Situation, wie schon vor 10 Jahren, wo für jede API ein eigener Pfad programmiert wurde. Ist das etwa wünschenswert?

Grestorn
2010-04-09, 08:39:42
So ein Stuss. In der Form könnte man ja auch argumentieren, dass alle Detailstufensettings <max unnötig sind. Du forderst nämlich gerade entweder volle Detaildarstellung oder garkeine.

Das habe ich doch gar nicht gesagt. Lerne lesen.

Ich habe nur gesagt, dass die Einstellung "1" nonsense ist. Das wäre, als ob man mit 320x200 spielt und sich freut, dass sogar eine FX5200 noch spielbare Frameraten liefert.

Da ist garkein Rauch wohl besser als bloß 1-fach iterierter (der optisch genau überhaupt keinen Unterschied zum 5-fachen zeigt!), oder wie?
Und garkeine Partikeleffekte sind wohl besser, als wenigstens ein paar?Natürlich hätte man den Rauch auch deutlich vereinfacht ohne auf GPU-PhysX zurückgreifen zu müssen simulieren können. Das habe ich nie bestritten. Hier wurde aber die Notwendigkeit von GPU-Physik komplett in Frage gestellt, das ist das andere Extrem, gegen dass ich argumentiert habe.

Da spricht wohl die Arroganz des Überflusses aus dir. Wie Du darauf kommst ist mir zwar nicht klar, ich würde eher sagen, aus Deinem Posting spricht der Zorn des Neides. Jedenfalls habe ich mir jedes Stück Hardware, das ich mir leiste, auch mit eigener Arbeit verdient. Und ich kann in den Spiegel schauen, ohne das schlechte Gewissen, irgendjemand um den Lohn seiner Arbeit betrogen zu haben (nicht, dass ich Dir das unterstelle, um gleich Missverständnisse auszuschließen).

Ich bleib dabei, dass NV jedem (sich selbst auch) einen Gefallen tun würde, wenn man CPU-PhysX auch halbwegs ordentlich unterstützen würde.

Das ist die Aufgabe des Spieleherstellers, nicht die von nVidia. Wenn nVidia die Physik in einem Spiel aus eigener Tasche finanziert, dann ist doch klar, dass sie das mit dem größt möglichen Werbeeffekt verbinden, was ist daran so ungewöhnlich?

Und was das TWIMTBP Programm anrichtet sieht man ja auch bei Crysis. Da erscheint nach >1 Jahr nach dem Release ein Treiber, der nicht nur die Schattendarstellung verbessert, sondern auch die Performance derselbigen erhöht - was ja eindeutig den Schluß zulässt, dass die bisherige Schattenimplementation zwar für NV optimal war (kein Wunder bei 7000 Mannstunden Programmierarbeit die NV in Crysis gesteckt hat), aber bei ATi viel Spielraum für Verbesserungen offen gelassen hat.

Ein TREIBER-Update. Also hat entweder was im Treiber geklemmt, wofür ja Crysis nichts kann, oder, wie man in diesem Fall ja auch nachgewiesen hat, cheatet ATI hier einfach (massive Einsparungen beim AF). Aber natürlich ist wie immer an allem übel nVidia schuld, ich weiß.

Wenn ATi nun mit gleicher Intensität anfangen würde ihr eigenes TWIMTBP-Programm durchzuziehen, führt das zur gleichen Situation, wie schon vor 10 Jahren, wo für jede API ein eigener Pfad programmiert wurde. Ist das etwa wünschenswert?Das ist leider heute schon so, weil die Treiber einfach viel zu viele Workarounds und Spezialanpassungen benötigen. Warum meinst Du denn, dass Spiele immer wieder schlecht auf bestimmten Treibern laufen und danach gepatcht werden müssen?

Gast
2010-04-09, 09:12:40
Effekt-Physik ist eine visuelle Spiele-Aufwertung, ebenso wie aufwändige Grafik, und sollte angemessen eingesetzt werden (kein Selbstzweck)! Als Zocker frage ich mich aber: Reichen dazu nicht die ca. 20 GFlops Double Precision eines halbwegs modernen und mittlerweile auch kostengünstigen Quad-Core Kerns in guter Näherung der Realität aus? Muß es hierfür eine Extra-GraKa sein oder muß ich für Effekt-Physik Grafik-Qualität aufgeben? Quad-Cores sind noch immer kaum ausgelastet. Hier hätten wir ein Bsp. für sinnvolle Auslastung mit bald sehr breitflächiger installierter Basis.

Also: Braucht es wirklich eine Extra-Graka für Effektphysik? Muß ich wirklich einen Teil meiner Grafikleistung für Effekt-Physik aufgeben? Den vierten Kern eines mittlerweile Duchschnitts-PCs auszulasten kostet quasi nichts, denn der ist schon vorhanden und liegt brach, aber eine zusätzliche GraKa bzw. extra High-End für Effekt-Physik und High-Einstellungen zu kaufen, finde ich überzogen.

In die Zukunft gedacht gebe ich dir absolut recht.
Dann wenn jeder mindestens einen Quadcore (oder mehr Kerne) daheim herumstehen ist deine Argumentation absolut einleuchtend. Aber auch wirklich erst dann. Richtig ist, dass es auch in Zukunft kaum gelingen wird, alle CPU-Kerne sinnvoll auszulasten.

Wir sind aber noch lange nicht so weit! Wer mit einem Single- oder Dualcore unterwegs ist benötigt heute zwingend GPU-berechnete Physik. 2 CPUs reichen hierfür nicht. Dank dem Vorlauf durch Intels HT werden Dualcores heutzutage relativ sinnvoll ausgenutzt und von unzähligen Anwendungen unterstützt. Hier Rechenleistung für Physik abzuzweigen wäre ein grober Fehler.

Fest steht je höher die durchnschnittliche Kernanzahl wächst, desto sinnvoller ist die Ausführung von PhysX auf den "überzähligen" selbigen!

Und schaut euch doch mal an, was aus Havok geworden ist. Nichts! Bisher ein absoluter Rohrkrepieren (nicht technisch - aber was die Realisierung am Markt anbelangt).
PhysX ist hier dank des enormen pushens durch NVidia längst über diesen Status hinaus gekommen.

Seien wir doch einfach froh, dass wir Momentan überhaupt wieder eine Entwicklung im Physikbereich haben! Wohin die Reise weiter geht und ob auf GPU oder CPU ist doch erstmal scheißegal.

PS:
Was kann ich dafür, wenn ihr Dödel euch Quadcores und ATI-Karten kauft. :ulol:

DrFreaK666
2010-04-09, 10:08:36
Könnt hier jemand mit einer 9600GT als Zweitkarte testen ob diese für hohe Physik-Details reicht.
Danke :)

dllfreak2001
2010-04-09, 11:06:15
Finde schon komisch was hier geschrieben wird.

Effektphysik ist ein pervertierter Begriff erfunden von PhysX-Anbetern, was ihr meint sind physikalisch korrekt berechnete Partikeleffekte und das ist es was HW-PhysX ausmacht, eine Ansammlung von Partikeleffekten.

Eine geskriptete Physik gibt es nicht, dass nennt man wohl eher Animation.

Auch PhysX vereinfacht vieles, so interagieren die Partikel und Debris-Stücke nicht mit der Umgebung.

-Meine Meinung-

TheBrother
2010-04-20, 09:45:59
Um mal wieder ein wenig Zündstoff in die ATI <-> Nvidia Diskussion zu bekommen:

Unwinder (der Macher von Rivatuner und Derivate) über verschiedene Policies von Nvidia und Ati:

http://forums.guru3d.com/showpost.php?p=3544360&postcount=7

Long Story Short: Nvidia kümmert sich halt um Treiber / APIs / Games / Kompatibilität - ATI/ AMD interessierts überhaupt nicht.

TheBrother
2010-04-20, 09:47:31
Könnt hier jemand mit einer 9600GT als Zweitkarte testen ob diese für hohe Physik-Details reicht.
Danke :)

Hab ich schon seit einiger Zeit:
für die meisten Games reichts vollkommen, bei Dark Void wirds Eng.

Gruß

Brother

Gast
2010-04-20, 10:01:25
Kauft ihr eigentlich alle PhysX-Spiele, ich höre in letzter Zeit so oft Dark Void, dabei ist das Spiel nur durchschnittlich gut.

Gast
2010-04-20, 10:01:40
Um mal wieder ein wenig Zündstoff in die ATI <-> Nvidia Diskussion zu bekommen:


Alleine die Absicht müsste 3 Wochen Ban geben.

Gast
2010-04-20, 10:06:40
Kauft ihr eigentlich alle PhysX-Spiele, ich höre in letzter Zeit so oft Dark Void, dabei ist das Spiel nur durchschnittlich gut.

Das war ein Ultraflop auf dem PC; keine 2 Monate nach erscheinen war es bereits ein Budget Titel.

N0Thing
2010-04-20, 10:30:36
Um mal wieder ein wenig Zündstoff in die ATI <-> Nvidia Diskussion zu bekommen:

Unwinder (der Macher von Rivatuner und Derivate) über verschiedene Policies von Nvidia und Ati:

http://forums.guru3d.com/showpost.php?p=3544360&postcount=7

Schon schwach von ATI, was die eigene API zum auslesen von Daten angeht (ADL), ebenso die Informationspolitik. Hätten sie ja direkt Anworten können, daß sie in diesem Bereich keinen Support anbieten.

Wenn man den Kartenherstellern das Geschäft mit übertakteten Karten erleichtern wollte, hätte man das ja auch noch verstehen können (ohne es gut finden zu müssen).

Long Story Short: Nvidia kümmert sich halt um Treiber / APIs / Games / Kompatibilität - ATI/ AMD interessierts überhaupt nicht.

Aus den Beiträgen im Guru3D und Lavalys kann man eher sagen: Nvidia kümmert sich sehr gut um die eigenen APIs und 3rd Party Anbieter, AMD deutlich schlechter bis gar nicht.

TheBrother
2010-04-20, 10:34:20
Gleiche Aussage, nur viel diplomatischer ausgedrückt ;)

Ich hab's halt echt Satt das z.B. das TWIMTBP Programm als Grosse Verschwörung hingestellt wird, nur weil AMD dort kein oder weniger Geld investieren will.

Gast
2010-04-20, 10:38:52
Gleiche Aussage, nur viel diplomatischer ausgedrückt ;)

Ich hab's halt echt Satt das z.B. das TWIMTBP Programm als Grosse Verschwörung hingestellt wird, nur weil AMD dort kein oder weniger Geld investieren will.

Genau, kannst noch einiges lernen von ihm.
Dein geliebtes TWIMTBP macht Dir keiner madig, bloß empfindet der geneigte Fan jegliche Kritik an seinem Heiligtum als Angriff.

Gast
2010-04-20, 11:19:13
Gleiche Aussage, nur viel diplomatischer ausgedrückt ;)

Ich hab's halt echt Satt das z.B. das TWIMTBP Programm als Grosse Verschwörung hingestellt wird, nur weil AMD dort kein oder weniger Geld investieren will.

AMD soll in TWIMTBP investieren ???
Denken - Dann Schreiben !

So wird die intension sofort sichtbar !

Gast
2010-04-20, 11:47:31
Naja, AMD hat versprochen sich zu bessern, schauen wir mal.

Schlammsau
2010-04-20, 11:48:53
Es ist allseits bekannt, dass AMD/ATi weniger Resourcen, für die Unterstützung von Spielehersteller bereitstellt. Wahrscheinlich wohl wegen dem begrenzten finanziellen Spielraum.

san.salvador
2010-04-20, 11:50:21
AMD soll in TWIMTBP investieren ???
Denken - Dann Schreiben !

So wird die intension sofort sichtbar !
Er meint sicher AMDs eigenes Programm (falls da überhauopt irgendwas existiert).
Und: Intention != Intension
Auch Trollen will gelernt sein.

y33H@
2010-04-20, 12:35:54
@ Schlammsau

Selbst als Ati noch Ati war und zu Zeiten der 9700/9800 Pro und X19x0, als die "Roten" vorne lagen war dem nicht so. NV ist seit x Jahren in Front was den Dev-Support anbelangt.

Bucklew
2010-04-20, 12:41:15
http://forums.guru3d.com/showpost.php?p=3544360&postcount=7

Long Story Short: Nvidia kümmert sich halt um Treiber / APIs / Games / Kompatibilität - ATI/ AMD interessierts überhaupt nicht.
Statt den Support zu verbessern bezahlt man halt einen Huddy, der überall Bullshit ablässt. DAS ist wirklich traurig. Die sollen den rauswerfen und dafür 1, wahrscheinlich 2, Softwareentwickler für dev-support holen, wäre mehr mit geholfen!

Aber fanATIsm ist gut ;D

Gast
2010-04-20, 12:49:10
@ Schlammsau

Selbst als Ati noch Ati war und zu Zeiten der 9700/9800 Pro und X19x0, als die "Roten" vorne lagen war dem nicht so. NV ist seit x Jahren in Front was den Dev-Support anbelangt.

Hat man damals aber im Gegensatz zu NV auch nicht gebraucht um vernünftige Ware zu liefern.

Exxtreme
2010-04-20, 12:55:20
@ Schlammsau

Selbst als Ati noch Ati war und zu Zeiten der 9700/9800 Pro und X19x0, als die "Roten" vorne lagen war dem nicht so. NV ist seit x Jahren in Front was den Dev-Support anbelangt.
Mag ja richtig sein. Andererseits hängten damals die Spielehersteller nicht am Tropf der Grafikchip-Hersteller. Würde Nvidia den Dev-Support streichen dann würde es wohl kaum noch PC-Spiele geben weil die Spielehersteller wohl dazu gar nicht in der Lage wären sowas herzustellen.

Klingone mit Klampfe
2010-04-20, 13:04:05
One more such statement and you'll get permanent ban for spreading lie because of fanATIsm. I'm getting more that enough insults from both ATI and NVIDIA fanatics when their idol's balls are kicked. Got more tahn enough crap from NVIDIA fanboys when I declared than overclocking is broken in 196.21 WHQL, got more than enought "that's not our perfect NVIDIA drivers, that's third party crap like RivaTuner" from NVIDIA fanboys after declaring that fan control was broken in 196.75.



Unwinder versucht durchaus, neutral zu bleiben - gerade vor dem Hintergrund, dass der Rivatuner ein Universal-Tool ist. Er sagt im Wesentlichen zwei Dinge:


nVidia reagiert schneller auf Anfragen
Die API für Echtzeit-Überwachung ist bei ATI scheinbar lausig programmiert

Und das war's. Das ändert ja nichts daran, dass die Hardware selbst bei beiden Herstellern sehr gut ist.

mrt
2010-04-20, 13:31:55
Liegt auch daran, dass man kein Interesse an Programmen von Drittherstellern hat. Nvidia sieht das eben anders.

Was den Entwicklersupport bei Spielen angeht, jedes Studio bekommt Support von beiden Herstellern wenn sie denn wollen, der Support schaut auch nicht viel anders aus. Einzig Nvidia ging halt schon einen Schritt weiter und hat exklusive Funktionen in die Spiele eingebaut und nein, das ist nicht positiv zu bewerten für den PC als Spieleplatform.
TWIMTBP ist ein Brand, nicht mehr und nicht weniger, sagt höchstens aus, dass man Support bei Nvidia beansprucht hat (deswegen muss das Spiel aber nicht gut auf Nvidia-Karten laufen!) und sich die Marketingabteilung des Publishers/Herstellers für das Logo entschieden hat (zB weil Nvidia die stärkere Marke ist etc pp).
Wenn ihr mir nicht glaubt, dann fragt mal Entwickler, zB Demirug.

Grestorn
2010-04-20, 13:37:58
Ich glaube Dir nicht, da gerade Entwickler, auch Demirug, etwas anderes sagen.

Gast
2010-04-20, 13:48:08
Ich glaube Dir nicht, da gerade Entwickler, auch Demirug, etwas anderes sagen.

Jedes EA Studio bekommt von jedem Hersteller so viel Unterstützung wie es haben will. Ob und welche Logo am Ende auf der Packung und im Vorspann erscheint ist eine Marketing Sache und hat primär mit der Technik nichts zu tun.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7956472&postcount=408

mrt
2010-04-20, 13:48:16
@Grestorn
Frag ihn mal wie das bei EA aussieht. ;)

Edit:
Oha da hat Demi ja mal was dazu geschrieben. Schein ich ja doch keinen Blödsinn zu erzählen...

y33H@
2010-04-20, 13:51:46
Und das war's.Hmmm, mich stört da noch was:
We contacted AMD during implementation of voltage control on 5xxx series in a few weeks prior 5xxx announce [...] All they did was giving some flexible anwers about "probably it is locked in BIOS" or "probably it is not supported for some ASICs" [...] Most of issues reported to ATI never gets investigated and fixed.
NVIDIA themselves contacted all known hardware tool developers prior to launching Fermi [...] Most of issues reported to NV by their partners get investigated and fixed almost immediately after reporting.Unwinder liegt keinesfalls daneben ...

Grestorn
2010-04-20, 13:54:05
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7956472&postcount=408

Jedes Electronic Arts Studio... naja, das glaube ich durchaus.

Gerade die haben das aber auch nicht wirklich nötig.

Gast
2010-04-20, 13:56:04
Jedes Electronic Arts Studio... naja, das glaube ich durchaus.

Gerade die haben das aber auch nicht wirklich nötig.

Du hast behauptet das er etwas anderes sagt. Wo bleibt der Link? Oder nur haltlose Behauptung?

Exxtreme
2010-04-20, 13:58:03
Und das war's.Hmmm, mich stört da noch was:
We contacted AMD during implementation of voltage control on 5xxx series in a few weeks prior 5xxx announce [...] All they did was giving some flexible anwers about "probably it is locked in BIOS" or "probably it is not supported for some ASICs" [...] Most of issues reported to ATI never gets investigated and fixed.
NVIDIA themselves contacted all known hardware tool developers prior to launching Fermi [...] Most of issues reported to NV by their partners get investigated and fixed almost immediately after reporting.Unwinder liegt keinesfalls daneben ...
Klingt für mich eher nach "Unwinder, lass die Finger von unseren Produkten".

y33H@
2010-04-20, 13:59:44
Für mich klingt das nicht danach, aber gut - ich habe da auch andere Einblicke.

Grestorn
2010-04-20, 14:01:39
Du hast behauptet das er etwas anderes sagt. Wo bleibt der Link? Oder nur haltlose Behauptung?

Du hast behauptet, dass er etwas sagt. Wo bleibt der Link? Oder nur haltlose Behauptung?

Ich muss nicht das Gegenteil von Deiner Behauptung beweisen. Das was Du verlinkt hast, war schlicht eine andere Behauptung in einem bestimmten Kontext, eben dass EA einen anderen Support bekommt, als andere Hersteller. Und das ist nicht sonderlich überaschend.

mrt
2010-04-20, 14:01:45
Jedes Electronic Arts Studio... naja, das glaube ich durchaus.

Gerade die haben das aber auch nicht wirklich nötig.
Demi kann aus seiner Erfahrung heraus sprechen, klar dass er als EA-Mitarbeiter von EA spricht. Als kleines Studio bekommt man von beiden nicht den gleichen Support den EA bekommt, das ist wohl auch klar.

Grestorn
2010-04-20, 14:06:19
Demi kann aus seiner Erfahrung heraus sprechen, klar dass er als EA-Mitarbeiter von EA spricht. Als kleines Studio bekommt man von beiden nicht den gleichen Support den EA bekommt, das ist wohl auch klar.

...deswegen haben gerade auch so viele kleine Studios das TWIWMTBP Logo in ihren Produkten...

Gast
2010-04-20, 14:06:19
Du hast behauptet, dass er etwas sagt. Wo bleibt der Link? Oder nur haltlose Behauptung?

Ich muss nicht das Gegenteil von Deiner Behauptung beweisen. Das was Du verlinkt hast, war schlicht eine andere Behauptung in einem bestimmten Kontext, eben dass EA einen anderen Support bekommt, als andere Hersteller. Und das ist nicht sonderlich überaschend.

Der verlinkte Text beschriebt im wesentlichen das was mrt geschrieben hat. Du hast einfach gesagt das stimmt nicht und Demirug würde das auch sagen. Jetzt musst du das natürlich nicht beweisen, schon klar, weil du es nicht kannst. Aber das ist man ja von dir gewöhnt, Hauptsache irgendwas sagen, auch wenn man keine Ahnung hat.

Gast
2010-04-20, 14:06:53
...deswegen haben gerade auch so viele kleine Studios das TWIWMTBP Logo in ihren Produkten...

Ja, NV lässt sich das Marketing viel kosten.

Grestorn
2010-04-20, 14:08:22
Ja, NV lässt sich das Marketing viel kosten.

Man zahlt nicht für das Logo, sondern man bietet Support als Gegenleistung für das Logo. Zumindest das sollte sich inzwischen rumgesprochen haben.

mrt
2010-04-20, 14:09:07
...deswegen haben gerade auch so viele kleine Studios das TWIWMTBP Logo in ihren Produkten...
... und das die Marke deutlich mehr zieht als ATI/AMD hat damit natürlich nichts zu tun... :D
Das Logo ist primär Marketing.

Gast
2010-04-20, 14:10:47
Man zahlt nicht für das Logo, sondern man bietet Support als Gegenleistung für das Logo. Zumindest das sollte sich inzwischen rumgesprochen haben.

Ignorant:

Ob und welche Logo am Ende auf der Packung und im Vorspann erscheint ist eine Marketing Sache und hat primär mit der Technik nichts zu tun.

DrFreaK666
2010-04-20, 14:13:33
Man zahlt nicht für das Logo, sondern man bietet Support als Gegenleistung für das Logo. Zumindest das sollte sich inzwischen rumgesprochen haben.

Damit solche tollen games wie Dark Void oder Darkest of Days GPU-PhysX haben... Das ist doch Verschwendung, oder?
Für die Entwickler ist es natürlich gut, können die doch dann damit werben

Gast
2010-04-20, 14:16:59
Damit solche tollen games wie Dark Void oder Darkest of Days GPU-PhysX haben... Das ist doch Verschwendung, oder?
Für die Entwickler ist es natürlich gut, können die doch dann damit werben

Der ist doch von NV gekauft, was will man da schon erwarten.

mrt
2010-04-20, 14:20:16
Wieso gekauft? Für kleine Entwickler eine gute Möglichkeit sich ins Gespräch zu bringen und für Nvidia ein Spiel mehr mit Logo am Karton, da fließ kein Geld, muss es auch nicht.

DrFreaK666
2010-04-20, 14:22:14
Wieso gekauft? Für kleine Entwickler eine gute Möglichkeit sich ins Gespräch zu bringen und für Nvidia ein Spiel mehr mit Logo am Karton, da fließ kein Geld, muss es auch nicht.

Aber wie sieht es denn aus wenn man GPU-PhysX-Ressourcen bei 60%/70%-Titeln vergeudet?
Gibt genug "größere" Titel, die auch von GPU-PhysX profitieren würden

mrt
2010-04-20, 14:29:06
Weil die Studios von größeren Titel das vielleicht nicht wollen? Weil sie Herstellerunabhängig sein wollen?
Vergeuden ist relativ, es gibt mehr Spiele die GPU-PhyX haben, doch nicht schlecht für Nvidia.

Bucklew
2010-04-20, 14:39:29
Einzig Nvidia ging halt schon einen Schritt weiter und hat exklusive Funktionen in die Spiele eingebaut und nein, das ist nicht positiv zu bewerten für den PC als Spieleplatform.
Also in Zukunft lieber gar kein AA, als bei immerhin 70% der Nutzer? Klingt irgendwie nach Sozialismus...

Klingt für mich eher nach "Unwinder, lass die Finger von unseren Produkten".
Eines der meistgenutzten Dritttools einfach so abstellen? Da darf sich ATI dann ja endgültig nicht mehr beschweren, dass ihre Marktanteile so bescheiden sind.

Ja, NV lässt sich das Marketing viel kosten.
Vorallem in Mannstunden der Devs, ob nun am Treiber selbst oder bei der Unterstützung von ISVs. Angesichts dieser doch sehr interessanten Geschichte kann man den Quatsch von Huddy von wegen PhysX wird nur genutzt weil dafür gezahlt wird, als das abhaken was er ist: Bullshit. Aber das konnte man eigentlich auch schon nachdem man den Namen Huddy gelesen hat ;D

Exxtreme
2010-04-20, 14:57:38
Eines der meistgenutzten Dritttools einfach so abstellen? Da darf sich ATI dann ja endgültig nicht mehr beschweren, dass ihre Marktanteile so bescheiden sind.

Abstellen nicht unbedingt. Aber vielleicht durch Passivität leicht abbremsen damit nicht jedes Kiddie so schnell wie möglich anfängt zu übertakten und die geschrottete Karte dann zurückschickt.

Bucklew
2010-04-20, 15:03:41
Abstellen nicht unbedingt. Aber vielleicht durch Passivität leicht abbremsen damit nicht jedes Kiddie so schnell wie möglich anfängt zu übertakten und die geschrottete Karte dann zurückschickt.
Dachte Overclocking wäre eine Standardfunktion in ATIs eigenem ControlCenter?

N0Thing
2010-04-20, 15:25:19
Damit solche tollen games wie Dark Void oder Darkest of Days GPU-PhysX haben... Das ist doch Verschwendung, oder?
Für die Entwickler ist es natürlich gut, können die doch dann damit werben

Ich fand Darkest of Days ganz gut, nicht so 08/15 wie viele andere Spiele und mit PhysX sieht es dann nochmal etwas hübscher aus.



Was den Entwicklersupport bei Spielen angeht, jedes Studio bekommt Support von beiden Herstellern wenn sie denn wollen, der Support schaut auch nicht viel anders aus. Einzig Nvidia ging halt schon einen Schritt weiter und hat exklusive Funktionen in die Spiele eingebaut und nein, das ist nicht positiv zu bewerten für den PC als Spieleplatform.
TWIMTBP ist ein Brand, nicht mehr und nicht weniger, sagt höchstens aus, dass man Support bei Nvidia beansprucht hat (deswegen muss das Spiel aber nicht gut auf Nvidia-Karten laufen!) und sich die Marketingabteilung des Publishers/Herstellers für das Logo entschieden hat (zB weil Nvidia die stärkere Marke ist etc pp).
Wenn ihr mir nicht glaubt, dann fragt mal Entwickler, zB Demirug.

Ich glaube Dir nicht, da gerade Entwickler, auch Demirug, etwas anderes sagen.

Was sagt Demirug denn zu diesem Thema? Außer seiner Aussage, daß sein Studio von beiden Herstellern gleichwertige Unterstützung bekommt, hab ich nichts mitbekommen.

Exxtreme
2010-04-20, 15:27:41
Dachte Overclocking wäre eine Standardfunktion in ATIs eigenem ControlCenter?
Ja, die Möglichkeiten sind da aber recht begrenzt.

Schlammsau
2010-04-20, 15:31:59
Dachte Overclocking wäre eine Standardfunktion in ATIs eigenem ControlCenter?

Jepp aber mit einer Begrenzung von jeweils rund 10%. Da kann man nichts kaputt machen. Die ist sogar im BIOS verankert.

Gast
2010-04-20, 16:52:42
Dachte Overclocking wäre eine Standardfunktion in ATIs eigenem ControlCenter?

Klar, aber zwischen einfachem OC via CCC und dem Übertakten mit Spannungserhöhung via Rivatuner gibt's eben schon einen Unterschied. Durch Mehrtakt alleine ist es nahezu unmöglich, eine Karte zu zerstören. Das gibt schlimmstenfalls einen Absturz, wenn der Treiberreset nicht klappt. Mehr nicht.
Mit Spannungserhöhung hingegen geht das unter Umständen ganz schnell. Da wäre ich als Hersteller auch nicht gerade begeistert von.

Generell ist es eigentlich ein Armutszeugnis für einen Hersteller (egal welcher es nun ist), wenn man neben dem Treibercontrolpanel auf Drittsoftware angewiesen ist. Und wenn in Spielen einst auf beiden Grafikkartenherstellern problemlos laufende Bildqualitätsverbesserungen plötzlich auf einer Seite nicht mehr gehen, ist das ein Rückschritt und sicher kein Merkmal, welches pro Spiele-PC ist. Dabei ist es scheißegal, wer es letzten Endes verbockt hat.

Bucklew
2010-04-20, 18:54:09
Ja, die Möglichkeiten sind da aber recht begrenzt.
Dann stellt sich die Frage, wieso sie es generell nicht verbieten. So klingen die konfusen Antworten eher nach totalem Chaos in der Entwicklungsabteilung, bei der die rechte Hand nicht weiß was die linke tut, vom Kollegen am Schreibtisch gegenüber, geschweige denn am anderen Ende der Welt, mal ganz abgesehen.

Bei solchen Geschichten weiß man dann doch wieder, warum die Anzahl der Spiele so hoch ist, die bei Releasetermin nicht auf ATI laufen. Und warum soviele Studios auf TWIMTBP setzen.

DrFreaK666
2010-04-20, 18:57:51
Dann stellt sich die Frage, wieso sie es generell nicht verbieten. So klingen die konfusen Antworten eher nach totalem Chaos in der Entwicklungsabteilung, bei der die rechte Hand nicht weiß was die linke tut, vom Kollegen am Schreibtisch gegenüber, geschweige denn am anderen Ende der Welt, mal ganz abgesehen.

Bei solchen Geschichten weiß man dann doch wieder, warum die Anzahl der Spiele so hoch ist, die bei Releasetermin nicht auf ATI laufen. Und warum soviele Studios auf TWIMTBP setzen.

Imho sollte man das Spiel auf allen aktuellen Karten testen bevor man es veröffentlicht.
Seid wann muss man dafür vom GPU-Hersteller animiert werden??

Schlammsau
2010-04-20, 19:00:32
Vergiss es, die Marketingabteilung kommt langsam wieder aus dem Urlaub zurück und feuert wieder aus vollen Rohren.

Gar nicht drauf eingehen.

Bucklew
2010-04-20, 19:06:32
Imho sollte man das Spiel auf allen aktuellen Karten testen bevor man es veröffentlicht.
Seid wann muss man dafür vom GPU-Hersteller animiert werden??
Komischerweise klappt das bei Nvidia sehr gut, bei ATI dagegen überhaupt nicht (s. u.A. GTA4 oder auch Saboteur).

Und das soll alles entweder rein zufällig sein oder aber zu 100% am Spielerhersteller liegen? Mensch, Zufälle gibt es, die gibt es gar nicht :eek:

derguru
2010-04-20, 19:08:35
Vergiss es, die Marketingabteilung kommt langsam wieder aus dem Urlaub zurück und feuert wieder aus vollen Rohren.

Gar nicht drauf eingehen.
wenn es das mal wäre,einfacher fanboy nicht mehr und nicht weniger.brauchst nur die friendliste anschauen,dr.cox.ich tippe eher 2 brüder vom kinderzimmer aus oder schizo:wink:

edit:haha jetzt kam noch paar minuten später ein alibi friend dazu,einfach nur köstlich.;D

DrFreaK666
2010-04-20, 19:11:18
Komischerweise klappt das bei Nvidia sehr gut, bei ATI dagegen überhaupt nicht (s. u.A. GTA4 oder auch Saboteur).

Und das soll alles entweder rein zufällig sein oder aber zu 100% am Spielerhersteller liegen? Mensch, Zufälle gibt es, die gibt es gar nicht :eek:

Wenn die Spiele ordentlich getestet worden wäre dann wären sie von Anfang an auf AMD-Karten gelaufen.
Soweit ich weiss wurde es durch Patches besser. Das ist ein eindeutiges Zeichen dafür, dass nicht ausreichend getestet wurde

Bucklew
2010-04-20, 19:13:55
Wenn die Spiele ordentlich getestet worden wäre dann wären sie von Anfang an auf AMD-Karten gelaufen.
Soweit ich weiss wurde es durch Patches besser. Das ist ein eindeutiges Zeichen dafür, dass nicht ausreichend getestet wurde
Und warum trifft es dann zu 100% nur AMD? Rein statistisch (so AMD dafür nix kann), müsste es schon längst ebenso Nvidia getroffen haben. Aber: Nix ist.

Der eine glaubt an Zufall und seine Glaskugel, der Rest schaut sich die Fakten an.

DrFreaK666
2010-04-20, 19:15:27
Und warum trifft es dann zu 100% nur AMD? Rein statistisch (so AMD dafür nix kann), müsste es schon längst ebenso Nvidia getroffen haben. Aber: Nix ist.

Der eine glaubt an Zufall und seine Glaskugel, der Rest schaut sich die Fakten an.

Das liegt wohl an der Qualitätsabteilung oder an mangelndem Geld.
Wenn der Fehler durch Patches behoben wurde dann liegt es nicht an AMD, oder hat die GPU-Abteilung die Patches geschrieben?

Bucklew
2010-04-20, 21:55:05
Das liegt wohl an der Qualitätsabteilung oder an mangelndem Geld.
Wenn der Fehler durch Patches behoben wurde dann liegt es nicht an AMD, oder hat die GPU-Abteilung die Patches geschrieben?
Liegt es das? Wenn es an der Qualitätsabteilung oder am mangelden Geld liegt, warum trifft es dann AUSSCHLIESSLICH (!) AMD? Wenn es Zufall ist und das ganze nur schnöde Bugs sind, dann MUSS es zwangsläufig auch mal Nvidia treffen. Bisher: Fehlanzeige.

Siehe auch z.B. Anno 1404. DX10 bei ATI ab dem Treiber 9.9 (genaue Nummer weiß ich nicht mehr) urplötzlich verbuggt. Und dann dauerte es Wochen, bis sich schließlich der Publisher genötigt sah, den Bug selbst zu fixen. Bisher wusste ich nicht, wer da nun zwangsläufig verantwortlich war (möglich sind ja beide), nach solchen Storys kann ich mir aber schon vorstellen wie das lief:

Related Designs [Anno-Entwickler]: "Ja hallo ATI, bisher lief alles bestens mit euren Karten, aber jetzt gibt es bei DX10 nen Bug [mehr Daten]"

ATI: *Funkstille*

Related Designs [Anno-Entwickler]: "Ja also der Bug besteht auch im neuen Treiber"

ATI: "Och ja, das könnte vllt das sein, vllt auch das, wer weiß es schon?"

Related Designs [Anno-Entwickler]: "Ok, wir machen es selbst!"

Da braucht man sich dann auch nicht mehr wundern, wenn der Laden nicht läuft. Einfach nur GPUs für billig auf den Markt zu werfen bringt einen nunmal auch nicht langfristig weiter. Investitionen sind ein Muss. Man kann über PhysX sagen was man will, aber es ist die Physikschnittstelle Nummer 1 geworden. Hätte das AMD geschafft? Sicherlich nicht. Bei CUDA/Stream das gleiche Spielchen und es wiederholt sich erneut mit 3D.

Wenn ich mir das alles angucke, dann kann mir keiner erzählen, dass die ganzen Probleme bei den Entwicklern der Spiele liegen. Sicherlich auch, aber ein IHV schafft es ja komischerweise, dass alles läuft, ein andere nicht. Wer da an Zufall glaubt, der spielt auch Lotto :rolleyes:

aths
2010-04-20, 22:07:28
Da braucht man sich dann auch nicht mehr wundern, wenn der Laden nicht läuft. Einfach nur GPUs für billig auf den Markt zu werfen bringt einen nunmal auch nicht langfristig weiter.Der Laden läuft doch. ATI hat es geschafft, einen passablen DX11-Chip zu entwickeln und inzwischen ein fast komplettes DX11-Line-Up auf die Beine zu stellen.

Schlammsau
2010-04-20, 22:09:10
TWIWMTBP Titel..... :rolleyes:

Crysis-Bildvergleich: Bessere Grafik mit AMD-Karte (Update: Nvidia bestätigt Bugs) (http://www.pcgameshardware.de/aid,619816/Crysis-Bildvergleich-Bessere-Grafik-mit-AMD-Karte-Update-Nvidia-bestaetigt-Bugs/Crysis/News/)

06.11.2007

http://www.abload.de/img/1jz5s.jpg