PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Batmangate: AMD vs. nVidia vs. Eidos


Seiten : 1 2 [3] 4

DrFreaK666
2009-11-24, 16:01:27
Ich bin immer wieder erstaunt wie betriebsblind man als Fanboy so sein muss. Wer den fundamentalen Unterschied zwischen einem zusätzlichen DX11 Pfad in Dirt 2 der allen DX11 Karten offen steht und AA welches künstlich auf eine Hardwareplattform beschränkt wird nicht sieht den kann man doch irgendwie nicht so richtig ernst nehmen...

Schon, ich frag mich ausserdem was PhysX hier zu suchen hat??
Hier gehts hauptsächlich ums AA

LovesuckZ
2009-11-24, 16:01:53
Ich bin immer wieder erstaunt wie betriebsblind man als Fanboy so sein muss. Wer den fundamentalen Unterschied zwischen einem zusätzlichen DX11 Pfad in Dirt 2 der allen DX11 Karten offen steht und AA welches künstlich auf eine Hardwareplattform beschränkt wird nicht sieht den kann man doch irgendwie nicht so richtig ernst nehmen...

Wo ist de Unterschied zwischen einer künstlichen Beschränkung auf eine Hardwareplattform oder der künstilichen Beschränkung auf eine Hardwareplattform? :confused:
Hier werden Effekte auf die D3D11 Hardwareplattform beschränkt, die nur ein Hersteller zZ unterstützt, bei nVidia auf dier Vendorebene.
Man muss schon ein ziemlicher Fanboy sein, wenn es gut findet, dass D3D10 User ausgeschlossen werden, aber bei Batman sich als AMD User benachteiligt fühlt.

Gast
2009-11-24, 16:04:41
Kann man diesen Grünling nicht für ein paar Wochen in den Urlaub schicken? In jedem, aber absolut jedem Thread, in dem er mitmischt, gibt's innert kürzester Zeit Ärger. Er sucht den Streit ganz gewissentlich. So was gehört entsprechend "honoriert".

DrFreaK666
2009-11-24, 16:06:12
Wo ist de Unterschied zwischen einer künstlichen Beschränkung auf eine Hardwareplattform oder der künstilichen Beschränkung auf eine Hardwareplattform? :confused:
Hier werden Effekte auf die D3D11 Hardwareplattform beschränkt, die nur ein Hersteller zZ unterstützt, bei nVidia auf dier Vendorebene.
Man muss schon ein ziemlicher Fanboy sein, wenn es gut findet, dass D3D10 User ausgeschlossen werden, aber bei Batman sich als AMD User benachteiligt fühlt.

Bald wird es DX11-nv-Karten geben
Es wird nie ATI-Karten geben, die AA bai Batman unterstützen

Das was du meinst ist vergleichbar mit Splinter Cell: Chaos Theory.
Da gab es keine SM2-Pfad und SM3-ATI-Karten erschienen erst später.

boxleitnerb
2009-11-24, 16:15:28
Detailierte Flaggen und Figuren auch ohne Tessellation.

Also das war ein Eigentor:
Denn ansehnliche Physik ist auch ohne PhysX möglich wie viele Spiele gezeigt haben. Nur ist man bei Dirt2 so gnädig und hat die Flaggen und Figuren nicht gleich ganz weggelassen :freak:

Und zu deiner "Hardwareplattform". PhysX ist kein von beiden IHVs unterstützter Standard, DX11 schon. Und dass Nvidia kein DX11 unterstützt glaubst ja selbst net. Und jetzt wo es passt, kommst du selbst mit Mai als Releasedatum für Fermi - im GT300 Thread bist du doch deutlich optimistischer, wenn ich mich richtig erinnere...du bist wirklich nicht sehr glaubwürdig. Opportunist nennt man sowas glaub ich.

An den Rest:
Verdreht bitte hier nicht die Tatsachen. AMD-Karten können AA in Batman darstellen, eben über das Controlpanel.

Gast
2009-11-24, 16:27:30
Kann man diesen Grünling nicht für ein paar Wochen in den Urlaub schicken? In jedem, aber absolut jedem Thread, in dem er mitmischt, gibt's innert kürzester Zeit Ärger. Er sucht den Streit ganz gewissentlich. So was gehört entsprechend "honoriert".
Lass den zweit(troll-)account der Mod zufrieden !
Protege ist nun mal Protege !

DrFreaK666
2009-11-24, 16:28:31
...
An den Rest:
Verdreht bitte hier nicht die Tatsachen. AMD-Karten können AA in Batman darstellen, eben über das Controlpanel.

Woher soll ich das wissen? Hab keine ATI-Karte :D
Na wenns doch geht dann ist der Thread ja unsinnig, oder?

LovesuckZ
2009-11-24, 16:30:15
Also das war ein Eigentor:
Denn ansehnliche Physik ist auch ohne PhysX möglich wie viele Spiele gezeigt haben. Nur ist man bei Dirt2 so gnädig und hat die Flaggen und Figuren nicht gleich ganz weggelassen :freak:

Das war an die Leuten gerichtet, die PhysX mit den Worten "es geht auch alles über die CPU" wegdiskutieren. Die selben Leute also, die sich jetzt hinstellen und D3D11 als tolles Zusatzfeature für den PC anpreisen. Komisch, oder? :confused: Abgesehen davon funktioniert GPU-PhysX auch über die CPU. Man wird also nicht wie bei Dirt ausgeschlossen.
War es nicht auch AMD, die sich für die Gamer einsetzen? Nunja, wohl nur für die, die seit kurzem eine D3D11 Karte von ihnen im PC haben. AMD hat keinen Bock einen D3D10.x Pfad für Batman zu schreiben, aber wollen dann Ingame-AA von nVidia. Schon eine ziemlich komische Einstellung. Jetzt schreiben sie einen D3D11 Pfad für Dirt2 und schließen somit auch ihre eigen D3D10.x User aus.


Und zu deiner "Hardwareplattform". PhysX ist kein von beiden IHVs unterstützter Standard, DX11 schon. Und dass Nvidia kein DX11 unterstützt glaubst ja selbst net. Und jetzt wo es passt, kommst du selbst mit Mai als Releasedatum für Fermi - im GT300 Thread bist du doch deutlich optimistischer, wenn ich mich richtig erinnere...du bist wirklich nicht sehr glaubwürdig. Opportunist nennt man sowas glaub ich.

Ich schreibe nirgendwo, dass nVidia erst im Mai mit D3D11 Hardware kommt. Nur wenn sie es täten, dann ist das Argument, man könnte D3D11 ja auch mit nVidia Hardware nutzen, schon ziemlich lächerlich. Und würde nVidia es nicht unterstützen - so wie D3D10.1 - dann spielt auch "Standard" keine Rolle.
Es tritt nämlich jetzt genau der Fall ein, den bestimmte User hier bei nVidia immer anprangern: Absichtliches ausschließen von Usern. Sei es über Ingame-AA, über PhysX oder sonst wie. Aber wenn AMD es ihnen gleichtut, dann wird es nichtmal erwähnt. Gewisse Leute sollten also bei der nächsten Diskussion sich nicht beteiligen, denn wir wissen, warum sie sich beteiligen.

Bald wird es DX11-nv-Karten geben
Es wird nie ATI-Karten geben, die AA bai Batman unterstützen


Es geht um das hier und jetzt. Es wird in Jahren auch D3D11 von Intel geben - heißt das, dass man die ganze Intel D3D10 Flotte ausschließen darf? :rolleyes:
AA bekomsmt du auch heute in Batman, nur kein Ingame-AA. D3D11 wird man als nVidia und AMD user nie verwenden können, wenn die Hardware es nicht unterstützt. Das jetzt kein Aufschrei kommt - hallo an die GPU-PhysX Gegner - zeigt doch, wie unsinnig solche Diskussionen mit bestimmten User sind.

DrFreaK666
2009-11-24, 16:33:40
... D3D11 wird man als nVidia und AMD user nie verwenden können, wenn die Hardware es nicht unterstützt. ...

Das ist doch der Lauf der Dinge.
Neue Technologierstufe -> für maximale Details enue Grafikkarte.
Wenn dich das stört dann wäre eine Konsole genau das Richtige

Nakai
2009-11-24, 16:39:12
@LZ:
Normalerweise sollte man sich nicht aufregen, wenn sehr bald nach einem neuen DX-Techlevel erste Spiele kommen, die es auch gut unterstützen. Wie war das nochmal mit DX10?
Desweiteren könnte man deinen Einwand ernst nehmen, wenn du das PhysX-Problem auch so kritisiert hättest. Wenigstens hat man wohl hier beim DX11 nicht einen IHV ausgeschlossen.

An den Rest:
Verdreht bitte hier nicht die Tatsachen. AMD-Karten können AA in Batman darstellen, eben über das Controlpanel.

Mhh, sollte aber nicht so performant sein.



mfg

Mr. Lolman
2009-11-24, 16:42:05
War es nicht auch AMD, die sich für die Gamer einsetzen? Nunja, wohl nur für die, die seit kurzem eine D3D11 Karte von ihnen im PC haben. AMD hat keinen Bock einen D3D10.x Pfad für Batman zu schreiben, aber wollen dann Ingame-AA von nVidia. Schon eine ziemlich komische Einstellung. Jetzt schreiben sie einen D3D11 Pfad für Dirt2 und schließen somit auch ihre eigen D3D10.x User aus.

1. sollten Devs ihre Pfade gefälligst selbst schreiben, wenn Pfade von den IHVs kommen, dann wohl nur weil sie sich damit einen Marketingeffekt für ihre Produkte erhoffen.

2. Das Ingame von AA ist Standard-Code. Tommti hat nen Hack gebastelt, dass der Vendor-Lock umgangen wird und das MSAA by NV (TM) auch bei Ati-Karten fehlerfrei funktioniert, eben weils Standardcode ist!

3. Der D3D11 Pfad von ATi (sofern er denn wirklich von denen ist) schliesst im Gegensatz zum AA-Pfad von NV, wohl nicht die Konkurrenz aus (wenns so wäre, hättest du einen guten Grund zur Beschwerde - vorher nicht!)

4. Wie DrFreaK666 schon richtig angemerkt hat, ist die Situation am ehesten noch mit SC:CT vergleichbar. Damals waren aber alle auf Eidos bös, und nicht auf NV. ATi hat dann den SM2 Pfad nachgeliefert. Raunz deinen Lieblings-IHV halt an. Vll. programmiert NV dir ja nen D3D10-Pfad.



Mhh, sollte aber nicht so performant sein.

mfg

Ingame-AA ist ~20% flotter.

LovesuckZ
2009-11-24, 16:42:29
Das ist doch der Lauf der Dinge.
Neue Technologierstufe -> für maximale Details enue Grafikkarte.
Wenn dich das stört dann wäre eine Konsole genau das Richtige

Das weiß ich und die Diskussion geht nicht gegen D3D11. Sondern sie zeigt, dass AMD mit genau dem selben Mitteln kämpft. Da sie alleinig zZ mit D3D11 auf dem Markt sind (und eben keine weiteren features bieten), werden sie natürlich auch D3D11 pushen - z.B. indem sie keinen D3D10 Pfad einbauen. Dieses Verhalten wurde von gewissen Leuten in diesem Forum als falsch angesehen.
Ihr Umdenken bedeutet also, dass ihnen es egal ist, solange sie gegen nVidia flamen können.

boxleitnerb
2009-11-24, 16:45:25
PhysX@CPU ist wie es momentan implementiert ist ja nichtmal ansatzweise ein Argument bei der Performance. Wegdiskutieren...naja ich nutze selber PhysX und finde es ein nettes Schmankerl.
Ich sehe hier einfach nicht das Kosten/Nutzenverhältnis für ein bisschen Nebel und ein paar mehr Funken, wenn die fps in den einstelligen Bereich abdriften (ohne Geforce). Es sollte sogar dir klar sein, dass PhysX meist so implementiert wird, dass vernünftige Physikberechnungen auf der CPU überhaupt keine Chance haben - obwohl es in einem gewissen Maße sicher möglich wäre. THG hat dazu ein paar Untersuchungen gemacht, die du sicher schon kennst.

Mit DX11 bekommt man schönere/schnellere Effekte und Physik@GPU von beiden, sofern es von den Spieleprogrammierern umgesetzt wird. Das finde ich viel verlockender als ein bisschen Nebel, der 80% meiner Performance frisst, wenn ich keine NV-Karte drinhabe (jetzt mal überspitzt gesagt).

Dass es keinen DX10.x Pfad bei Dirt2 gibt, verstehe ich schon. DX9 ist absolut etabliert, das muss also auf jeden Fall rein. DX10.x war nie sonderlich erfolgreich und 3 Renderpfade sind teurer als 2. Dazu promotet man die neuen Karten, ist doch logisch dass man DX11 nimmt.

NV WIRD DX11 unterstützen. Man hat dann auf Karten beider IHVs dasselbe Ergebnis. Dass Fermi später kommt, ist ja nicht AMDs Schuld. Oder sollen sie erst den 11er Pfad nachliefern, wenn Fermi da ist? :D

Der kleine aber feine Unterschied ist hier, dass es hundertprozentig die Möglichkeit geben wird, mit jeder DX11-Karte Dirt2@DX11 zu spielen. Mit einer AMD-Karte komme ich nicht in den Genuss von PhysX in Batman. Gut, PhysX ist proprietär, keine Frage. Aber der Vergleich hinkt eben, denn Nvidia wird wenn Fermi kommt, auch was davon haben, nämlich dass das Spiel auf ihren Karten ebenfalls in besagtem Modus läuft.
Verstehst du das nicht?

derguru
2009-11-24, 16:48:00
Der kleine aber feine Unterschied ist hier, dass es hundertprozentig die Möglichkeit geben wird, mit jeder DX11-Karte Dirt2@DX11 zu spielen. Mit einer AMD-Karte komme ich nicht in den Genuss von PhysX in Batman. Gut, PhysX ist proprietär, keine Frage. Aber der Vergleich hinkt eben, denn Nvidia wird wenn Fermi kommt, auch was davon haben, nämlich dass das Spiel auf ihren Karten ebenfalls in besagtem Modus läuft.
Verstehst du das nicht?
LZ kann doch froh sein wenn seine geliebter fermi antanzt hat amd dafür gesorgt das es auch paar dx11 spiele gibt,du solltest amd dankbar sein LZ.:biggrin:

LovesuckZ
2009-11-24, 16:53:52
Mit DX11 bekommt man schönere/schnellere Effekte und Physik@GPU von beiden, sofern es von den Spieleprogrammierern umgesetzt wird. Das finde ich viel verlockender als ein bisschen Nebel, der 80% meiner Performance frisst, wenn ich keine NV-Karte drinhabe (jetzt mal überspitzt gesagt).

Du bekommst es auch genauso mit D3D10. Wo ist da der Unterschied zu PhysX? Ja, es wäre langsamer mit D3D10, aber kein so annährender krasser Bruch wie bei PhysX über die CPU. Das heißt also: Weil D3D10 nicht annährend so langsam wäre, wie man es gerne hätte, schreibt man einfach keinen? Wurde das nicht bei nVidia mit PhysX kritisiert?


Dass es keinen DX10.x Pfad bei Dirt2 gibt, verstehe ich schon. DX9 ist absolut etabliert, das muss also auf jeden Fall rein. DX10.x war nie sonderlich erfolgreich und 3 Renderpfade sind teurer als 2. Dazu promotet man die neuen Karten, ist doch logisch dass man DX11 nimmt.

Nun, D3D10 Hardware >>>>>>>>>> D3D11. Die Argumentation, dass D3D10 nicht etabliert wäre, ist schon ziemlich fragwürdig. Das ganze Model von D3D11 baut auf D3D10 auf und somit haben viele Entwickler schon Erfahrung damit.


NV WIRD DX11 unterstützen. Man hat dann auf Karten beider IHVs dasselbe Ergebnis. Dass Fermi später kommt, ist ja nicht AMDs Schuld. Oder sollen sie erst den 11er Pfad nachliefern, wenn Fermi da ist? :D

Wo ist der Unterschied zu PhysX? nVidia hat es, sie verwenden es, sie implementieren es. Das ist normal. Niemand sagt, dass AMD kein D3D11 pushen sollte. Aber wer GPU-PhysX auch es auch nur ein bisschen kritisiert, weil es für die CPU nur an oder aus gibt, der sollte sich fragen, wie man bei Dirt 2 nur einen D3D9 oder D3D11 Pfad gutheißen kann.
Die nächste PhysX Diskussion wird kommen, ich hoffe einige halten sich raus.

DrFreaK666
2009-11-24, 16:57:10
...
Wo ist der Unterschied zu PhysX? nVidia hat es, sie verwenden es, sie implementieren es. Das ist normal. Niemand sagt, dass AMD kein D3D11 pushen sollte. Aber wer GPU-PhysX auch es auch nur ein bisschen kritisiert, weil es für die CPU nur an oder aus gibt, der sollte sich fragen, wie man bei Dirt 2 nur einen D3D9 oder D3D11 Pfad gutheißen kann.
Die nächste PhysX Diskussion wird kommen, ich hoffe einige halten sich raus.

Na wenn es für dich ok ist, dass man Batman mit ATI-Karten nicht mit allen Details zocken kann (da ohne PhysX-Unterstützung) dann müsstest du ja damit leben können, dass du bei Dirt 2 nicht alle Dateils haben kannst (erst mal).
PhysX wird nie mit ner ATI-Karte laufen

edit: Schrekcliche Satz-Konstruktion. Schreibe ihn aber nimmer um :-)

MorPheuZ
2009-11-24, 17:02:08
Solche Spezialfälle gibts überall. Egal ob PhysX oder AA in BMAA. Denkt nur mal an Creative und EAX :eek:

Disskussion ist überflüssig, egal ob pro oder kontra.

LovesuckZ
2009-11-24, 17:03:17
Na wenn es für dich ok ist, dass man Batman mit ATI-Karten nicht mit allen Details zocken kann (da ohne PhysX-Unterstützung) dann müsstest du ja damit leben können, dass du bei Dirt 2 nciht alle Dateils haben kannst (erst mal).
PhysX wird nie mit ner ATI-Karte laufen

Ich störe mich nicht daran, dass Dirt:2 kein D3D10 Pfad hat (muss jeder selbst wisse, wie er das interpretiert), sondern dass gewisse Leute in diesem Forum es wortlos hinnehmen und sogar positiv aufnehmen und in der nächsten PhysX Diskussion den selben Sachverhalten komplett anders bewerten.
Man muss sich auch fragen, wie eine Firma, die sich als "Gamerfirma" ausgibt, einfach ihre eigenen D3D10 Kunden ebenfalls im Stich lässt.

Coda
2009-11-24, 17:04:45
Wo ist der Unterschied zu PhysX?
NVIDIA kann D3D11 implementieren und wird es tun, ATI PhysX aber nicht. (*)

Was ist daran bitte so schwer zu verstehen? :freak:

(*) Ja, wirklich nicht. Nein, CPU zählt nicht.

Schlammsau
2009-11-24, 17:05:58
Ich versteh die Aufregung nicht, DX10 und 10.1 werden doch über DX11 ausgegeben. Also hat kein DX10(.1) Besitzer einen "Nachteil", ausser das wahrscheinlich Tesselation fehlt und das können die Karten des letzten Techlevels halt nicht. :confused:

Gast
2009-11-24, 17:06:27
scheiss drauf, batman ist ein Schrottgame und PhysX ist sowieso dem tode geweiht also wayne.

Es gibt viel bessere Physik als das was NV anbietet und wird sich nie durchsetzen jetzt wo DX11 da ist gleichmal garnicht.

boxleitnerb
2009-11-24, 17:09:31
Du bekommst es auch genauso mit D3D10. Wo ist da der Unterschied zu PhysX? Ja, es wäre langsamer mit D3D10, aber kein so annährender krasser Bruch wie bei PhysX über die CPU. Das heißt also: Weil D3D10 nicht annährend so langsam wäre, wie man es gerne hätte, schreibt man einfach keinen? Wurde das nicht bei nVidia mit PhysX kritisiert?


Die Hardwarebasis für DX11 wird deutlich größer sein als die für PhysX, nämlich Karten beider IHVs.


Nun, D3D10 Hardware >>>>>>>>>> D3D11. Die Argumentation, dass D3D10 nicht etabliert wäre, ist schon ziemlich fragwürdig. Das ganze Model von D3D11 baut auf D3D10 auf und somit haben viele Entwickler schon Erfahrung damit.


Naja gut, die Verbreitung ist größer, das stimmt schon! Aber dennoch haben viel mehr Leute eine DX9 Karte bzw. noch XP, die will man ja nicht ausschließen. Von einem Forum wie hier kannst du nicht ausgehen. Ginge z.B. Tesselation irgendwie mit DX10.x? Ohne Hardwareeinheit? Ich weiß es ehrlich nicht.


Wo ist der Unterschied zu PhysX? nVidia hat es, sie verwenden es, sie implementieren es. Das ist normal. Niemand sagt, dass AMD kein D3D11 pushen sollte. Aber wer GPU-PhysX auch es auch nur ein bisschen kritisiert, weil es für die CPU nur an oder aus gibt, der sollte sich fragen, wie man bei Dirt 2 nur einen D3D9 oder D3D11 Pfad gutheißen kann.
Die nächste PhysX Diskussion wird kommen, ich hoffe einige halten sich raus.

Ich gebe zu, das ist auch nicht ganz konsequent. Man könnte eben höchstens behaupten, dass die Gamer von DX11 am Ende mehr haben werden, weil es eben ein beidseitig unterstützter Standard ist.

MorPheuZ
2009-11-24, 17:09:52
scheiss drauf, batman ist ein Schrottgame und PhysX ist sowieso dem tode geweiht also wayne.

Es gibt viel bessere Physik als das was NV anbietet und wird sich nie durchsetzen jetzt wo DX11 da ist gleichmal garnicht.

Naja, man kann das Leben auch ignorieren...

Schlammsau
2009-11-24, 17:23:27
Naja, man kann das Leben auch ignorieren...

Was meinst du, auf was die Spieleentwickler zukünftig setzen?

Auf PhysX, was nur ein Hersteller unterstützt (ist ja von nVidia so gewollt), oder auf OpenCL das bald von allen 3 grossen Grafikkartenherstellern unterstützt wird? (Hab jetzt mal Intel mitgezählt, obwohl ich nicht weiss ob die wirklich mal DX11 unterstützen)

Gast
2009-11-24, 18:09:11
Und wo werden dadurch ausschließlich Nvidia-Kunden benachteiligt? :| Denn das muß der Fall sein, wenn du vom AMDs eigenen Batmangate sprichst. So ist dein Beitrag einfach nur schwach und in meinen Augen sogar nur lächerlich.

Ati hatte sein Batmangate doch schon lange: Der gekauft Call-of-Juarez-DX10-Benchmark, der MSAA-Resolve zwangsweise in den ALUs machte - entgegen der Methode, die im eigentlichen Spiel zum Einsatz kam.

Wer auf die guten CoJ-Benchmarkwerte vertraute, war der dumme.

DrFreaK666
2009-11-24, 18:33:16
Ati hatte sein Batmangate doch schon lange: Der gekauft Call-of-Juarez-DX10-Benchmark, der MSAA-Resolve zwangsweise in den ALUs machte - entgegen der Methode, die im eigentlichen Spiel zum Einsatz kam.

Wer auf die guten CoJ-Benchmarkwerte vertraute, war der dumme.

Das ist nur ein Benchmark

Gast
2009-11-24, 18:53:47
Umso schlimmer - so hatten nichtmal die Radeon-User was vom Shader-Resolve.

desert
2009-11-24, 18:54:02
Was meinst du, auf was die Spieleentwickler zukünftig setzen?

Auf PhysX, was nur ein Hersteller unterstützt (ist ja von nVidia so gewollt), oder auf OpenCL das bald von allen 3 grossen Grafikkartenherstellern unterstützt wird? (Hab jetzt mal Intel mitgezählt, obwohl ich nicht weiss ob die wirklich mal DX11 unterstützen)


Seit wann ist opencl eine physikengine? Das ist ein programmiersprache für gpu´s.

Genauso die compute shader, die sind auch keine phsikengine. Physx ist die einzige physik engine am markt die auch die gpu einsetzt in spielen.

Und natürlich kann physx nicht mit opencl umgehen, nein ist ja auch von nvidia. Und wie wir alle wissen arbeiten dort nur volltrottel und die wahren könner nur bei amd.

Schau dir doch einfach mal die liste an von spielen die physx unterstützen und dann die liste von bullet.

Schlammsau
2009-11-24, 19:24:26
Seit wann ist opencl eine physikengine? Das ist ein programmiersprache für gpu´s.

Genauso die compute shader, die sind auch keine phsikengine. Physx ist die einzige physik engine am markt die auch die gpu einsetzt in spielen.

Und natürlich kann physx nicht mit opencl umgehen, nein ist ja auch von nvidia. Und wie wir alle wissen arbeiten dort nur volltrottel und die wahren könner nur bei amd.

Schau dir doch einfach mal die liste an von spielen die physx unterstützen und dann die liste von bullet.
Schön dass du es einsiehst desert. :rolleyes:

Also nochmal die Frage, warum sollte ein Spielehersteller explizit auf PhysX setzen, was nur nVidia kann (nein, dass ist nicht die Schuld von ATi), und eine andere Grafikbeschleunigte Physik Engine aussen vor lassen, die von allen GPU Herstellern unterstützt wird? Wir werden bald auf jeder DX11-fähigen Grafikkarte die gleichen Physik Effekte haben, ist das schlecht?

desert
2009-11-24, 19:33:03
Schön dass du es einsiehst desert. :rolleyes:

Also nochmal die Frage, warum sollte ein Spielehersteller explizit auf PhysX setzen, was nur nVidia kann (nein, dass ist nicht die Schuld von ATi), und eine andere Grafikbeschleunigte Physik Engine aussen vor lassen, die von allen GPU Herstellern unterstützt wird? Wir werden bald auf jeder DX11-fähigen Grafikkarte Physik Effekte haben, ist das schlecht?

Du raffst es immer noch nicht. Es gibt nur physx wenn du gpu beschleunigung haben willst. Welche andere Engine sollte den benutzt werden?

Da kannst du noch soviel träumen von opelcl und compute shader. Es werden immer noch nicht physikengines sein. Das ist doch der punkt. Physx ist die einzige erhältliche Physikengine die gpu beschleunigung in der Praxis tag für tag demonstriert. Und es werden immer mehr spiele mit physx kommen.

Schlammsau
2009-11-24, 19:34:44
Du raffst es immer noch nicht. Es gibt nur physx wenn du gpu beschleunigung haben willst. Welche andere Engine sollte den benutzt werden?

Im Moment ist es so, aber die kommenden DX11 Games werden das schon ändern.

DrFreaK666
2009-11-24, 19:44:33
Du raffst es immer noch nicht. Es gibt nur physx wenn du gpu beschleunigung haben willst. Welche andere Engine sollte den benutzt werden?

Da kannst du noch soviel träumen von opelcl und compute shader. Es werden immer noch nicht physikengines sein. Das ist doch der punkt. Physx ist die einzige erhältliche Physikengine die gpu beschleunigung in der Praxis tag für tag demonstriert. Und es werden immer mehr spiele mit physx kommen.

Wow, ganze 11 Spiele unterstützen GPU-PhysX, darunter "Perlen" wie Crazy Machines II, Cryostasis, Darkest of Days, Warmonger.
Richtig gut sind nur Sacred 2, Batman und Mirror´s Edge.

Schlammsau
2009-11-24, 19:45:09
Richtig gut sind nur Sacred 2, Batman und Mirror´s Edge.

Eigentlich nur Mirrors Edge!

DrFreaK666
2009-11-24, 19:46:49
Eigentlich nur Mirrors Edge!

Also die Demo von Batman fand ich nicht schlecht, hab mir die Full trotzdem nicht geholt.
Sacred 2 ist komisch, da spiele ich doch lieber Torchlight mit schlechterer Grafik und Physik

Schlammsau
2009-11-24, 19:49:58
Deine Argumente sind einfach nur lächerlich und zeugt das du keine Ahnung hast.
Hast du bessere?
http://www.heise.de/newsticker/meldung/AMD-setzt-auf-quelloffene-Spielephysik-798225.html

Gast
2009-11-24, 19:52:09
Hast du bessere?
http://www.heise.de/newsticker/meldung/AMD-setzt-auf-quelloffene-Spielephysik-798225.html

Das ist reines Wunschdenken deinerseits mehr nicht.

Schlammsau
2009-11-24, 19:54:13
Das ist reines Wunschdenken deinerseits mehr nicht.
Und du glaubst GPU-beschleunigte Physik wird auch in Zukunft nur mit PhysiX realisierbar sein?

Gast
2009-11-24, 19:57:34
Und du glaubst GPU-beschleunigte Physik wird auch in Zukunft nur mit PhysiX realisierbar sein?

Nein. Aber PhysX wird noch ne ganze Zeit überleben.

DrFreaK666
2009-11-24, 20:01:05
Nein. Aber PhysX wird noch ne ganze Zeit überleben.

Wenns aber nur bei ner Hand voll wichtigen Spielen eingesetzt wird dann hat es keine Chance.
Zeig mir mal die PhysX-Kracher, die noch in der Mache sind...
http://physxinfo.com/

Schlammsau
2009-11-24, 20:01:29
Nein. Aber PhysX wird noch ne ganze Zeit überleben.

Ich hab nie gesagt, dass PhysX in absehbarer Zeit sterben wird!

Es wird aber an Bedeutung verlieren! ;)

LovesuckZ
2009-11-24, 20:03:25
Wieso? Brauchen die Leute bald keine Physik-API mehr?

Gast
2009-11-24, 20:04:48
Es wird aber an Bedeutung verlieren! ;)

Nein. Es wird weiter expandieren und immer eine Option bleiben.

Schlammsau
2009-11-24, 20:08:00
Nein. Es wird weiter expandieren und immer eine Option bleiben.

Glaub ich nicht, weil ein grosser Teil der Spieler damit "ausgesperrt" wird.

Und was hat uns die Vergangenheit gelehrt? Das Alleingänge von Hardwareherstellern zumeist nicht mit grossem Erfolg gesegnet sind.
Siehe zB TruForm von ATi.

DrFreaK666
2009-11-24, 20:10:50
Wieso? Brauchen die Leute bald keine Physik-API mehr?

Nvidia sollte GPU-PhysX freigeben.
Verstehe schon wieso sie das machen, aber wenn PhysX weiter an Bedeutung gewinnen soll dann geht es nur mit Hilfe von ATI.
Was Intel mit Havok anstellt weiss man noch nicht.
Aber die Havok-Engine wird bestimmt auf die Larrabees zugeschnitten werden und so gefährlich für nvidia werden.

LovesuckZ
2009-11-24, 20:15:25
Nvidia sollte GPU-PhysX freigeben.
Verstehe schon wieso sie das machen, aber wenn PhysX weiter an Bedeutung gewinnen soll dann geht es nur mit Hilfe von ATI.
Was Intel mit Havok anstellt weiss man noch nicht.

Weil nVidia kein Middleware-Anbieter ist. Würde sie PhysX als API öffnen, dann können sie es gleich abstoßen.


Aber die Havok-Engine wird bestimmt auf die Larrabees zugeschnitten werden und so gefährlich für nvidia werden.

Für AMD nicht? Intel wird nie Havok auf OpenCL portieren. Dann würden sie ja direkt zugeben, dass die GPUs wichtiger wären als die CPUs. Bullet wird sich nicht annährend so gut durchsetzen wie Havok oder PhysX, weil durch das Lizenzierungsmodell nVidia und Intel für mehr Features und besseren Support sorgen müssen.

DrFreaK666
2009-11-24, 20:20:32
Wenn die Spieleentwickler sich für CPU-PhysiX entscheiden dann finde ich es gut. Wieso sollte man aufwendigeres GPU-PhysiX nutzen wenn man damit nicht alle Käufer anspricht?

LovesuckZ
2009-11-24, 20:31:26
Wenn die Spieleentwickler sich für CPU-PhysiX entscheiden dann finde ich es gut. Wieso sollte man aufwendigeres GPU-PhysiX nutzen wenn man damit nicht alle Käufer anspricht?

Weil das nVidia übernimmt. nVidia sprach von 3 Wochen für die Implementierung von GPU-PhysX in Batman. nVidia's Tool sind doch schon so weit, dass es für sie relativ einfach ist, es zu implementieren. Der schwierigste Part wird wohl der Content sein.

DrFreaK666
2009-11-24, 20:33:13
Weil das nVidia übernimmt. nVidia sprach von 3 Wochen für die Implementierung von GPU-PhysX in Batman. nVidia's Tool sind doch schon so weit, dass es für sie relativ einfach ist, es zu implementieren. Der schwierigste Part wird wohl der Content sein.

Ja eben. Kann ja sein, dass die GPU-Untertützung rasch eingebaut ist.
Aber Fahnen, Kleidung, Wasser etc. realistisch zu animieren kostet Geld

PulsarS
2009-11-24, 20:33:29
Wieso? Brauchen die Leute bald keine Physik-API mehr?
Wenn NV die PhysX-API nicht "freigibt", dann sehe ich mittelfristig schwarz.
Da PhysX@GPU ALLE ATI-Kunden ausschliesst, kann es so keine Zukunft haben.
Die Entwickler werden in Richtung Bullet, Havok oder OpenCL gehen, wobei diese erstmal noch ein wenig weiterentwickelt werden müssten.
Oder man macht es so wie bei DIRT2, direkt über die DX11-API über Compute Shader.
Ist imo die beste Methode, da man keinen IHV ausschliesst und nicht an die Specs einer bestimmten Physik-Engine gebunden ist, sondern seiner Kreativität freien Lauf lassen kann. :)

Schlammsau
2009-11-24, 20:34:34
Für AMD nicht? Intel wird nie Havok auf OpenCL portieren. Dann würden sie ja direkt zugeben, dass die GPUs wichtiger wären als die CPUs. Bullet wird sich nicht annährend so gut durchsetzen wie Havok oder PhysX, weil durch das Lizenzierungsmodell nVidia und Intel für mehr Features und besseren Support sorgen müssen.

http://www.heise.de/newsticker/meldung/AMD-setzt-auf-quelloffene-Spielephysik-798225.html

Derzeit liegt bei den Physik-APIs PhysX mit 26,8 Prozent Marktanteil vor Havok (22,7 Prozent) und Bullet Physics (10,3 Prozent)

Bullet ist doch relativ gut verbreitet und Havok arbeitet doch auch mit ATi zusammen.
Havok und Bullet zusammen hat sogar nen grösseren Marktanteil als PhysX.

LovesuckZ
2009-11-24, 20:35:08
Ja eben. Kann ja sein, dass die GPU-Untertützung rasch eingebaut ist.
Aber Fahnen, Kleidung, Wasser etc. realistisch zu animieren kostet Geld

Deswegen öffnet nVidia auch PhysX nicht oder wird es abstoßen, wenn sie dazu gezwungen werden.
Die Kosten kommen durch die höhrere Anzahl an verkauften Karten wieder rein. Mehr Features ist manchmal eben überzeugender als das nötigste. Und je mehr weitere Features man zur Konkurrenz hat, umso preislich lässt es sich leichter plazieren.

Gast
2009-11-24, 20:38:25
Wenn die Spieleentwickler sich für CPU-PhysiX entscheiden dann finde ich es gut. Wieso sollte man aufwendigeres GPU-PhysiX nutzen wenn man damit nicht alle Käufer anspricht?

Nvidia Karten sind recht viele im Umlauf warum also sollte man es nicht unterstützen? Es ist und bleibt ein Extra kommt mal weg von euren Sturkopfdenken.

PulsarS
2009-11-24, 20:40:49
Du raffst es immer noch nicht. Es gibt nur physx wenn du gpu beschleunigung haben willst. Welche andere Engine sollte den benutzt werden?

Da kannst du noch soviel träumen von opelcl und compute shader. Es werden immer noch nicht physikengines sein. Das ist doch der punkt. Physx ist die einzige erhältliche Physikengine die gpu beschleunigung in der Praxis tag für tag demonstriert. Und es werden immer mehr spiele mit physx kommen.
Wenn man keine Ahnung hat, sollte man vielleicht ein wenig mit dem Ton runter...
DU raffst es anscheinend nicht, dass man Physik auch ohne eine dedizierte Physik-Engine in ein Spiel einbauen kann!
Über CS z.B...
Man, man, man...

DrFreaK666
2009-11-24, 20:44:22
Deswegen öffnet nVidia auch PhysX nicht oder wird es abstoßen, wenn sie dazu gezwungen werden.
Die Kosten kommen durch die höhrere Anzahl an verkauften Karten wieder rein. Mehr Features ist manchmal eben überzeugender als das nötigste. Und je mehr weitere Features man zur Konkurrenz hat, umso preislich lässt es sich leichter plazieren.

Nvidia Karten sind recht viele im Umlauf warum also sollte man es nicht unterstützen? Es ist und bleibt ein Extra kommt mal weg von euren Sturkopfdenken.

Den Entwicklern scheint es allerdings schon wichtig zu sein.
Laut dieser Liste (http://physxinfo.com/) untertützen 195 Spiele PhysX, davon nur 11 GPU-PhysX.
PhysX hat eine Chance, GPU-PhysX nicht

PulsarS
2009-11-24, 20:45:03
Nvidia Karten sind recht viele im Umlauf warum also sollte man es nicht unterstützen?
Warum sollte man nur NVidia unterstützen, wenn man auf einem anderen Wege beide IHVs bei Physik@GPU unterstützen könnte? :confused:
Kein Spielentwickler kann es sich leisten, einen Teil seiner potenziellen Kunden auszuschliessen, wenn es auch anders geht.
Warum kapieren einige diesen Zusammenhang nicht? :confused:

edit:

PhysX hat eine Chance, GPU-PhysX nicht
*unterschreib*

LovesuckZ
2009-11-24, 20:46:44
Den Entwicklern scheint es allerdings schon wichtig zu sein.
Laut dieser Liste (http://physxinfo.com/) untertützen 195 Spiele PhysX, davon nur 11 GPU-PhysX.
PhysX hat eine Chance, GPU-PhysX nicht

GPU-PhysX gibt es nur durch CPU-PhysX. GPU-PhysX wird immer ein Extra sein. Ein Extra, dass AMD User nicht bekommen. Es ist also etwas, dass nVidia von AMD unterscheidet.

Schlammsau
2009-11-24, 20:46:55
Sturkopfdenken!?

Gast
2009-11-24, 20:47:15
Kein Spielentwickler kann es sich leisten, einen Teil seiner potenziellen Kunden auszuschliessen, wenn es auch anders geht.


Wieso? PhysX ist ein Extra wann schnallt ihr das endlich?

Gast
2009-11-24, 20:49:39
Da könnt ihr Ati Fans jammern bis ihr schwarz werdet. Es wird auch in Zukunft Games geben die PhysX nutzen.

Gast
2009-11-24, 20:50:51
Physix läuft mit hack ja auch auf ati Karten!Das sollte ma nicht vergessen.;)

DrFreaK666
2009-11-24, 20:53:07
Da könnt ihr Ati Fans jammern bis ihr schwarz werdet. Es wird auch in Zukunft Games geben die PhysX nutzen.

Ja ganz bestimmt. Aber GPU-PhysX wird immer unwichtiger werden.
Die meiste Kohle wird mit Konsolen-Games gemacht.
Wieso sollte man für ein paar User mehr Geld in bessere Physik investieren?
Das lohnt sich doch garnicht.

Gast
2009-11-24, 20:53:34
Physix läuft mit hack ja auch auf ati Karten!Das sollte ma nicht vergessen.;)

Fragt sich nur wielange ;)

Mafia2 und Prey2 sind z.b. Games die 2010 PhysX unterstützen werden.

PulsarS
2009-11-24, 20:53:48
Wieso? PhysX ist ein Extra wann schnallt ihr das endlich?
Was soll man daran schnallen?
Es gibt auch andere Möglichkeiten Physik in ein Spiel einzubauen.
Warum sollte man diese nicht nutzen und einen Teil der Kundschaft von besserer Optik oder gar Gameplay "fernhalten"?

Ich gehe mit der Logik derjenigen, die PhysX@GPU als zukunftsträchtig empfinden einfach nicht konform und dies wird sich auch nicht ändern. AMEN. :)

Gast
2009-11-24, 20:55:27
Soviel ich weiß wurde Havok FX nach dem Kauf durch Intel auf Eis gelegt. Das heißt mit anderen Worten Intel pushed Havok im Moment nur noch für CPUs.

Ich weiß ja nicht was die Ati-Fans hier gegen Physx flamen. Ich gehe jede Wette ein, hätte Ati Lizenzgebühren an Nvidia gezahlt, hätten sie die Physxengine nutzen dürfen. Aber umsonst gibt es heute nur noch den Tod und der kostet das Leben. Ist doch dasselbe wie mit Creative und EAX. Damit pushed Creative den Verkauf ihrer Soundkarten, denn warum sollte man sich sonst noch eine kaufen, wenns 0815 Sound auf jedem Mainboard gibt?

Ich habe jedenfalls schon den Entschluß gefaßt als nächste Karte wieder eine NV zu kaufen. Meine derzeitige Ati ist zwar eine gute Karte, aber bei den vorherigen NV-Karten die ich hatte lief einfach vieles einfach runder (Treiber) und dann bekommt man auch noch kleine Boni in Form von Physx oder einfach integrierten Zusätzen wie dem Ingame AA.

So, jetzt dürfen mich die Ati-Anhänger zuflamen :D.

Schlammsau
2009-11-24, 21:01:37
Soviel ich weiß wurde Havok FX nach dem Kauf durch Intel auf Eis gelegt. Das heißt mit anderen Worten Intel pushed Havok im Moment nur noch für CPUs.

Intel (Havok) und ATi arbeiten schon seit längerem wieder zusammen um was gegen nV in der Hand zu haben.
http://www.pcgameshardware.de/aid,679934/GDC-2009-AMD-und-Havok-zeigen-Physik-Videos-und-kuendigen-GPU-Beschleunigung-an/Technologie/News/

PulsarS
2009-11-24, 21:06:58
Ich weiß ja nicht was die Ati-Fans hier gegen Physx flamen. Ich gehe jede Wette ein, hätte Ati Lizenzgebühren an Nvidia gezahlt, hätten sie die Physxengine nutzen dürfen.

Das Thema hatten wir doch schon... :rolleyes:
Es geht nicht um Lizengebühren, sondern dass Nvidia die Hand über der API hält und PhysX auf CUDA basiert usw...
Wie gesagt, alles schon durchgekaut, kannst ja ein wenig im Thread rumwühlen...;D
Eins kann man sagen, ATI war schlau es nicht zu machen.

Gast
2009-11-24, 21:12:50
ATI war schlau es nicht zu machen.

Wie man am Topic ja bestaunen darf/muss. Aua *lach*

PulsarS
2009-11-24, 21:16:23
Wie man am Topic ja bestaunen darf/muss. Aua *lach*
Ich weiss zwar nicht was du meinst, aber egal.
Und beim Topic ging es hauptsächlich um das (Ingame) AA.
Inwiefern hat das AA was mit PhysX zu tun? :freak:
Oder bist du ein wenig verwirrt?

edit:
extra für dich Gast, der Threadanfang:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7639839#post7639839
;D

Coda
2009-11-24, 21:23:10
Physix läuft mit hack ja auch auf ati Karten!
Nein, tut es nicht.

Nakai
2009-11-24, 21:33:23
Da könnt ihr Ati Fans jammern bis ihr schwarz werdet. Es wird auch in Zukunft Games geben die PhysX nutzen.

Ja, zum Glück, Konkurrenz belebt das Geschäft. Umso mehr Physikengines umso besser. Ich hoffe NV bringt irgenwann ein CS oder OpenCl-Backend für ihr Hardware-PhysX.

Eins kann man sagen, ATI war schlau es nicht zu machen.

Schon wahr, aber ATI hätte im gleichen Atemzug mehr für einen offenen Standard tun sollen.


mfg

Coda
2009-11-24, 21:36:34
Standard.

PulsarS
2009-11-24, 21:43:28
Schon wahr, aber ATI hätte im gleichen Atemzug mehr für einen offenen Standart tun sollen.

Deiner Aussage stimme ich grundsätzlich zu.
Die Frage ist nur wie?
Ein IHV wird kaum Interesse haben einen offenen Standard (Physik-Engine) selbst zu entwickeln und danach den Mitbewerbern zu überlassen, damit sie auch davon profitieren.
Wenn man z.B. Havok lizensiert hätte, wäre es doch ähnlich wie PhysX@GPU bei NV verlaufen.

Den meisten Einfluss auf einen offenen Standard hätten imo die Spielentwickler.
Dann müssten beide IHVs mitziehen oder man wäre stark im Nachteil.
Es müsste aber schon eine Allianz der Spieleentwickler sein.

Gast
2009-11-24, 21:54:14
Ich weiss zwar nicht was du meinst, aber egal.
Und beim Topic ging es hauptsächlich um das (Ingame) AA.
Inwiefern hat das AA was mit PhysX zu tun? :freak:
Oder bist du ein wenig verwirrt?


Denk mal richtig nach, warum gerade Batman? Machts Klick?

PulsarS
2009-11-24, 21:59:40
Denk mal richtig nach, warum gerade Batman? Machts Klick?
Nö, es macht leider kein Klick. :(
Was ist an Batman so besonders?
Meiner Meinung nach ist das Spiel zwar gut, aber nicht sehr gut, nichts besonderes.
Also sags mir :)

Nakai
2009-11-24, 22:02:56
Standard.

Danke...:facepalm:

Deiner Aussage stimme ich grundsätzlich zu.
Die Frage ist nur wie?
Ein IHV wird kaum Interesse haben einen offenen Standard (Physik-Engine) selbst zu entwickeln und danach den Mitbewerbern zu überlassen, damit sie auch davon profitieren.
Wenn man z.B. Havok lizensiert hätte, wäre es doch ähnlich wie PhysX@GPU bei NV verlaufen.

Man bräuchte nur ein passendes Backend für eine Physikengine. Bullet is ja OpenSource. Evtl müsste man dann den Treiber noch dafür umstellen und ein paar Entwickler überzeugen. Tja, das man damit auch NV hilft is ja klar, aber imo könnte man damit auch Hardware-PhysX seitens NV eindämmen und evtl auch NV dazu bewegen einen OCL oder CS Backend zu schreiben.


mfg

Gast
2009-11-25, 00:34:19
Physix läuft mit Hack mit Ati Karten als Renderer, für die Physikberechnung braucht man aber immer noch eine Nvidia Karte oder eine alte Ageia Karte. Es gab mal jemanden der Behauptet hat, Physix auf einer Ati 3870 zum laufen gebracht zu haben und spenden gesammelt hat für eine 4870 zum testen, es gab aber soweit ich weiss bis auf ein paar Screenshots nie einen Beweis das das wirklich klappt.

anddill
2009-11-25, 00:51:00
Ehrlich, ich bin kein Fan von Microsofts Praktiken, aber damals, als sie mit DirectX den ganzen Herstellerkram wie Rredline und vor allem Glide weggeputzt haben hab ich Beifall geklatscht. Auch wenn mir OpenGl als offizieller systemübergreifender Grafikstandard lieber gewesen wäre. Naja, MS halt.
Im Moment hoffe ich, daß sie mit GPU-Physik das selbe machen. Mit den Compute-Shadern ist ja eine Basis vorhanden. Oder es geschehen noch Zeichen und Wunder, und Bullet setzt sich durch.

Coda
2009-11-25, 06:08:22
Mit den Compute-Shadern ist ja eine Basis vorhanden. Oder es geschehen noch Zeichen und Wunder, und Bullet setzt sich durch.
Wozu "oder"?

Gast
2009-11-25, 09:42:22
PhysX ist verkaufsträchtig wird man doch so manches Spiel nie ohne in "voller Qalität" auf einer ATI-Karte bewundern dürfen.

Übrigens in UT3 gibt es statischen volumetrischen Nebel auf einigen Maps,
man kann schon mehr Funken als 3 Stück per CPU berechnen lassen, in Mirrors Edge gibt es AA für alle und das basiert auf der gleichen Engine.

Tatsache ist man hätte das Spiel auch vollkommen ohne HW-PhysX deutlich aufhübschen können. Aber das käme dem Bild von HW-PhysX viel zu nah, oder?

Nazar
2009-11-25, 10:28:58
PhysX ist verkaufsträchtig wird man doch so manches Spiel nie ohne in "voller Qalität" auf einer ATI-Karte bewundern dürfen.

Übrigens in UT3 gibt es statischen volumetrischen Nebel auf einigen Maps,
man kann schon mehr Funken als 3 Stück per CPU berechnen lassen, in Mirrors Edge gibt es AA für alle und das basiert auf der gleichen Engine.

Tatsache ist man hätte das Spiel auch vollkommen ohne HW-PhysX deutlich aufhübschen können. Aber das käme dem Bild von HW-PhysX viel zu nah, oder?


Du scheinst nicht zu verstehen, dass sich keine Produzent, ohne Not, in die Abhängigkeit eines Konkurrenten begeben wird!
Und bei PhysiX besteht nicht ein Hauch von Gefahr eine Not zu erzeugen!
Die Effekte sind zwar stellenweise toll, doch für das Spielgeschehen total für den Popo. Teilweise muss extra auf die Auswirkung der Effekte durch Videos hingewiesen werden, um sie als DAS Bonbon zu erkennen.

MorPheuZ
2009-11-25, 12:10:30
... wenn PhysX weiter an Bedeutung gewinnen soll dann geht es nur mit Hilfe von ATI.


Aber die Havok-Engine wird bestimmt auf die Larrabees zugeschnitten werden und so gefährlich für nvidia werden.


Aso ist das, Intel "darf" dann die "eigene" Engine haben, nV aber nicht:confused:

Ailuros
2009-11-25, 12:25:05
Du scheinst nicht zu verstehen, dass sich keine Produzent, ohne Not, in die Abhängigkeit eines Konkurrenten begeben wird!
Und bei PhysiX besteht nicht ein Hauch von Gefahr eine Not zu erzeugen!
Die Effekte sind zwar stellenweise toll, doch für das Spielgeschehen total für den Popo. Teilweise muss extra auf die Auswirkung der Effekte durch Videos hingewiesen werden, um sie als DAS Bonbon zu erkennen.

In Batman wedeln so viele Fahnen mit hohen PhysX settings dass man blind sein muss dass man den Unterschied nicht auf Anhieb sieht. Dennoch hast Du recht dass es sich selbst in diesem Fall um sinnlose Zusaetze handelt die zumindest fuer meinen Geschmack nicht unbedingt zum gameplay bzw. generellerer Atmosphaere etwas nennenswertes hinzufuegt.

Aber ist es nicht immer so mit frisch vorgestellten Effekten? Es haengt vom Spiel-Entwickler bzw. ISV ab wie man jeglichen Effekt sinnvoll implementiert oder eben nicht und darueber koennen jegliche IHVs auch nichts anrichten. Die Entwicklung fuer bessere Effizienz im game code koennen sie natuerlich unterstuetzen aber dass sie Kontrolle ueber den eigentlichen Spiel-Inhalt haben will ich ernsthaft bezweifeln.

Das einzige was mich dann als Verbraucher dann troestet ist dass ich mir X, Y oder Z ansehen kann und wenn es mir nicht zusteht es einfach links liegen zu lassen (abschalten) bis ISVs von Effekten/Technologie X einen balancierteren Gebrauch machen. Und dieses ist natuerlich nicht nur auf PhysX begrenzt.

Wir erzaehlen uns hier auch nichts Neues. Es wiederholt sich lediglich immer und immer wieder die gleiche Geschichte nur mit unterschiedlichen/fortschrittlicheren Parametern.

Gast
2009-11-25, 13:48:19
Richtig Ailuros.
Physx ist ein Extra, welches mir mit der passenden Hardware ermöglicht wird. Es verändert (bis auf wenige Techdemo-artige Spielchen) nicht das Spiel, aber die Optik, und damit den Realismus.

Ähnliches gilt für Anti-Aliasing oder hohe Auflösungen - mit dem Unterschied, dass es hier herstellerübergreifend ist. Darüber regt sich keiner auf, jeder findet es normal, dass ich eine teure Grafikkarte brauche, um in Spiel X die 2560er-Auflösung flüssig zu bekommen. Mit einer Schrott-Karte oder Chipsatzgrafik geht das nicht - entweder nicht flüssig oder gar nicht (einige Intel-IGPs und MSAA) Völlig normal soweit.

Auch die Implementierung muss von den Devs erstmal gelernt werden. Während die Kügelchen im UT3-Bonuslevel einfach nur lächerlich waren, sind die Fluids in Cryostasis schon einen Schritt weiter, erinnern aber ebenfalls noch nicht an richtige Flüssigkeiten. Die Effekte in Mirror's Edge waren dagegen schon stimmiger und in Batman: AA (Arkham Asylum) finde ich zumindest den Bodennebel und die Spinnenweben stellenweise sehr atmosphärisch - die Fahnen eher weniger.

Erinnert das wen an was? Quecksilber-Flecken als Wasserersatz in Morrowind zu Zeiten als die Entwickler mit den ersten DX8-Shadern herumexperimentierten? Plastikpuppen-Look in den Far-Cry-Gesichtern als DX9-Shader langsam modern wurden (auch wenn die bei den Faces gar nicht zum Einsatz kamen) oder Polygon-Armut der Modelle vor lauter Begeisterung über Normal-Mapping in Doom3? (Ok, hier waren auch die Stencil-Schatten und deren Füllratenhunger schuld). Aber ihr seht das System, gelle?

Ist eine Effektklasse neu, nutzen viele Entwickler sie mit Holzhammer-Mentalität, damit bloß keiner übersieht, dass sie verwendet wurde. Später, wenn sich das Feature eingebürgert hat, wird es mit wesentlich mehr Augenmaß eingesetzt. Und so wird es auch der Effekt-Physik ergehen. Nvidia weiß, dass die meisten Spieler (und auch Reviewer) lieber einen Schieberegler für die Effektdichte haben als ein Binärsystem "An oder Aus".

anddill
2009-11-25, 17:41:14
Wozu "oder"?
MS bastelt was eigenes, was auf Compute-Shader aufsetzt oder Bullet setzt sich durch.
War etwas unkomplett geschrieben.

Coda
2009-11-25, 18:06:05
Was eigenes von Microsoft erwarte ich nicht, aber irgendjemand wird für Bullet auch ein CS-Backend schreiben irgendwann. Und wenn er von Microsoft unter der Hand dafür bezahlt wird.

Problem ist nur, das Bullet unter der zlib-Lizenz steht, d.h. man muss die Änderung nicht notgedrungen in Source veröffentlichen.

DrFreaK666
2009-11-25, 19:47:33
Aso ist das, Intel "darf" dann die "eigene" Engine haben, nV aber nicht:confused:

Das wollte ich damit nciht sagen.
Ich meinte eher, dass nv + ATI stärker als Intel wären.
Würde GPU-PhysX auch auf ATI-Karten funktionieren dann wäre eine breitere Masse da.
Das müsste Intel erstmal toppen.
Aber in der jetzigen Situation ist es für die Entwickler nur ein nettes Gimmik, dass anscheinend zu viel Geld kostet

Ailuros
2009-11-26, 07:52:21
Richtig Ailuros.
Physx ist ein Extra, welches mir mit der passenden Hardware ermöglicht wird. Es verändert (bis auf wenige Techdemo-artige Spielchen) nicht das Spiel, aber die Optik, und damit den Realismus.

So lange eine gesunde Balance eingehalten wird hab ich auch nichts dagegen. Das dumme ist eben dass die Implementierung jeglicher neuen Effekte erst diese Balance mit der Zeit erreicht.

Ähnliches gilt für Anti-Aliasing oder hohe Auflösungen - mit dem Unterschied, dass es hier herstellerübergreifend ist. Darüber regt sich keiner auf, jeder findet es normal, dass ich eine teure Grafikkarte brauche, um in Spiel X die 2560er-Auflösung flüssig zu bekommen. Mit einer Schrott-Karte oder Chipsatzgrafik geht das nicht - entweder nicht flüssig oder gar nicht (einige Intel-IGPs und MSAA) Völlig normal soweit.

Der Vergleich ist aber nichtdestominder merkwuerdig, denn erstens kannst Du etwas wie AA auf jegliches Spiel (heutzutage gibt es natuerlich Ausnahmen) dazuschalten und zweitens physics beschraenken sich nicht nur auf den optischen Teil. Bei einer sehr guten Implementierung von physics wird gameplay auch durchaus beinflusst und das einfachste Beispiel waere ein racing sim. Je besser die physics hier desto realitaetsnaeher das Fahrgefuehl im Karren den der Spieler faehrt.

Natuerlich je mehr in einem Spiel zugeschaltet wird desto faehigere hw braucht man auch, daran liegt nichts Neues.

Auch die Implementierung muss von den Devs erstmal gelernt werden. Während die Kügelchen im UT3-Bonuslevel einfach nur lächerlich waren, sind die Fluids in Cryostasis schon einen Schritt weiter, erinnern aber ebenfalls noch nicht an richtige Flüssigkeiten. Die Effekte in Mirror's Edge waren dagegen schon stimmiger und in Batman: AA (Arkham Asylum) finde ich zumindest den Bodennebel und die Spinnenweben stellenweise sehr atmosphärisch - die Fahnen eher weniger.

Wie gesagt es braucht seine Zeit bis sich das Ganze von selber normalisiert.

Erinnert das wen an was? Quecksilber-Flecken als Wasserersatz in Morrowind zu Zeiten als die Entwickler mit den ersten DX8-Shadern herumexperimentierten? Plastikpuppen-Look in den Far-Cry-Gesichtern als DX9-Shader langsam modern wurden (auch wenn die bei den Faces gar nicht zum Einsatz kamen) oder Polygon-Armut der Modelle vor lauter Begeisterung über Normal-Mapping in Doom3? (Ok, hier waren auch die Stencil-Schatten und deren Füllratenhunger schuld). Aber ihr seht das System, gelle?

Eben.

Ist eine Effektklasse neu, nutzen viele Entwickler sie mit Holzhammer-Mentalität, damit bloß keiner übersieht, dass sie verwendet wurde. Später, wenn sich das Feature eingebürgert hat, wird es mit wesentlich mehr Augenmaß eingesetzt. Und so wird es auch der Effekt-Physik ergehen. Nvidia weiß, dass die meisten Spieler (und auch Reviewer) lieber einen Schieberegler für die Effektdichte haben als ein Binärsystem "An oder Aus".

So lange ich etwas was mir persoenlich nicht zuspricht abschalten oder maessigen kann, hab ich auch nichts einzuwenden.

Das "aber" hier ist fuer diesen Thread eher im kleinpolitischen Bereich welcher IHV mit welchen Mitteln genau drueckt bzw. vermarktet. Waere es andersrum dass AMD in NV's Schuhen stehen wuerde was physics betrifft, waere physics fuer die AMD Fraktion das gelbste vom Ei und fuer die Opposition nutzloser Mist.

Ich kann zwar persoenlich nicht sagen dass ich als Verbraucher mit den bisherigen physics Implementierungen vom Sockel gerissen bin, aber Anhand der Einsicht dass es noch zu frueh ist und die Technologie durchaus seinen Nutzen haben kann, investiere ich momentan zwar nichts zusaetzliches in hw fuer physics bis jetzt lass aber das Fenster offen fuer die Zukunft wenn sich das ganze normalisiert.

Ailuros
2009-11-26, 08:02:09
Das wollte ich damit nciht sagen.
Ich meinte eher, dass nv + ATI stärker als Intel wären.
Würde GPU-PhysX auch auf ATI-Karten funktionieren dann wäre eine breitere Masse da.
Das müsste Intel erstmal toppen.
Aber in der jetzigen Situation ist es für die Entwickler nur ein nettes Gimmik, dass anscheinend zu viel Geld kostet

Eventuell geht es im Fall von Intel Larabee nicht nur um die userbase sondern auch um die eingetlichen Faehigkeiten der GPU selber. Es kann sein dass ich etwas verpasse aber so wie LRB bis jetzt aussieht, hab ich Vorbehaltungen was physics betrifft. Es wird ja so oder so schwer haben mit den anderen GPUs mitzuhalten, was mich nicht denken laesst dass man Resourcen auch noch fuer physics uebrig haben koennte. Wenn man ueberhalb dem Performance GPU Nivaeu liegt kann man durchaus daran denken.

NVIDIA beharrt stur auf ihrer eigenen PhysX Implementierung weil eine Unmenge an Resourcen dafuer investiert wurden und werden (u.a. auch der AGEIA Aufkauf). Sich jetzt zu drehen und AMD einfach mitspielen lassen waere zwar ideal fuer uns Verbraucher, aber NV waere dann der einzige bloede der die fette Rechnung bezahlt und AMD wuerde einfach umsonst mitmachen.

DrFreaK666
2009-11-26, 13:58:03
...NVIDIA beharrt stur auf ihrer eigenen PhysX Implementierung weil eine Unmenge an Resourcen dafuer investiert wurden und werden (u.a. auch der AGEIA Aufkauf). Sich jetzt zu drehen und AMD einfach mitspielen lassen waere zwar ideal fuer uns Verbraucher, aber NV waere dann der einzige bloede der die fette Rechnung bezahlt und AMD wuerde einfach umsonst mitmachen.

Für solche Fälle gibt es ja Lizenzgebühren.
Ich bezweifle aber, dass AMD dazu bereit wäre

Ailuros
2009-11-26, 14:18:53
Für solche Fälle gibt es ja Lizenzgebühren.
Ich bezweifle aber, dass AMD dazu bereit wäre

LOL@offensichtliche ;)

MorPheuZ
2009-11-26, 14:48:12
Für solche Fälle gibt es ja Lizenzgebühren.
Ich bezweifle aber, dass AMD dazu bereit wäre

Ja, warum wird dann überhaupt diskutiert hier, wenns eigentlich offensichtlich ist :confused:

deekey777
2009-11-26, 15:25:18
PhysX' Lizenzvereinabrung sieht vor, dass dieses nur auf von Nvidia genannten Plattformen benutzt werden darf. Und das wäre in der PC-Welt ein PC mit einer x86-CPU und einer Nvidia-Grafikkarte für PhysX@GPU. Das heißt: Selbst wenn du den Sourcecode hast, darfst du nicht dafür ein Backend schreiben, mit dem dann PhysX auf einer Radeon läuft, denn das ist keine von Nvidia erlaubte Plattform.
Und darauf hat AMD null Bock. Hätte ich auch nicht. Aber so lange Nvidia ein Monopolist im Bezug auf Physik auf GPUs bleibt, können sie sich das auch leisten, denn außer CUDA und 3D-Brillen haben sie nichts anzubieten.

LovesuckZ
2009-11-26, 15:29:20
Was hat denn AMD mehr anzubieten außer Eyefinity und ein totes Stream? :rolleyes:
Vor kurzem hatten sie sogar noch nichtmal vernünftiges AF, einen vernünftigen IDLE-Modus, vernünftige DC und OpenCL Unterstützung sowie die Möglichkeit von SSAA - ganz davon abgesehen, dass sie weder in der Lage waren eine Alternative zu 3D Vision noch PhysX auf den markt zu bringen.

deekey777
2009-11-26, 15:31:44
Was hat denn AMD mehr anzubieten außer Eyefinity und ein totes Stream? :rolleyes:
Vor kurzem hatten sie sogar noch nichtmal vernünftiges AF, einen vernünftigen IDLE-Modus, vernünftige DC und OpenCL Unterstützung sowie die Möglichkeit von SSAA.
DirectX 11. Oder DirectX 10.1 seit zwei Jahren.

Gast
2009-11-26, 15:33:43
DirectX 11. Oder DirectX 10.1 seit zwei Jahren.

Und was ist daran jetzt wichtig? DX10 hat sich bis heute nicht durchgesetzt.

LovesuckZ
2009-11-26, 15:34:13
DirectX 11. Oder DirectX 10.1 seit zwei Jahren.

nVidia in Zukunft auch. Was bietet also AMD mehr außer Eyefinity?

Gast
2009-11-26, 16:14:08
Was hat denn AMD mehr anzubieten außer Eyefinity und ein totes Stream? :rolleyes:
Vor kurzem hatten sie sogar noch nichtmal vernünftiges AF, einen vernünftigen IDLE-Modus, vernünftige DC und OpenCL Unterstützung sowie die Möglichkeit von SSAA - ganz davon abgesehen, dass sie weder in der Lage waren eine Alternative zu 3D Vision noch PhysX auf den markt zu bringen.


-nana, vernünftiges AF gabs schon immer, bloss hatte NV kleines bissel besseres aber zusagen das ATI AF schlecht war ist voll daneben

-den vernünftigen IDLE Modus gabs doch schon seit der 3800er Serie, ob der nun so funzt wie er soll ist erstmal zumindest waren sie immer besser als Nvidia

-wie man sehen tut war SSAA nur eine Treiber sache, das geht selbst auf der 4800er

-3Dvision/3D Brille braucht doch keiner ist eine nette idee ist aber schon jetzt schon tot einen 120 Hz Monitor ist pflicht was in den nächsten jahren keine Sau haben wird

-PhysX, gut dazu sage ich nicht viel, AMD hat wohl schon vor langer Zeit gesehen was damit passiert :ugly:

RLZ
2009-11-26, 16:26:23
Für solche Fälle gibt es ja Lizenzgebühren.
Ich bezweifle aber, dass AMD dazu bereit wäre
Grundsätzliches Verständnisproblem.
Nvidia ist im Falle PhysX Middlewareanbieter. Sie und niemand anderes sind verantwortlich ihre Software auf andere Plattformen zu portieren. Die Auswahl ihrer Targetplattformen ist rein ihre Entscheidung. Genausowenig wie Sony für sie eine SPU Implementierung gebaut hat, wird AMD für sie eine OpenCL/ATI Stream Version bauen. Schließlich verdient vorallem mal Nvidia mit der Middleware Geld.
Nvidia portiert ja auch nicht anderer Firmen Middleware auf Cuda. Sie reden auch nur sehr energisch und bisher höchst erfolglos auf die anderen Middlewareanbieter ein. :freak:

Was absolut nicht passt, ist das Gespräch der Nvidia Middlewareleute, dass sie den PC Markt stärken wollen. Das tun sie mit der Entscheidung nicht.
Imo müsste die Strategie dann sein, eine CS oder OpenCL Implementierung zu schreiben. Durch einen gestärkten PC Markt könnten sie dann durch die höheren Margen als im Konsolenbereich vielleicht Geld verdienen. (um sonst und nichts anderes gehts).

An AMDs Stelle gibt es nur 3 gute Strategien:
- Aussitzen. GPU-PhysX ist durch das Henne-Ei Problem bisher nicht marktrelevant und wird es als NV-only nicht werden.
- Eigene Physikengine. Bedeutet allerdings massiven Aufwand.
- Einem Opensourceprojekt mit wenig Zeit- und Geldaufwand helfen. Damit erspart man sich den Aufbau eines ganzen Geschäftsbereiches.

AMD hat halt die Variante mit den höchsten Marketing/Aufwand Grad gewählt.

Gast
2009-11-26, 16:30:44
-nana, vernünftiges AF gabs schon immer, bloss hatte NV kleines bissel besseres aber zusagen das ATI AF schlecht war ist voll daneben
So vernünftig das die GF7 dafür abgestraft wurde?
Die X1000 wurde noch für ihr AI-off AF gelobt, bzw die GF7 abgestraft.

Wie sich die Zeiten ändern.


-wie man sehen tut war SSAA nur eine Treiber sache, das geht selbst auf der 4800er
Achso, können die HD4 jetzt auch SSAA? Und die HD2?

LovesuckZ
2009-11-26, 16:38:03
Was absolut nicht passt, ist das Gespräch der Nvidia Middlewareleute, dass sie den PC Markt stärken wollen. Das tun sie mit der Entscheidung nicht.
Imo müsste die Strategie dann sein, eine CS oder OpenCL Implementierung zu schreiben. Durch einen gestärkten PC Markt könnten sie dann durch die höheren Margen als im Konsolenbereich vielleicht Geld verdienen. (um sonst und nichts anderes gehts).

nVidia ist kein Middlewareanbieter im PC-Gamer-Markt. Der Kauf von Ageia lag rein nur an der Möglichkeit schnell an eine fertige Physik-API zu kommen, die man auf Cuda portieren konnte.


An AMDs Stelle gibt es nur 3 gute Strategien:
- Aussitzen. GPU-PhysX ist durch das Henne-Ei Problem bisher nicht marktrelevant und wird es als NV-only nicht werden.
- Eigene Physikengine. Bedeutet allerdings massiven Aufwand.
- Einem Opensourceprojekt mit wenig Zeit- und Geldaufwand helfen. Damit erspart man sich den Aufbau eines ganzen Geschäftsbereiches.

AMD hat halt die Variante mit den höchsten Marketing/Aufwand Grad gewählt.

Aussitzen finde ich nicht wirklich aufwendisch. Die paar PowerPoint-Folien sind auch in 5 Minuten geschrieben. Der Rest wird verschwiegen.

deekey777
2009-11-26, 16:46:58
nVidia in Zukunft auch. Was bietet also AMD mehr außer Eyefinity?
Ich sehe jetzt keine DX11-Geforce. Die Zukunft ist egal.
Und jetzt zu CUDA: Nenne mir ein kaufentscheidendes Kriterium, das die Unterstützung von CUDA für mich bringt.

LovesuckZ
2009-11-26, 16:50:43
Ich sehe jetzt keine DX11-Geforce. Die Zukunft ist egal.

Ich werde dich das noch nochmal fragen, wenn es D3D11-Geforce gibt. Vielleicht kannst du dann die Frage beantworten, was AMD mehr bietet außer Eyefinity.


Und jetzt zu CUDA: Nenne mir ein kaufentscheidendes Kriterium, das die Unterstützung von CUDA für mich bringt.

Sag du es mir: Laut dir wäre es ein Vorteil. :rolleyes:

MorPheuZ
2009-11-26, 16:51:13
Wiso erst nv erniedern

- Aussitzen. GPU-PhysX ist durch das Henne-Ei Problem bisher nicht marktrelevant und wird es als NV-only nicht werden.

Und dann AMD trotzdem ermutigen


- Eigene Physikengine. Bedeutet allerdings massiven Aufwand.


Was genau kann AMD soviel besser als nv?

RLZ
2009-11-26, 16:54:32
nVidia ist kein Middlewareanbieter im PC-Gamer-Markt. Der Kauf von Ageia lag rein nur an der Möglichkeit schnell an eine fertige Physik-API zu kommen, die man auf Cuda portieren konnte.
Wieviele Gespräche hast du mit den zuständigen Leuten schon geführt, um das beurteilen zu können? :rolleyes:
Ausserdem wenn sie nur ne CUDA Version hätten bauen wollen, wie erklärst du dir dann, dass sie noch ne SPU Implementierung gebaut haben?
Aussitzen finde ich nicht wirklich aufwendisch. Die paar PowerPoint-Folien sind auch in 5 Minuten geschrieben. Der Rest wird verschwiegen.
Sie unterstützen laut ihrem Marketing die Bulletengine.

Was genau kann AMD soviel besser als nv?
Wahrscheinlich nichts. Ein Einstieg in den Middlewaremarkt ist verdammt hart und würde bedeuten, dass AMD ein ganz neues Fass öffnen müsste, von dem sie bisher bewusst die Finger gelassen haben. Es wäre trotzdem eine Möglichkeit.

Schlammsau
2009-11-26, 16:57:26
Sie unterstützen laut ihrem Marketing die Bulletengine.

Und mittlerweile wieder Havok FX.
http://www.pcgameshardware.de/aid,679934/GDC-2009-AMD-und-Havok-zeigen-Physik-Videos-und-kuendigen-GPU-Beschleunigung-an/Technologie/News/

LovesuckZ
2009-11-26, 17:06:31
Wieviele Gespräche hast du mit den zuständigen Leuten schon geführt, um das beurteilen zu können? :rolleyes:
Ausserdem wenn sie nur ne CUDA Version hätten bauen wollen, wie erklärst du dir dann, dass sie noch ne SPU Implementierung gebaut haben?

nVidia verdient das meiste Geld durch den Verkauf von Grafikkarten. Wenn sie Geld in eine Middleware-Software investieren, die dann auch auf der Hardware der Konkurrenz läuft, ist das eine Fehlinvestition. Der Kauf von Ageia hat ihnen die Möglichkeit gegeben relativ schnell Physikberechnungen über die GPU zu ermöglichen. Die Tools für PhysX waren schon entwickelt, die Engine bekannt und als Standard z.B. in der UE3 vertreten. Spiele gab es auch schon, die man kurz angepasst hat, so dass sie auch über die GPU laufen.
nVidia will PhysX überall haben - deswegen auch die ganzen Möglichkeiten in Form der xboe360, der PS3, der Wii, PC, iPhone etc. Je mehr Entwickler sie ansprechen, je mehr Anwendungen mit PhysX erscheinen, umso größer ist der Einflussbereich vorallen in Bezug mit GPU-PhysX.


Sie unterstützen laut ihrem Marketing die Bulletengine.

So auch nVidia. nVidia bieten vollständigen DC Support bis zu 8800GTX (AMD nur für die D3D11 Karten) und waren als erste mit vollständigen OpenCL auf dem Markt. Die Bullet-Leute haben gesagt, dass sie nVidia-Hardware, Dokumentation und Beispiel aus den SDK nehmen, um ihre Bullet-Engine auf OpenCL zu portieren. Eine Version über Cuda gibt es schon seit Monaten. nVidia ist immer hilfsbereit. Sie werden auch in Zukunft jeden Entwickler helfen, der Probleme mit OpenCL und DC hat. So wie es nVidia auch bei Grafik-Engine Entwicklern macht.

Und mittlerweile wieder Havok FX.
http://www.pcgameshardware.de/aid,679934/GDC-2009-AMD-und-Havok-zeigen-Physik-Videos-und-kuendigen-GPU-Beschleunigung-an/Technologie/News/

Es wird nicht richtiger. Es gab nie eine konkrete Zusammenarbeit zwischen Havok (Intel) und AMD.

Schlammsau
2009-11-26, 17:17:31
Es wird nicht richtiger. Es gab nie eine konkrete Zusammenarbeit zwischen Havok (Intel) und AMD.

Hast du nen Link, der deine Aussage untermauert?

Gast
2009-11-26, 17:21:07
Und mittlerweile wieder Havok FX.
http://www.pcgameshardware.de/aid,679934/GDC-2009-AMD-und-Havok-zeigen-Physik-Videos-und-kuendigen-GPU-Beschleunigung-an/Technologie/News/

"Mittlerweile" haben wir November und nicht März...

Neocroth
2009-11-26, 17:22:04
Es wird nicht richtiger. Es gab nie eine konkrete Zusammenarbeit zwischen Havok (Intel) und AMD.

Wie schon Schlammsau geschrieben hat:

http://www.pcgameshardware.de/aid,679934/GDC-2009-AMD-und-Havok-zeigen-Physik-Videos-und-kuendigen-GPU-Beschleunigung-an/Technologie/News/

Aber die Kooperation war ja auch nichts neues:

http://www.heise.de/newsticker/meldung/AMD-und-Intel-arbeiten-bei-Physikbeschleunigung-zusammen-213804.html

Wie auch immer - solange keine Möglichkeit besteht, Physik sowohl auf GeForce als auch auf Radeon-Karten GPU-beschleunigen zu können, wird sich nichts davon durchsetzen.

Schlammsau
2009-11-26, 17:25:48
"Mittlerweile" haben wir November und nicht März...

Und? Meinst du etwa das jetzt sofort Havok Beschleunigte Titel veröffentlicht werden? Das dauert eben seine Zeit.

LovesuckZ
2009-11-26, 17:36:24
Hast du nen Link, der deine Aussage untermauert?

AMD did the porting for the initial demos for GDC. We took the C functions that underpin the Havok API and ported them to OpenCL, i.e. some runtime OCL code and then the compute loops turned into OCL kernels.
http://forum.beyond3d.com/showpost.php?p=1281098&postcount=54

True, but the only place I've seen Havok running on OpenCL so far was the AMD demonstration at the "Khronos University" at GDC, with no OpenCL at the Havok part of Intels booth. When asking about the OpenCL implementation the representative told me he hadn't seen it, nor did he know about any OpenCL implementation coming soon...

But hopefully AMD will do something about that even if Intel doesn't...
http://forum.beyond3d.com/showpost.php?p=1280649&postcount=30

Und es ist schon ziemlich absurd zu glauben, dass Intel ein Verkaufsargument für (ihre) CPUs einfach so weggeben wird. Eher wird Bullet mit GPU-Unterstützung in einem Spiel auf dem Markt sein.

DrFreaK666
2009-11-26, 17:43:56
...nVidia will PhysX überall haben - deswegen auch die ganzen Möglichkeiten in Form der xboe360, der PS3, der Wii, PC, iPhone etc. Je mehr Entwickler sie ansprechen, je mehr Anwendungen mit PhysX erscheinen, umso größer ist der Einflussbereich vorallen in Bezug mit GPU-PhysX. ....

Dann macht GPU-PhysX seeeeeeeeehr viel Sinn.
Die 360 kann es nicht, die PS3 kann es nicht, die Wii kann es nicht, der Iphone kann es nicht.
Es geht nur auf PCs, und dann auch nur mit nvidia-Grafikkarten.
Das scheint allerdings nicht sehr profitabel zu sein, sonst wären mehrere Kracher damit ausgestattet worden (GTA IV, Call of Duty...)

Schlammsau
2009-11-26, 17:44:16
http://forum.beyond3d.com/showpost.php?p=1281098&postcount=54


http://forum.beyond3d.com/showpost.php?p=1280649&postcount=30

Und es ist schon ziemlich absurd zu glauben, dass Intel ein Verkaufsargument für (ihre) CPUs einfach so weggeben wird. Eher wird Bullet mit GPU-Unterstützung in einem Spiel auf dem Markt sein.

ok....

Aber Havok läuft auf allen CPU Herstellern und dürfte somit kein pro Intel Argument sein. Es sei denn Havok, läuft deutlichst besser auf Intel als auf AMD.

Mal abwarten.

Gast
2009-11-26, 18:29:20
Ich hab den Link von PCGH zum erstenmal gesehen, udn find das sehr beeindruckent das mit der Brücke.

Ich hoffe sowas setzt sich durch auf allen PCs, PhysX ist wie gesagt Müll da nur auf Nvidia Karten.

RLZ
2009-11-26, 19:28:02
nVidia verdient das meiste Geld durch den Verkauf von Grafikkarten. Wenn sie Geld in eine Middleware-Software investieren, die dann auch auf der Hardware der Konkurrenz läuft, ist das eine Fehlinvestition.
Bei der Einstellung dürfte Nexus auch nur Cuda unterstützen.

Eine Fehlinvestion wäre es, wenn man langfristig Verlust damit einfährt oder seine Marktposition schwächt. Letzteres ist aber nur der Fall, wenn ein Konkurrent mehr von der eigenen Investition profitiert als man selbst.


Noch ein schönes Beispiel von erfolgreichem Marketing:
So auch nVidia. nVidia bieten vollständigen DC Support bis zu 8800GTX (AMD nur für die D3D11 Karten) und waren als erste mit vollständigen OpenCL auf dem Markt.
Ich musste vor ein paar Tagen noch ein Treiberdowngrade für eine Nvidiakarte durchführen, damit ich mit einer OpenCL Evaluierung beginnen konnte. Das nennt sich mal tolle Unterstützung. :biggrin:

Die Bullet-Leute haben gesagt, dass sie nVidia-Hardware, Dokumentation und Beispiel aus den SDK nehmen, um ihre Bullet-Engine auf OpenCL zu portieren.
Wow.
Hast du dir die Doku im OpenCL SDK mal angeschaut? :freak:

Der Kauf von Ageia hat ihnen die Möglichkeit gegeben relativ schnell Physikberechnungen über die GPU zu ermöglichen. Die Tools für PhysX waren schon entwickelt, die Engine bekannt und als Standard z.B. in der UE3 vertreten. Spiele gab es auch schon, die man kurz angepasst hat, so dass sie auch über die GPU laufen.
nVidia will PhysX überall haben - deswegen auch die ganzen Möglichkeiten in Form der xboe360, der PS3, der Wii, PC, iPhone etc. Je mehr Entwickler sie ansprechen, je mehr Anwendungen mit PhysX erscheinen, umso größer ist der Einflussbereich vorallen in Bezug mit GPU-PhysX.

Ok ich geb die Diskussion auf.
Deine Argumente zeigen keinerlei Anzeichen von Entwicklungserfahrung in dem Bereich oder tiefere Kenntnisse vom Markt.

BlackBirdSR
2009-11-26, 19:42:00
Dann macht GPU-PhysX seeeeeeeeehr viel Sinn.
Die 360 kann es nicht, die PS3 kann es nicht, die Wii kann es nicht, der Iphone kann es nicht.
Es geht nur auf PCs, und dann auch nur mit nvidia-Grafikkarten.
Das scheint allerdings nicht sehr profitabel zu sein, sonst wären mehrere Kracher damit ausgestattet worden (GTA IV, Call of Duty...)

Aber PhysX ist eine API mit hoher Verbreitung. Mit dem entsprechenden Maß an Überzeugung (Geld/Zeit) kann die PS3 hier einiges erreichen. Für alle anderen ist PhysX eine potente Physik-Engine.

Sollte sich PhysX als Grundgerüst weiter durchsetzen können, dann wird es immer leichter für Hersteller, die spezifischen Features der einzelnen Platformen damit abzustimmen. Ob das nun GPU-PhysX ist, oder bessere Optimierung vorhandener CPU-Resourcen auf Konsolen.

LovesuckZ
2009-11-26, 19:46:41
Bei der Einstellung dürfte Nexus auch nur Cuda unterstützen.

Leider ist die Nexus Seite ziemlich schlecht: Werden denn andere GPUs außer denen von nVidia unterstützt? Denn darum geht es.


Eine Fehlinvestion wäre es, wenn man langfristig Verlust damit einfährt oder seine Marktposition schwächt. Letzteres ist aber nur der Fall, wenn ein Konkurrent mehr von der eigenen Investition profitiert als man selbst.

Und AMD profitiert davon in doppelter Hinsicht, da sie keine Investitionskosten haben und gleichzeitig der Markt für die GPUs gestärkt wird. Keine Firma entwickelt solche Software, um den direkten Konkurrenten dann noch etwas gutes zu tun. nVidia wiederrum hätte dadurch auch kein Abgrenzungsmerkmal mehr zu AMD. Oder portiert Microsoft seine Inhouse-Titel nun auch schon auf die Playstation3, um den Konsolenmarkt zu stärken?


Ich musste vor ein paar Tagen noch ein Treiberdowngrade für eine Nvidiakarte durchführen, damit ich mit einer OpenCL Evaluierung beginnen konnte. Das nennt sich mal tolle Unterstützung. :biggrin:

Erstaunlich, hat das irgendwas mit der Aussage zu tun?


Wow.
Hast du dir die Doku im OpenCL SDK mal angeschaut? :freak:

Ich bin nicht der Pressesprecher von Bullet.


Ok ich geb die Diskussion auf.
Deine Argumente zeigen keinerlei Anzeichen von Entwicklungserfahrung in dem Bereich oder tiefere Kenntnisse vom Markt.

Ich benötige kein Entwicklerhintergrund, um Marktaktivitäten verstehen zu müssen. Du hast einfach nicht verstanden, wie nVidia für die Zukunft die Bedeutung von GPU-Physik einschätzt und warum sie sich Ageia gekauft haben. Gekauft haben sie Ageia nämlich nicht, um mit der Lizenzierung der Engine groß Geld zu verdienen.

RLZ
2009-11-26, 20:11:31
Gekauft haben sie Ageia nämlich nicht, um mit der Lizenzierung der Engine groß Geld zu verdienen.
Hab ich ja auch nie behauptet.
Sie treten aber mit PhysX auf dem Markt als ein Middlewareanbieter auf. Sie behandeln alle dementsprechend und werden so behandelt. Deswegen sind die Vorstellungen, dass AMD denen ein Backend implementiert soll/kann/muss einfach Wahnvorstellungen.

Zu den Gründen warum sie in den Markt eingestiegen sind hab ich nichts gesagt.

LovesuckZ
2009-11-26, 20:23:30
Hab ich ja auch nie behauptet.
Sie treten aber mit PhysX auf dem Markt als ein Middlewareanbieter auf. Sie behandeln alle dementsprechend und werden so behandelt. Deswegen sind die Vorstellungen, dass AMD denen ein Backend implementiert soll/kann/muss einfach Wahnvorstellungen.

Da PhysX nicht offen, kann AMD ohne nVidia's Hilfe nichts implementieren. Aber es ist auch klar, dass sie es nicht machen, ohne kräftig Lizenzgebühren von AMD zu verlangen. GPU-PhysX von nVidia ist nichts anderes wie die Inhouse-Spiele von Microsoft, Nintendo und Sony: Stärkung der eigenen Plattform.

RLZ
2009-11-26, 21:11:07
Aber es ist auch klar, dass sie es nicht machen, ohne kräftig Lizenzgebühren von AMD zu verlangen.
Das ist der zentrale Punkt an dem es wichtig ist warum Nvidia nur Middlewareanbieter für diesen Markt ist.
Für was sollen sie eine Lizenzgebühr von AMD verlangen? AMD ist keine Lizenznehmer. Lizenznehmer sind Nutzer der Engine.
Genausowenig können sie von AMD Geld für eine Portierung ihrer Software verlangen. Sonst kommen demnächst noch Middlewareanbieter bei Nvidia an und wollen auch Geld für eine Portierung.
Das einzige was Nvidia in dem Fall von AMD erwarten kann ist die selbe Hilfe wie jeder andere Middlewareanbieter von AMD bekommt. (nicht viel :freak:)

LovesuckZ
2009-11-26, 21:14:55
Das ist der zentrale Punkt an dem es wichtig ist warum Nvidia nur Middlewareanbieter für diesen Markt ist.
Für was sollen sie eine Lizenzgebühr von AMD verlangen? AMD ist keine Lizenznehmer. Lizenznehmer sind Nutzer der Engine.
Genausowenig können sie von AMD Geld für eine Portierung ihrer Software verlangen. Sonst kommen demnächst noch Middlewareanbieter bei Nvidia an und wollen auch Geld für eine Portierung.
Das einzige was Nvidia in dem Fall von AMD erwarten kann ist die selbe Hilfe wie jeder andere Middlewareanbieter von AMD bekommt. (nicht viel :freak:)

AMD ist direkter Konkurrent. Entweder zahlen sie, um Zugang zu PhysX zu erhalten oder aber sie müssen hoffen, dass sich nVidia irgendwann erbarmt. nVidia ist nicht auf die Unterstützung von AMD angewiesen, im Gegensatz zu den CPU Herstellern.

DrFreaK666
2009-11-26, 21:42:54
Aber PhysX ist eine API mit hoher Verbreitung. Mit dem entsprechenden Maß an Überzeugung (Geld/Zeit) kann die PS3 hier einiges erreichen. Für alle anderen ist PhysX eine potente Physik-Engine.

Sollte sich PhysX als Grundgerüst weiter durchsetzen können, dann wird es immer leichter für Hersteller, die spezifischen Features der einzelnen Platformen damit abzustimmen. Ob das nun GPU-PhysX ist, oder bessere Optimierung vorhandener CPU-Resourcen auf Konsolen.

Wieviel PS3-Spiele bieten ne bessere Physik als die 360-Version?
Da fällt mir spontan nur Burnout ein. Das nutzt aber kein PhysX

reunion
2009-11-26, 21:43:20
AMD ist direkter Konkurrent. Entweder zahlen sie, um Zugang zu PhysX zu erhalten oder aber sie müssen hoffen, dass sich nVidia irgendwann erbarmt.

Wer sagt das NV PhysX öffnen würde wenn AMD zahlt? Die letzten Aussagen waren das AMD niemals Zugang zu PhysX bekommen würde.

deekey777
2009-11-26, 21:52:04
Da wird so oder so nichts geöffnet: Die Radeons werden eine weitere Plattform sein, auf der PhysX laufen wird.

ShadowXX
2009-11-27, 00:22:28
ok....
Aber Havok läuft auf allen CPU Herstellern und dürfte somit kein pro Intel Argument sein. Es sei denn Havok, läuft deutlichst besser auf Intel als auf AMD.

Mal abwarten.
PhysX läuft auch auf jeder CPU.....und ist auch für jede CPU optimiert.
Und wird auch in vielen Games (auch auf Konsolen auf CPU-Basis genutzt).

Hab ich ja auch nie behauptet.
Sie treten aber mit PhysX auf dem Markt als ein Middlewareanbieter auf. Sie behandeln alle dementsprechend und werden so behandelt. Deswegen sind die Vorstellungen, dass AMD denen ein Backend implementiert soll/kann/muss einfach Wahnvorstellungen.

Davon redet doch kein Mensch.

Wenn AMD will das PhysX auch bei Ihnen @GPU läuft, dann müssen Sie zahlen damit nV Ihnen das hinbastelt.

Das ist der zentrale Punkt an dem es wichtig ist warum Nvidia nur Middlewareanbieter für diesen Markt ist.
Für was sollen sie eine Lizenzgebühr von AMD verlangen? AMD ist keine Lizenznehmer. Lizenznehmer sind Nutzer der Engine.

Und genau das wäre ATI in diesem Fall....sie wollen die Engine auf Ihren Karten nutzen, sie wollen (hypotetisch) das PhysX @ GPU auch bei Ihnen läuft, also sind Sie Lizenznehmer.

Wieviel PS3-Spiele bieten ne bessere Physik als die 360-Version?
Da fällt mir spontan nur Burnout ein. Das nutzt aber kein PhysX
Jedes PS3 Spiel das PhysX benutzt, benutzt auch auf der X360 PhysX.....es gibt für beide Plattformen eine Implementation.

RLZ
2009-11-27, 00:44:22
Wenn AMD will das PhysX auch bei Ihnen @GPU läuft, dann müssen Sie zahlen damit nV Ihnen das hinbastelt.
Ich hab noch nen Vorschlag.
Nvidia muss AMD Geld bezahlen damit sie PhysX auf ihrer Hardware laufen lassen dürfen. Ansonsten könnte GPU-PhysX wirklich eine Fehlinvestition werden. Und so einen Ausweg kann man Nvidia ja nicht schenken.

san.salvador
2009-11-27, 00:50:40
Ich hab noch nen Vorschlag.
Nvidia muss AMD Geld bezahlen damit sie PhysX auf ihrer Hardware laufen lassen dürfen. Ansonsten könnte GPU-PhysX wirklich eine Fehlinvestition werden. Und so einen Ausweg kann man Nvidia ja nicht schenken.
Und davon hätte Nv was genau ...?

puntarenas
2009-11-27, 01:38:29
Und davon hätte Nv was genau ...?
Vielleicht ist AMD nicht nur im 3DCenter als gemeinnützig anerkannt, dann könnte man steuerlich was absetzen. :biggrin:

DrFreaK666
2009-11-27, 06:01:09
...Jedes PS3 Spiel das PhysX benutzt, benutzt auch auf der X360 PhysX.....es gibt für beide Plattformen eine Implementation.

Ja das weiss ich doch.
Wollte damit nur sagen, dass Burnout, welches afaik auf der PS3 eine bessere Physik bietet, kein PhysX nutzt

Gast
2009-11-27, 06:58:12
Und davon hätte Nv was genau ...?
Das nV bestimmen kann, wohin es mit der Reise von PhysX geht?

MorPheuZ
2009-11-27, 09:32:10
Eigentlich ist ja erstaundlich was manche Leute für Meinungen äussern. Schon fast bitter wirkt der Beigeschmack wenn man überlegt was uns (ja uns Konsument) alles durch die Lappen geht wenn PhysX sich nicht durchsetzt. Die machen ja das für UNS! Die ganzen Gimmiks und Effekte, blitzdings und bums. Alles für uns... aber wir wollen es anscheinend nicht :frown:

oder ev. doch?

Wir würden hier nicht bereits 30 Tabs vollbashen wenns keinen intressieren würde was nv da genau macht mit ihren GPU's

Nv hat das angerissen mit dem ganzen HW PhysX (schon klar Ageia), gute Vermarktung gemacht(wenn man das bis hier behaupten kann) und alle anderen rennen hinterher aber mit anderem Mitteln. Sind halt andere Ansätze aber schlussendlich gehts ums gleiche.

Unsere Spiele geil machen!

Gast
2009-11-27, 09:42:00
Du verstehst das nicht. Regel 1: Nvidia ist böse. Immer. Regel 2: Wenn Nvidia mal nicht böse ist, tritt Regel 1 in Kraft.


Manche Leute scheinen zu glauben, dass man im Kapitalismus mit Luft und Liebe weiterkommt. Klar sind offene Standards nett. Schaut euch mal OpenGL an - schön offen, schön zerstritten und mehrere Jahre hinter DirectX hinterher, was die Implementierung von DX9-ähnlichen Kernfunktionen angeht.

Wenn wir immer für alles auf offene Standards warten würden, hätten wir heute wahrscheinlich noch Quecksilber-Flecken anstelle von Crysis-Wasser.

Wer etwas investiert, um eine Technik voranzubringen, hat das Recht, dafür auch was zu verlangen. Wer sich immer nur hinstellt und "Open Standards ruft", mag zwar Sympathiepunkte erringen, weiterbringen tut er aber niemanden.

RLZ
2009-11-27, 10:04:50
Und davon hätte Nv was genau ...?
Dass die Hardwarebasis endlich groß genug ist, dass Hersteller von aus entsprechenden Content bauen? Momentan ist das für Nvidia nicht ganz billig die Leute dazu zu bringen den zu bauen.
Und ohne zusätzlichen Content ist GPU-PhysX nichts wert.

(Abgesehen davon ist das in der Gamingbranche nicht so unüblich, dass man dafür bezahlen muss auf 1. auf bestimmter Hardware zu entwickeln 2. darauf was zu veröffentlichen (auch wenn dies für Middleware zugebenermaßen nicht zutrifft))

Die machen ja das für UNS!
Die machen das um UNSER GELD zu bekommen. :freak:

MorPheuZ
2009-11-27, 11:50:12
Dass die Hardwarebasis endlich groß genug ist, dass Hersteller von aus entsprechenden Content bauen? Momentan ist das für Nvidia nicht ganz billig die Leute dazu zu bringen den zu bauen.
Und ohne zusätzlichen Content ist GPU-PhysX nichts wert.

Das stimmt, der Content ist noch zu klein rsp. nicht relevant, lediglich nice to have. Ich möchte aber nicht wissen wenn nv physX content abhängig eingesetzt würde... Obwohl das anscheinend schon reicht dass die andere Fraktion schon mürrisch wird, auch wenns nur "nice to have" ist ;)


(Abgesehen davon ist das in der Gamingbranche nicht so unüblich, dass man dafür bezahlen muss auf 1. auf bestimmter Hardware zu entwickeln 2. darauf was zu veröffentlichen (auch wenn dies für Middleware zugebenermaßen nicht zutrifft))


Die machen das um UNSER GELD zu bekommen. :freak:

Das ist nicht nur im Gamingbereich so see M$. Oder Mobiltelefonnetze... das Geschäftsmodell ist nicht neu.

san.salvador
2009-11-27, 11:58:01
Dass die Hardwarebasis endlich groß genug ist, dass Hersteller von aus entsprechenden Content bauen? Momentan ist das für Nvidia nicht ganz billig die Leute dazu zu bringen den zu bauen.
Und ohne zusätzlichen Content ist GPU-PhysX nichts wert.

Wenns dann aber auch Ati hat, hat Nv nichts von der Verbreitung. Und schon garnicht, wenn sie dafür auch noch zahlen sollen.

MorPheuZ
2009-11-27, 12:06:41
Warum nicht mal das positive sehen? Solls nv doch machen. Den User kostets ja nix...

san.salvador
2009-11-27, 12:22:15
Warum nicht mal das positive sehen? Solls nv doch machen. Den User kostets ja nix...
Darum gehts hier aber nicht. Nv will wie alle anderen Geld verdienen, darum muss man die Situation auch aus deren Sicht betrachten.

MorPheuZ
2009-11-27, 12:26:19
Noch besser. Ich hoffe dass nv alles daran setzt dass sich PhysX durchsetzt. Durchs Band. Sie wollen ja Geld verdienen... Da brauchts AMD nicht dazu.

RLZ
2009-11-27, 12:43:24
Wenns dann aber auch Ati hat, hat Nv nichts von der Verbreitung. Und schon garnicht, wenn sie dafür auch noch zahlen sollen.
Ich dachte die Ironie erkennt man....

Mit einer generellen Version würde Nvidia die gesamte PC Plattform stärken. Dort sind die Margen höher als im Konsolenbereich. Ziel ist und bleibt mehr Geld zu verdienen. Was mit der Konkurrenz ist, ist mal sekundär.

Intel machts ja genauso. Man pusht seine Plattform. Dass AMD davon auch profiert ist nur ein Nebeneffekt, der ihnen egal sein kann.

san.salvador
2009-11-27, 12:49:31
Ich dachte die Ironie erkennt man....

Mit einer generellen Version würde Nvidia die gesamte PC Plattform stärken. Dort sind die Margen höher als im Konsolenbereich. Ziel ist und bleibt mehr Geld zu verdienen. Was mit der Konkurrenz ist, ist mal sekundär.

Intel machts ja genauso. Man pusht seine Plattform. Dass AMD davon auch profiert ist nur ein Nebeneffekt, der ihnen egal sein kann.
Das ist aber kein guter Vergleich. AMD ist im Vergleich mit Intel ein Zwerg, und Intel ist von der Existenz AMDs abhängig. Gäbe es AMD nicht mehr, wäre Intel in Nöten - zerschlagung und Monopol seien hier nur zwei Stichworte.
Nv begegnet AMD/Ati hingegen auf gleicher Augenhöhe, hier gehts um andere Dinge.

RLZ
2009-11-27, 12:55:07
Das ist aber kein guter Vergleich. AMD ist im Vergleich mit Intel ein Zwerg, und Intel ist von der Existenz AMDs abhängig. Gäbe es AMD nicht mehr, wäre Intel in Nöten - zerschlagung und Monopol seien hier nur zwei Stichworte.
Nv begegnet AMD/Ati hingegen auf gleicher Augenhöhe, hier gehts um andere Dinge.
Das ist mal wirklich ein Punkt über den man diskutieren kann. :)

Ich seh das anders. Nvidia ist vom Grafikkartenmarkt abhängig und versucht diesen mit allen Mitteln zu verteidigen. Wenn man das alleine nicht schaffen kann, dann muss man sich halt mit der Konkurrenz in einigen Punkten verbünden.
Ums wieder auf Geld zurückzuführen: Wenn man dadurch, dass man PhysX auf anderen GPU Plattformen anbietet, mehr Geld verdient, keine Marktanteile verliert und langfristig den eigenen Markt stärkt, dann muss man es tun. Vorallem wenn die Alternative Geldverbrennung ist.

san.salvador
2009-11-27, 12:58:10
Das ist mal wirklich ein Punkt über den man diskutieren kann. :)

Ich seh das anders. Nvidia ist vom Grafikkartenmarkt abhängig und versucht diesen mit allen Mitteln zu verteidigen. Wenn man das alleine nicht schaffen kann, dann muss man sich halt mit der Konkurrenz in einigen Punkten verbünden.
Ums wieder auf Geld zurückzuführen: Wenn man dadurch, dass man PhysX auf anderen GPU Plattformen anbietet, mehr Geld verdient, keine Marktanteile verliert und langfristig den eigenen Markt stärkt, dann muss man es tun. Vorallem wenn die Alternative Geldverbrennung ist.
Gutes Argument, das leuchtet mir ein. Letztlich bin ich froh, dass ich das nicht entscheiden muss. Der Mensch, der die strategischen Entscheidungen bezüglich Physx treffen muss, hat wohl Megangeschwüre in der Größe von Tennisbällen. :usad:

MorPheuZ
2009-11-27, 13:10:59
Ich finde einfach wichtig dass die Leute den Mehrwert der Technik schätzen. Es bringt wiederum im PC Gaming ein Feature was z.B. eine Konsole nicht hat!
Das selbe denke ich eingentlich auch von der AA Geschichte. Nv WOLLTE dass der PC Spieler sein AA hat, auch wenn sie nur für sich entschieden haben.

Spekulativ würde ich sogar behaupten dass nv's angestrebte Ziel ev. gar nicht so weit von euren Meinungen entfernt (Lizenzierung und Partnermodell). Aber AMD muss da erst mal mitmachen. Wenn sie das nicht machen wollen/können wird nv das Ding alleine durchziehen.

deekey777
2009-11-27, 13:38:07
Das ist mal wirklich ein Punkt über den man diskutieren kann. :)

Ich seh das anders. Nvidia ist vom Grafikkartenmarkt abhängig und versucht diesen mit allen Mitteln zu verteidigen. Wenn man das alleine nicht schaffen kann, dann muss man sich halt mit der Konkurrenz in einigen Punkten verbünden.
Ums wieder auf Geld zurückzuführen: Wenn man dadurch, dass man PhysX auf anderen GPU Plattformen anbietet, mehr Geld verdient, keine Marktanteile verliert und langfristig den eigenen Markt stärkt, dann muss man es tun. Vorallem wenn die Alternative Geldverbrennung ist.
Es gibt je ein Argument dafür, dass Nvidia damit Geld verdient oder nur verlieren kann:
Dass Nvidia mit der Öffnung der Plattform für Radeons Geld nur verlieren kann, spricht, dass das SDK kostenlos zur Verfügung steht (auch für kommerzielle Produkte).
Aber reicht denn das SDK überhaupt aus? Eher nicht, man braucht den Sourcecode, der wiederum (für kommerzielle Produkte?) 50.000 kostet (hieß es mal). Und da man heute mit "God-Rays" keine Bäume mehr reißen kann, wird die GPU-Physik interessanter und macht ein Produkt umso mehr attraktiver und interaktiver*. Und das kann für den Verbraucher dann kaufentscheidend sein, wenn gerade dieses Spiel kauft.



*gilt nicht für heutige Spiele, denn von einer Interaktivität sind wir weit entfernt.

MorPheuZ
2009-11-27, 13:49:44
davon kann man ausgehen.

Dural
2009-11-27, 13:52:01
Das ist mal wirklich ein Punkt über den man diskutieren kann. :)

Ich seh das anders. Nvidia ist vom Grafikkartenmarkt abhängig und versucht diesen mit allen Mitteln zu verteidigen. Wenn man das alleine nicht schaffen kann, dann muss man sich halt mit der Konkurrenz in einigen Punkten verbünden.
Ums wieder auf Geld zurückzuführen: Wenn man dadurch, dass man PhysX auf anderen GPU Plattformen anbietet, mehr Geld verdient, keine Marktanteile verliert und langfristig den eigenen Markt stärkt, dann muss man es tun. Vorallem wenn die Alternative Geldverbrennung ist.

Für NV ist PhysX nur marketing, denen ist es letztentlich egal ob sich das wirklich durchsetzten wird, da geh ich jede wette ein! Den wirklich Geld lässt sich damit nicht machen! Wie auch?

NV will sich absetzten mit PhysX, sie wollen das es nur auf ihrer Hardware läuft! so nach dem motto wir haben was das die nicht haben!

und ganz ehrlich, der aufkauf von PhysX hat sich für NV schon längst gelohnt!

NV unterstützt ja auch jede andere Physix Engine, sogar mehr als es AMD derzeit macht! wie so wohl? Wenn sie PhysX wirklich mit aller kraft durchsetzten möchten würden sie das sicher nicht machen!!!

Armaq
2009-11-27, 17:53:05
Für reines Marketing halte ich PhysX für viel zu teuer. Nvidia schmiert da richtig Geld rein, denn der gute Support kommt nicht von nirgendwo.

S940
2010-01-21, 13:18:16
Diing, Ring frei für Runde 2:
...I'm going to take another pop at Nvidia here. When they bought Ageia, they had a fairly respectable multicore implementation of PhysX. If you look at it now it basically runs predominantly on one, or at most, two cores. That's pretty shabby! I wonder why Nvidia has done that? I wonder why Nvidia has failed to do all their QA on stuff they don't care about - making it run efficiently on CPU cores - because the company doesn't care about the consumer experience it just cares about selling you more graphics cards by coding it so the GPU appears faster than the CPU.http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5

Die Anschuldigung scheint zu stimmen, im Netz gibts z.B: so ein Bildchen:
http://www.abload.de/img/unbenanntl4pw.jpg

Single Thread - 3 von 4 Kernen idlen :(

ciao

Alex

BlackBirdSR
2010-01-21, 13:23:34
Dann mach mal folgendes:

Installiere eine der alten PhysX-Pakete (gibts bei alten Spielen) und deren Demos (auch das eben gezeigte, wenn es läuft)
Mach das protokoll.

Dann installiere die aktuellste Nvidia PhysX Software und mach die gleichen Benches.

Dann vergleiche.

V2.0
2010-01-21, 13:25:11
Wenn ich mir überlege, dass PhysiX middleware ist, dann versthe ich,angesichts von Dual und Quadcore CPUs, die Kritik nicht.

Ein Spiel muss ja mehr als PyhsiX berechnen.

Gast
2010-01-21, 13:41:59
schon aber eine ausgeglichene lastverteilung auf mehr als einen core dürfte doch nicht so schwer zu implementieren sein, oder greif ich da grad richtig ins klo?

deekey777
2010-01-21, 13:42:38
Wenn ich mir überlege, dass PhysiX middleware ist, dann versthe ich,angesichts von Dual und Quadcore CPUs, die Kritik nicht.

Ein Spiel muss ja mehr als PyhsiX berechnen.
Verstehst du die Kritik jetzt?
http://techreport.com/articles.x/17618/13
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html
Irgendwas stimmt da nicht.

Bucklew
2010-01-21, 13:57:39
Die Anschuldigung scheint zu stimmen, im Netz gibts z.B: so ein Bildchen:
Single Thread - 3 von 4 Kernen idlen :(
Man kann im Prozeßmanager dem Prozeß ganz einfach auf nur einen Kern zwingen. Bewiesen ist damit also nichts.

V2.0
2010-01-21, 14:22:16
Verstehst du die Kritik jetzt?
http://techreport.com/articles.x/17618/13
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html
Irgendwas stimmt da nicht.

Das ist natürlich was anderes. Das riecht verdammt faul.

Schlammsau
2010-01-21, 18:57:14
Man kann im Prozeßmanager dem Prozeß ganz einfach auf nur einen Kern zwingen. Bewiesen ist damit also nichts.

Das Bild ist von mir, da ist gar nichts erzwungen!
Der FluidMark nimmt wirklich nur einen Core.....egal wieviel du hast!

y33H@
2010-01-21, 19:54:28
Der Fluidmark dient iirc auch dazu, die Leistung von GPUs darzustellen - und nicht die von CPUs. Warum also MT?

Schlammsau
2010-01-21, 19:56:47
Der Fluidmark dient iirc auch dazu, die Leistung von GPUs darzustellen - und nicht die von CPUs. Warum also MT?
Warum wird dann GPU-PhysX auch auf CPUs, mit einer durch den Verzicht von MultiCore extrem schlechten Performance angeboten?

y33H@
2010-01-21, 19:59:34
Ist wohl ein Abfallprodukt gewesen - oder kluges Kalkül, wohl wissend, dass bei Radeons nur die CPU ackert und abkackt.


Bei Dark Void war NV intelligenter und blockiert höhere PhysX-Effekte einfach für nicht-GF-Besitzer.

Black-Scorpion
2010-01-21, 20:01:06
Um ein Argument zu schaffen Karten zu verkaufen.

Schlammsau
2010-01-21, 20:01:25
Ist wohl ein Abfallprodukt gewesen - oder kluges Kalkül, wohl wissend, dass bei Radeons nur die CPU ackert und abkackt.


Bei Dark Void war NV intelligenter und blockiert höhere PhysX-Effekte einfach für nicht-GF-Besitzer.

Schön wärs wenn die CPU ackern würde... :freak:

y33H@
2010-01-21, 20:02:56
Die CPU ackert - aber eben nur an einem Thread :ulol:

Warum sollte NV das, was man mit den eigenen GPUs darstellen will, auf MT-CPUs auch möglich machen - das ist aus Finanzsicht Bullshit. Btw kann ich mich nicht erinnern, dass PhysX oder Havok jemals MT waren *grübel*

Black-Scorpion
2010-01-21, 20:10:09
Dann muss Futuremark ja richtig gezaubert haben.
Oder war es eine extra Frei Haus Lieferung?

Mr. Lolman
2010-01-21, 20:13:27
Die CPU ackert - aber eben nur an einem Thread :ulol:


Anscheinend nicht mal das ordentlich. Durchlesen: http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html


Rather than clearing things up, the results of this testing have only left us more puzzled. We can recall that the PhysX API is supposed to be optimized for multiple threads, yet on the Core i7, only a single thread seems to be stressed when PhysX is cranked up. We're trying to get clarification from the developers at Rocksteady about this phenomenon--it's almost as though the game is artificially capping performance at a set level, and is then using only the CPU resources it needs to reach that level. On the Core i7, PhysX is using fewer resources than it does on the Phenom II. This would make sense if there was an artificial performance cap, as the i7 has shown to outperform AMD's architecture. However, the benchmarks show us a correlation between actual performance and raw CPU speed on either CPU.

y33H@
2010-01-21, 20:14:18
@ Black-Scorpion

Der Vantage soll ja auch die CPU-Leistung aufzeigen.

AMD kann behaupten was sie wollen, NV ebenfalls. Wenn mehrere Entwickler bestätigen, dass PhysX nicht (mehr) MT-tauglich ist, dann bin ich geneigt der Sache zu glauben. Solange aber nur Richard Huddy rumtönt - danke nein.

Zu dem Thema, diesen Blog (http://blogs.nvidia.com/ntersect/2010/01/physx-the-preferred-solution-for-all-platforms.html):


Recently, an interview ran with an AMD developer relations manager, who claimed that NVIDIA (after acquiring Ageia) had purposely reduced the performance and scalability of NVIDIA PhysX technology, with regards to CPU core utilization.

I have been a member of the PhysX team, first with AGEIA, and then with NVIDIA, and I can honestly say that since the merger with NVIDIA there have been no changes to the SDK code which purposely reduces the software performance of PhysX or its use of CPU multi-cores.

Our PhysX SDK API is designed such that thread control is done explicitly by the application developer, not by the SDK functions themselves. One of the best examples is 3DMarkVantage which can use 12 threads while running in software-only PhysX. This can easily be tested by anyone with a multi-core CPU system and a PhysX-capable GeForce GPU. This level of multi-core support and programming methodology has not changed since day one. And to anticipate another ridiculous claim, it would be nonsense to say we “tuned” PhysX multi-core support for this case.

PhysX is a cross platform solution. Our SDKs and tools are available for the Wii, PS3, Xbox 360, the PC and even the iPhone through one of our partners. We continue to invest substantial resources into improving PhysX support on ALL platforms--not just for those supporting GPU acceleration.

As is par for the course, this is yet another completely unsubstantiated accusation made by an employee of one of our competitors. I am writing here to address it directly and call it for what it is, completely false. NVIDIA PhysX fully supports multi-core CPUs and multithreaded applications, period. Our developer tools allow developers to design their use of PhysX in PC games to take full advantage of multi-core CPUs and to fully use the multithreaded capabilities.

There is a lot more I could say on this topic; however, I really have to get back to my day job, which is working to help make gaming great for all users! And today that includes cracking open a new copy of Dark Void, the latest PhysX title, which incorporates some awesome particle weapon effects, an insane Disintegrator gun with fluid particles and jetpack with physical smoke turbulence . I know, hard work, right? But someone has to do it!

Happy 3D gaming!

Black-Scorpion
2010-01-21, 20:19:11
Dann solltest du dich mal fragen warum das so ist und MT entfernt wurde.

Mr. Lolman
2010-01-21, 20:20:30
Achso. Der Dev kann also mehrere Threads nutzen wenn er will. Also kann man sich wiedermal bei den Devs bedanken, dass die alle nur einen Thread nutzen, falls das überhaupt stimmt (bei Batmangate hat ja NV auch gegen Eidos argumentiert). Nur erklärt das immernoch nicht die anscheinenden Performancebremsen (siehe meinen Link oben).

y33H@
2010-01-21, 20:25:56
@ Black-Scorpion

Habe ich, siehe Posts oben :rolleyes:

@ Mr. Lolman

Die Bremsen kommen imo daher, dass die PhysX-Effekte nur für die GPU gecoded wurden und evtl. der CPU nicht behagen [oder ja, NV war böse und hat absichtlich ne Bremse eingebaut, damit die CPU abkackt und die GFs noch besser dastehen *Gerücht*]. Da die Effekte eh nur für GF-GPU gedacht sind, wird sich da keiner Mühe für die CPU gemacht haben.

Gast
2010-01-21, 20:28:19
Aus wirtschaftlichen Gründen, rafft das endlich mal. Nvidia hat Ageia aufgekauft und damit sämtliche Rechte an Physx erworben. Also können sie auch damit tun und lassen was sie wollen. Wer Physx haben will muss sich eben eine Geforce kaufen - was ist daran so schwer zu verstehen?

y33H@
2010-01-21, 20:32:48
* Anmerkung: Wer GPU-beschleunigtes PhysX will.

Black-Scorpion
2010-01-21, 20:36:06
Wenn die Konkurrenz aber benachteiligt wird ist es aus mit dem Argument.
Und nein, das bezieht alle anderen mit ein die scheinbar Berechnungen durchführen müssen für etwas was sie nicht brauchen.
Dann wird das ganze ein linke Nummer.

Gast
2010-01-21, 20:43:11
@Black-Scorpion
Herzlich willkommen in der kapitalitischen Marktwirtschaft.

y33H@
2010-01-21, 20:47:13
@ Black-Scorpion

Die Konkurrenz wird nicht benachteiligt. Die die Zusatz-Effekte wollen, brauchen eine Geforce. Alle anderen spielen an der Konsole oder ohne GF am PC und ohne Zusatz-Effekte. Oder hast du mal einen Konsolero gehört, Sony oder Microsoft werde von NV benachteiligt? ;D

Gast
2010-01-21, 22:29:23
Tja, das ist halt die unterschiedliche Herangehensweise wie sie auch Huddy immer wieder unterstreicht:

AMD/ATI investiert um insgesamt die PC Plattform voranzubringen, siehe DX11, siehe Tesselation. Da wird nichts wegen angeblichem copyright code für die Konkurrenz abgeschaltet

Nvidia investiert nur für sich selber.

Das mittlerweile viel mehr möglich wäre wenn NV nicht ständig mir propriäterm Mist den Markt ersticken würde, wird gerne geflissentlich übersehen.

Stellt euch mal vor NV investiert in 50% der Spiele und ATI sorgt bei den anderen 50% dafür das zusätzliche Features für PC Spieler eingebaut werden, statt das tw. ATI Spieler ausgeschlossen werden bzw. beide doppelt investieren müssen.

ATI bringt Eyefinity

Nvidia kopiert es. Witzigerweise hätten Sie es schon viel früher bringen können, wollten aber nicht das es ihr professionelles Multi Monitor Geschäft kaputt macht. Also muss erst die Konkurrenz vorlegen bevor endlich auch die Gamer von der Technologie profitieren dürfen....

ATI pusht DX11

Nvidia wird davon profitieren

ATI bringt Tesselation mit viel Mühe endlich in eine DX11 spec

plötzlich findest auch NV gaaaanz toll

Nvidia bringt PhysX und heuchelt öffentlich ATI dürfe es auch nutzen

Unter der Hand bleibt es beim Nada. Natürlich wird PhysX mit viel Aufwand für die GPU in diversen Spielen eingebaut, es gibt aber keinen cent um PhysX auch auf der CPU anständig laufen zu lassen.

Nvidia hat nur die eigenen Wirtschaftlichen Interessen im Sinn und nichts anderes.

AMD/ATI versucht den PC Plattform Markt voranzubringen.

IVN
2010-01-21, 22:35:32
Tja, das ist halt die unterschiedliche Herangehensweise wie sie auch Huddy immer wieder unterstreicht:

AMD/ATI investiert um insgesamt die PC Plattform voranzubringen, siehe DX11, siehe Tesselation. Da wird nichts wegen angeblichem copyright code für die Konkurrenz abgeschaltet

Nvidia investiert nur für sich selber.

Das mittlerweile viel mehr möglich wäre wenn NV nicht ständig mir propriäterm Mist den Markt ersticken würde, wird gerne geflissentlich übersehen.

Stellt euch mal vor NV investiert in 50% der Spiele und ATI sorgt bei den anderen 50% dafür das zusätzliche Features für PC Spieler eingebaut werden, statt das tw. ATI Spieler ausgeschlossen werden bzw. beide doppelt investieren müssen.

ATI bringt Eyefinity

Nvidia kopiert es. Witzigerweise hätten Sie es schon viel früher bringen können, wollten aber nicht das es ihr professionelles Multi Monitor Geschäft kaputt macht. Also muss erst die Konkurrenz vorlegen bevor endlich auch die Gamer von der Technologie profitieren dürfen....

ATI pusht DX11

Nvidia wird davon profitieren

ATI bringt Tesselation mit viel Mühe endlich in eine DX11 spec

plötzlich findest auch NV gaaaanz toll

Nvidia bringt PhysX und heuchelt öffentlich ATI dürfe es auch nutzen

Unter der Hand bleibt es beim Nada. Natürlich wird PhysX mit viel Aufwand für die GPU in diversen Spielen eingebaut, es gibt aber keinen cent um PhysX auch auf der CPU anständig laufen zu lassen.

Nvidia hat nur die eigenen Wirtschaftlichen Interessen im Sinn und nichts anderes.

AMD/ATI versucht den PC Plattform Markt voranzubringen.

Und genau deswegen ist Nvidia ein profitables Unternehmen, AMD auf der anderen Seite, ein solches, welches schon seit Jahren nur rote Zahlen schreibt.

Gast
2010-01-21, 22:48:27
Achso. Der Dev kann also mehrere Threads nutzen wenn er will. Also kann man sich wiedermal bei den Devs bedanken, dass die alle nur einen Thread nutzen, falls das überhaupt stimmt (bei Batmangate hat ja NV auch gegen Eidos argumentiert). Nur erklärt das immernoch nicht die anscheinenden Performancebremsen (siehe meinen Link oben).

Schonmal überlegt, dass man in einem Spiel gleichzeitig Physik, Sound, A.I und sonstigen Kram berechnen will? Weißt du, was passiert, wenn man Physik auf jeden Core laufen lassen würde? Dein toller "Multi-Core" Prozessor würde sich wieder verhalten wie ein Single-Core.

y33H@
2010-01-21, 22:52:30
@ Gast

So kann man sich die Welt auch zurecht drehen :ulol:

Was ist seitens NV mit SM3.0, mit SM4.0 oder mit USA oder dem deutlich größeren Dev-Support? Und von wegen "proprietärem Mist" - was war TruForm oder ist Stream anderes? Richtig, auch "proprietärer Mist". Und AMD pusht DX11 genauso wie NV SM3.0 und SM4.0 gepusht hat. Und von wegen Tessellation mit "viel Mühe", das ist Unfug. HWT zu implementieren erfordert nicht "viel Mühe", zumindest nicht mehr als viele andere Rendertechniken auch.

S940
2010-01-21, 23:11:52
Schonmal überlegt, dass man in einem Spiel gleichzeitig Physik, Sound, A.I und sonstigen Kram berechnen will? Weißt du, was passiert, wenn man Physik auf jeden Core laufen lassen würde? Dein toller "Multi-Core" Prozessor würde sich wieder verhalten wie ein Single-Core.Na ein Thread ist aber schon verdammt wenig :freak:
Die meisten Spiele brauchen nachwievor nur 2 Threads, bleiben 2 Kerne auf einem üblichen QuadCore übrig, bei den Intels gibts dazu noch Hyperthreading, das könnte man auch noch nützen :)

Abgesehen davon, Sound braucht keinen kompletten Kern ^^

ciao

Alex

Bucklew
2010-01-22, 00:11:36
Die Bremsen kommen imo daher, dass die PhysX-Effekte nur für die GPU gecoded wurden und evtl. der CPU nicht behagen [oder ja, NV war böse und hat absichtlich ne Bremse eingebaut, damit die CPU abkackt und die GFs noch besser dastehen *Gerücht*]. Da die Effekte eh nur für GF-GPU gedacht sind, wird sich da keiner Mühe für die CPU gemacht haben.
Warum sollte man GPU-Physik gezielt einbremsen, wo die CPU sowieso dafür zu langsam ist? Selbst bei Mirrors Edge, was ja im Vergleich zu anderen Spielen relativ wenig GPU-Physikeffekte nutzt, kommt man mit CPU auf vllt ~5fps - selbst ein Quadcore mit perfektem Multithreading (und ohne ein restliches Spiel und OS was drauf läuft) ist immer noch zu langsam.

Warum also ausbremsen?

AMD/ATI investiert um insgesamt die PC Plattform voranzubringen, siehe DX11, siehe Tesselation. Da wird nichts wegen angeblichem copyright code für die Konkurrenz abgeschaltet
DX11 ist von MS, was hat da AMD großartig investiert, um Tessellation einzubauen? Würd mich doch mal interessieren.

Aber ist im Grunde auch o.t.

ATI bringt Eyefinity

Nvidia kopiert es.
und verbessert es, das fehlt noch. Denn 3D kann ATI nicht auf Eyefinity ;)

Nvidia bringt PhysX und heuchelt öffentlich ATI dürfe es auch nutzen
Ja und ATI versucht es zweimal nachzuäffen (HavokFX und Bullet) und beide Male klappen überhaupt nicht und dann müssen sie sich überall ausheulen, wie böse doch Nvidia ist, dass ATI zu blöd ist etwas vergleichbares hinzukriegen ;D

Stimmt, da ist sicherlich ein riesen Unterschied zwischen den beiden Firmen. Nvidia MACHT einfach was und bringt es heraus. Wenn es keinen etablierten Standard gibt, dann machen sie eben einen. Kann man gut oder schlecht finden, aber besser ein propreitärer Standard als GAR KEINEN. ATI heuchelt was vor und dann kommt: Nix.

Siehe OpenCL. ATI rührt ständig die Trommel dafür. Wer bringt als erstes das SDK/Treiber heraus? Nvidia. Auch Bullet ein super Beispiel. ATI paukt dafür überall rum. Wer hilft bei der Entwicklung und wir vom Bulletteam als exzellenter Technologiepartner bezeichnet? Nvidia.

Ich denke ATI sollte sich einfach raushalten was andere Firmen tun und lassen. Das Nvidia für ihren eigenen AA-Code eine Sperre bezüglich anderer Karten einbauen kann ich absolut nachvollziehen. Genauso wie die Sperre im Intelcompiler. Wenn ATI oder AMD sowas nicht will, dann sollen sie fair sein: Dann sollen sie auch dafür bezahlen, wenn andere Firmen Geld und Ressourcen in sowas stecken!

Gast
2010-01-22, 00:20:33
setzen 6, vom freien Markt noch nix kapiert

Das du die Intel Compiler Tricks jetzt auch noch gut heißt setzt dem ganzen die Krone auf. Zum Glück gibt es Leute mit mehr Weitsicht die sich um soetwas kümmern, z.B. die FTC die genau diese Compiler Tricks jetzt Intel zur last legt und wofür die Herren bald ordentlich zahlen dürfen weil es eben nicht egal ist und jeder machen darf was er will, nur solange er mehr Geld hat als die Konkurrenz.

Gast
2010-01-22, 00:29:14
Achso, Nvidia hat übrigens Jahrelang bei dem Thema Tesselation gemauert und verhindert das es in die DX spec kommt.

Kaum hat es ATI geschafft Tesselation endlich bei DX11 unterzubringen, kommt NV und feiert sich als neuen Messiahs weil sie ja das oh so tolle und für den Nutzer so wichtige Tesselation jetzt endlich "richtig" machen und damit dem Nutzer ungeahnte visuelle Qualität ermöglichen.

Genauso wie DX11 momentan für Nvidia noch komplett unwichtig ist, natürlich nur bis sie es dann doch in ihrer grenzenlosen arroganz hinbekommen haben, mit schlappen 6 Monaten Verspätung ihren neuen Monsterchip Paperlaunchen zu können.

Applaus Applaus für die herren von NV und dear leader ohne welche die PC Plattform heute nicht mehr existieren würde.

Bucklew
2010-01-22, 00:38:12
setzen 6, vom freien Markt noch nix kapiert

Das du die Intel Compiler Tricks jetzt auch noch gut heißt setzt dem ganzen die Krone auf. Zum Glück gibt es Leute mit mehr Weitsicht die sich um soetwas kümmern, z.B. die FTC die genau diese Compiler Tricks jetzt Intel zur last legt und wofür die Herren bald ordentlich zahlen dürfen weil es eben nicht egal ist und jeder machen darf was er will, nur solange er mehr Geld hat als die Konkurrenz.
Es ist also freier Markt, dass eine Firma A Millionen, wenn nicht Millarden, in Entwicklung stecken soll, die dann Firma B, ohne einen Cent dafür zu bezahlen, einfach so bekommt? Tut mir leid, aber das klingt eher nach Kommunismus als nach Kapitalismus.

AMD hat nur Glück, dass Intel ein Quasimonopol hat. Hätten beide 50/50, wäre das was Intel da so fies "trickst" überhaupt kein Problem. Aber an solchen Sachen sieht man eben, wer #1 ist und warum. Sieht man an der Grafiksparte ja auch sehr gut.

Achso, Nvidia hat übrigens Jahrelang bei dem Thema Tesselation gemauert und verhindert das es in die DX spec kommt.
Echt? Beleg? Zeig doch mal.

Kaum hat es ATI geschafft Tesselation endlich bei DX11 unterzubringen, kommt NV und feiert sich als neuen Messiahs weil sie ja das oh so tolle und für den Nutzer so wichtige Tesselation jetzt endlich "richtig" machen und damit dem Nutzer ungeahnte visuelle Qualität ermöglichen.
Und? Ist das jetzt auch schlecht?

Genauso wie DX11 momentan für Nvidia noch komplett unwichtig ist, natürlich nur bis sie es dann doch in ihrer grenzenlosen arroganz hinbekommen haben, mit schlappen 6 Monaten Verspätung ihren neuen Monsterchip Paperlaunchen zu können.
Deine Brille scheint dir beim lesen von Interviews Probleme zu bereiten, Nvidia hat nie gesagt, dass DX11 komplett unwichtig ist. Nimm die rote Brille mal ab und lies die Aussagen nochmal. Dann wirst du selbst einsehen, dass du da gerade großen Quatsch erzählt hast.

Gast
2010-01-22, 01:14:06
ATI soll nicht jammern, sondern sich mal Gedanken über Innovationen machen. Immer dieses schiessen gegen NVidia. Nvidia besitzt Physx und es ist klar das nur auf GPU optimiert wird. ATI wird mir mehr und mehr suspekter.

S940
2010-01-22, 02:01:01
Dann mach mal folgendes:

Installiere eine der alten PhysX-Pakete (gibts bei alten Spielen) und deren Demos (auch das eben gezeigte, wenn es läuft)
Mach das protokoll.

Dann installiere die aktuellste Nvidia PhysX Software und mach die gleichen Benches.

Dann vergleiche.
Alte Software hab ich gefunden, aber die Demos sind verdammt schlecht zu bekommen ... :(

FluidMark mag damit nicht laufen:
http://www.abload.de/img/physx375i.jpg
http://www.abload.de/img/physx375i.jpg

Falls noch jemand rumspielen will:
http://files.aoaforums.com/F3186-PhysX_7.11.13_SystemSoftware.exe

ciao

Alex

Gast
2010-01-22, 10:36:53
Es ist also freier Markt, dass eine Firma A Millionen, wenn nicht Millarden, in Entwicklung stecken soll, die dann Firma B, ohne einen Cent dafür zu bezahlen, einfach so bekommt? Tut mir leid, aber das klingt eher nach Kommunismus als nach Kapitalismus.

Ein Oligopol (sogar ein dualer Markt) ist per Definition nicht frei.
Da Intel auf einen fairen Wettbewerb im OEM-Markt verzichtet haben, teilen Sie eben nun ihre Technologie mit dem Mittbewerber(freiwillig!).
Das geschieht damit Sie einer Zerschlagung in Ihre einzelnen sparten entgehen können.(und ja das ist ein Marktwirtschaftliches Prinzip)

Bucklew
2010-01-22, 10:47:19
Ein Oligopol (sogar ein dualer Markt) ist per Definition nicht frei.
Da Intel auf einen fairen Wettbewerb im OEM-Markt verzichtet haben, teilen Sie eben nun ihre Technologie mit dem Mittbewerber(freiwillig!).
Das geschieht damit Sie einer Zerschlagung in Ihre einzelnen sparten entgehen können.(und ja das ist ein Marktwirtschaftliches Prinzip)
Intel teilt schon länger die Technologie mit dem Mitbewerber und dieser zahlt dafür auch entsprechend. Das gilt allerdings nur für die Patente und nicht für Compiler o.Ä. Wenn AMD diese nutzen wollen, dann sollen sie dafür eben zahlen, Basta.

Ich denke, dass die FTC mit dieser Compilersache nicht durchkommt. Wenn der Intelcompiler trotz angezogener AMD-Handbremse schneller ist als mit einem Standardcompiler, darf sich AMD nicht beschweren. Sie erhalten ja einen kostenlosen Geschwindigkeitsvorteil durch Intel, wenn auch nicht so hoch wie technisch möglich.

Gast
2010-01-22, 11:03:07
Intel teilt schon länger die Technologie mit dem Mitbewerber und dieser zahlt dafür auch entsprechend. Das gilt allerdings nur für die Patente und nicht für Compiler o.Ä. Wenn AMD diese nutzen wollen, dann sollen sie dafür eben zahlen, Basta.

Ich denke, dass die FTC mit dieser Compilersache nicht durchkommt. Wenn der Intelcompiler trotz angezogener AMD-Handbremse schneller ist als mit einem Standardcompiler, darf sich AMD nicht beschweren. Sie erhalten ja einen kostenlosen Geschwindigkeitsvorteil durch Intel, wenn auch nicht so hoch wie technisch möglich.

Einerseits ist das Thema zwar uninteressant (da der Intelcompiler in der Praxis die Wichtigkeit eines umgefallenen Fahrrads in China besitzt).
Trotzdem zeigt gerade Er, warum ein solcher Markt vollkommen hinüber ist.
Der Intel Compilerbau ist ein Milliarden schweres Marketingprojekt, das zum Ziel hat eigene Cpus in bestimmten Benchmarks gut aussehen zu lassen.
Die Finanzierung geschieht zu lasten der restlichen Kunden.
Die Frage ob Intel für AMD optimieren muss kann man klar mit Nein beantworten.
Ob man AMD ausbremsen darf um in Benches (wie SPEC) gut darzutellen ist eine ganz andere Frage.

IVN
2010-01-22, 11:18:43
Ich vermute die meisten hier besitzen irgendwelche Adidas, Nike, Reebok Produkte, die durch Kinderarbet erstellt wurden. Und während Kinderarbeit etwas völlig normales ist, ist das was Intel mit seinem Compiler macht vollkommen moralisch verwerflich...

Bucklew
2010-01-22, 11:22:20
Einerseits ist das Thema zwar uninteressant (da der Intelcompiler in der Praxis die Wichtigkeit eines umgefallenen Fahrrads in China besitzt).
Trotzdem zeigt gerade Er, warum ein solcher Markt vollkommen hinüber ist.
Der Intel Compilerbau ist ein Milliarden schweres Marketingprojekt, das zum Ziel hat eigene Cpus in bestimmten Benchmarks gut aussehen zu lassen.
Die Finanzierung geschieht zu lasten der restlichen Kunden.
Die Frage ob Intel für AMD optimieren muss kann man klar mit Nein beantworten.
Ob man AMD ausbremsen darf um in Benches (wie SPEC) gut darzutellen ist eine ganz andere Frage.
Warum ist der Markt hinüber, nur weil AMD nicht bereit ist Geld in sowas wie den Compilerbau zu investieren? Haben die AMD-Kunden halt Pech gehabt, wenn ihre Firma sowas nicht optimiert, ganz einfach.

Genau dasselbe ist ja auch das hier im Thread. Nvidia investiert, AMD nicht und dann heulen sie rum, weil die Optimierungen natürlich nicht für sie greifen - warum auch?

Die Art und Weise wie AMD da rumheult ist einfach nur peinlich und ihr Ruf bessert sich dadurch sicher auch nicht. Eidos wird wohl in naher Zukunft nen großen Bogen um die machen.

Gast
2010-01-22, 11:32:50
Warum ist der Markt hinüber, nur weil AMD nicht bereit ist Geld in sowas wie den Compilerbau zu investieren? Haben die AMD-Kunden halt Pech gehabt, wenn ihre Firma sowas nicht optimiert, ganz einfach.

Genau dasselbe ist ja auch das hier im Thread. Nvidia investiert, AMD nicht und dann heulen sie rum, weil die Optimierungen natürlich nicht für sie greifen - warum auch?

Die Art und Weise wie AMD da rumheult ist einfach nur peinlich und ihr Ruf bessert sich dadurch sicher auch nicht. Eidos wird wohl in naher Zukunft nen großen Bogen um die machen.

Der Intelcompiler hat in Endprodukten keine Relevanz.
Ist das so schwer zu verstehen?
Keine Firma außer Intel kann es sich leisten einen Compiler nur für Benches zu entwickeln.

Gast
2010-01-22, 11:35:14
Du hast scheinbar keine Ahnung von compilern oder überhaupt programmierung, sonst würdest du auch nicht so einen Blödsinn tönen.

Es lohnt sich für einen programmierer nicht mehrere compiler parallel zu benutzen weil das einen beträchtlicher Mehraufwand bedeutet. Genau das nutzt Intel gnadenlos aus, sie sind größer also wird im zweifelsfall der programmierer sich für ihren compiler entscheiden.

AMD könnte soviel Geld in einen compiler investieren wie sie wollen, an der Marktmacht von Intel kommen sie nicht vorbei so das der compiler keine Anwendung finden würde.

Wie gesagt, du hast keine Ahnung von Wettbewerbsrecht. Bist du aber nicht der einzigste, gibt es noch diverse andere Kandidaten im Internet. Amüsant ist es nur immer wie arrogant diese doch auftreten und meinen sie hätten Ahnung von Wirtschaft.

Hier mal offizielle Aussage von folding@home wie durch intel absichtlich AMD eingebremst wird und sie nichts dagegen machen können, obwohl sie es gern würden.

http://folding.stanford.edu/Spanish/FAQ-QMD#ntoc12

What about AMD support?

We are currently using the Intel Fortran compiler and libraries. This software intentially runs slowly on AMD CPUs (SSE2 is not supported). While there have been hacks around this issue, such modifications violate Intel's EULA. At FAH, we follow software EULAs and are thus bound to this limitation imposed by Intel.
That's not fair to AMD chips!

Yes, it isn't fair and AMD is taking actions against this. We hope that things will change, but our hands are tied. We could give these WUs to AMD machines, but they would have a much worse points per day (less than half of what one gets on Intel hardware) and would not perform well in general.

Bucklew
2010-01-22, 11:37:04
Der Intelcompiler hat in Endprodukten keine Relevanz.
Ist das so schwer zu verstehen?
Keine Firma außer Intel kann es sich leisten einen Compiler nur für Benches zu entwickeln.
kA, ich kenne mich nicht mit den Anteilen der Compiler aus. Dennoch bietet sie Intel an und das ist ein Vorteil. Zumindest sehe ich nichts negatives daran, dass man als Intelkunde durchaus richtig optimierten Code kriegen kann, wenn man Glück hat.

Gast
2010-01-22, 11:39:32
http://en.fah-addict.net/news/news-0-140+amd-via-can-burn-in-hell-intel-compiler.php

Gast
2010-01-22, 11:44:19
kA, ich kenne mich nicht mit den Anteilen der Compiler aus. Dennoch bietet sie Intel an und das ist ein Vorteil. Zumindest sehe ich nichts negatives daran, dass man als Intelkunde durchaus richtig optimierten Code kriegen kann, wenn man Glück hat.

Sie nutzen Ihre Marktposition schlicht weg aus um Ihre Konkurrenten (durch zusätzlichen!) Aufwand aus zu bremsen.
Das ist sogar nach amerikanischem Marktverständnis illegal.


P.S. Praktisch alle Programme die ein User am PC benutzt sind mit VC++ oder GCC compiliert.

ShadowXX
2010-01-22, 11:51:29
Sie nutzen Ihre Marktposition schlicht weg aus um Ihre Konkurrenten (durch zusätzlichen!) Aufwand aus zu bremsen.
Das ist sogar nach amerikanischem Marktverständnis illegal.


P.S. Praktisch alle Programme die ein User am PC benutzt sind mit VC++ oder GCC compiliert.
Irgendwie widersprichst du dir gerade selbst.

Wie bremsen Sie AMD denn aus, wenn sowieso 98% alle am Markt erhältlichen Programme mit dem VC++ oder GCC kompiliert sind?

Und zum folding@home Zeug:
Es gibt auch noch andere Fortran-Compiler als den von Intel (z.B. von Portland Group oder Pathscale.....die durchaus dann auch SSE2 unter AMD unterstützen).
Warum wechseln Sie also nicht einfach das Produkt wenn es nicht alles das liefert was Sie haben wollen.

N0Thing
2010-01-22, 11:53:18
Wenn die Konkurrenz aber benachteiligt wird ist es aus mit dem Argument.
Und nein, das bezieht alle anderen mit ein die scheinbar Berechnungen durchführen müssen für etwas was sie nicht brauchen.
Dann wird das ganze ein linke Nummer.

Ich finde es immer noch falsch, beim Thema HW-PhysX von benachteiligen zu sprechen. Es gibt Vorteile für die Besitzer einer (starken/schnellen) Nvidiagrafikkarte. Mit einer kleineren NV-Karte oder einer von ATI sieht das Spiel eben so aus, wie es auf einer Konsole aussehen würde.
Und mal ehrlich: So viele HW-PhysX Titel gibt es ja auch gar nicht, zumal sich wohl nicht jeder Cryostasis oder Darkest of Days kaufen würde.

Gast
2010-01-22, 11:57:16
Irgendwie widersprichst du dir gerade selbst.

Wie bremsen Sie AMD denn aus, wenn sowieso 98% alle am Markt erhältlichen Programme mit dem VC++ oder GCC kompeliert sind?

Und das

Weil der ICC oft für Benchmarks im HPC-Mark genutzt wird(SPEC) oder bei MAXTON (Cinema4D).
Es sind eben nur einzelne Programme die den Intelcompiler nutzen.
Aber mit Ihrer Hilfe wird in soll Benchmarksuits immer wieder die Überlegenheit der Intel Cpus demonstriert werden.
Und Viele glauben das eben, nicht nur irgendwelche Intelfanboy-Forenkidz.

IVN
2010-01-22, 12:02:33
Weil der ICC oft für Benchmarks im HPC-Mark genutzt wird(SPEC) oder bei MAXTON (Cinema4D).
Es sind eben nur einzelne Programme die den Intelcompiler nutzen.
Aber mit Ihrer Hilfe wird in soll Benchmarksuits immer wieder die Überlegenheit der Intel Cpus demonstriert werden.
Und Viele glauben das eben, nicht nur irgendwelche Intelfanboy-Forenkidz.

Ich glaube kaum das sich "Fornekidz" für Benchmarks a la SPEC und Cinema4D interessieren. Was diese Consumer interessiert, ist die Spieleperformance, und da plätten Intel-CPUs schon seit dem Release des Core2 die AMD Prozis.

Gast
2010-01-22, 12:12:05
Ich glaube kaum das sich "Fornekidz" für Benchmarks a la SPEC und Cinema4D interessieren. Was diese Consumer interessiert, ist die Spieleperformance, und da plätten Intel-CPUs schon seit dem Release des Core2 die AMD Prozis.

In Spielen wird quasi immer der VC++ Compiler eingesetzt.
Und klar auf jeder anständigen "Reviewerseite" gibt es Anwendungsbenches.
Das ist irgendwie auch gar nicht das Thema dieser Miniofftopicdiskussion:).

Und noch zum letzteren:
Vor Core2 hat es laut Verkaufszahlen auch niemand interessiert das AMD Prozessoren schneller waren. ("Intel ist ja viel stabiler, zuverlässiger...")

Bucklew
2010-01-22, 12:13:05
Sie nutzen Ihre Marktposition schlicht weg aus um Ihre Konkurrenten (durch zusätzlichen!) Aufwand aus zu bremsen.
Das ist sogar nach amerikanischem Marktverständnis illegal.


P.S. Praktisch alle Programme die ein User am PC benutzt sind mit VC++ oder GCC compiliert.
Was denn jetzt, bremsen sie den Konkurrenten mit dem ICC aus, oder ist er einfach nur irrelevant, weil nie benutzt? Da musst du dich schon entscheiden.

Ansonsten muss man auch wissen, ob die Programme trotz Handbremse im ICC für AMD-CPUs nicht trotzdem schneller sind als auf normalen Compilern. Dann kann sich AMD defakto nicht beschweren, im Gegenteil, sie kriegen ja mehr Performance für lau.

MorPheuZ
2010-01-22, 12:16:54
Neues Futter:
http://www.pcgameshardware.de/aid,697908/Metro-2033-DirectX-11-Shooter-vom-Stalker-Team-Update-Mit-Physx-Support-als-Fermi/GF100-Launch-Titel/Action-Spiel/News/

NV tut was!

Bucklew
2010-01-22, 12:19:10
Neues Futter:
http://www.pcgameshardware.de/aid,697908/Metro-2033-DirectX-11-Shooter-vom-Stalker-Team-Update-Mit-Physx-Support-als-Fermi/GF100-Launch-Titel/Action-Spiel/News/

NV tut was!
Oh, GPU-Physik für Zerstörung in den Spielabschnitten - dann gibts wohl bald ein Argument weniger gegen PhysX :D

Gast
2010-01-22, 12:26:11
Was denn jetzt, bremsen sie den Konkurrenten mit dem ICC aus, oder ist er einfach nur irrelevant, weil nie benutzt? Da musst du dich schon entscheiden.

Ansonsten muss man auch wissen, ob die Programme trotz Handbremse im ICC für AMD-CPUs nicht trotzdem schneller sind als auf normalen Compilern. Dann kann sich AMD defakto nicht beschweren, im Gegenteil, sie kriegen ja mehr Performance für lau.

OK also noch mal:

Die meiste Zeit wir der Intelcompiler zu Marketingzwecken benutzt.
Er soll einfach bei Produktpräsentationen Intel gut gegen AMD Prozessoren aussehen lassen.

Die Mehrperformance ist irrelevant, da am Ende meist ein andere Compiler zum Einsatz kommt.

Es ist doch völlig Egal ob ein anderer Compiler schneller oder langsamer ist.
Die Tesprogramme sind mit ICC compiliert und fertig.
Intel betreibt zusätzlichen Aufwand um AMD bei Code zu bremsen, der zum Teil in Ihrem eigenen x86 Standard enthalten ist.(den Sie AMD lizensiert haben)

Den einzigen Grund den die FTC nennen kann um Intel nicht zu verurteilen ist, dass er keine große Marktrelevanz hat.
Dazu müsste man zu der merkwürdigen Auffassung gelangen, dass der Compiler- und der Prozessorenmarkt isoliert betrachtet werden muss.

IVN
2010-01-22, 12:28:05
In Spielen wird quasi immer der VC++ Compiler eingesetzt.
Ja, unter diesen nicht manipulierten Bedingungen waren die I-CPUs schneller. (ab Core2)

Und klar auf jeder anständigen "Reviewerseite" gibt es Anwendungsbenches.
Das ist irgendwie auch gar nicht das Thema dieser Miniofftopicdiskussion:).Für die meisten sind wohl die Benches wo es um WinRAR/zip, MP3 und Video-Umwandlung geht die wichtigsten. Und vll. Photoshop. Aber SPEC und C4D? Glaub ich ehr nicht.

Und noch zum letzteren:
Vor Core2 hat es laut Verkaufszahlen auch niemand interessiert das AMD Prozessoren schneller waren. ("Intel ist ja viel stabiler, zuverlässiger...")
Das ist naürlich nur ne Urban-Legend.

IVN
2010-01-22, 12:32:49
OK also noch mal:

Die meiste Zeit wir der Intelcompiler zu Marketingzwecken benutzt.
Er soll einfach bei Produktpräsentationen Intel gut gegen AMD Prozessoren aussehen lassen.

Die Mehrperformance ist irrelevant, da am Ende meist ein andere Compiler zum Einsatz kommt.

Es ist doch völlig Egal ob ein anderer Compiler schneller oder langsamer ist.
Die Tesprogramme sind mit ICC compiliert und fertig.
Intel betreibt zusätzlichen Aufwand um AMD bei Code zu bremsen, der zum Teil in Ihrem eigenen x86 Standard enthalten ist.(den Sie AMD lizensiert haben)

Den einzigen Grund den die FTC nennen kann um Intel nicht zu verurteilen ist, dass er keine große Marktrelevanz hat.
Dazu müsste man zu der merkwürdigen Auffassung gelangen, dass der Compiler- und der Prozessorenmarkt isoliert betrachtet werden muss.
Tja, dann überleg mal! Hat dich ein unglaublich gutes SPEC-Ergebnis eines Intel Prozis je dahingehend beeinflusst eben diesen Prozi zu kaufen, oder war dir das stets egal? Hmmm?

Gast
2010-01-22, 12:41:21
Der Tag, an dem Fehlermeldungen à la "Falsche GPU/CPU entdeckt, Programm wird beendet" erscheinen, ist nicht mehr weit weg.

Naja, da PC Gaming ohnehin in die Bedeutungslosigkeit abrutscht, wird sich das Problem von ganz alleine lösen.

Gast
2010-01-22, 12:48:44
Tja, dann überleg mal! Hat dich ein unglaublich gutes SPEC-Ergebnis eines Intel Prozis je dahingehend beeinflusst eben diesen Prozi zu kaufen, oder war dir das stets egal? Hmmm?

Warum geht ihr eigentlich immer vom Gamerpc aus.
Glaubt ihr tatsächlich, das das der größte Markt für Intel ist?
Oder glaubt ihr das der Rest der Welt auf solche Marketingtricks nicht reinfällt?

Gast
2010-01-22, 12:50:01
Der Tag, an dem Fehlermeldungen à la "Falsche GPU/CPU entdeckt, Programm wird beendet" erscheinen, ist nicht mehr weit weg.

Naja, da PC Gaming ohnehin in die Bedeutungslosigkeit abrutscht, wird sich das Problem von ganz alleine lösen.

Das wird eine Folge des Patentwahns und der amerikanischen "passt schon" Wirtschaftspolitik sein.

IVN
2010-01-22, 12:52:06
Der Tag, an dem Fehlermeldungen à la "Falsche GPU/CPU entdeckt, Programm wird beendet" erscheinen, ist nicht mehr weit weg.SWIW hat es auch so begonnen. Mit der 3DFX-API, und einer Menge anderer Hersteller-APIs. Also, es wäre nur passend, falls es eines Tages wirklich endet, wenn es auf diese Weise geschehen würde. ;)

Naja, da PC Gaming ohnehin in die Bedeutungslosigkeit abrutscht, wird sich das Problem von ganz alleine lösen.
Es werden z.Z. so viele Spiel für den PC rausgebracht, wie nie zuvor. Die Tatsache, das du es als Untergang der PC-Platform wahrnimmst, liegt wahrsch. daran, das du einfach zu viel spielst und es dir deswegen so vorkommt, als würde man zu wenige Spiel auf dem Markt werfen. Ein zusätzliches Hobby, um das Spielen zu komplementieren, wäre wohl angebracht.

Warum geht ihr eigentlich immer vom Gamerpc aus.
Glaubt ihr tatsächlich, das das der größte Markt für Intel ist?
Oder glaubt ihr das der Rest der Welt auf solche Marketingtricks nicht reinfällt?
Weil nach dem "Office"- die Gamer wohl den größten Markt-Segment darstellen. SPEC und C4D, sowie andere manipulierte Benches, zielen ehr auf das Supercomputer- und Workstation-Segment, und diese sind i.V. zu den Gamern oder Office sehr klein.

Gast
2010-01-22, 12:58:24
Es werden z.Z. so viele Spiel für den PC rausgebracht, wie nie zuvor. Die Tatsache, das du es als Untergang der PC-Platform wahrnimmst, liegt wahrsch. daran, das du einfach zu viel spielst und es dir deswegen so vorkommt, als würde man zu wenige Spiel auf dem Markt werfen. Ein zusätzliches Hobby, um das Spielen zu komplementieren, wäre wohl angebracht.

Und wie viele von Ihnen gäbe es wenn sie nicht von der Konsole portiert worden wären?

Wie viele nutzen den heutige Highendhardware ohne irgendwelche SSAA-Akrobatik aus?

Ich denke schon dass es das Ende des PC -Gamings ist.
Der PC dient bei vielen Blockbustern nur noch dazu ein paar Monate später
noch Geld mit einer PC 0815 Portierung einzufahren.(Ich bin übrigens der andrer Gast und spiele eigentlich so gut wie gar nicht mehr)

Gast
2010-01-22, 13:07:12
Es werden z.Z. so viele Spiel für den PC rausgebracht, wie nie zuvor. Die Tatsache, das du es als Untergang der PC-Platform wahrnimmst, liegt wahrsch. daran, das du einfach zu viel spielst und es dir deswegen so vorkommt, als würde man zu wenige Spiel auf dem Markt werfen. Ein zusätzliches Hobby, um das Spielen zu komplementieren, wäre wohl angebracht.

Auch wenn's abseits des Themas ist, muss ich noch kurz eingreifen: Ich spiele seit Jahren nur noch sporadisch (2009: Anno 1404 und Stalker CoP, sonst nichts), verfolge den Markt aber durchaus noch. Quantitativ kommt so viel wie noch nie, da hast Du recht. Qualitativ hingegen geht's zunehmend bergab, und der Fokus liegt auf einer anderen Zielgruppe. Es gibt - zumindest meiner Meinung nach - große Unterschiede zwischen PC -und Konsolenspieler. Erstere werden aber fast nur noch mit halbherzigen Umsetzungen aus dem Konsolenlager bedient. Quasi wie der Veganer im Steakhouse.
Ebenso gibt es absolut null Marketing für den PC als Spielemaschine. Wäre die Plattform lukrativ, hätten sich längst große Firmen der Sache angenommen.
Untergang hast übrigens Du geschrieben; ich sprach ausdrücklich von Bedeutungslosigkeit.

IVN
2010-01-22, 13:08:53
Und wie viele von Ihnen gäbe es wenn sie nicht von der Konsole portiert worden wären?Ist das wichtig? Wenn es am Ende gute Spiel sind/werden, dann passt's doch schon. Es ist irrelevant woher sie kommen.

Und, auch wenn man nicht portieren würde, und es nur ein halbes Dutzend guter Spiele pro Jahr geben würd, so what? Ich weiss nicht wie ihr das seht, aber ich für meinen Teil bin keine 15 mehr, und habe kaum Zeit eine Handvoll Spiele pro Jahr durchzuspielen, geschweige denn Dutzende.

Wie viele nutzen den heutige Highendhardware ohne irgendwelche SSAA-Akrobatik aus?Irrelevant.

Das letzte was ich durchgespielt habe war Zelda für den DS. Und, man mag es kaum glauben, es hat Spass gemacht, auch ohne HD-Res, AA, AF, usw.

Ich denke schon dass es das Ende des PC -Gamings ist.
Der PC dient bei vielen Blockbustern nur noch dazu ein paar Monate später
noch Geld mit einer PC 0815 Portierung einzufahren.(Ich bin übrigens der andrer Gast und spiele eigentlich so gut wie gar nicht mehr)

Die PC-Spieler meckern auf sehr hochem Niveau, wie ich sehe. D.h. es geht ihnen z.Z. besser denn je.

Gast
2010-01-22, 13:15:45
Die PC-Spieler meckern auf sehr hochem Niveau, wie ich sehe. D.h. es geht ihne z.Z. besser denn je.

Wenn PC-Gaming kein technisch hohes Niveau besitzt, welche Argumente hat es dann gegenüber einer Konsole?

IVN
2010-01-22, 13:20:13
Wenn PC-Gaming kein technisch hohes Niveau besitzt, welche Argumente hat es dann gegenüber einer Konsole?
Eben, das man alles in einem Gerät hat. Man kann sich quasi einen kleinen Multimedia-Pc basteln, der nicht viel größer als ne Konsole ist. Auf diesem PC könnte man folglich surfen, Musik abspielen, Filme schauen, Arbeit erledigen, UND Spiele spielen. Alles was eine Konsole kann und noch viiiiiiiel mehr.

MorPheuZ
2010-01-22, 13:25:47
PC Gaming ist noch lange nicht am Ende!

Dass sich PC Gaming allerdings im Umbruch befindet stimmt sehr wohl. Schlagwort Nummer eins ist da bestimmt dx11 / Tesselation und sehr wohl auch PhysX oder Eyefinity (und 3D Gaming)! Wenn PC Gaming nämlich nicht profitabel wäre würde die Firmen die SDK's nicht anfassen da zu teuer und unprofitabel. Ich denke es ist genauso in M$ Interesse dass sich dx11 etabliert (Win7/vista) wie für andere IHV (ATI/nv) ihre Hardware an den Kunden zu bringen und gerade in M$ Fall ist da nicht wenig Druck vorhanden, obwohl die XBOX 360/370 sicher Focus ist - sollte aber nichts heissen. Damit das erreicht wird brauchts Softwareschmieden die den PC Sektor "bewirtschaften". Man sieht dass das gesamte "Netz" im Gaming Sektor nicht überleben kann ohne den anderen. Konsolen Gaming kann genauso nicht ohne PC Gaming existieren wie umgekehrt.

Also, JEDER möchte seine Brötchen verdienen und das geht nur MIT PC Gaming.

/edit: was vergessen: DX11 und all der Klingbimm muss erstmal "erlernt" sein. Die ersten Titel sind schon im anmarsch oder bereits released. Also ich sehe da nix vom Ende des PC-Gaming

/editedit: wir sind extrem OT

Bucklew
2010-01-22, 13:33:27
Die meiste Zeit wir der Intelcompiler zu Marketingzwecken benutzt.
Er soll einfach bei Produktpräsentationen Intel gut gegen AMD Prozessoren aussehen lassen.
Und wo ist da das Problem? AMD nimmt natürlich auch die Benchmarks, wo sie gut da stehen, warum sollte Intel das nicht auch tun dürfen? Es hindert ja auch keiner AMD dran einen Compiler zu entwickeln.

Es hindert AMD auch keiner daran eine PhysX-Konkurrenz zu entwickeln oder Eidos bei AA-Code für Batman:AA zu helfen. Aber irgendeinen Fuzzi zu bezahlen, der überall rumheult wie böse doch die anderen sind und das AMD ja ganz lieb und nett ist, ist natürlich billiger als vernünftige Ingenieuere/Entwickler einzustellen. DAS ist das Problem von AMD.

Es ist doch völlig Egal ob ein anderer Compiler schneller oder langsamer ist.
Die Tesprogramme sind mit ICC compiliert und fertig.
Intel betreibt zusätzlichen Aufwand um AMD bei Code zu bremsen, der zum Teil in Ihrem eigenen x86 Standard enthalten ist.(den Sie AMD lizensiert haben)
Es ist sehr wohl interessant. Wenn die AMD-CPU mit dem ICC dennoch schneller ist als mit einem anderen, kann sich AMD nicht beschweren.

Schlammsau
2010-01-22, 13:50:51
Hier auch mal die Auslastung in der Startales PhysX Demo.... :freak:

http://www.abload.de/thumb/unbenanntk6zu.png (http://www.abload.de/image.php?img=unbenanntk6zu.png)

Wenn Nvidia schon CPU-PhysX anbietet, sollen sie auch gefälligst die CPU voll auslasten! :mad:

BlackBirdSR
2010-01-22, 13:51:32
Es ist sehr wohl interessant. Wenn die AMD-CPU mit dem ICC dennoch schneller ist als mit einem anderen, kann sich AMD nicht beschweren.

Ist sie natürlich nicht bei vektorisiertem Code, wenn SSE2 unterdrückt wird.

Gast
2010-01-22, 14:53:57
Hier auch mal die Auslastung in der Startales PhysX Demo.... :freak:

http://www.abload.de/thumb/unbenanntk6zu.png (http://www.abload.de/image.php?img=unbenanntk6zu.png)

Wenn Nvidia schon CPU-PhysX anbietet, sollen sie auch gefälligst die CPU voll auslasten! :mad:
Vielleicht erklärst du mal, wie sie das machen sollen? Es ist Sache der Entwickler, mehrere Systeme parallel laufen zu lassen.

Fangen wir mal mit einem simplen Beispiel an: Rigid Bodies im Falle von Billard. Queue stösst weiße Kugel an, die sich in Bewegung setzt (seriell!). Und nun bitte parallelisieren.

-carsten

Gast
2010-01-22, 15:01:38
. Aber irgendeinen Fuzzi zu bezahlen, der überall rumheult wie böse doch die anderen sind und das AMD ja ganz lieb und nett ist, ist natürlich billiger als vernünftige Ingenieuere/Entwickler einzustellen. DAS ist das Problem von AMD.


Sorry aber das ist schon großer Mist.
AMDs Ingenieure sind vernünftig.(schon an Frechheit grenzend, angesichts das man offensichtlich keine Ahnung hat)
Intel kann Aufgrund seiner Monopolstellung ein vielfaches in R&D investieren als AMD.Prozentual investiert AMD schon jetzt deutlich mehr als Intel.



Es ist sehr wohl interessant. Wenn die AMD-CPU mit dem ICC dennoch schneller ist als mit einem anderen, kann sich AMD nicht beschweren.

Ein Drittes mal schreib ich es nicht mehr.
Lies einfach noch mal die vorigen Posts.

Botcruscher
2010-01-22, 15:03:32
Vielleicht erklärst du mal, wie sie das machen sollen? Es ist Sache der Entwickler, mehrere Systeme parallel laufen zu lassen.
Fangen wir mal mit einem simplen Beispiel an: Rigid Bodies im Falle von Billard. Queue stösst weiße Kugel an, die sich in Bewegung setzt (seriell!). Und nun bitte parallelisieren.
-carsten

Mit Ausreichend Kugeln gar nicht das Problem. Nebenbei ist dies auch völlig unerheblich da auf der Grafikkarte noch viel mehr parallelisiert werden muss. Daran kann es also nicht liegen. Die GPU Unterstützung stand vor den gleichen Hürden und läuft ja auch.

PS: Wobei die CPU Auslastung in der Demo ja schon alle Spiele topt. Da laufen ja wirklich nur maximal 2 Kerne.

Schlammsau
2010-01-22, 15:05:01
Vielleicht erklärst du mal, wie sie das machen sollen? Es ist Sache der Entwickler, mehrere Systeme parallel laufen zu lassen.

Fangen wir mal mit einem simplen Beispiel an: Rigid Bodies im Falle von Billard. Queue stösst weiße Kugel an, die sich in Bewegung setzt (seriell!). Und nun bitte parallelisieren.

-carsten

Was für eine Antwort erwartest du darauf? Wenn ich diese Frage beantworten könnte, würd ich wohl in irgendeiner Softwareschmiede oder einem Hardwarehersteller arbeiten.

Ohne zu wissen wie es funktioniert, muss es für mich als Laie machbar sein!

mapel110
2010-01-22, 15:08:40
nvidia kann nur die Engine/Middleware anbieten. Wie sie umgesetzt wird, ist dann Aufgabe der Entwickler. Aber wenn die Star Tales Macher nicht mal selbst eine ATI-GPU zum testen haben, kann man schon etwas Befangenheit vermuten, aber eher beim Spiele-Entwickler als bei nvidia. Zumal nvidia ja den Star Tales Machern mit einer ATI-GPU ausgeholfen haben.

Gast
2010-01-22, 15:14:15
Was für eine Antwort erwartest du darauf? Wenn ich diese Frage beantworten könnte, würd ich wohl in irgendeiner Softwareschmiede oder einem Hardwarehersteller arbeiten.

Ohne zu wissen wie es funktioniert, muss es für mich als Laie machbar sein!

Und wie?
Wie willst du eine ,vom Ergebnis der vorigen abhängende, Berechnung parallelisieren?
Das einzige was man tun kann ist im Voraus spekulativ mehrere Fälle vorher zu rechnen und zu hoffen dass der richtige Ausgangswert dabei war.
Gerade bei physikalischen Effekten dürfte sich das sehr schwierig gestalten.

Schlammsau
2010-01-22, 15:17:31
nvidia kann nur die Engine/Middleware anbieten. Wie sie umgesetzt wird, ist dann Aufgabe der Entwickler. Aber wenn die Star Tales Macher nicht mal selbst eine ATI-GPU zum testen haben, kann man schon etwas Befangenheit vermuten, aber eher beim Spiele-Entwickler als bei nvidia. Zumal nvidia ja den Star Tales Machern mit einer ATI-GPU ausgeholfen haben.
Es geht um die Auslastung der CPU.

Meine Meinung steht immernoch....nVidia bremst CPU-PhysX künstlich aus, damit GPU-PhysX besser da steht.

Ich glaube nVidia schaufelt sich damit ihr eigenes Millionengrab.

Stellt euch mal vor Intel würde Havok so programmieren, dass es nur auf Intel CPUs laufen würde. Über kurz oder lang wird es sich nicht rentieren, wie auch schon ATis TruForm.

Und wie?
Wie willst du eine ,vom Ergebnis der vorigen abhängende, Berechnung parallelisieren?
Das einzige was man tun kann ist im Voraus spekulativ mehrere Fälle vorher zu rechnen und zu hoffen dass der richtige Ausgangswert dabei war.
Gerade bei physikalischen Effekten dürfte sich das sehr schwierig gestalten.
Wie funktionert das zB. bei Havok oder CPU-PhysX (90% aller PhysX Titel)?

Desertdelphin
2010-01-22, 15:18:15
Fangen wir mal mit einem simplen Beispiel an: Rigid Bodies im Falle von Billard. Queue stösst weiße Kugel an, die sich in Bewegung setzt (seriell!). Und nun bitte parallelisieren.


Nur das PhysiX auf massive Paralelisierung der Shader"CPUs" setzt... Also ist dein Argument absolut NICHTIG.

Es wird nämlich nicht nur ein Partikel berechnet sondern eben Hunderte. Das ist ja der Witz der ganzen Physik Geschichte. Sie ist für Paralelisierung GEMACHT. bzw umgekehrt *G*

Gast
2010-01-22, 15:22:51
[QUOTE=Schlammsau;7797420
Wie funktionert das zB. bei Havok oder CPU-PhysX (90% aller PhysX Titel)?[/QUOTE]

Es wird einfach auf das erste Ergebnis gewartet und man berechnet es dank der sehr hohen Singlethreadleistung der CPU einfach dann.
Eine GPU ist da um ganze Universen langsamer:)

Gast
2010-01-22, 15:24:57
Nur das PhysiX auf massive Paralelisierung der Shader"CPUs" setzt... Also ist dein Argument absolut NICHTIG.

Fette Sache...
Ich muss es nur massiv parallel nennen und schon parallelisiert es sich von allein;)

Schlammsau
2010-01-22, 15:33:26
Es wird einfach auf das erste Ergebnis gewartet und man berechnet es dank der sehr hohen Singlethreadleistung der CPU einfach dann.
Und du weisst das genau!?

Desertdelphin
2010-01-22, 15:36:57
Nein ich muss es nicht einfach nur so nennen. Ich weiß aber das PhysiX bei NVidia GPUs über die Shader Cores läuft. Bei der GTX260 192, GTX280 240 Shadercores. Jeder einzelne ist verglichen langsam. Aber sie werden eben... achtung jetzt kommt es: paralelisiert.

So jetzt bist du wieder dran super arrogant zu sein ohne Ahnung zu haben :freak: Kingt halt immer superschlau wenn man nachlabert das es nicht so einfach sei zu paralelisieren. Stimmt oft, aber in diesem Fall eben nicht.

NVIDIA sagt es selbst:
http://www.nvidia.com/object/physx_faq.html

What is NVIDIA PhysX Technology?
NVIDIA® PhysX® is a powerful physics engine enabling real-time physics in leading edge PC games. PhysX software is widely adopted by over 150 games and is used by more than 10,000 developers. PhysX is optimized for hardware acceleration by massively parallel processors. GeForce GPUs with PhysX provide an exponential increase in physics processing power taking gaming physics to the next level.

Gast
2010-01-22, 15:37:22
Und du weisst das genau!?

Wie es bei PhysiX oder Havoc genau ist weis ich natürlich nicht.
Aber ich weis das voneinander abhängige Brechnungen einfach nicht parallelisierbar sind.
Da kann man auch Chuck Norris oder David Copperfield sein, es geht nicht:D

Gast
2010-01-22, 15:40:23
Nein ich muss es nicht einfach nur so nennen. Ich weiß aber das PhysiX bei NVidia GPUs über die Shader Cores läuft. Bei der GTX260 192, GTX280 240 Shadercores. Jeder einzelne ist verglichen langsam. Aber sie werden eben... achtung jetzt kommt es: paralelisiert.

So jetzt bist du wieder dran super arrogant zu sein ohne Ahnung zu haben :freak: Kingt halt immer superschlau wenn man nachlabert das es nicht so einfach sei zu paralelisieren. Stimmt oft, aber in diesem Fall eben nicht.

Klar ob ich die Aufgabe parallelisieren kann spielt keine Rolle wenn ich nur viele Cores habe:D
Jetzt wirds unterhaltsam.

Gast
2010-01-22, 15:41:32
Nein ich muss es nicht einfach nur so nennen. Ich weiß aber das PhysiX bei NVidia GPUs über die Shader Cores läuft. Bei der GTX260 192, GTX280 240 Shadercores. Jeder einzelne ist verglichen langsam. Aber sie werden eben... achtung jetzt kommt es: paralelisiert.

Deswegen werden auch zehntausende bis millionen partikel gleichzeitig berechnet: Weil es sonst keinen Sinn macht.
Aber für die Abhängigkeiten bei der Physik wird weiterhin die CPU benutzt, da sie wesentlich schneller ist.

IVN
2010-01-22, 15:52:31
Hmmm, hier scheinen einige nicht zu verstehen, das die nur eyecandyschen Effekte (Effektphysik), die unter PhysX über die GPU laufen und für den Spielablauf irrelevant sind - also die hunderten von Partikeln usw - paraktisch jede heutige CPU in die Knie zwingen können. Da ist es egal ob die CPU 2, 4 oder 8 Cores hat. Und folglich ist es auch egal wieviele CPU-Kerne PhysX in diesem Effektphysik-Modus letzendlich nutzt, die Leistung auf der CPU Seite ist einfach nicht vorhanden.

Die echte, Spielablaufrelevante Physik, die im Spiel über die CPU-Kerne läuft ist etwas völlig anderes. Da gibt es viel weniger Objekte die berechent werden müssen, und dafür sind CPUs auch gut geeignet.

Desertdelphin
2010-01-22, 15:52:58
Wieso wird es unterhaltsam? Also ich hab dir sogar gepostet das NVIDIA SELBST schreibt das PhysiX durch die massive Paralelisierung funktioniert. Aber stimmt. Warscheinlich haben die auch keine Ahnung von ihren eigenen Produkten :D

Hier im Topic wurde sich beschwert (zu Recht wie ich finde), dass Nvidia CPUs künstlich ausbremst. SoftPhysX läuft oft nur auf einem Kern und die anderen Kerne langweilen sich. Deshalb regen sich User auf. Andere sagen das es eben so ist weil man nicht alles paralelisieren kann. Das stimmt auch OFT, aber im Falle von Physikberechnungen / Partikelberechnung (und das tut PhysX ja) eben nicht. Dort lässt sich, wie du selbst gesagt hast, sehr gut paralelisieren.

NVidia sagst SELBST (hab den Link gepostet) das PhysX auf massive paralelisierung setzt. Vllcht kann eine CPU das nicht ganz so gut wie eine GPU mit hunderten kleinen Cores, aber es müsste eigentlich problemlos möglich sein Soft PhysX auf alle Cores zu verteilen. Vieleicht haben wir aneinander vorbeigeredet?!?


Zum Thema zwingt jede CPU in die Knie:

Beim FluidMark schafft eine GTX280 + 1 CPU Kern bei 70% 176fps avg. Also kann man davon ausgehen das die 70% CPU Auslastung der Grundbedarf sind um die Berechnungen laufen zu lassen, die die GPU nicht kann. Eine ATI GPU + 1 Kern auf 100% und Kern 2-4 auf 0% schaffen 37fps avg. Also scheinen 30% der Leistung von Kern 1 ca 37 fps zu bewältigen.

Was könnte, bei "ungebremster" Soft PhysiX dann wohl erreicht werden wenn die brachliegenden 300% (Kern 2-4) noch dazukämen.

Auf Dauer wird die GPU sicher unschlagbar sein, noch können CPUs aber ganz gut mithalten ;)

IVN
2010-01-22, 15:57:28
Wieso wird es unterhaltsam? Also ich hab dir sogar gepostet das NVIDIA SELBST schreibt das PhysiX durch die massive Paralelisierung funktioniert. Aber stimmt. Warscheinlich haben die auch keine Ahnung von ihren eigenen Produkten :D

Hier im Topic wurde sich beschwert (zu Recht wie ich finde), dass Nvidia CPUs künstlich ausbremst. SoftPhysX läuft oft nur auf einem Kern und die anderen Kerne langweilen sich. Deshalb regen sich User auf. Andere sagen das es eben so ist weil man nicht alles paralelisieren kann. Das stimmt auch OFT, aber im Falle von Physikberechnungen / Partikelberechnung (und das tut PhysX ja) eben nicht. Dort lässt sich, wie du selbst gesagt hast, sehr gut paralelisieren.

NVidia sagst SELBST (hab den Link gepostet) das PhysX auf massive paralelisierung setzt. Vllcht kann eine CPU das nicht ganz so gut wie eine GPU mit hunderten kleinen Cores, aber es müsste eigentlich problemlos möglich sein Soft PhysX auf alle Cores zu verteilen. Vieleicht haben wir aneinander vorbeigeredet?!?
Und erreicht dabei einstellige (<10) FPS-Werte. Wieviele CPU-Kerne braucht es also damits auf der CPU flüssig läuft? Und dabei muss die CPU noch andere Dinge berechnen, nicht nur PhysX...

Zum Thema zwingt jede CPU in die Knie:

Beim FluidMark schafft eine GTX280 + 1 CPU Kern bei 70% 176fps avg. Also kann man davon ausgehen das die 70% CPU Auslastung der Grundbedarf sind um die Berechnungen laufen zu lassen, die die GPU nicht kann. Eine ATI GPU + 1 Kern auf 100% und Kern 2-4 auf 0% schaffen 37fps avg. Also scheinen 30% der Leistung von Kern 1 ca 37 fps zu bewältigen.

Was könnte, bei "ungebremster" Soft PhysiX dann wohl erreicht werden wenn die brachliegenden 300% (Kern 2-4) noch dazukämen.

Auf Dauer wird die GPU sicher unschlagbar sein, noch können CPUs aber ganz gut mithalten ;)

Hahaha, ja, und dieser FluidMark hat sowas wie AI, echte Physik (nicht Effektphysik) die über die CPU laufen muss, massen an Texturen und Geometrie die von der CPU verwaltet werden müssen, usw? Mit anderen Worten: hat dieser Benchmark überhaupt sowas wie ne echte Spiel-Engine? Denn genau das ist es, was heutzutage 2(+) Kerne beschäftigt.

Gast
2010-01-22, 15:59:06
Es wird nämlich nicht nur ein Partikel berechnet sondern eben Hunderte. Das ist ja der Witz der ganzen Physik Geschichte. Sie ist für Paralelisierung GEMACHT. bzw umgekehrt *G*
Ja und nein. Je nachdem, wie groß der Einzugsbereich deiner Eingangswerte ist, kannst du entweder viel oder wenig parallelisieren.

Billardbeispiel:
Die schwarze Kugel flitzt auf den Pulk zu, stösst meinetwegen die an der Spitze des Dreiecks liegende Kugel an. Diese drückt gegen die beiden dahinterliegenden und - nun wird's spannend - diese drücken gegen die Dreierreiehe dahinter. Gleichmäßige Kraftverteilung mal vorausgesetzt, wird nun die mittlere Kugel von zwei Kräften beeinflusst und muss die Ergebnisse aus zwei "Threads" zusammenführen. Ist die Kräfteverteilung dagegen nicht gleichmäßig könnten auch Kräfte anderer Kugeln noch mit einwirken. Das wird schon ziemlich schwierig wenn man es richtig machen will (könnte ich mir vorstellen).

-carsten

Gast
2010-01-22, 16:01:33
Wieso wird es unterhaltsam? Also ich hab dir sogar gepostet das NVIDIA SELBST schreibt das PhysiX durch die massive Paralelisierung funktioniert. Aber stimmt. Warscheinlich haben die auch keine Ahnung von ihren eigenen Produkten :D

Das machen Sie doch gar nicht:D
Sie bieten mit GPU-PhysiX eben nur parallelisierbare Effekte an (z.B Fluids oder Partikel)
Der rest läuft ganz normal auf der CPU.

Desertdelphin
2010-01-22, 16:06:45
Lies ein paar Zeilen weiter und dann siehst du das ich "Partikelberechnung" geschrieben hab. Mir ist schon klar das PhysX sich nur um die Partikelberechnung kümmert. Das Billiardbeispiel ist ja ganz nett, aber hat halt nix mit PhysX zu tun.

Ich sage also das PhysX (Partikelberechnung) über massive Paralelisierung funktioniert. Man berechnet sozusagen (bsp) 1000 Billiardkugeln (staubkörner) gleichzeitig. Jede rollt auf einem extra Billiardtisch und daher ist Billiardkugel 1 nicht von der Berechnung von Kugel 2,3...1000 abhängig. Bei 240 Cores berechnet jeder minicore 4 Berechnungen nacheinender.
Vieleicht ist 1 Minicore 100 mal langsamer als 1 aktueller CPU kern, aber dafür gibt es eben hunderte davon. Man kann warscheinlich hinter jeder dieser zahlen noch 3-4 Nullen setzen :D Also kann man doch WENIGSTENS pro CPU Kern 200 berchenungen machen anstatt alle 1000 auf einer. Wenn sich diese miniberechnungen auf 240 Kerne aufteilen lassen, dann ganz sicher auf 4. Vieleicht ist das nicht ganz so effektiv, aber man muss immernoch beachten das 1 CPU Kern ein VIELFACHES schneller ist als ein ShaderCore. Ich sage ja nicht das das die optimale Lösung ist. Aber man kann SoftPhysX wenigstens so GUT wie möglich machen ;)

IVN
2010-01-22, 16:18:14
Lies ein paar Zeilen weiter und dann siehst du das ich "Partikelberechnung" geschrieben hab. Mir ist schon klar das PhysX sich nur um die Partikelberechnung kümmert. Das Billiardbeispiel ist ja ganz nett, aber hat halt nix mit PhysX zu tun.

Ich sage also das PhysX (Partikelberechnung) über massive Paralelisierung funktioniert. Man berechnet sozusagen (bsp) 1000 Billiardkugeln (staubkörner) gleichzeitig. Jede rollt auf einem extra Billiardtisch und daher ist Billiardkugel 1 nicht von der Berechnung von Kugel 2,3...1000 abhängig. Bei 240 Cores berechnet jeder minicore 4 Berechnungen nacheinender. Man kann warscheinlich hinter jeder dieser zahlen noch 3-4 Nullen setzen :D Also kann man doch WENIGSTENS pro CPU Kern 200 berchenungen machen anstatt alle 1000 auf einer. Wenn sich diese miniberechnungen auf 240 Kerne aufteilen lassen, dann ganz sicher auf 4. Vieleicht ist das nicht ganz so effektiv, aber man muss immernoch beachten das 1 CPU Kern ein VIELFACHES schneller ist als ein ShaderCore. Ich sage ja nicht das das die optimale Lösung ist. Aber man kann SoftPhysX wenigstens so GUT wie möglich machen ;)
Ehrlich, ich würds sogar begrüßen, wenn NV PhysX überarbeiten würde, damits auch auf 8 (oder auch mehr) CPU-Kernen läuft. In dem Fall würde ich mich dann köstlich amüsieren, wenn du dich hier schon wieder beschwerst, das dein neuer i7 mit allen seinen 8 Threads voll ausgelastet in einem PhysX-Spiel immer noch nur 20-30 FPS liefert.

Aber dann würde wahrsch. wieder eine neuer Vorwurf seitens der FanATIker kommen....


IMO ist das tatsächliche Problem über das wir hier reden, und welches den ATIBoys sauer aufstößt, das sie vor die Wahl gestellt werden: entweder "Fanboytum" oder PhysX. Um nichts anderes geht es hier.

Desertdelphin
2010-01-22, 16:25:43
http://img11.abload.de/img/phybz4c.png

4Ghz Quadcore schafft wiegesagt mit 100% auf nur einem Kern schon avg 34 fps.

http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=17695&stc=1&d=1264107100

3Ghz DualCore mit GTX 280 schafft avg 176gps.

In beiden Fällen wird nur EIN CPU Kern genutzt.

Bei der GTX280, bei der die GPU die Partikelberechnung übernimmt ist die CPU mit 70% ausgelastet. Also scheint alles was NICHT mit der PhysX Berechnung zu tun hat schonmal 70% der CPU Power von Kern 1 zu fressen.

bei 4Ghz wären es warscheinlich 60%.... Das heißt 40% eines 4Ghz Kerns schaffen 34fps. 300% der anderen 3 Kerne sind aber noch "ungenutzt". Da sich die Partikelberechnung sehr gut paralelisieren lässt könnte man also diese Kerne sehr einfach nutzen.

Jetzt mal ein 3-Satz

40% = 34fps
10% = 8,5fps
300% = 255fps


PLUS die 34fps von Kern 1 machen immerhin ca 280fps. Sagen wir die CPU skaliert nicht perfekt, muss noch andere Berechnungen eines Games machen... ziehen wir 100fps ab... Das sind dann immernoch 180fps. Derzeit kann eine CPU noch gut mithalten.

Und für die paar Rauchwolken von Batman reichts bestimmt *G*

Gast
2010-01-22, 16:30:26
Lies ein paar Zeilen weiter und dann siehst du das ich "Partikelberechnung" geschrieben hab. Mir ist schon klar das PhysX sich nur um die Partikelberechnung kümmert. Das Billiardbeispiel ist ja ganz nett, aber hat halt nix mit PhysX zu tun.

Na also geht doch :)
PhysiX hat halt nichts mit Physik zu tun sondern sorgt für zusätzliche grafische Effekte und die kann man so gut wie immer ohne Ahängikkeiten berechnen.

Desertdelphin
2010-01-22, 16:32:05
Ist aber auch wirklich leicht bei den Namen durcheinander zu kommen ;)

Bucklew
2010-01-22, 16:32:30
Sorry aber das ist schon großer Mist.
AMDs Ingenieure sind vernünftig.(schon an Frechheit grenzend, angesichts das man offensichtlich keine Ahnung hat)
Intel kann Aufgrund seiner Monopolstellung ein vielfaches in R&D investieren als AMD.Prozentual investiert AMD schon jetzt deutlich mehr als Intel.
Tja, solange AMD diese Passivität beibehält, wie sie sie schon immer hatten, wird sich das auch nicht ändern. Diese Arroganz, die Nvidia und Intel immer gern nachgesagt wird, ist auf jeden Fall deutlich besser als die Weinerlichkeit von AMD.

Vielleicht sollten die den Huddy mal rauswerfen und dafür jemanden holen, der nicht nur rumheulen kann, sondern auch was machen. AA für Batman:AA wäre ja ein Anfang gewesne ;D

Gast
2010-01-22, 16:39:17
Tja, solange AMD diese Passivität beibehält, wie sie sie schon immer hatten, wird sich das auch nicht ändern. Diese Arroganz, die Nvidia und Intel immer gern nachgesagt wird, ist auf jeden Fall deutlich besser als die Weinerlichkeit von AMD.


Weil solche peinlichen Auftritte wie der von NV auf der CES auch ein bisschen unterhaltsam sind stimme ich dir eindeutig zu;D

IVN
2010-01-22, 16:40:08
http://img11.abload.de/img/phybz4c.png

4Ghz Quadcore schafft wiegesagt mit 100% auf nur einem Kern schon avg 34 fps.

http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=17695&stc=1&d=1264107100

3Ghz DualCore mit GTX 280 schafft avg 176gps.

In beiden Fällen wird nur EIN CPU Kern genutzt.

Bei der GTX280, bei der die GPU die Partikelberechnung übernimmt ist die CPU mit 70% ausgelastet. Also scheint alles was NICHT mit der PhysX Berechnung zu tun hat schonmal 70% der CPU Power von Kern 1 zu fressen.

bei 4Ghz wären es warscheinlich 60%.... Das heißt 40% eines 4Ghz Kerns schaffen 34fps. 300% der anderen 3 Kerne sind aber noch "ungenutzt". Da sich die Partikelberechnung sehr gut paralelisieren lässt könnte man also diese Kerne sehr einfach nutzen.

Jetzt mal ein 3-Satz

40% = 34fps
10% = 8,5fps
300% = 255fps


PLUS die 34fps von Kern 1 machen immerhin ca 280fps. Sagen wir die CPU skaliert nicht perfekt, muss noch andere Berechnungen eines Games machen... ziehen wir 100fps ab... Das sind dann immernoch 180fps. Derzeit kann eine CPU noch gut mithalten.

Und für die paar Rauchwolken von Batman reichts bestimmt *G*
;D

Was für eine Milchmädchenrechnung! Ich nominiere diesen Post für das "Post of the Year Award". Echt, so geil ist es.

Das köstlichste ist, du merkst es nicht mal wie deppert dein Gedankengang ist.

Du schliesst von einer brennenden Kugel, die einfach so in einem Fenster angezeigt wird, auf ein komplettes Spiel, wo AI für vielleicht Dutzend(e) Charaktere berechnet, Story-Trigers verwaltet, die GraKa mit Geometrie, Shaderprogramemn und Texturen gefüttert werden muss, und und und.

Und das beste:

Sagen wir die CPU skaliert nicht perfekt, muss noch andere Berechnungen eines Games machen... ziehen wir 100fps ab... Das sind dann immernoch 180fps.

lol

Die heutigen Spiele, mit allen ihren Abläufen lasten ohne Mühe >2 Kerne, ohne das dabei PhysX Grafikeffekte durch die CPU emuliert werden müssen.

Gast
2010-01-22, 16:42:04
Nana man muss doch auch nicht jede tiefgreifend-fundierte Performanceanalyse kommentieren;)

Desertdelphin
2010-01-22, 16:46:37
Klar ists nur ne Milchmädchenrechnung. Und ich hab, zum 10 mal jetzt, schon gesagt das ich auch glaube das CPUs auf dauert nicht mithalten können. Aber für Fluidmark würd es reichen. Und Für Batman erst Recht.

Und darum geht es hier doch oder?

Denn Batman lastet grade mit Mühe 2 Kerne aus. Bei nem Quad wären also immer noch 2 Kerne da die ganz sicher genug Power haben um per SoftPhysX das bisschen Rauch zu berechnen (der nicht ansatzweise so aufwändig aussieht wie das was Fluidmark zeigt)...

Also bei mir ruckelt es mit SoftPhysX obwohl sich 2 Kerne langweilen...
Deaktiviere ich SoftPhysX dann sieht die CPU Auslastung nahezu identisch aus...

-> Das es ruckelt liegt NICHT daran das die CPU so ungeeignet ist das bisschen Rauch zu berechnen sondern der "Bug" liegt wo anders.

Falls es in diesem Topic NICHT um Batman AA geht und darum das CPUs durchaus in der Lage wären ohne künstliche Bremsung von CPUs bei SoftPhysX, den Rauch flüssig darzustellen dann entschuldige ich mich natürlich.

IVN
2010-01-22, 16:51:27
Klar ists nur ne Milchmädchenrechnung. Und ich hab, zum 10 mal jetzt, schon gesagt das ich auch glaube das CPUs auf dauert nicht mithalten können. Aber für Fluidmark würd es reichen. Und Für Batman erst Recht.

Und darum geht es hier doch oder?

Denn Batman lastet grade mit Mühe 2 Kerne aus. Bei nem Quad wären also immer noch 2 Kerne da die ganz sicher genug Power haben um per SoftPhysX das bisschen Rauch zu berechnen (der nicht ansatzweise so aufwändig aussieht wie das was Fluidmark zeigt)...

Also bei mir ruckelt es mit SoftPhysX obwohl sich 2 Kerne langweilen...
Deaktiviere ich SoftPhysX dann sieht die CPU Auslastung nahezu identisch aus...

Falls es in diesem Topic NICHT um Batman AA geht und darum das CPUs durchaus in der Lage wären ohne künstliche Bremsung von CPUs bei SoftPhysX, den Rauch flüssig darzustellen dann entschuldige ich mich natürlich.
Achhh, ja, jetzt seh ich dein Problem. Du bist jung und illusorisch, und denkst weil du dir Dinge vorstellen kannst, das sie deswegen auch möglich sein müssen...

Bucklew
2010-01-22, 16:55:45
Weil solche peinlichen Auftritte wie der von NV auf der CES auch ein bisschen unterhaltsam sind stimme ich dir eindeutig zu;D
Was war da peinlich diese Jahr? :confused:

Desertdelphin
2010-01-22, 16:58:00
Kannst du das auch mit Argumenten untermauern die meine Argumente wiederlegen?

Die Rauchberechnung in PhysX ist eine Partikelberechnung -> lässt sich laut Nvidia selbst sehr gut paralelisieren. Sagt Nvidia. Nicht ich.

Jetzt haben wir Batman und 2 Kerne langweilen sich. SoftPhysX deaktiviert.
Jetzt aktivieren wir SoftPhysX und die Prozessorauslastung ist nahezu identisch. Es langweilen sich immer noch 2 Kerne. Jetzt sagen manche das das nicht auf Kern 3 u 4 läuft weil sich das nicht so leicht paralelisieren lässt. Tut es in diesem Fall aber doch. Also WARUM wird es nicht gemacht.

Bin ich jetzt ein Fanboy der undurchdachte Argumente bringt, oder einfach nur jemand der 1 und 1 zusammenzählt. Ihr könnt mir ja gerne zeigen das mein Gedankengang irgendwo einen Fehler hat. Gerne. Aber ich lasse mir nicht unterstellen einfach nur ein Fanboy zu sein der daherredet weil ich neidisch wäre ohne das ihr auch nur eines meiner Argumente wiederlegt.

Also tut es oder hört auf so arrogant daherzureden. Das ist einfach nur billig. Ihr könntet es am besten beweisen das es an technischer Unmöglichkeit liegt indem ich sehe das kern 3 und 4 voll ausgelastet sind und es trotzdem noch ruckelt ;)

Wieso werden Kern 3 u 4 nicht genutzt?

a) Weil die CPU das nicht könnte
b) Weil Nvidia die bessere marketing Abteilung hat und sich denkt damit mehr Kunden dazu zu bewegen NVidia Produkte zu kaufen (würd ich übrigens auch machen an deren Stelle)

Ich verurteile diese Vorgehensweise nicht, Ich wiederspreche nur denen die meinen das wäre ein technisches Problem. Nutze übrigens NVidia und ATI

EDIT: Das ihr aber die ganze Zeit immer persönlich werdet, anstelle einfach mit einem Satz zu zeigen warum ungenutze CPU-Kerne nicht genutzt werden, obwohl ich die ganze Zeit immer nett war und normal mit euch geredet hab... naja... Ich bin ein Fanboy, dumm, jung und illusionorisch, ein riesen Witz, der Witz des Jahres... Aber postet mir doch bitte das Zitat in dem das Argument gesagt wird was mir zeigt warum PhysX (gut zu paralelisieren laut NVidia) nicht auf ungenutze CPU-Kerne ausgelagert wird. Vieleicht hab ich es überlesen. Das Billiard Beispiel ist es jedenfalls nicht...