PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 2 3 4 [5] 6 7 8 9

LovesuckZ
2009-11-05, 10:06:06
Immer diese Lügen über nVidia: Im diesen Jahr gab es 10 WHQL Treiber und dazu noch einige "Beta" Treiber. Wie der Gast erwähnte, liegt der letzte NV3x WHQL-Treiber ein jahr zurück. Die NV3x Technologie ist 6 1/2 bis 5 1/2 Jahre alt. AMD stellt den Support für Karten ein, die man noch im Jahr 2007 als "High-End" von ihnen kaufen konnte - also 2 1/2 Jahre alt sind.
Die 8800GTX ist vom Dezember 2006 und erhält vollen Win7 Support und PhysX, dass trotz der komischen Gast-Aussagen nicht eingestellt wird. Wenn man also bei einem IHV angst um die Zukunft haben sollte, dann bei AMD.

Sefegiru
2009-11-05, 12:15:13
Der Legacy Treiber wird alle drei Monate aktualisiert und auch auf aktuellem Stand gebracht, also wird es da auch neue WDDM Treiber geben. Das hat auch nichts mit Einstellung von Support zu tun. Alle die einen Treiber wollen bekommen einen. Im Gegensatz zu NV werden halt hier und da mal öffentlich Unterschiede gemacht.

Für die HD2k Karten aus Mitte 2007 gibt es ja auch Treiber und die ist nur ein halbe Jahr nach 88GTX aufm Markt gewesen :p Von daher mach mal da nicht sone Welle. Ordentlich die Argumente beider Seiten verstehen, so wie du es auch forderst, wäre da angebrachter.

Gibt ja auch NVidia Grafikchips zu denen man KEINE Treiber findet ausser man weiß wo sie mit drin sind-.- GT230 ist son schickes Teil.

By the way gibt es zum Treiber und Tod bei NF200 hier im Forum einen Thread und bei EVGA. Okay betrifft nur Win 7 User, aber schön ist das wohl nicht wenn ein Treiber einen Chipsatz wegknallt.

LovesuckZ
2009-11-05, 13:55:33
Für die HD2k Karten aus Mitte 2007 gibt es ja auch Treiber und die ist nur ein halbe Jahr nach 88GTX aufm Markt gewesen :p Von daher mach mal da nicht sone Welle. Ordentlich die Argumente beider Seiten verstehen, so wie du es auch forderst, wäre da angebrachter.

Niemand rede hier von der >= D3D10 Generation. X19xx Karten konnte man noch im Jahr 2007 als "High-End", Mid-Range und Low-End kaufen. Und die erhalten keinen offiziellen Win7 Support - sondern nur Treiber für Vista, für dessen einwandfreiem Betrieb unter Win7 man noch weniger garantiert als für normale Treiber. Wie man sowas gutheißen kann, ist unbegreiflich.


Gibt ja auch NVidia Grafikchips zu denen man KEINE Treiber findet ausser man weiß wo sie mit drin sind-.- GT230 ist son schickes Teil.


Und? Wenn du so argumentierst, müsstest du die ganze mobile Palette von AMD nennen. Das die GT230 nicht unterstützt wird, ist schlecht für die Käufer der Systeme. Aber das hat kaum etwas mit nVidia (sie wird nichtmal bei ihnen angepriesen) noch mit der kompletten Nichtunterstützung der <D3D10 Generationen von AMD Win7 zu tun.

Gast
2009-11-05, 14:07:26
Die X1950 XTX ist zweieinhalb Monate vor der 8800 GTX gelauncht worden.
X1650 (nonpro, Pro, XT) noch kürzer vor der 8800 GTX.
X1950 Pro nur einen Monat vor der 8800 GTX.

X1050, X1550, X1950 GT und X1950 Pro Dual gar erst im Jahre 2007, also nach dem Geforce 8 Launch.

Gast
2009-11-05, 14:09:17
Gibt ja auch NVidia Grafikchips zu denen man KEINE Treiber findet ausser man weiß wo sie mit drin sind-.- GT230 ist son schickes Teil.
Eine Geforce GT 230 gibt es noch nichtmal.
Kein Wunder.

Sefegiru
2009-11-05, 14:42:31
Tja lieber Gast sage das dem Komplettsystemkäufer der kürzlich bei mir und die Karte wird verkauft in diesen Systemen....

@Lovesuckz

Du brachtest doch die 88GTX ins Spiel und hey die WDDM1 Treiber laufen problemlos unter Win 7. Ausserdem kommt der doch alle drei Monate und du meinst doch nicht allen Ernstes das die nicht aktuell sein werden ? Ganz nebenbei schau die mal die hauseigene Win 7 Treiberunterstützung an....

Das Argument kannst du also nur mit einem wiederlegen das aus einer anderen Ecke kommt ? Das NV die GT230 nicht bewirbt, tja dafür kann ich nichts, sie verkaufen diese Karte aber!!!

Ach bitte, komm doch mal vom hohen Roß runter und erkenn das beide ab und an gewaltig Mist verzapfen. Es gibt x Fälle wo beide nicht optimal und im Sinne von Kunden handeln. Sei es NF3 Treiber, AGP Gart, der Legacy, das Mobile Dilemma, der AGP Hotfix, die public beta Treiber etc

Die Philiosophie der Mobile Chips und dessen Treiber ist ein anderes Thema und eines für sich und hat laut deiner Definition null mit dem eigentlichen Thema zu tun.

LovesuckZ
2009-11-05, 14:53:40
@Lovesuckz
Du brachtest doch die 88GTX ins Spiel und hey die WDDM1 Treiber laufen problemlos unter Win 7. Ausserdem kommt der doch alle drei Monate und du meinst doch nicht allen Ernstes das die nicht aktuell sein werden ? Ganz nebenbei schau die mal die hauseigene Win 7 Treiberunterstützung an....

Alle 3 Monate einen Treiber nennst du "aktuell"? Warum will dann AMD jeden Monat einen Treiber rausbringen? Außerdem reden wir hier von Vista-Treiber, die "inoffiziell" auch für Win7 verwendet werden sollen.


Tja lieber Gast sage das dem Komplettsystemkäufer der kürzlich bei mir und die Karte wird verkauft in diesen Systemen....
Das Argument kannst du also nur mit einem wiederlegen das aus einer anderen Ecke kommt ? Das NV die GT230 nicht bewirbt, tja dafür kann ich nichts, sie verkaufen diese Karte aber!!!

Als Verkäufe sollte man auf diesen Missstand auch aufmerksam machen.
Aber diese Argumentation ist sowieso nicht vernünftig, da nVidia und AMD auch "Mobile-Chips" verkaufen. Und im Gegensatz zu GT230 diese auch auf ihrer Seite angepriesen werden.


Ach bitte, komm doch mal vom hohen Roß runter und erkenn das beide ab und an gewaltig Mist verzapfen.

Es ging grundsätzlich erstmal nur darum, dass der Gast meinte, dass nVidia von heute auf morgen einfach den PhysX Support von alten Karten einstellen wird. Ich habe ihm nur aufmerksam gemacht, dass dieser Umstand kein nVidia-Problem wäre, da es schon heute der Fall ist, dass Support ohne Angaben von Gründen eingestellt wird.

Gast
2009-11-05, 15:04:24
Tja lieber Gast sage das dem Komplettsystemkäufer der kürzlich bei mir und die Karte wird verkauft in diesen Systemen....
Kann ich nicht dafür, nach nvidia gibt es diese Produkt nicht.

Muss man sich an den Hersteller wenden, wer ist es, Medion?


Du brachtest doch die 88GTX ins Spiel und hey die WDDM1 Treiber laufen problemlos unter Win 7. Ausserdem kommt der doch alle drei Monate und du meinst doch nicht allen Ernstes das die nicht aktuell sein werden ? Ganz nebenbei schau die mal die hauseigene Win 7 Treiberunterstützung an....Nunja, Geforce 8 Treiber gibts monatlich, bzw teils auch öfter.
Geforce 7 Nutzer sind nicht schlechter dran.

Das NV die GT230 nicht bewirbt, tja dafür kann ich nichts, sie verkaufen diese Karte aber!!!
Nein, im Nvidia Shop bekomme ich sie nicht.

Gast
2009-11-05, 15:29:01
Dann dürfte es keine Unterschiede zwischen nVidia und AMD geben.


Gibt es eigentlich auch nicht.


D3D10 ermöglichte es, dass D3D11 relativ schnell adaptiert wird. Gäbe es bis heute nur DX9 und D3D11, du würdest solch einen Quatsch nicht schreiben.


Wasn Käse wieder. Willst du damit PhysX rechtfertigen?
Noch ist nichts adaptiert und DX11 ist nur eine Weiterentwicklung von DX10,
kannst sie eigentlich als eines betrachten.


Hier geht es um die Frage, warum AMD weder Ageia gekauft nich mit Havok und Bullet zusammenarbeitet. Bullet läuft seit mindesten März auch über Cuda. Und schön, dass AMD auf "offenere Wege" setzt. Nur irgendwie doof, wenn man als HD4 User kein DC nutzen kann, weil es noch keine Treiber gibt. Aber AMD ist ja so toll - die tun ja alles für den Gamer.
Und vergessen wir nicht die Anti-Gamer Firma nVidia: Da muss doch das kleine Bullet-Team zur Anti-Gamer Firma nVidia gehen, um support zu erhalten, weil die Gamer Firma AMD keinen Bock hat.


Sie haben einen Treiber, wenn du willst kannste Stream jederzeit nutzen.
Da gibbet doch auch diesen feinen kostenlosen Videoconverter als Beispiel.

AMD ist auch vor kurzem zu Bullet gegangen, wärend das Team wohl erst zu NV gehen musste. ;)
Lächerlich die haben nur NVs in ihren Rechnern weil die als erstes OpenCL-Support bieten.


Warte - redest du gerade von der Firma, die für alle <DX10 Grafikkarten keinen Win7 Support anbietet? Aber stimmt, wenn es AMD macht, dann ist es gut. Macht es nVidia nicht, kommen AMD Fanboys und Trolle, die das vorraussagen. Im Gegensatz zu AMD kümmert sich nVidia um ihre Kunden.


Ich sehe auf der Seite Win7-64Bit-Treiber bis zur ATI Radeon 9XXX-Reihe.

Für eine Geforce 5 FX mit ähnlichem Erscheinungsdatum kriege ich bei NVidia folgenden Text:
***
Für diese Konfiguration wurden keine zertifizierten Downloads gefunden. Klicken Sie hier, um auch Beta-Downloads in die Suche einzubeziehen.
***



Und? Wenn AMD und nVidia beide D3D11 nutzen - was unterscheidet sie dann? :rolleyes:

Nichts...
Rein HW-technisch sind es zwei verschiedene Umsetzungen mit dem gleichen Ziel. :kotzfanboyderimmerseinendämmlichenrolleyessmileyrausholt:

LovesuckZ
2009-11-05, 15:37:24
Wasn Käse wieder. Willst du damit PhysX rechtfertigen?

Nein, denn es hat mit PhysX nichts zu tun.


Noch ist nichts adaptiert und DX11 ist nur eine Weiterentwicklung von DX10,
kannst sie eigentlich als eines betrachten.

Ach - dann verdanken wir D3D10 doch so einiges. ;D


Sie haben einen Treiber, wenn du willst kannste Stream jederzeit nutzen.
Da gibbet doch auch diesen feinen kostenlosen Videoconverter als Beispiel.

Stream ist auch so ein "offener Weg". :lol:


AMD ist auch vor kurzem zu Bullet gegangen, wärend das Team wohl erst zu NV gehen musste. ;)
Lächerlich die haben nur NVs in ihren Rechnern weil die als erstes OpenCL-Support bieten.

Kann nicht sein. Wie kann nVidia vor der "offener Weg" Firma AMD einen "offenen Weg" unterstützen? Das widerlegt deine These ja vollständig. Denk nochmal darüber nach.


Ich sehe auf der Seite Win7-64Bit-Treiber bis zur ATI Radeon 9XXX-Reihe.
Für eine Geforce 5 FX mit ähnlichem Erscheinungsdatum kriege ich bei NVidia folgenden Text:
***
Für diese Konfiguration wurden keine zertifizierten Downloads gefunden. Klicken Sie hier, um auch Beta-Downloads in die Suche einzubeziehen.
***


Ja, das ist schlecht.
Aber man kann ja den Vista Treiber verwenden. ;D
Aber wenn man schon fast 6 Jahre zurückgehen muss, dann zeigt es nur, dass man sich eher als Kunde von AMD sich sorgen machen muss.


Nichts...
Rein HW-technisch sind es zwei verschiedene Umsetzungen mit dem gleichen Ziel. :kotzfanboyderimmerseinendämmlichenrolleyessmileyrausholt:

Da freut sich der Kunde. Damit kann er bestimmt viel anfangen. :rolleyes:

Gast
2009-11-05, 15:53:37
Ja, das ist schlecht.
Aber man kann ja den Vista Treiber verwenden. ;D

Was los?

Du hast doch damit angefangen. Tatsache ist ich kriege für eine ATI-Karte einen offiziellen Treiber für Win7. Deine Aussage der Treibersupport wäre eingestellt sind also tumbe Lügen, mehr nicht!


Aber wenn man schon fast 6 Jahre zurückgehen muss, dann zeigt es nur, dass man sich eher als Kunde von AMD sich sorgen machen muss.


Deine Argumente sind wertloser als eine Bundestagsrede, ich hab noch nie soviel Sinnlosigkeit in einem Satz gesehen.
Also ist eine fast 6 Jahre alte Karte ist scheiß egal? Aber weil es AMD bietet ist
es schlecht, denn das soll mir sorgen machen... :kopfkratz: Warum?
Wenn du so etwas unlogisches schreibst dann erkläre es mindestens!

LovesuckZ
2009-11-05, 15:59:19
Was los?
Du hast doch damit angefangen. Tatsache ist ich kriege für eine ATI-Karte einen offiziellen Treiber für Win7. Deine Aussage der Treibersupport wäre eingestellt sind also tumbe Lügen, mehr nicht!

Du suchst dir dein 6 jähriges Beispiel raus, weil es nichts anderes gibt. Nehmen wir doch einfach die 6800 GTX. Die ist auch 5 1/2 Jahre alt und ich erhalte hier Win7 Support - im Gegensatz zur 5 1/2 Jahre alten X800XT. Schon blöd, wenn man in die Steinzeit zurückgehen muss, um gegen nVidia zu flamen, wenn es beim Flame um maximal 3 Jahre alte Hardware ging.;D


Deine Argumente sind wertloser als eine Bundestagsrede, ich hab noch nie soviel Sinnlosigkeit in einem Satz gesehen.
Also ist eine fast 6 Jahre alte Karte ist scheiß egal? Aber weil es AMD bietet ist
es schlecht, denn das soll mir sorgen machen... :kopfkratz: Warum?
Wenn du so etwas unlogisches schreibst dann erkläre es mindestens!

Nö, dein Quatsch beruht darauf, dass die Anti-Gamer Firma nVidia PhysX z.B. auf einer 8800GTX aus dem Nichts einstellt. Gleichzeitig es dir egal ist, dass die Gamer Firma AMD für 2 1/2 Jahre alte Grafikkarten keinen vernünftigen Vista und nur einen unzureichenden Win7 support anbietet. Irgendwie solltest du klarkommen, ob 3 Jahre "technologisch" alt ist, oder du gerne auch Support für jedes System bis zu 6 1/2 Jahre haben willst. Denn erstens tritt bei AMD ein, zweitens bei nVidia.

HatesuckZ
2009-11-05, 17:33:51
Genau, AMD supported solche alten Karten aber alle Karten die älter als die HD-Serie sind werden nicht ordentlich
mit Treibern versorgt.

Gast
2009-11-05, 17:36:43
Du suchst dir dein 6 jähriges Beispiel raus, weil es nichts anderes gibt. Nehmen wir doch einfach die 6800 GTX. Die ist auch 5 1/2 Jahre alt und ich erhalte hier Win7 Support - im Gegensatz zur 5 1/2 Jahre alten X800XT. Schon blöd, wenn man in die Steinzeit zurückgehen muss, um gegen nVidia zu flamen, wenn es beim Flame um maximal 3 Jahre alte Hardware ging.;D

Die X800-Serie hat auch Win7 Support sogar die ATI Radeon 9XXX - Serie (R300) hat Win7 Support. Ich weiß nicht wo du deine Infos her hast.


Nö, dein Quatsch beruht darauf, dass die Anti-Gamer Firma nVidia PhysX z.B. auf einer 8800GTX aus dem Nichts einstellt. Gleichzeitig es dir egal ist, dass die Gamer Firma AMD für 2 1/2 Jahre alte Grafikkarten keinen vernünftigen Vista und nur einen unzureichenden Win7 support anbietet. Irgendwie solltest du klarkommen, ob 3 Jahre "technologisch" alt ist, oder du gerne auch Support für jedes System bis zu 6 1/2 Jahre haben willst. Denn erstens tritt bei AMD ein, zweitens bei nVidia.

Dein Blödsnn wurde widerlegt, ich verstehe nicht wie du im gleichen Thread den selben Mist noch einmal behaupten kannst.
Möchtest du uns für dumm verkaufen, absichtlich verblöden damit wir deinen Quatsch verbreiten?

LovesuckZ
2009-11-05, 17:42:50
Die X800-Serie hat auch Win7 Support sogar die ATI Radeon 9XXX - Serie (R300) hat Win7 Support. Ich weiß nicht wo du deine Infos her hast.

Nö, kein Win7 Support. Vielleicht einfach mal die AMD Seite lesen:

Note: AMD’s DirectX 9 ATI Radeon graphics accelerators are not officially supported under Windows 7. If the user chooses to, they can install the ATI Catalyst Windows Vista graphics driver under Windows 7. Please be aware that none of the new Windows 7 graphics driver (WDDM 1.1) features are supported (as the Windows Vista level graphics driver is limited to WDDM 1.0 level support). Using the ATI Catalyst Windows Vista driver under Windows 7 is not officially supported by AMD, and as such AMD will not provide any form of customer support for users running in this configuration
http://support.amd.com/de/gpudownload/windows/Legacy/Pages/radeonaiw_vista64.aspx?type=2.4.1&product=2.4.1.3.17&lang=English



Dein Blödsnn wurde widerlegt, ich verstehe nicht wie du im gleichen Thread den selben Mist noch einmal behaupten kannst.
Möchtest du uns für dumm verkaufen, absichtlich verblöden damit wir deinen Quatsch verbreiten?

Immer wieder erstaunlich, wie du als Gast mit unsinn, Beleidigungen und Quatsch meinst, hier irgendwas behaupten zu können. Nichtmal die Wahrheit über deine Lieblingsfirma kennst du, aber anderen Lügen andichten.
Werd erstmal mit der Tatsache klar, dass nVidia nicht PhysX von der 8800GTX kicken wird - so wie AMD den XP, Vista und Linux Support von Hardware, die nichtmal 3 Jahre alt ist.

Sefegiru
2009-11-05, 17:46:53
Gut LS dann hast du in dem Punkt Recht. Trotzdem übertreibt der Gast imho, denn es ist mir egal was NV auf ihrer Seite listet, Fakt ist das es die GT230 zu kaufen gibt und das ist doch nicht das Problem des Kunden wenn NV Dinge noch nicht angekündigt hat oder ihre Auslieferungen nicht überblickt. Siehst du doch ähnlich oder?

Ja alle drei Monate halte ich für akzetpabel für die Hardware um die es hier geht. Zumal man getestet und zertifizierte Treiber für die Karten ja bekommt. Das die aktuelleren Modelle monatlich in einem festen Rythmus versorgt werden finde ich hingegen schöner.

Das PhysX einfach bei den eigenen Grakas eingestellt wird wäre dumm, auszuschliessen ist es aber meiner nun nutzlosen PPU nun auch nicht mehr. Klar hängt sicherlich auch von den Specs ab, denn so weit ich weiß, wurden auch die PhysX GPU Specs verändert. Kann aber auch sein das ich mich da irre.

Im Übrigen greife ich dich ja persönlich nicht an Lovesucks, ich sehe nur ein paar Dinge anders oder diffenzierter. Ich hoffe das ist okay für jeden hier.

Gast
2009-11-05, 17:48:48
Gut LS dann hast du in dem Punkt Recht. Trotzdem übertreibt der Gast imho, denn es ist mir egal was NV auf ihrer Seite listet, Fakt ist das es die GT230 zu kaufen gibt und das ist doch nicht das Problem des Kunden wenn NV Dinge noch nicht angekündigt hat oder ihre Auslieferungen nicht überblickt. Siehst du doch ähnlich oder?
Ich verstehe nicht, warum du dich nicht an den Hersteller wendest.
Nvidia ist nicht der Hersteller.

LovesuckZ
2009-11-05, 17:54:07
Gut LS dann hast du in dem Punkt Recht. Trotzdem übertreibt der Gast imho, denn es ist mir egal was NV auf ihrer Seite listet, Fakt ist das es die GT230 zu kaufen gibt und das ist doch nicht das Problem des Kunden wenn NV Dinge noch nicht angekündigt hat oder ihre Auslieferungen nicht überblickt. Siehst du doch ähnlich oder?

Hier ist man als Verkäufer gefragt: Aufklärung mit eventuelle negativer Kritik. Das selbe wie bei den Notebooks: Auch wenn nVidia und AMD keine Karten als Firma verkaufen, sollten sie wenigsten Support für ihre Notebookschip anbieten.


Das PhysX einfach bei den eigenen Grakas eingestellt wird wäre dumm, auszuschliessen ist es aber meiner nun nutzlosen PPU nun auch nicht mehr. Klar hängt sicherlich auch von den Specs ab, denn so weit ich weiß, wurden auch die PhysX GPU Specs verändert. Kann aber auch sein das ich mich da irre.


Es ging von 16 Cores auf 32 Cores hoch. Aber solche Anpassungen passieren desöfteren. Z.B. änderte nVidia die Filterungsqualität bei den NV3x oder AMD löschte die Möglichkeit zwischen TSSAA und TSMSAA zu unterscheiden.

Sefegiru
2009-11-05, 19:34:55
Trotzdem kann ich es nicht verstehen als Kunde das es keine Treiber für ein von mir erworbenes Produkt keine Treiber gibt. Ist kein toller Eindruck und da ist mir egal ob da Medion oder HP drauf steht, es ist ne NVIDIA verbaut.

LovesuckZ
2009-11-05, 19:38:29
Trotzdem kann ich es nicht verstehen als Kunde das es keine Treiber für ein von mir erworbenes Produkt keine Treiber gibt. Ist kein toller Eindruck und da ist mir egal ob da Medion oder HP drauf steht, es ist ne NVIDIA verbaut.

Sei froh, dass du kein Notebook besitzt - dort ist/war es gang und gebe, dass nur der Hersteller des Notebooks den Treibersupport übernimmt.

Gast
2009-11-05, 19:43:27
Trotzdem kann ich es nicht verstehen als Kunde das es keine Treiber für ein von mir erworbenes Produkt keine Treiber gibt. Ist kein toller Eindruck und da ist mir egal ob da Medion oder HP drauf steht, es ist ne NVIDIA verbaut.
Es ist eine Medion verbaut.
Was sagt den Medion, frag doch da mal nach Treibern.

Sefegiru
2009-11-05, 20:43:55
Ist mir bekannt durch das liebe One Notebook das ich habe :)

Gast
2009-11-05, 20:58:09
Und aus welchen Grund wendest du dich nicht an den Hersteller?

PulsarS
2009-11-05, 22:38:08
...ach ja, und PhysX können sie dann immer noch.
Und verschwinden wird PhysX deswegen auch nicht.
Da würde ich nicht meine Hand ins Feuer legen wollen... Du etwa?

Wenn schon eines des ersten DX11-Spiele (DIRT2) auf CS setzt und nicht auf eine middleware, wäre ich mir da nicht so sicher.
Ich würde sogar so weit gehen und mit dir wetten, dass mittelfristig PhysX@GPU völlig vom Markt verschwindet.

btw Leute, kommt mal wieder zum Thema.
hier geht es um PhysX@GPU und nicht um Treiber.
Danke.

Gast
2009-11-05, 23:08:10
Wenn schon eines des ersten DX11-Spiele (DIRT2) auf CS setzt und nicht auf eine middleware, wäre ich mir da nicht so sicher.
Ach und Dirt2 kommt ohne Physikengine aus?:rolleyes:

Grestorn
2009-11-05, 23:09:08
Da würde ich nicht meine Hand ins Feuer legen wollen... Du etwa?

Ich meinte: Es verschwindet nicht mit dem Fermi, also wenn nV DX11 unterstützt.

mapel110
2009-11-05, 23:19:50
Im Jahr 2010 wirds definitiv nicht verschwinden. 2 Toptitel mit dem Feature sind ja bereits angekündigt.

Was ich nicht beurteilen kann, inwiefern die CPU-Variante der Xbox,WII und PS3 Einfluss auf die GPU-Variante von PhysX am PC haben. Wäre nett, wenn ein Guru was dazu sagen könnte.

PulsarS
2009-11-05, 23:20:43
Ach und Dirt2 kommt ohne Physikengine aus?:rolleyes:
DIRT2 verwendet eine eigene in die GEO-Engine integrierte Physikengine die auf CS basiert.

@ Grestorn
Ok, dann habe ich es anders verstanden, aber bei dem Durcheinander hier in dem Thread ist es nicht einfach den Überblick zu behalten. :)

Gast
2009-11-05, 23:25:53
DIRT2 verwendet eine eigene in die GEO-Engine integrierte Physikengine die auf CS basiert.

Gut zu wissen, das Havoc und PhysX in Zukunft nicht unnötig werden.
Jeder Spieleentwickler wird nicht mit Freuden eigene Physikengines schreiben.

Das sie nicht sonderlich viel Lust auf Arbeit haben, haben wir im Batmangatefred gelernt.

Dann hofen wir mal das Beste, das endlich das bremsende Havoc vom Markt gefegt wird, damit HL3 erscheint.

Oder wir haben Pech und Dirt2 ist nur eine AMD PR Aktion.

LovesuckZ
2009-11-05, 23:32:34
Im Jahr 2010 wirds definitiv nicht verschwinden. 2 Toptitel mit dem Feature sind ja bereits angekündigt.

Was ich nicht beurteilen kann, inwiefern die CPU-Variante der Xbox,WII und PS3 Einfluss auf die GPU-Variante von PhysX am PC haben. Wäre nett, wenn ein Guru was dazu sagen könnte.

PhysX als Middleware ermöglicht es nVidia, dass sie mit ein bisschen Investition relativ schnell GPU-PhysX umsetzen können. nVidia's primäres Ziel muss es sein, in genug Anwendungen als Standard CPU-Middleware einzug zu halten.

Gast
2009-11-05, 23:37:33
PhysX als Middleware ermöglicht es nVidia, dass sie mit ein bisschen Investition relativ schnell GPU-PhysX umsetzen können. nVidia's primäres Ziel muss es sein, in genug Anwendungen als Standard CPU-Middleware einzug zu erhalten.

Ein für den User fragwürdiges Ziel.
Je höher die PhysX-Verbreitung in Spielen, desto stärker ist man auf einen Graka-Hersteller festgenagelt, falls man die Spiele in vollen Details spielen will. Ich denke das siehst du auch ein.

LovesuckZ
2009-11-05, 23:38:29
Ein für den User fragwürdiges Ziel.
Je höher die PhysX-Verbreitung in Spielen, desto stärker ist man auf einen Graka-Hersteller festgenagelt, falls man die Spiele in vollen Details spielen will. Ich denke das siehst du auch ein.

Natürlich - aber das war nicht die Frage. ;)

Sefegiru
2009-11-05, 23:38:34
Weil ich so erfahren bin und weiß wo und wie ich die Treiber herbekommen und meiner Meinung nach ist NVIDIA da der Hersteller und nicht Medion, HP und Co. Wer ein Produkt ausliefert, dazu ein neues, muss auch für Treiber sorgen. So sieht es der normale Kunde!

LovesuckZ
2009-11-05, 23:42:35
Weil ich so erfahren bin und weiß wo und wie ich die Treiber herbekommen und meiner Meinung nach ist NVIDIA da der Hersteller und nicht Medion, HP und Co. Wer ein Produkt ausliefert, dazu ein neues, muss auch für Treiber sorgen. So sieht es der normale Kunde!

Naja - der Kunde sollte schon wissen, wie sein gekauftes Produkt lautet. Imo ist der Produkt-Hersteller Anlaufstellung #1. Dann sollte es auch mit der GT230 bezüglich Treiber keine Probleme geben.

PulsarS
2009-11-06, 00:11:07
Gut zu wissen, das Havoc und PhysX in Zukunft nicht unnötig werden.
Wer sagt das?

Jeder Spieleentwickler wird nicht mit Freuden eigene Physikengines schreiben.
Kommt auf den Content an.

Das sie nicht sonderlich viel Lust auf Arbeit haben, haben wir im Batmangatefred gelernt.
Das war wohl eher eine politische Entscheidung.

Dann hofen wir mal das Beste, das endlich das bremsende Havoc vom Markt gefegt wird, damit HL3 erscheint.
Unwissenheit oder Dummheit?
HL2 basiert auf der Havoc-Engine und nicht auf der PhysX-Engine.

Oder wir haben Pech und Dirt2 ist nur eine AMD PR Aktion.
Die Aussage mit der eigenen Physikengine kommt von den Entwicklern und sieht nicht nach einer PR-Aktion seitens ATI aus.

Was (verblödete) PR-Aktionen angeht ist Nvidia ATI um Lichjahre voraus.

Gast
2009-11-06, 12:55:44
TWIMTBP
PhysX
Cuda

Gast
2009-11-06, 19:12:35
Wer sagt das?

Ich dachte du.

Kommt auf den Content an.
Nein auf die Kosten.
Wird praktisch immer zu teuer sein, eine eigene Engine zu schreiben.

Das war wohl eher eine politische Entscheidung.
Nein eine Finanzielle.
Nichts tun (Eidos) ist billiger als alles andere.


Unwissenheit oder Dummheit?
HL2 basiert auf der Havoc-Engine und nicht auf der PhysX-Engine.
Du hast doch so gerne alles GPU-PhysX Titel in den Dreck gezogen und HL2 gelobt.
Bisher hast du noch nicht zugegeben, das auch kein Havoc oder kein CPU-PhysX Titel HL2 überholt hat.


Die Aussage mit der eigenen Physikengine kommt von den Entwicklern und sieht nicht nach einer PR-Aktion seitens ATI aus.
Ich meine damit auch Dirt2 im Allgemeinen. Es ist ein Vorzeigespiel für D3D11. Ein Spiel um die HD5 zu pushen.


Was (verblödete) PR-Aktionen angeht ist Nvidia ATI um Lichjahre voraus.
Würde ich nicht so sehen.
AMD steht bei den Kunden sehr gut da. Selbst Schnitzer wie das mangelhafte AF werden dankbar übersehen.
Bei jeder möglichen Gelegenheit wird Nvidia in den Dreck gezogen und AMD nimmt den Underdogbonus.
Unverständlich, bei nahezu gleichen Marktanteil im letzten Quartal.

PulsarS
2009-11-07, 10:04:01
Ich dachte du.
:confused:
Ich vertete doch eher die Meinung, dass längerfristig Physik über die CS laufen wird.
Da mußt du mich mißverstanden haben.

Nein auf die Kosten.
Wird praktisch immer zu teuer sein, eine eigene Engine zu schreiben.
Ist genauso nur eine Behauptung von dir, wie meine, dass es vom Content abhängt.

Nein eine Finanzielle.
Nichts tun (Eidos) ist billiger als alles andere.
An deiner stelle würde ich nochmal in den entsprechenden Thread schauen ;)

Du hast doch so gerne alles GPU-PhysX Titel in den Dreck gezogen und HL2 gelobt.
Was?
Ich habe PhysX@GPU durch den Dreck gezogen?
Sorry, aber das ist schlichtweg falsch.
Ich habe geschrieben, dass ich für PhysX@GPU (im aktuellen Zustand) keine Zukunft sehe.

Bisher hast du noch nicht zugegeben, das auch kein Havoc oder kein CPU-PhysX Titel HL2 überholt hat.
Ja, es stimmt, was du sagst, nur weiß ich nicht, was du mir damit sagen willst?
Dass PhysX@GPU trotz mehr Rechenpower und massiver Unterstützung von Nvidia es nicht schafft an die "alte" Technik von HL2 ranzukommen?
Und andere Havoc-Titel auch? :confused:

Ich meine damit auch Dirt2 im Allgemeinen. Es ist ein Vorzeigespiel für D3D11. Ein Spiel um die HD5 zu pushen.
Woher hast du die Info mit dem pushen der HD5?
Die stimmt imo nicht.
Die Entwickler selbst haben gesagt, dass sie eben dass bestaussehende Rennspiel ever programmieren wollen, und deswegen auch alle Möglichkeiten von DX11 (Tesselation, Compute Shader (auch für Physik) und Multithreading)) nutzen.
Das hört sich für mich eher nach:"Schaut her, was wir können!" an.

Würde ich nicht so sehen.
AMD steht bei den Kunden sehr gut da. Selbst Schnitzer wie das mangelhafte AF werden dankbar übersehen.
Mangelhaftes AF?
Ich weiß ja nicht, was Du für einen Maßstab anlegst, aber nach deinem Maßstab müsste das NV-AF "ausreichend" sein.
Wenn ich mir ansehe, was es bisher so an AF gegeben hat (NV40, speziell @Default, G70, R200), dann würde ich aktuelle Karten eher so einordnen:
Aktuelle Nvidia-Karten:
@HQ: sehr gut - hervorragend
@Default: gut - sehr gut

HD5 @Default: gut - sehr gut
HD4 @Default: befriedigend - gut

Hängt natürlich viel vom verwendetem Spiel und auch der verwendeten Szene ab. Bei vielen Spielen kann selbst das HD4-AF größtenteils als sehr gut bezeichnet werden, wenn der Content stimmt.

Bei jeder möglichen Gelegenheit wird Nvidia in den Dreck gezogen
Da ist NV mit ihren letzten "Marketingaktionen" nicht ganz unschuldig dran.

svenw
2009-11-08, 10:49:07
nVidia's primäres Ziel muss es sein, in genug Anwendungen als Standard CPU-Middleware einzug zu halten.
Und genau das wird PhysX das Genick brechen. Bei BAtman mag es angehen das nur Nvidia Spieler die Effekte zu sehne bekommen aber in der Breite wird das nicht laufen sondern die Entwickler auf etwas universelles setzen. Wenn Nvidia PhysX freigeben würde hätten sie einen Entwicklungsvorsprung und eine gute und etablierte Physikengine könnte überleben. So wird PhysX als "Nvidia only" untergehen. Schade.

Es ist nicht das Interesse der Entwickler Kunden auszuschließen es sei denn Nvida zahlt dafür (Batman).

aths
2009-11-08, 15:54:57
Ein für den User fragwürdiges Ziel.
Je höher die PhysX-Verbreitung in Spielen, desto stärker ist man auf einen Graka-Hersteller festgenagelt, falls man die Spiele in vollen Details spielen will. Ich denke das siehst du auch ein.Immerhin haben dann Geforce Nutzer Vorteile. Radeon-User haben keine Nachteile verglichen mit der Situation, dass sich keiner um Physik-Effekte kümmert.

svenw
2009-11-08, 17:56:13
Immerhin haben dann Geforce Nutzer Vorteile. Radeon-User haben keine Nachteile verglichen mit der Situation, dass sich keiner um Physik-Effekte kümmert.
Ja, aber wie erklären die Entwickler das den 50% der Kunden die keine Nvidia verbaut haben? Denn dann werden sicher etliche potentielle Kunden abspringen weil sie sich über dieses Vorgehen ärgern. PhysX ist ein Vorteil für Nvidia was es zu einem Nachteil für Entwickler macht. Wenn die Entwickler Physik integrieren werden sie sicher kaum mit 2 verschiedenen Pfaden herumschlagen wollen.

Gast
2009-11-08, 18:16:05
Ja, aber wie erklären die Entwickler das den 50% der Kunden die keine Nvidia verbaut haben?Die Entwickler erklären es so:
"Hey Jungs, tut uns leid, wir waren zu faul für AA. Tut uns Leid, die 50€ behalten wir".


Denn dann werden sicher etliche potentielle Kunden abspringen weil sie sich über dieses Vorgehen ärgern. PhysX ist ein Vorteil für Nvidia was es zu einem Nachteil für Entwickler macht. Wenn die Entwickler Physik integrieren werden sie sicher kaum mit 2 verschiedenen Pfaden herumschlagen wollen.Warum den das?
Verärgert über den faulen Entwickler mit Sicherheit, das wars aber schon.
Niemand springt aus dem Grund ab, das sich Nvidia um seine Kunden kümmert.

Wenn Jemand abspringt, dann weil Eidos zu faul war oder weil AMD nichts tut.

PhysX ist ein dankbares Werbemittel, ein Werbemittel das Eidos gratis in den Arsch geblasen bekommt.
Eine ganzschöne Sauerrei, das Eidos von etwas profitiert, was sie nicht zu verantworten haben. Wäre Eidos ehrlich, stünde PhysX nicht auf der Packung, den es ist ein Zusatzangebot von Nvidia.

PulsarS
2009-11-08, 22:14:02
Ihr versteift euch bei der Physik-Diskussion zu sehr auf Nvidia/ATI.

Man sollte eins verstehen.
So lange es keine einheitliche Schnittstelle für beide IHVs gibt, so lange wird der Fortschitt, was Physik in Spielen angeht (gerade Gameplay-Physik), nur so vor sich hin tröpfeln und DAS kann doch kein Gamer wollen, oder?
Deswegen bin auch froh, dass mann Physik auch über Compute Shader (DX11) programmieren kann.
DX11 ist eine einheitliche Schnittstelle für beide IHVs und nur so kann es auch Fortschritt geben, der uns in Sachen Gameplay weiterbringt.
Wenn nur ein IHV etwas unterstützt wird es sich nie (zumindest nicht entscheidend) auf Gameplay auswirken können, weil wir sonst eine 2-Klassen-Gesellschaft hätten.
Und das wäre beim PC fatal. Und wird auch deswegen nie eintreten.
Also entweder DX11 oder ein offener Standard wie OpenCL.
Alles andere bremst nur den Fortschritt und wird sich NIE auf Dauer durchsetzen können.

Gast
2009-11-09, 09:55:14
PhysX ist ein dankbares Werbemittel, ein Werbemittel das Eidos gratis in den Arsch geblasen bekommt.
Eine ganzschöne Sauerrei, das Eidos von etwas profitiert, was sie nicht zu verantworten haben. Wäre Eidos ehrlich, stünde PhysX nicht auf der Packung, den es ist ein Zusatzangebot von Nvidia.

Deshalb sollte NVidia solche Aktionen unterlassen. Entweder die Hersteller unterstützen HW-PhysX von sich aus oder eben garnicht.
Aus AMD einen Buhmann zu machen finde ich auch falsch, die verhalten sich nur wie sich ein IHV verhalten sollte. Das was NV macht ist zwar teilweise lobenswert, andererseits schauen mir die eigentlichen Entwickler der Spiele nicht streng genug auf die Griffel von den NV-Männern bei der Implementation.
Die bauen dann eben solche schönen Warnfenster ein wie bei Batman.... Das ist deren Marketing, jedoch will ich kein Werbespiel erstehen und warum ein AMD-ler eine Meldung von NV zu sehen bekommen muss ist mir nicht ganz klar.

Andersrum baut NV zB. AA ein wird der Entwickler drauf scheißen extra AA für AMD einzubauen. Deshalb schenke ich den Aussagen der Entwickler kein vertrauen, denn ME nutzt die gleiche Engine und hat für beide IHVs AA parat und die Aussagen haben sie erst nach dem Aufschrei der Community getrofen.

S940
2009-11-09, 18:33:28
Ihr versteift euch bei der Physik-Diskussion zu sehr auf Nvidia/ATI.

Man sollte eins verstehen.
So lange es keine einheitliche Schnittstelle für beide IHVs gibt, so lange wird der Fortschitt, was Physik in Spielen angeht (gerade Gameplay-Physik), nur so vor sich hin tröpfeln und DAS kann doch kein Gamer wollen, oder?
Deswegen bin auch froh, dass mann Physik auch über Compute Shader (DX11) programmieren kann.
DX11 ist eine einheitliche Schnittstelle für beide IHVs und nur so kann es auch Fortschritt geben, der uns in Sachen Gameplay weiterbringt.
Wenn nur ein IHV etwas unterstützt wird es sich nie (zumindest nicht entscheidend) auf Gameplay auswirken können, weil wir sonst eine 2-Klassen-Gesellschaft hätten.
Und das wäre beim PC fatal. Und wird auch deswegen nie eintreten.
Also entweder DX11 oder ein offener Standard wie OpenCL.
Alles andere bremst nur den Fortschritt und wird sich NIE auf Dauer durchsetzen können.
Wollte nV nicht auch die Bullet Engine unterstützen ?

LovesuckZ
2009-11-09, 18:40:22
Wollte nV nicht auch die Bullet Engine unterstützen ?

Tun sie doch: Per Cuda und OpenCL. :)
Bullet läuft schon seit Monaten auch über Cuda. Da fragt man sich, was AMD so treibt.

S940
2009-11-09, 18:48:19
Na dann .. bestens ...

Gast
2009-11-09, 19:10:40
Da fragt man sich, was AMD so treibt.

Arbeiten noch dran.

LovesuckZ
2009-11-09, 19:12:10
Gut für den Gamermarkt, dass wenigsten eine Firma sich um den Gamer kümmert. Wäre schon ziemlich peinlich, wenn die Anti-Gamer Firma den Bullet-Entwicklern helfen müsste.

Gast
2009-11-10, 08:52:04
Nur für LS , zum Nachdenken :

http://www.tweakpc.de/news/17159/kolumne-nvidia-und-die-cartoons/



Aber sicher macht das Nv nur ums uns "Gamer" vor den bösen,bösen Konkurenten zu schützen. Stellt euch vor man kauft nicht Nvidia !
Unglaublich !

anddill
2009-11-10, 10:53:19
LovesuckZ, es reicht mal wieder. Du beanspruchst mein Verständnis von Meinungsfreiheit noch bis zum Zerreißen!

Noch so ein Ding, und es gibt Punkte für Spam.
@ All: Beim Thema bleiben und die persönlichen Angriffe unterlassen!

Gast
2009-11-10, 23:13:40
Deshalb sollte NVidia solche Aktionen unterlassen. Entweder die Hersteller unterstützen HW-PhysX von sich aus oder eben garnicht.
Nö, wenn Nvidia meint sie wollen reinwirken, nur zu.
Der ISV muss dafür sorgen, wie es abläuft.


Aus AMD einen Buhmann zu machen finde ich auch falsch, die verhalten sich nur wie sich ein IHV verhalten sollte. Das was NV macht ist zwar teilweise lobenswert, andererseits schauen mir die eigentlichen Entwickler der Spiele nicht streng genug auf die Griffel von den NV-Männern bei der Implementation.Da muss man nichts schauen, ist doch wohl logisch das NV-Männer die Interessen ihres Arbeitgebers respektieren.
Nvidia hat sicher kein Interesse, das AMDs Kunden von ihrer Arbeit profitieren.
Im Endeffekt würde die Arbeit für Nvidia somit vollkommen uninteressant werden.
Wozu soll sich Nvidia damit abmühen, dann gibts eben für beide kein AA, dann herscht auch Gleichstand.


Die bauen dann eben solche schönen Warnfenster ein wie bei Batman.... Das ist deren Marketing, jedoch will ich kein Werbespiel erstehen und warum ein AMD-ler eine Meldung von NV zu sehen bekommen muss ist mir nicht ganz klar.Gibts davon auch Bilder?


Andersrum baut NV zB. AA ein wird der Entwickler drauf scheißen extra AA für AMD einzubauen. Deshalb schenke ich den Aussagen der Entwickler kein vertrauen, denn ME nutzt die gleiche Engine und hat für beide IHVs AA parat und die Aussagen haben sie erst nach dem Aufschrei der Community getrofen.Angeblich hatte Eidos kein Interesse an einer AA Implementierung.
Eben eine typische quick and dirty Konsolenportierung.
Das andere Entwickler dem Beispiel folgen steht zu befürchten. Meine Lust dafür nachwievor 50€ hinlegen zu sollen sinkt.

Gast
2009-11-10, 23:17:30
bullet wird weder von NV noch von ATI unterstützt

PulsarS
2009-11-10, 23:41:57
bullet wird weder von NV noch von ATI unterstützt
Wie meinen?

Wolfram
2009-11-13, 00:17:16
Blödinn entsorgt. Beim nächsten Mal gibt es Rot.

Gast
2009-11-13, 23:22:52
bullet > physx!

http://www.fxguide.com/article574.html

deekey777
2009-11-13, 23:42:29
bullet > physx!

http://www.fxguide.com/article574.html
eine sehr seltsame Schlussfolgerung. Wie kommst du darauf?

Gast
2009-11-13, 23:47:33
eine sehr seltsame Schlussfolgerung. Wie kommst du darauf?

Ich denke er meint damit, dass es opensource ist und kein Cuda braucht.
Damit ist man unabhängig und kann dennoch das gleiche Zeugs wie
PhysX.

deekey777
2009-11-13, 23:52:31
Kann Bullet wirklich alles, was PhysX kann, und genau so gut oder gar besser?
Das ist doch die Kernfrage. Opensource oder nicht, ist zweitrangig, der Source für PhysX kostet 50.000 US-Dollar und man bekommt auch kluge Köpfe zur Seite.

Gast
2009-11-14, 00:08:20
Opensource oder nicht, ist zweitrangig,

ist es nicht... bullet ist nicht gpl lizensiert ;)...

der Source für PhysX kostet 50.000 US-Dollar

beeindruckend! und...?

und man bekommt auch kluge Köpfe zur Seite.

bei bullet auch

PulsarS
2009-11-14, 00:27:46
Kann Bullet wirklich alles, was PhysX kann, und genau so gut oder gar besser?
Das ist doch die Kernfrage. Opensource oder nicht, ist zweitrangig, der Source für PhysX kostet 50.000 US-Dollar und man bekommt auch kluge Köpfe zur Seite.
War die Frage/Aussage jetzt Dein Ernst oder wolltest Du nur den Gast ein wenig aus der Reserve locken? :whistle:

LovesuckZ
2009-11-14, 20:44:22
GPU-PhysX in Star Trek: D-A-C (http://physxinfo.com/news/798/gpu-physx-in-star-trek-d-a-c-surprise/)

boxleitnerb
2009-11-14, 20:52:10
Wow! Beeindruckend...nicht...
Wenn man so PhysX vorantreiben will, gute Nacht.

Gast
2009-11-14, 21:22:03
GPU-PhysX in Star Trek: D-A-C (http://physxinfo.com/news/798/gpu-physx-in-star-trek-d-a-c-surprise/)

Das ist geniales PhysX! xD

Hat das NVidia mit integriert?

Gast
2009-11-16, 02:30:39
Also ich hab mir das PhysX zeugs mal rein gezogen, so ein Bullshit:

als erstes diese Krasse Demo von der NV Page:

CRAZY MACHINES 2 = Gottchen hab ich gelacht über den blödsinn

Cryostasis = Ich war kurz vorm Kotzen als ich die Grafik gesehen hab, udn die Physk ist mal lächerlich da sieht Bioshock 10x besser aus.

UT3 +PhysX = ist zwar net anzusehen wie die Steine in die Luft schiessen, aber realistisch ist was anderes

Warmonger = omg ist genauso witzig, das einzig coole ist das man den Stoff löchern kann und der sich auch so bewegt der rest ist mehr als lol

The Great Kulu PhysX demo= tjo was soll ich sagen, war lustig das Vieh zu quälen der rest war für die Tonne aber sowas von........

Ja was soll ich dazu noch sagen, das Zeug wird genaus sterben wie bei Ageia und sich niemals duchsetzen es wir dein feature von Nvidia bleiben was schön auf der Verpackung von Grafikkarten steht mehr aber auch nicht.

Wenn man sich die Physk von GTA4 anschaut (euphoria) da brauch keiner mehr PhysX.

Coda
2009-11-16, 03:15:39
Kann Bullet wirklich alles, was PhysX kann, und genau so gut oder gar besser?
Das ist doch die Kernfrage. Opensource oder nicht, ist zweitrangig, der Source für PhysX kostet 50.000 US-Dollar und man bekommt auch kluge Köpfe zur Seite.
Bei 2012 wurde sicher auch sehr viel an Bullet geändert. Steht auch indirekt in dem Artikel.

Es ist in der CG-Branche ziemlich üblich, dass für einen Film viel custom development gemacht wird. Dafür ist es als Basis natürlich sehr gut brauchbar.

deekey777
2009-12-04, 12:53:37
So muss das sein:
http://physxinfo.com/news/966/nvidia-qa-roundup-physx-wont-support-opencl-or-directcompute-any-time-soon/
#1 – How do you expect PhysX to compete in a DirectX 11/OpenCL world?

By Tom Petersen, Director of Technical Marketing: PhysX does not compete with OpenCL or DX11’s DirectCompute.

PhysX is an API and runtime that allows games and game engines to model the physics in a game. Think of PhysX as a layer above OpenCL or DirectCompute, which in contrast are very generic and low level interfaces that enable GPU-accelerated computation. Game developers don’t create content in OpenCL or DirectCompute. Instead they author in toolsets (some of which are provided by NVIDIA) that allow them to be creative quickly. Once they have good content they “compile” a specific platform (PC, Wii, Xbox, PS3, etc) using another tool flow.

During this process game studios have three basic concerns:

1. Does PhysX make it easier to develop games for all platforms – including consoles?

2. Does PhysX make it easier to have kick ass effects in my game?

3. Will NVIDIA support my efforts to integrate this technology?

And the answer to the three questions above is: yes, yes, and yes. We are spending our time and money pursuing those goals to support developers, and right now the developer community is not telling us that OpenCL or DirectCompute support are required.

At the end of the day, the success of PhysX as a technology will depend on how easy it is for game designers to use and how incredible the game effects are that they create. Batman: Arkham Asylum is a good example of the type of effects we can achieve with PhysX running on NVIDIA GPUs, and we are working to make the next round of games even more compelling. At this time, NVIDIA has no plan to move from CUDA to either OpenCL or DirectCompute as the implementation engine for GPU acceleration. Instead we are working to support developers and implement killer effects.

RLZ
2009-12-04, 14:59:30
Wenn man sich die Physk von GTA4 anschaut (euphoria) da brauch keiner mehr PhysX.
Das sind unterschiedliche Layer.
Wenn überhaupt, dann kannst du höchstens Apex mit Europhia vergleichen.
Natural Motion braucht unten drunter eine gute Physikengine und setzt dort auch auf PhysX.

Gast
2009-12-04, 16:10:25
Das sind unterschiedliche Layer.
Wenn überhaupt, dann kannst du höchstens Apex mit Europhia vergleichen.
Natural Motion braucht unten drunter eine gute Physikengine und setzt dort auch auf PhysX.

Der PhysX Ansatz ist doch genauso, außerhalb eines Effektkonstruktes werden keine Kräfte ausgetauscht.
Bis jetzt gab es noch nichts sinnvolles mit PhysX.

Coda
2009-12-04, 16:11:11
So muss das sein:
http://physxinfo.com/news/966/nvidia-qa-roundup-physx-wont-support-opencl-or-directcompute-any-time-soon/
Kurz: Bevor der Konkurrenzdruck nicht groß genug ist werden sie es weiter auf GeForces beschränken.

Überraschung? Ich denke nicht.

Gast
2009-12-04, 19:34:47
Ich erwarte nichts mehr in dieser Richtung, AMD wird noch die gesammte Grafiksparte auf Lowcost zusammen schrumpfen, weil alle NV für ihr zugekauftes PhysX lobhudeln.

Ich liebe solche Unternehmen für die Kunden vollkommen scheiß egal sind! ;)

Damit meine ich ATI und Nvidia....
Aber auch die Spieledesigner keinen mir mal am Buckel runterrutschen, denn die freuen sich sogar darüber. Ein inakzeptables Verhalten gegenüber den Kunden, wie ich finde. Hier wird eine einzige Plattform über alle Maßen bevorzugt und damit begründet, dass es auf den Konsolen auch so ist.
Für mich ist es eine Beleidigung wenn ein Entwickler, anscheinend die Entwicklung für den PC verlernt hat.
Da geht Sony mit ihren schwer programmierbaren Konsolen den richtigen Weg,
schreckt die faule Bande auf. Das Dreckspack, dass eigentlich nur noch aus Designern besteht und einer Meute wilder Skriptkiddies die bestehende Mainstream-Engines auf das eigene Spielprinzip modifizieren.

PhysX als digitales Druckmittel, ist für mich eine perfide Form der Kundenverarschung. NV-Kiddies moben rum, dass dies nur ein kleines EXTRA ist.
NEIN! Wenn HW-PhysX in einem Spiel eingebaut ist, dann gehört es einfach zur vollen Qualität dazu. Wer keine Geforce besitzt kann eben nicht in voller Qualität spielen.
Dabei interessiert es mich nicht die Bohne, wie das Spiel auf einer Konsole aussieht. Und wenn der Entwickler das gut heißt, weil er NVidia einen Freifahrtschein gegeben hat in ihrem Code rumzupfuschen, dann wird er nicht besser. Diesem Unternehmen liegt anscheinend rein garnichts daran, eine volle Kompatibilität zu jeglicher akutell verfügbaren PC-Hardware zu erreichen.
Die Begründung, dass NV ihnen den Arsch abwischt und es deshalb so sein muss, ist wie blanker Hohn für den leidenden Kunden.

Wie würde sich ein HIFI-Freak freuen wenn plötzlich alle neuen CDs nur noch auf Sony-Playern ordentlich abspielbar sind, auf anderen jedoch wie eine kaputte Schallplatte klingen. Oder Kabelfernsehen nur noch in 23:7 ausgestrahlt werden weil Onkyo solche Geräte anbieten und die TV-Sender kostenlos mit passenden Studioausrüstungen und Geräten ausstattet.

Schlammsau
2009-12-17, 16:08:12
Ich weiss nicht ob das der Thread war, aber Coda(?) behauptete doch mal, dass PhysX mehrere CPU Cores nutzt. Hier der Gegenbeweiß....

http://www.abload.de/thumb/unbenanntl4pw.jpg (http://www.abload.de/image.php?img=unbenanntl4pw.jpg)

Multicoreunterstützung sieht anders aus.

PhysX wird auf CPUs "künstlich" ausgebremst, damit GPU-PhysX besser da steht.

Coda
2009-12-17, 16:22:04
Ich weiss nicht ob das der Thread war, aber Coda(?) behauptete doch mal, dass PhysX mehrere CPU Cores nutzt.
Ich habe gesagt, dass es dies kann wenn man es anfordert (nein, das bilde ich mir nicht ein). Verdreht mir nicht immer die Worte.

Wenn der Autor des FluidMark das nicht gebacken bekommt kann ich auch nichts dafür. Ich denke aber mal stark, dass der Benchmark eh dazu gedacht ist HW-PhysX zu beurteilen.

Schlammsau
2009-12-17, 16:23:00
Ich habe gesagt, dass es dies kann wenn man es anfordert. Verdreht mir nicht immer die Worte.

Hmmm....wo ist jetzt der Unterschied?

Oder willst du sagen, dass in Games oder anderen PhysX Demos MultiCore unterstützt wird?

Gast
2009-12-17, 16:32:29
36% Auslastung verteilt auf 4 Kerne zeigt doch deutlich, das prinzipiell mehrere Kerne genutzt werden.

Coda
2009-12-17, 16:34:33
Oder willst du sagen, dass in Games oder anderen PhysX Demos MultiCore unterstützt wird?
Wenn es von der API angefordert wird: Ja.

Man muss nur NX_SF_ENABLE_MULTITHREAD setzen beim erstellen der Szene.

Gast
2009-12-18, 10:40:23
Dies wird in keiner Tech-Demo getan und ein HW-PhysX-Spiel, dass dies tut hab ich auch noch nicht gesehen.

@Coda
Mach mal den Gegenbeweis und erstelle mal eine Szene mit HW-PhysX, eine mit nur SingleCore Support und dann eine mit Multicore-Support und dann können wir ein paar Benchmarks machen.

LovesuckZ
2010-01-02, 23:51:04
Dies wird in keiner Tech-Demo getan und ein HW-PhysX-Spiel, dass dies tut hab ich auch noch nicht gesehen.

@Coda
Mach mal den Gegenbeweis und erstelle mal eine Szene mit HW-PhysX, eine mit nur SingleCore Support und dann eine mit Multicore-Support und dann können wir ein paar Benchmarks machen.

Nimm doch einfach Vantage (http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/10/#abschnitt_cputest).

DaBrain
2010-01-03, 00:24:04
Wollte nV nicht auch die Bullet Engine unterstützen ?

Soweit ich weiß, kann Bullet schon längst über CUDA oder OpenCL laufen. Also muss Nvidia nichts mehr für den Support tun.

Interessant wäre es aber wenn man wie bei PhysX auch Bullet auf einer anderen Garfikkarte laufen lassen könnte, bzw. GPGPU Software immer einen Vorteil aus mehreren Grafikkarten im System ziehen würde.


Nur für PhysX alleine werde ich mir keine zweite Karte kaufen...

y33H@
2010-01-03, 01:07:21
Gibt ja nur grob 100 Spiele mit PhysX, die PhysX so richtig in Aktion zeigen - ohne wäre oft gar keine Physik vorhanden ;D Ach hups, ihr (Nagus/Tarkin) meint doch nicht etwa GPU-PhysX? :usad:

Gast
2010-01-03, 01:13:05
JA! Wir meinen von der Grafikkarte beschleunigte Physik (im Fall von NV eher entschleunigte ;D)! Was da gezeigt wird ist ganz dolle lächerlich! Dazu betrügt man auch noch und sperrt mutwillig, unter Vorsatz die AMD User aus! DAS REICHT ABER NICHT! Man bremst auch noch AMD Karten aus damit die NV-Krücken mithalten können! Beschiss ist das!

y33H@
2010-01-03, 01:14:26
Wenn es mutwillig ist, wenn AMD kein PhysX per GPU beschleunigen kann ... NV kann ja auch kein Stream. Ha! Pööhse!

Gast
2010-01-03, 01:16:44
NV betrügt auch bei CUDA! Man bezahlt Geld, damit AMD keinen Support für das SPiel/Software leisten darf! Man kauft/besticht/schmiert alle! ÖFFNET DIE AUGEN!

Liszca
2010-01-03, 01:36:55
Genau, AMD supported solche alten Karten aber alle Karten die älter als die HD-Serie sind werden nicht ordentlich
mit Treibern versorgt.

für den spieler ist das doch so ziemlich egal, denn wenn er denn noch so alte spiele unter win 7 spielt dann müssen die ja wohl noch mit dem alten ding gehen. Und für eine neueres spiel würden nicht nur neuere treiber benötigt werden, sondern auch eine neue grafikkarte PUNKT

Liszca
2010-01-03, 01:39:07
NV betrügt auch bei CUDA! Man bezahlt Geld, damit AMD keinen Support für das SPiel/Software leisten darf! Man kauft/besticht/schmiert alle! ÖFFNET DIE AUGEN!

weist gewisse parallellenen zu siemens auf :freak:

Gast
2010-01-03, 01:49:12
PhysX ist eine nette Geschichte, nur drängt sich mir der dumme Verdacht auf, dass nichtkompatible Hardware massiv ausgebremst wird. Bei Mirrors Edge ist mir das zum ersten Mal aufgefallen, kaum CPU-Auslastung und völlig egal ob X2 oder Phenom, immer die sagenumwobenen 8-9fps...in neueren Spielen ~20.
Übertaktung bringt wenig bis gar nichts, Untertaktung verschlimmert die Situation aber auch nimmer...Da ist was faul imho!

aths
2010-01-03, 16:36:48
NV betrügt auch bei CUDA! Man bezahlt Geld, damit AMD keinen Support für das SPiel/Software leisten darf! Man kauft/besticht/schmiert alle! ÖFFNET DIE AUGEN!Schlimm! Dann müssen die Entwickler für Windows 7 ja jetzt DirectCompute nehmen, was sowohl auf GF als auch auf Radeon läuft!

Dural
2010-01-06, 02:44:45
Der Vergleich mit Glide passt 100%, nicht auf der technischen Ebene, die natürlich gar nicht gemeint war (und es fällt mir schwer zu glauben, dass das man das tatsächlich unabsichtlich so missverstehen kann), sondern auf der politischen. Beides sind Werkzeuge um Software auf einer bestimmten Hardware exklusiv zu machen mit dem Endziel der Monopolisierung. Und aus diesem Grund wird PhysX auch scheitern. Die meisten Leute, die heute Hardware eines bestimmten Herstellers kaufen, wollen sich damit nicht für alle Zeit an diesen binden.


Was für ein absurdes Scheinargument. Es ist doch absolut unbestreitbar, dass PhysX nv gehört und sich damit jeder andere Hersteller, der es unterstützte, in babylonische Gefangenschaft begäbe. Nach dem Benchmark Fraud bei BM:AA kann man sich leicht vorstellen, was passieren würde.
Und Danke für den Hinweis mit der Schulbank, passt gut in mein Bild von Dir! :up:

edit:
Deine Bestätigung zu "Völlig uninteressant was in Zukunft ist, wir leben im Hier und Jetzt" zeugt auch von enormer Weitsicht ;)
Vielleicht unterscheidet das homo fanboii und homo sapiens - letzter verschwendet ab und zu auch mal einen Gedanken an morgen.

und noch ein mal, PhysX ist NICHT auf eine bestimmte hardware beschränkt, ist schon schwer das zu verstehen??? Vileicht wird PhysX mal über zb. Open CL laufen, wer weis das schon...

Es gibt KEINE andere "engine" die so kompatibel zu hardware ist wie PhysX, zeig mir mal zuerst EINE "engine" die da ran kommt, den so wie es ausschaut gibt es derzeit weit und breit nichts vergleichbares die die basis und reife wie PhysX hat...

Havok auf GPU ist wohl mehr oder weniger tot, da Intel soblad keine GPUs liefern wird/kann, bulid steckt noch in den kinderschuhen...

ach ja, nur ein kompleter fanboy interessiert was in der zukunft ist und ob sich was durchsetzt oder eben nicht... jeder vernünftiger mensch schaut auf das hier und jetzt und da ist PhysX ganz klar das einzige was es überhaupt gibt im GPU bereich gibt... was interessiert mich schon die zukunft... ich will JETZT was auf dem bildschrim sehen und nicht wie ATI seit 2006 behaupten unsere sachen sind besser aber bis heute rein gar nichts hinbekommen haben... wer ist der fanboy frag ich mich da...

=Floi=
2010-01-06, 05:48:07
PhysX solle auf einer Ati HD5870er eh besser laufen, wenn es mal für opencl portiert wird und amd ordentliche opencl treiber liefert. ausgerechnet die ati karten haben mehr arithmetischen rechenleistung die genau hier richtig durchbrechen sollte.

mapel110
2010-01-06, 06:16:26
PhysX solle auf einer Ati HD5870er eh besser laufen, wenn es mal für opencl portiert wird und amd ordentliche opencl treiber liefert. ausgerechnet die ati karten haben mehr arithmetischen rechenleistung die genau hier richtig durchbrechen sollte.
hrhr, solange nvidia PhysX liefert, wird das aber nicht passieren.

=Floi=
2010-01-06, 07:08:57
sicher wird das noch kommen. irgendwann (mit DX11?) werden die kunden komplette kompatibilität verlangen. auch wird intel noch mit einer grafikkarte kommen.

V2.0
2010-01-06, 07:09:40
Vor allem weil ATI es neimals freischalten würde.

=Floi=
2010-01-06, 07:32:31
käse!
die haben genug rechenleistung über um wesentlich schneller zu sein (alleine das ist schon ein grund es zu mögen) und warum sollten sie die software boycottieren? es würde alles über opencl laufen und ati hätte damit gar keinen stress oder arbeit.
ich bin gespannt, wie gut die physix titel auf dem GT300 laufen werden und wie stark sich die erhöhte rechenleistung bemerkbar macht. ein erheblich geringerer einbruch wäre ganz nett.

V2.0
2010-01-06, 07:52:29
Wenn das Ding PhysiX heißt wird es ATI nicht lizensieren und nicht freischalten.

Gestrandet
2010-01-06, 13:43:05
und noch ein mal, PhysX ist NICHT auf eine bestimmte hardware beschränkt, ist schon schwer das zu verstehen???
Wem gehört PhysX nochmal??? Und wie war nochmal mit dem Aussperren von Usern, die sich erdreisten die Anzeige über was anderes als einen nv Adapter laufen zu lassen (http://www.ngohq.com/news/16560-patch-re-enables-physx-when-ati-card-is-present.html)?
Da du offenbar nur daran interessiert bist, unter vorsätzlicher Ignoranz aller Fakten Propaganda für eine Marke zu beteiben, aus welchen Gründen auch immer, werde ich deine Beiträge in Zukunft ignorieren.
ach ja, nur ein kompleter fanboy interessiert was in der zukunft ist
Soll man da jetzt lachen oder weinen? :confused:
... bleibt uns eigentlich nur zu wünschen, dass sich mehr fanbois politisch engagieren ^^

deekey777
2010-01-06, 13:53:10
und noch ein mal, PhysX ist NICHT auf eine bestimmte hardware beschränkt, ist schon schwer das zu verstehen??? Vileicht wird PhysX mal über zb. Open CL laufen, wer weis das schon...

....
Ach wirklich...
http://developer.download.nvidia.com/PhysX/EULA/NVIDIA%20PhysX%20SDK%20EULA.pdf
1. Definitions. “Licensed Platforms” means the following:
- Any PC or Apple Mac computer with a NVIDIA CUDA-enabled
processor executing NVIDIA PhysX;
- Any PC or Apple Mac computer running NVIDIA PhysX software
executing on the primary central processing unit of the PC only;
- Any PC utilizing an AGEIA PhysX processor executing NVIDIA
PhysX code;
- Microsoft XBOX 360;
- Nintendo Wii; and/or
- Sony Playstation 3
Was wolltest du nochmal beweisen? Dass du nicht so richtig weißt, was du von sich gibst?

Dural
2010-01-06, 14:05:47
jo und jetzt zeig mir mal den auszug von zb. Havok........ wie viele GPU und PPU werden derzeit von denen unterstützt?

aber havok ist ja besser mit Intel nur weil AMD daran auch interesse hat und es ihnen durch die lizensabkommen wahrscheinlich nichts kostet, richtig???

hört doch auf zu spielen, sonst kommt ihr ja wohl möglich noch mit DX in kontakt ohhhhh nein ein monopol :freak:

ihr zockt bestimmt nur Open GL games hehe

so und noch ein mal zeig mir eine "engine" die so kompatibel zu hardware ist wie es PhysX derzeit ist!

ach ja NV hat PhysX AMD ja angeboten, sie haben abgelehnt (wahr ihnen wohl zu teuer...)

komplett lächerlich wie man PhysX fertig machen MUSS nur weil ihr lieblings hersteller ausgeschlossen ist / sie es nicht haben / rein gar nichts ihn diesem bereich vorzeigen können, was ist noch mal die defination von fanboy? wie kleine kinder, wenn ich nicht damit spielen kann mach ich es schlecht/kaputt lol

Gast
2010-01-06, 14:24:14
Was wolltest du nochmal beweisen? Dass du nicht so richtig weißt, was du von sich gibst?

Und was stimmt daran jetzt nicht? Da sind ja schon mal sehr viele Plattformen aufgelistet.

N0Thing
2010-01-06, 14:26:31
jo und jetzt zeig mir mal den auszug von zb. Havok........ wie viele GPU und PPU werden derzeit von denen unterstützt?

aber havok ist ja besser mit Intel nur weil AMD daran auch interesse hat und es ihnen durch die lizensabkommen wahrscheinlich nichts kostet, richtig???

hört doch auf zu spielen, sonst kommt ihr ja wohl möglich noch mit DX in kontakt ohhhhh nein ein monopol :freak:

ihr zockt bestimmt nur Open GL games hehe

so und noch ein mal zeig mir eine "engine" die so kompatibel zu hardware ist wie es PhysX derzeit ist!

ach ja NV hat PhysX AMD ja angeboten, sie haben abgelehnt (wahr ihnen wohl zu teuer...)

komplett lächerlich wie man PhysX fertig machen MUSS nur weil ihr lieblings hersteller ausgeschlossen ist / sie es nicht haben / rein gar nichts ihn diesem bereich vorzeigen können, was ist noch mal die defination von fanboy? wie kleine kinder, wenn ich nicht damit spielen kann mach ich es schlecht/kaputt lol


Es hat doch keiner den Vergleich zu Havok gezogen, es ging zuletzt doch darum, daß du geschrieben hast, daß PhysX nicht auf bestimmte Hardware beschränkt ist. Und daß PhysX auf bestimmte Hardware beschränkt ist, hat deekey gezeigt und du hast dies ja auch in deinem Post anerkannt ("lieblings hersteller ausgeschlossen ist").
Ob das in Zukunft mit DX11 oder OpenCL mal anders sein könnte liegt in der Zukunft und dafür interessieren sich ja leider nur Fanboys. :rolleyes:

Ich habe rein gar nichts gegen PhysX, finde es nicht besser oder schlechter als andere Lösungen. Aber das ist vielleicht der Unterschied...

N0Thing
2010-01-06, 14:27:48
Nicht ganz - es gab heute Nacht ein Preview Event - an dem aber nur ausgewählte Firmen teilgenommen haben und heute ab 16:00 Deutscher Zeit gehen die Pressekonferenzen los.
Nvidia hat eine Pressekonferenz für Morgen, 18:30 Deutsche Zeit angesetzt - insofern würde ich vor diesem Zeitpunkt mit nicht viel rechnen.....

Bietet Nvidia eine Liste mit ihren Informationsveranstaltungen an, oder muß man quasi eingeladen sein, um davon zu wissen?


Hat sich erledigt, man muß nur mal genauer auf die Nvidiaseite schauen.

Gast
2010-01-06, 14:38:59
ach ja NV hat PhysX AMD ja angeboten, sie haben abgelehnt (wahr ihnen wohl zu teuer...)

komplett lächerlich wie man PhysX fertig machen MUSS nur weil ihr lieblings hersteller ausgeschlossen ist / sie es nicht haben / rein gar nichts ihn diesem bereich vorzeigen können, was ist noch mal die defination von fanboy? wie kleine kinder, wenn ich nicht damit spielen kann mach ich es schlecht/kaputt lol

AMD hat abgelehnt weil die Technik nix taugt, was Havok genauso gut kann und man keine Extra Graka dafür brauch.

mapel110
2010-01-06, 14:41:32
AMD hat abgelehnt weil die Technik nix taugt, was Havok genauso gut kann und man keine Extra Graka dafür brauch.
Man kann sich auch alles schön reden. AMD/ATI wollte mitmachen bei PhysX.

BlackFog
2010-01-06, 14:53:28
AMD hat abgelehnt weil die Technik nix taugt, was Havok genauso gut kann und man keine Extra Graka dafür brauch.
Und ich dachte immer PhysX liefe auch im SW-Modus auf CPUs.

boxleitnerb
2010-01-06, 14:54:22
Tut es ja auch, halt nur unerträglich langsam.

Gast
2010-01-06, 14:56:10
jo weil bewusst von nvidia aus gebremst

Gast
2010-01-06, 15:10:56
jo weil bewusst von nvidia aus gebremst

Ein großteil der PhysX-Spiele nutzt nur die CPU und die würden das wohl kaum machen wenn das ganze sooo langsam wäre.

Gast
2010-01-06, 15:27:47
Ein großteil der PhysX-Spiele nutzt nur die CPU und die würden das wohl kaum machen wenn das ganze sooo langsam wäre.
Darum geht es nicht.
Es geht darum, dass Nvidia offesichtlich ein Bremse bei CPU-PhysX eingebaut hat, da man keinen Unterschied zwischen einem gleichgetakteten Dual- und Quadcore hat.
Und dass man gerade bei Physik die extra Kerne gut gebrauchen könnte, darüber brauchen wir nicht zu diskuttieren, oder?

=Floi=
2010-01-06, 16:09:28
aufgrund der immer stärker steigenden rechenleistung fällt physik quasi als "abfall" nebenbei an. die aktuellen DX11 grafikkarten sind stark genug um es nebenher berechnen zu können.
physik solle eine bestimmte grundlast haben und ab da bleibt es imho auch einigermaßen konstant.

Gast
2010-01-06, 16:26:30
Darum geht es nicht.
Es geht darum, dass Nvidia offesichtlich ein Bremse bei CPU-PhysX eingebaut hat, da man keinen Unterschied zwischen einem gleichgetakteten Dual- und Quadcore hat.
Und dass man gerade bei Physik die extra Kerne gut gebrauchen könnte, darüber brauchen wir nicht zu diskuttieren, oder?
Deshalb skaliert Vantage so vorzüglich mit den Kernen? :rolleyes:

deekey777
2010-01-06, 16:46:58
Wenn du die CPU-Tests meinst:
In Vantage werden zu jedem Kern weitere Objekte hinzugefügt, darum steigt die Punktzahl.

AMD hat abgelehnt weil die Technik nix taugt, was Havok genauso gut kann und man keine Extra Graka dafür brauch.
AMD hat nichts abgelehnt, weil ihnen auch nichts angeboten wurde. Das ist ein Märchen von irgendjemandem aus dem offiziellen Nvidia-Forum.

Und als AMD für ihre OpenCL-Präsentattion den Source-Code haben wollten, soll Nvidia dies höflich abgelehnt haben.

Gast
2010-01-06, 17:00:59
Was ich von PhysX bisher gesehen habe ist absolut lächerlich. Bei Batman wurden einfach nur simpelste Funktionalität beschnitten bzw. auf die PPU ausgelagert. Mit PhysX on fliegen Papiere auf dem Boden herum, ohne nicht. Mit PhysX on kann man den Boden beschädigen, ohne nicht. Mit PhysX on kommt Rauch aus Rohren, ohne nicht. Mit PhysX entstehen Funken, ohne nicht. Ich meine, WTF soll das: http://www.youtube.com/watch?v=vINH6Z9kqgI? Dafür braucht es kein PhysX. Ich habe die gleichen Effekte schon bei Far Cry 1 erlebt und da haben sogar noch 3 von 4 CPU-Kernen Däumchen gedreht und aktuell war damals eine X1900 XT (vgl. Regulator-Level).

Gast
2010-01-06, 17:23:28
Nun, in Batman werden diese Effekte "realistisch" in Echtzeit berechnet.

boxleitnerb
2010-01-06, 17:32:46
Naja aber wichtiger ist doch, was am Ende dabei herauskommt. Ich finde PhysX nett, aber momentan bleibt es imho noch weeeeeeeit unter seinen Möglichkeiten.

Gast
2010-01-06, 17:42:56
Nun, in Batman werden diese Effekte "realistisch" in Echtzeit berechnet.

Meinetwegen berechnet die Effekte der Geist von Gauß persönlich. Das Resultat ist auch ohne PhysX erreichbar. Die Bewegung von 5 Blättern, die Zerstörung von 3 Kacheln oder bischen Rauch ist nichts, wofür man eine eigene Berechnungseinheit bräuchte.

Cubitus
2010-01-06, 17:43:13
Darum geht es nicht.
Es geht darum, dass Nvidia offesichtlich ein Bremse bei CPU-PhysX eingebaut hat, da man keinen Unterschied zwischen einem gleichgetakteten Dual- und Quadcore hat.
Und dass man gerade bei Physik die extra Kerne gut gebrauchen könnte, darüber brauchen wir nicht zu diskuttieren, oder?

Selbst Intel cheated mit seinen Compilern.
Gut sind solche Verfahrensweisen natürlich nicht,
nur üblich und deswegen auch nix Neues!

deekey777
2010-01-06, 18:05:23
Ein großteil der PhysX-Spiele nutzt nur die CPU und die würden das wohl kaum machen wenn das ganze sooo langsam wäre.
Darum geht es nicht.
Es geht darum, dass Nvidia offesichtlich ein Bremse bei CPU-PhysX eingebaut hat, da man keinen Unterschied zwischen einem gleichgetakteten Dual- und Quadcore hat.
Und dass man gerade bei Physik die extra Kerne gut gebrauchen könnte, darüber brauchen wir nicht zu diskuttieren, oder?
Ich hab da eine Theorie:
Es muss nicht zwangsläufig heißen, dass für die "GPU-Effekte" der gleiche Compiler zuständig ist wie für die "normalen CPU-Effekte". Das ist gar nicht so abwegig, den GRAW 1 nutzte Havok für die gewöhnliche Physik und die PPU für die zusätzlichen Effekte (
Und in der Annahme, dass sich um die zusätzlichen GPU-Effekte ein anderer Compiler kümmert (der PTX-Compiler), der für die Grafikkarten den Code in einer Zwischensprache (PTX) und für die CPUs hochoptimierten SSE-Code rausspuckt. Dieser SSE-Code ist aber nicht "Multi-Core"-fähig, sondern er läuft auf einem CPU-Kern. Folge: Aktiviert man in BAA die zusätzlichen Effekte ohne eine CUDA-Grafikkarte, sinkt die Bildrate und es wird nur ein Kern belastet. Und hier muss Nvidia einfach weitermachen.

Dural
2010-01-06, 18:44:35
Ich habe rein gar nichts gegen PhysX, finde es nicht besser oder schlechter als andere Lösungen. Aber das ist vielleicht der Unterschied...

ich hab auch nichts zb. gegen havok, aber so lange PhysX die einzige "engine" ist die auf GPU läuft ist mir alles andere egal!

mir ist es letztendlich so was von egal was sich durchsetzen mag oder nicht, ich habe keine Aktien von NV/AMD oder INTEL du?

PhysX ist hier und jetzt in der Gegenwart das einzige was wir zur Verfügung bekommen und genau deswegen ist jedes schlecht reden von PhysX ziemlich sinnlos, den ohne NV / PhysX hätten wir bis heute noch nichts was auf einer GPU läuft! und das ist FAKT!

und ich weis auch nicht was manche genau erwarten, sie wollen keinen FPS Einbruch aber Mega tolle Effekte und am liebsten keinen Cent für eine PPU ausgeben, es müsste eigentlich jedem klar sein dass das zusammen nicht geht...

zudem das ganze Thema noch überhaupt nicht ausgereift ist... das sollten einige auch mal endlich einsehen!

boxleitnerb
2010-01-06, 19:00:46
Ja aber Dural, selbst du in deiner Verblendung musst doch zugeben, dass PhysX momentan für den Anwender nichts wirklich Besonderes bietet, was nicht vorher schon in irgendeiner Form da war (und das mit alter Hardware).

Es läuft als einzige Engine auf der GPU. Toll! Was hab ich denn davon? Fast alle tollen Effekte, die PhysX bietet, gabs schon vorher. Es gibt nur sehr wenige Szenen in PhysX-Games, die mich beeindrucken, z.B. der Bodennebel in Batman oder die fliegenden Ziegel in den Alptraumsequenzen. Der Rest ist rein kosmetisch, ein Witz!

Ich hab selber eine 8800GTX und nehme es gerne mit, wo die Performance reicht, aber das, wozu es hier einige machen, ist PhysX nicht. Da hat mir z.B. bei Bioshock am Anfang die Wassersimulation viel besser gefallen als irgendwelche rumfliegenden Papierchen. Wenn schon PhysX, dann doch bitte richtig! Und komm mir nicht mit unausgereift, PhysX gibts ja schon ziemlich lange wie du und andere hier öfters völlig richtig feststellen.

N0Thing
2010-01-06, 19:31:01
ich hab auch nichts zb. gegen havok, aber so lange PhysX die einzige "engine" ist die auf GPU läuft ist mir alles andere komplett egal!!!

mir ist es letztendlich so was von egal was sich durchsetzen mag oder nicht, ich habe keine Aktien von NV/AMD oder INTEL du?

PhysX ist hier und jetzt in der Gegenwart das einzige was wir zur Verfügung bekommen und genau deswegen ist jedes schlecht reden von PhysX ziemlich sinnlos, den ohne NV / PhysX hätten wir bis heute noch nichts was auf einer GPU läuft! und das ist FAKT!

und ich weis auch nicht was manche genau erwarten, sie wollen keinen FPS Einbruch aber Mega tolle Effekte und am liebsten keinen Cent für eine PPU ausgeben, es müsste eigentlich jedem klar sein dass das zusammen nicht geht...

zudem das ganze Thema noch überhaupt nicht ausgereift ist... das sollten einige auch mal endlich einsehen!


Ich verstehe auch nicht was man gegen PhysX haben kann, ich kann aber verstehen, daß man von dem, was am Ende beim Kunden ankommt, mehr erwartet.
Das fängt für mich schon dabei an, daß die auf der HW berechneten Effekte wenigstens so gut aussehen wie simulierte, oder voraus berechnete, oder vereinfachte Effekte und/oder echter und realistischer wirken.
Generell habe ich mich über den Zusatzinhalt in Batman gefreut, es sieht deutlich stimmungsvoller aus, als die PS3-Version, die ich bei einem Freund gesehen habe. Allerdings war der Nebel ein schlechter Witz, sah aus als ob immer die gleichen kleinen Wölkchen nebeneinander kopiert wurden und ich habe bisher noch keinen Nebel gesehen, der sich so verhalten hat wie in Batman. Und das ist für mich das echte Manko. Es wird entweder Potential verschenkt, oder sie PhysX-Software ist nicht in der Lage realistische Effekte darzustellen.
Cryostasis ist ein prima Beispiel. Ich habe noch nie solches Wasser gesehen, noch daß es sich so verhält wie im Spiel. Auf der anderen Seite wirkte der Funkenflug, der ja auch über HW-PhysX realisiert wird, täuschend echt (ist aber ironischerweise der Hauptkritikpunkt bei Cryostatis gewesen, daß für so einen billigen Effekt eine Grafikkarte notwendig sei).

Ich habe an HW-PhysX - und das ist mir wichtig, es geht mir immer nur um die Dinge, die auf der Grafikkarte berechnet werden - höhere Erwartungen. Dabei frage ich mich, wer für die in den Spielen eingesetzten Effekte verantwortlich ist. Die Spieleentwickler, die aufgrund des ewigen Zeitdrucks nicht dazu kommen das Potential von PhysX auszureizen? Die Nvidia-Mitarbeiter die im Abspann der Spiele erwähnt werden, die alles soweit in das Spiel einbauen, wie es ihre Fähigkeiten, die Zeit und die Umstände erlauben?

Es gibt auf alle Fälle Verbesserungsbedarf, wenn Lösungen, die nur auf die Rechenleistung der CPU setzen ähnliche Effekte ermöglichen. 100% physikalische Korrektheit ist für wissenschaftliche Berechnungen wichtig, in einem Spiel will ich aber unterhalten werden, nicht nach einem Treffer kampfunfähig sein, nach einer leichten Berührung das ganze Autorennen neu starten müssen und habe mehr davon, wenn mich die Physik tiefer in die Spielwelt eintauchen läßt, als das sie korrekt berechnet wird, aber ausschaut, als ob die gültigen physikalischen Gesetze von einem anderen Planeten stammen.

Sicherlich, PhysX ist zur Zeit die einzige Option in Sachen HW-Physik in Spielen und das sollte honoriert werden und man muß einräumen, daß die Umsetzung und die Integration in ein Spiel nicht einfach ist. Aber ich denke man muß auch fordern können, daß HW-PhysX dem Anwender mehr bietet, als mit anderen Lösungen möglich wäre. Denn das muß das Ziel sein.

dllfreak2001
2010-01-06, 21:17:44
Ja nee, is klar.

PhysX ist ein reines Druckmittel mehr nicht und die Nötigkeit deine Grafikkarte für was anderes als Grafik zu mißbrauchen, setzt nicht jeder so hoch an.
Wenn NV eine Grafikkarte mit angebauter Kochplatte entwickeln die mittels eines Shaderprograms ein Ei braten kann, dann würden auch alle Fans freudig in die Höhe springen und das gleiche von AMD fordern.

GPGPU is nicht der primäre Einsatzzweck einer Graka und Physik hat noch nie auf der Grafikkarte laufen müssen. NV möchte sich von AMD absetzen und sie schaffen das auch. Indem sie die Marktdurchsetzung von Spielen mit PhysX maximieren und so andere Physik-Engines ausstechen und dann zusätzlichen Content einbauen.

Blutmaul
2010-01-06, 22:50:44
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/1

Wenn mein englisch gut genug ist bekommt ATI das PhysX entgegen anderslautender Aussagen Nvidias in der Öffentlichkeit unter keinen Umständen, die Multiprozessor-Optimierung wurde zurückgeschraubt.

Wo das genau steht könnt ihr selber lesen - ich finds schade.

N0Thing
2010-01-06, 23:23:54
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/1

Wenn mein englisch gut genug ist bekommt ATI das PhysX entgegen anderslautender Aussagen Nvidias in der Öffentlichkeit unter keinen Umständen, die Multiprozessor-Optimierung wurde zurückgeschraubt.

Wo das genau steht könnt ihr selber lesen - ich finds schade.

In der Frage wird man wohl auch nie ganz sicher sein können, der Vorwurf von AMD ist nicht neu und die Aussage von Nvidia bleibt auch immer gleich. Hängt am Ende davon ab, welche Aussage für einen persönlich glaubwürdiger erscheint. Ich persönlich finde die Aussage von AMD wahrscheinlicher, immerhin sehe ich für Nvidia keinen Vorteil darin PhysX auch AMD anzubieten, andererseits kann auch ganz langweilig am Geld scheitern, für lau wird Nvidia AMD sicherlich nicht PhysX öffnen.

deekey777
2010-01-06, 23:26:42
Es gab so eine Aussage von Nvidia nicht. Wie schon gesagt: Niemand weiß, woher dieses Forumsposting kam, wonach Nvidia AMD irgendwas angeboten hätte.
Denkt ihr denn wirklich, dass Nvidias PR-Leute nicht längst was dazu gesagt hätten, wenn Huddy so etwas von sich lässt?

N0Thing
2010-01-06, 23:37:21
Ja nee, is klar.

PhysX ist ein reines Druckmittel mehr nicht und die Nötigkeit deine Grafikkarte für was anderes als Grafik zu mißbrauchen, setzt nicht jeder so hoch an.
Wenn NV eine Grafikkarte mit angebauter Kochplatte entwickeln die mittels eines Shaderprograms ein Ei braten kann, dann würden auch alle Fans freudig in die Höhe springen und das gleiche von AMD fordern.

GPGPU is nicht der primäre Einsatzzweck einer Graka und Physik hat noch nie auf der Grafikkarte laufen müssen. NV möchte sich von AMD absetzen und sie schaffen das auch. Indem sie die Marktdurchsetzung von Spielen mit PhysX maximieren und so andere Physik-Engines ausstechen und dann zusätzlichen Content einbauen.

Wieso ein Druckmittel? :| Die Anzahl der Spiele, die HW-PhysX benutzen ist doch sehr überschaubar und spielbar sind die Titel auch ohne die extra Effekte. Dann in der Regel so, wie sie auch auf den Konsolen aussehen würden. Ob PhysX generell von den Entwicklern eingesetzt wird, hat wohl kaum etwas mit GPGPU zu tun, immerhin wird bei fast allen PhysX-Spielen kein Grafikkarte für die Physikeffekte heran gezogen.

Bei GPGPU sagt ja schon der Name allein, daß es nicht der primäre Einsatzzweck einer Grafikkarte ist, das sollte jeden klar sein, der weiß was mit GPGPU gemeint ist.
Daß das Thema Physikberechnung via Grafikkarte aktuell geworden ist, liegt ja auch daran, daß man unter anderem einen Verwendungszweck für die Leistung der Grafikkarten braucht. Die üblichen Auflösungen werden in nächster Zeit wohl nicht über 1920x1200 hinaus gehen, Crysis wartet immer noch auf einen Nachfolger im Geiste und wenn man Grafikkarten auch abseits des Spielemarktes verkaufen kann, ist das ein absolut legitimes Geschäftsmodell.

N0Thing
2010-01-06, 23:47:48
Es gab so eine Aussage von Nvidia nicht. Wie schon gesagt: Niemand weiß, woher dieses Forumsposting kam, wonach Nvidia AMD irgendwas angeboten hätte.
Denkt ihr denn wirklich, dass Nvidias PR-Leute nicht längst was dazu gesagt hätten, wenn Huddy so etwas von sich lässt?

Ich hatte im Hinterkopf, daß es auch in einem Interview dieses Statement von Nvidia gegeben hat, daß man AMD PhysX nicht verwehrt hätte, AMD aber kein Interesse daran gehabt hätte. Kann natürlich sein, daß ich das doch nur im Rahmen eines Kommentars gelesen habe und das gerade durcheinander werfe.

Würde auch gut zu meinem Gefühl passen, daß die Aussage von AMD logischer erscheint. http://home.arcor.de/jaquebatal/Icons/icon16.gif

deekey777
2010-01-07, 00:34:55
Kurz nachdem Nvidia Ageia aufgekauft hatte, hieß es "Wir sind für alles offen, aber es ist noch viel zu früh".
Dann hat AMD die Unterstützung für Havok angekündigt. Später war so etwas zu lesen:
http://www.pcper.com/article.php?type=expert&aid=584&pid=2

Dann zur GDC'09 hat AMD einige Havok-Demos gezeigt, die über OpenCL auf der Grafikkarte liefen, was viele als AMDs Antwort auf PhysX missverstanden haben.

Irgendwann taucht dann diese "Sensation", dass Nvidia AMD PhysX angeboten hätte, was AMD ablehnte. Keiner weiß, wer das genau war.
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
PhysX

Reputedly, nVidia posted in a public forum that they would welcome AMD to negotiate with them for a PhysX license. Here is a comment from AMD's Director of Advanced Technology Initiatives, Dave Hoff about this:

Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.

Recently an email purportedly from an nVidia customer care agent named 'Tory' has been doing the rounds , supposedly stating that 'PhysX is an open software standard that any company can freely develop hardware or software that supports it'. This is at odds to what has previously been heard, and Dave Hoff agrees:

I don't know if this e-mail is real or not, but itss certainly not correct. The PhysX license (anyone can download and see) specifically excludes development and running on anything other than nVidia GPUs, CPUs and consoles. And we've all read about the recent change in their drivers for anyone using ATI cards even for rendering.

So if their post on the forum for us to be able to now use PhysX is real, that seems like a substantial position change. It's interesting they didn't contact us directly and only posted this in a forum.

They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely

Dural
2010-01-07, 00:58:20
die Multiprozessor-Optimierung wurde zurückgeschraubt.


kann man so nicht sagen, siehe 3Dmark Vantage!

es ist aber so das die neueren games meistens nur einen thread verweden, wie so auch immer... vieleicht sind es zeit gründe, oder purre absicht was ich aber nicht glaube...

Ich hatte im Hinterkopf, daß es auch in einem Interview dieses Statement von Nvidia gegeben hat, daß man AMD PhysX nicht verwehrt hätte, AMD aber kein Interesse daran gehabt hätte.


hab ich aber auch so im kopf!

deekey777
2010-01-07, 01:01:06
kann man so nicht sagen, siehe 3Dmark Vantage!

es ist aber so das die neueren games meistens nur einen thread verweden, wie so auch immer... vieleicht sind es zeit gründe, oder purre absicht was ich aber nicht glaube...
Was soll Vantage zeigen? Am Besten mit einem Beispiel.

Dural
2010-01-07, 01:04:39
Was soll Vantage zeigen? Am Besten mit einem Beispiel.


das vantage einen multi thread support für PhysX hat? oder ist das nicht der fall? war mir da ziemlich sicher...

deekey777
2010-01-07, 01:12:48
das vantage einen multi thread support für PhysX hat? oder ist das nicht der fall? war mir da ziemlich sicher...
Also du weißt es nicht, aber Hauptsache du schreibst was.

In Vantage werden mit jedem Core weitere Objekte hinzugefügt:
http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/4/#abschnitt_physics
Die Anzahl der Torepaare (Welten) ist dabei von der Anzahl der Prozessorkerne und dem Einsatz einer PhysX-Karte abhängig. Je ein Torepaar wird einer CPU zugeordnet. Eine CPU mit zwei Kernen resultiert demnach in zwei Torepaaren. Eine CPU mit zwei Kernen mit einer PhysX-Karte im PC führt hingegen bereits zu fünf Torepaaren. Vier Kerne bringen vier Torepaare; mit PhysX-Karte sind es hingegen sieben. Jedes Torepaar stellt eine eigene physikalische Welt dar, so dass sich die Welten auch nicht gegenseitig beeinflussen. Futuremark wählte diesen Schritt, um sämtliche Welten getrennt und möglichst schnell berechnen zu können und nicht immer wieder aufeinander abstimmen zu müssen. So kann die PhysX-Karte die ihr zugewiesenen Welten schneller oder langsamer berechnen als die Prozessorkerne die ihnen zugeteilten Welten.
Und da ich von einem Dual-Core auf einen Quad umgestiegen bin, kann ich das bestätigen.

Das hat doch Nichts mit dem Thema zu tun, dass der Unterstützung von mehreren CPU-Kernen verschlechtert wurde.

Dural
2010-01-07, 01:45:11
ich wusste es, du hast mich nur verunsichert...

wollte damit nur sagen das PhysX 2 und mehr Kerne ausnutzen kann, nicht mehr und nicht weniger, verschlechtert hat NV da garantiert nichts... aber sicher auch nicht weiter entwickelt...

Nightspider
2010-01-07, 09:50:34
Two Worlds 2 soll ja auch Hardware-PhysX nutzen...laut PCGH

Gast
2010-01-07, 09:59:40
Two Worlds 2 soll ja auch Hardware-PhysX nutzen...laut PCGH

Mafia 2 soll PhysX unterstützen und das finde ich absolut unverschämt. Auf den Titel warte ich schon seit Mafia 1 überhaupt released wurde und nu soll ich mit einer HD 5800 nicht in den Genuss aller Details kommen? :usad:

Nightspider
2010-01-07, 10:05:09
Mafia 2 soll PhysX unterstützen und das finde ich absolut unverschämt. Auf den Titel warte ich schon seit Mafia 1 überhaupt released wurde und nu soll ich mit einer HD 5800 nicht in den Genuss aller Details kommen? :usad:

Ist das offiziell das Mafia 2 PhysX-Hardware unterstützungen wird?

Wenn nur da steht das es PhysX nutzen wird, dann garantiert in Software, dann brauchst du dir keine Sorgen machen. :)

=Floi=
2010-01-07, 10:57:11
grabt doch nicht immer wieder die alten kamellen aus. bis jetzt gibt es kein physx bei ati und wieso und warum ist unwichtig.

deekey777
2010-01-07, 12:02:08
ich wusste es, du hast mich nur verunsichert...

wollte damit nur sagen das PhysX 2 und mehr Kerne ausnutzen kann, nicht mehr und nicht weniger, verschlechtert hat NV da garantiert nichts... aber sicher auch nicht weiter entwickelt...


http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html
Noch deutlicher geht es nicht.

deekey777
2010-01-20, 17:51:45
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/1

Wenn mein englisch gut genug ist bekommt ATI das PhysX entgegen anderslautender Aussagen Nvidias in der Öffentlichkeit unter keinen Umständen, die Multiprozessor-Optimierung wurde zurückgeschraubt.

Wo das genau steht könnt ihr selber lesen - ich finds schade.
Ist schon lustig: Xbit (http://www.xbitlabs.com/news/multimedia/display/20100119134616_AMD_Accuses_Nvidia_of_Disabling_Multi_Core_CPU_Support_in_PhysX_A PI.html) bringt eine Neuinterpretation des Interviews mit Hudd, und schon sieht man überall irgendwelche komischen Newsmeldungen...
http://www.pcgameshardware.de/aid,703526/Physik-Schlacht-AMD-wirft-Nvidia-zu-wenig-Optimierung-bei-CPUs-vor-Nvidia-kontert/Grafikkarte/News/
PC Games Hardware hat bei Nvidia nachgefragt. Man will die Vorwürfe prüfen und der Redaktion ein Statement zukommen lassen. In einer ersten Aussage lässt Nvidia wissen, dass das Threading bei Physx auf der CPU in den Händen der Entwickler liegt. Dass Physx auch auf bis zu acht Kerne skaliert, sei unter anderem im 3D Mark Vantage implementiert. Eine Veränderung des Codes nach der Übernahme zugunsten von GPU-Physik habe es ebenfalls nicht gegeben. AMD habe zudem selbst mehrfach demonstriert, dass "GPUs bei bestimmten Physikberechnungen den besseren Workload abliefern"
:facepalm:

Grestorn
2010-01-20, 17:55:01
nVidia ist das Böse in grüner Verkleidung, wusstest Du das nicht?

Dass sich vor allem Hudd nicht entblödet ständig mit unhaltbaren Vorwürfen unterhalb der Gürtellinie gegen die Konkurenz zu schießen, scheint die Fans nicht zu stören. So lange sie nur das hören, was sie ja schon immer zu wissen glaubten.

Siehe das Batman Fiasko.

deekey777
2010-01-20, 18:00:18
nVidia ist das Böse in grüner Verkleidung, wusstest Du das nicht?

Dass sich vor allem Hudd nicht entblödet ständig mit unhaltbaren Vorwürfen unterhalb der Gürtellinie gegen die Konkurenz zu schießen, scheint die Fans nicht zu stören. So lange sie nur das hören, was sie ja schon immer zu wissen glaubten.

Siehe das Batman Fiasko.
War ja klar, dass so etwas kommt.

http://forum.beyond3d.com/showpost.php?p=1378009&postcount=42
Just an observation, Sontin, but it's really very disrespectful to call Richard "Fuddy". He's put in front of press to evangelise for ATI, sure, but he's a deeply smart guy who's forgotten more about graphics than anyone calling him Fuddy would ever hope to learn. So when he talks about it and the industry one should listen and pay attention, rather than instantly think it's self serving for him and ATI. Given he used to work for NV, his perspective is somewhat unique and really quite valuable.

So maybe try reading the interview again without the inbuilt misconception he's acting like a PR person, since you might get something useful from it and contribute something useful in this thread going forward.
Mehr ist dem nicht hinzuzufügen.

Grestorn
2010-01-20, 18:05:56
Ich kann mich noch sehr gut an seine Blog-Einträge zum Thema Batman erinnern. Seit dem ist der Mann für mich unten durch. So etwas darf nicht passieren, das war einfach nur peinlich.

Gast
2010-01-20, 18:27:18
Ich kann mich noch sehr gut an seine Blog-Einträge zum Thema Batman erinnern. Seit dem ist der Mann für mich unten durch. So etwas darf nicht passieren, das war einfach nur peinlich.

Das glaube ich Dir gerne, ändert aber nichts an der Tatsache, dass er recht hat. Es ist auch nicht seine Aufgabe, Dir irgendwelche Sympathien für ihn zu entlocken.

Selbstverständlich werden die NV-Anhänger gleich wieder kontern indem sie sagen, es sei Aufgabe des Spieleherstellers, wie er Physx einbinde. Klar, daher implementieren sie es ab und zu so, dass praktisch eine ganze Gruppe innerhalb der PC-Spiele Gemeinde entweder vor einem Ruckel-Zuckel Spiel steht oder aber eine Physikeinbindung genießen darf, die knapp auf Stufe Half Life 2 ist.

Diese Physx Scheiße macht bislang nur 1: Sie unterteilt den PC Markt noch stärker. Das ist so ziemlich das Letzte, was diese schwer angeschlagene (punkto PC-only Titel) Spieleplattform gebrauchen kann. So sacken die Verkaufszahlen weiter ins bodenlose ab. Siehe die bisherigen Physx Spiele mit GPU Physik: Allesamt Oberflops reinster Güte auf dem PC, keines hat die 100000er Grenze auch nur ansatzweise durchbrochen.

Gast
2010-01-20, 18:30:53
Wow, wieder einer der nicht verstanden hat, was PhysX ist.
Ab wieviel Leuten wird denn eine Hilfegruppe eröffnet? 20?

boxleitnerb
2010-01-20, 18:35:33
Erleuchte uns halt, werter Gast. PhysX hat so wie es momentan aussieht keine Zukunft (bzw keine, die der Spielergemeinde in größerem Maße etwas bringt). Effektphysik ist nett aber nicht genug, um PhysX zu pushen. Ansonsten: kleinster gemeinsamer Nenner.
Wie lange gibt es schon PhysX? Wo bleiben die Spiele, die RICHTIG davon profitieren? Und das frage ich, der ich eine 8800GTX habe.

Bucklew
2010-01-20, 18:40:05
Effektphysik ist nett aber nicht genug, um PhysX zu pushen.
PhysX ist die #1 Physikengine in Spielen. Wohin sollte es sonst gepusht werden?

Gast
2010-01-20, 18:40:53
Erleuchte uns halt, werter Gast.

Warum? Man kann es hunderte Mal sagen: Du wirst es nicht verstehen.
Zum letzten Mal: Es ist eine Physik Engine. Nicht mehr. Sie läuft über mehrere CPU-Arten und CUDA. Was der Entwickler anstellt, obliegt alleine in seinen Händen.
Es ist mir egal, ob du in Zukunft weiterhin annimmst, dass die Erde eine Scheibe wäre. Aber überleg einfach beim nächsten Mal, dass du vielleicht einfach nur keine Ahnung hast.

boxleitnerb
2010-01-20, 18:49:31
Ihr beiden Witzbolde. Ich habe deutlich geschrieben, dass ich mich auf den Nutzen von PhysX beziehe, nicht auf die Verbreitung. Lesen will gelernt sein.

Wohin es gepusht werden soll? Weg aus der Nische mit lächerlichen Spielereien in einen Zustand, in dem es auch einen tatsächlichen Nutzen hat!
Von mir aus kann jedes Spiel der Welt mit PhysX laufen und der Physikeinsatz wird immer noch weit unter dem Möglichen bleiben. Havok, was recht performant auf JEDEM Rechner läuft, erzeugt gameplayrelevante Physik (z.B. in Red Faction 3), die ihr nie in einem Spiel mit PhysX-Support sehen werdet, ganz einfach weil dann etwa 50% aller Spieler in die Röhre schauen.

Nennt mir EIN Beispiel, nur ein einziges, wo CPU (!!!!!)-PhysX performant genug läuft. Man kann hier Verschwörungstheorien auspacken wie man will, das ist mir total egal. Fakt ist, CPU-PhysX ist für den Popo da grützelahm. GPU-PhysX ist für den Popo, solange nur ein IHV es mit seinen GPUs beschleunigen darf.

Solange kein einheitlicher Standard geschaffen wird, wird Physik vielleicht die #1 Engine bleiben, aber was haben WIR davon? Nix! Was hat jemand mit Radeon davon? Nix! Und selbst wenn man eine Geforce besitzt hat man ein paar aufgesetzte Effekte, die nett anzusehen sind, aber das Spielgeschehen in keinster Weise beeinflussen. Und das, meine Freunde, wird auch so bleiben, wenn sich nichts ändert!

Gast
2010-01-20, 18:52:14
Solange kein einheitlicher Standard geschaffen wird, wird Physik vielleicht die #1 Engine bleiben, aber was haben WIR davon? Nix! Was hat jemand mit Radeon davon? Nix! Und selbst wenn man eine Geforce besitzt hat man ein paar aufgesetzte Effekte, die nett anzusehen sind, aber das Spielgeschehen in keinster Weise beeinflussen. Und das, meine Freunde, wird auch so bleiben, wenn sich nichts ändert!

+ beschissene Performance, selbst auf Stufe "low".

Gast
2010-01-20, 18:52:59
Ihr beiden Witzbolde. Ich habe deutlich geschrieben, dass ich mich auf den Nutzen von PhysX beziehe, nicht auf die Verbreitung. Lesen will gelernt sein.

Von mir aus kann jedes Spiel der Welt mit PhysX laufen und der Physikeinsatz wird immer noch weit unter dem Möglichen bleiben. Havok, was recht performant auf JEDEM Rechner läuft, erzeugt gameplayrelevante Physik (z.B. in Red Faction 3), die ihr nie in einem Spiel mit PhysX-Support sehen werdet, ganz einfach weil dann etwa 50% aller Spieler in die Röhre schauen.

Solange kein einheitlicher Standard geschaffen wird, wird Physik vielleicht die #1 Engine bleiben, aber was haben WIR davon? Nix! Was hat jemand mit Radeon davon? Nix! Und selbst wenn man eine Geforce besitzt hat man ein paar aufgesetzte Effekte, die nett anzusehen sind, aber das Spielgeschehen in keinster Weise beeinflussen. Und das, meine Freunde, wird auch so bleiben, wenn sich nichts ändert!

Darf ich mich nochmal selbst zitieren?
Man kann es hunderte Mal sagen: Du wirst es nicht verstehen.

Nun noch viel Spaß mit deinen Hasstriaden gegen PhysX. Das eigentlich nichts weiter ist als eine Middleware zur Realisierung von physischen Berechnungen über Prozessoren. :(

boxleitnerb
2010-01-20, 19:02:01
Steck mal deine Überheblichkeit wieder ein. Ich hab mich am Anfang sehr gefreut, ein Schmankerl als NV-Kunde zu bekommen. Eine Hasstirade ist es wohl kaum, ich zeige lediglich den aktuellen Zustand auf.

Du hingegen antwortest auf keine der Fragen aus meinem Post. Middleware, fein! Wo hab ich widersprochen? Nirgendwo! Aber diese Middleware sollte nicht nur anhand ihrer Verbreitung beurteilt werden, sondern auch daran, was sie den PC- und Konsolenspielern bringt. Und die letzten Jahre ist das nicht besonders viel gewesen. Eigentlich sogar sehr sehr wenig, wenn man bedenkt, welche potente Grafikhardware dahinterstecken kann. Und der einzige Grund dafür ist, dass kein Entwickler die Hälfte seiner Zielgruppe vor den Kopf stossen wird, aus naheliegenden Gründen.

Und btw, als allgemeine Middleware wird es nicht vermarktet. Nvidia legt den Fokus klar auf GPU-beschleunigtem PhysX bzw das ist ihr Ziel. Wie gesagt: Es läuft auch auf CPUs, aber grotten lahm. Warum, ist mir egal, aber es ist so. Kannst du mir ein Beispiel nennen, wo dem nicht so ist?

Bucklew
2010-01-20, 19:07:04
Nennt mir EIN Beispiel, nur ein einziges, wo CPU (!!!!!)-PhysX performant genug läuft. Man kann hier Verschwörungstheorien auspacken wie man will, das ist mir total egal. Fakt ist, CPU-PhysX ist für den Popo da grützelahm. GPU-PhysX ist für den Popo, solange nur ein IHV es mit seinen GPUs beschleunigen darf.
Du hast immer noch nicht verstanden, dass man PhysX auch rein auf der CPU laufen lassen kann, wenn das der Entwickler so will. Mehr als 90% der PhysX-Spiele sind auch rein CPU-basierend und laufen natürlich auch performant auf der CPU.

Da ist eine Liste:
http://physxinfo.com/

Gut 90% der Spiele nutzen reines CPU-PhysX. Du solltest dich mal lieber informieren, anstelle dich hier so zu blamieren.

Gast
2010-01-20, 19:14:46
Steck mal deine Überheblichkeit wieder ein. Ich hab mich am Anfang sehr gefreut, ein Schmankerl als NV-Kunde zu bekommen. Eine Hasstirade ist es wohl kaum, ich zeige lediglich den aktuellen Zustand auf.

Hasstriaden ist der perfekte Begriff. Du rennst mit deiner Mistgabel und Fackel hinter etwas her, dass unschuldig am Straßenrand stand.


Du hingegen antwortest auf keine der Fragen aus meinem Post. Middleware, fein! Wo hab ich widersprochen? Nirgendwo! Aber diese Middleware sollte nicht nur anhand ihrer Verbreitung beurteilt werden, sondern auch daran, was sie den PC- und Konsolenspielern bringt. Und die letzten Jahre ist das nicht besonders viel gewesen. Eigentlich sogar sehr sehr wenig, wenn man bedenkt, welche potente Grafikhardware dahinterstecken kann. Und der einzige Grund dafür ist, dass kein Entwickler die Hälfte seiner Zielgruppe vor den Kopf stossen wird, aus naheliegenden Gründen.

"Grafikhardware".
Ich zitiere mich mal kurz selbst:

Man kann es hunderte Mal sagen: Du wirst es nicht verstehen.


Und btw, als allgemeine Middleware wird es nicht vermarktet. Nvidia legt den Fokus klar auf GPU-beschleunigtem PhysX bzw das ist ihr Ziel. Wie gesagt: Es läuft auch auf CPUs, aber grotten lahm. Warum, ist mir egal, aber es ist so. Kannst du mir ein Beispiel nennen, wo dem nicht so ist?

"Es läuft grottenlahm"? Interessant, dass sowas jemand dann auch noch für Spiele lizenzieren würde.
Und natürlich vermarket nVidia es als Middleware. Oder wieso hätten sie iPhone Support implementieren sollen? Wieso arbeiten sie an besseren Tools - vorallen für Konsolen?
Hör auf Frauen mit roten Haaren als Hexen zu bezeichnen und zu verbrennen.

boxleitnerb
2010-01-20, 19:17:51
Vielleicht schaue ich auch einfach weiter voraus als andere und wir reden daher aneinander vorbei.

Ich hab mich wohl auch nicht so ganz deutlich ausgedrückt, das tut mir leid. Es läuft "grottenlahm", wenn man über ein Maß an Physik hinausgeht, was heutzutage praktisch Standard ist. Wenn man deutlich mehr will, kommt man um die GPU nicht herum (leistungstechnisch).

Ich weiß, dass sehr viele Spiele total anständig mit CPU-PhysX laufen. Aber das ist die Gegenwart, nicht die Zukunft. Physik wird immer wichtiger und komplexer werden und dementsprechend mehr Rechenpower verlangen. Die GPU-Leistung steigt deutlich stärker an als die CPU-Leistung, daher ist es nur naheliegend, dass man hier ansetzt. Für das, was die meisten Spiele bieten (z.B. Borderlands), reicht CPU-PhysX auch locker aus. Aber wir wollen doch Fortschritt, Verbesserung. Physik lässt sich prima parallelisieren und ist geradezu prädestiniert, auf vielen Grafikkernen zu laufen. Damit ergeben sich ungeahnte Möglichkeiten.
Das ist doch der ganze Witz der dezidierten Physikhardware, die Ageia damals rausgebracht hat. Wenn wir nur eine weitere Middleware bräuchten, um die CPUs mit recht anspruchslosen Physikaufgaben zu füttern, hätte das ganze Trara gar nicht sein müssen. Aber wir wollen Flüssigkeitssimulation, Nebelsimulation, ansehnliche Explosionen und Zerstörungen mit vielen Partikeln, die die Umgebung beeinflussen und dem Spieler ganz neue Möglichkeiten geben, sich im Spiel zu verhalten und Aufgaben zu erfüllen.

Das geht imho mit GPU-PhysX deutlich besser als mit CPU-PhysX, weshalb ich in ersterem die Zukunft sehe. DAS, meine Herren, ist der Knackpunkt. Und GPU-PhysX läuft eben momentan nur auf Geforces mit den entsprechenden Folgen, die ich weiter oben schon dargelegt habe. Kurz- und mittelfristig wird PhysX sicherlich weiterleben. Aber wenn dann mal GPU-beschleunigte Physik so langsam Standard wird, Havok/Bullet und was weiß ich noch GPU-beschleunigt (auf Radeons UND Geforces) daherkommen, warum dann noch auf PhysX setzen? Tools, Support und die bisherige Verbreitung können noch so gut sein, wenn man dann nicht den ganzen Markt ansprechen kann, wird eben zur Konkurrenz gegriffen.

Und btw...Frauen mit roten Haaren sind sexy! :D

Btw Nr. 2: Ich meckere nur, weil ich den Status Quo unerträglich finde. Ich will mehr! Das geht nicht, wenn man mit der aktuellen Situation zufrieden ist und nicht die Firmenpolitik dahinter kritisiert. Lieber früher als später GPU-PhysX öffnen, das ist besser für uns alle.

Gast
2010-01-20, 19:51:24
Lol, spiele mit CPU-PhysX erreichen derzeit noch nicht einmal die Stufe von Hl2. Nebenbei würde ich gern ein Spiel mit Havoc und PhysX Implementation in den Vergleich schicken. Ich wette bei der gleichen Physik-Komplexität wird PhysX deutlichst den Kürzeren ziehen.

Derzeit ist PhysX NVidias Hauptargument und die einzige sinnvolle Nutzung für den gewaltigen GPGPU-Part des Fermi.
Für so eine unwichtige Middleware ein klein wenig zu viel Aufwand finde ich.

NVidias GPGPU-Ansatz mit all seinen Restriktionen im Bezug auf PhysX ist für uns Kunden ein Problem.
Spiele bekommen alle PhysX, AMD kann nicht kontern da die Spiele-Hersteller aus Faulheit nur noch selbiges nutzen.
AMD kommt nicht heran weil man sich im Gegensatz zu NV nicht als Software-Produzent sieht (absolut zurecht) und auch so keine PhysX-Lizenz zu einem vertretbaren Preis bekommen würde.
Durch die Ausrichtung als Treiber, kann NV letztlich bestimmen wie PhysX genutzt wird und durch die Manipulation direkt in den Spielestudios kann man Spiele schaffen die nur auf eigener Hardware so aussehen wie man es von einem normalen PC-Spiel erwartet.
ATI kann nicht mithalten und NV kann mit seinen teuren auf PhysX getrimmten Chips den Preis bestimmen. Dann sind die günstigen Mainstream-Lösungen von heute passé.
Demnächst dürfen wir wieder solche Bullshit wie die FX5200 oder die 8600GT als Mainstream in Empfang nehmen.

deekey777
2010-01-20, 20:09:36
Lol, spiele mit CPU-PhysX erreichen derzeit noch nicht einmal die Stufe von Hl2. .
Was kann PhysX dafür?
Wenn man GRAW (Havok/PhysX für PPU) mit GRAW2 (nur PhysX) vergleicht, so sieht man einen gewaltigen Rückschritt in GRAW2*, der definitiv nicht darauf zurückzuführen ist, weil man auf PhysX wechselte.
Oder noch besser: In Far Cy hinterlassen Handgranaten/Explosionen Krater, in Crysis nicht.
Das sind Designentscheidungen.



*Andererseits bietet GRAW2 zerstörbare Holzlatten usw.

Gast
2010-01-20, 20:46:36
Es steht die Annahme im Raum, dass PhysX für komplexe spielentscheidende Physik aufgrund seiner Performance nicht so geeignet ist wie Havoc.

Ich denke ein HL2 mit PhysX als Physik-Engine würde schlechter laufen als das existierende mit Havoc. Von einem Crysis, sprechen wir garnicht erst. Dort würde man bei der Komplexität mit PhysX in jedem Fall eine NV-GPU benötigen.

boxleitnerb
2010-01-20, 20:51:28
Nein, ich glaube nicht, dass eine Middleware so einen krassen Einfluss auf die Performance hat, wenn bei der Umsetzung nicht geschlampt und im Endeffekt beinahe dasselbe berechnet wird. HL2 und Crysis haben zwar Gameplayphysik, aber noch recht anspruchslose, wenn man sich überlegt, was da alles theoretisch möglich ist. In diesen Fällen reicht die CPU noch gut aus. Mir ging es um deutlich raffiniertere "Spielereien", die zwingend eine GPU benötigen.

Nicht umsonst heißt der Threadtitel "PhysX@NV-GPU-Diskussion" und um entsprechend anspruchsvolle Physik soll es gehen.

Gast
2010-01-20, 21:46:54
Das geht imho mit GPU-PhysX deutlich besser als mit CPU-PhysX, weshalb ich in ersterem die Zukunft sehe. DAS, meine Herren, ist der Knackpunkt. Und GPU-PhysX läuft eben momentan nur auf Geforces mit den entsprechenden Folgen, die ich weiter oben schon dargelegt habe. Kurz- und mittelfristig wird PhysX sicherlich weiterleben. Aber wenn dann mal GPU-beschleunigte Physik so langsam Standard wird, Havok/Bullet und was weiß ich noch GPU-beschleunigt (auf Radeons UND Geforces) daherkommen, warum dann noch auf PhysX setzen? Tools, Support und die bisherige Verbreitung können noch so gut sein, wenn man dann nicht den ganzen Markt ansprechen kann, wird eben zur Konkurrenz gegriffen.
Zu PhysX: Wenn ATI die paar Millionen eben nicht locker machen will um auch PhysX Support zu kriegen, solange sind die ATIler eben in den Arsch gekniffen. So einfach ist das. Das PhysX jetzt für immer nur auf GeForce laufen muss und wird ist ja überhaupt nicht gesagt, das kann auch innerhalb von Wochen/Monaten geändert werden. Es ist halt aktuell Eyecandy und wird als Bonus verkauft, ganz einfach.

Das Havok überhaupt nochtmal kommt wage ich STARK zu bezweifeln. Die Technik gehört Intel und die werden den Teufel tun auch noch Grafikkartenverkäufe zu pushen, solange sie selbst keine haben.

Bullet ist so eine Sache, aktuell ist es schon sehr peinlich, dass das AMDs letzte Zuflucht in Sachen Physik ist. Die Leute von Bullet erzählen nämlich überall, dass ihre SDK auf GeForce entwickelt wird und auch Code von Nvidia erhalten und die ein sehr guter Technologiepartner ist. Eigentlich macht sich AMD damit ziemlich lächerlich die jetzt als Speerspitze darzustellen ;)

Generell bezweifele ich, dass AMD als Gesamtkonzern so gerne GPU-Physik sieht. Es ist eben nunmal primär ein CPU-Hersteller, der sich eine GPU-Sparte gekauft hat. Und mit CPUs lässt sich eben mehr Geld verdienen, als mit GPUs.

Gast
2010-01-20, 22:07:34
Nein, ich glaube nicht, dass eine Middleware so einen krassen Einfluss auf die Performance hat, wenn bei der Umsetzung nicht geschlampt und im Endeffekt beinahe dasselbe berechnet wird. HL2 und Crysis haben zwar Gameplayphysik, aber noch recht anspruchslose, wenn man sich überlegt, was da alles theoretisch möglich ist. In diesen Fällen reicht die CPU noch gut aus. Mir ging es um deutlich raffiniertere "Spielereien", die zwingend eine GPU benötigen.

Nicht umsonst heißt der Threadtitel "PhysX@NV-GPU-Diskussion" und um entsprechend anspruchsvolle Physik soll es gehen.

Die Middleware hat einen gewaltigen Einfluss darauf, NV kann mit jeder neuen Version Optimierungen entfernen und einbauen absolut unabhängig vom Spieleproduzenten. Wenn sie es so wollen können sie PhysX komplett auf AMD Systemen deaktivieren, auch wenn man nur die CPU-Variante nutzen will und das nachträglich.

Nun, wenn du mit raffinierte tausende Partikel meinst, dann haben wir eine unterschiedliche Ansicht von raffiniert.
Eine Garry´s Mod oder die zerstörbaren Hütten aus Crysis, gab es mit PhysX aufjedenfall noch nicht.

Mark
2010-01-21, 02:11:48
Weil kein Entwickler so etwas einbauen will. Mit PhysX geht noch viel, dass haben schon die aller ersten Demos gezeigt (damals noch von Ageia), nur muessen eben die Spieleentwickler dazu bereit sein aufwendige Physik-Effekte einzubauen welche wohl nur einem Bruchteil der Spieler ueberhaupt auffallen.

Warum 8 Millarden Holzsplitter berechnen wenn sich der 0815-Casual-Gamer dafuer nicht interessiert?

Gast
2010-01-21, 11:24:55
Wozu 8 Milliarden Holzsplitter wenn 30 realistischer aussehen?

Nvidia übertreibt mit den Partikelzahlen doch nur damit keine CPU eine Chance hat und das ist ihr Hauptargument. Oder sieht man sonst einfach keinen Untershied?
Auch dem Profi-Spieler fällt im Spiel nicht immer der Unterschied zwischen HW-PhysX und einem auf herkömmlicher Weise vorgerechneten oder statischen Effekt auf.
Lange Rede kurzer Sinn, für viele Dinge braucht man einfach keine Physik-Engine á la PhysX, der grafische Vorteil ist meist marginal oder den Aufwand nicht wert.

Ich will lieber gut verarscht werden mit statischen Effekten als, dass ich mir wegen einer Partikel-Engine noch extra eine Geforce einbauen muss. NVidia hat bis jetzt nichts gezeigt, was diesen Aufwand rechtfertigt.

Gast69
2010-01-21, 11:37:14
Es sollte hier zwischen 2 Arten von Berechnungen unterschieden werden:

Einfache Effekte - Bis ca. 5000 Partikel koennen das CPUs fein
Massive Effekte - Hier sprechen wir von mehreren 10.000 Partikeln (dichter Rauch, Fluids, etc)

Klar kann man Effekte auch mit wenigen Partikeln machen. Die verschwinden dann meist ganz schnell wieder.

Man kann auch massive Effekte machen wie in Batman. Der reagierende Rauch ist einfach klasse. Dazu braucht man eben eine GPU.

Nur weil AMD das nicht kann und nichts auf die Beine bekommt, ist das kein Grund PhysX schlecht zu machen. Statt jedes Jahr zig Millionen an Ferrari zu zahlen um ein Logo auf dem Auto zu haben, sollten sie halt in Technologie investieren. Das NVIDIA im eigenen Vorteil handelt, ist verstaendlich. Soll AMD halt hingehen und dem Spiel zu einem netten CPU Pfad verhelfen. Das PhysX SDK ist kostenlost erhaeltlich. Soll AMD halt mal selber etwas tun.

Wenn der Kunde darunter leidet, dann ist nicht der andere Schuld der mehr kann und macht, sondern der, der nichts unternimmt oder schlechte Entscheidungen trifft.

Bucklew
2010-01-21, 11:59:37
Wozu 8 Milliarden Holzsplitter wenn 30 realistischer aussehen?
Warum 1920x1200 Auflösung, wenn 1024x786 ausreichen? Warum AA und AF, wenns auch so gut aussieht?

Klar, es ist aktuell nur Eyecandy. Aber wenn Eyecandy so unwichtig wäre, würde sich niemand eine Grafikkarte teurer als 100€ kaufen ;D

deekey777
2010-01-21, 12:19:17
Wozu 8 Milliarden Holzsplitter wenn 30 realistischer aussehen?

Nvidia übertreibt mit den Partikelzahlen doch nur damit keine CPU eine Chance hat und das ist ihr Hauptargument. Oder sieht man sonst einfach keinen Untershied?
Auch dem Profi-Spieler fällt im Spiel nicht immer der Unterschied zwischen HW-PhysX und einem auf herkömmlicher Weise vorgerechneten oder statischen Effekt auf.
Lange Rede kurzer Sinn, für viele Dinge braucht man einfach keine Physik-Engine á la PhysX, der grafische Vorteil ist meist marginal oder den Aufwand nicht wert.

Ich will lieber gut verarscht werden mit statischen Effekten als, dass ich mir wegen einer Partikel-Engine noch extra eine Geforce einbauen muss. NVidia hat bis jetzt nichts gezeigt, was diesen Aufwand rechtfertigt.
Jein.
Erst ab einer bestimmten Rechenlast lohnt sich die Auslagerung der Berechnungen auf die Grafikkarte.

Gast
2010-01-21, 13:06:59
Es sollte hier zwischen 2 Arten von Berechnungen unterschieden werden:

Einfache Effekte - Bis ca. 5000 Partikel koennen das CPUs fein
Massive Effekte - Hier sprechen wir von mehreren 10.000 Partikeln (dichter Rauch, Fluids, etc)

Klar kann man Effekte auch mit wenigen Partikeln machen. Die verschwinden dann meist ganz schnell wieder.

Man kann auch massive Effekte machen wie in Batman. Der reagierende Rauch ist einfach klasse. Dazu braucht man eben eine GPU.

Nur weil AMD das nicht kann und nichts auf die Beine bekommt, ist das kein Grund PhysX schlecht zu machen. Statt jedes Jahr zig Millionen an Ferrari zu zahlen um ein Logo auf dem Auto zu haben, sollten sie halt in Technologie investieren. Das NVIDIA im eigenen Vorteil handelt, ist verstaendlich. Soll AMD halt hingehen und dem Spiel zu einem netten CPU Pfad verhelfen. Das PhysX SDK ist kostenlost erhaeltlich. Soll AMD halt mal selber etwas tun.

Wenn der Kunde darunter leidet, dann ist nicht der andere Schuld der mehr kann und macht, sondern der, der nichts unternimmt oder schlechte Entscheidungen trifft.

Sicher doch. Nvidia sperrt jegliche möglichkeit oder möchte gerne exklusivrechte und horrende "Lizenzkosten".
Aber AMD macht alles falsch !

Jungs , ihr macht doch schon beim zusehen Fehler !
Aber ich vergaß , dieses Forum ist ja zur Nvidia Jubelperser-und Werbe-Plattform degeneriert. man schaue sich nur den "GF100"-Speku-Thread an.

Irgendwelche hochstillisierten Balkenwerte (die natürlich keiner nachprüfen kann), und eine Karte die noch keiner
je gesehen hat , ist das "beste" an High-End was gibt !
Vielleicht setzt Nividia auch mal wieder die Laubsäge und den Bastelkleber ein ;-)

Back to OT

Würde Nvidia ihre API anständig vertreiben, und würde nicht eine so
monopolistische Hardware-kompatiblität(bindung) verlangen, dann klappts vielleicht auchmit dem Nachbarn ( Oh Pardon - Mitbewerbern).

Aber duch die Kastration im Treiber (Nur Nvidiakarten, Nur max 2 Kerne is Soft) oder TWIMTBP-Sperenzchen (AA mit Vendor-ID verhindern) verbauen sie sich doch selbst den Weg für eine grössere Kundschaft.

Aber auch die "BastlWastl" werden noch einsehen müssen , das eine so einseitige Aussrichtung im Markt einem eigentlich nur schaden kann.
Ich glaube nicht das Nvidia aus dieser Situation riesen Vorteile ziehen kann.

Falls sich dieses so durchsetzt wird Nvidia zwar der grosse Gewinner sein.Aber verloren haben nur die Kunden. Die sind dann "gerotzt".Denn wenn Nvidia erstmal Monopolist ist , dann wird exklusiv abkassiert ohne Konkurrenz.

Grestorn
2010-01-21, 13:33:50
Sicher doch. Nvidia sperrt jegliche möglichkeit oder möchte gerne exklusivrechte und horrende "Lizenzkosten".
Aber AMD macht alles falsch !

Das wird immer wieder als Fakt hingestellt ohne jede Grundlage.

Aber selbst wenn dem so wäre: Keiner hat AMD verboten, eine Vergleichbare Technik vor nVidia oder besser als nVidia (oder einfach nur überhaupt) zu entwickeln (oder einzukaufen). Das Vorrecht des ersten ist nun mal die Früchte seiner Arbeit auch zu ernten.

Was ist denn daran so verwerflich? nVidia hat ja auch Aber-Millionen investiert, AMD hat in der selben Zeit lieber Geld verdient. Und deswegen ist nVidia jetzt so böse?

DrFreaK666
2010-01-21, 13:44:17
Es sollte hier zwischen 2 Arten von Berechnungen unterschieden werden:

Einfache Effekte - Bis ca. 5000 Partikel koennen das CPUs fein
Massive Effekte - Hier sprechen wir von mehreren 10.000 Partikeln (dichter Rauch, Fluids, etc)

Klar kann man Effekte auch mit wenigen Partikeln machen. Die verschwinden dann meist ganz schnell wieder.

Man kann auch massive Effekte machen wie in Batman. Der reagierende Rauch ist einfach klasse. Dazu braucht man eben eine GPU.

Nur weil AMD das nicht kann und nichts auf die Beine bekommt, ist das kein Grund PhysX schlecht zu machen. Statt jedes Jahr zig Millionen an Ferrari zu zahlen um ein Logo auf dem Auto zu haben, sollten sie halt in Technologie investieren. Das NVIDIA im eigenen Vorteil handelt, ist verstaendlich. Soll AMD halt hingehen und dem Spiel zu einem netten CPU Pfad verhelfen. Das PhysX SDK ist kostenlost erhaeltlich. Soll AMD halt mal selber etwas tun.

Wenn der Kunde darunter leidet, dann ist nicht der andere Schuld der mehr kann und macht, sondern der, der nichts unternimmt oder schlechte Entscheidungen trifft.

Könnte (nicht: dürfte) ATI mit der SDK Physx für Radeons kompatibel machen?

Gast
2010-01-21, 13:46:32
Sicher...
Warum denn nicht?

BlackBirdSR
2010-01-21, 13:48:17
Könnte (nicht: dürfte) ATI mit der SDK Physx für Radeons kompatibel machen?

PhysX läuft über CUDA und ATI hat kein CUDA. Selbst wenn, wäre es auf Nvidia-GPUs hin optimiert.

DrFreaK666
2010-01-21, 13:53:37
PhysX läuft über CUDA und ATI hat kein CUDA. Selbst wenn, wäre es auf Nvidia-GPUs hin optimiert.

ok

Bucklew
2010-01-21, 13:55:35
Sicher doch. Nvidia sperrt jegliche möglichkeit oder möchte gerne exklusivrechte und horrende "Lizenzkosten".
Aber AMD macht alles falsch !
Die Nutzung von PhysX ist umsonst. Im Gegenteil, man erhält sogar problemlos Support durch Entwickler von Nvidia. Das sie natürlich für die Nutzung von AMD Geld sehen wollen ist doch völlig logisch.

Aber duch die Kastration im Treiber (Nur Nvidiakarten, Nur max 2 Kerne is Soft) oder TWIMTBP-Sperenzchen (AA mit Vendor-ID verhindern) verbauen sie sich doch selbst den Weg für eine grössere Kundschaft.
Nein, im Gegenteil wer. Wer PhysX will braucht ne GeForce - größere Kundschaft. Man erhält als GeForcekäufer durch den Einsatz von Nvidia mehr Features - größere Kundschaft. Die einzigen, die da vielleicht aufbrüllen "ich kauf die nicht mehr bei so einer Politik!" sind doch eh nur die Hardcore-ATIler, die eh niemals was aus dem Hause Nvidia kaufen würden ;D

Abgesehen davon: Intel lässt Havok auch nur auf der CPU laufen und bringt keinen GPU-Port, weil sie keine GPU haben. Warum sollte Nvidia dann viel Wert auf einen CPU-Port haben, wo sie keine CPU haben?

Könnte (nicht: dürfte) ATI mit der SDK Physx für Radeons kompatibel machen?
Nein, die SDK ist nur dafür da, um den Code einzubauen, der dann die vorinstalliert PhysX-Software anspricht. Erst die wiederrum spricht mit der GPU/CPU und ich denke nicht, dass diese Teile frei im Sourcecode erhältlich sind.

Gast
2010-01-21, 13:57:05
Das wird immer wieder als Fakt hingestellt ohne jede Grundlage.

Aber selbst wenn dem so wäre: Keiner hat AMD verboten, eine Vergleichbare Technik vor nVidia oder besser als nVidia (oder einfach nur überhaupt) zu entwickeln (oder einzukaufen). Das Vorrecht des ersten ist nun mal die Früchte seiner Arbeit auch zu ernten.

Was ist denn daran so verwerflich? nVidia hat ja auch Aber-Millionen investiert, AMD hat in der selben Zeit lieber Geld verdient. Und deswegen ist nVidia jetzt so böse?

Bei dir ist immer AMD böse xD
Es ist nicht verwerflich so eine Technik einzukaufen, aber AMD hätte hier auch sein Fett weg bekommen wenn sie so etwas machen würden wie NV.

NV lästert über Intel, strebt jedoch das Monopol mit einer unglaublichen Agressivität an. Dies sucht seines Gleichen.
Dagegen wirkt AMDs Marketing wie eine graue Maus.

Wenn die Konkurenz bessere Hardware hat, dann geht man einfach zum Spieleproduzenten und maniupuliert solange rum, bis es nur mit den NVs ordentlich läuft.
Warum geht nicht VW zu Shell um dessen Sprit für die Konkurenz unverträglich zu machen?
PhysX ist ein selbst erschaffenes System mit dem man die Inkompatibilität an bestehenden Standards vorbei ohne Restriktion manipulieren kann.

Läuft Spiel X auf AMD-Karten zu gut, geht NV hin und baut die Physik-Effekte so um, dass es das nicht mehr tut. Wenn der Designer rummuckt wird der persönliche Support von NV für das nächste Spiel vewrweigert....

8600GT ich komme, der Mainstream wird wieder langsamer und teurer dank NVs Physik-Monopol.

Gast
2010-01-21, 14:04:01
Die Nutzung von PhysX ist umsonst. Im Gegenteil, man erhält sogar problemlos Support durch Entwickler von Nvidia. Das sie natürlich für die Nutzung von AMD Geld sehen wollen ist doch völlig logisch.


Und weiter? Niemand verlangt, dass es kostenlos ist. Allerdings steht die Frage im Raum ob es NV AMD überhaupt anbieten würde.



Nein, im Gegenteil wer. Wer PhysX will braucht ne GeForce - größere Kundschaft. Man erhält als GeForcekäufer durch den Einsatz von Nvidia mehr Features - größere Kundschaft. Die einzigen, die da vielleicht aufbrüllen "ich kauf die nicht mehr bei so einer Politik!" sind doch eh nur die Hardcore-ATIler, die eh niemals was aus dem Hause Nvidia kaufen würden ;D


Na sicher, Kritik eines NV-Besitzers an NVs Merketing und Produktpolitik ist total abwegig.
Wer PhysX will darf nicht anderes als NV im Rechner haben, so schaut es aus.



Abgesehen davon: Intel lässt Havok auch nur auf der CPU laufen und bringt keinen GPU-Port, weil sie keine GPU haben. Warum sollte Nvidia dann viel Wert auf einen CPU-Port haben, wo sie keine CPU haben?

Waas? Dann sollen sie denn CPU-Support gleich weglassen, lässt sich ja nachträglich ganz leicht bewerkstelligen. Einfach ein Update für die PhysX-Software veröffentlichen.

Bucklew
2010-01-21, 14:06:06
Und weiter? Niemand verlangt, dass es kostenlos ist. Allerdings steht die Frage im Raum ob es NV AMD überhaupt anbieten würde.
Das haben sie bereits, hat AMD in einem Interview bestätigt und auch gesagt, sie haben abgelehnt.

Na sicher, Kritik eines NV-Besitzers an NVs Merketing und Produktpolitik ist total abwegig.
Wer PhysX will darf nicht anderes als NV im Rechner haben, so schaut es aus.
Und wo ist das Problem? Genau das ist ja die Marketingstrategie und macht die Kundschaft eher größer als kleiner. War das nicht deine These, dass die Kunden wegrennen? Warum sollten sie das, wenn sie einen Mehrwert erhalten?

Waas? Dann sollen sie denn CPU-Support gleich weglassen, lässt sich ja nachträglich ganz leicht bewerkstelligen. Einfach ein Update für die PhysX-Software veröffentlichen.
Deinen Aufschrei mag ich mir gar nicht vorstellen :rolleyes:

deekey777
2010-01-21, 14:07:00
Das haben sie bereits, hat AMD in einem Interview bestätigt und auch gesagt, sie haben abgelehnt.


:
Quelle.
Sonst ist eine ja eine böse Lüge.


Und nochmal:
Das PhysX SDK ist kostenlos, nicht aber der Sourcecode, dieser kostet viel Geld.
http://bulletphysics.org/wordpress/?p=88
According to the article, developers like having access to the full source code.

Gast
2010-01-21, 14:07:09
Na sicher, Kritik eines NV-Besitzers an NVs Merketing und Produktpolitik ist total abwegig.
Wer PhysX will darf nicht anderes als NV im Rechner haben, so schaut es aus.


Komisch, oder? Letztens habe ich eine Mail an Microsoft geschrieben, wieso ich Halo 3 nur für die 360 kaufen kann, aber ich es unbedingt auf meiner PS3 spielen will.


Waas? Dann sollen sie denn CPU-Support gleich weglassen, lässt sich ja nachträglich ganz leicht bewerkstelligen. Einfach ein Update für die PhysX-Software veröffentlichen.

Also das, was AMD mit Dirt 2 gemacht hat. Komisch, dass die AMD Fanboys das sogar toll gefunden haben.

DrFreaK666
2010-01-21, 14:12:18
Ich versteh nicht, wieso Physx funktionieren darf wenn ich eine Geforce neben der ATI für Physx benutze.
Dann habe ich ja auch eine nv-Karte...

deekey777
2010-01-21, 14:25:08
PhysX läuft über CUDA und ATI hat kein CUDA. Selbst wenn, wäre es auf Nvidia-GPUs hin optimiert.
Gilt das auch für die CPUs?
Eigentlich müsste der gleiche Compiler, der den Zwischencode für die GPU ausspuckt auch einen SSE-Code für CPUs ausspucken können. Wie gut ist dieser Code im Vergleich zum OpenCL-Compiler?

So oder so: AMD könnte (einfach?) einen Hack liefern, der den CPU-Code in den für Radeons verständlichen "übersetzen".

Bucklew
2010-01-21, 14:25:56
Quelle.
Sonst ist eine ja eine böse Lüge
z.B. http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/

Und nochmal:
Das PhysX SDK ist kostenlos, nicht aber der Sourcecode, dieser kostet viel Geld.
http://bulletphysics.org/wordpress/?p=88
Wenn man unbedingt den Sourcecode nutzen möchte, ist das auch so. Dennoch kann man auch mit dem SDK leben. Wenn man halt Champus will kann man sich nicht beschweren das der teurer ist als Leitungswasser.

DrFreaK666
2010-01-21, 14:31:25
z.B. http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/


Wenn man unbedingt den Sourcecode nutzen möchte, ist das auch so. Dennoch kann man auch mit dem SDK leben. Wenn man halt Champus will kann man sich nicht beschweren das der teurer ist als Leitungswasser.

Und wo steht da genau, dass AMD/ATI abgelehnt hat??

deekey777
2010-01-21, 14:33:23
z.B. http://www.bit-tech.net/custompc/news/602205/nvidia-offers-physx-support-to-amd--ati.html
http://www.pcgameshardware.de/aid,646812/Update-Auch-AMD-kann-PhysX-ueber-CUDA-nutzen/Grafikkarte/News/

.
Wo steht dort, dass Nvidia AMD etwas angeboten hat.
Ich kann dir so gar einen viel besseren Link liefern:
http://www.pcper.com/article.php?type=expert&aid=584&pid=2
AMD does feel that there needs to be an open relationship, but I am not entirely sure how they are going about making this happen. As a funny side note, I had brought this subject up with Roy Taylor at NVIDIA. He said that so far nobody from AMD has tried to contact him about joining in with support for GPU accelerated PhysX from the AMD side. And furthermore all they had heard from AMD was that they had complained, “Nobody from NVIDIA has contacted us about joining in.”
Seltsam... Kein Wort davon, dass Nvidia AMD irgendwas angeboten hat.
Aber damit dieser Schwachsinn aushört:
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
PhysX

Reputedly, nVidia posted in a public forum that they would welcome AMD to negotiate with them for a PhysX license. Here is a comment from AMD's Director of Advanced Technology Initiatives, Dave Hoff about this:

Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.

Recently an email purportedly from an nVidia customer care agent named 'Tory' has been doing the rounds , supposedly stating that 'PhysX is an open software standard that any company can freely develop hardware or software that supports it'. This is at odds to what has previously been heard, and Dave Hoff agrees:

I don't know if this e-mail is real or not, but itss certainly not correct. The PhysX license (anyone can download and see) specifically excludes development and running on anything other than nVidia GPUs, CPUs and consoles. And we've all read about the recent change in their drivers for anyone using ATI cards even for rendering.

So if their post on the forum for us to be able to now use PhysX is real, that seems like a substantial position change. It's interesting they didn't contact us directly and only posted this in a forum.

They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely.

Hättest du nur ein paar Seiten zurückgeblätert, dann wäre diese Unterhaltung erspart geblieben.

mapel110
2010-01-21, 14:47:03
http://www.xbitlabs.com/news/multimedia/display/20100121053937_Nvidia_Denies_Accusations_of_Disabling_Multi_Core_CPU_Support_in_ PhysX_API.html
Mimimi, next round

IVN
2010-01-21, 14:49:52
Wäre ich der CEO von Nvidia, würde ich's mit Physx genauso machen. Seien wir doch mal ehrlich, der Sinn des Kapitalismus liegt gerade darin, sich nen Vorteil zu verschaffen mit dem man die Konkurrenz rausdrängen kann, um sich dann dumm und dämlich zu verdienen. Also, wo ist das Problem?

deekey777
2010-01-21, 14:56:04
http://www.xbitlabs.com/news/multimedia/display/20100121053937_Nvidia_Denies_Accusations_of_Disabling_Multi_Core_CPU_Support_in_ PhysX_API.html
Mimimi, next round
“Our PhysX SDK API is designed such that thread control is done explicitly by the application developer, not by the SDK functions themselves. One of the best examples is 3DMarkVantage which can use 12 threads while running in software-only PhysX. This can easily be tested by anyone with a multi-core CPU system and a PhysX-capable GeForce GPU. This level of multi-core support and programming methodology has not changed since day one. And to anticipate another ridiculous claim, it would be nonsense to say we “tuned” PhysX multi-core support for this case,” said Mr. Mohammed.
Das stimmt auch. Nur geht es wirklich darum?
In Vantage läuft das so ab: Mit jedem weitren Kern fliegen mehr Flugzeuge.
Die Kernfrage ist: Wenn in Vantage der Test so abläuft, alsob nur zwei CPU-Kerne vorhanden wären, werden dann alle vier Kerne genutzt, die tatsächlich verfügbar sind?
Die Aussage von Huddy wird verzerrt. Er sagte ganz klar:
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5
The other thing is that all these CPU cores we have are underutilised and I'm going to take another pop at Nvidia here. When they bought Ageia, they had a fairly respectable multicore implementation of PhysX. If you look at it now it basically runs predominantly on one, or at most, two cores. That's pretty shabby! I wonder why Nvidia has done that? I wonder why Nvidia has failed to do all their QA on stuff they don't care about - making it run efficiently on CPU cores - because the company doesn't care about the consumer experience it just cares about selling you more graphics cards by coding it so the GPU appears faster than the CPU.

It's the same thing as Intel's old compiler tricks that it used to do; Nvidia simply takes out all the multicore optimisations in PhysX. In fact, if coded well, the CPU can tackle most of the physics situations presented to it. The emphasis we're seeing on GPU physics is an over-emphasis that comes from one company having GPU physics... promoting PhysX as if it's Gods answer to all physics problems, when actually it's more a solution in search of problems.

Gast
2010-01-21, 14:58:45
Das Problem ist AMD. Es ist eben einfacher sich per Blogs, Foren oder Interviews zu beschweren als wirklich etwas produktives zu tun.
AMD hat Havok über OpenCL vor über 9 Monaten gezeigt. Bis heute gibt es nichts. Nichtmal die Demos sind vorhanden.
Deren Angriffe auf nVidia und ihre Techniken sind einfach nur lächerlich. In batman wollten sie nach 5 Monaten Zzsammenarbeit kein Ingame-AA. Das selbe mit PhysX: Es ist nicht nVidia's Aufgabe die CPUs zu promoten. Sie stellen die Middleware zur Verfügung und schauen, ob sie für die Entwickler ansprechend ist. Alles andere liegt nicht in ihren Händen.

Gast
2010-01-21, 15:01:43
Das stimmt auch. Nur geht es wirklich darum?
In Vantage läuft das so ab: Mit jedem weitren Kern fliegen mehr Flugzeuge.
Die Kernfrage ist: Wenn in Vantage der Test so abläuft, alsob nur zwei CPU-Kerne vorhanden wären, werden dann alle vier Kerne genutzt, die tatsächlich verfügbar sind?
Die Aussage von Huddy wird verzerrt. Er sagte ganz klar:
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5

Verzerrt? Er sagt klar, dass PhysX maximal über 2 Cores läuft.
Da ist nichts verzerrt. Die Wahrheit ist, er hat keine Beweise. Nichtmal, ob andere Engine besser wären von der Auslastung. Und 2 Cores wären 50% Rechenleistung einer Quadcore CPU alleine für Physik-Berechnungen. Das ist verdammt viel, wenn man überlegt, dass bei einem Spiel noch mehr dazu gehört.

deekey777
2010-01-21, 15:09:41
Verzerrt? Er sagt klar, dass PhysX maximal über 2 Cores läuft.
Da ist nichts verzerrt. Die Wahrheit ist, er hat keine Beweise. Nichtmal, ob andere Engine besser wären von der Auslastung. Und 2 Cores wären 50% Rechenleistung einer Quadcore CPU alleine für Physik-Berechnungen. Das ist verdammt viel, wenn man überlegt, dass bei einem Spiel noch mehr dazu gehört.
Ach so...
Dann muss Techreport wohl lügen.
http://techreport.com/articles.x/17618/13
Ok, so it's hard to see, but Task Manager is showing CPU utilization of 14%, which means the game—and Nvidia's purportedly multithreaded PhysX solver—is making use of just over one of our Core i7-965 Extreme's eight front-ends and less than one of its four cores. I'd say that in this situation, failing to make use of the CPU power available amounts to sabotaging performance on your competition's hardware. The truth is that rigid-body physics isn't too terribly hard to do on a modern CPU, even with lots of objects. Nvidia may not wish to port is PhysX solver to the Radeon, even though a GPU like Cypress is more than capable of handling the job. That's a shame, yet one can understand the business reasons. But if Nvidia is going to pay game developers to incorporate PhysX support into their games, it ought to work in good faith to optimize for the various processors available to it. At a very basic level, threading your easily parallelizable CPU-based PhysX solver should be part of that work, in my view.
http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html
Rather than clearing things up, the results of this testing have only left us more puzzled. We can recall that the PhysX API is supposed to be optimized for multiple threads, yet on the Core i7, only a single thread seems to be stressed when PhysX is cranked up. We're trying to get clarification from the developers at Rocksteady about this phenomenon--it's almost as though the game is artificially capping performance at a set level, and is then using only the CPU resources it needs to reach that level. On the Core i7, PhysX is using fewer resources than it does on the Phenom II. This would make sense if there was an artificial performance cap, as the i7 has shown to outperform AMD's architecture. However, the benchmarks show us a correlation between actual performance and raw CPU speed on either CPU.

Bucklew
2010-01-21, 15:14:17
Wo steht dort, dass Nvidia AMD etwas angeboten hat.
Komisch, AMD kann doch auch den Mund aufreißen, um Nvidia irgendwelche Vorwürfe zu machen, können die dann nicht auch anfragen, wenn sie was wollen?

Aber damit dieser Schwachsinn aushört:
http://www.rage3d.com/reviews/video/sapphire_hd5770/index.php?p=10
Ach so, weil AMD das sagt stimmt es. Das ist natürlich auch eine Möglichkeit der "Wahrheits"findung - genügend dicke und ausreichende Tönung der Brille vorrausgesetzt ;D

Gast
2010-01-21, 15:17:55
Tja, das ist wieder das typische "Ich hab kein Plan, was PhysX eigentlich ist" Problem. Sie lassen GPU-PhysX über die CPU laufen. Es sind zwei verschiedene Implementierungen. Wenn man die CPU-Auslastung messen will, dann sollte man auch die Implementierung für die CPU verwenden. Das CUDA-PhysX auch über die CPU läuft, ist lobenswert, aber bestimmt nicht kritisierungswürdig.
Hier zeigt man, wie die Auslastung aussieht, wenn GPU-PhysX über die GPU und CPU läuft: http://physxinfo.com/news/1727/dark-void-benchmark-and-physx-patch-available/
Nach deiner Logik dürfte selbst über der GPU nicht mehr als ein Kern benutzt werden. Wenn man dann aber überlegt, dass durch die Masse an Berechnungen der eine Kern komplett überlastet ist und dadurch die anderen Kerne idlen, weil sie auf die Berechnungen warten müssen, bringt es die ganze, dumme Diskussion zu einem Ende.
Huddy lügt, AMD Fanboys glauben ihn, nVidia erwidert, AMD Fanboys akzeptieren es nicht. Nächste Woche geht es dann wieder von vorne los.

Grestorn
2010-01-21, 15:37:32
Bei dir ist immer AMD böse xD

Du wirst kein Posting von mir finden, wo ich das schreibe. Noch nicht mal Ansatzweise. Wenn jemand "böse" ist, dann bestenfalls eine Person wie Hudd, der für mich aber auch nur mit unfairen Tricks und Fehlinformationen arbeitet, "böse" ist da doch noch etwas anderes.

Es ist nicht verwerflich so eine Technik einzukaufen, aber AMD hätte hier auch sein Fett weg bekommen wenn sie so etwas machen würden wie NV.

Nicht von mir. Ich habe ATI ja auch nicht wegen Eyefinity oder dem schnellen 8xAA kritisiert. Oder dafür, dass sie mit der R300 damals einen ähnlichen Technologiervorsprung herausgearbeitet haben, den nVidia heute hat.

NV lästert über Intel, strebt jedoch das Monopol mit einer unglaublichen Agressivität an. Dies sucht seines Gleichen.
Dagegen wirkt AMDs Marketing wie eine graue Maus.

Das ist Deine Wahrnehmung. Ich sehe die Agressivität in keinster Weise. Jedenfalls nicht mehr oder weniger als bei ATI selbst auch. Beide arbeiten mit ähnlichen Bandagen, wobei ich persönlich finde, das nVidia ehrlicher ist (Thema AI, Profile und Falschaussagen in der Öffentlichkeit aka Hudd).

Wenn die Konkurenz bessere Hardware hat, dann geht man einfach zum Spieleproduzenten und maniupuliert solange rum, bis es nur mit den NVs ordentlich läuft.

Siehst Du, das stimmt eben nur dann, wenn man Hudd bedenkenlos glaubt und alle anderen Wahrheiten einfach ausblendet.

Ich empfehle mal einfach auch die Lektüre dieses Artikels: http://www.bjorn3d.com/read.php?cID=1778&pageID=8320

Ist sicher auch nur die Darstellung der "anderen Seite", aber ehrlich gesagt für mich glaubwürdiger. Schließlich reden die über andere Entwickler, die sich ganz schnell bedanken würden, würde man die Unwahrheit behaupten.

Warum geht nicht VW zu Shell um dessen Sprit für die Konkurenz unverträglich zu machen?

Hat nVidia auch nie gemacht.

PhysX ist ein selbst erschaffenes System mit dem man die Inkompatibilität an bestehenden Standards vorbei ohne Restriktion manipulieren kann.PhysX ist eine Middleware, da gibt es keine Standards. Willst Du alle Neuentwicklungen verbannen, weil sie zu keinem Standard kompatibel sind?

Läuft Spiel X auf AMD-Karten zu gut, geht NV hin und baut die Physik-Effekte so um, dass es das nicht mehr tut. Wenn der Designer rummuckt wird der persönliche Support von NV für das nächste Spiel vewrweigert....

Stimmt, nVidia ist ja böse, ich vergaß...

Get real!

deekey777
2010-01-21, 15:42:37
Tja, das ist wieder das typische "Ich hab kein Plan, was PhysX eigentlich ist" Problem. Sie lassen GPU-PhysX über die CPU laufen. Es sind zwei verschiedene Implementierungen. Wenn man die CPU-Auslastung messen will, dann sollte man auch die Implementierung für die CPU verwenden. Das CUDA-PhysX auch über die CPU läuft, ist lobenswert, aber bestimmt nicht kritisierungswürdig.
Hier zeigt man, wie die Auslastung aussieht, wenn GPU-PhysX über die GPU und CPU läuft: http://physxinfo.com/news/1727/dark-void-benchmark-and-physx-patch-available/
Nach deiner Logik dürfte selbst über der GPU nicht mehr als ein Kern benutzt werden. Wenn man dann aber überlegt, dass durch die Masse an Berechnungen der eine Kern komplett überlastet ist und dadurch die anderen Kerne idlen, weil sie auf die Berechnungen warten müssen, bringt es die ganze, dumme Diskussion zu einem Ende.
Huddy lügt, AMD Fanboys glauben ihn, nVidia erwidert, AMD Fanboys akzeptieren es nicht. Nächste Woche geht es dann wieder von vorne los.
Und das ist der typische Troll, der nicht kapiert, worum es geht.
Für dich: Es geht darum, dass die "GPU-Effekte" auch auf CPU laufen können, wenn man die Simulation auf mehrere Kerne verteilt.
Natürlich wird Nvidia das ganz einfach verhindern können, indem zB die Anzahl der Partikel so stark erhöht wird, so dass es immer effektiver ist, die Simulation auf der Grafikkarte laufen zu lassen.

http://extreme.pcgameshardware.de/members/18151-bucklew.html

N0Thing
2010-01-21, 15:45:29
Ich sehe auch keinen Grund für AMD sich über die Lage zu beschweren.
Sie müssen selber mit einer Lösung auf den Markt, die entweder auch nur die eigenen Grafikkarten benutzt, wenn es um GPU-Beschleunigung geht, oder sie bringen eine Software/API/Engine, die die Hardware von beiden Herstellern benutzen kann. Lizenzgebühren kann man dann von den Spieleentwicklern auch verlangen, muß ja nicht hoch sein, die Masse machts.

Daß der Kunde nicht davon profitiert, wenn Nvidia die Anzahl der Kerne beschränken sollte, ist klar und nicht gut. Aber ohne Konkurrenz ist es auch nicht notwendig, warum sollte ich meinem Konkurrenten das Leben leichter machen und ihm meine Technologie zur Verfügung stellen? Gibt es sonst nirgendwo in der Welt und eben auch nicht im Grafikkartenmarkt.

Ich erwarte aber, daß in den nächsten Jahren eine unabhängige Firma eine entsprechende Software wie PhysX anbietet, nur daß sie nicht über CUDA oder Stream, sondern über gemeinsame Features nach OpenGL, Direct Compute, oder zukünftigen Standards auf die Grafikkarte zugreift. Immerhin müßte man damit Geld verdienen können.

Gast
2010-01-21, 15:49:43
Und das ist der typische Troll, der nicht kapiert, worum es geht.
Für dich: Es geht darum, dass die "GPU-Effekte" auch auf CPU laufen können, wenn man die Simulation auf mehrere Kerne verteilt.
Natürlich wird Nvidia das ganz einfach verhindern können, indem zB die Anzahl der Partikel so stark erhöht wird, so dass es immer effektiver ist, die Simulation auf der Grafikkarte laufen zu lassen.

http://extreme.pcgameshardware.de/members/18151-bucklew.html

Und Dirt 2 könnte auch einen DX10 Pfad haben. Und die Tessellation könnte man auch unter DX10 machen mit mehr Polygone und ohne Tessellation.
Aber es ist schon erstaunlich, dass nVidia plötzlich schuld ist, wenn Entwickler sowas nicht machen. Schmieren wohl alle Entwickler auf der Welt, so dass die keine richtige Physik Implementierung wollen, gell?
Und AMD hat Codemaster bestochen keinen DX10 Pfad einzubauen. Da beschwert sich der deekey777 aber komischerweise nicht. Man könnte annehmen, dass der deekey777 sich nur dann beschwert, wenn seine Lieblingsfirma mal nicht auf der Sonnenseite steht.

N0Thing
2010-01-21, 15:57:21
Vielleicht hätte Codemasters Dirt 2 auch nur mit DX9 rausgebracht und DX11 wurde nur eingebaut, weil sie die Kohle von AMD bekommen haben (die natürlich nichts davon haben, wenn was anderes als DX11 dazu kommt).


E:\Gleiches für Batman:AA: Ohne die HW-PhysX Effekte ist es ein Port der Konsolenversion, ergo ist für niemanden ein Nachteil entstanden, nur nicht für jeden ein Vorteil. Ich finde beiden Firmen kann man diese Praxis nicht vorwerfen, weil sie dem Kunden schaden würden.

Gast
2010-01-21, 15:59:50
Vielleicht hätte Codemasters Dirt 2 auch nur mit DX9 rausgebracht und DX11 wurde nur eingebaut, weil sie die Kohle von AMD bekommen haben (die natürlich nichts davon haben, wenn was anderes als DX11 dazu kommt).

Und wo ist da der Unterschied zu GPU-PhysX? Richtig, keiner.
Deekey777 scheint aber sich an der Dirt 2 Sache überhaupt nicht zu stören. Also ist seine Kritik an GPU-PhysX mehr als fragwürdig.

Bucklew
2010-01-21, 16:07:03
Das ist Deine Wahrnehmung. Ich sehe die Agressivität in keinster Weise. Jedenfalls nicht mehr oder weniger als bei ATI selbst auch. Beide arbeiten mit ähnlichen Bandagen, wobei ich persönlich finde, das nVidia ehrlicher ist (Thema AI, Profile und Falschaussagen in der Öffentlichkeit aka Hudd).
Nvidia äußert sich einfach nicht zu solchen Dingen und schluckt sie - was so auch die einzig richtige Möglichkeit ist. Mich würde echt mal interessieren was wohl für ein Anruf bei AMD von Eidos einging, nachdem diese in der Batman:AA Sache ja quasi Bestechlichkeit vorgeworfen haben. Freunde macht sich AMD damit sicher nicht in der Branche.

MorPheuZ
2010-01-21, 16:10:19
UT3 Engine oder id Tech4 wird auch Lizenziert und verscheppert. Da fragt keine Sau ob jetzt die UT3 Engine bevorzugt oder gar manipuliert wurde. Das Endprodukt wird höchstens kritisiert.

Sehe ich bei PhysX genauso. ATI könnte für ihre Produkte genau das selbe anbieten wie NV.

Gast69
2010-01-21, 16:11:22
Ist eigentlich schon alles gesagt, ausser vielleicht den Teil das ich nicht verstehe, das manche glauben alle sollte das selbe koennen.

Wenn ich Audi und DSG mag, aber von den Motoren her lieber BMW moechte, dann muss ich mich halt entscheiden. Ich kann auch nicht jammern das BMW seine Motoren an Audi gibt... oder Audi ihr DSG an BMW (alles natürlich etwas hypothetisch)

AMD soll halt selber seinen krams machen. Die Aufregung zeigt ja, das ihre Kunden das durchaus wollen. Warum sonst die Kritik an NVIDIA!? Aber statt von NVIDIA zu fordern das einfach so an AMD herzugeben, sollten die Kunden von AMD fordern etwas zu tun.

Das einzige was AMD wirklich an besonderem (also and Features... DX11 ist kaum ein AMD feature, zumindest wenn NV endlich liefert) zustande gebracht hat war/ist Eyefinity. Und nur ein paar Monate spaeter kommt NVIDIA mit einer Loesung und setzt sogar noch einen drauf (Stereo 3D). Da gab es kein gejammer das AMD die Technik and NVIDIA abtreten sollte. NVIDIA machts einfach selber. So sollte das sein.

Meine Meinung eben...

N0Thing
2010-01-21, 16:18:52
Und wo ist da der Unterschied zu GPU-PhysX? Richtig, keiner.
Deekey777 scheint aber sich an der Dirt 2 Sache überhaupt nicht zu stören. Also ist seine Kritik an GPU-PhysX mehr als fragwürdig.

Man sollte schon bedenken, daß bei dir Dirt2 alle Besitzer einer DirectX11 Grafikkarten in den Genuß der zusätzlichen Effekte kommen können, nicht nur Besitzer einer ATI-Karte. Dabei spielt es für mich auch keine Rolle, daß Nvidia zur Zeit noch keine DX11 Karten im Angebot hat, das ist weder die Schuld von Codemasters, Microsoft oder AMD.
Man kann die Fälle sicherlich vergleichen, das Gleiche sind sie aber ganz sicher nicht.

Gast
2010-01-21, 16:20:30
Wäre ich der CEO von Nvidia, würde ich's mit Physx genauso machen. Seien wir doch mal ehrlich, der Sinn des Kapitalismus liegt gerade darin, sich nen Vorteil zu verschaffen mit dem man die Konkurrenz rausdrängen kann, um sich dann dumm und dämlich zu verdienen. Also, wo ist das Problem?

Tja, nun müssten AMD und Intel nur dafür sorgen, dass auf ihren Chipsätzen keine Nvidia Grafikkarten mehr funktionieren würden. Et voilà, Problem gelöst.

MorPheuZ
2010-01-21, 16:25:55
Lizenzen??? Da wären wir wieder beim Thema :rolleyes: NV zahlt dafür mein Freund!

IVN
2010-01-21, 16:29:28
Tja, nun müssten AMD und Intel nur dafür sorgen, dass auf ihren Chipsätzen keine Nvidia Grafikkarten mehr funktionieren würden. Et voilà, Problem gelöst.
Intel würde dadurch nicht profitieren solange sie keine eigene GPU haben. AMD würde sich damit wahrsch. ins eigene Fleisch schneiden, weill damit das CPU und Platform-Geschäft leiden würden. Und, ich glaube kaum das man irgendeinen Weg finden könnte Standardkonform zu bleiben UND gleichzeitig Nv auszuschliessen. ABER, wäre ich der CEO von Intel, würde ich schon jetzt anfangen an einer Möglichkeit zu arbeiten, Nv auszuschliessen, sobald der Larrabee X auf dem Markt ist.

Gast
2010-01-21, 16:45:20
Man sollte schon bedenken, daß bei dir Dirt2 alle Besitzer einer DirectX11 Grafikkarten in den Genuß der zusätzlichen Effekte kommen können, nicht nur Besitzer einer ATI-Karte. Dabei spielt es für mich auch keine Rolle, daß Nvidia zur Zeit noch keine DX11 Karten im Angebot hat, das ist weder die Schuld von Codemasters, Microsoft oder AMD.
Man kann die Fälle sicherlich vergleichen, das Gleiche sind sie aber ganz sicher nicht.

Und bei Cuda-PhysX kommen alle CPU User und "alle" Besitzer einer Cuda-fähigen Grafikkarte in den Genuss.
Wenn ich weder eine DX11 fähige oder CUDA fähige habe, muss ich so oder so ein Neukauf machen. Was mir da eine DX9/DX11 Implementierung ohne DX11 Karte helfen soll, wissen wohl nur ein paar Auserwählte.

N0Thing
2010-01-21, 17:44:39
Und bei Cuda-PhysX kommen alle CPU User und "alle" Besitzer einer Cuda-fähigen Grafikkarte in den Genuss.

Es braucht eine Cuda-fähige Grafikkarte zusätzlich zur CPU, es kommen also nicht alle CPU-Besitzer in die Lage GPU-PhysX zu benutzen.


Wenn ich weder eine DX11 fähige oder CUDA fähige habe, muss ich so oder so ein Neukauf machen.

In einem Fall hat man keine Wahl beim Hersteller, im anderen Fall hat man letztendlich die Wahl zwischen allen Herstellern.


Was mir da eine DX9/DX11 Implementierung ohne DX11 Karte helfen soll, wissen wohl nur ein paar Auserwählte.

Habe noch keinen Auserwählten getroffen, der sich so geäußert hätte. Aber du kannst mir gerne den Nachteil schildern, den du davon hast. ;D

IVN
2010-01-21, 17:49:44
Es braucht eine Cuda-fähige Grafikkarte zusätzlich zur CPU, es kommen also nicht alle CPU-Besitzer in die Lage GPU-PhysX zu benutzen.

Wo ist das Problem? Kauf doch ne GraKa mit ner Nv-GPU, wenn du PhysX willst.

Gast
2010-01-21, 17:51:29
Es braucht eine Cuda-fähige Grafikkarte zusätzlich zur CPU, es kommen also nicht alle CPU-Besitzer in die Lage GPU-PhysX zu benutzen.

Nein, es benötigt einen CUDA-"Prozessor", um die schon vorhandene CPU zu entlasten. Genauso wie nicht jeder CPU besitzer in den Genuß von DX11 kommt, solange er eine nicht DX11 konforme Karte besitzt.


In einem Fall hat man keine Wahl beim Hersteller, im anderen Fall hat man letztendlich die Wahl zwischen allen Herstellern.

Das spielt keine Rolle. Bald ist es keine entweder oder Entscheidung, sondern nur eine DX11 mit Cuda-Physx oder nur DX11.
Vergleichen wir es mit den Konsolen: Ein Halo 3 bekomme ich nur auf der Xbox 360 ein AC2 auf der PS3 und der Xbox360. Wenn ich mir wegen diesen beiden Spielen eine neue Konsole kaufen würde, wäre die Xbox360 wohl die bessere Entscheidung.

Habe noch keinen Auserwählten getroffen, der sich so geäußert hätte. Aber du kannst mir gerne den Nachteil schildern, den du davon hast. ;D

Den selben nachteil, den Meister deekey777 bei Cuda-PhysX propagiert. Ich kann ohne Cuda-Prozessor kein richtiges Cuda-PhysX genießen, genauso wie ich ohne DX11 Prozessor kein DX11 genießen kann. Selbe Argumentationslogik.

deekey777
2010-01-21, 17:54:43
...

Den selben nachteil, den Meister deekey777 bei Cuda-PhysX propagiert. Ich kann ohne Cuda-Prozessor kein richtiges Cuda-PhysX genießen, genauso wie ich ohne DX11 Prozessor kein DX11 genießen kann. Selbe Argumentationslogik.
Was propagiere ich da?
Und wer bist du überhaupt? LS?

Bucklew
2010-01-21, 18:11:54
Intel würde dadurch nicht profitieren solange sie keine eigene GPU haben. AMD würde sich damit wahrsch. ins eigene Fleisch schneiden, weill damit das CPU und Platform-Geschäft leiden würden. Und, ich glaube kaum das man irgendeinen Weg finden könnte Standardkonform zu bleiben UND gleichzeitig Nv auszuschliessen. ABER, wäre ich der CEO von Intel, würde ich schon jetzt anfangen an einer Möglichkeit zu arbeiten, Nv auszuschliessen, sobald der Larrabee X auf dem Markt ist.
Damit würden sich die beiden eher selbst ins Bein schießen als Nvidia. Schließlich wollen die Kunden nunmal Nvidiakarten einsetzen (und Nvidia ist bei diskreten Grafikkarten nunmal der Marktführer). Man stelle sich alleine mal vor, was die OEMs dazu sagen würden, geschweige denn die Firmenkunden.

N0Thing
2010-01-21, 18:17:55
Wo ist das Problem? Kauf doch ne GraKa mit ner Nv-GPU, wenn du PhysX willst.

Bevor du nach Problemen fragst, lies doch erst einmal die vorangegangenen Beiträge durch, damit du weißt worauf ich mich beziehe. :wink:

Nein, es benötigt einen CUDA-"Prozessor", um die schon vorhandene CPU zu entlasten. Genauso wie nicht jeder CPU besitzer in den Genuß von DX11 kommt, solange er eine nicht DX11 konforme Karte besitzt.

Ja und was ist ein CUDA-Prozessor? Und im Endeffekt wird die CPU nicht entlastet, in der Praxis werden so viele Effekte hinzu gefügt, daß eine GPU notwendig ist.
Aber um es noch einmal kurz auf den Punkt zu bringen: Hardware-PhysX und DX11-Support in einem Spiel sind nicht das gleiche, das eine ist nur mit einem Hersteller möglich, das andere ist nicht auf einen Hersteller beschränkt.



Das spielt keine Rolle. Bald ist es keine entweder oder Entscheidung, sondern nur eine DX11 mit Cuda-Physx oder nur DX11.

Eben, DX11 kann man von jedem Hersteller bekommen, Hardware-PhysX nicht. Schön daß du mich doch verstehst. :)
Ich dachte schon ich werde gleich als Fanboy bezeichnet, nur weil ich eine neutrale Position behalte. :D

Black-Scorpion
2010-01-21, 19:20:19
Warum füttert ihr den Troll weiter?
Außer provozieren und dumm stellen kam von dem Gast (der bestimmt keiner ist) nichts brauchbares.

Fiedler
2010-01-21, 23:06:00
Wäre ich der CEO von Nvidia, würde ich's mit Physx genauso machen. Seien wir doch mal ehrlich, der Sinn des Kapitalismus liegt gerade darin, sich nen Vorteil zu verschaffen mit dem man die Konkurrenz rausdrängen kann, um sich dann dumm und dämlich zu verdienen. Also, wo ist das Problem?
Wenn die Infos von Hardware-Infos (http://www.hardware-infos.com/news.php?news=3388) stimmen, ist genau das dass Problem. Nichts dagegen das Nvidea Leute losschickt um Spieleentwickler bei der Implementierung von Features zu unterstützen. Wenn das für mich als Konsument (und zufällig ATI-Grafikkarten Besitzer) aber eine Verschlechterung der Grafikqualtät bedeutet, finde ich es übel.;( Und ich finde wirklich dass es so aussieht als hätten sie bei Dark Void übertrieben.
BTW, bei Batman gab es den Vorwurf von AMD (http://www.pcgameshardware.de/aid,696333/AMD-gegen-Nvidia-Schwere-Vorwuerfe-wegen-angeblicher-Benachteiligung-in-Batman-Update-Batman-Gate/Grafikkarte/News/) (siehe Update 10.11.2009) das
Eine Device-ID-Abfrage im Code verhindert, dass Antialiasing-Resolve auf Ati-Radeon-Karten durchgeführt wird, nicht jedoch, und das ist das brisante, dass die für den Antialiasing-Code benötigen Z-Buffer-Schreibzugriffe erfolgen. Somit wird Leistung sinnlos verbraten.
Ich hab keine Ahnung ob das stimmt, aber wenn würde es mich nerven aus kapitalistischen Interessen vera****** zu werden.

Grüße

IVN
2010-01-21, 23:14:24
Wenn die Infos von Hardware-Infos (http://www.hardware-infos.com/news.php?news=3388) stimmen, ist genau das dass Problem. Nichts dagegen das Nvidea Leute losschickt um Spieleentwickler bei der Implementierung von Features zu unterstützen. Wenn das für mich als Konsument (und zufällig ATI-Grafikkarten Besitzer) aber eine Verschlechterung der Grafikqualtät bedeutet, finde ich es übel.;( Und ich finde wirklich dass es so aussieht als hätten sie bei Dark Void übertrieben.
BTW, bei Batman gab es den Vorwurf von AMD (http://www.pcgameshardware.de/aid,696333/AMD-gegen-Nvidia-Schwere-Vorwuerfe-wegen-angeblicher-Benachteiligung-in-Batman-Update-Batman-Gate/Grafikkarte/News/) (siehe Update 10.11.2009) das

Ich hab keine Ahnung ob das stimmt, aber wenn würde es mich nerven aus kapitalistischen Interessen vera****** zu werden.

Grüße
Ja, ich bin mir sicher, das du, obwohl du in der westlichen, kapitalistischen Welt lebst, noch nie jemandem aus purer Gier verarscht hast... :ulol:

Wie war das noch mal? "Derjenige der ohne Sünde ist, soll den ersten Stein werfen", oder so...

Gast
2010-01-21, 23:29:56
Ja und was ist ein CUDA-Prozessor? Und im Endeffekt wird die CPU nicht entlastet, in der Praxis werden so viele Effekte hinzu gefügt, daß eine GPU notwendig ist.
Aber um es noch einmal kurz auf den Punkt zu bringen: Hardware-PhysX und DX11-Support in einem Spiel sind nicht das gleiche, das eine ist nur mit einem Hersteller möglich, das andere ist nicht auf einen Hersteller beschränkt.

Das spielt keine Rolle. Wenn ich keine DX11 fähige Hardware habe, muss ich mir eine DX11 fähige Hardware von einem Hersteller kaufen. Die Hersteller kommen ja nicht zu mir und schenken mir eine neue Grafikkarte.


Eben, DX11 kann man von jedem Hersteller bekommen, Hardware-PhysX nicht. Schön daß du mich doch verstehst. :)

Und das macht jetzt genau welchen Unterschied zu der Tatsache, dass ich erstmal DX11 Hardware benötige, um DX11 Features nutzen zu können? Ob ein Anbieter oder tausende: Ohne Neukauf keine Verfügbarkeit.
Hier wird sich beschwert, dass AMD user ausgeschlossen wären, weil es keine Multi-GPU Unterstützung gäbe. Was ist dann mit den ganzen DX10 User, die in Dirt 2 mit dem DX9 Pfad leben müssen? Kein Unterschied, nichtmal ein bisschen.

SimonX
2010-01-22, 00:52:36
Es geht darum, dass die "GPU-Effekte" auch auf CPU laufen können, wenn man die Simulation auf mehrere Kerne verteilt. ...

Warum spricht man hier überhaupt von "Simulation". Das Dark Void Vergleich-Video zeigt nicht viel, was simuliert werden müsste. Solche Effekte macht man ohne Simulation oder bestenfalls mit einer Fake-Simulation.

Fiedler
2010-01-22, 01:25:18
Ja, ich bin mir sicher, das du, obwohl du in der westlichen, kapitalistischen Welt lebst, noch nie jemandem aus purer Gier verarscht hast... :ulol:

Wie war das noch mal? "Derjenige der ohne Sünde ist, soll den ersten Stein werfen", oder so...
Wahrscheinlich hab ich das, auch wenn ich mich jetzt an nichts erinnere. Aber so etwas verdrängt man ja gerne.:biggrin:
Trotzdem muss ich es ja nicht gut finden wenn es mit mir gemacht wird. Nochmal, nichts dagegen das Nvidea Ageia aufgekauft hat, und PhysX@GPU nur auf ihren Grafikkarten nutzt. Wenn sie aber die Nutzung von PhysX@CPU einschränken finde ich das ...blöd. Die Nvidea Kartenbesitzer sollten sich eigentlich auch aufregen wenn das heißt dass man extra eine 260 als PhysX-Karte braucht.

Grüße

Gast
2010-01-22, 13:02:35
http://www.xbitlabs.com/news/multimedia/display/20100121053937_Nvidia_Denies_Accusations_of_Disabling_Multi_Core_CPU_Support_in_ PhysX_API.html
Mimimi, next round

Man wuss wirklich kein Experte sein in der Materie, um zu sehen das man keine GTX275 braucht um solche Effekte darstellen zu koennen[Dark Void].

Bei mir kam dieser Verdacht bereits mit Batman Asylum auf und nicht erst seit DV. Diese gannze Rauch Partikel Simulation kann man auch auf aktuellen CPU berechnen lassen, muss den alles "Echt" sein ? Ein bisl faken und der Effekt ist praktsich de rgleiche-.

Grestorn
2010-01-22, 13:05:46
Gast, Du hast keine Ahnung.

Gast
2010-01-22, 13:22:36
Sagt einer der andere durch die Blume Lügner nennt , ohne unabhängigen gegenbeweiß.



(Thema AI, Profile und Falschaussagen in der Öffentlichkeit aka Hudd).


Ich empfehle mal einfach auch die Lektüre dieses Artikels: http://www.bjorn3d.com/read.php?cID=1778&pageID=8320


Hmm Sponsored by Nvidia, Paid by Nvidia , Written by - Surprise ! - Nvidia.



Get Real!
Werd du erst mal anständig !

Grestorn
2010-01-22, 13:33:38
Sagt einer der andere durch die Blume Lügner nennt , ohne unabhängigen gegenbeweiß.Aber die Behauptungen die Hudd ohne jeden Beweis aufstellt (und denen jeder andere Beteiligte widerspricht, egal ob von nVidia oder nicht) sind natürlich keine Lüge, gell?

Hmm Sponsored by Nvidia, Paid by Nvidia , Written by - Surprise ! - Nvidia.Ja sicher. Hab ich ja auch geschrieben. Dennoch werden dort viele Entwicklungsteams genannt. Meinst Du wirklich, die würden alle still halten, wenn nicht stimmen würde, was nVidia da sagt?

Werd du erst mal anständig !Das sagt der richtige.

Gast
2010-01-22, 13:35:57
Gast, Du hast keine Ahnung.

Das mag ja sein, aber frueher wurden diese Effekte wie "Flaggen-Simulation" und dergelichen schoen gefakt. Der Effekt war der gleiche und alle waren zufrieden. Niemand hat in GT 1 oder 2, diese billig Versuche von wehenden Flaggen hinterfragt. Alles sah gleichaus, egal ob richtig mathematisch kalkuliert oder simples bitmap/textur die so tut als ob.

Ich kenne niemand der beim Batman Spiel die ganzen Flaggen im Spiel stundenlang begutachtet hat, nur damit seine Investition in eine 2 GPU ala GTX260,275 gerechtfertigt war/ist. Ich achte beim Spielen nicht drauf, ob der Avatar vom Rauch umheullt schoener oder geiler aussieht, geschweige stehe ich im Spiel und bestaune all die schoenen Flaggen und Banner die vom Joker erstellt wurden.....kurz wer zum T. braucht schon Physik.....wenn schon, dann richtig und von Anfang an 100%. Was man bisher gesehen hat, stemple ich als billig Versuch ab.

Glaubst Du wirklich, das man zb. bei Batman eine dedizierte GPU braucht, damit die Flaggen,Banner sich schoen richtig im Wind "wiegen" ? Wie gesagt, frueher gab es das auch, bzw. keine Sau hat sich dafuer interessiert ob das Fake oder richtig berechnet wurde.

Ich warte immernoch auf den "Effekt" schlechthin, was den Kauf einer ded. GPU als Physik Berechner rechtfertigt. Batman[war ein gutes Spiel auch ohne Physik GPU im System] und Dark Void, koennen mich nicht mir ihren billig Versuch koedern. Jm2c

Bucklew
2010-01-22, 13:39:22
Das mag ja sein, aber frueher wurden diese Effekte wie "Flaggen-Simulation" und dergelichen schoen gefakt. Der Effekt war der gleiche und alle waren zufrieden. Niemand hat in GT 1 oder 2, diese billig Versuche von wehenden Flaggen hinterfragt. Alles sah gleichaus, egal ob richtig mathematisch kalkuliert oder simples bitmap/textur die so tut als ob.
Früher hat auch 640x480 ausgereicht zum zocken und davor ein bisschen ASCII-Art. Deswegen möchte ich das noch lange nicht heute immer noch haben.

Perfekt wäre wohl ein komplett physikalisch korrekte Spielumgebung. Keine Animationen, alles berechnet. Ob wir das noch erleben werden?

Grestorn
2010-01-22, 13:52:13
Das mag ja sein, aber frueher wurden diese Effekte wie "Flaggen-Simulation" und dergelichen schoen gefakt.

Es war eine feste, vordefinierte Bewegung der Flagge. Dafür braucht man keine Physik.

Der Unterschied der Physik Engine ist doch, dass sich Flagge entsprechend der äußeren Bedingungen bewegt, sprich durch vorbeilaufende Spieler (Windzug) oder wenn man die Flagge berührt.

Das meinte ich mit "Keine Ahnung". Du weißt nicht, wovon Du sprichst (was ja keine Sünde ist), behauptest aber Dinge und wirfst nVidia Bösartigkeit und Manipulation vor. Was stimmt nicht an diesem Bild, hm?

Quaker
2010-01-22, 14:00:47
Eigenartige Diskussion, man kann doch objektiv gesehen sowas nicht gut heissen was nVidia da macht - selbst ich nicht als nVidia Fan erster Stunde, wo viele hier noch gar nicht wussten dass es nVidia gibt.
Aber der 3DFX kauf hat nVidia wohl nicht gut getan, denn allmählich rudern sie genau in den gleichen "Schlamassel".
Stellt euch schon nur mal vor, dass AMD genau gleich anfängt mit solchen Features und es schlussendlich nur noch Games gibt die entweder auf AMD oder nVidia Karten laufen - wo würde das hinführen?
Am Schluss müsste man wohl 2 PC oder mehr haben mit der entspr. Kombination damit man ein spezielles Spiel darauf zum laufen bringt..
Um es eben genau nicht soweit kommen zu lassen hat man so etwas ähnliches wie "Standard" eingeführt...
Über die hiesigen NV Fanboys kann man wirklich nur noch den Kopf schütteln.

Gast
2010-01-22, 14:02:19
Früher hat auch 640x480 ausgereicht zum zocken und davor ein bisschen ASCII-Art. Deswegen möchte ich das noch lange nicht heute immer noch haben.

Perfekt wäre wohl ein komplett physikalisch korrekte Spielumgebung. Keine Animationen, alles berechnet. Ob wir das noch erleben werden?

Stimmt, ein nicht unwesentlicher Faktor den Du da ansprichst. Die Reso. hat sich geaendert, aber das ganze kann man auch heute schoen basteln und Flaggen in Spielen implementieren die sich schoen im Wind wiegen, natr. alles gefakt wie damals halt.

Warum brauche ich Wind Simulation im Spiel ? Das gab es frueher nicht und wie bereits gesagt der Effekt war der gleiche. Siehe GT4 auf der PS2, auch dort gibt es Flaggen und die sind mit Sicherheit nicht physik-kalisch von der CPU berechnet worden. Auch nicht in 1080i....und erst Recht nicht von der Emotion Engine.

Solange das ganze abschaltbar ist wie in Batman Asylum, dann habe ich nichts zu reklamieren.

Grestorn
2010-01-22, 14:04:54
Eigenartige Diskussion, man kann doch objektiv gesehen sowas nicht gut heissen was nVidia da macht - selbst ich nicht als nVidia Fan erster Stunde, wo viele hier noch gar nicht wussten dass es nVidia gibt.

Was genau kann man nicht gut heißen?

Stellt euch schon nur mal vor, dass AMD genau gleich anfängt mit solchen Features und es schlussendlich nur noch Games gibt die entweder auf AMD oder nVidia Karten laufen - wo würde das hinführen?

So etwas gab es vor DX10 ständig. Jede Grafikkarte hatte einen anderen Funktionsumfang. Das ist absolut nichts neues. Erst DX10 hat damit Schluss gemacht, weil MS es so wollte.

Über die hiesigen NV Fanboys kann man wirklich nur noch den Kopf schütteln.

Ich schüttle den Kopf über Leute, die es schlimm finden, wenn eine Firma in neue Ideen und Techniken investiert. Wenn man das verbieten wollte, dann hätte man Stillstand.

Technischer Fortschritt wird (im Konsumentenbereich) alleine durch Konkurenz vorangetrieben! Macht Euch das mal bitte bewusst.

Gast
2010-01-22, 14:11:21
Ich schüttle den Kopf über Leute, die es schlimm finden, wenn eine Firma in neue Ideen und Techniken investiert. Wenn man das verbieten wollte, dann hätte man Stillstand.


Darüber regt sich auch niemand auf. Es ist die Art und Weise, wie es in den Markt gedrückt wird. Gerade Du als PC-Kenner solltest wissen, dass eine weitere Aufteilung des PC-Spielemarktes alles andere als erstrebenswert ist.

Gast
2010-01-22, 14:13:58
Technischer Fortschritt wird (im Konsumentenbereich) alleine durch Konkurenz vorangetrieben! Macht Euch das mal bitte bewusst.

Richtig, wenn niemand investiert und Ideen umsetzt, entsteht kein Fortschritt. AMD bringt Eyefinity und nVidia aktiviert es darauf hin in ihren Treibern. Statt rumzuheulen, handeln sie.

Grestorn
2010-01-22, 14:26:00
Darüber regt sich auch niemand auf. Es ist die Art und Weise, wie es in den Markt gedrückt wird. Gerade Du als PC-Kenner solltest wissen, dass eine weitere Aufteilung des PC-Spielemarktes alles andere als erstrebenswert ist.

Was ist an der "Art und Weise" denn besonderes?

Das einzige, was ich in der Tat an nVidia's Verhalten kritisiere, ist der Block gegen GPU-PhysX wenn eine ATI Karte im System ist. Das ist unnötig, dumm und schäbig.

Quaker
2010-01-22, 14:28:54
Richtig, wenn niemand investiert und Ideen umsetzt, entsteht kein Fortschritt. AMD bringt Eyefinity und nVidia aktiviert es darauf hin in ihren Treibern. Statt rumzuheulen, handeln sie.
Wow, wie innovativ von NV...

MorPheuZ
2010-01-22, 14:33:21
NV hat kein EYEFINITY

Gast
2010-01-22, 14:39:42
Wow, wie innovativ von NV...

War es von AMD auch nicht. :rolleyes:

Gäst
2010-01-22, 14:43:21
Die Idee ist gut, die Umsetzung scheitert jedoch an genau zwei Punkten.

1. die restriktive Beschränkung auf NV-Hardware

2. Spiele mit Verwendung von GPU-PhysX bieten ohne entsprechende Hardware so manches Feature (Fahnen, Funken etc.) nicht, welches schon seit Jahren standardmäßig und problemlos von CPUs berechnet oder von GPUs "gefaked" wird.
Man hat bis jetzt nicht glaubhaft machen können, warum soviel angeblich brachiale Physikrechenpower für teils lächerliche Effekte benötigt wird. Viele halten das Gebotene ebenso gut auf normalen CPUs/GPUs ohne HW-PhysX berechenbar und vor allem darstellbar!

Grestorn
2010-01-22, 14:47:09
Die Idee ist gut, die Umsetzung scheitert jedoch an genau zwei Punkten.

1. die restriktive Beschränkung auf NV-Hardware

Das liegt nicht an nVidia sondern an den Anbietern anderer Hardware.

2. Spiele mit Verwendung von GPU-PhysX bieten ohne entsprechende Hardware so manches Feature (Fahnen, Funken etc.) nicht, welches schon seit Jahren standardmäßig und problemlos von CPUs berechnet oder von GPUs "gefaked" wird.

Es wird ohne PhysX genauso gefaked wie früher. Mit PhysX muss halt nicht mehr gefaked werden, sondern die Effekte sind realistisch berechnet, das ist alles.

Wenn Du es anders empfindest, dann ist das eher ein Problem Deiner Wahrnehmung. Und wenn Du keine realistischen Nebelschwaden und korrekt wehenden Batcapes brauchst, dann wirst Du PhysX ja auch nicht vermissen.

Gast
2010-01-22, 14:49:46
Wenn Du es anders empfindest, dann ist das eher ein Problem Deiner Wahrnehmung. Und wenn Du keine realistischen Nebelschwaden und korrekt wehenden Batcapes brauchst, dann wirst Du PhysX ja auch nicht vermissen.

Gerade das Batcape ist aber ein schlechtes Beispiel, weil das nicht Physx-modelliert ist. ;)

-carsten

SimonX
2010-01-22, 15:13:06
Gerade das Batcape ist aber ein schlechtes Beispiel, weil das nicht Physx-modelliert ist. ;)

Dem kann ich nur voll zustimmen. Oder wird bei PhysX dann ein Wind mit Böhen und Verwirbelungen an z.B. Häuserecken simuliert, der sich dann auf das Batcape (und alle anderen Sachen gleich) auswirkt? Von einer Strömungssimulation ist PhysX noch weit entfernt würde ich mal sagen.

PhysX macht es hier aber sicher einfacher zu faken. Und darum geht es sicher bei PhysX und bei anderen Physiksimulationen. Das dieses Faken aber auf der Gfx-Karte gemacht werden "muss" ist übertrieben. Es würde erst dann wirklich etwas bringen, wenn die Geometrieberechnung für z.B. das Batcape komplett auf der Gfx-Karte gemacht wird und die PhysX direkt ihre Ergebnisse an die Geometrieberechnung weiter geben würde, ohne über die CPU gehen zu müssen. (Bzw. das die PhysX Ergebnisse so kompakt sind, das nicht alle Geometriedaten nochmals über die CPU an die Gfx-Karte gesendet werden müssen)

Gast
2010-01-22, 15:19:09
Besonders witzig finde ich, dass als Ageia von NV übernommen wurde immer das Argument im Raum stand das niemand eine zusätzliche Karte für PhysiX kaufen würde.
Neuerdings wird empfohlen sich doch eine gtx 260 als Zusatzkarte zu holen.
Verrückt...

Gäst
2010-01-22, 15:29:22
Das liegt nicht an nVidia sondern an den Anbietern anderer Hardware.

Ja wie denn nun? Auf der einen Seite findest du es schäbig von NV, bei Anwesenheit von ATI-GPUs im System GPU-PhysX zu deaktivieren, um im nächsten Atemzug ATI vorzuwerfen, HW-PhysX nicht zu unterstützen, dies nicht zu wollen bzw. es sogar absichtlich zu torpedieren.
ATI´s Standpunkt ist ganz klar. Man möchte einen einheitlichen Standard. NV hingegen mauert die eigene Implementierung vollkommen zu und möchte sich somit einen Vorteil gegenüber der Konkurrenz verschaffen. Ein durchaus legitimer Schritt, welcher allerdings dem Konsumenten gar nichts bringt, so er sich nicht an NV binden möchte. Es gibt ja auch noch andere Erwägungen beim Kauf einer Grafikkarte wie zB. Preis, Verfügbarkeit, Leistungsaufnahme etc. Es ist ja nicht so, dass ATI Hardware solche Physikspielereien nicht performant umsetzen könnte, eher im Gegenteil!


Es wird ohne PhysX genauso gefaked wie früher. Mit PhysX muss halt nicht mehr gefaked werden, sondern die Effekte sind realistisch berechnet, das ist alles.

Abseits der glaubwürdigen Berechnung und physikalischen Korrektheit der Effekte ist das noch lange keine Entschuldigung für das vollständige Fehlen bzw. die grottige Implementation eben dieser bei Verwendung von Konkurrenzhardware. Das müsste wirklich nicht sein, zeigt aber recht deutlich, wohin die Reise bei NV in Zukunft gehen wird, wenn nichts dazwischen kommt.

Wenn Du es anders empfindest, dann ist das eher ein Problem Deiner Wahrnehmung. Und wenn Du keine realistischen Nebelschwaden und korrekt wehenden Batcapes brauchst, dann wirst Du PhysX ja auch nicht vermissen.

Ich persönlich finde gerade den Nebel in Batman ganz nett anzusehen und auch überaus atmosphärisch. Wünschenswert wäre es aber, eine Alternative für ATI-Karten zu basteln, die sich gern physikalisch weniger genau verhalten darf. Das vollständige Fehlen ganzer Grafikkomponenten ist kein wünschenswertes Ergebnis. So sehe ich zB. keinen Grund dafür, die ganzen Fahnen und Wimpel einfach zu streichen, wenn ausnahmslos jede erhältliche GraKa unabhängig vom Hersteller dazu in der Lage wäre, eine statische Version anzuzeigen.

Gast
2010-01-22, 15:39:13
Es gibt ja auch noch andere Erwägungen beim Kauf einer Grafikkarte wie zB. Preis, Verfügbarkeit, Leistungsaufnahme etc. Es ist ja nicht so, dass ATI Hardware solche Physikspielereien nicht performant umsetzen könnte, eher im Gegenteil!

PhysX ist ein Feature von nVidia-Karten. So wie HQ-AF Filterung, oder SSAA vor ein paar Monaten oder CSAA.

Abseits der glaubwürdigen Berechnung und physikalischen Korrektheit der Effekte ist das noch lange keine Entschuldigung für das vollständige Fehlen bzw. die grottige Implementation eben dieser bei Verwendung von Konkurrenzhardware. Das müsste wirklich nicht sein, zeigt aber recht deutlich, wohin die Reise bei NV in Zukunft gehen wird, wenn nichts dazwischen kommt.

Dirt 2 bietet keinen DX10 Pfad an. Darüber wird überhaupt nicht diskutiert.
Anscheinend darf AMD so etwas machen. Nur bei nVidia stören sich die Leute.

Ich persönlich finde gerade den Nebel in Batman ganz nett anzusehen und auch überaus atmosphärisch. Wünschenswert wäre es aber, eine Alternative für ATI-Karten zu basteln, die sich gern physikalisch weniger genau verhalten darf. Das vollständige Fehlen ganzer Grafikkomponenten ist kein wünschenswertes Ergebnis. So sehe ich zB. keinen Grund dafür, die ganzen Fahnen und Wimpel einfach zu streichen, wenn ausnahmslos jede erhältliche GraKa unabhängig vom Hersteller dazu in der Lage wäre, eine statische Version anzuzeigen.

Das ist Aufgabe von Intel/AMD und Entwickler. Warum das nVidia machen sollte, kannst du ja mal darlegen.
Es wird nichts gestrichen, etwas mehr hinzugefügt. Wenn du also mehr Effekte über die CPU berechnet haben willst, nerve deinen CPU Hersteller.

Gast
2010-01-22, 15:46:16
Es wird nichts gestrichen, etwas mehr hinzugefügt. Wenn du also mehr Effekte über die CPU berechnet haben willst, nerve deinen CPU Hersteller.

Nein ich nerve meinen Physikenginehersteller.
Es ist sein Produkt und er muss dafür sorgen das es möglich überall funktioniert.
Und wenn ich den Eindruck gewinne, dass dieser Hersteller das Produkt nur als Marketinggag für seine Hardware missbraucht nerve ich ihn noch mehr...

Papyrus
2010-01-22, 15:51:53
Es war eine feste, vordefinierte Bewegung der Flagge. Dafür braucht man keine Physik.

Der Unterschied der Physik Engine ist doch, dass sich Flagge entsprechend der äußeren Bedingungen bewegt, sprich durch vorbeilaufende Spieler (Windzug) oder wenn man die Flagge berührt.

Das meinte ich mit "Keine Ahnung". Du weißt nicht, wovon Du sprichst (was ja keine Sünde ist), behauptest aber Dinge und wirfst nVidia Bösartigkeit und Manipulation vor. Was stimmt nicht an diesem Bild, hm?

Brauchst Du das wirklich ? In Batman waren die Flaggen vielzu hoch platziert, damit die durch eine Interaktion eines Spielers[ als Batman verkleidet ] ueberhaupt beinflusst/"manipuliert" haetten werden koennen.

Ich verstehe unter Physik, wenn man ein Spiel als Beispiel nehmen muss :

Crayon Deluxe oder Canon. Dort intepretiere ich das Geschehen bzw. die Reaktionen des "Spiels, der Objekte" als Physik. Alles andere sind Effekte, die man wie gesagt auch schoen faken kann. Pfftt....darauf kann ich verzichten und wie gesagt solange man eine Option einfuegt die dies deaktiviert, dann bin ich froh.

Sacred 2 ist auch so ein Kandidat. Angeblich braucht man ja dafuer eine PPU im System, damit der billige Loop von Blaetter physiklasch der Norm entsprechend dargestellt werden.
Das dieser Effekt leider mit der Zeit auf die N...geht,darauf sind die nicht gekommen. Ne...wie gesagt, entweder zeigen die was der Name implziert[Physik] oder machen es weiter wie die Pioniere es gemacht haben.

Ob das ganze Mathematisch, Physikalisch korrekt dargestellt wird, spielte damals und auch heute keine wichtige Rolle. Momentan sehe ich das gazne Physik mehr als Eye Candy, damit wird wenigstens ein wenig oder je nach Spiel[Dark Void] sehr geworben damit der inexistente, oede, wiederholende Content[fehlende Innovation?] in heutigen Spielen schoen unter dem Teppich gekehrt wird. Leider werde sich ein paar Lost Souls das Spiel kaufen und sich spaeter frage : WTF

Wenn das so weiter geht, ist eine PPU im System fast schon vorprogrammiert. Damit das zukuenftige Tetris 4D auch Backstein oder Zement richtig waehrend des Falls berechnen kann, benoetigt man ja eine zweite GPU, wenn man sogar Gasbeton physikalsich kalkulieren will, benoetigt man mind. eine GTX[z.B 2/3/480].....jm4c

Gast
2010-01-22, 15:56:02
Es ist eben generell Effektphysik.
Richtigen Einfluss auf das Spielgeschehen kann es nicht nehmen.
Deshalb würde ich es eher als Grafikeffekt sehen denn als Physikeffekt.

Pino_Caliente
2010-01-22, 16:02:53
----nden, wenn eine Firma in neue Ideen und Techniken investiert. Wenn man das verbieten wollte, dann hätte man Stillstand.

Technischer Fortschritt wird (im Konsumentenbereich) alleine durch Konkurenz vorangetrieben! Macht Euch das mal bitte bewusst.

Nvidia hat nichts neues erfunden, sondern wierder einmal eingekauft. Warum sehen wir es nicht so, glaubt Ihr wirklich das die Ageia Karte nur ansatzweise ein Konkurrent fuer Nvidias eigene Entwicklung haette sein koennen ?

Gast
2010-01-22, 16:04:57
Es wird nichts gestrichen, etwas mehr hinzugefügt. Wenn du also mehr Effekte über die CPU berechnet haben willst, nerve deinen CPU Hersteller.

Komisch, dass die PhysX-Aushängeschilder ohne GPU-PhysX nichtmal an ein Max Payne rankommen, was die Darstellung von zB. Einschußlöchern angeht.
Vielleicht hast du sogar Recht und es wird gar nichts enfernt, da es nie hinzugefügt wurde. Das ist natürlich ein Armutszeugnis für den Entwickler und eine wirtschaftlich hochgradig unkluge Entscheidung! Die Frage ist, wer diese Entscheidung fällt, der Entwickler oder der NV-Mann, den es gratis zum Physikkomplettpaket mit dazu gab?
Was haben CPU-Hersteller mit schlecht programmierten Spielen zu tun? Seit Jahren laufen doch annehmbare Physiksimulationen auf CPUs, die alles in den Schatten stellen, was bisher unter TWIMTBP-Logo mit dickem PhysX-Aufkleber geliefert wurde. Plötzlich soll man für ein Feature, welches man seit etlichen Jahren genießen durfte extra eine NV-Karte oder besser gleich mehrere kaufen?!

Warum ruckelt der Mist auf non-PhysX-Hardware, während CPU und GPU quasi vor sich hin idlen?

Bucklew
2010-01-22, 16:30:48
Seit Jahren laufen doch annehmbare Physiksimulationen auf CPUs, die alles in den Schatten stellen, was bisher unter TWIMTBP-Logo mit dickem PhysX-Aufkleber geliefert wurde.
z.B.?

deekey777
2010-01-22, 16:57:46
Das sagt der richtige.

Der Richtige meinte, dass ein Graphics Engineer, der nicht in der Lage ist, alle relevanten Grafikkarten in Reichweite zu haben, gefeuert gehört.

Aber ist schon interessant: Als Huddy etwas bei Hexus geschrieben hat (wegen der GTC), gab es schnell eine Reaktion von Borsti. Worauf wiederum eine Antwort von Huddy gab. Zusätzlich haben die Roten Khmer den Emailverkehr mit Rocksteady veröffentlicht. Da sieht ziemlich schnell, wer mehr Wahrheit sagte.
So oder so: Die Statements von Nvidia aus dem Jahr 2008, wo es keine PhysX auf GPU gab, haben deutlich mehr Gewicht als mehrere Aussagen von AMD.

kmf
2010-01-22, 17:03:49
Nvidia hat nichts neues erfunden, sondern wierder einmal eingekauft. Warum sehen wir es nicht so, glaubt Ihr wirklich das die Ageia Karte nur ansatzweise ein Konkurrent fuer Nvidias eigene Entwicklung haette sein koennen ?Was ist verwerflich dran, eine Technologie einzukaufen und sie dann weiterzuentwickeln? Die R300-Technologie ist damals auch nicht nur auf ATis eigenem Mist gewachsen, sondern auch durch Zukauf. Denn entworfen hat den Grafikprozessor damals das von ArtX übernommene Design-Team.

Gast
2010-01-22, 17:05:56
Was ist verwerflich dran, eine Technologie einzukaufen und sie dann weiterzuentwickeln? Die R300-Technologie ist damals auch nicht nur auf ATis eigenem Mist gewachsen, sondern auch durch Zukauf. Denn entworfen hat den Grafikprozessor damals das von ArtX übernommene Design-Team.

nVidia hat Cuda erfunden und somit GPGPU über die GPU salonfähig. Ageia wurde nur zugekauft, weil man eine Physik-Engine benötigte. Das man keine Physik-Engine aus dem Nichts erfinden kann und wollte, sollte anhand des Aufwendes doch ersichtlich sein.

Gast
2010-01-22, 18:26:29
Nvidia hat nur eine Möglichkeit gesucht AMD eins auszuwischen.
Mit dem properitären PhysX kann man AMD aus jedem PhysX-Spiel prima ausschließen. Das bietet dann ein tolles Kaufargument.

Gast
2010-01-22, 18:31:19
Nvidia hat nur eine Möglichkeit gesucht AMD eins auszuwischen.
Mit dem properitären PhysX kann man AMD aus jedem PhysX-Spiel prima ausschließen. Das bietet dann ein tolles Kaufargument.

Aha. Beide arbeiteten mit Havok zusammen, um Physik-berechnungen über die GPU zu ermöglichen. Zeigten sogar beide im Jahr 2006 Demos.
nVidia hat diesen Bereich einfach wesentlich stärker wahrgenommen. Mit dem Kauf von Ageia hatten sie alles zusammen, um "HavokFX" zu realisieren: Eine Schnittstelle und eine Physik-Engine.
Das AMD nichts auf die Reihe bekommt, kann wohl kaum die Schuld von nVidia sein. AMD hat seit 2008 eine Koorperation mit Havok. Seit knapp 10 Monaten können sie Havok über OpenCL laufen lassen. Bis heute gibt es weder die Demos, noch Spieleankündigungen.
AMD ist ganz alleine schuld. Wer nichts unternimmt, kann auch nichts erreichen.

Gast
2010-01-22, 19:00:26
Wer nichts unternimmt, kann auch nichts erreichen.

Was will man denn erreichen? Kaum kommt mal ein Game wie Dark Void und zeigt ansatzweise mehr optische Gimmicks als gewöhnlich, bricht die Framerate massiv ein auf jetzigen NV-Karten. Ganz großes Kino und wieder mal ein Feature, welches hauptsächlich marketingtechnisch instrumentalisiert wird. Es ist vollkommen nutzlos, wenn es nicht performant läuft. Setzt man den Wind um PhysX in Relation zu dessen Nutzen, kann man sich eigentlich nur noch an den Kopf greifen. ATI tut gut daran, diesen Versuchsballon nicht mit aufzublasen.
Vielleicht hat Fermi genug überflüssige Power, um unglaublich ineffiziente Effektphysik darzustellen, wer weiß...

Gast
2010-01-22, 19:06:00
Was will man denn erreichen?.

Beantworte du mir die Frage. Wenn GPU-PhysX also aus AMD's Sicht sinnlos wäre, wieso beschwert man sich dann in einem öffentlichen Interview? Es kann ihnen doch egal sein, wie nVidia GPU-PhysX promotet und wie sie ihre eigene Physik-Middleware optimieren.
Ich sehe kein grund mich über etwas zu heulen, dass ich als unnötig betrachte. Gleichzeitig sollte man sich als CPU hersteller aber bitte nicht hinstellen und nVidia vorwerfen, dass man Physik über die CPU einschränke. Denn nVidia bietet nur eine Software an, die andere lizenzieren müssen.
AMD ist also der Hauptverursacher der Misiere, da sie weder eine eigene Physiks-Engine haben (wie Intel), noch andere Entwickler jener unterstützten besser die CPU zu nutzen.
Wir haben also Intel mit CPUs und nVidia mit GPUs, die beide Physik vorrantreiben. Und dann haben wir noch AMD: Die haben CPU und GPU und machen nichts. Wie man das gut finden kann? Wohl nur, wenn man Produkte von dieser Firma gekauft hat.