PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 2 3 4 5 [6] 7 8 9

Gast
2010-01-22, 21:01:14
Mir ist neu, dass ein Grafikchip-Produzent eine Physik-Engine haben muss.

Nvidia missbraucht PhysX um die Konkurrenz auszuboten nicht AMD, wie man jetzt die Schuld bei AMD suchen kann ist mir schleierhaft.
Wie gesagt mittlerweile werden billigste Partikeleffekte auf die GPU mit PhysX ausgelagert nur damit man mehr Grafikkarten von NV kauft.
Früher sahen Spiele ohne PhysX jedenfalls nicht so sterill aus.

Gast
2010-01-22, 21:06:05
Würde HW-PhysX nur das Spielgeschehen bereichern anstatt es einfach komplett auszulagern würde es schon besser sein.

Nvidia ist eben ein Kackladen voller Rückrad-loser Lügenhugos. Die Bescheißen so wie sie es schon seit Jahren machen.

Gast
2010-01-23, 02:01:32
@Vorredner :-)

Leider nehmen das viele nicht wahr. Genau genommen hat NVIDIA bis auf die GF2er Reihe und natürlich die 8er Reihe nicht wirklich was auf die Reihe bekommen. Entweder haben sie gekauft, oder eher durchschnittliche Produkte abgeliefert. Sei es Mr. 32 Bit Farbtiefe, aber zu langsam dafür TNT/TNT2 (dafür Top Marketing), oder Föhn 5erFX oder Flimmerkiste 7er Reihe (vom 2D Bild bis zur 6er Reihe will ich gar nicht erst anfagen .. Grausig.

Neben den technischen Unzulänglichkeiten lässt NVIDIA aber auch keine Möglichkeit aus den eigenen Kunden einen vors Knie zu pfeffern (aktuell: keine Nutzung von NVIDIA Karten (womit man deren Kunde ist) als dedizierte Physx Karte bei gleichzeitiger Nutzung von Karten anderer Hersteller, ebenso kein Support mehr für die Ageia Karten). Was kommt als Nächstes? Beschneidung der Einheiten via Treiber, falls die 360er auf einmal doch zu schnell sein sollte und der 380er Konkurrenz macht; sicher kann man sich nicht mehr sein.

Daher bin ich doch sehr erstaunt, dass NVIDIA immer noch einen so guten Ruf mit sich herumträgt Hier spielt wohl eher die Generation eine Rolle, die neben NVIDIA eben nur noch ATI kennt (ich nenne sie mal Nachwuchsgeneration :-) ) .

Was NVIDIA für eine Show um PhysX veranstaltet empfinde ich als ziemlich peinlich. Da werden Spiele künstlich Beschnitten, nur damit´s auf deren Hardware besser aussieht, gleichwohl schon 2001 Effekte dieser Art von der damaligen Hardware dargestellt werden konnte, ganz ohne PhysX und sogar ohne NVIDIA. Sie zerstören mit der Förderung dieser "Insellösung" den ohnehin nicht mehr ganz stabilen PC-Spielemarkt.
Ich könnte es verstehen, sofern man tatsächlich einen Nutzen SEHEN würde, doch man sieht nur (ohne PhysX) eine künstliche Beschneidung einiger aktuellen und kommenden Spiele, ergo Technik von Vorgestern.


Viele Grüße

y33H@
2010-01-23, 02:04:44
Ähem, die Konsolen-Versionen sehen aus wie die PC-Version ohne GPU-PhyX. Künstlich beschnitten wird hier nicht, nur hinzugefügt.

Gast
2010-01-23, 02:20:28
@y33H@

Was teilweise stimmen mag, aber sicherlich nicht für alle Titel gilt. Eher ein weiteres Argument, warum NVIDIA aufhören sollte, auf Insellösungen zu setzten, damit vielleicht nicht nur portiert, sondern endlich wieder für den PC direkt entwickelt wird (natürlich nur ein Grund)

Viele Grüße

Gast
2010-01-23, 10:10:14
Ähem, die Konsolen-Versionen sehen aus wie die PC-Version ohne GPU-PhyX. Künstlich beschnitten wird hier nicht, nur hinzugefügt.

Bei Batman sollen durchaus einige statische Nebeleffekte aus der PC-Version entfernt worden sein. Nicht überall aber an einigen Stellen doch sichtbar.

Wie war das in StarWars mit dem Imperator und dem tosenden Applaus?

Gast
2010-01-23, 10:44:26
@Vorredner :-)
Leider nehmen das viele nicht wahr. Genau genommen hat NVIDIA bis auf die GF2er Reihe und natürlich die 8er Reihe nicht wirklich was auf die Reihe bekommen. Entweder haben sie gekauft, oder eher durchschnittliche Produkte abgeliefert. Sei es Mr. 32 Bit Farbtiefe, aber zu langsam dafür TNT/TNT2 (dafür Top Marketing), oder Föhn 5erFX oder Flimmerkiste 7er Reihe (vom 2D Bild bis zur 6er Reihe will ich gar nicht erst anfagen .. Grausig.

Man, soviel Unwissenheit. Hoffentlich wird das im weiteren Postingverlauf nicht noch mehr.
Vergessen die GF1 mit T&L Unit. Oder die GF3 mit hardware Pixel- und Vertexshader, sowie MSAA und 8xTri-AF. Oder der NV40 mit SM3.0 und HDR. Aber was soll's, wenn Gast sagt, dann hat Gast recht.

]quote]
Neben den technischen Unzulänglichkeiten lässt NVIDIA aber auch keine Möglichkeit aus den eigenen Kunden einen vors Knie zu pfeffern (aktuell: keine Nutzung von NVIDIA Karten (womit man deren Kunde ist) als dedizierte Physx Karte bei gleichzeitiger Nutzung von Karten anderer Hersteller, ebenso kein Support mehr für die Ageia Karten). Was kommt als Nächstes? Beschneidung der Einheiten via Treiber, falls die 360er auf einmal doch zu schnell sein sollte und der 380er Konkurrenz macht; sicher kann man sich nicht mehr sein.[/Quote]

Dann geh doch zu AMD: Da hast die ganze Freiheit.
Schade, die Unwissenheit wird noch schlimmer. Hätte ich nicht gedacht.


Daher bin ich doch sehr erstaunt, dass NVIDIA immer noch einen so guten Ruf mit sich herumträgt Hier spielt wohl eher die Generation eine Rolle, die neben NVIDIA eben nur noch ATI kennt (ich nenne sie mal Nachwuchsgeneration :-) ) .

Äh, eher bei AMD. Die Leute kaufen immer noch deren Hardware, trotzdem sie von AMD verarscht und im Stich gelassen werden. Ich denke ja, dass AMD Käufer wie SM - Kunden sind: Sie geben Geld aus, um sich dann schlecht behandeln lassen zu können. Anders ist es nicht zu verstehen, dass man mit sovielen Gängelungen sich zufrieden gibt.


Was NVIDIA für eine Show um PhysX veranstaltet empfinde ich als ziemlich peinlich. Da werden Spiele künstlich Beschnitten, nur damit´s auf deren Hardware besser aussieht, gleichwohl schon 2001 Effekte dieser Art von der damaligen Hardware dargestellt werden konnte, ganz ohne PhysX und sogar ohne NVIDIA. Sie zerstören mit der Förderung dieser "Insellösung" den ohnehin nicht mehr ganz stabilen PC-Spielemarkt.

Schade, immer noch Unwissenheit.
Du hast recht: nVidia zerstört das PC-Gaming, weil sie etwas für das PC-Gaming machen. Diese Bastarde. Da ist AMD einen doch viel liebers. Mit AMD hätten wir kein Ingame-AA in Batman gehabt. Und erst recht kein PhysX. So müssen heute Spiele aussehen. Dann kauft man doch gerne die PC Version. Was bieten da schon Konsolen?


Ich könnte es verstehen, sofern man tatsächlich einen Nutzen SEHEN würde, doch man sieht nur (ohne PhysX) eine künstliche Beschneidung einiger aktuellen und kommenden Spiele, ergo Technik von Vorgestern.


Das macht keinen Sinn. PhysX beschneidet nichts. Wo nichts da war, kann auch nichts beschnitten werden.
Aber zum Glück gibt es AMD. Die bringen einen DX11 in Dirt 2. Zwar gibt es keinen DX10 und somit müssen 99% der Grafikkartenbesitzer mit einem schlechteren DX9 Pfad vorlieb nehmen, aber hey: Das ist AMD. Die sind gut.

N0Thing
2010-01-23, 12:58:06
Du hast recht: nVidia zerstört das PC-Gaming, weil sie etwas für das PC-Gaming machen. Diese Bastarde. Da ist AMD einen doch viel liebers. Mit AMD hätten wir kein Ingame-AA in Batman gehabt. Und erst recht kein PhysX. So müssen heute Spiele aussehen. Dann kauft man doch gerne die PC Version. Was bieten da schon Konsolen?



Aber zum Glück gibt es AMD. Die bringen einen DX11 in Dirt 2. Zwar gibt es keinen DX10 und somit müssen 99% der Grafikkartenbesitzer mit einem schlechteren DX9 Pfad vorlieb nehmen, aber hey: Das ist AMD. Die sind gut.


Ja, echt blöd, daß Dirt2 auf dem PC nicht nur als DX9 Spiel kommt. Da hätten alle Besitzer einer DX10 Grafikkarte nämlich viel mehr profitiert, als von einem DX11-Pfad. :freak:

Entweder ist zusätzlicher Inhalt und visuelle Verbesserung in Spielen sowohl von AMD als auch von Nvidia gut, oder es ist in beiden Fällen schlecht. Wenn es um die Sache geht, sollte man konsequent bleiben und nicht in einem Beitrag die eigene Meinung um 180° drehen. Oder geht es gar nicht um die Sache, sondern nur darum die eigene Lieblingsfirma zu promoten?

Den Hinweis, daß auch Nvidia mit Fermi von einem DX11-Pfad in Dirt2 profitiert führe ich mal nicht weiter aus, es soll hier ja um PhysX gehen. Und PhysX ist ein Versuch von Nvidia, die eigenen Grafikkarten für den Kunden interessanter zu machen. Das ist prima, absolut legitim und es gibt keinen Grund für Nvidia AMD an PhysX zu beteiligen. In den Himmel loben braucht man GPU-PhysX aber auch nicht, dafür sind die Effekte in den Spielen nicht deutlich besser, als Effekte die man aus anderen Spielen ohne GPU-PhysX kennt und es gibt kaum Spiele, die überhaupt Effekte auf der GPU berechnen.
Das ist aber nicht schlimm, mich würde es ehrlich gesagt wundern, wenn die PhysX-API in Zukunft bei auf GPUs berechneter Physik wirklich eine Rolle spielen wird. Aber ich bin froh, daß Nvidia die Technik so aggressiv vermarktet, sie haben damit sicherlich mit dazu beigetragen, daß irgendwann ein allgemeiner Standard für Hardware-Physik kommen wird und daß es überhaupt schon Spiele gibt, die diese Technik jetzt schon nutzen.

Gast
2010-01-23, 13:05:21
Ja, echt blöd, daß Dirt2 auf dem PC nicht nur als DX9 Spiel kommt. Da hätten alle Besitzer einer DX10 Grafikkarte nämlich viel mehr profitiert, als von einem DX11-Pfad. :freak:

So wie in allen GPU-PhysX spielen. Aber warum sollte man auch gleiches gleich behandeln, wenn wir doch gleiches komplett unterschiedlich bewerten können.


Entweder ist zusätzlicher Inhalt und visuelle Verbesserung in Spielen sowohl von AMD als auch von Nvidia gut, oder es ist in beiden Fällen schlecht. Wenn es um die Sache geht, sollte man konsequent bleiben und nicht in einem Beitrag die eigene Meinung um 180° drehen. Oder geht es gar nicht um die Sache, sondern nur darum die eigene Lieblingsfirma zu promoten?

Erkennst du kein Sarkasmus?


Den Hinweis, daß auch Nvidia mit Fermi von einem DX11-Pfad in Dirt2 profitiert führe ich mal nicht weiter aus, es soll hier ja um PhysX gehen.


Und das bringt einem DX10 Besitzer genau was? Wächst seiner DX10 Karte plötzlich DX11 Flügel, mit denen er die neuen Welten erkunden kann?
Fermi unterstützt auch PhysX. Können sich ja dann alle AMD user kaufen, um dann endlich in den Genuss von GPU-PhysX zu kommen. Genau das selbe, komplett unlogisches Argument.

Gast
2010-01-23, 14:09:28
Hallo auch,...
also da es hier um physX geht, sollten doch langsam mal die dx 9 - dx11 geschichten rausgelassen werde - zumal es bei dem ja um einen STANDART geht welcher NICHT vom GPU HERSTELLER abhaengig ist. wobei physx ja von EINEM Hersteller angeboten und nicht auf weitere uebertragbar ist - ob diese nun wollen oder nicht.
danke ;)

Gast
2010-01-23, 14:11:29
Zumal es jedem DX10-Kartenbesitzer freisteht, den DX11-Pfad zu nutzen...halt ohne die "neuen" Funktionen

Gast
2010-01-23, 15:01:43
@ Quote Gast :-)

/quote

Man, soviel Unwissenheit. Hoffentlich wird das im weiteren Postingverlauf nicht noch mehr.
Vergessen die GF1 mit T&L Unit. Oder die GF3 mit hardware Pixel- und Vertexshader, sowie MSAA und 8xTri-AF. Oder der NV40 mit SM3.0 und HDR. Aber was soll's, wenn Gast sagt, dann hat Gast recht.

]quote]
Neben den technischen Unzulänglichkeiten lässt NVIDIA aber auch keine Möglichkeit aus den eigenen Kunden einen vors Knie zu pfeffern (aktuell: keine Nutzung von NVIDIA Karten (womit man deren Kunde ist) als dedizierte Physx Karte bei gleichzeitiger Nutzung von Karten anderer Hersteller, ebenso kein Support mehr für die Ageia Karten). Was kommt als Nächstes? Beschneidung der Einheiten via Treiber, falls die 360er auf einmal doch zu schnell sein sollte und der 380er Konkurrenz macht; sicher kann man sich nicht mehr sein.[/Quote]

Dann geh doch zu AMD: Da hast die ganze Freiheit.
Schade, die Unwissenheit wird noch schlimmer. Hätte ich nicht gedacht.
/quote

Ich frag mich grad wer der Unwissende ist. Ich hatte mir erst überlegt die achso dollen Features, welche Teilweise gar nicht von NVIDIA entwickelt wurden, Deines Post zu widerlegen, jedoch wird mir nach dem Lesen und dem Anpreisen vom MSAA als "Feature" und Entwicklungsmeilenstein rech deutlich klar, das Du zum Einen gar nicht diskutieren möchtest und zum Anderen noch nicht einmal über das notwendige Wissen dazu verfügst, sondern vielmehr nur das Marketinggewäsch wiedergibst und auf Flamen bedacht bist.

Du passt also genau in meine "Mit dem kann und werde ich bestimmt nicht diskutieren" Schublade :-) *aufmach eintüt und weg*

Viele Grüße

Gast
2010-01-23, 15:36:52
Ich frag mich grad wer der Unwissende ist. Ich hatte mir erst überlegt die achso dollen Features, welche Teilweise gar nicht von NVIDIA entwickelt wurden, Deines Post zu widerlegen, jedoch wird mir nach dem Lesen und dem Anpreisen vom MSAA als "Feature" und Entwicklungsmeilenstein rech deutlich klar, das Du zum Einen gar nicht diskutieren möchtest und zum Anderen noch nicht einmal über das notwendige Wissen dazu verfügst, sondern vielmehr nur das Marketinggewäsch wiedergibst und auf Flamen bedacht bist.

Soviele Wörter, aber kein Inhalt. Soso, MSAA ist also unbedeutend. Wieviele Jahre du in deinem Keller ohne AA spielen musstest. Scheint wohl einige Schäden verursacht zu haben.


Du passt also genau in meine "Mit dem kann und werde ich bestimmt nicht diskutieren" Schublade :-) *aufmach eintüt und weg*
Viele Grüße

Nene, das ist die falsche Schublade. Ich bin in der "Mist, der hat soviel mehr Ahnung als ich. Deswegen werde ich einfach ein bisschen Spammen und unsinn schreiben. Am Ende haue ich dann raus, dass ich garnicht diskutieren will."


Zumal es jedem DX10-Kartenbesitzer freisteht, den DX11-Pfad zu nutzen...halt ohne die "neuen" Funktionen

Irgendwie, dass das garnicht geht. Aber wenigsten man sagt etwas, gell?

Gast
2010-01-23, 19:53:25
So so...So so....So so

Fühle dich beleidigt!

Wenn Nvidia nicht hinterher kommt wird irgendetwas Neues aus dem Ärmel gezogen. Jetzt ist es nun einmal PhysX, aber ich bin mir ziemlich sicher, dass ihr genauso gejubelt hättet wenn Nvidia eine in der Grafikkarte integrierte Kaffeemaschine präsentieren würde.

Aber bitte, lasst Nvidia alle Computerspiele manipulieren bis wir alle abhängig sind wenn wir den neuesten Blockbuster spielen wollen.

Gast
2010-01-23, 19:59:04
So so...So so....So so

Fühle dich beleidigt!

Wenn Nvidia nicht hinterher kommt wird irgendetwas Neues aus dem Ärmel gezogen. Jetzt ist es nun einmal PhysX, aber ich bin mir ziemlich sicher, dass ihr genauso gejubelt hättet wenn Nvidia eine in der Grafikkarte integrierte Kaffeemaschine präsentieren würde.

Aber bitte, lasst Nvidia alle Computerspiele manipulieren bis wir alle abhängig sind wenn wir den neuesten Blockbuster spielen wollen.

Schon wieder nichts sinnvolles in deinem Beitrag. Spielst du eigentlich immer noch ohne AA?
Abgesehen davon hat nVidia Ageia im Februar 2008 gekauft und brachte PhysX irgendwann im Sommer dann groß raus mit den GT200 Karten.
Komisch ist eigentlich nur, dass die AMD Fanboys mehr Wind um PhysX machen als die, die es auch nutzen können. Ist wohl der typische Neidkomplex.

IVN
2010-01-23, 20:37:25
So so...So so....So so

Fühle dich beleidigt!

Wenn Nvidia nicht hinterher kommt wird irgendetwas Neues aus dem Ärmel gezogen. Jetzt ist es nun einmal PhysX, aber ich bin mir ziemlich sicher, dass ihr genauso gejubelt hättet wenn Nvidia eine in der Grafikkarte integrierte Kaffeemaschine präsentieren würde.

Aber bitte, lasst Nvidia alle Computerspiele manipulieren bis wir alle abhängig sind wenn wir den neuesten Blockbuster spielen wollen.
Man kann Spiel auch ohne PhysX spielen, also übertreib mal nicht.

Hier gehts nicht so sehr um PhysX an sich, sondern um die Tatsache, das du als loyaler ATIaner, mit ner Radeon in der Kiste, dieses Feature nicht nutzen kannst. Dabei ist es egal ob das Feature wichtig, oder wie diese "Effektphysik" Namens PhysX, fast bedeutungslos ist (es sind doch nur n'Paar zusätzliche Grafikeffekt ---> get over it!). Ich bin mir sicher, hätte Nvidia irgendwelche bedeutungslosen Desktop-Wallpaper zum Download angeboten, die aber nur auf Nv-GPUs laufen, würdest du, und noch einige hier, den gleichen Theater machen.

PhsyX = 1 Sack Reis der in China umgefallen ist. Und besonders in dieser Anfangszeit sehen diese Effekte eher schrottig aus, ganz und gar nicht wie aus einem Guss. Und das vermutlich weil die Devs darauf bedacht sind, auch dem letzten Blinden klar zu machen, das ihr neuestes Fließbandspiel "dieses neue, coole Feature unter der Haube hat." IMO ist das nur zum Gähnen. Und umso lächerlicher ist dann die Reaktion seitens euch ATIanern.

Gast
2010-01-24, 12:16:23
Ihr denkt wohl noch wirklich, dass es bei dieser "bedeutungslosen" Effektphysik bleibt.
Mit jedem neuen PhysX-Spiel steckt Nvidia ab wie weit sie gehen können, ich wette das bald Spiele kommen die ohne Geforce nicht mal im Ansatz flüssig laufen werden. Dann ist es aber zu spät.

PhysX ist jetzt schon die am weitesten verbreitete Physik-Engine im Spielemarkt, ein Umstand der euch mal zu denken geben sollte.
Zudem werden es immer mehr Spieleproduzenten die PhysX als Sorgloslösung nutzen.
Eine Engine die HW-Physik auf Konkurenzkarten immer ausschließen wird... ergo Physik-Engines über OpenCL und Direct Compute werden die nächsten Jahre zumindest, stark unterdrückt werden. Allein Bullet könnte was werden, aber auch da kann man nativ über Cuda gehen. Ich denke gegen Ende wird
alles Andere aus der Engine verbannt, da AMD nicht so spendabel ist, was die Hardware angeht.
Es erwartet uns ein weiteres Glide, allerdings diesmal mit sehr durchwachsenem optischen Vorteil und Qualität.

Übrigens ich bin kein ATIaner ich habe ein Geforce die prima PhysX kann in meinem Gaming-Rechner.

Malabolge
2010-01-24, 13:42:04
Einige hier sollten mal ihre "greenbacks" wieder ins reallife befördern.Sonnenlicht tut entgegen
anders lautender Gerüchte (von Vampiren ?) gut.

So führt man eben keine "Standards" ein, die Mehrwert bringen sollen.
Wie s richtig gemacht wird hat damals 3Dfx mit der VooDoo gezeigt.Da gabs kein Hickhack ob die
2D-Karte ne S3,Matrox, aus hintertupfingen kam. So bringt man neuerungen wirklich an den Mann(Frau).
Die brachten ihr Feature und brachten es an ALLE.

Ich stelle mir grad vor, 3Dfx hätte auf Matrox als 2D bestanden.Wo wären wir da heute in
Sachen 3D hmm ? 15 x-beliebige "Standards" zur gleichen Sache. Das hätte sich nie durchgesetzt.(zum Glück!)

Oder 3Dfx hätte im Treiber Test auf 3D-Benutzung mit anderen API gemacht.



Nvidias Problem liegt darin das sie mit PhysX die "anderen" Übertrumfen und "besiegen" wollen und nicht "Anführen" wollen.
Nvidia ist an der Marktmacht mehr interessiert , als an der "technologischen" Führung oder dem Nutzen für die User.
Das ist ihr gutes "Recht",und die Fans mögen damit konform sein.
Dann aber bitte "sabotiert" dann nicht andere!
Sachen wie Vendor-ID-Test vor AA, Vendor-ID-Test in Treibern, Kastrieren von Leistung im eigenen Feature,
das hat nix mehr mit Gaming zu tun.

Gast
2010-01-24, 13:57:22
Einige hier sollten mal ihre "greenbacks" wieder ins reallife befördern.Sonnenlicht tut entgegen
anders lautender Gerüchte (von Vampiren ?) gut.

Wenn Postings mit solchem Unsinn anfangen, wie werden sie wohl enden? Gucken wir mal:


So führt man eben keine "Standards" ein, die Mehrwert bringen sollen.
Wie s richtig gemacht wird hat damals 3Dfx mit der VooDoo gezeigt.Da gabs kein Hickhack ob die
2D-Karte ne S3,Matrox, aus hintertupfingen kam. So bringt man neuerungen wirklich an den Mann(Frau).
Die brachten ihr Feature und brachten es an ALLE.

Voodoo 1 und 2 waren reinrassige 3D Beschleuniger ohne einen 2 D Teil. Viel Spaß solch eine Karte in einem PC verwenden zu können, die über keine 2D Darstellungsmöglichkeiten verfügt. Und dann war da noch Glide - eine API, die nur auf Voodoo Karten nutzbar war.
Gut, das Posting scheint kaum wahre Informationen zu enthalten. Ob es besser wird? Wir werden es sehen.


Ich stelle mir grad vor, 3Dfx hätte auf Matrox als 2D bestanden.Wo wären wir da heute in
Sachen 3D hmm ? 15 x-beliebige "Standards" zur gleichen Sache. Das hätte sich nie durchgesetzt.(zum Glück!)
Oder 3Dfx hätte im Treiber Test auf 3D-Benutzung mit anderen API gemacht.

Ich stelle mir gerade vor, dass nVidia nur PhysX-Karten verkaufen würde. Dann könnte ich mir einen ähnliche Voodoo-Vergleich auch anschließen.
Auch der nächste Teil ist nicht gerade von Qualität. Scheint also, dass es hier keine Hoffnung mehr gibt?


Nvidias Problem liegt darin das sie mit PhysX die "anderen" Übertrumfen und "besiegen" wollen und nicht "Anführen" wollen.
Nvidia ist an der Marktmacht mehr interessiert , als an der "technologischen" Führung oder dem Nutzen für die User.
Das ist ihr gutes "Recht",und die Fans mögen damit konform sein.
Dann aber bitte "sabotiert" dann nicht andere!

Aha. Gucken wir mal:


Sachen wie Vendor-ID-Test vor AA

Ingame-AA kommt von nVidia. Wie sie damit AMD sabotieren können, ist mir schleiferhaft. Somit empfindest du den Schutz vom geistigen Eigentum generell als "Sabotage".


, Vendor-ID-Test in Treibern,

Das ist ihr gutes Recht. Wenn jemand meint, dass er somit eine essentielle Kaufentscheidung verloren hat, sollte doch einfach nVidia verklagen oder AMD kaufen. Dann hat man zwar kein PhysX mehr, aber das scheint ja dann auch keine Bedeutung gehabt zu haben.


Kastrieren von Leistung im eigenen Feature,

Hä?


das hat nix mehr mit Gaming zu tun.

Stimmt. Besser ist AMD: Gaming ist, wenn AMD nichts macht.
Die Ironie von der Sache ist, dass AMD User sich wegen etwas aufregen, dass ihre Lieblingsfirma nie für ihre Kunden haben wollte.

Und was kam am Ende heraus? Ein Posting von einem User, der kein Wissen besitzt. Aber nun gut, heute ist Glide auch keine proprietäre Schnittstelle von 3dfx gewesen.

Gast
2010-01-24, 15:31:26
AMD macht schon was, wie man aber diese Wettbewerbsverzerrung seitens NV gutheißen kann versteh ich nicht. Nur weil sich NV unter dem Schatten von Intels Onboardverkrüppelungen verstecken kann, haben sie nichts von den Kartellrechthüttern zu befürchten.
Da kann man schön in den Markt eingreifen und Konkurenzprodukte inkompatibel machen.

Nur weil es theoretisch auch AMD machen könnte wird die Sache nicht besser. Stimmen tut das auch nicht, Ageia war mit ihrem Produkt relativ konkurenzlos. AMD könnte es mittlerweile auch nicht, auch wenn sie es wollten.
Die Frage ist, was wir davon hätten?

Gast
2010-01-24, 15:43:42
AMD macht schon was
Was denn?
Ingame AA jedenfalls nicht, das haben wir Nvidia zu verdanken, nicht AMD und nicht dem Spieleentwickler.

Gast
2010-01-24, 16:17:33
AMD macht schon was, wie man aber diese Wettbewerbsverzerrung seitens NV gutheißen kann versteh ich nicht.

Hätte nVidia keine Ingame-AA Implementierung geschrieben, gäbe es die Diskussion nicht. Wettbewerbsverzerrung entsteht also durch AMD, die nichts machen und dann fordern, dass das geisige Eigentum und Investitionen ihnen entgeldlich ebenfalls frei zugänglich zu machen sind.


Nur weil sich NV unter dem Schatten von Intels Onboardverkrüppelungen verstecken kann, haben sie nichts von den Kartellrechthüttern zu befürchten.
Da kann man schön in den Markt eingreifen und Konkurenzprodukte inkompatibel machen.

nVidia entwickelte für ihre Karten eine Ingame-AA Implementierung und sicherte diese ab. Konkurrenzprodukte sind davon nicht betroffen.


Die Frage ist, was wir davon hätten?

Die Frage lautet eher: Wieso unterstützen AMD Käufer diese Firma, die nichts für sie unternimmt?

deekey777
2010-01-24, 16:33:27
BLablabalbalablabalbalablabalablabalba

Aus dem GRAW2-Thread:
Die Ageia Island ist zwar voller Effekte, dafür aber grauenhaft langsam :(

Ansonsten sind in GRAW2 leider relativ wenige Effekte, die von PhysX selbst berechnet werden. Man merkt den Unterschied nicht sofort. Und höhere Leistung bekommt man ebenfalls nicht.

Da ist also das Problem an sich und ich frage die PhysX Nutzer unter euch (und auch die Anderen) Wo liegt der Nutzen, wenn man es a) kaum sieht, b) nicht (oder nur negativ) spürt?

Habt ihr in GRAW2 die PhysX bemerkt, bzw vermisst?

Durch eine kleine Spielerei kriegt man die zusätzlichen PPU-Effekte auch ohne diese hin.
Laut Taskmanager ändert sich die Auslastung insoweit, dass auch ein weiterer Kern um die 70% ausgelastet wird (PhysX auf High; ohne die zusätzlichen Effekte wird ein Kern über 70%, die restlichen drei unter 50%, das Spiel ist für DC-Systeme gemacht). Die zusätzlichen Effekte sieht man sofort, die Gräser und Bäume sind in Bewegung (die Gräser bewegen sich ähnlich bescheuert wie in Stalker SoC), dann kommt Staub usw.
Die Performance bricht ein, aber jetzt die Frage: Wird das Spiel automatisch eingebremst? Besser gefragt: Wie performt das Spiel heute mit den zusätzlichen Effekten auf entsprechender Hardware?

Bucklew
2010-01-24, 21:56:01
So führt man eben keine "Standards" ein, die Mehrwert bringen sollen.
Wie s richtig gemacht wird hat damals 3Dfx mit der VooDoo gezeigt.Da gabs kein Hickhack ob die
2D-Karte ne S3,Matrox, aus hintertupfingen kam. So bringt man neuerungen wirklich an den Mann(Frau).
Die brachten ihr Feature und brachten es an ALLE.
Tja und jetzt sag mir bitte eine Nicht-3dfx-Karte, die jemals Glide nutzen konnte. Und dann sag mir bitte, wie man damals ein Glidespiel auf einer Konkurrenz 3D-Karte spielen konnte.

Komisch, 3dfx hat genau das gemacht, was Nvidia heute macht. Nur bei 3dfx war es "richtig gemacht" - muss man nicht verstehen, oder?

StefanV
2010-01-24, 22:04:48
Tja und jetzt sag mir bitte eine Nicht-3dfx-Karte, die jemals Glide nutzen konnte. Und dann sag mir bitte, wie man damals ein Glidespiel auf einer Konkurrenz 3D-Karte spielen konnte.
Mit Zeckensacks Glide Wrapper ;) (http://www.zeckensack.de/glide/)

IVN
2010-01-24, 22:09:35
Mit Zeckensacks Glide Wrapper ;) (http://www.zeckensack.de/glide/)
Heheheheh. In 10 Jahren wird es wahrscheinlich irgendeinen Wrapper, von irgendwelchem Forumsuser, für PhysX geben. Nur wird zu dieser Zeit PhysX genau so Geschichte sein, wie Glide heute.

Gast
2010-01-25, 00:23:48
Glide hat nicht so grundsätzlich andere Renderpfade ausgeschlossen. Da es recht nah an OpenGL war gab es öfter auch die Möglichkeit per OpenGL an das gleiche Spiel zu bringen.
PhysX mit Havoc und Co. zu mischen wird arg schwer

Coda
2010-01-25, 00:26:20
Da es recht nah an OpenGL war
War es nicht.

Heheheheh. In 10 Jahren wird es wahrscheinlich irgendeinen Wrapper, von irgendwelchem Forumsuser, für PhysX geben. Nur wird zu dieser Zeit PhysX genau so Geschichte sein, wie Glide heute.
Ganz bestimmt nicht. Ich sag's jetzt zum tausendsten Mal; PhysX ist KEINE API, sondern eine Middleware.

Wenn dann müsste man einen CUDA-Wrapper schreiben.

mapel110
2010-01-25, 00:35:58
http://www.youtube.com/watch?gl=DE&feature=player_embedded&v=AtC0lpKKE38
Structure Procedural System Trailer

/edit
Oh, ist ja schon älter. Hatte nur die 23 gelesen. :ugly: Dennoch beeindruckend. Fehlt nur ein Spiel mit der Technik.

Gast
2010-01-25, 00:44:06
Verdammt ist das geil. =)
Einerseits die riesige Stadt mit all den Räumen.
Andererseits die Zerstörungsmöglichkeit.

Warum gibts nur kein Spiel das wenigstens eins umsetzt? ;(

Exxtreme
2010-01-25, 01:06:27
Warum gibts nur kein Spiel das wenigstens eins umsetzt? ;(
Solange sich lineare Simpelshooter wie Moorhuhn Warfare 2 millionenfach verkaufen, gibt es keinen Grund derartige Welten zu bauen. Ein Pferd springt nur so hoch wie es muss.

DrFreaK666
2010-01-25, 06:08:29
Solange sich lineare Simpelshooter wie Moorhuhn Warfare 2 millionenfach verkaufen, gibt es keinen Grund derartige Welten zu bauen. Ein Pferd springt nur so hoch wie es muss.

GTA IV hat sich auch millionenfach verkauft ;)

boxleitnerb
2010-01-25, 06:54:28
Im Prinzip beeindruckend, aber die Stadt wird doch nach ein paar Minuten langweilig, weil alles gleich aussieht.

Gast
2010-01-25, 09:59:46
Tja und jetzt sag mir bitte eine Nicht-3dfx-Karte, die jemals Glide nutzen konnte. Und dann sag mir bitte, wie man damals ein Glidespiel auf einer Konkurrenz 3D-Karte spielen konnte.

Komisch, 3dfx hat genau das gemacht, was Nvidia heute macht. Nur bei 3dfx war es "richtig gemacht" - muss man nicht verstehen, oder?

Nun 3D-Fx hat aber nicht D3D "sabotiert" ! Oder verhindert das zusätzliche Sachen nicht mehr laufen ? Hat 3D-Fx das super Feature "TnL" ausmanövriert ?


Wie man Glidespiele unter Konkurrenzkarten spielen konnte ? man benutzte den D3D-Pad ! Oder zeige mir bitte ein GLide-Only Spiel von Damals !


Nice to ba a Preiß , Higher to be a Bayer , Gottes schönste Gabe : Der Schwabe

Gast
2010-01-25, 10:52:57
Glide-only Spiele gab es schon, wenn man den Software-Renderer ausklammert. Allerdings war das immer ein freiwilliges Zusatzangebot des Spieleherstellers und nur zur Anfangszeit üblich als es keine echte konkurenz gab. 3dfx ist auch nie zu einen Spielehersteller gegangen und irgendwelche Sachen aus dem Spiel ausgebaut. Glide-Spiele hatten auf den anderen Renderpfaden theoretisch die gleichen Effekte und stellten den gleichen Content dar.

Bucklew
2010-01-25, 11:09:25
Mit Zeckensacks Glide Wrapper ;) (http://www.zeckensack.de/glide/)
Der erst Jahre nach 3dfx erschien.

Nun 3D-Fx hat aber nicht D3D "sabotiert" ! Oder verhindert das zusätzliche Sachen nicht mehr laufen ? Hat 3D-Fx das super Feature "TnL" ausmanövriert ?
Und wo sabotiert Nvidai eine andere Physikengine? Dafür, dass ATI es nicht schafft was vergleichbares zu schaffen, kann ja nun Nvidia nichts.

Wie man Glidespiele unter Konkurrenzkarten spielen konnte ? man benutzte den D3D-Pad ! Oder zeige mir bitte ein GLide-Only Spiel von Damals !
Es gab damals einen Haufen Spiele mit Wahl zwischen Glide oder Softwarerendering. Noch Fragen? Und davon gibt es mehr als genug, letztens noch Spec Ops auf nem alten Win-rechner gemacht, ohne Glide-Wrapper selbst auf einem erst Jahre später erscheinenden Athlon unspielbar mit Software.

Gast
2010-01-25, 11:19:35
Und wo sabotiert Nvidai eine andere Physikengine? Dafür, dass ATI es nicht schafft was vergleichbares zu schaffen, kann ja nun Nvidia nichts.


Falsche Analogie. Was früher OpenGL und D3D ist, ist heute OpenCL und DC. beides von nVidia monate vor AMD in den normalen Treiber bis runter zum G80 unterstützt.
Und zu T&L: 3Dfx hat es nichtmal in den VSA-100 eingebaut. Soviel zur "Unterstützung". Selbst AMD und andere kleinere Hersteller haben den Nutzen erkannt.

Bucklew
2010-01-25, 11:27:22
Falsche Analogie. Was früher OpenGL und D3D ist, ist heute OpenCL und DC. beides von nVidia monate vor AMD in den normalen Treiber bis runter zum G80 unterstützt.
Und zu T&L: 3Dfx hat es nichtmal in den VSA-100 eingebaut. Soviel zur "Unterstützung". Selbst AMD und andere kleinere Hersteller haben den Nutzen erkannt.
Richtig. AMD schreit rum, dass sie offene Standards unterstützen und NVidia tut es einfach Monate vorher ;D

Gast
2010-01-25, 11:41:56
Physikengine? Dafür, dass ATI es nicht schafft was vergleichbares zu schaffen, kann ja nun Nvidia nichts.

Und was wäre dann?
Dann könnten die Kidz hier diskutieren was nun die Bessere ist und Spiele hätten mal die Eine mal die Andere implementiert.
Das wäre doch Suuper!

Gast
2010-01-25, 11:45:32
Und was wäre dann?
Dann könnten die Kidz hier diskutieren was nun die Bessere ist und Spiele hätten mal die Eine mal die Andere implementiert.
Das wäre doch Suuper!

Wer nichts macht, ändert nichts. Wie AMD's heulen den AMD Kunden helfen soll, wissen wohl nur die AMD Kunden selber. Bis heute sehe ich nicht, dass AMD etwas für GPU-Physik getan hat.
Statt also nVidia für ihre Investition in diesem Bereich zu loben, werden sie kritisiert. Verrückte Welt. Lob für den Nichtstuer, Kritik für den Innovator.

Bucklew
2010-01-25, 14:21:13
Und was wäre dann?
Dann könnten die Kidz hier diskutieren was nun die Bessere ist und Spiele hätten mal die Eine mal die Andere implementiert.
Das wäre doch Suuper!
Also GPU-Physik für niemanden?

mapel110
2010-01-25, 14:23:26
GTA IV hat sich auch millionenfach verkauft ;)
Ja, ich hoffe, dass Mafia2 technisch noch deutlich einen draufsetzt. Aber in jedes Haus wird man auch da nicht gehen können.

Gast
2010-01-25, 16:43:40
Richtig. AMD schreit rum, dass sie offene Standards unterstützen und NVidia tut es einfach Monate vorher ;D

Und unterdrückt diese indem sie ihren eigenen Kramm zu den Entwicklern tragen.

Bucklew
2010-01-25, 20:19:57
Und unterdrückt diese indem sie ihren eigenen Kramm zu den Entwicklern tragen.
Nö.

PulsarS
2010-01-25, 21:40:53
Also GPU-Physik für niemanden?
Schon mal was von Compute Shadern (DX11) oder OpenCL gehört?
Damit geht GPU-Physik und zwar für ATI und Nvidia.

Wenn wir wirklich wollen, dass sich in Sachen GPU-Physik etwas mehr bewegt, dann brauchen wir einen Standard, der von allen unterstützt wird.
Das ist wohl klar, oder?

Grestorn
2010-01-25, 21:44:57
Es wird wohl einen PhysX Solver für OpenCL geben, da bin ich mir ziemlich sicher. Die Frage ist nur wann. Aber die Kunden (= Spieleentwickler) werden sicher entsprechenden Druck aufbauen.

Im Moment verdient sich nVidia ihren Innovations und Investitions-Bonus vollkommen zurecht.

Bucklew
2010-01-25, 21:51:49
Schon mal was von Compute Shadern (DX11) oder OpenCL gehört?
Damit geht GPU-Physik und zwar für ATI und Nvidia.
Und wo waren diese Schnittstellen Mitte 2008?

deekey777
2010-01-25, 21:58:22
Und wo waren diese Schnittstellen Mitte 2008?
Supereinwand. Echt super.

Bucklew
2010-01-25, 22:01:47
Supereinwand. Echt super.
Wie soll man denn bei der Einführung von PhysX Schnittstellen nutzen, die es damals gar nicht gab?

deekey777
2010-01-25, 22:11:12
Wie soll man denn bei der Einführung von PhysX Schnittstellen nutzen, die es damals gar nicht gab?

2008 hätte Nvidia locker ein Brook+/IL-Backend für Radeons schreiben können. Man braucht keine gemeinsame API, um beide IHVs zu unterstützen.

Bucklew
2010-01-25, 22:18:41
2008 hätte Nvidia locker ein Brook+/IL-Backend für Radeons schreiben können. Man braucht keine gemeinsame API, um beide IHVs zu unterstützen.
Ähm, und warum sollte jetzt Nvidia ein Backend für eine Konkurrenz-Grafikkarte programmieren?

deekey777
2010-01-25, 22:29:56
Ähm, und warum sollte jetzt Nvidia ein Backend für eine Konkurrenz-Grafikkarte programmieren?
2008 ist für dich jetzt?
Falsche Analogie. Was früher OpenGL und D3D ist, ist heute OpenCL und DC. beides von nVidia monate vor AMD in den normalen Treiber bis runter zum G80 unterstützt.
...
Interessant: Nvidia brachte Monate vor AMD OpenCL in normalen Treibern, obwohl AMD - abgesehen von Apple - das erste Unternehmen war, das nicht nur einen OpenCL-Treiber, sondern auch das entsprechende SDK veröffentlichte. Kurze Zeit später auch für GPUs.
Und was DirectCompute angeht: Ja, Nvidia war paar Wochen schneller da. Und weiter? AMD lieferte nicht nur Hardware mit CS5-Unterstützung, sondern hat es geschafft, dass kurz nacheinander auch die entsprechenden Spiele den Markt erreichen (Battleforge und STALKER CoP sind AMD gesponserte Spiele). Was kann Nvidia vorweisen? Außer den SDK-Samples (die nur auf Nvidia-Systemen laufen wollen), gar nichts.

Und damit dir die Galle aus der Nase läuft: Es war Nvidia, das mit 195er ForceWare sich an AMDs OpenCL-Implementierung anpassen musste. Und wenn wir schon dabei sind: Mit installiertem Stream SDK 2.0 laufen die OpenCL-Anwendungen auf allen System, die mindestens einen SSE3-Prozessor haben.

Bucklew
2010-01-25, 22:42:18
2008 ist für dich jetzt?
Nein, das jetzt ist auf deine Argumentation bezogen, keine zeitliche Einsortierung.

Gast
2010-01-25, 22:42:53
Es wird wohl einen PhysX Solver für OpenCL geben, da bin ich mir ziemlich sicher. Die Frage ist nur wann. Aber die Kunden (= Spieleentwickler) werden sicher entsprechenden Druck aufbauen.

Im Moment verdient sich nVidia ihren Innovations und Investitions-Bonus vollkommen zurecht.

Sag uns einen sinnigen Grund warum das so kommen muss.
Ich denke nicht, dass das passiert solange es noch ernsthafte Konkurrenz gibt.

Bucklew
2010-01-25, 23:33:18
Interessant: Nvidia brachte Monate vor AMD OpenCL in normalen Treibern, obwohl AMD - abgesehen von Apple - das erste Unternehmen war, das nicht nur einen OpenCL-Treiber, sondern auch das entsprechende SDK veröffentlichte. Kurze Zeit später auch für GPUs.
Aja?

http://en.wikipedia.org/wiki/OpenCL#Implementation

Also anders gesagt:
Nvidia hat vor einem Jahr bereits OpenCL auf der GPU gezeigt, während AMD noch auf der CPU rumbastelte. Im September letzten Jahres gab es dann den ersten Finalen OpenCL-Treiber/SDK, während AMD zwei Wochen später immer noch bei der Beta fest hing. Im November veröffentlichte Nvidia dann schon einen Treiber/SDL gemäß OpenCL 1.0, AMD kann erst einen Monat später, allerdings NUR für RV8*-Karten, der Support für RV7*-Karten ist noch Beta.

Aber ich weiß, ist einfach ne unverschämtheit von Nvidia doch keinen vernünftigen OpenCL-Port für x86 anzubieten, das ist doch ein Fall fürs Kartellamt ;D

deekey777
2010-01-26, 00:00:44
Aja?

http://en.wikipedia.org/wiki/OpenCL#Implementation

Also anders gesagt:
Nvidia hat vor einem Jahr bereits OpenCL auf der GPU gezeigt, während AMD noch auf der CPU rumbastelte.
Du solltest schon lesen, was du verlinkst:
On August 5, 2009, AMD unveiled the first development tools for its OpenCL platform as part of its ATI Stream SDK v2.0 Beta Program
Woher ich das weiß?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7456705#post7456705
Aber man kann dir das nicht übel nehmen: Du bist erst vor wenigen Tagen aus dem PCGH-Forum rausgeworfen worden und hattest noch keine Möglichkeit, sich die einzelnen Threads durchzuschauen.

http://www.businesswire.com/portal/site/google/?ndmViewId=news_view&newsId=20090804006502&newsLang=en
Natürlich koterst du gleich, dass Nvidia OpenCL schon vorher für Entwickler geöffnet hat, aber das war kein Beta-Test für jeden. Und so einen Test hatte AMD auch.
Im September letzten Jahres gab es dann den ersten Finalen OpenCL-Treiber/SDK, während AMD zwei Wochen später immer noch bei der Beta fest hing.
Echt? Also am dritten September gab es einen fertigen OpenCL-Treiber. Und am 30. September war dann auch die GPU-Version fertig.
Übrigens:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7562274#post7562274

Im November veröffentlichte Nvidia dann schon einen Treiber/SDL gemäß OpenCL 1.0, AMD kann erst einen Monat später, allerdings NUR für RV8*-Karten, der Support für RV7*-Karten ist noch Beta.
Die Unterstützung für RV770-Karten ist nicht beta. Also erzähl keine Märchen.

Aber ich weiß, ist einfach ne unverschämtheit von Nvidia doch keinen vernünftigen OpenCL-Port für x86 anzubieten, das ist doch ein Fall fürs Kartellamt ;D
Du weißt schon, wie OpenCL funktioniert? Ein OpenCL-Programm läuft nicht nur entweder oder, sondern auf einer CPU und einer GPU. Beispiele? Bitte sehr: http://davibu.interfree.it/opencl/smallptgpu2/smallptGPU2.html
Das Wort "OpenCL-Port" übersehe ich mal.

Grestorn
2010-01-26, 01:28:51
Sag uns einen sinnigen Grund warum das so kommen muss.

Die PhysX Kunden werden darauf bestehen. Sonst wird man PhysX einfach nicht verwenden, und das ist das größere Übel für nVidia.

Gast
2010-01-26, 04:19:39
Du weißt schon, wie OpenCL funktioniert? Ein OpenCL-Programm läuft nicht nur entweder oder, sondern auf einer CPU und einer GPU. Beispiele? Bitte sehr: http://davibu.interfree.it/opencl/smallptgpu2/smallptGPU2.html
Das Wort "OpenCL-Port" übersehe ich mal.
hab grad mal die windows binary angeworfen und hab das erste mal in meinem leben folgendes lesen müssen: "der anzeigentreiber wurde nach einem fehler wieder hergestellt." beim zweiten versuch ist mir die kiste dann komplett abgestürzt. sys 8800gts 512 @ 195.62

Bucklew
2010-01-26, 08:28:52
Du solltest schon lesen, was du verlinkst:

Woher ich das weiß?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7456705#post7456705
Aber man kann dir das nicht übel nehmen: Du bist erst vor wenigen Tagen aus dem PCGH-Forum rausgeworfen worden und hattest noch keine Möglichkeit, sich die einzelnen Threads durchzuschauen.

http://www.businesswire.com/portal/site/google/?ndmViewId=news_view&newsId=20090804006502&newsLang=en
Natürlich koterst du gleich, dass Nvidia OpenCL schon vorher für Entwickler geöffnet hat, aber das war kein Beta-Test für jeden. Und so einen Test hatte AMD auch.
Oh oh, sehr weit aus dem Fenster gelehnt - leider kommt dann jetzt der Fenstersturz.

Wenn wir hier über GPU-PhysX reden, reden wir natürlich auch über OpenCL für die GPU. Was bringt uns OpenCL auf der CPU, die nicht leistungsfähig genug ist? Leider war dieses Release nur für die x86-CPU, bei dieser Diskussion also im Endeffekt nicht relevant:
"AMD Delivers Industrys First OpenCL Software Development Platform for x86 processors"

Echt? Also am dritten September gab es einen fertigen OpenCL-Treiber. Und am 30. September war dann auch die GPU-Version fertig.
Übrigens:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7562274#post7562274
Die wirklich stabile Software für OpenCL 1.0 hat Nvidia am 26. November veröffentlicht, AMD erst am 21. Dezember. Die AMD-Software allerdings wie gesagt nur für die neusten Karten, der Support für die Karten der letzten Generation ist noch beta (s.u.) und alle älteren Karten werden gar nimmer unterstützt.

Die Unterstützung für RV770-Karten ist nicht beta. Also erzähl keine Märchen.
Tja, das schreibt ja nur Wikipedia:
"On December 21, 2009, AMD released the production version of the ATI Stream SDK 2.0,[23] which provides OpenCL 1.0 support for R800 GPUs and beta support for R700 GPUs."
Komischerweise schreibt das sogar AMD:
http://developer.amd.com/gpu/ATIStreamSDK/Pages/default.aspx
4890²
[...]
²Beta support
Mmmh....Märchen? Wohl eher die Fakten.

Du weißt schon, wie OpenCL funktioniert? Ein OpenCL-Programm läuft nicht nur entweder oder, sondern auf einer CPU und einer GPU. Beispiele? Bitte sehr: http://davibu.interfree.it/opencl/smallptgpu2/smallptGPU2.html
Das Wort "OpenCL-Port" übersehe ich mal.
OpenCL ist eine Middleware und soll relativ hardware-unabhängig Programme laufen lassen. Anders gesagt: Jeder Hersteller einer Hardwareplattform baut eine OpenCL-Schnittstelle für seine Hardware. Warum sollte Nvidia nun einen x86-Port machen, wenn sie keine x86-Hardware herstellen? Verlangen wir dann von Intel auch einen CUDA-Port?

Und abgesehen davon, was hat das jetzt mit dem Punkt zu tun, dass es bei der Veröffentlichtung von PhysX keine Standardschnittstelle für die GPU-Programmierung gab (zumindest nicht für den produktiven Einsatz)?

Gast
2010-01-26, 10:55:23
Die PhysX Kunden werden darauf bestehen. Sonst wird man PhysX einfach nicht verwenden, und das ist das größere Übel für nVidia.

Warum sollten sie denn darauf bestehen?
Die meisten Unternehmen setzen ausschließlich auf Nvidia als Partner und die meisten potentiellen Kunden haben eine Geforce im Rechner. Das man AMD-User übergehen kann und dennoch Erfolg haben kann sieht man schon allein an GTA4.
Außerdem hat AMD einen eher schlechten Ruf bei den Spielestudios, eine Vereinheitlichung der PC-Spielehardware käme der aktuellen Konsoloenmentalität entgegen. Mit Nvidia hat man hier einen Partner, der dies ebenfalls zu seinen Gunsten mit aller Macht voran treibt.

AMD/ATI ist kein Marketing-Ass, waren sie auch nie. Deren Technologieen konnten sich nie im Ansatz so gut durchsetzen wie es bei NV der Fall war. Obwohl auch NV so manchen Reinfall hatte. Ich denke deshalb nicht, dass sich PhysX so stark entwickelt hätte, wäre es damals von AMD eingekauft worden.

Gast
2010-01-26, 11:03:27
Warum wohl.
AMD bringt seine Sachen nicht vorran, sie warten das es von alleine was wird.

Nvidia setzt auf Zusammenarbeit, das schätzen die Studios. Damit sind nicht utopische Geldsummen, sondern schlicht Arbeitsstunden gemeint.

Darauf zu pochen, das Nvidia nur irgendwas tun sollte, um AMD Vorteile zu verschaffen ist illusorisch. AMD muss sich selbst darum kümmern. Dazu muss AMD kein Marketingass sein, sie müssen sich einfach mal bewegen.

Gast
2010-01-26, 11:06:48
Die wirklich stabile Software für OpenCL 1.0 hat Nvidia am 26. November veröffentlicht, AMD erst am 21. Dezember. Die AMD-Software allerdings wie gesagt nur für die neusten Karten, der Support für die Karten der letzten Generation ist noch beta (s.u.) und alle älteren Karten werden gar nimmer unterstützt.

Und was nützt das , wenn die Implementierung nicht Standardkonform ist?
Und die HD3K und früher werden nicht unterstützt, weil Sie kein LDS haben, das sie aber laut OpenCL Spezifikation haben müssen.

Gast
2010-01-26, 11:09:15
Warum wohl.
AMD bringt seine Sachen nicht vorran, sie warten das es von alleine was wird.

Nvidia setzt auf Zusammenarbeit, das schätzen die Studios. Damit sind nicht utopische Geldsummen, sondern schlicht Arbeitsstunden gemeint.

Darauf zu pochen, das Nvidia nur irgendwas tun sollte, um AMD Vorteile zu verschaffen ist illusorisch. AMD muss sich selbst darum kümmern. Dazu muss AMD kein Marketingass sein, sie müssen sich einfach mal bewegen.

Sagt mal seid Ihr wirklich so naiv, dass Ihr glaubt dass Arbeitsstunden von hochqualifizierten Arbeitskräften nichts kosten.
Warum sind es in diesem Forum immer die ATI/NV Threads in den immer Menschen posten müssen, die keine Ahnung haben?

deekey777
2010-01-26, 11:11:07
Und was nützt das , wenn die Implementierung nicht Standardkonform ist?
Und die HD3K und früher werden nicht unterstützt, weil Sie kein LDS haben, das sie aber laut OpenCL Spezifikation haben müssen.
Und die kleinen HD4000 haben auch kein LDS und sind trotzdem OpenCL-fähig.
Das LDS der HD4000-Serie entspricht nicht dem OpenCL-Memory-Modell und können nicht benutzt werden. Trodtzdem sind sie OpenCL-konform.

Lange Rede, kurzer Sinn: Es kommt auf die mit dem RV770 eingeführte Compute-Shader-Fähigkeit an und nicht auf LDS.

Gast
2010-01-26, 11:13:24
Sagt mal seid Ihr wirklich so naiv, dass Ihr glaubt dass Arbeitsstunden von hochqualifizierten Arbeitskräften nichts kosten.
Warum sind es in diesem Forum immer die ATI/NV Threads in den immer Menschen posten müssen, die keine Ahnung haben?
AMD hat keine Mitarbeiter oder Geld für Mitarbeiter?

Wer designt die Radeons und schreibt die Treiber dazu? Was passiert mit den Einnahmen aus verkauften GPUs?

Gast
2010-01-26, 11:22:23
AMD hat keine Mitarbeiter oder Geld für Mitarbeiter?

Wer designt die Radeons und schreibt die Treiber dazu? Was passiert mit den Einnahmen aus verkauften GPUs?

Hallo?
Man braucht zusätzliche Mitarbeiter oder schreiben die Treiberentwickler die Treiber auf dem PDA während Sie irgendwo auf der Welt Spieleentwickler unterstützen.

Die einnahmen gehen wohl hauptsächlich in das aktuelle R&D für zukünftige Produkte was sonst?

Bucklew
2010-01-26, 11:25:26
Und was nützt das , wenn die Implementierung nicht Standardkonform ist?
Welche?

Und die HD3K und früher werden nicht unterstützt, weil Sie kein LDS haben, das sie aber laut OpenCL Spezifikation haben müssen.
Spielt ja keine Rolle, entscheidend ist, dass die alten Karten nicht unterstützt werden, die Nvidia dagegen schon. Warum, wieso, weshalb ist doch im Grunde egal, für den Käufer ist es blöd.

Gast
2010-01-26, 11:26:37
Hallo, hat Nvidia einen Geldbrunnen im Keller oder was?

Du tust so als ob, die die Kosten nicht tragen müssten.

Gast
2010-01-26, 11:30:47
Hallo?
Man braucht zusätzliche Mitarbeiter oder schreiben die Treiberentwickler die Treiber auf dem PDA während Sie irgendwo auf der Welt Spieleentwickler unterstützen.

Die einnahmen gehen wohl hauptsächlich in das aktuelle R&D für zukünftige Produkte was sonst?

Dann sollte AMD die Preise ihrer GPUs erhöhen, um mehr Einnahmen zu haben. Das zusätzliche Geld können sie dann in bessere Spieleunterstützung und vermehrte Innovationen setzen.
nVidia z.B. unterstützt komplett 3D Stereo mit eigener Software und Brille. AMD gliedert es auf zwei Fremdhersteller aus. Was bringt es also AMD Kunden weniger für ihre Hardware zu bezahlen, wenn es am Ende zu wenig war?`Geiz ist nicht immer geil.

Gast
2010-01-26, 11:34:03
Welche?


Spielt ja keine Rolle, entscheidend ist, dass die alten Karten nicht unterstützt werden, die Nvidia dagegen schon. Warum, wieso, weshalb ist doch im Grunde egal, für den Käufer ist es blöd.

Die von NV sie mussten Sie nachträglich ändern und AMDs anpassen.

Wenn Gründe egal sind warum hast du dann hier einen Account?
Um in Grafikkarten Threads NV zu verteidigen?

Ein normaler Kunde weis nicht was OpenCL ist und wird noch lange warten müssen, bis er davon profitieren kann.

Gast
2010-01-26, 11:39:02
Dann sollte AMD die Preise ihrer GPUs erhöhen, um mehr Einnahmen zu haben. Das zusätzliche Geld können sie dann in bessere Spieleunterstützung und vermehrte Innovationen setzen.
nVidia z.B. unterstützt komplett 3D Stereo mit eigener Software und Brille. AMD gliedert es auf zwei Fremdhersteller aus. Was bringt es also AMD Kunden weniger für ihre Hardware zu bezahlen, wenn es am Ende zu wenig war?`Geiz ist nicht immer geil.

Ist es denn besser wenn der Kunde schon beim Kauf einer Hardware alle Optimierungen und Gadgets mit bezahlen muss, obwohl er mit Ihnen nichts anfangen kann und vielleicht noch nicht mal spielen will?

Vielleicht sollte man auch eine Raubkopiereabgabe in Grafikkartenpreis hineinrechnen um die Spielehersteller zu subventionieren.

Bucklew
2010-01-26, 11:39:08
Die von NV sie mussten Sie nachträglich ändern und AMDs anpassen.
Link?

Wenn Gründe egal sind warum hast du dann hier einen Account?
Um in Grafikkarten Threads NV zu verteidigen?

Ein normaler Kunde weis nicht was OpenCL ist und wird noch lange warten müssen, bis er davon profitieren kann.
Ein normaler kunde interessiert sich nicht dafür, warum die Karte nicht läuft. Der sieht nur, dass die ATI nicht geht und die Nvidia von seinem Kollegen, die gleich alt oder sogar älter ist nicht. Das prägt natürlich die nächste Kaufentscheidung.

Grestorn
2010-01-26, 11:41:25
Warum sollten sie denn darauf bestehen?

Spätestens dann, wenn die Physik elementares Spielbestandteil wird.

Die meisten Unternehmen setzen ausschließlich auf Nvidia als Partner und die meisten potentiellen Kunden haben eine Geforce im Rechner. Das man AMD-User übergehen kann und dennoch Erfolg haben kann sieht man schon allein an GTA4.

Kling nach Verschwörungstheorie ...

Kein Spielehersteller wird absichtlich irgendeine ausreichend große Gruppe von Spielern übergehen.

Außerdem hat AMD einen eher schlechten Ruf bei den Spielestudios

Den haben sie sich selbst zuzuschreiben, mit problematischen Treibern (sonst hätten die Spiele nicht so oft Probleme) und dem schwachen Developersupport. Das ist nicht die Schuld von nVidia oder den Spieleherstellern.


AMD/ATI ist kein Marketing-Ass, waren sie auch nie. Deren Technologieen konnten sich nie im Ansatz so gut durchsetzen wie es bei NV der Fall war. Obwohl auch NV so manchen Reinfall hatte. Ich denke deshalb nicht, dass sich PhysX so stark entwickelt hätte, wäre es damals von AMD eingekauft worden.

Davon ist wohl auszugehen.

Gast
2010-01-26, 11:41:58
Link?


Ein normaler kunde interessiert sich nicht dafür, warum die Karte nicht läuft. Der sieht nur, dass die ATI nicht geht und die Nvidia von seinem Kollegen, die gleich alt oder sogar älter ist nicht. Das prägt natürlich die nächste Kaufentscheidung.

Und was lief zwischen November und Dezember nicht, weswegen NV riesige Vorteile im riesigen OpenCL Markt hatte?

Grestorn
2010-01-26, 11:43:11
Sagt mal seid Ihr wirklich so naiv, dass Ihr glaubt dass Arbeitsstunden von hochqualifizierten Arbeitskräften nichts kosten.
Warum sind es in diesem Forum immer die ATI/NV Threads in den immer Menschen posten müssen, die keine Ahnung haben?

Natürlich kosten die Arbeitsstunden viel Geld. Und das ist genau das, was nVidia investiert, teilweise um dafür zu sorgen, dass das Spiel gut auf ihrer Hardware läuft und zum Teil auch für das TWITMTBP Logo.

Grestorn
2010-01-26, 11:45:05
Die einnahmen gehen wohl hauptsächlich in das aktuelle R&D für zukünftige Produkte was sonst?

Weswegen das R&D Budget von ATI ja bekanntermaßen deutlich kleiner als das von nVidia ist...

Bei AMD muss das Geld, dass ATI einnimmt, wohl einfach komplett zum Gewinn des Gesamtkonzerns und damit der Shareholder beitragen. Wobei das dank der Billigpreis-Politik ja leider auch gar nicht so viel ist.

Grestorn
2010-01-26, 11:46:31
Ist es denn besser wenn der Kunde schon beim Kauf einer Hardware alle Optimierungen und Gadgets mit bezahlen muss, obwohl er mit Ihnen nichts anfangen kann und vielleicht noch nicht mal spielen will?

So funktioniert der Markt. Quersubvention von Features gibt es überall. Vom Fernseher über die Waschmaschine bis zum Auto.

Gast
2010-01-26, 11:47:55
Ist es denn besser wenn der Kunde schon beim Kauf einer Hardware alle Optimierungen und Gadgets mit bezahlen muss, obwohl er mit Ihnen nichts anfangen kann und vielleicht noch nicht mal spielen will?

Vielleicht sollte man auch eine Raubkopiereabgabe in Grafikkartenpreis hineinrechnen um die Spielehersteller zu subventionieren.

Dann kauft man das Produkt nicht.
Wer denkt, dass AMDÄs Strategie besser ist, sollte dann aber auch das dauernde Meckern unterlassen. Wer sich für billig entscheidet, sollte beim Meckern bitte dann auch geizig sein.

Gast
2010-01-26, 11:48:17
Weswegen das R&D Budget von ATI ja bekanntermaßen deutlich kleiner als das von nVidia ist...

Bei AMD muss das Geld, dass ATI einnimmt, wohl einfach komplett zum Gewinn des Gesamtkonzerns und damit der Shareholder beitragen. Wobei das dank der Billigpreis-Politik ja leider auch gar nicht so viel ist.

Wohl eher um die 1/4 Milliarde $ Verlust für die Fertigung auszugleichen (vor ATIC eher 6-700 Mio).

Gast
2010-01-26, 11:53:42
Dann kauft man das Produkt nicht.
Wer denkt, dass AMDÄs Strategie besser ist, sollte dann aber auch das dauernde Meckern unterlassen. Wer sich für billig entscheidet, sollte beim Meckern bitte dann auch geizig sein.

Ja eben und viele entscheiden sich ja auch für AMD.
Seit die Leistung wieder stimmt steigen auch die Marktanteile der Grafiksparte.
Gemecker wird doch hauptsächlich von NV Lüfterjungen, die zeigen wollen das NV viel besser ist.
Der Rest spart sich halt das Geld und hat dann eben keinen Rauch in spielen die schon Grafisch mies aussehen und dank PhysiX kaum in spielbare FPS-Bereiche kommen.

Grestorn
2010-01-26, 12:00:07
Gemecker wird doch hauptsächlich von NV Lüfterjungen, die zeigen wollen das NV viel besser ist.
Der Rest spart sich halt das Geld und hat dann eben keinen Rauch in spielen die schon Grafisch mies aussehen und dank PhysiX kaum in spielbare FPS-Bereiche kommen.

Fühlst Du Dich jetzt besser? Gut. Freut mich, dass Dein Ego jetzt etwas besser beinander ist, nachdem Du versuchst hast, auf das Ego anderer hier herumzutrampeln.

Da Du ja jetzt so viel besser drauf bist, kannst Du mir mal erklären, was da der Unterschied zu jeder beliebigen anderen technischen Maßnahme ist, die das Bild verbessert. Von denen nahezu alle auch von ATI angeboten werden. Auch diese können ja je nach verwendeter HW dazu führen, dass man kaum spielbare FPS mehr bekommt...

Gast
2010-01-26, 12:12:32
Fühlst Du Dich jetzt besser? Gut. Freut mich, dass Dein Ego jetzt etwas besser beinander ist, nachdem Du versuchst hast, auf das Ego anderer hier herumzutrampeln.

Da Du ja jetzt so viel besser drauf bist, kannst Du mir mal erklären, was da der Unterschied zu jeder beliebigen anderen technischen Maßnahme ist, die das Bild verbessert. Von denen nahezu alle auch von ATI angeboten werden. Auch diese können ja je nach verwendeter HW dazu führen, dass man kaum spielbare FPS mehr bekommt...

SSAA?
Wird das von AMD als technische Revolution gefeiert?
Sorgt AMD dafür Das es so groß wie möglich auf der Spielepackung beworben wird?
Kann es NV nicht? (wenn auch etwas anders implementiert und nicht durch den Standardtreiber zugänglich)
Außerdem könnte man noch die CFAA Filter nennen. Die können die FPS auch in den Keller bringen.
Was hat Das damit zu tun dass mit PhysiX bisher nur dazu verwendet wurde um massenhaft Partikel darzustellen, die zwar einen gewissen optischen Mehrwert haben, aber selbst Hardcorefanboys der Meinung sind dass es den Performancedrop nicht Wert ist.

Grestorn
2010-01-26, 13:08:20
SSAA?Ja, auch das. Aber auch Eyefinity passt in diese Kategorie.
Wird das von AMD als technische Revolution gefeiert?Nein, ist es ja auch nicht. Was hat das damit zu tun? Eyefinity wird jedenfalls groß beworben...

Was hat Das damit zu tun dass mit PhysiX bisher nur dazu verwendet wurde um massenhaft Partikel darzustellen, die zwar einen gewissen optischen Mehrwert haben, aber selbst Hardcorefanboys der Meinung sind dass es den Performancedrop nicht Wert ist.

Wenn Dir Rauch, Nebel, Plastikvorhänge (die sich beim Durchschreiten entsprechend bewegen) usw. nicht wichtig sind, dann kauf Dir halt keine GPU, die Physikberechnungen in Hardware beherrscht. Keiner zwingt Dich.

Genauso wenig wie mich jemand zwingt, eine Eyefinity-fähige Hardware zu kaufen. Obwohl das Erlebnis durchaus beeindruckend ist (siehe Gamestar Video). Mache ich deswegen Eyefinity schlecht oder schimpfe auf ATI?

Gast
2010-01-26, 13:17:48
Das stimmt Eyefinity fällt auch in die Kategorie.
Da scheint man auch zu glauben, dass Das den Gamermarkt revolutionieren wird, obwohl es nicht mehr als ein Gadget ist das in der Praxis sinnlos ist.

Beeindruckend ist es schon (solange man 3 Beamer benutzt um keine Ränder zu haben), aber eben in der Praxis völlig irrelevant.

Immerhin dürfte es wohl kaum viel gekostet haben, ein Bild über drei Anschlüsse auszugeben.
Es ist halt eine reine Marketingtechnik.

Gast
2010-01-26, 14:20:08
Weswegen das R&D Budget von ATI ja bekanntermaßen deutlich kleiner als das von nVidia ist...

Bei AMD muss das Geld, dass ATI einnimmt, wohl einfach komplett zum Gewinn des Gesamtkonzerns und damit der Shareholder beitragen. Wobei das dank der Billigpreis-Politik ja leider auch gar nicht so viel ist.


Billigpreis - ne 5870 für 400€ und mehr ? BILLIGPREIS ?
was wäre den kein Billigpreis? 600€ (wie G80 derivate am anfang)
800€ , ach komm was solls 1000€


Komm lass stecken, dein niedrieges Niveau ist nicht mehr zu stoppen.
Billiger ( wie passend) gehts nimmer

boxleitnerb
2010-01-26, 14:35:09
HD4000er Serie, hüstel. Die war schon sehr günstig. Jetzt kann man natürlich mehr verlangen, da keine Konkurrenz da ist.

Grestorn
2010-01-26, 14:40:07
Billigpreis - ne 5870 für 400€ und mehr ? BILLIGPREIS ?
was wäre den kein Billigpreis? 600€ (wie G80 derivate am anfang)
800€ , ach komm was solls 1000€

Komm lass stecken, dein niedrieges Niveau ist nicht mehr zu stoppen.
Billiger ( wie passend) gehts nimmer

Das ist doch der allgemeiner Tenor, ATI macht preis/leistungseffiziente Karten. Und das kommt nicht von mir. Dem gibt es auch nichts entgegenzusetzen, denn es stimmt. Und es ist ja auch nichts schlechtes. Am meisten Leistung für's Geld bekommt eigentlich schon immer bei ATI.

Selbst die HD5x ist für den aktuellen Leistungskönig (da sich nVidia verspätet) vergleichsweise günstig. nVidia würde wohl in der Tat eher €600 verlangen.

Das letzte Quäntchen Qualität und meist auch Geschwindigkeit bekommt man i.d.R. bei nVidia, muss es dann aber oft auch richtig teuer bezahlen.

Ich weiß nicht, wieso Du das gleich als Beleidigung sehen musst. Und was das Niveau angeht, haben wir zwei vollkommen unterschiedliche Vorstellungen :)

Gast
2010-01-26, 14:54:13
HD4000er Serie, hüstel. Die war schon sehr günstig. Jetzt kann man natürlich mehr verlangen, da keine Konkurrenz da ist.

Das sich ATI vom High-End-Markt verabschiedet hat ist kein Geheimnis. Die Chips sind ja auch deutlich kleiner als bei NV. NV verkauft um denselben Preis sogar weit größere GPUs und subventioniert sie, wie man an den Quartalszahlen sehr schön sieht, mit den Profi-Märkten quer. Ich frage mich wer hier "billige" Preise anbietet.

Grestorn
2010-01-26, 14:56:28
Das sich ATI vom High-End-Markt verabschiedet hat ist kein Geheimnis. Die Chips sind ja auch deutlich kleiner als bei NV. NV verkauft um denselben Preis sogar weit größere GPUs und subventioniert sie, wie man an den Quartalszahlen sehr schön sieht, mit den Profi-Märkten quer. Ich frage mich wer hier "billige" Preise anbietet.

Bist Du aber empfindlich auf das Wort "billig". Man könnte direkt meinen, man hätte Dich persönlich damit beleidigt... :)

Gast
2010-01-26, 14:56:45
Spätestens dann, wenn die Physik elementares Spielbestandteil wird.


Mit PhysX ist ohnehin nur Effektephysik möglich, damit kann es schon aus Prinzip keine "elementaren Spielbestandteile" enthalten.

Grestorn
2010-01-26, 14:57:23
Mit PhysX ist ohnehin nur Effektephysik möglich, damit kann es schon aus Prinzip keine "elementaren Spielbestandteile" enthalten.Woher weißt Du das?

Gast
2010-01-26, 14:59:32
Bist Du aber empfindlich auf das Wort "billig". Man könnte direkt meinen, man hätte Dich persönlich damit beleidigt... :)

Ich bin ein anderer Gast wie vorhin. Aber sowas sagt natürlich ausgerechnet Grestorn, der alles und jedes von NV seitenweise bis zuletzt verteidigt. Man könnte meinen das machst du nicht ohne Gegenleistung.

Gast
2010-01-26, 15:02:43
Woher weißt Du das?

Wurde hier im Forum schon öfter erwähnt, wird dir sicherlich jemand bestätigen.

Gast
2010-01-26, 15:10:32
Mit PhysX ist ohnehin nur Effektephysik möglich, damit kann es schon aus Prinzip keine "elementaren Spielbestandteile" enthalten.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7801731#post7801731

Wenn du daran keinen Spass hast ist das dein Problem.
Mir gefällts.

Nebenbei bemerkt, mir gefallen auch andere Grafikeffekte, die nicht elementar zum Spiel gehören.
Ich nehme mal an dir sind auch Grafikeffekte nicht sonderlich wichtig.

Gast
2010-01-26, 15:12:43
Vorallem frage ich mich, was eine Grafikkarte elementar zum Spiel beiträgt, wenn Grafik es nicht macht.

Bucklew
2010-01-26, 15:16:57
So funktioniert der Markt. Quersubvention von Features gibt es überall. Vom Fernseher über die Waschmaschine bis zum Auto.
Das ist keine Quersubvention. Man investiert Geld in ein Alleinstellungsmerkmal (vorher war es z.B. SLI), um sich von der Konkurrenz abzusetzen. Dafür soll man dann später mehr Karten für mehr Geld verkaufen können, einfach weil die Kunden einen Mehrwert erhalten und bereit sind dafür zu zahlen.

Quersubvention sind eher die teuren Profikarten.

Grestorn
2010-01-26, 15:24:38
Ich bin ein anderer Gast wie vorhin. Aber sowas sagt natürlich ausgerechnet Grestorn, der alles und jedes von NV seitenweise bis zuletzt verteidigt. Man könnte meinen das machst du nicht ohne Gegenleistung.

Merkwürdiges Bild hast Du von mir. Zeig mir doch mal, wo ich das mache. Ich glaube nicht, dass ich als besonders großer nV Fan bekannt bin.

Ich ziehe nV vor, aber eigentlich nur wegen Dingen, die andere als Kleinigkeit ansehen. Und die eventuell demnächst sogar behoben werden. Und spätestens dann kommt eine ATI Karte in mein System, und sei es nur damit ich, wie versprochen, nHancer für ATI anpassen kann.

Grestorn
2010-01-26, 15:27:18
Wurde hier im Forum schon öfter erwähnt, wird dir sicherlich jemand bestätigen.
Ich hab es hier schon öfter, aber der einzige Beleg ist doch bisher, dass bislang kein Spiel bekannt ist, wo die GPU-PhysX ein elementares Teil des Spielprinzip war. Das hat aber einen ganz anderen Grund, wie Dir sicher klar ist.

Dass Teile des Levels zerstört/verändert werden kann und dies mit CPU-PhysX realisiert wurde, gibt es doch m.W. durchaus.

Grestorn
2010-01-26, 15:29:33
Das ist keine Quersubvention. Man investiert Geld in ein Alleinstellungsmerkmal (vorher war es z.B. SLI), um sich von der Konkurrenz abzusetzen. Dafür soll man dann später mehr Karten für mehr Geld verkaufen können, einfach weil die Kunden einen Mehrwert erhalten und bereit sind dafür zu zahlen.Und Du meinst die Entwicklung eines Features in einem Auto wird nicht auch letztlich durch alle Kunden finanziert, auch wenn sie das Feature nicht bestellen oder nutzen?

Gast
2010-01-26, 15:33:07
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7801731#post7801731

Wenn du daran keinen Spass hast ist das dein Problem.
Mir gefällts.

Nebenbei bemerkt, mir gefallen auch andere Grafikeffekte, die nicht elementar zum Spiel gehören.
Ich nehme mal an dir sind auch Grafikeffekte nicht sonderlich wichtig.

Wo steht den dort dass es GPU PhysiX ist?
Abgesehen davon gibt es eben günstigere Methoden um grafische Effekte zu erzeugen als eine komplette Grafikkarte nur zum Rendern von Partikeln zu benutzen.

Gast
2010-01-26, 15:35:13
Wo steht den dort dass es GPU PhysiX ist?
Abgesehen davon gibt es eben günstigere Methoden um grafische Effekte zu erzeugen als eine komplette Grafikkarte nur zum Rendern von Partikeln zu benutzen.
Wo stand in dem Zitat etwas von CPU PhysX?

Du wirst es nicht schaffen die Stelle zu nennen.
Dann wäre da noch die Kleinigkeit, das es scheissegal ist ob GPU oder CPU PhysX.

Gast
2010-01-26, 15:37:19
Abgesehen davon gibt es eben günstigere Methoden um grafische Effekte zu erzeugen als eine komplette Grafikkarte nur zum Rendern von Partikeln zu benutzen.
Willst du die CPU zum Rendern verwenden?

Du bist witzig.
Oder du wolltest mir damit erkären das GPU PhysX zwangsläufig eine zweite Grafikkarte benötigt.
Ich muss dich da leider entäuschen, dem ist nicht so.
Ich kann übrigens auch andere Grafikeffekte mit nur einer Grafikkarte nutzen.

PulsarS
2010-01-26, 15:45:31
@Grestorn

lass Dich nicht veralbern. ;)

Natürlich kann man auch fürs Gameplay relevante Physik über die GPU berechnen.
Das wird auch die Zukunft sein, da eine Grafikkarte für solche Berechnungen viel besser geeignet ist als eine CPU.

Nur brauchen wir eben auch einen Standard, der von ATI und NV unterstützt wird, sonst wird nichts daraus, weil man sonst eine 2-Klassen-Gesellschaft beim Zocken hätte.
Vor allem beim Multiplayer stelle ich mir das ziemlich schwierig vor... :rolleyes:

Bucklew
2010-01-26, 15:50:54
Und Du meinst die Entwicklung eines Features in einem Auto wird nicht auch letztlich durch alle Kunden finanziert, auch wenn sie das Feature nicht bestellen oder nutzen?
Und wo kann ich die GeForce OHNE PhysX oder CUDA bestellen? ;)

Gast
2010-01-26, 15:53:16
Vor allem beim Multiplayer stelle ich mir das ziemlich schwierig vor... :rolleyes:
Mach dir keine Illusionen, selbst wenn es von heute an die Radeons unterstützen würden, würde es Jahre dauern bis es sowas auf breiter Basis online gibt.

Das Höchste der Gefühle sind online zwei drei Fässer die umkippen.
Die Internetleitungen werden über Nacht auch nicht gerade zig fach breiter.

Abgesehen davon, das die Vorstellung, das aufeinmal HD2 GPU PhysX berechnen können, absurd ist.
Oft propagiert wird es erst mit HD5 soweit sein, bzw und selbst der Zeitraum steht noch in den Sternen.
Jedenfalls wird es solange bei den drei Fässern bleiben.

Grestorn
2010-01-26, 15:58:53
Die Internetleitungen werden über Nacht auch nicht gerade zig fach breiter.

Mit der Bandbreite hat das gar nichts zu tun. Man muss ja nur die Eingangsparameter übertragen, das Ergebnis sollte dann an beiden Enden identisch berechnet werden.

Gast
2010-01-26, 16:09:20
Ok, ein paar Parameter sind nicht so schlimm viel.

Bleibt das Problem, der vorhanden Hardwarebasis und deren Leistung.

Gast
2010-01-26, 16:17:05
Ok, ein paar Parameter sind nicht so schlimm viel.

Bleibt das Problem, der vorhanden Hardwarebasis und deren Leistung.

Wohl einer der Hauptgründe, warum PhysiX im Augenblick konkurrenzlos ist.

Coda
2010-01-26, 16:50:05
Woher weißt Du das?
Man muss da differenzieren. Mit Software-PhysX kann man natürlich auch Physik machen die das Spielegeschehen beeinflusst.

Aber Hardware-PhysX ist tatsächlich alles Effektphysik.

Natürlich kann man auch fürs Gameplay relevante Physik über die GPU berechnen.
Nicht mit PhysX wie es derzeit aufgebaut hat. Das hat auch gute Gründe.

Gast
2010-01-26, 16:53:22
@Grestorn

lass Dich nicht veralbern. ;)

Natürlich kann man auch fürs Gameplay relevante Physik über die GPU berechnen.
Das wird auch die Zukunft sein, da eine Grafikkarte für solche Berechnungen viel besser geeignet ist als eine CPU.

Nur brauchen wir eben auch einen Standard, der von ATI und NV unterstützt wird, sonst wird nichts daraus, weil man sonst eine 2-Klassen-Gesellschaft beim Zocken hätte.
Vor allem beim Multiplayer stelle ich mir das ziemlich schwierig vor... :rolleyes:

Schön wie Fanboy immer einfach das behaupten was ihnen in den Kram passt ohne auch nur die geringste Ahnung zu haben.

Man muss da differenzieren. Mit Software-PhysX kann man natürlich auch Physik machen die das Spielegeschehen beeinflusst.

Aber Hardware-PhysX ist tatsächlich alles Effektphysik.

Ja, selbstredend bezog ich mich auf GPU-Physik.

deekey777
2010-01-26, 16:54:51
Man muss da differenzieren. Mit Software-PhysX kann man natürlich auch Physik machen die das Spielegeschehen beeinflusst.

Aber Hardware-PhysX ist tatsächlich alles Effektphysik.
Ist das ein Henne-Ei-Problem oder ein generelles?

Hörensagen:
Eigentlich stimmt das so nicht. In Mirror's Edge führten die zusätzlichen Glassplitter zu Schnittverletzungen der Hauptfigur. Wobei das eher "If - Then"-Lösung ist.

Grestorn
2010-01-26, 16:56:39
Aber Hardware-PhysX ist tatsächlich alles Effektphysik.Warum? Ich meine: Technisch. Das es politisch im Moment kaum sinnvoll ist, die Spielmechanik von GPU-Physik abhängig zu machen und somit ATI Anwendern ein anderes Spiel vorzusetzen, ist ja völlig klar.

deekey777
2010-01-26, 17:01:00
Warum? Ich meine: Technisch. Das es politisch im Moment kaum sinnvoll ist, die Spielmechanik von GPU-Physik abhängig zu machen und somit ATI Anwendern ein anderes Spiel vorzusetzen, ist ja völlig klar.
Was ist dann mit der Latenz? Die Physik muss im Vorraus berechnet werden, oder?

Grestorn
2010-01-26, 17:14:04
Was ist dann mit der Latenz? Die Physik muss im Vorraus berechnet werden, oder?

Ich sehe ich keinen prinzipiellen Unterschied zum CPU-PhysX. Die Reaktion der durch PhysX behandelten Objekte wird auf Grund von Einflüssen wie Bewegungen des Spielers oder anderen, gescriptete oder zufälligen Ereignissen berechnet. Das wirkt sich dann auf die folgenden Frames entsprechend aus.

Gast
2010-01-26, 17:33:44
Spätestens dann, wenn die Physik elementares Spielbestandteil wird.


Ist sie doch, jegliche Art von Kollisionsabfrage wird heute am liebsten auf externe Physik-Engines ausgelagert. Die Kollisionserkennung aller UE3-Spiele wird jedenfalls so realisiert.
Aber das ist wohl nicht das worauf du hinaus willst. Bei Cryostasis ist man erheblich in diese Richtung gegangen, allerdings denke ich eher, dass sich NV zurückhalten wird und erstmal nur reine Effektphysik pusht bis die Konkurenz aus dem Spiel ist.
Partikeleffekte sind auch wesentlich einfacher zu integrieren als komplexe funktionale Spielephysik.


Kling nach Verschwörungstheorie ...

Kein Spielehersteller wird absichtlich irgendeine ausreichend große Gruppe von Spielern übergehen.


Solange es Spiele gibt die beim Release "out of the box" nicht auf einer Radeon laufen muss es wohl solche Produzenten geben.
Außerdem ist es keine Verschwörungstheorie zu behaupten, dass AMD so einen schlechten Ruf bei den Spieleproduzenten hat.


Den haben sie sich selbst zuzuschreiben, mit problematischen Treibern (sonst hätten die Spiele nicht so oft Probleme) und dem schwachen Developersupport. Das ist nicht die Schuld von nVidia oder den Spieleherstellern.


Du weißt also genau, dass AMD immer Schuld ist? Ich denke die Entwickler sind zu faul die Eigenheiten der AMD-Karten zu berücksichtigen. Da wird einfach nach dem NV-SDK entwickelt und später mit ein paar Workarounds und windigen Basteleien versucht das Spiel auch auf AMD-Karten lauffähig zu bekommen.
Nebenbei wird fleißig am TWIMTBP-Programm teilgenommen welches als letztes Prüfinstrument und Qualitätskontrolle herhalten muss. Das da auf AMD nur rudimentär oder garnicht geachtet wird ist klar.

Ich denke dieser Ruf wird durch die Spiele-Unternehmen selbst geschürt.

Ich kann nur spekulieren, denke aber AMD wird ungleich heftiger die Bugs der Spiele über Workarounds in ihren Treibern bereinigen müssen.


Davon ist wohl auszugehen.

Tja...
AMD steht auf verlorenen Posten, in meinen Augen ein unfaires Spiel.
Ein AMD-PhysX hätte bei gleicher Qualität nie diese Akzeptanz erlangt wie es
NV hingekriegt hat.
Auch egal, jetzt haben wir unsere Unterdrückertechnologie, die für mindestens 5 Jahre sämtliche Physik in Spielen dominieren wird und die Konkurrenz unterdrückt.

Bucklew
2010-01-26, 17:51:09
Außerdem ist es keine Verschwörungstheorie zu behaupten, dass AMD so einen schlechten Ruf bei den Spieleproduzenten hat.
Wundert es einen nach den Rundumschlägen ala Batman?

Du weißt also genau, dass AMD immer Schuld ist? Ich denke die Entwickler sind zu faul die Eigenheiten der AMD-Karten zu berücksichtigen.
Bei Anno1404 definitiv ja. Das Spiel wurde erst mit einem neuen Catalyst-Treiber verbuggt in DX10 und irgendwann wurde das ganze von den Anno-Entwicklern gepatcht, weil AMD es wohl nicht hinbekommen hat.

Da wird einfach nach dem NV-SDK entwickelt und später mit ein paar Workarounds und windigen Basteleien versucht das Spiel auch auf AMD-Karten lauffähig zu bekommen.
Nebenbei wird fleißig am TWIMTBP-Programm teilgenommen welches als letztes Prüfinstrument und Qualitätskontrolle herhalten muss. Das da auf AMD nur rudimentär oder garnicht geachtet wird ist klar.
Nein, der Unterschied ist: Nvidia schickt halt einfach ein paar Entwickler zum Spieleentwickler und lässt diese direkt helfen, schon bei der sehr frühen Entstehung des Spiels. DirectX mag ja ein netter Standard sein, aber wirklich performante Software schreibt man auch dafür nur mit viel Hintergrundwissen - was sich eben auch gute Entwickler erstmal aneignen müssen. Kostet Zeit und Geld und wird daher ungern gemacht.

AMD macht halt gar nix und fixt erst dann die Bugs, wenn das Spiel schon draußen ist. Ob das nun der bessere Weg ist wage ich vorallem technisch und auch für den Kunden zu bezweifeln, da ist der Nvidiaweg deutlich besser. Ob er sich finanziell auszahlt weiß ich nicht, könnt ich mir aber auch sehr gut vorstellen.

Ein AMD-PhysX hätte bei gleicher Qualität nie diese Akzeptanz erlangt wie es NV hingekriegt hat.
AMD und auch ATI würden sowas niemals machen.

Grestorn
2010-01-26, 17:53:17
Ist sie doch, jegliche Art von Kollisionsabfrage wird heute am liebsten auf externe Physik-Engines ausgelagert. Die Kollisionserkennung aller UE3-Spiele wird jedenfalls so realisiert.Ich meinte GPU-PhysX, d.h. wenn man komplexe Physik berechnen will, die eine CPU überfordert und die sich aufs Spielgeschehen auswirkt.

Solange es Spiele gibt die beim Release "out of the box" nicht auf einer Radeon laufen muss es wohl solche Produzenten geben.
Außerdem ist es keine Verschwörungstheorie zu behaupten, dass AMD so einen schlechten Ruf bei den Spieleproduzenten hat.Oftmals sind Spiele offenbar mit alten Treibern getestet worden und laufen nur mit den neuesten nicht sauber. Oder andersrum: ATI hat einen Fix versprochen und auch dem Hersteller bereits zur Verfügung gestellt, aber den entsprechenden Treiber noch nicht veröffentlicht.

Wie ich schon sagte, absichtlich wird kein Hersteller etwa die Hälfte seiner potentiellen Kunden vergraulen wollen.

Dass AMD einen schlechteren Ruf hat, ist sicher keine Verschwörung sondern die klare Folge von ihrer Politik den Spieleherstellern gegenüber, bzw. eher dem extrem starken Engagement von nVidia.

Du weißt also genau, dass AMD immer Schuld ist? Ich denke die Entwickler sind zu faul die Eigenheiten der AMD-Karten zu berücksichtigen. Da wird einfach nach dem NV-SDK entwickelt und später mit ein paar Workarounds und windigen Basteleien versucht das Spiel auch auf AMD-Karten lauffähig zu bekommen.

WISSEN tu ich da gar nichts, das können nur die Menschen, die direkt involviert sind. Aber überleg doch selbst: Man steckt Abermillionen in ein Spiel. Da lässt man nicht absichtlich die Hälfte der Kunden außen vor, nur um ein paar zig tausend für Tests und Anpassungen zu sparen. So etwas kann aber durchaus die Folge von Zeitdruck sein - und das dürfte hier der Hauptgrund sein.

Nebenbei wird fleißig am TWIMTBP-Programm teilgenommen welches als letztes Prüfinstrument und Qualitätskontrolle herhalten muss. Das da auf AMD nur rudimentär oder garnicht geachtet wird ist klar.Es wäre in ATI's Hand entsprechendes Engagement bei den Spieleherstellern zu zeigen. nVidia erntet hier nur die Früchte ihrere Investition.

Ich kann nur spekulieren, denke aber AMD wird ungleich heftiger die Bugs der Spiele über Workarounds in ihren Treibern bereinigen müssen.Stimmt, das ist Spekulation. Ich glaube nicht daran, dass es so viele Bugs in den Spielen gibt, die vom Treiber umgangen werden müssen. Ich glaube viel mehr, dass es sehr viel mehr Bugs oder Merkwürdigkeiten in den Treibern (egal von wem) gibt, die im Spiel umgangen werden müssen.



Tja...
AMD steht auf verlorenen Posten, in meinen Augen ein unfaires Spiel.Vor kurzem hieß es doch noch aus der ATI Ecke, dass nVidia kurz vor dem Zusammenbruch stehen würde, weil sie gegen ATI nichts mehr aufzubieten hätten...

Genauso wenig glaube ich, dass es andersherum ATI zerbröseln wird. Irgendwann wird auch ATI PhysX möglich sein (oder eine andere Physik-Engine auf beiden Hardwareplattformen), da bin ich mir ganz sicher.

Auch egal, jetzt haben wir unsere Unterdrückertechnologie, die für mindestens 5 Jahre sämtliche Physik in Spielen dominieren wird und die Konkurrenz unterdrückt.Du schreibst das so, als wäre es besonders böse von nVidia. Dabei ist das doch nur natürlich, schließlich kann ihnen kein Mensch verdenken, dass sie ihre Millionen an Investition nicht verschenken wollen.

ATI wird zahlen müssen, wenn sie wollen, dass PhysX auch ATI Karten nutzen. Und zuvor über ihren eigenen Schatten springen. Oder sie warten, bis nVidia genügend Druck von den Spieleherstellern bekommt, die GPU-PhysX für ihre Spiele umfangreicher nutzen wollen. Aber dann wird die Implementierung natürlich immer effektiver auf nVidia HW laufen.

Also sollte ATI besser lizenzieren und selbst einen Solver schreiben...

mapel110
2010-01-26, 17:55:09
Ich denke, ATI wird eher die nächsten Konsolen abwarten und sehen, wie sich PhysX dort schlägt. Wenn es da keinen Anklang finden sollte, ist PhysX tot imo.

Grestorn
2010-01-26, 17:57:18
Ich denke, ATI wird eher die nächsten Konsolen abwarten und sehen, wie sich PhysX dort schlägt. Wenn es da keinen Anklang finden sollte, ist PhysX tot imo.

Das halte ich für eher unwahrscheinlich, wenn sich PhysX auf den Konsolen etabliert wird.

Gast
2010-01-26, 18:02:07
ATI wird zahlen müssen, wenn sie wollen, dass PhysX auch ATI Karten nutzen. Und zuvor über ihren eigenen Schatten springen. Oder sie warten, bis nVidia genügend Druck von den Spieleherstellern bekommt, die GPU-PhysX für ihre Spiele umfangreicher nutzen wollen. Aber dann wird die Implementierung natürlich immer effektiver auf nVidia HW laufen.

Also sollte ATI besser lizenzieren und selbst einen Solver schreiben...

NV will ja ATi nicht PhysX lizensieren lassen, warum immer wieder die gleiche unrealistische Leier? Und selbst wenn wäre ATi zwangsläufig benachteiligt. Der einzig sinnvolle Weg ist ein OpenCL-Portierung, und hier ist NV gefordert und sonst niemand.

PulsarS
2010-01-26, 20:08:11
Man muss da differenzieren. Mit Software-PhysX kann man natürlich auch Physik machen die das Spielegeschehen beeinflusst.

Die CPU ist also Software, so so...

Aber Hardware-PhysX ist tatsächlich alles Effektphysik.


Nicht mit PhysX wie es derzeit aufgebaut hat. Das hat auch gute Gründe.
Habe ich irgendwo was von PhysX geschrieben?
Ich meinte, dass es allgemein kein Problem für eine moderne Grafikkarte darstellt, wenn man über diese auch die komplette Physikengine nebenbei laufen lassen würde.
Sollte über die CS auch nicht wirklich ein Problem sein.
Kommt halt nur drauf an, wie weit man mit der Physik gehen will und ob die Engine gut "implementiert" ist.
Wenn man eine Genauigkeit bei der Physik wie in HL2 haben wollte, würde es die fps noch nicht mal so drücken.
Die teilweise krassen fps-drops aktueller GPU-PhysiX Titel lassen entweder auf einen zu exzessiven Gebrauch von vielen Partikeln schliessen, was recht realitätsfremd ist und übertrieben aussieht. Es kann auch eine Beschränkung der Engine selbst oder eine schlechte Implementierung sein. Oder eben übertriebene Genauigkeit, die man so extrem beim Spielen gar nicht braucht.

PulsarS
2010-01-26, 20:19:18
Irgendwann wird auch ATI PhysX möglich sein
Das glaube ich kaum.
Da zur Zeit PhysX auf Cuda basiert und auf NV-Karten zugeschnitten ist, wäre es nicht gerade klug von ATI hier einzusteigen.

(oder eine andere Physik-Engine auf beiden Hardwareplattformen), da bin ich mir ganz sicher.
Das schon eher...

ATI wird zahlen müssen, wenn sie wollen, dass PhysX auch ATI Karten nutzen. Und zuvor über ihren eigenen Schatten springen. Oder sie warten, bis nVidia genügend Druck von den Spieleherstellern bekommt, die GPU-PhysX für ihre Spiele umfangreicher nutzen wollen. Aber dann wird die Implementierung natürlich immer effektiver auf nVidia HW laufen.

Also sollte ATI besser lizenzieren und selbst einen Solver schreiben...
Du siehst also für GPU-PhysX eine Zukunft?
Ich eher nicht.

Gast
2010-01-26, 20:45:18
Da zur Zeit PhysX auf Cuda basiert und auf NV-Karten zugeschnitten ist, wäre es nicht gerade klug von ATI hier einzusteigen.
PhysX ist primär eine Physikengine, die auf CPUs läuft.
AMD macht nunmal nichts, weils für sie billiger und einfacher ist.
Mich als Kunden freuts nicht, denn HavokFX ist scheinbar längst tot.

Du siehst also für GPU-PhysX eine Zukunft?Es gibt keine Alternative.
Erzähl mir mal, wie du sonst zig Tausend z.b. Partikel berechnen willst.

Gast
2010-01-26, 20:47:23
Die teilweise krassen fps-drops aktueller GPU-PhysiX Titel lassen entweder auf einen zu exzessiven Gebrauch von vielen Partikeln schliessen, was recht realitätsfremd ist und übertrieben aussieht.
Geh mal raus und schau dir Strasse an. Dort liegen nicht 10 Partikel rum.
Jetzt geh in die Küche und koche Wasser. Schütte das gekochte Wasser quer durch dein Wohnzimmer.
Wie viele Partikel siehst du?

PulsarS
2010-01-26, 21:02:37
Es gibt keine Alternative.
Erzähl mir mal, wie du sonst zig Tausend z.b. Partikel berechnen willst.
Die Frage ist nicht "wie viel", sondern "wie".
Aber da du schon fragst...
Wie wäre es mit CS?
Damit bist du auf DX-Ebene. Das ist viel effizienter als eine middleware wie PhysX, und auch nicht so eingeschränkt.

Eigentlich wäre es eine gute Idee eine Physikengine auf CS-Basis (DX11) zu schreiben und diese dann an die Spielentwickler zu lizensieren... ;D

Geh mal raus und schau dir Strasse an. Dort liegen nicht 10 Partikel rum.
Jetzt geh in die Küche und koche Wasser. Schütte das gekochte Wasser quer durch dein Wohnzimmer.
Wie viele Partikel siehst du?
Jede Menge...
Aber was genau willst du mir damit sagen? :confused:

Gast
2010-01-26, 21:11:22
Die Frage ist nicht "wie viel", sondern "wie".
Aber da du schon fragst...
Wie wäre es mit CS?
Damit bist du auf DX-Ebene. Das ist viel effizienter als eine middleware wie PhysX, und auch nicht so eingeschränkt.

Aha, wieso sollte CS über Cuda oder sonst eine Schnittstelle effizienter sein als Physik über Cuda oder sonst einer Schnittstelle?


Eigentlich wäre es eine gute Idee eine Physikengine auf CS-Basis (DX11) zu schreiben und diese dann an die Spielentwickler zu lizensieren... ;D

Frag doch mal AMD. Die sind die Experten in Physikengines. Wer meckert, muss es ja besser können.


Jede Menge...
Aber was genau willst du mir damit sagen? :confused:

Je mehr Partikel, umso realistischer sieht es aus und verhält es sich. Hier die Fluid Demo auf GF100 mit 128k Partikel: http://www.youtube.com/watch?v=UYIPg8TEMmU

PulsarS
2010-01-26, 21:32:44
Aha, wieso sollte CS über Cuda oder sonst eine Schnittstelle effizienter sein als Physik über Cuda oder sonst einer Schnittstelle?
Ich muss zwar ein wenig raten, was du meinst, weil deine Ausdrucksweise zu wünschen übrig läßt oder du einfach die falschen Fachbegriffe benutzst, aber wenn dir der Unterschied zwischen CS und CUDA nicht klar ist, dann hat es keinen Sinn...

Je mehr Partikel, umso realistischer sieht es aus und verhält es sich. Hier die Fluid Demo auf GF100 mit 128k Partikel: http://www.youtube.com/watch?v=UYIPg8TEMmU
Und?
Habe ich etwas anderes behauptet?

Gast
2010-01-26, 21:39:31
Ich muss zwar ein wenig raten, was du meinst, weil deine Ausdrucksweise zu wünschen übrig läßt oder du einfach die falschen Fachbegriffe benutzst, aber wenn dir der Unterschied zwischen CS und CUDA nicht klar ist, dann hat es keinen Sinn...

Also bis heute nahm ich an, dass Cuda die Schnittstelle ist, über die CS auf nVidia Hardware läuft. Aber ich lerne gerne neues dazu.


Und?
Habe ich etwas anderes behauptet?

Genau das, wollte dir der andere Gast sagen.

Gast
2010-01-26, 21:41:11
Und?
Habe ich etwas anderes behauptet?
Ja.

...exzessiven Gebrauch von vielen Partikeln schliessen, was recht realitätsfremd ist und übertrieben aussieht....

PulsarS
2010-01-26, 21:42:24
Also bis heute nahm ich an, dass Cuda die Schnittstelle ist, über die CS auf nVidia Hardware läuft. Aber ich lerne gerne neues dazu.

Im Spielesektor (DX11)?
Nö.

Gast
2010-01-26, 21:46:22
Im Spielesektor (DX11)?
Nö.

Huch? Seit wann läuft CS über die D3D Pipeline?
CS ist vällig losgelöst von D3D. Es ist eine weitere API, die bei nVidia auf Cuda aufsetzt.
Jetzt fehlt eigentlich nur die Begründung, warum PhysX über Cuda weniger effizient sein soll als Physik-Engine x per CS über Cuda.

PulsarS
2010-01-26, 22:00:38
Huch? Seit wann läuft CS über die D3D Pipeline?
CS ist vällig losgelöst von D3D. Es ist eine weitere API, die bei nVidia auf Cuda aufsetzt.
CS ist DX11 Bestandteil (auch für DX10.X-Karten).
Selbst wenn Nvidia es über CUDA realisiert (was ich nicht so ganz glaube), dann ist man sicherlich nicht effizienter als wenn man es direkt über DX machen würde. Das wäre unlogisch.

Jetzt fehlt eigentlich nur die Begründung, warum PhysX über Cuda weniger effizient sein soll als Physik-Engine x per CS über Cuda.
s.o.

Gast
2010-01-26, 22:04:37
CS ist DX11 Bestandteil (auch für DX10.X-Karten).
Selbst wenn Nvidia es über CUDA realisiert (was ich nicht so ganz glaube), dann ist man sicherlich nicht effizienter als wenn man es direkt über DX machen würde. Das wäre unlogisch.


Nein, unlogisch wäre es, über etwas zu reden, was man noch nicht verstanden hat. Daher ist das hier EoT.

PulsarS
2010-01-26, 22:11:43
Nein, unlogisch wäre es, über etwas zu reden, was man noch nicht verstanden hat. Daher ist das hier EoT.
Dann solltest du vielleicht mal darlegen, warum ein Umweg (CUDA) effizienter als DX11 direkt sein soll...

Gast
2010-01-26, 22:12:00
Son Quatsch ihr Spekulaten, die Leute schmeißen doch nicht ihre guten Ati-Karten plötzlich weg oder kaufen sich keine neuen Ati-Karten mehr mit DX11, nur weil der erste mit nVidia PhysiX für Ati verkrüppelte Gametitel rausgekommen ist!? Die Spielehersteller die die Marktneutralität nicht wahren setzen weniger ab, Ati-Kunden werden sauer. Nvidia profitiert. Als ob es in früheren Spielen keine Physikeffekte gegeben hätte, die gab es schon immer, Nvidia benutzt PhysX ganz klar um Ati auszubremsen.



Da schäm ich mich als nVidia-Kunde doch in Grund in Boden, wenn ich son Firlefanz habe aufn GPU ausgelagert habe, während ich nichtmal ne DX11 fähige (lieferbare) Karte im Sortiment finde. Ich mag unternehmen nicht die den Großteil ihres Kapitels in Maßnahmen investieren die Konkurrenz zu schädigen

Mal nebenbei Partikel und Objekte wurden schon immer auf der Grafikkarte gerendert, ob mit oder ohne PhysX. Die Berechnung der Bewegung (nicht der Anzeige) von Partikeln und Objekten läuft seit eh und je auf der CPU, blieb der stehen blieb auch die Grafikausgabe stehen weil sich nix mehr bewegen konnte, bis auf sprites die noch im gram liegen zumindest, dazu das bekannte Sound-Stotter-Hängen.

Das ist auch übrigens HAUPTAUFGABE des CPU bei den meißten 3d-Games. Nvidia versucht mit PhysX nicht nur Ati/Amd zu plätten sondern auch Intel.

Je nach Komplexität der Physikengine im Spiel gestalteten sich die EINWIRKUNGENGEN von Bewgungen verschieden und letztendlich macht auch das den Unterschied zwischen den Spielen aus.

Glaube kaum das die Endkunden sich das zum EInheitsbrei machen lassen werden.

Andererseits macht Nvidia, soltle es ihnen gelingen PhysX derart zum Standard zu etablieren, Tür und Tor auf den CPU sowie konventionellen Arbeitsspeicher überflüssig zu machen.

Nvidia könnte damit zum Beispiel auf einmal hergehen und ihre GPUs Sockelbar machen und GDDR3/5 in Modulen für Slots auf eigene Boards verfügbar machen. Das ist wirklich keine alzu große Sache.

Sogar Micosoft und Sony hätte man damit ordentlich eins ausgewischt.

Das wäre dann das Ende des klassischen PC mit Grafikkarte und der Start der High-End Personal Graphical Computer... genau das wovon Intel träumt :) und AMD mitreden will.

Ich sehe allerdings bei AMD/Ati die größten Chancen genau diesen Weg meistern zu können, da man sowohl hochwertige CPUs als auch GPUs als auch Chipsätze fertigt, aber well see.

Bucklew
2010-01-26, 23:38:26
Das schon eher...
Und welche Physikengine sollte PhysX beerben?

Havok war lange Zeit quasi die einzige, inzwischen hat PhysX diese beerbt. HavokFX ist tot. Bleibt eigentlich nur Bullet, nur wie soll sich das durchsetzen, wenn AMD zur "Unterstützung" nichts anderes tut als es mal in ne Marketingpräso zu packen?

Gast
2010-01-26, 23:40:42
DX11 nutzt Direct Compute.

Das OpenCL bei NV über Cuda läuft wäre mir aber neu, falls doch ist das ein schrecklich uneffizienter Weg.

Ich denke aber eher, dass Geforce-Karten Cuda, DirectCompute und OpenCL nativ unterstützen. Wie sie auch DirectX und OpenGL unterstützen.
Na gut, es sind eher die Treiber die das tun, aber drauf geschissen.


Ich sehe es ebenfalls so, dass Nvidia niemals einen OpenCL oder DirectCompute-Pfad in PhysX integrieren wird. Es wird so laufen wie damals mit Glide, Nvidia wird so lange es existiert die Engine nur über Cuda zur Verfügung stellen.
Wieso nicht, die bestehenden Spiele mit PhysX sind released und bedeuten auch in Zukunft, dass das optische "Maximum" nur mit Nvidia-Hardware möglich ist. Ein Entwickler der erst jetzt aufmuckt ist sehr unrealistisch.

Für zukünftige Projekte wird man durch Kundennähe und aufdringliche Serviceleistungen versuchen, den PhysX-Kunden bei Laune und still zu halten.
Wenn die Stricke dann doch reißen gibt es ein paar Szenarios.

A) PhysX hat nahezu 100% Marktdurchdringung... Gemecker wird im Keim erstickt da man einen Enginewechsel nicht machen will und kann weil einen entweder Geld/Zeit/Faulheit oder der Mangel an Konkurrenz hindern.

B) Eine Konkurrenz-Engine wird verwendet, PhysX verliert an Bedeutung. Es wurden jedoch sehr viele Spiele mit PhysX geschrieben und es ist genug Zeit vergangen um die Konkurrenz zu schädigen. PhysX bleibt aber immer noch Cuda-only, damit die AMD-Karten keine Chance haben die alten Spiele doch noch ordentlich darzustellen. Der Support wird reduziert und PhysX bleibt noch einige Jahre ein Schmankerl im Treiber.

C) Nvidia öffnet PhysX und bietet es auch über OpenCL und/oder Direct Compute an. Damit werden die alten und neuen Spiele mit HW-PhysX auf AMD-Karten nutzbar.

Später mehr....

Gast
2010-01-26, 23:47:13
Und welche Physikengine sollte PhysX beerben?

Havok war lange Zeit quasi die einzige, inzwischen hat PhysX diese beerbt. HavokFX ist tot. Bleibt eigentlich nur Bullet, nur wie soll sich das durchsetzen, wenn AMD zur "Unterstützung" nichts anderes tut als es mal in ne Marketingpräso zu packen?

Das hast du gesagt!
OpenCL ist definiert, wenn sich die Herrn von Bullet an die Specs halten wird das auch prima auf Radeons laufen. Da braucht ihnen AMD keine Fußballmannschaft an Entwicklern oder neue Hardware zu spendieren.

Wobei untätig wie du sie beschreibst sind sie sicher nicht.

Havoc ist nicht tot, es läuft nur nicht auf Grafikkarten.
Hat aber deutlich mehr geleistet als PhysX bis jetzt, der Aha-Effekt war bei einem Hl2 jedenfalls deutlich größer als bei den nach 30 Sekunden verschwindenden Glasscherben aus Mirror´s Edge oder dem Glasperlenwasser aus Cryostasis.
Viel ist nicht immer schön!

Gast
2010-01-26, 23:58:52
DX11 nutzt Direct Compute.
Das OpenCL bei NV über Cuda läuft wäre mir aber neu, falls doch ist das ein schrecklich uneffizienter Weg.


Wie den sonst?
Letztendlich versteht der Grafikprozessor nur den Nvidia-Assemblercode.
Wie es bei NV genau ist weis ich gerade nicht.
Bei ATI ist auf jeden Fall so: OpenCL->CAL/Brook+->CTM.
Ich glaube nicht dass das bei Nvidia großartig anders ist.

Gast
2010-01-27, 00:01:04
Wie den sonst?
Letztendlich versteht der Grafikprozessor nur den Nvidia-Assemblercode.
Wie es bei NV genau ist weis ich gerade nicht.
Bei ATI ist auf jeden Fall so: OpenCL->CAL/Brook+->CTM.
Ich glaube nicht dass das bei Nvidia großartig anders ist.

Cuda ist Grundlage bzw. Schnittstelle für: C for Cuda, C++ for Cuda, DC, OpenCL, PhysX...

Gast
2010-01-27, 00:05:12
Cuda ist Grundlage bzw. Schnittstelle für: C for Cuda, C++ for Cuda, DC, OpenCL, PhysX...

Ja eben sag ich ja nur dass unter CUDA noch eine Maschinennahe Ebene wie CTM liegen muss.(Name hab ich gerade vergessen)

Gast
2010-01-27, 00:10:27
Ja eben sag ich ja nur dass unter CUDA noch eine Maschinennahe Ebene wie CTM liegen muss.(Name hab ich gerade vergessen)

PTX liegt unter Cuda.

deekey777
2010-01-27, 00:10:34
Wie den sonst?
Letztendlich versteht der Grafikprozessor nur den Nvidia-Assemblercode.
Wie es bei NV genau ist weis ich gerade nicht.
Bei ATI ist auf jeden Fall so: OpenCL->CAL/Brook+->CTM.
Ich glaube nicht dass das bei Nvidia großartig anders ist.
Vereinfacht:
Hochsprache -> allgemeine Zwischensprache des IHV -> Assembler für die jeweilige Grafikkarte
Nvidia:
C for Cuda -> PTX -> Assembler
OpenCL -> PTX -> Assembler
ATi:
Brook+ -> IL -> Assembler
OpenCL -> IL -> Assembler
http://www.planet3dnow.de/vbulletin/showthread.php?t=362621&garpg=6#content_start
Die Compiler von Cuda, OpenCL und Brook+ können auch einen CPU-Code ausspucken.

Gast
2010-01-27, 23:33:15
Dann habe ich etwas gelernt und werde es nicht mehr anders behaupten.

deekey777
2010-01-27, 23:36:04
Dann habe ich etwas gelernt und werde es nicht mehr anders behaupten.
Wobei das Wörtchen "Assembler" nicht richtig ist. Besser wäre "Maschinencode für die jeweilige GPU".

Coda
2010-01-28, 02:30:34
CS ist vällig losgelöst von D3D. Es ist eine weitere API, die bei nVidia auf Cuda aufsetzt.
Nein, ist es nicht. (http://msdn.microsoft.com/en-us/library/dd445763.aspx)

Man kann aber Direct3D 11 (und 10) ohne grafische Ausgabe verwenden. Daher evtl. die Verwirrung.

Gast
2010-02-09, 14:46:56
nVidia veröffentlicht den offiziellen Trailer zur Supersonic Sled - jetzt Rocket Sled - Demo: http://physxinfo.com/news/1964/rocket-sled-dx11-and-physx-features-trailer/
Vorallen in Bezug auf PhysX und Partikeleffekte ist er sehr interessant. Sieht nach einer der besten Demos von nVidia aus - alle Techniken in einer Demo ist schon irgendwie ziemlich cool. Und man kann es gleichzeitig noch spielen. :)

N0Thing
2010-02-09, 15:47:17
Die zusammenstürzende Brücke und das Holzhäuschen sehen seltsam aus. Als ob die Szene in Zeitlupe gezeigt wird, sobald die Dinger auseinander fallen.

svenw
2010-02-10, 11:12:19
Die zusammenstürzende Brücke und das Holzhäuschen sehen seltsam aus. Als ob die Szene in Zeitlupe gezeigt wird, sobald die Dinger auseinander fallen.
Das ist normal. Wenn du dir mal Videos von Sprengungen anschaust da sieht man gar nichts. BUMM und 2 Sekunden später sieht man nur noch eine Staubwolke. Die Sachen auf einer Demo sollen beeindruckend aussehen, also muß man auch Zeit haben sie zu betrachten. Eine Partikelwolke in der man gar nichts mehr sieht außer Geflimmer finde ich allerdings nicht wirklich realistisch oder auch nur spannend, so interessant sie vielleicht vom Standpunkt der Physik-Simulation ist. Nur kann man da nicht beurteilen, wie viel getrickst wurde, um die hinzubekommen. Prinzipiell wird bei solchen Darstellungen immer getrickst nur kann man da absolut nichts mehr erkennen. Ein realistischer Vergleich zwischen einer CPU und einer GPU wäre wesentlich aussagekräftiger.

mapel110
2010-02-16, 20:10:23
http://www.geeks3d.com/20100216/preview-multi-core-cpu-support-in-physx-seems-to-work/
FluidMark bekommt Multicore-Support.

LovesuckZ
2010-03-04, 23:13:57
http://www.geeks3d.com/20100216/preview-multi-core-cpu-support-in-physx-seems-to-work/
FluidMark bekommt Multicore-Support.

Und am Ende ist die Leere.

http://www.geeks3d.com/20100304/preview-physx-simulation-on-a-16-core-cpu/

Mr.Huddy hat sich damit eingereiht in die elitäre Liga der Lügner:


The other thing is that all these CPU cores we have are underutilised and I'm going to take another pop at Nvidia here. When they bought Ageia, they had a fairly respectable multicore implementation of PhysX. If you look at it now it basically runs predominantly on one, or at most, two cores. That's pretty shabby! I wonder why Nvidia has done that? I wonder why Nvidia has failed to do all their QA on stuff they don't care about - making it run efficiently on CPU cores - because the company doesn't care about the consumer experience it just cares about selling you more graphics cards by coding it so the GPU appears faster than the CPU.
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5

Benedikt
2010-03-05, 12:15:30
Den Teil wo es heißt

Currently I have some little problems with multi-core support and PhysX GPU (there are some crashes when hardware PhysX is used with multithreaded simulation) but I’m about to find a solution…

hast du aber geflissentlich unterschlagen... :rolleyes:

Gast
2010-03-05, 12:20:32
Den Teil wo es heißt

hast du aber geflissentlich unterschlagen... :rolleyes:
Wie schon Brecht so schön sagte :

"Auslassung ist die Größte Lüge"

Aquaschaf
2010-03-05, 12:22:15
Nicht direkt PhysX-bezogen, aber es scheint so dass auch Cuda-Support deaktiviert wird, wenn sich eine nicht-Nvidia-Karte im System befindet.

LovesuckZ
2010-03-05, 12:40:31
Den Teil wo es heißt

hast du aber geflissentlich unterschlagen... :rolleyes:

Nein.
So eine persönliche Frage an dich und andere: Ist es wirklich so schwer, gewisse Dinge korrekt zu lesen? Er schreibt doch klar, wenn GPU-Physik und CPU-Multithread verwendet wird, kommt es zu Problemen. Das "and" sollte doch signalisieren, dass der Multi-Thread-Support einwandfrei funktioniert.
Ich finde es wirklich abscheulich, dass Leute einen wieder und wieder dumm anmachen, nur weil sie Texte nicht verstehen. :mad:

Sefegiru
2010-03-05, 13:13:05
Zumal Huddy zu dem Zeitpunkt des Interviews nicht gelogen hat denn es war, nein es ist der Stand der Dinge. Was für Fluidmark mal kommt ist sowas von egal solange es nicht da ist.

LovesuckZ
2010-03-05, 13:26:12
Zumal Huddy zu dem Zeitpunkt des Interviews nicht gelogen hat denn es war, nein es ist der Stand der Dinge. Was für Fluidmark mal kommt ist sowas von egal solange es nicht da ist.

Das heißt also, PhysX ist nur solange nicht über mehr als 2 Threads fähig, solange es keine Software gibt, die mehr als 2 Threads verwendet?
Suchen wir jetzt Möglichkeiten, um Huddy im besseren Licht darstehen zu lassen? :eek:

Aber es ist interessant: Denn nach dieser Logik war die Erde auch solange eine Scheibe und Mittelpunkt des Universiums, bis jemand das Gegenteil gezeigt hat. ;D

Botcruscher
2010-03-05, 13:34:32
Womöglich müssen die Entwickler ja einfach mal eine Entdeckungsfahrt in die unbekannten Welten von NV machen. Womöglich kommen sie ja mit einem stabilen Multicoresupport wieder.
Deine Beispiele sind echt für den Arsch. Der Multicoresupport fehlt nicht, er versteckt sich nur in den unendlichen Weiten des Universums.:ucrazy:

LovesuckZ
2010-03-05, 13:43:05
Womöglich müssen die Entwickler ja einfach mal eine Entdeckungsfahrt in die unbekannten Welten von NV machen. Womöglich kommen sie ja mit einem stabilen Multicoresupport wieder.
Deine Beispiele sind echt für den Arsch. Der Multicoresupport fehlt nicht, er versteckt sich nur in den unendlichen Weiten des Universums.:ucrazy:

Tja, das ist eben fas Problem: Huddy ist die Kirche und die Leute glauben ihnen. Dann kommt so ein kleiner Galileo vorbei, der mit einfachen Mitteln mal in den Himmel (SDK und Dokumentation) schaut, baut ein kleines Teleskop (Fuidmark) und stellt fest: Die Kirche (Huddy) hat unrecht.
Im Gegensatz zu früher, wo einen die Möglichkeiten fehlten, hätte Huddy einfach seinen Mund halten sollen. Aber er musste lügen. Das ist traurig.
Aber ich will niemanden von seiner Überzeugung abbringen. Heute darf jeder glauben was er will. Auch wenn es komplett falsch ist. :)

Botcruscher
2010-03-05, 13:54:46
Na dann zeig uns mal die unendliche Vielfalt an Physx-Multicoreanwendugen durch dein Fernglas... Wir sind gespannt.

mapel110
2010-03-05, 14:02:31
Na dann zeig uns mal die unendliche Vielfalt an Physx-Multicoreanwendugen durch dein Fernglas... Wir sind gespannt.
Offenbar ist die Performance selbst mit der getesteten 16 Core-CPU so mies, dass sich wohl alle Entwickler einig sind, dass sich der Aufwand für CPUs nicht lohnt.

Botcruscher
2010-03-05, 14:11:42
Da wäre immerhin eine Antwort andererseits scheint man ja auch der Meinung zu sein das zwei Kerne reichen.

Gast
2010-03-05, 14:24:21
Na dann zeig uns mal die unendliche Vielfalt an Physx-Multicoreanwendugen durch dein Fernglas... Wir sind gespannt.

Ich muss dir garnichts zeigen. Die Middleware ist über die CPU Multi-Threading fähig - und das weit über 2 Threads hinaus. Es liegt an den Entwicklern es einzubauen. Huddy wurde widerlegt. Thema somit beendet.

LovesuckZ

Gast
2010-03-05, 14:28:39
Gar nichts wurde widerlegt. Huddys Aussagen stimmen nach wie vor.

Gast
2010-03-05, 15:21:23
Ohne Nvidia baut keiner diesen Bullshit namens PhysX freiwillig ein.

deekey777
2010-03-05, 22:30:31
http://www.geeks3d.com/20100216/preview-multi-core-cpu-support-in-physx-seems-to-work/
FluidMark bekommt Multicore-Support.
Die Frage ist die:
Wird einfach je Kern eine weitere Simulation gestartet (wie schon in Vantage, also null Neuerung) oder es wird eine Simulation auf weitere Kerne verteilt (was ein echtes Novum wäre).

dllfreak2001
2010-03-06, 10:36:15
Mit welcher Version vom Fluidmark gibt es den Multicore-Support bei der Version 1.1.1 ist der Kramm bei mir immer noch auf einen Kern beschränkt wenn ich auf Software-PhysX schalte. ;(

Edit: Ok, den gibt es noch nicht.

Der macht tatsächlich je Emitter einen Thread auf.

mapel110
2010-03-09, 12:09:52
http://www.xbitlabs.com/news/multimedia/display/20100308225832_ATI_Nvidia_Bribes_Game_Developers_to_Promote_PhysX.html
Mimimi

Gast
2010-03-09, 12:16:07
http://www.xbitlabs.com/news/multimedia/display/20100308225832_ATI_Nvidia_Bribes_Game_Developers_to_Promote_PhysX.html
Mimimi

Nix mimimimi, sondern ein Grund mehr, den PC künftig als Spielemaschine links liegen zu lassen.

Botcruscher
2010-03-09, 12:19:21
Das NV zahlt stand doch schon lange fest. Gut LS hat es immer standhaft geleugnet.

LovesuckZ
2010-03-09, 12:20:05
Was will man von Mr. H - auch als Fuddy bekannt - denn heute noch anderes erwarten? Schon schrecklich, wie ein Mensch innerhalb von 6 Monaten eine ganze Firma lächerlich machen kann.
AMD wirkt immer mehr wie ein Kindergarten voller Heulsusen, die zwar ein paar Chips backen, aber keine Software schreiben können.
Und das lächerlichste ist: Im Sommer 2008 haben sie die Koorperation mit Havok und OpenCL angekündigt. 9 Monate später haben sie lauffähige Demos auf der GDC gezeigt. 6 Monate später kündigen sie ihre "Open Source" Initiative mit Bullet und der anderen API an. (Dazwischen zeigt BUllet auf der GTC von nVidia, wie sie ihre Cuda Version und nVidia's OpenCL SDK verwenden, um Bullet auf OpenCL zu portieren.) Wiederum 6 Monate später werden wir auf der GDC 2010 neue Demos von AMD sehen. Bald 2 Jahre nach der ersten Ankündigung hat man nichts erreicht. Und es kommen kontinuirlich immer mehr Spiele, die PhysX, Cuda (!!!!!) und auch 3D Vision unterstützen.
Mr. H sollte AMD einen gefallen tun und in Zukunft einfach die Klappe halten.

Das NV zahlt stand doch schon lange fest. Gut LS hat es immer standhaft geleugnet.

Stimmt. Mr. H ist auch kein Lügner. Der erzählt nur die Wahrheit... Gut BC hat es immer standhaft geleugnet.
Geschichte wiederholt sich. Und irgendwie fühlt es sich wie das Mittelalter an, wo der Mob hinter der Kirche steht - egal wieviele Gegenbeweise für deren Theorien erbracht wurden sind. :lol:

Wie? Der Huddy ist "senior manager of developer relations in Europe"? Ich dachte der wäre "Reichsministers für Volksaufklärung und Propaganda"?

Na, viele "Entwicklerfreunde" wird er nicht haben, nachdem er vielen seiner Geschäftpartner gerade Erpressbarkeit vorgeworfen hat. Ist mir unbegreiflich, wie so ein Typ die Abteilung leiten kann.
Vielleicht auch ein Grund, wieso wir von AMD kaum etwas in Richtung Entwicklerhilfe sehen - wer will schon mit solchen Typen zusammenarbeiten?

Bucklew
2010-03-09, 12:29:17
http://www.xbitlabs.com/news/multimedia/display/20100308225832_ATI_Nvidia_Bribes_Game_Developers_to_Promote_PhysX.html
Mimimi
Wie? Der Huddy ist "senior manager of developer relations in Europe"? Ich dachte der wäre "Reichsministers für Volksaufklärung und Propaganda"?

Sefegiru
2010-03-09, 13:26:46
Ach LS, ich habe nur geschrieben, und das ist ein Faktum, das Mr. Huddy zum Zeitpunkt seiner Multicore PhysX Aussage Recht damit hatte. Es war schlicht weg so zu dem Zeitpunkt und das kann niemand leugnen. Selbst jetzt ist es großteils noch so das zu Ageia Zeiten mehr MultiCore CPU Optimierungen drin waren.

Ist doch auch kein Drama, ist halt gekaufte Software und damit kann der Eigentümer nun einmal tun und lassen was er will.

LovesuckZ
2010-03-09, 13:34:41
Ach LS, ich habe nur geschrieben, und das ist ein Faktum, das Mr. Huddy zum Zeitpunkt seiner Multicore PhysX Aussage Recht damit hatte. Es war schlicht weg so zu dem Zeitpunkt und das kann niemand leugnen. Selbst jetzt ist es großteils noch so das zu Ageia Zeiten mehr MultiCore CPU Optimierungen drin waren.

Nein. Das ist schlicht falsch. MultiCore wird unterstützt. Es muss nur vom Entwickler eingebaut werden. Oder würde Evergreen kein D3D11 unterstützen, solange es keine Anwendungen dafür gibt? :rolleyes:

Ist doch auch kein Drama, ist halt gekaufte Software und damit kann der Eigentümer nun einmal tun und lassen was er will.

Richtig. Aber selbst dann darf nicht jeder x-beliege Typ lügen. Huddy ist jetzt dran irgendwas von seinen Aussagen zu beweisen. Und ich bezweifel, dass er auch nur ein bisschen davon belegn kann: Weder wird er Aussagen von Entwicklern bekommen, noch Zeitpläne der Stunden für die Hilfe bei Rocksteady veröffentlichen, noch darstellen, dass die PhysX-Engine über kein MultiCore-Support machbar wäre zum Zeitpunkt des Bit-Tech Interviews.

Menace
2010-03-09, 13:42:26
Wie? Der Huddy ist "senior manager of developer relations in Europe"? Ich dachte der wäre "Reichsministers für Volksaufklärung und Propaganda"?

Was für ein Geschichtsverständnis muss man eigentlich haben, um so einen reflektionsfreien Müll schreiben zu können. Dass nicht jeder User mit Schreibrechten eine gewisse Intelligenz und damit Verantwortung mitbringt ist eine Sache; dass hier Nazi-verharmlosende Vergleiche stattfinden offenbaren zwar den Schreiber und dessen geistigen Zustand, muss man aber trotzdem hier nicht so stehen lassen.

Edit: Falls dieser Beitrag auf Unverständnis stoßen sollte, empfehle ich mal Information zu bekommen, was der "Reichsminister für Volksaufklärung und Propaganda" wirklich gemacht hat. Die Zeit wäre sinnvoller genutzt als die permanenten Verteidigungen seitens nvidia hier zu posten.

Gast
2010-03-09, 13:43:29
PC links liegen lassen, Konsole kaufen und das Thema ist erledigt.
Passiert ja ohnehin schon schaarenweise.

PS: Huddy ist einer der integersten Personen im ganzen Business. Ihn als Lügner oder Dummkopf zu bezeichnen, kommt nur Einfaltspinseln wie der NV-Anhängerschaft in den Sinn.

Grestorn
2010-03-09, 13:45:54
PS: Huddy ist einer der integersten Personen im ganzen Business. Ihn als Lügner oder Dummkopf zu bezeichnen, kommt nur Einfaltspinseln wie der NV-Anhängerschaft in den Sinn.

Bei den ganzen Beschuldigungen (z.B. bei Batman) die sich im Nachhinein als nicht haltbar erwiesen, kann man kaum von integer sprechen. Ich sehe eigentlich ausschließlich Propaganda aus seinem Mund.

Gast
2010-03-09, 13:49:53
Bei den ganzen Beschuldigungen (z.B. bei Batman) die sich im Nachhinein als nicht haltbar erwiesen, kann man kaum von integer sprechen. Ich sehe eigentlich ausschließlich Propaganda aus seinem Mund.

Klar, Du gehörst auch der NV-Anhängerschaft. Da wundert einem nichts mehr.

Bucklew
2010-03-09, 13:54:24
Was für ein Geschichtsverständnis muss man eigentlich haben, um so einen reflektionsfreien Müll schreiben zu können. Dass nicht jeder User mit Schreibrechten eine gewisse Intelligenz und damit Verantwortung mitbringt ist eine Sache; dass hier Nazi-verharmlosende Vergleiche stattfinden offenbaren zwar den Schreiber und dessen geistigen Zustand, muss man aber trotzdem hier nicht so stehen lassen.
Mein Geschichtsverständnis ist mit ner 1 im Abi sicherlich nicht allzu schlecht. Ist zwar schon ein paar Jährchen her, aber das 3. Reich kam da gerade noch so vor :D Trotzdem ändert das nichts daran, dass ich meinen Sarkasmus manchmal nicht zurückhalten kann ;D

deekey777
2010-03-09, 13:55:05
Bei den ganzen Beschuldigungen (z.B. bei Batman) die sich im Nachhinein als nicht haltbar erwiesen, kann man kaum von integer sprechen. Ich sehe eigentlich ausschließlich Propaganda aus seinem Mund.
Was ist los?
Alle Anschuldigungen seitens Nvidia haben sich als haltlos erwiesen.
Oder hast du beim Posten schon den ganzen Emailverkehr zwischen ATi und den Machern des Spiels berücksichtigt?

Es ist weiterhin sehr erstaunlich, dass die Aussagen von Huddy und seiner Mitarbeiter als Lügen und FUD bezeichnet werden, obwohl keine dieser Aussagen widerlegt wurde. Auch ist es erstaunlich, dass diejenigen, die Huddy als Lügner bezeichnet, immernoch nicht kapiert haben, dass es einen Unterschied macht, ob eine Simulation auf mehrere Kerne verteilt wird (also das, was Huddy bemängelte) oder ob einfach eine weitere Simulation auf einem weiteren Kern gestartet wird (wie es in Vantage gemacht wird).

Na los, widerlegt doch irgendeine Aussage von Huddy, Ian usw.

Menace
2010-03-09, 14:00:20
Mein Geschichtsverständnis ist mit ner 1 im Abi sicherlich nicht allzu schlecht. Ist zwar schon ein paar Jährchen her, aber das 3. Reich kam da gerade noch so vor :D Trotzdem ändert das nichts daran, dass ich meinen Sarkasmus manchmal nicht zurückhalten kann ;D

Goeppels war also so schlimm, wie Huddy? :eek: Tja, dann hast Du wohl Deine 1 verdient. Dann brauche ich ja u.a. die Reichsprogromnacht auch nicht erwähnen. Welche Reichsprogromnacht hat den Huddy verursacht?

Dass Du darüber lachst bestärkt mich in meiner Ansicht. Das hat auch nichts mit Sarkasmus zu tun sondern mit blöden relativierenden Nazivergleichen. Bei deiner Art zu argumentieren (was ja man nicht in wenigen Threads bewundern kann) verwundert mich Dein differenzierter Blick nicht.

Grestorn
2010-03-09, 14:02:28
Was ist los?
Alle Anschuldigungen seitens Nvidia haben sich als haltlos erwiesen.
Oder hast du beim Posten schon den ganzen Emailverkehr zwischen ATi und den Machern des Spiels berücksichtigt?Steht in diesen Mails etwa: "Wir dürfen AA nicht für ATI freigeben, weil nVidia uns das verboten hat!"?

Es ist weiterhin sehr erstaunlich, dass die Aussagen von Huddy und seiner Mitarbeiter als Lügen und FUD bezeichnet werden, obwohl keine dieser Aussagen widerlegt wurde. Auch ist es erstaunlich, dass diejenigen, die Huddy als Lügner bezeichnet, immernoch nicht kapiert haben, dass es einen Unterschied macht, ob eine Simulation auf mehrere Kerne verteilt wird (also das, was Huddy bemängelte) oder ob einfach eine weitere Simulation auf einem weiteren Kern gestartet wird (wie es in Vantage gemacht wird).Es wäre fatal, wenn eine Bibliothek einfach mal ungefragt eigene Threads spawnt. Entweder ist das genau so in der API spezifiziert und hat ein determiniertes Verhalten, was die Sache aber sehr komplex und fehleranfällig macht, oder man lässt die Finger davon und überlässt es den Nutzer der API selbst für Nebenläufigkeit zu sorgen.

Die Aussage von Huddy war ja nicht, "hey CPU-PhysX unterstützt keinen automatischen, voll transparenten Multi-Core-Support" sondern er sagte sinngemäß "nVidia verhindert, dass CPU-PhysX Multi-Core Prozessoren optimal nutzt um GPU-PhysX zu pushen". Und letzteres ist nun mal in jeder Hinsicht falsch und reine Propaganda, egal wie man es dreht.

Bucklew
2010-03-09, 14:05:31
Goeppels war also so schlimm, wie Huddy? :eek: Tja, dann hast Du wohl Deine 1 verdient. Dann brauche ich ja u.a. die Reichsprogromnacht auch nicht erwähnen. Welche Reichsprogromnacht hat den Huddy verursacht?
Nur weil man die grundsätzliche Art vergleicht (hier die totale Ignoranz gegenüber Fakten gepaart mit völlig übertrieben Aussagen), muß man noch lange keinen "Wer ist besser"-Vergleich fahren :rolleyes:

Natürlich war Goebbels schlimmer als Huddy, und zwar in einem gigantischen Ausmaße. Dennoch errinnert die Art wie Huddy rumrennt und jeden zutextet, der nicht schnell genug wegrennen kann, sehr stark an die Art der Nazipropaganda damals.

LovesuckZ
2010-03-09, 14:19:23
Was ist los?
Alle Anschuldigungen seitens Nvidia haben sich als haltlos erwiesen.
Oder hast du beim Posten schon den ganzen Emailverkehr zwischen ATi und den Machern des Spiels berücksichtigt?

Er hat keine Beweise vorgelegt, dass sie Eidos wirklich geholfen haben. nVidia sagte auf der CES, dass sie nie einem AMD Mann dort bei Rocksteady sahen - im Gegensatz zu den 5,6 Männern von nVidia.


Es ist weiterhin sehr erstaunlich, dass die Aussagen von Huddy und seiner Mitarbeiter als Lügen und FUD bezeichnet werden, obwohl keine dieser Aussagen widerlegt wurde. Auch ist es erstaunlich, dass diejenigen, die Huddy als Lügner bezeichnet, immernoch nicht kapiert haben, dass es einen Unterschied macht, ob eine Simulation auf mehrere Kerne verteilt wird (also das, was Huddy bemängelte) oder ob einfach eine weitere Simulation auf einem weiteren Kern gestartet wird (wie es in Vantage gemacht wird).

Na, dann erkläre mal diesen Unterschied. Ich möchte gerne Wissen, warum MultiCore mit mehreren Simulationen kein MultiCore sein sollte...
Aber um dein Wissen nochmal aufzufrischen, hier die Aussage von Mr. H:

The other thing is that all these CPU cores we have are underutilised and I'm going to take another pop at Nvidia here. When they bought Ageia, they had a fairly respectable multicore implementation of PhysX. If you look at it now it basically runs predominantly on one, or at most, two cores. That's pretty shabby! I wonder why Nvidia has done that? I wonder why Nvidia has failed to do all their QA on stuff they don't care about - making it run efficiently on CPU cores - because the company doesn't care about the consumer experience it just cares about selling you more graphics cards by coding it so the GPU appears faster than the CPU.

Na los, widerlegt doch irgendeine Aussage von Huddy, Ian usw.

Erstmal sollte Mr. H seine Aussagen belegen. Dann kann man auch etwas widerlegen. Bis auf das PhysX-Multicore gebrabbel sind alles Anschuldigungen ohne Fakten von Mr. H und seinem Arbeitgeber AMD.

Menace
2010-03-09, 14:20:34
Nur weil man die grundsätzliche Art vergleicht (hier die totale Ignoranz gegenüber Fakten gepaart mit völlig übertrieben Aussagen), muß man noch lange keinen "Wer ist besser"-Vergleich fahren :rolleyes:

Natürlich war Goebbels schlimmer als Huddy, und zwar in einem gigantischen Ausmaße. Dennoch errinnert die Art wie Huddy rumrennt und jeden zutextet, der nicht schnell genug wegrennen kann, sehr stark an die Art der Nazipropaganda damals.

Es gehört ein Mindestmaß an Respekt gegenüber den Opfern des Nazi-Regimes, dass man eben nichts relativiert. Mit solchen schwachsinnigen Vergleichen macht man aber genau das. Den Reichsminister charakterisiert nicht die Ignoranz der Fakten, diesen Vorgang kritisiere ich bei Dir. Und es waren nicht nur Aussagen, die Goebbels zu verschulden hat. :rolleyes: Aber die 1 als Berechtigung für die Aussage nennen. "Kausalitäten" gibt's...

Inwieweit Huddy mit seinen Aussagen nicht sogar Recht hat, mag ich nicht zu beurteilen; dass in manchen Aussagen aber richtig liegen könnte, mag zwar nicht in dein grünes Weltbild passen, wäre aber für Nvidia durchaus logisch.

Die Nazipropaganda sprach auch nicht über Wirtschaftszusammenhänge und Marktsituationen. Lassen wir es einfach hierbei. Du machst die Geschichtsglitterung nur noch schlimmer und dafür möchte ich keine Plattform bieten. EOD.

Bucklew
2010-03-09, 14:24:57
Inwieweit Huddy mit seinen Aussagen nicht sogar Recht hat, mag ich nicht zu beurteilen; dass in manchen Aussagen aber richtig liegen könnte, mag zwar nicht in dein grünes Weltbild passen, wäre aber für Nvidia durchaus logisch.
Da zeigt sich dann der AMD-Fanboy :) Kein wunder also, dass man so scharf reagiert, nachdem man den "Messias" Huddy als das bezeichnet was er ist: Ein Scharlatan, der Lügen und Propaganda verbreitet.

deekey777
2010-03-09, 14:39:15
Steht in diesen Mails etwa: "Wir dürfen AA nicht für ATI freigeben, weil nVidia uns das verboten hat!"?
Hat Huddy irgendwo gesagt, dass Nvidia das verboten hat?
Das hat Lars bei Hexus gesagt:
Batman AA* is not our property. It is owned by Eidos. It is up to Eidos to decide the fate of a feature that AMD refused to contribute too and QA for their customers, not NVIDIA.
(*AA for Arkum Dings, nicht für Anti-Aliasing)
Darauf reagierte Huddy damit:
http://forums.hexus.net/hexus-net/174266-news-amd-exec-says-nvidia-neglecting-gamers-5.html#post1808312
I’m surprised and pleased by authorised NVIDIA spokesperson Lars Weinand’s clarification that “Batman AA is not our property. It is owned by Eidos. It is up to Eidos to decide the fate of a feature that AMD refused to contribute too and QA for their customers, not NVIDIA.”

AMD received an email dated Sept 29th at 5:22pm from Mr. Lee Singleton General Manager at Eidos Game Studios who stated that Eidos’ legal department is preventing Eidos from allowing ATI cards to run in-game antialiasing in Batman Arkham Asylum due to NVIDIA IP ownership issues over the antialiasing code, and that they are not permitted to remove the vendor ID filter.

NVIDIA has done the right thing in bowing to public pressure to renounce anti-competitive sponsorship practices and given Eidos a clear mandate to remove the vendor ID detect code that is unfairly preventing many of Eidos’ customers from using in-game AA, as per Mr. Weinand’s comments. I would encourage Mr. Singleton at Eidos to move quickly and decisively to remove NVIDIA’s vendor ID detection.

It’s also worth noting here that AMD have made efforts both pre-release and post-release to allow Eidos to enable the in-game antialiasing code - there was no refusal on AMD’s part to enable in game AA IP in a timely manner.

I trust that you will also confirm that no similar activity will take place on any other games?


Richard Huddy, Worldwide Developer Relations Manager, AMD's GPU Division
Und hier ist der Inhalt dieser Emails:
http://www.brightsideofnews.com/news/2009/11/4/batmangate-amd-vs-nvidia-vs-eidos-fight-analyzed.aspx?pageid=2
Ua:
Hi Richard,
I have taken legal advice from our general council who have advised us not to pursue a route which involves changing code that nVidia wrote, I am not prepared to go into any further details and share privileged information. We are working very hard to find a solution for ATI so please respect our position in this situation.
Best,
Lee



Die Aussage von Huddy war ja nicht, "hey CPU-PhysX unterstützt keinen automatischen, voll transparenten Multi-Core-Support" sondern er sagte sinngemäß "nVidia verhindert, dass CPU-PhysX Multi-Core Prozessoren optimal nutzt um GPU-PhysX zu pushen". Und letzteres ist nun mal in jeder Hinsicht falsch und reine Propaganda, egal wie man es dreht.
Die Aussage von Huddy war:
http://www.bit-tech.net/bits/interviews/2010/01/06/interview-amd-on-game-development-and-dx11/5
The other thing is that all these CPU cores we have are underutilised and I'm going to take another pop at Nvidia here. When they bought Ageia, they had a fairly respectable multicore implementation of PhysX. If you look at it now it basically runs predominantly on one, or at most, two cores. That's pretty shabby! I wonder why Nvidia has done that? I wonder why Nvidia has failed to do all their QA on stuff they don't care about - making it run efficiently on CPU cores - because the company doesn't care about the consumer experience it just cares about selling you more graphics cards by coding it so the GPU appears faster than the CPU.

It's the same thing as Intel's old compiler tricks that it used to do; Nvidia simply takes out all the multicore optimisations in PhysX. In fact, if coded well, the CPU can tackle most of the physics situations presented to it. The emphasis we're seeing on GPU physics is an over-emphasis that comes from one company having GPU physics... promoting PhysX as if it's Gods answer to all physics problems, when actually it's more a solution in search of problems.
Da Huddy jemand ist, der Ahnung hat, und man ihm auch zutrauen kann, dass diese Aussage auf eigenen/internen Messungen beruht, so impliziert dies, dass seine Aussage eher wahr ist.
Du sagst, diese Aussage ist falsch. Kannst du das belegen? Oder diese widerlegen? Nicht einmal Nvidia hat es geschafft, diese Äußerung zu widerlegen, sondern bloß darauf verwiesen, dass Vantage mehrere Rechenkerne nutzt, indem bei jedem weiteren Kern eine neue Simulation gestartet wird, was so oder so eher Verdienst von Ageia ist und nicht von Nvidia.

Gast
2010-03-09, 14:39:33
Erstmal sollte Mr. H seine Aussagen belegen. Dann kann man auch etwas widerlegen. Bis auf das PhysX-Multicore gebrabbel sind alles Anschuldigungen ohne Fakten von Mr. H und seinem Arbeitgeber AMD.

Wie genau stellst du dir denn vor das man sowas belegt? Das NV den PhysX-Support nicht "for free" bekommt war für mich vom ersten Tag an klar. Ich verstehe die Aufregung nicht im geringsten.

LovesuckZ
2010-03-09, 14:44:11
Wie genau stellst du dir denn vor das man sowas belegt? Das NV den PhysX-Support nicht "for free" bekommt war für mich vom ersten Tag an klar. Ich verstehe die Aufregung nicht im geringsten.

Er sagt, dass nVidia Geld bezahlt, dass die Publisher gegen den Willen der Entwickler sie dazu zwingen GPU-PhysX einzubauen. Und das dürfte sich dann auch auf jedes nVidia exklusive Feature beziehen...
Ich will für diese - verdammt unverschämte und dreiste Behauptung - auch Argumente und Beispiele sehen. Mr.H will ernstgenommen werden? Dann sollte er anfangen sich wie ein vernünftiger Menschen zu benehmen. Ansonsten steht er bald auf einer Stufe mit Char-lie.

Gast
2010-03-09, 14:48:48
Er sagt, dass nVidia Geld bezahlt, dass die Publisher gegen den Willen der Entwickler sie dazu zwingen GPU-PhysX einzubauen. Und das dürfte sich dann auch auf jedes nVidia exklusive Feature beziehen...
Ich will für diese - verdammt unverschämte und dreiste Behauptung - auch Argumente und Beispiele sehen. Mr.H will ernstgenommen werden? Dann sollte er anfangen sich wie ein vernünftiger Menschen zu benehmen. Ansonsten steht er bald auf einer Stufe mit Char-lie.

Das ein AMD-Mitarbeiter bei dir auf der Stufe von Charlie steht wundert mich nicht. Wenn man schon ein Feinbild hat dann wenigstens konsequent. Alles und jeder wer oder was gegen NV argumentiert = Lüge, Propaganda.

Thats Buissnes, sorry. Ich sehe nicht den geringsten Grund daran zu zweifeln. Oder wie glaubst du denn das es abläuft? Natürlich geht NV zu den Publisher und handelt mit ihnen einen Deal aus.

LovesuckZ
2010-03-09, 14:58:36
Das ein AMD-Mitarbeiter bei dir auf der Stufe von Charlie steht wundert mich nicht. Wenn man schon ein Feinbild hat dann wenigstens konsequent. Alles und jeder wer oder was gegen NV argumentiert = Lüge, Propaganda.

Nein, es liegt nicht daran, dass er ein AMD-Mitarbeiter ist. Es liegt an der Art der Öffentlichkeitsarbeit.


Thats Buissnes, sorry. Ich sehe nicht den geringsten Grund daran zu zweifeln. Oder wie glaubst du denn das es abläuft? Natürlich geht NV zu den Publisher und handelt mit ihnen einen Deal aus.

Kein Unterschied zu AMD. Nur, dass AMD über weniger Features verfügt und somit weniger "Deals abschließen" kann. oder glaubst du, dass AMD 3D Stereo pusht ohne eigene 3D Stereo Lösung?
Ich habe damit auch keine Probleme. Aber sobald solche Leute, wie Mr. H oder Char-lie, rants in der Öffenlichkeit wegen diesen Kleinigkeit austragen, dann wird es nicht nur nervig, sondern lässt tief in die Unternehmens- und Persönlichkeitsstruktur blicken.

Bucklew
2010-03-09, 15:00:30
Hat Huddy irgendwo gesagt, dass Nvidia das verboten hat?
Das hat Lars bei Hexus gesagt:

(*AA for Arkum Dings, nicht für Anti-Aliasing)
Darauf reagierte Huddy damit:
http://forums.hexus.net/hexus-net/174266-news-amd-exec-says-nvidia-neglecting-gamers-5.html#post1808312

Und hier ist der Inhalt dieser Emails:
http://www.brightsideofnews.com/news/2009/11/4/batmangate-amd-vs-nvidia-vs-eidos-fight-analyzed.aspx?pageid=2
Ua:
Huddy dreht sich die Sache genau wie er braucht. Der Knackpunkt ist folgender: Nvidia hat einen AA-Code für Batman AA entwickelt. Diesen QA'ed und an Eidos weitergeliefert, damit diese ihn nutzen können im Spiel. Das Nvidia natürlich nur auf ihren Karten QA'ed sollte logisch sein und daher enthält dieser Code eine Abfrage ob Nvidiakarte ja oder nein. Wenn ja, dann kann man AA einschalten, wenn keine Nvidiakarte, dann nicht. Absolut legitim, besonders im Hinblick darauf halt, dass der AA-Code ja auch funktionieren muss. Wie soll das Nvidia bei ATI-Karten garantieren?

Was AMD jetzt wollte ist einfach, dass Eidos dieses Codeabfrage der Vendor-ID löscht. Nach dem Motto: Nvidia hat die Arbeit gemacht und jetzt schaltet ihr, Eidos, das auch einfach für uns frei. Darauf sagt Eidos nein, der Code ist von Nvidia so geliefert worden und wir dürfen ihn nicht ändern. Was auch absolut richtig ist, schließlich könnte bei einem geänderten Code auch Nvidia keine QA mehr übernehmen.

Das perverse an der Situation ist, dass AMD zwar gern den Nvidiacode für lau von Eidos umgeschrieben haben möchte, damit er auch ihre Karten nutzt, gleichzeitig aber keine Lust haben Geld und Ressourcen da rein zu stecken Eidos einen ähnlichen Code für ihre Karten zu liefern. Warum nicht?

Und genau diese Verdrehungen der Tatsachen macht einen Huddy absolut unglaubwürdig. Zumal ich (unabhängig von Wahrheit, Fakten & Co) nicht denke, dass solche Diskussionen in die Öffentlichkeit gehören. Aber Huddys einziger Job scheint es zu sein so oft wie möglich Schmutz auf Nvidia zu schmeißen.

Grestorn
2010-03-09, 15:01:11
Hat Huddy irgendwo gesagt, dass Nvidia das verboten hat?

Die ganzen Mails belegen gar nichts in dieser Richtung, sorry. Man liest nur Beschuldigungen von Huddy und Statements in E-Mails, aus denen hervorgeht, dass man aus rechtlichen Gründen den Code von nVidia lieber nicht ändern will.

Was nicht hervorgeht, warum AMD nicht einfach eigenen Code geliefert hat. Huddy unterstellt ja, dass nVidia genau den Einbau von AMD eigenem Code verhindert hätte. Er behauptet außerdem, dass die ID-Abfrage nur existiert, weil nVidia darauf bestanden hätte.

nVidia gibt andere Gründe für den ID-Check an (ältere ATI Treiber hätten den Hack nicht unterstützt) und sagt, sie hätten nichts dagegen, wenn die Abfrage jetzt entfernt würde.

Theoretisch wäre denkbar, dass hinter den Kulissen nVidia entgegen eigener Aussagen weiterhin blockt. Auch denkbar (und für mich deutlich wahrscheinlicher) ist, dass die Rechtsabteilung von Eidos einfach sagt: Fremder Code wird von uns nicht angefasst, Punkt.

Ich behaupte, solch klarer Foul-Play von nVidia wäre schon lange von irgendjemandem der Beteiligten offengelegt worden...

Da Huddy jemand ist, der Ahnung hat, und man ihm auch zutrauen kann, dass diese Aussage auf eigenen/internen Messungen beruht, so impliziert dies, dass seine Aussage eher wahr ist.

Die Aussage, dass Ageia eine funktionierende, transparente(!!! also ohne explizites Multithreading der nutzenden Anwendung) Multi-Core Unterstützung in ihrer API hatte und die von nVidia ausgebaut wurde, ließe sich ja extrem einfach verifizieren, wenn man sich mit den APIs auskennt.

Gibt es von irgendeiner unabhängigen Stelle eine Bestätigung dieser Aussage? Nein? Komisch.

Sefegiru
2010-03-09, 21:35:41
Wo gab es zu der Zeit MultiCPU PhysX ? Gab es nicht und gibt es nicht wirklich, mehr sagt er nicht und damit hatte er Recht. Woran das liegt ist dem Kunden egal, Fakt ist das zu Ageia Zeiten der Support dahingehend besser war.

Grestorn
2010-03-10, 08:07:42
Wo gab es zu der Zeit MultiCPU PhysX ? Gab es nicht und gibt es nicht wirklich, mehr sagt er nicht und damit hatte er Recht. Woran das liegt ist dem Kunden egal, Fakt ist das zu Ageia Zeiten der Support dahingehend besser war.

Moment, Du schreibst es gab KEIN MultiCore CPU PhysX aber der dahingehende Support von Ageia war besser? Das ist doch ein direkter Widerspruch!

Gast
2010-03-10, 08:12:27
Moment, Du schreibst es gab KEIN MultiCore CPU PhysX aber der dahingehende Support von Ageia war besser? Das ist doch ein direkter Widerspruch!

Muss man wirklich auf dem Niveau diskutieren? Hauptsache den "Gegner" nieder machen? Es ist offensichtlich was er gemeint hat und damit hat er auch Recht. Seit NV GPU-PhysX forced ist der entsprechende CPU-Part auf einen Kern beschränkt, was man einfach nur als absichtliche Einschränkung beschreiben kann. Denn für die GPU muss ich den Code viel stärker parallelisieren.

Als Ageia noch eigenständig was gab es das Problem nicht. Es gab damals zwar auch eine eigenen PhysX-Karten, aber eine entsprechende Quad-Core-CPU konnte damit dank gut parallelisierten Code meist ganz gut mithalten.

Grestorn
2010-03-10, 08:21:41
Sorry, nein, mir war nicht klar, was er meinte. Und das ist absolut ehrlich. Nieder machen wollte ich ihn nicht.

Also, Du meinst seit dem von nVidia GPU-PhysX angeboten wird, ist der CPU Part beschränkt. nVidia verneint das, und es gibt keinen Hinweis, dass dies falsch ist.

Ein solcher Hinweis wäre doch, wenn eine Applikation, die mit alten Ageia PhysX Treibern auf MultiCore CPUs heute besser läuft als mit den neuen nVidia PhysX läuft. Gibt es eine solche Applikation?

Ich persönlich glaube nicht, dass die PhysX CPU Implementierung jemals von sich aus MultiCore fähig war. Die App konnte schon immer die Last auf mehrere Threads verteilen, musste das aber selbst machen. Das würde Sinn machen, nicht nur zu den vorhandenen Aussagen sondern auf vom Standpunkt des Programmierers aus.

Gast
2010-03-10, 08:29:08
Also, Du meinst seit dem von nVidia GPU-PhysX angeboten wird, ist der CPU Part beschränkt. nVidia verneint das, und es gibt keinen Hinweis, dass dies falsch ist.

Was gilt für dich als Hinweis? Das PhysX mit den Kernen nicht skaliert ist erstmal ein Fakt, das kann man leicht nachtesten. Und gerade Physik ist prädestiniert für eine parallele Abarbeitung.


Ein solcher Hinweis wäre doch, wenn eine Applikation, die mit alten Ageia PhysX Treibern auf MultiCore CPUs heute besser läuft als mit den neuen nVidia PhysX läuft. Gibt es eine solche Applikation?

Nein, da es nicht an den Treibern liegt sondern an der App. Die ersten Apps mit PhysX liefen auch gut auf der CPU und skalierten mit den Kernen, seit NV die Kontrolle hat ist der CPU-Part einfach unbrauchbar.


Ich persönlich glaube nicht, dass die PhysX CPU Implementierung jemals von sich aus MultiCore fähig war. Die App konnte schon immer die Last auf mehrere Threads verteilen, musste das aber selbst machen. Das würde Sinn machen, nicht nur zu den vorhandenen Aussagen sondern auf vom Standpunkt des Programmierers aus.

Ich verstehe leider nicht was du damit sagen willst.

Grestorn
2010-03-10, 08:57:07
Was gilt für dich als Hinweis? Das PhysX mit den Kernen nicht skaliert ist erstmal ein Fakt, das kann man leicht nachtesten. Und gerade Physik ist prädestiniert für eine parallele Abarbeitung.

Das ist Fakt, aber die Aussage war doch, dass es früher (zu Ageia Zeiten) anders war. Und dazu hätte ich gerne einen nachprüfbaren Hinweis, sonst war es einfach so, wie nVidia sagt: Es war schon immer so, MultiCore Support muss die Applikation zur Verfügung stellen und nicht PhysX.

Nein, da es nicht an den Treibern liegt sondern an der App. Die ersten Apps mit PhysX liefen auch gut auf der CPU und skalierten mit den Kernen, seit NV die Kontrolle hat ist der CPU-Part einfach unbrauchbar.

Quelle für diese Aussage?

Ich verstehe leider nicht was du damit sagen willst.Was verstehst Du daran nicht?

Es gibt theoretisch zwei Möglichkeiten, wie man MultiCore nutzen kann:

Wenn die Implementirung der API (also PhysX) selbst MultiCore fähig ist, dann würde es reichen wenn die Applikation einen Aufruf (sinngemäß) macht:

Berechne(einKomplexesProblem);

und die API verteilt dieses Problem selbständig auf x Cores, wenn alle Cores fertig sind, kommt das Ergebnis zurück. Das wäre für die Applikation vollkommen tranparent, hat aber Nachteile, weil die App nicht weiß was passiert und auch keinen Einfluss darauf hat, wann und wie das Ergebnis berechnet wird.

Eine andere Lösung wäre, dass die App das zu berechnende Problem erst mal selbst aufteilt und auf unabhängige Threads verteilt (Threadprogrammierung ist etwas komplex, das lässt sich hier nicht so einfach darstellen, also bitte jetzt nicht zu genau nehmen):

TeileProblemÍn4Teile;
Starte4Threads;

(in jedem Thread): Berechne(Teilproblem);

WarteBisAlleThreadsFertigSind;

jetzt klarer, was ich meine?

Gast1111
2010-03-10, 13:12:22
Nö, auf einer Grafikkarte arbeitet PhysX massiv parallel, auf einer Multicore-CPU ist das plötzlich ein Problem?

Bis dato beeindruckt PhysX nur dann wenn man eine entsprechende Grafikkarte hat, aber es ist fast immer so, dass diese Spiele mit deaktivierten GPU-PhysX-Effekten unterdurchschnittlich aussehen.
Die Fälle mehren sich in denen zu befürchten ist, dass Effekte einfach weggelassen wurden, die davor aber State of the Art waren.

Beim Kunden kommt also im Mittel der Eindruck an, dass die Qualität der Grafik abgenommen hat, sofern dieser keine PhysX-taugliche Geforce besitzt.

Auch bei Batman-Gate ist die Sache nicht gegessen, laut Gamestar soll beim Vergleich der PC mit der Konsolenfassung zu erkennen sein, dass eben doch einiges fehlt wenn PhysX inaktiv ist.
Konkret, soll es in einigen Räumen in der X-Box-Fassung statische Nebelschwaden geben die in der PC-Fassung ohne PhysX nicht mehr auftauchen.
Ich kann das nicht verifizieren da ich keine dieser Versionen besitze, sowas würde ich denen aber schon zutrauen.

In NV zu vertrauen halte ich für einen schweren Fehler, die waren noch nie vertrauenswürdig. Man kann davon ausgehen, dass der NV-CEO wenn er das Maul aufmacht eigentlich nur Müll quatscht und irgendwelche Unschuldsbeteuerungen seitens NV haben für mich schon lange keinen Wert mehr.
Aber scheiße nochmal, die bauen verdammt gute Grafikkarten!

Grestorn
2010-03-10, 13:20:17
Nö, auf einer Grafikkarte arbeitet PhysX massiv parallel, auf einer Multicore-CPU ist das plötzlich ein Problem?

Ja. Ganz unterschiedliche Konzepte.

Ich behaupte auch (ohne es konkret zu wissen), dass sich vermutlich die API unterscheidet, je nachdem ob man die Berechnung von der GPU oder der CPU ausführen lässt.

Sefegiru
2010-03-10, 14:46:55
Der Gast hat schon Recht mit dem wie ich es meinte und ich habe Greenstorns posting nicht als Angriff aufgefasst. Ganz und gar nicht.

Ich bleibe jedoch bei der Aussage das MultiCPU zu Ageia Zeiten besser war als ab der Übernahme von NV. würde wirtschaftlich gesehen auch Sinn machen von NV das zu beschneiden denn sonst wäre PhysX @ GPU ja kein besonders großer Mehrwert.

Grestorn
2010-03-10, 14:54:21
Ich bleibe jedoch bei der Aussage das MultiCPU zu Ageia Zeiten besser war als ab der Übernahme von NV. würde wirtschaftlich gesehen auch Sinn machen von NV das zu beschneiden denn sonst wäre PhysX @ GPU ja kein besonders großer Mehrwert.

Es macht keinen Sinn, da nVidia PhysX ja auch an Kunden verkauft, die keinen GPU-Support brauchen und haben wollen. De Fakto wird PhysX in den meisten Spielen ohne GPU Unterstützung benutzt. Und diese Kunden würde man vor den Kopf stoßen und damit die Markposition von PhysX schwächen, was ganz und gar nicht im Sinne von nVidia sein kann.

Übrigens ist das ein weiterer Hinweis, dass die API nicht transparent auf CPU oder GPU nutzbar ist. Sonst würde bei diesen Spielen automatisch die GPU genutzt werden, was aber nicht der Fall ist.

Gast
2010-03-10, 17:21:39
Ja. Ganz unterschiedliche Konzepte.

Ich behaupte auch (ohne es konkret zu wissen), dass sich vermutlich die API unterscheidet, je nachdem ob man die Berechnung von der GPU oder der CPU ausführen lässt.

Glaub ich nicht, im PhysX-Treiber kann man die HW-Beschleunigung abschalten da wird kein API-Wechsel im Spiel durchgeführt. Das Spiel wird davon wahrscheinlich nicht einmal was merken wenn es nicht nachfragt.

So wie es aussieht, kann man PhysX auf der CPU nicht Multithreaded gestalten. Man kann zwar eine n-te Simulation dazuschalten diese hat aber keine Auswirkung auf die jeweils andere.

LovesuckZ
2010-03-10, 17:27:45
Glaub ich nicht, im PhysX-Treiber kann man die HW-Beschleunigung abschalten da wird kein API-Wechsel im Spiel durchgeführt. Das Spiel wird davon wahrscheinlich nicht einmal was merken wenn es nicht nachfragt.

Es läuft dann über den Fallback Cuda -> CPU. Und es ist nicht möglich, dass die PhysX-API einfach alle Kerne mit Aufgaben eindeckt. Das müsste der Entwickler programmieren.


So wie es aussieht, kann man PhysX auf der CPU nicht Multithreaded gestalten. Man kann zwar eine n-te Simulation dazuschalten diese hat aber keine Auswirkung auf die jeweils andere.

Es bleibt weiterhin Multithreaded und nichts anderes wird auf der GPU gemacht. Tausende Threads mit unabhängigen Berechnungen. Das macht Physik auf der CPU auch zum Teufelskreis: Für Effekte mit haufen einzelner Objekte sind sie viel zu langsam. CPUs sind für sequenzielle Berechnungen, die eben nicht gleichzeitig erfolgen müssen, hervorragend geeignet.
Und Fluidmark wird es doch zeigen. Akzeptiert, dass gewisse Fantasievorstellungen eben nicht real werden können.

Sefegiru
2010-03-10, 18:20:17
Es gibt ja CPU PhysX, singlethreaded/ bzw mukltithreaded aber eben maximal in zwei Threads........das ist auch was ganz anderes als es auf ihre "Cuda Cores" zu verteilen.

Gast
2010-03-10, 22:43:54
Es bleibt weiterhin Multithreaded und nichts anderes wird auf der GPU gemacht. Tausende Threads mit unabhängigen Berechnungen. Das macht Physik auf der CPU auch zum Teufelskreis: Für Effekte mit haufen einzelner Objekte sind sie viel zu langsam. CPUs sind für sequenzielle Berechnungen, die eben nicht gleichzeitig erfolgen müssen, hervorragend geeignet.

Noch viel viel schlimmer. Launche mal tausende von Threads auf der CPU. Das Ergebnis ist, dass du eine Leistung hast, als wenn deine CPU keinen Cache hätte (das hat damals zu 486er-Zeiten, als man das noch im BIOS abschalten konnte, schon 286er-Speed gebracht).

Gut zu sehen ist der Effekt an Intels Ice Storm Fighters Benchmark: Ab einer bestimmten Zahl von Objekten (pro Kern!) geht der CPU schlagartig die Puste aus.


-Carsten

Gast
2010-03-10, 23:53:23
Noch viel viel schlimmer. Launche mal tausende von Threads auf der CPU. Das Ergebnis ist, dass du eine Leistung hast, als wenn deine CPU keinen Cache hätte (das hat damals zu 486er-Zeiten, als man das noch im BIOS abschalten konnte, schon 286er-Speed gebracht).

Gut zu sehen ist der Effekt an Intels Ice Storm Fighters Benchmark: Ab einer bestimmten Zahl von Objekten (pro Kern!) geht der CPU schlagartig die Puste aus.


-Carsten

Totaler Mist, bei eigenen Experimenten hat sich ergeben, dass die Berechnungsdauer Linear mit der Threadzahl steigt.
Bei Intel wird diese sogar durch die guten Vorraussage-Algos irgendwann an Steigung verlieren.
Aber hier ist ja nicht gefragt 1000 Threads auf der CPU auszuführen sondern die Physik-Berechnung aufzuteilen.
Kern 1 berechnet Objekt 0 - 63, Kern 2 berechnet Objekt 64 - 127, Kern 3 ....

Das einzige Problem ist es die Daten sauber zwischen den Threads zu verwalten, aber das scheint auch auf der GPU schon kein Problem zu sein.
Mit ein bißchen Tricksen ist das auch auf der CPU möglich.

deekey777
2010-03-11, 05:26:41
Threads auf einer GPU sind schon etwas anderes als auf einer CPU, oder?

Menace
2010-03-11, 06:34:34
Meine Bitten (weniger Reden, mehr Handeln seitens AMD) scheinen erhört worden zu sein. Hoffentlich folgen den Ankündigen auch Taten.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1268269766

Putting gamers first: At the heart of all of our efforts is the mandate to make gamers’ experiences better – those with AMD hardware in their system, or not, deserve the best gaming experience possible.

Wobei sie mir bei der von mir hervorgehobenen Aussage mal wieder einen Fehler machen.

bloub
2010-03-11, 11:22:39
Ich bleibe jedoch bei der Aussage das MultiCPU zu Ageia Zeiten besser war als ab der Übernahme von NV.

da liegt das problem, es gibt nur aussagen, beweise aller art dafür sind leider fehlanzeige.

Gast
2010-03-11, 12:51:53
Es hat noch niemand versucht dies zu ergründen.

Sefegiru
2010-03-11, 17:21:06
Hmm wie war das mit der Demo von dem einem Spiel da? Ich habe mehrfach Vergleiche mal zwischen "alten" Ageia PhysX "Treibern" und neueren gemacht. Da war die Auslastung bei den älteren auf den vier CPU Kernen deutlich höher, bei neueren nur bei einem Kern. Sowas gibt mir zu denken.

mapel110
2010-03-11, 19:20:58
http://www.xbitlabs.com/news/multimedia/display/20100311101148_Nvidia_Denies_Bribing_Game_Developers_for_Implementation_of_PhysX .html
“There could be no deal under which we would cash somebody in for using PhysX,” said Ashutosh Rege, the worldwide director of developer technology at Nvidia.

Gast
2010-03-11, 19:43:07
Das würde jeder sagen, typisches Marketing.

Was solls, vielleicht werden wir in 10 Jahren mehr erfahren wenn Details im EU-Kartellverfahren gegen Nvidia offengelegt werden. ;)

LovesuckZ
2010-03-11, 19:48:41
http://www.xbitlabs.com/news/multimedia/display/20100311101148_Nvidia_Denies_Bribing_Game_Developers_for_Implementation_of_PhysX .html
“There could be no deal under which we would cash somebody in for using PhysX,” said Ashutosh Rege, the worldwide director of developer technology at Nvidia.

Ich glaube Mr. H wartet nur darauf, bis irgendwer mal sagt, dass er seine Klappe halten soll. Muss ja ziemlich nervig sein dauernd irgendwelche Lügen des Konkurrenten richtig stellen zu müssen.

bloub
2010-03-11, 19:50:40
Es hat noch niemand versucht dies zu ergründen.

wenn jemand etwas behauptet, sollte er auch beweise auf den tisch legen, sonst steht er ganz schön dusselig da. ok manche stehen drauf, dass man sie auslacht, muss jeder für sich selbst entscheiden.

mapel110
2010-03-11, 19:53:16
Ich glaube Mr. H wartet nur darauf, bis irgendwer mal sagt, dass er seine Klappe halten soll. Muss ja ziemlich nervig sein dauernd irgendwelche Lügen des Konkurrenten richtig stellen zu müssen.
Ich denke, nvidia hat nichts gegen solche Vorwürfe. Bekommen sie doch so immer wieder eine Bühne, die Vorteile von PhysX darzustellen.

bloub
2010-03-11, 19:53:34
Hmm wie war das mit der Demo von dem einem Spiel da? Ich habe mehrfach Vergleiche mal zwischen "alten" Ageia PhysX "Treibern" und neueren gemacht. Da war die Auslastung bei den älteren auf den vier CPU Kernen deutlich höher, bei neueren nur bei einem Kern. Sowas gibt mir zu denken.

nichts für ungut, aber das sieht nach "beweis durch behauptung" aus.

Sefegiru
2010-03-11, 20:15:29
Das mag sein, wenn ich Zeit und Muße habe werde ich der Sache mal annehmen da scheinbar alle "großen" Seiten keinen Bock dazu haben.....

LovesuckZ
2010-03-11, 20:25:44
Ich denke, nvidia hat nichts gegen solche Vorwürfe. Bekommen sie doch so immer wieder eine Bühne, die Vorteile von PhysX darzustellen.

Das Problem ist, dass die Vorteile schön längst hätten bekannt sein müssen. Solche Gegenmaßnahmen offenbaren, dass die Welt eben nicht weiß, was PhysX eigentlich ist. Schlechtes Marketing von ihrerseite.
Wenn mehr Menschen einem Typen glauben, der in Bezug seiner Kritik nicht neutral ist, dann stimmt etwas nicht.

bloub
2010-03-11, 20:41:28
Das mag sein, wenn ich Zeit und Muße habe werde ich der Sache mal annehmen da scheinbar alle "großen" Seiten keinen Bock dazu haben.....

war nicht persönlich gemeint, für amd sollte es doch kein problem sein die behauptungen durch tests zu beweisen. nur da kommt irgendwie nichts und das finde ich schwach. so manövriert man sich ganz von selbst in eine dumme position.

Sefegiru
2010-03-11, 21:06:46
Ich verstehe das schon was du meinst. Ich muss mir mal einen Tag dafür frei schaufeln-.-

bloub
2010-03-11, 21:09:36
so wichtig ist mir das thema dann doch nicht ;).

Sefegiru
2010-03-11, 21:50:49
Och mir schon und das ja auch nur so lange es Spaß macht.

Gast
2010-03-12, 07:37:19
Totaler Mist, bei eigenen Experimenten hat sich ergeben, dass die Berechnungsdauer Linear mit der Threadzahl steigt.
Bei Intel wird diese sogar durch die guten Vorraussage-Algos irgendwann an Steigung verlieren.
Aber hier ist ja nicht gefragt 1000 Threads auf der CPU auszuführen sondern die Physik-Berechnung aufzuteilen.
Kern 1 berechnet Objekt 0 - 63, Kern 2 berechnet Objekt 64 - 127, Kern 3 ....

Das einzige Problem ist es die Daten sauber zwischen den Threads zu verwalten, aber das scheint auch auf der GPU schon kein Problem zu sein.
Mit ein bißchen Tricksen ist das auch auf der CPU möglich.
Dann hast du einen tollen Algorithmus, der den Cache kein bißchen fragmentiert oder du lässt die Thread-Gruppen seriell abarbeiten.

Oder dein eigenes Experiment zeigt ebenfalls "totalen Mist" weil ebenfalls nicht repräsentativ. ;)


-Carsten

Gast
2010-03-12, 10:40:39
Nö, alles "parallel"... wobei die Programme nicht viele Werte gespeichert haben.

Habe ich bis 128 Threads auf einem Single-Core getrieben.

Auf AMD-System (Athlon K7 2Ghz) verhielt sich die Berechnungsdauer linear zu den threads, beim Intel (Pentium-M 1,6GHz Centrino1 Jahr 2005) stieg diese zuerst auch linear, flachte dann aber drastisch ab.

Müsste das mal auch mit meinen Mehrkernern machen.

AnarchX
2010-03-17, 20:57:16
http://physxinfo.com/news/wp-content/uploads/2010/03/fluidmark_graph.jpg
[Three emitters were used (# CPU cores = 4) with fixed number of particles - 15 000. Timerange - 60 sec. 800x600 rendering window. System: C2Q 9400 @ 2.66 GHz CPU, Nvidia GTX 275 + GTX 260 (192 sp) GPUs, 4GB RAM, Win XP, PhysX System Software 9.09.1112]
Mehr: http://physxinfo.com/news/2390/new-physx-fluidmark-1-2-first-tests/#more-2390

Gast
2010-03-17, 21:26:49
Sehe ich das richtig PhysX auf einem C2Q 9400 ist schneller als wenn das eine GT275 macht?

y33H@
2010-03-17, 22:39:38
Wobei die GTX275 auch noch rendern muss, zusätzlich zur PhysX-Last ;)

Gast
2010-03-17, 22:53:17
Klar, von sich aus wollen die "Game Developer" gar nichts machen. Nehmen den Konsolenport 1zu1 und fertig.
Jetzt kommt Nvidia daher und meint Physik wäre nett. Entweder sie sorgen selbst dafür, siehe Batman oder sie entschädigen die Entwickler.
Pervers eigentlich, die Entwickler profitieren ebenfalls von der Arbeit.

Warum so etwas gern dementiert wird ist auch klar. Nvidia ist kein gewaltiges Unternehmen mit zig Milliarden $ Gewinn. Die Wahrheit ist komplexer als gern dargestellt. Nvidia kann unmöglich, das ist zu 100% ausgeschlossen, die Entwickler bezahlen. Nvidia kann ihnen Anreize bieten oder deren Arbeit übernehmen, mehr nicht.

-]Vips[-
2010-03-18, 00:07:00
Das perverse an der Situation ist, dass AMD zwar gern den Nvidiacode für lau von Eidos umgeschrieben haben möchte, damit er auch ihre Karten nutzt, gleichzeitig aber keine Lust haben Geld und Ressourcen da rein zu stecken Eidos einen ähnlichen Code für ihre Karten zu liefern. Warum nicht?


Was mir nicht einleuchtet, warum AMD und NVIDIA in Sachen Physikberechnungen nicht einfach zusammenarbeiten. Ich verstehe nich wo da das Problem liegt?

Diese zwei Kindsköpfe sind da nicht besser als unsere lieben Politiker wo alles was von der Oposition kommt schlecht geredet wird und keiner mit dem anderen zusammenarbeiten will. Ich kack auf PhysX wenn ich dazu eine zweite Graka brauche, ist doch hirnrissig. Da schimpften sehr viele über die PPU Karte (weil zusätzliche Hardware, Stromfresser) aber die gleichen Deppen würden oder haben bereits schon eine zweite Graka für die PhysX berechnung eingebaut :rolleyes:!

Schluss endlich wird es leider wieder an Microsoft hängen bleiben hier einen brauchbaren und guten Physik Standard einzuführen. Was ich persönlich am besten finden würde, weil so keiner benachteiligt wird und jeder Hersteller, Enwickler Zugriff auf die Technik hat. Ohne Standard kann sich halt keine neue Technik etablieren, wo wären wir heute wenn es kein DirectX gäbe?

Ich bin ein Fan von PhysX aber ich hoffe doch sehr stark das PhysX als auch Havok so schnell wie möglich von der Bildfläche verschwinden werden und (obwohl es sicher keiner hören will ;-) mit DirectX so schnell wie möglich eine Lösung kommen wird (PhysX oder Havok in DirectX einbinden). Ich kann mir sonst nicht vorstellen wie sich diese Technik sonst durchsetzen soll.

MG

y33H@
2010-03-18, 00:16:35
Havok und PhysX sind eine Library, DirectX [11] eine API. Ohne Library ist eine gemeinsame Schnittstelle nutzlos.

S940
2010-03-18, 01:40:00
Havok und PhysX sind eine Library,
Naja ... PhysX war früher mal nur ein Chip ;-)
Die SDK heißt eigentlich Novodex ...
http://www.gamasutra.com/php-bin/news_index.php?story=5080
http://www.thefreelibrary.com/AGEIA%27s+NovodeX+Physics+SDK+Opens+New+Frontier+in+Game+Realism%3B...-a0129860905

Aber naja .. seit nV den Laden hat, kennt sich keiner mehr aus ;)

y33H@
2010-03-18, 01:40:48
Das SDK hieß Novodex, richtig. Jetzt heißt es aber PhysX *SCNR*

S940
2010-03-18, 01:51:39
Jo ich wollts nur für etwaige google Suchen genannt haben. Anfangs gabs da schöne Standardimplementationen ..

NovodeX AG, the games physics middleware provider based in Zurich, Switzerland, is pleased to announce the release of NovodeX Rocket V1.0, a powerful tool for physics authoring, prototyping, testing, debugging, and visualization. NovodeX Rocket is a DirectX 9.0 application built atop v2.1.1 of the Novodex Physics SDK, which itself will be released in the immediate future.
http://www.gamedev.net/community/forums/topic.asp?topic_id=258420&forum_id=55&gforum_id=

Das liest sich auch ganz nett:

The Physics Abstraction Layer (PAL) provides a unified interface to a number of different physics engines. This enables the use of multiple physics engines within one application. It is not just a simple physics wrapper, but provides an extensible plug-in architecture for the physics system, as well as extended functionality for common simulation components.

PAL provides a number of benefits to game and simulation developers. First of all PAL is very easy to use, so you can easily integrate physics into your application. Secondly, it does not restrict you to one particular physics engine. This gives you more flexibility, allowing you to easily upgrade your physics system if you decide to pursue a commercial engine, select different engines for alternative platforms, or swap to another engine if the physics engine developers stop development and support for their engine. This flexibility allows you to choose the engine that gives you the best performance for your application. Finally, PAL has an extensive set of common features such as simulating different devices or loading physics configurations from XML, COLLADA and Scythe files.
PAL supports a large number of physics engines. It provides a unique interface for:

* Physics Engines
o Box2D (experimental)
o Bullet
o Dynamechs(deprecated)
o Havok (experimental)
o IBDS (experimental)
o JigLib
o Meqon(deprecated)
o Newton
o ODE
o OpenTissue (experimental)
o PhysX (a.k.a Novodex, Ageia PhysX, nVidia PhysX)
o Simple Physics Engine (experimental)
o Tokamak
o TrueAxis


http://www.adrianboeing.com/pal/index.html

Wäre ja eigentlich alles dabei ... (aber kA ob da noch Pferdefüße lauern)

Gast
2010-03-18, 11:45:56
Wobei die GTX275 auch noch rendern muss, zusätzlich zur PhysX-Last ;)

Trotzdem beschämend, oder?!
Nvidia bewirbt seine Gerätschaften ja damit, dass die Karten Beides ganz toll gleichzeitig abarbeiten können.
Eigentlich sieht man damit, dass eine moderne Multicore-CPU doch mehr kann als es sich Nvidia wünscht. Wenn dann auch noch eine so gute Grafikkarte wie die GT275 mit einem QuadCore-Setup nass machen kann und das so deutlich, dann ... ein Schelm wer böses dabei denkt!

deekey777
2010-03-18, 12:13:38
Wobei die GTX275 auch noch rendern muss, zusätzlich zur PhysX-Last ;)
Ich bin mal so frei und behaupte, dass eine Simulation von 15.000 Partikeln zu wenig ist, um diese auf die GPU auszulagern.

y33H@
2010-03-18, 12:22:34
Sobald das Ding da ist, kann man ja mal damit rumspielen =)

Gast
2010-03-18, 13:22:17
Ich bin mal so frei und behaupte, dass eine Simulation von 15.000 Partikeln zu wenig ist, um diese auf die GPU auszulagern.

Das ist Wunschdenken und unlogisch, dann würde ein Gespann von GT275 und GT260 (für PhysX) nicht so ausschlagen.

S940
2010-03-19, 12:56:03
Wobei die GTX275 auch noch rendern muss, zusätzlich zur PhysX-Last ;)
Naja, dafür ist das nur auf nem Q9400 ... lass das Ding mal auf nem Gulftown mit aktiviertem HT laufen, Ihr habt doch einen ind er Redaktion, oder ? :)

Quaker
2010-03-19, 13:01:34
Vips[-;7910843']Was mir nicht einleuchtet, warum AMD und NVIDIA in Sachen Physikberechnungen nicht einfach zusammenarbeiten. Ich verstehe nich wo da das Problem liegt?

Diese zwei Kindsköpfe sind da nicht besser als unsere lieben Politiker wo alles was von der Oposition kommt schlecht geredet wird und keiner mit dem anderen zusammenarbeiten will. Ich kack auf PhysX wenn ich dazu eine zweite Graka brauche, ist doch hirnrissig. Da schimpften sehr viele über die PPU Karte (weil zusätzliche Hardware, Stromfresser) aber die gleichen Deppen würden oder haben bereits schon eine zweite Graka für die PhysX berechnung eingebaut :rolleyes:!

Schluss endlich wird es leider wieder an Microsoft hängen bleiben hier einen brauchbaren und guten Physik Standard einzuführen. Was ich persönlich am besten finden würde, weil so keiner benachteiligt wird und jeder Hersteller, Enwickler Zugriff auf die Technik hat. Ohne Standard kann sich halt keine neue Technik etablieren, wo wären wir heute wenn es kein DirectX gäbe?

Ich bin ein Fan von PhysX aber ich hoffe doch sehr stark das PhysX als auch Havok so schnell wie möglich von der Bildfläche verschwinden werden und (obwohl es sicher keiner hören will ;-) mit DirectX so schnell wie möglich eine Lösung kommen wird (PhysX oder Havok in DirectX einbinden). Ich kann mir sonst nicht vorstellen wie sich diese Technik sonst durchsetzen soll.

MG
Für sowas hat man eben Standards, damit solche "Auswüchse" wie PhysX nicht nötig sind...
Aber nVidia musste ja sowas einführen, damit sie wenigstens noch ein kleines Argument für ihre veraltete DX10 Hardware haben... (gibt ja genügend Leute die auf diesen Marketing Mist reinfallen)
Eigentlich clever, aber nicht sehr förderlich für die Allgemeinheit.

deekey777
2010-03-19, 13:13:26
Das ist Wunschdenken und unlogisch, dann würde ein Gespann von GT275 und GT260 (für PhysX) nicht so ausschlagen.
Was hat ein Gespann von zwei Grafikkarten damit zu tun?
Es dauert einige Zeit, bis die Physik berechnet wird, es dauert auch, bis die Daten an die Grafikkarten geliefert werden. Wenn die Physik zu "einfach" ist, so kann es passieren, dass die Grafikarte dumm da steht und auf die Daten wartet. Und die Grafik kann sieauch nicht berechnen. Ergo bekommt ein Quad-Core mehr Punkte als eine Grafikkarte.

S940
2010-03-19, 14:13:59
Wenn die Physik zu "einfach" ist, so kann es passieren, dass die Grafikarte dumm da steht und auf die Daten wartet.
Äh, wie meinst Du das jetzt genau ?
Wenn die Pysik "einfach" ist, dann sollte die Berechnung doch ein Klacks sein, und die Daten schnell vorliegen - egal ob GPU oder CPU Berechnung.

Oder meinst Du irgendwelche I/O Probleme ?

deekey777
2010-03-19, 14:29:37
Äh, wie meinst Du das jetzt genau ?
Wenn die Pysik "einfach" ist, dann sollte die Berechnung doch ein Klacks sein, und die Daten schnell vorliegen - egal ob GPU oder CPU Berechnung.

Oder meinst Du irgendwelche I/O Probleme ?
Wie schon Gerhard Schröder gesagt haben soll: Woher soll ich das wissen? Ich bin bloß der uneheliche Sohn einer Putzfrau.

Ich habe null Ahnung, ob eine Simulation von 15.000 Partikeln wirklich eine GTX275 auslasten kann. Aber es würde mich nicht wundern, dass die GTX275 unter den allgemeinen GPGPU-Problemen leidet (wie du schon sagtest, zB I/O-Probleme, nicht alle SIMDs können durchgehend ausgelastet werden).
Wie würde das Ergebnis aussehen, wenn es 25.000 Partikel sind - im Vergleich zu einem Quad-Core?

BAA hat nicht umsonst so viel PhysX-Zeug: Für die CPU zu viel, für die Grafikkarte genug.

Meine HD4850 wird in der R700-Demo auch erst bei 27.000 Sternen warm (also über 700 GFLOPS).

deekey777
2010-03-19, 14:53:45
Ich muss ein DP machen:
Kann es sein, dass dieser Test unbeabsichtigt reine Verarsche ist?
Mit der Multi-Core PhysX wird die Physik auf einen anderen Kern ausgelagert. Das ist clever.
Aber was ist mit “# of CPU cores”? Wenn ich den Text richtig verstehe, bleibt die Zahl der Partikel gleich, aber es wird die Anzahl der Emitter erhöht, also die Anzahl der "Emissionsquellen", oder?
For example, with one emitter and multi-core PhysX switched to off, CPU simulation results in 36 global points (64 with 3 emitters – on graph above), while GTX 275 GPU – in 247 points (128 with 3 emitters). But since one emitter can’t utilize more than two cores, number of emitters was increased to gain equality.
Heißt das, dass sie jeweils unterschiedliche Zahl an Emittern verwendet haben?

S940
2010-03-19, 16:10:18
Wie schon Gerhard Schröder gesagt haben soll: Woher soll ich das wissen? Ich bin bloß der uneheliche Sohn einer Putzfrau.

Ich habe null Ahnung, ob eine Simulation von 15.000 Partikeln wirklich eine GTX275 auslasten kann. Aber es würde mich nicht wundern, dass die GTX275 unter den allgemeinen GPGPU-Problemen leidet (wie du schon sagtest, zB I/O-Probleme, nicht alle SIMDs können durchgehend ausgelastet werden).
Wie würde das Ergebnis aussehen, wenn es 25.000 Partikel sind - im Vergleich zu einem Quad-Core?

Ok, also Du meinst, dass die "paar" 15.000 Partikel noch Peanuts sind, noch auf der CPU laufen, und die CPU dann wg. der größeren Single-thread IPC logischerweise vorne liegen muss. Die GPU wäre dann nur schneller, wenn (deutlich) mehr gefordert werden würde. Richtig ?
Dann hab ich kein problem damit ;-)
Heißt das, dass sie jeweils unterschiedliche Zahl an Emittern verwendet haben?
Nö, sie haben beidemal 3 genommen, steht doch in der Beschreibung:
[Three emitters were used (# CPU cores = 4) with fixed number of particles - 15 000. Timerange - 60 sec. 800x600 rendering window. System: C2Q 9400 @ 2.66 GHz CPU, Nvidia GTX 275 + GTX 260 (192 sp) GPUs, 4GB RAM, Win XP, PhysX System Software 9.09.1112]

deekey777
2010-03-19, 19:33:56
Mein Doppelposting war nicht grundlos, ich wollte noch schreiben, dass alles, was ich bisher geschrieben habe, nicht gilt.
Ok, also Du meinst, dass die "paar" 15.000 Partikel noch Peanuts sind, noch auf der CPU laufen, und die CPU dann wg. der größeren Single-thread IPC logischerweise vorne liegen muss. Die GPU wäre dann nur schneller, wenn (deutlich) mehr gefordert werden würde. Richtig ?
Dann hab ich kein problem damit ;-)
Mein Problem ist: Wenn es drei Emitter sind, sind das nicht drei Simulationen mit 5.000 Partikeln?

Und noch eine Frage: Warum ein Emitter für maximal zwei Kerne?

AnarchX
2010-03-20, 11:14:08
Nvidia fordert nun mindestens eine GTS 160M mit 288GFLOPs für GPU-PhysX im Notebook?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7915181#post7915181

Siehe Tabelle unten:
http://www.nvidia.de/page/geforce_m_series.html
http://www.nvidia.com/object/geforce_m_series.html
... in deutschen Detailansichten ("Technische Daten") zu jeder GPU wird PhysX nicht mehr gelistet.

Gast
2010-03-20, 19:48:22
Zukünftige Projekte werden entsprechend Hardware-lastig.
Wahrscheinlich wird Nvidia in zukünftigen Implementationen den "Particle-Count"
noch deutlich anheben um sich von der Konkurrenz abzusondern.

Da werden auch die eigenen kleineren Lösungen nicht mithalten können.