PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Auch PhysX-Treiber von AMD für Radeons?


GeneralHanno
2008-06-26, 15:12:16
AMD hat PhysX treiber für grafikkarten in arbeit ?!
http://www.pcgameshardware.de/aid,649079/News/AMD_in_Zukunft_doch_mit_Physx/



Gesplittet aus http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422335

ShadowXX
2008-06-26, 15:31:01
AMD hat PhysX treiber für grafikkarten in arbeit ?!
http://www.pcgameshardware.de/aid,649079/News/AMD_in_Zukunft_doch_mit_Physx/
Geschickter Schachzug von ATI, erst so tun als wäre man an nVs Angebot nicht interessiert....um daraufhin von Intel ins Bett eingeladen zu werden, was man auch dankend annimmt (wer stößt Intel schon freiwillig von der Bettkante;))....um sich dann als männermordender Vamp zu präsentieren und auch mit nV ins Bett zu gehen.

Warum nur mit einem Spaß haben, wenn man auch mit 2 Spaß haben kann.....

Tzunamik
2008-06-26, 15:33:37
Geschickter Schachzug von ATI, erst so tun als wäre man an nVs Angebot nicht interessiert....um daraufhin von Intel ins Bett eingeladen zu werden, was man auch dankend annimmt (wer stößt Intel schon freiwillig von der Bettkante;))....um sich dann als männermordender Vamp zu präsentieren und auch mit nV ins Bett zu gehen.

Warum nur mit einem Spaß haben, wenn man auch mit 2 Spaß haben kann.....

Frag dass das Frauenvolk, die wissen sowas meist besser ;

Aber ich finds nice von AMD, so hat es sich für mich ausgezahlt, 2 HD 4870 gekauft zu haben....
Jetzt müssen se nur geliefert werden :D

AnarchX
2008-06-26, 15:33:54
Muss ATi halt nur noch CUDA unterstützen, was dann aber wohl den Tod von CAL/Brook bedeutet, also wohl nicht ganz so gelungen das Doppelspiel. ;)

ShadowXX
2008-06-26, 15:45:28
Muss ATi halt nur noch CUDA unterstützen, was dann aber wohl den Tod von CAL/Brook bedeutet, also wohl nicht ganz so gelungen das Doppelspiel. ;)
Wieso? Nicht das ich das aus Konsumentensicht nicht sogar gut finden würde, aber um den PhysX-Treiber zu implementieren benötigen Sie kein CUDA.

Wie Sie das Interface schlussendlich zur Verfügung stellen (also mit welchem "Unterbau") ist egal.....der ATI Chip muss es nur irgendwie "verstehen".

reunion
2008-06-26, 15:50:01
Muss ATi halt nur noch CUDA unterstützen, was dann aber wohl den Tod von CAL/Brook bedeutet, also wohl nicht ganz so gelungen das Doppelspiel. ;)

AMD wird kein CUDA unterstützen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=8119&Itemid=1
We've asked ATI executives about CUDA and possibly PhysX support, and ATI explicitly said that for the time being ATI wants to support open platforms and technologies and that CUDA is not one of them.

Muss man auch nicht. Das kann man mit CAL/Brook+ genauso implementieren.

AnarchX
2008-06-26, 15:54:15
Muss man auch nicht. Das kann man mit CAL/Brook+ genauso implementieren.
Wobei dass dann wieder im Ermessen von Nvidia liegt, die wohl die Kontrolle darüber haben wollen, wie stark die PP-Leistung der jeweilligen HW ist.

Imo wird das wohl nichts mit einer gemeinsamem GPUPP-Basis vor D3D11 mit dem Compute Shader werden.

reunion
2008-06-26, 15:58:35
Wobei dass dann wieder im Ermessen von Nvidia liegt, die wohl die Kontrolle darüber haben wollen, wie stark die PP-Leistung der jeweilligen HW ist.

Wie will nV kontrollieren, wie stark eine Grafikkarte von AMD ist? Wenn sie eine Lizenz haben und das implementieren können kann nV da gar nichts tun.

AnarchX
2008-06-26, 16:01:51
Wie will nV kontrollieren, wie stark eine Grafikkarte von AMD ist?
Indem sie die in zu Anspruch nehmende GPU-Leistung im CUDA-PhysX-Interface festlegen, was sie ja auch schon jetzt tun, wenn man die Werte von GT200 ung G92 vergleicht. Aber dass könnte Nvida wohl aber auch noch bei einer CAL/Brook-Implementierung machen, da ja der PhysX-Treiber wohl weiter in ihren Händen bleibt.

GeneralHanno
2008-06-26, 16:02:06
wie lange würde die entwicklung eines solchen PhysX treibers für AMD dauern? ein halbes jahr? länger? kürzer?

AnarchX
2008-06-26, 16:03:37
wie lange würde die entwicklung eines solchen PhysX treibers für AMD dauern? ein halbes jahr? länger? kürzer?
Halt einer Frage der investieren Manpower. Beim Havok-Treiber wurde ja etwas berichtet, dass er gegen Ende des Jahres kommen soll, obwohl HavokFX schon seit Jahren in Arbeit ist.

reunion
2008-06-26, 16:09:47
Indem sie die in zu Anspruch nehmende GPU-Leistung im CUDA-PhysX-Interface festlegen, was sie ja auch schon jetzt tun, wenn man die Werte von GT200 ung G92 vergleicht. Aber dass könnte Nvida wohl aber auch noch bei einer CAL/Brook-Implementierung machen, da ja der PhysX-Treiber wohl weiter in ihren Händen bleibt.

Der PhysX-Treiber wird AFAIK mit der Software mitgeliefert, und der wird sicher nicht je nach Implementierung verschiedenen Karten ausbremsen. Da limitiert wohl kaum nV, sondern höchstens Futuremark. nV/AMD können nur die PhysX-Hardware mit ihren Karten simulieren, alles andere liegt in der Hand der Sofwarehersteller.

AnarchX
2008-06-26, 16:10:23
Der PhysX-Treiber wird AFAIK mit der Software mitgeliefert. Da limitiert wohl kaum nV, sondern höchstens Futuremark.
Soweit ich es mitbekommen habe, benötigt man für den GPU-Support einen entsprechenden Forceware, der wiedderum einen entsprechenden CUDA-Treiber mitbringt, welcher dann vom aktuellsten, extra heruntergeladen PhysX-Treiber angesprochen wird und darüber die PPU anfordert bzw. erzeugt und schliesslich die Mehrleistung in Vantage, UT3 und Co. bringt.

Zudem sieht man an den Vantage-Ergebnissen, dass da eindeutig etwas festgelegt wurde um eine entsprechende Restperformance für die Grafik zu garantieren, so gibt es nur einen minimalen bzw. gar keinen Unterschied zwischen G92 und G200 und auch starkes OCing bringt hier nichts.

HOT
2008-06-26, 16:10:50
War doch klar, dass man das Angebot von NV nicht abschlagen würde. Nun hat man beides bei AMD.
Die Implementation kann ja ne Weile dauern, solange kann man sich ja mit einer 50€ Geforce-Zusatz-Karte für CUDA-PhysX behelfen :D.

ShadowXX
2008-06-26, 16:30:12
Soweit ich es mitbekommen habe, benötigt man für den GPU-Support einen entsprechenden Forceware, der wiedderum einen entsprechenden CUDA-Treiber mitbringt, welcher dann vom aktuellsten, extra heruntergeladen PhysX-Treiber angesprochen wird und darüber die PPU anfordert bzw. erzeugt und schliesslich die Mehrleistung in Vantage, UT3 und Co. bringt.

Der PhysX-Treiber von nV ist quasi in Cuda geschreiben bzw. leitet alle PhysX-Aufrufe an eine CUDA-Applikation weiter.


Der PhysX-Treiber wird AFAIK mit der Software mitgeliefert, und der wird sicher nicht je nach Implementierung verschiedenen Karten ausbremsen.

Ja, das schon, aber er kann gegen jeden beliebiebigen neueren PhysX-Treiber ausgetauscht werden.

Das ist ja der Sinn und Zweck dahinter, das das ne eigenständige DLL ist und nicht wie bei Havok wo das ganze viel mehr in das jeweilige Game verwoben ist.

Ein HavokFX-Treiber (egal ob von ATI oder Intel) wird nie irgendwein schon jetzt vorhandenes Havok-Spiel beschleunigen bzw. unterstützen können.

Dagegen kann nV jedes Hardware-Enabled PhysX-Game beschleunigen, egal wann geschrieben, und IMHO müsste es sogar möglich sein PhysX-Spiele zu beschleunigen, bei denen normalerweise die Nutzung der Hardwareeinheiten gar nicht vorgesehen war (da gibts so einige).

Da limitiert wohl kaum nV, sondern höchstens Futuremark. nV/AMD können nur die PhysX-Hardware mit ihren Karten simulieren, alles andere liegt in der Hand der Sofwarehersteller.

Nein die Softwarehersteller könne da gar nichts beeinflussen hinlänglich der Performance.
Das ist SDK gar nicht vorgesehen (zumindest habe ich da nichts eindeckt als ich mir mal das SDK angeguckt habe).

nV scheint tatsächlich die Geschwindigkeit der Emulation auf einen festen Wert gedrosselt zu haben, da auch Messungen abseits von Vantage zeigen, das es nicht über einen gewissen Wert geht.

Das wäre auch sinnig. Warum großartig mehr Performance freischalten als das was die normale PhysX-karte bietet (und nV gibt schon etwas mehr Frei).

Coda
2008-06-26, 16:42:12
Muss ATi halt nur noch CUDA unterstützen, was dann aber wohl den Tod von CAL/Brook bedeutet, also wohl nicht ganz so gelungen das Doppelspiel. ;)
Geht nicht. CUDA ist zu sehr auf die NVIDIA-Architektur angepasst.

Das wäre auch sinnig. Warum großartig mehr Performance freischalten als das was die normale PhysX-karte bietet (und nV gibt schon etwas mehr Frei).
GeForce PhysX ist einiges schneller als die PPU. Der Grund ist nicht irgendwas "zurückzuhalten" sondern schlicht und einfach dass nicht grundlos 3D-Performance drauf geht.

ShadowXX
2008-06-26, 16:59:19
GeForce PhysX ist einiges schneller als die PPU. Der Grund ist nicht irgendwas "zurückzuhalten" sondern schlicht und einfach dass nicht grundlos 3D-Performance drauf geht.
Nicht nach dem was ich gelesen hab. Dannach hat nV die PhysX-Geschwindigkeit auf einem Level leicht über den PhysX-HW gekappt.

Und das warum das du da sagts ist doch genau das was ich geschrieben habe (ich habe es nur anders formuliert). Es soll keine 3D Performance verschwendet werden.

AnarchX
2008-06-26, 17:03:12
Nicht nach dem was ich gelesen hab. Dannach hat nV die PhysX-Geschwindigkeit auf einem Level leicht über den PhysX-HW gekappt.

Im 3DMV sind es doch locker ein Faktor 10 mit einem G92: 8 Steps vs 80-110 Steps.

Aber wir bewegen und doch nun schon etwas in Richtung OT. ;)

ShadowXX
2008-06-26, 17:27:51
Im 3DMV sind es doch locker ein Faktor 10 mit einem G92: 8 Steps vs 80-110 Steps.

OK...dann waren meine Infos falsch.

Aber wir bewegen und doch nun schon etwas in Richtung OT. ;)
Inzwischen nicht mehr;)

Botcruscher
2008-06-26, 18:20:15
Geht nicht. CUDA ist zu sehr auf die NVIDIA-Architektur angepasst.



Mittelfristig müssen sich ATI und NV auskäsen wenn es den was mit der Grakaunterstützung werden soll.

Coda
2008-06-26, 18:55:23
Direct3D 11 und OpenCL sind ja schon am anrollen. Keine Sorge.

Gast
2008-06-26, 18:58:18
http://www.golem.de/0806/60667.html
Den letzten Absatz bitte lesen. Wenn das stimmt... 8) Könnte aber auch einfach nur Rumgeschreie von ngohq.com sein, damit sie bei dem nächsten Mal auch mit neuen Grafikkarten bedacht werden...

Coda
2008-06-26, 19:23:05
Die wollen einfach nur Pagehits.

pest
2008-06-26, 19:23:56
Nvidia PhysX runs on AMD Radeon 3850, scores 22,000 CPU marks in Vantage (http://www.tgdaily.com/content/view/38137/135/)

Coda
2008-06-26, 19:25:36
Und wie soll das gehen? Magische CUDA-Unterstützung durch kosmische Strahlung?

pest
2008-06-26, 19:31:47
Und wie soll das gehen? Magische CUDA-Unterstützung durch kosmische Strahlung?

greift CUDA denn direkt auf die HW zu?

Coda
2008-06-26, 19:32:13
Natürlich tut es das. CUDA ist sogar explizit auf die G8x-Architektur zugeschnitten.

Zu 99% labern die Jungs einfach nur. Allein die Behauptung es laufe nicht auf einer 48xx ist Unsinn. Egal welche API sie verwenden könnten um es auf einer 38xx zum laufen zu bringen - es würde auch auf den neuen Karten gehen. Aber so wie sie sich verhalten können sie wahrscheinlich nicht mal eine Zeile CAL/Brook+ schreiben.

Allein das hier sagt mir dass sie einfach nur rumtrollen:
We already knew that Nvidia is working on a CUDA version for x86 CPUs
Das geht schon seit der ersten CUDA-Beta.

Das oder der Typ ist ein Genie und hat tatsächlich einen CUDA -> CAL/Brook+ Cross-Compiler oder ähnliches entworfen. Ich bezweifle es mal ganz stark. Vor allem in dieser kurzen Zeit ist das praktisch unmöglich.

pest
2008-06-26, 19:35:26
Natürlich tut es das. CUDA ist sogar explizit auf die
G8x-Architektur zugeschnitten.


hm, dann fällt es mir auch schwer dran zu glauben


Allein die Behauptung es laufe nicht auf einer 48xx ist Unsinn.


das steht nicht da, er schreibt ATI will ihm keine 48xx schicken, also kann er es nicht testen


Hey! We are still planning to make some cool video clip, patience guys! It takes time and some issues to solve first.


edit: hab noch gelesen das PhysX kein CUDA benötigt, aber kenn mich da nicht so aus ;)

AnarchX
2008-06-26, 19:39:43
Und wie soll das gehen? Magische CUDA-Unterstützung durch kosmische Strahlung?
Vielleicht doch schon ein CAL/Brook-Interface in den neuesten Treiber vorhanden, was NGOHQ funktionsfähig gemacht hat?
Naja, wahrscheinlicher ist wohl, dass man mal Photoshop angeschmissen hat...

IceKillFX57
2008-06-26, 19:40:40
Ich glaub Bilder Faken kann jeder noob... dazu reicht sogar Paint. -.-

Coda
2008-06-26, 19:43:21
Vielleicht doch schon ein CAL/Brook-Interface in den neuesten Treiber vorhanden, was NGOHQ funktionsfähig gemacht hat?
Klar und das lässt NVIDIA dann im im Code drin den sie ausliefern. Für wie blöd hälst du den Laden?

Außer PhysX läuft in Wahrheit doch über Direct3D und nicht über CUDA weil es dafür schon Code gab. Dann könnte es sein.

Gast
2008-06-26, 19:44:49
Klar und das lässt NVIDIA dann im im Code drin den sie ausliefern.

Für wie blöd hälst du den Laden?


warum nicht? besser so als wenn amd nur havoc unterstützt...

AnarchX
2008-06-26, 19:47:13
Klar und das lässt NVIDIA dann im im Code drin den sie ausliefern.

Für wie blöd hälst du den Laden?
Hätte wohl doch noch einen Smile setzen solllen. ;)
Mal sehen, was die Jungs für ein Video-Beweis sich basteln wollen.;D

Coda
2008-06-26, 19:47:46
warum nicht? besser so als wenn amd nur havoc unterstützt...
Weil NVIDIA alles tun wird aber sicher nicht ATI PhysX schenken. Das ist ein klarer Marktvorteil.

IceKillFX57
2008-06-26, 19:50:44
Mal sehen, was die Jungs für ein Video-Beweis sich basteln wollen.;D

Bild in Bild ist hier die Lösung -.-

Gast
2008-06-26, 19:55:24
Weil NVIDIA alles tun wird aber sicher nicht ATI PhysX schenken. Das ist ein klarer Marktvorteil.

war auch nur ne speku. nvidia weiß sicher das amd zur zeit nicht die manpower hat und wollt ihnen vieleicht ein wenig unter die arme greifen bevor sie havok-only fahren

Avalox
2008-06-26, 19:55:39
Und wie soll das gehen? Magische CUDA-Unterstützung durch kosmische Strahlung?


Das würde gehen, wenn die momentane PhysX Unterstützung gar nicht auf der Grafikkarte läuft, sondern auf der CPU.

Mit einem Hack wäre dann tatsächlich die nVidia PhysX Unterstützung auch bei ATI Grafiktreibern möglich.

Ist doch gar kein abwegiger Gedanke, da ja nVidia die x86 Software gleich mit dem Hersteller mitgekauft hat. Da ist es doch sehr naheliegend, dass nVidia gleich dieses im Treiber bundelt.

Und grade nVidia ist in der Vergangenheit schon öfter aufgefallen bei ihren Chipsätzen die ausführende Instanz irreführend falsch angegeben zu haben.

Warum diesmal nicht?

Coda
2008-06-26, 19:58:51
Das würde gehen, wenn die momentane PhysX Unterstützung gar nicht auf der Grafikkarte läuft, sondern auf der CPU.
He? *Fragezeichen aus Kopf drückt* Was? WTF?

Der normale PhysX-Modus von Ageia ohne PPU oder GeForce PhysX läuft doch auch auf der CPU. Und nein da ist nichts irgendwie zurückgehalten worden. Genau darüber läuft 3DMark Vantage wenn du keins der beiden davon hast.

Odal
2008-06-26, 19:59:35
würde jedenfalls insofern sinn machen das die UT3 physX maps bei mir eher bescheiden liefen und das ding 100% cpu auslastung verursachte trotz aktiver physX nutzung

Gast
2008-06-26, 20:00:18
Zudem sieht man an den Vantage-Ergebnissen, dass da eindeutig etwas festgelegt wurde um eine entsprechende Restperformance für die Grafik zu garantieren, so gibt es nur einen minimalen bzw. gar keinen Unterschied zwischen G92 und G200 und auch starkes OCing bringt hier nichts.

das liegt nicht an irgendwelchen künstlichen limitierungen, sondern an der cpu-limitierung.

Odal
2008-06-26, 20:01:22
He? *Fragezeichen aus Kopf drückt* Was? WTF?

Der normale PhysX-Modus von Ageia ohne PPU oder GeForce PhysX läuft doch auch auf der CPU. Und nein da ist nichts irgendwie zurückgehalten worden. Genau darüber läuft 3DMark Vantage wenn du keins der beiden davon hast.


ja wer weiß was ageia da für bremsen eingebaut hatte um ihre physX hardware in besserem licht dastehen zu lassen ;)

Coda
2008-06-26, 20:01:41
würde jedenfalls insofern sinn machen das die UT3 physX maps bei mir eher bescheiden liefen und das ding 100% cpu auslastung verursachte trotz aktiver physX nutzung
Dann funktioniert deine PhysX-Hardware nicht. Welche du auch immer hast.

ja wer weiß was ageia da für bremsen eingebaut hatte um ihre physX hardware in besserem licht dastehen zu lassen ;)
Ageia hat schon PhysX angeboten lang bevor sie Hardware gebaut haben. Und nein da wurde dann nichts ausgebremst. PhysX hat eine der schnellsten CPU-Solver der Industrie unter anderem weil sie damit auch die Konsolen abdecken.

Odal
2008-06-26, 20:02:44
Dann funktioniert PhysX nicht.


doch ich hab ja nen anstieg von 9 FPS auf 15-20FPS

in vantage ist der physX anstieg auch messbar mit 92 punkten

Avalox
2008-06-26, 20:03:46
He? *Fragezeichen aus Kopf drückt* Was? WTF?



Natürlich gibt es noch die PhysX als CPU basierende Software Lösung.


Aber wer sagt denn, dass die nVidia Treiber Lösung nicht auch eine CPU Lösung ist, eben eine optimiertere Version, welche sich eben nur nach aussen als Hardwarelösung zu erkennen gibt. Ist doch ein ganz gebräuchliches Unterfangen.

Würde auch augenblicklich erklären, weshalb nVidias GrKa PhysX auf mehr oder minder allen unterstützten nVidia Karten gleich schnell läuft.


Hat wer eigentlich schon mal das CUDA Programm wirklich gefunden?

Coda
2008-06-26, 20:03:57
Was weiß ich. Die CPU-These ist auf jeden Fall großer Müll.

Natürlich gibt es noch die PhysX als CPU basierende Software Lösung.


Aber wer sagt denn, dass die nVidia Treiber Lösung nicht auch eine CPU Lösung ist, eben eine optimiertere Version, welche sich eben nur nach aussen als Hardwarelösung zu erkennen gibt. Ist doch ein ganz gebräuchliches Unterfangen.
Leute. Ageia ist ganz sicher nicht in ihrem Kerngeschäft unfähig und dann kommt NVIDIA kurz her und optimiert eine Software um Faktor 10. Mach dich doch nicht lächerlich.

Das Ding wurde schon in etlichen Spielen als reine Softwarelösung verwendet und muss dabei unter anderem mit Havok konkurieren. Wenn es so ein Crap wäre dann gäbe es die Firma nicht mehr.

Avalox
2008-06-26, 20:08:05
Leute. Ageia ist ganz sicher nicht in ihrem Kerngeschäft unfähig und dann kommt NVIDIA kurz her und optimiert eine Software um Faktor 10. Mach dich doch nicht lächerlich.


Ach komm. Ageia hatte damals gar keine Motivation eine optimierte CPU Lösung zu vertreiben, wollten ja schliesslich ihre Hardware verkaufen.

Ganz im Gegenteil. Optimierte Software kann dann sicherlich als interne Referenz zur eigenen Hardware sogar vorhanden gewesen sein, ist dann aber garantiert nicht vertrieben worden.

Das ist keine Unfähigkeit, es gehörte zum Geschäftsmodell immer einen Unterschied zwischen einer CPU und der eigenen Ageia Hardwarelösung zu haben.

Dieser Faktor 10 ist für mich von überhaupt keiner Beweiskraft. Ganz im Gegenteil.


Deine Antwort lässt mich allerdings vermuten, dass du das GPU Programm zu PhysX auch noch nicht gefunden hast?

Gast
2008-06-26, 20:09:26
Würde auch augenblicklich erklären, weshalb nVidias GrKa PhysX auf mehr oder minder allen unterstützten nVidia Karten gleich schnell läuft.


das ist dafür keine erklärung.

es ist ganz logisch, dass es auf allen karten ähnlich schnell läuft, ganz einfach weil die schnelleren karten alle viel zu viel rechenleistung haben um von so ein bischen physik beeindruckt zu sein.

Coda
2008-06-26, 20:10:14
Ach komm. Ageia hatte damals gar keine Motivation eine optimierte CPU Lösung zu vertreiben, wollten ja schliesslich ihre Hardware verkaufen.
Nochmal zum Mitschreiben:

DIE SOFTWARE GAB ES SCHON VIEL FRÜHER. Und nein sie wurde NICHT langsamer als PhysX-Hardware erschien.

Man da bekommst echt nen Hals bei so nem Müll. Zumal PhysX auch auf Konsolen vertrieben wird und in viel mehr Spielen als reine Software verwendet wird. Ich habe das PhysX-SDK schon verwendet und nein es ist nicht wesentlich schneller oder langsamer als Havok in Software. Das Ding ist gut durchoptimiert auf der CPU.

Und dein "Ach komm" kannst du dir sparen. Ich weiß sehr genau von was ich rede. Du spinnst dir da nen absoluten Scheißdreck zusammen. Sorry, aber das muss man so hart sagen.

pest
2008-06-26, 20:11:31
immer locker durch den Schlüpfer atmen :)
vielleicht braucht PhysX kein CUDA und er hat einfach nur den Treiber gepatcht...:confused:

Coda
2008-06-26, 20:12:40
Nein da bin ich nicht mehr locker. Das ist echt nich mehr feierlich wie man gekonnt jegliche Realität ignorieren kann.

Gast
2008-06-26, 20:15:25
Zudem sieht man an den Vantage-Ergebnissen, dass da eindeutig etwas festgelegt wurde um eine entsprechende Restperformance für die Grafik zu garantieren, so gibt es nur einen minimalen bzw. gar keinen Unterschied zwischen G92 und G200 und auch starkes OCing bringt hier nichts.


da wurde nichts festgelegt, G92 und G200 haben eben mehr als genug leistung für physX.

in 640x480 siehst du auch kaum unterschiede zwischen G92 und G200.

Avalox
2008-06-26, 20:21:17
Und dein "Ach komm" kannst du dir sparen. Ich weiß sehr genau von was ich rede. Du spinnst dir da nen absoluten Scheißdreck zusammen. Sorry, aber das muss man so hart sagen.

Da kannst du platzen wie du willst.
Was läuft denn nun auf der GPU bei nVidias neuen PhysX Treibern?

Wenn nun an dieser Treiber Hack Geschichte, welche ja auf einigen Quellen aufgetaucht ist, was dran ist, wird es sicherlich nicht die von dir beschriebene Magie sein welche es zum laufen bringt. Und ein Hacker, welcher mal eben ein kompiliertes CUDA Programm in verschiedene ATI Dialekte von Hand umprogrammiert wird es sicherlich auch nicht sein.

AnarchX
2008-06-26, 20:21:31
da wurde nichts festgelegt, G92 und G200 haben eben mehr als genug leistung für physX.

Aber trotzdem sollte der CPU-Test 2 im 3DMark, der doch kein Limit besitzt entsprechen auf G200s höhere ALU-Leistung reagieren? ;)

pest
2008-06-26, 20:39:06
Aber trotzdem sollte der CPU-Test 2 im 3DMark, der doch kein Limit besitzt entsprechen auf G200s höhere ALU-Leistung reagieren? ;)

afaik hat das NV begrenzt sonst wären die Vantage-Ergebnisse nicht gültig...

Gast
2008-06-26, 20:40:22
Aber trotzdem sollte der CPU-Test 2 im 3DMark, der doch kein Limit besitzt entsprechen auf G200s höhere ALU-Leistung reagieren? ;)


nein, bei exzessivem physikeinsatz limitiert die immer die cpu, egal wie schnell die hardware ist.

Coda
2008-06-26, 20:45:30
Da kannst du platzen wie du willst.
Was läuft denn nun auf der GPU bei nVidias neuen PhysX Treibern?
Das was auf der PPU auch läuft.

Wenn nun an dieser Treiber Hack Geschichte, welche ja auf einigen Quellen aufgetaucht ist, was dran ist, wird es sicherlich nicht die von dir beschriebene Magie sein welche es zum laufen bringt.
Wir werden ja sehen wieviel da dran ist. Ich würde ziemlich viel wetten dass dem nicht so ist falls das Zeug nicht doch über Direct3D läuft.

Und zu den Quellen: Alky. Mehr sag ich dazu nicht. Wer hat nicht davon berichtet als wäre es fertig?

Und ein Hacker, welcher mal eben ein kompiliertes CUDA Programm in verschiedene ATI Dialekte von Hand umprogrammiert wird es sicherlich auch nicht sein.
Es geht nicht nur um die CUDA-Programme es geht um die ganze Engine davor die das anspricht. Damit ist es lange nicht getan.

Zumal kompilierte CUDA-Assembly ganz sicher nicht mal eben "umprogrammiert" ist auf einen "ATI Dialekt". Das macht ganz sicher nicht mal eben irgend ein "Hacker".

S940
2008-06-26, 21:36:48
Weil NVIDIA alles tun wird aber sicher nicht ATI PhysX schenken. Das ist ein klarer Marktvorteil.
Kennste das nicht ?:

Nvidia offers PhysX support to AMD / ATI

Nvidia confirms its commitment to making PhysX an open standard for everyone

After Nvidia’s CEO, Jen-Hsun Huang, said that Nvidia planned to provide PhysX support in CUDA, many people (including us) thought this meant that Nvidia planned to keep PhysX all to itself. However, the company has confirmed that it’s going to stick by its guns, by making PhysX a free API that’s available to anyone.
http://www.custompc.co.uk/news/602205/nvidia-offers-physx-support-to-amd--ati.html

Die nV Chefs zoffen sich doch mit Intel wg der Nehalem/SLi Lizenz, da geht es wohl um Havoc vs. PhysiX und Prestige.

Ati/AMD ist der lachende Dritte und betrachtet das Spielchen von außen :)

Das ist vom 10ten März, da könnte mittlerweile doch schon was programmiert worden sein (wenn auch nicht notwenigerweise von der komischen, verlinkten Seite)

Edit:
Beim Thema "free API" liest man sich dann die fuad Meldung von gestern durch:
We've asked ATI executives about CUDA and possibly PhysX support, and ATI explicitly said that for the time being ATI wants to support open platforms and technologies and that CUDA is not one of them.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=8119&Itemid=1

Da würde ich doch dann deutlich sagen, dass ATi da per Eigenbau das anscheinend offene PhysiX API unterstützen wird.

ciao

Alex

dr_mordio
2008-06-26, 21:45:43
Hier mal in Deutsch und mit vergrößerbarem screenshot.
der treiber läuft und ist von NGOHQ die ja fürs treibermoddig bekant sind.

http://www.tweakpc.de/news/14173/ati-radeon-mit-physx

MfG
Alex

S940
2008-06-26, 21:51:12
Hier mal in Deutsch und mit vergrößerbarem screenshot.
der treiber läuft und ist von NGOHQ die ja fürs treibermoddig bekant sind.

http://www.tweakpc.de/news/14173/ati-radeon-mit-physx
Hmmm, weiß nicht, als Internetadresse steht da in der Adressleiste "Ho ho ho" ... vielleicht der Hinweis, wie sie die Leute vera**** wollen.

Was passiert eigentlich, wenn man ne ATi & NV Karte ins gleiche System einbaut ? Das GPU-Z hat doch nen aktiven Scrollbalken bei der Kartenauswahl, oder ?

Das ist für mich im Moment am wahrscheinlichsten ;-)
Edit:
Ok, das Radeon Physik hätten sie dann aber photoshoppen müssen ... hmm .. naja kein Ahnung, abwarten.


ciao

Alex

Coda
2008-06-26, 21:51:26
Wenn ATI das in die Hand genommen hat ist das natürlich was anderes.

Mir ging's schlicht und einfach darum, dass es dann weder über die CPU noch über CUDA läuft und es auch kein Hacker kurz umgeschrieben haben könnte. Nur um das klarzustellen.

BlackBirdSR
2008-06-26, 22:12:16
Um noch eine Meinung einzuholen:

Es ist so wie Coda sagt: die PhysX (Novodex)-Engine ist eine der schnellsten und hoch-optimiertesten Physik-Engines die man bekommen kann. Das liegt einfach daran, dass sie mit dem PhysX (HW) erstmal gar nichts zu tun hat. die Engine gibt es schon länger, und sie wurde von Ageia nur dazugekauft.

Trotzdem bedient sie nicht nur PS3 und XBox360 sondern auch extrem viele PC-Spiele. Neben Multithreading wird da auch sehr viel Wert auf hohe Ausführungsgeschwindigkeit gelegt.
Die HW wurde auch nicht direkt für Novodex gebaut, und Novodex nicht für die HW geschrieben. Das merkt man schon daran, dass ein Spiel mit Novodex noch lang keinen HW-Support für PhysX bietet. Dieser kommt erst nach arbeitsaufwändiger Optimierung.

Kurzum: Da gibt es nichts was Nvidia besser optimieren könnte, oder künstliche Ageia-Bremsen entfernen könnte. Ageia hat mehr an Novodex verdient als am PhysX. Da wären sie einfach nur sau blöde, wenn sie sich das vermasselt hätten. Nicht umsonst nutzen inzwischen ein verdammt großer Haufen an Spielen die PhysX-Engine.

IceKillFX57
2008-06-26, 22:41:53
Um noch eine Meinung einzuholen:

Es ist so wie Coda sagt: die PhysX (Novodex)-Engine ist eine der schnellsten und hoch-optimiertesten Physik-Engines die man bekommen kann. Das liegt einfach daran, dass sie mit dem PhysX (HW) erstmal gar nichts zu tun hat. die Engine gibt es schon länger, und sie wurde von Ageia nur dazugekauft.

Trotzdem bedient sie nicht nur PS3 und XBox360 sondern auch extrem viele PC-Spiele. Neben Multithreading wird da auch sehr viel Wert auf hohe Ausführungsgeschwindigkeit gelegt.
Die HW wurde auch nicht direkt für Novodex gebaut, und Novodex nicht für die HW geschrieben. Das merkt man schon daran, dass ein Spiel mit Novodex noch lang keinen HW-Support für PhysX bietet. Dieser kommt erst nach arbeitsaufwändiger Optimierung.

Kurzum: Da gibt es nichts was Nvidia besser optimieren könnte, oder künstliche Ageia-Bremsen entfernen könnte. Ageia hat mehr an Novodex verdient als am PhysX. Da wären sie einfach nur sau blöde, wenn sie sich das vermasselt hätten. Nicht umsonst nutzen inzwischen ein verdammt großer Haufen an Spielen die PhysX-Engine.

Allso ist das PhysX von nVidia müll oder nicht?
Oder hat vorher die CPU die berechnung für PhysX gemacht und nVidia versucht das ganze jetzt für die GPU zu machen?

Eggcake
2008-06-26, 22:48:28
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/physx-beschleunigung_ati_radeon_hd_3800/

So will sich Eran Badit von NGOHQ.com mit dem CUDA- und PhysX-SDK etwas auseinander gesetzt haben und mit relativ geringem Aufwand es geschafft haben, PhysX mit einer ATi Radeon HD 3850 (RV670) zu beschleunigen. Bei einem GPU-Takt von 715 MHz und einem Speichertakt von 900 MHz (Standard: 670/ 830 MHz) konnten einem Screenshot zufolge 68,83 Operationen pro Sekunde (OPS) im PhysX-relevanten CPU Test 2 aus Futuremarks 3DMark Vantage erreicht werden.
[...]
Eran Badit gab bekannt, dass er das selbst entwickelte Software-Tool, welches die PhysX-Beschleunigung auf einer ATi-GPU ermöglicht, auf NGOHQ.com zur Verfügung stellen werde, sobald er es mit weiteren Grafikkarten getestet habe.

Ging wohl schneller als erwartet :D

deekey777
2008-06-26, 22:57:34
Natürlich tut es das. CUDA ist sogar explizit auf die G8x-Architektur zugeschnitten.

Zu 99% labern die Jungs einfach nur. Allein die Behauptung es laufe nicht auf einer 48xx ist Unsinn. Egal welche API sie verwenden könnten um es auf einer 38xx zum laufen zu bringen - es würde auch auf den neuen Karten gehen. Aber so wie sie sich verhalten können sie wahrscheinlich nicht mal eine Zeile CAL/Brook+ schreiben.
...

http://www.tgdaily.com/content/view/38137/135/
We are told that there is currently no relationship between NGOHQ.com and AMD’s PR team, which means that Eran does not have access to Radeon 4850 or 4870 cards. Check the www.ngohq.com website for the software to become available this weekend.

Wobei: Der erste GPU-Client für F@H auf Grafikkarten nutzte DirectX als Backend und lief nur der X1000er Serie (war aber eher eine Einschränkung des Clients selbst).

Allso ist das PhysX von nVidia müll oder nicht?
Oder hat vorher die CPU die berechnung für PhysX gemacht und nVidia versucht das ganze jetzt für die GPU zu machen?
Bist du sicher, dass du BBRs Posting gelesen hast? Lies es nochmal.

pest
2008-06-26, 23:04:53
ist das die Strafe des Internets das auf jeder Seite die Infos aus der vorhergehenden wiederholt werden ?

S940
2008-06-26, 23:06:37
ist das die Strafe des Internets das auf jeder Seite die Infos aus der vorhergehenden wiederholt werden ?
Jo, weil meist keiner die Seite vorher liest ...

deekey777
2008-06-26, 23:07:47
ist das die Strafe des Internets das auf jeder Seite die Infos aus der vorhergehenden wiederholt werden ?
So in etwa: Die Leute lesen nur die News, nicht aber die eigentliche Quelle. An sich sind in diesem Thread zwei Meldungen, die von mehreren Seiten durchgekaut und ausgespuckt (als eigene News mit Verweis auf die eigentliche News).

Eggcake
2008-06-26, 23:21:14
Jau, sorry meinerseits. Habe den Thread kaum verfolgt - da ich auf CB sah, dass die News nur wenige Minuten alt ist - die Meldung auf der vorhergehenden Seite hab ich überlesen (sowie die Golemnews auf Seite 2 :> ).

Wobei man dann den entsprechenden Post am besten ignorieren würde - muss ihn ja niemand lesen...

Gast
2008-06-26, 23:25:23
Entschuldigt für das abdriften ins OT, aber:

ist das die Strafe des Internets das auf jeder Seite die Infos aus der vorhergehenden wiederholt werden ?

Passend dazu:
http://www.heise.de/newsticker/Internet-Recherche-Journalisten-schmoren-im-eigenen-Saft--/meldung/109852

Die Qualität im allgemeinen sinkt immer weiter und weiter.
Es ist ja nichts neues, dass einfach hirnlos abgeschrieben wird, ohne die "Fakten" selbst nochmal zu prüfen.

Lang lebe das Internet.

Coda
2008-06-27, 00:01:20
So in etwa: Die Leute lesen nur die News, nicht aber die eigentliche Quelle. An sich sind in diesem Thread zwei Meldungen, die von mehreren Seiten durchgekaut und ausgespuckt (als eigene News mit Verweis auf die eigentliche News).
Is mir auch irgendwann aufgefallen, ändert aber an meiner Meinung nix ;)

HOT
2008-06-27, 11:07:30
Weil NVIDIA alles tun wird aber sicher nicht ATI PhysX schenken. Das ist ein klarer Marktvorteil.
Genau das ist passiert. NV hat AMD PhysX angeboten, ging einschlägig durch die Presse, AMD hat einen passenden Treiber dafür geschrieben. Man braucht für den PhysX-Core kein CUDA, nur ne API und genau die ist an AMD gegangen.

Adam D.
2008-06-27, 11:17:27
Nvidia bietet doch lieber AMD Möglichkeiten zur Physik-Unterstützung an, bevor AMD zu Intel rennt.

deekey777
2008-06-27, 11:29:24
Nvidia bietet doch lieber AMD Möglichkeiten zur Physik-Unterstützung an, bevor AMD zu Intel rennt.
AMD ist längt zu Intel "gerannt", denn vorletzte Woche haben sie ja propagiert, wie toll Havok ist.
Was hat NV genau AMD angeboten?

JaDz
2008-06-27, 11:29:59
Nvidia bietet doch lieber AMD Möglichkeiten zur Physik-Unterstützung an, bevor AMD zu Intel rennt.
Sie sind doch schon längst "zu Intel gerannt".

€dith sagt: Zwei Doofe – ein Gedanke.

JaDz sagt: Dann wäre ich gern der Gedanke.

Adam D.
2008-06-27, 12:04:44
Habt ihr da Links zu? Ich glaub, das hab ich verschlafen :usad:

deekey777
2008-06-27, 12:12:17
Habt ihr da Links zu? Ich glaub, das hab ich verschlafen :usad:
http://www.heise.de/newsticker/AMD-und-Intel-arbeiten-bei-Physikbeschleunigung-zusammen--/meldung/109352/

Exxtreme
2008-06-27, 12:36:39
An Stelle von AMD würde ich zu Intel und möglichst zu NV rennen. :D Denn dann kann ich beide Lösungen anbieten was dem Kunden am besten dient. Leider werden es Exklusivverträge wohl verhindern. :X

S940
2008-06-27, 15:54:36
Was hat NV genau AMD angeboten?Steht auf der letzten Seite ;-)
Jetzt lesen anscheinend nichtmal mehr Moderatoren, langsam seh ich schwarz fürs Internet :uroll:

Die beiden GPU Platzhirsche müssen eh zusammenarbeiten, weil Intel mit larrabee sonst wieder die eigene Lösung durchdrücken würde und ATi+nV blöd dastünden.

ciao

Alex

deekey777
2008-06-27, 16:22:41
Steht auf der letzten Seite ;-)
Jetzt lesen anscheinend nichtmal mehr Moderatoren, langsam seh ich schwarz fürs Internet :uroll:

Die beiden GPU Platzhirsche müssen eh zusammenarbeiten, weil Intel mit larrabee sonst wieder die eigene Lösung durchdrücken würde und ATi+nV blöd dastünden.

ciao

Alex

Was hat jetzt mein Modstatus mit dem Thema zu tun?
Und du brauchst für mich nicht schwarz zu sehen, denn ein bloßes Verweisen auf eine zigmal nachgeplapperte Äußerung, die nichts aussagt, beantwortet meine Frage nicht.

Und da du mich offensichtlich für blind hälst, dann kannst du meine Frage bestimmt beantworten, oder?

Gast
2008-06-27, 16:29:45
Die beiden GPU Platzhirsche müssen eh zusammenarbeiten, weil Intel mit larrabee sonst wieder die eigene Lösung durchdrücken würde und ATi+nV blöd dastünden.



Find ich ja lustig. Vor gar nicht all zu langer Zeit wurde ATI hier für unfähig und daher für tot erklärt.

S940
2008-06-27, 17:16:52
Was hat jetzt mein Modstatus mit dem Thema zu tun?Na Du schreibst es doch schon selbst .. Du hast nen "Status", und zwar nen höheren als der Ottonormaluser hier, von Gästen gar nicht zu reden :)
Und so ein höherer Status führt automatisch auch immer zu ner gewissen Verantwortung & Vorbildfunktion :)
Und du brauchst für mich nicht schwarz zu sehen, denn ein bloßes Verweisen auf eine zigmal nachgeplapperte Äußerung, die nichts aussagt, beantwortet meine Frage nicht.

Und da du mich offensichtlich für blind hälst, dann kannst du meine Frage bestimmt beantworten, oder?
Öh ja, jetzt halt ich dich wirklich für blind.
Die CustomPC Meldung wurde nirgends nachgeplappert, sie zitiert auch Roy Taylor (Nvidia's vice president of content relations) und nicht irgendeinen Heini von ner 0815 Hackerseite. In einer noch früheren Meldung, als der von mir verlinkte von März, wird er auch noch folgendermaßen zitiert: What's interesting, though, is that Taylor was talking a lot about the principle of having a non-proprietary, free API, as opposed to an exclusive Nvidia physics API. Let's face it; this is what you'd need if you wanted game developers to take your API seriously over Intel's. 'The industry is crying out for a non-proprietary physics API, and there isn't one today,' Taylor told Custom PC, 'Havok is no longer non-proprietary.'

So how could Nvidia go about this? 'Well, the perfect thing would be DirectPhysics,' says Taylor, 'If that was out right now, it would be fantastic. When I meet developers, that's what they all want. They want a non-proprietary, free API to write physics.'
So und jetzt schau mal auf die Seite vorher, da hab ich den Text von März verlinkt, und da steht auch drin, was nV ATi angeboten hat, und sag jetzt nicht, dass Du die genaue API Spezifikation sehen willst :)

Falls ich noch was fett hervorheben soll, oder übersetzen soll gib Bescheid :)

ciao

Alex

deekey777
2008-06-27, 17:39:44
Und ich verweise dich auf diese News von Fudzilla (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7771&Itemid=1):
In our recent talks with Roy Taylor, the VP of The Way It’s Meant To Be Played, we've learned an interesting fact: that AMD/ATI can get Physics support. All AMD needs in order to be able to support PhysX is to adopt Cuda.
Diese News führte zu diesem Thread bei B3DF:
CUDA emulation with CAL ... remotely possible? (http://forum.beyond3d.com/showthread.php?t=48435)
Das, was du mir unter die Nase reibst, beantwortet weiterhin nicht meine Frage, denn diesen Äußerungen nach kann man auch so etwas sagen: "Halo 3 kann auch auf der PS3 laufen."

Demirug
2008-06-27, 17:49:06
Das gleiche Angebot gab es auch schon mal bei Cg und ATI ist nicht darauf eingegangen.

Gast
2008-06-27, 19:26:04
Vielleicht ist AMD ja schlauer als ATI.

S940
2008-06-27, 19:55:38
Und ich verweise dich auf diese News von Fudzilla (http://www.fudzilla.com/index.php?option=com_content&task=view&id=7771&Itemid=1):

Diese News führte zu diesem Thread bei B3DF:
CUDA emulation with CAL ... remotely possible? (http://forum.beyond3d.com/showthread.php?t=48435)
Das, was du mir unter die Nase reibst, beantwortet weiterhin nicht meine Frage, denn diesen Äußerungen nach kann man auch so etwas sagen: "Halo 3 kann auch auf der PS3 laufen."
Langsam braucht es wohl ein Inhaltsverzeichnis von dem Riesenthread hier...

Schau mal auf Seite 1 Posting 6, da hat reunion eine Fuad News vom 25.6 gepostet.

Kurzfassung: CUDA und AMD werden keine Freunde, auch und v.a. in Bezug auf Deine ältere fuad news vom 6.6.

Dort wird nochmals begründet, dass AMD nur offen, freie, non-restricted etc. pp Sachen unterstützen will/wird.

Laut den älteren, von CustomPC zitierten nV Aussagen, ist das PhysiX API free,non-restricted, open (s.o. das fett Gedruckte) -> ergo wird der Hase nur so laufen(wenn er denn läuft ^^), dass ATi einen Port fürs PhysiX API implementiert, genauso wie nVidia das jetzt für Ihre eigene Chips per CUDA getan hat.

CUDA selbst ist meiner Meinung nach auch schon so gut wie tot, das noch zu unterstützen (einige meinen ja, dass das eh nicht ginge) brächte kurzfristig eigentlich nichts, die Zukunft gehört Open CL bzw. dem darauf aufbauenden, breiten Standard:
June 16th 2008 – San Francisco, CA – The Khronos™ Group announced today the formation of a new Compute Working Group to create royalty-free, open standards for programming heterogeneous data and task parallel computing across GPUs and CPUs. The creation of this open standard is intended to enable and encourage diverse applications to leverage all available platform compute resources on a wide range of platforms. Initial participants in the working group include 3Dlabs, AMD, Apple, ARM, Codeplay, Ericsson, Freescale, Graphic Remedy, IBM, Imagination Technologies, Intel, Nokia, NVIDIA, Motorola, QNX, Qualcomm, Samsung, Seaweed, TI, and Umeå University. Any company is welcome to join the Khronos Group to participate in this and the other Khronos working groups that are creating an ecosystem of open standards for graphics and media authoring and acceleration. For more details please visit www.khronos.org.

The Compute Working Group will follow proven Khronos processes and invite member contributions as a basis for standardization efforts. Apple has proposed the Open Computing Language (OpenCL) specification to enable any application to tap into the vast gigaflops of GPU and CPU resources through an approachable C-based language.....
http://www.khronos.org/news/press/releases/khronos_launches_heterogeneous_computing_initiative/

ciao

Alex

Demirug
2008-06-27, 23:08:19
CUDA selbst ist meiner Meinung nach auch schon so gut wie tot, das noch zu unterstützen (einige meinen ja, dass das eh nicht ginge) brächte kurzfristig eigentlich nichts, die Zukunft gehört Open CL bzw. dem darauf aufbauenden, breiten Standard:

Wenn das genauso abläuft wie bei OpenGL 3.00 sehen wir OpenCL vielleicht in zwei Jahren.

S940
2008-06-28, 01:09:57
Wenn das genauso abläuft wie bei OpenGL 3.00 sehen wir OpenCL vielleicht in zwei Jahren.
Gut möglich, aber was bedeutet das jetzt für PhysiX ?

Das die Lösung, die man jetzt bastelt eventuell in 2 Jahren überflüssig ist.

Welche Frage die man sich in der Zwischenzeit stellen muss, ist die, welcher Ansatz für ATi in der Zwischenzeit der bessere (und auch schnellere) ist, PhysiX zu unterstützen:

Lösung a) Per CUDA über den Nachbau des halben G80 Designs in "Softwareemulation"

Lösung b) Direkt per CAL

( Ausser Konkurrenz: Lösung c) Wir warten mal 2 Jahre)

ciao

Alex

ShadowXX
2008-06-28, 02:02:20
Lösung a) Per CUDA über den Nachbau des halben G80 Designs in "Softwareemulation"

Das einzige was ATI bei der Umsetzung von Cuda überwinden muss ist Ihr "stolz".
Dafür müssen die nicht das G80 Design in SW nachbauen.
Es geht Ihnen einfach nur gegen den Strich das das die Bedingung für PhysX ist.

Da ATI aber trotzdem interessiert scheint, das Intel Ihnen scheinbar auch 2 bis 3 Steine in den Weg gelegt.

Lösung b) Direkt per CAL

Wenn irgendetwas wirklich tot ist, dann Cal/Brook+.

Bevor jemand damit arbeitet, benutzt selbst der größte ATI-Freak freiwillig Cuda.

Davon abgesehen das das nicht funktioniert. nV hat nun mal die Rechte und können diktieren. Entweder Cuda oder nichts....

Aquaschaf
2008-06-28, 02:33:38
Wenn das genauso abläuft wie bei OpenGL 3.00 sehen wir OpenCL vielleicht in zwei Jahren.

Mit OpenCL brüstet sich ja gerade Apple ein bischen. Insofern habe ich Hoffnung dass sich da etwas schneller was tut.

reunion
2008-06-28, 08:31:37
Das einzige was ATI bei der Umsetzung von Cuda überwinden muss ist Ihr "stolz".
Dafür müssen die nicht das G80 Design in SW nachbauen.
Es geht Ihnen einfach nur gegen den Strich das das die Bedingung für PhysX ist.

Da ATI aber trotzdem interessiert scheint, das Intel Ihnen scheinbar auch 2 bis 3 Steine in den Weg gelegt.

Was du dir nicht alles aus den Fingern saugst. CUDA ist auf die nV-Architektur angepasst. Das würde mit jeder AMD-Karte mehr schlecht als recht laufen, zumal AMD dann natürlich auf nV angewiesen ist was die Weiterentwicklung betrifft. Kein klar denkendes Unternehmen würde sich darauf einlassen und damit letztlich nur die Konkurrenz stärken.


Wenn irgendetwas wirklich tot ist, dann Cal/Brook+.

Bevor jemand damit arbeitet, benutzt selbst der größte ATI-Freak freiwillig Cuda.

Davon abgesehen das das nicht funktioniert. nV hat nun mal die Rechte und können diktieren. Entweder Cuda oder nichts....

Und eine Glaskugel ist auch noch vorhanden, genial. Cal/Brook+ ist nicht toter als CUDA, und was daran so mies sein soll kannst du ja sicher ausführen.

S940
2008-06-28, 11:57:42
Das einzige was ATI bei der Umsetzung von Cuda überwinden muss ist Ihr "stolz".
Dafür müssen die nicht das G80 Design in SW nachbauen.
Es geht Ihnen einfach nur gegen den Strich das das die Bedingung für PhysX ist.
Schau Dir mal die CUDA Programming guidlines an. Wenn man das mal macht, und somit von der FUAD Argumentationskette abweicht:
All AMD needs in order to be able to support PhysX is to adopt Cuda.
ATI has its own GPGPU program, but we guess Cuda support on top of it won’t hurt them...
dann sieht man, dass das sehr nahe am G80/G92 Design ist, v.a. die Speicherstruktur ist so beim R6xx nicht vorhanden. Fuad erzählt damit einfach nur Müll.

Interessant ist die Bemerkung im, von deekey777 verlinkten B3D Thread. Da wird nochmal darauf hingewiesen, dass sich ATi mit der RV7xx Cache/Speicherstruktur ein bisschen an das NV Design annährt, da ATi jetzt auch
16kb local storage per SIMD engine hat.
Man könnte jetzt also über CUDA für R7XX fabulieren, aber mit Open CL am Horizont ist CUDA für ATi einfach überflüssig.

Wenn irgendetwas wirklich tot ist, dann Cal/Brook+.Beleg ? Mit Open CL wird es sicherlich begraben werden, aber bis dahin hat man halt nichts andres.
Bevor jemand damit arbeitet, benutzt selbst der größte ATI-Freak freiwillig Cuda.Naja schau Dir die Aussagen des Fuad Artikels, verlinkt auf S.1 nochmal an: Das wird nix werden.
Davon abgesehen das das nicht funktioniert. nV hat nun mal die Rechte und können diktieren. Entweder Cuda oder nichts....
Diktieren sie aber nicht, schaus Dir nochmal oben an ... die zitierten Textpassagen mit dem "free" .. "open" usw. PhysiX API mein ich :)

ciao

Alex

=Floi=
2008-06-28, 15:30:10
nv wird für bestimmte kunden den cuda-support sicherlich noch ein paar jahre weiterführen und bisher hat man einfach zu viele resourcen da hineingesteckt

Gast
2008-06-28, 19:13:26
Es geht Ihnen einfach nur gegen den Strich das das die Bedingung für PhysX ist.


ist es nicht, würde ATI CUDA auf ihren karten lauffähig machen, könnte man direkt den NV-treiber verwenden.

man könnte aber genauso gut einen eigenen PhysX-treiber entwickeln der über irgendeine andere schnittstelle mit dem grafiktreiber kommuniziert.

S940
2008-06-28, 23:53:53
So, den Thread hier kann man erstmal vergammeln lassen. Anstatt Gerüchteschieber und Abschreiber gibts (man höre und staune) noch Reporter, die die Firmen anrufen (!):
So far AMD has not participated with NVIDIA to develop GPU physics using the PhysX middleware. AMD has repeatedly said that they have heard nothing from NVIDIA, and had not been invited to participate. What AMD is doing is working with Havok, which is now owned by Intel. So far AMD is very happy with what they have done with Havok, and they are actively working with Havok to help enable their “Cloth and Destruction” technologies to potentially work on the AMD GPU. Nothing official has been announced yet, but this does appear to be the direction they are heading.

AMD does feel that there needs to be an open relationship, but I am not entirely sure how they are going about making this happen. As a funny side note, I had brought this subject up with Roy Taylor at NVIDIA. He said that so far nobody from AMD has tried to contact him about joining in with support for GPU accelerated PhysX from the AMD side. And furthermore all they had heard from AMD was that they had complained, “Nobody from NVIDIA has contacted us about joining in.” At which point another person on the NVIDIA call commented, “Well I saw this really attractive girl at the dance, but she didn’t come over to talk to me…obviously she hates me!”

So I am here to put, in writing, a message from NVIDIA to AMD. Richard Huddy, please call Roy Taylor at NVIDIA ASAP. He is awaiting your call. http://www.pcper.com/article.php?type=expert&aid=584&pid=2

Der Artikel ist vom 25.6, auf wessen Mist der Artikel von von O3D (http://www.overclock3d.net/news.php?/gpu_displays/ati_falls_for_physx/1) gewachsen ist, würde ich gerne mal wissen ...

Die Wahrscheinlichkeit, dass die Genies von ngohq.com einen Radeon PhysiX Treiber entwickelt haben sinkt damit auf ein Minimum. Nen versteckten Alpha Port im Treiber zu aktivieren traut denen wohl jeder zu, ein komplettes API umzubiegen dagegen eher nicht.

Natürlich bleibt noch die krude Verschwörungstheorie, dass sich ATi auf illegalem Wege Infos besorgt hat, das API fertig ist, aber, da keine Rechte vorhanden sind, ne Hacker Gruppe zur Aktivierung "engagiert" wurde ... :|

Aber lassen wir das.

Kurzfassung: Ati + PhysiX ist erst mal ein schönes Märchen, mehr nicht. Vielleicht ruft Richard Huddy, ja den Roy Taylor an und es kommt was raus dabei, aber kurzfristig wird sich erstmal nichts ändern.

ciao

Alex

=Floi=
2008-06-29, 01:05:15
seit dem fps-limiter programm für tombman, das angeblich SO aufwendig war und dann von einem gast ;D in ca. 20 std programmiert wurde glaube ich den gurus hier garnichts mehr.

sorry aber wenn die richtigen leute an den richtigen sachen arbeiten könnte vieles möglich sein...

Demirug
2008-06-29, 11:07:33
Was du dir nicht alles aus den Fingern saugst. CUDA ist auf die nV-Architektur angepasst. Das würde mit jeder AMD-Karte mehr schlecht als recht laufen, zumal AMD dann natürlich auf nV angewiesen ist was die Weiterentwicklung betrifft. Kein klar denkendes Unternehmen würde sich darauf einlassen und damit letztlich nur die Konkurrenz stärken.

CUDA ist eigentlich schon recht stark abstrahiert. Nvidia will ja vermeiden das bei einer neuen Chipgeneration die möglicherweise etwas andere Wege einschlägt plötzlich alle CUDA Programme nicht mehr funktionieren.

Abhängig davon welche CUDA Funktionen PhysX nun genau nutzt dürfte es durchaus möglich sein das auf CAL umzubiegen. Allerdings scheint mir ein CUDA2OpenCL oder CUDA2DX11CS Wrapper ein interessanteres Projekt.

S940
2008-06-29, 14:57:57
CUDA ist eigentlich schon recht stark abstrahiert. Nvidia will ja vermeiden das bei einer neuen Chipgeneration die möglicherweise etwas andere Wege einschlägt plötzlich alle CUDA Programme nicht mehr funktionieren.Jo, laufen werden die Programme sicherlich, aber die alten Optimierungen auf G92 waren dann fürn ....

Hat einer auch auf Aceshardware so gesehen:
Our research group tested and scrapped CUDA although it was close to perfect for our workload. No doubt could we get massive performance increase, but it was too much work (many lines of code), too unlikely that nvidia would be the performance leader over time, and compatibility issues were seen as very likely. For instance the next big thing (tm) from nvidia might well be compatible with CUDA, but would we have to do the performance tuning all over again? With these highly specialized architectures getting the software to do what you want it to do takes like half the time, and the other half is spent on architecture specific tuning to get the performance potential of the hardware. New architecture most likely means a new round with tuning.
http://aceshardware.freeforums.org/nvidia-s-cuda-t522-15.html

ciao

Alex

Hellknight[FA]
2008-06-30, 12:14:27
Geht nicht. CUDA ist zu sehr auf die NVIDIA-Architektur angepasst.


GeForce PhysX ist einiges schneller als die PPU. Der Grund ist nicht irgendwas "zurückzuhalten" sondern schlicht und einfach dass nicht grundlos 3D-Performance drauf geht.

Auf die Gefahr hin jetzt an Dir vorbeizureden ;)

http://techgage.com/article/nvidias_physx_performance_and_status_report/3

zeigt, dass das nur in der Theorie (Vantage & Co.) zutrifft (also wenn die GPU sonst nix zu tun hat), jedoch in der Praxis anders aussieht...

Und nicht schlagen falls ich das Thema verfehlt habe ^^


Grüße

Timo

Gast
2008-06-30, 13:15:31
Was du dir nicht alles aus den Fingern saugst. CUDA ist auf die nV-Architektur angepasst. Das würde mit jeder AMD-Karte mehr schlecht als recht laufen, zumal AMD dann natürlich auf nV angewiesen ist was die Weiterentwicklung betrifft.

Kann gar net sein, da die PhysX Implementierung doch auf AMD Hardware schon läuft, wie in den 3Dcenter News zu lesen ist. Und das nichtmal schlecht (wohlgemerkt, man weis das NV die PhysX Berechnung drosselt, ob dies mit der gefrimelten Lösung in den News auch der Fall ist, wird sich zeigen).

Demirug
2008-06-30, 13:58:55
Ich will ja nicht den Teufel an die Wand malen aber unter dem Bild steht „Coming Soon!“ und im Text folgt dann noch „Anyway, expect to see some cool demo video in several days-weeks. Remember, it takes a lot of time and work to make CUDA compatible enough with Radeon to get it to fully work without any issues.”

Die Sache scheint mir also durchaus noch etwas fragwürdig.

S940
2008-06-30, 17:46:23
Kann gar net sein, da die PhysX Implementierung doch auf AMD Hardware schon läuft, wie in den 3Dcenter News zu lesen ist. Und das nichtmal schlecht (wohlgemerkt, man weis das NV die PhysX Berechnung drosselt, ob dies mit der gefrimelten Lösung in den News auch der Fall ist, wird sich zeigen).
Das mit dem Laufen wird nicht wahr, indem 1000 webseiten die gleiche (vermutlich falsche) Nachricht 1000x kopieren ...

IMO etwas peinlich für 3DC, dass sie den Käse auch noch verbreiten, wo es doch den Thread hier im hauseigenem Forum gibt.

Die einzig belastbare Nachricht zu dem Thema hab ich oben geschrieben (Orginalaussage von AMD/nV Managern), der Rest sind irgendwelche Fantasien, die auf zweifelhaften Webseiten auftauchten auf denen jeder schreiben kann was er will.

ciao

Alex

Leonidas
2008-07-01, 17:30:37
Kann sein, daß ich hier danebengegriffen habe. Der Screenshot sah aber schon erstmal recht belastbar aus - wenn, dann müsste man ja regelrecht von einer Fälschung ausgehen.

Egal, werde das Thema in den News nochmals erwähnen.

AnarchX
2008-07-01, 17:35:23
Ich denke doch dass den "Attention Whores" NOGHQ genug Aufmerksamkeit gespendet wurde.
Das für das Wochende versprochene Beweisvideo wurde ja auch nicht geliefert.

Gast
2008-07-03, 07:30:49
Wie ich das ohne Paint machen würde:

1.) Ich nehme eine GTxxx - Karte und aktiviere PhysX
2.) Zusätzlich stecke ich eine ATI Karte ins Mainboard
3.) ich mache meine Messung (Grafik=ATI und PhysX=NV) und Screenshots.

Das würde erklähren warum die CPU-Punkte von NV und ATI so ähnlich sind,
weil PhysX immer nur auf der NV läuft.

Da ich hier keine ATI und NV Karte habe, weiß ich nicht ob beide zusammen auf einem MB laufen würden.

Gruß Mika

Demirug
2008-07-03, 07:45:07
Wie ich das ohne Paint machen würde:

1.) Ich nehme eine GTxxx - Karte und aktiviere PhysX
2.) Zusätzlich stecke ich eine ATI Karte ins Mainboard
3.) ich mache meine Messung (Grafik=ATI und PhysX=NV) und Screenshots.

Das würde erklähren warum die CPU-Punkte von NV und ATI so ähnlich sind,
weil PhysX immer nur auf der NV läuft.

Da ich hier keine ATI und NV Karte habe, weiß ich nicht ob beide zusammen auf einem MB laufen würden.

Gruß Mika

Das ist weniger ein Problem des MB sondern von Vista. Eigentlich kann man nämlich keine zwei Grafiktreiber gleichzeitig laufen lassen.

Sascha1971
2008-07-03, 07:49:51
Das ist weniger ein Problem des MB sondern von Vista. Eigentlich kann man nämlich keine zwei Grafiktreiber gleichzeitig laufen lassen.

Also ist man doch nicht in der Lage z.B. eine R700 als Mainkarte einzusetzen und die alte 8800gtx als Phys-Karte ?

Demirug
2008-07-03, 08:12:14
Für Windows ist die 8800 primär immer noch eine Grafikkarte und solange nvidia keine spezialtreiber liefert damit sich die Karte nur noch als „Coprozessor“ im System meldet gilt die Beschränkung für Grafikkarten.

Demogod
2008-07-03, 08:32:05
@Demirug:
Über diese 2 Grafikkarten Thematik habe ich gestern kurz nachgedacht..
Ist das bei OS X &/or bei Linux/generic BSD/Hurd/insert OS here auch so?

Und noch ne Frage auch wenn du vermutlich kein OS X Guru bist:
ich hab mal 2 Monitore an meiner 9600gt gehabt, bei manchen Spielen war es möglich nebenbei TV zu glotzen und bei manchen nicht. Ist mir wohl klar, dass es vermutlich daran liegt, weil sich manche Games die ganze Graka schnappen und die Speicherverwaltung (VRam) selber über 3d3 oder ogl übernehmen wollen. Ist das aber beim Mac genauso oder anders weil sowieso schon IMMER alles per ogl surface gerendert wird?

S940
2008-07-03, 10:26:09
3.) ich mache meine Messung (Grafik=ATI und PhysX=NV) und Screenshots.Daran hab ich vor ein paar Seiten auch schon gedacht, falls das klappt sollte da aber immer noch nicht "Radeon PhysiX" auf dem Screenshot zu sehen sein... spätestens da müßte also Photoshop ran.

Das ist weniger ein Problem des MB sondern von Vista. Eigentlich kann man nämlich keine zwei Grafiktreiber gleichzeitig laufen lassen.
Ist das neu bei Vista ? Bilde mir ein vor ein paar Jahren was gelesen zu haben, dass Leute eine PCI Karte und AGP Karte parallel unter Win2000 am laufen hatten.

ciao

Alex

deekey777
2008-07-03, 10:37:48
Wie ich das ohne Paint machen würde:

1.) Ich nehme eine GTxxx - Karte und aktiviere PhysX
2.) Zusätzlich stecke ich eine ATI Karte ins Mainboard
3.) ich mache meine Messung (Grafik=ATI und PhysX=NV) und Screenshots.

Das würde erklähren warum die CPU-Punkte von NV und ATI so ähnlich sind,
weil PhysX immer nur auf der NV läuft.

Da ich hier keine ATI und NV Karte habe, weiß ich nicht ob beide zusammen auf einem MB laufen würden.

Gruß Mika
Dann stellt sich die Frage, mit welcher NV getestet wurde (der CPU2-Wert ist relativ niedrig, http://www.tweakpc.de/gallery/showphoto.php/photo/4619/size/big/cat/533).

HOT
2008-07-03, 10:52:59
Das wird mit einer kleineren Geforce8 oder gar 8200 IGP getestet worden sein. Demi, das ist kein Problem, die 2. Karte macht ja kein Bild. Mehrere Grafikprozessoren kann Vista doch schon verwalten, es gibt halt nur Probs bei der Ausgabe oder nicht.

Demirug
2008-07-03, 11:23:03
Das wird mit einer kleineren Geforce8 oder gar 8200 IGP getestet worden sein. Demi, das ist kein Problem, die 2. Karte macht ja kein Bild. Mehrere Grafikprozessoren kann Vista doch schon verwalten, es gibt halt nur Probs bei der Ausgabe oder nicht.

Aber alle Karten müssen den gleichen Grafiktreiber benutzten. Solange alle Karten vom gleichen Hersteller sind funktioniert das dann aufgrund der Unified Treiber ja auch.

HOT
2008-07-03, 11:32:40
Das gilt aber doch nur für die Ausgabe. Es müssten dorch dennoch 2 Grafiktreiber installierbar sein. Nur das der andere nicht für ein Bild sorgen kann.

JaDz
2008-07-03, 11:33:29
Vista kann ohne Probleme mit mehreren Grafikkarten arbeiten. Allerdings leider nicht mit mehreren WDDM-Treibern. Mehrere (auch verschiedene) Karten mit GPUs des gleichen Herstellers sind daher kein Problem. Ein Mix von Karten mit GPUs verschiedener Hersteller ist nur mit XDDM-Treibern (XP-Treibern) möglich, damit muss man dann aber auf Aero und dessen Beschleunigungsfunktionen verzichten. KB929456 (http://support.microsoft.com/kb/929456/en-us)

HOT
2008-07-03, 11:40:07
Hmm. Wenn man also für die Geforce einen XDDM-Treiber installieren würde, müsste CUDA doch trotzdem funzen? Er soll ja keine Ausgabe machen, er soll ja nur da sein :D.

Demirug
2008-07-03, 12:04:59
Hmm. Wenn man also für die Geforce einen XDDM-Treiber installieren würde, müsste CUDA doch trotzdem funzen? Er soll ja keine Ausgabe machen, er soll ja nur da sein :D.

Nur bist du dann gezwungen für alle Grafikkarten XDDM Treiber zu nehmen. Also auch für die welche was ausgeben sollen. Zudem weiß ich nicht ob Cuda unter Vista mit dem XDDM Treibern überhaupt funktioniert.

Gast
2008-07-03, 20:03:27
Ist das unified Treiber Modell eingentlich ein Performance Hinderniss für die ganzen GPUs? Der Treiber bekommt ja zig Libarys mit.
Bei Einführung der G80 Serie gabs ja lange lange Probleme, selbst unter XP mit alten Spielen, wie z.b. DX7-8 Games.

IceKillFX57
2008-07-03, 20:15:37
Wo bleibt eig. der Beweis?
Oder habe ich was verpasst?

Demirug
2008-07-03, 20:41:58
Ist das unified Treiber Modell eingentlich ein Performance Hinderniss für die ganzen GPUs? Der Treiber bekommt ja zig Libarys mit.

Nvdia verrät ja leider keine Details wie und was genau in den Treibern Unfried ist. Entsprechend schwer ist das einzuschätzen.

Bei Einführung der G80 Serie gabs ja lange lange Probleme, selbst unter XP mit alten Spielen, wie z.b. DX7-8 Games.

Bei neuen Architekturen gibt es ja häufig Änderungen an sehr Zentrallen Stellen. Entsprechend sind dann auch alle möglichen Anwendungen betroffen.

Gast
2008-07-03, 20:52:38
Daran hab ich vor ein paar Seiten auch schon gedacht, falls das klappt sollte da aber immer noch nicht "Radeon PhysiX" auf dem Screenshot zu sehen sein... spätestens da müßte also Photoshop ran.
Alex

Ich habe das auf dem zweiten Blick auch gesehen, und gedacht...

....Scheiß Idee, wie kommst Du da wieder raus :-)

Als VB6 Programmierer würde ich ein ein Form, ein Tab-Control, zwei Option_Controls und ein paar andere Controls benötigen.
Ich glaube, es gibt genügend Leute, die diese Oberfläche eben mal mit
VC 2008 oder ähnlichem produzieren können. Die Controls müssen natürlich keine Funktion haben.

Ich wäre dann frei von Pixel-Irritationen, wie sie bei der Verwendung eines jeden Grafikprogramms auftreten würden.

Und wie gesagt, alles hypothetisch......

Danke für das aufmerksame Lesen!

Mika

deekey777
2008-07-04, 23:38:17
http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update.html
Ohne Kommentar, irgendwie naja.

Demirug
2008-07-04, 23:45:29
Na das ist doch mal eine faule Ausrede.

Slipknot79
2008-07-05, 00:18:52
Macht er wahrscheinlich nur deswegen, damit ihm jemand eine 4700er aus Mitleid schenkt. :redface:

Gast
2008-07-05, 00:24:37
Wie ich das ohne Paint machen würde:

1.) Ich nehme eine GTxxx - Karte und aktiviere PhysX
2.) Zusätzlich stecke ich eine ATI Karte ins Mainboard
3.) ich mache meine Messung (Grafik=ATI und PhysX=NV) und Screenshots.

Das würde erklähren warum die CPU-Punkte von NV und ATI so ähnlich sind,
weil PhysX immer nur auf der NV läuft.

Da ich hier keine ATI und NV Karte habe, weiß ich nicht ob beide zusammen auf einem MB laufen würden.

Gruß Mika

Ich würde einfach eine alte PhysX Karte einbauen, die Punkte passen doch PERFEKT zusammen, den 22K CPU Score ist echt wenig!

Habe mit meiner GTX 280 und Quad Core über 50K....

pest
2008-07-05, 00:26:46
CUDA auf ATI, und NV hilft ihnen
na ihr werdet's schon sehen :eek:

Gast
2008-07-05, 00:27:07
hier noch der Beweis, sonst glaub das ja keiner ;)

http://img507.imageshack.us/img507/1519/15416gz9.th.jpg (http://img507.imageshack.us/my.php?image=15416gz9.jpg)

misterh
2008-07-05, 00:40:42
hier noch der Beweis, sonst glaub das ja keiner ;)

http://img507.imageshack.us/img507/1519/15416gz9.th.jpg (http://img507.imageshack.us/my.php?image=15416gz9.jpg)

hae? guten morgen

hier ist das Thema PhysX für ATI

Nicht Nvidia, das da geht, wissen wir schon lange.

deekey777
2008-07-05, 00:48:23
CUDA auf ATI, und NV hilft ihnen
na ihr werdet's schon sehen :eek:
CUDA 2 bietet schon jetzt die Möglichkeit, den "CUDA"-Code auf CPUs laufen zu lassen: http://www.beyond3d.com/content/articles/106/4

one of the big new features in CUDA 2.0 has nothing to do with GPUs: you will now be able to compile CUDA code into highly efficient SSE-based multithreaded C code to run very efficiently on the CPU. That’s right, not just device emulation; the genuine goal is to make it run as fast as possible on Intel and AMD CPUs. In a way, that’s quite similar to Rapidmind.
Es würde mich nicht wundern, wenn NV wirklich CUDA auf irgendeine Weise auf Radeons zum Laufen bekommt.

S940
2008-07-05, 09:52:01
http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update.html
Ohne Kommentar, irgendwie naja.
*Lach* Danke für den Link, das hier war das beste:
from cool journalists like Theo Valich to address the HD 4800 access issue.
Ansonsten war die Ausrede sicherlich im erwarteten Bereich.
Was ich von der Aussage halten soll, dass nVidia Ihnen hilft weiß ich ehrlich gesagt nicht, mal die nächste Woche abwarten, ob ein Dementi kommt.

Aber das könnte man natürlich dann auch wieder anzweifeln ... es lebe die Gerüchteküche.

ciao

Alex

JaDz
2008-07-08, 13:44:14
http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update.html
Ohne Kommentar, irgendwie naja.
Ist das das gleiche oder was neues?

http://winfuture.de/news,40661.html

Edith sagt: "Noch ein Link!"

http://www.tgdaily.com/html_tmp/content-view-38283-135.html

S940
2008-07-08, 17:01:53
Ist das das gleiche oder was neues?

http://winfuture.de/news,40661.html

Edith sagt: "Noch ein Link!"

http://www.tgdaily.com/html_tmp/content-view-38283-135.html

Und noch einer:
http://www.heise.de/newsticker/Nvidia-unterstuetzt-Portierung-von-PhysX-auf-Radeon-Grafikkarten--/meldung/110576

Das neue an den ganzen (abgeschriebenen) Meldungen ist, dass er laut THG jetzt wirklich nV Unterstützung hat:
We contacted Nvidia for a statement and received the following note from Roy Taylor, vice president of developer relations:

"Eran and I have been talking via email and we have invited him to join NVIDIA’s registered developer program. We are delighted at his interest in CUDA and in GPU accelerated physics using PhysX. Eran joins a long line of developers who are now working on using the GPU to run physics and who are doing so with the world's leading physics software - PhysX. "

Mal schauen, ob er das wirklich schafft, verrückt genug dazu scheint er zu sein ^^

Im Forum nimmt (wohl die gleiche Person) einer auch Stellung zu den ganzen Vorwürfen:
Posted by Regeneration on July 7th, 2008, 05:26 PM
Here are some answers to your questions:

Q: Is this complete CUDA-to-ATI project, or just Physx-2-ATI?
A: CUDA-to-ATI project and PhysX.

Q: How come you have screenshots and its taking you so much to finish the project?
A: There is a lot of difference between partial support and full support. We don’t want to release incomplete project with a lot of bugs. We want to finish our project and to offer full support for PhysX and CUDA.

Q: Stop whining! Buy the damn card.
A: Budget/money is not an issue here. The issue here is the lack of world-wide availability of the HD 4800 series. We started this project a few days after AMD launched their HD 4800 series. We can’t acquire cards from AMD because they refuse to sell in low volumes and it’s unavailable via shops in our region (Forget about eBay! my eBay account is banned for no reason and they refuse to tell me why). So our only chance is either waiting for shops or asking from AMD. We don’t like to wait, it slows us down. If you can get AMD/their partners to sell in low volumes, we would love buy that damn card.

Q: It’s not that they aren't supporting this site; it’s that this site is potentially damaging AMD/ATI technology.
A: We emailed AMD before they launched the new HD 4800 family and asked to borrow samples. They ignored our emails and that was before we even thought about this project.

Q: Stop complaining about everything
A: It’s our obligation to report everything to our users/readers.

Q: To get corporate backing of a mission to support competitor’s technology is insane
A: This technology could make their Radeon brand even more attractive. Nvidia will use their popular The Way It Meant to be Played program to promote PhysX and everyone knows that Nvidia has better relations with game developers then AMD. If Radeons would support both PhysX and Havok it should make the brand more attractive to consumers.

Q: AMD/ATI has no-doubt already thrown millions into their physics technology
A: AMD received Havok license for free.

Q: Why don`t you try making Havok running on GeForce, and see how cooperative Nvidia will be.
A: It’s being investigated for some time now.

Q: Would it be possible to put an Nvidia graphics card in as a dedicated PhysX card to work alongside ATI cards that are doing the graphics?
A: No. But I think its possible with some software modifications.
http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update-5.html

ciao

Alex

Gast
2008-07-08, 17:12:44
Gut erscheinen mir auch die Gedanken zur oben zitierten "Q/A"-Passage, denn ganz durchdacht waren nicht alle Antworten.
Q: "It’s our obligation to report everything to our users/readers."
A: I agree. I like when information is reported. Its just that the tone can change the meaning.
"ATI still has not sent us a card for us to use" would be reporting.
"I think ATI must want us to fail as they refuse to acknowledge our project" is whining.

Q: "This technology could make their Radeon brand even more attractive. . . If Radeons would support both PhysX and Havok it should make the brand more attractive to consumers."
A: Yes, I agree with you again. This technology is AWESOME. However, I still don't think you are willing to see their side of the argument. Your project is something that ATI cannot support, regardless of whether or not they want to. Business just doesn't work this way unfortunately.

Q: AMD received Havok license for free.
A: True. The license is free. Implementing that technology in their hardware, in a consistent, reliable manner takes time. Of all people, you should know this. Time is money, and money is hard to come by. Regardless of how little they paid for the technology, the implementation is where the money is burned.http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update-6.html

klumy
2009-04-20, 22:15:25
Gibt es eigentlich Neuigkeiten von der Physx Front. Wird PhysX mittlerweile von ATI Karten unterstützt?

Crazy_Chris
2009-04-20, 22:17:01
Gibt es eigentlich Neuigkeiten von der Physx Front. Wird PhysX mittlerweile von ATI Karten unterstützt?

nein

klumy
2009-04-20, 22:41:15
Ich bin vor kurzem von einer NVidia Grafikkarte auf eine ATI Karte gewechselt. Heißt dass ich kann auch die NVidia PHysx Treiber von der Systemsteuerung deinstallieren, da diese sowieso nicht von meiner ATI Karte unterstützt werden?

Crazy_Chris
2009-04-20, 22:48:44
PhysX ist ein API die von einigen Spielen auch verwendet wird. Die funktioniert auch rein über die CPU.

klumy
2009-04-20, 22:56:03
dann lasse ich den Treiber vorerst drauf
danke

mapel110
2009-04-20, 23:36:29
Zu dem Thema fällt mir der Kommentar ein. ;D
http://geizhals.at/deutschland/?sr=414196,-1
Dann kommt noch hinzu, das du Sacred 2 mal ganz vergessen kannst mit dem neuem Patch udn Physx.
Hab gerade mal 8 FPS und das mit nem Quad.
Karte wandert direkt wieder zurück.

;D bzw. eine Runde Mitleid für den enttäuschten Kunden.

Gast
2009-04-20, 23:55:46
PhysX ist ein API die von einigen Spielen auch verwendet wird. Die funktioniert auch rein über die CPU.

aber der Treiber ist dafür nicht nötig.

reunion
2009-04-21, 07:21:38
Gibt es eigentlich Neuigkeiten von der Physx Front. Wird PhysX mittlerweile von ATI Karten unterstützt?

AMD wird GPU PhysX genau dann unterstützen wenn nV einen OpenCL-Port anbietet.

Crazy_Chris
2009-04-21, 08:58:04
aber der Treiber ist dafür nicht nötig.

Bei einigen wenigen Spielen aber schon. :wink:

Gast
2010-07-05, 13:26:30
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1278322413

Außerdem plant man im Dezember die Veröffentlichung einer ersten Beta-Version des OpenPhysics SDK, was wohl AMDs Gegenstück zu Nvidias PhysX SDK werden soll. Damit kann man ein Jahr nach der Ankündigung der Open Physics Initiative erste Ergebnisse vorzeigen. Welche neuen Features sonst noch geplant sind, kann dieser Folie entnommen werden:

http://www.abload.de/img/filehyfl.jpg (http://www.abload.de/image.php?img=filehyfl.jpg)

samm
2010-07-05, 13:44:42
OpenPhysics ist nicht PhysX, und ein SDK ist kein Treiber :p

deekey777
2010-07-05, 14:16:50
OpenPhysics ist nicht PhysX, und ein SDK ist kein Treiber :p
OpenPhysics basiert auf Bullet Physics und DMM 2.0. Wozu brauchst du einen Treiber? Es setzt auf OpenCL und eine OpenCL-Treiber liefert AMD schon lange mit dem SDK, mit dem Stream SDK 2.3 wird der Treiber wohl in OpenCL integriert.

http://oscarbg.blogspot.com/2010/07/ati-stream-sdk-roadmap.html

Edit: ah, jetzt sehe ich, was du meinst. Die Meldung ist vollkommen deplatziert. Da wollte jemand schnell auf die News verweisen und gräbt dafür einen alten Thread aus. Irgendwie erinnert mich das an die Vorgehensweise eines Users aus Holland...

y33H@
2010-07-05, 14:20:08
Und wann kommt das erste Spiel?

boxleitnerb
2010-07-05, 14:57:24
Es gibt schon eins, sogar für den PC (Konsolen und Filmstudios benutzen schon länger Bullet) - so ein 20$ Rennspiel, genannt Zero Gear. Also ich kenns nicht und glaube, wenn man gegen PhysX Bestand haben will, braucht es DEUTLICH mehr. Ein oder zwei AAA-Titel. Mit Werbung und vor allem der Umsetzung steht und fällt das ganze Teil.

PhysX ist schon etabliert - egal ob nur CPU oder auch per CUDA, die Entwickler haben Erfahrungen, der Support ist gut, alles kommt aus einer Hand. Da Nvidia wohl bis auf weiteres PhysX vorantreiben wird, stehen die Entwickler für GPU-Physik vor der Wahl:

a) Hab schon damit gearbeitet, wird gut unterstützt und immer weiterentwickelt. Hat sich schon in Spielen und auf Hardware bewährt.
Erreichte Käuferschaft: 60% (Marktanteil Nvidia)+die, die eine Geforce per Hack als PhysX-Beschleuniger benutzen.

b) Kompletter Umstieg, bei Problemen zwei verschiedene Ansprechpartner (Bullet und die IHVs). Praktisch keine Referenzen im PC-Bereich.
Erreichte Käuferschaft: 100%

Ich weiß nicht, ich denke, viele würden a) wählen.

deekey777
2010-07-05, 15:09:34
Hier sieht man, wo Bullet benutzt wird: http://en.wikipedia.org/wiki/Bullet_(software)
Hier sieht man, wo DMM benutzt wird: http://en.wikipedia.org/wiki/Digital_Molecular_Matter

Es gibt nicht nur Spiele.

Gast
2010-07-05, 15:20:57
OpenPhysics basiert auf Bullet Physics und DMM 2.0. Wozu brauchst du einen Treiber? Es setzt auf OpenCL und eine OpenCL-Treiber liefert AMD schon lange mit dem SDK, mit dem Stream SDK 2.3 wird der Treiber wohl in OpenCL integriert.

http://oscarbg.blogspot.com/2010/07/ati-stream-sdk-roadmap.html

Edit: ah, jetzt sehe ich, was du meinst. Die Meldung ist vollkommen deplatziert. Da wollte jemand schnell auf die News verweisen und gräbt dafür einen alten Thread aus. Irgendwie erinnert mich das an die Vorgehensweise eines Users aus Holland...

ja ähh sorry, ich hab keinen besseren gefunden... und einen eigenen für open physics scheint es noch nicht zu geben...
vielleicht sollte einer von einem user erstellt werden damit auch der startpost regelmäßig gepflegt wird

y33H@
2010-07-05, 16:46:37
@ boxleitnerb

PhysX = 100%, da PC (CPU!) plus Konsolen.

@ deekey777

GPU, nicht CPU-based meinte ich.

boxleitnerb
2010-07-05, 17:16:19
Ich meinte GPU-beschleunigte Physik, sorry.

deekey777
2010-07-05, 17:33:47
Alsob es AMD bei OpenPhysics darauf ankommt, dass Spiele mit OP über Grafikkarten veröffentlicht werden.

=Floi=
2010-07-05, 17:43:38
ohne gpu geht es aber nicht, weil die cpus dafür zu wenig rechenleistung haben. gerade de radeons könnten hier mal wirklich auftrumpfen und ihre brachiale rechenleistung ausspielen.

deekey777
2010-07-05, 17:47:02
ohne gpu geht es aber nicht, weil die cpus dafür zu wenig rechenleistung haben. gerade de radeons könnten hier mal wirklich auftrumpfen und ihre brachiale rechenleistung ausspielen.
Nochmal: Es gibt nicht nur Spiele.

Gipsel
2010-07-06, 00:49:57
ohne gpu geht es aber nicht, weil die cpus dafür zu wenig rechenleistung haben. gerade de radeons könnten hier mal wirklich auftrumpfen und ihre brachiale rechenleistung ausspielen.
Für das bißchen Physik, was wir heute in Spielen zu sehen bekommen, ist die "brachiale Rechenleistung" der Radeons schon überdimensioniert. Da gibt es selten genug Objekte, als daß eine High-end GPU sinnvoll ausgelastet werden würde. Das meiste würde locker auf der CPU (Multi-Core!) gehen, wenn es halbwegs sinnig programmiert wäre.

Nur mal so zur Einordnung, ich habe hier einen ziemlich komplizierten (wissenschaftlichen) Physik-Code laufen, der auf einer HD5850 mindestens 17.000 Objekte benötigt, um die GPU überhaupt voll auslasten zu können (bei einer HD5870 wären es noch ein paar mehr). Bei Spiele-Physik sind erheblich mehr Kompromisse in Bezug auf die Genauigkeit möglich, da ist selten eine wirklich exakte Simulation gefragt. In dem Fall bräuchte man eher um die 50.000 (!) Objekte für eine gute Auslastung der GPU. Wann sieht man mal so viele auf dem Bildschirm?
Für eine einfache rigid body Simulation (das ist die Hauptanwendungsfall für Spielphysik) mit wenigen tausend Objekten ist eine CPU genau so schnell wie eine GPU. Das kann man im Prinzip ziemlich effizient über Baumstrukturen implementieren, wo man schon bald hunderttausend Objekte oder so benötigt, damit eine GPU überhaupt schneller wird als eine Quadcore CPU.

Zusammengefaßt ist der ganze Hype um GPU-Physik in meinen Augen zu einem großen Teil PR-Gedöns. Sicherlich kann es wünschenswert sein, die CPU von solchen Aufgaben zu befreien (und sobald die GPUs concurrent kernels auch wirklich in der Praxis unterstützen, können die das auch übernehmen). Aber so lange Quadcore CPUs nur zu 50% oder so ausgelastet werden, sollten die Leute eher über effizientere CPU-Physik nachdenken :rolleyes:

Gab es nicht mal so ein Demo mit 400.000 (!) Objekten in einer reinen CPU-Implementation von rigid-body Physik, die auf einer normalen Quadcore CPU superflüssig lief? Das ist weit mehr, als man jemals mit PhysX auf GPUs zu sehen bekommen hat ;D

=Floi=
2010-07-06, 01:51:10
Nochmal: Es gibt nicht nur Spiele.

es bleibt das gleiche. je intensiver man es verwendet, desto besser sind gpus dafür geeignet. die kompatibilität mit cpus ist nett und auch gut, aber für einen wirklich starken einsatz fehlt es eben an deren rechenleistung.
etwas anderes habe ich nicht gesagt, und es ist ja nicht falsch. egal wo ich es einsetze, gpus werden hier immer besser geeignet sein.

edit
@gipsel
physx zieht aber schon sehr viel power. ich will ja nicht die ganze gpu nur mit physikberechnungen auslasten und da relativiert sich deine aussage auch wieder ganz schnell. bezogen auf die krasse rechenleistung einer 5870 sind diese ~22000 objekte jetzt auch nicht unbedingt so extrem viel. (nicht falsch verstehen!)

Gipsel
2010-07-06, 06:35:19
physx zieht aber schon sehr viel power.
Was wohl eher etwas über PhysX sagt, als daß man prinzipielle Aussagen treffen kann, oder?
ich will ja nicht die ganze gpu nur mit physikberechnungen auslasten und da relativiert sich deine aussage auch wieder ganz schnell.Nö, mit CUDA/OpenCL kann man momentan die concurrent kernels nicht nutzen (angeblich geht es aber mit DirectCompute), ergo belegen die Physik-Rechnungen immer die ganze GPU (für den Zeitraum pro Frame, den es läuft). Und das kann beliebig ineffizient werden (weil man z.B. nur <10% bräuchte). Dazu kommt, daß GPUs für effizientere Algorithmen etwas weniger gut geeignet sind als für brute force Ansätze. Da kann eine CPU viel länger mithalten (bzw. ist bei nicht überbordender Objektanzahl sogar schneller).

boxleitnerb
2010-07-06, 08:23:40
Gipsel, meinst du nicht, dass man so viele Objekte braucht, um Gase/Dämpfe und Fluide optisch ansehnlich und physikalisch korrekt zu simulieren?
Ragdoll und simplere Zerstörungen sollten auch über die CPU gut laufen. Man sieht jedoch, dass selbst ein Quadcore z.B. bei RedFaction 3 durchaus in die Knie gehen kann. Jetzt weiß ich nicht, ob die Physik dort schlecht optimiert ist und was man da noch rausholen könnte.

deekey777
2010-07-06, 11:07:15
es bleibt das gleiche. je intensiver man es verwendet, desto besser sind gpus dafür geeignet. die kompatibilität mit cpus ist nett und auch gut, aber für einen wirklich starken einsatz fehlt es eben an deren rechenleistung.
etwas anderes habe ich nicht gesagt, und es ist ja nicht falsch. egal wo ich es einsetze, gpus werden hier immer besser geeignet sein.


Es ist nicht das Gleiche, so lange hier niemand bereit ist, über den Tellerrand zu schauen.
Profitiert AMD in irgendeiner Weise, wenn Spiele mit Open Physics kommen, das überall läuft? Kaum.
Wovon aber AMD profitieren würde, ist, wenn sie zusammen mit FirePros spezielle (kostenpflichtige) OP-Plugins für 3D-Software anbieten und ihre Kunden dann Workstations kaufen, die auf AMD-Hardware basieren. Das ist eher das Ziel der OP-Initiative. Wenn Spiele mit OP kommen, dann sind sie nur ein Mittel zum Zweck.

HOT
2010-07-06, 16:54:22
[...]
PhysX ist schon etabliert - egal ob nur CPU oder auch per CUDA, die Entwickler haben Erfahrungen, der Support ist gut, alles kommt aus einer Hand. Da Nvidia wohl bis auf weiteres PhysX vorantreiben wird, stehen die Entwickler für GPU-Physik vor der Wahl:
[...]
Also "etabliert" sieht anders aus. Es gibt zwar das Eine oder Andere gesponsorte Game, aber darauf beschränkt sich PhysX dann auch. Ich sehe das Projekt eher als gescheitert an. Ohne einheitlichen, offenen Standard gibts keine Game-Physik auf GPUs. Für mich wiederholt sich die Geschichte eher, wenn man an Glide damals denkt.

Bucklew
2010-07-06, 16:56:09
Also "etabliert" sieht anders aus. Es gibt zwar das Eine oder Andere gesponsorte Game, aber darauf beschränkt sich PhysX dann auch. Ich sehe das Projekt eher als gescheitert an. Ohne einheitlichen, offenen Standard gibts keine Game-Physik auf GPUs.
PhysX ist die Physikschnittstelle #1 im Moment, "gescheitert" sieht sicherlich anders aus....

HOT
2010-07-06, 16:58:22
PhysX ist die Physikschnittstelle #1 im Moment, "gescheitert" sieht sicherlich anders aus....
Wo denn? Die meisten Hersteller kochen sich mittlerweile wieder ihr eigenes Süppchen, nicht zuletzt, wegen der Konsolenkompatibilität. Also mir sind genau 2 Titel über meinen Spieleweg gelaufen, die PhysX auf GPUs nutzten. Das war ME, da hats wirklich was gebracht, aber es war gesponsort und STO, da war es nicht mal spürbar. In Wirklichkeit hat NV PhysX den Todesstoß versetzt und Intel Havok...

Bucklew
2010-07-06, 17:01:47
Wo denn? Die meisten Hersteller kochen sich mittlerweile wieder ihr eigenes Süppchen, nicht zuletzt, wegen der Konsolenkompatibilität. Also mir sind genau 2 Titel über meinen Spieleweg gelaufen, die PhysX auf GPUs nutzten. Das war ME, da hats wirklich was gebracht, aber es war gesponsort und STO, da war es nicht mal spürbar. In Wirklichkeit hat NV PhysX den Todesstoß versetzt und Intel Havok...
PhysX ist halt mehr als nur GPU-PhysX.

http://physxinfo.com/

Gast
2010-07-06, 17:03:37
wenn ein spiel heute schon bullet nutzt (wie z.b. gta4), läuft es dann ab verfügbarkeit der passenden treiber automatisch auf der gpu oder braucht es da einen patch für das spiel?

Schlammsau
2010-07-06, 17:06:08
Dann sollte man GPU-PhysX als "gescheitert" ansehen. Die handvoll Titel die bis jetzt erschienen sind, kann man getrost vergessen.
CPU-PhysX ist aber in der Tat weit verbreitet und hat mWn einen sehr hohen Marktanteil.

john carmack
2010-07-15, 16:36:03
Tolle Geschichte...

"AMD wäre dann in der bequemen Lage, sowohl Havok als auch Physx unterstützen zu können: für beide Lösungen liegen dem Unternehmen entsprechende Lizenzen vor. "

Hauptsache schon mal Geld für die Lizenezen ausgegeben haben!

Ist wie bei uns. Da wird massenweise Geld für Lizenezen ausgegeben, die Software liegt auf den Servern bereit, und kein Schwein interssiert sich dafür!

john carmack
2010-09-20, 11:24:26
Sagt mal leute...

Kommt da auch mal was? Gibt es irgendwann echtes PhysX für Radeon Karten?

Hab gelesen das AMD/ATI Lizenzen für PhysX irgendwann mal erworben hat!

S940
2010-09-20, 11:29:12
Hab gelesen das AMD/ATI Lizenzen für PhysX irgendwann mal erworben hat!
Davon hab ich nix gehört, AMD unterstützt Bullet und das wars.
Mit Havok scheints noch ne gewisse Zusammenarbeit zu geben, aber das bezieht sich anscheinend nur auf CPUs.
PhysX dagegen ist imo tote Hose - deswegen quillt der Thread hier auch so über :freak:

Gast
2010-09-20, 11:35:46
Dann sollte man GPU-PhysX als "gescheitert" ansehen. Die handvoll Titel die bis jetzt erschienen sind, kann man getrost vergessen.
#

GPU-PhysX ist tot.

deekey777
2010-09-20, 12:21:10
Davon hab ich nix gehört, AMD unterstützt Bullet und das wars.
Um genauer zu sein: AMD unterstützt Bullet nicht, sondern nutzt Bulletphysics als Teil der Open-Physics-Initiative, zu der auch DMM/2 gehört. Der geleakten Präsentation nach soll das Ganze im nächsten Quartal veröffentlicht. http://oscarbg.blogspot.com/2010/07/ati-stream-sdk-roadmap.html
Mit Havok scheints noch ne gewisse Zusammenarbeit zu geben, aber das bezieht sich anscheinend nur auf CPUs.

Ich tippe mal, dass Intel hier das Sagen hat. Und ohne Intels OpenCL-Implementation wird da nicht viel passieren, das SDK kommt ja im nächsten Quartal (letzte Seite (http://www.khronos.org/developers/library/2010_siggraph_bof_opencl/OpenCL-BOF-Intel-SIGGRAPH-Jul10.pdf)).

Sagt mal leute...

Kommt da auch mal was? Gibt es irgendwann echtes PhysX für Radeon Karten?

Hab gelesen das AMD/ATI Lizenzen für PhysX irgendwann mal erworben hat!
Überleg mal: Was soll diese Lizenz bringen, wenn in den Lizenzbedingungen steht, dass GPU-PhysX nur über CUDA auf Geforce-Grafikarten laufen darf?

john carmack
2010-09-20, 12:46:27
Gibts von AMD/ATI nicht auch so eine art CUDA?

S940
2010-09-20, 13:23:09
Um genauer zu sein: AMD unterstützt Bullet nicht, sondern nutzt Bulletphysics als Teil der Open-Physics-Initiative, zu der auch DMM/2 gehört. Der geleakten Präsentation nach soll das Ganze im nächsten Quartal veröffentlicht. http://oscarbg.blogspot.com/2010/07/ati-stream-sdk-roadmap.html
Hmm .. wo ist der Unterschied zw. unterstützen und nutzen ? Ist doch nur ne unterschiedliche Sicht aus Bullets bzw. AMDs Blickwinkel. Für die Diskussion total egal - auf alle Fälle arbeiten sie zusammen ;-)

@john carmack:
Die Frage sollte in dem Thread doch schon mal beantwortet sein, dass sind die Basics. Wenn Du dir nicht kennst, hat ne weitere Diskussion leider keinen Sinn :(
(Les mal als Einstieg die OpenCL Seite auf Wikipedia)

OgrEGT
2010-09-20, 21:31:28
GPU-Physik auf Radeon ist sicherlich interessant.
Ein anderer Weg wäre, wenn NV dezidierte PhysX Karten (ca. GTS450) produzieren würde. Ich würde bei akzeptablem Preis/Leisungsverhältnis fast sofort zuschlagen...

DrFreaK666
2010-09-20, 22:05:25
GPU-Physik auf Radeon ist sicherlich interessant.
Ein anderer Weg wäre, wenn NV dezidierte PhysX Karten (ca. GTS450) produzieren würde. Ich würde bei akzeptablem Preis/Leisungsverhältnis fast sofort zuschlagen...

Hole dir halt gleich eine GTS450

Gast
2010-09-20, 22:05:31
#

GPU-PhysX ist tot.

Ganz sicher nicht. Batman 2 kommt schon in wenigen Monaten um nur 1 Beispiel zu nennen. :-)

DrFreaK666
2010-09-20, 22:10:37
Ganz sicher nicht. Batman 2 kommt schon in wenigen Monaten um nur 1 Beispiel zu nennen. :-)

Du machst es dir aber einfach
Nenne mal mehr Beispiele. z.B. 5!!

Gast
2010-09-20, 22:18:02
Du machst es dir aber einfach
Nenne mal mehr Beispiele. z.B. 5!!

Ich kenne nicht die Games von übermorgen. ;) Trotzdem ist es hirnrissig zu
glauben GPU-PhysX wäre tot.

Aber hier haste ein paar:
Jianxia 3 (CBT/OBT state, should have some clothing/particles effects)
MKZ (in beta now, PhysX effects are present, but they are nothing special)
Shadow Harvest (still alive, but no new info on GPU PhysX support)
Deep Black (U-Wars previously - they have found a publisher, so this one seems ok too)
Spearfishing (from Deep Black developer, will have GPU PhysX support, as I was told by Biart, but dunno how they are planning to apply it to diving simulator)
Shattered Horizon (has APEX integration and PhysX content patch was planned like half-year ago, but probably abandoned now)

Gast
2010-09-20, 22:23:27
http://www.pcgameshardware.de/aid,750133/Shadow-Harvest-angespielt-plus-brandneue-Screenshots-des-GPU-Physx-Spiels/Action-Spiel/Test/

AwesomeSauce
2010-09-20, 23:43:59
Du machst es dir aber einfach
Nenne mal mehr Beispiele. z.B. 5!!

Immer die gleiche Leier. Fällt der AMD-Defence-Force nichts besseres mehr ein?

Wieviele Spiele basieren bis heute eigentlich auf Bullet und bieten GPU-Unterstützung? Oh wait...

DrFreaK666
2010-09-21, 00:09:41
Immer die gleiche Leier. Fällt der AMD-Defence-Force nichts besseres mehr ein?

Wieviele Spiele basieren bis heute eigentlich auf Bullet und bieten GPU-Unterstützung? Oh wait...

Ich habe hier eine Ageia-PPU eingebaut, zwar nicht wirklich schnell, aber bei Batman läufts z.B.
Komm mir also nicht damit!!!
Auch mir wären mehrere GPU-PhysX-Games wichtig und recht..

Ich kenne nicht die Games von übermorgen. ;) Trotzdem ist es hirnrissig zu
glauben GPU-PhysX wäre tot.

Aber hier haste ein paar:
Jianxia 3 (CBT/OBT state, should have some clothing/particles effects)
MKZ (in beta now, PhysX effects are present, but they are nothing special)
Shadow Harvest (still alive, but no new info on GPU PhysX support)
Deep Black (U-Wars previously - they have found a publisher, so this one seems ok too)
Spearfishing (from Deep Black developer, will have GPU PhysX support, as I was told by Biart, but dunno how they are planning to apply it to diving simulator)
Shattered Horizon (has APEX integration and PhysX content patch was planned like half-year ago, but probably abandoned now)

Und welche der oberen games benötigen es??
Ich will es in Blockbustern sehen und nicht in einer Tauchsimulation...

Gast
2010-09-21, 00:23:33
Nvidia kann nichts dafür wenn am PC immer weniger Blockbuster erscheinen.
Außerdem Shadow Harvest ist ein Actiongame, Batman2 ebenso. Teil 1 war auch Klasse also beschwere dich nicht.

Im Gegensatz zu ATi pushen sie ihr PhysX, also hat man als Käufer auch einen gewissen Mehrwert, auch wenn die Anzahl der Games recht niedrig ist, aber dafür kann Nvidia ja nichts. Was wurde nicht alles geschrieben, mit DX11 gäbe es Alternative und PhysX wäre tot, von wegen...

DrFreaK666
2010-09-21, 00:31:28
Nvidia kann nichts dafür wenn am PC immer weniger Blockbuster erscheinen.
Außerdem Shadow Harvest ist ein Actiongame, Batman2 ebenso. Teil 1 war auch Klasse also beschwere dich nicht.
...

Ich wills in RPGs. Two Worlds II mit GPU-Physx wäre was Feines...
nvidia könnte die Entwickler ja "ermutigen" GPU-Physx-Patches zu entwickeln.
Für Sacred 2 erschien ja auch ein Patch.
Ich denke mal, dass sich CPU-PhysX-games relativ leicht patchen ließen

deekey777
2010-09-22, 11:10:11
Hmm .. wo ist der Unterschied zw. unterstützen und nutzen ? Ist doch nur ne unterschiedliche Sicht aus Bullets bzw. AMDs Blickwinkel. Für die Diskussion total egal - auf alle Fälle arbeiten sie zusammen ;-)

Hat Rockstar Bullet unterstützt oder benutzt, als sie Bullet für GTA4 eingesetzt haben?

Gast
2010-09-22, 11:12:10
Ein nun möglicher Weg wäre vielleicht ein CUDA-x86 zu OpenCL-Wrapper für PhysX?

john carmack
2010-09-22, 11:36:18
Nun... Wenn die Radeons auch in Zukunft kein PhysX unterstützen werden, kann man das Thema ja eigentlich schließen!

Gast
2010-09-22, 11:45:13
Seit wann sollen diese das können?

Mit CUDA-x86 kann man CUDA-Applikationen nun auf den entsprechenden CPUs ausführen. Ob Nvidia PhysX entsprechend portiert ist wieder eine andere Frage.
Und ein x86-Code ist noch lange kein Code, den man auf einer Radeon ausführen kann.

S940
2010-09-22, 12:49:13
Hat Rockstar Bullet unterstützt oder benutzt, als sie Bullet für GTA4 eingesetzt haben?
Ist mir doch vollkommen egal, was Rockstar macht :tongue:

AMD und Bullet arbeiten zusammen, und das ist das einzig Wichtige hier im Thread. Nenns von mir aus "nutzen", ich nenns "untersützen" so hat halt jeder seine Blickwinkel und entsprechende Wortwahl.

Davon abgesehen sollte aber doch wohl der Konsens bestehen, dass sie zusammenarbeiten, oder?. Alles andere ist unnütze Wortklauberei.

Dural
2010-09-22, 12:53:55
auch NV unterstützt Bullet und so was man gehört hat sogar mehr als AMD...

AMD verwendet die "unterstütztung" so wie so nur als Marketing wie sie es schon mit Havok gmeacht haben, kommen wird wohl mal wieder nichts... aber was anderes ist man von AMD ja auch nicht gewohnt :wink:

deekey777
2010-09-22, 13:27:35
auch NV unterstützt Bullet und so was man gehört hat sogar mehr als AMD...

AMD verwendet die "unterstütztung" so wie so nur als Marketing wie sie es schon mit Havok gmeacht haben, kommen wird wohl mal wieder nichts... aber was anderes ist man von AMD ja auch nicht gewohnt :wink:
Wo unterstützt Nvidia Bullet?
Die Bullet-Leute haben CUDA lediglich für Broadphase, alles andere lief und läuft über die CPU. Dass Nvidia das aber gern in den Präsentationen angibt, stört keinen.

deekey777
2010-09-23, 13:46:01
Ich muss alles zurcknehmen:
You can download the Bullet 2.77 from the usual place at http://code.google.com/p/bullet/downloads/list (based on svn revision 2218)

The main new feature is the OpenCL and DirectCompute hardware accelerated cloth simulation.
Thanks to Lee Howes from AMD for this contribution and thanks to NVIDIA for a Fermi GTX 470 GPU for compatibility testing!

http://bulletphysics.org/Bullet/phpBB3/viewtopic.php?t=5681

Gast
2010-09-23, 14:04:20
Eine GTX470 schafft also 675FPS.

Eine 5870 über 1800FPS, sehr nice. :ugly:

http://www.abload.de/img/2010-09-23_140258oqyx.jpg (http://www.abload.de/image.php?img=2010-09-23_140258oqyx.jpg)

deekey777
2010-09-23, 14:30:55
Eine GTX470 schafft also 675FPS.

Eine 5870 über 1800FPS, sehr nice. :ugly:

http://www.abload.de/img/2010-09-23_140258oqyx.jpg (http://www.abload.de/image.php?img=2010-09-23_140258oqyx.jpg)
Fühlst du dich jetzt besser? Wollen wir darüber reden?