PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ageia-PhysX-Karten ausgestorben?


Gast
2009-02-02, 22:18:35
Sind die PhysX-Karten ausgestorben?
Irgendwie finde ich keine mehr, womit kann man denn jetzt PhysX Spiele zocken?

Philipus II
2009-02-02, 22:19:32
Mit nVidia GeForce Karten.

lumines
2009-02-02, 22:19:54
mit einer einzelnen nvidia karte ab der 8xxx serie.

Gast
2009-02-02, 22:26:02
Ich habe die 8800 kann man damit cell factor zocken?
Wie geht das?
Wozu dann diese extra Karten, ich verstehe nur Bahnhof mit Stühlen.

Gast
2009-02-02, 22:26:12
Sind die PhysX-Karten ausgestorben?
was nie gelebt hat kann auch nicht sterben.

Mr.Magic
2009-02-02, 22:28:12
Ich habe die 8800 kann man damit cell factor zocken?
Wie geht das?
Wozu dann diese extra Karten, ich verstehe nur Bahnhof mit Stühlen.

Runterladen, installieren, glücklich sein... oder auch nicht. Whatever!

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=445761

ps: Der Grafiktreiber muss auch einigermaßen aktuell sein. In aktuellen Versionen ist nVidia PhysX gleich enthalten.

sei laut
2009-02-02, 22:34:33
Die PhysX PCI Karten waren zuerst da.
Dann hat nVidia Ageia aufgekauft und in ihre Grafikkarten eingebunden.

Deswegen geht nun PhysX mit nVidia Grafikkarten ab Geforce 8xxx und die anderen Karten von Ageia werden nicht mehr produziert. Waren eh so teuer, dass die sich die wenigsten kauften.

Gast
2009-02-02, 22:41:25
Das finde ich jetzt genial, aber ich verstehe nicht, wieso diese Physx Karten.
A) so groß und fast so teuer wie normale Karten waren
B) einen extra lüfer hatten
C) teilweise extra strom brauchten
Wie schaft es nvidia, das physX jetzt auf einer einzigen Grafikkarte unterzubringen, das ist es was mich stutzig macht.

lumines
2009-02-02, 22:43:24
die haben die treiber einfach so hingebogen, dass man mit den nvidia treibern physx benutzen kann. das wars auch schon.
die performance hängt natürlich von deiner karte ab :wink:

Crazy_Chris
2009-02-02, 22:48:44
Wie schaft es nvidia, das physX jetzt auf einer einzigen Grafikkarte unterzubringen, das ist es was mich stutzig macht.

Der Grafikprozessor rechnet neben der Grafik die Physik quasi nebenbei mit. Es reicht wenn du eine einzige Geforce Karte im Rechner hast. :cool:

ansonsten: nvidia.de ;)

TheDUDE
2009-02-02, 23:15:20
Du mußt es mal so sehen. Die Ageia PPU hatte ca. 130Mio Transistoren bei ca. 260 Mhz. Schon der G80 hatte ca. 681 Mio. Der aktuelle G200 hat ca. 1,4 Mrd. Nvidia-GPUs ab der DX10-Generation können alle möglichen Aufgaben sehr schnell und flexibel berechnen.U.a. auch die Physikberechnungen. Außerdem arbeiten die Recheneinheiten der NV-Karten bei weit über 1000Mhz.(Bsp.9800 GTX+ ca. 1800Mhz)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/ -Die Leistungen, die NV-Hardware in diesen Tests bringen sind echt beeindruckend.

Gruß

Gast
2009-02-03, 08:37:47
Man bin ich froh, das sich nur wenige dieses überteurten lauten ageia karten gekauft haben.
Schade nur das sie diese umsonst gekauft haben ;)

sei laut
2009-02-03, 08:50:15
Schade nur das sie diese umsonst gekauft haben ;)
Umsonst nicht, funktionieren soweit ich weiß, immer noch.
Am blödsten habens im Moment die Ati Grafikkartennutzer, solange CUDA nicht integriert wird. Und das kann noch etwas dauern.

Doch da es kaum Spiele gibt, die PhysX sinnvoll nutzen..

Crazy_Chris
2009-02-03, 08:52:01
Cuda wird da auch nie integriert werden. Vor DirectX 11 wird das wohl nichts mit hardwarebeschleunigter Physik auf ATI Karten.

Spasstiger
2009-02-03, 10:38:14
Umsonst nicht, funktionieren soweit ich weiß, immer noch.
Allerdings nur mit mittelmäßigen Frameraten. Bei den PhysX-Spielen mit der UE3-Engine liegt die Karte von Ageia in der Regel im Bereich zwischen 20 und 30 fps, während z.B. eine GeForce GTX 260 schon 40-50 fps schafft und nebenbei noch das Rendering übernimmt.

bjoern
2009-02-03, 10:40:33
Habe ich das jetzt richtig verstanden das es überhaupt keinen Sinn mehr macht sich eine Physikkarte einzubauen? Ein Bekannter von mir will sich einen neuen Rechner bauen, er hat so was in der Art vor, Core i7-920 + Aktuelles Mobo mit X58 Chipsatz DDR-3 Speicher usw. auf das System will er entweder eine ATI 4870X2 oder eine Nvidea GTX295 bauen, zusätzlich will er noch eine Physikbeschleuniger einbauen. Er hat mir einen link den ich nicht mehr finde geschickt wo stand das mit Physikkarte X mal mehr FPS erreicht werden. Ist das jetzt so oder absoluter Blödsinn?

Spasstiger
2009-02-03, 11:20:55
Er hat mir einen link den ich nicht mehr finde geschickt wo stand das mit Physikkarte X mal mehr FPS erreicht werden. Ist das jetzt so oder absoluter Blödsinn?
Eine GTX 295 berechnet PhysX locker nebenbei, eine Physikkarte von Ageia dazu wäre wirklich Blödsinn. Eine GTX 295 hat theoretisch bis zu 1800 Gigaflops an Rechenleistung, die Ageia PhysX nur rund 100 Gigaflops.
Die Frameraten dürften mit der Physikkarte niedriger ausfallen.

Hier mal ein paar Vergleiche:
- http://www.pcgameshardware.de/aid,674016/Test/Benchmark/Alternative_zu_Nvidia_Physx_Ageia-Karte_plus_Radeon_HD_4870_im_Test_mit_Mirrors_Edge/
- http://www.pcgameshardware.de/aid,654732/Test/Benchmark/Nvidia_Physx_Grafikprozessoren_uebernehmen_Physikberechnungen_in_Spielen/?page=3
- http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/8/#abschnitt_physxbenchmarks

bjoern
2009-02-03, 11:36:57
Ok, aber wie sieht das mit der Ati aus die haben meines Wissens nach keine PhysX Beschleuniger.

Crazy_Chris
2009-02-03, 12:17:48
Ok, aber wie sieht das mit der Ati aus die haben meines Wissens nach keine PhysX Beschleuniger.

PhysX = Nvidia,

Das ist kein offener Standard. (was auch dessen Ende sein wird)

TheDUDE
2009-02-03, 13:13:34
Die Ageia-Karten können immer noch eingesetzt werden und funktionieren natl. auch mit NV-Karten.-Man kann im Treiber wählen, welche Hardware die Physikberechnungen übernehmen soll.Bei einer aktuellen Mittelklasse NV-Karte ist es aber wenig sinnvoll, da die PPU teilweise langsamer sein soll.(V.a. bei Karten der G200-Generation) Bei einer ATI Karte wäre eine Ageia-Karte natl. die Lösung um PhysX in Hardware zu nutzen. Würde mich mal nach ner gebrauchten umschauen, wenn Du wirklich daran interessiert bist.Immer mehr Games bieten PhysX und es sollen noch einige dazukommen. Bin mal gespannt, ob und wie lange sich PhysX hält. Viell. "öffnet" NV es ja irgendwann für andere GPUs?! Who knows ;o)

Crazy_Chris
2009-02-03, 13:21:23
Immer mehr Games bieten PhysX und es sollen noch einige dazukommen. Bin mal gespannt, ob und wie lange sich PhysX hält. Viell. "öffnet" NV es ja irgendwann für andere GPUs?! Who knows ;o)

Immer mehr? ;D Der war gut. Bis jetzt sind es UT 3 und Mirror´s Edge bei den es halbwegs sinnvoll verwendet wird.

Mark
2009-02-03, 13:25:46
Unter Windows7 und XP kann man auch eine Ati als Renderkarte und dazu noch eine Nvidia allein für PhysX einsetzen.

Gast
2009-02-03, 17:41:38
Unter Windows7 und XP kann man auch eine Ati als Renderkarte und dazu noch eine Nvidia allein für PhysX einsetzen.

ist das schon bestätigt, dass es ordentlich läuft?

unter XP kann man ja auch verschiedene karten verwenden, trotzdem ist ATI-grafik+NV-physX nicht wirklich brauchbar.

HisN
2009-02-03, 17:44:20
http://physx.cwx.ru/

Nur um mal zu zeigen was auf den Ageia-Karten, was auf den Nvidia-Karten und was auf beiden läuft.
Wir reden hier immer noch von VIER(!) Vollpreisgames für die Shader-Hardware.

Coda
2009-02-03, 18:08:43
PhysX = Nvidia,

Das ist kein offener Standard. (was auch dessen Ende sein wird)
Kompletter Unsinn.

Eine der größten im Markt bewährte und erprobte Physikengine, die auf der PS, Xbox 360, und auf dem PC schon jahrelang verwendet wird man sicher nicht sterben lassen. Manche glauben scheinbar wirklich, dass PhysX ein kleiner Layer über CUDA ist. Dem ist NICHT so. Da steckt noch ein riesen Brocken Know-How dahinter.

Da wird das Backend auf OpenCL oder D3D11 CS umgebaut und gut is. Wahrscheinlich ist das intern eh schon in Entwicklung.

Crazy_Chris
2009-02-03, 19:10:57
Kompletter Unsinn.

Eine der größten im Markt bewährte und erprobte Physikengine, die auf der PS, Xbox 360, und auf dem PC schon jahrelang verwendet wird man sicher nicht sterben lassen. Manche glauben scheinbar wirklich, dass PhysX ein kleiner Layer über CUDA ist. Dem ist NICHT so. Da steckt noch ein riesen Brocken Know-How dahinter.

Da wird das Backend auf OpenCL oder D3D11 CS umgebaut und gut is. Wahrscheinlich ist das intern eh schon in Entwicklung.

Wir haben dann Insgesamt PhysX, OpenCL, DirectX 11 und Havoc auf dem Markt und es ist nur eine Frage der Zeit bis es nicht mehr verwendet wird wenn weiterhin ATI und Intel ausgegrenzt werden. Nachdem wie es in der Vergangenheit meistens lief bin ich fest der Überzeugung das DirectX 11 das Rennen macht.

Ich betrachte es jedenfalls als Übergangslösung. Mehr nicht.

reunion
2009-02-03, 19:44:05
Da wird das Backend auf OpenCL oder D3D11 CS umgebaut und gut is. Wahrscheinlich ist das intern eh schon in Entwicklung.

Genau das glaube ich nicht, denn dann ist es nicht mehr nV-exklusiv und nV hätte es sich sparen können den Laden zu kaufen.

Spasstiger
2009-02-03, 20:14:08
Genau das glaube ich nicht, denn dann ist es nicht mehr nV-exklusiv und nV hätte es sich sparen können den Laden zu kaufen.
Ein Backend für DX 11 oder OpenCL ist sowohl im Interesse der Entwickler und des Marktes als auch im Interesse von NV, da NV weiterhin PhysX-Lizenzen verkaufen möchte.
Zudem hat NV den Vorteil der hardwarenäheren Unterstützung, so dass NV-GPUs weiterhin für PhysX attraktiv bleiben.

BlackBirdSR
2009-02-03, 20:14:54
Genau das glaube ich nicht, denn dann ist es nicht mehr nV-exklusiv und nV hätte es sich sparen können den Laden zu kaufen.

Findest du?
Als Grafikkarten Hersteller zusätzlich die Physik.Engine und den Support dazu zu stellen, halte ich für eine sehr lohnende Investition. Letztendlich kommt es doch nur darauf an, so viel Einfluss wie möglich auf die Entwickler ausüben zu können. Sollen die Anderen doch Zugriff auf die Routinen haben, was Entwickelt wird und wie es eingesetzt wird, entscheiden wir!....

Coda
2009-02-03, 20:20:12
Wir haben dann Insgesamt PhysX, OpenCL, DirectX 11 und Havoc auf dem Markt und es ist nur eine Frage der Zeit bis es nicht mehr verwendet wird wenn weiterhin ATI und Intel ausgegrenzt werden.
Du bist ein Spaßvogel. Genau deshalb wird man das Konzept auch ändern.

Und hört endlich auf Streamprocessing-APIs mit Physik-Engines zu vermischen. Das hat direkt nichts miteinander zu tun.

Ich betrachte es jedenfalls als Übergangslösung. Mehr nicht.
Die weitverbreitetste Physik-Engine überhaupt ist ganz sicher keine "Übergangslösung" - da ist Hardware-PhysX nur ein kleiner Teil davon. Was für komische Vorstellungen habt ihr denn bitte? :|

BlackBirdSR
2009-02-03, 20:24:43
Was für komische Vorstellungen habt ihr denn bitte? :|

Dabei reicht eigentlich EIN Blick in die bekannten Listen, in denen PhysX-Support aufgeführt wird. Natürlich beläuft sich der aktuelle Bestand an HW-Unterstützung auf ein Minumum, aber alleine die Anzahl an Spielen, die auf PC XBox360 und PS3 tilweise seit Jahren schon auf PhysX setzen, ist alles andere als unverständlich....eigentlich.

RLZ
2009-02-03, 20:52:15
Wir haben dann Insgesamt PhysX, OpenCL, DirectX 11 und Havoc auf dem Markt
Und Windows, C++, ,Linux, Java, Office,...

Was willst du damit sagen?


PhysX steht in Konkurrenz zu Havok.
OpenCL in Konkurrenz zu DirectX11 CS (und teilweise zu CUDA).
Sonstige Konkurrenz besteht da nicht...


CUDA wird eine Randerscheinung bleiben, weil es nur von einer halben (eigentlich noch weniger...) Plattform unterstützt wird. Welcher Entwickler lässt sich auf sowas ohne Sponsoring ein?

Genau das glaube ich nicht, denn dann ist es nicht mehr nV-exklusiv und nV hätte es sich sparen können den Laden zu kaufen.
Es ist ein Showcase für GPGPU. Man wollte zeigen, was man alles mit GPUs machen kann. Nur hab ich den Eindruck, dass trotzdem kaum ein Entwickler darauf angesprungen ist. Imo stark selbstverschuldet...

Ohne mehr Zielplattformen wird auf jeden Fall der notwendige Content und damit Erfolg ausbleiben. Für NV heißt es also entweder OpenCL/CS unterstützen oder bei CPU Physik bleiben. Bei letzterem können sie den Laden aber genausogut wieder verkaufen. Content der für CPU PhysX ausgelegt ist zieht einfach kaum Nutzen aus der enormen zusätzlichen Rechenleistung und wird als Verkaufsargument nicht ausreichen.

TheDUDE
2009-02-04, 00:07:41
Immer mehr? ;D Der war gut. Bis jetzt sind es UT 3 und Mirror´s Edge bei den es halbwegs sinnvoll verwendet wird.

Stimmt. Bis jetzt sieht es nicht so toll aus.
Ich selber nutze z.Zt. ATI und bin zufrieden. Außerdem läuft PhysX ja auch auf der CPU. Da "bald" jeder min. 4 Kerne im Rechner hat, sehe ich da kein Problem.-Nur wird eine CPU in absehbarer Zeit nie die Leistung bringen, die ein speziall dafür entwickelter Chip oder die GPUs bringen.
Die Technik ist sehr interessant. Ob sie sich "in Hardware" durchsetzt wird sich zeigen. Es sind aber auf jeden Fall mehr Spiele als die 2, die Du angibst. Allein die aktuellen Games, die auf der UE basieren. Solange man es kostenlos zu den NV-Karten dazubek.. ist doch ein netter Mehrwert.

http://de.nzone.com/object/nzone_physxgames_home_de.html

http://www.tweakpc.de/news/14527/drei-weitere-spiele-werden-nvidias-physx-untersuetzen/

Es gibt noch ettliche Seiten und Threads.

BlackBirdSR
2009-02-04, 00:11:10
http://de.nzone.com/object/nzone_physxgames_home_de.html




Um Unklarheiten zu vermeiden, werden PC-Spiele, die die AGEIA PhysX Hardware nicht nutzen, hier nicht aufgeführt.


Die Liste ist BS!
90% der Aufgeführten Titel nutzen PhysX nur über die CPU ;)

deekey777
2009-02-04, 00:50:23
Und wem gehört PhysX bzw. Ageia*? Die Liste ist schon richtig, nur täuscht sie den leichtgläubigen Betrachter leicht.

*Es ist eine Liste von Spielen, die Nvidias PhysX nutzt, was sie durch die Übernahme von Ageia erworben haben.

Eine allgemeine Frage: Wie funktioniert das eigentlich mit PhysX? Die Spiel.exe will Physik berechnen, der PhysX-Treiber "übersetzt" die Aufrufe dann in den "PPU-Code" bzw. PTX für die grünen GPUs? An sich müsste der Treiber "nur" die Aufrufe ins allgemeine IL (ATis Pseudo-Assemblersprache, um über CAL mit der GPU zu arbeiten) übersetzt werden, den der Catalyst-Treiber (die nötigen DLLs bringt der Treiber seit 8.12 eh mit) dann für die GPUs verständlichen Code übersetzt.

Ich habe nur so eine Idee: Es gibt kein PhysX auf Radeons, weil es die adäquate Hardware erst seit Sommer 2008 (RV770) gibt, dafür aber die Software erst seit Herbst, die diese Hardware halbwegs ansprechen kann. Selbst wenn Nvidia und DAAMIT wollten, dass PhysX auf Radeons läuft, ist die Stream-Software ein Hindernis.

Coda
2009-02-04, 00:59:53
Es gibt keinen PhysX-Treiber. Es gibt eine PhysX-Runtime. Diese hat als Backends entweder den CPU-Solver, oder eben jeweils einen für die alten PhysX-Hardware-Karten bzw. für CUDA/GPU.

Wenn ATI unterstützt werden sollte muss man über irgend eine Schnittstelle GPGPU mit den nötigen Features verwenden können. Ob es Unwillen ist ATI-HW zu unterstützen, sich da jetzt erst RV770 durch das bessere memory sharing eignet oder es am Treiber liegt weiß ich auch nicht.

Ich tippe aber derzeit aber ganz klar auf ersteres.

BlackBirdSR
2009-02-04, 01:16:58
Die Liste ist schon richtig, nur täuscht sie den leichtgläubigen Betrachter leicht.



Wenn die Liste angibt, Spiele ohne HW-Support gar nicht erst anzugeben, dann ist sie einfach falsch. Denn auf der ganzen Liste gibt es nur ca. 8 Titel, die PPU oder GPU für PhysX nutzen können. Der Rest ist einfach Software, welche die PhysX-Engine nutzt, aber dafür auf die CPU zurückgreift (muss)

deekey777
2009-02-04, 01:33:21
Wenn die Liste angibt, Spiele ohne HW-Support gar nicht erst anzugeben, dann ist sie einfach falsch. Denn auf der ganzen Liste gibt es nur ca. 8 Titel, die PPU oder GPU für PhysX nutzen können. Der Rest ist einfach Software, welche die PhysX-Engine nutzt, aber dafür auf die CPU zurückgreift (muss)
Stimmt.
;(

reunion
2009-02-04, 07:44:01
Es ist ein Showcase für GPGPU. Man wollte zeigen, was man alles mit GPUs machen kann. Nur hab ich den Eindruck, dass trotzdem kaum ein Entwickler darauf angesprungen ist. Imo stark selbstverschuldet...

Ohne mehr Zielplattformen wird auf jeden Fall der notwendige Content und damit Erfolg ausbleiben. Für NV heißt es also entweder OpenCL/CS unterstützen oder bei CPU Physik bleiben. Bei letzterem können sie den Laden aber genausogut wieder verkaufen. Content der für CPU PhysX ausgelegt ist zieht einfach kaum Nutzen aus der enormen zusätzlichen Rechenleistung und wird als Verkaufsargument nicht ausreichen.

AMD/ATi hat sich eh schon längst auf die Seite von Havok geschlagen, Intel sowieso. Leicht wird es für nV also sicherlich nicht. Wenn die wollen das sich GPU-Physik durchsetzt ist es IMHO höchste Eisenbahn das man damit alle GPUs unterstützt, falls ATi das überhaupt will. Sonst wird sich kaum ein Entwickler darauf einlassen.

bjoern
2009-02-04, 10:37:46
Also um noch mal auf meine Frage(Beitrag #16) zurückzukommen, macht es also keinen Sinn und bringt auch nicht mehr Leistung sich zum jetzigen Zeitpunkt eine PhysX Karte einzubauen, egal ob Ati oder Nvidea. Wenn ich euch richtig verstanden habe, haben Aktuelle Grakas wie 4870X2 oder GTX295 auch so mehr als genug Leistung um mit allen Anforderungen fertig zu werden?

TheDUDE
2009-02-04, 11:35:52
Die Liste ist BS!
90% der Aufgeführten Titel nutzen PhysX nur über die CPU ;)

Sorry, hab ich nicht daran gedacht.

Iceman346
2009-02-04, 11:38:30
Eine PhysX Karte bringt nur etwas, wenn das Spiel auch PhysX verwendet. Und das tun momentan nur ganz wenige Vertreter.

Wenn solche Effekte genutzt werden ist Grafikkarte + PhysX Karte aber auf jeden Fall schneller als Grafikkarte allein. Ausnahme ist halt, wenn man eine sehr schnelle Nvidia Karte als PhysX Karte "missbraucht".

Für ATi Nutzer gibts aber momentan nur die Möglichkeit auf die PhysX Effekte zu verzichten, oder sich eine Addonkarte zu kaufen, da die Performance sonst extrem einbricht oder man die Effekte nicht sieht.

Da die ganze Diskussion aber fast nur Mirror's Edge betrifft ists halt relativ sinnlos momentan. Das Spiel rennt selbst auf meiner GTX260 ohne Zusatzkarte mit aktiviertem PhysiX durchweg flüssig. Sollte die Unterstützung deutlich zunehmen in den nächsten Jahren könnte das mal anders aussehen, aber das erwarte ich eigentlich nicht wirklich.

Gast
2009-02-04, 12:15:54
Wenn solche Effekte genutzt werden ist Grafikkarte + PhysX Karte aber auf jeden Fall schneller als Grafikkarte allein. Ausnahme ist halt, wenn man eine sehr schnelle Nvidia Karte als PhysX Karte "missbraucht".


nicht auf jeden fall, es gibt genug fälle, wo eine einzelne grafikkarte deutlich schneller als mit ageia-unterstützung ist.

Iceman346
2009-02-04, 12:30:11
Das sollte aber eigentlich nur in Fällen vorkommen, wenn keine oder kaum Rechenleistung für die Grafikdarstellung gebraucht wird.

Ansonsten müssen ja immer Recheneinheiten die für die Grafikberechnung genutzt werden können für die Physikberechnung abgestellt werden, was die Grafikleistung im Endeffekt verringern würde.

Sefegiru
2009-02-04, 13:10:01
Gab es nicht, zumindest in den USA, auch PCIe Versionen der PPU-Karten?

Gast
2009-02-04, 13:21:21
Das sollte aber eigentlich nur in Fällen vorkommen, wenn keine oder kaum Rechenleistung für die Grafikdarstellung gebraucht wird.

bei starkem physikeinsatz ist man fast immer cpu-limitiert. anscheindend hängt es auch stark davon ab, was das spiel verwendet, mirrors edge scheint ja beispielsweise der physx-karte sehr gut zu liegen, in anderen physx-spielen liegt sie ja teilweise weit hinter den GPUs.

BlackBirdSR
2009-02-04, 13:31:20
Wenn ich euch richtig verstanden habe, haben Aktuelle Grakas wie 4870X2 oder GTX295 auch so mehr als genug Leistung um mit allen Anforderungen fertig zu werden?

Welche Anforderungen? Von Ausnahmen wie Mirrors Edge abgesehen, gibt es keine Anforderungen an die Grafikkarte.

Reunion: Vielleicht mag Nvidia den HW-Support für PhysX nicht in der jetzigen Form durchsetzen können. Die PhysikEngine selbst wird aber bleiben. Kein Entwickler will freiwillig ein gutes und funktionierendes Produkt gegen etwas neues eintauschen.

Tigerchen
2009-02-04, 18:11:15
Wir haben dann Insgesamt PhysX, OpenCL, DirectX 11 und Havoc auf dem Markt und es ist nur eine Frage der Zeit bis es nicht mehr verwendet wird wenn weiterhin ATI und Intel ausgegrenzt werden. Nachdem wie es in der Vergangenheit meistens lief bin ich fest der Überzeugung das DirectX 11 das Rennen macht.

Ich betrachte es jedenfalls als Übergangslösung. Mehr nicht.
Microsoft wird seinen Standard durchdrücken wie auch beim Sound. Da hat man EAX auch sterben lassen. Entscheidend ist dann die Treiberunterstützung von ATI, nVidia oder INTEL. Auch die breite Spieleunterstützung wird bei entsprechender DX11 Basis kommen.

Immer diese propietären Standards wie EAX, Glide oder PhysiX..........letztlich hat das den Firmen die so eifersüchtig ihre Standards hüteten nicht geholfen.

Gast
2009-02-04, 18:26:12
Immer diese propietären Standards wie EAX, Glide oder PhysiX..........letztlich hat das den Firmen die so eifersüchtig ihre Standards hüteten nicht geholfen.

wieso werden eigentlich schon wieder programmierschnittstellen mit physikengines durcheinandergeworfen?

deekey777
2009-02-04, 18:34:29
Microsoft wird seinen Standard durchdrücken wie auch beim Sound. Da hat man EAX auch sterben lassen. Entscheidend ist dann die Treiberunterstützung von ATI, nVidia oder INTEL. Auch die breite Spieleunterstützung wird bei entsprechender DX11 Basis kommen.

Immer diese propietären Standards wie EAX, Glide oder PhysiX..........letztlich hat das den Firmen die so eifersüchtig ihre Standards hüteten nicht geholfen.
Immer diese Diskussionsteilnehmer, die niemals Postings anderer lesen, sondern irgendwas dahin fantasieren.

Nochmals: PhysX ist weitverbreitet (aktuell wohl weitverbreiteter als Havok), es wird nicht "gehütet"oder jemandem vorenthalten.
Welchen Standard soll MS durchsetzen?

Tigerchen
2009-02-05, 15:06:59
Immer diese Diskussionsteilnehmer, die niemals Postings anderer lesen, sondern irgendwas dahin fantasieren.

Nochmals: PhysX ist weitverbreitet (aktuell wohl weitverbreiteter als Havok), es wird nicht "gehütet"oder jemandem vorenthalten.
Welchen Standard soll MS durchsetzen?
Halt dich mal zurück. Auch wenn du Moderator bist brauchst nicht zu flamen.

nVidia läßt aussschließlich eigene Grafik-Hardware für Physix zu. Das ist der Punkt. Über DirectX 11 wird es wohl möglich sein Hardware über ein DX 11 Backend herstellerunabhängig anzusprechen.

Was da nVidia da mit PhysX abaufen läßt erinnert doch verdammt an Glide. 3dfx User bekamen Hardwarerenderer, andere mußten mit Software vorlieb nehmen. Zwar gab es manchmal noch Unterstützung für andere propietäre Standards. Das macht die Sache aber auch nicht besser. Das nennt man Wildwuchs.

Es ist mir unbegreiflich wie man sich den jetzigen Zustand schön redet.

Gast
2009-02-05, 15:15:27
Du hast offenbar immer nocht nicht begriffen, was der Unterschied zwischen eine API und einer Engine ist. Deshalb ist deekeys Kritik durchaus angebracht.

Gast
2009-02-05, 15:24:32
Direct Physics? gibt's das noch oder schon?
http://www.devsource.com/c/a/Architecture/Microsoft-Planning-To-Add-Physics-Support-To-DirectX/

deekey777
2009-02-05, 16:13:58
Halt dich mal zurück. Auch wenn du Moderator bist brauchst nicht zu flamen.
Hä?
nVidia läßt aussschließlich eigene Grafik-Hardware für Physix zu.
Das ist eine Behauptung. Jede Behauptung ist Fliegenschiss wert, wenn sie nicht begründet wird. Ergo: Begründe jetzt deine Behauptung.

Das ist der Punkt.
Ist es nicht, siehe oben.
Über DirectX 11 wird es wohl möglich sein Hardware über ein DX 11 Backend herstellerunabhängig anzusprechen.
Und weiter? Das wird auch mit OpenCL möglich sein.
Und es stehen zumindest theoretisch Wege zur Verfügung, PhysX auch auch Radeons zu nutzen, aber nur wenn es keine technische Hürde gibt. Es ist genau wie bei Folding@Home: Das Teil läuft auf Geforces sowie auf Radeons (wo die DAAMIT unzweifelhaft die Vorreiterrolle hat).
Dass PhysX auf den Radeons deswegen nicht verfügbar ist, weil es keine gemeinsame Schnittstelle gibt, ist somit Quark.

Was da nVidia da mit PhysX abaufen läßt erinnert doch verdammt an Glide. 3dfx User bekamen Hardwarerenderer, andere mußten mit Software vorlieb nehmen. Zwar gab es manchmal noch Unterstützung für andere propietäre Standards. Das macht die Sache aber auch nicht besser. Das nennt man Wildwuchs.
Wieder so eine Behauptung, wo ich deutlich sehe, dass du den Thread weder gelesen noch das Thema überhaupt verfolgt hast.
Vor der Übernahme von Ageia durch NV lief die PhysX ausschließlich auf der PPU (neben dem normalen Software-Modus natürlich). Hat dich das auch an Glide erinnert?
Mal abgesehen, dass PhysX kein "proprietärer Standard" ist (es ist überhaupt kein Standard): Wer hält AMD/ATi davon ab, PhysX auf eigener Hardware laufen zu lassen?
Diese Frage hast du natürlich damit beantwortet, dass die bösen Kalifornier dies mit allen Mitteln vereiteln wollen. Nur haben diese bösen Buben aus Satan-Clara zumindest öffentlich gesagt, dass sie für alles offen sind. Dagegen sagten die roten Buben, dass sich bei ihnen niemand aus Satan-Clara gemeldet hätte. Und die grünen Buben meinten, dass AMD sich bei ihnen nicht gemeldet hat, obwohl sie das jederzeit tun können. Das ist in etwa so, alsob ein Junge in einer Disco wartet, dass ihn Adriana Lima zum Tanzen einlädt. Dabei ist Adriana Lima nicht AMD.

Natürlich geht man davon aus, dass NV als ein gewinnorientiertes Unternehmen, das in erster Linie Grafikkarten verkauft, ihre Grafikkarten durch PhysX@GPU besser dastellen möchte, wofür sie AMD von PhysX@GPU ausschließen wollen. Nur übersieht diese extrem kurzsichtige Sichtweise, dass Nvidia auch daran interessiert ist, PhysX auf den Markt als Marktführer durchzusetzen und so den Hauptkonkurrenten Havok auszustechen. Dabei ist PhysX@GPU ein wichtiges Merkmal, das Havok nicht hat (Havok FX, das zuerst auf Nvidia-Grafikkarten gezeigt wurde, wurde ja fallengelassen). Darum wäre man seitens NV so ziemlich blöd diese Option nur für eigene Grafikkarten anzubieten (Havok FX lief auf SM3-fähiger Hardware). Aber dafür braucht man auch eine enge Zussammenarbeit mit AMD, denn sonst müsste NV nicht nur Support für eigene Grafikkarten, sondern auch für die von AMD leisten, was sie definitiv nicht wollen.

Die aktuelle Lage zeigt eher, dass AMD hier der Blöde ist, aber nur unter dem Vorbehalt, dass die Nutzung von AMD Stream für PhysX möglich ist.


Es ist mir unbegreiflich wie man sich den jetzigen Zustand schön redet.
Es ist eher unbegreiflich, dass du in die Diskussion reinplatzt, ohne dass du die Postings anderer gelesen bzw. in deinen Aussagen berücksichtigst.

Coda
2009-02-05, 16:16:07
Direct Physics? gibt's das noch oder schon?
http://www.devsource.com/c/a/Architecture/Microsoft-Planning-To-Add-Physics-Support-To-DirectX/
Gibt es nicht und wird es auch nicht geben.

reunion
2009-02-05, 17:09:04
Mal abgesehen, dass PhysX kein "proprietärer Standard" ist (es ist überhaupt kein Standard): Wer hält AMD/ATi davon ab, PhysX auf eigener Hardware laufen zu lassen?
Diese Frage hast du natürlich damit beantwortet, dass die bösen Kalifornier dies mit allen Mitteln vereiteln wollen. Nur haben diese bösen Buben aus Satan-Clara zumindest öffentlich gesagt, dass sie für alles offen sind. Dagegen sagten die roten Buben, dass sich bei ihnen niemand aus Satan-Clara gemeldet hätte. Und die grünen Buben meinten, dass AMD sich bei ihnen nicht gemeldet hat, obwohl sie das jederzeit tun können. Das ist in etwa so, alsob ein Junge in einer Disco wartet, dass ihn Adriana Lima zum Tanzen einlädt. Dabei ist Adriana Lima nicht AMD.


Sorry, aber das sich AMD auf keinen Standard einlässt der von nV festgelegt wird sollte nun wirklich nicht überraschen.

deekey777
2009-02-05, 17:17:08
Sorry, aber das sich AMD auf keine Standard einlässt der von nV festgelegt wird sollte nun wirklich nicht überraschen.
Ich suche die ganze Zeit nach einem Standard und finde keinen.
Das ist genauso abwegig, wie zu behaupten, Brook+ bzw. BrookGPU wären (offene) Standards.
Aber dass AMD sich auf Intels Havok (das wohl kräftig von PhysX bedrängt wird) eingelassen hat, ist in Ordnung? Auf Havok, das die Grafikkarte gar nicht nutzt bzw. wo Havok FX fallengelassen wurde?

Nochmal: Alles, was AMD machen muss, ist enge Zusammenarbeit mit Nvidia als Besitzer von Ageia und deren IPs, um PhysX mittels AMD Stream auch auf eigenen Grafikkarten laufen zu lassen.

Edith sagt:
AMDs Denkweise auf dem Gebiet GPGPU ist: Wer unsere Hardware für GPGPU-Zeug nutzen will, braucht nur einen Compiler, der aus seiner (Hoch-) Sprache einen IL-Code erstellt. Oder wenn man genug Skill hat, soll er gleich IL nutzen (was keiner freiwillig tut). Und das gilt für OpenCL, Brook+, Fortan (PGI) etc. und selbst für CUDA und für PhysX sowieso. Dass wir nie einen CUDA->IL-Compiler sehen werden, ist schon deswegen klar, weil beide auf OpenCL setzen. Aber für PhysX ist alles offen, man muss das nur wollen. Nur selbst wenn Nvidia PhysX auf Radeons will, dann nur über die Unterstützung von AMD.

reunion
2009-02-05, 17:29:08
Ich suche die ganze Zeit nach einem Standard und finde keinen.
Das ist genauso abwegig, wie zu behaupten, Brook+ bzw. BrookGPU wären (offene) Standards.
Aber dass AMD sich auf Intels Havok (das wohl kräftig von PhysX bedrängt wird) eingelassen hat, ist in Ordnung? Auf Havok, das die Grafikkarte gar nicht nutzt bzw. wo Havok FX fallengelassen wurde?

Nochmal: Alles, was AMD machen muss, ist enge Zusammenarbeit mit Nvidia als Besitzer von Ageia und deren IPs, um PhysX mittels AMD Stream auch auf eigenen Grafikkarten laufen zu lassen.

Sich auf Havok einzulassen ist aus Sicht von AMD wohl ganz einfach der besserere Weg ja, sonst hätte man es auch kaum so gemacht. CPU-Physik ist weit weniger kritisch auf spezifische Optimierungen. Was bei Intel gut läuft läuft meist auch bei AMD gut und umgekehrt.

Bei PhysX hingegen würde NV ganz sicher nicht auf AMD hören, sondern auf ihre GPUs optimieren und AMD darf dann Frei nach dem Motto "friss oder stirb" mitmachen. Anstatt hier zwangsläufig unterlegen zu sein ist es allemal schlauer ganz darauf zu verzichten und PhysX untergehen zu lassen.

Tigerchen
2009-02-05, 17:59:07
Hä?

Das ist eine Behauptung. Jede Behauptung ist Fliegenschiss wert, wenn sie nicht begründet wird. Ergo: Begründe jetzt deine Behauptung.
Tu mal nicht so als ob ich der einzige auf der Welt wäre der dies so sieht.

Und weiter? Das wird auch mit OpenCL möglich sein.
Und es stehen zumindest theoretisch Wege zur Verfügung, PhysX auch auch Radeons zu nutzen, aber nur wenn es keine technische Hürde gibt. Es ist genau wie bei Folding@Home: Das Teil läuft auf Geforces sowie auf Radeons (wo die DAAMIT unzweifelhaft die Vorreiterrolle hat).
Dass PhysX auf den Radeons deswegen nicht verfügbar ist, weil es keine gemeinsame Schnittstelle gibt, ist somit Quark.
Ob der Standard OpenCL oder ob man über DX geht ist mir ziemlich wurscht. Hauptsache es gibt eine Schnittstelle mit der alle ihre Hardware nutzen können. Alleine schon daran welches Gezerre da zwischen ATI und nVidia herrscht läßt doch wohl klar erkennen daß es nicht wünschenswert ist wenn da ein Hersteller nach Gutdünken entscheidet welche Hardware wie beschleunigt wird.

Was theoretisch möglich ist das ist vollkommen wurscht. "Was zählt ist aufm Platz."

Wieder so eine Behauptung, wo ich deutlich sehe, dass du den Thread weder gelesen noch das Thema überhaupt verfolgt hast.

Lass die Flamerei.
Vor der Übernahme von Ageia durch NV lief die PhysX ausschließlich auf der PPU (neben dem normalen Software-Modus natürlich). Hat dich das auch an Glide erinnert?

Natürlich. Ist im Prinzip dasselbe was 3dfx gemacht. Nur daß die Physix-Karte das mit ihren bescheidenen Fähigkeiten nicht durchsetzen konnte.
Mal abgesehen, dass PhysX kein "proprietärer Standard" ist (es ist überhaupt kein Standard): Wer hält AMD/ATi davon ab, PhysX auf eigener Hardware laufen zu lassen?
Diese Frage hast du natürlich damit beantwortet, dass die bösen Kalifornier dies mit allen Mitteln vereiteln wollen. Nur haben diese bösen Buben aus Satan-Clara zumindest öffentlich gesagt, dass sie für alles offen sind. Dagegen sagten die roten Buben, dass sich bei ihnen niemand aus Satan-Clara gemeldet hätte. Und die grünen Buben meinten, dass AMD sich bei ihnen nicht gemeldet hat, obwohl sie das jederzeit tun können. Das ist in etwa so, alsob ein Junge in einer Disco wartet, dass ihn Adriana Lima zum Tanzen einlädt. Dabei ist Adriana Lima nicht AMD.


Natürlich geht man davon aus, dass NV als ein gewinnorientiertes Unternehmen, das in erster Linie Grafikkarten verkauft, ihre Grafikkarten durch PhysX@GPU besser dastellen möchte, wofür sie AMD von PhysX@GPU ausschließen wollen. Nur übersieht diese extrem kurzsichtige Sichtweise, dass Nvidia auch daran interessiert ist, PhysX auf den Markt als Marktführer durchzusetzen und so den Hauptkonkurrenten Havok auszustechen. Dabei ist PhysX@GPU ein wichtiges Merkmal, das Havok nicht hat (Havok FX, das zuerst auf Nvidia-Grafikkarten gezeigt wurde, wurde ja fallengelassen). Darum wäre man seitens NV so ziemlich blöd diese Option nur für eigene Grafikkarten anzubieten (Havok FX lief auf SM3-fähiger Hardware). Aber dafür braucht man auch eine enge Zussammenarbeit mit AMD, denn sonst müsste NV nicht nur Support für eigene Grafikkarten, sondern auch für die von AMD leisten, was sie definitiv nicht wollen.

Die aktuelle Lage zeigt eher, dass AMD hier der Blöde ist, aber nur unter dem Vorbehalt, dass die Nutzung von AMD Stream für PhysX möglich ist.
Ja genau das ist es. Was für ein Chaos. Wenn Microsoft zu Tisch bittet wird so ein Gezanke ein für allemal unterbunden. Schließlich gibt es auch kein Sonderwürstchen mehr für Creative und EAX. Gott sei Dank.

Es ist eher unbegreiflich, dass du in die Diskussion reinplatzt, ohne dass du die Postings anderer gelesen bzw. in deinen Aussagen berücksichtigst.
Und der dritte Flameversuch. Klasse was ein Moderator sich leisten kann. Möchtest du mich provozieren?

deekey777
2009-02-05, 18:00:00
Sich auf Havok einzulassen ist aus Sicht von AMD wohl ganz einfach der besserere Weg ja, sonst hätte man es auch kaum so gemacht. CPU-Physik ist weit weniger kritisch auf spezifische Optimierungen. Was bei Intel gut läuft läuft meist auch bei AMD gut und umgekehrt.
Insbesondere wenn Intel auf die Idee kommt, dass Havok ab sofort nur auf CPUs läuft, die SSE4 oder das kommende AVX nutzen? Oder wenn Intel bestimmt, dass Havok ausschließlich auf CPUs und LRB läuft?
Irgendwie geht deine Behauptung nicht auf. Insbesondere weil PhysX auch auf allen CPUs läuft.

Bei PhysX hingegen würde NV ganz sicher nicht auf AMD hören, sondern auf ihre GPUs optimieren und AMD darf dann Frei nach dem Motto "friss oder stirb" mitmachen. Anstatt hier zwangsläufig unterlegen zu sein ist es allemal schlauer ganz darauf zu verzichten und PhysX untergehen zu lassen.

PhysX läuft auch auf CPUs. Warum sollte man alles Mögliche tun, dieses untergehen zu lassen?
So oder so: Wie soll Nvidia PhysX auf ihre GPUs optimieren? Optimiert Microsoft DirectX auf irgendwelche GPUs? Nein. Die Spielentwickler schreiben ihr Spiel und dieses läuft dann auf verschiedenen Systemen mit unterschiedlicher Hardware. Wie gut es läuft, bestimmen beide IHVs (AMD/NV) mit, indem sie mit den Entwicklern entweder zusammenarbeiten oder hardwarespezifische Optimierungen in ihren Treibern bringen.
Und nicht anders wird es bei PhysX der Fall sein: Die Entwickler bekommen Support von NV als Hersteller von PhysX, damit deren Physikspielereien problemlos laufen. Wenn AMD mit an Bord wäre, dann würden sie entweder schon bei der Entwicklung dabei sein oder die Optimierungen mit den Updates der PhysX-Systemsoftware nachliefern.

deekey777
2009-02-05, 18:18:04
Tu mal nicht so als ob ich der einzige auf der Welt wäre der dies so sieht.

Ob der Standard OpenCL oder ob man über DX geht ist mir ziemlich wurscht. Hauptsache es gibt eine Schnittstelle mit der alle ihre Hardware nutzen können. Alleine schon daran welches Gezerre da zwischen ATI und nVidia herrscht läßt doch wohl klar erkennen daß es nicht wünschenswert ist wenn da ein Hersteller nach Gutdünken entscheidet welche Hardware wie beschleunigt wird.

Was theoretisch möglich ist das ist vollkommen wurscht. "Was zählt ist aufm Platz."
Hättest du den Thread gelesen, dann wüsstest du, dass es kein Problem ist, dass AMD sein AMD Stream hat und NV sein CUDA, siehe Folding@Home. Es ist alles die Frage des Wollens.

Lass die Flamerei.
Was besseres fällt dir nicht ein?
Natürlich. Ist im Prinzip dasselbe was 3dfx gemacht. Nur daß die Physix-Karte das mit ihren bescheidenen Fähigkeiten nicht durchsetzen konnte.
Das hatte auch andere Gründe, weil weder NV noch AMD Ageia unterstützt haben, sondern auf ihre eigenen Lösungen setzten, was aufgegeben wurde. Hinzukommt, dass Nvidia zu dem Zeitpunkt gar keine vernünftige GPGPU-Hardware hatte (und Software sowieso) und AMD zwar mit dem R520 die ersten Ideen lieferte, sich aber in die Sackgasse manövrierte (CTM war auch nicht der Weisheit letzter Schluss). Erst der G80 und der RV770 kommen mit vernünftigen GPGPU-Fähigkeiten, für sich die Entwicklung von CUDA und AMD Stream gelohnt hat. Sprich es gibt nur seit Kurzen die dafür geeignete Hardware.
Aber da gab es noch Havok FX, was von Intel schnell eingemottet wurde...

Ja genau das ist es. Was für ein Chaos. Wenn Microsoft zu Tisch bittet wird so ein Gezanke ein für allemal unterbunden. Schließlich gibt es auch kein Sonderwürstchen mehr für Creative und EAX. Gott sei Dank.
Das ist kein Chaos! Du schreibst:
Ob der Standard OpenCL oder ob man über DX geht ist mir ziemlich wurscht. Hauptsache es gibt eine Schnittstelle mit der alle ihre Hardware nutzen können.
Eine gemeinsame Schnittstelle ist nicht notwendig. AMD hat sich sofort verschlossen, als NV Ageia übernommen hat. Selbst wenn man das gesamte PhysX SDK ins OpenCL transferiert, kann sich AMD querstellen, so dass PhysX auf Radeons unmöglich läuft. Auch kann sich NV so querstellen, dass selbst mit OpenCL oder DirectX CS PhysX nicht oder sehr langsam auf Radeons läuft. Es ist alles eine Frage der Unterstützung und des Willens.


Und der dritte Flameversuch. Klasse was ein Moderator sich leisten kann. Möchtest du mich provozieren?
Zumindest lese ich Beiträge anderer, bevor ich was schreibe.

reunion
2009-02-05, 18:19:11
Insbesondere wenn Intel auf die Idee kommt, dass Havok ab sofort nur auf CPUs läuft, die SSE4 oder das kommende AVX nutzen? Oder wenn Intel bestimmt, dass Havok ausschließlich auf CPUs und LRB läuft?
Irgendwie geht deine Behauptung nicht auf. Insbesondere weil PhysX auch auf allen CPUs läuft.

AMD und Intel haben ein Patenttauschabkommen. Aber Risiken gibt es natürlich immer wenn man sich auf andere verlassen muss. AMD wird sich das schon gut überlegt haben, offensichtlich hat man in Intel/Havok eine bessere Perspektive gesehen.


So oder so: Wie soll Nvidia PhysX auf ihre GPUs optimieren?

Sie legen die Spielregeln fest, sie schrieben die PhysX-Treiber, da gibt es mit Sicherheiten genug Mittel und Wege.


Optimiert Microsoft DirectX auf irgendwelche GPUs? Nein.


Die Frage ist hoffentlich nicht dein ernst. MS hat als unbeteiligter kein Interesse daran, irgendjemanden zu bevorzugen. MS will nur das sich DX möglichst weit verbreitet. Bei nV sieht es da ein klein wenig anders aus.


Die Spielentwickler schreiben ihr Spiel und dieses läuft dann auf verschiedenen Systemen mit unterschiedlicher Hardware. Wie gut es läuft, bestimmen beide IHVs (AMD/NV) mit, indem sie mit den Entwicklern entweder zusammenarbeiten oder hardwarespezifische Optimierungen in ihren Treibern bringen. Und nicht anders wird es bei PhysX der Fall sein: Die Entwickler bekommen Support von NV als Hersteller von PhysX, damit deren Physikspielereien problemlos laufen. Wenn AMD mit an Bord wäre, dann würden sie entweder schon bei der Entwicklung dabei sein oder die Optimierungen mit den Updates der PhysX-Systemsoftware nachliefern.

Und wie darf AMD PhysX unterstützen? Müssen sie selbst PhysX komplett neu programmieren (was wohl vollkommen unrealistisch ist) oder müssen sie eine 100% zu CUDA kompatible Library anbieten, was zwangsläufig Performancenachteile bringen wird? So oder so kann man hier nur verlieren.

Coda
2009-02-05, 18:30:45
So oder so: Wie soll Nvidia PhysX auf ihre GPUs optimieren?
Indem sie den Solver entsprechend programmieren? :|

Optimiert Microsoft DirectX auf irgendwelche GPUs? Nein.
Das ist kein guter Vergleich. DirectX definiert keine Algorithmen. Es ist schon sehr wohl möglich das PhysX-Backend so auszulegen, dass es NVIDIA-GPUs schmeckt.

Allerdings ist sowas immer nur sehr eingeschränkt möglich. Heutige GPUs sind eigentlich sehr ähnlich darin was sie mögen und was nicht.

Gast
2009-02-05, 18:36:50
Sorry, aber das sich AMD auf keinen Standard einlässt der von nV festgelegt wird sollte nun wirklich nicht überraschen.

Sollte AMD vielleicht auch Intels Standards boykottieren? Du hast ja wirklich eine extrem beschränkte Sichtweise.

reunion
2009-02-05, 18:39:06
Sollte AMD vielleicht auch Intels Standards boykottieren? Du hast ja wirklich eine extrem beschränkte Sichtweise.

Na solange du "das Ganze" siehst. AMD hat ja wohl nicht ohne Grund so entschieden.

Gast
2009-02-05, 18:54:09
Ist das dein "alles totschlag Argument"?
So wie hier:
"...ist aus Sicht von AMD wohl ganz einfach der besserere Weg ja, sonst hätte man es auch kaum so gemacht"

Also Fehlentscheideungen per Definition ausgeschlossen, weil "sonst hätte man es ja nicht so gemacht"?

Das ist ja wohl DER Brüller überhaupt.

reunion
2009-02-05, 18:59:51
Es ist zumindest ein Anhaltspunkt. Aber wer keine Argumente bringt kann natürlich leicht stänkern. :rolleyes:

deekey777
2009-02-05, 19:49:14
Indem sie den Solver entsprechend programmieren? :|

...
Und warum gehst du davon aus, dass Nvidia so böse ist, dass sie das unbedingt machen müssen? Siehst du hier irgendeinen Vorteil für Nvidia, wenn sie ihr Produkt schlecht machen, indem sie PhysX auf Radeons absichtlich schlechter laufen lassen? Welcher Developer würde dann für PhysX@GPU Geld und Zeit investieren, wenn dieses nur so beschränkt nutzbar ist?

Das macht einfach keinen Sinn. Der Hauptkonkurrent ist Intel mit Havok. Und da AMD dort fleißig mitmischt, wäre es wahrscheinlich, dass Havok auch Radeons als Rechenmaschinen nutzen wird, schließlich lief Havok FX schon auf Grafikkarten beider Hersteller.

Coda
2009-02-05, 19:51:00
Und warum gehst du davon aus, dass Nvidia so böse ist, dass sie das unbedingt machen müssen?
Tu ich nicht. Ich sagte nur, dass es die Möglichkeit gibt, was du ja generell abgestritten hast.

deekey777
2009-02-05, 20:04:43
Tu ich nicht. Ich sagte nur, dass es die Möglichkeit gibt, was du ja generell abgestritten hast.
Ich streite das nur deswegen ab (wenn überhaupt), weil NV sich damit ein Bein stellt.

NV streitet den Mehrwert von D3D10.1 deswegen ab, weil es keinen Nutzen bringt. Warum? Darum: Bei nüchterner Betrachtung sieht man, dass sie D3D10.1 nur deswegen nicht mögen, weil sie es nicht können.
AMD sieht PhysX@GPU als unnötig an, weil damit nur Effektephysik möglich sei. Warum? Hm...

Wenn es wirklich der Fall wäre, dass NV für AMD den Zugang zu PhysX@GPU versperrt, dann hätte AMD schon längst einen Fass aufgemacht. Aber das ist bisher nicht passiert. Sie haben sich nur geäußert, dass Nvidia sich bei ihnen nicht gemeldet hat. Aber das ist so lächerlich (siehe Bsp mit Adriana Lima). Nvidia wird sich keinen Finger krumm machen, damit PhysX auch auf Radeons läuft, das muss einzig AMD erledigen.

BlackBirdSR
2009-02-05, 20:08:25
damit PhysX auch auf Radeons läuft, das muss einzig AMD erledigen.


Nur was würdest du machen?
Das Konkurrenzprodukt unterstützen und in Kauf nehmen, dass du wohl auf sehr sehr lange Zeit immer in Benchmarks zurück liegen wirst, weil der neue Standard auf deinen Karten eben nur über eine zusätzliche Schnittstelle läuft? - Oder das ganze so gut es geht ignorieren, in der Hoffnung, dass es ganz schnell wieder verschwindet?

RLZ
2009-02-06, 10:10:56
Nvidia wird sich keinen Finger krumm machen, damit PhysX auch auf Radeons läuft, das muss einzig AMD erledigen.
Nvidia tritt mit PhysX als Middlewareanbieter (also Softwareanbieter) auf. AMD muss da garnichts machen.
Genausowenig wird AMD verhindern, dass standardkonforme Software auf ihrer Hardware läuft. Das wäre gleichzusetzen damit, dass sie gezielt Intelsoftware nicht auf ihrer Hardware laufen lassen...

Manchmal kann ich die Vorstellungen mancher Leute überhaupt nicht nachvollziehen. :confused:

Sefegiru
2009-02-06, 22:20:09
Kann mir jemand was zu meiner Frage mit den Ageia PPU PCIe Karten sagen oder wollt ihr hier die ganze weiter über die Vermakrtung von PhysX streiten.

Nevermore4ever
2009-02-07, 20:12:35
Und warum gehst du davon aus, dass Nvidia so böse ist, dass sie das unbedingt machen müssen? Siehst du hier irgendeinen Vorteil für Nvidia, wenn sie ihr Produkt schlecht machen, indem sie PhysX auf Radeons absichtlich schlechter laufen lassen? Welcher Developer würde dann für PhysX@GPU Geld und Zeit investieren, wenn dieses nur so beschränkt nutzbar ist?

Hört sich für mich vernünftig an.

Ich frage mich aber zudem, inwieweit nVidia überhaupt in der Lage wäre, PhysX auf AMD-Hardware schlecht laufen zu lassen, wenn AMD erst mal eine Lizens hätte. Denn den PhysX-Treiber (Edit: oder PhysX System Software oder Runtime oder Dingens-was-PhysX-möglich-macht) bekäme man als AMD-Kunde dann doch wohl auch von AMD und nicht von nVidia.

Und dann kommt es in erster Linie darauf an, wie die Physikberechnungen mathematisch aussehen und wie gut AMD/nVidia-Hardware jeweils dazu passt.

Coda
2009-02-07, 21:51:18
Ich wiederhole mich: Es gibt keinen PhysX-Treiber.

Gast
2009-02-07, 21:54:35
Ich wiederhole mich: Es gibt keinen PhysX-Treiber.

Was ist denn dann die Schnittstelle zur Hardware?

Coda
2009-02-07, 21:56:36
CUDA bzw. bei einem theoretischen ATI-Port eben CAL o.ä.

MGeee
2009-02-08, 13:26:42
Die ganze Diskussion von wegen Physik auf einer Physikkarte oder auf der Graka laufen zu lassen finde ich sowieso völlig Banane. Leute wir haben mittlerweile 4-Kern CPUs, Tendenz weiter steigend... warum sollen zukünftig nicht 1-2 Kerne ausschließlich Physik berechnen? Ich werde mir sicherlich nicht extra für Physik ne zusätzliche NV-Karte einbauen (Stichwort: Stromverbrauch unter 2D).
Zudem glaube ich kaum, dass es nennenswert Leute geben wird, die das tun werden. Und das Physx auf einer Single-NV Karte nebenher mit auf der GPU läuft, ist für mich als Ati-User ebenfalls völlig uninteressant. Wg. Physx würde ich auch nicht extra zur NV-Karte greifen, wenn Ati mit der 4850 zum Kaufzeitpunkt das besser Produkt hat (P/L-mäßig).

Ich meine auch, dass es für PC-Spiele Publisher schon schwer genug ist, da viele Leute ehern grottige Grafikkarten in ihren PCs haben (siehe Probleme beim Abverkauf von Crysis).

Kurzum: Physx in Hardware (also auf GPU-Basis exklusiv mit NV-Karten) wird sich nicht durchsetzen. Da spricht einfach Markt-technisch nichts dafür und wenn man mal die letzten 20-30 Jahre PC-Geschichte überschaut, wird man auch nichts vergleichbares finden, was bis heute überlebt hat.

Crazy_Chris
2009-02-08, 13:28:55
Die ganze Diskussion von wegen Physik auf einer Physikkarte oder auf der Graka laufen zu lassen finde ich sowieso völlig Banane. Leute wir haben mittlerweile 4-Kern CPUs, Tendenz weiter steigend... warum sollen zukünftig nicht 1-2 Kerne ausschließlich Physik berechnen?


Wie man doch bei Mirrors Edge sieht reicht die reine CPU Leistung mit PhysX eben hinten und vorne nicht aus wenn es exzessiv verwendet wird.

RLZ
2009-02-08, 13:36:03
Ich frage mich aber zudem, inwieweit nVidia überhaupt in der Lage wäre, PhysX auf AMD-Hardware schlecht laufen zu lassen, wenn AMD erst mal eine Lizens hätte.
AMD braucht keine Lizenz. PhysX ist eine reine Softwarelösung auf Applikationsseite, die momentan zur GPU Beschleunigung nur CUDA als Schnittstelle nutzen kann.
Um die GPU Beschleunigung auf Ati Karten nutzen zu können, muss also dort entweder eine CUDA Implementierung vorhanden sein (wird niemals passieren) oder die Software (PhysX) muss eine andere Schnittstelle nutzen.

Seht CUDA, OpenCL, CAL einfach als etwas wie OpenGL oder DirectX an. PhysX ist dann eine einfache Engine, vergleichbar zu einer Grafikengine, die die Schnittstelle nutzt um auf die Hardware zuzugreifen.

MGeee
2009-02-08, 13:49:46
Wie man doch bei Mirrors Edge sieht reicht die reine CPU Leistung mit PhysX eben hinten und vorne nicht aus wenn es exzessiv verwendet wird.

Gut da kann ich nicht mitreden. Habe ME noch nicht gezockt.
Da ME aber ein CrossPlattform Titel ist, vermute ich, dass nicht auf Nutzung von bis zu 4 CPU-Kernen hin programmiert wurde (ist aber eine reine Mutmaßung).
Worum es mir geht ist, dass wir zukünftig tendenziell sehr viel CPU Power haben werden und deswegen extra Physik-Hardware nicht unbedingt notwendig ist.

Crazy_Chris
2009-02-08, 13:56:06
Tja erstmal sehen wie es in weiteren Spielen ausschaut. Viell. ist Mirror´s Edge auch nur ne Ausnahme. :|

Gast
2009-02-08, 14:40:38
Leute wir haben mittlerweile 4-Kern CPUs, Tendenz weiter steigend... warum sollen zukünftig nicht 1-2 Kerne ausschließlich Physik berechnen?

weil es eben bei weitem nicht reicht, wie diverse benchmarks auch beweisen.

_DrillSarge]I[
2009-02-08, 14:45:17
eigentlich ist es egal wie es zustande kommt, hauptsache es kann von jedem genutzt werden.
die gpu-architektur bietet sich nunmal für sowas an, kann aber momentan nicht von jedem genutz werden. dass die ageia-ppu tot ist wäre auch ohne nv-übernahme passiert, da sich es einfach nicht durchsetzen kann, dass es "ppu-gamer" und "non-ppu" gamer gibt. ähnliches könnte nun auch der gpu-physik dohen, wenn sich am derzeitigen zustand nix ändert.

übrigens war ageia eine übelste drecksfirma, die alle "ihre" produkte/know-how von anderen eigekauft hat und sich dann selber für viel geld aufkaufen lassen hat.

deekey777
2009-02-08, 20:24:29
Nur was würdest du machen?
Das Konkurrenzprodukt unterstützen und in Kauf nehmen, dass du wohl auf sehr sehr lange Zeit immer in Benchmarks zurück liegen wirst, weil der neue Standard auf deinen Karten eben nur über eine zusätzliche Schnittstelle läuft? - Oder das ganze so gut es geht ignorieren, in der Hoffnung, dass es ganz schnell wieder verschwindet?
Wenn PhysX ein Konkurrenzprodukt ist, mit welchem Produkt von DAAMIT konkurriert es dann? Mit gar keinem.
Während Nvidia mit ETI über Badaboom/Adobe CS4 direkt oder indirekt Geld verdient, tut AMD was? Sie veröffentlichen irgendwelche Fantasiefolien über eigene Produkte im Vergleich zu Badaboom und veröffentlichen dann ein kostenloses "Konkurrenzprodukt" namens AVIVO-Videoconverter.
Während Nvidia mit deren 3D-Brillen Geld verdienen will, tut AMD was? Genau, sie veröffentlichen für Zalman (ein fremdes Unternehmen) kostenlose Updates für Zalmans 3D-Monitore.
Mit PhysX wird Nvidia Geld verdienen, insbesondere macht PhysX die grünen Grafikkarten sehr attraktiv. Natürlich muss viel Zeit und Arbeit investiert werden, aber auf fast jeder Geforce-Verpackung ist das verkaufswirksame PhysX-Logo zu finden. Und Dank vieler Artikel der Presse weiß der vermeintliche Käufer, dass die Geforce besser sein müssen. Und was macht DAAMIT? Sie warten angeblich auf einen Anruf von Nvidia, zeigten aber sofort einen Schulterschluss mit Havok, was Intel gehört (Und wo profitiert AMD, wenn sie Havok so toll finden? Bisher nirgendwo.), und vor wenigen Wochen hieß es, dass PhysX@GPU eh keiner braucht, da daruch nur "Effektephysik" möglich ist (etwas was Havok FX anbot, damals aber was Schönes war, denn Ageia mit deren PPU und möglicher Spielphysik war schon damals böse).
Also was muss DAAMIT nunmachen? Auf sturr schalten und eigene Produkte zuunrecht unattraktiv machen (D3D10.1 ist nicht so attraktiv wie PhysX, denn damit gibt es kein wundervoll zerbrestendes Glas, und den Rest erledigt NVAPI (STALKER CS, Far CRy 2)). Oder sich doch öffnen und PhysX auf die Radeons lauffähig zu machen, wie es schon Nvidia für eigene GPUs gemacht hat? Wobei das wiederum Geld kostet, was bei AMD nicht gerade im Überfluss vorhanden ist. Aber NV wird da nichts machen, so lange sie ein Monopolist sind.

Coda
2009-02-08, 20:29:52
PhysX-Hardware kann auch nur Effektphysik berechnen.

reunion
2009-02-08, 20:40:58
Wenn PhysX ein Konkurrenzprodukt ist, mit welchem Produkt von DAAMIT konkurriert es dann? Mit gar keinem.
Während Nvidia mit ETI über Badaboom/Adobe CS4 direkt oder indirekt Geld verdient, tut AMD was? Sie veröffentlichen irgendwelche Fantasiefolien über eigene Produkte im Vergleich zu Badaboom und veröffentlichen dann ein kostenloses "Konkurrenzprodukt" namens AVIVO-Videoconverter.
Während Nvidia mit deren 3D-Brillen Geld verdienen will, tut AMD was? Genau, sie veröffentlichen für Zalman (ein fremdes Unternehmen) kostenlose Updates für Zalmans 3D-Monitore.
Mit PhysX wird Nvidia Geld verdienen, insbesondere macht PhysX die grünen Grafikkarten sehr attraktiv. Natürlich muss viel Zeit und Arbeit investiert werden, aber auf fast jeder Geforce-Verpackung ist das verkaufswirksame PhysX-Logo zu finden. Und Dank vieler Artikel der Presse weiß der vermeintliche Käufer, dass die Geforce besser sein müssen. Und was macht DAAMIT? Sie warten angeblich auf einen Anruf von Nvidia, zeigten aber sofort einen Schulterschluss mit Havok, was Intel gehört (Und wo profitiert AMD, wenn sie Havok so toll finden? Bisher nirgendwo.), und vor wenigen Wochen hieß es, dass PhysX@GPU eh keiner braucht, da daruch nur "Effektephysik" möglich ist (etwas was Havok FX anbot, damals aber was Schönes war, denn Ageia mit deren PPU und möglicher Spielphysik war schon damals böse).
Also was muss DAAMIT nunmachen? Auf sturr schalten und eigene Produkte zuunrecht unattraktiv machen (D3D10.1 ist nicht so attraktiv wie PhysX, denn damit gibt es kein wundervoll zerbrestendes Glas, und den Rest erledigt NVAPI (STALKER CS, Far CRy 2)). Oder sich doch öffnen und PhysX auf die Radeons lauffähig zu machen, wie es schon Nvidia für eigene GPUs gemacht hat? Wobei das wiederum Geld kostet, was bei AMD nicht gerade im Überfluss vorhanden ist. Aber NV wird da nichts machen, so lange sie ein Monopolist sind.

Was DAMMIT macht nennt man sich auf das Kerngeschäft (CPUs - Chipsätze - Grafikkarten) zu konzentrieren. Das macht man so wenn man mit Milliarden in der Kreide steht. Für irgend welche Spielchen, welche sich mit Glück in ein paar Jahren rechnen ist aktuell schlicht kein Geld vorhanden.

deekey777
2009-02-08, 21:33:05
PhysX-Hardware kann auch nur Effektphysik berechnen.
Und genau das wurde ihnen vor einigen Wochen von einem AMD-Verantwortlichen unter die Nase gerieben. Nach dem Motte: PhysX ist Mist, da nur Effekte-Physik, was benötigt wird, ist die das Spiel beeinflussende Physik.
Aber wie soll das gehen? Während Geforce-Spieler von einem Holzbalken mittels PhysX@GPU "physikalisch korrekt" erschlagen wird, rennt der Radeon-Besitzer einfach durch, weil auf diesen Balken bei ihm verzichtet wurde? (Ist eine Übertreibung.)

RLZ
2009-02-08, 21:56:56
Und genau das wurde ihnen vor einigen Wochen von einem AMD-Verantwortlichen unter die Nase gerieben. Nach dem Motte: PhysX ist Mist, da nur Effekte-Physik, was benötigt wird, ist die das Spiel beeinflussende Physik.
Was ja offensichtlich nicht stimmt. Es wird beides benötigt. Havok Destruction zeigt beispielsweise wie man andere Probleme angehen kann.

Aber wie soll das gehen? Während Geforce-Spieler von einem Holzbalken mittels PhysX@GPU "physikalisch korrekt" erschlagen wird, rennt der Radeon-Besitzer einfach durch, weil auf diesen Balken bei ihm verzichtet wurde? (Ist eine Übertreibung.)
Der Holzbalken wird überhaupt nicht da sein, weil die Hardwarebasis zu klein ist, um sowas einzubauen. :tongue:

Tigerchen
2009-02-11, 16:07:56
Deekey du kannst zappeln wie du willst. Am Ende wird keiner auf PhysiX und CUDA angewiesen sein. Alle werden schauen daß ihre Physikeffekte entweder über OpenCL oder aber über DX11 laufen was ich für am Wahrscheinlichsten halte. Der jetzige Zustand ist nur ein Übergang. So wie Glide nur ein Übergang war. Ob dir das passt oder nicht ist da vollkommen Wurscht.:tongue:

deekey777
2009-02-11, 16:10:24
Deekey du kannst zappeln wie du willst. Am Ende wird keiner auf PhysiX und CUDA angewiesen sein. Alle werden schauen daß ihre Physikeffekte entweder über OpenCL oder aber über DX11 laufen was ich für am Wahrscheinlichsten halte. Der jetzige Zustand ist nur ein Übergang. So wie Glide nur ein Übergang war. Ob dir das passt oder nicht ist da vollkommen Wurscht.:tongue:
Da ich so dumm bin: Erkläre mir endlich, was CUDA und PhysX miteinander zu tun haben.

BlackBirdSR
2009-02-11, 16:22:33
Da ich so dumm bin: Erkläre mir endlich, was CUDA und PhysX miteinander zu tun haben.

Du verstehst es einfach nicht, das ist dein Problem:tongue:
Du gehst davon aus, dass PhysX eine universelle Physik-Engine für Cross-Platform ist und CUDA die entsprechende Schnittstelle, um Zugriff auf Nvidia GPUs zu erlauben. Aber wie jeder weiß, ist das wirklich nur dumm ;)

=Floi=
2009-02-11, 16:26:36
physx sollte ja auch recht einfach auf opencl portiert werden können und dann unterstützen es eh ALLE DX11 karten. was habt ihr nur für ein problem?
physx @ opencl = one for all
Das ist quasi der durchbruch für physx

deekey777
2009-02-11, 16:37:33
physx sollte ja auch recht einfach auf opencl portiert werden können und dann unterstützen es eh ALLE DX11 karten. was habt ihr nur für ein problem?
physx @ opencl = one for all
Das ist quasi der durchbruch für physx
So lange Nvidia mit PhysX @GPU quasi Monopolist ist, werden sie nicht aus Nächstenliebe ihr PhysX für die Nutzung auf Grafikkarten anderer Hersteller freigeben.
Auf der anderen Seite zeigt zB Vantage, dass gewisse Effekte schon jetzt auf Grafikkarten möglich sind und das mit DirectX. Was wiederum für die Spielentwickler bedeutet, dass sie mehr Zeit und Arbeit für solche Effekte stecken müssen.

reunion
2009-02-11, 21:51:04
So lange Nvidia mit PhysX @GPU quasi Monopolist ist, werden sie nicht aus Nächstenliebe ihr PhysX für die Nutzung auf Grafikkarten anderer Hersteller freigeben.


Aus Nächstenliebe sicher nicht, aber aus schlichter Notwendigkeit.

Gast
2009-02-11, 22:15:25
So lange Nvidia mit PhysX @GPU quasi Monopolist ist, werden sie nicht aus Nächstenliebe ihr PhysX für die Nutzung auf Grafikkarten anderer Hersteller freigeben.

sie haben doch PhysX bereits ATI angeboten, nen treiber für ATI-karten werden sie wohl kaum schreiben können.

deekey777
2009-02-11, 23:20:00
sie haben doch PhysX bereits ATI angeboten, nen treiber für ATI-karten werden sie wohl kaum schreiben können.
Sie haben ATi Nüschts angeboten.
http://www.pcper.com/article.php?type=expert&aid=584&pid=2

Coda
2009-02-11, 23:24:56
physx sollte ja auch recht einfach auf opencl portiert werden können und dann unterstützen es eh ALLE DX11 karten. was habt ihr nur für ein problem?
Du meinst alle Karten die OpenCL unterstützen. Das sind mindestens alle GeForce 8+ und Radeons ab der 4000er Serie und vielleicht auch die 2000/3000er. Das muss man aber noch sehen.

Gast
2009-02-12, 08:26:33
Es ist einfach keine Qualitätsphysik die jahrelang fesseln kann. Die Physik die NV anbietet hat nicht annähernd von dem Flair eines richtigen Simulationprogramms, noch nicht mal von dem was vor 5 Jahren in 2D berechnen konnte. Schöne Effekte bietet bereits ein Konsolentitel wie Bad Company und da hat NV/PhysX noch nichts dergleichen geliefert geschweige denn übertrumpft.

BlackBirdSR
2009-02-12, 09:12:54
Es ist einfach keine Qualitätsphysik die jahrelang fesseln kann. Die Physik die NV anbietet hat nicht annähernd von dem Flair eines richtigen Simulationprogramms, noch nicht mal von dem was vor 5 Jahren in 2D berechnen konnte. Schöne Effekte bietet bereits ein Konsolentitel wie Bad Company und da hat NV/PhysX noch nichts dergleichen geliefert geschweige denn übertrumpft.

Dir ist schon bewusst, dass die "Physik die Nvidia anbietet" in einer sehr großen Anzahl an Spielen mündet, die sowohl auf PC als auch XBox und PS mit sehr guter Physikdarstellung begeistern können? Als Beispiel nenne ich nur einmal alle Unreal Engine 3 Spiele.

Fallacy
2009-02-15, 13:22:47
Dir ist schon bewusst, dass die "Physik die Nvidia anbietet" in einer sehr großen Anzahl an Spielen mündet, die sowohl auf PC als auch XBox und PS mit sehr guter Physikdarstellung begeistern können? Als Beispiel nenne ich nur einmal alle Unreal Engine 3 Spiele.

Es stimmt, dass eine Großzahl von Spielen auf PhysX setzen. Aber man sollte an dieser Stelle auch erwähnen, dass nur sehr wenige davon auch dann tatsächlich die Hardware-Unterstützung von NVIDIA nutzen.

BlackBirdSR
2009-02-15, 14:29:37
Es stimmt, dass eine Großzahl von Spielen auf PhysX setzen. Aber man sollte an dieser Stelle auch erwähnen, dass nur sehr wenige davon auch dann tatsächlich die Hardware-Unterstützung von NVIDIA nutzen.

Ich denke du hast damit die zwei springenden Punkte in einen Post gefasst :)
PhysX selbst ist stark verbreitet und scheint von vielen Herstellern gern und gut eingesetzt zu werden. Dr HW-Support ist aber immernoch jämmerlich.

Dabe sind PhysX und PhysX-Beschleunigung zwei unterschiedliche Dinge. Wenn sich der HW-Support über Cuda auch nicht durchsetzen mag, die Engine selbst ist davon unabhängig.

Danke für den Post, denn das vergessen die meisten manchmal :)

deekey777
2009-02-18, 14:31:12
Was passiert mit PhysX, wenn DX11/OpenCL da sind? (http://www.computerbase.de/news/hardware/grafikkarten/2009/februar/was_physx_dx11_opencl/)

Noch allgemeinverständlicher geht's nicht.

Gast
2009-02-18, 14:41:38
Ich finde diesen Bericht schlecht. Der Autor geht offenbar davon aus, das sich seine Vermutungen bestätigen werden und spricht allen anderen die eigene Meinung ab.
Er sieht wie jeder andere in eine Glaskugel, aber stellt es als Fakt da.

Ob sich je einer der genannten Prophezeiungen bewahrheiten wird, kann er nicht beweisen.
Auch auf die von ihm aufgestellten Thesen (z.B. absichtlich ausbremsen) will er widerlegt haben, wird aber im eigenem Forum darauf hingewiesen, das er das nicht beweisen kann.

Sowas findest du verständlich? Ich finde es eher Irreführend. Behauptungen aufstellen kann jeder, nur ob sie der Wahrheit entsprechen ...

deekey777
2009-02-18, 14:45:11
Ich finde diesen Bericht schlecht. Der Autor geht offenbar davon aus, das sich seine Vermutungen bestätigen werden und spricht allen anderen die eigene Meinung ab.
Er sieht wie jeder andere in eine Glaskugel, aber stellt es als Fakt da.

Ob sich je einer der genannten Prophezeiungen bewahrheiten wird, kann er nicht beweisen.
Auch auf die von ihm aufgestellten Thesen (z.B. absichtlich ausbremsen) will er widerlegt haben, wird aber im eigenem Forum darauf hingewiesen, das er das nicht beweisen kann.

Sowas findest du verständlich? Ich finde es eher Irreführend. Behauptungen aufstellen kann jeder, nur ob sie der Wahrheit entsprechen ...
Der Autor würde darauf antworten: Kann es sein, dass du den Artikel entweder nur zur Hälfte gelesen oder nur zur Hälfte verstanden hast?

Coda
2009-02-18, 14:46:36
Große Teile des Artikels sind aber dennoch sehr wohl richtig.

Gast
2009-02-18, 14:48:31
Es kann sicherlich sein, das du meine Reaktion nicht verstanden hast, das ist richtig!

Die Antworten des Autors kannst du dort selbst nachlesen und sie ändern rein gar nichts an der Kritik. Der Bericht ist schlecht, weil er nur so von Vermutungen strotzt und diese dann auch noch als Fakt hingestellt werden.

In die Zukunft kann aber keiner sehen, auch nicht er. Sowas gehört sich für einen guten Redakteur nunmal nicht.

Gast
2009-02-18, 14:48:50
Nur weil du es nicht verstehen willst oder kannst heißt noch nicht, daß der Artikel irreführend ist.

Crazy_Chris
2009-02-18, 14:51:45
Mal was von Computerbase zum Thema PhysX, Cuda, DX11/OpenCL:

http://www.computerbase.de/news/hardware/grafikkarten/2009/februar/was_physx_dx11_opencl/

deekey777
2009-02-18, 14:55:06
Es kann sicherlich sein, das du meine Reaktion nicht verstanden hast, das ist richtig!

Die Antworten des Autors kannst du dort selbst nachlesen und sie ändern rein gar nichts an der Kritik. Der Bericht ist schlecht, weil er nur so von Vermutungen strotzt und diese dann auch noch als Fakt hingestellt werden.

In die Zukunft kann aber keiner sehen, auch nicht er. Sowas gehört sich für einen guten Redakteur nunmal nicht.
Und jetzt bitte Beispiele vorlegen. Dann werden wir gemeinsam die irreführenden Passagen korrigieren.

Gast
2009-02-18, 15:08:00
Nur weil du es nicht verstehen willst oder kannst heißt noch nicht, daß der Artikel irreführend ist.

Du hast meine Reaktion nicht im geringsten verstanden, deine Antwort ist somit gegenstandslos, weil am Thema vorbei. Vielen Dank für die Bestätigung. :)

Ich bemängele den Schreibstil, fehlende Beweise, nicht den sonstigen Inhalt.

Davon gibt es genügend Auszüge.
Das kann man getrost als eine Lüge bezeichnen, da man nicht vergessen darf, wo PhysX herkommt.

Was hat die Herkunft mit dem hier und jetzt zu tun? Nachträgliche anderungen sind immer möglich. Er bezeichnet etwas als Lüge, kann aber nichts gegenteiliges beweisen. Ist seine Aussage also auch nur eine Marketing-Lüge?

Darüber hinaus wird gerne behauptet, dass PhysX verschwinden wird, wenn OpenCL beziehungsweise der Compute Shader in DirectX 11 da sind.

Da hat der Autor gepennt. Es wird nicht behauptet und als Fakt hingestellt, sondern vermutet.
Das ist ein himmelweiter Unterschied.
Daraufhin schreibt er dann:

Dies ist ebenso wenig korrekt.

Woher will er das wissen? Das ist auch nur eine Vermutung und kein Beweis. Er ist also kein Stück besser, als jeder, der das gegenteil vermutet.

Noch dazu ist die Zukunft höchst ungewiß, es wäre nicht die erste Software, Engine, API etc. die aussterben würde und durch nachfolgende ersetzt wird.
Im Forum wurde er mehrfach darauf hingewiesen, das entsprechende Beweise für die Behauptungen nicht erbracht wurden und das wird offenbar - wissentlich - vom Schreiber ignoriert, schließlich hatte er schon geantwortet.

Dafür müsste man mehrere Jahre in die Zukunft blicken können, kann er aber nicht.
Er stellt Behauptungen auf, die er so nicht beweisen kann und schreibt das sogar in den Artikel.
Was macht seine Aussagen glaubwürdiger als die jeder anderen Person?

Als Redakteur packt man normalerweise auch keine unbewiesenen Behauptungen und Meinungen in einen Bericht, sondern berichtet lediglich darüber, ob, wie, weswegen etwas so ist oder funktioniert.

Ich könnte jetzt auch einen Artikel darüber schreiben und das gegenteil behaupten. Super. Das bringt uns jetzt echt weiter! :hammer:

Gast
2009-02-18, 15:18:22
Und jetzt bitte Beispiele vorlegen.

Es wäre ziemlich traurig, wenn du die nicht schon selbst erkennst. Du weißt doch sicher was Vermutungen, Lügen oder Fakten sind. Ich hoffe es zumindest.

Mit diesem Wissen ist es ein leichtes, sich selbst ein Bild darüber zu machen. Schließlich habe ich genannt, was ich daran bemängele und mehr braucht es dafür nicht.

Dann werden wir gemeinsam die irreführenden Passagen korrigieren.

Und jetzt bitte Beispiele vorlegen. Dann werden wir gemeinsam die irreführenden Passagen korrigieren.

warum wollten wir gemeinsam irgendetwas tun wollen?
Meine Meinungsbildung und das sammeln von Fakten kann ich ganz allein, dafür brauche ich weder einen Artikel noch irgendeinen anderen Menschen auf diesem Planeten. So hat es die letzten paar tausend Jahre funktioniert. Ist das jetzt anders? :)

Ich werde auch keine Zeit damit vergeuden, in deren Foren zu schreiben, weil sich sowieso nichts ändern wird. Die Kritik an den Grafiktests mit unterschiedlichen Treibern hat auch keine Früchte getragen bei denen. Wenn du die Zeit und Lust dazu hast, kannst du ihm das ja beibringen.

Ich finde es jedoch ziemlich unverantwortlich, so viele unbewiesene Behauptungen aufzustellen, weil viele Laien ihn lesen werden und tatsächlich alles glauben werden, was sie so aufschnappen.
Hätte er geschrieben, das DirectX11/OpenCL alles andere ersetzen wird, hätten xx % der Leser ihm das wahrscheinlich auch direkt abgekauft ohne es zu hinterfragen.
Tja, selbst denken und informieren funktioniert heute leider kaum noch..

Mein Standpunkt ist klar, ich denke damit ist alles gesagt.

deekey777
2009-02-18, 15:28:10
Du hast meine Reaktion nicht im geringsten verstanden, deine Antwort ist somit gegenstandslos, weil am Thema vorbei. Vielen Dank für die Bestätigung. :)

Ich bemängele den Schreibstil, fehlende Beweise, nicht den sonstigen Inhalt.

Davon gibt es genügend Auszüge.
Ok...

Was hat die Herkunft mit dem hier und jetzt zu tun? Nachträgliche anderungen sind immer möglich. Er bezeichnet etwas als Lüge, kann aber nichts gegenteiliges beweisen. Ist seine Aussage also auch nur eine Marketing-Lüge?
Vielleicht diesen Thread lesen? Es wurde schon zig mal geschrieben, dass PhysX eine sehr gute Physik-Engine ist. Seine Aussage ist zutreffend.


Da hat der Autor gepennt. Es wird nicht behauptet und als Fakt hingestellt, sondern vermutet.
Das ist ein himmelweiter Unterschied.
Der Autor ist nicht blöd und kennt die Haltung der Leser. Auch hier: Lies diesen Thread, dann weißt du, warum der Autor zu dieser Äußerung kommt. Es gibt zu viele Unbelehrbare, die den Unterschied zwischen API und Library nicht verstehen (wollen).
Daraufhin schreibt er dann:



Woher will er das wissen? Das ist auch nur eine Vermutung und kein Beweis. Er ist also kein Stück besser, als jeder, der das gegenteil vermutet.
Er hat trotzdem Recht. API <-> Library.

Noch dazu ist die Zukunft höchst ungewiß, es wäre nicht die erste Software, Engine, API etc. die aussterben würde und durch nachfolgende ersetzt wird.
Im Forum wurde er mehrfach darauf hingewiesen, das entsprechende Beweise für die Behauptungen nicht erbracht wurden und das wird offenbar - wissentlich - vom Schreiber ignoriert, schließlich hatte er schon geantwortet.
Die meisten Hinweise im Forum sind Gaga.

Dafür müsste man mehrere Jahre in die Zukunft blicken können, kann er aber nicht.
Er stellt Behauptungen auf, die er so nicht beweisen kann und schreibt das sogar in den Artikel.
Was macht seine Aussagen glaubwürdiger als die jeder anderen Person?
Weil er Ahnung hat?
Als Redakteur packt man normalerweise auch keine unbewiesenen Behauptungen und Meinungen in einen Bericht, sondern berichtet lediglich darüber, ob, wie, weswegen etwas so ist oder funktioniert.
Da ist nichts Unbewiesenes oder Spekulatives, sondern logische Gedankengänge.

Ich könnte jetzt auch einen Artikel darüber schreiben und das gegenteil behaupten. Super. Das bringt uns jetzt echt weiter! :hammer:
Mach mal.

BlackBirdSR
2009-02-18, 15:29:24
ich zitiere mal den essentiellen Teil bezüglich PhysX


Zwar kann man mit OpenCL sämtliche OpenCL-kompatiblen Rechenkerne ansprechen, man benötigt jedoch immer noch eine Physik-Bibliothek, die weder OpenCL, noch DirectX 11 mitbringen. Es wird von Microsoft auch kein standardisiertes Direct Physics geben (zumindest vorerst), was von einigen gerne behauptet wird.

deekey777
2009-02-18, 15:31:45
ich zitiere mal den essentiellen Teil bezüglich PhysX
Mein Gott, bist du doof.
MS' Spiele-Abteilung hat ja für eigene Spiele ein Lizenzabkommen mit Intel über die Nutzung von Havok abgeschlossen, ergo wird Havok schon übermorgen zu Direct Physics.

Gast
2009-02-18, 15:32:50
Du hast meine Reaktion nicht im geringsten verstanden, deine Antwort ist somit gegenstandslos, weil am Thema vorbei. Vielen Dank für die Bestätigung. :)

Ich bemängele den Schreibstil, fehlende Beweise, nicht den sonstigen Inhalt.



Der Schreibstil ist absolut einwandfrei, der Artikel enthält quasi nichts spekulatives. Nochmal lesen und verstehen!

Gast
2009-02-18, 15:45:48
Vielleicht diesen Thread lesen? Es wurde schon zig mal geschrieben, dass PhysX eine sehr gute Physik-Engine ist. Seine Aussage ist zutreffend.

Vielleicht nochmal meinen Beitrag lesen? Darum geht es überhaupt NICHT. Langsam kriege ich zweifel, ob es so schwierig ist, einzelne Wörter auseinander zu halten. Unter anderem schrieb ich VERMUTUNGEN - FAKTEN - LÜGEN. Alle DREI sind UNTERSCHIEDLICHE DINGE.
Du gehst nur auf eine Sache davon ein, die anderen von mir bemängelten lässt du einfach unter den Tisch fallen (darum gings), was vorallem den schluß zulässt, das du mich gar nicht verstehen willst.. ist es so?

Im übrigen ist auch dieses Forum voll von von Gerüchten, unwahren Aussagen oder Lügen. Aber das müsstest du als Mod eigentlich wissen. Auch hier ist selbst mitdenken und informieren angesagt.
Dieses Forum ist für mich nicht glaubwürdiger als jedes andere.

Der Autor ist nicht blöd und kennt die Haltung der Leser.

Umso besser, so könnte er die Schwächen der Leserschaft besser ausnutzen, sollte er das vorgehabt haben.
Einfach mal die eigene Meinung in einen Bericht packen, am besten zwischen den Zeilen und schon gibts tausende, die das auch so sehen.

Lies diesen Thread, dann weißt du, warum der Autor zu dieser Äußerung kommt.

Du verstehst offenbar nicht, das es NICHT um dieses Thema geht, sondern NUR um diesen Artikel und um Aussagen OHNE Beweise.

Die meisten Hinweise im Forum sind Gaga.

Einige davon waren berechtigt und auf die ist er gar nicht eingegangen.
Ich bin nicht der einzige, der diesen Artikel bemängelt, es gibt auch andere dort, die folgerichtig mitdachten und sagten, das "nur weil er es dort schreibt, heißt das nicht, das es auch genau so kommt".
Damit haben sie völlig Recht = er hat keine Glaskugel!

Weil er Ahnung hat?

Alle anderen, inklusive dir, haben also keine? Oder worauf wolltest du hinaus?
Ist er der einzige Mensch der Welt der einen klaren Gedanken fassen kann?

Ich würde an deiner Behauptung schonmal etwas grundsätzliches in Frage stellen: Es interessiert mich nicht, was du sagst, es würde mich interessieren, wieviel Ahnung der Schreiber selbst hatte und das von Angesicht zu Angesicht. Alles andere interessiert schlichtweg nicht.
Auch Genies und Wissenschaftlicher irren sich gelegenheitlich... vorallem wenn es um so etwas wie die Zukunft geht.

Da ist nichts Unbewiesenes oder Spekulatives, sondern logische Gedankengänge.

Logische Gedankengänge sind immer noch keine Tatsachen oder Fakten, damit hast du nur bestätigt, was ich schon sagte: Realität oder Fakten sind nicht gleichzusetzen mit Vermutungen.

Gast
2009-02-18, 15:47:07
Der Schreibstil ist absolut einwandfrei, der Artikel enthält quasi nichts spekulatives.

Ich habe dir die Passagen bereits zitiert. Nochmal lesen und verstehen, danke.

Behauptungen die nicht untermauert werden können sind spekulativ.

deekey777
2009-02-18, 15:48:21
Ich habe dir die Passagen bereits zitiert. Nochmal lesen und verstehen, danke.

Behauptungen die nicht untermauert werden können sind spekulativ.
Ok, dann lohnt sich die Diskussion mit dir nicht.