PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - PhysX@NV-GPU-Diskussion


Seiten : 1 2 3 [4] 5 6 7 8 9

][immy
2009-10-22, 00:08:25
Um mal wieder zum eigentlichen thema zu kommen

braucht physX auf der GPU eigentlich viel speicher auf der grafikkarte?
bzw. gibt es dazu irgendwelche zahlen?

ehrlich gesagt verstehe ich immer noch nicht, warum nvidia es nicht zulässt (oder vielleicht haargenau dafür verkauft) das man sich eine nvidia karte ins system steckt um physx zu bekommen und ne andere (wobei es eigentlich nur ati als sinnvolle alternative gibt) für die grafikberechnung.

denn viele käufer wird man vermutlich auf die jetzige art nicht dazu bewegen sich eine nvidia-karte zu kaufen (wobei es dann auch noch high-end sein muss) um physx beschleunigung zu bekommen. aber es gäbe denke ich mal sehr viel mehr potentielle käufer wenn man sie auch nur als pure beschleuniger-karte dazustecken könnte. es muss ja dann keine high-end karte sein, womit man vielleicht auch mehr käufer angeln könnte. zudem würde man mit einer größeren userbasis gegenüber anderen physik-engines aufwarten können.

einziger wermutstropfen dabei, wenn ati mit gpu-beschleunigter havok-physik daherkommen sollten, hätten ati-benutzer mit ner nvidia physx beschleuniger karte einen vorteil gegenüber puren nvidia-systemen. Andererseits hat man dann zumindest schonmal einen fuss in der tür mit der extra-karte.

ansonsten wird hardware-physx bald das gleiche schicksal ereilen wie seinerzeit Glide.

svenw
2009-10-22, 09:00:56
PhysX ist wie die meiste Physik nur Eye-Candy. Sieht gut aus bringt aber nichts (nichts gegen Eye-Candy :smile: ). Das wird sich wahrscheinlich auch in den nächsten 2 Jahren nicht ändern, weil die meisten Titel gleichzeitig als Konsolen und PC Titel entwickelt werden und die Konsolen schon mit einer halbwegs aktuellen Grafik auf dem letzten Loch pfeifen. Da sind keine Leistungsreserven für großartige Physik vorhanden.

Wenn man wirklich einen Physik-Spiel machen würde wäre das demnächst für PCs kein Problem mehr da man neben der eigentlichen Graka immer noch eine billige DirectX Graka als Physikbeschleuniger einstecken kann. z.B. eine 5750 könnte viel mehr Leistung für Physik bereitstellen als man jemals eine High-End Karte zumuten würde. Damit bekommt IMHO zum ersten Mal SLI/Crossfire wirklich Sinn, wenn auch nicht in der Art wie es angedacht war.

Kephis
2009-10-22, 09:39:21
Darauf wirst du von ihm niemals eine Antwort kriegen.

Ontopic:

Hier mal ein Beispiel wie PhysX das Bild atmosphärischer und realistischer macht:

http://www.abload.de/thumb/bild15wro.jpg (http://www.abload.de/image.php?img=bild15wro.jpg)

Habe ich mir eh fast gedacht!;(
Schade, dachte nicht das es wirklich so ist das man eine Hardware Firma als quasi Ersatz Religion sieht, das ist schon leicht ähm beängstigend. Naja solange er keinem weh tut ist es ja nicht weiter schlimm, einfach das selbe machen wie mit den ganzen Freaks in Innerstädtischen Fußgängerzonen, kurz drüber schmunzeln und dann ignorieren. :rolleyes:

Ich überleg grad, wenn es mehrere so Leute gibt könnte Nvidia oder auch ATI/AMD oder Intel gut Kohle mit Merchandise machen. So Nvidia Bettwäsche oder ATI Kaffetasse und so Zeug. :D

Gast
2009-10-22, 11:15:41
[immy;7610790']
denn viele käufer wird man vermutlich auf die jetzige art nicht dazu bewegen sich eine nvidia-karte zu kaufen (wobei es dann auch noch high-end sein muss) um physx beschleunigung zu bekommen. aber es gäbe denke ich mal sehr viel mehr potentielle käufer wenn man sie auch nur als pure beschleuniger-karte dazustecken könnte. es muss ja dann keine high-end karte sein, womit man vielleicht auch mehr käufer angeln könnte. zudem würde man mit einer größeren userbasis gegenüber anderen physik-engines aufwarten können.

Der Anteil derjeniger, die für PhysX eine extra Karte dazustecken können (nicht in jedes Brett passt noch eine) und von denen auch werden ist verschwindend gering.
Praktisch der gesamte OEM Bereich entfällt.

Ist immerhin Vertragsbestandteil, aber klar das jemand der von NV besessen ist keine vernünftige Antwort geben kann.Ageia wird weiter supportet, aber du kannst gerne den Vertragsteil raussuchen, indem steht das Win7 Support gegeben sein wird.

Gast
2009-10-22, 11:17:57
Ich überleg grad, wenn es mehrere so Leute gibt könnte Nvidia oder auch ATI/AMD oder Intel gut Kohle mit Merchandise machen. So Nvidia Bettwäsche oder ATI Kaffetasse und so Zeug. :D
Solang man von den AMD Freunden keine Antwort bekommt, bzw diese immer wieder mit dem selben Blödsinn anrücken wirds auch nicht besser.

boxleitnerb
2009-10-22, 11:40:39
Bloß kein Merchandise! Sehe schon die Schlagzeilen vor mir, wenn man seine Gesinnung so offen zeigt:
NV-ler von AMD-Trupp zusammengeschlagen, Racheakte befürchtet! :freak:

aths
2009-10-22, 11:47:12
Mal aus interesse.
NV hat damals 3dfx gekauft, muss jetzt NVidia auch die 10 Jahres-Garantie der Voodookarten abarbeiten?Nvidia hat 3dfx nicht gekauft. Nvidia hat die 3dfx-Patente, und -Markennamen gekauft. Außerdem wurden etwa 100 der 200 3dfx-Mitarbeiter bei Nvidia eingestellt.

Mr. Lolman
2009-10-22, 11:57:23
Darauf wirst du von ihm niemals eine Antwort kriegen.

Ontopic:

Hier mal ein Beispiel wie PhysX das Bild atmosphärischer und realistischer macht:

http://www.abload.de/thumb/bild15wro.jpg (http://www.abload.de/image.php?img=bild15wro.jpg)


Dazu braucht man kein PhysX. Der PhysX-Hack für Batman beweist, dass man das auch auf ner CPU berechnen kann. (sogar ohne spezielle Mehrkernoptimierung). Hab die gehackte Batmanversion sogar selbst schon gespielt. Wären die Abstürze nicht (wegen Fehler der Hacks in Verbindung mit dem Kopierschutz), könnte mans ohne Probleme so zocken.

Außerdem hab ich mit Crysis-Testlevels schon bewiesen, dass man ohne Probleme >1500 Objekte physikalisch korrekt von der CPU berechnen lassen kann.

LovesuckZ
2009-10-22, 12:04:09
Dazu braucht man kein PhysX. Der PhysX-Hack für Batman beweist, dass man das auch auf ner CPU berechnen kann. (sogar ohne spezielle Mehrkernoptimierung). Hab die gehackte Batmanversion sogar selbst schon gespielt. Wären die Abstürze nicht (wegen Fehler der Hacks in Verbindung mit dem Kopierschutz), könnte mans ohne Probleme so zocken.

Richtig, wenn man kein Probleme hat, dass die Berechnungen nicht mehr sauber durchgeführt werden und es somit zu Fehldarstellungen kommt.


Außerdem hab ich mit Crysis-Testlevels schon bewiesen, dass man ohne Probleme >1500 Objekte physikalisch korrekt von der CPU berechnen lassen kann.

Dann sage es den Entwicklern. Die scheinen wohl diese weltbewegende Entdeckung noch nicht gesehen zu haben.

Mr. Lolman
2009-10-22, 12:19:15
Richtig, wenn man kein Probleme hat, dass die Berechnungen nicht mehr sauber durchgeführt werden und es somit zu Fehldarstellungen kommt.

Kommen kann. Einmal ist ein Blatt Papier am Schuh hängen geblieben. Nach ein paar Schritten hat sichs wieder gelöst (und Halb so wild, imo.

Dann sage es den Entwicklern. Die scheinen wohl diese weltbewegende Entdeckung noch nicht gesehen zu haben.

Welchen? Denen im TWIMTBP-Programm? Oder denen, die eigentlich nur billige Konsolenports machen wollen? Oder gar den Restlichen, die drauf bedacht sind, dass ihre Software auf allen möglichen PCs gut läuft und keine Zeit damit verschwenden wollen Quadcore-CPUs mal halbwegs ordentlich auszulasten? ;)

Gast
2009-10-22, 12:44:26
Außerdem hab ich mit Crysis-Testlevels schon bewiesen, dass man ohne Probleme >1500 Objekte physikalisch korrekt von der CPU berechnen lassen kann.
Hat niemand bezweifelt, das ohne GPU keinerlei Physik möglich ist.

Allerdings ist es wohl ein Fakt, das standard mäßig kein Titel, egal ob Software Havok oder Software PhysX derart viele Objekte loslässt.

|-Sh0r7y-|
2009-10-22, 13:17:45
Dazu braucht man kein PhysX. Der PhysX-Hack für Batman beweist, dass man das auch auf ner CPU berechnen kann. (sogar ohne spezielle Mehrkernoptimierung). Hab die gehackte Batmanversion sogar selbst schon gespielt. Wären die Abstürze nicht (wegen Fehler der Hacks in Verbindung mit dem Kopierschutz), könnte mans ohne Probleme so zocken.

Außerdem hab ich mit Crysis-Testlevels schon bewiesen, dass man ohne Probleme >1500 Objekte physikalisch korrekt von der CPU berechnen lassen kann.
http://www.youtube.com/watch?v=YG5qDeWHNmk
Find ich schon beeindruckend.

Find aber um mal Partei zu ergreifen das getrolle einiger ATI verliebte echt süss ^^
So ein geheule nur weil mit günstig ATI Produkte nix funktioniert.
Nvidia ist Schuld am 3DFX tot, Nvidia ist schuld das ATI KArten bei jeden 2ten Spiel abstürzen, Grafikfehler Anzeigen, Inkompatibel sind, einige Entwickler nur für Nvidia Optimieren... wieso kauft ihr euch keine Nvidia wenn ATI so schlecht ist :D
Vielleicht gehen die Effekte ohne PhysX ja genau so gut, vielleicht ist es nur EyeCandy und vielleicht, nur vielleicht bevorzugen die Entwickler mit PhysX wirklich Nvidia Karten, aber vielleicht ist es auch einfach nur leichter mit PhysX diese Effekte ins Spiel einzubauen.
Klingt ein wenig nach OpenGL vs. DirectX, das hatten wir vor jahren auch schonmal.
Kauft euch ne Nvidia:P

PulsarS
2009-10-22, 13:20:12
Hat niemand bezweifelt, das ohne GPU keinerlei Physik möglich ist.

Allerdings ist es wohl ein Fakt, das standard mäßig kein Titel, egal ob Software Havok oder Software PhysX derart viele Objekte loslässt.
Du hast die Intention von Mr. Lolman nicht verstanden.

Er wollte damit sagen, dass für die Sachen, die wir zur Zeit in Sachen Physik geboten bekommen, PhysX@GPU nicht unbedingt notwendig ist.
Es geht auch ohne.
Ich hoffe mich verständlich genug ausgedrückt zu haben. :)

Gast
2009-10-22, 13:30:43
http://www.youtube.com/watch?v=YG5qDeWHNmk
Find ich schon beeindruckend.

Find aber um mal Partei zu ergreifen das getrolle einiger ATI verliebte echt süss ^^
So ein geheule nur weil mit günstig ATI Produkte nix funktioniert.
Nvidia ist Schuld am 3DFX tot, Nvidia ist schuld das ATI KArten bei jeden 2ten Spiel abstürzen, Grafikfehler Anzeigen, Inkompatibel sind, einige Entwickler nur für Nvidia Optimieren... wieso kauft ihr euch keine Nvidia wenn ATI so schlecht ist :D
Vielleicht gehen die Effekte ohne PhysX ja genau so gut, vielleicht ist es nur EyeCandy und vielleicht, nur vielleicht bevorzugen die Entwickler mit PhysX wirklich Nvidia Karten, aber vielleicht ist es auch einfach nur leichter mit PhysX diese Effekte ins Spiel einzubauen.
Klingt ein wenig nach OpenGL vs. DirectX, das hatten wir vor jahren auch schonmal.
Kauft euch ne Nvidia:P
Warst Du nicht die Uschi mit den Tausend Problemen die wir für Dich lösen sollten weil Du einfach keinen Plan von gar nix hast? Du solltest respektieren dass nicht jedem die PhysX Effekte wichtig sind - ich persönlich werde mir aber bei Gelegenheit eine kleine NV Karte für die Effekte gönnen.

PulsarS
2009-10-22, 13:34:20
So riesig nun auch wieder nicht. An der API hat sich eigentlich nur an zwei Stellen was getan und das sind die CS (die auch auf 10.0- und 10.1-Hardware eingeschränkt laufen) und Tesselation.

Da fand ich rein aus meiner Perspektive D3D10 viel beeindruckender. Aber das lag wohl eher an der Überarbeitung der API, von der Endkunden nicht viel mitbekommen.
Kann ich mir schon vorstellen, das aus Deiner Perspektive DX10 schon ein großer Wurf war.
Da wurde ja auch die gesamte Struktur von DX und Treibermodell erneuert.
Mit DX10 kann man auch viele Sachen komfortabler programmieren, klar.
Was die Effekte für den Endkunden angeht, kommt mit DX11 schon etwas Neues, was vielleicht sogar das Gameplay verbessern wird.
Mutithreading ist auch nicht zu verachten.
Wobei wohl am meisten von CS und Tesselation zu erwarten ist, was die Effekte angeht. ;)

Was sicherlich viel bei DX10 gebracht hat/bringen kann/wird, ist die Entlastung der CPU.
Bei Anno 1404 sieht man es überdeutlich.

Gast
2009-10-22, 13:35:35
Du hast die Intention von Mr. Lolman nicht verstanden.

Er wollte damit sagen, dass für die Sachen, die wir zur Zeit in Sachen Physik geboten bekommen, PhysX@GPU nicht unbedingt notwendig ist.
Es geht auch ohne.
Ich hoffe mich verständlich genug ausgedrückt zu haben. :)

Hast du überhaupt die Beschreibung der Crysis Barrel-vids auf YT gelesen?

"I made this video just for fun in one day.
The real framerate without rendering was around 0.2, that means every 5 seconds a picture in some parts, so its not playable in realtime with this amount of barrels in the year 2008.
To get this smooth video, i recorded each frame and processed all pictures to a 30 frame/sec. video"

Soviel zu "es geht auch ohne".

LovesuckZ
2009-10-22, 13:48:01
Kommen kann. Einmal ist ein Blatt Papier am Schuh hängen geblieben. Nach ein paar Schritten hat sichs wieder gelöst (und Halb so wild, imo.

Tja, ich hatte interessantere Entdeckungen in der Demo - schwerelose Blätter, Kaugummiblätter, feherhafte Nebelberechnungen, Mumien-Batman...
Tut mir leid, aber sowas nannte man früher auch Cheating...


Welchen? Denen im TWIMTBP-Programm? Oder denen, die eigentlich nur billige Konsolenports machen wollen? Oder gar den Restlichen, die drauf bedacht sind, dass ihre Software auf allen möglichen PCs gut läuft und keine Zeit damit verschwenden wollen Quadcore-CPUs mal halbwegs ordentlich auszulasten? ;)

Also ist deine weltbewegende Entwickung komplett praxisfern? Es ist immer einfach auf GPU-PhysX rumzuhacken, wenn man in der AMD Fraktion sitzt und meint, dass 5000 Barrels in einem Demo-Level ohne Bezug zum eigentlich Spiel eine tolle Alternative darstellt. Wäre das das ganze so gut und einsetzbar, wir würden es in fast jedem Spiel sehen.

|-Sh0r7y-|
2009-10-22, 13:48:40
Warst Du nicht die Uschi mit den Tausend Problemen die wir für Dich lösen sollten weil Du einfach keinen Plan von gar nix hast? Du solltest respektieren dass nicht jedem die PhysX Effekte wichtig sind - ich persönlich werde mir aber bei Gelegenheit eine kleine NV Karte für die Effekte gönnen.
Uschi mit den tausend problemen ^^
Ne der bin ich zum Glück nicht :-)
Biste ein Gast der ausgeloggt gerne Anonym blöde sprüche verteilt und glaubt sich so alles erlauben zu können?

Wer kein PhysX will kauft halt ne ATI Karte und muss eventuell damit rechnen das Nvidia Optimierte Spiele nicht so gut laufen.
Es gab ne zeit da hatte ATI ein Trueform und das funktionierte auch mit Nvidia nicht.
Hat mich nicht gestört weil es immer funktionen gibt die der eine hat und der andere nicht.
ATI Muss einfach sich was besseres ausdenken oder mitspielen oder warten bis die Technik veraltet ist oder in Direkt X integriert wurde.

QUOTE=Gast;7611577]Warst Du nicht die Uschi mit den Tausend Problemen die wir für Dich lösen sollten weil Du einfach keinen Plan von gar nix hast? Du solltest respektieren dass nicht jedem die PhysX Effekte wichtig sind[/QUOTE]
Vielleicht sollte man auch Respektieren das manchen Hersteller diese Spielerei wichtig sind.

PulsarS
2009-10-22, 13:58:08
Hast du überhaupt die Beschreibung der Crysis Barrel-vids auf YT gelesen?

"I made this video just for fun in one day.
The real framerate without rendering was around 0.2, that means every 5 seconds a picture in some parts, so its not playable in realtime with this amount of barrels in the year 2008.
To get this smooth video, i recorded each frame and processed all pictures to a 30 frame/sec. video"

Soviel zu "es geht auch ohne".
Ich habs mir angesehen und auch die Beschreibung gelesen.
Und?
Sowas ist vielleicht als eine Demo gut, aber nicht wirklich spielrelevant.
Ich will Physik in Spielen, die mir beim Gameplay was bringt.
Wegen der ganzen Diskussion habe ich mir mal (wieder) HL2 angesehen.
Meisterwerk!
So sollte die Physik in ein Spiel eingebunden werden.
Ich hoffe, dass durch CS nun der Durchbruch kommt und wir wirklich Physik in Spielen sehen, die das Gameplay auf ein neues Niveau bringen. :)

LovesuckZ
2009-10-22, 13:59:17
Und was hat Gameplay-Physik mit Effekt-Physik über die GPU zu tun? :rolleyes:

Gast
2009-10-22, 14:05:30
Ageia wird weiter supportet, aber du kannst gerne den Vertragsteil raussuchen, indem steht das Win7 Support gegeben sein wird.

Ich hab da von den Voodoo-Karten gesprochen, die hatten 10Jahre Werksgarantie. Eigentlich müsste NV dafür immer noch erreichbar sein, weil 3dfx aufgekauft wurde.

Mr. Lolman
2009-10-22, 14:08:28
Hast du überhaupt die Beschreibung der Crysis Barrel-vids auf YT gelesen?

"I made this video just for fun in one day.
The real framerate without rendering was around 0.2, that means every 5 seconds a picture in some parts, so its not playable in realtime with this amount of barrels in the year 2008.
To get this smooth video, i recorded each frame and processed all pictures to a 30 frame/sec. video"

Soviel zu "es geht auch ohne".

Das hier war aber Realtime: http://tinypic.com/player.php?v=hsuq75&s=5
(Fraps hat zusätzlich noch etwas gebremst)

Gast
2009-10-22, 14:09:07
Und was hat Gameplay-Physik mit Effekt-Physik über die GPU zu tun? :rolleyes:

Physik, vielleicht?
Erkenne wenigstens Offensichtliches wenn dir der Sinn für abstrakte Vorgänge fehlt.

LovesuckZ
2009-10-22, 14:13:32
Physik, vielleicht?
Erkenne wenigstens Offensichtliches wenn dir der Sinn für abstrakte Vorgänge fehlt.

Ah - du meinst die Physik, die für die physikalischen Berechnungen von einzelne Objekte angewendet wird, die keinen Einfluss auf das Gameplay hat?
Aber dann können wir diese Physik gleich mit dieser Grafik in die Tonne kloppen, die Dinge runder macht. ;D

Gast
2009-10-22, 14:17:25
http://www.youtube.com/watch?v=YG5qDeWHNmk
Find ich schon beeindruckend.



Hast Du den Seitenkasten dazu auch gelesen?

Gast
2009-10-22, 14:18:00
Nvidia ist Schuld am 3DFX tot,...

Jeder leistet seinen Beitrag


...Nvidia ist schuld das ATI KArten bei jeden 2ten Spiel abstürzen...

Macht meine Geforce auch, trotz TWIMTBP.


..., Grafikfehler Anzeigen,...

Ist mir neu



...Inkompatibel sind,...

Zu was bitte?


einige Entwickler nur für Nvidia Optimieren...
Ist das etwa falsch? Rockstar zum Beispiel hat das faktisch gemacht.

Der Aktionismus NVs in letzter Zeit zeigt doch, dass dies durchaus in ihr Verhaltensschema passt.

Gast
2009-10-22, 14:18:48
Ich hab da von den Voodoo-Karten gesprochen, die hatten 10Jahre Werksgarantie. Eigentlich müsste NV dafür immer noch erreichbar sein, weil 3dfx aufgekauft wurde.
aths Beiträg überlesen?

3dfx wurde nicht aufgekauft.

PulsarS
2009-10-22, 14:23:19
Und was hat Gameplay-Physik mit Effekt-Physik über die GPU zu tun? :rolleyes:
Willst du damit sagen, dass man keine Gameplay-Physik über die GPU machen kann?

Gast
2009-10-22, 14:24:11
Ah - du meinst die Physik, die für die physikalischen Berechnungen von einzelne Objekte angewendet wird, die keinen Einfluss auf das Gameplay hat?
Aber dann können wir diese Physik gleich mit dieser Grafik in die Tonne kloppen, die Dinge runder macht. ;D


Warum hat sie das nicht?

Schmeiß ich im betagten Half-Life 2 eine Mülltonne mit Inhalt um so agiert der Inhalt mit der Umgebung und so mit mir. Dagegen in PhysX nicht, oder etwa doch?
Wird die Tonne beim rumkullern von den Dosen behindert wie in HL2?
Wenn ja, nimmt die Physik doch einfluss auf das Spielgeschehen, wenn nein ist sie unrealistisch und vermindert die Immersion.


Aber dann können wir diese Physik gleich mit dieser Grafik in die Tonne kloppen, die Dinge runder macht. ;D

"5 = 33" ist genauso logisch wie deine Antwort und im Gegensatz dazu noch grammatikalisch korrekt.

LovesuckZ
2009-10-22, 14:25:38
Willst du damit sagen, dass man keine Gameplay-Physik über die GPU machen kann?

Wenn es da stünde, dann ja. Da es dort nicht steht, ist es nett, wenn du die Frage beantworten könntest.

Gast
2009-10-22, 14:25:47
aths Beiträg überlesen?

3dfx wurde nicht aufgekauft.

Willst du darauf eingehen, dass ich mir einen 39-seitigen Thread nicht komplett durchlese?

Aber mal aus interesse, was wurde es dann?

Gast
2009-10-22, 14:29:20
Warum hat sie das nicht?

Schmeiß ich im betagten Half-Life 2 eine Mülltonne mit Inhalt um so agiert der Inhalt mit der Umgebung und so mit mir. Dagegen in PhysX nicht, oder etwa doch?
Wird die Tonne beim rumkullern von den Dosen behindert wie in HL2?
Wenn ja, nimmt die Physik doch einfluss auf das Spielgeschehen, wenn nein ist sie unrealistisch und vermindert die Immersion.

Was willst du uns sagen?

Das HL2 nach all den Jahren immer noch ein Maßstab für interaktive Physik ist?
Traurig und in Zukunft wird sich das auch nicht sehr bald ändern.

Was das mit PhysX, das die Spiele hübscher macht zu tun hat kannst du uns gerne erklären.

Gast
2009-10-22, 14:29:59
Willst du darauf eingehen, dass ich mir einen 39-seitigen Thread nicht komplett durchlese?

Aber mal aus interesse, was wurde es dann?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7611332&postcount=757

|-Sh0r7y-|
2009-10-22, 14:42:06
Jeder leistet seinen Beitrag



Macht meine Geforce auch, trotz TWIMTBP.



Ist mir neu




Zu was bitte?


Ist das etwa falsch? Rockstar zum Beispiel hat das faktisch gemacht.

Der Aktionismus NVs in letzter Zeit zeigt doch, dass dies durchaus in ihr Verhaltensschema passt.
Grafikfehler = Anno 1404 (aktuelles Beispiel)
Need for Speed Shift, GTA 4, Batman etc.
Manche liefen von anfang an garnicht, haben kein AA, laufen mit schlechter Speed oder es gibt Massive Grafikfehler.

Gut aus der sicht eines ATI besitzers ist es vielleicht nicht so tragisch, GTA ist eh nen sau schlechter Port, Anno 1404 die ausnahme und Shift läuft ja nur halt nicht so gut wie auf Nvidia Karten.
Batman AA wird bestimmt schon behoben sein denk ich mal und PhysX in Batman braucht ein ATI User nicht unbedingt solange sie keinen nachteil haben.

PhysX braucht seine Zeit.

Nazar
2009-10-22, 15:05:52
http://www.youtube.com/watch?v=YG5qDeWHNmk
Find ich schon beeindruckend.

Find aber um mal Partei zu ergreifen das getrolle einiger ATI verliebte echt süss ^^
So ein geheule nur weil mit günstig ATI Produkte nix funktioniert.
Nvidia ist Schuld am 3DFX tot, Nvidia ist schuld das ATI KArten bei jeden 2ten Spiel abstürzen, Grafikfehler Anzeigen, Inkompatibel sind, einige Entwickler nur für Nvidia Optimieren... wieso kauft ihr euch keine Nvidia wenn ATI so schlecht ist :D
Vielleicht gehen die Effekte ohne PhysX ja genau so gut, vielleicht ist es nur EyeCandy und vielleicht, nur vielleicht bevorzugen die Entwickler mit PhysX wirklich Nvidia Karten, aber vielleicht ist es auch einfach nur leichter mit PhysX diese Effekte ins Spiel einzubauen.
Klingt ein wenig nach OpenGL vs. DirectX, das hatten wir vor jahren auch schonmal.
Kauft euch ne Nvidia:P

Hier scheinst Du eher ein Problem zu haben, als die Besitzer von ATI 3D Beschleunigern!
Als Troll andere als Trolle zu betiteln, ist schon recht.. kindisch?!

Die Frage die doch im Raum steht ist, weshalb stellt NV PhysX nicht als OS zur Verfügung, wenn Sie an der Verbreitung dieser Technik interessiert sind?
Das ATI oder andere Hersteller von Grafikkarten, nicht noch Geld bezahlen werden, um NVs Alleingang zu finanzieren, sollte klar sein.
Auch muss sich für die Spieleentwickler UND vor allem den Spielern, der Aufwand/Spielerfahrung rechnen.
So lange die physikalischen Mittel nicht spielfördernd sind oder sogar ohne große/keine Verluste durch schon bekannte Mittel zu erreichen sind, hat ein PhysiX NV only keinerlei Zukunft!
Diesen Umstand kann nur NV ändern! Kostenlosen Zugang zu PhysiX wäre das schnellste Mittel, legt aber auch die Gefahr da, dass dann ATI noch mehr Kunden von NV wegzieht.. ! Aber es geht wahrscheinlich nicht anders. Spieleentwickler werden sich hüten, ATI Karten Besitzer als Kunden zu verprellen. Auch wird es wohl kaum so kommen, dass die Spieleentwickler 2 Physikengines anbieten werden; die Kosten wären wohl viel zu hoch.
Wenn NV sich also nicht entschließt PhysikX aggressiv zu vermarkten und damit auf Geld zu verzichten, wird PhysiX nur eine Spielerei bleiben!

Mr. Lolman
2009-10-22, 15:05:54
Grafikfehler = Anno 1404 (aktuelles Beispiel)
Need for Speed Shift, GTA 4, Batman etc.
Manche liefen von anfang an garnicht, haben kein AA, laufen mit schlechter Speed oder es gibt Massive Grafikfehler.

Gut aus der sicht eines ATI besitzers ist es vielleicht nicht so tragisch, GTA ist eh nen sau schlechter Port, Anno 1404 die ausnahme und Shift läuft ja nur halt nicht so gut wie auf Nvidia Karten.
Batman AA wird bestimmt schon behoben sein denk ich mal und PhysX in Batman braucht ein ATI User nicht unbedingt solange sie keinen nachteil haben.

PhysX braucht seine Zeit.

1. Grafikfehler gabs in Anno unter DX10, ist aber schon behoben.
2. Wo ist das Problem bei Shift? Die min.fps sind um ~30% höher als bei der GTX und um ~65% höher als bei der HD4890: http://www.hardocp.com/image.html?image=MTI1MzU4OTM1NVlDbXBla3ZKZm5fMTBfNF9sLmdpZg==
3. GTA4 lief ohne Probleme als es offiziell zu kaufen war.
4. Schon der nächste Treiber konnte AA in Batman aktivieren lassen. In der Demo konnte man sogar noch mittels 3D-Analyze Batman vortäuschen, dass eine NV-Karte im Rechner sei und plötzlich lies sich Ingame-AA ohne Probleme auswählen und aktivieren.

Gast
2009-10-22, 15:08:17
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7611332&postcount=757

Kann man das auch mal ordentlich belegen?
Ich sehe hier nur die Aussage von Aths vs. alle News die einen direkten Kauf von 3Dfx angeben.

Gast
2009-10-22, 15:14:26
Was willst du uns sagen?

Das HL2 nach all den Jahren immer noch ein Maßstab für interaktive Physik ist?
Traurig und in Zukunft wird sich das auch nicht sehr bald ändern.

Was das mit PhysX, das die Spiele hübscher macht zu tun hat kannst du uns gerne erklären.

Naja bei HL2 gibt es anscheinend gar keine Effektphysik, denn alles interagier miteinander und ist somit realistischer. Genauso jedes ander Spiel dieser Coleur zB. Crysis.
Hier zieht PhysX aber ganz dick den Kürzeren.

Gast
2009-10-22, 15:14:30
Kann man das auch mal ordentlich belegen?
Ich sehe hier nur die Aussage von Aths vs. alle News die einen direkten Kauf von 3Dfx angeben.
http://de.wikipedia.org/wiki/3dfx
?

LovesuckZ
2009-10-22, 15:19:55
Naja bei HL2 gibt es anscheinend gar keine Effektphysik, denn alles interagier miteinander und ist somit realistischer. Genauso jedes ander Spiel dieser Coleur zB. Crysis.
Hier zieht PhysX aber ganz dick den Kürzeren.

Interaktion gibt es auch mit GPU-PhysX.

Gast
2009-10-22, 15:22:19
Naja bei HL2 gibt es anscheinend gar keine Effektphysik, denn alles interagier miteinander und ist somit realistischer. Genauso jedes ander Spiel dieser Coleur zB. Crysis.
Hier zieht PhysX aber ganz dick den Kürzeren.
Stimmt, bei Crysis gibt es keinerlei Effekte, wenn man z.b. Löcher in den Sand ballert. :rolleyes:

|-Sh0r7y-|
2009-10-22, 15:36:32
1. Grafikfehler gabs in Anno unter DX10, ist aber schon behoben.
2. Wo ist das Problem bei Shift? Die min.fps sind um ~30% höher als bei der GTX und um ~65% höher als bei der HD4890.
3. GTA4 lief ohne Probleme als es offiziell zu kaufen war.
4. Schon der nächste Treiber konnte AA in Batman aktivieren lassen. In der Demo konnte man sogar noch mittels 3D-Analyze Batman vortäuschen, dass eine NV-Karte im Rechner sei und plötzlich lies sich Ingame-AA ohne Probleme auswählen und aktivieren.
Bei GTA erinnere ich mich noch sehr gut das viele ATI user im GTA Sub Forum probleme hatten und auf ein Patch gewartet haben.
Als Shift rausgekommen ist gab es da doch so ein fps limit egal wie stark die Karte gewesen ist auf seiten ATI.
Bei Anno stand in 5xxx test der ATI Karten "Grafikfehler"
Klar inzwischen sind die fehler alle behoben worden ich will ja auch nur sagen das vieles an anfang bei ATI schwierigkeiten macht.
Ich will ja auch nicht groß drauf rumreiten aber wieso gegen ein neues Future von Nvidia so geschimpft wird versteh ich beim besten willen nicht.
Sie haben PhysX und es wird genutzt.
Das ATI da nicht mitmachen will oder kann ist ja schade für die ATI leute aber es zwingt ja niemand eine ATI zu kaufen.
Gekauft wird doch was am ende die bessere leistung erzielt und nicht von welchen Hersteller.
Ich sehe kein Grund wieso ne ATI gekauft werden sollte außer vielleicht Preis und die jetzt Aktuelle schnellste Singel Karte.
Bei ME geht die FPS ja doch gleich ein gutes stück nach oben beim PhysX aktivieren, und ich finde es gut das Nvidia es kostenlos später noch für die 8800er Aktiviert hat anstadt es als neue Funktion für die nächste Generation zu verkaufen.
Sicher nur wegen der schnelleren verbreitung aber das stört mich nun nicht.

Gast
2009-10-22, 16:02:19
Interaktion gibt es auch mit GPU-PhysX.

Also ist sie doch spielentscheidend, oder?

Gast
2009-10-22, 17:31:16
Bei GTA erinnere ich mich noch sehr gut das viele ATI user im GTA Sub Forum probleme hatten und auf ein Patch gewartet haben.

Siehste ein Hersteller der für ATI-Karten weder optimiert noch auf Kompatibilität geachtet hat.
Übrigens hatten GF7-Besitzer ganz ähnliche Probleme.



Als Shift rausgekommen ist gab es da doch so ein fps limit egal wie stark die Karte gewesen ist auf seiten ATI.


Hat das ATI eingebaut?


Bei Anno stand in 5xxx test der ATI Karten "Grafikfehler"


Wieder ein Entwickler der nicht auf Kompatibilität geachtet hat.


Klar inzwischen sind die fehler alle behoben worden ich will ja auch nur sagen das vieles an anfang bei ATI schwierigkeiten macht.


Zu meinen ATI-Zeiten (R300-R350) war es ganau anders herum, für beinah jedes neues Spiel brauchte man bei NV einen neuen Treiber damit sie überhaupt ordentlich liefen. Dagegen liefen die Spiele auf meiner ATI selbst mit älteren Treibern einwandfrei.
Jetzt habe ich wieder eine Geforce und kenne die neuen ATI-Karten garnicht, denke mal nicht, dass es da so viel schlimmer ist.


Ich will ja auch nicht groß drauf rumreiten aber wieso gegen ein neues Future von Nvidia so geschimpft wird versteh ich beim besten willen nicht.
Sie haben PhysX und es wird genutzt.


Es wird kritisiert, dass PhysX nur Makulatur. Gerade genug um alle anderen auszuschließen, dabei nicht einmal seine Möglichkeiten anzukratzen.
So wie es jetzt ist ist es weder Fisch noch Fleisch.
Reine Effektphysik die ihren Vorteil durch fehlende Interaktion wieder verspielt.


Das ATI da nicht mitmachen will oder kann ist ja schade für die ATI leute aber es zwingt ja niemand eine ATI zu kaufen.


Darum geht es hier auch garnicht. Hier wird nicht ATI gelobt sondern NVidia kritisiert.
Das ATI bis jetzt nichts Vernünftiges im Bereich GPU-Physik auf die Beine gestellt ist ebenfalls kritikwürdig.


Gekauft wird doch was am ende die bessere leistung erzielt und nicht von welchen Hersteller.

Richtig


Ich sehe kein Grund wieso ne ATI gekauft werden sollte außer vielleicht Preis und die jetzt Aktuelle schnellste Singel Karte.


Deine Meinung.

Ich sehe auch noch das bessere Feature-Set in DX11, günstiges 8xMSAA, einen kostenlosen GPU-Videokonverter, bessere HD-Video-Beschleunigung, niedrigerer IDLE-Verbrauch und eine leise Lüfterlösung.



Bei ME geht die FPS ja doch gleich ein gutes stück nach oben beim PhysX aktivieren, und ich finde es gut das Nvidia es kostenlos später noch für die 8800er Aktiviert hat anstadt es als neue Funktion für die nächste Generation zu verkaufen.
Sicher nur wegen der schnelleren verbreitung aber das stört mich nun nicht.

Nun ja, ich merke den Unterschied zwischen HW-PhysX an oder aus erst wenn ich eine Scheibe zerstöre.
Sie hätten die Fahnen und anderen Stoff/Folien-Gegenstände auch für PhysX-Low aktivieren können. Bzw. die Effekte separat zuschaltbar und regelbar gestalten.
So das die Sachen nicht einfach komplett weg sind, sondern reduziert werden. UND DAS WIRD KRITISIERT!!!

PulsarS
2009-10-22, 17:52:39
Wieder ein Entwickler der nicht auf Kompatibilität geachtet hat. *(auf Anno 1404 bezogen)

Das stimmt nicht.
Bei Anno 1404 hat ATI wirklich einen heftigen Bug im DX10-Modus (Seit Cat 9.8 AFAIK) gehabt.
Da kann der Entwickler nichts für.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=464906

So einen schwerwiegenden Fehler habe ich bei ATI aber AFAIR schon seit Jahren nicht mehr mitbekommen.
Spiele-Entwicklermurks mal außen vor. :rolleyes:

*Anmerkung von mir

Gast
2009-10-22, 17:56:40
Reine Effektphysik die ihren Vorteil durch fehle
So wie die reine Effektgrafik.
Gruselig das es sowas gibt. Nieder mit D3D11.


Ich sehe auch noch das bessere Feature-Set in DX11, günstiges 8xMSAA, einen kostenlosen GPU-Videokonverter, bessere HD-Video-Beschleunigung, niedrigerer IDLE-Verbrauch und eine leise Lüfterlösung.

Effektgrafik mit der man nicht interagieren kann, sind nicht der Grund.
BQ an sich ist auch irrelevant, sieht doch keiner, siehe AF. Da kannst du nicht behaupten das hässliches 8xMSAA ohne geglättete Texturen Shader oder Alphatexturen in irgendeiner Form von Bedeutung sei.


Darum geht es hier auch garnicht. Hier wird nicht ATI gelobt sondern NVidia kritisiert.
Das ATI bis jetzt nichts Vernünftiges im Bereich GPU-Physik auf die Beine gestellt ist ebenfalls kritikwürdig.

AMD wird automatisch gelobt.
GPU PhysX ist nunmal das Abgrundtief Böse.
Das AMD keinerlei Bestrebungen in irgendeiner Richtung gezeigt hat oder das es abseits von GPU PhysX keinerlei Fortschritt im Physik Bereich gibt, wird gerne übersehen.

Wo ist denn das Crysis mit 10000 Fässern? Wo ist das HL3?
Ich seh nichts, ich seh nur wie Effektphysik völlig in die Tonne getreten wird, während Effektgrafik super toll wichtig ist und eine interaktive Physik nicht in den nächsten 20 Jahren eintrudeln wird.


Nun ja, ich merke den Unterschied zwischen HW-PhysX an oder aus erst wenn ich eine Scheibe zerstöre.
Sie hätten die Fahnen und anderen Stoff/Folien-Gegenstände auch für PhysX-Low aktivieren können. Bzw. die Effekte separat zuschaltbar und regelbar gestalten.
So das die Sachen nicht einfach komplett weg sind, sondern reduziert werden. UND DAS WIRD KRITISIERT!!! So wie Batman es gemacht hat, 3 Stufen: Aus, mittel und high.
Na dann mach dich mal stark, das die Entwickler nutzlose Effektphysik auch für dich in abgeschwächter zugänglich machen.

Aber in Zusammenhang mit PhysX oder gar Nvidia steht dein Wunsch nicht.

Gast
2009-10-22, 18:41:18
LovesuckZ log dich ein!

So wie die reine Effektgrafik.
Gruselig das es sowas gibt. Nieder mit D3D11.
.

Nö, die Effektgrafik tut was sie soll, die Effektphysik nicht wirklich.



Effektgrafik mit der man nicht interagieren kann, sind nicht der Grund.
BQ an sich ist auch irrelevant, sieht doch keiner, siehe AF. Da kannst du nicht behaupten das hässliches 8xMSAA ohne geglättete Texturen Shader oder Alphatexturen in irgendeiner Form von Bedeutung sei.


Hach, schön LovesuckZ. Weiche nur aus wenn du in die enge getrieben wirst, hilft dir leider nicht.



AMD wird automatisch gelobt.
GPU PhysX ist nunmal das Abgrundtief Böse.
Das AMD keinerlei Bestrebungen in irgendeiner Richtung gezeigt hat oder das es abseits von GPU PhysX keinerlei Fortschritt im Physik Bereich gibt, wird gerne übersehen.
.

Paranoia?
Du denkst wohl immer in Schwarz und in Weiss. Jeder der das was NV macht nicht gut findet, liebt automatisch AMD?
Vielleicht mag ich ja S3 lieber und finde AMD auch ganz doof.

Es ist war, das AMD außer Techdemos nichts Spielerelevantes gebracht hat.
Ich denke aber nicht das sie untätig sind, schließlich machen sie jetzt bei Bullet mit. OpenCL und CS sind das zukünftige Spielfeld aller Spiele-Graka-Hersteller.


Wo ist denn das Crysis mit 10000 Fässern? Wo ist das HL3?
Ich seh nichts, ich seh nur wie Effektphysik völlig in die Tonne getreten wird, während Effektgrafik super toll wichtig ist und eine interaktive Physik nicht in den nächsten 20 Jahren eintrudeln wird.


Steck ne Banane in dein Ohr.

Warum erst in 20 Jahren?
NV selber plant nicht bei reiner Effektphysik zu bleiben und du bestimmst was zu machen ist?
Mit Effektphysik wird der Markt klar gemacht und dann kommt das was man dann auch als wirklich sinnvoll bezeichnen kann, komplexe spielerelevante Physik.




So wie Batman es gemacht hat, 3 Stufen: Aus, mittel und high.
Na dann mach dich mal stark, das die Entwickler nutzlose Effektphysik auch für dich in abgeschwächter zugänglich machen.


Jap so ähnlich, am besten wenn man Anzahl der Partikel und das Vorkommen bestimmter Effekte einzeln Regeln könnte.
Dann könnte sich derjenige mit einer dicken Geforce an vollem PhysX erfreuen und der ohne kann das Spiel mit Effekten genießen, die man sonst auch auf der CPU berechnet hat.
Man kann im ja die paar Elektrofunken und Fahnen gönnen.
Wenn dann ab und zu ein paar Nebelschwaden vorbeiziehen würden, wäre das gleich viel praktikabler.


Aber in Zusammenhang mit PhysX oder gar Nvidia steht dein Wunsch nicht.

Soll ich NVidia anbeten?
Ich bin Kunde von denen und das reicht schon. Da meine Karte nicht die potenteste ist und NVidia den Particle-Count mit jedem Spiel an dem sie dran sind in neue Höhe treibt, stehe ich auch bald ohne PhysX da.

Was habe ich dann unterm Strich von PhysX?
Eine Hand voll Spiele...

Übrigens, all die die eine Geforce als Zusatzkarte neben ihrer Non-NV-Graka genutzt haben sind auch Kunden von NVidia. Las dir mal das auf der Zunge zergehen. Werbewirksam ist diese Aktion von NV jedenfalls nicht.

Gast
2009-10-22, 18:58:11
LovesuckZ log dich ein!

Schade, falscher Name.
Log dich doch selber ein!

Nö, die Effektgrafik tut was sie soll, die Effektphysik nicht wirklich.
Beides ist für ein hübscheres Bild zuständig.
Tut mir Leid ich sehe keinen Unterschied, bis auf das Effektphysik unbeliebt ist.

Aber da es einige so stört, seid froh, man kann es abschalten.


Es ist war, das AMD außer Techdemos nichts Spielerelevantes gebracht hat.
Ich denke aber nicht das sie untätig sind, schließlich machen sie jetzt bei Bullet mit. OpenCL und CS sind das zukünftige Spielfeld aller Spiele-Graka-Hersteller.

Blaba, Tatsache ist, das es bisher nur Software Physik gibt, mit sehr spärlichem Einsatz.
Wachstum in den letzten Jahren ist verschwindend gering.


NV selber plant nicht bei reiner Effektphysik zu bleiben und du bestimmst was zu machen ist?
Mit Effektphysik wird der Markt klar gemacht und dann kommt das was man dann auch als wirklich sinnvoll bezeichnen kann, komplexe spielerelevante Physik.

Wie gesagt, Effektphysik macht das Bild hübscher.
Teils kann man auch damit interagieren.

Ich weiß nicht was du willst,jedenfalls sieht es nicht danach aus, als ob in absehbarer Zeit ein Umbruch des Physikbereichs ansteht.


Jap so ähnlich, am besten wenn man Anzahl der Partikel und das Vorkommen bestimmter Effekte einzeln Regeln könnte.
Dann könnte sich derjenige mit einer dicken Geforce an vollem PhysX erfreuen und der ohne kann das Spiel mit Effekten genießen, die man sonst auch auf der CPU berechnet hat.
Man kann im ja die paar Elektrofunken und Fahnen gönnen.
Wenn dann ab und zu ein paar Nebelschwaden vorbeiziehen würden, wäre das gleich viel praktikabler.

Das meine ich. Ich hätte zusätzlich gerne noch die Wahl, in wie weit wer für die Berechnung zuständig ist.

Die Effektphysikgegner sind jetzt bereits zufrieden, Effektphysik ist deaktivierbar. Also wo ist das Problem?


Soll ich NVidia anbeten?
Ich bin Kunde von denen und das reicht schon. Da meine Karte nicht die potenteste ist und NVidia den Particle-Count mit jedem Spiel an dem sie dran sind in neue Höhe treibt, stehe ich auch bald ohne PhysX da.
Du forderst Dinge von Nvidia, die vom Spieleentwickler zu leisten sind.


Was habe ich dann unterm Strich von PhysX?
Eine Hand voll Spiele...

Bei der Betrachtung von jeweils eines Spieles ist es völlig egal wie viele andere es gibt.
Da du eine bessere Optik scheisse findest muss es dich noch weniger jucken.


Übrigens, all die die eine Geforce als Zusatzkarte neben ihrer Non-NV-Graka genutzt haben sind auch Kunden von NVidia. Las dir mal das auf der Zunge zergehen. Werbewirksam ist diese Aktion von NV jedenfalls nicht.
Dürften nur sehr wenige gewesen sein, die innerhalb eines Jahres eine Zusatzkarte erworben haben und die keine Hauptgeforce mehr nutzen und die überhaupt Platz für 2 Karten haben.
Bedauerlich, für die.

Aber erzähl mal, hat man damit geworben, das PhysX mit einer nicht Geforce dadurch ermöglicht wird oder war es eine Lücke?

Mal abegsehen davon das D3D10 oder höher schonmal dank Vista-Ausschluss nicht möglich war.

Gast
2009-10-22, 20:13:31
Schade, falscher Name.
Log dich doch selber ein!
.

Lol deine Schreibweise ist identisch mit der von LZ und du benutzt sogar die gleichen Formulierungen.


Beides ist für ein hübscheres Bild zuständig.
Tut mir Leid ich sehe keinen Unterschied, bis auf das Effektphysik unbeliebt ist.
.

Lol :rolleyes:

Ich seh den Content die Physik selber macht DAS BILD nicht hübscher.

Davon Abseits, wenn man die Dosen bei Batman nimmt macht sie das Bild eigentlich hässlicher.


Aber da es einige so stört, seid froh, man kann es abschalten.
.

Halte Maß und du wirst sellig.


Blaba, Tatsache ist, das es bisher nur Software Physik gibt, mit sehr spärlichem Einsatz.
Wachstum in den letzten Jahren ist verschwindend gering.


Blaba? Troll!
Zur Physik, deine Tatsache ist ja mal Quatsch. Physik wird schon seit einem halben Jahrzehnt recht ausgedehnt eingesetzt. Insbesondere bei FPS wird sie immer relevanter.
Es kann nicht mehr viel wachsen weil die Quote bei nahe 100% gibt.
Selbst Echtzeitstrategien gibt es die Mittlerweile Physik ausnutzen.


Wie gesagt, Effektphysik macht das Bild hübscher.
Teils kann man auch damit interagieren.

Also doch ein spielerischer Nachteil für Non-Geforce-Besitzer?


Ich weiß nicht was du willst,jedenfalls sieht es nicht danach aus, als ob in absehbarer Zeit ein Umbruch des Physikbereichs ansteht.

Ich weiß nicht ob du lesen kannst, aber mit DX11 ist CS gekommen und NV sowie ATI unterstützten auch OpenCL. Du befindest dich mitten im Umbruch mein lieber.


Das meine ich. Ich hätte zusätzlich gerne noch die Wahl, in wie weit wer für die Berechnung zuständig ist.

Die Effektphysikgegner sind jetzt bereits zufrieden, Effektphysik ist deaktivierbar. Also wo ist das Problem?

Fanboy-Gelaber. :rolleyes:
Haste keine Vernpünftigen Argumente mehr?


Du forderst Dinge von Nvidia, die vom Spieleentwickler zu leisten sind.

Sag das NVidia.
Die machen doch bis jetzt alles selbst, oder?


Bei der Betrachtung von jeweils eines Spieles ist es völlig egal wie viele andere es gibt.



Nö ist es nicht, PhysX war ein kaufförderndes Argument, dass nur bedingt eingehalten wurde. Deshalb bin ich von dieser Technik einfach enttäuscht.


Da du eine bessere Optik scheisse findest muss es dich noch weniger jucken.


Die Optik ist eben nicht immer besser, weil die Spiele mehr Mass als Klasse anbieten.
Wüsste auch mal gern warum alle Partikel gleich aussehen.
Guck mal bei Batman, ca. 100 Dosen alle identisch was soll das sein?



Dürften nur sehr wenige gewesen sein, die innerhalb eines Jahres eine Zusatzkarte erworben haben und die keine Hauptgeforce mehr nutzen und die überhaupt Platz für 2 Karten haben.
Bedauerlich, für die.


Das nehm ich dir nicht ab.
NVidia verhindert etwas aktiv und das schädigt ihren Ruf. Hier wird am Kunden gegängelt. Wer sagt denn, dass wir so eine Aktion nicht auch einmal zu spüren bekommen.


Aber erzähl mal, hat man damit geworben, das PhysX mit einer nicht Geforce dadurch ermöglicht wird oder war es eine Lücke?


Bei den Ageia-Karten schon.
Und bei den Geforcen, stand auch nicht drauf, dass dies mit einer anderen Grafikkarte nicht funzt.


Mal abegsehen davon das D3D10 oder höher schonmal dank Vista-Ausschluss nicht möglich war.

Ohne Computer kann ich meine Geforce auch nicht mehr benutzen. Drecks Computerindustrie!
Ich werde überall ausgeschlossen mit meiner Geforce.
Ich kann sie nicht einmal in meiner Spülmaschine betreiben und wenn doch ist sie kaputt.

HatesuckZ
2009-10-22, 20:15:08
PhysX zeigt was heute und in 20 Jahren noch geht.

|-Sh0r7y-|
2009-10-22, 20:50:07
Ich hatte mal eine ATI Rage 128, und schon damals gab es diese lustigen Grafikfehler in form von Schwarzen Boden, Schwarzer Hintergrund... keine Schatten!
Siehe Anno 1404 Grafikfehler.
Ich hab ja eine Geforce 7950 und kann mich nicht erinnern das ich für jedes Spiel ein Treiberupdate gebraucht hab.

Nvidia und ATI sind keine Freunde, das sind Harte Konkurenten.
Wieso Nvidia jetzt schon mit ATI absprechen muss was sie mit ihren Karten anbieten dürfen, sorry aber das ist Bullshit.
ATI probiert ja auch mit Cinema 2.0 neue technik unter die Spieler zu bringen, nörgel *heul*
ATI böse Nvidia hat das nicht, alles nur eyecandy, bringt doch nichts geht auch über CPU, wir werden von den Hersteller wenn es den wer einsetzt benachteiligt.

Der unterschied Nvidia ATI ist auch der, Nvidia entwickelt was, und es wird angenommen.
Nvidia unterstützt Spieleentwickler und wird belohnt.
ATI bringt was neues und es interessiert eigentlich keine Sau.
ATI wahr Marktdominierend und Nvidia ist dazu gekommen und versucht seid vielen Jahren mit neuer Technologie das beste zu machen, das ist alles doch nicht neu.
ATI hat auch erst angefangen gute Grafikkarten zu bauen als Nvidia schon lichtjahre weiter gewesen ist, und es geht im eiltempo so weiter.
PhysX kommt ja grade erst wer kann schon sagen wie sich das entwickelt, und was in zukunft damit möglich sein könnte.

Gast
2009-10-22, 21:04:37
Wann war ATI Marktdominierend?

Aber eins stimmt.
Ati kann entwickeln was sie wollen.
Es wird keiner auf die Idee kommen rumzujammern das Nvidia das unterstützen soll.
Entwickelt (oder kauft) Nvidia etwas sollen alle anderen Freudensprünge machen und das sofort übernehmen.

Wer hier mehr unter Realitätsverlust leidet ist die Frage.

reunion
2009-10-22, 21:07:44
Siehe Anno 1404 Grafikfehler.


Wenn man schon etwas behauptet dann sollte man sich wenigstens auf Fakten stützen. Anno läuft seit Patch 1.1 auf einer Radeon fehlerfrei, es lag also nicht am Treiber.

HatesuckZ
2009-10-22, 21:35:06
Ich hatte mal eine ATI Rage 128, und schon damals gab es diese lustigen Grafikfehler in form von Schwarzen Boden, Schwarzer Hintergrund... keine Schatten!
Siehe Anno 1404 Grafikfehler.
Ich hab ja eine Geforce 7950 und kann mich nicht erinnern das ich für jedes Spiel ein Treiberupdate gebraucht hab.

Ich stimme dir vollkommen zu!
ATI hatte schon immer miese Treiber und damals waren die noch gut.


Nvidia und ATI sind keine Freunde, das sind Harte Konkurenten.
Wieso Nvidia jetzt schon mit ATI absprechen muss was sie mit ihren Karten anbieten dürfen, sorry aber das ist Bullshit.
ATI probiert ja auch mit Cinema 2.0 neue technik unter die Spieler zu bringen, nörgel *heul*

*zustimm* Da macht ATI wieder mal seinen eigenen Standard und keiner heult deshalb. Aber wenn NV nur seine Rechte wahrnimmt dann gibt es immer so einen Bohai.


ATI böse Nvidia hat das nicht, alles nur eyecandy, bringt doch nichts geht auch über CPU, wir werden von den Hersteller wenn es den wer einsetzt benachteiligt.


Es gibt die Leute die eine neue Technik akzeptieren und es gibt die Fanboys die immer was zu nörgeln haben. Diese sind es dann auch die sich Konsolenportierungen wünschen.


Der unterschied Nvidia ATI ist auch der, Nvidia entwickelt was, und es wird angenommen.
Nvidia unterstützt Spieleentwickler und wird belohnt.
ATI bringt was neues und es interessiert eigentlich keine Sau.

Das ist wahr! Wenn ATI eine Technik auf den Markt bringt wird das eigentlich nie was, da muss schon NV nachziehen oder Support ankündigen damit das auch was wird.


ATI wahr Marktdominierend und Nvidia ist dazu gekommen und versucht seid vielen Jahren mit neuer Technologie das beste zu machen, das ist alles doch nicht neu.


Ab der Geforce FX-Serie war ATI marktdominierend und dies ist seit 2006 wieder Geschichte. ATI hat aus seinem Vorteil keinen Nutzen gezogen.
Nvidia dagegen hat selbst in der schweren Zeit noch Gewinn eingefahren,
obwohl sie benachteiligt wurden.


ATI hat auch erst angefangen gute Grafikkarten zu bauen als Nvidia schon lichtjahre weiter gewesen ist, und es geht im eiltempo so weiter.
PhysX kommt ja grade erst wer kann schon sagen wie sich das entwickelt, und was in zukunft damit möglich sein könnte.

NV war ATI eigentlich immer voraus, man hat eben Grafikkarten für die Zukunft entwickelt.

PulsarS
2009-10-22, 21:53:47
Ich hatte mal eine ATI Rage 128, und schon damals gab es diese lustigen Grafikfehler in form von Schwarzen Boden, Schwarzer Hintergrund... keine Schatten!
:uconf3:
Du vergleichst die Treiber von damals mit heute? :hammer:

Ich hab ja eine Geforce 7950 und kann mich nicht erinnern das ich für jedes Spiel ein Treiberupdate gebraucht hab.
Ich bei meiner 6800GT damals schon. War nicht gerade so, dass jedes Spiel out of the box gut performte...

ATI hat auch erst angefangen gute Grafikkarten zu bauen als Nvidia schon lichtjahre weiter gewesen ist,
Wie meinen?
Welchen Zeitraum meinst du?

PhysX kommt ja grade erst wer kann schon sagen wie sich das entwickelt, und was in zukunft damit möglich sein könnte.
Wenn ich ehrlich sein soll, dann gebe ich PhysX aufgrund von CS in DX11 und OpenCL kaum eine Chance für die Zukunft.

|-Sh0r7y-|
2009-10-23, 00:36:32
Konnten die ATI Karten wirklich gleich von anfang an mit ihrer Radeon Serie mit Geforce 2 GTS Pro KArten mithalten?
Hab das so nicht in erinnerung.
Hatte ATI nicht sogar den Treiber Support für Win98 nutzer eingestellt mit ihrer Radeon Serie?
Und ich glaub ATI hat bis zu den 3D Beschleuniger den OEM Markt fest mit S3 in der Hand.
Dan gab es Voodoo und Nvidia und Riva 128, dan gab es ne Geforce Bombe und erst einige Jahre später die erste brauchbare Radeon Serie.
ATI hatte glaub ich ein riesen Stück vom OEM und Retail Markt und bis heute bedienen sie mehr den ich sags mal vorsichtig

PhysX gegner;D

Gast
2009-10-23, 00:50:20
http://www.hardwareluxx.de/community/showthread.php?t=654425

Crysis auf der 5870 macht auch mal wieder Probleme

y33H@
2009-10-23, 03:03:18
Anno läuft seit Patch 1.1 auf einer Radeon fehlerfrei, es lag also nicht am Treiber. Und wieso lief dann die 1.0 mit älteren Catalysts ohne Fehler? :rolleyes:

Coda
2009-10-23, 03:15:40
Es kann schon sein, dass ATI da seither die Spezifikation strenger auslegt und der Bug eigentlich bei Anno liegt.

reunion
2009-10-23, 07:52:34
Und wieso lief dann die 1.0 mit älteren Catalysts ohne Fehler? :rolleyes:

Das beweist gar nichts wie Coda schon sagte. Wenn man es für nötig hält einen Patch für Anno zu bringen der diesen Fehler behebt wird es wohl kaum AMDs Schuld sein. Ähnlich wie beim Texturflimmern in Gothic 3, das auch AMD in die Schuhe geschoben wurde, bis ein Patch den Fehler behobt. NV hat als Marktführer natürlich auch den Vorteil das primär auf ihre Hardware programmiert und optimiert wird, das sollte man nicht vergessen. Nicht immer ist es AMDs Schuld wenn es auf ihrer Hardware zu Problemen kommt. Auch wenn die üblichen Verdächtigen so etwas gerne ausnutzen um in Richtung AMD zu stänkern.

Grestorn
2009-10-23, 08:40:25
Wo der Fehler liegt lässt sich ganz schlecht daran entscheiden, durch wessen Codeänderung der Fehler behoben wird.

Ein Fehler lässt sich schließlich durch einen Bugfix (also beheben der fehlerhaften Stelle) oder durch einen Work-Around beheben (man umgeht den Fehler, der aber immer noch da ist).

Der Fehler kann also durchaus auch im Treiber liegen. Genauere Auskunft darüber können uns nur die Entwickler von Anno liefern.

Gast
2009-10-23, 08:42:17
Ich stimme dir vollkommen zu!
ATI hatte schon immer miese Treiber und damals waren die noch gut.


*zustimm* Da macht ATI wieder mal seinen eigenen Standard und keiner heult deshalb. Aber wenn NV nur seine Rechte wahrnimmt dann gibt es immer so einen Bohai.



Es gibt die Leute die eine neue Technik akzeptieren und es gibt die Fanboys die immer was zu nörgeln haben. Diese sind es dann auch die sich Konsolenportierungen wünschen.


Das ist wahr! Wenn ATI eine Technik auf den Markt bringt wird das eigentlich nie was, da muss schon NV nachziehen oder Support ankündigen damit das auch was wird.



Ab der Geforce FX-Serie war ATI marktdominierend und dies ist seit 2006 wieder Geschichte. ATI hat aus seinem Vorteil keinen Nutzen gezogen.
Nvidia dagegen hat selbst in der schweren Zeit noch Gewinn eingefahren,
obwohl sie benachteiligt wurden.



NV war ATI eigentlich immer voraus, man hat eben Grafikkarten für die Zukunft entwickelt.


Wie geil ist das den :D

Gast
2009-10-23, 08:52:23
Wo der Fehler liegt lässt sich ganz schlecht daran entscheiden, durch wessen Codeänderung der Fehler behoben wird.

Ein Fehler lässt sich schließlich durch einen Bugfix (also beheben der fehlerhaften Stelle) oder durch einen Work-Around beheben (man umgeht den Fehler, der aber immer noch da ist).

Der Fehler kann also durchaus auch im Treiber liegen. Genauere Auskunft darüber können uns nur die Entwickler von Anno liefern.

Entwickler PatchT - Fehler lag also im Treiber von ATI ?

Wie geil ist das denn!

Da fällt mir eine Liedzeile ein:
I wear my Sunglasses at Night ! So i can watch you Weave and Breath your
Storylines.

reunion
2009-10-23, 08:59:24
Wie geil ist das den :D

Das ist wohl der Zweitaccount der AMDsuckZ-Gruppe. :)

Grestorn
2009-10-23, 09:32:34
Entwickler PatchT - Fehler lag also im Treiber von ATI ?

Wie geil ist das denn!

Du hast offenbar keine Ahnung vom Programmieren. Behalt Deine Meinung zu solchen Themen und Deine völlig unangebrachte Häme also bitte besser für Dich.

Gast
2009-10-23, 09:41:49
Das ist wohl der Zweitaccount der AMDsuckZ-Gruppe. :)

Nein, es ist die ironische Überspitzung von LoveSuckZ; ein ehemaliger Gast, der auch (wie LoveSuckZ unterstellt) auch Geld für Werbung für nvidia haben möchte. Nachzulesen in einem aktuellen Thread. :D

LovesuckZ
2009-10-23, 10:01:18
Nein, es ist die ironische Überspitzung von LoveSuckZ; ein ehemaliger Gast, der auch (wie LoveSuckZ unterstellt) auch Geld für Werbung für nvidia haben möchte. Nachzulesen in einem aktuellen Thread. :D

Nö, unterstellt wird, dass er Geld von seinem Arbeitgeber für virales Marketing haben will - wie sein Kollege eben. Aber AMD muss ja an allen Ecken sparen. Da kann man nur einen für solche Drecksarbeiten bezahlen. :(

Gast
2009-10-23, 10:29:38
Nö, unterstellt wird, dass er Geld von seinem Arbeitgeber für virales Marketing haben will - wie sein Kollege eben. Aber AMD muss ja an allen Ecken sparen. Da kann man nur einen für solche Drecksarbeiten bezahlen. :(

Für eine Fan-Boy-Diskussion finde ich HatesuckZ äußerst witzig. Nicht verstanden habe ich, wen Du jetzt mit "Er" und "Sein Kollege" meinst. Warum auch AMD wieder mit im Boot sitzt bei dieser Diskussion ebenso wenig.

LovesuckZ
2009-10-23, 10:32:36
Für eine Fan-Boy-Diskussion finde ich HatesuckZ äußerst witzig. Nicht verstanden habe ich, wen Du jetzt mit "Er" und "Sein Kollege" meinst. Warum auch AMD wieder mit im Boot sitzt bei dieser Diskussion ebenso wenig.

Das musst du ihm fragen. :)

StefanV
2009-10-23, 10:46:21
Der Fehler kann also durchaus auch im Treiber liegen. Genauere Auskunft darüber können uns nur die Entwickler von Anno liefern.
Richtig und bis wir keine (in)offizielle Aussage von einem verantwortlichen haben, sollten wir dieses Problemchen nicht weiter hochspielen und davon ausgehen, das es eher am Spiel als am Treiber lag.

Wenn du eine Gegenteilige Meinung vertreten willst, dann kümmer dich um eine (in)offizielle Aussage von einem, der wirklich weiß, wo das Problem lag.

Grestorn
2009-10-23, 11:19:40
Wenn du eine Gegenteilige Meinung vertreten willst, dann kümmer dich um eine (in)offizielle Aussage von einem, der wirklich weiß, wo das Problem lag.

Ich habe eigentlich gar keine feste Meinung wo der eigentliche Fehler liegt, da man das als außenstehender nicht beurteilen kann. Und genau das wollte ich ausgedrückt wissen.

Ich habe eine Vermutung, die darauf basiert, dass ältere Treiber (mit denen Anno sicher getestet wurde) funktioniert haben. Also hat sich auf jeden Fall das Verhalten des Treibers geändert. Das kann aber auch in die andere Richtung gewesen sein, so dass er de Fakto jetzt besser funktioniert als vorher und deswegen ein Workaround nicht mehr nötig ist (sondern gar Probleme macht) oder ein echter Programmfehler in Anno (der aber auf nVidia und älteren ATI Treibern folgenlos blieb) jetzt erst sichtbar geworden ist.

Coda
2009-10-23, 12:58:09
Eben. Es kann auch sein, dass der Anno-Support sich dazu genötigt gefühlt hat einen Patch zu bringen weil ATI es partout nicht fixt.

Kann beides stimmen.

Gast
2009-10-23, 13:10:59
Nö, unterstellt wird, dass er Geld von seinem Arbeitgeber für virales Marketing haben will - wie sein Kollege eben. Aber AMD muss ja an allen Ecken sparen. Da kann man nur einen für solche Drecksarbeiten bezahlen. :(

Nana, der könnte dir glatt den Rang ablaufen und kriegt dafür auch noch Geld.

Gast
2009-10-23, 14:35:45
Du hast offenbar keine Ahnung vom Programmieren. Behalt Deine Meinung zu solchen Themen und Deine völlig unangebrachte Häme also bitte besser für Dich.


Urteile bitte nicht über anderer Leute kenntnisse. Du behauptest was ohne
irgendeinen Beweis. Und sowas nennt sich dann "Objektiv"

Der andere Gast hatte wohl doch recht mit seiner "Häme"

Grestorn
2009-10-23, 15:00:44
Urteile bitte nicht über anderer Leute kenntnisse. Du behauptest was ohne
irgendeinen Beweis. Und sowas nennt sich dann "Objektiv"

Ich behaupte gar nichts. Ich habe nur eine feste Behauptung widerlegt. Offenbar hast du ein Problem mit dem Lesen, oder?

Der andere Gast hatte wohl doch recht mit seiner "Häme"In wie weit hat er denn Recht? Es scheint wirklich viele zu überfordern, den Inhalt von Beiträgen zu lesen. Tipp: Lies meine und Codas Beiträge langsam durch und verstehe ihren Inhalt. Dann kannst Du wiederkommen und was schreiben. Bis dahin, lass es lieber.

Gast
2009-10-23, 15:44:25
Ich behaupte gar nichts. Ich habe nur eine feste Behauptung widerlegt. Offenbar hast du ein Problem mit dem Lesen, oder?


Ich bin zwar nicht jener Gast aber...
Du hast nur eine andere Behauptung aufgestellt und nichts widerlegt.

Grestorn
2009-10-23, 15:51:39
Ich bin zwar nicht jener Gast aber...
Du hast nur eine andere Behauptung aufgestellt und nichts widerlegt.

Dann, lieber Gast, zitiere doch mal die Stelle an der ich etwas behauptet habe.

Widerlegt habe ich die Behauptung, dass die Tatsache, dass Anno gepatcht wurde, eine Aussage darüber erlaubt, wo der Fehler tatsächlich liegt. Und - wie Du vielleicht auch nicht bemerkt hast - bin ich nicht der einzige hier, der das verstanden hat.

Wieder so ein Kleinkrieg mit Gästen, die sich aus völlig unersichtlichen Gründen auf mich einschießen und dabei noch nicht mal in der Lage sind, das geschriebene aufzunehmen.

Geht doch woanders spielen, Mensch.

Gast
2009-10-23, 16:33:41
Lol deine Schreibweise ist identisch mit der von LZ und du benutzt sogar die gleichen Formulierungen.

Wenn du nicht bald mit diesen schwachnsinnigen Unterstellungen aufhörst, so muss ich dich leider als Troll ansehen. :(


Lol

Ich seh den Content die Physik selber macht DAS BILD nicht hübscher.

Davon Abseits, wenn man die Dosen bei Batman nimmt macht sie das Bild eigentlich hässlicher.

Deine Meinung.
Ich empfinde beweglicher Nebel oder zerbrechende Glasscheiben oder bewegliche Tücher als einen optischen Zugewinn.

Batman ist nicht PhysX, Batman ist ein Spiel das PhysX nutzt. Lerne das.

Halte Maß und du wirst sellig.

Lass deine Beleidigungen und argumentiere wie ein Mann.


Blaba? Troll!
Zur Physik, deine Tatsache ist ja mal Quatsch. Physik wird schon seit einem halben Jahrzehnt recht ausgedehnt eingesetzt. Insbesondere bei FPS wird sie immer relevanter.
Es kann nicht mehr viel wachsen weil die Quote bei nahe 100% gibt.
Selbst Echtzeitstrategien gibt es die Mittlerweile Physik ausnutzen.

Oh ja, super ausgedehnt. :rolleyes:

Hier und da fällt ein Fass um, das ist lächerlich wenig und nichts deutet darauf hin, das es sich morgen ändert.

Also doch ein spielerischer Nachteil für Non-Geforce-Besitzer?
Ja, sie können nicht mit dem sich bewegenden Nebel interagieren.
Das Spiel können sie dennoch durchspielen, wirkt halt hässlicher und hat keine Atmoshäre mehr.

Lol deine Schreibweise ist identisch mit der von LZ und du benutzt sogar die gleichen Formulierungen.


Ich weiß nicht ob du lesen kannst, aber mit DX11 ist CS gekommen und NV sowie ATI unterstützten auch OpenCL. Du befindest dich mitten im Umbruch mein lieber.
Ich weiß nicht wo du lebst, aber ich sehe noch nichts davon im Laden.
Wenns soweit ist kannst du dich wieder melden.

Fanboy-Gelaber.
Haste keine Vernpünftigen Argumente mehr?
Mir wurde klar gemacht, das Effektphysik (also im Grunde genauso wie Effektgrafik) von einigen unerwünscht ist.
Diejenigen brauchen sich nicht weiter ärgern, sie können es deaktivieren.

Also, wo war jetzt gleich das Problem?

Sag das NVidia.
Die machen doch bis jetzt alles selbst, oder?
Ich kann mich nicht daran erinnern, das Nvidia Spiele entwickelt.

Nö ist es nicht, PhysX war ein kaufförderndes Argument, dass nur bedingt eingehalten wurde. Deshalb bin ich von dieser Technik einfach enttäuscht.
Nö, erst seit August 2008.
Davor wurde nicht damitgeworben, es gabs hinterher gratis dazu. Dafür das es überhaupt hinterher etwas gratis gibt bist du ziemlich anspruchsvoll. Kannst ja mal bei AMD gucken, was die so für ihre X1950 XTX Kunden Mitte 2008 getan haben.

Nach dem besagten Tag wurde es als Argument genommen.
Damit sehe ich kein Problem, es ist deine persöhnliche Ansicht, das es zuwenig ist.
Ab wann ist es denn genug? Nunja, scheint auch von Feature und IHV zu varieren.

Die Optik ist eben nicht immer besser, weil die Spiele mehr Mass als Klasse anbieten.
Wüsste auch mal gern warum alle Partikel gleich aussehen.
Guck mal bei Batman, ca. 100 Dosen alle identisch was soll das sein?
Da fragst schon wieder was in Batman los ist.
Eben haben wir noch über PhysX disskutiert. Entscheide dich doch mal. :rolleyes:

Das nehm ich dir nicht ab.
NVidia verhindert etwas aktiv und das schädigt ihren Ruf. Hier wird am Kunden gegängelt. Wer sagt denn, dass wir so eine Aktion nicht auch einmal zu spüren bekommen.

Dann wiederlege es.
Zeig mir wie viele Geforces in einem Jahr verkauft wurden.
Zeig mir wie viele Prozent davon neben einer anderen eingesetzt wurden. Das bedingt die Möglichkeit überhaupt mehr als eine Einzubauen und einen Nutzer, der eine minimale Kenntniss über derlei Dinge hat, um den PC zu öffnen und einen PC, der nicht ausschließlich Vista nutzt.
Zeig mir, wie viele Prozent davon wiederrum keine Geforce als 1. Karte verwenden.

Das es schlecht für Nvidias Ruf ist, damit hast du Recht.

Bei den Ageia-Karten schon.
Und bei den Geforcen, stand auch nicht drauf, dass dies mit einer anderen Grafikkarte nicht funzt.
Zeig mir das Ageias nicht mehr mit nicht Geforces arbeiten wollen.


Ohne Computer kann ich meine Geforce auch nicht mehr benutzen. Drecks Computerindustrie!
Ich werde überall ausgeschlossen mit meiner Geforce.
Ich kann sie nicht einmal in meiner Spülmaschine betreiben und wenn doch ist sie kaputt.
Beantworte mir einfach meine Frage.

Gast
2009-10-23, 17:18:12
Wenn du nicht bald mit diesen schwachnsinnigen Unterstellungen aufhörst, so muss ich dich leider als Troll ansehen. :(
.
... sagte der Troll


Deine Meinung.
Ich empfinde beweglicher Nebel oder zerbrechende Glasscheiben oder bewegliche Tücher als einen optischen Zugewinn.
.
Glasscheiben zumindest sind schon vorher zerbrochen und bewegte Tücher gab es auch schom


Batman ist nicht PhysX, Batman ist ein Spiel das PhysX nutzt. Lerne das.


Ein Beispiel für die dümmliche Nutzung von PhysX wie ich es nicht will


Lass deine Beleidigungen und argumentiere wie ein Mann.

Welche Beleidigung?
Argumentier du erstmal nicht wie jemand, der eine Gehirnwäsche hinter sich hat.



Oh ja, super ausgedehnt. :rolleyes:

Hier und da fällt ein Fass um, das ist lächerlich wenig und nichts deutet darauf hin, das es sich morgen ändert.


Sagt der Troll und freut sich wenn er 1000 identische Partikel anbetet.



Ja, sie können nicht mit dem sich bewegenden Nebel interagieren.
Das Spiel können sie dennoch durchspielen, wirkt halt hässlicher und hat keine Atmoshäre mehr.


Hier geht es um Interaktion mit dem Spieler.
Blocken die Dosen jetzt die Tonne so das Batman drüber hüpfen muss, oder nicht?


Ich weiß nicht wo du lebst, aber ich sehe noch nichts davon im Laden.
Wenns soweit ist kannst du dich wieder melden.

Ich habe es mit DX11 installiert, also ist es schon da. MacOS nutzt OpenCL und jetzt kommst du.


Mir wurde klar gemacht, das Effektphysik (also im Grunde genauso wie Effektgrafik) von einigen unerwünscht ist.
Diejenigen brauchen sich nicht weiter ärgern, sie können es deaktivieren.

Also, wo war jetzt gleich das Problem?

Geblubber eines Trolls der nicht begreifen kann.


Ich kann mich nicht daran erinnern, das Nvidia Spiele entwickelt.

Wie es aussieht machen sie das, sie waren schon an so manchen Titeln beteiligt.


Nö, erst seit August 2008.
Davor wurde nicht damitgeworben, es gabs hinterher gratis dazu.


Was bringt uns diese Information?
Vielleicht habe ich meine Karte nach besagtem Tag gekauft?


Dafür das es überhaupt hinterher etwas gratis gibt bist du ziemlich anspruchsvoll. Kannst ja mal bei AMD gucken, was die so für ihre X1950 XTX Kunden Mitte 2008 getan haben.


Tschuldigung, dass ich nicht alles mag was man mir vortischt.

Och nein, was hat denn AMD jetzt wieder damit zutun. NV-Fanboys sind die ersten die AMD schreien, lächerlich!


Nach dem besagten Tag wurde es als Argument genommen.
Damit sehe ich kein Problem, es ist deine persöhnliche Ansicht, das es zuwenig ist.
Ab wann ist es denn genug? Nunja, scheint auch von Feature und IHV zu varieren.
.

Ja sicher doch, wenn NV den Kramm höchstpersönlich implementiert.


Da fragst schon wieder was in Batman los ist.
Eben haben wir noch über PhysX disskutiert. Entscheide dich doch mal. :rolleyes:


OMG XD
Ich bin immer wieder aufs Neue erstaunt, wie Fanboys argumentieren.
Ich habe selten inhaltlosere Antworten gelesen!

Wenn du nicht auf mein Beispiel eingehen kannst dann zitier es bitte nicht,
und das :rolleyes: kannste auch stecken lassen. Wenn du es nicht kannst dann las es mal lieber.


Dann wiederlege es.
Zeig mir wie viele Geforces in einem Jahr verkauft wurden.
Zeig mir wie viele Prozent davon neben einer anderen eingesetzt wurden. Das bedingt die Möglichkeit überhaupt mehr als eine Einzubauen und einen Nutzer, der eine minimale Kenntniss über derlei Dinge hat, um den PC zu öffnen und einen PC, der nicht ausschließlich Vista nutzt.
Zeig mir, wie viele Prozent davon wiederrum keine Geforce als 1. Karte verwenden.


Ich bin mal ganz ehrlich, für dich mach ich mir die Mühe nicht.
Schau beim Steam Hardware Survey nach, guck dir die Verkaufszahlen von NVidia an und suche infach nach solchen Umfragen im Netz.
Ich könnte hier auch eine starten dann weißt du Bescheid.

Aber um es mal so zu formulieren: Beweise mir das Gegenteil.

Du würdest dich wohl auch noch freuen wenn NV per Befehl im Treiber sämtliche alten Karten schrotten lässt damit du eine Neue kaufen musst.


Das es schlecht für Nvidias Ruf ist, damit hast du Recht.
.

Och ne, echt!?


Zeig mir das Ageias nicht mehr mit nicht Geforces arbeiten wollen.
.

Zeig mir das sie noch mit allen Grafikkarten arbeiten wollen.


Beantworte mir einfach meine Frage.

Das du mein Gleichnis nicht interpritieren konntest war mir klar, aber ich muss dich enttäuschen die Antwort wurde dir gegeben du bist nur einfach noch nicht bereit sie zu verstehen.


Nebenbei wenn du nicht LZ bist, dann musst du ein Seelenverwandter sein, denn er hat nicht lange her genau den gleichen Murks mit genau den gleichen Kommentaren geschrieben.
Ich sehe in jedem deiner Worte seine Fanboy-Argumentationen und sein Ausflüchte um keine sinnvolle Antwort zu geben.

=Floi=
2009-10-23, 22:27:43
die qualität der spiele an den wertungen festzumachen grenzt schon ein wenig an wahnsinn. diese nischengames treffen eben auch nicht den geschmack der masse und hier erbeiten die entwickler eben noch mit ein wenig mehr herzblut. was bei massenproduktionen mit hohen wertungen rauskommt, kennen wir ja alle und dort fehl es eher an der liebe der entwickler und an den "details".

das sieht man auch sehr schön an demirug, welcher sie sehr vie mühe gibt und sein vorgehen könnten sicherlich an andere programmierer nachmachen.

deekey777
2009-10-23, 22:34:20
die qualität der spiele an den wertungen festzumachen grenzt schon ein wenig an wahnsinn. diese nischengames treffen eben auch nicht den geschmack der masse und hier erbeiten die entwickler eben noch mit ein wenig mehr herzblut. was bei massenproduktionen mit hohen wertungen rauskommt, kennen wir ja alle und dort fehl es eher an der liebe der entwickler und an den "details".

das sieht man auch sehr schön an demirug, welcher sie sehr vie mühe gibt und sein vorgehen könnten sicherlich an andere programmierer nachmachen.
Du spielst Darkest of Days und Terminator Salvation 25 Studen pro Tag acht Tage die Woche?
Aber schön, dass du deine Meinung der Welt teilst.

Gast
2009-10-23, 22:40:13
Du spielst Darkest of Days und Terminator Salvation 25 Studen pro Tag acht Tage die Woche?
Aber schön, dass du deine Meinung der Welt teilst.
Gut zu wissen das es derart oft gespielt werden muss, um ein Zusatzfeature zu rechtfertigen.

PulsarS
2009-10-23, 22:51:00
Weil Nvidia genug Geld und Zeit dafür investiert, eben deshalb wird es noch lange überleben.
Sehr logische Begründung, muss schon sagen...:rolleyes:
Vielleicht gehts auch ein wenig technischer?
Glide war viel verbreiteter als PhysX@GPU und auch viel sinnvoller. Ohne Glide hat man in den Anfangszeiten Klötzchengrafik gehabt.
DAS war ein Unterschied. Und trotzdem ist Glide untergegangen, als ein allgemeiner Standard geschaffen wurde, der die Specs hatte alles ähnlich zu machen. DirectX.
Nun hat man mit DX11 CS, die genauso wie PhysX Physik berechnen können und das sehr umfangreich und flexibel.
Warum zum Geier sollte ein Spielentwickler auf PhysX@GPU setzen und damit einen großen Teil der Kundschaft ausschliessen, wenn man es auch mit CS machen kann und damit die ganze Käufersicht anspricht?
Das hätte doch kein Logik.
Findet euch damit ab, dass PhysX@GPU bald EOL ist.


PhysX ist ein Extra, warum sollte es nicht weiter genutzt werden?
Weil es wirtschaftlich gesehen bessere Alternativen gibt?

Gast
2009-10-23, 22:53:59
Weil es wirtschaftlich gesehen bessere Alternativen gibt?
Z.B. Effektphysik auf ein absolutes Minumum beschränken.
Echt toll.


Warum zum Geier sollte ein Spielentwickler auf PhysX@GPU setzen und damit einen großen Teil der Kundschaft ausschliessen, wenn man es auch mit CS machen kann und damit die ganze Käufersicht anspricht?
Das hätte doch kein Logik.Der Entwickler setzt nicht auf PhysX, er setzt es nebenher ein.
Keiner wird dadruch abegschossen, sondern einige werden angelockt.


Nun hat man mit DX11 CS, die genauso wie PhysX Physik berechnen können und das sehr umfangreich und flexibel.Ich seh noch nichts.

PulsarS
2009-10-23, 22:55:52
Warte - du meinst, dass die heutige Middleware unnütz ist? Du solltest mit Mr.Lolman eine Beratungsfirma für ISV aufmachen. Anscheinend wisst ihr beide am besten, wie und was für Physik in der Entwicklung einsetzt werden soll...
Ich kenne Mr. Lolman nicht, aber er scheint auch begriffen zu haben, wo in der Zukunft in Sachen Physik die Musik spielt.
Ganz im Gegensatz zu vielen anderen hier...

LovesuckZ
2009-10-23, 23:02:32
Ich kenne Mr. Lolman nicht, aber er scheint auch begriffen zu haben, wo in der Zukunft in Sachen Physik die Musik spielt.
Ganz im Gegensatz zu vielen anderen hier...

:lol:
Ja, Mr.Lolman glaubt, die Zukunft liegt in 1500 Tonnen in einer Techdemo in Crysis, die keinen praktischen Bezug hat.
Bis jetzt sehe ich nur, dass GPU-Physik von nVidia und AMD bezahlt wird. Die Zukunft liegt in der CPU und der Software. Und dort exisitiert - Trommelwirbel - Middleware, die für viele Entwickler die Aufgabe am effizientesten erledigen.

Gast
2009-10-23, 23:05:10
:lol:
Ja, Mr.Lolman glaubt, die Zukunft liegt in 1500 Tonnen in einer Techdemo in Crysis, die keinen praktischen Bezug hat.
Wir wissen wo wir heute stehen.
30 Tonnen in der Realtität, mal sehen wann wir die 1500 sehen.

Will jemand wetten? Wie viele Jahre dauerts noch? Ich schätz mal ich könnte es noch erleben.

PulsarS
2009-10-23, 23:14:12
Z.B. Effektphysik auf ein absolutes Minumum beschränken.
Echt toll.
Du hast meinen Beitrag nicht verstanden.
Vielleicht solltest du ihn erneut lesen und verstehen.


Der Entwickler setzt nicht auf PhysX, er setzt es nebenher ein.
Keiner wird dadruch abegschossen, sondern einige werden angelockt.
Warum sollte sich ein Entwickler die doppelte Mühe machen oder potenzielle Käufer ausschliessen?

Ich seh noch nichts.
Das ist nicht weiter tragisch, das DU es nicht siehst. ;)

PulsarS
2009-10-23, 23:21:20
:lol:
Ja, Mr.Lolman glaubt, die Zukunft liegt in 1500 Tonnen in einer Techdemo in Crysis, die keinen praktischen Bezug hat.
Bis jetzt sehe ich nur, dass GPU-Physik von nVidia und AMD bezahlt wird. Die Zukunft liegt in der CPU und der Software. Und dort exisitiert - Trommelwirbel - Middleware, die für viele Entwickler die Aufgabe am effizientesten erledigen.
Den Lacher kannst du dir sparen, sonst könnte es für dich nach hinten losgehen, wenn dir die Argumente ausgehen und die Kinnlade am Boden schleift ;)

btw widersprichst du dir mit dieser Aussage selbst.
Klar gibt es Middlerware für die CPU (ist aber seit DX11 nicht mehr unbedingt nötig), Havoc.
Und was ich bisher von Havoc gesehen habe (HL2) stellt ALLE PhysX@GPU Spiele extrem in den Schatten.
Das ist einfach kein Vergleich, sondern eine Demütigung für PhysX@GPU

Du solltest mal kürzer treten, wenn du nicht genau weißt, welche Themen du ansprichst. ;)
Danke für die Aufmerksamkeit ;)

Gast
2009-10-23, 23:23:03
Du hast meinen Beitrag nicht verstanden.
Vielleicht solltest du ihn erneut lesen und verstehen.

Ich habe verstanden das du Effektphysik nicht magst.

Warum sollte sich ein Entwickler die doppelte Mühe machen oder potenzielle Käufer ausschliessen?

Doppelte Mühe? Fail, der Entwickler setzt eh auf PhysX, setzt sich nur etwas länger ran um es für GPU PhysX ansprechender zu machen.

Ausschließen? Fail, du tust so als ob jeder der GPU PhysX nicht nutzen kann ein entsprechendes Spiel auf gar keinen Fall kauft.
Das ist schlicht Schwachsinn.
Es wird gekauft wie eh und je, mit dem Unterschied das eine Käuferschicht einen zusätzlichen Schalter aktivieren kann.

Das ist nicht weiter tragisch, das DU es nicht siehst.
Zeig mal die CS Titel her.
Auf auf.

Gast
2009-10-23, 23:25:28
btw widersprichst du dir mit dieser Aussage selbst.
Klar gibt es Middlerware für die CPU (ist aber seit DX11 nicht mehr unbedingt nötig), Havoc.
Und was ich bisher von Havoc gesehen habe (HL2) stellt ALLE PhysX@GPU Spiele extrem in den Schatten.
Das ist einfach kein Vergleich, sondern eine Demütigung für PhysX@GPU

Lustig, du erwähnst Havoc aber verschweigst PhysX.

Also zu HL2:
Du stimmst mir zu, das es keinen Fortschritt im Physikbereich gab. Gut, ist ja eine prächtige Aussgangsbasis für die Theorie das sich das absofort gewaltig ändert.

ShadowXX
2009-10-23, 23:27:20
Nun hat man mit DX11 CS, die genauso wie PhysX Physik berechnen können und das sehr umfangreich und flexibel.
Warum zum Geier sollte ein Spielentwickler auf PhysX@GPU setzen und damit einen großen Teil der Kundschaft ausschliessen, wenn man es auch mit CS machen kann und damit die ganze Käufersicht anspricht?
Das hätte doch kein Logik.

Mit den Compute Shaders alleine kannst du aber noch gar nicht anfagen.
Du musst dann erst mal eine Physikengine dafür schreiben.
Und eine gute Physikengine zu schreiben kostet Zeit und damit sehr viel Geld.

So jetzt kommt als zusätzliches Problem das die Physikengine nur auf dem PC aber nicht auf den Konsolen laufen würde.....
Und jetzt denk noch mal drüber nach was ein Publisher sagt wenn ein Dev-Team damit ankommt das Sie ein PC-Only-Physikengine für ein Spiel schreiben wollen (das vielleicht osagr zusätzlich noch auf Konsolen aruskommen soll), wodurch sich das ganze (extrem optimistisch geschätzt) um ein halbes Jahr verzögert?

Der Publisher wird sagen das Sie einen an der Marmel haben und gefälligs eine der gängigen Physikengines am Markt benutzen sollen (speziell deshalb weil viele Publisher sowieso schon Rahmenverträge in der Richtung mit verschiedenen Physikengine-Herstellern haben, womit Sie die Lizenzen billiger bekommen)....

Na klar, irgendwann wir wohl auch ein 3rd Party Hersteller kommen und eine CS-Physik-Middelware anbieten....aber das dauert noch (weil es neu entwicklet werden muss....und nein, ich glaube nicht das das mit Bullet groß was wird...und selbst wenn es bei mehreren Titeln eingesetzt werden sollte, es läuft dann auch bei nV, die PhysX-Games@GPU aber weiterhin only bei nV).


Warum sollte sich ein Entwickler die doppelte Mühe machen oder potenzielle Käufer ausschliessen?

Genau das solltest du dich fragen: wenn die Entwickler sowieso schon die PhysX-Middleware (@CPU) benutzen (und das tun durchaus allerhand), warum sollen die sich noch extra den Aufwand machen eine weitere CS-Middelware (oder von mir aus auch eigene)-Physikengine einzubauen, wenn man das auch mit der schon verwendeten PhysX-Engine @ GPU machen kann.
Fa fragt der Publisher dann nV ob die dafür noch extra ein paar Mäuse springen lassen und die Sache ist gegessen...es wird ja niemand ausgesperrt, die Physik läuft auch bei ATI-Karten-Besitzern, nur halt nicht auf der GPU.


Klar gibt es Middlerware für die CPU (ist aber seit DX11 nicht mehr unbedingt nötig), Havoc.
Das ist dein Denkfehler.
Mit Compute Shader kann man rechnen, aber das ist kein Direct Physic.

Du benötigst weiterhin Middelware oder musst selbst etwas Zeit und Kostenintensiv schreiben.

LovesuckZ
2009-10-23, 23:28:27
Den Lacher kannst du dir sparen, sonst könnte es für dich nach hinten losgehen, wenn dir die Argumente ausgehen und die Kinnlade am Boden schleift ;)

btw widersprichst du dir mit dieser Aussage selbst.
Klar gibt es Middlerware füe die CPU (ist aber seit DX11 nicht mehr unbedingt nötig), Havoc.
Und was ich bisher von Havoc gesehen habe (HL2) stellt ALLE PhysX@GPU Spiele extrem in den Schatten.
Das ist einfach kein Vergleich, sondern eine Demütigung für PhysX@GPU

Du solltest mal kürzer treten, wenn du nicht genau weißt, welche Themen du ansprichst. ;)
Danke für die Aufmerksamkeit ;)

Immer noch nicht verstanden, was der Unterschied zwischen Gameplay-Physik und Effekt-Physik ist? Langsam könnte man meinen, du wärst ein Troll.

PulsarS
2009-10-23, 23:32:48
Ich habe verstanden das du Effektphysik nicht magst.
Falsch verstanden.
Effektphysik geht auch mit CS.


Doppelte Mühe? Fail, der Entwickler setzt eh auf PhysX, setzt sich nur etwas länger ran um es für GPU PhysX ansprechender zu machen.
Warum sollte der Entwickler eh auf PhysX setzen, wenn es bessere Alternativen gibt? :confused:

Ausschließen? Fail, du tust so als ob jeder der GPU PhysX nicht nutzen kann ein entsprechendes Spiel auf gar keinen Fall kauft.
Das ist schlicht Schwachsinn.
Es wird gekauft wie eh und je, mit dem Unterschied das eine Käuferschicht einen zusätzlichen Schalter aktivieren kann.
Und dieser Schalter wird in der Zukunft für alle verfügbar sein, nicht nur für die NV-Besitzer.
Ist doch toll, oder?

Zeig mal die CS Titel her.
Auf auf.
Geduld.
PhysX@GPU ist schon lange auf dem Markt und hat es gerade zu ein paar Spielen gebracht.
Das wir mit DX11 viel schneller gehen und damit PhysX@GPU verdrängen.

Ich verstehe auch nicht was einige dagegen haben, Physik für ALLE zugänglich zu machen und nicht nur für NV-User...
Wo liegt der Sinn?

PulsarS
2009-10-23, 23:34:58
Mit den Compute Shaders alleine kannst du aber noch gar nicht anfagen.
Du musst dann erst mal eine Physikengine dafür schreiben.
Und eine gute Physikengine zu schreiben kostet Zeit und damit sehr viel Geld.

So jetzt kommt als zusätzliches Problem das die Physikengine nur auf dem PC aber nicht auf den Konsolen laufen würde.....
Und jetzt denk noch mal drüber nach was ein Publisher sagt wenn ein Dev-Team damit ankommt das Sie ein PC-Only-Physikengine für ein Spiel schreiben wollen (das vielleicht osagr zusätzlich noch auf Konsolen aruskommen soll), wodurch sich das ganze (extrem optimistisch geschätzt) um ein halbes Jahr verzögert?

Der Publisher wird sagen das Sie einen an der Marmel haben und gefälligs eine der gängigen Physikengines am Markt benutzen sollen (speziell deshalb weil viele Publisher sowieso schon Rahmenverträge in der Richtung mit verschiedenen Physikengine-Herstellern haben, womit Sie die Lizenzen billiger bekommen)....

Na klar, irgendwann wir wohl auch ein 3rd Party Hersteller kommen und eine CS-Physik-Middelware anbieten....aber das dauert noch (weil es neu entwicklet werden muss....und nein, ich glaube nicht das das mit Bullet groß was wird...und selbst wenn es bei mehreren Titeln eingesetzt werden sollte, es läuft dann auch bei nV, die PhysX-Games@GPU aber weiterhin only bei nV).


Genau das solltest du dich fragen: wenn die Entwickler sowieso schon die PhysX-Middleware (@CPU) benutzen (und das tun durchaus allerhand), warum sollen die sich noch extra den Aufwand machen eine weitere CS-Middelware (oder von mir aus auch eigene)-Physikengine einzubauen, wenn man das auch mit der schon verwendeten PhysX-Engine @ GPU machen kann.
Fa fragt der Publisher dann nV ob die dafür noch extra ein paar Mäuse springen lassen und die Sache ist gegessen...es wird ja niemand ausgesperrt, die Physik läuft auch bei ATI-Karten-Besitzern, nur halt nicht auf der GPU.


Das ist dein Denkfehler.
Mit Compute Shader kann man rechnen, aber das ist kein Direct Physic.

Du benötigst weiterhin Middelware oder musst selbst etwas Zeit und Kostenintensiv schreiben.
DIRT2 macht es vor.
Falls du fragen hast, solltest du mal in diese Richtung schauen.
Kein Middleware.

Sonst noch Fragen?

PulsarS
2009-10-23, 23:41:15
Immer noch nicht verstanden, was der Unterschied zwischen Gameplay-Physik und Effekt-Physik ist?
Bist du witzig.
Ich habe es schon anhand HL2 veranschaulichst, was richtige Physik im Spiel ausmacht.
Nicht nur dieser Firlefanz ala PhysX@GPU.
Wenn du es nicht verstanden hast, zwingt dich niemand hier mitzureden.
Könnte nur peinlich für dich werden.
Und Gameplay-Physik ist 100 mal wichtiger ale Effekt-Physik.

Langsam könnte man meinen, du wärst ein Troll.
Wenn du jemanden nicht kennst, solltest du GANZ vorsichtig mit Urteilen sein.
Ist jetzt nett gemeint von mir.
Beim nächsten mal gibts die volle Breitseite, dann sehen wir mal wie technisch versiert du bist. ;)

ShadowXX
2009-10-23, 23:49:41
DIRT2 macht es vor.
Falls du fragen hast, solltest du mal in diese Richtung schauen.
Kein Middleware.
Sonst noch Fragen?
Bei Dirt2 wird sicher keine so ausgereifte Physikengine wie PhysX oder Havok dahinterstehen.

Da es von ATI gepusht wird, gehe ich mal davon aus das Sie Bullet benutzt haben....also durchaus eine Middleware.

Gast
2009-10-23, 23:52:11
Warum sollte der Entwickler eh auf PhysX setzen, wenn es bessere Alternativen gibt? :confused:
Entweder er nimmt Havoc oder PhysX. Schwer zu verstehen? Bei letzterem hat er die Wahl ein Zusatzabgebot zu ermöglichen.


PhysX@GPU ist schon lange auf dem Markt und hat es gerade zu ein paar Spielen gebracht.

Knapp ein Jahr.

Scheinst noch recht jung zu sein, wenn ein Jahr bei dir "recht lang" bedeuted.

LovesuckZ
2009-10-23, 23:54:32
Bist du witzig.
Ich habe es schon anhand HL2 veranschaulichst, was richtige Physik im Spiel ausmacht.
Nicht nur dieser Firlefanz ala PhysX@GPU.
Wenn du es nicht verstanden hast, zwingt dich niemand hier mitzureden.
Könnte nur peinlich für dich werden.
Und Gameplay-Physik ist 100 mal wichtiger ale Effekt-Physik.

Wenn du jemanden nicht kennst, solltest du GANZ vorsichtig mit Urteilen sein.
Ist jetzt nett gemeint von mir.
Beim nächsten mal gibts die volle Breitseite, dann sehen wir mal wie technisch versiert du bist. ;)

Erstaunlich - ich muss nicht technisch versiert sein, um zu erkennen, dass der technische Fortschritt im Bereich "Grafik" dich wohl ziemlich kalt gelassen hat und weiterhin kalt lassen wird. Tessellation z.B. bringt dir keine "Gameplay-Physik", die dir "100 mal wichtiger als Effekt-[Grafik]" ist.
Deswegen lerne den Unterschied zwischen Gameplay-Elemente und Grafik-Elemente in einem Spiel. Und lerne auch die Bedeutung von Immersion.

Bei Dirt2 wird sicher keine so ausgereifte Physikengine wie PhysX oder Havok dahinterstehen.

Da es von ATI gepusht wird, gehe ich mal davon aus das Sie Bullet benutzt haben....also durchaus eine Middleware.

Abwarten, ob es wirklich Physik@GPU gibt. Im D3D11 Trailer sehe ich davon nichts.

Gast
2009-10-23, 23:55:37
Bist du witzig.
Ich habe es schon anhand HL2 veranschaulichst, was richtige Physik im Spiel ausmacht.
Nicht nur dieser Firlefanz ala PhysX@GPU.
Schade das HL2, schon ein paar Jahre alt ist.
Wie xmal geschrieben, traurig das sich da nichts bewegt. Weit mehr als in HL2 wär auch heute möglich, Crysis zeigts.
Wird nur eben nicht angewendet, Crysis zeigst.


Und Gameplay-Physik ist 100 mal wichtiger ale Effekt-Physik.Gerade eben war dir Effektphysik doch wichtig.
1. Bist du versessen auf CS.
2. Sollte GPU PhysX der Grund gewesen sein, warum einige ein Spiel nicht kaufen. Habe ich auch wiederlegt, kam ja keine Antwort.

PulsarS
2009-10-23, 23:56:26
Bei Dirt2 wird sicher keine so ausgereifte Physikengine wie PhysX oder Havok dahinterstehen.

Da es von ATI gepusht wird, gehe ich mal davon aus das Sie Bullet benutzt haben....also durchaus eine Middleware.
Falsch.
Dirt2 benutzt eine integrierte Physikengine in der Ego-Engine. (DX11)
Darauf sind die Jungs auch zurecht stolz.
Von Tesselation un Multithrarding mal ganz abgesehen. :)

PulsarS
2009-10-24, 00:01:36
Gerade eben war dir Effektphysik doch wichtig.
Wer hat dies behauptet?
Ich nicht
Gameplay-Physik FTW.

1. Bist du versessen auf CS.
Nicht wirlich, obwohl ich einen Grund hätte.

2. Sollte GPU PhysX der Grund gewesen sein, warum einige ein Spiel nicht kaufen. Habe ich auch wiederlegt, kam ja keine Antwort.
INwiefern?
Ich sehe da keinen Zusammenhang.
Es sei denn es ist schlecht oder zumindest schlecht umgesetzt.

Gast
2009-10-24, 00:04:31
INwiefern?
Ich sehe da keinen Zusammenhang.
Es sei denn es ist schlecht oder zumindest schlecht umgesetzt.
Les dir deinen eigenen Beitrag ganz scharf durch.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7615147&postcount=108
Vor allem den mittleren Teil. :rolleyes:

ShadowXX
2009-10-24, 00:09:02
Falsch.
Dirt2 benutzt eine integrierte Physikengine in der Ego-Engine. (DX11)
Darauf sind die Jungs auch zurecht stolz.

Und wer sagt das das nicht die Bullet-Engine ist die Sie da integriert haben?

Nochmal: man Schüttelt nicht mal eben ne komplette Physikengine aus dem Ärmel.

Und ja, man kann durchaus stolz darauf sein, wenn man eine 3rd-Party Middleware mal eben innerhalb eines Monats halbwegs ordentlich in seine eigene Engine integriert.

Von Tesselation un Multithrarding mal ganz abgesehen. :)
Zumindest das Mutithreading soll relativ einfach zu realisieren sein (zumindest wurde es mir so zugetragen) und beim Rest muss man erst mal sehen.

Wenn ich mir die Trailer von Dirt 2 "normal" und Dirt 2 @ DX11 angucke sehe ich da nicht so die extremen Unterschiede.....davon absehen das ich Codemaster Render-Vids sowieso nicht traue (guck die mal die Vids von Dirt 1 und Grid an und dannach das was wirklich auf dem Bildschirm erscheint).

PulsarS
2009-10-24, 00:10:47
Erstaunlich - ich muss nicht technisch versiert sein, ...
Wenn du hier mitreden wilsst, dann solltest du es schon.
Odr willst du einfach nur trollen?

Deswegen lerne den Unterschied zwischen Gameplay-Elemente und Grafik-Elemente in einem Spiel. Und lerne auch die Bedeutung von Immersion.

Das willst du mir erzählen? :rolleyes:
Da mußt du dir aber einen dümmeren suchen, der keinen Plan von Computergrafik hat.


Abwarten, ob es wirklich Physik@GPU gibt. Im D3D11 Trailer sehe ich davon nichts.
Wäre auch ein Wunder... LOL

PulsarS
2009-10-24, 00:11:54
Les dir deinen eigenen Beitrag ganz scharf durch.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7615147&postcount=108
Vor allem den mittleren Teil. :rolleyes:
Ich sehe da nichts

Gast
2009-10-24, 00:14:13
Ich sehe da nichts
"potenzielle Käufer ausschliessen"
Kannst du nicht lesen. :rolleyes:

PulsarS
2009-10-24, 00:15:46
Und wer sagt das das nicht die Bullet-Engine ist die Sie da integriert haben?

Nochmal: man Schüttelt nicht mal eben ne komplette Physikengine aus dem Ärmel.
Könnte sein, die Aussage der Entwickler klingt aber anders.

Und ja, man kann durchaus stolz darauf sein, wenn man eine 3rd-Party Middleware mal eben innerhalb eines Monats halbwegs ordentlich in seine eigene Engine integriert.
Es ist aber keine Middleware, das haben sie extra betont.

Zumindest das Mutithreading soll relativ einfach zu realisieren sein (zumindest wurde es mir so zugetragen)
Das stimmt.

LovesuckZ
2009-10-24, 00:27:20
Wenn du hier mitreden wilsst, dann solltest du es schon.
Odr willst du einfach nur trollen?

Leider ist das hier keine technische Diskussion über die Realisierung von Physik über die GPU. Deine technischen Fähigkeiten jedenfalls scheinen dir nicht den Unterschied zwischen Gameplay-Physik und Effekt-Physik zeigen zu können. Auch das verweisen auf angebliche Fähigkeiten sollen wohl über den Fakt hinwegtäuschen, dass deine "Gameplay-Physik ist mir 100 mal wichtiger als Effekt-[Grafik/Physik]" dich in eine Ecke gedrängt hat, aus der du nicht mehr herauskommst.


Das willst du mir erzählen? :rolleyes:
Da mußt du dir aber einen dümmeren suchen, der keinen Plan von Computergrafik hat.


Was hat diese Diskussion mit Computergrafik zu tun? :confused:
Ich denke, dass du ein Problem hast zu erkennen, dass Effekt-Physik kein Gameplay-Element in einem Spiel darstellt. Und um das zu übertünschen wird es a) in Misskredit gebracht (siehe HL2 Beispiel) und b) werden die Diskussiongegner auf persönlicher Ebene ("wenn du nicht technisch versiert wärst") versucht zu erniedrigen. Das klappt nur nicht, weil es zu offensichtlich ist. Warum sollte man dir z.B. in Zukunft irgendwas abkaufen, das sich um Grafik handelt, wenn diese dir nachweislich scheißegal ist?
Lerne daher bitte erstmal deine Meinung in ein Gleichgewicht zu bringen.

PulsarS
2009-10-24, 00:41:16
Leider ist das hier keine technische Diskussion über die Realisierung von Physik über die GPU. Deine technischen Fähigkeiten jedenfalls scheinen dir nicht den Unterschied zwischen Gameplay-Physik und Effekt-Physik zeigen zu können.
Da täuschtst du dich aber gewaltig.
Ich glaube kaum, dass du da mitreden kannst.

Auch das verweisen auf angebliche Fähigkeiten sollen wohl über den Fakt hinwegtäuschen, dass deine "Gameplay-Physik ist mir 100 mal wichtiger als Effekt-[Grafik/Physik]" dich in eine Ecke gedrängt hat, aus der du nicht mehr herauskommst.
Du verstehst nicht, was ich meine, aber gut, nicht jeder kann das Problem im Gesamten erfassen.

Zum Rest sage ich lieber nicht, ich will dir nicht das Wochenende vermiesen.... ;)

Gute Nacht :)

Gast
2009-10-24, 10:44:21
Ich sehe da nichts
Ist dir eine Antwort unangenehm?

LovesuckZ
2009-10-24, 10:46:34
Da täuschtst du dich aber gewaltig.
Ich glaube kaum, dass du da mitreden kannst.

Du verstehst nicht, was ich meine, aber gut, nicht jeder kann das Problem im Gesamten erfassen.

Zum Rest sage ich lieber nicht, ich will dir nicht das Wochenende vermiesen.... ;)

Gute Nacht :)

Oh, dann erkläre mir doch bitte, warum zwischen Gameplay-Physik und Effekt-Physik kein Unterschied besteht und wieso Physik nur für Gameplay-Elemente verwendet werden darf.

Gast
2009-10-24, 12:11:03
HL2 hat nicht nur "Gamelay Physik", PulsarS.

AnarchX
2009-10-25, 19:41:16
Da hat man wohl schon einen Nachfolger für das momentan GPU-PhysX-Flagschiff Batman:
“Metro 2033 boasts some of the most advanced graphics and PhysX effects we’ve ever seen,” said Ujesh Desai, vice president of GPU business at NVIDIA. “From what we’ve seen so far, this will be a showcase PC gaming title for 2010.”
http://www.develop-online.net/news/33100/THQ-bags-Russian-shooter-rights

LovesuckZ
2009-10-25, 19:43:57
Mafia 2 und The Void kommen ebenfalls mit GPU-PhysX. Ich sehe bei Mafia 2 mehr Starpotential, da der Name wesentlich größer ist.

Gast
2009-10-25, 19:48:47
... sagte der Troll
...
Welche Beleidigung?
Argumentier du erstmal nicht wie jemand, der eine Gehirnwäsche hinter sich hat.
...
Sagt der Troll und freut sich wenn er 1000 identische Partikel anbetet.
...
Geblubber eines Trolls der nicht begreifen kann.
...
Och nein, was hat denn AMD jetzt wieder damit zutun. NV-Fanboys sind die ersten die AMD schreien, lächerlich!
...
OMG XD
Ich bin immer wieder aufs Neue erstaunt, wie Fanboys argumentieren.
Ich habe selten inhaltlosere Antworten gelesen!
....
Nebenbei wenn du nicht LZ bist, dann musst du ein Seelenverwandter sein, denn er hat nicht lange her genau den gleichen Murks mit genau den gleichen Kommentaren geschrieben.
Ich sehe in jedem deiner Worte seine Fanboy-Argumentationen und sein Ausflüchte um keine sinnvolle Antwort zu geben.
So viel Inhaltslosigkeit.
Entzückend.
Du hast mich von anfang an Beledigt, mich mit LZ angeschrieben und jetzt wirfst du mir zig Troll und Fanboy Anschuldigungen an den Kopf.
Ich nehme an du willst keine Diskussion.

mapel110
2009-10-25, 20:05:36
Mafia 2
Sicher, dass es GPU-PhysX sein wird? Ich hab dazu noch nix gelesen. Kann auch nur die CPU-Variante sein wie beispielsweise bei Risen.

LovesuckZ
2009-10-25, 20:13:17
Sicher, dass es GPU-PhysX sein wird? Ich hab dazu noch nix gelesen. Kann auch nur die CPU-Variante sein wie beispielsweise bei Risen.

Mafia 2 on NVIDIA next gen GPU Fermi launch as example of advance gaming physics.
http://twitter.com/Igor_Stanek - 4. Oktober 2010.

Da THQ PhysX als Standard-Middleware lizeniert hat, gehe ich zZ davon aus, dass es auch GPU-PhysX geben wird.

y33H@
2009-10-25, 20:14:02
Siehe PCGH-Interview (http://www.pcgameshardware.de/aid,692980/Mafia-2-Interview-Engine-Details-plus-Ersteindruck-Update-10-Minuten-Gameplay-und-neue-Bilder/Action-Spiel/Test/):
Wie wir im anschließenden Interview mit Producer Denby Grace erfuhren, entwickelte 2K Czech (ehemals Illusion Softworks) die Engine von Mafia 2 fast von Grund auf neu. Herausgekommen ist ein D3D9-Renderer, eine Unterstützung von DX10 oder DX11 wurde bereits früh verworfen. Mafia 2 ist ein lupenreiner Cross-Plattform-Titel, wenngleich der PC laut Denby Grace die Lead-Plattform darstellt und bedingt durch höhere Auflösungen sowie zusätzliche, per GPU-Physx gerenderte Partikeleffekte (unter anderem dynamischer, mit der Spielfigur interagierender Rauch) zudem die beste Grafik offeriert.

Gast
2009-10-27, 09:38:04
Ich behaupte gar nichts. Ich habe nur eine feste Behauptung widerlegt. Offenbar hast du ein Problem mit dem Lesen, oder?

In wie weit hat er denn Recht? Es scheint wirklich viele zu überfordern, den Inhalt von Beiträgen zu lesen. Tipp: Lies meine und Codas Beiträge langsam durch und verstehe ihren Inhalt. Dann kannst Du wiederkommen und was schreiben. Bis dahin, lass es lieber.
Problem mit dem Lesen ??
Hatte das Lovesucks nicht auch als argument ?

Oder ist Lovesucks etwa deine "Geheimidentität" ?

Sehr aussagekräftiges "Argument"


EOD

Grestorn
2009-10-27, 09:44:52
Problem mit dem Lesen ??
Hatte das Lovesucks nicht auch als argument ?

Wenn die Leute Probleme haben zu erfassen, was geschrieben ist und einem Dinge unterstellen, die man nie geschrieben hat, dann bleibt einem ja nichts anderes. Komischerweise laufen immer alle Aufforderungen zu belegen, wo man bestimmte Dinge geschrieben hätte, ins Leere.

Ist eine tolle Taktik, dem anderen irgendwelche doofen Aussagen zu unterstellen um ihn zu diskreditieren. Nicht mit mir mein lieber Gast!

Gast
2009-10-27, 10:12:55
woooooooow "unter anderem dynamischer, mit der Spielfigur interagierender Rauch"

ein must have... wer kann ohne sowas heute noch leben?

Grestorn
2009-10-27, 14:17:23
woooooooow "unter anderem dynamischer, mit der Spielfigur interagierender Rauch"

ein must have... wer kann ohne sowas heute noch leben?

Wer kann ohne Bloom, HDR, Anti-Aliasing, Umschießbare Bäume, Wassereffekte usw. noch leben?!

Mannometer. Ihr seid schon ein Haufen Spaßvögel.

|-Sh0r7y-|
2009-10-27, 18:05:18
Spaßvögel die alles schlecht und unnötig finden was nicht von ihrem Messias kommt ^^
Wer braucht schon bessere Atmosphäre und gute Grafik, sparen wir uns doch PhysX, Pixelshader Effekte und andere EyeCandy Mist und Spielen wieder PacMan.
dumdumdumdumdum

Malabolge
2009-10-27, 19:51:07
Wer kann ohne Bloom, HDR, Anti-Aliasing, Umschießbare Bäume, Wassereffekte usw. noch leben?!

Mannometer. Ihr seid schon ein Haufen Spaßvögel.

Ich zum Beispiel , Lieblingsgames : Unreal Tournament (I) , Serious Sam (TFE,SE,2) , Diablo , Halflife 1 , Tombraider ( Alle Teile auch die "alten" ) usw

Warum zum Teufel muss eigentlich jeder Furzeffect zum Standard erklärt werden ?
Ein bischen wabernder Nebel, macht eben noch lange keinen "SPIELSPASS" aus.

Nichts gegen Effekte , aber sinnvoll eingesetzt werden sollten sie trotzdem.
Effekte nur zum Selbstzweck erhöhen weder Spielspass , noch "Grafikimmersion".

So und jetzt gehe Ich und lese ein Buch. :biggrin: :biggrin:

Labberlippe
2009-10-27, 20:25:49
Konnten die ATI Karten wirklich gleich von anfang an mit ihrer Radeon Serie mit Geforce 2 GTS Pro KArten mithalten?

Die Radeons waren unter 32 Bit teilweise schneller als die GeForce Karten.
Die Radeon SDR war z.B schneller als die Vergleichbaren MX Karten, ich kann mich noch gut erinnern wie die nVIDIA Jünger dann über die ATI Karten hergezogen sind, weil die 16 Bit Performance schwächer als bei den GeForce Kärtchen war.
Komischerweise hatte man ja ständig auf die 3dfx Kärtchen rumgemeckert das die kein 32 Bit hatten und dies nicht zeitgemäss ist.


Hatte ATI nicht sogar den Treiber Support für Win98 nutzer eingestellt mit ihrer Radeon Serie?

Ja hatten Sie, da war aber ME schon lange am Markt und XP auch, also kein wirklicher Beinbruch und der Support von MS seitens 98 war auch beim Auslaufen.


Und ich glaub ATI hat bis zu den 3D Beschleuniger den OEM Markt fest mit S3 in der Hand.
Dan gab es Voodoo und Nvidia und Riva 128, dan gab es ne Geforce Bombe und erst einige Jahre später die erste brauchbare Radeon Serie.
ATI hatte glaub ich ein riesen Stück vom OEM und Retail Markt und bis heute bedienen sie mehr den ich sags mal vorsichtig

PhysX gegner;D

Matrox und trident waren damals auch sehr stark vertreten bevor die ersten 3D Beschleuniger gab.
Was dafür ATI/Matrox und S3 hatten waren ein Witz im Vergleich als 3dFX die Voodoo Bombe gezündet hat, danach ist dann Bewegung in den Markt gekommen.
Intel hatte einen Chip rausgebracht der sich nicht zu verstecken brauchte.
Texas Instrument b.zw. Permidia2 war auch ein passabler Chip.
Matrox hatte auch schon einen vernünftigen 3d Beschleuniger am Start.
Der Riva 128/TNT war auch brauchbar und hatte eine starke Leistung.

ATI hatte noch immer die alten Rage Karten welche nicht im Ansatz zu den Mitbewerbern ein Licht sah, erst seit der ersten Radeon gings aufwärts.

Genau genommen haben Intel, TI und Matrox dann den Markt verschlafen b.z.w sind nicht mehr in Lage gewesen den nöchsten Schritt zu machen.

Ich hatte damals sogar bedenken eine ATI Karte zu kaufen, besonders nach den Rage Schrott und deren Treibern, ich war aber sehr überrascht über die Leistung der damaligen Radeon SDR und deren Treiber, welche auf Anhieb funktioniert haben.

Ich kann es bis dato nicht nachvollziehen was hier an den Treibern von ATI gemeckert wird.
Klar hatte es genauso am Anfang ein paar kleine wehwechen gegeben die waren aber nicht so tragisch das es die Karte abgewertet hätte.

nVIDIA und ATi nehmen sich beide nicht viel von den Treibern.
Ich finde es immer wieder amüsant was hier nicht alles angedichtet wird.
Ich kenne genug User mit ATI Karten und die sind zufrieden.

Genauso kenne ich genug nVIDIA User und die sind auch zufrieden.

Jeder soll die Karte kaufen die Ihm beliebt nur das gelabbere hier ist schon bewunderswert, vorallem von manchen selbsternannten "Gurus" hier.

Gruss Labberlippe

PulsarS
2009-10-27, 21:31:51
Oh, dann erkläre mir doch bitte, warum zwischen Gameplay-Physik und Effekt-Physik kein Unterschied besteht
WO habe ich das behauptet?
Der Unterschied ist rudimentär.
Beispiele gibt es in diesem und in dem anderen PhysX-Thread genug.

und wieso Physik nur für Gameplay-Elemente verwendet werden darf.
Auch hier... wo habe ich das behauptet?
Ich habe nie gesagt, dass Physik nur fürs Gamplay verwendet werden darf.

HL2 hat nicht nur "Gamelay Physik", PulsarS.
Die Genialität von HL2 macht aber die Gameplay-Physik und nicht die (spärliche) Effekt-Physik aus.

LovesuckZ
2009-10-27, 21:36:42
WO habe ich das behauptet?
Der Unterschied ist rudimentär.
Beispiele gibt es in diesem und in dem anderen PhysX-Thread genug.

Der Unterschied zwischen Gameplay-Physik udn Effekt-Physik wäre "rudimentär"? Seit wann hat Cloth, dass keinen Einfluss auf das Gameplay hat, aber halbwegs physikalisch korrekt grafisch mit der Umwelt interagiert einen Effekt auf das Gameplay? :rolleyes:


Auch hier... wo habe ich das behauptet?
Ich habe nie gesagt, dass Physik nur fürs Gamplay verwendet werden darf.


Nö - du hast nur behauptet, dass "Gameplay-Physik mir 100 wichtiger ist als Effekt-Physik". Nicht jeder in diesem Forum hat eine Leseschwäche.

chiller
2009-10-27, 21:51:28
Wer kann ohne Bloom, HDR, Anti-Aliasing, Umschießbare Bäume, Wassereffekte usw. noch leben?!

Mannometer. Ihr seid schon ein Haufen Spaßvögel.

Was bringen mir die schönsten Effekte, wenn das Spiel schlecht ist? Ich hab schon solange kein Spiel mehr durchgespielt weil es nur noch um Grafik geht. Da pack ich lieber Spiele aus die vor der Jahrtausendwende entstanden sind und warum? Weil sich bei den meisten SPielen nichts geändert hat ausser die Grafik.

Wenn ich lebensnahe Grafik will geh ich vor die Haustür.

Da kann ich auch Rauch machen ;D


Sorry wenns vom Thema abweicht, aber über was sich hier einige sorgen machen is genial.

LovesuckZ
2009-10-27, 21:53:45
Und was hat die Diskussion mit PhysX@NV-GPU zu tun? Wem Grafik egal ist, der spielt auch eher auf Konsolen. Wem Grafik egal ist, der kauft sich auch keine neuen D3D11 Grafikkarten.

PulsarS
2009-10-27, 22:02:33
Der Unterschied zwischen Gameplay-Physik udn Effekt-Physik wäre "rudimentär"?
Mir ging es darum, dass man es einzeln betrachtet und nicht kombiniert, aber ich dachte das würde aus meinen Postings hervorgehen.
Nun gut. Dann werde ich versuchen noch akribischer zu argumentieren.

Seit wann hat Cloth, dass keinen Einfluss auf das Gameplay hat,
aber halbwegs physikalisch korrekt grafisch mit der Umwelt interagiert einen Effekt auf das Gameplay? :rolleyes:
:confused:


Nö - du hast nur behauptet, dass "Gameplay-Physik mir 100 wichtiger ist als Effekt-Physik".
Korrekt.
Deswegen verstehe ich deinen Einwand nicht:
... wieso Physik nur für Gameplay-Elemente verwendet werden darf.

Auch hier... wo habe ich das behauptet?
Ich habe nie gesagt, dass Physik nur fürs Gamplay verwendet werden darf.
Wie war das noch mal mit der Leseschwäche? ;)

Grestorn
2009-10-27, 22:03:20
Was bringen mir die schönsten Effekte, wenn das Spiel schlecht ist?

Lies bitte das Posting, auf das ich mich beziehe (direkt über meinem Posting), dann verstehst Du worauf ich hinauswill.

Der Punkt ist: Eine bestimmte Technik, die dazu dient Spiele aufzuhübschen, ist offenbar nur deswegen schlecht und völlig überflüssig, weil sie vom falschen GraKa-Hersteller stammt. Wogegen alle anderen Effekte natürlich gern gesehen sind, so lange die eigene Grafikkarte sie auch zeigt.

Wer das wirklich denkt, hat schon eine bemerkenswert einseitige Sichtweise der Realität.

Gast
2009-10-27, 22:09:24
Die Genialität von HL2 macht aber die Gameplay-Physik und nicht die (spärliche) Effekt-Physik aus.
Ich bedauer auch, das es kein HL3 gibt, aber dennoch mache ich nicht gleich alles andere total mies.

Wie gesagt, du kannst GPU PhysX nicht dafür verantwortlich machen.

Crysis hat gezeigt, das es möglich wäre, wenn man wollte, man wollte aber nicht. Der ganze Rest haben ebenfalls gar nichts gezeigt.

Black-Scorpion
2009-10-27, 22:11:58
Wer das wirklich denkt, hat schon eine bemerkenswert einseitige Sichtweise der Realität.
Was ist denn die Realität?
Das etwas proprietäres gepusht wird und die anderen Hersteller sich nicht drauf stürzen und sich Nvidia ausliefern?
Wer das nicht einsieht sollte seinen Realitätsanspruch hinterfragen.
Es wird aber bestimmt gleich wieder der alberne Vergleich mit M$ und DirectX kommen.

LovesuckZ
2009-10-27, 22:12:42
Mir ging es darum, dass man es einzeln betrachtet und nicht kombiniert, aber ich dachte das würde aus meinen Postings hervorgehen.
Nun gut. Dann werde ich versuchen noch akribischer zu argumentieren.
:confused:

Nö - du betrachtest Gameplay- und Effekt-Physik im selben Zusammenhang.

Und was ich bisher von Havoc gesehen habe (HL2) stellt ALLE PhysX@GPU Spiele extrem in den Schatten.
Das ist einfach kein Vergleich, sondern eine Demütigung für PhysX@GPU

Und das ist nur eins dieser Postings. Und deswegen beantworte doch einfach die Frage.


Korrekt.
Deswegen verstehe ich deinen Einwand nicht:
Wie war das noch mal mit der Leseschwäche? ;)

Achso, diesen 1% erlaubst du also der Effekt-Physik? Warum redest du eigentlich die ganze Zeit um den Brei? Du hast klar gemacht, dass Effekt-Physik für dich so unbedeutend sei, dass es überflüssig wäre. Mehr habe ich nie gesagt. Anscheinend scheinst du selbst nicht mehr deinen eigenen Gedanken zu vertrauen.

Gast
2009-10-27, 22:17:41
HL2 demütigt (nach seiner Auffassung) nicht nur GPU PhysX, sondern auch PhysX und Havoc.
HL2 demütigt alle anderen Spiele.

Demnach haben sämtliche Entwickler versagt.

Was er jedoch tut ist inkonsequent, er tritt nur auf GPU-PhysX rum, weils Effektphysik ist, gleichzeitig erhebt er nicht den Finger gegen Effektgrafik.

Grestorn
2009-10-27, 22:21:12
Was ist denn die Realität?
Das etwas proprietäres gepusht wird und die anderen Hersteller sich nicht drauf stürzen und sich Nvidia ausliefern?

Die Tatsache, dass es proprietär ist sagt überhaupt nichts darüber aus, wieviel optischen Gewinn es den Nutzern bringt.

Wurde 3Dfx damals auch von Dir so abgestraft (unnütze proprietäre Technologie), als sie Glide veröffentlichten?

(Siehst Du, es gibt auch noch andere Vergleiche... :) )

Propietäre Techniken sind sicher schwerer zu verkaufen, haben für den Anwender Nachteile und sind generell kritisch zu bewerten. All das bestreite ich nicht. Aber es gibt jede Menge Beispiele, wo sich proprietäre Techniken durchgesetzt haben und entweder selbst zum Standard führten oder den Weg zu einem offenen Standard bereitet haben.

Black-Scorpion
2009-10-27, 22:33:14
Die Tatsache, dass es proprietär ist sagt überhaupt nichts darüber aus, wieviel optischen Gewinn es den Nutzern bringt.

Wurde 3Dfx damals auch von Dir so abgestraft (unnütze proprietäre Technologie), als sie Glide veröffentlichten?

(Siehst Du, es gibt auch noch andere Vergleiche... :) )

Propietäre Techniken sind sicher schwerer zu verkaufen, haben für den Anwender Nachteile und sind generell kritisch zu bewerten. All das bestreite ich nicht. Aber es gibt jede Menge Beispiele, wo sich proprietäre Techniken durchgesetzt haben und entweder selbst zum Standard führten oder den Weg zu einem offenen Standard bereitet haben.
Da ich keine 3dfx Karten hatte war mir das egal. ;)
Außerdem hinkt der Vergleich. Welche andere Firma gab es denn zu der Zeit die mit 3dfx konkurrieren konnte?
Außerdem wurde schon von anderen, die es besser wissen, gesagt das es keine einfache Möglichkeit gibt das es auf ATI Karten läuft.
So wie es jetzt ist würde sich jeder den Launen von Nvidia ausliefern.

Labberlippe
2009-10-27, 22:35:14
Die Tatsache, dass es proprietär ist sagt überhaupt nichts darüber aus, wieviel optischen Gewinn es den Nutzern bringt.

Wurde 3Dfx damals auch von Dir so abgestraft (unnütze proprietäre Technologie), als sie Glide veröffentlichten?

(Siehst Du, es gibt auch noch andere Vergleiche... :) )

Propietäre Techniken sind sicher schwerer zu verkaufen, haben für den Anwender Nachteile und sind generell kritisch zu bewerten. All das bestreite ich nicht. Aber es gibt jede Menge Beispiele, wo sich proprietäre Techniken durchgesetzt haben und entweder selbst zum Standard führten oder den Weg zu einem offenen Standard bereitet haben.


Hi

Man sollte aber berücksichtigen das damals als 3dfx Glide herausgebracht hat DirectX bei weiten noch nicht mit glide mithalten konnte.
Erst später hat sich Direct X durchgesetzt und dann hatten die Hersteller auch keinen Grund mehr auf Glide zu setzen.
AB DX 6 gings aufwärts.

In meine Augen war 3dfx damals quasi allein Herscher und haben dann Glide selbst vernachlässigt und mit DX hatte man nachgehenkt.

Ich finde den 3dfx Vergleich einfach nicht richtig da damals eine ganz andere Situation war wie heute.

Gruss Labberlippe

Gast
2009-10-27, 22:38:27
Außerdem hinkt der Vergleich.
Kein Stück.
Mit einem IHV gibt es etwas mehr Qualität, an den entsprechenden Stellen.

Labberlippe
2009-10-27, 22:41:24
Kein Stück.
Mit einem IHV gibt es etwas mehr Qualität, an den entsprechenden Stellen.

Hi

Bei beiden IHVs gibt es je nach Anwendung an entsprechenen Stellen mehr Qualität.

Gruss Labberlippe

Grestorn
2009-10-27, 22:43:15
Außerdem hinkt der Vergleich. Welche andere Firma gab es denn zu der Zeit die mit 3dfx konkurrieren konnte?Wer kann mit PhysX konkurieren?
Außerdem wurde schon von anderen, die es besser wissen, gesagt das es keine einfache Möglichkeit gibt das es auf ATI Karten läuft.Naja, ich fühle mich nicht mehr nVidia ausgeliefert, als jeder ATI Kunde auch ihrem Hersteller ausgeliefert ist.

Du konstruierst Dir da schon was zusammen. Versuch mal ein wenig objektiver zu sein.

Wenn PhysX morgen nicht mehr geht, wäre das zwar schade, aber auch kein Beinbruch. Schließlich habe ich die Karte nicht wegen PhysX gekauft. Ich freue mich aber darüber, dass ich es nutzen kann.

Grestorn
2009-10-27, 22:44:11
Man sollte aber berücksichtigen das damals als 3dfx Glide herausgebracht hat DirectX bei weiten noch nicht mit glide mithalten konnte.Wenn ich mich recht erinnere GAB es noch gar kein Direct3D als Glide veröffentlicht wurde.

Grestorn
2009-10-27, 22:45:37
Bei beiden IHVs gibt es je nach Anwendung an entsprechenen Stellen mehr Qualität.Nun ja. Wenn man sich das unbedingt einreden muss um sich nicht benachteiligt fühlen zu müssen: Bitteschön.

PulsarS
2009-10-27, 22:51:36
Nö - du betrachtest Gameplay- und Effekt-Physik im selben Zusammenhang.
Wo konkret?



Und das ist nur eins dieser Postings. Und deswegen beantworte doch einfach die Frage.

Was willst du wissen?
Warum kein Spiel trotz PhysX@GPU nicht an HL2 rankommt?
Das frage ich mich ehrlich gesagt auch.
Gegen die Physik in HL2 ist Batman der reinste Kindergarten.

Achso, diesen 1% erlaubst du also der Effekt-Physik? Warum redest du eigentlich die ganze Zeit um den Brei? Du hast klar gemacht, dass Effekt-Physik für dich so unbedeutend sei, dass es überflüssig wäre. Mehr habe ich nie gesagt.

Wo habe ich das behauptet?
Du verstehst mein Anliegen einfach nicht.
PhysX@GPU ist (zumindest in den bisherigen Spielen) kein Fortschritt zum alten HL2.
Wo soll der Anreiz liegen?

Anscheinend scheinst du selbst nicht mehr deinen eigenen Gedanken zu vertrauen.
Das habe ich gerade auch von dir gedacht...:rolleyes:

Labberlippe
2009-10-27, 22:54:29
Wenn ich mich recht erinnere GAB es noch gar kein Direct3D als Glide veröffentlicht wurde.


Hi

Also wenn ich mich nicht irre hat es schon Angefangen mit DX3 nur ehrlich gesagt kein Vergleich zu Glide.

Gruss Labberlippe

Black-Scorpion
2009-10-27, 22:58:44
Wer kann mit PhysX konkurieren?
Naja, ich fühle mich nicht mehr nVidia ausgeliefert, als jeder ATI Kunde auch ihrem Hersteller ausgeliefert ist.

Du konstruierst Dir da schon was zusammen. Versuch mal ein wenig objektiver zu sein.

Wenn PhysX morgen nicht mehr geht, wäre das zwar schade, aber auch kein Beinbruch. Schließlich habe ich die Karte nicht wegen PhysX gekauft. Ich freue mich aber darüber, dass ich es nutzen kann.
PhysiX gehört Nvidia und jeder Hersteller der es übernehmen würde, würde sich Nvidia ausliefern.
Was hat das mit konstruieren zu tun?
Wie Objektiv willst du es noch?
Dir scheint die Objektivität abhanden gekommen zu sein.

Coda
2009-10-27, 22:59:36
Glide ist ziemlich low-level, nur mal so am Rande.

Labberlippe
2009-10-27, 23:01:11
Nun ja. Wenn man sich das unbedingt einreden muss um sich nicht benachteiligt fühlen zu müssen: Bitteschön.


Hi

Bitte was heist einreden und benachteiligt fühlen?

Man sollte schon erkennen das beide Hersteller gute Goodies anbieten.


Gruss Labberlippe

Gast
2009-10-27, 23:02:40
Ich wiederhole mich zum xten Male, aber wenn du es auch tust und muss es wohl so sein. ;D


Warum kein Spiel trotz PhysX@GPU nicht an HL2 rankommt?
Das frage ich mich ehrlich gesagt auch.
Gegen die Physik in HL2 ist Batman der reinste Kindergarten.

Warum kein Spiel an HL2 ran kommt, egal ob GPU oder CPU PhysX oder ob Havoc?
Warum das so ist? Denk mal drüber nach, HL2 ist weitaus älter als das 1 Jahr alte GPU PhysX.

Gegen die Physik in HL2 ist alles, alles reinster Kindergarten.


PhysX@GPU ist (zumindest in den bisherigen Spielen) kein Fortschritt zum alten HL2.
Wo soll der Anreiz liegen?
Kein einziges Spiel ist ein Fortschritt zu HL2.
Der Anreiz liegt an dem mehr an Optik.

PulsarS
2009-10-27, 23:03:52
HL2 demütigt (nach seiner Auffassung) nicht nur GPU PhysX, sondern auch PhysX und Havoc.
Nur zur Info... HL2 verwendet die Havoc-Engine ;)
Also hat deine Aussage keine Logik.


Was er jedoch tut ist inkonsequent, er tritt nur auf GPU-PhysX rum, weils Effektphysik ist, gleichzeitig erhebt er nicht den Finger gegen Effektgrafik.
Das siehst du vollkommen richtig. Lieber mehr Gameplay-Physik als zu viel Effekt-Physik (wie teilweise in Batman), weil es sonst unrealistisch wirkt.

edit:
ich sehe schon, die Diskussion hat keinen Sinn, wobei mir der Gast zumindest zustimmt was HL2 angeht... deswegen bin aus der Diskussion raus. :)
Dann hole ich lieber mein Popcorn raus und schaue, was fuer lustige "Argumentationen" noch kommen.
;D

Grestorn
2009-10-27, 23:07:37
PhysiX gehört Nvidia und jeder Hersteller der es übernehmen würde, würde sich Nvidia ausliefern.Ja und? Was spielt das für eine Rolle für mich als Anwender?

War das bei Glide denn anders?

Was hat das mit konstruieren zu tun?
Wie Objektiv willst du es noch?
Dir scheint die Objektivität abhanden gekommen zu sein.Ich will wissen was PhysX für mich als Anwender objektiv für einen Nachteil hat, oder warum es keine Vorteile für mich hat. Du versuchst ständig solche Gründe zu konstruieren, und sie sind reichlich an den Haaren herbeigezogen.

Grestorn
2009-10-27, 23:12:56
Bitte was heist einreden und benachteiligt fühlen?

Man sollte schon erkennen das beide Hersteller gute Goodies anbieten.Ich wäre sicher auch etwas verstimmt, wenn man nur mit ATI Karten in bestimmten Situationen einen deutlichen Qualitätsvorteil erzielen könnte. Aber ich würde das bestimmt nicht ATI anlasten (ganz im Gegenteil) und die Vorteile auch ganz sicher nicht nur deswegen als "unwichtig" qualifizieren, damit ich mich nicht schlecht fühlen muss. Und genau diesen Eindruck gewinnt man hier schon sehr deutlich.

Black-Scorpion
2009-10-27, 23:13:18
Sorry, aber das wird mir zu blöde.
Du willst entweder nicht verstehen oder begreifst es echt nicht.
Dein Vergleich mit Glide hinkt gewaltig.
Aber selbst das drehst du noch so bis es passt.

ende

Gast
2009-10-27, 23:13:58
Nur zur Info... HL2 verwendet die Havoc-Engine ;)
Also hat deine Aussage keine Logik.
Oh doch, deine Aussage hat keine Logic. ;)
Da es keinen Havoc Titel gibt der HL2 schlägt, ist HL2 super und Havoc scheisse.

Das siehst du vollkommen richtig. Lieber mehr Gameplay-Physik als zu viel Effekt-Physik (wie teilweise in Batman), weil es sonst unrealistisch wirkt.Du hast jedoch noch nicht zugegeben, das du auch keine Effektgrafik magst.

Entweder Effekt oder Gameplayphsik gibt es nicht. Du hast es selbst festgestellt, es gibt entweder gar nichts oder nur das eine mit minmal vom anderen.
Es gibt kein HL3. HL3 wäre nicht nur technsich machbar, es ist technisch machbar. Bisher hat es keiner umgesetzt, Crysis Fähigkeiten schlummern weiterhin.

Grestorn
2009-10-27, 23:17:23
Was will ich nicht verstehen? Und warum hinkt der Vergleich?

Du begründest nicht. Ohne Begründung sind Deine (reichlich persönlichen) Vorwürfe ziemlich substanzlos.

Dein "Ende" wirkt da eher hilflos. Schade.

Gast
2009-10-27, 23:17:48
Wem was gehört ist egal für die folgende Betrachtung.

Mit PhysX gibts mehr Qualität.

So, ich möchte ganz klar eine Absage dieser Betrachtung hören, möglichst mit einer Huldigung anderer Grafikeffekte in einem Nebensatz.

Labberlippe
2009-10-27, 23:31:42
Ich wäre sicher auch etwas verstimmt, wenn man nur mit ATI Karten in bestimmten Situationen einen deutlichen Qualitätsvorteil erzielen könnte. Aber ich würde das bestimmt nicht ATI anlasten (ganz im Gegenteil) und die Vorteile auch ganz sicher nicht nur deswegen als "unwichtig" qualifizieren, damit ich mich nicht schlecht fühlen muss. Und genau diesen Eindruck gewinnt man hier schon sehr deutlich.


Hi

Nö Grestorn ich bin sicherlich nicht jemand der PhysX als Vorteil abredet.
Ich bin jemand der zum Beispiel sich die AMD Karte wegen Eyefinity zulegen wird, bringt mir persönlich mehr als PhysX.

Mir geht es nur gegen den Strich das manche Cuda/PhysX derart in den Himmel loben um AMD eins reinzuwürgen.

Was PhysX betrifft.
Wäre es besser wenn beide Hersteller dies anbieten könnten, dann könnten wir es in mehr Spielen bewundern.

In Endefekt müssen wir mal abwarten wie sich jetzt alles mit DX 11 weiterentwickelt, ich finde persönlich den optischen Vorteil von der Tesslation z.B. besser als den von PhysX.
So ein tolles Spielerlebnis kann PhysX alleine auch nicht bringen.

Wie sich die Tesslation durchsetzen wird kann auch noch keiner sagen, genauso wie nVIDIA das handeln wird, nur sollte nVIDIA den Bereich nachlässig behandeln, dann gebe ich der Tesslation auch keine ernsthafte Chance.

Gruss Labberlippe

Labberlippe
2009-10-27, 23:36:21
Was will ich nicht verstehen? Und warum hinkt der Vergleich?

Du begründest nicht. Ohne Begründung sind Deine (reichlich persönlichen) Vorwürfe ziemlich substanzlos.

Dein "Ende" wirkt da eher hilflos. Schade.

Hi

Er will darauf hinaus, das damals es keine andere API gegeben hatte welche ernsthaft tauglich war, deshalb hat 3Dfx ja Glide entwickelt und D3D hat dann technisch Glide überholt und somit war dann bald Sense für Glide.

Gruss Labberlippe

LovesuckZ
2009-10-28, 00:02:29
Wo konkret?



Was willst du wissen?
Warum kein Spiel trotz PhysX@GPU nicht an HL2 rankommt?
Das frage ich mich ehrlich gesagt auch.
Gegen die Physik in HL2 ist Batman der reinste Kindergarten.

Wo habe ich das behauptet?
Du verstehst mein Anliegen einfach nicht.
PhysX@GPU ist (zumindest in den bisherigen Spielen) kein Fortschritt zum alten HL2.
Wo soll der Anreiz liegen?

Das habe ich gerade auch von dir gedacht...:rolleyes:

Da du weiter trollst und nichtmal so eine einfache Frage von mir beantworten kannst oder willst, werde ich dich auf meine Ignore-Liste setzen. Es wird langsam lächerlich mit solchen Leuten wie dir hier zu diskutieren, die nichtmal in der Lage sind ihr eigenes Geschreibsel noch zu verstehen. :rolleyes:

PulsarS
2009-10-28, 00:08:59
Da du weiter trollst und nichtmal so eine einfache Frage von mir beantworten kannst oder willst, werde ich dich auf meine Ignore-Liste setzen. Es wird langsam lächerlich mit solchen Leuten wie dir hier zu diskutieren, die nichtmal in der Lage sind ihr eigenes Geschreibsel noch zu verstehen. :rolleyes:
Vice versa.
Oder was war deine Frage konkret? :uconf3:

Ist ja echt lustig hier...
btw du traegst nicht unwesentlich dazu bei.
Meine Arbeitskollegen haben sich schon schlappgelacht... :D

tombman
2009-10-28, 00:21:36
Red Faction 3 hat wunderbare Game-Physik, zerstören ohne Ende, ich liebe es :D

boxleitnerb
2009-10-28, 01:04:35
Warum unterstützt das Spiel kein PhysX? Auf welchem System läuft das richtig flüssig bei voller Zerstörungswut?

mapel110
2009-10-28, 01:33:53
Warum unterstützt das Spiel kein PhysX? Auf welchem System läuft das richtig flüssig bei voller Zerstörungswut?
Richtig flüssig ist wie immer Geschmackssache. Mit einem 3 Ghz Intel Dual Core hab ich hier jedenfalls keine Schwierigkeiten.

Das Game nutzt Havok. Macht schon Sinn, wenn es um Gameplay-relevante Physik geht. Sonst würde man ja alle ATI-Kartenbesitzer als Kunden verlieren und natürlich alle Spieler, die noch eine Geforce 7 oder älter besitzen.

boxleitnerb
2009-10-28, 02:13:17
Hab ebenfalls einen 3 GHz DC und es ruckelt bei heftigen Explosionen schon ordentlich. Vielleicht haben wir nicht dasselbe Spiel? :)

Coda
2009-10-28, 02:27:13
Warum unterstützt das Spiel kein PhysX? Auf welchem System läuft das richtig flüssig bei voller Zerstörungswut?
Weil Gameplay-Physik mit PhysX eh nicht funktioniert.

reunion
2009-10-28, 07:05:02
Richtig flüssig ist wie immer Geschmackssache. Mit einem 3 Ghz Intel Dual Core hab ich hier jedenfalls keine Schwierigkeiten.

Das Game nutzt Havok. Macht schon Sinn, wenn es um Gameplay-relevante Physik geht. Sonst würde man ja alle ATI-Kartenbesitzer als Kunden verlieren und natürlich alle Spieler, die noch eine Geforce 7 oder älter besitzen.

Das macht sogar sehr viel Sinn, weil es mit PhysX auch gar nicht gehen würde. Und es zeigt vorallem einmal mehr das der Ansatz fragwürdig ist.

Grestorn
2009-10-28, 09:54:46
Er will darauf hinaus, das damals es keine andere API gegeben hatte welche ernsthaft tauglich war, deshalb hat 3Dfx ja Glide entwickelt und D3D hat dann technisch Glide überholt und somit war dann bald Sense für Glide.

Nun, genau wie es derzeit keine andere Schnittstelle für Physik auf einer GPU gibt.

Und ich halte es durchaus auch für wahrscheinlich, dass PhysX verschwinden wird in ein paar Jahren. Bis dahin haben wir durch PhysX einen Vorteil, wenn auch nur nVidia Kunden. Ganz genau wie damals bei Glide.

Deswegen finde ich, dass der Vergleich ganz und gar nicht hinkt sondern, im Gegenteil, eine fast perfekte Analogie ist.


DX11 ist übrigens eben gerade kein Alleinstellungsmerkmal von ATI, ebensowenig wie Tesselation. Eyefinity natürlich schon, und wenn das jemandem wichtiger ist als PhysX, so ist für ihn die Entscheidung ja vollkommen klar. Und es gibt keinen Grund ihm das ausreden zu wollen, aber genauso wenig Lust habe ich, mir ständig anhören zu müssen, wie wichtig Eyefinity ist und wie blöd und unsinnig PhysX ist.

mapel110
2009-10-28, 10:04:53
Da PhysX für Wii, Xbox und PS3 lizenziert wurde, wird uns diese Engine wohl noch sehr lange begleiten.

svenw
2009-10-28, 10:15:25
Da PhysX für Wii, Xbox und PS3 lizenziert wurde, wird uns diese Engine wohl noch sehr lange begleiten.
Na und? Die Konsolen haben schon mit der normalen Grafikdarstellung genügend Probleme und schlichtweg nicht genügend Wumms um auch noch sinnvoll PhyX Effekte zu berechnen. Das wäre in etwa so als ob du dich über die Möglichkeit von PhysX freust wenn du eine G210er als Graka im Rechner hast. Da hast du andere Prioritäten als PhysX.

mapel110
2009-10-28, 10:22:58
Na und? Die Konsolen haben schon mit der normalen Grafikdarstellung genügend Probleme und schlichtweg nicht genügend Wumms um auch noch sinnvoll PhyX Effekte zu berechnen. Das wäre in etwa so als ob du dich über die Möglichkeit von PhysX freust wenn du eine G210er als Graka im Rechner hast. Da hast du andere Prioritäten als PhysX.
Bei den Konsolen kommt die CPU-Version von PhysX ins Spiel. Die GPU hat damit nichts zu tun.

LovesuckZ
2009-10-28, 10:31:47
Ist es eigentlich so schwer zu begreifen, dass PhysX eine Middleware für Physik-Berechnungen ist? Und daher erstmal für die Auslegung der grundlegensten Berechnungen über die CPU dient? Was Leute hier schreiben wäre so als wenn man sagt, dass die UE3 Engine tot wäre, weil es jetzt D3D11 gibt...

Labberlippe
2009-10-28, 11:20:02
Nun, genau wie es derzeit keine andere Schnittstelle für Physik auf einer GPU gibt.

Und ich halte es durchaus auch für wahrscheinlich, dass PhysX verschwinden wird in ein paar Jahren. Bis dahin haben wir durch PhysX einen Vorteil, wenn auch nur nVidia Kunden. Ganz genau wie damals bei Glide.

Deswegen finde ich, dass der Vergleich ganz und gar nicht hinkt sondern, im Gegenteil, eine fast perfekte Analogie ist.


DX11 ist übrigens eben gerade kein Alleinstellungsmerkmal von ATI, ebensowenig wie Tesselation. Eyefinity natürlich schon, und wenn das jemandem wichtiger ist als PhysX, so ist für ihn die Entscheidung ja vollkommen klar. Und es gibt keinen Grund ihm das ausreden zu wollen, aber genauso wenig Lust habe ich, mir ständig anhören zu müssen, wie wichtig Eyefinity ist und wie blöd und unsinnig PhysX ist.


Hi

Ja das kann ich nur unterschreiben, hoffen wir das hier mehr Bewegung reinkommt und PhysX dann nicht als Nischenprodukt in der Versenkgung wieder verschwindet. :(

Gruss Labberlippe

Gast
2009-10-28, 12:31:27
PhysX ist aufgrund seines Treiberstatus schon irgendwie fragwürdig.

NV kann wie man kürzlich gesehen hat, durch ein einfaches Update bestimmte User nachträglich ausschließen.

Mir wäre es lieber gewesen man hätte PhysX als reine Physik-Engine direkt in das Spiel eingebaut und fertig.
Videoumwandler wie Badaboom oder Leiloscope brauchen ja auch keine extra Treiber installieren um Videos per Cuda umzuwandeln.


Man darf nicht vergessen, dass PhysX von Ageia entwickelt wurde und die derzeitige Verbreitung hauptsächlich auf den maßenhaften Einsatz der UE3 zurückzuführen ist. Die Implementation von PhysX in die UE3 geschah damals noch unter der Fuchtel von Ageia.

Die Frage ist ja, wieviel ist euch PhysX wert?
NVs aktuelles GT200-Design scheint im 3D-Rendering im Vergleich zur Vorgängergeneration reichlich ineffektiv zu sein, wenn man die Transistorzahl ins Verhältnis nimmt.
Dies scheint ja auf den Ausbau in Richtung GPGPU zurückführbar zu sein.
Der Fermi geht noch 10 Schritte weiter in diese Richtung.

Vernünftige Grafikleistung oder erbarmungsloses Computing?
AMD scheint derzeit den traditionellen Weg zu gehen.
Nvidia wird wohl in nächster Zeit eher auf GPGPU-Leistung vor Grafikleistung setzen. PhysX ist ein gewinnbringendes Alleinstellungsmerkmal und der reine Grafikkartenmarkt ist vielleicht ein zu hartes Pflaster.
Die vielen Konselenports machen eine fette Graka unnötig, wenn man da paar Entwickler zu den Spieleschmieden hinschickt und auf eigene Kosten die Spiele mit Physik und Features "ausbessert", hat man mehr davon.
Hier heißt es dann gezwungenermassen, willst du das Spiel mit voller Qualität spielen, dann brauchst du eine NV-Graka.

Gast
2009-10-28, 13:21:13
Ja und? Was spielt das für eine Rolle für mich als Anwender?

War das bei Glide denn anders?

Ich will wissen was PhysX für mich als Anwender objektiv für einen Nachteil hat, oder warum es keine Vorteile für mich hat. Du versuchst ständig solche Gründe zu konstruieren, und sie sind reichlich an den Haaren herbeigezogen.

Glide war eine "allgemeine" 3D-API , und wurde von D3D "ersetzt"
PhysX ist "speziell" zur Physikberechnung ersonnen worden, und somit nut für
"Sonderfälle" anzuwenden.

Hoffe das Open_CL und Compute-Shader unter DX11 "Klarheit" schaffen.
und "endlich" wieder einheitlich gearbeitet werden kann

Grestorn
2009-10-28, 13:52:18
Glide war eine "allgemeine" 3D-API , und wurde von D3D "ersetzt"
PhysX ist "speziell" zur Physikberechnung ersonnen worden, und somit nut für
"Sonderfälle" anzuwenden.

Was ist an einer 3D-API allgemeiner als an einer Physik API? Und nein, Glide hat nicht Direct3D ersetzt, Glide war schlicht vor Direct3D da.

Gast
2009-10-28, 15:54:35
Weil Gameplay-Physik mit PhysX eh nicht funktioniert.

Warum? Heißt das dass ich PhysX nur dort einsetzen kann wo es keine Abhängigkeiten mit der Umgebung gibt? Ergo nur Deko?

Gast
2009-10-28, 16:00:34
Glide und D3D kann man mit Dreamcast und Dreamcast Windows Spielen vergleichen. Glide war viel besser.

Gast
2009-10-28, 16:19:54
Was ist an einer 3D-API allgemeiner als an einer Physik API? Und nein, Glide hat nicht Direct3D ersetzt, Glide war schlicht vor Direct3D da.


Glide kann auch auf anderen Karten ablaufen- Glidewrapper anyone ?
Glide hat keine Hardware-beschränkung.

SO und jetzt zeig mir bitte den "PHYSX"-Wrapper ?
oder gar Physx über CPU ?

Schon klar mit Sonnenbrille bleibts eben Dunkel

redpanther
2009-10-28, 16:31:17
Glide kann auch auf anderen Karten ablaufen- Glidewrapper anyone ?
Glide hat keine Hardware-beschränkung.

SO und jetzt zeig mir bitte den "PHYSX"-Wrapper ?
oder gar Physx über CPU ?

Schon klar mit Sonnenbrille bleibts eben Dunkel

Die Glidewrapper hat dann aber nicht 3Dfx geschrieben und zur Verfügung gestellt. (Kamen dann auch später und waren nicht 100% kompatibel, ich würde das eher mit einem Emulator wie MAME vergleichen)

Physx läuft aud der CPU bei ALLEn oder eben auf NVidia GPUs. Wo ist denn da das Problem möchte ich gerne wissen?

Ich verstehen garnicht das gerade fast alle so sehr auf NVIDIA einschlagen. Ich meine, sowas hat ja schon immer gegeben, aber irgendwie ist es seit ein oder zwei Monaten extrem. Ist das nur hier im Forum so?

Raff
2009-10-28, 16:35:10
PhysX auf der CPU ist jedoch ein schlechter Witz, wenn man die Fps als Maßstab nimmt. Die UT3-PhysX-Levels laufen zwar auf einem übertakteten Core i7 mit mehr als 50 Fps, in Batman: Arkham Asylum bleibt jedoch selbst ein 4-GHz-i7 bei 20 Fps.

MfG,
Raff

LovesuckZ
2009-10-28, 16:36:59
Ich verstehen garnicht das gerade fast alle so sehr auf NVIDIA einschlagen. Ich meine, sowas hat ja schon immer gegeben, aber irgendwie ist es seit ein oder zwei Monaten extrem. Ist das nur hier im Forum so?

Nö, das gibt es eigentlich schon ziemlich lange. Es ist es nur lauter, weil AMD mal vor nVidia mit einer neuen Generation auf dem Markt ist.
Interessant ist z.B., dass AMD für Windows 7 keinen Support mehr für DX9 und darunterliegende Karten anbieten würde. Hört man von der selben Fraktion aufschreie, die nVidia Kundenverarsche vorwerfen, weil man die nVidia-GPU nicht mit einer AMD Karte zusammenverwenden kann, wenn es um PhysX geht? Natürlich nicht. Aber nVidia muss natürlich für jedes System, jede Kombination Support leisten.

AnarchX
2009-10-28, 16:38:26
GPU-PhysX auf der CPU ist jedoch ein schlechter Witz, wenn man die Fps als Maßstab nimmt.
...

Aber das ist wohl eher eine politische Entscheidung, als eine technische Limitierung von PhysX.

deekey777
2009-10-28, 16:38:31
Weil Gameplay-Physik mit PhysX eh nicht funktioniert.
Du meinst die über die Grafikkarte berechnete Physik?

LovesuckZ
2009-10-28, 16:40:24
...

Aber das ist wohl eher eine politische Entscheidung, als eine technische Limitierung von PhysX.

Richtig - denn Futuremark zeigt, dass PhysX sehr schön mit mehr Kernen skaliert. Und nVidia muss wohl kaum bei GPU-PhysX auf eine ordentliche Mehrkernskalierung optimieren.

AnarchX
2009-10-28, 16:44:51
Bei Warmonger lassen sich Wände zerstören, dementsprechend besteht hier schon eine Relevanz für das Gameplay.

Aber Coda meint wohl hier komplexere Anwendungen, wo die Synchronisation zwischen CPU und GPU wohl ein Problem werden könnte.

reunion
2009-10-28, 16:55:09
PhysX auf der CPU ist jedoch ein schlechter Witz, wenn man die Fps als Maßstab nimmt. Die UT3-PhysX-Levels laufen zwar auf einem übertakteten Core i7 mit mehr als 50 Fps, in Batman: Arkham Asylum bleibt jedoch selbst ein 4-GHz-i7 bei 20 Fps.

MfG,
Raff

Mit einem von acht Threads der für Physik ausgelastet wird. Das ist der Witz.

Richtig - denn Futemark zeigt, dass PhysX sehr schön mit mehr Kernen skaliert. Und nVidia muss wohl kaum bei GPU-PhysX auf eine ordentliche Mehrkernskalierung optimieren.

Da PhysX eine Physik-Engine ist wäre es im Jahr 2009 zumindest nicht zu viel verlangt wenn eine Multi-Core-Skalierung vorhanden wäre. Vorallem braucht man diese für die Grafikkarte ohnehin in noch viel größerem Ausmaß. Man muss hier also auf jeden Fall Absicht unterstellen. Warum man das so macht ist auch klar, dann würde man in vielen Fällen sehen das GPU-Physik nichts bringt oder gar kontraproduktiv wäre wenn die Grafikkarte entsprechend gefordert ist. Aber das du selbst sowas verteidigst spricht für sich.

_DrillSarge]I[
2009-10-28, 17:05:22
Bei Warmonger lassen sich Wände zerstören, dementsprechend besteht hier schon eine Relevanz für das Gameplay.
warmonger ist auch ein eher armseeliges spiel. solange man physik-effekte nicht mit noch mehr sinnlosen effekten, nur um des effektes willen (:D) aufbläst, läuft alles auch rein auf der cpu sehr geschmeidig.
http://utforums.epicgames.com/showthread.php?t=697981
und solange man das nicht künstlich beschneidet, damit man man ne tolle gpu-physx-showcase abziehen kann, gibts eigentlich auch nix zu meckern.

imo bräuchte man mal einen aufklärenden artikel bzgl. physx. das ist einfach nur eine physik-engine mit möglicher gpu-unterstützung für nv-karten.

Raff
2009-10-28, 17:06:23
Mit einem von acht Threads der für Physik ausgelastet wird. Das ist der Witz.

Yep. Aber Witz bleibt Witz. Ohne GeForce macht da PhysX keinen Spaß.

MfG,
Raff

reunion
2009-10-28, 17:09:23
Yep. Aber Witz bleibt Witz. Ohne GeForce macht da PhysX keinen Spaß.

MfG,
Raff

Darauf hat man auch penibelst geachtet. Viel besser als "kann nicht dargestellt werden" (was dann kaum jemand testen würde) ist es noch immer wenn der Balken der Konkurrenz hoffnungslos abgeschlagen ist.

Coda
2009-10-28, 17:18:21
PhysX hat Multicore-Unterstützung. Nur skaliert diese nicht wirklich gut so wie ich das bei den letzten Tests gesehen habe.

2.8.0 hat laut Release-Log da aber Verbesserungen gebracht. Außerdem muss man die Multicore-Unterstützung auch explizit anfordern.

reunion
2009-10-28, 17:29:34
Das PhysX es könnte ist unbestritten, sonst könnte man es auch nicht auf der Grafikkarte vernünftig ausführen.

|-Sh0r7y-|
2009-10-28, 20:04:55
Ich zum Beispiel , Lieblingsgames : Unreal Tournament (I) , Serious Sam (TFE,SE,2) , Diablo , Halflife 1 , Tombraider ( Alle Teile auch die "alten" ) usw

Warum zum Teufel muss eigentlich jeder Furzeffect zum Standard erklärt werden ?
Ein bischen wabernder Nebel, macht eben noch lange keinen "SPIELSPASS" aus.

Nichts gegen Effekte , aber sinnvoll eingesetzt werden sollten sie trotzdem.
Effekte nur zum Selbstzweck erhöhen weder Spielspass , noch "Grafikimmersion".

So und jetzt gehe Ich und lese ein Buch. :biggrin: :biggrin:
Und weil du solche Effekte nicht brauchst und es sie auf ATI Karten nicht gibt kannst du sie auch nicht aktivieren und wirst nicht gestört von diesen unnötigen schnickschnack.

Manche Vögel hier beissen sich doch ins eigene Fleisch.
PhsyX gibt bei Nvidia Gratis dazu also wird es niemand stören der eine hat.
Es ist im Treiber sogar de aktivierbar.

Wieso stören PhysX EyeCandy Effekte, niemand der sie nicht will bekommt sie zu sehen.
Wer keine PhysX Karte hat sowieso nicht.

Macht überhaupt kein Sinn ihr bekommt die mit ATI Karten eh nicht zu sehen und PhysX ist auch nicht schuld daran das es in Batman kein aa gibt oder What Ever.
Wo ist überhaupt das Problem an der ganzen Sache?
Wer es nicht braucht und Nvidia hat schaltet es aus.
Wer es will und Nvidia hat schaltet es an.
Wer es nicht will und ATI hat bekommt es eh nicht zu Gesicht...
Und wer ATI hat und sie will kauft Nvidia.
Wer es nicht will und ATI hat und drauf Rum meckert hat ein Vogel;D
Und das keine richtige Physik in Spiele eingebaut wird ist auch nicht Nvidia und PhysX schuld.

svenw
2009-10-29, 11:06:13
Das Problem ist doch, das es schade ist das PhysX den Bach runtergehen wird. Solange ATI es nicht unterstützt wird es ein Nischenprodukt bleiben, weil es sich kein Entwickler leisten kann die Hälfte seiner Kunden zu verärgern wenn große Effekte auf dem PC eingebaut werden. Dafür nimmt kein Studio Geld in die Hand sondern macht es nur, wenn Nvidia dafür zahlt/Progger schickt.

Und warum ATI von PhysX die Finger läßt sieht man am abschalten der Ageida Karten, die eigentlich gar nichts mit ATI/Nvidia GPU zu tun haben. PhysX als offener Standart/Open Source wäre es gewesen, denn wie mapel feststellte ist PhysX für die Konsolen lizensiert. Würde Nvidia eine offenere Politik fahren/PhysX freigeben würden am Ende alle profitieren. ATI hätte keinen Grund mehr sich zu sperren, die Entwickler könnten auf eine bekannt gute Middelware zurückgreifen, Nvidia müßte den Entwicklern nicht noch Geld in den Rachen stopfen damit sie PhysX Effekte auf dem PC integrieren und die Spieler würde es freuen.

So wie es jetzt aussieht wird eine Menge Geld dafür verschwendet eine neue Physik Middelware aus dem Boden zu stampfen und wir PC-Spieler mit unserer guten Hardware drehen Däumchen. Das ganze ist nur ärgerlich für alle und ich bezweifle das Nvidia am Ende mit dieser Politik ein Plus macht. Es wird so kommen das Nvidia letztendlich den Ageida Kauf zu Null abschreiben muß, während sie bei einer vernüftigen Politik damit hätten Geld verdienen können. AG aus Ageidas PhysX Lizenzen machen, Hälfte der Aktien an ATI verkaufen und dann gemeinsam Lizenzeinnahmen generieren (damit hätte man in der Zukunft sogar Intel schröpfen können, Larabee). So hätten alle gewonnen, Spieler Hersteller und Entwickler aber nun haben wir den gleichen Mist wie mit BluRay/HD DVD.

Gast
2009-10-29, 13:16:20
... weil es sich kein Entwickler leisten kann die Hälfte seiner Kunden zu verärgern wenn große Effekte auf dem PC eingebaut werden.
Das ist einfach Unsinn.

Warum in alles in der Welt soll jemand verärgert sein? Für maximale Qualität braucht er eben eine Geforce.
Das heißt aber auf gar keinen Fall, das das Spiel nicht von nicht Geforce Nutzer im Laden gelassen wird. Warum sollte das geschehen, meinst du der 4850 Nutzer ist beleidigt, das er einen Hacken nicht setzten kann?

Unsinn, oben haben wir doch eh gelernt das PhysX und Havoc scheisse sind.

Der Entwickler nimmt so oder so irgendeine Physik Engine. Falls er sich für PhysX entscheided sind die Chancen gegeben, das er einen Blick auf GPU PhysX wirft.
Die Entwickler müssen nur noch lernen einen Effektdichte Schalter einzubauen.


ATI hätte keinen Grund mehr sich zu sperren
AMDs Grund sind die Lizenzkosten.
Für den Kunden ist es mies, auf diese Weise wird Physik geblockt und er guckt in die Röhre.
AMD könnte selbstverständlich mitmachen. Bisher scheint es ihnen besser zu gefallen auf PhysX rumzutreten, dem Kunden keine Alternative zu bieten und mit anderen Dingen zu werben, Dingen die Neukunden betreffen.

Gast
2009-10-29, 13:36:14
Das ist einfach Unsinn.

Warum in alles in der Welt soll jemand verärgert sein? Für maximale Qualität braucht er eben eine Geforce.
Das heißt aber auf gar keinen Fall, das das Spiel nicht von nicht Geforce Nutzer im Laden gelassen wird. Warum sollte das geschehen, meinst du der 4850 Nutzer ist beleidigt, das er einen Hacken nicht setzten kann?

Einen Haken nicht setzen OK - Jedesmal beim Spielstart ne tolle Meldung - Ätsch kein ... nicht so Doll

Nvidia zeigt hier wie man ein "Qualitäts"-feature am schlechtesten "verkauft".
"Bäääh Meins" ist eben kein Verkaufsarument.
Nvidia stellt sich eben im moment wie ein bockiges Kind an. Das ganze als API freigeben und die Lizenzrechte zu GEEIGNETEN Konditionen "verkaufen" ( Vermieten - Whatever). Wo wäre das Problem, besonders da es sowieso eine "Fremdentwicklung" (AGEIA) darstellt.




AMDs Grund sind die Lizenzkosten.
Für den Kunden ist es mies, auf diese Weise wird Physik geblockt und er guckt in die Röhre.
Bei den "Konditionen" einfach nicht drin. Jede "vernünftige" Firma wird solche Angebote ablehnen. niemand bringt sich ohne Not in eine solche "abhängigkeit"




AMD könnte selbstverständlich mitmachen. Bisher scheint es ihnen besser zu gefallen auf PhysX rumzutreten, dem Kunden keine Alternative zu bieten und mit anderen Dingen zu werben, Dingen die Neukunden betreffen.

AMD könnte mitziehen - Sicher , aber ,mit was für aussichten?
Aussperrung nach Gusto Nvidia . Grundsätzliche Beschränkungen ,
willkürliche Lizenzgebühren ??. Vielleicht gefällts Nvida ja irgendwann mal zu sagen - Nö keine Lust mehr. und was dann ? Weiterentwicklung wäre nicht mehr möglich

AMD wäre blöd sich in so eine Lage (Falle) zu bringen.
für AMD oder Intel ist es vorteilhafter jetzt unter DX11 oder openCL was "eigenes" und "freies" zu machen.Und zu hoffen das es sich zum Standard "erhebt". Die Chancen stehen gut

Gast
2009-10-29, 15:13:10
Einen Haken nicht setzen OK - Jedesmal beim Spielstart ne tolle Meldung - Ätsch kein ... nicht so Doll
Screenshot oder es ist nichts passiert.
Ich weiß nicht was du meinst.


Nvidia stellt sich eben im moment wie ein bockiges Kind an. Das ganze als API freigeben und die Lizenzrechte zu GEEIGNETEN Konditionen "verkaufen" ( Vermieten - Whatever).
Was sind geeignete Konditionen?
Verschenken gehört nicht dazu.

Wo wäre das Problem, besonders da es sowieso eine "Fremdentwicklung" (AGEIA) darstellt.
Spielt keine Rolle, Nvidia hat investiert und will nicht, das andere ohne einen Cent zu zahlen von ihren Früchten profitieren.

Bei den "Konditionen" einfach nicht drin. Jede "vernünftige" Firma wird solche Angebote ablehnen. niemand bringt sich ohne Not in eine solche "abhängigkeit"Welche Konditionen?

Was hätte AMD zahlen müssen, warum gabs keine weiteren Verhandlungen?
Wenn man sich an einen Tisch setzt kann man über alles reden. Dazu muss man sich jedoch an einen Tisch setzten.

AMD könnte mitziehen - Sicher , aber ,mit was für aussichten?
Aussperrung nach Gusto Nvidia . Grundsätzliche Beschränkungen ,
willkürliche Lizenzgebühren ??. Vielleicht gefällts Nvida ja irgendwann mal zu sagen - Nö keine Lust mehr. und was dann ? Weiterentwicklung wäre nicht mehr möglich
Es gibt so etwas, das nennt sich Vertrag.
AMD zahlt, dafür hält Nvidia den anderen Teil des Vertrages ein.

Für 0cent gibts natürlich nichts.
Und wer glaubt, das AMD einfach mal Kohle rüber schiebt, ohne etwas in der Hand zu halten, der irrt massiv.

für AMD oder Intel ist es vorteilhafter jetzt unter DX11 oder openCL was "eigenes" und "freies" zu machen.Und zu hoffen das es sich zum Standard "erhebt". Die Chancen stehen gut
Es geht hier nicht um Intel.
Intel wird alles daran setzten, das sie selbst gut dastehen. AMD wird davon auf lange Sicht nicht profitieren.

Für den Kunden gibt es bisher nichts "anderes".

HatesuckZ
2009-10-29, 18:55:32
NVidia hat das Spiel aufgewertet und Warnhinweise eingebaut, damit man immer weiß was Sache ist.
Das ist doch gut!

Das ist nicht so wie bei ME wo man dann nicht weiß warum es kein AA gibt.
Letztenendes kann NVidia mit ihrem Werk machen was sie wollen, es steht nirgends, dass man Anrecht
auf PhysX oder AA hat.
Ich hoffe NV arbeitet demnächst noch an mehr Spielen mit, damit ich nicht mehr mit diesen käsigen Konsolenports überhäuft werde.

svenw
2009-10-30, 09:02:10
Ich hoffe NV arbeitet demnächst noch an mehr Spielen mit, damit ich nicht mehr mit diesen käsigen Konsolenports überhäuft werde.
Und an wievielen Spielen sollen sie rumschrauben? Ich dachte immer das wäre der Job der Entwickler, nur für 50% der Kunden macht das keiner.

Womit bewiesen wäre welch Fähigkeiten die Modschaft hier besitzt.
Solche billigen Provokationsflames zuzulassen. Und das von jemandem der sich nicht registrieren will..........

Gast
2009-10-30, 12:14:43
Und an wievielen Spielen sollen sie rumschrauben? Ich dachte immer das wäre der Job der Entwickler, nur für 50% der Kunden macht das keiner.
..........

An allen, denke ich.
Ich hoffe auf Zeiten in denen man sich keine gedanken um Kompatibilität machen muss. Da entwickelt man nur noch für eine gemeinsamme Plattform und der Spieler hat den Komfort.
Wenn AMD da nicht mitmachen will ist das ihr Pech.

Gast
2009-11-03, 11:42:20
Wenn ein Spiel PhysX nutzt egal ob rein SW oder auch mit HW-Support, so könnte NV jederzeit diese Spiele lahm legen indem die Treibersoftware verändert wird.
Wo ist eigentlich vertraglich festgeschrieben, dass die das dürfen/nicht dürfen?
Nehmen wir mal an für den Fermi wird die PhysX-SW komplett strukturell umgebaut so das alte Spiele nicht mehr richtig funktionieren.

Was mich auch interessieren würde, ist die Berechnung bei HW-On und Off immer gleich. Kommt man zum selben Ergebnis?
Bzw. wird bei HW-On auch die Spielphysik (nicht die Effektphysik) übernommen oder macht das immer die GPU?

Was für einen Speicherbedarf im Graka-Speicher hat ein PhysX-Programm?
Gibt es bestimmte Komplexitätsgrenzen bei der Erstellung von Partikeln für die Effektphysik (vielleicht limitiert Bandbreite oder Speicher)?
Wenn ich manche Spiele so sehe, dann denke ich ja.
1000mal die selbe Dose oder der selbe Stein sind nicht wirklich realistisch.

War zu Beginn der Ageia PhysX-Karten nicht die rede davon, dass Grakas nicht besonders geeignet sind Physik zu berechnen?
Man sagte die PPU wäre speziell optimiert und die GPU könnte wirklich nur Effektphysik ohne Rückgabe darstellen.

LovesuckZ
2009-11-03, 11:48:16
Und seit wann dürfen sie es mit den Grafikkarten-Treibern?

aths
2009-11-03, 14:53:01
War zu Beginn der Ageia PhysX-Karten nicht die rede davon, dass Grakas nicht besonders geeignet sind Physik zu berechnen?
Man sagte die PPU wäre speziell optimiert und die GPU könnte wirklich nur Effektphysik ohne Rückgabe darstellen.Das war richtig wenn man mit DX9-Grafikkarten vergleicht. Um SM3-GPUs als GPGPU zu nutzen, musste man die Input-Daten umständlich als Textur übergeben und bekommt den Output ebenfalls als Textur oder Framebuffer. Damit kann man die Lösung von linearen Gleichungssystemen beschleunigen (sofern die Genauigkeit ausreicht) aber vernünftige, gameplayrelevante Physik-Berechnungen dürften schwierig werden.


Videoumwandler wie Badaboom oder Leiloscope brauchen ja auch keine extra Treiber installieren um Videos per Cuda umzuwandeln.Der Cuda-Treiber wird mit dem Grafik-Treiber mitinstalliert.

aths
2009-11-03, 14:56:30
Nvidia zeigt hier wie man ein "Qualitäts"-feature am schlechtesten "verkauft".
"Bäääh Meins" ist eben kein Verkaufsarument.
Nvidia stellt sich eben im moment wie ein bockiges Kind an. Das ganze als API freigeben und die Lizenzrechte zu GEEIGNETEN Konditionen "verkaufen" ( Vermieten - Whatever). Wo wäre das Problem, besonders da es sowieso eine "Fremdentwicklung" (AGEIA) darstellt.Nvidia will weg von GPU-Lieferanten, hin zum Plattform-Lieferanten. In Sachen Chipsätze werden sie gerade von Intel ausgebremst. Anfangs kam Nvidia damit durch, dass sich für SLI der User ein Mainboard mit Nvidia-Chipsatz zulegen musste. Daraus wird wohl gefolgert, dass sich der User auch damit abfindet, sich für PhysX-Support und/oder 3D-Brillen-Support und/oder Beschleunigung von Cuda-Anwendungen eine Geforce zulegen muss.

aths
2009-11-03, 15:02:56
Ich verstehen garnicht das gerade fast alle so sehr auf NVIDIA einschlagen. Ich meine, sowas hat ja schon immer gegeben, aber irgendwie ist es seit ein oder zwei Monaten extrem. Ist das nur hier im Forum so?Nvidas ständigen und dreistem Umbenennungsaktionen, sowie das Anpreisen einer mobilen G92-Lösung als GTX 260M und GTX 280, das Abschalten der PhysX-Unterstützung auf einer Nvidia-GPU wenn der Treiber feststellt dass die Grafik von einer Nicht-Nvidia-GPU berechnet wird, das Herumwedeln mit einer gefakten Karte als "Fermi", das peinliche Herunterspielen von DX11 (was sich umkehren dürfte sobald eine DX11-GeForce erhältlich ist) – Nvidia gibt Anlass zur Kritik.

LolekDeluxe
2009-11-03, 15:16:26
PhysX auf der CPU ist jedoch ein schlechter Witz, wenn man die Fps als Maßstab nimmt. Die UT3-PhysX-Levels laufen zwar auf einem übertakteten Core i7 mit mehr als 50 Fps, in Batman: Arkham Asylum bleibt jedoch selbst ein 4-GHz-i7 bei 20 Fps.

MfG,
Raff
Woher willst Du wissen ob NV vielleicht die Leistung von PhysX auf der CPU nicht künstlich ausbremst.
Es wird ein externer Treiber installiert und nicht in das Spiel implementiert.
Der Spieleentwickler weiss also nicht was da wirklich abgeht.
Zu letzt wird eine Horde von NV Leuten eingeflogen die, die Effekte in das Spiel integrieren.
Also für mich hört sich das nicht seriös an.
Genaus so das bei Vantage ein CPUtest zu 90% von einer GPU berechnet wird.

AnarchX
2009-11-03, 15:44:33
Nvidas ständigen und dreistem Umbenennungsaktionen.[...]

Diskussion zu Nvidias Umbennungsstrategie: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7636352#post7636352

mapel110
2009-11-03, 15:54:07
aths, nvidia hat gesagt, dass derzeit PhysX wichtiger ist als DX11. Und damit haben sie verdammt nochmal recht. Battleforge stehen gegenüber BatmanAA, Sacred2 und Mirrors Edge.
Obendrein hat man in Battleforge nur ein paar fps mehr, während man bei PhysX was fürs Auge hat. 1:0 für nvidia.
Sie haben nie behauptet, dass DX11 unwichtig sei. Das haben nur News-Seiten und Fanboys daraus gemacht.

Gast
2009-11-03, 16:31:47
Der Cuda-Treiber wird mit dem Grafik-Treiber mitinstalliert.

Aber nicht der Encoder für das Umwandeln.
PhysX nutzt Cuda und ist im eigentlichen Sinne überhaupt kein richtiger Treiber, gibt sich aber als solcher aus und da hat NV die Macht.
Mir behagt das garnicht und ich erwarte den Tag an dem meine Karte kein PhysX mehr kann.

derguru
2009-11-03, 16:33:19
toller vergleich,dx11 ist gerade erst raus und schon wird verglichen gegen physX.
durch dx11 sieht es auch besser aus und ist nicht nur für fps zuständig.battleforge ist auch nicht mehr lange alleinunterhalter,stalker und dirt 2 kommen auch in spätestens 1 monat dazu.wie lange gibt es physX und wie lange dx11?super hast 3 titel genannt,das hat dx11 in 3 monaten geschafft.

Gast
2009-11-03, 16:44:49
Hätte die Unreal Engine 3 nicht PhysX integriert bekommen, sähe es heute mit PhysX zappen duster aus und damals war NVidia noch garnicht beteiligt. Da wäre die Verbreitung, selbst als SW-Physik deutlich geringer.

Deshalb finde ich hier NV als Heilsbringer darzustellen auch nicht gerade richtig, die haben sich einfach nur in das gemachte Nest gesetzt. Einen PhysX-Wrapper für Cuda geschreiben und fertig ist der Salat.

Ein Abstecher:
Alle schimpfen ja auf AMDs Stream-Technik, aber das Einzige was die meisten Spieler von Cuda sehen ist PhysX und ich denke wenn AMD Ageia gekauft hätte und PhysX integriert hätte, dann würde das sicher nicht schlechter laufen als bei NV. AMD wüsste ja selber wie man mit Stream optimal umgeht.

Das mit der alten PhysX-Architektur die von Ageia entwickelt wurde irgendwann Bruch kommt, da bin ich mir ganz sicher.
Nvidia wird das aktuelle Modell bestimmt nicht ewig unterstützen.

LovesuckZ
2009-11-03, 16:48:57
Hätte die Unreal Engine 3 nicht PhysX integriert bekommen, sähe es heute mit PhysX zappen duster aus und damals war NVidia noch garnicht beteiligt. Da wäre die Verbreitung, selbst als SW-Physik deutlich geringer.

Und hätten viele Engines nicht schon D3D10 Unterstützung, wäre die Verbreitung von D3D11 auch langsamer. :rolleyes:


Deshalb finde ich hier NV als Heilsbringer darzustellen auch nicht gerade richtig, die haben sich einfach nur in das gemachte Nest gesetzt. Einen PhysX-Wrapper für Cuda geschreiben und fertig ist der Salat.
Ein Abstecher:
Alle schimpfen ja auf AMDs Stream-Technik, aber das Einzige was die meisten Spieler von Cuda sehen ist PhysX und ich denke wenn AMD Ageia gekauft hätte und PhysX integriert hätte, dann würde das sicher nicht schlechter laufen als bei NV. AMD wüsste ja selber wie man mit Stream optimal umgeht.

Und warum haben sie es nicht gemacht? Hätte, wäre, wenn, spielt hier keine Rolle. Außerde hätte AMD Bullet oder Havok portieren können - mit denen sind sie ja so dicke.


Das mit der alten PhysX-Architektur die von Ageia entwickelt wurde irgendwann Bruch kommt, da bin ich mir ganz sicher.
Nvidia wird das aktuelle Modell bestimmt nicht ewig unterstützen.

Der Bruch kommt, wenn PhysX als Middleware nicht mehr gefragt ist.

reunion
2009-11-03, 16:54:39
aths, nvidia hat gesagt, dass derzeit PhysX wichtiger ist als DX11. Und damit haben sie verdammt nochmal recht. Battleforge stehen gegenüber BatmanAA, Sacred2 und Mirrors Edge.
Obendrein hat man in Battleforge nur ein paar fps mehr, während man bei PhysX was fürs Auge hat. 1:0 für nvidia.
Sie haben nie behauptet, dass DX11 unwichtig sei. Das haben nur News-Seiten und Fanboys daraus gemacht.

Battleforg bringt auch mehr Optik und über 20 weitere DX11 Titel sind in Entwicklung, mal sehen wie lange PhysX mithalten kann.

Grestorn
2009-11-03, 16:55:42
Battleforg bringt auch mehr Optik und über 20 weitere DX11 Titel sind in Entwicklung, mal sehen wie lange PhysX mithalten kann.

Bis die Spiele fertig sind, hat nV ja auch ihr DX11 Produkt auf dem Markt.

reunion
2009-11-03, 16:59:22
Bis die Spiele fertig sind, hat nV ja auch ihr DX11 Produkt auf dem Markt.

Das habe ich auch nicht bestritten. Aber wenn ich mir heute eine Karte kaufen ist das eben auch zu beachten. Da hilft es nicht viel wenn es heute vielleicht mehr PhysX-Titel gibt.

Grestorn
2009-11-03, 17:01:05
Das habe ich auch nicht bestritten.

...ach ja, und PhysX können sie dann immer noch. Und verschwinden wird PhysX deswegen auch nicht.

Also ist momentan zumindest DX11 kein Grund eine vorhandenen GTX durch eine HD5xxx auszutauschen. Es gibt freilich andere Gründe, aber nicht DX11 vs. PhysX. Und das war ja die Aussage von nV, nichts anderes.

derguru
2009-11-03, 17:05:33
klar wenn man kein dx11 hat kann man auch nicht pro dx11 sein,logisch das dann physX übrig bleibt.
mir kann es wurscht sein,da physX auch inzwischen in kombi mit ati klappt.:wink:

Blaire
2009-11-03, 17:10:15
Also ist momentan zumindest DX11 kein Grund eine vorhandenen GTX durch eine HD5xxx auszutauschen. Es gibt freilich andere Gründe, aber nicht DX11 vs. PhysX.

So isses. Mein Gründe sind eher die SGSSAA Modis, DX11 juckt mich hingegen nicht die Bohne vor allem deshalb nicht, da es DX10 bis heute nicht geschafft hat eine neue Ära einzuläuten. Warum sollte sich das mit DX11 auch zwangsläufig ändern...zumal die Verbreitung von DX11 Karten noch sehr rare ist. Und bevor keine Nextgen Konsolen zu haben sind wird man bis auf wenige Ausnahmen nur halbgare Konsolenports zu sehen bekommen. ;(

LovesuckZ
2009-11-03, 17:12:58
klar wenn man kein dx11 hat kann man auch nicht pro dx11 sein,logisch das dann physX übrig bleibt.

Wäre mir D3D11 wichtig, würde ich mal klar auf nVidia warten. Wäre doof, wenn nVidia auch aufgrund ihrer "gamingloseninvestieren Transistoren" unter D3D11 schnelle wäre, da CS genau auf diesen Bereich abzielt. ;D


mir kann es wurscht sein,da physX auch inzwischen in kombi mit ati klappt.:wink:

Jo, PhysX ist solange doof, bis man es mit einer nVidia-Karte nutzen kann. :freak:

reunion
2009-11-03, 17:13:58
...ach ja, und PhysX können sie dann immer noch. Und verschwinden wird PhysX deswegen auch nicht.


Auch das habe ich nicht bestritten/behauptet. Keine Ahnung was du jetzt damit willst.


Also ist momentan zumindest DX11 kein Grund eine vorhandenen GTX durch eine HD5xxx auszutauschen. Es gibt freilich andere Gründe, aber nicht DX11 vs. PhysX. Und das war ja die Aussage von nV, nichts anderes.

Ich habe mich nicht auf NV bezogen, siehe meinen Edit. Nur wegen DX11 braucht sich heute keiner eine neue Karte kaufen, keine Frage. Aber es gibt andere Gründe sich heute eine neue Karte zu kaufen und da ist DX11 in Zukunft sicherlich nicht unwichtig.

Grestorn
2009-11-03, 17:18:19
klar wenn man kein dx11 hat kann man auch nicht pro dx11 sein,logisch das dann physX übrig bleibt.
mir kann es wurscht sein,da physX auch inzwischen in kombi mit ati klappt.:wink:

Ich bin nicht "pro" oder "contra" DX11. Ich habe nur nVs Aussage erklärt, da sie manchen wohl nicht klar genug war.

Stimmt nicht. Ich bin natürlich pro-DX11. Auch jetzt schon. Und nVidia soll gefälligst endlich in die Hufe kommen. Wenn es ein für mich interessantes DX11 Spiel gibt, bei dem unter DX11 tatsächlich besser Grafik zu sehen ist (mehr als nur AA an ein zwei Kanten mehr), dann müsste ich wohl meine erste ATI Karte seit meiner seligen x800 kaufen.

Grestorn
2009-11-03, 17:19:19
@reunion: Wenn ich heute eine Karte kaufen wollte, würde ich lieber noch warten, bis alle Karten auf dem Tisch liegen.

Dann muss ich mich vielleicht gar nicht zwischen DX11 und PhysX entscheiden.

Gast
2009-11-03, 17:24:26
Wäre mir D3D11 wichtig, würde ich mal klar auf nVidia warten. Wäre doof, wenn nVidia auch aufgrund ihrer "gamingloseninvestieren Transistoren" unter D3D11 schnelle wäre, da CS genau auf diesen Bereich abzielt. ;D


Damit wollen sie etwas kompensieren, man wird sehen wie gut sich eine Gamer-Derivat des Fermi schlagen wird.
Allein die Transistorenzahl finde ich wenig aufschlußreich.

Nebenbei, vielleicht verpatzen sie es dieses mal ja, weil sie im Zugzwang sind.
Dann kommt ein kochendes Silziumungetüm mit verhältnismäßig geringen Leistungszuwachs heraus.

derguru
2009-11-03, 17:53:12
Wäre mir D3D11 wichtig, würde ich mal klar auf nVidia warten. Wäre doof, wenn nVidia auch aufgrund ihrer "gamingloseninvestieren Transistoren" unter D3D11 schnelle wäre, da CS genau auf diesen Bereich abzielt. ;D

wenn das wenn nicht wäre.:wink:

Jo, PhysX ist solange doof, bis man es mit einer nVidia-Karte nutzen kann. :freak:
hab mir nur die neugierde befriedigt und eine zusatzkarte kostet auch nicht die welt.
Ich bin nicht "pro" oder "contra" DX11. Ich habe nur nVs Aussage erklärt, da sie manchen wohl nicht klar genug war.

Stimmt nicht. Ich bin natürlich pro-DX11. Auch jetzt schon. Und nVidia soll gefälligst endlich in die Hufe kommen. Wenn es ein für mich interessantes DX11 Spiel gibt, bei dem unter DX11 tatsächlich besser Grafik zu sehen ist (mehr als nur AA an ein zwei Kanten mehr), dann müsste ich wohl meine erste ATI Karte seit meiner seligen x800 kaufen.
das war auch nicht auf dich bezogen sondern auf nv´s aussage dx11 wäre nicht wichtig.

Userxy
2009-11-03, 20:13:42
Nv bzw. der Marketingfuzzi hat gesagt, daß DX11 nicht als Alleinstellungsmerkmal wichtig ist, weil es in Zukunft von allen Karten unterstützt wird, im Gegensatz zu PhysX und 3dvision.

Sefegiru
2009-11-03, 20:17:43
Ich mag Havok, vor allem im neuen StarWars aufm PC. PhysX ist genau das gleiche nur läuft es eben nicht überall. Schade eigentlich und zu kurz gedacht imho.

Gast
2009-11-03, 21:12:11
Nö, PhysX ist wesentlich unflexibler.

LovesuckZ
2009-11-03, 21:31:10
Damit wollen sie etwas kompensieren, man wird sehen wie gut sich eine Gamer-Derivat des Fermi schlagen wird.
Allein die Transistorenzahl finde ich wenig aufschlußreich.

Was wollen sie "kompensieren"? Sie investieren Transistoren in einem Bereich, der auch von D3D11 abgedeckt wird.

wenn das wenn nicht wäre.:wink:

Hm, meinst du, dass nVidia kein GPGPU oder kein CS ünterstützen will?


das war auch nicht auf dich bezogen sondern auf nv´s aussage dx11 wäre nicht wichtig.

Die Aussage kommt von Xbitlabs.com und wurde im Gespräch überhaupt nicht getätigt. Aber so werden Lügen zu Wahrheiten

LovesuckZ
2009-11-03, 21:32:21
/edit: Bitte löschen.

Gast
2009-11-03, 22:02:08
das war auch nicht auf dich bezogen sondern auf nv´s aussage dx11 wäre nicht wichtig.
Falsch, D3D11 alleine als Kaufargument reicht nicht.

Bestes Beispiel ist AMD. Was die neben D3D11 noch anbieten, um zum Kauf zu locken darfst du dir selbst überlegen.

Gast
2009-11-03, 23:26:33
was nützt es wenn ein Hersteller etwas anbietet, was der andere nicht unterstützt. Dass würd ich mich bei nem Kauf nie mit einfliessen lassen, da ich sonst gezwungen wäre, immer bei diesem Hersteller zu bleiben. Da ich aber kein Fanboy bin sondern danach gehe, wer das beste P/L Verhältnis bietet, sind mir irgendwelche nicht standardisierten Dinge piepegal und nicht kaufentscheidend geschweige denn überhaupt beeinflussend.

LovesuckZ
2009-11-03, 23:32:45
was nützt es wenn ein Hersteller etwas anbietet, was der andere nicht unterstützt. Dass würd ich mich bei nem Kauf nie mit einfliessen lassen, da ich sonst gezwungen wäre, immer bei diesem Hersteller zu bleiben. Da ich aber kein Fanboy bin sondern danach gehe, wer das beste P/L Verhältnis bietet, sind mir irgendwelche nicht standardisierten Dinge piepegal und nicht kaufentscheidend geschweige denn überhaupt beeinflussend.

Hm, wieviele Spiele gibt es denn unter Linux? Das ist eine sehr komische Meinung, immerhin bindest du dich an Windows. Auch nicht besser.
Oder bei Konsolen - wer exklusive Titel will, muss entweder alle Konsolen haben oder sich die kaufen, die einem das beste Paket bietet.

Sefegiru
2009-11-03, 23:44:49
Wobei das Konsolenbeispiel auch nach und nach aufweicht da viele Entwickler z.B von PS exklusiv nun multiplattform anbieten. Die Gründe dafür sind vielfältig, aber im großen und ganzen geht es darum eine breitere Kundenbasis zu haben.

Sonst gilt für mich nach wievor das Plattform übergreifend schöner ist.

Gast
2009-11-04, 11:38:37
Hm, wieviele Spiele gibt es denn unter Linux? Das ist eine sehr komische Meinung, immerhin bindest du dich an Windows. Auch nicht besser.

Idealerweise müssten die Spiele dann unter OpenGL programmiert werden. Das wird aber auch von beiden GraKa Herstellern unterstützt, also versteh ich Dein Argument nicht?!


Oder bei Konsolen - wer exklusive Titel will, muss entweder alle Konsolen haben oder sich die kaufen, die einem das beste Paket bietet.
der Grund, warum ich keine Konsole habe...

Gast
2009-11-04, 11:57:54
Bis die Spiele fertig sind, hat nV ja auch ihr DX11 Produkt auf dem Markt.
Und dann ist DX11 wieder der Kracher


Errinert mich an die SM2 - SM3 diskussion. Alles Toll und Bunt solange es von Nvidia kommt. (6800 mit SM3 - Hochlebe der Featureset !)

LovesuckZ
2009-11-04, 12:04:40
Idealerweise müssten die Spiele dann unter OpenGL programmiert werden. Das wird aber auch von beiden GraKa Herstellern unterstützt, also versteh ich Dein Argument nicht?!

Dann zähle doch mal die Spiele auf, die heutzutage mit OpenGL kommen.
Du bindest dich so oder so an eine Hardware: Treiber und Features.

Gast
2009-11-04, 13:07:15
na klar binde ich mich an Hardware. Dazu gehören CPU und Grafikkarte und Soundkarte und natürlich noch der Rest. Und trotzdem soll es in meinen Augen so sein, dass ich die einzelnen Komponenten austauschen kann ohne mir Gedanken um die Funktionalität der Software machen zu müssen. Das geht bei PhysX nicht.

Sefegiru
2009-11-04, 14:57:59
Brink wird zum Beispiel ein Multiplattform OpenGL Titel....

aths
2009-11-04, 15:43:27
@reunion: Wenn ich heute eine Karte kaufen wollte, würde ich lieber noch warten, bis alle Karten auf dem Tisch liegen. Es gibt eigentlich immer einen Grund, zu warten. Daher ist meine Devise: Kaufen, wenn man will. Das führte zwar dazu, eine 8600 GTS-512 nur wenige Monate vor dem Release der 8800 GT zu kaufen, eine 9800 GTX nur wenige Monate vor dem Release der GTX+ und vor einigen Wochen die GTX 285-2048, nur wenige Montate vor dem Release der "GTX 380" – insofern immer angeschmiert. Allerdings kaufe ich grundsätzlich lieber Refresh-Versionen eines Chips als die Erstlinge einer neuen Architektur. Dafür sind die Features nicht auf dem neuesten Stand (GTX 285 kann nur D3D 10.0, wo es bereits zum Kaufzeitpunkt D3D-11-Karten gab und seit zwei Jahren (!!) bereits 10.1.)

Mein Upgrade-Grund war übrigens nicht die Grafikleistung, da reicht bei mir auch die 8600 GTS fast überall aus, sondern die Cuda-Leistung. Ich wollte, dass Vreveal schneller rechnet.

aths
2009-11-04, 15:50:37
Und dann ist DX11 wieder der Kracher

Errinert mich an die SM2 - SM3 diskussion. Alles Toll und Bunt solange es von Nvidia kommt. (6800 mit SM3 - Hochlebe der Featureset !)SM3 zu dem Zeitpunkt war richtig™.

Ohne Geforce 6 hätte kein Entwickler SM3-Hardware gehabt, wir hätten länger auf entsprechende Titel warten müssen. Dass die Rohleistung der Geforce 6 kaum ausreicht, die Vorteile von SM3 zu nutzen (längere Shader, Zwang zu FP32 sofern kein PP-Flag gesetzt ist, ungefilterter FP32-Texturzugriff im Vertexshader) spielt nicht so die Rolle. Wir hatten mit der Geforce 4 Ti zum Beispiel eine Karte, die mehr Rohleistung hatte als die Pixelshaderlänge in einem Pass umzusetzen erlaubte. Dann lieber andersrum.

Falsch, D3D11 alleine als Kaufargument reicht nicht.

Bestes Beispiel ist AMD. Was die neben D3D11 noch anbieten, um zum Kauf zu locken darfst du dir selbst überlegen.Dem Kunden ist D3D11 viel eher als Kaufargument zu vermitteln als PhysX-, Cuda- und 3D-Brillen-Support zusammen. D3D11 nutzen über kurz oder lang alle.

Cuda, PhysX und 3D-Brille erinnern an SLI: Nvidia beschränkte SLI lange auf die eigenen Chipsätze. Da ging es nicht darum, das Multi-GPU-Rendering zu pushen und dem Käufer interessante Upgrade-Optionen zu bieten, es zwar ein Zwang, dem SLI-interessierten Kunden gleich noch einen Nforce anzudrehen. Nachdem Nvidias einzig wirklicher vor einiger Zeit eingeführter Nforce-Vorteil Hybrid-Power wieder eingestellt wurde, scheinen die Firma auf Chipsätze generell keine Lust mehr zu haben (und wird hier auch von Intel gebremst.) Die Technologie bleibt bis heute eine Bastel-Lösung da die Bandbreite der Brücke zu schmal dimensioniert wurde und das Ganze anfangs nur auf ausgewählten Boards lief – zunächst noch mit SLI-Umschalter und Extra-SLI-Stromversorgung.

Immerhin ist stark positiv zu erwähnen dass es mit Cuda auch vor Windows 7 und DirectCompute möglich war, die GPU-Leistung in einigen Applikationen zu nutzen. Hier war Nvidia mal Vorreiter und Wegbereiter, ohne Cuda gäbe es möglicherweise noch gar kein DirectCompute heute.

aths
2009-11-04, 15:57:01
Bei den Konsolen kommt die CPU-Version von PhysX ins Spiel. Die GPU hat damit nichts zu tun.Wenn ich mich richtig erinnere, ist das eine andere Bibliothek die auch eine andere API nutzt als die PPU- oder GPU-beschleunigte Version.
aths, nvidia hat gesagt, dass derzeit PhysX wichtiger ist als DX11. Und damit haben sie verdammt nochmal recht. Battleforge stehen gegenüber BatmanAA, Sacred2 und Mirrors Edge.
Obendrein hat man in Battleforge nur ein paar fps mehr, während man bei PhysX was fürs Auge hat. 1:0 für nvidia.
Sie haben nie behauptet, dass DX11 unwichtig sei. Das haben nur News-Seiten und Fanboys daraus gemacht.Nvidia hat versucht, die Presse mit kritischen Fragen abzufüttern, zum Beispiel wozu man DX11 brauche wenn man durch das Konsolen-Techlevel eh noch bei DX9 sei.

Nvidias Argumentation ist nicht stringent. Zunächst gabs die Hoffnung, G92 würde dann auch mal D3D10.1 unterstützen. Das war leider nicht der Fall. Zuvor spielte sich der GPU-Entwickler voll als Technologie-Vorreiter auf (erste D3D-10-Karte.) Nicht dass ich Nvidias Bemühungen, Richtung Koprozessor zu gehen, kritisiere – doch noch ist das Kerngeschäft die Grafikkarte, seit zwei Jahren sind sie hier featuremäßig im Rückstand.

aths
2009-11-04, 16:03:43
Aber nicht der Encoder für das Umwandeln.
PhysX nutzt Cuda und ist im eigentlichen Sinne überhaupt kein richtiger Treiber, gibt sich aber als solcher aus und da hat NV die Macht.
Mir behagt das garnicht und ich erwarte den Tag an dem meine Karte kein PhysX mehr kann.Würde Nvidia die PhysX-Bibliotheken mit an den Spiele-Entwickler ausliefern, wäre es einfacher, eine Software zu schreiben welche den Cuda-Zugriff auf OpenCL oder DirectCompute umrechnet. Daran hat Nvidia natürlich kein Interesse.

Allerdings finde ich es doof, dass Nvidia – trotz dieser cGPU-Entwicklungen – keine dedizierte GPU-PhysX-Karte rausbringt die auch auf Systemen läuft auf denen einen Radeon oder S3 oder Matrox die Grafikausgabe übernimmt. Das könnte ein G92 mit 112 Shadern und 192-Bit-SI sein, so dass man die ganzen nicht 100%-ig funktionierenden Chips auf billigen Platinen (da nur 192-Bit-SI) verbauen kann.

Noch interessanter wäre "Tesla für Arme", das gleiche Produkt aber mit 128 SP und als Cuda-Karte beworben für die ganzen Anwendungen die es da gibt. Hier zeigt sich Nvidia leider wenig fantasievoll.

Gast
2009-11-04, 16:17:33
Und hätten viele Engines nicht schon D3D10 Unterstützung, wäre die Verbreitung von D3D11 auch langsamer. :rolleyes:


Sind nicht viele und DX10-Exklusiv ist nur Shattered Horizon.
DX10 ist genauso im Gulli untergegangen wie es hoffentlich bald PhysX tut.


Und warum haben sie es nicht gemacht? Hätte, wäre, wenn, spielt hier keine Rolle. Außerde hätte AMD Bullet oder Havok portieren können - mit denen sind sie ja so dicke.


Es geht hier ja um die Frage ob PhysX bei ATI schlechter aufgehoben wäre, ich denke nicht.
Außerdem setzt ATI auf offenere Wege als das zehn mal verschlossene und properitäre³ System mit Namen PhysX.


Der Bruch kommt, wenn PhysX als Middleware nicht mehr gefragt ist.

Der Bruch kommt wenn NV es für nötig hält.
Eine Garantie, dass PhysX-Spiele auch noch in Zukunft laufen gibt mir NVidia nicht. Wenn es ihnen Spaß macht dann machen sie dicht und ich als Kunde sitze im Dreck.
Vielleicht wollen sie neue Grakas verkaufen, dann denkt sich der CEO: "Hey, lasst uns PhysX für alle Karten älter als der G200 abschalten. Wir sagen einfach, dass im Zuge einer Modernisierung für diese Karten kein PhysX-Support mehr gewährt werden kann. Dann kaufen die Leute wieder neue Grafikkarten."
Weil auch der CPU-Part von PhysX-Spielen über diese Software läuft ist das Ganze noch fraglicher.

Gast
2009-11-04, 22:48:02
Dem Kunden ist D3D11 viel eher als Kaufargument zu vermitteln als PhysX-, Cuda- und 3D-Brillen-Support zusammen. D3D11 nutzen über kurz oder lang alle.
....Dennoch hat AMD unterm Strich eine HD5 mit D3D11 gebracht und keine HD4.
Längere Balken, das ist eines der Argumente, die auf jeden Fall ziehen.

LovesuckZ
2009-11-04, 22:50:12
na klar binde ich mich an Hardware. Dazu gehören CPU und Grafikkarte und Soundkarte und natürlich noch der Rest. Und trotzdem soll es in meinen Augen so sein, dass ich die einzelnen Komponenten austauschen kann ohne mir Gedanken um die Funktionalität der Software machen zu müssen. Das geht bei PhysX nicht.

Dann dürfte es keine Unterschiede zwischen nVidia und AMD geben.

Sind nicht viele und DX10-Exklusiv ist nur Shattered Horizon.
DX10 ist genauso im Gulli untergegangen wie es hoffentlich bald PhysX tut.

D3D10 ermöglichte es, dass D3D11 relativ schnell adaptiert wird. Gäbe es bis heute nur DX9 und D3D11, du würdest solch einen Quatsch nicht schreiben.


Es geht hier ja um die Frage ob PhysX bei ATI schlechter aufgehoben wäre, ich denke nicht.
Außerdem setzt ATI auf offenere Wege als das zehn mal verschlossene und properitäre³ System mit Namen PhysX.

Hier geht es um die Frage, warum AMD weder Ageia gekauft nich mit Havok und Bullet zusammenarbeitet. Bullet läuft seit mindesten März auch über Cuda. Und schön, dass AMD auf "offenere Wege" setzt. Nur irgendwie doof, wenn man als HD4 User kein DC nutzen kann, weil es noch keine Treiber gibt. Aber AMD ist ja so toll - die tun ja alles für den Gamer.
Und vergessen wir nicht die Anti-Gamer Firma nVidia: Da muss doch das kleine Bullet-Team zur Anti-Gamer Firma nVidia gehen, um support zu erhalten, weil die Gamer Firma AMD keinen Bock hat.


Der Bruch kommt wenn NV es für nötig hält.
Eine Garantie, dass PhysX-Spiele auch noch in Zukunft laufen gibt mir NVidia nicht. Wenn es ihnen Spaß macht dann machen sie dicht und ich als Kunde sitze im Dreck.
Vielleicht wollen sie neue Grakas verkaufen, dann denkt sich der CEO: "Hey, lasst uns PhysX für alle Karten älter als der G200 abschalten. Wir sagen einfach, dass im Zuge einer Modernisierung für diese Karten kein PhysX-Support mehr gewährt werden kann. Dann kaufen die Leute wieder neue Grafikkarten."
Weil auch der CPU-Part von PhysX-Spielen über diese Software läuft ist das Ganze noch fraglicher.

Warte - redest du gerade von der Firma, die für alle <DX10 Grafikkarten keinen Win7 Support anbietet? Aber stimmt, wenn es AMD macht, dann ist es gut. Macht es nVidia nicht, kommen AMD Fanboys und Trolle, die das vorraussagen. Im Gegensatz zu AMD kümmert sich nVidia um ihre Kunden.


Dem Kunden ist D3D11 viel eher als Kaufargument zu vermitteln als PhysX-, Cuda- und 3D-Brillen-Support zusammen. D3D11 nutzen über kurz oder lang alle.


Und? Wenn AMD und nVidia beide D3D11 nutzen - was unterscheidet sie dann? :rolleyes:

Sefegiru
2009-11-04, 23:39:59
Das ist eine Falschinfo Lovesucks, AMD bietet mit dem dreimonatigem Erscheinen des "Legacy" Treibers sehr wohl auch X1k und drunter Suppport für Win 7 und Co.

Imerhin besser als ein 191.07 der NF200 Chips killt :)

Coda
2009-11-05, 02:02:54
Imerhin besser als ein 191.07 der NF200 Chips killt :)
Uiui, es geht los *Popcorn holt* :D

LovesuckZ
2009-11-05, 08:10:59
Das ist eine Falschinfo Lovesucks, AMD bietet mit dem dreimonatigem Erscheinen des "Legacy" Treibers sehr wohl auch X1k und drunter Suppport für Win 7 und Co.

Legacy-Treiber für Vista - die auch unter Win7 funktionieren. Wie man das "Support" nennen kann, ist mir schleierhaft. Aber als AMD User nimmt man wohl alles in gutwollen auf.


Imerhin besser als ein 191.07 der NF200 Chips killt :)

Meiner lebt noch. :(

reunion
2009-11-05, 08:19:20
Legacy-Treiber für Vista - die auch unter Win7 funktionieren. Wie man das "Support" nennen kann, ist mir schleierhaft. Aber als AMD User nimmt man wohl alles in gutwollen auf.


Mit WDDM 1.1 können < DX10 Karten ohnehin nichts anfangen. Jahrelang bot AMD Support bis R3x0, das Pendant von NV Namens NV3x wurde lange vorher aufgegeben. Aber ist schön wenn man eine selektive Wahrnehmung besitzt. Ich bin gespannt ob NV auch noch alle drei Monate Treiber anbietet wenn man den Support <DX10-Karte einstellt. Aber ist natürlich schrecklich wenn ich für meine alte Karte, die ohnehin kaum mehr von Treiberoptimierungen profitiert nur noch alle drei Monate Treiber bekomme. Bei NV muss ich froh sein wenn überhaupt alle drei Monate neue offizielle Treiber kommen.

Es gibt andere Argumente die für die NV-Treiber sprechen, aber das ist nun wirklich lachhaft.

Gast
2009-11-05, 09:57:06
Mit WDDM 1.1 können < DX10 Karten ohnehin nichts anfangen. Jahrelang bot AMD Support bis R3x0, das Pendant von NV Namens NV3x wurde lange vorher aufgegeben.
Wo hast du den deine Infos her?
http://www.nvidia.com/object/winvista_x64_175.19_whql.html
Ist von Mitte 2008.
:lol:

Für linux gibts sogar Treiber von Mitte 2009. http://www.nvidia.com/object/linux_display_amd64_173.14.20.html
:lol:


Aber ist natürlich schrecklich wenn ich für meine alte Karte, die ohnehin kaum mehr von Treiberoptimierungen profitiert nur noch alle drei Monate Treiber bekomme. Bei NV muss ich froh sein wenn überhaupt alle drei Monate neue offizielle Treiber kommen.
Jetzt wiedersprichst du dir selbst.
1. Bei Nvidia wurde doch der Support (nach deinen seltsamen Informationen) schon vor Jahren eingestellt.
2. Wozu überhaupt neue Treiber, wenn alte Karten davon nicht profitieren?