PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Update zur BFG Ageia PhysX


Leonidas
2006-09-27, 12:59:04
Link:
http://www.3dcenter.org/artikel/ageia_physx_update/

Gast
2006-09-27, 13:53:19
mal ein kleiner vertipper, der mir auf der ersten seite aufgefallen ist ;)

Allerdings lässt sich auch ohne PhysX eine ähnliche Effekt-Qualität bei nur geringfügig schlechterer Performance erziehlen.

das "h" ist da natürlich zuviel.

der artikel selbst gefällt mir gut, und zeigt schön warum man einen derartigen luxus im moment eigentlich nicht braucht ;)

eine kurze betrachtung warum physx (zumindest mit DX9) garnicht wirklich schnell sein kann, wie in diesem thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=303077&highlight=physx
wäre vielleicht auch nicht schlecht.

BlackBirdSR
2006-09-27, 13:57:11
mal ein kleiner vertipper, der mir auf der ersten seite aufgefallen ist ;)



das "h" ist da natürlich zuviel.

der artikel selbst gefällt mir gut, und zeigt schön warum man einen derartigen luxus im moment eigentlich nicht braucht ;)

eine kurze betrachtung warum physx (zumindest mit DX9) garnicht wirklich schnell sein kann, wie in diesem thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=303077&highlight=physx
wäre vielleicht auch nicht schlecht.

Die Betrachtung ist natürlich interessant. Eventuell liefert man sowas mit Zustimmung von Demirug nach, oder verweist im nächsten Update direkt auf den Thread.
Das Problem selbst wurde im Artikel ja kurz erwähnt, sollte aber hier nicht besprochen werden.
Für die Zukunft sicherlich :)

Simon
2006-09-27, 14:05:38
Werden Rechtschreib- und Ausdruckskorrekturen wie beim letzten Mal (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4792530#post4792530) auch ignoriert oder korrigiert ihr die diesmal?

Monger
2006-09-27, 14:22:01
IMHO dominiert im Artikel die subjektive Schreibweise ein bißchen zu sehr, aber das ändert hier natürlich nichts an der absolut unstrittigen Grundaussage.

Tja, ein gutes halbes Jahr vergangen, und immer noch keinen überzeugendes Kaufargument entwickelt. Wie Demirug schon gesagt hat: Too late, too little. ATI bzw. nVidia sehen es inzwischen ja nichtmal für notwendig an, Physiksupport noch zu DirectX 9 Zeiten herauszubringen. Und wohl selbst innerhalb des nächsten Jahres werden wohl nicht genügend Killerapplikationen rauskommen, um der PhysX einen nennenswerten Markt zu verschaffen.

Sieht so aus, als wäre das wirklich ein Kandidat fürs Kuriositätenkabinett...

Moralelastix
2006-09-27, 16:33:46
Also ich steh der Ageia "Lösung" auch äußerst skeptisch gegenüber.

Aber hier macht Ageia einen besseren Eindruck: http://www.anandtech.com/showdoc.aspx?i=2828&p=1

Gast
2006-09-27, 17:07:18
nVidia sehen es inzwischen ja nichtmal für notwendig an, Physiksupport noch zu DirectX 9 Zeiten herauszubringen.

warum auch, für wirklich große zahlen an objekten ist DX9 eh nicht geeignet.

Moralelastix
2006-09-27, 17:46:04
Vielleicht würden mehr Leute posten wenn der Thread in den "Diskussions-Foren" stehen würde?

Smoke Screen
2006-09-27, 18:24:09
Verzeiht mir,aber ich habe mir in meiner technischen Unkenntniss gedacht
das ein Physikbeschleuniger die CPU generell in diesem Bezug entlasten
würde. Das am Ende also mehr Bilder pro Sekunde dabei rauskommen
da die Physikberechnungen ja von der Karte ausgeführt werden und die CPU
so Rechenzeit für andere Aufgaben hat. Anscheinend werden aber nun mehr
physikalische Objekte dargestellt ("Boah ey!!"),deren Berechnung dann der
CPU aufgebürdet wird,was zu erheblichen Framedroppings führt.
IMHO ist die Karte kein Beschleuniger sondern ein Multiplikator ohne beschleu-
nigenden Effekt.
Äeeehm,was ist denn nun der Sinn dieses nicht gerade billigen Kärtchens ?

aths
2006-09-27, 19:01:01
IMHO dominiert im Artikel die subjektive Schreibweise ein bißchen zu sehr, aber das ändert hier natürlich nichts an der absolut unstrittigen Grundaussage.

Tja, ein gutes halbes Jahr vergangen, und immer noch keinen überzeugendes Kaufargument entwickelt. Wie Demirug schon gesagt hat: Too late, too little. ATI bzw. nVidia sehen es inzwischen ja nichtmal für notwendig an, Physiksupport noch zu DirectX 9 Zeiten herauszubringen. Und wohl selbst innerhalb des nächsten Jahres werden wohl nicht genügend Killerapplikationen rauskommen, um der PhysX einen nennenswerten Markt zu verschaffen.

Sieht so aus, als wäre das wirklich ein Kandidat fürs Kuriositätenkabinett...Das würde ich so generell nicht sagen. Und was Nvidia als notwendig sieht oder nicht, sollte nie der Maßstab sein :)

Die teilweise recht subjektive Sicht auf den PhysX-Chip finde ich ganz gut. Denn BlackBirdSRs eigene Position ist ja sichtbar, er tut nicht so als wäre er der allwissende, komplett objektive Autor. Killerapps werden wir wohl noch auf längere Zeit nicht haben, zumindest nicht in der benötigten Anzahl.



Verzeiht mir,aber ich habe mir in meiner technischen Unkenntniss gedacht
das ein Physikbeschleuniger die CPU generell in diesem Bezug entlasten
würde. Das am Ende also mehr Bilder pro Sekunde dabei rauskommen
da die Physikberechnungen ja von der Karte ausgeführt werden und die CPU
so Rechenzeit für andere Aufgaben hat. Anscheinend werden aber nun mehr
physikalische Objekte dargestellt ("Boah ey!!"),deren Berechnung dann der
CPU aufgebürdet wird,was zu erheblichen Framedroppings führt.
IMHO ist die Karte kein Beschleuniger sondern ein Multiplikator ohne beschleu-
nigenden Effekt.
Äeeehm,was ist denn nun der Sinn dieses nicht gerade billigen Kärtchens ?Dieses Missverständnis gab es schon bei der T&L-Unit. Tatsächlich war die T&L-Unit gut geeignet, um bei gleicher Geschwindigkeit ein deutlich höheres statisches Geometriedetail anzuzeigen, aber nicht so gut, um das gleiche Geometriedetail deutlich schneller zu rendern.

Das bisschen, was heute an Physik in der CPU berechnet wird, braucht eine externe Beschleunigerkarte nicht zu übernehmen, denn somit würde man bestenfalls ein paar Prozent gewinnen. Richtige, durchgehend physikalische Spielwelten würden aber jede CPU überfordern. Hier setzt Ageia PhysX-Chip an. Allerdings steht die Firma nun vor dem Henne-Ei-Problem. Wer setzt auf massive Physik, wenn sogut wie kein System eine PPU eingebaut hat? Und wer kauft sich so eine Karte, solange es dafür nicht genügend Spiele gibt?

BlackBirdSR
2006-09-27, 19:08:07
Dieses Missverständnis gab es schon bei der T&L-Unit. Tatsächlich war die T&L-Unit gut geeignet, um bei gleicher Geschwindigkeit ein deutlich höheres statisches Geometriedetail anzuzeigen, aber nicht so gut, um das gleiche Geometriedetail deutlich schneller zu rendern.

Und das ist an sich auch keine schlechte Sache.
Problematisch wird es nur, wenn der Entwickler die Geometriedetails so weit erhöht, dass die Performance in den Keller geht, dem User aber keine Möglichkeit bleibt das zu verhindern.

Die wenigen PhysX-Applikationen haben eben jenes Problem.

aths
2006-09-27, 19:16:30
Und das ist an sich auch keine schlechte Sache.
Problematisch wird es nur, wenn der Entwickler die Geometriedetails so weit erhöht, dass die Performance in den Keller geht, dem User aber keine Möglichkeit bleibt das zu verhindern.

Die wenigen PhysX-Applikationen haben eben jenes Problem.Ein zweites Problem ist, dass man oft keine echte Physik braucht sondern auf vorgegebene Animationen zurückgreifen kann, ohne dass es dem Spieler gleich auffällt. Ein Spiel, welches viel Physik braucht, würde auf einem Computer ohne PPU ja gar nicht vernünftig laufen. Und wer investiert Millionen in so ein Spiel, wenn man nur mit wenigen Käufern rechnen kann ...

Auf der anderen Seite kann man durchaus bemängeln, dass zu viele Spiele primär auf die Grafik setzen. Beispielsweise dürfte das fehlende Schadensmodell bei Gran Turismo unter anderem auch darauf zurückzuführen sein, dass alle Rechenleistung in die Grafik und Fahrphysik geht, während die Rennstrecken-Umwelt völlig starr und unphysikalisch gestaltet ist.

Dass du die PPU-Entwicklung beobachtest, finde ich jedenfalls sehr gut. So hast du z. B. herausgearbeitet, welche Kritikpunkte im ersten PPU-Artikel die größten waren und was Ageia in der Zwischenzeit gemacht hast. Leider lesen die Redakteure vieler anderer Websites einfach nur die Marketing-Papiere und wurscheln sich daraus ihren Artikel zusammen, garniert mit zwei, drei Benchmarks. Aber es kommt nicht nur darauf an, Schwachstellen zu finden, sondern auch, sie zu analysieren. Imo ist dir das ziemlich gut gelungen.

Quasar
2006-09-27, 19:35:28
Fehlende Schadensmodelle bei nicht-fiktiven Rennspielen liegen meist daran, dass die Fahrzeughersteller keine Lizenz für ihre Karren rausrücken, wenn gezeigt wird, wie die Fahrgastzelle und damit die Sicherheit der Insassen kompromittiert wird.

Irreal wie es klingt, ist aber so.

aths
2006-09-27, 19:36:37
Fehlende Schadensmodelle bei nicht-fiktiven Rennspielen liegen meist daran, dass die Fahrzeughersteller keine Lizenz für ihre Karren rausrücken, wenn gezeigt wird, wie die Fahrgastzelle und damit die Sicherheit der Insassen kompromittiert wird.

Irreal wie es klingt, ist aber so.Das habe ich schon oft gehört – aber noch nie belegt gesehen.

Smoke Screen
2006-09-27, 20:12:44
D
Dieses Missverständnis gab es schon bei der T&L-Unit. Tatsächlich war die T&L-Unit gut geeignet, um bei gleicher Geschwindigkeit ein deutlich höheres statisches Geometriedetail anzuzeigen, aber nicht so gut, um das gleiche Geometriedetail deutlich schneller zu rendern.

Das bisschen, was heute an Physik in der CPU berechnet wird, braucht eine externe Beschleunigerkarte nicht zu übernehmen, denn somit würde man bestenfalls ein paar Prozent gewinnen. Richtige, durchgehend physikalische Spielwelten würden aber jede CPU überfordern. Hier setzt Ageia PhysX-Chip an. Allerdings steht die Firma nun vor dem Henne-Ei-Problem. Wer setzt auf massive Physik, wenn sogut wie kein System eine PPU eingebaut hat? Und wer kauft sich so eine Karte, solange es dafür nicht genügend Spiele gibt?

Ah! So ist das. Danke für die Aufklärung.

Auf die Frage,wer sich so eine Karte kauft trotz ungewisser Zukunft: Das ist
auch sicher eine Frage des Anschaffungspreises. Nicht jeder hat es so Dicke
wie anscheinend manche Forums-Mitglieder hier. Und 200€ werden wohl lieber
in eine Graka z.B. der 7900GS-Klasse oder eine CPU investiert.
Würde das Teil die Hälfte kosten,wären sicher mehr bereit so eine Karte auf
Risiko in ihren PC zu stecken.
Allerdings,solange Softwarelösungen wie HAVOC weder technisch und schon
mal gar nicht kunsthandwerklich im Spieldesign ausgereizt sind sieht es wohl
nicht sonderlich gut aus.

Moralelastix
2006-09-27, 20:25:59
Ich kann mich noch an den Untergang des großen Auto Frachters im Kanal entsinnen.

Da haben die Hersteller verboten das die vergammelten Luxus Karren im Detail gezeigt wurden........

Und in Zeiten wo das Martketing wichtiger scheint als das Produkt an sich hab ich keine großen Zweifel an obiger Aussage von Quasar.

Gast
2006-09-27, 20:58:16
Verzeiht mir,aber ich habe mir in meiner technischen Unkenntniss gedacht
das ein Physikbeschleuniger die CPU generell in diesem Bezug entlasten
würde. Das am Ende also mehr Bilder pro Sekunde dabei rauskommen
da die Physikberechnungen ja von der Karte ausgeführt werden und die CPU
so Rechenzeit für andere Aufgaben hat.

das problem ist, dass die physikkarte ja nur die physikalische bewegung der objekte berechnen kann. wenn man damit also die bisherigen physikalischen berechnungen auslagert, die nicht sehr aufwendig sind, gewinnt man kaum etwas.

um den physik-chip also auszulasten braucht man natürlich wesentlich mehr objekte, die der physik-chip auch ohne probleme berechnen kann.
nur wollen diese objekte natürlich nicht nur physikalisch berechnet sondern auch grafisch dargestellt werden.
diese vielen objekte treiben allerdings die anzahl der rendercalls in die höhe treibt, und damit auch die cpu-belastung. andererseits steigt natürlich auch die belastung für die grafikkarte, wo vor allem bei vielen partikeln natürlich der overdraw stark ansteigt.

viele objekte ohne physX wären natürlich noch langsamer.

aths
2006-09-27, 21:02:02
Und in Zeiten wo das Martketing wichtiger scheint als das Produkt an sich hab ich keine großen Zweifel an obiger Aussage von Quasar.Nur weil eine Behauptung vielen Leuten plausibel klingt, muss sie noch lange nicht wahr sein.


um den physik-chip also auszulasten braucht man natürlich wesentlich mehr objekte, die der physik-chip auch ohne probleme berechnen kann.
nur wollen diese objekte natürlich nicht nur physikalisch berechnet sondern auch grafisch dargestellt werden.
diese vielen objekte treiben allerdings die anzahl der rendercalls in die höhe treibt, und damit auch die cpu-belastung. andererseits steigt natürlich auch die belastung für die grafikkarte, wo vor allem bei vielen partikeln natürlich der overdraw stark ansteigt.

viele objekte ohne physX wären natürlich noch langsamer.Einige der Grafiklast-Probleme kann man mit aktuellen Direct3D9-GPUs schon ganz gut in den Griff bekommen.

Moralelastix
2006-09-27, 21:06:24
Willst Du von mir jetzt einen Link zu dem abgesoffenen Frachter?

Monger
2006-09-27, 21:07:49
Mir fällt da noch ein Problem ein...

Ich glaube, der Mensch ist gar nicht geeignet dafür, komplexe Partikeleffekte sehen zu können. Wenn uns z.B. ein Glas runterfliegt, sehen wir mehr oder minder eine Masse, die auf den Boden klatscht. Die unzähligen, winzigen Glasscherben die durch die Luft wirbeln und sich im Raum verteilen, nehmen wir gar nicht wahr.

Deshalb halte ich Partikeloverkill auch für Ressourcenverschwendung. Ich hab mal im UT2004 Editor einen Wasserstrom per Partikeln imitieren wollen. Zu meiner Überraschung reichten ein paar 100 Partikel aus, um einen scheinbar völlig durchgehenden, flüssigen Strom zu simulieren.

Das ist halt aber unglücklicherweise genau die Tendenz in die Ageia versucht zu gehen: Masse statt Klasse. Selbst wenn sie es einigermaßen performant auf die Reihe kriegen würden, investieren sie imho trotzdem am falschen Ende.

Was ich z.B. an den UT2007 Physikdemonstrationen sehr beeindruckend fand, war die Demonstration von flexiblen Gegenständen wie z.B. Schläuchen. Das sind natürlich deutlich dezentere Effekte als wenn um einen herum alles wegspritzt, aber imho wird das mittelfristig die wesentlich interessantere Anwendung sein: organische, flexible Materialien. Aber dazu muss natürlich noch einiges an Entwicklungsarbeit geleistet werden, weil in dem Bereich existiert bis jetzt ja kaum etwas...

Moralelastix
2006-09-27, 21:12:38
Mir fällt da noch ein Problem ein...

Ich glaube, der Mensch ist gar nicht geeignet dafür, komplexe Partikeleffekte sehen zu können. Wenn uns z.B. ein Glas runterfliegt, sehen wir mehr oder minder eine Masse, die auf den Boden klatscht. Die unzähligen, winzigen Glasscherben die durch die Luft wirbeln und sich im Raum verteilen, nehmen wir gar nicht wahr.

Deshalb halte ich Partikeloverkill auch für Ressourcenverschwendung. Ich hab mal im UT2004 Editor einen Wasserstrom per Partikeln imitieren wollen. Zu meiner Überraschung reichten ein paar 100 Partikel aus, um einen scheinbar völlig durchgehenden, flüssigen Strom zu simulieren.

Das ist halt aber unglücklicherweise genau die Tendenz in die Ageia versucht zu gehen: Masse statt Klasse. Selbst wenn sie es einigermaßen performant auf die Reihe kriegen würden, investieren sie imho trotzdem am falschen Ende.

Was ich z.B. an den UT2007 Physikdemonstrationen sehr beeindruckend fand, war die Demonstration von flexiblen Gegenständen wie z.B. Schläuchen. Das sind natürlich deutlich dezentere Effekte als wenn um einen herum alles wegspritzt, aber imho wird das mittelfristig die wesentlich interessantere Anwendung sein: organische, flexible Materialien. Aber dazu muss natürlich noch einiges an Entwicklungsarbeit geleistet werden, weil in dem Bereich existiert bis jetzt ja kaum etwas...


Ob mit Ageiä oder per GPU oder multi CPU für mich ist das die Zukunft. Überleg mal allein die ganzen Wettereffekte die dann möglich wären. Angefangen von Stürmen, Seegang, Lawinenabgänge, Bergrutsche, Erdbeben, Seebeben, Flutwellen, Druckwellen(von großen Bomben) usw. phantastisch!

Oder erst die ganzen Schadensmodelle(z.B. bei Autorennen) die dann genau berechnet werden können.

Smoke Screen
2006-09-27, 21:15:07
das problem ist, dass die physikkarte ja nur die physikalische bewegung der objekte berechnen kann. wenn man damit also die bisherigen physikalischen berechnungen auslagert, die nicht sehr aufwendig sind, gewinnt man kaum etwas.

um den physik-chip also auszulasten braucht man natürlich wesentlich mehr objekte, die der physik-chip auch ohne probleme berechnen kann.
nur wollen diese objekte natürlich nicht nur physikalisch berechnet sondern auch grafisch dargestellt werden.
diese vielen objekte treiben allerdings die anzahl der rendercalls in die höhe treibt, und damit auch die cpu-belastung. andererseits steigt natürlich auch die belastung für die grafikkarte, wo vor allem bei vielen partikeln natürlich der overdraw stark ansteigt.

viele objekte ohne physX wären natürlich noch langsamer.

Und schon wieder ein Stück besser informiert. Thanks.

Smoke Screen
2006-09-27, 21:23:35
Mir fällt da noch ein Problem ein...

Ja,verstehe was du meinst,aber die Spieleindustrie ist da verdammt langsichtig
was denkst du warum der Slow Motion Effect eingeführt wurde.....:eek:
Ok,warn dummer Scherz. Aber das mit Masse statt Klasse hab ich gerafft.=)

Gast
2006-09-27, 21:34:56
Und schon wieder ein Stück besser informiert. Thanks.

das problem ist vor allem die erwartungshaltung der meisten.

viele erwarten sich nun ähnliche physik zu gleicher performance, bzw. mehr physik ohne performanceverlust, was aber beides praktisch nicht möglich ist.

die physikkarte kann "nur" mehr physik bei geringerem performanceeinbruch ermöglichen, wenn noch dazu die grafikkarte limitiert, was ja bei entsprechend hohen einstellungen von auflösung, FSAA und AF meistens der fall ist, kann die physX-karte praktisch garnichts mehr an performance bringen.

aths
2006-09-27, 21:51:20
Willst Du von mir jetzt einen Link zu dem abgesoffenen Frachter?Daraus kann man nicht zwingend logisch auf die Schadensmodell-Problematik in vielen Spielen schließen. Gerade wenn die Rechenkapazität begrenzt ist, und man massiv auf Grafik und Fahrphysik setzt, muss man woanders Abstriche machen – zum Beispiel beim Schadensmodell. Ich kann mir außerdem nicht vorstellen, dass man der Presse verbieten kann, Fotos von Unglücksfällen zu veröffentlichen.

Smoke Screen
2006-09-27, 21:57:07
das problem ist vor allem die erwartungshaltung der meisten.

viele erwarten sich nun ähnliche physik zu gleicher performance, bzw. mehr physik ohne performanceverlust, was aber beides praktisch nicht möglich ist.

die physikkarte kann "nur" mehr physik bei geringerem performanceeinbruch ermöglichen, wenn noch dazu die grafikkarte limitiert, was ja bei entsprechend hohen einstellungen von auflösung, FSAA und AF meistens der fall ist, kann die physX-karte praktisch garnichts mehr an performance bringen.

Jo,kapier ich. Allerdings würde ich mir von mehr Physik erwarten das Gegen-
stände die sich in der realen Welt bewegen und manipulieren lassen das auch
in der Virtuellen tun,und nicht mehr hyperrealistische Partikeleffekte bei
Explosionen z.B.. Das ist der HL2-Lern-Effekt. Du kannst zwar mit Blechtonnen
rumschmeißen,aber der Ziegelstein ist am Boden angeschweißt.
Ich hab keine Ahnung ob das nun eine Frage des Gamedesigns ist oder ob es
da enge Grenzen der technischen Möglichkeiten gibt.

aths
2006-09-27, 22:02:25
Jo,kapier ich. Allerdings würde ich mir von mehr Physik erwarten das Gegen-
stände die sich in der realen Welt bewegen und manipulieren lassen das auch
in der Virtuellen tun,und nicht mehr hyperrealistische Partikeleffekte bei
Explosionen z.B.. Das ist der HL2-Lern-Effekt. Du kannst zwar mit Blechtonnen
rumschmeißen,aber der Ziegelstein ist am Boden angeschweißt.
Ich hab keine Ahnung ob das nun eine Frage des Gamedesigns ist oder ob es
da enge Grenzen der technischen Möglichkeiten gibt.Mal ganz abstrakt: Wenn du zwei Körper hast, kann Körper A den Körper B beeinflussen oder andersherum. Wenn du drei Körper hast, kann A zur Beeinflussung von B führen, oder von C, oder von B und C. B kann A oder C oder A und C beeinflussen, C entweder A, B oder A und B. Bei vier Körpern wird es noch mal deutlich komplexer. Bei fünf, sechs, sieben etc. explodiert die Anzahl der möglichen Kombinationen. Deshalb muss man erst mal grob gucken, was sich auf keinen Fall beeinflussen kann, bevor man ins Detail geht. Trotzdem ist es nicht nur doppelt so rechenlastig, statt 1000 mal eben 2000 Objekte zu simulieren, sondern überproportional rechenaufwändig.

Also beispielsweise eine Gesteinsbrocken-Lawine korrekt zu simulieren, ist extrem aufwändig. Zu berechnen was passiert, wenn man eine Kiste in einer ansonsten statischen Geometrie fallen lässt, ist deutlich einfacher.

Außerdem kann man (mal ganz stark vereinfacht) die komplette statische Geometrie als ein Objekt sehen. Pro beweglichem Extra-Objekt brauchst du zusätzliche Daten (Position, Lage, Geschwindigkeit, ...) also auch extra Hauptspeicher, und zum Rendering extra CPU-Leistung.

BlackBirdSR
2006-09-27, 22:13:46
Aber das Argument bleibt: Wie viel Realismus ist in dieser Hinsicht wirklich nötig?

Rise of Legends zeigt Gebäude die in großer Detailverliebtheit einbrechen. Und das ohne PhysX. Das geht bestimmt noch genauer, und eventuell mit noch mehr Variationen, theoretisch unendlich vielen. Aber merkt man das?
Es sieht jetzt schon gut aus, und ich habe wirklich nicht die Zeit und Laune mir immer zu merken wieviele verschiedene Einsturzanimationen mit unterschiedlichen Endstadien ich schon gesehen habe.

Auch erscheint es mir reichlich sinnlos, dass alle abgesprengten Teile und sonstige Rückstände auf dem Spielfeld bleiben und dort mit Explosionen oder Einheiten interagieren können. Das mag realistisch sein, aber das Spielfeld und die Einheiten an sich sind es nicht.
Hätte ich ein Battlefield mit einem Areal das dem Iraq entspricht und dann 200 Panzer wäre es wohl in Ordnung jedes Trümmerteil korrekt zu simulieren.
Besteht mein Spielfeld aber aus einem Bereich so groß wie eine bisherige Map von Battlefield o.Ä, dann macht es einfach keinen Sinn alles liegen zu lassen. Zumal ja ständig neue Fahrzeuge erschaffen werden.

Das lässt sich nun auf viele weitere Aspekte ausdehnen. UT2007? Wieviel besser und genauer muss man sterbende Figuren noch darstellen? Brauchen wir Partikeleffekte die von Fahrzeugen korrekt abprallen? Tut es nicht auch eine extrem simple Vereinfachung?
Für einen Anteil x an realistischer Darstellung zahlt man schnell x^y.
Und nun fragt man sich ob der Aufwand auch nur ansatzweise in Relation zu dem steht was man dafür aufbringen muss.

Schaut man sich Ghost Recon an so muss man das wirklich verneinen. Wenn man für diese schwächlichen Zusatzeffekte wirklich 250€ ausgeben muss, so steht das in keiner Relation.

Kladderadatsch
2006-09-27, 22:54:54
die argumentation kann man 1:1 auf die grafikentwicklung anwenden..das ist reine ansichtssache.
(ich bin da aber deiner meinung)

Smoke Screen
2006-09-27, 23:18:14
aths@
Klar,die Grenzen sind schnell erreicht. Umso mehr liegts dann am Spieldesign,
ein glaubwürdiges Szenario zu schaffen,wobei ganz klar eine implementierte
Physikengine,oder ein Stück spezieller Hardware,effektiv eingesetzt,die
Glaubwürdigkeit verstärken kann.
Da stellt sich mir die Frage wieviel Physik wird in einem Spiel gebraucht um
diese Glaubwürdigkeit zu erreichen ? Die Anforderungen an eine Rennsimulation
sind da mit Sicherheit andere als bei einem Shooter.
Und kann eine PPU da wirklich helfen,oder reichen Softwarelösungen a la Havoc ?
Bestimmte Sachen werden sich wohl ohne zusätzliche Hardwarepower nicht
darstellen lassen. Kann ich mir denken. Nur,ist das wirklich notwendig,oder eher
ein Gimmick.

Moralelastix
2006-09-28, 13:17:58
http://uk.theinquirer.net/?article=34715

Beim 3DM 06 hätte Ageiä ja auch schon mit von der Partie sein sollen.
Aber dann kam wohl was dazwischen.....


Könnte es vielleicht sein das Ageiä mit dem späten Release von Vista/DX10 kalt erwischt wurde und deswegen mit DX9 so beschissen dasteht?

Gast
2006-09-28, 16:19:58
Ich wette das in zwei bis drei Jahren kein Mensch mehr weiss was Ageia PhysX war! Das Ding wird untergehen wie der gute Autofrachter im Kanal, weil sowas wirklich niemand braucht. Kein Softwarehersteller wird ein Spiel herausbringen das man nur mit so einer Beschleunigerkarte spielen kann, die wollen ja auch ein paar Spiele verkaufen. Und wenn das Spiel dann per Patch nur unwesentlich besser aussieht und dafür auch noch schlechter läuft, was soll sowas dann? Ich denke das sowas wie Physikberechnung eher von Dual- und Quadcoreprozessoren übernommen wird.

Gast
2006-09-28, 17:17:48
Ich denke das sowas wie Physikberechnung eher von Dual- und Quadcoreprozessoren übernommen wird.

selbst wenn du von einem quad-core 3 cores nur die physik rechnen lässt, hast du nicht mal ansatzweise die leistung der physX-karte.

Monger
2006-09-28, 17:36:34
Auch erscheint es mir reichlich sinnlos, dass alle abgesprengten Teile und sonstige Rückstände auf dem Spielfeld bleiben und dort mit Explosionen oder Einheiten interagieren können. Das mag realistisch sein, aber das Spielfeld und die Einheiten an sich sind es nicht.
Hätte ich ein Battlefield mit einem Areal das dem Iraq entspricht und dann 200 Panzer wäre es wohl in Ordnung jedes Trümmerteil korrekt zu simulieren.
Besteht mein Spielfeld aber aus einem Bereich so groß wie eine bisherige Map von Battlefield o.Ä, dann macht es einfach keinen Sinn alles liegen zu lassen. Zumal ja ständig neue Fahrzeuge erschaffen werden.

Da gibt es bereits ein ganz anschauliches Beispiel: FlatOut 2. Das Spiel geizt ja wirklich nicht mit physikalischen Körpern, aber teilweise führt das zu einfach völlig abstrusen Szenen.

Ich bin da z.B. mit meinem Auto über die Piste gebrettert: vor mir die Straße mit tonnenweise Schrott verstellt, da hilft nur: Augen zu und durch. In 90% der Fälle geht es gut, in meinem hat sich irgendeine völlig unscheinbare Stange so verkeilt, dass ich unkontrolliert nach rechts weggerissen wurde und natürlich prompt frontal den Baum erwischt habe.

Realistisch? Wohl kaum. Jedes normale Auto hätte es wegen zerschlissener Reifen und Achsbruch nichtmal bis zum Baum hingeschafft. Spielerisch sinnvoll? Auch nicht. Ich will doch nicht wegen eines dummen, unvorhersehbaren Zufalls gewinnen/verlieren, sondern aufgrund meines Fahrgeschicks.

Solche Physik krankt nicht an zu wenigen Teilen, sondern an zu schwacher Berechnung. Es kann nicht sein, dass ich wie ein Gummiball von einem Plastikhütchen abspringe. Wenn da ein 1,5t Auto drauffliegt, muss das platt sein. Solange das nicht kommt, braucht man nicht noch mehr Schrott auf die Straße zu schütten.

Piffan
2006-09-28, 18:27:57
Das habe ich schon oft gehört – aber noch nie belegt gesehen.

Vielleicht äußert sich Neomi dazu. Synetic hat für die Worldracing- Reihe auch die Erlaubnis von Zermedes gebraucht. Afaik wurde ihnen da auch untersagt, die wertvollen Kisten zu demolieren.......

edit: Anders Porsche, da hatte man im Spiel NFS Porsche für damalige Verhältnisse herrlich zerknautschte Karossen...

Gast
2006-09-29, 00:59:26
Ich glaube auch das der Ageia PhysX Prozessor bald tod ist,
einfach weil es viel zu wenige Spiele gibt und aus Folge daraus viel zu wenig Leute die PPU kaufen.

Wie schon im Thread erwähnt wird das zu einem Henne Ei Problem.


Aber das ist ja nicht einmal das einzige Problem.
Viel schlimmer ist doch, daß die derzeit erhältlichen Spiele mit Ageia PhysX Unterstützung keinen einzigen Spielerischen Mehrwert bieten.

Was habe ich davon wenn in Ghost Recon der Tanklaster schöner in die Luft fliegt, aber die vielen Splitter keine Auswirkung auf die Umgebung haben.
Genau darin liegt das größte Problem,
wenn man sich als Konsument eine Physikkarte kauft,
dann erwartet man in erster Linie auch, daß sich der Mehrwert der Physikkarte auch Spielerisch auf das Gameplay auswirkt, aber das wird nicht der Fall sein,
solange nicht nahezu jeder Rechner so eine Karte hat.

Denn das wäre notwendig, wenn z.B. in einem Multiplayerspiel jeder die gleichen Gameplay Chancen haben soll, dann müßten auch alle eine entsprechende Physikkarte haben.

Und das wird wie ich schon weiter oben sagte aber nicht passieren.

Daher komme ich zu dem Fazit, daß sich die ganze Sache mit der Physik eher evolutionär statts revolutionär weiterentwickeln wird und der nächste evolutionäre Schritt in Sachen Physik sind eben die Multicore CPUs und GPUs mit Physikunterstützung.
Deswegen hat der Agaia Physikprozessor auch keine Chance mehr und ist tod.

Piffan
2006-09-29, 10:23:11
Gerade jetzt zur Zeit der Einführung von Multicore- Techniken scheint mir der Physikchip auch ne Totgeburt.
Wann kann denn der Chip die CPU entlasten? Wenn er parallel ausführbaren Code übernimmt oder er so affenartig schnell den Job macht, dass das Einklinken in die Engine für lau ist, sprich Wartezeiten sehr gering sind.
Dann schafft er ja neue Arbeit, sinnvolle Physik verändert ja die Umwelt, dass es Auswirkungen auf Gameplay hat. Diese Veränderungen und die Interaktivität der Spielwelt produziert weitere Arbeit....

Es wird also nie was bringen, wenn der Chip quasi als optionales Modul eingebunden wird, es muss vielmehr der ganze Code der Engine komplett angepasst werden. Wie wahrscheinlich ist das denn? Eher richten die Entwickler ihr Augenmerk auf weitestgehende Parallelität in ihren Engines, damit die Performance mit der Zahl der Cores skalieren kann. Die Multicore- Tendenz macht den Physik- Chip überflüssig........

Die Entwickler werden ihre wertvollen Ressourcen weniger an eine spezielle Hardware verschwenden, die nur wenige Konsumenten besitzen, sondern eher multiplattformkompatibel entwickeln. Und da ist Multicore im Moment Trumpf!

Gast
2006-09-29, 10:31:19
edit: Anders Porsche, da hatte man im Spiel NFS Porsche für damalige Verhältnisse herrlich zerknautschte Karossen...

... für die Electronic Arts damals eine Lizenz von Porsche bekam.

aths
2006-09-29, 16:13:40
Gerade jetzt zur Zeit der Einführung von Multicore- Techniken scheint mir der Physikchip auch ne Totgeburt.
Wann kann denn der Chip die CPU entlasten? Wenn er parallel ausführbaren Code übernimmt oder er so affenartig schnell den Job macht, dass das Einklinken in die Engine für lau ist, sprich Wartezeiten sehr gering sind.
Dann schafft er ja neue Arbeit, sinnvolle Physik verändert ja die Umwelt, dass es Auswirkungen auf Gameplay hat. Diese Veränderungen und die Interaktivität der Spielwelt produziert weitere Arbeit....

Es wird also nie was bringen, wenn der Chip quasi als optionales Modul eingebunden wird, es muss vielmehr der ganze Code der Engine komplett angepasst werden. Wie wahrscheinlich ist das denn? Eher richten die Entwickler ihr Augenmerk auf weitestgehende Parallelität in ihren Engines, damit die Performance mit der Zahl der Cores skalieren kann. Die Multicore- Tendenz macht den Physik- Chip überflüssig........Ganz im Gegenteil. Dank Multicores kann man die zusätzliche CPU-Arbeit, die zusätzliche Physik neben der PPU-Berechnung und die durch die Physik erhöhte Grafiklast, welche wiederum zum Teil auch die CPU belastet, auch noch schaffen.

Zudem: Wer auf einen preiswerten Singlecore setzt, wird auch kaum Geld für eine PPU übrig haben. Wer sich ein fettes Multicore-System mit viel RAM und einer Extrem-Graka zulegen kann, dürfte auch noch die PPU bezahlen können.

Das bissel zusätzliche Rechenleistung was durch Multicores reinkommt ist nix gegen die PPU. Zumal wir von der allerersten Version sprechen und bei GPU ja sehen, was für Leistungssteigerungen pro Generation möglich sind.

Monger
2006-09-29, 16:29:06
Das bissel zusätzliche Rechenleistung was durch Multicores reinkommt ist nix gegen die PPU. Zumal wir von der allerersten Version sprechen und bei GPU ja sehen, was für Leistungssteigerungen pro Generation möglich sind.

Ich sehe da aber immer noch ein rein strukturelles Problem. Eigentlich müsste die PPU sich direkt mit der GPU unterhalten können, weil die interessiert sich ja letztendlich für die Berechnungen. Stattdessen geht aber erstmal alles über die CPU.
Von einem hochspezialisierten, hochparallelisierten Prozessor auf einen universellen, stark seriellen Prozessor und von da aus wieder auf eine hochspezialisierte, hochparallelisierte Struktur...

Da passt einfach was nicht. Da MUSS es einen Engpass an irgendeiner Stelle geben. Ich glaube auch nicht dass es Zufall ist, dass wir in aktuellen Rechnern relativ wenige getrennte Chipsätze vorfinden, und man auch dort zu einheitlichen Lösungen hinstrebt (siehe Cell, AMD/ATI Deal).

Eine Zweiteilung zwischen Grafikkarte und CPU finde ich ideal: das Arbeitstier (GPU) und der Experte für besonders knifflige Aufgaben(CPU). Der Computer braucht dringend beides, aber je weniger die sich absprechen müssen, umso besser.
Der Physikbeschleuniger macht im Grunde der Grafikkarte Konkurrenz, kann aber nicht so viel, und will(kann) sich einfach mit der Grafikkarte nicht absprechen. Ich sehe für die PPU keine Nische die sie besetzen könnte.

aths
2006-09-29, 16:31:09
Ich sehe da aber immer noch ein rein strukturelles Problem. Eigentlich müsste die PPU sich direkt mit der GPU unterhalten können, weil die interessiert sich ja letztendlich für die Berechnungen. Stattdessen geht aber erstmal alles über die CPU.Das muss auch so sein, weil sie davon wissen muss, ob zum Beispiel Objekt A gerade Objekt B getroffen hat ... zumindest wenn es um mehr als reine Effektphysik in der Hintergrundgrafik geht.

Der Physikbeschleuniger macht im Grunde der Grafikkarte Konkurrenz, kann aber nicht so viel, und will(kann) sich einfach mit der Grafikkarte nicht absprechen. Ich sehe für die PPU keine Nische die sie besetzen könnte.Die PPU macht nicht GPU oder CPU Konkurrenz, sondern sieht sich als drittes Standbein.

Monger
2006-09-29, 16:41:13
Das muss auch so sein, weil sie davon wissen muss, ob zum Beispiel Objekt A gerade Objekt B getroffen hat ... zumindest wenn es um mehr als reine Effektphysik in der Hintergrundgrafik geht.

Das muss die CPU nicht unbedingt als erstes wissen, und könnte sie auch von der Grafikkarte (wenn die Graka Kollisionserkennung machen würde) rücklesen. Selbst wenn die Physik spielrelevant wird, ist die Datenmenge die zwischen CPU und PPU ausgetauscht werden muss, immer noch verschwindend gering im Vergleich zu dem was zwischen GPU und PPU passieren muss.


Die PPU macht nicht GPU oder CPU Konkurrenz, sondern sieht sich als drittes Standbein.
Dass sie sich selbst so sehen ist mir klar, die Realität sieht imho ganz anders aus. Aber so wirklich wird man das natürlich erst beurteilen können, wenn AMD und nVidia ihre Lösungen mal in der Praxis demonstrieren.

aths
2006-09-29, 16:46:14
Das muss die CPU nicht unbedingt als erstes wissen, und könnte sie auch von der Grafikkarte (wenn die Graka Kollisionserkennung machen würde) rücklesen. Selbst wenn die Physik spielrelevant wird, ist die Datenmenge die zwischen CPU und PPU ausgetauscht werden muss, immer noch verschwindend gering im Vergleich zu dem was zwischen GPU und PPU passieren muss.Wie willst du das rücklesen? Aus welchem Speicher? Und mit welcher Latenz?

Monger
2006-09-29, 16:55:06
Wie willst du das rücklesen? Aus welchem Speicher? Und mit welcher Latenz?
Aus dem VRAM. Und afaik ist die Latenz auf PCI Express hinzu genauso schnell wie rückzu. Außerdem brauchen spielrelevante Ereignisse keine so niedrige Latenz wie die Darstellung. Ob jetzt ein Spieler aufgrund eines Treffers zwei Frames früher oder später umkippt, ist nicht so wichtig.

Dass die Grafikkarten das momentan noch nicht können, ist mir klar. Aber mir scheint, der Trend geht sehr stark zu einer flexiblen Kommunikation zwischen GPU und CPU zu gehen (war da nicht bei Direct3D10 was mit Rücklesen geplant?) - und dann wäre Physikberechnung ganz klar auf der Grafikkarte am besten aufgehoben.

Gast
2006-09-29, 17:42:08
Heute kaufen sich vielleicht noch 2% aller PC-Spieler eine echte Soundkarte und der Resr begnügt sich mit Performancefressendem Onboardsound, dabei bekommt man eine vernünftige Audigy 2 für weit unter 50€. Na wieviele Spieler werden sich da wohl eine völlig überteuerte Physikkarte kaufen, die dazu noch fast völlig nutzlos ist? 0,02% vielleicht :)))

Eine Totgeburt!

aths
2006-09-29, 18:42:31
Aus dem VRAM. Und afaik ist die Latenz auf PCI Express hinzu genauso schnell wie rückzu. Außerdem brauchen spielrelevante Ereignisse keine so niedrige Latenz wie die Darstellung. Ob jetzt ein Spieler aufgrund eines Treffers zwei Frames früher oder später umkippt, ist nicht so wichtig.

Dass die Grafikkarten das momentan noch nicht können, ist mir klar. Aber mir scheint, der Trend geht sehr stark zu einer flexiblen Kommunikation zwischen GPU und CPU zu gehen (war da nicht bei Direct3D10 was mit Rücklesen geplant?) - und dann wäre Physikberechnung ganz klar auf der Grafikkarte am besten aufgehoben.Effektphysik ja. Spielphysik vielleicht. Allerdings wollen Nvidia und ATI offenbar Extra-Karten dafür, also zusätzliche Karten verkaufen. Warum dann nicht gleich Physik-Karten? GPUs müssen viel mitschleppen, was man bei der Physikberechnung gar nicht braucht. Eine Physikkarte kann dann preiswerter sein.

Es gibt auch durchaus Physik, die man mit niedriger Latenz berechnen sollte. Für "Physik-Effekte" (à la "boah, das sieht aber physikalisch aus") mögen GPUs ganz gut geeignet sein. Für eine durchgehend physikalische Welt? Da hege ich Zweifel. Noch sind GPUs spezielle Grafik- und keine allgemeinen Stream-Prozessoren.

Monger
2006-09-29, 19:13:22
Es gibt auch durchaus Physik, die man mit niedriger Latenz berechnen sollte. Für "Physik-Effekte" (à la "boah, das sieht aber physikalisch aus") mögen GPUs ganz gut geeignet sein. Für eine durchgehend physikalische Welt? Da hege ich Zweifel. Noch sind GPUs spezielle Grafik- und keine allgemeinen Stream-Prozessoren.
Ich lehne mich jetzt mal sehr weit aus dem Fenster und behaupte: das kann die PhysX auch nicht. In irgendeinem Test haben sie mal gezeigt, wie diese flatternde, zerreissbare Fahne in Cellfactor an der Performance zieht. Das war mehr als die ganze Kisten-Sprengerei gebraucht hat.
In so einer Szene sehe ich keine Objekt-Limitierung durch DirectX 9 so wie Demirug das beschrieben hat. Ob sowas mit DirectX 10 deutlich schneller wird, bezweifle ich jetzt einfach mal.

aths
2006-09-29, 19:33:24
Ich lehne mich jetzt mal sehr weit aus dem Fenster und behaupte: das kann die PhysX auch nicht. In irgendeinem Test haben sie mal gezeigt, wie diese flatternde, zerreissbare Fahne in Cellfactor an der Performance zieht. Das war mehr als die ganze Kisten-Sprengerei gebraucht hat.
In so einer Szene sehe ich keine Objekt-Limitierung durch DirectX 9 so wie Demirug das beschrieben hat. Ob sowas mit DirectX 10 deutlich schneller wird, bezweifle ich jetzt einfach mal.Wenn ich das einleitend bemerken darf: Die zerreißbare Fahne bitte mit ß. Nach langem Vokal und Diphthong (Zwielaut) wird aus ss immer ß.

Leider habe ich bisher keine PhysX-Demos oder -Spiele selbst gesehen. Es kann durchaus sein, dass Ageias Lösung den Anforderungen an eine vernünftige PPU noch bei weitem nicht entspricht. Auch macht mich Ageias Marketing sehr skeptisch. Die erzählen groß rum, aber rücken keine brauchbaren Specs raus. Jedoch würde ich daraus nicht generell die Nutzlosigkeit einer PPU ableiten wollen. Im Einzelnen:

Das Argument (wie z. B. von Piffan) durch Multicore-CPUs würde die PPU überflüssig, wäre vergleichbar mit dem Argument, dass man mit stärkeren CPUs auch keine T&L-Unit bräuchte. Nicht nur, dass wir inzwischen längst den Vertexshader statt einer T&L haben, T&L ermöglicht auch durch Nutzung von Vertexbuffern die Bandbreitenlast zu senken. Außerdem ist ja bekannt, dass zusätzliche Physik nun auch mit einer PPU die CPU-Last erhöht, weshalb Multicore gerade sinnvoll ist, wenn man auch eine PPU hat.

Wir müssten über sinnvolle Physik diskutieren. Dass man alles zerreißen oder verformen kann, dürfte auf lange Sicht nicht ins Haus stehen. Zumal es spielerisch auch nicht immer notwendig ist. In "Luigi's Mansion" kann man mit dem Staubsauger Tischdecken verformen (und aufsaugen), während die meisten Objekte einfach nur wackeln, wenn man den Staubsauer ranhält. Das ist genug gefühlte Physik.

Wenn Physik wichtig wird, um das Spiel zu lösen – einige erste Ansätze gibts ja z. B. in Half-Life 2 – nimmt die Rechenlast schnell überhand. Ageia war wohl versucht, mit Effekten à la realistischen Explosionen etc. zu punkten. Das ist aber letztlich nur Hintergrundgrafik. Um wie in HL2 ein paar Kisten zu stapeln, reicht die CPU aus. Sollen Wände realistisch zerstörbar gemacht werden und so weiter, dürfte es knapp neben. Neben einer Multicore-CPU (um die flexbile Welt zu verwalten) kann ich mir sehr gut einen Koprozessor vorstellen, der die Verformungs-Prozesse berechnet und so die CPU entlastet. Nur bedarf es dazu auch einer API, die in relevantem Maßstab genutzt wird. Hier dürfte Havoc einen Vorteil haben, und da scheint es ja keine Kooperation mit Ageia zu geben.

Zwar entwickelt sich die GPU seit einiger Zeit hin zum allgemein verwendbaren Stream-Prozessor, aber damit sie effizient 3D-Grafik rendern kann, sind einige Kompromisse notwendig die sie für andere Aufgaben weniger geeignet machen als dedizierte Prozessoren. Keine PPU kann einfach mal so Spiele schneller laufen lassen, zumal wir hier auch ein Henne-Ei-Problem haben. Zu den Anfangszeiten der 3D-Karten wurde noch getönt, dass man mit dem Kauf einer 3D-Karte weiteres Aufrüsten auf Jahre hinaus obsolet mache. Tatsächlich forderten die kommenden Karten aber auch stärkere CPUs, um sinnvoll betrieben werden zu können.

Im Moment sehe ich Konsolen als Vorreiter bei der Physik, dort hat man eine genau definierte CPU-Leistung und kann sie entsprechend aufteilen.

Was PPUs angeht finde ich, dass man sie als allgemein verwendbare Koprozessoren designen und vermarkten sollte. Warum nicht auf der PPU nach Außerirdischen suchen oder gegen den Krebs crunchen?

karx11erx
2006-10-01, 01:46:56
Ich habe das Gefühl, hier wird ständig völlig falsch gedacht. Afaik liegt die Limitierung bei Einsatz der Ageia-Karte bei der Grafikkarte: Die muss nämlich deutlich mehr rendern, wenn das Spiel sie wegen sehr viel schnellerer Berechnung von Objekten, die wiederum den Einsatz von mehr Objekten ermöglicht, auch mit sehr viel mehr zu rendernden Objekten bombardiert. Auch auf der CPU entsteht dadurch u.U. nur durch das Bedienen des Renderers schon höhere Last. Da kann die Physik-Karte doch nichts dafür. Man könnte ihr höchstens anlasten, dass sie ihrer Zeit bzw. der sonstigen Hardware voraus ist.

Insofern liegen Artikel und Diskussion hier für mich völlig schief. Oder habe ich was nicht kapiert oder übersehen?

Monger
2006-10-01, 11:18:33
Insofern liegen Artikel und Diskussion hier für mich völlig schief. Oder habe ich was nicht kapiert oder übersehen?
Was nützt mir ein (teures) Rennpferd, wenn ich es vor den Pflug spanne, und es dort nur so schnell wie der langsamste Ackergaul laufen kann?

Wenn die PhysX immer nur geringfügig mehr leisten kann als GPU und CPU selber könnten (und so sieht es momentan aus), ist sie überflüssig. Wenn ich 250€ für etwas ausgebe, möchte ich doch auch Resultate sehen. Der gute Wille dahinter nützt mir wenig.

Gast
2006-10-01, 11:42:23
Wenn die PhysX immer nur geringfügig mehr leisten kann als GPU und CPU selber könnten (und so sieht es momentan aus), ist sie überflüssig.

sie kann nicht nur geringfügig mehr als cpu+gpu leisten, sondern cpu+gpu können nicht genug leisten um das potential der physikkarte auszunützen.

für den kunden ist das natürlich relativ egal, woher der leistungeinbruch kommt, und ich sehe ehrlich gesagt auch keine veranlassung dermaßen viel geld für eine karte auszugeben von der man nichts hat.

karx11erx
2006-10-01, 17:50:01
Monger,

das Problem an dem Artikel ist, dass der Ageia schlechte Performance bescheinigt wird, weil die Grafik-Performance bei Einsatz der Ageia sinkt. Es wird geschlossen die Karte sei schlecht, Und das ist m.E. ein kapitaler Trugschluss.

Sie bringt nur deshalb nichts, weil die restliche Hardware einfach nicht mitkommt.

Deshalb konnte ich über den Konter der grossen Graka-Hersteller, solche Berechnungen könnte auch die GPU erledigen und so eine Zusatzkarte sparen nur schallend lachen. Was soll die Graka denn noch machen, wenn sie ohnehin schon am Limit rendert? Rechenkapazität abzwacken, damit sie noch mehr zu rendern bekommt? Eigentlich müsstest Du Dir dann per SLI eine zweite Graka für die Physik in den Rechner packen. Ja, da hat man dann wirklich fett Geld gespart.

Sowas ist auf gut Deutsch gesagt Verarsche, und sie scheint auch noch erstaunlichen Anklang zu finden. Na, wenn ich mir Deutschland so anschaue, werden die meisten Leute hier gern verarscht. :P

Mein Fazit zum Artikel: Mangels sachkundigen Widerspruchs scheint mir, dass ich recht habe, und er sein Geld wert war.

aths
2006-10-01, 17:57:07
Ich habe das Gefühl, hier wird ständig völlig falsch gedacht. Afaik liegt die Limitierung bei Einsatz der Ageia-Karte bei der Grafikkarte: Die muss nämlich deutlich mehr rendern, wenn das Spiel sie wegen sehr viel schnellerer Berechnung von Objekten, die wiederum den Einsatz von mehr Objekten ermöglicht, auch mit sehr viel mehr zu rendernden Objekten bombardiert. Auch auf der CPU entsteht dadurch u.U. nur durch das Bedienen des Renderers schon höhere Last. Da kann die Physik-Karte doch nichts dafür. Man könnte ihr höchstens anlasten, dass sie ihrer Zeit bzw. der sonstigen Hardware voraus ist.

Insofern liegen Artikel und Diskussion hier für mich völlig schief. Oder habe ich was nicht kapiert oder übersehen?Mit Technologien wie Geometry Instancing wird die CPU-Last kaum erhöht. Geometrieseitig sind Grafikkarten ohnehin "zu stark", bezogen auf den Pixeltei. Läge der Flaschenhals beim Pixelteil, müsste eine Verringerung der Auflösung einen erheblichen fps-Gewinn bringen.

Monger,

das Problem an dem Artikel ist, dass der Ageia schlechte Performance bescheinigt wird, weil die Grafik-Performance bei Einsatz der Ageia sinkt. Es wird geschlossen die Karte sei schlecht, Und das ist m.E. ein kapitaler Trugschluss.

Sie bringt nur deshalb nichts, weil die restliche Hardware einfach nicht mitkommt.

Deshalb konnte ich über den Konter der grossen Graka-Hersteller, solche Berechnungen könnte auch die GPU erledigen und so eine Zusatzkarte sparen nur schallend lachen. Was soll die Graka denn noch machen, wenn sie ohnehin schon am Limit rendert? Rechenkapazität abzwacken, damit sie noch mehr zu rendern bekommt? Eigentlich müsstest Du Dir dann per SLI eine zweite Graka für die Physik in den Rechner packen. Ja, da hat man dann wirklich fett Geld gespart.

Sowas ist auf gut Deutsch gesagt Verarsche, und sie scheint auch noch erstaunlichen Anklang zu finden. Na, wenn ich mir Deutschland so anschaue, werden die meisten Leute hier gern verarscht. :P

Mein Fazit zum Artikel: Mangels sachkundigen Widerspruchs scheint mir, dass ich recht habe, und er sein Geld wert war.Was macht dich sicher dass es die Graka und nicht die CPU ist, die bremst? Inwiefern ist "er" sein Geld wert, wenn "er" nichts bringt (jetzt mal unabhängig davon, woran es liegt?)

Piffan
2006-10-01, 19:34:34
Was nützt mir ein (teures) Rennpferd, wenn ich es vor den Pflug spanne, und es dort nur so schnell wie der langsamste Ackergaul laufen kann?

Wenn die PhysX immer nur geringfügig mehr leisten kann als GPU und CPU selber könnten (und so sieht es momentan aus), ist sie überflüssig. Wenn ich 250€ für etwas ausgebe, möchte ich doch auch Resultate sehen. Der gute Wille dahinter nützt mir wenig.

Genau so ist es. Egal wieviel die Karte KÖNNTE, entscheident ist das, was ich jetzt davon HABE. Nur daran lässt sich messen, ob das Dingens sein Geld wert ist.....

Bis jetzt gibts kein Argument, sich so ein Ding anzuschaffen.....

Zwei Unwägbarkeiten: Werden die Entwickler mehr tun als nur vollmundige Ankündigungen zu bringen? Imho hängt es ab vom Aufwand und der Verbreitung der Hardware.

Sind die Flaschenhälse nicht so gelegen, dass die Karte für die Katz ist? Dazu kann ich nichts sagen, aber ich traue voll und ganz Demirurg.......

Der zweite Punkt ist der Killer.....

BlackBirdSR
2006-10-01, 19:55:26
Ich habe das Gefühl, hier wird ständig völlig falsch gedacht. Afaik liegt die Limitierung bei Einsatz der Ageia-Karte bei der Grafikkarte: Die muss nämlich deutlich mehr rendern, wenn das Spiel sie wegen sehr viel schnellerer Berechnung von Objekten, die wiederum den Einsatz von mehr Objekten ermöglicht, auch mit sehr viel mehr zu rendernden Objekten bombardiert. Auch auf der CPU entsteht dadurch u.U. nur durch das Bedienen des Renderers schon höhere Last. Da kann die Physik-Karte doch nichts dafür. Man könnte ihr höchstens anlasten, dass sie ihrer Zeit bzw. der sonstigen Hardware voraus ist.

Insofern liegen Artikel und Diskussion hier für mich völlig schief. Oder habe ich was nicht kapiert oder übersehen?

Alle Tests die ich gemacht habe deuten auf keine Limitierung der GPU in dieser Hinsicht hin.
Cellfactor wurde extra niedrig getestet und GRAW erzeugt sowohl in 640x480 als auch 1600x1200 die gleichen Einbrüche mit PhysX.
Ich würde dir auch empfehlen Demirugs Einschätzung dazu nocheinmal zu lesen.

Das Problem ist sicherlich nicht der PhysX als ASIC selbst sondern die API, der Rest des Systems UND ganz wichtig: Der Programmierer.

Demirug
2006-10-01, 20:01:50
Sind die Flaschenhälse nicht so gelegen, dass die Karte für die Katz ist? Dazu kann ich nichts sagen, aber ich traue voll und ganz Demirurg.......

Wenn man einem von drei deutschen DirectX MVPs nicht trauen kann wem dann? Aber wenn das nicht reicht ATI kam genau zum gleichen Ergebnis wie ich.

Gast
2006-10-01, 20:56:01
MVPs
Abkürzung für was?

Demirug
2006-10-01, 21:08:27
Abkürzung für was?

Most Valuable Professional (http://www.microsoft.com/germany/community/programme/mvp.mspx)

Monger
2006-10-02, 00:27:54
Monger,

das Problem an dem Artikel ist, dass der Ageia schlechte Performance bescheinigt wird, weil die Grafik-Performance bei Einsatz der Ageia sinkt. Es wird geschlossen die Karte sei schlecht, Und das ist m.E. ein kapitaler Trugschluss.

Sie bringt nur deshalb nichts, weil die restliche Hardware einfach nicht mitkommt.
Das ist völlig egal. Die Karte ist schlecht, weil sie absolut keinen Markt bedient. Das ist so (Achtung, mieser Vergleich!), als ob du ein Auto mit Porsche Motor und schlüpfrigen Reifen und ohne ABS konstruierst. Ist zwar bei den Leistungsmessungen exzellent, kann aber auf keiner deutschen Straße vernünftig fahren.

Ageia hätte wissen müssen, dass die aktuelle Rechnerarchitektur gewisse Flaschenhälse besitzt - und die Karte dann dementsprechend anpassen müssen. Vielleicht für weniger Objekte, aber mehr Präzision. Oder etwas abspecken und die Karte schön günstig machen. Oder ein weiteres Jahr investieren, und rechtzeitig zu DirectX 10 einen wirklich glänzenden Start mit guten Starttiteln wie z.B. UT2007 und einer maßgeschneiderten Karte hinlegen.

BlackBirdSR
2006-10-02, 00:44:20
Oder ein weiteres Jahr investieren, und rechtzeitig zu DirectX 10 einen wirklich glänzenden Start mit guten Starttiteln wie z.B. UT2007 und einer maßgeschneiderten Karte hinlegen.

Und jetzt frage ich mich, inwiefern UT2007 von PhysX großartig profieren soll.
Bisherige Screenshots und Videos haben keine revolutionäre Physik gezeigt. Wenn PhysX auch Objekte berechnen soll, die direkten Einfluss auf das Spiel haben, so kann das schlecht in einem Maß passieren, dass ein System ohne PhysX im Multiplayer inkomatibel macht.

Also was kann PhysX für UT2007 wirklich tun, was ATI/Nvidia oder Intel/AMD nicht auch erledigen können?
Zumal man immer eines im Hinterkopf behalten sollte: PhysX oder ein spezieller ASIC mögen theoretisch viel schneller sein als die anderen Lösungen. Aber setzt sich das in einen gut sichtbaren Vorteil um, oder fallen weniger Objekte/Partikel mit geringerer Präzision nicht einmal wirklich auf?

Ich bin gespannt auf UT2007.

karx11erx
2006-10-02, 01:03:08
Monger,

<Ironie>
"Jaja, die Ageia-Designer/Marketing People sind halt Deppen, haben eine Hardware gemacht, die viel zu gut ist, die Esel, haaaahaha!"
</Ironie>

Die Frage ist, ob die Karte nicht wesentlich mehr als das bisschen Popelphysik kann, als die Titel implementieren, die sie derzeit einsetzen können.

Aber dafür gibt's ja auch ne Antwort, nicht:

<Ironie>
"Jaja, die Ageia-Designer/Marketing People sind halt Deppen, haben eine Hardware gemacht, die viel mehr kann also so ein Spieleentwickler je an Physik verstehen wird, die Esel, haaaahaha!"
</Ironie>

...

Du wirkst hier sehr stark wie jemand, der mit Gewalt recht behalten will, egal wie er sich das hinredet. Über den Rest Deiner Beiträge zu diesem Thema breite ich lieber Schweigen.

Monger
2006-10-02, 01:04:15
Und jetzt frage ich mich, inwiefern UT2007 von PhysX großartig profieren soll.

Imho hat mit UT2007 die ganze Geschichte doch angefangen. Epic lizensiert Ageia's Physikengine (die durchaus was her macht), und kündigt irgendwann auch Support für die dazu passende Beschleunigerkarte an - und plötzlich ist die PhysX der nächste große Hype.

Ich bin gespannt auf UT2007.
Ich auch. Wenn sich die PhysX auch da keinen signifikanten Vorteil erarbeiten kann, wüsste ich nicht bei welchem Spiel sie es denn überhaupt noch können sollte.


Du wirkst hier sehr stark wie jemand, der mit Gewalt recht behalten will, egal wie er sich das hinredet.
Nein, ich bin wirklich überzeugt von dem was ich sage. Die Karte kam mir schon mit der allerersten Ankündigung extrem suspekt vor. Ich kann mir einfach nicht vorstellen, wie eine kleine Softwareschmiede aus dem Stand heraus ein ausgereiftes Chipdesign entwickeln will. Und bis jetzt habe ich absolut nichts finden können, was meinen Anfangsverdacht entkräftigen hätte können.

BlackBirdSR
2006-10-02, 01:45:36
Aus einem Interview:


Sweeney- There are a number of networking solutions for physics, what we are doing in UT2007 is using the physics hardware only for accelerating special effects objects, things where the server tells the client, Spawn this special effect here! The client responds with an explosion with thousands of particles, and each of those operates as a separate physics object but it doesn't effect the game play... it’s just purely a visual effect there. That’s the easiest and most common solution.


:mad:

Piffan
2006-10-02, 08:32:14
Du wirkst hier sehr stark wie jemand, der mit Gewalt recht behalten will, egal wie er sich das hinredet. Über den Rest Deiner Beiträge zu diesem Thema breite ich lieber Schweigen.

Das ist jetzt ironisch! Nur so kann es gemeint sein. :redface:

karx11erx
2006-10-02, 10:44:20
Das ist jetzt ironisch! Nur so kann es gemeint sein. :redface:
Leider nein. Vom technischen Gesichtspunkt sind Mongers Beiträge zum Thema Ageia hier vernachlässigbar.

Gast
2006-10-02, 12:27:48
Ageia hätte wissen müssen, dass die aktuelle Rechnerarchitektur gewisse Flaschenhälse besitzt - und die Karte dann dementsprechend anpassen müssen.


und was hätten sie tun sollen? gleich eine neue multimedia-api präsentieren?

nur blöderweise hätte damit auch niemand programmiert, und mit DirectX9 ist eben nicht viel mehr möglich.

auch wenn die karte im moment kaum einen nutzbaren wert hätte, sehe ich nicht was ageia besser machen hätte können, das sind alles dinge außerhalb des einflussbereiches von ageia, die im moment nicht passen.

Piffan
2006-10-02, 12:49:45
und was hätten sie tun sollen? gleich eine neue multimedia-api präsentieren?

nur blöderweise hätte damit auch niemand programmiert, und mit DirectX9 ist eben nicht viel mehr möglich.

auch wenn die karte im moment kaum einen nutzbaren wert hätte, sehe ich nicht was ageia besser machen hätte können, das sind alles dinge außerhalb des einflussbereiches von ageia, die im moment nicht passen.

Wenn es nicht geht, dann geht es nicht. Sie haben etwas auf den Markt gebracht, was zur Zeit keiner gebrauchen kann. Der Verweis auf die Zukunft war noch nie ein brauchbarer Ratgeber beim Kauf von Hardware.

Wenn es funzt und einen Nutzen hat, dann kommen die Käufer. Wenn es aus welchen Gründen auch immer nix taucht, dann sollte man in einem Forum die potentiellen Käufer darauf hinweisen.

Was ageia hätte besser machen können? Die Tatsachen frühzeitig erkennen müssen, und nicht Interessenten mit tollen Videos zu vergackeiern...

Piffan
2006-10-02, 12:51:27
Leider nein. Vom technischen Gesichtspunkt sind Mongers Beiträge zum Thema Ageia hier vernachlässigbar.

Aha. Immerhin hat Monger hier einen Namen und ich glaube schon, dass er weiß, wovon er redet.
Du hingegen spuckts als Neuregistrierter ziemlich große Töne. :|

BlackBirdSR
2006-10-02, 13:17:38
Der springende Punkt für den user ist doch, ob es sich lohnt die Karte zu kaufen. Und da ist die Antwort doch ein klares "Nein".

In Zukunft wird sich die Situation um Physik-Beschleunigung sicher etwas besser. Eventuell sogar dramatisch. Aber ist die jetzige PhysX dann noch state of the art?

Wenn Ageia zu DX10 und als Antwort auf ATI und Nvidias Bestreben einen neuen Chip bringt, könnte man als Käufer des jetzigen Produkts ganz schon dumm aus der Wäsche gucken.
Nichts Anderes ist damals den Käufern von S3, ATI und Rendition passiert.

Die ersten Produkte waren noch Wegbereiter und Experimente. Wer diese gekauft hatte, war einfach nur Geld los geworden um ein paar wenige Spiele mehr schlecht als recht zu genießen.

Ageia spuckt große Töne. Aber es weiß niemand so recht wie sicher es ist sich die Karte zu kaufen. Und ich würde jedem davon abraten, der es nicht nur aus Spass macht.
Ich finde das alles sehr schade. Mit etwas weniger Hype und etwas mehr Nähe zum Kunden könnte Ageia mehr erreichen wie ich finde.

BlackBirdSR
2006-10-02, 13:21:49
Was ageia hätte besser machen können? Die Tatsachen frühzeitig erkennen müssen, und nicht Interessenten mit tollen Videos zu vergackeiern...

Dafür sorgen, dass Entwickler sich nicht nur halbherzig für die Sache einsetzen. Es ist peinlich und schlecht für das Geschäft, dass Rise of Legends und JTF als Beispiele noch immer kein PhysX ausnutzen. Und so toll ist GRAW bei weitem nicht, dass es den Kauf einer PhysX lohnt.

Und langsam bekomme ich Zweifel, dass UT2007 daran viel ändern kann.
Sollten die Lösungen von ATI und Nvidia auch nur annähernd so viel erreichen wie ein PhysX ist dieser schon von der Wunschliste vieler potentieller Käufer gestrichen.

StefanV
2006-10-02, 15:50:06
Aus einem Interview:
Sweeney- There are a number of networking solutions for physics, what we are doing in UT2007 is using the physics hardware only for accelerating special effects objects, things where the server tells the client, Spawn this special effect here! The client responds with an explosion with thousands of particles, and each of those operates as a separate physics object but it doesn't effect the game play... it’s just purely a visual effect there. That’s the easiest and most common solution.
:mad:
*autsch*

Sehe ich das richtig, das PhysX Support nur für die Server interessant ist, nicht aber für Spieler/Clients??

Demirug
2006-10-02, 15:56:20
*autsch*

Sehe ich das richtig, das PhysX Support nur für die Server interessant ist, nicht aber für Spieler/Clients??

Genau anders herum. PhysX wird nur für optische Effekte genutzt und hat keinen Einfluß auf das Gameplay.

Simon
2006-10-02, 18:44:11
*autsch*

Sehe ich das richtig, das PhysX Support nur für die Server interessant ist, nicht aber für Spieler/Clients??
Das ist ein Szenario, was ich gerne mal ausprobieren würde. Aber leider hab ich keinen PCI-Steckplatz mehr frei und einen neuen Rechner stellt die Firma nicht ;(

Piffan
2006-10-02, 21:06:23
Wie auch aths schon sagte und wie Demirurg es noch mal bekräftigte, taucht die Sache bei MP- Spielen nur für Effekte. Denn wie sonst sollte man den Widerspruch auflösen, dass das Gameplay auf verschiedenen Maschinen im Netzwerk Differenzen aufweist?
Im Netzwerk muss man sich auf den größten gemeinsamen Nenner einigen. Andernfalls müsste man exklusive Server für bestimmte Hardwarekonfigs. einrichten.
Mal im Ernst: Ist es anzunehmen, dass Epic für Minderheiten Extrawürste brät? :wink:

Gast
2006-10-05, 22:59:15
Ich finde den Artikel ziemlich MIES! Bei den Spielen handelt es sich um Spiele die per Patch auf Physx aufgemotzt wurden. Das Physx the next big thing ist wird auch bald hier verstanden. Aber egal, schöne Marketing-Vorlage für NVIDIA und ATI. Immerhin habt Ihr es denen RECHT gemacht. Applaus für diese Meisterleistung ;)

BlackBirdSR
2006-10-06, 02:43:37
Ich finde den Artikel ziemlich MIES! Bei den Spielen handelt es sich um Spiele die per Patch auf Physx aufgemotzt wurden. Das Physx the next big thing ist wird auch bald hier verstanden. Aber egal, schöne Marketing-Vorlage für NVIDIA und ATI. Immerhin habt Ihr es denen RECHT gemacht. Applaus für diese Meisterleistung ;)

Deine Meinung, muss ich akzeptieren.

Allerdings werden die gleichen Schlüsse die wir im Artikel ziehen, überall! auf der Welt gezogen. Sei es nun Anandtech, MaximumPC, HardOCP oder Guru3D.
Und entweder sind wir alle zu doof um etwas wie dies korrekt einzuschätzen, oder es ist sehr wohl etwas daran.

aths
2006-10-06, 09:41:38
Ageia hätte wissen müssen, dass die aktuelle Rechnerarchitektur gewisse Flaschenhälse besitzt - und die Karte dann dementsprechend anpassen müssen. Vielleicht für weniger Objekte, aber mehr Präzision.Mehr Präzision sieht man nicht.

Oder etwas abspecken und die Karte schön günstig machen.Mit etwas Abspeckerei hätte die Karte nicht "schön günstig" werden können.

Oder ein weiteres Jahr investieren, und rechtzeitig zu DirectX 10 einen wirklich glänzenden Start mit guten Starttiteln wie z.B. UT2007 und einer maßgeschneiderten Karte hinlegen.Eine reine ("maßgeschneiderte") UT-Beschleunigerkarte? Brächte Agiea das vernünftigen Gewinn? Was brächte D3D10 dem PhysX? Von etwas gesunkener CPU-Last profitieren dann ja auch Nicht-PhysX-beschleunigte Spiele.




auch wenn die karte im moment kaum einen nutzbaren wert hätte, sehe ich nicht was ageia besser machen hätte können, das sind alles dinge außerhalb des einflussbereiches von ageia, die im moment nicht passen.Ageia hätte mehr tun können, um die PPU als allgemein verwendbaren Stream-Prozessor zu vermarkten. Ageias Marketing-Dreieck aus CPU, GPU und PPU übersieht, dass man eine PPU nur in wenigen Genres spielerisch sinnvoll einsetzen kann. Während man eine CPU in jedem Fall braucht, und die GPU immer allgemeinverwendbarer wird (und zur Ausgabe von 3D-Grafik ohnehin notwendig ist.)

aths
2006-10-06, 09:57:33
Im Netzwerk muss man sich auf den größten gemeinsamen Nenner einigen.Man sagt "auf den kleinsten gemeinsamen Nenner", obwohl der Zahlenwert des Bruches damit steigt. (Außerdem gibts in der Mathematik als sinnvolle Angaben den ggT (größten gemeinsamen Teiler) bei natürlichen Zahlen und eben den kgN, kleinsten gemeinsamen Nenner bei Brüchen.)




Ich finde den Artikel ziemlich MIES! Bei den Spielen handelt es sich um Spiele die per Patch auf Physx aufgemotzt wurden. Das Physx the next big thing ist wird auch bald hier verstanden. Aber egal, schöne Marketing-Vorlage für NVIDIA und ATI. Immerhin habt Ihr es denen RECHT gemacht. Applaus für diese Meisterleistung ;)Du hast es erfasst. BBSR hatte vorher extra noch mal bei Nvidia und ATI angerufen und gefragt, wie sie es denn gerne hätten. Es ist nicht so, dass 3DCenter unabhängig testet, wie könnte Leo auch sonst seinen Porsche abbezahlen?

Wie gut, dass du nicht auf das Marketing von Ageia reingef... abgefahren bist, und wie gut dass wenigstens du den klaren Durchblick hast, dass praktisch alle Spiele unbedingt sehr viel mehr Physik brauchen. Ich denke da an Klick&Point-Adventures, MS Solitär, aber auch an Moorhuhn und World of Warcraft. Wie du richtig erkannt hast, entwickeln praktisch alle großen Studios schon fleißig für PPUs, nur wir Schlafmützen sehen das nicht.

Piffan
2006-10-07, 18:53:41
Man sagt "auf den kleinsten gemeinsamen Nenner", obwohl der Zahlenwert des Bruches damit steigt. (Außerdem gibts in der Mathematik als sinnvolle Angaben den ggT (größten gemeinsamen Teiler) bei natürlichen Zahlen und eben den kgN, kleinsten gemeinsamen Nenner bei Brüchen.)




Du hast es erfasst. BBSR hatte vorher extra noch mal bei Nvidia und ATI angerufen und gefragt, wie sie es denn gerne hätten. Es ist nicht so, dass 3DCenter unabhängig testet, wie könnte Leo auch sonst seinen Porsche abbezahlen?

Wie gut, dass du nicht auf das Marketing von Ageia reingef... abgefahren bist, und wie gut dass wenigstens du den klaren Durchblick hast, dass praktisch alle Spiele unbedingt sehr viel mehr Physik brauchen. Ich denke da an Klick&Point-Adventures, MS Solitär, aber auch an Moorhuhn und World of Warcraft. Wie du richtig erkannt hast, entwickeln praktisch alle großen Studios schon fleißig für PPUs, nur wir Schlafmützen sehen das nicht.

Klasse Posting. So muss man es den Werbetrommlern geben. :biggrin:

Und zur Belehrung: Ich bin seit 1980 aus der Schule und nur in den ersten Semestern hatte ich Naturwissenschaften und Mathe, also auch seeeehr lange her. Gut, dass du aufpasst und auf scheinbar triviale Fehler hinweist. Dadurch wird man doch hin und wieder mal zum Nachdenken angeregt. =)

karx11erx
2006-10-14, 01:50:31
Dass die Ageia keinen Sinn macht, ist unbestritten. Nur die Argumentation ist völlig falsch und ersichtlich laienhaft. Die Systemleistung geht nicht runter, weil die Ageia-Karte zu langsam ist, sondern weil sie es möglich macht, den Rest des Systems heillos zu überfordern.

BlackBirdSR
2006-10-14, 11:11:44
Dass die Ageia keinen Sinn macht, ist unbestritten. Nur die Argumentation ist völlig falsch und ersichtlich laienhaft. Die Systemleistung geht nicht runter, weil die Ageia-Karte zu langsam ist, sondern weil sie es möglich macht, den Rest des Systems heillos zu überfordern.


Und wo steht geschrieben, dass der PhysX-Beschleuniger zu langsam ist?
Ich kann mich nicht erinnern bewusst so argumentiert zu haben.

Gast
2006-10-16, 16:27:11
Wie gut, dass du nicht auf das Marketing von Ageia reingef... abgefahren bist, und wie gut dass wenigstens du den klaren Durchblick hast, dass praktisch alle Spiele unbedingt sehr viel mehr Physik brauchen. Ich denke da an Klick&Point-Adventures, MS Solitär, aber auch an Moorhuhn und World of Warcraft. Wie du richtig erkannt hast, entwickeln praktisch alle großen Studios schon fleißig für PPUs, nur wir Schlafmützen sehen das nicht.

Genau!

Und ich will echtes physikalisches Force Feedback, damit mir der Joystick oder das Lenkrad auch wirklich die Arme bricht, wenn ich mich beim Autorennen mal richtig überschlage. Das ist dann Realismus pur! ;)

Gast
2006-10-21, 02:40:03
Hier gibts eine Demo zu Switchball welches auch auf der Games-Liste von Ageia steht www.atomicelbow.com

Gast
2007-02-07, 01:40:01
Hi!
Also ich finde die Idee von aths gar nicht mal so schlecht: Die PPU nicht vorangig für Spiele sondern als Hilfsprozessor! Vielleicht Onboard neben Netzwerk -und Soundkarte?
Die Specs dann noch "öffnen" und einen optimierten Seti-Client dazu...wäre doch ein nettes Gadet. Was sich damit alles anstellen läßt...Photoshop&Gimp Plugins, kleinere Spiele für zwischendurch, etc.

mfg

deekey777
2010-01-26, 17:23:20
Wo funktioniert die PPU aktuell noch? Und wie?
:)

Gast
2010-01-26, 17:46:15
http://physxinfo.com/

- hardware physics acceleration via Ageia PhysX PPU (PC only)
- hardware acceleration via Nvidia Geforce GPU (PC only)
- hardware acceleration via both (PC only)

deekey777
2010-01-27, 23:04:28
http://physxinfo.com/

- hardware physics acceleration via Ageia PhysX PPU (PC only)
- hardware acceleration via Nvidia Geforce GPU (PC only)
- hardware acceleration via both (PC only)
Das ist aber lame.
Über die Seite fand ich einen Artikel, wo die PPU ua in Batman AA mit einer GTX285 getestet wurde: Die PPU hatte null Chancen, die GTX285 war allein deutlich schneller.

Gast
2010-01-28, 00:47:01
Mh, kannst du den Link posten? Bin irgendwie zu blöd den zu finden . :(