PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Havok FX: Physik auf SM3-GPUs


Demirug
2005-10-28, 09:30:15
Havok FX (http://www.havok.com/content/view/187/77/)

Havok greift damit auch direkt PPUs an.

Do PC Gamers need to purchase proprietary Physics Hardware to accelerate Game-Play Physics?
For game-play physics- No. [...]

For Physics Effects, however, the GPU offers the most compelling and sustainable promise to added visual fidelity in games. Relative to proprietary hardware, GPUs also have a clear advantage as a pre-existing technology familiar and readily available to consumers and game developers, providing other benefits such as wide-spread availability, commodity pricing, and mature standards for hardware and software interfaces.

svenw
2005-10-28, 10:20:59
Havok FX (http://www.havok.com/content/view/187/77/)

Havok greift damit auch direkt PPUs an.

Das ganze zäumt das Pferd von der falschen Seite auf. Das man ohne PPU mit Physikeffekten spielen kann ist unbestritten. Nur kosten die egal wie Rechenleistung. Hab ich ne PPU kann ich Rechenleistung für anders verbraten KI z.B. Außerdem kann die CPU bei weitem nicht diese Menge an Physikberechnungen abarbeiten wie eine PPU. Für mich ist es das gleiche wie AA und die ganzen anderen Bildverbesserungen: Macht das Spiel schöner, man kann aber auch ohne. Aber will man das?

Wir haben bisher noch nirgendwo ein Spiel gesehen, das für den Gebrauch von PPUs zumindestens vorbereitet gewesen wäre und können somit den Effekt kaum beurteilen. Wehende Haare im Wind / Umhänge die sich wind/bewegungsmäßig korrekt verhalten / massenhaft Gegenstände die sich physikalisch korrekt verhalten könnten in 2 Jahren genauso unabdingbar für den Enthusiasten sein wie AA. Havoks Lösung kostet außerdem in jedem Fall GraKa power und davon kann man, wie der aktuellen Crossfire/SLI werbung zu entnehmen ist, eh nicht genug haben.

Irgendjemand da draußen der meint er hätte eine zu große KArte gekauft? :tongue:

StefanV
2005-10-28, 10:53:34
Ich hätt auch lieber 'ne PPU im Rechner, die die Physikberechnungen erledigt (bzw einen Coprozessor ;)) als das das von der GPU oder CPU erledigt wird denn die haben noch was anderes vor als nur die Physik zu berechnen...

alpha-centauri
2005-10-28, 11:21:48
Wo liegtd as Problem, spezielle Physikberechnungen auf Dualcore auszuführen? Und gerade für sowas die zweite CPU zu nutzen?
Gerade sowas wie diese Physikzusatzkarten sehe ich als kompletter Quatsch an.
Im Gegensatz zur ner zweiten CPU, nem Dualcore, hat so eine Physikkarte unter windows wirklich garkeinen nutzen, sondern nur in Spielen. Und da möchte ich erst mal benchmarks sehen.

An sich sind die GPUs für die 3DGrafik auch zuständing udn sollten dementsprechend ausgelastet sein.

Avalox
2005-10-28, 11:30:46
Und wenn es nur die Konsequenz ist, dass PPUs grade angekündigt wurden, so wäre es mal eine echte Innovation.

Es war ja abzusehen, dass die Grafikhersteller nicht kampflos das Feld räumen werden und mit grossen Einfluss wirken werden.

@alpha-centauri

Der Vorteil der PPU wurde ja immer mit einen Mehrtausend % Vorteil vor einer CPU genannt. Nun weiss man immer nicht wie der Hersteller da rechnet, könnte gut sein, dass dieser die Physikberechnung in heutigen Spielen meint, für welche natürlich nur ein wenig Rechenleistung der CPU übrig bleibt.

Allerdings ist der Vorteil so gross, dass dort ein zweiter Core nicht annähernd heran kommt, selbst wenn dieser nur für die Physikberechnung bereit steht.

Und wenn ich mir in Quake 4 ansehe, dass man mit den Wummen zwar die grössten Gegner umschiesst, aber nicht mal mit den dicksten Kalieber das von der Decke super realistisch aussehende, baumelnde Kulissen Kabel zum wackeln bringen kann, dann zeigt es deutlich, dass die Zeit reif für eine sehr ordentliche Physikbeschleunigung ist. mM

Anarchy-HWLUXX
2005-10-28, 14:31:23
GPU soll ma die Grafik machne
PPU die Physik
CPU den Rest

Relativ einfach , oder ? Wenn nu die Physikbelastung auf die GPU geschaufelt wird ... ist die CPU entlastet, die GPU aber belastet - kann folglich nemmer so schnell rendern wie sonst -> Sinnlos.

RLZ
2005-10-28, 14:57:47
Wenn man den Content und die Engine entsprechend darauf auslegt, könnte man da imo eine schöne Leistungssteigerung in CPU limierten Fällen kriegen.
Kann Havok FX die Last dynamisch verteilen?

alpha-centauri
2005-10-28, 15:02:01
Und wenn ich mir in Quake 4 ansehe, dass man mit den Wummen zwar die grössten Gegner umschiesst, aber nicht mal mit den dicksten Kalieber das von der Decke super realistisch aussehende, baumelnde Kulissen Kabel zum wackeln bringen kann, dann zeigt es deutlich, dass die Zeit reif für eine sehr ordentliche Physikbeschleunigung ist. mM

du kannst nicht mal die lampen anschiessen und hoffen, dass sich die schatten oder lichter neu ziehen. selbst farcry konnte das vor 2 jahren.

"Anarchy-HOCP"

Mal noch an den Sound gedacht? Den musste auch noch renchnen lassen.

Egal, was leute sagen: Aktuelle 3DSpiele sind fuer mich neben Supercomputing das wohl anfordernste, was man Hardware zumuten kann.

Wo sonst werden soviel Transistoren beansprucht?
Ähnlich ner Konsole. Das sind eigentlich kleine Mini-Supercomputer :)

StefanV
2005-10-28, 15:18:37
GPU soll ma die Grafik machne
PPU die Physik
CPU den Rest

Relativ einfach , oder ? Wenn nu die Physikbelastung auf die GPU geschaufelt wird ... ist die CPU entlastet, die GPU aber belastet - kann folglich nemmer so schnell rendern wie sonst -> Sinnlos.
Nein, die PPU sollte Physik und am besten auch die KI berechnen können...

Cyphermaster
2005-10-28, 15:19:40
Ich sehe das eher von der Seite der Praktikabilität. Klar, eine dedizierte PPU ist zwar schön und effizienter als eine CPU, aber sie erfordert eben wieder Software-Unterstützung und -viel schwieriger- allgemeine Verbreitung. Und wenn ich mir ansehe, wie "gut" das bei den Audio-Standards funktioniert, wird's wieder Kompatibilitätsproblemchen und zigfach neue Hardware-Versionen geben. Im Endeffekt kauft man sich dann jedes Mal nicht nur eine neue Grafikkarte, sondern auch eine Physik-Karte, weil die "mitveraltet".

Nicht so effektiv, aber zweifelsohne günstiger für die Umsetzung wäre ein Software-Standard wie OpenGL oder DirectX (auch wenn Letzteres eigentlich proprietär ist, hat es sich als quasi-Standard durchgesetzt). Folglich wäre für mich eine Software-Umverteilung auf bestehende Hardware (Multicore-CPU-Ausnutzung oder dynamische Lastverteilung bei Performance-Überhang auf GPU/CPU-Seite) durchsetzungsfähiger. Insbesondere deswegen, weil man -wie schon gesagt- die PPU-Leistung nicht für andere Aufgaben nutzen kann, und man an keine Hardware fest gebunden ist; der Spieler selber bestimmt die Größe der Performance-Einbuße, die er für PP in Kauf nehmen will, ähnlich wie beim AA/AF. So ganz nebenbei braucht sich dann auch der Programmierer nicht um zig verschiedene PPU-Versionen und damit mit Kompatibilitätsproblemen rumzuschlagen...

Cyphermaster
2005-10-28, 15:21:17
Nein, die PPU sollte Physik und am besten auch die KI berechnen können...
Du meinst, sowas wie eine "Gaming-Card" oder einen "Gaming-Coprozessor"?

Anarchy-HWLUXX
2005-10-28, 15:21:55
"Anarchy-HOCP"

Mal noch an den Sound gedacht? Den musste auch noch renchnen lassen.



Dazu ist normalerweise die Soundkarte da ;)


Nein, die PPU sollte Physik und am besten auch die KI berechnen können...


Ömm ...

Physik, KI, Sound ... das wär dann keine PPU kehr sondern nen Co-Prozessor ;)

Spasstiger
2005-10-28, 15:24:40
Glaubt ihr, dass das auch mit zwei PCIe-Grafikkarten in einem Board klappt? Auf der einen Karte (z.B. GeForce 7800 GTX) laufen dann die Grafikberechnungen, auf einer anderen, günstigen Grafikkarte (z.b. GeForce 6600) läuft die Physik.

Dann hat man auch sowas wie eine dedizierte Hardware für Physik und muss keine 200-300€ dafür ausgeben

StefanV
2005-10-28, 15:25:41
Du meinst, sowas wie eine "Gaming-Card" oder einen "Gaming-Coprozessor"?
Jop, wobei man das schon (fast) als Streaming Prozessor beschreiben könnte...


Die Frage ist auch, wie preisgünstig man so ein Bauteil realisieren kann (und will) und wie viel Speicher so ein Teil bräuchte.

StefanV
2005-10-28, 15:26:34
Glaubt ihr, dass das auch mit zwei PCIe-Grafikkarten in einem Board klappt? Auf der einen Karte (z.B. GeForce 7800 GTX) laufen dann die Grafikberechnungen, auf einer anderen, günstigen Grafikkarte (z.b. GeForce 6600) läuft die Physik.

Dann hat man auch sowas wie eine dedizierte Hardware für Physik und muss keine 200-300€ dafür ausgeben
Prinzipiell sollte das auch möglich sein, sofern die ISVs das vorgesehen haben...

Cyphermaster
2005-10-28, 15:41:52
Nun ja, sowas in die grobe Richtung sind doch die P9/P10/P11-GPUs auf den VP "Wildcat"-Karten. Deren GPUs bestehen aus halbwegs universellen Subprozessor-Stücken, die man je nach Bedarf arbeiten lassen kann. Vielleicht wäre das wirklich eine Methode, um die PPU-Performance zu realisieren. Die Frage ist, ob dann die breite Masse (nicht nur wir 3D-Spinner hier!) ein paar Hunderter zusätzlich zur Grafikkarte dafür ausspucken - denn billiger wird's für solch eine Kombi-Karte dann schlecht gehen. Nicht zu vergessen, daß dann weitere Probleme anstehen:
- Kompatibilitätsprobleme bei mehreren Herstellern/Treibern/...
- wahrscheinlich neue PCIe-Slots >x1 auf den Board notwendig (um die Datenmengen schnell genug zu bewegen)
- ein neues Kühlproblem, ähnlich den Grafikkarten wegen dem limtierten Slot-Platz (wahrscheinlich in Barebones unbrauchbar)

Narrenkönig
2005-10-28, 15:58:52
Jop, wobei man das schon (fast) als Streaming Prozessor beschreiben könnte...
Also doch CELL für den PC. :biggrin:

Demirug
2005-10-28, 16:53:26
Also doch CELL für den PC. :biggrin:

Im Prinzip ja. Aus meiner PCIe Cell Karte ist ja leider nichts geworden. Allerdings sind die Shadereinheiten einer GPU gar nicht so weit weg von den SFUs bei Cell.

Avalox
2005-10-28, 20:31:23
Dazu ist normalerweise die Soundkarte da ;)


Genau meine Meinung, allerdings machen es die wenigsten Soundkarten.

derMeister
2005-10-28, 20:53:23
- wahrscheinlich neue PCIe-Slots >x1 auf den Board notwendig (um die Datenmengen schnell genug zu bewegen)
- ein neues Kühlproblem, ähnlich den Grafikkarten wegen dem limtierten Slot-Platz (wahrscheinlich in Barebones unbrauchbar)

War nicht die Rede von PCI und PCIe Karten? Die würde dann ja gerade bei älteren SoA gewaltig auf die Sprünge helfen.
Alles eine Frage der Relationen, ist der Mehraufwand an Kosten wert?

Schrotti
2005-10-28, 21:13:35
Nur gibts dann wieder ein gerangel um den Standart und jeder Hersteller versucht seine PPU Karte am Mark zu etablieren.

up¦²
2005-10-28, 23:53:59
Interview dazu met Jeff Yates von Havok: http://www.gamespot.com/news/6136639.html

Mir ist aufgefallen, daß Hitman: Blood Money verdammt gute Physics hat :eek:

In einem interview kommt Rasmus Hojengaard von Eidos kurz drauf zu sprechen, wegen der neuen engine des spiels. :wink:

Siehe 'Related Videos'!

http://www.gamespot.com/pc/action/hitman4/news.html?sid=6136389&mode=previews

dacleric
2005-10-29, 06:11:46
Man sollte aber nicht vergessen das atm die CPU folgendes macht:

Eingabe
z.T. Sound (aktuelle Soundkarten berechnen Raumeffekte selber)
KI
Physik
Netzwerk Code
Datenbeschaffung ;P (und auch nur bei der Verarbeitung... das in den speicher schieben macht die cpu nicht)
Vielleicht noch ForceFeedBack

Möchte man nicht nur Lasten verschieben sondern auch ein schöneres Spiel haben, muss der Physikbeschleuniger auf jedenfall mit der Soundkarte zusammenarbeiten.
Wenn auch die KI (die ja unbedingt die aktuellen Physikdaten benötigt) auch verbessert werden soll , muss auch dies auf den beschleuniger.

Daten werden dann hauptsächlich zwischen dem Physikbeschleuniger und der gpu verschoben.

Die cpu muss dann quasi noch den Netzwerkcode und die Eingabe handeln...

das bezieht sich natürlich nur auf Shooter... beu RTS-Spielen ist allerdings ehr Pathfinding und ki beschleunigungswürdig... und nicht physik.

oder?

jasihasi
2005-10-29, 10:56:02
Frage:
Wird nicht die ganze Diskussion ab Quad CPUs obsolet?
Ordentliche Programmierung vorausgesetzt.

aths
2005-10-29, 12:51:18
Frage:
Wird nicht die ganze Diskussion ab Quad CPUs obsolet?Nein.

jasihasi
2005-10-29, 13:02:06
Nein.
Fein.

Wieso, wegen Geschwindigkeit, Bandbreite?
Sind einzelne Cores von Mehrfach CPUs nicht vollwertig, kann man da nicht hinreichend optimieren?
Wenn ich was nicht kapier, oder das Thema sogar schon besprochen wurde, Hinweis würde genügen.

mindfaq
2005-10-29, 15:07:14
Vereinfacht gesagt ist ein spezialisierter Chip in seinem Bereich um ein vielfaches schneller als ein Chip, der "alles" können muss.

BlackBirdSR
2005-10-29, 16:37:34
Fein.

Wieso, wegen Geschwindigkeit, Bandbreite?
Sind einzelne Cores von Mehrfach CPUs nicht vollwertig, kann man da nicht hinreichend optimieren?
Wenn ich was nicht kapier, oder das Thema sogar schon besprochen wurde, Hinweis würde genügen.

CPUs sind nicht speziell für diese Aufgabe ausgelegt. Zwar sind die Cores alle vollwertige Vertreter, aber selbst dann ist ein K8 z:b nur in der Lage maximal 4 sp-DP Op/Takt auszuführen. In der Praxis eher weniger.
Das macht ein spezieller Chip viel besser.

Die Frage ist einfach nur, ob sich solche Chips auf lange Zeit lohnen, oder neue CPU Generationen das mit Extensions und Multicore übernehmen können.

aths
2005-10-30, 23:57:25
Fein.

Wieso, wegen Geschwindigkeit, Bandbreite?
Sind einzelne Cores von Mehrfach CPUs nicht vollwertig, kann man da nicht hinreichend optimieren?
Wenn ich was nicht kapier, oder das Thema sogar schon besprochen wurde, Hinweis würde genügen.CPUs sind, 3DNow hin und SSE3 her, nicht darauf ausgelegt, massenhaft Berechnungen in kurzer Zeit auszuführen. Dank der Flexibilität kann man eine CPU zwar praktisch alles machen lassen, doch nicht immer in der gewünschten Performance. Sonst bräuchten wir z. B. keine Vertexshader. Wie gut die Idee ist, Physik auf SM3-GPUs laufen zu lassen, kann ich nicht beurteilen, zumal mir die Architektur einer echten PPU unbekannt ist. Der G70 kann immerhin pro Takt bis zu 384 Floating-Point-Operationen rein im Pixelshader ausführen, sofern man nur Additionen und Multiplikationen zählt.

Es krankt bei der CPU an der Bandbreite und an der Zahl der Rechenwerke. Imo sollten CPUs um sowas wie "Vertexshader", also 4:1-SIMD-Werken erweitert werden, auf denen spezielle kleine Programme (quasi "Shader") laufen können – denn natürlich habe ich die Power lieber in der CPU und damit allgemein benutzbar als auf irgendeinem Spezialchip.

Coda
2005-10-31, 00:56:25
Klingt nach Cell...

Onkeltom421
2005-10-31, 01:03:27
Hoffentlich.
Dann kann Cell erndlich mal zeigen was es kann/ nicht kann.

betasilie
2005-10-31, 02:56:20
Im Prinzip ja. Aus meiner PCIe Cell Karte ist ja leider nichts geworden. ...
Schade. Wäre interessant gewesen was von dir zu lesen bzgl. Cell.

betasilie
2005-10-31, 02:56:55
Hoffentlich.
Dann kann Cell erndlich mal zeigen was es kann/ nicht kann.
Das wird er schon in der PS3 unter Beweis stellen müssen.

Demirug
2005-10-31, 07:25:35
Schade. Wäre interessant gewesen was von dir zu lesen bzgl. Cell.

Nicht falsch verstehen. Mit "meiner" meinte ich nicht das ich sowas bekommen sollte sondern das ich den Verdacht hatte das die Firma die nun diese Cell-Blades baut eigentlich Coprozessor Karten für den PC bauen wollte.

Ganon
2005-10-31, 07:51:40
Nicht falsch verstehen. Mit "meiner" meinte ich nicht das ich sowas bekommen sollte sondern das ich den Verdacht hatte das die Firma die nun diese Cell-Blades baut eigentlich Coprozessor Karten für den PC bauen wollte.
Hi.

Wie sieht das eigentlich mit der "Haltbarkeit", der "ersten" PPU-Generation aus? Ich meine, wird man diese nun auch, wie Grafikkarten, "ständig" neu kaufen müssen, damit entsprechende Leistung kommt, oder reicht eine jetzige PPU aus für ca. die nächsten 10 Jahre?

Ist diese PPU eigentlich ausgereift und durchdacht, oder könnte sich das wie Hardware T&L herausstellen? Also das es im Prinzip kaum einer nutzt (da ineffektiv, etc.), später dann ne bessere Version raus kommt (im Vergleich dazu VertexShader)?

BlackBirdSR
2005-10-31, 09:00:40
Es krankt bei der CPU an der Bandbreite und an der Zahl der Rechenwerke. Imo sollten CPUs um sowas wie "Vertexshader", also 4:1-SIMD-Werken erweitert werden, auf denen spezielle kleine Programme (quasi "Shader") laufen können – denn natürlich habe ich die Power lieber in der CPU und damit allgemein benutzbar als auf irgendeinem Spezialchip.

Das Dumme dabei ist einfach der momentane Aufbau superskalarer x86 z.B.
Selbst mit esolch zusätzlichen Einheiten bleibt immer die Frage:
Wie bekomme ich genug Befehle an diese?
Eine moderne x86 CPU kann max 3 Befehle pro Takt InOrder aus der Pipeline werfen. (eventuell 4 wenn Intel das durchzieht)

SSE/2 arbeitet zwar als SIMD Werten pro Befehl, aber da sind wir dann auch schon bei 2/4 Befehlen pro Takt peak.
Und der Rest der CPU will ja auch arbeiten.
Dazu kommt die recht miese Auslastung.

Wie muss mein Befehlssatz, meine Decoder und meine Pipeline aussehen, damit ich 4 solcher Rechenwerke bedienen kann? Und selbst das ist dann viel zu wenig.
Der Pentium4 kann z.B 126µops durch die Pipeline verfolgen. Wieviele müssten das sein um die CPU entsprechend zu verbreitern?
Wo bleibt mein Takt dann hängen?

Irgendwie sehe ich persönlich für x86 kaum eine Möglichkeit das effektiv zu lösen. Selbst wenn AMD in Zukunft wirklich neue Einheiten in AMD64 mit FMAC einbaut.

svenw
2005-10-31, 09:10:27
Eine GPU sollte eigentlich recht nahe an die Architektur einer Physik Karte herrankommen. IMHO dürfte eine PPU nur als Vectoreinheit zu realisieren sein und eine GPU ist sehr ähnlich aufgebaut. Auf lange Sicht dürfte die PPU aber Vorteile haben, denn sie ist wesentlich spezifischer auf das Problem zugeschnitten als eine GPU. Mit Problemen ala Z-Buffer etc braucht sich eine PPU nicht herrumzuschlagen sondern kann sich ganz auf ihre eigentliche Aufgabe konzentrieren.

Meiner Meinung nach wird die CPU in künftigen Compuern immer mehr die Rolle des "Dompteurs" der verschiedenen spezial Chips und ihrer Zusammenarbeit übernehmen und gleichzeitig komplexe Aufgaben (KI) abarbeiten die sich schlecht in einen Spezialchip pressen lassen.

Demirug
2005-10-31, 09:21:40
Hi.

Wie sieht das eigentlich mit der "Haltbarkeit", der "ersten" PPU-Generation aus? Ich meine, wird man diese nun auch, wie Grafikkarten, "ständig" neu kaufen müssen, damit entsprechende Leistung kommt, oder reicht eine jetzige PPU aus für ca. die nächsten 10 Jahre?

Ist diese PPU eigentlich ausgereift und durchdacht, oder könnte sich das wie Hardware T&L herausstellen? Also das es im Prinzip kaum einer nutzt (da ineffektiv, etc.), später dann ne bessere Version raus kommt (im Vergleich dazu VertexShader)?

Eine Kristalkugel habe ich ja nicht.

Aber hat jemals eine CPU für ewig gehalten? Muss man nicht ständig neue GPUs kaufen? Warum sollte das mit einer PPU anders sein?

Was die internas dieser PPU angeht so hält sich der Hersteller ja bedeckt. Eine große Gefahr die ich im Moment sehe ist "DirectPhysic". Wenn sich am Ende herausstellt das Aegia zu dem was MS da gerade macht nicht kompatibel ist war es das wahrscheinlich.

Ganon
2005-10-31, 10:10:47
Eine Kristalkugel habe ich ja nicht.

Aber hat jemals eine CPU für ewig gehalten? Muss man nicht ständig neue GPUs kaufen? Warum sollte das mit einer PPU anders sein?

Was die internas dieser PPU angeht so hält sich der Hersteller ja bedeckt. Eine große Gefahr die ich im Moment sehe ist "DirectPhysic". Wenn sich am Ende herausstellt das Aegia zu dem was MS da gerade macht nicht kompatibel ist war es das wahrscheinlich.

Hätte ja sein können das du eine hast. ;) Nein. Spaß.

Eine PPU soll ja "nur" Physik berechnen. Ich meine das ist ja eigentlich seit Ewigkeiten so ziemlich das selbe, oder?

Soundkarten bekamen Raumklang
Grafikkarten neue Bildverbesserungsfunktionen

Wenn jetzige PPUs schon massive Physik berechnen können, dann dürfte das doch sicherlich länger halten, da ja die PPU wohl am Anfang nie ausgelastet wird..., oder?

Kann aber sicher auch sein das irgendwann auf der Packung steht: "Benötigt 1Ghz Physikprozessor oder besser" ;)

Ich sehe auch ein Problem in der weitläufigen PC-Hardware und dessen Programmierung. Die Physik ist ja nunmal ein kritischer Punkt bei Multiplayer-Spielen. D.h. alle Teilnehmer müssen ja die selben physikalischen Vorgänge haben. Da kann man nicht einfach irgend welche "Effekte" abschalten, bzw. ungenauer machen. Da kann man schlecht verlangen das alle ne PPU im Rechner haben. Genauso wie man heute immer noch nicht verlangen kann das jeder ne EAX-Soundkarte im Rechner hat, gerade weil es eine Zusatzkarte ist, die sicher nicht billig ist.

Naja. Mal sehen wie es angestellt wird. Bin gespannt. ;)

svenw
2005-10-31, 12:00:31
Was die internas dieser PPU angeht so hält sich der Hersteller ja bedeckt. Eine große Gefahr die ich im Moment sehe ist "DirectPhysic". Wenn sich am Ende herausstellt das Aegia zu dem was MS da gerade macht nicht kompatibel ist war es das wahrscheinlich.

Das mit der Geheimhaltung sehe ich eigentlich nicht als problematisch an. IMHO sollte sich ein Programmierer nicht darum scheren müssen ob ein Physik Problem mit Havok oder ner dezidierten PPU gelöst wird (abgesehen von der Menge der benötigten Resourcen). Eine einheitliche Schnittstelle ist optimal, denn dann können PPU Hersteller (okay, momentan gibt es nur einen) sich auf die HArdware konzentrieren und schlagen sich nicht ala HD-DVD/Blue-Ray mit der Durchdrückung ihrer speziellen Software herrum. Nur so kann ein vernünftiger Wettbewerb entstehen und von dem profitieren wir alle.

Ein Pc kann eh schon so viele unterschiedliche Konfigurationen haben, das man immer mehr abstrahieren muß und der nächste Schritt kommt mit virtualisierungstechniken (Pacifica/Vanderpool). Bald ist es egal auf was für einem Prozessor/Betriebssystem ein Programm läuft, jedes kriegt eine optimale Konfiguration zusammengestrickt. Ich würde ganz gerne mal MAC OS auf meinem Rechner testen.

g-string 3
2005-10-31, 12:21:06
Ich fänds gut, wenn man in der config auswählen dürfte, welchen chip man zur Physikberechnung nutzen möchte. Z.B. so:

CPU
# (standard software physics)
#
# GPU
# (hardware physics)
#
# AGEIA
# (extended hardware physics)


Ich würde eine extra PPU Karte a la Ageia begrüssen, die meinen alten Athlon 1,4 bei Spielen wie GTR mächtig entlasten dürfte. Außerdem könnte ich die Karte nach einem Hauptplatinenwechsel auf dem neuen Sys weiterverwenden.
Eine Berechnung durch die GPU würde meinen Rechner nicht wirklich entlasten (ok, das Thema ist SM3, was meine Karte ohnehin nicht beherrscht).
Na ja, nur so meine Meinung aus Sicht eines Low-level sytem Besitzers

-error-
2005-10-31, 12:22:17
Hmm, also HL2 zeigt eindrucksvoll, das man für gute Physik nicht unbedingt eine PPU braucht.

Ich habe mir mal das Video angeschaut, wo die Steine den Hang hinunterrollen, das war schon sehr beeindruckend.

Aber eine aktiv gekühlte Karte für 250 Euro, da habe ich keinen Bock drauf.

Viel besser wäre es, wenn man GPU und PPU auf ein PCB knallt und das Ganze dann Gamingcard nennt.

g-string 3
2005-10-31, 12:24:26
250 sind auch mir viel zu viel. 80 sind ok.

Aber 18 Monate später sieht es da vermutlich preislich auch schon besser aus.

Ganon
2005-10-31, 12:56:52
Hmm, also HL2 zeigt eindrucksvoll, das man für gute Physik nicht unbedingt eine PPU braucht. Ich habe mir mal das Video angeschaut, wo die Steine den Hang hinunterrollen, das war schon sehr beeindruckend.

Nunja. Die PPU macht ja nun (im Gegensatz zur GPU) nix neues möglich. Die Berechnungen bleiben ja im Prinzip die selben.

"Ein paar Steine" sind nun nix besonderes. Da kann selbst ich als OpenGL-Anfänger mit der ODE schon ca. 100 Kisten realistisch und flüssig durch die Gegend schmeißen.

Das was mit der PPU flüssig möglich wäre, wäre z.B.
- Rauchpartikel bewegen (z.B. durch Wind und andere Explosionen)
- ganze Hochhäuser einstürzen lassen, mit hunderttauschenden umherfliegenden Teilen
- ...

Da würde eine heutige CPUs zusammenbrechen.

RLZ
2005-10-31, 13:12:38
Ich sehe auch ein Problem in der weitläufigen PC-Hardware und dessen Programmierung. Die Physik ist ja nunmal ein kritischer Punkt bei Multiplayer-Spielen. D.h. alle Teilnehmer müssen ja die selben physikalischen Vorgänge haben. Da kann man nicht einfach irgend welche "Effekte" abschalten, bzw. ungenauer machen. Da kann man schlecht verlangen das alle ne PPU im Rechner haben.

Man muss unterscheiden zwischen Effektphysik und Physik, die etwas mit dem Spielablauf zu tun hat. Bei letzterem bleibt einem nicht anderes übrig, als die eigentliche Berechnung in den Server zu verlagern. Die könnte man aber auch massiv Entlasten durch PPUs. Grade MMOG könnten davon profitieren, wenn man im Spiel endlich Physikeffekte realisieren kann, weil im Server 4 Physikkarten stecken. :biggrin:
Bei vielen Effekten spielt es auch bei Multiplayerspielen keine Rolle, ob sie auf jedem Client gleich aussehen. Ob jetzt 10 mal soviel Partikel bei der Explosion rumfliegen oder der Nebel am Wasserfall sich realistischer verhält, ist eigentlich vernächlässigbar. Hier kann man den Leuten zusätzliche Effekte durch eine eigene PPU anbieten.

Demirug
2005-10-31, 13:19:28
Aber gerade die Effect Physik ist eigentlich viel besser auf der GPU aufgehoben. Da muss ich den Jungs von Havok einfach recht geben. Es ist einfach unsinnig tausenden von Partikel auf einer PPU berechnen zu lassen und dann die ganzen Positionen von der CPU in den GPU Speicher umzukopieren.

Ich sehe da irgendwie schon wieder den T&L Effekt.

aths
2005-10-31, 13:30:37
Das Dumme dabei ist einfach der momentane Aufbau superskalarer x86 z.B.
Selbst mit esolch zusätzlichen Einheiten bleibt immer die Frage:
Wie bekomme ich genug Befehle an diese?
Eine moderne x86 CPU kann max 3 Befehle pro Takt InOrder aus der Pipeline werfen. (eventuell 4 wenn Intel das durchzieht)

SSE/2 arbeitet zwar als SIMD Werten pro Befehl, aber da sind wir dann auch schon bei 2/4 Befehlen pro Takt peak.
Und der Rest der CPU will ja auch arbeiten.
Dazu kommt die recht miese Auslastung.

Wie muss mein Befehlssatz, meine Decoder und meine Pipeline aussehen, damit ich 4 solcher Rechenwerke bedienen kann? Und selbst das ist dann viel zu wenig.
Der Pentium4 kann z.B 126µops durch die Pipeline verfolgen. Wieviele müssten das sein um die CPU entsprechend zu verbreitern?
Wo bleibt mein Takt dann hängen?

Irgendwie sehe ich persönlich für x86 kaum eine Möglichkeit das effektiv zu lösen. Selbst wenn AMD in Zukunft wirklich neue Einheiten in AMD64 mit FMAC einbaut.Was ist FMAC?

Mir schwebt wie gesagt vor, dass auf der CPU gewissermaßen "Shader" laufen, also spezielle Anweisungen die ein mal hochgeladen werden und dann aus dem Cache direkt in die "Shader-Hardware" fließen. Damit dynamische Verzweigungen einigermaßen machbar sind, müsste diese Extra-Pipe entsprechend kurz sein, wie ein Vertexshader. Es sollte ein 4x-SIMD-Register geben, aber Rechenwerke die auch das Skalarprodukt unterstützen. Dazu müsste es in Reihe eine SFU geben, die z. B. RPC, SRQ etc. berechnen kann. Die Genauigkeit kann als Kompromiss zumindest vorläufig auf FP32 limitiert sein. Später ergänzt man weitere solche "Shader-Units" mit unabhängigem Instruction Pointer.

BlackBirdSR
2005-10-31, 13:36:02
Was ist FMAC?

Mir schwebt wie gesagt vor, dass auf der CPU gewissermaßen "Shader" laufen, also spezielle Anweisungen die ein mal hochgeladen werden und dann aus dem Cache direkt in die "Shader-Hardware" fließen. Damit dynamische Verzweigungen einigermaßen machbar sind, müsste diese Extra-Pipe entsprechend kurz sein, wie ein Vertexshader. Es sollte ein 4x-SIMD-Register geben, aber Rechenwerke die auch das Skalarprodukt unterstützen. Dazu müsste es in Reihe eine SFU geben, die z. B. RPC, SRQ etc. berechnen kann. Die Genauigkeit kann als Kompromiss zumindest vorläufig auf FP32 limitiert sein. Später ergänzt man weitere solche "Shader-Units" mit unabhängigem Instruction Pointer.

Wäre es dann nicht lohnenswert, sowas als eigene Subeinheit direkt an den Verteiler des K8 anzuschließen. Dort hätte sie direkten Zugriff auf den Speicher oder den Cache, bzw die CPU. In SMP Systemen könnten diese Einheiten zusammenarbeiten.
So würde man das problem mit dem Decoder und der Pipeline umgehen, könnte sich die Daten direkt aus dem Hauptspeicher fetchen und die Einheit gegebenfalls auch direkt unabhängig von der CPU ansprechen.


FMAC ist eine Floating-Point Multiply Accumulate Einheit. Wie der Name schon sagt, werden 2 Zahlen multipliziert und dann zu einer 3. Zahl addiert. (pro Takt)
Im PPC970 z.B für Single und Double Precision, im Itanium2 auch noch extended. Was aber viel zu überdimensioniert ist für Shader, glaube ich. Die Technologie dazu wäre da. Aber selbst mit FMACs würde man nicht das erreichen, was dedizierte Chips können.

Demirug
2005-10-31, 13:43:56
Was ist FMAC?

Float Multiply ACcumulate. Dass was man in einer GPU als MAD bzw MADD bezeichnet.

Mir schwebt wie gesagt vor, dass auf der CPU gewissermaßen "Shader" laufen, also spezielle Anweisungen die ein mal hochgeladen werden und dann aus dem Cache direkt in die "Shader-Hardware" fließen. Damit dynamische Verzweigungen einigermaßen machbar sind, müsste diese Extra-Pipe entsprechend kurz sein, wie ein Vertexshader. Es sollte ein 4x-SIMD-Register geben, aber Rechenwerke die auch das Skalarprodukt unterstützen. Dazu müsste es in Reihe eine SFU geben, die z. B. RPC, SRQ etc. berechnen kann. Die Genauigkeit kann als Kompromiss zumindest vorläufig auf FP32 limitiert sein. Später ergänzt man weitere solche "Shader-Units" mit unabhängigem Instruction Pointer.

In einer CPU heisst das nicht Shader sondern Kernel. Was du willst ist ein unabhängier Stream Coprozessor. Sowas kann man auch erst mal auf eine Zusatzkarte bauen. Eine Merrimac CPU wäre da schon mal nicht schlecht.

Coda
2005-10-31, 13:44:35
Hmm, also HL2 zeigt eindrucksvoll, das man für gute Physik nicht unbedingt eine PPU braucht.Die extreme CPU-Limitierung kommt dort aber auch nicht von ungefähr.

nino
2005-10-31, 13:56:16
Aber gerade die Effect Physik ist eigentlich viel besser auf der GPU aufgehoben. Da muss ich den Jungs von Havok einfach recht geben. Es ist einfach unsinnig tausenden von Partikel auf einer PPU berechnen zu lassen und dann die ganzen Positionen von der CPU in den GPU Speicher umzukopieren.

Ich sehe da irgendwie schon wieder den T&L Effekt.

wie geeignet sind denn heutige gpus, also 7800 und x1800 für physikberechnungen? sind die in sachen physik leistungsfähiger als die cpu?

Coda
2005-10-31, 14:03:13
wie geeignet sind denn heutige gpus, also 7800 und x1800 für physikberechnungen? sind die in sachen physik leistungsfähiger als die cpu?Natürlich sind sie das. Als Streamprozessor sind sie der CPU haushoch überlegen.

nino
2005-10-31, 14:06:14
Natürlich sind sie das. Als Streamprozessor sind sie der CPU haushoch überlegen.

die frage ist ja ob die gpu es schafft, komplexere physikberechnungen als die cpu zu erledigen und gleichzeitig die grafik zu berechnen. ansonsten hätte es ja heutzutage nicht viel sinn die physik auszulagern, weil die meisten spiele grafiklimitiert sind.

aths
2005-10-31, 14:08:06
Wäre es dann nicht lohnenswert, sowas als eigene Subeinheit direkt an den Verteiler des K8 anzuschließen. Dort hätte sie direkten Zugriff auf den Speicher oder den Cache, bzw die CPU. In SMP Systemen könnten diese Einheiten zusammenarbeiten.
So würde man das problem mit dem Decoder und der Pipeline umgehen, könnte sich die Daten direkt aus dem Hauptspeicher fetchen und die Einheit gegebenfalls auch direkt unabhängig von der CPU ansprechen.Um die Synchronisierung habe ich mir noch gar keine Gedanken gemacht – aber sinnvollerweise sollte volle Nebenläufigkeit gewährleistet werden, um in späteren Generationen die Leistung nach oben skalieren zu können, und zwar stärker als die sonstige CPU-Leistung.

FMAC ist eine Floating-Point Multiply Accumulate Einheit. Wie der Name schon sagt, werden 2 Zahlen multipliziert und dann zu einer 3. Zahl addiert. (pro Takt)
Im PPC970 z.B für Single und Double Precision, im Itanium2 auch noch extended. Was aber viel zu überdimensioniert ist für Shader, glaube ich. Die Technologie dazu wäre da. Aber selbst mit FMACs würde man nicht das erreichen, was dedizierte Chips können.Also MAD (Mutliply-Add) ist für Berechnungen sehr wichtig, ebenso das Skalarprodukt. Das sollte alles singleclock geboten werden. Obs nun gleich in Double oder noch besser sein muss? – Vorerst wohl nicht.

4x MAD/DP pro Takt sollte nur der Anfang sein, als Machbarkeits-Studie. Später gleich 4, 8 oder 16 solcher Dinger einbauen. Das sollen richtige "Datenfresser" sein, die in nullkommanix Datenberge durcharbeiten.


In einer CPU heisst das nicht Shader sondern Kernel. Was du willst ist ein unabhängier Stream Coprozessor. Sowas kann man auch erst mal auf eine Zusatzkarte bauen. Eine Merrimac CPU wäre da schon mal nicht schlecht.Das könnte man auch als Zusatzkarte oder Zusatz-Sockel auf dem Mainboard haben, ja. Die Idee ist aber, diese Leistung auch im Massenmarkt verfügbar zu machen. Vorteil: Entwickler können ruhiger schlafen. Die nächsten 5 Jahre muss es noch einen Fallback für die anderen CPUs geben, aber man kann mittelfristig auf diese hohe Rechenleistung setzen.

Was ist eine Merrimac-CPU? Mit solchen schönen Diagrammen kann ich wenig anfangen: http://radio.weblogs.com/0105910/2003/12/01.html. Immerhin kann ich dem Text entnehmen, dass Streams verarbeitet werden sollen.

Man müsste einen einfachen Satz an entsprechenden neuen ASM-Befehlen finden, und einen Pointer auf den Beginn der Daten setzen. Wenns der "Shader" fertig ist, gibt er ein Signal. Oder man hat mehrere "Shader" die laufend für die CPU Endlos-Streams bearbeiten.

Coda
2005-10-31, 14:09:15
Gerade Spiele die Physik einsetzen sind teils sehr heftig CPU-limitiert.

Was ist eine Merrimac-CPU? Mit solchen schönen Diagrammen kann ich wenig anfangen: http://radio.weblogs.com/0105910/2003/12/01.htmlSieht aus wie ein massiv paralleler Streamprozessor.

aths
2005-10-31, 14:11:41
die frage ist ja ob die gpu es schafft, komplexere physikberechnungen als die cpu zu erledigen und gleichzeitig die grafik zu berechnen. ansonsten hätte es ja heutzutage nicht viel sinn die physik auszulagern, weil die meisten spiele grafiklimitiert sind.Die meisten Spiele sind CPU-limitiert – und GPU-Leistung wächst schneller als CPU-Leistung.

RLZ
2005-10-31, 14:22:01
Aber gerade die Effect Physik ist eigentlich viel besser auf der GPU aufgehoben. Da muss ich den Jungs von Havok einfach recht geben. Es ist einfach unsinnig tausenden von Partikel auf einer PPU berechnen zu lassen und dann die ganzen Positionen von der CPU in den GPU Speicher umzukopieren.

Ich sehe da irgendwie schon wieder den T&L Effekt.
Shared Memory für die beiden Chips wäre eine andere Lösung.
Ich sehe bei der Physiklösung über GPU immer noch das Problem, dass die GPU auch ohne Physik schon immer zu langsam ist. Und grade in Szenen in denen viel los ist, werden sowohl mehr Grafik- als auch Physikleistung gebraucht.
Da man aber weder über die Leistungsfähigkeit von Ageia noch von HavokFX oder anderen GPU-Lösungen etwas findet, will ich mich nicht auf eine Lösung festlegen.
Beide haben Vorteile und Nachteile.

Btw gibts irgendwo Benchmarks zu den einzelnen Physikengines?
Wie skalieren die eigentlich aktuell mit der Objektanzahl?

Ganon
2005-10-31, 14:43:11
Btw gibts irgendwo Benchmarks zu den einzelnen Physikengines? Wie skalieren die eigentlich aktuell mit der Objektanzahl?

DAS würde mich auch mal interessieren. Besonders auch die freien Physik-Engines wie die ODE.

mocad_tom
2005-10-31, 21:03:40
von BlackbirdSR
Das Dumme dabei ist einfach der momentane Aufbau superskalarer x86 z.B.
Selbst mit esolch zusätzlichen Einheiten bleibt immer die Frage:
Wie bekomme ich genug Befehle an diese?
Eine moderne x86 CPU kann max 3 Befehle pro Takt InOrder aus der Pipeline werfen. (eventuell 4 wenn Intel das durchzieht)

SSE/2 arbeitet zwar als SIMD Werten pro Befehl, aber da sind wir dann auch schon bei 2/4 Befehlen pro Takt peak.
Und der Rest der CPU will ja auch arbeiten.
Dazu kommt die recht miese Auslastung.

Wie muss mein Befehlssatz, meine Decoder und meine Pipeline aussehen, damit ich 4 solcher Rechenwerke bedienen kann? Und selbst das ist dann viel zu wenig.
Der Pentium4 kann z.B 126µops durch die Pipeline verfolgen. Wieviele müssten das sein um die CPU entsprechend zu verbreitern?
Wo bleibt mein Takt dann hängen?

Irgendwie sehe ich persönlich für x86 kaum eine Möglichkeit das effektiv zu lösen. Selbst wenn AMD in Zukunft wirklich neue Einheiten in AMD64 mit FMAC einbaut.



von aths
Was ist FMAC?

Mir schwebt wie gesagt vor, dass auf der CPU gewissermaßen "Shader" laufen, also spezielle Anweisungen die ein mal hochgeladen werden und dann aus dem Cache direkt in die "Shader-Hardware" fließen. Damit dynamische Verzweigungen einigermaßen machbar sind, müsste diese Extra-Pipe entsprechend kurz sein, wie ein Vertexshader. Es sollte ein 4x-SIMD-Register geben, aber Rechenwerke die auch das Skalarprodukt unterstützen. Dazu müsste es in Reihe eine SFU geben, die z. B. RPC, SRQ etc. berechnen kann. Die Genauigkeit kann als Kompromiss zumindest vorläufig auf FP32 limitiert sein. Später ergänzt man weitere solche "Shader-Units" mit unabhängigem Instruction Pointer.

procedural synthesis and dynamic worlds:

http://arstechnica.com/articles/paedia/cpu/xbox360-1.ars/2


http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars/5

Deep pipelines are well suited to high-bandwidth streaming media processors, where the code stream is fairly compact and serial at the individual thread level and the datasets are large, uniform, and data-prefetch-friendly. So the PPE's general approach to performance is to execute serial instructions twice as fast instead of parallel instructions two at a time.

Ich bin fan von der XBox360-Hardware, auch wenn die anfängliche Programmierung sicher schleppend anläuft.
Aber die GPU lässt sich für die Fluid-, Fur-, Nebel-, Partikel-Simulation gut einsetzen, die CPU kann mit der Rigid-Body-Simulation performant umgehen.

Hierbei sehe ich die Unified Memory Architektur nichtmal als Nachteil.

Grüße,
Tom

Coda
2005-10-31, 21:06:43
Man sollte nicht vergessen, dass die XBox 360 mit den drei Kernen große Probleme habe dürfte gegen eine aktuelle Desktop-CPU anzukommen. Single-Issue In-Order ("Dual-Issue" mit zwei Threads) ist nicht sonderlich toll.

mocad_tom
2005-10-31, 21:20:54
>Furthermore, the POWER5 allows programmers to set thread
>priorities by simply controlling the decode rate of each thread.

Stimmt schon, das relativ stark verzweigter Code schlecht auf der In-Order-CPU laüft, diese Thread kann man aber auch in der Priority nach oben stufen.

Bei jedem Stall kann der Vektor-Thread wieder weiterarbeiten - so die Theorie.

Grüße,
Tom

Coda
2005-10-31, 21:28:00
Die XBox CPU hat nicht die Bohne mit Power5 zu tun! Die Cores sind vielmehr fast identisch zur Cell-PPU.

mocad_tom
2005-11-01, 01:36:04
http://arstechnica.com/articles/paedia/cpu/xbox360-2.ars/5
SMT on the Xenon will probably look a lot like SMT on the POWER5, where the hardware support comes mainly in the form of duplicated registers.

Because the Xbox 360's programmers will have similarly low-level access to the Xenon hardware, it's likely that this processor also relies on a combination of software monitoring and decode rate throttling to ensure that threads are scheduled optimally and get along with one another. It will be up to programmers to use the monitoring capabilities that are built into the PPE to ensure that threads are scheduled to run on the three PPE cores in the right combinations, so that they don't conflict over execution hardware, registers, etc.


Hier noch eine theoretische Überlegung über die optimale Pipeline-Länge(wenn es denn soetwas gibt)
http://systems.cs.colorado.edu/ISCA2002/FinalPapers/hartsteina_optimum_pipeline_color.pdf

Kurz gesagt:
100Mio Transistoren bei 2GHz können theoretisch genau soviel Rechenarbeit leisten wie 50Mio Transistoren bei 4Ghz. Dabei ist der erste Chip deutlich größer, der zweite also deutlich billiger wenn der Yield stimmt.
Der zweite Chip setzt aber die Cache-/Speicher-Hierarchie deutlicher unter Druck.

Zum Entwicklungsstart von den PPEs war das Gigahertz-Rennen noch voll im Gange. Am Anfang der Entwicklung stand also die Entscheidung hoch zu takten, auf OoO bewusst zu verzichten, um die komplexität nieder zu halten. Die Forschungsergebnisse bei der Power5-Reihe hat sich gut mit dem In-Order-Kern kombinieren lassen.

http://www.cs.utexas.edu/users/cart/arch/fall03/KallaSlides.pdf

Blasen in der Pipeline, die wegen In-Order zwangsläufig häufiger auftreten, können über eine Art Switch-on-Event-Multithreading(oder etwas komplexer über Thread-Priority) ausgefüllt werden.

Grüße,
Tom

mYthro
2005-11-03, 23:23:16
Hmm

ich habe zwar von der technischen Diskussion nicht sehr viel verstanden, trotzdem versuche ich mal mitzumachen.

Warum vereint man nicht einfach Dinge wie die PPU als spezialisierte Cores in einem Multi-Core Prozessor? Wäre es nicht effizienter, wenn man für alle Arbeiten, die bei der CPU sehr häufig anfallen spezialisierte Cores machen, und dann noch ein Paar vielseitige Cores dazupacken würde?
Dazu noch meine Frage als Laie: wäre es möglich, unterschiedlich getaktete Cores in einem Prozessor zu vereinen? Es würden ja nicht alle Aufgaben gleich ne riesen Rechenpower benötigen. Und soweit ich weiss, müssen aktuelle Dual-Cores immer mit gleichen Taktraten laufen.

Benedikt
2005-11-03, 23:59:33
Hmm

ich habe zwar von der technischen Diskussion nicht sehr viel verstanden, trotzdem versuche ich mal mitzumachen.

Warum vereint man nicht einfach Dinge wie die PPU als spezialisierte Cores in einem Multi-Core Prozessor? Wäre es nicht effizienter, wenn man für alle Arbeiten, die bei der CPU sehr häufig anfallen spezialisierte Cores machen, und dann noch ein Paar vielseitige Cores dazupacken würde?
Dazu noch meine Frage als Laie: wäre es möglich, unterschiedlich getaktete Cores in einem Prozessor zu vereinen? Es würden ja nicht alle Aufgaben gleich ne riesen Rechenpower benötigen. Und soweit ich weiss, müssen aktuelle Dual-Cores immer mit gleichen Taktraten laufen.
Ich denke, so etwas wie von dir beschriebenes sollte technisch möglich sein, was man ja bei Cell gesehen hat. Aber: Das würde bei Standard-CPUs die Transistorzahlen und in weiterer Folge die Kosten so massiv erhöhen, dass das wohl bis auf weiteres nicht durchsetzbar ist. Denn Kunden, die diese Physik-Features nicht benötigen (und das ist die Mehrzahl) müssten trotzdem dafür bezahlen!

Hauwech
2005-11-04, 14:09:22
Muesste es bei Havok FX nicht dann auch eine Skalierung der Physik abhaengig von Aufloesung, AA/AF Grad und Spieleinstellungen selbst geben?
Dazu noch SLI bzw CF.

Es ist ja eigentlich schon ein Unterschied ob die Grafikkarte bei 1024x768 ohne AA/AF rumduempelt oder mit 1600x1200 und 4/8AA/16AF oder sogar noch hoeher entsprechend gefordert wird.

Demirug
2005-11-04, 14:25:56
Muesste es bei Havok FX nicht dann auch eine Skalierung der Physik abhaengig von Aufloesung, AA/AF Grad und Spieleinstellungen selbst geben?
Dazu noch SLI bzw CF.

Es ist ja eigentlich schon ein Unterschied ob die Grafikkarte bei 1024x768 ohne AA/AF rumduempelt oder mit 1600x1200 und 4/8AA/16AF oder sogar noch hoeher entsprechend gefordert wird.

Wie viel Physik die GPU berechnen soll bestimmt ja die Anwendung. Der reine Physikteil ist dabei unabhängig von der Auflösung etc. Da das was dort berechnet wird aber auch noch dargestellt werden soll kann das sich indirekt natürlich auswirken.

Wenn die Grafikkarte aufgrund der Einstellungen noch Luft hat bekommt man die Effectphysik dann eben umsonst. Falls sie schon am Anschlag ist muss man dafür bezahlen. Rechenleistung herzaubern kann auch Havok nicht.

Theoretisch kann eine Verlagerung der Effectphysik von der CPU auf die GPU aber auch zu einer Steigerung der Performances führen wenn man vorher total CPU limitiert war.

Tjell
2005-11-05, 01:16:15
Wo liegtd as Problem, spezielle Physikberechnungen auf Dualcore auszuführen? Und gerade für sowas die zweite CPU zu nutzen?
Gerade sowas wie diese Physikzusatzkarten sehe ich als kompletter Quatsch an.
Im Gegensatz zur ner zweiten CPU, nem Dualcore, hat so eine Physikkarte unter windows wirklich garkeinen nutzen, sondern nur in Spielen. Und da möchte ich erst mal benchmarks sehen.
...
Ja. Und Soundkarten (sozusagen SPU) sind auch sinnlos. Und die damaligen MPEG2-Karten. Nicht zu vergessen Grafikkarten, vor allem die für 3D. Oha, nicht außer acht lassen sollte man die vollkommen überflüssigen MPEG4-Encoder-Chips und andere "Video-Prozessoren". Alles überflüssig der Quatsch.

Die CPU reicht ja aus. Immer. Und Ewig. Und erst recht Dual-Kern.
.
.
.
:|

3D-Beschleuniger-Grafikkarten brauchte übrigens auch mal kein Mensch...

Hamster
2005-11-05, 09:18:31
ist es, aus kundensicht, nicht wesentlich besser wenn man eine ppu mit auf einer soundkarte verbaut?

alpha-centauri
2005-11-05, 11:42:37
Ja. Und Soundkarten (sozusagen SPU) sind auch sinnlos. Und die damaligen MPEG2-Karten. Nicht zu vergessen Grafikkarten, vor allem die für 3D. Oha, nicht außer acht lassen sollte man die vollkommen überflüssigen MPEG4-Encoder-Chips und andere "Video-Prozessoren". Alles überflüssig der Quatsch.


Soundkarte: Da haste den ganzen E/A Wandler Kram drauf. Kannst aufnehmen, abspielen. Hörst musik.
Schau an, was bei ONboard Sound passiert. Da brauchste auch Codecs dafür.

MPG Karten sind ab 500 Mhz ja auch sinnlos geworden. Und was CPU Belastung angeht: Entweder guckt man DVD oder nicht. Da ists egal, ob der AMD zu 90% am arbeiten ist.

Nur für die paar Schatteneffekte und deren Geometrieberechnung und die paar Pixeleffekte 300 Euro zahlen ist unsinn.

Hauwech
2005-11-05, 13:07:13
Wie viel Physik die GPU berechnen soll bestimmt ja die Anwendung. Der reine Physikteil ist dabei unabhängig von der Auflösung etc. Da das was dort berechnet wird aber auch noch dargestellt werden soll kann das sich indirekt natürlich auswirken.

Wenn die Grafikkarte aufgrund der Einstellungen noch Luft hat bekommt man die Effectphysik dann eben umsonst. Falls sie schon am Anschlag ist muss man dafür bezahlen. Rechenleistung herzaubern kann auch Havok nicht.

Theoretisch kann eine Verlagerung der Effectphysik von der CPU auf die GPU aber auch zu einer Steigerung der Performances führen wenn man vorher total CPU limitiert war.

Klar, Havok kann keine Rechenleistung herzaubern aber imho lohnt sich das nur fuer die dicken Karten da bei den kleineren meist sowieso schon Abstriche gemacht werden muessen.

Effektphysik ist auf der GPU eigentlich besser, da stimme ich zu, allerdings muss die GPU die Objekte bzw Effekte sowieso darstellen, egal von woher die Daten kommen. Das "wie viel mehr" gegenueber SC CPUs und/oder DC CPUs ist imho der springende Punkt denn selber berechnen muesste es die GPU dann ja auch noch. Hauptsache man kann es selber einstellen.

Haben sich ATI und nVidia nicht auch mal irgendwie Gedanken dazu gemacht, wie man einen eventuell vorhandenen IGP zusaetzlich zur Grafikkarte nutzen koennte? Vielleicht waere das ja eine Moeglichkeit? Allerdings muessten dann ja dort auch wieder Daten von A nach B geschaufelt werden. Zumindest aber im Moment die eher kostenguenstigere Loesung fuer Spieler.