PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Physx immer wichtiger in Spielen


Gast
2009-03-20, 03:59:39
Wie man absehen kann wird Physx immer wichtiger. Jetzt sind auch die Konsoleros dran. (PS3, Wii). Ich glaube ATI kommt hier immer mehr ins Hintertreffen gegenüber Nvidia. Da auch vieles nur Konsolenports sind wird Nvidia hier im Vorteil sein. Wie seht ihr das? Ich sehe das als guten Schritt unabhängig von Nvidia-ATI.

_DrillSarge]I[
2009-03-20, 04:28:33
auf was für einen grafikchip setzt die ps3? ;) und wo soll da gpu-beschleunigte physik laufen?
physX (novodex-engine) läuft überall, aber halt nur cpu-beschleunigt.

=Floi=
2009-03-20, 05:14:33
zumal mit opencl und DX11 wieder alles offen ist. ATI wird auch mehr arithmethischen rechenleistung dafür zur verfügung haben...


abwarten!
physx ist für uns alle ein fortschritt.

BlackBirdSR
2009-03-20, 06:38:27
Wie man absehen kann wird Physx immer wichtiger. Jetzt sind auch die Konsoleros dran. (PS3, Wii). Ich glaube ATI kommt hier immer mehr ins Hintertreffen gegenüber Nvidia. Da auch vieles nur Konsolenports sind wird Nvidia hier im Vorteil sein. Wie seht ihr das? Ich sehe das als guten Schritt unabhängig von Nvidia-ATI.

Bitte die Sache richtig darstellen.
PhysX ist schon sehr lange für alle Platformen wichtig. Was du meinst ist, dass hardware-bechleunigtes PhysX angeblich an Bedeutung gewinnt.
Auf der Playstation3 (Konsolen) war dies jedoch auch vor dieser Meldung oft genug anzufinden. Dort muss eben Cell herhalten. Mit CUDA und GPU hat das nichts zu tun.

MuLuNGuS
2009-03-20, 08:05:28
an den postings im CB merkt man das die meisten leute es einfach nicht raffen dass physx nicht an eine bestimmte hardware gekoppelt ist, es braucht einfach nur einen solver als schnittstelle.

BlackBirdSR
2009-03-20, 09:01:12
an den postings im CB merkt man das die meisten leute es einfach nicht raffen dass physx nicht an eine bestimmte hardware gekoppelt ist, es braucht einfach nur einen solver als schnittstelle.


Sie wollen es nicht kapieren. Für viele ist PhysX=Nvidia und damit schlecht und für alle anderen nicht nutzbar.

Monger
2009-03-20, 09:25:53
Stimmt das denn? Setzt sich PhysX wirklich durch?

Klar hört man hier und da von weiteren PhysX Spielen, aber Havok scheint mir immer noch der Platzhirsch zu sein.

Und was die Hardwarebeschleunigung angeht: ich denke, dass erst Microsoft da für Klarheit sorgen wird. Wenn das nächste DirectX wirklich eine passende Schnittstelle bietet, wird die sich mit hoher Sicherheit auch durchsetzen. Und dann werden wohl sowohl PhysX als auch Havok entsprechend sich an diese Schnittstelle angliedern.

BlackBirdSR
2009-03-20, 09:38:17
Stimmt das denn? Setzt sich PhysX wirklich durch?



Eine kleine, unvollständige Liste:

Age of Empire 3
Rise of Legends
Joint Task Force
UT3
Medal of Honor Airborne
Vegas 1+2
Gears of War 1+2
Frontlines
Two Worlds
Gothic3
Silverfall
GRAW 1+2
Sacred2
Mass Effect
Worldshift
Empire Earth 3

Meiner Meinung nach, hat sich PhysX schon lange durchgesetzt und existiert blendend neben Havok und den anderen Eigenentwicklungen.

Monger
2009-03-20, 09:52:06
Vielleicht haben wir da ja nur sprachliche Differenzen, aber für mich heißt "durchsetzen", dass es die Konkurrenz langsam verdrängt. Und das ist imho überhaupt nicht so. (hier übrigens mal ne Liste von Havok Titeln (http://www.havok.com/content/blogcategory/29/73/))

PhysX hat sich mittlerweile etabliert, ja. Sprich: sie werden nicht mehr über Nacht von der Bildfläche verschwinden. Was zugegebenermaßen ein beachtlicher Erfolg ist. Aber dass sich insbesondere die PhysX Beschleunigerschnittstelle mal durchsetzt, halte ich für extrem unwahrscheinlich. Und auch die Middleware an sich ist Havok nicht dermaßen gnadenlos überlegen, als dass sie sie in absehbarer Zeit vom Feld drängen könnten.

BlackBirdSR
2009-03-20, 09:55:42
Vielleicht haben wir da ja nur sprachliche Differenzen, aber für mich heißt "durchsetzen", dass es die Konkurrenz langsam verdrängt. Und das ist imho überhaupt nicht so. (hier übrigens mal ne Liste von Havok Titeln (http://www.havok.com/content/blogcategory/29/73/))



Um PhysX-Beschleunigung geht es doch vorerst gar nicht.
PhysX hat als Engine einige der großen Blockbuster auf seiner Seite. Und ganz ehrlich: Durchsetzen im Sinne von Monopol möchte ich gar nicht haben.

Meinetwegen sagen wir "etabliert". So oder so ist PhysX fest am Markt verankert und das wird auch noch eine Weile so bleiben. Mit einer Geforce hat das ja erstmal nichts zu tun. Nvidia war nur schlau genug, sich eine Schnittstelle zu basteln.

Botcruscher
2009-03-20, 10:21:40
Unter "durchsetzen" ist ja auch meist die exklusive Hardwarebeschleunigung gemeint. Als Physikengine wird Physx ganz sicher seinen Platz finden. Der Rest wird mit DX11 verschwinden ersetzt. Das bischen was heute in Spielen damit zusätlich umgesetzt wird verdient auch das Prädikat lächerlich. Der wirkliche Grund ist ja Cuda zu pushen.


Was uns in zukunft erwartet wird sich mit der nächsten Grafikkartengeneration zeigen. NV muss notgedrungen vorlegen weil Intel und MS vor der Tür stehen. AMD wird implementieren "was kommt". ZZ. siehts da ja eher nach Wintel aus. Gegen diese Marktmacht muss NV zwangsläufig Zugeständnisse machen. Der Zeitsvorsprung wird bald dahin sein.

INDEX75
2009-03-20, 11:06:55
Eine kleine, unvollständige Liste:

Age of Empire 3
...

Meiner Meinung nach, hat sich PhysX schon lange durchgesetzt und existiert blendend neben Havok und den anderen Eigenentwicklungen.Ich bin jetzt hinsichtlich AoE3 etwas verwirrt, da es doch eigentlich ein Havok Titel ist, oder? Selbst auf der Packung ist das Havok Logo zu finden. Oder irre ich mich? :confused:

Bisher hat man jedoch den Eindruck das Havok bei (weit) mehr Titel zu finden ist als PhysX. Zumindest bis jetzt noch.

Coda
2009-03-20, 11:25:55
http://en.wikipedia.org/wiki/PhysX#Games
http://www.havok.com/content/blogcategory/29/73/

Ich seh da jetzt nicht so den großen Unterschied. Der Havok-Solver soll allerdings genauer sein.

INDEX75
2009-03-20, 11:28:44
OK, ich geb mich geschlagen. :biggrin: Liegen beide etwa gleichauf.

Und das mit AoE3 hat sich damit wohl auch geklärt.

deekey777
2009-03-20, 12:45:22
Ich bin mal fies:
Havok Dominates 2008 BAFTA Award Nominations (http://www.havok.com/content/view/677/53/)
San Francisco, CA (February 25, 2009) – BAFTA, the prestigious British Academy of Film and Television Arts Committee, recently announced its nominations for 2008’s best video games naming 10 different games featuring Havok-powered tools and software for a total of 27 nominations throughout 12 of 14 categories - six times greater than any other physics engine.

I[;7179245']auf was für einen grafikchip setzt die ps3? ;) und wo soll da gpu-beschleunigte physik laufen?
physX (novodex-engine) läuft überall, aber halt nur cpu-beschleunigt.

Natürlich wird auf der PS3 der Grafikchip benutzt, es ist doch die PS3.
Das Beste an dem Eröffnungsposting ist: Die Wii hat einen Grafikchip von ATi (der gerade 50 Mio ausgeliefert wurde). Solche Threads machen im Technologieforum keinen Spaß.

Coda
2009-03-20, 13:12:55
Und vor allem wäre der Wii-Grafikchip für sowas absolut ungeeignet. Das Ding ist ja nichtmal programmierbar X-D

Gast
2009-03-20, 13:19:15
Havok ist doch bis jetzt unbrauchbar, da keine GPU Beschleunigung! Die CPU ist dafür doch einfach zu langsam...

BlackBirdSR
2009-03-20, 13:30:19
Havok ist doch bis jetzt unbrauchbar, da keine GPU Beschleunigung! Die CPU ist dafür doch einfach zu langsam...

Wer kommt denn auf sowas?
Sind alle bisherigen Games unbrauchbar langsam, weil nur CPU-Physik zum Einsatz kommt?

Coda
2009-03-20, 13:42:10
Vor allem kommt's mir wirklich so vor, als würde z.B. bei Mirrors Edge CPU-PhysX künstlich ausgebremst.

Irgendjemand hat mal die CPU-Auslastung gemessen und die war nicht auf 100%, sondern weit darunter. Und PhysX kann eigentlich mit mehreren CPUs umgehen.

Peilo
2009-03-20, 14:16:57
war das zufällig auf CB? die hatten so nen Test gemacht mit verschiedenen NV und ATI grakas. Klar, das die ATI unter PhysX stark abfällt, da CPU alles errechnen muss.
Allerdings, ist es nicht der komplett falsche weg, physik von der Graka rechnen zu lassen? mein gefühl ist eher, das moderne spiele die grafik weitaus mehr vordern als die cpu, so alá Crysis und konsorten. Strategiespiele können Physik wohl besser über Graka laufen lassen, aber Shooter, Rennspiele, Rollenspiele, die sind wohl besser mit Physik auf der Cpu bedient, da Die Graka ja immer mit am Anschlag läuft, während die Cpu je nach spiel und situation manchmal nen gang zurückschalten kann. Dazu noch, das viele games grad ma dualcore nutzen, also oft 2 kerne rumblödeln.

ah ja, hier der Test von CB
http://www.computerbase.de/artikel/software/2009/test_mirrors_edge/4/#abschnitt_benchmarks_mit_physx
Das die für das bissl bewegten Stoff und zerspringende Glass die Fps über die ganze länge so in den keller gehn, kann ja eigenlich nur bedeuten, das PhysX in diesem Game nicht in Cpu-optimierter Form mit dabei ist. Wäre ja auch dumm von NV, prinzipiell sollte es aber möglich sein

dargo
2009-03-20, 14:23:08
Allerdings, ist es nicht der komplett falsche weg, physik von der Graka rechnen zu lassen? mein gefühl ist eher, das moderne spiele die grafik weitaus mehr vordern als die cpu, so alá Crysis und konsorten.

Es wurde schon zig mal gesagt, dass die GPUs dafür besser geeignet sind. Der imho wichtigste Punkt ist die deutlich schnellere Performanceentwicklung bei den Grafikkarten im Laufe der Zeit. Die CPUs kommen da einfach nicht in diesem Tempo mit. Und Crysis ist stärker cpu-lastig als manche hier denken.

Daredevil
2009-03-20, 14:25:41
Vor allem kommt's mir wirklich so vor, als würde z.B. bei Mirrors Edge CPU-PhysX künstlich ausgebremst.

Irgendjemand hat mal die CPU-Auslastung gemessen und die war nicht auf 100%, sondern weit darunter. Und PhysX kann eigentlich mit mehreren CPUs umgehen.
Bei Mirrors Edge ist das auch extrem was dort an Effekte Eingesetzt wird.
Das spiel läuft ansich ganz smooth mit CPU beschleunigter Physik, aber des zweite Kapitel glaube ich war das, da läuft man eine Wand voller Fenster entlang und die Polizisten zerschießen alles was wie Glas aussieht, dadurch fliegen dreimillionen Glassplitter umher die keine scheiß CPU bearbeiten kann. :|
Ich finde da hat Nvidia das ein wenig provoziert um Werbung für GPU-Physx zu machen, dezente Physik ist super und ich hab auch nichts gegen PhysX, aber es sollte dann doch bitte auf ATI Karten die nicht beschleunigen schlechter laufen statt gar nicht.

Coda
2009-03-20, 14:27:40
Bei Mirrors Edge ist das auch extrem was dort an Effekte Eingesetzt wird.
Eben darum sollte die CPU-Auslastung auch 100% sein wenn PhysX in Software gerechnet wird und nicht irgendwo rumdümpeln.

Es kann aber sein, dass die Messungen die ich gesehen habe nicht diese Extremstellen berücksichtigen. Wahrscheinlich läuft PhysX aber zumindest nur auf einem CPU-Core.

deekey777
2009-03-20, 14:28:51
Nvidia sabotiert ihr eigenes Produkt?

reunion
2009-03-20, 14:29:13
Es wurde schon zig mal gesagt, dass die GPUs dafür besser geeignet sind. Der imho wichtigste Punkt ist die deutlich schnellere Performanceentwicklung bei den Grafikkarten im Laufe der Zeit. Die CPUs kommen da einfach nicht in diesem Tempo mit. Und Crysis ist stärker cpu-lastig als manche hier denken.

Das ist mittlerweile auch nicht mehr richtig seit man auch bei CPUs in die Breite geht und die Kernanzahl erhöht. Ganz im Gegenteil, wenn in Zukunft wie man auf diversen Folien von AMD/Intel schon sehen konnte auch Streamprozessoren in die CPU wandern ist wohl sogar das Gegenteil der Fall. Darüber hinaus muss man die vielen Threads ohnehin erstmal bedienen können, bei den meisten Anwendungen idelt die halbe CPU herum. Ich habe das ja auch schon mehrfach zur Diskussion gestellt ob es wirklich sinnvoll ist in Zeiten stetig steigender Threadanzahl in modernen CPUs.

dargo
2009-03-20, 14:29:53
Ich finde da hat Nvidia das ein wenig provoziert um Werbung für GPU-Physx zu machen, dezente Physik ist super und ich hab auch nichts gegen PhysX, aber es sollte dann doch bitte auf ATI Karten die nicht beschleunigen schlechter laufen statt gar nicht.
Finde ich überhaupt nicht. Ich konnte mit der GTX 260 ink. PhysX in 1680x1050 8xQMSAA das Game butterweich spielen. Was anderes wäre wenn NV es dermaßen übertrieben hätte, dass die Framerate in Richtung 30fps oder noch tiefer gehen würde. Aber so ist es imo völlig in Ordnung.

reunion
2009-03-20, 14:30:04
Nvidia sabotiert ihr eigenes Produkt?

Wenn schon Nvidia versucht ihr eigenes Produkt unentbehrlich darzustellen. So nach dem Motto ohne GPU-Physik ist das nicht möglich und läuft auch noch langsamer. Blöd nur das die CPU bloß herumidelt.

Coda
2009-03-20, 14:32:00
Tun sie auch eindeutig. Das steht ja außer Frage ;)

Das ist aber typisch für NVIDIA. Wenn ihre Hardware mal nicht marktrelevant besser ist pushen sie wieder irgendwas im Software-Bereich.

dargo
2009-03-20, 14:34:25
Das ist mittlerweile auch nicht mehr richtig seit man auch bei CPU in die breite geht und die Kernanzahl erhöht.
Du kannst bei CPUs nicht im gleichem Tempo in die Breite gehen wie bei GPUs in die Breite und Pro/Mhz Leistung. Bei Quadcores brauche ich nur für die FPS schon sehr oft 3 Kerne (Tendenz wird sicherlich in Richtung 4 Kerne gehen). Dh. für PhysX bleibt mir nur ein lächerlicher Core übrig. Bis es Oktacores gibt haben wir wieder locker 4x so schnelle GPUs wie heute.

Daredevil
2009-03-20, 14:35:26
Finde ich überhaupt nicht. Ich konnte mit der GTX 260 ink. PhysX in 1680x1050 8xQMSAA das Game butterweich spielen. Was anderes wäre wenn NV es dermaßen übertrieben hätte, dass die Framerate in Richtung 30fps oder noch tiefer gehen würde. Aber so ist es imo völlig in Ordnung.
Deswegen sagte ich ja auch "aber es sollte dann doch bitte auf ATI Karten die nicht beschleunigen schlechter laufen statt gar nicht".
3-6 FPS hatte ich an der stelle mit den Fenstern, Drei! Dual Core @ 3.2 GHz
Das wirft zwar ein gutes Licht auf Nvidia Karten, aber ein schlechtes auf PhysX.
Oder wozu brauch man eine Physik Engine die ohne passende Hardware nicht gescheit läuft? ;)
Ach... moment... Ageia...da war doch was ;D

Ich denke aber Mirrors Edge war ein Ausnahme Titel.

reunion
2009-03-20, 14:40:15
Du kannst bei CPUs nicht im gleichem Tempo in die Breite gehen wie bei GPUs in die Breite und Pro/Mhz Leistung.

Sagt wer? Beide sind einzig durch die physikalischen Gegebenheiten limitiert und da haben CPUs nach wie vor sogar den moderneren Fertigungsprozess zu bieten. Und auch die Die-Size ist bei GPUs längst an einem Punkt angelangt wo man kaum mehr noch größer werden kann. Auch bei CPUs werden ja nicht nur die Kerne skaliert sondern auch die Pro/Mhz-Leistung gesteigert. Nehalem verdoppelt hier durch HT mal eben die Threadanzahl.


Bei Quadcores brauche ich nur für die FPS schon sehr oft 3 Kerne (Tendenz wird sicherlich in Richtung 4 Kerne gehen). Dh. für PhysX bleibt mir nur ein lächerlicher Core übrig. Bis es Oktacores gibt haben wir wieder locker 4x so schnelle GPUs wie heute.

Bis auf Mirrors Edge (was wohl massiv von NV mitfinanziert wurde und wo die CPUs meist nur herumideln) berechnen alle aktuellen Spiele die Physik ausschließlich auf der CPU und lasten einen Quad-Core trotzdem kaum aus.

dargo
2009-03-20, 14:49:32
Beide sind einzig durch die physikalischen Gegebenheiten limitiert und da haben CPUs nach wie vor sogar den moderneren Fertigungsprozess zu bieten. Und auch die Die-Size ist bei GPUs längst an einem Punkt angelangt wo man kaum mehr noch größer werden kann. Auch bei CPUs werden ja nicht nur die Kerne skaliert sondern auch die Pro/Mhz-Leistung gesteigert.

Aber bei weitem nicht in dem Ausmaß wie bei GPUs. Außerdem vergisst du hier einen gravirenden Vorteil. Man kann heute schon mit der GTX295 an einem PCIe-Slot eine GPU für PhysX nutzen. Zusätzlich haben die meisten modernen Bretter mindestens zwei PCIe-Slots die mit entweder 16/8 oder 16/16 angebunden sind. Dh. man könnte zwei GTX295 und 3 GPUs davon ausschließlich für PhysX nutzen. Jetzt kannst du mir gerne eine CPU zeigen die diese Performance schafft.


Nehalem verdoppelt hier durch HT mal eben die Threadanzahl.

HT kann niemals einen echten Core ersetzen.

Coda
2009-03-20, 14:50:15
Bei Quadcores brauche ich nur für die FPS schon sehr oft 3 Kerne (Tendenz wird sicherlich in Richtung 4 Kerne gehen).
Nur weil was bis drei Kerne skaliert heißt das noch lange nicht dass nicht viel Zeit durch Synchronisation verschwendet wird dabei.

Jake Dunn
2009-03-20, 14:50:39
Vor allem kommt's mir wirklich so vor, als würde z.B. bei Mirrors Edge CPU-PhysX künstlich ausgebremst.

Irgendjemand hat mal die CPU-Auslastung gemessen und die war nicht auf 100%, sondern weit darunter. Und PhysX kann eigentlich mit mehreren CPUs umgehen.

Jap ein Quad geht nur auf 50% egal wie hoch der takt ist, bei einem DC gehts bis auf 100%

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7057626&postcount=503

_DrillSarge]I[
2009-03-20, 14:51:29
Eben darum sollte die CPU-Auslastung auch 100% sein wenn PhysX in Software gerechnet wird und nicht irgendwo rumdümpeln.

Es kann aber sein, dass die Messungen die ich gesehen habe nicht diese Extremstellen berücksichtigen. Wahrscheinlich läuft PhysX aber zumindest nur auf einem CPU-Core.
das ist auch bei den ut3-physx leveln so. ruckeln wie sau und die cpu "langweilt" sich.

dargo
2009-03-20, 14:53:52
Nur weil was bis drei Kerne skaliert heißt das noch lange nicht dass nicht viel Zeit durch Synchronisation verschwendet wird dabei.
Das wird sicherlich der Fall sein, aber was spielt das in Bezug aufs Thema für eine Rolle?

reunion
2009-03-20, 14:55:18
Aber bei weitem nicht in dem Ausmaß wie bei GPUs.

Begründung? Ich wette dagegen.


Außerdem vergisst du hier einen gravirenden Vorteil. Man kann heute schon mit der GTX295 an einem PCIe-Slot eine GPU für PhysX nutzen. Zusätzlich haben die meisten modernen Bretter mindestens zwei PCIe-Slots die mit entweder 16/8 oder 16/16 angebunden sind. Dh. man könnte zwei GTX295 und 3 GPUs davon ausschließlich für PhysX nutzen. Jetzt kannst du mir gerne eine CPU zeigen die diese Performance schafft.

Genial. Also sollen wir uns jetzt alle eine zweite oder dritte GPU nur für Physik in den Rechner schnallen damit sich die CPU langweilen kann? Aktuelle Spiele werden nach wie vor fast immer von der Grafikkarte limitiert, eine moderne CPU kann das bisschen Physik spielend berechnen.


HT kann niemals einen echten Core ersetzen.

Das habe ich auch nicht behauptet. Es ging darum das sich auch bei CPUs nicht nur in der Kernanzahl etwas verbessert.

Coda
2009-03-20, 14:58:15
Das wird sicherlich der Fall sein, aber was spielt das in Bezug aufs Thema für eine Rolle?
Ich meine, dass es sehr wohl ein Problem ist vier Kerne vollzubekommen, und das man nicht drei "allein für die FPS" braucht.

Begründung? Ich wette dagegen.
Bei der Pro-Mhz-Leistung ist es bei den CPUs wirklich inzwischen sehr dünn geworden.

dargo
2009-03-20, 15:05:20
Begründung? Ich wette dagegen.

Schau dir einfach die letzten ~2 Jahre an.


Genial. Also sollen wir uns jetzt alle eine zweite oder dritte GPU nur für Physik in den Rechner schnallen damit sich die CPU langweilen kann?

Das habe ich nirgendwo behauptet. Ist auch gar nicht notwendig, siehe Mirrors Edge.


Aktuelle Spiele werden nach wie vor fast immer von der Grafikkarte limitiert, eine moderne CPU kann das bisschen Physik spielend berechnen.

Das ist überhaupt nicht wahr. Ich hoffe du beziehst dich nicht auf die sinnfreien Benchmarks die so im Netz in Bezug auf Games und CPUs rumschwirren.

reunion
2009-03-20, 15:05:36
Bei der Pro-Mhz-Leistung ist es bei den CPUs wirklich inzwischen sehr dünn geworden.

Nur wenn ich das bloß pro Thread sehe. Aber dann müsste ich das bei GPUs auch pro ALU/Thread betrachten. Es steigt ja auch die Kernanzahl. Auch sonst bringt bsw. HT bei entsprechender Software gut und gerne 50% mehr "Pro-Mhz"-Leistung, und abgesehen davon hat sich seit dem P4 hier schon einiges getan.

dargo
2009-03-20, 15:11:38
Ich meine, dass es sehr wohl ein Problem ist vier Kerne vollzubekommen, und das man nicht drei "allein für die FPS" braucht.

Inwieweit das ein Problem ist kann ich nicht beurteilen. Ich nehme jetzt mal zwei Beispiele - Testdrive Unlimited und Need for Speed: Pro Street. Beide Games kommen von der XBox360 und beide nutzen einen Triplecore hervorragend aus. Warum keinen Quad? Nun, ich denke es liegt einfach daran, dass die Xbox360 die Leadplattform war und diese eben eine CPU mit 3 Cores (mit je zwei Threads) verwendet. Hätte die Box 4 Cores würden die Games sicherlich besser mit einem Quad skalieren, auch wenn man wahrscheinlich kaum an die 100% kommen würde.

Coda
2009-03-20, 15:11:58
Nur wenn ich das bloß pro Thread sehe. Aber dann müsste ich das bei GPUs auch pro ALU/Thread betrachten.
Nein, bei GPUs ist die Leistung die durch eine Erhöhung der Einheitenanzahl entsteht transparent abrufbar, bei CPUs nicht

reunion
2009-03-20, 15:12:16
Schau dir einfach die letzten ~2 Jahre an.

20.03.2007:
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

20.03.2009:
Schnellste GPU: GTX285
Schnellste CPU: Core i7 3.2Ghz (Nehalem)

Ich wage zu behaupten das es bei den CPUs hier eine schnellere Entwicklung gab in Hinblick auf die mögliche Performance bei Physikberechnungen.

Das habe ich nirgendwo behauptet. Ist auch gar nicht notwendig, siehe Mirrors Edge.


Du hast es als Vorteil erwähnt mehrer GPUs einsetzen zu können. Wenn du es dann nicht machen willst/praktikabel hältst verstehe ich nicht was du damit willst.


Das ist überhaupt nicht wahr. Ich hoffe du beziehst dich nicht auf die sinnfreien Benchmarks die so im Netz in Bezug auf Games und CPUs rumschwirren.

Solange ich mit einem Dual-Core noch praktisch alles flüssig spielen kann brauchen wir hier nicht weiter zu diskutieren.

reunion
2009-03-20, 15:12:56
Nein, bei GPUs ist die Leistung die durch eine erhöhung der Einheitenanzahl transparent abrufbar, bei CPUs nicht

Es geht aber um Physikberechnungen und da bekomme ich auch bei einer CPU alle Kerne voll.

Coda
2009-03-20, 15:14:03
Das ist korrekt. Alles was auf der GPU parallelisierbar ist, ist es erst recht auf der CPU.

Monger
2009-03-20, 15:16:43
In den letzten 15 Jahren waren Spiele imho fast immer CPU limitiert. Das hat ja erst überhaupt den Boom der GPU Beschleuniger ausgelöst, und hat mehr und mehr dafür gesorgt, dass Berechnungen auf die Grafikkarte verlagert werden - und dass auch in der Grafik im Gegensatz zu allen anderen technischen Aspekten die größten Sprünge gemacht wurden. Grafikkarten hatten sogar dermaßen Überkapazitäten, dass sich die Hersteller dringend Funktionen überlegen mussten mit der sie die zusätzliche Leistung halbwegs vernünftig verbraten konnten, z.B. mit AF und AA. Nicht umsonst sind die Highend Karten mit jeder Generation billiger geworden, weil es einfach keine Spiele mehr gab die so viel Rechenkraft sinnvoll nutzen konnten.

Die Etablierung von Multicores hat das mal kurzzeitig etwas geglättet, aber langfristig werden die GPUs wieder die Nase vorn haben. Da auch die Architektur für Physik Berechnungen ganz gut passt, ist es imho nur konsequent, letztendlich Physik über die Grafikkarte zu beschleunigen.

Coda
2009-03-20, 15:22:53
Also ich glaube eher dass sich CPU und GPU in eine gemeinsame Richtung entwickeln. Das sehen auch Intel und AMD so.

dargo
2009-03-20, 15:23:56
20.03.2007:
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

20.03.2009:
Schnellste GPU: GTX285
Schnellste CPU: Core i7 3.2Ghz (Nehalem)

Gewisse Überschneidungen gibt es immer. Ich könnte es auch so aufstellen:

1.
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

Schnellste GPU: GTX280
Schnellste CPU: Core 2 Quad 3,2ghz (Yorkfield)

2.
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

Schnellste GPU: GT300
Schnellste CPU: Core i7 3.xGhz (Nehalem)

Und wie ich schon sagte, mit SLI würde man PhysX sinnvoll nutzen können, falls notwendig. Damit verdoppelt sich schon die Leistung.


Solange ich mit einem Dual-Core noch praktisch alles flüssig spielen kann brauchen wir hier nicht weiter zu diskutieren.
Flüssig ist relativ. Für den einen sind 30fps flüssig für den anderen 60fps. Im zweiten Fall muss die CPU in etwa schon doppelt so schnell sein, bei 100% CPU-Limit versteht sich.


Du hast es als Vorteil erwähnt mehrer GPUs einsetzen zu können. Wenn du es dann nicht machen willst/praktikabel hältst verstehe ich nicht was du damit willst.

Ich habe mein Setting in ME, sprich 1680x1050 8xQMSAA genannt. Für User die 2560x1600 und AA fahren wird sicherlich eine schnellere GPU bzw. MGPU herhalten müssen.

reunion
2009-03-20, 15:24:59
In den letzten 15 Jahren waren Spiele imho fast immer CPU limitiert. Das hat ja erst überhaupt den Boom der GPU Beschleuniger ausgelöst, und hat mehr und mehr dafür gesorgt, dass Berechnungen auf die Grafikkarte verlagert werden - und dass auch in der Grafik im Gegensatz zu allen anderen technischen Aspekten die größten Sprünge gemacht wurden. Grafikkarten hatten sogar dermaßen Überkapazitäten, dass sich die Hersteller dringend Funktionen überlegen mussten mit der sie die zusätzliche Leistung halbwegs vernünftig verbraten konnten, z.B. mit AF und AA. Nicht umsonst sind die Highend Karten mit jeder Generation billiger geworden, weil es einfach keine Spiele mehr gab die so viel Rechenkraft sinnvoll nutzen konnten.

Die Etablierung von Multicores hat das mal kurzzeitig etwas geglättet, aber langfristig werden die GPUs wieder die Nase vorn haben. Da auch die Architektur für Physik Berechnungen ganz gut passt, ist es imho nur konsequent, letztendlich Physik über die Grafikkarte zu beschleunigen.

Das Problem dabei ist das sich CPUs und GPUs immer mehr annähernd und eben auch CPUs mittlerweile längst in die Breite gehen. In Zukunft planen AMD/Intel hier auch eine hohe Anzahl an Streamprozessoren wie in GPUs in die CPU zu integrieren. Und solange eine aktuelle CPU mehr als schnell genug ist sehe ich keinen Grund hier etwas Richtung GPU zu verschieben. Denn was man auch nicht vergessen darf zwischen einer High-End und eine Low-End GPU klafft eine enorme Lücke welche es bei CPUs so nicht gibt.

Coda
2009-03-20, 15:27:33
Ich würde viel eher annehmen dass die GPUs immer mehr general purpose werden von den Cores. Larrabee ist auch kein "Streamprocessor" mehr, er ist nur auf Stream-Operationen gut ausgelegt.

reunion
2009-03-20, 15:36:00
Gewisse Überschneidungen gibt es immer. Ich könnte es auch so aufstellen:

1.
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

Schnellste GPU: GTX280
Schnellste CPU: Core 2 Quad 3,2ghz (Yorkfield)

2.
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

Schnellste GPU: GT300
Schnellste CPU: Core i7 3.xGhz (Nehalem)



Natürlich. Ich ging jetzt genau von den von dir erwähnten zwei Jahren aus. Eine schneller Entwicklung bei den GPUs konntest du bisher jedenfalls nicht darlegen, CPU-Code ist vielleicht ungünstiger zu skalieren, aber das ist ja nicht die Schuld der CPU-Hersteller. Aber warum sollte sich da auch was unterscheiden? beiden sind von der Transistorenanzahl und damit von Fertigungsprozess abhängig.


Und wie ich schon sagte, mit SLI würde man PhysX sinnvoll nutzen können, falls notwendig. Damit verdoppelt sich schon die Leistung.

Ich kann auch mehrere/schnellere CPUs einsetzen wenn ich das will.


Flüssig ist relativ. Für den einen sind 30fps flüssig für den anderen 60fps. Im zweiten Fall muss die CPU in etwa schon doppelt so schnell sein, bei 100% CPU-Limit versteht sich.

Du weichst aus. GPUs werden weit mehr gefordert wie CPUs darum ging es.


Ich habe mein Setting in ME, sprich 1680x1050 8xQMSAA genannt. Für User die 2560x1600 und AA fahren wird sicherlich eine schnellere GPU bzw. MGPU herhalten müssen.

Da nehme ich doch lieber die sich langweilenden CPU-Cores und erspare mit eine zweite GPU.

dargo
2009-03-20, 15:50:47
Natürlich. Ich ging jetzt genau von den von dir erwähnten zwei Jahren aus. Eine schneller Entwicklung bei den GPUs konntest du bisher jedenfalls nicht darlegen.

Ich dachte es wäre an meinem Beispiel mehr als ersichtlich. Im ersten Fall sind es ca. 1,5 Jahre, im zweiten ca. 2,5 Jahre.


Ich kann auch mehrere/schnellere CPUs einsetzen wenn ich das will.

Hast du dir schon mal die Preise der Bretter angeschaut die zwei CPUs tragen können?
Bei der GPU kann ich mit der Auflösung runter wenn nicht genug Performance für PhysX übrig ist. Was mache ich bei Brettern mit nur einer CPU? Klar, ich könnte mit den Details runter, diese Möglichkeiten sind aber oftmals stark begrenzt.


Du weichst aus. GPUs werden weit mehr gefordert wie CPUs darum ging es.

Sorry, aber das ist Quatsch. Spiele sind so unterschiedlich, dass sich das pauschal gar nicht sagen lässt. Es ist ein hin und her.


Da nehme ich doch lieber die sich langweilenden CPU-Cores und erspare mit eine zweite GPU.
Welche willst du denn nehmen wenn dein Dualcore schon zu 100% mit FPS beschäftigt ist? Außerdem wo steht es, dass die Leistung der heutigen CPUs für PhysX überhaupt reicht?

Und eins hatte ich vorhin noch vergessen. Den Preis sollte man nicht unterschätzen. An deinem Bespiel:
20.03.2007:
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

20.03.2009:
Schnellste GPU: GTX285
Schnellste CPU: Core i7 3.2Ghz (Nehalem)


Der i7 3,2Ghz kostet um die 900€. Eine GTX285 liegt bei ca. 320€, eine GTX295 (wo man eine GPU ausschließlich für PhysX nutzen könnte) kostet immer noch halb so viel wie die CPU. Von der teuren Plattform beim i7 reden wir erst gar nicht.

=Floi=
2009-03-20, 16:35:52
eine core i7 platform ist für das gebotene NICHT teuer!

nebenbei sollte man auch die qualitativen vorteile von AF und AA nicht unerwähnt lassen und nicht nur die performance erwähnen.

LovesuckZ
2009-03-20, 16:47:39
Seit wann lastet die Konkurrenz mit ihrem Physik-Angebot jeden freien Kern komplett aus? Wundert mich aber nicht, dass nVidia Kritik für etwas kassiert, was die Konkurrenz nichtmal besser macht. :rolleyes:

reunion
2009-03-20, 17:05:04
Ich dachte es wäre an meinem Beispiel mehr als ersichtlich. Im ersten Fall sind es ca. 1,5 Jahre, im zweiten ca. 2,5 Jahre.


Ja, du hast dir eben die Zuckerstücke raus gesucht.


Hast du dir schon mal die Preise der Bretter angeschaut die zwei CPUs tragen können?
Bei der GPU kann ich mit der Auflösung runter wenn nicht genug Performance für PhysX übrig ist. Was mache ich bei Brettern mit nur einer CPU? Klar, ich könnte mit den Details runter, diese Möglichkeiten sind aber oftmals stark begrenzt.

Das ist ohnehin unsinnig weil sich dafür niemand eine zweite Karte kaufen wird.


Sorry, aber das ist Quatsch. Spiele sind so unterschiedlich, dass sich das pauschal gar nicht sagen lässt. Es ist ein hin und her.

Behauptungen ohne Belege. Wie schon gesagt, ich kann mit meinen Core2 bis dato jedes aktuelle Spiel problemlos zocken. Da gibt es noch mächtig Reserven.


Welche willst du denn nehmen wenn dein Dualcore schon zu 100% mit FPS beschäftigt ist?

So ein Spiel gibt es bis dato nicht/kaum. Aber sonst: Einen Quadcore?


Außerdem wo steht es, dass die Leistung der heutigen CPUs für PhysX überhaupt reicht?

Nochmal: 99.999999% aller aktuellen Spiele verwenden ausschließlich die CPU für die Physikberechnungen und trotzdem langweilt sich eine aktuelle CPU noch fast immer herum.


Und eins hatte ich vorhin noch vergessen. Den Preis sollte man nicht unterschätzen. An deinem Bespiel:

Der i7 3,2Ghz kostet um die 900€. Eine GTX285 liegt bei ca. 320€, eine GTX295 (wo man eine GPU ausschließlich für PhysX nutzen könnte) kostet immer noch halb so viel wie die CPU. Von der teuren Plattform beim i7 reden wir erst gar nicht.

Tja, nur wer kauft solche High-End-Boliden? Eine zu vernachlässigende Anzahl an Usern. Der durchschnittliche Mainstream-PC hat zumindest einen Dual-Core und entweder gleich eine IPG oder irgend eine lahmarschige Karte. Da klafft eine enorme Lücke zu einer GTX285.

Daredevil
2009-03-20, 17:17:21
Ich werf einfach mal GTA4 in die Runde.
Hammer Physik bei mäßig bis *guter Performance
Dort wird allerdings auch nicht so unnötig massive Physik gezeigt, nur weil eine GPU das besser kann heißt es ja noch lange nicht das es nötig ist.
Wenn die Grafik limitiert und gleichzeitig noch Physik berechnen muss ist das eher kontraproduktiv.

*Mit nem Quadcore ;)

Nightspider
2009-03-20, 17:45:56
20.03.2007:
Schnellste GPU: 8800GTX
Schnellste CPU: Core 2 Quad 3ghz (Kentsfield)

20.03.2009:
Schnellste GPU: GTX285
Schnellste CPU: Core i7 3.2Ghz (Nehalem)

Ich wage zu behaupten das es bei den CPUs hier eine schnellere Entwicklung gab in Hinblick auf die mögliche Performance bei Physikberechnungen.



Schnellste Grafikkarte ist atm aber die GTX295 und mit der solltest du wenn dann schon vergleichen. (Übrigens steht GPU immernoch für den Chip und nicht die Grafikkarte!)

So wie ich das sehe ist eine GTX295 3 mal so schnell wie eine 8800 GTX. Also ein deutlich größerer Sprung als bei den CPUs und das war schon immer so und wird auch immer so bleiben.

dargo
2009-03-20, 17:47:16
Behauptungen ohne Belege.

Lol, ich beschäftige mich mit CPUs in Games schon seit ca. 2 Jahren. ;)

Zwei entsprechende Threads gibts dafür schon. Sorry, dass ich nicht alles auf die Goldwaage lege und im 3DC poste. Entweder du glaubst es mir oder halt nicht. Aber wenn du mit Belegen kommst dann wirst du mir sicherlich auch belegen können, dass dein DC für mindestens 40 oder gar 50fps (erst hier nenne ich es flüssig, wobei je nach Engine ich auch 60fps begrüße) in jeder Situation und Game reicht. Ich bin gespannt.


So ein Spiel gibt es bis dato nicht/kaum.

Wie bitte? Wüll dich mal hier ein bisserl durch:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5658521&postcount=414
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739


Nochmal: 99.999999% aller aktuellen Spiele verwenden ausschließlich die CPU für die Physikberechnungen und trotzdem langweilt sich eine aktuelle CPU noch fast immer herum.

Physik <> Physik

Das ist reine Designentscheidung da die Power einfach fehlt. Hätten wir entsprechende Hardware hätten wir auch viel komplexere Physik in Games. Über das was heutzutage geboten wird werden wir in ein paar Jahren nur noch drüber lachen. Ich erinnere gerne an das Techvideo der CE2 mit der Atombombe wo alles durch die Gegend gewirbelt wird. Welche CPU soll das bitte stemmen?


Tja, nur wer kauft solche High-End-Boliden? Eine zu vernachlässigende Anzahl an Usern.
Und wer kauft Quadcores, geschweige denn einen i7? Die Masse sicherlich auch nicht.

Übrigens steht GPU immernoch für den Chip und nicht die Grafikkarte

Vollkommen richtig. Daran hatte ich noch nicht mal gedacht. Wenn ich schon die beiden vergleiche dann muss ich auf der CPU-Seite das Mainboard, den Arbeitsspeicher und die CPU als Ganzes nehmen. Dann sieht das P/L-Verhältnis für die CPU noch schlechter aus.

Nightspider
2009-03-20, 17:53:59
Man sollte vllt noch erwähnen das es angebliche HighEnd Bolliden wie eine GTX260 schon für 149 Euro gibt und eine davon schon jede HighEnd CPU in Sachen Physik an die Wand smasht.

Botcruscher
2009-03-20, 17:58:19
jede HighEnd CPU in Sachen Physik an die Wand smasht.

Wenn man diese garnicht oder nur zu 50% nutzt ist es auch kein Wunder.

Gast
2009-03-20, 18:00:38
Man sollte vllt noch erwähnen das es angebliche HighEnd Bolliden wie eine GTX260 schon für 149 Euro gibt und eine davon schon jede HighEnd CPU in Sachen Physik an die Wand smasht.

Ist ja schön, aber nicht wirklich von Belang. Wieviele PC-Besitzer haben denn so einen "Boliden"? Ich würde behaupten, keiner, der sich seinen PC von der Stange kauft.

Noch dazu ist dieser Vergleich nicht ganz sinnig, du hast zwar ne tolle Physik, aber dazu muss auch die Grafik her... willst du diesen Boliden also nur für Physik verwenden? Dann fehlt dir aber noch das Bild...
Schon jetzt lese ich hier und da, das einige über Ruckelprobleme klagen, weil PhysX über die Grafikkarte mitberechnet wird.

Eine CPU ist nunmal weitaus vielseitiger zu gebrauchen. Ich würd gern mal wissen, wie oft ihr überhaupt "gebrauch" von eurer GPU macht. Wenn mein PC 15h täglich rennt, habe ich davon höchstens 2-3h am Tag irgendeine echte 3D-Anwendung am laufen. Super. Was ist mit dem Rest der Zeit? :)

dargo
2009-03-20, 18:03:43
Wenn man diese garnicht oder nur zu 50% nutzt ist es auch kein Wunder.
Wieviel fps liefert die jeweilige CPU bei 50% Last? Ich habe mich damit jetzt nicht beschäftigt, aber wenn ich das hier lese:

3-6 FPS hatte ich an der stelle mit den Fenstern, Drei! Dual Core @ 3.2 GHz

Öhm, wieviele Cores willst du verbauen damit ich nicht unter sagen wir mal 40fps komme? X-D


Noch dazu ist dieser Vergleich nicht ganz sinnig, du hast zwar ne tolle Physik, aber dazu muss auch die Grafik her... willst du diesen Boliden also nur für Physik verwenden? Dann fehlt dir aber noch das Bild...
Schon jetzt lese ich hier und da, das einige über Ruckelprobleme klagen, weil PhysX über die Grafikkarte mitberechnet wird.

Nicht nur lesen sondern selbst überzeugen. Ich kam in ME mit einer GTX 260 in keiner Situation unter 40fps (meistens 50-60fps). Und das obwohl PhysX nebenher berechnet werden musste und die Grafikkarte sich um 1680x1050 8xQMSAA/16xAF gekümmert hat.

Nightspider
2009-03-20, 18:07:35
Wenn man diese garnicht oder nur zu 50% nutzt ist es auch kein Wunder.

In welchem unspielbaren Bereich lagen die Frames bei Mirros Edge bei aktivem PhysX über CPU ?

Achja: 8-10 FPS bei 50% Core-Auslastung eines Core 2 Quad @ 4 Ghz.

Stimmt, dann hätten wir ja schon flüssige 16-20 FPS bei 100% Auslastung eines C2Q@4Ghz...

Ist dann aber doch schon ein bisschen langsamer als die 58-64 FPS bei einer GTX260-216 oder ? :rolleyes:

http://www.pcgameshardware.de/screenshots/original/2009/01/MirrorsEdge_PhysX_MitEffekten.PNG

http://www.pcgameshardware.de/screenshots/medium/2009/01/MirrorsEdge_PhysX_02.jpg

http://www.pcgameshardware.de/aid,673785/Mirrors-Edge-Physx-Effekte-im-Benchmark-Test/Action-Spiel/Test/?page=2

Ist ja schön, aber nicht wirklich von Belang. Wieviele PC-Besitzer haben denn so einen "Boliden"? Ich würde behaupten, keiner, der sich seinen PC von der Stange kauft.

Noch dazu ist dieser Vergleich nicht ganz sinnig, du hast zwar ne tolle Physik, aber dazu muss auch die Grafik her... willst du diesen Boliden also nur für Physik verwenden? Dann fehlt dir aber noch das Bild...
Schon jetzt lese ich hier und da, das einige über Ruckelprobleme klagen, weil PhysX über die Grafikkarte mitberechnet wird.

Eine CPU ist nunmal weitaus vielseitiger zu gebrauchen. Ich würd gern mal wissen, wie oft ihr überhaupt "gebrauch" von eurer GPU macht. Wenn mein PC 15h täglich rennt, habe ich davon höchstens 2-3h am Tag irgendeine echte 3D-Anwendung am laufen. Super. Was ist mit dem Rest der Zeit?

Wieviele Leute so eine Karte besitzen ??? Sehr viele und es werden immer mehr da der Preis schon im Mainstream Bereich ist und die Preise bald bei 100 Euro liegen, in wenigen Monaten gibts dann wieder die doppelte GPU Power für 200 Euro. Sag mir mal in wievielen Jahren wir dann endlich mal die doppelte CPU Power haben?

PCs von der Stange werden bald nurnoch solch Karten haben, zumindest Spiele-Rechner. Office Rechner stehen hier gar nicht zur Debatte. Und wer am Tag nur 2-3 Stunden wenn überhaupt den 3D-Modus von der Grafikkarte benötigt, braucht auch keine Physik in Spielen, defakte geht es hier nicht um diese Office-Zielgruppe. Und dennoch schafft jeder halbe Office PC mit einer 90 Euro Grafikkarte wie einer 8800 GT ~3 mal soviel FPS mit PhysX-On wie mit einem HighEnd QuadCore @ 4 Ghz.


Hier gehts übrigens mehr um die Effektivität von Physik über Grafikkarten im Gegensatz zur CPU. Nicht darum ob man wegen Office oder Workstation Programmen mehr Geld für die CPU hinblättern sollte als für die Grafikkarte.

Noch dazu ist dieser Vergleich nicht ganz sinnig, du hast zwar ne tolle Physik, aber dazu muss auch die Grafik her... willst du diesen Boliden also nur für Physik verwenden? Dann fehlt dir aber noch das Bild...

Laut PCGH schafft die Grafikkarte das Spiel flüssig mit 60 FPS + Physik ! Wo ist das Problem ? Die Grafikkarten sind schnell genug für beides. Und das schon für 150 Euro.

Schon jetzt lese ich hier und da, das einige über Ruckelprobleme klagen, weil PhysX über die Grafikkarte mitberechnet wird.


Link ? Das kommt mit Sicherheit auf die Grafikeinstellungen und die Grafikkarte an. Das Optimierungspotential ist noch groß.

Botcruscher
2009-03-20, 18:11:11
Wieviel fps liefert die jeweilige CPU bei 50% Last? Ich habe mich damit jetzt nicht beschäftigt, aber wenn ich das hier lese:

Öhm, wieviele Cores willst du verbauen damit ich nicht unter sagen wir mal 40fps komme? X-D

Wenn die Physikberechnung nur auf einem Core läuft und der andere BS/Spiel berechnet brauchts dafür nicht so viele. Nebenbei stellt sich die berechtigte Frage wie optimiert ein Grafikkartenwerbefeature den für die CPU ist. Soviel Leistung steckt in den Berechnungen nicht drin. Das geht ja sogar noch locker über den PCI Bus.


Ist dann aber doch schon ein bisschen langsamer als die 58-64 FPS bei einer GTX260-216 oder ? :rolleyes:

So what? Wenn die CPU so schnell wäre dann hätte es nie 3D Grafikkarten gegeben. Nebenbei würde bei starker Belastung auch die Grafikkarte ins unspielbare einbrechen. Soviel Physik werden wir auch demnächst nicht sehen.

reunion
2009-03-20, 18:11:45
Mirros Edge ist ja auch ein traumhafter Vergleich. Ein von nV gesponserter PhysX-Titel der ganz klar das Ziel hat PhysX irgendwie in ein gutes Licht zu rücken. Wie siehts denn mit anderen PhysX-Titeln aus?

dargo
2009-03-20, 18:13:53
Soviel Leistung steckt in den Berechnungen nicht drin.
Dafür hätte ich gerne eine Quelle.

Mirros Edge ist ja auch ein traumhafter Vergleich. Ein von nV gesponserter PhysX-Titel der ganz klar das Ziel hat PhysX irgendwie in ein gutes Licht zu rücken. Wie siehts denn mit anderen PhysX-Titeln aus?
Woher soll ich wissen ob bei anderen Titeln PhysX einwandfrei implementiert wurde? ME ist bestes Beispiel, dass es doch geht.

Daredevil
2009-03-20, 18:17:51
Einfach das Fenster nicht in Dreitrilliarden sondern einfach in wenig Splitter zerfallen lassen und gut is, wieso soll sich die Hardware nach der Software richten?
Wenn man eine unmöglich spielbare Physikstelle in ein Spiel baut ist die CPU schuld oder derjenige der die scheiße verzapft hat?
Nvidia hatte da seine Finger im Spiel und das finde ich auch gar nicht schlimm, das heißt aber nicht das CPUs für Physik unbrauchbar sind nur weil eine Stelle vor sich hin ruckelt.
Es ist nämlich durchaus eine Frage wer die Physik ins Spiel einbringt, Nvidia dir ihre Karten attraktiver machen wollen oder der Spielemacher selber der die Technik für jederman spielbar machen möchte da ihm Havok z.B. nicht zusagt, die Gta IV Physik ist schließlich auch nicht schlecht. ;)

Botcruscher
2009-03-20, 18:18:40
Dafür hätte ich gerne eine Quelle.


Kapazität PCI Bus und FPS Vergleich mit/ohne Hardwarephysik. Genaueres werden dir nur die Entwickler erzählen können.

dargo
2009-03-20, 18:21:39
Einfach das Fenster nicht in Dreitrilliarden sondern einfach in wenig Splitter zerfallen lassen und gut is, wieso soll sich die Hardware nach der Software richten?
Wenn man eine unmöglich spielbare Physikstelle in ein Spiel baut ist die CPU schuld oder derjenige der die scheiße verzapft hat?

Achso, also bremsen wir den Fortschritt mal wieder aus weil die CPUs dafür zu langsam sind. :ugly:

Kapazität PCI Bus und FPS Vergleich mit/ohne Hardwarephysik.
Sorry, aber ich kann dir hier nicht folgen.

Daredevil
2009-03-20, 18:25:31
Es gibt genau diese eine Szene mit Fenstern wo es unspielbar ist, sonst läuft es astrein, also sind Physikalisch korrekt zersplitternde Fenster der Vorzeige Durchbruch? ;D

Nightspider
2009-03-20, 18:25:52
Soviel Leistung steckt in den Berechnungen nicht drin. Das geht ja sogar noch locker über den PCI Bus.

LOOL !!!

Warum braucht dein Rechner solange für die Pi-Berechnungen bei Prime obwohl das Progg nur winzige MB (falls überhaupt 1MB) groß ist ? ;D

Was hat die Berechnungskomplexität mit dem Datenvolumen zu tun ? ;D

Edit:

Das NV möglicherweise PhysX per Mirrors Edge pusht streite ich gar nicht ab. Wie stark ist hier nur die Frage.

Schließlich will NV ja auch die Physik auf Konsolen bringen die keine NV Grafikkarte besitzen. Also muss die Engine Leistungsfähig sein und ich denke das die Entwickler das am besten einschätzen können.

Das PhysX extrem bei Mirrors Edge per GPU gepusht wird bzw. CPUs ausgebremst werden muss erstmal bewiesen werden.

Nightspider
2009-03-20, 18:30:16
delete plz

dargo
2009-03-20, 18:42:44
Es gibt genau diese eine Szene mit Fenstern wo es unspielbar ist, sonst läuft es astrein, also sind Physikalisch korrekt zersplitternde Fenster der Vorzeige Durchbruch? ;D
Oh man, ME ist ein Spiel und keine Techdemo. Was willst du in ME sonst großartig einbauen? Ich habe so langsam das Gefühl, dass die meisten sich nicht im klaren sind welche enorme Rechenleistung für "korrekte" Physik nötig ist. Das was wir heute sehen ist nur der Anfang.

LovesuckZ
2009-03-20, 18:44:54
Das PhysX extrem bei Mirrors Edge per GPU gepusht wird bzw. CPUs ausgebremst werden muss erstmal bewiesen werden.

Vorallen sollen die Nörgler hier erstmal eine Physik-Middleware zeigen, die jederzeit jeden freien Core zur Berechnung heranzieht.

Nightspider
2009-03-20, 18:51:30
Oh man, ME ist ein Spiel und keine Techdemo. Was willst du in ME sonst großartig einbauen? Ich habe so langsam das Gefühl, dass die meisten sich nicht im klaren sind welche enorme Rechenleistung für "korrekte" Physik nötig ist. Das was wir heute sehen ist nur der Anfang.
Das kann man nur unterschreiben.

Vorallen sollen die Nörgler hier erstmal eine Physik-Middleware zeigen, die jederzeit jeden freien Core zur Berechnung heranzieht.

Eben! Objektiver Zweifel in allen Ehren aber was viele hier abziehen geht gar nicht, manche unterstellen der Software regelrecht zu pfuschen.

Daredevil
2009-03-20, 18:57:29
Oh man, ME ist ein Spiel und keine Techdemo. Was willst du in ME sonst großartig einbauen? Ich habe so langsam das Gefühl, dass die meisten sich nicht im klaren sind welche enorme Rechenleistung für "korrekte" Physik nötig ist. Das was wir heute sehen ist nur der Anfang.
Da hast du natürlich recht.
Ich wollt auch garnichts anderes behaupten, ich habe auch nichts gegen Fortschritt, solang jeder mitmachen darf.
Naja wobei... ein bisschen Tech Demo ist das schon (http://www.youtube.com/watch?v=rx-zEJEVNLY&fmt=22). ^^

dargo
2009-03-20, 19:07:29
Ich wollt auch garnichts anderes behaupten, ich habe auch nichts gegen Fortschritt, solang jeder mitmachen darf.

Es darf auch jeder mitmachen der eine NV-Karte hat (ab G80 natürlich). Dass die Ati-User ausgeschlossen werden, daran ist auch AMD/ATI selbst schuld. Schließlich wollen sie PhysX afaik nicht unterstützen. Mir ist es im Prinzip völlig egal von welchem IHV was kommt. Hauptsache es kommt was, denn ich bin für jeden Fortschritt der die Spiele realer wirken lässt zu haben. :)

Botcruscher
2009-03-20, 19:16:43
Warum braucht dein Rechner solange für die Pi-Berechnungen bei Prime obwohl das Progg nur winzige MB (falls überhaupt 1MB) groß ist ? ;D
Was hat die Berechnungskomplexität mit dem Datenvolumen zu tun ? ;D


Also bitte... An Pi kann man unendlich Rechnen ohne auf weitere Daten angewiesen zu sein, für Physik brauchs schon ein paar Rohdaten mehr.

Nightspider
2009-03-20, 19:18:40
Also bitte... An Pi kann man unendlich Rechnen ohne auf weitere Daten angewiesen zu sein, für Physik brauchs schon ein paar Rohdaten mehr.

Na klar brauch man ein paar mehr. Dennoch kannst du daraus, das die PhysX-Karten auf PCI kamen nicht über deren Leistung schlussfolgern. Für Physik-Berechnungen reicht die Bandbreite völlig aus.

Um das hochkomplexe Verhalten tausender-Partikel und deren Interaktion zu berechnen brauch es im Verhältnis sehr wenig Daten bzw. Bandbreite.

Botcruscher
2009-03-20, 19:43:36
In welchem Bereich ist denn bitte "Hochkomplex". Da steckt soviel Subjektives drin. Das hat schon seine Gründe warum wir nur ein paar Fähnchen sehn und keine formbaren Gegenstände mit weiteren Abhängigkeiten. Das ist alles viel zu fallabhängig.

Von wirklichem Interesse wäre mal die Auslastung der Grafikkarte. Ich würde eine 8500GT von der Grundleistung um einiges stärker einschätzen als die orginal PCI-Karten. Trotzdem sind letztere schneller.

Nightspider
2009-03-20, 20:16:53
In welchem Bereich ist denn bitte "Hochkomplex". Da steckt soviel Subjektives drin. Das hat schon seine Gründe warum wir nur ein paar Fähnchen sehn und keine formbaren Gegenstände mit weiteren Abhängigkeiten. Das ist alles viel zu fallabhängig.

Von wirklichem Interesse wäre mal die Auslastung der Grafikkarte. Ich würde eine 8500GT von der Grundleistung um einiges stärker einschätzen als die orginal PCI-Karten. Trotzdem sind letztere schneller.

Hochkomplex im Gegensatz zu der Kiddie-Physik die es bisher in Spielen gab. Da dort soviel Faktoren mit reinspielen, ganz zu schweigen von den Wechselwirkungen untereinander.

Gast
2009-03-20, 20:17:29
Ich habe so langsam das Gefühl, dass die meisten sich nicht im klaren sind welche enorme Rechenleistung für "korrekte" Physik nötig ist. Das was wir heute sehen ist nur der Anfang.

Vielleicht sollten wir da ansetzen, ich sehe das ein wenig anders:
Für mich ist es absolut enttäuschend was "neue" Titel so an "Physik" bieten, wo doch schon mehrere jahre alte Gurken das gleiche bei wesentlich weniger Rechenleistung geleistet haben.

Beispielweise gibt es Spiele, da kannst du nichtmal Scheiben einschlagen oder Spuren durch Munition oder Explosionen hinterlassen...
soweit ich mich erinnern kann, war das in Half-Life1 (1998) aber alles schon mit drin, warum packen es einige Entwickler immer noch nicht zumindest das gleiche Niveau zu erreichen!?

Nightspider
2009-03-20, 20:19:41
Vielleicht sollten wir da ansetzen, ich sehe das ein wenig anders:
Für mich ist es absolut enttäuschend was "neue" Titel so an "Physik" bieten, wo doch schon mehrere jahre alte Gurken das gleiche bei wesentlich weniger Rechenleistung geleistet haben.

Beispielweise gibt es Spiele, da kannst du nichtmal Scheiben einschlagen oder Spuren durch Munition oder Explosionen hinterlassen...
soweit ich mich erinnern kann, war das in Half-Life1 (1998) aber alles schon mit drin, warum packen es einige Entwickler immer noch nicht zumindest das gleiche Niveau zu erreichen!?

Ja das is arm, hat allerdings nicht im geringsten etwas damit zu tun was machbar wäre und worum es hier geht.

Die "Faulheit" / Geldknappheit / Zeitmangel der Entwickler ist ein anderes Fass.

Gast
2009-03-20, 20:29:58
Nicht nur lesen sondern selbst überzeugen. Ich kam in ME mit einer GTX 260 in keiner Situation unter 40fps (meistens 50-60fps). Und das obwohl PhysX nebenher berechnet werden musste und die Grafikkarte sich um 1680x1050 8xQMSAA/16xAF gekümmert hat.

Ist nicht weiter verwunderlich, deine Grafikkarte ist schon weit über dem Niveau der Normalos, was Käufer von der Stange bekommen. Denke mal an Aldi PC & Co.
Meine Karte als "Spieler" liegt sogar noch darunter...

Außerdem habe ich schon von diversen Performanceproblemen in Foren gelesen, die auf PhysX zurückzuführen waren. Das ist auch kein Wunder, da die meisten Spieler nicht einmal wissen, was Einstellungen wie diese bedeuten.
Frag mal einen typischen Menschen auf der Straße ob er "PhysX" kennt.

Wieviele Leute so eine Karte besitzen ??? Sehr viele und es werden immer mehr da der Preis schon im Mainstream Bereich ist und die Preise bald bei 100 Euro liegen, in wenigen Monaten gibts dann wieder die doppelte GPU Power für 200 Euro.

Sehr viele? Na schau dir mal z.B. die Steam-Statistik ein. So viele sind es dann doch nicht...

Außerdem ist der Preis erstmal nicht aussagekräftig. Du willst doch nicht tatsächlich auf einer Low-Performance-GPU auch noch PhysX laufen lassen?? Dir ist Physik wichtiger als Ruckelei?

Sag mir mal in wievielen Jahren wir dann endlich mal die doppelte CPU Power haben?

Jetzt!
Vor nicht allzu langer Zeit habe ich noch eine Single Core CPU gehabt, weil es nix anderes gab.
Mittlerweile bekomme ich 4-Core Prozessoren die leistungsmäßig ca 8-10 mal so viel Power zur Verfügung stellen wie noch 2005/2006.
Und diese Power wird allzu oft nicht einmal vollständig genutzt, was wirklich schade ist.

xiao didi *
2009-03-20, 20:43:20
Mittlerweile bekomme ich 4-Core Prozessoren die leistungsmäßig ca 8-10 mal so viel Power zur Verfügung stellen wie noch 2005/2006.
Öhm, entschuldige, aber wenn du in ähnlichen Preisbereichen bleibst, hast du heute höchstens die doppelte Leistung. Und das auch nur in ausgewählten Szenarios...

dargo
2009-03-20, 21:21:16
Vor nicht allzu langer Zeit habe ich noch eine Single Core CPU gehabt, weil es nix anderes gab.
Mittlerweile bekomme ich 4-Core Prozessoren die leistungsmäßig ca 8-10 mal so viel Power zur Verfügung stellen wie noch 2005/2006.

Und um welchen Faktor sind die Grafikkarten in diesem Zeitraum schneller geworden? :rolleyes:

Gast
2009-03-20, 21:23:39
Irgendjemand hat mal die CPU-Auslastung gemessen und die war nicht auf 100%, sondern weit darunter. Und PhysX kann eigentlich mit mehreren CPUs umgehen.

auf ~80% komm ich mit einem quadcore schon.

Gast
2009-03-20, 21:25:32
Ich finde da hat Nvidia das ein wenig provoziert um Werbung für GPU-Physx zu machen, dezente Physik ist super und ich hab auch nichts gegen PhysX, aber es sollte dann doch bitte auf ATI Karten die nicht beschleunigen schlechter laufen statt gar nicht.


es ist ja nicht so, dass ohne PhysX-beschleunigung garkeine effekte mehr zum einsatz kommen, nur eben deutlich weniger.

Nightspider
2009-03-20, 21:37:21
Sehr viele? Na schau dir mal z.B. die Steam-Statistik ein. So viele sind es dann doch nicht...

Außerdem ist der Preis erstmal nicht aussagekräftig. Du willst doch nicht tatsächlich auf einer Low-Performance-GPU auch noch PhysX laufen lassen?? Dir ist Physik wichtiger als Ruckelei?


Ich kenne genug Schüler/ Auszubildende Gamer die solch eine Karte haben. 150 Euro ist wenig für einen Zocker-PC ! Eine 8800gt ist eine low performance Karte ??? Die ist ca. 33%-50% langsamer als eine GTX260 ! Damit hätte man in Mirrors Edge immernoch rund 30-40 FPS und mit QuadCore immernoch nur 8-10 FPS !!!


Jetzt!
Vor nicht allzu langer Zeit habe ich noch eine Single Core CPU gehabt, weil es nix anderes gab.
Mittlerweile bekomme ich 4-Core Prozessoren die leistungsmäßig ca 8-10 mal so viel Power zur Verfügung stellen wie noch 2005/2006.
Und diese Power wird allzu oft nicht einmal vollständig genutzt, was wirklich schade ist.

Ja und vor """"nicht all zu langer Zeit"""" hatte ich auch noch eine GeForce 4 im Rechner. Mittlerweile gibts Grafikkarten die 50 mal schneller sind!

Bullshit !

Bitte Hirn anschalten ! Ich habe geschrieben das sich die GPU Performance in den nächsten Monaten wieder verdoppeln wird. Und habe gefragt welche Zeit die CPUs wieder brauchen um sich von der jetzigen Performance zu verdoppeln.

Das schließt das "jetzt" schonmal von der Logik aus oder lieber Gast ?

_DrillSarge]I[
2009-03-20, 21:41:41
solange es nicht einheitliche gpu-beschleunigte physik FÜR ALLE gibt, bleibt es eh nur bei billiger effekt-zusatzphysik durch die gpu. -> wayne.

Nakai
2009-03-20, 21:43:35
Solange Physik nur von einer Seite hardwaremäßig unterstützt wird, bringt es nichts. Ich hoffe mit DX11 wird es endlich einen Anstoß in die richtige Richtung geben.

Eben! Objektiver Zweifel in allen Ehren aber was viele hier abziehen geht gar nicht, manche unterstellen der Software regelrecht zu pfuschen.

Wenn dann die Entwickler.^^:D

Leider ist die Optimierung auf Multicore einfach recht schwer und dann gibts noch ein Haufen unterschiedlicher Systemkonfigurationen, die ein Entwickler miteinbeziehen muss.

Das PhysX extrem bei Mirrors Edge per GPU gepusht wird bzw. CPUs ausgebremst werden muss erstmal bewiesen werden.

Soweit ich weiß, können die extra Effektphysik nur mit geeigneter Hardware aktiviert werden. Es stellt sich eher die Frage, ob ein moderner Prozessor auch in der Lage wäre, diese Effektphysik über Software schnell genug zu berechnen.


mfg Nakai

Gast
2009-03-20, 21:45:01
Öhm, entschuldige, aber wenn du in ähnlichen Preisbereichen bleibst, hast du heute höchstens, allerhöchstens die doppelte Leistung. Und das auch nur in ausgewählten Szenarios...

Wie bitte? Das ist doch gar nicht wahr! Hast du schon vergessen wieviel du damals für Prozessoren zahlen durftest?
Vergleich doch mal einen damals üblichen Pentium4/AthlonXP mit einem heutigen Core2, der schon ähnliche Taktraten bei mehreren Kernen aufweist.

Hier hab ich mal einen Geizhals Link aus Ende 2005: http://web.archive.org/web/20051230030127/http://www.geizhals.at/eu/
Leider ist der Service gerade überlastet, sollte aber nachher wieder gehen.

Hab aber mal ne News herausgefischt:
Der Preis für den mit 2 GHz getakteten Athlon 64 X2 3800+ liegt mit 354 US-Dollar leicht über den 316 US-Dollar Listenpreis des direkten Konkurrenten Intel Pentium D 830 (3 GHz).
Etwa 300 Dollar, das ist schon ne Menge, dafür bekommste heute einen anständigen Quadcore.

Und um welchen Faktor sind die Grafikkarten in diesem Zeitraum schneller geworden? :rolleyes:

woher soll ich das wissen? Zwischen Theorie und Praxis liegen noch immer Welten.
Wieviel schneller sind sie denn in der Praxis geworden? Ich redete redete von der Praxis. Wie willst du diese Praxis messen? Dafür müsstest du die Plattform identisch halten, sonst kannst du schlecht vergleichen.

Vermutlich hab ich mich sogar noch verschätzt, da ein 3GHz Core2 auch mehr als doppelt so schnell sein kann wie ein Pentium4...
Beim Nehalem kommen sogar nochmal ne Schippe dazu, das SMT nicht zu vergessen.

xiao didi *
2009-03-21, 00:05:15
Etwa 300 Dollar, das ist schon ne Menge, dafür bekommste heute einen anständigen Quadcore...
...der nicht annähernd an die "8-10fache Performance" rankommt, die du oben erwähntest.

Gast
2009-03-21, 00:30:07
...der nicht annähernd an die "8-10fache Performance" rankommt, die du oben erwähntest.

Ähm, doch!?
Das entspricht genau dem Preisrahmen eines ~Q9550 (2.83 GHz Penryn) oder Core i7 920 (Nehalem, 2.67GHz, 4 Kerne+HT).
AMD ist nochmal bedeutend billiger, da gibts jetzt schon 3 GHz Quads für ca 180€, die schon um ein vielfaches an Leistung haben als ein "2.0 GHz Athlon (64) Single Core" (oder 3GHz PentiumIV).
Der Listenpreis ist praktisch gleich (284-316$). Die Leistung hat sich also fast verzehnfacht in dieser Zeit (und Six-Cores sind unterwegs). Das Problem ist die Auslastung dieser Cores.

Soweit ich das sehe, gabs Ende 2005 schon X1800 Karten, das Problem dabei ist, das ich die Grafikleistung nicht einschätzen kann, da GFLOPs-Angaben sinnlos sind in der Praxis. Sie geben nur die Theorie wieder.
Hier kannst du das schön nachverfolgen: http://www.hardware-infos.com/grafikkarten_ati.php
Der "Theorie" nach hat sich die Grafikleistung auch verzahnfacht, bei Dual-Chip Grafikkarten zum Teil verzwanzigfacht. Wieviel bleibt aber in der Praxis davon über!?

Gast
2009-03-21, 01:55:26
Ist ja schön wenn ATI Havok hat. Nur die Blockbuster hat PhysX in der Hand. Darauf kommts an. Geh auf die Strasse und frag nach Physx. Der Name ist bekannter als Havok.

Denkt mal nach.

Spasstiger
2009-03-21, 02:22:07
Hier eine Liste mit PhysX-Titeln, die auch Angaben zur Hardwarebeschleunigung inkl. Unterscheidung von PPU und GPU und Angaben zu den jeweils unterstützten Plattformen enthält:
http://www.physx.cwx.ru/

Interessanterweise gibt es mehr Xbox-360-Spiele, die PhysX verwenden, als entsprechende PS3-Spiele.
Und von 125 veröffentlichten PhysX-Spielen, bieten gerademal 6 Spiele GPU-PhysX-Beschleunigung.
Etwas positiver aus NV-Sicht sieht es bei den in Entwicklung befindlichen PhysX-Spielen aus: Von 34 in Entwicklung befindlichen PhysX-Spielen sollen 13 Spiele GPU-PhysX unterstützen (laut Homepage).

Hier mal alle veröffentlichten Spiele mit GPU-PhysX-Unterstützung laut dieser Liste:
- Crazy Machines II
- Cryostasis
- Mirror's Edge
- Sacred 2 mit Patch
- Tom Clancy's Ghost Recon Advanced Warfighter 2 (GRAW 2)
- Unreal Tournament 3
- Warmonger: Operation Downtown Destruction

Und hier noch alle in Entwicklung befindlichen Spiele, die GPU-PhysX unterstützen sollen:
- Aliens: Colonial Marines
- APB
- Backbreaker
- Bionic Commando
- Borderlands
- Divinity 2: Ego Draconis
- Metal Knight Zero
- Nurien
- Shadow Harvest
- Shattered Horizon
- U-WARS

Bei einigen anderen Spielen ist noch nicht bekannt, ob sie GPU-PhysX unterstützen sollen.

Alles in allem ist GPU-PhysX also kein weltbewegendes Thema. Da gibt es mindestens genauso viele Titel, die D3D10.1 unterstützen bzw. unterstützen sollen, was ja momentan ein AMD/ATI-Alleinstellungsmerkmal ist.

Gast
2009-03-21, 03:05:11
Also ich glaube eher dass sich CPU und GPU in eine gemeinsame Richtung entwickeln. Das sehen auch Intel und AMD so.Ich glaube eherm, daß die das so gerne hätten. Es entwickelt sich ja nichts von alleine. Ich weiß aber nicht was ich davon halten soll.

Ich denke sie wollen einfach nur das CUDA-ähnliche Zeug absahnen oder aus den GPUs rausnehmen bzw. im Falle von NV rausbrechen. Jetzt will NV aber auch einen eigenen x86 bauen. Wenn ihr mich fragt, entbrannte in der letzten Zeit hinter den Kulissen ein knallharter echter Weltkrieg diesbezüglich.

Nur "CUDA" aus der GPU rausnehmen geht auch nicht. Für die Grafik brauch ich noch TMUs, ROPs und das ganze andere Zeug. Das kann man in dem Fall nicht sinnvoll hin und her schaufeln. Das wißt ihr aber. So eine Vorstellung ist lächerlich. Was soll da also in Zukunft passieren?
Man könnte aus dem Chipsatz in die CPU noch eine mittelmäßige Mobile Variante einer GPU brennen. Hier gibt es aber auch Fallen. Ich kann damit vielleicht sogar im Verbrauch besser liegen, verlagere die Wärmeentwicklung aber vom ganzen Board an eine Stelle. Ob jetzt Multichip oder alles in einem Die ist egal. Sowas genauso in den griff zu bekommen stell ich mir für die Konstruktoren wesentlich schwieriger vor und wege das jetzt gegen die Vorteile ab. Geht so.

Und überhaupt. Mit wieviel Watt würde man bei einer aktuellen CPU, nur in 32nm oder ~22nm, und einem 4870-Kern im gleichen Die liegen? Und Multichip? Muß aber immernoch dann von EINEM Kühler gekühlt werden. Nicht lustig. Thermal macht schon der Speicherkontroller den i7 zu schaffen. Auch wenn AMD das um längen besser macht, "Platz" für einen 4870 sehe ich da auch in näheren Zukunft nicht.

Der Krieg tobt jedenfalls bereits auf der ganzen Linie. AMD wurde von Intel zum Kauf von aTI entweder durch eigene Entwicklungen gezwungen oder man hat ATI Intel vor der Nase weggeschnappt. Intel ist also der Hauptverursacher dieser Entwicklung. Hoffentlich versucht uns der Chipgigant nicht wieder mit sowas zu beglücken wie er das schonmal mit Itanium vor hatte.

Gast
2009-03-21, 03:16:53
Ist ja schön wenn ATI Havok hat. Nur die Blockbuster hat PhysX in der Hand. Darauf kommts an. Geh auf die Strasse und frag nach Physx. Der Name ist bekannter als Havok.

Denkt mal nach.Ich tue es. Und ich stelle fest, daß dieser pseudowahre, virale Mist in der letzten Zeit in den Foren dermassen zugenommen hat, daß ich bereits nach den ersten 2 Sätzen immer weiterscrolle. Ich hoffe "die Straße" macht mir das bald nach.

Klar. Die Leute kennen gehypte Sachen vom Namen her. Das bedeutet aber noch lange nicht daß sie es gleichzeitg großartig schätzen oder in Entwicklerkreisen danach verlangen. Das meiste davon in den Foren ist viraler Müll. NV samt Jüngern nervt die Leute damit nur.

Wenn du schon so oft auf der Straße rumläufst, dann frag dich mal durch was von dem was der Marketing als Blockbuster platzieren wollte 1 Monat nach der veroffentlichung über blieb und was bei den Leuten wirklich als Blockbuster gilt. 90% davon was im Vorfeld als Blockbuster platziet wird entpuppt sich nachhinein als Blockbastard.

Gast
2009-03-21, 03:21:59
es ist ja nicht so, dass ohne PhysX-beschleunigung garkeine effekte mehr zum einsatz kommen, nur eben deutlich weniger.Von "deutlich" kann keine Rede sein. PhysX on GPU war bis jetzt fast ausnahmslos immer nur paar Gramm mehr Sahne auf dem Kuchen.
Sahne macht dagegen bei einem ganzen Kuchen wieviel aus?

Coda
2009-03-21, 12:23:47
Nur "CUDA" aus der GPU rausnehmen geht auch nicht. Für die Grafik brauch ich noch TMUs, ROPs und das ganze andere Zeug. Das kann man in dem Fall nicht sinnvoll hin und her schaufeln.
Ich weiß nicht auf was du anspielst, aber ROPs sind wohl das nächste was verschwinden und durch die ALUs übernommen wird.

Gast
2009-03-22, 15:20:37
Und vor allem wäre der Wii-Grafikchip für sowas absolut ungeeignet. Das Ding ist ja nichtmal programmierbar X-D
Ach so... komisch:
NVIDIA PhysX SDK Hits Nintendo Wii

...
NVIDIA announced this week that it has been approved by Nintendo as an official third party tools provider for developers building Wii games. NVIDIA's PhysX technology SDK is now available to all Wii developers.

"Nintendo has reshaped the home entertainment and video game market with the success of the Wii console. Adding a PhysX SDK for Wii is key to our cross-platform strategy and integral to the business model for our licensed game developers and publishers," said Tony Tamasi, senior vice president of content and technology at NVIDIA. "With NVIDIA PhysX technology, developers can easily author more realistic game environments for the evolving demands of a broad class of Wii gamers."

NVIDIA says that the SDK for the Wii contains full-featured API and a robust physics engine that provides game developers, designers and other development personnel with control over the character and object physical interactions allowing them to write scalable physics in real time into their games.

The difference in the graphics quality and realism of PhysX enabled games was very apparent on the recent EA title Mirror's Edge. The PhysX enabled version of the game was much more realistic with glass and fabric that responded to explosions and wind realistically.
http://www.dailytech.com/article.aspx?newsid=14638 :up:

Botcruscher
2009-03-22, 15:26:38
Ach so... komisch:

http://www.dailytech.com/article.aspx?newsid=14638 :up:

Das ist nicht komisch sondern nur der Softwarepart von Physx.

Simon
2009-03-22, 15:27:57
Ach so... komisch:

http://www.dailytech.com/article.aspx?newsid=14638 :up:
Ach so. Wo steht da jetzt, dass die Physik-berechnungen auf dem Grafikchip der Wii gemacht werden? Ist ja nicht so, als hätte die Wii keine CPU für sowas ;D

PhysX != Physicberechnungen auf der GPU

deekey777
2009-03-22, 15:29:08
Nvidia: PhysX Works on Apple's iPhone (http://www.tomshardware.com/news/nvidia-physx-apple-iphone,7313.html)
Ab sofort kann jeder sein iPhone über USB an einen PC anschließen und PhysX-Beschleunigung genießen.

Gast
2009-03-22, 15:44:28
lol

BlackBirdSR
2009-03-22, 15:46:23
Da wird wirklich mal ein aufklärendes Wort zu PhysX und GPU/CPU-Bechleunigung, sowie Platformkompatibilität nötig... ist ja nicht auszuhalten, wie die meisten Leuten verwirrt werden...

Ailuros
2009-03-23, 13:46:11
Ich weiß nicht auf was du anspielst, aber ROPs sind wohl das nächste was verschwinden und durch die ALUs übernommen wird.

Gibt es irgendwelche Andeutungen dass der Speichercontroller in absehbarer Zeit in den ALUs aufgesaugt wird?

Das ist nicht komisch sondern nur der Softwarepart von Physx.

Stimmt schon. Nur braucht Nintendo die Lizenz nicht unbedingt fuer Wii.

Gast
2009-03-23, 15:20:23
Gibt es irgendwelche Andeutungen dass der Speichercontroller in absehbarer Zeit in den ALUs aufgesaugt wird?Ich schätze Coda sieht das so wie auf dem CPU-Markt. Was es bringt sahen wie beim Athlon64. Schwer zu sagen wann es soweit ist aber kommen wird es wohl schon. Es bringt einfach zu viel ;)

Backet
2009-03-23, 15:46:18
I[;7181139']solange es nicht einheitliche gpu-beschleunigte physik FÜR ALLE gibt, bleibt es eh nur bei billiger effekt-zusatzphysik durch die gpu. -> wayne.

Der Sarge hats verstanden!

Was interessiert mich ejtzt eine Technik die einfach noch nicht zu 100% ausgereift ist. Und PhysX ist für mich noch unausgereift.

Physik ist ne tolle Sache in Games. Aber wirklich interessant wird es dann wohl in 2 Jahren werden. Ansonsten erinnern mich die PhysX integrierten Treiber ein bischen an die Creative Treiber! Einfach noch zuviele Probleme!

Coda
2009-03-23, 15:47:51
Gibt es irgendwelche Andeutungen dass der Speichercontroller in absehbarer Zeit in den ALUs aufgesaugt wird?
Ist das jetzt ernst gemeint? Der Speichercontroller wird wohl immer fixed function bleiben ;)

_DrillSarge]I[
2009-03-23, 15:48:39
Der Sarge hats verstanden!

Was interessiert mich ejtzt eine Technik die einfach noch nicht zu 100% ausgereift ist. Und PhysX ist für mich noch unausgereift.

Physik ist ne tolle Sache in Games. Aber wirklich interessant wird es dann wohl in 2 Jahren werden. Ansonsten erinnern mich die PhysX integrierten Treiber ein bischen an die Creative Treiber! Einfach noch zuviele Probleme!
PhysX != Gpu-PhysX. "normales" cpu-physx wird schon in haufenweise spielen eingesetzt (bspw. alle ue3-titel). Physx an sich ist schon ausgereift (gabs ja schon lange vorher, bevor es physx hieß).

Stebs
2009-03-23, 16:00:08
Da wird wirklich mal ein aufklärendes Wort zu PhysX und GPU/CPU-Bechleunigung, sowie Platformkompatibilität nötig... ist ja nicht auszuhalten, wie die meisten Leuten verwirrt werden...DEFINITIV! =)
Ich würde sagen da muss mal ein gründlicher 3DCenter Artikel her. Aufklärung tut dringend Not, zumindest im deutschsprachigen Internet herrscht größtenteils Verwirrung.

Hier gibt es schon den Versuch eines solchen Artikels:
http://www.computerbase.de/news/hardware/grafikkarten/2009/februar/was_physx_dx11_opencl/

Muss sagen, ich fand ihn gut, aber im Forum dazu sind die Meinungen durchaus kontrovers. Vorsicht auch vor Fanboys, Beißreflexe sind bei dem Thema fast vorprogrammiert, einzige Hilfe ist wohl nur sehr sachlich bleiben und Spekulationen auch als soche zu kennzeichnen.

Dachte selbst ich hätte das ganze so im groben kapiert, bin angesichts solcher Posts dann doch wieder unsicher geworden:
http://forum.golem.de/read.php?31421,1692551,1692566#msg-1692566

Steh ich auf dem Schlauch, oder gar wirklich der Golem-Redakteur?

Egal wie, ich plädiere für einen Physik-Engine Artikel auf 3DCenter, der PhysX,Havoc, CUDA, Stream, OpenCL und Compute Shaders (+ Direct Physics) abhandelt...
Würde doch zu dieser News passen:
https://www.cmpevents.com/GD09/a.asp?option=C&V=11&SessID=9333

Ailuros
2009-03-24, 09:18:06
Ist das jetzt ernst gemeint? Der Speichercontroller wird wohl immer fixed function bleiben ;)

Durchaus ernst gemeint, da ich ausdruecklich absehbare Zeit sagte.

captainsangria
2009-03-24, 09:20:59
Da wird wirklich mal ein aufklärendes Wort zu PhysX und GPU/CPU-Bechleunigung, sowie Platformkompatibilität nötig... ist ja nicht auszuhalten, wie die meisten Leuten verwirrt werden...

Wäre toll, wenn jemand (du z.B. :upara:) die Zeit für ein entsprechendes Techlet hättest.

LovesuckZ
2009-03-24, 09:52:25
Ich finde es erstaunlich, dass vorallen AMD User gegen PhysX und für einen "offenen" Standard plädieren - dabei müsste AMD sich doch nur nVidia anschließen und PhysX akzeptieren. Dann hätten wir einen Standard für GPU basierte Effektberechnung.

Solange Physik nur von einer Seite hardwaremäßig unterstützt wird, bringt es nichts. Ich hoffe mit DX11 wird es endlich einen Anstoß in die richtige Richtung geben.


Welchen?

Nakai
2009-03-24, 10:13:22
Welchen?

Für mich wäre das beste, wenn beide Standarts für jede Grafikhardware mit DX11 geöffnet werden. Natürlich wäre das für den Kunden das beste, aber ob es di Interessen der Firmen vertritt ist eine andere Frage. Aber inwieweit DX11 hier Probleme lösen kann, kann ich nicht sagen. Man hat ja gesehen, dass PhysX für verschiedene Plattformen schon realisierbar sein soll.


mfg Nakai


€: Ich finde es erstaunlich, dass vorallen AMD User gegen PhysX und für einen "offenen" Standard plädieren - dabei müsste AMD sich doch nur nVidia anschließen und PhysX akzeptieren. Dann hätten wir einen Standard für GPU basierte Effektberechnung.


Das könnte auch NV mit HavokFX machen.

BlackBirdSR
2009-03-24, 10:19:15
Ich finde es erstaunlich, dass vorallen AMD User gegen PhysX und für einen "offenen" Standard plädieren - dabei müsste AMD sich doch nur nVidia anschließen und PhysX akzeptieren. Dann hätten wir einen Standard für GPU basierte Effektberechnung.


Wenn du mir jetzt noch schilden kannst, wie AMD dies ohne Performanceverluste und Kompromisse gegenüber Nvidia machen sollte, dann bist du mein Held.

Jede Firma wird sich weigern, ein Herstellerprodukt zu unterstützen, solange man dabei schlechter abschneidet und die Chance besteht, dass es scheitert.

dargo
2009-03-24, 10:20:01
Das könnte auch NV mit HavokFX machen.
Entschuldige die vielleicht blöde Frage (bin da nicht so informiert), aber gibt es HavokFX die durch GPUs beschleunigt wird?

Gast
2009-03-24, 10:22:16
Entschuldige die vielleicht blöde Frage (bin da nicht so informiert), aber gibt es HavokFX die durch GPUs beschleunigt wird?Als Intel es übernommen hat gab es das noch nicht offentlich. Und nun... ;)

Nakai
2009-03-24, 10:23:37
Entschuldige die vielleicht blöde Frage (bin da nicht so informiert), aber gibt es HavokFX die durch GPUs beschleunigt wird?

Es gab Ansätze, welche leider nie ausgeführt wurden. Prinzipiell soll es möglich sein, es wurde schon auf dementsprechender Hardware demonstriert.
Im April kommt womöglich eine HavokFX-Hardware-Unterstützung für AMD-Karten.
Würden sich beide IHVs mal an einen Tisch setzen und HavokFX und PhysX für alle Systeme zugänglich machen, dann wäre die Welt schön...wird aber nicht passieren.


mfg Nakai

dargo
2009-03-24, 10:25:13
Im April kommt womöglich eine HavokFX-Hardware-Unterstützung für AMD-Karten.

Aja, danke. Dann warte ich erstmal den möglichen Zugewinn ab. :)

LovesuckZ
2009-03-24, 10:30:15
Es gab Ansätze, welche leider nie ausgeführt wurden. Prinzipiell soll es möglich sein, es wurde schon auf dementsprechender Hardware demonstriert.
Im April kommt womöglich eine HavokFX-Hardware-Unterstützung für AMD-Karten.
Würden sich beide IHVs mal an einen Tisch setzen und HavokFX und PhysX für alle Systeme zugänglich machen, dann wäre die Welt schön...wird aber nicht passieren.


HavokFX gab es schon vor 3 Jahren und wurde von nVidia und AMD unterstützt. Nachdem es Intel übernommen hat, wurde die Entwicklung eingestellt. nVidia war also gezwungen sich eine Alternative zu suchen - und die haben sie in PhysX gefunden.
Nur nVidia ist es zuv erdanken, dass wir in diesem Bereich eine erneute Fortsetzung der Bemühungen erleben. Und wie die Geschichte es eigentlich immer wieder zeigt, sind es vorallen AMD User, die nVidia dafür nicht danken sondern mal wieder kritisieren. Dabei sollte es doch sehr leicht verständlich sein, dass es ohne PhysX auch keine HavokFX Demo auf der GDC geben würde.

Wenn du mir jetzt noch schilden kannst, wie AMD dies ohne Performanceverluste und Kompromisse gegenüber Nvidia machen sollte, dann bist du mein Held.

Jede Firma wird sich weigern, ein Herstellerprodukt zu unterstützen, solange man dabei schlechter abschneidet und die Chance besteht, dass es scheitert.

Ein Standard ist nicht sofort für jeden 100% optimal. Das ist aber nur eine zeitliche Kompomente. Niemand hindert AMD daran ihre Architektur so zu bauen, dass sie mit PhysX keine Probleme haben.

BlackBirdSR
2009-03-24, 10:36:05
Nur nVidia ist es zuv erdanken, dass wir in diesem Bereich eine erneute Fortsetzung der Bemühungen erleben.

Niemand hindert AMD daran ihre Architektur so zu bauen, dass sie mit PhysX keine Probleme haben.

a) Es ist PhysX zu verdanken, nicht Nvidia.
b) Kleiner Tipp für Dich zum Nachdenken, es liegt nicht an der µArchitektur.

LovesuckZ
2009-03-24, 10:39:27
a) Es ist PhysX zu verdanken, nicht Nvidia.

Nein, das ist falsch. Ohne nVidia's Aufkauf und aggressives pushen, gäbe es keine HavokFX Demo auf der GDC.


b) Kleiner Tipp für Dich zum Nachdenken, es liegt nicht an der µArchitektur.

Und wo liegt dann der Unterschied zu HavokFX, dass genau auf AMD abgestimmt sein wird? Selbst eine OpenCL Unterstützung ändert nichts daran, dass die Compilierung auf die Hardware zu Problemen führen kann.

reunion
2009-03-24, 10:41:20
a) Es ist PhysX zu verdanken, nicht Nvidia.
b) Kleiner Tipp für Dich zum Nachdenken, es liegt nicht an der µArchitektur.

a) Richtig, nvidia ist es nur zu "verdanken" das sie mit PhysX jetzt mal wieder ihr eigenes Süppchen kochen.
b) So ist es. Man kann nur verlieren wenn man es unterstützt. Deshalb wird man das auch erst machen wenn es nicht mehr anders geht und der weilen darauf hoffen das es nie so weit kommt. Deshalb wohl auch die Gegendarstellung mit Havok. Etwas handfestes kommt da sowieso nicht raus da Havok Intel gehört und die kein Interesse daran haben können.


Und wo liegt dann der Unterschied zu HavokFX, dass genau auf AMD abgestimmt sein wird? Selbst eine OpenCL Unterstützung ändert nichts daran, dass die Compilierung auf die Hardware zu Problemen führen kann.

Eben tatst du noch so als bräuchte man nur die µArch entsprechend anpassen. HavokFX wird wohl nicht genau auf AMD abgestimmt sein, da es Intel gehört, zumal es auf OpenGL basieren wird.

Stebs
2009-03-24, 10:53:22
Für mich wäre das beste, wenn beide Standarts für jede Grafikhardware mit DX11 geöffnet werden.
...
Das könnte auch NV mit HavokFX machen.Standards :wink:
Also wie ich das ganze verstehe:

NV braucht nichts mit HavokFX zu machen, sondern müssen sich nur um deren PhysX kümmern. (das gleiche gilt für ATI)
Havok/PhysX sind ja eigentlich Physik-Engines (die BEIDE bei den meisten Spielen auf der CPU ausgeführt werden) und keine Schnittstelle für Physik-GPU Beschleunigung. Und ein Hersteller brauch auch nicht an der Physik-Engine eines anderen Herstellers rumzuwerkeln.
Was NV machen könnte: Neben CUDA (deren momentanen Schnittstelle für GPU-Beschleunigung) auch OpenCL in PhysX als Schnittstelle anzubieten.

Wenn die Andeutungen stimmen (am Donnerstag weiß man wohl mehr), dann hat Intel/ATI genau das vor, deren angekündigte GPU-Beschleunigung für Havok scheint auf OpenCL zu basieren:
Session Description
AMD's Neal Robison and OTOY's Jules Urbach will explore how improved realism in games doesn't have to increase development time and effort. Hear the latest on game computing featuring open, standards-based physics with OpenCL and ATI Stream, and increasing content scalability through server-side rendering powered by AMD's Fusion Render Cloud.Quelle (https://www.cmpevents.com/GD09/a.asp?option=C&V=11&SessID=9333)

Könnte also gut sein dass herstellerunabhängige "GPU-Physik" schon vor der Tür steht.
OpenCL wird sowohl von ATI, Nvidia als auch Intel (Larrabee) unterstützt (resp. ist angekündigt). Die neuesten Treiber sollen angeblich fit dafür sein. Also machbar ab: JETZT
Mit DirectX 11 kommen dann später noch Compute Shaders, quasi die Microsoft-Alternative zu OpenCL (analog etwa OpenGL-Direct3D), ob die Physik-Engines dann auch Support dafür bringen werden wird man dann ja sehen.

Wie gesagt, das ist meine (laienhafte) Sicht dazu, lasse mich geerne mit einem Techlet eines besseren belehren :biggrin:

Coda
2009-03-24, 10:59:47
Ich finde es erstaunlich, dass vorallen AMD User gegen PhysX und für einen "offenen" Standard plädieren - dabei müsste AMD sich doch nur nVidia anschließen und PhysX akzeptieren. Dann hätten wir einen Standard für GPU basierte Effektberechnung.
Das ist reiner Unsinn. AMD kann PhysX gar nicht unterstützen.

Ailuros
2009-03-24, 11:00:51
Wenn du mir jetzt noch schilden kannst, wie AMD dies ohne Performanceverluste und Kompromisse gegenüber Nvidia machen sollte, dann bist du mein Held.

Um falschen Eindruecken zu entgehen PhysX != CUDA.

Jede Firma wird sich weigern, ein Herstellerprodukt zu unterstützen, solange man dabei schlechter abschneidet und die Chance besteht, dass es scheitert.

In solchen Faellen handelt es sich im schlimmsten Fall Lizenz-Gebuehren zu entgehen und bestenfalls um den verletzten Stolz in der IWNIH (it was not invented here).

Eric Demers behauptete in der Vergangenheit dass es keinen Sinn macht CUDA zu adoptieren weil sie dafuer eine G80-artige Architektur brauchen wuerde. Nach privater Anfrage an mehreren Stellen bei AMD ueber weitere Erklaerungen bekam ich NIE einen einzigen pieps. Deshalb bin ich erstmal so grosszuezig und akzeptiere es fuer CUDA.

Fuer etwas um einiges einfacheres wie PhysX geht mir meine persoenliche Grosszuegigkeit erstmal aus.

Wir koennten endlos darueber debattieren warum AMD X, Y oder Z nicht adoptiert und es fuehrt trotzdem zu nichts. Die eigentliche Frage ist stets was AMD genau anstellt einen Durchbruch in diversen Maerkten zu gewinnen. Man entwickelt potentielle HW und demenstrechend gute Treiber und ueberlaesst "zweitrangige" Platformen, DevRel, profi-Maerkte oder weiss der Geier was noch nur so vor sich hintrotteln. Und dann meckert man dass NV sich besser "vermarktet".

deekey777
2009-03-24, 11:19:26
a) Es ist PhysX zu verdanken, nicht Nvidia.
...
Eigentlich ist es Intel und AMD und auf der anderen Seite Nvidia und ATi zu verdanken, dass Ageia mit deren PPU so niedergemacht wurde, dass sie durch Nvidia aufgekauft werden konnten.
Ageia hat sich mit der PPU definitiv keine Freunde bei Intel/AMD/Nvidia gemacht. ATi zeigte schon 2006 lustige Präsentationen, wo eine X1600XT der PPU in "Standardbereichen" überlegen war (und man darf auch nicht vergessen, dass sie die ersten waren, die eine Grafikkarte zum etwas anderen als die Berechnung von 3D-Szenen missbraucht hatten).

LovesuckZ
2009-03-24, 11:25:01
Eben tatst du noch so als bräuchte man nur die µArch entsprechend anpassen. HavokFX wird wohl nicht genau auf AMD abgestimmt sein, da es Intel gehört, zumal es auf OpenGL basieren wird.

Na, dann dürfte es auch keine Probleme mit PhysX - immerhin basiert OpenCL 1.0 zum Größtenteit auf Cuda.

Coda
2009-03-24, 11:29:23
Tut es nicht.

Ailuros
2009-03-24, 11:40:49
Na, dann dürfte es auch keine Probleme mit PhysX - immerhin basiert OpenCL 1.0 zum Größtenteit auf Cuda.

Wer erzaehlt denn solchen Mist ueberhaupt?

BlackBirdSR
2009-03-24, 11:47:58
Na, dann dürfte es auch keine Probleme mit PhysX - immerhin basiert OpenCL 1.0 zum Größtenteit auf Cuda.

Du solltest, wie so viele Andere, die Zusammenhänge PhysX, Cuda, API, OpenCL, Havok und GPU nocheinmal genauer überprüfen.

Es ist nunmal so, dass AMD und Intel lieber weitere 3 Jahre auf bessere Ingame-Physik verzichten, bevor man dem Konkurrenten einen Vorteil zugesteht. Ich kann das auch verstehen: Wie kann man auf der einen Seite Millionen für neuere Design ausgeben, diesen Vorteil dann aber durch Software-Nachteile quasi sinnlos werden lassen? Wenn Nvidia auch nur 10% vor ATI liegt, weil deren Schnittstelle zu PhysX effizienter arbeitet, dann sind das Millionen, die man im Design des Chips verloren hat. Von Stolz, Patenten und Marketing gar nicht zu reden.

LovesuckZ
2009-03-24, 11:48:44
Wer erzaehlt denn solchen Mist ueberhaupt?


If you go through the documentation on OpenCL fully, you’ll see that the basis for OpenCL is quite obviously… C for CUDA. No need to reinvent the wheel after all! Put simply, we can say that the consortium has taken NVIDIA’s API and stretched it to include everything that its members wanted.

Its basic functioning is exactly the same as C for CUDA[...]
http://www.behardware.com/articles/744-2/opencl-democracy-for-gpu-computing.html


NVIDIA is hammering the point home by underlining the fact that OpenCL was developed on its GPUs and that they have been the first to demo it. The similarity between C for CUDA and OpenCL facilitates the task for NVIDIA of course as it can simply put a pilot into place that supports OpenCL and slightly modify its C for CUDA compiler so as to create an OpenCL version. Both compilers will use the same intermediate language, PTX for CUDA, which is used to optimise and create the machine code executed by the GPU.
http://www.behardware.com/articles/744-3/opencl-democracy-for-gpu-computing.html

Ailuros
2009-03-24, 11:55:22
http://www.behardware.com/articles/744-2/opencl-democracy-for-gpu-computing.html


http://www.behardware.com/articles/744-3/opencl-democracy-for-gpu-computing.html

Dann liess gefaelligst meinen vorigen Beitrag zum Artikel durch. Wenn man in dem Artikel schon liesst dass man kein effizientes portable OpenCL schreiben kann, heisst es dass Damien sich leider zu stark von dem Zeug dass NV ihm sagte ohne weitere Forschung einfach glaubte.

***edit: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7179423&postcount=62

Ich hab leider nicht das relevante Apple Patent (welches nie eigereicht wurde) behalten, bevor sie es ueberhaupt OpenCL nannten. Zumindest beweisst es erstmal dass es sich um eine reine Apple Entwicklung handelte. Der Rest ist fuer die Muelltonne.

deekey777
2009-03-24, 12:25:11
Ich glaube kaum, dass Apple mal einfach das Programmiermodell für GPUs aus dem Ärmel gezogen hat. Und meiner Meinung nach ist das genau das, was Nvidia für sich beansprucht: Sie haben OpenCL beigebracht, wie es auf GPUs laufen kann ("Wie ist eine OpenCL-Anwendung zu programmieren, damit sie auch auf GPUs läuft").

Vielleicht irre ich mich auch.

Ailuros
2009-03-24, 12:33:36
Ich glaube kaum, dass Apple mal einfach das Programmiermodell für GPUs aus dem Ärmel gezogen hat.

Muss der Grund sein warum sie es anfangs fuer sich selbst patentieren wollten (unter einem anderem Namen).

Und meiner Meinung nach ist das genau das, was Nvidia für sich beansprucht: Sie haben OpenCL beigebracht, wie es auf GPUs laufen kann ("Wie ist eine OpenCL-Anwendung zu programmieren, damit sie auch auf GPUs läuft").

Vielleicht irre ich mich auch.

Vielleicht solltet Ihr ausnahmsweise nachdenken fuer welche Maerkte und mit welchen Ambitionen Apple genau etwas wie OpenCL angestrebt hat. Es ist auf jeden Fall nicht nur jeglicher high end Markt und ich brauch nicht nochmal zu erwaehnen welcher IHV in kleinKram Maerkten den Vorsprung hat oder ob IMG nur dumm rumhockt um oeffentliche standards fuer diese Maerkte zu entwickeln. Der Eindruck dass OpenCL ein joint venture zwischen Apple und NV ist, stimmt auf keinen Fall nichtg.

Coda
2009-03-24, 13:16:16
http://www.behardware.com/articles/744-2/opencl-democracy-for-gpu-computing.html
http://www.behardware.com/articles/744-3/opencl-democracy-for-gpu-computing.html
Nur weil OpenCL CUDA sehr ähnlich sieht, heißt dass noch lange nicht dass es darauf basiert.

Die Grundlagen zu CUDA und OpenCL wurden schon vorher an mehreren Unis entwickelt, nicht von NVIDIA. CUDA hat im wesentlichen nur mehr low-level-Zugriff auf GeForce spezifische Funktionalität.

BlackBirdSR
2009-03-24, 13:49:52
und um es nochmal deutlich zu machen

CUDA hat im wesentlichen nur mehr low-level-Zugriff auf GeForce spezifische Funktionalität.

...und das ist der Grund, warum ATI nicht einfach der Party beitreten kann und alle happy sind. Am ein oder anderen Punkt wird es Performancenachteile geben, die ATI vermeiden will - nein marktwirtschaftlich sogar muss.

deekey777
2009-03-24, 16:41:07
Nur weil OpenCL CUDA sehr ähnlich sieht, heißt dass noch lange nicht dass es darauf basiert.

Die Grundlagen zu CUDA und OpenCL wurden schon vorher an mehreren Unis entwickelt, nicht von NVIDIA. CUDA hat im wesentlichen nur mehr low-level-Zugriff auf GeForce spezifische Funktionalität.
Wenn ich mich nicht irre, waren es Stanford-Leute, die vorher BrookGPU entwickelt hatten und von Nvida für die Entwicklung des C for CUDA angeheuert wurden.

LovesuckZ
2009-03-24, 18:39:50
...und das ist der Grund, warum ATI nicht einfach der Party beitreten kann und alle happy sind. Am ein oder anderen Punkt wird es Performancenachteile geben, die ATI vermeiden will - nein marktwirtschaftlich sogar muss.

Und was soll sich genau durch OpenCL daran ändern? Laut Triolet sind Extensions immernoch vorgesehen, wodurch selbst eine OpenCL Anwendung schlecht bis garnicht lauffähig auf andere Hardware sein kann.
Aber ich sehe immer noch nicht das Problem für AMD, mit nVidia hier zusammenzuarbeiten und für einen Standard zu sorgen. Hier sollte die Kritik angesetzt werden und nicht gegen nVidia, dass sie etwas nach vorne bringen. Von HavokFX auf OpenCL basis hat noch weniger als von PhysX und das wird auch wohl noch sehr lange so bleiben.

BlackBirdSR
2009-03-24, 18:55:32
Und was soll sich genau durch OpenCL daran ändern? Laut Triolet sind Extensions immernoch vorgesehen, wodurch selbst eine OpenCL Anwendung schlecht bis garnicht lauffähig auf andere Hardware sein kann.

Aber es verschafft Nvidia keinen Vorteil.


Aber ich sehe immer noch nicht das Problem

Musst du auch nicht. Es reicht, wenn das die von AMD oder Nvidia tun.
AMD hat ein Problem und ich kanns verstehen.

Coda
2009-03-24, 19:15:50
Und was soll sich genau durch OpenCL daran ändern? Laut Triolet sind Extensions immernoch vorgesehen, wodurch selbst eine OpenCL Anwendung schlecht bis garnicht lauffähig auf andere Hardware sein kann.
Aber ich sehe immer noch nicht das Problem für AMD, mit nVidia hier zusammenzuarbeiten und für einen Standard zu sorgen. Hier sollte die Kritik angesetzt werden und nicht gegen nVidia, dass sie etwas nach vorne bringen. Von HavokFX auf OpenCL basis hat noch weniger als von PhysX und das wird auch wohl noch sehr lange so bleiben.
Du tust so als würde NVIDIA sie mit offenen Armen empfangen falls sie das vor hätten.

Sie lassen es ja noch nicht mal zu dass PhysX läuft während überhaupt nur eine ATI-Karte im System ist. Was erwartest du?

Peilo
2009-03-24, 19:42:22
weshalb die benchmarks mit ati karte bei ME so in die knie gehn. das is ein reines lizensproblem, nv hat PhysX auf Pc nur auf ihre karten beschränkt und im speziellen Fall von ME auch die x86-cpu-version nicht impletiert/optimiert/vermurkst etc.
PhysX auf Wii, xbox360 oder ps3 ist jeweils eine auf die cpu der jeweiligen konsolen angepasste version von physx und da ruckelt ME ja auch nicht, nur weil ne ati karte in der xbox ist.
also reines marketing getue und ich finde man kann nv rühig den schwarzen peter zuschieben, weil sie durch ihren alleingang die situation für alle verschlimmern, bzw. die anderen anbieter zu einer eigenen lösung zwingen, bis sich endlich ein einheitlicher standart wie opencl oder directx11 sich für physikberechnungen durchgestzt hat. und unter zuzwang entstehn selten sinnvolle lösungen.
es ist zwar schön, das physx auf nv karten so wunderbare physik möglich macht, aber dann sollte man doch so fair sein und es allen ermöglich und sich nicht fürstlich dafür entlohnen lassen, vor allem wenn es bisher nur wenige spiele gibt, die auch wirklich nutzen daraus ziehn, so wie ME z.Bsp.

Nightspider
2009-03-25, 21:28:16
Nvidia APEX für bessere Echtzeit-Physik

http://www.pcgameshardware.de/aid,679854/Nvidia-APEX-fuer-bessere-Echtzeit-Physik-beeindruckende-Video-Demo/Technologie/News/

Video dazu:

http://www.youtube.com/watch?v=RuZQpWo9Qhs&eurl=http%3A%2F%2Fwww%2Epcgameshardware%2Ede%2Faid%2C679854%2FNvidia%2DAPEX%2Dfu er%2Dbessere%2DEchtzeit%2DPhysik%2Dbeeindruckende%2DVideo%2DDemo%2FTechnologie%2 FNews&feature=player_embedded

Genau sowas wünsch ich mir für GRID 2, das sieht echt hammer aus!

AnarchX
2009-03-25, 22:11:29
Hier gibt es noch ein paar mehr APEX Beispiel von der GDC:
http://www.youtube.com/profile?user=nvidiacuda&view=videos

Die Videos mit den Bäumen sind recht interessant.

Gast
2009-03-26, 00:30:10
Einfach nur WOW die Videos! Danke für den Link. Man sieht das Nvidia schön an PhysX arbeitet und das ist auch gut so.

Gast
2009-03-28, 14:21:46
Hier Sacred 2 mit und ohne Physx. Test von Gamestar http://www.gamestar.de/index.cfm?pid=454&pk=12015. Ich muss sagen, sehr beindruckend.

_DrillSarge]I[
2009-03-30, 02:35:55
mich würde mal interessieren, was die physx-engine vor dem nvidia aufkauf für eine schnittstelle/technik genutzt hat, um mit der ageia-ppu zusammenzuarbeiten. und wie weit "weg" der cuda-port dann davon war/ist.

ich hoffe mal, hier bin ich richtig :)

Gast
2009-03-30, 08:57:43
Lässt mich völlig kalt. Eine Handvoll Partikeleffekte, und dafür stehen einige gleich Kopf? Die sind anscheinend recht einfach zufrieden zu stellen.

Die Zeiten, in denen die Grafikkarten Rechenleistung für solche Spielereien übrig haben, dürften auch bald gezählt sein.
Im Endeffekt muss die Physik in Spielen glaubwürdig sein. Dass jedes Blatt korrekt durch den Wind flattert, ist völliger overkill und trägt absolut gar nichts zum Spielerlebnis bei.

Stebs
2009-03-30, 09:26:00
Nur weil OpenCL CUDA sehr ähnlich sieht, heißt dass noch lange nicht dass es darauf basiert.Gerade über dies gestolpert:
Apple may adopt and roll into its own set of developer tools a version of Nvidia's CUDA technology that will allow programmers of everyday Mac apps to reap the parallel computational benefits of the chipmaker's graphics processors.

In an interview with CNet News.com's Tom Krazit earlier this week, Nvidia chief executive Jen-Hsun Huang dropped hints that Apple was extremely interested in the technology, so much so that it plans to distribute its own flavor of the technology to its developer base.

"Apple knows a lot about CUDA," Huang said, adding that the Mac maker's implementation "won't be called CUDA, but it will be called something else.
Quelle (http://www.appleinsider.com/articles/08/06/06/apple_said_to_have_sights_on_nvidias_cuda_technology.html)

Korak
2009-03-30, 11:20:13
Lässt mich völlig kalt. Eine Handvoll Partikeleffekte, und dafür stehen einige gleich Kopf? Die sind anscheinend recht einfach zufrieden zu stellen.

Die Zeiten, in denen die Grafikkarten Rechenleistung für solche Spielereien übrig haben, dürften auch bald gezählt sein.
Im Endeffekt muss die Physik in Spielen glaubwürdig sein. Dass jedes Blatt korrekt durch den Wind flattert, ist völliger overkill und trägt absolut gar nichts zum Spielerlebnis bei.

Es muss ja nicht alles realistisch "flattern". Realismus in Spielen ist eh so ne Sache ^^.
Aber wenn sich hardwarebeschleunigte Physik weit genug verbreitet hat kann man Spiele z.B. näher an Action/SciFi Filme bringen, sprich viele Bruchstücke von Häusern etc, oder Rauch der von Triebwerken/Rotoren verdrängt wird usw.
Da muss dann nix realtistisch sein, aber geil aussehen und ein schönes "BÄM-Gefühl" vermitteln ^^

Und um dahin zu kommen muss man halt irgendwo anfangen :)

Gast
2009-03-30, 13:10:30
Auf jedenfall sieht es mit PhysX lebendiger aus. Ohne PhysX wirkt es steril. Die Leute die sagen PhysX ist Müll sind eh von ATI eingenommen. Ich freue mich auf den Patch und ein lebendiges Sacred :)

HD-Ronny
2009-03-30, 18:49:28
Also ich finde PhysX klasse, mir ist es wurst ob sich Havok, PhysX oder sonstwas durchsetzt. Wenns gut aussieht und umgesetzt ist :wayne:

Backet
2009-03-30, 19:28:05
Jein.

Ja ich habe lieber ne ATI im Rechner als ne Nvidia. Ja ne vernünftige Physik würde mich schon reizen!
Aber das alles steckt noch in den Kinderschuhen! Auch wenn es PhysX schon lange gibt, wird der Standard wohl in 2 Jahren ganz anders aussehen! Und dann sehen wir weiter!

Und wenn Nvidia dann immer noch die Nase vorn hat, hol ich mir auch wieder ne NV
Aber die paar Effekte mehr, die meiner Meinung nach noch nicht mal wirklich pysikalisch korrekt berechnet, werden fehlen mir nicht!

Genauso wie der X-Fi Standard mich auch heute noch nicht wirklich vom Hocker haut!

pXe
2009-04-03, 17:37:18
Also echte Kleidung (nicht nur so angeklebt) und Haare in MMOs fänd ich schon toll.


pXe

Gast
2009-04-03, 20:54:28
Falls es von Interesse ist: Der Physx-Patch von Sacred 2 funktioniert auch auf einer ATI recht gut, wenn man ihr eine olle Ageia-Physxkarte zur Seite stellt. Man muss nur die Physx-Systemsoftware downdaten, weil alles ab 8.0.9irgendwas zwar die Ageia-Karte als Option anbietet, sie aber dennoch nicht nutzt. Macht man das Downdate, läuft aber Sacred 2 wunderbar mit der Karte. Habe es eben selber ausprobiert. Die Effekte selber finde ich gerade bei den Blättern etwas merkwürdig, aber naja. Was tut man nicht, um der Karte im Rechner einen Sinn zu geben...

DerKleineCrisu
2009-04-03, 21:41:45
Was ist eigendlich daraus geworden mit den leuten die Physx für AMD Graka´s umsetzen wollten ?.

Da war doch schon was mit einer AMD 3850 :confused: .

Ist das wieder eingestampft worden oder werkeln sie noch daran....

Gast
2009-04-03, 21:48:30
Das ist das Problem, NV und die Spielehersteller packen haufenweise
PysX in ihre Spiele. Dabei hätte man einen ähnlichen Effekt auch ganz ohne PhysX realisieren können und dazu performanter.

Ich finde sowas gefährlich, mit den Jahren haben es die Programmierer verlernt
sparsam mit der Rechenleistung umzugehen und jetzt jubeln noch alle wenn sowas wie PhysX absolut ohne echten Zweck ins Spiel integriert wird.
Aber dann meckern wenn sowas wie Crysis raus kommt!

Gouvernator
2009-04-04, 09:19:34
Das ist das Problem, NV und die Spielehersteller packen haufenweise
PysX in ihre Spiele. Dabei hätte man einen ähnlichen Effekt auch ganz ohne PhysX realisieren können und dazu performanter.

Ich finde sowas gefährlich, mit den Jahren haben es die Programmierer verlernt
sparsam mit der Rechenleistung umzugehen und jetzt jubeln noch alle wenn sowas wie PhysX absolut ohne echten Zweck ins Spiel integriert wird.
Aber dann meckern wenn sowas wie Crysis raus kommt!
Können ist nicht automatisch wollen. Man zwingt endlich die Entwickler irgendwas auf dem Gebiet zu tun. Irgendwann wird es auch bestimmt gut aussehen Frage ist nur wann? In dem Fall würde ich lieber irgendwelche Details und HDR wegdrehen um mit PhysX Effekten zu spielen als umgekehrt.

Gast
2009-04-04, 10:12:19
Aber dann meckern wenn sowas wie Crysis raus kommt!

Im Grunde hast du recht, jedoch ist Crysis für das Gebotene doch sehr performant.

y33H@
2009-04-05, 00:43:19
PhysX auf Wii, xbox360 oder ps3 ist jeweils eine auf die cpu der jeweiligen konsolen angepasste version von physx und da ruckelt ME ja auch nicht, nur weil ne ati karte in der xbox ist.Äh ... nur auf der PC-Version gibts die erweiterten bzw. zusätzlichen Effekte :rolleyes:

dllfreak2001
2009-04-05, 00:48:16
Schaut euch mal Sacred2 mit PhysX-Support an, dass sind doch nur erweiterte Partikeleffekte. Das ist es nicht womit die PhysX begründen sollen.:P

Spasstiger
2009-04-05, 01:03:32
Video dazu:

http://www.youtube.com/watch?v=RuZQpWo9Qhs&eurl=http%3A%2F%2Fwww%2Epcgameshardware%2Ede%2Faid%2C679854%2FNvidia%2DAPEX%2Dfu er%2Dbessere%2DEchtzeit%2DPhysik%2Dbeeindruckende%2DVideo%2DDemo%2FTechnologie%2 FNews&feature=player_embedded

Genau sowas wünsch ich mir für GRID 2, das sieht echt hammer aus!
Passt eigentlich besser in ein Offroad-Rennspiel. Ich finde, die Effekte sehen eher nach aufgewirbeltem Sand als nach Rauch aus.
Ich wünsche mir so eine Fluidsimulation mit Wasser. Z.B. ein Dammbruch in einem Strategiespiel richtig schön dynamisch präsentiert. Oder ein Tsunami in einem Tropenshooter, vor dem man flüchten muss.

y33H@
2009-04-05, 21:25:52
Ich finde, die Effekte sehen eher nach aufgewirbeltem Sand als nach Rauch aus.Warum soll ein Rennwagen auch Rauch aufwirbeln ... das ist freilich Sand/Staub.

Spasstiger
2009-04-06, 07:36:02
Warum soll ein Rennwagen auch Rauch aufwirbeln ... das ist freilich Sand/Staub.
Ich verbinde Race Driver Grid nicht so mit Sandpisten. Du etwa? ;)

Gouvernator
2009-04-06, 17:34:19
Solche Raucheffekte würden dem nächsten Unreal ziemlich gut stehen. So 20 Raketenwerfer plus einbisschen Windsimulation und diese Raucheffekte.

Gast
2009-04-06, 21:03:45
Also ich zocke Sacred 2 mit PhysX. Auflösung 1680X1050. Multisampling und 4 AA. Ich kann locker flockig zocken und man bedenke, Sacred ist kein Shooter! (GTX260 und Quad oced 3300)

P.S.: Sieht geil aus.

Gast
2009-04-07, 09:29:29
Es kommt ja immer wieder zum Glaubenskrieg zwischen PhysiX und DX 10.1, dabei gibt es für besagten Krieg keine Daseinsberechtigung. Hier ist einzig und alleine die persönliche Präferenz entscheidend: Will ich ein paar zusätzliche Effekte, die mir (bislang) nur optischen Zugewinn bieten oder habe ich dank 10.1 lieber bessere Kantenglättung bzw. mehr Performance? Das ist hier ausschlaggebend. Als Gamer müsste man eigentlich eher auf den Speed abfahren, denn davon hat man immer etwas, als auf ein paar Effekte, die man nach 15 Minuten ohnehin sattgesehen hat.

Dass 10.1 weniger verbreitet als PhysiX ist, ist ein Märchen. Das kommt einzig und alleine daher, dass NV erneut kräftig die Werbetrommel rührt und so den Eindruck der grossen Verbeitung schürt.

http://www.youtube.com/watch?v=a7-_Uj0o2aI

Daredevil
2009-04-07, 09:39:43
Das Ding is aber auch das viele Firmen mit Nvidia zusammenarbeiten, wo ja nicht verwerflich ran ist, ich finds gut das sich ein Hersteller soviel mit den Sachen beschäftigt und diese "Nvidia" Spiele bekommen nur in den seltensten Fällen DX 10.1 Unterstützung, ich erinner da an Assasins Creed, dort wurd der Pfad doch rausgepatcht, ist der inzwischen wieder vorhanden?

Also wenn als Streitpunkt PhysX und DX10.1 nimmt zwischen den beiden Herstellern is Nvidia ganz klar vorne, das sollte wohl klar sein.
DX 10.1 ist toll für die Spiele wo es mal wirklich Unterstützung gibt, aber PhysX ist doch schon um ein vielfachen höher verbreitet, zudem heißt PhysX ja nicht das es Nvidia only ist nur weil es zum Teil mit der Grafikkarte beschleunigt wird, DX 10.1 ist hingegen ATI only und deswegen weniger rentabel weil man damit nur einen Teil des Marktes anspricht.

derguru
2009-04-07, 10:17:11
Also ich zocke Sacred 2 mit PhysX. Auflösung 1680X1050. Multisampling und 4 AA. Ich kann locker flockig zocken und man bedenke, Sacred ist kein Shooter! (GTX260 und Quad oced 3300)

P.S.: Sieht geil aus.

ach 23fps ist also locker flockig.
http://www.pcgameshardware.de/aid,680145/Sacred-2-Test-Physx-Patch-fuer-Geforce-Grafikkarten-mit-HD-Video/Rollenspiel-Adventure/Test/?page=2
aber das reicht nehme ich an,lieber ruckel als auf fliegende blätter zuverzichten.:rolleyes:
stimmt geil sieht es aus.

DX 10.1 ist toll für die Spiele wo es mal wirklich Unterstützung gibt, aber PhysX ist doch schon um ein vielfachen höher verbreitet, zudem heißt PhysX ja nicht das es Nvidia only ist nur weil es zum Teil mit der Grafikkarte beschleunigt wird, DX 10.1 ist hingegen ATI only und deswegen weniger rentabel weil man damit nur einen Teil des Marktes anspricht.
physX kannst du genauso an einer hand abzählen wie dx10.1 titel.theoretisch ist physX nicht nv only aber praktisch.(cpu power reicht nicht aus und amd und intel kannste eh abschminken)

Daredevil
2009-04-07, 10:21:11
Kann man die Intensität eigentlich verringern?
Oder ist das mal wieder darauf ausgelegt das man es ja nicht mit einer CPU als Beschleuniger spielen kann? ;D

Gast
2009-04-07, 12:30:28
Das Ding is aber auch das viele Firmen mit Nvidia zusammenarbeiten, wo ja nicht verwerflich ran ist, ich finds gut das sich ein Hersteller soviel mit den Sachen beschäftigt und diese "Nvidia" Spiele bekommen nur in den seltensten Fällen DX 10.1 Unterstützung, ich erinner da an Assasins Creed, dort wurd der Pfad doch rausgepatcht, ist der inzwischen wieder vorhanden?

Also wenn als Streitpunkt PhysX und DX10.1 nimmt zwischen den beiden Herstellern is Nvidia ganz klar vorne, das sollte wohl klar sein.
DX 10.1 ist toll für die Spiele wo es mal wirklich Unterstützung gibt, aber PhysX ist doch schon um ein vielfachen höher verbreitet, zudem heißt PhysX ja nicht das es Nvidia only ist nur weil es zum Teil mit der Grafikkarte beschleunigt wird, DX 10.1 ist hingegen ATI only und deswegen weniger rentabel weil man damit nur einen Teil des Marktes anspricht.

Das ist falsch. PhysiX-Spiele und DX10.1 liegen quantitätsmässig etwa gleichauf.

Daredevil
2009-04-07, 23:12:40
Also ich selber kann die Spiele bei DX10.1 mal gerade an einer Hand abzählen, hab selber ne ATI, find das ganz dufte aber gibts da ne Liste?
Ich erinner mich an Assasins Creed, Stalker und die 3 Spiele aus dem neuesten ATI Video.
Die Liste der Spiele die als Physik Engine PhysX benutzen is wohl ein vielfaches größer.

Aber nochmal, ich meinte Spiele die PhysX als Engine nutzen und nicht Spiele die Nvidia Hardware als Physik Beschleuniger nutzen, nicht das da was durcheinander kommt.

PulsarS
2009-04-07, 23:29:36
Schaut euch mal Sacred2 mit PhysX-Support an, dass sind doch nur erweiterte Partikeleffekte. Das ist es nicht womit die PhysX begründen sollen.:P
:confused:
Wenn die Partikeleffekte physikalisch korrekt berechnet werden sollen...
Man muss ja irgendwie anfangen und ich finde das, was in Sacred2 gezeigt wird schon nice.
Wobei mir persönlich (da hier der Vergleich zu D3D10.1 gezogen wird) eine bessere Kantenglättung lieber wäre :)

Hydrogen_Snake
2009-04-08, 10:53:20
Warum kann PhysiX (Treiber) nicht einfach irgend einen CPU Core z.B. bei einem QC nicht benutzen?

_DrillSarge]I[
2009-04-08, 10:54:15
Warum kann PhysiX (Treiber) nicht einfach irgend einen CPU Core z.B. bei einem QC nicht benutzen?
macht es doch in ca. 99% der games mit physX. ;)
(keine ahnung, ob man "gpu-physX" ohne probleme (abgesehen von der performance ;)) einfach auf die cpu schalten kann. theoretisch ohne probs möglich)

Hydrogen_Snake
2009-04-08, 11:12:57
I[;7222602']macht es doch in ca. 99% der games mit physX. ;)
(keine ahnung, ob man "gpu-physX" ohne probleme (abgesehen von der performance ;)) einfach auf die cpu schalten kann. theoretisch ohne probs möglich)

Achso. Ich dachte es läuft gar nicht. Ich habe z.B. in Ghost Recon Advanced Warfare einen explizit schalter in den Optionen gesehen. Gibt es Videos was Physx in z.B. Sacred 2 bewirkt?

Sonyfreak
2009-04-08, 11:50:52
Achso. Ich dachte es läuft gar nicht. Ich habe z.B. in Ghost Recon Advanced Warfare einen explizit schalter in den Optionen gesehen. Gibt es Videos was Physx in z.B. Sacred 2 bewirkt?Hier gibts Videos und Benchmarks: KLICK (http://www.computerbase.de/news/software/spiele/rollenspiele/2009/april/video_benchmarks_sacred_2_physx-patch/)

mfg.

Sonyfreak

Hydrogen_Snake
2009-04-08, 12:33:08
Wtf :eek: 3x-3.5x schneller nur wegen des Nvidia PhysX Supports!? omfg...
Sieht aber grafisch imposant aus.

dllfreak2001
2009-04-13, 22:00:34
PhysX ist aber Hardware-fressend!

Diese UT3-Level mit PhysX kriegt meine 9600GT gerade so gebacken und trotzdem hat man noch mit üblen Stockern, Slowdowns und Ladezeiten zu rechnen.
Aber die Spinnen auch wie bei Sacred2... nur damit die CPU den Kramm nicht gebacken kriegt, ballern die extrem viele Partikel rein. Gut sieht es damit trotzdem nicht aus.
Ähnliches bei der Cryostasis-Techdemo.

Steine zerfallen in gefühlt mehr Einzelteile als Material da ist und einzeln berechnete Hagelkörner brauch ich auch nicht für das Spiel.

Das ist mal wieder so eine Marketingaktion...NV versucht eine Art "Monopol" aufzubauen, die anderen sollen dann PhysX lizensieren wie es Intel mit X86 tut. Andersrum rechtfertigt man so den Kauf mehrerer Grafikkarten für ein System auch im Mainstream. Aber Hauptsache alle jubeln und freuen sich über eine Technik
die weder freie Wahl lässt, noch in dem Sinne wie es gezeigt wird nötig ist.

siehe Sacred.
Vieles ist nicht mehr als ein besserer Partikeleffekt und vieles wäre vereinfacht auch auf der CPU ohne große optische Einbußen machbar.
Warum weht das Gras nicht nach einer Sinusfunktion im Wind anstatt es aufwändig physikalisch "korrekt" wehen zu lassen. Wozu muss man den Bäumen Äste ausreißen können und warum fliegen überall soviele Blätter rum.

siehe Mirrors Edge...
Warum müssen die Stoffahnen so fein sein...bis zur Unnatürlichkeit als ob alles aus feinster Seide besteht.=> Eine reduzierte Variante sähe nicht nur besser aus, sie wäre auch von CPUs prima zu bewältigen.

_DrillSarge]I[
2009-04-13, 22:47:01
Diese UT3-Level mit PhysX kriegt meine 9600GT gerade so gebacken und trotzdem hat man noch mit üblen Stockern, Slowdowns und Ladezeiten zu rechnen.
die ut3-physx-levels sind auch scheisse :D

das geht auch ohne gpu-physx rein auf der cpu:
http://utforums.epicgames.com/showthread.php?t=609384
http://forums.epicgames.com/showthread.php?t=612155

hier wurde nicht alles mit tausenden sinnbefreiten partikel zugeklatscht und auf den sinn von physik im gameplay geachtet.

physx (gpu-zusatzeffekte) sind nicht unperformant normalerweise

Gast
2009-04-14, 17:01:41
PhysX ist hardwarefressend, das stimmt. Ab einer 260 bekommt aber wirklich viel für den FPS-Verlust. Nochmal zu Sacred 2, hab jetzt auf Level 20 "gezüchtet" und ich muss sagen im Gegensatz ohne PhysX wirkt das alles viel lebendiger. Und ich bin dankbar für diesen Patch und neue Spielgefühl. Alle die hier mosern sind zum Größten Teil ATI bezogen und hätten auch gerne PhysX. Achso, ich hab ne 260 die natürlich geoced ist:)

Gast
2009-04-14, 17:19:20
Witzig ist ja, das "richtige" Physikspiele eigentlich vorwiegend in der Demoszene, kostenlos oder auf dem Wii kommen

Gast
2009-04-14, 17:27:36
Man kann durch PhysX aber "alte" Spiele wie jetzt Sacred 2 aufwerten. Sprich es kommt ein ganz anderes Spielgefühl auf. PhysX ist einfach gut und ich persönlich lass mir das net madig machen. Jeder der Sacred 2 besitzt soll es mal mit und ohne spielen (falls er es kann;-).

Und für mich ist dadurch PhysX schonmal ein elementarer Kaufgrund, weil wie gesagt es für MICH besser rüberkommt als ohne.

Cheerz

BlackBirdSR
2009-04-14, 17:45:03
Man kann durch PhysX aber "alte" Spiele wie jetzt Sacred 2 aufwerten. Sprich es kommt ein ganz anderes Spielgefühl auf.
Cheerz

Was daran liegt, dass Sacred2 von Beginn an auf PhysX- als PhysikEngine setzt. Leider sind bisher nur aufgesetzte Physikeffekte möglich. Eventuell ändert sich dies, wenn alle Zugang zu beschleunigter Physik haben und wir ein einheitliches Peformanceniveau erreichen (können).

Gast
2009-04-14, 17:51:01
@BlackBird

Richtig. Bei Sacred 2 sind keine "richtigen" Physikeffekte. Aber es werden Blätter aufgewirbelt, es "kracht" richtig bei Zaubersprüchen und alles ist "lebendig". PhysX ist vielseitig einsetzbar;-). Ich muss wirklich sagen jeder der behauptet das bringt nix kennt das Wort lebendig nicht;-)


Wollte nur mal meine Erfahrung niederschreiben nach einigen Stunden mit und ohne PhysX.

dllfreak2001
2009-04-14, 23:32:36
@Gast wenns Spass macht ;)


Das Gras und die Bäume brauchen sicher kein PhysX um sich ein bißchen zu bewegen und sei es nicht physikalisch korrekt. Genauso braucht man auch nicht die Blätter in derartigen Mengen berechnen. Aber nein sowas braucht man nicht... haben doch alle eine Nvidia im Rechner stecken die min. soviel Power wie deine Karte hat.

Außerdem gab es zuvor atmosphärischere Spiele die auch ganz ohne PhysX ausgekommen sind.

Die Spiele-Zukunft wird düster wenn man ohne PhysX-taugliche Highendgrafikkarte spielen will.
Denn dann darf man sich auf den Physikumfang von Spielen aus dem Jahre 2000 freuen.

y33H@
2009-04-15, 00:59:54
Ich verbinde Race Driver Grid nicht so mit Sandpisten. Du etwa?Ich auch nicht :tongue: Aber sowas wünsche ich mir fürs kommende DIRT2. Voll in die Kurve und hinter dir ziehts ne fette Staubfahne her :eek:

WhiteVelvet
2009-05-02, 22:01:48
Das wurde bestimmt schon gefragt: Laufen auch alle älteren Spiele mit den neuen PhysX Treibern auf den nVidia-Karten? Also auch GRAW 1+2? Oder brauchen die immernoch die alte originale PhysX-Karte?

HANSS
2009-05-03, 22:43:42
Also ich habe jetzt Sacred 2 lange genug mit und ohne Physik gespielt.
Es sieht mit alles zu übertrieben aus, zu viele Blätter die einfach nerven.
Und es läuft auch nicht gut, Ruckler bei sehr niedrigen Einstellungen.
Da will Nvidia einfach mal wieder den beschissenen Markt ankurbeln.

Und die Gamer die darauf reinfallen und sich dadurch verrückt machen
sind es selber schuld !!!

Zatoichi
2009-05-04, 09:42:48
Also ich habe jetzt Sacred 2 lange genug mit und ohne Physik gespielt.
Es sieht mit alles zu übertrieben aus, zu viele Blätter die einfach nerven.
Und es läuft auch nicht gut, Ruckler bei sehr niedrigen Einstellungen.
Da will Nvidia einfach mal wieder den beschissenen Markt ankurbeln.

Und die Gamer die darauf reinfallen und sich dadurch verrückt machen
sind es selber schuld !!!


Ja und nun? Ich spiele Sacred2 seid dem Patch erneut und möchte die Effekte nicht mehr missen. Das Spiel hat für mich deutlich an Lebendigkeit gewonnen und ich finde da nix übertrieben. Was das mit verrückt machen und reinfallen zu tun hat erklär mal bitte? Wenn deine Hardware zu schlecht für die Darstellung ist, ist der Markt gleich beschissen? Ich finde Physix sehr gut.

LovesuckZ
2009-06-03, 19:01:13
Videos aus Terminator Salvation und die Rauchdemo mit dem Auto über DX CS. (http://www.overclock.net/pc-games/517142-terminator-salvation-physx.html). Terminator sieht eindeutig schöner aus mit PhysX und die Rauchdemo ist einfach nur nice. Mal sehen, in welchen Jahrzehnt wir das auf den PC in einem Spiel erleben dürfen.

Gast
2009-06-03, 19:08:05
Videos aus Terminator Salvation und die Rauchdemo mit dem Auto über DX CS. (http://www.overclock.net/pc-games/517142-terminator-salvation-physx.html). Terminator sieht eindeutig schöner aus mit PhysX und die Rauchdemo ist einfach nur nice. Mal sehen, in welchen Jahrzehnt wir das auf den PC in einem Spiel erleben dürfen.

Ist das schon in der Verkaufsversion mit drin dieses PhysX?

LovesuckZ
2009-06-03, 19:09:11
Ist das schon in der Verkaufsversion mit drin dieses PhysX?

Nein, laut der Präsentation soll das nächsten Monat in einem "Erweiterungspack" veröffentlicht werden.

Gast
2009-06-05, 12:29:00
Wieso will man eigentlich überhaupt Physik mit der Graka berechnen?

Irgendwie kann ich da keinen Sinn drin erkennen, zumal die Grakas dank immer höherer Auflösungen der Anzeigegräte (nur native Auflösungen wirklich gut, runterschrauben also ungünstig), immer aufwendigeren Grafikeffekten und vor allem nötiger (dank vieler Details wie ausgeprägte Vegetation) Qualitätsverbesserer (SSAA/AA/AF...) doch schon mit der Anzeige mehr als ausgelastet sind?

Im Gegensatz dazu liegen nur allzuoft ein oder mehrere Kerne der CPU ungenutzt brach, siehe Arma.

Kann mir mal jemand in einem Satz die Vorteile ergründen?

Gast
2009-06-05, 12:44:25
PS: mir ist die effektivere Berechnung durch Grakas bekannt, nur wenn cih die schon zu 100% aus o.g. Gründen für Grafik auslaste(n muss) nutzt mir das auch nichts.

Mr. Lolman
2009-06-05, 13:39:25
Weil die GraKaarchitektur wunderbar auf Parallelisierbarkeit div. Physikberechnungen zugeschnitten ist. Trotzdem ist dein Argument natürlich nicht von der Hand zu weisen, dass die CPU-Kerne häufig brach liegen, und die GraKa ohnehin schon genug an der Grafik zu ackern hat.

EDIT: Hab den PS zu spät gelesen. Demnach lautet die beste Antwort auf deine Frage wohl:



Weil mans kann...


...und neue Features werbewirksam sind ;)

Gast
2009-06-05, 13:45:01
Weil die GraKaarchitektur wunderbar auf Parallelisierbarkeit div. Physikberechnungen zugeschnitten ist. Trotzdem ist dein Argument natürlich nicht von der Hand zu weisen, dass die CPU-Kerne häufig brach liegen, und die GraKa ohnehin schon genug an der Grafik zu ackern hat.

EDIT: Hab den PS zu spät gelesen. Demnach lautet die beste Antwort auf deine Frage wohl:

Weil mans kann -


- und neue Features werbewirksam sind ;)
*kopfkratz* Sind parallele Berechnungen nicht DIE Stärke von Multikern CPUs? Sollte da doch viel besser aufgehoben sein, vor allem angesichts dieser 8 Kern i7 Monster.

Mr. Lolman
2009-06-05, 13:54:16
Im Vergleich zu anderen CPUs, ja. Allerdings hat ein i7 iirc ~50GFlops. Eine GTX 280 hat knapp 1000

Gast
2009-06-05, 14:07:42
Im Vergleich zu anderen CPUs, ja. Allerdings hat ein i7 iirc ~50GFlops. Eine GTX 280 hat knapp 1000
Die Zahlen - besser gesagt Unterschiede zwischen CPU und GPU - sind aber leider nichts wert! Und wenn die Graka 100000000 mal schneller als die CPU ist, bringt mir das nix, wenn sie mit der Anzeige schon ausgelastet ist und Teile der CPU trotz ihrer "Lahmheit" vor sich her dümpeln. Da komme ich nach wie vor doch nicht auf die Idee, die Physik der Graka aufzuhalsen.

Naja, und bis sich das wie prognostiziert dauerhaft(!) umkehrt (wenn überhaupt), wird noch viel Wasser den Rhein entlang fließen. Bis dahin haben die Nerds der Zielgruppe ihre HW eh längst ausgetauscht, so das Grakaphysik heute wohl wirklich nur der Werbung dient.

deekey777
2009-06-05, 14:24:32
Wieso will man eigentlich überhaupt Physik mit der Graka berechnen?

Irgendwie kann ich da keinen Sinn drin erkennen, zumal die Grakas dank immer höherer Auflösungen der Anzeigegräte (nur native Auflösungen wirklich gut, runterschrauben also ungünstig), immer aufwendigeren Grafikeffekten und vor allem nötiger (dank vieler Details wie ausgeprägte Vegetation) Qualitätsverbesserer (SSAA/AA/AF...) doch schon mit der Anzeige mehr als ausgelastet sind?

Im Gegensatz dazu liegen nur allzuoft ein oder mehrere Kerne der CPU ungenutzt brach, siehe Arma.

Kann mir mal jemand in einem Satz die Vorteile ergründen?
Ja, nein, doch.
Egal wie "GPU-limitiert" du bist, es gibt immer Beispiele, wo die GPU auf die CPU warten muss, bis sie endlich Daten liefert. Warum sollte diese "Wartezeit" nicht besser benutzt werden, um bestimmte Aufgaben von der CPU auf die GPU auszulagern?
Aktuell ist das, was auf die GPU ausgelagert wird, eher nett anzuschauen, bringt den Spieler aber nicht weiter, wirkt oft aufgesetzt. Wenn aber Physik a la Cellfactor ins Spiel kommt, wird's interessanter, dazu die ganzen KI-Berechnungen usw.

Mr. Lolman
2009-06-05, 14:29:08
Naja. Dank der ganzen Konsolenspiele und unzähligen 22" Monitorbesitzern ists manchmal garnicht so leicht eine GTX280 vernünftig auszulasten (und damit mein ich jetzt nicht übertrieben hohe AA Modi). Da bleibt schnell schonmal ein bisschen Rechenleistung für Physikberechnungen übrig.

Andererseits kann man nur Partikelberechnungen einfach parallelisieren und außerdem bin ich auch der Meinung, dass GraKas prinzipiell Grafik berechnen sollten. Aber dank der GP Fähigkeiten aktueller GraKas bot sich PhysX nunmal an, ist wohl relativ leicht zu implementieren und man kann den Anwender mit vielen kleinen Partikeln (die er bisher so nicht zu Gesicht bekam) beeindrucken. Insgesamt ists also eine recht werbewirksame Sparte - auch wenn sichs in der derzeitigen Realisierung imo eher in eine Sackgasse bewegt.

Gast
2009-06-05, 14:33:18
Ja, nein, doch.
Egal wie "GPU-limitiert" du bist, es gibt immer Beispiele, wo die GPU auf die CPU warten muss, bis sie endlich Daten liefert. Warum sollte diese "Wartezeit" nicht besser benutzt werden, um bestimmte Aufgaben von der CPU auf die GPU auszulagern?
Aktuell ist das, was auf die GPU ausgelagert wird, eher nett anzuschauen, bringt den Spieler aber nicht weiter, wirkt oft aufgesetzt. Wenn aber Physik a la Cellfactor ins Spiel kommt, wird's interessanter, dazu die ganzen KI-Berechnungen usw.
Grundsätzlich finde ich die den Ansatz Aufgaben umzudelegieren ja auch hervorragend! So kann ich beispielsweise auf schlechtem Unterbau HD genießen, weil die Graka der CPU viele Berechnungen abnimmt.

Es kommt darauf an, die Berechnungen SINNVOLL zwischen den Recheneinheiten zu verteilen - und zwar dahin, wo Rescourcen frei sind. Dabei ist es auch vollkommen egal, wie effektiv die Einheit die Daten verarbeiten kann. Eine von freien Rescourcen durchgeführte ineffektive "vonhintendurchdieBrustinsAuge"-Berechnung ist immernoch besser als keine Berechnung, weil die geeignete Einehit ausgelastet ist, während an anderer Stelle Däumchen gedreht wird.

Nur halte ich den Ansatz von GrakaPhysik aus den genannten Gründen für wenig sinnvoll und zielführend.

Stebs
2009-06-05, 14:59:57
Wieso will man eigentlich überhaupt Physik mit der Graka berechnen? Weil moderne GPUs für Physik effektiver sind.
Die wenigen GPU-Physik Spiele zeigen ja schon dass diese neuen zusätzlichen Physik-Effekte nicht nur etwas aufwendiger als bisher sind, sondern dann gleich brutal aufwendiger.
Somit würde man dann ganz schnell die sich bis dahin langweilenden 1-3 zusätzlichen Cores dermaßen belasten dass die CPU also von nicht ausgelastet gleich zum Flaschenhals werden würde. Natürlich würde das deutlich einbrechende fps bedeuten.
Nimmt man nun eine schon 100% ausgelastete GPU für Physik, werden die fps natürlich auch sinken, dank insgesamt höherer Effektivität aber meistens weniger als im ersten Beispiel. Dazu kommt dass die Leistungssteigerung bei den verwendeten GPUs deutlich schneller steigt als bei den CPUs.

Idealerweise würde man natürlich die Last gleichmäßig auf und CPU verteilen, in der Praxis wird das wohl ziemlich schwierig sein.
EDIT: Ups, etwas spät geantwortet ;)
Eine von freien Rescourcen durchgeführte ineffektive "vonhintendurchdieBrustinsAuge"-Berechnung ist immernoch besser als keine Berechnung, weil die geeignete Einehit ausgelastet istNajaa, in Games geht es ja immer um möglichst gleichmäßig hohe fps. Da ist es dann ganz egal ob die CPU teilweise Däumchen dreht während die GPU der Flaschenhals ist, SOLANGE das Resultat schneller ist als mit einer däumchendrehender GPU und der CPU als Flaschenhals.

deekey777
2009-06-05, 15:07:36
3DMark Vantage enthält als Feature-Test die sog. Cloth-Simulation (und dann noch GPU-Partikel). Mit Compute Shader (http://www.abload.de/img/pscsbnul.jpg) wird es möglich sein, bestimmte Postprocessing-Effekte effizienter zu berechnen als mit Pixelshadern. Mit PhysX auf der GPU ist das nicht anders. Wenn man PhysX@GPU als wenig sinnvoll betrachtet, so liegt der Schluss nahe, das alles, was die GPU berechnet, wenig sinnvoll ist.
Das zusätzliche Problem, das PhysX@GPU aktuell (noch) hat, ist, dass es eine Option ist: Wenn man diese aktivert, hat man zusätzliche Effekte. Wäre das nicht der Fall, hätten wir diese Diskussion gar nicht.

Gast
2009-06-05, 15:29:05
Wenn man PhysX@GPU als wenig sinnvoll betrachtet, so liegt der Schluss nahe, das alles, was die GPU berechnet, wenig sinnvoll ist.
Das zusätzliche Problem, das PhysX@GPU aktuell (noch) hat, ist, dass es eine Option ist: Wenn man diese aktivert, hat man zusätzliche Effekte. Wäre das nicht der Fall, hätten wir diese Diskussion gar nicht.
Beitrag #204 nicht gelesen? Ich halte es durchaus für sinnvoll, der GPU andere Aufgaben als nur Grafik zu überlassen!

Aber:
"Irgendwie kann ich da keinen Sinn drin erkennen, zumal die Grakas dank immer höherer Auflösungen der Anzeigegräte (nur native Auflösungen wirklich gut, runterschrauben also ungünstig), immer aufwendigeren Grafikeffekten und vor allem nötiger (dank vieler Details wie ausgeprägte Vegetation) Qualitätsverbesserer (SSAA/AA/AF...) doch schon mit der Anzeige mehr als ausgelastet sind?

Im Gegensatz dazu liegen nur allzuoft ein oder mehrere Kerne der CPU ungenutzt brach, siehe Arma."
(die anderen Beiträge bitte auch lesen!)

Zudem haben wir schon 8 Kern Prozzis, deren Rescourcen ungenutzt bleiben und bald kommen auch noch die 6 Kerner von AMD.
Dabei ist Physik doch hervorragend parallel zu Berechnen und daher gradezu prädestiniert, um auf den ungenutzten Kernen berechnet zu werden!

Wenn man es also schafft, die Physik aus dem Spiel "herauzuextrahieren" (z.Z. aber nur zusätzlicher Effektkram) und sie auf Grakas (alles andere als unbelastet!) berechnen lässt, warum nicht gleich die CPU - egal wie effektiv, s.o. - nutzen?
Oder um es noch deutlicher zu machen: von mir aus können auch gerne unbenutzte CPU Teile zur Berechnung von AA herangezogen werden, während sich die GPU um die Physik kümmert.
Ich finde es sinnbefreit, einer eh schon ausgelasteten Einheit noch mehr Aufgaben zuzuteilen, während an anderer Stelle Rescourcen frei sind.

Gast
2009-06-06, 13:03:18
Najaa, in Games geht es ja immer um möglichst gleichmäßig hohe fps. Da ist es dann ganz egal ob die CPU teilweise Däumchen dreht während die GPU der Flaschenhals ist, SOLANGE das Resultat schneller ist als mit einer däumchendrehender GPU und der CPU als Flaschenhals.
Da sehe ich auch keinen Widerspruch zu meinen Aussagen...
Natürlich ist es am schönsten, wenn die Aufgabenverteilung hoch dynamisch geregelt wird.

Einfaches Beispiel:

a) ungenutzte Kerne, ausgelastete Graka, keine Partikeleffekte, fps ok

b) ungenutzte Kerne, überlastete Graka, viele Partikeleffekte, fps weniger, evtl. sogar ruckeln

c) ausgelastete CPU, ausgelastete Graka, wenig/mittlere Partikeleffekte, fps ok

Was würdest du wählen?

Gast
2009-06-06, 13:45:51
Einfaches Beispiel:

a) ungenutzte Kerne, ausgelastete Graka, keine Partikeleffekte, fps ok

b) ungenutzte Kerne, überlastete Graka, viele Partikeleffekte, fps weniger, evtl. sogar ruckeln

c) ausgelastete CPU, ausgelastete Graka, wenig/mittlere Partikeleffekte, fps ok

Was würdest du wählen?
b) teils ausgelastete Kerne, ausgelastete Graka, viele Partikeleffekte, fps ok

Lösung heißt einfach: zb. Teure unnütze Blureffekte ausschalten und schon habe ich die nötigen 20% freie Leistun für Physik.

=Floi=
2009-06-06, 14:35:10
wenn die grafikkarte eben etwas anderes besser rechnen kann, dann sollte man es dort machen, denn physik und ki etc. sind auf der grafikkarte gut aufgehoben und bei der ki kann man auch so simple sachen wie einen sammler (c&c) aufbessern und jede einheit wird klüger.
es scheitert in spielen auch jetzt noch an nicht übertriebenen partikeleffekten und es ist einfach schade, dass man sich hier teilweise nich bewegt.

Gast
2009-06-06, 15:09:33
Blurfilter, die minderwertige Texturfilterung oder Shaderflimmern kaschieren sind leider angesagter als endlich mal ein Fortschritt im Bereich Physikeffekte.

Gast
2009-06-06, 15:48:21
wenn die grafikkarte eben etwas anderes besser rechnen kann, dann sollte man es dort machen, denn physik und ki etc. sind auf der grafikkarte gut aufgehoben und bei der ki kann man auch so simple sachen wie einen sammler (c&c) aufbessern und jede einheit wird klüger.
es scheitert in spielen auch jetzt noch an nicht übertriebenen partikeleffekten und es ist einfach schade, dass man sich hier teilweise nich bewegt.

Konsequent zu Ende gedacht bedeutet das (bedeutungsschwangere Stimme aufleg) das Ende des PC als Spielesystem - zumindest in der bekannten Form.

Aus Spielersicht wäre es dann doch viel sinnvoller, die CPU deutlich zu verkleinern, da sie für viele aufwendige Berechnungen von Spielen eh ungeeignet ist. Stattdessen sollte man auf MultiGPU-Systeme setzen mit kleiner CPU setzen. Der Core i14 besteht dann aus 4 CPU- und 10 GPU-Kernen oder so ähnlich.
Naja, das ist ja auch keine neue Idee... (siehe Graka/GPU-Cluster)

=Floi=
2009-06-06, 16:30:33
1. man hat die rechenleistung und 2. kann man sie bei der ki auch mal für etwas sinnvolles nützen. man kann die cpu sicherlich trotzdem noch ausreichend auslasten, nur so bekomme ich zusätlich noch verbesserungen und die cpu ist in ihrer sache ja relativ begrenzt. wenn ich da an c&c oder andere games denke, dann spielt da oft die maximale anzahl der einheiten eine rolle. Stell dir in c&c bots vor die wie in crysis oder wie in ut3 sind. komplett mit animationen und ihrer eigenen ki würden sie sich autark verhalten. ich müsste nur noch sagen greife das an und sie würden dann von selbst angreifen etc.
es wird sicherlich zu mgpu hinauslaufen, aber eine starke cpu mit vielen kernen wird noch immer gebraucht und wird sicherlich noch immer nötig sein für maximale detailliebe. die cpu power ist einfach im vergleich viel zu gering und deshalb sollte man über alles froh sein, das man auslagern kann.