PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - von wegen alte Graka reicht aus für PhysX


mapel110
2011-04-05, 12:11:55
Cards Performance
GTX 580 + 8600 GTS 30.3 fps
GTX 580 49.7 fps
GTX 580 + GTX 580 57.5 fps
GTX 580 + GTX 550 Ti 56.6 fps
GTX 580 + GTX 560 Ti 55.3 fps

http://www.linustechtips.com/ltt-videos/dedicated-physx-card-experiment-how-powerful-does-it-have-to-be-linus-tech-tips

Also besser weg mit den alten Karten, wenn eine neue Generation gekauft wird.

Undertaker
2011-04-05, 12:18:31
Die 8600GTS ist natürlich auch schon sehr alt und war auch damals keine Rakete. Ein paar Modelle dazwischen wären noch ganz interessant gewesen, z.B. galt lange die GT240 als perfekte PhysX Karte.

N0Thing
2011-04-05, 12:22:07
Das vermisse ich schon seit langer Zeit. Ein Test mit den unterschiedlichsten Kombinationen an Grafikkarten bei Verwendung von GPU-PhysX.

Ich kann aber verstehen, daß sich kaum eine Redaktion diesen Stress antun will, wenn es keine 20 Spiele gibt, für die so ein Test relevant ist und sich damit auch das Interesse der Leser an solch einem Test in Grenzen hält.

Immerhin hat man durch den Test von linustechtips nun eine Ahnung, wie sich die kleineren Karten der GTX5xx Reihe bei Mafia 2 schlagen. :)

san.salvador
2011-04-05, 12:29:42
http://www.linustechtips.com/ltt-videos/dedicated-physx-card-experiment-how-powerful-does-it-have-to-be-linus-tech-tips

Also besser weg mit den alten Karten, wenn eine neue Generation gekauft wird.
550 ist schneller als eine 560? Wut?

AnarchX
2011-04-05, 12:31:29
550 ist schneller als eine 560? Wut?
PhysX nutzt wohl nicht alle ALUs, sodass der höhere Takt der 550 ausschlaggebend ist. Die 580 ist dann wohl wieder etwas schneller, wegen dem anderen ALU-Aufbau.

Alternativ halt ein Messfehler...

Spasstiger
2011-04-05, 14:17:51
Im NV-Forum wurde mal für die PhysX-Zusatzkarte eine Rechenleistung empfohlen, die mindestens der Hälfte der Hauptkarte entspricht. Im Fall der GTX 580 wäre also eine GTX 460 aufwärts als PhysX-Zusatzkarte empfehlenswert.

Hugo78
2011-04-05, 16:18:26
Mit Blick auf die Ergebnisse und das er hier explizit immer die 2.Karte als reinen Beschleuniger festlegt, frage ich mich grad.
Sollte man im Treiber nicht eh besser "Automatische Auswahl" stehen lassen? Wird so die Last nicht besser auf beide karten verteilt?

Und wie würde ein SLI mit seinen beiden 580er laufen, da sollte er doch deutlich über 70-80 Fps kommen, wenn eine allein für knapp 50 Fps reicht.

derguru
2011-04-05, 16:45:21
Und wie würde ein SLI mit seinen beiden 580er laufen, da sollte er doch deutlich über 70-80 Fps kommen, wenn eine allein für knapp 50 Fps reicht.

eben nicht.auf automatische auswahl würde ich nie lassen.

http://ht4u.net//news2/news_images/mafia2_benches_high.png

pest
2011-04-05, 19:51:02
Mafia2 ist ein denkbar schlechtes Beispiel, da es auch innerhalb einer Grafikkartenreihe nur minimale Zuwächse gibt.

Wäre aber aber interessant zu erfahren warum dies so ist, und ob dies bei der Kombination von Grafik+massiv PhysX immer ähnlich ist.

Schaffe89
2011-04-09, 13:34:48
Es ist teilweise sogar kontraprofuktiv eine relativ alte Graka für Physx Berechnungen dazuzustecken.
Für mich macht das effektiv eigentlich nur sinn wenn man über nen Treibertweak ne Radeon mit der Physx-Geforce betreibt.

y33H@
2011-04-09, 19:25:43
Eine flotte Geforce mit einer PhysX-Geforce betreiben ist damit sinnlos? ;D

IC3M@N FX
2011-04-11, 10:00:47
Ich überlege mir eine PhysX Karte zu kaufen welche Karte wäre am sinnvollsten? 550 Ti oder was anderes?

Palpatin
2011-04-11, 11:08:46
Ich überlege mir eine PhysX Karte zu kaufen welche Karte wäre am sinnvollsten? 550 Ti oder was anderes?
Eigentlich müsste die kleine 768 460er schneller sein und die wär auch günstiger.

Knuddelbearli
2011-04-11, 13:00:53
da du eine 580 hast und die physik karte minimum die halbe leistung der grossen haben soll mindestens eine 460er

Schaffe89
2011-04-11, 19:05:26
Eine flotte Geforce mit einer PhysX-Geforce betreiben ist damit sinnlos?

Nein,aber fast unsinnig. Zudem sprach ich von Effektivität.
Und wenn man + 10 bis 20% FPS hat und dafür extra ne Karte dazubaut, obwohl die Physx Leistung der GTX580 völlig ausreicht dann ist das wohl nicht effektiv. ;D

Radeonator
2011-04-13, 11:46:43
Scheinbar ist AMD ja mit HAVOK nicht wirklich groß am Start und PhysX setzt sich durch. Wie ist die Performance wenn man AMD + PhysX Karte nimmt? Gibt es da benchmarks?

boxleitnerb
2011-04-13, 11:57:25
Havok gehört Intel. AMD unterstützt Bullet (nur die Entwickler nicht so recht, jedenfalls in Spielen - Ausnahmen bestätigen die Regel).

LovesuckZ
2011-04-13, 12:00:50
Mafia2 ist ein denkbar schlechtes Beispiel, da es auch innerhalb einer Grafikkartenreihe nur minimale Zuwächse gibt.


Es ist deswegen ein schlechtes Beispiel, weil die Cloth-Simulation vollständig auf der CPU läuft. Im grunde ist es ein schöner SingleCore-Leistungstest.

Wenn man die Auswirkungen für GPU-PhysX wirklich sehen will, sollte man Dark Void nehmen.

Radeonator
2011-04-13, 12:09:34
Havok gehört Intel. AMD unterstützt Bullet (nur die Entwickler nicht so recht, jedenfalls in Spielen - Ausnahmen bestätigen die Regel).

OK, beantwortet aber nicht meine Frage...

LovesuckZ
2011-04-13, 12:33:29
OK, beantwortet aber nicht meine Frage...

Der Speed ist gleich. Gibt keine Unterschiede.

/edit: Von einer Ageia-Karte sollte man abstand nehmen. Die werden weder gepflegt noch ist es ohne Hack möglich sie mit AMD-Karten zu verwenden.

Popeljoe
2011-04-13, 20:29:39
Anscheinend wollt ihr Mr. Lollman jetzt den nächsten Benchmarkmarathon aufzwingen... :D

Interessant wäre in dem Zusammenhang sicherlich auch, welche Karte bei welchem Verbrauch welche FPS bringt. Ich habe manchmal so meine Zweifel, ob für einige nette Gimmicks nicht der Stromverbrauch exorbitant ansteigt...

ROXY
2011-05-20, 03:23:04
Also besser weg mit den alten Karten, wenn eine neue Generation gekauft wird.

wer verwendet denn bitte eine extra karte für diese popeligen physix effekte?
was mit physix möglich wäre laut NVIDIA (ist sehr toll) und was die daus der spieleindustrie daraus machen ist wie tag und nacht.

bis die affen mit physix umgehen können dauert es noch ~10 jahre.
bislang hauen mich nur die demos vom hocker ... aber keine einzige ingame spieleszene. keine einzige.

liegt warscheinlich an der multiplattform spieleindustrie - da wird man sich nicht auf physix versteifen (leider!)

auch das nächste tomb raider (wo man mit physix tolle dinge zaubern könnte...) wird wohl nur ein traum bleiben.

Dural
2011-05-21, 18:37:52
naja eine 8800gts hat gerade mal 32SP... das ist die Leistung eines ION Chipsatzes...

versteh immer wider nicht wieso es Leute gibt die angeblich viel Zeit in solche komplett sinnlose Benchmarks Inverstieren

der Test mit einer 240GT und gts450 wäre deutlich aufschlussreicher!


Edit:

der typ betreibt die 8600gts doch nicht wirklich in einem 4x Slot?!? :freak: ;D

boxleitnerb
2011-05-21, 18:49:04
naja eine 8800gts hat gerade mal 32SP... das ist die Leistung eines ION Chipsatzes...

Quark. 112 sind es.

Raff
2011-05-21, 18:54:51
Eigentlich sind's 96 (wenn die GTS-640 gemeint ist). ;D 32 hat eine 8600 GT/S, 112 die 8800 GT.

MfG,
Raff

G 80
2011-05-21, 19:02:14
Nicht zwangsläufig: Es gab 4 88GTS: G80 mit 96 SP 320/640 MB, die bekannte G92 512 MB und kurz bevor die 88 GT kam gabs noch eine G80 112 SP 640 MB 88GTS.

http://www.google.at/search?q=8800+gts+112+sp&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:de:official&client=firefox-a

boxleitnerb
2011-05-21, 19:03:10
Ich dachte 128 bei der 512er GTS?
http://www.computerbase.de/artikel/grafikkarten/2007/test-nvidia-geforce-8800-gts-512/2/#abschnitt_technische_daten

G 80
2011-05-21, 19:07:18
Jap das ist die G92, ich bezog mich auf (G80) GTS 640 = immer 96 SP.

Raff
2011-05-21, 19:08:20
[...] eine G80 112 SP 640 MB 88GTS.

Das ist aber ein Exot und AFAIR kein NV-, sondern ein Partnerprodukt.

Und yep, die 8800 GTS/512 (G92) hat 128 ALUs.

MfG,
Raff

labecula
2011-05-21, 19:15:16
Das ist aber ein Exot und AFAIR kein NV-, sondern ein Partnerprodukt.

Und yep, die 8800 GTS/512 (G92) hat 128 ALUs.

MfG,
Raff

Also ein wirlkicher Exot war sie nicht, nur eben relativ kurz auf dem Markt und daher eine vernachlässigbare Seltenheit :-)

dllfreak2001
2011-05-26, 12:52:58
Ich kann mir bis heute keinen Reim auf die Skalierung von PhysX machen.
Ich meine ich hätte kurz nach dem Release von Mirrors Edge relativ flüssig selbiges Spiel durchgespielt und zwar mit einer Geforce 9600GT @ 1280X1024 ohne AA sonst alles Maximum... heute mit eine Geforce 260 GTX Sonic habe ich an eingen Stellen heftige Slowdowns (auch eine Art Laderuckler) und zwar auf beiden Karten gleichermaßen. Dabei ist der Performance Vorteil der 260GTX auf paar seltene Stellen begrenzt in denen die Max-FPS deutlich höher liegen.

Hat Nvidia etwas an den Treibern in diesem Bezug verändert?

ROXY
2011-06-05, 17:32:33
die limitieren absichtlich per treiber damit sich einige eben 2 karten kaufen.

y33H@
2011-06-05, 17:37:38
Beweis?

Raff
2011-06-05, 18:27:56
Nvidia ist böse. Das genügt. Und sie bremsen alte Grafikkarten per Treiber aus, damit man sich die neue Generation kauft. :ulol:

MfG,
Raff

Peter Gräber
2011-06-05, 19:12:26
Ich kann mir bis heute keinen Reim auf die Skalierung von PhysX machen.
Ich meine ich hätte kurz nach dem Release von Mirrors Edge relativ flüssig selbiges Spiel durchgespielt und zwar mit einer Geforce 9600GT @ 1280X1024 ohne AA sonst alles Maximum... heute mit eine Geforce 260 GTX Sonic habe ich an eingen Stellen heftige Slowdowns (auch eine Art Laderuckler) und zwar auf beiden Karten gleichermaßen. Dabei ist der Performance Vorteil der 260GTX auf paar seltene Stellen begrenzt in denen die Max-FPS deutlich höher liegen.

Hat Nvidia etwas an den Treibern in diesem Bezug verändert?

Es ist mir nichts bekannt, dass NVIDIA was geändert hat, aber dein Hinweis ist interessant und berechtigt. Du solltest mit einer GTX 260 unter 1680er Auflösung und inkl. 4xAA eigentlich unter Mirrors Edge überhaupt keine Probleme haben es flüssig zu spielen (natürlich inkl. PhysX).

Wir sind im Benchmark seinerzeit mit einer GTS 250 unter 1920, 4xAA und PhysX auf 55 Frames gelangt.
http://ht4u.net/reviews/2009/nvidia_geforce_gts250/index8.php

Hast du noch Zugriff auf deine alte Karte und kannst prüfen ob es mit der weiterhin flüssig läuft?

y33H@
2011-06-05, 19:47:34
Ich kann Peter nur beipflichten:

http://www.pcgameshardware.de/aid,673785/Mirrors-Edge-Physx-Effekte-im-Benchmark-Test/Action-Spiel/Test/?page=2

DeadMeat
2011-06-05, 20:11:03
Wenn es doch nur mehr sinnvolle Einbindung in spielen gäbe würde es für mich sogar zu einem Grund werden NV Karten zu kaufen. Wobei ich den Vorteil einer extra Karte größer eingeschätzt hätte. (zumindest bei einer Highend+PX Karte)

dllfreak2001
2011-06-05, 20:21:45
Es ist mir nichts bekannt, dass NVIDIA was geändert hat, aber dein Hinweis ist interessant und berechtigt. Du solltest mit einer GTX 260 unter 1680er Auflösung und inkl. 4xAA eigentlich unter Mirrors Edge überhaupt keine Probleme haben es flüssig zu spielen (natürlich inkl. PhysX).

Wir sind im Benchmark seinerzeit mit einer GTS 250 unter 1920, 4xAA und PhysX auf 55 Frames gelangt.
http://ht4u.net/reviews/2009/nvidia_geforce_gts250/index8.php

Hast du noch Zugriff auf deine alte Karte und kannst prüfen ob es mit der weiterhin flüssig läuft?

Mit der alten 9600gt sieht es jetzt genauso aus. Allerdings hatte ich bis jetzt das FPS-Limit im Spiel auf 75Hz gesetzt (mein Monitor kann diese Bildwiederholfrequenz ausgeben). Setze ich das wieder auf 60Hz runter ist habe ich an einigen Stellen etwas schwächere "Laderuckler" aber der Slowdown ist trotzdem derbe. An meiner CPU liegt es allen Anschein nach nicht, die habe ich mal probeweise Übertaktet.

1. Adrenalin Kontrollpunkt B
2. Pirandello Kruger Kontrollpunkt A

Bei beiden Stationen ist es am Anfang gleich recht heftig...

Wie ich aber sehe gibt es heute neue Treiber die die CPU ein wenig besser schonen soll, die sollte ich mir mal morgen reinziehen.

ShadowXX
2011-06-05, 23:05:47
Mit der alten 9600gt sieht es jetzt genauso aus. Allerdings hatte ich bis jetzt das FPS-Limit im Spiel auf 75Hz gesetzt (mein Monitor kann diese Bildwiederholfrequenz ausgeben). Setze ich das wieder auf 60Hz runter ist habe ich an einigen Stellen etwas schwächere "Laderuckler" aber der Slowdown ist trotzdem derbe. An meiner CPU liegt es allen Anschein nach nicht, die habe ich mal probeweise Übertaktet.

1. Adrenalin Kontrollpunkt B
2. Pirandello Kruger Kontrollpunkt A

Bei beiden Stationen ist es am Anfang gleich recht heftig...

Wie ich aber sehe gibt es heute neue Treiber die die CPU ein wenig besser schonen soll, die sollte ich mir mal morgen reinziehen.
Ich würd eher mal nachprüfen ob PhysX auch wirklich per HW gerechnet wird....bei mir ist es nämlich z.B. so das ich PhysX bei meiner GTX 580 per HW nur hin bekomme wenn ich den Treiber mit dem ATI-Fix (also das man ne nV als PhysX-Beschleuniger neben einer ATI Hauptkarte benutzen kann) modifiziere.

dllfreak2001
2011-06-06, 10:18:44
Ist definitiv an, wenn ich PhysX im Treiber der CPU zuweise ist das Spiel völlig unspielbar.

Dural
2011-06-06, 12:28:15
natürlich meinte ich die 8600GTS... logisch eigentlich... :rolleyes:

32SP sind lächerlich!


Eine 8800xxx reicht natürlich locker aus für alles was derzeit mit GPU PhysX läuft!

deekey777
2011-06-06, 12:42:40
Es gibt keine 8600GTS, sondern nur 8600GT oder 8600.

Schwarzmetaller
2011-06-06, 12:50:44
Es gibt keine 8600GTS, sondern nur 8600GT oder 8600.
Ähemn, nein. (http://www.nvidia.de/object/geforce_8600_de.html)

deekey777
2011-06-06, 12:55:01
Ähemn, nein. (http://www.nvidia.de/object/geforce_8600_de.html)
Dann vergessen wir, was ich gesagt habe.
:weg:

dllfreak2001
2011-06-06, 20:04:42
Der neue Treiber scheint nichts zu verbessern. Vielleicht ist es nach eine Neuinstallation des OS besser.

Hübie
2011-06-07, 07:39:35
Wozu dieser Aufwand? Meiner Meinung nach ist PhysX doch sowie so schon so gut wie gestorben. Das kann man als Dreingabe interpretieren aber mehr auch nicht. Die Spiele die mir in den letzten Jahren unterkamen pfeifen zu 95% auf PhysX.

Also wozu dieser Unsinn...??

dllfreak2001
2011-06-07, 10:46:25
Hey, wenn man schon eine Geforce hat dann möchte man es auch nutzen.

Hübie
2011-06-08, 02:03:28
Das sag nicht mir sondern den Hersteller/Entwickler diverser Spiele. PhysX wird wohl nie richtig kommen. Finde ich persönlich auch nicht schlimm da AMD-Kunden sich ja z.B. bei Mafia II verarscht fühlten - zu Recht, denn die Leistung der Karten wäre erwiesenermaßen vorhanden.

LG Hübie :smile:

-=Popeye=-
2011-06-08, 02:45:09
Nicht nur bei Mafia2, Batman: Arkham Asylum, Mirror's Edge zB werden optisch auch durch GPU-PhysX sehr aufgewertet wie ich finde, Alice: Madness Returns ist das nächste Spiel wo nVidia Kunden mehr bekommen als ATI/AMD Kunden.

Hübie
2011-06-08, 04:13:12
Das ist es ja: mit anderen Mitteln könnte man es allen Kunden zugänglich machen. Klar ists schicker mit PhysX aber fair ists eben nicht... und hey das waren jetzt 1..2..3... GANZE vier Spiele :O
Die Liste auf nvidia.com liest sich traurig.

=Floi=
2011-06-08, 06:01:57
zz spüren wir eben noch die auswirkungen der krise imho. damals wurden die mittel für den support zurückgestellt und ein selbstläufer ist es auch noch nicht. imho gibt es schlimmeres. einerseits ist es schade und andererseits muß man froh sein von den übertriebenen nv implementierungen verschont zu werden.

TobiWahnKenobi
2011-06-08, 08:07:00
ich bin echt froh, dass ich die bildschirmausgänge meiner zweitkarte im alltag benötige, denn die physX-performance in spielen ist nicht immer das gelbe vom ei und allein sicher keine daseinsberechtigung.

dazu dann noch das getüftel.. physX auf karte A, auf karte B, auf automatik.. wenn man mit der testerei durch ist, hat man keine böcke mehr zu spielen. ist ein bisschen wie stereoskopie.. nice 2 have.. mal nett zu sehen aber man fummelt halt viel mit den einstellungen rum und verplempert damit zeit.

btw, meine "physX"-karte ist seit etwas über einem jahr eine GT240. das hätte anno dazumal ne ausreichende beschleunigerkarte sein sollen.. wenn es nicht mannigfaltige, völlig unterschiedlich getaktete modelle gegeben hätte. die gainward die ich mir reingeschraubt habe, war irgendwie "extra"müde.. an die taktraten kann ich mich grad nicht erinnern, aber ich weiss noch, dass ich recht zeitintensiv mit diversen programmen die grenzen abgesteckt und ihr dann leicht höhere frequenzen per bios spendiert habe.. *kopfkratz* ich werde alt..


(..)

mfg
tobi

Hugo78
2011-06-08, 11:38:59
PhysX 3.0 -SDK
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/juni/physx-3.0-sdk-bringt-besseren-multi-core-support/

=Floi=
2011-06-09, 06:56:38
eigentlich falscher thread ;)

da hat nv wohl selbst eingesehen, dass sie sich öffnen und physx überarbeiten müssen. viel interessanter finde ich die aufteilung in einzelne module, weil man so auch support für spezielle hardware (konsolen, ppc, arm cpus, amd bulldozer prozessoren, amd gps und intel larrabee) bieten kann.
ich bin gespannt, wie stark nv die rechenleistung der zukünftigen gps steigern wird, weil man ja JETZT auch die konkurrenz nicht mehr fürchtet.

Hübie
2011-06-09, 07:03:09
Ich überdenke auch gerade meine Aussage bzgl. des Sterbens von PhysX. Interessant ist auch endlich eingeführtes multithreading.
Eines bleibt aber: GPU-PhysX=nVidia only, ODER???

mapel110
2011-06-09, 07:04:57
Eines bleibt aber: GPU-PhysX=nVidia only, ODER???
Türlich. Aber durch besseren PhysX-Support bekommen Radeon-User wohl genug von den Effekten über die CPU geliefert.

Hübie
2011-06-09, 07:14:19
Das dürfte aber arg beschnitten zugehen wenn du mich fragst. Nicht aus technischen sondern marketing-Gründen.
Aber selbst im Jahre 2011 haben viele Spiele noch Probleme mit der Kollisionsabfrage - vllt gehts da wenigstens etwas vorran ;)

mapel110
2011-06-09, 07:16:03
Das dürfte aber arg beschnitten zugehen wenn du mich fragst. Nicht aus technischen sondern marketing-Gründen.
Aber selbst im Jahre 2011 haben viele Spiele noch Probleme mit der Kollisionsabfrage - vllt gehts da wenigstens etwas vorran ;)
Ja, Fifa12 soll dafür ja eine neue Engine spendiert bekommen. Bin ich sehr gespannt drauf.

Hübie
2011-06-09, 07:18:57
Momentan machts ja eh den anschein das der Fokus von nVidia mehr auf embedded und GPU-computing liegt denn Grafik und Physik. Dennoch sehr angenehm wie sich die release notes lesen.
Imo war das überfällig.

N0Thing
2011-06-09, 12:12:29
Das dürfte aber arg beschnitten zugehen wenn du mich fragst. Nicht aus technischen sondern marketing-Gründen.

Warum sollte das so sein? War bisher doch auch nicht so.

Black-Scorpion
2011-06-09, 17:42:37
Warum sollte das so sein? War bisher doch auch nicht so.
Nein?

Die Unterschiede zwischen GPU und CPU PhysX waren deutlich.

Knuddelbearli
2011-06-09, 22:54:17
spiele grade endlich mal dead space und die physik dort ist einfach nur lächerlich da wäre keien physik 100 mal besser ( ja hat jetzt nix mit phyisX direkt zu tun aber gibt auch gengu PhysX die sich so verhalten )

Hugo78
2011-06-09, 23:30:27
@Knuddelbearli

Hä? :freak:

edit:
Damit das nicht ganz offtopic wird.
Ich hoffe das BIS das neue PhysX 3.0 SDK für ArmA 3 nutzen wird.
http://www.youtube.com/watch?v=V3YHbcYK82E

Man sieht im Video schon PhysX ( ab 4.min), wobei BIS PhysX schon in ArmA 1, bzw VBS2 ausprobiert hatte.

N0Thing
2011-06-10, 14:54:04
Nein?

Die Unterschiede zwischen GPU und CPU PhysX waren deutlich.

Ja und? Lag trotzdem nicht am Marketing und die non-GPU-Version ist nicht beschnitten, sondern das, was für die Konsolen möglich ist.
Die Effekte, die über die GPU berechnet werden, sind ja immer nur oben drauf gesetzt.




Ich hoffe das BIS das neue PhysX 3.0 SDK für ArmA 3 nutzen wird.
http://www.youtube.com/watch?v=V3YHbcYK82E

Man sieht im Video schon PhysX ( ab 4.min), wobei BIS PhysX schon in ArmA 1, bzw VBS2 ausprobiert hatte.

Würde mich auch interessieren, würde aber vermuten, daß man weiterhin an der bekannten Version 2 festhält und damit erste Erfahrungen sammelt.
Bin vor allem gespannt, ob mit der Version 3 deutlich schönere Flüssigkeitssimulationen möglich werden, gerade die fand ich bisher bei PhysX eher enttäuschend.

Generell hoffe ich, daß zum Release des neuen Alice ein paar Benchmarks bezüglich GPU-PhysX erstellt werden.

LovesuckZ
2011-06-10, 14:57:29
Flüssigkeit bedeutet verdammt viele und vorallem kleine Partikel. Glaube ich nicht, dass es wirklich schöner wird.

Imo muss man es auch nur im direkten Kontext einbinden. Statt also die Flüssigkeit als "Wasser" zu bezeichnen sollte man es Öl oder so nennen. Es zählt eben einzig Immersion.

N0Thing
2011-06-10, 16:11:15
Ja, den Eindruck habe ich auch. Die "Flüssigkeiten" bestehen aus zu wenigen, zu großen Kügelchen, um damit einen realistischen Wassereffekt erreichen zu können.
Ist natürlich verständlich, wenn man mit der aktuellen Hardware noch flüssige Frameraten erreichen will.
Vielleicht sind mit dem neuen SDK auch neue Algorithmen möglich, die eine Fluidsimulation mit weniger Rechenaufwand ermöglicht. Das alte SDK basierte doch noch auf der Software von Ageia, oder?

AnarchX
2011-06-25, 14:41:18
Bei Alice kann selbst eine 9800 GT einer GTX 580 unter die Arme greifen: http://physxinfo.com/news/5921/alice-madness-returns-physx-benchmarks-roundup/

...+12,5%. Mit einer GTS 250 sind es schon +50%. Ansonsten fährt man wohl mit einer GTS 450 gut.