PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GT200: Versteckte Stärke?


Gast
2008-06-19, 14:04:43
Da die 9800 GTX+ wohl vor der Tür steht und (angeblich) einen Performanceboost bringen soll, frägt man sich natürlich nach der praktischen Daseinsberechtigung der GTX260 (evtl. auch 280): Deren Stärken kommen derzeit erst in extremen Qualitätseinstellungen zum Vorschein.

Mit Verwunderung und Neugier bin ich dann darauf gestoßen:
Use of the PhysX driver, 3 DMark Vantage's score was boosted to 7,000 to 8,000 degrees, Unreal Tournament 3 (PhysX enabled)弱からframe rate of 30 fps to 70 fps ultra improve.
Quelle: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6597313&postcount=632

Evtl. werden mittelfristig die GPGPU Funktionen dazu führen, dass sich die GTX260 & 280 Karten sehr viel deutlicher absetzen werden und dadurch dann einen relativ großen Vorsprung ausbauen.

Was glaubt Ihr?

dr_mordio
2008-06-19, 14:35:28
nein das glaube ich nicht.
denn auch die neuen ATIs können physikerechnungen und NV erlaubt ATI sogar PhysX zu nutzen.
das heißt die GTX280 wird sich nicht weiter absetzen... höchstens zu den uralt modellen beider IHVs

MfG
Alex

Anarchy-HWLUXX
2008-06-19, 14:43:40
denn auch die neuen ATIs können physikerechnungen und NV erlaubt ATI sogar PhysX zu nutzen.

Nur will ATi net mitmachen und geht lieber mit Havoc/Intel ins Physik-Bett ... jedenfalls nach den letzten meldungen.

OBrian
2008-06-19, 14:53:46
Man könnte auch spekulieren, daß der Vorteil dadurch für Ati prozentual höher ausfällt, da die ja mehr Gewicht auf Shaderpower legen, was leider bei normalen Spielen nicht immer so viel bringt wie z.B. starke Textureinheiten, aber an der Stelle würde die Shaderpower mal Früchte tragen.

Aber im Endeffekt wird es eine Frage der Implementierung auf Softwareseite sein. GPUs sind nunmal immer noch sehr speziell, die eine Rechnung läuft außergewöhnlich schnell, die nächste total langsam. Wahrscheinlich wird es noch stärker "Ati-Spiele" und Nvidia-Spiele" geben, je nachdem, wessen Entwicklungstools verwendet wurden.

Gast
2008-06-19, 16:19:36
vieleicht läuft das über die 30 DP Shader die ja sonst nichts zu tun haben?

davidzo
2008-06-19, 16:21:06
ageias technologie war praktisch nichts mehr wert, weil sich havok den überwiegenden teil der physikbeinhaltenden spiele gekrallt hat. das geld hat nvidia in erster linie gezahlt um die entwickler zu bekommen und eben um besser gegen intel dastehen zu können.
nun versucht man ati ins boot zu holen und damit von der herstellerweite quasi ein monopol zu bekommen, was schließlich auch auswirkungen auf die softwareentwicklung hätte. Damit würden sie wenigstens ein bisschen für das bekommen, was sie eingekauft haben.
AMD weiß das genau und spielt ein gefährliches Spiel mit Intel um PhysX aus dem spiel zu bringen.

Das klügste wäre in der Tat von AMD inoffiziell schoneinmal an PhysX Treibern zu basteln, währenddessen Intel aber vorzugakueln man wolle ganz auf Havok stzen. sobald man dann die Havoklizenz von intel hat, kommt man hinterm berg hervor mit PhysX ist man der einzige Vendor, der beide führenden Physikengine beschleunigen kann.
Nvidia wird sich nämlich in keinem Fall mit Havok beschäftigen, ebenso wird intel versuchen PhysX als APi totzuschweigen und Havok zu pushen.

Wenn AMD es richtig gemein anstellt sind sie nachher der Gewinner.

Coda
2008-06-19, 19:25:25
Einen PhysX-Treiber ohne Zugang zum Source von Ageia zu basteln dürft sehr schwierig wenn nicht unmöglich sein.

Gast
2008-06-19, 19:31:18
Einen PhysX-Treiber ohne Zugang zum Source von Ageia zu basteln dürft sehr schwierig wenn nicht unmöglich sein.


Die Source braucht man dazu nicht, höchstens die API-Spezifikation.

Gast
2008-06-19, 19:40:10
Die Source braucht man dazu nicht, höchstens die API-Spezifikation.
Coda weiß wohl wovon er redet.
Mit den Informationen der öffentlichen Dokumentation der API will/kann man keine wirkliche Implementierung vornehmen.

Super Grobi
2008-06-19, 19:46:39
Was soll den eine "9800 GTX+" sein? Das ganze hört sich schonmal nach üblen 256bit SI und 512MB Ram an. Na da bin ich mal gespannt, was das sein soll und was das "+" ausmacht.

SG

AnarchX
2008-06-19, 19:49:26
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6596502#post6596502

Gast
2008-06-19, 23:04:39
Evtl. werden mittelfristig die GPGPU Funktionen dazu führen, dass sich die GTX260 & 280 Karten sehr viel deutlicher absetzen werden und dadurch dann einen relativ großen Vorsprung ausbauen.


im 3dmark ja, in spielen nein.

dargo
2008-06-19, 23:49:13
im 3dmark ja, in spielen nein.
Da oben steht auch was von UT3. :)

Gast
2008-06-19, 23:55:04
Da oben steht auch was von UT3. :)

nur wird das + dort deutlich geringer ausfallen ;)

AnarchX
2008-06-19, 23:57:35
nur wird das + dort deutlich geringer ausfallen ;)

30 auf 70FPS bei einer 9800GTX+, was das wohl bei der GTX 280 bedeutet? ;)

dargo
2008-06-19, 23:57:48
nur wird das + dort deutlich geringer ausfallen ;)
Gut, wenn für dich von 30 auf 70fps nichts ist.

Edit:
Was mich an den ganzen Physikspielereien von GPUs interessieren würde - wie soll man diese zukünftig noch vergleichen? Um den größten Vorteil bei Physikberechnungen zu zeigen muss ich doch ein CPU-Limit erzeugen. Dann kann ich doch aber nicht gleichzeitig die Rechenpower der GPU außerhalb von Physik zeigen (dazu bräuchte man wieder GPU-Limits). Oder spinne ich jetzt hier rum? :|

AnarchX
2008-06-20, 00:20:25
Vielleicht PhysX-Schalter im Treiber?

dargo
2008-06-20, 00:21:28
Vielleicht PhysX-Schalter im Treiber?
Achso, es gibt einen Schalter im Treiber? Ok, das macht Sinn. :)

Edit:
Moment, etwas überlegt... :D
So meinte ich das nicht. Man stelle sich eine cpu-limitierte Szene durch Physikspielereien mit zb. 30fps vor. Ich mache also den Physikschalter im Treiber an um die Power der GPU in Bezug auf Physikberechnungen zu zeigen. Ich kann aber nicht gleichzeitig die gesamte Rechenpower der GPU zeigen, denn dafür brauche ich wieder GPU-Limits.

Gast
2008-06-20, 00:29:00
Gut, wenn für dich von 30 auf 70fps nichts ist.

Edit:
Was mich an den ganzen Physikspielereien von GPUs interessieren würde - wie soll man diese zukünftig noch vergleichen? Um den größten Vorteil bei Physikberechnungen zu zeigen muss ich doch ein CPU-Limit erzeugen. Dann kann ich doch aber nicht gleichzeitig die Rechenpower der GPU außerhalb von Physik zeigen (dazu bräuchte man wieder GPU-Limits). Oder spinne ich jetzt hier rum? :|


Na hoffentlich kann man die GPU-Physix Beschleunigung deaktiveren, wenns mal nötig ist. In Crysis will man sich ja nicht die FPS vermiesen in dem die GPU noch andere Sachen macht.

Eine genaue Untersuchung, was Physix kostet wird sicher angebracht sein. Klar wenn 60+FPS in einem Game drin sind, warum nicht, aber irgendwie hat das doch einen seltsamen Beigeschmack. Nichts ist umsonst.

dargo
2008-06-20, 00:33:59
Eine genaue Untersuchung, was Physix kostet wird sicher angebracht sein.
Ja, das stimmt. Wenn wir aber das Beispiel von UT3 nehmen - 30 auf 70fps dann finde ich das Ergebnis schon bemerkenswert.

1. Man bräuchte praktisch erstmal keinen Quadcore.
2. Man stelle sich vor die Grafikkarte als reinen Physikbeschleuniger für sagen wir mal ~100€ zu missbrauchen (ein Mobo mit 2 8-16x PCIe-Slots vorrausgesetzt). Würde sich der Performancesprung von UT3 auf alle anderen Games in Zukunft übertragen lassen würde ich solche Investition durchaus für gerechtfertigt halten.

Sonyfreak
2008-06-20, 00:36:54
Ich persönlich fände es am besten, wenn man zur Physikbeschleunigung einfach eine zweite Grafikkarte heranziehen könnte. Dann würde ich mir einfach eine passive 8500GT für ein paar Euros holen, und lass meine "Hauptgrafikkarte" die GPU-Arbeit machen. :)

mfg.

Sonyfreak

dargo
2008-06-20, 00:38:04
Ich persönlich fände es am besten, wenn man zur Physikbeschleunigung einfach eine zweite Grafikkarte heranziehen könnte. Dann würde ich mir einfach eine passive 8500GT für ein paar Euros holen, und lass meine "Hauptgrafikkarte" die GPU-Arbeit machen. :)

Ja, so meinte ich das auch. :)

Gast
2008-06-20, 00:47:57
Ich persönlich fände es am besten, wenn man zur Physikbeschleunigung einfach eine zweite Grafikkarte heranziehen könnte. Dann würde ich mir einfach eine passive 8500GT für ein paar Euros holen, und lass meine "Hauptgrafikkarte" die GPU-Arbeit machen. :)

mfg.

Sonyfreak


Ny mit einer 8500 wirst du da nicht glücklich. Da kannst du auch die paar euro mehr für nen quadcore ausgeben.

Sonyfreak
2008-06-20, 00:49:45
Ny mit einer 8500 wirst du da nicht glücklich. Da kannst du auch die paar euro mehr für nen quadcore ausgeben.Warum? Für solche Physikberechnungen soll eine GPU doch wesentlich besser geeignet sein als ne CPU. Da könnte ich mir schon vorstellen, dass die olle 8500GT einen Quad einfach mal so verputzt. Dazu müsste man sich halt vorher geeignete Benchmarks anschauen, aber momentan ist das spekulieren darüber wohl eher müßig. ^^

mfg.

Sonyfreak

AnarchX
2008-06-20, 00:57:52
Naja, eine 8500GT mit ihren 29GFLOPs dürfte wohl gerade so auf dem Niveau eines 2.4GHz-Dual-Cores liegen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6598553#post6598553
... jedenfalls im 3DMark-Test.

Gast
2008-06-20, 00:59:49
Warum? Für solche Physikberechnungen soll eine GPU doch wesentlich besser geeignet sein als ne CPU. Da könnte ich mir schon vorstellen, dass die olle 8500GT einen Quad einfach mal so verputzt. Dazu müsste man sich halt vorher geeignete Benchmarks anschauen, aber momentan ist das spekulieren darüber wohl eher müßig. ^^

mfg.

Sonyfreak

Das ist vielleicht in der Theorie so aber in der Praxis glaub ich das noch nicht. Das es jetzt eine Schnittstelle gibt mit der man die Grafikkarten für solche Berechnungen missbrauchen kann heisst nicht dass das immer und unter allen Umständen problemlos funktioniert.

Btw gibt es eh einen enormen Unterschied in der arithmetischen Leistung einer 9800GTX und einer 8500GT.

Sonyfreak
2008-06-20, 01:04:08
DIe wenigsten Spiele werden es sich wohl im Moment leisten können, mehr Leistung rein für die Physikberechnungen zu verbrauchen als ein 2,4Ghz Dual-Core liefern kann. Von daher schätze ich mal nicht, dass das ein Problem wäre. Zudem dürfte die 8500GT ja immer noch schneller sein, als die Original-PPU wenn ich den Link richtig interpretiere. (Außerdem hab ich diese Grafikkarte ja auch einfach mal nur so als Hausnummer für irgendeine Grafikkarte des Low End/Unteren Mainstreamsektors genannt, und diese werden ja in Zukunft auch flotter werden.) :)

mfg.

Sonyfreak

Gast
2008-06-20, 15:56:22
Ich persönlich fände es am besten, wenn man zur Physikbeschleunigung einfach eine zweite Grafikkarte heranziehen könnte. Dann würde ich mir einfach eine passive 8500GT für ein paar Euros holen, und lass meine "Hauptgrafikkarte" die GPU-Arbeit machen. :)


kannst du prinzipiell auch machen, der PhysX treiber erlaubt bei mehreren verbauten karten eine für die physikberechnungen zu nehmen.


Warum? Für solche Physikberechnungen soll eine GPU doch wesentlich besser geeignet sein als ne CPU. Da könnte ich mir schon vorstellen, dass die olle 8500GT einen Quad einfach mal so verputzt. Dazu müsste man sich halt vorher geeignete Benchmarks anschauen, aber momentan ist das spekulieren darüber wohl eher müßig. ^^

eine 8500GT bringt dir maximal so viel wie ein einzelner CPU-kern, (in der realität eher weniger), da bist du mit einem quadcore wesentlich besser dran.

wenn du lediglich die paar FLOPs der 8500 einer highendkarte wegnimmst, wirst du wahrscheinlich nichtmal einen unterschied bemerken.

Anarchy-HWLUXX
2008-06-20, 15:58:33
Hört doch mit der 8500er gurke auf ... 8600er haben spürbar mehr power und kosten auch immer weniger ...

Sonyfreak
2008-06-20, 16:25:31
kannst du prinzipiell auch machen, der PhysX treiber erlaubt bei mehreren verbauten karten eine für die physikberechnungen zu nehmen.Ich hab heute schon in nem Fred gelesen, dass sich Leute mit 2 Grafikkarten im Treiber aussuchen können, welche zur Physikberechnung herangezogen werden soll. Sehr feine Sache finde ich. :)
Hört doch mit der 8500er gurke auf ... 8600er haben spürbar mehr power und kosten auch immer weniger ...Ich bin durch ne kleine Recherche auch grade drauf gekommen, dass ne passive 8600GT auch nicht viel mehr als 50€ kostet. Dann erübrigt sich die Idee mit der 8500er wirklich. :smile:

mfg.

Sonyfreak

Psychopat
2008-06-20, 17:37:24
Warum nicht einfach die IGP nehmen? Richtig praktisch!

Gast
2008-06-20, 17:41:55
Warum nicht einfach die IGP nehmen? Richtig praktisch!

der hat noch weniger leistung.

dilated
2008-06-20, 20:38:59
gibts denn schon software die gpu physik unterstützt? ne oder?

Sonyfreak
2008-06-20, 21:03:25
gibts denn schon software die gpu physik unterstützt? ne oder?Jede Software (http://www.nzone.com/object/nzone_physxgames_home.html) die Ageias PhysX Chip unterstützt, unterstützt mit dem neuen Grafikkartentreiber von Nvidia auch die Physikbeschleunigung per GPU. :)

mfg.

Sonyfreak

Psychopat
2008-06-21, 13:40:43
der hat noch weniger leistung.
Klar, aber wenn man sowieso eine IGP hat (für HybridPower z.B.), kann man sie so sinnvoll nutzen. So kann die IGP sich auch beim Gamen nützlich machen. Wird ja nicht langsamer, wenn man die IGP dazuschaltet.

Gast
2008-06-21, 14:19:58
vieleicht läuft das über die 30 DP Shader die ja sonst nichts zu tun haben?
Kaum, laut Crewmember CODA (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6573695#post6573695) ist es ja technischer Blödsinn, über den man nicht eine Sekunde nachdenken müsse, dass die DP-Einheiten separat ausgeführt sind. ;)

Und jetzt ernsthaft: Die DP-Einheiten teilen sich I/O mit den FP32-ALUs, sodass das Scheduling hier 'schwieriger' werden dürfte, als das vermisste MUL im G80 noch zu reaktivieren.

Gast
2008-06-22, 18:58:00
Jede Software (http://www.nzone.com/object/nzone_physxgames_home.html) die Ageias PhysX Chip unterstützt, unterstützt mit dem neuen Grafikkartentreiber von Nvidia auch die Physikbeschleunigung per GPU. :)

mfg.

Sonyfreak

Du hast es immer noch nicht verstanden.

Diese Titel nutzen zwar die PhysX-Engine, aber nur wenige unterstützen PhysX-Hardware.

BlackBirdSR
2008-06-22, 19:03:06
Du hast es immer noch nicht verstanden.

Diese Titel nutzen zwar die PhysX-Engine, aber nur wenige unterstützen PhysX-Hardware.

Daher steht im Posting auch "Jede Software (http://www.nzone.com/object/nzone_physxgames_home.html) die Ageias PhysX Chip unterstützt"...
und das stimmt schon, auch wenn das nur sehr wenige Titel sind.

Gast
2008-06-22, 19:10:07
Daher steht im Posting auch "Jede Software (http://www.nzone.com/object/nzone_physxgames_home.html) die Ageias PhysX Chip unterstützt"...
und das stimmt schon, auch wenn das nur sehr wenige Titel sind.

Ja und im Text ist ein Verweis der suggerieren soll dass diese Software PhysX-Hardware unterstützt. Dem ist aber nicht so.

BlackBirdSR
2008-06-22, 19:17:07
Ja und im Text ist ein Verweis der suggerieren soll dass diese Software PhysX-Hardware unterstützt. Dem ist aber nicht so.

Auf Nvidias Webseite steht sogar extra, dass alle Titel die HW nicht nutzen, gar nicht erst in der Liste auftauchen ^^
Bin gespannt wie weit der Hype noch geht. Im Benchmark-Forum glauben einige sogar, ein OpenGL-Dynamic-Branch-Benchmark legt durch NV-PhysX zu.

Gast
2008-06-22, 19:21:56
Auf Nvidias Webseite steht sogar extra, dass alle Titel die HW nicht nutzen, gar nicht erst in der Liste auftauchen ^^
Bin gespannt wie weit der Hype noch geht. Im Benchmark-Forum glauben einige sogar, ein OpenGL-Dynamic-Branch-Benchmark legt durch NV-PhysX zu.


Wieder mal eine perfekte Inszenierung seitens der grünen Firma. Die Formulierung auf der Seite ist wirklich hervorragend. Man will sich ja nicht festnageln lassen... :rolleyes:

Gast
2008-06-22, 21:55:01
Die Formulierung auf der Seite ist wirklich hervorragend. Man will sich ja nicht festnageln lassen... :rolleyes:

die formulierung ist doch absolut eindeutig, es stehen nur titel in der liste, die PhysX-hardware nutzen, ob das stimmt ist natürlich wieder eine andere frage ;)

ShadowXX
2008-06-23, 00:20:09
die formulierung ist doch absolut eindeutig, es stehen nur titel in der liste, die PhysX-hardware nutzen, ob das stimmt ist natürlich wieder eine andere frage ;)
Ich hab die Liste kurz überflogen und bei allen Titeln die schon erschienen sind, wird die PhysX-Hardware tatsächlich genutzt.

nV Faked da nix.

Gast
2008-06-23, 00:33:45
Die Source braucht man dazu nicht, höchstens die API-Spezifikation.jap, ist nicht anderes als die api-wrapper fuer Direct3D oder Opengl. wenn man will kann man die API dann auf jede andere PhysikEngine mappen.

Coda
2008-06-23, 01:25:06
So einfach ist das nicht. Die Physik-Engines unterscheiden sich nicht nur beim Interface sondern auch beim eigentlichen Solver und was sie können.

BlackBirdSR
2008-06-23, 06:11:10
Ich hab die Liste kurz überflogen und bei allen Titeln die schon erschienen sind, wird die PhysX-Hardware tatsächlich genutzt.

nV Faked da nix.

Und ich hab die PhysX im Rechner, und bei viel zu vielen der angegebenen Spiele wird die Hardware eben nicht verwendet.

Ein paar prominente Beispiele wären da:
Gothic3, Rise of Legends, Joint Task Force, RS:Vegas, Jericho, Empire Earth3...
Alles auf der Liste und doch nur die Engine ohne den Beschleuniger

ShadowXX
2008-06-23, 08:43:04
Und ich hab die PhysX im Rechner, und bei viel zu vielen der angegebenen Spiele wird die Hardware eben nicht verwendet.

Ein paar prominente Beispiele wären da:
Gothic3, Rise of Legends, Joint Task Force, RS:Vegas, Jericho, Empire Earth3...
Alles auf der Liste und doch nur die Engine ohne den Beschleuniger
Jein....erstmal ist Jericho gar nicht auf der Liste.

Und dazu kommt das alle Titel die dort angegeben sind die PhysX HW benutzen könnten, dieses aber bei manchen nicht freigeschaltet ist (Gothic 3 ist ein Beispiel).
Empire Earth hat die PhysX HW zumindest ganz am Anfang definitiv benutzt, ich hab zufällig letzten den Test davon in irgendeinem Mag gelesen, wo Sie enttäuscht waren wie wenig das bringt (bzw. wie unnütz das Feature ist).

Da fehlen auch noch massig anderen Games die PhysX als reine SW benutzen.

robbitop
2008-06-23, 09:23:16
Kaum, laut Crewmember CODA (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6573695#post6573695) ist es ja technischer Blödsinn, über den man nicht eine Sekunde nachdenken müsse, dass die DP-Einheiten separat ausgeführt sind. ;)

Und jetzt ernsthaft: Die DP-Einheiten teilen sich I/O mit den FP32-ALUs, sodass das Scheduling hier 'schwieriger' werden dürfte, als das vermisste MUL im G80 noch zu reaktivieren.
Ich glaube Coda meinte, in seinem unendlichen Charme X-D, damit etwas anderes. Ich wüßte gern, ob man die FP64 ALUs parallel zu den FP32 ALUs betreiben kann, oder ob das mangels Teilung der Kontrolllogik nicht möglich ist.

deekey777
2008-06-23, 10:59:55
Ich glaube Coda meinte, in seinem unendlichen Charme X-D, damit etwas anderes. Ich wüßte gern, ob man die FP64 ALUs parallel zu den FP32 ALUs betreiben kann, oder ob das mangels Teilung der Kontrolllogik nicht möglich ist.
http://forum.beyond3d.com/showpost.php?p=1176788&postcount=23

vomit_the_frog
2008-06-23, 16:20:15
Wundertreiber = Physiktreiber ?

Coda
2008-06-23, 16:26:05
Kaum, laut Crewmember CODA (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6573695#post6573695) ist es ja technischer Blödsinn, über den man nicht eine Sekunde nachdenken müsse, dass die DP-Einheiten separat ausgeführt sind. ;)

Und jetzt ernsthaft: Die DP-Einheiten teilen sich I/O mit den FP32-ALUs, sodass das Scheduling hier 'schwieriger' werden dürfte, als das vermisste MUL im G80 noch zu reaktivieren.
Ich ging von anderen Vorraussetzungen aus. NVIDIA ging mit G200 viel weiter als nur DP anzubieten.

Die DP-Einheit kann ja sogar Denorms und alle Spezialfunktionen. ATi kann das nicht.

Ich hätte nicht erwartet dass sie GPGPU als so wichtig empfinden das zu tun. Sie hätten trotzdem mit einem viel geringeren Transistoraufwand das tun können was ATI macht.