Archiv verlassen und diese Seite im Standarddesign anzeigen : Test: 13 aktuelle Grafikkarten
Schlammsau
2009-07-04, 10:05:04
http://pics.computerbase.de/2/6/1/5/2/2_m.jpg
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/
Treiberversionen
* Nvidia GeForce 185.85
* ATi Catalyst 9.5
Über was sollen wir hier diskutieren?
Vielleicht über die unsinnigen Fazits?
Wer AA nicht von AF unterscheiden kann packt beides in ein Diagramm, verrührt ordentlich und fertig ist die Suppe, bzw die Empfehlung.
"Öfter kann man AF nutzen." Lächerlich. Da packt Nvidia 80 TMUs in die GPU, taktet sie mit über 600Mhz und CB schreibt, man kann öfter mal AF nutzen.
Da sind sie auch schon wieder, die AF-Trolle. Abseits davon scheint es ja nichts zu geben.
Auffällig ist, dass die ATI-Karten bei neueren (und endlich echten) DX10(.1) Titeln deutlich vorne liegen.
"AI Standard" vs. "Quality mit TriOpt an"... suuuuper :rolleyes:
Wer mit aktuellen Grafikkarten (also ATI 4xxx und nVidia 8xxx) so spielt, der hat zumindest mit Bildqualität nichts am Hut.
Razor
Schlammsau
2009-07-04, 10:23:17
"AI Standard" vs. "Quality mit TriOpt an"... suuuuper :rolleyes:
Wer mit aktuellen Grafikkarten (also ATI 4xxx und nVidia 8xxx) so spielt, der hat zumindest mit Bildqualität nichts am Hut.
Razor
Standard vs. Standard
LovesuckZ
2009-07-04, 10:28:25
Und welches der dort verwendeteten Spiele hat standardmäßig AA und AF aktiviert? :rolleyes:
Komisch, man testet mit Battleforge, H.A.W.X und Stalker drei 10.1 Spiele, aber mit Cryostasis nur ein PhysX Spiele, dass man im Physikeinsatz sogar beschränkt hat. Na, wenn da jemand nicht einer Firma ein besseres Ergebnis verschaffen wollte.
Standard vs. Standard
1xAA vs 1xAF?
"AI Standard" vs. "Quality mit TriOpt an"... suuuuper :rolleyes:
Wer mit aktuellen Grafikkarten (also ATI 4xxx und nVidia 8xxx) so spielt, der hat zumindest mit Bildqualität nichts am Hut.
Razor
Richtig.
8xMSAA einschalten, die Performance runter sacken sehen und dann behaupten für AF fehle die Leistung.
Ich lache morgen.
Ja... "richtig Müll vs. ist auch Müll" = nutzlos!
Zumal doch einige Optionen vom Standard abweichen... oder warum steht die nVidia-Option NegLOD auf 'clamp' und nicht auf 'allow'?
Bevor solche Behauptungen das nächste mal kommen, einfach mal den Test lesen, den man verlinkt... die "Balken" sind halt nicht alles.
Razor
Schlammsau
2009-07-04, 10:30:24
Und welches der dort verwendeteten Spiele hat standardmäßig AA und AF aktiviert? :rolleyes:
Komisch, man testet mit Battleforge, H.A.W.X und Stalker drei 10.1 Spiele, aber mit Cryostasis nur ein PhysX Spiele, dass man im Physikeinsatz sogar beschränkt hat. Na, wenn da jemand nicht einer Firma ein besseres Ergebnis verschaffen wollte.
Könnte man genauso PCGH unterstellen. :)
Könnte man genauso PCGH unterstellen. :)Natürlich, solange PCGH AI-on mit Q vergleicht kann man sie nicht als Objektiv bewerten.
Schlammsau
2009-07-04, 10:33:21
Natürlich, solange PCGH AI-on mit Q vergleicht kann man sie nicht als Objektiv bewerten.
Dann kann man keine Website weltweit als objektiv ansehen, weil es jeder so macht.....ok PCGH hat bis vor kurzem noch HQ vs. A.I. Standard getestet.
Natürlich, solange PCGH AI-on mit Q vergleicht kann man sie nicht als Objektiv bewerten.
Jetzt hört doch endlich mal mit der Bullenscheiße auf. A.I. Off ist keine Option, weil dann andere Dinge nicht mehr gescheit funktionieren. Sobald PCGH mit A.I. Off testet, werden alle roten Fanboys dieser Welt so laut schreien, dass die Erde bebt. Ok, vielleicht hört man's dann auch in Kanada ... hmmm. :ulol:
MfG,
Raff
derguru
2009-07-04, 11:18:00
ich find den test gelungen vorallem weil die spielauswahl endlich mal aktualisiert wurde.
LovesuckZ
2009-07-04, 11:20:33
Jetzt hört doch endlich mal mit der Bullenscheiße auf. A.I. Off ist keine Option, weil dann andere Dinge nicht mehr gescheit funktionieren. Sobald PCGH mit A.I. Off testet, werden alle roten Fanboys dieser Welt so laut schreien, dass die Erde bebt. Ok, vielleicht hört man's dann auch in Kanada ... hmmm. :ulol:
MfG,
Raff
Ausreden, ausreden, ausreden.
Dann hört auch endlich auf 8xMSAA miteinander zu vergleichen. Eure private Heulerei und eure berufliche Dickköpfigkeit ist ziemlich nervig.
Entweder geht A.I off genauso wie 8xMSAA oder keins von beiden.
ich find den test gelungen vorallem weil die spielauswahl endlich mal aktualisiert wurde.
Das ist das einzige interessante an dem Test. Wobei ma sich fragen muss, wieso Bioshock weiterhin dabei ist, aber neuere 10.0 Spiele wie Farcry2, Fallout 3 etc. rausgenommen worden sind.
Mark3Dfx
2009-07-04, 11:25:10
Ah, Flamewar CB (böse) vs PCGH (gut) Part2?
hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=459122) gehts weiter
_DrillSarge]I[
2009-07-04, 11:35:30
kein mars-quad-sli im test :udown: ;D.
wobei ich es schon seltsam finde, dass die gtx295 in hohen auflösungen (auch mal abseits von 8xMSAA) überproportional abfällt. zeigt sich auch mal wieder die crux von mgpu -> kein profil -> in die röhre gucken.
dildo4u
2009-07-04, 11:38:51
I[;7395939']kein mars-quad-sli im test :udown: ;D.
wobei ich es schon seltsam finde, dass die gtx295 in hohen auflösungen (auch mal abseits von 8xMSAA) überproportional abfällt. zeigt sich auch mal wieder die crux von mgpu -> kein profil -> in die röhre gucken.
Eher geht der Speicher aus sind ja nur 896MB nutzbar für 1900 und 2500 Auflösungen mit AA und AF zu wenig.Nur Anno hat noch kein SLI Profil was aber bald kommen soll.
_DrillSarge]I[
2009-07-04, 11:40:41
Eher geht der Speicher aus sind ja nur 896MB nutzbar für 1900 und 2500 Auflösungen mit AA und AF zu wenig.
"seltsam" war vielleicht das falsche wort ;).
komisch finde ich, dass riddick mit msaa schneller ist :uconf:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/6/
dargo
2009-07-04, 11:42:47
I[;7395948']
komisch finde ich, dass riddick mit msaa schneller ist :uconf:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/6/
Es ist doch offensichtlich, dass CB die Balken (und zwar bei allen Karten) verwechselt hat. Vielleicht sollte jemand die darauf hinweisen. :)
Wobei ma sich fragen muss, wieso Bioshock weiterhin dabei ist, aber neuere 10.0 Spiele wie Farcry2, Fallout 3 etc. rausgenommen worden sind.
Bioshock ist alleine deshalb wichtig, damit man sieht das AA doch nicht so wichtig ist, es sei den natürlich die 8xMSAA Performance.
Im "Performancerating Qualität" taucht Bioshock gar nicht mal auf.
Das selbe Spiel hat CB lange Zeit mit Gothic 3 gemacht.
LovesuckZ
2009-07-04, 11:44:23
Steht im Text*:
Wenn man in dem neuen Riddick-Titel Kantenglättung nutzen möchte, schaltet sich automatisch das SSAO-Feature aus. Deswegen sind die FPS-Werte mit vier-fachem Anti-Aliasing höher als ohne AA.
* Deswegen ist es lächerlich Vorteile der einzelnen Karten in Textform wider zugeben, da den Text sowieso niemand liest.
I[;7395948']
komisch finde ich, dass riddick mit msaa schneller ist :uconf:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/6/
"Wenn man in dem neuen Riddick-Titel Kantenglättung nutzen möchte, schaltet sich automatisch das SSAO-Feature aus. Deswegen sind die FPS-Werte mit vier-fachem Anti-Aliasing höher als ohne AA."
Gelesen? ;)
Ich frage mich stattdessen was die mit SSAO meinen. Das SSAO aus dem Treiberpanel? (Ich kenne Riddick nicht, verzeiht)
dargo
2009-07-04, 11:46:40
Steht im Text*:
* Deswegen ist es lächerlich Vorteile der einzelnen Karten in Textform wider zugeben, da den Text sowieso niemand liest.
Ups, da habe ich mich auch von den Balken verleiten lassen ohne den Text zu lesen, böser Fehler. :redface:
_DrillSarge]I[
2009-07-04, 11:46:57
Steht im Text*:
* Deswegen ist es lächerlich Vorteile der einzelnen Karten in Textform wider zugeben, da den Text sowieso niemand liest.
ach fuck :redface:
...warum schaltet man das dann nicht generell ab, zwecks vergleichbarkeit? oder macht noch ein diagramm mit 1xAA ohne SSAO.
(falls das geht, hab das spiel nicht)
deekey777
2009-07-04, 11:51:05
Jetzt hört doch endlich mal mit der Bullenscheiße auf. A.I. Off ist keine Option, weil dann andere Dinge nicht mehr gescheit funktionieren. Sobald PCGH mit A.I. Off testet, werden alle roten Fanboys dieser Welt so laut schreien, dass die Erde bebt. Ok, vielleicht hört man's dann auch in Kanada ... hmmm. :ulol:
MfG,
Raff
Die roten Fanboys werden aufschreien? Das würde keinen Journalisten davon abhalten. Nur wird der Journalist/Redakteur nie wieder mit AI off testen, wenn er keine Testsamples mehr oder mit Verzögerung bekommt. Oder irre ich mich?
Die roten Fanboys werden aufschreien? Das würde keinen Journalisten davon abhalten. Nur wird der Journalist/Redakteur nie wieder mit AI off testen, wenn er keine Testsamples mehr oder mit Verzögerung bekommt. Oder irre ich mich?
So ist es.
Nur wird der Journalist/Redakteur nie wieder mit AI off testen, wenn er keine Testsamples mehr oder mit Verzögerung bekommt. Dies hat damals keinen Redaktuer abgehalten HQ zu testen.
Damals hat sich zb auch ht4u an AI-off rangewagt.
Schöne alte Zeiten, cya.
Dies hat damals keinen Redaktuer abgehalten HQ zu testen.
Damals hat sich zb auch ht4u an AI-off rangewagt.
Schöne alte Zeiten, cya.
"Damals" (R5x0 gegen G8x) war die BQ ohne "Optimierungen" auch vergleichbar. Jetzt ist Off nicht so off, wie man meinen sollte.
MfG,
Raff
derguru
2009-07-04, 12:02:43
hawx bench unterscheidet sich aber extrem mit den benchmarks hier im 3dc und LZ,Bioshock ist dabei damit eine unreal engine 3 anwesend ist.
reunion
2009-07-04, 12:06:19
Jetzt hört doch endlich mal mit der Bullenscheiße auf. A.I. Off ist keine Option, weil dann andere Dinge nicht mehr gescheit funktionieren. Sobald PCGH mit A.I. Off testet, werden alle roten Fanboys dieser Welt so laut schreien, dass die Erde bebt. Ok, vielleicht hört man's dann auch in Kanada ... hmmm. :ulol:
MfG,
Raff
Billige Ausrede es auf die Fanboys zu schieben. Es würde ganz einfach ein völlig skurriles, nichtssagendes Ergebnis heraus kommen, wovon das Fazit nur sein kann das AI_off keine Option ist.
Billige Ausrede es auf die Fanboys zu schieben. Es würde ganz einfach ein völlig skurriles, nichtssagendes Ergebnis heraus kommen, wovon das Fazit nur sein kann das AI_off keine Option ist.
Provozierende Vorlage, provozierendes Echo: Mit A.I. Off bricht selbst eine HD 4890 oft so stark ein (minus 30 bis 40 Prozent), dass die danach fast unbrauchbar ist, ja.
MfG,
Raff
puntarenas
2009-07-04, 12:20:25
Ah, Flamewar CB (böse) vs PCGH (gut) Part2?
hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=459122) gehts weiter
Falsch, da steht nur, was meiner Meinung nach in der Szene generell daneben läuft, was besser gemacht werden müsste und hoffentlich finden sich bald Beispiele, die einen Weg aus der verfehlten Balkenmentalität aufzeigen. PCGH und Computerbase sind sicher die prominentesten deutschen Hardwareredaktionen, kein Wunder also, wenn sie bei einer Kritik an den Kritikern besondere Aufmerksamkeit erhalten.
Es ist doch wirklich schade um die aufwändige Arbeit. Da werden 13 Grafikkarten gebencht und dann kommt im Grunde nichts dabei raus, der selbe Scheiß wie immer und überall.
Man kann darüber streiten, ob man Nvidia mit HQAF testen sollte. Computerbase argumentiert gleich zu Beginn, man sei "nach sorgfältiger Überlegung und mehrfacher Analyse" zu dem Schluss gekommen, dass Nvidia HQ und A.I. Standard vergleichbar seien. Das beantwortet nur leider überhaupt nicht die Frage, ob die für den Parcour gewählten Benchmarksettings sinnvoll sind, der unbedarfte Leser hat trotzdem das Gefühl, da habe sich jemand Gedanken gemacht.
A.I. Off zu fordern ist aber wie ich finde widersinnig, der Modus ist ein schlechter Scherz und aufgrund von Kompatibilitätsproblemen (Bugfixes, Crossfire, ...) ist der Schalter nicht mehr als ein Fake. ATI kennt praktisch nur einen Modus und das ist eben A.I. Standard. Schon hier rennt man also mit dem unglücklichen Ansatz der Vergleichbarkeit voll gegen die Wand, die Filterqualität fängt bei Nvidia einen Ticken oberhalb dessen an, wo ATI aufhört. Wie will man jetzt gewichten, dass es sinnvoll nutzbare Modi jenseits der gewählten Einstellung gibt? Selbiges gilt umgekehrt natürlich auch bei AntiAliasing, wo ATI oberhalb von 8xMSAA exklusive Leckerbissen im Angebot hat, Nvidia dafür unterhalb von 8xMSAA und von eingeschränktem Nutzen die Hybriden.
Bereits 4xAA, 16xLQAF, kein AAA/TAA ist ein fragwürdiger Modus, da er in der Praxis zumindest bei Nvidia-Karten nicht viel Sinn macht und wenig Verwendung finden dürfte. 8xAA, 16xLQAF, kein AAA/TAA ist aber definitiv ein reiner Benchmarkmodus. Leistungsreserven oberhalb von 4xAA und 16xAF sind in AAA/TAAA ohne Zweifel am effektivsten angelegt, dass man im Sinne hoher Bildqualität nicht bei LQAF bleibt, wenn die Karte hohe Qualität erlaubt, ist selbstverständlich.
Trotzdem beschränkt sich der Parcours wissentlich auf diese beiden zweifelhaften Modi und aus den Ergebnissen soll dann eine allgemeine Bewertung der Grafikkarten untereinander stattfinden. Das ist ein Taschenspielertrick, dabei kann nichts Gescheites herauskommen.
Entsprechend ärgerlich sind auch die willkürlich und teilweise abenteuerlich erscheinenden Schlussfolgerungen im Fazit. Da werden dann Karten wegen 10-15% Frameratendifferenz klare Sieger oder Verlierer und Kaufempfehlungen. Transparenz-Anti-Aliasing wird zwar empfohlen, findet im Parcour aber aufgrund von "Kompatibilitätsproblemen" nicht statt. Die Treiber und wieviel Freiheiten sie dem Käufer einräumen fallen ebenfalls nicht ins Gewicht. Der Artikel wirkt nicht zuletzt durch Umfang und Präsentation erst einmal sehr beeindruckend und professionell, fängt man an zu hinterfragen bleibt aber wenig Substanz.
Wie immer, wie überall, schlechte Methodik mit irreführender Verengung des Blicks auf zwei unbedeutende Benchmarksettings.
deekey777
2009-07-04, 12:34:53
Dies hat damals keinen Redaktuer abgehalten HQ zu testen.
Damals hat sich zb auch ht4u an AI-off rangewagt.
Schöne alte Zeiten, cya.
Gab es irgendeine Seite, die Nvidias HQ kritisiert hat? Sie wurden dafür gelobt, insbesondere weil das Wehwehchen beim G70+Q/HQ ausgemerzt wurde.
Skinner
2009-07-04, 12:44:37
Die hätten Mirrors Edge noch mit reinnehmen sollen. Wenn schon Spiele mit DX10.1 dann auch mehr mit Physx.
Ansonten finde ich diese Thema sehr unterhaltsam :rolleyes:
Nakai
2009-07-04, 12:47:51
Provozierende Vorlage, provozierendes Echo: Mit A.I. Off bricht selbst eine HD 4890 oft so stark ein (minus 30 bis 40 Prozent), dass die danach fast unbrauchbar ist, ja.
MfG,
Raff
Ohne jeden Zweifel, wissen selbst die meisten nicht, wie sich AI Off auf die Performance auswirkt.
Deswegen wäre doch ein Review um die Sinnigkeit dieses Modus zu prüfen doch angebracht. Natürlich mit BQ-Vergleich.
mfg Nakai
Blaire
2009-07-04, 12:57:34
Man könnte in der Art Druck aufbauen wenn man in Artikeln die Unterschiede beleuchtet und Ati ne Art Frist setzt das nachzubessern, mit der Androhung ansonsten zukünftig mit AI off zu testen. Nur müssten das mehrere Sites machen und nicht nur ne einzelne. Vorher werden die keinen Finger rühren.
Fazit: Man kann NV und ATI nicht vergleichen, diese Geräte haben nichts miteinander gemein. Ihr Einsatzzweck könnte verschiedener nicht sein.
Das zumindest könnte man anhand der Aussagen einiger Leute meinen.
Manche hier müssen richtig leiden. Irgendwie tragisch, ja sogar traurig.
Wir wissen ja langsam: Persönliche Anfeindungen sind immer die Bestätigung des Gegenübers.
Nein, das ist nur deine Meinung, ohne jegliche Allgemeingültigkeit. Zudem fühlst Du Dich offenbar sehr schnell angegriffen, meiner Meinung nach etwas zu schnell.
Generell sind Themen mit Dir und Reunion, Raff und Y@@h0 (oder wie er auch immer heißt) nach kurzer Zeit mühsam, weil stets derselbe einsilbige Ton von Euch kommt. Ich meine es im Guten: Wir wissen's. Ihr habt alle Eure Qualitäten -im Guten wie im Schlechten. Zu anständigen Diskussionen trägt Ihr hier idR aber nicht bei.
Man könnte in der Art Druck aufbauen wenn man in Artikeln die Unterschiede beleuchtet und Ati ne Art Frist setzt das nachzubessern, mit der Androhung ansonsten zukünftig mit AI off zu testen. Nur müssten das mehrere Sites machen und nicht nur ne einzelne. Vorher werden die keinen Finger rühren.
Klasse, dann AMD eine Möglichkeit AI-off ganz zu verbannen.
puntarenas
2009-07-04, 13:31:09
Fazit: Man kann NV und ATI nicht vergleichen, diese Geräte haben nichts miteinander gemein. Ihr Einsatzzweck könnte verschiedener nicht sein.
Das zumindest könnte man anhand der Aussagen einiger Leute meinen.
Zugespitzt. Trotzdem mutet es etwas schizophren an, die Karten einerseits ganz grob nur als Grafikkarten betrachten zu wollen, die am Ende doch im Wesentlichen viele, bunte Bilder malen, dann aber doch Feinheiten wie 8xAA zu betrachten, Bewertungen der Vergleichbarkeit zwischen A.I. Standard und Nvidia HQ einzuschieben und auch noch D3D10.1 und PhysX darunterzurühren.
Die Grafikkarten und ihre Möglichkeiten unterscheiden sich in vielerlei Details und bieten, je mehr desto genauer man hinschaut, unterschiedlichste Möglichkeiten, Vorzüge und Nachteile. Es ist unmöglich, so etwas in untereinandergereihten Balken zu visualisieren.
Es bleibt bei der Schere zwischen uniformierter Masse, denen solche Vereinfachungen vielleicht zugänglicher sind, die dabei aber unverantwortlich weiter in die Irre geführt und der berechtigten Kritik durch aufgeklärtere Computerspieler, dass diese Tests Sinn und Verstand entbehren.
In diesem Sinne sind ATI und Nvidia tatsächlich nicht direkt über Benchmarkbalken vergleichbar, zumindest wüsste ich dazu keinen seriösen Ansatz. Der gegenwärtige "Balken bei Sinnlos-Settings"-Ansatz wird jedenfalls den unaufgeklärten Usern nicht gerecht, weil er sie weiter auf Balkenmentalität fixiert und fehlleitet und er wird den aufgeklärteren ebensowenig gerecht, weil er keine sinnvollen, belastbaren Ergebnisse hervorbringen kann.
LovesuckZ
2009-07-04, 13:31:56
Nein, das ist nur deine Meinung, ohne jegliche Allgemeingültigkeit. Zudem fühlst Du Dich offenbar sehr schnell angegriffen, meiner Meinung nach etwas zu schnell.
Nein, ansonsten hätte reunion natürlich klar dargelegt, warum mehr 10.1 als PhysX Spiele getestet werden dürften. Da er aber - wie immer, da er von Leuten wie Deekay gedeckt wird - natürlich nur mit persönliche Anfeindung antwortet, hat er mich bestätigt.
crux2005
2009-07-04, 13:36:09
Provozierende Vorlage, provozierendes Echo: Mit A.I. Off bricht selbst eine HD 4890 oft so stark ein (minus 30 bis 40 Prozent), dass die danach fast unbrauchbar ist, ja.
MfG,
Raff
in welchem Game? (ehrliche Frage) bei meinen Tests A.I.off vs. Standard in Crysis Warhead war der Unterschied ~10-15%
derguru
2009-07-04, 13:41:23
das sind einzelfälle wie hl2(das aber nicht nur am AF liegt), aber es gibt kaum spiele die so ein so hohen verlust haben.im durchschnitt sind es 10-15%.
Blacksoul
2009-07-04, 13:53:54
Man könnte in der Art Druck aufbauen wenn man in Artikeln die Unterschiede beleuchtet und Ati ne Art Frist setzt das nachzubessern, mit der Androhung ansonsten zukünftig mit AI off zu testen. Nur müssten das mehrere Sites machen und nicht nur ne einzelne. Vorher werden die keinen Finger rühren.
Und wenn ATI dann den A.I.-Schalter entfernt und somit dauerhaft aktiviert bleibt? Werden keine ATI-Karten mehr getestet? Das würde mir zumindest gefallen. (y) Dann kann es den Seiten ja auch egal sein, ob man Testmuster erhält oder nicht. Aber leider ist das natürlich nur pures Wunschdenken.
t.b.d
in welchem Game? (ehrliche Frage) bei meinen Tests A.I.off vs. Standard in Crysis Warhead war der Unterschied ~10-15%
Fallout 3, CoD: WaW, WoW ... Benchmarks zu den beiden erstgenannten gibt's in der aktuellen PCGH Print. Im Grunde lässt sich ein Drittel der Fps immer dann kappen, wenn das Spiel nicht komplett shaderlimitiert ist (=> Crysis) und die Auflösung hoch genug ist (bzw. die CPU nicht limitiert). In 2.560 x 1.600 (=> Downsampling) ist die Differenz zwischen A.I. an und aus immer größer als in 1.680 x 1.050.
das sind einzelfälle wie hl2(das aber nicht nur am AF liegt), aber es gibt kaum spiele die so ein so hohen verlust haben.im durchschnitt sind es 10-15%.
Mit Crossfire ist A.I. off idR 70-80 Prozent langsamer als A.I. on. :wink:
MfG,
Raff
Sonyfreak
2009-07-04, 14:29:18
Immerhin wurden jetzt einheitliche Treiber verwendet. Das muss man Computerbase wohl schon hoch anrechnen.
Wieso wurde eigentlich bei den Frameratenverläufen der High-End Karten Riddick (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/17/#abschnitt_frameverlaeufe_highend) mit 4xAA 1xAF geprüft? Wie realitätsfern ist das denn bitte?
mfg.
Sonyfreak
crux2005
2009-07-04, 14:45:04
Fallout 3, CoD: WaW, WoW ... Benchmarks zu den beiden erstgenannten gibt's in der aktuellen PCGH Print. Im Grunde lässt sich ein Drittel der Fps immer dann kappen, wenn das Spiel nicht komplett shaderlimitiert ist (=> Crysis) und die Auflösung hoch genug ist (bzw. die CPU nicht limitiert). In 2.560 x 1.600 (=> Downsampling) ist die Differenz zwischen A.I. an und aus immer größer als in 1.680 x 1.050.
habe jetzt also Fallout 3 getestet (HD 4890 @ 930/1110MHz, ingame max, 2560x1600, 8xMSAA, 15xAF), mit AI.Off sind es ~22% weniger FPS. Habt ihr eine neue Stelle zum benchen benutzt? Denn ich habe den PCGH save benutzt. Btw: Danke für die infos. Die Print kann ich mir aber leider nicht aus dem Ausland bestellen ;)
Karte auf Standardtakt, 4x oder kein AA ... schon hast du die 30+ Prozent gewiss.
MfG,
Raff
Fazit: Man kann NV und ATI nicht vergleichen, diese Geräte haben nichts miteinander gemein. Ihr Einsatzzweck könnte verschiedener nicht sein.
Das zumindest könnte man anhand der Aussagen einiger Leute meinen.
Manche hier müssen richtig leiden. Irgendwie tragisch, ja sogar traurig.
Wie wahr. Es bringt überhaupt nix, wenn nV und AMD die gleichen Ziele verfolgen würden und sehr sehr ähnliche Produkte bereitstellen. Dann wäre einer von den beiden weg vom Fenster. Für ein doppeltes Lottchen ist auf dem Markt kein Platz. Somit bedient nV und Amd jeweils ihr eigenes Klientel mit ihren unterschiedlichen Preferenzen.
Blaire
2009-07-04, 14:57:54
Und wenn ATI dann den A.I.-Schalter entfernt und somit dauerhaft aktiviert bleibt?
Wieso sollten sie das tun? Damit würden sie ja den Kritikern weiter Futter geben.
Nein, ansonsten hätte reunion natürlich klar dargelegt, warum mehr 10.1 als PhysX Spiele getestet werden dürften. Da er aber - wie immer, da er von Leuten wie Deekay gedeckt wird - natürlich nur mit persönliche Anfeindung antwortet, hat er mich bestätigt.
DX 10.1 oder besser Direct3D 10.1 dient zur Darstellung einer 3D-Szene, PhysX dagegen hat mit der reinen Grafikberechnung nichts zutun. Aber darum geht es hier... um Grafikkarten und nicht um Physikbeschleuniger für properitäre Physik-APIs.
Zudem sind viele der PhysX-Spiele nichts weiter als besser Physik-Demos weil der Einsatz übertrieben wird (Sacred2) oder enthalten zuwenig merkbaren PhysX-Content den man auch per Animationstechniken problemlos ohne merklichen grafischen Nachteilen dargestellt bekommt (Mirror´s Edge).
Außerdem sagt ein PhysX-Benchmark nichts über die Potenz einer ATI-Karte in diesem Bereich aus weil hier eben die CPU zu langsam ist und nicht die Grafikkarte. Eine CPU benchen will man ja auch nicht in einem Grafikkartenbenchmark, oder?
Wieso sollten sie das tun? Damit würden sie ja den Kritikern weiter Futter geben.
Dafür würden sie den Kritikern die Möglichkeit rauben dies in unangenehm kurze Balken zu pressen. ;)
Darauf kommst an, das Performanceranking zählt, nicht die zig Worte außen rum.
CB machts vor, zugunsten der AMD Karten wird Bioshock ohne FSAA getestet.
DX 10.1 oder besser Direct3D 10.1 dient zur Darstellung einer 3D-Szene, PhysX dagegen hat mit der reinen Grafikberechnung nichts zutun.
Physikeffekte sind in erster Linie optische Aufwertungen.
deekey777
2009-07-04, 15:04:22
Dafür würden sie den Kritikern die Möglichkeit rauben dies in unangenehm kurze Balken zu pressen. ;)
Darauf kommst an, das Performanceranking zählt, nicht die zig Worte außen rum.
CB machts vor, zugunsten der AMD Karten wird Bioshock ohne FSAA getestet.
Man kann in BioShock unter D3D10 auf Radeons Kantenglättung aktivieren?
MechWOLLIer@IE
2009-07-04, 15:04:37
Wieso wurde eigentlich bei den Frameratenverläufen der High-End Karten Riddick mit 4xAA 1xAF geprüft? Wie realitätsfern ist das denn bitte?
Autsch, das war nen Fehler. ist natürlich 4xAA/16xAF.
derguru
2009-07-04, 15:09:31
Mit Crossfire ist A.I. off idR 70-80 Prozent langsamer als A.I. on. :wink:
MfG,
Raff
tolle wurst,kommt man jetzt mit CF das dann nicht geht. :cop:
habe jetzt also Fallout 3 getestet (HD 4890 @ 930/1110MHz, ingame max, 2560x1600, 8xMSAA, 15xAF), mit AI.Off sind es ~22% weniger FPS. Habt ihr eine neue Stelle zum benchen benutzt? Denn ich habe den PCGH save benutzt. Btw: Danke für die infos. Die Print kann ich mir aber leider nicht aus dem Ausland bestellen ;)
bei mir sind es auch eher 20% und nicht 30%+
4770 defaulttakt
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7371565&postcount=160
Man kann in BioShock unter D3D10 auf Radeons Kantenglättung aktivieren?
Man kann die D3D10.1 Api in Stalker mit Geforces nutzen?
crux2005
2009-07-04, 15:14:26
bei mir sind es auch eher 20% und nicht 30%+
4770 defaulttakt
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7371565&postcount=160
in 2560x1600, 4xMSAA und HD 4890@default, komme ich schon sehr nah an die 30%. Aber viel mehr ist es dann auch nicht. Hmm
tolle wurst,kommt man jetzt mit CF das dann nicht geht. :cop:
Solange Atis "Topmodell" eine X2 ist und A.I. Off das AFR killt, ist dieser Hinweis völlig legitim. Was macht ein X2-Nutzer, der auf BQ Wert legt? Keine X2 oder zwei Karten kaufen. Paradox, sollte man doch annehmen, dass zwei GPUs mehr BQ erlauben als eine. Wie man es auch dreht: A.I. Off tut den Fps sehr weh und steigert die BQ nur auf ein akzeptables Niveau, das oft noch unter HQ liegt (aber sich zumindest annähert).
MfG,
Raff
deekey777
2009-07-04, 15:15:59
Man kann die D3D10.1 Api in Stalker mit Geforces nutzen?
Hast du meine Frage beantwortet? Nein.
dargo
2009-07-04, 15:28:18
bei mir sind es auch eher 20% und nicht 30%+
4770 defaulttakt
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7371565&postcount=160
Also ich sehe in deinem Link, dass A.I off knapp 11% langsamer ist als A.I def. Oder andersrum - A.I def. ist knapp 12% schneller als A.I off. :)
Was macht ein X2-Nutzer, der auf BQ Wert legt?
MfG,
Raff
Er schaltet NT oder WT ein , soll doch helfen gegen das Geflimmer .
Hast du meine Frage beantwortet? Nein.
Wozu soll ich dir etwas beantworten, was wir beide wissen?
Bencht man die Geforces eben alleine mit 4xAA, 16xAF durch Bioshock.
Hat CB früher übrigens auch gemacht.
Nur weil die Radeons hier nicht können heißt das nicht, das ich als Geforce Nutzer nicht 4xAA nutze.
Er schaltet NT oder WT ein , soll doch helfen gegen das Geflimmer .
Schmerz mit anderem Schmerz zu bekämpfen ist nur bedingt sinnvoll. Die Tent-Filter "helfen" primär gegen ein scharfes Bild (Informationsvernichtung).
MfG,
Raff
Er schaltet NT oder WT ein , soll doch helfen gegen das Geflimmer .
Alternativ nimmt er eine niedrigere Auflösung und lässt interpolieren.
Oder ein positives LOD-Bias.
Unschärfe, die zudem teuer ist (NT oder WT) halte ich für Zweifelhaft.
Physikeffekte sind in erster Linie optische Aufwertungen.
Nein, das stimmt nicht!
Eine Grafikkarte soll Bilder rendern nicht die Bewegung irgendwelcher Partikelefekte in absurden Unmengen berechnen. Zumindest sollte dies das Hauptaugenmerk sein wenn man einen Grafikkartenbenchmark-Check macht.
Da finde ich Cryostasis schon mehr als ausreichend wenn nicht auch schon zu sehr bewertend.
Immerhin gibt ein PhysX-Benchmark keine Aussage über die Render-Leistung der Grafikkarte, zumal es immer noch viel zuwenige Spiele gibt die einen richtigen nutzen aus PhysX + Grafikkarte ziehen.
Selbst bei UT3 mit NV-Karte ist bei mir der PhysX-Knopf aus, weil es A immer noch ruckelt, B keinerlei spielerischen Effekt hat und C zudem übertrieben und somit häßlich ist.
derguru
2009-07-04, 15:41:20
Also ich sehe in deinem Link, dass A.I off knapp 11% langsamer ist als A.I def. Oder andersrum - A.I def. ist knapp 12% schneller als A.I off. :)
ja schön das du den taschenrechner ausgepackt hast und nun?
dargo
2009-07-04, 15:41:30
Eine Grafikkarte soll Bilder rendern nicht die Bewegung irgendwelcher Partikelefekte in absurden Unmengen berechnen.
Und das bestimmt wer? Du?
Dass zukünftige Grafikkartentests schwieriger werden war vorhersehbar. Richtig vergleichbar wird es nur wenn beide IHVs bei der Physik keine unterschiedlichen Süppchen kochen.
ja schön das du den taschenrechner ausgepackt hast und nun?
:confused:
Jetzt weise ich dich schon freundlich darauf hin, dass A.I off doch nicht so viel verliert wie du annimmst (zumindest nach deiner verlinkten Szene) und dann kommt sowas. Leute, geht an die frische Luft. :hammer:
LovesuckZ
2009-07-04, 15:43:08
DX 10.1 oder besser Direct3D 10.1 dient zur Darstellung einer 3D-Szene, PhysX dagegen hat mit der reinen Grafikberechnung nichts zutun. Aber darum geht es hier... um Grafikkarten und nicht um Physikbeschleuniger für properitäre Physik-APIs.
Zudem sind viele der PhysX-Spiele nichts weiter als besser Physik-Demos weil der Einsatz übertrieben wird (Sacred2) oder enthalten zuwenig merkbaren PhysX-Content den man auch per Animationstechniken problemlos ohne merklichen grafischen Nachteilen dargestellt bekommt (Mirror´s Edge).
10.1 "dient zur Darstellung einer 3D-Szene"? PhysX auch. :rolleyes: Stelle PhysX ein und schon verändert sich die 3D-Szene. Und da es durch die GPU beschleunigt wird, gehört es natürlich auch in solch einen Test mitverwendet. Ob dir die Auswirkungen gefallen, ist komplett egal. 10.1 dient auch nur Beschleunigung von Berechnungen - die mit 10.0 eben länger benötigen.
Außerdem sagt ein PhysX-Benchmark nichts über die Potenz einer ATI-Karte in diesem Bereich aus weil hier eben die CPU zu langsam ist und nicht die Grafikkarte. Eine CPU benchen will man ja auch nicht in einem Grafikkartenbenchmark, oder?
Wenn AMD es nicht beschleunigt, dann muss es eben aus bleiben oder über eine Alternative realisiert werden. Wenn man 10.0 Hardware mit 10.1 Hardware durch Spiele mit 10.1 Unterstützung vergleicht, muss dies eben auch mit PhysX geschehen.
Nein, das stimmt nicht!
Eine Grafikkarte soll Bilder rendern nicht die Bewegung irgendwelcher Partikelefekte in absurden Unmengen berechnen. Zumindest sollte dies das Hauptaugenmerk sein wenn man einen Grafikkartenbenchmark-Check macht.
Ob die Grafikkarte Nebel oder Partikel darstellt ist mir gleichgültig.
Das eine läuft nach die unter Grafik, das andere unter Physik.
Für mich sind beides optische Aufwertungen.
Schmerz mit anderem Schmerz zu bekämpfen ist nur bedingt sinnvoll. Die Tent-Filter "helfen" primär gegen ein scharfes Bild (Informationsvernichtung).
MfG,
Raff
Ja , trotzdem scheint doch SSAA auch nicht immer zu funktionieren oder wieso wird daraus so eine große Sache gemacht , auch SSAA soll doch informationen verschlucken , zumindest einige texturen zermatschen.
Bin ja auch dafür , dass man die Filteroption getrennt von Ai eisntellen kann aber gibt wichtigere Probleme , die mehr Aufmerksamkeit verdient hätten als dieses ganze Thema um die Filterqualität.
kruemelmonster
2009-07-04, 15:46:21
Ja , trotzdem scheint doch SSAA auch nicht immer zu funktionieren oder wieso wird daraus so eine große Sache gemacht , auch SSAA soll doch informationen verschlucken , zumindest einige texturen zermatschen.
Es funktioniert in mehr Spielen problemlos als das es Probleme macht. Besser als WT oder NT, welche überall matschen.
Bin ja auch dafür , dass man die Filteroption getrennt von Ai eisntellen kann aber gibt wichtigere Probleme , die mehr Aufmerksamkeit verdient hätten als dieses ganze Thema um die Filterqualität.
Nein. Die Filterqualität ist eine elementare Grundlage. PhysX oder .1 sind zur Zeit noch dedizierte Einzelsituationen, die Filterqualität dagegen ist allgegenwärtig.
10.1 "dient zur Darstellung einer 3D-Szene"? PhysX auch. :rolleyes: Stelle PhysX ein und schon verändert sich die 3D-Szene. Und da es durch die GPU beschleunigt wird, gehört es natürlich auch in solch einen Test mitverwendet. Ob dir die Auswirkungen gefallen, ist komplett egal. 10.1 dient auch nur Beschleunigung von Berechnungen - die mit 10.0 eben länger benötigen.
Wenn AMD es nicht beschleunigt, dann muss es eben aus bleiben oder über eine Alternative realisiert werden. Wenn man 10.0 Hardware mit 10.1 Hardware durch Spiele mit 10.1 Unterstützung vergleicht, muss dies eben auch mit PhysX geschehen.
Dann möchte ich aber auch mehr CPUs im Benchmark sehen immerhin sind die auch mit an der "Berechnung" von 3D-Grafik beteiligt.
DX 10.1 beschleunigt die Grafik direkt wärend PhysX nur die CPU entlastet indem man die Grafikkarte "Mißbraucht"! Hier wird nicht Grafik beschleunigt, hier wird die Rechenleistung der Graka für Physikberechnung benutzt.
Aber natürlich Nvidia hat es ATI aber nicht, da muss man das ja in einen Benchmark packen. Am besten mindestens 90% der Benchmarks muss PhysX nutzen und wenn dann darf die ATI-Karte nur von der CPU unterstützt werden. Wärend NV bei DX10.1 auf volle Abwärtskompatibilität vertrauen kann wenn die Karten in DX 10.0 rendern. Toller Vergleich.
Und das bestimmt wer? Du?
Dass zukünftige Grafikkartentests schwieriger werden war vorhersehbar. Richtig vergleichbar wird es nur wenn beide IHVs bei der Physik keine unterschiedlichen Süppchen kochen.
Bis dahin und bei der geringen Verbreitung von hardwarebeschleunigtem PhysX in Spielen sollte es auch ignoriert werden und nicht zu einem Benchmark-Ziel gemacht werden. PhysX ist keine bilderzeugende API und gehört damit nicht in einen GRAFIKkartenbenchmark.
dargo
2009-07-04, 18:39:37
Bis dahin und bei der geringen Verbreitung von hardwarebeschleunigtem PhysX in Spielen sollte es auch ignoriert werden und nicht zu einem Benchmark-Ziel gemacht werden. PhysX ist keine bilderzeugende API und gehört damit nicht in einen GRAFIKkartenbenchmark.
Das ist deine Meinung, ich sehe das anders. :)
Das ist deine Meinung, ich sehe das anders. :)
PhysX ist keine API die Grafiken erzeugt und damit Basta!
Ordentlicher Test, vergleichbare Einstellungen, sinnvolles Fazit.
vergleichbare Einstellungen
Vergleichbar nicht gleich sinnvoll
in hawx sieht man bei 16xAF , dass sich die TMUS von nvdiia bezahlt machen.
mich würden mal benches mit HQ und 16x AF gegen Q+trilineare optimierung interessieren , damit man mal sieht , wie viel leistung HQ in einem spiel wie hawx frisst .
wenn af in allen spielen so viel leistung fressen würde , dann hätte ati längst schon einen HQ modus , und verdammt viel texturleistung .
wenn in zukunft mehr solcher spiele kommen , wird ati schon automatisch die texturleistung erhöhen , da braucht man gar nichts erzwingen durch aufklärungen in zeitschriften
Leider ist seit Jahren das Gegenteil der Fall: Spiele werden weniger texturlastig und erfordern stattdessen mehr Shader-Berechnungen pro Pixel. Den Kurs "Mehr ALUs, weniger TMUs" verfolgt Ati seit dem R580. Andererseits haben wir vielleicht Glück und wegen der Shaderlastigkeit wird Texturfüllrate irgendwann so nebensächlich, dass wir mit einer der nächsten Generation feinstes AF fast gratis zuschalten können.
MfG,
Raff
Jetzt hört doch endlich mal mit der Bullenscheiße auf. A.I. Off ist keine Option, weil dann andere Dinge nicht mehr gescheit funktionieren. Sobald PCGH mit A.I. Off testet, werden alle roten Fanboys dieser Welt so laut schreien, dass die Erde bebt. Ok, vielleicht hört man's dann auch in Kanada ... hmmm. :ulol:
MfG,
Raff
Hat PCGH Ende 2005 mal gemacht. Das 3DCenter hat jedenfalls geschrien.
Andererseits haben wir vielleicht Glück und wegen der Shaderlastigkeit wird Texturfüllrate irgendwann so nebensächlich, dass wir mit einer der nächsten Generation feinstes AF fast gratis zuschalten können.
MfG,
Raff
kommt shaderflimmern so nicht noch häufiger vor , wenn spiele immer mehr auf shader statt auf texturleistung setzen ?
derguru
2009-07-04, 19:48:40
:confused:
Jetzt weise ich dich schon freundlich darauf hin, dass A.I off doch nicht so viel verliert wie du annimmst (zumindest nach deiner verlinkten Szene) und dann kommt sowas. Leute, geht an die frische Luft. :hammer:
die 20% war der gesamtverlust.aber danke für den hinweis,das hätte ich nicht erkannt ohne deinen hinweis.:rolleyes:
in hawx sieht man bei 16xAF , dass sich die TMUS von nvdiia bezahlt machen.
mich würden mal benches mit HQ und 16x AF gegen Q+trilineare optimierung interessieren , damit man mal sieht , wie viel leistung HQ in einem spiel wie hawx frisst .
wenn af in allen spielen so viel leistung fressen würde , dann hätte ati längst schon einen HQ modus , und verdammt viel texturleistung .
wenn in zukunft mehr solcher spiele kommen , wird ati schon automatisch die texturleistung erhöhen , da braucht man gar nichts erzwingen durch aufklärungen in zeitschriften
in hawx hab ich aber schon ganz andere werte gesehen,
http://www.driverheaven.net/reviews.php?reviewid=791&pageid=6
kommt shaderflimmern so nicht noch häufiger vor , wenn spiele immer mehr auf shader statt auf texturleistung setzen ?
Natürlich, aber interessiert doch keinen, Hauptsache Polygonkanten und nichts anderes sind super glatt.
in hawx sieht man bei 16xAF , dass sich die TMUS von nvdiia bezahlt machen.
mich würden mal benches mit HQ und 16x AF gegen Q+trilineare optimierung interessieren , damit man mal sieht , wie viel leistung HQ in einem spiel wie hawx frisst .
Wolgang schreibt:
"Das Problem ist der anisotrope Filter. Mit 4xAA/1xAF sinds 56 FPS, mit 4xAA/16xAF sinds 30 FPS. "
Und meint damit afaik eine 4870 in 1920
in hawx hab ich aber schon ganz andere werte gesehen,
http://www.driverheaven.net/reviews.php?reviewid=791&pageid=6
catalyst 9.6 ist wohl besser für hawx als 9.5 , anders kann ich mir die extremen unterschiede zwischen cb und driverheaven nicht erklären .
derguru
2009-07-04, 20:02:47
ne ist auch cat 9.5
LovesuckZ
2009-07-04, 20:06:09
DX 10.1 beschleunigt die Grafik direkt wärend PhysX nur die CPU entlastet indem man die Grafikkarte "Mißbraucht"! Hier wird nicht Grafik beschleunigt, hier wird die Rechenleistung der Graka für Physikberechnung benutzt.
Warum wurden viele CPU basierte Funktionsbereistellungen auf dedizierte Hardware ausgegliedert? Wenn sich solche Effektphysik wesentlich schneller auf der GPU berechnen lassen kann, wieso ist es dann ein "Missbrauch" von GPU Leistung? :rolleyes: Es ist sehr klar ersichtlich, dass GPU beschleunigte Physik sinnvoll ist und für den Spieler einen quantitativen wie qualitativen Vorteil bietet.
Wärend NV bei DX10.1 auf volle Abwärtskompatibilität vertrauen kann wenn die Karten in DX 10.0 rendern. Toller Vergleich.
Bullshit. Abwärstkompatibilität gibt es nur bei der Hardware. Spiele dagegen benötigen unterschiedliche Renderpfade. nVidia kann den 10.1 Pfad nicht ausführen - also sind sie auf einen anderen Pfad angewiesen. Wenn du Vergleichbarkeit willst, dann müssen alle Karten im selben Pfad verglichen werden. Ansonsten kannst du dich hier genauso aufregen wie bei PhysX.
Man kann in BioShock unter D3D10 auf Radeons Kantenglättung aktivieren?
Nein, ergo gehört eine Null ins Performance-Rating und in die Benchmark-Balken.
Wolgang schreibt:
"Das Problem ist der anisotrope Filter. Mit 4xAA/1xAF sinds 56 FPS, mit 4xAA/16xAF sinds 30 FPS. "
Und meint damit afaik eine 4870 in 1920
Wenn man in seine Get-in-the-Game-Spiele überall denselben SSAO-Algo reinprügelt, der nunmal eine Menge Texturarbeit (beschleunigt über Gather4) erfordert, kein Wunder.
Warum wurden viele CPU basierte Funktionsbereistellungen auf dedizierte Hardware ausgegliedert? Wenn sich solche Effektphysik wesentlich schneller auf der GPU berechnen lassen kann, wieso ist es dann ein "Missbrauch" von GPU Leistung? :rolleyes: Es ist sehr klar ersichtlich, dass GPU beschleunigte Physik sinnvoll ist und für den Spieler einen quantitativen wie qualitativen Vorteil bietet.
von missbrauch hat auch gar keiner geredet .
ging lediglich darum , ob solche tests sinn machen , wenn die ati gpu die physik in spielen nicht mal berechnet , sondern der prozessor .
Bullshit. Abwärstkompatibilität gibt es nur bei der Hardware. Spiele dagegen benötigen unterschiedliche Renderpfade. nVidia kann den 10.1 Pfad nicht ausführen - also sind sie auf einen anderen Pfad angewiesen. Wenn du Vergleichbarkeit willst, dann müssen alle Karten im selben Pfad verglichen werden. Ansonsten kannst du dich hier genauso aufregen wie bei
PhysX.
du willst doch nicht sagen , dass der unterschied zwischen 10.1 und physX so klein ist , wie zwischen 10.0 - 10.1 ?
Warum wurden viele CPU basierte Funktionsbereistellungen auf dedizierte Hardware ausgegliedert? Wenn sich solche Effektphysik wesentlich schneller auf der GPU berechnen lassen kann, wieso ist es dann ein "Missbrauch" von GPU Leistung? :rolleyes: Es ist sehr klar ersichtlich, dass GPU beschleunigte Physik sinnvoll ist und für den Spieler einen quantitativen wie qualitativen Vorteil bietet.
Bullshit. Abwärstkompatibilität gibt es nur bei der Hardware. Spiele dagegen benötigen unterschiedliche Renderpfade. nVidia kann den 10.1 Pfad nicht ausführen - also sind sie auf einen anderen Pfad angewiesen. Wenn du Vergleichbarkeit willst, dann müssen alle Karten im selben Pfad verglichen werden. Ansonsten kannst du dich hier genauso aufregen wie bei PhysX.
Du weichst immer aus... PhysX ist kein Bilderzeugendes Feature und hat in einem Grafik-Ranking nichts verloren. Ebenso ist PhysX eine properitäre Technik von NV die nur von einer geringen Minderheit erhältlicher Spiele in Hardware ausgeführt wird und somit keine Relevanz im Bezug auf die Performance haben darf.
Nebenbei haben die meisten PhysX-Spiele mehr den Charakter einer Techdemo, das sieht man oft daran das selbst gute NV-karten in arg niedrige FPS-Bereiche einbrechen sobald man die oft übertriebenen Effekte zuschaltet.
Ich denke hier wird um jeden Preis verhindert, dass auch eine CPU die Physik in spielbaren Bereichen schafft. Schau dir mal das allseits beliebte Sacred2 an.
!Vertrauen!.... Es wird so schnell kein DX10.1-Spiel geben welches nicht auch einen DX10-Renderpfad bietet und Letzterer ist nicht besonders schwer bereitzustellen, bzw. benötigt keine Lizenzen.
Andersrum:
Wann hat ein Spielehersteller mal eine ATI-Stream-taugliche Physik eingebaut?
LovesuckZ
2009-07-04, 20:41:51
Du weichst immer aus... PhysX ist kein Bilderzeugendes Feature und hat in einem Grafik-Ranking nichts verloren. Ebenso ist PhysX eine properitäre Technik von NV die nur von einer geringen Minderheit erhältlicher Spiele in Hardware ausgeführt wird und somit keine Relevanz im Bezug auf die Performance haben darf.
GPU beschleunigte Physik erlaubt den Entwickler wesentlich mehr Effekte zu einem besseren "Preis " zu verwenden oder die vorhandene Anzahl deutlich schneller berechnen zulassen. Beides hat Einfluss auf das, was wir auf dem Bildschirm sehen. Und mit GPU beschleunigtes PhysX erreicht man 2/3 des Spielermarktes (Desktop). Relevanz hat also nicht 10.1.
Nebenbei haben die meisten PhysX-Spiele mehr den Charakter einer Techdemo, das sieht man oft daran das selbst gute NV-karten in arg niedrige FPS-Bereiche einbrechen sobald man die oft übertriebenen Effekte zuschaltet.
Ich denke hier wird um jeden Preis verhindert, dass auch eine CPU die Physik in spielbaren Bereichen schafft. Schau dir mal das allseits beliebte Sacred2 an.
Jedes Spiel ist spielbar.
!Vertrauen!.... Es wird so schnell kein DX10.1-Spiel geben welches nicht auch einen DX10-Renderpfad bietet und Letzterer ist nicht besonders schwer bereitzustellen, bzw. benötigt keine Lizenzen.
Das ist komplett egal und das dachten AMD User auch mit ihrer SM2.x Hardware.
dargo
2009-07-04, 20:46:40
die 20% war der gesamtverlust.aber danke für den hinweis,das hätte ich nicht erkannt ohne deinen hinweis.:rolleyes:
Mal davon abgesehen, dass ich den Sinn zwischen 1xAF und 16xAF@A.I off nicht verstehe (schließlich ging darum nicht) sind die 20% Verlust immer noch falsch, es sind genau -16%. :P
Du weichst immer aus... PhysX ist kein Bilderzeugendes Feature und hat in einem Grafik-Ranking nichts verloren.
PhysX verbessert den visuellen Eindruck eines Spieles.
Genauso andere Effekte.
Das es Geforces vorbehalten ist, ist für dieses Thema ohne Belang.
Der optische Gewinn durch D3D10.1 in Stalker CS ist auch Radeons vorbehalten.
Dort gibt es neben einem .1 Pfad auch einen .0 Pfad, nur eben optisch schlechter. Hier gibt es nur einen Pfad, der eine eben schnell, der andere langsam.
Bei Mirrors Edge wird PhysX automtisch ohne PhysX Beschleuniger kasrtriert. Hier muss es der Nutzer selbst deaktivieren.
GPU beschleunigte Physik erlaubt den Entwickler wesentlich mehr Effekte zu einem besseren "Preis " zu verwenden oder die vorhandene Anzahl deutlich schneller berechnen zulassen. Beides hat Einfluss auf das, was wir auf dem Bildschirm sehen. Und mit GPU beschleunigtes PhysX erreicht man 2/3 des Spielermarktes (Desktop). Relevanz hat also nicht 10.1.
Jedes Spiel ist spielbar.
Das ist komplett egal und das dachten AMD User auch mit ihrer SM2.x Hardware.
Einfachere Partikeleffekte kann man auch günstiger über die CPU berechnen... wohlgemerkt PhysX rendert nichts!
In Crysis wird auch kein PhysX genutzt und man bekommt beeindruckende Physik hin.
2/3 Woher nimmst du die Zahlen? Wäre mir neu wenn 2/3 des PC-Spiele Marktes von PhysX-Hardwarebeschleunigten Spielen Gebrauch machen
Nicht jedes Spiel ist spielbar mit PhysX bei Cryostasis oder Sacred2 driftet man leicht in ruckelige Gefilde ab, natürlich hängt das von Karte und Einstellungen ab. Aber Sacred2 zB. braucht für eine 22" Auflösung schon etwas mehr als eine 9800GT.
Hier mal ein Beispiel wie aslig das läuft:
http://www.computerbase.de/news/software/spiele/rollenspiele/2009/april/video_benchmarks_sacred_2_physx-patch/
DX10.1 hätte NV locker einbauen können, dieser "Standart" ist quasi offen für jeden. PhysX dagegen gehört nur NV und die würden einen Teufel tun es für andere Hersteller so freizugeben, dass sie nur im Ansatz vergleichbare Perfromance erreichen.
PhysX verbessert den visuellen Eindruck eines Spieles.
Genauso andere Effekte.
Das es Geforces vorbehalten ist, ist für dieses Thema ohne Belang.
Der optische Gewinn durch D3D10.1 in Stalker CS ist auch Radeons vorbehalten.
Dort gibt es neben einem .1 Pfad auch einen .0 Pfad, nur eben optisch schlechter. Hier gibt es nur einen Pfad, der eine eben schnell, der andere langsam.
Bei Mirrors Edge wird PhysX automtisch ohne PhysX Beschleuniger kasrtriert. Hier muss es der Nutzer selbst deaktivieren.
PhysX ist wie zuschaltbarer Content und sollte auch so behandelt werden, es hat nix mit dem Rendering-Prozess zutun und darf auch nicht in einen Grafikkartenbenchmark.
DrFreaK666
2009-07-04, 22:30:55
PhysX ist wie zuschaltbarer Content und sollte auch so behandelt werden, es hat nix mit dem Rendering-Prozess zutun und darf auch nicht in einen Grafikkartenbenchmark.
Wieso nicht?
Physx ist ja dann sowas wie Ultra Details.
Wenn es auf Radeons nicht flüssig läuft dann muss man eben "nur" mit High Details spielen
PhysX ist wie zuschaltbarer Content und sollte auch so behandelt werden, es hat nix mit dem Rendering-Prozess zutun und darf auch nicht in einen Grafikkartenbenchmark.
Ach so, die Bewegung der Objekte erscheint also wie magisch direkt von der DVD-ROM auf dem Bildschirm?
LovesuckZ
2009-07-04, 22:49:13
Einfachere Partikeleffekte kann man auch günstiger über die CPU berechnen... wohlgemerkt PhysX rendert nichts!
In Crysis wird auch kein PhysX genutzt und man bekommt beeindruckende Physik hin.
Anscheinend nicht, sonst hätte man es schon längst getan.
2/3 Woher nimmst du die Zahlen? Wäre mir neu wenn 2/3 des PC-Spiele Marktes von PhysX-Hardwarebeschleunigten Spielen Gebrauch machen
2/3 ist der Marktanteil von nVidia im Desktopbereich.
Nicht jedes Spiel ist spielbar mit PhysX bei Cryostasis oder Sacred2 driftet man leicht in ruckelige Gefilde ab, natürlich hängt das von Karte und Einstellungen ab. Aber Sacred2 zB. braucht für eine 22" Auflösung schon etwas mehr als eine 9800GT.
Hier mal ein Beispiel wie aslig das läuft:
http://www.computerbase.de/news/software/spiele/rollenspiele/2009/april/video_benchmarks_sacred_2_physx-patch/
Und 10.1 ist auf einer 3870 noch weniger einsatzbar. :rolleyes: Selbst die 48xx Karten sind in vielen 10.1 Spielen mit AA und AF an der Grenze der Unspielbarkeit.
Da aber jeder selbst entscheidet, mit welchen Einstellungen er spielen will, ist deine Aussage natürlich von keiner Bedeutung.
DX10.1 hätte NV locker einbauen können, dieser "Standart" ist quasi offen für jeden. PhysX dagegen gehört nur NV und die würden einen Teufel tun es für andere Hersteller so freizugeben, dass sie nur im Ansatz vergleichbare Perfromance erreichen.
10.1 ist eben kein "offener" Standard und ist für nVidia aufgrund ihrer TMUs auch nicht einfach mal so "einbaubar". Das spielt aber alles keine Rolle, weil es eben so ist, wie es ist. zZ ist 10.1 AMD vorenthalten (S3 mal außen vor) und PhysX nVidia. Entweder wird beides geichwertig berücksichtigt oder keins.
10.1 ist eben kein "offener" Standard und ist für nVidia aufgrund ihrer TMUs auch nicht einfach mal so "einbaubar". Das spielt aber alles keine Rolle, weil es eben so ist, wie es ist. zZ ist 10.1 AMD vorenthalten (S3 mal außen vor) und PhysX nVidia. Entweder wird beides geichwertig berücksichtigt oder keins.
Natürlich ist es ein offener Standard. Es kostet niemanden Lizenzgebühren, ihn zu implementieren, man braucht keine Firmengeheimnisse an die Konkurrenz weiterzugeben usw.
PhysX ist eine API, die Nvidia gehört. Natürlich könnte AMD ein CUDA-Treiber schreiben und damit auch Physx laufen lassen.
Einfachere Partikeleffekte kann man auch günstiger über die CPU berechnen... wohlgemerkt PhysX rendert nichts!
In Crysis wird auch kein PhysX genutzt und man bekommt beeindruckende Physik hin.
Physx berechnet die Interaktion von Punkten auf der GPU - deren wechselseitige Beeinflussung und Reaktion auf äußere Krafteinwirkung. Meistens muss die GPU dafür aber eine höhere Zahl an Objekten rendern; das ist zwar nur eine direkte Folge, aber IMO doch ein Teil der Bilderzeugung. Charakter-Animation kann auch über Vertex-Shader beschleunigt werden, aber genauso "gut" auf der CPU laufen. Darf der VS nun auch nicht mehr in die Grafikbetrachtung einfließen?
ÜBer die aufgesetzte Crysis-Physik lasse ich mich mal nicht weiter aus.
[QUOTE=Gast;7396833]PhysX ist wie zuschaltbarer Content/QUOTE]
Soweit wars richtig.
High Details vs Very High Details eben.
Wenns mit einer Radeon keinen Spass macht, muss man dort eben darauf verzichten.
Auf einer Geforce macht es jedenfalls Spass und verbessert die Optik.
Mir ist sowas von scheissegal warum und weshalb. Es verbessert die Optik und ist nach Bedarf an oder abschaltbar, je nach Hardware sind die Kosten mal so und mal so.
=Floi=
2009-07-05, 02:00:40
Leider ist seit Jahren das Gegenteil der Fall: Spiele werden weniger texturlastig und erfordern stattdessen mehr Shader-Berechnungen pro Pixel. Den Kurs "Mehr ALUs, weniger TMUs" verfolgt Ati seit dem R580. Andererseits haben wir vielleicht Glück und wegen der Shaderlastigkeit wird Texturfüllrate irgendwann so nebensächlich, dass wir mit einer der nächsten Generation feinstes AF fast gratis zuschalten können.
MfG,
Raff
in der theorie. in der praxis sieht es schon wesentlich anders aus und da gilt noch immer das motto: "fillrate is king". lustig finde ich dich auch bei dieser ansicht, da du ja ansonsten sehr auf SSAA und downsampling setzt.
im grunde ist schlicht noch immer die teuerste karte die beste und schnellste karte. dazu braucht es eigentlich keinen test.
y33H@
2009-07-05, 03:29:31
Bei Füllratenlastigen Titeln dominiert NV nach Belieben - siehe UT04, HL2 oder WoW.
Bei füllratenlastigen Titeln fiept NV nach belieben... ;)
Falsche Behauptung, die du mangels Tests nicht belegen kannst.
Es gibt fiependen Geforces wie Radeons, das wissen wir. Mehr aber auch nicht.
Nicht schlecht ist, wie CB eine 9800 GTX+ testet und die Werte als GTS 250 verkauft.
Das ist schon Verarsche.
AnarchX
2009-07-05, 10:39:42
Sie vergleichen im Fazit doch nur deren Leistung mit einer 512MiB GTS 250, was durchaus legitim ist.
Anscheinend nicht, sonst hätte man es schon längst getan.
2/3 ist der Marktanteil von nVidia im Desktopbereich.
Und 10.1 ist auf einer 3870 noch weniger einsatzbar. :rolleyes: Selbst die 48xx Karten sind in vielen 10.1 Spielen mit AA und AF an der Grenze der Unspielbarkeit.
Da aber jeder selbst entscheidet, mit welchen Einstellungen er spielen will, ist deine Aussage natürlich von keiner Bedeutung.
10.1 ist eben kein "offener" Standard und ist für nVidia aufgrund ihrer TMUs auch nicht einfach mal so "einbaubar". Das spielt aber alles keine Rolle, weil es eben so ist, wie es ist. zZ ist 10.1 AMD vorenthalten (S3 mal außen vor) und PhysX nVidia. Entweder wird beides geichwertig berücksichtigt oder keins.
Doch hat man schon getan siehe HL2 EP2, in den Zwischensequenzen.
Effektvolle Physik muss nicht ein Haufen Partikeleffekte sein!
Was hat der Grafikkartenmarkt mit der Verbreitung von hardwarebeschleunigtem PhysX in Spielen zutun?
Manchmal (falsch, eher oft) glaube ich du bist schwer vom Begriff.
Weiche nur aus du Fanboy.
DX10.1 beschleunigt auch siehe HawX und Assins Creed, nur weil die Spielefirmen meinen mit jedem Geschwindigkeitsvorteil doppelt soviele Details reinkloppen zu müssen heißt das noch lange nix.
DX10.1 ist ein offener Standard und ich wüsste nicht warum eine Implementation für nV nicht gehen sollte.
Sollten die 210er-Karten von NV jetzt nicht auch DX10.1 sein?
PhysX ist herstellerspezifisch zuschaltbarer Content, dar auf allem anderen als auf einer Geforce nur über die CPU berechnet wird, etwas unfaireres als damit zu benchen kann ich mir nicht vorstellen.
Das wäre so als ob man beim Benchmark für die ATI-Karten als CPU nur einen Pentium 1 zur Verfügung stellt.
Manchmal schäme ich mich eine Nvidia-Karte zu besitzen
Doch hat man schon getan siehe HL2 EP2, in den Zwischensequenzen.
Effektvolle Physik muss nicht ein Haufen Partikeleffekte sein!
Was hat der Grafikkartenmarkt mit der Verbreitung von hardwarebeschleunigtem PhysX in Spielen zutun?
Manchmal (falsch, eher oft) glaube ich du bist schwer vom Begriff.
Weiche nur aus du Fanboy.
DX10.1 beschleunigt auch siehe HawX und Assins Creed, nur weil die Spielefirmen meinen mit jedem Geschwindigkeitsvorteil doppelt soviele Details reinkloppen zu müssen heißt das noch lange nix.
DX10.1 ist ein offener Standard und ich wüsste nicht warum eine Implementation für nV nicht gehen sollte.
Sollten die 210er-Karten von NV jetzt nicht auch DX10.1 sein?
PhysX ist herstellerspezifisch zuschaltbarer Content, dar auf allem anderen als auf einer Geforce nur über die CPU berechnet wird, etwas unfaireres als damit zu benchen kann ich mir nicht vorstellen.
Das wäre so als ob man beim Benchmark für die ATI-Karten als CPU nur einen Pentium 1 zur Verfügung stellt.
Manchmal schäme ich mich eine Nvidia-Karte zu besitzen
DX10.1 ist quasi offen und jedem Grafikkartenhersteller zugänglich.
Die Zwischensequenzen in HL2 mit den hohen Anteil an Debris sind vorberechnet zeigen aber dennoch, dass man nicht jeden Scheiß
mittels einer Physikengine berechnen muss.
Falsche Behauptung, die du mangels Tests nicht belegen kannst.
Es gibt fiependen Geforces wie Radeons, das wissen wir. Mehr aber auch nicht.
Ich test alles selbst :)
Doch hat man schon getan siehe HL2 EP2, in den Zwischensequenzen.
Effektvolle Physik muss nicht ein Haufen Partikeleffekte sein!
Was hat der Grafikkartenmarkt mit der Verbreitung von hardwarebeschleunigtem PhysX in Spielen zutun?
Manchmal (falsch, eher oft) glaube ich du bist schwer vom Begriff.
Weiche nur aus du Fanboy.
DX10.1 beschleunigt auch siehe HawX und Assins Creed, nur weil die Spielefirmen meinen mit jedem Geschwindigkeitsvorteil doppelt soviele Details reinkloppen zu müssen heißt das noch lange nix.
DX10.1 ist ein offener Standard und ich wüsste nicht warum eine Implementation für nV nicht gehen sollte.
Sollten die 210er-Karten von NV jetzt nicht auch DX10.1 sein?
PhysX ist herstellerspezifisch zuschaltbarer Content, dar auf allem anderen als auf einer Geforce nur über die CPU berechnet wird, etwas unfaireres als damit zu benchen kann ich mir nicht vorstellen.
Das wäre so als ob man beim Benchmark für die ATI-Karten als CPU nur einen Pentium 1 zur Verfügung stellt.
Manchmal schäme ich mich eine Nvidia-Karte zu besitzen
Wäre Ati + Physx-Karte von Ageia für dich "fair"?
Hübie
2009-07-05, 11:16:57
Als ich eben den Artikel durchging dachte ich ich schau net recht. Aber seht selbst: :|
http://s2b.directupload.net/images/090705/utxau9ee.jpg (http://www.directupload.net)
http://s1.directupload.net/images/090705/whdmrb7t.jpg (http://www.directupload.net)
Vor allem rangiert das unter "D3D-9 Spiele". Ist das net OGL??? Wenn nicht steinigt mich nicht gleich :D
So was fällt dem gemeinen 3DC-Mob dazu ein:confused:
dargo
2009-07-05, 11:30:00
Meinst du jetzt, dass dieses Aliasing links autritt und in der Mitte nicht oder worauf willst du hinaus? :)
crux2005
2009-07-05, 11:31:37
das hat aber wenig was mit AF zu tun - beim GeForce Bild (1.) fehlen einfach Schatten
Ich glaube er meint die streifigen Schatten, und die dunkleren & schmutzigeren Texturen im unteren Bild.
dargo
2009-07-05, 11:36:39
Ich glaube er meint die streifigen Schatten, und die dunkleren & schmutzigeren Texturen im unteren Bild.
Stimmt, auf dem ersten Bilick ist mir das gar nicht aufgefallen. Und ich bin schon pingelig. X-D
Treiberbug?
crux2005
2009-07-05, 11:40:02
Ist das net OGL?
ist es...
Treiberbug?
oder man hat ingame etwas vergessen einzuschalten
Die Bilder haben ein unterschiedliches Seitenverhältnis. :(
Sie vergleichen im Fazit doch nur deren Leistung mit einer 512MiB GTS 250, was durchaus legitim ist.
Sie schreiben im Fazitkästlein, in dem die GTS 250 512 empfohlen wird etwas zur Lautstärke.
Hübie
2009-07-05, 11:44:33
Also für mich ist da was faul:| Unterschiedliche Seitenverhältnisse, dann auch noch geleckte Texturen und schattierte Texturen :|:cool:
Werd mal bei CB nachfragen, was da schief gelaufen ist.
bye Hübie
LovesuckZ
2009-07-05, 11:53:17
Doch hat man schon getan siehe HL2 EP2, in den Zwischensequenzen.
Effektvolle Physik muss nicht ein Haufen Partikeleffekte sein!
Schön und? Du versteht anscheinend nicht, dass Firmen eine Notwendigkeit daran gesehen haben, diese Berechnungen von der CPU auszulagern.
Was hat der Grafikkartenmarkt mit der Verbreitung von hardwarebeschleunigtem PhysX in Spielen zutun?
Manchmal (falsch, eher oft) glaube ich du bist schwer vom Begriff.
Weiche nur aus du Fanboy
Mal sehen: Bei nur zwei relevanten Herstellern mit zwei unterschiedlichen Features hat der eine eine Marktmacht von 2/3. Und dazu funktioniert PhysX auch unter XP. Nunja, manchmal seid ihr Gäste wohl nur dumm. :rolleyes:
DX10.1 beschleunigt auch siehe HawX und Assins Creed, nur weil die Spielefirmen meinen mit jedem Geschwindigkeitsvorteil doppelt soviele Details reinkloppen zu müssen heißt das noch lange nix.
Und? Unspielbar bleibt unspielbar.
DX10.1 ist ein offener Standard und ich wüsste nicht warum eine Implementation für nV nicht gehen sollte.
Schön, dass du es nicht weißt. Warum reden wir dann darüber?
PhysX ist herstellerspezifisch zuschaltbarer Content, dar auf allem anderen als auf einer Geforce nur über die CPU berechnet wird, etwas unfaireres als damit zu benchen kann ich mir nicht vorstellen.
Das wäre so als ob man beim Benchmark für die ATI-Karten als CPU nur einen Pentium 1 zur Verfügung stellt.
So wie AF, so wie AA... Es ist komisch, dass dich anscheinend diese "zusätzlicher Content" nicht interessiert und verglichen werden darf.
Hübie
2009-07-05, 12:01:33
Zumal sich PhysX nicht durchsetzt wie nVidia sich das wünscht.
Ein allgemeingültiger Standard der auf allen System funktioniert ist da angebracht. Das kommt wohl erst mit DX11.
Wer sein eigenes Süppchen kocht muss halt damit rechnen, dass es den anderen nicht schmeckt. So geschehen bei GLIDE von 3dfx. Trueform von ATi. Und...ach da gibts noch mehr... Das wünsche ich auch nVidia. Denn hochoptimierte, an Hersteller gebundene Schnittstelle, features o.ä. sind imo unsinnig und beschränkt.
Nur damit nVidia-Käufer den ATi-Käufern die Zunge rausstrecken kann oder wozu dient das? :rolleyes:
bye Hübie
dargo
2009-07-05, 12:12:08
Zumal sich PhysX nicht durchsetzt wie nVidia sich das wünscht.
So wenige Titel die PhysX nutzen sind es nun wieder auch nicht.
http://en.wikipedia.org/wiki/PhysX#Title_support
So wenige Titel die PhysX nutzen sind es nun wieder auch nicht.
http://en.wikipedia.org/wiki/PhysX#Title_support
"but not all include support for PhysX hardware and instead only support Nvidia based GPUs."
dargo
2009-07-05, 12:15:32
"but not all include support for PhysX hardware and instead only support Nvidia based GPUs."
Es geht hier um PhysX und nicht PhysX in Hardware.
Hübie
2009-07-05, 12:22:52
Ganz genau. Allerdings schau sich einer mal die Titel an :rolleyes: Masse statt Klasse fällt mir da als erstes ein. Aber bei der Fülle an Titeln die es auf dem Markt gibt ist das ein Tropfen auf dem heißen Stein.
Es ist aber natürlich auch sinnvoll PhysX in Harddware zu unterstützen. Sonst kann man auch Havok etc an dieser Stelle nennen ohne rot zu werden.
bye Hübie
Schön, dass du es nicht weißt. Warum reden wir dann darüber?
Dann erkläre es uns doch bitte mal, damit wir darüber reden können.
Hübie
2009-07-05, 12:35:42
nVidia war wohl noch etwas vorgeschädigt, da sie damals vorschnell SM3.0 verbauten und es nirgends ruckelfrei lief bzw. unterstützt wurde;D
Jetzt dachten die bei DX10.1 wohl, das man besser abwartet. Wer weiß schon genaues? ;)
bye Hübie
Es geht hier um PhysX und nicht PhysX in Hardware.
FALSCH! Es geht schon die ganze Zeit um hardware-beschleunigtes PhysX und nicht generell um PhysX!
Was nutzt den PhysX per CPU in einem Grafikkartenbenchmark.
@Lovesuckz Jetzt wirst du auch noch abfällig.
Warum benchen wir nicht gleich alles mit NV-Tecchdemos?
Nur weil NV zu 2/3 in Desktoprechnern vertretten ist, muss auch das eine Drittel mit NV-Technik gebencht werden? Du bist dir wahrscheinlich garnicht im klaren welcher Idiotie du hier untterlegen bist.
Zeig mir die Benchmarks die DX10.1 Unspielbarkeit unterstellen! DX10.1 verbessert meistens die Leistung etwas und sieht oft besser aus.
Die Diskussion über veraltete Betriebssysteme wollen wir hier mal außen vor lassen.
AF und AA sind kein Content sondern bildverbessernde Techniken, PhysX verbessert aber nicht das Bild.
Eine ATI kann mit Sicherheit den Content genauso schnell rendern wenn sie nicht durch dem auf der CPU berechneten PhysX Thread ausgebremst wird.
Partikelengines erzeugen schon seit Jahren massig darstellbare Objekte und werden problemlos von der Grafikkarte dargestellt, hier eine Physikengine zu nutzen
ist oft übertrieben und bringt selten optischen Mehrwert.
dargo
2009-07-05, 13:14:53
FALSCH! Es geht schon die ganze Zeit um hardware-beschleunigtes PhysX und nicht generell um PhysX!
Was nutzt den PhysX per CPU in einem Grafikkartenbenchmark.
Lese dir nochmal den Beitrag #126 durch. Wo habe ich was von Hardware-PhysX gesagt? Ich meinte damit die Verbreitung von PhysX in Spielen, völlig unabhängig davon wie sie realisiert wird.
Hübie
2009-07-05, 13:41:39
Er meinte wohl auch die vorrangegangene Diskussion ;)
Lese dir nochmal den Beitrag #126 durch. Wo habe ich was von Hardware-PhysX gesagt? Ich meinte damit die Verbreitung von PhysX in Spielen, völlig unabhängig davon wie sie realisiert wird.
Dies stand von vorne weg nicht zur Debatte, wo habe ich übrigens geschrieben, dass ich PhysX allgemein meine?
Außerdem wird die Vorderung nach stärkeren PhysX-Bezug in Graka-Benchmarks dadurch nicht sinnvoller. PhysX-Spiele ohne hw-Beschleunigung nutzen ja sowieso nur die CPU was in Bezug zu diesem Thema nichts aussagt.
PhysX verbessert aber nicht das Bild.
Doch, der visuelle Eindruck wird aufgewerted.
DX10.1 verbessert meistens die Leistung etwas und sieht oft besser aus.PhysX verbessert die Optik.
Die Kosten sind je nach Hardware unterschiedlich. Per Software auf der CPU ist es schwieriger als in Hardware auf der Ageia oder der GPU.
Wirds per Software zu langsam muss man auf Teile der Physik verzichten, bzw ganz im Schlimmsten Fall.
Nur weil NV zu 2/3 in Desktoprechnern vertretten ist, muss auch das eine Drittel mit NV-Technik gebencht werden? Es muss getestet werden, weil es in einigen Spielen genutzt wird.
Wie man mit Radeons verfährt ist eine andere Frage.
1. Entweder man lässt sie weg.
2. Oder man quält die im Testsystem vebraute CPU.
3. Eine Mischung aus 2., man schaltet PhysX für die Radeon teilweise ab.
4. Man testet die Geforce alleine mit PhysX und zusätzlich die Radeon gemeinsam mit der Geforce ohne PhysX.
Zu 2. und 3.: Dies verfälscht ganz klar die Ergebnisse, siehe CBs 4Ghz Quad. Ich bin klar gegen diese Möglichkeit.
Nein, PhysX verbessert nicht die Optik.
Was man sieht ist der zusätzliche Content der als solches auch von einer Radeon problemlos wiedergegeben werden kann.
Auch hat sowas in keinem ernst zu nehmenden Benchmark der Vergleiche zwischen verschiedenen Herstellern zu suchen.
Nur weil ein paar Spiele Raytracing oder eine Voxelengine nutzen, sollte man auch diese in den Benchmark stecken?
Wo ist ein Outcast oder ähnliches...
Wohlgemerkt hier wäre es noch wesentlich sinnvoller da dies ebenfalls bildgebende Techniken sind und Physikberechnung eben nicht.
Am Ende bencht man auf ATI-Karten mit aktiviertem PhysX nicht die Grafikkarte sondern die CPU und das ist der Punkt!
Es ist absolut nicht vergleichbar und die Technik ist in Software/Spielen nicht
weit genug verbreitet, dass man so einer properitären Technik ein
Zugeständnis in den Benchmarks machen muss.
Das ist so als ob man Voodoo gegen den Rest bencht mit spielen die nix anderes können als Glide oder eben Software.
Nein, PhysX verbessert nicht die Optik.
Ich finde es zumindest hübscher wenn Teilchen rumfliegen oder Wände in viele Teile zerbrechen.
...
Was man sieht ist der zusätzliche Content der als solches auch von einer Radeon problemlos wiedergegeben werden kann.
Richtig, eine Radeon kann auch all die netten Shader ausführen.
Am Ende bencht man auf ATI-Karten mit aktiviertem PhysX nicht die Grafikkarte sondern die CPU und das ist der Punkt!Les meinen Post nochmal.
Deshalb möchte ich Radeons so nicht getestet sehen.
Entweder die fliegen raus bei den Spielen oder sie bekommen ihren Balken ohne PhysX.
Im Gegenzug bin ich sehr wohl interessiert, wie sich eine Geforce hier verhält. Ist das so schwer zu verstehen?
Mit einer Geforce würde ich dort PhysX nutzen, also möchte ich auch sehen wie schnell die einzelnen Geforces dort sind.
Schlammsau
2009-07-05, 17:10:21
Die nVidia Only PhysX Effekte in Games, sind meiner Meinung nach eine Mogelpackung.
Diese Effekte könnten ohne Probleme auch von der CPU berechnet werden, was aber im Fall von PhysX nicht passiert.
zB in Cryostasis geht meine 4890 bei Physikeffekten krass in die Knie und ich seh nur noch eine DIA Show vom feinsten. Wenn ich mir aber die CPU Auslastung ansehe, krebst diese nur bei <40% rum.
Was ich damit sagen will ist, dass nVidia die CPU bewusst aussen vor lässt, obwohl die Leistung da wäre. Somit schauen die Radeons in die Röhre.
Und das ist bei jedem PhysX Game so. Die CPU langweilt sich, während die GPU sich einen abschufftet. Wie gesagt, die Leistung aktueller CPUs ist mehr als ausreichend um Physik flüssig darstellen zu können.
Und das ist bei jedem PhysX Game so. Die CPU langweilt sich, während die GPU sich einen abschufftet. Wie gesagt, die Leistung aktueller CPUs ist mehr als ausreichend um Physik flüssig darstellen zu können.
Genau, bestes Beispiel ist Crysis.
Kaum werdens ein paar Hundert Objekte ruckelts wie Sau.
Echt stark wie schnell eine CPU sein kann.
Wenn ich mir aber die CPU Auslastung ansehe, krebst diese nur bei <40% rum. Was gar nichts bedeuted.
Kann gut sein, das die Bandbreite zum RAM limitiert.
Oder die Bandbreite des L1/2/3.
Mal getestet wie es mit anderem RAM Takt aussieht?
Im zweiteren Fall kann man wohl nichs tun, außer verschiedene CPUs vergleichen.
y33H@
2009-07-05, 17:34:28
@ Schlammsau
Bei mir siehts anders aus (CPU vs. Ageia/GPU):
http://www.abload.de/thumb/radeon_mit_cpu_mit_effswbh.png (http://www.abload.de/image.php?img=radeon_mit_cpu_mit_effswbh.png) http://www.abload.de/thumb/radeon_mit_ageia_mit_eq7xg.png (http://www.abload.de/image.php?img=radeon_mit_ageia_mit_eq7xg.png)Was ich damit sagen will ist, dass nVidia die CPU bewusst aussen vor lässt, obwohl die Leistung da wäre. Somit schauen die Radeons in die Röhre.Das ist eine fanboyistische Aussage, die nicht die Realität wiedergibt.
Jake Dunn
2009-07-05, 17:37:56
Das ist eine fanboyistische Aussage, die nicht die Realität wiedergibt.
BS bei Mirros Edge ist das auch so
y33H@
2009-07-05, 17:44:16
Rate mal von welchem Spiel die Shots sind? Richtig - Mirrors Edge ;D *Link (http://www.pcgameshardware.de/aid,674016/Alternative-zu-Nvidia-Physx-Ageia-Karte-plus-Radeon-HD-4870-im-Test-mit-Mirrors-Edge/Grafikkarte/Test/)*
Nimm eine Szene wo extrem viel Physik ist - und es sieht aus wie bei mir. Ist bei allen GPU-PhysX-Titeln so. Die CPU geht auf 100% und kratzt ab (Dualcore).
Wie gesagt, die Leistung aktueller CPUs ist mehr als ausreichend um Physik flüssig darstellen zu können.Nein, sieht man an Havok-Titeln - mach mal da viel Physik mit Massen an Units. Gute Nacht, CPU.
Jake Dunn
2009-07-05, 17:45:45
Rate mal von welchem Spiel die Shots sind? Richtig - Mirrors Edge ;D *Link (http://www.pcgameshardware.de/aid,674016/Alternative-zu-Nvidia-Physx-Ageia-Karte-plus-Radeon-HD-4870-im-Test-mit-Mirrors-Edge/Grafikkarte/Test/)*
Nimm eine Szene wo extrem viel Physik ist - und es sieht aus wie bei mir. Ist bei allen GPU-PhysX-Titeln so. Die CPU geht auf 100% und kratzt ab (Dualcore).
Ich rede von einer richtigen CPU :rolleyes:
Es ist bei den UT3-Physx-Levels übrigens auch so. Da braucht's einen 4-GHz-Wolfdale (100 Prozent Auslastung) für mehr als 40 Fps. Die Fps-Rate skaliert linear mit dem CPU-Takt.
Ich rede von einer richtigen CPU :rolleyes:
Du meinst du redest dich raus. ;)
MfG,
Raff
Schlammsau
2009-07-05, 17:48:12
Cryostasis sieht bei mir so aus:
Das unterste Diagramm ist die GPU Auslastung.
http://www.abload.de/thumb/unbenanntuukx.jpg (http://www.abload.de/image.php?img=unbenanntuukx.jpg)
C2Q9550@3,75Ghz (8,5x450Mhz), Radeon 4890
Dann nutzt das Spiel eben nur zwei Kerne aus. Das ist ja nichts Neues, dass neue Spiele nicht alle Kerne ausfahren ... leider. Das liegt aber nicht an PhysX. Mit zwei Cores wärst du wohl bei 100 Prozent (Vermutung).
MfG,
Raff
Schlammsau
2009-07-05, 17:53:42
Dann nutzt das Spiel eben nur zwei Kerne aus. Das ist ja nichts Neues, dass neue Spiele nicht alle Kerne ausfahren ... leider. Das liegt aber nicht an PhysX. Mit zwei Cores wärst du wohl bei 100 Prozent (Vermutung).
MfG,
Raff
Bei Physikberechnungen auf die GPU setzen aber nur einen Kern der CPU nutzen? Das ist aber der falsche Weg......
Jake Dunn
2009-07-05, 17:54:18
Du meinst du redest dich raus. ;)
MfG,
Raff
Nö warum sollte ich :confused:
In ME wird 1Kern zu 100% ausgelastet, 2Kerne zu 50%, 4Kerne zu 25% und 8Kerne ingesamt zu 12-13% looooool
Screens sind im ME Fred von mir ;)
Im "Startales" ist ein i7@4ghz so schnell wie eine 88/9800GTX, in ME würde bei einigermaßen guter CPU Nutzung auch nicht im einstelligen Bereich laufen, bei den PhysX Scenen.
Daredevil
2009-07-05, 17:57:55
Dann nutzt das Spiel eben nur zwei Kerne aus. Das ist ja nichts Neues, dass neue Spiele nicht alle Kerne ausfahren ... leider. Das liegt aber nicht an PhysX. Mit zwei Cores wärst du wohl bei 100 Prozent (Vermutung).
MfG,
Raff
Das is doch ein Konsolenport, wenn die Spiele dort ausgelastet werden bei mehr als 2 Kernen müsste das doch auch auf dem PC funktionieren, oder nicht?
y33H@
2009-07-05, 17:58:04
@ Schlammsau
PhysX ist mittlerweile multi-threaded. Im Falle der NV'schen Zusatzeffekte aber wohl nicht, da die CPU eh abkackt und die Effekte ohnehin nicht dafür ausgelegt sind, von einer CPU berechnet zu werden.
@ Daredevil
Konsolen-Port =! Quad-optimiert
dargo
2009-07-05, 18:03:12
Wie gesagt, die Leistung aktueller CPUs ist mehr als ausreichend um Physik flüssig darstellen zu können.
Es gibt nicht die Physik. Außerdem frage mich gerade wie du zu dieser Schlußfolgerung kommst ohne einen einzigen Beweis dafür liefern zu können.
y33H@
2009-07-05, 18:05:05
Havok wie auch PhysX vögeln die CPU - auch in der multi-threaded-Version. Nicht umsonst gibts noch kein Spiel, welches mit fetter Gameplay-Physik anrückt.
Daredevil
2009-07-05, 18:06:41
@ Daredevil
Konsolen-Port =! Quad-optimiert
Wenn die Programmier das für die XBOX360 und PS3 optimieren dann doch bestimmt so das alle dort vorhandenen Kerne ausgelastet werden, oder?
Könnte so dementsprechend nicht die Multithreading Fähigkeit auf den PC übernommen werden? Wie es bei Far Cry2, Need for Speed, Grid, Dirt und und und der Fall ist?
dargo
2009-07-05, 18:07:35
Das is doch ein Konsolenport, wenn die Spiele dort ausgelastet werden bei mehr als 2 Kernen müsste das doch auch auf dem PC funktionieren, oder nicht?
Wer sagt denn, dass jeder Konsolenport unbedingt mehr als zwei Cores beschäftigt?
Im "Startales" ist ein i7@4ghz so schnell wie eine 88/9800GTX, in ME würde bei einigermaßen guter CPU Nutzung auch nicht im einstelligen Bereich laufen, bei den PhysX Scenen.
Dann drehe ich mal den Spieß um und frage wie schnell ein i7 sein muss damit er bei PhysX mit einem G300 gleichziehen kann?
Daredevil
2009-07-05, 18:09:56
Naja ich weiß ja jetzt nicht wie groß der Aufwand ist sowas zu realisieren, aber wenn man ein Spiel auf ein 2 Multicore Systemen optimiert dann wäre wohl die logischste Schlussfolgerung das alle Ressourcen genutzt werden. :redface:
dargo
2009-07-05, 18:14:19
Naja ich weiß ja jetzt nicht wie groß der Aufwand ist sowas zu realisieren, aber wenn man ein Spiel auf ein 2 Multicore Systemen optimiert dann wäre wohl die logischste Schlussfolgerung das alle Ressourcen genutzt werden. :redface:
Dann ist dein Gedanke falsch - wenn der Entwickler durchgehend beispielweise um die 30fps auf CPU-Seite bei einem Konsolenspiel liefern möchte und dafür 2 Cores einer XBox360 reichen wird er einen Teufel tun und auf Biegen und Brechen versuchen mehr Frames mit einem dritten Core freizusetzen. Wozu auch wenn die Zielsetzung ~30fps sind und die Grafikeinheit eventuell eh in vielen Situationen nicht mehr zulässt.
Wenn die Programmier das für die XBOX360 und PS3 optimieren dann doch bestimmt so das alle dort vorhandenen Kerne ausgelastet werden, oder?
Könnte so dementsprechend nicht die Multithreading Fähigkeit auf den PC übernommen werden? Wie es bei Far Cry2, Need for Speed, Grid, Dirt und und und der Fall ist?
Ein kleines Beispiel von mir - Alarm für Cobra 11: Burning Whells ist ein Multiplattform-Titel. Trotzdem ist es eine reine Zweikern-Anwendung.
Jake Dunn
2009-07-05, 18:16:13
Dann drehe ich mal den Spieß um und frage wie schnell ein i7 sein muss damit er bei PhysX mit einem G300 gleichziehen kann?
Öhmm ist nicht dein ernst jetzt? :D
In ME wurde jedenfalls die CPU Be/auslastung beschnitten, wenn eine gammlige Ageia PPU die FPS schon so pusht in den PhysX Lastigen Bereichen. ->http://www.pcgameshardware.de/aid,674016/Alternative-zu-Nvidia-Physx-Ageia-Karte-plus-Radeon-HD-4870-im-Test-mit-Mirrors-Edge/Grafikkarte/Test/
Schlammsau
2009-07-05, 18:17:34
Es gibt nicht die Physik. Außerdem frage mich gerade wie du zu dieser Schlußfolgerung kommst ohne einen einzigen Beweis dafür liefern zu können.
Ich sehe hier ein Game, dass auf einer Radeon 4890! unspielbar wird, wenn ich auf Eiszapfen schiesse und diese in tausend Stücke zerfallen. Die GPU Last auf 100% ist, sich meine CPU aber langweilt mit einer Auslastung von 40-50%.
Was glaubst den du, wie ich auf diese Schlussfolgerung komme? Und es gibt noch weitaus potentere CPU´s als meine.
Meine Theorie ist schon seit langem, dass nVidia die CPU ausgrenzt um PhysX besser dastehen zu lassen.
dargo
2009-07-05, 18:18:52
Öhmm ist nicht dein ernst jetzt? :D
Ist mein voller Ernst.
Ich sehe hier ein Game, dass auf einer Radeon 4890! unspielbar wird, wenn ich auf Eiszapfen schiesse und diese in tausend Stücke zerfallen. Die GPU Last auf 100% ist, sich die CPU aber langweilt mit einer Auslastung von 40-50%.
Wie kommst du eigentlich auf die Idee, dass die ~50% freiliegende CPU-Leistung dafür reichen würde aus unspielbar --> gut spielbar zu machen?
Was gar nichts bedeuted.
Kann gut sein, das die Bandbreite zum RAM limitiert.
Oder die Bandbreite des L1/2/3.
Das kann das Betriebssystem nicht unterscheiden. Cache-Misses fallen auch unter CPU-Zeit.
Der CPU-Solver von PhysX ist wirklich eher schlecht wenn es um Multitheading-Skalierung geht, das hab ich auch schon mit dem Intel Thread Profiler beobachtet. Leider. Allerdings kommt das auch stark auf den Workload an.
Das war aber auch schon so zu Ageia-Zeiten. NVIDIA hat wohl entschieden das man da erstmal nicht weiter investiert. Warum auch, sie wollen ja GPUs verkaufen.
Andererseits ist das natürlich auch ein Verkaufsargument wenn es Hersteller lizensieren wollen als Software-Only-Engine, deshalb wird sich da evtl. noch was tun.
Schlammsau
2009-07-05, 18:27:31
Wie kommst du eigentlich auf die Idee, dass die ~50% freiliegende CPU-Leistung dafür reichen würde aus unspielbar --> gut spielbar zu machen?
Ist natürlich eine nur Vermutung/Theorie, wie aber auch von dir. ;)
Aber ein paar FPS würde es mit Sicherheit bringen!
Warum lässt PhysX die CPU nicht mitrechnen? Wie du an meinem Diagramm siehst, steigt die CPU Auslastung kein bisschen bei den Physikberechnungen. Nur die GPU Last steigt an.
Jake Dunn
2009-07-05, 18:28:00
Ist mein voller Ernst.
Die Karte gibt es doch noch nicht und wie gut/schlecht PhysX implemitiert sein wird ist auch noch nicht raus.:)
dargo
2009-07-05, 18:32:13
Ist natürlich eine nur Vermutung/Theorie, wie aber auch von dir. ;)
Aber ein paar FPS würde es mit Sicherheit bringen!
Das ist keine Theorie von mir sondern die Realität. Sehe dir einfach den Link von Jake Dunn an. Wieviele CPUs willst du verbauen damit die 53fps einer einzigen GTX260 erreicht werden? :|
Die Karte gibt es doch noch nicht und wie gut/schlecht PhysX implemitiert sein wird ist auch noch nicht raus.:)
Du kannst doch grob hochrechnen oder nicht? :) Schlechter wird die Implementierung sicherlich nicht. Es sei denn NV will wieder von PhysX weg... ziemlich unwahrscheinlich.
Schlammsau
2009-07-05, 18:35:18
Das ist keine Theorie von mir sondern die Realität. Sehe dir einfach den Link von Jake Dunn an. Wieviele CPUs willst du verbauen damit die 53fps einer einzigen GTX260 erreicht werden? :|
Theorie:
Der Code läuft mehr schlecht als recht auf CPUs und skaliert deswegen so schlecht.
Da könnte nVidia noch "tunen" aber das wollen sie nicht, weil wie Coda oben schon schrieb, wollen sie natürlich ihre Grafikkarten verkaufen.
Wie gesagt, ich sehe mindestens 50% CPU Leistung die brach liegt, dass Game aber trotzdem unspielbar mit PhysX Effekten ist. Da läuft doch irgendwas falsch.
dargo
2009-07-05, 18:39:32
Theorie:
Der Code läuft mehr schlecht als recht auf CPUs und skaliert deswegen so schlecht.
Ich nenne sowas Verschwörungstheorie. Und selbst wenn - ich sehe bei einem GPU-Hersteller keinen Grund auf CPU-Seite zu optimieren. Rausgeschmissenes Geld ist das.
Jake Dunn
2009-07-05, 18:49:37
Warum lässt PhysX die CPU nicht mitrechnen?
Marketing ;) Im Falle von ME sieht man es sehr gut, ein guter Quad (3.6ghz Yorki) würde es auf ~20FPS und ein sehr guter (4ghz Core i7) ~30FPS bei dem Abschnitt den PCGH zum testen nimmt.
Du kannst doch grob hochrechnen oder nicht? :)
Nein, ich weiß aber das bei guter Implemitierung sehr viel ist/sein kann :)
Daredevil
2009-07-05, 18:49:58
Schlammsau, verdreh die Tatsachen bitte nicht.
Wenn du von 50% CPU Leistung die nur genutzt wird sprichst könnten manche denken es wird künstlich gebremst, das ist falsch, es werden einfach nur 2 von 4 Kernen genutzt, nicht mehr und nicht weniger.
Des weiteren gibt es nur sehr weniger Stellen in dem Spiel wo die FPS komplett einbrechen, sonst läuft es eigentlich ganz gut, nVIDIA hat das Spiel dort ja direkt beworben, das es Stellen geben muss wo so ein Gerät unabdingbar gebraucht werden muss aus Marketinggründen sollte wohl klar sein, aber seine Technik Demos sollte man nun mal nicht in einem Spiel ausleben.
DX10.1 ist schon vergleichbar mit PhysX unterstützung.
Beides sind Dinge die der andere nicht kann oder unspielbar kann, PhysX ist für mich als Kunde der gern Ati kauft trotzdem das bessere Feature, nur in nem Review sollte sowas echt nicht einfließen. Wenn dann sollte man alle Spiele ohne PhysX und DX10 testen aber zusätzlich noch eine Rubrik einbringen was Nvidia besonders macht und was ATI.
derguru
2009-07-05, 18:50:47
soll erstmal ein spiel kommen wo man sagt,"WOW das will ich haben wegen physX",dann kann man sich immer noch drum kloppen:wink:
Daredevil
2009-07-05, 18:52:56
CUDA beschränkt sich ja nicht nur auf PhysX.
Es gibt genug Vorteile für diejenigen die sie auch wirklich nutzen, z.B. Videobearbeitung, Kompromierung und all so nen Cuda gedöns.
dargo
2009-07-05, 18:57:07
soll erstmal ein spiel kommen wo man sagt,"WOW das will ich haben wegen physX",dann kann man sich immer noch drum kloppen:wink:
Ist dir bewußt wie teuer Physik sein kann? NV könnte in ME auch Elemente einbauen die ihre eigenen High-End-GPUs in unspielbare Regionen drücken. Und wem nutzt das was? Kommen potentere Grafikkarten kommt auch komplexere PhysX. Alles braucht seine Zeit.
Marketing ;) Im Falle von ME sieht man es sehr gut, ein guter Quad (3.6ghz Yorki) würde es auf ~20FPS und ein sehr guter (4ghz Core i7) ~30FPS bei dem Abschnitt den PCGH zum testen nimmt.
Und es wäre trotzdem viel zu wenig im Vergleich zur einer ~150€ Grafikkarte. Was kostet nochmal ein 4Ghz i7?
Und stelle dir mal vor, du hast jetzt eine Anwendung die einen Quad zu sagen wir mal 80-90% auslastet. Wo willst du dann PhysX auslagern?
Daredevil
2009-07-05, 19:01:39
Was bringt es den Verkaufszahlen das in manchen Stellen MassenPhysik eingesetzt wird die jedes Spielen ohne Nvidia Karte unmöglich macht?
Das dieses Spiel eine Marketing Demo sein soll ist wohl offensichtlich, wär es gescheit gemacht hätte man weniger Scherben mit ner Ati und 30 FPS und mehr Scherben mit ner Nvidia und 60 FPS.
Aber nein, so hat man 5 fps und mit der Nvidia isses spielbar.
dargo
2009-07-05, 19:03:55
Was bringt es den Verkaufszahlen das in manchen Stellen MassenPhysik eingesetzt wird die jedes Spielen ohne Nvidia Karte unmöglich macht?
Du hast die Option PhysX nicht zu nutzen. Mir wäre es auch lieber wenn beide IHVs sich auf einen Nenner einigen könnten. Es ist aber nun mal nicht so und wir werden es auch nicht ändern können.
Daredevil
2009-07-05, 19:06:34
PhysX is ne Physik Engine und keine GPU Physik Engine.
Bis bei der Ausnahme wo das Fenster in trilliarden Stücke zerfällt läuft das Spiel 1a sahnig aufm Allendale 3.2Ghz.
Aber nein, so hat man 5 fps und mit der Nvidia isses spielbar.
Leider - ein vollkommen sinnloser Marketing-Stunt von Nvidia. Zumal es auch auf den kleineren Geforces bis 9600 ziemlich bescheiden läuft.
Jake Dunn
2009-07-05, 19:13:16
DX10.1 ist schon vergleichbar mit PhysX unterstützung.
Beides sind Dinge die der andere nicht kann oder unspielbar kann, PhysX ist für mich als Kunde der gern Ati kauft trotzdem das bessere Feature, nur in nem Review sollte sowas echt nicht einfließen. Wenn dann sollte man alle Spiele ohne PhysX und DX10 testen aber zusätzlich noch eine Rubrik einbringen was Nvidia besonders macht und was ATI.
Hersteller-Only "Features" sind für den Markt/Kunden immer suboptimal :(
Ist dir bewußt wie teuer Physik sein kann? NV könnte in ME auch Elemente einbauen die ihre eigenen High-End-GPUs in unspielbare Regionen drücken. Und wem nutzt das was? Kommen potentere Grafikkarten kommt auch komplexere PhysX. Alles braucht seine Zeit.
Richtig da die "Effekte" auch die GPU zusätzlich belasten die nicht für PhysX zuständig ist.
=Floi=
2009-07-05, 19:17:04
weil physik eben verdammt teuer ist. ist das so schwer zu kapieren?
nebenbei ist es mit einer GPU auch dadurch besser, weil man viel leichter eine 2. davon einbauen kann.
Daredevil
2009-07-05, 19:24:10
Physik ist nur so teuer wie sie eingesetzt wird, hat Crysis keine gescheite Physik?
Ist Crysis nicht auch spielbar?
Mirrors Edge ist ja nicht durchgängig unspielbar, nur in manchen Szenen wo übermässig gebrauch davon gemacht wird. Zum wohle des Kunde hätte man sowas rauslassen können, wer das verteidigt hat echt ein komisches Bild.
Das es teuer ist bestreitet ja niemand.
Jake Dunn
2009-07-05, 19:29:17
Mirrors Edge ist ja nicht durchgängig unspielbar, nur in manchen Szenen wo übermässig gebrauch davon gemacht wird.
Zum wohle des Kunde hätte man sowas rauslassen können, wer das verteidigt hat echt ein komisches Bild.
Das es teuer ist bestreitet ja niemand.
Und warum sollte NV das tun? Der Verkaufsfördende Effekt wäre dahin ;)
Daredevil
2009-07-05, 19:31:10
Ist das Spiel von Nvidia oder von Dice?
Ich meine natürlich aus der Sicht des Herstellers bzw. Vertreibers und nicht aus sicht der Firma die ihr Feature verkaufen will...
Jake Dunn
2009-07-05, 19:33:57
Ist das Spiel von Nvidia oder von Dice?
Ich meine natürlich aus der Sicht des Herstellers bzw. Vertreibers und nicht aus sicht der Firma die ihr Feature verkaufen will...
Erstmal nicht EA vergessen ;D
->http://www.nvidia.com/object/io_1228730098452.html
y33H@
2009-07-05, 19:37:23
Wo ist das Prob bei Mirrors Edge? ATi-Nutzer müssen mit der Standard-/Konsolen-Physik leben [oder eine Ageia einbauen], NV-Nutzer freuen sich über optionale und gelungene Zusatzphysik.hat Crysis keine gescheite PhysikDas bissl? Schau dir mal Custom-Maps mit viel Physik an .... 10 Fps FTW!Zum wohle des Kunde hätte man sowas rauslassen können, wer das verteidigt hat echt ein komisches Bild.Halloooooo - optional!
Jake Dunn
2009-07-05, 19:38:08
Wo ist das Prob bei Mirrors Edge? ATi-Nutzer müssen mit der Standard-/Konsolen-Physik leben [oder eine Ageia einbauen], NV-Nutzer freuen sich über optionale und gelungene Zusatzphysik.
Du hast garnix kapiert :rolleyes:
dargo
2009-07-05, 19:40:02
Physik ist nur so teuer wie sie eingesetzt wird, hat Crysis keine gescheite Physik?
Richtig, ich verstehe allerdings nicht was manche gegen komplexere Physik haben? Bei der Grafik wollen die Meisten doch auch, dass es nach vorne geht, oder? Was bringt mir photorealistische Grafik wenn ich dann beispielsweise mit einer Panzerfaust auf eine Mauer ballere und nur paar kleine Bruchstücke durch die Luft fliegen. Ich weiß nicht wie ihr das seht aber mir wäre/ist das zu wenig.
Was wir heute unter anderem an Physikeffekten sehen ist ein Witz im Vergleich dazu was in den nächsten Jahren sich auf dem Bildschirm abspielt.
LovesuckZ
2009-07-05, 19:47:30
Richtig, ich verstehe allerdings nicht was manche gegen komplexere Physik haben?
nVidia. Sobald AMD mit Havox da ist, werden die selben Leute und Gäste hier genau das gegenwärtige propagieren.
y33H@
2009-07-05, 19:48:13
@ Jake Dunn
Dann erklär doch mal. Ich habe einfach kein Verständnis für dieses Rumgeweine hinsichtlich DX10.1 und PhysX.
derguru
2009-07-05, 19:50:36
nVidia. Sobald AMD mit Havox da ist, werden die selben Leute und Gäste hier genau das gegenwärtige propagieren.
glaub ich kaum,ich denke mal jeder würde sich freuen wenn nv und amd auf einer schiene fahren würde und nicht jeder sein eigenes brötchen backen tut.
Jake Dunn
2009-07-05, 19:56:07
Was wir heute unter anderem an Physikeffekten sehen ist ein Witz im Vergleich dazu was in den nächsten Jahren sich auf dem Bildschirm abspielt.
Könnte evt. daran liegen das es (noch) keinen einheitlichen Standard dafür gibt :(
@ Jake Dunn
Dann erklär doch mal. Ich habe einfach kein Verständnis für dieses Rumgeweine hinsichtlich DX10.1 und PhysX.
Ich weine wegen DX10.1 und PhysX nicht, oben bei ME meinte ich das es reines Marketing ist/war (und den Post nicht pers. nehmen) ;)
Anderes Beispiel: CRYTEK wollte uns damals weiß machen wie wichtig und toll DX10 bei CRYSIS ist und nun bei Warhead geht "VeryHigh" auch unter DX9 sowie bei WARS (wurde per Patch nachgereicht).
y33H@
2009-07-05, 19:57:59
Und was ist tragisch daran die eigene Technologie zu promoten? Machen AMD und NV ja auch so *Schulter zuck*
Jake Dunn
2009-07-05, 20:04:54
Und was ist tragisch daran die eigene Technologie zu promoten? Machen AMD und NV ja auch so *Schulter zuck*
Wie DX10 bei CRYSIS? ;D
Ich glaub wir reden an einander vorbei :(
y33H@
2009-07-05, 20:08:13
DX10 ist keine Crytek-eigene Technologie/Feature :rolleyes:
Zudem solltest du in der Lage sein, zwischen DX10.0/10.1 und PhysX zu differenzieren ...
=Floi=
2009-07-05, 20:12:52
Du hast garnix kapiert :rolleyes:
eher du nicht. ;D
warum dürfen fensterscheiben nicht in 1000 teile zerzpringen? etc. man muß nur aufpassen, dass es nicht übertrieben ist. Ansonsten ist es eine bereicherung und ein vorteil.
Jake Dunn
2009-07-05, 20:15:52
DX10 ist keine Crytek-eigene Technologie/Feature :rolleyes:
Zudem solltest du in der Lage sein, zwischen DX10.0/10.1 und PhysX zu differenzieren ...
Es sind aber Technologien die auch stark ins Marketing mit einfließen (teileweise auch Kundentäuschend).
y33H@
2009-07-05, 20:17:45
Und weiter?
Jake Dunn
2009-07-05, 20:23:22
Und weiter?
Nichts weiter :) ich mach mir aus DX10.1 u. PhysX zur Zeit nichts, hab noch nichtmal Games zur Zeit hier die das nutzen ^^
eher du nicht. ;D
warum dürfen fensterscheiben nicht in 1000 teile zerzpringen etc. man muß nur aufpassen, dass es nicht über trieben ist. Ansonsten ist es eine bereicherung und ein vorteil.
Was willst du jetzt? :|
dargo
2009-07-05, 20:28:12
Es sind aber Technologien die auch stark ins Marketing mit einfließen (teileweise auch Kundentäuschend).
Mal davon ab, dass ich den Vergleich zwischen DX10 @Crysis und PhysX völlig banane finde (der bekannte Äpfel/Birnen-Vergleich) könnte ich diesen unter Umständen (wenn ich beide Augen zudrücke) noch verstehen wenn die Spiele mit Einsatz von HW-PhysX unspielbar wären. Dem ist aber nicht so wie man an ME sehen kann. Was spricht gegen Marketing wenn es dem Nutzer was bringt?
Wenn du schon jemanden auf die Füße treten willst dann beiden IHVs, dass sie nicht in der Lage sind sich auf einen Nenner zu einigen.
y33H@
2009-07-05, 20:32:13
@ Jake Dunn
Was flamst du dann gegen NV bzw. PhysX? Langeweile, Neid oder Gewohnheit?
=Floi=
2009-07-05, 20:34:48
das problem hat sich doch im 3 monaten eh erledigt. dank DX11 kann dann auch eine karte von ati physx. die wird durch ihre höhere rechenleistung dann uu. sogar noch schneller sein.
y33H@
2009-07-05, 20:35:14
Abwarten, nicht hypen ;)
Jake Dunn
2009-07-05, 20:35:59
Mal davon ab, dass ich den Vergleich zwischen DX10 @Crysis und PhysX völlig banane finde (der bekannte Äpfel/Birnen-Vergleich) könnte ich diesen unter Umständen (wenn ich beide Augen zudrücke) noch verstehen wenn die Spiele mit Einsatz von HW-PhysX unspielbar wären. Dem ist aber nicht so wie man an ME sehen kann. Was spricht gegen Marketing wenn es dem Nutzer was bringt?
Apfel-Birnen bedingt, da beides Marketinggeplenkel war ^^
Wenn du schon jemanden auf die Füße treten willst dann beiden IHVs, dass sie nicht in der Lage sind sich auf einen Nenner zu einigen.
Hab ich weiter vorn schon gesagt, das es suboptimal ist wie es zur Zeit läuft.
@ Jake Dunn
Was flamst du dann gegen NV bzw. PhysX? Langeweile, Neid oder Gewohnheit?
Jetzt wirds lustig hier ;D
Ich hab alles dargelegt wie ich es sehe zur Zeit, mehr nicht.:)
Du hast garnix kapiert :rolleyes:
Sein Versagen als Belehrter ist dein Versagen als Belehrender.
glaub ich kaum,ich denke mal jeder würde sich freuen wenn nv und amd auf einer schiene fahren würde und nicht jeder sein eigenes brötchen backen tut.
Schau dir doch einfach mal die Leute an, die heute so vehement den Sparfilter verteidigen. Diejenigen die damals bereits registriert waren, haben zu G70-Zeiten am dicksten gegen den Nvidia-Flimmerteufel gewettert.
dank DX11 kann dann auch eine karte von ati physx.
Sie kann dann genausoviel Physik wie jetzt. Für Physx muss Ati auch unter DX11 CUDA nutzen.
y33H@
2009-07-05, 20:40:58
@ Jake Dunn
Dann hast du imo - wie manch anderer auch - eine etwas kuriose Sichtweise. Optionale Features zu kritisieren ist Bullshit, einiges Argument wäre "die Zeit die man für die PhysX-Implementierung verbraten hat, hätte wo anders investieren können".
Jake Dunn
2009-07-05, 20:43:48
@ Jake Dunn
Dann hast du imo - wie manch anderer auch - eine etwas kuriose Sichtweise. Optionale Features zu kritisieren ist Bullshit, einiges Argument wäre "die Zeit die man für die PhysX-Implementierung verbraten hat, hätte wo anders investieren können".
Sich ein drauf wedeln ebenso :D
Sein Versagen als Belehrter ist dein Versagen als Belehrender.
;D
y33H@
2009-07-05, 20:47:37
Äh - wo wedel ich mir einen auf PhysX? Ich habe keinen GPU-PhysX-Titel gezockt ... immer nur angezockt. Aber das schöne an deiner Aussage: Man sieht mal wieder, dass von deiner Seite nichts argumentatives kommt =)
dargo
2009-07-05, 20:50:23
Apfel-Birnen bedingt, da beides Marketinggeplenkel war ^^
Nenne mir eine andere Möglichkeit eigene Produkte/Technologie ohne Marketing zu pushen? Ist Marketing soo böse? :confused:
y33H@
2009-07-05, 20:52:07
Wenn es von NV kommt, schon ;D
Mr. Lolman
2009-07-05, 20:54:28
Mit 300 Objekten kommt die CryEngine noch ganz gut zurecht: http://tinypic.com/player.php?v=1534n69&s=5
EDIT: Dementsprechend sollten auch ein paar 100 Glasscherben kein Problem für eine potente CPU darstellen: http://tinypic.com/player.php?v=2j2ynad&s=5
dargo
2009-07-05, 20:55:08
Wenn es von NV kommt, schon ;D
Einige hier (nicht auf dich bezogen) sollten wirklich langsam ihre Zuneigung, oder wie man es immer nennen möchte, zum IHV XYZ ablegen. Sonst ist eine ernsthafte Diskussion echt mühsam. ;(
Das kann das Betriebssystem nicht unterscheiden. Cache-Misses fallen auch unter CPU-Zeit.
Ok, schade um meinen Erklärungsversuch.
Der CPU-Solver von PhysX ist wirklich eher schlecht wenn es um Multitheading-Skalierung geht, das hab ich auch schon mit dem Intel Thread Profiler beobachtet. Leider. Allerdings kommt das auch stark auf den Workload an.
Das war aber auch schon so zu Ageia-Zeiten. NVIDIA hat wohl entschieden das man da erstmal nicht weiter investiert. Warum auch, sie wollen ja GPUs verkaufen.
Andererseits ist das natürlich auch ein Verkaufsargument wenn es Hersteller lizensieren wollen als Software-Only-Engine, deshalb wird sich da evtl. noch was tun.
Es gibt auch genug andere Dinge für die CPU zu tun.
Die die meinen auf dicke Hose machen zu müssen, "mein 4Ghz Quad hat viele Reserven" sollten auch mal ihre Umgebung beobachten.
Viele sind mit deutlich lahmeren Dualcores unterwegs. Sollen die aus dem Fenster springen?
Darüber hinaus gibts wahrlich mehr Dinge als nur Physik Berechnungen um eine CPU auszulasten.
puntarenas
2009-07-05, 20:57:41
Optionale Features zu kritisieren ist Bullshit, einiges Argument wäre "die Zeit die man für die PhysX-Implementierung verbraten hat, hätte wo anders investieren können".
Ich finde, das ist zu kurz gesprungen. PhysX -Hardwareunterstützung ist ein proprietäres Feature und aus Kundensicht kann ich nur hoffen, dass es in der Bedeutungslosigkeit verschwindet und funktional von einem herstellerübergreifenden Physik-/GPGPU-/Whatever-Framework ersetzt wird. Fehlender Wettbewerb ist auf lange Sicht schädlich, es gibt ohnehin nur zwei Grafikkartenhersteller und diese sollten zu unser aller Vorteil und zu Gunsten eines Innovationsdrucks auf einer von Offenheit geprägten PC-Plattform wetteifern, nicht versuchen die Kunden in eine exklusive Abhängigkeit zu locken.
Jake Dunn
2009-07-05, 21:00:35
Äh - wo wedel ich mir einen auf PhysX? Ich habe keinen GPU-PhysX-Titel gezockt ... immer nur angezockt. Aber das schöne an deiner Aussage: Man sieht mal wieder, dass von deiner Seite nichts argumentatives kommt =)
Was soll ich da argumentieren, wenn ich deiner Meinung nach eh eine "kuriose Sicht" habe?
Nenne mir eine andere Möglichkeit eigene Produkte/Technologie ohne Marketing zu pushen? Ist Marketing soo böse? :confused:
Nein, man sollte sich nur nicht zu sehr blenden lassen.:)
Wenn es von NV kommt, schon ;D
Das war klar, das sowas noch kommt :rolleyes:
Mit 300 Objekten kommt die CryEngine noch ganz gut zurecht: http://tinypic.com/player.php?v=1534n69&s=5
Die Cryengine kann auch mehr als 10mal so viel.
Nur die Hardware scheitert. Und das wird sie auch in 4 Jahren noch. 1000€ High-End CPU hin oder her.
Noch mal zum Video: Was für eine Hardware war dort nötig?
Dann muss man das noch eine echte Spielesituation packen, samt KI, Explosionen, und und.
y33H@
2009-07-05, 21:02:32
Klar, ein proprietäres Feature ist suboptimal. Noch gibts aber kein OpenCL samt DX11, warum also nicht jetzt mit PhysX rumspielen?Fehlender Wettbewerb ist auf lange Sicht schädlich [...] nicht versuchen die Kunden in eine exklusive Abhängigkeit zu locken.Dem stimme ich zu - nur ist beides etwas was es immer mal wieder geben wird. Und wenn dem so ist, dann möchte ich für mich zumindest was mitnehmen. Eine Abhängigkeit gibts bei mir eh nicht, ich habe die Kohle um mir NVs wie ATi in den Rechner zu stecken und PhysX war für mich nicht das Argument ne Geforce zu kaufen sondern freilich die BQ.
@ Jake Dunn
Du hast noch gar nicht argumentiert, sondern nur geflamt.Nein, man sollte sich nur nicht zu sehr blenden lassen.Was blendet bei GPU-PhysX? Dass es angeblich auch auf der CPU gut läuft?
=Floi=
2009-07-05, 21:05:46
das wird sicherlich weg von cuda portiert und dann können karten von ATI und karten von intel ebenfalls physx. nv macht das geld über die lizenzierung und nicht über das verkaufen von zusätzlichen grafikkarten.
IPhysX -Hardwareunterstützung ist ein proprietäres Feature und aus Kundensicht kann ich nur hoffen, dass es in der Bedeutungslosigkeit verschwindet und funktional von einem herstellerübergreifenden Physik-/GPGPU-/Whatever-Framework ersetzt wird.
Nur von was?
Microsoft ist leider sehr spät dran.
Nvidia hat die Gunst der Stunde erkannt und genutzt. Jetzt ist der Markt uneinheitlich, was sich auch nicht ändern wird.
Ich hätte gedacht, das AMD etwas nachgibt um die Lizenz zu bekommen, um in PhysX Spielen besser dastehen zu können.
Falsch gedacht, entweder wird in den Benchmarks PhysX abgeschaltet oder ein 4Ghz Quad genommen oder geschrieben das es am bösen bösen PhysX liegt, der Leser versteht das schon.
dargo
2009-07-05, 21:07:38
Nein, man sollte sich nur nicht zu sehr blenden lassen.:)
Ich sehe bei PhysX keine Blendung, denn:
Mal davon ab, dass ich den Vergleich zwischen DX10 @Crysis und PhysX völlig banane finde (der bekannte Äpfel/Birnen-Vergleich) könnte ich diesen unter Umständen (wenn ich beide Augen zudrücke) noch verstehen wenn die Spiele mit Einsatz von HW-PhysX unspielbar wären. Dem ist aber nicht so wie man an ME sehen kann. Was spricht gegen Marketing wenn es dem Nutzer was bringt?
Mr. Lolman
2009-07-05, 21:09:22
Noch mal zum Video: Was für eine Hardware war dort nötig?
Dann muss man das noch eine echte Spielesituation packen, samt KI, Explosionen, und und.
Ein Q9450@3.6GHz. Die Auslastung geht bei den Physikberechnungen von 35 auf 50% hoch:
http://www.abload.de/thumb/354b0q.jpg (http://www.abload.de/image.php?img=354b0q.jpg) http://www.abload.de/thumb/50ozpn.jpg (http://www.abload.de/image.php?img=50ozpn.jpg)
dargo
2009-07-05, 21:14:23
Ein Q9450@3.6GHz. Die Auslastung geht bei den Physikberechnungen von 35 auf 50% hoch:
http://www.abload.de/thumb/354b0q.jpg (http://www.abload.de/image.php?img=354b0q.jpg) http://www.abload.de/thumb/50ozpn.jpg (http://www.abload.de/image.php?img=50ozpn.jpg)
Und was versteht der Video-Ersteller unter Realtime? Außerdem:
Dann muss man das noch eine echte Spielesituation packen, samt KI, Explosionen, und und.
Ein Q9450@3.6GHz. Die Auslastung geht bei den Physikberechnungen von 35 auf 50% hoch:
http://www.abload.de/thumb/354b0q.jpg (http://www.abload.de/image.php?img=354b0q.jpg) http://www.abload.de/thumb/50ozpn.jpg (http://www.abload.de/image.php?img=50ozpn.jpg)
Crysis nutzt keine 4 Kerne?
Mr. Lolman
2009-07-05, 21:16:44
Und was versteht der Video-Ersteller unter Realtime? Außerdem:
Dass es nicht vorgerendert wurde. Das Video hab ich eben vorher grad aufgenommen. Und für Explosionen und KI ist bei 50% CPU Auslastung noch genug Performance da.
Crysis nutzt keine 4 Kerne?
AFAIK schon. Aber nicht anscheinend nicht für diese Szene.
Jake Dunn
2009-07-05, 21:17:29
@ Jake Dunn
Was blendet bei GPU-PhysX? Dass es angeblich auch auf der CPU gut läuft?
Ich sehe bei PhysX keine Blendung, denn:
Bei ME hab ich vorn doch schon geschrieben, andere Games hab ichmit PhysX nicht untersucht ;)
Und vom nicht "Blenden" lassen meine ich generell Markting gehyptes ach sooo wichtiges Zeug.
=Floi=
2009-07-05, 21:18:45
http://www.youtube.com/watch?v=YG5qDeWHNmk
und jetzt sagt mir keiner, dass dies ein unrealistisches beispiel ist :ugly:
http://www.christojeanneclaude.net/gaso.shtml
puntarenas
2009-07-05, 21:18:55
Microsoft ist leider sehr spät dran.
Microsoft ist immer sehr spät dran. Auch hier sitzen wir als Spieler in einer Plattformfalle und deshalb warten wir jetzt halt.
Ich habe mir auch schonmal naiv romantisch überlegt, dass es für die Hersteller doch Sinn gemacht hätte, PhysX gemeinsam als offenen Standard durchzusetzen und damit die Attraktivität der PC-Plattform zu stärken, anstatt sie zu spalten und zu schwächen. Insgesamt höheres Volumen könnte sich auch für Nvidia mehr rechnen, als höhere Marktanteile angesichts derzeitiger Absatzzahlen.
Blöd natürlich, dass beide auch die GPUs und CPUs für Spielkonsolen liefern und dadurch nur bedingte auf Gedeih und Verderb mit der PC-Plattform verbandelt sind. Außerdem regiert in Konzernen natürlich kein Sportsgeist, sondern berechnendes, kapitalistisches Kalkül moderner Prägung.
Also auf Microsoft warten, die ironischerweise ja auch eine Spielkonsole im Angebot haben.
dargo
2009-07-05, 21:19:32
Crysis nutzt keine 4 Kerne?
Nach meiner Messung gibts nur leichte Vorteile vom dritten Core.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Allerdings muss das nichts für die CE2 allgemein heißen.
Dass es nicht vorgerendert wurde.
Ich möchte die Frames wissen.
Das Video hab ich eben vorher grad aufgenommen. Und für Explosionen und KI ist bei 50% CPU Auslastung noch genug Performance da.
Sag das bitte einem Wolfdale-Nutzer. *hust*
Tut mir leid, aber Quadcores sind nicht die Mehrheit bei den Usern. :)
Außerdem möchte ich wissen wie du in meiner Szene noch komplexere Physik von der CPU berechnen lassen willst wenn die eh schon aus dem letzten Loch pfeift (3,7Ghz Yorkfield = ~40 avg.fps).
reunion
2009-07-05, 21:22:37
Dann nutzt das Spiel eben nur zwei Kerne aus. Das ist ja nichts Neues, dass neue Spiele nicht alle Kerne ausfahren ... leider. Das liegt aber nicht an PhysX. Mit zwei Cores wärst du wohl bei 100 Prozent (Vermutung).
MfG,
Raff
Der Punkt ist das es ein Witz ist wenn die Physik auf der GPU berechnet wird, wofür man mehrere hundert Threads benötigt, aber sich bei nicht vorhandener GPU alle CPU-Kerne >2 langweilen. Das ist ganz einfach eine bewusste Bevorteilung der eigenen GPUs, das kann man drehen und wenden wie man will.
dargo
2009-07-05, 21:25:21
http://www.youtube.com/watch?v=YG5qDeWHNmk
und jetzt sagt mir keiner, dass dies ein unrealistisches beispiel ist :ugly:
Das ist nicht realtime.
Und für Explosionen und KI ist bei 50% CPU Auslastung noch genug Performance da.
Nur nicht jeder hat einen 3,6Ghz Yorkfield. Ich zb nicht.
Außerdem sind 300 große Fäßer zwar nett, aber bei kleineren Objeten kommen schnell mehr zusammen.
Der Punkt ist das es ein Witz ist wenn die Physik auf der GPU berechnet wird, wofür man mehrere hundert Threads benötigt, aber sich bei nicht vorhandener GPU alle CPU-Kerne >2 langweilen. Das ist ganz einfach eine bewusste Bevorteilung der eigenen GPUs, das kann man drehen und wenden wie man will.
Ja und?
Der Softwarepfad ist eh nur aus Kompatibilitätsgründen drin.
Als anderen Ausweg gibts noch den Ausschaltknopf.
y33H@
2009-07-05, 21:30:41
Bei "richtiger" Physik hat man große und kleine Teile, die alle interagieren. Dieses 300-Tonnen-Beispiel ist davon weit weit entfernt. Die Glassplitter in ME sind näher dran - die interagieren untereinander, mit NPCs, Stoffen und weiteren zerbrechlichen Gegenständen.
reunion
2009-07-05, 21:34:53
Ja und?
Der Softwarepfad ist eh nur aus Kompatibilitätsgründen drin.
Als anderen Ausweg gibts noch den Ausschaltknopf.
Der Softwarepfad ist nur drin um die GPU-Physik möglichst überlegen darzustellen, ansonsten hätte man ihn nicht auf einen Thread reduziert.
y33H@
2009-07-05, 21:35:22
Ist sie das nicht? ;)
LovesuckZ
2009-07-05, 21:38:03
Ist sie das nicht? ;)
Natürlich nicht. Sieht man auch an den hunderten von Konkurrenzprodukten - die nutzen nämlich komplett alle verfügbaren Threads einer CPU aus.
Nur PhysX ist die einzige, die vorallen bei der GPU Variante den Software Pfad ausbremst.
Der Softwarepfad ist nur drin um die GPU-Physik möglichst überlegen darzustellen, ansonsten hätte man ihn nicht auf einen Thread reduziert.
Ja und? Außerdem müsstest du erst beweisen, das es keinerlei Aufwand wäre es auf mehrere Threads zu verteilen.
y33H@
2009-07-05, 21:42:27
@ LovesuckZ
Havok, PhysX, die CE2 oder auch die Chrome4 sind in Sachen Physik theoretisch multi-threaded, es wird aber kaum genutzt. die nutzen nämlich komplett alle verfügbaren Threads einer CPU ausNö. Kannst mir aber gerne das Gegenteil beweisen.
reunion
2009-07-05, 21:43:02
Ist sie das nicht? ;)
Darüber kann man trefflich streiten. Ich finde nicht. Solange es Spiele kaum schaffen mehr als zwei Threads auszulasten und die GPUs eh am Limit laufen sehe ich keinen Grund die Physik auf die GPU zu verlagern. Zumal damit ohnehin nur Effektephysik machbar ist.
LovesuckZ
2009-07-05, 21:43:48
@ LovesuckZ
Havok, PhysX, die CE2 oder auch die Chrome4 sind in Sachen Physik theoretisch multi-threaded, es wird aber kaum genutzt. Nö. Kannst mir aber gerne das Gegenteil beweisen.
Sarkamus, mein Lieber. :D
Es ist ersichtlich, dass auf dem Markt von vorallen Physik-Middleware ein ziemliches Effizienzproblem existiert. Und mit GPU beschleunigte Physik scheint vielen anscheinend erst ersichtlich zu werden, wie wenig (Effekt) Physik überhaupt in Spielen eine Rolle spielt
damit ohnehin nur Effektephysik machbar ist.
Und Effekte sind ab heute böse? Warum sollten sich Grafikkarten nicht um die Berechnung von Effektphysik kümmern, wenn sie dazu bestens geeignet sind?
dargo
2009-07-05, 21:44:54
Solange es Spiele kaum schaffen mehr als zwei Kerne auszulasten und die GPUs eh am Limit laufen sehe ich keinen Grund die Physik auf die GPU zu verlagern.
Ich glaube du hast die letzten ~2 Jahre verpasst. ;(
y33H@
2009-07-05, 21:46:15
Solange es Spiele kaum schaffen mehr als zwei Threads auszulasten und die GPUs eh am Limit laufen sehe ich keinen Grund die Physik auf die GPU zu verlagern. Zumal damit ohnehin nur Effektephysik machbar ist.Full Ack. Ich will, das ein Core meines i7 nur Spielphysik ackert und die restlichen dank MT am Limit laufen :(
@ LovesuckZ
:tongue:
Darüber kann man trefflich streiten. Ich finde nicht. Solange es Spiele kaum schaffen mehr als zwei Threads auszulasten und die GPUs eh am Limit laufen sehe ich keinen Grund die Physik auf die GPU zu verlagern. Zumal damit ohnehin nur Effektephysik machbar ist.
Ja genau, richtig.
Heute trägt der Spieler einen niegelnagen neuen Dualcore aus dem Laden, der morgen/bzw gestern wertlos ist.
Die miesen Testberichte haben ihn nicht gewarnt, das er eine CPU mit 2 weiteren Kernen hätte kaufen sollen.
Nicht auszudenken was mit denen ist, die bereits längere Zeit eine CPU haben.
Tja, die haben ja noch mehr Reserven oder ne doch nicht.
Und Effekte sind ab heute böse? Warum sollten sich Grafikkarten nicht um die Berechnung von Effektphysik kümmern, wenn sie dazu bestens geeignet sind?Effekte sind nur gut, wenn die vielen ALUs einer Radeons daraus einen Vorteil erlangen.
Mr. Lolman
2009-07-05, 23:10:38
Nach meiner Messung gibts nur leichte Vorteile vom dritten Core.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Allerdings muss das nichts für die CE2 allgemein heißen.
Ich möchte die Frames wissen.
Keine Ahnung. Genug für ein Echtzeit-Frapsvideo jedenfalls.
Sag das bitte einem Wolfdale-Nutzer. *hust*
Tut mir leid, aber Quadcores sind nicht die Mehrheit bei den Usern. :)
Außerdem möchte ich wissen wie du in meiner Szene noch komplexere Physik von der CPU berechnen lassen willst wenn die eh schon aus dem letzten Loch pfeift (3,7Ghz Yorkfield = ~40 avg.fps).
Bei Mirrors Edge langweilt sich die CPU. Da wär locker noch was möglich gewesen:
http://tinypic.com/player.php?v=j6ncc0&s=5
http://tinypic.com/player.php?v=141rxat&s=5
Und Effekte sind ab heute böse? Warum sollten sich Grafikkarten nicht um die Berechnung von Effektphysik kümmern, wenn sie dazu bestens geeignet sind?
Weil Radeons das nicht können/dürfen. Wartet's ab. Sobald Ati "PhysY" launcht und alle Nvidia-GPUs D3D10.1 unterstützen, sind diese umstrittenen Features urplötzlich nicht nur für die Firmen, sondern auch deren Anhänger unfassbar wichtig.
MfG,
Raff
Black-Scorpion
2009-07-05, 23:27:15
Da hast du gerade den richtigen zitiert.
Was meinst du wie der im Dreieck springt weil auf einmal D3D 10.1 soo wichtig ist.
derguru
2009-07-05, 23:27:59
dx10.1 wird dann auch unwichtig weil es demnächst dx11 gibt und dann dreht sich das karussel wieder von vorne. :ulol2:
reunion
2009-07-05, 23:33:37
Ja genau, richtig.
Heute trägt der Spieler einen niegelnagen neuen Dualcore aus dem Laden, der morgen/bzw gestern wertlos ist.
Die miesen Testberichte haben ihn nicht gewarnt, das er eine CPU mit 2 weiteren Kernen hätte kaufen sollen.
Nicht auszudenken was mit denen ist, die bereits längere Zeit eine CPU haben.
Tja, die haben ja noch mehr Reserven oder ne doch nicht.
Du hast bei den CPUs um Häuser geringere Leistungsunterschiede wie bei den GPUs. Was soll denn der hypothetische Spieler mit seiner nagelneuen 9500GT "High-End"-GPU zu dem Thema sagen? Die Aussage zieht nicht. Jeder Aldi-Rechner hat heute schon einen Quad drinnen.
Und Effekte sind ab heute böse? Warum sollten sich Grafikkarten nicht um die Berechnung von Effektphysik kümmern, wenn sie dazu bestens geeignet sind?
Weil sie meist mit der Grafik schon überfordert ist. Sie darf das aber gerne tun wenn Leistungsreserven vorhanden sind, das aber dann bitte nicht zulasten jener welche andere Leistungsreserven haben und dann die CPU Däumchen drehen sehen.
reunion
2009-07-05, 23:38:53
Full Ack. Ich will, das ein Core meines i7 nur Spielphysik ackert und die restlichen dank MT am Limit laufen :(
So ist es. Solange es die Spiele kaum schaffen die immer höhere Kernanzahl der CPUs auszulasten muss man sich schon die Frage stellen warum man hier Last Richtung GPU schieben will. Und weil Raff schon wieder Ritter auf der goldenen Kokosnuss spielt: Nein das gilt allgemein.
Du hast bei den CPUs um Häuser geringere Leistungsunterschiede wie bei den GPUs. Was soll denn der hypothetische Spieler mit seinen nagelneuen 9500GT "High-End"-GPU zu dem Thema sagen?Der Spieler mit der 9500 GT kann die Grafiklast leicht zurückschrauben.
Zudem kann er leicht PhysX zurückschrauben oder abschalten.
Der mit der alten CPU, sagen wir einem hats schwieriger. Er kann nicht so leicht so viele Regler verschieben, ums flüssiger zu bekommen.
Außerdem gehts hier ständig um Leistungsreserven. Klasse, da freut sich der mit der alten CPU, er hat keine.
Anders rum könnte er auf etwas Grafik verzichten, um etwas mehr Physik zu bekommen.
Diese Wahlmöglichkeit soll ihm verwert bleiben.
Achja, noch weiteres, was ist eine alte CPU? Ein E8600? Oho, gestern gekauft heute Müll? Eine E6600? Kaum langsamer als ersterer, aber deutlich älter.
reunion
2009-07-05, 23:47:33
Der Spieler mit der 9500 GT kann die Grafiklast leicht zurückschrauben.
Zudem kann er leicht PhysX zurückschrauben oder abschalten.
Der mit der alten CPU, sagen wir einem hats schwieriger. Er kann nicht so leicht so viele Regler verschieben, ums flüssiger zu bekommen.
Außerdem gehts hier ständig um Leistungsreserven. Klasse, da freut sich der mit der alten CPU, er hat keine.
Anders rum könnte er auf etwas Grafik verzichten, um etwas mehr Physik zu bekommen.
Diese Wahlmöglichkeit soll ihm verwert bleiben.
Achja, noch weiteres, was ist eine alte CPU? Ein E8600? Oho, gestern gekauft heute Müll? Eine E6600? Kaum langsamer als ersterer, aber deutlich älter.
Der Spieler mit seinem Dual-Core kann auch die Physikeffekte zurückschrauben wenn seine CPU dafür zu langsam ist. Auf was willst du hinaus? Grafik zurückschrauben um mehr Physik zu bekommen ist ja wohl lächerlich wenn er anderweitig beides haben könnte wenn man die Physik auf der CPU berechnen würde.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.