PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Alte Spiele auf neuen Pfaden (DirectX11)


[CC]
2011-05-05, 10:06:12
Hi Leute,

immer öfter liest man auch in den News auf dieser Seite (letztens z.B. in den News vom 30.04.2011, http://www.3dcenter.org/news/2011-05-01), dass viele Spiele durch den Einsatz von D3D11 hohe Performance-Boosts erhalten. In der oben verlinkten News steht beispielsweise:

Die PC Games Hardware hat sich den nunmehr offiziellen DirectX11-Modus für World of WarCraft: Cataclysm angesehen. Der DirectX11-Renderpfad des ursprünglich für DirectX8 entwickelten Spiels bringt keinerlei Optikverbesserungen mit sich, kann dafür aber mit beachtbaren Performancegewinnen aufwarten: Eine Radeon HD 6970 legt unter 1920x1080 mit 4x Anti-Aliasing um 36% zu, eine GeForce GTX 580 gar um 46%. [...] Ganz nebenbei gesagt liegt hier auch eine Erklärung dafür, wieso aktuelle DirectX11-Grafikkarten mit der Zeit "besser werden" gegenüber vormals gleichschnellen DirectX10-Karten, letztere also mit der Zeit ins Hintertreffen geraten.


Aus meinen persönlichen Erfahrungen beim Wechsel von D3D9 auf D3D10 konnte ich den umgekehrten Effekt beobachten, nämlich einen Einbruch von Frameraten, im Regelfall um die 25%. Wieso ist dies bei DirectX11 jetzt anders? Oder anders gefragt und sicherlich auch interessanter: Welche Funktionalität von DirectX11 / Shader Model 5.0 sorgt für diese Performanceverbesserungen? Im Falle von WoW wird dies sicherlich nicht die Tesselation sein, denn WoW hatte seit jeher nur low-poly-Modelle. Gibt es hier jemanden der Ahnung hat oder zumindest eine wohlbegründete Vermutung?

lumines
2011-05-05, 10:51:31
War es nicht so, dass die meisten D3D10-Spiele damals eher auf die neuen Features von D3D10 ausgelegt waren statt auf Performance? Ich glaube schon D3D10 erzeugte damals weniger Last auf der CPU durch die Grafikkartentreiber. Gerade bei WoW dürften sich solche Optimierungen ja ziemlich stark bemerkbar machen.

Shink
2011-05-05, 10:55:14
;8715265']Aus meinen persönlichen Erfahrungen beim Wechsel von D3D9 auf D3D10 konnte ich den umgekehrten Effekt beobachten, nämlich einen Einbruch von Frameraten, im Regelfall um die 25%.
Theoretisch gibt es ja keine Erklärung dafür: D3D10 sollte eigentlich bei der selben Aufgabe wesentlich schneller sein als D3D9.
Warum das damals so war: Ich habe keine Ahnung. Vielleicht waren die Treiber einfach noch unausgereift da es keine Spiele gab - oder umgekehrt - oder beides?:freak:

Ich denke hier gibt es aber ein paar Members die tatsächlich etwas sinnvolles dazu sagen können.

Mr.Magic
2011-05-05, 11:25:04
Warum das so war?
Statt sich bei der DX10-Version mit niedrigerer CPU-Last und höherer Effizienz zu begnügen, mussten neue Effekte mit rein. Die haben aber als Kaufanreiz für Vista nicht wirklich was gebracht.
DX11-Spiele mit zusätzlichen Effekten sind unter DX11 idR auch langsamer als mit DX9.

Hübie
2011-05-05, 11:39:53
Über DX9 muss man häufig Umwege gehen die zum Ziel führen.
Hier (http://forum.quest3d.com/index.php?topic=67820.0) mal ein Beispiel wie man unter DX9 HDR+AA realisieren muss.
"In my special ForceAA path, I detect when the correct FP16 renderable texture is created and then allocate a separate FP16 MSAA buffer and bind it to the texture. From that point on, all rendering the app does to the FP16 texture actually goes into the FP16 MSAA buffer instead." [...] "When the app is done rendering into the FP16 buffer and attempts to bind it as a source texture, I tell the hardware to combine the multiple samples from the MSAA buffer and put the anti-aliased image into the FP16 texture that the app created. The app then reads from the texture as usual. All of the data is full-quality FP16 from start to finish."

Das kann man ab D3D10 deutlich verkürzen. Es geht also nicht nur um Performance sondern auch um Optik. Bei HL² gab es wohl auch eine Möglichkeit HDR+AA zu realisieren (glaube das macht mittlerweile jeder Treiber) jedoch war es wenig bis garnicht sichtbar, aufgrund der stärkeren Überstrahleffekte. Es fiel auch so gut wie niemandem auf, das in HDR-Bereichen nicht geglättet wurde. Mangels fehlendem DX10 kann man aber HL² nicht als sinnvolles Beispiel heranziehen.

Doch wie andere schreiben: DX10 wurde mit Features vollgestopft um den Verkauf anzuregen. Daher die oftmals brachialen Leistungseinbrüche. DX11 sollte ohne tesselation etwas schneller als DX9/DX10 arbeiten bei stetiger Optik.

LG Hübie

Deinorius
2011-05-05, 11:53:58
Doch wie andere schreiben: DX10 wurde mit Features vollgestopft um den Verkauf anzuregen. Daher die oftmals brachialen Leistungseinbrüche. DX11 sollte ohne tesselation etwas schneller als DX9/DX10 arbeiten bei stetiger Optik.


Oder bis zu 35-50 % wie bei WoW laut PCGH? :ugly:

Hübie
2011-05-05, 12:01:17
Naja wollen wirs mal glauben ;)

Lowkey
2011-05-05, 12:28:22
Das Thema hatte wir doch schon einmal vor 1 1/2 Jahren. Denn da war mein Kaufargument für die 5750, dass sie mit DX11 Titeln in der Performance deutlich zulegen müßte, falls man die DX11 Effekte wie Tesselation abschalten würde. Doch die Hersteller der Spiele (Dirt) hatten damals keinen Schalter zum Abschalten der Effekte. Seit Anfang des Jahres ist Tesselation anscheinend abschaltbar und somit sollten die alten Karten 10-20% schneller laufen - in DX11 Titeln.

Rumbah
2011-05-05, 12:53:17
Ich meine beim WoW DX11 Modus werden einige Berechnungen von der CPU auf die GPU ausgelagert. Da es eh eher CPU limitiert ist, gerade auf ner Flugreiterroute, kann das dann deutlich helfen.

Hübie
2011-05-05, 13:44:06
Obwohl eine neue CPU meist günstiger ist ;) Ich belächel WoW immer noch ;D Die Grafik müsste sogar auf einer X1900XT flüssig laufen wenn ich mir Effekte und Texturen so ansehe...

Peilo
2011-05-05, 19:13:32
Obwohl eine neue CPU meist günstiger ist ;) Ich belächel WoW immer noch ;D Die Grafik müsste sogar auf einer X1900XT flüssig laufen wenn ich mir Effekte und Texturen so ansehe...

sollte sie auch:freak:, weil es damals mit 2,7ghz A64, 1gb ram und 1950Pro weitgehend flüssig lief

Larucio
2011-05-05, 19:32:32
Also ich spiele WoW. Der DirectX11-Modus erhöht die Performance tatsächlich um einiges.

So geringe Anforderungen hat WoW imho nun auch nicht. Auf meinem Notebook mit Radeon HD 5470 (512MB), 8GB RAM DD3 und Phenom II 4x2 GHz läuft es gerade mal auf Gut flüssig. Bei Hoch fängt es schon stark an zu Ruckeln, Ultra macht dann gar kein Spaß mehr bzw. nahezu unspielbar (<10 fps). Und das ganze ohne AA.
Die Anforderungen sind mit den letzten Patches schon um einiges gestiegen, auch dank hochauflössendem Schatten und neuem Wasser.

Mars81
2011-05-05, 20:23:15
Auf meinem Notebook mit Radeon HD 5470 (512MB),... läuft es gerade mal auf Gut flüssig.

Finde ich nicht weiter verwunderlich bei einer Bandbreite von gerade einmal 12,8 GB/s. Oder hast du die Variante mit GDDR5?
http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-HD-5000-Serie#Leistungsdaten
Das entspricht gerade einmal der Leistung einer Radeon HD 2600 Pro des Desktopsegments.

Larucio
2011-05-05, 21:01:29
Ich schätze kein GDDR5, der Leistung nach zu urteilen.

Könnte ich die Leistung also optimieren, in dem Schatten/Wasser/Lichteffekte höher stelle und Sichtweite/Objekte verringere? Denn die Bandbreite müsste ja nur die Leistung der Texturen/Anzahl der Objekte/Sichtweite einschränken, für Shader sollte ja die Radeon 5er Leistung mehr als ausreichend sein, oder liege ich falsch?

Rache Klos
2011-05-08, 15:24:06
Wenn bei einem Spiel nur der optimierte Renderpfad umgestellt wird, gab es auch von D3D9 auf D3D10 einen Performance Schub. Wenn jedoch auch die zusätzlichen Grafik Features genutzt werden, um das Spiel optisch besser aussehen zu lassen, kann natürlich die Umstellung auch Performance kosten.

Wenn nun bei D3D11 das Spiel extrem Gebrauch von Tesselation macht, wird es ganz bestimmt nicht schneller laufen nur durch die Umstellung von 10 auf 11.

IC3M@N FX
2011-05-08, 17:55:59
Ich würde mal die wow Engine erneuern damit meine ich nicht komplett sondern es reicht schon höher aufgelöste Texturen z.b die Rüstungen und Figuren sehen aus wie PS2 Grafik der Comic Look kann ja bleiben. Wasser und Lensflare bzw. Bloom Effekte reichen einfach nicht.

Deinorius
2011-05-08, 18:37:39
Wenn bei einem Spiel nur der optimierte Renderpfad umgestellt wird, gab es auch von D3D9 auf D3D10 einen Performance Schub. Wenn jedoch auch die zusätzlichen Grafik Features genutzt werden, um das Spiel optisch besser aussehen zu lassen, kann natürlich die Umstellung auch Performance kosten.

Wenn nun bei D3D11 das Spiel extrem Gebrauch von Tesselation macht, wird es ganz bestimmt nicht schneller laufen nur durch die Umstellung von 10 auf 11.


Andererseits würde ein Spiel mit den Features und mit derselben grafischen Qualität, die man sonst nur mit D3D10/11 verwendet hat, unter DX9 noch mehr Leistung kosten.
Gibts einen Artikel, der es mal von dieser Sichtweite versucht hat?

Hübie
2011-05-08, 23:33:04
Ich glaube nicht. Wäre auch unsinnig so einen zu verfassen ;) In anderen Zeiten kann man sowas mal ins Auge fassen aber wir sind momentan in so eine Blase gefangen das es sich doch garnicht lohnt.
Jeder Artikel der das Verhältnis DX11 zu DX9 (eigentlich ja nur D3D) beschreibt kann ja umgekehrt werden. Da hast du ihn also. Grundsätzlich ist (fast) alles in DX9 realisierbar was auch in DX10 geht.
Ich fand den Schritt von DX8 zu 9 jedoch größer als den von 9 auf 11.

LovesuckZ
2011-05-09, 01:31:20
Der Schritt von DX9 auf DX11 ist riesig. Weitaus größer als von DX8 auf SM2.0.

Alleine mit Computer-Shader und Tessellation lassen sich haufenweise grafische Effekte realisieren, die über PS-Shader und/oder CPU ewig brauchen würden.

Shink
2011-05-09, 08:56:43
Ich würde mal die wow Engine erneuern damit meine ich nicht komplett sondern es reicht schon höher aufgelöste Texturen z.b die Rüstungen und Figuren sehen aus wie PS2 Grafik der Comic Look kann ja bleiben.
Wozu brauch ich eine neue Engine wenn ich höher aufgelöste Texturen will?

Ich würde mal sagen: Blizzard hat es nicht nötig die Grafik großartig zu verbessern. Starcraft 1 oder Diablo II hat wohl auch keiner wegen der Grafik gespielt und Grafik-Nathzees dürften schon beim Erscheinen von WoW unzufrieden gewesen sein.

Hübie
2011-05-09, 10:11:54
Naja technisch betrachtet. Ich bezog mich eher auf features und die gegeben Möglichkeiten welche daraus resultieren (HLSL...).
Klar ist threading, tesselation, GPU-Computing etc effizienter aber die grafischen Möglichkeiten sind oft mals sehr ähnlich ;)

LovesuckZ
2011-05-09, 10:35:37
Naja technisch betrachtet. Ich bezog mich eher auf features und die gegeben Möglichkeiten welche daraus resultieren (HLSL...).
Klar ist threading, tesselation, GPU-Computing etc effizienter aber die grafischen Möglichkeiten sind oft mals sehr ähnlich ;)

Nein, die "grafischen Möglichkeiten" sind nicht annährend mit anderen Mitteln zu erreichen. Tessellation ermöglich es ein Geometrie-Level zu erreichen, dass über die CPU+Bussystem in Echtzeit nicht machbar ist. Dazu gesellt sich noch ein dynamischer LoD, der das ganze Verfahren um ein vielfaches Effizienter macht.

GPU-Computing macht bestimmte Berechnungen nicht nur schneller, sondern ermöglich eben auch die erneute Übertragung von Aufgaben auf die GPU - KI und Physik sind zwei große Beispiele.

Der Schritt ist riesig. Aber es bringt eben auch nichts, wenn keine Firma den Arsch hat, die Möglichkeiten auszunutzen. SM2.0 hatte damals Valve und Crytek. Heute produzieren sie Casaul-Games mit DX9 Schnittstelle. :rolleyes:

Hübie
2011-05-09, 12:45:11
Glaube wir reden aneinander vorbei: Ich meinte die Menge der neuen Features war länger als jetzt. Klar was ich meine ;)
Tesselation ging auch damals schon (siehe Truform) nur hatte es ein anderes Prinzip oder wurde nur durch OGL genutzt.

LG Hübie

Coda
2011-05-09, 14:12:43
Tesselation ging auch damals schon (siehe Truform)
Nö. Das ist etwas völlig anderes.

Hübie
2011-05-09, 20:32:50
TruForm konnte Dreiecke per Hardware hinzufügen um rundere Gestalten zu etablieren. Technisch wars ähnlich gelöst.

TruForm was an early tessellation implementation created by ATI and employed in DirectX 8 and OpenGL graphics cards, on both Mac and Windows. The technology was first employed on the Radeon 8500 in 2001. It was never accepted into the DirectX or OpenGL specifications.
Quelle (http://en.wikipedia.org/wiki/Truform)

LG Hübie

Edit: Es war natürlich nachteilhaft, dass die Modelle von vorne herein auf TruForm ausgelegt werden mussten.

Werden Models aber nicht ohne hin mit deutlich mehr Polygonen erstellt als sie final im Spiel integriert werden?

Coda
2011-05-10, 00:38:16
TruForm konnte Dreiecke per Hardware hinzufügen um rundere Gestalten zu etablieren.
Ja.

Technisch wars ähnlich gelöst.
Nein.

Hübie
2011-05-10, 00:41:49
Ja.


Nein.

Ach komm schon. Nun lass mich auch nicht dumm sterben. Es gab afaik keine spezielle Einheit wie den Tesselator seit R600 aber irgend eine Funktion (auf der GPU) musste ja TruForm ausführen...

Coda
2011-05-10, 01:08:03
Es gab eine spezielle Einheit, aber die hat absolut nichts mit den Möglichkeiten der D3D11-Tesselation zu tun, außer das man mit D3D11 wenn man will auch Zeug "rund erscheinen" lassen kann.

Hübie
2011-05-10, 01:17:44
Gibts denn mal einen Fachartikel über den Tesselator ab R600?

Coda
2011-05-10, 01:32:08
Ich kenn keinen. Der R600-Tesselator hat aber auch noch nicht die vollen D3D11-Fähigkeiten, auch wenn er deutlich näher dran ist.

Auf was ich hinaus wollte: Ich stimme LovesuckZ zur Abwechslung mal zu. Das Problem bei D3D10 und D3D11 waren immer die Engine und der Content, sehr wahrscheinlich weil sich die ganze Welt um die Konsolen dreht.

Hübie
2011-05-10, 02:51:00
Afaik gibt es ohne hin nur sehr wenige Engines die von Beginn an auf min. D3D10 ausgelegt waren (auf anhieb fällt mir nur die CryEngine 3.0 ein). Da verwundert es auch nicht, das der content dem Technologielevel hinterher hinkt. Ob Konsolen oder die damals vorherrschende XP-Dominanz/Vistas fail schuld war... wer weiß. Die Wahrheit liegt wohl irgendwo in der Mitte.
Warten wir mal 2-3 Jahre dann kommen Programmierer auch bei D3D11 hinterher ;)

Coda
2011-05-10, 02:57:00
auf anhieb fällt mir nur die CryEngine 3.0 ein
Hä? Die kann nichtmal D3D10.

Hübie
2011-05-10, 04:05:20
Als sie damals anfingen die zu entwickeln schon. Später wollte man DX11 integrieren. Der Schwenk kam im Verlauf der Jahre um Multiplattformfähig zu sein.

ROXY
2011-05-10, 15:45:56
was braucht man für so eine schrott grafik überhaupt direct 11 oder gute grafikkarten?
wow hat ein niveau zwischen N64 und gamecube

sorry aber ??? gehts denen noch gut ???

so einen grafikmüll abliefern und einen auf fette hose machen.
braucht leistung wie crysis 2 und liefert nichtmal annähernd ut 2004 grafik
schau dir das doch mal an - das ist auf gforce 6 niveau


http://www.browsergamespielen.de/img/img/11248869025-world-of-warcraft-screenshot4.jpg

Skusi
2011-05-10, 15:57:53
Das ist BC:rolleyes:
Wir sind inzwischen 2 addons weiter...

Hübie
2011-05-10, 17:04:58
Sei es drum. Selbst Cataclysm sieht einfach nur nach Brechmittel aus. Spielerisch find ichs sowie so so spannend wie Haarwachs ^^ Aber das ist nur meine bescheiden Meinung.
Für DX11 erbärmlich und zudem hardwarefressend.
http://www.pcgameshardware.de/screenshots/original/2009/08/ss7_hires.jpg

Atma
2011-05-10, 17:18:33
Wenn ich so was hier schon wieder lese, dann ist mir auch voll und ganz nach Brechmittel. Man kann sich natürlich alles schlecht reden, wenn man will, aber hier wird mal wieder maßlos übertrieben. In Sachen Polygone hängt WoW freilich deutlich hinterher, aber die Qualität der Texturen hat seit Wotlk extrem zugenommen und in Cataclysm sowieso.

Das Grafikniveau von Classic/BC ist in keiner weise mehr vergleichbar mit Wotlk/Cataclysm. Wenn die werten Herren das nicht einsehen wollen, dann kann ich gerne ein paar Screenshots aus den neuen Gebieten posten mit Max Details und 4x AAA ;). Wenn ihr dann immer noch sagt es sieht scheiße aus, dann seid ihr nichts weiter als Hater.

Hübie
2011-05-10, 17:22:32
Oder wir haben gute Augen;) Aber bitte poste sie doch!

Atma
2011-05-10, 18:01:46
Die Screens habe ich in der Beta gemacht, die sind also schon gut 8 Monate alt:

1920x1200, Max Details, 4x AAA, 16x AF

http://www.abload.de/thumb/wow2010-09-2316-58-18-rkez.png (http://www.abload.de/image.php?img=wow2010-09-2316-58-18-rkez.png) http://www.abload.de/thumb/wow2010-09-2317-06-08-zk4t.png (http://www.abload.de/image.php?img=wow2010-09-2317-06-08-zk4t.png) http://www.abload.de/thumb/wow2010-09-2523-43-41-zk37.png (http://www.abload.de/image.php?img=wow2010-09-2523-43-41-zk37.png) http://www.abload.de/thumb/wow2010-09-2523-47-23-98c1.png (http://www.abload.de/image.php?img=wow2010-09-2523-47-23-98c1.png) http://www.abload.de/thumb/wow2010-09-2523-47-43-jmpm.png (http://www.abload.de/image.php?img=wow2010-09-2523-47-43-jmpm.png)

http://www.abload.de/thumb/wow2010-09-2321-07-35-yj5o.png (http://www.abload.de/image.php?img=wow2010-09-2321-07-35-yj5o.png) http://www.abload.de/thumb/wow2010-09-2321-10-38-2kp1.png (http://www.abload.de/image.php?img=wow2010-09-2321-10-38-2kp1.png) http://www.abload.de/thumb/wow2010-09-2400-28-23-rkn9.png (http://www.abload.de/image.php?img=wow2010-09-2400-28-23-rkn9.png) http://www.abload.de/thumb/wow2010-09-2400-32-09-6m0d.png (http://www.abload.de/image.php?img=wow2010-09-2400-32-09-6m0d.png) http://www.abload.de/thumb/wow2010-09-2400-33-31-uj26.png (http://www.abload.de/image.php?img=wow2010-09-2400-33-31-uj26.png)

http://www.abload.de/thumb/wow2010-09-2523-48-13-2k6r.png (http://www.abload.de/image.php?img=wow2010-09-2523-48-13-2k6r.png) http://www.abload.de/thumb/wow2010-09-2523-48-44-q87p.png (http://www.abload.de/image.php?img=wow2010-09-2523-48-44-q87p.png) http://www.abload.de/thumb/wow2010-09-2523-49-15-wmi3.png (http://www.abload.de/image.php?img=wow2010-09-2523-49-15-wmi3.png) http://www.abload.de/thumb/wow2010-09-2523-49-42-pm24.png (http://www.abload.de/image.php?img=wow2010-09-2523-49-42-pm24.png) http://www.abload.de/thumb/wow2010-09-2317-09-48-ijyx.png (http://www.abload.de/image.php?img=wow2010-09-2317-09-48-ijyx.png)

War auf meinem alten Core 2 Duo System mit der HD 5870 völlig problemlos spielbar in den Settings.

LovesuckZ
2011-05-10, 18:07:00
Warum wird hier WoW herangezogen? Das Spiel zieht seinem Reiz aus dem Multiplayer-Aspekt. Da ist Grafik doch überhaupt nicht bedeutend.

samm
2011-05-10, 18:10:07
Will ich auch hoffen, dass eine 5870 das hinbringt... Ich sehe Unschärfe und Bloom, in einem zugegeben in sich stimmigen Grafikstil - aber da jetzt von tollen Texturen zu reden? Nur ein Screen zeigt was angenehm scharfes, nämlich der mit diesem Portal (?) in der Lava, und das womöglich auch nur, solange man genügend weit weg ist. Und möglicherweise flimmern die Texturen auch noch^^
Mal von der grafischen Qualität eines MMORPG abgesehen, wenn DX11 zur Steigerung der Performance eingesetzt wird, finde ich das gut.

Atma
2011-05-10, 18:28:39
Zumindest bei ATi/AMD wird es bei allem unter einer 5870 aber auch schon eng, denn gerade in Gebieten mit viel Vegetation zieht das Adaptive AA ordentlich Leistung, so dass die FPS gerne mal Richtung 25-30 oder niedriger abrutschen (in DX9 wohlgemerkt). Und ich kann dich beruhigen, WoW hat keine Flimmertexturen, zumindest bei nVidia nicht. Aufgrund der AF-Schwäche gibt es bei ATi/AMD natürlich eher die Tendenz zu leichten Flimmern, aber das hat mich nie gestört. Gibt viele Spiele die Flimmern deutlich schlimmer.

Hübie
2011-05-10, 20:37:16
Es geht aber hier nicht darum welches Spiel woraus seinen Reiz zieht ;)
Ich finde das aber immer noch wenig beeindruckend. Hater hin oder her. Far Cry anno 2004 war auf gleichem Niveau. Damals war WoW auf Quake2-Engine Niveau. Sei es drum. WoW kann man nicht auf die Grafik reduzieren oder als Beispiel heranziehen.

LG Hübie

_DrillSarge]I[
2011-05-11, 06:35:34
Warum wird hier WoW herangezogen? Das Spiel zieht seinem Reiz aus dem Multiplayer-Aspekt. Da ist Grafik doch überhaupt nicht bedeutend.
ja echt. zudem sieht es (den screens oben nach) aus wie ein dx7 spiel von um 2002, ums mal böse auszudrücken.... ausserdem frage ich mich ehrlich, wo bei wow die ganze leistung hingeht. :confused: