PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX10-"Mythen"?


syronth
2007-11-18, 18:31:11
Ich frag mich ein wenig, warum hier so ein Thread noch nicht aufgetaucht ist.

Mit (spätestens) UT3 als auch Crysis sind zwei große Engines nun final verfügbar, welche für sich reklamieren, auch voll DX10 tauglich zu sein. Warum aber zeigen diese Engines bei denselben Einstellungen keinen erkennbaren Leistungsanstieg, sondern im Fall von "Gears of War" (U3-Engine) sogar einen bemerkenswerten Leistungsverlust (bei absolut identischer BQ)? Crysis zeigte bei einem eigenen, einfachen Vergleichsbench (Standard-"High") zumindest keine so signifikant schlechtere Leistung, allerdings führt "Very High" unter DX9 auch nicht zu dem propheizeiten Total-KO, während DX10 hier klar davon ziehen sollte.

Von DX10 heisst es, dass es entweder zumindest schneller ist als DX9 oder eben mehr Content liefern kann, wo DX9 wg. seiner Grenzen haltlos einbrechen würde. Aber nichts davon scheint zu zutreffen - warum? Mir ist klar, dass es niemand genau wissen kann, sofern er nicht insgeheim für Epic oder Crytek oder die HW-Hersteller arbeitet, aber etwas mehr als tumbes "DX10 ist halt Müll" könnte man doch schon mutmaßen.

Ist es die verfügbare Hardware? Schafft sie die hohen DX10-Spezifikationen gar nicht ohne (deutliche) Leistungseinbuße? Das aber läuft dem Ziel von DX10 doch gänzlich entgegen, oder nicht? Wenn Spezifikationen so hoch gegriffen sind, dass die Hardware sie nicht ohne Verlust ggü. der Vorgeneration erfüllen kann, dann steckt der Wurm imho in den Spezifikationen. Es sei denn, gegenwärtige DX10-HW ist tatsächlich so mieserabel designt, dass durch Optimierung (od. "richtiges" DX10-Design) die anfängliche Schwäche nicht nur neutralisiert werden kann. Das würde mich aber schon ein wenig wundern, zumindest das Ausmaß davon, immerhin konnten die beiden bekanntesten Hersteller inzwischen einiges an Erfahrung anhäufen, um vom Start weg zumindest ein passables Design hinzulegen - verbessert werden kann immer, klar. Schneller wird HW auch immer werden - auch wenn sich eine Spezifikation als Bremsklotz erweisen sollte.

Oder ist es so, dass Epic einfach nur den DX9-Shadercode mehr oder minder 1:1 nach DX10 portiert hat, also ist es gar kein echter DX10-Code, sodass die Hardware hier keinen Gewinn bringt, sondern gar das Gegenteil davon, weil sie durch unoptimalen Code sogar ausgebremst wird und nicht einmal dieselbe Leistung wie unter DX9 zeigen kann?

In einem aktuellen Crytek/nVidia-Interview (auf incrysis.com) kann man mehr oder minder frei und böse herauslesen, dass die Beteiligten eigentlich noch gar keine Ahnung von DX10 haben, soviel wie da noch optimierbar sein soll. Tenor: Wir stehen erst am Anfang. Also auch hier eigentlich viel DX9-like Code im Spiel?

Oder sind es immer noch die Treiber? Kann ich mir nicht wirklich vorstellen, der Verlust beträfe dann doch auch DX9, GoW wäre auf Vista gleichschnell, bzw. -lahm, egal in welchem Modus es läuft?

Dass zwei der größten Engines unter DX10 im Prinzip keine der beiden genannten Eigenschaften (schneller und/oder besser) zeigen, halte ich für schon diskussionswürdig, zumal bislang immer wieder darauf verwiesen wurde. Immerhin sollte DX10-HW mindestens keinen Verlust zeigen, wenn sie denselben Content generiert - denn das wäre wirklich ein Schuss in den Ofen.

Gast
2007-11-18, 18:42:39
Mythos 1:
Es gibt kein DX10. Es heißt immer noch D3D10.

Tigerchen
2007-11-18, 18:43:23
aths oder Coda haben da bestimmt interessante Erklärungen. Denn Vorsprung durch einen höheren Techlevel ist immer gegeben. Und wenn es das nicht ist dann haben Entwickler was davon.......
Irgend so was in der Art wirst du zu lesen bekommen.;D

DX10 einfach die nächsten 1-2 Jahre ignorieren. Was da an sichtbaren Verbesserungen im Moment da ist steht in keinem Verhältnis zum Resourcenverbrauch.

Exxtreme
2007-11-18, 18:46:53
D3D10 ist doch dazu da um Vista zu pushen. :D

Daß es kaum Leistungssteigerungen gibt bzw. sogar Einbussen liegt wohl daran, daß es wirklich nicht ausgereizt wird. Die Entwickler müssen noch die D3D9-Basis berücksichtigen und ich denke, daß diese "D3D10"-Engines eher auf D3D9 basieren. Vielleicht hat man ein Paar optische Schmankerls mehr spendiert aber IMO ist der Unterschied nicht sehr groß.

Gast
2007-11-18, 18:59:00
D3D10 reduziert vorallem den CPU Overhead und ermöglicht mehr in die Grafikkarte zu verlagern. Um das wirklich zu nutzen, muss man intern auch die richtigen Datenstrukturen verwenden und nicht von D3D9 Datenstrukturen ummappen (Grund 1). Daneben ist es auch sinnvoll überhaupt ein CPU Limit zu haben, was bei vielen neuen Spielen nicht Fall ist (Grund 2).
Das die Grafikkartenhersteller bei den neuen Architekturen lieber Arbeit in den meistgenutzten Bereich investieren (D3D9 -> Grund 3) ist dann noch das I-Tüpfelchen.

D3D10 ist ein notwendiger Schritt um CPU Limits zu umgehen bevor sie auftauchen. Wenn die gesparte Rechenleistung aber durch ummappen von Daten etc verbraucht wird, kommt auch nichts dabei raus.
In Zukunft wird die Schere aber auseinander gehen...

tokugawa
2007-11-18, 19:01:34
D3D10 ist primär eine API. Es kommt immer noch drauf an was man damit macht.

Wenn man mit D3D10 dasselbe macht wie die Engine unter D3D9, dann bringt das keinen spürbaren Unterschied, klarerweise. Aber die Engine verwendet trotzdem API-technisch D3D10.

Anderes Beispiel: ein D3D9-Spiel muß auch nicht zwingend Shader verwenden, verwendet aber trotzdem "D3D9".

Ich könnte jetzt auch mit D3D10 ein Spiel mit Flatshaded-Look ohne Texturen bauen. Das wär trotzdem "D3D10".


Effekte die D3D10 wirklich voraussetzen gibt es scheinbar noch nicht in kommerziellen Spielen. Hier muß man derzeit noch eher in die Wissenschaft schauen. Und jene Effekte werden wohl noch etwas brauchen bis sie in kommerziellen Spielen zur Verwendung kommen, wie immer.

deekey777
2007-11-18, 19:27:03
1. Haben die Treiber überhaupt die Reife der XP-Treiber erreicht?
2. Der WDDM-Treiber sollte grundsätzlich schon allein einige Prozente an Performance herausholen, da die Latenz des aus dem XPDM-Treiber bekannten Hin-Und-Her-Wechsels (User- <-> Kernel-Modus) entfällt. Wenn schon der erste Punkt nicht zutrifft, verpufft dieser Vorteil.
3. Mit D3D10 lässt sich eine Szene mit deutlich weniger Batches zeichnen. Nur müssen die Entwickler diesen Vorteil auch nutzen. Aber wenn die Treiber nicht mitspielen?

Ihm
2007-11-18, 20:00:10
D3D10 ist primär eine API. Es kommt immer noch drauf an was man damit macht.

Wenn man mit D3D10 dasselbe macht wie die Engine unter D3D9, dann bringt das keinen spürbaren Unterschied, klarerweise. Aber die Engine verwendet trotzdem API-technisch D3D10.

Anderes Beispiel: ein D3D9-Spiel muß auch nicht zwingend Shader verwenden, verwendet aber trotzdem "D3D9".

Ich könnte jetzt auch mit D3D10 ein Spiel mit Flatshaded-Look ohne Texturen bauen. Das wär trotzdem "D3D10".


Effekte die D3D10 wirklich voraussetzen gibt es scheinbar noch nicht in kommerziellen Spielen. Hier muß man derzeit noch eher in die Wissenschaft schauen. Und jene Effekte werden wohl noch etwas brauchen bis sie in kommerziellen Spielen zur Verwendung kommen, wie immer.

So ist es.

Als DX9 Spiele erschienen sind, konnte man auch kaum einen Unterschied zu DX8.1 feststellen. Auch jetzt, über 4.5 Jahre später ist die aktuellste Hardware nicht potent genug DX9 Features, welche massiv genutzt werden, flüssig auf aktueller Hardware darzustellen (siehe Crysis).
Jedoch werden heute soviele DX9 only Features genutzt, dass der Unterschied zu DX8.1 deutlich sichtbar wird.
Mit DX10 (eigentlich D3D10, aber mittlerweile auch von M$ DX10 genannt) kommen jedoch weniger neue darstellbare "Effekte" dazu (daher auch die Aussage, dass man mit DX9 fast das Gleiche darstellen kann), sondern eher eine Ressourceneinsparung, welche den Programmierern mehr Leistung zur Verfügung stellt. Völlig grob dargestellt: Anstatt fünf tolle Bäume in einem Bild mit ausreichender Framerate darstellen zu können (DX9), kann man nun zehn tolle Bäume darstellen (DX10). Es wird quasi der Spielraum erweitert.

Das macht einen Vergleich zwischen DX9 und DX10 natürlich nicht einfacher. Den Einsatz von Geometry Shadern sieht man z.B. nicht unbedingt immer auf den ersten Blick. Schon garnicht bei den ersten Titeln.
Warum? Seit der Einführung von Shadern mit DX8 (Pixel und Vertex), hat man theoretisch die Machbarkeit jeder Szenarie geschaffen (abgesehen von RT). Nur leider scheiterte es an der Hardware (wie immer) oder an Limits der Instruktionen. Mit DX9 hatte man die erste sehr gut nutzbare Plattform auf Basis von Shadern geschaffen. DX10 bringt wie DX8 mit dem Vertexshader, als komplette Neuheit den Geometry Shader. Von daher ist DX10 in vieler Hinsicht neuartig (Unified etc.). Nur fehlt es eben an optischer Signifikanz.

Fazit:
Optische Signifikanz lässt sich seit der DX9-API fast nur noch durch Leistung erzielen. Die Quantität zeigt in diesem Fall häufig die Qualität. So lässt eine DX10-Karte wie die 8800x auch in DX9 Spielen mehr Spielraum, als eine Radeon 9700 (von AA/AF ganz zu schweigen).
Wer auf ein featureseitiges Grafikbombardement wartet und DX9 schon kennt, der wird enttäuscht. Wer jedoch einfach nur komplexere Szenarien erwartet, der wird mit Grafikkarten Mitte/Ende 2008 wohl glücklich werden.
Und wann kommt die wahrscheinliche "Featurewelle"? Wohl erst mit Raytracing. Aber bitte nicht darauf investitionsfrei warten. :D

aths
2007-11-18, 20:52:49
Ist es die verfügbare Hardware? Schafft sie die hohen DX10-Spezifikationen gar nicht ohne (deutliche) Leistungseinbuße? Das aber läuft dem Ziel von DX10 doch gänzlich entgegen, oder nicht? Wenn Spezifikationen so hoch gegriffen sind, dass die Hardware sie nicht ohne Verlust ggü. der Vorgeneration erfüllen kann, dann steckt der Wurm imho in den Spezifikationen.Das ist komisch gedacht.

Mit Pixelshader 1.0 - 1.3 kann man zum Beispiel 4 Texturen pro Pass nutzten. Mit 2.0 sind es 16 Texturen. Sollte die Hardware dann so gebaut werden, dass es die vierfache Texturmenge ohne Leistungseinbußen gibt?

Was genau meinst du mit "dass die Hardware sie [die Spezifikation] nicht ohne Verlust ggü. der Vorgeneration erfüllen kann"? Jede existierende D3D10-Karte ist (verglichen mit der Rohleistung nach D3D9-Maßstab) doch die bessere D3D9-Karte.

Es sei denn, gegenwärtige DX10-HW ist tatsächlich so mieserabel designt, dass durch Optimierung (od. "richtiges" DX10-Design) die anfängliche Schwäche nicht nur neutralisiert werden kann. Das würde mich aber schon ein wenig wundern, zumindest das Ausmaß davon, immerhin konnten die beiden bekanntesten Hersteller inzwischen einiges an Erfahrung anhäufen, um vom Start weg zumindest ein passables Design hinzulegen - verbessert werden kann immer, klar. Schneller wird HW auch immer werden - auch wenn sich eine Spezifikation als Bremsklotz erweisen sollte.Zum Geometry Shader kann ich wenig sagen, aber die anderen Shadertypen werden so effizient umgesetzt wie noch nie.

Das volle Nutzen aller in D3D10 vorhandenen Ressourcen kostet natürlich gegenüber einer Limiterung der mit D3D9 angebotenen Ressourcen Leistung. Aber die Leistungseinbrüche sind (deutlich!) geringer wenn man durch die D3D9-Limits zum Multipass-Rendering greifen müsste.

Das bringt uns eine Menge. In DX8 war man – vereinfacht gesagt – bei einem Singlepass-Shader so beschränkt dass damalige Highend-Karten garantiert noch Echtzeitperformance boten. In D3D9 kann man schon viel mehr machen. Auch wenn es auf einer Radeon 9700 dann vielleicht nicht mehr flüssig läuft – die Entwickler müssen nicht unbedingt die API wechseln. Mit D3D10 nimmt der Effekt noch zu. Auf absehbare Zeit wird es kein Spiel geben welches zum Beispiel 128 Texturen im Shader nutzt. Aber jede D3D10-HW, auch die HD 2400 oder 8400 GS bieten das an. Praktisch limitiert nur noch die Rohleistung, nicht mehr das Featureset. Das ist was die Entwicklung angeht ein Segen, da man somit viel besser die Endframerate mit der Effektdichte skalieren kann. Für zusätzliche (oder qualitativ höherwertigere) Effekte ist es immer weniger notwendig, zu einer neuen D3D-Version zu greifen.

Oder ist es so, dass Epic einfach nur den DX9-Shadercode mehr oder minder 1:1 nach DX10 portiert hat, also ist es gar kein echter DX10-Code, sodass die Hardware hier keinen Gewinn bringt, sondern gar das Gegenteil davon, weil sie durch unoptimalen Code sogar ausgebremst wird und nicht einmal dieselbe Leistung wie unter DX9 zeigen kann?Wie willst du echten von unechtem "DX10-Code" unterscheiden?

In einem aktuellen Crytek/nVidia-Interview (auf incrysis.com) kann man mehr oder minder frei und böse herauslesen, dass die Beteiligten eigentlich noch gar keine Ahnung von DX10 haben, soviel wie da noch optimierbar sein soll. Tenor: Wir stehen erst am Anfang. Also auch hier eigentlich viel DX9-like Code im Spiel?Mit höheren Shaderversionen lassen sich (komplexere) Effekte besser (effizienter und/oder in höherer Qualität) programmieren. Komplexe Shader-Berechnungen dürften heute sogut wie durchweg in einer Hochsprache geschrieben werden. Daraus macht dann ein Compiler je nach dem Code für D3D8, 9 oder 10. Der Treiber wiederum optimiert dieses Compilat so, dass die jeweilige GPU damit besonders gut zurecht kommt. (Der Hochsprachen-Compiler kann in D3D9 je nach Profil schon eine Vor-Optimierung für unterschiedliche GPUs vornehmen.)

Allerdings geht die Entwicklung auch dahin, dass solche Optimierungen nicht mehr so stark notwendig sind (und auch entsprechend weniger bringen) weil die GPU inzwischen sehr gut fast jeden Code "frisst". Interessant ist aus meiner Sicht, was der Hochsprachen-Shader berechnet und was dann an die GPU geschickt wird. Die unterscheidet nicht zwischen DX-so-und-so-Codes, die sieht nur die Instruktionen.

Anders gesagt ist es einer CPU ja auch egal ob wie ein Pascal- oder C-Programm ausführt.

Oder sind es immer noch die Treiber? Kann ich mir nicht wirklich vorstellen, der Verlust beträfe dann doch auch DX9, GoW wäre auf Vista gleichschnell, bzw. -lahm, egal in welchem Modus es läuft?In Sachen Treiberentwicklung für D3D9 haben die GPU-Entwickler bereits jahrelange Erfahrung.

Dass zwei der größten Engines unter DX10 im Prinzip keine der beiden genannten Eigenschaften (schneller und/oder besser) zeigen, halte ich für schon diskussionswürdig, zumal bislang immer wieder darauf verwiesen wurde. Immerhin sollte DX10-HW mindestens keinen Verlust zeigen, wenn sie denselben Content generiert - denn das wäre wirklich ein Schuss in den Ofen.Richtig. WENN sie denn denselben Content nutzen und identische Bilder genieren.

Dass mit SM4 natürlich nicht urplötzlich neue Grafikwunder zu sehen sind, finde ich einsichtig wenn man betrachtet wie viel man bereits mit SM3 machen kann. Allerdings bieten die D3D10-Karten beider großen Entwickler noch weitere Vorteile dass man auch ohne Vista imo eher zu der aktuellen Generation greifen sollte. (Stichwort AA- und AF-Qualität.)

In absehbarer Zeit (einigen Jahren) wird SM3 aber an einigen Stellen an die Grenzen stoßen. Gäbe es erst dann neue Hardware, müssten wir länger auf das Ausnutzen von SM4 warten. Der Vorschlag einiger Leute aus dem Forum, die Transistoren lieber erst mal in D3D9-Recheneinheiten zu stecken statt in neue Features, ist also zu kurz gedacht. Zumal jede existierende SM4-Karte (verglichen mit der Rohleistung) auch eine exzellente SM3-Karte ist.

Gast
2007-11-18, 21:25:26
1. Haben die Treiber überhaupt die Reife der XP-Treiber erreicht?
2. Der WDDM-Treiber sollte grundsätzlich schon allein einige Prozente an Performance herausholen, da die Latenz des aus dem XPDM-Treiber bekannten Hin-Und-Her-Wechsels (User- <-> Kernel-Modus) entfällt. Wenn schon der erste Punkt nicht zutrifft, verpufft dieser Vorteil.bis 1 zutrifft werden wir 2 garnicht mehr wirklich überprüfen können, weil es nur noch dx10-engines gibt.

wenn es nur bei gleichen aufgaben nur "einige Prozente" bringt, dann find ich das trara drum aber nicht als gerechtfertigt. hier haben schon etliche noobs diese eigenschaft in höhsten tönen hervogehoben. es scheint aber nichtmal merkbar zu sein.
das "hin und her" ist also entweder nicht so tragisch für die leistung wie es manche darstellen oder die treiber und dx9 selbst sind diesbezüglich eh hochoptimiert. es scheint so oder so nicht wirklich weh zu tun.

was bleibt sind 3d effekte von liquids und mehr zauber mit hdr. alles andere kann man auch mit dx9 machen, auch wenn man dafür kleinwenig mehr leistung braucht. leistung gibt es aber eh genug.
die dx9 hardware stöhnt unter crysis genauso wie die dx10 hardware. egal welchen renderpfad man auf der dx10 hardware benutzt. hängt also nicht mit der dx version zusammen.

syronth
2007-11-18, 23:10:46
Vorneweg: der Anreiz zu meinem Post war letztlich die GoW-Performance [siehe: Hardocp-Artikel (http://enthusiast.hardocp.com/article.html?art=MTQxNiwxLCxoZW50aHVzaWFzdA) ], ich hatte schon ein wenig gegoogelt, aber wenig erfolgreich. Man möge mir meine Laienhaftigkeit verzeihen, aber ich bin eben neugierig. Es ist einfach im Moment ein "Rätsel", auf das komischerweise keiner bisher näher einging - vielleicht ist es aber auch einfach nur ein ungünstiges Beispiel.

Das ist komisch gedacht. Mit Pixelshader 1.0 - 1.3 kann man zum Beispiel 4 Texturen pro Pass nutzten. Mit 2.0 sind es 16 Texturen. Sollte die Hardware dann so gebaut werden, dass es die vierfache Texturmenge ohne Leistungseinbußen gibt?


Ja, es ist sehr unglücklich "verquer gedacht". In Bezug auf dein Beispiel aber scheint es im Moment so, als wäre (im Vergleich) PS 2.0 bei 4 Texturen pro Pass langsamer als 1.x. Das im Fall von 16 Texturen pro Pass ein anderer Maßstab gilt, liegt auf der Hand - worauf meine Frage abzielt, ist der Umstand, dass D3D10 bislang bei gleichen Anforderungen langsamer scheint als D3D9, im Fall von GoW signifikant langsamer.

Im Fall von Crysis hätte man mutmaßen können, dass der via Manipulation freigeschaltete D3D10-Content jede D3D9-Only-HW den Gnadenschuss versetzt, etwas überspitzt gesagt, sich andersherum also hier die D3D10-fähige HW klar absetzen kann. Was nicht wirklich passierte, stattdessen neigt man (ich zumindest, hehe) trotz vorhandener HW dazu, lieber die auffrisierte D3D9-Variante zu spielen als die originale D3D10-Variante. Das nenn ich ein Fiasko ;)

Zum Geometry Shader kann ich wenig sagen

Hierüber hab ich kürzlich noch etwas gelesen, von einem der "MS Flightsimulator X" Designer, der z.Z. an dem Expansionspack arbeitet und darüber in seinem Blog schreibt. Man wollte die Geometry Shader einsetzen, um das Meer realistisch zu animieren - leider zeigte sich, dass die Shader noch nicht die nötige Leistung aufbringen - warum und wieso, müsste ich jetzt selbst noch einmal nachlesen. Wenn ich es wiederfinde, kann ich es hier verlinken. Aber zurück zum Thema.

Das volle Nutzen aller in D3D10 vorhandenen Ressourcen kostet natürlich gegenüber einer Limiterung der mit D3D9 angebotenen Ressourcen Leistung. Aber die Leistungseinbrüche sind (deutlich!) geringer wenn man durch die D3D9-Limits zum Multipass-Rendering greifen müsste.

So habe ich es bislang auch verstanden, eben so, wie es sich auch schon bei SM 2 zu SM 3 verhielt.

Wie willst du echten von unechtem "DX10-Code" unterscheiden?

"Echt" insofern, in dem auch alle Möglichkeiten optimal genutzt werden. Wie Compiler funktionieren, weiß ich durchaus und idealerweise nutzen sie die vollen Möglichkeiten der beim Kompilieren angegebenen Ziel-Architektur, dass wäre im Fall von Intel z.B. nicht nur das standardmässige x86-Instructionset, sondern auch SSE1,2,3. "Echter", also idealer Intel-Code nutzt also auch die Erweiterungen, während "simpler" Code, der auch abwärtskompatibel sein soll, auf die Befehlserweiterungen verzichten muss.
Da ich offen gestanden keine Ahnung habe, wie das eigentlich bei D3D9 und D3D10 aussieht, habe ich einfach vermutet, dass es sich ähnlich verhält. D3D10-HW mag D3D9 Code ohne zu murren ausführen, aber eben nicht optimal, vielleicht so wenig optimal, dass die Ausführung langsamer ist, so als würde ein Intel schwächeln, wenn er nur puren x86-Code ausführt. Der Vergleich ist riskant, ich weiss, die Architekturen unterscheiden sich grundsätzlich, aber ich hoffe, es ist verständlich, was ich meine.

Richtig. WENN sie denn denselben Content nutzen und identische Bilder genieren.

Und das trifft bei GoW zu - das einzige, was im D3D10 Modus "beworben" wird, ist die Möglichkeit für AA. Keine Extras, keine D3D10-Bells&Whistles, wenn man AA weglässt, bleibt nur der Modus und genau hier geht erstaunlich viel Leistung verloren.

In absehbarer Zeit (einigen Jahren) wird SM3 aber an einigen Stellen an die Grenzen stoßen. Gäbe es erst dann neue Hardware, müssten wir länger auf das Ausnutzen von SM4 warten. Der Vorschlag einiger Leute aus dem Forum, die Transistoren lieber erst mal in D3D9-Recheneinheiten zu stecken statt in neue Features, ist also zu kurz gedacht. Zumal jede existierende SM4-Karte (verglichen mit der Rohleistung) auch eine exzellente SM3-Karte ist.

Das mag stimmen, will ich auch nicht bestreiten. Dennoch steht zur Zeit schon die Frage im Raum, warum D3D10 noch nicht so recht greift, sondern auffällig schwächelt und ich bin dankbar für die interessanten Antworten bisher. Man wird es wohl einfach noch weiter beobachten müssen, wie es sich entwickelt, vor allem bin ich gespannt, wieviel von den vollmundigen Bekundungen zur Verbesserung der D3D10-Leistung in Crysis sich faktisch bewahrheiten werden.

Gast
2007-11-18, 23:33:28
Im Fall von Crysis hätte man mutmaßen können, dass der via Manipulation freigeschaltete D3D10-Content jede D3D9-Only-HW den Gnadenschuss versetzt, etwas überspitzt gesagt, sich andersherum also hier die D3D10-fähige HW klar absetzen kann.ganz ehrlich gesagt käme ich nienauf sowas. warum hätte man sowas mutmaßen können?

Was nicht wirklich passierte, stattdessen neigt man (ich zumindest, hehe) trotz vorhandener HW dazu, lieber die auffrisierte D3D9-Variante zu spielen als die originale D3D10-Variante. Das nenn ich ein Fiasko ;)Crysis ist ein dx9 spiel mit kleinwenig dx10 addon. das sollte man nicht vergeßen.

Hierüber hab ich kürzlich noch etwas gelesen, von einem der "MS Flightsimulator X" Designer, der z.Z. an dem Expansionspack arbeitet und darüber in seinem Blog schreibt. Man wollte die Geometry Shader einsetzen, um das Meer realistisch zu animieren - leider zeigte sich, dass die Shader noch nicht die nötige Leistung aufbringen - warum und wieso, müsste ich jetzt selbst noch einmal nachlesen.war die erste generation der dx9 hardware auf alles was man in dx9 auffahren kann vorbereitet? ;) das wird noch eine kleine weile dauern.

und dann muß aber auch muß sich dx10 brauchbar verbreitet haben. sein nachteil ist vista im schlepptau zu haben. die marktanteile steigen, aber für leute die fertig pcs oder laptops mit vista kaufen sind spiele wie crysis nicht wirklich gedacht.
man wird also noch lange nach guten dx9 engines schreien.

Gast
2007-11-18, 23:45:37
bis 1 zutrifft werden wir 2 garnicht mehr wirklich überprüfen können, weil es nur noch dx10-engines gibt.

wenn es nur bei gleichen aufgaben nur "einige Prozente" bringt, dann find ich das trara drum aber nicht als gerechtfertigt. hier haben schon etliche noobs diese eigenschaft in höhsten tönen hervogehoben. es scheint aber nichtmal merkbar zu sein.
das "hin und her" ist also entweder nicht so tragisch für die leistung wie es manche darstellen oder die treiber und dx9 selbst sind diesbezüglich eh hochoptimiert. es scheint so oder so nicht wirklich weh zu tun.

was bleibt sind 3d effekte von liquids und mehr zauber mit hdr. alles andere kann man auch mit dx9 machen, auch wenn man dafür kleinwenig mehr leistung braucht. leistung gibt es aber eh genug.
die dx9 hardware stöhnt unter crysis genauso wie die dx10 hardware. egal welchen renderpfad man auf der dx10 hardware benutzt. hängt also nicht mit der dx version zusammen.

Diese "einige Prozente" sind eine übervorsichtige Aussage, man kann dies nicht so pauschal sagen, es könnten bis zu 30 % sein.
Mir ist noch eine Aussage eingefallen: In dem einen Interview mit der PCGH meinte ein GSC-Verantwortlicher, sollte man den STALKER-Renderer auf D3D10 "übersetzen", wären 10-15 % an Mehrleistung drin, ohne dabei die D3D10-Optimierungen zu nutzen.

syronth
2007-11-18, 23:53:43
Crysis ist ein dx9 spiel mit kleinwenig dx10 addon. das sollte man nicht vergeßen.

Ähm, der D3D10-Content wurde großspurig exklusiv als solcher beworben. Ausgehend davon, hätte der Umstand greifen können, dass D3D9-HW wg. Überforderung zusammenbricht. Im Nachhinein lässt sich obiges sicher sehr leicht sagen, nachdem der Kram auch auf D3D9 offenkundig gut läuft.

aths
2007-11-19, 00:53:52
Vorneweg: der Anreiz zu meinem Post war letztlich die GoW-Performance [siehe: Hardocp-Artikel (http://enthusiast.hardocp.com/article.html?art=MTQxNiwxLCxoZW50aHVzaWFzdA) ], ich hatte schon ein wenig gegoogelt, aber wenig erfolgreich. Man möge mir meine Laienhaftigkeit verzeihen, aber ich bin eben neugierig. Es ist einfach im Moment ein "Rätsel", auf das komischerweise keiner bisher näher einging - vielleicht ist es aber auch einfach nur ein ungünstiges Beispiel.Ich mache dir keinen Vorwurf. Im Gegenteil, da leider das Marketing entscheidend die öffentliche Wahrnehmung beeinflusst, sollte man endlich mal einiges richtigstellen.

Ja, es ist sehr unglücklich "verquer gedacht". In Bezug auf dein Beispiel aber scheint es im Moment so, als wäre (im Vergleich) PS 2.0 bei 4 Texturen pro Pass langsamer als 1.x. Das im Fall von 16 Texturen pro Pass ein anderer Maßstab gilt, liegt auf der Hand - worauf meine Frage abzielt, ist der Umstand, dass D3D10 bislang bei gleichen Anforderungen langsamer scheint als D3D9, im Fall von GoW signifikant langsamer.Bei der GeForce FX stimmt es, dass im Pixelshader die Verrechnung (nicht das Sampling!) von Werten (worunter auch Textursamples fallen können) mit SM2 oft langsamer ist als mit SM1. Das ist aber eine einmalige Ausnahme.

Im Fall von Crysis hätte man mutmaßen können, dass der via Manipulation freigeschaltete D3D10-Content jede D3D9-Only-HW den Gnadenschuss versetzt, etwas überspitzt gesagt, sich andersherum also hier die D3D10-fähige HW klar absetzen kann. Was nicht wirklich passierte, stattdessen neigt man (ich zumindest, hehe) trotz vorhandener HW dazu, lieber die auffrisierte D3D9-Variante zu spielen als die originale D3D10-Variante. Das nenn ich ein Fiasko ;)Der erwähnte Content ist eben kein D3D10-Content. Die Detailstufe war eigentlich nur für D3D10-Hardware gedacht, da es nach der Einschätzung von Crytek keine D3D9-Hardware mit einer Rohleistung gibt, die diese Detailstufe in annehmbarer Auflösung bei annehmbarer Geschwindigkeit darstellen kann. Oder Crytek wollte einfach einen Optik-Unterschied als D3D10-Grafik vermarkten und nahm dafür die höchste für D3D9 vorgesehene Stufe.

Bei Crytek bin ich vorsichtig. Ich erinnere mich an angebliche Screenshotvergleiche in NV-Papers zu Far Cry, SM2 vs. SM3, wobei der SM3-Shot Parallax-Mapping zeigt. Brauchbare Parallaxmapping-Techiken sind aber auch mit SM2-GPUs möglich.

Hierüber hab ich kürzlich noch etwas gelesen, von einem der "MS Flightsimulator X" Designer, der z.Z. an dem Expansionspack arbeitet und darüber in seinem Blog schreibt. Man wollte die Geometry Shader einsetzen, um das Meer realistisch zu animieren - leider zeigte sich, dass die Shader noch nicht die nötige Leistung aufbringen - warum und wieso, müsste ich jetzt selbst noch einmal nachlesen. Wenn ich es wiederfinde, kann ich es hier verlinken. Aber zurück zum Thema.Der Geometryshader kann die CPU extrem entlasten und somit Effekte in Echtzeit ermöglichen, die bei gleicher GPU aber ohne Geometryshader nicht möglich wären. Man kann natürlich nicht mit der ersten Geometryshader-Version alles machen; das Ding ist wohl vor allem dazu da damit Entwickler schon mal mit den Möglichkeiten spielen können die mit D3D11 noch verbessert werden.

So habe ich es bislang auch verstanden, eben so, wie es sich auch schon bei SM 2 zu SM 3 verhielt. Jopp, einen mit SM2 berechenbaren Effekt mit SM3 zu berechnen kann unter Umständen Vorteile bringen, jedenfalls resultiert es nicht in Nachteilen.

"Echt" insofern, in dem auch alle Möglichkeiten optimal genutzt werden. Wie Compiler funktionieren, weiß ich durchaus und idealerweise nutzen sie die vollen Möglichkeiten der beim Kompilieren angegebenen Ziel-Architektur, dass wäre im Fall von Intel z.B. nicht nur das standardmässige x86-Instructionset, sondern auch SSE1,2,3. "Echter", also idealer Intel-Code nutzt also auch die Erweiterungen, während "simpler" Code, der auch abwärtskompatibel sein soll, auf die Befehlserweiterungen verzichten muss.Die Ressourcen die man bei SM3 nutzen kann sind für aktuelle Spiele vergleichsweise großzügig, insofern braucht man für die meisten heute in Echtzeit berechenbare Effekte nicht unbedingt SM4. Allerdings: Einige SM3-Features wie dynamische Verzweigungen sind im Pixelshader bei GF6 und 7 nicht besonders effizient implementiert. Jede erhältliche SM4-Hardware hingegen bietet dieses Feature in effizienter Implementierung an. Selbst wenn man nur SM3-Shader nutzen würde, wäre es gelegentlich sinnvoll, dies auf SM4-Hardware zu tun. Abgesehen von Integer-Operationen fallen mir nicht sehr viele Sachen ein, die bei SM4 im Pixelshader neu sind – es kommt bei Shadern eher darauf an, dass einem nicht die Ressourcen ausgehen als irgendwelche speziellen Rechenwerke (in Bezug auf deinen Vergleich mit SSE in CPUs) zu benutzen.

Bei D3D10 kann mit dem neuen Treibermodell in Vista auch die CPU entlastet werden. Komplexe Szenen mit D3D9 zu rendern lässt jede CPU schwitzen. Dass die CPU in D3D10 durch optimierte Schnittstellen entlastete wird, bringt höchstens Vorteile aber keine Nachteile. Man kann auch mit D3D10 bei vielen Sachen zusätzlich Teile der CPU-Last auf die GPU verlagern. Das bringt natürlich nur was, wenn die CPU am Limit ist und die GPU noch Luft hat. Da die Leistung der GPU weiterhin schneller steigt als die Leistung der CPU, ist der eingeschlagene Weg sinnvoll.

Da ich offen gestanden keine Ahnung habe, wie das eigentlich bei D3D9 und D3D10 aussieht, habe ich einfach vermutet, dass es sich ähnlich verhält. D3D10-HW mag D3D9 Code ohne zu murren ausführen, aber eben nicht optimal, vielleicht so wenig optimal, dass die Ausführung langsamer ist, so als würde ein Intel schwächeln, wenn er nur puren x86-Code ausführt. Der Vergleich ist riskant, ich weiss, die Architekturen unterscheiden sich grundsätzlich, aber ich hoffe, es ist verständlich, was ich meine.Die GPU bekommt einfach Instruktionen und Daten. Sie weiß nicht, ob es DX7-, 8-, 9- oder 10-Code, oder OpenGL oder was anderes ist. Jede existierende D3D10-GPU hat den D3D9-Befehlssatz effizienter in Hardware gegossen bekommen als eine beliebige D3D9-GPU.

Und das trifft bei GoW zu - das einzige, was im D3D10 Modus "beworben" wird, ist die Möglichkeit für AA. Keine Extras, keine D3D10-Bells&Whistles, wenn man AA weglässt, bleibt nur der Modus und genau hier geht erstaunlich viel Leistung verloren.Das Spiel habe und kenne ich nicht. Natürlich ist es arm, wenn bei identischer Grafik ein Spiel schwächelt nur weil D3D10 genutzt wird. Inwieweit das am Treiber liegen kann, ist mir nicht möglich zu beurteilen.

Das mag stimmen, will ich auch nicht bestreiten. Dennoch steht zur Zeit schon die Frage im Raum, warum D3D10 noch nicht so recht greift, sondern auffällig schwächelt und ich bin dankbar für die interessanten Antworten bisher. Man wird es wohl einfach noch weiter beobachten müssen, wie es sich entwickelt, vor allem bin ich gespannt, wieviel von den vollmundigen Bekundungen zur Verbesserung der D3D10-Leistung in Crysis sich faktisch bewahrheiten werden.D3D10 ansich schwächelt doch gar nicht. Die bisherigen Spiele, bei denen irgendwas D3D10-mäßiges aufgepropft wurde, zeigen im Verhältnis zum Frameratenverlust keine adäquate Verbesserung der Grafikqualität.

Gast
2007-11-19, 20:02:59
imo wird D3D10 (natürlich geprägt durch das marketing) von den meisten vollkommen überschätzt.

natürlich erlaubt D3D10 die effizientere berechnung von grafikeffekten bzw. über den GS gewisse sachen überhaupt erst in der GPU zu berechnen.

nur erhöht sich durch D3D10 natürlich trotzdem nicht die vorhandene rechenleistung und auch SM3/D3D9 ist ja nicht wirklich ineffizient ;)
weiters entlasten die meisten verbesserungen in D3D10 die CPU, nur ist diese gerade bei grafikkrachern meistens eh nicht am limit, sondern die rechenleistung der GPU limitiert, und diese wird durch D3D10 eben nicht höher.

es nützt natürlich auch nichts wenn man bei D3D10 viel mehr in einem rendercall rendern kann, wenn die software das nicht macht und gleich viele calls wie bei D3D9 braucht.

dass GoW außer der möglichkeit FSAA zu benutzen keine vorteile gegenüber D3D9 bietet und trotzdem deutlich langsamer ist, ist natürlich ein armutszeugnis.
allerdings hat die UE3-eingine beispielsweise in bioshock (zumindest auf NV-karten) schon bewiesen, dass man trotz höheren details nur geringfügige performanceeinbußen hinnehmen muss.

Xaver Koch
2007-11-22, 10:34:34
Ich kann die Probleme seitens der technischen Umsetzung gut verstehen, aber um mal den ersten Beitrag auf den Punkt zu bringen:

Dafür, dass D3D10 diesmal nicht abwärtskompatibel ist und somit die Chance bietet alte Performance-Bremsen außen vor zulassen finde ich (und das denken sicher die meisten) das Gebotene derzeit äußerst dürftig. Subjektiv hat man den Eindruck, dass sich Spieleentwickler und Hardwarehersteller (bzw. deren Treiberprogrammierer) schon recht anstrengen müssen, damit D3D10 keinen Performance-Nachteil gegenüber D3D9 hat. Und optische Unterschiede kann man immer noch mit der Lupe suchen.

Und warum zur Hölle soll gleich D3D10.1 folgen und das wiederum nicht kompatibel mit D3D10 sein (also gleich wieder ein Schnitt)? Oder wird 10.1 das, was 10.0 eigentlich hätte sein sollen?

JTHawK
2007-11-22, 10:45:26
D3D10 musste laut Zeitplan zum Release von Windows VISTA ein stabiles Stadium erreicht haben. Alles was mit 10.1 dazu komme hat es nicht mehr in den Plan geschafft. Das ist alles.

Was verstehst du bitte unter "nicht kompatibel"? Wenn du damit meinst, dass aktuelle D3D10 Hardware nicht D3D10.1 kompatibel ist, hast du sicher recht. Aber das ist völlig normal, meine DX8 GraKa kann auch nix mit DX9 anfangen. Laut internen Präsentationen von NVIDIA unterstützt der G92 aber bereits D3D10.1.

Xaver Koch
2007-11-22, 12:00:01
Was verstehst du bitte unter "nicht kompatibel"? Wenn du damit meinst, dass aktuelle D3D10 Hardware nicht D3D10.1 kompatibel ist, hast du sicher recht.

Mal ganz von der Hardware abgesehen muss, so ich die Entwickler richtig verstanden habe, für D3D10.1 ein neuer Render-Pfad geschrieben werden und es kann nicht der von D3D10 genutzt werden, was sich faktisch wieder einen Schnitt bedeutet. Wenn ich dann auch noch von manchen Entwicklern lese, dass D3D10.1 nichts grundsätzlich Neues oder Besseres bietet, frage ich mich langsam schon, was der ganze Mist noch soll?

Gast
2007-11-22, 12:11:19
Das hast du falsch verstanden, es ist derselbe Renderpfad mit unterschiedlichen Verzweigungen.

Exxtreme
2007-11-22, 13:06:09
Das hast du falsch verstanden, es ist derselbe Renderpfad mit unterschiedlichen Verzweigungen.
Die Frage ist jetzt ob sich irgendein Entwickler darauf einlassen wird was für D3D10.1 zu machen. Ich denke nicht, daß dem so ist. Man hat es ja auch am PS2.x-Chaos gesehen. Hat sich kaum einer drauf eingelassen sondern sind praktisch alle bei PS2.0 geblieben.

D3D10.1 ist zusätzliche Arbeit mit einem fragwürdigen Nutzen. Bleibt man bei D3D10 dann erreicht man aber mehr Kunden.

Mstrmnd
2007-11-22, 13:13:46
D3D10.1 bietet aber schon teils extrem wichtige Features für uns. So ist in manchen Fällen mit D3D10 kein AA möglich, mit 10.1 schon. Die Hersteller müssen also unbedingt auf 10.1 setzen, sonst sitzen wir wirklich in der Scheiße. Denn dann haben wir Spiele, die immer mehr flimmernden Content enthalten und gleichzeitig geht immer öfter nicht mal mehr das normale AA.

So problematisch ist die Umstellung aber IMHO nicht. Erstens soll ggf. ein Teil, oder vielleicht sogar alle bisherigen D3D10-Karten auch 10.1 unterstützen (ist aber noch nicht klar). Zweitens wird 10.1 die gleiche Verbreitung in den Betriebssystemen haben wie 10, da es ja ebenfalls für alle Vistas verfügbar wird. Und drittens ist es IMHO kein deutlich größerer Aufwand auf 10.1 zu setzen, wenn man schon gleichzeitig auf 9 und auf eine neue API setzen will. Hinzu kommt, dass es mit 10.1 noch ein wenig mehr Möglichkeiten geben wird Werbewirksam die neue API zu loben, unter anderem wegen dem AA.

JTHawK
2007-11-22, 15:24:27
Die Spielentwickler bleiben grundsätzlich beim kleinsten gemeinsamen Nenner, der die größte Marktdurchdringung hat. Momentan ist das DX9. Ab Mitte/Ende nächsten Jahres könnte das D3D10 werden - eher später. D3D10.1 bleibt eine Sonderlösung und ist erst in 2-3+ Jahren für Spielentwickler wirklich relevant. Hier spielt aber nicht nur die verfügbare Hardware eine Rolle, sondern vor allem die Verbreitung der Betriebssysteme, welche DirectX10 unterstützen ... das wäre momentan lediglich Windows VISTA und bis das mehr als genug Leute haben dauert es noch ...

Einige Sudios werden sicher das Geld und die Zeit bzw. Manpower haben und evtl. das eine oder andere Leckerli für D3D10.1 implementieren können - das wird aber die Ausnahme bleiben, denn aktuell knabbern alle noch an der Optimierung für D3D10 :)

Demzufolge braucht man sich momentan über D3D10.1 gar keine Gedanken machen. Verkaufsargument für Hardware kann es sicher werden ... aber haben wird man davon vorläufig nicht viel.

Es sei denn, D3D10.1 ist intern so gestrickt, dass es D3D10.1 Code auf D3D10 umsetzen kann ... dann könnten die Entwickler direkt für D3D10.1 programmieren und 10 vergessen :)

Coda
2007-11-22, 15:27:39
Ich denke D3D10.1 wird eher wie "D3D10 mit Caps" benützt wenn vorhanden.

Gast
2007-11-22, 15:44:55
D3D10 sollte durch die Softwarearchitektur weniger Overhead auf cpu-seite haben und somit schneller sein, selbst bei gleichem Rendering, so wie es mit openGL und Direct3D ist. Deswegen war es komplett unmöglich D3D10 auf WinXP anzubieten.

Naja, nun sieht man mal wieder, dass in der Realität nichts davon wahr ist und es nur Marketingmist ist. Ich kenne auch viele Hersteller die sich überlegt haben dass sie auf den Zug aufspringen könnten indem sie einfach nur die D3D10.dll laden und dann normal weiter D3D9 nutzen (sich also die Portierungsarbeit sparen und trotzdem D3D10 als Feature draufschreiben).
Aber seit das mit Halo2 so aufgeflogen ist, traut sich kaum jemand.

Aber was bleibt von Vista übrigt? Bunte Gui bei doppelten Hardwareanforderungen :( und außer vielleicht Crysis nur Spiele die es für Konsolen gibt.


Bevor jetzt Jemand rumjammert, dass ich D3D10 verurteile bevor so wirklich angefangen wurde damit zu arbeiten, JA DAS MACHE ICH. Ich verurteile nicht Geometryshader und all die andere HARDWARE-Features. Die sind gut und haben viel Potential für die Zukunft. D3D10 hingegen hat nur für den Programmierer ein saubereres API. Aber keinerlei fähigkeiten die es Rechtfertigen würden, dass es nur auf Vista läuft und für den Kunden hat es eigentlich nur Nachteile.

Exxtreme
2007-11-22, 15:47:00
D3D10.1 bietet aber schon teils extrem wichtige Features für uns. So ist in manchen Fällen mit D3D10 kein AA möglich, mit 10.1 schon. Die Hersteller müssen also unbedingt auf 10.1 setzen, sonst sitzen wir wirklich in der Scheiße. Denn dann haben wir Spiele, die immer mehr flimmernden Content enthalten und gleichzeitig geht immer öfter nicht mal mehr das normale AA.

So problematisch ist die Umstellung aber IMHO nicht. Erstens soll ggf. ein Teil, oder vielleicht sogar alle bisherigen D3D10-Karten auch 10.1 unterstützen (ist aber noch nicht klar). Zweitens wird 10.1 die gleiche Verbreitung in den Betriebssystemen haben wie 10, da es ja ebenfalls für alle Vistas verfügbar wird. Und drittens ist es IMHO kein deutlich größerer Aufwand auf 10.1 zu setzen, wenn man schon gleichzeitig auf 9 und auf eine neue API setzen will. Hinzu kommt, dass es mit 10.1 noch ein wenig mehr Möglichkeiten geben wird Werbewirksam die neue API zu loben, unter anderem wegen dem AA.
Wenn alle D3D10-Karten auch D3D10.1 können dann sehe ich auch keine Probleme. Ansonsten denke ich, daß sich das nicht unbedingt durchsetzen wird. Ausser vielleicht wenn die D3D11-Karten etwas Verbreitung haben. Extra Renderpfade kosten nämlich Geld da zusätzliche Arbeitszeit nötig wird.

Und da 90% der Spieler eh nicht wissen was AA und AF ist, weiss ich nicht ob dieses investiert wird damit 10% mit AA spielen können. Ist schlicht alles eine Frage der Kosten. Und die meisten PC-Spiele haben Bugfixing eher nötig als die Möglichkeit für AA.

Coda
2007-11-22, 16:23:45
Naja, nun sieht man mal wieder, dass in der Realität nichts davon wahr ist und es nur Marketingmist ist. Ich kenne auch viele Hersteller die sich überlegt haben dass sie auf den Zug aufspringen könnten indem sie einfach nur die D3D10.dll laden und dann normal weiter D3D9 nutzen (sich also die Portierungsarbeit sparen und trotzdem D3D10 als Feature draufschreiben).
Aber seit das mit Halo2 so aufgeflogen ist, traut sich kaum jemand.
Das war bei Halo 2 nicht der Fall. Das hat andere APIs von Vista verwendet die es unter XP nicht gibt.

Gast
2007-11-22, 17:15:05
Das war bei Halo 2 nicht der Fall. Das hat andere APIs von Vista verwendet die es unter XP nicht gibt.
Das war nicht das Thema, ob es mehr als nur ein API gibt, das Halo2 Grundlos bindet um Vista-only zu sein. Fakt ist, dass es auch unter WinXP problemlos läuft.

Coda
2007-11-22, 17:22:10
Das mag ja stimmen, aber wir wollen ja trotzdem bei den Fakten bleiben. D3D10 wird von Halo 2 auf jeden Fall nicht verwendet, auch nicht "nur geladen".

Deathcrush
2007-11-22, 18:33:57
http://www.windowsvistamagazin.de/?article_id=622167

Damit spricht Martin Slater den meisten unserer Leser aus der Seele, wie einige Kommentare zu unseren DX10-Artikeln belegen. Mit seiner Meinung befindet sich der Programmierer in prominenter Gesellschaft. Auch Marc Rein, seines Zeichens Boss bei Epic, sieht in Direct X 10 nicht die sooft angepriesene Grafik-Wunderwaffe. Rein sieht die Zukunft der Spiele-Grafik nämlich im Konsolenmarkt. Dieser wird ihm zufolge die kommende Entwicklung maßgeblich beeinflussen.

tokugawa
2007-11-22, 19:00:01
http://www.windowsvistamagazin.de/?article_id=622167

Damit spricht Martin Slater den meisten unserer Leser aus der Seele, wie einige Kommentare zu unseren DX10-Artikeln belegen. Mit seiner Meinung befindet sich der Programmierer in prominenter Gesellschaft. Auch Marc Rein, seines Zeichens Boss bei Epic, sieht in Direct X 10 nicht die sooft angepriesene Grafik-Wunderwaffe. Rein sieht die Zukunft der Spiele-Grafik nämlich im Konsolenmarkt. Dieser wird ihm zufolge die kommende Entwicklung maßgeblich beeinflussen.

Der werte Herr soll mal in die Forschung und Wissenschaft schauen...

Demirug
2007-11-22, 19:05:54
http://www.windowsvistamagazin.de/?article_id=622167

Damit spricht Martin Slater den meisten unserer Leser aus der Seele, wie einige Kommentare zu unseren DX10-Artikeln belegen. Mit seiner Meinung befindet sich der Programmierer in prominenter Gesellschaft. Auch Marc Rein, seines Zeichens Boss bei Epic, sieht in Direct X 10 nicht die sooft angepriesene Grafik-Wunderwaffe. Rein sieht die Zukunft der Spiele-Grafik nämlich im Konsolenmarkt. Dieser wird ihm zufolge die kommende Entwicklung maßgeblich beeinflussen.

Epic gehört traditionelle sowieso zu denen die eher später auf eine neue DirectX Version wechseln.

„uninteressant für Spieler“ bedeutet soviel dass die Spiele bis dahin auch noch einen D3D9 Modus haben werden. Also Spielbar sind.

Piffan
2007-11-22, 20:44:59
http://www.windowsvistamagazin.de/?article_id=622167

Damit spricht Martin Slater den meisten unserer Leser aus der Seele, wie einige Kommentare zu unseren DX10-Artikeln belegen. Mit seiner Meinung befindet sich der Programmierer in prominenter Gesellschaft. Auch Marc Rein, seines Zeichens Boss bei Epic, sieht in Direct X 10 nicht die sooft angepriesene Grafik-Wunderwaffe. Rein sieht die Zukunft der Spiele-Grafik nämlich im Konsolenmarkt. Dieser wird ihm zufolge die kommende Entwicklung maßgeblich beeinflussen.

Das ist der Punkt. Warum sollen die Entwickler eine API bedienen, die letztlich nur für einen kleinen Markt Spiele ermöglicht.
Solange das Geld mit Multiplattformtiteln verdient wird, können wir uns auf dx10 basierende Spiele von der Backe putzen.

Der einzige Vorteil der jetzigen dx10- Beschleuniger liegt in der Power, wobei Ati hier wegen zu schwacher Texel- Leistung absolut keinen Anreiz zum Aufrüsten bietet....Wenn schon eine neue Graka, dann gibts derzeit keine Alternative zu NV. Leider :redface:

Piffan
2007-11-22, 20:53:24
Epic gehört traditionelle sowieso zu denen die eher später auf eine neue DirectX Version wechseln.

„uninteressant für Spieler“ bedeutet soviel dass die Spiele bis dahin auch noch einen D3D9 Modus haben werden. Also Spielbar sind.

Oder wie in Crysis in unter DX9 besser performen und optisch nahezu gleichtziehen. Wobei das bei Crytek wohl doch eher ne Panne war. :tongue:

So langsam glaube ich überhaupt keine Versprechen mehr. Wie hieß es doch unlängst: Die gleichen Effekte werden unter DX10 schneller laufen als unter DX9.......
Wie lange soll es denn noch dauern, bis endlich Gleichstand herrscht, geschweige denn dx10 eine bessere Performance rausholt? :|

Botcruscher
2007-11-22, 21:00:13
Wie lange soll es denn noch dauern, bis endlich Gleichstand herrscht, geschweige denn dx10 eine bessere Performance rausholt?

1.5-2 Jahre. Wie immer. Dazu kommt noch Faktor X für DX-only auf dem VISTA Versager BS.

Liszca
2007-11-22, 21:04:06
D3D10 ist doch dazu da um Vista zu pushen. :D

Das gefühl werde ich seit crysis auch nicht mehr los...

Gast
2007-11-22, 21:04:46
Oder wie in Crysis in unter DX9 besser performen und optisch nahezu gleichtziehen. Wobei das bei Crytek wohl doch eher ne Panne war. :tongue:

in crysis 32bit ist die performance bei gleicher optik vollkommen identisch, in der 64bit-version ist seltsamerweise die DX10-version langsamer.

Piffan
2007-11-22, 21:05:23
1.5-2 Jahre. Wie immer. Dazu kommt noch Faktor X für DX-only auf dem VISTA Versager BS.

Stümmt. An das geniale Marketing von MS, dass sich jetzt als Klotz am Bein entpuppt, habe ich gar nicht mehr gedacht.....:rolleyes:

Botcruscher
2007-11-22, 21:14:11
Das gefühl werde ich seit crysis auch nicht mehr los...

Seit Crysis? Das ist doch der einzige Grund überhaupt zu wechseln.

Demirug
2007-11-22, 21:16:55
So langsam glaube ich überhaupt keine Versprechen mehr. Wie hieß es doch unlängst: Die gleichen Effekte werden unter DX10 schneller laufen als unter DX9.......

Das Problem ist das wir es derzeit mit D3D9 Engines die auf D3D10 vergewaltigt wurden zu tun haben. Die durch den reduzierten Overhead gesparte Leistung wird dafür verbraten das D3D10 Interface auf die D3D9 artige interne Schnittstelle anzupassen. Prominentes Beispiel ist das State Management das ja komplett anders ist. Der zweite Punkt ist IMHO das derzeit die vorhandenen D3D9 Effekte nicht konsequent auf D3D10 umgesetzt werden sondern mal lieber zusätzliche neue Effekte baut. Ein weiteres Problem das ich aber noch nicht in der Tiefe Analysiert habe scheint zu entstehen wenn man umfangreiche D3D9 Shader Bibliotheken ohne Anpassung einfach mal für D3D10 neu kompiliert. Was bei den derzeitigen „D3D10 Spielen“ gängige Praxis zu sein scheint.

Wie lange soll es denn noch dauern, bis endlich Gleichstand herrscht, geschweige denn dx10 eine bessere Performance rausholt? :|

Beim Flight Simulator funktioniert es angeblich.

Demirug
2007-11-22, 21:22:20
1.5-2 Jahre. Wie immer. Dazu kommt noch Faktor X für DX-only auf dem VISTA Versager BS.

Eine D3D10 Version für XP hätte die Situation nur unwesentlich geändert. Aus Entwicklersicht ist es weitaus kritischer dass es in D3D10 keinen „Tech Level 9“ gibt.

Botcruscher
2007-11-22, 21:27:23
Aus Entwicklersicht.;) Da war eine FX5200 auch eine super GraKa.:D

Demirug
2007-11-22, 21:40:14
Aus Entwicklersicht.;) Da war eine FX5200 auch eine super GraKa.:D

Ich würde sie nicht als „super“ aber als wichtig bezeichnen. Immerhin hat sie bei nvidia die lange Phase des technologischen hinterherhinken der Low end Klasse beendet. Vor der 5200 war es völlig undenkbar eine „Shader Only“ Engine zu bauen.

Gast
2007-11-22, 21:53:28
Wie lange soll es denn noch dauern, bis endlich Gleichstand herrscht, geschweige denn dx10 eine bessere Performance rausholt? :|


zumindest (annähernden) gleichstand hatte es schon öfters gegeben.

Godmode
2007-11-22, 23:47:31
Das Problem ist das wir es derzeit mit D3D9 Engines die auf D3D10 vergewaltigt wurden zu tun haben. Die durch den reduzierten Overhead gesparte Leistung wird dafür verbraten das D3D10 Interface auf die D3D9 artige interne Schnittstelle anzupassen. Prominentes Beispiel ist das State Management das ja komplett anders ist. Der zweite Punkt ist IMHO das derzeit die vorhandenen D3D9 Effekte nicht konsequent auf D3D10 umgesetzt werden sondern mal lieber zusätzliche neue Effekte baut. Ein weiteres Problem das ich aber noch nicht in der Tiefe Analysiert habe scheint zu entstehen wenn man umfangreiche D3D9 Shader Bibliotheken ohne Anpassung einfach mal für D3D10 neu kompiliert. Was bei den derzeitigen „D3D10 Spielen“ gängige Praxis zu sein scheint.


So sehe ich das auch! Also wir zu Radeon 9700 Zeiten erste D3D9 Spiele sahen, waren das IMO auch nur D3D8 Engines mit D3D9 Zusatz. Was war eigentlich das erste Spiel das einen D3D9 Pfad hatte? Crysis ist hier wohl auch ein sehr gutes Beispiel. IMO eine Engine die hauptsächlich mit der D3D9 Api entwickelt wurde und zusätzlich aber auch noch D3D10 unterstützt. Ich habe leider nicht das Know-How um feststellen zu können, wie effizient der D3D10 Renderer von Crysis arbeitet, aber ein Entwickler spart meistens gerne Arbeit ein und somit wäre das was Demirug sagte gut möglich. (Wrapperklassen für D3D10, aufwändiges Mapping von Schnittstellen, …) Es sind wohl viele Dinge aus dem D3D9 Renderer übernommen worden, ohne dabei die Vorteile von D3D10 richtig auszunützen. Sollte dann doch wo mehr Performance rauskommen als in der D3D9 Version, wird das meistens gleich in neue Features investiert, zb die God-Rays in Crysis.

Eine von Grund auf D3D10 basierte Engine werden wir wohl erst sehen, wenn auch der Markt dafür vorhanden ist, sprich mehr Leute solch eine Karte besitzen. IMO müssen sich die Entwickler erst richtig bewusst werden, was und vor allem wie Dinge mit D3D10 richtig und effizient implementiert werden. Mit einem Werkzeug arbeiten zu können, heißt noch lange nicht es auch effizent einsetzen zu können.

Gast
2007-11-26, 08:37:57
Mythos 1:
Es gibt kein DX10. Es heißt immer noch D3D10.

Schade wenn man keine Ahnung hat.

http://www.microsoft.com/windows/products/windowsvista/features/details/directx.mspx

D3D10 ist der Grafikteil von DX10, zu dem noch ein wenig mehr gehört.

Gast
2007-11-26, 09:24:15
Schade wenn man keine Ahnung hat.


Sehe ich auch so, denn du hättest besser nichts geschrieben, weil du keine Ahnung hast.

Wishnu
2007-11-26, 11:53:05
Ich würde sie nicht als „super“ aber als wichtig bezeichnen. Immerhin hat sie bei nvidia die lange Phase des technologischen hinterherhinken der Low end Klasse beendet. Vor der 5200 war es völlig undenkbar eine „Shader Only“ Engine zu bauen.

Hm, das ist aber schon ein wenig zynisch, denn viel mehr als das Starten des Spieles ist hier bei einer FX5200 nicht drin. :)

tombman
2007-11-26, 12:05:27
Auch jetzt, über 4.5 Jahre später ist die aktuellste Hardware nicht potent genug DX9 Features, welche massiv genutzt werden, flüssig auf aktueller Hardware darzustellen (siehe Crysis).
Falsch, alles ab GTS aufwärts rennt mit vollem DX9 Pfad absolut flüssig.

Gast
2007-11-26, 12:12:22
Hm, das ist aber schon ein wenig zynisch, denn viel mehr als das Starten des Spieles ist hier bei einer FX5200 nicht drin. :)


Also DX8 Shader laufen sehr gut auf der FX5200.

Colin MacLaren
2007-11-26, 12:28:16
Falsch, alles ab GTS aufwärts rennt mit vollem DX9 Pfad absolut flüssig.

Schön wärs.

Wobei ich zustimmen muß, dass bisher außer bei Bioshock der DX10-Pfad immer ein Reinfall war. Sah nicht wirklich besser aus, oder kostet für wenig mehr extrem viel Leistung (siehe WiC, das kann ich in DX10 auch vergessen).

tombman
2007-11-26, 12:40:50
Schön wärs.
Is so. Auch auf deiner 320er GTS.

Mach mal alles auf HIGH und in 1280x800, ohne AA. (XP SP2, DX9)

Wishnu
2007-11-26, 12:58:47
Also DX8 Shader laufen sehr gut auf der FX5200.

In 320x200?

Ich hatte selbst einmal übergangsweise eine 64bittige (das dürfte die große Mehrheit sein) FX5200 und DX8+-Only-Titel konnte man ziemlich verreiben (selbst mit minimalen Details).

Gast
2007-11-26, 13:03:04
In 320x200?

Ich hatte selbst einmal übergangsweise eine 64bittige (das dürfte die große Mehrheit sein) FX5200 und DX8+-Only-Titel konnte man ziemlich verreiben (selbst mit minimalen Details).
War die GF5 nicht der Pendant zur Radeon 9700? Ich habe eine 9700 gehabt und konnte damit sogar FarCry auf mittleren Details bei 1280x960 spielen. :|

Wishnu
2007-11-26, 13:18:40
War die GF5 nicht der Pendant zur Radeon 9700? Ich habe eine 9700 gehabt und konnte damit sogar FarCry auf mittleren Details bei 1280x960 spielen. :|

Du meinst GF5 Highend - wenn man von SM2 absieht (da war eine 9600 schon so fix wie eine 5900)... Bei erscheinen der 9700 Pro gabs von Nvidia allerdings nur die GF4-Serie, 4-5 Monate kam dann die GF5 heraus.

Die FX5200 bot in der Standardversion, sofern mich mein Gedächtnis nicht trügt, etwa 1/3 der Performance einer GF4200TI
(die 128bittige Fassung kam hier auf 50%).

Coda
2007-11-26, 13:23:50
D3D10 ist der Grafikteil von DX10, zu dem noch ein wenig mehr gehört.
Zu DirectX 10 gehört in der Tat nichts anderes als Direct3D 10.

Gast
2007-11-26, 13:58:02
Die FX5200 bot in der Standardversion, sofern mich mein Gedächtnis nicht trügt, etwa 1/3 der Performance einer GF4200TI
(die 128bittige Fassung kam hier auf 50%).


Eher 80% für die 128bittige und 50% für die 64bittige.

Wishnu
2007-11-26, 14:06:37
Eher 80% für die 128bittige und 50% für die 64bittige.

Meinst du bei 80% nicht eher die (seltene) fx5200ultra?

Wenn man sich hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/vorschau_geforce_fx5200_ultra_fx5600_ultra/drucken/) die Spiele-Benches mal anschaut, so lag hier die 128bittige FX5200 im Mittel bei knapp über 50%. Die 64bittige Fassung ist dann nochmal ein Stückchen langsamer.


falsch gelesen -> korrektur


Hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_geforce_roundup/20/) mit Splinter Cell noch einer der ersten Vertreter der DX8-only Generation. Auch mit der 128bittigen Version nur sehr eingerschränkt zu genießen.

myopF
2007-11-27, 00:02:35
Is so. Auch auf deiner 320er GTS.

Mach mal alles auf HIGH und in 1280x800, ohne AA. (XP SP2, DX9)

du kannst auch unter dx9 very high freischalten, schon luppts net mehr spielbar auf der gts 320, habs bei einem freund mit der 320er getestet, war aber auch auf 1280*1024, was aber auch die gängigere res is. (bei hohen res und aa schmiertse sogar ab ;D)

tombman
2007-11-27, 00:12:01
du kannst auch unter dx9 very high freischalten, schon luppts net mehr spielbar auf der gts 320, habs bei einem freund mit der 320er getestet, war aber auch auf 1280*1024, was aber auch die gängigere res is. (bei hohen res und aa schmiertse sogar ab ;D)
Und wieso sollte das eine GTS 320 auf very high spielen können? Sie ist KEINE HighEnd Karte...
Außerdem war das nicht das Thema.

Gast
2007-11-27, 00:18:39
Xbox 360 kann DX10 :lol:

Gast
2007-11-27, 00:21:03
Xbox 360 kann DX10 :lol:
Nicht wirklich, nur "teilweise".

Gast
2007-11-27, 00:26:57
Nicht wirklich, nur "teilweise".

Das Smiley sollte die Ironie verdeutlichen ;)

myopF
2007-11-27, 01:41:18
Falsch, alles ab GTS aufwärts rennt mit vollem DX9 Pfad absolut flüssig.

darum gings mir, oder möchtest du bestreiten das very high im dx9 renderpfad möglich ist und fast nur aus politischen gründen rausgenommen wurde?
da gings jetzt nicht um die einordnung der 320 in ein marktsegment sondern um das widerlegen deiner aussage ;).
also reicht heutige hardware nicht für flüssiges dx9 in maximaler ausprägung (zumindest in cryteks engine), jedenfalls nicht ab einer GTS.

tombman
2007-11-27, 02:00:36
darum gings mir, oder möchtest du bestreiten das very high im dx9 renderpfad möglich ist und fast nur aus politischen gründen rausgenommen wurde?
da gings jetzt nicht um die einordnung der 320 in ein marktsegment sondern um das widerlegen deiner aussage ;).
also reicht heutige hardware nicht für flüssiges dx9 in maximaler ausprägung (zumindest in cryteks engine), jedenfalls nicht ab einer GTS.
Gar nix hast widerlegt. Mit Veränderungen von games per "hacks" kriegst jede Karte klein, also bleibt meine Aussage intakt.
Zum DX9 Pfad in Crysis gehören keine .ini hacks und kein very high content, basta.

Coda
2007-11-27, 02:33:26
Naja ist auch ne blödsinnige Aussage an sich. Natürlich bekommt man auch mit z.B. 5000 SM3-Sinus-Instructions pro Pixel ne 8800GTX klein. Das ist doch kein Maßstab.

Das Problem an der Sache ist, dass kein Vergleich möglich ist. Entweder man schreibt eine Engine so, dass sie D3D10 ausnutzt und dann aber nicht mehr D3D9 verwenden kann oder man schreibt sie so, dass man beide verwenden kann aber von D3D10 praktisch keine Geschwindigkeitsvorteile hat.

myopF
2007-11-27, 02:53:31
und hier dachte ich das alles was im dx9 mode angezeigt werden kann zu dx9 gehört, i beg your pardon :rolleyes:
dass die very high settings unter xp/dx9 nicht im menü auftauchen hat mehr politische denn technische gründe (im gegensatz zum gestrichenem extreme mode - welcher wohl selbst highend überfordert) und wurde nachträglich entfernt. sonst gäbs diese effekte im dx9 renderpfad ja nicht.
welche gründe das genau sind und in welche wichtung diese einzeln haben kann dir auch nur herr yerli sagen.

PS: die cryengine 2 ist trotz aufgesetztem dx10 renderpfad imho eher eine dx9 engine. so genug OT, mit tombman streiten bringt eh nix :P
engines die dx10 kompromisslos ausnutzen sind jetzt wohl gerade mal in der entwicklung und in 2 jahren juckt der vergleich dx9/dx10 dann eh keine sau mehr.

Das Auge
2007-11-27, 03:14:28
Ohne jetzt alles gelesen zu haben, behaupte ich einfach mal, die schlechte Performance liegt daran, daß der Code einfach noch nicht für DX10 (ja, ich weiß es heißt D3D10, ist mir aber egal, DX10 tippt sich einfach flüssiger ;)) optimiert wurde. Bestenfalls wurden bislang ein paar Effekte angeflanscht, die aber meiner Laienhaften Meinung nach eher eine Art DX9+ darstellen.

tombman
2007-11-27, 03:28:37
und hier dachte ich das alles was im dx9 mode angezeigt werden kann zu dx9 gehört, i beg your pardon :rolleyes:
Man kann in DX9 sicher den 10-fachen Detailgrad wie jetzt anzeigen, was dann auch für einen G100 zuviel wäre- würdest du dann auch behaupten, daß der G100 "zu langsam" für DX9 wäre?
Die ursprüngliche Aussage von "ihm" war ja sinngemäß, daß heutige highend Karten zu langsam für die anspruchsvollsten DX9 Pfade sind- und das ist eben falsch, denn auch Crysis packen sie ohne Probleme :)

myopF
2007-11-27, 04:17:07
jo keine frage wenn ich den detailgrad beliebig erhöhe kill ich jede gpu (dicke viewdistance mit e_lod_max 0 zb) aber ich rede ja nur vom detailgrad (bzw mehr effekten wie parallax occlusion mapping die bei high fehlen) von very high @dx9 und da reicht ne gts halt net, ne ultra aber idr schon. :)
so genug davon, tombi hat recht und der faden is sein ot los ;)

Schnitzl
2007-11-27, 07:56:05
Eine D3D10 Version für XP hätte die Situation nur unwesentlich geändert. Aus Entwicklersicht ist es weitaus kritischer dass es in D3D10 keinen „Tech Level 9“ gibt.
Für mich hätte sich einiges geändert.
Hätte jetzt eventuell neuen Rechner mit XP+D3D10. So habe ich aber mein Geld lieber in ne Konsole (nicht von Microsoft) investiert.
Und ja, ich hab alle Betriebssysteme gekauft und bezahlt.

Ich hoffe, das noch viele andere so denken und Vista weit hinter den Erwartungen zurückleibt (*).
Vielleicht merkt dann in Redmond auch mal jemand, dass man nicht ALLES mit den Kunden machen kann.

(*) Der Trend ist ja schon da :)

Demirug
2007-11-27, 08:25:46
Ich hätte mich vielleicht genauer ausdrücken müssen.

Mit Entwickler meinte ich die Entwickler von PC Spielen. Denen würde ein D3D10 für XP nur unwesentlich helfen weil ja nicht nur Vista sondern auch entsprechende Hardware notwendig ist. Man kann also auf lange Sicht sowieso nicht auf D3D10 alleine setzten.

Demirug
2007-11-27, 09:12:47
Das Problem an der Sache ist, dass kein Vergleich möglich ist. Entweder man schreibt eine Engine so, dass sie D3D10 ausnutzt und dann aber nicht mehr D3D9 verwenden kann oder man schreibt sie so, dass man beide verwenden kann aber von D3D10 praktisch keine Geschwindigkeitsvorteile hat.

Würde ich so allgemein nicht sagen.

Eine D3D10 Engine mit D3D9 Fallback kann durchaus die Vorteile von D3D10 nutzen ohne bei D3D9 unnötig zu bremsen.

Eine D3D9 Engine mit D3D10 Upgrade (das ist das was wir im Moment zum größten Teil sehen) kann IMHO wirklich nur für zusätzliche Effekte genutzt werden. Der Rest verpufft.

ProZe
2007-11-27, 10:06:07
Würde ich so allgemein nicht sagen.

Eine D3D9 Engine mit D3D10 Upgrade (das ist das was wir im Moment zum größten Teil sehen) kann IMHO wirklich nur für zusätzliche Effekte genutzt werden. Der Rest verpufft.


Und genau das erzeugt im Moment sehr viel Unmut bei den Käufern, da nur ein kleiner Teil die Zusammenhänge versteht und durch das Marketing viel verzerrt wird. (Stichwort: Games for Windows Vista, was von vielen als D3D10-Spiel verstanden wird)

Schnitzl
2007-11-27, 10:55:44
Ich hätte mich vielleicht genauer ausdrücken müssen.

Mit Entwickler meinte ich die Entwickler von PC Spielen. Denen würde ein D3D10 für XP nur unwesentlich helfen weil ja nicht nur Vista sondern auch entsprechende Hardware notwendig ist.
Das war doch noch nie das Problem :confused:
(Stichwort FX5200)

Andererseits finde ich, dass die HW schon da ist - sowie es hätten dann fast alle schon D3D10 aufm Rechner
--> es wird beim Spiel mitinstalliert und man braucht sich keine Gedanken mehr über DX9 machen.
--> weniger Aufwand, oder?

Man kann also auf lange Sicht sowieso nicht auf D3D10 alleine setzten.
s.o.

Grestorn
2007-11-27, 11:04:02
Das war doch noch nie das Problem :confused:

Doch, weil im Gegensatz zu allen anderen Wechsel von einer DX Version zur nächsten, jetzt ein komplett neuer Rendering-Pfad notwendig wurde.

Sonst konnte man den alten Pfad einfach um ein paar optionale Features erweitern. Das ist der fundamentale Unterschied.

Vista oder XP spielt nur eine sehr kleine Rolle, wenn überhaupt eine.

Gast
2007-11-27, 11:33:06
(Stichwort: Games for Windows Vista, was von vielen als D3D10-Spiel verstanden wird)

ich hab noch nie Games for Windows Vista gesehen, lediglich Games for Windows.

ProZe
2007-11-27, 12:38:12
ich hab noch nie Games for Windows Vista gesehen, lediglich Games for Windows.

Falls dem wirklich so sein sollte nehme ich es zurück. Allerdings assoziieren es viele damit; ist zumindest meine Erfahrung.

Demirug
2007-11-27, 12:48:53
Das war doch noch nie das Problem :confused:
(Stichwort FX5200)

Andererseits finde ich, dass die HW schon da ist - sowie es hätten dann fast alle schon D3D10 aufm Rechner
--> es wird beim Spiel mitinstalliert und man braucht sich keine Gedanken mehr über DX9 machen.
--> weniger Aufwand, oder?

Bis D3D9 war es üblich das die Runtime auch ältere DDI (Device Driver Interface) unterstützt. So gibt sich D3D9 auch mit einem DDI der Version 7 zufrieden. D3D10 will nun aber zwingend ein DDI 10 haben. Das wäre soweit noch nicht schlimm da man nur einen neuen Treiber bräuchte. Das Problem ist aber jetzt das DDI 10 vollständig oder gar nicht unterstützt werden muss. Die ganzen „alten“ GPUs können das aber nicht und somit sind sie über die D3D 10 Runtime nicht ansprechbar. Solange man also noch D3D9 Hardware unterstützen will muss man auch D3D9 verwenden. Entsprechend verursacht das fehlende D3D10 für XP aus Entwicklersicht keine zusätzlichen Kopfschmerzen. Ich persönlich gehe davon aus das Spiele D3D9 Hardware länger unterstützen werden als Windows XP.

Mstrmnd
2007-11-27, 13:45:19
Ich sehe diesen Zusammenhang so nicht. Wenn es für XP D3D10 gegeben hätte, dann wäre die Verbreitung sehr viel höher. Es ist ja nicht so, als ob es nur die 8800GTX gäbe, die D3D10 unterstützt. Es gibt auch sehr günstige Karten von beiden Herstellern und in Fertig-Rechnern wird auch immer die günstige/günstigste Karte mit den höchsten Features verbaut.

StefanV
2007-11-27, 14:04:26
Der Zusammenhang ist, das man D3D10 Hardware braucht, die aber noch nicht soo weit verbreitet ist, Vista allein reicht nicht.

Wenns allein reichen würde, würden die Entwickler eher XP fallen lassen, da es aber nicht der Fall ist, kann man weder D3D9 noch XP fallen lassen, wobei das nicht unbedingt zusammenhängt...

Das Auge
2007-11-27, 14:56:17
Ich sehe diesen Zusammenhang so nicht. Wenn es für XP D3D10 gegeben hätte, dann wäre die Verbreitung sehr viel höher. Es ist ja nicht so, als ob es nur die 8800GTX gäbe, die D3D10 unterstützt. Es gibt auch sehr günstige Karten von beiden Herstellern und in Fertig-Rechnern wird auch immer die günstige/günstigste Karte mit den höchsten Features verbaut.

Seh ich genauso. DX10-Karten verbreiten sich von ganz von alleine, man kann halt irgendwann gar nichts anderes mehr kaufen. Aber vor Vista sträuben sich (z.T. ja auch zu Recht) die allermeisten Nutzer.

Grestorn
2007-11-27, 15:05:56
Seh ich genauso. DX10-Karten verbreiten sich von ganz von alleine, man kann halt irgendwann gar nichts anderes mehr kaufen. Aber vor Vista sträuben sich (z.T. ja auch zu Recht) die allermeisten Nutzer.

Auch Vista wird sich von alleine verbreiten. Die allgemeine Sträubung wird sich geben. Neben einigen durchaus realen und ungeleugneten Problemen, ist das meiste ja doch eher reine Gefühlssache.

Selbst wenn der eine oder andere auf Vista verzichtet - dann steigt er eben direkt auf den Nachfolger um. Die wenigsten werden für unbegrenzte Zeit einem alten OS treu sein.

Demirug
2007-11-27, 15:07:37
Seh ich genauso. DX10-Karten verbreiten sich von ganz von alleine, man kann halt irgendwann gar nichts anderes mehr kaufen. Aber vor Vista sträuben sich (z.T. ja auch zu Recht) die allermeisten Nutzer.

Du kannst auch irgendwann kein XP mehr kaufen. Bei Komplettsysteme wird das aktuell schon schwer. Dagegen gibt es immer noch neue Rechner mit D3D9 Hardware (und Vista).

tombman
2007-11-27, 15:16:39
Daß Vista ein Erfolg wird, ist so sicher wie das Amen in der Kirche.

MS hat quasi ein Monopol, was soll da schon passieren? :rolleyes:

Nur weil ein paar "freaks" sich wehren? Lol, juckt doch keinen. OK, die Firmen sind zögerlich, aber das sind sie bei einem
neuen OS IMMER. Hauptsache der 0815 DAU sieht wie schön mal Fenster in Vista flippen kann und wie schön elegant und sauber der farbige Desktop ist ;D;D

Gast
2007-11-27, 15:19:29
Du kannst auch irgendwann kein XP mehr kaufen. Bei Komplettsysteme wird das aktuell schon schwer. Dagegen gibt es immer noch neue Rechner mit D3D9 Hardware (und Vista).

So lange wie die Industrie zu 90 bis 95% auf XP besteht wirds so schnell nicht gehen. Selbst der Mediamarkt-DAU hat ja schon begriffen was er sich mit VISTA einfängt.

tombman
2007-11-27, 15:20:57
Selbst der Mediamarkt-DAU hat ja schon begriffen was er sich mit VISTA einfängt.
Echt jetzt? Gibts dazu Zahlen?

Mstrmnd
2007-11-27, 15:29:16
MS hat den OEM-Herstellern erlaubt Downgrade-Optionen auf XP zu bieten. Das heißt aber noch nicht, dass irgendwelche DAUs jetzt alle umschwenken wollen. Es werden eher die Profis sein, die aus irgendwelchen Gründen einen Fertig-PC brauchen und die Hersteller mit Anfragen genervt haben, ob sie nicht XP statt Vista haben können.

Gast
2007-11-27, 15:29:25
Zu den Firmenpcs und den Downgradeoptionen ja. Zu den DAUs eher Erfahrungswerte und die Tatsache das der Blödmarkt erst komplet zu VISTA ging und dann (nach massiven Problemen und Kundenreklamationen) wieder zu XP.

In meinem bekannten und Studienkreis siehts so aus: 4 Notbooks mit VISTA gekauft, 3 zurück gegben (und XP einen mit XP besorgt da keine Treiber) und einer auf XP umgestellt. 6 Desktopcomputer durfte ich cleanen und XP drüber bügeln. VISTA Benutzerquote im Moment wieder 0%.

Wichtigstes Merkmal ist aber das Leute mit kaum PC Verständnis auf einmal mit einem über Betriebssysteme reden.

Wishnu
2007-11-27, 15:29:29
Selbst der Mediamarkt-DAU hat ja schon begriffen was er sich mit VISTA einfängt.

Hm, glaube ich auch nicht recht.
Der Mensch ist ein Bequemlichkeitstyp und nimmt in der Regel das, was ihm aufgetischt wird. Das ist doch genau der Benutzertyp, auf den Vista zugeschnitten ist. Da gibt es viel Klickibunti, einen Haufen Assistenten, eine Portion Entmündigung und eine passable Hardwareunterstützung. Wäre ich mein Opa, dann wäre das genau das richtige für mich. :)

Gast
2007-11-27, 15:32:04
So lange wie die Industrie zu 90 bis 95% auf XP besteht wirds so schnell nicht gehen.

In der Industrie kommen kommen aber keine Highend 3D Beschleuniger zum Einsatz. Die Rede ist hier vom Endverbraucher und nicht von Industrierechnern. In der Industrie hat auch der Umstieg von 2000 auf XP sehr lange gebraucht, wo hingegen beim Endverbraucher XP schon lange vorhanden war.

Gast
2007-11-27, 15:43:59
2000 hat aber selbst bei der Industrie nie eine weite Verbreitung erreicht. VISTA ist zZ immernoch nur für Bastler oder Wenignutzer brauchbar. Solange wie man produktiv Arbeiten muss, fällt VISTA einfach flach. Unter Zeitdruck kann man sich keine Softwareprobleme leisten. Wenn Office schon Probleme macht brauch man über die Nutzung von Spezialprogrammen garnicht nachdenken.

Da fehlt noch viel Entwicklungsarbeit. Einen Aufrüstzwang gibts eben im Moment nur für Grafikgeile. Der Rest hat erstmal zuviele Kinderkrankheiten, die einem zu geringen Mehrwert entgegen stehen. Aber mal sehen wie es in einem Jahr aus sieht.

Coda
2007-11-27, 15:50:19
2000 hat aber selbst bei der Industrie nie eine weite Verbreitung erreicht.
Quatsch.

tombman
2007-11-27, 15:53:26
Zu den Firmenpcs und den Downgradeoptionen ja. Zu den DAUs eher Erfahrungswerte und die Tatsache das der Blödmarkt erst komplet zu VISTA ging und dann (nach massiven Problemen und Kundenreklamationen) wieder zu XP.

In meinem bekannten und Studienkreis siehts so aus: 4 Notbooks mit VISTA gekauft, 3 zurück gegben (und XP einen mit XP besorgt da keine Treiber) und einer auf XP umgestellt. 6 Desktopcomputer durfte ich cleanen und XP drüber bügeln. VISTA Benutzerquote im Moment wieder 0%.

Naja, Studienkreis würde ich jetzt nicht gerade als den Standarddau bezeichnen. Die Fähigkeit "besser zu denken" sollte diesen Studiosi ja schon haben, auch wenn sie im PC Bereich Laien sind.
Wichtigstes Merkmal ist aber das Leute mit kaum PC Verständnis auf einmal mit einem über Betriebssysteme reden.
Ist doch gut so ;D

Gast
2007-11-27, 16:00:18
Quatsch.

Wo ist das bitte Quatsch? Im Vergleich zu XP ist/war der Anteil winzig. Server, ja, aber doch nicht bei den normalen Arbeitsrechnern.

Da ist ja selbst Linux weiter verbreitet.

Gast
2007-11-27, 16:08:01
Wo ist das bitte Quatsch? Im Vergleich zu XP ist/war der Anteil winzig. Server, ja, aber doch nicht bei den normalen Arbeitsrechnern.

Da ist ja selbst Linux weiter verbreitet.

Dazu kann man wirklich nur Quatsch sagen.

syronth
2007-11-27, 16:24:04
Die Antworten waren bislang recht spannend, es wäre nett, wenn das hier nicht in ein Vista-Bashing Round 28467 ausartet. Derlei kann man schon absolut erschöpfend überall anders nachlesen, diskutieren.

Wishnu
2007-11-27, 16:46:48
2000 hat aber selbst bei der Industrie nie eine weite Verbreitung erreicht.

Meiner Erfahrung nach wurde bei MS-Systemen häufiger von NT4->Win2k migriert, als direkt von NT4->WinXP. Ich kann aber natürlich nur für die Betriebe sprechen, welche ich in dieser Zeit direkt gesehen habe - geforscht habe ich in dieser Hinsicht nicht. :)

Gast
2007-11-27, 17:19:40
Es gibt auch sehr günstige Karten von beiden Herstellern und in Fertig-Rechnern wird auch immer die günstige/günstigste Karte mit den höchsten Features verbaut.

in fertigrechnern ist auch Vista vorinstalliert, die "automatische" verbreitung von Vista und DX10-fähigen karten schreitet hand in hand voran.

SgtTynis
2007-11-27, 17:38:25
Meiner Erfahrung nach wurde bei MS-Systemen häufiger von NT4->Win2k migriert, als direkt von NT4->WinXP. Ich kann aber natürlich nur für die Betriebe sprechen, welche ich in dieser Zeit direkt gesehen habe - geforscht habe ich in dieser Hinsicht nicht. :)

Kann ich von meiner Seite nicht bestätigen. Mir sind im industriellen Umfeld nur sehr wenige Migrationen von NT4 auf W2k bekannt, dafür umso mehr von NT4 auf XP. Zusammen mit deiner Aussage dürfte das also zu dem Ergebnis führen, dass beide Migrationstypen anzahlmässig sich die Waage halten dürften.

Gast
2007-11-27, 18:01:38
Quatsch.Kindergartenargumentation.

Coda
2007-11-27, 18:10:12
Was anderes als Quatsch ist es halt nicht. Ich hab an keiner Firma was anderes als NT/2000/XP gesehen bisher, und 2000 war vor XP gewiss nicht unverbreitet.

Botcruscher
2007-11-27, 18:16:31
Das ändert doch nichts am Verhältnis von XP zu 2000. Und wenn du in Firmen noch kein Linux gesehen hast so möchte ich dich an die ganzen Rechner in der Produktion erinnern. Bei den Steuerungssystemen gibts praktisch kein Windows sondern fast nur Linux(in allen größen und Ausführungen). Firmen sind mehr als Bürorechner.;)
Wenn jemand im Lager nur eine Maske zu sehn bekommt muss da nicht Windows drauf sein.

Gast
2007-11-27, 18:18:08
Was anderes als Quatsch ist es halt nicht. Ich hab an keiner Firma was anderes als NT/2000/XP gesehen bisher, und 2000 war vor XP gewiss nicht unverbreitet.
Geht doch, du kannst dich argumentieren, sprich mit uns wie wir mit dir statt im Egotripp Ausrufe zu posten.

Danke im voraus.

@Topic
Ich stimme dir zu, W2K war gut verbreitet soweit ich das sagen kann, mit ein Grund weshalb sich WinME kaum durchsetzte.

Gast
2007-11-27, 18:25:50
Was anderes als Quatsch ist es halt nicht. Ich hab an keiner Firma was anderes als NT/2000/XP gesehen bisher, und 2000 war vor XP gewiss nicht unverbreitet.
so viel lebenserfahrung hast du ja auch noch noch nicht.
besser du erweiters mal deinen horizont, bevor es zu spät ist.

Demirug
2007-11-27, 18:41:22
Das ändert doch nichts am Verhältnis von XP zu 2000. Und wenn du in Firmen noch kein Linux gesehen hast so möchte ich dich an die ganzen Rechner in der Produktion erinnern. Bei den Steuerungssystemen gibts praktisch kein Windows sondern fast nur Linux(in allen größen und Ausführungen). Firmen sind mehr als Bürorechner.;)
Wenn jemand im Lager nur eine Maske zu sehn bekommt muss da nicht Windows drauf sein.

Auch wenn es nun völlig offtopic ist.

Auf der Steuerungsebene habe ich schon alles gesehen. Dazu gehören auch Windows CE sowie Windows Embedded. Je kritischer jedoch die Anforderungen werden desto proprietärer werden auch die Systeme.

Auf der Leitebene darüber setzten fast alle Systeme inzwischen Windows ein.

Wishnu
2007-11-27, 18:46:24
Das ändert doch nichts am Verhältnis von XP zu 2000. Und wenn du in Firmen noch kein Linux gesehen hast so möchte ich dich an die ganzen Rechner in der Produktion erinnern. Bei den Steuerungssystemen gibts praktisch kein Windows sondern fast nur Linux(in allen größen und Ausführungen). Firmen sind mehr als Bürorechner.;)
Wenn jemand im Lager nur eine Maske zu sehn bekommt muss da nicht Windows drauf sein.

Hey, OS/2 nicht vergessen. Wobei ich das eigentlich nur in Behörden oder Banken gesehen habe. :)