PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX/D3D 10.1 ...


laser114
2007-08-01, 14:11:50
Direct3D 10.1 Tech Preview

Direct3D 10.1 is an incremental, side-by-side update to Direct3D 10.0 that provides a series of new rendering features that will be available in an upcoming generation of graphics hardware.

* TextureCube Arrays which are dynamically indexable in shader code.
* An updated shader model (shader model 4.1).
* The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions.
* The ability to render to block-compressed textures.
* More flexibility with respect to copying of resources.
* Support for blending on all unorm and snorm formats.

http://www.microsoft.com/downloads/details.aspx?FamilyID=529f03be-1339-48c4-bd5a-8506e5acf571&DisplayLang=en&displaylang=en

Tja, die Weiterentwicklung schreitet schnell voran. Was wohl mit 'upcoming generation of graphics hardware' gemeint ist?

Monger
2007-08-01, 14:19:33
Edit: sry, falsches Thema. In dem Link wird ja auch XAudio2 erwähnt, aber das scheint ja schon allgemein bekannt zu sein.

no_surrender
2007-08-01, 15:09:05
kann das mal einer auf Deutsch übersetzen :redface:

Mein english ist nicht so gut:biggrin:

Gast
2007-08-05, 00:45:59
Hier auf Deutsch:

http://www.hardware-infos.com/news.php?news=1255

Gast
2007-08-05, 01:53:32
Mich würde eher mal interessieren, ob man die jetzigen DX10.0 Karten jetzt wegschmeißen kann, weil sie dazu inkompatibel sind?

Wenn die Spielehersteller erst bald mit der Entwicklung erster Titel beginnen, werden sie sicherlich gleich 10.1 nehmen, was ist denn mit den jetzigen Karten?

Neomi
2007-08-05, 03:39:12
Mich würde eher mal interessieren, ob man die jetzigen DX10.0 Karten jetzt wegschmeißen kann, weil sie dazu inkompatibel sind?

Natürlich kannst du deine jetzige Grafikhardware wegschmeißen, wenn es dich glücklich macht, das wäre aber minderschlau. Erstmal sind D3D10.0-Karten durch D3D10.1 noch lange nicht veraltet, außerdem gibt es von letzterem momentan nur ein Tech-Preview, keine fertige Version.

Die jetzige Hardware wird man auch mit D3D10.1 ansprechen können, nur werden dann die paar neuen Features nicht unterstützt. Technisch gesehen ist es sogar ein D3D10.0-Device, das erstmal erstellt wird und dann auf Anfrage zusätzliche Interfaces bereitstellt. Möglich ist, daß ein Spiel für ganz wenige Eyecandy-Dinge D3D10.1 vorraussetzt, aber das werden dann natürlich nur optionale Sachen sein.

Kurz: wer keine Alpträume bekommt, wenn mal ein einzelner Detailregler 2% vom Anschlag entfernt steht und die aktuellsten Hersteller-Techdemos nicht als überlebenswichtig einstuft, darf auch mit seiner "alten" Hardware weiterdaddeln.

PS: CubeTexture-Arrays sind schon eine schöne Sache, auf Anhieb fallen mir da dynamisch unscharfe Reflektionen ein.

Gast
2007-08-05, 08:55:28
Die jetzige Hardware wird man auch mit D3D10.1 ansprechen können, nur werden dann die paar neuen Features nicht unterstützt.

Das mein ich. Also können sich jetzige D3D10-Kartenbesitzer in den Hintern beißen, wenn sie mal wieder auf die Aussagen bezüglich Zukunft gehört haben. :)

Anwendungen sind kaum in Sicht und wenn, dann werden die Entwickler gleich die neueste Version nehmen.
Jetzt ist es sowieso noch zu früh, da die Hardwarebasis zu klein ist. Wenn die Softwareentwicklung richtig beginnt, dann wird 10.1 auch schon da sein und breitflächig genutzt... die Käufer jetziger 300-500€ Karten müssen sich dann also schon mit verminderter Qualität zufrieden geben. ;)

Ich habs mir fast gedacht, das es so kommt!

4711
2007-08-05, 09:11:05
jo genau...ich beiß mich schon....und bin dabei alle DX9 Games in die Tonne zu stecken...und hoffendlich stricken die jetzt Crysis nicht mehr um..denn dann müßt ich wirklich heulen....

derguru
2007-08-05, 13:48:13
war doch schon immer so gewesen wenn eine neue dx version raus kam,das in relative kurzer zeit eine z.b. 8.1 raus kam.wie naive noch leute sind die denken wenn man sich eine neue karte gekauft hat in dem fall 8800 ner oder ati 2900 mit dx 10 das dann die zukunft sicherer sind.hehe.

man kann pauschal sagen wenn eine neue z.b. dx10 version raus kommt sind die ersten karten noch viel zu lahm dafür:)siehe geforce 8800 und 2900. das war immer so und wird auch so bleiben.grafikkarten kauft man für die gegenwart nicht für die zukunft:)

R300
2007-08-05, 16:34:52
Jap, die einzige große Ausnahme war die 9700Pro.
Als ich die Ende 2002 gekauft hatte, war ich damit noch einige Jahre glücklich.^^

kruemelmonster
2007-08-05, 17:08:05
Mich würde eher mal interessieren, ob man die jetzigen DX10.0 Karten jetzt wegschmeißen kann, weil sie dazu inkompatibel sind?

Wenn die Spielehersteller erst bald mit der Entwicklung erster Titel beginnen, werden sie sicherlich gleich 10.1 nehmen, was ist denn mit den jetzigen Karten?

Unsinn. Ist das alte Spiel von installierter HW Basis beim Kunden:

Neue Technik = geringer Verbreitungsgrad des neuen DX Techlevels, daher Ausnutzung der Features in Spielen = 0, trotzdem sinnvoll da sich Geschwindigkeit in BQ umsetzen lässt.

dann kommt der

Refresh mit gleicher Technik, aber mehr Speed = höherer Verbreitungsgrad des DX Techlevels, dadurch erste zaghafte Ausnutzung der Features, Käufer der "neuen Technik" (s.o.) müssen ggf. AA & AF reduzieren

dann kommt wieder

Neue Technik² = geringer Verbreitungsgrad des neuen DX Techlevels, daher Ausnutzung der Features in Spielen = 0, trotzdem sinnvoll da sich Geschwindigkeit in BQ umsetzen lässt und vollständige Ausnutzung des Techlevels der vorherigen Generation, die mittlerweile Top-to-Bottom den kompletten Markt durchdrungen hat.

Gast
2007-08-05, 22:08:53
Hi,

was ist denn mit AMD, die sind da doch weiter als Nvidia? Oder?
Unterstützt AMD's R6XX nicht schon 10.1?

Mahlzeit

Gast
2007-08-05, 23:28:38
Unterstützt AMD's R6XX nicht schon 10.1?tNö. R600 ist ganz normal D3D10.

Neosix
2007-08-05, 23:43:19
Die frage ist eh mehr oder weniger sinnlos. zurzeit des lunches von r600 oder 8800 war 10.1 noch garnicht beschlossen. also die final spects noch garnicht bekannt. ich erwarte deswegen auch nicht wirklich das die nächsten refreshes 10.1 fähig sind. dafür war die zeit viel zu kurz.

aber ist nur ne vermutung von mir.

Gast
2007-08-06, 01:36:03
Neue Technik = geringer Verbreitungsgrad des neuen DX Techlevels, daher Ausnutzung der Features in Spielen = 0, trotzdem sinnvoll da sich Geschwindigkeit in BQ umsetzen lässt.

Nein, du denkst da in die falsche Richtung. :)
Die Entwicklung hat noch gar nicht begonnen, weil die Hardwarebasis generell zu klein ist. Richtige D3D10 Titel wirds erst 2008 und später geben, alles was jetzt erscheint, ist mehr oder weniger ne Übergangslösung.

Als Entwickler hast du kein Problem, für D3D10.1 zu programmieren und für 10.0 Karten einen Fallback einzubauen. Der umgekehrte Weg, wie du ihn beschreibst, wäre grober Schwachsinn.

Das heißt also, das die jetzigen Hardwarebesitzer sich dann schon mit verminderten Details begnügen müssen. Laufen tuts ja, nur halt nicht mit allen Gimmicks, was bei einer 500€ Karte dennoch ärgerlich ist.

kruemelmonster
2007-08-06, 04:06:01
Nein, du denkst da in die falsche Richtung. :)
Die Entwicklung hat noch gar nicht begonnen, weil die Hardwarebasis generell zu klein ist. Richtige D3D10 Titel wirds erst 2008 und später geben, alles was jetzt erscheint, ist mehr oder weniger ne Übergangslösung.

Das wir uns momentan in einer Übergangszeit befinden ist mir bewusst. Ohne Eierbecher kein Frühstücksei. :)


Als Entwickler hast du kein Problem, für D3D10.1 zu programmieren und für 10.0 Karten einen Fallback einzubauen.


Ich bin kein Dev, daher fehlt mir in diesem Bereich der Background um die Veränderungen 10 -> 10.1 im Startpost von laser114 korrekt werten und einschätzen zu können.


Der umgekehrte Weg, wie du ihn beschreibst, wäre grober Schwachsinn.


Was ich (ganz grob) beschrieben habe waren die großen Techlevel Sprünge der Vergangenheit, aus meiner Sicht des technik-affinen Endkunden.


Das heißt also, das die jetzigen Hardwarebesitzer sich dann schon mit verminderten Details begnügen müssen. Laufen tuts ja, nur halt nicht mit allen Gimmicks, was bei einer 500€ Karte dennoch ärgerlich ist.

OK, aber ist es so nicht immer? Wer den neuesten Eye Candy haben will, braucht die neueste Technikgeneration, ansonsten gibt's immer irgendein ausgegrautes Häkchen bei den Grafikoptionen.

Gast
2007-08-06, 11:14:49
Ich würde das ganze nicht überbewerten. Solang DX10 nichtmal "ordentlich" verbreitet ist, sollten die neuen Specs für 10.1 kaum eine Bedeutung haben. Jedoch könnte der Gast insofern Recht haben, dass wenn es richtig mit DX10 losgeht, viele Entwickler gleich für DX10.1 rumbasteln.
Anfangs wird es bis auf angegraute Häckchen wohl kaum Probleme geben, aber wenn ich mich so an PS 1.3 -> 1.4 zurückerinnere, könnte das langfristig für schwarze Bildschirme bei Besitzern z.Z. aktueller DX10 HW sorgen.
Aber bis dahin hat der typische 3dCenter-User wohl längst seine 8800 bei Ebay verkloppt und eine 2 Generationen jüngere Graka verbaut.

Gast
2007-08-06, 11:38:49
Das heißt also, das die jetzigen Hardwarebesitzer sich dann schon mit verminderten Details begnügen müssen. Laufen tuts ja, nur halt nicht mit allen Gimmicks, was bei einer 500€ Karte dennoch ärgerlich ist.
Wer 500 € für eine Grafikkarte ausgibt, käuft sich meistens, wenn es wieder eine schnellere gibt, diese. Sprich, er wird immer zum jeweiligen Zeitpunkt die schnellstmögliche Hardware haben. Außerdem hat sich der G80 schon in heutigen anspruchsvollen DX9 Games gelohnt, die dann endlich mal einigermaßen flüssig gelaufen sind. Hätte den G80 liebend gerne ohne den scheiß D3D10 Transistor Ballast genommen. Hätte sich garantiert sich positiv auf die Leistungsaufnahme und evtl. auf den Preis ausgewirkt. Vor allem, weil D3D10 zwingend Vista voraussetzt. Vielleicht wäre sonst D310 Sache schon mehr ins Rollen gekommen, ähnlich wie bei SM3.0.

Gast
2007-08-06, 13:24:35
Wer 500 € für eine Grafikkarte ausgibt, käuft sich meistens, wenn es wieder eine schnellere gibt, diese. Sprich, er wird immer zum jeweiligen Zeitpunkt die schnellstmögliche Hardware haben.

Du vergisst die Käuferschicht, die sich zur neuen (Feature-)Generation etwas neues kauft und trotzdem nicht verschwenderisch mit dem Geld umgeht ...

Das funktioniert so auch sehr gut. Man hat zum Zeitpunkt des Launches enorm viel Power und kann eigentlich alles flüssig zocken und selbst nach Jahren reichts immer noch für hohe Details.

Damals war das noch ohne Probleme, z.B. mit R9800 XT möglich, die locker 3 Jahre lang gute Dienste leisten konnte, weil sich in der Zeit nicht so viel bei den Features getan hat und die Leistung weiterhin ausreichend war.

Nur jetzt geschieht schon wieder das Dumme, das selbst Karten wie die 8800 Ultra vermutlich nächstes Jahr nicht mehr alle Features unterstützen, aber immer noch enorm hohe Performance abliefern.

Ich denke nicht, das der Massenmarkt in den nächsten 12 Monaten (da hätten wir schon wieder Q3 08), eine günstige Karte bekommen wird, die diese Leistungen erreicht. Folglich wird selbst diese Karte, obwohl sie dann locker ein Jahr und mehr auf dem Buckel hat, diese Karten weiterhin überflügeln.

Irgendwie verstehe ich auch nicht ganz, was diese ständige upgraderei bringen soll? Warum hat Microsoft die Features nicht gleich miteingebaut? Warum diese kleinen Versionssprünge? Reicht es nicht, alle 2-3 Jahre eine neue DX Version zu bringen und da dann alles neue zu integrieren:confused:

Gaestle
2007-08-06, 14:13:19
Das mein ich. Also können sich jetzige D3D10-Kartenbesitzer in den Hintern beißen, wenn sie mal wieder auf die Aussagen bezüglich Zukunft gehört haben. :)

Anwendungen sind kaum in Sicht und wenn, dann werden die Entwickler gleich die neueste Version nehmen.
Jetzt ist es sowieso noch zu früh, da die Hardwarebasis zu klein ist. Wenn die Softwareentwicklung richtig beginnt, dann wird 10.1 auch schon da sein und breitflächig genutzt... die Käufer jetziger 300-500€ Karten müssen sich dann also schon mit verminderter Qualität zufrieden geben. ;)

Ich habs mir fast gedacht, das es so kommt!


So wie ich das verstanden habe, beginnen die Devs mit der Nutzung von neuen Features, sobald das erste Fitzelchen Hardware am Start ist. Bei großen Studios sind das Vorserienmodelle von GraKas, die sie meist ein paar Monate vor dem eigentlichen Launch zur Verfügung gestellt bekommen. Die Laufen dann oft auch noch nicht in den finalen Spezifikationen, aber sie laufen wenigstens grundsätzlich erstmal. Kleinere Studios besrgen sich das Hardware-Material wenns das ganz normal zu kaufen gibt.
Da die Entwicklung von Spielen im Mittel zwei - drei Jahre dauert, ist oftmals dann, wenn das Spiel rauskommt, eine entsprechende Hardware-Basis vorhanden, da Hardware-Verbreitung und Spielentwicklung zeitlich in etwa parallel ablaufen.
Natürlich gibt es immer wieder Studios, die eine neue Technik schon kurz nach Erscheinen anbieten, dies sind dann aber oftmals "drangepappte" Versionen und Patches, wie z.B. bei CoH .

Monger
2007-08-06, 15:19:20
So wie ich das verstanden habe, beginnen die Devs mit der Nutzung von neuen Features, sobald das erste Fitzelchen Hardware am Start ist. Bei großen Studios sind das Vorserienmodelle von GraKas, die sie meist ein paar Monate vor dem eigentlichen Launch zur Verfügung gestellt bekommen.

Das wird Demirug wiedermal besser beantworten können, aber afaik ist das gerade nicht so. Die Developer Kits kommen LANGE vor der Hardware raus (aktuell: eben DX10.1 Preview im aktuellen DirectX SDK), damit sie sich schonmal die Features anschauen können, und ihre Architektur darauf ausrichten können.

Wenn ein Spiel drei Jahre oder mehr in der Entwicklung steckt, kann man nicht auf vorhandene Hardware warten. Man muss darauf spekulieren, dass rechtzeitig zum Release die passende Hardware verfügbar sein wird.

Spätestens wenn es in den Betatest geht, wird man natürlich richtige Hardware haben wollen. Aber vorher ist das im Prinzip erstmal nicht notwendig.

Imho könnte man ansonsten auch nicht mal "schnell" irgendwelche grafischen Features nachpatchen. Die müssen bereits irgendwo in der Engine schlummern, aber entweder wegen Problemen oder wegen mangelnder Hardware deaktiviert sein, so wie es wohl bei CoH der Fall war.

Gast
2007-08-06, 16:20:01
Irgendwie verstehe ich auch nicht ganz, was diese ständige upgraderei bringen soll? Warum hat Microsoft die Features nicht gleich miteingebaut? Warum diese kleinen Versionssprünge? Reicht es nicht, alle 2-3 Jahre eine neue DX Version zu bringen und da dann alles neue zu integrieren:confused:Weil es beispielsweise zu NV40-Zeiten für die IHVs nicht möglich gewesen wäre, dass D3D10-Featureset bei ansprechender Performance zu realisieren.
Wenn ein Spiel drei Jahre oder mehr in der Entwicklung steckt, kann man nicht auf vorhandene Hardware warten. Man muss darauf spekulieren, dass rechtzeitig zum Release die passende Hardware verfügbar sein wird.
Ist es nicht eher sehr langwierig und evtl. frustrierend ohne verfügbare Hardware dafür zu entwickeln?

Gaestle
2007-08-06, 16:50:47
Das wird Demirug wiedermal besser beantworten können, aber afaik ist das gerade nicht so. Die Developer Kits kommen LANGE vor der Hardware raus (aktuell: eben DX10.1 Preview im aktuellen DirectX SDK), damit sie sich schonmal die Features anschauen können, und ihre Architektur darauf ausrichten können.

Wenn ein Spiel drei Jahre oder mehr in der Entwicklung steckt, kann man nicht auf vorhandene Hardware warten. Man muss darauf spekulieren, dass rechtzeitig zum Release die passende Hardware verfügbar sein wird.

Spätestens wenn es in den Betatest geht, wird man natürlich richtige Hardware haben wollen. Aber vorher ist das im Prinzip erstmal nicht notwendig.

Imho könnte man ansonsten auch nicht mal "schnell" irgendwelche grafischen Features nachpatchen. Die müssen bereits irgendwo in der Engine schlummern, aber entweder wegen Problemen oder wegen mangelnder Hardware deaktiviert sein, so wie es wohl bei CoH der Fall war.


Naja, ich bezog mich auf einige Diskussionen im Zusammenhang mit dem Erscheinen des NV40, bzw. an meine Erinnerung daran. Frage mich aber bitte nicht nach Links etc., da müsste ich tagelang suchen.
Ich meine, dass die Devs im Refrast oder so mal dies und das ausprobieren, kann ich mir noch vorstellen. Aber eine komplette Entwicklung auf SW-Renderer-Basis? :|

Gast
2007-08-06, 20:36:11
Damals war das noch ohne Probleme, z.B. mit R9800 XT möglich, die locker 3 Jahre lang gute Dienste leisten konnte, weil sich in der Zeit nicht so viel bei den Features getan hat und die Leistung weiterhin ausreichend war.

was in erster linie an der schwachen konkurrenz und vor allem am fehlenden SM3 in der R4xx-serie liegt.

Monger
2007-08-06, 21:53:10
Ist es nicht eher sehr langwierig und evtl. frustrierend ohne verfügbare Hardware dafür zu entwickeln?
Entwickeln im Blindflug ist IMMER frustrierend, aber nunmal notwendig.

Bei uns in der Entwicklung sieht der Entwickler im schlimmsten Fall monatelang nicht, was aus seinem Code geworden ist. Schnell mal das Programm anschmeißen und testen geht halt ab einer gewissen Größe nicht mehr.

Wenigstens die Zeit zwischen zwei vollständigen Builds sind die Entwickler meistens sowieso stumm und blind. Deshalb führt das manchmal auch zu bösen Überraschungen, wenn man die lauffähige Version dann tatsächlich mal anfasst.

Gast
2007-08-15, 18:17:42
Gerüchten, aktuelle Direct-X-10-Grafikkarten würden mit dem kommenden Update von Microsofts Schnittstellensammlung auf die Version 10.1 nicht funktionieren, ist Microsoft nun entgegengetreten.

Microsofts Direct-X-Programm-Manager Sam Glassenberg sagte in einem Interview mit den Kollegen der Website Next-gen.biz, dass aktuelle Direct-X-10-Grafikkarten auch nach dem Update auf die Version 10.1 alle bisherigen DX-10-Features unterstützten.

Glassenberg räumte jedoch ein, dass heutige DX-10-Hardware nicht alle Funktionen des Updates ausnutzen könnte.

Das Update der Schnittstellensammlung sehe man bei Microsoft, so Glassenberg weiter, als kleineres Update an. Ausgeliefert werden soll die Version 10.1 von DirectX zusammen mit dem Service Pack 1 für Windows Vista (SP1).

Wann das SP1 veröffentlicht werden soll, ist bisher noch nicht bekannt. Über den Veröffentlichungstermin einer Beta-Version kursieren bereits seit längerem Gerüchte im Internet. Microsoft hat sich bisher nicht zu einem Veröffentlichungstermin für das SP1 - egal ob als Beta-Version oder als fertiges Produkt

Coda
2007-08-15, 20:45:13
Gerüchten, aktuelle Direct-X-10-Grafikkarten würden mit dem kommenden Update von Microsofts Schnittstellensammlung auf die Version 10.1 nicht funktionieren, ist Microsoft nun entgegengetreten.
Warum kam der Schwachsinn überhaupt auf? Das gab es in der ganzen DirectX-Geschichte nicht.

Gnomoru
2007-08-15, 23:03:49
Mich würde eher mal interessieren, ob man die jetzigen DX10.0 Karten jetzt wegschmeißen kann, weil sie dazu inkompatibel sind?
DirectX 10.1 ist abwärtskompatibel, wie man hier lesen kann:
http://www.hardware-infos.com/news.php?news=1295

Gast
2007-08-15, 23:17:27
Das hat doch nichts zu sagen. Die neuen Features unterstützen die alten Karten trotzdem nicht.

Coda
2007-08-15, 23:27:16
Das ist aber auch völlig egal, weil die Änderungen absolut minimal sind.

Gast
2007-08-15, 23:31:00
Das liegt im Auge des Betrachters... keine neue Version ist für mich "minimal", wenn 550€ Karten die neuen Features nicht mehr unterstützen. :)

Coda
2007-08-15, 23:54:29
Ich verstehe das Problem nicht. Eine 500€ GeForce 3 konnte auch keine DX 8.1 Shader. Und dieses Mal ist es wirklich minimal. Direct3D 10 hat das Problem, dass es keine Caps gibt deshalb wird es solche kleineren Update jetzt wohl öfters geben als früher.

Bei einer R400 hat doch auch wirklich keiner gesagt, dass die Karte nichts wert ist nur weil sie kein SM3 unterstützt. Der Unterschied hier ist aber weitaus minimaler und dürfte optisch praktisch keine Auswirkungen haben.

Es gibt keinen Grund wegen D3D10.1 auf neue GPUs zu warten. Alles ungerechtfertigte Panikmache.

Nur mal zum Vergleich: Die Featuresets der D3D9-Architekturen von nVIDIA und ATI unterscheiden sich weitaus mehr als was D3D10.1 von D3D10 unterscheidet.

crux2005
2007-08-16, 00:53:21
noch eine news dazu:

DirectX 10.1 Requires No New GPU.
But DirectX 10.1 Video Card Is Recommended (http://www.xbitlabs.com/news/video/display/20070815123340.html)

Gast
2007-08-16, 01:09:06
Der Unterschied ist aber, das die neuen Technologien jetziger Karten noch gar nicht ausgereizt werden und schon der neue Standard daher kommt. Das war damals anders. Mir wäre das ziemlich egal, wenn ich die Sicherheit hätte, das 10.1 langfristig nicht genutzt wird und die habe ich nunmal nicht.

Der Käufer wird total verunsichert, wieso sollte ich auch nur auf ein einziges Feature verzichten wollen bei einer Karte die so teuer ist?

Showtime
2007-08-16, 01:26:02
Der SM2.0 vs 3.0 Krieg damals beim R400 und NV40 war doch auch nur auf dem Papier wichtig. Keine der Karten war schnell genug, um SM3-Exklusivtitel vernünftig darstellen zu können, von daher waren die ganzen Überlegungen vorher von wegen Zukunftssicherheit umsonst. Und diese Unterschiede waren weitaus gravierender als der Sprung DX10 -> DX10.1.

Coda
2007-08-16, 02:07:04
Der Unterschied ist aber, das die neuen Technologien jetziger Karten noch gar nicht ausgereizt werden und schon der neue Standard daher kommt. Das war damals anders. Mir wäre das ziemlich egal, wenn ich die Sicherheit hätte, das 10.1 langfristig nicht genutzt wird und die habe ich nunmal nicht.

Der Käufer wird total verunsichert, wieso sollte ich auch nur auf ein einziges Feature verzichten wollen bei einer Karte die so teuer ist?
*stöhn*

Es gibt genau diese Erweiterungen in D3D10.1 ggü. D3D10:

TextureCube Arrays which are dynamically indexable in shader code. (das wird optisch keinen Unterschied machen können)
An updated shader model (shader model 4.1). (braucht man um die restlichen Features zu verwenden, kein optischer Unterschied)
The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions. (damit ist eventuell etwas besseres Antialiasing möglich in manchen Fällen. Auch kein großes Ding)
The ability to render to block-compressed textures. (damit spart man hächstens Bandbreite, das optische Ergebnis ist schlechter.)
More flexibility with respect to copying of resources. (auch kein großes Ding, man muss sowieso einen D3D10-Fallback anbieten können)
Support for blending on all unorm and snorm formats (dito)
Kein Entwickler wird so bescheuert sein und eine D3D10.1-only-Engine zu produzieren. Damit schließt er eine ganze Generation an Karten aus und spart sich damit so wenig Arbeit, dass die Unterstützung von ATi- und nVIDIA-D3D9-Karten mit unterschiedlichen Renderpfaden immens dagegen war.

Ich sag's nochmal: D3D10.1 ist momentan kein Grund auf irgend was zu warten. D3D10.1 wird höchstens mit Antialiasing einen geringen optischen Vorteil anbieten können.

Gast
2007-08-16, 16:32:58
Keine der Karten war schnell genug, um SM3-Exklusivtitel vernünftig darstellen zu können, von daher waren die ganzen Überlegungen vorher von wegen Zukunftssicherheit umsonst. Und diese Unterschiede waren weitaus gravierender als der Sprung DX10 -> DX10.1.

splinter cell chaos theory konnte man auf einem NV40 durchaus sehr gut und in deutlich besserer qualität spielen.

Gast
2007-08-17, 06:58:21
.Ich sag's nochmal: D3D10.1 ist momentan kein Grund auf irgend was zu warten.

Für mich schon.

Es redete hier niemand von einer DX10.1 only Engine. Im Gegenteil, am wahrscheinlichsten ist es, das die Entwickler für 10.1 entwickeln und weiterhin 10.0 unterstützen, speziell deshalb, weil die großen Firmen erst mit Vista SP1+ migrieren werden und da ist die 10.1 schon dabei.

Nur sehe ich ganz einfach nicht ein, WARUM eine Karte, wie die 8800 Ultra, die höchstwahrscheinlich schneller bleiben wird, als die aufkommenden DX10.1 Mainstream und Lowend Karten kaufen sollte, wenn diese nicht mal in der Lage ist, alle vorgesehen Features darstellen zu können. Da wäre ich glatt bescheuert 550€ in diese Karte zu investieren.

Ein Grund der FÜR 10.1 Karten spricht: Ich habe noch nichts von 10.2 gehört. ;D
So wie ich die Lage momentan einschätze, ist der Kauf von 10.1 Karten am sinnvollsten, weils danach womöglich gleich auf DX11 geht, welches hoffentlich sehr lange auf sich warten lässt.

Showtime
2007-08-17, 12:02:34
splinter cell chaos theory konnte man auf einem NV40 durchaus sehr gut und in deutlich besserer qualität spielen.

Ausnahmen bestätigen die Regel :).

Gaestle
2007-08-17, 12:10:25
Ausnahmen bestätigen die Regel :).

Bei Oblivion war HDR möglich (auch wenn das nichts mit dem ShaderModel zu tun hat).

Für mich schon.

Es redete hier niemand von einer DX10.1 only Engine. Im Gegenteil, am wahrscheinlichsten ist es, das die Entwickler für 10.1 entwickeln und weiterhin 10.0 unterstützen, speziell deshalb, weil die großen Firmen erst mit Vista SP1+ migrieren werden und da ist die 10.1 schon dabei.

Nur sehe ich ganz einfach nicht ein, WARUM eine Karte, wie die 8800 Ultra, die höchstwahrscheinlich schneller bleiben wird, als die aufkommenden DX10.1 Mainstream und Lowend Karten kaufen sollte, wenn diese nicht mal in der Lage ist, alle vorgesehen Features darstellen zu können. Da wäre ich glatt bescheuert 550€ in diese Karte zu investieren.

Ein Grund der FÜR 10.1 Karten spricht: Ich habe noch nichts von 10.2 gehört. ;D
So wie ich die Lage momentan einschätze, ist der Kauf von 10.1 Karten am sinnvollsten, weils danach womöglich gleich auf DX11 geht, welches hoffentlich sehr lange auf sich warten lässt.

Du solltest mal lesen, was Coda geschrieben hat, und Dich darüber hinaus mal ein wenig mit der DirectX-Historie auseinander setzen. Dabei geht es weniger ums einsehen, sondern ums verstehen.

Gast
2007-08-17, 14:55:08
Junge, ich hab seine Postings gelesen, das änders aber rein gar nichts an meiner Meinung. Ich bin mit seiner nicht konform!. Ist das so schwer zu verstehen?

Die Situation ist diesmal einmalig. Vista wird erst mit Service Pack 1 und später große Bedeutung erlangen, da erst dann große Firmen migrieren (haben sie schon bekanntgegeben). Da ist 10.1 das erste mal drin. Dieses Jahr gibt es kaum richtige DX10 Titel, weswegen ich stark davon ausgehe, das die meisten Neuentwicklungen dann gleich auf 10.1 aufbauen und für ältere Karte einen anderen Renderpfad zur Verfügung stellen

In meinem bevorzugen Genre gibt es zur Zeit überhaupt keine Planungen, für DirectX10 zu entwickeln. Dieses Jahr kommt da rein gar nichts. Mich wundert es daher gar nicht, das Intel einen DX10 Treiber für die Onboardkarten erst 2008 veröffentlichen will - passend zum Service Pack.

Lester Mowl
2007-08-17, 15:27:32
Nichtmal DX10 ist ein Grund, auf etwas zu warten. Siehe Unreal3 Fred. Die Konsolen bestimmen, wos langgeht.

Coda
2007-08-17, 15:30:49
...weswegen ich stark davon ausgehe, das die meisten Neuentwicklungen dann gleich auf 10.1 aufbauen und für ältere Karte einen anderen Renderpfad zur Verfügung stellen
Das ist der Punkt den du nicht verstehst. Direct3D 10 und 10.1 bauen auf dem selben Grundgerüst auf und unterscheiden sich in absolut minimalen Details. Es ist nicht nötig für 10 einen "anderen Renderpfad" als für 10.1 zu verwenden, 10.1 bekommt allerhöchstens noch ein paar kleinere Optimierungen ab, die an der Optik nichts ändern. Man muss noch nichtmal den bestehenden Code ändern wenn man ein D3D10.1-Interface anfordert. Es funktioniert einfach und man hat die paar Details mehr zur Verfügung. Es gibt sogar eine Funktion die entweder ein D3D10- oder D3D10.1-Interface zurückliefert. Das gab es noch nie.

Ich programmier schon seit Release mit Direct3D 10 rum und kenne das SDK. Ich weiß von was ich rede.

Es ist absoluter Schwachsinn D3D10 irgendwie gegenüber D3D10.1 zu benachteiligen oder nicht zu unterstützen. Wie gesagt unterscheiden sich eine Radeon X1900 und eine GeForce 7 weitaus mehr als D3D10- und D3D10.1-Hardware.

Gast
2007-08-17, 15:44:02
Damit hast du doch nur das bestätigt, was ich gesagt habe.
Wenn die Änderungen so minimal wird, bedeutet dies weniger Entwicklungsaufwand und wird daher öfters genutzt.

Wenn nichtmal unterschiedlichen Renderpfade nötig sind, umso besser! Das würde ja bedeuten, das die Entwickler völlig auf 10.1 setzen können, ohne großartige Anpassungen für ältere Karte vornehmen zu müssen. Davon gehe ich aus.

Du redest von der Theorie, ich rede von der Praxis. *Ich* kann nicht damit leben, auf etwas zu verzichten, *DU* vielleicht schon.

Coda
2007-08-17, 15:45:58
Wenn die Änderungen so minimal wird, bedeutet dies weniger Entwicklungsaufwand und wird daher öfters genutzt.
Ja, der Unterschied wird aber nicht optischer Natur sein. Die Features bringen höchstens etwas Performance - bis auf die Anti-Aliasing-Sache.

Deshalb warte ich nicht ne Generation auf ne neue Karte, wenn ich jetzt eine brauchen würde.

Ich gehe soweit und sage, dass die meisten Entwickler den Großteil von D3D10.1 einfach ignorieren werden, weil sich der Aufwand einfach nicht lohnt.

Gaestle
2007-08-17, 15:51:00
Junge, ich hab seine Postings gelesen, das änders aber rein gar nichts an meiner Meinung. Ich bin mit seiner nicht konform!. Ist das so schwer zu verstehen?




Es gibt genau diese Erweiterungen in D3D10.1 ggü. D3D10:

* TextureCube Arrays which are dynamically indexable in shader code. (das wird optisch keinen Unterschied machen können)
* An updated shader model (shader model 4.1). (braucht man um die restlichen Features zu verwenden, kein optischer Unterschied)
* The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions. (damit ist eventuell etwas besseres Antialiasing möglich in manchen Fällen. Auch kein großes Ding)
* The ability to render to block-compressed textures. (damit spart man hächstens Bandbreite, das optische Ergebnis ist schlechter.)
* More flexibility with respect to copying of resources. (auch kein großes Ding, man muss sowieso einen D3D10-Fallback anbieten können)
* Support for blending on all unorm and snorm formats (dito)


Mädchen, laut Coda sind es genau 6 (in Worten: sechs) Änderungen, davon EINE vielleicht eventuell unter Umständen mit einer MINIMALen optischen Verbesserung (ob die dann noch sichtbar ist?), alles andere läuft "hinter den Kulissen". Das meinte ich mit "Lesen" und vor allem mit "Verstehen".
Wozu zum Henker das Fass, was Du aufmachst?

Gast
2007-08-17, 15:51:58
Das muss jeder selbst wissen. Ich mag die jetzige Generation allein schon wegen des Stromverbrauchs nicht. Wenigstens ein anständiger 2D-Modus hätte dazu gehört.

Man sollte auch nicht die Entwicklungszeit vergessen. Eine Anwendung die Ende 2007 in Entwicklung wird, erscheint erst 2008 und später, da ist 10.1 schon lang am Markt und entsprechende Karten ebenso verfügbar.

Außerdem denke ich, das 10->10.1 schneller gehen wird als 9.0c->10, da beide aufs gleiche Betriebssystem bauen und alte Generationen nicht völlig ausgeschlossen werden.

Coda
2007-08-17, 16:05:32
Das muss jeder selbst wissen. Ich mag die jetzige Generation allein schon wegen des Stromverbrauchs nicht. Wenigstens ein anständiger 2D-Modus hätte dazu gehört.
Endlich mal ein vernünftiges Argument.

Man sollte auch nicht die Entwicklungszeit vergessen. Eine Anwendung die Ende 2007 in Entwicklung wird, erscheint erst 2008 und später, da ist 10.1 schon lang am Markt und entsprechende Karten ebenso verfügbar.
Schön, dann läuft es auf diesen halt minimal schneller mit 10.1 statt 10. Sind sie eh schon.

Außerdem denke ich, das 10->10.1 schneller gehen wird als 9.0c->10, da beide aufs gleiche Betriebssystem bauen und alte Generationen nicht völlig ausgeschlossen werden.
Ändert auch nichts an der Sachlage.

Blinx123
2007-08-17, 17:58:53
Ich hab jetzt im Gamesflash von Giga Games irgendwas von DirectX10 Inkompatibilitäten gehört. Ich finde aber den Artikel dazu nicht und weiss daher auch nicht,ob damit jetzt eine Inkompatibilität zwischen DirectX10 und DirectX10.1 oder aber die Grafikprobleme bei manchen DirectX9 Games gemeint sind,an denen besonders die AMD Karten der 2000er Serie leiden.

aths
2007-08-17, 19:53:40
Leute, habt ihr euch angeguckt was mit D3D10 neu sein wird? Vieles davon können die jetzigen D3D10-Karten schon, einiges nicht. Ich hab das Gefühl dass D3D10.0 für Entwickler spezifiziert wurde wie Intel, die eher auf den Transistorcount achten müssen. Vielleicht wurden sich auch Nvidia und AMD nicht rechtzeitig einig, so dass Microsoft die bis dato bekannt Schnittmenge als D3D10 festlegte. Was mit 10.1 neu ist, sind im Wesentlichen Feinheiten. Es ist kein Sprung wie von D3D9.0 SM 2.0 zu 9.0 SM 2.X Profil 2_A oder gar SM 3.0.

Die Situation ist diesmal einmalig. Vista wird erst mit Service Pack 1 und später große Bedeutung erlangen, da erst dann große Firmen migrieren (haben sie schon bekanntgegeben). Da ist 10.1 das erste mal drin. Dieses Jahr gibt es kaum richtige DX10 Titel, weswegen ich stark davon ausgehe, das die meisten Neuentwicklungen dann gleich auf 10.1 aufbauen und für ältere Karte einen anderen Renderpfad zur Verfügung stellenWieso Renderpfad? An wenigen Stellen andere Shader zu laden und vielleicht einigen Content auszutauschen ist für mich kein neuer Renderpfad.

Ich halte es für möglich, dass es in einigen, wenigen Spielen notwendig ist für maximale Details eine 10.1-er Grafikkarte zu haben.

Neomi
2007-08-17, 23:14:07
TextureCube Arrays which are dynamically indexable in shader code. (das wird optisch keinen Unterschied machen können)

Eine (optische) Sache fällt mir ein, die man damit verbessern kann, aber wirklich nur die eine: unscharfe Reflektionen. Wenn man erst scharf in eine Cubemap rendert, die dann in andere runterblurrt und alle zusammen als Array nutzt, kann man dynamisch die Schärfe der Reflektion im Pixelshader bestimmen.

Neomi
2007-08-17, 23:22:09
Mir wäre das ziemlich egal, wenn ich die Sicherheit hätte, das 10.1 langfristig nicht genutzt wird und die habe ich nunmal nicht.

Der Käufer wird total verunsichert, wieso sollte ich auch nur auf ein einziges Feature verzichten wollen bei einer Karte die so teuer ist?

So wie ich die Lage momentan einschätze, ist der Kauf von 10.1 Karten am sinnvollsten, weils danach womöglich gleich auf DX11 geht, welches hoffentlich sehr lange auf sich warten lässt.

Was ist denn das für eine bekloppte Einstellung? Sollen Leute, die mehr oder öfter Geld ausgeben als du, auf Features verzichten, weil du sie nicht nutzen kannst? Was für einen Unterschied macht es für dich, ob du einen bestimmten Effekt jetzt nicht aktivieren kannst oder ob er gar nicht erst angeboten wird? Abgesehen davon, daß du niemand anderem gönnst, mehr Effekte nutzen zu können als du, kann es doch keinen Grund geben.

Gast
2007-08-17, 23:59:08
Sollen Leute, die mehr oder öfter Geld ausgeben als du, auf Features verzichten, weil du sie nicht nutzen kannst?

Vielleicht mal das Thema lesen. Darum gehts doch. Sie müssen verzichten. Jeder D3D10 Kartenbesitzer wird mit Einführung von 10.1 aufs abstellgleis gestellt. Die Karten mögen von der Leistung noch gut genug sein, aber alles angebotene nutzen können sie nicht.

Außerdem gibts kaum jemanden, der mehr Geld ausgibt. ;)
Ich kaufe wenn möglich das beste was es am Markt gibt, das wäre zur Zeit 2x 8800 Ultra (von XFX), dafür habe ich dann auch idR 2 Jahre lang meine Ruhe.

Was für einen Unterschied macht es für dich, ob du einen bestimmten Effekt jetzt nicht aktivieren kannst oder ob er gar nicht erst angeboten wird?

Es stört mich. Spielspaß geht verloren.

Abgesehen davon, daß du niemand anderem gönnst, mehr Effekte nutzen zu können als du, kann es doch keinen Grund geben.

Hat nie jemand gesagt. Lesen & verstehen.

Showtime
2007-08-18, 02:12:55
Seit so 20 Posts dreht ihr euch nur im Kreis (mit Ausnahmen)...

Gast, kauf dir ne DX10.1 Karte, werd glücklich. Viel Spaß.

Coda
2007-08-18, 03:08:51
Eine (optische) Sache fällt mir ein, die man damit verbessern kann, aber wirklich nur die eine: unscharfe Reflektionen. Wenn man erst scharf in eine Cubemap rendert, die dann in andere runterblurrt und alle zusammen als Array nutzt, kann man dynamisch die Schärfe der Reflektion im Pixelshader bestimmen.
Das geht auch ohne Arrays. Cubemap rendern, Mipmaps generieren lassen und dann mit Texture direkt mit LOD adressieren.

Neomi
2007-08-18, 03:10:14
Vielleicht mal das Thema lesen. Darum gehts doch. Sie müssen verzichten. Jeder D3D10 Kartenbesitzer wird mit Einführung von 10.1 aufs abstellgleis gestellt. Die Karten mögen von der Leistung noch gut genug sein, aber alles angebotene nutzen können sie nicht.

Damit meinte ich die Leute, die sich eine D3D10.1-Karte zulegen werden, was du ja scheinbar nicht vorhast. Du sagtest doch selbst, daß ein ein garantierter Nichteinsatz von 10.1 beruhigen würde und daß D3D11 "hoffentlich" noch lange auf sich warten läßt. Damit willst du quasi den Leuten das klitzekleine bischen mehr an kaum wahrnehmbaren Effekten vorenthalten, was du nicht nicht wirst zuschalten können.

Es stört mich. Spielspaß geht verloren.

Abgesehen davon, daß Spielspaß und Grafik zwei verschiedene Dinge sind...
In dem einen Fall gibt es einen Effekt nicht, also kannst du ihn nicht nutzen. In dem anderen Fall gibt es ihn, aber du kannst ihn nicht nutzen. Was für einen Unterschied würde es für dich machen? Daher: siehe unten.

Hat nie jemand gesagt. Lesen & verstehen.

Klar hast du das nicht explizit gesagt, aber es klingt deutlich durch. Dich stört die reine Möglichkeit, daß es Effekte geben könnte, die du nicht zuschalten kannst. Was du nicht nutzen kannst, soll auch kein anderer nutzen können, was anderes kann ich da nicht rauslesen.

Neomi
2007-08-18, 03:13:46
Das geht auch ohne Arrays. Cubemap rendern, Mipmaps generieren lassen und dann mit Texture direkt mit LOD adressieren.

Das wäre die "billige" Methode, kommt aber qualitativ nicht an einen guten Blur ran.

Coda
2007-08-18, 03:15:24
D3D10 erlaubt doch auch die Miplevel getrennt zu adressieren ohne Arrays. Must nur den richtigen Resource View erzeugen.

Vielleicht mal das Thema lesen. Darum gehts doch. Sie müssen verzichten. Jeder D3D10 Kartenbesitzer wird mit Einführung von 10.1 aufs abstellgleis gestellt.
Aufgrund der technischen Begebenheiten wird gar niemand mit D3D10-Karte aufs Abstellgleis gestellt.
Es gibt weder technisch noch marktwirtschaftlich auch nur einen guten Grund dazu. Das ist das was du nicht verstehen willst.

Neomi
2007-08-18, 03:43:53
D3D10 erlaubt doch auch die Miplevel getrennt zu adressieren ohne Arrays. Must nur den richtigen Resource View erzeugen.

Schon, aber auch mit manuell berechneten Blurstufen in immer kleiner werdenden Mipstufen erreicht man nicht ganz das, was mit gleich aufgelösten weiteren Cubemaps erreichbar ist. Ich habe ja auch nicht gesagt, daß eine unscharfe Reflektion nur mit Cubemap-Arrays geht, aber sie geht damit eben einen (optischen) Tick besser.

Das Hauptanwendungsgebiet wird aber sicherlich in der Passreduktion für diverse andere Dinge liegen.

Coda
2007-08-18, 04:03:07
Schon, aber auch mit manuell berechneten Blurstufen in immer kleiner werdenden Mipstufen erreicht man nicht ganz das, was mit gleich aufgelösten weiteren Cubemaps erreichbar ist.
Naja, das ist dann aber auch VRAM-Verschwendung. Ich glaube kaum, dass man das praktisch Unterscheiden kann, vor allem weil man zur Reflexion normal ja auch noch den Rest des Materials dazumultipliziert.

Und selbst wenn: Man könne ja auch mehrere Texturen binden statt Arrays. Darf man ja 128 in D3D10.

Gast
2007-08-18, 04:20:32
Damit meinte ich die Leute, die sich eine D3D10.1-Karte zulegen werden, was du ja scheinbar nicht vorhast.

Du hast mich komplett falsch verstanden. Ich bevorzuge 10.1 Karten und möchte keine "alten" mehr kaufen. Wird nur Zeit, das die mal erscheinen.

Es gibt weder technisch noch marktwirtschaftlich auch nur einen guten Grund dazu. Das ist das was du nicht verstehen willst.

Du verstehst mich keineswegs.

Es gibt ganz einfache Gründe dafür, welcher sich D3D10.1 nennt. ;)

Ich rede nicht von Kompatibilität, die könnte ich auch jetzt noch mit vielen DirectX9c Karten haben, sondern davon, das Leistung+Featureset nur bei den kommenden 10.1 Karten stimmen werden, bei den jetzigen fehlt dann halt was, was mich sehr stark vom Kauf abhält, vorallem weil nicht so weit in der Zukunft liegt, das man sagen könnte "ist egal".

Davon abgesehen mag niemand beurteilen können, wie es innerhalb der nächsten 2 Jahre aussagen mag. Der DirectX10+ Zug ist noch gar nicht ins Rollen gekommen.

aths
2007-08-18, 12:16:40
Schon, aber auch mit manuell berechneten Blurstufen in immer kleiner werdenden Mipstufen erreicht man nicht ganz das, was mit gleich aufgelösten weiteren Cubemaps erreichbar ist. Ich habe ja auch nicht gesagt, daß eine unscharfe Reflektion nur mit Cubemap-Arrays geht, aber sie geht damit eben einen (optischen) Tick besser.

Das Hauptanwendungsgebiet wird aber sicherlich in der Passreduktion für diverse andere Dinge liegen.Ich wollte gerade fragen, ob man Cubemaps nicht mippen kann. Die optischen Vorteile deiner Version dürften, wenn ich mir das jetzt richtig vorstelle, minimal sein. Wofür man indizierbare Cubemaps braucht, kann ich mir jetzt nicht vorstellen, aber das Feature wird schon nicht umsonst in die Spec aufgenommen worden sein.

aths
2007-08-18, 12:19:08
Vielleicht mal das Thema lesen. Darum gehts doch. Sie müssen verzichten. Jeder D3D10 Kartenbesitzer wird mit Einführung von 10.1 aufs abstellgleis gestellt. Die Karten mögen von der Leistung noch gut genug sein, aber alles angebotene nutzen können sie nicht.Das ist der Lauf der Dinge. War mit bisherigen Highend-Grakas nicht anders.

Es stört mich. Spielspaß geht verloren.Bei mir nicht. Muss ich zum Beispiel aus Leistungsgründen den Detailgrad reduzieren, kann ich das Spiel bei Gefallen später noch mal in voller Pracht erneut spielen.

Ich rede nicht von Kompatibilität, die könnte ich auch jetzt noch mit vielen DirectX9c Karten haben,Was ist denn eine DirectX9c-Karte?

Neomi
2007-08-18, 14:06:58
Naja, das ist dann aber auch VRAM-Verschwendung. Ich glaube kaum, dass man das praktisch Unterscheiden kann, vor allem weil man zur Reflexion normal ja auch noch den Rest des Materials dazumultipliziert.

Ich habe doch längst gesagt, daß das nur ein kleiner (optischer) Unterschied ist. Bringt wenig, aber mehr als nichts. Ob es die dafür nötige Bandbreite und Speicherbelastung wert ist, ist ein anderes Thema.

Und selbst wenn: Man könne ja auch mehrere Texturen binden statt Arrays. Darf man ja 128 in D3D10.

Das ist keine Alternative, wenn man indiziert darauf zugreifen will (oder muß) und mehr als nur ein paar Texturen hat. Oder willst du etwa mit verschachtelten Bedingungen alle Möglichkeiten abarbeiten?

Ich wollte gerade fragen, ob man Cubemaps nicht mippen kann. Die optischen Vorteile deiner Version dürften, wenn ich mir das jetzt richtig vorstelle, minimal sein. Wofür man indizierbare Cubemaps braucht, kann ich mir jetzt nicht vorstellen, aber das Feature wird schon nicht umsonst in die Spec aufgenommen worden sein.

Der Grenzertrag (wenn die Reflektion nicht zu sehr durch andere Materialeigenschaften in den Hintergrund rückt) ist in etwa das, was du bei einem Bild auf diese Art als Unterschied bekommst: 1. guter Blurfilter, 2. Bild runter- und wieder raufskalieren (meinetwegen bikubisch, das kostet dann aber einige zusätzliche Samples und dazu Arithmetikleistung im Pixelshader). Das kannst du mit einer passenden Bildbearbeitungssoftware leicht selbst testen, wenn du willst.

Das Hauptanwendungsgebiet ist eben Passreduktion.

Blinx123
2007-08-18, 14:39:51
Was ist denn eine DirectX9c-Karte?

Das sind diese Grafikkarten mit G7x und RV5x Chips von NVIDIA und ATI. Die basieren auf Shader 3.0 und inzwischen erscheinen sogar mal Spiele,die explizit danach verlangen;)

Das c kommt übrigens daher,dass erst ab Version c von DirectX9 überhaupt Shader 3.0 eingeführt bzw. unterstützt wurde.

Gast
2007-08-18, 15:08:38
Leider falsch, denn SM3 wird schon seit jeher von DX9 unterstützt, also auch in DX9.0a.

Blinx123
2007-08-18, 15:25:45
Leider falsch, denn SM3 wird schon seit jeher von DX9 unterstützt, also auch in DX9.0a.

Sicher? Also zu Zeiten der a Version gabs aber noch Geforce FX Karten,da hat man also keinen Shader 3.0 nutzen können. Man betitelt jedenfalls Karten als DirectX9c Karten,wenn sie aus der letzten Generation stammen bzw. aus der Generation,mit der 9c eingeführt wurde. Ausserdem sollte man immer die neueste DirectX Version nutzen,sonst wird Shader 3.0 vielleicht auch von älteren Versionen unterstützt,aber nutzen kann mans trotzdem nicht,weil die Spiele nicht starten wollen oder fehlerhaft laufen.

aths
2007-08-18, 16:15:27
Das tut man eigentlich nicht, man bezeichnet die entsprechenden Grafikkarten als Shader-Model-3-Grafikkarte.

Der Grenzertrag (wenn die Reflektion nicht zu sehr durch andere Materialeigenschaften in den Hintergrund rückt) ist in etwa das, was du bei einem Bild auf diese Art als Unterschied bekommst: 1. guter Blurfilter, 2. Bild runter- und wieder raufskalieren (meinetwegen bikubisch, das kostet dann aber einige zusätzliche Samples und dazu Arithmetikleistung im Pixelshader).Solange man keine statischen Spiegeleffekte hat, dürfte die Version mit guten Blurfiltern ziemlich performancefressend sein.

Demirug
2007-08-19, 13:41:25
Um die SM3 und DX9.0c Sache mal aufzuklären.
SM3 wurde schon vom ersten DX9 SDK unterstützt. Allerdings nur in den Tools und dem RefRast. Für den Hardwaresupport braucht man eine c Runtime.

Coda
2007-08-21, 16:15:02
Ich habe doch längst gesagt, daß das nur ein kleiner (optischer) Unterschied ist. Bringt wenig, aber mehr als nichts. Ob es die dafür nötige Bandbreite und Speicherbelastung wert ist, ist ein anderes Thema.
Okay.

Das ist keine Alternative, wenn man indiziert darauf zugreifen will (oder muß) und mehr als nur ein paar Texturen hat. Oder willst du etwa mit verschachtelten Bedingungen alle Möglichkeiten abarbeiten?
D3D10 hat ja switch. Wäre sogar möglich :D

Davon abgesehen mag niemand beurteilen können, wie es innerhalb der nächsten 2 Jahre aussagen mag. Der DirectX10+ Zug ist noch gar nicht ins Rollen gekommen.
Meine Prognosen waren bisher immer ziemlich stimming. Ich glaube schon, dass ich das mit D3D10.1 recht gut beurteilen kann.

AnarchX
2007-10-28, 16:35:15
Ein recht guter Überblick:
http://img230.imageshack.us/img230/1456/56342428cg4.png
http://img230.imageshack.us/img230/1865/43549145rv8.png
http://www.teamati.com/DirectX%2010_1%20White%20Paper%20v0.4.pdf

Gast
2007-10-28, 18:23:23
http://www.abload.de/img/atib9i.jpg (http://www.abload.de/image.php?img=atib9i.jpg)

Coda
2007-10-28, 18:37:37
Fragt sich nur was exakt von dem Algorithmus jetzt D3D10.1 verwendet.

Gast
2007-10-28, 19:54:20
Spannend finde ich den obligatorischen 16xAA-Modus. Hoffentlich wird da nicht so ein Schmuh wie C[S/F]AA zugelassen, sondern es müssen richtigie, echte 16 Multisamples sein.

AnarchX
2007-10-28, 20:01:29
Spannend finde ich den obligatorischen 16xAA-Modus. Hoffentlich wird da nicht so ein Schmuh wie C[S/F]AA zugelassen, sondern es müssen richtigie, echte 16 Multisamples sein.
Und wofür sollte man einen solchen Modus benötigen?

Gast
2007-10-28, 20:09:20
Und wofür sollte man einen solchen Modus benötigen?
Ist die Frage wirklich ernstgemeint? Für Kantenglättung natürlich. :ulol:

AnarchX
2007-10-28, 20:19:34
Ist die Frage wirklich ernstgemeint? Für Kantenglättung natürlich. :ulol:
Aber hier reicht doch selbst 8xMSAA schon aus, welcher für die meisten keinen wirklichen sichtbaren Vorteil gegenüber 4x bringt.
Eher sollte man Samples für andere Bildinhalte aufbringen, wo eine Glättung notwendiger ist. ;)

Gast
2007-10-28, 20:22:02
Aber hier reicht doch selbst 8xMSAA schon aus, welcher für die meisten keinen wirklichen sichtbaren Vorteil gegenüber 4x bringt.
Eher sollte man Samples für andere Bildinhalte aufbringen, wo eine Glättung notwendiger ist. ;)
Das kann der User doch immer noch selbst entscheiden - gerade fiese, kommende Spiele könnten User doch eher dazu nötigen, in relativ niedrigen Auflösungen zu spielen. Da ist "viel MSAA" immer noch billiger, als wenig MSAA und eine hohe Auflösung.

Demirug
2007-10-28, 20:25:02
16x ist nicht zwingend. Es wurde lediglich die Position der Subsamples festgelegt für den Fall das die Hardware 16x anbieten möchte.

up¦²
2007-11-14, 10:25:21
LOL... ein Witz sowas...

When asked about the advantages of picking up a DirectX 10 graphics adaptor today, versus waiting for NVIDIA or AMD DirectX 10.1 products, Microsoft's senior global director of Microsoft games on Windows, Kevin Unangst, replied, "DX10.1 is an incremental update that won’t affect any games or gamers in the near future."

Microsoft isn't the only developer downplaying DirectX 10.1. Cevat Yerli, CEO of Crytek, states,"We pride ourselves on being the first to adopt any important newtechnology that can improve our games so you would expect us to getwith DX10.1 right away but we've looked at it and there's just nothingin it important enough to make it needed. So we have no plans to useit at all, not even in the future."

http://www.dailytech.com/article.aspx?newsid=9656

Grund?
http://www.theinquirer.net/en/inquirer/news/2007/08/09/vole-shoots-foot-with-101-upgrade ;D