PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Entscheidungsfindung DX-Specs?


mapel110
2004-03-06, 07:19:17
Microsoft entwickelt ja Directx in Zusammenarbeit mit den Grafikchipherstellern. Was mich jetzt aber mal interessiert, wie sieht das Mächteverhältnis dazwischen aus?

ATI sagt, 24 bit bieten wir, weniger wollen wir nicht, mehr aber auch nicht.

Nvidia sagt, wir bieten 16 und 32 bit, wollen deswegen natürlich 16bit, weils performanter ist.

Microsoft sagt, hmhm, da 24bit der kleinste gemeinsame Nenner ist und Nvidia uns so teuer die XBOX GPUs verkauft, kommt 24bit in die Specs.
edit
hm, grösste gemeinsame Nenner also, egal, war schon spät für mich letzte Nacht/Morgen :weg:


Stimmt das so ungefähr?
IMO müssten doch zunächst sich die Grafikchiphersteller unter sich einig werden, was sie denn nun wollen und dann müsste erst Microsoft ins Spiel kommen. Aber M$ gönnt sich da wohl ein bisschen Macht und sagt:"wir coden die Schnittstelle, also wollen wir auch mitreden"?!

Wenn Nvidia und ATI sich nämlich unter sich geeinigt hätten, wäre es doch garnicht zu den 24bit Minimum gekommen, sondern eben zu 16bit.

P.S. Ich weiss nicht, wieviel davon überhaupt öffentlich bekannt ist, wie das mit den DX-Specs abläuft, aber da wir hier ja gute Fachleute haben, poste ich den Thread erstmal hier im Grafikchips-Forum, Alternative wäre Spekulationsforum gewesen. :)

StefanV
2004-03-06, 08:53:40
Original geschrieben von mapel110
Microsoft entwickelt ja Directx in Zusammenarbeit mit den Grafikchipherstellern. Was mich jetzt aber mal interessiert, wie sieht das Mächteverhältnis dazwischen aus?

Ganz einfach: derjenige, der die 'schlechteste' HW hat, an dem wird sich orientiert, alles andere ist Optional...

Original geschrieben von mapel110
ATI sagt, 24 bit bieten wir, weniger wollen wir nicht, mehr aber auch nicht.

Nvidia sagt, wir bieten 16 und 32 bit, wollen deswegen natürlich 16bit, weils performanter ist.


ATI sagt vermutlich eher: so sieht unsere HW aus, also in diesem Fall: wir wollen 24bit, mehr können wir nicht.
MS wollte, lt. Demi, auch eigentlich eher 32bit haben...

Original geschrieben von mapel110
Microsoft sagt, hmhm, da 24bit der kleinste gemeinsame Nenner ist und Nvidia uns so teuer die XBOX GPUs verkauft, kommt 24bit in die Specs.

Stimmt das so ungefähr?
IMO müssten doch zunächst sich die Grafikchiphersteller unter sich einig werden, was sie denn nun wollen und dann müsste erst Microsoft ins Spiel kommen. Aber M$ gönnt sich da wohl ein bisschen Macht und sagt:"wir coden die Schnittstelle, also wollen wir auch mitreden"?!

Wenn Nvidia und ATI sich nämlich unter sich geeinigt hätten, wäre es doch garnicht zu den 24bit Minimum gekommen, sondern eben zu 16bit.

P.S. Ich weiss nicht, wieviel davon überhaupt öffentlich bekannt ist, wie das mit den DX-Specs abläuft, aber da wir hier ja gute Fachleute haben, poste ich den Thread erstmal hier im Grafikchips-Forum, Alternative wäre Spekulationsforum gewesen. :)


Naja, nV und ATI müssen sich eigentlich nicht einigen, die müssen mit M$ die Spec festkloppen ;)

Es kann also auch an M$ gescheitert sein, weiil M$ das einfach nicht wollte...

LovesuckZ
2004-03-06, 08:57:14
FP24 kann gar nicht "der kleinste gemeinsame Nenner" sein, da Nvidia diesen Standard nicht unterstuetzt.

ow
2004-03-06, 10:20:22
.

Demirug
2004-03-06, 11:23:22
Es gibt immer einen Entwurf den einige ausgewählten Leuten und Firmen vorliegt. Die Entwickler (ISV) auf der einen Seite schreiben da immer fleisig Dinge rein die sie gerne hätten und die Chipdesigner(IHV) auf der anderen Seite streichen die Liste wieder zusammen. Natürlich dürfen die IHV auch dinge hinzufügen von denen sie denken das es unbedingt rein muss weil ihere Hardware das kann. Den entgültigen Entwurd (Draft) dann in eine neue Spezifikation und API umzusetzen übernimmt MS.

Im Falle von reinen Optionsfeatures die letzten Endes nur für einen Hersteller eingebaut werden ist die Sache ja sehr einfach. Dabei ist kaum Wiederspruch von den anderen IHVs zu erwarten.

Kritisch wird es allerdings bei zentralen Features. Die ganzen Shader fallen da ja inzwischen darunter. Hier darf nichts eingebaut werden was einen IHV in der nächsten Runde disqulifiziert.

Schaut man sich die ursprüngliche DX8 Spec an so wurde in die Shader 1.0 Versionen all das reinpackt was alle IHVs (inkl 3dfx) beherscht haben. Nun hatte aber jeder Hersteller (auch 3dfx) noch zusätzliche Fähigkeiten. Für die 1.1 Shader hat sich MS dann an ATI und nVidia ausgerichtet. Es wäre auch eine Ausrichtung an 3dfx und ATI möglich gewessen nur wäre dann AFAIR der einzige unterschied zwischen 1.0 und 1.1 gewessen das man bei 1.1 2 Texturen mehr nutzen kann. Die Ausrichtung an nVidia und ATI erlaubte einen grösseren Sprung.

Ähnlich ging es auch bei der festlegung der 2.0 Spec zu. Alle Hersteller mussten dazu nicken. Da alle mit mindestens FP24 rechnen können war es logisch das FP24 zum Standard erklärt wird. ATI war damit zufrieden und konnte sich zurücklehnen. Für die reduzierte Genauigkeit hat sich auf jeden Fall nVidia stark gemacht aber auch S3 dürfte sich dafür ausgesprochen haben. Bei den FX12 stand nVidia dann aber wohl aleine dar. Höchstens von 3dlabs hätte man schützenhilfe bekommen können. Dort hat man aber ja kein alzu grosses Interesse an D3D und selbst wenn hätte man das FX Format noch weiter absenken müssen da 3dlabs ja nicht auf FX12 kommt. Ergo stand nVidia aleine dar. Sicherlich wäre keinem ein Zacken aus der krone gebrochen wenn PS 2.0 neben dem PP noch einen weiteren modifizierer für ein FX Format bekommen hätte. Aber es sollte nicht sein.

MadManniMan
2004-03-06, 12:51:55
Original geschrieben von LovesuckZ
FP24 kann gar nicht "der kleinste gemeinsame Nenner" sein, da Nvidia diesen Standard nicht unterstuetzt.

Obacht! :cop: 24bit gibt's als Teilmenge von 32bit gratis! :cop:

Exxtreme
2004-03-06, 12:57:03
Original geschrieben von LovesuckZ
FP24 kann gar nicht "der kleinste gemeinsame Nenner" sein, da Nvidia diesen Standard nicht unterstuetzt.
Sie tun es mit dem 32 Bit FP-Modus.

LovesuckZ
2004-03-06, 13:02:42
Original geschrieben von Exxtreme
Sie tun es mit dem 32 Bit FP-Modus.

Dann haette auch INT12 Mindestanforderung sein koennen, dass koenne auch jede Hardware.

Exxtreme
2004-03-06, 13:06:12
Original geschrieben von LovesuckZ
Dann haette auch INT12 Mindestanforderung sein koennen, dass koenne auch jede Hardware.
Könnte problematisch werden bei längeren Shadern.

LovesuckZ
2004-03-06, 13:08:14
Original geschrieben von Exxtreme
Könnte problematisch werden bei längeren Shadern.

FP24 ist bei einigen Shadern auch overkill oder zu wenig.
Imo sollte dies doch das Problem des Programmierers sein und nicht von Microsoft.

Quasar
2004-03-06, 13:08:29
Original geschrieben von Exxtreme
Könnte problematisch werden bei längeren Shadern.
Das gilt für FP24 auch. Der Shader muss nur lang genug sein.

MadManniMan
2004-03-06, 14:26:00
Original geschrieben von Quasar
Das gilt für FP24 auch. Der Shader muss nur lang genug sein.

Och Q, nun rede nicht klein, daß FP24 doch schon eine vernünftige Basis ist. Zumindest vernünftiger, als FX12 :D

mapel110
2004-03-06, 15:57:28
Original geschrieben von Demirug
Ähnlich ging es auch bei der festlegung der 2.0 Spec zu. Alle Hersteller mussten dazu nicken. Da alle mit mindestens FP24 rechnen können war es logisch das FP24 zum Standard erklärt wird. ATI war damit zufrieden und konnte sich zurücklehnen. Für die reduzierte Genauigkeit hat sich auf jeden Fall nVidia stark gemacht aber auch S3 dürfte sich dafür ausgesprochen haben. Bei den FX12 stand nVidia dann aber wohl aleine dar. Höchstens von 3dlabs hätte man schützenhilfe bekommen können. Dort hat man aber ja kein alzu grosses Interesse an D3D und selbst wenn hätte man das FX Format noch weiter absenken müssen da 3dlabs ja nicht auf FX12 kommt. Ergo stand nVidia aleine dar. Sicherlich wäre keinem ein Zacken aus der krone gebrochen wenn PS 2.0 neben dem PP noch einen weiteren modifizierer für ein FX Format bekommen hätte. Aber es sollte nicht sein.

Hmhm, also wars letztenendlich mehr Schicksal als "Microsoftsche Fügung", dass es zu FP24 kam.

Aber diesmal kann ja bei PS 3.0 nix schiefgehen, oder (muss ja nicht zwangläufig nvidia sein, der wieder "performancemässig" auf die Mütze bekommt?!

1. Specs sind ja schon länger fix
2. Sprung auf ps 3.0 von 2.0 ist nicht wirklich gross

aths
2004-03-06, 16:00:45
Original geschrieben von ow
16 Bit (FP16) sind auch spezifikations-konform, schon vergessen? "Full precision", also Standard, ist FP24 (oder mehr als s16e7.)

Original geschrieben von mapel110
2. Sprung auf ps 3.0 von 2.0 ist nicht wirklich gross Hm?

aths
2004-03-06, 16:05:47
Original geschrieben von Quasar
Das gilt für FP24 auch. Der Shader muss nur lang genug sein. Das gilt für FP32 auch. Der Shader muss nur lang genug sein. Setzt man pro Anweisung mal 0,5 Bit Ungenauigkeit an (auch wenn nicht jede Anweisung diese Ungenauigkeit erzeugt) kommt man bei FP32 halt 14 Instruktionen weiter, und ist dann genau so ungenau wie FP24.

marco42
2004-03-06, 20:13:01
Wenn du mal ein bisschen mitbekommen willst, dann schau dir mal die Meeting Notes des OpenGL ARBs (http://www.opengl.org/about/arb/meeting_notes.html) an. Da war auch mal Microsoft drin.

ow
2004-03-06, 22:09:41
.

aths
2004-03-06, 23:17:26
Original geschrieben von ow
Habe ich was anderes behauptet?

Es geht hier (indirekt) doch um die Frage, warum FP24 und nicht FP16, wenn sich MS am grössten gemeinsamen Nenner orientiert hätte (wie von mapel110 angenommen). FP16 als Standard-Format wäre klar zuwenig.

ow
2004-03-07, 10:28:14
.

aths
2004-03-08, 13:10:19
Original geschrieben von ow
Wieso das denn, wenn es optional FP24/32 gäbe?
Für viele Situationen reicht FP16 aus. Und dort wo es nicht reicht hätte man dann eben FP24/32 genommen. FP16 reicht für viele Farb-Rechnungen aus. Für Textur-Operationen oder hochwertige Bumpmapping-Arithmetik reicht FP16 nicht.