PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom3 und Rendergenauigkeit (war: NV News Sammelthread)


Exxtreme
2003-09-06, 15:18:14
Original geschrieben von nagus
"nVIDIA will run DOOM ]I[ in 12-16 bit"

Quelle: http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm


"
Update: We emailed id Software guru, John Carmack about his experience with NV3x hardware on Pixel Shading performance, and this was his reply:

GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..

Have you witnessed any of this while testing under the Doom3 environment?

"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack
"
Naja, so schlimm wird's in der Praxis wohl nicht sein. 16 Bit fp brauchste bei sehr hohen Texturauflösungen und das wird AFAIK D3 nicht bieten.

Aber die Vergleichbarkeit zwischen den GraKas geht hier wohl engültig flöten.

LovesuckZ
2003-09-06, 15:30:14
Original geschrieben von Exxtreme
Aber die Vergleichbarkeit zwischen den GraKas geht hier wohl engültig flöten.

Solange wie die IQ beim NV3x Codepfad nicht vollkommen im Eimer sei (Vergleich Radeon), ist doch alles in Ordnung. Denn was kann der User dafür, dass die NV3x Karten unterschiedliche Formate anbieten?

StefanV
2003-09-06, 15:34:48
Original geschrieben von LovesuckZ
Solange wie die IQ beim NV3x Codepfad nicht vollkommen im Eimer sei (Vergleich Radeon), ist doch alles in Ordnung. Denn was kann der User dafür, dass die NV3x Karten unterschiedliche Formate anbieten?

Hm, was kann John Carmack dafür, daß die NV3x Chips bei FP Formaten so lahm sind??

Demirug
2003-09-06, 15:37:32
Original geschrieben von Exxtreme
Naja, so schlimm wird's in der Praxis wohl nicht sein. 16 Bit fp brauchste bei sehr hohen Texturauflösungen und das wird AFAIK D3 nicht bieten.

Das Pixelshading von DOOM III ist auf GF1 Basis ausgerichtet da ist im Endeffekt nichts dabei was von höherer Genauigkeit wirklich profitiert. FP16 wird wohl für die Befehle benutzt die nicht als Int12 zur Verfügung stehen.

Wegen den Texturen brauchst du dir keine Sorgen zu machen. Solange direkt mit den Texturekoordinaten gesampelt wird (wie bei DOOM III; keine Dependet reads) sind die bei nV sowieso schon länger (mindestens seit GF3) immer im FP32 Format.

Aber die Vergleichbarkeit zwischen den GraKas geht hier wohl engültig flöten.

Die wäre so oder so nicht gegeben gewessen.

Exxtreme
2003-09-06, 15:41:30
Original geschrieben von Stefan Payne
Hm, was kann John Carmack dafür, daß die NV3x Chips bei FP Formaten so lahm sind??
Spielt keine Rolle. :)

Die meisten Programmierer nehmen die Werkzeuge, die zum Erreichen eines Ziels vollkommen genug sind. Kein Programmierer wird FP32 nehmen wenn sich ein Effekt mit INT12 realisieren lässt.

Und wenn Carmack meint, daß INT12 + FP16 genug sind, dann ist das wohl so. Wenn diese Techniken nicht reichen würden, hätte er FP32 genommen.

nagus
2003-09-06, 16:07:44
Original geschrieben von Exxtreme
Spielt keine Rolle. :)

Die meisten Programmierer nehmen die Werkzeuge, die zum Erreichen eines Ziels vollkommen genug sind. Kein Programmierer wird FP32 nehmen wenn sich ein Effekt mit INT12 realisieren lässt.

Und wenn Carmack meint, daß INT12 + FP16 genug sind, dann ist das wohl so. Wenn diese Techniken nicht reichen würden, hätte er FP32 genommen.


er hätte auch 32bit nehmen können bzw. ausreizen können... ABER: "NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit"

Quasar
2003-09-06, 16:15:14
Original geschrieben von Exxtreme
Spielt keine Rolle. :)

Die meisten Programmierer nehmen die Werkzeuge, die zum Erreichen eines Ziels vollkommen genug sind. Kein Programmierer wird FP32 nehmen wenn sich ein Effekt mit INT12 realisieren lässt.

Und wenn Carmack meint, daß INT12 + FP16 genug sind, dann ist das wohl so. Wenn diese Techniken nicht reichen würden, hätte er FP32 genommen.

Schön, daß du's schon gesagt hast. Ist doch haargenau dasselbe wie mit den Pixelshadern 1.4 im 3DMark:
Man nimmt das 'kleinste' Format, welches das gewünschte Ergebnis liefert.


Komisch, daß dem nagus das jetzt auf einmal sauer aufstößt, während er noch den 3DMark bejubelte..

Quasar
2003-09-06, 16:18:20
Original geschrieben von nagus
er hätte auch 32bit nehmen können bzw. ausreizen können...

Yeah, right. Und was wäre dann mit ATi? Die haben gar keine durchgehend FP32-fähige Hardware....

Aber um im Bild zu bleiben, hätte man dann ja nV3x-ARB2 mit Softrender-ATi vergleichen können, auch wenn das Ergebnis vorher festgestanden hätte, es geht ja nur um vergleichbare IQ, und wenn ATi da nunmal verpennt hat...

(Vergl. auch die Argumentation im Thread zu Iceman346s Review...)

LovesuckZ
2003-09-06, 16:37:12
Original geschrieben von nagus
er hätte auch 32bit nehmen können bzw. ausreizen können...

Wie koennte man 32BIT ausreizen?

aths
2003-09-06, 16:44:22
Falls ich richtig im Bilde bin, verwendet Doom3 Dot3-Beleuchtung (bzw. Bump Mapping) für Diffuse Lighting und Specular Lighting, sowie die Stencil-Schatten, als herausragende Merkmale. Shadermäßig bleibt Doom3 afaik auf dem Techlevel, das GeForce256 bietet. Für Specular Lighting wäre wohl hohe Genauigkeit immer begrüßenswert, ansonsten sollten 12/16 Bit ausreichen. GeForce1/2/3/4 rechnen soweit ich weiß sogar nur mit 8 oder 9 Bit — auch das Specular Light.

Demirug
2003-09-06, 16:55:56
Original geschrieben von aths
Falls ich richtig im Bilde bin, verwendet Doom3 Dot3-Beleuchtung (bzw. Bump Mapping) für Diffuse Lighting und Specular Lighting, sowie die Stencil-Schatten, als herausragende Merkmale. Shadermäßig bleibt Doom3 afaik auf dem Techlevel, das GeForce256 bietet. Für Specular Lighting wäre wohl hohe Genauigkeit immer begrüßenswert, ansonsten sollten 12/16 Bit ausreichen. GeForce1/2/3/4 rechnen soweit ich weiß sogar nur mit 8 oder 9 Bit.

Ich weiss zwar jetzt nicht warum die höhere Genauigkeit nur was bei Specularem und nicht beim Diffusen Licht bringen soll aber egal. Bei den wenigen Rechenschritten können sich nicht gerade viele Fehler aufsummieren.

Was man bei DOOM III nie vergessen darf ist das die einzelnen Lichtquellen im Framebuffer aufsummiert werden und da gibt es eben nur 8 Bit pro Farbkanal.

aths
2003-09-06, 17:02:25
Original geschrieben von Demirug
Ich weiss zwar jetzt nicht warum die höhere Genauigkeit nur was bei Specularem und nicht beim Diffusen Licht bringen soll aber egal.Hm, wegen der 4. Potenz oder so, glaube ich? Die Funktion ließe sich doch mit mehr Bit genauer darstellen, oder? Afaik erwähnte Carmack mal Schwächen beim Specular Lighting, wenn man wenige Bits hat.

Demirug
2003-09-06, 17:14:20
Original geschrieben von aths
Hm, wegen der 4. Potenz oder so, glaube ich? Die Funktion ließe sich doch mit mehr Bit genauer darstellen, oder? Afaik erwähnte Carmack mal Schwächen beim Specular Lighting, wenn man wenige Bits hat.

Ja bei der Potenz bringt es ein bischen was allerdings verliert man wieder eine ganze Menge wenn man mit der Specularmap (8 Bit) multipliziert und der Framebuffer gibt einem den Rest.

Ja Carmack erwähnte Probleme beim Specular Light. Diese kommen aber AFAIR daher das ein Teil der Specular Funktion auf Vertexebene berechnet wird (aus Performancegründen) und daher auf Pixelebene Fehler verursachen. Um die Berechung aber vollständig im Pixelbereich durchzuführen braucht man möglichst viele Bits und Fliesspunkt berechnungen. Im ARB_2 Pfad gibt es eine experimentele implementierung davon die aber nicht schnell genug sein soll.

R300
2003-09-06, 19:26:07
Original geschrieben von Demirug
...Framebuffer aufsummiert werden und da gibt es eben nur 8 Bit pro Farbkanal.

Haben die DX9 Karten nicht 10 Bit pro Farbkanal?
Hier (http://www.ati-news.de/HTML/Berichte/R300/R300-Seite1.shtml) steht, dass der R300 10 Bit pro Farbkanal hat. Die GeForceFX müsste doch auch 10 Bit haben oder?

Demirug
2003-09-06, 19:40:08
Original geschrieben von R300
Haben die DX9 Karten nicht 10 Bit pro Farbkanal?
Hier (http://www.ati-news.de/HTML/Berichte/R300/R300-Seite1.shtml) steht, dass der R300 10 Bit pro Farbkanal hat. Die GeForceFX müsste doch auch 10 Bit haben oder?

DX9 unterstüzt ein Format mit 10 Bit pro Farbkanal und 2 Bit Alpha. Es ist aber kein Plicht Feature und nVidia bietet keinen Support dafür.

Auch der Support von ATI ist nur halbherzig da sich dieses Format nicht in Verbindung mit AA nutzen lässt.

Für DOOM III ist das alles aber sowieso irrelevant weil laut JC die 8 Bit Alpha gebraucht werden.

nagus
2003-09-07, 09:43:53
Update 09/06: We also emailed Gabe Newell from Valve Software about his experience with Pixel Shader Performance:

GD: We've started some initial DX9 Shader tests, and have seen, so far that NVIDIA NV3x hardware has a hard time.. Will it'll be similar w/ the HL2 Benchmark?

"Yep."

Gabe Newell

quelle: http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm

LovesuckZ
2003-09-07, 10:09:13
Man koennte ja Gabe Newell mal mailen und fragen, wie die PS2.0 Leistungs nach dem Nvidia-Weg waere. Doch das waer ja zu einfach :|

Pathfinder
2003-09-07, 10:58:55
Original geschrieben von LovesuckZ
Man koennte ja Gabe Newell mal mailen und fragen, wie die PS2.0 Leistungs nach dem Nvidia-Weg waere. Doch das waer ja zu einfach :|

Was ist denn der NVidia-Weg? - 12-Bit Integer

P.

Pathfinder
2003-09-07, 11:26:36
Wie man es auch dreht und wendet, außer für die hartgesottenen NV-Fans der Entwicklergemeinde (z.B. JC), die keine Mühen scheuen mit allerlei Kunstkniffen der schlappen NV3x PS2.0 Performance auf die Beine zu helfen, um optisch und bezüglich der Geschwindigkeit eine R3X0 Niveau zu erreichen, sind die NV3x-Chips bezüglich PS2.0 für den Rest Entwicklergemeinde eher heiße Eisen. Die NV3x-Chips erfordern einfach mehr Hingabe bei der Entwicklung von Spielen der kommenden PS2.0 Generation.

Bereits mittelfristig und im Schnitt über alle kommende DX9-Spiele wird sich genau dies bemerkbar machen und die PS2.0-Schwäche der NV3x-Familie wird zum Dilemma der NV-Marketing Abteilung. Ich bin gespannt, wie und mit welcher Unterstützung (JC ist ihnen ja sicher) sie dieses Problem in den Griff bekommen werden?!

G.
P.

Winter[Raven]
2003-09-07, 12:16:00
Man ... wieso meinen einige man müsse Nvdia's FX jetzt verurteilen ? Warten wir doch ab bis Nvidia es unter Kontrolle bekommen, sollte die Shader 2.0 Schwäche wirklich Treiber bedingt sein so haben die noch ne Weile diese zulösen. Ati brauchte ja auch ne Weile um R3.xx reihe die richtige Performence zu geben.

Aber gleich Nvidia zum Satan auf erden zu degradieren ist wirklich sehr sehr übertrieben !

Gast
2003-09-07, 12:52:19
Original geschrieben von Winter[Raven]
Man ... wieso meinen einige man müsse Nvdia's FX jetzt verurteilen ? Warten wir doch ab bis Nvidia es unter Kontrolle bekommen, sollte die Shader 2.0 Schwäche wirklich Treiber bedingt sein so haben die noch ne Weile diese zulösen. Ati brauchte ja auch ne Weile um R3.xx reihe die richtige Performence zu geben.

Aber gleich Nvidia zum Satan auf erden zu degradieren ist wirklich sehr sehr übertrieben !

Treiber..

Kann ich mir jetzt nicht mehr vorstellen. JC wird von Nvidia bevorzugt behandelt und immer schon Monate vorab mit den besten und schnellsten OpenGL-Treibern (bei denen die NV3x-Reihe ja nicht so schlecht aussieht) versorgt.

Wenn also JC trotzdem noch keine ausreichend gute PS2.0-Performance aus der NV3x-Reihe rausholen kann, dann solltest du das mit den irgendwann noch kommenden "Wundertreibern" endgültig vergessen. Das wird nix mehr.

LovesuckZ
2003-09-07, 12:59:43
Original geschrieben von Gast
Treiber..
Kann ich mir jetzt nicht mehr vorstellen. JC wird von Nvidia bevorzugt behandelt [...] Wenn also JC trotzdem noch keine ausreichend gute PS2.0-Performance aus der NV3x-Reihe rausholen kann, dann solltest du das mit den irgendwann noch kommenden "Wundertreibern" endgültig vergessen. Das wird nix mehr.

Das was wirklich interessant ist, lautet: Darf er schon über die Leistungsgewinne der zukünftigen detos reden?
Anscheinend hat nvidia ihre Politik in Sachen Treiber (fremd)relases deutlich geaendert...

Gast
2003-09-07, 14:51:02
Original geschrieben von Pathfinder
Wie man es auch dreht und wendet, außer für die hartgesottenen NV-Fans der Entwicklergemeinde (z.B. JC), die keine Mühen scheuen mit allerlei Kunstkniffen der schlappen NV3x PS2.0 Performance auf die Beine zu helfen, um optisch und bezüglich der Geschwindigkeit eine R3X0 Niveau zu erreichen, sind die NV3x-Chips bezüglich PS2.0 für den Rest Entwicklergemeinde eher heiße Eisen. Die NV3x-Chips erfordern einfach mehr Hingabe bei der Entwicklung von Spielen der kommenden PS2.0 Generation.

Bereits mittelfristig und im Schnitt über alle kommende DX9-Spiele wird sich genau dies bemerkbar machen und die PS2.0-Schwäche der NV3x-Familie wird zum Dilemma der NV-Marketing Abteilung. Ich bin gespannt, wie und mit welcher Unterstützung (JC ist ihnen ja sicher) sie dieses Problem in den Griff bekommen werden?!

G.
P.

Wie kommst du darauf?
ATI muss doch erstmal FP32 bieten bevor wir da überhaupt vergleichen können und bis die große Armada an Spielen kommt, wird von der NV3xx Reihe keiner mehr reden, weil dann der NV4xx für die Benchmarks zuständig ist. Und da wird man dann fröhlich darauf hinweisen, dass wenn ATI bei FP24 only bleibt, sie minderwertige Qualität bieten.

Aquaschaf
2003-09-07, 15:03:11
Solange ich kein Spiel mit einem Effekt der wirklich einen sichtbaren Unterschied zwischen fp16,24,32 zeigt sehe halte ich diese "Diskusion" für unsinnig.

aths
2003-09-08, 15:11:11
Original geschrieben von Gast
Wie kommst du darauf?
ATI muss doch erstmal FP32 bieten bevor wir da überhaupt vergleichen können und bis die große Armada an Spielen kommt, wird von der NV3xx Reihe keiner mehr reden, weil dann der NV4xx für die Benchmarks zuständig ist. Und da wird man dann fröhlich darauf hinweisen, dass wenn ATI bei FP24 only bleibt, sie minderwertige Qualität bieten. FP24 liefert gegenüber FP32 "minderwertige Qualität"? Ich glaube nicht, Tim.

Gast
2003-09-08, 15:39:34
Original geschrieben von Aquaschaf
Solange ich kein Spiel mit einem Effekt der wirklich einen sichtbaren Unterschied zwischen fp16,24,32 zeigt sehe halte ich diese "Diskusion" für unsinnig.

ich aber nicht und die Medien sicher auch nicht, weil dann stelle ich mich hin und sage, dass die niedrigste NV3xx Shaderqualität auch ausreicht.
Da drehen wir uns im Kreis mein Freund.

Die Reviewer werden schön nach diesem Muster berichten, ansonsten müssen andere Seiten aufgezogen werden.

aths
2003-09-08, 15:45:03
Die kleinen Unterschiede zwischen 16 und 24 Bit sind allerdings deutlich größer als die zwischen 24 und 32 Bit.

Ich glaube nicht, dass "die Reviewer" nach Nvidias oder nach deiner Pfeife tanzen werden.

Exxtreme
2003-09-08, 15:46:26
Original geschrieben von aths
Die kleinen Unterschiede zwischen 16 und 24 Bit sind allerdings deutlich größer als die zwischen 24 und 32 Bit.
Jepp, das Gesetz des abnehmenden Ertrages schlägt hier zu. :)

aths
2003-09-08, 15:51:45
Original geschrieben von Exxtreme
Jepp, das Gesetz des abnehmenden Ertrages schlägt hier zu. :) Das auch. Erst mal ist der Unterschied von 16 zu 24 Bit immerhin +50%, dann zu 32 Bit nur noch +33%. Und 16 Bit sind schon sehr genau, 24 Bit noch mal deutlich genauer, 32 Bit noch etwas genauer, aber ich zweifle, dass relevante Pixelshader 2.0-Effekte daraus Vorteile ziehen.

Nvidia ist hier klar im Nachteil: Einerseits verletzen sie mit 16 Bit die DX9-Spezifikation, andererseits sind sie auch mit 16 Bit noch langsamer als ATI.

Demirug
2003-09-08, 15:53:48
Original geschrieben von Exxtreme
Jepp, das Gesetz des abnehmenden Ertrages schlägt hier zu. :)

Dazu muss aber erst mal überhaupt ein Ertrag der abnehmen kann da sein. Einfaches Beispiel:

a: Ein Wert im Bereich von 0 bis 1 gespeichert mit 8 Bit Genauigkeit
b: Ein Wert im Bereich von 0 bis 1 gespeichert mit 8 Bit Genauigkeit
c: Ein Zwischenspeicher
d: Speicherzelle welche Werte von 0 bis 1 mit 8 Bit genauigkeit aufnehmen kann.

1. c = a+b
2. speichere c in d

Preisfrage: Welchen Wertbereich und Genauigkeit braucht c damit es zu keinem Qualitätsverlust kommt?

aths
2003-09-08, 15:57:49
Original geschrieben von Demirug
Dazu muss aber erst mal überhaupt ein Ertrag der abnehmen kann da sein. Einfaches Beispiel:

a: Ein Wert im Bereich von 0 bis 1 gespeichert mit 8 Bit Genauigkeit
b: Ein Wert im Bereich von 0 bis 1 gespeichert mit 8 Bit Genauigkeit
c: Ein Zwischenspeicher
d: Speicherzelle welche Werte von 0 bis 1 mit 8 Bit genauigkeit aufnehmen kann.

1. c = a+b
2. speichere c in d

Preisfrage: Welchen Wertbereich und Genauigkeit braucht c damit es zu keinem Qualitätsverlust kommt? Für Addition reichen 8 Bit Integer aus :| Für Multiplikationen, die ja so selten nun nicht sind, profitiert man gleichermaßen von Floating point wie von einer höheren Auflösung, da die Ergebnisse in der Regel kleiner sind als die einzelnen Faktoren. Falls man anschließend noch mal wieder hochskaliert, ist 8 Bit Integer ziemlich übel :) Das brauche ich dir ja nicht zuerzählen ;D

Exxtreme
2003-09-08, 16:02:20
Original geschrieben von Demirug
Dazu muss aber erst mal überhaupt ein Ertrag der abnehmen kann da sein. Einfaches Beispiel:

a: Ein Wert im Bereich von 0 bis 1 gespeichert mit 8 Bit Genauigkeit
b: Ein Wert im Bereich von 0 bis 1 gespeichert mit 8 Bit Genauigkeit
c: Ein Zwischenspeicher
d: Speicherzelle welche Werte von 0 bis 1 mit 8 Bit genauigkeit aufnehmen kann.

1. c = a+b
2. speichere c in d

Preisfrage: Welchen Wertbereich und Genauigkeit braucht c damit es zu keinem Qualitätsverlust kommt?
Naja, AFAIK braucht man bei einer Addition meist ein Bit mehr, sprich 9 Bit, damit es zu keinem Qualitätsverlust kommt.

Und Wertebereich von 0 bis 2.

Demirug
2003-09-08, 16:03:36
Original geschrieben von aths
Das auch. Erst mal ist der Unterschied von 16 zu 24 Bit immerhin +50%, dann zu 32 Bit nur noch +33%. Und 16 Bit sind schon sehr genau, 24 Bit noch mal deutlich genauer, 32 Bit noch etwas genauer, aber ich zweifle, dass relevante Pixelshader 2.0-Effekte daraus Vorteile ziehen.

Nvidia ist hier klar im Nachteil: Einerseits verletzen sie mit 16 Bit die DX9-Spezifikation, andererseits sind sie auch mit 16 Bit noch langsamer als ATI.

Du solltest beim Rechenen nur die Mantisse benutzten. Ergibt zwar im Endeffekt bei diesem Fall das gleiche Bild (+60%, +43,75%) ist aber genauer.

Wenn Interesiert bei OpenGL die DX Spec? Zudem ist FP16 erlaubt wenn der Entwickler es entsprechenden absegnet.

Demirug
2003-09-08, 16:05:04
Original geschrieben von Exxtreme
Naja, AFAIK braucht man bei einer Addition meist ein Bit mehr, sprich 9 Bit, damit es zu keinem Qualitätsverlust kommt.

Und Wertebereich von 0 bis 2.

Beim Speichern wird aber wieder auf 8 Bit [0,1] begrenzt wodurch eine Zwischenzelle mit einer höheren Genauigkeit nichts bringt.

aths
2003-09-08, 16:34:56
Original geschrieben von Exxtreme
Naja, AFAIK braucht man bei einer Addition meist ein Bit mehr, sprich 9 Bit, damit es zu keinem Qualitätsverlust kommt.

Und Wertebereich von 0 bis 2. Wertebereich bis 2 ist eigentlich richtig, allerdings wird eh geclampt. Warum du ein zusätzliches Genauigkeitsbit brauchen willst, verstehe ich jetzt nicht.

MadManniMan
2003-09-11, 03:45:43
Im Allgemeinen halte ich persönlich diese ganze FP16/24/32 Diskussion für verfrüht und desorientierend.

Leo sagte mal so vortrefflich, daß 3Dfx darunter zu leiden hatte, nicht früh genug auf den 32bit-Zug aufgesprungen zu sein, da die ganzen wie wild White-Papers-abschreibenden Schreiberlinge die Praxis verkannt hatten.
Wenn man jetzt mal das HL2-Beispiel heranzieht, daß für die FX-Serie einen extra Pfad "unreinen" DX9s heranzieht, so muß man erst abwarten, ob ein Qualiverlust besteht und wenn ja, in welcher Relation er mit einem Performanceschub steht.
Das ist nämlich das verdammt große Problem bei dieser ganzen Betrachtung: noch kann keiner sagen, wie FP16/24/32 nun untereinander verglichen in der Praxis ausschaut und von daher darf sich auch noch niemand rausnehmen, nV für die hin und wieder wohl anzutreffende Verwendung von 16bit zu verfluchen oder ATi wegen eines mangelnden 32. bits auszulachen.

Praxisrelevanz, Leute. Praxisrelevanz...

BUG
2003-09-11, 03:51:43
..naja aber ganz "Regelkonform" is das bei nVidia auch nich. In den DirectX9 Specs steht das mit mindestem 24Bit Rendergenuigkeit gerechnet werden muß und genu das macht ATI. Wenn nVidia jetzt daher kommt und sagt wir müssen unter DirectX9 zum Teil mit 16FP arbeiten damit wir mit ATI gleichziehen können is das imho ein Foul. ;) Das trifft jetzt nich ganz auf Doom3 zu (is ja OpenGL) aber ggf für zukünftige D3D Titel.

cu
BUG

ow
2003-09-11, 08:17:53
Original geschrieben von BUG
..naja aber ganz "Regelkonform" is das bei nVidia auch nich. In den DirectX9 Specs steht das mit mindestem 24Bit Rendergenuigkeit gerechnet werden muß und genu das macht ATI. Wenn nVidia jetzt daher kommt und sagt wir müssen unter DirectX9 zum Teil mit 16FP arbeiten damit wir mit ATI gleichziehen können is das imho ein Foul. ;) Das trifft jetzt nich ganz auf Doom3 zu (is ja OpenGL) aber ggf für zukünftige D3D Titel.

cu
BUG


Schau lieber nochmals in die Spec und was bezüglich FP16 da drin steht.

Endorphine
2003-09-11, 08:27:35
Original geschrieben von BUG
..naja aber ganz "Regelkonform" is das bei nVidia auch nich. In den DirectX9 Specs steht [...] und genu das macht ATI. Wenn nVidia jetzt daher kommt [...] Das hängt schlicht und ergreifend damit zusammen, dass ATI den Zuschlag für den kleinsten gemeinsamen Nenner in DX9 bekommen hat. Bei DX6-8 war es immer nVidia.

Früher lagen ATI-Fähigkeiten brach, heute eben nVidia-Fähigkeiten. So what?

Demirug
2003-09-11, 08:49:01
Original geschrieben von ow
Schau lieber nochmals in die Spec und was bezüglich FP16 da drin steht.

Und vorallem was mal drin stand. MS hat mal eine Spec an die IHV herausgegeben in der FP16 für Temp erlaubt war. Das war aber ein Tippfehler.

Demirug
2003-09-11, 08:57:54
Original geschrieben von Endorphine
Das hängt schlicht und ergreifend damit zusammen, dass ATI den Zuschlag für den kleinsten gemeinsamen Nenner in DX9 bekommen hat. Bei DX6-8 war es immer nVidia.

Stimmt so nicht ganz.

Bei DX6 wurde einfach alles was irgendwie vorhanden war genommen zusammengeknallt und mit einer vielzahl von Capsbits versehen

DX7 änderte beim Pixelprocessing an diesem Verfahren nichts. Das neue Vertexprocessing (HT&L) war ein Mischmasch zwischen ATI und nVidia und auch wieder viele Caps. Der kleinste gemeinsame nenner (also das was man einsetzt) lag irgendwo dazwischen so das beide etwas bluten müssen wobei ATI AFAIR etwas mehr ungenutzte Features anzubieten hatte.

Bei DX8 wurde der Lowest Level von 3dfx vorgegeben. nVidia wurde allerdings extra berücksichtigt aber diesen Luxus hat ATI mit 8.1 ja dann auch noch bekommen. Als 3dfx dann aber keinen DX8 Chip mehr gebracht hat ist nVidia nachträglich in die Position des DX8 Basis Levels gerutscht.

Riptor
2003-09-12, 14:45:34
Original geschrieben von MadManniMan
Im Allgemeinen halte ich persönlich diese ganze FP16/24/32 Diskussion für verfrüht und desorientierend. Leo sagte mal so vortrefflich, daß 3Dfx darunter zu leiden hatte, nicht früh genug auf den 32bit-Zug aufgesprungen zu sein, da die ganzen wie wild White-Papers-abschreibenden Schreiberlinge die Praxis verkannt hatten. Wenn man jetzt mal das HL2-Beispiel heranzieht, daß für die FX-Serie einen extra Pfad "unreinen" DX9s heranzieht, so muß man erst abwarten, ob ein Qualiverlust besteht und wenn ja, in welcher Relation er mit einem Performanceschub steht.
Das ist nämlich das verdammt große Problem bei dieser ganzen Betrachtung: noch kann keiner sagen, wie FP16/24/32 nun untereinander verglichen in der Praxis ausschaut und von daher darf sich auch noch niemand rausnehmen, nV für die hin und wieder wohl anzutreffende Verwendung von 16bit zu verfluchen oder ATi wegen eines mangelnden 32. bits auszulachen.

Praxisrelevanz, Leute. Praxisrelevanz...

Ganz meine Rede! Trotzdem: Interessant ist es schon, nur fehlen mir wirklich die realen Beispiele! Oder gibt es die schon zu sehen?