PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 6-Reihe: 16 Bit-Qualität erfuhr eine Änderung


Raff
2005-04-07, 17:36:14
Ahoi!

Nach dem Einbau einer GeForce 6800 in mein bescheidenes Hauptsystem fiel mir neben anderen Dingen vor allem eines auf: 16 Bit sieht anders aus als bei den nVidia-Chips davor (und Radeons).

Wo mir das aufgefallen ist: Im 3DMark2001SE. Ich ließ das Teil einige Male in 640x480x16 loopen, um zu testen, ob die CPU den neuen Belastungen in Form von mehr Takt standhalten kann.

Test 2 (Dragothic) offenbart die Änderungen am deutlichsten. Nebel und Rauch sind nicht mehr so übel aufgerastert wie früher, dafür lenken die altbekannten Artefakte in Form von Grün- und Lila-Tönen das Auge des Betrachters auf sich. Nur deutlich ausgeprägter und mit gröberen Farbübergängen ...

Ist das noch jemandem aufgefallen? :confused:

Lustig finde ich, dass man sich hier wohl an 3dfx orientiert hat -- hatten da etwa die übergetretenen Ingenieure ihre Finger im Spiel? :D Letztere boten ja für ihre Voodoos (ab 3, IIRC) im Treiber eine Einstellung für's Alpha-Blending eine Option an, die identische Auswirkungen hat. "Sharper" (= leichte Raster, wenig grün/lila) und "Smoother" (= neue nVidia 16 Bit-Qualität).

Doch ich muss sagen: Bäh. Lieber ein paar Kästchen als übelst bunter Rauch. Doch das ist wohl Geschmackssache, zumal wohl kein Mensch, der eine GeForce6 besitzt, in 16Bit zocken wird. ;)

MfG,
Raff

predprey
2005-04-07, 17:39:23
sry, da ich für sowas irgentwie blind zu sein scheine, könntest du mal von der stelle nen pic mit den verschiedensten Karten machen ??

P.S. du liebst es doc hständig was zu testen ;)

Gast
2005-04-07, 17:53:55
ich glaube eher dass es an den neuen treibern liegt, in denen das 16-bit-dithering deaktiviert ist.

ich hatte vor einigen wochen meine alte gf2mx eingebaut (die 6800 war eingeschickt) und den neuen 71.84-treiber installiert gelassen, war ja nur für eine woche.

C&C renegade war dann auch ein spiel dass noch auf der alten graka wunderbar lief, aus performancegründen hatte ich trotzdem auf 16bit eingestellt.

komischerweise waren aber nirgends dithering-artefakte zu sehen, sondern nur übliches bandig wenn die farbpräzision ausgeht.

mit der gf6 hab ich das noch nicht probiert, eigentlich immer 32bit eingestellt ;)

ich denke wie gesagt eher dass der treiber schuld ist, vielleicht kann die gf6 aber auch nicht mehr dithern, wozu auch wenn 32bit eigentlich standard ist und man schon an der schwelle zu 64bit steht. spart sicher ein paar transistoren, an der richtigen stelle wie ich meine.

BlackArchon
2005-04-07, 17:57:53
Ich wollte gerade an der Stelle bei Dragothic einen Screenshot machen (Druck und Alt+Druck probiert), doch es kommt kein Bild in die Zwischenablage? Was ist denn da los?

Raff
2005-04-07, 17:58:42
Sorry, mit Screenies anderer Karten kann ich momentan nicht dienen.

Aber hier mal welche, wo es mit der 6800 auffällt (32 Bit zum Vergleich). Wenn jemand so nett sein könnte und mit einer GeForce < 6 oder Radeon ähnliche Shots in 16 Bit machen könnte, hätten wir den ungefähren Vergleich. :)

16 Bit, 16Bit Texturen, Nr.1:
http://img191.exs.cx/img191/2639/16bit18cp.th.jpg (http://img191.exs.cx/my.php?loc=img191&image=16bit18cp.jpg)

32 Bit, 16Bit Texturen, Nr.1:
http://img191.exs.cx/img191/5592/32bit16fn.th.jpg (http://img191.exs.cx/my.php?loc=img191&image=32bit16fn.jpg)

16 Bit, 16Bit Texturen, Nr.2:
http://img191.exs.cx/img191/9585/16bit21bo.th.jpg (http://img191.exs.cx/my.php?loc=img191&image=16bit21bo.jpg)

32 Bit, 16Bit Texturen, Nr.2:
http://img191.exs.cx/img191/1884/32bit21ym.th.jpg (http://img191.exs.cx/my.php?loc=img191&image=32bit21ym.jpg)


Bei den 16Bittern fällt mir eben auf, dass im Rauch und der Feuer keine Rasterbildung mehr auftritt, alles "smoother", aber eben auch bunter wirkt.

Vielleicht sollte man dazu sagen, dass ich im Treiber (76.41 Beta) alles auf High Quality mit deaktivierten Optimierungen gestellt habe.

€dit: BlackArchon, drück' F12. Dann gibt's eine Bitmap ins 3DMark-Verzeichnis.

MfG,
Raff

Raff
2005-04-07, 18:07:01
ich glaube eher dass es an den neuen treibern liegt, in denen das 16-bit-dithering deaktiviert ist.

ich hatte vor einigen wochen meine alte gf2mx eingebaut (die 6800 war eingeschickt) und den neuen 71.84-treiber installiert gelassen, war ja nur für eine woche.

C&C renegade war dann auch ein spiel dass noch auf der alten graka wunderbar lief, aus performancegründen hatte ich trotzdem auf 16bit eingestellt.

komischerweise waren aber nirgends dithering-artefakte zu sehen, sondern nur übliches bandig wenn die farbpräzision ausgeht.

mit der gf6 hab ich das noch nicht probiert, eigentlich immer 32bit eingestellt ;)

ich denke wie gesagt eher dass der treiber schuld ist, vielleicht kann die gf6 aber auch nicht mehr dithern, wozu auch wenn 32bit eigentlich standard ist und man schon an der schwelle zu 64bit steht. spart sicher ein paar transistoren, an der richtigen stelle wie ich meine.

Mit der GF2 und der GF4 MX, die sich die letzte Zeit nacheinander in meinem Rechner befanden und ebenfalls viele Tests über sich ergehen lassen mussten, ist mir nichts aufgefallen, ergo war die Qualität genau so, wie ich sie bisher von allen nVidia-Karten und meiner Radeon her kannte. Treiber dort: 71.84 WHQL.

MfG,
Raff

BlackArchon
2005-04-07, 18:07:24
Danke Raff, mit F12 gehts. :)
Denkst du nicht, dass JPG bei solchen Vergleichen etwas ungeeignet ist?

Bei den Wolken am Anfang von Dragothic fällt es auch sehr auf:

16 Bit:
http://img12.exs.cx/img12/7315/shot00006yi.png

32 Bit:
http://img12.exs.cx/img12/7113/shot00018mx.png

Mr. Lolman
2005-04-07, 18:38:22
Smoother war auf der V5 fast immer die hässlichere Einstellung. Und die Raster sind eigentilch auch immer erst bei heftigen Alphablending aufgetreten. Gestern hab ich bspw mit der Drucktaste nen Screenshot von LFS - S2 Alpha Demo gemacht, und in Photoshop eingefügt, und übers ganze Bild war ein absolut übel anzusehendes 16bit Dithering. Den gleichen Screenshot mit HypersnapDX5 (+3dfx Postfilter) gemacht, und das Ergebnis siehr schon weit besser aus. (auch wenn immernoch Dithering vorhanden ist, was direkt im spiel auf der Voodoo nicht zu erkennen ist.) Das einzige wirklich funktionierende Tool ist die Treiberinterne Screenshotfunktion, die aber nur unter Glide und OpenGL geht.

D.H: kein d3d Screenshot kann einem die 22bit Qualität einer Voodoo vermitteln.


"Smoother" hatte ich nur beim Milkdropplugin laufen, für alle anderen Apps hatte ich doch lieber den "Sharper" filter.

Mr. Lolman
2005-04-07, 18:50:07
So schaut der Screenshot aus, den 3dmarks von der V5 anfertigt. (das Raster sieht man auf der Voodoo nicht in der Form. Irgendein Filter lauft da noch drüber, die tatsächliche Qualität ist also etwas *eher deutlich* besser, aber dünkler):

Voodoo5 16bit:
http://img209.exs.cx/img209/7606/shot00003qo.jpg (http://www.imageshack.us)

Jesus
2005-04-07, 19:59:54
hm, kann mich auch nicht an deutliches Dithering auf meiner V5 erinnern. Allerdings war das bevor ich angefangen hab auf jedes sinnlose Detail zu achten :rolleyes:

Raff
2005-04-08, 01:16:09
Ich hab's eben nochmal mit der ersten alten ForceWare, die bei mir ordnungsgemäß funktioniert, probiert. FW 60.72 zeigt das gleiche Bild (Optimierungen wieder aus, High Quality).

Was sagt uns das nun? Hat nVidia wirklich die Hardware in diesem Bereich geändert? Vielleicht hat ja jemand handfeste Infos dazu. :)

MfG,
Raff

Quasar
2005-04-08, 08:01:38
Ohne jetzt 100% sicher zu sein:
Die GeForces hatten früher AFAIK mit die niedrigste interne Rechengenauigkeit (also chip-intern). Bis inkl. der GF4 wurden die Integer-Formate mit nur 32Bit (oder 36?) insgesamt berechnet, Voodoo bot IIRC 48Bit interne Präzision und die älteren Radeons ebenfalls mehr als die GF - wieviel genau erinnere ich nicht mehr.

Mit der GF6 sollten spätestens (eigentlich schon mit der FX) alle reinen Integer-Schaltkreise für die Pixelberechnung herausgefallen sein. Evtl. deshalb die veränderten 16Bit-Berechnungen. Angeschaut habe ich mir reines 16Bit-Int ehrlich gesagt noch nie seit der GFFX.

Shink
2005-04-08, 09:30:09
Sieht genau so aus wie bei meiner guten, alten Savage 2000.

The_Invisible
2005-04-09, 08:57:16
warum sollte nvidia hier etwas ändern? 16bit bieten die meisten spiele ja garnicht mehr an, da sucht man die auflösung aus und aus

mfg

Raff
2005-04-09, 14:11:57
warum sollte nvidia hier etwas ändern? 16bit bieten die meisten spiele ja garnicht mehr an, da sucht man die auflösung aus und aus

mfg

Alten Kram rauswerfen. Die 16Bit Integer-Einheiten, die Quasar nannte, dürften sowas sein. Macht IMHO schon Sinn, dass man Platz macht, um für neue Features mehr zu haben. Aber ich glaube nicht, dass das übermäßig viel Raum genommen hat ...

Aber die Qualität auf meiner FX5900, die ich Ende 2003 etwa 2 Monate hatte, sah das IIRC auf jeden Fall anders aus, ergo wie auf den Karten vor GF6.

MfG,
Raff

aths
2005-04-09, 15:56:13
In OpenGL (Quake3) hab ich das bekannte GeForce-Dithering, inklusive den Block-Artefakten.

Raff
2005-04-09, 16:49:27
Danke aths, das war der Denkanstoß, den ich brauchte. ;)
Ich hab' daraufhin mal verschiedene Spiele mit 16Bit getestet. Das Ergebnis: Die neue "Qualität" beschränkt sich auf Direct3D! Die Spiele, die ich getestet habe, waren NOLF, FlatOut, Max Payne und X² für die Direct3D-Fraktion und Quake III Arena, Unreal Tournament, sowie Serious Sam 2nd Encounter für OpenGL. Letztere zeigten die alten Kästchen, die Direct3D-Kollegen verfuhren wie schon im 3DMark2001SE gesehen.

MfG,
Raff

Mr. Lolman
2005-04-09, 17:40:17
Schon komisch das Ganze. Aber eigentlich ists eh irrelevant, da keine der beiden Implementationen ausreichende Qualität bietet, und 32bit eh schnell genug ist.

Aber Q3a Screenshots (als Vergleichsmöglichkeit mit der V5) hab ich trotzdem gemacht:

Voodoo5 16bit:
http://img229.exs.cx/img229/4567/glide200504091659167ee.jpg (http://www.imageshack.us)


6800GT 16bit:
http://img229.exs.cx/img229/2300/shot00772om.jpg (http://www.imageshack.us)

Kampfwurst87
2005-04-09, 18:41:53
@Mr. Lolman

auf dem 2. bild mit der 6800 ist die grafikqualität niedriger als auf der V5 wunderlich. den selben effekt hatte ich mit meiner 9000pro bei 16bit mit Call of duty.

Raff
2005-04-09, 18:48:54
Das ist nicht verwunderlich. :D Die 16Bit-Qualität der Voodoos spielt in der Oberliga, gerade mit dem "22 Bit Filter".

Lolman, war das 16 oder doch 22 Bit?

MfG,
Raff

Kampfwurst87
2005-04-09, 18:52:25
22bit? hab ich was verpasst?
24bit sind doch die regulären farben und die restlichen 8bit sind für alphatexturen (durchsichtige/transperente)

Gast
2005-04-09, 18:58:05
JA, hast du. Die V5/V3 hatte einen 22Bit-Postfilter, der das 16Bit-Bild kräftig aufwerten konnte, wenn man etwas weniger knackige Farben, aber dafür weitgehende Bandingfreiheit in Kauf nahm.

Ailuros
2005-04-09, 19:00:17
Nicht das es eine Neuigkeit ist, aber die vorigen 3dfx-Inginieure, hatten gerade noch die Gelegenheit Kleinigkeiten zu aendern (NV25, NV3x....z.B. filter@scanout, Accuview etc.). Der Einfluss bei NV4x war verstaendlicherweise um einiges groesser, da sie von Anfang bei der Entwicklung dabei waren.

Ob das jetzt mit dem obrigen relevant ist oder nicht keine Ahnung; die Entfernung so einiger registers aus NV30 war ja sowieso eine Notwendigkeit und viel Sinn (ausser aus reinen Kompatibilitaetsgruenden) macht es ja sowieso nicht resourcen fuer 16bpp Qualitaet zu verschwenden. Quasar's Theorie klingt mir da am wahrscheinlichsten.

Die 16Bit-Qualität der Voodoos spielt in der Oberliga, gerade mit dem "22 Bit Filter".

April 2005.... :|

Ailuros
2005-04-09, 19:02:02
22bit? hab ich was verpasst?
24bit sind doch die regulären farben und die restlichen 8bit sind für alphatexturen (durchsichtige/transperente)


http://www.beyond3d.com/articles/3dfx22bit/index1.php

Raff
2005-04-09, 19:04:07
Nicht das es eine Neuigkeit ist, aber die vorigen 3dfx-Inginieure, hatten gerade noch die Gelegenheit Kleinigkeiten zu aendern (NV25, NV3x....z.B. filter@scanout, Accuview etc.). Der Einfluss bei NV4x war verstaendlicherweise um einiges groesser, da sie von Anfang bei der Entwicklung dabei waren.

Ob das jetzt mit dem obrigen relevant ist oder nicht keine Ahnung; die Entfernung so einiger registers aus NV30 war ja sowieso eine Notwendigkeit und viel Sinn (ausser aus reinen Kompatibilitaetsgruenden) macht es ja sowieso nicht resourcen fuer 16bpp Qualitaet zu verschwenden. Quasar's Theorie klingt mir da am wahrscheinlichsten.

Genau. Aber warum ist dann unter OGL alles beim Alten?


April 2005.... :|

Wird die Tatsache dadurch anders? Nimmt die Qualität ab? ;) Dass 32Bit für gescheite Optik neuer Spiele Pflicht ist, ist klar.

MfG,
Raff

Quasar
2005-04-09, 19:10:54
Genau. Aber warum ist dann unter OGL alles beim Alten?

Vermutlich aus demselben Grunde, warum bei OpenGL-MT-Setups und Reg-Combinern weiterhin nur 4 Texturen pro Pass angeboten werden: Kompatibilität.
Ich denke mal, da werden die Reg-Combiner emuliert, bis die Schwarte kracht.

Ailuros
2005-04-09, 19:28:01
Wird die Tatsache dadurch anders? Nimmt die Qualität ab? ;) Dass 32Bit für gescheite Optik neuer Spiele Pflicht ist, ist klar.



Ich sag es mal anders: ich hab schon seit der K2 nicht mehr 16bpp benutzt und selbst dann nur um etwas Bandbreite mit Supersampling zu gewinnen. Seither ob nun GeForce oder Radeon, macht es wohl nicht mehr viel Sinn mit 16bpp zu spielen (ausser ganz uralte Spiele, bei denen man sowieso mit einer Voodoo und Glide besser aufgehoben ist).

Als die R300 erschien bruellten einige dass am Anfang kein MSAA mit 16bpp moeglich war; man unterstuetzte dann nach kurzer Zeit auch 16bpp/MSAA, nur war es eben langsamer als 32bpp/MSAA :D

Es geht hier nicht um Pflicht; eher darum dass vergleichsmaessig der Unterschied zwischen 16 und 32bpp so klein ist, dass es eigentlich laecherlich ist das erste zu benutzen.

***edit: der neueste Trend seither (22bpp postfiltered vs. 16bpp) heisst FP24 vs. FP16/32 :P

Vermutlich aus demselben Grunde, warum bei OpenGL-MT-Setups und Reg-Combinern weiterhin nur 4 Texturen pro Pass angeboten werden: Kompatibilität.
Ich denke mal, da werden die Reg-Combiner emuliert, bis die Schwarte kracht.

Yep.

Kampfwurst87
2005-04-09, 19:42:43
@Ailuros

danke für den link, nun bin ich schlauer. man lernt ja nie aus :rolleyes:

Mr. Lolman
2005-04-09, 20:06:30
Das ist nicht verwunderlich. :D Die 16Bit-Qualität der Voodoos spielt in der Oberliga, gerade mit dem "22 Bit Filter".

Lolman, war das 16 oder doch 22 Bit?

MfG,
Raff

22bit. Ich weiss, ich schreibs sonst auch immer dazu. Aber eigentlich ist das ganz normale Voodoo 16bit Qualität (der 22bit Filter ist ja standardmässig aktiv)

Mr. Lolman
2005-04-09, 20:08:34
Es geht hier nicht um Pflicht; eher darum dass vergleichsmaessig der Unterschied zwischen 16 und 32bpp so klein ist, dass es eigentlich laecherlich ist das erste zu benutzen.


Klar mittlerweile ists wurscht. Damals gabs bei jedem IHV noch ordentliche Einbrüche beim Wechsel auf 32bit. War nicht selten so, dass auf der Voodoo5 32bit genauso flott war wie 22bit mit 2xAA. Da stellte sich natürlich nicht die Frage welchem Settings man den Vorzug gab....

JA, hast du. Die V5/V3 hatte einen 22Bit-Postfilter, der das 16Bit-Bild kräftig aufwerten konnte, wenn man etwas weniger knackige Farben, aber dafür weitgehende Bandingfreiheit in Kauf nahm.


Die Unterschiede in der Farbsettigung liegen nicht am 22bit filter. Q3a sieht auf den voodoos generell etwas anders aus, als auf den andern IHVs,. Da machts keinen Unterschied ob 16 oder 22bit...

Quasar
2005-04-09, 20:11:35
Komisch - Halbierung der Füllrate soll dieselben FPS ergeben, wie der Wechsel auf 32Bit? Aber doch nur bei CPU-Limitierten Szenarien...

edit:
...oder in absolut Bandbreitenlimitierten Szenarien.

Kampfwurst87
2005-04-09, 20:19:25
theoretische halbierung, praktisch ca. 40% je nach szene wie viele polygone denke ich mal

Mr. Lolman
2005-04-09, 20:25:42
Komisch - Halbierung der Füllrate soll dieselben FPS ergeben, wie der Wechsel auf 32Bit? Aber doch nur bei CPU-Limitierten Szenarien...

edit:
...oder in absolut Bandbreitenlimitierten Szenarien.

Ganz stimmts eh nicht. Meist warens so um die 10% unter 32bit Geschwindigkeit, was sich auch ca. mit meinen SS:SE Ergebnissen deckt:

Die Große Kathedrale Timedemo, Max Detail - 3DC-Script.

1024x768x22: 45,6 fps
1024x768x32: 35,4 fps
1024x768x22, 2xAA: 32,8 fps



Tbred @ 200x12 = 2400 MHz, Voodoo5 5500 PCI @ 185MHz, WickedGL

Quasar
2005-04-09, 20:28:19
Trotzdem erstaunlich (gut) :up:

Welchen Wert hast du mit 16Bit ohne AA und Postfilter erreicht? Mit 2xAA läuft die Karte ja quasi als V4 4500 mit etwas mehr VRAM. 2xAA muss also zumindest bei 16Bit 50% der Leistung kosten, wenn die CPU oder das Triangle-Setup nicht limitiert.

Mr. Lolman
2005-04-09, 20:44:07
Trotzdem erstaunlich (gut) :up:

Welchen Wert hast du mit 16Bit ohne AA und Postfilter erreicht? Mit 2xAA läuft die Karte ja quasi als V4 4500 mit etwas mehr VRAM. 2xAA muss also zumindest bei 16Bit 50% der Leistung kosten, wenn die CPU oder das Triangle-Setup nicht limitiert.


1024x768x16: 45,8 fps

Irgendwas limitert bei 16/22bit:

1024x768x22

@ 166/166: 44,0 fps
@ 185/185: 45,6 fps

1024x768x32

@ 166/166: 32,3 fps
@ 185/185: 35,4 fps

Ich werd mal ein paar Q3a Benchmarks machen...

Kampfwurst87
2005-04-09, 22:14:02
ich habe auch eine SLI fähige karte aber von 1990

http://www.3dchip.de/Grafikkartenmodds/Grafixmodds/tseng-et4000.jpg

topic:

erstaunlich welche leistung eine Voodoo noch so hat ;D

Xmas
2005-04-09, 22:23:32
Ohne jetzt 100% sicher zu sein:
Die GeForces hatten früher AFAIK mit die niedrigste interne Rechengenauigkeit (also chip-intern). Bis inkl. der GF4 wurden die Integer-Formate mit nur 32Bit (oder 36?) insgesamt berechnet, Voodoo bot IIRC 48Bit interne Präzision und die älteren Radeons ebenfalls mehr als die GF - wieviel genau erinnere ich nicht mehr.

Mit der GF6 sollten spätestens (eigentlich schon mit der FX) alle reinen Integer-Schaltkreise für die Pixelberechnung herausgefallen sein. Evtl. deshalb die veränderten 16Bit-Berechnungen. Angeschaut habe ich mir reines 16Bit-Int ehrlich gesagt noch nie seit der GFFX.
GeForce 1 bis 4 bieten 9 Bit (8 Bit für 0 bis 1), ab GeForce3 kam noch FP32 im "Texturshader" hinzu. Voodoo 1 bis 3 sowie Kyro haben definitiv nur 8 Bit, bei VSA-100 und R100 bin ich mir nicht sicher. R200 hat AFAIK 16 Bit (12 Bit für 0 bis 1), Rampage 13 (9 von 0 bis 1).

Die Integer-Combiner fielen mit NV35 weg, aber Dithering für 16Bit wird von den ROPs übernommen, und diese sind erst seit NV40 FP-fähig.

Quasar
2005-04-09, 22:41:48
Sorry, ich meinte auch VSA-100-basierende Voodoos.

Demirug
2005-04-09, 22:44:05
GeForce 1 bis 4 bieten 9 Bit (8 Bit für 0 bis 1), ab GeForce3 kam noch FP32 im "Texturshader" hinzu. Voodoo 1 bis 3 sowie Kyro haben definitiv nur 8 Bit, bei VSA-100 und R100 bin ich mir nicht sicher. R200 hat AFAIK 16 Bit (12 Bit für 0 bis 1), Rampage 13 (9 von 0 bis 1).

Die Integer-Combiner fielen mit NV35 weg, aber Dithering für 16Bit wird von den ROPs übernommen, und diese sind erst seit NV40 FP-fähig.

IIRC sind die Combiner im NV35 noch vorhanden.

Kampfwurst87
2005-04-09, 23:41:05
kurze n00bische 2 fragen:

was ist IIRC?
was soll AFAIK bedeuten?

Raff
2005-04-09, 23:43:39
IIRC = If I Recall Correctly
AFAIK = As Far As I Know

MfG,
Raff

P.S: www.abkuerzungen.de ;)

Kampfwurst87
2005-04-09, 23:54:10
danke raff für schnelle antwort

werde mal die kürzelschulbank drücken :rolleyes:

einige kenne ich ja schon, afk, g8, rem n00b :biggrin:

misterh
2005-04-10, 00:56:53
So hier BildQualität vergleich zwischen 6800, X700 und V5 5500 :biggrin:

6800 - X700Pro - V5 5500

0xAA

16 Bit

http://img209.exs.cx/img209/9062/lsf680016bit9tv.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsf680016bit9tv.jpg) http://img216.exs.cx/img216/1561/lsfx70016bit3xq.th.jpg (http://img216.exs.cx/my.php?loc=img216&image=lsfx70016bit3xq.jpg) http://img209.exs.cx/img209/9512/lsfv5550016bit1jf.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsfv5550016bit1jf.jpg)

32 Bit

http://img209.exs.cx/img209/5320/lsf680032bit2bw.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsf680032bit2bw.jpg) http://img216.exs.cx/img216/603/lsfx70032bit2el.th.jpg (http://img216.exs.cx/my.php?loc=img216&image=lsfx70032bit2el.jpg) http://img209.exs.cx/img209/8188/lsfv5550032bit1xa.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsfv5550032bit1xa.jpg)

misterh
2005-04-10, 00:56:59
6800 - X700Pro - V5 5500

4xAA (3DFX: 4xSSAA)

16 Bit

http://img209.exs.cx/img209/3766/lsf680016bit4aa4ah.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsf680016bit4aa4ah.jpg) http://img216.exs.cx/img216/844/lsfx70016bit4aa2cq.th.jpg (http://img216.exs.cx/my.php?loc=img216&image=lsfx70016bit4aa2cq.jpg) http://img209.exs.cx/img209/6852/lsfv5550016bit4ssaa4bl.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsfv5550016bit4ssaa4bl.jpg)

32 Bit

http://img209.exs.cx/img209/4403/lsf680032bit4aa8gd.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsf680032bit4aa8gd.jpg) http://img216.exs.cx/img216/6176/lsfx70032bit4aa3jb.th.jpg (http://img216.exs.cx/my.php?loc=img216&image=lsfx70032bit4aa3jb.jpg) http://img209.exs.cx/img209/791/lsfv5550032bit4ssaa1wc.th.jpg (http://img209.exs.cx/my.php?loc=img209&image=lsfv5550032bit4ssaa1wc.jpg)

Ailuros
2005-04-10, 05:17:37
GeForce 1 bis 4 bieten 9 Bit (8 Bit für 0 bis 1), ab GeForce3 kam noch FP32 im "Texturshader" hinzu. Voodoo 1 bis 3 sowie Kyro haben definitiv nur 8 Bit, bei VSA-100 und R100 bin ich mir nicht sicher. R200 hat AFAIK 16 Bit (12 Bit für 0 bis 1), Rampage 13 (9 von 0 bis 1).

Die Integer-Combiner fielen mit NV35 weg, aber Dithering für 16Bit wird von den ROPs übernommen, und diese sind erst seit NV40 FP-fähig.

Bisherige PowerVR GPUs haben tatsaechlich nur 8888:

http://www.beyond3d.com/forum/viewtopic.php?p=399174&highlight=floating#399174

Tigerchen
2005-04-10, 08:39:34
Das ist nicht verwunderlich. :D Die 16Bit-Qualität der Voodoos spielt in der Oberliga, gerade mit dem "22 Bit Filter".

Lolman, war das 16 oder doch 22 Bit?

MfG,
Raff


Bei OGL kann ich dir sagen daß ATI den 16 Bit Modus einfach zum 32 Bit Modus macht womit gleichzeitig MSAA ermöglicht wird. DAS ist Oberliga. Hab zwar kein Quake3 aber in Quake 2 ist das deutlich zu sehen.

Ailuros
2005-04-10, 12:49:29
Bei OGL kann ich dir sagen daß ATI den 16 Bit Modus einfach zum 32 Bit Modus macht womit gleichzeitig MSAA ermöglicht wird. DAS ist Oberliga. Hab zwar kein Quake3 aber in Quake 2 ist das deutlich zu sehen.


Wenn hinten 16bpp herauskommt, dann sind es auch 16bpp. 16bpp-Qualitaet hat sich zwar verbessert auf GeForces, liess aber stets zu wuenschen uebrig (ueberhaupt in der Vergangenheit, ebenso wie TC). Das mit dem Oberliga Zeug ist sowieso Quark; es sollte alles als GF heissen, wobei man stellenweise Schwaechen wohl doch auf allen GPUs der Vergangenheit finden kann (haengt auch von der angewendeten Applikation ab).

Frueher sagten viele auch z.B. dass sie keine Unterschiede auf KYRO zwischen 16 und 32bpp in UT1 sehen konnten; dabei hat wohl die Mehrheit die coronas in manchen maps uebersehen. Tritt in Glide natuerlich nicht auf.

Problematisch wird es eher in "16bpp-only" Applikationen; die letzten nennenswerten waren MCM1/2.

MarcWessels
2005-04-10, 14:14:02
Bei OGL kann ich dir sagen daß ATI den 16 Bit Modus einfach zum 32 Bit Modus macht womit gleichzeitig MSAA ermöglicht wird. DAS ist Oberliga. Hab zwar kein Quake3 aber in Quake 2 ist das deutlich zu sehen.


ATI, OpenGL und Oberliga? Widerspricht sich das nicht? Meiner Erfahrung ist, dass auf einer ATI-Karte beispielsweise der Himmel in Q3A doch sehr sehr gestreift ist (und das im angeblichen 32-Bit-Modus!).

Mr. Lolman
2005-04-10, 14:15:39
Wenn hinten 16bpp herauskommt, dann sind es auch 16bpp. 16bpp-Qualitaet hat sich zwar verbessert auf GeForces, liess aber stets zu wuenschen uebrig (ueberhaupt in der Vergangenheit, ebenso wie TC). Das mit dem Oberliga Zeug ist sowieso Quark

Du machst es dir da etwas einfach. Denn jede der Einstellmöglichkeit des 16bit Outputs bringt auf der V5 ein deutlichst besseres Ergebnis als NV 16bit:

3dfx 16bit smoother__________________________________3dfx 16bit sharper___________________________________
http://img167.exs.cx/img167/6677/3dfx16bitsm3kw.jpg (http://www.imageshack.us) http://img167.exs.cx/img167/899/3dfx16bitsh1dm.jpg (http://www.imageshack.us)

3dfx 22bit smoother__________________________________3dfx 22bit sharper___________________________________
http://img167.exs.cx/img167/6820/3dfx22bitsm4gq.jpg (http://www.imageshack.us) http://img239.echo.cx/img239/2729/3dfx22bitsh9ij.jpg (http://www.imageshack.us)

NV40 16bit__________________________________________NV40 32bit________________________________________
http://img167.exs.cx/img167/7792/nv16bit3aw.jpg (http://www.imageshack.us) http://img167.exs.cx/img167/4656/nv32bit6dc.jpg (http://www.imageshack.us)


Thanks to ImageShack for Free Image Hosting (http://www.imageshack.us)

Mr. Lolman
2005-04-10, 14:16:55
ATI, OpenGL und Oberliga? Widerspricht sich das nicht? Meiner Erfahrung ist, dass auf einer ATI-Karte beispielsweise der Himmel in Q3A doch sehr sehr gestreift ist (und das im angeblichen 32-Bit-Modus!).

Probier mal r_ext_compress_textures 0. Dann sollt nix mehr gestreift sein...

Coda
2005-04-10, 14:25:03
Öh der gestreifte Himmel war eigentlich auf den GeForce Karten wegen dem DXT1 Bug. Das dürfte auf ATi nie gewesen sein...

Mr. Lolman
2005-04-10, 14:28:53
Öh der gestreifte Himmel war eigentlich auf den GeForce Karten wegen dem DXT1 Bug. Das dürfte auf ATi nie gewesen sein...

Naja, selbst mit funktionierender S3TC Komprimierung lässt sich ja auch die ein oder andere Unregelmässigkeit am Q3a Himmel entdecken: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2579970#post2579970

Coda
2005-04-10, 14:31:49
Man kann auch mit der Lupe nach allem suchen. Ich bin mir ziemlich sicher dass er den GeForce Bug meint...

Quasar
2005-04-10, 14:37:27
Probier mal r_ext_compress_textures 0. Dann sollt nix mehr gestreift sein...
Schaltet das nicht die Texturcompression ab? :|

Coda
2005-04-10, 14:38:09
Ja, die verursacht ja die Streifenbildung...

Mr. Lolman
2005-04-10, 14:43:13
Man kann auch mit der Lupe nach allem suchen. Ich bin mir ziemlich sicher dass er den GeForce Bug meint...

Wahrscheinlich eh. Ich finds nur zum kotzen, dass entweder damals allle Leute mit der Lupe gesucht haben, oder noch schlimmer, einfach Markentinggeschwätz abgeschrieben haben - denn eigentlich hätte es eher nen 22bit Hype als nen 32bit Hype geben müssen. Massives Alphablending gabs damals kaum. Q3a war Quasipionier auf dem Gebiet und die Einbrüche auf 32bit waren selbst auf ner GF2 noch recht heftig. Nur Ati hat das damals recht flott in den Griff bekommen..

Außerdem spielte keiner ein Spiel auf 32bit solangs nicht einen Grund (z.B. in Form von Banding gab). Natürlich bekam man auf GF Karten den Grund öfter serviert, und plötzlich war 32bit schneller in, als 3dfx sichs gewünscht hätte, und als es notwendig war.

Naja, alles eine Sache der Sichtweise. Man kanns sichs ja auch so zurechtdrehen ;):

http://img88.exs.cx/img88/8211/3dfxvsnvidia4xogl31bb.jpg

Quasar
2005-04-10, 14:44:03
Na, auf diesem Wege verfügt wohl auch eine uralt-GF über "Oberliga-OpenGL". :|

Mr. Lolman
2005-04-10, 14:46:45
Na, auf diesem Wege verfügt wohl auch eine uralt-GF über "Oberliga-OpenGL". :|

:confused:

Quasar
2005-04-10, 14:47:35
:confused:
S3TC abschalten -> kein S3TC-Bug mehr.

Mr. Lolman
2005-04-10, 14:50:30
S3TC abschalten -> kein S3TC-Bug mehr.

Eigentlich gehts ja um 16 bit Rendering, auf S3TC kamen wir ja nur, weil MarcWessels in Q3a auch beim 32bit Rendering Banding entdeckt hat...

misterh
2005-04-10, 15:01:01
wie ich sehe, hätte ich mein test mit 3 graka und LFS nicht machen sollen. interessiert keinem :rolleyes:

Quasar
2005-04-10, 15:11:50
Eigentlich gehts ja um 16 bit Rendering, auf S3TC kamen wir ja nur, weil MarcWessels in Q3a auch beim 32bit Rendering Banding entdeckt hat...
Richtig - welche der Bilder mit streifigem Himmel sind denn mit und welche ohne TC entstanden?

aths
2005-04-12, 04:50:35
0xAAMan sollte "1x AA" schreiben, oder noch besser "Kein AA".

Xmas
2005-04-14, 00:05:59
Ich habe das Offtopic-Material mal an einem relativ willkürlichen Punkt herausgesplittet.

Split

Mr. Lolman
2005-04-16, 21:29:15
Danke aths, das war der Denkanstoß, den ich brauchte. ;)
Ich hab' daraufhin mal verschiedene Spiele mit 16Bit getestet. Das Ergebnis: Die neue "Qualität" beschränkt sich auf Direct3D! Die Spiele, die ich getestet habe, waren NOLF, FlatOut, Max Payne und X² für die Direct3D-Fraktion und Quake III Arena, Unreal Tournament, sowie Serious Sam 2nd Encounter für OpenGL. Letztere zeigten die alten Kästchen, die Direct3D-Kollegen verfuhren wie schon im 3DMark2001SE gesehen.

MfG,
Raff


Also kann man davon ausgehen, dass die NV - 16bit Qualität unter OpenGL seit GF2 unverändert ist?

Raff
2005-04-17, 01:01:46
Würde ich jetzt nach Augenmaß schon sagen, ja. Aber um das sicher sagen zu können, braucht's eben ein paar Screenies. Ich behaupte aber mal, dass ich ein Auge dafür habe, ergo wären mir grobe Unterschiede schon aufgefallen. :)

Es gibt doch noch einige GF < 6-User, vielleicht könnten die ja mal ein paar Shots unter 16 Bit in OGL und D3D posten. :)

MfG,
Raff

Ailuros
2005-04-17, 11:45:42
Ich hab gerade nochmal SS:SE installiert; Zeit fuer 16bpp Experimente hatte ich noch nicht, aber eine angenehme Kleinigkeit ist dass ich mit dem OGL2.0 ICD nicht mehr einen 24bit Z-buffer manuell einstellen muss.

Ailuros
2005-04-17, 15:48:22
76.44, OGL2.0.0
SS:SE 1.05

Von links nach rechts (mit 45% Kompression):

32bpp/ Optimal
16bpp/ 16bit textures
16bpp/ Compressed

http://img158.imageshack.us/gal.php?c=f8cdeb1b1edcc52311fe26b7895a69a5&g=32bppoptimal2ld.jpg

Thanks to ImageShack for Free Image Hosting (http://www.imageshack.us)

Irgendwie hab ich eine schlechtere 16bpp Qualitaet von der NV25 in Erinnerung (wobei ich mich auch taeuschen kann; ist schon lange her), ueberhaupt mit kompriemierten Texturen. Der Leistungs-einbruch duerfte normal sein, da in allen drei Situationen 8xS/16xAF eingeschaltet war.

Gast
2005-04-17, 16:03:29
für 16bit ist die qualität verdammt gut.

soweit ich mich erinnern kann profitiert SS:SE allerdings kaum von 32bit, einzig ein 16bit z-buffer verursacht ziemlich starke artefakte.

Ailuros
2005-04-17, 16:29:55
für 16bit ist die qualität verdammt gut.

soweit ich mich erinnern kann profitiert SS:SE allerdings kaum von 32bit, einzig ein 16bit z-buffer verursacht ziemlich starke artefakte.

Mit 16bbp oder komprimierten Texturen kann ich leichtes banding im Himmel selbst in Echtzeit sehen (was aber sowieso zu erwarten sein sollte); ein 16bit Z-buffer kam fuer GeForces fuer mich in den SS-Spielen nie in Frage. Das Spiel flimmert ohnehin von sich aus wie verrueckt; mit 16bit Z wird es noch um einiges schlimmer (Z-aliasing).

Mr. Lolman
2005-04-17, 17:35:19
Irgendwie hab ich eine schlechtere 16bpp Qualitaet von der NV25 in Erinnerung (wobei ich mich auch taeuschen kann; ist schon lange her), ueberhaupt mit kompriemierten Texturen. Der Leistungs-einbruch duerfte normal sein, da in allen drei Situationen 8xS/16xAF eingeschaltet war.

In Serious Sam kann man das 16bit Dithering einstellen. Das ist von hausaus auf hoch -> max Dithering. Durch die jpg Kompression ging das jedoch auf deinen Screenshots verloren.

Jedoch gibts trotz des Dithering bei feinen Farbverläufen mehr oder minder starkes Banding :
http://img198.echo.cx/img198/9567/nv16bit4td.th.png (http://img198.echo.cx/my.php?image=nv16bit4td.png)

BTW: Die Einstellung "smoother" bei 3dfx Karten zeigt genau das gleiche Banding nur ohne dem Dithering. Und "sharper" schaut wiedermal ohnehin viel besser aus. X-D

Ailuros
2005-04-18, 04:10:53
In Serious Sam kann man das 16bit Dithering einstellen. Das ist von hausaus auf hoch -> max Dithering. Durch die jpg Kompression ging das jedoch auf deinen Screenshots verloren.

Ich verstehe nicht was das im Zusammenhang mit der NV25 zu tun hat; dithering war auch dort auf "high".

Mr. Lolman
2005-04-18, 07:55:12
Ich verstehe nicht was das im Zusammenhang mit der NV25 zu tun hat; dithering war auch dort auf "high".

Das war nicht im Zusammenhang mit dem NV25 gemeint, sondern mit der Aussage des Gastes, (dass für 16bit die Qualität verdammt gut ist)

Hier zum Vergleich Voodoo5 22bit (2x2box Filter):
http://xs25.xs.to/pics/05161/2x2boxsharper.png.xs.jpg (http://xs.to/xs.php?h=xs25&d=05161&f=2x2boxsharper.png)
(Klick ins Bild für 1.3MB png24)

Quasar
2005-04-18, 07:57:59
Der Thread ist doch schon einmal gesplittet worden - könnte der Off-Topic-Kram nicht gleich dort abgeladen werden, bitte!!

Mr. Lolman
2005-04-18, 08:05:06
Der Thread ist doch schon einmal gesplittet worden - könnte der Off-Topic-Kram nicht gleich dort abgeladen werden, bitte!!

Nur wegen dem einen Bild? Aber stimmt, ich hätts gleich in den anderen Thread posten sollen und dann hierher verlinken.

(Dein Gejammere trägt zum Topic sicher auch nicht mehr bei, als meine 3dfx Posts ;))

Quasar
2005-04-18, 08:06:34
Stimmt, ich werde nächstes mal direkt den Post melden - diesmal ist's mir leider zu spät eingefallen. :(

@Mod:
Bitte meine beiden Postings hier entfernen, kthx.

Crushinator
2005-04-18, 09:33:11
Schön, daß Ihr's auch allein regeln könnt. ;)

*mit dem Zaunpfahl winkt, und um Topic einzuhalten bittet*

Ailuros
2005-04-18, 13:25:36
Nur wegen dem einen Bild? Aber stimmt, ich hätts gleich in den anderen Thread posten sollen und dann hierher verlinken.

(Dein Gejammere trägt zum Topic sicher auch nicht mehr bei, als meine 3dfx Posts ;))

Gut dass Du es wenigstens einsiehst. Falls mich mein Gedaechtnis tatsaechlich nicht betruegt, koennte es durchaus sein dass die 16bpp Qualitaet etwas besser geworden ist auf den letzten GPUs, da ich aber keine vorige GPU parat habe kann ich das auch nicht testen.

16bpp ist und verbleibt redundant und wird nur aus reinen Kompatibilitaets-gruenden unterstuetzt, seit es reine 32bpp GPUs gibt (anfangs mit der ATI R100, ST Micro KYRO). Es handelt sich lediglich um eine rein theoretische Untersuchung hier die ueberhaupt keinen Zweck mehr hat heutzutage. Hint: schau nochmal auf den framecounter meiner shots.

Von dem abgesehen, es waere nett wenn jemand mit einer GF2/3/4 als Beispiel hier helfen koennte; uebrigens ganz so nebenbei so gut lief SS:SE bis jetzt noch nicht. Ein paar kleine "hickups" machte das Spiel in der Vergangenheit schon, aber ich dachte dass sich wohl keiner mehr ueber ein so altes Spiel schert (merkwuerdiges Verhalten bei Spiel-parameter Aenderungen, verpfutschtes gamma im game menu usw.).

Raff
2005-04-19, 11:21:57
Besser? Nein, die üblen Artefakte sind IMHO nicht wirklich schöner als die Raster ... denn denen kann man wenigstens mit einer höheren Auflösung beikommen. Das Bunt-Gewische des Ditherings sieht wirklich übel aus ... wenn beispielsweise in 32 Bit grauer Rauch plötzlich leuchtend grün-lila ist. :|

Ich hab' übrigens bei meinen Tests mit Serious Sam 2nd Encounter keine Probleme feststellen können -- aber ich nutzte bisher noch keinen OGL2.0-Treiber. Eventuell hängen die Probleme damit zusammen ... Riddick zeigte, wie man es nicht machen sollte ...

MfG,
Raff

Gast
2005-04-19, 13:04:12
... Riddick zeigte, wie man es nicht machen sollte ...


riddick läuft aber sehr gut mit dem ogl2.0-treiber (rund 10% schneller als mit dem alten), es startet nur standardmäßig nicht, weil der gl-string falsch interpretiert wird.

Mr. Lolman
2005-04-22, 18:55:05
Besser? Nein, die üblen Artefakte sind IMHO nicht wirklich schöner als die Raster ...

Imo ein Missverständnis, deswegen hab ich im anderen Thread nochmal alle Bilder gepostet: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=2938323#post2938323