PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 16 Bit vs. 32 Bit Farbtiefe


SteelyDan
2003-08-26, 12:12:14
Hallo,

gibt es Eurer Meinung nach eigentlich einen erkennbaren Unterschied zwischen 16 und 32 Bit Farbtiefe bei Spielen? Überall wird heutzutage mit 32 gebencht etc., aber niemand erwähnt, dass dies deutlich höhere Forderungen an die Hardware stellt.

Eine vielleicht dumme (weil selbstbeantwortende) Frage noch: Bringt 32 Bit Farbtiefe bei einem TFT Bildschirm eigentlich überhaupt etwas, da diese ja nur 16 Bit darstellen können?

Gruss
SteelyDan

PS: Warum ist eigentlich die Suchfunktion seit Taaagen deaktiviert?!

Terra-rsl@Work
2003-08-26, 12:15:46
Original geschrieben von SteelyDan
Eine vielleicht dumme (weil selbstbeantwortende) Frage noch: Bringt 32 Bit Farbtiefe bei einem TFT Bildschirm eigentlich überhaupt etwas, da diese ja nur 16 Bit darstellen können?


Wer hat dir den den Mist erzählt das ein TFT bloß 16 bit Farbtiefe hätte, selbst 2 Jahre alte TFT`s beherrschen 16,7 mio Farben und das entspricht genau 32 bit Farbtiefe.

mfg

JFZ
2003-08-26, 12:21:36
Original geschrieben von Terra-rsl@Work
Wer hat dir den den Mist erzählt das ein TFT bloß 16 bit Farbtiefe hätte, selbst 2 Jahre alte TFT`s beherrschen 16,7 mio Farben und das entspricht genau 32 bit Farbtiefe.

mfg

genauer gesagt sind das nur 24Bit Farbtiefe...die restliche 8 Bit werden für Alpha-Daten und Transparenzen genutzt...

ich habe bis vor zwei Jahren alles mit 16Bit gezockt, Voodoo3 sei dank, die konnte nicht mehr. Dann hatte ich ne neue GraKA und mal probeweise auf 32Bit geschaltet. Der Unterschied in Ultima 9 war gigantisch und seitdem rühre ich keine 16Bit-Farbtiefe mehr an, sofern 32 unterstützt werden.

Ausserdem sind derzeit eh alle GraKas auf 32Bit optimiert...das runterschalten auf 16Bit bringt lange ncith mehr so viel Leistung, wie noch vor 3 Jahren.

Ps: Suchfunktion wegen Forumsproblemen deaktiviert...

Aquaschaf
2003-08-26, 12:36:33
imo stellt sich die Frage gar nicht mehr, zwischen 16 und 32bit sind sehr große Unterschiede sichtbar, und wie gesagt bringt es heute kaum Performance auf 16bit herunterzuschalten.

mapel110
2003-08-26, 13:09:56
ati treiber forcen afaik sogar opengl games in den 32 bit mode, wenn AA hinzugeschaltet wird.
oder hab ich da was falsch verstanden?

Iceman346
2003-08-26, 13:51:18
In 16bit würde ich heutzutage nichts mehr spielen. Einerseits ist der Leistungsgewinn bei modernen Grafikkarten praktisch nicht mehr vorhanden, andererseits sehen Transparenzeffekte unter 16bit einfach hässlich aus.

Gast
2003-08-26, 13:57:50
bei gta 3 bzw. vice city merkt man kaum ein unterschied zw. 16 und 32 bit ;)

roman
2003-08-26, 14:03:00
man sieht sehr wohl einen unterschied, zB bei rauch, himmel oder allgemein "sanften" farbübergängen entsteht colorbanding - sieht nicht schön aus.

moderne grafikkarten ab geforce1-klasse haben einen minimalen bis nicht vorhandenen leistungsverlust durch 32bit-farbtiefe - und der wird durch das plus an BQ mehr als aufgehoben.

mapel110
2003-08-26, 14:34:12
Original geschrieben von Romanski
man sieht sehr wohl einen unterschied, zB bei rauch, himmel oder allgemein "sanften" farbübergängen entsteht colorbanding - sieht nicht schön aus.

moderne grafikkarten ab geforce1-klasse haben einen minimalen bis nicht vorhandenen leistungsverlust durch 32bit-farbtiefe - und der wird durch das plus an BQ mehr als aufgehoben.

oh, bis einschliesslich geforce2ultra haben alle 3d-beschleuniger (ausnahme zb kyro-chip) speedmässig von 16bit enorm profitiert.

/edit
okay, bis einschliesslich geforce2 gts. die pro und ultra waren dann doch ähnlich flott in 32bit wie in 16bit.

StefanV
2003-08-26, 14:47:17
Original geschrieben von mapel110
ati treiber forcen afaik sogar opengl games in den 32 bit mode, wenn AA hinzugeschaltet wird.
oder hab ich da was falsch verstanden?

Nee, hast du nicht, da ATI nicht wirklich was anderes übrig ´geblieben ist, um FSAA nutzbar zu machen...

Exxtreme
2003-08-26, 14:52:38
Original geschrieben von mapel110
ati treiber forcen afaik sogar opengl games in den 32 bit mode, wenn AA hinzugeschaltet wird.
oder hab ich da was falsch verstanden?
AFAIK trifft das auf OpenGL-Games nicht zu. Unter OpenGL hat man nämlich normalerweise immer die Möglichkeit auf 32-Bit zu schalten.

mapel110
2003-08-26, 17:00:06
Original geschrieben von Stefan Payne
Nee, hast du nicht, da ATI nicht wirklich was anderes übrig ´geblieben ist, um FSAA nutzbar zu machen...

wer sagt denn, dass sie das nicht von anfang an so geplant hatten?!

Manni2210
2003-08-26, 18:50:20
Man sieht da schon nen Unterschied. Ich hab den Wechsel zwar nur "zwangsweise" mitgemacht als ich von Voodoo 2 (kann kein 32 Bit) auf Kyro 2 (unter 32 Bit genauso schnell wie unter 16) aufgerüstet hab, aber seitdem zock ich nur noch mit 32. Und bei den aktuellen Karten ist der Leistungsunterschied eh nicht mehr so gross wie früher.

[Bi]n ein Hoeness
2003-08-26, 19:19:38
ich zock in 32bit weil ich zur zeit die leistung noch über habe
allerdings glaube ich, dass ich beim zocken nicht sagen könnte ob ich jetzt in 16 oder in 32bit zocke und deshalb werde ich sobald es mit der performance wieder kritisch wird einfach wieder auf 16bit umschalten

0711
2003-08-26, 19:22:59
Original geschrieben von [Bi]n ein Hoeness
ich zock in 32bit weil ich zur zeit die leistung noch über habe
allerdings glaube ich, dass ich beim zocken nicht sagen könnte ob ich jetzt in 16 oder in 32bit zocke und deshalb werde ich sobald es mit der performance wieder kritisch wird einfach wieder auf 16bit umschalten wie schon paarmal gesagt, bei modernen grakas bringt es sehr wenig perfomance....bei atis noch weniger ;D

also ich merks in der regel wenn nur 16bit da sind

[Bi]n ein Hoeness
2003-08-26, 19:25:06
ist schon klar, dass das nicht viel bringt, aber es kann reichen um nen spiel das im kritischen performancebereich liegt irgendwie halbwegs flüssig zum laufen zu bringen

mapel110
2003-08-26, 19:29:00
Original geschrieben von [Bi]n ein Hoeness
ist schon klar, dass das nicht viel bringt, aber es kann reichen um nen spiel das im kritischen performancebereich liegt irgendwie halbwegs flüssig zum laufen zu bringen

also ich würde eher in 800x600 zocken, als mir nochmal 16 bit anzutun.

btw es gibt schon etliche spiele, die garkeinen 16bit modus mehr kennen.

/edit
http://www.digit-life.com/articles2/digest3d/0701i-video-2athlon.html
mal ein paar benchmarkergebnisse.

Colin MacLaren
2003-08-27, 00:24:23
Dank des guten Ditherings auf den Voodoos merkte man damals keinen Unterschied zwischen 16- und 32-Bit, da war es nur eine Marketingmasche von NVIDIA. Kann man das heute auf modernen Karten eigentlich immer noch zuschalten. Damit dürfte 16-Bit zumindest ansatzweise noch Sinn ergeben.

SteelyDan
2003-08-27, 00:33:58
Hallo zusammen,

vielen Dank für die aufschlussreichen Antworten. Nun habe auch ich gemerkt, dass Vice City in 32 Bit genau so schnell läuft wie in 16 (Radeon 9500 Pro), auch wenn ich kaum einen Quali-Unterschied sehe. Da muss ich wohl sehr alte Benches im Kopf gehabt haben...

Passt auf
SteelyDan

Aquaschaf
2003-08-27, 00:39:47
Doch, den Unterschied kann/konnte man sehr wohl merken, eben bei allen Arten von Transparenzeffekten. Auch unter 3DFX 16bit kann man da grüne und pinke Ditheringartefakte sehen, und eben das auch schon angesprochene Colorbanding.
Und warum 16bit mit Dithering wenn 32bit trotzdem besser aussieht?

Und wie gesagt, bei allen Karten >= Geforce 3 bringts keinen spürbaren Performancegewinn.