PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wozu 32bit Farbtiefe am Desktop und in Games?


Blumentopf
2004-05-25, 14:43:25
Hallo,

Nicht das ich einen leistungsarmen Uralt-Pc habe, dennoch ist bei mir alles auf 16bit (auch in games), weil ich eigentlich keinen Unterschied erkenne was die Farbtiefe angeht.
Weiß aber das ich so Prozessorpower spare womit ich meine 400Euro-Karte füttern kann.
Gibts eigentlich irgendeinen guten Grund für 32bit Farbtiefe?

R300
2004-05-25, 14:45:57
Erstens spart 16Bit nicht CPU sondern Graka Power (nur bei alten Grakas)
Und zweitens sieht 16 Bit zum kotzen aus.
Diesen gewaltigen Unterschied muss jeder sehen!

McEric
2004-05-25, 14:47:35
Den unterscheid sieht man sehr wohl, es sei denn du hast nen alten unscharfen monitor. kommt übrigens auch aufs spiel an, bei hl1 oder q3 ist der unterschied nur schwer zu erkennen. ausserdem können artifakte auftauchen wenn du auf 16bit laufen lässt.
also deine 400euro-karte wird sich garantiert nicht überanstrengen ;)

R300
2004-05-25, 14:56:13
Außerdem ist 32Bit mit den neuesten Grakas schneller als 16Bit.
Ich habe es mit 3DMark 01 getestet.

Aquaschaf
2004-05-25, 15:13:58
Auf 16Bit zu schalten bringt schon ab Radeon oder Geforce 3 nicht mehr viel Performance, und bei neueren Grafikkarten gar nichts mehr.

R300
2004-05-25, 15:17:10
Schalte mal dein Desktop auf 32Bit und guck dir die Bilder an.
Fällt dir was auf? (außer, dass der Dampf nicht an der exakt gleichen Stelle ist.)
http://img13.imageshack.us/img13/6840/Shot1.jpg
http://img12.imageshack.us/img12/8955/Shot2.jpg

Blumentopf
2004-05-25, 15:21:08
OK werd ich ausprobieren, sobald ich dazu komm.
Danke für die Hinweise.

HellHorse
2004-05-25, 19:37:20
Original geschrieben von McEric
q3 ist der unterschied nur schwer zu erkennen.
Bei Q3A ist er offensichtlich.
Q3A ist eines der ersten Games, die von Anfang auf 32bit ausgelegt wurden.

DasToem
2004-05-25, 19:57:27
Original geschrieben von R300
Schalte mal dein Desktop auf 32Bit und guck dir die Bilder an.
Fällt dir was auf? (außer, dass der Dampf nicht an der exakt gleichen Stelle ist.)
http://img13.imageshack.us/img13/6840/Shot1.jpg
http://img12.imageshack.us/img12/8955/Shot2.jpg

Typische Dithering-Artefakte. Erinnert mich irgendwie an meine alte Riva128, die hatte wenigstens noch ne ordentliche BQ. :D

Blumentopf
2004-05-26, 08:05:11
Hab jetzt alles auf 32bit umgestellt. Farben sind noch besser und noch deutlicher. Betonung auf noch.
Mit meinem Sony TFT war nämlich UT2004 schon auf 16bit atemberaubend, ;D ;D ;D konnte mir also ein Steigerung kaum vorstellen. :bäh:

Zool
2004-05-26, 12:27:12
Bei 16Bit hat man nur 5bit pro Farbstufe. Da macht gerade mal 32 verschiedene Farbtöne aus. Viel zu wenig für das menschliche Auge. Bei 24/32Bit sind es immerhin schon 8Bit pro Farbkanal.

Showtime
2004-05-26, 13:34:24
Den Unterschied zwischen 16 und 32Bit merke ich sofort. 16Bit könnten die Entwickler neuerer Spiele eigentlich langsam auch ganz fallen lassen. Seit der GF2 macht es doch kaum noch einen Unterschied in der Performance, ob man auf 16 oder 32 spielt. In der Bildqualität allerdings schon. Daher: Weg mit 16Bit in Spielen! :D
Was bringt denn eigentlich 64Bit später? Wieder nur "mehr Farben" (vereinfacht ausgedrückt) oder auch noch irgendwas anderes?

BUG
2004-05-26, 14:07:15
..16 Bit weg fallen lassen? ..das ist imho keine gute Idee, bei meinem Laptop mit GF4MX420go ist 16 Bit die einzige Möglichkeit noch akzeptabel FPS raten in neueren Games zu erreichen. Mich kotzt es schon an, dass man bei Stunde Null oder Generäle nur in 32Bit zocken kann. Ich habe keinen Bock meinen großen PC inkl Monitor immer mit zum Kumpel oder LAN zu schleppen.

cu
BUG

q@w
2004-05-26, 14:27:41
Daß es bei manchen TFTs nicht auffällt, wundert mich nur wenig. Ich weiß zwar nicht, wie es bei deinem Sony ist, aber etliche, gerade Notebook-TFTs lösen nichtmal mit vollen 24Bit Farben auf - da können Unterschiede schonmal verwässern.

;Q

CrazyIvan
2004-05-26, 14:39:41
Original geschrieben von Showtime
Was bringt denn eigentlich 64Bit später? Wieder nur "mehr Farben" (vereinfacht ausgedrückt) oder auch noch irgendwas anderes?

64 bit Farben? Holy Shit!
Die derzeitigen 32 bit setzen sich wie folgt zusammen. 24 bit für Farben (2^24 = 16,77 Mio Farben) und 8 bit für Transparenz (2^8 = 256 Abstufungen). Wenn man für Transparenz 16 bit nutzen würde (65536 Abstufungen), dann blieben noch 48 bit für Farben übrig - macht 281 Billionen Farben ;D
Könnte mir vielleicht noch 16bit für Transparenz vorstellen - obwohl ich net weiß, ob das was bringen würde. Aber mehr als 24bit Farben pro Pixel wird wohl so schnell kein Mensch brauchen.

BlackArchon
2004-05-26, 17:30:26
Zum Thema 64 Bit Rendering gibts auch einen Artikel hier bei 3dcenter: http://www.3dcenter.de/artikel/2001/07-26a.php

Aquaschaf
2004-05-26, 18:58:13
Intern wird ja schon lange mit mehr als 32Bit gerechnet, für mehr als 32Bit Endauflösung bräuchte es aber Monitore die das können ;)

superdash
2004-05-27, 11:57:57
Wer den o.g. Artikel ließt dürfte sehr schnell sehen, dass 64Bit bei manchen Dingen durchaus sinnvoll ist.

Für die reine Darstellung würde 32Bit reichen, aber zum Berechnen z.B. beim Überlagern von Texturen sind 64Bit genauer. Bei 32Bit können teilweise Falschfarben entstehen usw.

Aber der Artikel klärt die Frage am Besten.

MfG

Superdash

Wishnu
2004-05-27, 12:56:56
Bei 16Bit hängt viel von der Qualität des Ditherings ab.
Bei Nvidia-Karten sah' das immer ziemlich beschissen aus, bei den Voodoo-Karten hingegen kaum schlechter als 32Bit.

GloomY
2004-05-27, 14:30:43
Original geschrieben von CrazyIvan
64 bit Farben? Holy Shit!
Die derzeitigen 32 bit setzen sich wie folgt zusammen. 24 bit für Farben (2^24 = 16,77 Mio Farben) und 8 bit für Transparenz (2^8 = 256 Abstufungen). Wenn man für Transparenz 16 bit nutzen würde (65536 Abstufungen), dann blieben noch 48 bit für Farben übrig - macht 281 Billionen Farben ;D
Könnte mir vielleicht noch 16bit für Transparenz vorstellen - obwohl ich net weiß, ob das was bringen würde. Aber mehr als 24bit Farben pro Pixel wird wohl so schnell kein Mensch brauchen. Es geht ja auch viel mehr um die interne Präzision als die des Framebuffers.
Original geschrieben von Wishnu
Bei 16Bit hängt viel von der Qualität des Ditherings ab.
Bei Nvidia-Karten sah' das immer ziemlich beschissen aus, bei den Voodoo-Karten hingegen kaum schlechter als 32Bit. ...und bei den Kyros wird nur ein einziges Mal beim abschließenden Schreiben in den FB gedithert, da intern selbst mit 16 Bit FB alles mit 32 Bit gerendert wird. :)

CrazyIvan
2004-05-27, 14:48:27
@ Gloomy

Achso.
Ich hatte Showtime eher so verstanden, als dass er von der tatsächlich ausgegebenen Farbtiefe redete. Und da sehe ich nicht wirklich nen Sinn für >32 bit.

Lotus
2004-05-27, 14:50:33
Original geschrieben von Wishnu
Bei 16Bit hängt viel von der Qualität des Ditherings ab.
Bei Nvidia-Karten sah' das immer ziemlich beschissen aus, bei den Voodoo-Karten hingegen kaum schlechter als 32Bit.

jup, die Voodoos hatten(bzw haben) eine sehr gute 16bit Quali.

Ich kenne allerdings auch Leute die keinen unterschied zw 16/32bit sehen ;) und das auf einer GF2(oder ATIs aus jener Zeit) die ja eine grottige 16bit-Darstellung haben.

marco42
2004-05-27, 17:08:12
Original geschrieben von Blumentopf
Hab jetzt alles auf 32bit umgestellt. Farben sind noch besser und noch deutlicher. Betonung auf noch.
Mit meinem Sony TFT war nämlich UT2004 schon auf 16bit atemberaubend, ;D ;D ;D konnte mir also ein Steigerung kaum vorstellen. :bäh:

Kann es sein, das dein TFT nur 15 bit ist? Sind viele TFT's.

ow
2004-05-27, 17:24:06
.

R300
2004-05-27, 17:30:45
Original geschrieben von ow
Voodoo Karten koennen kein 32Bit.
Das Dithering auf NVidia Karten zaehlt mit zum Besten was es gibt (praktisch kein Colorbanding, keine stoerenden Ditehring-Artefakte).

:lolaway:
Ich hatte mal irgendwo ein 16Bit Vergleich zwischen Kyro2 und GF2 gesehen.
Und ich muss sagen, die Qualität der GF2 ist einfach zum kotzen.

Edit:http://www.rivastation.com/go.htm?http://www.rivastation.com/review/3dprophet_4500/3dprophet_4500_5.htm

Praktisch kein Colorbanding?

ow
2004-05-27, 17:40:54
.

R300
2004-05-27, 17:45:29
Ich habe auch ne Kyro Karte und ne Geforce 2 habe ich bei einem Kumpel gesehen. Ich weiß auch wovon ich rede.

Mal sehen, vielleicht werde ich die Kyro wieder einbauen und ein paar Screenshots machen.

GloomY
2004-05-27, 20:06:31
Original geschrieben von ow
Voodoo Karten koennen kein 32Bit.Und was ist mit Voodoo4 und 5? :???:
Original geschrieben von ow
Das Dithering auf NVidia Karten zaehlt mit zum Besten was es gibt (praktisch kein Colorbanding, keine stoerenden Ditehring-Artefakte). Naja, ich würde auch eher sagen, dass das Wunschdenken ist.

Vedek Bareil
2004-05-27, 20:11:49
Original geschrieben von Aquaschaf
Intern wird ja schon lange mit mehr als 32Bit gerechnet, für mehr als 32Bit Endauflösung bräuchte es aber Monitore die das können ;) oh, die gibt's. Sogar schon sehr lange. So ziemlich jeder Röhrenmonitor (vorausgesetzt er ist nicht schwarz-weiß) hat nämlich eine theoretisch unbegrenzt hohe Farbauflösung, da er eine analoge Bilderzeugungstechnik verwendet. Die Farbintensität auf jedem der drei Kanäle wird durch die Intensität des Elektronenstrahls festgelegt, und die kann sich kontinuierlich ändern :)

Darum hat es z.B. auch nie eine Unterscheidung zwischen 8-, 16- und 24-bit-Farbmonitoren gegeben.

PhoenixFG
2004-05-27, 22:25:54
Zurück zum Thema.

Was solln eigentlich 32bit auf dem Desktop bringen. Dort werden doch 8bit für Alpha nicht gebraucht, oder?
Schaltet WinXP die Transparenzeffekte ab, wenn man auf 24bit reduziert?

MfG

Wishnu
2004-05-28, 01:57:21
Original geschrieben von ow

Das Dithering auf NVidia Karten zaehlt mit zum Besten was es gibt (praktisch kein Colorbanding, keine stoerenden Ditehring-Artefakte).

Ka wie es heute um Nvidias 16Bit-Quali steht, aber damals war der Unterschied schon sehr deutlich sichtbar.

Showtime
2004-05-28, 03:19:06
Original geschrieben von CrazyIvan
@ Gloomy

Achso.
Ich hatte Showtime eher so verstanden, als dass er von der tatsächlich ausgegebenen Farbtiefe redete. Und da sehe ich nicht wirklich nen Sinn für >32 bit.

Da hast du mich auch richtig verstanden. Ich sehe zwar auch (noch, man weiß ja nie was die Zukunft bringt ;))keinen Sinn darin, aber ich dachte mir, dass ich vielleicht irgendwas wichtiges übersehen habe, deswegen hab ich gefragt.

ow
2004-05-28, 10:27:37
.

iltis2k
2004-05-28, 11:28:07
Gibt es eingtlich eine Möglichkeit die 24bit für den Desktop freizuschalten?
Weil ich benutze die ganze Effekte von Windows so wie so nicht. Auch wenn es von der Leistung her nicht viel ausmacht, würde es mich mal interessieren.
Seit meiner Matrox Mystique 220 hatte ich diese Möglichkeit nie wieder.

Xmas
2004-05-28, 11:59:17
24Bit-Modi wurden früher von den Karten nur zur Speicherplatzersparnis verwendet, sie waren meist langsamer als 32Bit-Modi. Die Windows-Transparenzeffekte werden dadurch nicht abgeschaltet.

Original geschrieben von CrazyIvan
Könnte mir vielleicht noch 16bit für Transparenz vorstellen - obwohl ich net weiß, ob das was bringen würde. Aber mehr als 24bit Farben pro Pixel wird wohl so schnell kein Mensch brauchen.
8 Bit pro Farbkanal ist bei weitem noch zu wenig, um dem Auge völlige Stufenlosigkeit vorzugaukeln.

Mit analoger Technik hat man eine praktisch unbegrenzte Farbauflösung, und selbst DVI sieht schon einen Modus mit 16 Bit pro Kanal vor (auch wenn das wohl noch kaum ein Gerät unterstützt).

Die direkte Ausgabe eines 16Bit/Kanal Framebuffers hat durchaus ihre Vorteile. Die Wildcat Realizm von 3DLabs ist die erste Karte die das können wird (FP16).

aths
2004-05-28, 15:27:34
Original geschrieben von ow
Hat sich nicht geaendert. Alle Firmen nutzen immer noch diselben Dithering Muster.Bei ATI gab es da eine Entwicklung.

Original geschrieben von ow
Bei Dithering muss immer ein Kompromiss zwischen Colorbanding uns Ditheringartefakten gefunden werden.

Dies ist NV sehr gut gelungen. Sehe ich anders, ehrlich gesagt. Zuletzt sah ich 16 Bit auf der Ti 4600 – das fand ich grausig.
Original geschrieben von ow
Bei 3dfx kannst du waehlen zwischen starkem Colorbanding mit geringeren Ditheringartefakten oder eben starken Artefakten bei geringerem Colorbanding. Beides imo nicht optimal.Bei 3dfx kann man das Dithering an- oder abschalten. Mit Dithering finde ich es spürbar besser als bei NV.
Original geschrieben von ow
Das ATi Dithering nutzt mir ein etwas zu grobes Muster ist ansonsten aber ok.Zumindest einige Radeons unterstützen auch eine Art Error Diffusion, was manchmal ganz gute Ergebnisse liefert. Die Rage ditherte allerdings grauenvoll schlecht.

aths
2004-05-28, 15:29:43
Original geschrieben von BlackArchon
Zum Thema 64 Bit Rendering gibts auch einen Artikel hier bei 3dcenter: http://www.3dcenter.de/artikel/2001/07-26a.php Diesen Artikel bitte nicht mehr sonderlich ernst nehmen.

aths
2004-05-28, 15:31:15
Original geschrieben von CrazyIvan
64 bit Farben? Holy Shit!
Die derzeitigen 32 bit setzen sich wie folgt zusammen. 24 bit für Farben (2^24 = 16,77 Mio Farben) und 8 bit für Transparenz (2^8 = 256 Abstufungen). Wenn man für Transparenz 16 bit nutzen würde (65536 Abstufungen), dann blieben noch 48 bit für Farben übrig - macht 281 Billionen Farben ;D
Könnte mir vielleicht noch 16bit für Transparenz vorstellen - obwohl ich net weiß, ob das was bringen würde. Aber mehr als 24bit Farben pro Pixel wird wohl so schnell kein Mensch brauchen. Also ... bei 16 Bit pro Farbkanal hätte man ca. 30000 Werte dunkler als schwarz (nicht darstellbar) und ca. 15000 Werte heller als weiß (auch nicht darstellbar.) Effektiv wären das ca. 15000 darstellbare Stufen pro Kanal. Das sind noch immer deutlich mehr als die 256 Stufen bei 8 Bit.

DrumDub
2004-05-28, 15:41:46
Original geschrieben von aths
Bei 3dfx kann man das Dithering an- oder abschalten. Mit Dithering finde ich es spürbar besser als bei NV.


der 22bit-postfilter war wohl das beste, was ich je an 16bit-ausgabe gesehen habe. auch wenn dieser modus natürlich nie an 32bit rangereicht hat (gerade was nebel, rauch etc. angeht, besonders aufgefallen ist es mir das bei nfs:pu), auch wenn ich das damals als 3dfx-jünger nicht wahrhaben wollte. :)

Aquaschaf
2004-05-28, 16:37:43
Der grüne Rauch hat mich bei NFS Porsche bei meiner Voodoo 3 auch immer geärgert :(

Fusion_Power
2004-05-28, 21:59:18
Ich hab ne Geforce 3 Daran stört mich nur dieses Color-Banding, dieser beschissene NVidia-Bug weil die komprimierte Texturen nur mit 16 Bit Genauigkeit dekomprimieren - oder so Auch in 32 Bit. UT2004 sieht teilweise fast wie 16-Bit aus da ändert auch das Texturdetail wenig. Jk2 Jedi Academy sieht komischerweise Saugeil aus, AUCH der Himmel TROTZ Q3A Engine. Ham die gut hinbekommen.
Daher schwöre ich auf 32 BIT (Bloß mein Megadrive Emulator will nen 16-Bit Desktop haben :D )

Darkstar
2004-05-28, 22:02:55
Original geschrieben von Vedek Bareil
So ziemlich jeder Röhrenmonitor (vorausgesetzt er ist nicht schwarz-weiß) hat nämlich eine theoretisch unbegrenzt hohe Farbauflösung, da er eine analoge Bilderzeugungstechnik verwendet.Nein, die Anzahl der darstellbaren Farben ist vom verwendeten Material der Leuchtschicht (Phosphor) abhängig. Mit dem Kathodenstrahl beeinflußt man nur die Helligkeit und das Mischungsverhältnis der Farben Rot, Grün und Blau. Wie sehr z. B. ein Rot rot ist, hängt dabei eben vom Material ab.

RGB-Laser haben beispielsweise einen erheblich größeren Farbraum als Röhrenmonitore (Link (http://www.zeiss.de/de/planetarium/home.nsf/0/c681bc008c402a14c1256c3d0048aecc?OpenDocument)). Wie man sieht, ist dieser auch nicht „unbegrenzt“.

Gast
2004-05-29, 15:07:31
Nur nochmal zur Info. Bei 32-Bit hat man 8-Bit pro Farbkanal. Das sind lediglich 256 Graustufen. Diese sind auf einem Monitor klar zu unterscheiden. 256 Stufen sind wenig!

64-Bit in Spielen, dienen zur Farbgenauigkeit und werden nach der fertigen Bildberechnung auf 32-Bit "runtergerechnet".

Siehe hier:

http://www.unrealtechnology.com/html/technology/ue30.shtml

The_Invisible
2004-05-29, 17:37:35
Also Desktop habe ich schon sei Savage4 auf 32bit laufen, man sieht zwar nicht immer einen unterschied, aber er ist da, und bei aktuellen grakas macht das garnix mehr

btw mein nokia 6600 mit 16bit sieht eigentlich bei webbrowsen auch sehr gut aus, nur manche bilder könnten mehr farben vertragen (vor allem bei feinen abstufungen der gleichen farbe)

mfg *****

Vedek Bareil
2004-05-29, 20:30:22
Original geschrieben von Darkstar
Nein, die Anzahl der darstellbaren Farben ist vom verwendeten Material der Leuchtschicht (Phosphor) abhängig. Mit dem Kathodenstrahl beeinflußt man nur die Helligkeit und das Mischungsverhältnis der Farben Rot, Grün und Blau. Wie sehr z. B. ein Rot rot ist, hängt dabei eben vom Material ab.

RGB-Laser haben beispielsweise einen erheblich größeren Farbraum als Röhrenmonitore (Link (http://www.zeiss.de/de/planetarium/home.nsf/0/c681bc008c402a14c1256c3d0048aecc?OpenDocument)). Wie man sieht, ist dieser auch nicht „unbegrenzt“. hm, ich glaube du hast die Bedeutung des Terminus "unbegrenzt hohe Farbauflösung" mißverstanden. Damit ist nicht gemeint, daß der Farbraum unbegrenzt ist, sondern daß die Punkte, aus denen er besteht, ein Kontinuum bilden.
Bei einer digitalen Bilderzeugungstechnik hingegen, mit einer begrenzten Farbauflösung von z.B. 16 oder 32 Bit, besteht der Farbraum nur aus einer diskreten Menge von Punkten, d.h. zwei Punkte können einen bestimmten Mindestabstand voneinander nicht unterschreiten und das RGB-Mischungsverhältnis kann nur in diskreten Stufen verändert werden.

Analogie: die Menge der reellen Zahlen zwischen 0 und 1 ist auch begrenzt, eben weil sie keine Zahlen außerhalb von [0,1] enthält, dennoch gehören ihr unbegrenzt viele Elemente an, weil die reellen Zahlen ein Kontinuum bilden. Die Menge der natürlichen Zahlen zwischen 0 und 65536 dagegen ist diskret.

Vedek Bareil
2004-05-29, 20:37:43
Original geschrieben von aths
Also ... bei 16 Bit pro Farbkanal hätte man ca. 30000 Werte dunkler als schwarz (nicht darstellbar) und ca. 15000 Werte heller als weiß (auch nicht darstellbar.) öh... wieso denn das?
Bei 16 Bit pro Kanal sollte doch schwarz definiert sein als 16 Nullbits auf jedem Kanal und weiß als 16 Einserbits auf jedem Kanal?
Wieso gibt's dann Werte dunkler als schwarz oder heller als weiß?

aths
2004-05-29, 23:11:28
Original geschrieben von Vedek Bareil
öh... wieso denn das?
Bei 16 Bit pro Kanal sollte doch schwarz definiert sein als 16 Nullbits auf jedem Kanal und weiß als 16 Einserbits auf jedem Kanal?
Wieso gibt's dann Werte dunkler als schwarz oder heller als weiß? Bei FP16 gibt es das.