Archiv verlassen und diese Seite im Standarddesign anzeigen : 64 Bit Farbtiefe
Wie kann man auf 64 Bit Farbtiefe umstellen? Bei mir steht nur 16 bit und 32 bit zur Auswahl? Gibt es da einen Trick oder brauch man dafür eine spezielle Grafikkarte?
mapel110
2006-09-27, 12:48:59
Es gibt bei Grafikkarten derzeit noch keine 64bit Farbtiefe und die wirds wohl auch nie geben. 64bit Farbtiefe wird zur Darstellung einfach nicht benötigt.
jorge42
2006-09-27, 12:50:53
64 bit farbtiefe muss du in der cpu einstellen. alternativ kannst du auch zwei 32 bit cpus aufeinander in den sockel schieben. dann kann deine grafikarte auch 18*10^18 farben darstellen.:|
Don Vito
2006-09-27, 13:00:46
64 bit farbtiefe muss du in der cpu einstellen. alternativ kannst du auch zwei 32 bit cpus aufeinander in den sockel schieben. dann kann deine grafikarte auch 18*10^18 farben darstellen.:|
aber vbergiss nicht die WLP zwischen den beiden CPUs;D
JK_MoTs
2006-09-27, 14:58:18
64 bit farbtiefe muss du in der cpu einstellen. alternativ kannst du auch zwei 32 bit cpus aufeinander in den sockel schieben. dann kann deine grafikarte auch 18*10^18 farben darstellen.:|
Das erinnert mich irgendwie daran ---> klick (http://geileteile.net/uploads/krank/drehmomentschluessel.jpg)
*sorry for OT*
Nein, es gibt in der Tat noch keine 64bit Farbtiefe.
Aber war da nicht mal was in Planung von den großen 3D-Hardwareschmieden? :| Oder irre ich da...?
Wie kann man auf 64 Bit Farbtiefe umstellen? Bei mir steht nur 16 bit und 32 bit zur Auswahl? Gibt es da einen Trick oder brauch man dafür eine spezielle Grafikkarte?64 Bit Farbtiefe gibt es eh nicht, höchstens 48 Bit Farbtiefe. Zu internen Berechnungen wird auch inzwischen mit mindestens 48 Bit Tiefe gerechnet, oft sogar noch feiner aufgelöst. Die Ausgabe ist derzeit auf 24 Bit begrenzt, obwohl einige Chips (u. a. Radeon-Karten) auch echte 30 Bit Farbe können.
Spasstiger
2006-09-27, 17:59:21
Was die unterscheidbaren Farben angeht, liefert 24 Bit schon ein Ergebniss, was die Sehfähigkeit des Menschen übersteigt. Lediglich bei der darstellbaren Dynamik (Helligkeitsunterschiede) gibt es noch Einschränkungen. Allerdings wäre ein Monitor, der den vollen Dynamikumfang des menschlichen Sehvermögens darstellen könnte, alles andere als ergonomisch. Oder wie fändet ihr es, wenn ihr in einem stockdunklen Raum wärt und urplötzlich die Sonne direkt in euer Auge scheinen würde? ;)
Und für die Darstellung der höheren Dynamik würden auch schon etwa zusätzliche 20 Bit reichen.
Mit 44 Bit Farbtiefe + Dynamikumfang könnte man also das menschliche Auge vollkommen ausreizen. Aus Gründen der Ergonomie ist aber eine Ausgabe in 24 Bit sinnvoller. Die Dynamik kann man durch Tonemapping auch in diesen Bereich reinquetschen, genau das geschieht ja auch bei den gängigen HDR-Implementierungen.
Monger
2006-09-27, 18:08:50
Möglich, dass man irgendwann mal ein etwas anderes Farbschema verwendet, was ein paar Bits mehr verwendet. Aber wenn man sie klever verteilt und einsetzt, sind 4 Milliarden Farbtöne schon eine Menge Holz. Da müsste sich erstmal die Hardware (also: Monitor) dramatisch weiterentwickeln, damit man solch extrem feine Unterschiede noch überhaupt wahrnehmen kann.
Aber ich denke schon, dass das menschliche Auge mehr als 4 Milliarden Farben unterscheiden kann - aber wohl nicht wesentlich mehr.
Spasstiger
2006-09-27, 18:23:51
Möglich, dass man irgendwann mal ein etwas anderes Farbschema verwendet, was ein paar Bits mehr verwendet. Aber wenn man sie klever verteilt und einsetzt, sind 4 Milliarden Farbtöne schon eine Menge Holz. Da müsste sich erstmal die Hardware (also: Monitor) dramatisch weiterentwickeln, damit man solch extrem feine Unterschiede noch überhaupt wahrnehmen kann.
Aber ich denke schon, dass das menschliche Auge mehr als 4 Milliarden Farben unterscheiden kann - aber wohl nicht wesentlich mehr.
24 Bit entsprechen 16 Millionen Farben. Der Mensch kann etwa 500.000 Farben unterscheiden, wobei nicht alle Farbtöne gleich gut aufgelöst werden können. Aber mit 8 Bit je Farbkanal liegt man schon ziemlich am Optimum.
PatkIllA
2006-09-27, 18:26:53
Bei den RGB Monitoren geht ja auch unter, dass der Mensch Helligkeiten deutlich besser unterscheiden kann.
Die 256 Graustufen sind da schon ziemlich knapp.
Monger
2006-09-27, 20:43:08
24 Bit entsprechen 16 Millionen Farben. Der Mensch kann etwa 500.000 Farben unterscheiden, wobei nicht alle Farbtöne gleich gut aufgelöst werden können. Aber mit 8 Bit je Farbkanal liegt man schon ziemlich am Optimum.
Quelle? 500000 scheint mir einfach zu wenig. Denk dir einfach mal eine weiße Tapete - und wie facettenreiche Schattenwürfe die je nach Beleuchtungsstärke (und natürlich Farbe) annehmen kann.
Der Dynamikbereich für die Helligkeit ist sehr groß. Wir können ist fast völliger Dunkelheit genauso Kontraste erkennen wie bei strahlender Helligkeit. Mag sein, dass wir nur eine begrenzte Anzahl an Farben benennen können, aber wenn ich dir zwei beliebige Farbtöne nebeneinander lege, wirst du sehr, SEHR viele Nuancen unterscheiden können.
Denk dir einfach mal eine weiße Tapete - und wie facettenreiche Schattenwürfe die je nach Beleuchtungsstärke (und natürlich Farbe) annehmen kann.
da muss man aber aufpassen... :D
http://upload.wikimedia.org/wikipedia/commons/9/91/Optical.greysquares.arp.jpg
Spasstiger
2006-09-27, 23:45:59
Der Dynamikbereich für die Helligkeit ist sehr groß. Wir können ist fast völliger Dunkelheit genauso Kontraste erkennen wie bei strahlender Helligkeit. Mag sein, dass wir nur eine begrenzte Anzahl an Farben benennen können, aber wenn ich dir zwei beliebige Farbtöne nebeneinander lege, wirst du sehr, SEHR viele Nuancen unterscheiden können.
Wir können in einer Szene maximal 500.000 Farben unterscheiden. Natürlich kann unser Sehorgan einen sehr großen Dynamikumfang verarbeiten, aber das hat ja nix direkt mit dem Farbensehen zu tun. Und dem Thema Dynamikumfang nimmt man sich ja bei Grafikkarten seit DX9 schon an (HDR-Rendering).
Es gibt bei Grafikkarten derzeit noch keine 64bit Farbtiefe und die wirds wohl auch nie geben. 64bit Farbtiefe wird zur Darstellung einfach nicht benötigt.
Das erinnert mich an folgende Aussage "Kein Mensch braucht je mehr als 640 KByte Hauptspeicher".
Im Professionellen Bereich gibt es übrigens schon Spezialmonitore mit Farbtiefen von 48 Bit und mehr.
Sogar 96 Bit (HDR) sollen schon im Gespräch sein.
Diese Monitore kosten dann aber natürlich auch > 7000 Euro.
Bei den CRTs sind nicht die Monitore die Limitierung, sondern die Grafikkarte.
Ein CRT könnte durchaus mehr als 8 Bit Farbtiefe pro Farbkanal darstellen,
nur muß diese Information halt von der Grafikkarte bis zum Monitor auch durchgereicht werden können.
Für obige Monitore sind daher natürlich auch entsprechende Grafikkarten notwendig.
Spasstiger
2006-09-28, 15:22:16
Sogar 96 Bit (HDR) sollen schon im Gespräch sein.
HDR ist aber wieder ein anderes Thema. Dadurch werden die Farben bei einer bestimmten, ergonomischen Helligkeit nicht feiner aufgelöst. Und wie gesagt kann der Mensch bei einer bestimmten Helligkeit auch nur eine begrenzte Farbtiefe erfassen und zwar so begrenzt, dass dafür 24 bit völlig ausreichen. Zu dieser Farbtiefe kann man natürlich immer noch einen HDR-Anteil hinzugeben. Grafikkarten können das intern ja seit DX9.
HDR ist aber wieder ein anderes Thema.
Bitte laß dieses Spielzeug HDR für Gamer aus dem Spiel.
Das ist wieder ein ganz anderes HDR und hat mit dem echten HDR nicht viel zu tun.
Erstmal steht HDR für High Dynamic Range und ist nichts anderes,
als die Erhöhung der Bitzahl pro Farbkanal von 8 bzw. 16 Bit auf 32 bit.
Ein HDR Bild hat also bei 3 Farben insgesamt 96 Bit Farbtiefe.
Dieses HDR was du meinst, was wir von dem PC Spielzeug wie diverse 3d Shoorter und Co kennen ist wieder ein ganz anderes Thema.
Auch wenn da HDR draufsteht ist das kein echtes HDR wie es in der Film- und Grafikbranche verwendet wird.
nemesiz
2006-09-28, 16:29:41
war da ned mal was von dem versteckten dip switch im core den man durch aufschneiden des kernes erreicht?
:smile:
Spasstiger
2006-09-28, 17:35:05
Dieses HDR was du meinst, was wir von dem PC Spielzeug wie diverse 3d Shoorter und Co kennen ist wieder ein ganz anderes Thema.
Auch wenn da HDR draufsteht ist das kein echtes HDR wie es in der Film- und Grafikbranche verwendet wird.
Jetzt erklär mir mal den Unterschied. Ich habe mich übrigens auf HDR-Bildschirme und HDR generell bezogen (sonst hätte ich HDR-Rendering geschrieben, was die konkrete technische Umsetzung bezeichnet). Und ein Mensch wird damit keine feiner aufgelösten Farben sehen können, weil eben mit 24 Bit schon alles abgedeckt ist. Dass der Dynamikumfang vergrößert wird, ist wie gesagt ein anderes Thema.
Aber ich wiederhole mich ...
Nein, es gibt in der Tat noch keine 64bit Farbtiefe.
Aber war da nicht mal was in Planung von den großen 3D-Hardwareschmieden? :| Oder irre ich da...? Du irrst nicht... Ich hab hier noch irgendwo ne alte Ausgabe der PC-Games liegen in denen Screens einer ATI-Techdemo zur 64-Bit Farbtiefe zu sehen sind (zumindest werden sie als solche angepriesen).
Dieser verrostende blaue 60er-Jahre Pickup, wenn sich jemand erinnert.
AnarchX
2006-09-28, 17:49:38
Dieser verrostende blaue 60er-Jahre Pickup, wenn sich jemand erinnert.
Das war aber eine GeforceFX- Demo und auf keinen Fall 64bit Farbtiefe.
(War damals bei der Vorstellung bei GIGA AFAIR sogar abgestürzt)
Jetzt erklär mir mal den Unterschied. Ich habe mich übrigens auf HDR-Bildschirme und HDR generell bezogen (sonst hätte ich HDR-Rendering geschrieben, was die konkrete technische Umsetzung bezeichnet). Und ein Mensch wird damit keine feiner aufgelösten Farben sehen können, weil eben mit 24 Bit schon alles abgedeckt ist. Dass der Dynamikumfang vergrößert wird, ist wie gesagt ein anderes Thema.
Aber ich wiederhole mich ...
Hier, daß ist das Spielzeug HDRR, was oft fälschlicherweise als HDR bezeichnet wird obwohl es keines ist:
http://de.wikipedia.org/wiki/High_Dynamic_Range_Rendering
Und zum Menschen.
Der kann das volle Spektrum des LAB Farbraumes wahrnehmen.
RGB ist davon nur eine winzige Untermenge.
Auch wird deswegen mit den 24 Bit eben nicht alles abgedeckt, was der Mensch warnehmen kann, wie du behauptet hast.
Der Mensch kann viel mehr, der LAB Farbraum dürfte der größte definierte Farbraum sein.
http://de.wikipedia.org/wiki/Lab-Farbraum
Spasstiger
2006-09-28, 22:30:23
Und zum Menschen.
Der kann das volle Spektrum des LAB Farbraumes wahrnehmen.
RGB ist davon nur eine winzige Untermenge.
Auch wird deswegen mit den 24 Bit eben nicht alles abgedeckt, was der Mensch warnehmen kann, wie du behauptet hast.
Der Mensch kann viel mehr, der LAB Farbraum dürfte der größte definierte Farbraum sein.
http://de.wikipedia.org/wiki/Lab-Farbraum
Ähm, du weißt schon, dass Farbräume nicht an eine bestimmte Bitrate gebunden sind?!
Und der LAB-Farbraum unterscheidet genau wie ich - wenn ich mich auf die menschliche Wahrnehmung beziehe - zwischen Farbwerten und Helligkeit.
Ein Mensch hat ein adaptives Sehorgan. Mehr als etwa 500.000 Farben kann er nicht gleichzeitig unterscheiden. Allerdings sind sehr viele Helligkeitsstufen möglich, an die sich das Auge anpasst.
Genau das geschieht auch bei HDR-Rendering mit Irissimulation und Tonemapping.
Ein Bildschirm, der einen größeren Dynamikumfang darstellen kann, würde den menschlichen Sehsinn bei großen Helligkeiten dazu zwingen, sich an die Helligkeit anzupassen. Es werden weiterhin nicht mehr als ca. 500.000 verschiedene Farben gesehen. Ein Farbton der eben noch als braun wahrgenommen wurde wirkt bei einer sehr hellen Stelle im Bild auf einmal schwarz, weil sich das Auge anpasst. Dafür werden die hellen Stellen, die für einen Moment weiß waren, auf einmal hellblau.
Gleichzeitig wird nie dieses sehr helle blau und das sehr dunkle braun für den Menschen sichtbar sein, weil der Farbensehsinn dafür nicht ausgeprägt genug ist. Nach Adaption sind aber beide Farbtöne einzeln wahrnehmbar.
Das Auge ist also sehr leistungsfähig, was den Dynamikumfang, also die Lichtintensität angeht, aber das ändert nix daran, dass ein Mensch gleichzeitig nur etwa 500.000 Farben erfassen kann.
Deshalb reichen 24 Bit Farbtiefe, z.B. mit dem LAB-Farbraum, auch völlig aus. Zusätzliche Bit für die Dynamik können aber den Seheindruck realistischer machen auf Kosten der Ergonomie (das Auge muss sich an die stark verschiedenen Helligkeiten anpassen).
HDRR ist bei den gängigen Implementierungen noch ergonomisch(er), da deren Wiedergabe durch den Dynamikumfang des Monitors beschränkt ist.
CIE-Lab kann man nicht direkt anzeigen.
Bei RGB hätte man imo längst auf 10-10-10 setzen sollen. Zwar haben wir nach der Gamma-Korrektur bereits ein von 8-8-8 aufgeblasenes 10-10-10, aber ich will 10-10-10 auf 12-12-12 aufgeblasen haben. In zu vielen Spielen gibts mit 24 Bit Truecolor schon Colorbanding.
Spasstiger
2006-09-30, 22:50:33
In zu vielen Spielen gibts mit 24 Bit Truecolor schon Colorbanding.
Besteht das Problem auch, wenn intern mit fp16 oder gar fp32 gerechnet wird?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.