PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 64 Bit Farbtiefe?


=Floi=
2006-06-19, 15:26:02
Hallo
John Carmack hat darüber mal in einem interview was gesagt nur leider hörte man seitdem nichts mehr
nötig wäre dieser schritt aber um fotorealistische greafik überhaupt darstellen zu können wie ich meine
ist hier etwas bekannt wann der umstieg kommen wird?

MFG
Floi

Gast
2006-06-19, 16:11:58
"echtes" HDR-rendering verwendet mindestens 64bit farbtiefe und wird beispielsweise in farcry, oblivion, splinter cell 3... verwendet.

Gast
2006-06-19, 17:43:46
nein, echtes HDR-Rendering mit 64bit kommt zZ noch nirgends zum einsatz...

c0re
2006-06-19, 17:51:00
Und wieviel Bit Farbtiefe hat unechtes HDR wie in Far Cry, Oblivion, HL2 etc...? Wird man dann nicht im Treibermenu 64 Bit auswählen können, so wie man jetzt 32 Bit auswählen kann?

Ich habe eine GeForce 6800 (256 MB GDDR 3 @ 405 Mhz GPU / 1.1 Ghz RAM @ 16 / 6 Pipes) . Diese kann ja HDR darstellen, also kann sie auch 64 Bit und mehr darstellen. Können SM3 Karten dann später per Treiber auf 64 Bit eingestellt werden?

Bassmannxt
2006-06-19, 17:51:05
=Floi=[/POST]']Hallo
John Carmack hat darüber mal in einem interview was gesagt nur leider hörte man seitdem nichts mehr
nötig wäre dieser schritt aber um fotorealistische greafik überhaupt darstellen zu können wie ich meine
ist hier etwas bekannt wann der umstieg kommen wird?

MFG
Floi


Er wird höchstens mal erwähnt haben das dies einer der Punkte ist um die Optik zu verbessern, ansonsten habe ich selbst den Eindruck das derzeit einfach nur extrem viel Rohleistung nötig ist um Spiele grafisch real wirken zu lassen, die Bilder von Crysis machen das deutlich.




Gruß

T.
2006-06-19, 17:54:32
Doch doch, Farcry & co nutzen 64Bit Farbtiefe für HDR.
16 Bit pro Kanal mal 4 macht 64 Bit pro Pixel.

Kladderadatsch
2006-06-19, 18:00:00
cb:
High Dynamic Range Rendering bezeichnet einen größeren Farbraum, da für jeden der 4 Farbkanäle (rot, grün, blau und Alpha bzw. Transparenz) 32 Bit Information, also insgesamt 128 Bit zur Verfügung stehen (z.B. für Blend-Effekte) statt wie bisher 8 Bit, also 256 Helligkeitsstufen je Kanal, was insgesamt 32 Bit Information bedeutet.

:confused:

c0re
2006-06-19, 18:03:14
insane in the membrane[/POST]']cb:
High Dynamic Range Rendering bezeichnet einen größeren Farbraum, da für jeden der 4 Farbkanäle (rot, grün, blau und Alpha bzw. Transparenz) 32 Bit Information, also insgesamt 128 Bit zur Verfügung stehen (z.B. für Blend-Effekte) statt wie bisher 8 Bit, also 256 Helligkeitsstufen je Kanal, was insgesamt 32 Bit Information bedeutet.

:confused:

Ich will aber 64 Bit im Forceware auswählen können. Erst dann ist mein Ego befriedigt... :biggrin:

Gast
2006-06-19, 18:07:43
insane in the membrane[/POST]']cb:
High Dynamic Range Rendering bezeichnet einen größeren Farbraum, da für jeden der 4 Farbkanäle (rot, grün, blau und Alpha bzw. Transparenz) 32 Bit Information, also insgesamt 128 Bit zur Verfügung stehen (z.B. für Blend-Effekte) statt wie bisher 8 Bit, also 256 Helligkeitsstufen je Kanal, was insgesamt 32 Bit Information bedeutet.

:confused:

jo aus das hätt' ich mich auch bezogen....

http://www.3dcenter.de/artikel/2006/01-01_c.php

aber denmnach kann FP16 HDR tauglich sein, wenn Denorm-Support (?) unterstützt wird...
Welche Karten das unterstützen ist aber unklar. Folglich ist auch unklar ob Karten mit FP16 HDR unterstützen. Fakt ist dennoch trotzdem : FP16 ist schon besser als FP8. Ob man das jetzt dann schon HDR nennt oder nicht dürfte dann egal sein.
Habe ich das rihcitg verstanden ?

Gast
2006-06-19, 18:12:44
Gast[/POST]']aber denmnach kann FP16 HDR tauglich sein, wenn Denorm-Support (?) unterstützt wird...
Welche Karten das unterstützen ist aber unklar. Nö. -> NV40/G70

LordDeath
2006-06-19, 18:13:12
c0re[/POST]']Ich will aber 64 Bit im Forceware auswählen können. Erst dann ist mein Ego befriedigt... :biggrin:

das kommt erst, wenn der vista-nachfolger HDR für aero nutzt :D

Gast
2006-06-19, 18:22:27
Gast[/POST]']Nö. -> NV40/G70
und wie schauts mit r520/r580 aus ?

HOT
2006-06-19, 18:29:53
Wasn Quatsch, 64Bit FP gilt doch nur fürs Blending, die Ausgabe erfolgt über den RAMDAC ganz normal in 4x8 oder 3x10 Bit.

Gast
2006-06-19, 18:31:33
Gast[/POST]']und wie schauts mit r520/r580 aus ?Weiß ich ehrlich gesagt nicht genau. Kann mir aber nur schwer vorstellen, dass es da nicht möglich ist..

Gast
2006-06-19, 18:40:06
HOT[/POST]']Wasn Quatsch, 64Bit FP gilt doch nur fürs Blending, die Ausgabe erfolgt über den RAMDAC ganz normal in 4x8 oder 3x10 Bit.

bitte etwas genauer ?
Dehsalb wird es ja trotzdem als HDR bezeichnet oder müsste dazu auch die Ausgabe geändert werden (oder gar der Monitor?)

LordDeath
2006-06-19, 18:49:16
wieviel pixel hat man mit einer hohen auflösung und wieviel farben ergibt 2^32? 64bit farbtiefe ist noch lange kein thema!

Kladderadatsch
2006-06-19, 19:05:00
Gast[/POST]']oder müsste dazu auch die Ausgabe geändert werden (oder gar der Monitor?)
ja klar. 'hdr-monitore' sind auch schon in entwicklung. gab hier mal einen thread dazu..

Gast
2006-06-19, 19:05:48
LordDeath[/POST]']wieviel pixel hat man mit einer hohen auflösung und wieviel farben ergibt 2^32? 64bit farbtiefe ist noch lange kein thema!

Das hat aber nichts mit HDR zu tun. HDR hat mit dem RAMDAC 0 zu tun.

kevsti
2006-06-19, 19:16:26
kann die Matrox Parhelia nicht 48bit?, ist schon lange her.. hab damals aber öfters mal Werbung und Zeitschrittartikel dazu gelesen, das Matrox mit der Parhelia es ermöglicht 48bit Farbtiefe zu benutzen um ein fotorealistischeres Bild zuschaffen, ist da was dran? wars nur nen Marketinggag? oder was ganz anderes gemeint?

btw. noch ne frage, frag ich mich eigentlich schon seit Jahren.. 16bit ist doch HighColor und 32bit ist TrueColor, wo ist der unterschied? :)

andererGast
2006-06-19, 19:16:45
HDR bedeutet grundsätzlich Rechnen mit höheren Genauigkeiten (ob jetzt FP16 oder erst FP32 als HDR angesehen wird lasse ich mal aussen vor).
Analogisiert, also auf den Bildschirm gebracht werden aber nach wie vor die gleiche Anzahl an Farben. Wenn es HDR-Bildschirme gibt sie derartige Kontraste auch darstellen können müsste aber auch der RAMDAX, der das ganze analogisert, in einer höheren Genauigkeit speichert.

Habe ich das richitg verstanden ?

kevsti
2006-06-19, 19:29:28
ich denk mal weniger das HDR-Bildschirme noch den alten VGA Anschluss haben, sondern rein Digital über DVI ihr Bild bekommen, da erspart sich doch die ganze sache mit dem RAMDAC oder?

Spasstiger
2006-06-19, 19:42:13
Man darf hier nicht die Rechengenauigkeit mit der Farbtiefe verwechseln. Die ausgegebene Farbtiefe wird imo auch in den nächsten Jahren bei 32 Bit bleiben.
Die Rechengenauigkeit wurde Mitte 2002 mit der Radeon 9700 und Anfang 2003 mit der GeForce FX auf 24 Bit bzw. 32 Bit je Kanal hochgeschraubt. Bei drei Farbkanälen und einem Alphakanal sind das theoretisch 96/128 Bit.
Wichtig war dabei auch der Wechsel von Fixpoint-Genauigkeit (Ganzzahlen) auf Floating-Point-Genauigkeit (Fließkommazahlen).
Und genau diesen Sprung bei der Rechengenauigkeit hat auch John Carmack anno 2000 oder 2001 gefordert. Um eine Erhöhung der Farbtiefe ging es nie. Ist auch gar nicht sinnvoll, der Mensch kann ja noch nicht mal 16 Milliionen Farben (= 24 Bit) unterscheiden.
HDR-Monitore sind wieder ein ganz anderes Thema. Hierbei wird der Dynamikumfang erhöht, was ja durch die höhere Rechengenauigkeit der Grafikkarten möglich wurde. Man müsste für HDR-Monitore nur einen Ausgang entwickeln, der zusätzlich zur normalen Farbinformation auch eine Helligkeitsinformation mitliefert. Allerdings dürfte so ein HDR-Monitor nicht sonderlich ergonomisch sein, wenn man den Dynamikumfang um 5 Größenordnungen erhöht, was intern (in der Grafikkarte) ja durchaus geschieht. Selbst eine Erhöhung des Dynamikumfangs um eine Größenordnung (Faktor 10) wäre kaum zu ertragen für die Augen.
Echtes HDR wird man also auch mit HDR-Monitoren nicht erreichen.

Gast
2006-06-19, 19:58:45
man muss also drei Dinge untescheiden :
Berechnungen, zB Pixelshader : 32bit, teilweise aber auch FP 16 (PP)
Framebuffer : FP16 (64bit) wird manchmal als HDR bezeichnet, ist aber eigentlich MDR
RAMDAC/Ausgabe : 24 bit , mehr auch nicht nötig

Diese drei Dinge kann man sehr leicht durcheinanderbringen........

Gast
2006-06-19, 20:11:32
Fakt ist dennoch trotzdem : FP16 ist schon besser als FP8.Du meinst wohl FX8. ;)


Gast[/POST]']Framebuffer : FP16 (64bit) wird manchmal als HDR bezeichnet, ist aber eigentlich MDRFP16 mit Denorms kann man schon als HDR-Rendering bezeichnen.

c0re
2006-06-19, 20:12:18
LordDeath[/POST]']das kommt erst, wenn der vista-nachfolger HDR für aero nutzt :D

Das is ja schade. 64 Bit Farbe säh bestimmt cool aus ;)

tokugawa
2006-06-19, 22:58:22
Also, meiner Ansicht nach spielt hier nicht die Frage "echtes" oder "unechtes" HDR mit ("echt" ist es für mich sobald mittels HDR-Source-Images (etwa Texturen im OpenEXR-Format) über Floating-Point-Rendertargets gerechnet wird und das ganze am schluß getonemapped wird), sondern HDR in welcher Auflösung. Im Prinzip ist "HDR" vergleichend gemeint - also höherer Dynamikumfang als früher.

Ab welcher Genauigkeit jetzt HDR gilt und wann noch nicht, ist ja ziemlich arbitrar.

Gast
2006-06-20, 00:11:56
c0re[/POST]']Können SM3 Karten dann später per Treiber auf 64 Bit eingestellt werden?
Nein. Der eigentliche Framebuffer bleibt 32bit (und wird das wohl auch noch lange tun).

Xmas
2006-06-20, 00:35:13
=Floi=[/POST]']ist hier etwas bekannt wann der umstieg kommen wird?
Ein solcher Umstieg ist gewissermaßen bereits im Gange. Wie immer geht das aber alles sehr langsam vonstatten.

LordDeath[/POST]']wieviel pixel hat man mit einer hohen auflösung und wieviel farben ergibt 2^32? 64bit farbtiefe ist noch lange kein thema!
Farbtiefe hat nichts mit der Anzahl der Pixel zu tun.

kevsti[/POST]']kann die Matrox Parhelia nicht 48bit?, ist schon lange her.. hab damals aber öfters mal Werbung und Zeitschrittartikel dazu gelesen, das Matrox mit der Parhelia es ermöglicht 48bit Farbtiefe zu benutzen um ein fotorealistischeres Bild zuschaffen, ist da was dran? wars nur nen Marketinggag? oder was ganz anderes gemeint?
Parhelia kann – wie die R1x00-Reihe – einen Framebuffer mit 30 Bit Farbtiefe, also 10 Bit pro Kanal ausgeben.

btw. noch ne frage, frag ich mich eigentlich schon seit Jahren.. 16bit ist doch HighColor und 32bit ist TrueColor, wo ist der unterschied? :)
Dass man mit 32 Bit (eigentlich 24 Bit, die restlichen 8 Bit werden entweder für Alpha oder gar nicht verwendet) Farben genauer speichern kann.


Spasstiger[/POST]']Man darf hier nicht die Rechengenauigkeit mit der Farbtiefe verwechseln. Die ausgegebene Farbtiefe wird imo auch in den nächsten Jahren bei 32 Bit bleiben.
Die "ausgegebene Farbtiefe" war in den letzten Jahren je nach Betrachtungsweise meist entweder bei 24 Bit oder bei 30 Bit, teilweise aber auch niedriger. Für den Framebuffer wird leider noch fast immer 24 Bit Farbtiefe verwendet, die Ausgabelogik nutzt aber eine Gamma-LUT die Werte mit 10 Bit pro Kanal enthält. 10 Bit pro Kanal im Framebuffer sind erst langsam im Kommen.

Der DVI-Standard unterstützt nur 8 Bit pro Kanal, oder gleich 16 bei halbiertem Pixeltakt. Einige TFT-Displays haben ungünstigerweise nur 16 oder 18 Bit Farbtiefe.

Um eine Erhöhung der Farbtiefe ging es nie. Ist auch gar nicht sinnvoll, der Mensch kann ja noch nicht mal 16 Milliionen Farben (= 24 Bit) unterscheiden.
Das stimmt so nicht. 24 Bit sind keinesfalls ausreichend, schon gar nicht wenn die Farben linear gespeichert werden. Mann bräuchte dann schon 14 Bit um Grün wirklich ausreichend aufzulösen. Glücklicherweise werden sowohl Framebuffer-Formate mit 10 Bit pro Kanal als auch halbwegs richtiger sRGB-Zugriff auf den Framebuffer immer verbreiteter (und mit D3D10 Pflicht).

Allerdings dürfte so ein HDR-Monitor nicht sonderlich ergonomisch sein, wenn man den Dynamikumfang um 5 Größenordnungen erhöht, was intern (in der Grafikkarte) ja durchaus geschieht. Selbst eine Erhöhung des Dynamikumfangs um eine Größenordnung (Faktor 10) wäre kaum zu ertragen für die Augen.
Man kann den Dynamikumfang auch um eine Größenordnung erhöhen, indem man Schwarz zehnmal dunkler macht. ;)
Aber auch sonst ist eine Größenordnung heller als ein normal heller Monitor flächig und für längere Zeit zwar nicht angenehm, aber auch nicht schmerzhaft. Sonst würde sich an einem sonnigen Sommertag keiner mehr ins Freie trauen.

deekey777
2006-06-20, 10:39:10
Xmas[/POST]']
Parhelia kann – wie die R1x00-Reihe – einen Framebuffer mit 30 Bit Farbtiefe, also 10 Bit pro Kanal ausgeben.


Können das nicht alle DX9-Radeons*?



*Abgesehen von der X1000er Generation und mit Verlust von MSAA?

Gast
2006-06-20, 10:50:38
Wer sagt denn, dass es keine HDR-Displays gibt?

Da kommt was auf uns zu *gg*

http://www.brightsidetech.com/
http://www.anyhere.com/gward/papers/Siggraph04.pdf

Neomi
2006-06-20, 14:14:42
DK777[/POST]']Können das nicht alle DX9-Radeons*?

Als Rendertarget und als Textur schon, aber leider nicht als Backbuffer. Das kam erst mit dem R520.

deekey777
2006-06-20, 14:44:57
Neomi[/POST]']Als Rendertarget und als Textur schon, aber leider nicht als Backbuffer. Das kam erst mit dem R520.
Ab diesem Posting (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3566119#post3566119) bis aths' Antwort.

Aber auch hier: aths[/POST]'][...]
Was ATI bietet, nämlich RGB 10-10-10-2, seit R520 auch mit Multisampling, das hätte allerdings viel früher kommen können. Für HDR-Rendering reichts nicht, auch nicht für MDR-Rendering – aber man könnte Quake3 oder Max Payne mit deutlich reduziertem Colorbanding spielen.

Irgendwie klingt das, dass 1010102 auch als Backbuffer benutzt werden kann (Stichwort "seit R520 auch mit Multisampling). :confused:

Neomi
2006-06-20, 14:58:48
DK777[/POST]']Irgendwie klingt das, dass 1010102 auch als Backbuffer benutzt werden kann (Stichwort "seit R520 auch mit Multisampling). :confused:

Für eine Offscreen Plain Surface (wird für MSAA benötigt, wenn man noch Postprocessing machen will) kann man das Format wohl verwenden, da dann auch mit MSAA ab dem R520. Ich habe hier zwar gerade nur einen R350 und keinen R420/R480 vorliegen, aber ich bin mir sicher, der R480 kann dieses Format immer noch nicht für den Backbuffer verwenden. Der R350 kann es definitiv nicht.

Narrenkönig
2006-06-20, 15:44:02
=Floi=[/POST]']Hallo
John Carmack hat darüber mal in einem interview was gesagt nur leider hörte man seitdem nichts mehr
nötig wäre dieser schritt aber um fotorealistische greafik überhaupt darstellen zu können wie ich meine
Daran kann ich mich erinnern. Da war mal was in der GameStar und es ging um die Vorstellung der neuen GeForce FX mit 64bit Farbtiefe. Daneben war ein Bild von Stalker, das nur auf der FX so fantastisch aussehen wird.
Ach ja, lang ist es her.
Seit die FX dann auf dem Markt war, habe ich nie wieder von 64bit-Farbtiefe was gelesen.

Spasstiger
2006-06-20, 18:53:57
Narrenkönig[/POST]']Daran kann ich mich erinnern. Da war mal was in der GameStar und es ging um die Vorstellung der neuen GeForce FX mit 64bit Farbtiefe. Daneben war ein Bild von Stalker, das nur auf der FX so fantastisch aussehen wird.
Ach ja, lang ist es her.
Seit die FX dann auf dem Markt war, habe ich nie wieder von 64bit-Farbtiefe was gelesen.
Gamestar ...
Die Forderung nach 64 Bit Rendergenauigkeit wurde seitens John Carmack schon lange vor Erscheinen von DX9-Grafikkarten laut (sonst hätte die Forderung ja auch keinen Sinn gemacht). Und mit Farbtiefe hat das nichts zu tun. Die Gamestar hatte sich damals wohl Mist zusammengereimt.

Gast
2006-06-21, 19:48:17
Nach allem, was ich hier und auf Wikipedia gelesen habe, bedeutet High Dynamic Range Rendering kurz und knapp 128 Bit Farbtiefe?

Gast
2006-06-21, 19:48:31
Naja, ich fänds schon gut, wenn man z.B. in einem Spiel, anstatt einen Haken vor "HDR" zu setzen, einfach mal neben 16Bit, 32Bit auch noch 64Bit einstellen zu können. Was man im Spiel einstellt, ist ja letztendlich auch nicht wirklich die Farbtiefe, die man letztendlich auf dem Monitor bewundert, sondern nur die Textur-Farbtiefe bzw. allgemein die Rechengenauigkeit.

Den Haken kann man dann immer noch vor Overbrightning setzen bzw. vor "Realistic Eye Simulation"

Was ich nicht ganz verstehe: Wie kann man schwarz 10mal schwärzer machen?

Für mich klingt das schon rein physikalisch ziemlich unlogisch. Licht ist eine Welle und die kann enorme Energie innerhalb des sichtbaren Spektrums (Amplitude, Frequenz) enthalten. Das ist das Overbrightning. Aber kein bzw. fast kein Licht bzw. schwarz heißt doch, dass sowas, wie eine elektromagnetische Welle gar nicht vorhanden ist bzw. nur welche im nicht sichtbaren Bereich. Wie soll es denn dann ein schwarz geben, was 10x schwärzer ist.
Und auch rein mathematisch. Was ist vom Betrag her kleiner als 0?
Größer als 255 gibt es aber sehr wohl und deshalb ist auch Weiß nicht gleich Weiß, sowohl physikalisch als auch mathematisch.

Gast
2006-06-21, 19:54:43
Die Grammatik ist am Anfang etwas im Eimer. Sorry.

Spasstiger
2006-06-21, 19:59:27
Gast[/POST]']Nach allem, was ich hier und auf Wikipedia gelesen habe, bedeutet High Dynamic Range Rendering kurz und knapp 128 Bit Farbtiefe?
Falsch. Wenn du dich über HDR-Rendering informieren willst, lies am Besten diesen Artikel:
http://www.3dcenter.org/artikel/2006/01-01_a.php.

Falls du an weiteren mathematischen Hintergründen interessiert bist, empfiehlt sich dieser Artikel: http://www.3dcenter.org/artikel/fp_format/.

Neomi
2006-06-21, 20:37:01
Gast[/POST]']Was ich nicht ganz verstehe: Wie kann man schwarz 10mal schwärzer machen?

Es geht dabei nicht um absolutes Schwarz, sondern um darstellbares Schwarz. Wenn du in einem völlig abgedunkelten Raum auf einen Bildschirm mit einem schwarzen Bild schaust, siehst du es trotzdem leuchten. Ein Kontrastverhältnis von 500:1 gibt dann z.B. an, daß das Gerät Weiß 500x so hell darstellt wie Schwarz. Verbessert man den Schwarzwert, verbessert man damit den Kontrast bzw. den Dynamikumfang.

Hauwech
2006-06-21, 20:54:06
Gast[/POST]']Naja, ich fänds schon gut, wenn man z.B. in einem Spiel, anstatt einen Haken vor "HDR" zu setzen, einfach mal neben 16Bit, 32Bit auch noch 64Bit einstellen zu können. Was man im Spiel einstellt, ist ja letztendlich auch nicht wirklich die Farbtiefe, die man letztendlich auf dem Monitor bewundert, sondern nur die Textur-Farbtiefe bzw. allgemein die Rechengenauigkeit.

Den Haken kann man dann immer noch vor Overbrightning setzen bzw. vor "Realistic Eye Simulation"

Was ich nicht ganz verstehe: Wie kann man schwarz 10mal schwärzer machen?

Für mich klingt das schon rein physikalisch ziemlich unlogisch. Licht ist eine Welle und die kann enorme Energie innerhalb des sichtbaren Spektrums (Amplitude, Frequenz) enthalten. Das ist das Overbrightning. Aber kein bzw. fast kein Licht bzw. schwarz heißt doch, dass sowas, wie eine elektromagnetische Welle gar nicht vorhanden ist bzw. nur welche im nicht sichtbaren Bereich. Wie soll es denn dann ein schwarz geben, was 10x schwärzer ist.
Und auch rein mathematisch. Was ist vom Betrag her kleiner als 0?
Größer als 255 gibt es aber sehr wohl und deshalb ist auch Weiß nicht gleich Weiß, sowohl physikalisch als auch mathematisch.

Bin mir nicht ganz sicher aber ich meine mal gelesen zu haben, das entweder für Hubble oder einen anderen Beobachtungssatelliten ein Schwarz entwickelt wurde, was das "schwärzeste Schwarz" bis dato gewesen sein soll. Dabei ging es um die Reflexionsunfähigkeit um das einfallende Licht halt möglichst nicht zu beeinflussen. Die Oberfläche spielt dabei anscheinend eine entscheidene Rolle wie schwarz das Schwarz empfunden wird.

DerRob
2006-06-21, 21:44:49
mal sehen, wann die ersten schwarzen löcher in monitore integriert werden, um wirklich schwärzestes schwarz darstellen zu können :biggrin:

Gast
2006-06-21, 22:37:06
Ja, aber damit ist nur gemeint, dass wirklich das komplette Sichtspektrum reflektiert wird. Was wir im allgemeinen als schwarz bezeichnen, würde man dann im Computer bei 128Bit FP sicherlich 0,002 0,002 0,002 bezeichnen.
Bin mir bei den Werten natürlich net sicher, aber HDR bringt sicherlich kein schwärzeres Schwarz, als eben schwarz. Bei 0 ist Schluss. Vorzeichenwechsel wäre auch Nonsense.

Bei Weiß ist das eben etwas anders. Weiß ist wie im Computer die Überlagerung aller Frequenz-Bereiche. Jedoch kann man den Wellen sehr viel Energie geben, wodurch bei unserem Auge der Effekt des Blendens entsteht. Dieses Overbrightning lässt sich zurzeit schon realisieren, aber letztendlich nur, weil die Farbübergänge auf Grund weniger Berechnungsfehler durch höhere Genauigkeit realistischer wirken. Mit HDR-Monitoren (Stromschlucker ^10) kann man dieses Overbrightning dann auch dadurch erzeugen, dass wir mehr geblendet werden.

Selbst das schwarze Loch ist, ganz exakt physikalisch betrachtet, nicht 100%ig schwarz. Hawking Strahlung eben. Nur geht der Begriff Schwarz in diesem Fall über das Sehen des Auges hinaus, weil wir diese Strahlung net sehen können.

Gast
2006-06-21, 22:37:50
ich meinte natürlich nicht reflektiert wird. Aber ich glaube, es ist klar, was gemeint ist.

Gast
2006-06-21, 22:44:24
Neomi[/POST]']Es geht dabei nicht um absolutes Schwarz, sondern um darstellbares Schwarz. Wenn du in einem völlig abgedunkelten Raum auf einen Bildschirm mit einem schwarzen Bild schaust, siehst du es trotzdem leuchten. Ein Kontrastverhältnis von 500:1 gibt dann z.B. an, daß das Gerät Weiß 500x so hell darstellt wie Schwarz. Verbessert man den Schwarzwert, verbessert man damit den Kontrast bzw. den Dynamikumfang.

Ja, aber für sowas braucht man kein HDR. Dafür braucht man nur einen guten Monitor. Weil im idealfall würde der Monitor ja auch bei 0 0 0 das absolute schwarz anzeigen. Das ist aber kein Floating-Point.

Vielleicht könnte sowas ein HDR-Monitor, der bräuchte dann aber nicht zwingend ein mit HDR berechnetes Signal.

Was natürlich stimmt, ist, dass man damit viel mehr Schwarzstufen darstellen kann.

tokugawa
2006-06-22, 20:09:50
Narrenkönig[/POST]']
Seit die FX dann auf dem Markt war, habe ich nie wieder von 64bit-Farbtiefe was gelesen.

Ich schon. Sie konnte es, aber nicht schnell.

Die Gaming/Gametester-Presse ist sowieso die falsche Lektüre wenn du sowas lesen willst. Da mußt eher in sowas wie die Central European Seminar on Computer Graphics Proceedings schauen (auf der CESCG 2005 war ein Vortrag über HDR-Image-Formate z.B., wo auch die FX erwähnt wurde, bzw. von Support "ab GF FX" geredet wurde. Immerhin.).

Xmas
2006-06-22, 22:29:27
Gast[/POST]']Was ich nicht ganz verstehe: Wie kann man schwarz 10mal schwärzer machen?
Du beziehst dich wohl hierauf?
Xmas[/POST]']Man kann den Dynamikumfang auch um eine Größenordnung erhöhen, indem man Schwarz zehnmal dunkler macht. ;)

Wie Neomi schon sagte, es geht um das darstellbare Schwarz. Und eben darum dass man einen Monitor nicht zwangsläufig mehrere Größenordnungen heller machen muss um aus ihm einen "HDR-Monitor zu machen". Man hat auch häufig noch Luft nach unten (wobei man allerdings auch beachten muss dass es absolute Grenzen für die Anpassungsfähigkeit der Augen gibt).

Gast
2006-06-22, 22:42:21
Xmas[/POST]']Du beziehst dich wohl hierauf?


Wie Neomi schon sagte, es geht um das darstellbare Schwarz. Und eben darum dass man einen Monitor nicht zwangsläufig mehrere Größenordnungen heller machen muss um aus ihm einen "HDR-Monitor zu machen". Man hat auch häufig noch Luft nach unten (wobei man allerdings auch beachten muss dass es absolute Grenzen für die Anpassungsfähigkeit der Augen gibt).

OLED-displays müssten hier ja schon einiges an darstellbarer dynamik bringen

FlashBFE
2006-06-22, 23:26:45
Gast[/POST]']OLED-displays müssten hier ja schon einiges an darstellbarer dynamik bringen

Wobei es immer noch keine Anzeichen davon gibt, dass die irgendwann in nächster Zeit mal als größere Monitore auf den Markt kommen. Die werden wohl mit Absicht zurückgehalten, um das LCD- Geschäft nicht zu gefährden. Denn technische Gründe gibt es mittlerweile eigentlich nichtmehr, was viele Kleingeräte mit OLEDs beweisen.

Ansonsten, wer will schon ein absolutes Schwarz? Dann würde das Kontrastverhältnis ja unendlich sein und man müsste sich andere Gründe ausdenken, neue Monitore zu verkaufen ;).

ZilD
2006-06-23, 04:44:02
der mensch sieht aber nur 16,7 mio farben :D (24 bit)

zeckensack
2006-06-23, 13:27:58
ZilD[/POST]']der mensch sieht aber nur 16,7 mio farben :D (24 bit)Und Hummeln können nicht fliegen ;)

îÇë-çøøL
2006-06-23, 14:26:59
ZilD[/POST]']der mensch sieht aber nur 16,7 mio farben :D (24 bit)

Wer hat denn sowas gemessen :eek: :biggrin:

Gruss Paul

Gast
2006-06-23, 21:20:52
ZilD[/POST]']der mensch sieht aber nur 16,7 mio farben :D (24 bit)

im durchschnitt sieht der mench sogar wesentlich weniger farben (männer weniger als frauen), allerdings kann der mensch deutlich mehr als 256 helligkeitstufen, welche mit 24bit möglich sind, unterscheiden.

Mike1
2006-06-23, 22:11:22
18.446.744.073.709.551.616 Farben viel Spaß ;)

da sind
32Bit mit 4.294.967.296 Farben ja noch erträglicher.

E.T.
2006-06-24, 11:29:33
Gast[/POST]']im durchschnitt sieht der mench sogar wesentlich weniger farben (männer weniger als frauen), allerdings kann der mensch deutlich mehr als 256 helligkeitstufen, welche mit 24bit möglich sind, unterscheiden.

endlich nennt mal einer unmissverständlich den springenden punkt :biggrin:

Coda
2006-06-24, 13:43:41
Mike1[/POST]']32Bit mit 4.294.967.296 Farben ja noch erträglicher.
Es gibt keine 32 bit Farbtiefe. Es werden nur 24 bit davon verwendet.

urbi
2006-06-24, 14:35:24
c0re[/POST]']Das is ja schade. 64 Bit Farbe säh bestimmt cool aus ;)

Mir würde schon eine 32 Bit Farbpalette bei Paint reichen, vorerst.

Spasstiger
2006-06-24, 15:00:52
urbi[/POST]']Mir würde schon eine 32 Bit Farbpalette bei Paint reichen, vorerst.
Und wie soll das gehen? 10 Bit für rot, 11 Bit für grün und 11 Bit für blau?
Paint bietet eine ganz normale 24-bittige Farbpalette.

Wenn du HDR-Content erstellen willst, gibts auch Photoshop, das arbeitet mit bis zu 32 Bit je Kanal (statt 8 Bit).

StefanV
2006-06-24, 15:23:18
Coda[/POST]']Es gibt keine 32 bit Farbtiefe. Es werden nur 24 bit davon verwendet.
32bit war doch AFAIK 24bit + 8 Füllbits, weils so einfach besser in den SPeicher passt.

24bit Farbtiefe stammt noch aus der Zeit als man 8bit Speicherinterfaces hatte...

urbi
2006-06-24, 15:36:19
Spasstiger[/POST]']Und wie soll das gehen? 10 Bit für rot, 11 Bit für grün und 11 Bit für blau?
Paint bietet eine ganz normale 24-bittige Farbpalette.

Wenn du HDR-Content erstellen willst, gibts auch Photoshop, das arbeitet mit bis zu 32 Bit je Kanal (statt 8 Bit).

Ich meine die Farbpalette in Paint. Die hat AFAIK nur 28 Farben. Sähe mit 17 millionen kleinen Quadraten bestimmt nett aus. :P

Gast
2006-06-24, 15:41:00
StefanV[/POST]']32bit war doch AFAIK 24bit + 8 Füllbits, weils so einfach besser in den SPeicher passt.

24bit Farbtiefe stammt noch aus der Zeit als man 8bit Speicherinterfaces hatte...

ja eben, effektiv werden nur 24bit für die farbdarstellung verwendet, egal ob vielleicht 32 bit über den speicherbus wandern.

ShadowXX
2006-06-24, 16:47:55
Gast[/POST]']ja eben, effektiv werden nur 24bit für die farbdarstellung verwendet, egal ob vielleicht 32 bit über den speicherbus wandern.
Ganz unnütz sind die nun auch nicht, da dies 8Bit als Alphakanal verwendet werden.

Bot Matrox mit nicht 10-10-10-2 an?

Gast
2006-06-24, 17:08:42
ShadowXX[/POST]']

Bot Matrox mit nicht 10-10-10-2 an?

ja, die neue ATI-generation kann das auch.

aths
2006-06-24, 17:25:52
ZilD[/POST]']der mensch sieht aber nur 16,7 mio farben :D (24 bit)Der Mensch sieht deutlich weniger Farben, jedoch deutlich mehr Helligkeitsstufen. Mit RGB kann man ohnehin nicht alle Farben darstellen, die wir sehen können – da gibt es zum Beispiel im Grünen eine Schwäche, weil man mit RGB schlecht negatives Rot reinmischen kann.

Spasstiger
2006-06-25, 02:26:46
urbi[/POST]']Ich meine die Farbpalette in Paint. Die hat AFAIK nur 28 Farben.
Du kannst aus 2^24 verschiedenen Farben wählen:
http://img141.imageshack.us/img141/5409/paint0sy.png

Gast
2006-06-26, 20:46:45
Hallo,

eine Frage zum "absoluten" Schwarz, was genau versteht man darunter?
Ist das von euch rein mathematisch gemeint oder ist es eben schwarz, wie die
Schwarzdarstellung beim Plasma z.B, wo es eben einfach nur schwarz bleibt und keine Farbe dargestellt wird. Es ist mir schon bewusst, das dies auf einem Monitor nicht geht, aber ich würde gerne wissen was mit absolutem Schwarz gemeint ist.


thx

Neomi
2006-06-26, 21:14:33
Gast[/POST]']eine Frage zum "absoluten" Schwarz, was genau versteht man darunter?

Das "Schwarz" diverser Monitore leuchtet heller als das von Monitoren mit besserem Schwarzwert. Absolutes Schwarz dagegen kann nicht mehr unterboten werden, da es perfekt ist. Im Gegensatz zu nicht absolutem Schwarz leuchtet es nicht minimal, sondern gar nicht. Ja, das kannst du als praktisch nicht erreichbares Ideal betrachten.

Gast
2006-06-26, 21:23:03
Neomi[/POST]'] Ja, das kannst du als praktisch nicht erreichbares Ideal betrachten.

naja, OLEDs schaffen das im prinzip, dort bleiben nur mehr etwaige reflexionen des umgebungslichtes auf der bildschirmoberfläche, die "echtes" schwarz verhindern.

Gast
2006-06-29, 13:11:37
Gast[/POST]']im durchschnitt sieht der mench sogar wesentlich weniger farben (männer weniger als frauen), allerdings kann der mensch deutlich mehr als 256 helligkeitstufen, welche mit 24bit möglich sind, unterscheiden.
zB sind für Damen "lachs","rosa","pink" unterschiedliche Farben. Männer nehmen diese Farbtöne als "grau" war :)

Darüber habe ich gelesen, dass der Mensch wohl etwa 300 Farben unterscheiden kann (300!!). Im Auge sind beträchtlich mehr Sinneszellen, die die Helligkeit bestimmen. Man kann wohl 1 Mio Helligkeitsunterschiede warnehmen.

Außerdem werden Reize von menschl Sinnesorganen "lagarithmisch" wahrgenommen, zb beim Ohr:
Das hat den Vorteil dass man zb SEHR leise Töne hören kann (<0 dB) aber auf der anderen Seite millardenfach(!!) lautere Geräusche (>100dB) keine Überreizung darstellen.
dB ist ja ebenfalls eine logarithmische Skala, dh 0 ist nicht gleich "kein Ton". 100 dB sind etwa das 9-Mrd.-fache von 0 dB.

Ähnlich ist dies beim Auge. Da digitale Helligkeitswerte aber eine lineare Abstufung haben, ergibt sich folgendes Problem: Bei sehr dunklen Farben ist die Helligkeitsauflösung des Auges deutlich größer als was der Monitor darstellen kann. Bei sehr hellen geht hingegen Auflösungspräzision "verloren", weil diese das Auge nicht mehr unterscheiden kann (bzw das Gehirn).

"Fotorealistsche" Grafik scheitert im Mom meiner Ansicht nach daran, dass es zu viele Unterschiede zw digitaler Darstellung und menschlicher Empfindung gibt. Mit höherer Rechenauflösung versucht man da zu kompensieren, aber was nützen etliche Billionen Abstufungen wenn nur 8 bit auf den Monitor kommen? ;)

Gast
2006-06-29, 13:28:05
Gast[/POST]']
Das hat den Vorteil dass man zb SEHR leise Töne hören kann (<0 dB)


naja, bei 0dB liegt eigentlich die hörschwelle, geräusche <0dB kann man demzufolge nicht mehr wahrnehmen ;)



Ähnlich ist dies beim Auge. Da digitale Helligkeitswerte aber eine lineare Abstufung haben, ergibt sich folgendes Problem: Bei sehr dunklen Farben ist die Helligkeitsauflösung des Auges deutlich größer als was der Monitor darstellen kann. Bei sehr hellen geht hingegen Auflösungspräzision "verloren", weil diese das Auge nicht mehr unterscheiden kann (bzw das Gehirn).


sRGB versucht diesen umstand auszunutzen.

aths
2006-06-29, 14:41:39
Gast[/POST]']Ähnlich ist dies beim Auge. Da digitale Helligkeitswerte aber eine lineare Abstufung haben, ergibt sich folgendes Problem: Bei sehr dunklen Farben ist die Helligkeitsauflösung des Auges deutlich größer als was der Monitor darstellen kann. Bei sehr hellen geht hingegen Auflösungspräzision "verloren", weil diese das Auge nicht mehr unterscheiden kann (bzw das Gehirn).Digitale Werte müssen keineswegs eine lineare Abstufung haben. sRGB-Speicherung speichert zum Beispiel in "8 Bit Integer" nichtlineare Werte. 50% Helligkeit ist nicht mit 127 oder 128 kodiert, sondern mit 186. FP-Formate haben von vornherein eine nichtlineare Quantisierung.

tokugawa
2006-06-30, 01:31:40
Gast[/POST]']
"Fotorealistsche" Grafik scheitert im Mom meiner Ansicht nach daran, dass es zu viele Unterschiede zw digitaler Darstellung und menschlicher Empfindung gibt. Mit höherer Rechenauflösung versucht man da zu kompensieren, aber was nützen etliche Billionen Abstufungen wenn nur 8 bit auf den Monitor kommen? ;)

Meiner Ansicht nach scheitert es daran, weil vergessen wird, dass der Mensch nicht technisch wahrnimmt, sondern die Wahrnehmung immer von Kontextinformation ("Emotion", wenn man so will) beeinflußt ist.

"Realismus" ist finde ich sowieso ein Unwort (auch unter meinen Kollegen am CG-Institut teilweise). Authentizismus ist viel wichtiger, denn Authentizismus beschreibt etwa Grafik, die zwar nicht unbedingt physikalisch realistischer ist, aber realistischer wahrgenommen wird, weil "crossmodal" der Kontext stimmt (etwa durch Soundkulisse oder eine emotionale Verbindung mit dem Inhalt - etwa Charaktere, Story).

Rein technokratischer Realismus wird nur sehr schwer dazu führen dass solch-generierte Bilder auch als "realistisch" empfunden werden, zumindest nicht von allen Menschen in gleicher Weise.

Und ja, ich mag das Wort "Realismus" nicht. Vor allem deswegen weil fast jeder dem so unkritisch-positiv gegenübersteht und Realismus als den heiligen Graal der Computergrafik sieht.

aths
2006-06-30, 01:38:39
Resident Evil sieht – mit nur 18 Bit Farbe – auf dem GC imo von allen Spielen dieser Konsolengeneration am besten aus. Am "realistischsten" sozusagen, obwohl es massive Qualitätskompromisse gibt. Die Glaubwürdigkeit der 3D-Welt dort ist enorm.

Matt
2006-06-30, 23:19:53
Frage: Gibt es Monitore, die dem CIE Farbraum näher kommen als die jetzigen, z.B. durch den Einsatz weiter Farben? Ich fände es besser, einen größeren Farbraum abzudecken als mehr Bit Farbe zu haben.

Gast
2006-06-30, 23:21:21
Matt[/POST]']Frage: Gibt es Monitore, die dem CIE Farbraum näher kommen als die jetzigen, z.B. durch den Einsatz weiter Farben? Ich fände es besser, einen größeren Farbraum abzudecken als mehr Bit Farbe zu haben.

zumindest keine bezahlbaren ;)

profi-monitore können teilweise immerhin AdobeRGB-abdecken.

Aquaschaf
2006-07-01, 11:40:08
tokugawa[/POST]']Und ja, ich mag das Wort "Realismus" nicht. Vor allem deswegen weil fast jeder dem so unkritisch-positiv gegenübersteht und Realismus als den heiligen Graal der Computergrafik sieht.

Das stimmt. Ich finde Realismus ist eine unter vielen Stilrichtungen die man mit Computergrafik erreichen kann. Aber einerseits ist es nicht leicht das gut ohne Inkonsistenzen hinzubekommen und andererseits gibt es so viele andere Möglichkeiten Grafik zu gestalten. Warum sich auf den banalen Realismus beschränken?