Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Der lange Weg zum HDR-Rendering
Leonidas
2006-01-01, 00:06:20
Link:
http://www.3dcenter.org/artikel/2006/01-01_a.php
Update:
Kleine Schreibfehler gefixt.
Erster :smile:
Ist beides gut.
Das neue Jahr und der Artikel :rolleyes: , erstaunlich was aths alles schreiben kann, wüsste nicht, wie ich über dieses Thema so viele Worte verlieren könnte. Aber aths ist ja so ein Grafikspezi. Also, wie gesagt echt guter Artikel, der mir schon beim Überfliegen gefallen hat, vertiefe mich mal etwas mehr drin :wink: .
Frohes Neues und mit Grüßen
Jan
BlackArchon
2006-01-01, 00:28:10
Lol Leo, du wolltest wohl keinen alten Ballast mit ins neue Jahr nehmen. :D
Leonidas
2006-01-01, 00:32:25
Naja, ich bin mom viel offline und hab daher Zeit für typische Offline-Arbeiten wie Artikel HTMLisieren/korrigieren. Da kommt demnächst noch mehr.
mapel110
2006-01-01, 00:40:51
Beim Environmental Bumpmapping nutze man zu DirectX6- und DirectX7-Zeiten bestimmte Units in den Rechenwerken für Texturoperationen und im Combiner. Seitdem es Pixelshader gibt, wird die Funktionalität dieser Units auf allgemeiner verwendbare Operationen abstrahiert. Das gilt insbesondere ab Pixelshader 1.4, Version 1.1 - 1.3 sind, böse gesagt, nur vereinheitlichte Multitexturing-Setups.
nutzte
R520 bietet keine FP16-Texturfilterung, nur FX16-Texturen können in den TMUs gefiltert werden. FX16 ist aber klar nur ein MDR-Format. HDR-Texturen müssten aufwändig im Pixelshader gefiltert werden, wobei bilineare Filterung schon sehr aufwändig, anisotrope Filterung praktisch unmöglich ist. Kantenglättung wird im Prinzip geboten, bishin zu 6x sparse Multisampling. In welcher Endgeschwindigkeit das resultiert, wissen wir noch nicht.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=21
Schade finde ich, dass praktisch kaum Beispiele genannt werden, was HDR ist und was nicht, also bezogen auf spezielle Spiele, wie Serious Sam2, HL2, Farcry etc pp.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=21Was sagt der Link?
Schade finde ich, dass praktisch kaum Beispiele genannt werden, was HDR ist und was nicht, also bezogen auf spezielle Spiele, wie Serious Sam2, HL2, Farcry etc pp.Das habe ich mit Absicht vermieden. Der Artikel will nicht, dass der User einen Effekt sieht und gesagt bekommt: "Das ist HDR-Rendering", er soll HDR-Rendering "von innen heraus" verstehen.
Bei Screenshot-Vergleichen 16 Bit vs. 32 Bit zum Beispiel hängt das Aussehen des 16-Bit-Bildes entscheidend vom Dither-Algorithmus ab. Beim HDR-Rendering hängt das Bild entscheidend vom Tonemapping ab. Die Unterschiede zwischen aktiviertem HDR-Rendering und deaktiviertem HDR-Rendering hängen extrem von den Programmierkünsten des Entwicklers und der Fähigkeit des Artworkers ab. Gerade MMORPG, und andere Spiele, die einen Tag-Nacht-Rhythmus haben, würden von HDR-Rendering entscheidend profitieren. Dazu muss aber erst mal vernünftiger Content geschaffen werden. Andererseits spart man sich auch die Arbeit, speziellen LDR-Content für unterschiedliche Lichtbedingungen zu erstellen. Nur dürfte es auf absehbare Zeit kaum Spiele geben, die nur in HDR rendern, so dass der LDR-Content dann doch wieder erforderlich ist. Gespart wird dann wohl am HDR-Content, mit der Folge, dass die Entwickler zwei oder drei "HDR-Effekte" einbauen. Toll. Aber was HDR-Rendering eigentlich ist, wird damit nicht klar. Ich will weg davon, dass der User heiß auf "HDR-Effekte" ist, er soll heiß auf vernünftiges HDR-Rendering werden. Dessen Vorteile sind aber in vielen Situationen subtiler Natur, damit kann man schlecht auf Screenshots protzen.
Botcruscher
2006-01-01, 00:47:29
Schade finde ich, dass praktisch kaum Beispiele genannt werden, was HDR ist und was nicht, also bezogen auf spezielle Spiele, wie Serious Sam2, HL2, Farcry etc pp.
Ja da hab ich auch mein Problem.
Ist das schon HDR oder nur die viel geworbene Überblendeffekt?
http://img511.imageshack.us/my.php?image=farcryexe08rc.jpg
(Hab mir den Screen mal aus dem Grakaforum ausgeborgt)
Kann Farcray eigentlich "richtiges" HDR?
mapel110
2006-01-01, 00:50:17
Was sagt der Link?
Er sagt, in welcher Endgeschwindigkeit AA bei HDR-Rendering resultiert. Oder doch nicht? FarcryHDR-Rendering wurde jedenfalls bislang immer als "echtes" HDR-Rendering bezeichnet. :smile:
Er sagt, in welcher Endgeschwindigkeit AA bei HDR-Rendering resultiert. Oder doch nicht? FarcryHDR-Rendering wurde jedenfalls bislang immer als "echtes" HDR-Rendering bezeichnet. :smile:Das FC-HDR-Rendering nutzt überwiegend für LDR ausgelegten Content. FC möchte ich daher nicht als Referenz für HDR-Rendering sehen. edit: Die fps gehen offenbar ganz schön in den Keller. Trotzdem möchte ich HDR-Rendering mit Multisampling-AA sehen.
deekey777
2006-01-01, 01:11:41
Letzte Seite:
Welche Grafikkarten können HDR-Rendering?
[...]
NV40 und G70 bieten FP16-TMUs und FP16-Alphablender, R520 bietet nur FP16-Alphablender, und die Möglichkeit, Multisampling-Antialiasing zu nutzen.
Überflüssig.
Jetzt sind die meisten Klarheiten beseitigt. ;) :up:
Ein paar Dinge im Artikel sind meiner Meinung nach nicht treffend und teils auch nicht zutreffend:
1) Die Papier-Analogie im Abschnitt "Die Berechnung der Dynamik" verdeutlich eine grundlegende Verständnisschwierigkeit: Papier reflektiert Licht, Bildschirme emittieren Licht. Natürlich reflektiert auch ein Bildschirm, aber das ist bei der normalen Indoor-Anwendung vernachlässigbar. Die Konsequenz aus diesem Unterschied ist, das das Papier bei "100% weiß" das gesamte einfallende Licht reflektiert - wie viel auch immer das sein mag. Ein Monitor hat die maximale Helligkeit aber selbst in der Hand, hier entspricht "100% weiß" einer genau einstellbaren Strahlungsmenge. Wenn man nun ein Papier auf dem Bildschirm darstellen möchte, wählt man üblicherweise als virtuelle Lichtquelle eine solche, die der maximalen Helligkeit des Bildschirms entspricht (100%). Multipliziert mit der Papierfarbe (100%) ergibt sich daraus der angezeigte Wert (100%). Das ist weder "bedenkenlos" noch sonst irgendwie verwerflich sondern naheliegend und korrekt.
Der Punkt ist einfach, dass man bei HDR keinen absoluten 100%-Wert mehr hat: Es gibt in der Realität keine maximale Helligkeit. Ein Papier kann beliebig hell werden, ich muss nur die Lichtquelle entsprechend wählen. Es gibt allerdings einen relativen 100%-Wert: Eine Oberfläche kann nicht mehr Licht reflektieren als auf sie einfällt. D.h. in der Realität und damit auch im HDR-Rendering habe ich eine Lichtquelle mit Strahlungsleistung L>0 und eine Oberfläche, die davon 0<R<1 reflektiert, also eine End-Helligkeit von L*R. Herkömmliches Rendering begrenzt L künstlich auf 0<L<1. Wenn ich also von "100% weiß" spreche, dann konnte man das früher noch als L=1 oder R=1 durchgehen lassen, bei HDR ergibt es aber nur noch für R=1 einen Sinn, da % ein Maximum impliziert, dass für L nicht existiert.
Die direkte Konsequenz daraus ist dann auch, dass für einen HDR-Monitor "100%" nicht sinnvoll definiert werden kann: Natürlich hat er eine physikalisch begrenzte maximale Helligkeit, aber in seiner Form als idealisiertes Ausgabemedium müßte er prinzipiell in der Lage sein, jede gewünschte Helligkeit darzustellen. Deshalb wäre es naheliegend, nicht mehr in % zu denken, sondern in physikalischen Einheiten, z.B. Candela (http://de.wikipedia.org/wiki/Candela). Damit gäbe es auch für das im Artikel genannte "überhelle Weiß" keine Berechtigung mehr: Man würde einfach die gewünschte physikalische Helligkeit angeben.
Für die auf Seite 1 erwähnten Lightmaps bedeutet das übrigens folgendes: Ohne Lightmaps hat man implizit auch eine Lichtquelle, und zwar eine der Helligkeit 1. Damit dunkeln Lightmaps nicht ab sondern ersetzen nur eine konstante Lichtquelle der Helligkeit 1 durch eine variable, die bei HDR durchaus auch Werte >1 annehmen kann.
2) "log10 255=2,4. Um die logarithmische Darstellung deutlich zu machen, bezeichnen wir die Dynamik als 2,4 dB." ist falsch: dB sind deziBel, wobei das dezi dafür steht, dass der Wert noch mit 10 multipliziert wurde (http://de.wikipedia.org/wiki/Dezibel). Für den Kontrast ergibt sich damit: 10*log10(255/1) dB = 24 dB.
3) In "Welche Grafikkarten können HDR-Rendering?" wird stillschweigend davon ausgegangen, dass HDR-Rendering auch HDR-Texturen benötigt. Das ist allerdings in der Praxis selten der Fall: Texturen, die die Reflektivität einer Oberfläche beeinflussen, sind physikalisch auf den Wertebereich 0..1 beschränkt. Nicht zuletzt in den auf Seite 1 geschilderten Szenarien beschränkt sich der große Wertebereich auf die Lichtquelle: Im Keller ist es nicht deshalb dunkel, weil die Wände mit schwarzem Samt abgehangen sind, sondern weil einfach kein Licht rein kommt. D.h. man kann in der Praxis durchaus mit 8-Bit-Texturen sinnvoll HDR-Rendering betreiben. Ausnahmen sind natürlich die Lightmaps.
Insgesamt hätte ich mir für diesen Artikel gewünscht, der Physik ein wenig mehr Beachtung zu schenken. Die eigentliche Stärke von HDR-Rendering ist die Aufhebung der künstlichen Beschränkung der Lichtquelle auf <1, und dieser Punkt wurde mit keinem Wort erwähnt.
Wer sich näher dafür interessiert, sollte mal einen Blick auf http://www.debevec.org/ werfen und das Buch http://www.pbrt.org/ ausleihen. Ein paar Grundlagen in Text und Bild sind auch in meiner Diplomarbeit zu finden: http://www.copro.org/download/diplomarbeit_malte_clasen.pdf
Ein paar Dinge im Artikel sind meiner Meinung nach nicht treffend und teils auch nicht zutreffend:Jopp, der Artikel stellt einige Dinge vereinfacht dar. Mein Posting hier soll dein Posting nur kommentieren (und nicht widerlegen. Sachliche Kritik wie soeben von dir geäußert erlebe ich leider viel zu selten.)
1) Die Papier-Analogie im Abschnitt "Die Berechnung der Dynamik" verdeutlich eine grundlegende Verständnisschwierigkeit: Papier reflektiert Licht, Bildschirme emittieren Licht. Natürlich reflektiert auch ein Bildschirm, aber das ist bei der normalen Indoor-Anwendung vernachlässigbar. Die Konsequenz aus diesem Unterschied ist, das das Papier bei "100% weiß" das gesamte einfallende Licht reflektiert - wie viel auch immer das sein mag. Ein Monitor hat die maximale Helligkeit aber selbst in der Hand, hier entspricht "100% weiß" einer genau einstellbaren Strahlungsmenge. Wenn man nun ein Papier auf dem Bildschirm darstellen möchte, wählt man üblicherweise als virtuelle Lichtquelle eine solche, die der maximalen Helligkeit des Bildschirms entspricht (100%). Multipliziert mit der Papierfarbe (100%) ergibt sich daraus der angezeigte Wert (100%). Das ist weder "bedenkenlos" noch sonst irgendwie verwerflich sondern naheliegend und korrekt.
Der Punkt ist einfach, dass man bei HDR keinen absoluten 100%-Wert mehr hat: Es gibt in der Realität keine maximale Helligkeit. Ein Papier kann beliebig hell werden, ich muss nur die Lichtquelle entsprechend wählen. Es gibt allerdings einen relativen 100%-Wert: Eine Oberfläche kann nicht mehr Licht reflektieren als auf sie einfällt. D.h. in der Realität und damit auch im HDR-Rendering habe ich eine Lichtquelle mit Strahlungsleistung L>0 und eine Oberfläche, die davon 0<R<1 reflektiert, also eine End-Helligkeit von L*R. Herkömmliches Rendering begrenzt L künstlich auf 0<L<1. Wenn ich also von "100% weiß" spreche, dann konnte man das früher noch als L=1 oder R=1 durchgehen lassen, bei HDR ergibt es aber nur noch für R=1 einen Sinn, da % ein Maximum impliziert, dass für L nicht existiert.
Die direkte Konsequenz daraus ist dann auch, dass für einen HDR-Monitor "100%" nicht sinnvoll definiert werden kann: Natürlich hat er eine physikalisch begrenzte maximale Helligkeit, aber in seiner Form als idealisiertes Ausgabemedium müßte er prinzipiell in der Lage sein, jede gewünschte Helligkeit darzustellen. Deshalb wäre es naheliegend, nicht mehr in % zu denken, sondern in physikalischen Einheiten, z.B. Candela (http://de.wikipedia.org/wiki/Candela). Damit gäbe es auch für das im Artikel genannte "überhelle Weiß" keine Berechtigung mehr: Man würde einfach die gewünschte physikalische Helligkeit angeben.Beim weißen Papier gehe ich stillschweigend davon aus, dass es von Tageslicht (oder heller Zimmerbeleuchtung) angestrahlt wird. Das "überhelle Weiß" ist ein eigentlich unsinniges Konstrukt im Artikel, da "weiß" ja eben weiß ist. Mir ging es darum, dass das Empfinden "weiß" erheblich von den Umgebungsbedingungen abhängt, und dass es für das Auge ermüdend ist, wenn der Fensterhintergrund einer Applikation sehr hell ist. Es ist meiner Meinung nach nicht sinnvoll, für heutige Monitore als Fensterhintergrund die hellste darstellbare (unbunte) Farbe zu nehmen.
Beim HDR-Rendering hat man durchaus einen Wert für 100%, eben 1,0, nur gibt es auch Werte oberhalb von 100%. Wie hell man 100% nun definiert, wäre eine interessante Frage :) Aber auch "HDR-Monitore" haben eine maximale Helligkeit, das wäre lt. Wortbedeutung 100%. Nur darf die Grafikkarte herkömmliches 100% nicht als "HDR-100%" interpretieren.
Die Vorteile vom Overbright Lighting (also das Rechnen mit Lichthelligkeiten oberhalb von 100%) sind ja schon vor dem Aufkommen von HDR-Rendering bekannt gewesen. Overbright Lighting schließt jedoch nicht unbedingt Tonemapping mit ein, und um den Artikel in seiner Länge zu begrenzen verkniff ich mir die Diskussion um Overbright Lighting. Jeder DirectX9-Karte beherrscht sehr gutes Overbright Lighting, sofern man das Pixel in einem Pass rendern kann. Beim HDR-Rendering ist es aber gar nicht so wichtig, ob man auch Farben die heller als 100% sind verrechnen kann, da sich die Werte im Shader ja skalieren lassen. Um dabei nicht zu viel Auflösung zu verlieren, benötigt man nur ein Format, welches hohe Dynamik und eine sinnvoll gestaffelte, feine Quantisierung bietet.
Für die auf Seite 1 erwähnten Lightmaps bedeutet das übrigens folgendes: Ohne Lightmaps hat man implizit auch eine Lichtquelle, und zwar eine der Helligkeit 1. Damit dunkeln Lightmaps nicht ab sondern ersetzen nur eine konstante Lichtquelle der Helligkeit 1 durch eine variable, die bei HDR durchaus auch Werte >1 annehmen kann.
2) "log10 255=2,4. Um die logarithmische Darstellung deutlich zu machen, bezeichnen wir die Dynamik als 2,4 dB." ist falsch: dB sind deziBel, wobei das dezi dafür steht, dass der Wert noch mit 10 multipliziert wurde (http://de.wikipedia.org/wiki/Dezibel). Für den Kontrast ergibt sich damit: 10*log10(255/1) dB = 24 dB.Ja, "dezi" steht eigentlich dafür, dass man Zehntel angibt, 24 dB wären demnach 2,4 B. Die Unterlagen, die ich zur Dynamikberechnung kenne, nutzen allerdings dB wie ich es im Artikel tu. Trotzdem zieht das Argument, dass man für dB mit 10 multipliziert, mehr. Da lasse ich mir was einfallen, um das im Artikel richtig zu stellen.
Bei den Lightmaps blieb ich ziemlich schmallippig, da man Lightmaps oft auch für vorgerenderte Schatten nutzt. Ich wollte mich aufs Shading konzentrieren. Wer sich aus Interesse mit Beleuchtung und/oder Schattenwurf im Detail auseinandergesetzt hat, wird im Artikel Verkürzungen und Vereinfachungen finden. Hier bitte ich um Nachsicht, dass ich den Artikel in seiner Länge und Tiefe begrenzt habe. Anmerkungen wie dein Posting sind natürlich willkommen.
3) In "Welche Grafikkarten können HDR-Rendering?" wird stillschweigend davon ausgegangen, dass HDR-Rendering auch HDR-Texturen benötigt. Das ist allerdings in der Praxis selten der Fall: Texturen, die die Reflektivität einer Oberfläche beeinflussen, sind physikalisch auf den Wertebereich 0..1 beschränkt. Nicht zuletzt in den auf Seite 1 geschilderten Szenarien beschränkt sich der große Wertebereich auf die Lichtquelle: Im Keller ist es nicht deshalb dunkel, weil die Wände mit schwarzem Samt abgehangen sind, sondern weil einfach kein Licht rein kommt. D.h. man kann in der Praxis durchaus mit 8-Bit-Texturen sinnvoll HDR-Rendering betreiben. Ausnahmen sind natürlich die Lightmaps.Der Artikel geht in erster Linie davon aus, dass man fürs Tonemapping dem Mittelwert der Bildhelligkeit kennen muss, was sich via MIP-Mapping (von NPOT-Rendertargets) einigermaßen effizient bewerkstelligen lässt, das Auto-MIP-Mapping nutzt den bilinearen Texturfilter. Die TMU muss demnach auch FP-Texturen filtern können. Auch für bestimmte Input-Texturen ist ein HDR-Format nützlich. HDR-Lightmaps wären ein Beispiel, was du ja auch genannt hast, um auch aufhellen zu können, ohne dass die Auflösung im dunkleren Bereich zu gering wird.
Das Keller-Beispiel bezieht sich auf den Framebuffer: Um dort dunkle Farben zu speichern, kann man nur die hinteren Bits nutzen, da die führenden Bits alle Null sind. Mit einem FP-Format hat man das Problem ja nicht. Mittels Tonemapping kann man die dunklen FP-Werte wieder "hochziehen" (aufhellen) ohne dass man gleich übles Colorbanding hat.
Insgesamt hätte ich mir für diesen Artikel gewünscht, der Physik ein wenig mehr Beachtung zu schenken. Die eigentliche Stärke von HDR-Rendering ist die Aufhebung der künstlichen Beschränkung der Lichtquelle auf <1, und dieser Punkt wurde mit keinem Wort erwähnt.
Wer sich näher dafür interessiert, sollte mal einen Blick auf http://www.debevec.org/ werfen und das Buch http://www.pbrt.org/ ausleihen. Ein paar Grundlagen in Text und Bild sind auch in meiner Diplomarbeit zu finden: http://www.copro.org/download/diplomarbeit_malte_clasen.pdfDas Anheben der Lichthelligkeiten auf Werte > 1 sehe ich nur als Baustein beim HDR-Rendering, oder konkreter, als eine Möglichkeit der Realisierung. Die Frage ist, wie hell denn 1 sein soll. Mit einem FX32-Format, das von 0 bis 1 geht, könnte man auch HDR-Rendering gestalten – ganz ohne "überhelle" Farben.
Meine Diplomarbeit schrieb ich zum Thema Texturkomprimierung (für Fototexturen), meine Belegarbeit zur Farbton-Erkennung – HDR-Rendering ist also nicht mein Spezialgebiet.
Rentner
2006-01-01, 03:06:18
boahh, ich habs jetzt nur ansatzweise gelesen und mein alkoholvernebeltes Gehirn hat sich geweigert derartige Informationen aufzunehmen!
Ich werde mir das aber noch im laufe des Jahres zu Gemüte führen, aber jetzt nicht mehr!
Ansonsten wünsche ich euch ein gesundes neues Jahr und macht weiter so! :up:
OBrian
2006-01-01, 03:50:49
Letzte Seite:
Welche Grafikkarten können HDR-Rendering?
[...]
NV40 und G70 bieten FP16-TMUs und FP16-Alphablender, R520 bietet nur FP16-Alphablender, und die Möglichkeit, Multisampling-Antialiasing zu nutzen.
Überflüssig.
Jetzt sind die meisten Klarheiten beseitigt. ;) :up:Würde ich nicht sagen, immerhin erfährt man, daß es bisher keine Karte hundertprozentig richtig kann.
Ich fände es übrigens gut, wenn auf die HDR-Unterstützung (sowohl feature- als auch leistungsmäßig) der kommenden Karten in deren Reviews ebenfalls kurz eingegangen würde. Bei der R580 kann ich mir jedenfalls jetzt gut vorstellen, daß die Verdreifachung des Pixelshaders der HDR-Leistung sicher zugute kommen wird. Ebenso könnte man es lobend erwähnen (und testen), falls Ati seine TMUs auf FP16 verbesserte oder Nvidia seine Tonemappingeinheit repariert bekäme oder MSAA ermöglicht. Denn ich befürchte, das werden die einem aufgrund der geringeren Marketingwirksamkeit nicht so intensiv unter die Nase reiben wie die neuesten 3D-Mark-Ergebnisse.
Moinsen,
also meine ganz persöhnliche Meinung zu "HDR" ist eher "Negativ"...denn aus meiner Sicht,sieht es eher übertrieben aus.In keinem Falle "natürlich"...
lg dman
Moinsen,
also meine ganz persöhnliche Meinung zu "HDR" ist eher "Negativ"...denn aus meiner Sicht,sieht es eher übertrieben aus.In keinem Falle "natürlich"...
lg dmanMeine Meinung - Gebt mir bitte mehr von diesem Stoff. Und außerdem zeigt sich hier, wie stark wir doch von Gastpostings dieser Güte abhängen. Nur mal am Rande.
HDR mag im Moment ein Hype sein, aber darüber zu diskutieren lohnt allemal. Gerade dann, wenn wir dabei Einblicke bekommen, die ansonsten nur die Spezialisten unter sich austauschen.
-error-
2006-01-01, 04:43:26
Es heisst HDRR :P
Es heisst HDRR :PEs heißt heißt.
Moinsen,
also meine ganz persöhnliche Meinung zu "HDR" ist eher "Negativ"...denn aus meiner Sicht,sieht es eher übertrieben aus.In keinem Falle "natürlich"...
lg dmanGenau das spricht der Artikel doch an: Was heute als "HDR-Rendering" verkauft wird, sind überwiegend solche Blend-Effekte. Tatsächlich bedeutet HDR-Rendering was anderes, es ist ein wichtigerer Schritt als seinerzeit der Übergang vom 16-Bit- zum 32-Bit-Framebuffer. Vernünftiges HDR-Rendering sorgt für eine Grafikqualität (vor allem in Bezug auf die Beleuchtung) die ohne HDR-Rendering einfach nicht möglich ist.
Und: Bitte nicht nur von "HDR" sprechen. "HDR" alleine bringt dir gar nix, denn ohne Tonemapping siehst du nichts. Der Begriff "HDR-Rendering" hingegen schließt Tonemapping mit ein.
Würde ich nicht sagen, immerhin erfährt man, daß es bisher keine Karte hundertprozentig richtig kann.
Ich fände es übrigens gut, wenn auf die HDR-Unterstützung (sowohl feature- als auch leistungsmäßig) der kommenden Karten in deren Reviews ebenfalls kurz eingegangen würde. Bei der R580 kann ich mir jedenfalls jetzt gut vorstellen, daß die Verdreifachung des Pixelshaders der HDR-Leistung sicher zugute kommen wird. Ebenso könnte man es lobend erwähnen (und testen), falls Ati seine TMUs auf FP16 verbesserte oder Nvidia seine Tonemappingeinheit repariert bekäme oder MSAA ermöglicht. Denn ich befürchte, das werden die einem aufgrund der geringeren Marketingwirksamkeit nicht so intensiv unter die Nase reiben wie die neuesten 3D-Mark-Ergebnisse."HDR-Unterstützung" hat jede DX9-Grafikkarte qua definitionem. (Weil DX9 für Pixelshader mindestens FP24 fordert, was in jedem Fall "HDR", also "High Dynamic Range" bietet.)
Betrachtet man HDR-Rendering, schrieb der Artikel doch, dass wir vom Denken "Feature ABC bringt Effekt XYZ" wegkommen müssen. Wie gut oder schlecht eine gegebene Karte mit HDR-Rendering performt, hängt ganz entscheidend von der konkreten HDR-Rendering-Realisierung der Applikation ab. Es gibt mehr als einen Weg, HDR-Rendering zu realisieren. Das kann mit unterschiedlichen Formeln fürs Tonemapping begründet sein, oder mit Implementierungsdetails, welche auf die Eigenarten bestimmter GPUs Rücksicht nehmen. Dazu kommt die Frage, was für Content genutzt wird, zum Beispiel ob FP-Texturen gefiltert werden müssen.
Man kann zwar gucken, welche Units die GPU bietet, um performantes HDR-Rendering zu unterstützen, doch das Vorhandensein solcher Units ist nicht alles. Auch die Chip-interne Bandbreite, die Bandbreite zum Grafik-RAM und andere Fragen spielen eine Rolle. Letzlich kann man nur grob abschätzen, wie gut sich die Hardware bei adaptivem HDR-Rendering schlagen dürfte. Das einfach zu benchen ist riskant, da es bisher nur eine handvoll Spiele gibt, die echtes HDR-Rendering anbieten. Diese Spiele müssen berücksichtigen, dass sich Nvidias und ATIs derzeitige Hardware stark unterscheiden. Entweder hat das Spiel mehrere HDR-Rendering-Pfade, welche dann wohl auch in unterschiedlicher Grafikqualität resultieren – Vergleichsbenches sind dann wertlos – oder eine bestimmte Hardware wird benachteiligt, oder es handelt sich nur für das ungeübte Auge um HDR-Rendering, während tatsächlich nur ein oder zwei Grafikspielereien geboten werden, die die Spielegrafik übertrahlt, aber nicht unbedingt realistischer wirken lassen.
Tigerchen
2006-01-01, 09:02:14
Noch schwieriger ist der Schattenwurf. Gerade weil die 3D-Szene auf eine 2D-Ausgabe abgebildet wird, benötigen wir Schatten, um Entfernungen abschätzen zu können.
Das halte ich für falsch. Um Entfernungen abschätzen zu können brauche ich keine Schatten. Man macht das anhand der perspektivischen Verkleinerung und durch die Tiefenunschärfe wobei bei großen Entfernungen auch die Blauverschiebung des Lichts eine Rolle spielt. Das muß auch so sein damit wie bei diffusen Lichtverhältnissen mit allenfalls sehr blassen Schatten Entfernungen abschätzen können.
Sehe ich das richtig daß beim HDR-Rendering erst Farbwerte weit jenseits der Darstellungsmöglichkeiten des Monitors erzeugt werden müßen um sie dann mittels Tonemapping wieder runter zu skalieren?
Wenn nun aber alle überstrahlten Farben die das HDR-Rendering irgendwo in einer Szenerie erzeugt werden am Ende wieder auf 100% runtergerechnet werden heißt das doch im Umkehrschluß das normale Farben weniger hell sein müßen um einen Unterschied sichtbar zu machen. Spiele werden also kontrastreicher aber überall da wo keine starken Lichteinfälle sind auch viel dunkler. Müßte an dieser Stelle nicht radiosity lightning ins Spiel kommen um wirklich realistisches Licht zu erzeugen?
(sag ich einfach mal so als Laie)
Aquaschaf
2006-01-01, 11:51:05
Da du zwei Augen hast kannst du in Wirklichkeit natürlich ohne Schatten Entfernungen abschätzen. Trotzdem sind Schatten sehr wichtig um Objekten eine Position auf einem zweidimensionalen Bild zu geben. Man kann ziemlich leicht Szenen konstruieren, in denen es ohne Schatten unmöglich ist die Größe bzw. Entfernung von Objekten abzuschätzen.
Spiele werden also kontrastreicher aber überall da wo keine starken Lichteinfälle sind auch viel dunkler.
Das ist doch gerade der Punkt; es gibt keine absolute Helligkeit. Deswegen können auch Szenen ohne starke Lichteinfälle hell erscheinen.
Auch wenn manches ungenau ist finde ich den Artikel ganz gut. Aber mit ein paar Screenshots hätte man noch besser verdeutlichen können was HDR-Rendering bedeutet und was nicht.
harrypitt
2006-01-01, 11:59:47
Toller Artikel aths!
:massa:
Es freut mich, dass HDR-Rendering nun so erklärt ist, dass ich es auch verstehe...
Tigerchen
2006-01-01, 13:14:53
Da du zwei Augen hast kannst du in Wirklichkeit natürlich ohne Schatten Entfernungen abschätzen. Trotzdem sind Schatten sehr wichtig um Objekten eine Position auf einem zweidimensionalen Bild zu geben. Man kann ziemlich leicht Szenen konstruieren, in denen es ohne Schatten unmöglich ist die Größe bzw. Entfernung von Objekten abzuschätzen.
In konstruierten Szenen. M.C.Escher kann jede perspektivische Wahrnehmung ad absurdum führen. Allerdings nur in speziell kunstruierten Szenarien. Bei Doom3 habe ich keine Probleme die Entfernung zu den Monstern auch ohne Schatten abzuschätzen. Gerade bei Videogames sind Schatten zwar nettes Beiwerk. Damit kann man Szenen sicher realer oder auch metaphysischer erscheinen lassen wie in Doom3. Aber als Entfernungsmesser sind sie völlig ungeeignet.
Das ist doch gerade der Punkt; es gibt keine absolute Helligkeit. Deswegen können auch Szenen ohne starke Lichteinfälle hell erscheinen.
Da Monitore das nicht wirklich darstellen können mag HDR zwar effektvoll aussehen aber es verfälscht dann eben auch die Farben. Bin mal gespannt wie das in 3 Jahren aussieht wenn erstmals durchgängig mit HDR gerenderte Spiele erscheinen.
Mad-Marty
2006-01-01, 14:04:55
Ersteinmal möchte ich sagen, das der Artikel gut erklärt wurde.
Allerdings wie schon festgestellt, sind aktuelle HDRR Einsatzgebiete in Spielen eher schlecht. Stichwort überstrahleffekt. Ich finde es höchst unrealistisch, das z.B. in AOE3 "Piraten!" (direkt der start mit dem Wagen) der Sandstrand das schwarze Pferd komplett überstrahlt und als grau erscheinen lässt.
Sollte das an dieser stelle nicht eigentlich Schwarz erscheinen weil es nunmal ein Schwarzes Pferd ist - was noch dazu in absoluten kontrast zu einem sehr hellen, von der Sonne angestrahlten Strand steht ?
Solche Überstrahleffekte sind imo die sinnloseste verbratung von Rechenzeit,
da sie teilweise einfach unpassend wirken.
Ich finde es höchst unrealistisch, das z.B. in AOE3 "Piraten!" (direkt der start mit dem Wagen) der Sandstrand das schwarze Pferd komplett überstrahlt und als grau erscheinen lässt.
Sollte das an dieser stelle nicht eigentlich Schwarz erscheinen weil es nunmal ein Schwarzes Pferd ist - was noch dazu in absoluten kontrast zu einem sehr hellen, von der Sonne angestrahlten Strand steht ?
Diese konkrete Szene kenne ich nicht, aber prinzipiell ist das von Dir beschriebene Verhalten korrekt: Ein absolut schwarzes Pferd würde weder Licht reflektieren noch emittieren, wäre also analog zu einem schwarzen Loch zu sehen. In der Realität reflektiert aber auch ein schwarzes Pferd - vielleicht nur 5% des einfallenden Lichts, aber immerhin. Bei einer sehr hellen Lichtquelle kann das absolut gesehen schon heller sein als ein weisses Pferd bei Mondschein.
Da du zwei Augen hast kannst du in Wirklichkeit natürlich ohne Schatten Entfernungen abschätzen.
Das hängt stark von der Entfernung zu den Objekten ab und funkioniert nur wenige Meter weit wirklich zuverlässig.
Waltraud
2006-01-01, 16:28:58
Jetzt hab ich endlich HDR sammt Umfeld verstanden. Danke! :smile:
Allerdings wie schon festgestellt, sind aktuelle HDRR Einsatzgebiete in Spielen eher schlecht. Stichwort überstrahleffekt. Ich finde es höchst unrealistisch, das z.B. in AOE3 "Piraten!" (direkt der start mit dem Wagen) der Sandstrand das schwarze Pferd komplett überstrahlt und als grau erscheinen lässt.
Sollte das an dieser stelle nicht eigentlich Schwarz erscheinen weil es nunmal ein Schwarzes Pferd ist - was noch dazu in absoluten kontrast zu einem sehr hellen, von der Sonne angestrahlten Strand steht ?
Solche Überstrahleffekte sind imo die sinnloseste verbratung von Rechenzeit,
da sie teilweise einfach unpassend wirken.
bei aoe3 wird auch nur bloom genutzt, kein hdrr
deshalb hält sich die rechenzeit auhc in grenzen
resonatorman
2006-01-01, 17:46:56
Seite 2, zweiter Absatz: Saturdation...vielleicht weil der Artikel an einem Samstag geschrieben wurde? ;D
Monger
2006-01-01, 19:44:42
Das halte ich für falsch. Um Entfernungen abschätzen zu können brauche ich keine Schatten. Man macht das anhand der perspektivischen Verkleinerung und durch die Tiefenunschärfe wobei bei großen Entfernungen auch die Blauverschiebung des Lichts eine Rolle spielt. Das muß auch so sein damit wie bei diffusen Lichtverhältnissen mit allenfalls sehr blassen Schatten Entfernungen abschätzen können.
Das sind aber fast alles Punkte, die man mit Monitoren schlecht machen kann. Perspektivische Verkleinerung funktioniert nur in Bewegung (in der Realität kann man immer seinen Betrachtungswinkel variieren, im Computer ist das nicht immer vorgesehen).
Was meinst du mit Tiefenunschärfe und Blauverschiebung? Werden die Lichtwellenlängen in der freien Natur mit zunehmender Entfernung automatisch länger? :confused: Auch Schärfeeffekte kann man am Monitor nicht machen, weil der Computer nicht weiß welchen Punkt am Monitor ich gerade fixiere.
Richtig ist natürlich: in der Realität gewinnen wir unseren dreidimensionalen Eindruck vorallem durch Erfahrung. Das ist aber nicht unbedingt ein Maßstab für Bildqualität. 11 Linien richtig ausgerichtet lassen mich einen Würfel erkennen. Ich erkenne eine Perspektive, aber deshalb habe ich noch lange keinen realistischen Eindruck meines betrachteten Körpers.
@topic: Sehr guter Artikel!
Ich finde, er ist nicht zu theoretisch geworden und gibt trotzdem detaillierte Hintergründe. Ich hab gerade in den letzten Wochen immer wieder hier und da über HDRR diskutiert, aber so wirklich klar war mir die Problematik bis dahin nicht.
Auf jeden Fall habe ich mein persönliches Fazit aus diesem Artikel gezogen: HDRR wird in den nächsten Jahren eine deutliche Steigerung der Bildqualität ermöglichen, aber momentan sind wir sowohl was Software und Hardware angeht weit davon entfernt.
Spasstiger
2006-01-01, 20:02:19
Sehr guter Artikel, man merkt, dass gründlich recherchiert wurde. Auch bleibst du immer deinen Fachausdrücken treu und mischst z.b. nicht HDR, HDR-Rendering und dynamisches HDR-Rendering in einen großen Topf namens HDR, wie es oft in Diskussionen zum Thema geschieht.
Einige Ausdrucksweisen finde ich noch nicht so gelungen wie den Rest, z.b. dürfte sich in 5 Jahren so Mancher darüber amüsieren, wenn er so etwas zu lesen bekommt:
Zwar ist die Vertexpower heutiger Grafikkarten sehr hoch [...]
Das könnte man doch sicherlich noch konkretisieren, z.b. durch einen Vergleich mit älteren Grafikkarten oder durch konkrete Zahlenwerte (z.b. Eckpunkte/s).
Eine andere Stelle, wo mir eine Ungereimtheit auffällt:
Allerdings bietet unser menschliches Auge etwa 14 dB, also deutlich mehr.
Ich kenne 10dB als Wert für den Dynamikumfang des menschlichen Sehorgans. Kann natürlich auch sein, dass ich da falsch informiert bin oder die 10dB nur für eine lineare Betrachtung gelten.
Und eine Frage hätte ich noch am Schluss:
Was die die Gamma-Funktion 2,2? Die Gamma-Funktion kenne ich, nur nicht mit dem Zusatz 2,2.
EDIT: Einen "kleinen" Erweiterungsvorschlag hätte ich noch, man könnte eine Liste von Spielen hinzufügen, die in Zusammenhang mit HDR-Rendering immer wieder erwähnt werden. Die Liste sollte dann beinhalten, ob HDR oder nur ein Überstrahleffekt (bloom) oder ob beides verwendet wird, ab welcher Version des Spiels die Effekte funktionieren, mit welcher Grafikkarte welche Form von HDR oder bloom möglich ist und welche Besonderheiten die jeweilige HDR-Implementierung aufweist (z.b. MSAA auf allen DX9-Karten beim HDR-Rendering in HL2:Lost Coast).
MadManniMan
2006-01-01, 20:46:56
Wenn nun aber alle überstrahlten Farben die das HDR-Rendering irgendwo in einer Szenerie erzeugt werden am Ende wieder auf 100% runtergerechnet werden heißt das doch im Umkehrschluß das normale Farben weniger hell sein müßen um einen Unterschied sichtbar zu machen. Spiele werden also kontrastreicher aber überall da wo keine starken Lichteinfälle sind auch viel dunkler. Müßte an dieser Stelle nicht radiosity lightning ins Spiel kommen um wirklich realistisches Licht zu erzeugen?
(sag ich einfach mal so als Laie)
[/COLOR]
Das regelt dann das Tone Mapping :)
Wenn man von einer Szene mit einer relativ hohen Helligkeit in eine solche mit einer relativ gesehen geringeren Helligkeit schaut, wird man anfangs kaum etwas erkennen.
Dann aber kommt die "Iris-Simulation" ins Spiel und (grob gesagt) das Auge (bzw. das Tonemapping) mittelt die Helligkeit dieser Szene derartig, daß die dort anzutreffende "mittlere" Helligkeit bestens wahrgenommen wird und dementsprechend alles gut erkennbar ist.
Piffan
2006-01-01, 23:23:24
Guter Artikel! Ich habe noch nicht alles erschöpfend kapiert, aber das Jahr ist noch lang. :)
Falls jemand Beispiele sucht, wo HDR schmerzlich vermisst wird: HL2. Das Colorbanding ist richtig störend. Gutes Beispiel, wo die Iris- Simulation gut aussieht: HL2- Demo "Lost Coast".
Spiel, wo HDR runderherum gut wirkt, ohne aufdringliche Effekthascherei: Splinter- Cell III.....
Imho ist HDR dann am besten implementiert, wenn es gar nicht auffällt. Wenn die Optik einfach nur natürlich, dynamisch wirkt. Bei Splinter Cell war das Zeugs aktiviert, nachdem ich den letzten Patch aufspielte (der, wo Ati mithalf, damits auch auf meiner X800XT funzt). Ich fand die Grafik auffallend brilliant, war auch von den guten Texturen angetan. Aus Neugier habe ich es dann erstmals auf dem Schiff das HDR deaktiviert. Die Folge: Alles recht flau.....
Nun bin ich bei Splinter Cell hin- und hergerissen: Wenn ich HDR nutze, wirkt alles brilliant, Metall gleißt im Gegenlicht, die Schatten wirken noch schwärzer als sonst usw. AAABer ich muss dann auf Anti- Aliasing verzichten.....
Tjo, irgendeinen Haken hats immer.....
Edit: aths Schlusssatz trifft den Nagel auf den Kopf.
Noch ein Punkt: Ich habe mir im Media- Markt mal NFS- Most Wanted auf der neuen X-Box angesehen. Dieses Spiel zieht scheinbar alle Register und läßt andere Titel sooo alt aussehen. Trost für mich: Auch auf der X- Box wirkt es recht zäh, ständige Mikro- Ruckler ahoi. Der ganze Kram fordert also selbst die schnellste Hardware mächtig heraus. Aber irgendwie muss der Aufrüstwahn ja geschürt werden. :wink:
MadManniMan
2006-01-01, 23:51:40
Dieses Spiel zieht scheinbar alle Register und läßt andere Titel sooo alt aussehen.
...solange man nicht in die Bedrängnis kommt, auf den Straßenbelag achten zu müssen. Da sind große verwischte Quadrate, wo eigentlich die Texturen sein sollten... *und weg*
:D
Edit: Außerdem hats mit HDR überhaupt nix zu tun (ich geh von der PC-Version aus, hab die Demo noch aufm Rechner), da wird einfach nur arg geblendet.
Spasstiger
2006-01-02, 00:10:21
Edit: Außerdem hats mit HDR überhaupt nix zu tun (ich geh von der PC-Version aus, hab die Demo noch aufm Rechner), da wird einfach nur arg geblendet.
Die Xbox 360 Version hat HDR spendiert bekommen im Gegensatz zur PC-Version.
Hallo,
ein schöner Artikel. Wird Zeit, das mal jemand erklärt, das der Bloomeffekt kein Synonym für HDR ist, sondern nur einen Teil davon ausmacht (wobei eigentlich unser Auge für diesen Effekt verantwortlich ist, wenn mans genau nimmt)..
Ich hätte jetzt erwartet, das im Ausblick noch Brightside erwähnt wird, schließlich sollten zukünftige Technologien zur Darstellung von HDR-Content ja auch genannt werden:
http://www.brightsidetech.com/
Jedenfalls will ich so einen Monitor in 5-7 Jahren (nach Marktreife eben) bei mir Zuhaus stehen haben :D
Gruß
Maik
MadManniMan
2006-01-02, 00:25:27
Die Xbox 360 Version hat HDR spendiert bekommen im Gegensatz zur PC-Version.
Hui, ich habs geahnt :D
Sag, weißt Du von Vergleichsbildern der PC- und der Xbox 360 Versionen?
Spasstiger
2006-01-02, 00:39:43
Hui, ich habs geahnt :D
Sag, weißt Du von Vergleichsbildern der PC- und der Xbox 360 Versionen?
Ne, leider nicht. Und wenn, dann wären sowieso nur Vergleichsvideos interessant ;).
Piffan
2006-01-02, 00:50:04
...solange man nicht in die Bedrängnis kommt, auf den Straßenbelag achten zu müssen. Da sind große verwischte Quadrate, wo eigentlich die Texturen sein sollten... *und weg*
:D
Edit: Außerdem hats mit HDR überhaupt nix zu tun (ich geh von der PC-Version aus, hab die Demo noch aufm Rechner), da wird einfach nur arg geblendet.
Ich rede von der X-Box- Version. Die sieht auf einem entsprechenden Fernsehbildschirm besser aus als alles, was ich vom Pc- Monitor her kenne. Da ist alles super, die Texturen, die Reflexionen auf dem Lack und das HDR....
MadManniMan
2006-01-02, 00:54:24
Ich rede von der X-Box- Version. Die sieht auf einem entsprechenden Fernsehbildschirm besser aus als alles, was ich vom Pc- Monitor her kenne. Da ist alles super, die Texturen, die Reflexionen auf dem Lack und das HDR....
Bin inzwischen überzwugt, das sehen zu wollen! Schrei laut, wenn Du ein Video irgendwo davon hast =)
Gruß, Manni
Piffan
2006-01-02, 00:54:33
Hui, ich habs geahnt :D
Sag, weißt Du von Vergleichsbildern der PC- und der Xbox 360 Versionen?
Wäre in der Tat mal witzig.....
Es gab mal einen Thread, wo sich jemand verarscht fühlte, als er die neue Kicker- Simulation von EA- Sports auf dem PC mit der X-Box- Version verglich. Da wunderte er sich auch nicht wenig über die schlechte Optik des Spieles auf dem Pc. Oder wars andersrum, dass er sich vielmehr aufregte, dass es auf der X- Box so viel besser aussieht? :wink:
Piffan
2006-01-02, 00:57:26
Bin inzwischen überzwugt, das sehen zu wollen! Schrei laut, wenn Du ein Video irgendwo davon hast =)
Gruß, Manni
Geh doch mal zu Mutter. Vor Weihnachten jedenfalls standen die Fans Schlange vor der X- Box, me too. Eine absolut leckere Grafik. Als ich dann mit den Bildern im Gedächtnis die Demo auf dem PC betrachtete, da erschrak ich. Sicher auch recht nett, aber kein Vergleich.....
Diese konkrete Szene kenne ich nicht, aber prinzipiell ist das von Dir beschriebene Verhalten korrekt: Ein absolut schwarzes Pferd würde weder Licht reflektieren noch emittieren, wäre also analog zu einem schwarzen Loch zu sehen. In der Realität reflektiert aber auch ein schwarzes Pferd - vielleicht nur 5% des einfallenden Lichts, aber immerhin. Bei einer sehr hellen Lichtquelle kann das absolut gesehen schon heller sein als ein weisses Pferd bei Mondschein.Das schwärzeste Pferd könnte nicht verhindern, dass in der Luft zwischen Pferd und Auge auch etwas Licht gestreut wird. Vom Pferd ansich dürfte man nur die Umrissform erkennen, aber an der Stelle auf dem Bildschirm, wo das Pferd ist, muss man nicht zwangsläufig vollschwarz haben.
Der Punkt mit dem Mondschein ist natürlich wichtig: Bei Vollmond kann ein Mensch, wenn er nicht gerade nachtblind ist, die Umgebung in Schemen ganz gut wahrnehmen, wenn auch (fast) ohne Farbempfinden. Gutes Tonemapping müsste das berücksichtigen und die Sättigung erheblich absenken.
Noch besseres Tonemapping müsste im Dunklen die Welt gröber und verrauschter errscheinen lassen (da die räumliche Dunkel-Auflösung des Auges nunmal erheblich geringer ist.) (Die letztgenannte Idee habe ich von einer Anregung Xmas' geklaut :))
Solche Überstrahleffekte sind imo die sinnloseste verbratung von Rechenzeit, da sie teilweise einfach unpassend wirken.Aber diese Effekte fallen eben sofort als neu auf. Im Artikel hab ichs angedeutet: Wenn der Spieler zum Beispiel aus einem Keller oder einer Höhle oder einem dunklen Haus kommt, und die Umgebung im Sonnenlicht wirkt erst mal so überstrahlt, wäre das toll – wenn der Überstrahl-Effekt dann auch wieder sanft ausgeblendet würde, weil sich das Auge ja an das Sonnenlicht gewöhnt.
Das könnte man doch sicherlich noch konkretisieren, z.b. durch einen Vergleich mit älteren Grafikkarten oder durch konkrete Zahlenwerte (z.b. Eckpunkte/s).Die nutzbare Vertexleistung hängt von so vielen Parametern ab – und limitiert in den meisten Szenen auch nicht. Insofern halte ich konkrete Zahlen für wenig sinnvoll. Wichtig ist, dass Vertexleistung in der Regel nicht limitiert, insofern ist es mit "sehr hoch" meiner Meinung nach gut genug umschrieben. Jeder Artikel muss immer in seiner Zeit gesehen werden, liest man "Den langen Weg zum HDR-Rendering" in fünf Jahren, erfährt man, dass die Vertexpower damals (in Bezug auf die Pixelleistung, was stillschweigend vorausgesetzt wird) "sehr hoch" war.
Eine andere Stelle, wo mir eine Ungereimtheit auffällt:
Ich kenne 10dB als Wert für den Dynamikumfang des menschlichen Sehorgans. Kann natürlich auch sein, dass ich da falsch informiert bin oder die 10dB nur für eine lineare Betrachtung gelten.Das mit den 14 dB habe ich – glaube ich – aus einem Nvidia-Dokument, die Zahl bezieht sich soweit ich weiß auf den gesamten Umfang, vom ersten Dunkelsehen bis zur Schmerzgrenze. Auch bei nur 10 dB Dynamik-Umfang (tatsächlich ja 100 dB, wenn man das d wie üblich nutzt) würden die 9,3 dB (bzw. 93 dB) vom einfachen FP16-Format, welches keine Denorms unterstützt, nicht ausreichen, um die Bandbreite des Auges voll abzudecken.
Und eine Frage hätte ich noch am Schluss:
Was die die Gamma-Funktion 2,2? Die Gamma-Funktion kenne ich, nur nicht mit dem Zusatz 2,2.Gemeint ist natürlich die Gamma-Funktion mit dem Parameter 2,2. Bei solche Fehlern bitte immer die Seite (URL) mit angeben.
EDIT: Einen "kleinen" Erweiterungsvorschlag hätte ich noch, man könnte eine Liste von Spielen hinzufügen, die in Zusammenhang mit HDR-Rendering immer wieder erwähnt werden. Die Liste sollte dann beinhalten, ob HDR oder nur ein Überstrahleffekt (bloom) oder ob beides verwendet wird, ab welcher Version des Spiels die Effekte funktionieren, mit welcher Grafikkarte welche Form von HDR oder bloom möglich ist und welche Besonderheiten die jeweilige HDR-Implementierung aufweist (z.b. MSAA auf allen DX9-Karten beim HDR-Rendering in HL2:Lost Coast).Genau darum gehts mir bei dem Artikel nicht: Wie ist HDR-Rendering heute in verschiedenen Titeln realisiert.
HDR-Rendering per se ist eine Erweiterung, grob Vergleichbar mit der Steigerung vom 16-Bit- zum 32-Bit-Rendering, jedoch mit nachgeschaltetem Tonemapping da sich FP-Formaten nicht direkt anzeigen lassen (und man bei HDR-Inhalten zur Anzeige sowieso eine Dynamikkomprimierung nutzen sollte.) HDR-Rendering ist kein Effekt, schon gar nicht der bekannte, oft mit "HDR" assoziierte Überstrahl-Effekt, jener ist nur eine mögliche Option beim Tonemapping. HDR-Rendering wird sich durchsetzen, weil 32-Bit-Framebuffergenauigkeit auf absehbare Zeit nicht ausreichen wird. Das sollte der Leser verstehen.
Der Anspruch des drei Seiten langen Artikels besteht also nur darin, dass etwas verstanden wird, was sich auch in ca. 5 Sätzen erklären ließe. Ein Germanist wird angesichts des Artikels die Hände über dem Kopf zusammenschlagen und zurecht auf die vielen inhaltlichen Wiederholungen im Artikel hinweisen. Der Artikel soll eben nur klar machen, was HDR-Rendering wirklich ist – und was es entgegen landläufiger Meinung eben nicht ist.
Der Artikel gibt keine Praxistipps, wie man HDR-Rendering bei bestimmten Spielen an- oder abschaltet, er vergleicht auch keine bisher realisierten Verfahren. (Damit das wirklich sinnvoll wäre, sollte man z. B. auch die Formel für das jeweilige Tonemapping kennen. Ich glaube nicht, dass Entwickler die so einfach rausrücken.)
ein paar bilder würden dem trockenem thema gut tun
nicht jeder besitzt die ganzen spiele und der laie kann sich darunter sowieso nichts vorstellen
das disqualifiziert den titel leider so stark dass er für noobs unbrauchbar ist
MadManniMan
2006-01-02, 01:54:02
ein paar bilder würden dem trockenem thema gut tun
nicht jeder besitzt die ganzen spiele und der laie kann sich darunter sowieso nichts vorstellen
Die aktuellen Spiele sind doch sowieso noch lange nicht soweit, HDR sinnvoll aufzuzeigen (Lost Coast außen vor, das habe ich noch nicht gesehen), so muß man wesentlich eher seinen Geist anstrengen, was meines Erachtens gar nicht so schlimm ist ;)
das disqualifiziert den titel leider so stark dass er für noobs unbrauchbar ist
An jene richtet sich der Text sowieso nicht, daß viel zu viel Wissen vorausgesetzt wird, als daß ein Laie mit dem Thema etwas anfangen könnte.
ein paar bilder würden dem trockenem thema gut tun
nicht jeder besitzt die ganzen spiele und der laie kann sich darunter sowieso nichts vorstellen
das disqualifiziert den titel leider so stark dass er für noobs unbrauchbar istAn "Noobs" richtet sich der Artikel auch nicht, sondern an den interessierten Leser.
Bilder die einen Effekt zeigen führen in der Regel dazu, dass der Leser glaubt, es in Gänze verstanden zu haben ohne dass das tatsächlich der Fall ist. Beispielsweise könnte man per Screenshot die Wirkung von MSAA, SSAA und TAA zeigen. Unter den Tisch fällt unter anderem, wie es in Bewegung aussieht.
Beim Thema HDR-Rendering ist es besonders schwierig, Bilder zu bringen. Wie gut oder schlecht eine Szene in LDR-Rendering (zum Vergleich) aussieht, hängt von sehr vielen Umständen ab. Außerdem kann man den HDR-Content nicht direkt anzeigen, man muss grunsätzlich irgendeine Form von Dynamikkomprimierung (also Tonemapping) wählen, womit man den wichtigen Zwischenschritt des HDR-Framebuffers ohnehin nicht illustrieren kann.
Bisherige Titel nutzen HDR-Rendering überwiegend zur Implementierung des Überstrahl-Effektes, und der Artikel hat den Anspruch dem Leser klar zu machen, dass das nicht HDR-Rendering ist, sondern nur eine Option beim HDR-Rendering darstellt, die heutzutage leider übertrieben eingesetzt wird.
Die Überschrift "Der lange Weg zum HDR-Rendering" soll darauf hinweisen, dass wir nicht mit dem Erscheinen einiger Spiele, die HDR-Rendering bieten, plötzlich ins HDR-Zeitalter gestoßen werden, sondern wir uns in einer Umbruchsphase befinden, in der wir Stück für Stück immer mehr HDR-Rendering zu sehen bekommen werden, bis HDR-Rendering schließlich Normalität sein wird (und wir uns am Ende über die flach und statisch wirkende LDR-Beleuchtung lustig machen.) Beim Begriff "HDR-Rendering" sollte endlich der Hype verschwinden. Jener würde bei Vergleichsscreenshots, die überwiegend Überstrahleffekte zeigen (einige mögen es, andere nicht) nur angefacht, die Diskussion würde sich vorwiegend um Screenshots drehen (ob die Verbesserung beim HDR-Rendering-Screenshot nun wünschenswert sei oder nicht) und nicht um eigentliches High-Dynamic-Range-Rendering.
(del)
2006-01-02, 02:52:47
Was ich mich als Vollnoob nun frage.
Sind alle DX9 Spiele bis jetzt mit LDR realisiert? Gibts es keine die sich wenigstens um MDR bemühen? Sind R3x0 und Nv40 auch dafür zu schwach (FPS leiden zu sehr)? So wie ich das verstanden habe wäre das schon eine MERKLICHE Bereicherung. Oder nicht?
HDR bringt es dann letztendlich auf den Punkt, aber dafür scheint es auch der G70 zu schwach (?) Werden wir also von LDR+Blending bzw. vom LDR mit HDR-realisiertem Blending direkt zu 100% HDR übergehen? Ergo: Ist der Unterschied zwischen LDR und MDR zu klein um es 'verkaufen' zu können oder ist die Hardware "selbst dafür" (?) noch zu schwach?
Was ich mich als Vollnoob nun frage.
Sind alle DX9 Spiele bis jetzt mit LDR realisiert? Gibts es keine die sich wenigstens um MDR bemühen? Sind R3x0 und Nv40 auch dafür zu schwach (FPS leiden zu sehr)? So wie ich das verstanden habe wäre das schon eine MERKLICHE Bereicherung. Oder nicht?
HDR bringt es dann letztendlich auf den Punkt, aber dafür scheint es auch der G70 zu schwach (?) Werden wir also von LDR+Blending bzw. vom LDR mit HDR-realisiertem Blending direkt zu 100% HDR übergehen? Ergo: Ist der Unterschied zwischen LDR und MDR zu klein um es 'verkaufen' zu können oder ist die Hardware "selbst dafür" (?) noch zu schwach?ATI-Hardware, insbesondere seit dem R520, ist sehr gut für MDR-Rendering geeignet. Nvidia setzte mit dem NV40 gleich auf HDR-Rendering. Das ist insofern sinnvoll, da die Bandbreiten-Anforderung kaum höher liegen – und MDR-Rendering in erster Linie zur Colorbanding-Reduzierung geeignet wäre, weniger zu realistischen Lichtberechnungen. Die Zukunft ist ganz klar HDR-Rendering.
Durchgehendes MDR-Rendering wäre ein Schritt. HDR-Rendering ist ein Sprung. MDR-Rendering bietet hier und da mehr Luft, HDR-Rendering löst von allen möglichen Fesseln. Vergleicht man die Geschwindigkeit, in der sich PC-Hardware entwickelt, mit der Entwicklungszeit für Spiele, wäre es ziemlich mutig, erst mal Spiele die konsequentes MDR-Rendering nutzen zu entwickeln. Wenn das Spiel fertig ist, gibt es längst genug Grafikkarten, die sehr performantes HDR-Rendering, möglichst auch mit MSAA bieten.
Die meisten DX9-Spiele nutzen zwar während der Berechnungen das HDR-Format (mindestens FP24) insofern aus, als dass die Shader bei einem LDR-Rechenformat falsche Ergebnisse liefern würden, schreiben aber die gerenderte Pixelfarbe nur als TrueColor, also 8 Bit pro Kanal, also einem LDR-Format in den Framebuffer. Schon die Radeon 8500 bot halbwegs brauchbares Overbright Lighting während der Pixelberechnungen, das war ein erster Schritt Richtung MDR. Radeon 9700 und Nachfolger (also auch 9500, 9600 etc.) rechnen intern sowieso immer in einem HDR-Format. Gleiches gilt für die GeForce FX, solange sie Shader der Version Pixelshader 2.0 oder höher ausführt. Das könnte man bereits, wenn man wollte, als eine Form von HDR-Rendering sehen. Aber: Uns interessiert das adpative HDR-Rendering mit Tonemapping, welches sich an die Bildhelligkeit anpasst. Auch das kann bereits die Radeon 9700, nur eben in ziemlich geringer Performance.
Ließe sich vor der Bildberechnung hinreichend genau abschätzen, wie hell das Bild wird, könnte man adaptives HDR-Rendering mit integriertem Tonemapping machen, das heißt damit enfiele der extra-Pass fürs Tonemapping und auch die Erfordernis, den Framebuffer zunächst in einem HDR-Format zwischenzuspeichern. (Vorschlag von zeckensack.) Leider ist das ziemlich schwierig, im vorhinein die Bildhelligkeit mit hinreichender Genauigkeit einzuschätzen.
Das Problem bei der Durchsetzung vom HDR-Rendering ist folgendes: Damit ein Spiel auf möglichst jedem Computer läuft, darf es für die Minimalsettings nur Grafikfeatures verlangen, die praktisch jeder Computer bietet. Es wird lange dauern, bis sich Grafikkarten breit durchsetzen, die (neben weiteren Sachen, die uns erwarten, wie Parallax Mapping) auch HDR-Rendering in Echtzeit ermöglichen. Bis dahin muss der Spiele-Entwickler also auch einen LDR-Path anbieten, welcher entsprechenden LDR-Content nutzt. Da das Budget begrenzt ist, muss dann eben beim HDR-Content entsprechend gespart werden. Um sich von der Konkurrenz abzuheben, integriert man statt neuem HDR-Content lieber ein oder zwei neue Shader-Features oder das bekannte Überstrahlen, und verkauft das unter dem Schlagwort "HDR-Rendering".
Gutes HDR-Rendering ist als Feature gar nicht direkt sichtbar – das Bild wäre kontrastreicher und würde kein Colorbanding zeigen. Aber das kann man schlecht auf Packungs-Screenshots bringen.
MarcWessels
2006-01-02, 06:50:54
Ich rede von der X-Box- Version. Die sieht auf einem entsprechenden Fernsehbildschirm besser aus als alles, was ich vom Pc- Monitor her kenne. Da ist alles super, die Texturen, die Reflexionen auf dem Lack und das HDR....Dann guck Dir mal PGR3 an - das macht das ganze noch besser und flüssig. :)
Aber diese Effekte fallen eben sofort als neu auf. Im Artikel hab ichs angedeutet: Wenn der Spieler zum Beispiel aus einem Keller oder einer Höhle oder einem dunklen Haus kommt, und die Umgebung im Sonnenlicht wirkt erst mal so überstrahlt, wäre das toll – wenn der Überstrahl-Effekt dann auch wieder sanft ausgeblendet würde, weil sich das Auge ja an das Sonnenlicht gewöhnt.Wie bei PGR3 wenn man aus der dunklen Garage kommt.
Tigerchen
2006-01-02, 08:38:38
Das sind aber fast alles Punkte, die man mit Monitoren schlecht machen kann. Perspektivische Verkleinerung funktioniert nur in Bewegung (in der Realität kann man immer seinen Betrachtungswinkel variieren, im Computer ist das nicht immer vorgesehen).
Was meinst du mit Tiefenunschärfe und Blauverschiebung? Werden die Lichtwellenlängen in der freien Natur mit zunehmender Entfernung automatisch länger? :confused: Auch Schärfeeffekte kann man am Monitor nicht machen, weil der Computer nicht weiß welchen Punkt am Monitor ich gerade fixiere.
Richtig ist natürlich: in der Realität gewinnen wir unseren dreidimensionalen Eindruck vorallem durch Erfahrung. Das ist aber nicht unbedingt ein Maßstab für Bildqualität. 11 Linien richtig ausgerichtet lassen mich einen Würfel erkennen. Ich erkenne eine Perspektive, aber deshalb habe ich noch lange keinen realistischen Eindruck meines betrachteten Körpers.
Betrachten wir einmal ein gemaltes Bild. Auch dort hast du ein Standbild. Wenn der Künstler jetzt den Raum in der Tiefe einfangen will muß er sich vor allem mit der perspektivischen Verkleinerung befassen. Frag mal einen gegenständlichen Maler. Schatten werden in der Regel zum Schluß nach Gefühl gemalt. Du wirst kein Lehrbuch für Künstler finden welches den Schatten so überbewertet wie aths es tut.
Stell dich doch mal in den Voralpen bei klarem Wetter auf einen kleinen Berg und werfe einen Blick auf die Alpen. Dann wirst du auch die Blauverschiebung bemerken. Daher siehst du auf Landschaftsbildern oft blaue Berge. Auch eine Möglichkeit Räumlichkeit zu simulieren.
Und dann stellst du dich in eine Allee und schaust den ersten Baum an. Du siehst jedes Blatt. Klar und deutlich und scharf. Jetzt betrachte einen Baum der 200 Meter entfernt steht. Die Details sind weg. Das meine ich mit Tiefenunschärfe. Darum sind auf gemalten Bildern weit entfernte Gegenstände und Pflanzen oft nur Farbkleckse die unser Gehirn trotzdem richtig einordnen kann.
Naive Maler ignorieren Perspektive, Tiefenunschärfe und Blauverschiebung. Darum erscheinen deren Bilder flach. Und die erscheinen auch durch Schatten nicht räumlicher.
Tigerchen
2006-01-02, 08:45:05
Das regelt dann das Tone Mapping :)
Wenn man von einer Szene mit einer relativ hohen Helligkeit in eine solche mit einer relativ gesehen geringeren Helligkeit schaut, wird man anfangs kaum etwas erkennen.
Dann aber kommt die "Iris-Simulation" ins Spiel und (grob gesagt) das Auge (bzw. das Tonemapping) mittelt die Helligkeit dieser Szene derartig, daß die dort anzutreffende "mittlere" Helligkeit bestens wahrgenommen wird und dementsprechend alles gut erkennbar ist.
War das Tonemapping welches du bisher gesehen hast so überzeugend in dieser Hinsicht?
Eagle[200x]
2006-01-02, 09:44:30
...
Stell dich doch mal in den Voralpen bei klarem Wetter auf einen kleinen Berg und werfe einen Blick auf die Alpen. Dann wirst du auch die Blauverschiebung bemerken. Daher siehst du auf Landschaftsbildern oft blaue Berge. Auch eine Möglichkeit Räumlichkeit zu simulieren.
Und dann stellst du dich in eine Allee und schaust den ersten Baum an. Du siehst jedes Blatt. Klar und deutlich und scharf. Jetzt betrachte einen Baum der 200 Meter entfernt steht. Die Details sind weg. Das meine ich mit Tiefenunschärfe.
...
Die "Blauverschiebung" wird bisher so weit ich in Spielen gemerkt habe eigentlich total vernachlässigt...Blauverschebung klingt irgendwie unpassend - weil es ja "nur" ein Rotwegfiltern ist, und keine Verschiebung, wie bei Bewegungen. (Vgl. Absorptionslinien und Spektralverschiebung)
Und die Detailverminderung bei zunehmender entfernung wird in Spielen bisher schon realisiert - LoD lässt grüßen ;), oder hab ich das falsch verstanden? Der DoF wäre was schönes, kann allerdings nicht verwendet werden, weil, wie bereits erwähnt, der Monitor ja nicht weiss, was ich gerade mit dem Auge fixiere...
Aber es stimmt schon, Schatten alleine sind genauso nutzlos, vielleicht nutzloser, als eine gut ausgeleuchtete und gefilterte Szene mit ohne Schatten.
Zum Artikel: Sehr gut :up: ziemlich gut formuliert. Selbst verschwommene Sachverhalte sind gut rübergekommen! Endlich konnte ich mich mal über HDRR informieren und kann jetzt in CG-Stammtischdiskussionen mit meinem Dreiviertelwissen protzen ;D
Zusätzlich muss ich sogar sagen, dass auch die Diskussion bisher sehr gut und informativ ist, dass habe ich auch schon anders gesehen :rolleyes:
P.S.: Prost Neujahr!
Monger
2006-01-02, 13:07:28
Betrachten wir einmal ein gemaltes Bild. Auch dort hast du ein Standbild. Wenn der Künstler jetzt den Raum in der Tiefe einfangen will muß er sich vor allem mit der perspektivischen Verkleinerung befassen. Frag mal einen gegenständlichen Maler. Schatten werden in der Regel zum Schluß nach Gefühl gemalt. Du wirst kein Lehrbuch für Künstler finden welches den Schatten so überbewertet wie aths es tut.
Wie Aths aber auch gesagt hat: ;)
"Shading" hat nix mit Schatten zu tun, sondern mit dem "Farbverlauf" des Körpers. Eine Kugel wäre ohne Shading von einem Kreis nicht zu unterscheiden. Ein Maler macht das ganz instinktiv richtig.
Schatten sind nicht so wichtig, da gebe ich dir recht. Nicht jeder Schatten jedes Objektes ist ja auch immer sichtbar.
Und dann stellst du dich in eine Allee und schaust den ersten Baum an. Du siehst jedes Blatt. Klar und deutlich und scharf. Jetzt betrachte einen Baum der 200 Meter entfernt steht. Die Details sind weg. Das meine ich mit Tiefenunschärfe. Darum sind auf gemalten Bildern weit entfernte Gegenstände und Pflanzen oft nur Farbkleckse die unser Gehirn trotzdem richtig einordnen kann.
Naja, ich finde unscharf werden die Gegenstände von ganz alleine! ;)
Die Auflösung heutiger Monitore ist einfach noch zu niedrig, als dass man sehr kleine Details erkennen könnte - egal wie weit sie weg sind. Wir müssen erstmal die Bildqualität steigern, bevor wir sie durch Unschärfeeffekte o.ä. wieder senken können.
InsaneDruid
2006-01-02, 13:30:35
Schatten sind durchaus unerläßlich, um Lagebeziehungen zu erkennen. Beispiel ein Fahrzeug auf einer Straße, auf einem 2D-Schirm. Ohne Wagenschatten erkennt man nicht (oder nur extrem schwer), ob der Wagen wirklich direkt auf der Straße aufliegt, oder darüber schwebt.
http://img364.imageshack.us/img364/9996/schatten0oj.jpg
Im oberen Shot könnten die Fahrzeuge auch 10-20 oder mehr cm über der Straße schweben, die Szene hat das berühmte-berüchtigte "Floaty" Feeling. Erst die Schatten machen uns klar, das die Fahrzeuge tatsächlich die Fahrbahn berühren. Ähnlicher Effekt bei FluSis: ein Schatten hilft extrem, um Lagebeziehungen zu erkennen. Der Effekt trifft eigentlich auch alle Spiele zu, die Objekte auf einem Untergrund zeigen, zb RTS-Games oder RPGs. Ohne nicht zumindest einen Blobschatten unter einem (zB) Menschen wirkt dieser oft schwebend, aufgesetzt, nur in die Szene einkopiert.
Schatten hilft auch, die Form zu erkennen. Gutes Negativbeispiel (IMHO): Descent. Schlechtes Lighting und fehlende Schatten machten es zT sehr schwer, wirkliche Oberflächenformen zu sehen.
Mad-Marty
2006-01-02, 14:21:13
Aber diese Effekte fallen eben sofort als neu auf. Im Artikel hab ichs angedeutet: Wenn der Spieler zum Beispiel aus einem Keller oder einer Höhle oder einem dunklen Haus kommt, und die Umgebung im Sonnenlicht wirkt erst mal so überstrahlt, wäre das toll – wenn der Überstrahl-Effekt dann auch wieder sanft ausgeblendet würde, weil sich das Auge ja an das Sonnenlicht gewöhnt.
Das mag sein. Doch es ist der falsche weg.
Dazu ein Beispiel : HL2 als man aus den minen von Ravenholm kam, bot einen passenden NICHT HDR Bloom. Wenn ich allerdings in einem Spiel unter einem Torbogen in den Schatten trete und sofort alles überstahlt sehe, dann frage ich mich doch was der Schwachsinn soll ?!
Auch gibt es jede Menge andere spiele die ohne HDR es trotzdem prima schaffen, die Darstellung hinzubekommen.
Siehe Gothic2 : Die Tag/Nacht Darstellung ist unheimlich gelungen für einen so alten Titel, man kann selbst bei Nacht noch viele Details erkennen !
Beim Artikel habe ich übrigens noch ein Fazit wie das folgende vermisst:
"HDR ist einfach nur der Versuch, mit wenigen zur Verfügung stehenden bits durch Spektrumverschiebungen mehr Informationen darzustellen."
Wirklich vorwärtsgehen sehe ich das ganze Thema erst, wenn wir Monitore mit 16bit pro farbkanal haben. Denn die Schwäche bei HDRR ist natürlich klar, das es nur dann funktioniert, wenn die Darstellungsdetailfülle nicht in nahezu allen Spektrumsbereichen gebraucht wird.
Das ganze Farbmodell ist weit von perfekt, bei der gelegenheit könnte man auch gleich die Grünschwäche des RGB / HSV Spektrums beheben.
Oder anders ausgedrückt, es ist eine Notlösung / Zwischenlösung, da wir technisch uns noch keine 48 bit Ausgabegeräte und Grafikkarte leisten können.
InsaneDruid
2006-01-02, 14:40:34
Wenn ich allerdings in einem Spiel unter einem Torbogen in den Schatten trete und sofort alles überstahlt sehe, dann frage ich mich doch was der Schwachsinn soll ?!
Das stimmt natürlich, und da muss ich sagen, hat mir diesbezüglich auch Lost Coast überhaupt nicht gefallen, da der Effekt zu aufgesetzt war, und zu stark ausgeführt.
Das ist aber nur eine Frage des Designs. JEDER Effekt kann sinnvoll und subtil, oder aufgesetzt und bis zum Erbrechen übertrieben eingesetzt werden.
Tigerchen
2006-01-02, 15:04:36
Wie Aths aber auch gesagt hat: ;)
"Shading" hat nix mit Schatten zu tun, sondern mit dem "Farbverlauf" des Körpers. Eine Kugel wäre ohne Shading von einem Kreis nicht zu unterscheiden. Ein Maler macht das ganz instinktiv richtig.
Schatten sind nicht so wichtig, da gebe ich dir recht. Nicht jeder Schatten jedes Objektes ist ja auch immer sichtbar.
Naja, ich finde unscharf werden die Gegenstände von ganz alleine! ;)
Die Auflösung heutiger Monitore ist einfach noch zu niedrig, als dass man sehr kleine Details erkennen könnte - egal wie weit sie weg sind. Wir müssen erstmal die Bildqualität steigern, bevor wir sie durch Unschärfeeffekte o.ä. wieder senken können.
Ich bezog mich in meinem Statement nicht aufs Shading sondern ausschließlich auf Schatten. Shading ist wichtig für den räumlichen Eindruck. Kugel/Kreis ist ein gutes Beispiel.
Unschärfe gibts schon seit Urzeiten. Schon die Voodoo 5 konnte "Depth of field". Wenn wir mal richtige Außenareale zu sehen kriegen mit Aussicht bis an den Horizont werden wir das wohl mal öfter in Spielen zu sehen kriegen. Ein Uralt Voxel Spiel konnte das auch schon: Outcast!
Tigerchen
2006-01-02, 15:11:03
Das mag sein. Doch es ist der falsche weg.
Dazu ein Beispiel : HL2 als man aus den minen von Ravenholm kam, bot einen passenden NICHT HDR Bloom. Wenn ich allerdings in einem Spiel unter einem Torbogen in den Schatten trete und sofort alles überstahlt sehe, dann frage ich mich doch was der Schwachsinn soll ?!
Auch gibt es jede Menge andere spiele die ohne HDR es trotzdem prima schaffen, die Darstellung hinzubekommen.
Siehe Gothic2 : Die Tag/Nacht Darstellung ist unheimlich gelungen für einen so alten Titel, man kann selbst bei Nacht noch viele Details erkennen !
Das sehe ich auch so. Und der Aufwand für HDR ist für das Gebotene viel zu hoch. Und auf MSAA muß man auch noch verzichten. Bin sicher daß man Splinter Cell 3 auch ohne HDR mit knackigeren Farben und Effekten hätte aufpeppen können.
Tigerchen
2006-01-02, 15:14:42
Schatten sind durchaus unerläßlich, um Lagebeziehungen zu erkennen. Beispiel ein Fahrzeug auf einer Straße, auf einem 2D-Schirm. Ohne Wagenschatten erkennt man nicht (oder nur extrem schwer), ob der Wagen wirklich direkt auf der Straße aufliegt, oder darüber schwebt.
Im oberen Shot könnten die Fahrzeuge auch 10-20 oder mehr cm über der Straße schweben, die Szene hat das berühmte-berüchtigte "Floaty" Feeling. Erst die Schatten machen uns klar, das die Fahrzeuge tatsächlich die Fahrbahn berühren. Ähnlicher Effekt bei FluSis: ein Schatten hilft extrem, um Lagebeziehungen zu erkennen. Der Effekt trifft eigentlich auch alle Spiele zu, die Objekte auf einem Untergrund zeigen, zb RTS-Games oder RPGs. Ohne nicht zumindest einen Blobschatten unter einem (zB) Menschen wirkt dieser oft schwebend, aufgesetzt, nur in die Szene einkopiert.
Schatten hilft auch, die Form zu erkennen. Gutes Negativbeispiel (IMHO): Descent. Schlechtes Lighting und fehlende Schatten machten es zT sehr schwer, wirkliche Oberflächenformen zu sehen.
In der Tat reicht bereits ein Blob-Schatten um den Schwebeeffekt zu verhindern. Aber mit oder ohne Schatten kannst du die Entfernung zu den anderen Autos prima abschätzen. Und bei den weit entfernten Autos fällt sogar der Schwebeeffekt kaum noch ins Auge.
Bei Flugsimulatoren mußt du sogar ganz ohne Schattenhilfe Spitfires und Mustangs jagen. Und auch da klappt es prima mit der Abschätzung von Entfernungen.
Simon
2006-01-02, 15:34:47
Dazu muss aber erst mal vernünftiger Content geschaffen werden. Andererseits spart man sich auch die Arbeit, speziellen LDR-Content für unterschiedliche Lichtbedingungen zu erstellen.
Was ist denn der Unterschied zwischen LDR und HDR Content? :redface:
MadManniMan
2006-01-02, 15:41:13
War das Tonemapping welches du bisher gesehen hast so überzeugend in dieser Hinsicht?
Dir ist bewußt, daß die Applizierung von Tonemapping das nötige künstlerische Feingefühl, sowie jede Menge Erfahrung benötigt?
Dir ist bewußt, daß momentan eingesetztes Tonemapping so eingesetzt wird, damit es ja jeder mitbekommt?
;)
Und Thema blauverschiebung: damit diese greift, brauchen wir kilometerweite Sichtweiten - die wenigsten Spiele bieten dies.
Und zuletzt ... Tiefenunschärfe (wie in Outcast):
Der Effekt ist falsch! Unser Auge sieht scharf, worauf wir den Blick fixieren - bei Outcast schaute ich aber nicht immer nur direkt vor meine Füße.
Black & White 2 macht das besser - Tiefenunschärfe greift, wenn ich meine Kreatur streichel, hier ist davon auszugehen, daß ich auf sie drauf schaue. Außerdem greift sie, wenn ich im extrem flachen Blickwinkel knapp überm Boden in die Ferne schau ... schlau gemacht, schaut man dann doch meist auf die Details der Nähe.
Spätestens dann aber, wenn ich knapp über dem Meer schwebe und vom Weiten auf meine Insel gucke, merke ich, daß der Effekt ein guter, aber noch lange kein perfekter Trick ist.
Tiefenunschärfe funktioniert daher m.E. nur in zwei Situationen: dort, wo der Fokus naturgemäß auf dem dem nicht weichgezeichneten Objekt liegt oder eben dort, wo mit Eye-Tracking gearbeitet wird ;)
Schatten sind durchaus unerläßlich, um Lagebeziehungen zu erkennen. Ja, natürlich, und das ganz besonders wenn die Bildausgabe flach ist. Eine gerenderte 3D-Szene ohne Schatten ist für das Auge schwer zu interpretieren, was dein Bildvergleich ja auch sehr gut zeigt.
Und Thema blauverschiebung: damit diese greift, brauchen wir kilometerweite Sichtweiten - die wenigsten Spiele bieten dies.Mit Blauverschiebung mein man landläufig eine Verschiebung des Spektrums ins Blaue. Die Atmosphäre streut das blaue Licht aber lediglich besonders gut. Das Spektrum wird als solches nicht verschoben, nur bestimmte Anteile werden abgeschwächt.
Das mag sein. Doch es ist der falsche weg.
Dazu ein Beispiel : HL2 als man aus den minen von Ravenholm kam, bot einen passenden NICHT HDR Bloom. Wenn ich allerdings in einem Spiel unter einem Torbogen in den Schatten trete und sofort alles überstahlt sehe, dann frage ich mich doch was der Schwachsinn soll ?!Aber was hat das jetzt mit HDR-Rendering zu tun? Auch tatsächliches HDR-Rendering kann falsch eingesetzt werden. Warum das derzeit leider oft der Fall ist, wurde im Artikel und hier im Thread gesagt: Damit ja jeder den Effekt sieht. Nur weil es im Moment nicht richtig eingesetzt wird, ändert das nichts an den Vorteilen vom HDR-Rendering. Dass ein Glow-Effekt, ob nun mit oder ohne HDR-Rendering realisiert, im Moment oft unpassend eingesetzt wird, ändert nichts daran dass wir auf absehbare Zeit um HDR-Rendering nicht herumkommen.
Genauso, wie das Tonemapping beim HDR-Rendering die Anpassung des Auges an die Helligkeit simuliert, sollte auch die Anpassung an Dunkelheit simuliert werden. Das heißt, wenn man vom Tageslicht in einen Keller geht, ist das Bild zunächst mal völlig dunkel, und nur langsam zeichnet sich dann die Umgebung ab. Dass sich das Auge schneller an Licht gewöhnt als an Dunkelheit, sollte vom Tonemapping ebenfalls berücksichtigt werden.
Auch gibt es jede Menge andere spiele die ohne HDR es trotzdem prima schaffen, die Darstellung hinzubekommen.
Siehe Gothic2 : Die Tag/Nacht Darstellung ist unheimlich gelungen für einen so alten Titel, man kann selbst bei Nacht noch viele Details erkennen !Gutes HDR-Rendering würde trotzdem eine noch viel bessere Grafik erzeugen können.
Im täglichen Leben bekommen wir oft gar nicht mit, wie sich unsere Pupillen weiten oder verengen. Genauso wird man bei vernünftigem HDR-Rendering die Funktion vom Tonemapping in den meisten Situationen ebensowenig bemerken – mal abgesehen davon, dass das Bild einfach realistisch beleuchtet wirkt.
Als Doom erschien, staunten auch alle über die Grafik und lachten im Vergleich über Wolfenstein. Nur weil Gothic für seine Zeit gut gelungen war heißt das nicht, dass neue Techniken "der falsche Weg" seien.
Beim Artikel habe ich übrigens noch ein Fazit wie das folgende vermisst:
"HDR ist einfach nur der Versuch, mit wenigen zur Verfügung stehenden bits durch Spektrumverschiebungen mehr Informationen darzustellen."Da wird kein Spektrum verschoben.
Wirklich vorwärtsgehen sehe ich das ganze Thema erst, wenn wir Monitore mit 16bit pro farbkanal haben. Denn die Schwäche bei HDRR ist natürlich klar, das es nur dann funktioniert, wenn die Darstellungsdetailfülle nicht in nahezu allen Spektrumsbereichen gebraucht wird.16 Bit braucht man nicht unbedingt. Man könnte auch 8 Bit und Dithering verwenden, oder 8 Bit und kein Dithering – mit gutem Tonemapping hat man trotzdem (bis auf Ausnahmefälle) kein Colorbanding. Und noch mal: Mit dem Spektrum hat das nichts zu tun. Man verschiebt (und komprimiert) den Helligkeitsbereich aus dem HDR-Content, den man auf dem LDR-Monitor anzeigt. (Das Spektrum wäre die Frequenz des Lichtes. Das RGB-Modell ist denkbar schlecht geeignet, um Spektrumsverschiebungen zu simulieren.)
Das ganze Farbmodell ist weit von perfekt, bei der gelegenheit könnte man auch gleich die Grünschwäche des RGB / HSV Spektrums beheben.Wie willst du das konkret tun? (Und was für eine Grünschwäche meinst du?)
Oder anders ausgedrückt, es ist eine Notlösung / Zwischenlösung, da wir technisch uns noch keine 48 bit Ausgabegeräte und Grafikkarte leisten können.Ist auch nicht notwendig. Die beim Tonemapping vorgenommene Dynamikkomprimierung ist per se wünschenswert. Das Ausgabegerät selbst muss keine besonders hohe Dynamik bieten, die aktuellen Geräte die eine Größenordnung von 1:1000 schaffen, reichen prinzipiell aus.
MadManniMan
2006-01-02, 15:56:34
Grüß Dich!
Was ist denn der Unterschied zwischen LDR und HDR Content? :redface:
Beispiel: HDR-Texturn...
...sind mit einem weiteren Farb- und Kontrastspektrum ausgestattet, als man auf den ersten Blick erkennen würde, bieten also bei schwach, wie bei stark ausgeleuchteten Szenen noch genausoviel Details wie LDR-Texturen bei "normaler" Ausleuchtung, wobei diese bei geringer oder hoher Helligkeit zu Colorbanding neigen.
Hm, capiche?
MadManniMan
2006-01-02, 15:58:34
Mit Blauverschiebung mein man landläufig eine Verschiebung des Spektrums ins Blaue. Die Atmosphäre streut das blaue Licht aber lediglich besonders gut. Das Spektrum wird als solches nicht verschoben, nur bestimmte Anteile werden abgeschwächt.
Nichts Gegenteiliges behauptete ich ;)
Was ist denn der Unterschied zwischen LDR und HDR Content? :redface:Das hängt davon ab. Einerseits spart man beim HDR-Content schön, weil man nachts einfach nur die Stärke der Lichtquellen reduzieren muss. Für eine realistisch wirkende Beleuchtung, gegebenenfalls mit Farbtonverschiebung, sorgt dann das Tonemapping. Andererseits profitiert HDR-Rendering davon, wenn bestimmte Texturen (unter anderen Lightmaps) im HDR-Format vorliegen. Aber das kann man nicht pauschal sagen. Doom3 mit HDR-Rendering würde, wenn überhaupt, nur an sehr wenigen Stellen HDR-Lightmaps benötigen. HDR-Rendering könnte aber dafür sorgen, dass man auch bei fast völlig dunklen Räumen noch (schwach) Strukturen erkennen kann.
Anderes Beispiel: In WoW kann man nachts Lagerfeuer und ähnliche helle Lichtquellen sehen. In der Realität wäre ein Lagerfeuer nachts so hell, dass man um das Feuer herum keine dunklen Sachen mehr erkennt. Der Boden wird vom Feuer angeleuchtet und ist damit sichtbar, aber weit enfernte Gebirgszüge sind dunkel und werden vom Feuer nicht genügend angeleuchtet. In WoW kann man aber auch links und rechts vom Feuer ebensolche Gebirgszüge genauso gut oder schlecht erkennen, als würde das Auge nicht vom Feuer geblendet. Auch mit LDR-Rendering ließe sich mehr Realismus erzeugen, doch dann müsste man eben alle möglichen Fälle "von Hand" einprogrammieren, was auch zusätzlichen Content erfordert.
(del)
2006-01-02, 16:23:32
Gutes HDR-Rendering würde trotzdem eine noch viel bessere Grafik erzeugen können.
Im täglichen Leben bekommen wir oft gar nicht mit, wie sich unsere Pupillen weiten oder verengen. Genauso wird man bei vernünftigem HDR-Rendering die Funktion vom Tonemapping in den meisten Situationen ebensowenig bemerken – mal abgesehen davon, dass das Bild einfach realistisch beleuchtet wirkt
Das ist es auch. Wenn die Spiele das so umsetzen wie es im RL passiert, wird man das oft kaum wahrnehmen. Ist ja auch alles normal :) also wie gewohnt aus der Realität. Die Softshadows fielen mir in FEAR eigentlich erst so richtig auf, als sie fehlten, weil ich wegen der Leistung auf harte Schatten umgestellt habe. Bis dahin sah alles ganz normal aus.
Die größten Aha-Effekte beim HDR kommen imho erst dann, wenn man das gegen eine LDR dargestellte Szene vergleicht.
Was ist von dem Techdemo Toystore des X1k zu halten? Ist das immernoch nur ein Ansatz? Lässt sich dieser Effekt im Demo abschalten - so wie man mit DangerousCurves rumspielen kann - um die Quali zu vergleichen?
Mad-Marty
2006-01-02, 17:01:43
Da wird kein Spektrum verschoben.
16 Bit braucht man nicht unbedingt. Man könnte auch 8 Bit und Dithering verwenden, oder 8 Bit und kein Dithering – mit gutem Tonemapping hat man trotzdem (bis auf Ausnahmefälle) kein Colorbanding. Und noch mal: Mit dem Spektrum hat das nichts zu tun. Man verschiebt (und komprimiert) den Helligkeitsbereich aus dem HDR-Content, den man auf dem LDR-Monitor anzeigt. (Das Spektrum wäre die Frequenz des Lichtes. Das RGB-Modell ist denkbar schlecht geeignet, um Spektrumsverschiebungen zu simulieren.)
Wie willst du das konkret tun? (Und was für eine Grünschwäche meinst du?)
Ist auch nicht notwendig. Die beim Tonemapping vorgenommene Dynamikkomprimierung ist per se wünschenswert. Das Ausgabegerät selbst muss keine besonders hohe Dynamik bieten, die aktuellen Geräte die eine Größenordnung von 1:1000 schaffen, reichen prinzipiell aus.
Ja, es ist natürlich richtig, das HDR nicht falsch ist blos weil es Spiele ohne HDR auch schaffen es gut zu machen. Wollte das nur mal in den Hype einbringen das auch ein Grafiker ernormen einfluss auf die wirkung des ganzen nehmen kann.
Spektrum ist evtl. falsch, sagen wir eher Farbwerte werden verschoben ?
Aber genaugenommen, wenn man den Helligkeitswert verschiebt, verschiebt man ja wiederum den Farbwert und damit das Spektrum darstellbarer Farben, nicht ? (bzw komprimiert)
Spektrum ist Wellenlänge und Frequenz :
http://de.wikipedia.org/wiki/Bild:Spektrum.png
Und indem man sich die Feine abstufung in einem Bereich holt, leidet automatisch der andere Bereich an Farben.
Dein Beispiel von Wow ^^ :
Du siehst bei nacht das lagerfeuer, das muss sehr Hell dargestellt werden, da aber der Monitor kaum wissen kann was du als user gerade fixierst sollte auch andere umgebung darstellbar sein wie alles was auch davon beleuchtet wird, damit brauchst du für praktisch alles wiederrum mehr farbabstufungen.
Womit die "Komprimierung" so seine Tücken haben dürfte ?
Grünschwäche :
Das Grün was ein RGB Monitor darstellen kann, ist sowenig vom gesamten Grünspektrum, das ich das als klare Schwäche sehe. Sehe dir mal alternativ das Grün von Ölfarben an. Das bietet deutlich mehr. In anderen Farbbereichen ist das RGB nicht so schlecht.
Evtl ist das oben geschriebene auch falsch, dann Bitte ich um eine Erklärung, weil ich dann wohl etwas falsch verstanden habe.
Ja, es ist natürlich richtig, das HDR nicht falsch ist blos weil es Spiele ohne HDR auch schaffen es gut zu machen. Wollte das nur mal in den Hype einbringen das auch ein Grafiker ernormen einfluss auf die wirkung des ganzen nehmen kann.Das bestreitet der Artikel auch nicht :) Egal ob LDR- oder HDR-Rendering, ohne passenden Content hat man keine gute Grafik. Nur: HDR-Rendering ermöglicht einheitlichere Programmierung und auch einheitlicheren Content. Für LDR-Rendering müsste man alle möglichen Beleuchtungssituationen extra berücksichtigen.
Spektrum ist evtl. falsch, sagen wir eher Farbwerte werden verschoben ?
Aber genaugenommen, wenn man den Helligkeitswert verschiebt, verschiebt man ja wiederum den Farbwert und damit das Spektrum darstellbarer Farben, nicht ? (bzw komprimiert)
Spektrum ist Wellenlänge und Frequenz :
http://de.wikipedia.org/wiki/Bild:Spektrum.png
Und indem man sich die Feine abstufung in einem Bereich holt, leidet automatisch der andere Bereich an Farben.An Helligkeit. Tatsächlich wird auch die Farbton- und Sättigungsauflösung beeinflusst, doch das sind sekundäre Effekte. Tonemapping bestimmt den Helligkeitsbereich, der dargestellt wird.
Dein Beispiel von Wow ^^ :
Du siehst bei nacht das lagerfeuer, das muss sehr Hell dargestellt werden, da aber der Monitor kaum wissen kann was du als user gerade fixierst sollte auch andere umgebung darstellbar sein wie alles was auch davon beleuchtet wird, damit brauchst du für praktisch alles wiederrum mehr farbabstufungen.
Womit die "Komprimierung" so seine Tücken haben dürfte ?Wenn das Lagerfeuer nahe genug ist, und einen genügend großen Bereich des Bildes einnimmt, müsste die Verengung der Pupille simuliert werden.
Grünschwäche :
Das Grün was ein RGB Monitor darstellen kann, ist sowenig vom gesamten Grünspektrum, das ich das als klare Schwäche sehe. Sehe dir mal alternativ das Grün von Ölfarben an. Das bietet deutlich mehr. In anderen Farbbereichen ist das RGB nicht so schlecht.
Evtl ist das oben geschriebene auch falsch, dann Bitte ich um eine Erklärung, weil ich dann wohl etwas falsch verstanden habe.Es gibt bestimmte Grün-Töne, für die müsste man im RGB-Modell einen negativen R-Wert nutzen. Doch weniger als "gar nicht leuchten" kann ein R-Element nunmal nicht leuchten. Damit kann kein RGB-Monitor jeden beliebigen Grünton exakt darstellen, einige Grüntöne können nur angenähert werden. Tatsächlich sind Geräte oder RGB-Standards auf einen bestimmten Weißpunkt geeicht (sRGB z. B. auf D65, das heißt 6500 K) und gelten damit für ein XYZ-Farbmodell (und sind kein reines RGB-Modell mehr.) Wir unterhalten uns gerade über den Farbton von Weiß, was qua definitionem eine unbunte Farbe ist – aber das hängt eben von der Farbtemperatur ab, ob das gewünschte Weiß tatsächlich als unbunt wahrgenommen wird oder nicht. Damit möchte ich sagen, dass so viele andere Faktoren bei der Farbwahrnehmung noch eine Rolle spielen, dass die nicht exakte Wiedergabe bestimmter Grüntöne auf RGB-Geräten kein Riesenproblem ist. Exakte Farbton-Reproduktion kann sowieso höchstens im Labor gewährleistet werden und nicht im Wohnzimmer.
Immerhin: HDR-Texturen können auch "negativ helle" Farben speichern (da für FP16 ein Vorzeichen definiert ist.) Das heißt, gerechnet werden kann durchaus mit den tatsächlichen Grüntönen, erst zur endgültigen Bildschirmausgabe müsste "geclampt" werden. Das als Anwendungsbeispiel für die Vorteile vom HDR-Rendering zu nennen habe ich mir aber bewusst verkniffen, mir war wichtiger, dass der Leser versteht, dass man HDR-Rendering nicht nur in Situationen brauchen kann, in denen es sehr helle Lichtquellen gibt, sondern dass HDR-Rendering auch in sehr dunklen Szene mehr Details bietet. Wenn ich über Farbtöne in RGB spreche, müsste zunächst mal einiges geklärt werden, so zum Beispiel dass praktisch kein Monitor den kompletten RGB-Würfen von 0..1 korrekt anzeigen kann. Und wie gesagt deckt dieser Würfel ja gar nicht alle vom Auge wahrnehmbaren Farben ab.
Ein Drucker, der nur drei Farbpatronen hat, kann ebenfalls nicht jede beliebige Farbe exakt mischen. Prinzipiell lässt sich bei subtraktiver Farbmischung aber (unter weißem Licht) jeder beliebige Ton erzeugen, solange man die passenden Farben hat.
Mr. Lolman
2006-01-02, 17:55:53
Blauverschiebung => blauer Nebel. Kann Gothic auch schon =)
BTW: Super Artikel und auch feine Diskussion. (Hatte bisher keinen Grund mich einzumischen ;))
MarcWessels
2006-01-02, 19:03:52
Das ist es auch. Wenn die Spiele das so umsetzen wie es im RL passiert, wird man das oft kaum wahrnehmen. Ist ja auch alles normal :) also wie gewohnt aus der Realität. Die Softshadows fielen mir in FEAR eigentlich erst so richtig auf, als sie fehlten, weil ich wegen der Leistung auf harte Schatten umgestellt habe. Bis dahin sah alles ganz normal aus.Dann guck Dir die sogenannten Softshadows in Fear nochmal genau an, denn leider sind die nicht wirklich soft.
Monger
2006-01-02, 19:40:21
Ich stimme auf jeden Fall der These zu, dass ein wirklich guter Effekt der ist, der einen nicht gleich anspringt. Daraus erklärt sich auch meine Aversion gegen Doom3, aber das ist ein anderes Thema...
Gerade Splinter Cell 3 hat mich schwer beeindruckt, weil es (auch ohne HDR, dafür habe ich nicht die entsprechende Hardware) irgendwie schön aussieht. Es ist wahrscheinlich ein rein künstlerische Frage, aber gute Künstler sind für ein schönes Spiel nunmal das A und O.
Auch mit der besten Engine kann man unglaublich hässliche Dinge machen.
Frank
2006-01-02, 21:16:50
Betrachten wir einmal ein gemaltes Bild. Auch dort hast du ein Standbild. Wenn der Künstler jetzt den Raum in der Tiefe einfangen will muß er sich vor allem mit der perspektivischen Verkleinerung befassen. Frag mal einen gegenständlichen Maler. Schatten werden in der Regel zum Schluß nach Gefühl gemalt. Du wirst kein Lehrbuch für Künstler finden welches den Schatten so überbewertet wie aths es tut.Offtopic:
Nicht perspektivische Verkleinerung sondern perspektive Verzerrung, da man ja nicht nur weiter entfernte Objekte betrachtet. Aber Du hast natürlich recht: der Schatten ist für eine räumliche Wahrnehmung überhaupt nicht notwendig, stellt aber durchaus eine Erleichterung dar. Dieser kann aber auch zur Verwirrung beitragen, wenn er eben nach Gefühl und vielleicht nicht ganz korrekt eingezeichnet wurde. Das muss schon auf vernünftigen Wege passieren.
Piffan
2006-01-02, 21:19:04
Ich stimme auf jeden Fall der These zu, dass ein wirklich guter Effekt der ist, der einen nicht gleich anspringt. Daraus erklärt sich auch meine Aversion gegen Doom3, aber das ist ein anderes Thema...
Gerade Splinter Cell 3 hat mich schwer beeindruckt, weil es (auch ohne HDR, dafür habe ich nicht die entsprechende Hardware) irgendwie schön aussieht. Es ist wahrscheinlich ein rein künstlerische Frage, aber gute Künstler sind für ein schönes Spiel nunmal das A und O.
Auch mit der besten Engine kann man unglaublich hässliche Dinge machen.
Splinter Cell sieht auch mit "klassischen" Mitteln gut aus, Colorbanding ist dort nicht vorhandend. Aber durch HDR wird es noch ne Ecke knackiger, besonders haben micht die gleißenden Metalle im Gegenlicht beindruckt. Da merkt man den Unterschied zum billigen Bloom: Da gibts bei jeder Lichtquelle Überstrahleffekte, vergleichbar mit der gefetteten Linse, dem Weichzeichner- Objektiv für Arme......
Würde es mal so sagen: Ohne HDR gehts sicher auch, Colorbanding mag auch an der "Bequemlichkeit" der Designer liegen. HL2 sündigt ja auf vielen Gebieten, da kams den Entwicklern auf solche "Kleinigkeiten" auch nicht mehr an.
Lost Coast von HL2 ist eigentlich überragend, nur hat man bei den Effekten extrem dick aufgetragen und leider nicht die Trägheit der Anpassung des Auges korrekt berücksichtigt. Ist halt gemacht für Noobs, die Woah sagen sollen......
Meiner Einschätzung nach ist HDR wirklich gut, bringt aber die Spieleentwicklung keinen Meter weiter. Ist ein guter Effekt, wichtiger ist aber die Kreativität der Designer/Künstler. Ein Max Payne oder Splinter Cell wird auch durch HDR nicht spielenswerter. Entwicklungen bei der KI oder Physik bringen bei der derzeitigen grafischen Güte mehr als HDR......
(del)
2006-01-02, 21:56:50
Dann guck Dir die sogenannten Softshadows in Fear nochmal genau an, denn leider sind die nicht wirklich soft.
Über die Quali der Softshadows in FEAR wollt ich eigentlich weniger diskutieren. Oder ist der Kontext, in dem ich das in der Disku zu HDR 'reinwarf', nicht ganz so ersichtlich?
Hallo besammen,
Im Artikel steht das der NV40 eine nicht richtig funktionierende,daher deaktivierte Tonemapping-Einheit.Auf welche Weise wird diese Operation durchgeführt?
Bei FarCry wurde HDR-Rendering nachträglich implementiert.Meine Frage ist nun,ob die Texturen vom Dynamikumfang angepasst,oder ob dies mit einer verminderten Farbanzahl erkauft wurde.Es sieht auf jeden Fall toll aus da es dynamisch ist.
deekey777
2006-01-02, 23:00:23
Hallo besammen,
Im Artikel steht das der NV40 eine nicht richtig funktionierende,daher deaktivierte Tonemapping-Einheit.Auf welche Weise wird diese Operation durchgeführt?
Bei FarCry wurde HDR-Rendering nachträglich implementiert.Meine Frage ist nun,ob die Texturen vom Dynamikumfang angepasst,oder ob dies mit einer verminderten Farbanzahl erkauft wurde.Es sieht auf jeden Fall toll aus da es dynamisch ist.
Hoffentlich hilft dir das weiter:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3503902#post3503902
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3512296&postcount=323
Auch ist dieser Thread sehr aufschlussreich, was HDRR ist.
Im Artikel steht das der NV40 eine nicht richtig funktionierende,daher deaktivierte Tonemapping-Einheit.Auf welche Weise wird diese Operation durchgeführt?
im pixelshader. im moment hätte auch eine funktionierende tonemapping-einheit wenig sinn, den die API kann nicht darauf zugreifen.
Bei FarCry wurde HDR-Rendering nachträglich implementiert.Meine Frage ist nun,ob die Texturen vom Dynamikumfang angepasst,oder ob dies mit einer verminderten Farbanzahl erkauft wurde.Es sieht auf jeden Fall toll aus da es dynamisch ist.
die texturen sind die gleichen, allerdings braucht man für "normale" texturen in der regel kein HDR-format, in erster linie braucht man das für lightmaps.
da farcry sowieso dynamisches lighting verwendet ist es kein problem dies in einem hdr-format zu tun.
genauer gesagt passiert dass sogar immer, den der pixelshader rechnet ja immer mit mindestens FP16-genauigkeit, im HDR-modus wird das ergebnis der beleuchtungsberechnung allerdings zum schluss nicht auf FX8 gerundet sondern die vollen FP16 im framebuffer abgespeichert.
dadurch sind die HDR-informationen beim post-processing (tonemapping) noch vorhanden und kann dabei berücksichtig werden (z.b. pupillenkontraktion)
bei HL2 ist es dagegen um einiges schwieriger, da die beleuchtung großteils statisch ist und die lightmaps natürlich nur in einem LDR-format vorliegen. dadurch müssten natürlich alle lightmaps durch HDR-lightmaps ersetzt werden damit das HDR-rendering auch sinn macht. man könnte natürlich auch mit den vorhandenen lightmaps in einen HDR-buffer rendern, das ergebnis wäre jedoch bis auf möglicherweise reduziertes colorbanding identisch (es gibt ja keine over-/underbright-informationen, es wird lediglich der bereich von 0-1 höher aufgelöst)
Splinter Cell sieht auch mit "klassischen" Mitteln gut aus, Colorbanding ist dort nicht vorhandend. Aber durch HDR wird es noch ne Ecke knackiger, besonders haben micht die gleißenden Metalle im Gegenlicht beindruckt. Da merkt man den Unterschied zum billigen Bloom: Da gibts bei jeder Lichtquelle Überstrahleffekte, vergleichbar mit der gefetteten Linse, dem Weichzeichner- Objektiv für Arme......
splinter cell hat im SM1.1-modus extremes color-banding, auch im SM3-modus ohne HDR nehme ich an einigen stellen (unter lichtquellen) leichtes colorbanding wahr, erst mit HDR-rendering gehöhrt das der vergangenheit an.
wenn der monitor nur ein weiß darstellen kann warum wird dann das normale weiß eben nicht dunkler gemacht?
MarcWessels
2006-01-03, 05:11:45
Über die Quali der Softshadows in FEAR wollt ich eigentlich weniger diskutieren. Oder ist der Kontext, in dem ich das in der Disku zu HDR 'reinwarf', nicht ganz so ersichtlich?Doch, aber ich kann bei sowas nicht die Klappe halten. ;)
MadManniMan
2006-01-03, 06:49:52
Doch, aber ich kann bei sowas nicht die Klappe halten. ;)
Wenn sie auch nicht wirklich weich sind, so sind sie aber - vor allem in Bewegung - die weit bessere Alternative. ;)
Splinter Cell sieht auch mit "klassischen" Mitteln gut aus, Colorbanding ist dort nicht vorhandend.
SC:CT "bandet" sehr wohl, solange nur der SM1.1-Modus benutzt wird, mit dem das Spiel ausgeliefert wurde. Erst SM2/3 schaffen hier Abhilfe, da sie bestimmte Rechenergebnisse "direkt" erzeugen können und nicht erst mehrfach (gerundet) zwischenspeichern müssen.
Tigerchen
2006-01-03, 08:47:58
SC:CT "bandet" sehr wohl, solange nur der SM1.1-Modus benutzt wird, mit dem das Spiel ausgeliefert wurde. Erst SM2/3 schaffen hier Abhilfe, da sie bestimmte Rechenergebnisse "direkt" erzeugen können und nicht erst mehrfach (gerundet) zwischenspeichern müssen.
Reicht denn "Partial precision" aka FP16 nicht aus? Da gabs doch mal nen Artikel zu? :cool:
mapel110
2006-01-03, 08:51:32
Reicht denn "Partial precision" aka FP16 nicht aus? Da gabs doch mal nen Artikel zu? :cool:
Pixelshader 1.1 rechnen nicht mit FP16, iirc mit FX8 (?!), jedenfalls mit deutlich geringerer Genauigkeit.
Simon
2006-01-03, 09:26:51
Grüß Dich!
:wave:
Beispiel: HDR-Texturn...
...sind mit einem weiteren Farb- und Kontrastspektrum ausgestattet, als man auf den ersten Blick erkennen würde
Wenn es doch zusätzlich ist ("einem weiteren..."), wo ist dann das Problem? Kann man für den LDR/MDR dann ja überspringen beim Einlesen? :|
Einerseits spart man beim HDR-Content schön, weil man nachts einfach nur die Stärke der Lichtquellen reduzieren muss.
D.h. dass auch eine dynamische Beleuchtung benötigt wird, wie in Quake4?
Anderes Beispiel: In WoW...
Ich wollte meine Frage mehr auf Unterschiede bei der Produktion beider Arten von Content verstanden wissen ;)
aths, hast du ein Literaturverzeichnis zu dem Artikel? Von der Tonemapping-Einheit des NV40 hab ich noch nie was gehört...
Wolfram
2006-01-03, 12:58:19
Genauso, wie das Tonemapping beim HDR-Rendering die Anpassung des Auges an die Helligkeit simuliert, sollte auch die Anpassung an Dunkelheit simuliert werden. Das heißt, wenn man vom Tageslicht in einen Keller geht, ist das Bild zunächst mal völlig dunkel, und nur langsam zeichnet sich dann die Umgebung ab. Dass sich das Auge schneller an Licht gewöhnt als an Dunkelheit, sollte vom Tonemapping ebenfalls berücksichtigt werden.
Warum eigentlich? Mal abgesehen davon, daß der Effekt derzeit übertrieben eingesetzt wird- wäre es für eine realitätsnähere Darstellung nicht besser, den Betrachter durch die absolute Helligkeit des Monitors tatsächlich zu blenden? Die Simulation der Helligkeitsadaption trägt doch nicht zur Immersion bei. In First-Person-Perspektive schaue ich durch die Augen der Spielfigur. Aber ich schaue ja mit meinen eigenen Augen. Wenn mir da "Augeneffekte" "vorgeschaltet" werden, ist das doch "künstlicher", als wenn meine eigenen Augen geblendet werden.
Wenn ich im Dunkeln direkt vor meinem 22er CRT sitze und zum Beispiel Far Cry mit hohem Monitorkontrast spiele, habe ich jetzt schon reale Helligkeitsadaption. Meine Augen benötigen ein paar Momente, um sich beim Gang in Innenräume auf die Dunkelheit einzustellen.
PS: Schöner Artikel, für mich gerade wegen seiner Allgemeinverständlichkeit.
Reicht denn "Partial precision" aka FP16 nicht aus? Da gabs doch mal nen Artikel zu? :cool:
das hat nichts mit der präzision im shader zu tun, sondern mit den vielen renderpasses.
wenn ich mich recht erinnere dann braucht SC3 mit SM1.1 in der regel 6 renderpasses, wobei für jeden durchgang der farbwert mit FX8 im framebuffer zwischengespeichert werden muss.
InsaneDruid
2006-01-03, 13:34:24
Warum eigentlich? Mal abgesehen davon, daß der Effekt derzeit übertrieben eingesetzt wird- wäre es für eine realitätsnähere Darstellung nicht besser, den Betrachter durch die absolute Helligkeit des Monitors tatsächlich zu blenden? Die Simulation der Helligkeitsadaption trägt doch nicht zur Immersion bei. In First-Person-Perspektive schaue ich durch die Augen der Spielfigur. Aber ich schaue ja mit meinen eigenen Augen. Wenn mir da "Augeneffekte" "vorgeschaltet" werden, ist das doch "künstlicher", als wenn meine eigenen Augen geblendet werden.
Wenn ich im Dunkeln direkt vor meinem 22er CRT sitze und zum Beispiel Far Cry mit hohem Monitorkontrast spiele, habe ich jetzt schon reale Helligkeitsadaption. Meine Augen benötigen ein paar Momente, um sich beim Gang in Innenräume auf die Dunkelheit einzustellen.
PS: Schöner Artikel, für mich gerade wegen seiner Allgemeinverständlichkeit.
Es ist derzeit im Consumerbereich unmöglich, den realen Helligkeitsumfang auf einen Monitor abzubilden. Dazu müsste der Monitor über extremste Helligkeiten verfügen, die nicht nur sehr teuer (Stromkosten) wären, sondern auch durchaus nicht gerade gesund wären. Eine simulierte Blendgranate würde den Spieler schädigen können, und das ist soch sicher nicht ein lohnenswertes Ziel, oder?
Wolfram
2006-01-03, 13:51:44
Es ist derzeit im Consumerbereich unmöglich, den realen Helligkeitsumfang auf einen Monitor abzubilden. Dazu müsste der Monitor über extremste Helligkeiten verfügen, die nicht nur sehr teuer (Stromkosten) wären, sondern auch durchaus nicht gerade gesund wären. Eine simulierte Blendgranate würde den Spieler schädigen können, und das ist soch sicher nicht ein lohnenswertes Ziel, oder?
Mir ging's darum, was grundsätzlich der bessere Weg wäre, der Weg, der den optischen Eindruck realitätsnäher macht. Ob man aus technischen, medizinischen, spielerischen oder finanziellen Gründen dann Kompromisse eingeht oder gar einen anderen Weg geht, ist die andere Frage.
MadManniMan
2006-01-03, 15:42:20
:wave:
Salute!
Wenn es doch zusätzlich ist ("einem weiteren..."), wo ist dann das Problem? Kann man für den LDR/MDR dann ja überspringen beim Einlesen? :|
Fehlinterpretation Deinerseits ;) Deutsch ist manchmal nich eineindeutig, fällt mir auf ... ich hätte "einem breiteren" sagen sollen - jetzt klar?
D.h. dass auch eine dynamische Beleuchtung benötigt wird, wie in Quake4?
Dynamische Beleuchtung bringt bei HDR-R mit HDR-Content zusätzliche Dynamik in statische Szenen, ist aber nicht zwangsläufig nötig.
Beispiel: wir sind ein Leveldesigner, der für Backsteinwände ein einzelne Textur benützt. Dabei gilt es eine Wand zu betrachten, die bei normaler Nachmittagssonne im Schatten von sich selbst liegend "normal" hell ist. Weiteren stellen wir uns eine Wand mitten in der Sonne, sowie eine weitere in einem keller vor, der nur wenig Licht abbekommt.
Mit LDR-Content haben wir wahrscheinlich bei der "normal" ausgeleuchteten Wand keine Darstellungsprobleme. Schauen wir auf die grell erleuchtete, paßt das Tonemapping innert kurzer Zeit den Kontrast (und vielleicht auch die Sättigung) an. Was für uns in der normalen Szene "normal" hell erschien, wird jetzt zu den in dieser Szene dunkleren Farben und die Wand, die einem auf den ersten Blick vielleicht gleißend vorkam, ist nach der dynamischen Anpassung "nur noch" hell. Problem: was bei "gleißend hell" mit wenigen Farbabstufungen auskam, muß jetzt nach der Anpassung ein Spektrum abdecken, was mit einer normal ausgeleuchteten Wand zu vergleichen ist. Wir bekommen also wahrscheinlich Besuch von Colorbanding und mangelhaften Kontrasten.
Äquivalent dazu gestaltet sich der dunkle Keller.
HDR-Content besitzt auch Informationen, bzw. einen Dynamikumfang, der noch genügend Kontrast und Abstufungen für absolut dunkle oder helle Szenen liefert.
Wir ersparen also unserem Contentdesigner die Arbeit, diverse, an mehrere Helligkeiten angepaßte Texturen zu basteln, unserem Ram den Aufwand, den Platz dafür bereitzustellen und umgehen gleichzeitig noch das Problem das wir hätten, wenn jemand vor einer LDR-Backsteinwand Marke "Für dunkle Szene designt" eine Taschenlampe rausholt und das Tonemapping wieder Streiche spielte.
Aber aths wird das sicher gleich nochmal erklären, macht der nämlich immer ;)
reunion
2006-01-03, 16:31:03
Ein erstklassiger, ausführlicher und leicht verständlicher Artikel - großes Lob an aths.
Zwei Kleinigkeiten sind mir ins Auge gesprungen:
Seite 1:
Der Keller ist sehr, sehr viel dunkler als eine von der Sonne bestrahle weiß verputze Hauswand. Die Kellerwände müssen also also im Framebuffer mit sehr geringen Helligkeiten gespeichert werden.
Ein also zuviel.
Seite 3:
Wir wissen nicht genau, welche Karten an welchen Stellen Denorms beim FP16-Format unterstützen.Unser Kenntnisstand ist, dass NV3x beim FP16-Format durchweg Denorms unterstützt, allerdings gibt es bei der GeForceFX auch nur wenige Units, die mit FP16 umgehen können.
Da fehlt ein Leerzeichen.
Blauverschiebung => blauer Nebel. Kann Gothic auch schon =)Keine Blauverscheibung *darauf besteh*. Die Begriffe "Rotverschiebung" und "Blauverschiebung" sind bereits anderweitig besetzt.
Aber durch HDR wird es noch ne Ecke knackiger, besonders haben micht die gleißenden Metalle im Gegenlicht beindruckt. [...] Würde es mal so sagen: Ohne HDR gehts sicher auch, Colorbanding mag auch an der "Bequemlichkeit" der Designer liegen. [...] Meiner Einschätzung nach ist HDR wirklich gut, bringt aber die Spieleentwicklung keinen Meter weiter. [...] Ein Max Payne oder Splinter Cell wird auch durch HDR nicht spielenswerter. Entwicklungen bei der KI oder Physik bringen bei der derzeitigen grafischen Güte mehr als HDR......HDR-Rendering. "HDR" ansich kann man nicht sehen, da die Graka keine FP16-Farben anzeigen kann.
Pixelshader 1.1 rechnen nicht mit FP16, iirc mit FX8 (?!), jedenfalls mit deutlich geringerer Genauigkeit.GF1-4: FX9, GF FX: FX12.
D.h. dass auch eine dynamische Beleuchtung benötigt wird, wie in Quake4?HDR-Rendering ist besonders sinnvoll, wenn es dynamische Beleuchtung gibt. Aber man kann auch beim HDR-Rendering statische Lichtanteile weiterhin via Lightmapping realisieren – nur sollte man dann nach Möglichkeit HDR-Lightmaps verwenden.
Ich wollte meine Frage mehr auf Unterschiede bei der Produktion beider Arten von Content verstanden wissen ;)Da ich noch keine Engine, geschweige denn 3D-Spielcontent entwickelt habe, solllte ich mich bei solchen Fragen nicht zu weit aus dem Fenster lehnen.
aths, hast du ein Literaturverzeichnis zu dem Artikel? Von der Tonemapping-Einheit des NV40 hab ich noch nie was gehört...Wurde von Kirk im Februar 2004 bei der European Press Tour erwähnt und war ganz zu Beginn auch in NDA-Unterlagen aufgeführt, dann später aber klammheimlich weggelassen. Auf meine Frage was damit nun geworden ist meinte Kirk, dass die Unit nicht so funktioniere, wie gedacht.
Im G70 ist das Teil vermutlich gar nicht mehr drin.
Wie könnte eine Tonemapping-Unit aussehen? Entweder führt sie eine feste Formel aus, die man parametrisieren kann, oder sie bietet stückweise Interpolation mit einer Tabelle, dessen Stützwerte man ändern kann.
Warum eigentlich? Mal abgesehen davon, daß der Effekt derzeit übertrieben eingesetzt wird- wäre es für eine realitätsnähere Darstellung nicht besser, den Betrachter durch die absolute Helligkeit des Monitors tatsächlich zu blenden? Die Simulation der Helligkeitsadaption trägt doch nicht zur Immersion bei.Auch bei Kino- und Fernsehfilmen wird Belichtungzeit oder Blende entsprechend angepasst. Ich kann dankend darauf verzichten, dass mir sehr starke Lichtstrahlung ins Auge donnert.
Außerdem bräuchte man für deinen Vorschlag Monitore, die praktisch das gesamte Gesichtsfeld abdecken*. Je nach Monitorgröße findet zusätzlich eine tatsächliche Pupillenadaption statt (auch bei meinem 19"-Gerät schon, wenn ich nachts bei gedimmter Beleuchtung spiele), insofern wäre es natürlich wünschenwert, in den Spieleoptionen am Tonemapping spielen zu dürfen. Aber das muss den LDR-Kontrastumfang des Monitors berücksichtigen (auch 1000:1 wird in diesem Zusammenhang als niedrige Dynamik gesehen :)) und hat damit nicht viel Spielraum, wenn das Gerät möglichst voll ausgenutzt werden soll. Je weniger man den Kontrastumfang des Monitors beim Tonemapping ausnutzt, umso eher hat man das Risiko vom Colorbanding. Colorbanding wird tendenziell umso wahrscheinlicher, je höher die Monitor-Auflösung.
Zu guter letzt empfinde ich es zum Beispiel beim DVD-Gucken anstrengend, bei dortigen Dunkelszenen auf jeden feinen Schatten achten zu müssen und erhöhe lieber Helligkeit und Kontrast. Das ist zwar eine Verfälschung des Films, aber wer ein Konzert hört, bei dem neben feinen Streichern auch laute Posauen vorkommen, wird in der Regel eine Dynamikkomprimierung nutzen (oder herbeiwünschen.) (Liebhaber wollen natürlich gerade den Lautstärkeunterschied, wie man ihm auch beim Livekonzert erleben würde. Für den Normalverbraucher werden auch Popsongs im Radio einer Dynamikkomprimierung unterworfen.) Doch zurück zum Monitor: Die meisten User wollen lieber einen anständigen Schwarzwert als maximale Helligkeit, das Auge also lieber bei recht geringer absoluter Helligkeit "bespielen lassen".
* In diesem Bezug finde ich Philips' Ambilight-2-Technik ganz interessant.
Ist es eigentlich so schwierig, statt englischer Begriffe deutsche Entsprechungen zu verwenden? Bei einigen Dingen, die sich nur schwer oder krude übersetzen lassen, verstehe ich es ja noch. Aber "Einheiten" müssen doch jetzt nicht unbedingt "Units" werden, oder?
Q
thg hat nentollen artikel über effekte ^^
ich glaube so etwas würde aths am liebsten kurz und klein hauen
deekey777
2006-01-03, 21:38:45
thg hat nentollen artikel über effekte ^^
ich glaube so etwas würde aths am liebsten kurz und klein hauen
Dieser Artikel? Die neuen 3D-Effekte der Grafikkarten 2006 (http://www.tomshardware.de/graphic/20060102/index.html)
:ubash2:
Wolfram
2006-01-03, 22:08:05
Auch bei Kino- und Fernsehfilmen wird Belichtungzeit oder Blende entsprechend angepasst. Ich kann dankend darauf verzichten, dass mir sehr starke Lichtstrahlung ins Auge donnert.
Klar. Mir ging's ja nur um's Prinzip.
Außerdem bräuchte man für deinen Vorschlag Monitore, die praktisch das gesamte Gesichtsfeld abdecken*.
Genau. Sowas hätte ich gerne. Sony Glasstron hatte ich deswegen schon mal ins Auge gefaßt und wieder verworfen.
Je nach Monitorgröße findet zusätzlich eine tatsächliche Pupillenadaption statt (auch bei meinem 19"-Gerät schon, wenn ich nachts bei gedimmter Beleuchtung spiele), insofern wäre es natürlich wünschenwert, in den Spieleoptionen am Tonemapping spielen zu dürfen. Aber das muss den LDR-Kontrastumfang des Monitors berücksichtigen (auch 1000:1 wird in diesem Zusammenhang als niedrige Dynamik gesehen :)) und hat damit nicht viel Spielraum, wenn das Gerät möglichst voll ausgenutzt werden soll. Je weniger man den Kontrastumfang des Monitors beim Tonemapping ausnutzt, umso eher hat man das Risiko vom Colorbanding. Colorbanding wird tendenziell umso wahrscheinlicher, je höher die Monitor-Auflösung.
Insofern bin ich mal sehr gespannt darauf, wie eine subtilere Lösung für die Helligkeitsadaption aussehen und vor allem wirken wird. Aber wenn ich Dich richtig verstehe: Herumkommen kann man um diesen Adaptionseffekt gar nicht, wenn man HDR-Rendering ausnutzen und Colorbanding vermeiden will? Weil man ja irgendwie den Übergang von einer dunklen in eine helle Umgebung und umgekehrt bewerkstelligen muß, obwohl der Monitor dafür einen zu geringen Dynamikumfang hat?
Zu guter letzt empfinde ich es zum Beispiel beim DVD-Gucken anstrengend, bei dortigen Dunkelszenen auf jeden feinen Schatten achten zu müssen und erhöhe lieber Helligkeit und Kontrast. Das ist zwar eine Verfälschung des Films, aber wer ein Konzert hört, bei dem neben feinen Streichern auch laute Posauen vorkommen, wird in der Regel eine Dynamikkomprimierung nutzen (oder herbeiwünschen.) (Liebhaber wollen natürlich gerade den Lautstärkeunterschied, wie man ihm auch beim Livekonzert erleben würde.
Genau an "optisches HiFi" dachte ich als Audio-HiFI-Fan im Grunde. Wobei auch extrem wirkende Aufnahmen mit großen Orchestern in der Regel komprimiert sind.
Für den Normalverbraucher werden auch Popsongs im Radio einer Dynamikkomprimierung unterworfen.)
Da sind wir wohl schon nahe an 0db. Vor allem auch, weil die UKW-Sender das gesamte Material maximal komprimieren, um die Reichweite zu erhöhen.
Doch zurück zum Monitor: Die meisten User wollen lieber einen anständigen Schwarzwert als maximale Helligkeit, das Auge also lieber bei recht geringer absoluter Helligkeit "bespielen lassen".
Anständiger Schwarzwert wäre mir auch wichtiger. Andererseits ist mir die maximale Helligkeit meines alten Iiyama 19er-CRTs im Vergleich zum vorher verwendeten 15er-CRT immer etwas zu gering gewesen, eben weil er im Dunkeln nicht so stark blenden konnte. Aber ich gehe davon aus, daß die meisten Leute nicht am liebsten in völliger Dunkelheit unter solchen Bedingungen spielen.
* In diesem Bezug finde ich Philips' Ambilight-2-Technik ganz interessant.
Hab ich mir gerade mal angesehen. Nachvollziehbar, aber voll gegen meine Seh-/Spielgewohnheiten.
das hat nichts mit der präzision im shader zu tun, sondern mit den vielen renderpasses.
wenn ich mich recht erinnere dann braucht SC3 mit SM1.1 in der regel 6 renderpasses, wobei für jeden durchgang der farbwert mit FX8 im framebuffer zwischengespeichert werden muss.
So ist's.
Q
Insofern bin ich mal sehr gespannt darauf, wie eine subtilere Lösung für die Helligkeitsadaption aussehen und vor allem wirken wird. Aber wenn ich Dich richtig verstehe: Herumkommen kann man um diesen Adaptionseffekt gar nicht, wenn man HDR-Rendering ausnutzen und Colorbanding vermeiden will? Weil man ja irgendwie den Übergang von einer dunklen in eine helle Umgebung und umgekehrt bewerkstelligen muß, obwohl der Monitor dafür einen zu geringen Dynamikumfang hat?Da wir im Moment sowieso nur LDR-Monitore haben (lt. meiner, aber wie gesagt nicht allgemein akzeptierten Definition müsste schon ein MDR-Monitor ein Kontrastverhältnis von besser als 65000:1 haben) geht es nicht anders: Tonemapping muss die Dynamik oft erheblich komprimieren. Doch wollen wir überhaupt Monitore, die neben exzellenten Schwarzwerten auch so richtig, richtig hell leuchten können? Ich kann meinen 800:1-TFT, ohne ihn voll aufzudrehen, nachts schon als Leselampe verwenden ... (Der Schwarzwert ist allerdings noch verbesserungsfähig.)
Anständiger Schwarzwert wäre mir auch wichtiger. Andererseits ist mir die maximale Helligkeit meines alten Iiyama 19er-CRTs im Vergleich zum vorher verwendeten 15er-CRT immer etwas zu gering gewesen, eben weil er im Dunkeln nicht so stark blenden konnte. Aber ich gehe davon aus, daß die meisten Leute nicht am liebsten in völliger Dunkelheit unter solchen Bedingungen spielen.Sobald Licht auf den Monitor fällt, ist bei normalen Geräten an echtes Schwarz ohnehin nicht mehr zu denken. Ich spiele auch nicht gerne in Dunkelheit, zumindest ein gedimmtes Licht sollte schon da sein. Gerade wenn man tagsüber spielt, und die Pupille ohnehin ziemlich verengt ist, braucht man auch wieder die Dynamikkompression, um in dunklen Szenen noch was erkenne zu können.
Hab ich mir gerade mal angesehen. Nachvollziehbar, aber voll gegen meine Seh-/Spielgewohnheiten.Für DVD-Filme wird das "Ambilight 2" ganz gut sein, denke ich (ohne es getestet zu haben.) Bei üblichen TVs wird ja immer nur das Sehzentrum genutzt, die Randbereiche bleiben ausgespart. Ambilight 2 halte ich für einen cleveren Trick, vergleichweise billig den Betrachter etwas besser in die Bilderwelt zu versetzen.
Genau an "optisches HiFi" dachte ich als Audio-HiFI-Fan im Grunde. Wobei auch extrem wirkende Aufnahmen mit großen Orchestern in der Regel komprimiert sind.
Da sind wir wohl schon nahe an 0db. Vor allem auch, weil die UKW-Sender das gesamte Material maximal komprimieren, um die Reichweite zu erhöhen.Ich weiß jetzt nicht, ob Dynamikkomprimierung beim Audiosignal die Reichweite erhöht. UKW ist ja F-moduliert. Bei AM führt ein leises Signal natürlich zu relativ gesehen besonders starken Rauschen.
Ich weiß jetzt nicht, ob Dynamikkomprimierung beim Audiosignal die Reichweite erhöht. UKW ist ja F-moduliert. Bei AM führt ein leises Signal natürlich zu relativ gesehen besonders starken Rauschen.
Natürlich nicht, die Dynamik des transportierten Signals hat nichts mit dessen Reichweite zu tun. Und für das Rauschen spielt die Art der Modulation auch keine Rolle, es muss nur der Modulationsindex (Amplitudenhub bei AM, Fequenzhub bei FM) hoch genug sein.
Sättigung (Saturdation)
Richtig heißt es: Saturation (ohne d)
MarcWessels
2006-01-06, 02:48:12
Ich weiß jetzt nicht, ob Dynamikkomprimierung beim Audiosignal die Reichweite erhöht. UKW ist ja F-moduliert. Bei AM führt ein leises Signal natürlich zu relativ gesehen besonders starken Rauschen.IMO wird's komprimiert um (wie bei vielen DVD-Player defaultmäßig eingestellt) "laute Passagen" zu verhindern (Nachbarstörungen u.ä.).
Piffan
2006-01-07, 13:34:53
Die Dynamik- Kompression wird durchgeführt um zu verhindern, dass schwache Signale im Rausch- Teppich verschwinden. Weil die analogen Wiedergabe- Geräte halt nur einen gewissen Umfang wiedergeben können. Wurde aber wohl im Artikel erwähnt......
Die Kompression aus Rücksicht zu den Nachbarn hingegen geht noch einen Schritt weiter, sie engt die Dynamik noch stärker ein, als es vom Wiedergabegerät her nötig ist.....
Darum: Wenn man klassische Musik wirklich so genießen will, wie es der Komponist vorgesehen und wie es im Konzertsaal auch umgesetzt wird/wurde (Karajan sag ich nur), dann kommt man um einen Lautstärkepegel, der die Nachbarn vom Sofa springen lassen würde, nicht herum. Wenn die nicht auch zufällig gerade ihre Sourround- Anlage am arbeiten haben, dann hilft nur der gute alte Kopfhörer. Leider dann nur im einfachen Stereo.....
Sunrise
2006-01-07, 14:01:09
Zu guter letzt empfinde ich es zum Beispiel beim DVD-Gucken anstrengend, bei dortigen Dunkelszenen auf jeden feinen Schatten achten zu müssen und erhöhe lieber Helligkeit und Kontrast. Das ist zwar eine Verfälschung des Films, aber wer ein Konzert hört, bei dem neben feinen Streichern auch laute Posauen vorkommen, wird in der Regel eine Dynamikkomprimierung nutzen (oder herbeiwünschen.) (Liebhaber wollen natürlich gerade den Lautstärkeunterschied, wie man ihm auch beim Livekonzert erleben würde. Für den Normalverbraucher werden auch Popsongs im Radio einer Dynamikkomprimierung unterworfen.)
Du solltest dir aber auch im Klaren darüber sein, dass du durch die bewusste Verfälschung, also die deinerseits durchgeführten Anpassungen an dein Empfinden, deutliche Abstriche bei einer Vielzahl an Filmen machen musst, deren bewusstes Mittel es ist, Schatten sinnvoll einzusetzen. Auch ist es - je nach Ausgabegerät- sehr unvorteilhaft, diese "Probleme" direkt zu forcieren.
Übrigens, einer der Hauptgründe der Dynamikkompression beim Ton, ist der Schutz vor möglichen Defekten der Elektronik oder der Boxen, da kurze aber heftige Impulsspitzen (gerade beim Orchester der Fall) über den gesamten Frequenzbereich problemlos jede Box zerlegen könnten, sind die Lautstärken unvorsichtig gewählt und die Elektronik selbst für entsprechende Situationen nicht "gerüstet". Die Analogie der Popsongs würde ich hier außen vor lassen, hier treten auch noch diverse andere "Regeln" in Kraft.
Sunrise
2006-01-07, 14:14:27
Die Kompression aus Rücksicht zu den Nachbarn hingegen geht noch einen Schritt weiter, sie engt die Dynamik noch stärker ein, als es vom Wiedergabegerät her nötig ist.....
Nötigkeiten können diverse Ursachen haben, u.a. auch bedingt durch Produktionen (z.B. auf DVD), bei deren 5.1-Spur keinen Wert auf "Sprachverständlichkeit" gelegt wurde, die Stimmen also nachträglich nicht nachbearbeitet und gleichzeitig vor Ort schlecht aufgenommen wurden. Man sollte sich daher auch im Klaren darüber sein, die Kompression als letztes probates Mittel zu sehen, sie also keinesfalls nur negativ zu sehen ist.
dann hilft nur der gute alte Kopfhörer. Leider dann nur im einfachen Stereo.....
mit x-fi auch mit raumklang ;)
wobei raumklang bei musik eh recht wenig sinn macht.
Piffan
2006-01-08, 00:45:55
mit x-fi auch mit raumklang ;)
wobei raumklang bei musik eh recht wenig sinn macht.
Das wiederum hängt stark von der Aufnahmetechnik ab. Bei Studio- Produktionen sehe ich den Sinn von Raumklang auch nicht, außer bei speziellen Effekten, die zur Komposition gehören. Live- Aufnahmen hingegen kommen mit Raumklang noch besser als in Stereo.
BTW. Raumklang für Kopfhörer geht auch mit Kunstkopf- Stereofonie......
Wolfram
2006-01-08, 04:15:29
Äh... was heißt denn hier "Raumklang"? Stereo ist "Raumklang". Grundsätzlich sollte man die Sachen so wiedergeben, wie sie aufgenommen worden sind, bzw. entsprechend der "Raumklangart", für die sie vorgesehen sind.
Weswegen es keinen Sinn haben kann, Stereo-Aufnahmen (und das sind nunmal 99 Prozent aller Audio-CD-Produktionen) in 5.1 o.ä. wiederzugeben.
Und originäre 5.1-Musik-Aufnahmen gíbt es so gut wie gar nicht. Das wäre vom Prinzip her natürlich besser als Stereo (sofern die 5.1-Wiedergabekette so gut ist wie eine entsprechende Stereokette- womit sie aber auch dann dreimal soviel kosten dürfte), aber in der Praxis nimmt doch niemand derzeit 5.1 auf.
Bei Studio- Produktionen sehe ich den Sinn von Raumklang auch nicht, außer bei speziellen Effekten, die zur Komposition gehören. Live- Aufnahmen hingegen kommen mit Raumklang noch besser als in Stereo.
da muss ich dir zustimmen, life-konzertaufnahmen mit 5.1 sind einfach genial, wenn man da das publikum hinter einem toben hört glaubt man fast man sitzt mittendrinn.
von der musik hast du aber imo auch dann mit steroklang mehr, wobei die stimmung mit 5.1 natürlich wesentlich besser rübergebracht wird
Piffan
2006-01-08, 20:31:01
Äh... was heißt denn hier "Raumklang"? Stereo ist "Raumklang". Grundsätzlich sollte man die Sachen so wiedergeben, wie sie aufgenommen worden sind, bzw. entsprechend der "Raumklangart", für die sie vorgesehen sind.
Stereo ist nicht zwangsläufig räumlich. Bei "normaler" Aufnahme mit Doppelmikro ist es zweidimensional. Die Basis befindet sich auf einer Linie zwischen den Wiedergabegeräten. Nimm mal einen Kopfhörer und Du wirst merken, dass die Instrumente/Schallquellen nur zwischen den Ohren geortet werden.
Nimm ne Kunstkopf-Aufnahme, und du wirst auch mit Kopfhörer den Raum wahrnehmen können. X-Fi soll dass ja simulieren können.
Eines ist klar: Nur was räumlich aufgenommen wurde oder codiert wurde, kann man auch räumlich wiedergeben/wahrnehmen. Stereo über ne 5.1- Anlage ist daher witzlos...
Wolfram
2006-01-09, 08:39:00
Stereo ist nicht zwangsläufig räumlich. Bei "normaler" Aufnahme mit Doppelmikro ist es zweidimensional. Die Basis befindet sich auf einer Linie zwischen den Wiedergabegeräten. Nimm mal einen Kopfhörer und Du wirst merken, dass die Instrumente/Schallquellen nur zwischen den Ohren geortet werden.
Klar, stimmt. Aber das ist bei Dolby Digital / 5.1 doch nicht anders, oder?
Nimm ne Kunstkopf-Aufnahme, und du wirst auch mit Kopfhörer den Raum wahrnehmen können.
Ja... theoretisch jedenfalls. Der Mensch hört ja auch mit zwei Ohren dreidimensional, wobei ich jetzt nicht weiß, ob das nur daran liegt, daß die Ohren asymmetrisch geformt sind.
Eines ist klar: Nur was räumlich aufgenommen wurde oder codiert wurde, kann man auch räumlich wiedergeben/wahrnehmen. Stereo über ne 5.1- Anlage ist daher witzlos...
Das wollte ich auch nur sagen. Aber mir fällt gerade auf, daß das mit HDR-Rendering alles irgendwie nicht mehr ganz so viel zu tun hat. Deswegen sollten wir diesen ansonsten sehr informativen Thread nicht weiter zumüllen.
Eines ist klar: Nur was räumlich aufgenommen wurde oder codiert wurde, kann man auch räumlich wiedergeben/wahrnehmen. Stereo über ne 5.1- Anlage ist daher witzlos...
nicht zwangsläufig. auch die X-FI macht aus dem raumklang 2 kanäle, und auch der mensch kann nur 2 kanäle (sprich 2 ohren) aufnehmen.
theoretisch könntest du das "kopfhörerraumklangsignal" auch direkt in stereo aufnehmen.
praktisch wird das allerdings nicht gemacht und würde auch nur mit kopfhörern richtig funktionieren.
übliche stereoaufnahmen haben aber praktisch keine rauminformationen, so dass das upsampling relativ wenig sinn macht (außer natürlich mehr leistung des boxensystems auszunutzen)
allerdings verwendet z.b. dolby-surround auch nur 2 kanäle und hat dort auch rauminformationen enthalten, die sich auf einem 5.1-system garnicht so schlecht anhören, auch wenn es natürlich lange nicht an echtes 5.1 heranreicht.
Ich muss den Thread eben nochmal hochholen, weil mir etwas unklar ist ;)
All die tollen Kontraste von Geräten von etwa 1:1000 bringen nichts, wenn man das Gerät in der Helligkeit dämpft – was man leider oft tun muss, da bedenkenlos maximal helles Weiß als Hintergrundfarbe gewählt wird. "HDR-Monitore" würden "100% Weiß" dunkler darstellen, als "überhelles" Weiß.
Eigentlich bedeutet der fettgedruckte Satz ja das gleiche wie:
"HDR-Monitore" würden "100% Weiß" dunkler darstellen, und zwar als "überhelles" Weiß.
Das klingt für mich so nach einem Widerspruch. Oder gehört da gar kein Komma hin:
"HDR-Monitore" würden "100% Weiß" dunkler darstellen als "überhelles" Weiß.
Das wäre dann das Gegenteil von dem was im Text steht, klingt aber logischer. Bin deshalb etwas verwirrt.
Wolfram
2006-06-20, 21:37:03
T.[/POST]']Ich muss den Thread eben nochmal hochholen, weil mir etwas unklar ist ;)
Eigentlich bedeutet der fettgedruckte Satz ja das gleiche wie:
"HDR-Monitore" würden "100% Weiß" dunkler darstellen, und zwar als "überhelles" Weiß.
Das klingt für mich so nach einem Widerspruch. Oder gehört da gar kein Komma hin:
"HDR-Monitore" würden "100% Weiß" dunkler darstellen als "überhelles" Weiß.
Genau das. Interpunktion ist offenbar nicht aths' Stärke :D
Das wäre dann das Gegenteil von dem was im Text steht, klingt aber logischer. Bin deshalb etwas verwirrt.
Das wäre das Gegenteil von was?
aths schreibt ja von Windows-Anwendungen- Word, Internet Explorer. Wenn da als Hintergrundfarbe reines Weiß gewählt ist, entspricht das (automatisch) der maximalen Helligkeit, die der Monitor darstellen kann.
Nur blendet einen das beim Schreiben oder Lesen, weswegen auch ich meinen Arbeits-TFT deutlich dunkler geregelt habe. Der CRT am Spielrechner stellt Weiß viel heller dar. Weil ich in Spielen eine (kurzzeitig) blendende Helligkeit gerade haben will- Flashbangs, der direkte Blick in die Sonne usw.
aths fiktiver HDR-Monitor würde- mit entsprechender Softwareunterstützung- ein reinweißes "Blatt Papier" dunkler darstellen als jene Lichterscheinungen in Spielen.
Das könnte man auch heute insofern schon haben, als aktuelle TFTs blendend hell sein können. Dann dürften normale Desktop-Anwendungen nur kein "reinweiß" verwenden.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.