PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDR ab 2016/17 auch bei Spielen dank Unterstützung bei neuen Grafikkarten & Monitoren


Seiten : [1] 2 3 4 5

Nightspider
2015-12-08, 17:01:50
Ich mache aus der Info im Arctic Island Thread mal ein eigenes Topic.

Laut AMD soll die neue Grafikkarten Generation 2016 auch echtes HDR (High Dynamic Range) mit 10Bit pro Farbkanal und damit echte "Hochkontrast-Bilder" ermöglichen.

-10 Bit pro Farbkanal ergeben 1,07 Mrd. statt 16,7 Mio. Farben
-HDMI 2.0a oder Displayport 1.3 sind Vorraussetzung
-bisher gibt es nur wenige Fernseher mit HDR Support, PC Monitore mit HDR sollen im zweiten Halbjahr 2016 folgen
-OLED Displays erzeugen ein deutlich besseres HDR Bild (OLED Monitore im zweiten Halbjahr 2016?)
-bisher gibt es nur HDR Videomaterial bei Netflix und Amazon Prime
-die neue 4K BluRay wird Anfang 2017 HDR Material in deutlich größerer Stückzahl in den Massenmarkt bringen

Quelle:
http://www.heise.de/newsticker/meldung/AMD-Radeon-2016-Spitzengrafik-durch-echtes-HDR-DisplayPort-1-3-und-HDMI-2-0a-3035100.html

Meine subjektive Einschätzung:

Ich finde HDR sogar deutlich wichtiger als 5K oder 8K in Zukunft und hoffe das sich die Technik breit durchsetzt.
Auf der IFA habe ich im September mehrere OLED Fernseher mit HDR Bildmaterial angeschaut und fand das Bild deutlich realistischer und eindrucksvoller als 4K und OLED allein.
Imo ist OLED+4K+HDR ein Quantensprung gegenüber aktuellen LCD Geräten.

Edit:

Hier eine Meldung von Computerbase zu dem Thema:

http://www.computerbase.de/2015-12/amd-radeon-support-fuer-hdr-und-4k-displays-mit-120-hz-ab-2016/

Lurtz
2015-12-08, 17:31:40
Nach Aussagen von AMDs System Architect und Senior Fellow Kim Meinerth sehe bereits 1080p in HDR besser aus als herkömmliches 4K ohne HDR.
Vergleicht er da nicht Äpfel mit Birnen? Was hat Auflösung mit Farbtiefe zu tun?

Nightspider
2015-12-08, 17:50:45
Er vergleich nicht Auflösung mit Farbtiefe sondern den optischen Eindruck, die Bildqualität von Display A mit Display B.

Beim TV finde ich HDR auch wichtiger als 4K. Am PC hat für mich beides eine hohe Priorität.

AintCoolName
2015-12-08, 17:53:52
Vergleicht er da nicht Äpfel mit Birnen? Was hat Auflösung mit Farbtiefe zu tun?

Ich denke das geht mehr in richtig was ist dir lieber wenn du es mal erlebt hast ,HD mit HDR oder 4K ohne.

Ansonsten habe ich mich schon die ganze Zeit gefragt wann HDR für den PC kommt. Das Problem ist der kosten Faktor bei den Monitoren wenn man das einbaut was man dafür braucht(Matrix LED oder OLED) wirds für die breite Masse zu teuer. Bei TVs geht das da sind die Leute andere Preise gewöhnt.

seba86
2015-12-08, 17:59:01
Gibt es HDR nicht etwa seit 10 Jahren? Mit der HL² Loast Coast oder Epi1/Epi2 wurde dies doch um 2005 herum eingeführt in divseren Spielen?

Nightspider
2015-12-08, 18:04:08
Gibt es HDR nicht etwa seit 10 Jahren? Mit der HL² Loast Coast oder Epi1/Epi2 wurde dies doch um 2005 herum eingeführt in divseren Spielen?

Nein das ist völlig falsch. HDR in Games ist bisher nur ein Begriff für eine mittelmäßige Fake-Beleuchtung gewesen welche einen höheren Helligkeitsunterschied suggerieren sollte. Schon 2005 war klar das dies ohne entsprechende Display-Technologien nicht sinnvoll umsetzbar ist.

HDR in FarCry und HL² Lost Coast war ein billiger Bloom-Effekt.. Mit echtem HDR lässt sich ein viel realistischeres Bild erzeugen.

Das hätte dir aber auch klar sein können wenn du den Artikel oben gelesen hättest. Aktuelle Monitore haben gar nicht die Möglichkeit diese Helligkeitsunterschiede wiederzugeben. Erst recht nicht die Monitore von 2005.
Sonst würde man ja wohl kaum neue Übertragungstechnologien und vorwiegend OLED Displays benötigen.

-/\-CruNcher-/\-
2015-12-08, 18:08:01
Vergleicht er da nicht Äpfel mit Birnen? Was hat Auflösung mit Farbtiefe zu tun?

Durch das höhere Gama siehst du mehr Daten allerdings würde ich es nicht auf den heutigen Desktops und deren sRGB Kalibrierung empfehlen wen man nicht blind werden möchte *g*

Arnoldie
2015-12-08, 18:12:29
http://www.beyond3d.com/content/reviews/24/

Kennt ihr noch, oder?

1010102 ist nichts Neues. 10-bit-Ausgabe unterstützten die Radeons schon lange, zumindest analog.

Niall
2015-12-08, 18:12:36
1. Sollte HDR nicht 32 Bit pro Kanal oder wenigstens 16 Bit haben?
2. Das HDR war meines Wissens nach in sofern sehr wohl HDR, als dass für das Blooming und Glare Effekte sehr wohl mit mehr als 8 Bit gerechnet wurde um das Blooming auf Werte oberhalb von bei 8 Bit 255 zu applizieren. Bspw. um bei Reflexionen und Skymaps erst ab einem Wert von (linear) über 1.5 ein Blooming auftritt. Oder nicht? Zumindest ist das heute im Non-Realtime-Rendering noch die Regel mit einem linearen 32 Bit/Kanal Workflow zu arbeiten. Die Ergebnisse wurden oder werden am Ende dann in 8 Bit "Colour-Gemapped". Ich hatte das zu HL2 und Far Cry Zeiten so oder ähnlich verstanden. :freak:

Arnoldie
2015-12-08, 18:18:46
Habt ihr schon gewusst, dass auf 3DCenter.de Artikel veröffentlicht werden?

seba86
2015-12-08, 18:36:18
@Nightspider: Bin da nicht wirklich nicht tief drin :redface:
Danke für die Erklärung - es hätte ja was mit den ultrahohen angepriesenen dynamischen Kontrast der TFTs sein können, was aber eher nur Werbesprüche sind...

Arnoldie
2015-12-08, 18:45:17
Ich würde trotzdem aths' Artikel lesen: http://alt.3dcenter.org/artikel/2006/01-01_a.php

Niall
2015-12-08, 18:45:19
Uppsa, hatte Nightspiders post irgendwie übersehen, passt.. :freak:

Cruncher:
Das Gamma hat damit erstmal nix zu tun.

Im Übrigen bitte die oben erwähnten 10 Bit HDR nicht mit 10 Bit LUT vergleichen.
Das Ganze Thema schreit schon wieder nach Verwirrung hoch zehn.

Nightspider
2015-12-08, 19:39:17
Mich nervt gerade der Gedanke daran das selbst Displayport 1.3 schon wieder zu langsam ist für mehr als 60Hz bei 4K und HDR.

Dann muss man wohl wieder bis 2019(???) warten bis mit Displayport 1.4 auch 120Hz bei 4K und HDR möglich werden. -.-

Achill
2015-12-08, 19:58:46
Ich bin auch nicht so tief in der Materie, aber hat es bisher nicht auch immer an den fehlenden Schwarzwert (neben einen hellen Pixel) gefehlt?

Müsste nicht erst einmal LED / OLED / AMOLED Monitore raus kommen (meine nicht Backlightt) mit entsprechenden Haltbarkeitszeiten / ohne zeitlich Verfärbung? Erst wenn wir wirklich schwarze Pixel haben (neben einen weißen) haben wir den nötigen Kontrast um HDR dar zu stellen - ansonsten wird man doch immer mit einen "schleier" kämpfen.

Kann auch gut sein das ich daneben liege - dann einfach aufklären.

Air Force One
2015-12-08, 20:02:09
Freut mich wirklich!
Aber nur weil ich noch auf einem 4K Monitor spare, aber so kann ich weiter sparen und dann direkt HDR,4K und GSync holen....

Niall
2015-12-08, 20:23:08
Der Schwarzwert ist wegen des normalerweise vorherrschenden Umgebungslichts beim betrachten erstmal nachrangig möchte ich behaupten, das Auge adaptiert hier ja recht gut und stellt sich eh auf den helleren Wert ein.

Der Bildvergleich SDR / HDR im Artikel ist irreführend. SDR Bilder sind nicht partout "flau" wie es dargestellt wird. Es sieht im Bild so aus als habe man beim abschließenden Colour Mapping das lineare Gamma nicht auf 2,2 gezogen.
Im Übrigen sieht das untere Bild wesentlich SDR-iger aus. :D :D :D

Die Skalierung der Wellenlänge und des Graukeils sind ebenfalls "leicht" übertrieben. Es erschließt sich mir außerdem nicht, wieso die Post bei SDR offenbar weniger "dynamic" ist als bei HDR. Normalerweise bleibt die Pipeline bis zum Mastering doch linear?! :freak:

1024 Stufen pro Kanal sind natürlich, entsprechende Szenen und entsprechendes Rohmaterial vorausgesetzt, grundsätzlich immer besser als nur 255. Außer vielleicht bei einer Reportage ala "London im Nebel". :freak:

robbitop
2015-12-08, 20:44:40
Nein das ist völlig falsch. HDR in Games ist bisher nur ein Begriff für eine mittelmäßige Fake-Beleuchtung gewesen welche einen höheren Helligkeitsunterschied suggerieren sollte. Schon 2005 war klar das dies ohne entsprechende Display-Technologien nicht sinnvoll umsetzbar ist.

HDR in FarCry und HL² Lost Coast war ein billiger Bloom-Effekt.. Mit echtem HDR lässt sich ein viel realistischeres Bild erzeugen.

Das hätte dir aber auch klar sein können wenn du den Artikel oben gelesen hättest. Aktuelle Monitore haben gar nicht die Möglichkeit diese Helligkeitsunterschiede wiederzugeben. Erst recht nicht die Monitore von 2005.
Sonst würde man ja wohl kaum neue Übertragungstechnologien und vorwiegend OLED Displays benötigen.

Die erhöhte Dynamik für HDR in Spielen wurde tatsächlich berechnet (FP16/FP10 Framebufferformate) und Tonemapping um es auf den begrenzten Dynamikumfang zu komprimieren. R600 brachte sogar extra FP16 TMUs (die also in einem Takt mit 16 bit FP Genauigkeit Texturen bilinear filtern konnten)

"Fake Beleuchtung" wird dem IMO nicht gerecht, da ja "nur noch" die Monitore in der Kette fehlten. Der Framebuffer wurde ja bereits mit FP16 bzw FP10 Formaten (auf Kosten der Bandbreite!) berechnet. Far Cry bot übrigens "echtes" HDR mit Tonemapping an. Oblivion und einige andere Spiele auch.

Mit FP16 ist natürlich die Genauigkeit pro Kanal gemeint.

exxo
2015-12-08, 20:57:38
So dann wqarten wir alle auf ein Displayy das folgende Features vereint:

4K
120HZ
HDR
21:9
OLED
Freesync
[...]

Bis es so ein Display gibt nutze ich zumindest weiterhin mein Setup aus 1680x1050 + 2x 1280x1024 mit Eyefinity :-D

KiBa
2015-12-08, 21:03:12
So dann wqarten wir alle auf ein Displayy das folgende Features vereint:

4K
120HZ
HDR
21:9
OLED
Freesync
[...]

Und Stereoskopie mittels Polfilter (zeilenweise). Dann noch die entsprechende 3DVision-Unterstützung von NVidia und ich wäre glücklich. Achja, FreeSync sollten die dann auch haben.
Ich glaube, 2020 könnte es soweit sein, dass ich mir endlich einen neuen Monitor kaufe... ;)

Niall
2015-12-08, 21:03:42
Interessant wird auch, wenn die ersten bei Shootern und schnellen Extrem-Kontrastwechseln zuckend oder mit Migräneattacken vor dem Schreibtisch liegen. Bei angepeilten 10000 Lux am Monitor (1m Abstand) :freak:

Novum
2015-12-08, 21:42:13
Nein das ist völlig falsch. HDR in Games ist bisher nur ein Begriff für eine mittelmäßige Fake-Beleuchtung gewesen welche einen höheren Helligkeitsunterschied suggerieren sollte. Schon 2005 war klar das dies ohne entsprechende Display-Technologien nicht sinnvoll umsetzbar ist.

HDR in FarCry und HL² Lost Coast war ein billiger Bloom-Effekt.. Mit echtem HDR lässt sich ein viel realistischeres Bild erzeugen.
HDR ist Spielen ist kein billiger Bloom-Effekt. Auch nicht in Lost Coast. Alle Spiele verwenden heute HDR, ihr merkt es nur einfach nicht mehr.

Das ganze muss aber auf einen sRGB-Farbraum zur Ausgabe reduziert werden. HDR-Monitore haben eine groessere Abdeckung von Farbraum und Helligkeit, deshalb kann man es einfach besser ausgeben.

Niall
2015-12-08, 21:54:53
Um ein paar Erbsen zu zählen muss es einfach auf 8 Bit/Kanal gemapped werden, ob sRGB, Adobe RGB, eci RGB ist prinzipiell erstmal wumpe. ;)

Novum
2015-12-08, 22:01:11
Es ist immer sRGB in Spielen.

-/\-CruNcher-/\-
2015-12-08, 22:34:59
Zuerstmal wird es noch ein altes Game geben und das nennt sich Format Krieg ;)

Wobei das im Endeffekt sehr schnell mit Profilen in der Kalibrierung des jeweiligen gradings fix kompensiert werden kann aber wie gesagt die extreme intensität der Backlights und sagen wir 75 CM abstand vom Monitor adios Augen das ist schon mit Samsungs Backlights heute nicht zu ertragen auf voll pulle, der content müsste dann schon Hollywood like sehr dunkel angelegt sein, Alien Isolation z.b sicher kein problem ;)
Zumal müsste man extrem vorsichtig mit der Blauen Wellenlänge in den Backlights sein selbst für HDR content an einem HDR Fernseher sollte man sich das nicht länger antun als wie unbedingt nötig mal 2 stunden Movie auf X M Abstand scheint ja ok, sonst würden sie es ja nicht machen oder ?.

Ectoplasma
2015-12-09, 08:04:02
Das ganze muss aber auf einen sRGB-Farbraum zur Ausgabe reduziert werden.

Der Farbraum hat in diesem Zusammenhang nichts mit einem HDR zu tun. Hier geht es um den Kontrastumfang. Der Farbraum ist ein ganz anderes Thema. Trust me, ich entwickel selbst HDR Software mit Color-Management.

Nachtrag:

Das Thema war und ist scheinbar schwer zu verstehen. Das ist kein Vorwurf. Das Schlimme ist, dass die Medien den Leser auch noch massiv mit Fehlinformationen versorgen und dazu beitragen, das Thema noch unverständlicher zu machen.

Kartenlehrling
2015-12-09, 09:10:45
Aber zu Aufklärung trägst du leider auch nicht bei, ausser deiner 2cent.

Niall
2015-12-09, 09:38:15
Das war was ich meinte mit "das Ganze Thema schreit nach Verwirrung hoch Zehn".

HDR in diesem Zusammenhang hat erstmal nix mit den HDR Berechnungen in shadern für Blooming oder Glare-Effekte zutun. Ebensowenig mit irgendwelchen speziellen Farbraumabdeckungen ala sRGB, Adobe RGB etc.

Du erstellst Content mit hohem Kontrastumfang, in diesem Fall mit 1024 Helligkeitsstufen pro Kanal anstatt 256. Diesen Content rechnest du am Ende nicht auf 8 Bit oder sogar weniger runter, sondern gibst ihn auf einem Ausgabegerät aus, welches diesen "HDR-Content" anzeigen kann. Sehr vereinfacht dargestellt, aber so "einfach" ist das quasi. Es gibt dann bspw. nicht nur 256/256/256 weiß, sondern helleres weiß. Linear gesprochen also eine höhere Skala als 0 bis 1 sondern meinetwegen 0 bis 4.

Bzgl. der Profilierung hatte ich ja bereits etwas geschrieben, ectoplasma nun ja auch.
Wichtig ist derzeit nur die Gammakorrektur nach den intern linearen Berechnungen.

uha
2015-12-09, 11:14:43
Ohne local dimming macht HDR bei LCDs keinen Sinn. Dass zu allererst der mickrige native Kontrast der IPS LCDs limitiert, ist ein Detail, welches oft unterschlagen wird.

Nightspider
2015-12-09, 11:25:21
Ohne local dimming macht HDR bei LCDs keinen Sinn. Dass zu allererst der mickrige native Kontrast der IPS LCDs limitiert, ist ein Detail, welches oft unterschlagen wird.

Jepp. Local Dimming würde den Preis aktueller LCDs wiederum deutlich teurer machen. Dann ist die Preisdifferenz zu OLED auch gar nicht mehr so riesig. Zumal OLEDs immer noch viel präziser bzw. perfekt wären bzw was lokale Helligkeitsdifferenzen betrifft.

Zumal ich mir HDR mit LCD ohne VA auch kaum vorstellen kann. Sonst würde überall das Licht durchschimmern wenn in der Nachbarzone die LEDs im Turbomodus sind.

Grivel
2015-12-09, 11:28:50
Die erhöhte Dynamik für HDR in Spielen wurde tatsächlich berechnet (FP16/FP10 Framebufferformate) und Tonemapping um es auf den begrenzten Dynamikumfang zu komprimieren. R600 brachte sogar extra FP16 TMUs (die also in einem Takt mit 16 bit FP Genauigkeit Texturen bilinear filtern konnten)

"Fake Beleuchtung" wird dem IMO nicht gerecht, da ja "nur noch" die Monitore in der Kette fehlten. Der Framebuffer wurde ja bereits mit FP16 bzw FP10 Formaten (auf Kosten der Bandbreite!) berechnet. Far Cry bot übrigens "echtes" HDR mit Tonemapping an. Oblivion und einige andere Spiele auch.

Mit FP16 ist natürlich die Genauigkeit pro Kanal gemeint.

Kannst du das mal ausführen? Oder einen Link geben, bin interessiert - stecke aber nicht in der Materie.

Arnoldie
2015-12-09, 11:51:11
Kannst du das mal ausführen? Oder einen Link geben, bin interessiert - stecke aber nicht in der Materie.
aths' Artikel ist ein guter Anfang.

Ectoplasma
2015-12-09, 14:09:26
Aber zu Aufklärung trägst du leider auch nicht bei, ausser deiner 2cent.

Manchmal kann man eben nur schreiben wie es ist. Bezahlst du mir die Zeit, die ich für den Artikel bräuchte, um das hier alles aufzuklären?

Aths Artikel ist ganz gut. Wer sich tiefer mit der Materie beschäftigen will, kann auch gerne mal auf HDRLabs.com (http://www.hdrlabs.com) gehen. Die Seite ist von einem Visual Effects Producer (http://www.imdb.com/name/nm2490878/), den ich persönlich kenne. Man kann hier wirklich alles über das Thema lernen.

Kartenlehrling
2015-12-09, 14:32:27
Bezahlst du mir die Zeit,...
Hier habe ich aufgehört zu lesen.

Ectoplasma
2015-12-09, 15:51:11
Hier habe ich aufgehört zu lesen.

Sorry, aber wer gleich solche blöden Sprüche macht,

Aber zu Aufklärung trägst du leider auch nicht bei, ausser deiner 2cent.

bekommt nun mal entsprechende Antworten.

Botcruscher
2015-12-09, 18:00:49
Jepp. Local Dimming würde den Preis aktueller LCDs wiederum deutlich teurer machen. Dann ist die Preisdifferenz zu OLED auch gar nicht mehr so riesig. Zumal OLEDs immer noch viel präziser bzw. perfekt wären bzw was lokale Helligkeitsdifferenzen betrifft.
OLED kannst du bei den Laufzeiten eines PC Monitors abschreiben. Wie stark OLED degeneriert sieht man an den aktuellen Handys. Dazu verrecken dir die Farben noch unterschiedlich schnell.

PS: Zumindest bending könnte mal verschwinden.

Novum
2015-12-09, 18:10:10
Der Farbraum hat in diesem Zusammenhang nichts mit einem HDR zu tun. Hier geht es um den Kontrastumfang. Der Farbraum ist ein ganz anderes Thema. Trust me, ich entwickel selbst HDR Software mit Color-Management.
Mir schon klar, mit sRGB mein ich die gaengigen Displays inklusive Kontrast.

Achill
2015-12-09, 23:24:51
Jepp. Local Dimming würde den Preis aktueller LCDs wiederum deutlich teurer machen. Dann ist die Preisdifferenz zu OLED auch gar nicht mehr so riesig. Zumal OLEDs immer noch viel präziser bzw. perfekt wären bzw was lokale Helligkeitsdifferenzen betrifft.

Zumal ich mir HDR mit LCD ohne VA auch kaum vorstellen kann. Sonst würde überall das Licht durchschimmern wenn in der Nachbarzone die LEDs im Turbomodus sind.

Also jetzt doch, der fehlende Schwarzwert ist ein Blocker bei HDR oder?

Ich finde Local Dimming einen interessanten Ansatz - jedoch kann die Qualität stark gestreut sein - es kommt ja darauf an, wie viele unabhängig ansteuerbare "Kacheln" solch ein Display besitzt. Aber wenn es den Weg ebnet - gab schon so oft hybride Lösungen.

Kartenlehrling
2015-12-09, 23:48:27
Hier gibts eine interesantes HDR whitepaper von Philips, da geht es wohl um ihre TV und BLplayer und wenig um PC Monitor.
Irgendwie liest sich das für mich das Philips sich nicht nur an Vesa Richtlinien halten wollen, sondern auch ihr eigenes Süppchen kochen will.

Sie schreiben auch schon was von HDMI2.1, jetzt sind wie bei HDMI2.0a mit HDR.

Ich hab auch eine Vesa pdf gelesen, das für HDMI2.0 auf jedenfall das DP1.2a (Freesync) reicht zur not sollte ein Firmware update kommen,
bei einer Grafikkarte wär das ja kein Problem bei einem Monitor sieht so ein Update leider immer anders aus.


http://www.ip.philips.com/data/downloadables/1/9/7/9/philips_hdr_white_paper.pdf

robbitop
2015-12-10, 10:31:54
Local Dimming kann man IMO auch in der Pfeife rauchen. Viel zu geringe Granularität.
Ich kann mir gut vorstellen, dass erst OLED der richtige "Partner" für HDR ist. Mit PCOLED ist ggf. auch eine Variante aufgetan worden, die das Zeug dazu hätte als PC Monitor zu dienen (die bisher limitierende Lebensdauer des Blauanteils bei OLED würde damit entfallen).

CompuJoe
2015-12-10, 23:37:05
Gab es da mal nicht die Idee (glaub LG war das) ein normales LCD Panel zu nutzen und da hinter als Beleuchtung ein OLED Panel mit selber Auflösung und weißen OLEDs?
Da kann man ja die einzelnen Pixel abdunkeln oder aufhellen wie man es gerade braucht.

TheRaven666
2015-12-11, 04:25:18
Mich nervt gerade der Gedanke daran das selbst Displayport 1.3 schon wieder zu langsam ist für mehr als 60Hz bei 4K und HDR.

Dann muss man wohl wieder bis 2019(???) warten bis mit Displayport 1.4 auch 120Hz bei 4K und HDR möglich werden. -.-

Geplante Obsoleszenz im Standard. Die Industrie hat die Pläne für die nächsten 10 jahre schon in der Schublade liegen, irgendwie müssen die Absatzzahlen ja konstant hochgehalten werden. Planung und Produktion um den Konsum und Kreditmaschine am laufen zu halten. Gott, wie ich dieses System hasse.

Die klügsten Köpfe auf unser Planeten arbeiten bei 50% damit die Wirschaft am Laufen und der Absatz hoch gehalten wird. Es ist einfach zum kotzen.

Kartenlehrling
2015-12-11, 09:56:03
Wenn das Multi-GPU funktioniert und die Software/Spiele das auch unterstützen sehen ich keinen Grund mehr Daten nur über ein Kabel zu schicken,
5k können erstmal mit 2x DP1.3 Kabel realisiert werden.

Nvidia hat sowas schon mit HDMI1.4 gemacht.
Das witzige daran es gibt diese Monitore mit HDMI-Dual wirklich,
aber in Europa wurde zb. dieser 3500€ Sharp PN-K2321 oder Asus' PQ321Q nur mit 1!! DP1.2 Anschluss verkauft.
In der Schweiz und dem Rest der Welt mit zusätzlich 2x HDMI1.4a Eingänge.

http://media.bestofmicro.com/E/U/459318/original/menu7.JPG
http://www.gigabyte.de/fileupload/features/3/overview/3688.png
http://www.gigabyte.de/products/product-page.aspx?pid=4948#ov


Das hat aber mit Multi-GPU nichts zu tun.
Nvidia und AMD versprechen es doch jetzt und nicht nur für VR.

robbitop
2015-12-11, 10:28:06
Gab es da mal nicht die Idee (glaub LG war das) ein normales LCD Panel zu nutzen und da hinter als Beleuchtung ein OLED Panel mit selber Auflösung und weißen OLEDs?
Da kann man ja die einzelnen Pixel abdunkeln oder aufhellen wie man es gerade braucht.
WOLED meinst du. Es ist kein LCD davor sondern Farbfilter. Aber auch das weiße Licht der WOLEDs wird aus rot, grün und blau zusammengemischt. Letzteres hat ist ein starker Flaschenhals in der Lebensdauer (und der damit verbundenen Degeneration der Farbcharakteristik).

Wenn das Multi-GPU funktioniert und die Software/Spiele das auch unterstützen sehen ich keinen Grund mehr Daten nur über ein Kabel zu schicken,
5k können erstmal mit 2x DP1.3 Kabel realisiert werden.
Das ist Stand der Technik. 5K Monitore werden mit 2x DP1.2 Kabeln angeschlossen. Die allerersten 4K Monitore mit 2x DP1.1
Das hat aber mit Multi-GPU nichts zu tun.

Multi-GPU wird außerhalb von VR (mittels Unterstützung von VR-SLI/LiquidVR) nie vernünftig funktionieren, weil es nur eine Nische ist. Auf einem einzigen Monitor funktionieren Verfahren wie VR-SLI nicht, da es sich nicht um 2 unabhängige Blickwinkel handelt. Das einzige was helfen würde, wäre ein für die Software vollkommen transparentes HW-Verfahren. Das ist ohne extrem hohe Bandbreite und extrem geringer Latenz zwischen 2 GPUs nicht möglich.

Darauf warten wir seit mindestens 10 Jahren und wir werden wohl auch in 10 Jahren noch darauf warten. Long story short: außerhalb von VR und Enthusiastengefrickel (nur ein Bruchteil der Spiele geht vernünftig - Tendenz sinkend) ist mGPU tot.

Kartenlehrling
2015-12-11, 10:43:09
Ich habe gelesen das bei unsere Darmstädter Chemieriesen Merck mit einer Phosphor Reflexzonesschicht erfolg haben und das auch in den Monitor eingesetzt werden soll.

http://www.merck-performance-materials.de/country.de.pm/de/images/Lumine_graphic_D_440x300_tcm2084_96869.jpg
http://www.merck-performance-materials.de/de/lighting/led_function/led_function.html

isiphor® – Hochleistungs-Leuchtstoffe von Merck
Merck entwickelt diese Hochleistungs-Leuchtstoffe unter dem Markennamen isiphor®. Die Materialien nehmen blaues Licht auf, werden angeregt – und geben weißes Licht ab. Qualität und Eigenschaften des Leuchtstoffs entscheiden über die Lichtintensität und steuern die Farbtemperatur (CCT, Correlated Color Temperature). Die korrelierte Farbtemperatur beschreibt die Lichtfarbe einer weißen Lichtquelle. Die Weißabstufungen reichen von Kaltweiß über Neutralweiß bis zu Warmweiß. Das Color-on-demand-Konzept von Merck erlaubt es, je nach Zusammensetzung des Leuchtstoffs die gewünsch-te Lichtfarbe zu erreichen und unterschiedlichste Kundenanforderungen maßge-schneidert zu erfüllen. So tragen isiphor® Hochleistungs-Leuchtstoffe von Merck maßgeblich dazu bei, dass die LED-Technologie ihr enormes Potenzial in punkto Lichtqualität, Energieeinsparung und langer Lebensdauer voll ausspielen kann. isiphor® Leuchtstoffe eignen sich für Anwendungen in der Beleuchtung wie auch im Displaybereich.

sulak
2015-12-11, 11:16:10
Det heist im Umkehrschluss, alle Monitore ohne HDMI 2.0a oder Displayport 1.3 können nur die bekannten 16,7Mio Farben darstellen.
Warum gibts dann die 10Bit pro Farbkanal Monitore, die interpolieren dann irgendwas aus den in 8Bit gelieferten Infos?

http://www.computerbase.de/2015-12/prolite-x4071uhsu-b1-iiyamas-groesster-monitor-hat-40-zoll-und-ultra-hd/

InsaneDruid
2015-12-11, 14:02:44
Die haben idr "nur" eine 10Bit LUT, was sie viel besser (hardwareseitig) und mit weniger Verlust kalibrierbar macht. Ausgegeben wird dennoch 8Bit.

Kartenlehrling
2015-12-11, 14:40:12
Da dieses HDMI eigentlich immer noch für die Medienindustrie ist,
wird sich erstmal sowie daran messen müssen.
Ich weiss nicht wie Netfix ihr UHD definiert, aber die UHD Blu-ray hat diese Werte.
Gibt es den hier jemand der UHD Filme von Netfix zieht und was dazu sagen kann?




The HDR10 Media Profile is defined as:

EOTF: SMPTE ST 2084
Color Sub-sampling: 4:2:0 (for compressed video sources)
Bit Depth: 10 bit
Color Primaries: ITU-R BT.2020
Metadata: SMPTE ST 2086, MaxFALL, MaxCLL

-/\-CruNcher-/\-
2015-12-11, 17:28:42
Amazon und Vudu nutzen auch Dolby Visions HDR Mastering/Grading

http://www.dolby.com/in/en/brands/dolby-vision.html

http://www.dolby.com/uploadedImages/wwwdolbycom/Content/Gutter/C8_Dolby-Vision-Colorimetry-Difference_@2x.jpg?resize=380:380


Dolby Perceptual Quantizer (PQ), published by SMPTE as SMPTE ST 2084, is a transfer function that allows for the display of high dynamic range (HDR) video with a luminance level of up to 10,000 cd/m2 and can be used with the Rec. 2020 color space.On August 27, 2015, the Consumer Electronics Association announced the HDR10 Media Profile which uses the Rec. 2020 color space, SMPTE ST 2084, and a bit depth of 10-bits.[22] = Dolby Vision

https://www.smpte.org/sites/default/files/2014-05-06-EOTF-Miller-1-2-handout.pdf

Netflix bedingt durch ihren Partner EyeIo kein Ahnung momentan scheinen sie noch gar keinen HDR content zu haben aber denke mal sie werden auch letztendlich Dolby Vision nutzen ;)

Dolbys Grading ist auf ihr EOTF optimiert und dann gibt es noch Technicolors Grading was EOTF unabhängig ist

oTSVhkgpp2g

Kartenlehrling
2015-12-11, 17:35:20
Hast du das erwürfelt oder kann du das vielleicht noch genauer belegen?
Und wie sehen die Dolby Richtlinien aus?

-/\-CruNcher-/\-
2015-12-11, 19:15:17
Steht alles im Netz auch wie du schon sagtest hatt Philips ihre ideen eingebracht und die BBC sowie siehe oben Technicolor.

Dolbys EOTF (HVS) ist in ST 2084 Standardisiert worden dazu gibt es auch ein schönes Interview was auch Dolbys/Vizios Rushing zu einem hacked/beta HDMI 2.0a beinhaltet der nötig war bevor es zum Standard wird G-sync/Freesync like in Vizios Dolby Vision Produkten ;)

Hier erfährst du auch das Netfliix Dolby Visions dual Layer solution nutzt genauso wie VUDU für HDR content.

http://hdguru.com/dolby-vision-tries-to-set-bar-for-hdr/

Also im Prinzip kannst du schon sagen alle anderen haben das Rennen gegen Dolby Labs bei der HDR Standardieisierung verloren (gegen Dolbys HVS Algo) ;)

Ob und welche Studios nun in Technicolor oder Dolby Graden wird sich noch zeigen einige scheinen sich definitiv fest für Dolbys Processing entschieden zu haben vor allem bei Blu-Ray UHD, Technicolor bietet aber auch das Grading in Dolby Vision an.

EOTF = HVS (Visuelles System) (SSIM) logarithmisch weg von linear Gamma oder power funktionen (CRTs)

Wir befinden uns also mitten in der vollen Analog Abwanderung (Finaly) :)

Aber wenn ich die Demo hier z.b von Dolby Vision auf der CES und diesen Vergleich durch die Kamera (Compressed LDR) sehe dann kommt mir das so vor als geht das ganze Indirect Lighting vor die Hunde durch diese Balance beim New Dolby Vision Grade vor allem das Chroma ist very weired

http://i2.sendpic.org/t/jM/jMT1yzbNdSvfIXb8t6uUJMjls0U.jpg (http://sendpic.org/view/2/i/ybp0xlUGfEdRlaNJ8GRMmd5znYW.png)
http://i2.sendpic.org/t/n7/n73bGSVCcpEB88twqtzMhEb8xZx.jpg (http://sendpic.org/view/2/i/qgGB5WEzOC5BxO3ZFgT5K5kyeSP.png)
http://i2.sendpic.org/t/KE/KEckvx7Lzg4Gz6Gn4Sf0duFeRy.jpg (http://sendpic.org/view/2/i/mMZCM2kjRSGQ0vYRmlPxkvOynpo.png)
http://i2.sendpic.org/t/oJ/oJslqfKqHnyz8hO5QQwUDf8PFPo.jpg (http://sendpic.org/view/2/i/g8QIFbnsSiEiyvw57zWkmBy05qB.png)
http://i1.sendpic.org/t/s5/s5RnUEH8iLXGJ7zkyigmQj7da5q.jpg (http://sendpic.org/view/1/i/zJilGXW6NAdPMaGKU20rRlJEI5U.png)

As the Director intended,preserving the artistic intent ?

Und ja der Dolbyler redet hier auch das sie es in Games Pushen wollen.

8HvNFX4WXFM

Ectoplasma
2015-12-24, 11:42:14
Aber wenn ich die Demo hier z.b von Dolby Vision auf der CES und diesen Vergleich durch die Kamera (Compressed LDR) sehe dann kommt mir das so vor als geht das ganze Indirect Lighting vor die Hunde durch diese Balance beim New Dolby Vision Grade vor allem das Chroma ist very weired


Ich denke eher, dass es durch die LDR Kamera, welche die Beispiele abfotografiert hat, geclippt wird. Die Kamera wird wohl kein Tone-Mapping können, daher sehen die Farben teilweise etwas seltsam aus.

Wenn du dir dein letztes Beispiel anschaust,


Und ja der Dolbyler redet hier auch das sie es in Games Pushen wollen.

http://youtu.be/8HvNFX4WXFM

dann ist eher das LDR zu hell und man hat bereits ein Clipping. Die Farben wirken dann automatisch blasser. Beim "HDR" bin ich mir nicht so sicher, es sieht irgendwie bereits getonemapped aus.

Sailor Moon
2015-12-24, 13:06:32
Warum gibts dann die 10Bit pro Farbkanal Monitore, die interpolieren dann irgendwas aus den in 8Bit gelieferten Infos?

Nein. Im (semi-)professionellen Bereich sind Implementierungen bis 16bit pro Farbkanal sinnvoll, um die gewünschten Reproduktionseigenschaften präzise und verlustfrei zu erreichen. Ausgabe vom Scaler dann üblicherweise über 10bit LVDS-Schnittstellen (10B12B) an das Panel (8bit oder 10bit Paneltreiber). Farbtiefenkonvertierung via Dithering (FRC). Ansteuerungsmöglichkeiten von Seiten der Grafikkarte in 8bit oder 10bit pro Farbkanal.

Niall
2015-12-24, 13:51:42
Dieser Vergleich zwischen DOLBY Vision und dem "normalen" Bild ist völlig übertrieben, wie bei der AMD Präse. Das sieht so aus als habe man absichtlich ein Video welches mit höherem Dynamikumfang für entsprechende Endgeräte aufgenommen wurde "ungetonemapped" auf dem LDR Schirm ausgegeben. Natürlich sieht das dann scheiße aus.

Sowas ärgert mich immer maßlos, da es die Realität völlig verzerrt. Dem Kunden wird dann suggeriert - guck mal wie kacke dein jetziges Bild ist - allerdings verschwiegen, dass ein normal und sauber "getonemapptes" Bild wie es heute gemastert oder aufgenommen wird niemals so ausgewaschen und überbelichtet einen Consumer-TV erreichen würde.
Was ein Bullshit. :mad:

Ex3cut3r
2015-12-24, 15:42:32
Muss Niall da zustimmen!

Die Filmindustrie sollte endlich mal 4K pushen und 48 FPS bei Blockbustern imo! "HDR" erscheint mir (noch) wie ein neuer Marketing Trick.

-/\-CruNcher-/\-
2015-12-24, 16:29:35
@Ectoplasma
Ich geh mal davon aus das es so ist subjektiv kenne ich Dolby Vision HDR auf Dolby Vision HDR fähigen geräten nicht von daher weiss ich es nicht wie es aussehen würde wenn ich davor stehen würde deswegen sagte ich ja Compressed LDR, was nicht wirklich ausreicht zur absoluten beurteilung der jetzigen HDR Hardware/Software/Grading vs gut optimierte LDR Hardware/Software/Grading

Nein. Im (semi-)professionellen Bereich sind Implementierungen bis 16bit pro Farbkanal sinnvoll, um die gewünschten Reproduktionseigenschaften präzise und verlustfrei zu erreichen. Ausgabe vom Scaler dann üblicherweise über 10bit LVDS-Schnittstellen (10B12B) an das Panel (8bit oder 10bit Paneltreiber). Farbtiefenkonvertierung via Dithering (FRC). Ansteuerungsmöglichkeiten von Seiten der Grafikkarte in 8bit oder 10bit pro Farbkanal.

Wie ist eigentlich deine Meinung zu den verschiedenen Proposals (Phillips,BBC,Technicolor.NHK) und das Dolby schonmal den EOTF Standard stellt ?

Dieser Vergleich zwischen DOLBY Vision und dem "normalen" Bild ist völlig übertrieben, wie bei der AMD Präse. Das sieht so aus als habe man absichtlich ein Video welches mit höherem Dynamikumfang für entsprechende Endgeräte aufgenommen wurde "ungetonemapped" auf dem LDR Schirm ausgegeben. Natürlich sieht das dann scheiße aus.

Sowas ärgert mich immer maßlos, da es die Realität völlig verzerrt. Dem Kunden wird dann suggeriert - guck mal wie kacke dein jetziges Bild ist - allerdings verschwiegen, dass ein normal und sauber "getonemapptes" Bild wie es heute gemastert oder aufgenommen wird niemals so ausgewaschen und überbelichtet einen Consumer-TV erreichen würde.
Was ein Bullshit. :mad:

Jo da darf man wohl skeptisch sein bei solchen Consumer Demos :)

Eigentlich hätte man ein Optimal gegradetes LDR result gegen ein optimal gegradetes HDR result (Dolby ALgo + Hardware) antretten lassen müssen hat man hier aber nicht in der Consumer Demo.

@Ex3cut3r
Naja sehe das anders es ist jedenfalls sinvoller als die 3D Kuh die durchs dorf getrieben wurde von der Industrle auf dem TV 10 bit und HDR sind schon weitaus besser höhere Resolution bringt dir auch nix wenn sie wegen zu niedrieger Luminance einfach verschwindet (wobei bei 3D Games haben wir da ganz andere sorgen ;) ) und höhere präzesion ist immer gut hilft ja auch vor allem dem Kompressionsresultat.


Könnte mir gut vorstellen das vor allem WB Games ihre Studios darauf einschwören wird an Dolby Vision optimierten HDR Ergebnissen zu Arbeiten (Hollywood klüngel halt).

Ectoplasma
2015-12-25, 10:24:58
Mal eine etwas andere Frage. Wieviel HDR fähige Filmkameras gibt es denn auf dem Markt? Dürften wohl nicht allzuviele sein, denke ich.

Nightspider
2015-12-25, 12:44:58
Leute ihr seht das teilweise zu engstirnig was die Leuchtintensität betrifft. Nur weil ein Standard 10.000 Nits ermöglicht bedeutet das nicht das der Monitor euch die Augen wegbrennt. Solche Spitzenhelligkeiten werden wenn überhaupt nur am helligten Tage bei größerem Sitzabstand ausgefahren. Ich bin mir auch absolut sicher das es für die Intensität einen Regler geben wird sonst ließe sich das Ganze praktisch ja nicht sinnvoll umsetzen.
Es gab ja bisher auch schon extrem helle Monitore mit 400-500cd/m² die auch nur selten genutzt werden.

Dieser Vergleich zwischen DOLBY Vision und dem "normalen" Bild ist völlig übertrieben, wie bei der AMD Präse. Das sieht so aus als habe man absichtlich ein Video welches mit höherem Dynamikumfang für entsprechende Endgeräte aufgenommen wurde "ungetonemapped" auf dem LDR Schirm ausgegeben. Natürlich sieht das dann scheiße aus.

Sowas ärgert mich immer maßlos, da es die Realität völlig verzerrt. Dem Kunden wird dann suggeriert - guck mal wie kacke dein jetziges Bild ist - allerdings verschwiegen, dass ein normal und sauber "getonemapptes" Bild wie es heute gemastert oder aufgenommen wird niemals so ausgewaschen und überbelichtet einen Consumer-TV erreichen würde.
Was ein Bullshit. :mad:

Regst du dich jetzt ernsthaft über über stark komprimiertes YouTube Material auf dessen Ursprungsmaterial der Monitor vor dir gar nicht wiedergeben kann?

Ich frage mich wie man überhaupt auf die Idee kommen kann hier YouTube Videos in einer ernsthaften Diskussion zu verlinken bzw. Die Technik an Hand dieser Videos zu bewerten. :rolleyes:

Muss Niall da zustimmen!

Die Filmindustrie sollte endlich mal 4K pushen und 48 FPS bei Blockbustern imo! "HDR" erscheint mir (noch) wie ein neuer Marketing Trick.

Fang du bitte nicht auch noch an YouTube Videos zum bewerten einer neuen optischen Wiedergabetechnologie heranzuziehen.
Der Kontrastumfang und Schwarzwert eines OLEDs lassen sich ja genauso nicht über LCDs bewerten.

Ich wiederhole mich auch nochmal: HDR Monitore müssen euch nicht blenden um einen überragenden Bildeindruck zu ermöglichen.

Als ich auf der IFA vor HDR Fernsehern saß war ich kein bisschen geblendet und das Bild sah absolut fantastisch und echt aus von den Farben und deren Leuchtstärke her.

Niall
2015-12-25, 14:09:44
Regst du dich jetzt ernsthaft über über stark komprimiertes YouTube Material auf dessen Ursprungsmaterial der Monitor vor dir gar nicht wiedergeben kann?


Nein und das habe ich auch erklärt. Zudem bemängel ich auch nicht das HDR Bild, sondern das offenbar absichtlich falsch *getonemappte* LDR Bild. Das hat mit YouTube und meinem Monitor überhaupt nichts zu tun.

Ex3cut3r
2015-12-25, 15:28:16
Ja, natürlich kann man die Youtube Quali nicht als maßstab nehmen, aber man erkennt eine gewisse Richtung, und bei Dolby Vision soll das absichtlich falsch *getonemappte* LDR Bild, wie Niall bereit sagt, suggerien das dass Dolby Bild das richtige ist. ;)

Ich lasse mich gerne noch umstimmen was HDR angeht, aber momentan ist es wohl eher ein Marketing Ding.

MFG

Und schöne Weihnachten! :)

-/\-CruNcher-/\-
2015-12-25, 18:02:26
Es geht an den HVS fakten vorbei es ist wohl logisch das jeder das optimierte Dolby Vision resultat subjektiv enorm besser finden wird bei diesen Mängeln beim LDR Grading/Tonemapping bei so einem Demo Vergleich ;)

Technicolors Demo find ich da weitaus besser, ehrlicher ;)

Ectoplasma
2015-12-26, 09:27:24
Ich lasse mich gerne noch umstimmen was HDR angeht, aber momentan ist es wohl eher ein Marketing Ding.

Ich verstehe nicht, was du sagen willst. Das Thema HDR ist kein Marketing Ding, genauso wenig das Thema 4K. Es wird allerdings zu einem Marketing Gag, wenn man es schon jetzt wie geschnitten Brot anpreist, obwohl es weder für HDR noch für 4K eine Hardware-Kette gibt, die das durchgängig beherrscht. Einzig bei Spielen könnte man sich vorstellen, das entsprechender Content dirket an einen HDR Monitor gelangt.

Kartenlehrling
2016-01-08, 11:54:33
https://www.youtube.com/watch?v=MnvctltAKLE
Radeon Technologies Group Real-Time High Dynamic Range Demo

Laut den Folien von 8.dez.2015, können alle >R93xx Grafikkarten in Spiele und Photos den HDR Bereich auch abdecken, wenn sie es jetzt nicht können kommt es mit einem der nächsten Treiberupdates,
nur für Filme reicht es nicht und das sollen nur die neue 2016er Generation können, aber das können die TV sowieso dann meistens selbst oder BLplayer/Satelliten- & TV-Receiver.

http://pics.computerbase.de/6/9/3/5/6/9-1260.4230829929.png
http://pics.computerbase.de/6/9/3/5/6/8-1260.1617251548.png
http://www.computerbase.de/2015-12/amd-radeon-support-fuer-hdr-und-4k-displays-mit-120-hz-ab-2016/

Kartenlehrling
2016-01-08, 19:42:33
http://www.computerbase.de/2016-01/high-dynamic-range-youtube-kuendigt-unterstuetzung-fuer-hdr-an/
YouTube kündigt Unterstützung für HDR an

-/\-CruNcher-/\-
2016-01-11, 02:48:51
Keine Daten zum Fiji Chip ?
Da werden sich Nvidia user in der Low Range mit Maxwell eher freuen der supportet HDR theoretisch sie müssen nur den Bitstream Parser updaten bei 950/960 kein großes problem ;)
Bei AMD wird es erst mit Polaris kommen das selbe wohl 1 zu 1 mit VP9 Full Hardware acceleration hier hat Nvidia das Update schon geliefert mit dem neuen Treiber wieder für 950/960.

Aber bei Intel sieht es genauso turbolent aus wie bei AMD nur Nvidia ist sehr gut vorbereitet gewesen und kann vielen usern schon die Möglichkeit bieten.

Es gab mal eine Zeit da war ATI was Video support angeht die Nummer 1 zu MPC zeiten hatte Nvidia keine chance gehabt aber auch da hat Nvidia sie mit G80 amgefangen zu überrunden, ich musste diesen Downfall schmerzlich selber miterleben als ihr Decoder immer schlechter wurde und Nvidias immer besser, ATI war auch nicht wirklich an Feedback interessiert da hab ich alles an Feedback in Nvidia investiert, die gerade am Aufbauen ihres CUDA Ökosystems waren und zu der Zeit verdammt offen.

Kartenlehrling
2016-01-11, 10:07:42
Wiegesagt ... Die TV Geräte die HDR können, werden keine Grafikkarte brauchen, da wird von Dir und den "Anderen" in die gleiche Kerbe geschlagen wie mit der nichtvorhanden HDMI2.0 Schnittstelle.

Savay
2016-01-11, 10:17:48
Ich wüsste auch nicht wieso die GPU hier der eigentliche Hemmschuh sein sollte. Zumindest für Video wird es eher am Monitor klemmen...es muss ja seitens des Anzeigegeräts für HDR generell eine völlig andere Gammakurve appliziert werden. D.h. in den Stream muss die Info gebacken sein, dass dort ein 10bit HDR Stream vorliegt, der Monitor das entsprechend erkennen und passend darauf reagieren.

Mein TV macht das heute schon bei HDR Videos...zumindest intern über USB...es sollte also kein extremes Hexenwerk sein das theoretisch für die GPUs Nachzurüsten. Nur über HDMI 1.4 kann man das ja für UHD mehr oder weniger vergessen wenn der Stream unkomprimiert sein soll...die Frage ist dann höchstens noch ob das via DP ohne weiteres ginge.

Ectoplasma
2016-01-11, 11:35:13
...es muss ja seitens des Anzeigegeräts für HDR generell eine völlig andere Gammakurve appliziert werden.

Ein interessanter Aspekt ist in der Tat, wie ein TV Gerät erkennt, dass es sich um HDR Content handelt. Eine Frage ist auch, auf welchen Farbraum man sich einigen wird. Die Daten eines HDRs dürfen übrigens keine Gammakorrektur enthalten. D.h., dass ein Endgerät jede beliebige Gammakurve draufrechen kann/darf, die für das Endgerät am optimalsten ist (die Gammakorrektur ist sowieso nur ein historisches Relikt).


Mein TV macht das heute schon bei HDR Videos...

Du hast ein HDR TV, ernshaft jetzt und auch HDR Videos? Wo hast du das bitte alles her?

Kartenlehrling
2016-01-11, 11:47:17
wie ein TV Gerät erkennt

Da brauch keiner was erkennen, die infomation sind in den HDR Metadaten abgespeicher, das ist das der Trick oder auch der Beschiss wie mans nimmt.

Savay
2016-01-11, 12:06:06
Du hast ein HDR TV, ernshaft jetzt und auch HDR Videos? Wo hast du das bitte alles her?

HDR "fähige" TVs kann man kaufen...zumindest welche die die Videos entsprechend erkennen und nachbehandeln....und auch einige wenige die prinzipell schon die offiziellen HDR Anforderungen bzw. empfehlungen bezüglich Weiß- und Schwarzpunkt erfüllen könnten.
Mein TV ist ein Samsung JU6850...vollends etwas von HDR habe ich damit natürlich nicht...dem fehlt dazu z.B. das Local Dimming und die Maximalhelligkeit der JS9000er...die deshalb dafür noch etwas besser geeignet sind...der JU6850 kommt leider "nur" auf 360cd...statt 1000 wie die 9000er Serie. :whistle:
Entsprechend der Grenzen des Panels aufbereiten tut er die Streams jedenfalls schon...was aber in nächster Zeit mMn fast noch wichtiger ist: WCG nach Rec.2020 erfüllt er dank des Quantum Dot Panel. :smile:

Die Videos sind entsprechend codierte UHD HEVC Testdateien in 10bit HDR im Rec.2020 Farbraum.
Da sieht man auch einen überaus deutlichen Unterschied zu LDR mit Rec.709...zumindest wenn das Anzeigegerät den Stream richtig verarbeitet.
Wen es interessiert...den Link zu den Dateien kann ich nachher natürlich gerne mal posten. Allerdings bringt das nix wenn die nicht richtig verarbeitet werden...am Rechner sehen die Videos z.B. vollkommen identisch aus. :)

Wirklichen Content gibt es momentan natürlich noch nicht...angeblich wohl vereinzelte UHD Videos die in HDR codiert sind via Amazon...die bekommt man aber wohl angeblich garnicht erst mit jedem TV angezeigt...aber mit den Testdateien kann man zumindest prüfen ob ein Gerät zumindest erstmal grundsätzlich HDR "ready" ist. :wink:

D.h., dass ein Endgerät jede beliebige Gammakurve draufrechen kann/darf, die für das Endgerät am optimalsten ist

Eben...das Anzeigegerät muss wissen das es ein HDR Stream ist und es entsprechend aufbereiten...da wird in Zukunft immernoch intern eine Gammakorrektur und Panelspezifische Signalaufbereitung erfolgen...zumindest solange die Anzeigegeräte nicht plötzlich signifikant mehr als 8-9 LW Dynamikspielraum haben! :wink:

Am meisten Sinn wird es dann sicher irgendwann mit OLED machen...aber zumindest bis dahin wird die elektronik da weiterhin deutlich reinpfuschen (müssen).

Ectoplasma
2016-01-11, 12:36:01
Da brauch keiner was erkennen, die infomation sind in den HDR Metadaten abgespeicher, das ist das der Trick oder auch der Beschiss wie mans nimmt.

Siehe die Diskussion mit Savay. Wie werden denn die Metadaten bezüglich des Gammas hinterlegt? Steht da dann Gamma 1.0, oder fällt diese Info gänzlich weg, weil ein HDR sowieso kein Gamma hat? Aber auch die Metadaten als solche muss ein TV Gerät doch erst einmal interpretiern können, oder wie funktioniert das?

Kartenlehrling
2016-03-24, 10:34:13
Witzig ist das AMD diese Technik schon vor 7 Jahren einsetzten wollte in Spiele und von Nvidia gebremst wurde und als Cheater und Betrüger beschuldigt wurde... Heute bzw. in der Zukunft wird gerade von Nvidia die ungenau Berechnung mit FP16 beworben.


So does FP16 Demotion actually do anything at all?
From our testing it's clear that ATI's implementation FP16 Demotion does affect image quality in games as challenged by NVIDIA. However, the extent and prevalence of it is not universal - from four games, only one showed any real visible influence. On the other side of the coin are performance improvements, which are plentiful in two games from four: boosting performance by 17 per cent at high resolutions, and a still-impressive 10 per cent at lower resolutions.

Ultimately the decision to run FP16 Demotion has always been up to the end-user, as the use of Catalyst A.I has been optional since its first inclusion in Catalyst drivers - now many years ago - and as it appears predominantly beneficial or benign in the majority of cases, we'd suggest you leave it enabled.

We also can't help but wonder why NVIDIA attempted to make such an issue over this rendering technique; one that they wholeheartedly support and simultaneously condemn. In the two titles that their hack functioned with we saw no image quality nor performance loss, and rather the opposite: a performance boost. Why haven't NVIDIA included support for FP16 Demotion in their drivers until now for specific titles? Why choose now to kick up a fuss?

The answer, as always, will never really be known.

Feel free to see both ATI and NVIDIA's respective responses to our initial questions on the next page, and comment below if you can identify any quality differences that we may have missed.

http://www.pcauthority.com.au/Feature/232215,ati-cheating-benchmarks-and-degrading-game-quality-says-nvidia.aspx/1
ATI ‘cheating’ benchmarks and degrading game quality, says NVIDIA

Kartenlehrling
2016-03-28, 18:06:10
3.500€ 65" HDR-TV , Ich würde zwar gern auf den ganzen TV kram verzichten, aber ist ja schon stark abgespeckt.
Diese Technik in einem 30" oder 32" (16:9) Monitor wär schon toll.

https://youtu.be/56gptjVdLoU?t=404
Sony UHD HDR TV KD 65XD9305 (XD93) mit Slim Backlight Drive im Test

Kartenlehrling
2016-03-30, 14:24:35
http://www.computerbase.de/2016-03/sony-ultra-4k-streaming-mit-hdr-kostet-30-us-dollar-pro-film/
Sony Ultra : 4K-Streaming mit HDR kostet 30 US-Dollar pro Film

just4FunTA
2016-03-30, 14:36:54
ja ist bei amazon leider auch nicht besser 30€ für uhd Filme..

Ravenhearth
2016-03-30, 17:38:37
Blurays waren zu Beginn auch so teuer. Das wird in Zukunft weniger werden.

Gebrechlichkeit
2016-03-31, 14:15:11
https://youtu.be/56gptjVdLoU?t=1121

Viel zu dunkel, und das soll die Zukunft sein? Fuer Standbilder mag das ja supi sein, aber ich bevorzuge SDR, gibt dem den "Filmlook". Warum kombiniert man nicht beide? Alles was im Vordergrund zu sehen ist wird mit SDR "gefiltert" 4:2:2, alles im Hintergrund wird per HDR 4:4:4? "angepasst". Zum Glueck nutze ich einen HTPC, wo man dann von 4:4:4? auf 4:2:2 umschalten kann (geht ja heute schon teilweise (**), mir aber wie gesagt zu dunkel/detailarm).

(**) AMD Crimson bis 16.3.1 einfach von 4:4:4 (RGB Limited) bzw. YcBcR 4:2:2 auf Full 4:4:4 umschalten (Farben gewinnen an "Tiefe" ... aber das ganze Bild wird zu stark abgedunkelt). Kann mich damit ueberhaupt nicht anfreunden, ich mag halt den "Grauen Stich".

SDR
http://s29.postimg.org/3k78rdy0j/image.png (http://postimg.org/image/3k78rdy0j/)
HDR
http://s29.postimg.org/4p1awrkhf/image.png (http://postimg.org/image/4p1awrkhf/)
SDR Vordergrund, HDR Hintergrund
http://s29.postimg.org/5da5fpj77/image.png (http://postimg.org/image/5da5fpj77/)

Kartenlehrling
2016-03-31, 15:01:12
Das wird eine Glaubensfrage, genauso wie 48Hz und Tiefenschärfe.
Bei zu stark ausgeprägten Wolken die gleich nach Gewitterwolken aussehen bin ich auch allergisch.
Aber ich kann mit der voreingestellten Kino-Mode am Monitor auch nichts anfangen, zu Kontrastreich das mir gleich die Augen ausbrennend.

Kartenlehrling
2016-04-01, 01:09:39
http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2016/03/GdcVdrLottes.pdf
Advanced Techniques and Optimization of HDR VDR Color Pipelines

Ex3cut3r
2016-04-01, 14:11:46
SDR
http://s29.postimg.org/3k78rdy0j/image.png (http://postimg.org/image/3k78rdy0j/)
HDR
http://s29.postimg.org/4p1awrkhf/image.png (http://postimg.org/image/4p1awrkhf/)
SDR Vordergrund, HDR Hintergrund
http://s29.postimg.org/5da5fpj77/image.png (http://postimg.org/image/5da5fpj77/)


Lächerlich, überzeugt mich überhaupt nicht. Ich bleibe dabei HDR ist die neuste Marketing Verarsche.

Kartenlehrling
2016-04-01, 14:23:27
Lächerlich, überzeugt mich überhaupt nicht. Ich bleibe dabei HDR ist die neuste Marketing Verarsche.



HDR und 10bit kann seine vorteile sehr wohl ausspielen.

http://images3.cinema.de/imedia/2477/1352477,MRum1fCz2O6_eLuS_9LWpLPsl+_dc+gypBT4ClHIYRs8v08QtOX2DQwrnNiUnZDUI7Ha2thh vrFfFi_5u51tnA==.jpghttps://media.outnow.ch/Movies/Bilder/1986/NameDerRose/dvd.ws/55.jpg

Ich kann zb. mit den Schwarzen Kinofilme nichts anfangen wo man die hälfte nichts erkennt.
Wie toll wär zb. Namen der Rose in HDR, die Abstufung von Schwarz zb., und helle Lichtquellen würden auch realistischer "Blenden".

iuno
2016-04-01, 14:51:06
Lächerlich, überzeugt mich überhaupt nicht. Ich bleibe dabei HDR ist die neuste Marketing Verarsche.
So funktioniert das auch nicht, man muss das schon live sehen :rolleyes:

-/\-CruNcher-/\-
2016-04-01, 23:00:39
Lächerlich, überzeugt mich überhaupt nicht. Ich bleibe dabei HDR ist die neuste Marketing Verarsche.

Naja HDR ist weitaus nicht so eine verarsche wie 3D und 3D war so gesehen auch keine verarsche es hat die Stereo Entwicklung vor allem bei VR vorangetrieben aber für den Konsumenten war es absoluter nonsense ;)

Aber HDR wird bei VR vor allem problematisch werden, wenn Indies das falsch implementieren kann es sehr anoying werden ;)

Bei HDR wirst du weniger kritische Stimmen hören als wie bei 3D TV ;)

Einzig und alleine der Standard Kampf der wieder mal bei HDR stattfindet was das Grading angeht ist anoying aber wenigstens stehen ja die Grundsätze ;)

starfish
2016-04-02, 09:26:53
HDR und 10bit kann seine vorteile sehr wohl ausspielen.

http://images3.cinema.de/imedia/2477/1352477,MRum1fCz2O6_eLuS_9LWpLPsl+_dc+gypBT4ClHIYRs8v08QtOX2DQwrnNiUnZDUI7Ha2thh vrFfFi_5u51tnA==.jpghttps://media.outnow.ch/Movies/Bilder/1986/NameDerRose/dvd.ws/55.jpg

Ich kann zb. mit den Schwarzen Kinofilme nichts anfangen wo man die hälfte nichts erkennt.
Wie toll wär zb. Namen der Rose in HDR, die Abstufung von Schwarz zb., und helle Lichtquellen würden auch realistischer "Blenden".

Bei 10 Bit würde doch noch nichts blenden.
Überhaupt und das sag ich als Fan hoher Bitraten, halte ich 10 Bit für reichlichen Schwachsinn. Das ist neben 8bit integer, 16bit integer, 16bit float und 32bit float nur nochmal ein Format.

Filme werden sowieso schon seit XX Jahren in mind. 16bit integer produziert und ein ordentlicher Eizo arbeitet schon ewig mit 10bit Ausgabe. Geblendet hat mich noch nie etwas.

Ectoplasma
2016-04-02, 10:49:32
Lächerlich, überzeugt mich überhaupt nicht. Ich bleibe dabei HDR ist die neuste Marketing Verarsche.

Wenn man was nicht versteht ist es natürlich verarsche, schon klar. Die Beispielbilder sind in der Tat schlecht. Eigentlich ist jedes Beispiel suboptimal, wenn man keine echte HDR Kette hat.

Kartenlehrling
2016-04-03, 21:32:00
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55458&d=1459623347

Wie schon im UHD Blu-Ray Thread beschrieben, wird das ein steiniger Start, ersten TV und
wohl auch Monitor liefern nicht ausreichend Backlight Helligkeit,
die Mastering 1000nits sind für abgedunkelte "Kinoräume" und selbst dann sind anscheinend die TV Geräte zu dunkel.
Mein Traum von HDR-UHD Blu-Ray von Namen der Rose muss wohl noch 5 Jahre warten :biggrin:

AMD hat für Weihnachten2016/Q1-2017 Monitor und TV mit über 1000nits versprochen,
die angestrebten 4000nits werden wir wohl "bezahlbar" erst 2020 erleben.

https://youtu.be/_NcfCGgVSfg?t=612
Panasonic TVs 2016 DXW784, DXW804, DXW904 und HDR Workshop

FlashBFE
2016-04-04, 10:55:53
Eigentlich ist jedes Beispiel suboptimal, wenn man keine echte HDR Kette hat.
Zum groben Einschätzen müssten Vergleichsfotos zweier Geräte schon brauchbar sein, denn Fotoapperate mit großen Sensoren können auch einen großen Dynamikbereich einfangen. Wenn dann der Wertebereich gut auf SDR-Anzeigen abgebildet wird (Tonemapping), bekommt man sicherlich schon einen brauchbaren Eindruck, wie flau SDR gegen HDR wirkt.

Ectoplasma
2016-04-04, 12:21:20
Wenn dann der Wertebereich gut auf SDR-Anzeigen abgebildet wird (Tonemapping), bekommt man sicherlich schon einen brauchbaren Eindruck, wie flau SDR gegen HDR wirkt.

Das Problem ist, dass es ja nicht nur einen Tonemapper gibt. Es ist vielmehr so, dass es hunderte Möglichkeiten des Tonemappings gibt. Oft ist gar nicht klar, was der eigentliche Tonemapping-Operator war und was davon zusätzliche Filter Pimpereien. Ich will damit sagen, dass man sich auch täuschen lassen kann, wenn man keinen Zugriff auf die echte HDR Quelle hat. Man glaubt gar nicht, was man filtertechnisch von SDR zu SDR herausholen kann. Einen flauen Eindruck kann man mit einem Klick auf den richtigen Filter in einem SDR leicht eliminieren.

Auch mit einer echten HDR-Kette wird es wahrscheinlich eine Art des Tonemappings geben müssen. Schließlich ist nicht definiert, wie groß der Dynamikumfang der Eingangsquelle maximal sein darf. Der maximale Dynamikumfang des Wiedergabegerätes ist allerdings sehr wohl begrenzt. Und falls nicht, es würde keinen Sinn ergeben die maximale Intensität der Sonne im eigenen Wohnzimmer erstrahlen zu lassen.

Kartenlehrling
2016-04-04, 13:00:55
Im Video, Kino und Fotobereich gibts es "Master Monitor" zb. von Sony ein OLED der die BT2020 nichtmal ganz erfüllt und 35.000€ !!! koste,
an diesem Monitor richten die Filmstudios ihr Masterband aus.


Und falls nicht, es würde keinen Sinn ergeben die maximale Intensität der Sonne im eigenen Wohnzimmer erstrahlen zu lassen.
Sagt ja auch keiner aber man sollte wenigsten bei normal Tageslicht (Bewolkt) die möglichkeit haben das Bild aufzuhellen das es mit dem SDR mithalten kann.
Wenn ich dunkle Bereich nur als ein grosser Schwarzen Fleck sehe ohne die feinde Strukturen ist doch was falsch, und Kamerablicks in die Sonne sollen realistischer wirken.

https://www.youtube.com/watch?v=ny1-vZ65J_w
BVM-X300 4K 4096 x 2160 Pixel Resolution OLED Panel Master Monitor 30"

Witzig an diesem Videobetrag(Messe 2014) ist das sich "Heute" Sony von OLED verabschiede hat,
aber man sieht sie schaffen mit dem Sony OLED die Vorgaben von BT2020 nicht.

Ectoplasma
2016-04-04, 16:09:10
Im Video, Kino und Fotobereich gibts es "Master Monitor" zb. von Sony ein OLED der die BT2020 nichtmal ganz erfüllt und 35.000€ !!! koste,
an diesem Monitor richten die Filmstudios ihr Masterband aus.

Echt, dann darf man ja noch Jahre warten ... Liegt das Problem am Farbraum oder am Dynamikumfang des Gerätes? Obwohl ich vermute mal, dass der Farbraum nicht ganz erreicht wird. Der ist bei BT2020 ja riesig.

Kartenlehrling
2016-04-04, 16:35:52
Naja heutige OLED Panel kommen auf 500-800nits, sie können es zwar durch ihre guten Schwarzwerte im dunklen Raum wieder ausgleichen, aber es reicht wohl nicht aus.

-/\-CruNcher-/\-
2016-04-04, 18:58:19
Im Video, Kino und Fotobereich gibts es "Master Monitor" zb. von Sony ein OLED der die BT2020 nichtmal ganz erfüllt und 35.000€ !!! koste,
an diesem Monitor richten die Filmstudios ihr Masterband aus.



Sagt ja auch keiner aber man sollte wenigsten bei normal Tageslicht (Bewolkt) die möglichkeit haben das Bild aufzuhellen das es mit dem SDR mithalten kann.
Wenn ich dunkle Bereich nur als ein grosser Schwarzen Fleck sehe ohne die feinde Strukturen ist doch was falsch, und Kamerablicks in die Sonne sollen realistischer wirken.

https://www.youtube.com/watch?v=ny1-vZ65J_w
BVM-X300 4K 4096 x 2160 Pixel Resolution OLED Panel Master Monitor 30"

Witzig an diesem Videobetrag(Messe 2014) ist das sich "Heute" Sony von OLED verabschiede hat,
aber man sieht sie schaffen mit dem Sony OLED die Vorgaben von BT2020 nicht.

Wer diesem Marketing geblubber geglaubt hat von den Studio Rentals und deren Beratern und dann 2015 diese Investition gemacht hat dem ist nicht mehr zu helfen ;)

Geschickte Verlustminimierung nenne ich das seitens Sony ;)

Kartenlehrling
2016-04-04, 21:56:34
Digitalfernsehen habe noch ein Video zur HDR Problematik der jetzigen kaufbaren TV Geräte veröffentlich.
Der Lösungsansatz ist aber schon peinlich, aber wenigsten geht nicht alles verloren.
Aber so kann man keinem raten jetzt ein HDR-UHD TV zu kaufen.

https://www.youtube.com/watch?v=dbWUYZvLWVI
UHD Blu-ray HDR SDR Helligkeitsproblematik erklärt, Lösungsansatz gegen zu dunkle Bilder

Ex3cut3r
2016-04-04, 22:16:28
Was mich eher bei der UHD Blu-ray interessiert sind HFR sprich 48FPS bei blockbustern, bei schnellen Action Szenen einfach ein Traum. :)

Von dem Soap-Opera-Effekt gerede halte ich nichts. Wehe damit kommt gleich jemand an. :ulol3:

Ectoplasma
2016-04-05, 07:33:16
@Executer ... was hat das jetzt mit HDR zu tun? Kann es sein, dass du die ganze Zeit im falschen Thread postest?

Kartenlehrling
2016-04-13, 14:35:12
https://www.swisscom.ch/de/about/media/press-releases/2016/04/20160413-MM-Swisscom-lanciert-neue-TV-Box.html
Swisscom lanciert neue TV-Box: Fussball-EM-Spiele auf «SRF zwei» erstmals in superscharfer Qualität


Swisscom biete 4k und HDR an, am 28.04.2016 wird die Telekom auch ihr Entertain 2.0 vorstellen,
leider wurde da nie von 4k und HDR geschrieben.



«Die neue Box ist noch kleiner, schneller und sparsamer und zeigt den Kunden die Bilder so scharf und brillant wie noch nie.
Als Fussball-Fan freue ich mich schon jetzt auf die Spiele in allerbester Bildqualität», sagt Dirk Wierzbitzki, Leiter von Swisscom Products & Marketing.
Neukunden erhalten die neue Box ab dem 14. April beim Abschluss eines Vivo Pakets mit Swisscom TV 2.0. Bisherige TV 2.0 Kunden können die neue Box für 119 Schweizer Franken kaufen.
Voraussetzungen für die Nutzung von Inhalten in UHD-Qualität sind neben der neuen TV-Box von Swisscom auch ein UHD-fähiges Fernsehgerät sowie eine Mindestbandbreite von 40 Mbit/s.
UHD ist die Nachfolgetechnologie von Full HD und wird auch 4K genannt, da sie mit 3840 x 2160 vier Mal mehr Pixel anzeigt. Die neue TV-Box unterstützt auch High Dynamic Range (HDR),
was dank höheren Kontrasten mehr Farbtiefe und dadurch eine natürlichere und signifikant bessere Bildqualität ermöglicht.

Ectoplasma
2016-04-13, 17:47:40
Die neue TV-Box unterstützt auch High Dynamic Range (HDR),
was dank höheren Kontrasten mehr Farbtiefe und dadurch eine natürlichere und signifikant bessere Bildqualität ermöglicht.



Ohne Specs heißt diese Aussage genau gar nichts. Was meint mehr Farbtiefe, also welcher Farbraum ist gemeint? Was heißt mehr Kontrast, also wo ist die Angabe der Dynamik Range? Wer liefert eigentlich den HDR Content? Leider läßt sich bei swisscom auch nichts Näheres erfahren.

Kartenlehrling
2016-04-14, 00:21:53
Ohne Specs heißt diese Aussage genau gar nichts.

Und wieso schaust du Dir nicht das Infomaterial an, bevor Du hier rumplärrst?


https://www.swisscom.ch/content/dam/swisscom/de/about/medien/medienmitteilung/2016/20160413-MM-Pr%C3%A4sentation-DE.pdf.res/20160413-MM-Pr%C3%A4sentation-DE.pdf


und mit 2x klick ...

http://www.marvell.com/company/news/pressDetail.do?releaseID=6996




Key features of the ARMADA 1500 Ultra HD SoC include:


2160p60 10 bit HEVC & VP9 Video Decode, 1080p PiP and transcoding with patented scaling techniques for best-in-class video experience
Up to 14K DMIPs (1.5 GHz) Quad Core Cortex-A53 ARMv8 64-bit CPU allows operators to deploy rich media/web-based TV applications and Android TV services for an enhanced viewing experience.
The Cortex-A53 is future proofed for the 64-bit software roadmap
8 core GPU, 8 shader Vivante GC7000XS with hardware tessellation and geometry shaders optimized for the Android gaming ecosystem
Robust security engine, trusted rendering path with TrustZone, and hardware support for video watermarking technologies such as Verimatrix VideoMark and Civolution NexGuard
Strong portfolio of SDKs including Android TV and RDK enables service providers to quickly deploy a wider library of content and applications across all screens.
Marvell SDKs have been proven in multiple generations of Android set-top boxes deployed since 2012
Marvell’s advanced Wi-Fi and Bluetooth solutions, the Avastar 88W8897 (2x2 11ac) and 88W8864 (4x4 11ac)


Key features of the Swisscom TV 2.0 UHD Android Set-top box:


Support for the latest video resolutions with UltraHD content for Live and VoD
Powerful user interface for an intuitive user experience
Seven day replay Guide for all channels
Streamed Gaming
Voice enabled Search
App Store
Ultra small STB Size of 105 x 105 x 30 mm
Fully supporting CoC v9 Tier 2 requirements
Blazing channel change times

-/\-CruNcher-/\-
2016-04-14, 07:48:38
Also daraus geht hervor das der Parser nicht mal in der Lage wäre HDR Metadaten überhaupt zu verarbeiten ;)
Auch schon bedenklich keine einzige HDR Platform taucht im Marketing auf nix Netflix HDR nix Vudu HDR nix Amazon HDR nix nix ;)

Schon komisch wenn der Chip Maker nicht mit einem wort HDR erwähnt aber die Swisscom sich sicher ist :D

Die neue TV-Box unterstützt auch High Dynamic Range (HDR), was dank höheren Kontrasten mehr Farbtiefe und dadurch eine natürlichere und signifikant bessere Bildqualität ermöglicht.


Wobei unterstützt hier auch interpretationssache ist für welchen Content letztendlich ;)

Kartenlehrling
2016-04-14, 08:43:16
Was troll ihr beiden eigentlich rum?
Die "Neue" Box hat das Ultra HD Premium Logo bekommen, und es wird extra von einem HDMI2.0a Ausgang geschrieben.
Ausserdem haben wird doch schon geklärt das im moment die TV und Monitor das grösse Problem haben, die nicht genug Nits erreichen.

Ultra HD Premium-Mindestanforderungen


Auflösung: 3840 x 2160 Pixel
Farbtiefe: 10-bit
Farbraum: (Wide Color Gamut)
Eingangs-Signal: BT.2020
Display-Darstellung: Mehr als 90 % des P3-Farbumfangs
High Dynamic Range (HDR): SMPTE ST2084 EOTF
– Entweder mit mehr als 1000 Nit maximale Helligkeit und weniger als 0.05 Nit Schwarzwert (LED TV)
– Alternativ mehr al 540 Nit maximale Helligkeit und weniger als 0.0005 Nit Schwarzwert (OLED TV, Projetoren)

Hübie
2016-04-14, 09:03:26
Jetzt muss ich mal auf doof fragen: Wird sich dann das color-banding in vielen Spielen dann reduzieren oder muss es extra Anpassungen am backend geben? :| Das Thema ist alle Mal interessant. Selbst wenn es ein Marketing stunt ist sollte man doch das Endresultat beurteilen. ;) Und das möglichst nicht auf Grundlage von yt auf TN.

N0Thing
2016-04-14, 11:38:45
Jetzt muss ich mal auf doof fragen: Wird sich dann das color-banding in vielen Spielen dann reduzieren oder muss es extra Anpassungen am backend geben? :| Das Thema ist alle Mal interessant. Selbst wenn es ein Marketing stunt ist sollte man doch das Endresultat beurteilen. ;) Und das möglichst nicht auf Grundlage von yt auf TN.

Das Banding sollte doch an den Anwendungen liegen und nicht am Bildschirm oder der Übertragungsform. Somit wären die Entwickler weiterhin in der Pflicht, nicht am falschen Ende zu sparen.

Ectoplasma
2016-04-14, 14:46:52
Was troll ihr beiden eigentlich rum?
Die "Neue" Box hat das Ultra HD Premium Logo bekommen, und es wird extra von einem HDMI2.0a Ausgang geschrieben.
Ausserdem haben wird doch schon geklärt das im moment die TV und Monitor das grösse Problem haben, die nicht genug Nits erreichen.

Ich trolle doch gar nicht, ich frage dich ja. Die Spec. zu "Ultra HD Premium" war die Antwort, danke. 10Bit für Farbe und HDR finde ich allerdings ein bischen wenig, obwohl es immerhin ein Schritt nach vorne ist.

Ectoplasma
2016-04-14, 14:50:31
Das Banding sollte doch an den Anwendungen liegen und nicht am Bildschirm ...

Doch, sowohl als auch.

N0Thing
2016-04-14, 15:22:48
Doch, sowohl als auch.

Klar, wenn der Monitor scheiße (kalibriert) ist, hat man immer banding. Aber wenn nur einzelne Spiele banding aufweisen, wird dies doch nicht durch einen anderen Monitor beseitigt, oder?

Ectoplasma
2016-04-14, 17:48:32
... Aber wenn nur einzelne Spiele banding aufweisen, wird dies doch nicht durch einen anderen Monitor beseitigt, oder?

Natürlich nicht. Wenn der Content schlecht ist, nützt der beste Monitor nichts. Aber auch so hat ein gut kalibrierter Monitor Banding. Zeig mir einen heutigen Monitor, der einen Grauverlauf von links nach rechts über die volle Breite ohne Banding hinbekommt. Bei nur 8-Bit Farbtiefe sieht man, dass jeder Monitor Banding hat, haben muss. Wenn der Verlauf nur 256 Pixel breit ist, sollte man allerdings kein Banding sehen.

Hübie
2016-04-14, 18:18:16
Das ist ja halt die Frage. Ich las vor langer Zeit mal dass fast alle spiele mit 24 Bit+Alpha ([(2^8)^3]+alpha) berechnet werden. Ob das überhaupt noch aktuell ist weiß ich natürlich nicht. Daher meine doof daher kommende Frage. Wer da Material zum lesen hat: her damit. :D

-/\-CruNcher-/\-
2016-04-19, 01:47:22
Natürlich nicht. Wenn der Content schlecht ist, nützt der beste Monitor nichts. Aber auch so hat ein gut kalibrierter Monitor Banding. Zeig mir einen heutigen Monitor, der einen Grauverlauf von links nach rechts über die volle Breite ohne Banding hinbekommt. Bei nur 8-Bit Farbtiefe sieht man, dass jeder Monitor Banding hat, haben muss. Wenn der Verlauf nur 256 Pixel breit ist, sollte man allerdings kein Banding sehen.

Ehh eher wenn der Content zu gut ist nutzt dir der schlechteste Monitor nichts (Gamer) ;)

Und 6 + 2 was die meisten Gamer heute noch nutzen oder lass es mal 8 voll sein + Dithering kann natürliich guten Content nicht überstehen ;)



Das ist ja halt die Frage. Ich las vor langer Zeit mal dass fast alle spiele mit 24 Bit+Alpha ([(2^8)^3]+alpha) berechnet werden. Ob das überhaupt noch aktuell ist weiß ich natürlich nicht. Daher meine doof daher kommende Frage. Wer da Material zum lesen hat: her damit. :D

10 Bit durchgehend werden wir nicht sehen, noch nicht aber zuimindestens wird es banding in komplexen sky boxes nicht mehr geben und das ganze ohne Dithering ;)

Things of the Past

http://i1.sendpic.org/t/5c/5cCD1meVAwWsa9GdjB836qJ7GBK.jpg (http://sendpic.org/view/1/i/svdsfcKaQdeFRRr6B7HGW3ooM2q.png)

Das wird erstmal der Haupt Einsatzort für 10 Bit in UHD HDR Games und VR Experiences, danach sehen wir mal weiter ab wann es sich lohnen wird dort mehr zu investieren ;)

N0Thing
2016-04-19, 03:01:34
Bei dem Beispielbild ist selbst bei meinem inzwischen echt alten TN-Panel befeuertem HP 2207w kaum banding zu sehen. Entweder ist das Beispiel ungünstig, oder das Problem banding ist vor allem eines der Anwendungen und weniger des Displays.

-/\-CruNcher-/\-
2016-04-19, 03:27:29
Natürlich siehst du mit einem guten 8 bit Panel da jetzt nichts ist ja auch Dithered ;)

Zoom mal rein vor allem innerhalb des Radialen Corona Rings oder der Radialen Atmospheric Scattering Welle, ein geschultes Auge erkennt es aber auf jedem Kalibrierten Display ohne Zoom das dort Abstufungen sichtbar sind und trotz dithering nicht nahtlos ineinanderfliesen ;)

Und die LG Panels die Dell verbaut in dieser Serie sind sehr ordentlich ;)

Aber du hast schon recht mit ein wenig Skill kann man ein ungeschultes Auge gut täuschen vor allem auf einem Luminance unkalibrierten Display auch mit 8 bit, das ganze ist aber auch nur ein Standbild und wird in Motion nochmal komplizierter ;)

Aber eben nicht jeder macht sich über solche Psychovisuellen sachen gedanken während der Entwicklung b.z.w hat das Team das es nahtlos umsetzen kann, vor allem weil es Komplex ist und mit vielen Faktoren verbunden die die Komplexität immer weiter steigern können, dementsprechend Katastrophal sehen dann auch einige Ergebnise aus ;)

Mit 10 Bt wird das ganze jedenfalls erheblich einfacher in der Produktion und kein aufwendiges Augen faking nötig und mit HDR und solchen Luminance werten von denen wir hier sprechen wird das auch bitter nötig ;)

Und es hilft allen den Gamern und der Industrie der Gamer bezahlt den Preis bekommt dafür wunderschöne Bilder und die Industrie hat eine Prozessoptimierung und brauch diesen ganzen Produktionsaufwand nicht mehr der teils trotzdem versagt und kann die resourcen anders verteilen ;)

WIN/WIN

Wobei Aufwand ist jetzt mal relativ so viel Aufwand für eine einfache solution die z.b dich gerade in LDR überzeugt ist es jetzt auch nicht, es muss halt nur gut innerhalb des Teams klappen ;)

Also es gibt da so manche Default Ergebnise selbst von gestandenen Teams da klappen sich einem schon die Fußnägel um.

Dicker Igel
2016-04-19, 13:56:25
das ganze ist aber auch nur ein Standbild und wird in Motion nochmal komplizierter
Vor allem ist es tagsüber. Frühe oder späte Tageszeiten zeigen die Problematik idR viel deutlicher(oder deren Übergänge), da dann die Kontraste extremer sind. Wobei das aber auch immer auf die Skybox und deren Texturen ankommt. Hat man ordentliche Texturen und entsprechendes Mapping, hält sich das mit dem Banding in Grenzen.

Der HeinZ
2016-04-19, 16:45:55
Interessantes Thema, mal ne frage am Rande,

kann ich HDR 10 Bit nicht einfach runterrechnen lassen auf 8 Bit Farbkanäle , dass sollte doch mit wenigen einbußen ein recht gutes Bild auch auf 8 Bit Monitoren ergeben und spart das kaufen eines teuerer Monitors. Für ne GPU sollte das keine besondere Herausforderung darstellen, ganz davon ab rechnen die intern ja schon eine ganze weile mit mehr als 8 Bit Farbtiefe in Spielen.
Gruß Matthias
Gruß Matthias

Kartenlehrling
2016-04-19, 17:48:35
Hier im Video wird das problem der jetzigen TV Geräte erklärt und ein Lösungsansatz.
Bei BD-Videos wird das 2k Material + HDR 10bit Metadaten übertragen,
wenn kein HDR10 tauglicher Monitor/TV/Beamer erkannt wird,
wird nur das normal SDR-8bit ausgegeben, bei Spiele ist das genauso.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10992518&postcount=93
UHD Blu-ray HDR SDR Helligkeitsproblematik erklärt, Lösungsansatz gegen zu dunkle Bilder

Der HeinZ
2016-04-20, 11:46:14
Hier im Video wird das problem der jetzigen TV Geräte erklärt und ein Lösungsansatz.
Bei BD-Videos wird das 2k Material + HDR 10bit Metadaten übertragen,
wenn kein HDR10 tauglicher Monitor/TV/Beamer erkannt wird,
wird nur das normal SDR-8bit ausgegeben, bei Spiele ist das genauso.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10992518&postcount=93
UHD Blu-ray HDR SDR Helligkeitsproblematik erklärt, Lösungsansatz gegen zu dunkle Bilder
Okay danke dir. Wenn ich das jetzt richtig verstanden habe, geht es darum das das Bild eben nur als SDR/ 10 Bit HDR an den Monitor weitergeleitet wird und dadurch die Herausforderungen mit den Helligkeitsunterschieden auftreten, richtig? Die genannte Lösung mit der Helligkeitseinstellung kann man sich glaube ich knicken, erstens sind die Unterschiede trotzallem noch riesig und 2. möchte doch keiner ewig lange rumprobieren bis die Ultra HD Bluray richtig abgespielt wird. Dann gibt es doch wieder Probleme mit "normalen" Blurays, weil die Werte nicht stimmen. Ich möchte kein Profilswitcher werden.

Wie wäre es denn wenn man das volle Signal (12 Bit oder mehr) und nicht die 10 Bit Metadaten an die GPU überträgt, welche dann die Daten dann entsprechend für 10 Bit/8 Bit entsprechend aufbereitet. (Gammakorrekturen/Annäherungen und/oder Durchschnittswerte) Man gaukelt einfach nur vor das ein HDR Endgerät dranhängt und betreibt Postprocessing. Das Resultat sollte doch besser aussehen als unbearbeitete 10 Bit / 8 Bit Daten. Ähnliches macht man ja schon lange bei der Soundbearbeitung, und die Resultate sind von Probehörern nicht zu unterscheiden. (32 Bit auf 16 Bit Dithern oder Runden) Das ist nicht 100% vergleichbar, aber ich hoffe du verstehst die Richtung in die ich da gehen möchte.
Würde eine Menge Geld für neues Equipment sparen und das ganze nutzbar für User machen die mit dem Wort HDR nichts anfangen können oder wollen. Eine gute Ännäherung sieht immernoch besser als eine schlechte/falsche Umsetzung eines Standards.
Gruß Matthias

Ectoplasma
2016-04-20, 15:49:04
(Gammakorrekturen/Annäherungen und/oder Durchschnittswerte) Man gaukelt einfach nur vor das ein HDR Endgerät dranhängt und betreibt Postprocessing. Das Resultat sollte doch besser aussehen als unbearbeitete 10 Bit / 8 Bit Daten.

Du meinst bestimmt Tonemapping oder?

Savay
2016-04-20, 17:44:25
Ich möchte kein Profilswitcher werden.


Die Fernseher nutzen von haus aus schon unterschiedliche profile für HDR und SDR. :wink:

Eine gute Ännäherung sieht immernoch besser als eine schlechte/falsche Umsetzung eines Standards.
Gruß Matthias

Naja...MadVR kann am PC ja mittlerweile formal HDR Material auf SDR Monitore abbilden...das ist aber ein internes Tonemapping, das anhand einzustellender parameter (Monitorhelligkeit bspw.) funktioniert.
Damit kann man dann grundsätzlich mal einen HDR Stream in der SDR Kette verarbeiten und anzeigen und anhand dessen grundsätzlich abschätzen wie es einigermaßen korrekt aussehen müsste.

Einziges Problem dabei...HDR Fernseher bekommen das Grading intern deutlich besser hin. Sprich...das Material sieht auf nem HDR Gerät immernoch besser aus...egal was man in MadVR einstellt.

Kartenlehrling
2016-04-20, 18:55:58
..., glaubt man AMD und Nvidia, dann steht uns allerdings eine kleine Revolution ins Haus.



http://www.gamestar.de/hardware/praxis/tft-monitore/3271227/der_technik_trend_2016.html
High Dynamic Range auf dem PC - Die HDR-Revolution in Spielen

Der HeinZ
2016-04-20, 20:09:02
Naja...MadVR kann am PC ja mittlerweile formal HDR Material auf SDR Monitore abbilden...das ist aber ein internes Tonemapping, das anhand einzustellender parameter (Monitorhelligkeit bspw.) funktioniert.
Damit kann man dann grundsätzlich mal einen HDR Stream in der SDR Kette verarbeiten und anzeigen und anhand dessen grundsätzlich abschätzen wie es einigermaßen korrekt aussehen müsste.

Einziges Problem dabei...HDR Fernseher bekommen das Grading intern deutlich besser hin. Sprich...das Material sieht auf nem HDR Gerät immernoch besser aus...egal was man in MadVR einstellt.
Ah, der Mann versteht mich. Ja genau so etwas meine ich.
Ich wußte garnicht das MadVR das kann, interessant, das muss ich mir mal angucken.
Nein Nein, du hast ja recht, dass ein HDR Ferseher das besser drauf hat(wobei es wahrscheinlich noch schwieriger wird herauszufinden was nun die richtig Darstellung ist).
Aber das man das zumindest nutzen kann über MadVR macht mich doch zuversichtlich das man soetwas ohne größeren Aufwand für einen normale Fernseher umsetzen und ein HDR Filmformat gut darstellen kann.
MadVR nutz ja NUR die CPU. :)

Edit: habe MADVR ausprobiert und muss sagen das die Resultate klar sichtbar sind und auch nett anzusehen. Ebenso kann man auch ein "normales" Video verwenden um den Effekt wahrzunehmen, was aber je nach Bildmaterial und Kamera in deutliche Helligkeitsunterschiede von Szene zu Szene münzt,was irritiert aber per Frame hübscher anzusehen ist. Leider finde ich keine allzu guten echten HDR Beispielvideos, hat jemand gutes Material im Netz gefunden, mit dem man gut testen kann?

Gruss Matthias

Troyan
2016-05-13, 15:18:03
Rise of the Tomb Raider bekommt wohl einen HDR-Patch spendiert: https://developer.nvidia.com/implementing-hdr-rise-tomb-raider

-/\-CruNcher-/\-
2016-05-13, 16:54:39
Aus diem Blog Eintrag wird auch langsam verständlich wieso Nvidia ihre Video PP funktionen vorläufig entfernt haben könnte ;)

So einen aufgesetzten HDR Patch halte ich allerdings gegenüber vollwertigen von vornehinein auf PBR/HDR ausgerichteten Pipelines für Unterlegen.

Kartenlehrling
2016-05-13, 17:44:04
Solange Ihr und Nvidia nicht behaupten es erfunden zu haben!!!

Kriton
2016-05-14, 18:26:56
Solange Ihr und Nvidia nicht behaupten es erfunden zu haben!!!

zAoDzIsx03E

DanMan
2016-05-18, 13:20:03
Rise of the Tomb Raider bekommt wohl einen HDR-Patch spendiert: https://developer.nvidia.com/implementing-hdr-rise-tomb-raider
Cool. Danke für die Info. Schade, dass ich das auf meinem HDR TV wohl nicht ausprobieren kann.
Aus diem Blog Eintrag wird auch langsam verständlich wieso Nvidia ihre Video PP funktionen vorläufig entfernt haben könnte ;)

So einen aufgesetzten HDR Patch halte ich allerdings gegenüber vollwertigen von vornehinein auf PBR/HDR ausgerichteten Pipelines für Unterlegen.
Wieso? Intern rendern die Spiele doch schon seit Jahren mit höherer Präzision/Dynamikumfang. Es geht ja bei HDR in Spielen dann nur noch darum diese Werte auch auf den Monitor zu bekommen, ohne dass zuvor auf die 8 bit heruntergerechnet werden muss. Ich frage mich aber generell wieviel Aufwand es ist das in Spielen einzubauen. Einer 'ne Ahnung?

Zur Praxis: Mein Monitor läuft derzeit bei 70cd/m2 obwohl er zu bis zu 400 in der Lage wäre (was dann aber evtl. den Schwarzwert verschlechtert). Die sollten sich doch nutzen lassen, auch wenn es natürlich kein HDR Monitor ist (immerhin 98% AdobeRGB). Wenn jetzt ein Spiel HDR ausgeben möchte, wie soll das praktisch funktionieren? Soll ich dann von Hand das Backlight auf 100% drehen? :ugly:

Bei richtigen HDR TVs läuft es ja derzeit so, dass sie genau das automatisch tun (was vielen auch stinkt, weil sie keinen Spielraum mehr haben um das einstrahlende Sonnenlicht am Tag durch aufdrehen des Backlights zu kompensieren), da sie erkennen, dass HDR-Video abgespielt wird (wg. Metadaten, denk ich).

Wäre ja doof, wenn bestehende Monitore nicht wenigstens ausgereizt werden könnten. Wobei sich mir die Frage stellt, ob Spiele überhaupt Color Management betreiben. Bei Filmen weiß man ja, dass die Produktion nach bestimmten Richtlinen/Spezifikationen abläuft. Könnte mir aber vorstellen, dass bei Spielen da jeder sein eigenes Süppchen kocht. Oder noch schlimmer - alle einfach einen Monitor voraussetzen, der nur sRGB hin bekommt. Nach dem Motto: "Wenn der Internet Explorer das darf..." :ugly:

Noch was? Achja, die NV Pascal hat zumindest in der Referenzversion gute HDR-Unterstützung:
the 1080 supports the full array of HDR features: 12-bit colour, BT.2020 wide colour gamut, SMPTE 2084 (Perceptual Quantization), and HDMI 2.0b 10/12b for 4K HDR.
...und DisplayPort 1.4 obendrein.

@Mods: vielleicht sollte man das Topic in "HDR-Ausgabe ab 2016..." ändern, um Verwirrung vorzubeugen.

Ectoplasma
2016-05-18, 15:04:08
... der nur sRGB hin bekommt. Nach dem Motto: "Wenn der Internet Explorer das darf..." :ugly:

Nur noch gerne mal zum Verständnis. Der Farbraum hat nichts mit HDR zu aber auch wirklich gar nichts. Das einzige was in sRGB nicht HDR tauglich ist, ist die Gammakurve von 2,2. Viele mögen es vielleicht nicht wahr haben, oder auch nicht verstehen, aber mit sRGB deckt man das Farbspektrum ausreichend genug ab. Meist gibt es eine Norm für HDR + Farbraum, dennoch ist das eine von dem anderen unabhängig.

DanMan
2016-05-18, 15:57:46
Nur noch gerne mal zum Verständnis. Der Farbraum hat nichts mit HDR zu aber auch wirklich gar nichts. Das einzige was in sRGB nicht HDR tauglich ist, ist die Gammakurve von 2,2. Viele mögen es vielleicht nicht wahr haben, oder auch nicht verstehen, aber mit sRGB deckt man das Farbspektrum ausreichend genug ab. Meist gibt es eine Norm für HDR + Farbraum, dennoch ist das eine von dem anderen unabhängig.
Das ist mir schon klar. An der Stelle ging es um Color Management in Spielen. Aber schön dass du uns daran erinnerst. ;)

sRGB mag dir genügen, aber mir nicht. Jeder Drucker bekommt ein gesättigteres Cyan hin als ein Durchschnittsmonitor.

Kartenlehrling
2016-05-18, 16:37:15
Das sowieso, nicht jeder wird HDR10 mögen,
und wie man an den ersten UHD/HDR Blurays sieht kann man sehr viel beim abmischen verkehrt machen,
deshalb auch viel gleich von Anfang das dynamische HDR10 bevorzugen und hoffen das es sich durchsetzt.

Ich denk bei Spiele wird die Umsetztung schneller und einfach ablaufen,
die neusten Gameengines haben es schon vorgesehen, anscheinend reicht als Vorraussetzung "Physically Based Rendering".

Ectoplasma
2016-05-18, 17:07:46
Das ist mir schon klar. An der Stelle ging es um Color Management in Spielen. Aber schön dass du uns daran erinnerst. sRGB mag dir genügen, aber mir nicht. Jeder Drucker bekommt ein gesättigteres Cyan hin als ein Durchschnittsmonitor;)

Darum geht es ja, Spiele. Mal im Ernst, was willst du mit einem gesättigterem Cyan? Unter welchen Bedingungen, gerade in Spielen, soll das denn sinnvoll sein? Wenn wir von der Werdebranche sprechen, mag das eine andere Sache sein. Der Farbraum von Rec.2020 (UHDTV) ist gigantisch groß. Wer denkt sich soetwas aus und welcher Monitor soll das schaffen? Jedenfalls hat man in der Branche jetzt shön Luft nach oben, um damit Jahr für Jahr einen neuen Fernseher anpreisen zu können, immer mit folgendem Spruch: "deckt 85% von Rec.2020 ab, deckt 88% von Rec.2020 ab", usw. Dabei braucht man das gar nicht. Egal, hauptsache der Kunde glaubt, dass das irgendwie wichtig sei.

DanMan
2016-05-18, 17:42:34
Nun, um deine Frage zu beantworten: Wasser. Also Meerwasser (unter freiem Himmel) hat sehr intensive Blautöne, besonders in der Cyan-Gegend. Aber beiß dich nicht an meinem Beispiel fest, Ectoplasma. So lange der vom Menschen sichtbare Bereich nicht abgebildet ist gibt es keinen Grund mit der Weiterentwicklung aufzuhören. Es wurde einfach Zeit, dass der Farbraum auch erweitert wird, denn welches Display schafft heute noch bloß sRGB? Wenn man also bedenkt wie lange alle auf sRGB (Rec.709) sitzen geblieben sind macht es doch Sinn gleich mit Rec.2020 weit auszuholen, oder? Jetzt können sich die Ingenieure wieder austoben.

Dass wir das jetzt häppchenweise Jahr für Jahr in Minischritten serviert bekommen war abzusehen. Anderseits ist die (bezahlbare) Technik wohl tatsächlich noch nicht so weit. Ich hab von einem Prototyp LC-Display gelesen, das 97% Rec.2020 schaffen soll, das dafür aber ein Farblaser-Backlight benötigt. Kann also noch dauern bis das im Wohnzimmer neben der Yucca-Palme steht. :biggrin:

Kartenlehrling
2016-05-19, 14:33:32
Hier eine der ersten UHD-HDR TV Boxen,
Technisch scheint es die gleiche zu sein die auch das Schweizer Telekom seit diesem Monat vertreibt.

Mi Box


Basic specs
Output Resolution: Up to 4K 60fps
Processor: Quad-core Cortex-A53 2.0GHz
GPU: Mali 450 750MHz
RAM: 2GB DDR3
Flash: 8GB eMMC
System: Android TV 6.0
Security: Widevine L1 + PlayReady 3.0

Video
VP9 Profile-2 up to 4K x 2K @ 60fps
H.265 HEVC MP-10 at L5.1, up to 4K x 2K at 60fps
H.264 AVC HPat L5.1, up to 4K x 2K at 30fps
H.264 MVC, up to 1080P at 60fps
Supports HDR10/HLG HDR processing (software upgrade required)
Sound
DTS 2.0+ Digital Out, Dolby Digital Plus
Up to 7.1 pass through
Ports
HDMI: HDMI 2.0a x 1 port (HDCP 2.2)
USB: USB 2.0 x 1 port
AV: SPDIF Out / 3.5mm audio output x 1 port
Power: 1 port



http://www.mi.com/en/mibox/#overview

DanMan
2016-05-19, 16:18:31
@Kartenlehrling: Und was hat das mit HDR-Ausgabe bei Spielen zu tun?

Übrigens:
Currently, Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle, and Shadow Warrior 2 are the only games with pledged HDR support, though you can expect more titles to embrace the technology as hardware support for it becomes more widespread.


Es geht also voran. Schön. Was ich doof finde ist, dass vermutlich nicht auch vorhandene Monitore irgendwie davon profitieren werden, obwohl das Potential groß ist.

Kartenlehrling
2016-05-20, 01:25:13
@Kartenlehrling: Und was hat das mit HDR-Ausgabe bei Spielen zu tun?


Ich weiss jetzt nicht wie man vom Threadtitel her ableiten kann das es sich hier ausschliesslich um Gaming-HDR handelt.

sooo besser ... ?

http://img.winfuture.de/teaser/660/19763.jpg

Darf ich jetzt weitermachen? :cool:

Hübie
2016-05-20, 03:36:16
Ähm. Das Wort Spielen im Kontext mit HDR, Grafikkarte und Monitor sagt doch eigentlich jedem dass es hier ums Gaming geht. Lies den Titel noch mal genau. ;)

DanMan
2016-05-20, 10:18:32
Ich weiss jetzt nicht wie man vom Threadtitel her ableiten kann das es sich hier ausschliesslich um Gaming-HDR handelt.
🖟🖟🖟🖟🖟🖟🖟🖟🖟🖟🖟🖟🖟🖟
Ähm. Das Wort Spielen im Kontext mit HDR, Grafikkarte und Monitor sagt doch eigentlich jedem dass es hier ums Gaming geht. Lies den Titel noch mal genau. ;)


Darf ich jetzt weitermachen? :cool:
Nö. :tongue:

Hübie
2016-05-20, 10:27:23
Wie machst du das Symbol mit dem Finger?? :eek:

DanMan
2016-05-20, 10:56:36
Wie machst du das Symbol mit dem Finger?? :eek:
Unicode Zeichentabelle. Da sind allerhand Symbole drin. :)

Ectoplasma
2016-05-20, 13:24:22
Unicode Zeichentabelle. Da sind allerhand Symbole drin. :)

Geht nicht standardmäßg auf allen Betriebssystemen. Also bitte nicht machen, sieht nämlich doof aus, wenn man irgendein Gedöns angezeigt bekommt.

Kartenlehrling
2016-06-05, 14:01:31
HLG does not need to use metadata since it is compatible with both SDR displays and HDR displays


Die TV Sender bringen wohl ein Zwischending ... Hybrid Log-Gamma (HLG)
(https://en.wikipedia.org/wiki/Hybrid_Log-Gamma)
Es fehlen die Meta-daten die bei Bluerays und Games mit übertragen werden muss,
bei DolbyVision wir mit jedem Bild die Metadaten abgefragt was zu besser abgestimmten Helligkeitsstufen im Film sorgen.
HGL ist wohl eine Notlösung bzw. zwischenschritt HDR! auch auf SDR Monitor/TV zu bringen.

https://www.youtube.com/watch?v=n-RKQnA_T-c
UHD HLG HDR und DVB T2 HD vorgestellt

-/\-CruNcher-/\-
2016-06-05, 14:10:08
Geht nicht standardmäßg auf allen Betriebssystemen. Also bitte nicht machen, sieht nämlich doof aus, wenn man irgendein Gedöns angezeigt bekommt.

R:1 G:245 B:159 ;)

HLG Rules fuck ya Dolby ;)

Ectoplasma
2016-06-06, 09:21:24
HLG Rules fuck ya Dolby ;)

Ja, schon richtig, ich sprach aber kurz über nicht vorhandene UNICODE Symbole in Zeichensätzen. Nix HDR und so, weißte :D

Nightspider
2016-06-08, 00:18:55
Gab es eigentlich mal irgendwo Aussagen dazu ob die aktuellen VR Brillen vielleicht nachträglich noch HDR bekommen oder ist die benötigte Übertragungsrate einfach zu hoch für die aktuellen Brillen?

HDR könnte die Imersion ja potentiell stark steigern.

Ectoplasma
2016-06-08, 10:20:25
Gab es eigentlich mal irgendwo Aussagen dazu ob die aktuellen VR Brillen vielleicht nachträglich noch HDR bekommen oder ist die benötigte Übertragungsrate einfach zu hoch für die aktuellen Brillen?

HDR könnte die Imersion ja potentiell stark steigern.

Es gibt noch keinen Standard, auf den man sich geeinigt hat. Im Netzt findet man darüber so gut wie keine Informationen. Wenn man sich einigen könnte, was HDR meint, gäbe es vielleicht mehr Informationen.
Im Übrigen ist echtes HDR nicht das HDR, was die Industrie uns mit ihrem 10Bit HDR Bullshit versucht zu verkaufen. Echtes HDR in einer VR Brille wäre eine tolle Sache, ist aber ein komplizierte Angelegenheit, da die projezierten Dinge belichtungstechnisch ziemlich genau ausgemessen werden müssen, damit sie gut in die Umgebung passen.

Kartenlehrling
2016-06-18, 16:57:00
Es muss wohl nicht immer OLED sein, der Samsung scheint eine sehr gute arbeit zu machen,
was mir aber fehlt ist die option HDR-dolbyvison da noch nicht fest steht was sich durchsetzt.

1400nits ist schon mal eine Menge, 65" für 4500€ ,
für diesen Preis bekommt man aber auch einen 55" LG OLED mit 720nits.

https://youtu.be/_gFM64BPa-8?t=456
Samsung UE 65 KS9590 SUHD Curved mit HDR Plus im Test

http://www.samsung.com/de/consumer/tv-av/tv/quantum-dot-display/UE65KS9590TXZG
65" Curved SUHD TV KS9590

samm
2016-06-19, 18:42:10
https://youtu.be/_gFM64BPa-8?t=456
Samsung UE 65 KS9590 SUHD Curved mit HDR Plus im Test

http://www.samsung.com/de/consumer/tv-av/tv/quantum-dot-display/UE65KS9590TXZG
65" Curved SUHD TV KS9590Als Besitzer des "kleinen Bruders" dieses Fernsehers kann ich nur sagen *urks* - genauer: Ich hoffe dringendst, dass HDR-Monitore dann wesentlich weniger Hintergrund-Magic-Optionen und mehr konkrete, klar gelabelte Einstellungsmöglichkeiten bieten, als dieser bewusst schwammig gehaltene Fernseher-Kram, mit local dimming-"dynamischer Kontrast"-Lichthöfen und schwankender Helligkeit, "moth eye structure" Spiegelpanels, ultralahme Erkennung wechselnder Auflösungen etc.

Kartenlehrling
2016-06-19, 21:44:24
Das man fürs optimal eingerichte HDR Bild ein Doktorarbeit machen muss finde ich auch seltsam, gut finde ich das man "altes" SDR Material auffrischen kann.

Problem ist halt das heutige TV/Monitor mit den angeboten HDR-Mastering Metadaten ein viel zu dunkels Bild hinterlassen und
dann auch noch Storm fressen wie ein 300w Lichtstrahler.
Das jeder sein bevorzugtes System benutzten will macht es auch nicht besser.

Bis jetzt gibts ja 3-4 Version von HDR10, jeder Hersteller macht sein eigenes Süppchen, auch die Fernsehanstallten habe ihre eigene Vorstellung von HDR.
Jedenfalls finde ich das HDR+ (Phillips und Samung) schon mal als übergang eine gute Lösung.
Witzig finde ich wie Samsung das Local-dimming Problem ... "reduzieren",
Sony will mit einem 10T€ 75" TV kommen der über 1100 Dimmingzone hat und Samsung kommt mit gerade mal 150? aus,
normal haben die neuen siehe Panasonic im Video 300-550 Dimmingzone.

samm
2016-06-19, 22:02:08
*rant*

Wenn es nur der Umgang mit Metadaten wäre...

Ist doch alles nur ein behelfsmässiges Checklistenfeature, man entschuldige die Sprache, aber mit extremen Helligkeitsunterschieden mit schlechterer Auflösung als 1 "dpi" gibt es nur die Unterscheidung zwischen Scheisse und absolute Scheisse. Dass darüber ernsthaft in einem Review noch geredet und analysiert und verglichen wird, will mir nicht in den Kopf - haben die Reviewer denn alle noch nie vor einem PC-Monitor gesessen und ihr Leben vor Marketingbroschüren und Fernsehern verbracht? Wenn ich bei meinem TV (KS-7-Serie) das Zeugs aktiviere, aber auch im Laden beim Aussuchen des Fernsehers, wo ich auch higher End Modelle angesehen hatte wie die oben verlinkte KS9-Serie, habe ich ständig das Bedürfnis, meine nicht vorhandene Brille zu putzen, weil die durch einen Fettfilm schmierige Lichthöfe zu verursachen scheint :freak:

Dann die ganzen "Smart"-Features, die die TVs komplett überladen und lahm machen - ich bin inzwischen soweit, dass ich über meinen BD-Player fix auf 1080p scalen lasse statt die Ursprungsauflösung weiterzureichen, weil die 30sec nerven, die der Fernseher benötigt, bis er schnallt, was anliegt. Mal sehen, ob ich das mit dem Receiver ebenfalls tun kann, dann hätte ich denselben Issue mit der Wii nicht mehr...

Und weshalb sie durchaus erfreuliche konkret hilfreiche Features wie Scanning-Backlight / BFI, erhöhte Refreshrates, Zwischenbildberechnung, Upscaling, usw. auch hinter Marketingnamen verstecken und man raten muss, was das nun alles heissen soll, was durchaus konkrete Namen *hätte*, dann frage ich mich einfach, ob die Marketing-Fritzen ernsthaft denken, das hilft irgendeinem DAU, oder wir stattdessen nicht alle nur für Blöd verkauft werden sollen. Und das auch mit uns machen lassen.

Ne wirklich, da müssen erst normale PC-OLED-Monitore, oder LED-Monitore mit 1 LED pro Pixel Backlight, mit ehrlichen, technischen Bezeichnungen für alle Features rauskommen, Status Quo ist einfach unbefriedigendes Gefrickel.

Kartenlehrling
2016-06-21, 09:29:36
Ich habe eine tolle Präsentation von Naughty Dog zum Thema Gaming HDR am Beispiel von Uncharted 2 was für die PS3 damals gemacht wurde.

http://www.gdcvault.com/play/1012351/Uncharted-2-HDR

This session talks about HDR Lighting in Uncharted 2.
The main focus will be Gamma/Linear-Space Lighting, Filmic Tonemapping, and Screen-Space Ambient Occlusion.
Throughout the session, we will talk about all the little details that no one tells you,
like why our SSAO only affects ambient light, how our highlights avoid clamping,
and if specular maps should be stored in linear or gamma space.

Kartenlehrling
2016-06-22, 11:39:16
During Microsoft's E3 presentation it was revealed that Forza Horizon 3 and Gears of War 4 support HDR -
no doubt the first of many games to use the expanded dynamic range possible on the latest console revision.

http://www.eurogamer.net/articles/digitalfoundry-2016-4k-hdr-what-does-it-mean-for-gamers
HDR: What does it mean for games and movies?

Ectoplasma
2016-06-22, 15:37:29
Ich habe eine tolle Präsentation von Naughty Dog zum Thema Gaming HDR am Beispiel von Uncharted 2 was für die PS3 damals gemacht wurde.

http://www.gdcvault.com/play/1012351/Uncharted-2-HDR

Endlich mal ein sehr guter Beitrag.

http://www.eurogamer.net/articles/digitalfoundry-2016-4k-hdr-what-does-it-mean-for-gamers
HDR: What does it mean for games and movies?

Alleine schon wieder diese Vergleichsbilder zwischen HDR und LDR, dargestellt auf einem LDR Monitor :freak:. Manchmal glaubt man echt, es mit Vollidioten zu tun zu haben.

DanMan
2016-06-22, 17:47:33
http://www.eurogamer.net/articles/digitalfoundry-2016-4k-hdr-what-does-it-mean-for-gamers
HDR: What does it mean for games and movies?
Dolby Vision halte ich für recht zwecklos bei Spielen. Der Sinn von DV ist ja, dass man szenenabhängig den Dynamikumfang quasi verschieben kann. Bei Videos geht das, weil man vorher weiß, was als nächste Szene kommt. Bei Spielen ändert sich das ja ständig, weil der Spieler die Kontrolle hat. Insofern...

Außerdem hat der Spiele-Programmierer ja sowieso jederzeit volle Kontrolle über das Tonemapping.

Kartenlehrling
2016-06-22, 18:35:41
Da es noch keine HDR10 Monitor offizell gibt bezieht sich die Aussage von mir und
im im Beitrag auf TV Geräte und da sollte man auf die grösstmögliche Kompatibilität achten.
Gut finde ich auch Samsung/Phillips HDR+ Mode(SUHD Remastering), das SDR Material nachbearbeite.

L.ED
2016-06-22, 19:19:24
Das mit der Unterstützung dank neuen Grafikkarten, will mir noch nicht so ganz einleuchten? Defakto verfügen Grafikchips intern spätestens seit dem FX, aka der GeForce 5 (Nvidia war in dem Punkt um etwa ein bis 2 Jahre früher dabei und Vorreiter), um das benötigte Farbspektrum!

Und per Analoger Schnittstelle nebst Geräten konnte man das bereits auch nutzen und wurde/wird zum teil auch bis heute dann auch so gemacht.

Wenn man mal in gewissen Forschungsabteilungen blickt (etwa dem astronomischen Bereich), die Analog-röhren stehen da nicht etwa noch weil es am Geld mangelt. Nein tatsächlich sind es im Regelfall gar nicht mal so alte, die werden nämlich auch heute noch produziert und weiter entwickelt in Kleinserien (ebenso dem angepasste Grafikboards).

Wenn Grafikkarten über ihre digitale Ausgabe dessen bis heute nicht fähig(?), war und ist es eine bewusste Entscheidung seitens der Hersteller gewesen und darauf sollte man den Fokus dann legen und sie ggf. auch an die Wand nageln!

Weil an der Adresse seit Jahren Pille palle und leicht hätte schon immer anders zelebriert werden können, einzig das es überflüssig und unnötig bis heuer gewesen wäre. Da bisherige digital realisierte Anzeigegeräte bis heute ohnehin nicht dazu fähig das komplett mögliche (interne) Farbspektrum darstellen zu können (dazu müssten dann von 32Bit pro Kanal schon reden). Das wird sich von daher auch mit den sog. HDR Geräten nur marginal an der Kante ändern, wenn auch durch sie (natürlich und keine Frage) eine enorme Aufwertung und Erweiterung dahingehend erreicht (insofern korrekt und gescheit umgesetzt).

Wenn Zuviel Hype um eine Sache gemacht, hilft es manchmal wenn auf das Technische dahinter herunter gebrochen. In dem Fall eben, wie wird Farbe eigentlich per Computer realisiert (in technisch, Chip gegossen, nebst angesteuert).

Und um es nicht ganz so allein stehen zu lassen: Selbst schon winzige Kontrastveränderung, sind in diesem technischen gesehen gleich andere/neue Farben. Die eindeutig adressierbar vorhanden sein müssen und zwar in Form einer internen (festen) Palette, was der Grund warum sie schon lange so enorm breit (128Bit). Und diese Kette setzt sich bis in die Anzeigegeräte fort und bei letzteren liegt nach wie vor das eigentliche Problem, denn sie sind dahingehend (abgesehen von den Analogen), auch in Zukunft noch vergleichsweise eher Stark beschränkt.

DanMan
2016-06-22, 20:39:49
Das mit der Unterstützung dank neuen Grafikkarten, will mir noch nicht so ganz einleuchten. Defakto verfügen Grafikchips intern spätestens seit dem FX, aka der GeForce 5 (Nvidia war in dem Punkt um etwa ein bis 2 Jahre früher dabei und Vorreiter), um das benötigte Farbspektrum!

Wenn Grafikkarten über ihre digitale Ausgabe dessen bis heute nicht fähig(?), war und ist es eine bewusste Entscheidung seitens der Hersteller gewesen und darauf sollte man den Fokus dann legen und sie ggf. auch an die Wand nageln!
Geht weniger um die Grafikkarten als um die Bildschirme. Es gab bisher eben keine, die eine solche Leuchtkraft hatten, einen so großen Farbumfang darstellen konnten, und dabei auch noch bezahlbar waren. Das soll sich jetzt ändern.

Ectoplasma
2016-06-23, 09:20:59
Selbst schon winzige Kontrastveränderung, sind in diesem technischen gesehen gleich andere/neue Farben. Die eindeutig adressierbar vorhanden sein müssen und zwar in Form einer internen (festen) Palette, was der Grund warum sie schon lange so enorm breit (128Bit). Und diese Kette setzt sich bis in die Anzeigegeräte fort und bei letzteren liegt nach wie vor das eigentliche Problem, denn sie sind dahingehend (abgesehen von den Analogen), auch in Zukunft noch vergleichsweise eher Stark beschränkt.

3.4028236692093846346337460743177e+38 Farben? Das glaubst du doch selber nicht. Wieso eigentlich 128Bit? Rechnest du Alpha da mit rein? 3*16Bit würden auch schon ausreichen für vernünftiges HDR bei Darstellungsgeräten. Intern allerdings rechnet man mit 32 Bit Werten pro Kanal.

L.ED
2016-06-23, 17:30:36
Natürlich glaube ich das, weil es technische Spezifika sind die dem zu Grunde, aka unsere Digitale bzw. Computer Welt funktioniert nur so (bisher).

Davon abgesehen ist es vergleichsweise ein leichtes eine solche Palette in einem Grafikchip vorzuhalten und damit zu arbeiten (ginge sogar noch mehr). Das viel komplexere ist es diese Farben dann später auch aus dem Computer herauszubekommen, also Darstellbar zu machen per Anzeigegeräten.

Wäre das in dieser Form schon möglich und kein Problem, würde auch einer der Hauptgründer von Farbmanagement Obsolet und unnötig werden. Da man davon ausgehen könnte das der Content prinzipiell überall gleich wieder gegeben werden kann (rein von technischer Basis ausgehend).

Im Gegensatz dazu kann der Computer hingegen seit längerem bereits aus einer 128Bit Breiten (festen) Palette sich bedienen. Man könnte und darf sich diese enorme Anzahl wirklich auch bildhaft, als einzelne Buntstifte vorstellen!

Es ist nicht leicht als Mensch sich wirklich hineinzuversetzen auf IT Maschinenebene. Wie über ihre beschränkte kleine Welt an Möglichkeiten (0 und 1 / Strom oder nicht Strom), unsere Welt letztendlich dann dennoch abgebildet und auch wiedergegeben werden kann.

In der Realität würde ein Maler Farben zusammen mixen in seinen Tuschkasten, in der Welt der IT muss und ist jede dieser an Möglichkeiten zuvor bereits definiert worden. Die Farben existieren praktisch schon und werden nicht in diesem gedachten Menschlichen Sinne erst an und abgemischt oder erschaffen!

PS: Selbst der sog. Alphakanal ist da mit drinnen bzw. existiert in dem Sinne auf der Ebene nicht wie wir ihn als Mensch am anderen Ende erfahren (oder oberflächlich lapidar uns denken), es hat genau den Grund warum die so enorm breit wurde, weil diese interne Palette eben nicht variabel sondern eine feste ist!

Kartenlehrling
2016-06-23, 18:18:10
Erstmal hat HDR weniger mit Farben zu tun und auch nichts mit 4k oder UHD.
Es geht mehr darum eine vom Augen wahrgenommens Bild am nächsten zu kommen.
Fotos und Videos haben/hatten das Problem das meist nur eine Belichtung arbeiten und
somit das Bild schnell Über- und Unterbelichte, helle Stellen brennen aus, und Dunkel saufen ab,
das man keinen unterschied bei Abstufen sehen kann, wobei dann alles als ein Schwarz erkannt wird.

Moderne Fotoapperate schiessen heute nicht nur ein Foto sondern 5-8 mit verschieden Blenden und
"basteln" dann daraus ein optimals Bild mit starken Konturen und Kontrasten.
Da kann ein grosses Farbsprectrum natürlich das Bild noch verstärken, aber ist nicht pflicht.

L.ED
2016-06-23, 19:06:41
Erstmal hat HDR weniger mit Farben zu tun ...

Doch auf der Ebene schon (meinem Thema bzw. dessen was noch näher hinterfragt).

Die Sache ist ganz einfach zu verstehen wenn man die Fragestellungen richtig stellt.

Wie sage ich der Digitalen Welt/Technik was ich von ihr möchte und in welcher Form ist es ihr nur möglich zu arbeiten (es zu realisieren und letztendlich auch zu liefern).

HDR ist in dieser Sprache nur eine andere Nuanceabstufungen von Farben (die hier innerhalb der 128Bit bereits existieren), der Computer wählt diese Adressen und übergibt sie ggf. dem Monitor.

Die Frage die sich nun stellt, kann er damit was anfangen bzw. auch wie setzt er diese dann Um, entspräche es wirklich dem was man eigentlich wollte bzw. eigentlich errechnet oder nur eine mehr oder minder Annäherung dessen (Kompromiss), weil es anzeige-technisch schlicht nicht umzusetzen!?

Und letzteres wird uns aller Voraussicht noch sehr lange begleiten, wenn auch abzusehen das für den normalen Alltagsgebrauch und unser empfinden es vermutlich schon bald gut genug und ausreichend sein wird. :smile:

Übrigens ist es auch umgedreht zu sehen, weil da ähnlich gelagerte Herausforderungen, die Umwelt akkurat (möglichst der realität entsprechend), in den Rechner zu übertragen aka Analog zu Digital (hierzu passende Beispiele aus dem Alltag: Digital Kameras und Scanner).

Sailor Moon
2016-06-23, 19:21:00
Wäre das in dieser Form schon möglich und kein Problem, würde auch einer der Hauptgründer von Farbmanagement Obsolet und unnötig werden. Da man davon ausgehen könnte das der Content prinzipiell überall gleich wieder gegeben werden kann (rein von technischer Basis ausgehend).
Das ist unabhängig von allen Überlegungen im Hinblick auf den Tonwertumfang (!= Farbumfang). Im konkreten Workflow wird immer wieder die Notwendigkeit bestehen, auf charakterisierte Daten zurückzugreifen und Farbraumtransformationen umzusetzen. Natürlich kann man sich auf eine normative Basis einigen, aber das geschieht ja schon dort, wo kein Farbmanagement zum Einsatz kommen kann.

Wichtig: Selbst ein absolut idealisierter Monitor – mit monochromatischen Primärfarben und unbegrenztem Kontrast- sowie Tonwertumfang – könnte nicht alle sichtbaren Farben reproduzieren. Das hat nichts mit dem Spektrum zu tun (vgl. 3. Graßmannsche Gesetz), sondern ist dem Umstand geschuldet, dass selbst in dieser Konstellation die innere Farbmischung nicht vollständig ausreicht (die für die Festlegung der normativen Spektralwertfunktionen herangezogenen Farbnachstellungsversuche weisen daher zwangsweise in bestimmten Bereichen negative Werte aus).

L.ED
2016-06-23, 19:47:47
Ja keine Frage und danke für die weitere Ausführung. :smile:

Es wird natürlich niemals möglich sein hier oder woanders auf 100% zu kommen, noch nicht einmal dem nahe, aber um einiges mehr ist noch drin.

Letztendlich ist es eine allgemein Problematik derer uns mehr und mehr bewusst (der Menschheit), wir werden die Welt niemals Umfassend erklären und insofern auch nicht in Formeln gießen können. Es scheint als stehen diesem vorhaben ab gewisser Kante fundamentale Physikalische Eigenheiten und Gesetzte entgegen die wir nicht überwinden können? Dem sich mit an und einschließend ist auch ihr erfassen nebst künstliche Nachbildung oder derer Wiedergabe in Form von technischen Geräten (ganz gleich und wie auch immer die in Zukunft mal gelagert). :/

Kartenlehrling
2016-06-23, 19:52:24
https://www.youtube.com/watch?v=VbTnGbPnCGQ
Samsung HDR Plus vs. LG Dolby Vision (LED LCD KS9590 vs. OLED E6)

Frisch von DigitalFernsehn gibts ein Video zu DolbyVision OLED gegen HDR+ Quantum Dot Display,
das HDR+ von Phillips und Samsung ist im Moment wohl der einfachere Weg.



Für eine Standardisierung von HDR10 wohl der einfachste Weg,
weil damit keine DolbyVision - "Dongle"- Patentchips verbaut werden müssen in beide!! Geräte, Nvidia G-sync läst grüssen :freak:

samm
2016-06-23, 20:45:45
Japp, pro Film (oder pro "Content" wie es so schön gesagt wird im Video) dynamische Kontrast- und Sättigungsänderung anpassen, von Hand, das ist es genau, was man möchte. "Der einfachere Weg" :eek:

[edit]
Man verstehe das nicht falsch, ich halte proprietäre Technologien aus Prinzip für schlecht und will keinesfalls Dolby Vision pushen. Es geht mir mehr darum: Es ist ein elendiges, suboptimales Gefrickel kombiniert mit Vertrauen auf irgendwelche Ferneher-spezifischen magic Bildveränderungsalgorithmen à la Samsungs "HDR+" derzeit. So wird das alles nichts.

Kartenlehrling
2016-06-23, 20:52:15
Du hast das Video nicht verstanden und auch nicht die HDR10 Film Problematik!

samm
2016-06-23, 20:56:19
Ich glaube schon Tim :D

Kartenlehrling
2016-07-06, 19:43:21
http://www.hardwareluxx.de/index.php/news/consumer-electronics/heimkino/39704-bt-2100-definiert-hdr-standard-der-zukunft.html
BT.2100 definiert HDR-Standard der Zukunft


http://www.itu.int/dms_pubrec/itu-r/rec/bt/R-REC-BT.2100-0-201607-I!!PDF-E.pdf
Recommendation ITU-R BT.2100-0(07/2016)Image parameter values for high dynamic range television for use in production and international programme exchange

-/\-CruNcher-/\-
2016-07-10, 13:32:33
Versteh ich das richtig und Nvidia erlaubt jetzt via NVAPI 10 bit Displays unter Pre Windows 10 (WDDM 2.0) und DX 11 im Exclusive Fullscreen jedenfalls ?



FP16 scRGB Back Buffer

As many developers might know, Microsoft Windows has supported the display of fp16
surfaces since Windows Vista. They have always been merely a floating point
representation of scRGB. So far, this has meant that the desktop compositor or the
display driver applies the sRGB transform then pushes the bits out to the monitor at whatever precision the display link is running. (While the output to the display may be
30 or 36 bit RGB, the desktop compositor presently only operates with 24 bit RGB)

With the advent of the UHD display standard, NVIDIA has integrated support to send
the signal necessary to properly drive these displays. This means signaling the display
to operate in the expanded color mode, as well as encoding the data over the display
link correctly. To do this, the display driver needs to be told that the application wishes
to do so via NVAPI. Additionally, the application creates its display surface as RGBA
fp16 to ensure enough precision. The application renders the frame out and leaves it in
the scRGB. (sRGB primaries, linear encoding, with (1,1,1) corresponding to the sRGB
white level) Finally, the swap chain must be set to fullscreen exclusive, as the desktop
compositor does not yet understand UHD displays, so the display driver must be in a
position to handle the data from end-to-end.

The display driver takes the scRGB back buffer, and converts it to the standard
expected by the display presently connected. In general, this means converting the
color space from sRGB primaries to BT. 2020 primaries, scaling to an appropriate level,
and encoding with a mechanism like PQ. Also, possibly performing conversions like
RGB to YCC if that display connection requires it.


While this is all relying on the NVIDIA driver and NVAPI today, it is expected that this
pipeline will port seamlessly to future updates of present operating systems with native
functions for identifying streams as UHD compliant. As noted, the scRGB is actually a
standard created by Microsoft.


Since metadata is a critical portion of utilizing UHD display outputs, NVIDIA has created
a set of NVAPI functions to handle the needed functionality. It is expected that native
OS functionality will eventually supersede these functions, but until that time and on
legacy operating systems this is the way to provide the data.


Das heist 10 Bit Backward Compatibility für den Exclusive Fullscreen durch den gesammten WDDM stack ist jetzt bei Nvidia auch möglich :)


@Ectoplasma

So langsam startet die 10 Bit Consumer era :)

Wirtschaftlicher advice von Nvidia ;)


If a development team wants to pursue generating richer colors for UHD displays, the
best advice we have today is to avoid being too aggressive. First, using a color space
such as IPT which was created to ensure linear hue lines is a reasonable basis for
defining the gamut mapping. Second, anchoring a set of memory colors is likely useful.
Finally, practical displays aren’t going to support the full BT. 2020 gamut. If you are
going to gamut map, gamut map to something like the primaries of DCI-p3, as this is roughly the space that displays in the near future will be capable of supporting. This way
you can minimize them performing compression on the gamut you just attempted to
stretch to.

DanMan
2016-07-10, 15:09:29
Quelle? Ich dachte im exklusiven Vollbildmodus war schon seit längerem eine höhere Bittiefe als 8bit möglich. Nur dass sie jetzt die Metadaten, die zur HDR-Ansteuerung über HDMI 2 nötig sind über NVAPI bereitstellen klingt für mich neu. DCI-P3 macht in der Tat Sinn aktuell, weil sich alle TVs momentan daran messen, denn REC.2020 liegt noch in weiter Ferne.

Außerdem frag' ich mich wo der Tomb Raider Patch für HDR bleibt.

PacmanX100
2016-07-20, 20:23:00
Kann mal jemand Licht ins dunkeln bringen?

Es gibt jetzt einige HDR fähige Geräte, vorallem Fernseher. Zum Beispiel die von Hisense haben laut Geizhals HDR Fähigkeit. Preis scheint sich auch kaum vom bisherigen zu unterscheiden.
Deswegen die Frage, sind die Unterschiede überhaupt groß bzw sichtbar und lohnt sich die Anschaffung eines solchen Geräts schon? Kann man eigentlich ableiten, wenn ein Gerät HDR fähig is, das es auch sagen wir mal eine höhere Farbauflösung hat als das billigste?

Nightspider
2016-07-20, 21:09:27
Ich glaube du kannst alle billigen Geräte mit HDR vergessen.

DanMan
2016-07-20, 21:46:04
Wenn sie nicht mindestens 1000cd/m² haben, dann kann man sie auch nicht als HDR-Geräte bezeichnen. Was den Farbumfang angeht, so muss man so wohl Testberichte anschauen. Selbstverständlich ist es nicht.

Wenn das alles zusammen kommt, dann macht das schon einen gewaltigen Unterschied. Schau dir einfach mal im Elektronikmarkt Demos an. Wirklich lohnenswert ist es aktuell noch nicht wirklich, denn es gibt noch nicht viel Inhalte, und die die es gibt sind entweder qualitativ fragwürdig oder teuer zu erstehen. Spiele gibt es noch immer gar keine.

Nur weil HDR drauf steht heißt das jedenfalls noch nicht, dass das HDR was taugt. Man kann quasi alle Geräte, die nicht das UltraHD Premium Siegel (http://www.uhdalliance.org/consumers/) tragen, vergessen. Mit denen wird man schnell keine Freude mehr haben, weil der Unterschied zu bestehenden, guten Geräten zu gering ist.

Kartenlehrling
2016-07-21, 13:17:15
http://www.golem.de/news/backlight-master-drive-sonys-fernseher-steuert-leds-einzeln-an-1607-122247.html
Backlight Master Drive: Sonys Fernseher steuert LEDs einzeln an

Sonys 65" für 5000€, dafür kann man das von letzten Jahr alte LG OLED auch kaufen.
Was halt heutzutage gar nicht geht sind 350-500watt bei einem 65", da muss mehr passieren, OLED schaffen es unter 200w zu bleiben in der Klasse.
Ich hoffe immer noch das die "Billigen" HDR TV von Phillips (65PUS7601 (http://geizhals.de/philips-65pus7601-a1472908.html)) und
Samsung (UE65KS9090 (http://geizhals.de/samsung-ue65ks9090-silber-a1411913.html?hloc=at&hloc=de)) das beste Ergebnis abliefern das bezahlbar ist für ... unter 3000€ in der 65inch Klasse.

Ectoplasma
2016-07-22, 07:14:58
@Ectoplasma

So langsam startet die 10 Bit Consumer era :)

Das bedeutet nur, dass Tonemapping weiterhin ein großes Thema bleibt. Zudem muss erst noch gezeigt werden, ob dadurch wirklich eine bessere Farbabstufung erreicht wird. Wie man ja weiß, ließt sich auf dem Papier immer alles gut. Obwohl in diesm Fall sogar die Spec schon ziemlich mau ist.

PacmanX100
2016-07-22, 11:33:57
Wenn sie nicht mindestens 1000cd/m² haben, dann kann man sie auch nicht als HDR-Geräte bezeichnen.

Da fangen die Probleme an. Im technischen Blatt steht gar nichts was Helligkeit und Kontrast angeht. Wie findet ein Normalo das denn raus? ;)
HDR fähig sollen sie sein bzw. durch Firmware gemacht werden. Es ist halt die Frage wie gut das dann ist...

Ich bin von HDR noch nicht so recht überzeugt. Wäre es nicht sinnvoller statt 4k HDR nicht auf ein 4k 120Hz Gerät zu setzen wenn sie kommen?

Kartenlehrling
2016-07-22, 13:27:59
Geh doch in einen Media Laden und lass dir HDR vorführen,
ich hoffe das der Phillips der Preisleistungsieger ist.

Wie gesagt, ca. 5000€ , für dieses und nächste Jahr wird die 3000€ wohl machbar sein für "Brauchbars HDR TV".

LG Electronics OLED 65C6V (mit DolbyVision HDR) ab € 4997,-
Samsung UE65KS9090 mit HDR+ (SDR und HDR wird nochmal aufgearbeite) ca 3800€
Phillips 65PUS7601 mit HDR+ (SDR und HDR wird nochmal aufgearbeite) ca. 3000€

Sony biete das natürlich auch an.
Sony ZD9 mit Backlight Master Drive (>1400 Dimmingzone bei 65") ca. 5000€ ende Herbst ?

https://www.youtube.com/watch?v=K5DyofXDFvk
Sony ZD9 4K TV Weltpremiere mit Backlight Master Drive

DanMan
2016-07-22, 18:34:10
Da fangen die Probleme an. Im technischen Blatt steht gar nichts was Helligkeit und Kontrast angeht. Wie findet ein Normalo das denn raus? ;)
HDR fähig sollen sie sein bzw. durch Firmware gemacht werden. Es ist halt die Frage wie gut das dann ist...
So gut wie das Panel eben hergibt. Das ist dann aber nicht mehr als HDR-Ready, und bedeutet quasi nur, dass die Geräte dann HDR Sendungen erkennen und verarbeiten können. Das heißt noch überhaupt nicht, dass es dann aussieht wie man es von HDR erwarten würde.
Ich bin von HDR noch nicht so recht überzeugt. Wäre es nicht sinnvoller statt 4k HDR auf ein 4k 120Hz Gerät zu setzen wenn sie kommen?
Für Spieler vielleicht, da außer Spielen nichts 120Hz überträgt. Idealer Weise will man alles zusammen haben, weil... wieso nicht? Durch die kleinern Abmessungen bei Monitoren sollten die Preise ja hoffentlich humaner sein. Nur dass man bisher so gar nichts von HDR Monitoren gehört hat macht mich stutzig, denn laut AMD sollen die ersten ja Ende des Jahres kommen. Vielleicht wollen sie ihre aktuellen Geräte nicht schlecht machen.

DanMan
2016-08-06, 21:33:36
Neuerer Blog-Post von Nvidia mit Video von MS, in dem sie auch über HDR sprechen: https://developer.nvidia.com/displaying-hdr-nuts-and-bolts

Der MS Mensch sagt auch, dass Dolby Vision (ich nehme mal schwer an, dass er das meinte) für Spiele keine Rolle spielt.

Zuvor hatten sie auch ein 40-seitiges Whitepaper veröffentlicht, dass das ganze Thema nochmal zusammenfasst: https://developer.nvidia.com/sites/default/files/akamai/gameworks/hdr/UHDColorForGames.pdf

Kartenlehrling
2016-08-09, 19:33:56
Um den Thread Titel gerecht zu werden ...

Forza3(27.09.2016) ..... RotTR-20 Year Celebration(11.10.2016)
...., somit ist Forza3 das erste offizelle HDR Spiel, auch wenn Nvidia hinter verschlosse Tür schon HDR mit RotTR gezeigt hat.

Foobar2001
2016-08-09, 20:24:22
Das Problem mit HDR ist der Stromverbrauch.

Kartenlehrling
2016-08-25, 14:39:28
Was ist Nvidia`s HDR?

Cyan has announced the release of its latest adventure game, Obduction.
The game is powered by Unreal Engine 4 and supports NVIDIA’s HDR, Simultaneous Multi-Projection, and Ansel.
http://www.guru3d.com/news-story/obduction-is-now-available.html

DanMan
2016-08-25, 17:37:56
Was ist Nvidia`s HDR?


http://www.guru3d.com/news-story/obduction-is-now-available.html
Da es bisher nicht von Windows unterstützt wird denke ich mal, dass sich das auf die Umsetzung mittels NVAPI bezieht.

Kartenlehrling
2016-08-26, 22:07:14
Auf jedenfall scheinen sie sich nicht einig zu sein was für ein HDR- System das beste ist.
Gut ist auf jedenfall HDR+ von Philips, das auch Samsung einsetzt.

HDR (High Dynamic Range) ist einer der Schlüssel-Features um die Bildqualität von Ultra HD Video merklich zu steigern.
Auf den SES Industry Days, die sich bereits zum neunten mal stattfinden, präsentiert SES verschiedene HDR-Technologien.
Auf dem Event werden verschiedene HDR-Ausführungen präsentiert, darunter das im Ultra HD Standard verankerte HDR-10,
Dolby Vision und Hybrid Log Gamma (HLG), das vor allem für TV-Übertragungen wichtig sein wird.
Eine HDR-Lösung (HDR+) von Technicolor/Philips wird ebenfalls auf aktuellen High-End TV Geräten verschiedener Hersteller vorgeführt.
https://en.wikipedia.org/wiki/Hybrid_Log-Gamma

DanMan
2016-08-27, 12:51:32
Ich find keine Berichte zum HDR in Obduction. Hat das schon jemand getestet? Ist es überhaupt drin? Bin am überlegen es auszuprobieren. Kann es ja zurückgeben auf Steam (Spiel an sich interessiert mich eher weniger - nicht mein Genre).

Kartenlehrling
2016-08-27, 13:16:12
So wie ich das verstanden habe ist es "erstmal" nur über dieses Nvidia Ansel Tool aktiviert, im Spiel selber nicht, jedenfall zeigt es die Anleitung nicht an.

http://cdn.akamai.steamstatic.com/steam/apps/306760/manuals/Obduction_User_Manual.pdf?t=1472142018
Obduction User Manual - Menus, Settings, Interface
LOL ....
"Thank you for solving Nvidia ... "
https://www.youtube.com/watch?v=a2JksFxB3Yg
Obduction VR Gameplay and Interview with Rand Miller of Cyan - E3 2016


Im Video ab ca. 2:30min Pascal und HDR .


haa da wurden wir erhört ....

https://developer.nvidia.com/hdr-ue4
HDR for UE4

So, there you have it. HDR support that should be ready to use.
If you have a display and want to try it out right now, you can sync the branch, build the code, and grab content straight out of the launcher.
I personally recommend Infiltrator as content that looks quite good in HDR. The SunTemple demo also does well.
Just run these demos in fullscreen with r.fullscreenmode set to 0 to enable fullscreen exclusive mode, and set r.HdrOutput to 1 to turn on the HDR display support.
It is important to remember that this content was developed with no HDR display support in mind. (Other than theories around general HDR rendering)

They still look great, and it is amazing to think of what can happen when an artist has the tools and motivation to double-check how their work holds up in HDR.

DanMan
2016-08-29, 18:20:44
Hab's gerade in Obduction ausprobiert, aber es hat nicht geklappt. Entweder wird meine 970 nicht unterstützt oder sie haben es gar nicht eingebaut.

Kartenlehrling
2016-08-29, 18:36:44
im video schreiben sie ja was vom Pascal, warscheinlich wegen der FP16 Berechnung.

http://cdn.wccftech.com/wp-content/uploads/2015/09/NVIDIA-Pascal-GPU_Compute-Performance.jpg

DanMan
2016-08-29, 18:40:25
Das sollte für die letztendliche Ausgabe keine Rolle spielen. Wird's eben in FP32 berechnet - kostet quasi nur mehr RAM. Schließt aber nicht aus, dass sie es absichtlich auf Pascal limitiert haben. Kenne zu HDR keine konkreten Angaben. Werd jetzt noch meinen NV Treiber aktualisieren (Obduction wird erwähnt) und die Obduction Beta ausprobieren.

edit: Nö. Ich kann meinen TV in den HDR Modus zwingen, aber dann sieht alles quietschbunt aus, und die hellsten Stellen sind überzeichnet, was ja nicht der Sinn der Sache sein kann.

edit2: Also theoretisch sollten die 9xx Karten auch HDR-Ausgabe unterstützen: https://developer.nvidia.com/high-dynamic-range-display-development

samm
2016-08-29, 23:16:07
Wär ja ein Witz, gerade für HDR von niedrigerer Berechnungs-Genauigkeit abzuhängen xD

Toll auch, dass es nVidia versteht, das ganze zu branden, nachdem es AMD zunächst gepusht hatte.

DanMan
2016-08-29, 23:50:56
Ich habs mit der SDK Demo von NV probiert, aber auch damit schaltet mein TV nicht in den HDR-Modus um. :(

Durch die per NVAPI geschickten Metadaten sollte der TV eigentlich erkennen, dass ein HDR-Signal anliegt. Tut er aber nicht. Keine Ahnung woran es jetzt liegen könnte. Bei Videos funktioniert das tadellos.

Kartenlehrling
2016-08-30, 00:00:26
Und eine Pascal Karte kannst du dir nicht zeitweise besorgen zum gegentesten?

Spätesten in einem Monat wissen wir es, dann kommen zwei Spiele die defentiv mit HDR und DX12 release haben.
Wir werden wohl hoffentlich nicht bis Mass Effect: Andromeda (Coming early 2017) warten müssen.


Sowohl Gears of War 4 als auch Scalebound machen sich den sogenannten High-Dynamic-Range-Support zunutze.
Und auch Forza Horizon 3 gehört auf diese Liste. Das hat Microsoft nun nachträglich bestätigt.
Forza3(27.09.2016) ..... RotTR-20 Year Celebration(11.10.2016)

DanMan
2016-08-30, 09:52:56
Und eine Pascal Karte kannst du dir nicht zeitweise besorgen zum Gegentesten?

Spätesten in einem Monat wissen wir es, dann kommen zwei Spiele die defintiv mit HDR und DX12 release haben. Wir werden wohl hoffentlich nicht bis Mass Effect: Andromeda (Coming early 2017) warten müssen.
Ne, neue Karte kommt erst Ende des Jahres - hab sonst auf keine Zugriff.

Bei den genannten MS Spielen kommt dann erschwerend hinzu, dass ich kein Win10 habe, worauf die sicherlich bestehen werden... Eigentlich hätte doch Tomb Raider schon einen Patch bekommen sollen... und jetzt soll es bis Okt. dauern? Wird das ein freies Update?

Bisher haben Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle, und Shadow Warrior 2 HDR angekündigt.

Kartenlehrling
2016-08-30, 10:06:58
Eigentlich hätte doch Tomb Raider schon einen Patch bekommen sollen...

Ich denke mal das heben sie sich für den "Rise of the Tomb Raider: 20 Year Celebration" Release auf, dann hat man ein grössen WOW Effekt wenn man alles gleichzeitig anbiete.

AintCoolName
2016-09-01, 11:13:21
Laut diesem Link kommt HDR Support unter Windows erst 2017. Für Entwickler und Teilnehmer des insider Programms 2016. Ich schätze auf Games mit HDR Support werden wir noch eine weile warten müssen.

http://www.dualshockers.com/2016/03/17/directx-12-adoption-huge-among-developers-hdr-support-coming-in-2017-as-microsoft-shares-new-info/

Kartenlehrling
2016-09-01, 11:25:21
Das ist doch quatsch, Forza 3, Gear of War 4 kommen zum release mit HDR und Rise of the Tomb Raider wird es wohl mit dem 20Y. Release nach gereicht,
und alle Spielrelease sind noch dieses Jahr.

DanMan
2016-09-01, 17:23:57
Laut diesem Link kommt HDR Support unter Windows erst 2017. Für Entwickler und Teilnehmer des insider Programms 2016. Ich schätze auf Games mit HDR Support werden wir noch eine weile warten müssen.

http://www.dualshockers.com/2016/03/17/directx-12-adoption-huge-among-developers-hdr-support-coming-in-2017-as-microsoft-shares-new-info/
Nicht für "Windows" sondern "DX12" kommt es erst 2017. Darum macht es NV ja z.B. über die eigene NVAPI.

Kartenlehrling
2016-09-01, 22:55:26
https://bartwronski.com/2016/08/29/localized-tonemapping/
Localized tonemapping – is global exposure and global tonemapping operator enough for video games?


https://bartwronski.com/2016/09/01/dynamic-range-and-evs/
Image dynamic range

DanMan
2016-09-02, 15:26:03
Eizo arbeitet scheinbar an HDR Monitoren: https://www.siliconstudio.co.jp/en/news/pressreleases/2016/en1604sskk-eizo/

Kartenlehrling
2016-09-07, 09:34:24
Im neuesten Intel Treiber gibts auch anzeichen für HDR ...

NEW FEATURES:
Features Added in Baseline 15.40


6 th Gen camera pipe Windows* 7 support
3 DVI/HDMI displays support on 6 th Gen
LACE: Local Adaptive Contrast Enhancement
Unify color for different panels
Support 5K3K Panels with content protection for both Overly and non - Overlay 15.36 drivers for 4 th , 5 th , 6 th Gen and beyond
User to select which outputs to make active when more display connections are available than can be driven by Intel graphics
x2 DP mode support in display driver for type - C support


https://downloadmirror.intel.com/26228/eng/ReleaseNotes_4501.pdf

Kartenlehrling
2016-09-07, 16:28:36
Neuer Referenz TV bei digitalfernsehen.de
Ich glaub zwar immer noch das für den normalen Betrieb,
die 2016 KS-Serie von Samsung und der 2016-7601 von Philips die besseren Geräte sind.

https://www.youtube.com/watch?v=5Q8EZnFr8nc
Test Sony KD 65ZD9 UHD HDR TV mit Backlight Master Drive

Kartenlehrling
2016-09-11, 02:35:22
http://32ipi028l5q82yhj72224m8j.wpengine.netdna-cdn.com/wp-content/uploads/2016/03/GdcVdrLottes.pdf
GDC2016-Advanced Techniques and Optimization of Variable Dynamic Range (VDR) Color Pipelines @Timothy Lottes (AMD)

Slipknot79
2016-09-11, 10:51:46
Warum setzt sich nicht dolby vision durch? Scheint ja besser zu sein, also shice auf HDR?

DanMan
2016-09-11, 10:57:28
Warum setzt sich nicht dolby vision durch? Scheint ja besser zu sein, also shice auf HDR?
Das hat für Spiele keine Relevanz. Was soll DV bei Spielen bringen?

Ectoplasma
2016-09-11, 11:08:08
... also shice auf HDR?

Geht nicht, weil es physikalisch real ist. Dein Satz ist ungefähr so schlau wie "shice aufs atmen". Also von welchem HDR sprichst du denn?

Slipknot79
2016-09-11, 12:23:51
HDR10
Shice auf HDR = Auf dolby vision Implementierung warten. Aber angeblich soll das nicht relevant sein bei Games.
Der Vergleich "shice aufs atmen" passt nicht. Erzähl das einem Selbstmörder und berichte.


Was bringt in Zukunft ingame-HDR (zB Call of Juarez), wenn es dann sowieso die Monitor/Graka-Combo präsentiert?

MechWOLLIer
2016-09-11, 12:42:14
Auch fürs TV ist die Aussage Schwachsinn.
HDR10 kann toll auf dem TV aussehen und auf jeden Fall deutlich besser als der normale Farbraum. Dolby Vision mag besser sein, aber das spricht absolut nicht gegen HDR10 als günstigere Lösung. Das gebashe habe ich da nie verstanden.

DanMan
2016-09-11, 13:06:58
Auch fürs TV ist die Aussage Schwachsinn.
HDR10 kann toll auf dem TV aussehen und auf jeden Fall deutlich besser als der normale Farbraum. Dolby Vision mag besser sein, aber das spricht absolut nicht gegen HDR10 als günstigere Lösung. Das gebashe habe ich da nie verstanden.
Eben. Der Vorteil von DV sollen doch die "dynamischen Metadaten" sein, also dass die Filmhersteller den Dynamikumfang pro Szene einstellen können. Dazu muss man aber schon vorher wissen, wie das Bild aussehen wird. Das ist auch der Grund, warum ich "dynamisch" in dem Zusammenhang für irreführend halte, denn am Ende sind die Metadaten ja doch fest (statisch) hinterlegt.

Mit dem im Hinterkopf wird klar, dass DV bei Spielen keine Rolle spielen wird, weil es nicht wissen kann, wie sich die Szene ändert, weil das der Spieler mit der Steuerung der Kamera selbst bestimmt. Wenn es das könnte, dann wär es tatsächlich "dynamisch".

Ist bei Spielen aber auch insofern egal, weil die Programmierer ja volle Kontrolle über die Ausgabe haben. Die könnten die Dynamikanpassung also im Spiel selbst regeln, was sie ja sowieso schon tun (Tonemapping). Nichts anderes sind diese "dyn. Metadaten" von DV nämlich in meinen Augen: vordefiniertes Tonemapping.

Hat hier außer mir eigentlich niemand einen TV mit HDR, der auch mal testen könnte ob es über den PC funktioniert?

Kartenlehrling
2016-09-11, 14:58:01
Es gibt schon mehr als 4 HDR verfahren.


HDR-10 ( das gröste Konsortium wo eigentlich alle mehr oder weniger drin sind)
Dolby Vision ( USA Dolby verlangt im Abspiel- und Projektiongeräten ein Dolby Dongle Chip)
Hybrid Log Gamma (HLG) (Japanese broadcaster und Englische BBC)

HDR+ (HDR Intelligent Tone Management solution - Techniccolor/Philips/Samsung)



Für Ottonormal Verbraucher der seine Tagesschau, Serie und Filme streamt bzw. im normal TV Program schaut,
ist in meinem Augen das HDR+ system das Beste, da es SDR und HDR material "nachträglich" reguliert.

HDR10 hat den nachteil das 1x ? die Metadaten hinterlegt sind und für den ganzen Film gelten,
wenn also im Film viele Tag/Nacht wechsel drin sind kann die Einstellung verkehrt sein und nicht bei allen Szenen optimal greifen.

DolbyVision bereinigt das in dem sie auch ständig im Film Metadaten übertragen, abfragen und ändern falls nötig,
was aber auch zu mehr Datenverkehr führt, dolbyvision dongle verhindert das es in alle geräte verbaut wird, das g-sync unter den HDR verfahren.

Hybrid Log Gamma ist von Fernseh gesellschaften , soll auch auf hochwertige SDR-10bit Monitor/TV greifen,
kann nur heissen das keine Metadaten zur Regulierung gesendet werden.

DanMan
2016-09-11, 15:47:15
Mal davon abgesehen, dass das wieder am Rand vom Topic liegt, wirfst du da einiges über einen Haufen, Kl.

HLG ist lediglich die HDR10 Variante für den Rundfunk, damit man mit ein und demselben Signal sowohl SDR als auch HDR Geräte beliefern kann. Verhält sich ähnlich wie ASCII zu UTF-8.

HDR+ ist bloß eine Reaktion darauf, dass HDR Filme bei Tageslicht zu dunkel erscheinen; ist also als "Bildverbesserer" zu sehen, ähnlich wie Auto-Kontrast oder Zwischenbildberechnung. Das ist kein Standard wie HDR10 oder DV.
Zu letzterem habe ich ja schon geschrieben, was ich davon halte. HDR10 ist der kleinste gemeinsame Nenner, ergo wird es sich mMn. als Standard herausstellen.

Skyper
2016-09-11, 15:48:20
DV benötigt nicht per se einen Dongle. DV ist eine Software, die auf dem TV laufen muss. Fähig ist im Prinzip jeder SmartTV mit entsprechend leistungsfähigem SoC. Übertragen werden muss da nix, die Daten werden im Tv erzeugt, das ist ja gerade der Vorteil ggü HDR 10 mit dynamischen Metadaten. Das soll es bald geben und dafür ist dann mal wieder eine neue hdmi Version (eben weil die Daten übertragen werden müssen und hdmi wegen jedem Kleinkram angepasst werden muss) nötig.
HDR+ ist kein Format sondern bei non-HDR eine Art upscaling von SDR und bei HDR eine Art Verbesserung der Wiedergabe. Das ganze ist eine reine Samsung-Geschichte, gibt es nur auf Samsung TVs.
In Meinen Augen ist DV daher überhaupt nicht mit gsync zu vergleichen. DV ist das einzige echte HDR Format mit dynamischen Metadaten, das es zur Zeit gibt und kann prinzipiell überall Anwendung finden. Für alles andere darf dann mal wieder neue HW angeschafft werden.

@danman

DV ist für Filme gedacht. Und da ist der Hintergrund eben, dass die metadaten so angepasst werden, dass man einerseits die Intension des Filmemachers mit bezug auf das, was der TV tatsächlich zu leisten Vermag ist berücksichtigt. Hier weiß man wie es aussehen soll.
Bei Spielen sieht das aber ähnlich aus. Natürlich weiß DV nicht, was der Spieler macht, muss es aber auch nicht. Es weiß aber, was der Contentersteller will.

Kartenlehrling
2016-09-11, 16:08:52
Also für 15.juli.2016 klingt das für mich verdammt frisch ... und das wird HGL bzw. HGL10 als Leitline für UHD Phase A bezeichend.


UHD Phase A Definition

The Ultra HD Forum considered the below key parameters for UHD Phase A services.
The Guidelines document includes use cases supporting the different possible UHD Phase A configurations.


Spatial Resolution 1080p* or 2160p
Color Gamut BT.709, BT.2020
Bit Depth 10-bit
Dynamic Range SDR, PQ, HLG
Frame Rate** 24, 25, 30, 50, 60
Video Codec HEVC, Main 10, Level 5.1
Audio Channels Stereo or 5.1 or channel-based immersive audio
Audio Codec AC-3, EAC-3, HE-ACC, AAC-LC
Broadcast security AES or DVB-CSA3, using a minimum of 128 bits key size
IPTV / OTT security AES as defined by DVB
Transmission Broadcast (TS), Multicast (IP), Unicast Live & On demand (DASH ISO BMFF)
Captions/Subtitles Coding (in/out formats) CTA-608/708, ETSI 300 743, ETSI 300 472, SCTE-27, IMSC1

http://ultrahdforum.org/resources/phasea-guidelines-description/
UHD Phase A Definition

DanMan
2016-09-11, 16:22:18
@danman

DV ist für Filme gedacht. Und da ist der Hintergrund eben, dass die metadaten so angepasst werden, dass man einerseits die Intension des Filmemachers mit bezug auf das, was der TV tatsächlich zu leisten Vermag ist berücksichtigt. Hier weiß man wie es aussehen soll.
Bei Spielen sieht das aber ähnlich aus. Natürlich weiß DV nicht, was der Spieler macht, muss es aber auch nicht. Es weiß aber, was der Contentersteller will.
...welcher dann dafür die dynamischen Metadaten generieren müsste, was wiederum unnötiger Aufwand ist, wenn im Spiel sowieso schon Code dafür vorhanden ist, um es direkt beim Rendern zu tun. Warum sich also DV aufhalsen?

Skyper
2016-09-11, 16:33:27
Und woher kennt das Spiel die entsprechender Daten deines Monitors? Sorry, aber ich glaube du hast die Funktionsweise und den Sinn von DV und HDR im allgemeinen nicht verstanden. HDR muss auch bei Spielen Metadaten für dein Anzeigegerät generieren. Zumindest wenn man einen der bislang existierenden Standards nutzt, um HDR auf dein Anzeigegerät zu transportieren.

starfish
2016-09-11, 16:58:29
Wird es auf dem PC eigentlich auch so einen Standard geben?
Oder sind z.B. 10 bit Eizos dafür jetzt schon geeignet? (In Spielen.)

DanMan
2016-09-11, 18:01:34
Und woher kennt das Spiel die entsprechender Daten deines Monitors? Sorry, aber ich glaube du hast die Funktionsweise und den Sinn von DV und HDR im allgemeinen nicht verstanden. HDR muss auch bei Spielen Metadaten für dein Anzeigegerät generieren. Zumindest wenn man einen der bislang existierenden Standards nutzt, um HDR auf dein Anzeigegerät zu transportieren.
Erspar mir deine Mutmaßungen darüber was ich nicht weiß, und wiederlege lieber was ich behauptet habe.
Ich meinte offensichtlich dyn. Metadaten... Für HDR10 läufts grundsätzlich auf ein "ST2048 - ja/nein" hinaus, der Rest ist mehr oder weniger optional (je mehr Infos, desto besser natürlich), weil es sich durch den aktuellen Stand der Display-Technik quasi ergibt. Selbst die max. Leuchtkraft eines Geräts ist ja von der Größe der Fläche der hellsten Bereiche abhängig, also nicht 100-ig in Zahlen zu erfassen, sondern auch nur ein Referenzwert. Weiß nicht, ob die Messungsgrundlagen standardisiert sind.

Hier noch mal eine recht verständliche, allgemeine Erläuterung zum Thema: http://www.lightillusion.com/uhdtv.html

@starfish: Theoretisch könnte man das auf jedem Monitor ausgeben (entsprechend gut oder schlecht wäre dann der Eindruck). Es orientieren sich aber alle an dem, was die Filmbranche macht. Daher müssen Displays (und Spiele sowieso) das explizit unterstützen.

Kartenlehrling
2016-09-11, 19:14:42
Wenn ihr euch meinen Link und den darunter befindete .pdf anschaut seht ihr wie die Pläne sind, am Ende ist auch von der Zukunft die rede, also Phase B und Next Generation Audio.

Skyper
2016-09-11, 19:34:50
Erspar mir deine Mutmaßungen darüber was ich nicht weiß, und wiederlege lieber was ich behauptet habe.
Ich meinte offensichtlich dyn. Metadaten... Für HDR10 läufts grundsätzlich auf ein "ST2048 - ja/nein" hinaus, der Rest ist mehr oder weniger optional (je mehr Infos, desto besser natürlich), weil es sich durch den aktuellen Stand der Display-Technik quasi ergibt. Selbst die max. Leuchtkraft eines Geräts ist ja von der Größe der Fläche der hellsten Bereiche abhängig, also nicht 100-ig in Zahlen zu erfassen, sondern auch nur ein Referenzwert. Weiß nicht, ob die Messungsgrundlagen standardisiert sind.

Hier noch mal eine recht verständliche, allgemeine Erläuterung zum Thema: http://www.lightillusion.com/uhdtv.html

@starfish: Theoretisch könnte man das auf jedem Monitor ausgeben (entsprechend gut oder schlecht wäre dann der Eindruck). Es orientieren sich aber alle an dem, was die Filmbranche macht. Daher müssen Displays (und Spiele sowieso) das explizit unterstützen.

Natürlich kann bei der generierung metadaten die Bildhelligeit in Abhängigkeit der Fläche berücksichtigt werden. Daher: Ja, es macht auch bei Spielen Sinn und wird auch kommen. Mit DV kann man es jett schon haben. Und btw bislang ist bei jeder hdr10 Implementation mit Kompromissen zu rechnen. Abseits des Samsung clippt jeder TV highlights um 4000 nits (die kann keiner darstellen). Selbst Samsung hat da Probleme, da die da zwar gut tine mappen, aber dafür starkes Banding zeigen. Hdr 10 ist ohne dyn metadaten nicht wirklich ausgereift solange wir nicht perfekte Displays besitzen. Daher ist mein Favorit auch DV, denn hdr 10 mit dyn metadaten kommt nicht in die Gänge und braucht wieder updates und ein neues hdmi - da schauen dann die meisten in die Röhre, die mehrere 1000 € für ihren TV ausgegeben haben und trotzdem mit dem suboptimalen hdr 10 leben müssen.

Ectoplasma
2016-09-11, 19:35:42
Wird es auf dem PC eigentlich auch so einen Standard geben?
Oder sind z.B. 10 bit Eizos dafür jetzt schon geeignet? (In Spielen.)

Das bezieht sich nur auf die Lookup-Table, also die Fraben. Das hat nichts mit HDR zu tun.

Echt ein einziges Chaos an Informationen in diesem Thread.

Kartenlehrling
2016-09-11, 22:35:50
Kannst ja alles richtige zusammenfassen, wir lesen das dann gerne von dir.



http://on-demand.gputechconf.com/siggraph/2016/video/sig1611-thomas-true-high-dynamic-range-rendering-displays.mp4
siggraph 2016: Programming for High Dynamic Range Rendering and Display on NVIDIA GPUs
Thomas True (Senior Applied Engineer for Professional Video and Image Processing, NVIDIA)

Ectoplasma
2016-09-12, 07:17:07
Kannst ja alles richtige zusammenfassen, wir lesen das dann gerne von dir.


Gar nicht nötig, du hast selbst vor kurzem ein Video gepostet, in dem alles korrekt widergegeben wird. Ich gebe aber zu, dass es im Netz nicht so leicht ist, gute Dokumente zu finden. Wenn man sich nicht auskennt, könnte man schnell was schwammiges lesen.

Unten noch einmal der Video-Link.

Ich habe eine tolle Präsentation von Naughty Dog zum Thema Gaming HDR am Beispiel von Uncharted 2 was für die PS3 damals gemacht wurde.

http://www.gdcvault.com/play/1012351/Uncharted-2-HDR

Edit:

Es wäre sehr, sehr hilfreich, wenn man den Begriff Farbraum beim Thema HDR aus dem Spiel lassen könnte und auch die Anzahl der Farben hat mit HDR nichts zu tun. HDR bezieht sich eigentlich nur auf den Kontrastumfang. Helligkeit und Farbe sind getrennt. Natürlich ist die Industrie bestrebt beim Thema HDR mehr zu definieren, als der eigentliche Begriff hergibt. So erdenkt man sich Standards, in dem auch der Farbraum eine Rolle spielt. Das ist in der Tat auch sinnvoll, aber auch verwirrend. Ständig wird hier über sattere Farben geredet. Es wird suggeriert, als erhielte man diese, nur weil irgendwo was von HDR steht. Das ist völliger Unsinn. Solche Äußerungen zeigen entweder die totale Inkompetenz des Vortragenden oder man ist bemüht die Leute zu verarschen. Der Effekt von satteren Farben ensteht beispielsweise beim Tone-Mapping (danach hat man aber kein HDR mehr). Findet man übrigens genug Dokumente im Netz zu diesem Thema. Teilweise ist man bemüht diesen Effekt zu verhindern und nicht zu verstärken, weil es nämlich unnatürlich aussieht. Die Industrie macht daraus aber "wow, wir haben sattere Farben, lasst es uns den Leuten da draußen zeigen".

-/\-CruNcher-/\-
2016-09-12, 09:15:12
Natürlich kann bei der generierung metadaten die Bildhelligeit in Abhängigkeit der Fläche berücksichtigt werden. Daher: Ja, es macht auch bei Spielen Sinn und wird auch kommen. Mit DV kann man es jett schon haben. Und btw bislang ist bei jeder hdr10 Implementation mit Kompromissen zu rechnen. Abseits des Samsung clippt jeder TV highlights um 4000 nits (die kann keiner darstellen). Selbst Samsung hat da Probleme, da die da zwar gut tine mappen, aber dafür starkes Banding zeigen. Hdr 10 ist ohne dyn metadaten nicht wirklich ausgereift solange wir nicht perfekte Displays besitzen. Daher ist mein Favorit auch DV, denn hdr 10 mit dyn metadaten kommt nicht in die Gänge und braucht wieder updates und ein neues hdmi - da schauen dann die meisten in die Röhre, die mehrere 1000 € für ihren TV ausgegeben haben und trotzdem mit dem suboptimalen hdr 10 leben müssen.

Mit 400 nits ist man schon gut dabei und wie gesag mit mehr als P3 sollte man Anfangs eh nicht als bezahlbar rechnen.

Dolby hat mit ihrer Perceptual Quantization contribution ST-2084 schon genug getan der rest ist Mumpitz für Interactive Content und Bauernfängerei.

@Ectoplasma

Würde dir teils wiedersprechen die magie steckt in der Perceptual Quantization eben dem Faktum mehr Details dem Betrachter sichtbar zu machen das erreichst du aber nur durch die richtige Luminanz Abstimmung.

Vorher ging es eigentlich darum gerade in der Luminanz im niedriegen Kontrast die 8 bit Probleme und Kompressionsartefakte vorm Betrachter clever zu verstecken mit HDR wird das schwierig deswegen ist es alleine absolut nicht ausreichend.

Das Tonemapping wird wichtig weil die Consumer Displays einfach no where near Native an REC 2020 kommen und ACES für P3 scheint da optimal das es überhaupt nach was aussieht :D

Wie der Nvidia Mensch schon sagte dont expect it to look good natively ;)

Das sind alles noch überganslößungen und halbgares Zeug weil die Consumer Preise noch nicht gehalten werden können für Native und man erstmal ordentlich an Holywood verdienen möchte wie schon bei 10 Bit zuvor.

Na wenigstens kommen 10 Bit displays mit HDR zusammen hoffentlich wird da die qualität wenigstens gehalten zu bezahlbaren Preis immerhin konnte man ja Holywood nun lang genug melken jetzt melkt man sie mit 4000 nits HDR solutions und wir bekommen die resteverwertung von 10 Bit wenigstens ab, da kann man doch auch schon zu frieden sein wenn es so kommt 2017 und wenigstens ordentliches 10 Bit geliefert wird wo HDR mit draufsteht ;)

Ectoplasma
2016-09-12, 21:25:53
@-/\-CruNcher-/\-, aber ja, ist mir alles klar und ich stimme dir vollkommen zu. Über die Vor -und Nachteile von Tonemapping, oder die Funktion eines Farbraums bin ich ja gar nicht detailliert eingegangen. Mich stört nur dieser unpräzise Mix von Begrifflichkeiten.

krötenfresse
2016-09-12, 22:39:48
sagt mal, stimmt das gerücht, dass ein full-hd (1080p) bildschirm mit hdr in der herstellung kaum billiger sein würde, als ein 4k-bildschirm mit hdr?

oder ist das quatsch?

iuno
2016-09-12, 23:02:58
Ich habe keine Infos dazu, denke auch, dass die sich nicht so einfach finden.
Klar ist aber, dass HDR-faehige Panels heute noch eine sehr seltene Erscheinung sind, "hohe" Pixeldichten dagegen nicht. Insofern koennte ich mir das schon vorstellen.

DanMan
2016-09-12, 23:14:39
sagt mal, stimmt das gerücht, dass ein full-hd (1080p) bildschirm mit hdr in der herstellung kaum billiger sein würde, als ein 4k-bildschirm mit hdr?

oder ist das quatsch?
Ich würde mal mutmaßen, dass der preisl. Unterschied zw. einem 4k HDR Monitor, und einem 1080p HDR Monitor der gleiche sein wird wie der zw. denen ohne HDR. Allerdings wird es darauf ankommen, welche Panels tatsächlich produziert werden. Wenn das in der Hauptsache 4k Panels sind, dann könnten die auch relativ geringen Aufpreis bedeuten ggü. 1080p. Ist aber alles nur Spekulatius.

Kartenlehrling
2016-09-13, 02:35:57
Morgen bzw. Heute bekommen die Playstation4 und die Slim ein HDR update, dann kann es ja nicht mehr lange dauert wenn die PC Spiele nachziehen.

High Dynamic Range: Es freut uns sehr, dass mit der Version 4.00 alle PS4-Konsolen, einschließlich der neuen schlankeren PS4 und PlayStation 4 Pro,
über Unterstützung für die Bildtechnologie High Dynamic Range (HDR) verfügen werden.
HDR ermöglicht die Wiedergabe von Helligkeit und Dunkelheit mit einer noch breiteren Farbpalette. Wer einen HDR-kompatiblen Fernseher besitzt,
erlebt unterstützte Spiele und andere Entertainment-Inhalte noch realistischer und lebendiger und wird darüber staunen, wie sehr diese noch mehr dem entsprechen,
was das menschliche Auge in der realen Welt sieht.

just4FunTA
2016-09-13, 02:43:10
Wie sieht es denn mit HDR-Fähigen Monitoren aus, gibt es da was kommt da was bald?

Edit: Gerade gemerkt das mein TV HDR kann und bei AmazonPrime mal reingeschaut dort gibt es die Serie Mozart und die UHD Version unterstützt auch HDR. Das sieht schon sehr gut aus, aber ich weiß jetzt nicht so recht wie viel jetzt HDR zu dem guten Bild beiträgt und wie viel einfach an UHD liegt.

krötenfresse
2016-09-13, 07:53:44
Das sieht schon sehr gut aus, aber ich weiß jetzt nicht so recht wie viel jetzt HDR zu dem guten Bild beiträgt und wie viel einfach an UHD liegt.
setzt dich einfach mal auf eine normale entfernung davon weg, also min. 3 meter. dann kann es an uhd nicht mehr liegen. ;)

DanMan
2016-09-13, 18:15:21
Edit: Gerade gemerkt das mein TV HDR kann ....
Hängt der zufällig am PC? Wenn ja, dann probier doch mal bitte, ob er mit dem Nvidia SDK (Link siehe ein paar Posts von mir früher) ein HDR Signal erkennt (einfach entpacken und die run_hdr.bat starten). Meiner will nämlich nicht, obwohl er eigentlich sollte.

just4FunTA
2016-09-13, 18:23:39
ich sehe keinen nv sdk link.

DanMan
2016-09-13, 18:37:57
ich sehe keinen nv sdk link.
https://developer.nvidia.com/high-dynamic-range-display-development

Ganz unten auf SDK klicken. In einem der minimierten Dialoge (unten links) gibt es einen HDR an/aus Schalter. Ändert sich was, wenn du den umlegst?

just4FunTA
2016-09-13, 18:54:46
beim ersten starten wurde das Bild kurz schwarz und sonst ist nichts passiert und beim zweiten war das Bild mit dem Jungen im Gebirge zu sehen, ist glaub aus der unrealengine Demo. Soll ich noch etwas machen oder reicht das schon?

ps: ich habe den Samsung JS9000 und ausm GAF Forum gibt es noch diese Tabelle, was die aktuellen TVs so leisten:

http://abload.de/img/ejplrvkwvup2.gif

DanMan
2016-09-13, 19:01:36
beim ersten starten wurde das Bild kurz schwarz und sonst ist nichts passiert und beim zweiten war das Bild mit dem Jungen im Gebirge zu sehen, ist glaub aus der unrealengine Demo. Soll ich noch etwas machen oder reicht das schon?
Ausführen kann ich es auch, aber mein Panasonic schaltet nicht auf HDR um. Sicher, dass deiner im HDR Modus läuft? Wie gesagt, es in der Anwendung ein/aus schalten ändert nix bei mir, also probier doch das mal.

just4FunTA
2016-09-13, 19:07:37
switche ich zwischen Apply SDR und Apply HDR hin und her sieht man den Größten Unterschied in den Wolken, aber auch links der Weg fällt auf.

DanMan
2016-09-13, 19:31:51
switche ich zwischen Apply SDR und Apply HDR hin und her sieht man den Größten Unterschied in den Wolken, aber auch links der Weg fällt auf.
Neee... In den Bildeinstellungen deines TVs sollte sich z.B das Backlight autom. auf Max. gestellt haben. Wenn nicht, dann klappts bei dir auch nicht. Welches Windows?

mahoni
2016-09-13, 22:19:58
Ich habe dieses SDK auch mal ausprobiert und die HDR.Bat ausgeführt. Mein TV wurde kurz schwarz dann kam das Bild und mein TV teilte mir mit, dass er ein HDR Signal erkannt hat.

Win10
GTX1060

DanMan
2016-09-14, 00:23:26
Ich habe dieses SDK auch mal ausprobiert und die HDR.Bat ausgeführt. Mein TV wurde kurz schwarz dann kam das Bild und mein TV teilte mir mit, dass er ein HDR Signal erkannt hat.

Win10
GTX1060
Hmmm. TV Marke und Treiberversion wäre interessant.

mahoni
2016-09-14, 10:55:43
Es ist so ein ein 55/Philips Ambilight 4k HDR TV von 2016, welches Modell weiß ich gerade nicht. Ich habe den nicht selbst gekauft sondern als Bonus-Geschenk vor 3, 4 Wochen bekommen. Treiber ist der 372.70.

DanMan
2016-09-14, 14:26:11
Es ist so ein ein 55/Philips Ambilight 4k HDR TV von 2016, welches Modell weiß ich gerade nicht. Ich habe den nicht selbst gekauft sondern als Bonus-Geschenk vor 3, 4 Wochen bekommen. Treiber ist der 372.70.
Danke. Sieht fürs erste so aus, als ob NV es bei den 9xx Karten wohl (noch?) nicht unterstützt, denn ich kann mir nicht vorstellen dass das am TV oder dem Kabel liegt. Möglich wär's natürlich. Oder es liegt an der Windows Version (hab noch Win7), je nachdem ob just4FunTA Win10 hat oder nicht.

Kartenlehrling
2016-09-14, 14:32:00
Wird das nicht vielleicht an dem FP16 liegen, bei HDR-RotTR Blog wird es auf jedenfalls erwähnt.

http://images.anandtech.com/doci/10325/SandaThroughput_575px.png

Liquaron
2016-09-14, 15:05:13
Tjaha ich überlege mir ja für die PS4 pro und meinen PC folgenden Fernseher fürs Arbeitszimmer zu kaufen:

Sony KD-43XD8005

Ich habe zwar in meinem Wohnzimmer einen OLED, aber er ist eben kein HDR / 4k.

Was meint ihr?

Lohnt sich das schon?

Werde ich auch vom PC aus HDR Spiele darauf zocken können?

Kartenlehrling
2016-09-14, 15:49:57
HDR in Spielen ein Thema für 2017

Große Pläne hat AMD für High Dynamic Range (HDR) in Spielen.
Der Hersteller arbeitet seit der letzten Games Developers Conference mit mehreren Spieleentwicklern aktiv an einer Umsetzung von HDR in Spielen.
Gegen Ende des Jahres sollen die ersten Titel mit einer Unterstützung erhältlich sein, richtig los gehen soll es aber erst 2017.
https://www.computerbase.de/2016-09/amd-rtg-2016/

mhhhhh, ...

DanMan
2016-09-14, 18:03:23
Wird das nicht vielleicht an dem FP16 liegen, bei HDR-RotTR Blog wird es auf jedenfalls erwähnt.
Citation needed.
Werde ich auch vom PC aus HDR Spiele darauf zocken können?
In Zukunft sicher. Ist nur eine Frage der Zeit (und deiner Hardware).
https://www.computerbase.de/2016-09/amd-rtg-2016/
mhhhhh, ...
Wahrscheinlich wartet AMD lieber bis es in Windows 10 eingebaut ist. Wie dann der Support unter früheren Windows aussieht ist die Frage. Evtl. unterstützen sie es da einfach nicht.

Sardaukar.nsn
2016-09-14, 18:26:39
Tjaha ich überlege mir ja für die PS4 pro und meinen PC folgenden Fernseher fürs Arbeitszimmer zu kaufen:

Sony KD-43XD8005
...

Kurz, ja!

Liquaron
2016-09-15, 11:49:25
Kurz, ja!


Ich hätte mir jetzt fast gerade den 55 Zoll 4k TV zum gamen gekauft.

Dann habe ich mir Tests durchgelesen. Da wird wie bei vielen LEDs mal wieder Banding/Clouding/DSE bemängelt.

Ich weiß nicht ob ich nach einem OLED noch damit leben kann. Ich finde es grausam.....aber 4k OLEDs sind so teuer :/

Da reden wir über neue Technologien wie HDR etc. und haben nicht mal die Kinderkrankheiten beseitigt.

Troyan
2016-09-15, 12:12:27
Ich weiß nicht ob ich nach einem OLED noch damit leben kann. Ich finde es grausam.....aber 4k OLEDs sind so teuer :/


Bei Amazon gibt es den 55EF9509 für 2650€. Ob das "so teuer" ist, ist schlecht zu bewerten. Die amerikanische Seite rtings.com hat Tests vom 9509 und Sony X8004:
http://www.rtings.com/tv/reviews/lg/ef9500
http://www.rtings.com/tv/reviews/sony/x800d

Der Aufpreis vom Sony zum LG wäre gerechtfertigt.

Kartenlehrling
2016-09-15, 12:30:09
OLED ist gut aber die vorteile von Microdimming nimmt immer mehr zu,
mit HDR+ sind selbst die Stromeffizienz vorteile nur gering.

https://www.youtube.com/watch?v=H69sscB4z2A
Samsung 65 KS9590 (KS9800) mit HDR Plus und LG OLED 65 E6 im HDTV Shootout

Ectoplasma
2016-09-15, 12:43:52
Alle sind HDR-fähig, sogar alter 35mm Film hat ausreichenden Dynamikumfang um daraus HDR zu generieren

Der DR von Film wird oft mit 15 Stops angegeben, was nicht schlecht ist. Danach darfst du oben ein wenig abziehen, weil dem Film im oberen Bereich Saturierung fehlt und im unteren Bereich rauscht es über mehrere Stops. Übrig bleiben vielleicht 7 Stops. Das reicht für ein vernünftiges HDR nicht. Zudem kannst du aus Film nicht direkt ein HDR erstellen, weil HDRs kein Gamma besitzen, sie sind linear. Film ist nicht linear, sondern besitzt meist eine S-förmige Gammakurve.

Keine Kamera ist perse HDR fähig, es sei denn sie wurde dafür gemacht wie z.B. die "RED Dragon 4K/HDR".

RLZ
2016-09-15, 12:45:37
OLED ist gut aber die vorteile von Microdimming nimmt immer mehr zu,
mit HDR+ sind selbst die Stromeffizienz vorteile nur gering.
Dann bleiben immer noch die ganzen LCD Nachteile.
DirectLED ist außerdem keine Lösung, die vernünftig in die Mittelklasse skalierbar ist.

Kartenlehrling
2016-09-15, 13:01:05
Fakt ist der bzw. die Referenz Monitor TV bei Digitalfernsehn.de sind beides Microdimming TV.


Sony KD 65ZD9
Samsung 65 KS9590

LG OLED 65 E6

@Ectoplasma
Dafür gibts ja variabeles System, Dolby nutzt es, Samsung nutzt es und
AMD hat es ja auch vorgestellt.

http://gpuopen.com/wp-content/uploads/2016/03/GdcVdrLottes.pdf
Variable Dynamic Range

Liquaron
2016-09-15, 13:45:54
Was haltet ihr denn von dem TV?

Panasonic TX-40DXW734

Ja, er hat wohl nur ein 8bit Panel. Aber ansonsten wird er doch sehr gelobt. Bei 40 Zoll könnte ich ihn wohl auch noch auf meinem Schreibtisch irgendwo unterbringen ;)

Ectoplasma
2016-09-15, 15:10:56
... natürlich kann man aus Film ein HDR erstellen, ...

Weiss ich. Ich entwickel selbst Software in diesem Bereich und ich kenne die Verfahren wie man Bilder und Film linearisiert, oder wie man aus einer Belichtungsreihe Bilder zu einem HDR merged. Trotzdem sind die Ergebnisse von nur einem Shot nicht unbedingt optimal. Es kommt natürlich noch auf die Szene selbst an, aber einfach so zu sagen, dass man mit jeder Filmkamera ein HDR machen kann, wenn wir mal von Qualität sprechen wollen, halte ich für etwas gewagt.

@Kartenlehrling, danke für das Dokument.

Liquaron
2016-09-15, 16:03:18
So, ich habe mir jetzt mal den Panasonic TX-40DXW734 bestellt.

Will ihn einfach testen :)

Er wird dann direkt an den PC angeschlossen.

Da ich auch FH3 auf dem PC vorbestellt habe kann ich HDR testen und sehen ob das was taugt und meinen FHD OLED platt macht ;)

VfBFan
2016-09-15, 16:10:20
TX-40DXW734 gegen OLED, da steht der Sieger schon fest.