Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDR ab 2016/17 auch bei Spielen dank Unterstützung bei neuen Grafikkarten & Monitoren


Seiten : 1 2 3 [4] 5

24p
2017-03-27, 06:26:46
Zumal auch die 2016er oleds schon 600-700 nits schaffen.

Kartenlehrling
2017-03-27, 08:27:56
:facepalm:

..., zu euren beiden Aussagen kann man leider nichts anders zufügen.
Ihr würde das nicht schreiben wenn ihr den OLED Philips Test von Digitalfernsehen gesehen und verstanden hätte.

Damit ihr nicht suchen müsst.
https://youtu.be/R7H0y241ehc?t=134

DanMan
2017-03-27, 09:33:00
:facepalm:

..., zu euren beiden Aussagen kann man leider nichts anders zufügen.
Weil du keine Argumente hast, außer "es ist so", und das offenbar nur vom hören sagen.

SamLombardo
2017-03-27, 09:34:13
@Kartenlehrling, die Geräte einzeln verglichen hast du aber nicht, oder?

Wie gesagt, ich hatte vor meinem TV Kauf auch die Geräte ausführlich verglichen. Gerade OLED mit LCD Top Geräten. Zudem war ich vorletzte Woche mit Kumpel zum Termin. Hab also ganz frische Eindrücke.
Unter anderem haben wir den B6 mit dem Samsung KS 9590 separaten abgedunkelten Raum vorführen lassen. Und MIR/UNS hat das Bild des OLED selbst bei HDR besser gefallen. Gerade dunkle Szenen mit Spitzenlichtern geben hier den Ausschlag. Wir hatten zum Beispiel Resident Evil 7 getestet - was für ein Vorteil für den OLED in HDR! Die Spitzenlichter, etwa Taschenlampen in den dunklen Kellergängen wirkten klarer und heller (!) als auf dem Samsung (der nominell ein paar hundert nits mehr hat). Auf dem Samsung wurde immer die Umgebung mit aufgehellt, trotz x Dimmingzonen. Im 1:1 nacheinander Vergleich deutlich. Es leuchtete mich halt kein helles Licht aus schwarzer Umgebung an, sondern ein, möglicherweise etwas helleres, Licht aus leicht grauer Umgebung. Dennoch ging dieser HDR Test aber sowas von an den OLED. Jetzt kann jemand sagen, ok ein Ausnahmefall, aber das glaube ich nicht. Wenn ich zum Beispiel in Horizon Zero Dawn die Höhlen erforsche hab ich schon genau diese Konstellation wieder, dunkle Umgebung und helle Lichter. Es sieht unglaublich aus in HDR auf dem OLED. Es ist also nicht nur eine Ausnahme, solche Szenen gibt es immer wieder und hier punktet der OLED. Dass die Sonne auf einem LCD vielleicht etwas mehr blendet, fällt daher FÜR MICH gar nicht so ins Gewicht. Denn auf dem OLED blendet sie auch.

Man darf nicht den Fehler machen, sich die zwei TVs parallel anzuschauen, wie es in den Videos oft gemacht wird. Die Pupillen/Kameras stellen sich auf das hellere Bild ein, und das andere wirkt zu dunkel. Obwohl es das nicht ist! Wenn man sich die TVs nacheinander, im Wechsel vorführen lässt, sieht das gleich ganz anders aus. Die Augen stellen sich auf den OLED ein und man wird von hellen Szenen genauso geblendet wie auf dem LCD. Es kommt auf die im wahrsten Sinne des Wortes hohe Dynamic Range an, nicht auf die totale Helligkeit. 700 nits neben perfektem Schwarz wirken heller als 1000+ nits neben Grau.

Edit: Jeder der jetzt sagt, der kann ja viel erzählen: Macht euch einen Termin und lasst es euch vorführen. Jeder Media Markt oder Saturn macht das.

Kartenlehrling
2017-03-27, 09:44:59
Man darf nicht den Fehler machen, sich die zwei TVs parallel anzuschauen


You make my day,... macht euch doch nicht lächerlich.

24p
2017-03-27, 09:54:05
Nö. Das sollte man tatsächlich nicht. Das ist bei Beamern aus anderen Gründen ähnlich.

SamLombardo
2017-03-27, 10:04:37
You make my day,... macht euch doch nicht lächerlich.
Mensch, anstatt hier rumzutönen, probier es doch selber aus. Das ist nicht lächerlich, sondern Optik. Die Kamera wird sich bei Parallelfilmen immer auf den helleren TV einstellen und das Bild des anderen zu dunkel wirken lassen. Wenn du eine helle Lichtquelle neben deinen LCD stellst, wird der auch auf einmal zu dunkel wirken, weil sich deine Pupillen/Kamera an das helle Licht anpassen. Der Eindruck im heimischen Wohnzimmer ist ein völlig Anderer, da deine Pupillen "Grundeinstellung" weiter offen ist. Rate mal, warum eine Taschenlampe in der Finsternis mehr blendet als bei Festbeleuchtung. Die (hohe) Bilddynamik ist das was zählt, damit HDR beeindruckt.
Mach dir einen Termin im nächsten MediaMarkt zum Vergleich OLED und LCD deiner Wahl (die machen das gerne), nimm eine PS4 oder einen Laptop und Resident Evil 7 mit und staune! Du wirst vielleicht Dinge bemerken, die du nicht vermutet hättest ;)

Kartenlehrling
2017-03-27, 10:18:38
Wir diskutieren überhaupt nicht ob OLED das besser Schwarz hat, das kann wohl keiner bestreiten,
es wurde von zu Hell und blenden geschrieben und das stimmt nicht, hinzukommt das den OLED an Farbbrillanz fehlt,
und Du willst es einfach nicht verstehen.

Dein Rot oder Orange ist nach deiner Meinung Richig, ist es aber nicht,
Ferrari und jeder Spieleentwickler der mit HDR programiert würde es dir auch sagen.
Das werden wir erst sehen wenn die OLED auch "wirklich" über >1000nits schaffen und nicht nur mit Weiße LEDs.

SamLombardo
2017-03-27, 11:20:48
Ja, "Color Volume" ist das neueste Marketingschlagwort von Samsung. In wiefern das tatsächlich relevant ist...keine Ahnung. Tatsache ist, dass ich noch nie so satt wirkende Farben gesehen habe wie auf dem OLED, einfach dank des überlegenen Kontrast. Und ich hatte vor dem OLED einen guten Sony LCD. Ob es Samsung tatsächlich in bestimmten Situationen noch besser macht, damit hab ich mich noch nicht weiter beschäftigt. Möglich ist es durchaus, warum auch nicht. Ändert nichts daran, dass mir, meinem Kumpel und selbst dem Verkäufer das HDR auf dem B6 besser gefallen hat, als auf dem Samsung Flaggschiff. Und ja, die Blendwirkung in Resi 7 war auf dem OLED mindestens genauso wie auf dem Samsung, trotz unterschiedlicher theoretischer Nits Zahlen. Glaub es oder nicht.

Edit: Übrigens gerade gestern in einem Sony ZD9 Test gelesen.
Im ZD9-Test von http://www.flatpanel...owfull&id=1474868470 (http://www.flatpanelshd.com/review.php?subaction=showfull&id=1474868470) liest man folgendes:
Z9D is without doubt one of the best LCD TVs for HDR reproduction that we have seen to date, but it does not beat HDR reproduction on the 2016 OLEDs that manage to reach visibly deeper black levels and at the same time maintain a higher dynamic range throughout a movie.


Und nun? Tester hat keine Ahnung? Kann ja gar nicht sein? ...Ist eben doch so, wenn man unter Wohnzimmerbedingungen testet.

PS: ich will dir doch deinen LCD gar nicht madig machen, es ist für sich mit Sicherheit ein toller TV. Nur das von LCD Fans propagierte Mantra "mehr Nits, besseres HDR" ist halt in der Praxis deutlich differenzierter. Anstatt auf absolute Helligkeit kommt es eben auf die im HDR Wortsinn hohe Dynamik Reichweite an. Ich will hier auch gar niemanden überzeugen, deshalb sage ich ja, schaut es euch selber an, macht einen Termin. Ihr geht damit keinem auf den Wecker, die Verkäufer freuen sich meiner Erfahrung nach sogar über die Abwechslung ;)

Ectoplasma
2017-03-27, 18:15:32
Dein Rot oder Orange ist nach deiner Meinung Richig, ist es aber nicht,
Ferrari und jeder Spieleentwickler der mit HDR programiert würde es dir auch sagen.
Das werden wir erst sehen wenn die OLED auch "wirklich" über >1000nits schaffen und nicht nur mit Weiße LEDs.

"Richtiges" Rot oder Orange in Verbindung mit HDR ;D. Und der Eindruck ist erst dann "richtig", wenn der Monitor > 1000nits hat? Hört, hört. Und wenn der Ferrari unter einer Laterne steht, ist das Rot plötzlich falsch oder wie?

Im übrigen hat SamLombardo völlig Recht, dass der richtige Eindruck erst mit der Dynamic Range ensteht und nicht mit den NITS. NITS sagen wie gesagt gar nichst über die HDR Eigenschften aus. Das Auge adaptiert sowieso. Siehe hierzu auch den Wiki-Eintrag. (https://de.wikipedia.org/wiki/Adaptation_(Auge))

Kartenlehrling
2017-03-27, 18:24:21
Hier rede keiner von Schwarz und HDR, es wurde behaupte das man mit Sonnenbrille vor >1000nits TV sitzen muss und nur das habe ich verneint
und hinzugefügt das den heute verkauften OLED an Farbbrillanz fehlt, selbst "neueste" Tests und Werbeblaablaaa bestätigen dieses (https://www.youtube.com/watch?v=A5IUteUcMPA).

Sailor Moon
2017-03-27, 18:28:22
"Richtiges" Rot oder Orange in Verbindung mit HDR ;D. Und der Eindruck ist erst dann "richtig", wenn der Monitor > 1000nits hat? Hört, hört. Und wenn der Ferrari unter einer Laterne steht, ist das Rot plötzlich falsch oder wie?

Im übrigen hat SamLombardo völlig Recht, dass der richtige Eindruck erst mit der Dynamic Range ensteht und nicht mit den NITS. NITS sagen wie gesagt gar nichst über die HDR Eigenschften aus. Das Auge adaptiert sowieso. Siehe hierzu auch den Wiki-Eintrag. (https://de.wikipedia.org/wiki/Adaptation_(Auge))
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11214653&postcount=478

Darüber hinaus liegst du natürlich richtig: Der remittierte Farbreiz hängt allein von der Beleuchtung ab. Erfassen wir das "Ferrari-Rot" messtechnisch, werden die beleuchtungsunabhängigen Reflexionswerte mit der gewünschten (normalisierten) Lichtart verrechnet und dann ausgewertet. Der ermittelte Farbwert ist dann ohnehin relativ.

Die im Link angeführte Helligkeitsadaption des Auges spielt auch im Zusammenhang mit HDR und der gewählten Transferfunktion eine große Rolle. Das Barten-Modell unterstellt stets einen lokalen, variablen Adaptionszustand im Hinblick auf zwei benachbarte Tonwerte. Das ist in der Realität so faktisch nie anzutreffen. Für das gespreizte HDR Histogramm dennoch eine gute Worst-Case Abschätzung. Es bedeutet aber nicht, dass andere Tonwertkurven (z.B. Gamma 2.2) bei beschränkter Quantisierung auch nur annähernd so stark wie oft angeführt im Hinblick auf die maximale Leuchtdichte limitieren bzw. ineffizient sind.

00-Schneider
2017-03-27, 19:17:31
Was kommt in den nächsten Jahren zuerst:

1. LCD-TVs mit dem Schwarzwert von heutigen OLED-TVs oder

2. OLED-TVs mit der Helligkeit von LCD-TVs?

Kartenlehrling
2017-03-27, 19:59:35
OLED steckt in einer Sackgasse, man sieht ja an den Test das die W-OLED Technik nicht der richtig Weg ist.
egal ob QLED oder OLED erst nach 2018 sehe ich Produkte die wirklich das liefern was wir uns wünschen.

Bei OLED plant man mit einem Tiefen-Pixel zu kommen, da wird an den Wänden RGB und am boden warscheinlich das Weiß gespritzt,
aber das werden wir wohl zuerst bei den 4k-VR Brillen sehen und nicht bei Monitor oder TVs.

Mr.Magic
2017-03-27, 20:06:28
Aktuelle OLED kommen für mich auch ohne HDR nicht in Frage. Die Wüstenszene, die ich im Vergleich sah, war auf dem OLED bleich, und viel zu dunkel. Schwarz ist dagegen bei VA m.E. gut genug, und hat kaum Image Retention.

DanMan
2017-03-27, 22:09:32
Was kommt in den nächsten Jahren zuerst:

1. LCD-TVs mit dem Schwarzwert von heutigen OLED-TVs oder

2. OLED-TVs mit der Helligkeit von LCD-TVs?
Die LCD Technik gibt es mittlerweile schon so lange, dass sie nahezu ausgereizt sein dürfte. Wie Mr.Magic schon schrieb ist der native Schwarzpunkt bei VA-Panels ja auch bereits sehr gut (ca. 0,02 cd/m²). Den gleichen Schwarzwert wie OLEDs (ca. 0,005 cd/m², darunter clipt es) werden sie wohl schon vom Grundprinzip her nie erreichen, weshalb man sie ja im Premiumsegment mit einem FALD-Backlight kombiniert um trotzdem reines Schwarz zu erreichen.

OLEDs dürften da noch ein wenig mehr Spielraum nach oben haben. Dass aber die 2017er TVs nicht viel heller als die 2016er sind bedeutet wohl, dass auch dort nur mit Wasser gekocht wird. Leider haben die OLEDs auch immernoch Probleme mit Einbrennen, was eine heikle Sache für Spiele und generell im Monitorbetrieb ist.

SamLombardo
2017-03-27, 22:25:59
Man darf auch nicht vergessen auf welch hohem Niveau wir uns mittlerweile bewegen. Der LG B6D OLED ist im Vergleich deutlich (!) heller als mein vorheriger Sony XD 8005. Ich fahre meinen OLED bei 65 Prozent OLED Licht und 49 Prozent Helligkeit. Und schon dabei wirkt er unter Wohnzimmerbedingungen einfach schweinehell. Gerade in Kombination mit dem echten Schwarz. Dass ein ZD9 noch heller ist...geschenkt. In Punkto Helligkeit hat sich in den letzten zwei Jahren gerade bei OLED eine Menge getan.

DanMan
2017-03-27, 22:29:53
Man darf auch nicht vergessen auf welch hohem Niveau wir uns mittlerweile bewegen. Der LG B6D OLED ist im Vergleich deutlich (!) heller als mein vorheriger Sony XD 8005. Ich fahre meinen OLED bei 65 Prozent OLED Licht und 49 Prozent Helligkeit. Und schon dabei wirkt er unter Wohnzimmerbedingungen einfach schweinehell. Gerade in Kombination mit dem echten Schwarz. Dass ein ZD9 noch heller ist...geschenkt. In Punkto Helligkeit hat sich in den letzten zwei Jahren gerade bei OLED eine Menge getan.
Du kannst doch HDR nicht mit SDR vergleichen. SDR ist doch gar nicht auf solche Helligkeit ausgelegt....

SamLombardo
2017-03-28, 08:05:34
Du kannst doch HDR nicht mit SDR vergleichen. SDR ist doch gar nicht auf solche Helligkeit ausgelegt....
Ja, das war nur mal eine Aussage zur Helligkeit als Solches, mehr als Antwort auf das Posting von Mr. Magic, das für mich einfach nicht nachvollziehbar ist. HDR läuft natürlich mit anderen Licht Settings, ganz klar. Zu den Eindrücken von HDR auf dem B6 habe ich mich ja in meinen vorherigen Postings geäußert. Mit der nochmaligen Empfehlung, sich selber ein Bild unter wohnzimmerähnlichen Bedingungen zu machen (geht in den Märkten auf Termin) will ich es erstmal dabei belassen.

Ectoplasma
2017-03-28, 09:03:18
Wie stoisch einige hier wieder an ihrer Helligkeit festhalten. Da kommt schon wieder der Verdacht auf, dass sie diesem Marketing - Gag voll aufgesessen sind.

Gast
2017-03-28, 12:03:24
Wie stoisch einige hier wieder an ihrer Helligkeit festhalten. Da kommt schon wieder der Verdacht auf, dass sie diesem Marketing - Gag voll aufgesessen sind.
Jupp, durch den höheren Schwarzwert von OLED sehen auch Helligkeitswerte gleich besser aus. Mal ehrlich, wenn man bei Spielen ins Dunkle guckt ist diesen vollkommen ausgeleuchtet und man erkennt jeglichen Gegenstand. Das ist doch realitätferner Quatsch, wenn ich ins dunkle gucke begrenzt das menschliche Auge die eigenen Wahrnehmung drastisch. Die Hell-Dunkel-Adaptation des menschlichen Augen kann nur stufenweise stattfinden. Ich finde HDR in Spielen Fallout daher völlig blödsinning, wenn im dunkeln alles erkennbar und ausgeleuchtet wird.

Farbensehen wird immer nur in bestimmten Helligkeitsbereichen möglich sein, sonst wirkt es einfach unnatürlich, denn Helladaption funktioniert nun mal völlig anders, als Dunkeladaption. Wenn es anders wäre müssten wir Raubtieraugen haben, haben wir aber nicht.

HDR ist völlig unnütz...den HDR täuscht Realitätferne vor. Das menschliche Auge sieht so nicht wie HDR das Bild ausleuchtet. Das ist nicht nur eine Marketinggag sondern völlig unnatürlich. Bei Spielen geht es ja in erster Linie um Realitätsnähe. Die erreicht man HDR aber nicht, genau das Gegenteil ist der Fall.

Das Auge muss sich an dunkle Sequenzen erst gewöhnen und die Sichtweite bleibt trotzdem eingeschränkt. Das gibt HDR so nicht wieder, denn da werden jegliche Schwarzbereiche sichtbar ausgeleuchtet.

/e: die Capchas sind schon wieder kaputt, die Hälfte bleibt nach anklicken schon wieder grau. Ist dann wie Lotto...mal gewinnt man, mal verliert man.

Robspassion
2017-03-28, 14:30:35
Naja der ZD9 von Sony ist schon krass hell da kannste nix gegen sagen :D

Lasse mir seit 6 Monaten die Augen bestrahlen und es ist echt krass was da teilweise geht.

Ectoplasma
2017-03-28, 15:57:04
HDR ist völlig unnütz...den HDR täuscht Realitätferne vor. Das menschliche Auge sieht so nicht wie HDR das Bild ausleuchtet. Das ist nicht nur eine Marketinggag sondern völlig unnatürlich. Bei Spielen geht es ja in erster Linie um Realitätsnähe. Die erreicht man HDR aber nicht, genau das Gegenteil ist der Fall.

Naja, das nun nicht. HDR hat schon seine Berechtigung. Eine höhere Dynamic-Range, als wir sie jetzt bei Fernsehern haben, wäre schon sinnvoll. Das Verständnisproblem liegt allerdings darin, dass einige zu glauben scheinen, dass die Sache mit entsprechend hohen NITS irgendwie der ausschalggebene Punkt sei. Das ist er nicht.

Und so wie du es schreibst lieber Gast, scheinst du offensichtlich kein gutes HDR gesehen zu haben, sondern irgendein getonemaptes Material. Oder sagen wir es mal so, irgendeinen schlechten Content. HDR soll nicht die Eigenschaft haben, dunkle Bereiche unrealistisch auszuleuchten.

Im Übrigen ist HDR nur eine technische Möglichkeit mehr Kontrastumfang aufnehmen bzw. darstellen zu können, mehr nicht. Da die Dynamic-Range von Gerät zu Gerät aber unterschiedlich ist, wird man immer mit einem Kompromiss leben müssen. Dieser Kompromiss spiegelt sich in diversen Algorithmen wieder, die eine Anpassung von Gerät zu Gerät vornehemen müssen. Die möglichen Fehler die sich dabei einschleichen können, sind nahezu Grenzenlos. Es wird noch lange dauern, bis alles gut aufeinander abgestimmt ist.

Bis dahin können wir das nachgeplapperte Marketing-Geschwurbel einiger "Berichterstatter" dieses Forums genießen.

Kartenlehrling
2017-04-20, 10:54:39
HDR10+ soll das offene Dolby Vision sein

Unterschiede zwischen dem offenen HDR10+ und Dolby Vision gibt es dennoch.
Beispielsweise bleibt HDR10+ auf 10-Bit-Farbtiefe limitiert, während bei Dolby Vision bis zu 12 Bit pro Farbkanal zur Verfügung stehen.
Amazon Video unterstützt HDR10+

Der Streamingdienst Amazon Video wird in diesem Jahr die Unterstützung für HDR10+ starten.
Alle Samsung UHD-Fernseher aus dem Jahr 2017 unterstützen bereits HDR10+,
für die 2016er-Modelle wird in der zweiten Jahreshälfte ein Firmwareupdate die Unterstützung nachliefern.
High Efficiency Video Coding (HEVC/H.265) unterstützt laut Samsung die Kodierung von HDR10+-Material.
https://www.computerbase.de/2017-04/hdr10-plus-samsung-amazon/
HDR10+: Samsung und Amazon wollen mit Dolby Vision konkurrieren

Rente
2017-04-20, 20:18:59
Das wird bestimmt super erfolgreich, wo doch direkt so viele Hersteller teilnehmen...
Hat Samsung irgendein persönliches Problem mit Dolby von dem man wissen müsste?

Kartenlehrling
2017-04-20, 20:39:01
Und wieso hast du gleich Beißreflex wie ein Bullterrier?

Es steht doch nur das Amazon HDR10+ unterstützt, nicht das sie dafür DolbyVison-12bit aufgeben.
Die Filmeindustrie wird auch nicht gehindert Dolby Vison weiter zu unterstützten,
natürlich solange sie nur die BD66 verwenden sind sie beschränkt in der Auswahl,
aber sobald die BD100 Seriereif sind sollt es doch kein problem sein.
Ich denke das die Streamingdienste froh sind das es ein HDR10+ gibt mit "nur" 10bit, das spart eine menge Bandbreite.

Weniger bzw. keine Lizenzgebühren hat wohl jeder gerne, das auf "einmal" kein Dolby-Dongle mehr gebraucht wird zeigt doch die Scheinheiligkeit.

scully1234
2017-04-20, 20:46:51
Ich sehe da nicht viel Potential für Samsung und Amazon

Irgendwo sollte man dann doch mal anerkennen ,wenn man auf verlorenen Posten agiert

Nun gut ob sie nun so Geld verbrennen ,oder es per Lizenz an Dolby überweißen, bleibt letztlich das selbe

Die Kehrtwende wird kommen, aber so wart man eben noch ne Weile sein Gesicht

24p
2017-04-20, 20:53:21
Besser ein Dolby Dongle als einen neuen TV kaufen müssen für dynamisches HDR. Samsung kommt da einfach zu spät. Mal abgesehen davon, dass das bei dere TVs auch nicht über nicht übertragen werden kann. Dafür benötigt man hdmi 2.1 und da ist Dolby halt einfach im Vorteil, da es jetzt schin funktioniert.

scully1234
2017-04-20, 20:53:43
Weniger bzw. keine Lizenzgebühren hat wohl jeder gerne, das auf "einmal" kein Dolby-Dongle mehr gebraucht wird zeigt doch die Scheinheiligkeit.

Schon richtig aber es bleibt trotzdem ein Kampf gegen Windmühlen, weil der Hollywood Content ,eben Dolby Hoheitsgebiet ist, und daran ändern die zwei mit ihrem neuen Standard nichts

Kartenlehrling
2017-04-20, 21:16:34
Besser ein Dolby Dongle als einen neuen TV kaufen müssen für dynamisches HDR. Samsung kommt da einfach zu spät.

Steht doch im CB Beitrag :

Alle Samsung UHD-Fernseher aus dem Jahr 2017 unterstützen bereits HDR10+,
für die 2016er-Modelle wird in der zweiten Jahreshälfte ein Firmwareupdate die Unterstützung nachliefern.
High Efficiency Video Coding (HEVC/H.265) unterstützt laut Samsung die Kodierung von HDR10+-Material.

Ich lese daraus das gar nichts neues gekauft werden muss, und die Verbreitung "Kinderleicht".

24p
2017-04-20, 21:26:34
Gilt nur für Samsung TVs. Dolby Vision wird von Vizio, Sony und LG jetzt schon unterstützt. Für die Übertragung per hdmi daer es dann wohl hdmi 2.1 sein.

Kartenlehrling
2017-04-20, 21:33:41
Philips hat auch HDR+ angeboten, da werden sie HDR10+ wohl auch anbieten.


Ausserdem ist das Standard ... ST-2094-40.
https://www.smpte.org/sites/default/files/2017-01-12-ST-2094-Borg-V2-Handout.pdf


HEHE, die Abkürzung von Dolby Vision ist ja witzig, .... DoVi, dreimal schnell hinter einander aufsagen :)


---


Notiz an mich ... auf Postings von @24p nicht mehr antworten .... :facepalm:

24p
2017-04-20, 22:31:13
Ja und? Sie sind trotzdem zu spät.
Das ist das gleiche wie mit mpeg multichannel und Dolby AC3. Ersteres sollte der Tonsstandard für die DVD sein. Dummerweise gab es dann aber schon seit Jahren Receiver mit AC3-Decoder (wegen der Laserdisc) und dann auch die ersten DVDs mit AC3-Ton. Mpeg multichannel ist dann gestorben. So ist es hier auch, alle relevanten HDR TVs unterstützen bereits DV. Dass Samsung jetzt kommt interessiert wenig, da deren TVs für HDR eh nicht wettbewerbsfähig sind. Das wissen die auch, deswegen gibt es zufällig seit einigen Monaten auch einige Social Media Kampagnen, die diese Geräte anpreisen. So wie du hier jede Samsung-News postest und die TVs wie ein Vertriebler verteidigst. Ein Schelm...

scully1234
2017-04-21, 08:05:41
Dummerweise gab es dann aber schon seit Jahren Receiver mit AC3-Decoder (wegen der Laserdisc) und dann auch die ersten DVDs mit AC3-Ton. Mpeg multichannel ist dann gestorben. ..


So weit muss man doch gar nicht zurück gehen bei den Tonformaten

Der Werdegang von Atmos ist doch genau so bezeichnend

DTS X und Auro 3D sind da doch in gewisser Weiße auch nur noch Randerscheinungen

24p
2017-04-21, 08:14:09
Das stimmt, wobei des Scheitern von mpeg multichannel dann noch bezeichnender war, weil ein Erfolg dieses Formats etliche existierende Receiver nutzlos gemacht hätte, da eben AC3 schon lange vorher vorhanden war. DTS X wird ja wenigstens von nahezu allen Receivern die auch Atmos unterstützen angeboten.
Das gleiche Spiel ist es ja mit HDR10+. Ein Erfolg dieses Formats schadet der Mehrheit der Kunden, da Dolby Vision-TVs schon seit 1,5 Jahren verkauft werden und es abseits von Samsung keinen Support gibt für jemanden der sich jetzt einen TV kauft.

Sumpfmolch
2017-04-21, 19:06:44
Gibt es Verkaufszahlen für HDR10 und Dolby Vision TVs, um mal ein Gefühl für die bei den Konsumenten vorhandene Basis zu bekommen?

Mit besonders viel Werbung für das Format ist mir bisher nur LG aufgefallen, insbesondere für die teuren OLEDs. Die unterstützen aber auch alle HDR10, wenn ich mich recht erinnere.
Bezüglich der UHD Blu-Rays würde es mich nicht wundern, wenn diese sowohl Dolby Vision als auch HDR10(+) enthalten.

Troyan
2017-04-21, 19:15:00
HDR10 ist der defakto Standard bei Fernseher. LG und Vizo (+ kleinere Hersteller) unterstützen zur Zeit auch DolbyVision. Sony zieht mit einem Update für ältere LCDs und mit dem neuen OLED nach.

Samsung und Panasonic haben bis heute keine Unterstützung angekündigt.

Kartenlehrling
2017-04-21, 19:16:30
man rechnend mit ca. 36Mio TV Haushalte in Deutschland,
zur IFA2016 hatte man bis Ende des Jahre 2016 mit ca. 3 Mio verkaufte UHD TV berechnend,
aber das werden wohl nicht alles hochwertig HDR-DoVi sein.


Vorteile bringt ja HDR10+ gerade bei Streamingdienste der Unterschied 10bit oder 12bit wird man im stream bestimmt merken, sehen wird man ihn nicht.
Auf UltraBlu-ray wird DoVi sicher bestehen bleiben und von Siegeszug will ich nicht schreiben, das überlasse ich 24p und Co.

DanMan
2017-04-21, 19:39:19
Dell bringt auch einen 27" UHD Monitor heraus:

https://www.golem.de/news/up2718q-dell-verkauft-hdr10-monitor-ab-mai-2017-1704-127432.html

Schon in ein paar Wochen. Aber für 2k $ :D und nur in den USA. Panel unbekannt.

scully1234
2017-04-21, 20:28:12
LG und Vizo (+ kleinere Hersteller) unterstützen zur Zeit auch DolbyVision. Sony zieht mit einem Update für ältere LCDs und mit dem neuen OLED nach.

Samsung und Panasonic haben bis heute keine Unterstützung angekündigt.

Die Beamerbranche prüft z.Zt auch welche Geräte nachträglich noch ein Update bekommen können

Sony ,JVC,LG u Optoma haben entsprechendes eingereicht bei Dolby

Da ja gewisse Rechenpower vorhanden sein muss ,um den durchgeschleiften Stream zu entpacken, dürften da aber nicht viele Geräte ein Prüfsiegel erlangen

Optoma wird da dieses Jahr mit dem UHD60/65 Geräten dann wohl Projektoren bringen können, die von Grund auf dafür ausgelegt sind

SamLombardo
2017-04-22, 12:20:03
...falscher Thread

scully1234
2017-04-25, 22:06:11
Weitere Merkmale: Wasser- und staubgeschützt gemäß IP68, Fingerabdrucksensor, UX 6.0, Dolby Vision, HDR10, Qualcomm Quick Charge 3.0



Von welchem Handy ist hier die Rede;D

Kartenlehrling
2017-04-25, 22:21:45
Kann nur das LG G6 sein, jedenfall habe ich die HDR Werbung gesehen.

jooo da steht es ..

unterstützt Dolby Vision™ & HDR10
http://www.lg.com/de/handy/lg-G6

scully1234
2017-04-25, 22:30:27
Da möchte ich ja gern mal deren Lizenzvergabe einsehen, wenn es LG jetzt preislich schon in die Handy Sparte trägt


Oder es gibt für jeden verkauften Flat TV ein Handy gratis lizenziert^^

Kartenlehrling
2017-04-27, 10:34:02
Golem.de:
Gibt es eigentlich eine technische Neuerung, die bislang niemand so richtig auf der Agenda hat, die Sie aber wichtig finden?

Khan:
Gerade ist High-Dynamic-Range-Beleuchtung (HDR) ein großes Thema.
Aber derzeit werden in allen unseren Engines noch Low-Dynamic-Range-Texturen verarbeitet.
Ich glaube, dass sich unsere Entwicklungspipelines in Zukunft ändern müssen.
Wir müssen aber erst noch herausfinden, wie wir diese größeren Datenmengen - etwa Texturen mit bis zu 14 Bit statt nur 8 Bit - handhaben.
https://www.golem.de/news/id-software-global-illumination-ist-derzeit-die-groesste-herausforderung-1704-127490.html

hintzsche
2017-04-27, 11:30:11
Wenn es einen Full HD 24 Zöller mit HDR gäbe würde ich mir den holen aber 4K 27 Zoll Aufwärts ist mir zu groß. Ich sitze 50cm weg vom Bildschirm und will nicht wie beim Tennisspiel immer von links nach rechts schauen weil ich nicht mehr alles im Blick habe.

Kartenlehrling
2017-04-27, 20:31:21
5xXzT-mozBA
HDR Ultra™ – Dynamic Lighting Evolved

https://1.f.ix.de/scale/geometry/696x500/q75/imgs/71/2/1/8/9/5/6/0/Predator_X27_04-f4a0351fcba882b1.jpg
Acer Predator X27

Ectoplasma
2017-04-30, 12:14:46
Diese HDR vs. LDR Vergleiche auf einem LDR Monitor zu demonstrieren, sind komplett für den Anus. Alleine schon diesen Graulayer bzw. idiotischen Gamma über das LDR Bild zu legen, sind absolut irreführend.

Es wird einem wohl nichts anderes übrig bleiben, als seinen eigenen Arsch zu solchen Geräten hin zu bewegen, um sich selbst einen Eindruck zu verschaffen.

scully1234
2017-04-30, 14:03:23
Diese HDR vs. LDR Vergleiche auf einem LDR Monitor zu demonstrieren, sind komplett für den Anus. Alleine schon diesen Graulayer bzw. idiotischen Gamma über das LDR Bild zu legen, sind absolut irreführend.


Sind sie durchaus.Aber wie möchtest du sonst jemanden näher bringen in welche Richtung es geht mit dem Featureset der keinen HDR Monitor vor Ort hat?

Solange sie das nicht als reine HDR Demonstration anpreisen, ist das durchaus legitim, nur gerade hier liegt die Crux der Marketingfuzzies

Ectoplasma
2017-04-30, 19:54:16
...Aber wie möchtest du sonst jemanden näher bringen in welche Richtung es geht mit dem Featureset der keinen HDR Monitor vor Ort hat?...

Ich stimme dir ebenfalls zu, aber vor dem Internet-Zeitalter sind die Leute schon mal häufiger an die frische Luft gegangen. Zudem kann man sehr wohl besser demonstrieren, mit echten HDR Bildern, was das für eine Technik ist.

Man nehme einen HDR Viewer, ein paar HDR Bilder betrachte sie damit und spielt am Exposure-Regler rum. Man sieht zwar nicht den vollen Dynamikumfang auf einmal, aber man sieht zumindest, welche Informationen in solchen Bildern entahlten ist. Danach könnte man sie Tonemappen. Hieraus kann man sehen, welche Auswirkungen Tone-Mapper haben, falls ein Fernseher zwar HDR Content annehmen kann, ihn aber nicht vollständig darstellen kann. Und gute Tonemapper produzieren auch vernünftige Bilder im LDR Bereich.

Gast
2017-05-01, 10:59:30
HDR und 4K steckt doch noch in den Kinderschuhen. Man kann jetzt auch nicht behaupten das 4K im Desktopmodus unter Windows viel Sinn macht wenn es nicht um professionelle Bildbearbeitung oder Medizinbereiche geht. Viele Apps sind auf diese Ausgabe noch gar nicht optimiert. Bei Spielen siehst natürlich gut aus, wenn man die Grafikpower hat.

Alles in allem würde ich keinen UHD mehr kaufen, sondern eher WQHD als Zwischenstufe wählen, da scheint die Ausgabe vor allem im Desktopmodus sinnvoller zu sein.

Da man mit Downsampling auch unter Spielen höhere Auflösungen ausgeben kann, sollte man eher auf Feature wie Freesync oder Gsync setzen, 144Hz oder Bildverbesserungsmodi wie vielleicht HDR wegen der höheren Helligkeit und Farbbrillanz. Leider bindet sich das Feature ja an 4K. Bei der Sitzentfernung zu PC Monitoren sieht man sonst jede Unreinheit im Bild und die sind teilweise noch immens, plus den Schwierigkeiten das ohne Skalierung viele Apps und Anwendungen in ihrer Auflösung viel zu klein ausfallen oder sonst unscharf wirken. 4K Anwendungen und Inhalte sind immer noch rar. Den 4K Hype kann ich jedenfalls nicht nachvollziehen, würde bald sagen das war ein reiner Fehlkauf wenns um einen PC/Desktopbildschirm geht. Einen guten 4K FlatTV zum daddeln vielleicht sogar mit HDR halte ich für sinnvoller, weil der Sitzabstand größer ist. Leider sind dann auch bei der TV Wiedergabe Sklaierungsmodi an der Tagesordnung und kann es zu Unschärfen kommen.

1080p wird noch lange den Markt beherrschen. Einzig die verfügbare Bildschirmoberfläche ist ohne Skalierung bei 4K wegen der Pixelmengen gigantisch, so dass PiP Funktionen Multidisplaykonfigurationen obsolet machen, so dazu führen können das man etwas Strom spart und sich dann auch kein zweites Display anschaffen muss. 21x9 Formate sind für mich nur etwas für Kinofans, der etwas größere Blikwinkel wiegt die Nachteile durch die zuweilen unhomogene Ausleuchtung so großerflächiger Display nicht auf, da helfen auch gebogene Paneltypen nicht ab und haben damit zuweilen noch mehr Probleme.

Die derzeitige 4K Iteration steckt wie gesagt noch in den Kinderschuhen da die Optimierung fehlt, Spaß hat damit jedenfalls nicht immer. Das kann ich als direkter Anwender schon mal versprechen.

24p
2017-05-01, 18:40:22
Und bei welchen Apps ist das so problematisch? Der Browser plus Office läuft perfekt, was bei mir zu Hause dann 95% der Desktoptätigkeit abbildet. Beim Rest (itunes und sonstiges) ist mir recht egal, dass das skaliert wird und es etwas unscharf aussieht. Besser als Screendoor und Aliasing, das muss man sich nicht mehr antun.

Lurtz
2017-05-03, 21:46:28
Und bei welchen Apps ist das so problematisch? Der Browser plus Office läuft perfekt, was bei mir zu Hause dann 95% der Desktoptätigkeit abbildet. Beim Rest (itunes und sonstiges) ist mir recht egal, dass das skaliert wird und es etwas unscharf aussieht. Besser als Screendoor und Aliasing, das muss man sich nicht mehr antun.
+++

1440p @27" ist vergleichen mit 2160p @27" fast schon pixelig.

Atma
2017-05-04, 01:45:48
1440p @27" ist vergleichen mit 2160p @27" fast schon pixelig.
Aber immer noch der beste Kompromiss beim Gaming ;). 4K keult einfach zu stark und man ist gezwungen immer die dickste Grafikkarte im Rechner zu haben, wenn man keine Abstriche machen will.

FlashBFE
2017-05-04, 09:28:25
HDR und 4K steckt doch noch in den Kinderschuhen [...] Ich kann dem Text nur komplett widersprechen und frage mich, was bei dir schief gelaufen sein muss. Wenn ich mal raten darf: Du hast dir einen neuen Monitor hingestellt und erwartet, dass du deine alte vorhandene Softwaresammlung plötzlich hochauflösend einfach so weiter benutzen kannst. Nimm jetzt noch ein bisschen Geld in die Hand und kaufe dir skalierbare Software dazu! Mit Testversionen kann man das vorher schon gut ausprobieren.

Ich würde nie wieder einen Monitor mit weniger als UHD kaufen und ja, ich habe täglich auf Arbeit auch WQHD vor mir.

HDR ist natürlich eine andere Sache, aber das ist ja auch viel jünger und wurde selbst bei den UHD-BluRays eher nachträglich mit eingebaut. Das Formatchaos sagt ja alles. Ich bin trotzdem gespannt drauf.

Aber immer noch der beste Kompromiss beim Gaming ;). 4K keult einfach zu stark und man ist gezwungen immer die dickste Grafikkarte im Rechner zu haben, wenn man keine Abstriche machen will.Warum soll man mit einem 4K-Monitor immer zu 4K gezwungen sein? Ich spiele auf meinem alle halbwegs modernen Spiele in WQHD und es sieht gut aus. Nur mehr als 60Hz wären schön, aber das kommt aktuell auch gerade für UHD in Schwung.

24p
2017-05-04, 10:08:39
Das sehe ich ähnlich. Bei mir sieht WQHD plus eine ganz leichte Kantenschärfung besser aus als ein nativer WQHD Monitor. Kein Screendoor, weniger Aliasing. Die Schärfe eines nativen WQHD Monitors kommt auch eher durch das Aliasing und den Screendoors als durch die tatsächlich dargestellten Details. Eine leichte Unschärfe durch die zu geringe Auflösung ist deutlich natürlicher als Aliasing aufgrund von zu geringer Auflösung, da dies unserem Sehvermögen eher entspricht.
Es kommt eben auch auf den Upscaler an, Stock ist das bei meinem LG auch etwas zu unscharf, aber mit der niedrigsten Stufe Super Resolution (siehe oben) ist die Kantenschärfe sehr gut und die Texturen sehen auch besser aus.

Sardaukar.nsn
2017-05-04, 20:19:40
Ich musste mir Anfang des Jahres einen neuen Monitor zulegen da der alte 16:10 Samsung seinen Geist aufgab. Nach langer Recherche wurde die Auswahl plötzlich ganz klein. Geworden ist es ein Dell 2716DG (1440p, 144hz, GSync) der z.B. bei Geizhals seit über einem Jahr (durchgehend!) einer der beliebtesten Monitore ist. Das wir schon seine Gründe haben. https://geizhals.de/?cat=monlcd19wide

Auch der Zukunft blicke ich optimistisch entgegen, reicht die Grafikleistung irgendwann für 4k 60fps, freue ich mich auf 1440p und ca. 120fps, Schwankungen gleicht GSync ja wunderbar aus. Für mich aktuell der bessere Kompromiss. Meine nächste Grafikkarte könnte eine GTX 2070 sein.
Der nächste Schritt wird dann wohl erst wieder mit HDMI 2.1 und variable Refresh Rate, 4k bis zu 120hz kommen. Bis das "angekommen" ist und das Preis/Leistungsverhältnis halbwegs stimmt wird es aber noch mal ein paar Jahre dauern.

Lurtz
2017-05-04, 22:23:51
Aber immer noch der beste Kompromiss beim Gaming ;). 4K keult einfach zu stark und man ist gezwungen immer die dickste Grafikkarte im Rechner zu haben, wenn man keine Abstriche machen will.
Ich finde 1440p auf 2160p aktzeptabel, zudem unterstützten immer mehr Spiele dynamische Skalierung variabel zwischen 1080p und 2160p.

Abstriche macht man bei 1440p so gesehen ja immer, bei 2160p nur manchmal (was die Auflösung angeht).

Kartenlehrling
2017-05-19, 22:24:52
New Acronyms, Terms, Standards



•WCG –Wide Color Gamut -Rec.2020 has 2x more colors than Rec.709

•HDR –High Dynamic Range TV (ITU-R BT.2100)

•SDR –Standard Dynamic Range TV (Rec.601, Rec.709, Rec.2020)

•HFR –High Frame Rate (100 & 120 fps)

•HEVC –High-Efficiency Video Codec (ITU-T H.265) -2x more efficient than AVC

•PQ –Perceptual Quantizer Transfer Function for HDR signals (SMPTE ST 2084, ITU-R BT.2100)

•HLG –Hybrid Log Gamma Transfer Function for HDR signals (ITU-R BT.2100)

•HDR10 –10-bit HDR using BT.2020, PQ and static metadata

•Mastering Display Metadata –SMPTE ST 2086 (min/max luminance, color volume)

•MaxCLL–Maximum Content Light Level

•MaxFALL– Maximum Frame-Average Light Level

•DoVi (Dolby Vision) – 12-bit HDR, BT.2020, PQ, Dolby Vision dynamic metadata

•DMCVT - Dynamic Metadata for Color Volume Transforms, SMPTE ST 2094-40 (HDR10+)

•Ultra HD Blu-ray – HDR disc format using HEVC, HDR10, and optionally Dolby Vision

•UHD Alliance Premium Logo – High-end HDR TV requirements

Rente
2017-05-19, 23:16:55
Bezeichnet "HFR" nicht jegliches Filmmaterial, welches mit einem vielfachen von 24 bzw. 30 Bildern pro Sekunde ausgegeben wird (also 48, 60, 72, usw.)?

AintCoolName
2017-05-20, 11:29:14
Laut wikipedia meint HFR die Anzahl der Aufgenommen Bilder pro Sekunde > 24fps.

Kartenlehrling
2017-05-23, 20:59:50
http://www.4kfilme.de/lg-ses-4k-high-frame-rate-hfr-satellit/
LG & SES: 4K-High-Frame-Rate (HFR) Übertragung via Satellit

Übriges würde selbst peter jackson Hobbit nicht in 48fps im deutschen 3D Kino gezeigt sondern mit 60fps.

scully1234
2017-05-23, 22:43:28
Übriges würde selbst peter jackson Hobbit nicht in 48fps im deutschen 3D Kino gezeigt sondern mit 60fps.


Ich bin ja eher mal gespannt wie die HDMI Kabel, das volle Programm verkraften werden

Billy Lynn wird da auf der UHD ja den Anfang machen mit 60 Frames, wird spannend werden wenn die ersten ,mit ihren zertifizierten "18GB "Kabeln plötzlich Klötzchenbildung haben

FlashBFE
2017-05-24, 11:42:38
http://www.4kfilme.de/lg-ses-4k-high-frame-rate-hfr-satellit/
LG & SES: 4K-High-Frame-Rate (HFR) Übertragung via Satellit.
Sehr schön. Ich würde mich fast darauf freuen, wenn ich nicht wüsste, dass es in Deutschland mal wieder extra lange dauern wird, bis man es bewundern kann. Aber eine höhere Bildwiederholrate halte ich für viel wichtiger als den nächsten Sprung auf 8k. Mal sehen, wie lange das dafür benötigte HDMI 2.1 braucht, um in die Unterhaltungselektronik zu wandern und ob es dann noch mal extra HFR-4k-UHD-BDs (ich schütze mir am besten schonmal die Marke :biggrin:) geben wird.

Kartenlehrling
2017-05-24, 11:57:39
spätesten zur Olympische Sommerspiele 2020 in Japan werden wir es sehen, Test davon gab es ja schon in Brasilien.
Viele wären ja wohl schon glücklich wenn es 1080p/120fps (100fps Europa) für Fussball und sonstige Sportübertrage gäbe, die eine schnelle Kamerafahrt verlangen. (https://www.youtube.com/watch?v=cP9TeFVDJrE)

Mandalore
2017-06-06, 15:17:24
https://www.apple.com/de/imac-pro/




Gestern hat Apple bei der Keynote bekanntgegeben, dass das neue iPad HDR Video unterstützt, auf deren Seite steht von HDR leider nichts. HDR Video, heißt das, das das Ding jetzt HDR unterstützt oder nicht?


Auch interessant, beim iMac (Pro), steht: Unterstützung für 10‑Bit räumliches und zeitliches Dithering.


1 Milliarde Farbe und 500 nits



zeitliches Dithering, ist das sowas wie dynamisches HDR (Dolby Vision?)

Kartenlehrling
2017-06-07, 15:19:58
Mass Effect Andromeda Patch 1.08

[PC] Added experimental support for Dolby Vision™ technology

Dynamic Metadata für HDR.

Kartenlehrling
2017-06-18, 22:40:06
E3: HDR Gameplay #1 + #2 (HDR only!) Download: MP4

http://www.gamersyde.com/news_forza_7_in_hdr_on_gamersyde_-19287_en.html

Kartenlehrling
2017-07-16, 15:27:56
Der Samsung HDR Mode überzeugt im moment nicht wirklich, 800€ ist ja auch nicht wenig.
Gerade das überblenden und absaufen sieht im HDR schlechter aus als mit SDR und das kann ja nicht sein, selbst mit nur 550nits nicht.

5BuKtMfHT00
Samsung CHG70 / C32HG70 HDR Review Update - HDR PS4 vs PC - Future of HDR

Ectoplasma
2017-07-16, 15:57:00
Gerade das überblenden ...

Wie willst du denn beurteilen, ob es überblendet, wenn du den Vergleich auf einem SDR Monitor mit SDR - Content machst?

Kartenlehrling
2017-07-16, 16:00:38
Dann muss du mich schon zu einem schönen Steak und Rotwein einladen dann erzähl Ich es Dir.

Ectoplasma
2017-07-16, 17:19:12
Ich werds mir überlegen :smile:

DanMan
2017-07-16, 18:24:37
Dass er im Dunklen absäuft kann daran liegen, dass der Monitor auf einen Gamma von 2,2 ausgelegt ist. Dem müsste man dann entgegensteuern, indem man das im Spiel einstellt, falls es dort einen Gamma-Slider gibt. Problem hab ich bei Shadow Warrior auch. Oder er ist einfach schlecht.

Ex3cut3r
2017-07-16, 22:43:01
Wie willst du denn beurteilen, ob es überblendet, wenn du den Vergleich auf einem SDR Monitor mit SDR - Content machst?

Der Typ im Youtube sagt dass ja selbst und der muss ja wissen, schließlich liegt da ein HDR Monitor vor ihm.

Wie ich es vermutet habe, HDR ist momentan die Verarsche seit langem. Wenn man sich das auch ohne HDR Monitor ansieht, sieht das eigentlich nur so aus, als hätte man das Tonemapping geändert und das nicht mal zum positiven.

Troyan
2017-07-16, 22:50:00
Der Monitor bringt doch nur 500nits oder so. Um HDR wirklich richtig beurteilen zu können, sollte man auf die "1000" Nits Monitore mit G-Sync 2 warten. Dank Dimming Zonen kann man hier viel besser ansteuern.

Robspassion
2017-07-18, 17:52:47
Der Typ im Youtube sagt dass ja selbst und der muss ja wissen, schließlich liegt da ein HDR Monitor vor ihm.

Wie ich es vermutet habe, HDR ist momentan die Verarsche seit langem. Wenn man sich das auch ohne HDR Monitor ansieht, sieht das eigentlich nur so aus, als hätte man das Tonemapping geändert und das nicht mal zum positiven.

Imho sollte dies nicht auf Basis eines solchen Geräts entschieden werden. HDR ist ein Segen finde ich zumindest.

Ectoplasma
2017-07-18, 18:13:14
Der Typ im Youtube sagt dass ja selbst und der muss ja wissen, schließlich liegt da ein HDR Monitor vor ihm.

:redface: Hatte den Ton gar nicht an, warum auch bei einem visuellen Vergleich :tongue:


Wie ich es vermutet habe, HDR ist momentan die Verarsche seit langem. Wenn man sich das auch ohne HDR Monitor ansieht, sieht das eigentlich nur so aus, als hätte man das Tonemapping geändert und das nicht mal zum positiven.

HDR ist keine Verarsche, die Endgeräte aber vielleicht schon. Vor etlichen Posts hatte ich ja bereits angedeutet, dass auch die HDR Monitiore ein Tonemapping machen müssen, weil die Quelle evtl. einen höhren Dynamikumfang hat, als der HDR Monitor darstellen kann. Würde er das nicht vernünftig machen, kann in den Lichtern natürlich eine Sättigung eintreten, oder sie können in den Schattenbereichen absaufen.

Kartenlehrling
2017-08-04, 22:32:41
8OBM_c8uov8
High Dynamic Range in der Praxis: Dolby Vision, Active HDR, HDR 10

Kartenlehrling
2017-08-07, 15:09:09
HDR auf den Monitor will nicht so recht starten, zwar hat die neueste Window10 Version HDR Unterstützung, aber der Dell 2518D, Samsung 32CH70 und
auch LG 32UD99 laufen nicht wirklich rund mit Displayport HDR, über HDMI2.0a und Playstation4pro sieht es meinst besser bzw. anders aus.

Die 2000€ G-sync Dimming HDR Monitore sind wohl alle auf Q1/2018 verschoben, jedenfalls der Acer.

Kartenlehrling
2017-08-15, 20:12:23
Die Samsung TV (2016er +2017er) haben mit dem 3.august update ein wichtig Verbesserung bekommen,
sie können Video material das mit 1000nits und 4000nits besser unterscheiden und verarbeiten,
ausbrennen und absaufen wird verringert, so wie LG aktive HDR funktioniert es.

Gutes Update passend zum zum Video von digitalfernsehen.de

Ex3cut3r
2017-08-15, 20:50:18
HDR steckt noch in den Kinderschuhen, bis 2020 und ohne OLEDs im Monitor Bereich (TVs interessieren mich nicht) wird das auch so bleiben, leider gibts dann auch schon wieder HDR 2 mit 12 Bit Panels.

24p
2017-08-15, 23:15:15
HDR auf den Monitor will nicht so recht starten, zwar hat die neueste Window10 Version HDR Unterstützung, aber der Dell 2518D, Samsung 32CH70 und
auch LG 32UD99 laufen nicht wirklich rund mit Displayport HDR, über HDMI2.0a und Playstation4pro sieht es meinst besser bzw. anders aus.

Die 2000€ G-sync Dimming HDR Monitore sind wohl alle auf Q1/2018 verschoben, jedenfalls der Acer.

Das liegt nicht an DP, sondern daran, dass die Monitore nicht für HDR geeignet sind.

Kartenlehrling
2017-08-15, 23:28:29
?? Das kann wohl beim Dell 2518D stimmen,
aber beim C32HG70 funktioniert HDMI2.0 mit HDR und einer PS4pro sehr wohl. (https://youtu.be/5BuKtMfHT00?t=271)
Also kann es nicht am Monitor und ... nur 500nits. liegen.

Morgen gibts übrigen eine Review zum Dell 2518D auf PC-Monitor. (https://twitter.com/pcmonitors/status/897553001090560001)

24p
2017-08-15, 23:32:28
Ja und? Ohne echtea Local Dimming ist das trotzdem nichts.

Ex3cut3r
2017-08-17, 00:43:19
Das ist momentan HDR wie Dell es sich vorstellt. Bilder sind vom nagelneuen Dell U2518D.

Das doch ein Witz. Aber wenn man sich schon die Spec ansieht, 8-Bit ohne Dithering. Müssen schon die Alarm Glocken läuten. Ich sag nur wieder, HDR ist vlt. wirklich die Verarsche seit langem.

SDR:

https://abload.de/img/u25-sdrpcu47.jpg

HDR:

https://abload.de/img/u25-hdrvpuja.jpg

Review hier: https://pcmonitors.info/reviews/dell-u2518d/

DanMan
2017-08-17, 00:56:17
Da der Monitor nicht mal ansatzweise 1000 nits erreicht, sieht das Bild in den helleren Bereichen dann eben matt aus, und die dunklen Bereiche driften früher als gedacht ins Helle ab, weil der Dynamikumfang des Geräts zu gering ist. Darum sag ich ja, dass es keinen Sinn macht HDR light zu kaufen. Entweder richtig oder gar nicht.

Siehe die Diagramme im Abschnitt "PQ HDR - DOLBY VISION & HRD10" unter http://www.lightillusion.com/uhdtv.html

Jedenfalls sieht ME:A nicht so fade auf meinem TV aus.

Ectoplasma
2017-08-17, 14:30:39
Das ist momentan HDR wie Dell es sich vorstellt. Bilder sind vom nagelneuen Dell U2518D.

Das HDR Bild sieht klassisch getonemapped aus. Allerdings mit einem billigen Algorithmus. Wenn man diese unsäglichen Vergleiche HDR vs. SDR versucht auf einem SDR Monitor zu zeigen, kann dabei eh nichts sinnvolles herauskommen. Eigentlich müßte im Vergleich das HDR Bild wesentlich überstrahlter sein, wenn man es auf einem SDR Monitor darstellt. Man kann das Bild nur dann vernünftig einschätzen, wenn man real davor steht.

Ex3cut3r
2017-08-17, 15:21:16
Das HDR Bild sieht klassisch getonemapped aus. Allerdings mit einem billigen Algorithmus. Wenn man diese unsäglichen Vergleiche HDR vs. SDR versucht auf einem SDR Monitor zu zeigen, kann dabei eh nichts sinnvolles herauskommen. Eigentlich müßte im Vergleich das HDR Bild wesentlich überstrahlter sein, wenn man es auf einem SDR Monitor darstellt. Man kann das Bild nur dann vernünftig einschätzen, wenn man real davor steht.

Lies dir doch einfach mal den Text der Review durch, der Reviewer bestätigt, das HDR Bild vor ihm auf dem HDR Monitor auch so aussieht.

24p
2017-08-17, 17:39:39
Das ist aber eben kein vernünftiger HDR Monitor.

Ex3cut3r
2017-08-17, 17:42:43
Laut Dell schon :freak: Da ist unter anderem das Problem, HDR draufschreiben kann halt fast jeder. Obs dann halt schlechter als SDR aussieht, interessiert die Herren nach dem Kauf nicht. ;)

Kartenlehrling
2017-08-17, 17:47:21
Es kann aber auch an Microsoft liegen, jedenfall haben einige Tester diese Vermutung,
die HDR option ist ja auch ganz frisch im Win10.

AMD und Nvidia haben ja auch noch nicht viel Erfahrung, der schnelle Kunde ist der (dumme) Beta-Tester.

Über HDMI2.0b und PS4pro haben die meisten "HDR"-Monitor ja anscheinend weniger Probleme, Dell smartHDR zählt ja nicht.

BTB
2017-08-17, 17:58:44
High Dynamic Range in der Praxis: Dolby Vision, Active HDR, HDR 10

Was ein HeckMeck :D HDR ist für die meisten wohl eher ein "Woohhh" mein TV hat HDR - eingestellt wird Mist, Zuspieler sind Mist. Aber der Verkäufer hat ein neues Verkaufsargument.

Mayk-Freak
2017-08-17, 18:17:38
Das ist momentan HDR wie Dell es sich vorstellt. Bilder sind vom nagelneuen Dell U2518D.

Das doch ein Witz. Aber wenn man sich schon die Spec ansieht, 8-Bit ohne Dithering. Müssen schon die Alarm Glocken läuten. Ich sag nur wieder, HDR ist vlt. wirklich die Verarsche seit langem.

SDR:

https://abload.de/img/u25-sdrpcu47.jpg

HDR:

https://abload.de/img/u25-hdrvpuja.jpg

Sind die Fotos vertauscht?

DanMan
2017-08-17, 18:23:43
Es kann aber auch an Microsoft liegen, jedenfall haben einige Tester diese Vermutung, die HDR option ist ja auch ganz frisch im Win10.

AMD und Nvidia haben ja auch noch nicht viel Erfahrung, der schnelle Kunde ist der (dumme) Beta-Tester.

Ja, da hat MS die Sache mal wieder (HiDPI, anyone?) eher schlimmer gemacht als verbessert: https://forum.doom9.org/showthread.php?p=1810891#post1810891

Auf Win7 mit NVAPI hatte ich bisher keine größeren Probleme.

Ex3cut3r
2017-08-17, 20:18:17
Sind die Fotos vertauscht?

Ich wünschte so wäre es, aber nein ist richtig. :freak:

Was ein HeckMeck :D HDR ist für die meisten wohl eher ein "Woohhh" mein TV hat HDR - eingestellt wird Mist, Zuspieler sind Mist. Aber der Verkäufer hat ein neues Verkaufsargument.
+1

00-Schneider
2017-08-17, 23:34:07
+1


Konsole + TV hat kein Problem mit gutem HDR.

PC + Monitor scheint nichts in Sachen HDR gebacken zu bekommen, woran liegt das?

Ex3cut3r
2017-08-17, 23:46:00
Der Schuldige liegt wohl irgendwo bei MS (Win10) und/oder bei DisplayPort

Und halt an solchen von Produkten von Dell mit 300 nits und 8Bit ohne FRC Panels.

Die Gsync 2 Monitore mit UHD/3440x1440/200hz/1000 Nits und 10Bit wurden ja alle auf Anfang 2018 verschoben, da ist man wohl mit der momentanen Bildqualität für 2000€ wohl auch nicht zufrieden. :freak:

BTB
2017-08-18, 01:11:03
Konsole + TV hat kein Problem mit gutem HDR.

PC + Monitor scheint nichts in Sachen HDR gebacken zu bekommen, woran liegt das?

Die Frage die sich mir nach dem Video stellt, wieviel HDR ist das auf einem einfachen HDR TV dann wirklich? So richtig HDR bedarf dann wohl doch mehr Nits, alles andere ist mehr oder weniger geschickte Dynamikkompression.

Ectoplasma
2017-08-18, 07:03:48
Lies dir doch einfach mal den Text der Review durch, der Reviewer bestätigt, das HDR Bild vor ihm auf dem HDR Monitor auch so aussieht.

Es sieht aber auf dem SDR Vergleichsbild nicht so aus! Dort müsste es nämlich überstrahlt sein. Also was soll so ein komisches Foto, bei dem man eindeutig sieht, dass ein Tonemapper zum Einsatz kam?

Ectoplasma
2017-08-18, 07:08:52
Sind die Fotos vertauscht?

Sind sie nicht. Nochmal. Ein Vergleich HDR vs. SDR auf einem SDR Monitor zu zeigen ist Schwachsinn. Das ist genau so, als würde man dir die Vorzüge eines Farbfernsehers, auf einem Schwarzweissgerät versuchen zu demonstrieren.

Ex3cut3r
2017-08-18, 07:44:27
Es sieht aber auf dem SDR Vergleichsbild nicht so aus! Dort müsste es nämlich überstrahlt sein. Also was soll so ein komisches Foto, bei dem man eindeutig sieht, dass ein Tonemapper zum Einsatz kam?

Wär mir neu das jetzt SDR immer überstrahlt wäre.

Das einzige was Schwachsinn ist, sind User die immer noch HDR in der jetzigen Form gut heißen, lächerlich.

SamLombardo
2017-08-18, 09:27:08
Konsole + TV hat kein Problem mit gutem HDR.

PC + Monitor scheint nichts in Sachen HDR gebacken zu bekommen, woran liegt das?
Das liegt nicht am PC, sondern allenfalls an den unzureichenden Monitoren. Ich habe meinen PC am 65B6D OLED und das HDR steht dem auf Konsole in nichts nach. Im Gegenteil, durch die 4K Auflösung ist diese Lösung jeder Konsole überlegen. Mass Effect Andromeda mit HDR in echtem 4k auf dem OLED ist nichts weiter als ein Erlebnis. Gleiches gilt für Resident Evil 7. Also wie gesagt, am PC liegt das definitiv nicht.

Ectoplasma
2017-08-18, 09:41:08
Wär mir neu das jetzt SDR immer überstrahlt wäre.

Wenn du HDR Content auf einem SDR Fernseher ausgeben willst, ist es in der Regel überstrahlt, es sei denn, du machst ein Tone-Mapping. Wenn du mit einer SDR Kamera ein Foto von einem HDR Monitor machst, dann sollte das Foto überstahlt sein. Zumindest sollte ja der Kontrast, also die dunkelste Stelle gegenüber der hellsten Stelle in einer Scene, deutlich höher als bei SDR sein. Die Qualitäten eines HDR-Fernsehehers, kann man also nur im Realen mit den eigenen Augen sehen. Aber dazu müsste man ja raus gehen, was vielen offenbar schwer fällt.


Das einzige was Schwachsinn ist, sind User die immer noch HDR in der jetzigen Form gut heißen, lächerlich.

Das Thema HDR kam bereits vor 20 Jahren auf. Wenn die Endgeräte (Monitore/Fernseher) schlecht sind, kann das Konzept ja nichts dafür. In der Filmindustrie und Fotografie kommt das Thema ja auch erfolgreich zum Einsatz.

Ich kann nur raten, sich einmal richtig damit zu beschäftigen, wenn man nicht wie ein Flat-Earther klingen will.

Kartenlehrling
2017-08-18, 09:51:01
@SamLombardo
Also ich weiß von mindesten 4 Firmware update die sich um HDR handeln bei deinem 65B6D OLED ,
zb. auch PS4pro Verbindungsproblem (HDCP), heutige Monitor brauchen umbedingt die Möglichkeit über ein usb-firmware updates.
Meinen MG279Q musste ich damals einschicken bzw. wurde getauscht.

SamLombardo
2017-08-18, 10:55:12
@SamLombardo
Also ich weiß von mindesten 4 Firmware update die sich um HDR handeln bei deinem 65B6D OLED ,
zb. auch PS4pro Verbindungsproblem (HDCP), heutige Monitor brauchen umbedingt die Möglichkeit über ein usb-firmware updates.
Meinen MG279Q musste ich damals einschicken bzw. wurde getauscht.
Das ist ein sehr guter Punkt. Damit hast du völlig Recht. War mir so noch gar nicht bewusst.

dildo4u
2017-08-19, 19:41:21
F1 2017 unterstützt HDR am PC.

https://youtu.be/NQuecOVZobM?t=7m30s

Kein Plan was er da labert aber warum sollte es im Option Menü sein wenn es nicht geht.

Schnoesel
2017-08-20, 11:19:53
Die Gsync 2 Monitore mit UHD/3440x1440/200hz/1000 Nits und 10Bit wurden ja alle auf Anfang 2018 verschoben, da ist man wohl mit der momentanen Bildqualität für 2000€ wohl auch nicht zufrieden.

Der Asus PG35VQ bzw Acer X35 auch? Ich dachte es hat bisher nur die UHD Monitore betroffen?!

Kartenlehrling
2017-08-20, 11:38:11
Die Gsync 2 Monitore mit UHD/3440x1440/200hz/1000 Nits und 10Bit wurden ja alle auf Anfang 2018 verschoben, da ist man wohl mit der momentanen Bildqualität für 2000€ wohl auch nicht zufrieden.

Vielleicht liegt es aber auch einfach am G-sync Modul das von Nvidia kommt, erste hatte nur 1x DP1.2,
bei der zweiten version hat man nur Kühler vergrössert, bei der dritten Version ist HDMI1.4b dazugekommen,
nun brauch man halt DP1.4 und HDMI2.0b oder gar HDMI2.1 ?

Ex3cut3r
2017-08-20, 15:40:57
Der Asus PG35VQ bzw Acer X35 auch? Ich dachte es hat bisher nur die UHD Monitore betroffen?!

Soweit ich weiß, ja auch diese. Quelle verlinke ich später. Wenn ich Sie denn finde.

Vielleicht liegt es aber auch einfach am G-sync Modul das von Nvidia kommt, erste hatte nur 1x DP1.2,
bei der zweiten version hat man nur Kühler vergrössert, bei der dritten Version ist HDMI1.4b dazugekommen,
nun brauch man halt DP1.4 und HDMI2.0b oder gar HDMI2.1 ?
Schwer zu sagen aus der ferne, was der Grund sein könnte. Aber ja vlt. hast du recht.

dildo4u
2017-08-21, 13:22:28
Final Fantasy 15 PC mit HDR 10 Support:


integrating HDR10 for superior brightness, color and contrast on compatible TVs and G-SYNC HDR monitors,


https://www.geforce.com/whats-new/articles/final-fantasy-xv-windows-edition-4k-trailer-nvidia-gameworks-enhancements

Kartenlehrling
2017-09-02, 16:38:43
Wie der Technical Art Director Matt Allen gegenüber Gamesindustry.biz erklärte, war es recht einfach, das Spiel auf der kommenden Microsoft-Konsole zum Laufen zu bringen. "Was die Inhalte betrifft, hat es nicht lange gedauert, bis es lief. Von einem Entwickler-Standpunkt teilt die Konsole viel DNA mit Windows 10 und wir nutzen bereits Windows 10 - unser Engineering Director benötigte einen Tag, um es auf den ursprünglichen Scorpio-Kits lauffähig zu machen."

Zwar lief Mittelerde: Schatten des Krieges dann noch nicht perfekt und es gab an manchen Stellen Probleme, die etwas "Herumspielen" notwendig machten, aber es sei nicht viel zusätzliche Arbeit gewesen. Viel "Herumspielen" sei vor allem deswegen notwendig gewesen, um spezielle Features wie HDR auf der Xbox One X zu unterstützen und das Spiel entsprechend anzupassen.

Laut Allen wurde das Physically Based Rendering in Mittelerde: Schatten des Krieges mit einem Standard-Farbbereich entwickelt und mit HDR sähen die Farben nicht korrekt aus, da es dann viel mehr davon gibt. Daher habe es rund einen Monat gedauert, um die Beleuchtung zu korrigieren. Die Arbeit wurde also nicht direkt durch die Xbox One X verursacht, sondern durch die zuvor fehlende HDR-Unterstützung, die wohl auch bald bei PC-Spielen eine Rolle spielen wird.
http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/Xbox-One-X-Viel-Windows-10-DNA-laut-Entwickler-Mittelerde-Schatten-des-Krieges-1237631/

DanMan
2017-09-02, 18:49:46
Das klingt für mich als würde die PC Version zumindest vorerst ohne HDR daherkommen. :(

24p
2017-09-02, 19:10:07
Naja, da die Local Dimming HDR Monitore erst Juni 2018 kommen dürfte das kaum einen stören. Mit HDR am PC ist es erstmal nichts. Hier rächt sich eben, dass die Monitore so weit im Hintertreffen sind.

DanMan
2017-09-02, 19:32:30
Naja, da die Local Dimming HDR Monitore erst Juni 2018 kommen dürfte das kaum einen stören. Mit HDR am PC ist es erstmal nichts. Hier rächt sich eben, dass die Monitore so weit im Hintertreffen sind.
Mein HDR TV langweilt sich aber, und solche 3rd Person Action-Adventure Spiele lassen sich wunderbar auf der Couch mit Gamepad spielen. Ist ja auch kein Wald und Wiesen Developer, und die Hauptarbeit ist ja das Umstellen des Renderings. Die Metadaten dann an die Anzeige übergeben ist garantiert nicht mehr als 1 Tag Arbeit.

Immerhin geht die einfache Portierbarkeit ja in beide Richtungen. Es könnte also ja noch kommen auf dem PC.

Ex3cut3r
2017-09-02, 19:56:38
Irgendwie schon fast grotesk. Erst ist/war DX12 ein Fail und HDR auf dem PC blüht wohl das gleiche Schicksal. wtf.

Kartenlehrling
2017-09-04, 22:32:07
c't: Ist HDR wichtiger als 4K? Einblicke und Ausblicke

Hollyshit labert die Ulrike Kuhlmann von CT sich einen Sche`ß zusammen, (https://youtu.be/mQ9_lX7wR1w?t=584)
und dann hat Sie auch noch eine unangenehme Stimme.


Noch ein paar Stimmen :)

https://www.youtube.com/watch?v=v_Ql4IO4kKA
HDR10+, Dolby Vision, Active HDR & Co.: video klärt auf

https://www.youtube.com/watch?v=_pijypdlPPg
IFA 2017 - Diskussion & Meinungen zu 4K, HDR, HDR10+ & Dolby Vision

https://www.youtube.com/watch?v=nZ3tpNeDOns
Why HDR10 Plus? Panasonic explains @ IFA 2017

DanMan
2017-09-05, 00:05:16
Hollyshit labert die Ulrike Kuhlmann von CT sich einen Sche`ß zusammen, (https://youtu.be/mQ9_lX7wR1w?t=584)
und dann hat Sie auch noch eine unangenehme Stimme.
Jo, war keine Glanzleistung wenns um die harten Fakten ging. Die Zielgruppe scheint eben der Opa im Publikum mit seinen "10 Kanälen" statt 10bit zu sein.

gravitationsfeld
2017-09-05, 00:05:18
Ich hab jetzt zehn Minuten zugehoert und es war keine "Scheisse". Was passt dir denn nicht?

Was Spiele angeht: Es wird noch Jahre dauern bis Spiele wirklich fuer HDR gemastert sind. Das zieht sich durch die gesamte Produktion. Das einzige was wir im Moment sehen ist eine Anpassung des Tone-Mappings ganz am Ende.

Jupiter
2017-09-05, 00:30:41
Was ist denn daran was gesagt wird, verwerflich?

Mir gefällt das sie cd/m² nutzt. Nits wird m.E. nur von Anfängern/N00bs verwendet, welche keine Ahnung von der Materie haben oder noch nie selbst nachgemessen haben. Ich nutze schon immer cd/m². Der Vergleich von Nits mit Fuß und Pfund war auch gut.

DanMan
2017-09-05, 00:51:14
Bei HDR spricht man nicht von "Gammakurve" sondern (PQ) EOTF
Sie hatte keine Ahnung welche GPUs HDR unterstützen
Sie wusste nicht, dass DV schon von HDR 1.4 unterstützt wird /werden kann
Die HDR Premium Spezi. für OLEDs sieht nicht 450 sondern 540 cd/m2 vor
Sie konnte nicht wirklich sagen, warum es HLG gibt


Und noch ein paar Sachen, an die ich mich nicht mehr erinnere. Für die Chip oder Computer Bild geht das in Ordnung, für die c't nicht. Meine Meinung.

Jupiter
2017-09-05, 01:09:19
Ich las die c't nie aber ich kannte andere Printmagazine wie Audio, HDTV Magazin (auf Youtube digitalfernsehen.de) und Audiovision, welche alle katastrophal waren.

Nach der Audiovision z.B. hat ein W955B mit einem In-Bild-Kontrast von 855:1 Hobby-Cineasten glücklich gemacht. Das ist ein schlechter Kontrast, welcher sogar mehr als viermal unterhalb eines Standard VA Panel-Fernsehers liegt. Dabei war die Audiovision mal besser.

24p
2017-09-05, 07:26:07
Die AV misst bei einem OLED ja auch einen ANSI Kontrast von 2000:1. Die wissen offenbar nicht, dass da vom ANSI-Pattern eben Restlicht mit in den Sensor kommt.

Thomas Gräf
2017-09-05, 12:19:51
Irgendwie schon fast grotesk. Erst ist/war DX12 ein Fail und HDR auf dem PC blüht wohl das gleiche Schicksal. wtf.

Hja das Henne-Ei Problem. Dabei heißt es ganz klar Software sells Hardware.
Aber auf moderne oder gar innovative Software im Consumer Berreich kannste nur hoffen.

Jupiter
2017-09-05, 17:33:31
Die AV misst bei einem OLED ja auch einen ANSI Kontrast von 2000:1. Die wissen offenbar nicht, dass da vom ANSI-Pattern eben Restlicht mit in den Sensor kommt.

Danke für die Information. Sah keinen AV Test mehr mit OLEDs.

Sie empfohlen die Helligkeit eines Panasonic Plasmas auf +20 zu erstellen (richtig währe bei dem Modell etwas im Bereich von -1 bis 0 gewesen), damit der Kontrast erhöht wird. Dabei dient die Helligkeitseinstellung bei solchen Geräten normalerweise nur dazu, den Schwerpunkt richtig zu setzen. Das war denke ich das letzte Mal das ich eine kaufte.

Kartenlehrling
2017-09-09, 14:48:58
Neben höheren Auflösungen wie 4K gilt vor allem HDR als Feature aktueller Konsolen, das die visuelle Darstellung verbessert.
Bei der Xbox One X ist die Umsetzung von HDR für die Entwickler anscheinend etwas aufwändiger als bei der Playstation 4 Pro,
weil neben dem HDR-Bild auch eines ohne HDR bereitgestellt werden muss.

http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/News/HDR-benoetigt-mehr-Aufwand-als-bei-der-Playstation-4-Pro-1238179/

DanMan
2017-09-17, 11:18:26
Zum Samsung CHG70:

4KjIPAJXxNM

Er liegt mit den Begriffen des öfteren daneben.

Kartenlehrling
2017-09-17, 17:29:19
Wenn ich schon wieder lese was hier für Bullshit verbreitet wird.
Ich hab am PC aktuell nur 2 HDR Spiele, Mass Effect Andromeda und Redout, allzu viele gibt es ja nicht.
Und bei beiden ist die Performance mit oder ohne HDR in etwa gleich.

Hier blubbern ein paar Leute was von 20% Performanceverlust und nennen nicht mal den entsprechenden Titel. Danach wird es dan sofort auf alle anderen HDR Spiele übertragen.
Es ist ja schließlich absolut unmöglich, dass dies ja ein Softwarefehler, Treiberbug, Windowsfehler oder eine Kombination von all denen ist, was nur einen einzigen Titel betrifft.
Aber klar, die 1080Ti verliert 20% Performance bei HDR. :rolleyes: Jeder Mensch der auch nur ein wenig Sachverstand mit diesen Thema hat und zu mindestens noch teilweise klar im Kopf ist, sollte wissen das die technisch unmöglich ist.

Und ja HDR am PC ist eine einzige Baustelle. Seit den Creators Update funktioniert es z.B. bei Mass Effect Andromeda nicht mehr richtig. Gibt nen ewig langen Thread im Bioware Forum. Mit der Beta Version vom Fall Creators Update was im Oktober kommen soll, scheint es wieder zu funktionieren.
Die Sache ist auch relativ frisch, aber Pascal 10bit -> minus ~20% Leistung ist bereits bestätigt. 12bit sogar 25% oder mehr Verlust.
These:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11454348&postcount=11

Messung:
http://www.gamestar.de/artikel/der_technik_trend_2016,3271227,seite2.html

Bildqualität und Farbübergänge hängen unmittelbar mit der color compression zusammen ;)


Ich habe das auch gelesen das die AMD bzw. Playstation4 HDR Übertragung Leistungsschonender arbeite,
aber das soll daran liegen das die Xbox DX12-HDR und Nvidia-HDR beide version buffern, das SDR- und HDR- Material,
die Playstation4 und anscheindend AMD legen nur ein Datenpaket ab.

SamLombardo
2017-09-29, 11:44:28
Gibt es denn Ankündigungen für weitere PC Spiele mit HDR Unterstützung? Final Fantasy 15 ist mir bisher nur bekannt. Sonst noch was?

Danke schonmal.

dildo4u
2017-09-29, 12:08:40
Neu raus oder angekündigt sind Destiny 2,Forza 7,Battlefield 1 und ich schätze mal Battlefront 2 bekommt es dann auch.

SamLombardo
2017-09-29, 14:05:48
Neu raus oder angekündigt sind Destiny 2,Forza 7,Battlefield 1 und ich schätze mal Battlefront 2 bekommt es dann auch.
Danke:wink:

dildo4u
2017-10-13, 18:31:00
[4K HDR] Gran Turismo Sport Analysis: HDR's Killer App!

https://youtu.be/FDkWwX3Id98

gedi
2017-10-13, 19:16:33
HDR in Forza ist auf Vega quasi umsonst. Auf einer 1080Ti ist es teuer und macht sich in grottigen Frametimes bemerkbar. Wie bereits in einem anderen Thread angemerkt, ist 10-Bit auf einer Geforce generell teuer, auf AMD umsonst (eine schlüssige Erklärung konnte auch Google nicht geben). Ausgabegerät, Settings und Kabel -> alles gleich

dildo4u
2017-10-13, 19:50:09
Hast du das Fall Creator's Update's drauf da wurde wohl am HDR Support gedreht es gibt jetzt Einstellungen im Windows.

https://pureinfotech.com/windows-10-fall-creators-update-best-new-features/#best_feature_hdr_support

Ex3cut3r
2017-10-13, 21:31:33
HDR in Forza ist auf Vega quasi umsonst. Auf einer 1080Ti ist es teuer und macht sich in grottigen Frametimes bemerkbar. Wie bereits in einem anderen Thread angemerkt, ist 10-Bit auf einer Geforce generell teuer, auf AMD umsonst (eine schlüssige Erklärung konnte auch Google nicht geben). Ausgabegerät, Settings und Kabel -> alles gleich

Frag doch mal Blaire?! Vlt. kann er etwas dazu sagen? Oder in einen zukunftigen Treiber Fixen/anpassen...

gedi
2017-10-13, 23:50:11
Hast du das Fall Creator's Update's drauf da wurde wohl am HDR Support gedreht es gibt jetzt Einstellungen im Windows.

https://pureinfotech.com/windows-10-fall-creators-update-best-new-features/#best_feature_hdr_support

Als Insider habe ich die 1709 schon eine Weile drauf. Aber abseits dessen, der HDR-Effekt ist wirklich schick. Forza bei Sonnenuntergang - sieht echt gut aus. Auch ein RES7 profitiert imo enorm. Ich persönlich freue mich auf kommende Titel.

DanMan
2017-10-14, 00:40:09
Ich persönlich freue mich auf kommende Titel.
Ich warte ständig drauf, dass Hellblade einen HDR Patch herausbringt. Sie hatten das mal angedeutet, dass sie das interessant fänden...

Gast
2017-10-16, 03:53:46
Frag doch mal Blaire?! Vlt. kann er etwas dazu sagen? Oder in einen zukunftigen Treiber Fixen/anpassen...

10bit pro Kanal sind 30bit pro pixel, also bedeutend höher als 24bit color aka 8bit pro Kanal. Logisch dass weniger fps. bei gleicher Leistung gerendert werden.

Dass Nvidia davon hart betroffen ist, wundert mich nicht, da deren Treiber die Farben härter komprimiert um Bandbreite zu sparen. Auch bei AMD gibt es fps. Einbußen, wenn auch nur unbedeutend gering, da AMD die Farben nicht so hart komprimiert.

HDR kostet immer.

Kartenlehrling
2017-10-21, 18:28:09
Erster HDR Monitor mit 1000nits Local Dimming (384 Zonen), leider nur 60Hz/2160p.

https://geizhals.de/dell-ultrasharp-up2718q-a1662521.html?hloc=de
Dell UltraSharp UP2718Q, 27" ab € 1858,95

http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-HDR-1241578/
HDR-Eindrücke mit einem Dell Ultrasharp UP2718Q 4K-HDR-Display

24p
2017-10-21, 19:00:50
2000€. Und dann auch nur ein IPS Panel. Das gibt sicher Halos direkt aus der Hölle.

Ectoplasma
2017-10-23, 11:36:30
http://www.pcgameshardware.de/Mittelerde-Schatten-des-Krieges-Spiel-60746/Specials/Mittelerde-Schatten-des-Krieges-HDR-1241578/
HDR-Eindrücke mit einem Dell Ultrasharp UP2718Q 4K-HDR-Display

Das ist keine gute Werbung für HDR, wenn da wieder nur ein mieser Tone-Mapper zu sehen ist. Aber egal, richtiges HDR bekommt man eh nur zu Gesicht, wenn man real vor einem HDR Monitor sitzt.

TobiWahnKenobi
2017-10-23, 11:45:46
wenn ich mir die preise angucke, kann das am schreibtisch in naher zukunft nur ne niesche bleiben.
ich für meinen teil zumindest plane kein monitorupgrade.


(..)

mfg
tobi

Ex3cut3r
2017-10-23, 13:45:12
Jo, dazu kommt noch, dass der Dell doch eher Pseudo HDR bietet, ist das mal wieder Dells lächerliches HDR mit 8-Bit? Mit diesem Extrem Banding in der Sonne. Und wenn das nur von der Kamera kommt, so ein richtiges Must Have Feature ist ja wohl nicht, wenn man selbst mit ReShade ein ähnliches Bild zustande kommt...Spätestens mit dem Preis ist es dann einfach nur lächerlich.

Dolby Vision + OLED ist imo das bessere HDR. Nur das wird wohl in den meisten PC Games nicht kommen. Man könnte auch auf HDR 2 mit 12Bit warten.

Ectoplasma
2017-10-23, 14:26:15
... so ein richtiges Must Have Feature ist ja wohl nicht, wenn man selbst mit ReShade ein ähnliches Bild zustande kommt...

Sag ja, du musst halt real davor sitzen. Was ReShade angeht (anderer Name für Tonemapping?), so bekommt man diesen Effekt sowieso seit Jahren so hin. Da reichen selbstverständlich auch 8-Bit locker aus. Die sollten mal lieber etwas gegen das Banding unternehmen. Das würde beim Kunden zunächst viel besser ankommen, als irgendwelche Pseudo HDR Effekte. Auch dafür braucht man natürlich mehr Bits pro Farbkanal. Dann noch HDR und schon brauchst du wieder mehr Bits. Ganz real kommt man bei mindestens 16-Bit pro Farbkanal an und nicht diese lächerlichen 10-Bit.

gravitationsfeld
2017-10-23, 15:29:49
10bit pro Kanal sind 30bit pro pixel, also bedeutend höher als 24bit color aka 8bit pro Kanal. Logisch dass weniger fps. bei gleicher Leistung gerendert werden.

Dass Nvidia davon hart betroffen ist, wundert mich nicht, da deren Treiber die Farben härter komprimiert um Bandbreite zu sparen. Auch bei AMD gibt es fps. Einbußen, wenn auch nur unbedeutend gering, da AMD die Farben nicht so hart komprimiert.

HDR kostet immer.

Nein. Alles falsch. Die Ausgabe in ein 32-Bit-Target am Ende hat null Auswirkungen auf die Performance. Da ist was anderes im Busch.

Ectoplasma
2017-10-23, 15:51:42
Nein. Alles falsch. Die Ausgabe in ein 32-Bit-Target am Ende hat null Auswirkungen auf die Performance. Da ist was anderes im Busch.

Meinte er nicht eher die interne Verarbeitung (wahrscheinlich mit dem Fließkommadatentyp 'half')? Welches uminöse 32-Bit Target ist gemeint? RGBA 8-Bit oder 32-Bit pro Kanal?

dildo4u
2017-10-24, 16:44:43
Assassin's Creed Origins bekommt HDR support im November:

https://assassinscreed.ubisoft.com/game/en-us/news/152-304606/assassins-creed-origins-launch-essentials

gedi
2017-10-24, 20:48:28
Meinte er nicht eher die interne Verarbeitung (wahrscheinlich mit dem Fließkommadatentyp 'half')? Welches uminöse 32-Bit Target ist gemeint? RGBA 8-Bit oder 32-Bit pro Kanal?

Naja so ähnlich - einfach ausgedrückt Treibersetting: 10-Bit (12-Bit kann man bei einer Geforce komplett vergessen) bei einem Pixelformat von YCbCr 4:2:2. Mit diesem Settings spielst du dann ein HDR-Spiel = Geforce bricht ein, Radeon eigentlich unbeeindruckt!

gravitationsfeld
2017-10-27, 17:19:00
Meinte er nicht eher die interne Verarbeitung (wahrscheinlich mit dem Fließkommadatentyp 'half')? Welches uminöse 32-Bit Target ist gemeint? RGBA 8-Bit oder 32-Bit pro Kanal?
Jede Engine rendert in hoeherer Praezission bis zum Tone-Mapping. Daran aendert sich durch HDR-Output ueberhaupt nichts.

Kartenlehrling
2017-10-30, 10:09:03
PCGH.de hat mal eine HDR-PC Liste erstellt, man kommt da auf 20 Titel.


Wer einen Monitor mit HDR-Unterstützung und eine aktuelle Grafikkarte sein Eigen nennt,
kann den höheren Dynamikumfang bald in 20 Spielen bewundern.
Das ist noch nicht die Welt, immer mehr große Entwicklerstudios unterstützen HDR jedoch direkt zum Start.
Die Auswahl an HDR-fähigen Monitoren lässt allerdings noch zu wünschen übrig.
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/PC-Spiele-mit-HDR-Support-1241581/

DanMan
2017-10-30, 13:43:44
PCGH.de hat mal eine HDR-PC Liste erstellt, man kommt da auf 20 Titel.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/PC-Spiele-mit-HDR-Support-1241581/
Da ich "nur" einen HDR TV habe, interessieren mich eigentlich nur die, die man auch gut mit Gamepad spielen kann. Daher würde ich mir gerne Middle-earth: Shadow of War zulegen, aber da besteht die Möglichkeit, dass das noch für Linux kommt, und darum möchte ich noch warten. Auch wenn dort das HDR vermutlich gar nicht funktioniert. Einfach damit Feral zu ihrem Geld kommt.

Ansonsten hab ich davon nur Shadow Warrior 2 und Mass Effect: Andromeda gespielt. Unterschied war klar zu erkennen.

Der Tooltip auf PCGW lässt auch zu wünschen übrig: "Game supports expanded color space on HDR-compatible displays".

SentinelBorg
2017-10-31, 15:05:46
Die PC-Welt hat einen Acer Predator X27 Prototyp bekommen: https://www.pcwelt.de/videos/Acer-Predator-X27-Die-DREI-4K-144Hz-Gaming-Monitore-der-Hoellenmaschine-8-10270457.html

Leider noch nicht wirklich ein Test.

DanMan
2017-10-31, 16:44:53
Die PC-Welt hat einen Acer Predator X27 Prototyp bekommen: https://www.pcwelt.de/videos/Acer-Predator-X27-Die-DREI-4K-144Hz-Gaming-Monitore-der-Hoellenmaschine-8-10270457.html

Leider noch nicht wirklich ein Test.
Helligkeit: 300cd/​m² IPS, also nur was für den "Bessere Monitore" Thread. Mit HDR hat das nix zu tun.

Kartenlehrling
2017-10-31, 17:03:24
Acer hat einen Prototypen des Premium-Gaming-Monitors Predator X27 kurzzeitig zur Verfügung gestellt
Da der Acer Predator X27 erst Anfang 2018 erscheint, erhält der Gewinner übergangsweise 3 Stück des 4K/UHD@60Hz-Modells Predator XB271HK,

? @DanMan der kommt mit 1000nits und Direct-LED, 384 zones Dimming.

Die Spezifikationen des Acer Predator X27:

Display-Größe: 27 Zoll (16:9), 597 × 336 mm
Panel-Typ: IPS, Quantum-Dots , 384 zones
Maximale Auflösung: 3.840 × 2.160 @ 144 Hz, 10 Bit
Reaktionszeit: 4 ms
Kontrastverhältnis: 100.000.000:1
Maximale Helligkeit: 1.000 cd/m²
Blickwinkel: 178/178° (horizontal/vertikal)
Farbskala: 99% Adobe RGB / 130% sRGB / 96% DCI-P3
Farben: 1,7 Milliarden
Input-Signal: 1 × HDMI 2.0, 2 × Displayport 1.4
Lautsprecher: 2 × 7 Watt
Höhenverstellbarkeit: 115 mm

Was ich nicht verstehe das nur ein HDMI2.0(B) verbaut wird, aber dafür 2x DP1.4.

Troyan
2017-10-31, 18:55:09
Wieviel mehr HDMI Anschlüsse sollen es denn für einen PC-Monitor sein?!

DanMan
2017-10-31, 19:14:40
? @DanMan der kommt mit 1000nits und Direct-LED, 384 zones Dimming.

Was ich nicht verstehe das nur ein HDMI2.0(B) verbaut wird, aber dafür 2x DP1.4.
Ah, verpeilt. Sorry. Dann stehen ja nur noch die 2k EUR im Weg. Wenn ich mir anschaue, was ich dafür schon für TVs bekomme, da können mir die 144Hz doch gestohlen bleiben. Aber muss jeder selber wissen.

Mandalore
2017-11-04, 00:56:41
Laut Arstechnica steckt im iPhone X ein 8 Bit Panel, anstelle eines 10 bzw. 12 Bit Panels (gibts die 12 überhaupt schon?)




Das wäre aber doch komisch, da man dies als Trick bei HDR10 noch durchkommen lassen könnte, aber DV setzt doch mindestens ein 10 Bit Panel voraus für die Zertifizierung?

dildo4u
2017-11-11, 13:25:54
Battlefield 1 unterstützt jetzt neben HDR 10 Dolby Vision.

https://www.battlefield.com/de-de/news/update-notes/operation-campaigns-update

Kartenlehrling
2017-11-11, 13:58:45
Wieso machen die das?
Das macht überhaupt keinen Sinn.?!!!

DanMan
2017-11-11, 14:34:01
Wieso machen die das?
Das macht überhaupt keinen Sinn.?!!!
Jo, ich verstehe auch nicht inwiefern das irgendeinen Vorteil bei dynamisch generierter Grafik haben soll. Ist ja nicht wie bei einem Film, wo am Ende ein unveränderliches Produkt herauskommt, das einfach nur noch abgespielt wird. Bei Spielen kann man ja das Tonemapping jederzeit ändern. Dazu würde ich gerne mal einen technischen Artikel lesen.

24p
2017-11-11, 14:50:03
Naja, ich denke mal dass es genau so nicht funktioniert. Der Renderer bekommt eine fixe max Helligkeit (sagen wir mal 4000 nits) und rendert das dann bzw tonemapped bis dort hin. Das ganze ist dann aber eben fix. Mit DV wird es dann erst möglich die Metadaten dynamisch zu ändern. Mit HDR10 geht eben genau das nicht.

DanMan
2017-11-11, 18:02:33
Naja, ich denke mal dass es genau so nicht funktioniert. Der Renderer bekommt eine fixe max Helligkeit (sagen wir mal 4000 nits) und rendert das dann bzw tonemapped bis dort hin. Das ganze ist dann aber eben fix. Mit DV wird es dann erst möglich die Metadaten dynamisch zu ändern. Mit HDR10 geht eben genau das nicht.
Ok, aber warum soll man das dann als Dev. per DV Metadaten und nicht einfach per Tonemapping im Spiel selbst machen? Schließlich muss man HDR10 ja sowieso unterstützen, weil es der de-facto Standard ist.
Da liegt doch auch der Unterschied zu einem Video - dass es eben nicht vorgerendert ist, sondern auf der Hardware beim Spieler gerendert wird. Man kann doch bestimmt alles was DV sonst macht auch im Spiel selbst durchführen, oder nicht?

Was macht denn DV? Es sorgt dafür, dass v.a. auf nicht so dollen HDR Displays der Dynamikumfang immer möglichst weit ausgereizt wird. Letztendlich indem der Szenenkontrast auf den möglichen Kontrast des Bildschirms gedehnt wird (bis zu einem gewissen Grad), oder nicht?

Im Prinzip nichts anderes als wenn man per-Track ReplayGain auf ein Musikalbum anwendet, oder? Bin da nicht so sicher, ob ich das überhaupt gut finde... Verfälscht doch den Gesamteindruck des Spiels/Albums. Oder hab ich was falsch verstanden?

Jedenfalls, da man den Dynamikumfang des Displays ja durch die HDR10 Metadaten kennt, kann man doch die Spielszenen auch bei HDR10 per Tonemapping im Spiel selbst anpassen. Wozu noch DV? Der einzige Grund, der mir da einfällt ist, dass der Dev. sagen kann "lass DV das machen, dann muss ich mich nicht drum kümmern".

Kartenlehrling
2017-11-11, 18:18:43
Bei Beitrag vor einem Jahr sind einige punkte zu freesync2 die es wohl auch erklären.

Das eigentliche Highlight von FreeSync 2 ist jedoch ein neues Feature.
Es gibt hohe „HDR-Anforderungen“ für FreeSync 2

Sämtliche FreeSync-2-Monitore müssen nämlich mit HDR umgehen können. Viele Monitore dürfen sich in Zukunft „HDR-tauglich“ nennen, da es quasi keine festen Spezifikationen beziehungsweise kaum Minimalanforderungen an die Displays gibt. So muss ein Display zum Beispiel nur einen etwas größeren Farbraum als sRGB unterstützen, der aber noch weit vom maximal möglichen BT.2020-Farbraum entfernt ist. Mit FreeSync 2 soll dies anders sein. Wer ein FreeSync-2-Zertifikat von AMD haben möchte, muss Kriterien bezüglich Farbraum sowie maximaler Helligkeit erfüllen. Damit soll sichergestellt werden, dass eine gewisse Mindestqualität bei den entsprechenden Modellen gewährleistet wird. AMD spricht von mindestens der doppelten Helligkeit und dem doppelten Farbumfang als sRGB. Genauere Details dazu gibt es aber noch nicht.
Ein FS2-Monitor hat einen niedrigen Input-Lag bei HDR-Spielen

Darüber hinaus sollen FreeSync-2-zertifizierte Monitore einen geringeren Input-Lag haben als normale HDR-Monitore.
Bei der klassischen HDR-Wiedergabekette auf dem PC werden zwei verschiedene Tone Mapper genutzt.
Der erste ist das Spiel selbst, der die gerenderte Grafik zum Beispiel für den HDR10- oder den Dolby-Vision-Standard umsetzt.
Da allerdings selbst kein zukünftiger Monitor auch nur annähernd komplett dem HDR10-Farbraum entspricht, muss der Monitor ein eigenes,
zweites Tone Mapping nutzen, um das Bild den eigenen Fähigkeiten bezüglich des Farbraums anzupassen, was entsprechend Rechenzeit benötigt.
Das Tone Mapping des Monitors erhöht daher den Input Lag. Genau dieser soll mit FreeSync 2 in HDR-Spielen deutlich geringer ausfallen.

Denn bei FreeSync-2-kompatiblen Monitoren wird das Monitor-eigene Tone Mapping komplett wegfallen.
Dies ist möglich, da bereits der Spiel-eigene Tone Mapper genau nach den Anforderungen arbeitet, die das Display hat,
sodass dieser die ankommenden Daten nicht mehr umwandeln muss, sondern sofort darstellen kann.
Einen Haken hat diese Technik jedoch. Das Spiel muss FreeSync 2 unterstützen

Damit all dies funktioniert, muss der Monitor der Spiel-Engine exakt mitteilen, wie das Tone Mapping zu arbeiten hat. Diese Kommunikation findet über eine eigens entwickelte API statt, die das Spiel unterstützen muss. Sprich, nicht jedes Spiel, das mit HDR umgehen kann, unterstützt automatisch FreeSync 2. Die API muss zuerst in das Spiel integriert werden, was entsprechend Aufgabe des Spielentwicklers ist. Laut AMD ist die Integration schnell umzusetzen und man arbeitet bereits mit mehreren Entwicklern an der Integration. Wie die Verbreitung von FreeSync-2-Spielen tatsächlich sein wird, wird jedoch nur die Zeit zeigen können. Unterstützt das Spiel HDR, aber eben kein FreeSync 2, muss der Monitor hingegen ganz klassisch ein eigenes Tone Mapping einsetzen.

Darüber hinaus sieht die FreeSync-2-Spezifikation einen maximalen Input-Lag von mehreren Millisekunden vor, der unter allen Umständen eingehalten werden muss – es handelt sich dabei um den Lag, den die Monitorelektronik benötigt und nicht um den Lag, den das Panel beim Umschalten der Farben benötigt. Dadurch muss der Monitorhersteller auf eine entsprechend schnelle Elektronik achten, um das Zertifikat zu erhalten. Erneut gibt AMD aber auch diesbezüglich keinen genauen Wert an.
https://www.computerbase.de/2017-01/amd-freesync-2-hdr/

DanMan
2017-11-11, 21:20:25
// Maximum display luminance = desired max luminance of HDR content
// ([0x0001-0xFFFF] = [1.0 - 65535.0] cd/m^2)
NvU16 desired_content_max_luminance;
// Minimum display luminance = desired min luminance of HDR content
// ([0x0001-0xFFFF] = [1.0 - 6.55350] cd/m^2)
NvU16 desired_content_min_luminance;
// Desired maximum Frame-Average Light Level (MaxFALL) of HDR content
// ([0x0001-0xFFFF] = [1.0 - 65535.0] cd/m^2)
NvU16 desired_content_max_frame_average_luminance;

Wenn ich das weiß, dann kann ich auch meinen Tonemapper darauf ausrichten, da brauch ich kein Freesync 2 für.

Achill
2017-11-11, 22:34:28
Wenn ich das weiß, dann kann ich auch meinen Tonemapper darauf ausrichten, da brauch ich kein Freesync 2 für.

Stimmt natürlich, stattdessen braucht man die NVAPI um die Metadata zu holen und für den Treiber zu setzen ...


NVAPI Functions

Since metadata is a critical portion of utilizing UHD display outputs, NVIDIA has created
a set of NVAPI functions to handle the needed functionality. It is expected that native
OS functionality will eventually supersede these functions, but until that time and on
legacy operating systems this is the way to provide the data.

[..]

Querying Capabilities
Once a display has been identified, it can be queried for whether it supports HDR via
the NvAPI_Disp_GetHdrCapabilities function, which will fill out a structure describing the
properties of the display.

[..]

Setting Metadata
To enable HDR output and specify the mastering data to the display use the function
NvAPI_Disp_HdrColorControl.

aufkrawall
2017-11-11, 22:36:14
AMD hat auch eine eigene HDR Output-API, weil Microsofts Lösung zu spät kam und zu schlecht war/ist.

24p
2017-11-11, 23:03:31
Ok, aber warum soll man das dann als Dev. per DV Metadaten und nicht einfach per Tonemapping im Spiel selbst machen? Schließlich muss man HDR10 ja sowieso unterstützen, weil es der de-facto Standard ist.
Da liegt doch auch der Unterschied zu einem Video - dass es eben nicht vorgerendert ist, sondern auf der Hardware beim Spieler gerendert wird. Man kann doch bestimmt alles was DV sonst macht auch im Spiel selbst durchführen, oder nicht?

Was macht denn DV? Es sorgt dafür, dass v.a. auf nicht so dollen HDR Displays der Dynamikumfang immer möglichst weit ausgereizt wird. Letztendlich indem der Szenenkontrast auf den möglichen Kontrast des Bildschirms gedehnt wird (bis zu einem gewissen Grad), oder nicht?

Im Prinzip nichts anderes als wenn man per-Track ReplayGain auf ein Musikalbum anwendet, oder? Bin da nicht so sicher, ob ich das überhaupt gut finde... Verfälscht doch den Gesamteindruck des Spiels/Albums. Oder hab ich was falsch verstanden?

Jedenfalls, da man den Dynamikumfang des Displays ja durch die HDR10 Metadaten kennt, kann man doch die Spielszenen auch bei HDR10 per Tonemapping im Spiel selbst anpassen. Wozu noch DV? Der einzige Grund, der mir da einfällt ist, dass der Dev. sagen kann "lass DV das machen, dann muss ich mich nicht drum kümmern".

Der Dev kennt ja nicht deinen TV. Klar, wenn er grundsätzlich mit max 1000 nits rechnet kommt er für viele TVs so ganz gut hin. Aber dann gibts eben nur Details bis 1000 nits.
Ganz auf den Bildschirmkontrast wird der Szenenkontrast btw auch nicht immer ausgedehnt. Das wird nur dort getan, wo es der Hypothetische 4000 oder 10000 nits eben getan hätte, so dass man auch in Szenen, wo nicht die vollen Nits angezeigt werden müssen so nah wie möglich an das Orginal herankommt. Wichtig ist aber eben auch hier zu wissen, was der Monitor oder TV kann. Dass da für jeden Monitor ein extra HDR gegradet wird ist da eher unrealistisch.
Nachträglich geht das ganze btw aber schon, LG passt mit active HDR das Tonemapping für jedes Bild an (kann man ja gut analysieren). Das geht allerdings im Gamemode nicht (kostet halt Rechenzeit das Bild quasi in Echtzeit zu analysieren und anzupassen). Imo bleibt natives dynamisches HDR als Schnittstelle zwischen dem was der Grader will und der Fähigkeit des Displays die optimale Lösung. HDR10 ist per Design broken und nicht wirklich brauchbar. Ich tu mich mit dem Gedanken auch immer schwer, wesegen man nicht die Metadaten für jedes Bild extra anpasst, aber genau diese sinnlose Restriktion existiert da eben.

gedi
2017-11-11, 23:28:33
Der Dev kennt ja nicht deinen TV. Klar, wenn er grundsätzlich mit max 1000 nits rechnet kommt er für viele TVs so ganz gut hin. Aber dann gibts eben nur Details bis 1000 nits.
Ganz auf den Bildschirmkontrast wird der Szenenkontrast btw auch nicht immer ausgedehnt. Das wird nur dort getan, wo es der Hypothetische 4000 oder 10000 nits eben getan hätte, so dass man auch in Szenen, wo nicht die vollen Nits angezeigt werden müssen so nah wie möglich an das Orginal herankommt. Wichtig ist aber eben auch hier zu wissen, was der Monitor oder TV kann. Dass da für jeden Monitor ein extra HDR gegradet wird ist da eher unrealistisch.
Nachträglich geht das ganze btw aber schon, LG passt mit active HDR das Tonemapping für jedes Bild an (kann man ja gut analysieren). Das geht allerdings im Gamemode nicht (kostet halt Rechenzeit das Bild quasi in Echtzeit zu analysieren und anzupassen). Imo bleibt natives dynamisches HDR als Schnittstelle zwischen dem was der Grader will und der Fähigkeit des Displays die optimale Lösung. HDR10 ist per Design broken und nicht wirklich brauchbar. Ich tu mich mit dem Gedanken auch immer schwer, wesegen man nicht die Metadaten für jedes Bild extra anpasst, aber genau diese sinnlose Restriktion existiert da eben.


Sorry, aber ich glaube nicht dass du weißt wovon du da redest. Eine entsprechende Anpassung gibt es in jedem Spiel. Die Anzahl der nits ist primär unbedeutend, da das Setting subjektiv erfolgt.


Und zum markierten Punkt - :rolleyes:

24p
2017-11-11, 23:42:17
Nö. Das ist so. Daher gibt es ja auch DV und bald HDR10+. Bei 1000 Nits gemastertem Content geht auch HDR10, aber spätestens ab 4000 nits wird es unbrauchbar.
Die Anpassungen im Spiel sind nicht das gleiche wie dynamisches HDR. Ansonst kannst du ja mal gerne ausführen wie HDR10 im Spiel auf einmal dynamisches HDR wird. Völlig egal da wer wie subjektiv die max Nits setzt, diese Metadaten sind nunmal konstant und das Tonemapping des TVs muss sich daran ausrichten.

gedi
2017-11-12, 00:11:23
Nö. Das ist so. Daher gibt es ja auch DV und bald HDR10+. Bei 1000 Nits gemastertem Content geht auch HDR10, aber spätestens ab 4000 nits wird es unbrauchbar.
Die Anpassungen im Spiel sind nicht das gleiche wie dynamisches HDR. Ansonst kannst du ja mal gerne ausführen wie HDR10 im Spiel auf einmal dynamisches HDR wird. Völlig egal da wer wie subjektiv die max Nits setzt, diese Metadaten sind nunmal konstant und das Tonemapping des TVs muss sich daran ausrichten.

Da der Content im Spiel immer gleich bleibt, reicht auch ein Setting. Zumal eine dynamische Anpassung, insofern sie überhaupt etwas bringt, Unmengen an Rechenleistung verschlingt.

http://up.picr.de/30922232pq.jpg

24p
2017-11-12, 00:44:31
Damit hast du immer noch nur statisches Tonemapping. Nur eben angepasst auf einen Nits Wert. Und ja, das bringt etwas, deswegen ist dynamisches HDR auch so wichtig. Ich sehe auch nicht, dass DV da beim Spiel Rechenleistung kostet. Die Optimierung gemäß der dynamischen Metadaten erfolgt im TV, nicht im PC. Der liefert am Ende nur ein anderes HDR Format.

aufkrawall
2017-11-12, 01:05:59
Anders als bei Filmen müsste man wohl die Helligkeit eines Frames erst in einem zusätzlichen Rechenschnitt in Echtzeit ermitteln. madVR und mpv können das für HDR10-Material via Compute Shader. Hab nicht getestet, wie teuer das ist. Aber wohl nicht sehr.

DanMan
2017-11-12, 01:27:47
Stimmt natürlich, stattdessen braucht man die NVAPI um die Metadata zu holen und für den Treiber zu setzen ...
Siehe aufkrawall's Post. Außerdem war das Argument, dass ich dafür nicht extra Freesync 2 Hardware (Monitor) benötige, sondern das eben per Software für jeden HDR-Bildschirm regeln kann.
Der Dev kennt ja nicht deinen TV. Klar, wenn er grundsätzlich mit max 1000 nits rechnet kommt er für viele TVs so ganz gut hin. Aber dann gibts eben nur Details bis 1000 nits. ... Dass da für jeden Monitor ein extra HDR gegradet wird ist eher unrealistisch.
Wieso nicht, falls es sich automatisieren lassen sollte? Sowas muss man ja nur 1x implementieren. Durch die Metadaten kennt man ja die min. und max. Helligkeit des Bildschirms.
Nachträglich geht das ganze btw aber schon, LG passt mit active HDR das Tonemapping für jedes Bild an (kann man ja gut analysieren). Das geht allerdings im Gamemode nicht (kostet halt Rechenzeit das Bild quasi in Echtzeit zu analysieren und anzupassen). Imo bleibt natives dynamisches HDR als Schnittstelle zwischen dem was der Grader will und der Fähigkeit des Displays die optimale Lösung. HDR10 ist per Design broken und nicht wirklich brauchbar. Ich tu mich mit dem Gedanken auch immer schwer, wesegen man nicht die Metadaten für jedes Bild extra anpasst, aber genau diese sinnlose Restriktion existiert da eben.
Spiele simulieren schon seit Jahren die Irisanpassung des Auges, wenn man z.B. von einem sehr dunklen in einen sehr hellen Bereich blickt. Folglich sollte es genauso möglich sein das für die HDR-Ausgabe umzumünzen. Mit DV kümmert sich stattdessen der Bildschirm drum, wie du selbst bereits gesagt hast. Aber das heißt ja noch nicht, dass es bei HDR10 unmöglich ist auch eine Art dyn. Tonmapping selbst zu entwickeln, bei dem man die Beleuchtung des Spiels adaptiv auslegt, je nachdem wie die Szene gerade den max. Dynamikumfang des Geräts ausnutzt. Bleibt da eben am Ende die Arbeit stattdessen am Dev. kleben.

24p
2017-11-12, 01:31:41
Klar kann man das alles machen, nur kostet es dann Rechenleistung eben so eine Art active HDR per HDR10 zu vollführen und so entsprechend getonemapped für x nits als HDR10 mit weiterhin konstanten Metadaten auszugeben.

DanMan
2017-11-12, 01:35:18
Klar kann man das alles machen, nur kostet es dann Rechenleistung eben so eine Art active HDR per HDR10 zu vollführen und so entsprechend getonemapped für x nits als HDR10 mit weiterhin konstanten Metadaten auszugeben.
Gut, dann sind wir uns ja einig. Mehr als um die Machbarkeit auch bei HDR10 ging es mir ja nicht.

24p
2017-11-12, 01:42:31
Klar, dass es geht zeigt ja LG. Nur eben leider nicht im Gamemode und mit niedrigem Inputlag.

Ectoplasma
2017-11-12, 11:32:42
...
Da allerdings selbst kein zukünftiger Monitor auch nur annähernd komplett dem HDR10-Farbraum entspricht, muss der Monitor ein eigenes,
zweites Tone Mapping nutzen, um das Bild den eigenen Fähigkeiten bezüglich des Farbraums anzupassen, ...

Hat das Computerbase geschrieben? Da wundert man sich auch nicht mehr, wenn einige so ein undiffrenziertes Gestammel mit Farbräumen von sich geben. Ein Tonemapping ist unabhängig von Farbräumen. Farbraumumrechnungen werden auch nicht mit Tonemappern gemacht.

Kriton
2017-11-12, 12:09:02
Anders als bei Filmen müsste man wohl die Helligkeit eines Frames erst in einem zusätzlichen Rechenschnitt in Echtzeit ermitteln. madVR und mpv können das für HDR10-Material via Compute Shader. Hab nicht getestet, wie teuer das ist. Aber wohl nicht sehr.

Ohne wieder einen Krieg auslösen zu wollen: Hatten wir nicht mal das Thema, dass HDR bei AMD weniger Leistung kostet als bei AMD? Kann dies daher kommen? Gravitiationsfeld sagte mal (IIRC), dass GCN bei (reinem) Compute ordentlich Leistung hat. Und AC könnte da ja auch hilfreich sein, weil es paralell laufen kann.

aufkrawall
2017-11-12, 12:14:31
Glaubst du nicht, dass AMD das dann geschickter beworben hätte?

Kriton
2017-11-12, 12:27:23
So etwas muss ja auch (gedanklich) im technischen Marketing ankommen.
Das Thema der subtimings beim Speicher von Ryzen haben sie ja auch nicht thematisiert.

gedi
2017-11-12, 15:40:58
Glaubst du nicht, dass AMD das dann geschickter beworben hätte?


AMD-Marketing halt :rolleyes: BTW. empfinde ich HDR 10 bereits für ein sehr brauchbares Feature. Die Immersion ist auf einem 65 Zöller auf ca. 3m Entfernung imo der Wahnsinn. Wenn es HDR+ noch besser machen sollte - sehr gut :)

gedi
2017-11-12, 16:05:15
Wieso nicht, falls es sich automatisieren lassen sollte? Sowas muss man ja nur 1x implementieren. Durch die Metadaten kennt man ja die min. und max. Helligkeit des Bildschirms.

Spiele simulieren schon seit Jahren die Irisanpassung des Auges, wenn man z.B. von einem sehr dunklen in einen sehr hellen Bereich blickt. Folglich sollte es genauso möglich sein das für die HDR-Ausgabe umzumünzen. Mit DV kümmert sich stattdessen der Bildschirm drum, wie du selbst bereits gesagt hast. Aber das heißt ja noch nicht, dass es bei HDR10 unmöglich ist auch eine Art dyn. Tonmapping selbst zu entwickeln, bei dem man die Beleuchtung des Spiels adaptiv auslegt, je nachdem wie die Szene gerade den max. Dynamikumfang des Geräts ausnutzt. Bleibt da eben am Ende die Arbeit stattdessen am Dev. kleben.

Eigentlich ist es so, dass der Grafikkartentreiber und/oder das OS die Sache mit der HDR-Spezifikation anhand des Monitortreibers regeln. Witzig an der Geschichte ist, dass der AMD-Treiber hier sofort das richtige Setting wählt, während man sich beim NV-Treiber selbst drum kümmern muss. Eine entsprechende Priorisierung erscheint anhand der Performance logisch.

Im Game selbst ist ja so, dass der Lichteinfall natürlich dynamisch ist. Den Dynamikumfang kann man selbst regeln, bleibt dann allerdings statisch.

ashantus
2017-11-25, 19:37:59
Hallo,

ich habe eine Frage beim Vergleich von HDR 10 und 10 bit Monitoren.
Es gibt doch bereits Monitore mit 10 bit Farbtiefe, bspw. Eizo Colourgraphics Serie.

HDR soll nun die höhere Farbauflösung von 10 bit haben?

Sind dann nicht alle Monitore mit 10 Bit Farbtiefe automatisch bereits HDR Monitore?

Oder wo ist der Unterschied zwischen einem Eizo CG in 10 bit und einem HDR Monitor?

Danke.

DanMan
2017-11-25, 20:12:39
High Dynamic Range. Es fällt auf, dass da nix von Farben steht. Das liegt daran, dass damit ein höherer Kontrastumfang gemeint ist, also ein größerer Abstand zw. dem hellsten und dunkelsten gleichzeitig Darstellbarem. In erster Linie wird das durch mehr Helligkeit erreicht aber auch durch feinere Abstufung im Dunklen. Du kannst HDR auch mit 8bit haben, nur will das keiner, weil man dann z.B. eher Stufen in Verläufen sieht.

scully1234
2017-11-25, 20:42:15
Wieso nicht, falls es sich automatisieren lassen sollte? Sowas muss man ja nur 1x implementieren. Durch die Metadaten kennt man ja die min. und max. Helligkeit des Bildschirms.


Das alleine wird nicht gut genug performen. Man bräuchte ne Datenanalyse des gesamten Streams, wie oft die Highlights auf der Bluray überhaupt auftauchen

Es ist ja immer noch schiere Verschwendung des dynamischen Bereiches, das Display auf 1000 Nits zu kalibrieren, wenn der Stream das nur "ein zweimal" im gesamten Verlauf darstellt ,und sonst average bei hypothetischen 500-600 Nits liegt

Dann lieber bei sagen wir mal 800 Nits wegclippen lassen und 98% des Films abdecken, dafür aber im dunklen Bereich mehr Punch gewinnen,durch die optimierte feinere Abstufung des Gammas

Ich denke das muss auch über kurz oder lang so kommen, mit deiner kolportierten Automatik , wenn HDR10 nicht als Rohrkrepierer enden soll ,gegenüber den dynamischen Formaten,wenn die ersten Studios anfangen sollten UHDs über 2000 Nits hinaus zu mastern

Ich hab mir jetzt schon 3 HDR Presets (600/800 und 1000 Nits angelegt), damit man die Blurays in etwa angleichen kann, die derzeit existieren. Wenn es da ne Automatik gäbe die das übernimmt, dann nur her damit!

aufkrawall
2017-11-25, 21:15:43
Genau das macht doch die (bereits von mir erwähnte) Peak-Ermittlung von madVR?

Eh, aber natürlich nur für die Konvertierung nach SDR... :D

scully1234
2017-11-25, 21:25:33
Peak ist halt Peak und immer noch Verschwendung von dynamischen Ressourcen wenn das nur einen Bruchteil des Streams betrifft=)

Da hab ich lieber in dunklen Szenen mehr Reserven, anstatt es dir oben rum für 2 Sekunden die Augen "verblitzt":tongue:

Es ist auf jedenfall schon mal besser als den ganzen EOTF Bereich abzudecken, mit den Werkseinstellungen, wenn man die Peaks der UHD ermittelt ,aber es ginge halt noch besser mit HDR10, falls von den Herstellern überhaupt gewollt.

Isogul
2017-11-25, 21:36:19
Da die ganzen HDR Formate auch viele Probleme beim Mastering macht, habe ich gehört das von vielen momentan eher HLG bevorzugt wird in der Produktion und es hier in der Post einfacher zu handhaben ist!

scully1234
2017-11-25, 21:50:53
habe ich gehört das von vielen momentan eher HLG bevorzugt wird

Aber nur im Broadcastbereich um Bandbreite zu sparen

Hybrid Log Gamma kann SDR als auch HDR TVs beliefern, es überträgt keine Metadaten wie HDR10 auf der UHD

Apropos ich müsste ja auch mal langsam das HLG Update einspielen in den Beamer, wenn die öffentlich rechtlichen Sender jetzt ernst machen wollen;D

Isogul
2017-11-25, 21:57:19
Ja, das auch über Sat usw., aber meinte ich jetzt nicht.
Es geht auch ums Mastering und die ganzen Probleme wegen den Bildschirmen und Nits Angaben im Mastering etc.Klar Hollywood macht hier HDR und wird dabei bleiben, aber kleinere Buden und Tv Sender werden nur HLG machen in der Post,unabhängig der Sache bezüglich Übertragung usw.

Kartenlehrling
2017-11-25, 22:58:49
https://vimeo.com/197910731
101 Guide to HDR - Hybrid Log Gamma (HLG)

DanMan
2017-11-25, 23:44:52
Das alleine wird nicht gut genug performen. Man bräuchte ne Datenanalyse des gesamten Streams, wie oft die Highlights auf der Bluray überhaupt auftauchen
Ich rede nicht von Blurays. Das ist ein statisches Medium und daher mit Spielen nicht vergleichbar. Dort hat man ganz andere Möglichkeiten das Bild beim Rendern auf die Hardware des Benutzers anzupassen.

scully1234
2017-11-26, 00:37:09
Ich rede nicht von Blurays. Das ist ein statisches Medium und daher mit Spielen nicht vergleichbar. Dort hat man ganz andere Möglichkeiten das Bild beim Rendern auf die Hardware des Benutzers anzupassen.

Die Lösung wäre auch nicht signifikant anders als es bei der UHD Überlegungen dahin gibt, denn HDR10 wird ja nicht plötzlich dynamischer nur weil es bei Spielen zur Anwendung kommt.

Ob das HDR Preset gut funktioniert oder nicht, hängt dort doch genauso maßgeblich vom verwendetem Ausgabegerät ab, und wie gut es mit den Gamma Vorgaben des Spiels zurecht kommt.

Zwei Auswege also, entweder HDR Auto Kalibrierung bei Ersteinsatz auf die Eigenheiten des Displays/TV oder Beamer ,oder dynamische Metadaten Frame by Frame,so wie es Dolby oder Samsung etablieren will

Kartenlehrling
2017-11-26, 00:51:44
wurde nicht behaupte das man vom freesync2 Monitor den Maxwert entnimmt bzw. im treiber hinterlegt ist und somit bei Spiele nicht über das ziel hinausschiesst.
Das wär schon mehr als die erste Generation TV es können, die neuesten Modell gleichen diese Infos von ihre Seite über Tools wie LG HDR aktive und HDR+ aus.

scully1234
2017-11-26, 00:55:01
wurde nicht behaupte das man vom freesync2 Monitor den Maxwert entnimmt bzw. im treiber hinterlegt ist und somit bei Spiele nicht über das ziel hinausschiesst.
.

Jupp das wäre z.B ne Möglichkeit der Auto Kallibrierung

Btw:

Bei den Beamern ist man ja mittlerweile, wie ich gerade sehe ,zumindestens schon mal so weit bei den aktuellen Geräten ,das man die Highlights dokumentiert, nicht gerade viel aber ein erster Ansatz womit zu mindestens erfahrenere User arbeiten können

https://youtu.be/Utt4MCoyLog?t=1389

DanMan
2017-11-26, 14:33:35
Die Lösung wäre auch nicht signifikant anders als es bei der UHD Überlegungen dahin gibt, denn HDR10 wird ja nicht plötzlich dynamischer nur weil es bei Spielen zur Anwendung kommt.
Ich wiederhole mich ungern. Lies einfach nochmal meine Posts von den letzten 2 Seiten.

vinacis_vivids
2017-11-26, 15:34:13
Was ist an HDR ( 10bit ) misszuvetstehen?
Es ist eine *range* und natürlich ist eine breitere auch dynamischer.

scully1234
2017-11-26, 16:11:48
Was ist an HDR ( 10bit ) misszuvetstehen?
Es ist eine *range* und natürlich ist eine breitere auch dynamischer.

Was soll die Wortklauberei hier?!

Eigentlich müsstest du gesehen haben das es hier bei der Diskussion um die Endgeräte geht, und um deren beste Anpassung an den HDR10 Standard

HDR10 ist nunmal nicht dynamisch für jeden Frame anpassbar , darum ging es ,und nicht um die Range die du durch 10bit Farbtiefe bekommst

Ich wiederhole mich ungern. Lies einfach nochmal meine Posts von den letzten 2 Seiten.

hab ich ,und trotzdem komm ich zu keinem anderen Standpunkt,entweder wir reden aneinander vorbei ,oder ich weiß auch nicht

Kartenlehrling scheint verstanden zu haben ,worum es mir primär ging

Dann gib doch halt mal nen Tipp worauf du abzielst, ich kann mir da derzeit keinen Reim drauf machen

Kartenlehrling
2017-11-26, 16:13:46
wird haben 20 Jahre mit Monitor gelebt die auf 100 bzw. 120nits ausgerichte waren und auch die ganze Spiel- und Film-Industrie hat danach gelebt.
Jetzt wird halt umgestellt, aber einigen geht es zu schnell und anderen wie mir geht es zulangsam, die Standardisierung verlauft langsamer als die Regierung Sondierung der BRD. :freak:

Standardizes HDR color transform technologies from

•Dolby (Parametric Tone Mapping)
•Philips (Parameter-based Color Volume Reconstruction)
•Technicolor (Reference-based Color Volume Remapping)
•Samsung (Scene-based Color Volume Mapping)
•And 80 other participating companies
https://www.smpte.org/sites/default/files/2017-01-12-ST-2094-Borg-V2-Handout.pdf

Wenn man sieht das bei der rec.2100 SMPTE ST 2094 gerade wieder abläuft das jeder Hersteller seinen eigenen Algorithmus bevorzugt muss man mit dem Kopf schutteln.

DanMan
2017-11-26, 17:50:32
hab ich ,und trotzdem komm ich zu keinem anderen Standpunkt,entweder wir reden aneinander vorbei ,oder ich weiß auch nicht

Dann gib doch halt mal nen Tipp worauf du abzielst, ich kann mir da derzeit keinen Reim drauf machen

Wenn du eine konkrete Frage hast, erklär ich meinen Standpunkt gerne. Ansonsten würde ich nur das Gleiche leicht anders formuliert nochmal schreiben, und da hab ich keine Lust zu.

wird haben 20 Jahre mit Monitor gelebt die auf 100 bzw. 120nits ausgerichte waren und auch die ganze Spiel- und Film-Industrie hat danach gelebt.
Jetzt wird halt umgestellt, aber einigen geht es zu schnell und anderen wie mir geht es zulangsam, die Standardisierung verlauft langsamer als die Regierung Sondierung der BRD. :freak:

https://www.smpte.org/sites/default/files/2017-01-12-ST-2094-Borg-V2-Handout.pdf

Wenn man sieht das bei der rec.2100 SMPTE ST 2094 gerade wieder abläuft das jeder Hersteller seinen eigenen Algorithmus bevorzugt muss man mit dem Kopf schutteln.
Teil des Problems ist es doch auch, dass die Leute danach fragen. "Kann der DV? Kann der HDR+?" etc... HDR10 ist bereits ein riesiger Sprung. Wie wäre es, wenn wir uns erst einmal daran orientieren? Aber nein, jeder kocht sein eigenes Süppchen. Was an sich auch ok ist, so lange es nicht zu neuen, inkompatiblen Standards führt. Der Standard heißt HDR10.

In dem Bild sieht man übrigens auch, dass der theoretische Schwarzpunkt schon bei SDR bei Null liegt.

Kartenlehrling
2017-11-28, 19:08:56
Jetzt ist wohl entlich HDMI2.1 abgesegnet.

Update 28.11.2017 17:27 Uhr

Nach der umfassenden Ankündigung zur CES 2017 Anfang des Jahres hat das HDMI Forum die finalen Spezifikationen für zahlende Partner, die bereits auf HDMI 2.0 setzen, veröffentlicht.
Mit ersten Endgeräten ist im kommenden Jahr zu rechnen. Die News wurde entsprechend überarbeitet und um die zur Freigabe veröffentlichte Präsentation erweitert.
https://www.computerbase.de/2017-01/hdmi-2.1-ankuendigung/

https://pics.computerbase.de/8/0/7/9/9/33-630.3670371740.jpg

Kartenlehrling
2017-12-05, 22:08:04
4K and HDR Support Destiny 2 1.1.0 Update Now Live

Upgraded resolution to adaptive 4K with high dynamic range lighting on the PlayStation 4 Pro
Upgraded resolution to 4K with high dynamic range lighting on the Xbox One X


PC

Players can now exit the game using a controller
Players can now keybind to the NumPad when NumLock is active
The scroll wheel now works on gear lore tabs
Fixed crashing in the New Pacific Arcology area of Titan
Fixed a source of random crashes
Fixed an issue that prevented fullscreen mode from working properly in rare situations
Improved the accuracy of the in game framerate counter under fluctuating framerates on PC
Fixed an issue where Destiny 2 would crash upon shutdown
Improved font texture handling to address cases of stuttering or hitching
Fixed an issue where some SLI configurations would cause framerate stuttering


https://www.bungie.net/en/News/Article/46522

Keine Infos zu PC ?

Deathcrush
2017-12-05, 23:43:17
Meinst du HDR bei Destiny 2 auf dem PC? Das gibt es doch schon seit dem Release von Destiny 2.

Kartenlehrling
2017-12-11, 22:11:34
https://pics.computerbase.de/8/0/9/5/0/1-1080.97638351.jpg
https://www.computerbase.de/2017-12/displayhdr-vesa-standard-hdr-monitore/
DisplayHDR-Spezifikation in drei Stufen

DanMan
2017-12-11, 22:29:22
Also das Analog zum "UHD Premium" im TV-Sektor. Schön und gut, aber je niedriger die Spezi, umso unwahrscheinlicher, dass das ein Hersteller in sein Marketingmaterial mit aufnimmt. Hab im Text jedenfalls nichts davon gelesen, dass das Siegel Pflicht ist. Insofern werden wohl nur die 2 besseren Siegel Verwendung finden. Das 400er hätte man sich mMn. also sparen können.

Aber immerhin scheinen sie Angst zu haben, dass durch schlechte Geräte HDR einen schlechten Ruf bekommt. Das lässt für die Zukunft hoffen.

Kartenlehrling
2017-12-12, 12:56:40
Der Wow-Effekt des LG 32UD99-W ist zuerst enorm. Bereits auf dem Papier ist der große 31,5-Zoll-Monitor beeindruckend.
Eine 4K-Auflösung bei 60 Hz, Freesync und HDR sind in der Kombination nicht oft anzutreffen.

Die große Bildschirmdiagonale und die 4K-Auflösung sorgen für sehr gute und scharfe Bilder. Allerdings ist HDR und
die Bildfrequenz von 60 Hertz im Büroalltag und bei PC-Gamern nicht unbedingt ein Plus.
In Windows 10 sehen Farben dadurch unnatürlich aus. In PC-Spielen ist der Kontrast zumeist übertrieben stark und
die fast schon neongrellen Farben passen nicht so recht in ernste Spieleszenarios.
In Videos kann HDR hingegen überzeugen. Die neue XBox One X unterstützt die 10-Bit-Farbtiefe beispielsweise nativ.
Einige für HDR optimierte Spiele können also schnell folgen.

https://www.golem.de/news/lg-32ud99-w-im-test-monitor-mit-beeindruckendem-bild-trotz-unausgereiftem-hdr-1712-131398.html
LG 32UD99-W im Test: Monitor mit beeindruckendem Bild - trotz unausgereiftem HDR

Kriton
2017-12-12, 13:36:30
Habe ich das richtig gelesen, dass sich das unausgereifte HDR auf die SW und nicht die HW bezieht?

24p
2017-12-12, 14:05:49
Der Monitor hat kein local Dimming und einen nativen Kontrast von etwas über 1000:1. Crap.
Jetzt gibt es aber offenbar aufgeweichte HDR Displaystamdards, damit die überteuerten Monitore, die eigentlich ungeeignet sind für HDR auch ein Siegel bekommen.

Ectoplasma
2017-12-12, 14:22:43
Ich habe hier immer prophezeit, dass die Hersteller irgendein Tonemapping nehmen werden, welches genau die aufgeführten Probleme zeigt. Am Wochenende habe ich mir mal den LG OLED55 b7d angeschaut. Da lief eine angebliche HDR10 Demo. Jetzt mal ernshaft, das was ich da gesehen habe, ist die reinste Verarschung am Kunden. Nicht nur dass der OLED nette Bewegeungsartefakte hatte, gab es auch schön übersättigte Farben im HDR Modus gegenüber dem SDR Modus zu sehen. Die Farben müssen in beiden Modi genau gleich aussehen. Im HDR10 Modus kam einem das Bild etwas kontrastreicher vor, also eigentlich das, was HDR machen soll. Aber der Effekt war jetzt nicht berauschend. Ob die Demo wirklich ein HDR war, ist nicht ganz klar. Auf jeden Fall gab es typische Tonemapping-Artefakte zu sehen. Halos um die Sonne und Verstärkung der Chromatische Aberration. Alles Hinweise für Tonemapping. Irgendein schlauer Mensch hier im Thread hat behauptet, er hätte keine Halos bei einem HDR Fernseher gesehen. Sorry, aber ich durfte mich wieder einmal vom Gegenteil überzeugen. Die Hersteller sollten endlich mal ihre Software in den Griff bekommen.

24p
2017-12-12, 14:31:39
Ich stehe auch weiterhin dazu und habe einen OLED zu Hause. Wahrscheinlich war deine Demo Mist. Ist ja nicht so, dass Aufnahmen grundsätzlich frei von Halos und CA ohne HDR sind. ;)

Mal abgesehen kann ich nicht nachvollziehen, was du da verglichen haben willst. HDR10? Mit was? HDR10 kann man beim OLED nur nativ schauen und nicht im „SDR Modus“. Oder war es der HDR Effekt Modus? Der ist crap.

Schau dir ordentliches HDR einer UHD BR an und urteile dann.

Ectoplasma
2017-12-12, 15:11:51
Mal abgesehen kann ich nicht nachvollziehen, was du da verglichen haben willst. HDR10? Mit was? HDR10 kann man beim OLED nur nativ schauen und nicht im „SDR Modus“. Oder war es der HDR Effekt Modus? Der ist crap.

Das man HDR nicht im SDR Modus sehen kann, ist ja wohl logisch. In meinem Post steht ja, dass ich mir nicht sicher war, was da überhaupt lief. Das man so ein Crap Material dem Kunden aber als Demo vorsetzt, ist doch echt mist. Das Demo wechselte zwischen HDR und SDR, aber wahrscheinlich lief nur der SDR Modus und irgendein getonemapptes Material. Unabhängig davon, war ich wirklich darüber verwundert, dass dieser OLED überhaupt Bewegunsartefakte hatte (aber das ist ein anderes Thema).

Das eigentliche Problem ist doch, dass es gar nicht mal so einfach ist zu erkennen, welches Material gerade läuft, wenn man es nicht selber bereit gestellt hat. Es ist kein Wunder, dass derart Desinformation ein fragwürdiges Licht auf die Technik wirft. Alleine bei dem Problem der übersättigten Farben weiß man nicht, ob man einfach nur Crap HDR Content hat, oder einfach ein schlechter Tonemapper für den SDR Modus verwendet wurde.

24p
2017-12-12, 15:32:25
Naja, das ist doch nix neues. Was da an Demos läuft sind überwiegend Nachtaufnahmen mit grellen Lampen und irgendwelche übersättigten Blumenfelder. Ich habe meinen OLED zB in einem kleineren Geschäft mit eher dunkleren Beleuchtung im Nebenzimmer angeschaut um mir mal einen Eindruck von HDR zu machen.
Halos oder CA sehe ich btw schon immer auf SD Material. Halos kommen da eher vom Tonemapping im Postprocessing oder der Bildaufnahme. CA sieht man auch eher wenn man ein großes Bild hat, das war aber schon immer da.

Ectoplasma
2017-12-12, 19:01:47
CA sieht man auch eher wenn man ein großes Bild hat, das war aber schon immer da.

Sehr richtig. Wie gesagt, Tonemapping verstärkt dies ja nur. Also alles gut, ich glaube wir sind uns einig soweit.

Kartenlehrling
2018-01-14, 11:18:50
https://www.youtube.com/watch?v=xk_TNiSJ1X0
144hz 4K HDR IS HERE – Asus ROG PG27UQ & PG35VQ (CES 2018)

johla
2018-01-14, 13:50:38
https://www.youtube.com/watch?v=xk_TNiSJ1X0
144hz 4K HDR IS HERE – Asus ROG PG27UQ & PG35VQ (CES 2018)
Taugt bei dem das HDR was?

Kartenlehrling
2018-01-14, 14:10:50
Naja das werden wir in 2-3 Monate wissen, er hat halt gute technische Werte nur viel zu teuer mit 2000€,
ich denke aber trotzdem das die ersten weggehen werden wie warme Semmeln,
es wird bestimmt einen Lieferengpass geben, ob nun gewollt oder nicht.

ROG Swift PG27UQ

27 Inches Screen
3840×2160 Resolution
16:9 Aspect Ratio
IPS Panel
Ports: 2xDisplayPort 1.4, 1xHDMI
144Hz
Nvidia G-Sync
Quantum-dot Technology
HDR10
Brightness: 1000cd/m2
direkt LED backlight 384 zone


https://www.asus.com/us/Monitors/ROG-SWIFT-PG27UQ/overview/

Kriton
2018-01-14, 14:40:35
Freesync und ist gekauft.

Niall
2018-01-15, 19:42:06
Habe seit Samstag meinen Sony 50W656 durch einen LG 55B7D ersetzt (günstig im örtlichen Saturn geschossen) und mangels 2.0b Kabel (Ich Volltrottel) und passender Wandhalterung (kommt beides morgen) bisher »nur« NETFLIX 4K und YouTube 4K HDR Material verfüttern können. Ist das Gerät erst einmal halbwegs sauber eingerichtet, ist die Bildqualität einfach nur atemberaubend.

Jetzt weiß ich auch weshalb alle hier die OLED Displays über den grünen Klee loben – Vor Ort im Geschäft dank der passenden Demos natürlich schon prima, halt Laden-typisch komplett überzogene Farben etc. – zuhause mit »alle Pseudo-Bildverbesserer aus«, passendem Weißpunkt/passender Helligkeit etc. einfach nur Awww. :D

Freue mich schon den Rechner als Spiele-Zuspieler zu testen, dank HDMi 1.4 Kabel kam ich bisher nicht über beschnittene 1080p60 bzw. 2160p30 hinaus. :freak:

DanMan
2018-01-15, 19:58:28
Es gibt keine HDMI Kabelversionen, nur normale und Hi-Speed.

Niall
2018-01-15, 20:21:38
Es gibt keine HDMI Kabelversionen, nur normale und Hi-Speed.

… und Premium High Speed HDMI Kabel die 18 GBit/s und damit 2160p60 schaffen. Habe mich etwas unscharf ausgedrückt.

MarioK
2018-01-16, 16:23:51
Es gibt keine HDMI Kabelversionen, nur normale und Hi-Speed.

das war mal so ... heute gibt es(wird es geben) 4 unterschiedlichen HDMI kabel:

- Standard HDMI Cable (2.25 GBit/s)
- High Speed HDMI Cable (10.2 GBit/s)
- Premium High Speed HDMI Cable (18 GBit/s)
- Ultra High Speed HDMI Cable (48 GBit/s)

SamLombardo
2018-01-16, 16:37:49
Habe seit Samstag meinen Sony 50W656 durch einen LG 55B7D ersetzt (günstig im örtlichen Saturn geschossen) und mangels 2.0b Kabel (Ich Volltrottel) und passender Wandhalterung (kommt beides morgen) bisher »nur« NETFLIX 4K und YouTube 4K HDR Material verfüttern können. Ist das Gerät erst einmal halbwegs sauber eingerichtet, ist die Bildqualität einfach nur atemberaubend.

Jetzt weiß ich auch weshalb alle hier die OLED Displays über den grünen Klee loben – Vor Ort im Geschäft dank der passenden Demos natürlich schon prima, halt Laden-typisch komplett überzogene Farben etc. – zuhause mit »alle Pseudo-Bildverbesserer aus«, passendem Weißpunkt/passender Helligkeit etc. einfach nur Awww. :D

Freue mich schon den Rechner als Spiele-Zuspieler zu testen, dank HDMi 1.4 Kabel kam ich bisher nicht über beschnittene 1080p60 bzw. 2160p30 hinaus. :freak:

Und dann Assassis Creed Origins in 4K mit HDR auf dem OLED spielen. Mal sehen, ob du danach deine Kinnlade wiederfindest:wink:

24p
2018-01-16, 18:14:37
das war mal so ... heute gibt es(wird es geben) 4 unterschiedlichen HDMI kabel:

- Standard HDMI Cable (2.25 GBit/s)
- High Speed HDMI Cable (10.2 GBit/s)
- Premium High Speed HDMI Cable (18 GBit/s)
- Ultra High Speed HDMI Cable (48 GBit/s)

Und das beste ist ja, dass auch die Premiumkabel bei hohen Längen nicht immer 18 gbps schaffen. So wie meines, welches ich mal im Sommer gekauft habe. Packt nur max 1080p120 oder 2160p24 mit 422 Subsampling. ;(

Niall
2018-01-16, 20:13:17
Und dann Assassis Creed Origins in 4K mit HDR auf dem OLED spielen. Mal sehen, ob du danach deine Kinnlade wiederfindest:wink:

Habe ich leider nicht, gibts sonst außer des Hexers Spiele die man sich auf dem OLED in jedem Fall ansehen sollte? Also außer »alle!!!1« :D

Und das beste ist ja, dass auch die Premiumkabel bei hohen Längen nicht immer 18 gbps schaffen. So wie meines, welches ich mal im Sommer gekauft habe. Packt nur max 1080p120 oder 2160p24 mit 422 Subsampling. ;(

Das Problem werde ich mit der maximalen Kabellänge von 2m hoffentlich nicht haben. :)

TV hängt seit heute, kann die 15mm Wandhalterung von »Vogel's« absolut empfehlen, trotz des etwas höheren Preises, bombenfest und extrem nah an der Wand, der TV wirkt fast schon unwirklich schlank. :freak:

SamLombardo
2018-01-16, 20:51:40
Habe ich leider nicht, gibts sonst außer des Hexers Spiele die man sich auf dem OLED in jedem Fall ansehen sollte? Also außer »alle!!!1« :D

:biggrin:. Also alles mit HDR. "Dunkle" Spiele wie Resident Evil 7 in HDR kommen auf dem OLED fantastisch. Da kann kein noch so teurer LCD mithalten. Auch ME Andromeda war top. Der Hexer ist aber auch super auf dem OLED trotz fehlendem HDR. Der Hammer war auch Horizon Zero Dawn in HDR, leider PS4 Pro only. Kannst dich wirklich drauf freuen. Quasi Next Gen Display:)

Niall
2018-01-16, 23:32:03
:biggrin:. Also alles mit HDR. "Dunkle" Spiele wie Resident Evil 7 in HDR kommen auf dem OLED fantastisch. Da kann kein noch so teurer LCD mithalten. Auch ME Andromeda war top. Der Hexer ist aber auch super auf dem OLED trotz fehlendem HDR. Der Hammer war auch Horizon Zero Dawn in HDR, leider PS4 Pro only. Kannst dich wirklich drauf freuen. Quasi Next Gen Display:)

Dank Dir für die Tipps – morgen kommen die Kabel, sollten eigentlich schon heute eintrudeln … naja. :freak:

Witcher in SDR reizt mich trotzdem. :D Fährt man in 4K eigentlich besser mit RGB Output oder ycbcr444 bzw. ycbcr422 etc.? Mit meinem alten FullHD hatte ich meine ich immer RGB und Full Range. :)

SamLombardo
2018-01-17, 10:42:32
Die beste Einstellung ist meiner Kenntnis nach:
Für normale spiele ohne HDR, 4:4:4 8 Bit Full RGB und TV auf Schwarzwert Hoch
Für HDR Spiele 4:2:2 10Bit Begrenzt und TV auf Schwarzwert niedrig

Schwarzwert auf Auto funktioniert in den meisten Fällen auch gut.

Man möge mich korrigieren, wenn es neue Erkenntnisse diesbezüglich gibt.

Niall
2018-01-17, 22:21:24
Update: Ein Kabel schafft die 2160p60 nicht. (3m vom AV Receiver zum TV)PC mit 1,5m an TV funktioniert, dann aber per ARC nur Stereosound. Yay. :freak: (Witcher 3 sah aber echt schon großartig aus, hatte es kurz getestet …)
Habe nun ein anderes, kürzeres bestellt – die drei Meter waren eh »verschätzt«. :D

edit: Habe gerade herausgefunden dass es doch nicht am Kabel lag, sondern der STR DN860 zwar einen 4K Passthrough mit HDCP 2.2 besitzt, der jedoch nicht immer zu 100% funktioniert. Yay. Also Kabel wieder abbestellt und von der 1080Ti direkt per HDMI in den TV, sowie per DP-HDMI Adapter in den AV Receiver für den Ton. Was ein Werk. O_o

bei 4K kann ich im Übrigen nur RGB 8Bit mit voller Dynamik fahren, bei YCbCr444 funktioniert nur "begrenzt" und 8Bit, bei 4:2:2 Sampling kann ich auf 10Bit gehen (Immer noch nur begrenzt). Ist das normal? :)

Gast
2018-01-18, 03:52:57
bei 4K kann ich im Übrigen nur RGB 8Bit mit voller Dynamik fahren, bei YCbCr444 funktioniert nur "begrenzt" und 8Bit, bei 4:2:2 Sampling kann ich auf 10Bit gehen (Immer noch nur begrenzt). Ist das normal? :)

Für Nvidia-Besitzer, ja.

24p
2018-01-18, 06:12:18
Ja, mehr geht mit HDMI 2.0 nicht.

Niall
2018-01-18, 09:39:24
Für normale spiele ohne HDR, 4:4:4 8 Bit Full RGB
Für HDR Spiele 4:2:2 10Bit Begrenzt

Ja, mehr geht mit HDMI 2.0 nicht.

Dachte ich mir. Würdest Du SamLombardos Settings so unterstreichen?
Hatte irgendwo gelesen, das Win 10 gerne mal mit HDR kollidiert bzw. es selbst einschaltet. Blicke da (noch) nicht so recht durch. Wie gesagt, mein »alter« konnte eh nur 1080p und der stand immer auf RGB Voll 8Bit. :D

SamLombardo
2018-01-18, 11:02:25
Manche HDR Spiele produzieren bei 4:2:2 Color Banding. Warum auch immer. Hier hilft, auf 4:2:0 umzustellen. Probier das einfach im Einzelfall. Einen Qualitätsunterschied sieht man bei laufendem Spiel sowieso nicht.

Niall
2018-01-18, 11:31:59
Manche HDR Spiele produzieren bei 4:2:2 Color Banding. Warum auch immer. Hier hilft, auf 4:2:0 umzustellen. Probier das einfach im Einzelfall. Einen Qualitätsunterschied sieht man bei laufendem Spiel sowieso nicht.

Danke Dir für die Tipps! :)

Colin MacLaren
2018-01-19, 11:35:21
Gibt es irgendwo eine Liste, welche PD-Spiele jetzt HDR unterstützen?

Hatte mir Injustice 2 gekauft um danach festzustellen, dass HDr nach de rBeta rausgepatcht wurde.

DanMan
2018-01-19, 16:57:23
Gibt es irgendwo eine Liste, welche PD-Spiele jetzt HDR unterstützen?

Hatte mir Injustice 2 gekauft um danach festzustellen, dass HDr nach de rBeta rausgepatcht wurde.
Ja, hier (https://pcgamingwiki.com/wiki/Special:Ask/-5B-5BCategory:Games-5D-5D-20-5B-5Bhigh_dynamic_range::true-5D-5D-20OR-20-5B-5Bhigh_dynamic_range::hackable-5D-5D/-3FDeveloped-20by/-3FPublished-20by/-3FRelease-20date/-3FAvailable-20on/-3Fhigh_dynamic_range/format%3Dtemplate/limit%3D100/template%3DFeature-2Frow/introtemplate%3DFeature-2Fintro/outrotemplate%3DFeature-2Foutro). Wurde auch glaube ich schon mal gepostet.

Das HDR in RE7 soll sehr gut sein. Ich bin nur leider ein Weichei was Horrorspiele angeht. :] Werde mir als nächstes wohl Shadow Of War wegen dem HDR holen. Nur noch zu teuer. Mehr wie 20 zahl ich nicht für Höher, Schnell, Weiter - Lootcrate Edition.

Kartenlehrling
2018-02-02, 15:48:00
Low (“Lite”) Quality Options for FFXV Benchmark



DisplayResolutionWH=1280x720
MaxFramerate=240
RenderingResolutionWH=1280x720
GraphicsPreset=0
ShowConfig=0
ShowFPS=0

[DisplaySettings]

DisplayScalingMode=0
FP16BackBuffer=1
FullScreenModeOnStartup=0
HardwareFullScreenMode=0
HDRGammaScale=1.3
HDRLuminanceScale=1000
HighPrecisionRenderTarget=0
VSync=0

[NVIDIAGameWorksSettings]

NvidiaFlow=0
NvidiaHairWorks=0
NvidiaShadowLibs=0
NvidiaTerrainTesselation=0
NvidiaTurf=0
NvidiaVXAO=0

[RenderingSettings]

Antialias=0
AmbientOcclusion=0
HighSpecAsset=0
LightingQuality=0
ModelLODScaling=75
ScreenFilterDetail=1
ShadowDistanceScaling=75
ShadowResolution=50
TextureAnisotropicFilter=0
TextureStreamingMemory=0

https://www.gamersnexus.net/news/3221-gameworks-and-hidden-graphics-settings-in-final-fantasy-xv-benchmark


[B]FP16BackBuffer=1
greift das nur unter HDR10 und würde ein freesync2 Monitor niedrige inputlag haben?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57759&d=1477224265
http://www.pcgameshardware.de/screenshots/1020x/2017/01/Freesync-2-Praesentation-15--pcgh.png

DanMan
2018-02-04, 17:21:01
https://www.smpte.org/sites/default/files/201710-18-ED-HDR-PQ_and%20HLG-Borer-Cotton-V3-Handout.pdf

Da frage ich mich, ob es für Spiele nicht auch interessant(er?) wäre HLG-HDR zu verwenden anstatt PQ-HDR. Braucht dafür auch keine Metadaten wie bei DV. Das alles natürlich zusätzl. zum generellen Vorteil das gleiche Signal auch für SDR-Ausgabe verwenden zu können. Ich sehe es nur nicht ganz so rosig wie die Autoren, in dem Sinne, dass der vom Kreativen gewünschte Eindruck eben nicht 100% erhalten wird im Vgl. zu PQ-HDR. Aber das kann man bei Spielen ja vernachlässigen mMn.

Ich persönlich spiele eigentlich eher abends, und kann deshalb das Umgebungslicht gut steuern. Aber das muss ja nicht für alle gelten, und dann hat HLG schon einen klaren Vorteil. Auch wenn man bedenkt, dass die Helligkeit der kommenden HDR-Monitore gehörig schwanken wird. Nicht zuletzt aufgrund der unterschiedlichen Verfahren (OLED, FALD-LCD), aber auch weil PQ-HDR Material ja auch immer auf eine feste, max. Ausgabehelligkeit gemastert werden. Verfallsdatum inklusive was Filme angeht.

Auch interessant: https://www.dolby.com/us/en/technologies/dolby-vision/the-art-of-better-pixels.pdf

Kartenlehrling
2018-02-08, 22:09:55
Microsoft hat für Teilnehmer des Insider-Programms von Windows 10 kürzlich einen neuen Preview-Build veröffentlicht,
der unter anderem auch ein paar Verbesserungen für Spieler mit sich bringt.
Dazu gehören eine überarbeitete Spieleleiste, neue Einstellungsmöglichkeiten für Multi-GPU-Systeme,
sowie auch die HDR-Kalibrierung für Videos.

http://www.pcgameshardware.de/Windows-10-Software-259581/News/Insider-Build-neue-Features-Gaming-und-HDR-1249775/

krötenfresse
2018-02-09, 14:10:42
ich hab mir gestern bei saturn nen qled-lcd angesehen.
was vermutet ihr, ab wann diese quantum dot (oder so) technologie günstiger wird?

Savay
2018-02-09, 14:22:48
Günstiger als was? GBr LEDs? Das zumindest ist schon der Fall.

Es gab durchaus schon <1000€ TVs mit QD...und Monitore gibt es ja mittlerweile auch schon den einen oder anderen der Preislich nicht total absurd wäre.
https://geizhals.de/?cat=monlcd19wide&xf=12077_Quantum-Dot#gh_filterbox

Kartenlehrling
2018-02-09, 14:40:16
bei Samsung sind die 2017er Modell alles Edge-lit, die versprochen Qualtät können sie nicht abliefern.
Dieses Jahr kommen viele Hersteller mit Direct-lit + Nano bzw. Quatumdots, gerade der China Hersteller Hisense bringt ja auch ein 1000+ LED zone TV.
Zwischen 600-1800€ wird es dieses Jahre viele Abstufung von LED Dimmingzone geben, diese zonen werden über Diffusor-Schichten nochmal abgestuft.
Philips 4k- 43inch "Monitor"-TV soll nur 30 Backlight-LED haben, Asus 4k-27inch Monitor dagegen 384 Local Dimming Zonen.

https://www.youtube.com/watch?v=68AE8-FIjsg
Testfazit: Acht TVs unter 50 Zoll (Teilweise ohne HDR)

Kartenlehrling
2018-02-26, 14:52:14
HDMI 2.0 und Displayport: HDR bleibt Handarbeit

Wir wollen schöne Bilder in UHD und HDR nicht nur auf dem Fernseher,
sondern endlich auch auf dem heimischen Rechner und Monitor genießen.
Das wird wegen der vielen Kombinationen aus Betriebssystem, Grafiktreibern,
Monitoren und vor allem Anschlüssen, Kabeln und Standards leider viel komplizierter als erwartet.

Wir zeigen, wie es gut gehen kann.
https://www.golem.de/news/hdmi-2-0-und-displayport-hdr-bleibt-handarbeit-1802-132884.html

Rente
2018-02-26, 18:08:13
https://www.golem.de/news/hdmi-2-0-und-displayport-hdr-bleibt-handarbeit-1802-132884.html
Der Artikel... :freak: Den Deep-Colour-Modus gibt es bei nahezu allen 4K-HDR-fähigen Geräten seit Ewigkeiten um Kompatibilitätsprobleme zu vermeiden - kann man trotzdem nicht kennen, ist aber schon recht peinlich.
Aber die Kommentare unter dem Artikel sind zum Teil deutlich übler, so viel uninformierter Mist.

Loeschzwerg
2018-03-03, 11:11:55
https://www.computerbase.de/2018-03/benq-el2870u-monitor/

Mal wieder Pfusch^³... UHD + HDR400 mit einem TN Panel.

Rente
2018-03-03, 20:44:14
https://www.computerbase.de/2018-03/benq-el2870u-monitor/

Mal wieder Pfusch^³... UHD + HDR400 mit einem TN Panel.
Es erfüllt die Bedingungen für HDR400 zum Glück nicht (steht auch im Artikel) und du hast 8 Bit + FRC vergessen.
Der Monitor ist pure Bauernfängerei, traurig so etwas...

aufkrawall
2018-03-03, 21:19:26
Es soll so gut wie gar kein Panel intern nativ mit 10 Bit arbeiten können, warum kritisiert ihr ständig 8 Bit + FRC?

Rente
2018-03-03, 23:13:56
Es soll so gut wie gar kein Panel intern nativ mit 10 Bit arbeiten können, warum kritisiert ihr ständig 8 Bit + FRC?
Weil 8 Bit + FRC für HDR nicht ausreichend ist, warum auch sonst?
Es gibt 10 Bit-Panel für Monitore und im Fernseh-Bereich sind sie auch schon einige Zeit keine Seltenheit mehr.

Loeschzwerg
2018-03-04, 09:35:55
Es erfüllt die Bedingungen für HDR400 zum Glück nicht (steht auch im Artikel) und du hast 8 Bit + FRC vergessen.


Stimmt, danke dir. Kommt davon wenn man den Text nur noch überfliegt, weil man bei den Schlagwörtern TN + HDR schon auf 180 ist :hammer: :D

---

Den Titel kann mal jemand ändern... auf 2019/2020. Am Monitormarkt erwarte ich dieses Jahr keine Besserung.

Ph03n!X
2018-03-04, 09:47:11
Hätte Interesse an einem passenden Display HDR 1000 und auch das nötige Kleingeld. Aber bisher nur welche mit 600 gesehen (Samsung 49 , 32:9)

N0Thing
2018-03-04, 13:46:31
Den Titel kann mal jemand ändern... auf 2019/2020. Am Monitormarkt erwarte ich dieses Jahr keine Besserung.

Man sollte das Datum vielleicht generell weglassen. Es wird langsam immer mehr Software mit HDR-Ausgabe geben und ebenso mehr passende Monitore. Da wird es nicht einen Stichtag geben, an dem HDR Mainstream wird.

aufkrawall
2018-03-04, 14:20:24
Weil 8 Bit + FRC für HDR nicht ausreichend ist, warum auch sonst?

Was sieht bei HDR + FRC anders aus als mit nativen 10 Bit? Reden wir jetzt über die Signalausgabe an das Display oder das, was es intern macht?


Es gibt 10 Bit-Panel für Monitore und im Fernseh-Bereich sind sie auch schon einige Zeit keine Seltenheit mehr.
Da steht meist nur 10 Bit drauf, das Panel arbeitet trotzdem mit FRC. Unser Insider Sailor Moon hatte das vor nicht all zu langer Zeit verlautbart.