Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
Rancor
2025-05-27, 13:40:38
Ja, wenn man das erste mal richtiges HDR aufm nem OLED sieht, dann ist das schon krass.
dargo
2025-05-27, 16:36:03
Ich bin von dem ASUS ROG Strix OLED XG27UCDMG absolut begeistert. Hier passt einfach alles. =)
* kein einziger Pixelfehler
* internes Netzteil absolut geräuschlos inkl. Bildschirmelektronik (auch nachts geprüft)
* perfekter Standfuss für meinen Schreibtisch
* fantastische Pixeldichte
* perfektes Bild inkl. absoluten Flashing @HDR
* nahezu perfekte Werkskalibrierung
* super flexible Settings, auch bei sRGB und HDR
* KVM
* 90W Ladeleistung über USB-C
Habe den minimal zu früh gekauft denn aktuell bekommt man den hier mit Shoop für 886,07€.
https://www.galaxus.de/de/s1/product/asus-rog-strix-oled-xg27ucdmg-3840-x-2160-pixel-2650-monitor-55675050?utm_campaign=preisvergleich&utm_source=geizhals&utm_medium=cpc&utm_content=2705624&supplier=2705624
Aber egal, das Ding ist imo selbst >1.000€ locker wert wenn man erstmal sieht was der liefert. Zumal so ein Ding wieder Jahre auf dem Schreibtisch steht. :)
The_Invisible
2025-05-27, 16:52:29
...der endlich an die Farbbrillanz in HDR von einem QD-OLED ran kommen soll.
Hätte hier keinen großen Unterschied gesehen zwischen QDOLED und WOLED. Das bessere Schwarz am WOLED ist da mehr rausgestochen.
Rancor
2025-05-27, 21:43:47
Ich teste jetzt mal nen paar Tage den 1000 Nits Peak Modus. In HDR Content ist das schon Wahnsinn.
In Windows eher nicht, besonders bei weissen Webseiten in Vollbild
dargo
2025-05-28, 07:40:12
In Windows immer SDR nutzen. ;) Bzw. HDR nur beim HDR-Content verwenden.
Rancor
2025-05-28, 08:09:01
In Windows immer SDR nutzen. ;) Bzw. HDR nur beim HDR-Content verwenden.
Ja aber musst du dann nicht HDR jedes mal in Windows aktivieren bevor du ein Spiel startest? Ich kann HDR in Spielen nur auswählen wenn es in Windows auch auf dem Desktop aktiviert ist.
Last of US ist in HDR ein Traum btw ;)
The_Invisible
2025-05-28, 08:49:53
Jap, nur ganz selten machen Games den HDR Switch selber, sollte eigentlich Standard sein. Aber von Standard sind wir eh noch weit entfernt, man muss noch immer froh sein wenn ein Game HDR OOTB mitbringt, und wenns auch noch gut sein soll braucht man noch mehr Glück.
Zum Glück gibts die Community, clair obscure ist mit HDR quasi ein neues Spiel, vor allem in den Höhlen einfach ein Wahnsinn.
Rancor
2025-05-28, 09:01:49
Im 1000 NITS Modus dimmt der Monitor aufm Desktop wenn zu viel Weiss aufm Bildschirm und HDR aufm Desktop aktiviert ist. ( Also 3D-Center oder Amazon Website in Vollbild zB. ). Das ist das einzige was mich etwas stört in dem Modus. In Spielen ist davon nichts zu merken. Dafür ist HDR nochmal viel geiler als im True Black 400 Modus und da ist es schon nice.
drdope
2025-05-28, 09:49:19
Ich könnte mir nach ca. 8 Jahren ein Monitorupgrade vorstellen.
Ersetzt werden soll ein Eizo Foris FS2735 (https://www.prad.de/testberichte/test-monitor-eizo-foris-fs2735/).
Ich hätte gern einen 5120x2880 (UHD+) OLED-Monitor ca. 32' -40' mit >=120Hz und integrierten KVM-Switch (Uplink >=TB4/USB4 mit USB-C-PD >=100W).
Wieso gibt es das noch nicht?
dargo
2025-05-28, 09:59:41
Ja aber musst du dann nicht HDR jedes mal in Windows aktivieren bevor du ein Spiel startest?
Ja natürlich. :)
PS: eventuell gibt es für Windows irgendwo ein kleines Tool welches sich in der Taskleiste versteckt womit man schnell HDR/SDR umschalten kann. Da müsste ich noch etwas suchen. Oder es gibt in Windows dafür einen Hotkey.
Argo Zero
2025-05-28, 10:07:05
Ich hoffe irgendwann können das Spiele anschalten ohne Windows.
Habe HDR aber bisher nur kurz testen können bei Cyberpunk 2077, das ich allerdings schon 4x durchgespielt hab.
Die anderen Spiele, die aktuell gespielt werden, haben alle kein HDR :/
Relex
2025-05-28, 10:30:29
Ja natürlich. :)
PS: eventuell gibt es für Windows irgendwo ein kleines Tool welches sich in der Taskleiste versteckt womit man schnell HDR/SDR umschalten kann. Da müsste ich noch etwas suchen. Oder es gibt in Windows dafür einen Hotkey.
WIN+ALT+B
Als Ergänzung: Nein, die Spiele sollen und werden HDR nicht mehr selbstständig umschalten. Das war mal anfangs bei Windows 10 vorgesehen, mittlerweile hat sich Microsoft aber dagegen entschieden.
PS: eventuell gibt es für Windows irgendwo ein kleines Tool welches sich in der Taskleiste versteckt womit man schnell HDR/SDR umschalten kann. Da müsste ich noch etwas suchen. Oder es gibt in Windows dafür einen Hotkey.
In Windows11 gibt es einen Shortcut.
redpanther
2025-05-28, 10:59:11
Ich hab immer HDR an, warum auch nicht? Man kann die SDR Helligkeit ja beliebig in Windows einstellen?
Im 1000 NITS Modus dimmt der Monitor aufm Desktop wenn zu viel Weiss aufm Bildschirm und HDR aufm Desktop aktiviert ist.
Umso wichtiger wird es, dass es Monitore gibt, welche die Helligkeit ohne Tricks und nur auf kleinen Flächen darstellen können.
Im normalen Modus ohne erweiterte Spitzenhelligkeit, kann an auch im Desktop ganz normal HDR verwenden, und Paperwhite dann in Software regeln.
Argo Zero
2025-05-28, 11:12:46
Ich hab immer HDR an, warum auch nicht? Man kann die SDR Helligkeit ja beliebig in Windows einstellen?
Wenn du 20+ Jahre vor einem kalibrierten Monitor gesessen hast ist der HDR Modus einfach nur eine Beleidigung der natürlichen Farbwiedergabe im Deskop-Betrieb.
aufkrawall
2025-05-28, 11:25:43
Vielleicht, wenn man 20 Jahre vor einem vermurkst kalibrierten Gerät gesessen hat. :freak:
Mit den korrekten Einstellungen im Monitor erzielen da diverse Geräte Top-Werte bei den Abweichungen. Aber wird halt ~sRGB-Kammakurve mit entsprechend steilem Anstieg bei dunklen Tönen sein. Windows lässt da leider nicht die Wahl. KDE Plasma macht Gamma 2.2, was die meisten Leute wohl besser fänden, weil dunkle Inhalte damit weniger grell erscheinen.
Argo Zero
2025-05-28, 11:27:00
Vielleicht, wenn man 20 Jahre vor einem vermurkst kalibrierten Gerät gesessen hat. :freak:
Nope, habe damals in der Druckvorstufe vor einem EIZO gesessen mit HW Kalibrierung. Seitdem wird auch zu Hause kalibriert :)
aufkrawall
2025-05-28, 11:29:43
Nope, habe damals in der Druckvorstufe vor einem EIZO gesessen mit HW Kalibrierung. Seitdem wird auch zu Hause kalibriert :)
Nix "nope", wenn Kolorimeter geringe Abweichungen vom Soll feststellt. Wenn es vermurkst aussieht, liegt das an schlechten/falschen HDR-Einstellungen im Monitor oder schlechter Werkskalibrierung.
Hatte schon mal erwähnt, dass LG das vs. Asus monströs verkackt, obwohl beide die gleichen WOLED-Panel nutzen...
redpanther
2025-05-28, 11:40:34
Wenn du 20+ Jahre vor einem kalibrierten Monitor gesessen hast ist der HDR Modus einfach nur eine Beleidigung der natürlichen Farbwiedergabe im Deskop-Betrieb.
Möglich, dann bist du eben sehr empfindlich.
Mir fällt da aber nichts gravierendes auf, zwischen dem OLED Desktop in HDR und einem LCD ohne HDR. Und ich behaupte mal, das wird den meisten so gehen.
Ich mach aber auch keine Professionelle Bildbearbeitung.
Rancor
2025-05-28, 11:49:13
Ich hab immer HDR an, warum auch nicht? Man kann die SDR Helligkeit ja beliebig in Windows einstellen?
Ja klar kann man das. Ändert aber nichts daran das die aktuelle Gaming OLED Monitore im 1000 Nits Peak Modus in Windows dimmen wenn der Bildschirm weiß ist. Ist ja auch klar, weil sie eben nur 1000 Nits bei einem gewissen Weißanteil erreichen, was für Filme und Spiele ja auch völlig ausreichend ist, fürn den Desktop aber halt müll. Hat glaube ich was mit APL zu tun? Das Thema ist halt irgendwie schon komplex.
Es ist jetzt auch kein extremer Effekt, aber er ist sichtbar wenn man drauf achtet.
redpanther
2025-05-28, 11:52:12
Wer will denn 1000 nits im Desktop betrieb haben?
Sitzt du mit Sonnenbrille davor oder in einem Glashaus? ;)
Relex
2025-05-28, 12:00:28
Na ja, das Problem beim HDR 1000 Modus ist, dass immer ein gewisser Prozentsatz dimming abhängig von der Fenstergröße angewendet wird, obwohl das Panel mehr könnte.
Bei 400 nits Vollflächige Helligkeit auf Signalseite wird vielleicht auf 100 nits auf Panel Seite gedimmt.
Bei 600 nits auf 150 nits
Bei 800 nits auf 200 nits
Bei 1000 nits auf 250 nits
So in etwa eben. Die vollen 250 nits Vollflächig bekommt man eben nur, wenn das Signal deutlich mehr fordert. Das kann man auch ganz einfach in Windows testen, indem man ein weißes fenster im Vollbild darstellt. Es wird abgedimmt. Wenn man dann in den Windows HDR Einstellungen die SDR Helligkeit erhöht wird das weiße Fenster trotzdem viel heller.
Wobei ich weiterhin das gefühl habe, dass da auch mehr geht. In God of War Ragnaröck wenn man durch die Portale geht und der Bidlschirm ganz weiß wird, wird mein Display in HDR schon extrem hell, so dass ich kaum glauben will, dass das nur 250 nits sein sollen. Aber scheint irgendwie ein Sonderfall sein. Ohne Messequipemt halt alles schwer zu sagen.
Das heißt aber, dass du selbst bei gering eingesteller SDR Helligkeit (im HDR Modus) in Windows dimming siehst, wenn du weiße Fenster groß ziehst, obwohl das Panel viel heller könnte.
Mich tangiert das aber z.B. nicht, da ich den Dark Mode nutze und für den Browser das Addon Dark Reader. Dann gibts keine weißen fester mehr.
x-force
2025-05-28, 12:05:16
Ohne Messequipemt halt alles schwer zu sagen.
einfach die kamera auf feste beleuchtungseinstellungen und vergleichen
dargo
2025-05-28, 12:45:38
WIN+ALT+B
:up:
Gleich mal im alten Schädel abspeichern. :D
Ich hab immer HDR an, warum auch nicht? Man kann die SDR Helligkeit ja beliebig in Windows einstellen?
Weil die Highlights (zb. weiße Schrift auf dem Desktop bei den Thumbnails) immer noch zu krass sind. Nee... ich nutze generell sRGB am Desktop, soll jeder es handhaben wie er möchte. :)
Wer will denn 1000 nits im Desktop betrieb haben?
Sitzt du mit Sonnenbrille davor oder in einem Glashaus? ;)
Wenn er jedes Mal noch seinen HDR-Modus wechseln muss dann ist es eher praktischer am Desktop sRGB zu verwenden und mit dem Hotkey auf HDR umzuschalten wenn HDR benötigt. ;)
robbitop
2025-05-28, 13:32:23
Ich drücke vor Spielstart dann einfach Win+Alt+B und dann schaltet er um. Dauert 0,5 sek. Leider noch kein Tool gefunden, was das automatisiert.
Der Vorteil ist, dass man in Windows dann ein weniger aggressives Profil hinterlegen kann (weil ja statische Inhalte bei höherer Helligkeit höhere Einbrenngefahr bzw Dauer bis es zur Image retention kommt). Und in Games wird die Sau rausgelassen ^^ (dank dynamischen Kontent kein Problem)
Ich nutze zusätzlich MonitorSwitcherGUI und hab das Profile hinterlegt.
Homeoffice: alle 3 Monitore an, OLED TV aus.
TV Gaming: alle 3 Monitore aus, OLED TV an
Monitor Gaming: 2x LCD Monitore aus, OLED Monitor an, TV aus
1x Klick und man kann das Profil wechseln.
Hatte schon mal erwähnt, dass LG das vs. Asus monströs verkackt, obwohl beide die gleichen WOLED-Panel nutzen...
Kenne es bei Asus nicht, aber kann bestätigen, dass Windows HDR im Desktopbetrieb am LG TV OLED B7 und am LG Monitor 45GX950 scheiße aussehen.
Den Tastaturshortcut verwende ich deshalb auch ständig.
Andererseits frage ich mich, wie das vom Monitor abhängen kann? Die HDR-Farbwerte der LGs sind doch in den Reviews nicht schlecht? Wieso sollte der Desktop dann scheiße aussehen, bei Asus aber nicht?
Ich hatte deshalb angenommen, dass das an Windows liegt.
Argo Zero
2025-05-28, 14:42:29
Der Shortcut ist Gold wert. Danke dafür ^^
horn 12
2025-05-28, 22:16:19
@Dargo
Ist dies dein Monitor, welchen du hast bitte ?
https://www.computerbase.de/artikel/monitore/asus-rog-strix-oled-xg27ucdmg-test.92011/
Darkman.X
2025-05-29, 00:41:08
Ich drücke vor Spielstart dann einfach Win+Alt+B und dann schaltet er um. Dauert 0,5 sek. Leider noch kein Tool gefunden, was das automatisiert.
Selber nie getestet, aber schon mal davon gelesen:
https://github.com/Codectory/AutoActions
crux2005
2025-05-29, 01:31:03
Ich hab immer HDR an, warum auch nicht? Man kann die SDR Helligkeit ja beliebig in Windows einstellen?
Deswegen: https://tftcentral.co.uk/articles/heres-why-you-should-only-enable-hdr-mode-on-your-pc-when-you-are-viewing-hdr-content
tl;dr Windows wurde für SDR gemacht und mit HDR sieht es auf den meisten Monitoren sehr schlecht bis schlecht aus.
Ja klar kann man das. Ändert aber nichts daran das die aktuelle Gaming OLED Monitore im 1000 Nits Peak Modus in Windows dimmen wenn der Bildschirm weiß ist. Ist ja auch klar, weil sie eben nur 1000 Nits bei einem gewissen Weißanteil erreichen, was für Filme und Spiele ja auch völlig ausreichend ist
Meistens 1-2% (!!!) des Bildschirms wenn du ~1000 nits willst. Aber mehr auch nicht. Meistens wird trotzdem die ganze Helligkeit angehoben um das zu schaffen.
Kenne es bei Asus nicht, aber kann bestätigen, dass Windows HDR im Desktopbetrieb am LG TV OLED B7 und am LG Monitor 45GX950 scheiße aussehen.
Den Tastaturshortcut verwende ich deshalb auch ständig.
Andererseits frage ich mich, wie das vom Monitor abhängen kann? Die HDR-Farbwerte der LGs sind doch in den Reviews nicht schlecht? Wieso sollte der Desktop dann scheiße aussehen, bei Asus aber nicht?
Ich hatte deshalb angenommen, dass das an Windows liegt.
Es liegt an Windows aber laut TFT-Central sind manche Monitore trotzdem besser als andere wenn du HDR im Windows Betrieb benutzt.
dargo
2025-05-29, 07:08:17
@Dargo
Ist dies dein Monitor, welchen du hast bitte ?
https://www.computerbase.de/artikel/monitore/asus-rog-strix-oled-xg27ucdmg-test.92011/
Ja.
Relex
2025-05-29, 11:14:14
Meistens 1-2% (!!!) des Bildschirms wenn du ~1000 nits willst. Aber mehr auch nicht.
Klingt immer nach sehr viel weniger als es tatsächlich ist (!!!) :rolleyes:.
Hier 1%:
https://i.ibb.co/Ldw3DtTL/1Ppng.png (https://ibb.co/XxBqfsnh)
Und hier 2%:
https://i.ibb.co/7NxB7cG5/2P.png (https://ibb.co/dJsXn9Qq)
Stellen die 1000 nits erreichen sind idr. SEHR viel kleiner als diese Rechtecke und Highlights im Rest des Bildes sind oft nicht so hell, nur wenige Pixel groß und verteilen sich auf viele stellen am Bildschirm.
Natürlich hast du dimming wenn die durchschnittliche Helligkeit ansteigt. Ich will das Problem nicht kleinreden. Aber letztendlich verhält es sich ähnlich wie mit VRR flicker. Theorie und Praxis sind zwei paar Schuhe und ich bin mir ziemlich sicher, dass die allermeisten menschen bei 1% ein deutlich kleineres Rechteck erwartet hätten, da quatdratisch in fläche zu denken einfach nicht intuitiv ist.
dargo
2025-05-29, 11:50:27
Die 2% von dir finde ich sogar leicht untertrieben. Ich würde sogar Richtung 5% gehen. Mit 5% liegt der Asus ROG Strix XG27UCDMG immer noch bei sehr guten 877Nits. Erst bei 10% wird der Unterschied mit 495Nits vs. 1000Nits deutlich. Aber ehrlich gesagt kann man das Thema totreden. :tongue: Wer mir erzählen möchte ein XG27UCDMG wäre für HDR zu dunkel, den kann ich nicht ernst nehmen. ;)
dildo4u
2025-05-29, 11:53:59
Erste OLED Gameing Modelle mit Google TV als OS
g4sLYRBrBEE
Relex
2025-05-29, 11:59:49
Die 2% von dir finde ich sogar leicht untertrieben. Ich würde sogar Richtung 5% gehen. Mit 5% liegt der Asus ROG Strix XG27UCDMG immer noch bei sehr guten 877Nits. Erst bei 10% wird der Unterschied mit 495Nits vs. 1000Nits deutlich. Aber ehrlich gesagt kann man das Thema totreden. :tongue: Wer mir erzählen möchte ein XG27UCDMG wäre für HDR zu dunkel, den kann ich nicht ernst nehmen. ;)
Ja, und das würde dann so aussehen:
https://i.ibb.co/PvDbg2sq/5P.png (https://ibb.co/YF0Kh54H)
Troyan
2025-05-29, 12:06:55
Lest ihr überhaupt Reviews?
While the TB400 and Dolby Vision modes showed the lowest peak brightness capability (around 450 – 460 nits), they are generally a bit brighter in real content and for the greyscale than the other modes, especially for the larger APL scenes. This is a pattern we’ve seen before on QD-OLED monitors with TB400 and Peak 1000 modes.
The HDR10 Console mode might reach the highest peak white luminance (1012 nits) but is actually the darkest in real content due to the significant drop off in the EOTF tracking for mid and light grey shades, which make up a big part of brighter HDR scenes. That’s a common behaviour for ‘Peak 1000’ type modes at the moment as well.
https://tftcentral.co.uk/reviews/asus-rog-swift-pg27ucdm#HDR-Testing
QD-OLEDs haben massive Probleme mit dem 1000 Nits Modus.
Relex
2025-05-29, 12:31:22
Das thema wurde doch bereits diskutiert.
Wenn du in Spielen die paperwhite helligkeit zwischen 100 und 200 nits einstellst, so wie es sich gehört, sollte die durchschnittliche Helligkeit gar nicht so hoch sein, dass im HDR1000 modus auffällig gedimmt werden muss.
Dass man hier weit vom theoretischen ideal entfernt ist ist richtig, aber "massive probleme" ist einfach völlig falsch und zeigt dass du das Problem (das ja exisitiert) und dessen Auswirkungen nicht einschätzen kannst.
dargo
2025-05-29, 12:34:25
Das thema wurde doch bereits diskutiert.
Wenn du in Spielen die paperwhite helligkeit zwischen 100 und 200 nits einstellst, so wie es sich gehört, sollte die durchschnittliche Helligkeit gar nicht so hoch sein, dass im HDR1000 modus auffällig gedimmt werden muss.
Korrekt... hier wird nichts im 1000Nits HDR-Modus gedimmt. Zumindest erkennen meine Augen nichts. Ich verwende allerdings ebenfalls Paperwhite 100.
Vielleicht etwas Offtopic, aber geht auch um HDR.
Die aktuielle Windows 11 Insider Preview hat eine neue Option für HDR. Entweder bin ich dumm und checke es nicht, oder aber es ist verbugt.
"Verwalten Sie die HDR-Funktionen Ihres PCs unter Einstellungen > System > Anzeige > Updates enthalten: Eine klarere Beschriftung für „HDR verwenden“, die besser erklärt, welche Medientypen unterstützt werden. Die Möglichkeit, HDR-Videos zu streamen, auch wenn HDR ausgeschaltet ist."
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93145&stc=1&d=1748535701
Ist aber ausgegraut wenn HDR aus ist. Wenn ich HDR einschalte, kann ich die Option aktivieren. Schalte ich HDR wieder aus, ist es wieder nicht gesetzt und ausgegraut. Müsste doch genau anders herum sein oder nicht? :freak:
dargo
2025-05-29, 20:10:20
Last of US ist in HDR ein Traum btw ;)
Ich suchte gerade den ersten Teil und der ist in HDR eine Wucht. :love4:
Platos
2025-05-29, 20:51:27
Passt aber auf, dass ihr auch noch spielt und nicht nur schaut. Sonst könnt ihr gleich nen Film anschalten:wink:
dargo
2025-05-29, 21:14:18
Es ist einfach nur krass wie das HDR auf dem QD-OLED in TLOU rüber kommt. Egal ob draußen oder drinnen wenn bsw. Ellie mit der Taschenlampe in einem dunklen Raum rumläuft. :eek: Und die Kampfmechanik ist in TLOU ohnehin mega. :)
Mal ein noobiger Versuch das HDR-Bild mit dem Smartphone einzufangen. :tongue: Das Ding schafft es gar nicht das korrekt abzubilden, wirkt übersättigt.
https://i.postimg.cc/QBWmDrHr/IMG-20250529-211522-1.jpg (https://postimg.cc/QBWmDrHr)
Ja, ein SDR-Foto schafft es nicht, ein HDR-Bild wiederzugeben.
Ja, ein SDR-Foto schafft es nicht, ein HDR-Bild wiederzugeben.
Jedes halbwegs aktuelle Smartphone kann HDR-Fotos aufnehmen.
crux2005
2025-05-30, 02:01:49
Breaking News. :biggrin:
Platos
2025-05-30, 08:30:04
Es gibt aber auch HDR-Fotos. Allerdings ist es mit Farbtreue und Smartphones so eine Sache. Die meisten sind da voll daneben, auch im "natürlich" Modus. Gibt nur wenige, die da gut sind.
dargo
2025-05-30, 09:04:15
Allerdings ist es mit Farbtreue und Smartphones so eine Sache.
Eben... das wird hauptsächlich der "Knacktus" hier sein. Auf dem abfotografierten HDR-Bild saufen feine Details in schwarz völlig ab, was real überhaupt nicht der Fall ist. Und Farbübersättigung macht die Kamera auch.
SentinelBorg
2025-05-30, 16:27:59
Kenne es bei Asus nicht, aber kann bestätigen, dass Windows HDR im Desktopbetrieb am LG TV OLED B7 und am LG Monitor 45GX950 scheiße aussehen.
Den Tastaturshortcut verwende ich deshalb auch ständig.
Andererseits frage ich mich, wie das vom Monitor abhängen kann? Die HDR-Farbwerte der LGs sind doch in den Reviews nicht schlecht? Wieso sollte der Desktop dann scheiße aussehen, bei Asus aber nicht?
Ich hatte deshalb angenommen, dass das an Windows liegt.
Der Grund warum SDR im HDR Modus auf einigen Geräten so schlecht aussieht liegt an falschen EDID Werten. Der SDR Mapper benötigt die korrekten Angaben für Peak Brightness, Gamma Kurve usw. damit die piecewise sRGB transfer function korrekt umgesetzt werden kann. Das Kalibrierungstool in Windows 11 kann das meist auch etwas fixen.
Das ist auch was tftcentral nicht kapiert. Microsoft hat mit Absicht halt nicht lineares 2.2 Gamma gewählt, sondern besagte sRGB Funktion. Die hat den Vorteil und damit auch den Nachteil dass dunklere Bereiche insgesamt heller werden, so dass SDR Content, Apps und Games auf modernen Geräten die gerade wie OLEDs oft nun viel besseren Kontrast haben mehr so aussehen wie zuvor auf den am stärksten verbreiteten IPS LCDs.
Ideal wäre natürlich wenn man wie in MacOS die Transferfunktion als User auswählen könnte, aber als Default finde es die bessere Wahl für Rückwärtskompatibilität.
Denn wenn man mal so einige Games der letzten 15 Jahre im SDR sRGB Mode auf einem OLED startet merkt man schnell dass viele dunkle Bereiche im Game dann viel zu dunkel sind. Weil die Games nun mal auf Office IPS LCDs entwickelt und gemastered wurden, die den unteren Bereich von Gamma 2.2 nie korrekt darstellen konnten. Darum gibt es dann wiederum Black Stabilizer (bei LG), Shadow Boost (bei Asus) usw. um dem optional als Fix entgegen zu wirken. Oder man nimmt einfach den Windows SDR zu HDR Mode. ^^
Was tftcentral auch nicht erwähnt, dass im HDR Modus in Windows dann auch Wide Gamut z.B. bei entsprechenden Apps und Content vor allem im Browser möglich wird. Die besagten HDR Bilder von der Handykamera? Werden in modernen Chromium Browsern auch entsprechend in HDR angezeigt, wenn sie im richtigen Format daherkommen und/oder mit dem ICC Profile versehen wurden. Gutes Beispiel hier waren vor paar Pages die verlinkten HDR Wallpapers.
Ich lasse da mal folgenden Link unkommentiert da zu dem Gamma Thema.
https://github.com/dylanraga/win11hdr-srgb-to-gamma2.2-icm
Als ich die erstem male mit meinem OLED Monitor am PC HDR ausprobiert habe, sah es immer irgendwie falsch aus oder anstatt richtigem schwarz hatte alles einen Grauschleier.
Ich kenne HDR von meinem OLED TV in Filmen/Serien und liebe es, aber am PC sah alles abseits von YouTube Videos immer irgendwie falsch aus.
teezaken
2025-05-30, 17:41:35
Ich lasse da mal folgenden Link unkommentiert da zu dem Gamma Thema.
https://github.com/dylanraga/win11hdr-srgb-to-gamma2.2-icm
Als ich die erstem male mit meinem OLED Monitor am PC HDR ausprobiert habe, sah es immer irgendwie falsch aus oder anstatt richtigem schwarz hatte alles einen Grauschleier.
Ich kenne HDR von meinem OLED TV in Filmen/Serien und liebe es, aber am PC sah alles abseits von YouTube Videos immer irgendwie falsch aus.
Ich benutze das und bin damit eigentlich zufrieden (permanent HDR an):
https://github.com/ledoge/dwm_eotf
Spart das umwechseln, auch wenn es bei mir automatisch bei HDR-Spielen via Playnite umschalten würde, aber so geht es ja auch und das gute ist die SDR-Helligkeit kann man ja frei einstellen mittels Slider in Windows.
Edit: Da ich den Beitrag darüber gerade lese, ja die Werte für meinen Monitor und TV (OLED) habe ich schon immer angepasst via CRU, Metadata, Helligkeiten, etc. und ja manche SDR-Games sind wirklich viel zu dunkel auf einem OLED. :D
SentinelBorg
2025-05-30, 18:08:39
Ich benutze das und bin damit eigentlich zufrieden (permanent HDR an):
https://github.com/ledoge/dwm_eotf
Spart das umwechseln, auch wenn es bei mir automatisch bei HDR-Spielen via Playnite umschalten würde, aber so geht es ja auch und das gute ist die SDR-Helligkeit kann man ja frei einstellen mittels Slider in Windows.
Edit: Da ich den Beitrag darüber gerade lese, ja die Werte für meinen Monitor und TV (OLED) habe ich schon immer angepasst via CRU, Metadata, Helligkeiten, etc. und ja manche SDR-Games sind wirklich viel zu dunkel auf einem OLED. :D
Interessantes Tool. Aber letztlich sollte es einfach MS einstellbar machen, idealerweise auch pro Applikation in den Kompatibilitätssettings, was technisch ja sowieso schon so implementiert ist im Hintergrund (für Wide Gamut, HDR usw.).
teezaken
2025-05-30, 18:15:45
Interessantes Tool. Aber letztlich sollte es einfach MS einstellbar machen, idealerweise auch pro Applikation in den Kompatibilitätssettings, was technisch ja sowieso schon so implementiert ist im Hintergrund (für Wide Gamut, HDR usw.).
Das wäre natürlich Ideal, aber wir reden hier von MS ^^
deepmac
2025-05-31, 00:56:16
Es ist einfach nur krass wie das HDR auf dem QD-OLED in TLOU rüber kommt. Egal ob draußen oder drinnen wenn bsw. Ellie mit der Taschenlampe in einem dunklen Raum rumläuft. :eek: Und die Kampfmechanik ist in TLOU ohnehin mega. :)
Mal ein noobiger Versuch das HDR-Bild mit dem Smartphone einzufangen. :tongue: Das Ding schafft es gar nicht das korrekt abzubilden, wirkt übersättigt.
https://i.postimg.cc/QBWmDrHr/IMG-20250529-211522-1.jpg (https://postimg.cc/QBWmDrHr)
ja und vor allem Blaustichig, davor habe ich am meisten Angst, nutze immer Warm2 oder TrueCinema oder diesen Hollywood filmmodus.
Relex
2025-05-31, 10:08:03
Bei den LG TVs ist es "Warm2" um auf die 6500K bzw. D65 weißpunkt zu kommen. Das nutze ich auch.
Meines wissens wird in HDR aber grundsätzlich der gleiche weißpunkt genutzt. Zumindest mein Dell ist auf 6500K werkskalibriert und die Farbtemperatur ist im sRGB Modus und im HDR1000 Modus identisch. In den beiden Modi lässt sich die Farbtemperatur aber auch nicht einstellen.
Aber wenns passt, dann passts.. :D
00-Schneider
2025-05-31, 21:21:22
zq5kbpuTyLU
y33H@
2025-05-31, 23:22:55
Ist halt wieder QD-OLED ... hat mich bei den Vorgängern schon abgeschreckt, hatte den PG32UCDM für paar Tage da und dann ging er zurück wegen lila bei Lichteinfall - zudem nervte tagsüber das spiegelnde Coating. Beim PG27UCDM laut Test genauso: https://www.rtings.com/monitor/reviews/asus/rog-swift-oled-pg27ucdm
Ex3cut3r
2025-06-01, 00:46:30
Hier gibt es Flickering beim PG27UCDM im Pause Menü.
https://www.youtube.com/watch?v=zq5kbpuTyLU
@ Minute, 6:55 Totaler Bock Mist IHMO.
crux2005
2025-06-01, 03:56:45
Bei OLEDs wird sich daran so schnell auch nichts ändern.
Wo bleiben eigentlich die Monitore mit Nvidia Pulsar? Kein Flicker und OLED "ähnliche" Motion-Clarity. Der PG27AQNR z.B. wird nur in einer News erwähnt aber finde die Produktseite nicht. Wenn ich danach suche finde ich den PG27AQN (also die Variante ohne Pulsar).
Troyan
2025-06-01, 07:04:01
Asus hat Ende Q2 bei Reddit gesagt. Mal sehen.
Hier gibt es Flickering beim PG27UCDM im Pause Menü.
https://www.youtube.com/watch?v=zq5kbpuTyLU
@ Minute, 6:55 Totaler Bock Mist IHMO.
Jeder OLED hat Flackern mit VRR. Und je höher die Hz, umso schlimmer wird es. Das macht eigentlich alles über 120Hz fast sinnlos.
Das beste an OLEDs ist, dass die die perfekten Desktop-Monitore sind. Mit 480Hz zu scrollen ist absurd. Aber zum Spielen ist es unbrauchbar, weil die Frametimes so weit auseinander liegen, dass man immer flackern hat.
Relex
2025-06-01, 08:05:12
Die Aussage ist halt faktisch falsch.
Langsam wirds wirklich Stammtisch Niveau hier…
dargo
2025-06-01, 08:06:21
Was für ein bullshit wieder von Troyan. :rolleyes: Kauft euch keine verkackte Geforce dann flackert auch nichts an den OLEDs. Hier hat noch gar nichts am QD-OLED mit N21 geflackert, und ich habe schon viele Spielstunden hinter mir.
Die Aussage ist halt faktisch falsch.
Langsam wirds wirklich Stammtisch Niveau hier…
Offensichtlich. Ich nehme an mit deiner Geforce flackert auch nichts am QD-OLED sofern der Treiber nicht verkackt ist?
robbitop
2025-06-01, 08:15:28
Also auf meiner 5070ti flackert mein OLED auch nicht. Weder der oled TV noch der 360 Hz oled Monitor. Und es ist ein riesen Schritt nach vorn ggü jeglichem LCD den ich gesehen habe. Nie wieder LCD für mich zumindest.
Troyan
2025-06-01, 08:30:31
Die Aussage ist halt faktisch falsch.
Langsam wirds wirklich Stammtisch Niveau hier…
Stimmt. RTings misst das Flackern, aber laut Reflex alles tiptoppo. ;D
Wahrscheinlich spielen alle hier mit V-Sync on/off und ohne VRR.
Habe den PG32UCDP hier und trotz "OLED Anti Flicker" auf 82Hz - 240Hz eingestellt, sieht man das Flackern in jedem Spiel, wo die Frametimes eben nicht am oberen Ende kleben.
Und ich hatte den LG 480Hz. Der war absolut unbrauchbar in jedem Spiel mit seinen 480Hz. Leute haben das Flackern beim CRT mit 60Hz und Plasma gemerkt, die weitaus mit höherer Hz das Bild pro Frame aktualisiert haben, aber beim OLED scheint es Leuten nicht zu stören.
dargo
2025-06-01, 09:08:18
Stimmt. RTings misst das Flackern, aber laut Reflex alles tiptoppo. ;D
Junge... du hast überhaupt keine Ahnung von diesem rtings Test ansonsten würdest du nicht so einen bullshit hier schreiben. Aber anscheinend spielst du mit deiner 2.000€+ Graka mit Frames zwischen 1fps und 300fps wo der Wechsel zudem noch wenige ms dauert. :facepalm:
Nie wieder LCD für mich zumindest.
Unterschreibe ich so direkt jetzt mit dem 27" 4k QD-OLED. Zumal die nahe Zukunft mit 220ppi noch besser aussehen wird.
robbitop
2025-06-01, 10:59:04
Flicker ist bei großer Schrankung der Frametimes der Fall. Deshalb sieht man das zumeist in Ladescreens (wo es IMO irrelevant ist).
Relex
2025-06-01, 11:02:34
Eigentlich tritt es nur auf, wenn LFC ständig aktiviert/deaktiviert wird und dadurch die Bildfrequenz schlagartig verdoppelt/halbiert wird. Aber wem erzähl ich das. Wird von manchen hier eh wieder ignoriert oder einfach nicht verstanden.
robbitop
2025-06-01, 11:08:03
Genau und das kommt durch die Frametimeschwabkung wenn sie groß genug ist. :)
Kann dann sicher bei ungut laufenden Spielen auch vorkommen. (inkonsistente Leistung und#stutterstruggle X-D)
Aber gute Freunde lassen ihre Freunde solche Spiele nicht spielen. :)
dargo
2025-06-01, 11:55:36
Eigentlich tritt es nur auf, wenn LFC ständig aktiviert/deaktiviert wird und dadurch die Bildfrequenz schlagartig verdoppelt/halbiert wird. Aber wem erzähl ich das. Wird von manchen hier eh wieder ignoriert oder einfach nicht verstanden.
Richtig. ;) Und wer mit so niedrigen Frames spielt, dass LFC bei min. 48Hz @OLED greifen muss der hat eh keinen Anspruch an flüssiges Gaming. Wobei man selbst dem entgegenwirken könnte indem man einfach die VRR-Range nach unten verschiebt. Zb. 30-150Hz oder 40-200Hz usw. Ich würde da eher 36-180Hz nehmen (brauche ich nur nicht) weil die 180Hz schön ganzzahlig durch 60Hz für bsw. YT-Videos teilbar sind. Und bei einem 360Hz OLED hat man noch mehr Spielraum. Bsw. 32-240Hz.
Ex3cut3r
2025-06-01, 12:31:39
Beim Video vom OLED Guy sieht man @ 6:55, dass die Framerate von 120 auf 90 FPS springt, und trotzdem flickert/flackert der ASUS im schwarzen Pausemenü.
Mein IPS hat auch LFC und flickert trotzden nie! 1000€ und dann so ne Kacke. So perfekt wie die Dinger sind, der Makel ist einfach richtig schlecht.
Lurtz
2025-06-01, 12:57:15
Troyan hat einen Mini LED, also muss er OLED natürlich doof finden.
Ist halt wieder QD-OLED ...
Warte auch sehnlichst auf einen bezahlbaren, brauchbaren 27" 4k WOLED...
Platos
2025-06-01, 14:06:58
Genau und das kommt durch die Frametimeschwabkung wenn sie groß genug ist. :)
Kann dann sicher bei ungut laufenden Spielen auch vorkommen. (inkonsistente Leistung und#stutterstruggle X-D)
Aber gute Freunde lassen ihre Freunde solche Spiele nicht spielen. :)
Warum kam das fanze Flacker-Thema dann erst mit OLED auf? Wenns nur daran liegt, müsste es ja bei allen Displays genau gleich sein und immer gleich stark ausgepragt.
robbitop
2025-06-01, 14:12:13
OLEDs sind für den Flackereffekt wohl anfälliger als andere Panel Technologien. IIRC war aber einer der LCD Paneltypen auch etwas anfällig dafür aber weniger.
Ex3cut3r
2025-06-01, 14:27:58
VA. z.B.
DeadMeat
2025-06-01, 14:33:21
Tjo ich habs auch beobachten selbst bei ruhigen frametimes und fps konnte man nerviges flimmern sehen.
Der QD war da auch deutlich schlimmer als das LG Panel jetzt.
Warum kam das fanze Flacker-Thema dann erst mit OLED auf?
Viele VA Panel haben auch mit VRR Flicker zu kämpfen, nicht in dem Maße wie OLEDs aber es ist auch dort oft vorhanden, findet man tonnenweise auch dazu. Nur IPS scheint dabei keine Probleme zu haben.
Zum QD muss ich aber sagen der hat sich auch ohne VRR ganz gut geschlagen, hätte nicht gedacht das ich auch ohne auskommen würde.
ABER:
Mit neuerer GPU ist es auf allen Panels deutlich weniger aufgetreten.
Die B580 war deutlich weniger Flimmer anfällig als eine 4060/7900 oder A750 und bei der 9070xt aktuell ist es mir beim LG Panel noch gar nicht aufgefallen.
Wenn hier jemand berichtet das er mit einem neuen Panel und neuer GPU kaum oder kein Flimmern gesehen hat würde ich das mittlerweile sogar glauben.
Aber ich würde es aktuell niemanden empfehlen der VRR will, denn es gibt keinen Weg sicherzustellen das es in wirklich keiner Situation flimmert. (ich würds als Zufall bezeichnen)
Dann lieber teures IPS oder eines der nicht flimmernden/schmierenden teuren VA Panels.
aufkrawall
2025-06-01, 14:42:24
Wie schon zigmal erwähnt, ist die Ursache bei LCD und OLED nicht unbedingt die Gleiche:
In conclusion, VRR flickering on OLEDs is primarily due to gamma fluctuations, with luminance changes being a secondary effect, particularly in dark scenes. LCDs, especially IPS and TN, experience less flickering due to their stable gamma curves, though VA panels can show similar issues.
Btw. sehr ineffektiv, so etwas noch in Internet-Foren zu fragen, wenn es Gratis-Grok wesentlich besser trifft als die übliche 3DC-Kakophonie in Dauerschleife.
DeadMeat
2025-06-01, 14:46:46
gamma fluctuations? Das tritt bei einem starren Bild ohne jeglich veränderungen auf.
robbitop
2025-06-01, 14:49:09
In Abhängigkeit von der hold duration des Pixels (die Pixelfarbe länger halten). Und das tunt die Elektronik entsprechend der gerade anliegenden refreshrate. Wenn die aber schwankt… So zu mindestens mein Verständnis.
Relex
2025-06-01, 14:50:34
Bei OLED verschiebt sich das Gamma minimal abhängig von der anliegenden Bildwiederholfrequenz.
Folglich sorgen fluktuationen bei der Frequenz für einen Flackereffekt.
aufkrawall
2025-06-01, 14:52:28
gamma fluctuations? Das tritt bei einem starren Bild ohne jeglich veränderungen auf.
Ja, und bei solchen Problemfällen mit dunklen Grautönen in statischer Szene kann man gut erkennen, wie sich mit OLED der Farbton selbst mit den Fluktuationen verändert, während bei LCD es eher auf die Lichtdurchlässigkeit der Pixel beschränkt ist. Was mit VA natürlich auch schon nervig genug ist.
dargo
2025-06-01, 14:55:21
ABER:
Mit neuerer GPU ist es auf allen Panels deutlich weniger aufgetreten.
Die B580 war deutlich weniger Flimmer anfällig als eine 4060/7900 oder A750 und bei der 9070xt aktuell ist es mir beim LG Panel noch gar nicht aufgefallen.
Wenn hier jemand berichtet das er mit einem neuen Panel und neuer GPU kaum oder kein Flimmern gesehen hat würde ich das mittlerweile sogar glauben.
Ich hebe das mal hervor. ;) Bei N21 ebenfalls absolut Null Geflicker.
DeadMeat
2025-06-01, 14:57:02
Interessant, erklärt das natürlich alles ziehmlich gut. Da hab ich wohl glück das ich noch ohne VRR leben kann notfalls, auch wenns aktuell nicht auftritt.
Jedes halbwegs aktuelle Smartphone kann HDR-Fotos aufnehmen.
Ich kann sein Xiaomi-Telefonmodell und seinen Wohnort aus dem JPG lesen, aber HDR-Infos finde ich da keine.
Und Fotos von Bildschirmen ergeben generell wenig Sinn ohne direkte Vergleiche mit gleicher Kamera und gleichen Belichtungseinstellungen.
Ich lasse da mal folgenden Link unkommentiert da zu dem Gamma Thema.
https://github.com/dylanraga/win11hdr-srgb-to-gamma2.2-icm
Als ich die erstem male mit meinem OLED Monitor am PC HDR ausprobiert habe, sah es immer irgendwie falsch aus oder anstatt richtigem schwarz hatte alles einen Grauschleier.
Ich kenne HDR von meinem OLED TV in Filmen/Serien und liebe es, aber am PC sah alles abseits von YouTube Videos immer irgendwie falsch aus.
Die "SDR in HDR"-Farbdarstellung hat es nicht merklich verbessert.
crux2005
2025-06-01, 20:03:35
Also auf meiner 5070ti flackert mein OLED auch nicht. Weder der oled TV noch der 360 Hz oled Monitor. Und es ist ein riesen Schritt nach vorn ggü jeglichem LCD den ich gesehen habe. Nie wieder LCD für mich zumindest.
FTFY. Riesen Schrift. In der Tat.
Die "SDR in HDR"-Farbdarstellung hat es nicht merklich verbessert.
Hängt vom Monitor ab.
Auf LCDs ist es immer noch grausam, auf OLEDs kann es richtig gut aussehen, allerdings muss man die erweiterte Helligkeit deaktivieren und den Monitor auf Helligkeiten beschränken die er wirklich vernünftig darstellen kann.
Rancor
2025-06-02, 15:29:43
Welches Flackern meint ihr eigentlich? Das wenn die FPS unter die VRR Grenze fällt? Sowas hatte ich auch schon bei etlichen IPS Panels. Ich dachte das ist ein VRR Problem und kein Panel Problem. Das tritt auch nur bei Ladescreens auf.
Im Spiel selber ist mir noch nie irgendein Flackern auf gefallen, weder aufm IPS noch auf dem OLED.
robbitop
2025-06-02, 15:55:55
Also ich habe es bis dato auch nur in Ladescreens gesehen und halte das Thema bis dato für deutlich überhypt.
SentinelBorg
2025-06-02, 15:58:15
Hab mir da auch große Sorgen gemacht aber bisher halt auch nur in Ladescreens selten mal gesehen. Und ich hab mittlerweile so viele Spiele gestartet und ausprobiert auf dem OLED, hab schließlich gut 8 TB an Flash in meinem PC voll mit Games.
ChaosTM
2025-06-02, 17:56:53
Das leichte bis mittelschwere (RDR2) Menüflackern, das ich in diversen Spielen hatte ist dank Blackwell jetzt komplett weg.
In Spiel selbst war das gsd. nur in "Edith Finch" vorhanden, dafür aber massiv.
aufkrawall
2025-06-02, 18:17:39
Weiß nicht, in welcher Welt hier wieder einige leben, aber in Oblivion Remastered mit MFG flackert es auf dem WOLED bei 220fps bei einigen Grautönen in einer Tour.
robbitop
2025-06-02, 18:30:30
Nicht jeder hat Oblivion Remastered gespielt und nicht jeder hat MFG. Muss man beides haben um in einer repräsentativen Welt zu leben? ^^
OT:
Ich hätte ja Bock auf Oblivion aber solange die kaputten Frametimes nicht gefixt werden warte ich lieber auf Skyblivion.
Argo Zero
2025-06-02, 19:13:16
Weiß nicht, in welcher Welt hier wieder einige leben, aber in Oblivion Remastered mit MFG flackert es auf dem WOLED bei 220fps bei einigen Grautönen in einer Tour.
In einer Welt ohne Oblivion Remastered ohne MFG obviously xDDD
rofl, aber der war echt mal gut aufkrawall :freak:
@robbitop
This!!! Freue mich auf Skyblivion auch wie sonst was :3
Ex3cut3r
2025-06-02, 19:22:42
Weiß nicht, in welcher Welt hier wieder einige leben, aber in Oblivion Remastered mit MFG flackert es auf dem WOLED bei 220fps bei einigen Grautönen in einer Tour.
Danke. Genau solche Aussagen vermisse ich hier. Nix für ungut. Aber man hat oft das Gefühl, dass hier OLED schöngeredet wird. Das die Bildqualität Top Notch ist, ist völlig klar. Perfekt, geil x100.
Aber, es kann nicht sein -> flackert bei mir nicht, sehe ich nur in Ladescreens etc. wenn beim OLED Guy auf YouTube (dieser Chinese) jeder OLED in seinen Reviews VRR Flackern hat.
Ich muss mir selbst ein Bild machen, und wenn das Ding in Spielen bei angucken einer schwarzen/dunklen Wand flackert, wird davon ein Handy Video gemacht, hier gepostet werden, und "Morgen" geht das Ding dann zurück. :freak:
crux2005
2025-06-02, 19:56:08
Danke. Genau solche Aussagen vermisse ich hier. Nix für ungut. Aber man hat oft das Gefühl, dass hier OLED schöngeredet wird. Das die Bildqualität Top Notch ist, ist völlig klar. Perfekt, geil x100.
Aber, es kann nicht sein -> flackert bei mir nicht, sehe ich nur in Ladescreens etc. wenn beim OLED Guy auf YouTube (dieser Chinese) jeder OLED in seinen Reviews VRR Flackern hat.
Ich muss mir selbst ein Bild machen, und wenn das Ding in Spielen bei angucken einer schwarzen/dunklen Wand flackert, wird davon ein Handy Video gemacht, hier gepostet werden, und "Morgen" geht das Ding dann zurück. :freak:
Ist doch typisch Mensch:
Wer das Produkt nicht besitzt -> XY geht gar nicht
wer das Produkt besitzt -> fällt mir überhaupt nicht auf.
Rancor
2025-06-02, 20:05:35
Weiß nicht, in welcher Welt hier wieder einige leben, aber in Oblivion Remastered mit MFG flackert es auf dem WOLED bei 220fps bei einigen Grautönen in einer Tour.
Ahh ok. Vllt. liegts an MFG?
Hast du mal eine spezielle Stelle? Ich bin eben in mal in extra in eine Höhle rein und habe DLSS auf Extreme Leistung gestellt, damit ich 200 FPS bekomme. Mir ist nichts aufgefallen?
The_Invisible
2025-06-02, 20:14:57
Naja sehe das pragmatisch, hatte zwei OLEDs hier, Samsung G8 QDOLED und jetzt den LG WOLED. Ersterer flickerte in den Problemgames wie sonst was, der WOLED gar nicht. Das einzige wo er flackern kann ist bei Shader Compile oder Ladescreens.
Warum und wieso keine Ahnung. Habe aber auch keine Lust da weiter herumzutesten, das sollten eigentlich die Reviewer machen die zig Monitore und Rechnerkombis herumstehen haben.
Für mich bedeutet das aber eher, dass wenn ich wieder einen neuen Monitor kaufen sollte (die 5k2k sind interessant), ich mich eigentlich auf keinen Test verlassen kann. Irgendwie alles völlig absurd.
Auch mit der Schrift so, die einen arbeiten schon jahrelang mit einem 42" Monstrum auch als HO Monitor und alles ist gut, die anderen sehen selbst bei 32" 4k noch irgendwas ;D
@Ex3cut3r
Jap, wohl die einzige Möglichkeit wenn man sich das selber ansieht.
crux2005
2025-06-02, 20:41:11
Rtings testet doch ob die Monitore flackern. Klar, ist Extrembedingung aber es flackern alle. Manche weniger, manche mehr. Die Grafikkarte ist egal.
Beim LG:
Unfortunately, the LG 32GS95UE-B has distracting VRR flicker with changing frame rates. It's most noticeable in dark scenes, and while it isn't so bad in brighter scenes, you can still see it in dark shadows. This doesn't happen if your PC can maintain fairly consistent frame rates.
In hellen Szenen eben nicht ganz so sichtbar wie andere OLEDs.
DeadMeat
2025-06-02, 21:01:05
Die Grafikkarte ist egal.
Sollte es nicht die GPU sein ist es der Treiber, ich habe deutliche unterschiede zwischen Herstellern und GPU generation am gleichen Monitor festgestellt.
Ich habs gesehen und getestet.
aufkrawall
2025-06-02, 21:10:53
Ahh ok. Vllt. liegts an MFG?
Hast du mal eine spezielle Stelle? Ich bin eben in mal in extra in eine Höhle rein und habe DLSS auf Extreme Leistung gestellt, damit ich 200 FPS bekomme. Mir ist nichts aufgefallen?
Ja, ohne FG hatte es nicht oder viel weniger geflackert. In Höhlen tritt es kaum auf, vorwiegend draußen bei Nacht/Nebel/Dämmerung.
Thunder99
2025-06-02, 21:10:59
Vielleicht etwas Offtopic, aber geht auch um HDR.
Die aktuielle Windows 11 Insider Preview hat eine neue Option für HDR. Entweder bin ich dumm und checke es nicht, oder aber es ist verbugt.
"Verwalten Sie die HDR-Funktionen Ihres PCs unter Einstellungen > System > Anzeige > Updates enthalten: Eine klarere Beschriftung für „HDR verwenden“, die besser erklärt, welche Medientypen unterstützt werden. Die Möglichkeit, HDR-Videos zu streamen, auch wenn HDR ausgeschaltet ist."
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=93145&stc=1&d=1748535701
Ist aber ausgegraut wenn HDR aus ist. Wenn ich HDR einschalte, kann ich die Option aktivieren. Schalte ich HDR wieder aus, ist es wieder nicht gesetzt und ausgegraut. Müsste doch genau anders herum sein oder nicht? :freak:
Buggy, anders kann ich mir das nicht erklären. Wird erst gar nicht angezeigt mit dem 2. Mai Update auf normal Chanel von Windows.
crux2005
2025-06-02, 21:16:08
Sollte es nicht die GPU sein ist es der Treiber, ich habe deutliche unterschiede zwischen Herstellern und GPU generation am gleichen Monitor festgestellt.
Ich habs gesehen und getestet.
Ja, der Treiber kann u.U. einen Unterschied machen falls es einen Bug oder so gibt wann LFC eingeschaltet wird. Sollte aber minimal sein.
Deswegen hatte ich z.B. mit IPS + Gsync Modul nie solche Probleme gehabt.
aufkrawall
2025-06-02, 21:24:15
Sollte aber minimal sein.
Ne, mitunter maximal. RDNA4 hatte hier so kaputte reale Bildausgabe auf dem Schirm, da hat selbst mein IPS ohne FG in Talos Reawakened und Fortnite Photo-Modus angefangen zu flackern.
Dr. Lars Sahmströhm
2025-06-02, 21:49:45
Das hab ich jetzt davon, dass ich seit Monaten vor einem 55Zoll 4K TV sitze. Ich würde gern einen 27er OLED kaufen, so einen mit 360hz Samsung Panel, aber ich war neulich im MediaMarkt und mir kamen die 27er winzig vor, wirklich klein. Auch die 32er 4K OLEDs kamen mir klein vor, wenn auch deutlich passender. Was mache ich jetzt. Eigentlich will ich keine 4K, weil ich maximal eine RX 9070XT aufrüsten will und es da wird es in den graphisch starken Titeln schon teilweise eng konstant 60FPS zu halten. Ich denke in Richtung GTA6. Andererseits spiele ich kaum noch schnelle Games wie Shooter etc. sonder eher langsame Titel, RPGs, Strategie, Citybuilding etc. und dort würde ich wohl von einem kristallscharfen, großen Bild mehr profitieren, als von einem schnelleren, kleineren Bild.
Meine Recherche hat ergeben, dass die 32er QD-OLED Panels von Samsung mit 165hz, wie sie in den Einsteigermodellen von z.B. Gigabyte oder AOC verbaut werden, scheinbar keinen VRR Flicker haben und ausgesprochen sparsam sind. Igor von igorslab.de meint, zwischen 165hz und 240hz würde er keinen Unterschied sehen auf einem OLED. Hmmm.. :ucoffee:
Oder ich warte auf die neuen LGs mit 4 layer WOLED (statt 3 layer). In 1-2 Monaten könnten die ersten Tests auftauchen. Im Markt in der Display-Phalanx hatte mir der 32GS95UX-B am besten gefallen. Er hatte das beste Bild, gut das heißt nichts weil da ein low-res-Media-Markt-Banner drauf lief (why?!) und hatte einen dünnen Rahmen, der einem kein Markenlogo mittig ins Blickfeld drückt. Aber er hat den "dirty screen", diese leichte fuzzyness im Weiß, die ich von meinem Uralt-TN-Panel mit Matt-Beschichtung kannte (und die mich immer latent genervt hat).
dargo
2025-06-02, 22:06:39
Danke. Genau solche Aussagen vermisse ich hier. Nix für ungut. Aber man hat oft das Gefühl, dass hier OLED schöngeredet wird.
Natürlich... ich rede mir den ASUS ROG Strix OLED XG27UCDMG schön, nachdem ich schon zwei OLEDs zurück geschickt hatte. :crazy: Dieser Thread ist nur noch peinlich. (no)
btw.
Der Dell AW2725Q hat gut im Preis nachgelassen.
https://geizhals.de/dell-alienware-27-4k-qd-oled-gaming-monitor-aw2725q-210-bqwv-a3474923.html?hloc=de
Ex3cut3r
2025-06-02, 22:30:44
Ach Dargo.
https://s1.directupload.eu/images/250602/5ra3c6gj.png
Soviel dazu. Hat sich wohl innerhalb von 6 Monaten total atomisiert, das Problem. Ein Wunder.
dargo
2025-06-02, 22:38:02
Du bist auf dem besten Wege der größte Troll in diesem Forum zu werden. :uclap:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13663438#post13663438
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13663498#post13663498
Edit:
Der Gigabyte von damals hatte afaik keine Frequenzangabe im OSD vom Bildschirm, der aktuelle ASUS hat das. Hätte GB die Anzeige (ist gerade bei so einem Fall sehr praktisch wo die Software defekt ist) wäre es mir direkt aufgefallen, dass mit VRR in diesem Spiel was nicht stimmt. Ob heute immer noch, keine Ahnung. Spiele das Game nicht mehr.
Ex3cut3r
2025-06-02, 22:41:39
1. Das Spiele immer mal wieder problematische Frametimes haben, kommt immer mal vor. Das deswegen der Monitor flackert, ist einfach ein Nogo. Vorallem bei den Preisen. Und jeder 250€ IPS nicht flackert.
2. VRR steht für Variabel unter anderem, wenn ich ein festes FPS Limit setze, habe ich mir den Vorteil von VRR selbst gekillt, auch wenn dann nichts mehr Flickert, und das das die letzte Trumpf Karte ist, die man als OLED Nutzer hat. Für mich auch keine Lösung.
Aber gut. Lassen wir das.
OLED ist perfekt im Bild, hat aber einen besonderen Makel.
crux2005
2025-06-03, 00:29:59
Meine Recherche hat ergeben, dass die 32er QD-OLED Panels von Samsung mit 165hz, wie sie in den Einsteigermodellen von z.B. Gigabyte oder AOC verbaut werden, scheinbar keinen VRR Flicker haben und ausgesprochen sparsam sind. Igor von igorslab.de meint, zwischen 165hz und 240hz würde er keinen Unterschied sehen auf einem OLED. Hmmm.. :ucoffee:
Was Igor sieht oder nicht ist Irrelevant. Der Unterschied bei Klarheit in Bewegung ist zwischen 165 Hz und 240 Hz sichtbar. https://www.youtube.com/watch?v=CS0sx6xYHN0&t=420s 480 Hz ist natürlich superb.
Und die Panels mit 165 Hz flickern auch. Ob das in deinen Spielen störend sein wird ist eine andere Frage.
165 Hz ist ohne MFG (sei es Radeon oder du willst es nicht benutzen) prinzipiell gut genug. Hängt vom Preis ab. Wenn der Unterschied aber sehr klein ist, lohnen sich die 240 Hz.
Dr. Lars Sahmströhm
2025-06-03, 05:39:41
Was Igor sieht oder nicht ist Irrelevant. Der Unterschied bei Klarheit in Bewegung ist zwischen 165 Hz und 240 Hz sichtbar.
So ganz überzeugt mich der Ufo-Vergleich nicht. 1. Ist der Unterschied zwischen 165hz und 240hz auch im Ufo-Bild nur sehr klein. 2. Ist dieser nur sehr kleine Unterschied hier auf einem Standbild festgehalten, das von unseren Augen in aller Ruhe nach allen Details abgescannt werden kann. In der Praxis beim Drehen der Kamera in einer Spieleumgebung und deinem Augenfokus auf einem Spielziel, wirst du das eher nicht bemerken. Wahrscheinlich nicht einmal, wenn du zwei Monitore direkt nebeneinander stellst und abwechselnd darauf spielst.
crux2005
2025-06-03, 05:51:58
Na dann, wozu auch was schreiben wenn dir alles klar ist? :confused:
PjQBqPuHxG0
u.a. ein weiteres Firmware Update für MSI OLEDs.
ChaosTM
2025-06-03, 06:19:04
2 Stunden Oblivion heut N8 und no Flickering (WOLED). > 300fps
Der Monitor selbst kann aber nur 138hz max..
dargo
2025-06-03, 06:50:14
So ganz überzeugt mich der Ufo-Vergleich nicht. 1. Ist der Unterschied zwischen 165hz und 240hz auch im Ufo-Bild nur sehr klein. 2. Ist dieser nur sehr kleine Unterschied hier auf einem Standbild festgehalten, das von unseren Augen in aller Ruhe nach allen Details abgescannt werden kann. In der Praxis beim Drehen der Kamera in einer Spieleumgebung und deinem Augenfokus auf einem Spielziel, wirst du das eher nicht bemerken. Wahrscheinlich nicht einmal, wenn du zwei Monitore direkt nebeneinander stellst und abwechselnd darauf spielst.
Das hatte ich hier schon öfter geschrieben, will nur offenbar manch einer nicht verstehen. Und die Krönung sind dann diejenigen die mit den abfotografierten Ufo-Bildern um die Ecke kommen und dann Motion Blur in Games aktiviert lassen. :freak: Mit 240Hz sieht das Ufo hier auf dem QD-OLED in Bewegung absolut scharf aus fürs Auge, da schliert gar nichts. Mit 120Hz etwas verschwommen und mit 60Hz wirds dann wirklich übel.
Edit:
Hier hatte es Exe zuletzt mit diesem Quatsch wieder versucht.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13761428&postcount=21396
Dabei sieht das Ufo in Bewegung bei mir mit 240Hz fürs Auge noch schärfer aus als das 480Hz Ufo im Bild.
robbitop
2025-06-03, 07:20:09
Ich für meinen Teil bezweifle nicht, dass OLED Panels flimmern können. Tests gibt es dazu ja genug. Was ich nur sage ist, dass zumindest bei meinem Zocken diese Extremstellen anscheinend Mangelware sind bis dato.
Im RTINGS Test sieht man es geht immer zu einer ganz bestimmten Stelle in ein ganz bestimmtes Spiel.
Will sagen: es lauert nicht gerade an jeder Ecke. Zumindest in (meiner) Spielepraxis. Und das ist was ich meine: wenn es kaum / super selten auftritt ist es ein überhyptes Problem (IMO).
Was MFG betrifft: kann mir gut vorstellen dass es da öfter auftreten wird. Im Prinzip werden Amplituden in Frametimes damit ja deutlich verstärkt.
Ich habe es bisher nur in MW5C probiert und da war es ohne für mich sichtbares Flimmern. Ist aber auch ein helles Spiel.
dargo
2025-06-03, 07:31:21
Boah... robbitop. Komm du jetzt auch noch mit dem Test von rtings um die Ecke. X-D Hast du dir mal angeschaut wie sich die Framerate in diesem Test verhält? Ich denke nicht, ansonsten würdest du damit nicht ankommen. Dieser Test wurde speziell von rtings entwickelt um die Panelproblematik überhaupt erst aufzeigen zu können. Das hat aber rein gar nichts mit der Praxis im Gaming zu tun. Solange VRR im Spiel XYZ von den DEVs nicht verkackt wurde, solange der IHV im Treiber keine scheiße gebaut hat flimmert in Games auf dem QD-OLED gar nichts. Und mir soll auch keiner mit irgendeinen Beispiel kommen wo die Frametimes völlig im Arsch sind und das Game ständig nur stottert. So einen Software Schrott spiele ich erst gar nicht. Wobei bei mir der QD-OLED selbst im stotternden Alan Wake 2 nicht flackert wie ich letztens geprüft habe.
Ich für meinen Teil bezweifle nicht, dass OLED Panels flimmern können. Tests gibt es dazu ja genug.
Solange du die genauen Details unter welchen Voraussetzungen das getestet wurde nicht kennst ist das alles völlig wertlos. Es reicht schon alleine aus, dass jemand das mit einem kaputten Geforce Treiber oder kaputten Game getestet hat und der bullshit verbreitet sich im Netz wie ein Virus.
robbitop
2025-06-03, 07:39:49
Ich habe doch aber geschrieben (hast du meinen Post nicht ganz durchgelesen) dass es extra rausgesuchte (bzw. sehr sehr seltene) Extremszenarien sind und ich diese nicht für repräsentativ erachte und damit das Thema für überhypt halte.
Und ich halte alle Punkte die du da anführst für legitim und würde dem auch so zustimmen
dargo
2025-06-03, 07:43:54
Für viel wichtiger halte ich den Hinweis, dass dort teilweise von 1fps direkt auf 300fps gewechselt wird. Das scheinen hier so einige nicht mitbekommen zu haben. Zugegeben... die Qualität der Videos dazu von rtings ist absolut miserabel, man kann es kaum erkennen. Da muss ich mich dann schon fragen wer so spielt. :freak:
Exxtreme
2025-06-03, 08:49:33
Interessant ist, dass die Bildschirmhersteller das nicht schaffen das VRR Flackern zu eliminieren. Das müsste eigentlich problemlos machbar sein. Der Bildschirm kennt ja die Bildwiederholfrequenz, also könnte er die Helligkeit dynamisch anpassen.
Rancor
2025-06-03, 08:57:56
Also flackern tut mein Display definitiv, wenn es unterhalb der VRR Grenze geht und danach wieder drüber. Also zum Beispiel bei Ladescreens. Das hatte mein 34" LG NANO IPS Panel aber auch. Ich habe das wie gesagt für ein generelles VRR Problem gehalten und wusste nicht, das das anscheinend vom Panel abhängig ist.
Ich habe gestern Abend noch 2 Stunden Oblivion mit 200 FPS getestet bei Nacht, in Höhlen und in Dungeons. Ich habe nichts festgestellt. Gibt es denn irgendwo eine Video aus der Spielpraxis, wo das Problem sichtbar ist?
Ich meine ich bin ein alter Mann. Vllt. sehe ich es einfach nicht mehr ;D
Der_Korken
2025-06-03, 09:04:12
Interessant ist, dass die Bildschirmhersteller das nicht schaffen das VRR Flackern zu eliminieren. Das müsste eigentlich problemlos machbar sein. Der Bildschirm kennt ja die Bildwiederholfrequenz, also könnte er die Helligkeit dynamisch anpassen.
Soweit ich die Erklärungen von anderen verstanden habe, müsste der Monitor bereits beim Anzeigen eines Frames wissen, wie lang dieses angezeigt werden muss, damit die Helligkeit stimmt (auch wenn ich nicht verstehe wie sowas sein kann). Unter dieser Annahme wäre ein Verhindern des Flackernde immer mit einer festen Zusatzlatenz verbunden, innerhalb derer der Monitor garantiert erfährt wann der nächste Frame reinkommt. Es gibt also keinen simplen Fix dafür, allerdings sollte man einen solchen Modus trotzdem anbieten imho. Aber nicht so grottig implementiert wie der von Samsung, wo irgendwas um die 20-30ms dazukommen. Das geht naiv in 8,33ms bei 240Hz, optimiert müsste es sogar in 4,16ms gehen.
Rancor
2025-06-03, 09:37:50
https://www.youtube.com/watch?v=GiQIRXhxaOY
Also sowas habe ich 100%ig nicht, wenn es das ist was ihr meint. Dann wäre der Monitor INSTANT zurückgegangen.
Oder sowas hier:
https://www.youtube.com/watch?v=E5-d1p6j6FY
Das ist ja maximal ekelhaft!
The_Invisible
2025-06-03, 10:08:48
Soweit ich die Erklärungen von anderen verstanden habe, müsste der Monitor bereits beim Anzeigen eines Frames wissen, wie lang dieses angezeigt werden muss, damit die Helligkeit stimmt (auch wenn ich nicht verstehe wie sowas sein kann). Unter dieser Annahme wäre ein Verhindern des Flackernde immer mit einer festen Zusatzlatenz verbunden, innerhalb derer der Monitor garantiert erfährt wann der nächste Frame reinkommt. Es gibt also keinen simplen Fix dafür, allerdings sollte man einen solchen Modus trotzdem anbieten imho. Aber nicht so grottig implementiert wie der von Samsung, wo irgendwas um die 20-30ms dazukommen. Das geht naiv in 8,33ms bei 240Hz, optimiert müsste es sogar in 4,16ms gehen.
Das hat Samsung mit VRR Control, dafür hat man etwaiges tearing.
@Rancor
Jap das ist es. Wäre bei mir auch sofort zurückgegangen, VRR aus ist einfach keine Option mehr wenn man es einmal hatte.
deepmac
2025-06-03, 10:22:45
Natürlich... ich rede mir den ASUS ROG Strix OLED XG27UCDMG schön, nachdem ich schon zwei OLEDs zurück geschickt hatte. :crazy: Dieser Thread ist nur noch peinlich. (no)
btw.
Der Dell AW2725Q hat gut im Preis nachgelassen.
https://geizhals.de/dell-alienware-27-4k-qd-oled-gaming-monitor-aw2725q-210-bqwv-a3474923.html?hloc=de
ja aber welche Anbieter, bin auch ziemlich verzweifelt, was das Thema angeht, sitze hier vor einem Alienware AW2310
https://www.flatpanelshd.com/review.php?subaction=showfull&id=1275899900
TNT Panel 23 Zoll FullHd 120 HZ seit 2012 mit einer jetzt RTX 5070 Ti Asus Prime, noch schlimmer , mit CCFL Beleuchtung, oder Besser?, und hab Schwierigkeiten, das passende Upgrade zu finden. Geld wäre da.
Die Sache war noch schlimmer, ich musste mir einen aktiven displayport zu dvi digital Adapter für 45 Euro kaufen, um die Graka mit 120 hz nutzen zu können, geht auch, meine Asus Dual Rtx 2070 hatte noch Dvi Ausgang.
Argo Zero
2025-06-03, 10:43:11
Interessant ist, dass die Bildschirmhersteller das nicht schaffen das VRR Flackern zu eliminieren. Das müsste eigentlich problemlos machbar sein. Der Bildschirm kennt ja die Bildwiederholfrequenz, also könnte er die Helligkeit dynamisch anpassen.
Auf was muss man genau achten?
Gestern wieder 2-3h Overwatch 2 gespielt mit VRR auf an, zwischen 220-240 FPS und mir ist nichts aufgefallen.
Gerade in so einem Spiel müsste es auffallen oO
Exxtreme
2025-06-03, 10:44:52
Auf was muss man genau achten?
Gestern wieder 2-3h Overwatch 2 gespielt mit VRR auf an, zwischen 220-240 FPS und mir ist nichts aufgefallen.
Gerade in so einem Spiel müsste es auffallen oO
Du hast einen IPS-Bildschirm. Die sind nicht anfällig für VRR Flackern. Das betrifft nur OLED- und VA-Panels. IPS- und TN-Panels sind da fein raus.
Argo Zero
2025-06-03, 10:59:21
Nicht mehr, mittlerweile MSI MPG 322URXDE QD-OLED.
Zocke in 3200 x 1800 ohne Skalierung mit VRR und Max FPS bei 240. FPS sind immer so zwischen 220-240 FPS. Sehr selten drunter.
dargo
2025-06-03, 11:12:36
Also flackern tut mein Display definitiv, wenn es unterhalb der VRR Grenze geht und danach wieder drüber.
Ich habe das jetzt in TLOU mal provoziert indem ich dann teilweise nur bei 50+fps gelandet bin wo LFC greift. Auf dem ASUS flackert immer noch nichts.
https://www.youtube.com/watch?v=GiQIRXhxaOY
Also sowas habe ich 100%ig nicht, wenn es das ist was ihr meint. Dann wäre der Monitor INSTANT zurückgegangen.
Lass mich raten... kaputtes LFC auf Geforce? Jedenfalls würde ich Geforce aus dem Overlay ableiten. Wie ich schon sagte... solche Beispiele sind ohne genauere Details absolut wertlos.
raffa
2025-06-03, 11:20:25
Interessant ist, dass die Bildschirmhersteller das nicht schaffen das VRR Flackern zu eliminieren. Das müsste eigentlich problemlos machbar sein. Der Bildschirm kennt ja die Bildwiederholfrequenz, also könnte er die Helligkeit dynamisch anpassen.
Wenn man die Funktionsweise von Adaptive Sync ansieht, wird einem klar, dass dem nicht so ist, bzw. das das ein falscher Gedanke ist. Der Bildschirm läuft bei fester Frequenz (e.g. 240Hz) und wartet im variablem v-blank auf das nächste Frame. Kommt ein neues Frame beginnt direkt der nächste Refresh. Kommt keines rechtzeitig bis zur Maximalzeit = 1/minHz wir ebenfalls refreshed.
Die Zeit für den Bildaufbau ändert sich dabei nicht, lediglich die Haltedauer das angezeigten Frames variert.
Um den empfundenen Helligkeitsunterschied per Firmware auszugleichen muss der Monitor wissen, wie lange das Bild angezeigt wird, zusätzlich muss der resultierende Gammashift bekannt sein.
Man muss also verzögern, bis bekannt ist, wann der nächste gerenderte Frame reinkommt, damit man weiss wielange der nächste angezeigte Frame gehalten wird und das dann mit einer Korrekturkurve oder LUT verrechnen und bekommt so maximal zusätzlich 1/minHz Latenz.
Beispiel:
Range 48-240Hz, lag_max = 1/minHz = 20,8ms, Haltedauer 4,16 bis 20,8ms, Delta_max = 16,66ms
Schränkt man die Range ein auf 118-240 (geht wegen LFC), sinkt der maximale Zusatzlag auf 1/118Hz = 8,5ms. Haltedauer 4,16 bis 8,5ms, Delta_max = 4,34ms
Hier wird auch klar, warum das einschränken der Range des Flackern reduziert, der Unterschied in der Haltedauer wird kleiner und damit auch Schwankungen der Helligkeit.
LFC: Wird das ungünstig implementiert oder hat der Monitor eine schmale Range und die FPS sind grad an der LFC Grenze, dann ändert sich die Haltedauer im Extremfall ständig sehr stark, das ist dann quasi ein Flacker Worstcase.
Rancor
2025-06-03, 11:20:48
Ich habe das jetzt in TLOU mal provoziert indem ich dann teilweise nur bei 50+fps gelandet bin wo LFC greift. Auf dem ASUS flackert immer noch nichts.
Lass mich raten... kaputtes LFC auf Geforce? Jedenfalls würde ich Geforce aus dem Overlay ableiten. Wie ich schon sagte... solche Beispiele sind ohne genauere Details absolut wertlos.
Aber 50+ sollte ja noch innerhalb von VRR sein. Zumindest bei meinem Monitor. Ingame versuche ich das auch nochmal zu provozieren in Oblivion.
Lass mich raten... kaputtes LFC auf Geforce? Jedenfalls würde ich Geforce aus dem Overlay ableiten. Wie ich schon sagte... solche Beispiele sind ohne genauere Details absolut wertlos.
Keine Ahnung. Ich habe nur nach Videos gesucht, die das Problem zeigen sollen, weil ich es bei meinem OLED nur in Ladescreens habe und das auch nicht bei jedem Spiel.
Aber wie gesagt, das hatte ich vorher auf dem IPS Panel von LG auch.
Davon abgesehen ist es auch bei meinem Display in Ladescreens nur sichtbar, wenn man darauf achtet. Vorher ist mir das garnicht aufgefallen :D So extrem wie in den Videos ist es zu keiner Zeit
Crazy_Chris
2025-06-03, 11:22:27
Wird das Problem eigentlich verstärkt wenn man HDR an hat?
dargo
2025-06-03, 11:25:18
Aber 50+ sollte ja noch innerhalb von VRR sein.
Du hast da einen Denkfehler. LFC richtet sich nach der Frametime, und diese ist niemals 100% glatt. Ergo greift LFC nicht erst wenn du 48fps oder gar 47fps auf dem Screen siehst, letzteres ist eh nur der Durchschnittswert. Ich sehe im OSD vom Bildschirm wann LFC greift. Das ist der Vorteil von einem entsprechenden OSD.
Wird das Problem eigentlich verstärkt wenn man HDR an hat?
Ich zumindest kann dir das nicht beantworten da ich weder mit SDR noch HDR Flackern habe.
Rancor
2025-06-03, 11:27:48
Wird das Problem eigentlich verstärkt wenn man HDR an hat?
Das dürfte keine Rolle spielen.
Ex3cut3r
2025-06-03, 12:51:11
https://www.youtube.com/watch?v=GiQIRXhxaOY
Also sowas habe ich 100%ig nicht, wenn es das ist was ihr meint. Dann wäre der Monitor INSTANT zurückgegangen.
Oder sowas hier:
https://www.youtube.com/watch?v=E5-d1p6j6FY
Das ist ja maximal ekelhaft!
Die Videos sind 2 bzw. 4 Jahre alt, angeblich (ich kann es nicht bestätigen) hat der Nvidia Treiber mit VRR auf OLED mal herumgesponnen. Soll mittlerweile gefixt worden sein.
Danke für die Videos. :up:
Die Videos sind 2 bzw. 4 Jahre alt, angeblich (ich kann es nicht bestätigen) hat der Nvidia Treiber mit VRR auf OLED mal herumgesponnen. Soll mittlerweile gefixt worden sein.
Danke für die Videos. :up:
Nicht nur auf Oled, habe jahrelang kein VRR genutzt mit der 3060ti am VA Monitor. Anfang des Jahres wurde es wohl erst gefixt. Scheiß Verein.
DeadMeat
2025-06-03, 15:00:04
Nicht nur auf Oled, habe jahrelang kein VRR genutzt mit der 3060ti am VA Monitor. Anfang des Jahres wurde es wohl erst gefixt. Scheiß Verein.
Die Hersteller kümmern sich so wenig darum, die meisten Monitore haben ja nichtmal eine Funktion für Firmware updates für User.
Auch mein QD Oled vorher hatte keine möglichkeit zum User-Update und das in der ~700€ Klasse.
robbitop
2025-06-03, 15:38:30
Er meint, dass LFC Verhalten von Nvidia erst sehr spät gefixt wurde.
Ja, aber nicht nur LFC. Es war in den meisten Games unbrauchbar, auch wenn sie über 100 fps blieben.
Mit den AMD-Karten vorher und jetzt und nach dem nVidia-Fix auch mit der 3060 Ti war es viel besser.
crux2005
2025-06-04, 00:26:02
fnZinilo_sg
dargo
2025-06-04, 05:03:03
ja aber welche Anbieter, bin auch ziemlich verzweifelt, was das Thema angeht, sitze hier vor einem Alienware AW2310
https://www.flatpanelshd.com/review.php?subaction=showfull&id=1275899900
Verstehe die Frage nicht. Was meinst du mit welcher Anbieter? Beim Händler? Nimmst einfach den hier, ist versandkostenfrei.
https://shop.metacomp.de/displays-projektoren/tfts/flachbildschirm-tftlcd/dell-alienware-27-4k-qd-oled-gaming-monitor-aw2725q-oled-monitor-gaming-686-cm-27.html
Wenn du unsicher bist ob der neue OLED für dich was ist schaust halt bei Händlern vorbei bei denen der Rückversand ebenfalls kostenfrei ist.
Rancor
2025-06-04, 09:30:47
Ich habe gestern Abend noch TLOU ausprobiert. DLSS aus und Resolution Scale hoch damit ich immer so um die 50 FPS habe. Ich habe auch dort kein Flackern feststellen können.
Ich für meinen Teil kann also sagen, das ich das nur bei Ladescreens habe.
robbitop
2025-06-04, 09:33:52
Mein Eindruck ist, es gibt ein paar Extremszenarien (ausgewählte Szenen, in ausgewählten Spielen mit ausgewählten Settings) die aber so selten sind, dass es nicht wirklich repräsentativ zu sein scheint. Ich habe diese vielleicht beim normalen Zocken einfach noch nie erlebt. Und deshalb ist mein jetziges Urteil: ein überhyptes Problem. (im Gegensatz zu den Farbsäumen -> aber auch da scheint es ja mit 27" und 4K dann für die allermeisten total ok zu sein - mir reicht sogar schon 1440p - ich bin unempfindlicher in der Hinsicht - mich stört es einfach kaum beim Arbeiten und ich genieße die OLED Vorteile beim Zocken)
Crazy_Chris
2025-06-04, 09:54:39
Ja irgendetwas ist halt immer. :wink: Den perfekten Monitor gibt es leider noch nicht. Was mich etwas für ein Enthusiastenforum verblüfft ist das hier scheinbar "alle" auf diese 27" 4k Monitore abfahren. Klar die Pixeldichte ist super aber 27" ist doch schon etwas sehr mickrig. Aber gut, manche spielen auch ausschließlich mit einem Gaminglaptop. :redface: Ich kanns trotzdem nur schwer nachvollziehen.
redpanther
2025-06-04, 10:07:13
Ich denke das in game VRR flackern kann man am besten in "What Remains of Edith Finch" testen,
Da knallt es einem direkt am Anfang direkt ins Auge.
Irgendwas haben die da sehr kaputt programmiert, denn in anderen Spielen ist es mir In-Game nie aufgefallen.
robbitop
2025-06-04, 10:48:39
Ja irgendetwas ist halt immer. :wink: Den perfekten Monitor gibt es leider noch nicht. Was mich etwas für ein Enthusiastenforum verblüfft ist das hier scheinbar "alle" auf diese 27" 4k Monitore abfahren. Klar die Pixeldichte ist super aber 27" ist doch schon etwas sehr mickrig. Aber gut, manche spielen auch ausschließlich mit einem Gaminglaptop. :redface: Ich kanns trotzdem nur schwer nachvollziehen.
Es hat mit dem Sitzabstand zu tun. Zumindest ich sitze an einem normalen Schreibtisch mit einem Sitzabstand von 70 cm. Wer weiter weg sitzt, braucht auch einen größeren Monitor um das gleiche Sichtfeld auszufüllen.
Jetzt könnte man natürlich auch bei gleichem Abstand das Sichtfeld vergrößern - aber ich mag das absolut nicht. Ich habe vor Jahren mal einen 32" Monitor probiert und gemerkt wie ich das Zocken so nicht mehr mochte. Minimap, Teile des Huds. Alles nicht im Fokus so dass die Augen ständig das Bild abtasten mussten und auch der Kopf gedreht werden musste. Das empfand ich als deutlich anstrengender bei schlechterem Gameplay. Wo sind die Gegner? -> erstmal gucken...aah da.
Mochte ich überhaupt nicht.
Wenn ich Lust hab, kann ich optional am OLED TV auf der Couch in der Man Cave spielen - das sind dann chillige gamepad Spiele. Aber ich würde sagen durch den höheren Abstand ist jetzt auch nicht wesentlich mehr im Sichtfeld.
Man muss es also immer eher betrachten, wie viel 0° von meinem Sichtfeld nimmt der Monitor ein. Es spielt gar keine Rolle, wie groß der Monitor ist.
Exe zB sitzt viel weiter weg (weil er anscheinend im Stuhl schon fast liegt) und klar braucht er dann auch einen größeren Monitor für das gleiche Sichtfeld.
Und es gibt sicherlich Leute, die zum Zocken den Überblick nicht brauchen und lieber mehr ° vom Sichtfeld abgedeckt haben wollen.
Also sehr individuell abhängig. The right tool for the right job würde ich sagen. Da gibt es kein "das ist das beste". Wie so oft im Leben ;)
horn 12
2025-06-04, 11:29:13
Bitte postet mal ein Video mit dem VRR Flackern
Wenn dann habe ich bei Surfen hier im Forum, Fdx. ecc. immer solche Blitze, Zuckungen.
Bei Games aber alles Ruhig beim 4K QD Oled 3225QF
ChaosTM
2025-06-04, 11:31:34
Ich denke das in game VRR flackern kann man am besten in "What Remains of Edith Finch" testen,
Da knallt es einem direkt am Anfang direkt ins Auge.
Irgendwas haben die da sehr kaputt programmiert, denn in anderen Spielen ist es mir In-Game nie aufgefallen.
Das Spiel ist die große Ausnahme. Das flackert selbst mit Blackwell noch. :freak:
Bei allen anderen Games ist es völlig verschwunden in den Menüs.
Die Spiele selbst haben nie geflimmert - bis auf oben genannte Ausnahme.
"Edith" lauft aber so schnell, dass VRR nicht nötig ist..
Lurtz
2025-06-04, 11:40:43
Gar nicht mitbekommen, von ASRock gibts ja einen relativ günstigen 32"er mit dem aktuellen WOLED-Panel von LG: https://tftcentral.co.uk/reviews/asrock-phantom-gaming-pgo32ufs
Leider nur bei wenigen Händlern verfügbar in Deutschland, auf den ersten Blick bei keinem, dem ich mit so einem Kauf "vertrauen" würde. Garantie in Deutschland unklar?
In SDR kann man uniforme Helligkeit erreichen, allerdings nur bei ~218 nits. Sonst scheint er halbwegs gut abgestimmt zu sein, das EOTF-Tracking ist aber mal wieder deutlich zu dunkel (und in anderen Modi zu hell ;D).
Vielleicht ist er bis August ja breiter verfügbar, bin die nächsten Wochen eh viel unterwegs, da habe ich jetzt keine Nerven zu glaube ich...
Edit:
Dürfte auch wieder ein Fall von you get what you pay for sein:
https://www.hardwareluxx.de/community/threads/asrock-pgo32ufs.1364663/#post-30732335
Gibt eine Firmware von Ende Mai, ohne Changelog...
Exxtreme
2025-06-04, 11:45:16
Gar nicht mitbekommen, von ASRock gibts ja einen relativ günstigen 32"er mit dem aktuellen WOLED-Panel von LG: https://tftcentral.co.uk/reviews/asrock-phantom-gaming-pgo32ufs
Und wieder nur DP1.4a. :facepalm: Meine Fresse, warum verbaut man eine 9 Jahre alte Technik in neuen Monitoren obwohl der kompatible Nachfolger längst da ist.
dargo
2025-06-04, 11:46:35
Ja irgendetwas ist halt immer. :wink: Den perfekten Monitor gibt es leider noch nicht.
Doch... den ASUS ROG Strix OLED XG27UCDMG würde ich als perfekten Monitor bezeichnen. Ein Multitalent für alles. :)
Evil Ash
2025-06-04, 11:50:13
Perfekt nicht, da viel zu klein.
Auf meinen 48"-TV schiel. :)
dargo
2025-06-04, 11:51:16
Perfekt nicht, da viel zu klein.
Wie oft wollt ihr noch diesen bullshit durchkauen. :rolleyes: Robbitop hat schon gefühlt 10x das gleiche zu diesem Thema geschrieben und es wird weiter getrollt. :uclap:
Auf meinen 48"-TV schiel. :)
Ich troll jetzt auch mal... Pixeldichte aus dem Mittelalter.
Evil Ash
2025-06-04, 11:58:34
Sorry, ich wollte nicht trollen. Aber auf Arbeit habe ich einen 27 Zoll-Monitor, aber darauf zu zocken kann ich mir gar nicht vorstellen.
Auf dem 48 Zoll-TV/Monitor ist das Immersion pur. :)
dargo
2025-06-04, 12:02:11
Für mich heißt Immersion pur wenn ich alles im Blick habe. ;)
ChaosTM
2025-06-04, 12:20:37
Wie oft wollt ihr noch diesen bullshit durchkauen. :rolleyes: Robbitop hat schon gefühlt 10x das gleiche zu diesem Thema geschrieben und es wird weiter getrollt. :uclap:
Ich troll jetzt auch mal... Pixeldichte aus dem Mittelalter.
Du willst es einfach nicht verstehen. PPI sind völlig irrelevant. PPD (Pixel per degree) ist die Metrik auf die es ankommt.
redpanther
2025-06-04, 12:22:28
Ja, weil da der Abstand mit einfließt.
T'hul-Nok Razna
2025-06-04, 12:29:32
Du willst es einfach nicht verstehen. PPI sind völlig irrelevant. PPD (Pixel per degree) ist die Metrik auf die es ankommt.
Welche Empfehlungen gäbe es hier als Richtwert?
OgrEGT
2025-06-04, 12:32:06
Ja, weil da der Abstand mit einfließt.
Und die Krümmung ebenfalls da wenn alle anderen Parameter konstant sind mehr Pixel in das FOV kommen...
OgrEGT
2025-06-04, 12:33:00
Welche Empfehlungen gäbe es hier als Richtwert?
Richtwert sind afaik 60px/degree
x-force
2025-06-04, 12:35:20
Du willst es einfach nicht verstehen. PPI sind völlig irrelevant. PPD (Pixel per degree) ist die Metrik auf die es ankommt.
ne, will er definitiv nicht. vielleicht kann er es auch nicht.
ich finds ja faszinierend, dass sich immer wieder jemand findet, der den troll füttert. gleiches gilt für troyaner.
T'hul-Nok Razna
2025-06-04, 12:40:09
Richtwert sind afaik 60px/degree
Könnt ich mir scho fast einen 42" hier her stellen, gut zu wissen.
57 PPD (nächstbester Online Calc)
________________
Gar nicht mitbekommen, von ASRock gibts ja einen relativ günstigen 32"er mit dem aktuellen WOLED-Panel von LG: https://tftcentral.co.uk/reviews/asrock-phantom-gaming-pgo32ufs
Hängt bei mir auch in der Wunschliste neben einen etwas billigeren 42" TV als Plan B, mit HDMI 2.1, was dann auch ausreichen sollte für den Bedarf.
Zum AsRock OLED, wenn ich mich korrekt eingelesen habe, der Monitor hat keine Lüfter wie die LGs.
dargo
2025-06-04, 12:47:11
Du willst es einfach nicht verstehen.
Lol... da hat jemand den Sarkasmus nicht verstanden. :ulol:
x-force
2025-06-04, 12:47:14
Könnt ich mir scho fast einen 42" hier her stellen, gut zu wissen.
57 PPD (nächstbester Online Calc)
arbeitet doch einfach mit winkelminuten.
es wird berichtet, dass sehr gute augen 0,3mm auf 50cm unterscheiden können.
es ist vor allem individuell im gewissen rahmen.
man sagt ja auch nicht die optimale t-shirt größe ist "l"
ChaosTM
2025-06-04, 13:41:59
Lol... da hat jemand den Sarkasmus nicht verstanden. :ulol:
Jo :( Ich hab das schon so oft gehört dass ich mir da nimma sicher bin :)
Und wieder nur DP1.4a. :facepalm: Meine Fresse, warum verbaut man eine 9 Jahre alte Technik in neuen Monitoren obwohl der kompatible Nachfolger längst da ist.
DP2.0 ist wesentlich zickiger was Kabelqualität und Länge angeht, verständlich, dass man da den älteren Standard bevorzugt wenn er eh die Fähigkeiten des Monitors ausreizen kann.
Exxtreme
2025-06-04, 13:52:22
DP2.0 ist wesentlich zickiger was Kabelqualität und Länge angeht, verständlich, dass man da den älteren Standard bevorzugt wenn er eh die Fähigkeiten des Monitors ausreizen kann.
DP2.0 ist abwärtskompatibel. Sprich, wer DP2.0 nicht braucht, der kann den Anschluss auch weiterhin DP1.4a-Modus betreiben.
Nightspider
2025-06-04, 14:48:57
Schafft DP 2.0 jetzt eigentlich 5120*2160 @ 240 Hz ?
Der neue LG 5K2K OLED schafft ja nur 165 Hz mit DP2.1 aber ich weiß nicht obs am Panel/Chip liegt oder an mangelnder Bandbreite.
Lurtz
2025-06-04, 14:53:38
Hängt bei mir auch in der Wunschliste neben einen etwas billigeren 42" TV als Plan B, mit HDMI 2.1, was dann auch ausreichen sollte für den Bedarf.
Ist halt die Frage, 900€ ist immer noch viel Geld, zumal wenn dann statt dynamischem HDR Black Crush bekommt. Dann kann man auch gleich die 200-300€ für den Asus noch drauflegen oder es einfach sein lassen :ugly:
Exxtreme
2025-06-04, 14:57:10
Schafft DP 2.0 jetzt eigentlich 5120*2160 @ 240 Hz ?
Ohne DSC ein.
Hier ist eine Auflistung:
https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_common_resolutions
In 5K sind maximal 195 Hz möglich, in 10 Bit Farbtiefe 159 Hz.
Der neue LG 5K2K OLED schafft ja nur 165 Hz mit DP2.1 aber ich weiß nicht obs am Panel/Chip liegt oder an mangelnder Bandbreite.
Woran es liegt, weiß ich auch nicht. Laut Rtings hat er allerdings nur UHBR10.
Hier im Video von TFTCentral ist eine Bandbreitengrafik mit/ohne DSC:
https://youtu.be/o1GRhH1BBkE?feature=shared&t=324
Demnach würden auch 240 Hz gehen (29,178 Gbps).
SentinelBorg
2025-06-04, 15:19:31
Bei allem über 2m würde ich bei DP 2.1 nur noch Hybrid-Optical Kabel einsetzen. Leider kosten die immer noch gut das doppelte im Vergleich zu den HDMI 2.1 Gegenstücken.
OgrEGT
2025-06-04, 17:52:22
Mein Wunsch Monitor wäre folgender
WOLED 34-42 Zoll 10bit (4:4:4)
21:9 5120x2160 10bit 144-240Hz
1800mm Krümmung (am liebsten Flex)
KVM Switch
Anschlüsse volle Bandbreite ohne DSC
Wie lange muss ich da noch warten?
Oh vielleicht gar nicht mehr so lange
https://geizhals.de/corsair-xeneon-flex-45wqhd240-oled-cm-9030001-pe-a2865772.html?hloc=at&hloc=de
Nur die Auflösung und Anschlüsse passen noch nicht...
Sardaukar.nsn
2025-06-04, 18:20:14
und die Auflösung
DP2.0 ist abwärtskompatibel. Sprich, wer DP2.0 nicht braucht, der kann den Anschluss auch weiterhin DP1.4a-Modus betreiben.
Davon wissen aber die wenigsten die sehen nur dass kein Bild ankommt.
Und üblicherweise kommt man nicht mal ins Menü um die DP-Version umzustellen wenn das Kabel nicht synct.
[dzp]Viper
2025-06-04, 19:31:11
So ich habe es heute getan und mir den Alienware AW3423DWF gekauft.
War gerade bei Cyberport im Angebot für 549 Euro. (Mit Gutschein.. Normal 579 Euro)
Er wird mein gleichgroßen 34" TFT mit VA Panel ersetzen den ich wohl für ca 300 Euro los bekomme.. Der Aufpreis ist es mir wert gewesen.
Meine Frau hat nur mit dem Augen gerollt 🤣
Bin auf das OLED/HDR Bild gespannt. Morgen kann ich ihn abholen :-)
Sardaukar.nsn
2025-06-04, 22:32:46
Guter Preis! Ich bin vor zwei Jahren von einem 34" VA auf einen 42"OLED gewechselt. Obwohl die VA gute Kontraste haben, der Unterschied wird dir sehr gut gefallen ;) Öfters wünsche ich mir das Ultrawide Curve Format zurück.
Ex3cut3r
2025-06-04, 23:07:05
Hat der AW3423DWF nicht ein QD-OLED der ersten Gen? Für den Preis natürlich trotzdem gut.
[dzp]Viper
2025-06-04, 23:49:24
Hat der AW3423DWF nicht ein QD-OLED der ersten Gen? Für den Preis natürlich trotzdem gut.
Alle 21:9 Monitore haben noch ein QD-OLED Gen1. Es gibt keine QD-OLED mit 21:9 als Gen2.. leider. Selbst die 240Hz 21:9 QD-OLED sind noch Gen1 nur eben schneller.
Hatte mir das Schriftbild im Mediamarkt angeschaut und mir war nichts direkt super schlechtes aufgefallen. Aber mal schauen wie es dann nach mehreren Stunden und im Dark-Mode zuhause aufällt.
Thunder99
2025-06-06, 09:20:03
Bei meinen Licht ist Gen 1 QD-OLED gut.
Ein Strahler geht sogar direkt aud das Display aber in einem Winkel wo es das Display nicht Lila leuchten lässt.
Würde sagen, wenn man für sich einen guten Monitor gefunden hat, wieso auf die neue Technologie wechseln?
Lese hier gerne mit, aber bis mein 34" 21:9 QD-OLED ersetzt wird steht in den Sternen :). Der ist einfach zu gut, noch!
[dzp]Viper
2025-06-06, 09:48:36
So gestern den AW3423DWF aufgebaut und mit rumgespielt :)
Erster Eindruck.. wow. Das Windows in SDR Mode sieht schon viel besser aus.
Danach den HDR Mode aktiviert und erstmal ein HDR Profil erstellt und direkt zu YouTube gegangen und ein paar HDR-Videos angeschaut. Da ist man schon geflashed :D
Am meisten haben mich Nachtvideos von Feuerwerken und Stadtdurchfahrten beeindruckt.
https://www.youtube.com/watch?v=Dxya5ucIroI :D
Im Anschluss habe ich als erstes Diablo 4 mit HDR ausprobiert. Hätte nicht gedacht, dass der Unterschied so groß ist. Gerade als Zauberin mit den Feuer und Blitzeffekten ist der Unterschied sehr, sehr sichtbar.
Danach dann RTX HDR aktiviert und Star Citizen ausprobiert. Auch hier.. riesen Unterschiede. Wenn man bedenkt, dass das ganze Beleuchtungsmodel in Star Citizen veraltet ist, ist es umso beeindruckender wieviel HDR da rausholt.
Schade, dass Windows selber im HDR Mode stelleweise echt komisch aussieht. Gerade helle Flächen werden total fad (z.b. das 3D-Center weiß). Jetzt verstehe ich wieso man mit Alt+Win+B immer im Windows zurück auf SDR umschalten sollte.
Zum Thema Schriftbild:
Ja es ist etwas schlechter als bei meinem "alten" VA Panel. Aber der Unterschied ist nicht riesig. Er ist jedenfalls so klein, dass es mich persönlich nicht stört. Ich sitze ca. 70-80cm vom Bildschirm entfernt.
Insgesamt bin ich aber wirklich sehr zufrieden.
dargo
2025-06-06, 18:22:55
Viper;13767904']
Danach den HDR Mode aktiviert und erstmal ein HDR Profil erstellt und direkt zu YouTube gegangen und ein paar HDR-Videos angeschaut. Da ist man schon geflashed :D
Am meisten haben mich Nachtvideos von Feuerwerken und Stadtdurchfahrten beeindruckt.
https://www.youtube.com/watch?v=Dxya5ucIroI :D
Im Anschluss habe ich als erstes Diablo 4 mit HDR ausprobiert. Hätte nicht gedacht, dass der Unterschied so groß ist. Gerade als Zauberin mit den Feuer und Blitzeffekten ist der Unterschied sehr, sehr sichtbar.
Danach dann RTX HDR aktiviert und Star Citizen ausprobiert. Auch hier.. riesen Unterschiede. Wenn man bedenkt, dass das ganze Beleuchtungsmodel in Star Citizen veraltet ist, ist es umso beeindruckender wieviel HDR da rausholt.
Hehe... ich weiß, ich wiederhole mich. Aber HDR ist für mich am passenden Monitor der Gamechanger schlechthin. Massiv bessere Beleuchtung ohne zusätzliche Kosten. Ich tue mir mittlerweile schwer überhaupt ein Game ohne HDR zu spielen. Wirkt alles nur noch flach.
crux2005
2025-06-06, 22:55:29
Sb5excrfbHk
Nightspider
2025-06-06, 23:07:46
Viper;13767904']
Danach dann RTX HDR aktiviert und Star Citizen ausprobiert. Auch hier.. riesen Unterschiede. Wenn man bedenkt, dass das ganze Beleuchtungsmodel in Star Citizen veraltet ist, ist es umso beeindruckender wieviel HDR da rausholt.
Wozu RTX HDR?
Star Citizen supported doch nativ HDR.
Und HDR hat ja auch erstmal nichts mit Raytracing zu tun, welches ja auch gerade in Star Citizen eingebaut wird. HDR verbessert in erster Linie den Dynamikumfang und die Farben und das ganz gewaltig in Star Citizen.
Lurtz
2025-06-07, 09:37:46
https://youtu.be/Sb5excrfbHk
Nein, tut es nicht :ugly: Sinnloses Video.
While there isn't a lot in this video that is actually incorrect, I think the overall conclusion is almost entirely wrong. Windows ACM is, in my opinion, a huge step forward for color management in Windows.
The old ICC based system was and is an absolute mess. On a wide gamut display, it was essentially broken by default. The fact that any apps which didn't support color management used the monitor's native gamut was, quite frankly, ridiculous. On a QD-OLED panel, the Windows desktop becomes stupidly oversaturated without any gamut clamping, and any app which did not go out of its way to support proper colour management would show totally inconsistent colour from display to display. The new system is consistent by default, but requires app developers who wish to support wide gamut colour to either add support for the new colour APIs, or use the legacy compatibility tool. You're right that app support for the new system isn't great just yet, but it's better for Microsoft to actually fix problems that have plagued Windows for years than do nothing, and it's not Microsoft's fault that Adobe hasn't updated their apps to use the new system.
I also think you overstate the issue with things being clamped to sRGB by default. The overwhelming majority of SDR content was created for the sRGB space, and assuming sRGB by default fixes far more problems than it solves. For example, with the legacy system, even if you had an ICC profile installed, the vast majority of YouTube videos in Chrome would be dramatically oversaturated on a wide gamut display, making skin tones look horrible. Yes, ACM doesn't allow your particular wide gamut video to be rendered properly, but it fixes dramatically more videos than it breaks. People talk about wide gamut displays being important for creative work, but the vast majority of photography and video is still edited for display on the web, and so will use the sRGB/rec.709 spaces, and so even creative professionals will rarely work with wide gamut SDR content.
The only place where wide gamut colour is actually common is with HDR content, but Windows ACM in SDR mode doesn't change anything about how HDR content is displayed. We do need to talk about Windows ACM in HDR mode using the wrong EOTF for SDR content but that's a separate topic, I think.
For me, as a graphic designer who relies on having a colour accurate display, my main issue with Windows ACM is that it doesn't really support calibration with ICC profiles. You can install one while using ACM, but it doesn't do the proper curves + matrix calibration necessary to get Delta E's below 1 in all cases, so I continue to rely on novideo_srgb. But for most people, Windows ACM works great as a "set and forget" solution to getting decently accurate colour in almost all cases.
Relex
2025-06-07, 10:04:49
Das Video ist schon wichtig, aber unvollständig.
Wenn man ACM deaktiviert, sollte man natürlich trotzdem dafür sorgen, dass inhalte nicht übersättigt werden.
Bei mir ist es so: Ich stelle den Monitor auf das werkskalibrierte sRGB Profil um. Mit ACM off sind die Farben dann korrekt.
Aktiviere ich jetzt ACM, werden die farben weiter desaturiert, was komplett falsch ist. Ich hab zwar kein colorimeter hier, aber zumindest iPhones und iPads als Referenz, welche eine sehr genaue Werkskalibrierung haben und der Monitor sieht dagegen mit aktiver ACM aus, als wäre er kaputt.
Aktiviert man dann zusätzlich noch das vom Hersteller zur installation empfohlene ICC Profil, hat man nochmal weniger Farben, also fast schon gar keine mehr.
Klar letzteres ist grundsätzlich sinnfrei, weil ein Farbprofil ohne Kalibrierung erstmal quatsch ist, aber zumidnest wärs ne Annäherung. Aber das zerstört das Bild dann komplett.
Der Punkt ist, dass sowohl ACM als auch das Hersteller Farbprofil davon ausgehen, dass der Monitor mit full gamut läuft und den Farbraum entsprechend reduzieren. Scheinbar bekommt Windows aber gar nicht mit, dass ich den Monitor bereits Hardwareseitig aufs sRGB Profil gestellt habe.
Alles in allem also ein unvorstellbar wirrer fuck up. Jemand der den Monitor einfach nur anschließt, wird vermutlich mit dem Standard Monitor profil (wide gamut) und dem von windows standardmäßig aktivierten ACM ein halbwegs korrektes sRGB Bild bekommen. Wer vom Hersteller noch das ICC Profil installiert oder den Monitor sRGB Modus aktiviert oder beides zusammen, wird sein Bild völlig ruinieren. Vielleicht muss der Monitor aber im sRGB Profil auch seine Metadaten entsprechend anpassen, damit ACM korrekt regelt. Das scheint aber (noch) nicht zu passieren.
Für mich ist die einzig sinnvolle Option, ACM zu deaktivieren, kein ICC Profil zu nutzen und das werkskalibrierte sRGB Profil des Monitors zu nutzen. Wer keine 100%ige Farbgenauigkeit braucht, sondern einfach nur die korrekte sRGB clamp will ist an der Stelle dann idr. auch fertig und braucht nichts weiter einstellen.
Bei mir sehen die sRGB Farben am Desktop dann auch in HDR und SDR identisch aus (sowohl an meinem Monitor als auch meinem TV) und decken sich sehr exakt mit meinen Apple Geräten. Aber wie gesagt, ACM muss in dem Fall unbedingt deaktiviert werden.
Hier sind wir dann wieder an dem Punkt, wo man sich die Frage stellen muss, wie das ein normaler Nutzer jemals auf die Kette bekommen soll.
Dieser fuck up ist einfach nur peinlich und eine unverschämte Zumutung für jeden Nutzer. Es kann nicht sein, dass man im zweifel ein Colorimeter braucht, um sicherzustellen, dass man nichts falsch gemacht hat. In der Hinsicht sind der gesamte Monitor Markt und microsoft einfach nur ein schlechter Witz.
Lurtz
2025-06-07, 10:14:23
Ich würde mal behaupten bei den Durchschnittsusern benutzt wahrscheinlich kaum jemand den sRGB-Modus, falls der überhaupt brauchbar umgesetzt ist.
Hier sind wir dann wieder an dem Punkt, wo man sich die Frage stellen muss, wie das ein normaler Nutzer jemals auf die Kette bekommen soll.
Dieser fuck up ist einfach nur peinlich und eine unverschämte Zumutung für jeden Nutzer. Es kann nicht sein, dass man im zweifel ein Colorimeter braucht, um sicherzustellen, dass man nichts falsch gemacht hat. In der Hinsicht sind der gesamte Monitor Markt und microsoft einfach nur ein schlechter Witz.
Schau doch mal in die Kommentare. Der normale Nutzer will eh knallige Farben, den interessiert Farbmanagement nicht.
Die meisten Smartphones stehen standardmäßig auch auf "Vivid" Colors, obwohl der Großteil irgendwelche sRGB-Apps und Web Content nutzt.
ChaosTM
2025-06-07, 11:05:23
Vivid Color, auf meinem Fon heißts "Lebhaft", ist grausam.
->DCI-P3
sRBG ist ausgewaschen mit oder ohne ACM
Deathcrush
2025-06-07, 11:46:23
Das mit dem Phillips OLED hat mir ja keine Ruhe gelassen und ich habe mir mal den LG lg oled 34gs95qe vom Kumpel ausgeliehen. Dieser macht in der tat ein deutlich bessere Figur als der Phillips OLED, gerade in dunkleren Bereichen. Was ich allerdings komisch finde. Laut Herstellerseite wird dieser mit einer Spitzenhelligkeit von 1300 Nits beworben, aber egal was ich einstelle, er kommt nicht über 600 Nits hinaus. Das steht auch in den Informationen, die man mit CRU......... etc auslesen kann. Der Monitor wäre für mich tatsächlich noch mal ein kauf wert, aber das mit den 600nits hat schon nen komischen beigeschmack. Mich würde ja auch die 39" Variante interessieren, vermute aber das er selbiges Problem haben wird. Da gleiche Baureihe. Kennt jemand das Problem?
Troyan
2025-06-07, 12:27:38
Das mit dem Phillips OLED hat mir ja keine Ruhe gelassen und ich habe mir mal den LG lg oled 34gs95qe vom Kumpel ausgeliehen. Dieser macht in der tat ein deutlich bessere Figur als der Phillips OLED, gerade in dunkleren Bereichen. Was ich allerdings komisch finde. Laut Herstellerseite wird dieser mit einer Spitzenhelligkeit von 1300 Nits beworben, aber egal was ich einstelle, er kommt nicht über 600 Nits hinaus. Das steht auch in den Informationen, die man mit CRU......... etc auslesen kann. Der Monitor wäre für mich tatsächlich noch mal ein kauf wert, aber das mit den 600nits hat schon nen komischen beigeschmack. Mich würde ja auch die 39" Variante interessieren, vermute aber das er selbiges Problem haben wird. Da gleiche Baureihe. Kennt jemand das Problem?
1300 Nits sind nur mit Tonemapping in der Windows-App möglich.
[dzp]Viper
2025-06-07, 13:30:17
Wozu RTX HDR?
Star Citizen supported doch nativ HDR.
Weil das in SC integrierte HDR nicht besonders gut ist.
Und HDR hat ja auch erstmal nichts mit Raytracing zu tun, welches ja auch gerade in Star Citizen eingebaut wird. HDR verbessert in erster Linie den Dynamikumfang und die Farben und das ganz gewaltig in Star Citizen. korrekt aber trotzdem verändert HDR den Gesamtlook deutlich. Farben, Lichter,.. es macht eben alles besser weil ja der Dynamikumfang vergrößert wird. Dass an der grundsätzlichen Beleuchtung nichts geändert wird, ist schon klar.
Deathcrush
2025-06-07, 14:22:10
1300 Nits sind nur mit Tonemapping in der Windows-App möglich.
Wenn du du Windows Kalibrierungs-App meinst, da ebend auch nicht. Dort ist immer bei 600 Nits schluss, egal ob Peak Brightness low oder high.
Lurtz
2025-06-07, 14:32:52
Wenn du du Windows Kalibrierungs-App meinst, da ebend auch nicht. Dort ist immer bei 600 Nits schluss, egal ob Peak Brightness low oder high.
Dürfte das hier sein:
https://www.reddit.com/r/OLED_Gaming/comments/1e8tizs/a_fix_for_windows_hdr_clipping_with_the_lg/
LG-Qualität...
Deathcrush
2025-06-07, 14:50:00
Hmm, also muss ich die 240hz zugunsten der Spitzenhelligkeit opfern und dann noch mit CRU nachhelfen? Wenn ich das so rauslese ist das Problem anscheinend schon älter, wieso liefert LG kein Firmwareupdate? Man wirbt ja mit 1300 Nits Spitzenhelligkeit.
dargo
2025-06-07, 20:03:29
Feedback zum Einbrennen nach 3 Jahren Nutzungszeit.
x0kh3_8OTmQ
crux2005
2025-06-07, 20:31:42
Das mit dem Phillips OLED hat mir ja keine Ruhe gelassen und ich habe mir mal den LG lg oled 34gs95qe vom Kumpel ausgeliehen. Dieser macht in der tat ein deutlich bessere Figur als der Phillips OLED, gerade in dunkleren Bereichen. Was ich allerdings komisch finde. Laut Herstellerseite wird dieser mit einer Spitzenhelligkeit von 1300 Nits beworben, aber egal was ich einstelle, er kommt nicht über 600 Nits hinaus. Das steht auch in den Informationen, die man mit CRU......... etc auslesen kann. Der Monitor wäre für mich tatsächlich noch mal ein kauf wert, aber das mit den 600nits hat schon nen komischen beigeschmack. Mich würde ja auch die 39" Variante interessieren, vermute aber das er selbiges Problem haben wird. Da gleiche Baureihe. Kennt jemand das Problem?
Ja, hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13745667&postcount=20985
Edit: Sehe da war einer schneller.
Feedback zum Einbrennen nach 3 Jahren Nutzungszeit.
https://youtu.be/x0kh3_8OTmQ
3 Jahre mixed usage. Also Gaming und etwas browsing etc. Natürlich ist das burn-in nicht so schlimm.
Deathcrush
2025-06-07, 22:46:45
Da ich das mal testen möchte, hätte ich noch ein kurze Frage. Muss den Monitor morgen wieder abgeben :(
press edit, and adjust the "max luminance" and "max frame avg" to 151
Warum muss ich auch bei "max frame avg" die 151 eigeben? (für 1300nits) Die max frame avg bedeuten doch eigentlich die durchschnittliche Helligkeit, wenn ich es richtig verstanden habe.
crux2005
2025-06-08, 00:13:12
Weil es 1300 nits nicht auf dem ganzen Bildschirm schafft, sondern nur einen Teil davon.
Deathcrush
2025-06-08, 00:41:46
Mich wundert es halt nur das ich für max frame avg, sprich der durchschnittlichen Helligekit, den gleichen Wert eintragen muss/soll wie bei Peak Brightnes. Das ergibt für mich irgendwie keinen Sinn.
EDIT: Hab es auch mal getestet, allerdings nur max luminance auf 151 (ca. 1300 Nits) was ein krassen Unterschied darstellt. Wieso LG das nicht fixed ist mir ein Rätsel.
Nightspider
2025-06-08, 04:01:01
Nachdem ich jetzt auf die 5090 gewechselt bin merke ich das man mit DLSS locker in 5160*2160 die 140-180fps erreichen kann in anspruchsvollen Spielen.
Also ich bin bereit für die 5K2K Monitore. :D
Hoffentlich kommt da noch was zum Jahresende in 34 oder 38 Zoll mit 1800R.
Auf der Website hier steht was von Q4 aber keine Ahnung ob das nur eine Orientierung ist.
https://www.displayninja.com/best-oled-monitor/
ChaosTM
2025-06-08, 07:34:21
Der Formfaktor in 5k2k ist verlockend. Aber wenn ich schon 2k+ hinblättere, wären 240hz schon nett, was wiederum UHBR20 voraussetzen würde.
Die derzeitige UHBR13.5 Schnittstelle packt das selbst mit DSC nicht mehr, bzw. ist das sehr hart an der Grenze.
165hz sollten zwar auch reichen, aber.. mal schaun. :)
Der biegsame 45er kommt gegen Ende des Jahres.
Rancor
2025-06-08, 08:25:07
Öhmmm RTX HDR funktioniert nur für Videos nicht für Spiele.
Cubitus
2025-06-08, 09:04:43
Öhmmm RTX HDR funktioniert nur für Videos nicht für Spiele.
Hähh :confused:
Nachdem ich jetzt auf die 5090 gewechselt bin merke ich das man mit DLSS locker in 5160*2160 die 140-180fps erreichen kann in anspruchsvollen Spielen.
Also ich bin bereit für die 5K2K Monitore. :D
Hoffentlich kommt da noch was zum Jahresende in 34 oder 38 Zoll mit 1800R.
Auf der Website hier steht was von Q4 aber keine Ahnung ob das nur eine Orientierung ist.
https://www.displayninja.com/best-oled-monitor/
Naja, hau mal DLAA Transfomer@4K rein. Sieht bei KCD2 fantastisch aus und ist mit der 5090 auch gut spielbar.
Allerdings brauchts dann schon smooth Motion wenn man dann über 100 FPS möchte..
The_Invisible
2025-06-08, 09:21:37
Das mit dem Phillips OLED hat mir ja keine Ruhe gelassen und ich habe mir mal den LG lg oled 34gs95qe vom Kumpel ausgeliehen. Dieser macht in der tat ein deutlich bessere Figur als der Phillips OLED, gerade in dunkleren Bereichen. Was ich allerdings komisch finde. Laut Herstellerseite wird dieser mit einer Spitzenhelligkeit von 1300 Nits beworben, aber egal was ich einstelle, er kommt nicht über 600 Nits hinaus. Das steht auch in den Informationen, die man mit CRU......... etc auslesen kann. Der Monitor wäre für mich tatsächlich noch mal ein kauf wert, aber das mit den 600nits hat schon nen komischen beigeschmack. Mich würde ja auch die 39" Variante interessieren, vermute aber das er selbiges Problem haben wird. Da gleiche Baureihe. Kennt jemand das Problem?
Da gab's mal eine lange Diskussion dazu auf Reddit. Das mit den ~600nits ist bei LG Monitoren normal und wird dann durch mla oder so auf 1300 geboostet wenn Peak brigthness high eingestellt ist, soll auch bei den tvs so sein.
Würde sonst auch keinen Sinn ergeben weil man bei Konsolen & co nix modifizieren kann.
Das es auch so ist kann man am besten in cp77 oder silent hill bar Szenen testen, da brennts dir bei den neon Lichtern fast die Augen aus.
robbitop
2025-06-08, 09:39:59
Öhmmm RTX HDR funktioniert nur für Videos nicht für Spiele.
Funktioniert ganz prima für Spiele.
Deathcrush
2025-06-08, 12:07:35
Da gab's mal eine lange Diskussion dazu auf Reddit. Das mit den ~600nits ist bei LG Monitoren normal und wird dann durch mla oder so auf 1300 geboostet wenn Peak brigthness high eingestellt ist, soll auch bei den tvs so sein.
Würde sonst auch keinen Sinn ergeben weil man bei Konsolen & co nix modifizieren kann.
Wenn ich aber mit CRU die Spitzenhelligkeit erhöhe, wieso wird das Bild dann auch heller, herade die Highlights? Theoretisch müsste doch eine Hardwarebegrenzung vorhanden sein, die die Hellgkeit limitiert. Sonnst könnte man per Software ja aus jedem 1000nits Monitor einen 2000nits Monitor machen.
Lurtz
2025-06-08, 13:23:27
EDIT: Hab es auch mal getestet, allerdings nur max luminance auf 151 (ca. 1300 Nits) was ein krassen Unterschied darstellt. Wieso LG das nicht fixed ist mir ein Rätsel.
Tja, jetzt weißt du auch wieso ich keinen WOLED direkt von LG will...
aufkrawall war ja auch "begeistert".
Da gab's mal eine lange Diskussion dazu auf Reddit. Das mit den ~600nits ist bei LG Monitoren normal und wird dann durch mla oder so auf 1300 geboostet wenn Peak brigthness high eingestellt ist, soll auch bei den tvs so sein.
So hab ich's auch verstanden. Also muss man Windows und Games auf 600 nits kalibrieren.
Ist halt, wie crux2005 schon schrieb, dann irgendwie Quatsch für den HDR-Eindruck, wenn durch "Peak Brightness: High" einfach "alles" heller wird und nicht ausschließlich die dafür vorgesehenen Highlights.
Betreibe meinen LG in HDR deshalb auch meist mit Peak Brightness Low.
In SDR benutze ich jetzt das ICC-Profil und die Settings von Rtings (mit deaktiviertem Windows Setting "Farbe für Apps automatisch verwalten"). Bei eingestelltem HDR sieht Windows SDR trotz aller Hinweise und Tipps hier weiterhin müllig aus. :D In HDR ist auch "Farbe für Apps automatisch verwalten" nicht deaktivierbar laut Windows-Hinweistext - was Sinn ergibt, da es in SDR mit dem Setting ähnlich kacke aussieht (habe ich jetzt nur mit dem kalibrierten Rtings-Profil getestet, was nicht sinnvoll ist, habe ich den letzten Diskussionen entnommen).
Gibt es einen Grund dafür, dass nicht auch ein kalibriertes ICC-Profil für HDR von Rtings angeboten wird?
Edit: Habe gestern ein Firmware Update des Monitors gemacht. Das einzige was mir aufgefallen ist, ist eine Änderung des Brightness-Reglers. Vorher war in SDR alles unter 50 von 100 ziemlich dunkel. Jetzt ist alles über 30 ziemlich hell. ;)
Troyan
2025-06-08, 16:05:34
Tja, jetzt weißt du auch wieso ich keinen WOLED direkt von LG will...
aufkrawall war ja auch "begeistert".
QD-OLEDs klippen bei 500 Nits, wenn man eine halbwegs orginalgetreue Darstellungc will.
Rancor
2025-06-08, 18:00:12
Funktioniert ganz prima für Spiele.
Dann müsste ja die Beschreibung in der Nvidia APP falsch sein. Dort steht klipp und klar das es für Videos ist. Oder meint ihr etwas anderes?
Du bist im falschen Thread. Versuch mal google.de :wink:
Ist halt, wie crux2005 schon schrieb, dann irgendwie Quatsch für den HDR-Eindruck, wenn durch "Peak Brightness: High" einfach "alles" heller wird und nicht ausschließlich die dafür vorgesehenen Highlights.
Macht es auch nicht, sondern eher das Gegenteil die Mitten werden dunkler um mehr Spielraum für die Highlights zu schaffen, aber natürlich dynamisch je nach Bildinhalt.
robbitop
2025-06-08, 19:06:25
Dann müsste ja die Beschreibung in der Nvidia APP falsch sein. Dort steht klipp und klar das es für Videos ist. Oder meint ihr etwas anderes?
Du kannst es in der Nvidia app auch pro Spiel aktivieren und es taucht auch mit alt+f3 unter „Spielefilter“ im jeweiligen Spiel auf. Es kann aber separat dazu auch für Videos aktiviert werden.
Nightspider
2025-06-08, 19:18:30
Naja, hau mal DLAA Transfomer@4K rein.
Hab ich doch in manchen Games. :)
Allerdings muss ich da schon bisschen genauer mit der Lupe suchen zwischen DLAA und Quality bei der Auflösung.
Bzw. sieht die 4587*XXXXer Auflösung mit DLAA fast genauso gut aus.
aufkrawall
2025-06-08, 19:34:51
aufkrawall war ja auch "begeistert".
Von Bro ganz zu schweigen, der mittlerweile gestorbene Digital River-Schweineladen wollte dann ohne PayPal-Fall auch die Kohle nicht mehr rausrücken.
Da hatten sich zwei Saufirmen gefunden...
Lurtz
2025-06-08, 19:45:26
Digital River ist insolvent? :D Gar nicht mitbekommen.
Rancor
2025-06-08, 20:00:48
Du kannst es in der Nvidia app auch pro Spiel aktivieren und es taucht auch mit alt+f3 unter „Spielefilter“ im jeweiligen Spiel auf. Es kann aber separat dazu auch für Videos aktiviert werden.
Achso lol. Das wusste ich garnicht. Bin ja auch noch neu im HDR Game :D
Macht es auch nicht, sondern eher das Gegenteil die Mitten werden dunkler um mehr Spielraum für die Highlights zu schaffen, aber natürlich dynamisch je nach Bildinhalt.
Nee, "High" ist in den mittleren Stufen zu hell, unabhängig der APL:
https://imgur.com/a/H66k4ft
https://youtu.be/2iwUAIgDy6k?si=9n4sODM6fqGCvR8a
"Low" ist dafür ein wenig zu dunkel (aber deutlich näher dran) und hat natürlich die schwächeren Highlights.
Thunder99
2025-06-09, 18:28:56
Jetzt bin ich doch etwas angefixed von dieser maximalen Helligkeit in HDR.
Was hat denn Samsung G8 34" 21:9 OLED (1. Generation) für ein Wert? Wirklich schlau wird da man nicht wenn man sucht.
crux2005
2025-06-09, 20:38:15
Da gab's mal eine lange Diskussion dazu auf Reddit. Das mit den ~600nits ist bei LG Monitoren normal und wird dann durch mla oder so auf 1300 geboostet wenn Peak brigthness high eingestellt ist, soll auch bei den tvs so sein.
Die TVs schaffen deutlich hellere Highlights, egal welche Einstellung.
https://www.youtube.com/watch?v=CS0sx6xYHN0&t=356s
Thunder99
2025-06-09, 21:49:22
Jetzt bin ich doch etwas angefixed von dieser maximalen Helligkeit in HDR.
Was hat denn Samsung G8 34" 21:9 OLED (1. Generation) für ein Wert? Wirklich schlau wird da man nicht wenn man sucht.
Hab doch was gefunden, ca. 1000 nits
https://www.displayspecifications.com/en/model/37022ea3
Aber wie kalibriert man das in Windows oder kommt die Anfrage für diese Helligkeit via Spiel/setting im Spiel?
crux2005
2025-06-09, 22:48:53
Jetzt bin ich doch etwas angefixed von dieser maximalen Helligkeit in HDR.
Was hat denn Samsung G8 34" 21:9 OLED (1. Generation) für ein Wert? Wirklich schlau wird da man nicht wenn man sucht.
https://www.rtings.com/monitor/reviews/samsung/odyssey-oled-g8-g85sb-s34bg85
However, it reaches a brightness of 885 cd/m² in Destiny 2 with Peak Brightness and HDR10+ Gaming both off and Game HDR on. Try using these settings if you find the screen too dim in Windows HDR.
Thunder99
2025-06-10, 09:21:03
Danke
Mal einlesen ob sich das rentiert oder ich bei HDR 400 bleibe (kalibriert in Windows)
redpanther
2025-06-10, 11:39:25
Aber wie kalibriert man das in Windows oder kommt die Anfrage für diese Helligkeit via Spiel/setting im Spiel?
Es gibt für Windows 11 im MS Store eine HDR Calibration App und die sollte man auch nutzen.
Thunder99
2025-06-10, 12:52:15
Es gibt für Windows 11 im MS Store eine HDR Calibration App und die sollte man auch nutzen.
Die kenne ich ja und nach der habe ich auf HDR 400 kalibriert. Eine erneute Kalibrierung auf 1000 nits weiß ich nicht ob das nun sinnvoll ist oder nicht.
[dzp]Viper
2025-06-10, 13:37:31
Die kenne ich ja und nach der habe ich auf HDR 400 kalibriert. Eine erneute Kalibrierung auf 1000 nits weiß ich nicht ob das nun sinnvoll ist oder nicht.
Da du Profile erstellst, kannst du das machen und nennst es dann eben "HRD1000" oder so.. dann kannst du hin und her switchen.
Die kenne ich ja und nach der habe ich auf HDR 400 kalibriert. Eine erneute Kalibrierung auf 1000 nits weiß ich nicht ob das nun sinnvoll ist oder nicht.
Das solltest du im Vergleichsbild am Schluss schön sehen
Also muss man Windows und Games auf 600 nits kalibrieren.
Hab's jetzt nochmal ausprobiert:
Kalibriert man Windows auf 1200 nits Peak Brightness verliert man Details, z.B. in der Feuer-Szene hier: https://youtu.be/LxnMg0I0LZM?si=MLttwxcj_CJzFVeo&t=25
Und beim Umschalten des LG-Monitors zwischen Peak Brightness High und Low bleiben die (fehlenden) Informationen identisch.
Es bleibt also dabei: Windows auf 6xx kalibrieren und Peak Brightness High nur für Effekthascherei oder im hellen Raum nutzen.
crux2005
2025-06-10, 22:59:58
O2kPsKyF5bQ
8-10 Std. jeden Tag mit 200 nits Helligkeit.
Der_Korken
2025-06-10, 23:37:01
https://youtu.be/O2kPsKyF5bQ
8-10 Std. jeden Tag mit 200 nits Helligkeit.
Immer noch einer der besten OLED-Tests. Mich hat das 9-Monats-Update damals überzeugt, dass Burn-In für mich akzeptabel sein wird, auch wenn ich den Monitor >5 Jahre nutzen will. Der Test wurde von einigen als unrealistisch verschrien, weil man einen OLED so nicht nutzen sollte, aber ich finde es sehr aufschlussreich, um abzuschätzen wie ein aktuelles OLED-Panel nach 4-5 Jahren aussehen könnte, ohne diese 4-5 Jahre warten zu müssen.
Ich nutze meinen OLED jetzt seit 6 Monaten und habe, wie erwartet, keine Burn-In-Artefakte stehen können. Auch nicht im einfarbigen Vollbild in Grautönen. Ich schätze, dass Burn-In bei mir etwa Faktor 3 langsamer voranschreiten sollte als im Test und zusätzlich noch weniger systematisch, weil ich nicht so oft einen fixen 50:50-Split nutze und auch nicht eine Hälfte immer heller ist als die andere. Taskbar ist nicht ausgeblendet, Desktop-Hintergrund bleibt weiterhin wochenlang gleich. Einzig die Abschaltzeit habe ich auf 3 Minuten reduziert und ich nutze in einigen Programmen mittlerweile tatsächlich einen dark mode, weil das auf meinem Arbeitslaptop so vorkonfiguriert war.
Nightspider
2025-06-11, 01:21:34
Erster 720 Hz OLED aus China incoming?
China-based SDC (Super Display Co., not to be confused with Samsung Display) says it will soon launch a new OLED gaming monitor, called the Flash 540-Meta, that will be based on a 26.5" 2560x1440 LG WOLED panel (4th Gen). Interestingly, the company says the monitor will support up refresh rates of up to 720Hz - LG Display's panel supports up to 480hz. This is a dual-model panel,normally the 480Hz mode reduces the resolution to Full-HD.
https://www.oled-info.com/super-display-co-launch-720hz-27-inch-woled-gaming-monitor
robbitop
2025-06-11, 07:39:22
https://youtu.be/O2kPsKyF5bQ
8-10 Std. jeden Tag mit 200 nits Helligkeit.
Noch als Anmerkung
200 nits (fullscreen) ist relativ kurz vor Anschlag/Maximum. Meine Monitore laufen in Windows mit deutlich weniger - schätze zwischen 120-150 nits. Hängt natürlich auch vom Raum ab - bei mir gibts beim Arbeiten da keine Einschränkungen- im Gegenteil- ich betreibe auch meine LCDs schon seit Jahren so weil mir in meinem nicht sooo hellen Homeoffice mehr zu hell ist. Die Lebensdauer (und damit auch das Verhalten beim Einbrennen/Nachleuchten) korreliert sehr nicht linear mit der Helligkeit. Bedeutet bereits kleine Reduktionen in Helligkeiten haben großen Einfluss die Lebenszeit.
In Games zu Feierabend lass ich den OLED dann von der Leine mit HDR. Ich würde da schon erwarten da eigentlich keine relevanten Levenszeiteinschränkungen mehr zu haben. Kann aber bei Leuten mit hellen Räumen und dem entsprechend nahezu voller Helligkeit dann im Homeoffice anders sein. Dafür ist oled nicht ideal
The_Invisible
2025-06-11, 11:27:51
So hab ich's auch verstanden. Also muss man Windows und Games auf 600 nits kalibrieren.
Ist halt, wie crux2005 schon schrieb, dann irgendwie Quatsch für den HDR-Eindruck, wenn durch "Peak Brightness: High" einfach "alles" heller wird und nicht ausschließlich die dafür vorgesehenen Highlights.
Naja der Boost skaliert natürlich schon relativ zur angeforderten Helligkeit. Man muss halt auch bedenken das WOLEDs auch nicht so eine hohe Farbhelligkeit haben, geht meist sowieso nicht über 600Nits hinaus. Finde High trotzdem nett, das meiste helle Licht ist halt mit Weißanteil. In CP2077 mit den Neonlichtern ist es schon geil.
Wobei die Helligkeit im Monitor OLED-Bereich halt noch immer lächerlich ist, der LG G5 haut zb bei 10% Window >2000nits raus
Relex
2025-06-11, 12:29:48
Ich nutze meinen OLED jetzt seit 6 Monaten und habe, wie erwartet, keine Burn-In-Artefakte stehen können. Auch nicht im einfarbigen Vollbild in Grautönen.
Hab meinen AW3225QF jetzt mittlerweile über ein Jahr und auch bei mir gibts bisher keinerlei Anzeichen von Burn in.
Tatsächlich dürfte der Split zwischen Gaming und Desktop bei eher 30/70 oder so liegen. Tägliche Nutzungszeit dürfte zwischen 4 und 6 Stunden liegen.
Ich spiel zwar recht viel, aber den Rest der Zeit nutze ich halt den Desktop und da kommt definitiv deutlich mehr Zeit zusammen, als beim Gaming.
Aber auch damit bisher keine Probleme.
Helligkeit steht auf 40% bzw. 100 nits und das empfinde ich mehr als hell genug.
Da im Gegensatz zu LCD bei geringer Helligkeit der Kontrast nicht leidet wirkt das Bild für mich bei gleicher Helligkeit deutlich heller als LCD.
ChaosTM
2025-06-11, 12:52:00
2,5 Jahre und auch hier nichts. Desktop läuft mit 100-125 nits. Mehr haut mir die Augen ein. Nutzungszeit ist ca. 30/70 Game/Desktop.
Desktop Symbole und Taskbar werden von einem Tool nach einer frei wählbaren zeit ausgeblendet und gleichzeitig wird der Hintergrund auf schwarz gestellt.
Mit einem Klick ist alles verzögerungsfrei wieder da.
Der würde ziemlich lang halten.
2026 kommt einer mit 5k2k 38"+ in vorzugsweise biegbar.
Mal schaun was es bis dahin gibt.
aufkrawall
2025-06-11, 12:55:06
Da im Gegensatz zu LCD bei geringer Helligkeit der Kontrast nicht leidet wirkt das Bild für mich bei gleicher Helligkeit deutlich heller als LCD.
Natürlich reduzierst du den Durchschnittskontrast auch auf dem OLED, wenn du die Helligkeit reduzierst und nicht ein großer Teil des Bildes aus komplettem Schwarz besteht. :freak: Was ein subjektiv tristeres Bild bedingt.
Und bei LCD wird der Kontrast auch nicht mit im realistischen Rahmen sinkender Helligkeit schlechter, sondern bleibt in etwa gleich (schlecht)...
Naja der Boost skaliert natürlich schon relativ zur angeforderten Helligkeit.
Ja, aber mit Peak Brightness High halt falsch und mit identischem Clipping. Wie von mir paar Posts vor deinem getestet: 1200 Nits kann man zwar anfordern, aber das wird deutlich darunter geclippt und zwar mit Peak Brightness High und Low genau beim gleichen Wert.
Den genauen Monitor-internen Clipping-Wert müsste man für die optimale Windows-HDR-Kalibrierung wissen.
Relex
2025-06-11, 15:09:13
Natürlich reduzierst du den Durchschnittskontrast auch auf dem OLED, wenn du die Helligkeit reduzierst und nicht ein großer Teil des Bildes aus komplettem Schwarz besteht. :freak: Was ein subjektiv tristeres Bild bedingt.
Und bei LCD wird der Kontrast auch nicht mit im realistischen Rahmen sinkender Helligkeit schlechter, sondern bleibt in etwa gleich (schlecht)...
Theoretisch ja, subjektiv nein.
Beim LCD brauch ich immer eine gewisse Helligkeit, damit das Bild nicht blass und milchig wirkt, beim OLED ist das praktisch egal.
Hat wohl einfach damit zu tun, dass bei reduzierter Displayhelligkeit die Augen entsprechend Adaptieren und die Iris sich weitet. Dadurch erscheint das aufgehellte LCD-Schwarz bei geringer helligkeit noch heller.
Das problem ist halt, dass sich auf LCDs selbst mit reduzierter helligkeit der Schwarzwert nicht ausreichend bessert. Der kontrastverlust überwiegt deutlich.
Bei OLED hingegen bleibt schwarz eben schwarz. Selbst wenn sich die Augen anpassen. Durch die Augenadaption bleibt der Kontrast erhalten (natürlich nur solange die Umgebungshelligkeit nicht zu hoch ist bzw. in nem dunkleren Raum)
masteruser
2025-06-11, 15:42:13
OLED und "Abnutzung".
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Burn-in-OLED-Test-MSI-MAG-321URX-1474726/
Der Youtuber schätzt, dass das Panel des MSI-Monitors im Gebrauch etwa zwei bis drei Jahre hält, mit Luft nach oben.
Das ist aber ein Argument ->gegen den OLED Monitor Kauf !
Relex
2025-06-11, 15:56:16
Oh okay, dann muss ich also meinen Monitor schon im Frühjahr nächsten Jahres entsorgen. Ja sowas aber auch :freak:
Sorry, aber das ist doch quatsch.
Wer es mit der Helligkeit und statischem Inhalt im Windows Light Mode nicht übertreibt, dürfte wohl locker 5-7 Jahre erreichen.
Ansonsten gilt: OLEDs können einbrennen. Auch frühzeitig, wenn mans provoziert. Und sie werden auch irgendwann einbrennen, auch bei vorsichtiger Nutzung. Es liegt nunmal in der Natur der Sache, dass sie abnutzen. (Tun übrigens auch LCDs)
Praktisch ist die Panik für mich aber ähnlich wie damals bei der Abnutzung der SSDs. Gefühlt jeder hatte deswegen schlaflose Nächte und in der Praxis hat es einfach kaum jemanden in irgend einer Weise tangiert.
Klar, es mag einfacher sein, einen OLED einzubrennen, als ne SSD kaputt zu schreiben, aber manchmal hab ich auch das Gefühl manche Leute versuchen einfach jeden Grund zu finden, OLED schlecht zu reden und haben gar kein Interesse daran.
Nur komisch dass immer so getan wird, als würden LCDs nicht kaputt gehen. Das tun sie sehr wohl, auch frühzeitig. Mein letzter hatte nach 4 Jahren bereits ausfallende LCDs im Backlight. Bei nem 700€ Gerät auch nicht so geil und nicht das was man erwarten würde. Für mich gibts deshalb nicht den geringsten Grund wegen vermeintlich besserer haltbarkeit auf LCD zu setzen.
Zumal nüchtern betrachtet selbst ein OLED mit Burn in ein deutlich besseres und gleichmäßigeres Bild hat als der typische IPS rotz.
masteruser
2025-06-11, 16:10:01
Versuchen schlecht zu reden ?
Oder das Verhältnis von Nutzen und Kosten in
Einrechnung der Haltbarkeit zu sehen ? :wink:
32 Zoll Monitor VA/IPS so um die ab 250€ bekommt man schon gute Geräte.
32 Zoll beim OLED ist teuer, daher 34 Zoll ab 550€
Und selbst diese "Einsteigerklasse" schneidet in Tests immer gut ab.
Aber doppelte Kosten bei ggf. halber Haltbarkeit ?
Als Spieler, der wird sich das leisten dürfen.
Aber sonst ? Wo Spiele eben nur ein Teil der PC Nutzung ausmachen.
Der_Korken
2025-06-11, 16:18:00
Wie definierst du denn Haltbarkeit? Bis der OLED so degradiert ist, dass er hinter ein billiges IPS-Panel gleichen Alters zurückfällt, dürften viele Jahre vergehen, wenn man nicht gerade eine Worst-Case-Nutzung wie im Video anstrebt.
Argo Zero
2025-06-11, 16:37:31
Aber doppelte Kosten bei ggf. halber Haltbarkeit ?
Als Spieler, der wird sich das leisten dürfen.
Aber sonst ? Wo Spiele eben nur ein Teil der PC Nutzung ausmachen.
OLED ist etwas für Technik-Begeisterte, die damit auch umgehen können.
Ins Büro beim DAU-Kunden würde ich das auf keinen Fall verwenden. Darüber brauchen wir gar nicht erst reden ^^
Tesseract
2025-06-11, 16:48:14
kann man absolut problemlos jedem DAU hinstellen, ist genau so eine fantasiediskussion wie mit SSDs damals.
dargo
2025-06-11, 16:53:52
32 Zoll Monitor VA/IPS so um die ab 250€ bekommt man schon gute Geräte.
Ich habe noch keinen einzigen gesehen, welche sollen das sein? Vermutlich definierst du anders gute Bildqualität als ich.
Argo Zero
2025-06-11, 16:58:58
kann man absolut problemlos jedem DAU hinstellen, ist genau so eine fantasiediskussion wie mit SSDs damals.
Viel Spaß mit den Kunden, wenn das Display mal ne Woche an gelassen wird und sich alles feste einbrennt ^^
Lurtz
2025-06-11, 17:12:32
Nur komisch dass immer so getan wird, als würden LCDs nicht kaputt gehen. Das tun sie sehr wohl, auch frühzeitig. Mein letzter hatte nach 4 Jahren bereits ausfallende LCDs im Backlight. Bei nem 700€ Gerät auch nicht so geil und nicht das was man erwarten würde. Für mich gibts deshalb nicht den geringsten Grund wegen vermeintlich besserer haltbarkeit auf LCD zu setzen.
Darum geht es in dem Fall doch gar nicht. Ein OLED kann wie ein LCD auch an anderen Dingen als dem Panel kaputt gehen.
Insofern reiner Strohmann.
Zumal nüchtern betrachtet selbst ein OLED mit Burn in ein deutlich besseres und gleichmäßigeres Bild hat als der typische IPS rotz.OLED-Masterrace :ulol:
Relex
2025-06-11, 17:16:05
Wie gesagt, bei meinem letzten LCD ist das Backlight vorzeitig gealtert, was sich in Form von blauen Lichthöfen am Rand des Panels gezeigt hat.
Das würde ich unter der selben Kategorie wie alternde OLEDs verbuchen, da es kein simpler Ausfall der Platine oder des Netzteils war, sondern eben schlichtweg abnutzung und alterung, die sich auf die Bildqualität auswirkt.
RTINGS beobachtet im Langzeittest ja immer wieder ähnliche Probleme mit LCDs.
Tesseract
2025-06-11, 17:32:04
Darum geht es in dem Fall doch gar nicht. Ein OLED kann wie ein LCD auch an anderen Dingen als dem Panel kaputt gehen.
am LCD ist das backlight teil vom panel und nicht "was anderes". das kann am OLED nicht kaputt gehen weil nicht existent und ist auf LCD ein häufiger fehlerfall.
Viel Spaß mit den Kunden, wenn das Display mal ne Woche an gelassen wird und sich alles feste einbrennt ^^
wenn der kunde den LCD nicht schon am ersten tag wegen pissecken, backlightwolken oder sonstigen unzulänglichkeiten zurück schickt sieht der das "schlimme" einbrennen auch nach 5+ jahren nicht.
mal abgesehen davon ist es kaum relevant wie die bildqualität nach theoretisch 10 jahren als public display im vergleich wäre sondern über die nutzungsdauer und da muss am OLED schon verdammt viel schief gehen damit das auch nur in die nähe eines LCD fällt.
das ist ein bischen wie die diskussion über "fine wine" wenn eine architektur nach zig jahren aus obskuren gründen überholt aber über den relevanten nutzungszeitraum abkackt.
Rancor
2025-06-11, 18:21:33
Viper;13769983']Da du Profile erstellst, kannst du das machen und nennst es dann eben "HRD1000" oder so.. dann kannst du hin und her switchen.
Die HDR Kalibrierung in Windows braucht man nicht, wenn der Monitor die richtigen Daten im EDID hinterlegt hat.
masteruser
2025-06-12, 00:56:39
Ich habe noch keinen einzigen gesehen, welche sollen das sein? Vermutlich definierst du anders gute Bildqualität als ich.
https://geizhals.de/?cat=monlcd19wide&xf=11939_30~11940_32~13263_25601440~13264_25601440&asuch=&bpmin=&bpmax=250&v=e&hloc=at&hloc=de&plz=&dist=&t=v&sort=n&bl1_id=100
Die Wahrscheinlichkeit auf Nieten zu treffen, ist geringer, als auf gute Geräte im Verhältnis zum Preis. Und Bildqualität ist auch subjektiv. Es sei denn jener nutzt ein Messgerät um die objektive Qualität zu überprüfen.
MSI/LG/Acer/Viewsonic.
Diesen Firmen würde ich da auch am ehesten vertrauen.
aufkrawall
2025-06-12, 02:55:23
Theoretisch ja, subjektiv nein.
Sehen meine Augen anders, mit geringer Luminanz wirken auch auf OLED Farben flach...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.