PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 [68] 69 70 71 72

Slipknot79
2024-01-06, 13:24:27
Blöd nur, dass die 4090 keine 4k-Graka bei manchen aktuellen Spielen ist und bei kommenden AAA-Games nicht sein wird. (y)
Aber man can ya auch "alte" Spiele ballern. (y)

Ex3cut3r
2024-01-06, 13:30:11
Wenn es stimmt dass rdna4 beide top chips gecanclet hat, wird es für dich erstmal nicht viel besser werden. :-/

Sieht so aus, ja. Heißt Nvidia ist vollkommen alleine im Luxussegment, heißt auch, gute Preise. :biggrin:

Ist für mich eigentlich ein Offenbarungseid von AMD, dass man einfach nicht gegen Nvidia ankommt.

Gast
2024-01-06, 16:17:46
Naja 100% Window Helligkeit sind OLEDs von Haus aus nicht so hell. 20% bei einem OLED sind dann nicht äquivalent zu 20% von deinem LCD.

Bei meinem QD-OLED bin ich im SD auch bei 10 von 50.

Die 20% Einstellung entspricht ja nicht 20% der maximalen Helligkeit, ansonsten wäre der Bildschirm bei der Einstellung 0 ja komplett schwarz.

Gast
2024-01-06, 16:20:05
Naja im höchsten Lastfall zeigt wo die Spreu sich vom Weizen trennt. Aber ja ggf trotzdem gut genug für normale cases.

CNN hat die weiße Textbox, da ist logisch dass WOLED besser abschneidet.
Bei Spielen sind die statischen Elemente aber in der Regel farbig, z.B. rote Lebensbalken, da wird logischerweise QD-OLED besser abschneiden.

Platos
2024-01-06, 17:25:40
Bei maximaler Helligkeit?

Bin bei meinem Arbeitsmonitor mittlerweile auf 20% runter. Reicht für Excel und Co. Seither deutlich weniger Probleme mit angestrengten Augen etc.

Ändert ja trotzdem nichts daran, dass es nur logisch ist, sich das Gerät zu holen, das im Worst-Case am besten dasteht, wenn man ein Gerät (z.B) 10 Jahre für 8h Office am Tag nutzen will (neben Gaming und anderem).

Nutzererfahrungen sind zu 99% völlig Nutzlos, da sie (abgesehen für Enthusiasten) niemals realistische Zeiträume abdecken (meistens sind solche Nutzererfahrungen max. 3 Jahre und selbst bei 4-5 Jahren weiss man eben noch nicht, wie es nach 6-8 Jahren dann aussieht). Und man weiss auch nie, wie genau das Nutzungsverhalten war. Bei solchen Nutzererfahrungen wird ja auch nur in Worten beschrieben (mit Adjektiven am besten), wie genau das Gerät genutzt wird. Also völlig wertlos.

Rtings ist da die einzig verlässliche Quelle für Worst-Case Szenarien.

https://youtu.be/OeGH-3sNJbs
MPG 321URX angeblich für 1200 Dollars up März.

Gibt es denn ein Vergleich irgendwo, der das alte mit dem neuen layout bei gleicher Auflösung vergleicht?

Denn letztes Jahr (oder wann war das nochmals?) hat er ja einen 1440p Monitor gehabt, den er so kritisiert hat.

Gast
2024-01-06, 17:34:04
Ändert ja trotzdem nichts daran, dass es nur logisch ist, sich das Gerät zu holen, das im Worst-Case am besten dasteht, wenn man ein Gerät (z.B) 10 Jahre für 8h Office am Tag nutzen will (neben Gaming und anderem).


Ich will doch keine 10 Jahre den selben Monitor haben 🤦*♂️

robbitop
2024-01-06, 18:17:27
CNN hat die weiße Textbox, da ist logisch dass WOLED besser abschneidet.
Bei Spielen sind die statischen Elemente aber in der Regel farbig, z.B. rote Lebensbalken, da wird logischerweise QD-OLED besser abschneiden.

Spielecontent zeigte sich aber unproblematisch. Was potentiell problematischer ist ist Office Work. So wie es post Covid bei vielen der Fall ist (bei mir schon seit bald 6 Jahren jeden Tag 8-10h). Und da sind die Fenster auch oft weiss. Also sicherlich relevant.

Ich will doch keine 10 Jahre den selben Monitor haben 🤦*♂️

Da ist jeder anders. Mein 27“ 144 Hz 1440p IPS wird nächstes Jahr 10 Jahre alt. Bis dato bin ich relativ zufrieden. Durch meine OLED TVs kenne ich natürlich auch Besseres und werde wohl Ende nächsten Jahres (LG Roadmap) auf 32:9 WOLED 34“ mit rgwb und 5120x2160 auf 240 Hz wechseln. Das wird ein Sprung!
Bis dato waren mir die Sprünge für das aufgerufene Geld zu klein.

/Locutus oB
2024-01-06, 18:50:57
dann müsste man ja sagen wir mal 5 jahre warten bis es Erfahrungen gibt und erst dann kaufen. also ein x Jahre altes Modell kaufen...hm...

Nightspider
2024-01-06, 18:57:36
Blöd nur, dass die 4090 keine 4k-Graka bei manchen aktuellen Spielen ist und bei kommenden AAA-Games nicht sein wird. (y)
Aber man can ya auch "alte" Spiele ballern. (y)

Oder du lernst die Schieberegler in den Optionen zu bedienen und erfreust dich einer tollen 4K Bildqualität bei leicht reduzierten Settings und Upsampling anstatt immer die gleiche Leier von dir zu geben. (y)

Krass wie meine 4090 5160*2160 schubst in The Last Of Us. Scheint ein Sondermodell zu sein.


Ist für mich eigentlich ein Offenbarungseid von AMD, dass man einfach nicht gegen Nvidia ankommt.

Schon amüsant wie gern einige hier ihren Tellerrand aufzeigen. :D

La Junta
2024-01-06, 19:24:08
Oder du lernst die Schieberegler in den Optionen zu bedienen und erfreust dich einer tollen 4K Bildqualität bei leicht reduzierten Settings und Upsampling anstatt immer die gleiche Leier von dir zu geben.
Meistens sind kleine Reduzierungen die nichtmal sichtbar sind und das Game läuft deutlich angenehmer.
Ich sehe dieses Text Friging nicht, ich scheine in der Hinsicht blind zu sein... (Samsung g8 Oled) .

Platos
2024-01-06, 19:25:23
dann müsste man ja sagen wir mal 5 jahre warten bis es Erfahrungen gibt und erst dann kaufen. also ein x Jahre altes Modell kaufen...hm...

... und genau deswegen gibt es die Tests von rtings, die eben genau das simulieren in kürzerer Zeit.

/Locutus oB
2024-01-06, 21:05:42
führt doch trotzdem dazu nie ein aktuelles Modell kaufen zu können...wenn ICH geld ausgebe, möchte ich auch ein aktuelles Modell.

Sardaukar.nsn
2024-01-06, 22:58:27
Da ist jeder anders. Mein 27“ 144 Hz 1440p IPS wird nächstes Jahr 10 Jahre alt. Bis dato bin ich relativ zufrieden. Durch meine OLED TVs kenne ich natürlich auch Besseres und werde wohl Ende nächsten Jahres (LG Roadmap) auf 32:9 WOLED 34“ mit rgwb und 5120x2160 auf 240 Hz wechseln. Das wird ein Sprung!
Bis dato waren mir die Sprünge für das aufgerufene Geld zu klein.

Kann ich nachvollziehen, aber zwischendurch mal einen Upgrade ist nicht verkehrt und auch nicht so wirklich kostspielig.

Bei mir ging es von FullHD auf 27" 1440 > 34" Xiaomi curved ultrawide > 42" LG C2 OLED. War jedes mal krass und das best investierte Geld in dem Jahr. Der LG hat irgendwas im 900€ gekostet. Haut alles vorher dagewesene so gnadenlos weg... https://i.imgur.com/2wycZbF.jpg

Nightspider
2024-01-06, 23:57:11
Richtig schlimm ist es ja, wenn man dann mal irgendwo bei Freunden oder in einem Büro an einem TN Panel sitzt mit matschiger 1080p Auflösung.
Das ist immer ein Schock. ^^

OLED hat ja zum Glück das Potential sich irgendwann überall durchzusetzen mit hoher Pixeldichte.

Manche Schritte sind noch ein paar Jahre entfernt wie die eLEAP Technik die Ende 2026 in Großproduktion gehen soll und in jeder Hinsicht besser/günstiger/nachhaltiger sein soll.

https://www.oled-info.com/sites/oled/files/2023-11/JDI-eLEAP-advantages.jpg

Wer will kann ja so lange warten aber jeder der >5h täglich am PC verbringt und am PC zockt sollte sich 2 mal überlegen ob er nicht mal bisschen Geld dieses Jahr in die Hand nimmt um sein Hobby deutlich (!) aufzuwerten.

Wer einmal OLED auf dem Schreibtisch hat will nie wieder zurück.

Gast
2024-01-07, 00:12:46
Spielecontent zeigte sich aber unproblematisch. Was potentiell problematischer ist ist Office Work.


Das würde ich so zumindest nicht generalisieren. Wenn man Office Work mit normal angenehmen Helligkeiten von 120-150nits betreibt, Spiele aber ständig mit HDR volle pulle werden letztere sich deutlich mehr auf den Verschleiß auswirken.
Und das ist auch keine übermäßige Einschränkung 120nits ist ein typisches Kalibrierungsziel für farbechte Arbeiten.
Und da gibt es genug Spiele mit statischen extrem hellen HUD-Elementn

Man darf nicht vergessen dass der RTINGs-Test viel zu hohe Helligkeiten für typische Office-Arbeiten verwendet, für Fernseher mit größerem Abstand mag das noch halbwegs realistisch sein.

Slipknot79
2024-01-07, 00:13:10
Oder du lernst die Schieberegler in den Optionen zu bedienen und erfreust dich einer tollen 4K Bildqualität bei leicht reduzierten Settings und Upsampling anstatt immer die gleiche Leier von dir zu geben. (y)

Krass wie meine 4090 5160*2160 schubst in The Last Of Us. Scheint ein Sondermodell zu sein.


Statt Last Of Us hättest auch Tetris nennen können um "es mir zu zeigen".
"Notfalls" gibts auch DLDSR 2,25x für ein knackiges Bild für jene unter 4k. Mit alles uns scharf.
Schieberegler "nach links" ist keine Option. Es wird der volle Preis bezahlt, also muss auch voll geliefert werden. Was ist das sonst für eine Logik. Der nächste kommt her, kauft nen 4k Monitor und betreibt alles in 720p, weil "man kann ja den Regler nach links schieben". (y)

Nightspider
2024-01-07, 00:15:46
Es wird der volle Preis bezahlt, also muss auch voll geliefert werden.

Für was?
Pizza mit Käserand?

Schieberegler "nach links" ist keine Option

Das ist dann wohl nur dein Problem. ^^

Slipknot79
2024-01-07, 00:18:55
Für was?
Pizza mit Käserand?



Das ist dann wohl nur dein Problem. ^^


Für das Spiel mit alles. Was sonst.

Nope, nicht mein Problem. Aber jener, wenn man sich durch die Foren liest und dort geklagt wird, dass AW2, CP2077 "schlecht programmiert sind" weil zu wenige fps. Dann fragt man nach: 4k
Na dann. Warum nicht gleich 8k dranschallen und sich über die fps wundern. (y)

Der_Korken
2024-01-07, 00:51:48
https://youtu.be/OeGH-3sNJbs
MPG 321URX angeblich für 1200 Dollars up März.

Klingt gar nicht mal so schlecht. Eigentlich wäre meine Preisvorstellung für einen Monitor eher so 600€, aber auf einen OLED wäre ich schon geil. 4K will ich, 32 Zoll wäre für mich perfekt. 240Hz bräuchte ich nicht.

Für mich steht und fällt aber alles mit der Textdarstellung. Ich verbringe die meiste Zeit in IDEs (programmieren) und Browsern, d.h. wenn das nicht gescheit aussieht, ist so ein Monitor nichts für mich. Potentiell scheint das Problem mit ClearType ja in Software fixbar zu sein, da es allein an der Anordnung der Subpixel nicht, nicht an der Displaytechnik an sich. Da Microsoft aber nicht die schnellsten sind, wenn es darum geht ihr System anzupassen, muss die Darstellung für mich von vornherein brauchbar genug sein.

Btw: Warum nutzt gefühlt kein einziger Monitor DisplayPort 2.0? Wenn ich das richtig sehe sind weder DP1.4 noch HDMI2.1 in der Lage 4K@240Hz ohne Kompression zu übertragen (und manche Monitore können nur HDMI2.1 mit halbierter Bandbreite). Zumal DP1.4 auch schon ziemlich ist.

Edit: Lmao, ich sehe gerade, dass die überlegenen Ada-GPUs selbst für 2000$ kein DP 2.0 unterstützen. Danke, Nvidia.

OgrEGT
2024-01-08, 08:36:26
MSI 491CQP - OLED 5120x1440 32:9 144Hz
https://www.notebookcheck.com/MSI-491CQP-Extrabreiter-OLED-Bildschirm-ist-gekruemmt-und-bietet-Zusatzfunktionen-fuer-Videospieler-und-reagiert-in-0-03-ms.789757.0.html

exzentrik
2024-01-08, 13:11:31
ASRock steigt ins OLED-Segment ein (https://www.prad.de/asrock-neue-gaming-displays-mit-oled-oder-520-hz/) und plant zwei Gaming-Displays mit (U)WQHD und 240 Hz. (Außerdem: Zwei LCDs mit WQHD @ 400 Hz bzw. Full HD @ 520 Hz.)

Troyan
2024-01-08, 18:08:27
G-SYNC Pulsar is the next evolution of Variable Refresh Rate (VRR) technology, not only delivering a stutter-free experience and buttery smooth motion, but also a new gold standard for visual clarity and fidelity through the invention of variable frequency strobing. This boosts effective motion clarity to over 1000Hz on the debut ASUS ROG Swift PG27 Series G-SYNC gaming monitor, launching later this year.

No longer will users have to choose between the smooth variable refresh, or the improved motion clarity of Ultra Low Motion Blur (ULMB) – our new G-SYNC Pulsar technology delivers all the benefits of both, working in perfect harmony to deliver the definitive gaming monitor experience.
https://www.nvidia.com/en-my/geforce/news/g-sync-pulsar-gaming-monitor/

robbitop
2024-01-08, 19:42:08
Geil! Leider nicht ideal für OLED weil dann wirklich helligkeitslimitiert.

Nightspider
2024-01-08, 19:46:24
Es gibt doch schon OLEDs mit bis zu 4500 Nits im Mobile Bereich mit 1600 Nits bei 100% weißem Bild.

Die nächsten Jahre wird es bei Fernsehern und Monitoren auch weiter nach oben gehen mit der Helligkeit.

Ziel der Industrie sind auf jeden Fall 4000 Nits.

Gast
2024-01-08, 19:58:55
Es gibt doch schon OLEDs mit bis zu 4500 Nits im Mobile Bereich mit 1600 Nits bei 100% weißem Bild.

Nicht vergleichbar, RGB-OLEDs sind um ein vielfaches Effizienter als QD-OLEDs und erst recht WOLEDs. Zudem sind die Screens viel kleiner.

Sardaukar.nsn
2024-01-08, 21:19:43
Uiuiui.... https://www.techpowerup.com/317455/acer-debuts-curved-oled-and-miniled-monitors-predator-z57-with-7680x2160-resolution

The new monitors include a pair of 2304-zone MiniLED models, with the flagship Predator Z57, the largest of the group with a 57-inch DUHD (7680x2160) at 120 Hz display

Rooter
2024-01-08, 22:17:32
Ich habe meinen 27" VA bisher mit den max. möglichen 165 Hz laufen lassen. Er hängt an einem PC mit einem Ryzen 3600XT und einer RX570.
Jetzt habe ich mal die verschiedenen Bildwiederholfrequenzen durchgemessen und komme auf folgendes Ergebnis:

https://i.imgur.com/joUW1nq.png

Gemessen wurde PC + Monitor (es hing noch eine leere Qi Ladeschale dran, aber ich denke die kann man vernachlässigen).
Ich weiß nicht, was davon den krassen Mehrverbrauch bei mehr als 120 Hz verursacht, ich tippe aber auf die Graka. :uponder: (Um das im Detail zu messen müsste ich hier meine ganze Verkabelung auseinander reißen.)

Jedenfalls lasse ich das ab sofort mit 120 Hz laufen. Am Desktop und bei meinen paar ollen Spielen* sehe ich am VA Panel keinen Unterschied. Da mein PC ca. 60 h pro Woche läuft, spare ich damit ca. €50 im Jahr an Strom. :freak:

*: OpenTTD und GZDoom, jeweils im Fenstermodus.

MfG
Rooter

FunkyChris
2024-01-08, 22:22:55
https://www.nvidia.com/en-my/geforce/news/g-sync-pulsar-gaming-monitor/

Das könnte krass werden. Dafür würde ich sehr wahrscheinlich meinen LG Oled hergeben :biggrin:

RavenTS
2024-01-08, 22:41:15
@Rooter: kannst du nicht auch den Monitor alleine messen? Hast du VSync an?

Rooter
2024-01-08, 22:45:17
@Rooter: kannst du nicht auch den Monitor alleine messen?Nicht ohne Aufwand.

MfG
Rooter

Nightspider
2024-01-08, 22:48:24
Die neuen LG G4 WOLEDs scheinen schon 3000 Nits bei 3% Window zu schaffen.

Wenn du 1/3 tel der Zeit mit 3000 pulst, dann sind es durchschnittlich 1000 Nits.

Natürlich muss die Elektronik dann auch die 3000 Nits Zyklen vollflächig aushalten können.
Dürften einige hundert Watt Peak für den Bruchteil einer Sekunde sein.

In der Praxis dürften die meisten Bildinhalte deutlich weniger benötigen.

Nicht vergleichbar, RGB-OLEDs sind um ein vielfaches Effizienter als QD-OLEDs und erst recht WOLEDs. Zudem sind die Screens viel kleiner.

RGB OLED sind viel effizienter als ein RGB OLED mit zusätzlichem weißen Pixel?

Ergibt erstmal keinen Sinn.

Das die Screens viel kleiner sind, spielt bei der Effizienz auch keine Rolle, nur bei den Herstellungskosten.

Fakt ist: Man kann deutlich hellere OLED Bildschirme produzieren und neue Techniken werden die Kosten senken und die Helligkeiten steigern.

Nightspider
2024-01-09, 03:37:48
Samsungs QD-OLEDs der 3. Generation schaffen auch 3000 Nits im TV Bereich.
Monitore bleiben aber erstmal im niedrigeren Bereich.

Von ASUS gibts auch verschiedene Modelle mit QD-OLED und WOLED

https://www.hardwareluxx.de/community/attachments/screenshot-2024-01-09-015828-png.957381/

Verstehe nicht ganz warum beide Modelle nicht Dolby Vision und HDR10 supporten.

Tobalt
2024-01-09, 06:50:14
RGB OLED sind viel effizienter als ein RGB OLED mit zusätzlichem weißen Pixel?

Ergibt erstmal keinen Sinn.

Doch. Die Farbfilter verbrennen halt einen Großteil der emittierten Luminanz.

Bei den QD geht die überschüssige Photonenenergie ebenso verloren. Zwar besser als WOLED aber immernoch weit entfernt von nativen RGB Emittern.

Nightspider
2024-01-09, 08:12:20
Ja gut, wenn man es auf die Farbfilter bezieht.

Aber wenn LG zukünftig den weißen Subpixel weglässt wäre es auch RGB mit Farbfilter und dann weniger effizient.

RGB heißt ja erstmal nur das es die drei Subpixel gibt und nicht wie die Farben entstehen.

Tobalt
2024-01-09, 08:36:51
Ja verstehe.. Im Kontext von OLED kennzeichnet RGB IMO das ursprüngliche Format mit drei verschiedenen Emittern anstelle von 3 blauen Emittern, was zwar effizienter war aber eben alterungsbedingte Farbdrift aufweist

Gast
2024-01-09, 08:54:30
Das die Screens viel kleiner sind, spielt bei der Effizienz auch keine Rolle, nur bei den Herstellungskosten.



Es spielt eine Rolle für die erreichbare Helligkeit, insbesondere bei hohen APL-Leveln.

Das Limit für die Helligkeit bei selbstleuchtenden Pixeln sind nicht die Emitter selbst, sondern die Stromversorgung dieser. Je größer das Panel desto größer werden auch die Ströme die durchs Panel müssen und durch die längeren Wege sinkt die Effizienz erheblich.

ChaosTM
2024-01-09, 09:25:35
Samsungs QD-OLEDs der 3. Generation schaffen auch 3000 Nits im TV Bereich.
Monitore bleiben aber erstmal im niedrigeren Bereich.

Von ASUS gibts auch verschiedene Modelle mit QD-OLED und WOLED

https://www.hardwareluxx.de/community/attachments/screenshot-2024-01-09-015828-png.957381/

Verstehe nicht ganz warum beide Modelle nicht Dolby Vision und HDR10 supporten.


Ist etwas unverständlich ja.
Andererseits sind 32er eher zum Arbeiten oder Zocken gedacht und für Filme doch etwas klein. Daher ist das fast verschmerzbar.

Leute die sich solche Monitore kaufen/leisten können haben meist nebenbei noch einen OLED in 65+ stehen für Filme und natürlich auch Spiele.

Relex
2024-01-09, 09:57:37
Ist etwas unverständlich ja.
Andererseits sind 32er eher zum Arbeiten oder Zocken gedacht und für Filme doch etwas klein. Daher ist das fast verschmerzbar.

Leute die sich solche Monitore kaufen/leisten können haben meist nebenbei noch einen OLED in 65+ stehen für Filme und natürlich auch Spiele.

Warum soll 32 für Filme zu klein sein und warum ein 65 Zöller im Wohnzimmer ausreichend?

Ich muss bei 65 Zoll bereits auf 1-1,5 Meter ran, damit das Bild so groß wird, wie 27 Zoll auf dem Schreibtisch. Von 32 Zoll ganz zu schweigen. So nah steht normal keine couch vor einem TV...
Die gängigen TV größen im bezahlbaren Bereich sind eigentlich immernoch viel zu klein, wenn man es mit der Größe von Desktopmonitoren Vergleicht und dem Sichtfeld das ausgefüllt wird. Ab 100+ Zoll wirds interessant.

robbitop
2024-01-09, 09:59:08
Doch. Die Farbfilter verbrennen halt einen Großteil der emittierten Luminanz.

Bei den QD geht die überschüssige Photonenenergie ebenso verloren. Zwar besser als WOLED aber immernoch weit entfernt von nativen RGB Emittern.
Ist der Wirkungsgrad bei der Umwandlung nicht ziemlich hoch? Außerdem gab es bei RGB OLEDs mehrere Nachteile IIRC:

1. Leuchtstärke der unterschiedlichen Farbtypen ist unterschiedlich
2. Lebensdauer der unterschiedlichen Farbtypen ist unterschiedlich (und damit kann Einbrennen IIRC schneller passieren, weil das schwächste Glied der Kette hier Auswirkungen hat)

Es hat schon gute Gründe, warum LG auf WOLED gegangen ist bei TVs und Monitoren und warum Samsung aufwändig an QD-OLED geforscht hat (aber in seinen Smartphones RGB-OLED verbaut)

Aber davon ab: beide haben auf der diesjährigen CES neue Panels vorgestellt, die bis zu 3000 nits schaffen. (allerdings 3% Window)
Da tut sich seit dem es mit Samsung einen Wettbewerber im OLED Bereich gibt wieder einiges jedes Jahr.

Doch. Die Farbfilter verbrennen halt einen Großteil der emittierten Luminanz.

Bei den QD geht die überschüssige Photonenenergie ebenso verloren. Zwar besser als WOLED aber immernoch weit entfernt von nativen RGB Emittern.
IIRC war dafür die WOLED hinter den Farbfiltern deutlich stärker als das blaue OLED in Samsungs QD-OLED und man hat noch eine zusätzliche WOLED als Subpixel.
IMO gibt es nirgends einen klaren Sieger - jede Paneltechnologie hat ihre Stärken und Schwächen. Was aber interessant ist, dass sich die Performance zwischen QD-OLED und WOLED sehr sehr ähnelt. Vor 2 Jahren wurde WOLED tot gesagt und LG hat 2x nacheinander richtig starke Fortschritte gebracht und man ist gleichauf. :)

Tobalt
2024-01-09, 10:09:01
Die QDs wandeln im besten Fall ein blaues Photon in ein rotes/grünes. Die verbleibende Energie von 1-2 eV/photon geht verloren, also liegt die Effizienz im Idealfall in der Nähe von 50-70%. Dazu kommen dann noch alle möglichen Verluste durch die nichtideale Implementierung.

Farbfilter sind halt noch grauseliger in der Performance.

Zunächst mal ist die weiße LED nicht so energieeffizient wie eine reinblaue. Und dann wird nochmal ein Großteil ihres Spektrums verbrannt. QDOLED sind also (prinzipiell) schon massiv effizienter als WOLED.

Ich denke, dass sich WOLED so gut hält, liegt an der Reife der Tech. Vermutlich ist die reale Effizienz bei den QD-OLED auch noch sehr weit von 50% entfernt, speziell wenn man viel Leistung will.

The maximum possible fluorescence quantum yield is 1.0 (100%); each photon absorbed results in a photon emitted. Compounds with quantum yields of 0.10 are still considered quite fluorescent.

exzentrik
2024-01-09, 10:47:16
Neue Alienware-Displays mit QD-OLED (wahrscheinlich aktuellster Generation):

AW2725DF (https://www.prad.de/alienware-aw2725df-details-zum-qd-oled-monitor/) mit WQHD, 360 Hz, DisplayHDR True Black 400 und FreeSync Premium Pro. (899,99 US-Dollar)

AW3225QF (https://www.prad.de/dell-aw3225qf-mit-qd-oled-dolby-vision-und-4k240/) mit 4K, 240 Hz, Dolby Vision, DisplayHDR True Black 400, G-Sync Compatible, ALLM, eARC und VRR. (1.199,99 US-Dollar)

Sollen beide schon in Kürze erscheinen und je drei Jahre Garantie inkl. Vor-Ort-Austausch-Service und Abdeckung gegen OLED-Einbrenneffekte bieten.

Gast
2024-01-09, 11:35:41
1. Leuchtstärke der unterschiedlichen Farbtypen ist unterschiedlich


Das ist kein Nachteil, rot ist nun mal viel heller als blau, und grün sehr viel heller als blau, das liegt in der Natur des sichtbaren Lichtspektrums.


2. Lebensdauer der unterschiedlichen Farbtypen ist unterschiedlich (und damit kann Einbrennen IIRC schneller passieren, weil das schwächste Glied der Kette hier Auswirkungen hat)


Das war(?) zumindest grundsätzlich der Fall, wenn es noch immer so wäre, wäre QD-OLED aber das schlimmste überhaupt da es nur blaue und damit die schwächsten OLEDs verwendet, und WOLED wäre sogar noch schlimmer dran, da eine weiße OLED in Wirklichkeit aus einer gelben und blauen OLED in einem Bauteil besteht, wenn hier blau so viel schneller altern würde es hier starke Farbverschiebungen die man nicht mal so ohne weiteres korrigieren könnte, da die einzelnen Komponenten nicht getrennt angesteuert werden können.


Es hat schon gute Gründe, warum LG auf WOLED gegangen ist bei TVs und Monitoren und warum Samsung aufwändig an QD-OLED geforscht hat (aber in seinen Smartphones RGB-OLED verbaut)


Der Grund warum sowohl Samsung und LG für kleine OLEDs bis zur Tabletgröße bzw. kleiner Laptops auf RGB-Emitter setzen ist die deutlich bessere Effizienz, und auch die geringere Baugröße.

Der Grund warum man für große TVs auf andere Technologien setzt ist nicht weil diese besser als RBG-Emitter sind, sondern weil man die Fertigung dieser zu akzeptablen Preisen nicht geschafft hat.
Die ersten Samsung OLEDs vor über 10 Jahren verwendeten RGB-Emitter, nur kostet dann der Fernseher so viel wie ein Auto.


Aber davon ab: beide haben auf der diesjährigen CES neue Panels vorgestellt, die bis zu 3000 nits schaffen. (allerdings 3% Window)

Dass Problem ist hier dass der Stromfluss im Panel zu hoch werden würde, eine Applewatch kann 3000nits Fullscreen, aber das ist dann auch nicht mehr Fläche als ein 3% Window.



Was aber interessant ist, dass sich die Performance zwischen QD-OLED und WOLED sehr sehr ähnelt.

Nur so lange man sich auf weiß bzw. grautöne fokussiert. Sobald Farben im Spiel sind hat QD-OLED deutliche Vorteile.

Platos
2024-01-09, 11:47:04
Vlt. kommen ja bald Micro LEDs.

Samsung hat ja jetzt so eine Art Machbarkeitsstudie and der CES 2024 gezeigt.

Vlt. sind die ja dann weniger Anfällig für burn-out. Aber mal abwarten. Bis die Technologie in (bezahlbaren) TVs kommt (oder gar monitoren) geht es sicher noch mind. 5 Jahre.

Tobalt
2024-01-09, 12:09:09
MicroLED die mittels Transfer und nicht mittels Dünnschichttechnik hergestellt werden, werden immer um Größenordnungen teurer sein und viel schlechtere PPI haben.

Problem ist, dass kein Verfahren existiert, wie man anorganische LEDs auf einem Glassubstrat direkt wachsen kann.

Noch größeres Problem ist, dass selbst wenn jemand sowas erfindet, die anorganischen LEDs dann die gleichen Probleme wie OLED bekommen.

Anorganische microLED consumer Geräte bleiben noch für sehr sehr lange Zeit ein Hirngespinst. Suche dir lieber was anderes im Leben worauf du hoffen kannst, was eine reale Chance hat, Weltfrieden oder so ;)

exzentrik
2024-01-09, 12:45:12
HP Omen Transcend 32 (https://www.prad.de/hp-qd-oled-display-mit-4k240-und-displayport-2-1/) mit DisplayPort 2.1 (!), QD-OLED, 4K240, FreeSync Premium Pro, Dolby Vision, DisplayHDR True Black 400 und KVM-Switch ab August verfügbar. Preis noch unklar. Per Omen Gear Switch wird man wohl einzelne USB-Buchsen zwischen zwei verbundenen Endgeräten umschalten können.

robbitop
2024-01-09, 12:56:59
Nur so lange man sich auf weiß bzw. grautöne fokussiert. Sobald Farben im Spiel sind hat QD-OLED deutliche Vorteile.
Laut den Reviews haben die letzten WOLED Generationen da aber dolle aufgeholt. Angeblich durch processing gesteuertes Übersteuern der Subpixel.

Turrican-2
2024-01-09, 13:58:06
(...)mit DisplayPort 2.1 (!)(...)

Mich verwundert, dass die nötige Kompression via Vesa DSC im allgemeinen Hype kaum thematisiert wird. Mir ist der Umfang der Kompression nicht bekannt, jedoch möchte ich beim vermeintlichen Traummonitor ungern auf DP2.1 verzichten.

robbitop
2024-01-09, 14:24:00
Ist halt visual lossless. Das ist eher ein theoretisches Konstrukt das genutzt wird um zu Meckern. DP mit DSC ist kein Problem.

Tesseract
2024-01-09, 14:57:49
Mich verwundert, dass die nötige Kompression via Vesa DSC im allgemeinen Hype kaum thematisiert wird.

weil de facto irrelevant. DSC hat kompressionsratios von... ich glaube es war 1:1,2 bis 1:3... und für 4k/240 über HDMI 2.1 braucht es ~1:1,5. das sieht man, außer auf irgendwelchen schachbretttestmustern, de facto nicht. DSC ist absolut nicht mit z.B. chroma subsampling vergleichbar wo sofort die schrift sichtbar ausfranst.

Turrican-2
2024-01-09, 15:53:13
Ok, danke für info :up:

basix
2024-01-09, 16:25:50
Ja, DSC ist relativ schmerzfrei anwendbar. Chroma Subsampling ist da wesentlich unschöner.

Tobalt
2024-01-09, 17:30:31
Schachbrettmuster reichen vermutlich nichtmal um DSC aus der Fassung zu bringen, da immernoch zu regulär. Du brauchst da schon buntes rauschen, damit DSC Fehler produziert. Und Fehler im bunten Rauschen sind wie gesagt visually lossless.

DSC als etwas schlechtes hinstellen zu wollen, zeugt IMO von grober Ignoranz.

Im Gegenteil sollte man die Anwesenheit von DSC hypen. Es erweitert die Auflösung/Farbtiefe/Framerate GRATIS und ist dabei eben gerade nicht Kacke wie Chroma Subsampling.

Troyan
2024-01-09, 17:51:46
Acer bringt einen neuen X34 mit 2304 Zonen raus: https://www.acer.com/de-de/predator/monitors/x34-miniled

registrierter Gast
2024-01-09, 17:55:49
Wieso gibt's die guten 34 Zöller immer nur curved?!

Troyan
2024-01-09, 18:45:06
Man spart Platz an den Seiten. Fand die Curved 16:9 Monitor von Samsung in 32" auch besser als flache.

ChaosTM
2024-01-09, 18:52:34
Warum soll 32 für Filme zu klein sein und warum ein 65 Zöller im Wohnzimmer ausreichend?

Ich muss bei 65 Zoll bereits auf 1-1,5 Meter ran, damit das Bild so groß wird, wie 27 Zoll auf dem Schreibtisch. Von 32 Zoll ganz zu schweigen. So nah steht normal keine couch vor einem TV...
Die gängigen TV größen im bezahlbaren Bereich sind eigentlich immernoch viel zu klein, wenn man es mit der Größe von Desktopmonitoren Vergleicht und dem Sichtfeld das ausgefüllt wird. Ab 100+ Zoll wirds interessant.


Bitte genau lesen. 65+ -- und nahe an einen kleinen Monitor herangehen ersetzt keinen großen Fernseher. Nicht mal annähernd !

Und mein 65er ist fahrbar. Je nach Einsatzgebiet geht es näher heran oder weiter weg.

Sardaukar.nsn
2024-01-09, 18:54:50
Acer bringt einen neuen X34 mit 2304 Zonen raus: https://www.acer.com/de-de/predator/monitors/x34-miniled

Aber auch einen X39 mit ca. 5 Millionen Zonen :wink:
https://www.acer.com/de-de/predator/monitors/x39-oled

Noch größer und er sollte aber auch schon etwas mehr Auflösung haben.

Slipknot79
2024-01-09, 23:02:04
Neue Alienware-Displays mit QD-OLED (wahrscheinlich aktuellster Generation):

AW2725DF (https://www.prad.de/alienware-aw2725df-details-zum-qd-oled-monitor/) mit WQHD, 360 Hz, DisplayHDR True Black 400 und FreeSync Premium Pro. (899,99 US-Dollar)

AW3225QF (https://www.prad.de/dell-aw3225qf-mit-qd-oled-dolby-vision-und-4k240/) mit 4K, 240 Hz, Dolby Vision, DisplayHDR True Black 400, G-Sync Compatible, ALLM, eARC und VRR. (1.199,99 US-Dollar)

Sollen beide schon in Kürze erscheinen und je drei Jahre Garantie inkl. Vor-Ort-Austausch-Service und Abdeckung gegen OLED-Einbrenneffekte bieten.


https://www.notebookcheck.com/Dell-praesentiert-Alienware-32-4K-QD-OLED-Gaming-Monitor-AW3225QF-mit-Dolby-Vision-240-Hz-und-0-03-ms.782861.0.html
Angeblich mischt up 6 Februar Dell mit. Unklare Angabe wegen G-Sync, vermutlich aber nur compatible, weil für den Price ged sich nen Nvidia Modul nicht aus. ^^
Ich würde mal nicht von dicker Verfügbarkeit ausgehen.
https://www.notebookcheck.com/fileadmin/_processed_/c/a/csm_aw3225qf-top-down_7f9f441334.png

derF
2024-01-10, 00:01:27
Ich hab auch mal wieder Sonderwünsche, die anscheinend erst nächstes Jahr Beachtung finden. Keine Ahnung ob ich mich solang gedulden kann, oder ob es wieder ein 16:9 wird.

OLED
5120 × 2160 (21:9)
Curved
>=38 Zoll
>120 Hz

nice to have: BFI

Es gibt mit der Auflösung nur 9 Monitore bei Geizhals und keinen OLED.
LG hat wohl einen mit 45 Zoll für nächstes Jahr geplant.
https://www.heise.de/news/OLED-4K-Monitore-mit-240-Hertz-kommen-im-Sommer-2024-9232868.html

Ich glaube 10% kleiner wäre mir auch noch vollkommen ausreichend, aber man darf ja nicht wählerisch sein.

Platos
2024-01-10, 04:01:14
Bitte genau lesen. 65+ -- und nahe an einen kleinen Monitor herangehen ersetzt keinen großen Fernseher. Nicht mal annähernd !

Und mein 65er ist fahrbar. Je nach Einsatzgebiet geht es näher heran oder weiter weg.

Wie machst du denn das mit den Kabeln, wenn der fahrbar ist? So weit fahren kannst du dann ja nicht oder?

Reaping_Ant
2024-01-10, 04:01:23
OLED
5120 × 2160 (21:9)
Curved
>=38 Zoll
>120 Hz

So sieht meine Wunschliste auch aus. Sowohl OLED als auch 21:9 möchte ich nicht mehr missen. Das einzige, was mich zu einem Upgrade bewegen könnte ist mehr Größe und/oder Pixeldichte. 1440p bei 27/34 Zoll sind leider schon hart an der Grenze.

Sardaukar.nsn
2024-01-10, 06:48:52
So sieht meine Wunschliste auch aus. Sowohl OLED als auch 21:9 möchte ich nicht mehr missen. Das einzige, was mich zu einem Upgrade bewegen könnte ist mehr Größe und/oder Pixeldichte. 1440p bei 27/34 Zoll sind leider schon hart an der Grenze.

Da könnte ich evtl auch noch mal schwach werden und den 42er LG C2 in der Familie weiterreichen. Wäre laut http://screen-size.info/rechner.html 12cm breiter und 6cm niedriger.

21:9 und curved möchte ich beim 34" Vorgänger vom Format her besser. Allerdings auf 1440p und VA-Display gehe ich nicht mehr zurück.

Loeschzwerg
2024-01-10, 07:45:24
Samsung QD-OLED Gen 3:
00D_hw9w9Ms

Ab Minute 4:00: Leider immer noch Color Fringing, wohl aber etwas besser

horn 12
2024-01-10, 07:47:55
Hat der Neue Dell dann erneut einen Lüfter
oder diesesmal kommt der Monitor Ohne aus.

Also der Dell mit dem Neuesten QD Oled Panel der Generation 3 vom Jahre 2024
Also anderes als der Neue MSI 34 Zoll und 39 Zoll, welche das Panel der 2-ten Generation aus 2023 verwenden.

Nightspider
2024-01-10, 08:20:13
Samsung QD-OLED Gen 3:
https://youtu.be/00D_hw9w9Ms

Ab Minute 4:00: Leider immer noch Color Fringing, wohl aber etwas besser

"Markedly" heißt "deutlich" und nicht nicht "etwas".

Loeschzwerg
2024-01-10, 08:28:20
Jetzt komm mir nicht mit Englisch, wenn er doch selbst sein "deutlich" in den nächsten Sätzen wieder relativiert, da es für ihn eben doch noch erkennbar ist. Das ist für mich dann eben nur etwas besser (und wer nutzt am Desktop bei dem Abstand schon Skalierung). Edit: Ändert natürlich nix daran dass die Monitore für Gamer richtig fette Geräte sind.

Gast
2024-01-10, 08:39:10
Ab Minute 4:00: Leider immer noch Color Fringing, wohl aber etwas besser

Jeder Monitor mit physisch getrennten Subpixeln hat Color Fringing.

Loeschzwerg
2024-01-10, 08:55:33
Ich weiß. Aus dem Kontext gerissen ist das von mir geschriebene natürlich falsch, da hast du recht.

Troyan
2024-01-10, 11:19:33
Der LG 27" 4K MiniLED mit ATW ist in Amerika für $799 erhältlich: https://www.lg.com/us/monitors/lg-27gr95um-gaming-monitor

Hoffe, der kommt auch nach Deutschland. Der Acer X32 hat auch eine ATW Folie und der IPS Glow ist deutlich minimiert.

Exxtreme
2024-01-10, 11:25:57
Unklar Angebe wegen G-Sync, vermutlich aber nur compatible, weil für den Price ged sich nen Nvidia Modul nicht aus. ^^

Was kostet dieses G-Sync-Modul eigentlich? Hab mal was von 500 USD gelesen. :freak:

Edit:
https://www.techpowerup.com/245463/nvidia-g-sync-hdr-module-adds-usd-500-to-monitor-pricing

:freak:

Platos
2024-01-10, 11:50:25
Samsung QD-OLED Gen 3:
https://youtu.be/00D_hw9w9Ms

Ab Minute 4:00: Leider immer noch Color Fringing, wohl aber etwas besser

Also doch. Dann muss wohl noch mehr her.

Vesser wirds nur, wenns in den Medien kritisiert wird. Also gut, dass es angesprochen wird.

dargo
2024-01-10, 13:37:24
Da kommt Einiges auf uns zu. :)

GJf6iBDIyOc

exzentrik
2024-01-10, 13:48:43
Drei neue ASUS-Monitore mit OLED (https://www.prad.de/asus-gaming-displays-mit-oled-mla-und-1300-nits/) (META, MLA, 3rd Gen), 1300 nits, FreeSync Premium Pro, DisplayHDR True Black 400, lüfterlosem Custom-Heatsink uvm. angekündigt.

basix
2024-01-10, 14:38:36
Da kommt Einiges auf uns zu. :)

https://youtu.be/GJf6iBDIyOc

Endlich ;)

Der_Korken
2024-01-10, 15:09:18
Ich hoffe, dass die große Auswahl auch dazu führt, dass sich die Hersteller beim Preis ordentlich Konkurrenz machen. Nachdem mir entweder das Upgrade nicht groß genug war oder irgendein Haken dran war, könnten die 4K-OLEDs in 32' die erste Generation sein, die mich restlos überzeugt.

dargo
2024-01-10, 15:55:00
Jo... die Dinger dürften bei genug Konkurrenz unter 1.000€ gehen wenn sie bei 1.200€ anfangen. Wobei ich dabei sagen muss, dass +/-200€ jetzt bei mir kein Kaufhindernis ist wenn ich es gleich haben will. So ein Monitor steht dann auch hier um die 8-10 Jahre wenn der nicht ausfällt. Ist also eine Investition für viele Jahre.

btw.
Mein Plasma GW20 im Wohnzimmer läuft in das 14-te Jahr rein. :freak: Und es werden sicherlich noch paar Jahre dazu kommen. Ok... der wird aber auch extrem wenig genutzt, ergo kaum Verschleiß.

basix
2024-01-10, 17:03:02
Ich hatte mir vor vielen Jahren schon gesagt: Der Monitor ist das "Tor zur Welt". Hier lohnt es sich, eine gute Qualität einem allzu günstigen Preis vorzuziehen. Der beste PC nützt nicht viel, wenn der Monitor nicht gut ist. Und wie du sagst, die Nutzungsdauer ist bei den meisten Monitoren eher lang, womit sich die Investition schon lohnt, auch wenn es beim Kauf etwas teurer sein sollte.

Ich hatte mir damals den allerersten G-Sync Monitor gekauft (ASUS ROG Swift PG278Q). Das war glaube ich 2013/2014. Den hatte ich bis Ende 2022. Klar, war ein TN-Panel. Sonst aber ziemlich gut. Eigentlich wollte ich auf 4K/32"/OLED warten bis zum Wechsel, doch die liessen ewig auf sich warten und ich wollte schon länger auf 4K/32" umsteigen. Naja, jetzt werde ich den Monitor nach nichtmal 2 Jahren wieder wechseln. Das wusste ich aber bereits, deswegen hatte ich bewusst nicht einen super-teuren Monitor gekauft (ergo HDR nicht wirklich gut). Mit OLED wird sich das jetzt aber ändern, tolles HDR, tolle Bewegtschärfe, tolle Blickwinkelstabilität :)

Tesseract
2024-01-10, 19:30:22
ich habe beim umstieg auf 4k bewusst einen monitor ausgesucht der sich gut als zweitmonitor eignet wenn die neuen OLEDs raus sind. :D

horn 12
2024-01-10, 19:52:17
Wann sollen denn die Dell Monitore kommen
Februar 2024

und kommt keine 3840 x 1600 zu 38 Zoll ?

@edit
Laut Dell Homepage in Kürze verfügbar
Wird wohl 2 bis 3 Wochen noch dauern.

Slipknot79
2024-01-11, 00:06:17
Ich hab auch mal wieder Sonderwünsche, die anscheinend erst nächstes Jahr Beachtung finden. Keine Ahnung ob ich mich solang gedulden kann, oder ob es wieder ein 16:9 wird.

OLED
5120 × 2160 (21:9)
Curved
>=38 Zoll
>120 Hz

nice to have: BFI



Da wird er bei mir auch steif. (y) Ist nur noch schwer zu sagen, ob nicht eine 5090 mit der Auflösung überfordert wäre in fordernden AAA-Games. Vermutlich schon.

Platos
2024-01-11, 00:27:26
nativ ohne DLSS sicherlich. Mit DLSS Q wirds auch sehr knapp, würde ich mal sagen. Also vorausgesetzt man will die 120Hz.

Ich denke man wird dann oft bei 60-90FPS sein mit RT und gedöns. Aber wer Regler bedienen kann, wird sicher mit 120FPS (mit DLSS Q) spielen können. Die Frage ist natürlich, wie lange :freak:

Aber das ist ja immer die Frage...

Slipknot79
2024-01-11, 00:30:07
Up 90fps sind schon ok.
Es wird ja gesagt, dass in 4k DLSS-P nicht so schlecht aussehen soll?
Eventuell ged in 5k dann eben DLSS-B auf 90fps? Noch 2 Jahre warten bis es Antworten gibt, zwar kommt die 5090 früher, aber der 5k-Monitor dann erst Ende 2025? :mad:

Platos
2024-01-11, 00:43:52
Up 90fps sind schon ok.
Es wird ja gesagt, dass in 4k DLSS-P nicht so schlecht aussehen soll?
Eventuell ged in 5k dann eben DLSS-B auf 90fps? Noch 2 Jahre warten bis es Antworten gibt, zwar kommt die 5090 früher, aber der 5k-Monitor dann erst Ende 2025? :mad:

Muss dich enttäuschen. 4k mit DLSS-P oder Q ist ein riesen Unterschied für Leute, die etwas Wert auf hohe Auflösung legen (und ich habe noch nen 27" Monitor, also höhere Pixeldichte wie 32" oder 40" 21:9 Monitore).


Wer eigentlich sowieso schon mit 1440p fast schon zufrieden ist, für den könnte DLSS-Perfomance natürlich was taugen in 4k. Für mich nicht. Insbesondere dann, wenn es sich um Monitore mit mehr wie 27" bzw. 34" (bei 21:9) handelt.
Also Leute, die z.B von 27" auf 32" wollen (analog von 34" auf 40" bei 21:9), dann ihnen aber 1440p zu wenig ist. Für die wäre dann 4k + DLSS Perfomance vlt. grad das Richtige.

DLSS Balanced war irgendwie für mich noch nie lohnenswert. Weder so gut wie Quality, noch so viel Perfomance wie DLSS Perfomance. Naja, jeder wie er will ^^

Slipknot79
2024-01-11, 01:29:10
Balanced habe ich in 1440p auch nie an. D8e nur, wegen der höheren dpi in 4k wäre balanced weniger problematisch.

robbitop
2024-01-11, 07:44:02
Nicht nur die dpi sondern auch input und outputresolution sind mit 4K deutlich höher als 1440p. Insofern geht BQ normiert auch ein schnelleres Preset.

Cubitus
2024-01-11, 08:21:44
Balanced ist gar kein Problem mit 4K als Grundauflösung, das sieht gut genug aus :)
Bei den neusten Spielen werdet ihr auch nicht um DLSS in 4K herumkommen, auch nicht mit einer 4090.

Wenn OLED dann nur LG, Samsung traue ich da nicht wirklich.
Interessant ist das Sony z.b auf Mini-LED setzen will zukünftig weil höhere Helligkeitswerte erreicht werden, sehe ich ja jetzt schon bei meinem Samsung der kann bis zu 1070 nits..

ChaosTM
2024-01-11, 08:53:33
Spiele wie Cyberpunk mit Path Tracing oder Avatar im Unobtanium Mode zeigen der 4090er ganz klar ihr Grenzen beim reinen Rasterisieren auf. Das sind Diashows ohne Upscaling und FG.

Das Helligkeitsrennen versteh ich aber nicht ganz*. Schon jetzt brennt mir HDR bei manchen Spielen und Filmen die Auge fast raus, so dass ich die generelle Helligkeit stark runter regeln muss. (OLEDs mit Evo Panels)
In lichtdurchfluteten Räumen ohne Lichtkontrolle kann man aber nicht genug Nits haben, das stimmt schon. Die nächste LG OLED Generation wird da einen großen Schritt machen, wenn auch auf Kosten des Blickwinkels durch die Mikrolinsen.

Mini Leds sind eine gute Alternative wenn man die Helligkeit braucht/will.
Micro LED wird noch etwas brauchen bis es bezahlbar wird. Der 110 Incher von Samsung kostet immer noch schlappe 150k. :eek:

*ich verstehe es grundsätzlich schon, aber bevorzuge Filme und Spiele eher in dunklerer Umgebung. Unter Tags Fernsehen passiert sehr selten.
Und für normale Desktop Arbeit (~150 Nits) reicht die derzeitige Helligkeit locker.

Nightspider
2024-01-11, 09:09:37
Jetzt komm mir nicht mit Englisch, wenn er doch selbst sein "deutlich" in den nächsten Sätzen wieder relativiert, da es für ihn eben doch noch erkennbar ist. Das ist für mich dann eben nur etwas besser (und wer nutzt am Desktop bei dem Abstand schon Skalierung). Edit: Ändert natürlich nix daran dass die Monitore für Gamer richtig fette Geräte sind.

Vielleicht solltest du ihn dann besser zitieren anstatt deinen eigenen Senf als die Einschätzung des Testers auszugeben.

Wenn man mit der Kamera nah genug herangeht sieht man auch auf einem IPS LCD Color Fringing.

Drei neue ASUS-Monitore mit OLED (https://www.prad.de/asus-gaming-displays-mit-oled-mla-und-1300-nits/) (META, MLA, 3rd Gen), 1300 nits, FreeSync Premium Pro, DisplayHDR True Black 400, lüfterlosem Custom-Heatsink uvm. angekündigt.

Also das hatten wir vor 2 Seiten schon mal und scheint teilweise falsch zu sein, weil der PG32UCDM laut anderen Quellen ein Quantum Dot OLED Panel der 2. Generation besitzt und daher auch nicht LGs Techniken wie META oder MLA.

exzentrik
2024-01-11, 12:29:34
Gigabyte bringt neue QD-OLED-Monitore (https://www.prad.de/gigabyte-qd-oled-monitor-mit-displayport-2-1/), darunter den FO32U2P mit DisplayPort 2.1, 4K240, DisplayHDR True Black 400 und ClearMR 13K.


Also das hatten wir vor 2 Seiten schon mal und scheint teilweise falsch zu sein, weil der PG32UCDM laut anderen Quellen ein Quantum Dot OLED Panel der 2. Generation besitzt und daher auch nicht LGs Techniken wie META oder MLA.

Um den PG32UCDM geht's in der Meldung nicht. Der war zuvor nur versehentlich anstelle des PG32UCDP in der Einleitung genannt worden. Die dort genannten drei Displays setzen jedenfalls alle auf OLED-MLA. Guckst du hier (https://rog.asus.com/articles/gaming-monitors/rog-swift-oled-pg39wcdm-pg32ucdp-pg27aqdp/) oder hier (https://asus-press.de/asus-und-republic-of-gamers-stellen-auf-der-ces-2024-ihr-innovatives-monitor-lineup-vor/). :smile:

Exxtreme
2024-01-11, 13:03:42
Ich hoffe, dass die große Auswahl auch dazu führt, dass sich die Hersteller beim Preis ordentlich Konkurrenz machen.

Kommt drauf an wieviele Panelhersteller es geben wird. Gibt es nur 2 oder 3 dann wird sich nicht so viel tun.

Loeschzwerg
2024-01-11, 13:23:33
Wenn man mit der Kamera nah genug herangeht sieht man auch auf einem IPS LCD Color Fringing.


Das stimmt zwar, verdreht das Problem aber komplett. MS müsste einfach endlich Anpassungen für die GUI bieten, dann wäre es nicht mehr bemerkbar. Aber so sieht man die Fransen leider bei einem normalen Sitzabstand. Erschlagen könnte man es nur mit mehr PPI.

Ob es effektiv als störend empfunden wird, das muss jeder selbst entscheiden. Zumindest beim LG 27" kann ich sagen dass das Forum z.B. echt beschissen aussieht, die Schrift ist zermatscht. Und solche Probleme wird es mehr oder weniger auch mit den neuen Samsung Monitoren geben und dessen sollte man sich als geneigter Käufer bewusst sein.

Gast
2024-01-11, 20:22:11
Das stimmt zwar, verdreht das Problem aber komplett. MS müsste einfach endlich Anpassungen für die GUI bieten, dann wäre es nicht mehr bemerkbar.

Die Anpassung gibt es und ist eine einfache Checkbox in den Einstellungen die man abhaken muss.

ChaosTM
2024-01-11, 21:05:21
Gigabyte: QD-OLED-Monitor mit DisplayPort 2.1 (https://www.prad.de/gigabyte-qd-oled-monitor-mit-displayport-2-1/)

Nettes Teil dass wohl nicht ganz billig sein wird.
Wäre ich nicht bestens mit Monitoren versorgt würde ich mich jetzt ärgern keine DP 2.1 Grafikkarte zu haben.
Dass NV da bei der 4000er Serie gespart hat wird vielen angesichts solcher Monitore sauer aufstoßen..

Sardaukar.nsn
2024-01-11, 21:30:29
Gigabyte: QD-OLED-Monitor mit DisplayPort 2.1 (https://www.prad.de/gigabyte-qd-oled-monitor-mit-displayport-2-1/)

Nettes Teil dass wohl nicht ganz billig sein wird.
Wäre ich nicht bestens mit Monitoren versorgt würde ich mich jetzt ärgern keine DP 2.1 Grafikkarte zu haben.
Dass NV da bei der 4000er Serie gespart hat wird vielen angesichts solcher Monitore sauer aufstoßen..

Die Lovelace karten haben doch alle Hdmi 2.1 und können hier z.B. einen 4k 120hz LG OLED über G-Sync bzw. VRR bedienen. Das muss man aber auch erstmal voll ausreizen können.

ChaosTM
2024-01-11, 21:43:02
HDMI 2.1 ist schon sein Jahren der absolute Mindeststandart. Das ist kein Argument.
AMD hats ja auch geschafft DP 2.1 zu verbauen bei der 7000er Serie.
Es geht auch um 4K 240. Das geht zwar zur Not noch, aber nur mit 8bit und DCS.

NV tut/bietet immer nur das absolut nötigste, um möglichst bald wieder abcashen zu können. Siehe auch Speicherbelegung..
Marktwirtschaftlich ist das natürlich sinnvoll.

Jetzt warte ich mit einem frischen Kaffee auf den Shitstorm der Fan-Jünger.

robbitop
2024-01-11, 21:53:23
Es geht auch um 4K 240. Das geht zwar zur Not noch, aber nur mit 8bit und DCS.


Mit HBR3 aus DP1.4 sind 4K 240 Hz und 10 bit (hdr) möglich mittels DSC.
https://en.m.wikipedia.org/wiki/DisplayPort

Letzte Tabelle im Abschnitt „resolution and refresh frequency limits“

Da DSC visually lossless ist, ist das in dem Fall kein echter Nachteil sondern eher ein rein theoretischer.
Wo man dann DP2.1 braucht ist zB bei 5120x2160 bei 240 Hz was für 2025 entsprechende OLED 21:9 Panels geben soll.

ChaosTM
2024-01-11, 22:11:56
Wieder was gelernt.
Die 4k240 mit nur 8bit stammen aus 2 reddit posts. Hätte ich genauer überprüfen sollen.

Ändert aber nichts daran, dass NV in ihren neuesten, nicht gerade günstigen Karten nicht die neueste Technologie verbaut hat. E gibt Leute die solche Karten ein paar Jahre verwenden werden und dann kann es doch eng werden.

Hübie
2024-01-12, 06:57:53
Na ja, aber Jensen braucht regelmäßigen Cashflow für Lederjacken. :D SCNR
Ich muss mich zusammen reißen um nicht jetzt noch einen UWQHD mit OLED zu kaufen. Wollte eigentlich auf die 5k Displays und RDNA4 warten...

Sardaukar.nsn
2024-01-12, 07:31:18
Darf ja jeder selbst entscheiden was er kauft. Ich kann nur berichten das 4k/120hz inkl. HDR und VRR (bzw. hier G-Sync) über HDMI 2.1 sowohl am LG C9 im Wohnzimmer also auch am C2 hier im Büro völlig problemlos läuft. Für mich ist das aktuell eine sehr gute Schnittstelle.
Natürlich wird die Reise weitergehen und die Übertragungsraten werden steigen. Für 4k/240hz oder 8k/120hz braucht es aber auch noch mal ganz andere Kaliber auf der GPU Seite.

Hübie
2024-01-12, 08:43:38
Na ja ich hab aktuell VA mit HDR und UWQHD. Das wäre eher ein sidegrade für mich. Höhere Auflösung geht wegen der RX 6800XT nicht. Für eine 7900XTX fehlt mir der finanzielle Anreiz und ich denke die wäre für 5k UWQHD ebenfalls nicht geeignet. Also heißt es abwarten... :redface:

The_Invisible
2024-01-12, 08:47:52
Wo man dann DP2.1 braucht ist zB bei 5120x2160 bei 240 Hz was für 2025 entsprechende OLED 21:9 Panels geben soll.

Bis dorthin gibts eh schon RTX 5000 :D

@Hübie
Die Spieleanforderungen bleiben aber nicht stehen, man sollte sich langsam mit Upscaling abfinden, dann sind auch 5120x2160 kein Problem

PHuV
2024-01-12, 09:03:01
Immerhin kommt langsam endlich DP 2.1 in Fahrt:
https://www.computerbase.de/2024-01/neue-oled-monitore-gigabyte-unterstuetzt-erstmals-displayport-2-1-uhbr20/

Genau wie ich es prognostizierte, DP 2.1 wird erst ab 2024/25 relevant, und bis dato haben dann die Nvidia RTX 50x0 auch DP 2.1.

dargo
2024-01-12, 09:03:30
Hatten wir den schon?

oFC3v1BwQRs

4k @240Hz oder 1080p @480Hz. Wobei ich jetzt keine Ahnung habe wofür man das braucht. Spielt tatsächlich jemand mit 1080p wenn der Bildschirm 4k hat? Da müsste der Scaler schon extrem gute Ergebnisse liefern.

Loeschzwerg
2024-01-12, 09:19:25
Die Anpassung gibt es und ist eine einfache Checkbox in den Einstellungen die man abhaken muss.

Falls du Clear-Type meinst: Off sieht auf andere Art beschissen aus.
Falls du etwas anderes gemeint hast, bitte mehr Input, Lösungsvorschläge nehme ich dankend an :)

---

Mir ist jetzt auch des Öfteren das OLED-spezifische VRR Flackern untergekommen. Auch das kann man zwar "glätten" indem man Frame-Limits setzt und generell schaut dass die Frametimes nicht zu stark variieren, aber das kann schon ein wenig nervig sein.

dargo
2024-01-12, 09:27:01
Mir ist jetzt auch des Öfteren das OLED-spezifische VRR Flackern untergekommen. Auch das kann man zwar "glätten" indem man Frame-Limits setzt und generell schaut dass die Frametimes nicht zu stark variieren, aber das kann schon ein wenig nervig sein.
Boah nee oder? Flackert ein OLED wirklich bei VRR? Das würde bedeuten, dass ein OLED bei mir wieder völlig unbrauchbar wäre. :freak: Aber warum habe ich davon bei diversen Reviews noch nichts gehört?

ChaosTM
2024-01-12, 09:50:12
Bis dorthin gibts eh schon RTX 5000 :D

@Hübie
Die Spieleanforderungen bleiben aber nicht stehen, man sollte sich langsam mit Upscaling abfinden, dann sind auch 5120x2160 kein Problem


"AI upscaling is the new nativ." Bryan Catanzaro (Nvidia) @ Digital Foundry Roundtable (https://www.youtube.com/watch?v=Qv9SLtojkTU&t=1s)
Nach ausgiebigen "Tests" speziell mit Cyberpunk muss man ihm recht geben. Die Chip Entwicklung verlangsamt sich immer mehr, aber im Software Bereich ist noch viel Luft nach oben für Verbesserungen/Beschleunigungen.

5k2k oder 8k sind so theoretisch auch gut spielbar. Ersteres finde ich aber deutlich interessanter.


Boah nee oder? Flackert ein OLED wirklich bei VRR? Das würde bedeuten, dass ein OLED bei mir wieder völlig unbrauchbar wäre. Aber warum habe ich davon bei diversen Reviews noch nichts gehört?

Es kommt gelegentlich vor, das es in Menüs leicht flackert, ja. Aber niemals im Spiel selbst !
Sehe ich persönlich aber nur im Star Citizen und RDR2 Menü.

add.: Limitieren der Maximalen Bildrate reduziert es, wie Loeschzwerg schon angemerkt hat, aber ein ganz leichter Helligkeitswechsel bleibt. Tritt aber nicht immer auf.
Die Diskussion hatten wir schon in einem anderen Thread.

gnomi
2024-01-12, 10:09:32
Bin ich mit PS5/Xbox Series X auf dem LG C1 77er im Spiel jetzt auch noch nicht hinter gekommen.
Auf dem alten 55er C7 laufen bei mir nur noch ältere max. 60fps Sachen.
Letztendlich finde ich einen gut programmierten 60fps Modus ohnehin noch völlig ausreichend.

Auf PC könnte ich wohl 2,3 Jahre noch mit 40-120fps auf UWQHD, 34 IPS plus GSync Modul spielen. Mir reicht auch DLSS ohne FG ehrlich gesagt.
Wieder auf 16:9 bin ich unschlüssig. Höhere Auflösung, bessere Bildqualität, etwas! größer plus einwandfreier Einsatz bei Tag sind Pflicht.

robbitop
2024-01-12, 10:23:50
Hatte das flicker auf meinem 55BX noch nie gesehen (4K120Hz VRR via HDMI 2.1). Ggf liegt das daran, dass ich die fps nach oben nie offen lasse. Entweder VSync ab 120 Hz oder Framelimiter.
Wozu soll man sich auch wieder tearing oberhalb der VRR range antun?

Cubitus
2024-01-12, 10:25:11
Meine Güte 480Hz, 240Hz warum nicht gleich 1000Hz. Das ist soo unnötig.

Die sollen einfach OLED Monitore rausbringen welche:


die neusten, zuverlässigsten Techniken gegen BurnIn beinhalten
Gsync oder Freesync kompatibel sind, also allg VRR unterstützen
4K mit einer Größe zwischen 27-32 Zoll 16:9
Die gängigsten HDR Standards beherreschen, HGIG, Dolby Vision, HDR10+ (damit einem das Reshade-Game erspart bleibt)
Eine ähnlich gute Farbraumabdeckung im HDR haben, wie auch im SDR
Eine Helligkeit zwischen 500-1000 Nits erreichen
Und mindestens 120 bis 144hz haben
Auf HDMI 2.1 und D.P 2.1 setzen damit unter 4K und HDR nichts komprimiert werden muss
Und zu guter letzt, Optimiert für Konsolen sind


Wäre das möglich bitte?

Tobalt
2024-01-12, 10:29:54
Tja so unterschiedlich sind Anforderungen. Mir wären mehr Hz (gern bei 1/4 Auflösung) wichtiger als noch esoterischer Burn-In Schutz.

Nicht alle von diesen frames müssen immer ais der Graka kommen.

Eine gute ZBB, die von 240 Hz auf 960 Hz interpoliert und maximal 4-5ms (1 frame) Latenz hat wäre full of win. Das wäre was wofür ich sogar aktive Kühlung akzeptieren würde 😀

Loeschzwerg
2024-01-12, 10:35:38
"
Es kommt gelegentlich vor, das es in Menüs leicht flackert, ja. Aber niemals im Spiel selbst !
Sehe ich persönlich aber nur im Star Citizen und RDR2 Menü.

Das ist auch sehr vom Spiel und Grafikkarte+Treiber abhängig. Ich hatte es gelegentlich in Atomic Heart und aktuell in Plague Tale Requiem, Ingame.

Sieht so aus wie hier gezeigt:
https://www.reddit.com/r/OLED_Gaming/comments/18gvsam/brand_new_lg_27gr95qe_is_this_extreme_amount_of/

Wäre zumindest interessant zu wissen ob Samsung an der Stelle auch etwas gedreht hat.

Der_Korken
2024-01-12, 10:52:05
Wodurch wird das Flackern verursacht? OLED ist doch genauso ein Holy-Type wie normale LCDs, die nicht flackern. Mit BFI würde ich das Flackern im Zusammenspiel mit VRR noch verstehen aber komplett ohne alles? Wäre für mich auch ein krasser Abturner ...

Troyan
2024-01-12, 10:55:51
Schätze das liegt wie bei VA-Panels an der Ansteuerung der Pixel. Samsung VA-Monitore flimmern auch wie Hölle mit VRR.

Exxtreme
2024-01-12, 10:59:51
Es kommt gelegentlich vor, das es in Menüs leicht flackert, ja. Aber niemals im Spiel selbst !

Stell im Nvidia CP den Energieverwaltungsmodus auf "Maximale Leistung bevorzugen" und schau ob es immer noch flackert.

Slipknot79
2024-01-12, 11:00:42
Das ist auch sehr vom Spiel und Grafikkarte+Treiber abhängig. Ich hatte es gelegentlich in Atomic Heart und aktuell in Plague Tale Requiem, Ingame.

Sieht so aus wie hier gezeigt:
https://www.reddit.com/r/OLED_Gaming/comments/18gvsam/brand_new_lg_27gr95qe_is_this_extreme_amount_of/

Wäre zumindest interessant zu wissen ob Samsung an der Stelle auch etwas gedreht hat.


So extrem hatte ich das auch nie, aber habe das Spiel auch ned. Normalerweise kommt flackern ingame nicht vor. Nur Menü oder Ladescreens, wenn überhaupt.

Im Anhang nen flicker-test, zieht euch rein, vorallem mit OLED. (y)

Cubitus
2024-01-12, 11:07:12
Tja so unterschiedlich sind Anforderungen. Mir wären mehr Hz (gern bei 1/4 Auflösung) wichtiger als noch esoterischer Burn-In Schutz.

Nicht alle von diesen frames müssen immer ais der Graka kommen.

Eine gute ZBB, die von 240 Hz auf 960 Hz interpoliert und maximal 2-3ms Latenz hat wäre full of win.

Esoterischer BurnIn-Schutz, nach 2-3 Jahren, wenn die Garantie abgelaufen ist, will man sich ein neues Gerät kaufen :freak:

Samsung und Sony z.B. sind ziemlich unzuverlässig was Refresh-Programme angeht.
Zuerst muss das Ding seine Stabilität beweisen, dann muss es ein super hochwertiges Bild können, sowohl in SDR als auch in HDR. Es muss so gut sein, damit man sich im Desktop Betrieb keine Sorgen machen muss.

Dann muss es schnell sein (120 bis 144Hz sind für 99 Prozent schnell genug) und OLEDs haben von Haus aus schon eine sehr gute Schaltzeit oder Latenz.
Aber sind wir mal ehrlich 240Hz/960Hz wenn du keine guten Reflexe mehr hast oder Skill weil alt, dann hilft auch diese kleine Dosis nichts, in meinen Augen ist das nur Augenwischerei um von anderen Dingen abzulenken.

Schätze das liegt wie bei VA-Panels an der Ansteuerung der Pixel. Samsung VA-Monitore flimmern auch wie Hölle mit VRR.

Das war mal so, deswegen hat Samsung eine VRR-Control eingebaut, was natürlich langsamer ist, Samsung wurde sogar in den USA dafür verklagt das ihre Monitore mit VRR flimmern xD
Hab die VRR Control bei meinem Neo deaktviert und es flimmert nichts, Samsung hat seine Hausaufgaben schon gemacht.

Gast
2024-01-12, 11:14:13
Meine Güte 480Hz, 240Hz warum nicht gleich 1000Hz. Das ist soo unnötig.


Wenn wir mal tatsächlich 1000Hz haben, könnte eine weitere Erhöhung wirklich unnötig sein.

480Hz sind es definitiv nicht.

Gast
2024-01-12, 11:15:56
Wäre zumindest interessant zu wissen ob Samsung an der Stelle auch etwas gedreht hat.

Bei Samsung gibt es eine Einstellung die das (zu leichten Latenzkosten) verhindert.

Troyan
2024-01-12, 11:17:38
Hatte jeweils den G8 und G9 hier. Beide haben massiv geflimmert. Und die VRR-Control beim G8 war eine reine Verarsche, das hat gestottert wie nichts.

redpanther
2024-01-12, 11:19:55
Das ist auch sehr vom Spiel und Grafikkarte+Treiber abhängig. Ich hatte es gelegentlich in Atomic Heart und aktuell in Plague Tale Requiem, Ingame.

Sieht so aus wie hier gezeigt:
https://www.reddit.com/r/OLED_Gaming/comments/18gvsam/brand_new_lg_27gr95qe_is_this_extreme_amount_of/

Wäre zumindest interessant zu wissen ob Samsung an der Stelle auch etwas gedreht hat.

Sowas habe ich auch noch nicht gesehen???
Hab aber auch ein fps limit bei 223. (240hz Moni)

Das muss doch irgend ein Bug sein ? In dem Vid tritt es nur auf wenn er die Maus bewegt, kann doch dann nicht nur am VRR alleine liegen.

Meiner Erfahrung nach mit einem VA LCD flimmert es bei NVIDIA mit VRR öfter dann, wenn man das GSYNV Fullscreen+Window aktiviert.
Stellt man es auf nur auf Fullscreen, habe ich das Problem nicht.
Sollte man ein Spiel im Fenster Spielen, kann man das ja dann immer noch im Spiele Profil anpassen.

Xaver Koch
2024-01-12, 11:20:51
Kann mir jemand erklären, warum OLED PC-Monitore Schriten/Text so schlecht (ausgefranzt und unscharf) darstellen, aber OLED TVs diesbezüglich im Vergleich zu LCD TVs kaum negativ auffallen? Liegt es an der UHD Auflösung der TVs oder ist die Technik bei TVs anders?

Tobalt
2024-01-12, 11:27:30
cubitus: Burn-In Schutz ist gut. aber an meinen OLED Geräten die ich deutlich über 3 Jahre nutze ist keinerlei spur von Burn-In.

Deshalb reicht mir das aktuelle Level an Burn-In Schutz.

Das aktuelle Level an refresh rates reicht mir hingegen nicht.

Cubitus
2024-01-12, 11:57:06
Hatte jeweils den G8 und G9 hier. Beide haben massiv geflimmert. Und die VRR-Control beim G8 war eine reine Verarsche, das hat gestottert wie nichts.

Waren das die non neo?
Wie gesagt nutze hier ebenfalls Gsync über Display-Port oder HDMI mit VRR-Control off und hier flimmert überhaupt nichts. Bei 165Hz :confused:

Bessere Monitore?
cubitus: Burn-In Schutz ist gut. aber an meinen OLED Geräten die ich deutlich über 3 Jahre nutze ist keinerlei spur von Burn-In.
Deshalb reicht mir das aktuelle Level an Burn-In Schutz.
Das aktuelle Level an refresh rates reicht mir hingegen nicht.

Arbeitest du mit den OLEDs viel im Desktop?

Ja gut von mir aus, lass es 200Hz sein, aber halte an mehr iwie schon übertrieben, ich glaube nicht daran das viele Menschen das überhaupt ordentlich in ihrem Hirn soweit verarbeiten können, dass dies einen Unterschied macht.. Aber oky jedem das seine.

Kann mir jemand erklären, warum OLED PC-Monitore Schriten/Text so schlecht (ausgefranzt und unscharf) darstellen, aber OLED TVs diesbezüglich im Vergleich zu LCD TVs kaum negativ auffallen? Liegt es an der UHD Auflösung der TVs oder ist die Technik bei TVs anders?

Das liegt an der Subpixel-Anordnung, bei den klassischen LCDs gibt es die RGB-Anordnung, Dort hat jeder 3 Pixel, 3 Subpixel, eben Rot, Grün und Blau schön in Reihe angeordnet.
Bei OLED gibt es das Pentile Layout, da hast du zum Beispiel bei einem Pixel nur ein grünes und ein rotes Subpixel, bei dem anderen Pixel hast du ein blaues und ein grünes Subpixel, also die Abgrenzung zwischen den Subpixeln ist unschärfer.

Das liegt daran, dass Farben in organischen Displays eine unterschiedliche Lebensdauer haben. Blaue OLEDs degradieren schneller als rote oder grüne. Durch die Verwendung eines Pentile-Layouts, das die Anzahl der blauen Subpixel reduziert (z. B. durch die Verwendung von mehr grünen Subpixeln), kann die Gesamtlebensdauer des Displays verlängert und die Anzahl der blauen Subpixel verringert werden.

Es ist auch eine Frage der Energie:
Blaue OLED-Subpixel benötigen mehr Energie, um die gleiche Helligkeit zu erzeugen wie rote oder grüne.
Durch die Verringerung der Anzahl blauer Subpixel in einem Pentile-Layout wird die Energieeffizienz des gesamten Displays verbessert.

Bei OLED-TVs hast du eigl immer 4K, und bei 42 Zoll wie beim C2 oder C3 zum Beispiel ist die Pixeldichte auch nicht so schlecht,
da kann man die Schrift schon weniger ausgefranst wahrnehmen, außerdem sitzt man meist etwas weiter weg.

Wenn du aber genauer hinschaust, wirst du auch bei nem OLED-TV ne ausgefranste Schrift wahrnehmen können.
Dies ist einfach noch technisch bedingt.

Außerdem arbeiten die Hersteller ja ständig an Verbesserungen.

Tobalt
2024-01-12, 12:01:03
Weder gibts aktuell Pentile bei OLED, noch RGB OLED mit unterschiedlicher Subpixel Lebensdauer. Das sind Techniken aus dem tiefsten letzten Jahrzehnt :freak:

Troyan
2024-01-12, 12:11:41
Waren das die non neo?
Wie gesagt nutze hier ebenfalls Gsync über Display-Port oder HDMI mit VRR-Control off und hier flimmert überhaupt nichts. Bei 165Hz :confused:


Es waren die beiden Neo Monitore.

Sonyfreak
2024-01-12, 12:30:26
Balanced habe ich in 1440p auch nie an. D8e nur, wegen der höheren dpi in 4k wäre balanced weniger problematisch.Bei einer 4K-Auflösung hast du bei DLSS Balanced (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-Benchmarks-Test-Vergleich-mit-anderen-Upscaling-Verfahren-1385215/2/) noch eine effektive Auflösung von 2.227 × 1.252 und bist daher unter 1440p nativ.

mfg.

Sonyfreak

Loeschzwerg
2024-01-12, 12:34:29
Wodurch wird das Flackern verursacht? OLED ist doch genauso ein Holy-Type wie normale LCDs, die nicht flackern.

Ja, es ist LTT, aber er erklärt das Problem:
nywTR_83ZWs
Ab 3:29

Im Anhang nen flicker-test, zieht euch rein, vorallem mit OLED. (y)

Thx, schaue ich mir mal an :)


Sowas habe ich auch noch nicht gesehen???
Hab aber auch ein fps limit bei 223. (240hz Moni)

Das muss doch irgend ein Bug sein ? In dem Vid tritt es nur auf wenn er die Maus bewegt, kann doch dann nicht nur am VRR alleine liegen.


Kann in diesem Fall gut ein Bug vom Spiel bzw. dem Grafiktreiber sein. Vermutlich beeinflusst die Mausbewegung enorm stark die Frametimes.

Ich nutze ja ne Arc A770 und ich will nicht ausschließen dass es hier auch noch Ungereimtheiten bezüglich Treiber gibt. Ich muss mal noch etwas mit dem RTSS bzw. FPS Limit herumspielen.

dargo
2024-01-12, 12:52:11
Sieht so aus wie hier gezeigt:
https://www.reddit.com/r/OLED_Gaming/comments/18gvsam/brand_new_lg_27gr95qe_is_this_extreme_amount_of/

Das wäre die absolute Katastrophe. :eek: Wie kann man so einen Schrott produzieren? :freak: Ich hoffe das ist nur irgendein Treiberbug.

So extrem hatte ich das auch nie, aber habe das Spiel auch ned. Normalerweise kommt flackern ingame nicht vor. Nur Menü oder Ladescreens, wenn überhaupt.

Auch in Menüs oder Ladescreens hat nichts zu flackern verdammt noch mal. :mad: Was kauft ihr euch für einen Schrott bitte?


Im Anhang nen flicker-test, zieht euch rein, vorallem mit OLED. (y)
Also am LCD mit IPS flackert hier gar nichts in diesem Test. Allerdings kann ich jetzt nicht wirklich einschätzen ob dieser Test was taugt da sich die Framerate nur zwischen ca. 55 und 62fps bewegt.

Cubitus
2024-01-12, 13:42:12
Weder gibts aktuell Pentile bei OLED, noch RGB OLED mit unterschiedlicher Subpixel Lebensdauer. Das sind Techniken aus dem tiefsten letzten Jahrzehnt :freak:

Nö es gibt weiterentwicklungen, im Kern bleibt es aber dieselbe Problematik, das SubPixel anderst angeordnet werden und zwar so das windows damit Probleme bekommt, da es nicht das klassische RGB Muster aufweist.

Obs jetzt Diamond-Pixel oder sonst noch heißt.

Hier überigends ein OLED mit RGB-Muster:
klick (https://www.amazon.de/LG-32UL950-FreeSync-Multitasking-Thunderbolt/dp/B07L18X2B3/ref=sr_1_2_mod_primary_new?ascsubtag=2-1-631720-1-0-0&dib=eyJ2IjoiMSJ9.gv29KrY4R-QDhmYgTkXd88VqJdYJQMcFCgrZafvE_0KDVVkvaAkAL5b1dY5LnVI5yJ5DSYHU8A7SXz_eXm_IPw.B6D m24lzhRKUp5Wb0NydqFC6DjTVS1QEC_L-FF6iTPM&dib_tag=se&geniuslink=true&keywords=lg+32ep950+b+32+ultrafine+uhd+oled+pro+display+with+adobe+rbg+99+dci+p3 +99+vesa+display+hdr+400+true+black+1m+1+contrast+ratio+and+tilt+height+pivot+ad justable+stand+black&qid=1705062999&sbo=RZvfv%2F%2FHxDF%2BO5021pAnSA%3D%3D&sr=8-2)

Du sagst das Farben nun die identsischen Wert in der Lebensdauer bei OLED haben, Intressant klär uns bitte auf?

Tobalt
2024-01-12, 13:45:43
Pentile kam ja nicht wegen der seltsamen subpixel Struktur in Verruf, sondern weil nicht jedes Pixel alle 3 Subpixel hatte!

Moderne OLES haben immer alle 3 Subpixel, egal ob die nun streifig, dreieckig oder einhornförmig angeordnet sind. Damit ist es kein Pentile. (bin allerdings nach kurzem Nachlesen unschlüssig was nun genau die Definition von Pentile ist)

Und das mit der Lebensdauer wurde hier im Thema seit 2015 sicher 518 Mal diskutiert, das mach ich jetzt nicht nochmal. Informiere doch einfach zu WOLED und QDOLED, was die vorherrschenden aktuellen Techlevel sind.

Platos
2024-01-12, 13:49:03
Mit HBR3 aus DP1.4 sind 4K 240 Hz und 10 bit (hdr) möglich mittels DSC.
https://en.m.wikipedia.org/wiki/DisplayPort

Letzte Tabelle im Abschnitt „resolution and refresh frequency limits“

Da DSC visually lossless ist, ist das in dem Fall kein echter Nachteil sondern eher ein rein theoretischer.
Wo man dann DP2.1 braucht ist zB bei 5120x2160 bei 240 Hz was für 2025 entsprechende OLED 21:9 Panels geben soll.

Ist das Problem DSC= no DSR oder DLDSR (bzw. kein Gsync + DSR) denn gelöst?

Tobalt
2024-01-12, 13:51:58
Platos dazu kann ich nichts sagen, aber welchen Sinn haben denn diese DSR etc Techniken, wenn es auch schon Temporal AA mit übernativer Auflösung gibt (zB DLAA). Letzteres sollte immer besser aussehen und schneller sein und hat den normal großen Framebuffer.

Platos
2024-01-12, 13:57:25
Platos dazu kann ich nichts sagen, aber welchen Sinn haben denn diese DSR etc Techniken, wenn es auch schon Temporal AA mit übernativer Auflösung gibt (zB DLAA). Letzteres sollte immer besser aussehen und schneller sein und hat den normal großen Framebuffer.

Weil DLAA nur in DLSS Spielen läuft und DSR und DLDSR überall. Ich will keinen eigenen Monitor kaufen, wenn ich mal ein Spiel, dass kein DLSS hat mit DSR spielen will (z.B bei älteren Spielen, wo ich mehr als genug Perfomance habe).

Solange solche grundlegenden Dinge nicht funktionieren, ist DSC ein No-Go für mich.

Genau so wie dieses OLED flackern bei VRR (habe ich jetzt grad zum ersten Mal gehört).

Das wäre die absolute Katastrophe. :eek: Wie kann man so einen Schrott produzieren? :freak: Ich hoffe das ist nur irgendein Treiberbug.


Auch in Menüs oder Ladescreens hat nichts zu flackern verdammt noch mal. :mad: Was kauft ihr euch für einen Schrott bitte?


Ja echt mal. Sowas geht gar nicht. An was liegt das, hat hier jemand mehr Infos zur Hand ?

Ist das Monitorspezifisch oder ein grundsätzliches OLED problem? An was liegt das?

Tobalt
2024-01-12, 13:59:01
Ok und über Treiber Supersampling forcieren? Gibts das nicht mehr?

Flackern bei VRR ist doch kein OLED Problem... Das gab es bei LCD auch schon immer

Platos
2024-01-12, 14:05:33
Ok und über Treiber Supersampling forcieren? Gibts das nicht mehr?

Flackern bei VRR ist doch kein OLED Problem... Das gab es bei LCD auch schon immer

Wie genau sich der Fehler zeigt, habe ich jetzt grad nicht im Kopf, aber DSR ist ja eben genau das, was man im Treiber einstellt. Und dann die Auflösung im Spiel.

Oder meinst du etwa, das ich mittels DSR die Desktopauflösung umstellen soll? Das geht ja mal gar nicht. Schnell ein Spiel spielen und dann muss ich die ganze Desktopanordnung zerschiessen, in den Treiber jedes mal gehen, um die Auflösung zu ändern und dann alles wieder Rückgängig machen nach dem Spielen.

redpanther
2024-01-12, 14:06:41
Ok und über Treiber Supersampling forcieren? Gibts das nicht mehr?
Nein, das ist ja das "Problem". NVIDA sagt, mit DSC geht DSR nicht. Du kannst nicht mal mehr custom resolutions erstellen.

Supersampling per Treiber forcieren ging doch eh nur bis DX9, oder irre ich mich?


Wie schaut das eigentlich bei AMD aus? Die haben doch VSR was auch ein DSR ist, oder? Geht das zusammen mit DSC?




Flackern bei VRR ist doch kein OLED Problem... Das gab es bei LCD auch schon immerDas ist Korrekt. Ist KEIN OLED Problem, sondern eher ein VRR problem und wie die Monitor Elektronik es verarbeitet.

Tobalt
2024-01-12, 14:10:01
Das Problem ist IMO eher, dass der DSC Algo halt nur für bestimmte Größen von Framebuffer definiert ist.

Wenn du mit DSR auf irgendeine komische krumme Auflösung kommst und die dann erst an irgendeiner dubiosen Stelle auf die Zielauflösung skaliert wird, dann ist dies mit dem DSC workflow mglw. nicht kompatibel.

Wenn du andere Supersampling Techniken nutzt die einen Framebuffer in der korrekten Größe erzeugen, sollte DSC auch klappen; soweit meine Schätzung.

Dass es Supersampling nicht immer/mehr gibt, ist schade. Hab sowas ewig nicht benutzt. Zuletzt VSR bei Avorion. VRR ging dabei, DSC war allerdings irrelevant, also kann zu der Kombo aus VSR+VRR+DSC nichts sagen.

Gast
2024-01-12, 14:13:36
Genau so wie dieses OLED flackern bei VRR (habe ich jetzt grad zum ersten Mal gehört).




Interessant, zum ersten mal gehört, offenbar niemals live erlebt, aber es ist sofort ein NoGo.

Vor allem wird VRR spätestens bei 480Hz endgültig überflüssig.

Platos
2024-01-12, 14:13:40
Könnte sein, aber mich interessiert da eig. nur, dass es nicht geht. Ob das nun nvidias Schuld ist oder die von der DSC "technik", ist mir da eig. wurscht.

Ich will DSR zur Verfügung haben und wenn das nicht geht, fällt DSC eben raus für mich.

dargo
2024-01-12, 14:15:59
Flackern bei VRR ist doch kein OLED Problem... Das gab es bei LCD auch schon immer
Komisch, dass bei mir nichts flackert. :rolleyes:

The_Invisible
2024-01-12, 14:17:52
Ist das Problem DSC= no DSR oder DLDSR (bzw. kein Gsync + DSR) denn gelöst?

Also ich hab DSC über Displayport (2160p/144/HDR) und DSR/DLDSR geht ganz normal

redpanther
2024-01-12, 14:20:22
Komisch, dass bei mir nichts flackert. :rolleyes:

Jo, haben auch nicht ALLE monitore.
Und es flacker auch nicht immer und dauernd. Nur bei bestimmten Umständen.

Also ich hab DSC über Displayport (2160p/144/HDR) und DSR/DLDSR geht ganz normal

Das ist das Mysterium. NVIDIA sagt es geht nicht und es gibt genügend Monitore, wo es eben auch nicht geht.
Und dann gibts einige wie du die sagen, es geht auch mit DSC... Ich kapier das nicht.

Tobalt
2024-01-12, 14:20:31
Komisch, dass bei mir nichts flackert. :rolleyes:

Bei mir auch nicht. Aber es gab/gibt dieses VRR Geflacker bei manchen - unabhängig von OLED.

Platos
2024-01-12, 14:22:52
Also ich hab DSC über Displayport (2160p/144/HDR) und DSR/DLDSR geht ganz normal

Hast du es auch ingame ausprobiert und auch wirklich einen Unterschied feststellen können?

Wäre ja gut, wenn das nun endlich funktioniert.

dargo
2024-01-12, 14:41:03
Jo, haben auch nicht ALLE monitore.
Und es flacker auch nicht immer und dauernd. Nur bei bestimmten Umständen.

Ja ok. Mich wundert nur, dass offenbar manche User sowas akzeptieren. Kann ich nicht nachvollziehen, erst recht wenn man dann um die 1.200€ auf den Tisch legt. :freak:

The_Invisible
2024-01-12, 14:41:12
Ja klar funzt es, sieht man ja schon daran das Afterburner Overlay und Games die keine Skalierung haben mini werden, und fps gehen auch schön runter

ChaosTM
2024-01-12, 15:14:33
Ja ok. Mich wundert nur, dass offenbar manche User sowas akzeptieren. Kann ich nicht nachvollziehen, erst recht wenn man dann um die 1.200€ auf den Tisch legt. :freak:


Weil es nur selten und nur in Menüs Auftritt und die Vorteile die Nachteile, die ich mit VA/IPS immer habe, locker aufwiegt.

Ist es gelegentlich nervig? Natürlich, aber wenn man dann im Spiel ist vergisst man es sofort wieder.
Den perfekten Monitor gibt es leider noch nicht. Vielleicht mit MicroLED...

Tesseract
2024-01-12, 15:21:50
Das ist das Mysterium. NVIDIA sagt es geht nicht und es gibt genügend Monitore, wo es eben auch nicht geht.
Und dann gibts einige wie du die sagen, es geht auch mit DSC... Ich kapier das nicht.

geht bei mir auch ohne probleme auf 4k/144, egal ob mit oder ohne DL. vielleicht geht es ab einem bestimmten kompressionsratio nichtmehr? auf 4k/144 ist es ja nur 1:1,2.

The_Invisible
2024-01-12, 15:25:35
Eventuell die breiten Bildformate schuld?

ChaosTM
2024-01-12, 15:25:55
Daher schadet DP 2.1 sicher nicht. Aber derzeit sind 4k 240er noch nicht einmal auf dem Markt*.

Mal abwarten was die Praxis dann dazu sagt.

add.: *oder gibts schon welche?

Cubitus
2024-01-12, 15:34:52
Es waren die beiden Neo Monitore.

Krass wie gesagt hier flimmert nichts mit dem g7 neo, sowohl mit Gsync über DP als auch über HDMI oder über die PS5..

Eventuell war die FW auch alt :confused:

Tobalt
2024-01-12, 15:43:53
Für die Nutzer von DSR: was für Auflösung wählt ihr denn aus? Wenn man bei 4K dann ein 8K oder 5K auswählt, hat ja der Framebuffer eine von DSC unterstützte Größe.

Allerdings gibt es ja bei DSR/VSR auch "krumme" Auflösungen. Kann mir vorstellen dass in diesen (für DSC "unbekannten") Auflösungen dann kein DSC geht?!

Nightspider
2024-01-12, 15:49:37
Moderne OLES haben immer alle 3 Subpixel, egal ob die nun streifig, dreieckig oder einhornförmig angeordnet sind.

Und ich würde mal sagen, das du gerade totale Scheiße! behauptest. :D ;)

Ich würde sagen das die meisten Smartphones Pentile Displays haben und das deine Behauptung nicht mal auf die LG WOLED Fernseher und Monitore zutrifft, weil die 4 Subpixel haben.

Der_Korken
2024-01-12, 15:59:11
Bei OLED-Monitoren habe ich bisher nur RWBG gesehen (also vier Subpixel nebeneinander mit rot, weiß, blau, grün) oder RGB in Dreiecksform, d.h. rot unten links, grün oben mittig und blau unten links. Insofern haben Monitore schon "immer alle 3 Subpixel", der erstere nur eben noch einen vierten als zusätzlichen Helligkeitsboost.

vinacis_vivids
2024-01-12, 16:01:06
Mit DP 2.1:
Samsung Odyssey Neo G9 G95NC, 57"
7680x2160, 32:9, 140ppi
Bildwiederholfrequenz 240Hz

Derzeit wohl der beste Gaming-Monitor auf dem Markt. Leider mit >2K EUR auch recht teuer.

Ich suche noch Leute, die den Monitor sich geholt haben nach Erfahrungsberichten.

redpanther
2024-01-12, 16:07:15
Für die Nutzer von DSR: was für Auflösung wählt ihr denn aus? Wenn man bei 4K dann ein 8K oder 5K auswählt, hat ja der Framebuffer eine von DSC unterstützte Größe.

Allerdings gibt es ja bei DSR/VSR auch "krumme" Auflösungen. Kann mir vorstellen dass in diesen (für DSC "unbekannten") Auflösungen dann kein DSC geht?!


Nein, NVIDIA sagt, es geht grundsätzlich kein DSR wenn DSC genutzt wird:
"NVIDIA DSR, NVIDIA DLDSR und NVIDIA Image Scaling werden nicht unterstützt, wenn der DSC-Modus aktiviert ist."


https://support.nvidia.eu/hc/de/articles/5024944181650-Verwendung-von-Displays-mit-hoher-Aufl%C3%B6sung-Bildwiederholfrequenz-mit-VESA-Display-Stream-Compression-DSC-Unterst%C3%BCtzung-auf-NVIDIA-GeForce-GPUs


Warum es dann bei einigen trotzdem geht, ist die große Preisfrage.

redpanther
2024-01-12, 16:12:33
Mit DP 2.1:
Samsung Odyssey Neo G9 G95NC, 57"
7680x2160, 32:9, 140ppi
Bildwiederholfrequenz 240Hz

Derzeit wohl der beste Gaming-Monitor auf dem Markt. Leider mit >2K EUR auch recht teuer.

Ich suche noch Leute, die den Monitor sich geholt haben nach Erfahrungsberichten.


Da kein OLED, kann es nicht der beste sein! :biggrin:


Ausserdem, das sind dual 4k. Da muss auch eine 4090 schwitzen dies zu befeuern. (Die hat auch kein DP 2.1 :mad:)
Aber ja, ein Erfahrungsbericht hier wäre nett.

Loeschzwerg
2024-01-12, 16:22:35
So, bevor hier nochmals jemand behauptet das Flackern trete nur in Menüs auf...:
https://mega.nz/file/mQUU2QgT#u6yoq9KLhx9zAwHUpkIHCGvUS9LmP-9SF-_3dEXAFUA (2x kurze Videoaufnahmen)

Einmal Plague Tale Requiem Ingame, einmal das Steam Overlay in Windows. Quick&Dirty, daher etwas wackelig mit dem Smartphone (1080P60) :freak: Auf dem Smartphone bzw. den Videos sieht es noch etwas schlimmer aus als es ist, aber es ist schon deutlich sichtbar mit dem Auge.
Monitor 27GR95QE-B, aktuellste Firmware, VRR aktiv, 240Hz.

Der OpenGL VRR-Flicker-Test flackert ebenfalls fröhlich. Tja... mehr habe ich jetzt noch nicht probiert. Edit: Und nein, so war das mit dem EIZO FS2735 (WQHD, IPS, 144Hz, VRR) definitiv nicht.

Nightspider
2024-01-12, 16:24:08
Mit DP 2.1:
Samsung Odyssey Neo G9 G95NC, 57"
7680x2160, 32:9, 140ppi
Bildwiederholfrequenz 240Hz

Derzeit wohl der beste Gaming-Monitor auf dem Markt. Leider mit >2K EUR auch recht teuer.

Ich suche noch Leute, die den Monitor sich geholt haben nach Erfahrungsberichten.

Mit 57 Zoll wohl eher der schlechteste Monitor und mehr Fernseher. :D

Tobalt
2024-01-12, 16:24:42
Und ich würde mal sagen, das du gerade totale Scheiße! behauptest. :D ;)

Ich würde sagen das die meisten Smartphones Pentile Displays haben und das deine Behauptung nicht mal auf die LG WOLED Fernseher und Monitore zutrifft, weil die 4 Subpixel haben.

Smartphones hatte ich total ausgeblendet. Touche. Haben aber eh abartig hohe ppi. Da ist das Pentile verkraftbar.

Und WOLED hat ja trotzdem *alle* Subpixel pro Pixel, also alles fein. 👍

Loeschzwerg
2024-01-12, 16:26:54
Haben aber eh abartig hohe ppi.

Jo, da ist absolut nix erkennbar mit bloßem Auge.

Nightspider
2024-01-12, 16:28:58
Die ganzen Apple und Samsung Smartphone OLEDs haben ja alle 2 grüne Subpixel.

Wird zwar offiziell nicht mehr Pentile genannt aber wie du schon sagtest, gibts dafür ja auch keine richtige Definition.

Bei etwas niedriger aufgelösten Smartphone OLEDs gibts von manchen Leuten auch Kritik, das Color Fringing sichtbart wäre, gerade wenn die Vorläufer noch LCD hatten und dann auf OLED umgestellt wurde. (Fairphone 5)

Am Ende hat die Anzahl der Subpixel auch keine so große Aussagekraft. Wichtiger ist die Pixelgröße/Pixeldichte.

Durch bessere Fertigungsverfahren werden die Subpixel eh mehr aneinanderrücken wodurch Color Fringing auch zurückgehen sollte und Subpixel werden auch kleiner werden in den nächsten Jahren.

redpanther
2024-01-12, 16:43:58
So, bevor hier nochmals jemand behauptet das Flackern trete nur in Menüs auf...:
https://mega.nz/file/mQUU2QgT#u6yoq9KLhx9zAwHUpkIHCGvUS9LmP-9SF-_3dEXAFUA (2x kurze Videoaufnahmen)

Einmal Plague Tale Requiem Ingame, einmal das Steam Overlay in Windows. Quick&Dirty, daher etwas wackelig mit dem Smartphone (1080P60) :freak: Auf dem Smartphone bzw. den Videos sieht es noch etwas schlimmer aus als es ist, aber es ist schon deutlich sichtbar mit dem Auge.
Monitor 27GR95QE-B, aktuellste Firmware, VRR aktiv, 240Hz.

Der OpenGL VRR-Flicker-Test flackert ebenfalls fröhlich. Tja... mehr habe ich jetzt noch nicht probiert. Edit: Und nein, so war das mit dem EIZO FS2735 (WQHD, IPS, 144Hz, VRR) definitiv nicht.


Vielleicht hat der LG einfach einen Schuss weg? Oder ist diesbezüglich einfach schlecht.

Oder möchtest du damit sagen das IPS grundsätzlich nicht flimmern kann und OLED immer flimmert?

Ich persönlich glaube, das flimmern liegt mehr an der Elektronik der Monitore als an den Panelen und damit der Displaytechnik. Ist aber nur ein Bauchgefühl.

ChaosTM
2024-01-12, 16:47:22
So, bevor hier nochmals jemand behauptet das Flackern trete nur in Menüs auf...:
https://mega.nz/file/mQUU2QgT#u6yoq9KLhx9zAwHUpkIHCGvUS9LmP-9SF-_3dEXAFUA (2x kurze Videoaufnahmen)

Einmal Plague Tale Requiem Ingame, einmal das Steam Overlay in Windows. Quick&Dirty, daher etwas wackelig mit dem Smartphone (1080P60) :freak: Auf dem Smartphone bzw. den Videos sieht es noch etwas schlimmer aus als es ist, aber es ist schon deutlich sichtbar mit dem Auge.
Monitor 27GR95QE-B, aktuellste Firmware, VRR aktiv, 240Hz.

Der OpenGL VRR-Flicker-Test flackert ebenfalls fröhlich. Tja... mehr habe ich jetzt noch nicht probiert. Edit: Und nein, so war das mit dem EIZO FS2735 (WQHD, IPS, 144Hz, VRR) definitiv nicht.

Konnte meinen 42er Asus zweieinhalb Monate intensiv testen und wäre das auch nur einmal während eines Spieles aufgetreten, hätte dieser sofort die Rückreise zu Amazon angetreten. Das geht natürlich gar nicht.
Der VRR Flicker Test flickert bei mir auch aber das war mir bekannt.
aufkrawall hat den Link dorthin schon öfters gepostet.

Wundert mich auch etwas, dass das nirgends angesprochen wird/wurde.
Zurückschicken wenn du damit nicht leben willst/kannst.

Loeschzwerg
2024-01-12, 16:53:11
Ich denke nicht dass der Monitor einen Defekt hat, dafür findet man viel zu viele gleiche Erfahrungsberichte im Netz (viel auf Reddit natürlich).
Es tritt wie gesagt nicht immer auf und für mich überwiegen weiterhin die Vorteile im Spiel (Schärfe in Bewegung und knackiger Kontrast), daher bleibt das Teil.


Oder möchtest du damit sagen das IPS grundsätzlich nicht flimmern kann und OLED immer flimmert?


Ne, das nicht, es ist mir nur keines aufgefallen, jetzt mit dem OLED eben schon.

Nightspider
2024-01-12, 16:53:52
Du hast den Monitor an der Intel Arc A770 hängen?

Loeschzwerg
2024-01-12, 16:56:42
Ja, via DP. An der Quadro RTX 4000 habe ich es noch nicht ausprobiert.

robbitop
2024-01-12, 17:05:28
Nein, NVIDIA sagt, es geht grundsätzlich kein DSR wenn DSC genutzt wird:
"NVIDIA DSR, NVIDIA DLDSR und NVIDIA Image Scaling werden nicht unterstützt, wenn der DSC-Modus aktiviert ist."


https://support.nvidia.eu/hc/de/articles/5024944181650-Verwendung-von-Displays-mit-hoher-Aufl%C3%B6sung-Bildwiederholfrequenz-mit-VESA-Display-Stream-Compression-DSC-Unterst%C3%BCtzung-auf-NVIDIA-GeForce-GPUs


Warum es dann bei einigen trotzdem geht, ist die große Preisfrage.

Frage mich wozu diese Limitierung. Nvidia DSR downsampled doch GPU intern. Das dürfte mit der Displaylogik nichts mehr zu tun haben. Aber ja: das wäre für mich definitiv dann ein Grund für dp2.1.

vinacis_vivids
2024-01-12, 17:11:38
Da kein OLED, kann es nicht der beste sein! :biggrin:


Ausserdem, das sind dual 4k. Da muss auch eine 4090 schwitzen dies zu befeuern. (Die hat auch kein DP 2.1 :mad:)
Aber ja, ein Erfahrungsbericht hier wäre nett.

Erfahrungsbericht bevorzugt mit der 7900XTX DP2.1 natürlich inkl. FSR2/3 + AFMF. Die einzige GPU, die zurzeit fähig ist, den Monitor auch mit 240hz bei 7680 X 2160 zu befeuern.

Die auf 120hz limitierte 4090 mit DP1.4 ist natürlich auch willkommen.

dargo
2024-01-12, 17:15:33
So, bevor hier nochmals jemand behauptet das Flackern trete nur in Menüs auf...:
https://mega.nz/file/mQUU2QgT#u6yoq9KLhx9zAwHUpkIHCGvUS9LmP-9SF-_3dEXAFUA (2x kurze Videoaufnahmen)

Einmal Plague Tale Requiem Ingame, einmal das Steam Overlay in Windows. Quick&Dirty, daher etwas wackelig mit dem Smartphone (1080P60) :freak: Auf dem Smartphone bzw. den Videos sieht es noch etwas schlimmer aus als es ist, aber es ist schon deutlich sichtbar mit dem Auge.
Monitor 27GR95QE-B, aktuellste Firmware, VRR aktiv, 240Hz.

Der OpenGL VRR-Flicker-Test flackert ebenfalls fröhlich. Tja... mehr habe ich jetzt noch nicht probiert. Edit: Und nein, so war das mit dem EIZO FS2735 (WQHD, IPS, 144Hz, VRR) definitiv nicht.
Boah... das gibts doch nicht, das geht mal gar nicht. :eek: Bitte falls möglich auch an einer Geforce und Radeon testen. Wenn das die Normalität beim OLED ist dann hat sich OLED bei mir wieder erledigt. :freak:

Gast
2024-01-12, 17:17:38
Falls du Clear-Type meinst: Off sieht auf andere Art beschissen aus.


Cleartype off sieht in jedem Fall besser aus als on.
Und das mit jedem Screen der kein Stripe Layout hat. Selbst ein Monitor mit Stripe-Layout sieht beschissen aus wenn du ihn im Hochformat verwendest.

redpanther
2024-01-12, 17:20:40
Boah... das gibts doch nicht, das geht mal gar nicht. :eek: Bitte falls möglich auch an einer Geforce und Radeon testen. Wenn das die Normalität beim OLED ist dann hat sich OLED bei mir wieder erledigt. :freak:

Bei diesem 27GR95QE OLED: Vielleicht normal, wenn es viele berichten.
(Ein FW Update hat so problemchen aber schon häufiger behoben)

Bei allen OLEDs generell: Ganz sicher nicht normal.

basix
2024-01-12, 17:21:53
Für die Nutzer von DSR: was für Auflösung wählt ihr denn aus? Wenn man bei 4K dann ein 8K oder 5K auswählt, hat ja der Framebuffer eine von DSC unterstützte Größe.

Allerdings gibt es ja bei DSR/VSR auch "krumme" Auflösungen. Kann mir vorstellen dass in diesen (für DSC "unbekannten") Auflösungen dann kein DSC geht?!

Ich wähle nur DLDSR Faktoren und 2x2 (DSR 4x) im Treiber.

Für DSC sollten das aber keinen Einfluss haben: Sobald man >nativ geht, wird via DSR das wieder auf nativ runterskaliert und ds an den Monitor übermittelte Bild entspricht der nativen Auflösung.

Nein, NVIDIA sagt, es geht grundsätzlich kein DSR wenn DSC genutzt wird:
"NVIDIA DSR, NVIDIA DLDSR und NVIDIA Image Scaling werden nicht unterstützt, wenn der DSC-Modus aktiviert ist."


https://support.nvidia.eu/hc/de/articles/5024944181650-Verwendung-von-Displays-mit-hoher-Aufl%C3%B6sung-Bildwiederholfrequenz-mit-VESA-Display-Stream-Compression-DSC-Unterst%C3%BCtzung-auf-NVIDIA-GeForce-GPUs


Warum es dann bei einigen trotzdem geht, ist die große Preisfrage.
Verstehe nicht, wieso das so sein sollte. Die Skalierung sollte ja auf die native Monitorauflösung erfolgen (auf der GPU) und das von der GPU an den Monitor übermittelte Bild ist ebenfalls in nativer Auflösung.

ChaosTM
2024-01-12, 17:22:09
@Dargo

Es gibt ja auch sehr gute hintergrundbeleuchtete Monitore mit Local Dimming, aber die sind oft genauso teuer oder noch teurer als manche OLEDs.
Das muss jeder für sich selbst entscheiden, ob er das "Risiko" eingeht.

robbitop
2024-01-12, 17:34:23
Boah... das gibts doch nicht, das geht mal gar nicht. :eek: Bitte falls möglich auch an einer Geforce und Radeon testen. Wenn das die Normalität beim OLED ist dann hat sich OLED bei mir wieder erledigt. :freak:
Hab ich mit meinem BX noch nie gesehen. Und von den OLED PC Monitoren hab ich das auch nich nicht gehört. Nicht verrückt machen lassen. Ansonsten kann man es ja auch zurückschicken dank FAG.

Loeschzwerg
2024-01-12, 17:45:38
Bitte falls möglich auch an einer Geforce und Radeon testen.

Eben kurz an der Quadro getestet (via DP): Der Flicker Tester springt hier genauso an und in Ladesequenzen sieht man das Flackern ebenfalls, aber Ingame (Cyberpunk 2077) konnte ich es gerade nicht entdecken.

Jetzt wieder an der Arc habe ich VRR nur für Vollbild aktiviert, das löst schonmal die Sache mit dem Steam-Client. Das Problem Ingame ist schlichtweg den Frametimes geschuldet (man sieht ja im Video was der Monitorzähler macht). Mit Limitern, entsprechenden Grafikeinstellungen oder auch richtig fetter Hardware, damit dürfte es fast nicht auffallen (wenn überhaupt). Und "dicke Hardware" wäre auch meine Vermutung warum es in den Monitortests nicht wirklich aufgefallen ist.
Edit: Hahaaa, die Vollbild-only Einstellung für VRR war es! Da murkst wohl der Intel Treiber wieder herum :freak: Die selbe Stelle in Requiem ist jetzt stabil bei der Bildrate d.h. auch kein Flackern mehr.

dargo
2024-01-12, 17:58:43
Edit: Hahaaa, die Vollbild-only Einstellung für VRR war es! Da murkst wohl der Intel Treiber wieder herum :freak: Die selbe Stelle in Requiem ist jetzt stabil bei der Bildrate d.h. auch kein Flackern mehr.
Puh... bin erleichtert. :tongue:

Loeschzwerg
2024-01-12, 18:02:42
Ich hab jetzt allerdings nicht getestet was der Nvidia Treiber macht, wenn dort Vollbild+Fenster aktiv ist. Ich hatte zumindest nur Vollbild-VRR aktiv.
Najo, wieder was gelernt ^^ Aber man sieht auch dass das Thema durchaus heikel sein kann.

robbitop
2024-01-12, 18:04:51
Also zumindest mit einer Geforce 3080 und dem LG OLED keine Probleme in Window oder Fullscreen.

Loeschzwerg
2024-01-12, 18:08:41
Danke, das ist gut zu wissen. Schreibe ich vielleicht doch mal einen Bug-Report.

Der_Korken
2024-01-12, 18:23:35
Ja, es ist LTT, aber er erklärt das Problem:
https://youtu.be/nywTR_83ZWs
Ab 3:29


Er sagt, dass die Refresh Rate die Helligkeit der Pixel beeinflusst. Wenn sich die Framerate von 100 auf 80 reduziert, reduziert sich auch die Helligkeit von um 20%, sodass die Frames mit 12,5ms Frametime (also 80fps) heller angesteuert werden müssen.

Die Erklärung ergibt für mich ja mal überhaupt keinen Sinn. Das würde ja bedeuten, dass OLEDs wie CRT-Monitore funktionieren, wo die Ansteuerung des Pixels aus einem einzelnen hellen Lichtblitz besteht und den Rest der Zeit das Panel gar nicht leuchtet. Dass LEDs eine PWM-Ansteuerung haben, ist mir zwar bewusst, aber nicht mit der Hz-Zahl des Monitors sondern viel viel schneller.

Edit: Da hier aber auch schon von Nicht-OLEDs berichtet wurde, die bei VRR flackern, scheint das ja kein OLED-spezifisches Problem zu sein. Das war das, was mich am meisten gewundert hätte.

Slipknot79
2024-01-13, 00:57:44
Also zumindest mit einer Geforce 3080 und dem LG OLED keine Probleme in Window oder Fullscreen.

Die LG OLEDs sollen angeblich weniger anfällig auf VRR flickering sein. Nen Freund meinte, er muss schon sehr genau hinschauen, dass etwas auffallt, wenn überhaupt. Habs selbst nicht überprüft.

Das VRR flickering betrifft alle Paneltypen, nur sieht man es am OLED am besten. Manche wenige VAs (Samsung?) waren angeblich anfällig, IPS nicht.
Am OLED fallt es auf, wenn die fps stark schwanken, was bei manchen Ladescreens offensichtlich der Fall ist wenn die SSD mal flaschenhalst.


Meiner Erfahrung nach mit einem VA LCD flimmert es bei NVIDIA mit VRR öfter dann, wenn man das GSYNV Fullscreen+Window aktiviert.
Stellt man es auf nur auf Fullscreen, habe ich das Problem nicht.

Fullscreen löst es bei NV nicht bei OLED.
Bei Radeon weiß ich es nicht, würde mich aber wundern wenn "fullscreen" das Problem lösen würde. Im Internet ist dazu nichts zu finden, so spontan. Ich würde mich nicht darauf verlassen.
Die Lösungen gehen eher nur Richtung "fps limiter einschalten und das Spiel möglichst dort spielen". Aber sowas ist einfach keine Lösung ;)


Auch in Menüs oder Ladescreens hat nichts zu flackern verdammt noch mal. :mad: Was kauft ihr euch für einen Schrott bitte?

Also am LCD mit IPS flackert hier gar nichts in diesem Test. Allerdings kann ich jetzt nicht wirklich einschätzen ob dieser Test was taugt da sich die Framerate nur zwischen ca. 55 und 62fps bewegt.

Normal ist flickering nicht, jedenfalls kommt es naturgemäß weniger häufig vor als die unaufhörliche Dauershice die IPS (Kontrastarmut, glowing, Bewegtunschärfe) liefert.
Der Test taugt so ziemlich, stellt einen Härtefall darf, ähnlich Linpack für CPU-OC.

big_lebowski
2024-01-13, 07:46:48
oFC3v1BwQRs

PHuV
2024-01-13, 09:10:40
Bei den Monitoren geht die Suche wieder los, gescheite KVMs zu finden, die 240/480 Hz packen. :rolleyes:

robbitop
2024-01-13, 09:16:52
Einer der Gründe warum ich meinen Dienstlaptop über Windows Remotedesktop an meinem Privat PC Steuere. Geht erstaunlich gut (wegen des bitmap Caches den Windows Remotedesktop mitbringt ).

Loeschzwerg
2024-01-13, 10:24:17
An KVMs sind die von Level1Techs aktuell die Königsklasse, aber da ist bei UHD@120Hz Schluss (WQHD@144Hz). Kosten allerdings ein ordentliches Sümmchen.

Disconnected
2024-01-13, 10:59:40
Warum nicht die verschiedenen Monitor-Eingänge anstelle von KVM verwenden?

robbitop
2024-01-13, 11:04:22
Weil man mit einem Knopf an einem Gerät alles umschalten will an Perepherie und nicht nur den Monitor.

Disconnected
2024-01-13, 11:07:12
Dann hast Du halt zwei Knöpfe: einen für den Monitor und einen für den Rest.

PHuV
2024-01-13, 11:19:01
An KVMs sind die von Level1Techs aktuell die Königsklasse, aber da ist bei UHD@120Hz Schluss (WQHD@144Hz). Kosten allerdings ein ordentliches Sümmchen.
Zu teuer und zu wenig leistungsfähig für das Geld. Ich hab hier 2 Stück, die 4@144Hz schaffen für ca. 60-80€.

Loeschzwerg
2024-01-13, 12:53:37
Cool, danke für die Info :) Sind das die Teile die man u.a. bei Amazon findet? VRR funktioniert und keine Cheaterei durch Chroma Subsampling?

Ist wirklich die Frage wann da erste Switches mit DP2.0/2.1 kommen. 144Hz ist zwar schon in Ordnung, aber wenn man schon einen Monitor mit 240Hz oder mehr hat, dann will man das natürlich gerne nutzen.

Wie viele DP Eingänge haben denn die neuen Samsung OLEDs? Es ist schon ein wenig doof dass es da überwiegend nur 1x DP gibt.

robbitop
2024-01-13, 13:04:02
Dann hast Du halt zwei Knöpfe: einen für den Monitor und einen für den Rest.
Fände ich schon wieder irgendwie umständlich - wie eine Notlösung. Kann man machen aber meh.

Sardaukar.nsn
2024-01-13, 13:48:57
Falls jemand aktuell in die Richtung sucht: LG OLED C2 42" - 697,61€
https://www.mydealz.de/deals/quelle-lg-oled42c27la-42-oled-120hz-4k-ultra-hd-smart-tv-2302357

Platos
2024-01-13, 15:01:51
Aber mal zur CES 2024 zurück:

Gibts eig. wieder neue Monitore/TVs im Bereich "verstellbare Krümmung) ?

Also es gab doch da so ein Teil (weiss nicht mehr ob Monitor oder TV), wo man die Krümmung verstellen konnte (von flach bis recht "krumm").

Gabs hierzu wieder ankündigungen ? Mich interessiert das ja schon, weil bei mir ist das so: Für Office wäre na starke Krümmung vermutlich nicht so gut, für Gaming und Immersion aber schon (im Bereich vom TV würde man dann vlt. auch mal flach machen wollen, wenn Gäste da sind und man somit nicht perfekt mittig davor sitzen kann).

Gibts da Infos dazu?

robbitop
2024-01-13, 15:03:13
Falls jemand aktuell in die Richtung sucht: LG OLED C2 42" - 697,61€
https://www.mydealz.de/deals/quelle-lg-oled42c27la-42-oled-120hz-4k-ultra-hd-smart-tv-2302357
Mehr Monitor pro EUR geht nicht. Geiler deal. Und das Ding hat einen 21:9 Mode soweit ich weiß, was ihn zu einem 34" (naja 33,4") 21:9 Monitor mit 3840x1600 macht. :)
Da die G Serie erst mit höheren Diagonalen anfängt und C bis dato kein META bekommt, ist C2 sicherlich (obwohl Modelljahr 2022) keine schlechte Wahl.

FunkyChris
2024-01-14, 10:09:37
Hier noch ein paar Minuten zum neuen GSync Pulsar: https://youtu.be/pM_BiNQPKYk?t=360&si=6zFpDfx-_LiV5HfR

Tobalt
2024-01-14, 10:13:08
Das Gsync Pulsar ist ja nun nichts neues, aber es schärft wohl in weiten Teilen der Nutzer die generelle Aufmerksamkeit für VRR+Strobe, sodass sich künftig wohl auch mehr Hersteller als nur ASUS eine entsprechende Technik mit verbauen.

Bin gespannt, ob Teil der Gsync Vereinbarung nun sein wird, dass ASUS bspw. ELMBsync *nicht* mehr anbieten darf, damit das Feature künstlich NV-exklusiv wird vorübergehend. Zutrauen würde ich das NV auf jeden fall :usad:

Noch besser wärs, wenn Freesync oder VESA eine entsprechende Norm definiert.

robbitop
2024-01-14, 10:21:14
IIRC hatte ELMB Sync aber auch einige Limitationen. GSync Pulsar ist da ggf einen guten Schritt weiter. Aber blöd dass man ein teures fpga braucht anstatt mit den scalerherstellern und der vesa zusammenzuarbeiten. Proprietär = Mist für den consumer

Tobalt
2024-01-14, 11:04:23
Du sagst immer wieder dass ELMBsync "Limitierungen" hatte... welche denn genau? Und hat Pulsar die nicht?

Prinzipiell bei der Technik ist die Schärfe nur dann maximal, wenn die Refresh Rate maximal ist, weil es nur in diesem Grenzfall dem klassischen Strobing gleichkommt. Sinkt die Framerate, muss *prinzipbedingt* mit geringer Intensität nach dem Strobe nachgeleuchtet werden, damit es nicht zum Flackern kommt.

Sinkt die Framerate also deutlich unter das maximum, dann wird das Bild also auch wieder etwas "hold typiger". Falls du das meinst, würde ich aber nicht sagen, dass es eine Limitierung ist, sondern eher ein dynamisch-optimaler Kompromiss zwischen Strobe und Hold Beleuchtung.

robbitop
2024-01-14, 11:21:45
„immer wieder“?
Ansonsten zu ELMB Sync
https://forums.blurbusters.com/viewtopic.php?t=6448

Den von dir beschriebenen Effekt (um die Helligkeitsinhomogenitäten über das ganze Spektrum abzudecken) umgeht man IIRC zT mit multistrobing. Bei niedrigen fps werden dann halt Frames ver-nfacht und dann mehrfach gestrobt. Natürlich ist mit weniger fps weniger Schärfe.
Bei ELMB Sync gibt es aber auch Artefakte in bestimmten frameregionen in manchen Teilen des Monitors (sichtbare Mehrfachbilder zB)

Grundsätzlich: Da sitzen Armeen von Leuten aus Stanford und Co mit Ausbildung für genau den Kram, überdurchschnittlichen IQ und jahrelanger Erfahrung in einem Feld was super komplex ist die sich jahrelang mit dem Thema befassen. Da wird es immer neue Lösungsansätze geben an die wir Laien denken können.

Zu Pulsar wurden noch nicht genug Details vorgestellt. Aber in der Regel bringt Nvidia Features heraus, wenn sie gut poliert sind. Und sie haben den Vorteil, dass sie den FPGA im Monitor frei programmieren können.

Tobalt
2024-01-14, 11:32:52
Ok scheint so als gäbe es tatsächlich sehr gemischte reviews und Unterschiede zwischen verschiedenen ELMBsync Monitoren noch dazu. :ugly:

Hat denn niemand mal mittels Phitodiode und osci einfach das Lichtpattern in verschiedenen Ecken des Displays mal *gemessen* ? :usad:

Nach dem Thread bin ich nämlich unsicher was ELMBsync überhaupt tut.. Also gäbe es ja tatsächlich Raum für die richtige Umsetzung

Slipknot79
2024-01-14, 13:54:05
Hier noch ein paar Minuten zum neuen GSync Pulsar: https://youtu.be/pM_BiNQPKYk?t=360&si=6zFpDfx-_LiV5HfR

Warum nicht gleich OLED kaufen? :confused:

Troyan
2024-01-14, 14:23:33
Nach LTT schafft der Alienware 4K OLED immer noch keine 1.000 Nits bei 10%. Der regelt ebenfalls deutlich ab und fällt von 1.000 Nits (2%) auf 500 Nits bei 10% ab: https://youtu.be/xCPp-cu_BdI?t=643

Warum nicht gleich OLED kaufen? :confused:

Weil OLEDs nicht die selbe Bewegtbildschärfe erreichen können. Du musst also mindesten 2x mehr Frames erreichen, um mit einen Fast-IPS Panel mitzuhalten.

Tobalt
2024-01-14, 14:45:02
Weil OLEDs nicht die selbe Bewegtbildschärfe erreichen können. Du musst also mindesten 2x mehr Frames erreichen, um mit einen Fast-IPS Panel mitzuhalten.
Was für ein Quatsch ;D

Die Frage ist eher warum man Strobe nicht auf den OLED implementiert. Da könnte man die Pixel Supply voltage auch global stroben oder gar einen rolling strobe nutzen, damit es eben gerade nicht zu Strobe Crosstalk kommt.

Die Antwort ist wohl dass es einfach noch zu wenige OLED Monitore gibt und sich NV ungern in eine Nische stellt

Troyan
2024-01-14, 14:46:43
Was für ein Quatsch ;D

Die Frage ist eher warum man Strobe nicht auf den OLED implementiert. Da könnte man die Pixel Supply voltage auch global stroben oder gar einen rolling strobe nutzen, damit es eben gerade nicht zu Strobe Crosstalk kommt.

Die Antwort ist wohl dass es einfach noch zu wenige OLED Monitore gibt und sich NV ungern in eine Nische stellt

Vielleicht weil OLEDs mit 250 Nits Vollbildhelligkeit dafür ungeeignet sind? :rolleyes:

ChaosTM
2024-01-14, 14:55:24
Dieser Helligkeitsfetischismus ist schon sehr befremdlich, speziell bei Monitoren.

HDR Spiele @ 100% brennen mir jetzt schon die Augen aus und ich muss deutlich runter regeln.
Der unendliche Kontrast wiegt die theoretischen Nachteile mehr als auf.

Jemand der das noch nicht selbst gesehen bzw. darauf gespielt hat kann das auch nur schwer nachvollzeihen, das ist mir auch klar.

Deshalb wird fröhlich dagegen geflamed. ;)

Tobalt
2024-01-14, 14:57:48
Vielleicht weil OLEDs mit 250 Nits Vollbildhelligkeit dafür ungeeignet sind? :rolleyes:

Beim Rolling Strobe hast du nur wenige Prozent gleichzeitig "an", noch dazu für wenige ms oder weniger. Moderne OLED Panels schaffen unter diesen Bedingungen Spitzenhelligkeiten weit über 1000 nit.

robbitop
2024-01-14, 15:13:43
Was für ein Quatsch ;D

Die Frage ist eher warum man Strobe nicht auf den OLED implementiert. Da könnte man die Pixel Supply voltage auch global stroben oder gar einen rolling strobe nutzen, damit es eben gerade nicht zu Strobe Crosstalk kommt.

Die Antwort ist wohl dass es einfach noch zu wenige OLED Monitore gibt und sich NV ungern in eine Nische stellt
Und der Helligkeitsverlust wiegt beim OLED schwerer

Beim Rolling Strobe hast du nur wenige Prozent gleichzeitig "an", noch dazu für wenige ms oder weniger. Moderne OLED Panels schaffen unter diesen Bedingungen Spitzenhelligkeiten weit über 1000 nit.

Troyan spricht von Vollbild. Mit 1000 nits kann aber deinerseits nicht Vollbild gemeint sein.

Tobalt
2024-01-14, 15:19:04
Du brauchst beim Rolling Strobe kein Vollbild. Der Vollbildwert ist völlig irrelevant.

robbitop
2024-01-14, 15:29:24
Du brauchst beim Rolling Strobe kein Vollbild. Der Vollbildwert ist völlig irrelevant.

Je weniger gestrobt wird, desto weniger entfernt man den hold type Effekt leider.
Und davon unabhängig ist der Vollbildwert nicht für alle irrelevant.

Troyan
2024-01-14, 15:53:24
Dieser Helligkeitsfetischismus ist schon sehr befremdlich, speziell bei Monitoren.

HDR Spiele @ 100% brennen mir jetzt schon die Augen aus und ich muss deutlich runter regeln.
Der unendliche Kontrast wiegt die theoretischen Nachteile mehr als auf.

Jemand der das noch nicht selbst gesehen bzw. darauf gespielt hat kann das auch nur schwer nachvollzeihen, das ist mir auch klar.

Deshalb wird fröhlich dagegen geflamed. ;)

Ich empfehle dir dieses Video hier: https://www.youtube.com/watch?v=PRSm2v7bfVo

Und OLEDs haben nur unendlich Kontrast bei Schwarz -> Sonstwo. Überall sonst ist der Kontrast messbar und hinter LCD.

Tobalt
2024-01-14, 16:36:32
Je weniger gestrobt wird, desto weniger entfernt man den hold type Effekt leider.
Und davon unabhängig ist der Vollbildwert nicht für alle irrelevant.

Von was redest du eigentlich? Es geht darum, dass OLED angeblich nicht gestrobt werden können, was natürlich Quatsch ist.

Dass man mit Strobing keine drölf Mio. nits erreicht, ist schon klar. Nutzer, die Strobing aktivieren tun dies weil ihnen die Bewegtschärfe mehr Vorteile verschafft als 1000 nits global zu haben.

Strobing richtet sich an Enthusiasten und FPS Spieler, denen selbst mit 240 Hz bei full persistence dad motion blur auf den Sack geht.

selbst wenn du mit Strobing auf nur noch 300 nit kämst, ist das wohl heller als was 90% der Zocker normalerweise fahren.

Willst su ernsthaft behaupten, man bringt kein OLED mit Strobe weil man es nicht kann? ;D Schon mein C9 hat Strobe im Sport Preset.

Dass es keinen OLED Gaming Monitor mit Strobe gibt ist einfach nur Feature Salami Taktik: Mit minimalem Fortschritt maximal Umsatz machen

ChaosTM
2024-01-14, 16:44:05
Ich empfehle dir dieses Video hier: https://www.youtube.com/watch?v=PRSm2v7bfVo

Und OLEDs haben nur unendlich Kontrast bei Schwarz -> Sonstwo. Überall sonst ist der Kontrast messbar und hinter LCD.


Die Nits Messungen im Freien sind schön und gut, aber wir stellen unsere Fernseher nicht hinaus und schauen bei Sonnenlicht.
In einem relativ dunklen Raum brennen dir schon 1000 Nits fast die Augen aus.
Wer gerne in sehr heller Umgebung Filme schaut soll/muss halt zu LCD greifen.



Und den letzten Satz lasse ich unkommentiert

Deathcrush
2024-01-14, 17:01:43
In einem relativ dunklen Raum brennen dir schon 1000 Nits fast die Augen aus.


Findest du? Ich find´s geil :D Es kann gar nicht hell genug sein, auch in einem abgedunkelten Raum. Es gibt keine falsche Technik, jeder muss wissen was er bevorzugt und LCD wie auch OLED haben beide ihre Nachteile. Ich habe mich sogar bewußt gegen ein OLED entschieden (LG C3) nach dem ich ihn kurz zu Hause hatte ging er gleich wieder zurück. Sicher hat der OLED bei dunklem Bild die Nase vorn, wird das Bild aber etwas heller, punktet der QLED TV. Alles Geschmackssache ;)

robbitop
2024-01-14, 17:02:20
Von was redest du eigentlich? Es geht darum, dass OLED angeblich nicht gestrobt werden können, was natürlich Quatsch ist.
Habe ich nie bezweifelt und mich auch darauf nie bezogen.


Dass man mit Strobing keine drölf Mio. nits erreicht, ist schon klar. Nutzer, die Strobing aktivieren tun dies weil ihnen die Bewegtschärfe mehr Vorteile verschafft als 1000 nits global zu haben.

….

Strobing richtet sich an Enthusiasten und FPS Spieler, denen selbst mit 240 Hz bei full persistence dad motion blur auf den Sack geht.


Helligkeit zu haben ist kein Nachteil. Und OLED ist leider eh schon etwas helligkeitslimitiert. Viel besser als früher und so dass es kein Problem mehr ist. Aber im Überschuss ist es nicht gerade. Und strobing reduziert leider die Helligkeit.
Und nur weil du das so siehst, dass Bewegtschärfe wichtiger ist als Helligkeit, heisst das nicht dass das Allgemeingültigkeit hat. Es ist ein Nachteil. Die Frage ist wie viel dieser für jeden und seine Umgebung wirkt.
Zum Glück führen viele Wege nach Rom. Hohe Refreshrate plus Framegenration um hohe fps Raten zu erzielen sind auch ein Weg.


selbst wenn du mit Strobing auf nur noch 300 nit kämst, ist das wohl heller als was 90% der Zocker normalerweise fahren.
Wir sprechen von Vollbild oder? Die 2023 Monitore sind IIRC vei Vollbildhellitkeit von ~250cd/m2 ohne Strobing.




Willst su ernsthaft behaupten, man bringt kein OLED mit Strobe weil man es nicht kann? ;D Schon mein C9 hat Strobe im Sport Preset.

Wo habe ich behauptet, dass OLED das nicht kann? Natürlich geht das und ich habe selbst 3x moderne OLEDs (und liebe die).
LG hat allerdings BFI in den letzten Revisionen deutlich limitiert. John Linneman von DF hat sich mehrfach dazu geäußert.





Dass es keinen OLED Gaming Monitor mit Strobe gibt ist einfach nur Feature Salami Taktik: Mit minimalem Fortschritt maximal Umsatz machen
Halte ich für unwahrscheinlich weil es (insbesondere seit den vielen Ankündigungen 2024) genug Wettbewerber mit OLED Monitoren gibt. Irgendwer will sich immer von anderen differenzieren.

Es geht natürlich (strobing) aber es kostet die eh schon knappe Helligkeit. Kann mir gut vorstellen, dass die Befürchtung besteht, dass es nicht gut ankommt.

Glücklicherweise tut sich im Thema Helligkeit seit Samsung auch Panels herstellt ja endlich was. Wenn es so weiter geht wird der Aspekt immer weniger problematisch.

Und wie gesagt dank hohen Refreshrates und schnellen Responsetimes ist Bewegtschärfe auf OLEDs (insbesondere seit Framegeneration existiert) auch anders lösbar. Siehe den Blurtest von LTT auf dem 360 Hz OLED.

Ich will jedenfalls selbst nie wieder was anderes als einen Selbstleuchter - aber in Punkto Helligkeit geht noch was. :)


——————————

1000 cd/m2 für highlights schaffen meine LG OLEDs auch. Und ich zocke auch nur in gedimmter Umgebung. Mir sind die auch nicht zu dunkel aber „die Augen brennen“ mir die 1000cd/m2 Highlights auch nicht. Könnte gern noch heller sein. :up:
Aber der Kontrast und die Blickwinkel sind natürlich stark. Aber wie gesagt zeigt OLED ja jetzt jährliche Sprünge in der Helligkeit (zumindest peak). Wettbewerb belebt das Geschäft. :up:

FunkyChris
2024-01-14, 17:49:31
Warum nicht gleich OLED kaufen? :confused:

Habe ich ja aktuell. Aber selbst mit 240 Hz/fps auf dem OLED hast du nicht die Bewegungsklarheit wie bei einem 120 Hz-Strobing-Display. Wahrscheinlich muss man dafür in Richtung 360 Hz gehen und selbst das wird noch nicht reichen. Solche fps mit Ray- oder Pathtracing sind aber aktuell nicht zu schaffen, auch nicht mit FG. Das besondere bei Pulsar ist ja die Kombination aus VRR und BFI - aber vernünftig umgesetzt, quasi der heilige Gral. Ich bin sehr auf die ersten Reviews gespannt :smile:

Tobalt
2024-01-14, 18:08:57
Robbi, ich glaube wir reden aneinander vorbei. Das stimmt ja alles was du sagst. Es ist auch egal, was *ich* mag oder nicht und such, was du persönlich magst oder nutzt.

Das Nichtanbieten einer Strobingoption bei modernen OLEDs ist ganz klar eine bewusste Limitierung, die der Hersteller so entschieden hat. Diese Option zu einzubauen, behindert absolut niemanden, man muss es ja nicht nutzen.

Das Nichtanbieten führt sogar zu so schwachsinnigen Aussagen wie von Troyan, dass OLED doppelt so hohe Framerate brauchen für die gleiche Schärfe. Es ist einfach ein Apfel/Birnen Vergleich.

Ich garantiere dir, dass ein moderner OLED mit Rolling Strobe unter Benutzung des selbigen folgendes realistisch erreichen könnte: 1000 nits auf der leuchtenden Zeile für ~1 ms, was bei 250 fps immer noch 250 nits entspricht aber Bewegtschärfe wie 1000 Hz bietet. 250 nits ist soviel wie mein nichtstrobender VA auf 100 Helligkeit liefert. Mir würde das reichen und ja mehr wäre manchmal cool, aber es gibt socher genug Leute die es kaufen würden. Das Weglassen eines solchen Features ist Salamitaktik

robbitop
2024-01-14, 18:48:41
Auf welcher Basis kommen diese Zahlen?
Ansonsten gilt rolling strobe reduziert leider weniger den Hold Type Effekt, erhält jedoch mehr Helligkeit. Ist halt eine Balance.
Der Grund warum es so stiefmütterlich behandelt wird bleibt spekulativ, da wir leider nicht mehr haben. Da hat dann jeder seine eigene spekulative Ansicht. Ggf ist es auch eine Mischung von Gründen.

Glücklicherweise sind OLEDs mit hohen refreshraten (in Verbindung mit hohen Frameratrn) auch ohne BFI schon sehr scharf.
Entsprechend sind aus meiner Sicht die neuen 32“ 4K240Hz OLEDs (sowohl woled als auch qd-oled) absolut kaufbar. Um es gelinde auszudrücken.

Tobalt
2024-01-14, 19:02:23
Rolling Strobe ist genau so scharf wie ein normaler Strobe.. Persistence ist genau so lang, aber es kein Prinzipiell keine Chance für Strobe Crosstalk. Rolling Strobe hat auch den Vorteil (bei OLED), dass man immer nur einen Teil des Schirms beleuchtet, und niemals durch Fullscreenhelligkeit limitiert wird.

Ein CRT macht ja einen Rolling Strobe und ist die Referenz für Bewegtschärfe. Was verstehst du unter rolling strobe?

Die Basis für die Zahlen ist, dass ein moderner OLED über 1000 nit auf 10% Fläche erreicht und das dauerhaft. Das ist härter als die gleiche Helligkeit für nur 1 ms pro Frame, also sollte diese Helligkeit für kürzere Zeit trivial sein. Bei 250 fps á 1 ms kommt man auf 25% Leichtdauer, also 250 nits wahrgenommene Helligkeit bei 1000 nit strobe.

Nightspider
2024-01-14, 19:16:36
Ich sehe das eigentlich ähnlich wie Tobalt und erwarte das da einiges kommt in den kommenden 2 Jahren.

Wenn die neuen TV Panels jetzt schon >3000 Nits schaffen sollte Strobing wirklich umsetzbar sein.

Würde mich nicht wundern wenn die Hersteller in ihren Laboren schon herumexperimentieren und Langzeiterfahrungen sammeln.

Gast
2024-01-15, 09:40:02
Wir sprechen von Vollbild oder? Die 2023 Monitore sind IIRC vei Vollbildhellitkeit von ~250cd/m2 ohne Strobing.



Bei einem Rolling-Strobe gibt es kein Vollbild, es ist zu jedem Zeitpunkt nur wenige Zeilen aktiv.

Die erreichbare Helligkeit der aktiven Zeile sollte mindestens der maximal erreichbaren dauerhaften Helligkeit mit identischem APL zu den gleichzeitig aktiven Zeilen sein.

Die wahrgenommene Helligkeit über die Zeit ist freilich geringer, da die Pixel nur jeweils sehr kurz aktiv sind, aber jetzt auch nicht allzu stark gegenüber vollbild Weiß mit dauerhafter Beleuchtung.

robbitop
2024-01-15, 11:54:14
Die Basis für die Zahlen ist, dass ein moderner OLED über 1000 nit auf 10% Fläche erreicht und das dauerhaft. Das ist härter als die gleiche Helligkeit für nur 1 ms pro Frame, also sollte diese Helligkeit für kürzere Zeit trivial sein. Bei 250 fps á 1 ms kommt man auf 25% Leichtdauer, also 250 nits wahrgenommene Helligkeit bei 1000 nit strobe.
OK ich habe rolling strobe offenbar falsch verstanden. Dennoch: Ich kann dieser Berechnung nicht folgen. Kannst du das bitte genauer erklären? Ich würde es gern verstehen. :)

Bei einem Rolling-Strobe gibt es kein Vollbild, es ist zu jedem Zeitpunkt nur wenige Zeilen aktiv.

Die erreichbare Helligkeit der aktiven Zeile sollte mindestens der maximal erreichbaren dauerhaften Helligkeit mit identischem APL zu den gleichzeitig aktiven Zeilen sein.

Die wahrgenommene Helligkeit über die Zeit ist freilich geringer, da die Pixel nur jeweils sehr kurz aktiv sind, aber jetzt auch nicht allzu stark gegenüber vollbild Weiß mit dauerhafter Beleuchtung.

Dann hätte man aber (wenn man mit 1000 nits strobed) nicht mehr entsprechende Reserve für die Highlights in HDR. Die sollen ja trotz Strobes auf 10% des Bildes noch mit 1000 cd/m2 haben.


Wenn die neuen TV Panels jetzt schon >3000 Nits schaffen sollte Strobing wirklich umsetzbar sein.
Wobei die 3000 Nits von den 2024 TVs nur für ein 3% Window sind IIRC. Die 1000 Nits die oben angenommen waren, werden bei existierenden TVs bis zu 10% erreicht. Also es müssen schon die gleichen Kategorien verglichen werden. Ansonsten vergleichen wir ja Äpfel mit Bananen.

MiamiNice
2024-01-15, 12:09:39
Bei all der Liebe zu besseren Monitoren, muss ich mich fragen warum mehr nits so hart gefeiert werden. Je höher die nits, desto schneller baut euer Augenlicht ab. Wir sind hier alle in den 40igern oder schlimmer :D Ich fahre meinen Monitor bei gut 30% Helligkeit obwohl er 700 nits hat. Wollte mir zu Lebzeiten keine Brille gönnen ^^

Gast
2024-01-15, 12:28:25
Dann hätte man aber (wenn man mit 1000 nits strobed) nicht mehr entsprechende Reserve für die Highlights in HDR. Die sollen ja trotz Strobes auf 10% des Bildes noch mit 1000 cd/m2 haben.



Dass man Strobing nicht mit HDR kombinieren kann sollte eigentlich klar sein, das geht auch mit LCDs nicht.

Aber der Helligkeitsverlust sollte gering genug sein, um noch in einem akzeptablem Bereich für SDR zu landen.

Gast
2024-01-15, 14:17:39
Bei all der Liebe zu besseren Monitoren, muss ich mich fragen warum mehr nits so hart gefeiert werden.

Dann bitte niemals ins Freie gehen, da verringert sich deine Sehkraft innerhalb von 10s auf 90%.

redpanther
2024-01-15, 14:36:09
Stimmt, ich freu mich schon auf die Zeit in der ich mit Sonnenbrille vor dem Monitor sitzen muss.


Wenn das Auge doch nur einen Mechanismus hätte, der regeln könnte wie viel Licht ins Auge fällt.

So das ein Monitor nicht die Helligkeit der Sonne erreichen muss, um hell zu wirken.

robbitop
2024-01-15, 14:51:19
Bei all der Liebe zu besseren Monitoren, muss ich mich fragen warum mehr nits so hart gefeiert werden. Je höher die nits, desto schneller baut euer Augenlicht ab.
Das glaube ich nicht, dass bei 1000 cd/m² irgendwas am Auge degeneriert. Dann hätten wir draußen im Sommer (ja ich weiß Reallife... X-D) ganz andere Probleme. ;)

Dass man Strobing nicht mit HDR kombinieren kann sollte eigentlich klar sein, das geht auch mit LCDs nicht.

Aber der Helligkeitsverlust sollte gering genug sein, um noch in einem akzeptablem Bereich für SDR zu landen.

Dann wirds aber auch wieder leider kompromissbehaftet. HDR sieht wirklich phantastisch aus. SDR wäre schon ein Rückschritt.

Stimmt, ich freu mich schon auf die Zeit in der ich mit Sonnenbrille vor dem Monitor sitzen muss.


Wenn das Auge doch nur einen Mechanismus hätte, der regeln könnte wie viel Licht ins Auge fällt.

So das ein Monitor nicht die Helligkeit der Sonne erreichen muss, um hell zu wirken.

Helle highlights sind auch bei abgedunkelten Raum wirklich geil und könnten IMO gern noch etwas heller sein. Auf gar keinen Fall würde ich eine Verdunklung der jetzigen OLEDs wollen. Und das sage ich als 3x OLED Besitzer und 3D Grafikfetischist seit es Consumer 3D Beschleunigung überhaupt gibt der nur in abgedunkelten Räumen zockt (tagsüber Arbeit oder Kids und Außenrollo schön runter damit die Atmosphäre gut kommt). ^^

Das ist schon ein Stück weit Geschmackssache. Das kann man auch mal akzeptieren.

Tobalt
2024-01-15, 15:06:00
Robbi nochmal: Es geht nicht darum, dass ein Monitor der Strobing *ANBIETET*, gleichzeitig auch alle HDR und Brightness Scores abräumt. Wird er nicht...

Es geht darum, dass das Weglassen dieses technisch möglichen Features, welches von Nutzern gewählt wird, die für bestimmte Anwendungen gern Helligkeit aufgeben um Bewegtschärfe zu steigern (z.B. FPS Zocker), sträflich ist, und Salamitaktik ist.

Bzgl. meiner Beispielrechnung schlage ich vor, dies in PNs oder einen Chat zu verlagern, wenn du noch fragen hast.
Nur noch ein Link zu blurbusters topic zu "Scanning Strobe" mit PICS:
https://forums.blurbusters.com/viewtopic.php?f=7&t=5890&start=10
Wie du siehst, arbeitet ein Monitor mit Rolling Strobe quasi *immer* und content-*UN*abhängig nur im 10% Fenster.

redpanther
2024-01-15, 15:10:25
Helle highlights sind auch bei abgedunkelten Raum wirklich geil und könnten IMO gern noch etwas heller sein. Auf gar keinen Fall würde ich eine Verdunklung der jetzigen OLEDs wollen. Und das sage ich als 3x OLED Besitzer und 3D Grafikfetischist seit es Consumer 3D Beschleunigung überhaupt gibt der nur in abgedunkelten Räumen zockt (tagsüber Arbeit oder Kids und Außenrollo schön runter damit die Atmosphäre gut kommt). ^^

Das ist schon ein Stück weit Geschmackssache. Das kann man auch mal akzeptieren.


Ich habe den Gast Kommentar so interpretiert, das die Monitore ALLE viel zu dunkel sind, weil es draußen in der Sonne ja viel heller ist.
Was halt IMHO ein Vergleich Apfel VS Android, äh Birne ist.

Gegen helle(re) Highlights habe ich Natürlich auch nichts.
Kann aber auch den "Helligkeits Fetischischmus" einiger auch nicht nachvollziehen.
Wobei man sagen muss, auch hier gibt es sehr Unterschiedliche Empfindungen. Was dem einen scho zu hell ist, ist für den anderen zu dunkel.

Ich denke eigentlich das ich eher empfindlich auf hell reagiere, aber meine Tochter stellt ihren Monitor so dunkel, das ich das nicht mehr schön finde...


Strobing ohne HDR brauch ich auch nicht. Da bin ich ganz bei dir.
Die OLED bewegt schärfe reicht mir eigentlich voll und ganz, so ohne VA ghosting. Da vermisse ich nichts, auch wenn es noch etwas besser geht.

user12k
2024-01-15, 15:16:46
VR-Forscher von Meta befassen, in dem sie zeigen, wie hell es sein müsste, um einen Innenraum mit normalen Glühbirnen oder Leuchtstofflampen darzustellen. Sie haben ein VR-Display entwickelt, das eine Helligkeit von 20.000 Nits erreicht, was fast der Helligkeit von jedem Innenraum entspricht

robbitop
2024-01-15, 15:27:10
Robbi nochmal: Es geht nicht darum, dass ein Monitor der Strobing *ANBIETET*, gleichzeitig auch alle HDR und Brightness Scores abräumt. Wird er nicht...

Es geht darum, dass das Weglassen dieses technisch möglichen Features, welches von Nutzern gewählt wird, die für bestimmte Anwendungen gern Helligkeit aufgeben um Bewegtschärfe zu steigern (z.B. FPS Zocker), sträflich ist, und Salamitaktik ist.


Wie gesagt - mag sein, dass es dir darum geht. Und das habe ich auch nie angezweifelt. Insofern sind wir d'accord. Ja soll man ruhig optional anbieten. Schadet nicht.

Mir geht es darum, dass es Nachteile in der Helligkeit hat. ;) (und ggf die Hersteller befürchten, dass es deswegen außerhalb der Nerdblase schlecht da steht - wissen wir nicht)



Bzgl. meiner Beispielrechnung schlage ich vor, dies in PNs oder einen Chat zu verlagern, wenn du noch fragen hast.

Dann gern die Beispielrechnung in einer PN erklären. Wobei ich mir gut vorstellen kann, dass das noch andere interessiert und es ist IMO auch nicht offtopic.

Tobalt
2024-01-15, 16:36:39
Update: Robbi hatte mich auf einen Rechenfehler hingewiesen:

Wenn ein Monitor eine Maximalhelligkeit in einem Fenster angibt, dann ist es eben dieser Bruchteil, der bei optimaler Umsetzung mit Rolling Strobe an Helligkeit übrigbleibt. Dies nimmt an, dass selbst bei nur ms Leuchtdauer die Helligkeit nicht mehr ist, als eben diese Fenster-Spezifikation. Diese Annahme ist extrem konservativ.

Bei 1000 nit im 10% Fenster bleiben also bestenfalls 100 nit Durchschnittshelligkeit über (konservativ gerechnet).

IMO ist dies ein brauchbarer Wert (im vergleich mit gestrobten LCDs), deshalb schade dass die OLED Gaming Monitore nichts dergleichen anbieten. Wenn ich vierstellig für einen Monitor hinlege, fordere ich ein solche Feature.

Gast
2024-01-15, 16:38:06
Dann wirds aber auch wieder leider kompromissbehaftet. HDR sieht wirklich phantastisch aus. SDR wäre schon ein Rückschritt.



Selbstverständlich ist es ein Kompromiss, Strobing ist war und wird immer ein Kompromiss sein, die einzige Lösung die kein Kompromiss ist sind echte Hz.

robbitop
2024-01-15, 16:49:23
Selbstverständlich ist es ein Kompromiss, Strobing ist war und wird immer ein Kompromiss sein, die einzige Lösung die kein Kompromiss ist sind echte Hz.
Linus sagt ja dass 360 Hz der blurbusters Test super gut aussieht auf dem 1440p QDOLED. Fast so gut wie ein Standbild sagt er.

Nightspider
2024-01-15, 18:29:36
Wobei die 3000 Nits von den 2024 TVs nur für ein 3% Window sind IIRC. Die 1000 Nits die oben angenommen waren, werden bei existierenden TVs bis zu 10% erreicht. Also es müssen schon die gleichen Kategorien verglichen werden. Ansonsten vergleichen wir ja Äpfel mit Bananen.

Würde bei Strobing bedeuten, das dich 10% der Fläche, was schon sehr viel ist, mit durchschnittlichen (wahrgenommenen)1000 Nits blenden kann, wenn das Panel ca. 30% der Zeit Licht abgibt.

Bei meinen bisherigen HDR Erfahrungen waren immer nur winzig kleine Bildinhalte mit sehr hoher Helligkeit.
Der Großteil des Bildes bewegt sich doch irgendwo um 200-300 Nits Bereich herum.

Gast
2024-01-15, 20:58:09
Linus sagt ja dass 360 Hz der blurbusters Test super gut aussieht auf dem 1440p QDOLED. Fast so gut wie ein Standbild sagt er.

Na dann, warum noch strobing?

Wenn die Hz hoch genug sind kann strobing auch nix mehr bringen. Auf der anderen Seite wird natürlich auch der Helligkeitsverlust geringer je höher die Basisreefreshrate ist.

Wie auch imemr die einzig echte kompromisslose Lösung sind echte Hz.

Tobalt
2024-01-16, 08:25:02
In der Tat, aber es gibt eben eine deutliche Diskrepanz:

- Um bei üblichen Bewegungen auf dem Monitor keine Bewegtschärfe mehr zu sehen, brauchst du ungefähr 1 ms oder weniger Persistenz. Bei voller Beleuchtung wären das 1000 fps.

- Die Empfindlichkeit für Input Lag varriert natürlich sehr stark aber liegt wohl eher in der Größenordnung von 5 ms Maus-zu-Auge, wobei viele auch mit über 10 ms Maus-zu-Auge noch nichts merken. Ich war da früher zu CRT Zeiten auch mal deutlich empfindlicher.


Es reichen also ~200-300 "echte" Frames pro Sekunde aus um ein lagfreies Inputgefühl zu erzeugen. Hingegen braucht man 1000+ fps um die Bewegtschärfe (bei voller Persistenz) weg zu kriegen.

Die Lösung (und die ist wie alles in der Computergrafik natürlich erstmal band aid) ist Zwischenbildberechnung. Ist aber momentan weder populär noch besonders gut.

Da ist auch vor allem auch wieder ein PR Problem. Wenn man Frame Generation als Lösung vorschlägt um von 30 fps auf 60 fps zu kommen, ist das ein Schuss ins Knie, da wegen Lag für viele ein grauenhaftes Spielgefühl. Würde man Frame Generation von vornherein als Lösung gegen Motion Blur propagieren (wie es ja im TV Bereich sein Ewigkeiten genutzt wird), also für den Einsatz bei ohnehin hohen FPS vorsehen, dann wäre die Akzeptanz wohl viel höher.

Und vor allem: der Grundsätzliche Fehler ist es ja diese ganzen Interpolationsaufgaben wie temporales Upsampling oder eben auch Frame Generation auf der GPU auszuführen. Diese Aufgaben gehören ins Anzeigegerät, damit der Display Link nicht sinnlos limitiert. Wäre das der Fall gäbe es heute sicher schon Monitore mit 1000 Hz @ 4k. Aber gut, Salamitaktik verkauft sich im Monitorbereich halt hervorragend.

Platos
2024-01-16, 13:34:16
Linus sagt ja dass 360 Hz der blurbusters Test super gut aussieht auf dem 1440p QDOLED. Fast so gut wie ein Standbild sagt er.

360Hz mit Strobing oder ohne?

robbitop
2024-01-16, 16:42:12
360Hz mit Strobing oder ohne?
Ohne


Es reichen also ~200-300 "echte" Frames pro Sekunde aus um ein lagfreies Inputgefühl zu erzeugen. Hingegen braucht man 1000+ fps um die Bewegtschärfe (bei voller Persistenz) weg zu kriegen.

Die Lösung (und die ist wie all
Zum Glück ist es ja kein schwarz/weiß. Und mein Eindruck ist, dass es ein wenig dem Gesetz des sinkenden Grenzertrags folgt. Will sagen mit 240 Hz+ und einem OLED ist man nicht perfekt aber auch nicht dort, wo wir noch vor ein paar Jahren sind. Und ggf. ist es ab einem gewissen Punkt zwar nicht perfekt aber für den einen oder anderen "gut genug". :)



Und vor allem: der Grundsätzliche Fehler ist es ja diese ganzen Interpolationsaufgaben wie temporales Upsampling oder eben auch Frame Generation auf der GPU auszuführen. Diese Aufgaben gehören ins Anzeigegerät, damit der Display Link nicht sinnlos limitiert. Wäre das der Fall gäbe es heute sicher schon Monitore mit 1000 Hz @ 4k. Aber gut, Salamitaktik verkauft sich im Monitorbereich halt hervorragend.
Das macht zwar von der Displaylinkbandbreitensicht her Sinn - aber gutes Motion interpolation braucht Zugriff auf eine Menge Dinge der Gameengine (Motion Vectors, ggf. noch Z Buffer / G Buffer etc. - Zeug was in der GPU eh für den jeweiligen Frame vorhanden ist) und diese dann auch mit sehr niedriger Latenz und wahrscheinlich nicht geringem Bandbreitenbedarf. Ich weiß ehrlich gesagt nicht, ob das am Ende noch sinnvoll ist.
Wenn es um reines Interpolieren geht wie AMDs AFMF geht - dann ja. Aber wirklich befriedigend ist die Lösung wahrscheinlich dann eher nicht. Wir wollen ja mindestens heutiges Niveau von DLSS3 erreichen und dazu braucht es einiges an Daten aus dem jeweiligen Frame und von vorhergeneden Frames. Und sicherlich noch etwas an Compute.

Rooter
2024-01-16, 19:18:00
@Rooter: kannst du nicht auch den Monitor alleine messen? Hast du VSync an?Hab mir jetzt doch mal die Zeit genommen, PC und Monitor auseinanderzudröseln. Ergebnis wie erwartet, der ollen RX570 machen mehr als 120 Hz Stress. :uponder:

https://imgur.com/cnbQOit.png

MfG
Rooter

Hübie
2024-01-16, 20:50:19
Das macht zwar von der Displaylinkbandbreitensicht her Sinn - aber gutes Motion interpolation braucht Zugriff auf eine Menge Dinge der Gameengine (Motion Vectors, ggf. noch Z Buffer / G Buffer etc. - Zeug was in der GPU eh für den jeweiligen Frame vorhanden ist) und diese dann auch mit sehr niedriger Latenz und wahrscheinlich nicht geringem Bandbreitenbedarf. Ich weiß ehrlich gesagt nicht, ob das am Ende noch sinnvoll ist.
Wenn es um reines Interpolieren geht wie AMDs AFMF geht - dann ja. Aber wirklich befriedigend ist die Lösung wahrscheinlich dann eher nicht. Wir wollen ja mindestens heutiges Niveau von DLSS3 erreichen und dazu braucht es einiges an Daten aus dem jeweiligen Frame und von vorhergeneden Frames. Und sicherlich noch etwas an Compute.

Iirc geht FMF sowie so aus, sobald die Bewegung zu schnell ist. Minuspunkt, da hier Bewegungsdaten fehlen. Wäre also per FPGA nicht sinnvoll umsetzbar.

Übrigens finde ich es witzig, dass eines der Stichwörter dieses Threads "Niemals" ist. Denn das ist irgendwie treffend. Niemals wird es Monitore geben, die alles bieten und jede Anforderung abdecken. :-D

Tobalt
2024-01-16, 20:53:48
robbi, mit Temporal Upsampling hast du wohl recht. Aber ein plumper ZBB Algo braucht diese Daten nicht. Sieht doch bei TVs auch schon ganz brauchbar aus. Es muss nicht perfekt aussehen, wenn man eh schon 200+ echte Basisframes hat.

Die andere Alternative wäre wohl deutlich mehr Compression. Gerade bei 1000 fps kann man feine spatiotemporale Details locker entfernen, weil man die einfach nicht wahrnimmt. Dh. selbst ein auf Standbilder bezogen lossy Algorithmus ist für den Live ablaufenden Stream visually lossless. Das Problem ist wohl einzig und allein die Latenz beim Komprimieren. Von der Bandbreite her würde wir ein 4k 1000 fps Material selbst mit 10 bit wohl locker in aktuelle Linkformate quetschen können mit 80 Gbps. Das wäre ja in etwa die Qualität eines 5000 Mbps streams in 4k 60 Hz. Also ca. die 100 fache Bitrate eines guten YT streams.

RavenTS
2024-01-16, 22:19:27
Hab mir jetzt doch mal die Zeit genommen, PC und Monitor auseinanderzudröseln. Ergebnis wie erwartet, der ollen RX570 machen mehr als 120 Hz Stress. :uponder:

https://imgur.com/cnbQOit.png

MfG
Rooter

Danke dir! Hätte mich doch auch sehr gewundert und nachdenklich gemacht, wenn der Monitor so stark zugelegt hätte bei den paar Hz zusätzlich.

Platos
2024-01-17, 20:24:10
Hab mir jetzt doch mal die Zeit genommen, PC und Monitor auseinanderzudröseln. Ergebnis wie erwartet, der ollen RX570 machen mehr als 120 Hz Stress. :uponder:

https://imgur.com/cnbQOit.png

MfG
Rooter

27" und 165Hz und so wenig Stromverbrauch?

Das wäre aber ziemlich effizient. Sicher, dass da kein Mist gemessen wurde oder das Messgerät Fehlerhaft ist? Das sieht so nach ~ 12Watt aus.

Rooter
2024-01-17, 20:44:50
Das Messgerät ist ein alter "Voltcraft Plus Energy Monitor 3000", das seinerzeit als gutes Messgerät galt (ab 2W aufwärts zumindest).

Der Grund für den geringen Verbrauch dürfte sein, dass ich die Helligkeit des Monitors auf 5/100 stehen habe. ;) Und nein, das ist nicht dunkel.

MfG
Rooter

Platos
2024-01-18, 03:47:30
Dann wird es wohl an der Auflösung liegen?

Weil mein 60Hz 27" 4k IPS Monitor habe ich auf 0 von 100 Helligkeit und trotzdem verbraucht er noch 17-18Watt (0 ist natürlich nicht = keine Helligkeit).

Meiner ist natürlich auch zusätzlich jetzt nicht grad der effizienteste (Im alten Index glaube ich B), aber dafür ist er nur 60Hz und nicht 165Hz. Daher muss es wohl an der Auflösung liegen.

Interessant finde ich auch, dass der Stromverbrauch zwischen 60Hz und 165Hz so klein ist. Der Unterschied kommt also im Endeffekt immer auf der PC Seite. In deinem Fall glaube ich aber an eine a) Unterdimensionierung der Graka (sie muss hochtakten) oder aber b) irgend eine AMD typische Schwäche (AMD ist ja jetzt nicht gerade bekannt dafür, stromsparend zu sein bei exotischen Monitorsetups wie 165Hz oder sowas).

Savay
2024-01-18, 18:52:16
In der Regel ist diese "Schwäche" der Speichercontroller der ab nem gewissen Punkt nicht mehr bedarfsgerecht runtertaktet wenn die DisplayEngine zuviel Daten hin und her schieben muss.

Ist irgendwie gefühlt bei allen A-Sync fähigen Karten mit GDDR5/6 so...
Einzig Vega mit HBM hatte das Problem afair nie...
Bei den APUs mit (LP)DDR4/5 bin ich mir grade nicht sicher, aber ich glaube die haben das Problem auch nicht.

Ist also eigentlich weniger eine "AMD Schwäche" als geschätzt eine spezifische "GDDR IP" Schwäche.

Ferengie
2024-01-21, 23:10:22
Bei mir ist es der ASUS ROG Swift OLED PG49WCD geworden.

Mit ClearType und 125% ist er brauchbar.
Auch wenn ClearTyp mit RGB nicht das QD-OLED Subpixel Problem beheben kann, es ist aber besser.
Aber die OLED Pros (Reaktionszeit, Farbe im Glare Display, Kontrast, wenig Schlieren) sind zuuu überzeugend.
Hatte noch vorher ein MiniLED getestet, aber der OLED überzeugt auch bei der Helligkeit.

In der Mitte ein 27"(2560x1440) und links/rechts zwei halbe 27" Fenster, so sind die 49" sinnvoll geteilt.

r3ptil3
2024-01-27, 20:07:26
Hat hier jemand Erfahrung mit dem Innocn 32M2V?

Auf Reddit etc. schwärmt praktisch jeder Besitzer davon.

Nur um mal paar Eckdaten zu nennen:
HDR 1000 (soll anscheinend das hellste Panel haben von allen ähnlichen Modellen wie ASUS etc.)
Mini-LED
4k
144 Hz
Anscheinend auch aber PWM, um die Helligkeit zu regulieren.
Gemäss RTINGS (haben das 27er Modell getestet), ist die Frequenz aber so hoch, dass man nichts merkt. Angenehm ist es aber nicht gerade.

Wollte eigentlich auf den AW3225QF warten, aber der für mich zwei Nachteile: Preis (weit über 1000 Euro), Stromverbrauch...
Den INNOCN könnte ich jetzt auf Amazon für 640 Euro bestellen.

Simon
2024-01-27, 20:51:39
Den Innocn hatte ich auch in der Auswahl. Die kritischen Reviews auf Amazon.com sprechen alle von schlechter Qualität und Problemen mit VRR:
[UPDATE] After using it for over a month now I've noticed some games have a really bad stutter issue. I believe it could be related to the VRR processing because it only happens in games that don't have a consistent stable frame rate. A monitor at this price range should not have terrible VRR!

[UPDATE 2] The monitor has started randomly losing signal for about 2 seconds. I thought it was Nvidia drivers so I uninstalled with DDU and reinstalled, I then later on bought a new PC with a fresh install of Windows 11 and it still happens. This thing seems to be getting worse by the week. I've only had it for 3 months...

I have this monitor hooked up to an M1 MacBook Air, an Xbox Series S, and a PS4. For the price, this monitor knocks it out of the park. Colors pop with the HDR, and the refresh rate on the MacBook (144hz) and Xbox Series S (120hz) makes a huge difference. Overall, I would recommend this monitor to anyone. I would probably rate this a 4.5 stars (downward cable connectivity is a bit awkward) but the price alone makes this worthy of a full 5-star rating.

UPDATE (25 May 23): Monitor has stopped working after just over 3 months. Won’t turn on, is still receiving power because the usb c is powering a speaker. Will update again once the service process is complete. So far unimpressed by the company’s response.

UPDATE (4 July 23): Still no replacement for my monitor. I do no recommend purchasing items from this company.