PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 [71] 72

Cubitus
2024-03-29, 12:21:15
Es passiert auch auf keinem Monitor. Ist das gut wenn man das selbst, je nach Gerät und spiel einstellen müsste? In den Spielen gibt es ab und dann Tonemapping Optionen oder wenn dann reshade..

Glaube nicht das man per default davon ausgehen kann, da HGiG ja eher eine Empfehlung als ein Standard ist. Zudem gibt es diverse Modis und Gameoptionen in den Monitoren welche ihr eigenes Süppchen kochen.

Für mich ist das schwer nachvollziehbar und überhaupt nicht transparent.

Tesseract
2024-03-29, 12:31:34
du willst also HGiG um es ausschalten zu können damit der monitor irgendein auto-tonemapping macht? ich verstehe echt nicht was du mir sagen willst. meines wissens entspricht das verhalten von monitoren dem von TVs mit HGiG und das ist genau so wie es sein soll wenn man auf qualität wert legt.

Cubitus
2024-03-29, 12:36:57
Das ist die Frage, entspricht das Verhalten eines Monitors dem HGiG Tonemapping oder nicht? Aus praktischer Sicht kann ich sagen nein, da der Alienware out of the Box in cyberpunk und in Avatar furchtbar gestrahlt hatte. Beim C3 mit Game-Mod + HGiG war das HDR korrekt und nicht überblendet. Ich kann das Tonemapping beim c3 auch komplett deaktivieren. Ich glaube das entspricht eher dem Standard der Monitore, da hast dann aber das Thema das du das Tonemapping im spiel oder mit reshade auf dein gerät anpassen solltest.

Relex
2024-03-29, 12:37:30
Das Problem ist, dass man nicht weiß, ob und in welchem Umfang die Monitore Tonemapping betrieben.

Gäbe es eine Option "HGIG -> An" dann könnte man sicher sein, dass der Tonemapper abgeschaltet ist. Da es die Option nicht gibt, geht man davon aus, dass Tonemapping aktiv ist.

Mein 1440p IPS LCD den im am Desktop nutze kann auch HDR. Das Ist natürlich kompletter Schrott, aber der hat auch keine Option für HGIG sondern nur zwei unterschiedliche Modi für HDR. Cinema und Game oder so. Und beide verfälschen das Bild sehr stark. MMn. ist da dynamic tonemapping in beiden Modi aktiv. Zumindest mein Monitor hat also mit ziemlicher sicherheit keine Möglichkeit, HDR content 1:1 ohne Tonemapping darzustellen, wie es mit HGIG möglich wäre.


Ich wäre davon ausgegangen, dass das bei den OLED Monitoren mittlerweile standard ist. Schließlich ist es bei TVs auch seit ewigkeiten Standard, hat ja mein LG OLED von 2020 auch...

Tesseract
2024-03-29, 12:44:38
Das Problem ist, dass man nicht weiß, ob und in welchem Umfang die Monitore Tonemapping betrieben.

dafür gibt es in guten reviews doch luminance graphen und die waren bei den neuen OLEDs ziemlich unauffällig.

Platos
2024-03-29, 12:50:17
Das Tonemapping des Displays wird vollständig deaktiviert. Alle Helligkeitswerte werden unverfälscht, also 1:1 so dargestellt wie sie gesendet werden.

Das macht bei Spielen insbesondere deswegen Sinn, weil du ja im Spiel einstellen kannst, wie hoch die Maximale Helligkeit deines Displays ist.

Es gibt also keinen Grund dafür, dass das Display nochmal selbst tonemapping machen muss, das macht ja bereits das Spiel selbst. HGIG ist genau dafür gedacht.

Es kann daher (korrekt eingestellt) gar nicht passieren, dass das Helligkeitsvolumen des Quellmaterials und deines Displays unterschiedlich ist und nicht zueinander passt. Denn nur für diesen Fall kann Tonemapping sinnvoll sein und der Fall ist bei Spielen idr. ausgeschlossen.
Bei Filmen ist eigentlich auch sehr selten Tonemapping notwendig, weil die meisten Filme weniger als 1000 nits maximalhelligkeit nutzen. Tonemapping wäre nur dann sinnvoll, wenn die Maximahelligkeit des Quellmaterials sehr weit über den Möglichkeiten des Displays liegt. Dann würde der Tonemapper die Helligkeitswerte neu interpretieren und auf die Helligkeit des Displays runterrechnen. Jedoch mit dem Risiko, dass das Bild total verfälscht wird. Ohne Tonemapper (also mit HGIG) hat man dann einfach nur clipping und alles was über die Helligkeitswerte hinausgeht würde abgeschnitten werden und als 100% Weiß dargestellt werden. Je nach Grading des Quellmaterials kann das dann wenn man glück hat normal aussehen oder in einem stark überbelichtetem Look enden.


Also zusammengefasst:

Quellmaterial Max nits = Max Nits Display -> HGIG (Dynamic Tonemapping off) ist optimal
Quellmaterial Max Nits < Max Nits Display -> HGIG (Dynamic Tonemapping off) ist optimal. Optional Tonemapper an -> Bild wird aufgehellt (wers mag, ist aber inkorrekt)
Quellmaterial Max Nits > Max Nits Display -> Tonemapping an = optimal mit dem Risiko auf ein verfälschtes Bild. HGIG würde für clipping in den Highlights sorgen und wäre damit idr. das größere Übel.

Danke für die super Erklärung.

Was ist denn, wenn man die Grundhelligkeit bei einem HDR-Monitor/TV runter stellt (wenn HDR aktiv ist)? Betrifft das dann auch die Peak-Helligkeit? Das ist vlt. weniger eine HGiG Frage und mehr eine grundsätzliche "HDR"-Frage.

Und was heisst eig. "korrekt" eingestellt? Meinst du jetzt im Spiel korrekt? Und was soll korrekt da bedeuten?

Relex
2024-03-29, 13:04:29
Danke für die super Erklärung.

Was ist denn, wenn man die Grundhelligkeit bei einem HDR-Monitor/TV runter stellt (wenn HDR aktiv ist)? Betrifft das dann auch die Peak-Helligkeit? Das ist vlt. weniger eine HGiG Frage und mehr eine grundsätzliche "HDR"-Frage.

Und was heisst eig. "korrekt" eingestellt? Meinst du jetzt im Spiel korrekt? Und was soll korrekt da bedeuten?


Korrekt heißt in dem Fall, dass die im Spiel eingestellte Maximalhelligkeit dem entspricht was das Display tatsächlich darstellen kann.

Mein LG OLED schafft im Peak 800 nits. Also muss auch im Spiel 800 nits als maximum eingestellt werden.
Das Spiel kümmert sich dann vollständig ums Tonemapping und weiß, dass das Bild so abgestimmt werden muss, dass die hellsten Highlights maximal 800 nits haben.

Jetzt kann es natürlich sein, dass im Spiel mal eine Szene vorkommt, die nur maximal 400 nits oder so erreicht, weil einfach keine hellen Highlights im Bild sind. Dann soll der TV das natürlich auch so darstellen.

Wenn jetzt HGIG aus ist und somit der Dynamische Tonemapper aktiv, dann würde das Display in einer Szene mit 400 nits eingreifen und sich denken "hey, das kann ich doch viel besser darstellen, du schickst mir 400 nits, ich kann aber 800, also mach ich das Bild heller: Hier bitteschön, hier hast du ein helles Bild"

Nur will ich das natürlich nicht. Wenn das Spiel 400 nits schickt, dann will ich auch dass 400 dargestellt werden, weil das Spiel ja weiß, dass auch 800 möglich wären. Der Dynamic Tonemapper geht aber davon aus, dass 400 nits das maximum sind und entscheidet sich dann die Helligkeit zu boosten.



Sorry, für den vielen Text, aber ich dachte ich schreibe es mal praxisnaher. Vielleicht hilft das dann nochmal.


Was passiert, wenn man die Maximalhelligkeit des Displays regelt weiß ich ehrlich gesagt nicht. Das erwartete Verhalten mit HGIG wäre, dass wenn ich den TV auf beispielsweise 600 nits begrenze auch alles über 600 nits eingangssignal abgeschnitten wird und ins clipping geht. Sprich ich müsste das SPiel dann auch entsprechend runter stellen.

Oder es wäre auch möglich, dass hier doch nochmal eine Art tonemapping greift und das native Helligkeitsvolumen gestaucht wird. Sprich 800 nits eingangssignal werden auf den entsprechend niedrigeren tatsächlichen Wert gemapped. Keine Ahnung, was dann passiert...

Savay
2024-03-29, 13:51:22
Also wenn du die max. Helligkeit im Spiel unter dem Limit des Displays einstellst passiert selbst ohne HGiG eigentlich überhaupt nichts wesentliches!

Die Monitore nutzen zudem default ja wirklich absolut Basic HDR10 ohne irgendwelche drauf gefrickelten Tonemapper...das einzige Mapping was da stattfindet ist ggf. ein leichter Rolloff am oberen Ende...aber auch nicht immer und nicht in jedem HDR Profil.
https://tftcentral.co.uk/wp-content/uploads/2024/02/hdr_console_1.png

Zudem ist der nicht standardisierte dynamische Tonemapper in den TVs eigentlich ja eine Option die man auch ganz ohne HGiG ausmachen kann.
Wie das mit DV aussieht ist ne andere Geschichte...aber gibt eh kaum DV Content für den PC und ist in dem Fall wahrscheinlich eh durch Dolby zertifiziert.

Ich konnte mit dem MSI bisher ehrlich gesagt auch keinen signifikanten Unterschied zum LG TV mit HGiG ausmachen, der nicht eher dem Unterschied zwischen WOLED und QD-OLED geschuldet wäre.

PS:
VESA HDR True Black xxx kommt m.W. sogar grundsätzlich ohne jeglichen Rolloff daher...

Relex
2024-03-29, 14:27:23
Das klingt einleuchtend und wäre auch das was ich erwarten würde.

Nur komisch dass Cubitus dann ein für ihn unstimmiges Bild bemerkt hat.

Na ja, werd ich mir bei Gelegenheit auch irgend wann mal selbst ansehen müssen, wenn ich meinen Monitor am Schreibtisch auch noch gegen einen OLED tausche.

Savay
2024-03-29, 14:36:06
Der Dell scheint je nach HDR Modus da ggf. doch etwas stärker die PQ Kurve zu modifizieren.
https://tftcentral.co.uk/reviews/dell-alienware-aw3225qf

HDR Peak 1000 ist lt. TFT Central wohl am genauesten für HDR10.
Und DV scheint halt generell nicht unproblematisch zu sein am PC...

Der MSI hat sowieso eigentlich nur 2 HDR Modi...HDR True Black 400 und Peak 1000.
Letzterer entspricht anscheinend nahezu dem True Black Modus, lässt aber für kleinere APL mehr Helligkeit zu.

Platos
2024-03-29, 15:40:59
Was passiert, wenn man die Maximalhelligkeit des Displays regelt weiß ich ehrlich gesagt nicht. Das erwartete Verhalten mit HGIG wäre, dass wenn ich den TV auf beispielsweise 600 nits begrenze auch alles über 600 nits eingangssignal abgeschnitten wird und ins clipping geht. Sprich ich müsste das SPiel dann auch entsprechend runter stellen.

Oder es wäre auch möglich, dass hier doch nochmal eine Art tonemapping greift und das native Helligkeitsvolumen gestaucht wird. Sprich 800 nits eingangssignal werden auf den entsprechend niedrigeren tatsächlichen Wert gemapped. Keine Ahnung, was dann passiert...

Ok, aber ich habe noch nie eine Möglichkeit in einem Spiel gesehen, irgendwelche nits-Werte einzustellen. Du meinst also sowas, wo man die Helligkeit so einstellen soll, dass dieses eine Symbol kaum mehr sichtbar ist?

Und wie ist das denn bei Filmen? Wer regelt da, wie die Helligkeit optimal eingestellt ist?

Aber es gibt ja schon viele Leute, die ihren Monitor weit unter 100% Helligkeit betreiben. Wäre schon interessant zu wissen, was in diesem Fall passiert. Vlt. spielt das aber auch keine Rolle. Ich meine, wenn man im Spiel die Helligkeit so einstellt, dass es auf dem bereits gedimmten Display "stimmt", dann müsste das ja alles passen oder?

Aber nochmals die Frage: wie wird das bei Filmen gemacht? Bei Spielen muss man einstellen, aber wer stellt das beim Film ein und wie erkennt man die maximale Helligkeit des Displays in dem Fall?

Gast
2024-03-29, 18:10:26
Gäbe es eine Option "HGIG -> An" dann könnte man sicher sein, dass der Tonemapper abgeschaltet ist. Da es die Option nicht gibt, geht man davon aus, dass Tonemapping aktiv ist.


Selbst mit HGIG braucht es immer noch Tonemapping, es sei denn du begrenzt die Helligkeit auf das was dein Monitor mit 100% APL darstellen kann.

Wenn die Fläche die mit höherer Helligkeit dargestellt werden soll größer ist, als was dein Monitor kann braucht es Tonemapping um das vernünftig darstellen zu können.

Cubitus
2024-03-29, 18:42:59
Das klingt einleuchtend und wäre auch das was ich erwarten würde.

Nur komisch dass Cubitus dann ein für ihn unstimmiges Bild bemerkt hat.

Na ja, werd ich mir bei Gelegenheit auch irgend wann mal selbst ansehen müssen, wenn ich meinen Monitor am Schreibtisch auch noch gegen einen OLED tausche.

Spiel Avatar oder cyberpunk mit und ohne HGiG. Der Unterschied ist brachial.

Gerne mit nem Monitor gegentesten

Cubitus
2024-03-29, 19:03:50
Der Dell scheint je nach HDR Modus da ggf. doch etwas stärker die PQ Kurve zu modifizieren.
https://tftcentral.co.uk/reviews/dell-alienware-aw3225qf

HDR Peak 1000 ist lt. TFT Central wohl am genauesten für HDR10.
Und DV scheint halt generell nicht unproblematisch zu sein am PC...

Der MSI hat sowieso eigentlich nur 2 HDR Modi...HDR True Black 400 und Peak 1000.
Letzterer entspricht anscheinend nahezu dem True Black Modus, lässt aber für kleinere APL mehr Helligkeit zu.

Ja TFT Central empfiehlt auch 12 bit mit HDMI das dies unter Windows games zu Problemen führen kann mal außer Acht gelassen. HDRPeak 1000 überstrahlt cyberpunk heftig. Teilweise sind Reklame und Leucht Reklame an Gebäuden nicht mehr gut erkennbar..

Das Reviewer HGiG in keinem Zug erwähnen, kann auch an Inkompetenz anstatt dem Status QUO das es ja sowieso möglich oder vielleicht gehen könnte, liegen

Deisi
2024-03-29, 19:11:57
Hast du evtl das Paperwhite auf 1000nits gestellt?

Savay
2024-03-29, 19:13:35
Done...der MSI sieht mit "Peak 1000" wie gesagt nahezu exakt genauso aus wie der C3 mit HGiG.

Cubitus
2024-03-29, 19:23:04
Gugg dir mal die major Werbung in cyberpunk an ohne und mit HGiG und sag mir was unter der Reklame steht. Oder teste mal Avatar und gugg auf die Steine mit HGiG und ohne

fulgore1101
2024-03-29, 19:31:18
Ich hab eine allgemeine Frage zum Thema Bildschärfe im Desktop Betrieb. Kann der eine 27'' 1440p Monitor ein dezent schärferes Bild haben als der andere mit identischen Eigenschaften?
Beide laufen natürlich in 1440p, keiner von beiden hat eine Schärfefunktion, beide laufen mit gleicher Windows- und Browserskalierung, clear Type Einstellung wurde nicht geändert, das Coating ist sehr ähnlich bzw gleich. Einziger Unterschied sind die Panels. Der schärfere ist ein IPS, der andere ein VA mit quantum Dot.

Einbildung oder kann das wirklich sein?

y33H@
2024-03-29, 19:49:47
Subpixel Struktur und Coating zusammen, wäre für mich plausibel.

Evil Ash
2024-03-29, 21:26:53
Gugg dir mal die major Werbung in cyberpunk an ohne und mit HGiG und sag mir was unter der Reklame steht. Oder teste mal Avatar und gugg auf die Steine mit HGiG und ohne

"major Werbung" in Cyberpunk ...
Wo finde ich die bzw. kannst du einen Screenshot der Stelle posten? Danke. :)

Savay
2024-03-29, 22:07:45
Ich weiß ehrlich gesagt auch nicht was er damit meint.
Hab grade noch mal ne Stunde CP2077 gezockt und immer mal wieder die Optionen beim LG umgestellt und zwischen LG und MSI gewechselt.

Kann auf dem LG natürlich einen unterschied zwischen Dynamic Tonmapping On/Off und HGiG sehen...aber bisher keinen der auch nur Ansatzweise irgendwelchen Text unlesbar macht oder das Erlebnis komplett umkrempelt.
Tonemapping Off und HGiG sieht dabei im Grunde wirklich sehr ähnlich aus...letzteres hat aber tw. ein leicht besseres Rolloff in den Highlights.
Der Unterschied ist bisher aber noch recht subtil und äußerst Szenenabhängig und deutlich seltener zu sehen als der zwischen Dynamic Tonemapping On vs. HGiG...

Der MSI sieht mit Peak 1000 dann wie schon gesagt weiterhin für mich bisher nahezu so aus wie der LG mit HGiG.

Cubitus
2024-03-30, 08:41:11
Ich habe aktuell keinen Zugriff auf meinen PC, poste euch morgen abend ein paar Vergleiche, dann seht ihr was ich meine. :)

Lurtz
2024-03-30, 22:41:05
Digital Foundry empfehlen übrigens 1440p - insbesondere für Mittelklasse-Systeme, aber auch für 4090 und Co, solange das Display nicht zu groß wird ;)

CbyvWF--7o0

Relex
2024-03-30, 23:36:56
Da kann ich nur sagen: Warum nicht beides? :D


Aber interessant, dass das Thema bei DF auch aufschlägt. Wurde hier ja auch schon seitwenweise diskutiert. Aber ich bleib dabei. Es gibt hier keine definitive Antwort.

4K lohnt sich extrem für die Optik. Selbst mit Upscaling. Gerade wer Singleplayer Games mit bester Optik genießen will, der kommt um 4K einfach nicht herum.


Und in 1440p mit Quality Upscaling gehen die FPS eben durch die Decke, insbesondere mit Frame Generation. So ein fluffiges und irre smoothes gameplay ohne die Grafik runterschrauben zu müssen, hat schon auch was. Da kommt man eben in 4K selbst mit Performance Upscaling nicht annähernd ran.

1ch0
2024-03-31, 00:19:16
Wer einmal 4K hatte, will nich mehr zurück. 1440p.. Bäh..

Slipknot79
2024-03-31, 00:27:51
Da kann ich nur sagen: Warum nicht beides? :D



Ist halt immer wieder die Frage was man spielt. (y)
4k für "ältere" AAA-Games ist kein Problem mit einer 4090.
Für aktuelle und zukünftige AAA-Games in 4k taugt nicht mal die 4090 was. (y)
Sehr guter Kompromiss ist 1440p (oder UWQHD) mit DLDSR 2,25x (+DLSS wenn verfügbar) (y), liefert ein knackiges Bild mit sehr guten fps. Notfalls kann man immer noch auf nen fallback auf 1440p oder UWQHD zurückgreifen wenn der 4090 die Puste ausgehen sollte.

Asaraki
2024-03-31, 00:52:36
Wer einmal 4K hatte, will nich mehr zurück. 1440p.. Bäh..

Gilt für alles... deshalb rate ich meinen budget-limitierten Freunden auch zu langsamen Upgrades, dann ist dafür alles balanciert (HW/Auflösung)

aufkrawall
2024-03-31, 01:48:51
DLDSR 2,25x (+DLSS wenn verfügbar) (y), liefert ein knackiges Bild
Wohl eher zermatschtes Bild:
https://youtu.be/YiU-WpXYxoc?t=837

Das sieht aus wie Schrott gegen DLAA oder TSR Epic 100%.

Slipknot79
2024-03-31, 04:02:25
Da ist in DLDSR 2,25x (DLSS-Q) überhaupt nix "zermatscht", nicht mal mit 400% Lupe mit der sowieso niemand spielt.
Das Bild ist knackig und scharf mit alles.

DLAA ballert die fps zusammen (warum nicht gleich 8k anschmeißen) und sieht ingame in 100% weder besser noch schlechter aus.

TheCounter
2024-03-31, 08:37:17
Wer einmal 4K hatte, will nich mehr zurück. 1440p.. Bäh..

Kann ich so nicht unterschreiben. Ich bin von 77" 4K auf 27" und 44,5" (WQHD) 1440p gewechselt. Das Bild ist minimal unschärfer, ja. Aber das fällt kaum auf.

Troyan
2024-03-31, 10:23:06
Digital Foundry empfehlen übrigens 1440p - insbesondere für Mittelklasse-Systeme, aber auch für 4090 und Co, solange das Display nicht zu groß wird ;)

https://youtu.be/CbyvWF--7o0

Der einzige Grund heute noch 1440p zu kaufen ist: Geld und hohe Hz.

Ansonsten macht 1440p in Zeiten von DLSS überhaupt kein Sinn mehr, da DLSS-Q <10% langsamer ist, dabei aber auf einem 4K Monitor deutlich besser aussieht als nativ 1440p auf einem 1440p Monitor.

woodsdog
2024-03-31, 11:03:12
macht keinen Sinn mehr in deiner Grünen Fainboi Welt, für 96,5% der Steamspieler hingegen schon.

ChaosTM
2024-03-31, 11:27:37
Jeder wie er glaubt.
Und wir sind hier im 3Dcenter, wo auch überdurchschnittlich viele User eine 4090er haben.
Sicher um Welten mehr als statistisch auf Steam.

fulgore1101
2024-03-31, 11:41:43
An die militante 4k-Fraktion:

Welchen bezahlbaren Monitor mit guten HDR Eigenschaften, geradem Panel und brauchbarer Entspiegelung empfehlt ihr? Bin gespannt.


Subpixel Struktur und Coating zusammen, wäre für mich plausibel.

Die Subpixel Struktur ist bei VA und IPS unterschiedlich? Das Coating ist sehr ähnlich, aber vielleicht macht das wirklich den kleinen Unterschied.

ChaosTM
2024-03-31, 11:49:46
Einen 42er LG TV - vom P/L Verhältnis her die mit Abstand beste Lösung. Wenn man genug Platz hat und glossy kein Problem ist.

Militant ist aber ein etwas zu starkes Wort. Höhere Pixeldichten sind generell zu bevorzugen, da angenehmer und schonender für die Augen. Wir haben am Handy ja auch keine 480p Displays mehr.

Troyans Argument ist in der tat etwas zu grün gefärbt. :)
+ es stimmt aber..

Hardcoregamer
2024-03-31, 11:59:44
Kommt halt immer auf die persönlichen Bedürfnisse an.

Ich würde z.B. nur auf WUHD und OLED wechseln. Da gibt es noch nichts. Und dafür ist die 4090 auch zu lahm. Hohe FPS möchte ich auch haben. Frühestens vielleicht mit ´ner 6090 eine Überlegung wert.

Da bleibe ich bei meiner Kombi OLED 3440x1440 & 4090

Fliwatut
2024-03-31, 12:10:37
Höhere Pixeldichten sind generell zu bevorzugen, da angenehmer und schonender für die Augen.
Ein 4K UHD Monitor/Fernseher mit 42" hat die gleiche Pixeldichte wie ein FullHD Monitor mit 21", ca. 105ppi. Ein 27" 1440p Monitor hat eine ppi von ca. 109. Richtig gut ist dann 4K UHD auf 27", da muss man dann aber schon tüchtig skalieren, wenn man nicht nur spielen will.

Ich habe einen 32" 4K UHD Monitor am Macbook Air hängen, die Skalierung von MacOS ist klasse und alles ist gestochen scharf, das will ich nicht mehr missen. Zum Zocken ist der Monitor aber nicht wirklich geeignet, da VA und nur 60Hz ohne Sync.

Gezockt wird auf einem 27" 1440p Monitor mit 144Hz und Sync, aber selbst da muss ich trotz 4090 die Regler bedienen, um konstant mehr als 60 min fps zu erreichen und das liegt nicht an der CPU.

ChaosTM
2024-03-31, 12:18:52
@ Fliwa
Ich wusste, dass das kommen wird und hätte gleich drauf eingehen sollen.
Man sitzt bei einem 42er auch etwas weiter weg als bei einem 24er.
6k+ wären bei 42" definitiv besser und für Spiele ist gebogen auch kein Fehler.

Leider gibts diese eierlegende Wollmilchsau noch nicht. Der Flexible 45er von Corsair kommt dem noch am nächsten, hat aber zu wenig Auflösung.

Deathcrush
2024-03-31, 12:47:04
Wer einmal 4K hatte, will nich mehr zurück. 1440p.. Bäh..


Sehe ich komplett anders. Hätte es damals einen 32" (!) 1440p Monitor mit den gleichen Eigenschaften wie mein jetziger Neo G7 gegeben, hätte ich ihn mir gekauft. 4K ist einfach noch viel zu fordernd, macht selbst mit meiner 4080 in aktuellen Spielen kaum spaß. Ich empfand die 1440p immer als ausreichend, selbst jetzt noch wo ich ein 4K Monitor habe.

Fliwatut
2024-03-31, 13:03:07
Man sitzt bei einem 42er auch etwas weiter weg als bei einem 24er.
Es kommt auf den use case an, als Zockerbildschirm auf größere Entfernung ist so ein Fernseher sicher brauchbar, ich überlege mir auch einen als Racing Sim-Monitor anzuschaffen.

Aber als Monitor, mit dem auch gearbeitet oder etwas anderes gemacht werden soll? Da macht oft schon die Subpixelanordnung ein Strich durch die Rechnung.

ChaosTM
2024-03-31, 13:11:58
Dieses Märchen bezüglich Subpixels hält sich leider immer noch.
Auf den LG WOLEDs gibts da keinerlei Probleme. Zumindest nicht auf den größeren.

Die mit 27-32 Zoll kenne ich nicht.

Gast
2024-03-31, 13:16:26
Es kommt auf den use case an, als Zockerbildschirm auf größere Entfernung ist so ein Fernseher sicher brauchbar, ich überlege mir auch einen als Racing Sim-Monitor anzuschaffen.


Besser ein VR-Headset, der mit Abstand beste "Racing Sim Monitor".

Fliwatut
2024-03-31, 13:41:20
Solange es diese Probleme noch gibt, ist das kein Märchen. Oft genug findet man diese Angaben nichtmal, auch nicht in den Datenblättern.

Ergänzung:
Also, note that this TV uses an RWBG subpixel layout, so it has issues with text display on Windows, as ClearType isn't well-adjusted to non-RGB subpixel layouts.
https://www.rtings.com/tv/reviews/lg/c3-oled#test_6

ChaosTM
2024-03-31, 13:50:01
Was soll ich sagen, selbst wenn ich mich mit der 3 Dioptrien Brille der Mutter auf 10cm annähere, ist alles ohne Farbsäume.

möglicherweise ist mein altes hirn nicht mehr in der Lage das aufzulösen bzw. zu bemerken

OC_Burner
2024-03-31, 14:37:41
Mein 4k Monitor hat eine Pixeldichte von 187ppi und ist bereits 9 Jahre alt.:P Kantenglättung war seit Anschaffung des Monitor kaum noch von belang. Selbst simples SMAA war in den meisten Fällen völlig ausreichend, egal ob nachgeschärft oder nicht. Zugegeben, es sind nur lächerliche 23.5";D aber die hohe Pixeldichte ist schon verdammt geil und vorteilhaft um gewisse Unzulänglichkeiten zu kaschieren.

Wenn es Monitore in breiter Front mit hoher PPI geben würde... es würde jetzt wohl ein 32"er mit 5120x2880 und OLED werden. Gibt es leider nicht.

Da mir aber nach mehr Diagonale und QD-OLED ist, ist mir beim durchstöbern der ersten paar Reviews aufgefallen, dass selbst bei komplett schwarzen Screen die OLEDs locker flockige 30W aus der Dose ziehen, was soll das denn? Ist die Hardware hinten am Monitor derart auf Kante genäht und überzüchtet, dass es sogar zu solchen Auswüchsen mit aktiven Kühlern kommen muss? Das gewisse Monitore in der Vergangeheit mit G-Sync Modul viel geschluckt haben geschenkt aber mittlerweile sollte sich das doch mal bessern.

Wie dem auch sei, ins Auge gefasst ist erstmal der MSI MPG321URX QD-OLED oder vielleicht doch noch warten und hoffen das ASUS mit dem PG32UCDP und BFI Support um die Ecke kommt?

ChaosTM
2024-03-31, 15:11:51
Mein 4k Monitor hat eine Pixeldichte von 187ppi und ist bereits 9 Jahre alt.:P Kantenglättung war seit Anschaffung des Monitor kaum noch von belang. Selbst simples SMAA war in den meisten Fällen völlig ausreichend, egal ob nachgeschärft oder nicht. Zugegeben, es sind nur lächerliche 23.5";D aber die hohe Pixeldichte ist schon verdammt geil und vorteilhaft um gewisse Unzulänglichkeiten zu kaschieren.




amen..


Mein alter hatte nur 160ppi aber bezüglich Kanten Glättung kann ich das nur bestätigten. Selbst mit der billigsten Methode schaute das immer noch gut aus.

Was den Stromverbrauch bei OLEDs betrifft ist da noch noch viel Raum für Verbesserungen.
Meiner sauft bei komplett Schwarz auch immer noch 25 Watt

Troyan
2024-03-31, 17:13:34
An die militante 4k-Fraktion:

Welchen bezahlbaren Monitor mit guten HDR Eigenschaften, geradem Panel und brauchbarer Entspiegelung empfehlt ihr? Bin gespannt.


Fand den Acer X27V3 passabel, wenn man mit den Softwareeinschränkungen leben kann. Die beiden Innocn MiniLed Bildschirme sind sehr gut (wobei der 27" nur aus Amerika importiert werden kann). Acer X32 ginge auch, wenn man mehr als 1.000€ bezahlen will.

Ansonsten will auch nicht jeder einen teuren HDR Monitor. Günstigere 4K144Hz Bildschirm gibt es schon für 500€ oder weniger.

fulgore1101
2024-03-31, 17:21:52
Einen 42er LG TV - vom P/L Verhältnis her die mit Abstand beste Lösung. Wenn man genug Platz hat und glossy kein Problem ist.

Militant ist aber ein etwas zu starkes Wort. Höhere Pixeldichten sind generell zu bevorzugen, da angenehmer und schonender für die Augen. Wir haben am Handy ja auch keine 480p Displays mehr.

Troyans Argument ist in der tat etwas zu grün gefärbt. :)
+ es stimmt aber..

Bei mir ist maximal 32'' sinnvoll und glossy oder semi-glossy geht hier auch nicht. Um das abzukürzen: Es gibt für mein Profil schlicht keinen 4k Monitor.
Ich hab mir für den Übergang den AOC Q27G3XMN gekauft. Vielleicht gibt es im nächsten Jahr einen passenden und bezahlbaren 4k Monitor für mich.

fulgore1101
2024-03-31, 17:33:30
Fand den Acer X27V3 passabel, wenn man mit den Softwareeinschränkungen leben kann. Die beiden Innocn MiniLed Bildschirme sind sehr gut (wobei der 27" nur aus Amerika importiert werden kann). Acer X32 ginge auch, wenn man mehr als 1.000€ bezahlen will.


Ich finde keinen Acer X27V3, und mini LED mit IPS käme nur mit ausreichend Zonen in Frage. Ich glaube da sind im Moment ~1000 das Maximum.

Lurtz
2024-03-31, 17:45:59
Mein 4k Monitor hat eine Pixeldichte von 187ppi und ist bereits 9 Jahre alt.:P Kantenglättung war seit Anschaffung des Monitor kaum noch von belang. Selbst simples SMAA war in den meisten Fällen völlig ausreichend, egal ob nachgeschärft oder nicht. Zugegeben, es sind nur lächerliche 23.5";D aber die hohe Pixeldichte ist schon verdammt geil und vorteilhaft um gewisse Unzulänglichkeiten zu kaschieren.

Naja ich hatte zuvor auch schon einen 4k-Monitor, musste dann aber retrospektiv zugeben, dass 60 Hz das deutlich größere Manko sind als die niedrigere Auflösung.

Und bei 2160p@27" benötigt man natürlich noch jede Menge AA. Aber die Debatte ist eh hinfällig jetzt wo "AA" eher Leistung bringt als zu kosten.

aufkrawall
2024-03-31, 18:01:01
Ich tendiere dazu, dass 1440p von FG und besserem AA bzw. 100% Auflösungsmodi der Upsampler sogar stärker profitiert hat als 4k, wenn man nicht unbedingt die Diagonale will. :redface:
Hängt dann viel an der Subpixelstruktur. 2-3 Jahre kann ich aber auch noch warten.

Thunder99
2024-03-31, 20:42:57
Ich habe mich damals bewusst auf einen UWQHD entschieden gehabt da es einen Kompromiss ist. Auflösung ist durch fast nichts zu ersetzen aber der Preis ist nicht mehr zu rechtfertigen.

Man kann ansonsten immer noch (bei älteren Spielen) DSR anmachen :D (5k).

PHuV
2024-03-31, 21:50:38
Slashcam - OLED-Displays bald billiger und ohne Einbrenneffekt? (https://www.slashcam.de/news/single/OLED-Displays-bald-billiger-und-ohne-Einbrenneffek-18488.html)

Platos
2024-04-01, 23:20:40
Interessant, aber inwiefern soll es weniger Aufwand sein, jedes Subpixel einzeln "einzupacken" mit dieser "Isolationsschicht" ? Das hört sich nach ziemlich krassem Aufwand an.

Exxtreme
2024-04-01, 23:27:31
Einen Einbrenneffekt wird das immer haben. Alles, was leuchtet, nutzt sich mit der Zeit ab. Man kann allerhöchstens den Einbrenneffekt so weit abschwächen, dass er irrelevant für die meisten Einsatzszenarien wird.

exzentrik
2024-04-02, 13:45:21
Acer Predator X49 X (https://www.prad.de/acer-predator-x49-x-mit-dqhd-240-hz-und-qd-oled/) mit 48,9 Zoll, QD-OLED, DQHD, 240 Hz, DisplayHDR True Black 400, KVM und FreeSync Premium angeteasert.

raffa
2024-04-04, 00:25:30
Ich hätt da mal nen Vorschlag: Man gibt nichtmehr die Diagonale an, sondern die Fläche und das Seitenverhältnis.

Das wären hier: 0,40m² 32:9

Ich komm da inzwischen echt durcheinander,
so hat ein 16:9 32" ~0,28m²
und ein 21:9 34" ebenfalls ~0,28m² fläche.

Wär das ein 49" 21:9 Format, ergäb des ne Fläche von 0,55m². In 16:9 gar 0,65m² - Das verzerrt schon die Wahrnehmung.

y33H@
2024-04-04, 09:42:02
PG32UCDM gekauft, berichte die Tage.
An sich zufrieden - hängt per HDMI am Gaming PC und per USBC am Laptop, umschalten via KVM klappt per Hotkey wunderbar. Von einem 27er 1440p OLED kommend wirkt der Asus riesig, die höhere Pixeldichte ist jedoch sehr angenehm ... Schriftbild empfinde ich als OK (125%), die Farbsäume sind anders als beim LG aber dennoch gewöhnungsbedürftig. Womit ich am wenigsten klarkomme ist das glossy Coating, spiegelt zu sehr ... will nicht wissen wie das im Sommer ist wenn tagsüber die Sonne scheint, trotz hochgezogenen Plissees.

Von daher habe ich derzeit die Tendenz, den PG32UCDM zurückzugeben und auf den PG32UCDP mit WOLED plus mattem Coating zu warten :(

derF
2024-04-04, 10:51:49
Ich hätt da mal nen Vorschlag: Man gibt nichtmehr die Diagonale an, sondern die Fläche und das Seitenverhältnis.

Das wären hier: 0,40m² 32:9

Ich komm da inzwischen echt durcheinander,
so hat ein 16:9 32" ~0,28m²
und ein 21:9 34" ebenfalls ~0,28m² fläche.

Wär das ein 49" 21:9 Format, ergäb des ne Fläche von 0,55m². In 16:9 gar 0,65m² - Das verzerrt schon die Wahrnehmung.
Dafür. Und die Kantenlängen zusätzlich würden auch Rechnerei ersparen.
Ich würde meinen 16:9 32" durch einen 21:9 ersetzen, aber nicht auf Höhe verzichten wollen.

raffa
2024-04-04, 12:05:09
gerechnet hab ich damit
http://screen-size.info/rechner.html

das wäre dann ein 39-40er in 21:9, biddeschön
https://geizhals.de/?cat=monlcd19wide&xf=11939_39%7E11940_40%7E11941_21%3A9

Der Dell UltraSharp U4025QW macht bestimmt Spaß als Arbeitsschirm, 5120x2160, 120Hz IPS Black, viele Ports...
Kost aber auch ne Stange Geld

https://www.pcmag.com/reviews/dell-ultrasharp-40-curved-thunderbolt-hub-monitor-u4025qw

exzentrik
2024-04-04, 12:30:24
TCL 27R83U (https://www.prad.de/tcl-27r83u-details-zum-4k160-display-mit-hdr-1400/) kommt mit 4K160, DisplayHDR 1400, 1600 nits, 1152 QD-Mini-LED-Zonen, FreeSync Premium, G-Sync Compatible und KVM.

Cubitus
2024-04-05, 13:41:54
Das Problem ist, dass man nicht weiß, ob und in welchem Umfang die Monitore Tonemapping betrieben.

Gäbe es eine Option "HGIG -> An" dann könnte man sicher sein, dass der Tonemapper abgeschaltet ist. Da es die Option nicht gibt, geht man davon aus, dass Tonemapping aktiv ist.

Mein 1440p IPS LCD den im am Desktop nutze kann auch HDR. Das Ist natürlich kompletter Schrott, aber der hat auch keine Option für HGIG sondern nur zwei unterschiedliche Modi für HDR. Cinema und Game oder so. Und beide verfälschen das Bild sehr stark. MMn. ist da dynamic tonemapping in beiden Modi aktiv. Zumindest mein Monitor hat also mit ziemlicher sicherheit keine Möglichkeit, HDR content 1:1 ohne Tonemapping darzustellen, wie es mit HGIG möglich wäre.


Ich wäre davon ausgegangen, dass das bei den OLED Monitoren mittlerweile standard ist. Schließlich ist es bei TVs auch seit ewigkeiten Standard, hat ja mein LG OLED von 2020 auch...

Man kann es eigentlich ziemlich gut im Windows Calibaration Tool feststellen ob ein Gerät doch Tonemapping betreibt.

Bei dem Dell oder MSI dürfte je nach Modus im Windows eine Peak Helligkeit von 2000 rauskommen, was aber so ziemlich bullshit sein dürfte.

Wenn jetzt kein Tonemapping vom Gerät selbst betrieben wird, also das was ja mit HGiG erreicht wird, dann sollten die Werte dort niedriger sein.

Mein C3 hat mit HGiG on, ebenfalls max 800 Helligkeit im Kalibration Tool was ja durchaus korrekt ist. Im Spiel selbst kann man dann ebenfalls noch 800 Nits Max Helligkeit einstellen und dann sollte es eigentlich schon ziemlich nice sein.
Unabhängig davon ob das Spiel am Ende des Tages auch wirklich mit der HGiG Option kompatibel ist und von allein aus die richtigen Tonemapping werte liefert.

Thunder99
2024-04-05, 22:46:21
Gute Frage.

Als Vergleich, mein Samsung G8 OLED ist ein halber TV und da kann ich bzw ist die Option aus (per Default). Mit der Windows Kalibrierung wurde die Helligkeit reduziert was insgesamt besser aussieht als vorher (man wird nicht mehr weg gestrahlt). Ob das am Ende richtig ist oder richtige Range hat kann ich nicht sagen.

exzentrik
2024-04-09, 11:46:35
AOC Q27G20XM (https://www.prad.de/aoc-wqhd-display-mit-180-hz-mini-led-und-hdr-1000/) mit WQHD, 180 Hz, Mini-LED (1152 Zonen), Quantum-Dots, FreeSync, G-Sync Compatible und DisplayHDR 1000 wird in China gelistet. Leider kein HDMI 2.1 verbaut.

big_lebowski
2024-04-14, 19:32:14
VH-CWsgD0Sk

exzentrik
2024-04-16, 11:29:57
Deutsche Preorder-Phase mit 15 Prozent Rabatt zum LG 34GS95QE und 39GS95QE (https://www.prad.de/lg-34gs95qe-39gs95qe-mit-rabatt-vorbestellbar/), die jeweils mit UWQHD, WOLED, 240 Hz, DisplayHDR True Black 400, FreeSync Premium Pro und G-Sync Compatible ausgestattet sind.

Und nun gibt's auch einige neue Infos zum ASUS ROG Swift OLED PG39WCDM (https://www.prad.de/asus-pg39wcdm-viele-details-zum-oled-mla-display/), der mit 39 Zoll, OLED-MLA (3. Gen), UWQHD, 240 Hz, 800 R, True Black 400, FreeSync Premium Pro, G-Sync Compatible, KVM und lüfterlosem Custom-Heatsink kommt.

dargo
2024-04-19, 17:36:15
Nicht schlecht... den Cooler Master Tempest GP27U (4k und Mini LED) gibt es aktuell für 704,90€ inkl. Versand.
https://www.bora-computer.de/169294-coolermaster-68-6cm-27-gp27-fus-16-09-dp-hdmi-usb-ips?number=409135

Bin selbst am grübeln. :uponder: Wollte auf 4k eigentlich erst mit der nächsten Graka gehen. :freak:

Edit:
Hier ein netter Vergleich. :tongue:
1Hh-2IutZ20

Ach scheiß drauf, ich hole mir den. Alles was zum Releasezeitpunkt beanstandet wurde ist mittlerweile gefixt, so dass auch 160Hz mit VRR und local dimming sowohl mit SDR als auch HDR funktioniert. :up:
https://youtu.be/R9OgRjU5J4c?si=1dZ76Bi9Np-0spjq&t=183

Irgendwie werde ich das halbe Jahr mit der RX 6800XT noch durchhalten, zur Not muss mich Upscaling in einzelnen Games retten. :D

fulgore1101
2024-04-19, 18:44:50
Der GP27U soll mit VRR und local dimming immer noch flackern.Würde kürzlich hier erst gepostet, aber hab vergessen von wem.

Edit: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13458449&postcount=16636

dargo
2024-04-19, 19:00:40
Och menno... warum erwähnt das keiner der Tester? :usad: Gibts auch Feedback dazu mit einer Radeon?

Edit:
Hmm... Igor schreibt folgendes dazu.
Image errors
Neben den bekannten IPS-typischen Glowing und Bleeding Problemen (die bei jedem Panel anders ausfallen), kann es bei diesem Monitor mit aktivierten HDR und VRR (G-Sync/FreeSync) zu Flicker kommen. Ich konnte Flicker mittels Stresstests sichtbar machen. Achtung ein Stresstest ist NICHT gleich Gaming! Beim Gaming konnte ich Flicker nicht feststellen. Ich kann aber auch nicht alle Spiele testen, nur um den Fehler zu finden. Ansprechen muss ich es aber. Das Problem kann auch bei OLED-Monitoren auftreten. Solltet ihr damit Probleme haben, dann hilft ein Framelimiter. Wer in SDR spielt, der hat mit Flicker gar kein Problem.
https://www.igorslab.de/der-cooler-master-tempest-gp27u-im-langzeit-entwicklungstest-eine-echte-alternative-zu-oled/9/

Als weiteres.
Da der Monitor nicht G-Sync oder FreeSync zertifiziert ist, kann es auch hier zu Problemen kommen. So konnte ich mit der RTX 4090 meine Messungen der Response Times nicht durchführen, wenn ich Adaptive-Sync aktiv hatte. Sobald ich VRR-basiert messen wollte, kam es zum Blackout des Bildschirms. Mit der RX 7900XT ging das problemlos. Ebenso hat ein Nachtest gezeigt, dass ich mit einer RTX 4070 ohne Probleme messen konnte. Spielen mit der RTX 4090 war kein Thema, das hat über die gesamte VRR funktioniert. Cooler Master hat mir berichtet, dass es einige Rückmeldungen in Bezug auf Probleme mit der RTX 4090 gibt. Was genau da los ist, konnte man mir nicht sagen. Man ist auf Ursachenforschung.

Da werde jetzt schlau draus. :freak: Zumal ich nicht mal weiß ob Igor die aktuelle Firmware drauf hatte. Der Test ist ja schon älter von Ende Juni 2023.

Oder sowas hier.
https://geizhals.de/?sr=2844661,-1

Angeblich auch keine Probleme mit einer 4090 dran.

fulgore1101
2024-04-19, 20:33:22
Ich hatte den GP27U auch eine Weile im Auge, aber mir ging es wie dir. Hier liest du das, dort wieder was anderes. Zusätzlich abgeschreckt hat mich dann die Kombination von IPS und nur 576 Zonen. Nach allem was ich dazu in den letzten Monaten in unzähligen Reviews gelesen habe ist das eine mittelmäßige HDR Erfahrung. Und dafür bezahle ich keine 700€.

dargo
2024-04-19, 20:54:12
Lol... und ich lese oder sehe (in Videos) nur Bestnoten und Positives zu diesem Monitor, auch in Bezug auf HDR. :ulol: Habe mir jetzt einen bestellt und überzeuge mich lieber selbst.

btw.
700€ sind imo schon fast Peanuts wenn ich daran denke was ich früher für meinen ASUS MG279Q bezahlte hatte (500+€ waren das afaik) oder wenn ich sehe, dass MSi für den 4k 32" OLED (ergo wenige PPI) schlappe 1400€ aktuell verlangt. :freak: Und OLED am Desktop halte ich weiterhin für fragwürdig. Gaming ist bei meinem Profil eben nicht der Haupteinsatz am Desktopbildschirm.

fulgore1101
2024-04-19, 21:14:08
Vielleicht schreibst du dann die Tagen was zu deinen Erfahrungen mit dem Monitor. :)

Ja die Preise für die 32'' 4K OLEDs sind irrwitzig!! Aber selbst wenn mir jemand das Geld schenken würde, wüsste ich nicht welchen ich nehmen sollte. Die QD-OLEDs sind alle Spielgel und bei den WOLEDs möchte man ständig den Bildschirm putzen. Da fehlt einfach ein gescheites Coating in der Mitte. Zudem sind die WOLEDs was Farbbrillanz betrifft enttäuschend.

dargo
2024-04-19, 21:45:26
Vielleicht schreibst du dann die Tagen was zu deinen Erfahrungen mit dem Monitor. :)

Kann ich machen. Igor schreibt zum HDR-Erlebnis übrigens auch nichts Negatives.
Der GP27U erreicht hier fast 900 Nits bei einem APL von 100 Prozent und ca. 1150 Nits bei 10 Prozent. Mein Kollege Tim von Hardware Unboxed hat sogar fast 1500 Nits gemessen – das war aber, bevor das große Firmware-Updaten begonnen hat. Nach dem letzten FW-Update misst auch Tim nur noch um die 1200 Nits. Das ist echt verdammt hell. Damit kann der Monitor insbesondere bei großflächigen hellen HDR-Szenen glänzen, wo die meisten OLEDs ihre Schwäche haben. Die Farbgenauigkeit ist im Game-Mode etwas besser, für mich persönlich wäre das zum Zocken ausreichend. Denn ein echtes HDR-Erlebnis bringt der GP27U definitiv rüber.

Und seine Vergleiche mit Edge-Lit vs. Full Array Local Dimming sind auch geil. :D Echt heftig die Unterschiede.
https://www.igorslab.de/der-cooler-master-tempest-gp27u-im-langzeit-entwicklungstest-eine-echte-alternative-zu-oled/10/

Wobei ich sagen muss, dass es in meinem Zimmer nicht so dunkel ist wenn ich vor dem Bildschirm sitze.

fulgore1101
2024-04-19, 22:22:16
Falls du dieses Review noch nicht kennst:https://www.rtings.com/monitor/reviews/cooler-master/tempest-gp27u

dargo
2024-04-19, 22:34:48
Das hier disqualifiziert doch den gesamten Test.
Wir haben den Monitor mit Firmware 1.2 (Version A) getestet, die am 17. Februar 2023 aktualisiert wurde. Sie behebt einige der Probleme, die Teil der am 25. November und 2. Dezember 2022 veröffentlichten Versionen für Firmware 1.1 waren, aber Es behebt nicht alle Probleme.
Oder übersehe ich was?

PS: alle Tests ohne Firmware 1.41 kann man getrost ignorieren.

Slipknot79
2024-04-20, 01:53:05
Interessant, dass die FALD-Halos gar nicht mehr erwähnt werden, scheint schon normal geworden zu sein. (y)
Bin schon gespannt, wieviele km der Monitor hochkant aus dem Fenster geballert wird von dargo, wegen den Halos. (y)

fulgore1101
2024-04-20, 09:56:17
Das hier disqualifiziert doch den gesamten Test.

Oder übersehe ich was?

PS: alle Tests ohne Firmware 1.41 kann man getrost ignorieren.

Hm...zumindest unter dem Punkt "Local Dimming" wurde kurz Bezug zu 1.41 genommen. Aber seit gestern weiß ich nicht mehr was ich von deren Monitor Tests halten soll. Der Testparcour wurde kürzlich aktualisiert und einige Monitore der letzten Monate noch mal getestet. Unter anderem auch der AOC Q27G3XMN. Im alten Test hieß es zu VRR Flackern in einem Nebensatz sinngemäß etwa: Dezentes Flackern insbesondere bei dunklen Inhalten könnten störend wirken.

Jetzt gibt es dazu eine eigene Kategorie und die Wertung ist plötzlich desaströs: VRR Flicker 2.0 Punkte: "The AOC Q27G3XMN has terrible VRR flicker. There's distracting flicker in most content with changing frame rate, and it's even noticeable in brighter scenes, which is disappointing." Zumal OLEDS diese Probleme auch haben.

Das klang im alten Test wie gesagt deutlich anders. Auch Monitors unboxed, TFTcentral und PCmonitors sehen das anders. :confused:

Troyan
2024-04-20, 10:28:32
Der Coolermaster hat Flickern, wenn Adaptive-Sync und Local Dimming aktiv ist. Das ist nicht das typische VRR-Flickern von VA-Panels. Würde ich mir nicht kaufen, da das z.B. in Alan Wake 2 deutlich sichtbar war.

Thunder99
2024-04-20, 11:00:38
Muss wieder mal den Samsung G8 34" OLED hier nennen. Bei weitem nicht perfekt aber diesen gab es ja mit Aktion für 700€ bzw CHF und für den Preis kann man nichts falsch machen.

Er dir nicht G-Sync kompatibel zertifiziert aber geht dennoch wunderbar im Kompatibilität Modus. 21:9 muss man mögen aber für mich ist das ein Mehrwert gegenüber 16:9. Auch wegen hin und wieder Home-Office. 65W USB-C Anschluss ist gerade so genug für den ThinkPad :D.

Preis/Leistung ist also echt gut :). Da sieht man weg wenn er wieder mal die Verbindung nach dem Standby vom Monitor zur Grafikkarte verliert :freak:. Neustart hilft und oder Display-Port Kabel entfernen und wieder anschließen.

dargo
2024-04-20, 14:02:41
Muss wieder mal den Samsung G8 34" OLED hier nennen. Bei weitem nicht perfekt aber diesen gab es ja mit Aktion für 700€ bzw CHF und für den Preis kann man nichts falsch machen.

Doch... zb. gebogenes Panel kaufen. X-D Und 109ppi für 700€? Nee... lass mal stecken. :)

Thunder99
2024-04-20, 17:02:49
Doch... zb. gebogenes Panel kaufen. X-D Und 109ppi für 700€? Nee... lass mal stecken. :)

Gebogenes Display finde ich völlig okay. Fällt in der Regel nicht auf und hat wirklich seine Daseinsberechtigung :). Bei 16:9 würde ich es nicht machen und die ganz stark gebogenen Display sehe ich auch noch skeptisch. 1800R dagegen fällt wirklich kaum auf.

dargo
2024-04-21, 07:56:12
Mal ganz blöd gefragt wenn der Cooler Master Tempest GP27U hier eintrudelt und ich nicht ganz unvorbereitet bin. Welche Games sollte ich am besten mit HDR testen und welche in Bezug auf angebliches Flackern bei Local Dimming + VRR? Alan Wake 2 hatte ich hier schon gelesen, sonst noch Vorschläge?

Tesseract
2024-04-21, 09:22:43
für HDR finde ich final fantasy 7 remake ziemliche referenz.

dargo
2024-04-21, 10:57:59
Das habe ich nicht. Aber was meinst du mit Referenz? Mir gehts nur darum irgendwelche Probleme vom Bildschirm aufzudecken bei HDR + VRR + Local Dimming. Nicht ob HDR jetzt im Spiel XYZ am besten rüber kommt.

Deathcrush
2024-04-21, 11:40:09
Mal ganz blöd gefragt wenn der Cooler Master Tempest GP27U hier eintrudelt und ich nicht ganz unvorbereitet bin. Welche Games sollte ich am besten mit HDR testen

Richtig beeindruckend fand ich CD2077, VRR und dem Flackern kann ich dir leider so nicht sagen, da ich es bei meinem Monitor nicht feststellen konnte. CP2077 wird dir mit HDR aber sicher gefallen :)

dargo
2024-04-21, 11:50:32
Richtig beeindruckend fand ich CD2077, VRR und dem Flackern kann ich dir leider so nicht sagen, da ich es bei meinem Monitor nicht feststellen konnte. CP2077 wird dir mit HDR aber sicher gefallen :)
Ich kann leider CP77 nicht mehr sehen. :usad: Aber ok, danke für den Tipp schon mal. Für einen Test kann ich es mal kurz anschmeißen. Spielerisch kann ich aber CP77 echt nicht mehr ertragen. Sonst noch paar Vorschläge?

Deathcrush
2024-04-21, 13:11:42
Gears of War fand ich auch noch ganz schick und Horizon ist sicher auch ein Blick wert. Ein Blick auf diese Seite kann auch nicht schaden :) https://www.hdrgamer.com/

dargo
2024-04-21, 13:32:47
Merci, da werde ich schon was Passendes finden. (y)

Slipknot79
2024-04-21, 13:38:52
Richtig beeindruckend fand ich CD2077, VRR und dem Flackern kann ich dir leider so nicht sagen, da ich es bei meinem Monitor nicht feststellen konnte. CP2077 wird dir mit HDR aber sicher gefallen :)

Bei vielen HDR-Spielen wird man nachjustieren müssen wegen den raised black levels. Auch CP2077 ist davon betroffen, wenn auch nur dezent.

Relex
2024-04-21, 15:02:34
Richtig beeindruckend fand ich CD2077


Beeindruckend, vielleicht. Ich würds eher Effekthascherei nennen.

Bei Cyberpunk wird praktisch alles was irgendwie leuchtet auf die Maximalhelligkeit hochgezogen. Egal ob man da 500 oder 5000 nits einstellt.

Und das dann in nahezu jedem Frame.

Das hat für mich nix mit HDR im Sinne des Erfinders zu tun.

Bei nem gut gemachten Film mit Dolby Vision wird die Maximalhelligkeit nur ganz gezielt eingesetzt, um eben einen starken Kontrast zum rest des Bildes zu bekommen und ggf. auch einen starken Kontrast zu vorherigen Szenen und Kameraeinstellungen.

Das heißt, dass ein HDR Film in einer Szene durchaus nahe an dem Look von SDR sein kann, während sich in einer anderen Szene einige Highlights entsprechend abheben. Aber diese müssen dann auch nicht immer zuwangsläufig mit der Maximalhlelligkeit leuchten, weil man sich die Maximalhelligkeit eben für andere Effekte aufspart..

Bei Cyberpunk fehlt mir diese objekt und szenenabhängige nuancierung komplett. Das ganze Spiel wirkt so als hätte man nur einen AutoHDR Filter appliziert, der alles was das property "leuchtet" hat, auf die Peak Helligkeit mappt.


Es gibt nur sehr wenige Spiele die das halbwegs gut hinbekommen und HDR wirklich sinnvoll nutzen. Die Entwickler haben da immernoch ne Lernkurve vor sich. Zum einen das ständige Thema mit den raised blacks und zum anderen eben die sinnvolle Anwendung von HDR generell.
Cyberpunk nutzt ja noch nichtmal den erweiterten DCI-P3 oder BT2020 Farbraum.

Cyberpunk hat zudem das Problem, dass bei aktivem FilmGrain oder Chromatic Aberration die eingestellte Maximalhelligkeit nicht erreicht wird. Eigentlich ne sehr sehr schlampige Umsetzung...

Hübie
2024-04-21, 15:27:54
Bei Dell gibt es den AW3423DWF für 773 Euro. Man muss nur als Gutscheincode DELLAW3423DWF eingeben und kommt so auf den Preis. Ganz nett, wie ich finde.
Gefunden via MyDealz: https://www.mydealz.de/share-deal-from-app/2327486

Deisi
2024-04-21, 16:17:37
Cyberpunk nutzt ja noch nichtmal den erweiterten DCI-P3 oder BT2020 Farbraum.



falsch

Tesseract
2024-04-21, 16:47:29
Aber was meinst du mit Referenz? helle szenen, dunkle szenen, szenen mit viel farbe, szenen mit wenig farbe, viele spot lights, neonlichter, gute abmischung mit hoher punktueller helligkeit aber ohne übertriebenem bloom-look. ist außerdem ein fantastisches spiel. ;)

für VRR wahrscheinlich nix aber backlightprobleme, max luminanz und farbhelligkeit usw. kann man sicher gut beurteilen.

Savay
2024-04-21, 16:49:54
Avatar wäre auch ein guter Test mMn, auch für VRR dank der FG.

Ansonsten Diablo 4, einfach weil es so arg dunkel ist und auch relativ hohe FPS bringt...zumindest ohne RT...

Deathcrush
2024-04-21, 17:04:37
Beeindruckend, vielleicht. Ich würds eher Effekthascherei nennen.

ES passt aber einfach zum Spiel!

Cubitus
2024-04-21, 17:06:23
Cyberpunk beigt dazu das HDR zu überstrahlen.

Am besten kommt hier beim OLED-TV, HGiG (bei den Monitoren weiß ich nicht ob die in einem GamÖr Modus doch auto Tonemapping aktiviert haben)

Ingame dann auf 650 Nits max Helligkeit stellen. Damit wirkt die Reklame noch lesbar und strahlt trotzdem schön. Die ganzen "Verbesserer", Grain, CA usw im Menü ausmachen.

Sehr gutes HDR hat übrigens The Last of US ;)
Aber auch Forza

fulgore1101
2024-04-21, 20:35:57
Mal ganz blöd gefragt wenn der Cooler Master Tempest GP27U hier eintrudelt und ich nicht ganz unvorbereitet bin. Welche Games sollte ich am besten mit HDR testen und welche in Bezug auf angebliches Flackern bei Local Dimming + VRR? Alan Wake 2 hatte ich hier schon gelesen, sonst noch Vorschläge?

Ich meine gelesen zu haben, dass Starfield da sehr anfällig für ist. Bereits der Titelbildschirm soll flackern.

Cubitus
2024-04-21, 23:54:34
Star Wars Jedi Survivor flackert auch mal ganz gerne.

qu3x^
2024-04-22, 09:16:34
-bEKOp1GLDs

dreas
2024-04-25, 19:01:38
Gibt ne neue Firmware

https://www.dell.com/support/home/de-de/product-support/product/aw3225qf-monitor/drivers

Alienware AW3225QF Monitor Firmware Update KRITISCH Gerätefirmware 25 Apr 2024 Herunterladen

Version
M2B105, A03-00

exzentrik
2024-04-26, 12:52:39
Gibt jetzt viele Infos zu den Gigabyte-Modellen MO34WQC und MO34WQC2 (https://www.prad.de/gigabyte-mo34wqc2-infos-zu-den-qd-oled-displays/), die zur CES mal kurz angeteasert wurden. Kommen mit QD-OLED, UWQHD, 175 bzw. 240 Hz, DisplayHDR True Black 400, KVM, PiP/PbP und Tactical Switch.

horn 12
2024-04-26, 13:03:50
Möchte 3840 x 1600 Mindestens und 240 Hz
Muss nicht Zwingend 4K sein, aber das Maximal von 21:9
und jene welche im Herbst 2025 kommen brauchen wohl für 5k+ Eine Generation von 2026/ 2027 um Flüssig zu bleiben!

Exxtreme
2024-04-26, 13:05:45
Das UWQHD schreckt mich ab. Ich will echtes UHD/4K und das mit Displayport 2.1. Ich wechsle meine Monitore nicht alle 2 Jahre.

exzentrik
2024-04-26, 13:13:26
Das UWQHD schreckt mich ab. Ich will echtes UHD/4K und das mit Displayport 2.1. Ich wechsle meine Monitore nicht alle 2 Jahre.

Solltest dann den Gigabyte FO32U2P (https://www.prad.de/gigabyte-fo32u2p-neue-details-zum-qd-oled-display/) mal bei Preissuchmaschinen im Auge behalten. Von dem gab's in letzter Zeit immer mal kurz geringe Stückzahlen. Ein Kumpel konnte auch einen ergattern und ist begeistert. Finde das Modell mit unter 1.500 Euro übrigens sehr fair bepreist, gerade mit Blick auf DP 2.1.

The_Invisible
2024-04-26, 13:30:38
Solltest dann den Gigabyte FO32U2P (https://www.prad.de/gigabyte-fo32u2p-neue-details-zum-qd-oled-display/) mal bei Preissuchmaschinen im Auge behalten. Von dem gab's in letzter Zeit immer mal kurz geringe Stückzahlen. Ein Kumpel konnte auch einen ergattern und ist begeistert. Finde das Modell mit unter 1.500 Euro übrigens sehr fair bepreist, gerade mit Blick auf DP 2.1.

Ist der überhaupt Gsync kompatibel? Lieber noch zertifiziert...

Irgendwie ist aber eh nix lagernd, schlimmer wie bei GPUs in den Mining Zeiten...

exzentrik
2024-04-26, 13:36:46
Ist der überhaupt Gsync kompatibel? Lieber noch zertifiziert...

Offiziell afaik nicht. Aber der genannte Kumpel nutzt den FO32U2P mit einer GeForce RTX 4090 und hat sich diesbezüglich bisher nicht beschwert. Ich habe an meiner RTX 4090 derweil einen Alienware AW2775DF, der auch keine offizielle G-Sync-Compatible-Zertifizierung aufweist, und kann ebenfalls nicht klagen. Würde mich wundern, wenn die Sync-Features moderner Gaming-Displays heutzutage (jedenfalls in aller Regel) nicht mit allen großen GPU-Herstellern reibungslos funktionieren, selbst wenn mal Zertifizierungen fehlen.

Übrigens hatte der Kumpel den FO32U2P bei Cyberport vorbestellt. Erst hieß es Mai 2024, aber es gab dann doch eine vorzeitige Lieferung.

Exxtreme
2024-04-26, 13:37:34
Solltest dann den Gigabyte FO32U2P (https://www.prad.de/gigabyte-fo32u2p-neue-details-zum-qd-oled-display/) mal bei Preissuchmaschinen im Auge behalten. Von dem gab's in letzter Zeit immer mal kurz geringe Stückzahlen. Ein Kumpel konnte auch einen ergattern und ist begeistert. Finde das Modell mit unter 1.500 Euro übrigens sehr fair bepreist, gerade mit Blick auf DP 2.1.

Ja, auf den bin ich scharf. UHD, DP 2.1 und nicht gebogen. ;)

Ist der überhaupt Gsync kompatibel? Lieber noch zertifiziert...


Kein G-Sync, dafür Freesync Premium Pro. Mit G-Sync würde der wahrscheinlich mehrere Hundert EUR mehr kosten. Das G-Sync-Modul ist schweineteuer.

Thunder99
2024-04-26, 19:07:15
In der Regel gilt bei Freesymc Premium Pro aka auch standard VVR wird G-Sync Komp. gehen. Zertifizierung hin oder her. Samsung G8 OLED 34" das selbe Spiel.

Hikaru
2024-04-26, 20:42:52
Mich schreckt QD ab. Hellen die Dinger nicht bei Tageslicht sichtbar auf? Und damit meine ich natürlich nicht direkte Bestrahlung sondern ein ganz normal diffus erhellter Raum (auch im Sommer).

Bei den WOLEDs hab ich noch keinen gefunden der einigermassen eine "eierlegende" Wollmilchsau ist. Ist echt mühsam:(

Deshalb hab ich zur Überbrückung bis mal was "gescheites" oder besser gesagt zu mir passendes erscheint einen 1440p VA von LG für nur 275 bestellt:)

Gast
2024-04-26, 22:15:01
Mich schreckt QD ab. Hellen die Dinger nicht bei Tageslicht sichtbar auf? Und damit meine ich natürlich nicht direkte Bestrahlung sondern ein ganz normal diffus erhellter Raum (auch im Sommer).

Direktes Licht kannst du vergessen, indirektes Licht ist kein großes Problem, wenn die Fenster senkrecht zum Bildschirm sind ist es überhaupt kein Problem.

raffa
2024-04-26, 23:17:23
"VRR Flicker On OLEDs Is A Real Problem "
https://www.youtube.com/watch?v=1_ZMmMWi_yA

Auch VA ist schwer betroffen. Kann ich leider bestätigen, mein Dell S3423DWC flickert auch.
Leider hilft auch das Freensync Siegel nur bedingt, denn die testen bei 127rgb, dunkle Grautönen flackern aber am stärksten.

aufkrawall
2024-04-27, 01:06:44
Ggf. hat man mit 240Hz oder 360Hz Glück und es fällt mit angehobenem VRR-Range-Minimum für Range 2,5x (LFC-Optimum) kaum noch auf. Wäre auch noch ein Bonus für 1440p 360Hz vs. 4k 240Hz, da mehr Spielraum immer helfen sollte.
Ich merke jedenfalls bei 65-165Hz keine Beeinträchtigung gegenüber 48Hz Minimum.

dargo
2024-04-27, 07:12:43
"VRR Flicker On OLEDs Is A Real Problem "
https://www.youtube.com/watch?v=1_ZMmMWi_yA

Auch VA ist schwer betroffen. Kann ich leider bestätigen, mein Dell S3423DWC flickert auch.
Leider hilft auch das Freensync Siegel nur bedingt, denn die testen bei 127rgb, dunkle Grautönen flackern aber am stärksten.
Mein Gott... wenn ich das so sehe habe ich wieder überhaupt keine Lust mir einen neuen Bildschirm zuzulegen. :freak: Aber ich verstehe die Testmethotik von RTINGs nicht so ganz. Warum gehen die auf 100ms bzw. 10fps runter? Ich meine so spielt doch kein Mensch? Wäre es da nicht besser als Minimum 20,83ms bzw. 48fps zu nehmen? Ich meine die meisten VRR-Bildschirme haben als min. 48Hz bevor es zur Framevervielfältigung kommt die in der Regel eh früher eingreift und nicht erst bei 48Hz.

Edit:
or our purpose, we can define flicker as an unintended variation in amplitude of a display's light output over time. Our solution was to set a constant input frequency and measure this output amplitude. To do so, we designed and built a DirectX 9 "game" that would run in full-screen mode and allow us to control the frame times with extreme precision. The game cycles the frame rate limit from 10 FPS to the monitor's maximum refresh rate, creating a rapid and vast swing in the frame times generated by the GPU and thus displayed on the monitor.
https://www.rtings.com/monitor/learn/research/vrr-flicker

Also ich weiß nicht... als Testmethodik vielleicht ok, aber ob das noch was mit der Praxis zu tun hat?

Hikaru
2024-04-27, 09:54:01
Direktes Licht kannst du vergessen, indirektes Licht ist kein großes Problem, wenn die Fenster senkrecht zum Bildschirm sind ist es überhaupt kein Problem.

Nun ich hab zwei grosse Fenster (Südseite) mit ca. 45° Schräge und dann noch mal ein grosses senkrecht, sprich viel Licht am Start was ich sehr liebe.

"VRR Flicker On OLEDs Is A Real Problem "
https://www.youtube.com/watch?v=1_ZMmMWi_yA

Auch VA ist schwer betroffen. Kann ich leider bestätigen, mein Dell S3423DWC flickert auch.
Leider hilft auch das Freensync Siegel nur bedingt, denn die testen bei 127rgb, dunkle Grautönen flackern aber am stärksten.

Mal sehen wie mein zukünftiger VA flickern wird. Ist aber letztendlich nicht so wichtig der VRR Kram da ich "notfalls" alles auf mindestens 120fps festnageln werde (max 165Hz). Sobald es flackert wars das mit dem VRR Ausflug.

Himmel ist das alles amateurhaft, haha!

raffa
2024-04-27, 10:09:35
Amateuerhaft triffts ganz gut. Ich war ehrlich gesagt geschockt, als ich das das erstmal erlebt hab, dachte schon an einen Defekt, und irgendwie isses ja auch einer.


Natürlich sollte man auch mit VRR versuchen, die FPS so zu limitieren, dass es möglichst wenig Schwankungen gibt. Schon alleine für eine smoothes Gameplay ist das wichtig.

Die extreme Test Methodik von RTINGs ist zwar etwas Praxis fremd, allerdings zeigt sie gut auf, ob ein Display flickert, wenns blöd läuft, oder nicht. Spikes kommen halt leider schon vor, wenn ein Shader hakt oder ein ein Menü aufgeht, und freilich im LoadingScreen, und dann sieht man den Hakler zusätzlich zum Stottern als Flackern :\

Auch an der Lfc Grenze kann es gerne mal flackern, weil dann das Display zb zwischen 50 und 100hz hin und herspringt.

Bei ungünstigen Content sieht man das deutlich, bei Weiss sieht man nix. Aber man spielt ja nicht immer einen Wintersimulator...

Relex
2024-04-27, 10:15:18
@Hikaru

Display + viel Umgebungslicht war noch nie eine gute Kombination alleine schon weil es dir dadurch Farben Kontrast und Gamma komplett zerhagelt.

Aber um damit zumindest noch das bestmögliche rauszuholen, brauchst du eben einen Monitor mit besonders hoher Helligkeit (also Mini-LED) und den betreibst du dann bestenfalls nicht mit HDR (da bei HDR absolute Helligkeitswerte gefordert werden und das Bild nicht automatisch heller wird, nur weil du einen Monitor hast, der heller sein kann) sondern mit SDR, weil du dann die Helligkeit des gesamten Bildes pushen kannst.


Ich finde es halt grundsätzlich "falsch" den Monitoren anzukreiden, dass sie nicht hell genug wären für helle Räume. Ein Display in hellen Räumen zu betrieben ist grundsätzlich einfach nicht Sinn der Sache und ist eben aus rein technischer Sicht eine Situation die einfach nicht vorhersehbar ist, da die Adaption des Auges und die Umgebungshelligkei extrem stark, praktisch um mehrere Größenordnungen schwanken können. Es ist unmöglich ein Display für so eine undefinierte Situation abzustimmen. Manche Hersteller arbeiten mit Helligkeitssensoren und versuchen das Bild nochmal digital aufzuhellen, damit das Schwarz aufgrund der Augenadaption nicht absäuft. Aber ob das Bild dann passt oder nicht hängt dann auch davon ab, wo der Sensor platziert ist und wo sich dein Kopf befindet, wie empfindlich deine Augen auf Licht reagieren usw.

Helle Umgebungen sind einfach ne irsinnig große Variable, die praktisch alles kaputt macht.


Was ich damit sagen will: Selbst wenn die Displays mal mehr als hell genug sind. Wirklich gut und korrekt wird das Bild in heller Umgebung nie werden können, weil du z.B. einfach keine dunklen Szenen darstellen kannst. Das ist physikalisch einfach nicht möglich ohne dass alles ausgewaschen aussieht.


Natürlich ist es verständlich, dass man in heller umgebung arbeiten will oder so. Aber hier spielt die Bildqualität dann eh keine Rolle. Ein weißes Browser Fenster oder ein Dokument mit schwarzer schrift. Maximaler Kontrast und es muss nur lesbar sein... Alles kein Problem. Mini LED und gut ists.

Aber wenn du ein brauchbares Bild für Gaming oder Medienkonsum willst, dann kommst du um das abdunkeln des Raumes nicht herum, weder heute noch in 100 Jahren.


Ein Display in heller umgebung zu betreiben ist in etwa so als würde man versuchen Lautsprecher in besonders lauter Umgebung zu betrieben.
Wenn du die Lautsprecher laut genug stellst, dann wirst du zwar den Lärm übertönen und in den lauten bereich wäre die Umgebungslautstärke auch kein Problem (= analog dazu helle Bildinhalte auf einem Display)
Nur hast du eben in jedem Musikstück auch leisere passagen die du nicht einfach beliebig lauter machen kannst, du willst ja deine dynamik erhalten. Und wenn du solche leisen stellen hast, dann würden sie bei lauter Umgebung untergehen und von den Umgebungsgeräuschen überdeckt werden (= analog dazu dunkle bildinhalte auf einem Display).
Kannst es dir auch so vorstellen wie nen Kinofilm wo ständig jemand dazwischenquatscht. Egal wie laut du den ton aufdrehst, mindestens bei leiseren Stellen hörst du ständig das gequatsche. So ist es mit Helligkeit eben auch.

Du musst also zwangsläufig die Umgebungslautstärke (Umgebungshelligkeit) senken, damit du guten Ton (Bild) erreichen kannst.

Hikaru
2024-04-27, 10:55:35
Grundsätzlich gebe ich dir Recht mit der zu hellen Umgebung und dem daraus resultierenden Bild. Klar ein Spiel was sich grösstenteils im Dunkeln abspeilt sollte auch nicht bei Sonnenschein gezockt werden. Es gibt aber auch Spiele die schön hell und bunt sind und genau da sollte es sitzen. Was Farbtreue betrifft bin ich nicht sooo kritisch.

Ich bin immer wieder erstaunt wie gut mein derzeitiger VA Umgebungslicht schluckt. Das Panel ist sowas von schwarz im Gegensatz zum "schwarzen" Rahmen. Gewinkeltes Fenster genau hinter mir mit der Sonne am vorbeischeinen, während ich im Moment schreibe. Leider hat die Leuchtkraft der LEDs nachgelassen (2013er Modell).

Bei Lautsprechern bin ich zu 100% bei dir. Bin mit audiophilem High-End dank meines Bruders aufgewachsen und schlechter Klang geht bei mir mal garnet.

Er entwirft momentan die Frequenzweichen von Lautsprechern die beim Zweiweg Päärchen bei 5000 anfangen. Nix Surround. Räumlicher Klang ergibt sich "von alleine" wenn richtig gemacht und vor allem richtig auf den Zentimeter aufgestellt. Preislich gibts nach oben hin natürlich keine Grenzen. Endstufen hat er auch schon etliche selber entworfen und gebaut. Er ist nie zufrieden, wie immer:freak:


@raffa

Wenn VRR pissig wird wird festgenagelt. Treiber für die max frames und 4090 für die min frames und gut ist.

Ex3cut3r
2024-04-27, 11:14:05
Also ich weiß nicht... als Testmethodik vielleicht ok, aber ob das noch was mit der Praxis zu tun hat?

Wieso? Bei starken Frametime Spikes siehst du den Flicker auch dann immer ganz kurz, dass hatte ich bei meinem G7 (VA) auch immer dann. :biggrin:

War ultra nervig. Und die meisten Spiele haben nunmal Nachlade Spikes oder Traverseral Stutter als Problem.

IPS/TN sind die einzigen, wo du wirklich Ruhe hast, was VRR Flickering angeht. Allerdings hast du dann nur einen erbärmlichen Kontrast.

Hikaru
2024-04-27, 11:22:20
Das IPS überhaupt noch zur Diskussion steht ist für mich nicht nachvollziehbar.

robbitop
2024-04-27, 11:48:47
Die Frage ist, ob ein so extremes Schwanken der fps im normalen Gamebetrieb wirklich relevant vorkommt. In Menü/Ladescreen wäre es mir persönlich egal.

Der_Korken
2024-04-27, 11:56:48
Das IPS überhaupt noch zur Diskussion steht ist für mich nicht nachvollziehbar.

Wer nebenher produktiv arbeitet, kommt um IPS kaum drumrum.

Xaver Koch
2024-04-27, 12:02:20
Das IPS überhaupt noch zur Diskussion steht ist für mich nicht nachvollziehbar.

Für mich ist nicht nachvollziehbar wie man die miserable Darstellung von Schriften und Text eines aktuellen OLED Monitors akzeptieren kann wenn man mit dem PC auch arbeitet oder Mails schreibt und einen Broswer benutzt.

The_Invisible
2024-04-27, 12:02:57
Kein G-Sync, dafür Freesync Premium Pro. Mit G-Sync würde der wahrscheinlich mehrere Hundert EUR mehr kosten. Das G-Sync-Modul ist schweineteuer.

Ich meinte damit nicht das dedizierte Modul sondern "G-Sync compatible zertifziert": https://www.nvidia.com/en-us/geforce/products/g-sync-monitors/specs/

Hab schon öfter gelesen das es ohne sonst auch zu Artefakten oder Flimmern kommen kann. Mein voriger Monitor war auch nur Freesync und "funktionierte" mit Nvidia aber es kam oft zu einem Flackern, das habe ich jetzt gar nicht mehr. Wenn man schon >1k raushaut wäre das schon nicht schlecht...

Troyan
2024-04-27, 12:15:00
Für mich ist nicht nachvollziehbar wie man die miserable Darstellung von Schriften und Text eines aktuellen OLED Monitors akzeptieren kann wenn man mit dem PC auch arbeitet oder Mails schreibt und einen Broswer benutzt.

Nun, da gilt wohl das selbe, wie die Nutzung am Tag: Macht man nicht. ;D

Asaraki
2024-04-27, 12:19:05
Für mich ist nicht nachvollziehbar wie man die miserable Darstellung von Schriften und Text eines aktuellen OLED Monitors akzeptieren kann wenn man mit dem PC auch arbeitet oder Mails schreibt und einen Broswer benutzt.

Kann ich ohne Probleme, alle Menschen sehen unterschiedlich.
Für mich nicht nachvollziehbar ist, wie hier ständig pauschale Urteile gefällt werden á la „Was für mich nicht gut ist, das ist Schrott“

Keine Profis hier :D

ChaosTM
2024-04-27, 12:28:00
Die Schrift ist gestochen Scharf auf meinem, auf einem LG EVO Panel basierenden, 42er.
Und die Helligkeit steht momentan bei 30% und es ist gut hell im Raum. Sonne scheint auf die Fenster. Das ergibt die ~150nits die zum Arbeiten empfohlen sind. Auf 100% hauts mir die Augen raus.

Manche Leute schauen einfach zu viele schlechte YT Videos und bilden sich dann die seltsamsten Meinungen. ;)

Tesseract
2024-04-27, 12:28:57
Für mich ist nicht nachvollziehbar wie man die miserable Darstellung von Schriften und Text eines aktuellen OLED Monitors akzeptieren kann wenn man mit dem PC auch arbeitet oder Mails schreibt und einen Broswer benutzt.
die schrift auf QDOLED in 4k/32 ist deutlich besser als LCD 1080p/24 oder 1440p/27. wie hast du in den letzten 20 jahren emails geschrieben?

Xaver Koch
2024-04-27, 12:30:33
Kann ich ohne Probleme, alle Menschen sehen unterschiedlich.
Für mich nicht nachvollziehbar ist, wie hier ständig pauschale Urteile gefällt werden á la „Was für mich nicht gut ist, das ist Schrott“

Ich denke sämtliche Tests und Reviews mit Screenshot welche die im Vergleich zu LCD Monitoren schlechtere Lesbarkeit (u.a. Farbsäume auf Grund des berüchtigten Subpixel-Rendering durch abweichende RGB-Anordnung der OLED) feststellen kann man nicht als Meinung oder "subjektives Empfinden" abqualifizieren. ;)

@ Tesseract
Man kann nur jeweils 1440p (27 Zolll) oder 2160p (z.B. 32 Zoll) vergleichen, sonst ist es nicht objektiv.

Xaver Koch
2024-04-27, 12:37:08
Der GIGABYTE AORUS FO27Q3 sieht für einen OLED sehr natürlich aus, könnte interessant sein.
vdKYKu0DKHI
Konnte im Video auch ein "absumpfendes Schwarz" sehen. Text (ab 6:25) sieht auch besser als früheren OLEDs aus.

Frage: Lässt sich eigentlich (z.B. durch Kalibrierung bzw. Einstellungen am OSD) bei (älteren) OLED eine vernünftige Durchzeichnung in den untereren Helligkeitsgraden (0 bis 40%) erreichen?

Asaraki
2024-04-27, 12:42:01
Ich denke sämtliche Tests und Reviews mit Screenshot welche die im Vergleich zu LCD Monitoren schlechtere Lesbarkeit (u.a. Farbsäume auf Grund des berüchtigten Subpixel-Rendering durch abweichende RGB-Anordnung der OLED) feststellen kann man nicht als Meinung oder "subjektives Empfinden" abqualifizieren. ;)

@ Tesseract
Man kann nur jeweils 1440p (27 Zolll) oder 2160p (z.B. 32 Zoll) vergleichen, sonst ist es nicht objektiv.

Und schon wieder am Thema vorbei. Aber gut für dich, dass du weisst was ich sehe und wie gut ich daran arbeite. Top Einstellung :D

Janu, ist ja nicht mein Problem ^^

Der_Korken
2024-04-27, 12:42:02
die schrift auf QDOLED in 4k/32 ist deutlich besser als LCD 1080p/24 oder 1440p/27. wie hast du in den letzten 20 jahren emails geschrieben?

Es ist ja nicht nur die Darstellung der Schrift, sondern auch die Haltbarkeit der Panels. Ich habe schon viel gegoogelt, um Erfahrungswerte einzuholen, wie sich OLEDs im Arbeitsalltag schlagen, wenn sie mal 10-12h am Tag laufen. Gefühlt 90% sagen, dass sie keine Probleme haben, aber gefühlt schreiben auch 90% der Leute, dass sie ihren OLED ausschließlich mit schwarzem Desktop-Hintergrund, ausgeblendeter Taskleiste und darkmode-only in allen Anwendungen betreiben. Als jemand, der nichts von diesen drei Dingen akzeptieren würde, kann ich mit all diesen Berichten nichts anfangen und muss anhand der wenigen Negativberichte, dass sich bereits nach wenigen Monaten Burn-In beim Arbeiten einstellt, urteilen. Für die aktuellen QD-OLEDs gibt es offensichtlich noch keine Langzeiterfahrungen bzw. -tests. Wenn ich mir morgen einen neuen Monitor kaufen müsste, wäre es aber definitiv ein IPS.

fulgore1101
2024-04-27, 12:43:40
Mein Gott... wenn ich das so sehe habe ich wieder überhaupt keine Lust mir einen neuen Bildschirm zuzulegen.

Cooler Master GP27U storniert?

ChaosTM
2024-04-27, 12:44:03
Lässt sich alles einstellen. Bei LG sind die Möglichkeiten da ziemlich vielfältig.
Im schlimmsten Fall besorgt man sich eine "SpezialServicefernbedienug" um 8€, mit der man die tieferen Ebenen des LG Monitor/TV-Betriebssystems erreichen kann.

The_Invisible
2024-04-27, 12:52:10
Es ist ja nicht nur die Darstellung der Schrift, sondern auch die Haltbarkeit der Panels. Ich habe schon viel gegoogelt, um Erfahrungswerte einzuholen, wie sich OLEDs im Arbeitsalltag schlagen, wenn sie mal 10-12h am Tag laufen. Gefühlt 90% sagen, dass sie keine Probleme haben, aber gefühlt schreiben auch 90% der Leute, dass sie ihren OLED ausschließlich mit schwarzem Desktop-Hintergrund, ausgeblendeter Taskleiste und darkmode-only in allen Anwendungen betreiben. Als jemand, der nichts von diesen drei Dingen akzeptieren würde, kann ich mit all diesen Berichten nichts anfangen und muss anhand der wenigen Negativberichte, dass sich bereits nach wenigen Monaten Burn-In beim Arbeiten einstellt, urteilen. Für die aktuellen QD-OLEDs gibt es offensichtlich noch keine Langzeiterfahrungen bzw. -tests. Wenn ich mir morgen einen neuen Monitor kaufen müsste, wäre es aber definitiv ein IPS.

Jap, wenn meine IDE 10 Stunden am Tag an gleicher Stelle steht ist es halt so, soll ich die alle heiligen Zeiten mal minimieren damit nix passiert, ist ja lächerlich. Wobei ich es riskieren würde wenns darauf Garantie gibt was ja schon öfter der Fall ist.

Tesseract
2024-04-27, 12:53:54
Man kann nur jeweils 1440p (27 Zolll) oder 2160p (z.B. 32 Zoll) vergleichen, sonst ist es nicht objektiv.

nein kann man nicht, was für ein unsinniges argument. du behauptest du kannst etwas nicht akzeptieren was weniger problematisch ist als alles was man bis inkl. ~108ppi auf LCDs bekommen hat. schrift war jahrzehnte lang ein problem das mit >140ppi (und entsprechender skalierung und normalem sitzabstand) endlich weitgehend gelöst ist und du behauptest die minimalen unterschiede zwischen zwei panels, die beide zu den besten schriftdarstellern am markt gehören, seien "inakzeptabel". das ergibt keinen sinn.

dargo
2024-04-27, 12:56:54
Wieso? Bei starken Frametime Spikes siehst du den Flicker auch dann immer ganz kurz, dass hatte ich bei meinem G7 (VA) auch immer dann. :biggrin:

In der Regel meide ich Games mit starken Fluktuationen in den Frametimes (Bananensoftware *hust*) da bei mir dann eh kein Spielspaß aufkommt wenns ruckelt.

Cooler Master GP27U storniert?
Der wurde noch nicht mal von Bora verschickt, vermutlich warten die auf Nachschub vom Großhändler. Muss da mal langsam anrufen... wobei ich aktuell eh kaum Zeit für sowas habe. Ergo passt es sogar ganz gut wenn der 1-2 Wochen später eintrudelt.

Cubitus
2024-04-27, 13:02:03
Die Frage ist, ob ein so extremes Schwanken der fps im normalen Gamebetrieb wirklich relevant vorkommt. In Menü/Ladescreen wäre es mir persönlich egal.

Cyberpunk ist ein Paradebeispiel, wenn du in der Karte oder Inventar mal über die Filter mit der Maus drüber gehst oder eben über deine Items dann flackert es unter Umständen.
Wenn sich das Problem nicht vollständig technisch beheben lässt, sollten zukünftige Studios das bei der Spiele-Entwicklung berücksichtigen und OLED (VRR) freundliche Szenarien schaffen.

Bei meinem C3 konnte ich die VRR-Range von 40-120 Hz auf 40-110 Hz in Verbindung mit einer Auflösung mit 115 Hz statt 120 Hz, mit dem CRU optimieren.
Dies beseitigt etwa 80 Prozent des Flimmers, macht es also erträglicher die Kröte zu schlucken. Bei der unteren Rangegrenze, also bei Ladebildschirmen (ganz schlimm Jedi Survivor) bringt der Workaround leider nichts.

Die Hersteller (LG) sind natürlich am meisten Schuld, da sich dieses Problem von Vornherein sicherlich besser eindämmen lassen könnte.

Xaver Koch
2024-04-27, 13:27:53
... endlich weitgehend gelöst ist und du behauptest die minimalen unterschiede zwischen zwei panels, die beide zu den besten schriftdarstellern am markt gehören, seien "inakzeptabel". das ergibt keinen sinn.

Wenn es um den Vergleich von zwei Displays oder Technologien geht kann man seriös nur Bildschrime mit gleicher ppi Vergleich. Man vergleich sonst Äpfel mit Birnen. Würde doch keiner auf die Idee kommen, Autos unterschiedlicher Klassen im Vergleichstest antreten zu lassen.Anosnten S-Klasse besser als 3er BMW und 7er besser als C-Klasse ohne relativierung durch den Preis. Nach Deiner Argumentation kann man nur A8, 7er und S-Klasse fahren, weil der Komfort am besten und alles andere "unwichtig" ist.

Klar sind 140 ppi besser als 93 ppi wenn einen die paar Ausnahmen nicht stören wo es mit der Skalierung nicht klappt. Für mich persönlich sieht es mit schlecher Skalierung deutlich unansehnlicher (matischiger und verwaschen/aufgehellt) aus als die einzelen Pixel klar zu sehen. Das ist natürlich subjektives Empfinden.

Für immer höhere PPI gilt auch das Gesetz des abnehmenden Grenznutzens. Habe im Büro Zugriff auf einen Eizo EV 2795 (1440p) und EV 2785 (2160p) und die problematischere Skalierung beim 2160p Monitor macht den PPI-Vorteil nach meinem subjektiven Emfpinden wieder zunichte. Klar ab 32 Zoll würde ich immer 2160p nehmen, aber darunter nicht zwingend.


Wer Infos zu den neuen Gigabyte (QD-OLED) hat, gerne her damit. :)

Asaraki
2024-04-27, 13:38:38
Es ist ja nicht nur die Darstellung der Schrift, sondern auch die Haltbarkeit der Panels. Ich habe schon viel gegoogelt, um Erfahrungswerte einzuholen, wie sich OLEDs im Arbeitsalltag schlagen, wenn sie mal 10-12h am Tag laufen. Gefühlt 90% sagen, dass sie keine Probleme haben, aber gefühlt schreiben auch 90% der Leute, dass sie ihren OLED ausschließlich mit schwarzem Desktop-Hintergrund, ausgeblendeter Taskleiste und darkmode-only in allen Anwendungen betreiben. Als jemand, der nichts von diesen drei Dingen akzeptieren würde, kann ich mit all diesen Berichten nichts anfangen und muss anhand der wenigen Negativberichte, dass sich bereits nach wenigen Monaten Burn-In beim Arbeiten einstellt, urteilen. Für die aktuellen QD-OLEDs gibt es offensichtlich noch keine Langzeiterfahrungen bzw. -tests. Wenn ich mir morgen einen neuen Monitor kaufen müsste, wäre es aber definitiv ein IPS.

Ich hab meinen erst seit 1.5 Jahren, aber ich minimiere nix und passe auch sonst nicht gross auf. IDEs, DB Designer und Terminals offen, abends Gaming. Komme sicher auf 10h+ pro Tag. Einzig den standby hab ich bisschen aggressiver eingestellt, glaub auf 10 Minuten oder so und ein auto-off nach 6 Stunden. Muss man einmal pro Arbeitstag klicken ^^

Bisher ist alles super, aber natürlich könnte es in 6 Monaten anders aussehen. Wenn er insgesamt 3 Jahre ohne Probleme überlebt kommt er vermutlich sowieso woanders hin

Aber ist halt so, keiner kann sagen was 3 Jahre wirkliche Nutzung machen. Wir werden es sehen :-) A

Tesseract
2024-04-27, 13:48:49
Wenn es um den Vergleich von zwei Displays oder Technologien geht kann man seriös nur Bildschrime mit gleicher ppi Vergleich.

die pixeldichte ist integraler teil des panels, genauso wie die subpixelgemetrie. du kannst preis/"leistung" vergleichen, du kannst absolute "leistung" (das kann vieles sein) vergleichen aber willkührlich einen aspekt festzutackern und das als "seriös" zu bezeichnen ist alles andere als seriös, schon garnicht mit so absolutistischen begriffen wie "inakzeptabel".
wie gesagt: nach objektiven, resultatbezogenen kriterien (was kommt tatsächlich beim auge an) haben die 4k/32 QDOLEDs eines der besten schriftbilder aller panels. klar liegt das an der pixeldichte aber diese panel haben nunmal diese pixeldichte und die ist eben so hoch, dass unterschiede in der subpixelstruktur nur eine geringe rolle spielen, was u.a. HUB auch schon mehrmals erwähnt hat.

die problematischere Skalierung

welche skalierung? was, außer bilinearem upscaling irgendeiner legacy-software, sieht in 4k nicht welten besser aus?

Xaver Koch
2024-04-27, 13:57:26
Und was spricht dagegen, einfach einen 32 Zoll 2160p LCD (IPS oder VA) mit einem 32 Zoll 216p OLED (WOLED und QD-OELD) zu vergleichen um die Vor- und Nachteile der jeweiligen Technologie aufzuzeigen?

Naürlich kann man mit höherer Auflösung einige Probleme so minimieren, dass sie nicht mehr (fürs Auge) störden oder gar sichtbar sind.

Tesseract
2024-04-27, 14:01:23
nix, warum sollte da was gedagegen sprechen? das resultat ist halt, dass schrift nahezu gleich aussieht und andere faktoren wesentlich wichtiger sind.

Hikaru
2024-04-27, 15:04:39
Wer nebenher produktiv arbeitet, kommt um IPS kaum drumrum.

Was kann ein IPS besser beim produktiven Arbeiten als ein VA? Ernst gemeinte Frage.

Exxtreme
2024-04-27, 15:14:42
Was kann ein IPS besser beim produktiven Arbeiten als ein VA? Ernst gemeinte Frage.

Der Blickwinkel ist da viel stabiler und die Farben sind auch viel besser. Ansonsten fällt mir da nichts ein. Wobei ich nicht weiss, was mit "produktives Arbeiten" gemeint ist. Bildbearbeitung? Office-Jobs? Bei letzterem tut es auch ein TN-Panel.

Hikaru
2024-04-27, 15:30:31
Der Blickwinkel ist da viel stabiler und die Farben sind auch viel besser. Ansonsten fällt mir da nichts ein. Wobei ich nicht weiss, was mit "produktives Arbeiten" gemeint ist. Bildbearbeitung? Office-Jobs? Bei letzterem tut es auch ein TN-Panel.

Blickwinkel ist bei mir immer "perfekt" frontal. Was auch sonst? Und was die achso gelobten IPS Farben betrifft... (Ernst gemeint) Wie können Farben besser sein bei solch unterirdischem Kontrast? Sobald es dunkler wird is babbela mit Grauschleier Farben.

Mein Resumee: OLED bekommt kein RGB Raster hin, warum auch immer. IPS hat Gurkenkontrast. TN? Haha! Bleibt mir momentan nur VA. Fahre seit immer VA und von daher stört mich das seltene Swarzschmieren nicht wirklich.

Alles Kagge wie mir scheint. Will CRT aber in flach zurück. Hätts fast mit FED/SED gegeben, wurde aber aus komischen Gründen wieder versenkt.

aufkrawall
2024-04-27, 15:33:12
Blickwinkel ist bei mir immer "perfekt" frontal. Was auch sonst?
Dann kannst du halt den Gammashift zu den Bildrändern hin schlecht sehen. Bei zig VA-Geräten ist der immer noch genau so schlecht wie vor 10-20 Jahren. Wie ein bei der kleinsten Kopfbewegung sich verändernder Dreckschleier überm Bild, wirklich toll. :freak:

Ex3cut3r
2024-04-27, 15:42:15
Das Problem bei VAs neben den Blickwinkeln, ist auch noch das 98% der Panels (meistens von Samsung) noch ein miserables Grainy Coating haben, wo einfach viel "Glanz" verloren geht. Die meisten IPS Panels haben halt eher ein Smoothes bis leichtes glare Coating. Was ehrlich gesagt viel ausmacht. Dazu noch der Black Crush, der so viele Details in den dunkeln Szenen klaut.

Der_Korken
2024-04-27, 15:50:51
Meine letzte VA-Erfahrung ist schon eine ganze Weile her. Ich hätte vielleicht nicht sagen sollen "kommt nicht drum rum", aber IPS hat definitiv noch eine Daseinsberechtigung solange OLED noch so teuer ist und seine Macken rumschleppt.

Exxtreme
2024-04-27, 15:56:07
Bin gespannt ob man das Flackern per Firmware fixen kann. Sollte ja nicht so schwer sein die Helligkeit zu normalisieren da das ja von der Framerate abhängt.

Tesseract
2024-04-27, 16:07:38
Was kann ein IPS besser beim produktiven Arbeiten als ein VA? Ernst gemeinte Frage.

historisch: härtere anti-glare coatings verfügbar (gut für helle büros), wesentlich stabilere blickwinkel in bei hellem inhalt (office zeug), flach, anfangs höhere pixeldichten bzw. größere non-TV-formate, bessere verfügbarkeit in großen mengen bei dell etc.

für farbkritisches arbeiten: high-end varianten von IPS waren immer schon akkurater als andere LCD typen. wenn farben am schirm mit druck auf verschiedenen papiertypen übereinstimmen sollen usw. ist es nicht sehr vorteilhaft wenn man den bürostuhl 2cm tiefer stellt und plötzlich ist die farbe am schirm 3 stufen anders; oder wenn die gleiche farbe in der bildmitte anders aussieht als am rand.

Blickwinkel ist bei mir immer "perfekt" frontal.
nein, das ist geometrisch nicht möglich.

Wie können Farben besser sein bei solch unterirdischem Kontrast? Sobald es dunkler wird is babbela mit Grauschleier Farben.

besserer gradient, genauere abdeckung des farbraums, höhere reale bittiefe. subjektiv machen die dunkelsten 5% (guter kontrast) viel aus, beim arbeiten mit farben bewegt sich aber fast alles im viel helleren bereich. wenn ein natürlicher hautton am ende der kette immer noch aussehen soll wie ein natürlicher hautton ist es egal ob schwarz im schirm im dunklen raum grau ist oder nicht. sind ganz andere anforderungen als "spiel/film soll poppen". "besser" bedeutet hier nicht "beeindruckender" sondern konsistenz zwischen monitoren, sitzpositionen, bildschirmpositionen, räumlichkeiten etc.

Hikaru
2024-04-27, 17:33:34
Danke, gute Argumente wenn man es wirklich für die Arbeit braucht. Für meine Zwecke aber völlig ungeeignet da schlechter Kontrast. Ich mag auch nicht wie das Bild bei IPS aussieht. Schwer zu erklären.

@Ex3cut3r Mein Eizo VA hat ein seidenmattes coating was sehr gut schluckt. Ganz matt hatte ich auch schon aber dieses coating ist für mich perfekt. Mal schauen was mein neuer LG VA für ein coating haben wird. Ich werde ausführlichst berichten.

Leider gibts bei Eizo nichts mehr mit 120Hz+. Alles 60Hz, sogar die sauteuren color Dinger für professionelle Arbeiten. Professionell dahergeruckelter Mauszeiger sag ich mal. Die sind irgendwie dumm geworden. Damals gabs Eizo, und dann den Rest.

Savay
2024-04-27, 20:28:55
Naja alles über 60Hz brauchst du für Bild/Videobearbeitung und Office einfach nicht.
Ein Nutzen ist für solche Anwendungen bisher einfach absolut nicht vorhanden, dafür frisst es deutlich mehr Strom und malträtiert die IGPs die häufig das einzige sind was den kram befeuert doch ziemlich stark, insbesondere wenn mehr als ein Display dran hängt!
Ich würde mich als EIZO auch nicht auf Features konzentrieren die in deren Kerngeschäft einfach so gut wie keinen Mehrwert bieten.

Und zum Schriftbild:

Das Schriftbild auf dem 109ppi VA auf der Arbeit ist klar schlechter als beim 140ppi QD-OLED.
Das Schriftbild auf meinem 140ppi QD OLED ist schlechter als auf meinem 120Hz ~163ppi (Nano)IPS.
Das Schriftbild von meinem 270ppi 14" OLED Convertible (auch dreieckiges Layout) ist mit Abstand am besten.

Die Unterschiede kommen im wesentlichen aus den PPI und den daraus resultierenden abweichenden Skalierungsfaktoren bei gleichem Sitzabstand zustande.

Bei gleichen PPI ist ein Stripe Layout sicher ein wenig besser als ein Dreieck, das wird man aber wohl eher höchstens im Direktvergleich sehen.
Und wie sehr es einem auffällt hängt dann auch noch sehr stark vom Visus ab!

Hikaru
2024-04-27, 21:36:37
Ich finde eine flüssige Maus trägt unheimlich dazu bei besser kleine icons zu treffen. Und wer Geld hat sündhaft teure Monitore zu kaufen dem sollte etwas mehr Stromverbrauch wirklich nicht jucken.

60Hz ist einfach nicht mehr zeitgemäss wie ich finde. Ausserdem schmierts etwas weniger aufm screen. Kumpel von mir der einen 48" CX zum Arbeiten benutzt würde nie mehr zu 60Hz zurückkhren wollen. Die 120Hz empfand er sehr wohl als ein grosses quality of life improvement. Zumindest sollte Eizo das als Option anbieten. Man muss ja nicht 120 fahren wenn man nicht will.

Exxtreme
2024-04-27, 21:39:28
Also ich sehe auch einen großen Unterschied zwischen 60 und 120 Hz. Aber ab 120 Hz ist es für mich kaum noch wahrnehmbar. Mit 240 Hz ist der Mauszeiger aber weniger verblurrt.

ChaosTM
2024-04-27, 21:55:11
240hz ist nochmals ein (kleiner) Schritt, aber nicht mal ansatzweise so groß wie der von 60 auf 120.

Ich mag meinen Laptop, aber die 240hz @ 18 Zoll sind einfach zu klein..

add.: grundsätzlich kann die Bildwiederholrate nie zu hoch sein

Tesseract
2024-04-27, 22:26:15
gewöhnungssache. eine zeit lang 120 und 60 sieht aus wie 30, eine zeit lang 240 und 120 sieht aus wie 60. ;D

Platos
2024-04-28, 00:41:33
Wird wahrscheinlich wie Auflösung sein. Nur ist das bei Gamer weniger verbeitert wie hohe Hz Zahlen. Ich könnte auch kotzen, wenn ich 1440p Displays sehe. So wie eben andere bei 30FPS oder 60FPS Augenkrebs kriegen.

Ist hald so. Früher war auch ein Spiel beeindruckend Grafisch gesehen. Heute ist ein Spiel von früher das nicht mehr.

Ist eigentlich ziemlich kacke dieser Mechanismus im Gehirn ^^

anorakker
2024-04-28, 00:53:52
Geil finde ich immer wieder den Gedanken, dass ich bis 2003 fast durchgehend 75 oder 85Hz Refreshrate am Desktop hatte - wie eigentlich jeder andere auch, der keinen Bock auf Kopfschmerzen hatte. Aber dann kamen die LCDs und wir haben uns an ein schmieriges, ruckeliges 60Hz Bewegtbild gewöhnt - im Namen des "Fortschritts" ;)

Savay
2024-04-28, 01:18:19
Naja nicht direkt zu vergleichen.
Die CRTs haben halt geflimmert wie sau...und die die Frameraten in Spielen war ja eh fast nie auch nur in der nähe der Wiederholrate.

"Ruckelig" und "schmierig" empfinde ich 60Hz für normale Desktopanwendungen weiterhin nicht, selbst auf nem VA...trotz 90Hz OLED, 120Hz IPS & OLED und neuerdings 240Hz OLED.

Ich finde eine flüssige Maus trägt unheimlich dazu bei besser kleine icons zu treffen.

Die Maus selbst ist da wichtiger...hab da keinerlei Probleme mit nem 60Hz VA oder IPS.

Tobalt
2024-04-28, 01:19:10
Ich finde eine flüssige Maus trägt unheimlich dazu bei besser kleine icons zu treffen. Und wer Geld hat sündhaft teure Monitore zu kaufen dem sollte etwas mehr Stromverbrauch wirklich nicht jucken.

60Hz ist einfach nicht mehr zeitgemäss wie ich finde. Ausserdem schmierts etwas weniger aufm screen. Kumpel von mir der einen 48" CX zum Arbeiten benutzt würde nie mehr zu 60Hz zurückkhren wollen. Die 120Hz empfand er sehr wohl als ein grosses quality of life improvement. Zumindest sollte Eizo das als Option anbieten. Man muss ja nicht 120 fahren wenn man nicht will.

Jap, also selbst zum Arbeiten kotze ich im Strahl bei 60 Hz. Gefühlt wird da die Produktivität bei klickintensiven Sachen massiv torpediert.

Wenn der Monitor mal wieder wegen diverser Remote Desktop Eskapaden aus Gründen sich auf 60 Hz gestellt hat, brauche ich 1 sek (eine Mausbewegung) um dies zu bemerken, ohne dass es mir irgendjemand sagt.

Naja nicht direkt zu vergleichen..die CRTs haben halt geflimmert wie sau...

Nicht bei ~80 Hz und mehr IMO. Ab 85 Hz war es für mich damals nichtmal im Augenwinkel bemerkbar.

Savay
2024-04-28, 01:29:50
Natürlich sieht und bemerkt man den Unterschied. Man merkt auch 240Hz vs. 120Hz...
Aber jetzt notwendig ist das nun wahrlich nicht in EIZOs Kerngeschäft!
Da bringt ja sogar mehr Auflösung grundsätzlich mehr!

Wäre halt so nen bisschen so als wenn man nen Fully E-MTB besorgt um damit einzig und allein in der Norddeutschen Tiefebene jeden Samstag 300m zum nächsten Bäcker zu fahren um dort 6 Brötchen zu kaufen.

Tobalt
2024-04-28, 01:36:28
Ne würde ich nicht verallgemeinert sagen, dass für Foto/Videobearbeitung mehr Auflösung für jeden mehr bringt als 120 Hz.

Wie gesagt, der Produktivitätsbonus von 120 Hz über 60 Hz ist massiv

Savay
2024-04-28, 01:43:51
Insbesondere für Bildbearbeitung ist der Gewinn durch Auflösung signifikant höher als der von höherer Wiederholrate!
Das war auch einer der Gründe warum ich bereits so früh auf UHD umgestiegen bin und auch lange zeit durchaus mit 60Hz zufrieden war...weil mehr Hz automatisch weniger Auflösung bedeutet hätte.

Die nutzbare Arbeitsfläche wird faktisch deutlich Größer und Bilder lassen sich auch ohne 100% Zoom deutlich besser in ihren technischen Eigenschaften beurteilen! (Schärfe, Aberrationen, Fokuspunkte etc. pp)
Das ist ein absoluter Gamechanger für den Workflow und nicht zu unterschätzen!

Videobearbeitung ebenso, grade wenn es um Material >FHD geht, wenn auch im Schnitt auf etwas niedrigerem Niveau.
Aber Da Vinci profitiert bspw. mMn ziemlich von dem faktischen Flächengewinn. (Trotz gleicher ~ Skalierung)
Mehr Hz. bringt dir da aber auch fast nichts...die wenigsten Kameras bekommen ja wirklich stabile 4K@60Hz hin...geschweige denn Oversampled oder mit mehr Refreshrate...und wenn dann wird das eh meist für Slomos genutzt.

Am Ende ist nur der Mauszeiger etwas fluffiger...das ist m.E. als einziger Benefit irgendwie nicht wirklich Wert für den Anwendungsbereich.

"Schöner bohren - So werden deine Löcher noch runder - featuring Makita statt Bosch (Grün)"

Mordekai2009
2024-04-28, 02:02:44
Alles Kagge wie mir scheint. Will CRT aber in flach zurück. Hätts fast mit FED/SED gegeben, wurde aber aus komischen Gründen wieder versenkt.


Interessant... FED und SED. Schade dass diese nicht mehr existieren.

Hikaru
2024-04-28, 09:32:27
Wird wahrscheinlich wie Auflösung sein. Nur ist das bei Gamer weniger verbeitert wie hohe Hz Zahlen. Ich könnte auch kotzen, wenn ich 1440p Displays sehe. So wie eben andere bei 30FPS oder 60FPS Augenkrebs kriegen.

Ist hald so. Früher war auch ein Spiel beeindruckend Grafisch gesehen. Heute ist ein Spiel von früher das nicht mehr.

Ist eigentlich ziemlich kacke dieser Mechanismus im Gehirn ^^

Also ich fahr grad mein Neo-Geo MVS (Arcade Variante) auf einem 14" 1084 CRT in 240p inklusive wunderschönen scanlines.

Farben sind top und in Sachen Bewegtbildschärfe rasiert der 60Hz Monitor JEDEN OLED im Schlaf. Man muss halt Prioritäten setzen;D

Jetzt muss noch ein Sony PVM Studiomonitor her. Die Dinger haben ein hammer Bild. Achso, ZERO input lag obendrein sowie zero lag des MVS da kein framebuffer. Hachja...

@Mordekai SED/FED kam nie auf den Markt. Da wurden Patente hin-und hergeschoben bis glaub Canon das still versenkt hat. Kann mir Vorstellen das diese Tech LCD in den Weg kam. Sprich, das Wasser hätte abgraben können. Thema Investitionen in LCD. Angeblich gabs 120Hz Demos die erschreckend plastisch aussahen in Bewegung während LCD anfang der 2000er ein furchtbares Geschmiere waren und eigentlich immer noch sind wenn auch viel weniger. War praktisch ähnlich Plasma mit Phosphor nur nicht gepulst/geblitzt um Helligkeit zu regulieren sondern eine Eletronenkanone pro (Sub?)Pixel. Kann mir gut vorstellen das dies kein hold/sample (Schmier)Verfahren war sondern wie ein normaler CRT von oben nach unten gescannt wurde. Deswegen die irrsinige Bewegtbildschärfe.

Mordekai2009
2024-04-28, 11:51:07
Ja. Das kenne ich von CRT. Und die Technik über FED/SED war sehr interessant zu lesen, was alles konnte. Was hätte es ganz anders ausgesehen? LCD existiert nicht oder im Hintergrund gedrückt und SED/FED wäre Trumpf im Markt was in allen Bereichen fast unbesiegbar wäre. Frei von Patentstreitigkeiten und mehr.

Ich warte immer noch für eine lange Zeit auf was besseres, das mit CRT ähnelt (Strobe Backlight) bis es irgendwann soweit ist. Hoffentlich geht es Vorwärts mit MicroLED.

robbitop
2024-04-28, 11:57:30
Naja 360 Hz OLED (aktuell 1440p) sollte schon ziemlich gut sein was Bewegtschärfe angeht. Alte Spiele sollten hohe fps Zahlen schaffen und bei modernen kann man mit Framegeneration nochmal ordentlich nachhelfen.

Relex
2024-04-28, 12:06:10
Das Strobe Backlight ist doch auch nur ein optischer Effekt, der durch das flimmern und die dadurch verkürze Anzeigezeit die Unschärfe reduziert.

Wird halt erkauft durch geflimmer, was eben ziemlicher Mist ist.

Bei den 60 Hz CRTs hab ich damals immer nach 1-2 Stunden Kopfschmerzen bekommen.
Selbst bei einem 170 Hz ELMB Sync Asus hab ich das geflimmer gesehen.

Das flimmern ist als Spielerei vielleicht mal interessant, aber keine Lösung für das Unschärfeproblem.


Am sinnvollstens wirds sein, die Bildraten via zwischenbildberechnung auf 1000 Hz zu treiben und die OLEDs mit 1000 Hz anzusteuern. Sollte mit DSC auch absolut kein Ding der Unmöglichkeit sein.

Schätze mal in 5 Jahren wird das dann auch möglich sein.


Ich persönlich kann die obsession mit CRTs generell nur bedingt nachvollziehen. 60 Hz sind auch mit perfekter Bewegtbildschärfe einfach viel zu wenig, da im Vergleich eben ruckelig und viel weniger smooth wie auf nem 120+ Hz Display und in der Praxis musst du sogar mit 60 Hz Vsync limit spielen, weil du sonst tearing hast (kein VRR) was den lag auf nem PC jeneseits der 100 ms treiben kann. Selbst wenn man den PC Lag weg nimmt, hast du alleine durch die 60 Hz mit 16,6ms Bildwechselzeit einen entsprechend größen Lag von Bild zu Bild, als bei nem 240 Hz oder 360 Hz Display, einfach weil du viel länger warten musst, bis ein neues Bild kommt.

Tobalt
2024-04-28, 12:21:31
Wie du schon sagst, mit DSC und ZBB wind 1000 fps schon in Reichweite..

Das größte Problem bleiben die Engines, deren Workflow einfach nicht darauf ausgelegt ist.

Es bräuchte da etwas weniger brute forciges: Also kein stupides komplette Szene neu ausrechnen und dann zum Shading schicken, sondern die Szene sollte da insgesamt modularer und on-demandiger gehandlet werden.

Exxtreme
2024-04-28, 13:54:21
Am sinnvollstens wirds sein, die Bildraten via zwischenbildberechnung auf 1000 Hz zu treiben und die OLEDs mit 1000 Hz anzusteuern. Sollte mit DSC auch absolut kein Ding der Unmöglichkeit sein.

Schätze mal in 5 Jahren wird das dann auch möglich sein.



Ich glaube nicht, dass in absehbarer Zeit soetwas marktfähig sein wird. Die Datenmengen, die man da durch das Kabel schleusen muss, werden exorbitant hoch sein, selbst mit DSC. Dann wird der Stromverbrauch auch sehr hoch werden etc. UHD mit 240 Hz wird, glaube ich, sehr sehr lange eine Art Goldstandard werden. Es gilt auch hier das Gesetz des abnehmenden Grenzertrages.

Platos
2024-04-28, 14:49:05
Und selbst bei 240Hz wird man das noch lange nicht ausnutzen können unter 4k, weil das in den meisten AAA Titeln schlichtweg nicht erreicht wird, nicht mal mit doppelter Perfomance einer 4090.

Und selbst dann ginge es oft nicht, da die CPU vorher schon lange schlapp macht bzw. verm. die Engines einfach nicht damit klar kommen in Spielen, die nicht wie Fortnite und co. sind.

Relex
2024-04-28, 15:11:48
Deswegen ja Zwischenbildberechnung.

Dass das "nativ" nichts wird ist logisch. Denn solange wir noch nicht den perfekten Fotorealismus erreicht haben geht jedes bisschen Rechenleistung in die Grafikqualität. Und die CPU sagt dann natürlich auch "nein!".

Aber wenn man der Zwischenbildberechnung genug Chipfläche spendiert, damit es möglich wird, 4K mit bis zu 1000 FPS auszugeben, dann wäre das Thema Framerate bzw. bewegtbildschärfe und smoothness erstmal vom tisch, man könnte das thema praktisch in einem abwasch komplett lösen, weil du per default einfach immer die komplette Bildwiederholrate deines Displays ausreizen könntest.

Natürlich muss man weiterhin dafür sorgen, dass das Spiel dann noch mindestens mit 40-60 FPS läuft, aber die Leistungsfähigkeit deiner GPU bestimmt dann nur noch die Grafikqualität und Latenz, aber nicht mehr die Framerate.


So eine leistungsfähige Zwischenbildberechnung ist natürlich eine Herausforderung für sich.
Bei der aktuellen Frame Generation nimmt der FPS Zuwachs in 4K zwischen 100 und 200 FPS immer mehr ab und geht allmählich gegen null bis ab irgend einer Grenze eine negativskalierung einsetzt.

Nur mit 1440p kommt man so gut wie immer weit über 300+ FPS da wird das scaling erst viel viel später schlechter.

Mit aktueller Frame Gen Technik sind 1000 FPS in 4K jedenfalls undenkbar. Aber kann ja noch werden. Die Rechenleistung die dafür notwendig ist, dürfte ziemlich statisch sein. Also unabhängig vom Content. Die Chipfläche die für 4K 1000 FPS notwendig wäre, würde also über die Jahre schrumpfen.



Ich glaube nicht, dass in absehbarer Zeit soetwas marktfähig sein wird. Die Datenmengen, die man da durch das Kabel schleusen muss, werden exorbitant hoch sein, selbst mit DSC. Dann wird der Stromverbrauch auch sehr hoch werden etc. UHD mit 240 Hz wird, glaube ich, sehr sehr lange eine Art Goldstandard werden. Es gilt auch hier das Gesetz des abnehmenden Grenzertrages.

Das ist schon richtig, aber hinsichtlich Bandbreite ist das kein unlösbares Problem

Man bekommt über die 32,4 Gbit/s von DP1.4 bereits 4K 240 Hz mit 10 Bit pro Kanal.

Das ganze multipliziert mit 4 für 960 Hz und wir liegen bei ca 130 Gbit/s

DP2.1 liegt bei 80 GBit/s.

Es reicht also bereits die nächste Verdoppelung, um 4K 1000 Hz möglich zu machen.
Ich denke das vorerst größere Problem dürfte der Scaler im Display sein, der das ganze ja in echtzeit und dann praktisch wieder unkomprimiert verarbeiten muss.

Platos
2024-04-28, 23:44:00
Wie gut Zwischenbildberechnung mit mehr wie einem Zwischenbild ist, steht in den Sternen. Bzw. ob das jemals gut wird.

Es ist ja jetzt schon so, dass mit nur einem Zwischenbild bei schnellen Bewegungen nur matsch raus kommt. Genau das Gegenteil würde man aber bei 240FPS oder gar 480/960 erwarten. Und da Zwischenbildberechnung die Latenz nicht erhöht, bleibt eigentlich nur smoothness und Bewegtschärfe übrig. Wenn dabei aber nur matach raus kommt, kann man sich das ganze auch sparen und Bewegtunschärfe auf "on" stellen.

Bevor man also über noch mehr Zwischenbilder träumt, sollte man zuerst einmal die Qualität des einen Zwischenbild steigern.

Btw. meinte ich oben mit Framegen. Man erreicht auch mit Framegen nicht mal Ansatzweise 240FPS in AAA Spielen @4k.

Tobalt
2024-04-28, 23:49:16
Zwischenbilder boosten auch dann massiv die Bewegtschärfe, wenn sie nicht pixel-perfekt jede Textur wiedergeben.

Es geht darum, dass die Position von kostrastreichen Kanten häufiger upgedatet wird um Motion Blur zu beseitigen. Das klappt selbst mit dummy ZBB auf dem TV ohne motion vectors hervorragend.

aufkrawall
2024-04-29, 02:33:42
Es ist ja jetzt schon so, dass mit nur einem Zwischenbild bei schnellen Bewegungen nur matsch raus kommt.
Nur vergisst du, dass dieser Matsch nur kurz zu sehen ist und damit subjektiv bei >70fps Basis quasi unsichtbar wird.
3x sollte bei etwas machbarem Fortschritt bei der BQ noch sinnvoll drin sein. Zwar sind dann die Fake-Frames relativ zu echten länger zu sehen, dafür wird das Delta aber auch noch kleiner und absolut sind die Frame Times bei 240Hz sehr klein.

Gast
2024-04-29, 08:18:42
Wie gut Zwischenbildberechnung mit mehr wie einem Zwischenbild ist, steht in den Sternen. Bzw. ob das jemals gut wird.


Gleich gut wie mit einem Bild. Man braucht nur genug Performance um die Zwischenbilder schnell genug berechnen zu können.

basix
2024-04-29, 08:25:03
Max. 4x FG kann mMn noch hilfreich sein. Aber mehr bringt irgendwie fast nichts mehr (240Hz Bewegtschärfe ist schon sehr gut, Basis FPS müssen irgendwann auch steigen für ein besseres Gefühl).

Auf niedriege Latenz getrimmte Engines und FG als Extrapolation anstatt Interpolation würde das 4x FG noch sinnvoll begleiten / untesrtützen. Ein heutiges "normales" 60fps Spiel ohne Reflex und Co0 fühlt sich an der Maus dann vielleicht wie ein 100fps Spiel an, obwohl nur 60fps gerendert werden und 240fps dargestellt werden. Ein sinnvoller Tradeoff.

Hinsichtlich der Diskussion zur Bandbreite:
4K -> 8K bringt mMn mehr als 240Hz -> 480/960Hz. Insbesondere bei Spielen. Dazu HDR12. Lieber die Bandbreite dort spendieren. Weg dorthin: DP2.1 Bandbreite nochmals verdoppeln (UHBR20 -> UHBR40) und dann einfach 2x Kabel nutzen. Damit erreicht man ziemlich genau das, was man für 8K/240Hz/HDR12 benötigt. Problem: UHBR40 wird nicht so schnell erscheinen, 4 Kabel verwenden will keiner oder man hat eh nicht so viele Anschlüsse an GPU & Monitor. Alternative: DP2.1 mit DSC nutzen. Wenn ich richtig vertsanden habe, wird dort immer auf 8bit komprimiert (ausgehend von der Basis Bitrate). Bei HDR12 wäre die Kompressionsrate 3*12/8 = 4.5 -> 1x DP2.1 Kabel reicht für 8K/240Hz/HDR12. Daneben gibt es seit Anfang 2023 einen neuen Standard: VDC-M direkt von Vesa (https://vesa.org/vesa-display-compression-codecs/). Der hat nochmals höhere Kompressionsraten wie DSC, ist aber komplexer (=mehr Chipfläche benötigt). Evtl. sehen wir das bereits in den 2024er APUs (https://www.intel.com/content/www/us/en/partner/showcase/offering/a5b3b0000004fclaaa/vesa-display-stream-compressionm-vdcm-12-encoder-ip-core-for-intel-fpga.html), GPUs (https://www.xilinx.com/products/intellectual-property/1-1fb6po3.html) und Co. Aber selbst ohne VDC-M: Mit 2x DP2.1 Kabeln und DSC wäre 8K/480Hz/HDR12 möglich. Ich sehe also nicht unbedingt Bedarf nach mehr Bandbreite, die Infrastruktur wäre mMn schon da. Und auch wenn ich Enthusiast und Technik-Geil bin: Wer würde mehr als 8K/480Hz am Monitor benötigen? Vermutlich 1ppm oder 0.0001% der Leute ;)

Ach ja, hier noch eine schöne Darstellung was "Visually Lossless" genau bedeutet ;)

robbitop
2024-04-29, 08:31:17
Und selbst bei 240Hz wird man das noch lange nicht ausnutzen können unter 4k, weil das in den meisten AAA Titeln schlichtweg nicht erreicht wird, nicht mal mit doppelter Perfomance einer 4090.

Und selbst dann ginge es oft nicht, da die CPU vorher schon lange schlapp macht bzw. verm. die Engines einfach nicht damit klar kommen in Spielen, die nicht wie Fortnite und co. sind.
Kommt finde ich immer auf die Präferenzen an. Wer natürlich alles auf Max stellt, wird mit keiner Hardware bei modernsten AAA Titeln konsistent hohe dreistellige fps erreichen. Aber IMO sieht man viele Detailreduktionen oftmals kaum und die bringen ordentlich Leistung. Dank DLSS kann man auch noch mal sparen. Was einem durch verlorene Bewegtschärfe in einem bewegten Bild durch die Lappen geht (was aber aufwändig berechnet werden muss) ist schon Wahnsinn. Entsprechend Details und Inputresolution runter, dann bekommt man auch hohe Frameraten.

Ist natürlich immer ein Kompromiss. :)

basix
2024-04-29, 09:02:12
Was hier durch besseres Rendering rauskommt und gerade mal 2.5x Performance kostet ist aber schon enorm:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13531907#post13531907
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13532375#post13532375

Also nicht jede "Detailerhöhung" ist unwichtig. Und vermutlich würde mit anständigem Denoising / Ray Reconstruction nur 20% Performance drauf gehen und man wäre bei ~80fps in 4K DLSS Performance mit einer 4090. Da noch FG dazu und alles wäre in Butter: Hohe Qualität und hohe FPS gleichzeitig ;)

Fragman
2024-04-29, 09:59:04
An dem Beispiel sieht man gut das nicht die Assets das Problem sind sondern diese ungenaue Beleuchtung. Klar, in der UE5 sähe das etwas anders aus, aber für andere Engines ergibt sich eine relativ "einfache" Möglichkeit diese Qualität zu erreichen.

robbitop
2024-04-29, 10:02:35
Was hier durch besseres Rendering rauskommt und gerade mal 2.5x Performance kostet ist aber schon enorm:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13531907#post13531907
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13532375#post13532375

Also nicht jede "Detailerhöhung" ist unwichtig. Und vermutlich würde mit anständigem Denoising / Ray Reconstruction nur 20% Performance drauf gehen und man wäre bei ~80fps in 4K DLSS Performance mit einer 4090. Da noch FG dazu und alles wäre in Butter: Hohe Qualität und hohe FPS gleichzeitig ;)
Jo das ginge aber auch mit herkömmlichen Rendering vermutlich wesentlich besser. Hin und wieder gibt es Beispiele wo das so ist und dann muss Raytracing es (z.t sehr teuer) richten weil das Studio sich ggf. nicht 100%ig Mühe gegeben hat.

Robspassion
2024-04-29, 10:30:35
Endlich gibt es mal eine Untersuchung zu VRR Flicker bei Oleds von rtings.

https://www.youtube.com/watch?v=1_ZMmMWi_yA

Hier ist der Artikel dazu:

https://www.rtings.com/monitor/learn/research/vrr-flicker

"One monitor that we were extremely eager to test is the new Dell Alienware AW3225QF, one of the first entrants in the ultra-high refresh rate 4k OLED market. We found that the performance of the AW3225QF was much better than the dismal performance of the Corsair but still had significant brightness fluctuations for dark content, especially when displaying our dark scene with random frame times. As the AW3225QF uses a different type of OLED panel from the WOLED used in the Corsair, we now believe that the dark level flickering is a problem inherent to all current OLEDs."

Kann ich nur bestätigen mein MSI MPG 321URX flackert je nach Spiel.

Platos
2024-04-29, 11:30:08
Zwischenbilder boosten auch dann massiv die Bewegtschärfe, wenn sie nicht pixel-perfekt jede Textur wiedergeben.

Es geht darum, dass die Position von kostrastreichen Kanten häufiger upgedatet wird um Motion Blur zu beseitigen. Das klappt selbst mit dummy ZBB auf dem TV ohne motion vectors hervorragend.

Ja, die Frage ist aber, wie lange das geht. Bei 120 anstatt 60 FPS? Ja, sicherlich. Bei 240FPS anstatt 120? Ja, noch besser. Bei 240FPS anstatt 60FPS ? Hmm, vielleicht schon nicht mehr so...

Dann wären die Frames nämlich so: ABBBABBBABBB wobei B Zwischenbilder sind und nur noch 1 von 4 wären echte Bilder. Momentan sieht es so aus: ABABAB. Das ist was ganz anderes.

Für eine Verdopplung der Framerate braucht es 1 Zwischenframe. Für eine Vervierfachung braucht es aber gleich 3. Das Zwischenframe wäre nicht mehr "nur ganz kurz" zu sehen, sondern umgekehrt, das echte Frame wäre noch viel kürzer zu sehen, wie heute das Zwischenframe. Heute ist es 50/50. Mit 4-Fach wäre es nur noch 1/4, also würde das eine echte "saubere" frame untergehen und man würde nur noch die 3 zwischenframes sehen.

Nur vergisst du, dass dieser Matsch nur kurz zu sehen ist und damit subjektiv bei >70fps Basis quasi unsichtbar wird.
3x sollte bei etwas machbarem Fortschritt bei der BQ noch sinnvoll drin sein. Zwar sind dann die Fake-Frames relativ zu echten länger zu sehen, dafür wird das Delta aber auch noch kleiner und absolut sind die Frame Times bei 240Hz sehr klein.

Ja, aber heute ist es 1:1. Mit 4-Fach wäre es 3:1, also es wären der (mit Abstand) Grossteil der Frames nur noch Zwischenbilder, die man dann auch nicht mehr als solche wahrnimmt. Bei 4 Frames 3 davon Zwischenbilder wird man diese sehen und das echte wird dann untergehen. Dass die frametime sinkt macht es eig. eher noch schlimmer. Dadurch sinkt die Zeit, in der man ein echtes Frame sieht noch mehr.

Natürlich, wenn die Bewegung nicht so schnell ist, reichen die 60FPS "echte" frames vermutlich, um relativ saubere 240FPS draus zu machen. Aber wenn man sich in ner Kampfszene (z.B Shooter) schnell dreht, dann hast du dann 12.5ms Matsch-Frame und 4.17ms gutes Frame. Ist doch klar, dass das menschliche Auge dann nur noch die 12.5ms Matsch-frames sieht. 75% der Zeit siehst du nur noch Matsch-Frames...

Gast
2024-04-29, 12:09:42
Dann wären die Frames nämlich so: ABBBABBBABBB wobei B Zwischenbilder sind und nur noch 1 von 4 wären echte Bilder. Momentan sieht es so aus: ABABAB. Das ist was ganz anderes.



Das ist völlig wurscht, entscheidend ist es wie lange es braucht bis es wieder ein richtiges/korrektes Frame gibt, nicht wie viele interpolierte es dazwischen gibt. Und dieser Abstand ist unabhängig davon wie viele Frames man zwischen den echten interpoliert.

Was es natürlich weiterhin braucht ist eine ausreichend hohe Grundfarmerate um diesen Abstand nicht zu groß werden zu lassen.

dargo
2024-04-29, 13:18:07
Cooler Master GP27U storniert?
Habe heute bei Bora nachgehackt. Daraufhin direkt eine Versandbestätigung bekommen, ich glaube die haben mich vergessen. :tongue: Aber wie gesagt... mir passt das wenn das Ding später kommt. :)

Exxtreme
2024-04-29, 13:28:07
Endlich gibt es mal eine Untersuchung zu VRR Flicker bei Oleds von rtings.

https://www.youtube.com/watch?v=1_ZMmMWi_yA


Wobei das Problem in der Praxis nicht ganz so schlimm sein wird. Solche extremen Schwankungen in den fps gibt es praktisch nie in realen Spielen. Und zweitens, man kann sich hier mit einem Framelimiter gut behelfen.

Tobalt
2024-04-29, 13:51:57
Also wenn man die Grundframerate bei 100-200 fps hat (sagen wir mal Engine-Framerate), dann sollte das Nutzergefühl schon sehr smooth sein. Das einzige bleibende Problem ist da eben die mangelnde Bewegtschärfe.

Und deshalb ist ZBB doch eine sehr passende Technik dafür, kann sie doch nichts außer eben gerade Bewegtschärfe verbessern ;)

Dann gerne auch ABBBBBABBBBBBBBABBBB, solange damit die Persistenz von Hochkontrastkanten auf ~1 ms sinkt.

dargo
2024-04-29, 14:00:00
Kann man sich eigentlich dieses Testtool von rtings downloaden was die da gebastelt haben? Ist zwar eher weit weg von der Praxis. Wenn ich in der Praxis aber nichts am flackern sehe würde ich schon ganz gerne dieses Tool mal durchlaufen lassen. Den worst case sozusagen.

Cubitus
2024-04-29, 14:01:44
Wobei das Problem in der Praxis nicht ganz so schlimm sein wird. Solche extremen Schwankungen in den fps gibt es praktisch nie in realen Spielen. Und zweitens, man kann sich hier mit einem Framelimiter gut behelfen.

Öfters als du glaubst, und Frame Limiter hilft nicht.
Kann dir etliche Ladescreens und Menüs (trotz konstanter Framerate) nennen wo es VRR Flackern gibt.

robbitop
2024-04-29, 14:08:31
Solange es beim Gamen nicht flimmert. :)

dargo
2024-04-29, 14:11:52
Kann dir etliche Ladescreens und Menüs (trotz konstanter Framerate) nennen wo es VRR Flackern gibt.
Ist zwar blöd. Aber ich könnte mich damit eventuell arrangieren wenn es nur dort vorkommt. Bin noch unsicher diesbezüglich.

Gast
2024-04-29, 15:00:44
Wobei das Problem in der Praxis nicht ganz so schlimm sein wird. Solche extremen Schwankungen in den fps gibt es praktisch nie in realen Spielen.


Das Problem ist in der Praxis quasi irrelevant. Bei derartigen Schwankungen leidet das Spielgefühl in jedem Fall, da ist das Flackern noch das geringste Problem. Das siehst du bei vernünftigen Einstellungen eigentlich nur bei Ladescreens, die bei vielen Games auf 60FPS beschränkt sind, und daher ein großer Sprung zum eigentlichen Gameplay auftritt.

Auf Samsung-Monitoren kannst du das Flackern auch vollständig (auf kosten der Latenz) unterdrücken.

Und zu guter Letzt wird VRR zunehmend irrelevant, da Tearing mit hohen Refreshraten eh praktisch nicht mehr wahrnehmbar ist.

Robspassion
2024-04-29, 15:34:11
Wobei das Problem in der Praxis nicht ganz so schlimm sein wird. Solche extremen Schwankungen in den fps gibt es praktisch nie in realen Spielen. Und zweitens, man kann sich hier mit einem Framelimiter gut behelfen.

Kann ich leider nicht bestätigen mit meinem Monitor. Da hilft kein Framelimiter bei den Spielen die Flackern (Alan Wake 2 und Dragons Dogma 2). Im Ladebildschirm flackern fast alle Games die ich getestet habe.

Bei Starfield, das hat auch stark geflackert, hilft es bei mir Frame Generation zu deaktivieren. Dann war das Flackern komplett weg, die FPS aber natürlich auch deutlich niedriger :mad:

Einzige Lösung für mich ist die Flacker Games auf dem alten LG C2 zu zocken, der bleibt hier als Backup :D. Hab da Null Flackern drauf und bin extrem empfindlich.

aufkrawall
2024-04-29, 15:48:29
75% der Zeit siehst du nur noch Matsch-Frames...
Mit TAA/Upsampling siehst du schon jetzt 100% der Zeit Matsch-Frames bei schnellen Drehungen.
Hatte das in Witcher 3 und Dying Light 2 schon getestet und zig Screenshots bei schneller Drehung gemacht. In keinem der Screenshots war irgendetwas durch FG zusätzlich schlimm kaputt (außer in DL2 das HUD), das kam schon komplett durch das FSR 2-Upsampling. Und DLSS matscht ja teilweise noch mehr, wie du schon selbst in Witcher 3 festgestellt hattest.
Wie es dann mit OLED bei 240Hz Bewegtschärfe wirklich stören wird, ist natürlich schwer zu sagen, ohne es ausprobiert zu haben. Würde aber annehmen, dass man durch die schnellen OLED-Schaltzeiten den Verlust an Flüssigkeit ohne FG auch noch entsprechend stärker merken wird.

Solange es beim Gamen nicht flimmert. :)
Bis man ein Spiel findet, wo es einen dann plötzlich stört. Man sollte schon wissen, wie man das innerhalb der Widerrufsfrist richtig testen kann.

fulgore1101
2024-04-29, 16:25:28
Habe heute bei Bora nachgehackt. Daraufhin direkt eine Versandbestätigung bekommen, ich glaube die haben mich vergessen. :tongue: Aber wie gesagt... mir passt das wenn das Ding später kommt. :)

Vielleicht war das Angebot ein Preisfehler, und die haben gehofft du stornierst wenn nichts kommt. ^^

Cubitus
2024-04-29, 16:30:13
Ist zwar blöd. Aber ich könnte mich damit eventuell arrangieren wenn es nur dort vorkommt. Bin noch unsicher diesbezüglich.

Meistens kommt es bei Menüs vor, aber Spiele die du testen kannst und wo ich es selbst beim Gamen erlebt habe.

Jedi Survivor, vor allem beim Ladebildschirm, aber auch in den Zwischensequenzen, welche aus grauen und schwarzen Farben bestehen.
Gerade die Imperiumbauten sind schön grau, dann fliegt davor iwas helles rum, wie ein Schiff oder man sieht den Charakter mit dem Lichtschwert, dann flimmert es.

Starfield ist auch so ein Kandidat, dass kann auch während dem Spielen gerne flimmern.

Alan Wake, besteht auch viel aus grauen, dunklen Bereichen welche auch zum flimmern neigen können.
und eben Cyberpunk, wobei es jetzt bei meinem LG nicht beim Spielen auffällt sondern in den Menüs/Inventar/Ladeschirm. Aber es gibt da lt Rtings Test eine fiese Szene, wo z.B der Corsair Monitor starke Probleme hat.

Wie gesagt ich konnte das Problem reduzieren, soweit das es kaum beim Spielen auffällt. (Menüs davon ausgeschlossen, aber es ist allg. besser geworden)
Mein LG läuft jetzt mit 115 Hz anstatt 120 Hz und die VRR Range ist auf 110 Hz max. gesetzt.


Und zu guter Letzt wird VRR zunehmend irrelevant, da Tearing mit hohen Refreshraten eh praktisch nicht mehr wahrnehmbar ist.

Sehe ich auch so, ab 240Hz bzw. 360 Hz+ sollte es deutlich flüssiger laufen sodass VRR langsam obsolet wird. Fette HW vorausgesetzt.
4k und 240 Hz ohne größere Schwankungen, schwierig bei neueren Titeln und max Details.

aufkrawall
2024-04-29, 16:45:24
Sehe ich auch so, ab 240Hz bzw. 360 Hz+ sollte es deutlich flüssiger laufen sodass VRR obsolet wird.
Möchte ich mal arg bezweifeln. Sieht unfassbar schlecht aus, wenn ich ohne Vsync das VRR-Range-Maximum bei 165Hz überschreite. Da wird wohl kaum bei 240Hz alles plötzlich gut sein.

Cubitus
2024-04-29, 16:49:57
Möchte ich mal arg bezweifeln. Sieht unfassbar schlecht aus, wenn ich ohne Vsync das VRR-Range-Maximum bei 165Hz überschreite. Da wird wohl kaum bei 240Hz alles plötzlich gut sein.

Ist ja jetzt nicht so weit weg stimmt..
Ich würde ja gerne mal die 360Hz testen oder eben den LG-Modus mit 480Hz

dargo
2024-04-29, 16:55:26
Und zu guter Letzt wird VRR zunehmend irrelevant, da Tearing mit hohen Refreshraten eh praktisch nicht mehr wahrnehmbar ist.
Davon sind wir noch weit entfernt, vielleicht mit 480Hz Bildschirmen. Aber auch nur vielleicht, ich müsste es selbst live sehen ob diese Frequenz schon reicht. Und Tearing ist noch das kleinste Übel bei non VRR.

Der_Korken
2024-04-29, 17:14:00
Ich glaube, dass man das Tearing auch bei hohen Hz-Zahlen immer noch wahrnehmen würde. Besser wäre es wieder auf das olle Triple Buffering zurückzugreifen. Das Problem war hier, das einzelne Frames unterschiedlich lang dargestellt wurden, d.h. bei 50 fps und 60Hz musste eines von 5 berechneten Frames doppelt angezeigt werden. Dadurch stimmte die zeitliche Komponente von dem, was man auf dem Bildschirm sah, nicht mehr mit der Spiellogik überein, sodass eigentlich flüssige Bewegungen ruckelig oder unruhig erschienen. Wenn ich die gleiche Szene auf einen 240Hz-Monitor knalle, dann stelle ich 5 Frames in 24 Zyklen dar, d.h. 4 Frames werden 5x und einer 4x dargestellt. Hier ist die zeitliche Diskrepanz deutlich kleiner. Mit 480Hz würde es natürlich nochmal besser werden. Trotzdem ist das für mich eine extrem ineffiziente Lösung für ein Problem, das eigentlich an einer anderen Stelle gefixt gehört.

Edit: Ich habe irgendwann schon mal gefragt, aber nie eine verständliche Antwort gesehen: Was genau ist eigentlich das Problem an VRR und dem Flackern? Ich verstehe ja, dass sowas wie Black Frame Insertion problematisch ist, weil das Panel hier zwischen zwei Frames auf schwarz schaltet: Wenn Frame i reinkommt, lege ich die Farben an und genau zwischen dem Zeitpunkt von Frame i und i+1 schalte ich die Pixel ab, um diesen Strobe-Effekt zu bekommen. Bei VRR weiß ich aber nicht, wann Frame i+1 bei mir ankommt, d.h. ich schätze z.B. aus den vorigen Abständen wie viel Zeit zwischen Frame i und i+1 liegen wird. Wenn aber genau jetzt die Framerate einbricht, dann schalte ich zu früh auf schwarz und Frame i erscheint über seinen abgedeckten Zeitraum gemittelt zu dunkel, was in der Praxis dann als Flackern sichtbar ist. Andersrum ist es, wenn der nächste Frame unerwartet früh reinkommt: Dann habe ich eventuell das vorigen Bild gar nicht schwarz geschaltet, sondern springe sofort zum nächsten über. Dadurch ist Frame i dann im Mittel zu hell und ich sehe wieder ein Flackern. Ohne Black Frame Insertion sollte nach meinem Verständnis aber die angezeigt Helligkeit über die gesamte Dauer eines Frames konstant sein. Deswegen verstehe ich nicht, warum die Helligkeit eines Frames davon abhängt wie lange ein Frame angezeigt wird.

Gast
2024-04-29, 19:07:01
Da wird wohl kaum bei 240Hz alles plötzlich gut sein.

Bei 144Hz ist es noch einigermaßen sichtbar, aber schon 240Hz sind gerade mal 4ms frametime, da kann man tearing nur mehr sehen wenn man es darauf anlegt.

Gast
2024-04-29, 19:31:27
Edit: Ich habe irgendwann schon mal gefragt, aber nie eine verständliche Antwort gesehen: Was genau ist eigentlich das Problem an VRR und dem Flackern?

Dass die Spannung die für eine bestimmte Helligkeit anliegen muss davon abhängt wie lange sie anliegt, und dementsprechend bei unterschiedlichen Frametimes angepasst werden muss.

Wenn man aber unbedingt die Latenz so kurz wie möglich halten will kann man nicht im Voraus wissen wie lange das nächste Frame angezeigt wird.

Hikaru
2024-04-29, 19:50:27
Edit: Ich habe irgendwann schon mal gefragt, aber nie eine verständliche Antwort gesehen: Was genau ist eigentlich das Problem an VRR und dem Flackern? Ich verstehe ja, dass sowas wie Black Frame Insertion problematisch ist, weil das Panel hier zwischen zwei Frames auf schwarz schaltet: Wenn Frame i reinkommt, lege ich die Farben an und genau zwischen dem Zeitpunkt von Frame i und i+1 schalte ich die Pixel ab, um diesen Strobe-Effekt zu bekommen. Bei VRR weiß ich aber nicht, wann Frame i+1 bei mir ankommt, d.h. ich schätze z.B. aus den vorigen Abständen wie viel Zeit zwischen Frame i und i+1 liegen wird. Wenn aber genau jetzt die Framerate einbricht, dann schalte ich zu früh auf schwarz und Frame i erscheint über seinen abgedeckten Zeitraum gemittelt zu dunkel, was in der Praxis dann als Flackern sichtbar ist. Andersrum ist es, wenn der nächste Frame unerwartet früh reinkommt: Dann habe ich eventuell das vorigen Bild gar nicht schwarz geschaltet, sondern springe sofort zum nächsten über. Dadurch ist Frame i dann im Mittel zu hell und ich sehe wieder ein Flackern. Ohne Black Frame Insertion sollte nach meinem Verständnis aber die angezeigt Helligkeit über die gesamte Dauer eines Frames konstant sein. Deswegen verstehe ich nicht, warum die Helligkeit eines Frames davon abhängt wie lange ein Frame angezeigt wird.


ich hoffe ich habe deine Frage richtig verstanden. Bei meinem non VRR VA Monitor macht sich das folgendermassen bemerkbar. Stelle ich die Gamma und Schwarzwert bei 120Hz korrekt ein ist schwarz="schwarz". Wechsle ich auf 60Hz wird es grau. Sprich, ich muss Gamma und/oder Schwarzwert nachjustieren oder ein preset benutzen was Gamma/SW in 60Hz korrekt anzeigt. Schwankt die Hz Zahl nun bei VRR Monitoren zwischen 40Hz und sagen wir mal 120Hz gibts gamma shifting all the time. Und springen die fps bei Ladebilschirmen extrem zwischen sehr gering und max gibt es wohl das Flackern. Ist also definitiv ein Ansteuerungsproblem bzw. die Natur der panels.

"Einfach" die fps auf entsprechend gewünschte Hz Zahl festnageln et voilat, kein shifting mehr. Ist zwar Holzhammer Methode, aber dann gibts auch kein "Sch**ss mehr aufm Schirm. Frei nach dem Lederjacken Motto: The more you buy (4090) the more you get. Ich verschaffe meiner 4090er Luft indem mein neuer 32"er "nur" 1440p sein wird. Und dann wird auf mindestens 120fps festgesetzt. Auf DLSS kann ich dann auch verzichten. Ganz zu schweigen von FG. Ähhm, nö. Keinen Bock auf den ganzen Quatsch. Alles nativ und gut ist.

aufkrawall
2024-04-29, 20:11:10
Bei 144Hz ist es noch einigermaßen sichtbar, aber schon 240Hz sind gerade mal 4ms frametime, da kann man tearing nur mehr sehen wenn man es darauf anlegt.
Es geht auch nicht darum, dass man Tearing mit einem roten Edding einkreisen kann, sondern dass es nicht flüssig aussieht.

Der_Korken
2024-04-29, 20:20:32
Dass die Spannung die für eine bestimmte Helligkeit anliegen muss davon abhängt wie lange sie anliegt, und dementsprechend bei unterschiedlichen Frametimes angepasst werden muss.

Wenn man aber unbedingt die Latenz so kurz wie möglich halten will kann man nicht im Voraus wissen wie lange das nächste Frame angezeigt wird.

OK, das würde das Problem erklären. Meine Annahme war ja, dass ich für eine konstante Helligkeit (unbestimmter Dauer) immer eine bestimmte Spannung anlegen muss. Die Reaktionszeit ist natürlich auch bei OLEDs nicht 0, aber die lassen wir mal außen vor.

Allerdings wirft die Erklärung weitere Fragen auf: Sagen wir mal, wir brauchen für mehr Spannung, wenn ich die gleiche Helligkeit länger darstellen möchte (vielleicht ist es auch umgekehrt, aber für das Verständnis ist es erstmal egal, wie rum man das betrachtet). Ich möchte z.B. Helligkeit 50 für 10ms darstellen. Zufälligerweise wird dabei genau die gleiche Spannung benötigt, wie wenn ich Helligkeit 70 für 5ms darstellen möchte (Zahlen sind ausgedacht, dienen nur der Veranschaulichung). Wenn ich für beide Szenarien das Bild nur für die ersten 5ms betrachte, dann müsste es identisch aussehen, denn ich lege ja die gleiche Spannung an und betrachte den gleichen Zeitraum. Aber nach Szenario A soll das Helligkeit 50 entsprechen und nach Szenario B Helligkeit 70. Für mich ist das ein Widerspruch. Die einzige Erklärung wäre für mich, dass OLEDs im Gegensatz zu LEDs keine konstante Helligkeit emittieren, sondern eher schubartig wie bei CRTs, wo die Helligkeit über eine Frametime ungleichmäßig verteilt wird und die gemittelte Helligkeit erst im Gehirn entsteht. Oder habe ich irgendwo einen Denkfehler? Sorry wenn das technische Grundlagen sind, aber ich bin einfach neugierig wo die Sachen herkommen.

Könnte man - unabhängig von meinen Ausführungen - dann nicht einfach ein Panel mit einer deutlich höheren Refreshrate betreiben, z.B. 5000Hz, wo dann den aktuelle Frame einfach immer wiederholt (und auch nur für diese 0,2ms im Fall von 5000Hz) und sobald ein neuer eintrifft, lässt man den aktuellen 0,2ms-Zyklus noch nachrefreshen und wechselt dann auf den neuen Frame? Damit hätte man das Problem des "Vorhersagens" der Frametime nicht gelöst, aber durch die hohe zeitliche Auflösung der Panelansteuerung wäre die Latenz eben winzig im Vergleich zu einer ganzen Frametime (die man hätte, wenn die Pixel immer nur dann refreshed werden, wenn ein neuer Frame kommt).

raffa
2024-04-29, 21:27:03
Man kann übrigens mit VRRtest ziemlich gut testen, ob das Panel mit VRR flickert.
Einfach in der scenes/1.lua die RGB Values zb auf


local scene = {}
scene.name = "Bars"
scene.color = {}
scene.color.fg = {3/8, 3/8, 3/8}
scene.color.bg = {1/8, 1/8, 1/8}



setzen und dann VRRtest mit Löve, love <programdir> ausführen.
Geschwindigkeit reduzieren, 1-2 balken einstellen, und random stutters langsam hochfahren.

https://github.com/Nixola/VRRTest
https://love2d.org/

Tesseract
2024-04-29, 22:01:30
ich sehe da keine lua, die szenen sind offenbar statisch reinkompiliert.

raffa
2024-04-29, 22:17:26
git clone https://github.com/Nixola/VRRTest.git
bzw halt den code runterladen, und dann kann das einfach mit löve ausführen. und eben auch am lua script rumtüddeln

https://github.com/Nixola/VRRTest/blob/master/scenes/1.lua
Bei den voreingestellten Grautönen fällt die Flackerei bei meinem Display nicht ins Gewicht, bei 1/8 rgb ab so 12ms stutter durchaus

Der_Korken
2024-04-29, 23:17:41
Ich kriege auf meinem alten Billo-IPS kein Flackern hin, aber der ist natürlich auch arschlahm im Vergleich zu OLEDs oder neueren und teureren LCDs.

Exxtreme
2024-04-29, 23:38:54
IPS und TN flackern AFAIK sowieso nicht. Sind nur OLED und VA betroffen.

aufkrawall
2024-04-30, 00:25:21
IPS flackert normalerweise nicht, immun ist es aber auch nicht. Kann auf zwei komplett verschiedenen Panels/Geräten mit FSR/DLSS FG in Portal RTX und Dying Light 2 ein Flackern provozieren, das sogar vorübergehend bei fixen 60Hz auf dem Desktop "stecken bleibt".
Ist aber eher ein Sonderfall, während das Dauer-Geflacker mit OLED und VA mit genügend großer Range wohl quasi garantiert ist.

Relex
2024-04-30, 01:25:16
Die Flackerthematik wird imo ziemlich aufgebauscht.

Das OLED flackern fällt nur in Ladescreens auf bzw. wenn die Frametimes stark schwanken. Da juckt es eh kein Stück. Im normalen Spiel tritt das nicht auf bzw. Wenn dann merkt man davon nichts. Selbst ein Frametime Spike würde ja kein Flackern per se sondern eine einmalige Helligkeitsschwankung synchron zur Dauer des Rucklers erzeugen und wird daher nichtmal als Flackern wahrgenommen.

Bei dunklen Spielen mit geringen FPS wie Alan Wake 2 kann schon hier und da ein leichtes Flackern wahrgenommen werden, aber man muss halt auch sagen, dass das halb so schlimm ist, da es nur eine moderate Helligkeitsschwankung ist und kein flackern im Sinne eines zwischenzeitlichen Schwarzbildes (wie bei einem CRT). Das ist nicht der Fall.


Muss man eben selber wissen, wie kritisch man sowas sieht.
Auf dem Papier klingt es deutlich schlimmer, als es in der Praxis ist. Aber letztendlich muss sich jeder davon selbst ein Bild machen.

Für mich wie gesagt ein non-issue und das obwohl ich das damals bei meinem Monitor extrem hoch priorisiert hatte und extra einen IPS mit G-Sync compatible zertifizierung wollte…

aufkrawall
2024-04-30, 02:23:58
Selbst ein Frametime Spike würde ja kein Flackern per se sondern eine einmalige Helligkeitsschwankung synchron zur Dauer des Rucklers erzeugen und wird daher nichtmal als Flackern wahrgenommen.

Was ist das, wenn nicht die Definition von Flackern? :freak:
Ich bitte dich. Ich kenn das von einem 60Hz VA-Gerät, sieht bei schlechten Frame Times aus wie ein Gewitter auf dem Schirm. Imho kompletter Immersionskiller, und Gift für die Konzentration in MP-Spielen.
Dass es bei OLED mit angepasster hoher Range so schlimm wie auf VA-Gurken ist, will ich aber mal nicht annehmen.

Gast
2024-04-30, 07:00:27
Könnte man - unabhängig von meinen Ausführungen - dann nicht einfach ein Panel mit einer deutlich höheren Refreshrate betreiben, z.B. 5000Hz, wo dann den aktuelle Frame einfach immer wiederholt (und auch nur für diese 0,2ms im Fall von 5000Hz) und sobald ein neuer eintrifft, lässt man den aktuellen 0,2ms-Zyklus noch nachrefreshen und wechselt dann auf den neuen Frame?

Kann und macht man im Prinzip eh, nur eben nicht mit 5000Hz, da wäre es ziemlich sicher unter der Wahrnehmungsschwelle, sondern eher im Bereich 2-4x max. Refreshrate, und da können eben noch Schwankungen im sichtbaren Bereich übrig bleiben.

Gast
2024-04-30, 07:02:07
Es geht auch nicht darum, dass man Tearing mit einem roten Edding einkreisen kann, sondern dass es nicht flüssig aussieht.

Tut es nicht, außer natürlich die Framerate wird zu niedrig.

ChaosTM
2024-04-30, 07:39:04
Bisher habe ich das nur in Menüs bei (meist) hoher Bildrate beobachtet.
Wäre das in Spielen selbst aufgetreten, wären die Monitore sofort zurück gegangen..
Das geht wirklich gar nicht.

Weltraumeule
2024-04-30, 09:44:56
Wie gesagt ich konnte das Problem reduzieren, soweit das es kaum beim Spielen auffällt. (Menüs davon ausgeschlossen, aber es ist allg. besser geworden)
Mein LG läuft jetzt mit 115 Hz anstatt 120 Hz und die VRR Range ist auf 110 Hz max. gesetzt.


- Warum nicht auf 120 Hz und VRR Range auf Max 115 Hz?
- Die 115 Hz im NV Panel Benutzerdefinierte Auflösung erstellen?
- Wie und wo stellt man die VRR Range ein? Wenn 110 Hz Maximum sind, auf was hast du Minimum eingestellt?

Frage herum, weil wohl bald von VA auf LG OLED C3 umsteigen werde und nun Angst vor dem Flackern habe. Andererseits, wenn es wirklich nicht allzuschlimm ist, sollten die Vorteile eines OLEDs überwiegen. Mein VA nervst mich dermaßen in dunklen Spielen mit dem Schlieren, ich verliere bei schnellen Bewegungen die Orientierung. Selbst mit der Switch bei Super Mario World bei Hellen Levels schmiert er. Und das Schwarz ist bloß grau, weil ich im Dunkeln Spiele.
Hatte mir den Samsung Odyssey G7 VA als alternative überlegt, da gerne bei 32 Zoll und WQHD bleiben möchte, aber der hat ja ganz andere Probleme, ist gebogen und ich habe Sorge dass er mir im Dunkeln immer noch zu hell/grau sein könnte bei Schwarzwerten.

robbitop
2024-04-30, 10:01:23
Also ich zocke ganz normal mit meinem 55BX LG OLED von 2020 und hab beim normalen Gamen eigentlich nie was Negatives wahrgenommen. Wahrscheinlich gibt es da ein paar Bordercases die dann doof sind - aber es scheint der überwiegende Mehrteil des Gamings nicht betroffen zu sein. (sonst würden auch die Reviews zu den OLED Monitoren nicht so extremst gut sein)

Wahrscheinlich ist das VRR Flackern etwas, was für die meisten jetzt nicht so viel ausmacht.

Platos
2024-04-30, 10:23:41
Das ist völlig wurscht, entscheidend ist es wie lange es braucht bis es wieder ein richtiges/korrektes Frame gibt, nicht wie viele interpolierte es dazwischen gibt. Und dieser Abstand ist unabhängig davon wie viele Frames man zwischen den echten interpoliert.

Was es natürlich weiterhin braucht ist eine ausreichend hohe Grundfarmerate um diesen Abstand nicht zu groß werden zu lassen.

Reine Behauptung deinerseits. Warum das Auge das 4.16ms lange Bild nutzen sollte und die 3x längere Darstellung von insgesammt 12.5ms einfach komplett ignorieren sollte, musst du schon zuerst mal nachweisen.

Wenn bei 240FPS (kommend von 60FPS) die schlechten Frames insgesammt 12.5ms ausmachen, ist das wie bei 80FPS von der länge her, nur dass es eben matscht. Das kurze, scharfe frame von nur 4.17ms geht dabei glatt unter.

Mit TAA/Upsampling siehst du schon jetzt 100% der Zeit Matsch-Frames bei schnellen Drehungen.

TAA ist jetzt auch nicht die Referenz. So ein schlechtes Verfahren kann man nicht als Referenz ansehen. Eine Häufige Nutzung macht etwas nicht zur Referenz. Man kann eig. nur Nativ ohne AA als Referenz und von dort aus die AA Verfahren bewerten und was nahe hier ran kommt bezüglich Schärfe, kann man dann gegebenfalls auch als Referenz sehen und TAA gehört hier mit Sicherheit nicht dazu. Und von so einer Referenz bewertet man dann eben sowas wie Framegen. DLSS matscht auch direkt, wenn Bewegung im Spiel ist. Allerdings schon bei kleinsten Bewegungsgeschwindigkeiten und nicht so stark wie das, was ich jetzt meinte. Bei Framegen bei sehr hoher Bewegungsgeschwindigkeit "matscht" es nicht nur, die Darstellung ist einfach komplett daneben.

Aber TAA hier als Vergleich zu nehmen ist halt "Cheaten", da das schon weit, weit weg von einer Referenz ist.

Tobalt
2024-04-30, 10:41:02
Platos scharfer Content wird vom Hirn immer extrem überproportional gewichtet. Falls du eine Sehschwäche hast, wirst du merken, dass man auch mit nur einer Kontaktlinse alle Details sieht.

Bei CRT war der scharfe Content nur < 1 ms da, und 10+ ms nichts. Trotzdem hqt man da was gesehen.

Die berechneten ZBB sollen nicht vordergründig Details liefern (die holt sich das Hirn aus den guten Frames) sondern vordergründig Artefakte vermeiden (ideal ein schwarzer Bildschirm) , aber dabei nicht viel Helligkeit verlieren.

Artefakte wären zB. scharfe Features mit hohem Kontrast, an der falschen Stelle für die jeweilige Zeit. Das muss Weg.

dargo
2024-04-30, 10:50:06
Vielleicht war das Angebot ein Preisfehler, und die haben gehofft du stornierst wenn nichts kommt. ^^
Keine Ahnung. Ich tippe eher auf "vergessen" da der Versand nach meiner Anfrage direkt stattfand. Laut DPD soll der Monitor zwischen 13 und 14Uhr zugestellt werden. Praktischerweise habe ich diese Woche auch Home Office. :tongue: Ob ich aber heute zum testen komme weiß ich noch nicht, habe noch Einiges nach der Arbeit zu erledigen. Vielleicht eher morgen, habe morgen zwar auch Einiges auf dem Plan, aber nicht den ganzen Tag. Wird bestimmt was für den Monitor übrig an Zeit bleiben.

Edit:
Ist schon mal frisch eingetroffen und original versiegelt. (y)

Slipknot79
2024-04-30, 11:08:45
Also ich zocke ganz normal mit meinem 55BX LG OLED von 2020 und hab beim normalen Gamen eigentlich nie was Negatives wahrgenommen. Wahrscheinlich gibt es da ein paar Bordercases die dann doof sind - aber es scheint der überwiegende Mehrteil des Gamings nicht betroffen zu sein. (sonst würden auch die Reviews zu den OLED Monitoren nicht so extremst gut sein)

Wahrscheinlich ist das VRR Flackern etwas, was für die meisten jetzt nicht so viel ausmacht.

Die LGs scheinen auch weniger anfällig zu sein. Habe auch mal nem Freund den VRR flicker test rübergeballert, er so: Seh nix. oO Dann so: Oya, muss man aber schon sehr genau hinschauen. (y)
Wohingegen der flickertest bei mir ziemlich dick am OLED rumballert. (y)

In manchen Spielen ist dann sowieso nen flickern in Ladescreens und Menüs zu sehen. Wobei mir nicht klar ist, wieso es im Menü flickert. Wusste gar nicht, dass Menüs so instabile fps ballern. :freak:

Tobalt
2024-04-30, 11:11:51
Ladescreens vor allem. Weil da halt große Sachen geladen werden. Da springen die FPS gern mal zwischen <1 fps und Fps-Limit. In den Menüs kenne ich eigentlich auch kein Flackern.

Cubitus
2024-04-30, 15:13:02
- Warum nicht auf 120 Hz und VRR Range auf Max 115 Hz?
- Die 115 Hz im NV Panel Benutzerdefinierte Auflösung erstellen?
- Wie und wo stellt man die VRR Range ein? Wenn 110 Hz Maximum sind, auf was hast du Minimum eingestellt?

Frage herum, weil wohl bald von VA auf LG OLED C3 umsteigen werde und nun Angst vor dem Flackern habe. Andererseits, wenn es wirklich nicht allzuschlimm ist, sollten die Vorteile eines OLEDs überwiegen. Mein VA nervst mich dermaßen in dunklen Spielen mit dem Schlieren, ich verliere bei schnellen Bewegungen die Orientierung. Selbst mit der Switch bei Super Mario World bei Hellen Levels schmiert er. Und das Schwarz ist bloß grau, weil ich im Dunkeln Spiele.
Hatte mir den Samsung Odyssey G7 VA als alternative überlegt, da gerne bei 32 Zoll und WQHD bleiben möchte, aber der hat ja ganz andere Probleme, ist gebogen und ich habe Sorge dass er mir im Dunkeln immer noch zu hell/grau sein könnte bei Schwarzwerten.


Ich hab vom G7 neo zum C3 gewechselt. Ich kann nur sagen es hat sich gelohnt Der G7 war jetzt nicht schlecht, was HDR betrifft, aber trotz seiner 1196 Dimming-Zonen ist es halt lange nicht so großartig wie Millionen selbstleuchtender Pixel. Du hast beim G7 harte Abstufungen sowie Ringing von dunklen zu hellen Bereichen, plus das VA-Panel ist in der Schaltzeit bzw. in der Bewegt Unschärfe einem OLED-Panel deutlich unterlegen.


Bzgl dem VRR Hack, man muss etwas herumprobieren, der LG Verhält sich da etwas komisch. 115 Hz als Grundbase, Die VRR-Range sollte etwas darunter liegen, also 110Hz. Du benötigst dafür die Software CRU.

Cubitus
2024-04-30, 15:18:48
Die Flackerthematik wird imo ziemlich aufgebauscht.

Das OLED flackern fällt nur in Ladescreens auf bzw. wenn die Frametimes stark schwanken. Da juckt es eh kein Stück. Im normalen Spiel tritt das nicht auf bzw. Wenn dann merkt man davon nichts. Selbst ein Frametime Spike würde ja kein Flackern per se sondern eine einmalige Helligkeitsschwankung synchron zur Dauer des Rucklers erzeugen und wird daher nichtmal als Flackern wahrgenommen.

Bei dunklen Spielen mit geringen FPS wie Alan Wake 2 kann schon hier und da ein leichtes Flackern wahrgenommen werden, aber man muss halt auch sagen, dass das halb so schlimm ist, da es nur eine moderate Helligkeitsschwankung ist und kein flackern im Sinne eines zwischenzeitlichen Schwarzbildes (wie bei einem CRT). Das ist nicht der Fall.


Muss man eben selber wissen, wie kritisch man sowas sieht.
Auf dem Papier klingt es deutlich schlimmer, als es in der Praxis ist. Aber letztendlich muss sich jeder davon selbst ein Bild machen.

Für mich wie gesagt ein non-issue und das obwohl ich das damals bei meinem Monitor extrem hoch priorisiert hatte und extra einen IPS mit G-Sync compatible zertifizierung wollte…

VRR auf OLEDs flackert immer, ist aber von der Wahrnehmung von Person zu Person und Szene eben unterschiedlich stark ausgeprägt.

VRR-Flackern lässt sich simpel zum Vorschein bringen, ohne extra Tools.
Ihr benötigt dafür ein Smartphone mit einer halbwegs vernünftigen Cam.

Dann geht mal in Cyberpunk und stellt euch an eine dunkle, mit Nebel durchzogene Straße mit etwas Lichteinstrahlung von ner Laterne usw. oder einen Sandsturm und macht ein Video davon. Oder klappt die Karte auf, und hoovert über diverse Filter oder im Inventar über euere Ausrüstung, am besten in der Innenstad, wenn der Hintergrund vom Inventar grau ausgeblendet erscheint.

Auf der Cam sieht man das Flackern deutlich, vielleicht auch das was das eigene Auge nicht wahrnimmt.

Dann deaktiviert ihr VRR und nimmt das Ganze erneut auf ;)

ChaosTM
2024-04-30, 15:26:17
Solange es mir ohne technische Hilfsmittel nicht auffällt oder Kopfschmerzen verursacht, kann ich damit leben.

derF
2024-04-30, 15:28:31
Wobei das Problem in der Praxis nicht ganz so schlimm sein wird. Solche extremen Schwankungen in den fps gibt es praktisch nie in realen Spielen. Und zweitens, man kann sich hier mit einem Framelimiter gut behelfen.
Bei meinem Monitor ist VRR in den meisten Spielen nicht zu gebrauchen, selbst mit Framelimiter. Bei jeder Abweichung in der Frametime sieht man es sofort. Ist gefühlt auch schlimmer geworden, als ich durch einen (un-)glücklichen Zufall von AMD zu nVidia gewechselt war.

Müsste dieser sein:
AOC Agon AG322QCX
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Tests/AOC-Agon-AG322QCX-1232312/

Ich hoffe stark, dass es bei den aktuellen OLEDs nicht oder kaum sichtbar ist.

The_Invisible
2024-04-30, 15:49:46
Bei meinem Monitor ist VRR in den meisten Spielen nicht zu gebrauchen, selbst mit Framelimiter. Bei jeder Abweichung in der Frametime sieht man es sofort. Ist gefühlt auch schlimmer geworden, als ich durch einen (un-)glücklichen Zufall von AMD zu nVidia gewechselt war.

Müsste dieser sein:
AOC Agon AG322QCX
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Tests/AOC-Agon-AG322QCX-1232312/

Ich hoffe stark, dass es bei den aktuellen OLEDs nicht oder kaum sichtbar ist.

Der ist ja auch nicht "GSYNC compatible" ausgezeichnet bzw besser "certified", da ist es dann immer wenig ein Glücksspiel wie gut es läuft. Mein voriger Monitor war auch nicht wirklich zu gebrauchen obwohl es "gelaufen" ist

aufkrawall
2024-04-30, 17:09:44
Tut es nicht, außer natürlich die Framerate wird zu niedrig.
Wenn mit 165Hz >165fps sofort massiv schlechter als VRR aussehen, was soll dann mit 240Hz und etwa 120-140fps ohne VRR los sein?
Mikro-Geruckel durch Tearing natürlich. Außer ggf. man gehört zu der Fraktion, die auch 60Hz als flüssig empfindet. :freak:

Tesseract
2024-04-30, 17:20:25
das märchen vom "unsichtbaren tearing" hören wir jede Hz-iterartion aufs neue. :freak:

The_Invisible
2024-04-30, 17:27:49
Außer ggf. man gehört zu der Fraktion, die auch 60Hz als flüssig empfindet. :freak:

Hab ich mir auch mal gedacht, aber seit 144Hz will ich 60 auch nicht mehr, irgendwo zwischen 80 - 90 genügts mir aber schon, setze da meist einen Limiter wenn ich Strom sparen will bei langsameren Games.
Ka ob beim Sprung auf 240 oder 360 sich das dann aber trotzdem wieder "ruckelig" anfühlt :D

dargo
2024-04-30, 18:03:31
So... ich bin heute doch früher mit meinen Sachen fertig geworden als gedacht und so konnte ich den Cooler Master Tempest GP27U aufbauen und ein bissel schon mal den ersten Eindruck gewinnen. :)

Hier wird sicherlich der eine oder andere User damals vor vielen Jahren einen Umstieg von 24" mit 1080p auf 27" mit 1440p vollbracht haben. Stichwort... Fliegengitter beim alten Bildschirm. So ähnlich kommt mir der Wechsel von 27" 1440p auf 27" 2160p vor. :D Die Schriftdarstellung am Desktop ist einfach umwerfend mit 4K und 150% Skalierung. :O Das sieht sowas von geleckt aus, absoluter Wahnsinn. Local Dimming habe ich auf "hoch" erstmal gestellt (keine Ahnung was hier am besten ist) aber die Schwarzwerte hauen mich einfach um, bisher nur 4k Videos angeschaut. Ich habe das Gefühl ich sitze vor einem 4K 27" OLED mit keinen Nachteilen von einem OLED. :freak: Die Helligkeit musste ich auf 14% reduzieren (Standard sind 30% vor eingestellt) sonst werden einem die Augen weggebrannt. X-D Ich fürchte selbst die 14% sind noch etwas zu hoch gewählt, Feintuning kommt später. Erstmal was zocken. :)

PS: die 160Hz am Desktop sind an der Maus auch sehr geil. Ist doch noch ein klein wenig spürbar direkter als die 144Hz beim alten Bildschirm.
PPS: neueste Firmware 1.4.1 war schon drauf.

Edit:
Falls noch nicht bekannt... VRR-Range beträgt 48-160Hz.
87994

Lurtz
2024-04-30, 18:19:40
Hier wird sicherlich der eine oder andere User damals vor vielen Jahren einen Umstieg von 24" mit 1080p auf 27" mit 1440p vollbracht haben. Stichwort... Fliegengitter beim alten Bildschirm. So ähnlich kommt mir der Wechsel von 27" 1440p auf 27" 2160p vor. :D Die Schriftdarstellung am Desktop ist einfach umwerfend mit 4K und 150% Skalierung. :O Das sieht sowas von geleckt aus, absoluter Wahnsinn.
Tja, deshalb fiel es mir auch so schwer meinen 4k/27"er damals wieder abzugeben... :ugly:

ChaosTM
2024-04-30, 18:29:34
So ungefähr habe ich mich 2015 gefühlt, als ich meinen ersten (28"*) 4K Monitor in Betrieb nahm. :D
Der konnte aber nur 60hz und hatte keine dimming Zonen.

Momentan sind es immer noch nur 4k aber dafür selbstleuchtend, mit 42 Zoll deutlich größer (so wie der Betrachtungsabstand), und immerhin mit 138hz.
Der nächste Schritt geht natürlich Richtung 240+hz. 8k machen selbst bei der Größe noch wenig Sinn.

27,3 Zoll gingen damals noch als 28" durch..

dargo
2024-04-30, 18:37:29
Boah... wie ich es mir schon gedacht habe. Pixeldichte ist durch nichts zu ersetzen. Gerade eben Horizon Forbidden West angeworfen und selbst FSR 2.2 Performance sieht auf 27" in 4K wie geleckt aus. :eek: Bei 1440p hätte ich Performance Upscaling nicht mal mit der Kneifzange angepackt. :tongue:

btw.
Weiß jemand ob ich im Arschbrenner und RTSS was umstellen muss damit die Schrift mit skaliert? Die beiden Sachen skalieren irgendwie mit den 150% von Windows nicht mit und das sieht etwas klein aus. :D

Scruffy
2024-04-30, 18:46:05
RTSS hat einen eigenen Zoomregler fürs OSD in den Einstellungen

The_Invisible
2024-04-30, 18:48:47
Boah... wie ich es mir schon gedacht habe. Pixeldichte ist durch nichts zu ersetzen. Gerade eben Horizon Forbidden West angeworfen und selbst FSR 2.2 Performance sieht auf 27" in 4K wie geleckt aus. :eek: Bei 1440p hätte ich Performance Upscaling nicht mal mit der Kneifzange angepackt. :tongue:


Sagen wir hier ja schon ewig, einmal 4k und man will nix anderes mehr, vor allem auch mit upscaling ;-)

dargo
2024-04-30, 18:50:25
RTSS hat einen eigenen Zoomregler fürs OSD in den Einstellungen
Danke, gefunden. :up: Der Arschbrenner hat es auch, jetzt passt auch die Lesbarkeit besser. =)

Edit:
Also das lokale Dimming ist schon der Wahnsinn. Bei mir im Raum ist es nicht mal dunkel obwohl die Außenrollläden wegen der Sonne fast komplett unten sind und trotzdem sieht das einfach umwerfend in Alan Wake 2 aus wenn der Raum Ingame komplett dunkel und nur die Jukebox am leuchten ist. :love4: Ich meine das hier.
https://i.postimg.cc/v16WVJZp/Alan-Wake-2-2024-04-30-19-19.png (https://postimg.cc/v16WVJZp)

PS: Helligkeit mitterweile bei 10%, die 14% waren mir auf Dauer immer noch zu hell. :ulol:

btw.
Worauf muss ich denn bei Alan Wake 2 genau achten? Bisher sehe ich nirgendwo ein Flackern. Weder im Menü noch Ingame bei sehr dunklen Szenen. Egal ob Taschenlampe On oder Off.

Gast
2024-04-30, 19:13:30
Wenn mit 165Hz >165fps sofort massiv schlechter als VRR aussehen, was soll dann mit 240Hz und etwa 120-140fps ohne VRR los sein?
Mikro-Geruckel durch Tearing natürlich. Außer ggf. man gehört zu der Fraktion, die auch 60Hz als flüssig empfindet. :freak:

Keine Ahnung was du machst, aber das kann auf jeden Fall nicht stimmen.
Gar kein Sync ist immer die flüssigste Bildausgabe, sogar noch flüssiger als VRR, VRR Monitore haben nämlich nicht wirklich eine variable Bildfrequenz, sondern verwenden stets die höchste Bildfrequenz mit variabler Blanktime.

Das einzige was mikroruckeln verusachen kann wenn man über die VRR-Frequenz kommt ist V-Sync, ich vermute mal das ist bei dir aktiv.

Persönlich kenne ich nur den Unterschied zwischen 144Hz und 240Hz, und dieser ist massiv, was die Sichtbarkeit von Tearing angeht.
Nachdem 165Hz nicht weit von 144 entfernt ist vermute ich ähnliches.

dargo
2024-04-30, 20:44:14
Gerade eben HDR in HFW probiert und auf max. 1500 Nits gestellt. Keine Ahnung ob dieses Setting was bewirkt, aber wenn ich im Dunkeln da einer Lichtquelle nahe komme muss ich schon beinah die Sonnenbrille aufsetzen. ;D HDR macht aber echt was her, plötzlich sieht SDR so langweilig aus. X-D Das einzige was ich bei HDR doof finde ist, dass man Screenshots oder Videos damit gar nicht erstellen kann weil die in SDR dann völlig falsch aussehen. Auch finde ich etwas nervig, dass ich in Windows HDR jedes Mal ausschalten muss weil die Farben dann am Desktop völlig falsch sind. Und etwas verwirrend finde ich bei HDR, dass im AB-Overlay plötzlich die Schrift anstatt orange knall rot wird. ;D Kann man das irgendwie abstellen?

Edit:
Erstaunlich finde ich auch wie klar der Desktop aussieht wenn ich keine nativen 2160p sondern nur 1440p hier einstelle. :uponder: Hier macht sich offenbar wieder die hohe ppi bemerkbar. Das finde ich richtig gut für Games wo kein Upscaling zur Verfügung steht. Denn wenn der Desktop schon überzeugt dann erst recht die Games mit dieser Auflösung.

aufkrawall
2024-04-30, 21:26:37
Gar kein Sync ist immer die flüssigste Bildausgabe, sogar noch flüssiger als VRR
Immer, wenn man denkt, man hätte schon den dümmsten Mythos über VRR gekannt...

Lurtz
2024-04-30, 21:41:51
Das einzige was ich bei HDR doof finde ist, dass man Screenshots oder Videos damit gar nicht erstellen kann weil die in SDR dann völlig falsch aussehen.

Gibt "Konverter" dafür, keine Ahnung was die taugen: https://github.com/bvibber/hdrfix

Erstaunlich finde ich auch wie klar der Desktop aussieht wenn ich keine nativen 2160p sondern nur 1440p hier einstelle. :uponder: Hier macht sich offenbar wieder die hohe ppi bemerkbar. Das finde ich richtig gut für Games wo kein Upscaling zur Verfügung steht. Denn wenn der Desktop schon überzeugt dann erst recht die Games mit dieser Auflösung.
Hm, ich fand 1440p native damals nicht so toll auf meiner 2160p/60 Hz-Möhre.

Keine Ahnung was du machst, aber das kann auf jeden Fall nicht stimmen.
Gar kein Sync ist immer die flüssigste Bildausgabe, sogar noch flüssiger als VRR, VRR Monitore haben nämlich nicht wirklich eine variable Bildfrequenz, sondern verwenden stets die höchste Bildfrequenz mit variabler Blanktime.

2015 will seine Diskussionen wiederhaben.

ChaosTM
2024-04-30, 22:02:54
2015 will seine Diskussionen wiederhaben.


ich hab ende 2014 meinen ersten 4k Monitor gekauft und das war die beste Entscheidung die ich je im Computer Bereich getroffen habe.
Natürlich konnte man nichts wirklich "nativ" spielen, aber alleine die Klarheit am Desktop war es wert.


Wir haben die Monitore meistens länger als alle anderen Komponenten.

dargo
2024-04-30, 22:02:58
Also HDR in Forza Horizon 5 sieht auch großartig aus. :up: Man... HDR könnte für mich ein echter Game Changer werden. Der Himmel sieht einfach fantastsich aus wenn die Sonne sich hinter den Wolken versteckt. :massa: Die gesamte Beleuchtung der Umgebung wirkt deutlich realistischer. Und das witzige... ganz ohne der hohen RT-Last. :D

btw.
Ich konnte jetzt endlich ein minimales Flackern wahrnehmen. Einmal im Menü von APTR wo der Hintergrund komplett weiß ist nehme ich ganz minimales Flackern wahr. Und im Menü von FH5 nehme ich ebenfalls auf der rechten Seite vom Bild ein minimales Flackern wahr. Sobald ich VRR deaktiviere oder lokal Dimming gibts überhaupt kein Flackern dort mehr. Es liegt hier also nicht unbedingt an VRR. Lokal Dimming Off und es flackert da nichts mehr. Nur ohne lokal Dimming will ich den Monitor nicht betreiben. ;) Das ist wie Tag und Nacht.


Hm, ich fand 1440p native damals nicht so toll auf meiner 2160p/60 Hz-Möhre.

Hattest du damals den Monitor oder die Graka skalieren lassen? Manche Monitorscaler sind mehr schlecht als recht. Auf dem Cooler Master sieht für mich 1440p @4k am Desktop jedenfalls nicht schlechter aus als 1440p auf dem nativen WQHD Bildschirm von ASUS in gleicher Größe.

Edit:
Och nö.... jetzt sehe ich tatsächlich zum ersten Fall ein Flackern im Gameplay. :usad:
https://i.postimg.cc/HcJYX8Ks/Forza-Horizon-5-2024-04-30-22-22.png (https://postimg.cc/HcJYX8Ks)

Nicht über die Farben wundern, ist mit HDR. Wenn ich hier im Kreis fahre sehe ich ein ganz kleines Flackern um diesen Baum herum am Himmel, und zwar nur dort. Ohne VRR ist das Flackern ebenfalls da, ohne lokal Dimming ist es weg. Manno... dabei dachte ich schon ich hätte den perfekten 4K HDR-Bildschirm gefunden. ;(

PS: im Bildschirm Menü von CM gibt es neben low, medium und high bei lokal Dimming auch noch die Option low Flicker. Und der Name ist hier Programm. In der genannten Szene von FH5 muss ich mich schon verdammt konzentrieren um da um den Baum herum noch ein Flackern zu erkennen. Es ist kaum noch sichtbar, aber eben nicht zu 100% weg. Im Menü bei FH5 merke ich dagegen keinen Unterschied zwischen low Flicker und high. Die Intensität vom Flackern würde ich dort als vergleichbar bezeichnen.

Boah... also HDR hat mich definitiv infiziert! Absoluter Wahnsinn wie viel besser Forza Horizon 5 damit aussieht. :massa: Das haut mich echt aus den Socken mit einem Bildschirm der >1000 Nits schafft. Meine Fresse... sowas muss ich definitiv für die Zukunft haben!

Platos
2024-05-01, 01:10:04
Platos scharfer Content wird vom Hirn immer extrem überproportional gewichtet. Falls du eine Sehschwäche hast, wirst du merken, dass man auch mit nur einer Kontaktlinse alle Details sieht.

Bei CRT war der scharfe Content nur < 1 ms da, und 10+ ms nichts. Trotzdem hqt man da was gesehen.

Die berechneten ZBB sollen nicht vordergründig Details liefern (die holt sich das Hirn aus den guten Frames) sondern vordergründig Artefakte vermeiden (ideal ein schwarzer Bildschirm) , aber dabei nicht viel Helligkeit verlieren.

Artefakte wären zB. scharfe Features mit hohem Kontrast, an der falschen Stelle für die jeweilige Zeit. Das muss Weg.

Was heisst nichts? Nichts ist ja auch da bei Nutzung von Strobing. Nichts und Matsch ist ja ein Unterschied. Es ist ja sogar so, dass ein kurzes Bild und dazwischen "Nichts" extrem die Bewegtschärfe erhöht. Oder was meinst du mit "nichts" ?

Cubitus
2024-05-01, 01:49:57
Also HDR in Forza Horizon 5 sieht auch großartig aus. :up: Man... HDR könnte für mich ein echter Game Changer werden. Der Himmel sieht einfach fantastsich aus wenn die Sonne sich hinter den Wolken versteckt. :massa: Die gesamte Beleuchtung der Umgebung wirkt deutlich realistischer. Und das witzige... ganz ohne der hohen RT-Last. :D

btw.
Ich konnte jetzt endlich ein minimales Flackern wahrnehmen. Einmal im Menü von APTR wo der Hintergrund komplett weiß ist nehme ich ganz minimales Flackern wahr. Und im Menü von FH5 nehme ich ebenfalls auf der rechten Seite vom Bild ein minimales Flackern wahr. Sobald ich VRR deaktiviere oder lokal Dimming gibts überhaupt kein Flackern dort mehr. Es liegt hier also nicht unbedingt an VRR. Lokal Dimming Off und es flackert da nichts mehr. Nur ohne lokal Dimming will ich den Monitor nicht betreiben. ;) Das ist wie Tag und Nacht.


Hattest du damals den Monitor oder die Graka skalieren lassen? Manche Monitorscaler sind mehr schlecht als recht. Auf dem Cooler Master sieht für mich 1440p @4k am Desktop jedenfalls nicht schlechter aus als 1440p auf dem nativen WQHD Bildschirm von ASUS in gleicher Größe.

Edit:
Och nö.... jetzt sehe ich tatsächlich zum ersten Fall ein Flackern im Gameplay. :usad:
https://i.postimg.cc/HcJYX8Ks/Forza-Horizon-5-2024-04-30-22-22.png (https://postimg.cc/HcJYX8Ks)

Boah... also HDR hat mich definitiv infiziert! Absoluter Wahnsinn wie viel besser Forza Horizon 5 damit aussieht. :massa: Das haut mich echt aus den Socken mit einem Bildschirm der >1000 Nits schafft. Meine Fresse... sowas muss ich definitiv für die Zukunft haben!

Glückwunsch, du hast recht HDR ist ein absoluter Gamechanger, ich würde auch nicht mehr ohne spielen wollen. (y)
Jetzt hol dir noch eine gescheite GPU und lass dich von RT(X) infizieren :tongue:

Slipknot79
2024-05-01, 01:52:28
Glückwunsch, du hast Recht HDR ist ein absoluter Gamechanger, ich würde auch nicht mehr ohne spielen wollen.

Jetzt hol dir noch eine gescheite GPU und lass dich von RT(X) infizieren :tongue:

Mit HDR ist er immerhin bereits 3-4 Jahre hinter uns. Kennen die meisten hier schon ohnehin, als FALD oder OLED oder beides, ist schon nen alter Café und alles durch. Can mich aber selbst auch nicht daran satt sehen (y).
Aber zu Lederjacke wird er nicht mal in 30-40 Jahren aufsteigen. :smile::cool: Auch hier wird er eine Gen hinterherlaufen. :smile:

aufkrawall
2024-05-01, 01:53:28
Ist die Hölle neuerdings im Obergeschoss?

Cubitus
2024-05-01, 01:57:01
;D scnr

dargo
2024-05-01, 08:06:37
Glückwunsch, du hast recht HDR ist ein absoluter Gamechanger, ich würde auch nicht mehr ohne spielen wollen. (y)
Jetzt hol dir noch eine gescheite GPU und lass dich von RT(X) infizieren :tongue:
Ist wieder Comedy Time im 3DC? :tongue:

So langsam zeichnet sich ab, dass der Cooler Master Tempest GP27U und ich doch keine Freunde werden. :usad: Ich nehme das dezente Flackern jetzt sogar auf dem Desktop im Browser wahr wenn ich hier zb. im Forum was schreibe sobald lokal Dimming aktiviert ist. Ist lokal Dimming deaktiviert flackert nichts. Ich empfehle öfter zwischen lokal Dimming On und Off zu wechseln (dabei nicht vergessen die Helligkeit anzupassen), irgendwann sind die Augen dafür dann gut trainiert um es zu erkennen. Gestern war ich mir diesbezüglich noch nicht 100% sicher, heute schon. Und sowas geht natürlich gar nicht, egal welche Preisklasse. Das geht voll auf die Augen auf Dauer. Für mich völlig unverständlich, dass kein Reviewer das erwähnt. Eigentlich unfassbar wie schlecht manche Reviews heute durchgeführt werden. :down:

Vorteile:
* exzellentes HDR dank hohen Nits bei guter HDR-Implementierung
* 4K auf 27" liefert wunderbare Schriftendarstellung am Desktop und weniger Fuckups mit TAA und Upscaling in Games dank mehr PPI
* fantastische Farbdarstellung mit sRGB und Kontraste mit lokal Dimming
* recht hohe Refreshrate mit 160Hz und einwandfrei funktionierendes VRR (hatte hier aber nichts anderes erwartet)

Nachteile:
* flackern mit lokal Dimming (für mich inakzeptabel, Technik offenbar noch nicht ausgereift)
* Bild über die gesamte Fläche nicht ganz homogen, bei einem komplett weißen Bild ist das "weiß" hervorragend zum großen Teil (lokal Dimming On) dargestellt, auf der rechten Seite (ca. die letzten 20%) und unten (ca. 10-15%) wird das "weiß" minimal fleckig, wenn ich den Kopf nach rechts bewege verschwindet diese Fleckigkeit, ergo etwas problematische Blickwinkelstabilität
* bei IrfanView macht sich lokal Dimming mit den 576 Zonen negativ bemerkbar, wenn ich oben als Beispiel den Reiter "bearbeiten" aufschlage verändert sich sichtbar die Helligkeit der oberen Leiste und der aufgeschlagenen Optionen von hellgrau auf eher weiß, sowas finde ich irritierend, bisher nur bei Irfanview dieses Problem angetroffen


Ich werde den Bildschirm noch etwas weiter testen. Mit diesem Flackerproblem wird das aber definitiv nichts für mich. Vielleicht muss diese Technik noch etwas reifen (auf bessere Firmware verlasse ich mich hier jedenfalls nicht, Prinzip Hoffnung ist mir da zu riskant) für spätere Bildschirme mit MiniLED. Aber 27" mit 4K spricht mich als nächstes Upgrade in 2025+ definitiv an. Gerne dann auch mit 240Hz und 1152+ Zonen.