Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?
Platos
2026-01-07, 17:04:52
Auch OLEDs kommen an diese Bildschärfe ohne BFI nicht ran. Ist auch nur Sample and Hold Type.
Aber aufs OLEDs sollten die Ergebnisse noch besser sein. :)
Die Technik wird auch für OLEDs kommen später, sagt Nvidia. Laut YouTuber
Und wo ist nochmals der Unterschied von Pulsar zu BFI?
ChaosTM
2026-01-07, 17:33:13
Google -> pulsar versus bfi
Long story short -> für ersteres braucht man wieder mal ein Modul und es ist derzeit LCD exklusiv.
250hz sollen sich wie 1000 anfühlen.
Und wo ist nochmals der Unterschied von Pulsar zu BFI?
Dass Pulsar zonenweise Pulst, BFI den ganzen Bildschirm.
Und natürlich auch dass Pulsar VRR unterstützt, BFI nur in seltenen Fällen.
robbitop
2026-01-07, 17:41:07
Dass Pulsar zonenweise Pulst, BFI den ganzen Bildschirm.
Und natürlich auch dass Pulsar VRR unterstützt, BFI nur in seltenen Fällen.
Wobei interessanterweise das auf der CES nicht gezeigt wurde. Die Monitore an denen Linus saß waren felsenfest auf 150 fps gelockt. Das macht man wahrscheinlich nicht ohne Grund.
crux2005
2026-01-07, 18:26:04
Geringere Helligkeit als der Vorgänger, kein 21:9 Format. Was ist daran perfekt? ^^
Weiß auch nicht warum man OLEDs von LG ohne weißen Subpixel noch als WOLED bezeichnet.
Ach wegen den weißen Subpixeln vor den Farbfiltern. ^^
1000 nits wurde hier schon lange als genügend deklariert und was ist an 21:9 perfekt? :rolleyes:
Wobei interessanterweise das auf der CES nicht gezeigt wurde. Die Monitore an denen Linus saß waren felsenfest auf 150 fps gelockt. Das macht man wahrscheinlich nicht ohne Grund.
Aluhut an?
Nightspider
2026-01-07, 20:16:10
1000 nits wurde hier
Wayne.
TVs gehen schon Richtung 4000 Nits und das ist auch nur ein Zwischenschritt.
Bei dem WOLED mit 1500 wurden nicht umsonst oft die hellen highlights besonders gelobt.
dargo
2026-01-07, 20:19:06
Wayne.
TVs gehen schon Richtung 4000 Nits und das ist auch nur ein Zwischenschritt.
Wen interessieren TVs? Hier gehts um Moniore falls du den Threadtitel nicht verstanden hast.
Nightspider
2026-01-07, 20:56:22
Und glaubst du helle HDR Inhalte gibts nur im Film oder was? ;D
Man kann sich auch echt blöd stellen. Falls das überhaupt gestellt ist.
Gerade wenn man tagsüber zockt macht es einen Unterschied ob die hellen Details mit 1000 oder 1500 Nits leuchte.
Wobei interessanterweise das auf der CES nicht gezeigt wurde. Die Monitore an denen Linus saß waren felsenfest auf 150 fps gelockt. Das macht man wahrscheinlich nicht ohne Grund.
Bei MonitorsUnboxed bekommst du sogar Analysen mit dem Oszilloskop, und da sieht man nicht nur dass es mit dynamischen Frequenzen arbeitet sondern auch wie sie die Helligkeit konstant halten, wenn sich die FPS plötzlich verringern.
Dann gibt es nämlich für jeden Frame einen zweiten Puls der die Helligkeit konstant hält, der dann langsam ausläuft bis die Amplitude vom Hauptimpuls angepasst wurde.
Wen interessieren TVs? Hier gehts um Moniore falls du den Threadtitel nicht verstanden hast.
TVs sind Monitore mit verbauten Empfängern.
dargo
2026-01-07, 21:33:52
Gerade wenn man tagsüber zockt macht es einen Unterschied ob die hellen Details mit 1000 oder 1500 Nits leuchte.
First World Problems. Wenn mein Raum tagsüber zu hell ist verdunkle ich ihn einfach. Ich zocke nicht im Garten.
crux2005
2026-01-07, 22:20:45
8-ivQHibIKs
6K 165 Hz IPS ist zwar nett, aber alles unter 185 Hz ist IMHO zu wenig in 2026.
Nightspider
2026-01-08, 09:45:46
0bnXb6DZNAk
ChaosTM
2026-01-08, 10:46:12
Der ist ziemlich gut. Mit 165hz nur unwesentlich schneller als der derzeitige 42er @ 138hz, aber den finde ich eigentlich gut genug.
Von der Breite her sind beide ziemlich identisch. Das würde passen.
Tandem OLED ist natürlich nett und vielleicht gibts die bald auch mit NV`s Pulsar.
Gymnopédies
2026-01-08, 11:21:26
Schade das der 21:9 52Zoll kein OLED ist....
Nightspider
2026-01-08, 12:03:55
Der ist ziemlich gut. Mit 165hz nur unwesentlich schneller als der derzeitige 42er @ 138hz, aber den finde ich eigentlich gut genug.
Mich stört das schon. Mein 3,5 Jahre alter OLED Gen1 hatte schon 175Hz. Das wäre ein Rückschritt.
ChaosTM
2026-01-08, 18:53:56
verständlich..
für Lurtz https://www.youtube.com/watch?v=r6VT5bEeKWw
ca. ab Minute 15
less eystrain?
qu3x^
2026-01-08, 19:48:27
TL; DR/DW/DL
auch kommendes Jahr gibt es keine 5k/Dualmode/Stripe/QD-/Tandem Oled von den beiden großen Herstellern. Wieder ein Jahr warten :crazy:
Irgendwie auch verständlich möchten doch die Hersteller sicher stellen dass das neue Subpixel Array endlich in der Produktivsparte ankommen. Und jene die das jetzt schon bei den eigenen OLED stört bekommen sicher Wechselgelüste
crux2005
2026-01-08, 20:42:08
Die 27" 5K 165 Hz/dual Mode IPS mit mini-LEDs (2304 Zonen) finde ich spannend. Ich hoffe LG bringt den Monitor raus, weil im HWU Video sagen sie das MSI keinen Release hat und evtl. ihn nicht raus bringt. :D
Edit: Eh, LG gibt hat "nur" VESA HDR 1000 der MSI dagegen VESA HDR 1400 und glossy screen.
dargo
2026-01-08, 20:57:16
Retina incoming.
https://youtu.be/r6VT5bEeKWw?si=CE7ZpBTdozB94Jlg&t=198
Die 27" 5K 165 Hz/dual Mode IPS mit mini-LEDs (2304 Zonen) finde ich spannend. Ich hoffe LG bringt den Monitor raus, weil im HWU Video sagen sie das MSI keinen Release hat und evtl. ihn nicht raus bringt. :D
Ob MSI da Angst um die Marge hat? :uponder:
ChaosTM
2026-01-08, 21:10:37
Ich sitze gerade vor einem 42er und 65er WOLED und der TV steht immer noch dort, wo er wegen der Größe hingehörte. Fast 1.2 Meter weiter weg/dahinter.
Der Monitor war defekt..
Beide füllen den selben optischen Raum aus, nur steht einer deutlich näher.
Was soll ich sagen. das kleine 42er Ding vor meinen Augen will ich nicht mehr haben, aber ich mag 2 Monitore...
Long story short.. mein Ziel ist eine Videowand mit "retina" Auflösung.
Lurtz
2026-01-08, 21:43:16
für Lurtz https://www.youtube.com/watch?v=r6VT5bEeKWw
ca. ab Minute 15
less eystrain?
Hab keinen Eye Strain, nur Kopfschmerzen :ugly:
Die 27" 5K 165 Hz/dual Mode IPS mit mini-LEDs (2304 Zonen) finde ich spannend. Ich hoffe LG bringt den Monitor raus, weil im HWU Video sagen sie das MSI keinen Release hat und evtl. ihn nicht raus bringt. :D
Edit: Eh, LG gibt hat "nur" VESA HDR 1000 der MSI dagegen VESA HDR 1400 und glossy screen.
Wird sicher wieder aus irgendeinem Grund enttäuschend... Bisher waren die Versuche mit 2k Zonen jedenfalls nicht sonderlich überzeugend. Alternativ nur zu Mondpreisen in Deutschland zu kriegen.
Die Helligkeit geht bei Mini LED entgegen der offiziellen Zertifizierung teils deutlich höher.
crux2005
2026-01-08, 22:12:14
Welche anderen Versuche mit 2K Zonen? Der davor hatten doch 1152 Zonen.
Spring
2026-01-09, 00:06:07
https://pics.computerbase.de/1/2/0/8/6/7-e9e1e0a8b1022c11/article-1280x720.7293ea2e.jpg
MSI MEG X: Bei diesem Display hilft AI (bitte nur SP!) beim Cheaten (https://www.computerbase.de/news/monitore/msi-meg-x-bei-diesem-display-hilft-ai-bitte-nur-sp-beim-cheaten.95718/)
https://pics.computerbase.de/1/2/0/8/6/7-e9e1e0a8b1022c11/5-1280.68e835a0.jpg
„Bitte nicht im Multiplayer“
Genau diese diplomatische Empfehlung wird vor Ort in Las Vegas mit kleiner Schrift am oberen Bildschirmrand abgegeben.
https://i.imgflip.com/agve3o.jpg
Danke für nichts MSI, Monitor passt aber wohl zur aktuellen Zeit/zum Zeitgeist. Büchse der Pandora aufgemacht.
Daredevil
2026-01-09, 00:12:38
Da macht sich MSI ja richtig beliebt bei den Gamern, total kluger Schachzug. :D
Erinnert mich so ein wenig an A3D Soundkarten beim früheren CS 1.6.
Spring
2026-01-09, 00:15:39
Da macht sich MSI ja richtig beliebt bei den Gamern, total kluger Schachzug. :D
Da dürften einige direkt Brechreiz bekommen. Ich bin auch bedient.
Und dann diese scheinheilige Empfehlung:
"für die Benutzung im Einzelspieler oder im Übungsmodus" :freak:
Lurtz
2026-01-09, 08:52:53
Welche anderen Versuche mit 2K Zonen? Der davor hatten doch 1152 Zonen.
In China gabs vereinzelt schon Modelle, die teils schlechter performet haben als mit 1152 Zonen. Muss natürlich nichts heißen...
qu3x^
2026-01-09, 09:02:55
Da macht sich MSI ja richtig beliebt bei den Gamern, total kluger Schachzug. :D
Erinnert mich so ein wenig an A3D Soundkarten beim früheren CS 1.6.
Ouhhh, a man of taste. A3D war halt so gut, da konnte EAX direkt einpacken.
Welche anderen Versuche mit 2K Zonen? Der davor hatten doch 1152 Zonen.
2k Zonen reichen auf einem 14" Macbook. auf 27" sind das immer noch viel zu wenig.
Cubitus
2026-01-09, 10:24:09
https://pics.computerbase.de/1/2/0/8/6/7-e9e1e0a8b1022c11/article-1280x720.7293ea2e.jpg
MSI MEG X: Bei diesem Display hilft AI (bitte nur SP!) beim Cheaten (https://www.computerbase.de/news/monitore/msi-meg-x-bei-diesem-display-hilft-ai-bitte-nur-sp-beim-cheaten.95718/)
https://pics.computerbase.de/1/2/0/8/6/7-e9e1e0a8b1022c11/5-1280.68e835a0.jpg
https://i.imgflip.com/agve3o.jpg
Danke für nichts MSI, Monitor passt aber wohl zur aktuellen Zeit/zum Zeitgeist. Büchse der Pandora aufgemacht.
Das war’s dann wohl mit Casual MP Shootern. Gut, mir machen solche Spiele altersbedingt ohnehin nicht mehr wirklich Spaß, aber das dürfte letztlich der Sargnagel sein. Entweder andere Hersteller ziehen nach oder es wird künftig z.b bei TVs so laufen, wo sich über kurz oder lang Custom Firmwares etablieren.
Die eigentliche Frage ist doch: Wie willst du so etwas überhaupt verhindern, wenn es direkt im Gerät selbst passiert? Ähnliche Problematiken gab es ja schon bei Controller Aimbot Modulen. Dort konnte man das nur durch enge Zusammenarbeit mit Sony und gezielte Firmware Anpassungen einigermaßen eindämmen.
Auf diverser PC Peripherie verschiedenster Hersteller ist so etwas jedoch kaum kontrollierbar und genau da liegt das Problem.
Das war’s dann wohl mit Casual MP Shootern.
Also nach viel mehr als man mit heutigen Bildeinstellungen auch schon machen kann sieht das jetzt auch nicht aus, man kann halt ein AI-Label draufpicken.
Cubitus
2026-01-09, 13:27:02
Also nach viel mehr als man mit heutigen Bildeinstellungen auch schon machen kann sieht das jetzt auch nicht aus, man kann halt ein AI-Label draufpicken.
Komplette Spieler stark hervorheben, automatischer Zoom und das direkte wegrechnen von kompletten Blend und Sichtbarkeitsberechnungen, oder evtl von Büschen, wo nur ein Teil vom Gegner sichtbar werden könnte, halte ich ehrlich gesagt für eher unwahrscheinlich, das man dies selber so zurecht konfigurieren kann.
Mir ist aber eine relativ simple Lösung eingefallen, die zumindest erstmal eine ordentliche Hürde darstellt. Die Anticheat Software könnte einfach den Monitor Identifier auslesen und alle Spieler, die solche Geräte nutzen, für Multiplayer sperren. Kurzer Prozess, fertig. Dann wäre das Teil im MP ein absoluter Rohrkrepierer.
Daredevil
2026-01-09, 13:42:34
Dir ist schon klar, dass das Feature so wie es vorgestellt wurde, heute noch überhaupt nicht funktioniert, oder? ^^
Entweder hast du eine enorme Latenz beim Gaming, weswegen man das nicht nutzt, oder es ist so schlecht, das es jede Fliegende Taube im Himmel mit Kontrast hervorhebt, das es unbrauchbar ist.
MSI hat schon letztes Jahr mit "echtem AI" gezeigt anhand eines Videos, dass die Gegner erkennung bei LOL in Büschen super gut funktioniert, siehe die Stelle hier. ;D
https://youtu.be/ySuAa_Pry2Q?si=5aMiypuWBxihPJyV&t=228
Am Ende schaut sich der Monitor "nur" das Bildsignal an und erzeugt darauf etwas. Dynamisch 100% korrekt Gegner aufhellen ist imho in Echtzeit etwas, was ein Monitor mit einem Billo Chip nicht leisten kann. Wäre dies wirklich zuverlässig, bräuchten Drohnen in der Ukraine keine Piloten mehr. Aber ich lasse mich gerne auf Basis einer Live Demo eines besseren belehren, bis dahin ist es nur quatsch. :>
Ist zudem richtig super, wenn das Display dauerhaft den Inhalt scannt. Was soll schon schief gehen?
Dazu noch das Mikrofon, was dauerhaft mithört, damit man per Voice Commands die Setting ändert. Klar, for the gamers.
Komplette Spieler stark hervorheben, automatischer Zoom und das direkte wegrechnen von kompletten Blend und Sichtbarkeitsberechnungen, oder evtl von Büschen, wo nur ein Teil vom Gegner sichtbar werden könnte, halte ich ehrlich gesagt für eher unwahrscheinlich, das man dies selber so zurecht konfigurieren kann.
Nach viel mehr als einem Shadow/Highlight-Slider sehen mir die Beispiele nicht aus. Die Gegnererkennung sieht nach einem Shadow-Gain aus, die Blendgranate nach einer Reduktion der Highlights. Wahrscheinlich wird die Range dieser Effekte automatisch durch AI "optimiert" aber viel mehr ist es nicht und kann es auch nicht sein.
Einzig der Sniper-Zoom ist neu, wobei ich mich Frage ob das wirklich was bringt oder nicht sogar mehr stört.
In jedem Fall wird das auch Latenz kosten, ich könnte mir sogar vorstellen, dass man insgesamt mit diesem AI-Firlefanz sogar schlechter wird.
TheCounter
2026-01-10, 18:04:33
Passt wohl ganz gut hier rein:
fRxzGyxJIbA
00-Schneider
2026-01-10, 18:35:12
Funktioniert in der aktuellen Form grundsätzlich nur für LCD-Monitore. Schade...
https://i.ibb.co/8D1Sc4tS/IMG-3816.jpg
ChaosTM
2026-01-10, 18:36:23
Hoffentlich lasst sich NV was für Selbstleuchter einfallen. LCD will ich nicht mehr
00-Schneider
2026-01-10, 18:39:12
Hoffentlich lasst sich NV was für Selbstleuchter einfallen. LCD will ich nicht mehr
Funktioniert ja über eine Art Backlight-Strobing. Mir fehlt die Phantasie, wie das auf OLED in irgendeiner Form funktionieren soll, wenn OLEDs kein Backlight haben.
ChaosTM
2026-01-10, 18:41:05
ja..
Deutlich hellere OLED (Tandem?) Panels + BFI könnte eine Lösung sein.
Wird schwer
robbitop
2026-01-10, 18:50:43
Die Frage ist braucht man das wirklich noch wenn man einen high refresh rate oled hat und eine gpu mit MFG? Denn damit senkt man ja auch die persistance wodurch der hold type blur bekämpft wird.
Relex
2026-01-10, 21:13:37
Funktioniert ja über eine Art Backlight-Strobing. Mir fehlt die Phantasie, wie das auf OLED in irgendeiner Form funktionieren soll, wenn OLEDs kein Backlight haben.
Dafür braucht man doch nicht viel Fantasie. Die Lösung ist doch völlig offensichtlich wenn du dir das ergebnis ansiehst. Warum sollte das auf OLED nicht funktionieren?
Praktisch muss man das Bild das ankommt nur in Segmente unterteilen und dann mit vielfacher Frequenz ausgeben.
Hier mal visualisiert, was ich meine:
https://i.ibb.co/twbyqTsq/OLED-Pulsar.png (https://ibb.co/Q76sP3NP)
Praktisch simuliert man also nen CRT. Genauso wie den CRT Pulse Shader den es seit einiger zeit gibt und den man auf der BlurBusters Website auch testen kann https://testufo.com/crt
Man kann auch auf 5 Segemente reduzieren und dadurch die Frequenz nochmal halbieren.
Grundsätzlich sollte das mit OLED schon möglich sein, die Panels kann man theoretisch sicherlich mit weit über 1000 Hz ansteuern, das Problem dürfte dann "nur" die erforderliche Datenrate sein, mit der diese Segementbilder erzeugt und ans Panel übertragen werden. Ein Scaler der das Bild so zerlegen und dann mit 2400 Hz ausgeben kann dürfte nicht billig werden.
Aber grundsätzlich würde ich sagen, dass das in den nächsten Jahren im Bereich des machbaren ist.
Wir haben ja jetzt schon 500+ Hz Displays. 240 Hz am input und 1200 Hz intern für 5 segmente sollten doch bald drin sein. Und dann ist alles weitere auch nur ne Frage der Zeit.
Die Frage ist braucht man das wirklich noch wenn man einen high refresh rate oled hat und eine gpu mit MFG? Denn damit senkt man ja auch die persistance wodurch der hold type blur bekämpft wird.
Mit MFG dürfte sich der Nutzen natürlich etwas mehr in Grenzen halten. Wobei mehr natürlich immer besser ist. Pulsar macht ja letztendlich alles was du via MFG erreichst nochmal deutlich schärfer.
Das Problem mit MFG ist dann eben dass es für e-sport nicht taugt. Denn da will man hohe FPS ja nicht nur wegen der Bildschärfe sondern vor allem auch wegen der extrem geringen latenzen. Und wenn da bei 200-400 FPS je nach Game schluss ist, wegen CPU limit, du aber immer noch blur hast, hilft pulsar natürlich auch.
Ich denke ideal wäre es einfach, beides zu nutzen, so hat man maximale Flexibilität.
Wie John ja im Video auch schon gesagt hat, es gibt viele Inhalte die auf 60 FPS/Hz limitiert sind. Und ohne Motion Vectors des Spiels wird mehr als 2x FG sicher auch schwierig.
aufkrawall
2026-01-10, 21:15:50
Die Frage ist braucht man das wirklich noch wenn man einen high refresh rate oled hat
Absolut. Laut Battle(non)sense damit Motion Blur mit 100Hz wie ohne Strobing mit 400Hz. Ein Traum für MP-Spiele etc.
ChaosTM
2026-01-10, 21:22:33
Dafür braucht man doch nicht viel Fantasie. Die Lösung ist doch völlig offensichtlich wenn du dir das ergebnis ansiehst. Warum sollte das auf OLED nicht funktionieren?
Praktisch muss man das Bild das ankommt nur in Segmente unterteilen und dann mit vielfacher Frequenz ausgeben.
Hier mal visualisiert, was ich meine:
[/URL]https://i.ibb.co/twbyqTsq/OLED-Pulsar.png (https://ibb.co/Q76sP3NP)
Praktisch simuliert man also nen CRT. Genauso wie den CRT Pulse Shader den es seit einiger zeit gibt und den man auf der BlurBusters Website auch testen kann [URL]https://testufo.com/crt
Man kann auch auf 5 Segemente reduzieren und dadurch die Frequenz nochmal halbieren.
Grundsätzlich sollte das mit OLED schon möglich sein, die Panels kann man theoretisch sicherlich mit weit über 1000 Hz ansteuern, das Problem dürfte dann "nur" die erforderliche Datenrate sein, mit der diese Segementbilder erzeugt und ans Panel übertragen werden. Ein Scaler der das Bild so zerlegen und dann mit 2400 Hz ausgeben kann dürfte nicht billig werden.
Aber grundsätzlich würde ich sagen, dass das in den nächsten Jahren im Bereich des machbaren ist.
Wir haben ja jetzt schon 500+ Hz Displays. 240 Hz am input und 1200 Hz intern sollten doch bald drin sein.
Mit MFG dürfte sich der Nutzen natürlich etwas mehr in Grenzen halten. Wobei mehr natürlich immer besser ist. Pulsar macht ja letztendlich alles was du via MFG erreichst nochmal deutlich schärfer.
Das Problem mit MFG ist dann eben dass es für e-sport nicht taugt. Denn da will man hohe FPS ja nicht nur wegen der Bildschärfe sondern vor allem auch wegen der extrem geringen latenzen. Und wenn da bei 200-400 FPS je nach Game schluss ist, wegen CPU limit, du aber immer noch blur hast, hilft pulsar natürlich auch.
Ich denke ideal wäre es einfach, beides zu nutzen, so hat man maximale Flexibilität.
Wie John ja im Video auch schon gesagt hat, es gibt viele Inhalte die auf 60 FPS/Hz limitiert sind. Und ohne Motion Vectors des Spiels wird mehr als 2x FG sicher auch schwierig.
Das hat nichts Fantasie sondern mit Durchführbarkeit zu tun.
Wenn es so einfach wäre, dann hätte NV das schon implementiert.
Du solltest dich bei NV/AMD bewerben und all deren Probleme lösen ;)
MFG wird bei so einer Lösung eher keine Rolle spielen.
add.: um ehrlich zu sein finde ich die 138hz die mein OLED schafft schon sehr gut. Bin da nicht so empfindlich wie John von DF..
add2.: hatte schon lange keinen CRT mehr in Betrieb und bin vielleicht schon abgestumpft..
crux2005
2026-01-10, 21:25:04
Die Frage ist braucht man das wirklich noch wenn man einen high refresh rate oled hat und eine gpu mit MFG? Denn damit senkt man ja auch die persistance wodurch der hold type blur bekämpft wird.
Und hat FrameGen Artefakte...
Relex
2026-01-10, 21:33:30
Das hat nichts Fantasie sondern mit Durchführbarkeit zu tun.
Wenn es so einfach wäre, dann hätte NV das schon implementiert.
Du solltest dich bei NV/AMD bewerben und all deren Probleme lösen ;)
MFG wird bei so einer Lösung eher keine Rolle spielen.
Dann erklär mir doch bitte was an der Durchführbarkeit so unmöglich sein soll.
Mir ist absolut klar, dass man nicht erwarten kann, dass sowas JETZT erhältlich ist. Denn das würde bedeuten, dass man bereits vor 3-4 Jahren nen funktionierenden prototypen hatte, den man jetzt als fertiges Produkt auf den Markt bringt. Soweit sind wir halt noch nicht.
Aber wenn du dir ansiehst, dass auf der CES jetzt schon OLED Displays vorgestellt wurden, die zumindest 720Hz (mit 720p) als input akzeptieren und verarbeiten können, dann sollte es nicht so unvorstellbar sein, dass ein Panel zumindest intern mit 1200 Hz arbeiten könnte, um so eine CRT simulation zu machen.
Was denkst du denn wie lange es von 720 Hz zu 1200 Hz dauert? 30 jahre? Wahrscheinlich werden nächstes oder übernächstes Jahr dutzende 1000 Hz Monitore auf der CES vorgestellt. Die hersteller können also so hohe Frequenzen ansteuern. Der Scaler der das Bild in die Sgemente zerlegt wird wahrscheinlich schwieriger, aber dann nimmt man sich halt wieder irgend nen FPGA der nur dafür gebaut ist. Kostet das ding halt nen 100er mehr. Für die Enthusiasten passt das schon. Für G-Sync verbaute man auch lange Zeit extra Hardware die nicht billig war.
ChaosTM
2026-01-10, 21:42:32
Ich sprach nie von einer Unmöglichkeit sondern nur dass es schwierig ist.
Ein 720hz 720p OLED ist zwar nett, aber der löst die Probleme die gelöst werden sollen nicht wirklich.
Das ist ein Brute Force Ansatz der nicht wirklich klug ist. Was wir brauchen sind 4k+ Monitore, die selbst bei nur 48/72/120hz noch füssig wie 360hz wirken.
genau das was Pulsar macht
Gumril
2026-01-10, 21:47:46
Hat das nicht wieder den BFI Nachteil von schlechterer Helligkeit?
ChaosTM
2026-01-10, 21:55:25
BFI ist sicher nicht die Lösung. Zumindest nicht mir derzeitigen Panels.
Eine Lösung die analog zu Pusar arbeitet, also mit der Segmentellen Helligkeit der Pixelansteuerung - und das scheint nicht so trivial zu sein.
Würde analog zu BFI ziemlich dunkel sein derzeit..
Momentan ist die Brute Force Lösung mit ultra hohen Bildraten wahrscheinlich einfacher..
Relex
2026-01-10, 22:04:09
Ich sprach nie von einer Unmöglichkeit sondern nur dass es schwierig ist.
Ein 720hz 720p OLED ist zwar nett, aber der löst die Probleme die gelöst werden sollen nicht wirklich.
Das ist ein Brute Force Ansatz der nicht wirklich klug ist. Was wir brauchen sind 4k+ Monitore, die selbst bei nur 48/72/120hz noch füssig wie 360hz wirken.
genau das was Pulsar macht
Echt jetzt? Wir drehen uns im Kreis ich habe auf Schneiders aussage geantwortet, die da lautete "Mir fehlt die Phantasie, wie das auf OLED in irgendeiner Form funktionieren soll, wenn OLEDs kein Backlight haben. "
Und ich habe gesagt, dass es prinzipiell extrem simpel ist. PRINZIPIELL. Das heißt die idee, das prinzip, das man umsetzen müsste ist simpel. Das heißt nicht dass die Umsetzbarkeit simpel ist. Hier sagte ich nur, dass die Technik dafür in den nächsten paar Jahren greifbar wird.
Aber du interpretierst das als würde ich es besser als Nvidia wissen und behaupten die hätten es schon gestern so releasen können. Nein, das habe ich nicht. Lies doch mal genau, was ich geschrieben habe.
Ansonsten verstehe ich deine letzte Aussage nicht. Du willst dass niedrige Hz so flüssig wie 360 Hz wirken? Genau das habe ich doch beschrieben. In meinem Beispiel bleibt die Input Frequenz bei maximal 240 Hz, während die Outputfrequenz richtung panel nach der segmentierung des Frames bei z.B. 1200 Hz liegt für 5 Segmente. Das ist exakt das gleiche Prinzip das Pulsar auch nutzt, nur adaptiert als OLED Variante ohne Backlight. Man strobed dann eben nicht das Backlight sondern das Bild selbst. Das ist deutlich aufwändiger, aber bald machbar.
Wenn bereits scaler existieren, die 720p@720Hz verarbeiten können, sind 1440p@1200Hz nur noch wenige Jahre entfernt. Oder entsprechend früher möglich, wenn das Modul teurer sein darf. Zumal die Anforderungen womöglich sogar sinken, wenn die 1200 Hz nur intern zwischen Scaler und Panel gebraucht werden und von extern nur 240 Hz kommen. Bei den 720Hz Displays läuft ja die ganze Kette mit 720Hz also input an den scaler und output an das Panel. Das wäre in meinem Beispiel aber unnötig.
ChaosTM
2026-01-10, 22:18:57
Echt jetzt? Wir drehen uns im Kreis ich habe auf Schneiders aussage geantwortet, die da lautete "Mir fehlt die Phantasie, wie das auf OLED in irgendeiner Form funktionieren soll, wenn OLEDs kein Backlight haben. "
Und ich habe gesagt, dass es prinzipiell extrem simpel ist. PRINZIPIELL. Das heißt die idee, das prinzip, das man umsetzen müsste ist simpel. Das heißt nicht dass die Umsetzbarkeit simpel ist. Hier sagte ich nur, dass die Technik dafür in den nächsten paar Jahren greifbar wird.
Aber du interpretierst das als würde ich es besser als Nvidia wissen und behaupten die hätten es schon gestern so releasen können. Nein, das habe ich nicht. Lies doch mal genau, was ich geschrieben habe.
Ansonsten verstehe ich deine letzte Aussage nicht. Du willst dass niedrige Hz so flüssig wie 360 Hz wirken? Genau das habe ich doch beschrieben. In meinem Beispiel bleibt die Input Frequenz bei maximal 240 Hz, während die Outputfrequenz richtung panel nach der segmentierung des Frames bei z.B. 1200 Hz liegt für 5 Segmente. Das ist exakt das gleiche Prinzip das Pulsar auch nutzt, nur adaptiert als OLED Variante ohne Backlight. Man strobed dann eben nicht das Backlight sondern das Bild selbst. Das ist deutlich aufwändiger, aber bald machbar.
Wenn bereits scaler existieren, die 720p@720Hz verarbeiten können, sind 1440p@1200Hz nur noch wenige Jahre entfernt. Oder entsprechend früher möglich, wenn das Modul teurer sein darf. Zumal die Anforderungen womöglich sogar sinken, wenn die 1200 Hz nur intern zwischen Scaler und Panel gebraucht werden und von extern nur 240 Hz kommen. Bei den 720Hz Displays läuft ja die ganze Kette mit 720Hz also input an den scaler und output an das Panel. Das wäre in meinem Beispiel aber unnötig.
Wir brauchen keine Scaler, die 240hz in 1200hz umwandeln können, sonder ein System, das vernünftige Bildraten flüssiger ausschauen lassen.
Bute Force vs Pulsar
.
Relex
2026-01-10, 22:59:47
Wo ist denn jetzt dein Problem an der Lösung? Das Endergebnis würde exakt genauso aussehen wie Pulsar und du könntest dem Monitor genauso nur 48-240 Hz zuspielen.
Der einzige Unterschied ist, dass es auf OLED technisch aufwändiger ist. Stört dich jetzt wirklich, dass irgend ein Chip in deinem Monitor dann potenziell mehr Arbeit verrichten muss?? Das ist dein Argument?
ChaosTM
2026-01-10, 23:14:14
Ich hab kein Problem mit irgendeiner Lösung, solange ich flüssige Bilder bekomme. Ich weiß nicht worauf du hinaus willst.
Nur bevorzuge ich grundsätzlich die klügere, effizientere Lösung, die keine 720+Hz Monitore braucht um flüssig zu wirken.
Funktioniert ja über eine Art Backlight-Strobing. Mir fehlt die Phantasie, wie das auf OLED in irgendeiner Form funktionieren soll, wenn OLEDs kein Backlight haben.
Natürlich haben OLEDs ein Backlight, genau genommen 2-4 Backlights pro Pixel.
Und OLEDs brauchen 90% von dem was Pulsar macht nicht, der Großteil ist nur notwendig um die grauenhaften Responsetimes von LCDs zu kaschieren.
Für ein OLED reicht stinknormales Strobing aus.
Der einzige Unterschied ist, dass es auf OLED technisch aufwändiger ist. Stört dich jetzt wirklich, dass irgend ein Chip in deinem Monitor dann potenziell mehr Arbeit verrichten muss?? Das ist dein Argument?
Es ist nicht Aufwändiger, es ist viel weniger aufwändig.
ChaosTM
2026-01-11, 01:22:03
Natürlich haben OLEDs ein Backlight, genau genommen 2-4 Backlights pro Pixel.
Und OLEDs brauchen 90% von dem was Pulsar macht nicht, der Großteil ist nur notwendig um die grauenhaften Responsetimes von LCDs zu kaschieren.
Für ein OLED reicht stinknormales Strobing aus.
Da kommt kein Licht von hinten. Die "Pixel leuchten alle selbst auf. Das geht dann durch mehrere Schichten, was man streng genommen als "Hintergrund beleuchtet" interpretieren könnte.
Tut man aber nicht. Diese Pixel einzeln oder in Wellen zu Stroben scheint
doch etwas komplexer zu sein.
Wäre es weniger Aufwändig, würde man es schon tun..
Troyan
2026-01-11, 10:02:31
Es ist nicht Aufwändiger, es ist viel weniger aufwändig.
Es ist bei OLED exakt genauso aufwendig. LG hatte sowas ähnliche mit der CX Series von 2020, wo man ein rollendes Verfahren für die Sichtbarkeit eingebaut hatte. Das hat die Helligkeit auf 1/4 reduziert (100% Heligkeit bei 60 Nits) und mindesten 1 Frame zusätzlichen Lag verursacht.
OLEDs sind einfach nicht gut genug für solche Verfahren. Die geringe Helligkeit ist ein massives Problem, wenn man ebenfalls eine 4x Verbesserung erreichen will.
robbitop
2026-01-11, 10:27:41
Mit MFG dürfte sich der Nutzen natürlich etwas mehr in Grenzen halten. Wobei mehr natürlich immer besser ist. Pulsar macht ja letztendlich alles was du via MFG erreichst nochmal deutlich schärfer.
Das Problem mit MFG ist dann eben dass es für e-sport nicht taugt. Denn da will man hohe FPS ja nicht nur wegen der Bildschärfe sondern vor allem auch wegen der extrem geringen latenzen. Und wenn da bei 200-400 FPS je nach Game schluss ist, wegen CPU limit, du aber immer noch blur hast, hilft pulsar natürlich auch.
Ich denke ideal wäre es einfach, beides zu nutzen, so hat man maximale Flexibilität.
Wie John ja im Video auch schon gesagt hat, es gibt viele Inhalte die auf 60 FPS/Hz limitiert sind. Und ohne Motion Vectors des Spiels wird mehr als 2x FG sicher auch schwierig.
Naja das Gesetz des sinkenden Grenzertrags gilt ja immer. Wir viel Bewegtschärfegewinn kann man subjektiv (wir sind ja subjektiv wahrnehmende Wesen) noch rausholen ggü einem OLED der mit 360-500 Hz (und dank MFG auch mit so viel fps) angesteuert wird?
Und dazu kommt, dass Pulsar auch Helligkeit kostet. Das ist etwas wo trotz guter Innovationen und Steigerungen in den letzten Jahren definitiv noch kein Überschuss vorhanden ist den man dafür jetzt ohne Schmerzen opfern könnte (im Gegensatz zu LCD). Gerade mit HDR. Ich denke das ist wahrscheinlich einer der Gründe warum das bis dato für LCDs fokussiert wird. Von der Umsetzung her sollte es auf OLEDs definitiv möglich sein.
Was Kontent ohne MFG angeht: fair point. Aber was John nicht erwähnt hat, dass man für diese ja auch FG überstülpen kann. SM ist mit den letzten Treiber updates nochmal sichtbar besser geworden und dank der compatibilty settings im Inspektor bekommt man das eigentlich immer übergestülpt. Ja dann hat man „nur“ 120 fps und die BQ ist nicht genausogut wie MFG aber schlecht ist es nicht.
Und auch bei LSFG tut sich ja noch einiges. Das ist 2024 und 25 jeweils ordentlich besser geworden. Und dort kann man auch höhere Faktoren wählen - wobei dann aber die BQ irgendwann flöten geht. 2-3x ist noch ganz okay. Bin mal gespannt, wie sich dieses Jahr der adaptive mode entwickeln wird. Der ist optisch noch nicht so toll aber das Funktionsprinzip ist spannend. :)
Relex
2026-01-11, 10:28:47
@Troyan
Die aktuellen LG OLEDs, also große TVs erreichen im Peak 4500 nits. Kleine Smartphone Displays sind sind bei 7000 nits.
Und dann soll es in den nächsten Jahren nicht möglich sein, nen Monitor mit nem vernünftigen Panel auszustatten, das zumindest für jeweils einen kleinen bereich die erforderliche Helligkeit erzeugt? Zumal wenn ein Bild angezeigt wird die durchschnittliche Helligkeit im Bild eh nur einen Bruchteil der max Helligkeit entspricht. Der Peak gilt ja nur für rein weiße flächen.
Weiß jemand, wie hell die LED Streifen bei G-Sync pulsar leuchten? Gibt wahrscheinlich keine infos dazu, aber ich bezweifle, dass die so besonders hell sind. Sicher auch nicht heller als bei typischen Mini LED Monitoren.
Vermutlich begrenzt man bei aktuellen OLED Monitoren einfach die Helligkeit, weil man weiß, dass Leute da teilweise 24/7 weiße Fenster offen haben und dadurch die OLEDs aufgrund der Hitze und dem Stromfluss auf dauer eben besonders schnell degradieren. Muss ja nicht heißen, dass die verwendete Technik selbst nicht deutlich mehr könnte. In einem kontrollierten Szenario wie Pulsar könnte man die OLED wahrscheinlich bedenkenlos mit höherer Helligkeit aussteuern, weil durch das Pulsing die effektive Lichtabgabe und damit die Wärmeentwicklung auf dauer nicht höher ist, als ohne Pulsar.
robbitop
2026-01-11, 10:34:44
Die mehreren tausend nits gelten ja nur für ein 2% Bereich. Wenn also immer nur 2% aufleuchten (also wie bei einem crt von oben nach unten rollen pro frame) ergibt das im Integral über die Zeit aber auch nur 2% der gesehenen Helligkeit. Also 2% von 5000 nits. Würden dann aussehen wie 100 nits Fullscreen brightness. Ohne Reserve für HDR wo dann einzelne Bereiche wirklich über 1000 nits haben sollten.
Wie man es dreht und wendet: Ich vermute Helligkeit ist die Achillesferse um diese Technik für OLED möglich zu machen. Dann müssen wir halt MFG nutzen.
Troyan
2026-01-11, 10:37:54
Samsungs S95F schafft nichtmal 400 Nits bei 100% Helligkeit: https://www.rtings.com/tv/reviews/samsung/s95f-oled#test_608
Das wären dann 100 Nits mit 25% Pulse-Einstellung. Die OLEDs müssten als viel aggressiver angesteuert werden, um einen ähnlichen Effekt zu liefern.
Asus z.B. schafft irgendwas zwischen 130 und 250 Nits mit BFI.
Relex
2026-01-11, 10:37:56
@robbitop
Deine 2% gelten für 100% weiß. Ein Bild ist idr. nicht 100% weiß.
Wenn du dein Display auf 100 nits weiß vollflächig kalibrierst, dann ist die Durchscnittliche Helligkeit in den meisten Bildern bei vielleicht 10-50 nits.
Es würde also reichen, wenn für den jeweils angezeigten "Streifen" für diesen Streifen der Peak bei meinetwegen 1000 oder 2000 nits liegt, weil eben die durchschnittliche Helligkeit für den inhalt des Streifens viel viel niedriger liegt.
robbitop
2026-01-11, 10:38:17
Und für 60 Hz Content gibt es doch diesen CRT Beam Shader von blurbusters der neulich geupdatet wurde. 60 fps fixed content rennt auf moderner HE ohnehin meist im Limit so dass man dann auch kein VRR braucht.
Relex
2026-01-11, 10:41:15
Der CRT Beam shader flimmert aber auf 240 Hz. Zumindest auf dauer ist das nichts.
Da brauchst du schon das vielfache.
Aber ja, der CRT Beam Shader ist exakt das was ich ja bereits beschrieben habe. Der OLED Monitor mit Puslar würde nichts anderes machen. Genau davon spreche ich die ganze Zeit.
robbitop
2026-01-11, 10:41:51
@robbitop
Deine 2% gelten für 100% weiß. Ein Bild ist idr. nicht 100% weiß.
Wenn du dein Display auf 100 nits weiß vollflächig kalibrierst, dann ist die Durchscnittliche Helligkeit in den meisten Bildern bei vielleicht 10-50 nits.
Es würde also reichen, wenn für den jeweils angezeigten "Streifen" für diesen Streifen der Peak bei meinetwegen 1000 oder 2000 nits liegt, weil eben die durchschnittliche Helligkeit für den inhalt des Streifens viel viel niedriger liegt.
Naja in Windows bzw Browser, Explorer, Word usw ist da sehr viel homogene helle weißartige Fläche. Da schaffen aktuelle OLED Monitore so um die 250 nits. Klar je nach Content kann das deutlich dankbarer sein. Aber jetzt lass man in einem
Kontent dochmal win großes homogenes Feld sein (Atombombe explodiert in einem Film oder die Szene in Matrix wo Neo sich für eine der beiden Tabletten entscheiden muss). Der Monitor muss das auch können bzw die Reserven haben ansonsten greift da die ABL ein und das sieht fies aus. Macht die Immersion kaputt - selbst wenn das bloß ab und zu mal vorkommt.
robbitop
2026-01-11, 10:43:11
Der CRT Beam shader flimmert aber auf 240 Hz. Zumindest auf dauer ist das nichts.
Da brauchst du schon das vielfache.
Aber ja, der CRT Beam Shader ist exakt das was ich ja bereits beschrieben habe. Der OLED Monitor mit Puslar würde nichts anderes machen. Genau davon spreche ich die ganze Zeit.
Er kann halt kein VRR der shader (Pulsar schon) und wie du sagst nur 240 Hz. Und wahrscheinlich nicht hell genug. Ich meinte das eher als: kompromissbehaftete Notlösung für OLEDs wenn kein MFG verfügbar ist. :)
Platos
2026-01-11, 11:02:35
Die Frage ist braucht man das wirklich noch wenn man einen high refresh rate oled hat und eine gpu mit MFG? Denn damit senkt man ja auch die persistance wodurch der hold type blur bekämpft wird.
Natürlich. MFG ist schon auch nett, aber immer noch sehr Fehleranfällig bei kritischen Szenen. Und selbst wenns perfekt wäre, dann wäre es trotzdem klug, es zu nutzen. 60FPS Input, mit MFG dann etwa 200-220FPS und dann noch BFI oben drauf und es gibt kein Motion Blurr und co mehr.
Also ja, BFI oder gleichwertige Technologien sind sehr wichtig. Und abgesehen davon: Es soll auch Leute ohne 240Hz Monitor oder ohne 480Hz Monitor geben. Die können dank BFI und co. eben dann trotzdem eine relativ hohe Bewegtschärfe haben, auch bei z.B 144Hz oder 120Hz.
Edit: Das mit dem crt Beam Shader kannte ich noch nicht. Hat das hier jemand mal ausprobiert an einem BFI-Gerät und mit diesem verglichen (also BFI On vs BFI off + CRT Beam Shader on)?
das wäre dann das da oder: https://github.com/blurbusters/crt-beam-simulator (das habe ich auch noch gefunden dazu: https://github.com/mausimus/ShaderBeam (hier erwähnt: https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/CRT-auf-modernen-Bildschirmen-1489996/)
Und für 60 Hz Content gibt es doch diesen CRT Beam Shader von blurbusters der neulich geupdatet wurde. 60 fps fixed content rennt auf moderner HE ohnehin meist im Limit so dass man dann auch kein VRR braucht.
Das funktioniert "nur" mit 60FPS Caps und nicht mit mehr? Gibts zur Funktionsweise ein gutes Video oder so?
robbitop
2026-01-11, 11:55:25
Ich habe mich auch nich nicht richtig mit dem Thema befasst. John von DF hat den öfter mal erwähnt.
Platos
2026-01-11, 12:08:01
Hab mich mal kurz eingelesen: Das mit dem Shader Beam ist ja nett, aber das grösste Problem: Man darf die Hz-Zahl des Monitors/TVs nicht ausnutzen. Also hat man einen 120/144hz Monitor, darf man nur mit 60/72 FPS zocken. Hat man einen 185/240Hz Monitor, darf man nur mit 92.5/120FPS zocken (Framegen inklusive, nicht nativ). Es braucht mind. einen 2:1 Verhältnis. Mit BFI oder Pulsar kann man selbstverständlicherweise auf einem 144Hz Monitor auch wirklich 144FPS zocken und dann noch "oben drauf" BFI/Pulsar nutzen. Zumal es ja Software ist und mit sicherheit einen höheren Input-Lag verursacht (aber das ist eine Vermutung).
Also nicht, dass es scheisse wäre, aber es ist wirklich ein ziemlich harter Kompromiss, den man da eingehen muss. Es ist hald nunmal nur Software und nicht direkt auf Hardwareebene. Solange man nicht die volle Framerate dafür nutzen kann, halte ich das für relativ nutzlos bei modernen Spielen.
Ausnahme sind hier alte Spiele bzw. emulierte Spiele, die nur max. 60FPS erlauben und ich denke, diese Software ist eben auch exakt dafür gedacht, um alte Spiele zu zocken und NICHT um BFI abzulösen bzw. moderne Spiele damit zu zocken. Ausnahme ist hier, wenn man MFG oder Framegen an sich nicht nutzen will/kann.
Ps: Hier kann man das im Browser testen: https://testufo.com/crt
Es sieht natürlich schon sehr gut aus, also ich würde sagen, wenn man mit Emulator oder sowas zockt, und max. 60FPS einstellen kann, ist das quasi das neue must-have. Aber für moderne Spiele ist es nicht gedacht und löst BFI und co. auch nicht ab bzw. ist nicht dazu gedacht, dies zu tun.
robbitop
2026-01-11, 12:24:54
Wobei eben die neuen high refreshrate oleds dann auch einen Mehrwert bieten (360…500 Hz).
Platos
2026-01-11, 12:36:56
Das sehe ich als eine ziemliche Verschwendung. Einen 480Hz Monitor kaufen, damit man dieses BeamShader nutzen kann und "nur" in 240Hz zocken? Da wäre ein 240Hz Monitor mit BFI + VRR wesentlich besser. Die max. mögliche Auflösung wird auch limitiert durch solche Spässe oder alternativ die Kabellänge usw. Das geht so in die Kategorie "ich kann ja 220ppi-Monitore kaufen, um das schlechte Subpixel-Layout von OLEDs zu fixen". Also mit Hardware das Problem erschlagen. Ich sehe das nicht als eine effiziente Methode an. Und das ist hier wieder mal nur eine Rücksichtnahme auf absolute Enthusiastenhardware so nach dem Motto "BFI brauchts nicht, kauf dir doch einfach den absoluten Enthusiasten-Highend-Monitor, dann brauchst du das doch nicht, BFI ist nutzlos". Was ist mit Leuten, die "nur" 120Hz haben? Der Sinn von nem 240Hz, 120Hz, 480Hz Monitor liegt nicht darin, die Hz-Zahl nicht auszunutzen. Wie gesagt: Diese Software ist für Retrospiele gedacht, die man nur auf 60FPS zocken kann. Der Rest ist Verschwendung meiner Meinung nach (wenn man MFG/FG nutzen kann/will und ansonsten die Framerate nicht erreicht oder sonstige Spezialszenarien).
Für Retro eine super Sache, aber sonst sollte man eher BFI + VRR anpeilen. Leider noch nicht so verbreitet bei Monitoren und bei TVs komplett inexistent.
Aber die Frage, ob BFI überhaupt noch gebraucht wird, ist für mich dann mit diesem Fakt, dass man bei dem BeamShader 2:1 Hz Zahl braucht, geklärt (Ja, man brauchts/wills mit VRR zusammen).
robbitop
2026-01-11, 12:47:47
Sagt ja keiner dass man sie deshalb kauft. Ich hab mich zB für 360 Hz vs 240 Hz wegen MFG entschieden. So kann ich 4x FG mit einer baseframerate von 90 fps ausführen was in manchen Situationen besser aussieht und sich besser anfühlt. Dank dem neuen 6x FG wäre selbst das noch in 60 fps baseframerate machbar. Und der Aufpreis zu 360Hz von 240 war relativ kleiner. Der beam shader ist nur ein weiteres Beispiel für mehr Nutzwert. Aber kein alleiniger. :)
Im Prinzip gibt es ja mehrere Wege zu mehr motion clarity über die reduktion von persistance. Bei OLED idealerweise über die Hz / fps damit man keine Helligkeit einbüsst. Daher kann mehr Hz schon ein echter Mehrwert sein :)
Ansonsten: was ist schon effizient? Ob jetzt Pulsar oder neue OLEDs. In jedem Fall braucht es einen neuen Monitor - was ja auch das Threadthema betrifft „bessere Monitore“ -> da geht es um neue Monitore ;)
Insofern irrelevant was man bereits hat würde ich sagen :)
Und wie gesagt der Aufpreis für mehr Hz ist nicht gerade riesig. Und bei OLED wird es mit Pulsar erstmal nichts werden wenn man nicht zu viel Helligkeit verlieren will. Ergo braucht es mehr Hz. Wenn man viel motion clarity haben will, muss man offenbar einen Tod sterben. :)
Und BFI+VRR gibt es ja nicht. Nur bei Pulsar und das heisst LCD - zumindest aktuell (meh). Theoretisch noch ASUS ELMB (gab es iirc aber auch nur für LCDs) und das war IIRC nur halbgar. :)
Jedenfalls gibt es ja Optionen jetzt. Beamshader/MFG für OLED (und die gibts ja mittlerweile mit hohen hz Zahlen) oder halt Pulsar mit LCD. Sind schon coole Zeiten IMO
ChaosTM
2026-01-11, 12:58:03
Das adaptive MFG wird interessant. Eine Bildrate einstellen und nur die fehlenden Bilder werden eingefügt.
So hab ich das zumindest verstanden.
Da ich nur einen 138hz Monitor habe wird 6x MFG kaum greifen. ;)
Ich wart (immer noch) auf einen 5k2k OLED mit zumindest 240hz und einer mit Pulsar vergleichbaren Lösung. Frühestens 2027..
Habe auch keinen wirklichen Upgrade Druck. Der Monitor ist grandios
robbitop
2026-01-11, 13:06:39
Nur als Randnotiz: Adaptive MFG stellt in geraden Faktoren zwischen 1-6x dann während des Spielens um. Dementsprechend sind dann fps Sprünge zu erwarten (die auch in den NV Demos auf dem fps counter zu sehen waren). Ist aber dank VRR unproblematisch.
Ich bezweifle ernsthaft, dass es mittelfristig für OLEDs ein Pulsar geben wird. Zumindest nicht ohne Kompromisse in der Helligkeit was gerade bei OLEDs wehtun wird. Insbesondere mit HDR.
Ich würde mich sehr freuen wenn ich falsch läge - aber zumindest ist es unklar wie man den Helligkeitsnachteil komplett kompensieren können sollte.
Alternativ kann man auch heute schon gute OLEDs kaufen und mit MFG schöne Motion Clarity haben. Gerade wenn man vom LCD kommt fühlt sich das schon ziemlich nach endgame an.
Warten kann man natürlich in dem Bereich immer. Auf den Roadmaps sind immer und werden immer aufregende Verbesserungen zu sehen sein. Es sollen ja immer Kaufanreize geschaffen werden. ;)
Platos
2026-01-11, 13:12:13
Wenns ganzzahlig sein muss, ist das für mich jetzt nicht so nützlich. Ich stand schon oft vor der Wahl zwischen 80-90FPS nativ/dlss (echte Frames) vs. 120FPS mittels Framegen (mehr geht halt nicht bei 120Hz). Ich hätte dann am liebsten zwar 120FPS Bewegungsschärfe aber trotzdem 80-90FPS Inputlag. Das ginge aber nur, wenn nicht nur ganzzahlige möglich wären. Schade.
ChaosTM
2026-01-11, 13:21:12
Bin ehrlich gesagt mit der "Motion Clarity" jetzt schon ziemlich zufrieden, aber "besser" nimmt man immer gerne mit.
Bei OLEDs wird das wirklich schwierig, aber ich bin auch kein John Linneman, der immer noch auf CRTs zockt. ;)
Relex
2026-01-11, 13:49:15
Nur als Randnotiz: Adaptive MFG stellt in geraden Faktoren zwischen 1-6x dann während des Spielens um. Dementsprechend sind dann fps Sprünge zu erwarten (die auch in den NV Demos auf dem fps counter zu sehen waren). Ist aber dank VRR unproblematisch.
Wollte auch gerade schreiben, dass das ein Problem wäre und die Sprünge nur mit den höchsten Faktoren klein ausfallen und die Sprünge deutlicher werden, je geringer die Faktoren werden. Sprich wenn man eh schon hohe FPS hat und "nur" 2x oder 3x FG bräuchte, um max Refresh zu erreichen, dann wären die Sprünge umso größer.
Denn von 1x auf 2x sind es 100% Unterschied, von 2x auf 3x aber nur 50% usw.
Das heißt, wenn umgeschaltet wird, dann idealerweise nur zwischen möglichst hohen Faktoren.
Aber das Problem lässt sich deutlich eindämmen, wenn man einen gewissen Performanceoverhead vorsieht.
Heißt man fährt z.B. 6x FG bei 360 Hz und schaltet bei steigender Performance erst dann auf 5x FG runter, wenn man weiß, dass man mit den 5x FG weiterhin sicher 360 Hz erreichen kann. Das heißt, wenn den GPU schneller ist als erforderlich und man weiterhin bei 6x bleibt um den FPS drop zu vermeiden, verschenkt man bewusst Latenz.
Man könnte auch eine gewisse schwelle einbauen, so dass man ein bestimmtes Maß an FPS drop zulässt, um zumindest den Sprung bei der Latenz bzw. die möglichen einbußen nicht zu hoch ausfallen zu lassen. Genau das wird es auch sein, was Nvidia gemacht hat. Quasi ein trade off, bei dem man sagt, man braucht minimum 3x FG, besser sehr hohe Faktoren und man rechnet einen performance overhead mit ein, bei dem man erst ab nem gewissen Threshold umschaltet um die Sprünge klein zu halten.
Ich könnte mir vorstellen, dass das Feature bei 240 Hz Monitoren womöglich eher nicht so optimal funktioniert, wenn bereits 2x bis 4x FG ausreichen, um max Refresh zu erreichen. Ab 360+ Hz dürfte es dann aber sinnvoll sein, weil man dann mit den 5x und 6x Faktoren arbeiten kann die viel kleinere Sprünge erlauben.
Es hat schon seinen Sinn, warum Nvidia das Feature zusammen mit 5x und 6x bringt - weil die dynamische Funktion nur in dem Bereich am besten arbeiten kann.
Nightspider
2026-01-11, 14:16:21
Ich bezweifle ernsthaft, dass es mittelfristig für OLEDs ein Pulsar geben wird. Zumindest nicht ohne Kompromisse in der Helligkeit was gerade bei OLEDs wehtun wird.
Da wäre ich mir nicht so sicher.
Du weißt warum OLED Monitore deutlich dunkler sind als OLED Fernseher.
Wegen der Lebensdauer bei statischen Inhalten.
Wenn die Inhalte jetzt nur für ein Drittel der Zeit mit der 3fachen Helligkeit wiedergeben werden, dürfte das hinsichtlich der Lebensdauer vertretbar sein.
OLED Fernseher sind jetzt ungefähr bei 3600 Nits angekommen.
Mit MLA Layer zusätzlich wäre man schon bei etwa 4500 bis 4800 Nits.
Und die Emittermaterlien werden in den kommenden Jahren auch noch besser.
Ich kann mir vorstellen, das wir etwas ähnliches in 2-3 Jahren bei den ersten OLED Monitoren sehen könnten.
Vielleicht sogar eher.
robbitop
2026-01-11, 14:51:59
Wenns ganzzahlig sein muss, ist das für mich jetzt nicht so nützlich. Ich stand schon oft vor der Wahl zwischen 80-90FPS nativ/dlss (echte Frames) vs. 120FPS mittels Framegen (mehr geht halt nicht bei 120Hz). Ich hätte dann am liebsten zwar 120FPS Bewegungsschärfe aber trotzdem 80-90FPS Inputlag. Das ginge aber nur, wenn nicht nur ganzzahlige möglich wären. Schade.
LSFG hat bspw einen adaptive mode, der nur noch generierte fps ausgibt und als input echte ausgibt. Entsprechend sind die output fps festgetackert. BQ ist aber verbesserungsfähig. Ich hatte gehofft, dass die IHVs in Zukunft in dieser Richtung gehen könnten. Mal schauen.
120 Hz sind für herkömmliches FG leider oft ein wenig wenig. (dazu gibt es aber sehr kontroverse Ansichten - ich persönlich mag FG oft nicht unter 80 input fps -> heisst also für 2xFG mind 165 Hz und 3x FG 240 Hz). Mit Gamepad am TV wären meist für mich ggf auch 2x FG bei 120 Hz ok. Aber wenn die HW stark genug für 80-90 fps ist, ist es etwas ärgerlich.
Falls adaptive FG wie bei LSFG 3.1 jemals gut werden, ändert das obiges aber potentiell. Hast du adaptive FG in LSFG 3.1 schonmal getestet? :)
robbitop
2026-01-11, 14:55:42
Da wäre ich mir nicht so sicher.
Du weißt warum OLED Monitore deutlich dunkler sind als OLED Fernseher.
Wegen der Lebensdauer bei statischen Inhalten.
Wenn die Inhalte jetzt nur für ein Drittel der Zeit mit der 3fachen Helligkeit wiedergeben werden, dürfte das hinsichtlich der Lebensdauer vertretbar sein.
OLED Fernseher sind jetzt ungefähr bei 3600 Nits angekommen.
Mit MLA Layer zusätzlich wäre man schon bei etwa 4500 bis 4800 Nits.
Und die Emittermaterlien werden in den kommenden Jahren auch noch besser.
Ich kann mir vorstellen, das wir etwas ähnliches in 2-3 Jahren bei den ersten OLED Monitoren sehen könnten.
Vielleicht sogar eher.
Das Problem bei der Pulsar Technik ist aber dass man nicht nur wine gewisse Lücke schliessen muss. Da fehlt es an Faktoren (4x oder sowas - und überlege mal wie lange ein Faktor 4 an Helligkeit in der OLED Technologie gedauert hat und beziehe dann das Gesetz des sinkenden Grenzertrags ein was impliziert dass die nächsten 4x wesentlich länger dauern als die vorherigen). Und weiterhin sind es moveble goalposts. Denn wenn OLED heller wird, wird sich jeder dran gewöhnen und dann die reduzierte Helligkeit auf das heutige Niveau wieder inakzeptabel finden.
Wie gesagt würde mich gern irren. Aber jede Technologie hat andere Stärken/Schwächen. Entsprechend braucht es manchmal andere Lösungen um zum gleichen Ziel (hier: low persistence) zu kommen.
Und denke daran die hohen Nits die du nennst gelten für ein 2% window. Und wie und ob sich MLA mit den neusten Panels kombinieren lässt muss man mal sehen - gibt sicher Gründe warum das raus ist. Wenn das alles sich nur kombinieren lassen würde wie Lego hätten wir es schon. Und wenn der Pulsar Ansatz nicht entsprechend komplexe Probleme mit OLED (wahrscheinlich Helligkeit) hätte dito.
Nightspider
2026-01-11, 16:03:46
Naja wie groß ist der Unterschied von richtig gutem BFI zu dieser Pulsar Technik?
Ein ordentliches 1:3 BFI, also das Bild wird nur zu einem Drittel der Zeit ausgegeben, wäre gerade mit aktueller ~240Hz Technik sicherlich schon ziemlich nah dran oder sogar besser.
Und denke daran die hohen Nits die du nennst gelten für ein 2% window.
Spielt ja erstmal keine Rolle weil sich im gleichem Maße auch die 10% und 100% Helligkeiten verbessert haben.
Und wie und ob sich MLA mit den neusten Panels kombinieren lässt muss man mal sehen - gibt sicher Gründe warum das raus ist. Wenn das alles sich nur kombinieren lassen würde wie Lego hätten wir es schon.
Produktionskosten und Yields.
MLA kann man zu einem späteren Zeitpunkt wieder einführen und mit Tandem OLEDs kombinieren. Aber tendenziell eher in den oberklasse OLEDs.
robbitop
2026-01-11, 16:15:11
IIRC haben sich die größeren Fenster weniger bei den nits entwickelt als die peak 2% brightness.
BFI und Pulsar funktionieren anders. Muss es damit es mit VRR zusammen funktioniert und gleichzeitig damit es für LCD die Transistionzeit der eigentlichen Pixel nicht beleuchtet.
Das Grundproblem ist dass eben nur ein Teilbereich des Bildes erleuchtet wird und im Durchschnitt jedes Pixel relativ lange aus ist was integriert über die Zeit die wahrgenommene Helligkeit reduziert.
Ob das mit den Produktionskosten und Yields stimmt ist reine Spekulation. Warum soll das für die Beschichtung das Problem sein bei einem Nachfolgepanel? Meine Vermutung: da gibt es noch andere Herausforderungen / Interdependenzen
Nightspider
2026-01-11, 16:43:45
IIRC haben sich die größeren Fenster weniger bei den nits entwickelt als die peak 2% brightness.
LG G4: 500 Nits SDR Brightness
LG G5: 800 Nits SDR Brightness
Sind 60% mehr Helligkeit vollflächig obwohl MLA fehlt! Der G6 soll nochmal 20% drauflegen.
https://youtu.be/rUt8e3IL2ZI?t=355
https://youtu.be/Cyu8-zviNJo?t=326
Und du darfst auch nicht vergessen, dass die Temperatur fürs BurnIn eine wichtige Rolle spielt und damit die Helligkeit über die Zeit.
Wenn das Bild nur für einen Bruchteil des Frames ausgegeben wird, dann ist die Wärmeentwicklung viel geringer als wenn es die ganze Zeit über mit dieser Helligkeit leuchten würde. Daher kannst du mit der Peak-Helligkeit für BFI eben auch deutlich höher gehen.
BFI und Pulsar funktionieren anders. Muss es damit es mit VRR zusammen funktioniert und gleichzeitig damit es für LCD die Transistionzeit der eigentlichen Pixel nicht beleuchtet.
Deswegen ist es in der Theorie sogar viel einfacher mit OLED zu lösen. Die Pixel Responsetime ist bei OLED einfach mal weit überlegen.
Du brauchst keine komplexe Hintergrundbeleuchtung, Verschaltung, Synchronisierung oder whatever da bei den Pulsar Monitoren noch zusätzlich benötigt wird.
Ob das mit den Produktionskosten und Yields stimmt ist reine Spekulation. Warum soll das für die Beschichtung das Problem sein bei einem Nachfolgepanel? Meine Vermutung: da gibt es noch andere Herausforderungen / Interdependenzen
Die Panels waren mit dem neuen OLED Stack auch ohne MLA viel heller und bei MLA sind keine Probleme bekannt.
Also sind die Produktionskosten/Yields die wahrscheinlichste Begründung. Bei Aufbringen der MLA Folie darf schließlich auch nichts schief gehen, die Folie darf nicht beschädigt werden und muss 100% perfekt aufgetragen werden. Ist einfach ein zusätzlicher Schritt, wo etwas schiefgehen und Ausschuss entstehen kann.
Wenn sie MLA in der Hinterhand behalten, können sie damit in 1 oder 2 Jahren wieder bessere Panels vermarkten. Aber die OLED Stacks machen zur Zeit große Fortschritte und das ist wohl im Moment die effizientere Methode.
robbitop
2026-01-11, 18:06:05
Ich hab eine AI Deepsearch angeschmissen mit das Verhältnis aus 2% peak brightness vs fullscreen brightness zu recherchieren. C9 bis C5/G5 und auch die Daten die es bei der CES von der 6 series gab. Das war mal beim C9 4,5x, letztes Jahr 6,3x und dieses Jahr (Messungen stehen ja noch aus) potenziell 7,5x. Also fast eine Verdopplung der peak brightness vs fullscreen. Also peak hat sich fast doppelt so stark entwickelt wie fullscreen.
Und ja ich weiss wie pulsar konzeptionell funktioniert und mir ist klar wie es auf einem OLED funktionieren würde. Wenn man es entsprechend ansteuern würde, würde es ohne Frage funktionieren. Aber wahrscheinlich ziemlich dunkel.
Und wie gesagt selbst wenn zukünftige Brightnessentwicklungen die Lücke schliessen würden, hat man trotzdem sobald man es anschalten würde die Helligkeitsreduktion die dann viele trotzdem enttäuschen kann. Also sagen wir in ein paar Jahren sind die Dinger um Faktor X (sagen wir mal 4x - ob die Zahl stimmt weiss ich nicht aber so ganz grob kann das hinkommen) heller ggü 2026 (hier und jetzt). Wer will dann wieder den Faktor „opfern“ nachdem er die neue brightness gesehen hat?
Ich bin da skeptisch - wäre aber wie gesagt happy mich zu irren.
Aber alternativ gibt es ja wie gesagt MFG welches ebenfalls hold type blur reduziert. Und es kostet keine Helligkeit.
Nightspider
2026-01-11, 18:19:50
1) Na vor allem wäre es erstmal eine optionale Geschichte.
2) Werden jetzt auch nicht alle Bildschirme mit maximaler Helligkeit betrieben
Theoretisch sollte sich auch einstellen lassen wie lange das Bild dann dargestellt wird, ob das BFI Verhältnis 1:1 beträgt oder 1:2 oder 1:3. Damit kann man dann auch die Helligkeit regulieren. Selbst wenn nur ein kurzes BFI am Ende des Frames angezeigt wird, sollte das schon eine Verbesserung sein.
Genauso wie man nicht gleich 240 oder 360Hz gebraucht hat. Früher waren die übertakteten 90Hz Bildschirme schon merklich besser.
Hab mir damals einen 1440p QNIX Korea Monitor bestellt und den auf 90Hz übertaktet, als es das hier noch gar nicht zu kaufen gab.
robbitop
2026-01-11, 18:58:12
Nach meinem Verständnis muss es einen rolling strobe geben damit es mit VRR funktioniert ohne dass man Helligkeitsunterschiede bei unterschiedlichen Frametimes gibt. Und damit das nicht flimmert muss pro Frame mehrfach ein rolling strobe geschehen. Entsprechend wird ein kleiner Faktor zwischen aus und an pro Pixel nur sehr begrenzt machbar sein. So habe ich es zumindest konzeptionell verstanden.
Platos
2026-01-11, 20:20:40
Ich finde die Diskussion mit Helligkeit auch irgendwie an der Praxis (der meisten Leute) vorbeigeredet. Wie immer in dem Forum, hantiert man nur mit Enthusiasten-Hardware, die drölftausend Nits haben. OLED sind mittlerweile so hell, dass man die gar nicht mehr bei 100% Helligkeit betreiben muss/will, wenn man nicht gerade bei helllichtem Tag in der Wohnung sitzt und nichts abdunkelt. Und wenn man maximale Bildqualität haben will, dann dunkelt man den Raum ab und dann reicht auch die Helligkeit mit BFI bei OLED.
Bei meinem TCL QM8B (laut techradar 682 nits bei 100% Bild) habe ich trotz aktiviertem BFI weit unter 100% Helligkeit (30-50% je nach Spiel). Moderne OLEDs erreichen locker 50% der Helligkeit von meinem LCD (Bsp: Samsung S95F mit 465nits: https://www.techradar.com/televisions/i-tested-samsungs-new-flagship-oled-tv-and-it-fixes-my-one-key-flaw-with-its-predecessor-and-has-mind-blowing-brightness). Also von daher ist das mittlerweile m.M.n kein Argument mehr. Es reicht locker aus, auch mit BFI. Fast 500 Nits bei 100% Fenster ist mehr als genug, auch bei BFI. 2388 nits bei 10% Window.
Also kurz gesagt: Helligkeit ist bei OLEDs kein Problem mehr m.M.n.
aufkrawall
2026-01-11, 20:24:55
Beim Performance-Mode von Fortnite mit vielen hellen Flächen drosselt der ROG WOLED meines Bruders absolut nervig rum. Man braucht im hellen Raum locker um die 260nits für SDR 100% Weiß auf 100% der Fläche, und das dippt deutlich drunter, je nachdem, was gerade im Bild ist. Es ist absolut nicht ausreichend, und für Strobing schon mal absolut gar nicht...
Da kommt kein Licht von hinten. Die "Pixel leuchten alle selbst auf. Das geht dann durch mehrere Schichten, was man streng genommen als "Hintergrund beleuchtet" interpretieren könnte.
Alles was leuchtet ist beleuchtet entweder von vorne oder hinten, und von vorne können nur reflektive Bildschirme beleuchtet werden.
Nachdem OLED eindeutig nicht reflektiv ist kann es nur von hinten beleuchtet sein.
Tut man aber nicht. Diese Pixel einzeln oder in Wellen zu Stroben scheint
doch etwas komplexer zu sein.
Wäre es weniger Aufwändig, würde man es schon tun..
Dass passiert bereits, die Pixel werden mit dem Eingangssignal upgedatet und dass per Pixel, die werden nicht alle auf einmal upgedatet.
Ein zeilenweise oder gar pixelweises Strobing ist bei OLED schlicht sinnlos, es gibt keinen Grund das zu machen.
Der einzige Grund für zeilenweises Strobing sind die schlechten Responsetimes der LCDs.
Platos
2026-01-11, 20:56:49
Wie gesagt: Wer Qualität will, dunkelt seinen Raum ab und spielt/schaut nicht bei tagehhellem Raum. Habe nie behauptet, dass es für Anwenderfehler genügend wäre.
Und wie gesagt: Das genannte Modell erreicht bei 100% Fläche über 450nits. Dass der WOLED von deinem Bruder weniger wie deine angesprochenen 260nits kann (so habe ich das interpretiert), kann ich ja auch nichts dafür. Es gibt aber OLEDs, die über 450nits schaffen bei 100% Fläche.
aufkrawall
2026-01-11, 21:03:45
Wie gesagt: Wer Qualität will, dunkelt seinen Raum ab und spielt/schaut nicht bei tagehhellem Raum. Habe nie behauptet, dass es für Anwenderfehler genügend wäre.
Es ist einfach nur dumm, MP-Shooter in einem abgedunkelten Raum zu zocken. Konzentration und Ausgeruhtheit ist im dunklen Raum viel schneller futsch.
Und wie gesagt: Das genannte Modell erreicht bei 100% Fläche über 450nits. Dass der WOLED von deinem Bruder weniger wie deine angesprochenen 260nits kann (so habe ich das interpretiert), kann ich ja auch nichts dafür. Es gibt aber OLEDs, die über 450nits schaffen bei 100% Fläche.
Bislang aber nicht ohne Schrott-Subpixel-Layout, oder nur riesige TVs.
Relex
2026-01-11, 21:06:32
Im hellen raum hast du vielfach schlechtere Wahrnehmung für dunkle details, praktisch physikalischer black crush.
Aber gut, wird wahrscheinlich eh irgend ein "Black stabilizer" aktiv sein, der alles was dunkel ist auf mindestens 50% grau anhebt, damit man was sieht. Dafür lohnt sich OLED :D
Ich würde sagen, falsches Display für die Anforderungen, oder etwa nicht?
aufkrawall
2026-01-11, 21:11:18
Im hellen raum hast du vielfach schlechtere Wahrnehmung für dunkle details, praktisch physikalischer black crush.
Hast du nicht mit entsprechender Gammakurve und hoher Helligkeit, sonst würd ich so nicht zocken...
Aber gut, wird wahrscheinlich eh irgend ein "Black stabilizer" aktiv sein, der alles was dunkel ist auf mindestens 50% grau anhebt, damit man was sieht. Dafür lohnt sich OLED :D
So spielt quasi jeder im oberen Skill-Drittel von Spiel x.
Platos
2026-01-11, 21:15:18
In meiner Antwort stand im ersten Satz "der meisten Leute". So extrem auf Leistung spielt ein Bruchteil der Leute. Aber mag ja manche geben, die auf sowas achten (andere trinken eine Kaffee). Für den normalen Gamer, der Bildqualität will, reichen moderne OLEDs bei abgedunkeltem Raum auch bei BFI.
Für super-Enthusiasten, die am liebsten bei 50'000 Lux und 6000k zocken, damit die Konzentration auf max-Level ist, mag das vlt. nicht stimmen :D
Aber ich habe ja bewusst (für solche Kommentare) extra von "den meisten Leuten" gesprochen.
Und bezüglich Subpixellayout: Auch WOLED hat kein Vertikal angeordnetes RGB. Aber ok, das QD-OLED mögen viele noch weniger. Das war aber niemals Teil meiner Aussage. Ich habe nur gesagt, dass mit OLED heute schon 450Nits möglich sind und dass damit bfi in einem abgedunkelten Raum für die meisten Leute einfach ausreicht. Und das sehe ich weiterhin so.
Tobalt
2026-01-12, 09:07:15
Nach meinem Verständnis muss es einen rolling strobe geben damit es mit VRR funktioniert ohne dass man Helligkeitsunterschiede bei unterschiedlichen Frametimes gibt. Und damit das nicht flimmert muss pro Frame mehrfach ein rolling strobe geschehen. Entsprechend wird ein kleiner Faktor zwischen aus und an pro Pixel nur sehr begrenzt machbar sein. So habe ich es zumindest konzeptionell verstanden.
Ein rolling strobe wäre zwar zu begrüßen, weil man damit kürzer stroben kann und dennoch kein Crosstalk oder höhere latenz bekommt.
Das flicker bei VRR behebt man damit aber nicht. Dafür ist eine konstante durchschnittliche helligkeit nötig, was bei VRR zwangsläufig einen dritten Pixelmodus innerhalb eines Refreshcycles erfordert:
1. black
2. strobe
3. konstante Beleuchtung die gerade genauso hell ist, dass sie der durchschnittlichen Helligkeit aus 1+2 entspricht
Die Dauer von Abschnitt 3 variiert von Null (bei max Refreshrate) bis zu relativ lange bei kleineren Refreshrates
Platos
2026-01-12, 10:15:43
Und inwiefern ist das bei OLED und LCD unterschiedlich? Im einen Fall sind die (Sub-)Pixel selber dunkel und im anderen ist es eben die Hintergrundbeleuchtug.
Also warum ist hier OLED jetzt Benachteiligt?
@Tobalt: Konstante Beleuchtung von was? Nochmals das Frame anzeigen oder weisser hintergrund? So oder so führt das ja das ganze ad absurdum. Man will ja gerade die Zeitliche Dauer minimieren, in dem Licht auf die Augen "brennt". Die einzige Möglichkeit wäre eig. aus meiner Sicht nur, die Pixel/Hintergrundbeleuchtung heller leichten zu lassen in dem Zeitpunkt, wo das Frame angezeigt wird, um flackern zu reduzieren.
robbitop
2026-01-12, 10:41:20
LCD hat viel viel höhere Helligkeitsreserven (braucht einfach nur ein starkes Backlight) als OLED um den Helligkeitsverlust durch die durchschnittliche Dunkelphase der Pixel über die Zeit pro Frame zu kompensieren.
Tobalt
2026-01-12, 11:19:53
@Tobalt: Konstante Beleuchtung von was? Nochmals das Frame anzeigen oder weisser hintergrund? So oder so führt das ja das ganze ad absurdum. Man will ja gerade die Zeitliche Dauer minimieren, in dem Licht auf die Augen "brennt". Die einzige Möglichkeit wäre eig. aus meiner Sicht nur, die Pixel/Hintergrundbeleuchtung heller leichten zu lassen in dem Zeitpunkt, wo das Frame angezeigt wird, um flackern zu reduzieren.
In allen 3 Phasen wird die entsprechende Pixelfarbe des jeweiligen Frames genutzt. Nur die Helligkeit varriert.
Ja du hast recht, wenn unter VRR die fps weit einbrechen, wird sie 3. Phase relativ lang. Die Hauptleichtintensität stammt zwar mitunter immernoch aus der sehr kurzen 2. Phase, aber die Bewegtschärfe wird dennoch leiden, wenn fps zu weit einbrechen. Das ist halt der (IMO sehr gute) Kompromiss um Strobing mit VRR zu verheiraten.
Dinge wie Double strobes und asynchrone fixed frequency strobes sind im Vergleich absolut grauenhaft.
Troyan
2026-01-12, 11:20:30
OLEDs haben das Problem, dass Pixel als Selbstleuchter eben erheblich schneller schalten müssen. Wenn man wie bei Pulsar ebenfalls eine 4x Verbesserung erreichen will, muss die Pixelschaltgeschwindigkeit 4x höher sein. Das ist bei OLED erheblich aufwendiger zu realisieren als bei einem LCD. Gleichzeitig sinkt massiv die Helligkeit.
Bei OLEDs macht rollendes Strobing keinen Sinn. Und da OLEDs so schnell sind, sollte man eher mit sowas wie MFG arbeiten, um auf die hohen Hz-Zahlen zu kommen.
Platos
2026-01-12, 12:12:38
In allen 3 Phasen wird die entsprechende Pixelfarbe des jeweiligen Frames genutzt. Nur die Helligkeit varriert.
Ja du hast recht, wenn unter VRR die fps weit einbrechen, wird sie 3. Phase relativ lang. Die Hauptleichtintensität stammt zwar mitunter immernoch aus der sehr kurzen 2. Phase, aber die Bewegtschärfe wird dennoch leiden, wenn fps zu weit einbrechen. Das ist halt der (IMO sehr gute) Kompromiss um Strobing mit VRR zu verheiraten.
Dinge wie Double strobes und asynchrone fixed frequency strobes sind im Vergleich absolut grauenhaft.
Warum dann nicht gleich in der 1. Phase einfach so lange anzeigen lassen, dass es von der Leuchtkraft her dem mittel der letzten x frames entspricht (oder wie auch immer man dann ein mittelwert bilden will) ?
Also 1. Phase mit Beleuchtung so lange, dass es von der Leuchtkraft pro Zeit gleich sein wird über die ganze Frametime dieses Frames gesehen, wie die letzten Frames. Und danach in der 2. Phase dann dunkel.
Hell, dunkel und dann wieder Hell wie bei deinen 3 Phasen könnte evtl. auch noch schlechter sein, für das flackern, aber vlt. auch nicht. Warum 3 Phasen?
Edit: Oder meinst du bei den 3 Phasen eig. für die 1. Phase die Unschaltzeit der Pixel (ohne Beleuchtung, also Schwarz), in der 2. Phase wird gestrobed und in der 3. Phase wird je nach frametime eine "seichte" Helligkeit abgegeben (anstatt wie sonst bei BFI einfach dunkel) ?
Also z.B: Frame1 = 8ms, Frame2 =16ms: Bei Frame 1 Würde z.B in Phase 2 1ms "Gestrobed" werden (also volle Helligkeit) und dann für 7ms wird so viel Helligkeit genutzt, so dass es insgesammt der am Monitor eingestellen Helligkeitsstufe entspricht. Und dann bei Frame 2 wird wieder 1ms mit voller Helligkeit angezeigt und dann aber jetzt 15ms mit (fast) in "halber" Helligkeit, wie vorhin bei den 8ms vom Frame 1, so dass die Helligkeit dann am Ende gleich war pro Zeit?
Warum wäre denn diese Methode am besten? Warum nicht z.B so: Frame1=8ms, Frame2=16ms: Frame1: 1ms Strobe + 7ms black, Frame 2: 1ms Strobe + 7ms black, dann erneut (innerhalb des gleichen frame) 1ms strobe +7ms black. Das würde dann die gleiche helligkeit geben.
Oder eben wie oben erwähnt, warum nicht einfach etwas länger stroben, um den Helligkeitsverlust auszugleichen?
Allg: Man könnte nun noch einen Slider einbauen, mit dem man das Gleichgewicht mehr verschieben kann zu weniger Hellligkeitsstabilität, dafür mehr Bewegtschärfe oder mehr verschieben nach "stabilere Helligkeit", dafür aber weniger Bewegtschärfe.
LCD hat viel viel höhere Helligkeitsreserven (braucht einfach nur ein starkes Backlight) als OLED um den Helligkeitsverlust durch die durchschnittliche Dunkelphase der Pixel über die Zeit pro Frame zu kompensieren.
Ja, ich meinte abgesehen davon. Ich habe ja weiter oben schon dargelegt, dass es mittlerweile OLEDs mit über 450Nits gibt bei 100% Window und das genügt auch für BFI, wenn man (wie es machen sollte) bei abgedunkeltem Raum spielt/schaut (beim schauen wird man vermutlich kein BFI nutzen).
Nach meinem Verständnis muss es einen rolling strobe geben damit es mit VRR funktioniert ohne dass man Helligkeitsunterschiede bei unterschiedlichen Frametimes gibt.
Den Rolling-Strobe braucht es nur um die langen Schaltzeiten der Flüssigkristalle zu kompensieren.
Genau genommen braucht es diesen nicht mal unbedingt, er hat aber den Vorteil dass man den Strobe effektiv länger machen kann ohne die Transistions der LCD zu zeigen, und damit den Helligkeitsverlust minimiert.
Ohne Rolling Strobe müsste die Beleuchtungszeit je nach Refreshrate deutlich unter 10% sein um die Transistions am ganzen Bild zu eliminieren, durch den Rolling-Strobe kann man diese auf 25% erhöhen und zeigt trotzdem nirgends Transitions.
Und damit das nicht flimmert muss pro Frame mehrfach ein rolling strobe geschehen.
Der mehrfache Strobe dient einzig dazu Helligkeitsschwankungen bei starken FPS-Schwankungen zu verhindern, und ist auch jeweils nur kurz im Einsatz. Wenn z.B. die FPS von 200 auf 100 sinken werden die 100 FPS mit 2 Strobes dargestellt. Wenn die FPS dann um die 100 bleiben stellt sich die Helligkeit des Main-Strobes darauf ein und der zweite verschwindet langsam wieder.
Entsprechend wird ein kleiner Faktor zwischen aus und an pro Pixel nur sehr begrenzt machbar sein. So habe ich es zumindest konzeptionell verstanden.
Ich verstehe jetzt nicht ganz was du meinst, aber das Verhältnis zwischen an und aus ist einfach ein Tradeoff.
Je kürzer die Beleuchtungszeit, desto geringer die Persistance und damit je höher die wahrgenommene Schärfe. Allerdings wird es auch wahrscheinlicher dass man das Flimmern auch wahrnimmt und die Helligkeit nimmt ab, sofern sie nicht durch eine höhere Helligkeit während der ON-Zeit ausgeglichen werden kann. Auch braucht es höhere FPS um eine flüssige Bewegung und kein Ruckeln mehr wahrzunehmen.
Bei LCDs muss man die Beleuchtungszeit auch zwingend kurz genug wählen um die Transistion vollständig zu verstecken, ansonsten gibt es Crosstalk.
Tobalt
2026-01-12, 14:56:09
platos, weil man bei phase 1 oder 2 oder 3 noch nicht weiß wie lange phase 3 dauern wird, also wann der nächste frame fertig gerendert ist.
Platos
2026-01-12, 15:08:18
Und woher weisst du, mit welcher Helligkeit dann in deiner 3. Phase leuchten musst, wenn du ja noch gar nicht weisst, wann sie fertig ist? Das müsste man ja wissen, um die korrekte Leuchtstärke einzustellen, so dass auch jedes Frame gleichhell leuchtet. Bei kurzen frames müsste ja dann die Phase 3 heller leuchten, als bei langen frames, so dass es wieder gleich Hell vorkommt.
robbitop
2026-01-12, 15:44:10
Ja, ich meinte abgesehen davon. Ich habe ja weiter oben schon dargelegt, dass es mittlerweile OLEDs mit über 450Nits gibt bei 100% Window und das genügt auch für BFI, wenn man (wie es machen sollte) bei abgedunkeltem Raum spielt/schaut (beim schauen wird man vermutlich kein BFI nutzen).
Naja 450 nits fullscreen habe ich noch nirgends gesehn. Gibt es da echte Messwerte? Ansonsten: TV vs Monitor. Und bei Monitoren sind wir gerade einmal bei 250-300.
Und soweit ich verstanden habe ist bei Pulsar ein Pixel im groben Durchschnitt 3/4 der Zeit aus. Dann viertelt sich die Helligkeit. Und wenn man dann nich HDR haben will. -> wird schnell eng
Und auch nicht jeder will immer im Dunklen sitzen (ich mache das natürlich auch ^^ aber die Masse ist anders) - das soll ja in Massengeräten verbaut werden.
Platos
2026-01-12, 16:32:24
Die Masse sieht doch eh keinen Unterschied, noch weiss die, wo/wie man überhaupt BFI oder ähnliches einstellt.
Aber gut, kann ja sein. Ob jetzt die Leute abgedunkelt nutzen oder nicht, spielt eig. gar keine Rolle. Eher finde ich den Vergleich zu LCD sinnvoll: 450nits fullscreen ist bei lcd auch nicht so lange her und die konnten auch BFI.
Und ja, ich habe extra ein Beispiel verlinkt mit einer Messung von Techradar: https://www.techradar.com/televisions/i-tested-samsungs-new-flagship-oled-tv-and-it-fixes-my-one-key-flaw-with-its-predecessor-and-has-mind-blowing-brightness
Hier das Zitat für die, die keine Zeit haben: When I measured the brightness of the Samsung S95F it hit 2,388 nits in a 10% HDR window pattern – a huge increase over the 1,868 I measured for the Samsung S95D. Fullscreen brightness, measured on a 100% white window HDR pattern, was also a giant improvement, rising from 318 nits measured on the S95D to 465 nits measured on the S95F.
Aber ja, es ist ein TV, da gibts auch OLEDs ;)
Monitore habe ich aber auf die schnelle keinen in Richtung 400Nits gefunden. Mir reichen aber ehrlich gesagt auch 300-350Nits für BFI bei komplett abgedunkeltem Raum. Aber zocken auf dem TV ist soch sowieso geiler als auf nem kleinen Monitor ;)
Nightspider
2026-01-12, 16:35:34
OLEDs haben das Problem, dass Pixel als Selbstleuchter eben erheblich schneller schalten müssen. Wenn man wie bei Pulsar ebenfalls eine 4x Verbesserung erreichen will, muss die Pixelschaltgeschwindigkeit 4x höher sein. Das ist bei OLED erheblich aufwendiger zu realisieren als bei einem LCD. Gleichzeitig sinkt massiv die Helligkeit.
OLEDs schaffen doch jetzt schon 1000 Hz. Es mangelt nur an Bandbreite zwischen GPU und Display.
Was willst du denn da für höhere Pixelschaltgeschwindigkeiten? :confused:
platos, weil man bei phase 1 oder 2 oder 3 noch nicht weiß wie lange phase 3 dauern wird, also wann der nächste frame fertig gerendert ist.
Das Display müsste doch nur die Zeit zwischen dem letzten und dem aktuellen Frame errechnen und kann daraufhin die Leuchtdeuer für das aktuelle Frame ermitteln und es dementsprechend lange eingeschaltet lassen.
Dann hast du effektiv eine Verzögerung bei der Helligkeit von einem einzigen Frame was bei 120Hz+BFI wahrscheinlich gar nicht spürbar ist.
robbitop
2026-01-12, 17:20:09
Aber ja, es ist ein TV, da gibts auch OLEDs ;)
Monitore habe ich aber auf die schnelle keinen in Richtung 400Nits gefunden. Mir reichen aber ehrlich gesagt auch 300-350Nits für BFI bei komplett abgedunkeltem Raum. Aber zocken auf dem TV ist soch sowieso geiler als auf nem kleinen Monitor ;)
Allerdings hat ein BFI was mit VRR zusammenarbeitet wahrscheinlich deutlich mehr Verdunklung als reguläres BFI.
robbitop
2026-01-12, 17:27:18
OLEDs schaffen doch jetzt schon 1000 Hz. Es mangelt nur an Bandbreite zwischen GPU und Display.
Was willst du denn da für höhere Pixelschaltgeschwindigkeiten? :confused:
Nur als Randnotiz:
Mit einem Pulsar Äquivalent muss nur die Bandbreite zwischen dem Scaler im Display vorhanden sein. Um die Persistance aber nicht durch strobing sondern mehr fps/hz auszugleichen braucht es dann schon die von dir benannte Bandbreite zwischen GPU und Display. Aber dank DSC und DP2.1 sollte man da noch ordentlich was bewegen können.
Und ehrlich gesagt: wie viel mehr motion clarity noch subjektiv rausholbar ist ausgehend von 240 oder gar 360 Hz? Gesetz des abnehmenden Grenzertrags lässt grüßen.
Ich bin schon auf 6x FG gespannt um mal meine 360 Hz auf meinem OLED auszufahren.
Mit 4x FG habe ich es schon öfter mal geschafft und das sah schon echt scharf aus in Bewegung. Und man muss jegliches motion blur deaktivieren - denn das macht den hart erarbeiteten Effekt wieder kaputt ^^
Relex
2026-01-12, 19:01:23
Schwenk mal bei 200-300 FPS die kamera zügig nach links oder rechts. Wenn du nur die mitte des Bildschirms fokussierst, wirst du sehen wie du sämtliche Konturen mehrfach siehst.
Statt einem Strich | siehst du dutzende Striche nebeneinander ||||||||||
Man sieht also praktisch die einzelnen Frames. Das ist der gleiche Effekt wenn man den Mauszeiger schnell über den Bildschirm zieht oder im Kreis rotiert.
Das blöde ist halt, dass Motion Blur und auch Hold Type Blur das ganz kaschieren und spätestens mit gutem Motion Blur eine glaubwürdige Bewegung daraus wird bei der keine einzelbilder mehr erkennbar sind. Dazu muss die Shutter Speed aber mit der Geschwindigkeit des Inhalts bzw. der Kamera zusammenpassen. Aber man verliert natürlich extrem viel Schärfe.
Was ich damit sagen will: Abnehmender Grenzertrag ist noch sehr weit weg, da wir eigentlich selbst bei 200-300 FPS noch viel Motion Blur bräuchten, um die einzlbilder zu kaschieren. Klar, wenn man in einem Spiel einfach nur vorwärts läuft werden die Unterschiede geringer, da sich am Display nicht so schnell so viel Inhalt ändert.
Sobald man aber anfängt die Kamera ständig nach links und rechts zu rotieren, so wie man es z.B. in vielen 1st Person Spielen, Shootern oder auch RPGs macht, um nach Gegnern oder nach Loot zu suchen, würden hohe FPS helfen, diesen mehrfach Kontur effekt zu vermeiden und das Bild trotzdem durch verzicht auf Motion Blur scharf zu halten. Bei vielen Spielen nervt mich das selbst auf meinem 240 Hz Display auf Dauer immernoch. Ist mittlerweile meckern auf hohem Niveau, wenn man mal mit 60 Hz gespielt hat, aber man braucht sich nicht einreden, dass es perfekt ist, oder wir dem auch nur ansatzweise nahe sind.
Ich würde deshalb weiterhin behaupten, dass sowohl Strobing als auch hohe Bildraten gleichermaßen wichtig sind und wir da noch weit vom Limit des sinnvollen entfernt sind.
Man kann zwar bei niedrigen Bildraten durch Strobing und Low Persistence perfekte schärfe erreichen. Und man kann bei niedrigen Bildraten mit Motion Blur perfekte smoothness erreichen und einzelframes weitestgehend unsichtbar machen. Aber beides zu kombinieren ist das woran es aktuell scheitert. Ich denke dafür werden wir dann langfristig wirklich auf 1000 Hz Monitore mit 1000 FPS abzielen müssen, die dann zusätzlich noch Strobing on top nutzen.
Hört sich übertrieben an, finde ich aber nicht übertrieben, wenn ich mir ansehe, wie extrem die Probleme selbst mit meinen 240 Hz ausgeprägt sind. Da reicht keine verdopplung der Bildrate oder Motion Clarity. Da braucht es schon eine größenordnung mehr FPS und Hz bis bewegtbilddarstellung wirklich artefaktfrei und perfekt wird.
robbitop
2026-01-12, 19:18:35
Man sieht es ja auch beim Ufo Test. 360 Hz sind deutlich schärfer als 240 Hz und 500 Hz macht nochmal einen ordentlichen Sprung. Ggf braucht es dann doch 500 Hz und mehr. Mal schauen. Die Frage ist wie gut FG ist mit so vielen erstellten Zwischenframes. :)
Ich bin jedenfalls mit 360 Hz schon ganz happy. Klar Perfektion ist es nicht. Aber ich mag Pareto bzw sehe es so „don‘t let ‚perfect‘ be the enemy of ‚good‘“. Also man kann sich auch an Dingen erfreuen die nicht ganz perfekt aber schon ziemlich gut sind. Ansonsten wartet man unzufrieden auf alle Ewigkeit. Jetzt wird’s philosophisch X-D
Relex
2026-01-12, 19:27:18
Seh ich ganz genauso. Ich sag ja nicht, dass das was wir haben nicht bereits sehr gut ist. Ich werde z.B. mein Display wahrscheinlich erst wieder in 5-10 Jahren tauschen. Ich sag nur, dass noch sehr viel Luft nach oben ist und es kein Labor braucht, um die Unterschiede zu sehen.
robbitop
2026-01-12, 19:37:20
Da kann ich nur zustimmen. :)
Und ehrlich gesagt: wie viel mehr motion clarity noch subjektiv rausholbar ist ausgehend von 240 oder gar 360 Hz? Gesetz des abnehmenden Grenzertrags lässt grüßen.
Blurbusters haben schon vor Jahren gesagt dass es dafür mindestens 1000Hz braucht.
Und das Pulsar-Marketing geht ja auch in die Richtung dass es das erreicht. 250Hz mit 1/4 Beleuchtungszeit entspricht effektiv 1000Hz persistence.
BTW: das heißt natürlich auch dass sich die Persistence min geringeren FPS entsprechend verschlechtert, bei 100FPS sind es dann „nur“ mehr 400Hz Persistance, und der DoppelStrobe verschlechtert die Persistance nochmals weiter, liegt aber immer nur kurz bei FPS-Schwankungen an.
Platos
2026-01-12, 22:40:58
Controller nutzen hilft vlt. auch oder nicht auf ADHS die Maus bewegen. Shooter mal ausgenommen.
robbitop
2026-01-13, 06:24:14
Blurbusters haben schon vor Jahren gesagt dass es dafür mindestens 1000Hz braucht.
Und das Pulsar-Marketing geht ja auch in die Richtung dass es das erreicht. 250Hz mit 1/4 Beleuchtungszeit entspricht effektiv 1000Hz persistence.
BTW: das heißt natürlich auch dass sich die Persistence min geringeren FPS entsprechend verschlechtert, bei 100FPS sind es dann „nur“ mehr 400Hz Persistance, und der DoppelStrobe verschlechtert die Persistance nochmals weiter, liegt aber immer nur kurz bei FPS-Schwankungen an.
Das mit den 1000 Hz ist bekannt. Was ich meine dass die Verbesserung des Holdtype Effektes aber auf dem Weg dorthin ja auch schok stattfindet und einen asymptotischen Verlauf hat (so woe es bei deminishing returns immer ist) und man auf dem Weg dorthin schon viel (bzw den Großteil der Vorteile) motion clarity „einsammeln“ kann
Tobalt
2026-01-13, 07:10:07
Und woher weisst du, mit welcher Helligkeit dann in deiner 3. Phase leuchten musst, wenn du ja noch gar nicht weisst, wann sie fertig ist? Das müsste man ja wissen, um die korrekte Leuchtstärke einzustellen, so dass auch jedes Frame gleichhell leuchtet. Bei kurzen frames müsste ja dann die Phase 3 heller leuchten, als bei langen frames, so dass es wieder gleich Hell vorkommt.
Die Helligkeit in Phase 3 hängt nur davon ab, welches zeitliche Verhältnis phase 1 und 2 haben, was ja beides vorausgewählte Parameter sind. Folglich ist auch die Helligkeit in Phase 3 vorbestimmt und unabhängig von der Framedauer. Die Helligkeit in phase 3 ist ohnehin gleich der Durchschnittshelligkeit.
Das Display müsste doch nur die Zeit zwischen dem letzten und dem aktuellen Frame errechnen und kann daraufhin die Leuchtdeuer für das aktuelle Frame ermitteln und es dementsprechend lange eingeschaltet lassen.
Dann hast du effektiv eine Verzögerung bei der Helligkeit von einem einzigen Frame was bei 120Hz+BFI wahrscheinlich gar nicht spürbar ist.
Doch exakt diese Veränderungen führen zu flicker. Die Frametimes können tw. enorm variabel sein.
Übrigens bringt es auch nichts wenn man schon im Voraus die Framedauer wüsste.. Das Ergebnis wäre ja dann trotzdem eine verlängerte Strobephase, also mehr motion blur. Dass sich bei VRR und Strobe und konstanter Helligkeit also motion blur verschlechtert wenn Fps einbrechen, ist eine fundamentale Gegebenheit. sensorisch kann man dies aber abschwächen, wenn der Kernstrobe immer gleich kurz bleibt (Also phase 2), und dann mit geringerer Helligkeit nachgeleuchtet wird, um die Durchschnittshelligkeit garantiert zu stabilisieren.
Tobalt
2026-01-13, 07:17:21
Das mit den 1000 Hz ist bekannt. Was ich meine dass die Verbesserung des Holdtype Effektes aber auf dem Weg dorthin ja auch schok stattfindet und einen asymptotischen Verlauf hat (so woe es bei deminishing returns immer ist) und man auf dem Weg dorthin schon viel (bzw den Großteil der Vorteile) motion clarity „einsammeln“ kann
Da hast du sicher recht, aber gerade was Textlesbarkeit/schärfe angeht, ist 240 Hz noch immer ziemlich schlecht
robbitop
2026-01-13, 07:23:32
Da hast du sicher recht, aber gerade was Textlesbarkeit/schärfe angeht, ist 240 Hz noch immer ziemlich schlecht
Das kommt aber auch auf den Bewegungsgradienten und auf die Größe der Schrift an. Ein Extrem ist wenn man mit Absicht wie ein Irrer die Maus schüttelt - dann bricht es schnell zusammen. Insbesondere bei kleiner Schrift auf zB Schildern in Spielen und feinen Details. Das andere Extrem ist ein langsamer Kamera Pan mit Gamepad und ggf große Schrift.
Normales Gaming ist irgendwie ein Spektrum dazwischen. In vielen Situationen innerhalb dieses Spektrums beim normalen Zocken sollte man mit <500 Hz schon einen guten Teil des Effektes geholt haben. Bei super schnellen Gradienten mit der Maus dann wahrscheinlich nicht mehr.
Ex3cut3r
2026-01-13, 07:37:50
Seh ich ganz genauso. Ich sag ja nicht, dass das was wir haben nicht bereits sehr gut ist. Ich werde z.B. mein Display wahrscheinlich erst wieder in 5-10 Jahren tauschen. Ich sag nur, dass noch sehr viel Luft nach oben ist und es kein Labor braucht, um die Unterschiede zu sehen.
5 Jahre habe ich auch ca. eingeplant für meinen QD-OLED den ich seit Sommer 25 besitze. 4K, 240HZ, 31,5"
Möchte in 5 Jahren dann sehr gerne 5K, mindestens 480HZ, 31,5" wieder QD-OLED, Glossy x10 Gen oder so haben. :biggrin:
EDIT: Es ist jedes Mal eine kleine Tortur, wenn man im Homeoffice den OLED-Monitor über USB-C am Arbeitslaptop betreibt: Auf dem OLED laufen zwar 240 Hz bei 8-Bit völlig problemlos, aber sobald man ein Fenster auf das Laptop-Display zieht, merkt man erst, wie extrem ruckelig sich die 60 Hz anfühlen. Einfach nur bäh.
Da muss ich beim Chef für den nächsten Arbeitslaptop definitiv mindestens 120 Hz einfordern.
Platos
2026-01-13, 10:11:48
Bezüglich Framrate: Ich empfehle sowieso jedem, die Mausempfindlichkeit nicht zu hoch einzustellen, explizit auch bei Shooter. Die Zappel-Kiddies, die man manchmal in Videos sieht... :D
Und ansonsten hilft es, mit Gamepad zu spielen. Das ist m.M.n sowieos viel entspannter und ergonomischer. Für mich gehört das dazu, besser in die Welt eintauchen zu können, anstatt Roboterartig mit WASD zu Steuern. Das ist einfach deutlich atmosphärischer m.M.n. Die Tastatur macht das total kaputt (die Maus geht ja noch).
Mit BFI und 240Hz hat man hier vermutlich mit vernünftiger Controllereinstellung sicherlich schonmal einen sehr guten Anfang und mit DLSS 6x dürfte man das auch eher erreichen. Für mich reichen 40+ FPS als Inputlag bei Reflex (6x konnte ich bisher nicht testen hinsichtlich Bildqualität) für Atmosphärische Spiele mit Controller.
Mehr wie 480FPS + BFI dürfte wohl nur für hektische Mausspieler relevant sein. Fraglich ist sowieso, ob die Generierung von Frames überhaupt so schnell geht, so dass 1ms Frametime überhaupt erreicht wird. Stand heute geht das ja gar nicht mit DLSS, RR und Framegen. Schon 2ms ist schwer, vor allem, wenn die Modelle immer mehr Berechnungszeit brauchen.
Für mich wirds wohl nie mehr wie 480Hz + BFI geben. Aber ich zappel auch nicht wild rum. Aber ich denke, mit 240Hz + BFI werde ich zufrieden sein, ich brauch eigentlich auch nie ein 480Hz. Wie schon erwähnt wurde, ist 240Hz mit 1/4 Zeit wie 1000FPS.
Ich bin daher immer noch für eine effiziente Methode mit BFI mit 240Hz. 480Hz 4k ist sowieso noch Zukunftsmusik. Und für die, die es unbedingt brauchen: Bis dahin können auch Monitor-OLEDs länger Leben (Monitor-OLEDs sind ja nur deshalb bei 300Nits, weil das Autodimming am Desktop hier rein grätscht wegen der Lebensdauer). Ich denke aber, ab 240Hz muss es sowieso OLED sein. LCD kann gar nicht so schnell schalten, um so richtig gut zu sein. Das ist quasi verschwendung bei LCD.
(Dumm nur für mich, wenn man mit 38" Sondergrössen hat, die kaum bedient werden, ich aber nicht mehr missen will am Desktop. Und am TV zocke ich sowieso viel lieber und da muss zuerst mal 4k 240Hz OLED kommen).
robbitop
2026-01-13, 10:22:20
BFI im herkömmlichen Sinn? Dann hat man wieder kein VRR. Finde ich (zusätzlich zum Helligkeitsverlust bei OLED) schon ein herber Einschnitt.
M/T ist IMO zumindest bei einem Shooter (gibts ja auch als single player) besser. Ich mag gern gut zielen können ^^
Bei einem RPG oder Rennspiel oder so -> Gamepad (nur IMO)
Platos
2026-01-13, 10:30:14
BFI im herkömmlichen Sinn? Dann hat man wieder kein VRR. Finde ich (zusätzlich zum Helligkeitsverlust bei OLED) schon ein herber Einschnitt.
M/T ist IMO zumindest bei einem Shooter (gibts ja auch als single player) besser. Ich mag gern gut zielen können ^^
Bei einem RPG oder Rennspiel oder so -> Gamepad (nur IMO)
Nein, da hatten wir doch die Diskussion: BFI mit VRR kompatibilität. Schwierig, aber machbar mit leichten Kompromissen (Die Methode von Tobalt hört sich gut an: Quasi herkömmliches BFI an VRR angepasst und bei schwankender Framerate anstatt ein Blackframe mit schwacher Helligkeit die Helligkeitsunterschiede ausgleichen. )
Und ja, wenn ich mal Shooter zocke (was momentan sehr selten ist), dann nehme ich auch eine Maus. Aber auch da stelle ich die Empfindlichkeit nicht extrem hoch und zappel wie blöd rum. Da musst du dir nur mal ein paar Streamer-Kiddies geben, die denken, man sei ein Progamer, wenn man die Empfindlichkeit auf max stellt ^^
Aber eben: 240Hz + BFI +VRR reichen für Endgame eig. Damit kann man 1000FPS Bewegtschärfe erreichen. Alles darüber ist einfach verschwendung von Framerate m.M.n. Dann geht man dann lieber wieder in Richtung mehr PPI und mehr echte Frame oder qualitativ hochwertigere, generierte Frames. 220PPI ist da wirklich ne ganz gute Zahl. Deine 360Hz sind im Vergleich zu 240Hz +BFI grad ein Witz hinsichtlich Bewegtschärfe.
Und ja ich weiss, wegen Autodimming ist OLED am Desktop noch nicht so hell. Aber bin sowieso ein TV-Zocker. Spiele da lieber auf ner grossen Glotze.
Edit: Und evtl. kann man ja in Zukunft auch eine Fixe Framerate mittels Framegenerieeung erzeugen (also bei nvidia). Eine Fixe Framerate ist sowieso besser, als eine schwankende. Dann wäre auch BFI an die Monitorrefreshrate angepasst ohne Kompromisse.
robbitop
2026-01-13, 10:32:50
Ah ok also ein irgendwann eventuelles hypothetisches Verfahren. Ok ja das wird sicher spannend. Aber nicht gerade um die Ecke wahrscheinlich :)
Platos
2026-01-13, 10:34:24
Es gibt aber jetzt schon Monitore, die VRR und BFI gleichzeitig können. Wie machen die das eigentlich?
Gehen tut es also schon.
Chris Lux
2026-01-13, 10:43:07
Gibt es eigentlich 5kx2k QD-OLEDs, oder ist da was angekündigt? Am Besten auch mit RGB-Stripe.
robbitop
2026-01-13, 10:43:44
Mit OLED und gleichzeitig? Ich kenne bis dato nur ELMB Sync von ASUS was das kann. Das war aber kompromissbehaftet je nach fps range in der man sich befand und iirc nur auf LCDs.
ASUS ELMB Sync (Extreme Low Motion Blur + Adaptive-Sync/VRR) kann Bewegungsunschärfe reduzieren, hat aber typische Nebenwirkungen wie sichtbaren Crosstalk/Doppelkonturen, Helligkeitsverlust und teils Flackern bei schwankenden FPS.[blurbusters +1]
Strobe-Crosstalk (Doppelbilder)
Bei ELMB/Backlight-Strobing ist Strobe-Crosstalk (sichtbare Doppelkonturen/„Ghosting, das wie Ghosting aussieht“) ein häufiges Problem, weil die Pixel nicht schnell genug vollständig in den Zielzustand wechseln, bevor die Hintergrundbeleuchtung „blitzt“.[reddit +1]
Das fällt besonders bei schnellen Kameraschwenks oder kontrastreichen Kanten auf und kann je nach Panel/Modell so stark sein, dass es praktisch nicht „wegzukonfigurieren“ ist.[blurbusters]
Flackern bei VRR-FPS-Schwankungen
ELMB Sync kombiniert Strobing mit variabler Bildwiederholrate; dabei kann es in bestimmten FPS-Bereichen zu sichtbarem Backlight-Flackern kommen (z. B. wenn die Framerate stark schwankt oder um bestimmte Bereiche herum).[reddit]
Nutzerberichte nennen das explizit als Problem zusammen mit auffälligem Crosstalk, insbesondere im Bereich mittlerer FPS/Hz.[reddit]
Reduzierte Helligkeit / „zu dunkel“
Backlight-Strobing bedeutet, dass das Backlight nicht dauerhaft leuchtet, sondern nur kurz pulst; dadurch wirkt das Bild typischerweise deutlich dunkler (und man dreht oft die Helligkeit hoch, was andere Artefakte wieder sichtbarer machen kann).[reddit]
Overdrive-Konflikte und eingeschränkte Einstellbarkeit
Overdrive (ASUS „Trace Free“) ist eng mit Ghosting/Inverse-Ghosting verknüpft; in ELMB-Sync-Modi kann die Abstimmung schwieriger sein, und teils sind Overdrive-Optionen eingeschränkt oder nicht veränderbar, während ELMB Sync aktiv ist.[reddit +1]
Praxis: Wann es am meisten nervt
Am problematischsten ist ELMB Sync oft bei stark variierender Framerate (VRR arbeitet „gegen“ die strobe-optimale, konstante Taktung) und bei Panels, die ohnehin zu langsam sind (VA häufig stärker als schnelle IPS/TN, modellabhängig).
Und ja, wenn ich mal Shooter zocke (was momentan sehr selten ist), dann nehme ich auch eine Maus. Aber auch da stelle ich die Empfindlichkeit nicht extrem hoch und zappel wie blöd rum. Da musst du dir nur mal ein paar Streamer-Kiddies geben, die denken, man sei ein Progamer, wenn man die Empfindlichkeit auf max stellt ^^
In aller Regel stellen die nicht ihre Empfindlichkeit hoch, sondern spielen sogar mit einer extrem geringen Empfindlichkeit.
robbitop
2026-01-13, 10:48:21
In aller Regel stellen die nicht ihre Empfindlichkeit hoch, sondern spielen sogar mit einer extrem geringen Empfindlichkeit.
Also dann reines unnötiges, neurotisches Verhalten von Kiddies X-D
Platos
2026-01-13, 10:54:33
Mit OLED und gleichzeitig? Ich kenne bis dato nur ELMB Sync von ASUS was das kann. Das war aber kompromissbehaftet je nach fps range in der man sich befand und iirc nur auf LCDs.
Also auf Geizhals gibts diese Sncy-Versionen (Von Gigabyte gibts auch was) nur mit LCD. Aber das Prinzip ist ja genau gleich. Also ob das nun OLED oder LCD ist, die Methode wäre ja die Gleiche. Die Helligkeit sollte ja insgesammt nicht dunkler wie ohne Sync sein.
Flackern bei extremen FPS-Einbrüchen wird man wohl aber trotzdem nicht verhindern können. Das ist aber sowieso nicht wünschenswert, auch nicht mit VRR.
Und OLED + BFI gibts auch @ 240Hz 3840x2160. Aber (noch) ohne VRR sync.
Ob die Sync-Methoden gut sind, kann ich selber nicht beurteilen. Warum diese Methode Doppelbilder erzeugen, weiss ich nicht (also mehr als BFI ohne sync). Vlt. ist/war es in dem Monitor aber auch einfach schlecht umgesetzt. Es gibt ja auch bei normalem BFI manche Monitore, die kaum sichtbare Doppelbilder erzeugen und manche Modelle, die grauenhafte Doppelbilder erzeugen (wunderbar bei RTINGs Tests zu sehen).
In aller Regel stellen die nicht ihre Empfindlichkeit hoch, sondern spielen sogar mit einer extrem geringen Empfindlichkeit.
Eine hohe Empfindlichkeit verstehe ich so, dass wenig Bewegung der Maus sehr viel Bewegung am Monitor erzeugt. Eben sehr empfindlich.
Ich glaube, wir meinen das gleiche. Ansonsten scheint das, was ich bisher so gesehen habe, gegensätzlich zu deiner Erfahrung zu liegen. Normalerweise zappeln die Kiddies wild rum (und eigentlich meine ich damit nicht nur unter 18 jährige).
robbitop
2026-01-13, 11:01:38
Also ohne VRR wäre mir das nichts muss ich sagen. Ich hasse stutter, unsauberes framepacing und co viel mehr als persistance. Und (das ist aber ein IMO) mir ist der Helligkeitsverlust bei meinem OLED zu hoch.
CP77 und andere HDR Titel sehen im abgedunkelten Raum einfach wow aus. Jetzt da Helligkeit wegzunehmen -> :(
Aber wie gesagt reines IMO
Platos
2026-01-13, 11:08:08
Hast du denn bei deinem OLED BFI und hast es bei 100% Helligkeit ohne irgendwelche Energiesparmodis ausprobiert ? Welchen OLED hast du nochmals ?
Und ich meinte das eher so, dass es BFI mit VRR schon gibt (die Technik also nicht Zukunftsmusik ist), aber ja, bei OLED leider noch nicht.
Wieso das aber bei deinem Zitat/Test Doppelbilder erzeugte, weiss ich auch nicht. Also ob das ein grundlegendes Problem ist oder einfach dieses Modell so schlecht war.
robbitop
2026-01-13, 11:12:06
Mein OLED Monitor (ich glaube das ist der Samsung G60SD) hat das glaube ich nicht. Ich habs an meinen beiden OLED TVs von LG probiert. War schon ein deutlich merkbares downgrade wenn man das angeschaltet hat. Zumindest für mich. :)
Beziehst du dich auf ELMB Sync und das Gigabyte Äquivalent? Ja wie du sagst: nur LCD (meh) und wie gesagt voller Quirks (doppel meh). ^^
Das Zitat kommt von Perplexity - ich habe mich nur dunkel dran erinnert, dass die Reviewer alle nicht beeindruckt waren damals. Ich war aber zu faul das zu recherchieren -> AI recherchieren lassen und aufgelisten lassen. Also mit Vorsicht zu genießen. :)
Eine hohe Empfindlichkeit verstehe ich so, dass wenig Bewegung der Maus sehr viel Bewegung am Monitor erzeugt. Eben sehr empfindlich.
Das ist bei den meisten überdurchschnittlichen Gamern so, die Zappeln nicht so wild weil deren Sensitivity so hoch ist sondern weil sie ihren Arm so schnell bewegen.
Üblicherweise sind die meisten irgendwo zwischen 800 und 1600dpi unterwegs, was sehr wenig ist.
Ohne die Spieleinstellung zu kennen sagt das natürlich nicht so viel aus, viele verwenden aber für Spiele die selbe Einstellung wie in Windows und lassen die Defaulteinstellungen, und passen nur die Spiele an.
Mal zum Vergleich ich als nicht "ProGamer" fühle mich mit 3200dpi auf Windows-Defaulteinstellungen, ohne Zeigerbeschleunigung wohl und unter 1600DPI gehts gar nicht.
Normalerweise zappeln die Kiddies wild rum (und eigentlich meine ich damit nicht nur unter 18 jährige).
Was sind Kiddies dann wenn nicht unter 18 jährige?
Platos
2026-01-13, 13:10:02
Ich meinte mit rumzappeln ingame wild die Kamera bewegen, weil die Empfindlichkeit zu hoch eingestellt ist.
Und nochmals: Hohe Empfindlichkeit = hohe DPI = mehr Mauszeigerbewegung bei gleich viel physischer Mausbewegung. Das, was du meinst, ist eine niedrige Empfindlichkeit. Mehr Empfindlichkeit = weniger Finger- bzw. Hand- bzw. Armbewegung nötig.
Und ja, ich passe Windows an und dann nur noch in den Spielen.
Abgesehen davon: Selbstverständlich kommts massiv auf den Mausgriff drauf an. Je nach Mausgriff bewegt man niemals den Arm oder sogar eher die Finger.
Ich meinte mit rumzappeln ingame wild die Kamera bewegen, weil die Empfindlichkeit zu hoch eingestellt ist.
Das macht niemand der regelmäßig spielt.
Und nochmals: Hohe Empfindlichkeit = hohe DPI = mehr Mauszeigerbewegung bei gleich viel physischer Mausbewegung. Das, was du meinst, ist eine niedrige Empfindlichkeit. Mehr Empfindlichkeit = weniger Finger- bzw. Hand- bzw. Armbewegung nötig.
Ich weiß was high bzw. low sense ist.
Deine Beobachtung ist falsch du glaubst die "Zappeln" wegen der hohen Empfindlichkeit, obwohl sie in Wirklichkeit "Zappeln" weil sie es wollen, und das in der Regel bei geringer bis sehr geringer Empfindlichkeit.
Abgesehen davon: Selbstverständlich kommts massiv auf den Mausgriff drauf an. Je nach Mausgriff bewegt man niemals den Arm oder sogar eher die Finger.
Wenn du mit den Fingern aimst ist deine Empfindlichkeit viel zu hoch. Was glaubst du wofür die ganzen Mousepads sind die quasi den halben Schreibtisch einnehmen?
Niemand der halbwegs ernsthaft Spielt verwendet die Finger, je nach Spielertyp hauptsächlich das Handgelenk oder den Arm, die Finger werden höchstens für minimale Korrekturen verwendet.
Tobalt
2026-01-14, 07:15:09
Ah ok also ein irgendwann eventuelles hypothetisches Verfahren. Ok ja das wird sicher spannend. Aber nicht gerade um die Ecke wahrscheinlich :)
Es ist a) nicht meine Methode.. Ich habe davon vor vielen vielen Jahren in den Anfangstagen von VRR hier im 3dc gehört b) Sie ist also alt und gut bekannt.
Eine Umsetzung bei LCDs war auch schon erfolgt, zB bei ASUS ELMB Sync, allerdings schien diese fehlerhaft. TFT Central berichtete noch zu einem zweiten Strobe vor der Dark Phase, also zwei Strobes pro Frame, was offensichtlich falsch ist.
https://tftcentral.co.uk/reviews/asus_rog_swift_pg329q#main
https://tftcentral.co.uk/images/asus_rog_swift_pg329q/strobe_90_on.png
IMG embed scheint nicht zu gehen: https://tftcentral.co.uk/images/asus_rog_swift_pg329q/strobe_90_on.png
Grundlegend war die Kontrolle über drei Helligkeits levels pro Frame aner gegeben. Ich weiß nicht ob das mittlerweile gefixt ist. Habe keinen ELMB Sync Bildschirm um es zu testen.
AM OLED müsste man die Pixel dann direkt modulieren, was sicher schwieriger ist, da es dazu wohl einen zweiten Refresh innerhalb des frames braucht. Aber sollte auch machbar sein, mit entsprechend zügiger Elektronik
dargo
2026-01-14, 07:42:29
KI-Upscaling nun auch bei Monitoren.
-PLLQuOgBRw
robbitop
2026-01-14, 08:36:18
Es ist a) nicht meine Methode.. Ich habe davon vor vielen vielen Jahren in den Anfangstagen von VRR hier im 3dc gehört b) Sie ist also alt und gut bekannt.
Eine Umsetzung bei LCDs war auch schon erfolgt, zB bei ASUS ELMB Sync, allerdings schien diese fehlerhaft. TFT Central berichtete noch zu einem zweiten Strobe vor der Dark Phase, also zwei Strobes pro Frame, was offensichtlich falsch ist.
https://tftcentral.co.uk/reviews/asus_rog_swift_pg329q#main
https://tftcentral.co.uk/images/asus_rog_swift_pg329q/strobe_90_on.png
IMG embed scheint nicht zu gehen: https://tftcentral.co.uk/images/asus_rog_swift_pg329q/strobe_90_on.png
Grundlegend war die Kontrolle über drei Helligkeits levels pro Frame aner gegeben. Ich weiß nicht ob das mittlerweile gefixt ist. Habe keinen ELMB Sync Bildschirm um es zu testen.
AM OLED müsste man die Pixel dann direkt modulieren, was sicher schwieriger ist, da es dazu wohl einen zweiten Refresh innerhalb des frames braucht. Aber sollte auch machbar sein, mit entsprechend zügiger Elektronik
Wenn sinnvoll, attraktiv und feasible wäre, hätten wir es wahrscheinlich bereits. Wenn ein paar Logikketten nötig sind auf die Laien in Techforen kommen (bzw schon vor Jahren gekommen sind), wäre das für große Hersteller kein Problem gewesen. Es scheint da signfikante Hürden und/oder Nachteile zu geben weshalb man es trotz aller rasanter Innovation in der OLED Paneltechnik zumindest bis dato noch nicht umgesetzt hat. Da kann man ruhig etwas skeptisch sein IMO ^^
Tobalt
2026-01-14, 09:31:01
Wenn sinnvoll, attraktiv und feasible wäre, hätten wir es wahrscheinlich bereits. Wenn ein paar Logikketten nötig sind auf die Laien in Techforen kommen (bzw schon vor Jahren gekommen sind), wäre das für große Hersteller kein Problem gewesen. Es scheint da signfikante Hürden und/oder Nachteile zu geben weshalb man es trotz aller rasanter Innovation in der OLED Paneltechnik zumindest bis dato noch nicht umgesetzt hat. Da kann man ruhig etwas skeptisch sein IMO ^^
Da stimme ich zu. Nvidia scheint mit Pulsar auch einen andere, noch dynamischeren Weg zu gehen.
Die kausal implizit benötigte Phase 3 (wenn man brightness flicker vermeiden will), wird nur transient bei fps-Jumps genutzt. Sofern sich die Framerate stabilisiert, wird dies dynamisch zu angepassten parmetern der Dark und Strobe Phase umgesetzt. Der Helligkeitsbeitrag aus "Phase 3" bleibt damit im Mittel sehr gering. Eine sehr gute Lösung, weil damit quasi die gesamte Helligkeit in Form eines Strobe delivered wird! Entsprechend positiv fallen auch die Reviews aus.
Zu sehen hier ab Min 16:00:
SXwXGYhi8_I
Zusätzlich noch die Vorteile des Rolling-Strobes... Das macht schon echt Lust. Ich hoffe nur, dass andere Hersteller das auch mal außerhalb des NV Vendorlocks umsetzen.
robbitop
2026-01-14, 12:42:39
Aber halt LCD. Meh. Und HDR soll auch nicht toll damit sein laut DF.
Aber wahrscheinlich hat jeder unterschiedliche Prioritäten. :)
Lurtz
2026-01-14, 22:21:16
Ich werde jetzt wohl erstmal den TCL 27R83U behalten. Weniger aus Überzeugung als aus Mangel an Alternativen. Und da ich nach wie vor nicht weiß woran es genau liegt, ergibt es auch keinen Sinn wahllos weiter Monitore zu bestellen.
Hätte den MSI IPS Mini LED behalten, aber da gingen die Kopfschmerzen auch in SDR ohne LD nicht weg. Warum auch immer. Laut Rtings hat der Helligkeitsfluktuationen in SDR, aber nur minimale und mit sehr hoher Frequenz.
Den TCL vertrage ich in SDR gut, in HDR neige ich auch zu Kopfschmerzen, also gibt kein HDR-fähiges Display, das ich einwandfrei vertrage. Aber sie erscheinen mir zumindest weniger intensiv/häufig.
OLED ging ja weder in SDR noch HDR.
Wenn das VA-Smearing mal großflächig auftritt ist man aber echt gearscht. Die Vegetation in Stalker 2 ist ganz schlimm. Da ist der Upscaler fast schon irrelevant, weil eh alles verschmiert.
Mal schauen wie es jetzt die nächsten Monate so läuft, würde mich nicht wundern wenn ich am Ende wieder auf einen SDR-IPS-Monitor wechsle und es einfach sein lasse... :ugly:
robbitop
2026-01-14, 23:31:02
Ggf next trial mit den neuen RGB subpixeln. Zur Not per FAG zurück. ^^
dargo
2026-01-15, 07:42:08
Soll Lurtz jetzt bis zum Lebensende Monitore bestellen die wieder Retoure gehen? :freak: Irgendwann hast du einfach die Schnauze voll. Pixel Layout ist nicht das Problem bei Lurtz.
robbitop
2026-01-15, 08:14:11
(1) Du hast es ja auch eine Weile mitgemacht
(2) Scheint noch niemand genau zu wissen woran es liegt - entsprechend ist das seriös wahrscheinlich nicht einschätzbar. Wenn man immer eine Randbedingung ändert, hat man zumindest durch das Ausschlussverfahren, eine Chance etwas herauszufinden und noch wichtiger: OLED potenziell nutzen können ohne unschöne Nebenwirkungen.
(3) Lurtz kann sich dazu doch selbst äußern. ;)
Lurtz
2026-01-15, 08:53:05
Denke OLED ergibt keinen Sinn, solange sich da nichts grundsätzliches an der Art wie das Bild "produziert" wird ändert, was nicht abzusehen ist.
So langsam gehen mir die Händler aus, hab keine Lust da gesperrt zu werden, und wenn man sieht dass die Händler selbst bei neuwertigen gebrauchten Monitoren (nur Panel an den Monitorarm gehängt und zurück) Abschläge von idR über 100€ machen müssen, ist es irgendwann auch einfach asozial die ständig zurückzugeben. Wenn ich gewusst hätte, dass das so eine Odyssee wird, hätte ich es von Anfang an gelassen...
Vielleicht gibts trotz der OLED-Schwemme ja irgendwann noch mal einen brauchbaren Mini LED. Der MSI mit 5k und 2k Zonen sieht auf dem Papier zumindest interessant aus, aber da hat MSI ja schon selbst gesagt dass sie nicht wissen ob es einen Markt dafür gibt ;D
Und dann ist natürlich immer die Frage ob er PWM oder sonstiges Geflacker hat, bevor das nicht klar ist brauche ich gar nicht zu testen.
Kriegsgeier
2026-01-15, 08:58:06
Also für mich war ein OLED Monitor ein Offenbarung. Ich weiß nicht was du damit hast? Die Technik ist ausgereift und die 240Hz machen voll Bock.
Ich bin mit meinem ASUS ROG 34" 3440x1440 in WOLED mehr als zufrieden. War zwar nicht günstig aber jeden Cent wert!
Lurtz
2026-01-15, 09:02:26
Hab ich doch zig Mal geschildert. Ich bekomme (ziemlich üble) Kopfschmerzen von OLED-Monitoren.
Kriegsgeier
2026-01-15, 09:05:32
ach so, ok. Das ist natürlich schade. Sorry, wusste ich nicht.
robbitop
2026-01-15, 09:05:40
Nur aus Interesse - verzeihe mir die Neugier: Hast du das auch bei OLED Tablets und Notebooks? Und warum vermutest du dass das Pixellayout damit nichts zu tun hat? Weil du den Effekt mit hoher Auflösung gemindert hast? :)
Muss echt kacke sein diese Technologie nicht nutzen zu können :(
dargo
2026-01-15, 09:32:53
(1) Du hast es ja auch eine Weile mitgemacht
Ja... und es war super nervig. Gott sei Dank werde ich davon wieder auf Jahre verschont.
Und warum vermutest du dass das Pixellayout damit nichts zu tun hat?
Hätte den MSI IPS Mini LED behalten, aber da gingen die Kopfschmerzen auch in SDR ohne LD nicht weg. Warum auch immer. Laut Rtings hat der Helligkeitsfluktuationen in SDR, aber nur minimale und mit sehr hoher Frequenz.
Steht doch da.
Lurtz
2026-01-15, 10:31:21
Nur aus Interesse - verzeihe mir die Neugier: Hast du das auch bei OLED Tablets und Notebooks? Und warum vermutest du dass das Pixellayout damit nichts zu tun hat? Weil du den Effekt mit hoher Auflösung gemindert hast? :)
Muss echt kacke sein diese Technologie nicht nutzen zu können :(
Nein, nur Smartphone. Die OLEDs da funktionieren AFAIK aber auch etwas anders als die Monitore/TVs.
Weil das Pixellayout offenbar nur meine Augen ermüdet hat, aber nicht ursächlich für die Kopfschmerzen war.
qu3x^
2026-01-15, 19:34:03
OLEDs schaffen doch jetzt schon 1000 Hz. Es mangelt nur an Bandbreite zwischen GPU und Display.
Was willst du denn da für höhere Pixelschaltgeschwindigkeiten? :confused:
Das Display müsste doch nur die Zeit zwischen dem letzten und dem aktuellen Frame errechnen und kann daraufhin die Leuchtdeuer für das aktuelle Frame ermitteln und es dementsprechend lange eingeschaltet lassen.
Dann hast du effektiv eine Verzögerung bei der Helligkeit von einem einzigen Frame was bei 120Hz+BFI wahrscheinlich gar nicht spürbar ist.
Mit 1200hz würde man alle gängigen Framerates wie 24/30/48/120/240 wiedergeben können und könnte zusätzlich 600hz mit BFI über die Monitor FW implementieren. Just saying.
robbitop
2026-01-15, 22:27:54
Was das VRR Problem nicht löst. Ohne VRR ist es einfach sehr kompromissbehaftet. Und ansonsten kann jeder 240 Hz OLED die genannten refreshraten auch wiedergeben. Entweder dynamisch über VRR oder halt statisch eingestellt. Es gibt da eigentlich keinen Vorteil da statisch die 1200 Hz laufen zu lassen und sich zu freuen dass es ein Vielfaches von den genannten refreshrates ist. Zumal 24p leider keine 24 Hz sind sondern iirc 23,9irgendwas Hz sind. Passt dann also auch nicht ^^
aufkrawall
2026-01-15, 22:30:04
Wobei die unpassenden wiederholten Frames immer kürzer angezeigt werden, je höher die Refresh Rate. Aber ja, trotzdem sehr altertümlich.
Was das VRR Problem nicht löst. Ohne VRR ist es einfach sehr kompromissbehaftet.
Tut es schon ich trau mich wetten, dass du in einem Blindtest bei 1000Hz nicht unterscheiden kannst ob VRR an ist oder nicht.
qu3x^
2026-01-16, 19:07:01
Was das VRR Problem nicht löst. Ohne VRR ist es einfach sehr kompromissbehaftet. Und ansonsten kann jeder 240 Hz OLED die genannten refreshraten auch wiedergeben. Entweder dynamisch über VRR oder halt statisch eingestellt. Es gibt da eigentlich keinen Vorteil da statisch die 1200 Hz laufen zu lassen und sich zu freuen dass es ein Vielfaches von den genannten refreshrates ist. Zumal 24p leider keine 24 Hz sind sondern iirc 23,9irgendwas Hz sind. Passt dann also auch nicht ^^
Bei 240 kannst 50Hz NTSC knicken. Hätte ich vielleicht erwähnen können, wobei auch hier das nieschige 72hz nicht sauber um ein vielfaches laufen könnten. Somit kann es nur auf kurz oder lang VRR mit BFI geben damit es von den Frametimes passt.
ChaosTM
2026-01-17, 21:18:20
rmiB2NnXgPU
Warum rückt der den Monitor nicht auf eine sinnvolle weite zurück?
ich will so was in OLED.
Ein 42er nur viel breiter, mit höherer Auflösung.
HABEN WILL !
Platos
2026-01-18, 09:21:04
Weil nicht alle sich einen grösseren Monitor kaufen, nur um ihn dann weiter weg zu stellen ;)
OgrEGT
2026-01-18, 09:51:56
Weil nicht alle sich einen grösseren Monitor kaufen, nur um ihn dann weiter weg zu stellen ;)
Wäre aber besser für die Augen da sie dann entspannter auf größere Entfernung fokussieren müssten/dürften...
mindhunter
2026-01-18, 16:20:41
Als Showfluencer geht es mehr um das große Ganze XD
The_Invisible
2026-01-18, 17:09:18
https://youtu.be/rmiB2NnXgPU
Warum rückt der den Monitor nicht auf eine sinnvolle weite zurück?
ich will so was in OLED.
Ein 42er nur viel breiter, mit höherer Auflösung.
HABEN WILL !
Goil, da würde ich sogar mein Dual Monitor Setup auflösen :D
Platos
2026-01-18, 17:17:31
Wäre aber besser für die Augen da sie dann entspannter auf größere Entfernung fokussieren müssten/dürften...
Nach der Logik ist jeglicher Monitor nicht gross genug und auch die meisten TVs nicht, wenn man eine sinnvolle Arbeitsfläche haben will. Ab ~2-3m ist es dann langsam Fernakkomodation. Dann kaufst du dir dann aber einen 98" oder minimum 85" TV, um eine sinnvolle Fläche zu haben ;)
DeadMeat
2026-01-18, 17:51:49
ich finde meinen 45" schon grenzwertig zu groß und der hier wäre ~16cm breiter und ~7 höher :D
Aber nettes Gerät auch wenn es IPS Black hätte haben können.
Dr. Lars Sahmströhm
2026-01-20, 17:05:37
Wäre aber besser für die Augen da sie dann entspannter auf größere Entfernung fokussieren müssten/dürften...
Ich sitze in ziemlich genau 1m Distanz zu einem 55 Zoll TV. Glaubst du, meine Augen sind besser dran, wenn ich auf einen 27 Zoll OLED in 60-65cm Distanz wechsle?
Im Verhältnis ist der Kleinere weiter weg oder nicht? Er müsste in 50cm stehen, um die nur etwa halbe Bildfläche annähernd 1:1 wett zu machen. Also müssten meine Augen besser dran sein mit dem OLED, weil ich im Verhältnis zur Bilddiagonale weiter weg bin, ergo: Sitze ich zu nah vor dem 55er. Aber die Augen wären auf ein kleineres Fenster fixiert, würden sich in Summe weniger bewegen bzw. weniger stark hin und her springen, was u.U. langfristig den Augenmuskeln schaden, bzw. diese schlapp machen könnte, was dann zu Unschärfen in Weitsicht führen könnte, die aber theoretisch reversibel sein müssten.
Nightspider
2026-01-20, 18:45:23
Hab schon Angst das mir 38 Zoll 21:9 zu groß sind. Also 55" möchte ich echt nicht haben. ^^
Ist am Ende auch irgendwo Energieverschwendung wenn eine doppelt oder dreifach so riesige Fläche stundenlang leuchtet.
Obwohl ich mich manchmal schon frage, ob es für die Augen besser wäre einen so großen Monitor mit doppelter Distanz zu haben.
ChaosTM
2026-01-20, 18:52:26
..ist meistens ziemlich egal..
Hab momentan wieder einen 42er (nach 4! Versuchen hab ich jetzt einen nagelneuen 42er Asus bekommen) und einen 65er schräg hinter diesem.
Beide wirken optisch praktisch gleich groß.
Wenn Platz eine Rolle spielt, wie bei den meisten, ist kleiner natürlich besser.
Wenn es um Spiele oder Filme geht gewinnt der Große. Sonst eher der kleine..
aufkrawall
2026-01-20, 19:02:06
Obwohl ich mich manchmal schon frage, ob es für die Augen besser wäre einen so großen Monitor mit doppelter Distanz zu haben.
Wahrscheinlich harmlos gegen die Smartphone-Schädigung von Generation Z.
ChaosTM
2026-01-20, 19:11:06
Wahrscheinlich harmlos gegen die Smartphone-Schädigung von Generation Z.
meiner Mutter hat mir schon in den 70ern gesagt - "halte dein Buch weiter weg, du wirst sonst blind"
Das hat aber nicht geflimmert.
Ich sehe meinen Nachbarn schräg unter mir und der hängt praktisch fast immer vor seinem Smartphone am Abend.
Er hat zwar einen riesigen TV, aber den nutzt er nicht
Platos
2026-01-20, 19:19:26
Es ist einfach anstrengend für die Augen, weil man in der Nähe den Muskel anspannen muss. Das wars. In die Ferne ist er entspannt. Das kann im dümmsten Fall auch zu Kopfschmerzen führen bei Leuten, die sich dann verkrampfen.
Natürlich der Nebeneffekt, dass man zu wenig blinzelt, wenn man konzentriert irgendwohin schaut. Aber das ist dann auch beim Lesen so.
Im Endeffekt ist das Schlimmere das wenige Blinzeln. Das führt dann zu Hornhautverkrümmung bzw. begünstigt sie. Der Rest ist Temporär (man kann bei chronischer Überbeanspruchung durchaus schlechter sehen. Deswegen kann Augentraining helfen).
aufkrawall
2026-01-20, 19:34:38
Ich sehe meinen Nachbarn schräg unter mir und der hängt praktisch fast immer vor seinem Smartphone am Abend.
Weiß er von dem Guckloch (in der Dusche?)?
ChaosTM
2026-01-20, 19:46:11
Weiß er von dem Guckloch (in der Dusche?)?
Nein, der hat keinerlei Berührungsängste mit anderen Leuten.
Seine Fenster sind fast immer unverdunkelt. Wie sich ein ~ 18 jähriger mit russischem Akzent einen Dodge RAM 3500 leisten kann..
Niemand weiß es ;)
add.: die Wohnung im alten Heller Haus kostet auch mindesten 4k
Dr. Lars Sahmströhm
2026-01-21, 20:32:53
Hab mal den MSI-MAG-272QPWDE-QD-OLED-X28 hier geschnappt für wenig Geld. 429€ statt 599€ und es gibt noch 50 Dollar Steamguthaben bei MSI oben drauf (Bedingung: Man muss mindestens ein weiteres MSI Produkt bereits besitzen, was ich dank meinem Mainboard tue) ergo ca. 43€ Gegenwert, was den Preis effektiv auf sagenhafte 386 Euro drückt. Für einen MSI-QD-OLED aus Ende 2025 mit Firmware-Updateability und neuestem EOTF, das nochmal ein Plus an Helligkeit herausholen soll verglichen mit den Modellen aus 2024 (die das auch per Update bekommen sollen, für die Modelle, die updatebar sind, augenscheinlich nicht alle).
https://www.mindfactory.de/product_info.php/26-5Zoll--67-31cm--MSI-MAG-272QPWDE-QD-OLED-X28-Weiss-2560x1440-1xDispl_1628750.html
M4xw0lf
2026-01-22, 18:47:19
Ich hab für meinen 27URX Mal das Firmware-Update mit dem EOTF-Modus draufgespielt.
Auf dem Desktop bzw im Browser dunkelt es bei Webseiten mit weißem Hintergrund erstmal trotzdem stärker als der HDR400 true black Modus.
Leuchtspitzen können dafür mitunter deutlich stärker knallen. In meinem aktuellen Spiel (PoP The Lost Crown) war ich heute in einem finsteren Bereich unterwegs, der nur von einer Lichtquelle des Prinzen erleuchtet wird - da ist das Bild mit dem EOTF-Profil merklich geiler als mit HDR400 oder dem Peak 1000-Modus. Die Glanzlichter und sonstigen farbigen Effekte springen einen förmlich an.
Jetzt ist The lost crown meines Wissens kein HDR-Titel, aber der Monitor macht jedenfalls je nach Bildinhalt irgendwas anderes mit den verschiedenen Profilen. ^^
Dr. Lars Sahmströhm
2026-01-23, 11:19:29
Es ist schwierig. Leider ist er mir zu klein. War wohl doch keine gute Idee von 55 auf 27 zu gehen. Ich hab das Gefühl ich gucke in einen Puppenkasten.
HDR Demos auf yt sind atemberaubend und ich wähle dieses Wort bewusst. Es ist sogar noch heftiger als ich dachte. Ich weiß gar nicht wie man das noch toppen soll, ich hab überhaupt keinen Zweifel mehr an QD-OLEDs, da kann auch kein TANDEM WOLED mithalten, die Leuchtkraft und Präzision der Farben ist unerreichbar. Das (noch) hellere Weiß der WOLEDs ist komplett überflüssig und soll deren Makel nur kaschieren, da bin ich mittlerweile sicher. Das EOTF bringt auch nochmal etwas, das Nachsteuern sieht man aber, auch wenn es nicht stört. Schrift ist auch überhaupt kein Problem, wenn er korrekt eingestellt ist (nur dann).
Elden Ring gefällt mir nicht darauf. Es ist zu scharf, bekommt eine Körnigkeit, die dem Game nicht gut steht. Leider flimmert das Panel auch, ich nehme an das ist VRR, aber es ist teilweise wirklich heftig. Ich hatte youtube im Browser offen und der gesamte schwarz/graue Rahmen ist vollkommen ausgeflippt, hat geflackert wie eine Fackel. Das ging weg beim neuladen, aber ich hab es auch im Menü in KDC2 bemerkt. Das erinnert mich stark and die Zeiten als die ersten TN-Panels aufkamen, die hatten das auch, Schwierigkeiten eine konstante Helligkeit zu produzieren. Wirkt komisch auf mich, da wieder zu sein. Ich sehe sogar in dem hellen 3DC Background mit den grauen Klötzchen, während ich das hier schreibe, ein leichtes flackern. Nur sehr leicht, aber man sieht es.
Das WE wird noch getestet, aber ich denke, ich werde ihn an Montag zurückschicken. Schade eigentlich, weil er günstig war.
edit:
Wenn ich hier im Forum langsam durch einen Thread scrolle, um ihn zu lesen, dann pulsieren die Grautöne laufend, werden beim Scrollen ständig etwas heller oder dunkler um einen Mittelwert zu finden. Diese laufende Helligkeitsregulation geht gar nicht. Vielleicht ist das auch ein Care-Feature, evtl. kann man das ausschalten. Es ist ja ok, das er sich leicht abdunkelt, wenn man statische Inhalte länger betrachtet, aber er muss/soll nicht alle 10mS eine Regulation vornehmen, das ist viel zu schnell.
Palpatin
2026-01-23, 12:52:19
Von 55 auf 27 zu gehen ist heftig. Ich bin von 43 auf 32 OLED gewechselt das ging gerade so. Mittlerweile habe ich mich dran gewöhnt, perfekt für mich wäre wohl 39 Zoll, 21:9, 5k2k, 240hz, QDOLED. Bis dahin bin zufrieden mit meinem 32 Zoll.
Lurtz
2026-01-23, 13:01:25
Hab übrigens gerade keine Kopfschmerzen mehr von HDR vom VA Mini LED. Mal schauen ob das nur eine Phase ist, sonst vielleicht doch alles Gewöhnungssache/Psychosomatik ;D
Ich weiß gar nicht wie man das noch toppen soll, ich hab überhaupt keinen Zweifel mehr an QD-OLEDs, da kann auch kein TANDEM WOLED mithalten, die Leuchtkraft und Präzision der Farben ist unerreichbar.
Ich dachte Tandem WOLED hat QD-OLED fast erreicht was die Luminanz der meisten Farben angeht?
Wenn ich hier im Forum langsam durch einen Thread scrolle, um ihn zu lesen, dann pulsieren die Grautöne laufend, werden beim Scrollen ständig etwas heller oder dunkler um einen Mittelwert zu finden. Diese laufende Helligkeitsregulation geht gar nicht. Vielleicht ist das auch ein Care-Feature, evtl. kann man das ausschalten. Es ist ja ok, das er sich leicht abdunkelt, wenn man statische Inhalte länger betrachtet, aber er muss/soll nicht alle 10mS eine Regulation vornehmen, das ist viel zu schnell.
Auf dem Desktop müsstest du SDR mit Uniform Brightness verwenden um das zu vermeiden.
SamLombardo
2026-01-23, 13:08:12
Ich dachte Tandem WOLED hat QD-OLED fast erreicht was die Luminanz der meisten Farben angeht?.
Nee das Farbvolumen ist bei QD OLED immer noch eine andere Liga, selbst verglichen mit Tandem WOLED. Selber ausführlich probiert, das fällt mir sofort auf - und ich meine dass das auch die Reviewer noch so sehen. Komischerweise stört mich das bei HDR Filminhalten gar nicht, bei Gaming fällt es hingegen in den meisten Spielen sofort auf, da möchte ich nicht auf QDOLED verzichten.
Dr. Lars Sahmströhm
2026-01-23, 14:15:15
MSI kann ich bisher sehr empfehlen. Alles verläuft genauso, wie man es sich wünscht, unkompliziert. Von der selbsterklärenden Verpackung, über den selbsterklärenden, kinderleichten und dennoch sehr soliden Zusammenbau des Ständers und Montage am Panel, über das sehr angenehme, fast hübsche, und in Anbetracht an Grusel, den es da gibt, sehr gut bedienbare Menü.
Ich hab ihn jetzt gefühlt seit anderthalb Tagen in Betrieb und auch noch keine einzige Einbledung zwecks Refresh oder dergleichen entdeckt. Das VRR-Flackern in dem Spiel Mount&Blade konnte ich gänzlich eliminieren, in dem ich die FPS auf 240 gecappt habe, mit Rivatuner. In Elden Ring hingegen, scheint alles über 90FPS das Flackern zu verursachen, da muss ich noch testen.
Von 55 auf 27 zu gehen ist heftig. Ich bin von 43 auf 32 OLED gewechselt das ging gerade so.
Ich hab intuitiv das Gefühl ich blicke auf einen größeren Handheld-Screen, so ein Teil was sie einer Wii U oder anderen mobilen Gaming-Stations beilegen. Nicht nur wegen der viel geringeren Größe, sondern weil die Crispheit und Reaktionsschnelle ungewohnt ist, man kennt das von den Smartphones. Ich weiß gar nicht ob so ein bischen Motion Blur nicht evtl. wünschenswert ist. Bin da noch unentschieden.
The_Invisible
2026-01-23, 14:49:50
Nee das Farbvolumen ist bei QD OLED immer noch eine andere Liga, selbst verglichen mit Tandem WOLED. Selber ausführlich probiert, das fällt mir sofort auf - und ich meine dass das auch die Reviewer noch so sehen. Komischerweise stört mich das bei HDR Filminhalten gar nicht, bei Gaming fällt es hingegen in den meisten Spielen sofort auf, da möchte ich nicht auf QDOLED verzichten.
Dafür ist das "purple" Problem bei Umgebungslicht noch immer nicht zufriedenstellend gelöst, perfekten Moni gibts noch immer nicht
aufkrawall
2026-01-23, 15:00:58
Ist bei der neusten Gen doch massiv besser geworden, wie auch die Kratzfestigkeit.
SamLombardo
2026-01-23, 15:10:14
Ist bei der neusten Gen doch massiv besser geworden, wie auch die Kratzfestigkeit.
Das stimmt und außerdem nur relevant wenn wirklich eine helle Lichtquelle dahinter steht. Oder die Sonne drauf scheint oder so. Wenn du ein kleineres Licht irgendwo im Zimmer anhast ist es genauso perfekt schwarz wie WOLED.
Dr. Lars Sahmströhm
2026-01-23, 16:35:39
Ich dachte Tandem WOLED hat QD-OLED fast erreicht was die Luminanz der meisten Farben angeht?
Dache ich, wollte erst den GigaByte MO27Q28G kaufen, aber dann las sah ich ein Vergleichsvideo auf yt, wo er deutlich übersteuert hat, da gingen viele Details verloren in dem grellen Licht. Gut, kann natürlich sein, dass er völlig verstellt war. Fast alle diese Monitor-Vergleichsvideos werden falsch gemacht. Aber er hat auch ein massives Problem mit den Graustufen, die sehen, wenn sie großflächig dargestellt werden müssen, komplett kaputt aus, so als wäre der Monitor 15 Jahre alt und verschlissen. Geht wohl über das Modell hinaus und ist bei WOLED generell ein Problem.
Auf dem Desktop müsstest du SDR mit Uniform Brightness verwenden um das zu vermeiden.
Wo stell ich das ein? Im Display oder in Win?
The_Invisible
2026-01-23, 16:56:37
Das stimmt und außerdem nur relevant wenn wirklich eine helle Lichtquelle dahinter steht. Oder die Sonne drauf scheint oder so. Wenn du ein kleineres Licht irgendwo im Zimmer anhast ist es genauso perfekt schwarz wie WOLED.
Nein leider nicht, hatte beide nebeneinander stehen und tritt selbst bei gedimmten licht auf. und laut HWU ist es auch bei den neuen QDOLEDs nur minimal besser geworden
Nightspider
2026-01-23, 17:05:00
Ich bezweifle etwas, dass man bei zwei kalibrierten Monitoren einen Unterschied zwischen aktuellen WOLED und QD-OLEDs sieht.
Die Farbhelligkeit limitiert doch erst wenn reine Farben sehr hell dargestellt werden.
Das Thema wäre viel präsenter, wenn man im Alltag so große Unterschiede sehen würde.
Gerade bei den Testern wie HWU, die jede Woche andere Monitore vor der Nase haben.
Die Farbhelligkeit limitiert doch erst wenn reine Farben sehr hell dargestellt werden.
Also Quasi immer, die meisten Highlights sind Farbig, außer sie sind komplett Überbelichtet, und dann werden sie weiß weil die Farbinformationen verloren gehen.
Lurtz
2026-01-23, 18:06:33
Wo stell ich das ein? Im Display oder in Win?
Windows in SDR (kann man ja mit Windows+Alt+B umschalten. Dann müsste man am Monitor Uniform Brightness aktivieren können. Bedeutet natürlich weniger Maximalhelligkeit, aber in SDR eben konstant.
Relex
2026-01-23, 18:15:03
Nein leider nicht, hatte beide nebeneinander stehen und tritt selbst bei gedimmten licht auf. und laut HWU ist es auch bei den neuen QDOLEDs nur minimal besser geworden
Was ist bei dir gedimmtes licht? 100 Watt deckenleuchte statt 200 Watt? :freak:
QD-OLED ist hier abends pech schwarz. Genauso schwarz wie das OLED Handydisplay wenn ich es davor halte und sogar dunkler als mein LG CX mit WOLED, der durch das spiegelndere Coating sehr viel mehr Licht reflektiert.
Nightspider
2026-01-23, 18:45:51
Also Quasi immer, die meisten Highlights sind Farbig, außer sie sind komplett Überbelichtet, und dann werden sie weiß weil die Farbinformationen verloren gehen.
Also wenn ich mir das Farbsystem nach Munsell anschaue, würde ich sagen, die meisten Farben haben einen Weißlichtanteil.
https://upload.wikimedia.org/wikipedia/commons/1/1e/Munsell_1943_color_solid_cylindrical_coordinates_gray.png
Bin da aber auch kein Experte. Ist für mich einfach logisch, weil in der Natur nunmal weißes Licht vorhanden ist und die wenigsten Dinge nur einzelne Spektren reflektieren.
Es ist meistens eine Mischung.
Die ersten QD OLED Fernseher waren ja auch nicht richtig kalibriert und die Leute dachten am Anfang es würde an der höheren Farbhelligkeit liegen.
Bis dann die Geräte kalibriert auf einmal gleich aussahen.
Relex
2026-01-23, 18:59:31
QD-OLED hat schon ne stärkere Farbsättigung, die man auch sieht. Ist natürlich eher subtil, aber wer drauf achtet wird es erkennen.
Gut, mein LG CX den ich als Vergleich habe, wird mittlerweile "alt", aber die Unterschiede sieht man da auf jeden Fall.
Wenn z.B. ne gelbe Blume in nem Game von der Sonne angestrahlt wird, dann muss die mit z.B. 400-600 nits leuchten. Und dann darf die nicht einfach ins weiß abdriften, um das heller zu bekommen. Um reine Farben heller zu bekommen muss auch die Sättigung mit ansteigen.
Grundsätzlich ist es zwar richtig, dass die ganz hellen Peaks natürlicherweise praktisch immer stark ins weiße gehen, das macht die Unterschiede weniger offensichtlich. Aber wie gesagt, spätestens, wenn etwas farbiges von einer stärkeren Lichtquelle angestrahlt wird, sind hohe Farbsättigungen nötig, um die Farbe dann auch bei hoher Helligkeit erhalten zu können und nicht verblassen zu lassen. Und da hat QD-OLED einfach mehr reserven, als WOLED.
Und nein, die Sättigung höher zu drehen oder das quellmaterial stärker zu sättigen bringt rein gar nichts. Aus dem WOELD bekomme ich die Farben die der QD-OLED erzeugt einfach nicht. Und obwohl ich übersättigte Bilder hasse wie die pest, wirkt das QD-OLED Bild natürlicher.
Bei WOLED merkt man dann einfach, dass es ein bisschen an Farbkapazität fehlt. Das ist ungefähr so wie IPS vs VA. Der QD-OLED ermöglicht genauso wie IPS etwas mehr farbsättigung, während WOLED ähnlich wie VA bei kräftigen Farben etwas zurück liegt. Vielleicht ist es nicht ganz so ausgeprägt wie bei den LCDs, aber es geht in die Richtung.
Bei den aktuellen Panels sollten die Unterschiede sicher geringer sein. Aber ich denke grundsätzlich werden die stärken und schwächen weiterhin vorhanden sein.
Nightspider
2026-01-23, 19:54:00
Die Unterschiede mit alten WOLED Panels sind natürlich größer aber die helligkeiten haben sich halt drastisch verbessert die letzten Jahre.
ChaosTM
2026-01-23, 20:02:05
Solange QD-OLEDs unter Tags wie eine graue Wasserleiche ausschauen kommt mir so was nicht ins Zimmer. Hat mich bei den frühe(re)n Plasmas extrem genervt.
Das scheint aber mittlerweile gelöst zu sein. Ob dadurch neue Probleme auftreten wird man sehen.
tN9P2TaU0vg
Kann in Zukunft nur besser werden, seien es Tandem OLEDs oder QD`s mit besserer Beschichtung.
Auch wenn die RGB LEDs recht vielversprechend ausschauen bleiben sie relativ langsam und eben Hintergrundbeleuchtet.
Dank Pulsar könnten aber auch damit gute Ergebnisse erzielt werden. Da muss man abwarten ..
aufkrawall
2026-01-23, 20:21:34
Die Unterschiede mit alten WOLED Panels sind natürlich größer aber die helligkeiten haben sich halt drastisch verbessert die letzten Jahre.
Eine Schneeszene mit gesättigt blauem Himmel, und das war's mit WOLED im hellen Raum.
ChaosTM
2026-01-23, 20:32:39
So hat jeder seine subjektiven K.O. Kriterien.
Den perfekten Monitor gibts halt immer noch nicht, aber wir kommen dem langsam aber sicher näher.
M4xw0lf
2026-01-23, 21:59:36
Mein PC steht in einer relativ dunklen Ecke, bei mir auch am Tag gar kein Thema.
Dr. Lars Sahmströhm
2026-01-24, 09:35:12
Solange QD-OLEDs unter Tags wie eine graue Wasserleiche ausschauen kommt mir so was nicht ins Zimmer. Hat mich bei den frühe(re)n Plasmas extrem genervt.
Ich hatte auch zwei Bedenken: a)Der Violett-Stich b)Das ich mich selbst im Display spiegle. Beide kann ich für mich zumindest vollkommen abhaken. Jeder andere Display, der nicht dezidiert matt gecoatet war, den ich in meinem Leben hatte (jeder, der mal vor einem Sony saß, weiß, was Spiegelungen sind) hat deutlich schlimmer gespiegelt. Vielleicht ist das die spezielle Beschichtung von MSI, das weiß ich nicht, aber ich finde die Beschichtung als geradezu optimal bzw. als den richtigen Kompromiss. Was den Violett-Stich angeht, den sehe ich nur wenn sich z.B. meine Stehlampe hinter mir direkt darin spiegelt. Man will ja nicht, dass sich eine Birne darin spiegelt, also stellt man die Stehlampe etwas um oder dreht den Display. Ob die gespiegelte Lampe dabei noch etwas violett wird, ist irrelevant. Man stellt sie eh um. Ich hatte extra ein weißes Modell gekauft, damit das wenigstens hübsch aussieht, wenns violett wird, aber es ist überhaupt kein Problem, außer vielleicht, man hat viele Glühbirnen um sich herum.
Ich hab jetzt akut das Problem, dass ich den VRR-Flicker weitgehend gelöst habe (einfach dadurch, dass V-Sync immer an ist und Enhanced Sync aus) und dass ich rausgefunden habe, wie unglaublich sich Games auf einem OLED anfühlen, wenn man sie von 2K->4K upscaled. Man bekommt ein Bild, das so smooth, so fein, so glatt, so frei von jedem Flirr ist, das es ein völlig neues Spielgefühl ergibt. Fast wie ein Fenster in eine andere Realität. Es ist sogar so, dass die FPS deutlich unter 60 fallen können, bis in den 40er Bereich und ich merke kaum einen Unterschied. Es wird gar nicht sloggy, die Eingabe bleibt trotz so wenig FPS präzise und direkt und ich sehe auch keine annähernd so große Motion-Unschärfe, wie ich sie bei so wenig FPS erwarten würde. Es bleibt total spielbar, das kenne ich so gar nicht.
The_Invisible
2026-01-24, 10:15:22
Was ist bei dir gedimmtes licht? 100 Watt deckenleuchte statt 200 Watt? :freak:
Nö einfach 4 Hue White 9w maximal gedimmt was schon sehr dunkel ist. Ich habe mir sogar extra so einen Hue LED Streifen für Monitorhintergrundbeleuchtung angeschafft, damit war es dann akzeptabel aber mir allgemein zu dunkel. Oder der Samsung g80sd war einfach Mist, ka.
Die neuen qdoleds scheinen zwar besser zu sein in der Hinsicht aber gelöst ist das nicht https://youtu.be/c90FLTWQiSY?si=era9jY_av82GmuJL
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=95367&stc=1&d=1769246257
Bin da aber auch kein Experte. Ist für mich einfach logisch, weil in der Natur nunmal weißes Licht vorhanden ist und die wenigsten Dinge nur einzelne Spektren reflektieren.
Es ist meistens eine Mischung.
Die Aussage macht wenig Sinn. Weißes Licht existiert in der Natur nicht isoliert.
Weiß ist die Summe aller (sichtbaren) Farben.
Es gibt keine Emitter für weißes Licht, in einem WOLED sind pro Subpixel mehrere blaue und gelbgrüne Emitter übereinandergestapelt, deren Summe dann annähernd weißes Licht ergibt.
Deren Charakteristik ist aber zur Bauzeit festgelegt. Du kannst dann nicht je nach Content mehr gelb oder mehr rot darstellen.
Dr. Lars Sahmströhm
2026-01-24, 14:40:23
Verdammt, das Bild mit Supersampling 4Kto2K ist so geil, das will ich eigentlich nicht gegen ein größeres tauschen. Vielleicht reichen die 140 oder 160ppi eines 31,5er in 4K ja aus, um ein ähnlich geglättetes Ergebnis zu erreichen, aber ich glaube nicht. 8Kto4K werd ich jedesfalls nicht machen können, das wird nicht gehen. :frown:
M4xw0lf
2026-01-24, 14:49:01
Verdammt, das Bild mit Supersampling 4Kto2K ist so geil, das will ich eigentlich nicht gegen ein größeres tauschen. Vielleicht reichen die 140 oder 160ppi eines 31,5er in 4K ja aus, um ein ähnlich geglättetes Ergebnis zu erreichen, aber ich glaube nicht. 8Kto4K werd ich jedesfalls nicht machen können, das wird nicht gehen. :frown:
~160ppi wären 4k @ 27". (Beste Größe (y) )
Ex3cut3r
2026-01-24, 15:22:47
Nö einfach 4 Hue White 9w maximal gedimmt was schon sehr dunkel ist. Ich habe mir sogar extra so einen Hue LED Streifen für Monitorhintergrundbeleuchtung angeschafft, damit war es dann akzeptabel aber mir allgemein zu dunkel. Oder der Samsung g80sd war einfach Mist, ka.
Die neuen qdoleds scheinen zwar besser zu sein in der Hinsicht aber gelöst ist das nicht https://youtu.be/c90FLTWQiSY?si=era9jY_av82GmuJL
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=95367&stc=1&d=1769246257
Ok. Aber du sieht ja weißen Standfuß was für eine Leuchtstärke von vorne draufkommt. Das ist einfach mal null komma null aussagekräftg. Ich habe selbst einen QD-OLED, 4K und 240HZ Glossy. Und dachte damals auch oh je das wird ein Problem mit dem Lila Hue...Tja stellt sich heraus, dass ist einfach mal in normalen Zimmer gar kein Problem und wird von den Influencern aber hochgekocht. Das ein WOLED aber in HDR vs QD-OLED einfach mal "blass" aussieht wird meistens nicht als großes Problem dargestellt.
Dr. Lars Sahmströhm
2026-01-24, 15:23:33
~160ppi wären 4k @ 27". (Beste Größe (y) )
Für einen OLED eher nicht. Das ist so wie mit den CPUs. Je weniger Nanometer, desto mehr Schaltungen pro Fläche, desto mehr Hitze wird auf dieser Fläche generiert. Ein OLED mit 160ppi brennt mit Sicherheit schneller ein, als einer mit 110 oder 140. Alles andere würde mich überraschen, das ist einfach Physik.
Nightspider
2026-01-24, 15:31:02
Das hat weniger mit Physik zu tun als mit Chemie weil da unterschiedliche Emitter verwendet werden.
Vor allem wenn du die neuen 27 Zoller mit den alten 32 Zollern vom letzten Jahr vergleichst.
Abgesehen davon ist BurnIn kein Thema mehr.
Und wenn hält ein neuer 4k mit 27 Zoll länger als so ein alter 1440p OLED Screen mit 2 Jahre altem Panel.
Für einen OLED eher nicht. Das ist so wie mit den CPUs. Je weniger Nanometer, desto mehr Schaltungen pro Fläche, desto mehr Hitze wird auf dieser Fläche generiert.
Das ist quasi gar nicht vergleichbar. Kleinere Pixel auf selber Fläche müssen ja nicht die selbe Helligkeit produzieren um auf die Gesamtfläche die Selbe Helligkeit zu erzeugen.
Das was mehr Energie verbraucht ist das mehr an Steuerleitungen die durch das Panel müssen.
Hitze ist auch nicht der primäre Grund fürs Ausbrennen sie beschleunigt den Vorgang lediglich. Ansonsten könnte man sehr leicht Ausbrennen durch bessere Kühlung vollständig verhindern.
M4xw0lf
2026-01-24, 20:45:30
Das hat weniger mit Physik zu tun als mit Chemie weil da unterschiedliche Emitter verwendet werden.
Vor allem wenn du die neuen 27 Zoller mit den alten 32 Zollern vom letzten Jahr vergleichst.
Abgesehen davon ist BurnIn kein Thema mehr.
Und wenn hält ein neuer 4k mit 27 Zoll länger als so ein alter 1440p OLED Screen mit 2 Jahre altem Panel.
Bei gleicher Bildschirmhelligkeit ist da mit Sicherheit kein relevanter Unterschied.
Nightspider
2026-01-25, 01:43:24
Bei gleicher Bildschirmhelligkeit ist da mit Sicherheit kein relevanter Unterschied.
Natürlich sind da teilweise riesige Unterschiede.
Zwischen Gen 1 und 2 gibt's riesige Unterschiede trotz gleicher Helligkeit.
Dr. Lars Sahmströhm
2026-01-25, 05:59:39
Das ist quasi gar nicht vergleichbar. Kleinere Pixel auf selber Fläche müssen ja nicht die selbe Helligkeit produzieren um auf die Gesamtfläche die Selbe Helligkeit zu erzeugen. Das was mehr Energie verbraucht ist das mehr an Steuerleitungen die durch das Panel müssen.
Wieso soll das nicht vergleichbar sein, wir reden bei OLED ja nicht einfach nur von Pixeln, sondern im Prinzip ist jedes einzelne Pixel eine kleine "Glühbirne" weil es seine eigene Helligkeit mitbringen muss. Wir reden bei so einem Panel also von einer Glühbirnenmatrix, die mal enger und mal gröber gezogen wird. Okay, es ist ein organisches Leuchtmaterial, das weniger Strom benötigt, verglichen mit LED, dürfte daher auch weniger Abwärme produzieren, aber es ist auch gleichzeitig anfälliger für Wärme, weil grundsätzlich 3-4x weniger lange haltbar.
Hitze ist auch nicht der primäre Grund fürs Ausbrennen sie beschleunigt den Vorgang lediglich. Ansonsten könnte man sehr leicht Ausbrennen durch bessere Kühlung vollständig verhindern.
Das sagt Wikipedia:
Das größte technische Problem stellt die vergleichsweise geringe Lebensdauer und schnelle Abnutzung mancher aus organischen Materialien bestehenden Bauelemente dar. Bei (O)LEDs bezeichnet man als Lebensdauer die mittlere Betriebszeit, nach der die Leuchtdichte auf die Hälfte abgesunken ist. Dabei haben blaue OLEDs die geringste Lebensdauer. Für weiße Lichtquellen, wie bei Monitoren, ist für die insgesamt nutzbare Lebensdauer daher die blaue Komponente die begrenzende. 2011 wurden für weiße Lichtquellen 5000 Stunden (bei 1000 cd/m²)[34] und 12.000 Stunden (bei 100 cd/m²)[35] angegeben. Im Vergleich dazu weisen handelsübliche weiße LEDs für die Hintergrundbeleuchtung bei LCD-Monitoren eine mittlere Betriebszeit in der Größenordnung von 30.000 Stunden auf.[36] Die Lebensdauer von OLEDs ist temperaturabhängig: Eine gut gekühlte OLED (gleich welcher Farbe) mit geringer Anfangsleuchtstärke hat immer eine höhere Lebensdauer als eine OLED, die ohne Kühlung von Anfang an mit der maximalen Leuchtstärke betrieben wird. Der Grund sind Diffusionsprozesse in der OLED, die bei höheren Temperaturen schneller ablaufen. Die Lebensdauer bei mittlerer bis geringer Helligkeit wird aus dem Wert bei maximaler Helligkeit extrapoliert, da der Test von OLED-Materialien bei geringer Leuchtstärke über mehrere Zehn- bis wenige Hunderttausende von Stunden nicht praktikabel ist.
Wenn die Farbe Blau am schnellsten altert, dann aus demselben Grund, aus dem auch blaue LEDs am schnellsten altern, weil es ca. 15-20% mehr Strom kostet blaues Licht zu generieren, als rotes. Das Mehr an Strom bedeutet ein Mehr an Hitze und ein Mehr an Ripple, wobei Ripple auch in Hitze konvertiert.
TheAntitheist
2026-01-25, 07:42:25
naja das eigentliche Problem ist die chemische Instabilität
Platos
2026-01-25, 09:45:22
LED "Glühlampen" altern auch deutlich langsamer, wenn man die gleiche Leuchtkraft durch mehr Emitter erreicht und der Stromverbrauch ist dadurch auch geringer. Wobei dort oft nicht das Leuchtmittel selbst stirbt, aber das Prinzip ist trotzdem das gleiche. Das ist ja das Prinzip von Tandem-OLED. Mehr Emitter für gleiche grosses Pixel = effizienter bei gleicher Helligkeit. Die Lebensdauer wird gesteigert.
Und bei einfach mehr Pixel: Das dargestellte Bild ändert sich ja nicht. Man muss dann einfach bei z.B vom 1080p auf 2160p mit 4 Pixeln nun das Bild und die Leuchtkraft von vorher einem grossen Pixel darstellen. Also 4x kleiner und 4x weniger Leuchtkraft. Ich würde sagen, das gleicht sich in etwa aus.
Triniter
2026-01-25, 10:03:27
Ich hab auch grad so ein "Luxus"problem. Ich sitze aktuell an einem 38" LG 38WK95C-W 95
In fast allen Bereichen bin ich mit der Leistung zufrieden. Ich will jetzt aber aus mehreren Gründen ein Multimonitor Setup. Nebeneinader bekomme ich das hier in meinem Büro aufgrund der Platzverhältnisse so gar nicht hin, keine Chance. Eingentlich seh ich nur die Möglichkeit ein Setup zu bauen, das die Monitore übereinander anordnet, da wirds aber auch fix knapp vom Platz. Ich will eigentlich zwingend einen 32" großen OLED unten haben und das bisherige Display darüber nutzen. Aber ich find einfach nichts passendes. Zusätzlich bräuche ich eine Wandhalterung, da ich keinen Monitor finde, den man auf dem Standfuß quasi ganz nach unten stellen kann um nicht zu hoch zu werden. Bin schon kurz davor frustiert einfach alles so zu lassen wie es ist...
M4xw0lf
2026-01-25, 11:22:00
Natürlich sind da teilweise riesige Unterschiede.
Zwischen Gen 1 und 2 gibt's riesige Unterschiede trotz gleicher Helligkeit.
Es geht um verschiedene Pixeldichte bei gleicher Monitorgröße und Helligkeit, nicht verschiedene Paneltechnologien.
Platos
2026-01-25, 11:34:14
Ich hab auch grad so ein "Luxus"problem. Ich sitze aktuell an einem 38" LG 38WK95C-W 95
In fast allen Bereichen bin ich mit der Leistung zufrieden. Ich will jetzt aber aus mehreren Gründen ein Multimonitor Setup. Nebeneinader bekomme ich das hier in meinem Büro aufgrund der Platzverhältnisse so gar nicht hin, keine Chance. Eingentlich seh ich nur die Möglichkeit ein Setup zu bauen, das die Monitore übereinander anordnet, da wirds aber auch fix knapp vom Platz. Ich will eigentlich zwingend einen 32" großen OLED unten haben und das bisherige Display darüber nutzen. Aber ich find einfach nichts passendes. Zusätzlich bräuche ich eine Wandhalterung, da ich keinen Monitor finde, den man auf dem Standfuß quasi ganz nach unten stellen kann um nicht zu hoch zu werden. Bin schon kurz davor frustiert einfach alles so zu lassen wie es ist...
Dann musst du wohl einen Monitorarm holen, der 2 Monitore halten kann. Das gibts ja.
Dein jetziger Monitor ist ja "nur" 3840x1600, also quasi ein in der Höhe abgeschnittener 16:9 4k Monitor. Alternativ könntest du dir also einen 38" 4k monitor oder 42" 4k TV zulegen und deinen jetzigen verkaufen (dann hast du 35% mehr Pixel in der Höhe und durch den grösseren Monitor kannst du die Skalierung noch runter stellen, was effektiv auch nochmals mehr Fläche ergibt). Von der physischen Höhe wäre das auch deutlich weniger wie 2 übereinander aber immer noch deutlich mehr wie nur einer und in der Breite ähnlich wie deiner.
Oder Alternativ kaufst du dir 2x 3840x2160 32" und stellst sie beide horizontal nebeneinander auf und verkaufst deinen jetzigen.
Wenn du viel Fläche brauchst, dann solltest du sowieso auf 2160p setzen. Oder du wartest noch auf evtl. in den nächsten 1-2 Jahre kommende, grosse 6k Bildschirme (38"-42" bei 16:9). Das ist das, was ich mache. Ich warte, bis es grosse 6k Bildschirme gibt. "Kleine" (32") gibts ja glaube ich von Samsung oder wurde angekündigt. 6k ist also anscheinend am aufkommen.
Nightspider
2026-01-25, 12:57:36
Wieso soll das nicht vergleichbar sein, wir reden bei OLED ja nicht einfach nur von Pixeln, sondern im Prinzip ist jedes einzelne Pixel eine kleine "Glühbirne" weil es seine eigene Helligkeit mitbringen muss. Wir reden bei so einem Panel also von einer Glühbirnenmatrix, die mal enger und mal gröber gezogen wird. Okay, es ist ein organisches Leuchtmaterial, das weniger Strom benötigt, verglichen mit LED, dürfte daher auch weniger Abwärme produzieren, aber es ist auch gleichzeitig anfälliger für Wärme, weil grundsätzlich 3-4x weniger lange haltbar.
Das sagt Wikipedia:
Wenn die Farbe Blau am schnellsten altert, dann aus demselben Grund, aus dem auch blaue LEDs am schnellsten altern, weil es ca. 15-20% mehr Strom kostet blaues Licht zu generieren, als rotes. Das Mehr an Strom bedeutet ein Mehr an Hitze und ein Mehr an Ripple, wobei Ripple auch in Hitze konvertiert.
Wo hast du den Unfug mit Ripplestrom her?
Bei allen WOLED und QD-OLED Monitoren werden sowieso blaue Emitter für rote und grüne Subpixel verwendet. Bei WOLED wird weißes Licht durch blau und gelb erzeugt und durch Filter gejagt und bei QD OLEDs wird blaues Licht durch Quantum Dots zu rotem und grünem Licht umgewandelt.
Die Zersetzungsmechanismen sind auch weit komplexer als "Strom und Wärme hinterlässt verbranntes Land".
High Energy & Stability:
Blue light requires high-energy photons, which easily break chemical bonds in the emitter or host materials.
Long Exciton Lifetimes:
Long-lived excited states (often \(\mu \)s to ms range) increase the probability of triplet-triplet annihilation (TTA) and singlet-triplet annihilation (STA).
Außerdem hat man schon blaue Emitter mit höheren Lebensdauern geschaffen als grün und rot aber es gibt eben nicht nur die Metrik Lebensdauer sondern auch Effizienz und Helligkeit und da gibt es eben größere Herausforderungen bei deep blue Emittern alles unter einen Hut zu kriegen aber da gibt's riesige Fortschritte in den letzten Jahren und die sind noch lange nicht fertig mit Verbesserungen.
Nightspider
2026-01-25, 13:37:23
Es geht um verschiedene Pixeldichte bei gleicher Monitorgröße und Helligkeit, nicht verschiedene Paneltechnologien.
Es gibt aber nicht die gleichen Diagonalen mit unterschiedlichen Pixeldichten aber gleichem OLED Stack.
Die 27 Zoller mit 4K haben neuere OLED Stacks als die 32 Zoller mit 4K.
Und die neuen Panels mit V-Stripe WOLED haben wieder einen anderen, neueren Aufbau.
Wieso soll das nicht vergleichbar sein, wir reden bei OLED ja nicht einfach nur von Pixeln, sondern im Prinzip ist jedes einzelne Pixel eine kleine "Glühbirne" weil es seine eigene Helligkeit mitbringen muss.
Wenn du auf der gleichen Fläche 4x so viele „Glühbirnen“ verbaust muss jede „Glühbirne“ auch nur mit 1/4 der Helligkeit leuchten. Damit steigen die Energiedichten innerhalb der „Glühbirnen“ nicht an.
Bei einem nichtlinearen Zusammenhang zwischen Energiedichte und Lebensdauer gewinnst du damit effektiv sogar Lebensdauer.
Nightspider
2026-01-25, 14:31:54
Hört mal auf mit den Glühbirnen.
OLEDs und (und ihre Subpixel) sind Flächenstrahler. Wenn Subpixel kleiner sind müssen sie pro µm² eben auch eine höhere Leuchtdichte für die gleiche Displayhelligkeit erreichen.
Mit höherer Aperture Ratio kann man aber sogar die Leuchtdichte verringern und gleichzeitig die Helligkeit erhöhen. Stichwort eLEAP OLED.
Das Aperture Ratio wird auch nie angegeben, also weiß sowieso nur der Hersteller welches Panel welche Lebensdauer erreicht.
Dr. Lars Sahmströhm
2026-01-26, 11:51:52
Der VRR-Flicker ist jetzt wirklich fast weg, wenn ich V-Sync always on und Enhanced Sync benutze. In KDC2 habe ich allerdings manchmal, wenn der Gro des Panels sehr dunkel, fast schwarz ist, dass manche OLED weiß aufleuchten, so als wären es Glühwürmchen, wobei ich mir sicher bin, dass es nicht die Game-Engine ist, sondern tatsächlich OLEDs die machen, was sie eigentlich nicht sollen. Wie auch immer, es tritt nur sehr kurz auf und verschwindet dann wieder völlig. Wahrscheinlich ein Bug in der Steuerung. Ein Defekt scheint es mir nicht zu sein.
Dr. Lars Sahmströhm
2026-01-27, 10:25:21
Ich überlege nun auf den größeren Dell S3225QC umzusteigen.
https://www.idealo.de/preisvergleich/OffersOfProduct/206829164_-s3225qc-dell.html
Müsste ebenfalls ein Gen3 QD sein. Ich würde auf 160Hz verzichten (120vs280), aber ich bin mittlerweile sicher, dass 120Hz in Kombination mit der überragenden gtg-Motion eines OLED völlig ausreichend sind für ein geschmeidiges und detailliertes Spielerlebnis. Ich kann selbst auf 60Hz kein LCD typisches Geschmiere erkennen. Diese UFO-Bilder auf den Test-Seiten sind auch nicht wirklich aussagekräftig, da sieht ein 120Hz Ufo immer beschissen aus, aber das nimmt man so nicht wahr.
Haupttreiber sind der günstige Preis, es ist der mit Abstand günstige 32er OLED, sowie die Möglichkeit DolbyVision nutzen zu können, falls mal ein Film geschaut wird. Die Lautsprecher brauche ich zwar nicht, aber mir gefällt auch optisch die entsprechende Verlängerung nach unten mit dem schönen, weichen Boxenüberzugflaum. edit: Erstaunlich ist auch, dass er zwar "nur" 120Hz hat, aber die Response Times, die Rtings gemessen hat, dürften so ziemlich die Besten aller 31.5er OLEDs sein. Selbst die Top-Tier Modelle mit 240Hz erreichen nur ca. die Hälfte (nicht, dass es real einen Unterschied macht, aber dennoch) wenn man die Hz-Stufen jeweils 1:1 vergleicht. Ergo: Ein 240Hz ist bei 240Hz zwar noch ein Stück schneller/responsiver, aber bei 120Hz deutlich langsamer und das setzt sich nach unten fort. https://www.rtings.com/monitor/reviews/dell/s3225qc
Ich kann selbst auf 60Hz kein LCD typisches Geschmiere erkennen.
Aber Sample&Hold-Unschärfe.
Diese UFO-Bilder auf den Test-Seiten sind auch nicht wirklich aussagekräftig, da sieht ein 120Hz Ufo immer beschissen aus, aber das nimmt man so nicht wahr.
Das nimmt man genauso wahr.
Dr. Lars Sahmströhm
2026-01-27, 17:34:04
Aber Sample&Hold-Unschärfe.
Kenne ich nicht. Ich hab gelesen, das soll irgendein Stottern sein. Hab ich noch nie bemerkt. Auch keines der Reviews zu dem Monitor hat sowas erwähnt. Gibt es ein Video davon?
Das nimmt man genauso wahr.
Das menschliche Auge ist keine statische Kamera, die auf einen bestimmten Ausschnitt fokussiert.
Platos
2026-01-27, 18:07:37
Sample and Hold ist das "schlieren", dass durch dein Auge entsteht (weil das Frame solange angezeigt wird). Mit einer kürzeren Anzeigedauer wird das behoben. Das macht man entweder durch eine höhere Framerate oder durch sowas wie BFI, wo man einfach z.B 80% der Framelänge ein schwarzes Bild anzeigt, dann wird das Frame effektiv viel kürzer angezeigt und es schliert nicht. Das ist ein physiologischer Effekt und nicht in dem Sinne ein Schlieren vom Monitor oder so.
Das merkt man aber vlt. erst, wenn man es mal gesehen hat, da man sich das schlechte einfach gewöhnt ist. 120FPS + BFI ergibt in Bewegung ein deutlich schärferes Bild. Aber es hängt auch ein bisschen davon ab, wo du hinschaust. Wenn du immer ins Zentrum schaust beim Gamen, hast du am wenigsten Bewegung. Und in Action merkt mans vlt. nicht so, weil man eben dann voll drinn ist.
Dr. Lars Sahmströhm
2026-01-27, 19:51:50
Sample and Hold ist das "schlieren", dass durch dein Auge entsteht (weil das Frame solange angezeigt wird). Mit einer kürzeren Anzeigedauer wird das behoben. Das macht man entweder durch eine höhere Framerate oder durch sowas wie BFI, wo man einfach z.B 80% der Framelänge ein schwarzes Bild anzeigt, dann wird das Frame effektiv viel kürzer angezeigt und es schliert nicht. Das ist ein physiologischer Effekt und nicht in dem Sinne ein Schlieren vom Monitor oder so.
Du meinst Screen-Taring, das, was entsteht, wenn man V-Sync=Off und ohne Enhanced Sync einstellt? Das wird doch durch Adaptive-Sync behoben, sollte es zumindest. Alernativ stellt man eine fixe Ziel-FPS ein, so mache ich das meist. Das hilft auch am Besten gegen den VRR Flicker.
BFI=MPRT?
Platos
2026-01-27, 21:08:33
Nein, das meine ich nicht. Hier nachzulesen: https://blurbusters.com/blur-busters-law-amazing-journey-to-future-1000hz-displays-with-blurfree-sample-and-hold/
Also Sample and Hold meint ja eig. nur, dass das Frame solange angezeigt wird, bis zum nächsten Refresh. Das schlieren entsteht nur auf deiner Netzhaut bzw. im Gehirn dann weil:
In Echtzeit betrachtet: Irgendwas bewegt sich auf dem Bildschirm beim zocken: Du folgst z.B einem Gegner und fokusierst den Kopf. Während der Bewegung folgt dein Auge eben "gleichmässig" dem Objekt.
In Zeitlupe: Eigentlich bewegt sich das Objekt "Stockend" über den Bildschirm, z.B alle 16.7ms bei 60fps (im Gegensatz zu deinem Auge, dass nicht alle 16.ms eine ruckartige Bewegung macht und dem Objekt folgt).
D.h das Auge bewegt sich gleichmässig weiter, während dem aber das Bild jedes mal 16.7ms stehen bleibt. D.h der Kopf des Gegners, den du fokussierst, "wandert" auf deiner Netzhaut, weil dein Auge bewegt sich weiter, während dem das Objekt (Kopf) auf dem Bildschirm gerade für 16.7ms still steht. D.h relativ gesehen bewget sich das selbe Objekt für 16.7ms über deine Netzhaut hinweg und "brennt" sich eine "spur" während dessen. So entsteht dann der "schmiereffekt", der allein durch die physiologie des Auges passiert und nicht durch das Display selbst.
Deswegen gibt es BFI und sowas: Es wird trotz 16.7ms refreshrate nur für ein paar wenige millisekunden das Bild angezeigt und beim Rest wird die Hintergrundbeleuchtung ausgestellt. D.h das Auge bewegt sich weiter, das Bild wird aber kürzer angezeigt, also ergibt sich dadurch eine weniger lange "Spur" auf deiner Netzhaut und somit ist es eben weniger verschmiert. Dadurch steigt die Schärfe bei Bewegung.
Das kann man auch durch eine höhere Refreshrate machen, aber man kanns eben so auch machen mit BFI. Das alles hat aber nichts mit der Displayqualität zu tun oder sowas. Das kann man nur durch diese 2 Wege verbessern (oder eigentlich auch durch weniger schnelle Bewegungen, also z.B die Empfindlichkeit nicht so hoch einstellen, z.B indem man mit nem Controller zockt).
Im Grunde ist das so ein bisschen wie bei einer Kamera, wenn die Belichtungszeit hoch ist und sich während dessen das Objekt bewegt, dann "brennt" sich eine Spur ein. Also zumindest das Ergebnis ist ähnlich. Bei der Kamera bewegt sich einfach das Objekt gleichmässig, während dem die Kamera stehen bleibt (also quasi genau anders rum).
Deswegen gibt es ja diese speziellen Kamerasetups, wo die Monitor-Tester die Kamera ein sich bewegendes Objekt am Bildschirm verfolgt, um Motion Blur des Monitors abzufotographieren, denn wenn die Kamera still stehen würde und das Objekt sich auf dem Bildschirm bewegt, würde es einfach wegen dem Effekt auf dem Kamerasensor schlieren ziehen (wenn man nicht grad mit 10'000 fps filmt).
Edit: Aber eben, man ist es sich eben gewöhnt, dass alles schmiert bei Bewegung.
Kenne ich nicht. Ich hab gelesen, das soll irgendein Stottern sein. Hab ich noch nie bemerkt. Auch keines der Reviews zu dem Monitor hat sowas erwähnt. Gibt es ein Video davon?
Am nächsten dazu kommen Pursuit-Kamera Aufnahmen. Ansonsten kann man das nur Live erleben, weil es von der "Bildverarbeitung" von Auge und Gehirn entsteht.
Das menschliche Auge ist keine statische Kamera, die auf einen bestimmten Ausschnitt fokussiert.
Ein menschliches Auge ist genau das wenn du versuchst ein sich bewegendes Objekt am Bildschirm zu verfolgen.
Dass das Testufo unscharf ist wenn du einfach gerade auf den Mittelpunkt des Monitors schaust ist völlig normal und wäre in der Realität auch nicht anders.
Wenn du allerdings in der Realität das Ufo mit deinen Augen verfolgen würdest, würde es scharf werden. Genauso wie ein Auto dass vor dir auf der Straße vorbeifährt unscharf ist wenn du einfach nur auf die gegenüberliegende Straßenseite schaust. Schaust du aber dem Auto aber nach kannst du es scharf erkennen.
Durch Sample&Hold ist letzteres am Monitor nicht bzw. nur im ungenügenden Maße möglich.
Vereinfacht gesagt interpoliert dein Gehirn die erwartete Bewegung weiter. Wenn durch unzureichende Framerate/Refreshrate das Objekt aber in der physischen Welt immer noch an der alten Stelle verweilt blurt das tatsächlich gesehene Bild über das vom Gehirn erwartete Bild und die Wahrnehmung wird unscharf.
Dr. Lars Sahmströhm
2026-01-28, 15:24:30
Das schnellste/kompetetivste Game, das ich momentan zocke, ist das uralte Mount&Blade. Ich hab das verglichen, einmal mit 120Hz und einmal mit 240Hz gespielt und der einzige relevante Unterschied ist, dass es sich mit 240Hz ein klitzekleines wenig schneller/direkter anfühlt, was ich vor allem beim zielen und bei schnellen Kameraschwenks merke. Gerade beim zielen ist aber u.U. auch ein Nachteil, ich bin da noch nicht ganz sicher.
Die Bewegung der Figuren, ich habe extra drauf geachtet, auch die der kleinen, schnellen NPCs in Entfernung, ist aber glasklar, auch in 120Hz. Ich sehe keine Schlieren, kein Nachziehen, kein Ghosting, oder verschwimende Konturen irgendeiner Art.
Dass das Testufo unscharf ist wenn du einfach gerade auf den Mittelpunkt des Monitors schaust ist völlig normal und wäre in der Realität auch nicht anders.
Wenn du allerdings in der Realität das Ufo mit deinen Augen verfolgen würdest, würde es scharf werden. Genauso wie ein Auto dass vor dir auf der Straße vorbeifährt unscharf ist wenn du einfach nur auf die gegenüberliegende Straßenseite schaust. Schaust du aber dem Auto aber nach kannst du es scharf erkennen.
Und wo ist dann das Problem? Ich soll mich vor einem angeblichen Effekt sorgen, der außerhalb meines Fokus, ergo: außerhalb meiner Wahrnehmung stattfindet? Wenn ich eine Figur am Bildschirm verfolge, können meinen Augen ja mitgehen, ein Stück weit. Da sollte ein größerer Bildschirm doch von Vorteil sein. Trotzdem verstehe ich das Problem nicht ganz. Ich verfolge das Objekt und es ist scharf oder es ist außerhalb meines Fokus oder außerhalb des Bildschirms. In beiden letztgenannten Fällen juckt mich das doch nicht.
edit:
Auch in POE2 ist der größte Unterschied, dass sich die Bodenrolle minimal direkter anfühlt. Was ich da merke, ist das nun die Eingabe-Verzögerung oder die Framerate oder beides? Laut dem Test von Rtings hat der Dell bei 120Hz eine deutlich bessere Reaktion als z.B. ein besserer MSI mit 240Hz.
Dell (https://www.rtings.com/monitor/reviews/dell/s3225qc)@120Hz
https://i.postimg.cc/rsqDdbNn/Dellres.jpg
MSI (https://www.rtings.com/monitor/reviews/msi/mpg-322urx-qd-oled)@240Hz
https://i.postimg.cc/mkVt7wm3/msires.jpg
Vermutlich hat er deshalb so ein hohes Gaming-Rating bekommen, trotz "nur" 120Hz. Mehr bekomme ich in großen Titeln sowieso nicht in 4K, selbst mit Frame Generation.
Relex
2026-01-28, 16:50:22
Tja, leider scheinst du es trotz Erklärung einfach nicht zu verstehen oder nicht wahrzunehmen. Schade.
Aber fakt ist, du liegst falsch. Pixelreaktionszeiten können noch so schnell sein. Durch die Tatsache, dass ein Bild bei 120 Hz ganze 8,x Millisekunden angezeigt wird, ensteht im Auge zwangsweise eine Unschärfe. Je länger die Anzeigezeit, also je geringer die Framerate desto stärker die Unschärfe.
Die Pixelreaktionszeit gibt nur an, wie lange ein Pixel braucht, um von einem Farbwert auf einen anderen umzuschalten. Das ändert aber nichts daran, dass der Pixel bei 120 Hz 8 ms lang die gleiche Farbe anzeigt und du damit 8 ms persistenz hast, die zu Unschärfe im Auge führt, wenn inhalte sich bewegen.
Am besten schaust du dir nochmal diesen Test hier an https://testufo.com/
Das ist nicht der klassische Testufo Test für Kameras, sondern ein Test wo du auch nochmal nen Sternenhimmel im hintergrund hast. Das macht es nur nochmal offensichtlicher.
Verfolge das Ufo mit den Augen über den Bildschirm und achte auf die Schärfe der Details.
Da solltest du deutlich merken, dass das Ufo bei 60 FPS deutlich unschärfer ist, als bei 120 FPS.
Und bei 240 oder 480 FPS würde es nochmal viel schärfer werden. Nämlich irgendwann genauso scharf wie wenn du die Animation pausieren würdest. Denn das kannst du auch mal ausprobieren. Bei der Speed kannst du auch pause auswählen und du wirst sehen, dass du bei pausierter Animation nochmal alles viel schärfer siehst, als in Bewegung. Das sehe ich hier selbst mit 240 Hz OLED noch ziemlich deutlich.
Und wie du auch feststellen kannst ist die standardmäßig eingestellte Animationsgeschwindigkeit gar nicht so schnell. Eigentlich sogar ziemlich langsam. So langsam wirst du die Kamera in keinem Spiel bewegen. In Spielen siehst du die Unschärfe immer dann, wenn du ein Objekt in der Spielwelt mit den Augen fixierst und dabei die Kamera bewegst. Dadurch wandert das objekt über den Bildschirm, deine Augen verfolgen es, aber es wird unscharf dargestellt, je niedriger die FPS sind. Das ist ein riesen Problem in der Darstellung bewegter Bilder und der einzige Grund, warum Hersteller richtung 1000+ Hz wollen und Backlight Strobing nutzen.
Und wo ist dann das Problem? Ich soll mich vor einem angeblichen Effekt sorgen, der außerhalb meines Fokus, ergo: außerhalb meiner Wahrnehmung stattfindet?
Du schaust in einem Spiel nie einem bewegenden Objekt nach? Damit wärst du glaube ich der einzige Spieler der Welt der das nicht macht.
Wenn ich eine Figur am Bildschirm verfolge, können meinen Augen ja mitgehen, ein Stück weit.
Und eben dann wird es unscharf.
Dr. Lars Sahmströhm
2026-01-28, 18:22:08
^
Also reden wir doch über den herkömmlichen Motion-Blur, den ich bereits als UFO-Test beschrieben und als "nicht maßgeblich für die Spielerfahrung" ausgemacht hatte. Ich dachte, es geht um etwas anderes.
Ich habe mein Leben lang auf 60Hz Displays gezockt. Vielleicht liegt es daran, aber ich habe wirklich Schwierigkeiten den Unterschied als derart wichtig einzustufen. Ich mache das so, dass ich z.B. in Elden Ring auf einen Felsen in der Ferne schaue und loslaufe. Dann achte ich darauf, wie stark unscharf dieser Felsabschnitt in der Ferne wird, sobald mein Charakter läuft/rennt. Und ja, ich sehe einen Unterschied zwischen 60-240Hz, das Bild bleibt schärfer, aber das ist ein derart kleiner Unterschied (auf einem OLED, der keinen Zusatz-Blur durch gtg hat) dass mich das nicht stört. Mich hat das schwarze Nachziehen von schlechteren VA Panels viel mehr gestört oder die gtg Schmierei von älteren TNs. Oder ~30ms Eingabeverzögerung. Vielleicht ist die Bewegung zu langsam, vielleicht muss ich schnell die Kamera drehen, wie du sagst, um es wirklich zu bemerken. Aber das will man ja auch nicht. Die Entwickler fügen ja oft extra einen Motion Blur auf Game-Engine-Ebene ein, um schnelle Kameraschwenks zu verblurren, weil das cineastischer und dynamischer wirken soll.
Wenn du joggst/rennst dann bleibt deine Visio ja auch nicht stabil, die Augen hüpfen mit und haben Schwierigkeiten ein Detail in der Ferne präzise zu erfassen. Du musst schon kurz anhalten und stehenbleiben, wenn du ein präzises Bild von den Rosensträuchern da hinten haben willst und nicht nur einen Rot/Grün Blur. In diesem Sinne ist ein Wenig Motion Blur nur natürlich und kongruent.
^
Also reden wir doch über den herkömmlichen Motion-Blur, den ich bereits als UFO-Test beschrieben und als "nicht maßgeblich für die Spielerfahrung" ausgemacht hatte. Ich dachte, es geht um etwas anderes.
Dann bist du eben anspruchslos, auch kein Fehler, und kann jede Menge Geld sparen.
Ich habe mein Leben lang auf 60Hz Displays gezockt.
Dann gehörst du wohl nicht zu denen die schon 100Hz am CRT erlebt haben, bevor und die Bildschirmindustrie 1 Jahrzehnt auf 60Hz festgenagelt hat.
Vielleicht liegt es daran, aber ich habe wirklich Schwierigkeiten den Unterschied als derart wichtig einzustufen. Ich mache das so, dass ich z.B. in Elden Ring auf einen Felsen in der Ferne schaue und loslaufe.
Scroll beispielsweise in Anno über die Karte und versuche ein Haus dabei mit den Augen zu folgen, dann siehst du wie unscharf das Ganze wird.
Die Entwickler fügen ja oft extra einen Motion Blur auf Game-Engine-Ebene ein, um schnelle Kameraschwenks zu verblurren, weil das cineastischer und dynamischer wirken soll.
Der Effekt den ich immer als erstes ausschalte (OK als drittes nach CA und Film Grain). Nur weil was cineastisch ist ist es lange nicht realistisch.
Es ist schon ziemlich grotesk das Spieleentwickler ausgerechnet Artefakte die Kamerahersteller mit riesigem Aufwand zu verringern versuchen absichtlich einbauen.
Wenn du joggst/rennst dann bleibt deine Visio ja auch nicht stabil, die Augen hüpfen mit und haben Schwierigkeiten ein Detail in der Ferne präzise zu erfassen.
Deine Augen können außer extrem gut die Bewegungen deines Körpers ausgleichen. Und es geht ja nicht nur um den Busch in 2km Entfernung, das betrifft ja auch alles was nahe ist. Und nicht nur wenn du dich bewegst sondern umgekehrt auch alles was sich bewegt während du stillstehst.
Übrigens der einzige Grund FG zu verwenden ist diesen Blur zu verringern, das ist das einzige was FG verbessert.
raffa
2026-01-28, 19:25:11
Normaler Motionblur ensteht, weil ein Objekt, welches vom Auge nicht verfolgt wird, eine Spur über die Netzhaut zieht.
Sample and Hold Blur ist schon anders - Es schmiert, weil das Objekt dem Tracking des Auges hinterherhängt oder vorauseilt, weil es diskret aktualisiert und dazwischen statisch angezeigt wird anstatt sich kontinuierlich zu bewegen. Egal was das Auge macht, es bleibt immer unscharf.
Bei 120Hz und Oled quasi ohne Schaltzeitenblur hat man freilich eine BQ erreicht mit der bestimmt viele zufrieden sind, gerade wenn es nicht um schnelle Shooter geht.
Platos
2026-01-28, 20:14:49
Sehe ich auch so. Die meisten guten Spiele in meinem Leben hatten 30FPS auf dem Gerät, mit dem ich es gespielt habe;)
Macht mehr Spass, als 1000FPS bei nem mitelmässigem Spiel. Aber darum ging es (mir) bei der Erklärung nicht. Es muss natürlich jeder selbst wissen, ob ihm das Wert ist. Aber mittlerweile kann man ja mit 6x DLSS recht gut auf 240FPS hochgehen. Mit DLSS 4.5 Profil M kann man sogar oft Perfomance nehmen, wenn man 4k als Ausgabeauflösung nutzt. Aber auch mit Quality hat man mit 6x DLSS 240FPS recht schnell.
Für mich persönlich ist das so das Endziel. 240FPS + BFI +VRR +OLED mit guter Subpixelanordnung. Höher gehe ich vermutlich nie und es wäre kaum ein Mehraufwand dank Framegen. Aber bei grossen Monitoren (38-42") gehts noch ne Weile, bis sowas kommt.
raffa
2026-01-28, 21:57:25
240FPS + BFI +VRR +OLED mit guter Subpixelanordnung - das klingt gut!
Meine Absicht war nicht, das Problem zu negieren, sondern vielmehr (nachdem ich es mir selbst nochmal klar machte, was da geschieht) zu bestätigen. Allerdings auch anzuerkennen, das man durchaus auch mit weniger als dem Optimum zufrieden sein kann. (War eine Antwort auf Dr. Lars Sahmströhm letzten Post)
Dr. Lars Sahmströhm
2026-01-28, 23:16:14
Dann gehörst du wohl nicht zu denen die schon 100Hz am CRT erlebt haben, bevor und die Bildschirmindustrie 1 Jahrzehnt auf 60Hz festgenagelt hat.
Ich kannte die 100Hz CRTs vom sehen, aber ich hab nie einen ü60hz besessen.
Scroll beispielsweise in Anno über die Karte und versuche ein Haus dabei mit den Augen zu folgen, dann siehst du wie unscharf das Ganze wird.
Schönes Beispiel. Ist das relevant, wie unscharf die Gebäude werden, wenn ich die Kamera bewege, in einem Spiel, wo es darum geht, mit Ruhe und Geduld vorzugehen? Ich brauche doch ohnehin ein ruhiges/stilles Bild, um eine Entscheidung treffen zu können, wo und warum ich mein Gebäude hinsetze. Der kritische Faktor von Bewegung/Motion ist ja gerade, dass sie das Gehirn fordert und ein Gehirn, das gefordert ist, ist im Stress. Daher kann ich dem "UFO-Argument" in schnellen Multiplayerspielen, wo es darum geht, wer als erstes trifft, etwas abgewinnen. Aber gerade in langsamen Games verliert es für mich weitgehend an Kraft.
Mount&Blade mit 240Hz fühlt sich an, als wäre ich auf Ectasy oder Speed. Ich rocke, zugegeben, aber ich hab auch mit 60Hz in dem Game Bestplätze abgeräumt. Dieses "auf Speed" Gefühl brauche ich aber in sehr, sehr vielen Games gar nicht, evtl. ist es dort sogar kontraproduktiv.
Übrigens der einzige Grund FG zu verwenden ist diesen Blur zu verringern, das ist das einzige was FG verbessert.
Das erzeugt aber auch Artefakte. Meist um Geländer, an Büschen etc. bei Bewegung. Es ist nicht perfekt. Die Frage ist, ob die FG-Artefakte nicht schwerer wiegen, als der Gewinn an Motion-Schärfe.
Relex
2026-01-29, 04:10:18
Was soll die Diskussion? Die Diskussion wäre die selbe wie „ich finde 1080p besser als 4K, weil das bild nicht so scharf ist und ich die pixel besser erkennen kann“.
Über was willst du argumentieren? Du wirst hier kaum jemanden davon überzeugen, dass mehr Hz und mehr FPS nicht besser sind. Und ja, auch Frame Gen ist ein gewaltiger gewinn.
Aber was bringt die Diskussion wenn du sehr geringe Ansprüche hast und versuchst es dir schön zu reden. Bleib doch einfach dabei. Ist ne Entscheidung für dich. Darüber zu diskutieren und das offensichtlich in allen belangen bessere relativeren zu wollen führt zu keinem Mehrwert.
Suchst du jetzt Bestätigung, dass jeder sagt „ja ne du, 120 Hz reicht völlig aus, mehr will hier eh niemand“, damit du ein Downgrade rechtfertigen kannst? Zu was soll die diskussion führen?
Ich kannte die 100Hz CRTs vom sehen, aber ich hab nie einen ü60hz besessen.
Mein Beileid, 60Hz-Flimmern konnte man auf dem CRT eigentlich nicht dauerhaft aushalten.
Schönes Beispiel. Ist das relevant, wie unscharf die Gebäude werden, wenn ich die Kamera bewege, in einem Spiel, wo es darum geht, mit Ruhe und Geduld vorzugehen?
Für mich ja, für dich anscheinend nein. Und beides ist OK, die Ansprüche sind eben verschieden. In Anno hat es freilich nur optische und keine spielerische Relevanz.
Das selbe passiert aber in einem Shooter, wenn ich mich dort mit der Maus umsehe, wird der Hintergrund unscharf, und da hat es durchaus auch spielerische Relevanz möglichst schnell zu erkennen wo man das Fadenkreuz als nächstes hinbewegen soll.
Das erzeugt aber auch Artefakte. Meist um Geländer, an Büschen etc. bei Bewegung. Es ist nicht perfekt. Die Frage ist, ob die FG-Artefakte nicht schwerer wiegen, als der Gewinn an Motion-Schärfe.
Das muss man im Einzelfall beurteilen. Faustregel, je mehr FPS umso eher lohnt es sich, da die Artefakte geringer werden je geringer der Abstand zwischen den Frames ist und sie umso schlechter wahrnehmbar werden je geringer die Frametime am Display ist.
Was ich damit sagen will ist aber, es ist ein Feature das aus dem einzigen Grund existiert Persistance-Basiertes Motion-Blur zu verringern. Gleiches gilt für Monitore mit Strobing.
Es kann also nicht sein dass dies niemanden interessiert, ansonsten würde es diese Features gar nicht geben. Dass es dir egal ist schön und gut, niemand will deine Meinung ändern, aber lass auch den anderen ihre Meinung wenn sie sich von Persistance-Blur gestört fühlen.
Dr. Lars Sahmströhm
2026-01-29, 12:17:59
Aber was bringt die Diskussion wenn du sehr geringe Ansprüche hast und versuchst es dir schön zu reden. Bleib doch einfach dabei. Ist ne Entscheidung für dich. Darüber zu diskutieren und das offensichtlich in allen belangen bessere relativeren zu wollen führt zu keinem Mehrwert.
Für dich vielleicht, für mich bringt die Diskussion sehr wohl einen Mehrwert. Ich bin in der Lage meine Kaufentscheidung -dank der Diskussion- besser abschätzen zu können. Dass du mir geringe Ansprüche unterstellst, mit 120Hz, finde ich lustig, dann haben die Konsolen-Spieler wohl auch alle geringe Ansprüche. Wahrscheinlich eh alles Low-FPS-Casuals in deinen professionellen Fliegenaugen. :)
edit: Die Frage, die ich mir stelle, ist nicht ob +120Hz besser sind oder nicht, sondern ob mir +120Hz (240Hz) einen Aufpreis von aktuell ca. 150 Euro wert sind. Und da es mein erster OLED ist und ich noch nicht abschätzen kann wie lange er überhaupt hält, halte ich diese Abwägung für legitim und schätze auch den Gedankenweg als für andere Nutzer interessant ein.
edit2: Ich hatte auch Monitore mit Mini-LED local Dimming im Blick, die teilweise wirklich gut bewertet werden, vergleichbar mit OLED. Leider scheint es so zu sein, dass die Hersteller ihre 32er Mini-LED-Modelle in Europa nicht verkaufen, weil sie die strengen Energierichtlinien nicht erfüllen können. Hier wird eine ganze Panel-Backlighting-Technologie für Europäer, zumindest im PC-Monitor-Bereich, aus dem Spiel genommen. Ich bin unfrei in meiner Kaufentscheidung. Bevormundet. :(
Dass du mir geringe Ansprüche unterstellst, mit 120Hz, finde ich lustig, dann haben die Konsolen-Spieler wohl auch alle geringe Ansprüche.
Warum fühlen sich alle immer gleich angepisst wenn man sagt dass sie geringe Ansprüche haben? Daran ist überhaupt nichts schlimm, es macht dich als Mensch kein bisschen weniger Wert wenn du geringe Ansprüche hast, genausowenig wie jemand mit hohen Ansprüchen ein Snob sein muss.
Beides ist vollkommen OK und kann gleichberechtigt nebeneinander existieren ohne dass man sich deshalb an die Gurgel gehen muss.
Und Konsolenspieler hatten immer schon geringe Ansprüche, wie man am Erfolg der Switch sieht sogar extrem geringe.
Platos
2026-02-01, 17:16:47
120Hz sind auch keine niedrigen Ansprüche, sondern deutlich über der Norm. 240Hz+ ist einfach noch extremere Nische als 120/144Hz.
Niedrige Ansprüche wären eher 30FPS und 60FPS ist die Norm.
aufkrawall
2026-02-01, 17:25:30
Wo ist 120fps noch deutlich über der Norm? Das ist seit zig Jahren Standard bei OLED-Fernsehern, und auch diverse Spiele haben einen 120fps-Modus auf der PS5, oder mitunter sogar Series S.
Dr. Lars Sahmströhm
2026-02-01, 17:39:49
Warum fühlen sich alle immer gleich angepisst wenn man sagt dass sie geringe Ansprüche haben? Daran ist überhaupt nichts schlimm, es macht dich als Mensch kein bisschen weniger Wert wenn du geringe Ansprüche hast, genausowenig wie jemand mit hohen Ansprüchen ein Snob sein muss.
Ohh, da macht sich jemand Sorgen um mich, ich bin gerührt. Also tatsächlich bin ich nicht angespisst, warum auch. Ich finde allerdings nicht, dass ich niedrige Ansprüche habe, im Gegenteil, ich möchte einen 32er QD-OLED, der sowohl für moderates Arbeiten, als auch für (nicht kompetetives) Gaming und Medienkonsum taugt. Der soll spiegeln, weil ich keinen "dirty screen Effekt" mag, aber nur ein wenig und nicht so sehr, dass ich mich ständig selbst darin sehe. Außerdem soll er möglichst lange halten, bzw. nicht einbrennen und sollte möglichst nicht mehr als 600 kosten. Das formuliert in der Summe einen hohen Anspruch, keinen niedrigen.
Für dieses Forderungsprofil habe ich den Dell S3225QC als besten Kandidaten ausgemacht und ich werde ihn entsprechend testen und meine Erfahrungen im Vergleich mit dem 27er, ebenfalls Gen 3, schildern. Wenn er nichts taugt, geht er wieder zurück. Ich hab mir die anderen Gens angeschaut. Die Gen 4 hat nur etwas mehr Helligkeit (HDR500 statt 400) und ist ansonsten identisch mit der dritten. Das brauche ich nicht, mir ist auch die Gen 3 schon zu hell. Erst ab Gen 5 gibt es wirkliche Änderungen in Form des RGB-V-Stripe Layers, das die Textqualität perfektionieren soll, aber ehrlich gesagt, fällt mir das Text-Fringing auf dem 110ppi Monitor schon kaum auf, ich vermute daher, dass es auf dem 140ppi gar nicht mehr zu sehen sein wird.
Am interessantesten finde ich da noch das kratzfestere Display, H2->H3, das die Gen 5 bekommen soll. Es gibt aber bisher nur einen 34er der Gen 5 zu kaufen (~1200€), ein 32er wird wohl erst im Frühling erscheinen oder gar noch später. Der wird zum Start sicher nicht weniger kosten und bis der in einem Preisrahmen ist, den ich bezahlen möchte, braucht es sicher bis Anfang 2027.
Und Konsolenspieler hatten immer schon geringe Ansprüche, wie man am Erfolg der Switch sieht sogar extrem geringe.
Die Konsolenhersteller sind an die TV-Hersteller gebunden. Da 120Hz bei TVs ein quasi seit Jahrzehnten Standart ist, da die Modelle Frame-Generierung sowohl von PAL als auch NTSC beherrschen müssen, macht es Sinn die Konsolen darauf zu optimieren. Und natürlich kostet es mehr Leistung, aber Konsolen könnten ja mittlerweile auch Frame-Generierung nutzen, um höhere FPS ausreizen zu können. Das ist allerdings nicht mein Thema.
edit:
Nachtrag zum Thema FPS:
Das Spielerlebnis wird durch Mikroruckler, Nachladeruckler und Internet-Lags mAn nach negativer beeinflusst, wie ich beim spielen von POE2 gestern wieder bemerkt habe. Wenn die Frametimes stimmen und die 119 anliegen, wie ein Brett, dann spielt sich das auch fantastisch. Es ist die "sloggyness", die durch die langsame Reaktionszeiten eines LCD bei FPS unter 60 entstehen, die sich schwerer auswirkt. Die ist komplett weg auf einem OLED. Man kann so auch mit 48FPS spielen für kurze Passagen, auch in einem Game wo es auf Reaktion ankommt, wie POE2 oder Elden Ring und ja, das meine ich vollkommen ernst.
Sardaukar.nsn
2026-02-02, 15:19:32
LG steigt aus: Nächster Hersteller zieht 8K-Fernsehern den Stecker (https://winfuture.de/news,156551.html)
Mit LG hat auch der letzte verbleibende Anbieter neben Samsung jetzt die Arbeit an Fernsehern mit 8K-Auflösung eingestellt. Die meist großen und ex*trem hochauflösenden TV-Geräte verschwinden somit vorerst vom Markt.
War das abzusehen?
Relex
2026-02-02, 16:15:43
Tja, wundert mich nicht. Solange man einen 8K TV nicht als Monitor nutzt wird kaum jemand den Unterschied aus Couch distanz sehen. Vom nötigen Content dafür ganz zu schweigen.
Das Thema wird imho erst wieder interessant, wenn 120-150 Zoll TVs Verbreitung finden, so dass aus gleicher Sitzdistanz ein viel größeres Field of View vom TV gefüllt wird.
Das seh ich dann aber als absolutes Endgame.
Cubitus
2026-02-02, 17:28:19
Das Thema wird imho erst wieder interessant, wenn 120-150 Zoll TVs Verbreitung finden, so dass aus gleicher Sitzdistanz ein viel größeres Field of View vom TV gefüllt wird.
Das seh ich dann aber als absolutes Endgame.
Viele Menschen entscheiden sich auch bewusst für kleinere TVs weil es der Wohnraum auch einfach nicht hergibt.
SamLombardo
2026-02-02, 18:50:05
Viele Menschen entscheiden sich auch bewusst für kleinere TVs weil es der Wohnraum auch einfach nicht hergibt.
Bei mir gibt es der Wohnraum her...aber nicht das Treppenhaus:freak:. brauche modulare Bauweise:wink:.
GelbeSeite
2026-02-02, 18:55:07
Tja, wundert mich nicht. Solange man einen 8K TV nicht als Monitor nutzt wird kaum jemand den Unterschied aus Couch distanz sehen. Vom nötigen Content dafür ganz zu schweigen.
Mit den totkomprimierten Streamingdiensten wird nicht mal 4K wirklich ausgereizt. Bei der üblichen Sofadistanz reicht 4K wirklich vollkommen. Da sind andere Sachen wie HDR und FPS wichtiger.
Relex
2026-02-02, 19:38:06
Viele Menschen entscheiden sich auch bewusst für kleinere TVs weil es der Wohnraum auch einfach nicht hergibt.
Das halte ich für maßlose übertreibung. Klar, wenn man ne gigantische Schrankwand stehen hat, die nur ne Aussparung für nen 65 Zöller bietet mag man so denken.
Aber selbst in meinem Kinderzimmer im Elternhaus hätte ich LOCKER ein 150 Zoll Display untergebracht. Das sind gerade mal etwas mehr als 3,3 Meter breite oder zwei ziemlich kleine Menschen übereinander. Höhe ist mit 1,86 Meter auch kein Problem.
Wer in seiner Wohnung so wenig platz hat, lebt doch in ner Abstellkammer. Come on...
Ich finde ja immer die Fotos in Social Media witzig. Da kaufen sich Leute nen "gigantischen" 70 oder 80 Zoll TV, hängen ihn an ne komplett leere Wand und das Teil sieht dort komplett verloren aus, weil die Wand einfach 4-5x so viel fläche bietet wie der TV. Also ja für heutige Maßstäbe mag das groß sein, aber da sind wir noch sehr lange nicht am Limit.
Was tatsächlich schwieriger wird sind Transport und Aufstellung. Ohne Spedition und 2-3 Mann zum aufstellen wird das dann halt nichts mehr. Aber da seh ich jetzt auch kein Problem.
Passend dazu:
qBd7_uxrq6c
^ das ist doch ne angenehme größe oder nicht? Ist halt ganz normales Leinwand Maß
Und ja, das passt hier in den Thread. Das Teil hat nämlich keinen TV Anschluss und ist somit ein reines Display. Wer nen sehr tiefen Schreibtisch hat kann den auch als Monitor nutzen :D
dargo
2026-02-02, 20:41:26
Passend dazu:
https://youtu.be/qBd7_uxrq6c
^ das ist doch ne angenehme größe oder nicht? Ist halt ganz normales Leinwand Maß
Nur wenn der Pimmel zu klein geraten ist.
SamLombardo
2026-02-02, 20:43:16
Nur wenn der Pimmel zu klein geraten ist.
Nö. Ein Traum, auch mit großem Pimmel.
dargo
2026-02-02, 20:45:20
Viele Menschen entscheiden sich auch bewusst für kleinere TVs weil es der Wohnraum auch einfach nicht hergibt.
Es geht ja nicht mal um den Platz an der Wand. Ich entscheide mich bsw. bewusst nicht für diese big Dinger weil ich sowas im Wohnraum einfach nur hässlich finde wenn der TV die Wand dominiert, separater Raum als Kino ist natürlich dann was anderes. Aktuell hängt hier immer noch der alte 46" Plasma an der Wand und wenn ich irgendwann auf einen OLED im WZ Lust habe dann gehe ich mit hoher Wahrscheinlichkeit nicht über 55" (Ränder an aktuellen TVs sind auch deutlich schmaler), bei >4m Sitzabstand wohlgemerkt.
Es geht ja nicht mal um den Platz an der Wand. Ich entscheide mich bsw. bewusst nicht für diese big Dinger weil ich sowas im Wohnraum einfach nur hässlich finde wenn der TV die Wand dominiert,
Also ich hätte gerne, falls es bezahlbar wäre die gesamte Wand als Screen
Dr. Lars Sahmströhm
2026-02-03, 02:39:33
Kurzes Update zum 32er Dell S3225QC vs 27er MSI MAG-272QPW-X28
Vielleicht hat mit dem MSI etwas nicht ganz gestimmt, aber die an frühen TN-Generationen erinnernde und beschriebene ständige Helligkeitsregulierung z.B. hier im 3DC-Browserfenster ist bei dem Dell nicht annähernd so ausgeprägt. Der MSI produzierte immer wieder etwas hellere Spots, die sich kurz darauf wieder anglichen. Vor allem beim scrollen fiel dieses ständige Übersteuern auf. Das macht der Dell überhaupt nicht. Das Bild wirkt deutlich gleichmäßiger und ruhiger. Fast so ruhig wie ich es von meinem VA-TV gewohnt bin.
Bildqualität ist erwartungsgemäß fantastisch, benötigt aber mehr Einstellung und hat von Hause aus schwächere Sättigung, leichtes Absaufen der Schwarzdetails (kann man anheben) und einen leichten Gelbstich. Nach einem Boost und Korrektur des Gelbstichs ist es hervorragend. Dennoch habe ich das Gefühl, dass der MSI in Sachen Farbtreue hauchzart vorne lag, aber es kann ein psychologischer Effekt sein. Der MSI wurde auch ein klein wenig heller, auch wegen dem EOTF-Boost feature, das dem Dell fehlt. Für mich kein Nachteil. Text-Fringing sehe ich nicht, aber ich muss die Schärfe des Panels auf 20 reduzieren, damit längeres lesen erträglich ist. Ich sehe hier leider keinen großen Vorteil der +30ppi, dafür aber durchaus in der Feinzeichung von HDR-Videos. Kurzer Gametest mit POE2 verlief einwandfrei. Die 120Hz mit den kurzen Schaltzeiten ergeben flüssiges Gameplay, aber es geht doch etwas Übersicht flöten und in dem Spiel ist Übersicht=Kontrolle. Ich muss ihn ca. 10cm weiter von mir weg schieben, was den größeren Display ein kleines Stück weit egalisiert. Leider hat der Dell, von Pixel-Refresh abgesehen, scheinbar keinerlei OLED-Care-Features, wie ich sie von MSI kenne. Kein Pixel-Shift, kein Logodimming, kein Fullscreen-Dimming. Dafür besitzt er eine aktive Panelkühlung, die mit einem 1,25W Radiator realisiert wird, der von hinten gegen die Graphenverkleidung bläst. Manche hören ihn (ich nicht), daher wurde er mit der aktuellen Firmware leiser gestellt. Die Betriebs-LED ist abschaltbar, allerdings nur im Betrieb, während sie im Standby langsam blinkt, so als würde er Pixel Refresh machen, macht er aber nicht, die blinkt immer, das ist doof. Das Menü insgesamt eine Schulnote schlechter als bei MSI, der Bedienstick für mein Empfinden rechts direkt an der Maushand aber besser platziert als mittig hinterm Logo. Die Verlängerung nach unten beim Dell (die Soundbar) ist auch super, weil man keine Angst haben muss beim bedienen abzurutschen und seinen fettigen Daumen mittig auf das empfindliche Panel zu schmieren. Bei MSI eine reale Gefahr. Furchtbar ist beim MSI das Aufwachen aus dem Standby, da brauchte er 6-8 Sekunden (DP), der Dell geht meist sofort an wenn die Maus bewegt wird und braucht manchmal eine gute Sekunde Bedenkzeit (HDMI). Erwähnenswert ist noch die mAn etwas bessere Glare-Folie von Dell, die tatsächlich den Schwarzwert bei Restlicht besser im Griff hat, fast WOLED Niveau. Erstaunlich, da sie damit nicht mal werben. Zart violett werden spiegelnde Lichtquellen dennoch.
Das Wichtigste ist aber ein Feature, das ich so nicht erwartet hätte. Ich habe besseren Sound. Nein, nicht aus dem Monitor, dessen 5x5W Lautsprecher habe ich natürlich deaktiviert, ebenso wie das zugehörige 3D-Headtracking, was einen in Form von zwei rotleuchtenden IR-Sonden nervt. Es ist der Monitor selbst, der besseren Sound macht! Es ist die rückseitig geschlossen-glatt-konvexe Form, es ist die schmale, runde Aufhängung mit Ständer und ich glaube, es ist auch das recht weiche Plastik selbst, welches eine extrem feine Textur besitzt (fühlt sich an wie Sandpapier), die sich günstig bzw. schallschluckend auswirkt, was man vor allem in höheren Frequenzen (mehr Feindetails) hört. Es ist wirklich erstaunlich, fast wie ein Verstärker-Upgrade. Ich hätte nie gedacht, dass der Bildschirm so einen großen Einfluss hat, aber es ist eigentlich logisch. Der Schall aus den Boxen rechts und links davn entsteht als Sphäre und knallt als erstes gegen Wand, Tisch und Monitor. Der Monitor ist zwar die kleinste dieser Flächen, aber er macht offenbar genug aus, um einen hörbaren Einfluss zu haben. Das motiviert mich direkt auch mal die Wand dahinter anzugehen. :)
edit:
Mir ist aufgefallen, dass sowohl der MSI als auch der Dell links oben in der Monitorrand-Ecke im Panel, aber deutlich außerhalb des Bildes in dem nicht-anzeigenden schwarzen Panel-Rahmen einen schwach rot-leuchtenden Pixel(fehler) haben. Dass es beide von zwei unterschiedlichen Herstellern an ca. derselben Stelle haben, ist komisch. Findet das jemand bei seinem QD-Panel auch?
edit2:
Dell macht den erzwungenen Pixel-Refresh (wenn put in Standby) nach 12Std. MSI nach 24Std.. Beide nerven nicht mit Warn-Einblendungen hierzu. Dell gefühlt 1-2min schneller fertig.
robbitop
2026-02-03, 07:50:56
Zur veränderneen Helligkeit. Das klingt nach ABL. Hattest du in Windows den hdr1xxx Mode vom Monitor an? Der ist für content mit hdr highlights gemacht. Wenn da große helle Flächen in Windows sind dann greift die ABL ein. Damit man nicht immer am Monitor rumfummeln muss ist folgendes eine gute Variante:
In Windows SDR fahren und die Helligkeit im Monitor für SDR nach gusto einstellen - das wird im SDR Profil des Monitors abgelegt. In Spielen/HDR Filmen dann HDR fahren und im HDR Profil alles hoch reissen. Mit win+alt+B kann man in Windows kurz vor und nach dem Spielen umschalten.
Dann rennt alles so wie es soll. :)
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.