PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 [67] 68 69 70 71 72

robbitop
2023-10-31, 11:30:20
Mehr Platz vor dem Monitor 😜. Für Mauspad, Notizen/Dokumente

Monitorarm und zack ist der Platz von Schreibtisch komplett frei. ;) Frage mich wie man noch mit normalem Standfuß leben kann.

medi
2023-10-31, 12:12:36
Monitorarm und zack ist der Platz von Schreibtisch komplett frei. ;) Frage mich wie man noch mit normalem Standfuß leben kann.
Ich frag mich auch schon seit geraumer Zeit warum Monitore oder Fernseher überhaupt noch mit Standfüßen ausgeliefert werden - die landen bei mir immer direkt im Schrank oder unterm Bett ;D

Tobalt
2023-10-31, 12:15:46
Muss ich mir mal überlegen. es ist nicht wirklich eine Wand oder Tischkante in der Nähe. Und was ich früher mal hatte fand ich irgendwie zu wackelig.

Tesseract
2023-10-31, 12:21:28
Ich frag mich auch schon seit geraumer Zeit warum Monitore oder Fernseher überhaupt noch mit Standfüßen ausgeliefert werden

gibt z.B. von gigabyte seit jahren serien die man alternativ auch mit arm statt fuß out of the box bekommt.

exzentrik
2023-11-01, 12:32:45
MSI bringt nächstes Jahr neue Displays mit 4K240, WQHD360 bzw. UWQHD144 und neuester QD-OLED-Generation. Letztere wird wohl ohne Lüfter auskommen (https://www.prad.de/neue-qd-oled-monitore-von-msi-kommen-luefterlos/).

Edit: Und der neue Samsung Odyssey Ark (https://www.prad.de/samsung-odyssey-ark-preis-und-termin-zur-neuauflage/) (VA, 4K165, Mini-LED, HDR10+ Gaming, FreeSync Premium Pro, One Connect Box, Tizen) erscheint wohl bald für 3.459 Euro.

Nightspider
2023-11-01, 14:09:00
Ich warte noch immer auf gamingtaugliche 5120x2160 Screens mit ~40", ka warum es hier nix gibt oder kommt...

Ich denke und hoffe das da nächstes Jahr etwas kommt oder wengistens angekündigt wird.

Von Samsung und Alienware gabs in der ersten QD-OLED Generation auch 21:9 Monitore als erstes auf dem Markt und sie haben sich gut verkauft, denke ich.
Bin mit dem Alienware 21:9 QD-OLED echt zufrieden mit dem Bildverhältnis und der Größe.

Wenn es jetzt noch 5 Zoll mehr werden und 4K Pixeldichte, dann bin ich komplett glücklich.


Das Gute ist ja das gerade 3+ OLED Hersteller auf den Monitormarkt drängen und die Konkurrenz zwangsläufig zu einer breiten Auswahl führen wird.

Troyan
2023-11-01, 14:23:36
Edit: Und der neue Samsung Odyssey Ark (https://www.prad.de/samsung-odyssey-ark-preis-und-termin-zur-neuauflage/) (VA, 4K165, Mini-LED, HDR10+ Gaming, FreeSync Premium Pro, One Connect Box, Tizen) erscheint wohl bald für 3.459 Euro.

Frage mich, wieso man das kaufen sollte, wenn 55" Fernseher von Samsung deutlich günstiger sind?!

ChaosTM
2023-11-01, 14:31:13
Einfach irgendeinen 42er OLED Monitor/TV kaufen.

Mehr geht momentan nicht..

exzentrik
2023-11-01, 14:41:18
Frage mich, wieso man das kaufen sollte, wenn 55" Fernseher von Samsung deutlich günstiger sind?!

Für Ergonomie-Funktionen, DisplayPort, KVM-Switch, USB-C-Dockingstation und 165 statt 120/144 Hz. Und für bessere Reaktions- und Latenzzeiten, wobei die TVs da afaik mittlerweile auch ziemlich auf Augenhöhe sind. Aber ja, der Aufpreis dafür ist schon echt jenseits von Gut und Böse.

PHuV
2023-11-01, 16:52:39
Edit: Und der neue Samsung Odyssey Ark (https://www.prad.de/samsung-odyssey-ark-preis-und-termin-zur-neuauflage/) (VA, 4K165, Mini-LED, HDR10+ Gaming, FreeSync Premium Pro, One Connect Box, Tizen) erscheint wohl bald für 3.459 Euro.
Da war der Dell 6k ja vergleichsweise "günstig". :freak:

Gast
2023-11-01, 17:05:09
Frage mich, wieso man das kaufen sollte, wenn 55" Fernseher von Samsung deutlich günstiger sind?!

Die 55" Fernseher von Samsung gibt es mit 1000R Krümmung?

Ein solches riesen Teil mit einem geraden Panel zu verwenden ist ja schon fast unmöglich.

Troyan
2023-11-01, 19:09:49
Nein, aber ich würde auch nicht 30cm vor einem gekrümmten 55" Monitor sitzen wollen...

Gast
2023-11-01, 19:14:13
Nein, aber ich würde auch nicht 30cm vor einem gekrümmten 55" Monitor sitzen wollen...

Aber 50cm wären durchaus angebracht.

Troyan
2023-11-02, 11:18:15
Auch 50cm sind wohl eher 450cm zu wenig.^^

Ich habe schon massive Probleme mit 30cm oder so Abstand zum Bildschirm. Die Wege mit der Maus und 100% 4K Skalierung sind riesig.

Kein Plan, was einem dann 55" als PC Monitor bringen sollen.

Gast
2023-11-02, 11:30:37
Auch 50cm sind wohl eher 450cm zu wenig.^^


Warum soll ich mir einen 55" Monitor kaufen nur um dann so weit weg zu sitzen dass er aussieht wie ein 15"er?


Ich habe schon massive Probleme mit 30cm oder so Abstand zum Bildschirm. Die Wege mit der Maus und 100% 4K Skalierung sind riesig.


Es gibt Mäuse mit 5-Stelligen Auflösungen, das sollte nun wirklich kein Problem sein.


Kein Plan, was einem dann 55" als PC Monitor bringen sollen.

Immersion.

00-Schneider
2023-11-03, 20:30:32
puwJBwR-Guw

horn 12
2023-11-04, 08:12:09
Dies in 21:9 und auf 38 Zoll bis Max. 42 Zoll
und die Welt wäre komplett in Ordnung:

https://www.lg.com/de/lifestyle-tvs/oled-evo-flex/42lx3q6la/?utm_source=mydealz&utm_medium=referral&utm_campaign=Q1-Q42023&utm_content=crossBU


Laut LG Homepage für 1599 Euro derzeit zu kaufen!

Sardaukar.nsn
2023-11-04, 08:17:03
Dies in 21:9 und auf 38 Zoll bis Max. 42 Zoll
und die Welt wäre komplett in Ordnung:

https://www.lg.com/de/lifestyle-tvs/oled-evo-flex/42lx3q6la/?utm_source=mydealz&utm_medium=referral&utm_campaign=Q1-Q42023&utm_content=crossBU

Hätte ich nicht schon den flachen 42"er würde ich wohl hier zuschlagen: https://www.mydealz.de/deals/lgcom-lg-42lx3q6la-42-oled-evo-flex-smart-gaming-tv-4k-120hz-curved-2256140

exzentrik
2023-11-06, 11:35:16
Ergänzend zum HDTVTest-Video oben: Weiterer Test zum ASUS ROG Swift PG49WCD (https://www.prad.de/zweite-qd-oled-gen-zeigt-besseres-schriftbild-video/) mit zweiter, also neuester QD-OLED-Gen. Das Schriftbild soll tatsächlich deutlich besser geworden sein.

Edit: AOC bringt ein 4K160-Display mit Mini-LED (https://www.prad.de/aoc-4k160-display-mit-mini-led-und-displayhdr-1000/) (nur 576 Zonen allerdings), Quantum-Dots, DisplayHDR 1000, FreeSync, 1 ms G2G und HDMI 2.1.

exzentrik
2023-11-23, 12:01:05
Neuer RedMagic-Monitor soll 5088 Mini-LED-Zonen haben. (https://www.prad.de/redmagic-bringt-4k160-display-mit-5088-mini-led-zonen/) Dazu gibt's 4K160, DisplayHDR 1400, 2200 cd/m² und Adaptive Sync.

Gouvernator
2023-12-08, 22:30:56
Habe heute bei Alternate ausführlich Monitore getestet. Auch an Kontrast im NV CP gedreht. Alles Mist. Die gekrümmten OLEDs, Samsung G7... Weiter 15m waren Samsung TVs von 2023, 55" 1500€ 4k120 - die haben was Kontrast, Farbe, Helligkeit angeht mit PC Monitoren den Boden gewischt. Der King war natürlich aktueller 8K 75" für 5000€. War auch nicht mal handwarm. Wenn da noch 120Hz in 8K drin wären, das wäre definitiv ein Kaufkandidat.

Fun Fakt. Der Xiaomi Pad 5 für 300€ hatte nach dem 8K den besten Look.

Ex3cut3r
2023-12-09, 11:47:30
Übersättigte Farben sind wohl dein Ding?

Obwohl die ganzen Monitore seit einigen Jahren sowieso schon total übersättigt sind, weil der Farbraum nun 125-150% sRGB hat. KA, wieso man dann noch meint am Kontrast via NV CP herumzuspielen zu müssen. Aber gut.

In der Realität rennst du wohl auch mit einer Brille auf der Nase rum, die alle Farben out of the box schön übersättigt? :biggrin:

robbitop
2023-12-09, 12:27:42
Die Farbraumabdeckung hat doch mit Übersättigung nichts zu tun. Das ist eher das Spektrum an Farbe die er korrekt anzeigen kann. Je größer der Farbraum desto akkurater kann man potenziell (sofern kalibriert) ein breites Spektrum an Farben korrekt und bandingfrei anzeigen.

Gouvernator
2023-12-09, 13:59:39
Am meisten war ich enttäuscht von Corsair XENEON Flex 45WQHD240. Die Schrift und Pixeldichte waren grenzwertig unscharf. Das war fast schon Plasma TV Territorium wie vor 10 Jahren. Den hat für mich nicht mal 800R Radius mit 240Hz gerettet. Aber für die Zukunft habe ich mir sowas vorgemerkt, 8K kann es richten.

Apropos 8K. https://www.areadvd.de/tests/xxl-test-samsung-8k-neo-qled-smart-tv-qn900c-in-75-zoll-meisterwerk-mit-feinster-detailwiedergabe/
Das war der im Store. Hätte er doch bloß die "144Hz" in 8K... Trotzdem die 65" Version für 3000€ ist ein Traum. Nur ein Depp würde sich den curved OLED für 2400€ kaufen.

Übrigens 8K ist 8K, mich juckt der neue Samsung eigentlich gar nicht. Weil die Bildqualität an sich, kommt von dem Bild selber bzw. von der Grafikkarte. Da kann der Fernseher noch so alt\neu sein - wir haben es noch nie wirklich ausgefahren. Es ist halt nur gutes Gefühl das, auf dem Dachboden noch so eine Glotze steht. Die bei Bedarf wenn es endlich Content dafür gibt, hervorgeholt werden kann. ;D

Gast
2023-12-09, 14:03:19
Die Farbraumabdeckung hat doch mit Übersättigung nichts zu tun.


Ein großer Farbraum führt ohne Farbmanagement zwangsläufig zur Übersättigung

robbitop
2023-12-09, 14:37:36
Ein großer Farbraum führt ohne Farbmanagement zwangsläufig zur Übersättigung

Oh okay wieder was dazu gelernt :up:
Und warum ist das so?

Relex
2023-12-09, 14:48:10
Die Farbraumabdeckung hat doch mit Übersättigung nichts zu tun. Das ist eher das Spektrum an Farbe die er korrekt anzeigen kann. Je größer der Farbraum desto akkurater kann man potenziell (sofern kalibriert) ein breites Spektrum an Farben korrekt und bandingfrei anzeigen.

Die meisten Monitore haben mittlerweile einen erweiterten Farbraum. Dieser wird bereits in sämtlichen Standardmodi in SDR bzw. sRGB genutzt.
Bekommt der Monitor ein normales 8 Bit sRGB Signal, werden die Farben auf den Gesamten Farbraum aufgebläht. Ein Vollrot wird dann eben mit der maximal möglichen Sättigung die das Panel kann dargestellt und damit wird alles übersättigt.

Man muss idr. explizit den SRGB Modus am Monitor einstellen, damit der erweiterte Frabraum nicht schon für normale sRGB Inhalte genutzt wird.
Da im sRGB Modus meistens die Einstellmöglichkeiten stark beschränkt sind, muss man hoffen, dass dieser Modus ordentlich kalibriert ist.

Bei Meinem Monitor kann ich im sRGB Modus (der glücklicherweise ganz ordentlich kalibriert ist) nichtmal die helligkeit einstellen. Die ist viel zu hoch eingestellt.
Zum Glück gabs für mein Modell einen Hack bei dem man das im Monitor hinterlegte sRGB Profil auch auf die anderen Bildmodi anwenden kann.
Wäre das nicht möglich gewesen, wär das Teil direkt zurück gegeangen.


Ich weiß nicht, ob sich die Situation da mittlerweile gebessert hat. Aber ein sRGB modus, der verhindert, dass das volle Farbspektrum des Panels genutzt wird wäre für mich eines der mit abstand wichtigsten Kriterien beim Kauf eines Monitors.

Am besten wärs eben wie bei TVs, wo erkannt wird, welcher Farbraum genutzt wird und es einfach korrekt dargestellt wird.

Grundsätzlich brauche ich keine perfekte Kalibrierung. Ob irgend in Farbwert einen leicht anderen Ton hat ist mir generell komplett egal. Allerdings sollte es schon soweit passen, dass der genutzte Farbraum mit der korrekten Sättigung und korrektem Gamma dargestellt wird.


Grundsätzlich ist es jetzt kein Weltuntergang, wenn sRGB Inhalte mit erweitertem Farbraum und höherer Sättigung dargestellt werden. Manchen Leuten gefällt das sogar. Rein technisch gesehen geht es klar, weil zumindest kein Clipping stattfindet, und die Farbauflösung erhalten bleibt. Aber der Bildeindruck weicht halt so weit vom soll ab, dass ich das einfach nicht ab kann.

Ex3cut3r
2023-12-09, 16:11:51
Die Farbraumabdeckung hat doch mit Übersättigung nichts zu tun. Das ist eher das Spektrum an Farbe die er korrekt anzeigen kann. Je größer der Farbraum desto akkurater kann man potenziell (sofern kalibriert) ein breites Spektrum an Farben korrekt und bandingfrei anzeigen.

Natürlich doch. Die musst heut zu Tage explizit den sRGB Modus am Monitor auswählen, damit du keine übersättigen Farben hast.

Hat dein Monitor keinen sRGB Modus, oder einen sehr schlechten, hast du Pech gehabt und musst dir einen Colorimeter kaufen.


EDIT: Die Antwort von Relex ist noch besser bzw. ausführlicher.

Tesseract
2023-12-09, 16:23:33
dass der farbraum bei monitoren nicht wie bei TVs automatisch über metadaten geht ist in der tat kompletter irrsinn. heute ist es völlig normal dass ein großteil der user einfach völlig falsche farben fährt und die wenigsten scheint es zu interessieren. viele wide gamut monitore haben nicht mal einen ordentlichen sRGB modus. völliges chaos.

robbitop
2023-12-09, 16:36:53
Natürlich doch. Die musst heut zu Tage explizit den sRGB Modus am Monitor auswählen, damit du keine übersättigen Farben hast.

Hat dein Monitor keinen sRGB Modus, oder einen sehr schlechten, hast du Pech gehabt und musst dir einen Colorimeter kaufen.


EDIT: Die Antwort von Relex ist noch besser bzw. ausführlicher.
Lies doch bitte erst alle Posts bevor du schreibst- das hat sich doch schon lange geklärt und ich habe das bereits quittiert. ;)

Ex3cut3r
2023-12-09, 16:44:41
Kann man am Handy schnell mal übersehen. Sry.

Slipknot79
2023-12-09, 17:08:24
dass der farbraum bei monitoren nicht wie bei TVs automatisch über metadaten geht ist in der tat kompletter irrsinn. heute ist es völlig normal dass ein großteil der user einfach völlig falsche farben fährt und die wenigsten scheint es zu interessieren. viele wide gamut monitore haben nicht mal einen ordentlichen sRGB modus. völliges chaos.


Als ich meinen aktuellen Monitor anwarf, dachte ich auch zuerst "qoole Farben". Dann habe ich in nem anderen Phorum gelesen, dass das ein Shice ist und sRGB am Monitor einzustellen ist. Dann habe ich das getan und dachte mir "was für ein langweiliger Shice, wirkt blas, nicht mal das 3dc Orange can was", hab dem trotzdem eine Chance gegeben und entschieden, dass es bei sRGB bleiben wird.
sRGB wirkt einfach natürlicher und unaufgeregter, als der übersättigte Fake. (y)

Gast
2023-12-09, 17:29:20
Je größer der Farbraum desto akkurater kann man potenziell (sofern kalibriert) ein breites Spektrum an Farben korrekt und bandingfrei anzeigen.


Genau das Gegenteil. Je größer der Farbraum desto mehr Banding gibt es bei gleichbleibender Farbtiefe. Erst mit einer höheren Farbtiefe kann das Banding reduziert werden.

The_Invisible
2023-12-09, 18:07:53
Seit wann interessiert irgendwem wie so ein anzeigegerät eingestellt/kalibriert ist? Jedesmal wenn ich in ein random Wohnzimmer gehe sehe ich als erster den völlig überhellten und bonbonlook eingestellten TV und die Leute dort sind auch noch stolz drauf...

Gynoug MD
2023-12-09, 19:39:05
Seit wann interessiert irgendwem wie so ein anzeigegerät eingestellt/kalibriert ist? Jedesmal wenn ich in ein random Wohnzimmer gehe sehe ich als erster den völlig überhellten und bonbonlook eingestellten TV und die Leute dort sind auch noch stolz drauf...
Bei dem drölfzichtausend Nits- und HDR-Hype kann man sich schon mal die Kaufhauseinstellung aus den Presets dazu gönnen.
Gedämpftes, augenfreundliches Heimkino-Bild ist out.
:usad:

Gast
2023-12-09, 20:35:11
Gedämpftes, augenfreundliches Heimkino-Bild ist out.
:usad:

Gedämpft und augenfreundlich ist genauso falsch wie Bonbon-Optik.

TheCounter
2023-12-10, 09:41:27
Da ich bald wieder ein Büro für den PC habe, überlege ich gerade, was ich als Monitor nehme. Aktuell nutze ich ja den LG OLED CX 77" und da bin ich natürlich sehr verwöhnt.

Nun ist die Frage, ob lieber einen dedizierten OLED Monitor oder nochmal einen kleineren LG OLED (LG OLED42C3 evo). Was meint ihr? Ist der 42" zu groß, wenn ich direkt am Schreibtisch davor sitze?

Dennis50300
2023-12-10, 09:51:32
Von wegen 60Hz sind zu wenig, also ob die Kristalle.... xD

Das mit den 1920x1080 ist an sich auch nur halb so Wild, man kann immernoch "richtiges Downsampling" mit einer Benutzerdefinierten Auflösung bei NV reindrehen.
Dann bekäme ein 1920x1080er Monitor entsprechend seiner ausreichenden PPI meinetwegen 2560x1440 und nein ich meine nicht den DSR-Schrott.

Das funktioniert bei AMD ja seit eh und je und nenn sich "Virtual Super Resolution"
Wenn ich will, dann schalt ich mir das mit einem "AOC G2590VXQ" auch einfach ein und hab anstelle 1920x1080 dann entsprechend dem Seitenverhältnis mehr Auflösung drauf.

Und bevor jemand auf die Idee kommt, nein das sieht nicht irgendwie schlecht oder falsch aus, weil man das von der Grafikkarte machen lässt, "GPU-Skalierung bei AMD" und bei Nvidia stellt man von Anzeige auf GPU um.
Siehe auch Screenshots :wink:

Den Werbequatsch können die Hersteller allesamt gerne behalten, was sinnfreierweise oft schon 75 vs 60fps durch ein FPS-Limit an Mehrleistung kosten, für nix und wieder nix, da kann man gut und gerne drauf verzichten.
SOTTR läuft hier mit deutlich unterhalb von 100 Watt an der Grafikkarte (RTX 2070 Super) und nicht mit mindestens um die 120~130
Muss man sich mal reintun den Unterschied, bis zu absolut Volllast ohne Sinn und Verstand ist es dann auch nicht mehr weit, 180 kann se maximum ziehen und von gewissen Situationen wo es dann ohnehin mehr Last verursacht wollen wir garnicht sprechen.
Wenn es nach 3000er Serie sowie 4000er Serie geht und dem ganzen völlig falschen Effizienz-Blafahsel, zieht ne Graka ja mindestens das dreifache aus der Buchse und zwischendurch das vier- bis -fünffache oder auch gerne noch mehr...;D

Und dabei muss man sich mal vor Augen halten, dann läuft da OBS Studio mit dran, mit 2 NVEnc Instanzen, Stream + Record.
Wenn das aus ist, sind wir runter auf um die 60 Watt an der Graka

Gruss

RavenTS
2023-12-10, 10:24:02
...
Das funktioniert bei AMD ja seit eh und je und nenn sich "Virtual Super Resolution"
Wenn ich will, dann schalt ich mir das mit einem "AOC G2590VXQ" auch einfach ein und hab anstelle 1920x1080 dann entsprechend dem Seitenverhältnis mehr Auflösung drauf.
...

Wenn man es denn zur Auswahl hat! Bei mir sehe ich diese Einstellung seit einiger Zeit nicht mehr?!
Dachte es liegt am Monitor (LG38GN950 mit 3840x1600) aber ggf. doch ein Treiber ohne dieses Feature im Einsatz (23.3.2) trotz 6750XT?

Relex
2023-12-10, 14:59:48
Von wegen 60Hz sind zu wenig, also ob die Kristalle.... xD

Das mit den 1920x1080 ist an sich auch nur halb so Wild, man kann immernoch "richtiges Downsampling" mit einer Benutzerdefinierten Auflösung bei NV reindrehen.



Musste gerade echt aufs Datum schauen. 2010 will seinen Kommentar zurück. ;D

Ich hatte bis 2020 auch noch 1080p mit 60 Hz. Und natürlich war der Monitor auf 75 Hz übertaktet. Downsampling war mir auch nicht fremd.
Dachte mir auch immer, 60 FPS reicht doch locker. Ist immerhin das doppelte der Konsolen. Man muss es ja nicht gleich übertreiben. Und 1080p ist völlig ausreichend... Ist immerhin "FULL" HD und damit viel mehr, als im FreeTV angeboten wird.


Wenn ich das jetzt mit meinem 120 Hz OLED vergleiche. Oh junge. 4K, 120 Hz, VRR, OLED, HDR. Jedes einzelne dieser Features wäre alleine schon einen Wechsel wert.

Aber hey, kannst dich zumindest drauf freuen, dass ein Upgrade dir in Zukunft nochmal richtig die Kinnlade auf den Tisch knallen lassen wird. Bis dahin biste halt mit dem zufrieden, was du hast. War ich bis dato ja auch. :wink:

Thunder99
2023-12-10, 19:00:13
MSI bringt nächstes Jahr neue Displays mit 4K240, WQHD360 bzw. UWQHD144 und neuester QD-OLED-Generation. Letztere wird wohl ohne Lüfter auskommen (https://www.prad.de/neue-qd-oled-monitore-von-msi-kommen-luefterlos/).

Edit: Und der neue Samsung Odyssey Ark (https://www.prad.de/samsung-odyssey-ark-preis-und-termin-zur-neuauflage/) (VA, 4K165, Mini-LED, HDR10+ Gaming, FreeSync Premium Pro, One Connect Box, Tizen) erscheint wohl bald für 3.459 Euro.

So lange wollte ich dann doch nicht mehr warten da ich für den jetzt gekauften 34" G8 OLED nur wenig gezahlt habe.

Schade ist, keine offizielle G-Sync Zertifizierung aber im Treiber konnte ich es normal auswählen. Ist schon sehr breit aber passt gut auf meinem Schreibtisch. Freue mich auf den Urlaub um dann ausgiebig ihn mit Spielen zu testen :D

Gibt wohl kein Treiber/INF für den Monitor?
Welche Einstellungen sollte man vornehmen damit man die volle Gaming Möglichkeit hat (VRR, etc).

IPS zu OLED ist schon mega geil ;D. Selbst im SDR Content.

Tobalt
2023-12-10, 19:09:43
Ich glaube mit irgendwelchen inf files habe ich das letzte Mal vor 20 Jahren hantiert. Muss das heute auch noch?

Dennis50300
2023-12-11, 05:13:06
@Relex:

Solange das soviel mehr die Leistungsaufnahme vom Rechner in die Höhen treibt und solche Monitore Summen X Kosten, absolut no way.

Bei gleichem Seitenverhältnis, hast du ohnehin absolut denselben Bildinhalt, da ist die Auflösung ziemlich schnuppe
Fürs Gaming auch völlig irrelevant, ich schaff ja jetz schon eine deutlich überdurchschnittliche Reaktionszeit von 180ms, also gibt es da absolut garkeinen Vorteil der sich lohnen würde, ausser das der Krempel halt "money for nothing" mehr Strom aus der Buchse zieht

Gruss

Gast
2023-12-11, 09:19:18
Fürs Gaming auch völlig irrelevant, ich schaff ja jetz schon eine deutlich überdurchschnittliche Reaktionszeit von 180ms, also gibt es da absolut garkeinen Vorteil der sich lohnen würde, ausser das der Krempel halt "money for nothing" mehr Strom aus der Buchse zieht



Mehr Hz ist nicht nur eine bessere Reaktionszeit, sondern vor allem eine höhere Bildqualität.

exzentrik
2023-12-11, 11:12:16
Gigabyte CO49DQ (https://www.prad.de/gigabyte-co49dq-details-zum-neuen-qd-oled-display/) kommt mit QD-OLED, DQHD, 144 Hz, KVM, FreeSync Premium Pro und DisplayHDR True Black 400. Preis und Termin jibt et aber noch nicht.

Dennis50300
2023-12-11, 12:16:25
Mehr Hz ist nicht nur eine bessere Reaktionszeit, sondern vor allem eine höhere Bildqualität.
Was eine völlige Fehlinformation ist, Werbebot-Bullshit....

Da ich noch von MS-DOS komme sämtliche fortschritte von Röhre zu Flachglotzen und immer höher werdender Auflösungen nunmal so absolut wiederlegen kann und muss.

Es war auch schon völlig schnurz bei gleichen Seitenverhältnis ob du "HD Ready" oder später dann "FullHD" als Auflösung hattest auf dem Monitor.... old true Story, die sich nun aktuell mit mehr Auflösung als FullHD genauso wiederholt.

Mehr Auflösung ist für mehr Grösse, ist für mehr Abstand zur Glotze zum draufglotzen, nix anderes, Punkt.

Das einzige was an mehr HZ sein kann, sowie passend mehr FPS, das der Bildverlauf, weicher sein kann, das hat man allerdings mit FreeSync/G-Sync sowie G-Sync compatible was Freesync-Monitor an Nvidia-karte ist, ohnehin auch schon abgeschafft, durch Syncronisation der HZ des Monitors mit den FPS vom Rechner, wenn man allerdings zu dumm und lernresisten ist seine Kiste richtig zu konfigurieren, da sitzt das Problem schlichtweg vor dem Bildschirm... :rolleyes:

Und nein, du schaffst keine Reaktionszeit besser als 180ms mit 120Hz vs. meinem 75Hz Monitor sync auf 60Hz/FPS gestellt, das ist purer Schwachsinn der Werbeindustrie
Edit:
Zumal das gegenteil der Fall ist, mehr FPS führen zu mehr CPU-Limits was heisst, mehr InputLag weil dann nichtmehr genug Schaltkreise zu Verfügung sind bei der CPU die Eingaben zu Verarbeiten...., kannste noch soviele oder lange das Signal "an" durch nen gedrückten Maustaster in den PC jagen, CPU-Limit heisst Volllast und da sind nunmal alle Schaltfunktionen (Transistorfunktionen) weg, weil werden gebraucht.
Das kompensiert man auch nicht mit einer PS/2 Maus weil dir direkt reinlabert in die CPU, denn wenn dir die Frames einbrechen, was ohnehin passieren wird zwischendurch in gewissen Situationen, macht das genauso keinen Spass.

Das ist dann der Moment wenn dir jemand mit nem Ivy Bridge und ner GTX 1060 erst noch erzählen will ob dein MSI Afterburner Overlay dich nicht vom Zocken ablenken würde, er aber mit schlechterer Hardware als du hast und auch ein Kumpel in nem zu dritt Coop-Ego Shooter, das es am Server liegt das es bei ihm laggt, komisch bei mir und dem anderen Kumpel mit besserer Hardware haben wir keine Probleme mit demselben Server...finde den Fehler.... -> Fazit: Problem sitzt vor dem Bildschirm...., behauptet Blödsinn "ich schaff doch sonst 75FPS"
Joa klasse, an dieser Stelle Leistung verschwendet, das ist das eine, das andere in anderen Situationen schafft der bei weitem nichtmal 60 genau dann wenn die CPU dann limitiert wenn da bisschen mehr los ist, klasse Werbelogik, die nicht funktioniert, weil der PC so eben nicht funktioniert...., bzw schon, aber das Programm eben nicht einwandfrei und somit sauber läuft...., eieieieieiei....
mit einem MSI AB-Overlay würde er es sehen, aber das verdrängt er ja gerne....., mit der Ausrede es würde ihn Ablenken xD

Wer tatsächlich ein Ablenkungsproblem hat bei sowas, der hat echt andere Probleme, Aufmerksamkeitsspanne, Konzentration sich auf etwas zu fokussieren nämlich....

Gruss

Seth
2023-12-11, 14:23:46
Das ist jetzt schon der zweite Thread in kurzer Zeit wo du mit deiner menschlichen Reaktionszeit kommst, die rein gar nichts mit dem Thema zu tun hat. Alle "Latenzen", ob menschlich oder technisch, addieren sich und sind unabhängig voneinander.

Aktion passiert auf Gameserver------->Latenz: Internet + Latenz: PC verarbeitet Daten + Latenz: Ausgabe Monitor + Menschliche Reaktionszeit + Latenz: Eingabe (Maus, Tastatur) + Latenz: Verarbeitung der Eingabe + Latenz: Internet ------> Reaktion wieder beim Gameserver

Und dann noch zu behaupten eine höhere Auflösung ist nur für mehr Größe da und nicht für höhere Qualität und höhere Bildwiederholrate bringt keine höhere (Bewegt)bildqualität. WOW
Da ist wohl jemand noch immer in DOS unterwegs. ;D

Hier mal ein Video dass du dir mal ansehen solltest.
OX31kZbAXsA

Ex3cut3r
2023-12-11, 15:14:23
Das von ab, machen 144HZ/FPS einfach ein schöneres Bild, läuft/fühlt sich einfach geschmeidiger an. Ist das gleiche wie 30 vs 60HZ/FPS. Da fühlen/sehen 60HZ/FPS aus, wie eine andere Welt und man möchte freiwillig doch nie wieder zurück. Genauso verhält es sich doch auch mit 60 vs 144 HZ/FPS. Verstehe, daher nicht, was Dennis50300 meint, aber gut, wenn er es so mag, bitte. Ist eine freie Welt. Teilen muss ich die Meinung nicht. ;D

Gast
2023-12-11, 15:36:35
Was eine völlige Fehlinformation ist, Werbebot-Bullshit....


Falsch, wobei mir auch noch keine Werbung untergekommen ist, die hohe Frequenzen mit hoher Bildqualität bewerben.

Fakt ist, dass die Bildschärfe in Bewegung deutlich zunimmt je mehr HZ/FPS man hat. Und fakt ist auch dass heute erhältliche Hardware noch weit vom Limit des menschlichen Sehapparates entfernt ist.


Es war auch schon völlig schnurz bei gleichen Seitenverhältnis ob du "HD Ready" oder später dann "FullHD" als Auflösung hattest auf dem Monitor.... old true Story, die sich nun aktuell mit mehr Auflösung als FullHD genauso wiederholt.


Auch vollkommener Blödsinn, die Bildschärfe selbst aktueller Monitore ist Auflösungsbedingt bestenfalls akzeptabel, einzelne Pixel immer noch wunderbar ersichtlich.



Das einzige was an mehr HZ sein kann, sowie passend mehr FPS, das der Bildverlauf, weicher sein kann, das hat man allerdings mit FreeSync/G-Sync sowie G-Sync compatible was Freesync-Monitor an Nvidia-karte ist, ohnehin auch schon abgeschafft, durch Syncronisation der HZ des Monitors mit den FPS vom Rechner, wenn man allerdings zu dumm und lernresisten ist seine Kiste richtig zu konfigurieren, da sitzt das Problem schlichtweg vor dem Bildschirm... :rolleyes:


Anscheinend hast du noch nicht kapiert, dass eine hohe Refreshrate überhaupt Vorraussetzung ist damit Freesync/G-Sync/VRR zufriedenstellend funktioniert. Damit dies über den kompletten Bereich funktioniert braucht es eine Range von ca. 2,5 und mit den typischen 48Hz am unteren Limit braucht es damit mindestens 120Hz um das zu erreichen.
Mit 48-60Hz bist du extrem eingeschränkt.


Und nein, du schaffst keine Reaktionszeit besser als 180ms mit 120Hz vs. meinem 75Hz Monitor sync auf 60Hz/FPS gestellt, das ist purer Schwachsinn der Werbeindustrie.


Doch schaffe ich (vermutlich sogar auf 60Hz).


Edit:
Zumal das gegenteil der Fall ist, mehr FPS führen zu mehr CPU-Limits was heisst, mehr InputLag weil dann nichtmehr genug Schaltkreise zu Verfügung sind bei der CPU die Eingaben zu Verarbeiten...., kannste noch soviele oder lange das Signal "an" durch nen gedrückten Maustaster in den PC jagen, CPU-Limit heisst Volllast und da sind nunmal alle Schaltfunktionen (Transistorfunktionen) weg, weil werden gebraucht.


Der nächste Schwachsinn, die Latenz steigt im GPU-Limit und ist im CPU-Limit am niedrigsten (Stichwort Renderqueue), wobei dies dank Reflex nicht mehr so relevant ist.

Seth
2023-12-11, 15:41:23
Problem ist nur, er stellt seine Meinung als Fakt dar und das ist einfach nur fatal und falsch.

E39Driver
2023-12-11, 16:00:51
Das von ab, machen 144HZ/FPS einfach ein schöneres Bild, läuft/fühlt sich einfach geschmeidiger an. Ist das gleiche wie 30 vs 60HZ/FPS. Da fühlen/sehen 60HZ/FPS aus, wie eine andere Welt und man möchte freiwillig doch nie wieder zurück. Genauso verhält es sich doch auch mit 60 vs 144 HZ/FPS. Verstehe, daher nicht, was Dennis50300 meint, aber gut, wenn er es so mag, bitte. Ist eine freie Welt. Teilen muss ich die Meinung nicht. ;D
Kann es auch sein das viele mehr als 60Hz visuell einfach nicht wahrnehmen können? Also den unterscheid von 30Hz auf 60Hz unterschreib ich sofort. Ein riesen Unterschied und man möchte keine 30Hz mehr am Monitor haben mit dem ruckelnden Mauszeiger. Aber z.B. ich bin jetzt von einem 60Hz iPhone auf das auf YouTube hochgelobte 120Hz iPhone Pro umgestiegen. Und war dann erstmal enttäuscht, da ich persönlich keinerlei Unterschied am Display wahrgenommen habe. Beides wirkt für mich absolut flüssig

Gast
2023-12-11, 19:14:00
Aber z.B. ich bin jetzt von einem 60Hz iPhone auf das auf YouTube hochgelobte 120Hz iPhone Pro umgestiegen. Und war dann erstmal enttäuscht, da ich persönlich keinerlei Unterschied am Display wahrgenommen habe.

Wie kannst du am IPhone keinen Unterschied merken? Jetzt gar nicht mal wegen der Optik (die fällt auf dem kleinen Display tatsächlich oft kaum auf), aber der Unterschied bei der Reaktionsschnelligkeit auf Toucheingaben ist doch überdeutlich.

La Junta
2023-12-11, 22:47:22
Kann es auch sein das viele mehr als 60Hz visuell einfach nicht wahrnehmen können? Also den unterscheid von 30Hz auf 60Hz unterschreib ich sofort. Ein riesen Unterschied und man möchte keine 30Hz mehr am Monitor haben mit dem ruckelnden Mauszeiger. Aber z.B. ich bin jetzt von einem 60Hz iPhone auf das auf YouTube hochgelobte 120Hz iPhone Pro umgestiegen. Und war dann erstmal enttäuscht, da ich persönlich keinerlei Unterschied am Display wahrgenommen habe. Beides wirkt für mich absolut flüssig
Als ich vom 270HZ IPS auf 175HZ QD-Oled gewechselt habe , hatte ich paar Tage lang leichte Kopfschmerzen (beim COD zocken vorallem) .. Umgekehrt habe ich kaum einen Unterschied ausgemacht. Du spürst den Unterscheid wenn du von 175HZ auf 270HZ wechselst schon , aber wahrnehmen tust du es vorallem wenn du in die andere Richtung wechselst (zumindest war es so bei mir).
Inzwischen habe ich mich jedoch schon an den G8 Oled gewöhnt und geniesse das bessere Bild und würde wogl nicht mehr zurück wollen.
Du kannst aber nicht Youtube auf einem Handy als Referenz nehmen , da die Videos eh meistens nur 60FPS haben.

Relex
2023-12-12, 09:10:59
Mehr Auflösung ist für mehr Grösse, ist für mehr Abstand zur Glotze zum draufglotzen, nix anderes, Punkt.


Das kann doch nicht dein Ernst sein?!

Du glaubst also, dass du auf deinen Dispalys keinen Unterschied sehen würdest, wenn sie bei gleicher Größe eine höhere Auflösung hätten.

Und 60 Hz (ohne VRR) sind genug? :facepalm:


Uff. Also das macht jegliche Diskussion mit dir leider völlig sinnfrei. Man merkt sehr deutlich, dass du schlichtweg nie die Gelegenheit hattest das selbst zu testen.


Also ich kann dir sagen, dass immer höhere Auflösungen und immer höhere Frequenzen zu diminishing returns führen. Klar, das kann man nicht unendlich steigern. Irgendwann sieht das Auge die höhere Auflösung nicht mehr, irgendwann wird es nicht mehr flüssiger.
Trotzdem ist der Unterschied 60 auf 120 auf 240 Hz astronomisch, genauso wie der Wechsel von 1080p auf 4K bei gleicher Größe und Sitzabstand. Wenn du eine höhere Auflösung wirklich nicht wahrnehmen kannst, dann lass bitte deine Sehkraft prüfen. Ist nur ein gut gemeinter Rat.


Aber ich hatte wohl recht. Irgendwie steckst du in 2010 fest. Denn damals gabs die Diskussionen. Haben sich dann eben mit der Zeit erübrigt, als die Hardware erschwinglich wurde und die Leute einfach selbst gesehen haben, wie riesig das Upgrade ist. Wenn du das nicht brauchst oder willst, fein für dich. Sag halt einfach, dass du dich mit 1080p 60 Hz zufrieden gibst. Ist völlig okay. Aber mit deiner Argumentation, mit der du den allgemeinen Nutzen in Frage stellst, machst du dich leider ziemlich lächerlich, weil es wahrscheinlich 99% hier besser wissen und selbst sehen, weil sie entsprechende Hardware besitzen.

TheCounter
2023-12-12, 09:29:59
60Hz ertrage ich nicht mal in Windows. Der Unterschied zu 120Hz ist da schon extrem.

Asaraki
2023-12-12, 09:33:33
Kann es auch sein das viele mehr als 60Hz visuell einfach nicht wahrnehmen können? Also den unterscheid von 30Hz auf 60Hz unterschreib ich sofort. Ein riesen Unterschied und man möchte keine 30Hz mehr am Monitor haben mit dem ruckelnden Mauszeiger. Aber z.B. ich bin jetzt von einem 60Hz iPhone auf das auf YouTube hochgelobte 120Hz iPhone Pro umgestiegen. Und war dann erstmal enttäuscht, da ich persönlich keinerlei Unterschied am Display wahrgenommen habe. Beides wirkt für mich absolut flüssig

Ne, die Mehrheit sieht es. Zumindest in meinem Umfeld sind es eigentlich 100% im Alter von 25 bis 60, die 100hz+ als positiv wahrgenommen haben uch zum arbeiten. Vom Gaming reden wir schon gar nicht :D

Das schliesst nicht aus, dass es manche nicht wahrnehmen, aber schon rein wissenschaftlich müssten es die allermeisten Menschen positiv wahrnehmen.

Da es aber kein "in your face"-Effekt ist merken es die meisten Leute erst nach einer Gewöhnungsphase. Der visuelle Cortex ist halt so mächtig, dass er die Schwächen von 60hz sehr gut ausgleicht, denn würde er uns das flackern ungefiltert zeigen hätten wir alle niemals ohne Kopfschmerzen an 60hz arbeiten können :D Aber wenn man zurückwechselt, dann tut es in den Augen weh ^^

Verhält sich auch so mit der Audiowahrnehmung. Das Hirn passt sich an die unzulänglichkeiten des entsprechenden Systems an und gleicht aus. Wie stark dieser Ausgleich war merkt man erst, wenn man sich an ein besseres System gewöhnt hat.

Das ist auch super so, sonst könnte man Musik,Film & Games nur auf teuren Systemen geniessen. Der Umkehrschluss, dass die besseren Systeme nicht wirklich besser ist ergibt sich daraus aber eben nicht :)

redpanther
2023-12-12, 10:35:34
Die Menschen sind halt sehr individuell, aber viele wollen oder können das nicht akzeptieren.

Wenn Dennis ein zB 60Hz FHD Display reicht, ist das schön für ihn, er kann eine Menge Geld sparen.
Es ist halt falsch, wenn er seine Ansprüche und Erfahrungen Verallgemeinert.
Ich sag ja auch nicht der Formel 1, sie sollen doch gefälligst Golf GTI fahren, weil der doch schnell genug ist.

Die Aussage, 60Hz reichen nicht mal in Windows ist dann das andere Extrem.
Absolut übertrieben. Klar ist es schöner wenn der Mauszeiger in 240hz über den Desktop gleitet, aber braucht man das?

E39Driver
2023-12-12, 14:00:28
Ne, die Mehrheit sieht es. Zumindest in meinem Umfeld sind es eigentlich 100% im Alter von 25 bis 60, die 100hz+ als positiv wahrgenommen haben uch zum arbeiten. Vom Gaming reden wir schon gar nicht :D

Das schliesst nicht aus, dass es manche nicht wahrnehmen, aber schon rein wissenschaftlich müssten es die allermeisten Menschen positiv wahrnehmen.

Da es aber kein "in your face"-Effekt ist merken es die meisten Leute erst nach einer Gewöhnungsphase. Der visuelle Cortex ist halt so mächtig, dass er die Schwächen von 60hz sehr gut ausgleicht, denn würde er uns das flackern ungefiltert zeigen hätten wir alle niemals ohne Kopfschmerzen an 60hz arbeiten können :D Aber wenn man zurückwechselt, dann tut es in den Augen weh ^^

Keine Ahnung, kann schon sein mit der Gewöhnung. Ich hab halt direkt nach Einrichtung mein neues iPhone 15 Pro mit 120Hz neben das alte 12 Pro mit 60Hz Display gelegt und etwas im Menü gescrollt und ne Webseite scrollen lassen. Und dachte mir dann "Ah ok das soll jetzt alles sein? Ist ja kein Unterscheid, sieht beides flüssig aus..."

Hab das alte Gerät leider nicht mehr im Zugriff. Sonst könnte ich jetzt mal den Gegentest machen ob mit 1 Monat später jetzt Unterschiede auffallen.

Die Theorie dass sich die Leute an alles an schlechten Monitoren anpassen, unterstütze ich. Hatte mal 2 Damen auf Arbeit die Jahrelang an ihren 27' LCD-Monitoren mit völlig verstellter Matschauflösung gearbeitet haben durch fehlende Treiber-Installation. Sah aus wie schlecht skaliertes 640p oder so auf 30Hz und alles verschwommen. War dann eines Tages so nett gewesen und hab die Rechner richtig eingerichtet und die Monitore auf native Auflösung inkl. empfohlener Windows-Skalierung und 60Hz gestellt. Und was war, beiden kam das Bild ungewohnt vor und es sollte wieder zurück zum Ausgangsbild gewechselt werden :freak:

Dennis50300
2023-12-12, 14:02:58
Problem ist nur, er stellt seine Meinung als Fakt dar und das ist einfach nur fatal und falsch.

Absolute Nein, meine Aussagen entsprechen lediglich den recherchierbaren und schnell feststellbaren Fakten, nichts weiter... :rolleyes:

Daran gibt es auch absolut rein garnichts zu diskutieren, der durschnittliche Mensch hat eine Reaktionszeit von 0,2 bis 0,3 Sekunden, wenn die Hardware da im Weg wäre, würden überdurschnittliche Menschen wie meiner eines keine 180ms schaffen im "Human Benchmark"

Zumal mit eurem "Aufaddieren"-Blödsinn hier, dann würde man eben genau das nicht schaffem im Human Benchmark, ihr widersprecht einfach argumentationslos sowie faktenfrei, den Fakten.
Schaltet doch mal euer Gehirn ein, ganz einfach.

Dann sind gewisse Monitore nicht mal gscheit bewiesen was die wirklich tun, wann und wieso, aber es wird einfach behauptet das offenbar gute Monitor, wo es 60Hz/FPS einwandrei tun, schlechter wären, als dann schlechtere 120Hz.... Applaus.
Man muss doch bloß verstehen das deren Post-Processing darauf ausgelegt ist das die 120HZ oder sonstwas und entsprechend FPS bekommen..., da dreht man sich im Kreis
Die Tabellen von solchen Tests die dann gescheit durchgeführt worden sind, fehlen dann immernoch.

Das wird auch keiner machen, weil es halt nicht werbefreundlich wäre, warum kann man denn HWLuxx dessen hinsichtlich in der Pfeiffe rauchen, genauso wie CB und PCGH und was es nicht sonst noch so alles gibt.
Das wäre automatisch eine journalistische richtigstellung die dabei nachher herauskommen würde, weil es aber die ganze Werbung diskreditieren würde, deshalb wird es nicht gemacht, das ist eine ganz einfach Feststellung aufgrund der Tatsachen und Fakten, nichts weiter.

Was Serverseitig los ist, kann und wird man mit der eigenen Kiste eben auch ebenso nicht beeinflussen, nichtmal im Ansatz.

Dann trauen sich solche Leut offenbar auch nichtmal, kommt doch mal OneonOne, Cube2 Sauerbraten, oder sowas, werdet ihr schon sehen wie euch den Hintern heiss mach, selbst ohne Übung Wochen oder Monatelang.
Das gab es auch schon mitunter...

https://www.youtube.com/watch?v=SBWU_GWAuYo&t=2282s
Und der Kumpel ist deutlich geübter als ich, bei sowas, dreimal dürft ihr Raten bei wem er lieber ankommt um zu gucken das alles klar is mit dem Rechner xD


Hier mal ein Video dass du dir mal ansehen solltest.
https://youtu.be/OX31kZbAXsA
Mit solchem Clickbait-Werbebullshit brauchste mir scho ma garnicht kommen.
Genau wenig wie du mit NVidia-Werbung kommen brauchst, den Shit könnte passend jeder selbst hinmogeln mit Blender von Vergleichen 30 vs 60 HZ/FPS etc..., oder noch besser 60 vs/120, das bringst du nicht auf YouTube wo die Videos maximal 60Bilder pro Sekunde haben.
Wenn es richtig läuft und eben nicht falsch, sieht ein Capturing von 60 vs 120, exakt gleich aus, weil eine Bewegung immer zeitrichtig ist und nichts anderes, Stichwort "Echtzeit".... :rolleyes:

Solange an deinem Rechner nichts limitiert, addiert sich da absolut 0 nachteilig auf und das ist bei 60Hz/FPS halt schon der Fall, Punkt

Gruss

redpanther
2023-12-12, 14:27:16
Das Lexikon der Psychologie sagt aber "Übliche einfache Reaktionszeiten (s. u.) betragen auf einen Lichtreiz (visuelle Wahrnehmung) ca. 180 ms" und nicht 0.2-3 sek.
Du bist also nicht Überdurchschnitt, sonder nur Durchschnitt.
Das bedeutet aber auch, das es Menschen mit (deutlich?) besserer Reaktionszeit gibt.
Im Durchschnitt sind sicherlich auch 80 Jährige Senioren drin.

Hinzu kommt: "Ist der Signalzeitpunkt vorhersagbar, so handelt es sich um Antizipationszeiten, die 0 Sek. betragen können, die Reaktion kann sogar vor dem Signal erfolgen"
Und das ist sicher öfters in Games der Fall.

https://dorsch.hogrefe.com/stichwort/reaktionszeit

Bewegungen sehen bei 240hz aber auch einfach Smoother aus als bei 60Hz, besonders bei schnellen display Schaltzeiten (OLED Ole!), und das hat ja mal rein gar nichts mit Reaktionszeiten zu tun.

Asaraki
2023-12-12, 14:42:45
Keine Ahnung, kann schon sein mit der Gewöhnung. Ich hab halt direkt nach Einrichtung mein neues iPhone 15 Pro mit 120Hz neben das alte 12 Pro mit 60Hz Display gelegt und etwas im Menü gescrollt und ne Webseite scrollen lassen. Und dachte mir dann "Ah ok das soll jetzt alles sein? Ist ja kein Unterscheid, sieht beides flüssig aus..."

Hab das alte Gerät leider nicht mehr im Zugriff. Sonst könnte ich jetzt mal den Gegentest machen ob mit 1 Monat später jetzt Unterschiede auffallen.

Die Theorie dass sich die Leute an alles an schlechten Monitoren anpassen, unterstütze ich. Hatte mal 2 Damen auf Arbeit die Jahrelang an ihren 27' LCD-Monitoren mit völlig verstellter Matschauflösung gearbeitet haben durch fehlende Treiber-Installation. Sah aus wie schlecht skaliertes 640p oder so auf 30Hz und alles verschwommen. War dann eines Tages so nett gewesen und hab die Rechner richtig eingerichtet und die Monitore auf native Auflösung inkl. empfohlener Windows-Skalierung und 60Hz gestellt. Und was war, beiden kam das Bild ungewohnt vor und es sollte wieder zurück zum Ausgangsbild gewechselt werden :freak:

Ein Telefon ist auch eigentlich viel zu klein für sowas. Je grösser der Schirm + die Auflösung, desto mehr ist der Unterschied zu sehen. Respektive eigentlich ist es der Anteil am Blickfeld, aber wenn du das Handy vor die Augen hältst bis du kaum was anderes mehr siehst, dann siehst du auch vom Handy nicht mehr viel :D

Das ist ja das Lustige an sowas. Es ist menschlich, dass man seine eigene Wahrnehmung als gegeben nimmt. Dabei hören wir nicht einmal Töne wirklich identisch und sehen tun die Leute auch in einem sehr grossen Spektrum von Schärfe, Farbwahrnehmung etc. Trotzdem diskutieren Leute stundenlang darüber ob etwas grüner oder gelber ist. Fakt ist, das Objekt hat gar keine Farbe :D

Es ist ein Segen und kein Fluch, dass wir alle in der Lage sind jedes Bild als gut empfinden zu können und Musik auch auf den schlechtesten Lautsprechern noch alles wirklich relevante transportiert. Man sollte sich nie schlecht fühlen weil man einen positiven Effekt nicht so wahrnimmt "wie andere das beschreiben". Dann ist es halt so :D Spielt ja wirklich keine Rolle... das ist mir so wichtig wie wenn jemand meine Frau für 'nicht hübsch' halten würde. Soll er doch :D Ändert an meiner Wahrnehmung genau nichts.

Wenn jemand das nicht kann ist das eigentlich streng genommen ein Fehler im Hirn, klassische Audiophile z.B. die einfach nicht mehr 'normal' hören können und stattdessen immer mit dem analytischen 'Ohr' hinhören. Aber da ist das eigentliche Problem, dass sie die Musik nicht emotional hören sondern quasi live dekonstruieren. Ein gutes Lied wird nicht schlechter, weil man es auf einem günstigen Stereosystem abspielt. Bei mir persönlich ist z.B. erst bei Handylautsprechern fertig, wobei auch da kann ich hinhören wenn du mir z.B. ein neues Gitarrenriff vorspielen willst und den Rest stelle ich mir dann halt vor (Also wie das aus einem dicken Speaker klingen würde)

Alle haben recht in ihrem eigenen kleinen Universum und das ist gut so :) Wird nur mühsam, wenn dann Leute meinen sie müssen anderen erklären wie sie gefälligst zu sehen und hören hätten ^^

Gast
2023-12-12, 15:49:14
Das Lexikon der Psychologie sagt aber "Übliche einfache Reaktionszeiten (s. u.) betragen auf einen Lichtreiz (visuelle Wahrnehmung) ca. 180 ms" und nicht 0.2-3 sek.




Er ist schon Überdurchschnitt, die gemessene Zeit ist ja die menschliche Reaktionszeit + Eingabelatenz + Ausgabelatenz + Verarbeitungslatenz.

Wenn er auf 180ms kommt, dann ist seine reale Reaktionszeit vermutlich <150ms.

Und genau das versteht er offenbar nicht, auch wenn die menschliche Reaktionszeit sicher mit Abstand den größten Anteil an der Gesamtlatenz hat, kommen noch alle anderen Latenzen hinzu und ein verringern dieser verbessert auch immer die Gesamtlatenz.

Tesseract
2023-12-12, 16:32:42
Daran gibt es auch absolut rein garnichts zu diskutieren, der durschnittliche Mensch hat eine Reaktionszeit von 0,2 bis 0,3 Sekunden, wenn die Hardware da im Weg wäre, würden überdurschnittliche Menschen wie meiner eines keine 180ms schaffen im "Human Benchmark"

zusammenhangsloser unsinn. insputlag spielt am monitor in erster linie für die spatiale hand-augen-koordination eine rolle und die wird so nicht gemessen.

habe übrigens gerade spontan ohne üben und ohne große mühe am 120Hz TV vom sofa aus 162ms (https://humanbenchmark.com/users/657875fc53421700080c7668/reactiontime) geklickt, das darfst du jetzt interpretieren wie du willst. :wink:

Seth
2023-12-12, 16:42:40
Absolute Nein, meine Aussagen entsprechen lediglich den recherchierbaren und schnell feststellbaren Fakten, nichts weiter... :rolleyes:

Also du willst nicht diskutieren, denn alles was du sagst sind angeblich recherchierbare Fakten, lieferst aber keine Nachweise dafür?
Stattdessen willst du lieber "OneonOne Cube 2 Sauerbraten" um zu bestimmen wer Recht hat und zu Zeigen was für ein Überdurchschnittlicher Mensch du bist?
Ich liefere dir ein Video, in dem für jeden sehr leicht nachvollziehbar ersichtlich ist, wie jeder Teilnehmer des Tests mit höherer FPS/Hz eine bessere Leistung erzielt. Du behauptest nur es sei Clickbait. (Und dass das Video nur in 60Hz ist tut nichts zur Sache, denn darum den Unterschied 60 zu 120 Hz direkt im Video zu zeigen, geht es auch gar nicht, da auch nicht möglich).
Der Human Benchmark (https://humanbenchmark.com/tests/reactiontime) beinhaltet, wenn du ihn am PC ausführst, bereits die Latenz der ein und Ausgabegeräte. Was meinst du passiert denn wenn dein Monitor eine Latenz von einer Sekunde hätte? Ob du dann beim dem Test immer noch 180ms hättest? Nein, natürlich nicht, denn wie bereits beschrieben ist das Ergebnis dieses Test eine Addition von allen Latenzen der gesamten "Signalkette" (Monitor Latenz + Menschliche Reaktionszeit usw)
Dann Unterstellst du noch nebenbei HWLuxx, CB und PCGH absichtlich falsch zu testen um die Werbelügen der Hersteller zu decken um nicht ihre Werbeeinnahmen zu verlieren.

Hör bitte auf, deine eigene, verschobene Wahrnehmung als Fakten darzustellen, denn dir fehlen offensichtlich die technischen und physikalischen Grundlagen.

anorakker
2023-12-12, 16:55:45
Finds auch immer wieder erschreckend, dass dieses uralte Thema gefühlt alle 10 Jahre aufs neue wieder komplett nicht verstanden wird.

recht anschaulich bzw. selbst erfahrbar wird es es ganz gut mit diesem online lag simulator:

https://www.skytopia.com/stuff/lag.html

Schlimm ist tatsächlich, dass viele Spieler sich (insbesondere mit Konsolen an LCD TVs) in den letzten Jahren so an den teils gruseligen Lag gewöhnt haben und das als normal empfinden, weils auch die Spiele entsprechend darauf gematched wurden :frown:

Dennis50300
2023-12-12, 17:11:24
Er ist schon Überdurchschnitt, die gemessene Zeit ist ja die menschliche Reaktionszeit + Eingabelatenz + Ausgabelatenz + Verarbeitungslatenz.

Wenn er auf 180ms kommt, dann ist seine reale Reaktionszeit vermutlich <150ms.

Und genau das versteht er offenbar nicht, auch wenn die menschliche Reaktionszeit sicher mit Abstand den größten Anteil an der Gesamtlatenz hat, kommen noch alle anderen Latenzen hinzu und ein verringern dieser verbessert auch immer die Gesamtlatenz.

Ich bin überdurschnittlich mit 180ms weil sonst der Durchschnitt des Menschen 200ms bis 300ms braucht.
Dabei spielt die Eingabelatenz+Ausgabelatenz schon garkeine Rolle mehr, weil die der komplette Stromkreis eben entsprechend mitsamt Wahrnehmung und eben meiner persönlichen Reaktion schnell genug ist um genau das festzustellen.

Der Rechner ist einfach mal de Fakto in der Lage das zu messen , da er dazu mehr als schnell genug ist, sowie die ganze Peripherie dabei drumherum.

Ganz einfache Feststellung der Tatsachen.


https://dorsch.hogrefe.com/stichwort/reaktionszeit
Reaktionszeit

[engl. reaction time], [KOG], Zeit, die (unter best. Bedingungen, s. u.) vergeht zw. einem Signal (Reiz) und dem Beginn der mechanischen Bewegungsantwort (Motorik), der offen beobachtbaren motorischen Reaktion auf dieses Signal unter der Instruktion, möglichst schnell (und fehlerfrei) zu reagieren. Reaktionszeit-Angaben bestehen im Regelfall aus Durchschnittswerten. Üblicherweise wird die Reaktionszeit auf Signale gemessen, die in einer durch ein Achtungssignal angekündigten Vorperiode (ca. 1–3 Sek. Dauer) zufallsverteilt erscheinen. Ist der Signalzeitpunkt vorhersagbar, so handelt es sich um Antizipationszeiten, die 0 Sek. betragen können, die Reaktion kann sogar vor dem Signal erfolgen (Frühstart). Um zu verhindern, dass die Vp antizipativ reagiert, werden in die Reaktionszeitmessserie Fangdurchgänge (catch trials) eingestreut: Es erfolgt eine Signalankündigung, aber kein Signal. Reaktionszeit bezieht sich auf instruierte, willkürliche Bewegungsantworten auf vereinbarte Signale, nicht auf physiol. Reflexe. Die Bez. Latenzzeit wird für unterschiedliche nicht Reaktionszeit-Zeiten benutzt, u. a. für die Zeit zw. Reiz und habitueller konditionierter Reaktion (Konditionierung, bedingter Reflex), für die Dauer versch. physiol. Signalleitungsprozesse und für die Zeiten zw. Komponenten einer Bewegungssequenz, z. B. die Anschläge beim Tippen eines Wortes. Letztere Zeiten sind kürzer als einfache Reaktionszeiten, was dafür spricht, dass die Sequenz vorprogrammiert ist. Die Zeit für die Ausführung der Reaktionsbewegung, also von Beginn der offenen Antwort bis zu ihrem Ende, wird Bewegungszeit (movement time) genannt. Die Zeit für die Reaktionszeit und Bewegungszeit zus. wird u. a. Ausführungszeit (performance time) genannt.


Siehe auch Screenshot:
nichts anderes wird da beim Human Benchmark getestet
Und die meisten Leute schaffen da laut der Statistik entsprechen auch 200ms, dumm gelaufen nech...

Das und nichts andere ist man in der Lage mit dem "Human Benchmark" zu messen.
Das die eher besseren als die schlechteren dahergehen und das Testen ist auch nur logisch

zusammenhangsloser unsinn. insputlag spielt am monitor in erster linie für die spatiale hand-augen-koordination eine rolle und die wird so nicht gemessen.

habe übrigens gerade spontan ohne üben und ohne große mühe am 120Hz TV vom sofa aus 162ms (https://humanbenchmark.com/users/657875fc53421700080c7668/reactiontime) geklickt, das darfst du jetzt interpretieren wie du willst. :wink:

Nein eben nicht, Fakten und technisches Verständnis, nichts weiter zumal was soll den da bitte zusammenhanglos daran sein.
Die dein Elektroschrott muss schnell genug sein um deine Reaktionszeit zu Testen, Fakt 1, so, Fakt 2 das ist bei mir der Fall, da ich in der Lage bin zu messen das ich da schon überdurchschnittlich gut bin was diese Reaktionszeit angeht, denn sonst käme ich nicht auf 180ms, Punkt.
Wenn man einfach nicht versteht wie der Rechner funktioniert und wenn man eben aufgrunddessen nicht versteht das der Elektronikkram immer schneller ist als der Mensch sein könnte, solange eben kein insbesondere CPU-Limits vorherrscht.
Es sind Schaltkreise die geschlossen werden und geöffnet, nichts weiter und Strom fliesst dummerweise mit Lichtgeschwindigkeit, also verdammt schnell, oder dauert es etwa extrem lange bei dir wenn du Abends dein Licht im Raum anschaltest, sicherlich nicht.

Joa Klasse mit Gambling, da hab ich auch schon 140ms geschafft...., das ist Unsinn... :rolleyes:

Finds auch immer wieder erschreckend, dass dieses uralte Thema gefühlt alle 10 Jahre aufs neue wieder komplett nicht verstanden wird.

recht anschaulich bzw. selbst erfahrbar wird es es ganz gut mit diesem online lag simulator:

https://www.skytopia.com/stuff/lag.html

Schlimm ist tatsächlich, dass viele Spieler sich (insbesondere mit Konsolen an LCD TVs) in den letzten Jahren so an den teils gruseligen Lag gewöhnt haben und das als normal empfinden, weils auch die Spiele entsprechend darauf gematched wurden :frown:

Solch einen Lag wenn du da nicht auf 0ms gestellt hast, haste auf keiner Konsole, soviel steht mal fest xD
Alleine auf 100ms gestellt, is ja grauselig, das bringt auch niemanden wirklich weiter...

Gruss

Seth
2023-12-12, 17:21:58
Das kann nur ein Troll sein. Kannst jetzt aufhören, oder noch mal 1. Klasse Physik besuchen. ;D
Zitat https://humanbenchmark.com/tests/reactiontime
In addition to measuring your reaction time, this test is affected by the latency of your computer and monitor. Using a fast computer and low latency / high framerate monitor will improve your score.

Dennis50300
2023-12-12, 17:23:47
Das kann nur ein Troll sein. Kannst jetzt aufhören, oder noch mal 1. Klasse Physik besuchen. ;D
Zitat https://humanbenchmark.com/tests/reactiontime
Gescheit übersetzt heisst es:

Dieser Test misst nicht nur Ihre Reaktionszeit, sondern wird auch von der Latenz Ihres Computers und Monitors beeinflusst. Ein schneller Computer und ein Monitor mit niedriger Latenz / hoher Framerate verbessern Ihr Ergebnis.

Geh Englisch lernen... :rolleyes:
Demnach ist 60 FPS/HZ dann auch schon die hohe Framerate die man braucht, sonst wäre ich nicht schon überdurchschnittlich... mit 180ms, anstelle irgendwas zwischen 200ms bis 300ms

Das heisst nicht ohne Grund "Human Benchmark"... Human heisst übersetzt menschlich oder eben auch Mensch so wie es da steht, alleine das zu verstehen, fehlt offenbar schon Sinn und Verstand bei einigen.

Gruss

Tobalt
2023-12-12, 17:28:37
Oh mann. Musst du jeden halbwegs technischen Thread mit deinem völligen Unwissen vollmüllen? ;(

Dennis50300
2023-12-12, 17:29:27
Oh mann. Musst du jeden halbwegs technischen Thread mit deinem völligen Unwissen vollmüllen? ;(

Das ist Fachwissen, kein Halbwissen, keine Werbekurbelschwurbel..... :rolleyes:

Zudem Sprachkenntnis, wie man sieht kann "Seth" ja nichtmal englisch...;D

Edit:
Mal noch so nebenbei, 1. Klasse (Grundschule) hat man noch garkein Physik, das ausserdem...lachhaft...

Gruss

Seth
2023-12-12, 18:20:55
Das ist Fachwissen, kein Halbwissen, keine Werbekurbelschwurbel..... :rolleyes:

Zudem Sprachkenntnis, wie man sieht kann "Seth" ja nichtmal englisch...;D

Edit:
Mal noch so nebenbei, 1. Klasse (Grundschule) hat man noch garkein Physik, das ausserdem...lachhaft...

Gruss

1. Klasse Physik != Physik 1. Klasse

Meine Englischkenntnisse tragen nichts zur Diskussion bei und sind dazu von dir noch unfundiert und falsch eingeschätzt.

Deine persönliche Reaktionszeit ist immer noch völlig uninteressant und irrelevant für die Diskussion

Du hast immer noch nicht den Unterschied zwischen persönlicher Meinung/Wahrnehmung und Fakten verstanden


Deinen "Fakten und Fachwissen" hat noch niemand zugestimmt aber etliche Leute haben dir widersprochen. Bist du der einzige Wissende und denkst alle anderen liegen falsch?


Eine letzte einfache Frage für dich.

Annahme: Monitor A hat eine Latenz von 10ms und Monitor B hat eine Latenz von 20ms
Behauptung: Im Human Benchmark schneidet man unter ansonsten gleichen Voraussetzungen mit Monitor A im Durchschnitt 10ms besser ab als mit Monitor B.
Antwortmöglichkeiten:
Die Behauptung ist wahr.
Die Behauptung ist unwahr.

Asaraki
2023-12-12, 18:48:22
Macht doch bitte einen eigenen Themas oder fragt nach einem Split bitte. Glaube das interessiert hier praktisch keinen und auch wenn das Wort Monitor ab und zu fällt wird es langsam sehr off topic

Rooter
2023-12-12, 20:59:07
An einem OLED Display (Handy) nehme ich den Unterschied 60/90/120 Hz deutlich wahr.
Am PC Desktop merke ich aber zwischen 90 und 144 Hz am VA-Panel kaum irgendeine Verbesserung. ¯\_(ツ)_/¯ Mit OLED-Monitor sähe das evtl. anders aus.

MfG
Rooter

Cubitus
2023-12-13, 08:24:51
Ich war gestern zufälligerweise im lokalen euronics und hab mir 15 Minuten diesen TV/Monitor angeschaut. Lässt keine Wünsche offen und das biegsame panel per Remote Control ist der Hit. Beim zocken max Kurve bei Youtube und Co einfach zurück lehnen und genießen. Die Bildqualität ist überragend gewesen trotz glossy Spiegelt da kaum was.

4k bis max 120hz

Anschlüsse bis zum abwinken.

Volle kompatibel, gsync, freesync, Dolby HDR bzw HDR10 pro, HGIG usw.

Dazu vollwertiger smart TV mit triple tuner und record Funktion. WLAN, LAN, Spdif,

Hdmi und Display Port 2.1

Nur der Preis ist heftig.

https://www.lg.com/de/lifestyle-tvs/oled-evo-flex/42lx3q9la/

https://www.ebay.de/itm/145475064394?chn=ps&norover=1&mkevt=1&mkrid=707-153316-537668-3&mkcid=2&itemid=145475064394&targetid=4583314269822638&device=m&mktype=&googleloc=&poi=&campaignid=590145418&mkgroupid=1275435128034478&rlsatarget=pla-4583314269822638&abcId=9320708&merchantid=87778&msclkid=1b4d70520b4e15cca6b5152b5084e8d5

1730 Euro.. aber hey mitunter das beste was ich bisher gesehen hab.

Muss sagen mich juckts gerade gewaltig xD

Ex3cut3r
2023-12-13, 08:28:50
An einem OLED Display (Handy) nehme ich den Unterschied 60/90/120 Hz deutlich wahr.
Am PC Desktop merke ich aber zwischen 90 und 144 Hz am VA-Panel kaum irgendeine Verbesserung. ¯\_(ツ)_/¯ Mit OLED-Monitor sähe das evtl. anders aus.

MfG
Rooter

Liegt vermutlich daran, dass dein VA Monitor am Desktop zu langsam schaltet für die 144HZ. Ergebnis ist dann Smearing und trotz 144HZ ein ruckeliges Gefühl. Am OLED Hany hast du halt 0,5-1ms perfekte Schaltzeiten, die reichen locker für die 120HZ.

Cubitus
2023-12-13, 08:35:48
Liegt vermutlich daran, dass dein VA Monitor am Desktop zu langsam schaltet für die 144HZ. Ergebnis ist dann Smearing und trotz 144HZ ein ruckeliges Gefühl. Am OLED Hany hast du halt 0,5-1ms perfekte Schaltzeiten, die reichen locker für die 120HZ.

Geht halt wirklich nicht besser, gestern im euronics diablo 4 präsentiert bekommen wenn du halt beim dash noch den Namen vom Charakter gestochen scharf siehst, das geht nicht mit va ips oder sonst ner anderen Technik.. das hast du einmal richtig gesehen und willst eigl nicht mehr anderes haben.

Gast
2023-12-13, 09:40:18
Ergebnis ist dann Smearing und trotz 144HZ ein ruckeliges Gefühl. Am OLED Hany hast du halt 0,5-1ms perfekte Schaltzeiten, die reichen locker für die 120HZ.

Genau das Gegenteil ist der Fall. Smearing führt auch bei niedrigen FPS zu einer flüssigen, wenn auch natürlich unschärferen Wiedergabe.

Mit OLEDs braucht es höhere FPS für einen flüssigen Bildeindruck.

Gast
2023-12-13, 10:44:12
Geht halt wirklich nicht besser, gestern im euronics diablo 4 präsentiert bekommen wenn du halt beim dash noch den Namen vom Charakter gestochen scharf siehst, das geht nicht mit va ips oder sonst ner anderen Technik..

Das geht schon mit low persistance displays, hat aber natürlich wieder andere Nachteile.

exzentrik
2023-12-13, 11:30:44
LG UltraGear 27GR95UM (https://www.prad.de/lg-4k144-monitor-mit-mini-led-und-displayhdr-1000/) mit Nano-IPS, ATW, 1560 Mini-LED-Zonen, 4K144, DisplayHDR 1000 und FreeSync Premium Pro enthüllt.

Und Cooler Master bringt bald einen ersten eigenen WOLED-Monitor mit WQHD, 240 Hz und FreeSync Premium (https://www.prad.de/cooler-master-mit-erstem-eigenen-oled-gaming-display/).

Thunder99
2023-12-13, 12:13:23
Genau das Gegenteil ist der Fall. Smearing führt auch bei niedrigen FPS zu einer flüssigen, wenn auch natürlich unschärferen Wiedergabe.

Mit OLEDs braucht es höhere FPS für einen flüssigen Bildeindruck.

Warum?

Tesseract
2023-12-13, 12:30:06
weil OLED bei gleicher framerate in bewegung deutlich schärfer ist und man dadurch auch die sprünge zwischen den frames genauer sieht.

La Junta
2023-12-13, 12:33:26
Warum?
Weil es der Onkel von der Tante des Nachbarn von gegenüber gesagt hatte und natürlich irgendwo in nem Forum gelesen.
Es braucht nicht mehr FPS, wieso sollte es auch.

Gast
2023-12-13, 12:47:43
Warum?

Weil durch die besseren Schaltzeiten die Einzelbilder schärfer und damit besser als solche wahrnehmbar sind, anstatt einer flüssigen Bewegung.

Motion-Blur erhöht den Bewegungseindruck, und die Unschärfe durch die LCD-Schaltzeiten ist im Prinzip sehr ähnlich.

Was glaubst du warum du im Kino trotz 24FPS zumindest meistens den Eindruck einer flüssigen Bewegung hast? Weil die Verschlusszeiten der Kamera lang genug sind, damit in den Einzelbildern Bewegungen genug geblurrt werden um als eine Bewegung wahrnehmbar zu sein.

Umgekehrt ruckeln selbst aufgenommene Videos im strahlenden Sonnenschein mit 30FPS, wenn die Kamera keinen ND-Filter hat und die Blende nicht weit genug geschlossen werden kann um ausreichend lange Verschlusszeiten zu ermöglichen.

Platos
2023-12-13, 12:48:28
Weil es der Onkel von der Tante des Nachbarn von gegenüber gesagt hatte und natürlich irgendwo in nem Forum gelesen.
Es braucht nicht mehr FPS, wieso sollte es auch.

Deshalb sollte es:

https://forums.blurbusters.com/viewtopic.php?t=10593

Kurz gesagt: OLED maskieren Geruckel nicht so stark mit geschmiere, wie "übliche" Displays. Daher brauchts auch ne höhere Framerate.

OLED kann für manche grauenhaft aussehen bei 24p filmen ohne TV-übliches de-judder und Interpolation und wie das alles heisst dort (je nach Marke eben). Eben weil es dann so schön scharf ist und dann ruckelt...

Bei "schlechten" Displays nimmst du das Geruckel nicht (so stark) war, weil der schon von Haus aus "dejuddert" (er schmiert einfach).

Aber der eine gast hier kanns bestimmt besser erklären.

La Junta
2023-12-13, 13:03:21
Dann kanns auch sein das ich mich daran gestört habe (leichte Kopfschmerzen) und nicht an den 175HZ vs. 270HZ vom alten Monitor. Wie auch immer habe ich mich inzwischen daran gewöhnt und es passt so.

robbitop
2023-12-13, 13:10:35
Ich war gestern zufälligerweise im lokalen euronics und hab mir 15 Minuten diesen TV/Monitor angeschaut. Lässt keine Wünsche offen und das biegsame panel per Remote Control ist der Hit. Beim zocken max Kurve bei Youtube und Co einfach zurück lehnen und genießen. Die Bildqualität ist überragend gewesen trotz glossy Spiegelt da kaum was.

4k bis max 120hz

Anschlüsse bis zum abwinken.

Volle kompatibel, gsync, freesync, Dolby HDR bzw HDR10 pro, HGIG usw.

Dazu vollwertiger smart TV mit triple tuner und record Funktion. WLAN, LAN, Spdif,

Hdmi und Display Port 2.1

Nur der Preis ist heftig.

https://www.lg.com/de/lifestyle-tvs/oled-evo-flex/42lx3q9la/

https://www.ebay.de/itm/145475064394?chn=ps&norover=1&mkevt=1&mkrid=707-153316-537668-3&mkcid=2&itemid=145475064394&targetid=4583314269822638&device=m&mktype=&googleloc=&poi=&campaignid=590145418&mkgroupid=1275435128034478&rlsatarget=pla-4583314269822638&abcId=9320708&merchantid=87778&msclkid=1b4d70520b4e15cca6b5152b5084e8d5

1730 Euro.. aber hey mitunter das beste was ich bisher gesehen hab.

Muss sagen mich juckts gerade gewaltig xD
Nur 120 Hz und viel zu große 42". Da werden die 4K240 Hz QD-OLEDs die 2024 kommen sollen (mit echten Monitorgrößen - bisher noch zu große 32" angekündigt aber hoffentlich kommt auch noch 27" aber mit 32" kann man schon fast leben) IMO besser sein.

gnomi
2023-12-13, 14:34:58
Mittlerweile warte ich schon vier Jahre mit einer gebraucht gekauften Übergangslösung.
Könnte mir sogar vorstellen, nochmal bei 34 UWQHD zu bleiben.
War soweit gut.
Und dann einfach nur ein OLED Panel für mehr Bildqualität unter 1000€.
Finde das schon wieder lachhaft, was die gerade alles so nach oben verkaufen wollen.
Für meinen 77er OLED habe ich vor 2 Jahren wegen Wohnungserweiterung 2,5k springen lassen.
Für den ersten OLED vor über 5 Jahren 1,5k.
Für ein Monitor mache ich das jedoch ungerne.
Und der darf tatsächlich auch kleiner sein!
Frage mich echt, was einige für einen Schreibtisch haben.
Meiner ist knapp 80cm tief und garantiert nicht klein.
Aber ich stelle doch nicht einen Fernseher drauf.
Aber irgendwas muss ja dran sein an den ganzen großen Monitoren. :freak:

Cubitus
2023-12-13, 14:42:18
Nur 120 Hz und viel zu große 42". Da werden die 4K240 Hz QD-OLEDs die 2024 kommen sollen (mit echten Monitorgrößen - bisher noch zu große 32" angekündigt aber hoffentlich kommt auch noch 27" aber mit 32" kann man schon fast leben) IMO besser sein.


Ich dachte auch, dass die 42 Zoll eigentlich viel zu groß sind, aber mit der optionalen Krümmung geht es erstaunlich gut.
Was mir an dem Gerät sehr gut gefällt ist, dass in diesem Produkt das Beste aus zwei Welten vereint wird.

Man nehme einen OLED PC Monitor der fast die komplette HDR Palette abdeckt: Dolby Vision, Dolby Vision IQ, HDR, HDR10, HLG, HGiG.
Dazu noch Glossy, welches durch die SAR Technologie in Schach gehalten wird, aber den Vorteil von noch besseren Farben hat.

Dazu ein vollwertiger Smart TV mit richtig guter Konnektivität und allem Drum und Dran und zwei Tunern fürs Aufnehmen.
Für Filme oder Fußball im Männerhort ist das mehr als brauchbar.
Dazu hast du noch einen Dockingport am Standfuß.

Der Sound ist auch wirklich brauchbar, willst du mal was spielen ohne Kopfhörer. Oder mit externen Boxen dran, weil der Decoder kann Dolby Digital, Dolby Digital Plus, Dolby Atmos.
Ich finde 120Hz auf OLED schon ganz passabel und gut

Der Monitor ist eher für Entertaiment gedacht, weniger für den Wettkampf, aber das geht sicher auch. Preislich ist es aber schon ziemlich drüber.

Gast
2023-12-13, 15:08:59
Ich dachte auch, dass die 42 Zoll eigentlich viel zu groß sind, aber mit der optionalen Krümmung geht es erstaunlich gut.

42" ist nicht zu groß, aber 4k auf 42" in Schreibtischentfernung einfach zu wenig.

Ex3cut3r
2023-12-13, 19:33:59
weil OLED bei gleicher framerate in bewegung deutlich schärfer ist und man dadurch auch die sprünge zwischen den frames genauer sieht.

Und trotzdem hat man noch Motion Blur, bedingt durch die Technologie. Sample-and-Hold. :redface:

Was natürlich trotzdem zigfach besser ist, als ein normales LCD.

Savay
2023-12-13, 21:02:33
Das ist ja nun kein wirkliches Blur, sondern ein physiologisches Phänomen.

Wenn man der Bewegung der UFOs folgt oder sich drauf fokussiert, wirken die Einzelbilder schon irgendwie überblendet, aber trotzdem noch latent ruckeliger als mit nem IPS...vor allem im Sub 30fps Bereich.
Sobald man aber einen festen Punkt fokussiert oder quasi "dran vorbei sieht" sieht man die Einzelbilder tw. sehr deutlich.

1/8000s

Gast
2023-12-14, 10:41:36
Das ist ja nun kein wirkliches Blur, sondern ein physiologisches Phänomen.



Es ist schon ein richtiges blur, auch wenn es erst im Gehirn entsteht.

Vereinfacht gesagt, ist dein Auge schon an der Position wo sich das UFO im 90FPS shot steht (tatsächlich sogar noch weiter vorne).
Die Augen sehen das Ufo aber immer noch hinten an der 23FPS Position, und im Hirn werden die erwarteten Bilder mit den tatsächlich beobachteten vermischt und es entsteht ein wahrgenommener blur.

Allerdings nur wenn sich dar projizierte Bild und das reale nicht zu sehr unterscheiden. Wenn die zu weit auseinander sind (wie es bei 23fps ziemlich sicher schon der Fall ist) erkennt das Gehirn dass die wahrgenommene Bewegung nicht mehr zur erwarteten passt und du siehst ruckeln anstatt blur.

Ruckeln und blur haben mehr oder weniger die selben physiologischen Ursachen, nämlich dass das Gehirn Bewegungen automatisch weiter interpoliert.
Wenn die Informationen der Augen nicht mehr mit der Interpolation übereinstimmen entsteht je nach FPS eine ruckelige oder unscharfe Wahrnehmung.

Und das ist auch was viele nicht verstehen. Die Schwelle an der kein Ruckeln mehr wahrgenommen wird ist recht schnell überschritten. Je nach Bewegungsgeschwindigkeit und eigenen Voraussetzungen reichen da in der Regel 60-90FPS. Der dann entstehende Blur verringert sich aber immer weiter, und es ist mit aktueller Technik kein Ende sichtbar bei dem keine wahrgenommene Verbesserung mehr eintritt. Vermutlich bräuchte es dafür mindestens 1000FPS/Hz.

Dennis50300
2023-12-14, 14:11:01
Falsch, wobei mir auch noch keine Werbung untergekommen ist, die hohe Frequenzen mit hoher Bildqualität bewerben.

Fakt ist, dass die Bildschärfe in Bewegung deutlich zunimmt je mehr HZ/FPS man hat. Und fakt ist auch dass heute erhältliche Hardware noch weit vom Limit des menschlichen Sehapparates entfernt ist.



Auch vollkommener Blödsinn, die Bildschärfe selbst aktueller Monitore ist Auflösungsbedingt bestenfalls akzeptabel, einzelne Pixel immer noch wunderbar ersichtlich.




Anscheinend hast du noch nicht kapiert, dass eine hohe Refreshrate überhaupt Vorraussetzung ist damit Freesync/G-Sync/VRR zufriedenstellend funktioniert. Damit dies über den kompletten Bereich funktioniert braucht es eine Range von ca. 2,5 und mit den typischen 48Hz am unteren Limit braucht es damit mindestens 120Hz um das zu erreichen.
Mit 48-60Hz bist du extrem eingeschränkt.



Doch schaffe ich (vermutlich sogar auf 60Hz).



Der nächste Schwachsinn, die Latenz steigt im GPU-Limit und ist im CPU-Limit am niedrigsten (Stichwort Renderqueue), wobei dies dank Reflex nicht mehr so relevant ist.
FPS ist nicht gleich bessere Bildqualität und schon garnicht bessere Reaktionszeit des Gesamtsystems, weil, dein letzter Punkt nunmal schwachsinn ist.
Denn GPU braucht CPU und ist die CPU überladen, also Volllast dann ist blöderweise Schluss mit deinen Eingaben die noch zeitrichtig umgesetzt werden sollen.

Fakt ist das Gamegrafik immernoch Gaminggrafik ist und das mit dem Bildschirm erstmal rein garnichts zu tun hat.
Aber ja weg von dem schrott sRGB würde dann erstmal bedeutet wird gehen wieder zurück auf die Röhrenmonitore, auch brauchen halt sündhaft teuere 10-Bit Geräte, dann brauchst auch kein "HDR" Feature...

Ebenso Bullshit, die Bildschärfe funktioniert zu 100% wenn dein Bildschirm seine native Auflösung bekommt und da nichts "skaliert" werden muss... :rolleyes:

G-Sync/Freesync ist nichts anderes als die Anpassung der HZ an die aktuell laufenden FPS, das gibt erstmal dein Monitor vor in welcher Range er das kann und dann musst du entsprechend beim Rechner optimalerweise im Treiber das entsprechend limitieren.
Um nichts anderes geht es dabei

Was die Latenz angeht ist diese vollkommen irrelevant, solange dein Bildschirm wenigstens 60 Bilder pro Sekunde auch wirklich vom Rechner bekommt, genau das ist ja der Punkt.

Aber wenn man von Fachmathematik spricht, worüber technische Fakten bekannt sind, desweiteren die Fakten was der Mensch kann und was nicht, mit Werbeschwurbel hier herumzuqautschen macht ohnehin absolut 0 Sinn.

Wenn ich den Blödsinn von OLED's schonwieder auch lese sowie schonmal gehört habe.
Da ein LED schon nicht den durschnitt des Menschen einschränkt, tut ein OLED da genau garnichts besser.

Das man die Dinger Krümmen kann, hat an sich auf nicht wirklich einen Vorteil oder sogar "klappen" wie ein Notebook.

Bei der passenden Bildschirmgrösse auf Abstand X, geht es ohnehin eigentlich eben darum das man eben nicht den Kopf drehen muss und alles in den Blick bekommt.
Man holt sich schon bzw stellt sich auf Abstand X schon keinen zu grossen Bildschirm hin weil man eben genau das halt nicht möchte, also machts halt auch wenig Sinn.

Das man hier auch tatsächlich meint durch sowas wie "Human Benchmark" gescheit das messen zu können, zudem dann auch noch meint das man dem durchschnitt der Menschheit entspräche ist nicht weiter als das man ein wenig zu überzeugt ist von sich selbst ;D

Keine anständigen Quellenangaben...*lachhaft*

Viel wahrscheinlicher ist, das so mancher hier garkein Mensch ist, sondern eine KI zu Werbezwecken, Computer können definitiv schneller reagieren ob diese Reaktion allerdings folgerichtig ist, steht auf einem anderen Blatt Papier, wie intelligent ChatGPT ist, hat man ja schon gesehen :D

Es gibt auch noch ganz andere solche Reaktionstestbenchmarks, da kommen noch ganz andere Werte raus, von unter anderem 0,5xx ms
Das hat halt so oder so einen gewissen Beigeschmack

Der Link neulich hier wo man 100ms "zuschalten" konnte, also einfach auf nen Klotz auf der Seite nen 100ms Delay, vs dann 0ms, zeigt mir lediglich auf das die 180ms oder auch bei Gamgling beim Human Benchmark dann 140ms alles im sinnvollen Rahmen ist von -> merkt kein Mensch

Das andere ist, das gibt es so nicht in der Praxis, keine PS2, keine PS3, keine N64 und auch kein Rechner hat einen solchen InputLag.
Das würde jeden Stören und zwar immens, selbst mit wirklich günstigst Office-Hardware hat man das nicht.

Wenn ein Game solche Probleme macht, ist die CPU überladen oder man hat ohnehin eine Diashow weil es die Grafikkarte nichtmal im Ansatz schafft.

Wenn die Grafikkarte aber wenigstens mal zumindest in Richtung von 60 Bilder pro Sekunde abliefert gibt es auch da schon sowas eben nicht mehr.

Und ich weiss wovon ich spreche da ich ne Zeit lang ne PS3 hier hatte, die meistens keine 60/Sekunde ablieferte ;D

Desweiteren wären da ein Amiga500, Amiga600HD, N64, dem Quatsch hier nach wären ja auch RetroPC's vollkommen unbrauchbar, so von wegen vielleicht maximal nen DualCore (winXP), Bildschirm noch analog über D-Sub :crazy2:

Schon auch komisch das so ein Max Payne allerdings ein sehr schneller Game war, wo das wichtig gewesen wäre oder auch RTCW und Konsorten.
Zumal sowas haben wir schon mit nur nem SingleCore und 1gHz maximal gezockt.

Der grösste Punkt ist ohnehin, der Rechner erstmal selbst, denn da existiert die Virtuelle Welt erstmal Verzögerungsfrei, es ist nur Mathematik in den Schaltkreisen, wir greifen also mit den Eingabegeräten so oder so verzögert ein und sehen es auch leicht verzögert.
Das geht so oder so schonmal garnicht anders, es ist nur eben so, das des nicht relevant ist das es so ist.

Solange die CPU eben nicht limitiert und die Grafikkarte natürlich am Besten ebenso nicht.

Stichwort Render Queue
(Edit: Screenshot im Anhang dazu)
Umso mehr FPS die Kiste "zu ballern" hat, umso länger werden die Schaltkreise in der Kiste, in Abhängigkeiten und umso mehr Schaltfunktionen werden auch belegt von der CPU
Macht alles keine bessere Latenz, wenn die Kiste bessere Reaktionszeit mit dem ganzen drumherum abliefern soll.
mehr Parallele sowie Reihenschaltungen, längerer Signalweg, längere Signalzeiten.

Vielleicht geht man erstmal Lernen und verstehen wie der PC an sich funktioniert nach dem EVA-Prinzip (wenn man das erstmal versteht, dann versteht man auch warum "not to scale", Quatsch mit Sosse ist, das die aber natürlich lieber die "dickeren Grafikkarten" verkaufen wollen, ist logisch")

Wie schon gesagt, wo sind die Tabellen mit den Vergleichen, selbe Hardware vom Rechner, unterschiedliche Tastaturen, Mäuse, oder unterschiedliche Monitore während Maus/Tastatur immer gleich ist... etc.pp.
Man müsste solche Testaufbauen halt auch schon wirklich gescheit machen...

Alles was man, wenn man davon liesst, ist am Endeffekt -> heisse Luft

Das ist ja nun kein wirkliches Blur, sondern ein physiologisches Phänomen.

Wenn man der Bewegung der UFOs folgt oder sich drauf fokussiert, wirken die Einzelbilder schon irgendwie überblendet, aber trotzdem noch latent ruckeliger als mit nem IPS...vor allem im Sub 30fps Bereich.
Sobald man aber einen festen Punkt fokussiert oder quasi "dran vorbei sieht" sieht man die Einzelbilder tw. sehr deutlich.

1/8000s
Das da aus deinem Anhang kann garnicht gescheit funktionieren, es sei denn es ist Fake
Die 45 gingen noch, jedes 2. Bild ist dasselbe wie das vorherige
Die 23 allerdings, naja 90 /23 sind 3.9, das kann nix gescheites werden.

Das des eher eine reine Sache des Bildschirms ist versteht sich denk ich mal auch von selbst, dafür ist dann ja aber das G-Sync/Freesync da, falls dein wie in meinem Falle 75er Monitor die 75 nicht durchgängig bekommt.
Würde das ausgeglichen durch Anpassung der HZ Frequenz vom Monitor und in meinem Falle ginge das bis 30HZ/FPS, tja oder ich limitiere eben daurhaft bei 60 und kriege ich auch immer und da ist dann die Hz des AOC auch angepasst auf 60 entpsrechend.

Und trotzdem hat man noch Motion Blur, bedingt durch die Technologie. Sample-and-Hold. :redface:

Was natürlich trotzdem zigfach besser ist, als ein normales LCD.
Es gibt beim Gaming kein "echtes Motion Blur" wie bei Filmen
Schau dir mal gescheite Filme an wo man gescheites Motion Blur gemacht hat, das würde genauso wie RTX erstmal Rechenleistung brauchen, da qualmt die Kiste dann als gäbe es keinen Morgen,
das zieht dann also auch wieder die Performance runter

Auch wenn das bei manchen Games tatsächlich nicht schlecht aussieht, GTA III beispielsweise ist allerdings so ein Negativbeispiel damals gewesen -> "Unschärfe FX" ;D

Eigentlich seitens des Bildschirm ist genau das, unsinniges Post-Processing, was eben die Reaktionszeit dann auch verlängert

Gruss

Langlay
2023-12-14, 15:35:02
Stichwort Render Queue
(Edit: Screenshot im Anhang dazu)
Umso mehr FPS die Kiste "zu ballern" hat, umso länger werden die Schaltkreise in der Kiste, in Abhängigkeiten und umso mehr Schaltfunktionen werden auch belegt von der CPU
Macht alles keine bessere Latenz, wenn die Kiste bessere Reaktionszeit mit dem ganzen drumherum abliefern soll.
mehr Parallele sowie Reihenschaltungen, längerer Signalweg, längere Signalzeiten.


https://i.postimg.cc/SsrKbdcr/bubbles-trailer.gif

Schuster bleib bei deinen Leisten. Tu dir selber einen Gefallen und versuche nicht Dinge zu erklären die du eindeutig selber nicht verstanden hast.

Gipsel
2023-12-14, 15:55:37
@Dennis50300:
Ich lege Dir nahe, diesen Technologiethread zu Monitoren nicht mit teils themenfremdem Kram zuzumüllen. Du kannst gerne einen eigenen Thread zu menschlichen Reaktionszeiten aufmachen, aber hier ist das fehl am Platze.
Danke.

Savay
2023-12-15, 18:21:56
Es ist schon ein richtiges blur, auch wenn es erst im Gehirn entsteht.

Motion Blur bzw. Blur durch die Schaltzeiten ist ein physikalischer Effekt. Das hier eben nicht.
Der Punkt ist/war nicht, dass man es beim verfolgen der Bewegung etwas verwischt wahrnimmt, sondern je nachdem wie und wo man auf das Panel schaut (auf den Mauszeiger bspw.) es eben nicht gemittelt wird vom Gehirn.

Daher wirken OLEDs vorallem mit geringen Bildraten halt immer etwas ruckliger...und das mitteln beim verfolgen funktioniert auch nicht ganz so gut.


Das da aus deinem Anhang kann garnicht gescheit funktionieren, es sei denn es ist Fake

Es geht überhaupt nicht um die Synchronisation. :freak:

Gipsel
2023-12-15, 22:16:41
Motion Blur bzw. Blur durch die Schaltzeiten ist ein physikalischer Effekt. Das hier eben nicht.
Der Punkt ist/war nicht, dass man es beim verfolgen der Bewegung etwas verwischt wahrnimmt, sondern je nachdem wie und wo man auf das Panel schaut (auf den Mauszeiger bspw.)Streng genommen entsteht mit einem hold-type Display (quasi alle heutigen Displays) der Blur bei der Objektverfolgung schon auf der Netzhaut im Auge, nicht erst im Gehirn. Deswegen kann man das mit dem UFO-Test von Blurbusters doch auch mit einer bewegten Kamera nachstellen (da wird die Netzhaut quasi durch den Kamerachip ersetzt).

ChaosTM
2023-12-15, 22:20:40
Kann man schon --> sieh ufo test 60/120/240

sogar meine 138hz kann man herausfiltern..

Gast
2023-12-15, 23:37:59
Motion Blur bzw. Blur durch die Schaltzeiten ist ein physikalischer Effekt. Das hier eben nicht.


Das ist genauso ein physikalischer Effekt der durch die Art und Weise wie unsere Augen zusammen mit dem Gehirn Bilder erzeugt.

Kameras zeigen diesen Effekt nicht weil sie einen Verschluss besitzen den unsere Augen nicht haben. Der Verschluss simuliert im Prinzip sowas wie Backlight Strobing.

Savay
2023-12-16, 15:39:20
eswegen kann man das mit dem UFO-Test von Blurbusters doch auch mit einer bewegten Kamera nachstellen (da wird die Netzhaut quasi durch den Kamerachip ersetzt).

Man kann es mit der richtigen Belichtungszeit ja wirklich nur simulieren...
Das Problem ist aber, dass das verwischen in der Realität selektiv und nicht auf jeden sich verändernden Bildanteil auswirkt, wie es bei einer Kamera mit entsprechender Belichtungszeit der Fall ist.

Wenn ich einen festen Punkt anschaue (Mauszeiger bspw), und ich der Bewegung eben NICHT folge, kann ich auch bei dem 90FPS UFO prinzipiell durchaus sehen, dass dort Einzel Bilder dargestellt werden.
(der Hintergrund mit den Sternen sieht dann signifikant anders aus als beim verfolgen des UFOs.)
Wenn man das photographisch simulieren wollte sähe es mehr so aus wie eine gestackte Mehrfachbelichtung und eben nicht wie eine Langzeitbelichtung.

Das ist auch mit einer der Gründe warum ich eine Motion Blur Simulation in den Spielen mittlerweile lieber an lasse, obwohl ich den Effekt früher gehasst habe.

ChaosTM
2023-12-16, 15:45:41
Die beste Lösung wäre/ist BFI (black frame insertion), aber das kostet die Hälfte der Helligkeit.

das ist alles nicht neu..

Tobalt
2023-12-16, 16:15:27
gutes Strobing kostet deutlich mehr als die Hälfte der Helligkeit.. Die beste Lösung wären viel Hz.

exzentrik
2023-12-16, 17:50:53
Die beste Lösung wären viel Hz.

Was zugleich sehr hohe konstante fps voraussetzt. Stromanbieter lieben diesen Trick. :wink:

Gipsel
2023-12-16, 18:36:30
Man kann es mit der richtigen Belichtungszeit ja wirklich nur simulieren...
Das Problem ist aber, dass das verwischen in der Realität selektiv und nicht auf jeden sich verändernden Bildanteil auswirkt, wie es bei einer Kamera mit entsprechender Belichtungszeit der Fall ist.

Wenn ich einen festen Punkt anschaue (Mauszeiger bspw), und ich der Bewegung eben NICHT folge, kann ich auch bei dem 90FPS UFO prinzipiell durchaus sehen, dass dort Einzel Bilder dargestellt werden.Dir ist bekannt, daß der UFO-Test mit einer bewegter Kamera genau das Verfolgen eines Objekts (UFO oder auch Mauszeiger) nachstellt? (https://blurbusters.com/motion-tests/pursuit-camera) Und man kann natürlich auch Bilder (oder Videos) mit unbewegter Kamera machen. Man kann also beide Situationen nachstellen.
Egal, mein Einwurf war eigentlich, daß der Motionblur beim Verfolgen von Objekten auf Holdtype-Displays auch ein physikalischer Effekt ist. Der Blur ist am Ort der Lichtdetektion (egal ob Netzhaut oder Kamerachip) tatsächlich vorhanden, er entsteht nicht erst im Gehirn.

Gast
2023-12-16, 19:49:08
Die beste Lösung wäre/ist BFI (black frame insertion), aber das kostet die Hälfte der Helligkeit.



Strobing kostet viel mehr Helligkeit, und umso mehr desto geringer die Refreshrate ist.

Platos
2023-12-16, 20:24:39
gutes Strobing kostet deutlich mehr als die Hälfte der Helligkeit.. Die beste Lösung wären viel Hz.

Kein Problem fur SDR. Die Helligkeit von Monitoren/TVs ist so oder so vieeeeel zu hell im SDR Modus und eig. auch im HDR Modus (also die generelle, nicht die Peak-Helligkeit).

Dir ist bekannt, daß der UFO-Test mit einer bewegter Kamera genau das Verfolgen eines Objekts (UFO oder auch Mauszeiger) nachstellt? (https://blurbusters.com/motion-tests/pursuit-camera) Und man kann natürlich auch Bilder (oder Videos) mit unbewegter Kamera machen. Man kann also beide Situationen nachstellen.
Egal, mein Einwurf war eigentlich, daß der Motionblur beim Verfolgen von Objekten auf Holdtype-Displays auch ein physikalischer Effekt ist. Der Blur ist am Ort der Lichtdetektion (egal ob Netzhaut oder Kamerachip) tatsächlich vorhanden, er entsteht nicht erst im Gehirn.

Ich denke, er wollte mit seiner Aussage sagen, dass der Blurr in diesem Fall nicht am Displaygerät entsteht, sondern eben erst beim "Empfänger".

ChaosTM
2023-12-16, 20:32:39
hab 120 vs 138hz ausprobiert.


@Gipsel.. ja, manches entsteht im Gehirn..

Null Unterschied ! mein hirn ist zu langsasm ;)

Gipsel
2023-12-16, 23:10:45
@Gipsel.. ja, manches entsteht im Gehirn..Aber nicht der Motion Blur beim Verfolgen von Objekten auf dem Schirm.

Gast
2023-12-16, 23:51:03
Man kann es mit der richtigen Belichtungszeit ja wirklich nur simulieren...

Nicht ganz, mit einer langen Belichtungszeit und statischer Kamera hast du immer noch 2 sich überlagernde Einzelbilder. Wenn die Bewegungen langsam genug sind respektive Refreshrate und Framerate hoch genug ist es fast das selbe.
Mit einer bewegten Kamera hast du aber das selbe was auch das Auge wahrnimmt.

Gast
2023-12-17, 00:22:27
Kein Problem fur SDR. Die Helligkeit von Monitoren/TVs ist so oder so vieeeeel zu hell im SDR Modus und eig. auch im HDR Modus (also die generelle, nicht die Peak-Helligkeit).



Nicht wirklich, einerseits will man heute Spiele in HDR spielen (was mit backlight strobing verständlicherweise gar nicht geht) und andererseits sind die Helligkeitseinbußen mit strobing so hoch, dass sie durchaus schon außerhalb eines komplett abgedunkelten Raums zum Problem werden.

Savay
2023-12-17, 13:27:42
Der Blur ist am Ort der Lichtdetektion (egal ob Netzhaut oder Kamerachip) tatsächlich vorhanden, er entsteht nicht erst im Gehirn.

Deswegen hatte ich weiter vorne doch geschrieben, dass es ein physiologischer Effekt ist.
Nichtsdestotrotz lässt sich das mit einer Kamera nicht gänzlich korrekt nachstellen. Das ist mehr eine Illustration.
Der RS wurde schon genannt, dann kommt die Verarbeitung dazu und das unsere Augen ja keine homogene Verteilung der Fotorezeptoren haben und die deutlich unterschiedliche Charakteristika haben .

So müsste man da Kontextsensitiv eine Langzeitbelichtung mit einer Mehrfachbelichtung (mit kurzen Belichtungszeiten) kombinieren, je nachdem wo man grade hinsieht.

ist es fast das selbe.

Nein ist es nicht...es sieht für mich deutlich anders aus.
Bin ich ernsthaft der einzige bei dem das Hintergrundbild (mit den Sternen) NICHT wirklich geblurred wirkt wenn ich auf einen festen punkt schaue und mich auf die Bereiche außerhalb des zentralen Gesichtsfeld konzentriere? Auch bei 90FPS sehe ich außerhalb des zentralen Gesichtsfeld etwas das mehr eine Überlagerung von vielen Kurzzeitbelichtungen wirkt.

So ein bisschen wie diese gestackten Fotos:
https://petapixel.com/2023/12/10/mesmerizing-photos-reveal-the-complex-flight-paths-of-birds/

Gast
2023-12-17, 22:45:20
Nein ist es nicht...es sieht für mich deutlich anders aus.


90Hz/FPS ist nicht hoch. Es ist dann das selbe wenn die Bewegung nicht mehr als 1 pixel pro frame ist.

big_lebowski
2023-12-19, 20:10:42
Interessantes Ding, falls man nicht auf oled setzen möchte:

LG UltraGear 27GR95UM-B 160Hz 4K 1560-zone Mini LED IPS

A 27″ 3840 x 2160 (‘4K’ UHD) Nano IPS panel is adopted, with A-TW polarizer to reduce ‘IPS glow’.

https://pcmonitors.info/lg/lg-ultragear-27gr95um-b-160hz-4k-1560-zone-mini-led-ips/

https://www-lg-com.translate.goog/cn/monitors/lg-27gr95um-b?_x_tr_sl=auto&_x_tr_tl=de&_x_tr_hl=de&_x_tr_pto=wapp


geht in China für umgerechnet rund 1.292 Euro an den Start.
Der LG UltraGear 27GR95UM soll demnach voraussichtlich gegen Mitte 2024 auf dem deutschen Markt erscheinen.


https://www.prad.de/lg-4k144-monitor-mit-mini-led-und-displayhdr-1000/

anorakker
2023-12-19, 20:44:49
27" uralt Technik Guckloch für astronomische 1300€ Mitte 2024 - ok, Gamer lassen sich halt alles andrehen ;)

big_lebowski
2023-12-20, 08:14:54
27" uralt Technik Guckloch für astronomische 1300€ Mitte 2024 - ok, Gamer lassen sich halt alles andrehen ;)


(Zu) teuer ja. Aber uralt Technik würde ich so nicht unterschreiben. Zeig mir mal einen Monitor mit A-TW Polarizer und 1500 Dimming Zonen. In Zeiten von oled ist das ja eigentlich obsolet aber es soll Leute geben, die aus bestimmten Gründen noch LCD bevorzugen. (Helligkeit + evtl. Burn-in z.B.)

Tobalt
2023-12-20, 09:18:08
Helligkeit mit extra Polarizer... Ist die wirklich so hoch?

Man bedenke auch dass dual LCD (zwei gestackte LCD) einen Kontrast im Bereich 1Mio:1 haben, aber sie dennoch scheinbar kein konkurrenzfähiges Produkt abgeben.

Burn-In glaub ich erst wenn ich's seh ;p

big_lebowski
2023-12-20, 09:32:56
Helligkeit mit extra Polarizer... Ist die wirklich so hoch?

Man bedenke auch dass dual LCD (zwei gestackte LCD) einen Kontrast im Bereich 1Mio:1 haben, aber sie dennoch scheinbar kein konkurrenzfähiges Produkt abgeben.

Burn-In glaub ich erst wenn ich's seh ;p

1) Ja, scheint so zu sein.

zu 2) Monitore mit 2 LCD-Panel-Schichten sind aufgrund des hohen Preises, leider immer noch keine Option. Ich hatte die Hoffnung, dass die Dinger irgendwann mal Mainstream werden.

3) Burn-in bei Oled oder bei LCDs?

aceCrasher
2023-12-20, 09:56:03
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Mini-LED-5088-Local-Dimming-1436624/

27 Zoll
4K
160Hz
Mini-LED
5088 Dimming Zonen (!!!)
850 US-Dollar

Tobalt
2023-12-20, 09:56:37
Ich meine burn in bei OLED. Habe ich bei keinem meiner OLED Geräte oder bei bekannten je gesehen. Kenne ich nur aus dem Internet 😉

aceCrasher
2023-12-20, 10:02:00
Ich meine burn in bei OLED. Habe ich bei keinem meiner OLED Geräte oder bei bekannten je gesehen. Kenne ich nur aus dem Internet 😉
Ich hab gerade erst bei einem Freund ein S8 mit katastrophalem Burn-in gesehen.

big_lebowski
2023-12-20, 10:04:51
https://www.pcgameshardware.de/Monitor-Display-Hardware-154105/News/Mini-LED-5088-Local-Dimming-1436624/

27 Zoll
4K
160Hz
Mini-LED
5088 Dimming Zonen (!!!)
850 US-Dollar

Auf den ersten Blick wirklich nice. Aber leider geht aus den Specs nicht hervor, dass ein A-TW Polarizer zum Einsatz kommt. Daher muss man wie immer mit IPS-Glow rechnen.

@Tobalt: Gut, diese Diskussion wollte ich hier nicht noch einmal führen. Aus diesem Grund auch das "evtl. Burn-in" in meinem Posting. Sprich: nicht unbedingt meine Auffassung aber immer noch die Auffassung von Vielen, die sich nach wie vor, vor Oleds scheuen.

Cubitus
2023-12-20, 10:35:38
Ich hab gerade erst bei einem Freund ein S8 mit katastrophalem Burn-in gesehen.

Samsung oder? Bei den "alten" Panels hatten sie das noch nicht im Griff.
Bei LG gibt es mittlerweile sehr gute Methoden.

Aber bei den OLEDs ist es einfach so, dass die Alterung immer stärker wird.
Die Qualität wird mit den Jahren nachlassen, wie schlimm das wird, weiß noch keiner.

Für die Hersteller ist so eine Obsoleszenz aber gut.
Wenn OLED billiger wird, kann man sich in drei bis fünf Jahren regelmäßig ein neues Display kaufen. Einfache Milchmädchenrechnung:

32 Zoll, 4K, HDR vom Feinsten und 165 Hz, yay, nur 800 Euro ^^.
Pixel Burn In Garantie, 3 Jahre, nice.

Im vierten Jahr ist er dann kaputt.

Egal, nochmal 800 Euro für das bessere Modell investiert, sind schon 1600 Euro, nach 3-4 Jahren wieder 800 Euro. 2400 Euro.

MINI-LED mit VA, hat ein paar Nachteile, aber die Qualität ist fast so gut wie OLED. Kaufpreis 800 Euro. Lebensdauer 7-10 Jahre.

Tobalt
2023-12-20, 14:14:12
Auf den ersten Blick wirklich nice. Aber leider geht aus den Specs nicht hervor, dass ein A-TW Polarizer zum Einsatz kommt. Daher muss man wie immer mit IPS-Glow rechnen.

Bei FALD sollte Glow nicht so schlimm sein. Das backlight wird ja bei dunklen Inhalten eh zurück genommen.

Aber für mich ist FAlD einfach generell nichts, solange es da nicht mind. eine 6stellige Anzahl an Zonen gibt.

Ich meine: Leute machen einen Shitstorm wenn irgwndwo 4:2:0 chroma subsampling vorgenommen wird, aber wenn man 1000e pixel in einer FALD zone zusammenfasst, ist es OK..

Troyan
2023-12-20, 14:47:01
Vielleicht weil man nicht mit den massiven Nachteilen von OLED leben will.

fondness
2023-12-20, 17:21:44
Vielleicht weil man nicht mit den massiven Nachteilen von OLED leben will.

zB?

Savay
2023-12-20, 17:30:56
zu 2) Monitore mit 2 LCD-Panel-Schichten sind aufgrund des hohen Preises, leider immer noch keine Option. Ich hatte die Hoffnung, dass die Dinger irgendwann mal Mainstream werden.


Das Problem dürfte der Stromverbrauch sein.
Du wirst damit einfach alle Richtlinien und Vorgaben reißen...womit ein paar Märkte schlicht schon regulatorisch wegfallen.

Oder die Spitzenhelligkeit leidet...

Troyan
2023-12-20, 18:42:45
zB?

Einbrenn-Gefahr und geringe Helligkeit.

Bei LGs WOLED als Fernseher auch noch Nah-Schwarz-Problematik.

Tobalt
2023-12-20, 18:58:06
Kann nichts davon bestätigen. Mein C9 ist ja nun nicht mehr taufrisch. Er lief viel die Jahre über. Bestimmt hat die theoretische Max Helligkeit etwas gelitten. Das Ding ist dass ich sie nicht brauche. Tagsüber läuft er meist auf 35 Brightness. Nachts auf 0.

Der HDR Mode ist mir ehrlich gesagt schon zu hell bzw. gewöhnungsbedürftig.

Sardaukar.nsn
2023-12-20, 21:30:24
Einbrenn-Gefahr und geringe Helligkeit.

Bei LGs WOLED als Fernseher auch noch Nah-Schwarz-Problematik.

Probieren hier im Forum sicher ein Dutzend Leute im Alltag aus. Also ich habe mich an die 4 Millionen selbstleuchtenden Pixel schnell gewöhnt. Dabei geht es nicht nur Qualität sondern auch den Preis. Der LG 42" C2 für gute 900€ mit 120hz, Hdmi 2.1 VRR wischt halt technologisch den Boden auf allen Konkurrenten. Genau wie der 2019er 65" C9 im Wohnzimmmer damals für ~1700€.

In der Hinsicht ist LG mit seinen OLED gleichzeitig der Technologie- und Preisführer. Niemand wünscht sich hier ein Upgrade des vier Jahre alten C9 TVs, weil er eben allen anderen Technologien schon damals so meilenweit voraus war.

redpanther
2023-12-21, 10:08:57
Kann nichts davon bestätigen. Mein C9 ist ja nun nicht mehr taufrisch. Er lief viel die Jahre über. Bestimmt hat die theoretische Max Helligkeit etwas gelitten. Das Ding ist dass ich sie nicht brauche. Tagsüber läuft er meist auf 35 Brightness. Nachts auf 0.

Der HDR Mode ist mir ehrlich gesagt schon zu hell bzw. gewöhnungsbedürftig.

Es gibt halt Leute die ihren Fernsehe im Glaushaus stehen haben und dort 24h NTV mit Laufband an haben.
DA würde ich auch keinen OLED hin stellen.

Die genannten Nachteile gegenüber LCD Stimmen, "Massiv" sind sie aber sicher nicht.

"Nah-Schwarz-Problematik" aber, dürfte eher Hersteller/Firmware spezifisch sein, als OLED spezifisch.


Hinzu kommt das auch LCDs nicht frei von "Abnutzungs Erscheinungen" sind.
Siehe aktuell laufenden Langzeit Test bei RTINGS:
"When people talk about uniformity issues over time, they usually refer to burn-in on OLED TVs like the above examples, but OLED TVs aren't the only ones that develop uniformity problems. Most of the TVs on this test have been running for about 6,000 hours, and some of the LCD TVs we're testing are also showing worsening uniformity issues. It's especially noticeable on the Insignia F50 QLED, the LG NANO90 2021, and the Samsung TU8000, which are all rapidly degrading, but a few other TVs also show severe uniformity issues that are changing over time. These uniformity issues aren't the same thing as burn-in, but in many cases, they're just as noticeable and distracting, if not worse."

Thunder99
2023-12-21, 11:09:34
Ich frage mich warum sie nicht schon ein 34" QD-OLED Nachfolger vom G8 angekündigt haben. Dieser wurde ja zu Black Friday ja raus geschmissen was u.a. einen baldigen Nachfolger erklären würde.
Panel gibt es ja schon, das 240Hz Modell. Aber nur nicht in der Grösse. Der Preis des G8 hat mich dazu bewogen jetzt schon umzusteigen und habe es nicht bereut.

- Brauche es nicht sehr hell
- Burn-In sollte kein Problem sein, da ich nicht lange statische Inhalte anzeigen lasse und ansonsten die Bildschirmzeit meistens gering ist (ausserhalb der Ferien).

PHuV
2023-12-21, 13:41:21
LG bringt neue Monitore:
https://www.notebookcheck.com/LG-Neuer-OLED-Monitor-fuer-Gamer-mit-4K-Aufloesung-kann-dank-Dual-Hz-Feature-bis-zu-480-Hz-darstellen.785802.0.html
LG 32GS95UE
4K 240hz / 1080p 480hz w-OLED
(switch between at a push of a button)
32" w-OLED
Pixel Sound Technology

LG39GS95QE
39" 3440x1440P Ultrawide w-OLED
Ach ne, LG-Leute, 39" mit schwachen 3440x1440P? :facepalm: Leider doch kein Ersatz für meinen treuen 38GL950G-B. Gestern in Pubg hatte ich es wieder gemerkt, daß es sehr wohl vorteilhaft, wenn man bereit sehen kann, da habe ich einen in der Ecke gesehen, den ich mit 16:9 wohl glatt übersehen hätte.

Ansonsten hört sich die 240/480 Hz Schaltung beim 32GS95UE sehr interessant an.

Ich freu mich immer noch über meinen Dell U3224KBA, besonders wenn ich Bilder anschaue, die ich endlich nativ geniesen kann. Die Bilder vom Pixel 8 Pro aus dem Norwegen Urlaub haben aber alle in der horizontalen schwarze Ränder. ;D Ich kann das Bild nativ hinstellen und hab noch einen Rand für den Browser übrig.

aceCrasher
2023-12-21, 15:06:24
Ich weiß echt nicht was so schwer daran sein soll mal einen 38-40“ 5120x2160 Monitor mit >120Hz auf den Markt zu bringen.

Ex3cut3r
2023-12-21, 15:46:29
Diese Monitore sind alle so 2-4 Jahre in Entwicklung. 2019/2020 war 3440x1440 noch ziemlich "in" 5120x2160 Monitore mit 144HZ, werden denke ich so langsam ende 2024/25 erscheinen.

fulgore1101
2023-12-21, 18:32:51
Kann jemand was zum Flackern beim Cooler Master GP27Q/ GP27-FQS in Verbindung mit lokal Dimming und VRR sagen? Tritt das immer noch auf? Beim GP27U wurde das ja größtenteils behoben, aber zum GP27Q finde ich dazu nichts aktuelles.
Kann der GP27Q eigentlich VRR über HDMI wenn ich eine Konsole anschließe?

Troyan
2023-12-22, 11:59:23
Kann jemand was zum Flackern beim Cooler Master GP27Q/ GP27-FQS in Verbindung mit lokal Dimming und VRR sagen? Tritt das immer noch auf? Beim GP27U wurde das ja größtenteils behoben, aber zum GP27Q finde ich dazu nichts aktuelles.
Kann der GP27Q eigentlich VRR über HDMI wenn ich eine Konsole anschließe?

Wurde beim GP27U nicht behoben. Hatte den hier und war sichtbar. Habe den deswegen zurückgeschickt. Zum 1440p Monitor kann ich nichts sagen.

fulgore1101
2023-12-23, 09:12:17
Wurde beim GP27U nicht behoben. Hatte den hier und war sichtbar. Habe den deswegen zurückgeschickt. Zum 1440p Monitor kann ich nichts sagen.

Schade. Das klang bei Monitors unboxed so, dass es mit synthetischen Tests provoziert werden kann, aber im Spiel nicht sichtbar wäre.

Nightspider
2023-12-23, 13:08:07
Einbrenn-Gefahr und geringe Helligkeit.

Bullshit.

Die meisten Leute hier drehen die Helligkeit herunter bei ihren OLEDs.

Wenn das ein massiver Nachteil für dich ist müssen die Vorteile von OLEDs ja wohl übelst extrem massiv sein.

Jeder LCD stinkt meilenweit ab beim Gaming gegen OLEDs.

Die Immersion ist auf einem 34" Ultra-Widescreen mit OLED viel höher.
Hab erst seit dem OLED wieder richtig fun mit vielen Spielen.

robbitop
2023-12-23, 15:44:31
Die einzigen echten Nachteile sind IMO bei Office. Und bei Leuten die offenbar nicht zur Arbeit müssen und kein Rollos/Gardinen oä haben und dann bei voller Mittagssonne erwarten dass ihre Retina vom Monitor gegrillt wird. X-D

Platos
2023-12-23, 16:45:09
Ah ja, und heute moderne "Dimmzonen" bei dem ständig irgendwo gedimmt wird nicht vergessen.

Das ist gerade bei Bild- oder Videobearbeitung ein graus. Bei Filmen soll es ja (mittlerweile) nicht mehr so schlimm sein. Bei Gaming kann es aber möglicherweise nerven, wenn das HUD dann extrem dunkel wird.

Das gilt hald nur für die neueren OLEDs. Die älteren haben das ja noch nicht bzw. konnte man es da noch abschalten.

Tobalt
2023-12-23, 16:56:28
Redest du von FALD LCD? im Zusammenhang mit OLED Displays kann ich deinem Post nicht den geringsten Sinn entnehmen..

Platos
2023-12-23, 17:17:35
Redest du von FALD LCD? im Zusammenhang mit OLED Displays kann ich deinem Post nicht den geringsten Sinn entnehmen..

Nein, ich rede von Dimming bei OLEDs (z.B bei LG), die entweder das ganze Display anfangen zu dimmen (bei statischen Inhalten. Desktop ahoi) oder aber nur teile davon (Logos, HUD usw). Beides ist nicht mehr ausschaltbar in modernen LG OLEDs.

Nightspider
2023-12-23, 17:38:00
Solche Probleme habe ich nicht mit meinem QD-OLED Monitor.

Vielleicht wenn ich im SDR Modus Office mit 100% Helligkeit nutzen wollen würde aber wer will das schon.

Linmoum
2023-12-23, 18:01:46
Nein, ich rede von Dimming bei OLEDs (z.B bei LG), die entweder das ganze Display anfangen zu dimmen (bei statischen Inhalten. Desktop ahoi) oder aber nur teile davon (Logos, HUD usw). Beides ist nicht mehr ausschaltbar in modernen LG OLEDs.TPC und GSR lassen sich auch weiterhin bei LG OLEDs abschalten.

Unabhängig davon in der Realität noch nie das Problem gewesen, zu dem es gemacht wird.

Platos
2023-12-23, 18:06:30
Quelle?

Es ist eben nicht mehr abschaltbar im service Menu.

Gast
2023-12-23, 18:08:58
Nein, ich rede von Dimming bei OLEDs (z.B bei LG), die entweder das ganze Display anfangen zu dimmen (bei statischen Inhalten. Desktop ahoi) oder aber nur teile davon (Logos, HUD usw). Beides ist nicht mehr ausschaltbar in modernen LG OLEDs.

Das gibt es nur bei Fernseher, und nicht bei OLED-Monitoren (und kann dort auch über ein verstecktes Menü deaktiviert werden).

Im SDR-Modus gibt es auch kein APL-Dimming, und die max. fullscreen Helligkeit ist für SDR weit mehr als genug.

robbitop
2023-12-23, 18:11:13
LG hat jetzt eine 32“ 4K240 OLED vorgestellt. LG UltraGear 32GS95UE

https://www.computerbase.de/2023-12/neue-oled-monitore-von-lg-von-4k-mit-240-hz-auf-fhd-mit-480-hz-umschalten/

Kann alternativ mit 1080p480 betrieben werden.
Dank der höheren Auflösung sollte der Officenachteil wegen des unpassenden subpixel layouts halbwegs umgangen sein. Hoffe ich.
Dank Frame Generation (FSR3/DLSS3) sollte man auch zumindest teilweise die höhere Hz Range ausnutzen können um mehr Bewegtschärfe zu bekommen.
So ein Monitor und eine 5070 (oder irgendwas was deutlich unter 1000€ kostet- ggf gibts dann ja auch gebrauchte 4090 für den Preis - wer weiß) wäre dann ggf was für mich Anfang 2025.

Platos
2023-12-23, 18:18:41
Dank der höheren Auflösung sollte der Officenachteil wegen des unpassenden subpixel layouts halbwegs umgangen sein. Hoffe ich.


Weniger sichtbar ist wohl eher das richtige Wort. Umgangen wird gar nichts. Es ist nur weniger stark sichtbar. Das Problem besteht aber weiterhin und für Leute, die schon auf 4k 27" sind, wird das auch weiterhin bestehen.

Für Leute, die von 1440p 27" kommen, ist das vlt. kein Problem.

Tobalt
2023-12-23, 18:28:01
Endlich mal ein Hersteller, der für subnative Auflösung mehr Hz anbietet. 👍 Das Gerät klingt sehr spannend. Für eSports Games, wo die CPU auch mal deutlich über 240 fps rausballert, ein eklatanter Mehrwert.

Nightspider
2023-12-23, 18:35:20
Es ist nur weniger stark sichtbar.

Quatsch doch nicht Müll ohne Erfahrung zu haben.

Es sollte deutlich weniger sichtbar sein und komplett unter die Wahrnehmungsgrenze der meisten Leute rutschen.

Ex3cut3r
2023-12-23, 18:43:10
Quatsch doch nicht Müll ohne Erfahrung zu haben.

Es sollte deutlich weniger sichtbar sein und komplett unter die Wahrnehmungsgrenze der meisten Leute rutschen.

Und woher willst du jetzt wissen, dass dafür schon 138 PPi reichen? Bei den 34" und 27" mit 1440p reichen die 110 PPi dafür ja nicht aus. Also woher hast du da schon wieder Informationen?

Also, quatsch doch bitte keinen Müll, ohne Erfahrungen mit 32" 4K (QD) OLED zu haben. :rolleyes:

robbitop
2023-12-23, 18:43:46
Weniger sichtbar ist wohl eher das richtige Wort. Umgangen wird gar nichts. Es ist nur weniger stark sichtbar. Das Problem besteht aber weiterhin und für Leute, die schon auf 4k 27" sind, wird das auch weiterhin bestehen.

Für Leute, die von 1440p 27" kommen, ist das vlt. kein Problem.
Jo dann passt es hoffentlich für mich. Ich arbeite tagsüber an dem Ding und nachts wird gezockt. Ich komme von einem 2014er 27“ 1440p144 mit IPS.
Ich hätte auch lieber wieder 27“ aber da scheint es ja leider nur 1440p zu geben mit OLED. :-/

Nightspider
2023-12-23, 18:47:57
Und woher willst du jetzt wissen, dass

Konjunktiv kennst du oder?

Knapp 27% mehr Pixel pro Zoll sind ein guter Sprung und bisher ist die Rücksendequote nicht gerade hoch was dieses Thema in den Foren betrifft.

Und ihr wisst rein gar nichts über das zukünftige Subpixellayout.

Die Pentilematrix Diskussion ist damals auch plötzlich gestorben als die Pixeldichte bei Smartphones auf ein neues Level gehoben wurde, weil es danach kaum noch jemand wahrgenommen hat.

Gast
2023-12-23, 19:04:09
Das Subpixellayout ist überhaupt kein Problem. Cleartype ist das Problem.

Komischerweise hört man von keinem Reviewer der auf einem Mac testet irgendeine Beschwerde über das Subpixellayout, und was ist der große Unterschied, auf MacOS gibt es kein Cleartype.

fondness
2023-12-23, 19:07:08
Die Pentilematrix Diskussion ist damals auch plötzlich gestorben als die Pixeldichte bei Smartphones auf ein neues Level gehoben wurde, weil es danach kaum noch jemand wahrgenommen hat.

Ja, nur ist eine pixeldichte wie auf Smartphones nicht praktikabel.

Nightspider
2023-12-23, 19:10:47
Genauso wenig wie der Augenabstand

Durango
2023-12-23, 19:28:23
Jeder LCD stinkt meilenweit ab beim Gaming gegen OLEDs.
Nur wer benutzt seinen Computer rein zum Spielen? Jetzt grad ist jeder, der das hier liest, in Windows o.ä. unterwegs. Schön mit vielen statischen Elementen, die halt einbrennen. Einbrennschutz heißt bisher ja auch nur, dass alle Lampen gleichmäßig abgebrannt werden. Ich will halt keinen Monitor kaufen, der nur drei Jahre hält.
Und wenn man den OLED nur zum Spielen hat, kann man auch gleich einen LG-Fernseher nehmen.

Nightspider
2023-12-23, 19:32:07
Alienware gibt 3 Jahre Garantie gegen BurnIn.

Was machst du dir also Gedanken? Wenn du nach 2,5 Jahren auch nur leichtes BurnIn festellen würdest, könntest du auf die Garantie zurückgreifen.

Und die neue Generation 2024 dürfte von der Lebensdauer wahrscheinlich noch ein gutes Stück besser werden.

Simon
2023-12-23, 20:26:55
Nur wer benutzt seinen Computer rein zum Spielen? Jetzt grad ist jeder, der das hier liest, in Windows o.ä. unterwegs. Schön mit vielen statischen Elementen, die halt einbrennen. Einbrennschutz heißt bisher ja auch nur, dass alle Lampen gleichmäßig abgebrannt werden. Ich will halt keinen Monitor kaufen, der nur drei Jahre hält.
Und wenn man den OLED nur zum Spielen hat, kann man auch gleich einen LG-Fernseher nehmen.
Ich benutze meinen PC nur zum Spielen. Hab einen LG CX OLED TV.
Alles andere mache ich am Laptop oder am iPhone.

Platos
2023-12-23, 20:45:16
Quatsch doch nicht Müll ohne Erfahrung zu haben.

Es sollte deutlich weniger sichtbar sein und komplett unter die Wahrnehmungsgrenze der meisten Leute rutschen.

Vlt. solltest du einen anständigen Ton drauf haben. Vlt. nimmt man dich dann ernst...

Platos
2023-12-23, 20:51:02
Jo dann passt es hoffentlich für mich. Ich arbeite tagsüber an dem Ding und nachts wird gezockt. Ich komme von einem 2014er 27“ 1440p144 mit IPS.
Ich hätte auch lieber wieder 27“ aber da scheint es ja leider nur 1440p zu geben mit OLED. :-/

Ja, dürfte dann wohl so sein bei dir. Ist dann aber ein bisschen unnötig verschenkte Perfomance, 4k zu kaufen, dafür unnötig FPS zu verschenken, wenn man es eig. gar nicht benötigt (oder eben hald nur wegen einem schlechten Subpixelrendering- bzw. Layout).

Aber die Monitore können auch nichts ändern, wenn sie nicht gerade genau das gleiche Subpixellayout wie das von den LCD RGBs haben (RGB alleine reicht ja nicht, es müsste auch noch die gleiche Form und Anordnung haben).

Windows müsste sich da ändern und das Subpixelrendering von OS Seite her über alles erzwingbar machbar machen und dann das Subpixelrendering automatisch am Subpixellayout anpassen und nicht per Profil. Ist aber leider nicht so. Und so wie ich Microsoft kenne, wird es auch in absehbarer Zeit nicht anders sein.

Savay
2023-12-23, 22:39:17
Quelle?

Quelle wo das mal ein reales und komplett non-imaginäres Problem ist?

Das Problem besteht aber weiterhin und für Leute, die schon auf 4k 27" sind, wird das auch weiterhin bestehen.


Sicher?
Hast du schon ein "non-Stripe" OLED mit 140ppi+ in real gesehen?

Tatsächlich bin ich der ansicht, dass WOLED mit 140ppi durchaus praktikabel ist. (btw. ich habe 3x 27" mit 4k im Büro.)
200ppi+ am Desktop wäre durchaus besser, aber da ich im Wohnzimmer nen WOLED mit 2160p und einen AMOLED Laptop (mit dreieckigem Layout) mit 1800p habe kann ich die Sitzabstände ausreichend genug simulieren.
Am Ende ist das ja ein rein geometrisches Problem.

Nightspider
2023-12-24, 00:06:26
Ja das kommt noch dazu.

Die meisten würden einen 32" Monitor auf dem Schreibtisch weiter nach hinten schieben wenn sie vorher einen 27" er hatten und die Bildgröße optimal finden.

Also ist das mit dem PPI Vergleich vielleicht nicht direkt sinnvoll.

Wenn man den 32 Zoll OLED grob geschätzt 20cm weiter nach hinten schiebt, bis das Bild genauso groß ist wie beim 27 Zoller, dann steigt die "Pixeldichte" um 50%.

Würde mich schon arg wundern, wenn es dann noch viele gibt, die über das Subpixellayout jammern würden.

4K hat immerhin 2,2 mal so viel Pixel wie 1440p.
Da hat man im Office nicht nur wesentlich mehr Pixel um Schriften und Linien schärfer darzustellen sondern die Subpixel werden deutlich kleiner wodurch die Farbsäume eben auch schrumpfen.

Ich bräuchte aber wohl eine Ultra-Widescreen Variante. Normales 16:9 kommt mir jetzt so winzig vor, das deutlich weniger Immersion aufkommt.

robbitop
2023-12-24, 00:36:39
Ja, dürfte dann wohl so sein bei dir. Ist dann aber ein bisschen unnötig verschenkte Perfomance, 4k zu kaufen, dafür unnötig FPS zu verschenken, wenn man es eig. gar nicht benötigt (oder eben hald nur wegen einem schlechten Subpixelrendering- bzw. Layout).


Ach iwo. Dank modernem Upsampling ist das gar kein Problem (DLSS und Co). :)
Auf meinem LG OLED fahre ich das auch ständig und es sieht super aus. Je nach bock zocken am Schreibtisch in 1440p oder am TV in 4K. Auflösujg fahre ich jetzt schon immer 4K. Allerdings am Monitor gedownsampled. Und mit DLSS upgesampelt.

robbitop
2023-12-24, 00:41:10
Ja das kommt noch dazu.

Die meisten würden einen 32" Monitor auf dem Schreibtisch weiter nach hinten schieben wenn sie vorher einen 27" er hatten und die Bildgröße optimal finden.

Also ist das mit dem PPI Vergleich vielleicht nicht direkt sinnvoll.

Wenn man den 32 Zoll OLED grob geschätzt 20cm weiter nach hinten schiebt, bis das Bild genauso groß ist wie beim 27 Zoller, dann steigt die "Pixeldichte" um 50%.

Würde mich schon arg wundern, wenn es dann noch viele gibt, die über das Subpixellayout jammern würden.

4K hat immerhin 2,2 mal so viel Pixel wie 1440p.
Da hat man im Office nicht nur wesentlich mehr Pixel um Schriften und Linien schärfer darzustellen sondern die Subpixel werden deutlich kleiner wodurch die Farbsäume eben auch schrumpfen.

Ich bräuchte aber wohl eine Ultra-Widescreen Variante. Normales 16:9 kommt mir jetzt so winzig vor, das deutlich weniger Immersion aufkommt.
21:9 wäre auch total gut. Aber man müsste endlich einen Schritt nach vorn gehen von der Auflösung. 5120x2160 bei 34“ 21:9 - das wäre was. Gern bei 240 Hz. Das sollte mit DP2.0 kein Problem sein.

Nightspider
2023-12-24, 01:02:24
Das wäre auch mein Wunschgerät.

5160*2160 schafft jetzt schon die 4090 mit DLSS-Q in den meisten Games.

Für die RTX5000 Reihe könnte sogar noch höher aufgelöste Monitore kommen.

Bevor ich mit Upsamling anfing habe ich manchmal mit Downsampling in 2880p 16:9 gezockt. Da fand ich das Bild auch ohne temporale Komponente quasi perfekt.
Ich müsste aber erstmal Upsampling auf einem Monitor mit 4K Pixeldichte testen.

Slipknot79
2023-12-24, 03:37:13
Es wäre 24:10 perfekt, also 3840x1600 als OLED. Mit dieser Auflösung besteht noch dazu kaum Risiko, dass die 5090 damit überfordert wäre. (y)
Die 4090 ist jetzt schon bereits überfordert mit 4k wenn man sich durch die Foren liest. Und da kommen noch einige AAA-Titel raus in Zukunft. (y)

Nightspider
2023-12-24, 03:44:14
Hat wohl jeder so seine eigenen Präferenzen aber ich stell dann lieber 1-2 unnütze Grafikeffekte aus, die nichts bringen oder kaum auffallen aber übermäßig viel Leistung verschleudern.

CompuJoe
2023-12-24, 04:17:27
Möchte mal meine Erfahrung in Sachen einbrennen mit OLED Monitoren hier teilen.

Monitor ist ein LG Ultragear 48GQ900

12 Monate steht der jetzt hier, im Prinzip täglich 5-9 (heute 13 Stunden Cyberpunk ^^) Stunden an, mache neben zocken viel Onlinerecherche, mehrere Browserfenster offen, teils für Stunden in der selben Position!

Kein Einbrennen, keine Schatten, und ich überspringe das Imagecleaning relativ oft!

Experiment geglückt, war skeptisch, bleibe bei OLED

Tobalt
2023-12-24, 06:53:58
Danke CompuJoe. Magst du noch sagen, welche Helligkeit du idR.. eingestellt hast?

robbitop
2023-12-24, 07:45:18
Dass Zockem unproblematisch ist haben doch schon die RTINGS Stresstests vor Jahren gezeigt. Keine neue Information.
Was problematisch ist stundenlanges Office oder Nachrichtensender mit großen statischen Elementen.

Sardaukar.nsn
2023-12-24, 09:47:25
@CompuJoe Geht mir mit dem 42" C2 ganz ähnlich, bin optimistisch das erst bei C8 wieder ein neuer fällig wird.

Asaraki
2023-12-24, 11:39:41
Mein C2 hat jetzt auch ein Jahr Homeoffice mit Tabellen und scripts ohne Probleme überlebt :) hab ich auch nicht erwartet, denke das dritte Jahr wird dann spannender ^^

Platos
2023-12-24, 11:53:14
Ach iwo. Dank modernem Upsampling ist das gar kein Problem (DLSS und Co). :)
Auf meinem LG OLED fahre ich das auch ständig und es sieht super aus. Je nach bock zocken am Schreibtisch in 1440p oder am TV in 4K. Auflösujg fahre ich jetzt schon immer 4K. Allerdings am Monitor gedownsampled. Und mit DLSS upgesampelt.

Ja, also klar, wenn das bei dir ok ist, why not. Aber ich müsste dann halt auf 5k umsteigen, nur um ~das gleiche Erlebnis zu haben. Ich bin weiterhin für ein vom OS aufgezwungenes Subpixelrendering, dass das Subpixelrendering direkt an Monitordaten (Subpixellayout) anpasst.

Btw: Also ich habe mit einer 4070Ti (gebraucht gekauft) in 4k oft Probleme, die 60FPS zu halten (2500MHz). Also wohlgemerkt mit DLSS...

Träum also mal schön weiter :tongue:


(Und nein, es liegt (in diesen Fällen) nicht am Speicher).

Möchte mal meine Erfahrung in Sachen einbrennen mit OLED Monitoren hier teilen.

Monitor ist ein LG Ultragear 48GQ900

12 Monate steht der jetzt hier, im Prinzip täglich 5-9 (heute 13 Stunden Cyberpunk ^^) Stunden an, mache neben zocken viel Onlinerecherche, mehrere Browserfenster offen, teils für Stunden in der selben Position!

Kein Einbrennen, keine Schatten, und ich überspringe das Imagecleaning relativ oft!

Experiment geglückt, war skeptisch, bleibe bei OLED

Es gibt zwar schon auch einige Fälle, bei denen schon nach 6-12 Monaten einbrennen ein Problem war, aber generell gesagt sind 12 Monate ja nichts.

Ein TV behält man normalerweise 6+ Jahre (klar... die Enthusiasten hier so lange, wie eine Unterhose). Abgesehen davon fangen eben viele nach 2-3 Jahren an.

Wobei so oder so: Es gibt auf der einen Seite Leute wie du, die Gutes berichten und auf der anderen Seite gibts genug Leute, die das Gegenteil berichten. In beiden Fällen sind das nichts wie Einzelfälle. Es gibt eigentlich nur eine halbwegs brauchbare Stichprobe und das ist bei RTINGs. Die belegen jedes mal von neuem, dass eben Officenutzung (viel statisches) nicht wirklich ideal ist und man mit burnin rechnen muss.

Abgesehen davon: "teils für Stunden" ist halt nicht wirklich 8h am Tag office. Das hört sich für mich so nach ab und zu mal 3-4h.

OLEDs sind dann Office-tauglich, wenns (mindestens) 5 Jahre Garantie auf Burn-in gibt oder Tests bei RTINGs eben aufzeigen, dass Burn-in deutlich geringer ausfällt, wie heute.

robbitop
2023-12-24, 12:05:05
Mein C2 hat jetzt auch ein Jahr Homeoffice mit Tabellen und scripts ohne Probleme überlebt :) hab ich auch nicht erwartet, denke das dritte Jahr wird dann spannender ^^
Also Linus hatte in seinem Video schon relativ schnell Probleme nach Officenutzung. War aber glaube ich ein CX oder C1.

robbitop
2023-12-24, 12:09:06
@Platos
a) Bei 4K geht mit Model F auch Performance Mode bei DLSS ganz gut - je nach Spiel natürlich
b) man kann auch Details runterstellen - gibt einige Videos im Netz die Zeigen dass Max Details Performanceverschwendung relativ zur BQ sind - ich stelle sofort ungesehen alles immer auf 2. Stufe außer Textur und Geometriedetails. Ich mag gerne >80…90 fps wegen der Bewegtschärfe und dem niedrigen Inputlag :)
c) DLSS 3 / FSR3 FG sollten mich dann von 70+ fps in einen schönen dreistelligen fps Bereich heben
d) ich plane mit Blackwell - der sollte fixer sein als Ada ;)

Platos
2023-12-24, 12:28:37
Ok, da bin ich wohl gesegnet (oder verdammt) zu gute Augen zu haben. Perfomance sieht für mich auf allen Presets schlimm aus. Ich muss mich schon anstrengen, dass ich überhaupt DLSS verwende. Am liebsten nur DLAA oder DLDSR (Das ist wirklich geil).

Gewisse Settings sind wirklich unnötig auf höchster Stufe, aber auch da gilt bei mir wohl das mit den zu guten Augen.

Und ich spiele noch nicht mal immer die neuesten Spiele (für mein Glück).

Aber ist ja nicht so, dass ich die Settings dann auf 100% lasse und mit 30FPS spiele. ich stelle es aber so runter, dass es auf 60FPS fixiert ist (mein Monitor kann ja eh nicht mehr). Ich sehe dann aber jenachdem schon den Unterschied (bestes Beispiel eben DLAA vs DLSS oder noch schlimmeres).

Ich plane/hoffe auch schon auf Blackwell. Aber dürfte bei mir wenig bringen (hat bei mir aber auch andere Gründe wegen AI Zeugs).

Mein C2 hat jetzt auch ein Jahr Homeoffice mit Tabellen und scripts ohne Probleme überlebt :) hab ich auch nicht erwartet, denke das dritte Jahr wird dann spannender ^^

Genau, spannend wird es erst nach Jahren (nicht nach 3, eher startend ab 5). Die ganzen Positiv-Berichte nach unter 3 Jahren kann man eig. alle rauchen. Als ob ich mein TV nach 3 Jahren schon umtauschen will. Der muss mindestens 6 Jahre, aber eigentlich besser 8-10 Jahre halten.

Klar, die Enthusiasten hier wechseln vlt. schon nach 4 Jahren, aber das ist ja kein Massstab. Und selbst da wären ja 2-3 Jahre dann nicht ausreichend.

Relex
2023-12-24, 13:12:32
Das hängt ja auch sehr stark vom Sitzabstand ab.

Wer 27-32 Zoll auf eine Armlänge nutzt, der dürfte mit DLSS Performance in 4K wohl ziemlich gut klar kommen. Wer sich hingegen auf die gleiche Entfernung einen 42 oder 48 Zöller hinstellt, der dürfte da deutlich mehr Probleme sehen.


Ich hab das erst kürzlich mit meinem 65 Zoll OLED ausgetestet. Durch die Größe kann ich natürlich den Abstand und das damit ausgefüllte Sichtfeld beliebig variieren.

Ich würde schon sagen, dass das Äquivalent von 42 zoll auf 1 Armlänge Abstand auch am Schreibtisch Sinn ergeben kann. Was mir aber aufgefallen ist ist das bei dieser Größe die Bildwiederholrate noch viel wichtiger wird. Mir sind die 120 FPS/Hz VIEL zu wenig für so eine große Darstellung bzw. für so viel ausgefülltes Sichtfeld.

Es ist immersiv wenn das Bild so groß ist, ja. Wenn FoV 90 im Spiel tatsächlich 90 Grad irl. ausfüllen dann könnte das besser nicht sein. (habs jetzt nicht ausgerechnet, könnte aber hinkommen) Aber puh, die Unschärfe bei schnellen Kameraschwenks ist nicht mehr feierlich... So könnte ich nicht spielen. Und das sage ich als jemand, der Motion Blur eigentlich nicht abgeneigt ist. Aber wenn jedes mal alles vor Augen komplett unscharf wird, obwohl MB aus ist, dann ist mir das zu viel.

Ich denke 42 Zoll oder 48 zoll wenn man weiter weg sitzt, 4K (DLSS Quality oder DLAA), eventuell noch 5K und 500+ Hz sind so ziemlich das "Endgame" was ich mir im Monitor Bereich noch vorstellen kann. Mit der Bildrate macht die Größe dann auch Sinn.


Aber bis man 500 FPS mit DLAA in 4K befeuern kann wird noch einige Zeit vergehen. Mal sehen was bei Framegeneration noch möglich sein wird. Mehr als nur ein zwischenbild zu berechnen sollte uns dem schon ziemlich nahe bringen können.


Für mich ist das erstmal noch Zukunftsmusik und wird selbst wenn es verfügbar ist, irsinnigst teuer sein.
Das Ziel ist für mich erstmal klar, aber bis dahin halte ich die Füße still und gebe mich mit meinem 4K OLED und meinem 1440p Monitor zufrieden. Selbst ein Upgrade des Monitors wird erstmal nur auf 1440p OLED stattfinden. Komplett auf 4K würde ich erst wechseln, wenn man auch für High FPS Gaming nicht alle zwei Jahre die absolut stärkste GPU brauchen würde (trotz upscaling und trotz FG).

Platos
2023-12-24, 13:33:40
Natürlich hängt es vom Sitzabstand ab, wie alles andere auch.

Aber soll ich jetzt weiter weg sitzen, damit ich DLSS mit weniger Augenkrebs nutzen kann (niedrigere Stufe) ?

Ich denke nicht^^

Ich sitze so ~ 60cm bis 1 Armlänge vom Monitor entfernt beim 4k 27 Zöller. Und da sehe ich das Problem.

Wenn du nur schon 4k und 42" (bei 1 Armlänge Sitzabstand) ins Spiel bringst, sieht das für mich nicht so aus, als würdest du viele Pixel brauchen. Dann wäre natürlich die Diskussion über 27" 4k hinfällig.

Das selbe Prinzip gilt für die Subpixelanordnung. Ich sitze doch nicht weiter weg, damit der Monitor tauglich wird.

About 500FPS:

Ja, also von 500FPS sprechen aber dann DLSS nutzen, ist widersprüchlich. DLSS macht alles zu Matsch. Das mag gar nicht auffallen bei 60FPS, aber ich bin mir sicher, bei 500FPS wird es das (bei Leuten, die das erkennen können). Ich denke, 120FPS 4k mit DLAA ist schon ein Ziel, dass nicht so einfach zu erreichen ist. Wie gesagt... ich lande mit meiner 4070Ti mit DLAA oft bei 30-40FPS bei neueren spielen. 240FPS kannst du dir ja dann denken (Mal 2) und 480FPS...

Relex
2023-12-24, 13:47:16
Ghosting und Schlieren werden deutlich reduziert, je höher die Framerate ist, da sich weniger Bildinhalte pro Frame ändern.

Das spielt in der Betrachtung aber keine so große Rolle, da ich die Unschärfe in sehr ähnlichem Maße auch im UFO Test sehe. Auf so eine Größe sind das einfach zu wenige Bilder/sek.


Die Kernaussage ist halt, je größer das Display bzw. das ausgefüllte Sichtfeld, destohöher muss die Auflösung sein (klar) und desto höher muss aber auch die Framerate sein. Steigert man bei größerem Display bei gleichem Sitzabstand nicht auch die Framerate wird es nur unschärfer.
Wenn man also ein großes Bild will, multipliziert sich der Rechenaufwand nochmal um einen weiteren Faktor. Ich finde, der Faktor Framerate bzw. Bildwiederholrate abhängig vom ausgefüllten Sichtfeld wird gerne übersehen und kaum jemand ist sich dessen bewusst. Zumindest wollte ich es mal erwähnt haben...

Ex3cut3r
2023-12-24, 13:49:07
Für mich ist das erstmal noch Zukunftsmusik und wird selbst wenn es verfügbar ist, irsinnigst teuer sein.
Das Ziel ist für mich erstmal klar, aber bis dahin halte ich die Füße still und gebe mich mit meinem 4K OLED und meinem 1440p Monitor zufrieden. Selbst ein Upgrade des Monitors wird erstmal nur auf 1440p OLED stattfinden. Komplett auf 4K würde ich erst wechseln, wenn man auch für High FPS Gaming nicht alle zwei Jahre die absolut stärkste GPU brauchen würde (trotz upscaling und trotz FG).
Man muss natürlich auch Regler bedienen können bzw. DF/HWU Recommend Settings nutzen, also quasi die PS5 Settings dann klappt es auch am PC mit 4K Gaming.

Beispiele von mir: Scheiße, kein Abload mehr.

System:
RTX 3080 Ti
31.5" 144HZ 4K Display mit VRR

CP77, DF Settings, 4K, DLSS P, RT AO @ Medium + RT Local Shadows + AMD FG Mod

https://i.ibb.co/zZpftnF/Cyberpunk2077-2023-12-24-13-34-01-587.jpg (https://ibb.co/zZpftnF)

Resident Evil 4 DLC, DF Settings, + DLSS Q Mod

https://i.ibb.co/hcNNFSv/re4-2023-12-24-13-35-56-324.jpg (https://ibb.co/hcNNFSv)

Spider-Man Miles Morales, DF Settings + RT Reflections @ High + DLSS Q + AMD FG Mod ~ 120 FPS Lock

https://i.ibb.co/mtJNJYJ/Miles-Morales-2023-12-24-13-37-14-829.jpg (https://ibb.co/mtJNJYJ)

Alan Wake 2, DF Settings, DLSS Q + AMD FG Mod

https://i.ibb.co/gTpHQkm/Alan-Wake2-2023-12-24-13-38-26-476.jpg (https://ibb.co/gTpHQkm)

robbitop
2023-12-24, 14:37:42
Wie gut funktionieren die FSR3 FG Mods für dich vom Framepacing und der Latenz her?

Ex3cut3r
2023-12-24, 14:43:07
Wenn man die Mod benutzt, kann man als RTX 3000 User einfach "Nvidias FG" aktivieren ingame. Dann wird auch gleich Reflex auf ON gestellt. Ist ziemlich gut, auch die Frametimes sind sauber. VSync Global im Nvidia CP On. Ingame immer aus. 141 FPS Globales Limit. VRR ON.

Ausgangsbasis sollte mindestens 60 FPS sein. Umso höher umso besser. Auch was den Input Lag angeht. Ich kann mit der Mod halt oft meinen 144HZ Monitor besser ausnutzen, wie man auch sehen kann an den (Fake) FPS.

Kann man echt nicht klagen. Allerdings gibt hier und da schon Artefakte. Die nimmt man allerdings nicht immer wahr (erstaunlicherweise) natürlich ist das Flüssigkeitsgefühl auf dem Monitor von real 70 FPS auf z.B. 120 "Fake FPS" gigantisch. Hat meiner GPU tatsächlich neues Leben eingehaucht.

robbitop
2023-12-24, 14:55:02
Geil und schade dass Nvidia die Ampere und Turing User ausschließt obwohl es ganz offensichtlich auch ohne flow acceleration hw geht.

Gast
2023-12-27, 10:11:18
Geil und schade dass Nvidia die Ampere und Turing User ausschließt obwohl es ganz offensichtlich auch ohne flow acceleration hw geht.

Nachdem die Ada GPUs mit FG im GPU-Limit weit von einer Verdopplung entfernt sind, kann man mit ziemlicher Sicherheit davon ausgehen, dass zumindest Nvidias FG kaum gut mit schwächerer Hardware laufen wird.

Ob sich der höhere Aufwand mit Hardware OFA und NN jetzt qualitativ auszahlt ist natürlich eine andere Frage, aber Nvidia ist nun mal diesen Weg gegangen und verständlicherweise hat man nicht 2 Verfahren parallel entwickelt nur um die alte Generation auch zu unterstützen.

robbitop
2023-12-28, 14:38:44
Und ganz zufällig kann man damit Ada von Ampere abgrenzen wo man erstmalig kein besseres Price to Performance Ratio bekommt obwohl Ampere 4 Jahre alt wird. X-D
Ich kann mir gut vorstellen, dass die HW für OFA in Ampere (man hat die in Ampere ja erstmalig auch in den GFX IP Block gelegt und nicht in den Video IP Block - ggf. hatte man das ja auch mal für Ampere vorgesehen - HW zu verbauen ohne Anwendung und ohne Intention ist sehr ... auffällig. Dazu kommt, dass FSR3 zeigt, wie "günstig" der Compute Teil ist und das mit general purpose HW - dann sollte doch fixed function HW nur unwahrscheinlich zu langsam ausgelegt sein) für viele Fälle auch gut genug wäre und man es einfach nicht weiter reichen wollte um Kaufanreize zu schaffen. Beweisen kann ich es nicht aber ich glaube auch nicht an Zufälle. Ich vermute, das war eine "Stall Order" damit man Ada von Ampere abgrenzen kann und wenn Nvidia es gewollt hätte, hätte man es für Ampere liefern können. Und selbst wenn OFA "zu langsam" gewesen wäre (was ich aus genannten Gründen unwahrscheinlich finde), hätte man es ja für eine bestimme Auflösungs/Frameratenkombination limitieren können mit der Begründung, dass das alles ist was möglich ist.

---------
Back to topic:
Wie sind die 21:9 Erfahrungen bei euch? Ist das für Gaming ein Displayformat auf dass es sich zu wechseln lohnt wegen des breiteren FoVs? Oder lieber beim guten alten 16:9 bleiben und ein Modell mit höherer Auflösung? (21:9 scheint ja leider bei 1440p festzustecken - insbesondere bei OLED)

Ex3cut3r
2023-12-28, 14:59:18
Ich hatte einen 34“ mit 3440x1440, von 2016 bis 2020 auf dem Schreibtisch. Ich muss sagen der 16:9 31.5 mit 4K ist das rundere Erlebnis im Gesamtpaket für mich persönlich. Ich werde/wurde immer einen 16:9 mit höher Auflösung und mehr physikalischer Höhe bevorzugen.

34" 21:9 3440x1440, 60HZ VA (2016-2020)

https://abload.de/img/img_00044lf0o.png

27" 16:9 2560x1440, 240HZ, VRR VA (2020-2022)

https://abload.de/img/252k6gymcfg.png

31.5 16:9 3840x2160, 144HZ, VRR IPS (2022 - jetzt)

https://abload.de/img/8f9c3b53-38e4-4400-ag0dbh.jpeg

Langlay
2023-12-28, 15:12:09
Ich nutze auch einen 3440x1440p 34" und für mich ist das aktuell das perfekte Format. Die Extrabreite ggü. 16:9 bringt zumindest für mich massiv mehr Immersion. Ja 5120x2160 als Auflösung ist sicherlich auch geil, aber die Hardwareanforderungen sind natürlich gewaltig. Selbst in 3440x1440p kriegste ne 4090 mit RT o. PT schon ganz gut in die Knie. Und DSR mit 5120x2160 läuft eigentlich nur in älteren Spielen wirklich gut.

Ex3cut3r
2023-12-28, 15:29:37
Die gewonne Breite ist im Vergleich zu einem 31.5" 16:9 aber auch relativ wenig.

https://s20.directupload.net/images/231228/dfjy93z9.jpg

Langlay
2023-12-28, 15:53:18
Die gewonne Breite ist im Vergleich zu einem 31.5" 16:9 aber auch relativ wenig.

https://s20.directupload.net/images/231228/dfjy93z9.jpg

Ich meinte im Vergleich zu 27" 16:9 was ich vorher hatte, da ist der Unterschied dann doch schon beachtlich.

https://i.imgur.com/b4VolQh.png

Und mehr Höhe oder mehr PPI als 27" WQHD brauch ich nicht und daher ist für mich 34" UWQHD ziemlich optimal.
Muss halt auch sagen für 4K ist sind mir aktuelle Grakas auch noch etwas zu lahm, da bin ich lieber Auflösungstechnisch etwas niedriger unterwegs.

The_Invisible
2023-12-28, 16:08:56
Ich bin mit der 4090 und 4k noch immer sehr zufrieden. Bin aber auch BQ-Fetischist, der Sprung von 1440p auf 2160p ist halt nochmal eine andere Liga, vor allem bei Strategie/Aufbau sehr nett.

Platos
2023-12-28, 16:21:04
@ Robbitop: Da du ja sowieso auf Blackwell wartest (somit verm. Anfang 2025 beim Kaufdatum), könnte es gut sein, dass 5120x2160 Gaming-Monitore auf den Markt kommen. Anfang des Jahres (z.B 2025) weiss man ja immer mehr darüber, welche Monitore/Displays auf den Markt kommen werden. D.h du könntest Anfang 2025 Ende Januar dann schauen, was so für das Jahr 2025 angesagt ist und dann siehst du, ob es 5120x2160 für Gaming OLED geben wird oder ob du auf 3840x2160 ausweichen musst/willst. 3440x1440 und OLED dürfte ja auch wegen der Subpixelproblematik nix für dich sein.

Die gewonne Breite ist im Vergleich zu einem 31.5" 16:9 aber auch relativ wenig.

https://s20.directupload.net/images/231228/dfjy93z9.jpg

Bei spielen darfst du aber (zusätzlich zum Fakt, dass du die falschen Monitorgrössen verglichen hast) nicht vergessen, dass es hier nicht um physikalische Grösse sondern um das Seitenverhältnis geht. Also bezüglich dem Sichtfeld.

Du hast mit 1920x1080 genau das gleiche Sichtfeld in einem Spiel, wie mit 3840x2160. Spielt auch keine Rolle, ob nun 27", 31.5" oder 65". Mit 3440x1440 hast du aber ein höheres Sichtfeld in Spielen, wie mit einem 3840x2160 Monitor. Du hast auch nicht weniger Höhe mit einem 21:9 wie mit einem 16:9. Du hast nur mehr.

Ex3cut3r
2023-12-28, 16:32:48
Dafür gibt es ja den FOV Regler, spiele Thrid Person Games eigentlich immer mit 90er FOV und Ego Shooter mit 100-110 FOV.

Platos
2023-12-28, 16:51:22
Dafür gibt es ja den FOV Regler, spiele Thrid Person Games eigentlich immer mit 90er FOV und Ego Shooter mit 100-110 FOV.

Das gibts doch aber nicht in jedem Spiel. Vor allem ist der Regler dann auch begrenzt normalerweise.

Und um ein grösseres Blickfeld zu haben, müsste man dann eigentlich ja raus zoomen. D.h du bräuchtest einen physisch grösseren Monitor um die gleiche Bildgrösse zu haben. Genauer gesagt bräuchtest du bei gleicher "Bildgrösse" einen 16:9 Monitor, der die selbe physische Displaybreite hat, wie der entsprechende 21:9 Monitor.

Also hast du beispielsweise einen 27" 16:9 und einen 34" 21:9, dann müsstest du bei selber Bildgrösse ein 36" grosser 16:9 Monitor haben um einfach den Bildausschnitt auf den eines 21:9 Monitor anzupassen.

Also m.M.n ist deine "Methode" mit dem FoV nicht mal ansatzsweise mit einem 21:9 Monitor vergleichbar. Genauso wenig, wie dein Vergleich von einem 31.5" 16:9 mit einem 34" 21:9.

Ex3cut3r
2023-12-28, 17:08:36
21:9 macht in Games aber auch nichts anderes, als am FOV zu drehen. Oder meinst du das Spiele speziell für 21:9 entwickelt werden? Ausgangsbasis ist die Konsole, und die ist nun mal 16:9.

robbitop
2023-12-28, 17:57:08
Naja es gibt ein FoV in X und Y Richtung. Wenn man im Spiel das FoV hochstellt wird beides erhöht. Bei einem 21:9 wird in Spielen meist nur in X Richtung erhöht ggü 16:9.
Weiterhin ist das HUD meistens angepasst. Bei 21:9 rutscht alles in die Mitte bzw in‘s Sichtfeld während die Randbereiche dann eher die Immersion steigern. Wenn man einfach nur eine großen 16:9er hat wird das HUD auch groß und rutsch aus dem Sichtbereich. Man verliert ggf die Übersicht (Minimap usw)

Ich hatte 2017 mal einen 4K60 GSync Monitor den ich nach 2 Wochen wieder verkauft habe. Fand das Verlieren der Übersicht und das Mehr an Kopf und Augenbewegung anstrengend verglichen damit alles direkt im Blick zu haben. 27“ 16:9 war bisher immer ideal. 34“ 21:9 würde da anknüpfen weil es dank X-Achsen FoV Erhöhung (egal ob ein FoV slider im Spiel ist oder nicht) und das mittige HUD og Probleme wahrscheinlich löst und die Randbereiche nur zur Immersionssteigerung nutzt.

Das ginge bei 16:9 oder 4:3 usw auch. Aber leider exponieren die Entwickler da keine Positions und Größeneinstellung für das HUD. Globales FoV gibt es zum Glück immer öfter (aber nicht immer).

Langlay
2023-12-28, 18:19:05
Oder meinst du das Spiele speziell für 21:9 entwickelt werden? Ausgangsbasis ist die Konsole, und die ist nun mal 16:9.

21:9 Support zumindest in rudimentärer Form (angepasster FOV) haben eigentliche fast alle aktuelle Spiele. Wirklichen "full" Support mit Zwischensequenzen, Hauptmenu usw. in 21:9 wie bei z.b. BG3 gibts es allerdings tatsächlich eher selten.

Allerdings ist das auch ein Punkt mit dem ich leben kann.

Gast
2023-12-28, 19:18:24
Und ganz zufällig kann man damit Ada von Ampere abgrenzen wo man erstmalig kein besseres Price to Performance Ratio bekommt obwohl Ampere 4 Jahre alt wird. X-D


Und deshalb bekommt selbst Turing noch Ray Reconstruction an 10x nützlicheres Feature, als FG, was bis auf wenige Ausnahmefälle eh sinnlos ist.

Scruffy
2023-12-28, 22:19:36
Ich bin mit 21:9 (34" 3440x1440) auch sehr zufrieden. Je nachdem was man spielt ist das breite Sichtfeld gut, und es ist noch nicht so breit, dass die Ränder zu sehr verzerren. Bei 3 Monitoren im Triplehead war das so. Einen 32:9 Monitor habe ich aber noch nicht live gesehen, ob der für mich auch noch drin wäre.
Die höhere Schärfe des 27" UHD Schirms vermisse ich je nach Spiel schon. Die schlechtere Performance könnte man aber dank vernünftiger Upsamplingverfahren inzwischen besser ausgleichen, ohne direkt im Grakaregal höher greifen zu müssen.

Ich werde vermutlich beim nächsten Monitor auch bei Ultrawide bleiben, so ein neuer 36" OLED mit 5040x2160 wäre mein Wunsch.

robbitop
2023-12-29, 08:26:01
Und deshalb bekommt selbst Turing noch Ray Reconstruction an 10x nützlicheres Feature, als FG, was bis auf wenige Ausnahmefälle eh sinnlos ist.

Man will RT pushen entsprechend macht das schon Sinn - es bringt ja keine Leistung. Und hier hätte man keine Argumente gehabt weils keine DF HW benötigt.

Thunder99
2023-12-29, 17:45:21
...

---------
Back to topic:
Wie sind die 21:9 Erfahrungen bei euch? Ist das für Gaming ein Displayformat auf dass es sich zu wechseln lohnt wegen des breiteren FoVs? Oder lieber beim guten alten 16:9 bleiben und ein Modell mit höherer Auflösung? (21:9 scheint ja leider bei 1440p festzustecken - insbesondere bei OLED)
Die Erfahrungen sind TOP :smile:
1440p ist absolut kein Nachtteil, da es ja ja die 27" 16:9 Klasse ist wenn man ein 34" 21:9 hat.
Die Grafikkarte (4080) muss da schon deutlich mehr schaffen. Noch höhere Auflösung MUSS man schon immer das TOP Modell haben -> nicht notwendig aus meiner Sicht.

Also das vergrösserte FOV ist ein Traum (WoWs) :cool: . Weitere Spiele noch nicht wirklich getestet (ausser noch kurz Gears 5). Eine Empfehlung für alle Spieler :wink:

robbitop
2023-12-29, 19:53:44
Hm hm ich komme von 27“ 1440p. Aber manchmal wünschte ich mir schon auch gern mehr Auflösung für mehr Details / Schärfe. Und da mein nächster Monitor garantiert ein Selbstleuchter wird und die Momentan nicht das Subpixelmuster haben was Windows für Schriftglättung nimmt und ich auch daran arbeiten muss, braucht man wahrscheinlich auch mehr Auflösung als 1440p.

Ex3cut3r
2023-12-30, 12:35:38
Ganz genau. Bin von 1440p auf 27“ und 1440p 34“ auf 31.5 mit UHD gewechselt. Die 140ppi sind einfach schöner anzusehen, das fängt schon am Desktop an und endet in Spielen. Dazu kommt das selbst DLSS Performance brauchbar ist, und die ausgangsauflösung höher ist als Quality bei 1440p (960p vs 1080p)

Benutze eine 125% Skalierung am Desktop.

Tobalt
2023-12-30, 12:55:18
Habe jetzt gehört, dass man bei Company of Heroes 3 mit 16:9 das maximale FOV kriegt. Mit 21:9 seitliche schwarze Balken oder reduziertes VFOV.

Macht für ein kompetitives Game natürlich Sinn, das FOV für alle Spieler universell zu begrenzen.

Deshalb frage ich mich gerade: haben andere kompetitive Games (zumindest im MP) ähnliche FOV Limits? Falls ja, wird dadurch ja automatisch ein optimales Bildschirm Seitenverhältnis impliziert. Und dies dürfte dann wohl immer 16:9 sein.

Gast
2023-12-30, 14:18:47
Man will RT pushen entsprechend macht das schon Sinn - es bringt ja keine Leistung.


FG bringt auch keine Leistung, sie bringt bessere Qualität in Bewegung und kostet in der Regel sogar Leistung.


Und hier hätte man keine Argumente gehabt weils keine DF HW benötigt.

Man hätte immer noch argumentieren können, dass die neueren TCs benötigt werden.

Demolition_Man
2023-12-30, 15:18:27
Warum macht es Sinn das FOV für 21:9 in Multiplayertiteln zu begrenzen? Sollen dann auch alle mit 60 Hz zocken? Oder gleich mit 4:3? Oder das Spiel auf 60 FPS begrenzen weil viele Spieler schwache GPUs im PC haben? Es wird immer technologischen Fortschritt geben, der den Spielern Vorteile bringt, wer halt nicht in neueste Hardware investieren will hat einen Nachteil, das war immer so und wird immer so bleiben.

Scruffy
2023-12-30, 16:45:09
Laut einem Kollegen ist das bei Valorant so, ich glaube auch bei Starcraft. Wird wohl nicht erlaubt wegen unfairer Vorteile durch das größere Sichtfeld. Nicht viele machen so einen Quatsch, CS auch nicht.
Meiner Meinung nach Unfug der Entwickler, da so hohe Limits zu setzen: Ich fordere 1024x786 und 30fps als Limit für alle! Und als nächstes eine Beschränkung der physikalischen Bildschirmgröße, sonst sind die Laptopspieler benachteiligt ;)

Tobalt
2023-12-30, 16:55:56
Du vergleichst jetzt nicht ernsthaft Bildschirmdiagonale oder Auflösung mit FOV :uconf3:

Ich kann mich schon daran erinnern dass es vor 20 Jahren in UT99 in den kompetitiven Games schon FOV limits gab. Allerdings war dies da ein striktes HFOV limit. Du konntest also quasi mit 5:4 (1280:1024) oder noch geringerem Aspect Ratio, bei maximalem FOV den größten Ausschnitt bekommen.

Das Verhalten von CoH3 ist insofern speziell, dass die schwarzen Balken nahelegen, dass auf ein bestimmtes Aspect Ratio getrimmt wird, also HFOV und VFOV vorgegeben sind.

Klar ist natürlich, dass VFOV bei RTS deutlich wichtiger ist als bei den meisten FPS. Deshalb hatte die Mehrheit der Spieler bei UT99 trotzdem 4:3 oder 16:10. Den leichten FOV Nachteil haben die größeren Diagonalen wett gemacht. 5:4 gab es ja kaum über 19"..

Scruffy
2023-12-30, 17:40:01
Bieten die Diagonale und Auflösung etwa keine Vorteile?
Ein FOV Regler sollte halt immer an Bord sein, schon allein als Komfortfunktion und gegen Motion Sickness. Wenn sich damit jemand ein Fischauge einstellen mag ist das halt so, er hat ja auch Nachteile weil alles in der Mitte kleiner wird.
Vom kompetitiven Aspekt abgesehen ist es oft auch schlechte Umsetzung. Glücklicherweise ist das über die Jahre viel viel besser geworden. Früher gab es auch mit 1920x1200 16:10 oft weniger HFOV gegenüber FHD, da das VFOV von 16:9 genommen wurde. Statt gleichem Bild mit 120 Pixeln mehr Höhe hat man dann ohne manuellen Eingriff etwas weniger in der Breite gesehen.
Heute sind solche Eingriffe seltenst nötig, ich erinnere mich zuletzt an Atomic Heart wo ich FlawlessWidescreen bemühen musste. Davor weiß ich es gar nicht mehr, bei mir ME2 sogar?

Ich würde das Seitenverhältnis also tatsächlich erstmal als unproblematisch erklären. Möglich, dass das bei 32:9 noch etwas anders aussieht.
Eine Ausnahme ist es wenn man viel oder hauptsächlich Strategiespiele oder Valorant spielt. Nicht kompetitiv und SP ohne Anticheat kann man aber meist was drehen, auch für ältere Spiele gibt es viel.

robbitop
2023-12-30, 18:03:04
FG bringt auch keine Leistung, sie bringt bessere Qualität in Bewegung und kostet in der Regel sogar Leistung.


Die 0815 Leute setzen FPS mit Performance gleich und Nvidia vermarktet es auch so.


Man hätte immer noch argumentieren können, dass die neueren TCs benötigt werden.

Das hätte einen shitstorm gegeben weil die neuen nur schneller sind aber nichts anderes rechnen können. Ein Pressetyp schaut in nsight auf die Dauer in den TCs mit 3.5 vs non 3.5 und zieht sofort den Schluss dass es Blödsinn gewesen wäre. Im Endeffekt ein shitstorm. So konnte man RT im allgemeinen pushen was ja auch der Marke hilft. FG hingegen „verdoppelt die Performance“ laut NV PR. Und das kann nur Ada. Ohne das hätte es bei einigen SKUs kaum noch Kaufgründe gegeben. Gleiche Performance, gleicher Preis aber 2 Jahre neuer

Tobalt
2023-12-30, 19:00:07
FOV Regler ok. Aber Limits braucht es trotzdem, damit niemand absurde HFOVs wie 300° auf bspw. 32:9 oder 10° für gratis Zoom nutzt.

Bei FPS kommt man vielleicht auch heute noch mit einem HFOV Limit hin. Weil eben in der wichtigen Mitte alles ultra klein wird und Vertikale eh untergeordnete Bedeutung hat.

Bei Spielen mit overview Perspektive verstehe ich aber gut wenn man HFOV und VFOV begrenzt und somit (unfreiwillig) ein Seitenverhältnis impliziert.

robbitop
2024-01-01, 13:40:10
https://youtu.be/2L_OtIQEXOk?si=MNgpsd4ITz3KfE6D

2024 Neue LG WOLED Panels mit verbessertem Subpixelmuster RGWB anstatt RWBG - soll viel weniger fransen + 30% mehr Helligkeit + 240 Hz für 4K und 3440x1440p Geräte.
2025 dann obiges aber mit höherer Auflösung für 21:9 nämlich 5120x2160 und 240Hz auf 34“

Ich glaube letzteres klingt ideal für mich. Dazu nich ne 5070 und einen Zen 5x3D. ^^

Platos
2024-01-01, 14:04:06
Ich hätte jetzt noch gerne 40" 21:9 2880p 120Hz :D

Aber traurig, dass TV Hersteller ihr Subpixellayout anpassen müssen, weil Microsoft es nicht hinkriegt, das mal ordentlich umzusetzen.

gnomi
2024-01-01, 14:41:51
Die 2024er Panels gehen noch gut mit bestehender Hardware und dem kleinen anstehenden Refresh.
Für die 2025 Geräte sollten tatsächlich besser neue Rechner her.

Ich muss aber sagen. Vor allem wegen halbem Anschaffungspreis finde ich mein altes 34er UWQHD 120Herz GSync Panel noch gut genug.
Vermisse auch gar nicht so HDR Support/Oled, obwohl ich es schon lange vom Wohnzimmer und Konsolen kenne.
Aus der gedachten Übergangslösung ist eher mehr geworden bei den ganzen Verschiebungen und Preisen.

Ex3cut3r
2024-01-01, 14:42:05
https://youtu.be/2L_OtIQEXOk?si=MNgpsd4ITz3KfE6D

2024 Neue LG WOLED Panels mit verbessertem Subpixelmuster RGWB anstatt RWBG - soll viel weniger fransen + 30% mehr Helligkeit + 240 Hz für 4K und 3440x1440p Geräte.
2025 dann obiges aber mit höherer Auflösung für 21:9 nämlich 5120x2160 und 240Hz auf 34“

Ich glaube letzteres klingt ideal für mich. Dazu nich ne 5070 und einen Zen 5x3D. ^^

Gute Nachrichten. Das aktuelle Subpixel Layout hält momentan viele von einem Kauf ab. Damit wäre ein großer Kritikpunkt ausgeräumt.

robbitop
2024-01-01, 14:43:41
Ich hätte jetzt noch gerne 40" 21:9 2880p 120Hz :D

Aber traurig, dass TV Hersteller ihr Subpixellayout anpassen müssen, weil Microsoft es nicht hinkriegt, das mal ordentlich umzusetzen.
Naja leider bringen viele Anwendungen ihr eigenes Subpixel AA mit. Es ist ziemlich schwierig alle dazu zu bekommen.

Platos
2024-01-03, 00:59:13
Naja leider bringen viele Anwendungen ihr eigenes Subpixel AA mit. Es ist ziemlich schwierig alle dazu zu bekommen.

Ja, es gäbe schon (harte) Möglichkeiten.

Microsoft könnte mit Win12 ein automatisches Subpixelrendering rausbringen (Windows erkennt für jeden Monitor das Subpixellayout (anhand von z.B Daten, die der TV/Monitor dann liefert z.B) und rendert dann mit einem Algo entsprechend individuell). Und dann erlaubt man eigenes Subpixelrendering einfach nur noch für dritte, wenn sie ebenfalls individuell für jedes Subpixellayout rendern. Sonst wird das interne genutzt.

Ich weiss, dass man von Microsoft sowas nicht erwarten kann, aber möglichkeiten gäbe es schon und schwierig wärs jetzt auch nicht an sich gesehen.

Nightspider
2024-01-03, 01:47:15
Wäre echt schade wenn wir noch 2 Jahre auf 5160*2160 OLEDs in 34 Zoll Größe warten müssten.

Ich hoffe Samsung ist schneller. Die werden sicherlich auch bessere QD-OLED Panels produzieren.

Sardaukar.nsn
2024-01-03, 01:53:41
Wäre echt schade wenn wir noch 2 Jahre auf 5160*2160 OLEDs in 34 Zoll Größe warten müssten.

Ich hoffe Samsung ist schneller. Die werden sicherlich auch bessere QD-OLED Panels produzieren.

Dann muss die RTX 5090 aber ordentlich abliefern. Dürfte dann aber gerne auch etwas größer 34" sein. 49 ultrawide ist schon ein prima Format, wenn die Auflösung stimmt.

anorakker
2024-01-03, 08:38:04
Für mich sind das leider immer noch keine echten Computer Monitor Panels. Es werden einem absurd hohe Leuchdichten angedreht, die aber keiner wirklich am PC vermisst, weil er direkt davor sitzt. Für HDR brauche ich am PC keine krassen Peakvalues sondern eine vernünftige Helligkeits Auflösung bei geringer mittlerer Leuchtdichte.
Das ist natürlich prinzipbedingt schwieriger bei einem OLED umzusetzen.
..wird Zeit für einen ND Filter in Panelgrösse :wink:

The_Invisible
2024-01-03, 08:39:19
Bei diesen hohen auflösungen mach ich mir weniger Sorgen, da sieht auch dlss-p noch gut aus. Aber ja, so einen Monitor würde ich auch gerne nehmen, eher so 40" herum aber

robbitop
2024-01-03, 11:24:22
Ja, es gäbe schon (harte) Möglichkeiten.

Microsoft könnte mit Win12 ein automatisches Subpixelrendering rausbringen (Windows erkennt für jeden Monitor das Subpixellayout (anhand von z.B Daten, die der TV/Monitor dann liefert z.B) und rendert dann mit einem Algo entsprechend individuell). Und dann erlaubt man eigenes Subpixelrendering einfach nur noch für dritte, wenn sie ebenfalls individuell für jedes Subpixellayout rendern. Sonst wird das interne genutzt.

Ich weiss, dass man von Microsoft sowas nicht erwarten kann, aber möglichkeiten gäbe es schon und schwierig wärs jetzt auch nicht an sich gesehen.
Wie du selbst sagst, so tickt MS nicht. Apple wäre sowas zuzutrauen.

Bei diesen hohen auflösungen mach ich mir weniger Sorgen, da sieht auch dlss-p noch gut aus. Aber ja, so einen Monitor würde ich auch gerne nehmen, eher so 40" herum aber
So ist es. Wenn die Outputresolution hoch genug ist, ist auch mit einem Performance Preset die Input resolution relativ hoch. Und je höher das ist, desto weniger problematisch wird upsampling. Speziell wenn wir über ML Upsampling sprechen.
Bei 5120x2160 hat man immerhin 2560x1080 input resolution.
Also das Ergebnis ist im Prinzip vergleichbar mit 4K Performance Preset. Nur dass man mehr Breite hat. Allerdings ist ein 34" Monitor mit der Pixeldichte bei der Auflösung dann so wie ein 27" 4K Monitor. Da sieht man dann Schwächen wahrscheinlich noch weniger. Für mich wäre es wahrscheinlich okay.

basix
2024-01-03, 12:46:25
40" mit 5120x2160 wäre 4K/32" PPI. Das isch schon ziemlich gut. Ultimativ 10240x4320 mit 40" wäre der nächste Step: 8K PPI im 21:9 Format ;)

Ich hatte immer nur 16:9 auf dem Schirm und war 21:9 eher abgeneigt. Auf der Arbeit haben wir jetzt aber 21:9 Monitore bekommen und es ist eigentlich relativ nice. Oder ich kann mir den Einfluss aufs "Gameplay-Empfinden" gut vorstellen. Aber ich würde gerne die Bildhöhe des 32 Zöllers behalten, was dann in 40" resultiert.

Mit OLED oder allgemein selbstleuchtenden Bildschirmen wäre auch entsprechendes 16:9 Filmmaterial weniger ein Problem. Da hat man halt im schlimmsten Fall schwarze Ränder auf beiden Seiten.

Relex
2024-01-03, 12:51:16
Aber nicht vergessen trotz Upscaling steigt die VRAM Nutzung je höher die Ausgabeauflösung ist, da das LoD und die Mip Level für die höhere Auflösung geladen werden.

Zudem wird Frame Generation bei zunehmender Auflösung teurer und die Performanceskalierung schlechter.

Wo du z.B. bei 1080p durch FG noch 80% mehr FPS bekommst, sind es bei 1440p vielleicht schon 70% und bei 4K vielleicht nur noch 60%. Das hängt immer relativ stark vom Spiel ab wie viel FG bringt, aber dass die Performanceskalierung mit zunehmender Auflösung etwas schlechter wird ist immer so.

Da bei FG die tatsächliche Framerate immer exakt die Hälfte der dargestellen Framerate ist, ist das durchaus ein gewisser Nachteil.

Aber wer weiß, vielleicht wird DLSS4 FG noch besser in Hardware beschleunigt, dann wäre das auch kein Problem mehr.


Ich sags mal so, in Zeiten wo Upscaling auch auf Konsolen obligatorisch geworden ist und am PC zur Mindestvoraussetzung für brauchbare Frameraten gilt und wenn dann FG auch noch schlechter mit der Performance skaliert, je höher die Ausgabeauflösung ist, sind solche hohen Auflösungen noch immer kein no-brainer. mMn.

Ich glaube 5K x 2K würde ich unterhalb einer 5080 oder 5090 auch nicht anfassen wollen (vorausgesetzt, die 5080 wird schneller als die 4090). Zumindest wenn es was längerfrisitiges sein soll und man nicht nur im ersten Jahr hohe Frameraten erreichen will (hoch im Sinne von 120+).


Ich werde deshalb weiterhin den Split fahren, indem ich den 4K OLED im Wohnzimmer für Singleplayer Games nutze, wo ich keine extremen Frameraten brauche und nen 1440p Monitor am Schreibtisch wo ich dann auch jenseits der 120 FPS ne schnelle und direkte Maussteuerung für Shooter und ähnliche first person Games die ich nur mit Maus spiele nutzen kann.

Durchgehend 4K oder höher für alle Games wird für mich erst mit dem nächsten GPU Upgrade zur Option. In 5+ Jahren.

basix
2024-01-03, 12:57:56
Der Vorteil an hohen Auflösungen: DLSS Performance ist deutlich brauchbarer. Sogar Ultra Performance sieht in 8K nichtmal so schlecht aus, wenn man via Reshade und CAS etwas nachhilft.

Und ja: LoD und Mip Level werden nach oben geschraubt. Neben der Auflösung steigert das die Qualität zusätzlich. Moderne Spiele sehen in 1080p mMn beschi**en aus. Nicht nur wegen der Auflösung an sich, sonder dass z.B. zum Teil deutlich weniger Texturdetails sichtbar sind (Mip Level). 1080p -> 4K ist da ein riesiger Sprung. 4K -> 8K ist auch bemerkbar, aber wesentlich weniger augenfällig.

Relex
2024-01-03, 13:03:31
Mit RT und PT haut 1080p als Renderauflösung aber auch sehr ordentlich rein und die 4080 und 4090 struggeln trotz FG schon ziemlich.

Für mich reicht das Performancelevel für Controller Gameplay schon aus. locker sogar.
Aber mit Maus und Tastatur Steuerung wäre mir das zu wenig.

Man muss halt schon wissen was man will. Ich will nur sagen, dass man sich mit so hohen Auflösungen trotz Upscaling und trotz FG ganz schön was ans Bein bindet.

Man sollte halt sicherstellen, dass die eigenen Ansprüche bis zum Ende der Nutzungszeit einer GPU ausreichend bedient werden können.
Hängt natürlich alles stark von den Spielen, Eingabegeräten, Zielframerate und Grafiksettings ab.

Gynoug MD
2024-01-03, 13:25:24
Mit OLED oder allgemein selbstleuchtenden Bildschirmen wäre auch entsprechendes 16:9 Filmmaterial weniger ein Problem. Da hat man halt im schlimmsten Fall schwarze Ränder auf beiden Seiten.
Genau das verkraften, je nach Häufigkeit, die OLED-Monis gar nicht so gut:
Fa7V_OOu6B8

exzentrik
2024-01-03, 13:37:35
Samsung bringt 2024 neue Odyssey-OLED-Displays (https://www.prad.de/samsung-drei-neue-oled-gaming-displays-enthuellt/), darunter zwei mit flachem QD-OLED-Panel (WQHD360 @ 27 Zoll und 4K240 @ 32 Zoll).

aceCrasher
2024-01-03, 14:26:11
Samsung bringt 2024 neue Odyssey-OLED-Displays (https://www.prad.de/samsung-drei-neue-oled-gaming-displays-enthuellt/), darunter zwei mit flachem QD-OLED-Panel (WQHD360 @ 27 Zoll und 4K240 @ 32 Zoll).
Hoffentlich endlich mit besserem Coating.

Gast
2024-01-03, 16:54:18
Microsoft könnte mit Win12 ein automatisches Subpixelrendering rausbringen (Windows erkennt für jeden Monitor das Subpixellayout (anhand von z.B Daten, die der TV/Monitor dann liefert z.B) und rendert dann mit einem Algo entsprechend individuell).


Nein können sie nicht, wie soll das gehen?

r-or
2024-01-03, 20:16:58
Nein können sie nicht, wie soll das gehen?
welcher Aspekt davon ist unmöglich?

Gast
2024-01-04, 01:00:04
welcher Aspekt davon ist unmöglich?

Ähm alles.
Welcher Aspekt davon soll und vor allem wie möglich sein?

basix
2024-01-04, 08:35:54
Genau das verkraften, je nach Häufigkeit, die OLED-Monis gar nicht so gut:
https://youtu.be/Fa7V_OOu6B8

Danke für das Video. Muss man sich sicher im Hinterkopf behalten.

Ich bin aber ein Low Brightness User und bis ich solch einen 21:9 Monitor in Betracht ziehe, dauert es noch 2-3 Jahre. Müsste 39" mit 5120x2160 sein, was erst gegen Ende 2025 erscheinen soll. Bis dahin wird sich die Technik noch verbessern ;)

00-Schneider
2024-01-04, 09:01:12
LG bringt einen 480Hz OLED-Monitor

https://www.displayspecifications.com/en/news/fe99b33

--------

Sogar mit MLA. Würde ich nicht am TV zocken, wäre das ein richtig interessantes Teil.

exzentrik
2024-01-04, 12:36:56
Zum ASUS ROG Swift OLED PG34WCDM (https://www.prad.de/asus-pg34wcdm-neue-details-zum-oled-gaming-display/) gibt's zahlreiche neue Infos. Kommt wohl mit WOLED, UWQHD, 240 Hz, 800 R, FreeSync Premium Pro, G-Sync Compatible, KVM, ELMB, DisplayHDR True Black 400 und Custom-Heatsink – letzterer vermutlich ohne Lüfter.

Seth
2024-01-04, 19:46:36
Es gibt eine neue Firmware (MCM105) (https://rog.asus.com/de/monitors/27-to-31-5-inches/rog-swift-oled-pg27aqdm/helpdesk_bios/) für den Asus ROG Swift OLED PG27AQDM.

Optimize HDR skin color tone mapping

exzentrik
2024-01-05, 14:00:24
Zu den sechs QD-OLED-Display, die MSI letztes Jahr enthüllte, gibt's nun viele neue Infos:

MAG 271QPX & MPG 271QRX (https://www.prad.de/msi-infos-zu-qd-oled-displays-mit-wqhd-und-360-hz/) mit WQHD, 360 Hz und ClearMR 13000. Beide flach.

MAG 321UPX & MPG 321URX (https://www.prad.de/msi-eckdaten-zu-zwei-4k240-displays-mit-qd-oled/) mit 4K, 240 Hz und ClearMR 13000. Beide flach.

MAG 341CQP (https://www.prad.de/msi-341cqp-qd-oled-monitor-kommt-mit-clearmr-9000/) mit UWQHD, 175 Hz und ClearMR 9000. Curved.

MPG 491CQP (https://www.prad.de/msi-491cqp-details-zum-qd-oled-display-mit-dqhd144/) mit DQHD, 144 Hz und ClearMR 8000. Curved.

Alle sind dank Custom-Heatsink lüfterlos und weisen DisplayHDR True Black 400, Adaptive Sync, KVM und neueste QD-OLED-Gen mit optimiertem Subpixellayout auf. Langsam wird's echt interessant. :biggrin:

Slipknot79
2024-01-06, 03:30:32
OeGH-3sNJbs
MPG 321URX angeblich für 1200 Dollars up März.

Nightspider
2024-01-06, 03:43:45
Er wirkt so klein neben dem 32 Zoller :ugly:

"Subpixellayout problems are much less noticeable"

So viel zu dem Gequatsche:

Weniger sichtbar ist wohl eher das richtige Wort. Umgangen wird gar nichts. Es ist nur weniger stark sichtbar.
Und woher willst du jetzt wissen, dass dafür schon 138 PPi reichen? Bei den 34" und 27" mit 1440p reichen die 110 PPi dafür ja nicht aus. Also woher hast du da schon wieder Informationen?

:rolleyes:

Gouvernator
2024-01-06, 08:03:04
Diese lächerlichen 130ppi... Mich hat damals der Xiaomi Pad 6 so geflasht das ich den mir holen werde. Die 309ppi bei 144Hz sind so heftig. Momentan sehe sowas in Action bei dem Legion Go mit 333ppi. Der Snapdragon 870 soll wohl immer noch der beste SoC zum Streamen sein. Mal gucken wie gut er zurecht kommt... Nach dem Legion Go fühlt sich mein Laptop LCD mit seinen 170ppi wie ein alter 1080p Plasma TV an. Die 240ppi von dem Lenovo Tab Extreme gehen gerade noch so. Beachtenswert für mich wie schnell ich von 170ppi von Laptop\8K TV, auf 240ppi und jetzt 330ppi wechseln konnte und die "Produktivität" solcher ppi beurteilen. Nativ 330ppi mit 144Hz toppt bis jetzt alles von mir gesehene. Allein die Windows Oberfläche ist ein Erlebnis.

dargo
2024-01-06, 09:15:30
https://youtu.be/OeGH-3sNJbs
MPG 321URX angeblich für 1200 Dollars up März.
Keine aktive Kühlung, außerdem Textklarheit sehr gut. (y)

robbitop
2024-01-06, 09:20:06
Ich finde den Monitor auch total gut (wenn die Eindrücke von HWUB stimmen). Mal abwarten wie das Äquivalent von LG mit den neuen WOLED Subpixel ist.
QDOLED hat IIRC laut dem rtings burn in Test schlechtere Burnin Eigenschaften als WOLED.

dargo
2024-01-06, 09:25:57
Ich werde sowieso noch mindestens das ganze Jahr 2024 abwarten, gibt eh noch keine Grafikkarte die für mich in Frage kommt die 4k ausreichend schnell befeuern kann. Ergo kann ich in Ruhe die Entwicklung beobachten. :tongue: Finde es toll, dass es endlich auch im Bereich 4k Bewegung bei den OLEDs gibt. Dort brauchen wir deutlich mehr Konkurrenz.

robbitop
2024-01-06, 10:14:15
Wenn es stimmt dass rdna4 beide top chips gecanclet hat, wird es für dich erstmal nicht viel besser werden. :-/

00-Schneider
2024-01-06, 10:19:41
QDOLED hat IIRC laut dem rtings burn in Test schlechtere Burnin Eigenschaften als WOLED.


Ja, diese praxisnahen Tests mit CNN auf maximaler Helligkeit in monatelanger(?) Dauerschleife.

robbitop
2024-01-06, 10:20:56
Naja im höchsten Lastfall zeigt wo die Spreu sich vom Weizen trennt. Aber ja ggf trotzdem gut genug für normale cases.

The_Invisible
2024-01-06, 10:50:24
So lange es Garantie gibt kein Problem, müsst hier halt auch auf jeden Fall 8-10h Homeoffice am Tag aushalten.

robbitop
2024-01-06, 11:14:17
So lange es Garantie gibt kein Problem, müsst hier halt auch auf jeden Fall 8-10h Homeoffice am Tag aushalten.
Hier auch. Entsprechend würde ich den wählen der im worst case Test besser da steht.

00-Schneider
2024-01-06, 12:00:19
So lange es Garantie gibt kein Problem, müsst hier halt auch auf jeden Fall 8-10h Homeoffice am Tag aushalten.


Bei maximaler Helligkeit?

Bin bei meinem Arbeitsmonitor mittlerweile auf 20% runter. Reicht für Excel und Co. Seither deutlich weniger Probleme mit angestrengten Augen etc.

robbitop
2024-01-06, 12:05:27
Naja 100% Window Helligkeit sind OLEDs von Haus aus nicht so hell. 20% bei einem OLED sind dann nicht äquivalent zu 20% von deinem LCD.