PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 [70] 71 72

Gast
2024-03-07, 21:42:34
Ja aber es gab trotzdem Artefakte trotzdem da es als Dreieck angeordnet ist.

Es ist fast identisch angeordnet wie bei CRTs, speziell die erste Version.

Platos
2024-03-07, 21:57:12
Auch Drittsoftware lässt Subpixelrendering deaktivieren, und macht es in der Regel auch automatisch wenn es in Windows deaktiviert ist.

Es gibt genug Fälle, in denen das nicht so ist.

Das Thema hatten wir hier schon oft durchgekaut. Es gibt einfach genug Software, die das nicht tun.

Abgesehen davon: Es geht hier darum, dass das subpixelrendering an das Subpixellayout angepasst wird, nicht dass es abgeschaltet werden soll.

Gast
2024-03-07, 21:58:45
Es gibt genug Fälle, in denen das nicht so ist.


Dann nenn bitte eine, sollte nicht so schwer sein wenn es so viele Fälle gibt.

Platos
2024-03-07, 22:16:16
foxit Reader, Obsidian, Firefox um mal 3 Grössere zu nennen. Und dann eben ganz viele der kleinen Tools.

Und nein, ich wechsle (und verzichte) nicht die Software, um einen bestimmten Monitor kaufen zu können.

robbitop
2024-03-08, 07:38:15
Es ist fast identisch angeordnet wie bei CRTs, speziell die erste Version.

aber subpixelrendering In Windows ist nicht mehr für CRTs gemacht. Bringt also nichts.

Gast
2024-03-08, 08:41:45
aber subpixelrendering In Windows ist nicht mehr für CRTs gemacht. Bringt also nichts.

Nein, hat bei CRTs auch niemand gebraucht, Subpixelrendering war vielleicht noch bei den ersten LCDs mit 72ppi halbwegs sinnvoll.

redpanther
2024-03-08, 09:17:35
Zumal es auch bei CRT Unterschiede gibt. Siehe Sonys Trinitron Röhre.

Gast
2024-03-08, 11:36:38
Zumal es auch bei CRT Unterschiede gibt. Siehe Sonys Trinitron Röhre.

Stimmt, und damals hat sich keiner aufgeregt wenn ein Layout nicht dem "Standard" entsprach, weil niemand so einen Unsinn wie Subpixelrendering verwendet hat.

Tesseract
2024-03-08, 14:10:05
"damals" sah schrift immer beschissen aus was man einfach akzeptieren musste weil es keine alternative gab - und trotzdem wurde im grafischen bereich auf streifenmasken gearbeitet weil die immerhin minimal besser waren. was soll man mit subpixelrendering wenn der monitor pixel sowieso nicht richtig darstellen kann?

Gast
2024-03-08, 14:38:25
und trotzdem wurde im grafischen bereich auf streifenmasken gearbeitet weil die immerhin minimal besser waren.

Ähm ja offensichtlich:
Computerbildschirme verwenden jedoch weiterhin Lochmasken, um Aliasingeffekte an geraden Kanten (z. B. bei CAD-Anwendungen) zu vermeiden.

https://de.wikipedia.org/wiki/Lochmaske

Gast
2024-03-08, 14:51:02
foxit Reader, Obsidian, Firefox um mal 3 Grössere zu nennen.


Ich weiß jetzt nicht ob es Faulheit oder eine Lüge deinerseits ist, die Behauptung ist aber schlicht und einfach falsch.

Foxit startet zwar @default mit aktivem Subpixelrendering, lässt dies aber deaktivieren. Sowohl Obsidian als auch Firefox respektieren die OS-Einstellung und verwenden bereits @default kein Subpixelrendering wenn es in Windows deaktiviert ist.

Und ja, ich habe diese Programme sogar extra installiert um deine Behauptung zu überprüfen. Also noch mal von vorne.


Und dann eben ganz viele der kleinen Tools.


Wenn etwas einen eigenen Font-Renderer mitbringt ist es garantiert kein "kleines Tool". Ein Font-Renderer selbst ist wesentlich mehr aufwand als die Grundfunktionalität jedes "kleinen Tools".

Der_Korken
2024-03-08, 14:53:14
Es ist fast identisch angeordnet wie bei CRTs, speziell die erste Version.

Das gängige Subpixelrendering ist für eine horizontale RGB-Anordnung gemacht, d.h. links rot, mittig grün und rechts blau. Wenn man die Pixel im Dreieck anordnet mit unten links rot, oben mittg grün und und unten rechts blau, dann stimmen zwar am linken und rechten Rand die Farben, aber dafür hat man bei leuchtenden am oberen Rand etwas zu viel grün und am unteren Rand etwas zuviel violett (rot+blau). Bei dunkler Schrift auf hellem Grund hat man also oben violette Ausfransungen und unten grüne Ausfransungen. Warum die neue Generation das nicht mehr so ausgeprägt hat, weiß ich nicht, aber prinzipbedingt müssen sie vorhanden sein, solange das Rendering auf Software-Seite nicht angepasst wird.

Savay
2024-03-08, 15:06:55
So, der MSI 321URX ist jetzt angekommen.

Also das Fringing sehe ich bei dem immer noch recht deutlich! :weg:

Vielleicht gewöhne ich mich noch daran aber 200ppi wäre bei dem Pixellayout dann wohl doch schöner... :|

Tesseract
2024-03-08, 15:16:55
Ähm ja offensichtlich:

Computerbildschirme verwenden jedoch weiterhin Lochmasken, um Aliasingeffekte an geraden Kanten (z. B. bei CAD-Anwendungen) zu vermeiden.

https://de.wikipedia.org/wiki/Lochmaske

so ein unsinn, lol. high-end CRT waren später fast ausschließlich trinitron oder diamondtron. der sony FW900, der als der beste jemals massenproduzierte CRT gilt, hat eine trinitron-streifenmaske - und hatte grafisches arbeiten am produktfoto (https://i.imgur.com/FRkYWwm.jpeg).

ChaosTM
2024-03-08, 15:18:49
Würde ich auch nicht akzeptieren. Meine LG Paneele sind da gsd. neutral.

redpanther
2024-03-08, 15:27:51
So, der MSI 31URX ist jetzt angekommen.

Also das Fringing sehe ich bei dem immer noch recht deutlich! :weg:

Vielleicht gewöhne ich mich noch daran aber 200ppi wäre bei dem Pixellayout dann wohl doch schöner... :|

Kannst ja mal dies probieren ob es hilft:
https://github.com/bp2008/BetterClearTypeTuner

Und wie sieht es beim Rest aus? Gefällt er?

Slipknot79
2024-03-08, 18:58:03
Kannst ja mal dies probieren ob es hilft:
https://github.com/bp2008/BetterClearTypeTuner

Und wie sieht es beim Rest aus? Gefällt er?

https://www.mactype.net/

Can man auch probieren, hat 2 Profile für QD-OLEDs.

Savay
2024-03-08, 19:36:17
Also das ganze rumspielen an dem Subpixelredering hilft gegen das Fringing nur bedingt, das ist einfach dem Layout geschuldet und tritt auch unabhängig von Text auf.
Da hilft m.E. nur mehr PPI.

Mein Laptop hat ein ähnliches Layout (https://www.notebookcheck.com/fileadmin/Notebooks/Lenovo/Yoga_7_14ARB_G7/ypga_7_amd.jpg) (ist aber ein "normales" Samsung AMOLED) aber halt ~240ppi, da ist das dann auch tatsächlich komplett irrelevant.

Es ist bei 140ppi in Ordnung aber eben noch lange nicht perfekt.
Ich gehe davon aus die kommenden LG Desktop Panels da doch leicht besser sein sollten da halt RGWB Stripe.

Wobei ich ich 140ppi tatsächlich generell noch als vergleichsweise pixelig empfinde.
2880p wäre bei 32" schon noch etwas cooler am Schreibtisch oder halt die kommenden 27er mit 160ppi.


Und wie sieht es beim Rest aus? Gefällt er?

Wollte erst die 2 IPS vom alten dreifach Setup noch daneben stellen aber weiß noch nicht ob ich gewillt bin sie überhaupt noch weiter zu benutzen... :wink:

Nervig ist nur das der Monitor keine unterschiedlichen Profile für HDR und SDR speichert...würde SDR gerne im sRGB Preset fahren per default.
So muss ich bisher immer manuell umstellen...
Und der KVM Switch ist noch etwas bitchy.

Hoffentlich kommt noch nen FW Update das es nachreicht und den KVM verbessert.

Was die Anzeigequalität angeht bin ich sehr zufrieden!
Es ist halt nen OLED...da machste nix. :biggrin:
Kenn ich ja vom TV, Laptop und Handy daher mussten jetzt auch die alten Hintergrundleuchter am Schreibtisch weichen.
Endlich den IPS Glow los! :love4:

Das mit dem Lightscatter des Panels wenn Licht direkt drauf leuchtet spielt bei meinem Setup keine wirkliche Rolle.
Habe schon seit Jahren rein indirekte Beleuchtung.
Das sehe ich nur wenn ich die Deckenlampe an habe aber das Licht hab ich einfach nie an wenn ich davor sitze.
Insofern alles Top bis auf die Preset Geschichte.

Nachtrag:
Das Lightscatter sehe ich auch tagsüber...das LG OLED Panel vom C3 ist da schon viel besser...von den Reflexionen nehmen sie sich nicht wirklich viel.
Der TV bekommt dabei im Wohnzimmer auch viel mehr Umgebungslicht ab wegen der viel größeren Fenster und aufgrund der Tatsache das ich im Büro eigentlich ne Nische für den Schreibtisch habe und vor dem Fenster immer ein Plissee runtergezogen ist.
Damit bekommt der Monitor normalerweise nur indirektes Licht von den Decken und Wänden ab und davon auch recht wenig.

Ist jetzt kein Deal Breaker in meiner Situation, aber wer viel Umgebungslicht am Schreibtisch hat und dort auch Mittags um 12 Wert drauf legt sollte mMn auf das LG Panel warten.

Thunder99
2024-03-09, 21:22:22
Ich finde es wird übertrieben mit der Pixel Anordnung und dessen Probleme. Hab den QD-OLED Gen2 im Einsatz und selbst im Home-Office fällt es mir nicht auf. Selbst Clear-Type habe ich aktiv da es damit besser aussieht als ohne.

Also nicht so schlimm wie es suggeriert wird :)

Platos
2024-03-09, 21:27:16
Also nicht so schlimm wie es suggeriert wird :)

Für dich anscheinend nicht. Für andere schon.

redpanther
2024-03-09, 21:44:13
Ja, mir fällt es auch nicht auf. Aber es gibt ja auch Leute die 100% und mehr Sehschärfe haben. Die habe ich nicht.

Evil Ash
2024-03-09, 22:21:43
Ich habe hier auch absolut keine Probleme mit der Schrift. Ich weiß auch gar nicht, worum es geht. Wäre denn der LG C2 überhaupt davon betroffen?

Savay
2024-03-09, 23:34:17
Die LG WOLED Panels haben kein (horizontales) Fringing wegen des horizontalen Layout.
Dafür franst dort die Schrift mehr aus wegen des GBWR...oder war es RBWG, da Cleartype und Co. damit kaum vernünftig zurecht kommen.
Jedenfalls ist es dort weder RGB und es ist auch das Weiße Pixel dazwischen, was zu komischen Fransen führt.
Das betrifft aber halt auch eher nur Fonts.

Das von den QD-OLED ist wie gesagt ja kein reines "Schrift" oder Font Problem.
87439
Das CB Logo ist ein Bitmap...kein Font.
Und 140PPI hin oder her, da sehe ich eben oben ziemlich deutlich grün und unten violett.
...das lässt sich für mich wahrscheinlich nur mit noch mehr PPI fixen.

Platos
2024-03-10, 00:57:46
Also das ganze rumspielen an dem Subpixelredering hilft gegen das Fringing nur bedingt, das ist einfach dem Layout geschuldet und tritt auch unabhängig von Text auf.
Da hilft m.E. nur mehr PPI.


M.M.n ist halt eine Subpixelanordnung, die "kreisförmig" ist ein Nachteil, da diese mehr Möglichkeiten für Fringing eröffnen. Bei einer eindimensionalen Anordnung (also alles auf "einer Linie") gibt es "nur" 2 Möglichkeiten. Bei einer Anordnung wie bei QD-OLED gibt es 4 (also alle 4 Seiten).

Wobei das ja noch ginge (übertrieben gesagt). Das nächste Problem an QD-OLED (oder OLED allgemein) ist, dass die Subpixel innerhalb eines Pixels einfach nicht so dicht gepackt sind. D.h ein einzelnes Subpixel steht deutlich "separiertar" alleine da und wird somit deutlicher als eine separate Linie wahrgenommen.

Und dazu kommt noch, dass QD-OLED nicht 3 gleichgrosse, Kreisförmige Subpixel hat, sondern 2 kleine und ein fettes grünes. Das muss hald so sein, weil bei OLED die Subpixel unterschiedlich stark leuchten bzw. sterben. Aber das führt dann eben zu grünen horizontalen Linien und auch zu violetten. An der einen Seite der Linie ist es grün, an der anderen ist es violett, weil dort die beiden Subpixel rot&blau rausragen.

Wären alle Subpixel direkt aneinanderliegend, gleichgross und kreisförmig angeordnet, würde man vermutlich bei 160ppi keine grossen Nachteile haben, aber genau das ist nicht der Fall.

Bei den üblichen RGB Layouts bei nem LCD hat man hingegen 3 dicht gepackte, gleichgrosse Subpixel, die (in der richtigen Achse) auch dünn sind. So hat man minmales Fringing.

Minimales Fringing = Subpixel sind dicht gepackt, gleich gross und ragen nicht weit hervor (also sind in der richtigen Achse nicht "dick").

Maximales Fringing: Subpixel sind nicht dicht gepackt, es gibt ein deutlich grösseres Subpixel, wie die anderen, sind blöd angeordnet, so dass einzelne Subpixel "rausragen" und sind auch noch 2-Dimensional angeordnet, also bietet auch noch mehr Möglichkeiten (kurz: alle 4 Seiten), wo Fringing auftreten kann.

Hier gibts ein Bild von den QD-OLED Subpixel

https://tftcentral.co.uk/wp-content/uploads/2024/01/Slide9.jpg

Hier sind auch gute Bilder bezüglich Fringing: https://www.heise.de/hintergrund/Analyse-Warum-Samsungs-QD-OLED-Displays-bunte-Kanten-zeigen-6593948.html

Wenn manche mit dem Fringing klarkommen, bzw. es gar nicht erst sehen, ist das ja toll für die, aber es gibt hald doch einige, die das sehen (auch unter 4k, wie ja hier jemand berichtet hat).

Noch und noch mehr Auflösung kannst nicht sein. Samsung muss eben ein noch besseres Layout rausbringen. Aber ich vermute, das werden sie nicht.

Gast
2024-03-11, 09:33:23
M.M.n ist halt eine Subpixelanordnung, die "kreisförmig" ist ein Nachteil, da diese mehr Möglichkeiten für Fringing eröffnen.

Eine "kreisförmige" Anordnung ist von Vorteil, da es keine bevorzugte Richtung gibt, und das fringing in jedem Winkel mehr oder weniger gleich stark ist.

Thunder99
2024-03-11, 09:35:33
Danke für die Erläuterung. Ja Verbesserungen sind auf jeden Fall willkommen!

In der Revision 3 ist es ja schon vermindert bzw verbessert.

Bei mir wahr noch der Preis ausschlaggebend was mich überzeugt hat noch auf die "alte" Technologie zu setzten :)

dreas
2024-03-11, 12:21:18
Bin immer noch vollkommen geflashed von meinem AW3225QF.

Was für ein Sprung!

Diese Brillanz, diese Plastizität, diese Farben, gerade auch mit HDR.
Ein völlig neues Erlebnis!

Hatte die Tage noch mal GoW angeworfen um die Grafik zu testen und zocke nun gleich das ganze Spiel noch mal.
Wie die Axt feinste Details in HDR leuchten lässt und wie einzelne Bildpunkte leuchten können. Fantastisch!

Was für ein Augenschmaus!

Hab auch mal das DCI-P3 eingestellt, ist aus meiner Sicht aber unnatürlich bunt und ich bin wieder zu sRGB zurück.
Auch bin ich nun wieder zu DP umgeswitcht, dank neuem hochwertigen Kabel ist das VRR flickern deutlich besser als mit dem DELL Kabel.
Warum auch immer.

Per Console habe ich auch mal DSC deaktiviert, sieht aber optisch nicht besser aus und macht aus meiner Sicht keinen Sinn.
Es geht zwar dann DSR aber nur bis 120Hz und die Farbprofile funktionieren auch nicht. Das ist es nicht wert und bei 4k verschmerzbar.

Für mich der perfekte Monitor.
Wüsste nicht was besser ginge. Formfaktor, Design und Technik überzeugen vollkommen.

Nightspider
2024-03-11, 12:30:09
Jepp, HDR macht sehr viel aus.

Haben ja auch viele Jahre auf eine ordentliche HDR Ausgabe am PC warten müssen.
Eigentlich knapp 10 Jahre.

dreas
2024-03-11, 12:42:23
Ich hatte ja vorher auch schon 32 Zoll mit HDR. Aber eben als VA Panel.
Der C32HG70 ist auch ein guter Monitor, aber an OLED kommt er halt nicht ran.
Der Dynamikumfang in kleinsten Bildbereichen, unabhängig vom Nachbarpixel, ist einfach mit LED nicht erreichbar.
Ich vermute auch Mini-LED oder gar Micro-LED werden daran nichts ändern.

Deisi
2024-03-11, 13:29:50
Falls dir die DCI-P3 gesättigten Farben in Spielen gefallen, kannst du auch ein icc Profil für Desktop Apps wie Browser etc aktivieren. So hast du quasi sRGB nur auf dem Desktop.

Relex
2024-03-11, 13:33:31
Micro LED sind ja selbstleuchtende Pixel vergleichbar mit OLED.

Aber da bei Micro LED die Miniaturisierung ein Problem ist, ist sowieso fraglich, ob das auf absehbare Zeit kommt und ob der Mehrwert zu OLED überhaupt so groß sein wird. Oder ob die nächste Technik was anderes sein wird.

Ansonsten absolute Zustimmung. Nach OLED wird ein vergleichbarer Sprung nicht mehr möglich sein. Wir sind mit aktueller Technik schon ziemlich nah an "as good as it gets".

4K ist sehr sehr ordentlich. Vielleicht mal 8K als kompletten Overkill, wenn einem wirklich nichts besseres mehr einfällt. 1000 nits reichen auch erstmal locker aus, wenn man nicht gerade mit Studiolichtern zockt. Im dunklen sind die Pupillen eh geweitet und die 1000 nits entsprechend kräftig.
Farbvolumen kann noch erweitert werden, aber es gibt kaum Inhalte die besoders kräftige Farben bei extremen Helligkeiten erfordern. Alles was sehr hell ist, geht meistens richtung weiß. Der praktische Nutzen von 100% BT2020 Abdeckung daher IMHO auch eher beschränkt.

Ansonsten eben noch höhere Bildwiederholraten. Aber da ist OLED nicht der limitierende Faktor, sondern die Kette dahinter.

Also ja, ich würde schon sagen, dass wir langsam im Engame angekommen sind, was Displaytechnik angeht, wenn man bedenkt, wo wir mit CRTs und LCDs mal waren und was jetzt möglich ist.

Alles weitere wird ab jetzt nur noch nice to have sein, aber einem nicht mehr die Kinnlade auf den Tisch klappen lassen.

basix
2024-03-11, 13:44:19
MicroLED haben gegenüber OLED zwei potentielle Vorteile: Helligkeit und Haltbarkeit.

Dabei hat MicroLED aber auch zwei Probleme: Miniaturisierung und Kosten.

Deswegen:
- MicroLED wird für grosse Fernseher und Bildschirm-Wände ein Vorteil sein. Aber primär im professionelle Umfeld, wo Helligkeit und Haltbarkeit die zusätzlichen Kosten rechtfertigen
- OLED passt für Kundenbedürfnisse sehr gut (Qualität und Preis, genug hell als Monitor)

Hinsichtlich "Endgame":
Ja 4K/240Hz/32"/OLED/10bit HDR ist schon ziemlich gut. Ich denke 8K wird für einen Gaming Monitor noch gut was ausmachen und dann gäbe es noch 12bit HDR und 360/480Hz. Das ist aber nur noch begrenzt wahrnehmbar. Allenfalls noch 8K 21:9 bei 39 Zoll (10'240 x 4320p). Da sehe ich gutes Screen-Coating (Reflexionsunterdrückung, kein Farbshift wenn Raum beleuchtet ist) insgesamt als grösstes Verbesserungspotential. Subpixel-Layout usw. wird man in den Griff bekommen.

Tobalt
2024-03-11, 14:25:45
Das einzige worauf ich gespannt bin, ist, ob QDEL im Praxisbetrieb dann haltbarer als moderne OLED werden wird.

Ist auf jeden Fall die einzige plausible ansehbare Evolution von OLED im Bezug auf Leuchttechnik.

Bei Refreshrate und Bewegtschärfe sehe ich noch deutlich Potenzial beachliegen.. Aber wie gesagt, liegt der Ball da nicht bei den Panelherstellern, sondern bei den Kunden und VESA oä. Hier braucht es einen Paradigmenwechsel, nämlich Abkehr von der (spatiotemporal extrem ineffizienten) framebasierten Display-Portionierung.

Dazu müssten beiden Seiten des Monitorkabels deutlich enger zusammenarbeiten, weshalb ich hier VESA als Schlüssel sehe, vielleicht mal einen zukunftsweisenden Standard zu setzen.

Exxtreme
2024-03-11, 14:57:33
Ob man so schnell mehr als 4K UHD sehen wird, das ist echt fraglich. Schon der Umstieg von FHD auf WQHD ist zäh ohne Ende. Da tut sich seit Jahren kaum was.

Hier mal eine Steam Umfrage zur Hardware:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

UHD ist bei 3,54% und FHD bei über 58%. :freak:

Döner-Ente
2024-03-11, 15:37:49
Ob man so schnell mehr als 4K UHD sehen wird, das ist echt fraglich. Schon der Umstieg von FHD auf WQHD ist zäh ohne Ende. Da tut sich seit Jahren kaum was.

Hier mal eine Steam Umfrage zur Hardware:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

UHD ist bei 3,54% und FHD bei über 58%. :freak:


Bei dem mehr an Hardware, was man mit steigender Auflösung für die selben Fps aufbieten muss in Kombination mit dem nicht effizienten Umgang vieler Entwickler mit der Hardware ihrer Kunden kein Wunder.

Relex
2024-03-11, 16:42:12
Hier braucht es einen Paradigmenwechsel, nämlich Abkehr von der (spatiotemporal extrem ineffizienten) framebasierten Display-Portionierung.



Was wäre denn die Alternative?

Man könnte auf Displayseite auf Frames verzichten, wenn man die Pixel einzeln und unabhängig voneinander refreshed.

Aber da sind wir schon wieder beim Wort refreshed, womit du weiterhin einen vorgegebenen Takt hast und damit eigentlich weiterhin Frames (nur nicht das komplette Bild, sondern eben kleiner, also einzelne Pixel). Und wenn du alle Pixel refreshen musst, würdest du sowieso wieder die volle Bandbreite brauchen...

Welcher Ansatz würde dir denn in den Sinn kommen?

Je mehr ich darüber nachdenke, desto stärker bin ich der Meinung, dass Pixel und Frames die einzige sinnvolle Möglichkeit sind, mit einem statischen Objekt, wie einem Monitor jegliche Art von Bildern darzustellen.

basix
2024-03-11, 17:31:49
Ob man so schnell mehr als 4K UHD sehen wird, das ist echt fraglich. Schon der Umstieg von FHD auf WQHD ist zäh ohne Ende. Da tut sich seit Jahren kaum was.

Hier mal eine Steam Umfrage zur Hardware:
https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam

UHD ist bei 3,54% und FHD bei über 58%. :freak:

Das Problem bei dieser Statistik ist, dass sehr viele neue Notebooks auch heute noch bei 1080p liegen. Kein Wunder ist diese Auflösung noch so gut vertreten.

Ich denke, dass die meisten Neukäufer einen 1440p Monitor ansschaffen und bei gehobenen Ansprüchen 4K. 8K wird sicher noch lange Nische bleiben. Der nächste möglich Boost in dieser Hinsicht sehe ich erst, wenn die Konsolen das pushen. Also ein Kombination aus TV-Herstellern und Konsolen-HW, welche 8K bezahlbar machen. TVs sind momentan noch zu teuer, aber eine neue Konsolengeneration könnte einen Anreiz schaffen um in diese Richtung zu gehen. 4K gibt es schon lange, das ist kein Kaufargument mehr. Und bei den Konsolen läuft dann halt FSRx Ultra Performance mit aktivierten FG (evtl. via dediziertem Accelerator), um auf 60-120fps zu kommen. Rein von der Render-Performance sollte man mit einer PS7 schaffen. Ob 30fps, 40fps oder 60fps hängt dann vom Spiel ab. Der Rest ist Temporal Upsampling und Frame Generation, da bin ich mir sicher. Bei den Monitoren wird das aber länger dauern als bei den Fernsehern. War schon immer so.

Relex
2024-03-11, 18:32:35
Sorry für die Textwall, aber ich fand das sehr interessant. :tongue:


Ich hatte vorhin etwas über das Thema nachgedacht.
4K, 1440p, Upscaling und performance und hatte mir die Frage gestellt, ob die Panelauflösung heutzutage überhaupt noch irgend eine Relevanz hat.

Das Problem ist ja, dass 4K trotz DLSS Performance besonders für midrange GPUs einiges an Leistung kostet. Auch Frame Generation performt in 4K schlechter als z.B. in 1440p oder 1080p. Auch der VRAM Verbrauch ist höher.

Es hat also eindeutige Vorteile, trotz moderner Upscaling Techniken auf einem Display mit geringerer Auflösung zu spielen.


Aber könnte man denn nicht auch auf einem 4K Display in 1080p oder 1440p spielen? Wäre das wirklich so viel schlechter, als auf einem Display mit nativer 1080p oder 1440p Auflösung zu spielen?

Die meisten würden wahrscheinlich mit ja antworten. Klassisches Upscaling erzeugt Unschärfe, die man bei nativer Auflösung nicht hat. Das will man natürlich vermeiden.


ABER ist das wirklich so?

Was mir hier in den Sinn gekommen ist, ist die Tatsache, dass moderne AA und Temporale Upscaler ja eigentlich IMMER eine gewisse Unschärfe erzeugen. Pixel perfect Details sieht man praktisch nur, wenn das Bild perfekt still steht.

Also hab ich mal ausprobiert, was in Bewegung passiert.

Die Frage die ich mir stelle ist also: sieht ein Bewegtbild eines modernen Spiels in nativer Auflösung besser aus, als das gleiche Bild in gleicher Auflösung upscaled auf eine höhere Auflösung.


Dazu habe ich folgendes gemacht:

Cyberpunk 2077
Auflösung 720p (ganz ohne Upscaling)
DLAA mit Schärfe auf 0.5
Motion Blur, Chromatic Aberration und Film Grain aus
Im Spiel einfach nur vorwärts gehen (Head bobbing hab ich deaktiviert), kein sprinten.

Einmal habe ich das 720p Bild per bicubic upscale auf 1440p skaliert. Also genau 2x pro Achse.
Und einmal ein Upscale per nearest neighbour bzw. integer scale. Also einfach nur ein zoom und aus 1px 4px gemacht. Damit sind beide Bilder gleich groß. Der Bicubic Upscale entspricht dem was man typischerweise bekommt, wenn man einfaches spatial upscaling nutzt, also z.B. 1440p auf 4K darstellt und der nearest neighbour upscale entspricht praktisch der nativen Darstellung ganz ohne upscaling Unschärfe.


Und was soll ich sagen, beide Bilder sehen nahezu identisch aus.
Das hätte ich nicht erwartet.

https://i.postimg.cc/PPBYnrTG/720p-1440p-bicubic.png (https://postimg.cc/PPBYnrTG)

https://i.postimg.cc/1n25VXWs/720p-1440p-Nearest-Neighbour.png (https://postimg.cc/1n25VXWs)


Ja, man sieht beim integer upscale hier und da ein paar mehr harte Pixelkanten, was subjektiv vielleicht etwas schärfer wirkt. Aber dafür ist der Bicubic upscale komplett ohne zusätzlichen Schärfefilter und ich finde wenn man das Gesamtbild betrachtet ist der subjektive Schärfegrad bei beiden Bildern absolut identisch und das obwohl hier wirklich sehr wenig Bewegung im Bild war. Bei mehr Bewegung würde der Unterschied also irgendwann gegen null gehen.



Das Fazit wäre also, dass ein 1080p oder 1440p Bild auf einem 4K Display (mit gleicher Größe) in Bewegung genauso scharf dargestellt wird wie auf einem Display, das diese Auflösungen nativ bietet.

Und das alles weil TAA, DLSS und co in Bewegung Unschärfe erzeugen und Pixel perfekte Darstellung damit überhaupt keine Rolle mehr spielt. War zu erwarten, aber dass es so eindeutig ist hätte ich wirklich nicht gedacht.


Das heißt also, würde man von einem 27 Zoll 1440p Display auf ein 31,6 Zoll 4K Display upgraden, müsste man die Pixelanzahl pro Achse nur um 17% erhöhen, also auf 1685p, um die gleiche Schärfe zu erreichen.

basix
2024-03-11, 18:47:11
Interessante Gedanken. Ich verstehe aber nicht wie du auf 17% pro Achse kommst. Als Produkt der Auflösung ind Bildschirmdiagonale? Ausserdem ist ein 2x2 Scaling viel einfacher als ein 1.5x1.5x Scaling (1440p -> 4K). 1080p auf einem 4K Monitor oder 4K auf einem 8K Monitor sind garantiert mindestens "gleich scharf" wie bei der tieferen nativen Aulfösung. Sind halt Integer-Upscalings. Bei ungeraden Faktoren ist die Qualität des Upscalers dann schon entscheidend. Ich hätte aber gesagt, dass ab 4K die Pixeldichte so hoch ist und wie du sagst wegen der TAA/DLSS Unschärfe, dass ein nicht ganz perfektes spatial Upscaling wohl gar nicht stark auffällt. Also wenn man die Wahl hat zwischen Grütze 30fps in 4K und guten 60fps in 1440p auf dem selben Monitor muss man sich das schon überlegen. Ich finde aber, dass durch die ganzen LoD Dinger bei 4K die Grafik generell besser aussieht. Also 4K DLSS-P sieht besser aus als 1440p DLSS-Q mit Spatial Upscaling auf 4K. Performance ist schon ca. 20-30% niedriger (1080p vs. 960p Rendering + doppelte Auflösung des Postprocessings). Speicherbedarf wird auch ein wenig höher sein, aber mehr als +1GB sollte das nirgends sein.

Platos
2024-03-11, 18:52:29
Und was soll ich sagen, beide Bilder sehen nahezu identisch aus.
Das hätte ich nicht erwartet.

https://i.postimg.cc/PPBYnrTG/720p-1440p-bicubic.png (https://postimg.cc/PPBYnrTG)

https://i.postimg.cc/1n25VXWs/720p-1440p-Nearest-Neighbour.png (https://postimg.cc/1n25VXWs)


Ja, man sieht beim integer upscale hier und da ein paar mehr harte Pixelkanten, was subjektiv vielleicht etwas schärfer wirkt. Aber dafür ist der Bicubic upscale komplett ohne zusätzlichen Schärfefilter und ich finde wenn man das Gesamtbild betrachtet ist der subjektive Schärfegrad bei beiden Bildern absolut identisch und das obwohl hier wirklich sehr wenig Bewegung im Bild war. Bei mehr Bewegung würde der Unterschied also irgendwann gegen null gehen.



Das Fazit wäre also, dass ein 1080p oder 1440p Bild auf einem 4K Display (mit gleicher Größe) in Bewegung genauso scharf dargestellt wird wie auf einem Display, das diese Auflösungen nativ bietet.



Die beiden Bilder sehen doch nicht mal ansatzweise identisch aus:confused:
Das nearest neighbour Bild ist total verpixelt (und das andere ist zwar detailreicher, aber immer noch nicht scharf).

Relex
2024-03-11, 19:29:08
Interessante Gedanken. Ich verstehe aber nicht wie du auf 17% pro Achse kommst. Als Produkt der Auflösung ind Bildschirmdiagonale?



27 Zoll im 16:9 Format sind 59,77 cm x 33,62 cm.
Bei 31,6 Zoll im 16:9 Format sind es 69,96 cm x 39,35 cm.

Breite und Höhe sind beim 31,6 Zoll Display jeweils 17% länger, somit bräuchte man auch 17% mehr Pixel pro achse, um den zusätzlichen Platz bei gleicher pixeldichte auszufüllen.

1685p auf 31,6 Zoll entspricht damit der gleichen Pixeldichte wie 27 Zoll mit 1440p.



Ausserdem ist ein 2x2 Scaling viel einfacher als ein 1.5x1.5x Scaling (1440p -> 4K). 1080p auf einem 4K Monitor oder 4K auf einem 8K Monitor sind garantiert mindestens "gleich scharf" wie bei der tieferen nativen Aulfösung. Sind halt Integer-Upscalings. Bei ungeraden Faktoren ist die Qualität des Upscalers dann schon entscheidend.


Grundsätzlich ja, aber einen Integer Sacle kannst du ja nur in den seltensten Fällen machen. Mein Praxisszenario ist eben 1440p auf 4K. Da kommt nur ein upscale mit "filter" in Frage wie eben bicubic einer ist. Die Frage wird wahrscheinlich die meisten betreffen, die vor einem Upgrade stehen.Und genau deshalb hab ich eben den bicubic upscale mit dem integer upscale verglichen. 720p als Testszenario deshalb weil das mit meinem 1440p Display am Schreibtisch gut funktioniert und weil man die Unterschiede bei so niedrigen Auflösungen noch am deutlichsten sehen sollte. Ich wollte eben sehen, wie groß der Unterschied mit TAA/DLAA überhaupt sein könnte.



Ich hätte aber gesagt, dass ab 4K die Pixeldichte so hoch ist und wie du sagst wegen der TAA/DLSS Unschärfe, dass ein nicht ganz perfektes spatial Upscaling wohl gar nicht stark auffällt. Also wenn man die Wahl hat zwischen Grütze 30fps in 4K und guten 60fps in 1440p auf dem selben Monitor muss man sich das schon überlegen.


Ich denke die Zielauflösung spielt gar keine große Rolle, wie meine 720p->1440p Bilder ja zeigen. Was auf einem höherauflösenden Display besser funktionieren kann sind die Scharfzeichner. Denn das Scharfzeichnen kann nach dem Upscaling in nativer Auflösung erfolgen und tehoretisch können Kanten dann auch feiner gezeichnet werden als sie ursprünglich waren. Je höher auflösend das Display, desto mehr pixel hat der Scharfzeichner zur Verfügung um eine Kante scharf abzubilden.
FSR1 hat das ganz gut hinbekommen und die Kanten oft vergleichsweise "fein" und ohne ringing artefakte zeichnen können, so dass zmindest stellenweise der Eindruck eines leicht höheraufgelösten Bildes entsteht.


Ich finde aber, dass durch die ganzen LoD Dinger bei 4K die Grafik generell besser aussieht. Also 4K DLSS-P sieht besser aus als 1440p DLSS-Q mit Spatial Upscaling auf 4K. Performance ist schon ca. 20-30% niedriger (1080p vs. 960p Rendering + doppelte Auflösung des Postprocessings). Speicherbedarf wird auch ein wenig höher sein, aber mehr als +1GB sollte das nirgends sein.

Das sowieso. Jeder temporale Upscaler ist spatialem Upscaling meilenweit überlegen. Aber der temporal Upscale kostet eben trotzdem performance und Grafikspeicher. Daher nicht ganz vergleichbar. Man darf die Schärfe in 4K auch mit temporal upscaling nicht mit dem vergleichen, was man in 1440p bekommt. Die Frage ist ja in meinem Fall nur gewesen, ob man auf einem 4K Display in 1440p die Bildschärfe eines Displays mit nativen 1440p erhalten kann oder ob man durch das Upscaling von 1440p auf 4K nur noch unscharfen Matsch sieht und daher lieber bei einem 1440p Monitor bleiben sollte, wenn die Leistung für 4K nicht reicht. Und das kann ich nach dem Test größtenteils verneinen. (mit dem Disclaimer dass es nur in Bewegung gilt.)



Die beiden Bilder sehen doch nicht mal ansatzweise identisch aus:confused:
Das nearest neighbour Bild ist total verpixelt (und das andere ist zwar detailreicher, aber immer noch nicht scharf).

Findest du wirklich?
Okay, ich denke da spielt auch der subjektive Faktor rein und wie man sich die Bilder ansieht. Ja, ich sehe natürlich dass das eine Bild Pixeliger ist. Aber wenn ich die Bilder auf meinem Monitor ohne Skalierung betrachte (also so wie ich sie hochgeladen habe 1:1 ohne weiteren zoom) und einen Abstand wähle bei dem das Integer scale Bild halbwegs scharf aussieht (also das Gesamtbild, nicht die Pixel), dann sehe ich beim Wechsel auf das bicubic Bild nahezu keinerlei Schärfeverlust. Und genau darum gehts mir ja. Das ist praktisch das simulierte Szenario "was passiert, wenn ich das selbe Bild mit einer Pixelperfekten Darstellung auf einem Display mit nativer Auflösung mit einem skalierten Bild auf einem höherauflösendem Display vergleiche".

Tobalt
2024-03-11, 20:28:11
Was wäre denn die Alternative?

Man könnte auf Displayseite auf Frames verzichten, wenn man die Pixel einzeln und unabhängig voneinander refreshed.

Aber da sind wir schon wieder beim Wort refreshed, womit du weiterhin einen vorgegebenen Takt hast und damit eigentlich weiterhin Frames (nur nicht das komplette Bild, sondern eben kleiner, also einzelne Pixel). Und wenn du alle Pixel refreshen musst, würdest du sowieso wieder die volle Bandbreite brauchen...

Welcher Ansatz würde dir denn in den Sinn kommen?

Je mehr ich darüber nachdenke, desto stärker bin ich der Meinung, dass Pixel und Frames die einzige sinnvolle Möglichkeit sind, mit einem statischen Objekt, wie einem Monitor jegliche Art von Bildern darzustellen.

Die Alternative wäre, sich näher an das biologische Sehen heranzutasten. Es kommt aus allen Richtungen inkohärent irgendwie Licht zum Auge, ganz ohne Takt. Wenn dann eine bestimmte Sehzelle genug Photonen abbekommen hat, triggert sie einen Sehreiz, auch ohne Takt, aber trotzdem räumlich diskret. Das ganze wird dann im Hirn zu einer spatiotemporal homogene Szene interpoliert.

Die spatiotemporale Interpolation hat mit DLSS etc. ein enormes Upgrade erfahren. Sie bleibt aber noch hinter ihren Möglichkeiten zurück, weil auf der Zeitachse sich die Infos zu bestimmten Zeiten (den Frames) extrem häufen und dazwischen gar nichts vorliegt.

Die zeitliche Komponente ist also sehr sehr schlecht gesampled, während die räumliche gut gesampled wird. Wenn du jetzt einfach die vorhandenen Punkte im x,y,t Raum besser verteilst, dann kommst du mit der selben Pixelmenge (oder sogar mit deutlich weniger Pixeln), zu einer viel besseren Szene, die quasi noch immer die gleiche räumliche Informationsdichte hat, aber eine viel besser zeitliche Abtastung.

Soweit die Theorie, wie das optimale Anzeigegerät funktionieren würde: Keine niedrig getakteten Frames, sondern Bildinfos blitzen vor allem da auf, wo gerade das "meiste" los ist, also schnelle Änderungen und/oder heller Farbwert. Das Resultat wäre ein Seheindruck wie "IRL". Keine Bewegungsunschärfe, kein Ruckeln, aber Details ergeben sich erst dynamisch. Ein Vorteil ist, dass man den menschlichen Sehapparat mitnutzen kann: Das spatiotemporale Zusammenfügen der x,y,t Lichtblitze zu einer Szene müsste man nicht mehr über DLSS machen, sondern würde automatisch passieren im Kopf.

Dies ist aber wie gesagt ein Paradigmenwechsel, da viel unserer Renderpipeline damit nicht mehr funktioniert. Es wäre ein Standard, der auf Anzeigegerät und Grafikhardware der Zukunft abzielt, vielleicht in ~20 Jahren. Selbst so etwas profanes wie ein "Screenshot" ist dann eine fragliche Aktion, die man meu definieren müsste.

Relex
2024-03-11, 20:47:53
Ich verstehe vollkommen was du meinst. Das biologische Sehen kommt völlig ohne Pixel und Frames aus und dass das Konzept Nachteile hat ist wie du Beschreibst absolut schlüssig.

Was aber offen bleibt ist, wie man so ein Gerät bauen könnte oder ganz grundlegend, welches Prinzip man zur Darstellung von Inhalten überhaupt nutzen könnte.

Ich vermute, darauf hast du selbst noch keine Antwort. Ich finde es halt schwierig, eine Pradigmenwechsel herbeizusehen, wenn man zwar die Probleme verstanden hat, aber überhaupt kein Konzept hat, wie eine Lösung in ferner Zukunft überhaupt aussehen könnte.

Ist jetzt keine kritik, ich finde die Diskussion darüber wichtig, nur das WIE ist eben die große Frage. Ich kann mir aktuell keinen vernünftigen Ansatz vorstellen, wie man eine Anzeige ohne Einzelbilder und ggf. ohne Pixel realisieren möchte.


Was ich mir evtl. vorstellen könnte ist ein Display Layer mit einer art Flüssigkeit hinter der ein elektrisches Feld ist, welches die Flüssigkeit anregt und zum leuchten bringt.

Man könnte also ein elektrisches Feld erzeugen, das meinetwegen z.B. einen Kreis mit hilfe des leuchtenden layers darstellt.
Man könnte dann das Feld so verändern, dass aus dem Kreis ein Oval oder Rechteck wird oder man verschiebt das Feld und damit das dargestellte Objekt auf der Displayfläche. Da sich das Feld stufenlos ohne Pixelraster verschiebt und die Flüssigkeit dadurch an unterschiedlichen Stellen zum leuchten angeregt wird, hätte man keine Unterscheidung von Frames oder Pixeln. Die Darstellung selbst wäre rein analog, raster und taktlos und komplett fließend.

Aber da ist dann auch Ende mit meiner Vorstellungskraft. Wie man sowas überhaupt ansteuern könnte, keine Ahnung. Pure Science fiction...

Gast
2024-03-11, 21:25:19
Aber könnte man denn nicht auch auf einem 4K Display in 1080p oder 1440p spielen?


Ja könnte man.

Wäre das wirklich so viel schlechter, als auf einem Display mit nativer 1080p oder 1440p Auflösung zu spielen?


Nicht wirklich.


Die meisten würden wahrscheinlich mit ja antworten. Klassisches Upscaling erzeugt Unschärfe, die man bei nativer Auflösung nicht hat. Das will man natürlich vermeiden.


Nicht Upscaling macht das Bild unschärfer, der Mangel an Auflösung kostet die Detail. Das Upscaling ändert nur wie die vorhandenen geringeren Details repräsentiert werden.

Wobei die maximal repräsentierbaren Details von der Monitorauflösung bestimmt werden, ein 4k Monitor kann mehr darstellen wenn der Input es hergibt, bei 1440p oder 1080p ist entsprechend früher schluss.

Platos
2024-03-11, 22:47:21
@Relex: Ja die Bilder sind 1440p. Hast du einen 1440p Monitor? Weil ich hab ein 4k Monitor und daher sind die Bilder bei mir ganz klein, wenn ich sie in 1440p anschauen würde.

Aber bezüglich der Auflösung: Also dass 1080p auf nem 4k Monitor gleich aussieht, wie auf nem 1080p Monitor... Ist sas nicht klar? Also ich dachte, das sei klar, weil ja jedes Pixel einfach in 4 Pixel aufgeteilt wird. Es sollte dann aber wirklich exakt gleich aussehen und nicht so wie in deinen Bildern nur dann gleich, wenn man die Bilder genug "klein" macht.

Aber bei 1440p auf 4k geht das dann nicht mehr. Dann muss man ja aus 1x1 1.5x1.5 machen und das geht nicht auf. Daher wird das nie gleich gut aussehen (ich z.B hab ganz schlechte Erfahrung mit 1440p auf 2160p, als es noch keine Skalierung gab). Habe es aber auch nie bewusst gegengetestet (weils ja schlicht nicht verfügbar war).

Aber vlt. sollte ivh das mal machen.

Aber was willst du nochmals aussagen? Dass von 1440p auf 2160 upgescaled (und auf einem 2160p monitor dargestellt) gleich gut aussieht, wie 1440p + DLAA?

Sorry, da bin ich nicht ganz draus gekommen.

Tobalt
2024-03-11, 23:57:50
Ich verstehe vollkommen was du meinst. Das biologische Sehen kommt völlig ohne Pixel und Frames aus und dass das Konzept Nachteile hat ist wie du Beschreibst absolut schlüssig.

Was aber offen bleibt ist, wie man so ein Gerät bauen könnte oder ganz grundlegend, welches Prinzip man zur Darstellung von Inhalten überhaupt nutzen könnte.

Ich vermute, darauf hast du selbst noch keine Antwort. Ich finde es halt schwierig, eine Pradigmenwechsel herbeizusehen, wenn man zwar die Probleme verstanden hat, aber überhaupt kein Konzept hat, wie eine Lösung in ferner Zukunft überhaupt aussehen könnte.

Ist jetzt keine kritik, ich finde die Diskussion darüber wichtig, nur das WIE ist eben die große Frage. Ich kann mir aktuell keinen vernünftigen Ansatz vorstellen, wie man eine Anzeige ohne Einzelbilder und ggf. ohne Pixel realisieren möchte.


Was ich mir evtl. vorstellen könnte ist ein Display Layer mit einer art Flüssigkeit hinter der ein elektrisches Feld ist, welches die Flüssigkeit anregt und zum leuchten bringt.

Man könnte also ein elektrisches Feld erzeugen, das meinetwegen z.B. einen Kreis mit hilfe des leuchtenden layers darstellt.
Man könnte dann das Feld so verändern, dass aus dem Kreis ein Oval oder Rechteck wird oder man verschiebt das Feld und damit das dargestellte Objekt auf der Displayfläche. Da sich das Feld stufenlos ohne Pixelraster verschiebt und die Flüssigkeit dadurch an unterschiedlichen Stellen zum leuchten angeregt wird, hätte man keine Unterscheidung von Frames oder Pixeln. Die Darstellung selbst wäre rein analog, raster und taktlos und komplett fließend.

Aber da ist dann auch Ende mit meiner Vorstellungskraft. Wie man sowas überhaupt ansteuern könnte, keine Ahnung. Pure Science fiction...

Ein simples active matrix display auf Basis von OLED/QDEL o.ä. wäre IMO völlig ausreichend. Die Pixeldichte ist hoch genug, dass es als quasi-kontinuierlich wahrgenommen wird. Der Pixeltakt (irgendwo zwischen MHz und GHz) ist ebenfalls schon jetzt hoch genug um über jedweder Wahrnehmungsschwelle zu liegen.

Man steuert aber eben nicht einmal zu bestimmten Zeitpunkten alle Pixel nacheinander an, sondern im Displaystream ist neben Farbwert auch die Koordinate drin, sodass die Pixel dann sozusagen on-demand kommen. Jedes Pixel im Displaystream ist dann selbstständig und ist dann auch schön die größte Einheit... ein endloser Pixelstream.

Elektrisch ist ein wenig Umbau nötig. Am besten lädt man einen Kondensator auf eine gewisse Energie und entlädt den dann "blitzhaft" durch das Pixel, damit man keine Persistenzeffekte bekommt. Das Pixel sollte also gerade nicht lange leuchten.

Also mit aktueller Paneltechnologie und Verkabelung durchaus "denk"bar. Die größte Hürde ist IMO die Renderpipeline. Auch da wird sich halt auf dem Framekonzept ausgeruht. Die komplette Welt wird als Standbild gezeichnet mit all den etlichen Renderschritten, was eben nicht natürlich ist.

Hier braucht es Engines mit einem zeitkontinuierlichen Szenenmodell. Solche Engines sind vermutlich prinzipiell möglich, aber:
1) wir haben noch keine Grafikbeschleuniger dafür, weil der Vorteil der massiven parallelen Pixelberechnung entfällt. Vielleicht wäre ein hybrid hier OK, also ein "Frame" der einfach nur noch einige 1000 Pixel hat. Damit liegt die zeitliche Abtastung dann zwar nicht mehr bei zB. 100 MHz, sondern eher 100 kHz, aber immernoch gut genug. Die IHVs sind hier bestimmt kreativ wenn es Nachfrage gibt. Wichtiger aber:
2) Es gibt aktuell keine Verwendung für eine solche Engine, mangels Displayprotokoll, welches ohne Frames auskommt. Es müsste also erstmal ein solches Protokoll her, z.B. als Layer von Displayport. Dann können Enginehersteller, IHVs und Panelhersteller entsprechende Hardware backen. Deshalb ruhen meine Hoffnungen auf VESA.
Btw, hat jemand Kontakte zu VESA?

Platos
2024-03-12, 01:45:40
Ich verstehe dein Konzept nicht ganz. Willst du quasi ein Standbild haben und nur die Pixel, die sich ändern, "blitzen" neu auf, also ändern ihren Wert? Oder wie stellst du dir das vor?

Tobalt
2024-03-12, 06:09:44
Es gibt gar kein Standbild. Die Oberfläche sendet nur diskrete lokalisiere Lichtblitze aus, das Bild (bzw. Video wäre ein besseres Wort, oder eben Szene) entsteht erst im Sehapparat.

Disconnected
2024-03-12, 09:22:37
Ich kann es irgendwie nicht nachvollziehen: auf der einen Seite nach 4K oder gar 8K schreien, um das Bild dann wieder via Upscaling zu zermatschen.

Gast
2024-03-12, 09:36:08
MicroLED haben gegenüber OLED zwei potentielle Vorteile: Helligkeit und Haltbarkeit.


Nachdem es keine MicroLEDs mit entsprechenden Pixeldichten gibt, sind diese Annahmen rein hypothetisch.

Gast
2024-03-12, 09:40:58
Das einzige worauf ich gespannt bin, ist, ob QDEL im Praxisbetrieb dann haltbarer als moderne OLED werden wird.


QDEL wären um ein vielfaches haltbarer, die haben dann nicht mehr wirklich etwas mit LED/OLED gemeinsam.

Die Alterung der QDs ist nicht wirklich relevant, der limitierende Faktor wird dann wohl wieder die TFT-Elektronik sein welche die QDs ansteuert, und damit vergleichbar mit LCDs.

redpanther
2024-03-12, 09:47:24
Ich kann es irgendwie nicht nachvollziehen: auf der einen Seite nach 4K oder gar 8K schreien, um das Bild dann wieder via Upscaling zu zermatschen.

Nichts hindert dich daran am PC in nativer Auflösung in 8K zu spielen?
Höchstens Einstellige FPS.

ChaosTM
2024-03-12, 09:54:21
Mit der 4090er geht das in überraschend vielen Spielen recht gut, sogar ohne upscaling, nur ist der optische Zugewinn nicht wirklich vorhanden - frisst nur Bildrate.
So wie in einigen der früheren RTRT Titeln.. ;)

Exxtreme
2024-03-12, 10:15:14
Ich kann es irgendwie nicht nachvollziehen: auf der einen Seite nach 4K oder gar 8K schreien, um das Bild dann wieder via Upscaling zu zermatschen.

Der Glaube versetzt Berge. Wenn die Leute einen 4K-Bildschirm haben dann glauben sie halt auch, dass sie in 4K spielen. Obwohl das Ausgangsmaterial FHD ist und auch die Bildschärfe von FHD hat. Ist wohl eine psychologische Sache. Viele Menschen sind sehr gut darin sich selbst zu täuschen.

aceCrasher
2024-03-12, 10:20:25
Der Glaube versetzt Berge. Wenn die Leute einen 4K-Bildschirm haben dann glauben sie halt auch, dass sie in 4K spielen. Obwohl das Ausgangsmaterial FHD ist und auch die Bildschärfe von FHD hat. Ist wohl eine psychologische Sache. Viele Menschen sind sehr gut darin sich selbst zu täuschen.
DLSS Perf auf einem 4K Monitor hat eine signifikant bessere Bildschärfe als Full HD auf einem Full HD Monitor.

ChaosTM
2024-03-12, 10:25:08
Manche wollen halt keinen 4k Monitor. Das muss man akzeptieren. Ich sitze jetzt seit 11 Jahren vor so solchen Dingern und hab keinen einzigen Tag es nur gelegentlich bereut.

Ok, ganz am Anfang hat Windows noch gelegentlich Zicken gemacht bezüglich Skalierungen. Das konnte schon nerven.

Troyan
2024-03-12, 10:26:26
DLSS Perf auf einem 4K Monitor hat eine signifikant bessere Bildschärfe als Full HD auf einem Full HD Monitor.

Bingo. Kann jeder mit einem 1080p selbst feststellen, wenn man 4K Downsampling mit DLSS Performance macht.

Daher ist es heute auch egal. 4K Monitor mit DLSS ist besser als nativ 1080p und 1440p.

woodsdog
2024-03-12, 10:32:52
Bingo. Kann jeder mit einem 1080p selbst feststellen, wenn man 4K Downsampling mit DLSS Performance macht.

Daher ist es heute auch egal. 4K Monitor mit DLSS ist besser als nativ 1080p und 1440p.

Ja, wenn alle Games DLSS hätten.

The_Invisible
2024-03-12, 10:54:14
Manche wollen halt keinen 4k Monitor.

Wollen schon, da schauen aber viele nur auf den Preis, sieht man auch in Büros. Einen FullHD gibts halt schon für klar unter 100EUR und für UHD muss man mehr als >200EUR hinlegen. Genauso wie für Office Tippsen halt die billigste PC Kiste hingestellt wird, aber selbst die können schon alle UHD ausgeben.

Bei Gaming mit >120Hz und UHD wirds halt noch teurer, aber wie du schon sagst, einmal UHD und nie mehr zurück, da spiel ich dann lieber in DLSS-P was besser aussieht als manche wahrhaben möchten...

raffa
2024-03-12, 11:01:08
Was für Spiele kommen denn noch ohne Upscaler, gibts da noch welche?
Die Lage wird sich mit DirectSR zudem nochmal verbessern.

Wenn die Pixeldichte hoch genug ist, dann kann man recht frei skalieren, ohne dass es schlecht aussieht - man stelle sich ein Display mit unendlich vielen Pixeln vor. Da würde die Renderauflösung nur die Körnung beeinflussen.

Bleibt halt der Preis, so ein 4k+ Display ist halt viel teuer als ein FHD Schirm, zudem muss der Rest der Komponten mitspielen, genug Bandbreite usw da sein.
So lange gibts 4k 120Hz+ nun echt noch nicht.

MiamiNice
2024-03-12, 11:14:14
Gerade wurde der neue Dell geliefert. 32 Zoll, 4k, OLED, 240Hz mit gekrümmtem Display.

Dieser hier: https://tftcentral.co.uk/reviews/dell-alienware-aw3225qf

Ich bin gepannt wie sich das Teil schlägt oder ob er zurück muss.
Werde vielleicht berichten XD

dreas
2024-03-12, 11:22:14
Gerade wurde der neue Dell geliefert. 32 Zoll, 4k, OLED, 240Hz mit gekrümmtem Display.

Dieser hier: https://tftcentral.co.uk/reviews/dell-alienware-aw3225qf

Ich bin gepannt wie sich das Teil schlägt oder ob er zurück muss.
Werde vielleicht berichten XD

Na dann, Firmware Update machen und ein vernünftiges DP Kabel nehmen. Die beiliegenden DELL Kabel sind nicht von hoher Güte.

Nightspider
2024-03-12, 11:29:41
Wirf mal Star Citizen und Diablo 2 Resurrected an.

Das HDR macht daraus ganz andere, bessere Spiele. :)

MiamiNice
2024-03-12, 11:36:04
Na dann, Firmware Update machen und ein vernünftiges DP Kabel nehmen. Die beiliegenden DELL Kabel sind nicht von hoher Güte.

Mache ich immer. Bzw. habe ich ein hochqualitatives Kabel, die beiliegenden verbleiben generell im Karton.

Wirf mal Star Citizen und Diablo 2 Resurrected an.

Das HDR macht daraus ganz andere, bessere Spiele. :)

Ich ersetze einen OLED mit HDR gegen einen anderen OLED mit HDR. Kenne ich schon alles :)

Tesseract
2024-03-12, 11:47:55
Ich kann es irgendwie nicht nachvollziehen: auf der einen Seite nach 4K oder gar 8K schreien, um das Bild dann wieder via Upscaling zu zermatschen.

was ist daran nicht nachvollziehbar? ähnliche performance bei wesentlich besserer bildqualität. absoluter no-brainer.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13275968&postcount=15654

Nightspider
2024-03-12, 12:02:05
Ich ersetze einen OLED mit HDR gegen einen anderen OLED mit HDR. Kenne ich schon alles :)

Dann teste bitte mal den alten OLED mit 4K Downsampling gegen den neuen echten 4K OLED und sag mir wir groß du den Unterschied empfindest.

Bin auf meinem meistens in 5160*2160 unterwegs.

Disconnected
2024-03-12, 12:06:34
was ist daran nicht nachvollziehbar? ähnliche performance bei wesentlich besserer bildqualität. absoluter no-brainer.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13275968&postcount=15654
Trotzdem hat man Upscaling-Artefakte. Für mich sieht das letze Bild am saubersten aus.

Tesseract
2024-03-12, 12:17:36
keine ahnung was du meinst, das letzte bild hat wesentlich mehr artefakte bei schrift, vegetation, geometrie; texturen sind unschärfer, kanten jaggier etc.
die ganze szene ist wesentlich schlechter gerendert.

MiamiNice
2024-03-12, 12:23:58
Dann teste bitte mal den alten OLED mit 4K Downsampling gegen den neuen echten 4K OLED und sag mir wir groß du den Unterschied empfindest.

Bin auf meinem meistens in 5160*2160 unterwegs.

Ich bin mir nicht ganz sicher was Du von mir willst :D

Komme von hier: https://rog.asus.com/de/monitors/above-34-inches/rog-swift-oled-pg42uq-model/

und gehe zum neuem Dell. Der Grund ist nur die Größe. Ich erwarte keine großen Überraschungen.
Werde da wahrschienlich auch nicht lange rumtesten. Der Dell ist mit der beste Moni den man derzeit kaufen kann. So lange der keine Pixelfehler hat, wird der nur ausgetauscht und weiter gezoggt.

Relex
2024-03-12, 12:41:10
Ich kann es irgendwie nicht nachvollziehen: auf der einen Seite nach 4K oder gar 8K schreien, um das Bild dann wieder via Upscaling zu zermatschen.

4K mit DLSS Performance sieht um Welten besser aus, als native 1080p.
Du hast also mit modernem Upscaling einen extrem großen netto benefit und erhöhst damit das Verhältnis zwischen investierter Leistung und daraus gewonnener Bildqualität enorm.
Ist ja auch technisch erklärbar. Durch die temporale akkumulation von Bildinformationen über mehrere Frames entstehen in Summe mehr Bilddetails als im ursprünglichen Frame enthalten sind. Diese Details kann man in AntiAliasing und in ein höher aufgelöstes Bild investieren.

Es ist daher mittlerweile eigentlich quatsch, kein Upscaling zu nutzen. Praktisch jedes moderne Spiel das die GPU fordert, bietet einen der modernen temporal upscaler an.



Nicht Upscaling macht das Bild unschärfer, der Mangel an Auflösung kostet die Detail. Das Upscaling ändert nur wie die vorhandenen geringeren Details repräsentiert werden.

Wobei die maximal repräsentierbaren Details von der Monitorauflösung bestimmt werden, ein 4k Monitor kann mehr darstellen wenn der Input es hergibt, bei 1440p oder 1080p ist entsprechend früher schluss.


Spatiales Upscaling bringt grundsätzlich Unschärfe mit sich. Zeichne eine horizontale Linie auf einem 1440p Display. Skalier das Bild auf 4K hoch und schon wird die Linie nicht mehr scharf abgebildet. Wenn es also um pixelperfekte Abbildungen geht, dann ist klassisches spatial upscaling eine ziemlich schlechte idee.

Was ich bei meinem Test aber rausfinden wollte, ist wie sich das ganze denn in Bewegung verhält. Spiele sind ja praktisch immer in bewegung. Dank TAA/DLSS entsteht in Bewegung außerdem immer eine leichte Unschärfe. Damit gibt es keine Pixelperfekten Deails mehr und plötzlich spielt es keine Rolle mehr, ob das Bild Pixelperfekt dargestellt wird oder ob es durch einen spatial upscaler gejagt wird. Die Bildschärfe ist dann nahezu identisch und somit ist es praktisch auch nicht von Nachteil, wenn man auf einem 4K Display beispielsweise mit 1440p als eingestellte Auflösung spielt. Es sieht zumindest in Bewegung nicht schlechter aus, als auf einem nativen 1440p Display.

Spielt man aber z.B. irgend ein Strategie Spiel wie z.B. Anno 1800 mit MSAA, dann wird das 1440p auf 4K upscaled Bild deutlich unschärfer aussehen, als auf einem Display mit nativen 1440p. Da wir bei so einem Spiel keine TAA Unschärfe haben und die Kamera meistens still steht.




@Relex: Ja die Bilder sind 1440p. Hast du einen 1440p Monitor? Weil ich hab ein 4k Monitor und daher sind die Bilder bei mir ganz klein, wenn ich sie in 1440p anschauen würde.


Das ist doch egal. Ja ich habe eine 1440p Monitor. Aber ich muss etwas zurück gehen, damit die Bilder halbwegs klar erscheinen. Und dann sehe ich beim wechsel zwischen den beiden eben keinen Unterschied in Sachen allgemeiner Bildschärfe. Das kannst du auf einem 4K Display genauso testen. Musst eben den Sitzabstand so wählen, dass das Bild eben scharf wird und du die Pixel kaum noch erkennen kannst. Ist halt 720p.



Aber bezüglich der Auflösung: Also dass 1080p auf nem 4k Monitor gleich aussieht, wie auf nem 1080p Monitor... Ist sas nicht klar? Also ich dachte, das sei klar, weil ja jedes Pixel einfach in 4 Pixel aufgeteilt wird. Es sollte dann aber wirklich exakt gleich aussehen und nicht so wie in deinen Bildern nur dann gleich, wenn man die Bilder genug "klein" macht.


Aber bei 1440p auf 4k geht das dann nicht mehr. Dann muss man ja aus 1x1 1.5x1.5 machen und das geht nicht auf. Daher wird das nie gleich gut aussehen (ich z.B hab ganz schlechte Erfahrung mit 1440p auf 2160p, als es noch keine Skalierung gab). Habe es aber auch nie bewusst gegengetestet (weils ja schlicht nicht verfügbar war).

Aber vlt. sollte ivh das mal machen.


Wie ich schon sagte wollte ich testen, was mit dem Bild passiert, wenn man einen bicubic upscale macht um eben zu sehen, was bei 1440p @ 4K im Vergleich zu einem nativen 1440p Display an Schärfe verloren geht. Es spielt beim bicubic upscale keine Rolle, ob der Upscaling Faktor ganzzahlig ist oder nicht. Die Unschärfe ist immer gleich. Deshalb hat sich der Test mit 720p@ 1440p eben angeboten. Ich kann halt 1440p @ 4K nicht testen, weil ich kein 1440p Display habe das so groß wie mein 4K TV ist. Daher muss man das ganze eben mit geringeren Auflösungen testen/simulieren, die man auf einem Display in selber größe ohne einen weiteren skalierungsschritt darstellen kann.


Aber was willst du nochmals aussagen? Dass von 1440p auf 2160 upgescaled (und auf einem 2160p monitor dargestellt) gleich gut aussieht, wie 1440p + DLAA?

Sorry, da bin ich nicht ganz draus gekommen.

Genau das wollte ich aussagen. Zumindest wenn das Bild in Bewegung ist, und eine leichte TAA/DLAA Unschärfe dazu kommt, trifft das zu. Da spielt es keine Rolle ob upscaled wird oder nicht.
Bei Stillstand des Bildes wo alle inhalte pixelperfekt scharf sind, wäre der Spatial upscale von 1440p auf 2160p auf einem 2160p Display jedoch unschärfer als 1440p auf einem 1440p Display.



Aber gerne wieder back to topic. Ich finde das Thema passt zwar hier rein, vor allem weil es um 4K und die Performancekosten ging, was ja eine essenzielle Frage bei Monitorthemen ist, aber wir brauchen das jetzt auch nicht weiter bis ins kleinste zerlegen. Die Erkenntnis aus dem ganzen ist ja letzten Endes doch relativ simpel.

Disconnected
2024-03-12, 14:55:45
keine ahnung was du meinst, das letzte bild hat wesentlich mehr artefakte bei schrift, vegetation, geometrie; texturen sind unschärfer, kanten jaggier etc.
die ganze szene ist wesentlich schlechter gerendert.
Ich meine diese Weichzeichner-Effekte, die mir gerade bei hochfrequenten Inhalten besonders negativ auffallen. Leider hat man die heutzutage fast überall, auch mit TAA. Die für mich einzig gangbare Lösung ist daher das Gegenteil, nämlich Downsampling, evtl. in Verbindung mit Upscaling, aber nur so viel, dass die minimale Auflösung meiner Bildschirmauflösung entspricht. Alles andere verursacht bei mir Augenkrebs.

ChaosTM
2024-03-12, 15:16:38
Am 1440p 27er ist Downsampling eh nicht so aufwendig. Auf modernere Features verzichten und geht schon.

Bleiben immer noch die großen Pixel in Relation zum Abstand, ab dem man Artekate auch ausmachen kann. Die würden mich persönlich eher stören, aber da ist jeder anders..

MiamiNice
2024-03-12, 17:47:52
Gerade wurde der neue Dell geliefert. 32 Zoll, 4k, OLED, 240Hz mit gekrümmtem Display.

Dieser hier: https://tftcentral.co.uk/reviews/dell-alienware-aw3225qf

Ich bin gepannt wie sich das Teil schlägt oder ob er zurück muss.
Werde vielleicht berichten XD


Also in kurz:

Display ist besser lesbar als ein WOLED. Keine Farbsäume mehr bei der Schrift.
Asus hat eine viel bessere Qualität, Menus, Features. Der Dell hat auch keine Fernbedienung. Ich hatte ein Stück Plastik zwischen Rahmen und Display, habe ich noch nie gesehen so etwas. Die Kabel sind allesamt nicht qualitativ bei Dell, zusätzlicher Inhalt im Karton auch nicht vorhanden. Schwarzwert scheint mir beim Asus besser zu sein, HDR auch. Der Dell hat nur RGB, die Farben sind dementsprechend eher langweilig und absolut nicht zu vergleichen mit denen bei Asus mit DCI Farbraum. Alleine der DCI Farbraum sorgt für eine deutlich bessere Immersion bei vielen Spielen, ganz stark in Star Citizen. Er betont massiv den Sci-Fi Look, weiß nicht ob ich darauf verzichten kann.

Ich bin mir unschlüssig. Ich mag die Größe und die satte Schrift beim Dell. Alles andere mag ich bei meinem Asus lieber. Werde das Gerät ein paar Tage stehen lassen und nutzen und dann entscheiden.

dreas
2024-03-12, 19:44:43
DCI-P3 geht auch beim Dell. Einfach HDR kurz ausmachen und im Creator Submenü auf DCI-P3 umstellen. Mir wars allerdings zu viel Bonbon.

MiamiNice
2024-03-12, 20:02:13
Hat der hier scheinbar nicht oder ich finde es nicht ;D Ich kann, mit HDR off, zwischen RGB und YCbCr wechseln. Hast Du das selbe Modell?
Das mehr an PPI merkt man btw. sehr deutlich beim spielen. Von 42 Zoll auf 32 runter, ist immens.

dreas
2024-03-12, 20:15:30
Ja, das selbe Modell. Ist ein wenig verschachtelt.
Kuck morgen noch wal wo es konkret war.
Das DCI-P3 ist glaube unter einem anderen Submenü.

Platos
2024-03-13, 01:24:52
Also in kurz:

Display ist besser lesbar als ein WOLED. Keine Farbsäume mehr bei der Schrift.



Also das neue von Dell ist ist ein QD-OLED dritter Generation und dein alter Monitor hat ein LG WOLED Display?

Und du sagst, die das Fringing ist da deutlich besser?

MiamiNice
2024-03-13, 09:31:03
Ja, so ist es. Da liegen quasi Welten zwischen. Auf dem LG WOLED muss man sich nicht anstrengen um die Farbsäume zu sehen, auch von weiter weg nicht. Auf dem QD-OLED gibt es keine Farbsäume, null. Gestochen scharfe Schrift ohne Säume.

Nightspider
2024-03-13, 09:33:36
Naja 41,5 Zoll und 31,5 Zoll sind auch nicht ganz so direkt vergleichbar.

The_Invisible
2024-03-13, 09:45:06
Höhere PPI halt, bei ~40" wären ja schon eher 5k oder 6k angebracht. Deshalb finde ich die Monitore mit >40" und 1440p auch lustig ;)

MiamiNice
2024-03-13, 09:52:53
Naja 41,5 Zoll und 31,5 Zoll sind auch nicht ganz so direkt vergleichbar.

Der Unterschied ist dermaßen immens, dass ich das gestern ergoggelt habe. Wenn ich keinen Mist gelesen habe, liegt das nicht an der Auflösung bzw. Größe. Der Grund soll das 4. weiße Subpixel beim WOLED sein. Ein Pixel besteht normalerweise aus 3 Subpixeln in den Grundfarben und diese werden von der Hintergrundbeleuchtung sichtbar gemacht. Beim WOLED hast Du 4 Subpixel, wobei das 4. Subpixel weiß ist und für die Helligkeit sorgt. Das soll die Farbräume begünstigen.

Nightspider
2024-03-13, 09:54:33
War dir das neu mit dem weißen Subpixel?

Natürlich hat die Auflösung pro Zoll (Pixeldichte) ihren Anteil daran.

Wäre auch heftig, wenn man bei >30% höhere Pixeldichte keinen Unterschied sehen würde. Das bessere RGB Layout kommt dann noch oben drauf dazu.

Um RGB vs RWBG Panels zu testen müsste man schon zwei Displays der gleichen Diagonale nebeneinanderstellen.
Solche Tests werden sicherlich noch kommen da ja QD-OLED und WOLED Panels mit 4K Auflösung in 31,5 Zoll Diagonale kommen.

MiamiNice
2024-03-13, 10:09:20
Ich interessiere mich nicht in der Tiefe für Monitore. Wie ein WOLED funktioniert, habe ich mir allerdings trotzdem vor dem Kauf durchgelesen. Der Asus wurde rein für Star Citizen angeschafft, auch speziell in dieser Größe. Durch die beiden Virpils mit den Halterungen am Tisch, sitze ich deutlich weiter weg. Deswegen die 42". Das er dann derart ausartende Farbsäume hat, war mir nicht klar. Allerdings macht der Asus einfach ein absolut geiles Bild in Games, vor allem in Star Citizen. Kann man auch nicht in Worten fassen, in der Disziplin ist der Asus einfach perfekt durch die Abmessungen, DCI, dem HDR und dem matten Display. Das ist wie im Kino.
Zum arbeiten und nah vor dem Gerät sitzen und zoggen, ist der Dell aber nun deutlich besser. Ich habe mir überlegt noch mal meinen Schreibtisch zu erwerben und die beiden Tische Rücken an Rücken zu stellen. Den einen Schreibtisch mit dem Dell und meiner Gaming Peripherie, den anderen Schreibtisch mit dem Asus und SC Peripherie. Mal schauen ob ich das so umsetze, bisher gefällt mir die Idee ziemlich gut.

Deisi
2024-03-13, 10:15:19
Ich bin mir unschlüssig. Ich mag die Größe und die satte Schrift beim Dell. Alles andere mag ich bei meinem Asus lieber. Werde das Gerät ein paar Tage stehen lassen und nutzen und dann entscheiden.

Es gibt doch von Asus auch einen Monitor mit dem neuen Panel. PG32UCDM
Der ist auch ohne Krümmung, was mir besser gefiel.

Exxtreme
2024-03-13, 10:19:21
Es gibt doch von Asus auch einen Monitor mit dem neuen Panel. PG32UCDM
Der ist auch ohne Krümmung, was mir besser gefiel.

Die Frage ist, ob dieser Asus-Bildschirm die Nachteile des Dell nicht hat. Und viel teurer ist der auch noch da man schön für den Namen zahlt.

dreas
2024-03-13, 10:25:55
Ich hab den Dell und kann keine Nachteile feststellen. Welche meinst du?

Exxtreme
2024-03-13, 10:34:37
Die Nachteile, die Miami beschrieben hat. Sie wurmen ihn offenbar doch bissl. Und ist halt nicht ausgeschlossen, dass der neue Asus-Monitor diese Nachteile nicht hat. Ist auch das gleiche Panel, wenn auch ungebogen.

y33H@
2024-03-13, 10:56:49
Solche Tests werden sicherlich noch kommen da ja QD-OLED und WOLED Panels mit 4K Auflösung in 31,5 Zoll Diagonale kommen.

Ich finde die beiden Asus interessant, gerade auch wegen dem KVM-Switch inclusive DP 1.4 via USB-C, das wäre ideal für meinen Gaming-PC und daneben der Business-Laptop. Miami sagt ja, er sieht die Farbsäume beim PG32UCDM mit QD-OLED nicht ... daher frage ich mich wie es beim PG32UCDP mit RWGB-OLEDs in ein paar Monaten aussieht, spricht lohnt sich das warten wenn man viel (8+ Stunden am Tag) mit MS Office 365 arbeitet?

87474

Relex
2024-03-13, 11:17:53
Die Nachteile, die Miami beschrieben hat. Sie wurmen ihn offenbar doch bissl. Und ist halt nicht ausgeschlossen, dass der neue Asus-Monitor diese Nachteile nicht hat. Ist auch das gleiche Panel, wenn auch ungebogen.

"Nachteile" ist halt relativ. Das einzige was er im Bezug auf Bildqualität beschreibt ist dass der Schwarzwert beim Asus besser ist, weil er vermutlich das aufhellen bei QD-OLED sieht, wenn licht aufs Panel scheint. Da sind die LG Panels natürlich besser. In dunklerer Umgebung sollte der Schwarzwert aber identisch sein. Konnte das aber selbst noch nicht live sehen, daher will ich mir kein Urteil erlauben.

Dass er DCI-P3 Darstellung für sRGB Content will - da kann ich halt nur mit dem kopf schütteln. Wenn ich auf meinem IPS oder OLED TV den erweiterten Farbraum für sRGB nutze, sieht das einfach nur grauenhaft aus. Da stimmt halt nichts mehr, was man als Mensch natürlich am deutlichsten bei den hauttönen wahrnimmt...

Meines Wissens kann man das bei den aktuellen QD-OLEDs aber so einstellen, wenn man möchte. Aber jedem das Seine. Sowas als Mangel anzukreiden ist schon mutig. Wenn ich mir einen Monitor kaufe, dann wäre heutzutage ein Modus der sRGB auch wirklich nur in sRGB darstellt und das nicht auf den HDR Farbraum aufbläßt eine Grundvoraussetzung. Ohne sRGB clamp würde ich so ein Display nichtmal geschenkt nehmen, da unbenutzbar.

Aber ist halt so. Manche lieben es ihre Displays möglichst fernab von Referenzdarstellung zu nutzen. Gibt auch leute die ihren Monitor auf 9000K Farbtemperatur einstellung, weil sie denken, alles andere wäre pissgelb. ;D Da kannst nix machen...

Am Ende soll jeder seine Technik nutzen, wie er möchte. Nur ich finde es wichtig, dass man sich bewusst ist, was man da überhaupt verlangt und dass sowas eigentlich "unsinn" ist. Schön für die Leute, wenns geht, aber schwer sowas als konstruktive Kritik ernst zu nehmen.

dreas
2024-03-13, 11:22:34
Hat der hier scheinbar nicht oder ich finde es nicht ;D Ich kann, mit HDR off, zwischen RGB und YCbCr wechseln. Hast Du das selbe Modell?


Ja, das selbe Modell. Ist ein wenig verschachtelt.
Kuck morgen noch wal wo es konkret war.
Das DCI-P3 ist glaube unter einem anderen Submenü.

Hab eben geschaut, DCI-P3 ist bei ausgeschaltetem HDR unter dem Creator(Urheber) Mode unter Farbraum auswählbar.(stick nach rechts drücken)
Passendes Gamma noch auf 2,6 stellen, dann hast du deine bunten Farben.

Exxtreme
2024-03-13, 11:27:56
"Nachteile" ist halt relativ.
.
.
.


Das ist korrekt. Man wird das aber immer haben, dass Leute auf bestimmte Dinge stehen bzw. manche Dinge nicht mögen und man das selbst nicht nachvollziehen kann. Bei Miami sind das korrekte Farben, bei mir sind das allgemein Upscaler ala FSR/DLSS etc. Aber eventuell lässt sich Miamis Monitor doch umkonfigurieren.

Cubitus
2024-03-13, 11:52:10
Der Dell hat nur einen großen Nachteil, die Produktionsqualität.
Der Monitor kam bei mir verkratzt und verdreckt an, den Dreck entfernen bekam ich hin, allerdings wurde dann mit dem beiliegenden Microfasertuch+Wasser+Dreck die Beschichtung angegriffen, viele kleine Kratzer welche man bei ungünstigsten Winkel im Licht sieht.

Bekomme in den nächsten Wochen ein Tauschgerät.
Den alten nehmen Sie am Freitag mit.

Ansonsten ist es ein super Monitor, eigentlich das beste Bild was ich so bisher am PC sah. DLSDR kann er auch :) bzw. es gibt einen Modus ohne DSC..

MiamiNice
2024-03-13, 11:58:51
Ist halt sehr relativ irgendwie. Ich habe jetzt ein Jahr auf einen OLED im DCI Farbram geschaut und bin die Farben gewohnt. Beim Asus ist es halt so, dass die Farben sehr intensiv sind. Sie scheinen aus dem Bildschrim heraus zu treten und vor dem Display zu schweben. Außerdem kann man mit dem Bildschirm das Setting einiger Games gut anpassen. Z.b. in Star Citizen bekommt man über den Monitor entweder einen Dirty Space Look hin oder einen mehr Cyberpunk Look (intensive leuchtende Farben). Ein Sonnenaufgang in Star Citizen, wenn die Sonne hinter dem Planeten hervorkommt, bei dem die ersten Sonnenstrahlen eine Station küssen, ist auf dem Asus episch. Das ist wie ein 2024er Sci-Fi Film in Kino, eine absolute Augenweide bei der man sich schwer tut in die Sonne zu blicken aufgrund der punktuellen Helligkeit. Zwinkert man nach diesem Ereignis, sieht man die Sonne noch mit geschlossenen Augen, als hätte man beim schweißen keine Brille genutzt.
Der Dell hat halt die gewohnten matten Farben, die ein Monitor halt so hat. Alles eher blass bzw. weniger satt, dafür allerdings gestochen scharf. Das HDR ist auch nicht so starkt, dass man aus Reflex vom Monitor wegschauen möchte.

Hab eben geschaut, DCI-P3 ist bei ausgeschaltetem HDR unter dem Creator(Urheber) Mode unter Farbraum auswählbar.(stick nach rechts drücken)
Passendes Gamma noch auf 2,6 stellen, dann hast du deine bunten Farben.

Das werde ich nachher testen. Vielen vielen Dank dafür Dreas :up:

y33H@
2024-03-13, 13:12:58
Ist das ggf dem Coating geschuldet?

Nightspider
2024-03-13, 13:42:43
Ich habe jetzt ein Jahr auf einen OLED im DCI Farbram geschaut und bin die Farben gewohnt. Beim Asus ist es halt so, dass die Farben sehr intensiv sind. Sie scheinen aus dem Bildschrim heraus zu treten und vor dem Display zu schweben.

Kommt sicherlich sehr auf die Software drauf an. Die SC Alpha war/ist bei den Farben sehr blass. Andere Spiele hingegen, die von Haus aus schon sehr bunt sind, sehen dann aber vielleicht absurd bunt aus mit deinen Settings.

Aber zum Monitorvergleich taugen solch extrem subjektive Aussagen natürlich gar nicht.

Savay
2024-03-13, 14:50:41
Farbraum =/= Farbsättigung
Geht es hier um vollkommen nuklear verstrahlte Voreinstellungen ala "Lebhaft" oder "IchbinalsKindindenFarbeimergefallenunddarfseitdemnichtmehranderSättigungdrehen"?!?

Wenn ja dann ist das ja im wesentlichen die Sättigung und ggf. Farbtemperatur und die sollte sich ja easy ändern lassen.

Ich würde mal vermuten das irgende eine Einstellung hiervon ggf. zum Ziel führt?
https://tftcentral.co.uk/wp-content/uploads/2024/02/P1270056.jpg
CustomColorHDR vielleicht?!

HDR sollte davon abgesehen halt eh automatisch mit DCI-P3 oder sogar dem nativen Gamut laufen...oder hat der Dell etwa auch den Bug vom MSI?! :conf:
Ich sehe ehrlich gesagt mit korrekter Voreinstellungen unter HDR keinen signifikanten Unterschied in der "Buntheit" zwischen meinem C3 ("WOLED"), dem 321URX ("QD-OLED"), dem Yoga7 ("AMOLED") sowie dem S23 (Pen-Tile "AMOLED", egal ob "Natürlich" oder "Lebendig").

Nur wenn ich vergesse den sRGB Pro Mode vom 321URX auszumachen ist der deutlich blasser...aber das ist dann halt auch falsch.

SDR ist ne andere Geschichte.

Der LG hat generell nen recht ordentliches Farbmanagement. :up:
Der 321URX lässt sich passend einstellen, schaltet aber aktuell nicht automatisch auf Nativ zurück für HDR :deal:
Das Yoga 7 ist unter SDR viel zu gesättigt...sRGB Content clampt es leider nur mit dauerhaftem HDR Modus unter Win11 (halbwegs) korrekt.:nono: Sollte man zwar eigentlich nicht machen, aber es ist eines der Geräte bei denen ein dauerhafter HDR Modus ganz gut funktioniert.
Das S23 clampt unter "Natürlich" ganz passabel auf SDR/sRGB und schaltet für HDR Inhalte auch ordentlich auf Nativ um.:up:

MiamiNice
2024-03-13, 15:26:05
Farbraum =/= Farbsättigung

Ich weiss nicht wie ich es sonst ausdrücken soll. Wenn man beim Asus zwischen RGB und DCI umschaltet, sieht man das sofort an den Farben. Es geht von "matt" bzw. nicht satten Farben bei RGB, zu lechtenden satten Farben mit DCI.
Der Unterschied ist optisch mehr als nur wahrnehmbar, er drängt sich geradezu auf. DCI hebt daher in Spielen die von satten Farben profitieren, massiv die Immersion. Gutes anderes Beispiel als SC wäre CP2077. Das ist so schon sehr farbenfroh durch das Cyberpunk Setting. Auf RGB sieht es aus wie ein PC Spiel, mit DCI wie ein Kinofilm.
Muss mal schauen ob ich das mit einem Bild per Handy eingefangen bekomme.

Savay
2024-03-13, 16:16:58
Nutzt du HDR oder bleibst du unter SDR?

HDR sollte wie gesagt eigentlich automatisch auf nativen bzw. DCI P3 Gamut schalten.
Von meinen HDR fähigen Fernsehern und den Handys die ich hatte kenne ich das gar nicht anders.
Das Yoga7 macht im "Permanenten" HDR Modus quasi auch das gleiche. (Desktop und SDR Inhalte laufen mit ~sRGB, nur HDR Content nutzt das volle Gamut aus.)

Tesseract
2024-03-13, 16:22:10
wenn in CP HDR an ist und die farben an den farmraum angepasst sind passt das ja auch, dann bekommt man bei neonröhren usw. mehr farbe aber hautfarbe usw. stimmt trotzdem, aber P3 in SDR ist doch einfach nur falsch, wie kann man das wollen?

ChaosTM
2024-03-13, 16:36:46
Wenn Gamma, Sättigung etc. gleich kalibriert sind, ist bei meinem OLED (LG-Evo Panel ) nur ein gaanz kleiner unterschied bezüglich Farbstärke bemerkbar.
Saturation um zwei Punkt angehoben bei RGB und es schaut wieder praktisch identisch aus.

Fahr aber trotzdem DCI-P3, da die Farbraum Abdeckung höher ist. Wirklich sehen tu ich es aber nicht um ehrlich zu sein.


add.. Colour Space ist unter HDR gesperrt und auf DCI-P3, so wie es sein soll.
Das war nicht immer so. In der ersten Firmware Version konnte es passieren, das Windows (oder der Monitor) auf 8bit und begrenzt runter schaltete -> das gibt dann das viel geliebte ausgewaschene Bild.

MiamiNice
2024-03-13, 18:12:47
Hab eben geschaut, DCI-P3 ist bei ausgeschaltetem HDR unter dem Creator(Urheber) Mode unter Farbraum auswählbar.(stick nach rechts drücken)
Passendes Gamma noch auf 2,6 stellen, dann hast du deine bunten Farben.

Ich habe die Einstellung gefunden, ist ganz schön tief versteckt. Jetzt wird die Sache aber irgendwie „spannend“. Scheinbar schaltet der Dell DCI generell an, wenn man HDR deaktiviert. Tatsache ist, ich betreibe den Monitor in DCI Farbraum. Wenn ich den Schalter auf sRGB stelle, verliert das Bild Farbe.
Ich schätze das Asus hier irgendetwas anders macht, kann aber, mangels Wissens, nicht beurteilen, was das ist. Das DCI Bild auf dem Dell, ist farblich vergleichbar mit dem sRGB Bild auf dem Asus. Schalte ich beim Asus auf DCI, sieht der Dell farblos aus. Könnte mir vorstellen, dass das an dem Material liegt, welches auf dem Display ist. Das Dell Material glänzt und spiegelt ein wenig, scheint aber matt zu sein und ein wenig zu dämpfen. Auf dem Asus ist eine andere Art Beschichtung. Ist matt, spiegelt nicht, lässt Farben scheinbar mit mehr "Glanz" erscheinen.
Die Menüführung beim Dell ist irgendwie verwirrend. Während man im Hauptmenü unter Display zwischen RGB und YCbCr wechseln kann, kann man in einem ganz anderen Menü, welches nicht im Hauptmenü zu finden ist, zwischen sRGB und DCI wechseln. Da muss man erst einmal drauf kommen.
Ich werde beide Monitore behalten. Der Dell ist deutlich besser im Alltag, schneller bei Shootern, man kann mehr erfassen ohne Augen oder Kopf zu drehen und er ist viel schärfer als der Asus. Dazu kommt, dass man auf dem Asus eigentlich nicht arbeiten kann, aufgrund der Farbsäume. Der Asus macht dafür Kinofeeling, wenn man den passenden Sitzabstand hat. Er lässt Content besser aussehen.

exzentrik
2024-03-15, 11:29:24
ASUS PG32UCDM (https://www.prad.de/asus-pg32ucdm-startet-in-de-mit-300-euro-rabatt/) (4K240, QD-OLED Gen 3, True Black 400, KVM, ELMB, FreeSync Premium Pro) startet in Deutschland – für regulär fast 1.800 Euro. Gibt aber zur Einführung immerhin 300 Euro Rabatt.

Exxtreme
2024-03-15, 12:04:32
1.800 EUR sind viel zuviel wenn man den Dell AW3225QF für 1.120 EUR haben kann. Keine Ahnung was sich ASUS dabei denkt. Wahrscheinlich hoffen sie, dass die Leute den kaufen weil ASUS draufsteht. :freak: Oder es ist eine FOMO-Taktik ala "Holt euch den jetzt für 1.500 EUR bevor er 1.800 EUR kostet". :freak:

raffa
2024-03-15, 12:41:24
Warum haben die "Gaming" Schime eigentlich diese grußeligen Standfüße?

Tesseract
2024-03-15, 12:45:36
der asus ist flach und hat keine aktive kühlung, ist also nicht direkt mit dem dell vergleichbar. hoffentlich ist der "rabatt" kein sinnloser paperlaunch.

y33H@
2024-03-15, 15:09:55
Ohne zu wissen wie sich der PG32UCDP mit WOLED schlägt, tue ich mir selbst mit €1500 schwer :(

Troyan
2024-03-15, 15:13:19
Alienware gibt es für 300€ weniger. Ne, sorry. Denke, dass Dell denen mal massiv in die Suppe gesuckt hat mit der OVP in Europa.

y33H@
2024-03-15, 20:01:14
Nie wieder Lüfter, ergo kein Alienware/Dell.

dreas
2024-03-15, 20:15:54
Der Lüfter ist generell aus, geht nur im Ausnahme Fall an. Aus meiner Sicht überhaupt kein Problem.
Bin sogar froh das einer für den Notfall da ist.
Kann mir nicht vorstellen wie die anderen das rein passiv hinbekommen.

Gumril
2024-03-15, 20:44:01
Merkt euch das für in 3 Monaten und dann berichtet ob der Lüfter im Sommer auch noch so leise arbeitet oder nie angeht.

Der LG 27GR95QE-B hat mich von Lüftern geheilt, keine Lüfter in meinen Monitoren.

ChaosTM
2024-03-15, 21:07:26
Warum brauchen Monitore plötzlich Lüfter.
Liegt das am sinnfreien Nvidia Gsync Modul?

y33H@
2024-03-15, 21:30:44
Damit die OLEDs nicht überhitzen und übermäßig altern.

y33H@
2024-03-15, 21:31:34
Der LG 27GR95QE-B hat mich von Lüftern geheilt, keine Lüfter in meinen Monitoren.Jepp :-(

ChaosTM
2024-03-15, 21:45:24
Damit die OLEDs nicht überhitzen und übermäßig altern.


Eine etwas stärkere/dickere Metallbeschichtung hinter dem Paneel, die zb. auch Panasonic verwendet, löst das ohne Lärm.
Kostet halt etwas mehr..

y33H@
2024-03-15, 22:26:09
Der Asus kostet mehr als der Alienware Dell ^^

Exxtreme
2024-03-15, 22:35:17
Die Frage ist halt ob eine Metallplatte wirklich 600 EUR kostet. :)

Relex
2024-03-15, 22:36:40
Der Lüfter ist generell aus, geht nur im Ausnahme Fall an. Aus meiner Sicht überhaupt kein Problem.
Bin sogar froh das einer für den Notfall da ist.
Kann mir nicht vorstellen wie die anderen das rein passiv hinbekommen.

Was heißt denn Notfall? Geht er im (HDR) Betrieb an oder nicht?

Notfall wäre für mich Sommer bei 30 Grad Raumtemperatur oder wenn ich ihn durchgehend bei maximaler Helligkeit mit viel Weiß im Bild betreibe.

MadManniMan
2024-03-16, 14:15:24
An die LG-OLED-Nutzer, die auch den LG TV Companion benutzen: Wie bekommt ihr es hin, dass der "Monitor" auch wieder einschaltet? Wann immer ich den Rechner wieder einschalte, muss ich den Fernseher per Fernbedienung wieder einschalten und HDMI1 als Zugang wählen ...

Edit: ColorControl funzt :up: (Link: https://github.com/Maassoft/ColorControl/releases)

dreas
2024-03-16, 14:38:07
Was heißt denn Notfall? Geht er im (HDR) Betrieb an oder nicht?

Notfall wäre für mich Sommer bei 30 Grad Raumtemperatur oder wenn ich ihn durchgehend bei maximaler Helligkeit mit viel Weiß im Bild betreibe.

Hier gibts nur HDR und nein, geht er nicht.

Relex
2024-03-16, 15:16:24
Hier gibts nur HDR und nein, geht er nicht.

Ok, das ist dann durchaus positiv.

Wenn er bei typischer Nutzung niemals an ist finde ich es auch gut und sinnvoll, dass sich notfalls dann doch noch ein Lüfter einschalten kann, falls es mal notwendig sein sollte.

Im Zweifel lieber so, als BurnIn oder anderweitig kritische Temperaturen auf der Platine, wenns doch mal zu heiß wird.

Deisi
2024-03-16, 16:10:58
Wenn die Hersteller nicht immer nur 5cent Lüfter verbauen würden, wäre dem Problem auch sehr geholfen. Der Asus FALD für 2,5k damals hatte genauso unangenehme Lüftergeräusche wie der Alienware 1.gen, den ich bis vorkurzem noch hatte. Im Luxx konnten einige das Problem durch Tausch mit einem hochwertigeren Lüfter beheben. Es ist liegt also hauptsächlich daran, dass die Hersteller noch 1-2 euro sparen wollen.

Tesseract
2024-03-16, 16:12:01
in der praxis wird das panel aber wohl fast immer wärmer sein als die der passiv gekühlten modelle. dass dieser "notfall" eintreten kann ist eher kein gutes zeichen.

Wenn die Hersteller nicht immer nur 5cent Lüfter verbauen würden, wäre dem Problem auch sehr geholfen. genau das. hätte ein monitor einen (tausch/servicebaren) 80mm lüfter oder ähnliches der dauerhaft langsam läuft wäre das IMHO kein großes problem, aber wenn die in der praxis quasi nie laufen sind sie garantiert klein, schlecht und eine billige (not)lösung für ein problem das garnicht existieren sollte.

Relex
2024-03-16, 17:16:14
Das hat mit dem panel doch nix zu tun. Kühlung egal ob aktiv oder passiv bezieht sich herstellerspezifisch nur auf die Hauptplatine. Eine warme hauptplatine kann Burnin natürlich potenziell fördern... Ob die Platine bei den aktiv oder passiv gekühlten Monitoren wärmer werden kann kann man ohne Tests aber überhaupt nicht sagen.

Dass der Chip darauf bei 240 Hz 4K und DSC Verarbeitung warm wird, wundert mich aber grundsätzlich nicht. Da müsste man aber wie gesagt mal nachmessen ob und wenn ja, welche Temperaturunterschiede es da gibt.


Ach ja und das "Graphene film" zeugs das Asus bewirbt haben garantiert auch alle anderen Modelle.
Denn Asus wird wohl nicht das Panel das sie von Samsung bekommen nochmal komplett auseiander lösen, und einen wenige atome dicken Graphene Film aus Panel auftragen. Und aufs Panel Gehäuse wird das wohl kaum was bringen... (zumal asus nunmal kein Panelhersteller ist, der über solche Anlagen verfügen würde)


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=87503&stc=1&d=1710605749

raffa
2024-03-16, 17:55:57
Noch ein paar Fragen zum Dell AW3225QF an die Besitzer.

- Was habt ihr für einen Eindruck vom Reflexionshandling gewonnen?
- VRR scheint zu flackern, true?
- Wie gefallen euch Größe und curve?

Tesseract
2024-03-16, 18:03:33
Das hat mit dem panel doch nix zu tun.
natürlich hat das mit dem panel zu tun. auf den LG TVs ist die komplette panelrückseite metall um die wärme an den raum abzugeben, und kann durchaus sehr warm werden. der graphenfilm ist nur das wärmeleitpad. elektonik kommt dann noch dazu zum thermischen budget.

Ob die Platine bei den aktiv oder passiv gekühlten Monitoren wärmer werden kann kann man ohne Tests aber überhaupt nicht sagen.

es gibt aber indizien. warum glaubst du hat der billigste monitor mit dem panel einen lüfter und die anderen nicht? ich würde definitiv davon ausgehen dass dieses modell thermisch fragwürdiger gebaut ist bis jemand das gegenteil beweist.

Slipknot79
2024-03-16, 18:16:57
Was heißt denn Notfall? Geht er im (HDR) Betrieb an oder nicht?

Notfall wäre für mich Sommer bei 30 Grad Raumtemperatur oder wenn ich ihn durchgehend bei maximaler Helligkeit mit viel Weiß im Bild betreibe.


Und genauso hat es 30min gedauert, bis bei mir der DWF-Lüfter anwarf. (y) Es war SDR content, irgendeine helle website.

Wenn man im Winter an den Lüftungsschlitzen laufwarme Temps spürt (ca 28°C), dann wird man im Sommer keinen Lüfter hören. (y)

dreas
2024-03-16, 18:27:02
Noch ein paar Fragen zum Dell AW3225QF an die Besitzer.


Gern.


- Was habt ihr für einen Eindruck vom Reflexionshandling gewonnen?

Ist mein erster Glare aber hat eine Beschichtung die in meinem Umfeld nicht stört. Schräg hinter mir ist die Stehlampe der Couch in etwa 2m Entfernung und stört nicht. Hatte schlimmeres befürchtet und hab sonst nur matte Bildschirme.


- VRR scheint zu flackern, true?
Sehr selten bei Ladebildschirmen wo die Range nicht gut passt.
Habe deswegen mehrfach mit HDMI und DP Kabel getestet. Hab das beiliegende DP Kabel durch ein hochwertigeres ersetzt und bin zufrieden.
Flackert deutlich weniger als mein alter C32HG70. Und der war schon recht gut. Ingame merkt man es gar nicht.


- Wie gefallen euch Größe und curve?

Größe ist für mich das Optimum. Größer wäre unkomfortabel weil ich den Kopf drehen müsste und die PPI aus meiner Sicht nicht passt.
Ich mag auch eher 16:9 und kann den überbreiten Modellen nix abgewinnen. Schon mein altes Modell hatte 32 Zoll, da aber noch mit 1440p.

Curve mag ich auch und hatte mich beim alten schon daran gewöhnt. Finde ich beim zocken inzwischen angenehm. Nur die Krümmung darf nicht zu stark sein. Beim Dell passt das. Mein 32er im Büro ist aber flach.

Relex
2024-03-16, 18:39:24
es gibt aber indizien. warum glaubst du hat der billigste monitor mit dem panel einen lüfter und die anderen nicht? ich würde definitiv davon ausgehen dass dieses modell thermisch fragwürdiger gebaut ist bis jemand das gegenteil beweist.

Fair enough. Aber falls es wirklich die gleichen Panels mit gleichem Aufbau sein sollten, dann wäre die Variante mit zusätzlichem Lüfter sogar die "teurere" für den hersteller. :D

Ich finde sowas ohne Tests eben schwer zu beurteilen. Sich hier nur auf das Marketing zu beziehen ist auf jeden Fall der falsche Weg.

Und dass Asus den Panels tendenziell mehr zumutet als andere Hersteller ist nix neues. Mein ASUS ROG IPS mit 170 Hz hatte damals auch eine besonders hohe Spitzenhelligkeit von fast 600 nits. Und joa, jetzt nach fast vier Jahren gehen die LEDs langsam kaputt.

Gut, das HDR hatte ich nur ein paar mal ausprobiert. Aber will nicht ausschließen, dass die LEDs davon Schaden genommen haben. Aber keine Ahnung. Ist halt mein erster LCD überhaupt, der jemals Anzeichen eines Defekts aufweißt. Kann auch nur Pech sein.

Aber solange ich keine Messungen und Tear Downs sehe gehe ich eben davon aus, dass der Asus diesbezüglich auch nicht besser ist. Aber das ist halt wieder der psychologische Effekt. Der Asus hat nen schicken metallstandfuß und kostet 50% mehr, also geht man davon aus, dass er auch besser sein muss. Aber ob das wirklich so ist, weiß aktuell praktisch niemand.



Und genauso hat es 30min gedauert, bis bei mir der DWF-Lüfter anwarf. (y) Es war SDR content, irgendeine helle website.

Wenn man im Winter an den Lüftungsschlitzen laufwarme Temps spürt (ca 28°C), dann wird man im Sommer keinen Lüfter hören. (y)

Ja gut, aber beim DWF ist ja bekannt, dass der Lüfter angeht. Es geht ja um den neuen AW3225QF und da sagen ja eigentlich alle Leute im Netz, dass der Lüfter gar nicht angeht. Scheint sich also deutlich anders zu verhalten, als der DWF.

Deisi
2024-03-16, 18:42:38
Abwarten. Der AW3225QF hat noch keinen Sommer erlebt. :freak:

Slipknot79
2024-03-16, 19:20:44
Ja gut, aber beim DWF ist ja bekannt, dass der Lüfter angeht. Es geht ja um den neuen AW3225QF und da sagen ja eigentlich alle Leute im Netz, dass der Lüfter gar nicht angeht. Scheint sich also deutlich anders zu verhalten, als der DWF.


Dann knall mal 100% Helligkeit rein auf einer hellen website. Haut die Augen raus bevor da irgendein Lüfter startet.
Das Teil startet praktisch nie. (y)

Abwarten. Der AW3225QF hat noch keinen Sommer erlebt. :freak:

Solange muss man nicht warten. Einfach bei den Lüftungsschlitzen grapschen, wenn lauwarm, dann auch kein Thema im Sommer.

1ch0
2024-03-16, 19:24:06
Ich spiele inzwischen mit dem Gedanken, mir vielleicht einen OLED oder Ähnliches zuzulegen, um endlich HDR und höhere Bildwiederholraten zu erleben.

Jetzt, da ich schuldenfrei bin und endlich mein volles Gehalt zur Verfügung habe, kann ich mehr investieren. Die Anschaffung der 4080 war der erste Schritt in diese Richtung. Jetzt könnte auch ein High-End-Monitor in Betracht kommen. :)

MadManniMan
2024-03-16, 20:45:34
Jetzt, da ich schuldenfrei bin und endlich mein volles Gehalt zur Verfügung habe, kann ich mehr investieren. Die Anschaffung der 4080 war der erste Schritt in diese Richtung. Jetzt könnte auch ein High-End-Monitor in Betracht kommen. :)

Herzlichen Glückwunsch, genieß es!

Ist bei mir derselbe Grund, warum hier jetzt ein 42er-OLED steht und von einer Grafikkarte aus einem Preisbereich befeuert wird, den ich früher immer ausgeschlossen hätte :D

Asaraki
2024-03-16, 22:21:46
Aber nicht alles auf einmal ausgeben ;-)
Viel Spass <3

raffa
2024-03-17, 11:04:53
Gern.
...


Dank dir. Klingt ja alles durchaus positiv. Ich speicher mir das mal so ab.

Robspassion
2024-03-18, 09:48:27
Hallo zusammen, ich nutze seit Freitag den MSI MPG 321URX QD-Oled 3840*2160 @ 240 hz.

Komme vom LG CX 48 Zoll und dann LG C2 42 Zoll (Beides WRGB - Oled).

Eine Sache die nervt ist, dass der VRR Flicker in 240 hz in einigen Situationen viel stärker ist und viel sichtbarer als bei meinen LG TVs mit 120 hz. Wenn ich den MSI auf 120hz limitiere, ist das Flackern so gut wie weg und dann sieht es wie beim LG TV aus.

Ich kenne das Verhalten von einem Kumpel, der hat einen LG UltraGear 27GR95QE-B (WRGB Oled) und der flackert exakt gleich in den gleichen Situationen mit 240hz und kein Flackern mit 120hz oder wenn VRR aus ist. Ist das jetzt bei allen 240hz Oled Modellen so und muss man damit leben? Meistens sieht man das in Ladescreens und bei Rucklern, wo die Framerate stark schwankt. Bei Alan Wake 2 ist es aber praktisch immer sichtbar in den dunklen Abschnitten. Ich würde das als unspielbar beurteilen. Sonst hab ich das in anderen Spielen kaum gesehen außer wie gesagt bei Rucklern und in Ladescreens.

Hab DP und HDMI ausprobiert macht keinen Unterschied.

Ansonsten ist der Monitor top, hat bessere HDR Helligkeit und Farbhelligkeit als mein C2. 240hz sind ein ordentlicher Sprung, wenn ein Spiel das mal schafft mit der RTX 4090. Einzig was noch stört, ist dass es schon sehr dunkel im Raum sein muss, damit das schwarz an das des LG C2 herankommt. QD-Oled halt.

redpanther
2024-03-18, 09:56:45
Wie hast du Gsync im NVCLP eingestellt?
Ich spiele wenn es irgend geht Fullscreen. Und habe auch im Control Panel NUR Fullscreen für Gsync compatibel eingestellt. Dann flackert es auch nicht.

Sollte ein Spiel im Fenster laufen, kann man das dann immer noch im Spiele Profil ändern.
Ist für mich so die beste Lösung.

Robspassion
2024-03-18, 10:08:31
Ich habe Beides ausprobiert, nur Fullscreen und Fullscreen + windowed. macht keinen Unterschied. Alan Wake 2 läuft im Fullscreen, was wahrscheinlich unter DX12 Borderless Windowed ist.

redpanther
2024-03-18, 13:25:37
Hm, interessant. Ich hab den Samsung G9 QD-OLED, auch 240Hz.
Mir ist in AW2 keinerlei VRR Flicker aufgefallen.

anddill
2024-03-18, 15:14:38
Der Alienware AW3225QF hat heute wieder ein Firmware Update bekommen:

Fehlerkorrekturen und Verbesserungen
1. Fix over-sensitivity of abnormal temperature detection potential mis-trigger Abnormal Thermal detection message pop-up.
2. Fix potential image clipping at the edge of the left or right side of the panel.

Lustig, inzwischen gibts öfter Monitor-Firmware als Grafiktreiber Updates ;)

robbitop
2024-03-18, 15:18:16
Hallo zusammen, ich nutze seit Freitag den MSI MPG 321URX QD-Oled 3840*2160 @ 240 hz.

Komme vom LG CX 48 Zoll und dann LG C2 42 Zoll (Beides WRGB - Oled).

Eine Sache die nervt ist, dass der VRR Flicker in 240 hz in einigen Situationen viel stärker ist und viel sichtbarer als bei meinen LG TVs mit 120 hz. Wenn ich den MSI auf 120hz limitiere, ist das Flackern so gut wie weg und dann sieht es wie beim LG TV aus.

Ich kenne das Verhalten von einem Kumpel, der hat einen LG UltraGear 27GR95QE-B (WRGB Oled) und der flackert exakt gleich in den gleichen Situationen mit 240hz und kein Flackern mit 120hz oder wenn VRR aus ist. Ist das jetzt bei allen 240hz Oled Modellen so und muss man damit leben? Meistens sieht man das in Ladescreens und bei Rucklern, wo die Framerate stark schwankt. Bei Alan Wake 2 ist es aber praktisch immer sichtbar in den dunklen Abschnitten. Ich würde das als unspielbar beurteilen. Sonst hab ich das in anderen Spielen kaum gesehen außer wie gesagt bei Rucklern und in Ladescreens.

Hab DP und HDMI ausprobiert macht keinen Unterschied.

Ansonsten ist der Monitor top, hat bessere HDR Helligkeit und Farbhelligkeit als mein C2. 240hz sind ein ordentlicher Sprung, wenn ein Spiel das mal schafft mit der RTX 4090. Einzig was noch stört, ist dass es schon sehr dunkel im Raum sein muss, damit das schwarz an das des LG C2 herankommt. QD-Oled halt.
Hast du versucht, einen Framelimiter auf 238 Hz zu setzen? Das ist laut blurbusters auch die Default Empfehlung zum Umgang mit VRR: VSync off + framelimter ~2-3 Hz Unter das Maximum.

y33H@
2024-03-18, 15:23:03
Lustig, ich betreibe meinen LG 27er mit 120 fps/Hz Limit, damit die RTX 4080 FE nicht am Anschlag läuft bzw in 1440p mit RT usw schaffe ich eh nur zweistellige Bildraten in sehr fordernden Titeln.

Robspassion
2024-03-18, 15:35:14
Hast du versucht, einen Framelimiter auf 238 Hz zu setzen? Das ist laut blurbusters auch die Default Empfehlung zum Umgang mit VRR: VSync off + framelimter ~2-3 Hz Unter das Maximum.

Ja mein Framerate Limiter ist bei 236. Vsync off kann ich nochmal testen. Habs im Control Panel an und in Spielen immer aus. Bei Alan Wake 2 hab ich aber weitaus nicht so viele FPS mit Path-Tracing :D. Ist wie gesagt auch das einzige Spiel wo mir das so negativ aufgefallen ist. Sonst nur in Loading Screens und bei Rucklern, wenn die Framerate kurz einbricht.

Der MSI Monitor hat auch ein Firmware Update bekommen da steht aber nix von VRR Flicker.

Lustig, ich betreibe meinen LG 27er mit 120 fps/Hz Limit, damit die RTX 4080 FE nicht am Anschlag läuft bzw in 1440p mit RT usw schaffe ich eh nur zweistellige Bildraten in sehr fordernden Titeln.

Guter Tipp, ich teste mal nen niedrigeren FPS Limitier in Alan Wake 2. Meine 4090 schafft in 4k/DLSS P+ Frame Gen und mit Path-Tracing eh meistens nicht mehr als 120 FPS.

Gast
2024-03-18, 16:06:43
Hm, interessant. Ich hab den Samsung G9 QD-OLED, auch 240Hz.
Mir ist in AW2 keinerlei VRR Flicker aufgefallen.

Samsung hat eine Option die VRR-Flicker verhindert.

raffa
2024-03-18, 16:24:17
Wie kommt es denn eigentlich zu diesem VRR Geflacker?

Savay
2024-03-18, 17:09:18
Wie kommt es denn eigentlich zu diesem VRR Geflacker?

Wenn die FPS bzw. die Hz sehr stark schwanken verschiebt sich das Gamma bei den OLEDs...das nimmt man als Flackern wahr.
Es ist kein "echtes" Flackern im eigentlichen Sinne.

Sollte vor allem am oberen oder unteren Ende (wegen LFC) der VRR Range auftreten.
Wenn man sich relativ stabil im mittleren VRR Bereich des Panels bewegt, tritt das mW eigentlich nicht auf.

Ich sehe es bisher auch fast nur in dunklen Menüs oder Ladebildschirmen (Diablo IV bspw.)
Bei mir tritt es mit dem MSI 321URX aber auch irgendwie bisher eher seltener als mit dem LG 65C3 auf...wahrscheinlich liegen meine effektiven FPS mit meinem Setup bisher einfach in einer günstigeren Range für das 240Hz als für das 120Hz Panel.

Robspassion
2024-03-18, 17:44:02
Bei mir tritt es mit dem MSI 321URX aber auch irgendwie bisher eher seltener als mit dem LG 65C3 auf...wahrscheinlich liegen meine effektiven FPS mit meinem Setup bisher einfach in einer günstigeren Range für das 240Hz als für das 120Hz Panel.

Hast du Alan Wake 2?

Hab mit Vsync off getestet und einem 110 FPS Limit, keine Änderung weiterhin Flackern. Es tritt exakt dann immer auf in dunklen Szenen, wenn es minimal "ruckelt", die Frametime Linie vom Afterburner zeigt einen minimalen Ausschlag und es flackert. Komisch, dass das bei dem Game bei dem Monitor so heftig ist.

redpanther
2024-03-18, 18:44:31
Wenn die FPS bzw. die Hz sehr stark schwanken verschiebt sich das Gamma bei den OLEDs...das nimmt man als Flackern wahr.
Es ist kein "echtes" Flackern im eigentlichen Sinne.

Sollte vor allem am oberen oder unteren Ende (wegen LFC) der VRR Range auftreten.
Wenn man sich relativ stabil im mittleren VRR Bereich des Panels bewegt, tritt das mW eigentlich nicht auf.

Ich sehe es bisher auch fast nur in dunklen Menüs oder Ladebildschirmen (Diablo IV bspw.)
Bei mir tritt es mit dem MSI 321URX aber auch irgendwie bisher eher seltener als mit dem LG 65C3 auf...wahrscheinlich liegen meine effektiven FPS mit meinem Setup bisher einfach in einer günstigeren Range für das 240Hz als für das 120Hz Panel.
Hat aber nichts mit OLED zu tun, hatte das bei meinem VA LCD vorher auch ab und an.

Savay
2024-03-18, 19:04:48
Kann gut sein, dass VA das auch haben...bei meinen IPS ist das jedoch nie (wahrnehmbar) aufgetreten.

Hast du Alan Wake 2?



Nein hab ich nicht.
Vielleicht ist das Spiel einfach sehr dunkel und die Frametimes sind nicht besonders sauber?!
Wenn ich Mikrostuttering provoziere sehe ich das auch vermehrt. (Geht auf der 6900XT mit AFMF hier und da ganz "gut". :uup:)
Aber das ist vom Ergebnis bisher eher ziemlich wurscht ob der LG oder MSI grade an ist.

EDIT: Wenn ich die GPU nicht >90% auslaste wird es auch auffälliger.

Ex3cut3r
2024-03-18, 19:48:06
Ja, VA ist auch betroffen. IHMO sogar stärker als OLED. IPS ist der einzige Displaytyp aktuell, der praktisch gar keine VRR Flacker/Flimmern hat. Dafür aber auch nur 1000:1 Kontrast in der Regel.

Robspassion
2024-03-19, 10:01:11
Wo man es noch sehr gut testen kann ist im Ladebildschirm von Lies of P das ist Flicker City :D

Im Spiel direkt ist es aber kein großes Problem. Hab noch Metro Exodus probiert ganz am Anfang im ersten Level Moscow, da ist alles grau in grau. Ich würde sagen ein Worst-Case Szenario, aber es war absolut perfekt hier kein Flackern, nix. Ka was bei Alan Wake 2 los ist. Die Frametimes sind nicht perfekt aber auch nicht schlimm oder so.

ChaosTM
2024-03-19, 10:16:06
Bei mir ist das seit ein paar NV Treiberversionen fast komplett weg (LG OLED (Evo) Panel). Ziemlich auffällig waren RDR2, AC:Valhalla und Star Citizen.

Da das aber nur in den Menüs bei relativ hohen Bildrasten passiert(e), ist/war mir das egal.

Eine maximale Bildrate in den Treibern einstellen hilft auch. Dann röhrt das Menü nicht mit sinnlosen 400fps vor sich hin.

fulgore1101
2024-03-19, 10:25:38
Ich hab auf Amazon in einer Rezension zum LG UltraGear OLED 27GR95QE-B ein kurzes Video zum Flackern in Starfield gefunden. Das sieht wirklich übel aus:

https://www.amazon.de/product-reviews/B0BRYJQP4Z/ref=cm_cr_arp_d_paging_btm_next_2?ie=UTF8&filterByStar=one_star&reviewerType=all_reviews&pageNumber=2#reviews-filter-bar

robbitop
2024-03-19, 10:34:40
Also ganz ehrlich: in einem Ladescreen würde mich das null stören. Solange es nicht im normalen Gameplay ist -> wayne.

fulgore1101
2024-03-19, 10:42:25
Im Video ist der Titelbildschirm von Starfield zu sehen. Vielleicht ist es in manchen Menüs ja auch so.

ChaosTM
2024-03-19, 10:49:51
Im Spiel ist das noch nie passiert, sonst hätte ich das Gerät sofort zurückgeschickt.

Cubitus
2024-03-19, 10:53:51
Hab ja den Alienware zurückgeschickt, da das Panel abartig verkratzt war.
Durch Zufall hab ich ein super Angebot für nen 42erC3 gesehen im örtlichen Euronics, 890 Euro bzw. 790 Euro mit Cashback..
Es ist halt leider so, einmal OLED und man will eigentlich nichts anderes mehr. :freak:

Jedenfalls bzgl VRR Flackern, in manchen Szenarien fällt es teilweise mehr oder weniger auf.
Beim Shader Kompilieren bei Jedi Survivor. --> Gut das stört mich jetzt weniger. Wo es mich aber nervte war bei den Cutscenes.
Bei Alan Wake fällt es oft im Spiel auf und bei Cyberpunk im Charakter Bildschirm und auf der Map.

Was wirklich sehr geholfen hatte, war dieser Post hier:
https://forums.guru3d.com/threads/fixing-vrr-flickering-for-the-lg-c2-and-other-oled-qd-oled-displays.450983/

Bis auf das Flicker beim kompilieren, brachte es bei den anderen Szenarios Ruhe rein.

robbitop
2024-03-19, 11:00:12
Im Video ist der Titelbildschirm von Starfield zu sehen. Vielleicht ist es in manchen Menüs ja auch so.
Framelimiter an?

Cubitus
2024-03-19, 11:05:38
Framelimiter an?

Das hilft leider auch nicht immer, ist aber Grundvoraussetzung und wird schon einiges abfedern..
Bzw. bei Gsync Vsync im Treiber aktivieren (im Spiel aus) neben G-Sync dann limitiert ja der Nvidia Treiber für dich quasi immer mit.

Jedes OLED Panel reagiert da bisschen anders.
Was hilft mit der VRR Range etwas herum zu experimentieren, sodass man mit seinem Modell auf ein akzeptables Ergebnis kommt.

fulgore1101
2024-03-19, 11:18:31
Im Spiel ist das noch nie passiert, sonst hätte ich das Gerät sofort zurückgeschickt.

Hast du auch den LG UltraGear OLED 27GR95QE-B?

Framelimiter an?

Keine Ahnung, es ist nicht meine Rezension.

ChaosTM
2024-03-19, 11:39:54
Hast du auch den LG UltraGear OLED 27GR95QE-B?



Keine Ahnung, es ist nicht meine Rezension.


nein, 42er mit LG Evo Panel. Die kleineren verwenden vielleicht andere Paneel Typen, ist also kaum vergleichbar.

Annator
2024-03-19, 12:11:14
Ich hab auf Amazon in einer Rezension zum LG UltraGear OLED 27GR95QE-B ein kurzes Video zum Flackern in Starfield gefunden. Das sieht wirklich übel aus:

https://www.amazon.de/product-reviews/B0BRYJQP4Z/ref=cm_cr_arp_d_paging_btm_next_2?ie=UTF8&filterByStar=one_star&reviewerType=all_reviews&pageNumber=2#reviews-filter-bar

Ich habe den Monitor und 0 flackern in Starfield oder sonst wo. Ich tüddel aber auch nicht viel in den Settings rum. Gsync ist aber an. Wichtig ist bei dem Monitor die aktuelle Firmware drauf zu haben.

Gast
2024-03-19, 12:41:59
Das hilft leider auch nicht immer, ist aber Grundvoraussetzung und wird schon einiges abfedern..

Framelimiter hilft mal per se gar nicht, so lange die Framerate über der Refreshrate des Monitors liegt kann das flackern gar nicht auftreten, das tritt bei stark schwankenden FPS auf.

fulgore1101
2024-03-19, 12:52:42
Ich habe den Monitor und 0 flackern in Starfield oder sonst wo. Ich tüddel aber auch nicht viel in den Settings rum. Gsync ist aber an. Wichtig ist bei dem Monitor die aktuelle Firmware drauf zu haben.

Sehr interessant wie unterschiedlich die Erfahrungen mit ein und dem selben Modell sein können.

MiamiNice
2024-03-19, 18:13:38
@Dreas:

Der Dell zeigt mir öfter einen Hinweis mit dem Inhalt der Monitor wäre zu heiß, ich sollte den Hersteller kontaktieren. Macht Deiner das auch? Ich mein, ist nur ein Monitor, was soll da überhitzen?!? Nervt jedenfalls beim gamen massiv.

€: Ich bin zumindest froh, dass er nicht abschaltet. Iphone und Watch machen das ziemlich gerne, wenn ich die mit in die Sauna nehme. Da steht dann immer ein ähnlicher Hinweis aufm Display -.- Dachte nicht das auch ein Monitor so einen Hinweis werfen kann, bei 20° Raumtemp.

Relex
2024-03-19, 18:32:46
@MiamiNice

Dafür gabs doch erst kürzlich ein Firmware Update, welches genau das Problem beheben soll.


Zum VRR Flackern:

Also ich Spiele auf meinem LG CX mit Gsync, Vsync on und FPS limit auf 116 FPS.

Da flackert nichts, egal ob mit Frame Gen, innerhalb der VRR Range oder im FPS limit. außer eben bei Ladebildschirmen wo die Framerate ja wie üblich zwischen 0 und 116 FPS jeden wert zu jeder Zeit annehmen kann. Aber das juckt ja eh keinen, da ja dort selbst der Mauszeiger ruckelt.

Wer im Gameplay oder in Cutscenes Flackern hat: Sicherstellen, dass der Treiber aktuell ist. Nvidia hatte ja in den letzten Treibern So einige Probleme, die erst seit Anfang des Jahres behoben sind.

Ansonsten alle Hintergrundtools schließen. Hardwaremonitoring, RGB Software, ALLES. Das hat alles einfluss auf Frametimes, insbesondere dann, wenn einer der problembehafteten Nvidia Treiber installiert ist. Die Kombination war vor wenigen Monaten noch gift für saubere Frametimes.

exzentrik
2024-03-20, 11:57:21
Infos zum LG UltraGear 45GS96QB (https://www.prad.de/lg-45gs96qb-viele-details-zum-oled-gaming-display/) mit WOLED, UWQHD, 240 Hz, 800 R, FreeSync Premium Pro, G-Sync Compatible, DisplayHDR True Black 400 und USB-C. In den USA für 1.699,99 US-Dollar verfügbar.

dreas
2024-03-20, 12:09:02
@Dreas:

Der Dell zeigt mir öfter einen Hinweis mit dem Inhalt der Monitor wäre zu heiß, ich sollte den Hersteller kontaktieren. Macht Deiner das auch? Ich mein, ist nur ein Monitor, was soll da überhitzen?!? Nervt jedenfalls beim gamen massiv.

€: Ich bin zumindest froh, dass er nicht abschaltet. Iphone und Watch machen das ziemlich gerne, wenn ich die mit in die Sauna nehme. Da steht dann immer ein ähnlicher Hinweis aufm Display -.- Dachte nicht das auch ein Monitor so einen Hinweis werfen kann, bei 20° Raumtemp.

Genau wie schon beschrieben gabs da eine neue Firmware. Ich hatte diesen Fehler allerdings nicht.

y33H@
2024-03-20, 14:58:58
Ist der PG32UCDM mit QD-OLED in Deutschland iwo verfügbar? Hab mich bei Asus und Alternate auf die Liste gesetzt ...

Tesseract
2024-03-20, 15:00:52
hab bis jetzt weder den asus noch den msi irgendwo gesehen.

robbitop
2024-03-20, 15:05:37
Der LG ist leider auch nur DP1.4 :-/ (kein DSR dann leider, sobald Blackwell draussen ist)

Thunder99
2024-03-20, 15:45:41
Alternativ wäre der Samsung G8 OLED eine Option? Noch ältere Technologie aber Preis dürfte das kompensieren.

Tesseract
2024-03-20, 16:08:23
das ist ein völlig anderes format, wer sowas will hätte es wohl schon.

Gynoug MD
2024-03-20, 16:26:27
Ist der PG32UCDM mit QD-OLED in Deutschland iwo verfügbar? Hab mich bei Asus und Alternate auf die Liste gesetzt ...
Gibt wohl hier und da 1x/Woche ein 30s-Zeitfenster, in dem man mit Glück bestellen kann, fast RTX4090 FE-Verhältnisse.
:ulol:

y33H@
2024-03-20, 16:37:28
Bisher weigere ich mich Horizon Forbidden West runterzuladen ohne den PG32UCDM :freak:

Savay
2024-03-20, 16:53:53
Die erste Charge der flachen Modelle scheint bisher ja nicht allzu groß gewesen zu sein. :uponder:

Geht zur Not aber auch vom Sofa auf nem 65C3 o.ä. ganz gut. :wink:
Horizon is per se eh eher nen "Controler" Game. :tongue:

Exxtreme
2024-03-20, 17:08:09
Also wenn ich mir einen OLED holen sollte dann ist DP2.x Pflicht. Da meine Monitore in aller Regel deutlich länger halten als meine Grafikkarten. Ich nutze immer noch meinen LG E2770 als Zweitmonitor. Und der kam Ende 2011 raus. X-D

MiamiNice
2024-03-20, 17:13:45
@MiamiNice

Dafür gabs doch erst kürzlich ein Firmware Update, welches genau das Problem beheben soll.

Genau wie schon beschrieben gabs da eine neue Firmware. Ich hatte diesen Fehler allerdings nicht.

Danke :up:

---

Mal ne Frage in die Runde. Mit nun mal wieder Win 11 leider, habe ich mit dem neuem Monitor immer so ein nerviges Dolby Vision Zeichen oben rechts auf Desktop und beim Gaming. Quasi wenn Windows startet und wenn ich ein Spiel starte.

Kann man das abschalten?
Kommt das aus dem Monitor oder von Windows? Mein Asus macht das nicht, deswegen vermute ich die Schuld beim Dell Monitor. Finde aber keine Einstellung dazu.

y33H@
2024-03-20, 17:16:54
Scheint vom Dell zu kommen, mein LG blendet auch "HDR" oben rechts ein für nen Augenblick - finde ich tatsächlich praktisch, aber offenbar nicht abschaltbar.

Savay
2024-03-20, 17:37:00
Kommt garantiert vom Display...
Beim Yoga7 gibt es das Pop-up (nicht abschaltbar) interessanterweise auch...aber nur für Dolby Vision.

Davon hat man am PC aber eh so gut wie nichts...bis auf vielleicht mit der Netflix App. :ulol3:

Also wenn ich mir einen OLED holen sollte dann ist DP2.x Pflicht.

Für 4K@240Hz braucht es aber IMHO noch nicht wirklich DP2.x

nV fixt am besten einfach mal die Treiber...dann sollte das ein non-issue sein.
Auf AMD funktioniert ja VSR problemlos mit DSC.

Tesseract
2024-03-20, 18:30:25
Der LG ist leider auch nur DP1.4 :-/ (kein DSR dann leider, sobald Blackwell draussen ist)

eine neuere version der displayengine hat das problem wahrscheinlich sowieso nicht mehr, das ist ja kein generelles problem sondern irgendeine obskure limitierung im aktuellen hardwareblock.

robbitop
2024-03-20, 18:40:46
eine neuere version der displayengine hat das problem wahrscheinlich sowieso nicht mehr, das ist ja kein generelles problem sondern irgendeine obskure limitierung im aktuellen hardwareblock.
Gibt es da irgendwelche Indizien dass zukünftige HW Blöcke das fixen? Ich meine die Limitierung ist schon älter und auch Ada scheint sie nicht behoben zu haben. Warum Blackwell?

Platos
2024-03-20, 18:41:02
Immerhin gibt es ein update, danke. So einfach ist es aber anscheinend nicht:

nvidia:


Artikel:


Kurz gesagt: Jetzt gibt es eine Statement von nvidia dazu, dass aber irgendwie mehr Fragen als Antworten aufwirft.

Natürlich bleibt am Ende immer noch, dass es eine Verlustbehaftete Kompression ist (was "visually lossless" bedeutet, hatten wir ja hier schonmal).

Ich zitiere nich mal selber (man muss zum originalen Post gehen, um den relevanten Teil zu sehen):

DSR geht also anscheinden theoretisch, aber es hängt von Dingen ab, wo man nicht weiss, wie man sie herausfindet. Also kurz gesagt muss man drauf hoffen, dass es jemand testet.

Aber DSC ist ja sowieso nur für die meisten "Visually Lossless". Für Leute, die gute Augen (und Aufmerksamkeit) haben, dürfte das ein Nachteil sein.

Also für mich gilt weiterhin: Ein solches Display muss HDMI 2.1 + DP 2.x haben (HDMI 2.1 ist eig. schon ein Kompromiss, aber HDMI ist irgendwie schon immer kacke gewesen von der Bandbreite.)

Tesseract
2024-03-20, 18:46:58
Gibt es da irgendwelche Indizien dass zukünftige HW Blöcke das fixen? Ich meine die Limitierung ist schon älter und auch Ada scheint sie nicht behoben zu haben. Warum Blackwell?

ada hat soweit ich weiß die gleiche displayengine wie ampere, da wurde wohl nix geändert. ist aber naheliegend dass das mit einer grundlegenden überarbeitung auf DP2.1 behoben wird, wenn auch nicht garantiert.

robbitop
2024-03-20, 18:49:41
ada hat soweit ich weiß die gleiche displayengine wie ampere, da wurde wohl nix geändert. ist aber naheliegend dass das mit einer grundlegenden überarbeitung auf DP2.1 behoben wird, wenn auch nicht garantiert.

DSR ist halt ziemlich Nische. Das hat ggf kaum Priorität. Kann also gut sein dass wenn man einen dp1.4 Monitor kauft in der Hoffnung dass dsr in Blackwell geht man in die Röhre schaut.

Aber schon merkwürdig die Implementierung. Ich hatte angenommen dass das alles über shadercode läuft und dann vor dem scanout abgeschlossen ist so dass das transparent zu displayengine ist. So wie bei GeDoSaTo.

Thunder99
2024-03-22, 18:40:28
das ist ein völlig anderes format, wer sowas will hätte es wohl schon.

Okay, stimmt. Wer 4k auf 32" will ist da bei meinem Vorschlag falsch :D

Was ist denn das Problem nochmal bei der Display Enging?

TheCounter
2024-03-22, 18:50:44
Ich möchte mir nen zweiten Monitor holen (fürs Gaming), kann jemand was zum Alienware AW3423DWF sagen?

Robspassion
2024-03-26, 11:45:42
Ich vertraue Monitors Unboxed

1 Year later

https://www.youtube.com/watch?v=bBiXa89QeOc

TheCounter
2024-03-27, 08:33:08
Thx, hab mir schlussendlich aber den 44,5" WQHD LG OLED Monitor zugelegt. Gerade für Star Citizen ist das Teil eine Wucht.

Cubitus
2024-03-27, 11:49:57
Ich bereue den LG42er TV auch nicht, das kommt bei Games schon gut rüber

Turrican-2
2024-03-27, 12:12:52
Jvdng6cqlhI
Here we go :cool:

Ein Blindkauf wird's für mich jedoch nicht, so stören mich auf dem Papier...

* Lüfter
* Text Darstellung
* Keine burn-in Garantie
* Preis

...aber 480hz sehen halt doch verdammt knackig aus!

Somit rücken QD-Oled wohl wieder mehr in meinen Fokus.

exzentrik
2024-03-27, 13:31:55
Burn-in-Abdeckung gewährt LG (in Deutschland und den USA) allerdings durchaus auf seine OLED-Monitore (siehe hier (https://www.prad.de/lg-usa-garantie-bei-oled-monitoren-deckt-burn-in-ab/)), aber lediglich zwei Jahre.

Und Obacht: Manche moderne QD-OLED-Displays sind nicht lüfterlos, darunter der Alienware AW2775DF.

Relex
2024-03-27, 16:20:10
https://youtu.be/Jvdng6cqlhI
Here we go :cool:

Ein Blindkauf wird's für mich jedoch nicht, so stören mich auf dem Papier...

* Lüfter
* Text Darstellung
* Keine burn-in Garantie
* Preis

...aber 480hz sehen halt doch verdammt knackig aus!

Somit rücken QD-Oled wohl wieder mehr in meinen Fokus.


Hätte eigentlich erwartet, dass LG näher an die QD OLEDs rankommt, oder in manchen Aspekten besser ist, aber das Review ist dann doch ziemlich ernüchternd.

Tatsächliche HDR Peak Helligkeit ist in typischen szenen nur bei 600-800 nits statt den 1000 wie bei QD OLED (die 1000 werden nur sehr selten wirklich erreicht) und das trotz des weißen Subpixels und der auf dem papier höheren Angabe zur Maximalhelligkeit (die haben doch auch MLA oder?). Farbumfang ist WOLED typisch bei maximaler Helligkeit auch deutlich schlechter im Vergleich. Dunkelgrau hat den bekannten Dirty Screen effekt (bei QD OLED tritt das laut Video nicht auf), das EOTF Tracking passt nicht und das Bild ist zu stark aufgehellt incl dunkler Bereiche und die Werkskalibrierung könnte auch deutlich besser sein.

Dazu der hohe Preis, keine Burn in Garantie und sogar schlechtere Textdarstellung als 3rd Gen QD OLED. Letzteres hat mich wirklich überrascht, da das neue RGWB Layout eigentlich quasi RGB mit einem zwischengeschobenen weißen Subpixel ist und daher nahezu ideal funktionieren sollte.


Ich seh nur drei Dinge die für das WOLED Panel bzw. diesen Monitor sprechen (können - je nach Vorlieben).
480 Hz Suppport, wenn man in 1080p spielen will.
Mattes Coating
Tieferes Schwarz, wenn viel Licht aufs Panel fällt (wobei interessant wäre, ob aufgrund des falschen EOTF Tracking dunkle inhalte nicht trotzdem heller erscheinen, als auf einem QD OLED)


Sieht für mich so aus, als wäre QD-OLED mittlerweile wirklich die bessere Technologie.

Tru
2024-03-27, 16:27:41
Ich weiß ehrlich nicht, wie man zur Einschätzung kommen kann, Text sähe bei QD-OLED besser aus. Die roten und grünen Farbsäume oben und unten bleiben für mich grausig.

SamLombardo
2024-03-27, 17:21:53
Ich bin such von WOLED auf QD-OLED gewechselt. Für Gaming mMn die Speerspitze derzeit. Die Farbhelligkeit ist schon nochmal Next Level. Fällt in Spielfilmen weit weniger auf als in Games.

dreas
2024-03-27, 18:11:17
Ich weiß ehrlich nicht, wie man zur Einschätzung kommen kann, Text sähe bei QD-OLED besser aus. Die roten und grünen Farbsäume oben und unten bleiben für mich grausig.
Ist mit 3rd Gen kaum wahrnehmbar.

robbitop
2024-03-27, 18:35:34
Der Hauptanteil der Verbesserung kommt nicht vom Subpixellayout. Das ist immer noch eine Pyramide wie bei den Vorgängern. Der Hauptanteil kommt von der höheren Auflösung. Ein 27“ 1440p Monitor oder ein 34“ mit 3400x1440 hätte das Problem nach wie vor.

y33H@
2024-03-27, 18:37:31
Ich hab den OLED 27GR95QE-B und frage mich ob ich den PG32UCDM als besser/schlechter empfinden werde bei Schrift bzw Text :freak:

ChaosTM
2024-03-27, 18:40:41
Ich bin such von WOLED auf QD-OLED gewechselt. Für Gaming mMn die Speerspitze derzeit. Die Farbhelligkeit ist schon nochmal Next Level. Fällt in Spielfilmen weit weniger auf als in Games.


Erzähl mir nicht solche Sachen, das könnte mich sehr viel Geld kosten. ;)



Wie groß ist der Unterschied wirklich und kann man das bei den WOLEDs

ausgleichen.

aufkrawall
2024-03-27, 19:48:10
Ich weiß ehrlich nicht, wie man zur Einschätzung kommen kann, Text sähe bei QD-OLED besser aus. Die roten und grünen Farbsäume oben und unten bleiben für mich grausig.
Wenn der das alles bei 125% Skalierung gemacht hat, ist der Test sowieso komplett für den Hintern, weil 125% komplette Matsche ist, die die Unterschiede zwischen den Techniken stark verringert.
Nimmt laut Angabe im Video auch ein i1Display Pro, und nicht das i1Display Pro Plus für bessere Near Black-Messungen mit OLED...

Hikaru
2024-03-27, 20:05:06
Endlich ein flacher 32" 1440p VA der mir was taugt und spottbillig ist er obendrein auch noch! Vor allem der input lag ist wirklich gut, selbst unter 60Hz.

https://www.rtings.com/monitor/reviews/lg/32gn650-b-32gn63t-b

y33H@
2024-03-27, 20:05:32
100% ist zu klein IMHO und 150% zu viel zu - was ist also die Alternative zu 125%?

aufkrawall
2024-03-27, 20:17:00
Warum ist 150% zu viel? Bei Seiten wie diesen ist Text auf 27" 1440p schon lächerlich klein und braucht Webseiten-Zoom.

Ansonsten erklärt sich von selbst, dass ein unscharfer Skalierungsfaktor wie 125% kein objektives Qualitätsurteil über die Schriftdarstellung eines Monitors zulässt. Man sieht doch sofort im Explorer, wie 125% die vertikalen Kanten von etwa "i" weichspült, während das mit 100% oder 150% nicht der Fall ist. Ist doch nun wirklich eindeutig unsinnig. Zumindest, wenn es um einen Test des Subpixel-Layouts geht...

y33H@
2024-03-27, 20:37:30
Warum ist 150% zu viel? Bei Seiten wie diesen ist Text auf 27" 1440p schon lächerlich klein und braucht Webseiten-Zoom.

Du hast offenbare andere/schlechtere Augen, ich sitze hier mit 100% bei 27'' 1440p und freue mich über den Platz ^^ sprich ich zoome nüscht ...
Ansonsten erklärt sich von selbst, dass ein unscharfer Skalierungsfaktor wie 125% kein objektives Qualitätsurteil über die Schriftdarstellung eines Monitors zulässt. Man sieht doch sofort im Explorer, wie 125% die vertikalen Kanten von etwa "i" weichspült, während das mit 100% oder 150% nicht der Fall ist. Ist doch nun wirklich eindeutig unsinnig. Zumindest, wenn es um einen Test des Subpixel-Layouts geht...150% ist halt auch nicht ideal verglichen zu 100% oder 200%, seufz.

aufkrawall
2024-03-27, 20:45:39
Du hast offenbare andere/schlechtere Augen, ich sitze hier mit 100% bei 27'' 1440p und freue mich über den Platz ^^

Da wird dir eher jeder Ergonomie-Beauftragte im Büro erklären, dass das eine ungesunde Angewohnheit ist.


150% ist halt auch nicht ideal verglichen zu 100% oder 200%, seufz.
Dass es schärfer als 125% ist, ist Fakt.

SamLombardo
2024-03-27, 20:54:08
Erzähl mir nicht solche Sachen, das könnte mich sehr viel Geld kosten. ;)



Wie groß ist der Unterschied wirklich und kann man das bei den WOLEDs

ausgleichen.
Hi. Ja, das ist mir sofort aufgefallen, ich wünschte auch es wäre nicht so:D, weil mich das dann auch Geld gekostet hat, hehe. Da ging´s mir genauso wie dir. Aber einmal diese wunderschönen Farben gesehen, wollte ich nicht mehr zurück. Von Cyberpunk bis Doom, wo immer hell leuchtende Farben vorkommen zeigt der QD-OLED eine Power, die der W-OLED einfach nicht kann. Dort ist schon nach wenigen hundert Nits Sense und mehr Helligkeit gibts nur noch mit Entsättigung durch den weißen Subpixel. Satte hell leuchtende Farben sind da einfach nur begrenzt möglich. Wie gesagt, bei Filmen stört´s mich kaum, bei Spielen möchte ich es nicht mehr missen. Und wie gesagt, da ich lange an OLEDs spiele ist mir der Unterschied sofort ins Auge gesprungen, da musste ich nicht lang vergleichen;).

Lurtz
2024-03-27, 21:36:47
Hm, 100% bei 27" 1440p ist auch die Standardeinstellung von Windows. 150% wären mir auch schon deutlich zu groß, da bräuchte ich dann ja wirklich locker einen 32"er :ugly:

Da wird dir eher jeder Ergonomie-Beauftragte im Büro erklären, dass das eine ungesunde Angewohnheit ist.

Inwiefern ungesund? Wegen Eyestrain? Gibts dafür Empfehlungen wie groß Schrift sein sollte?

Gast
2024-03-27, 21:39:52
Warum ist 150% zu viel? Bei Seiten wie diesen ist Text auf 27" 1440p schon lächerlich klein und braucht Webseiten-Zoom.


Hättest du 4k gesagt OK, aber 1440p ist alles außer 100% viel zu groß.

ChaosTM
2024-03-27, 21:59:19
Hi. Ja, das ist mir sofort aufgefallen, ich wünschte auch es wäre nicht so:D, weil mich das dann auch Geld gekostet hat, hehe. Da ging´s mir genauso wie dir. Aber einmal diese wunderschönen Farben gesehen, wollte ich nicht mehr zurück. Von Cyberpunk bis Doom, wo immer hell leuchtende Farben vorkommen zeigt der QD-OLED eine Power, die der W-OLED einfach nicht kann. Dort ist schon nach wenigen hundert Nits Sense und mehr Helligkeit gibts nur noch mit Entsättigung durch den weißen Subpixel. Satte hell leuchtende Farben sind da einfach nur begrenzt möglich. Wie gesagt, bei Filmen stört´s mich kaum, bei Spielen möchte ich es nicht mehr missen. Und wie gesagt, da ich lange an OLEDs spiele ist mir der Unterschied sofort ins Auge gesprungen, da musste ich nicht lang vergleichen;).


Danke für deinen Input. Besser geht es immer !! :D
momentan bin ich mit meinen 2060p bei 42 Zoll zufrieden.


wer kleiner Diagonalen will kann sich mit deutlich weniger Auflösung begnügen, aber das macht wenig Spass.

aufkrawall
2024-03-27, 22:05:53
Hm, 100% bei 27" 1440p ist auch die Standardeinstellung von Windows. 150% wären mir auch schon deutlich zu groß, da bräuchte ich dann ja wirklich locker einen 32"er :ugly:

Ging ja auch um den 32". ;)
Kleiner würd ich 4k eh nicht kaufen. Man sieht ja nicht nur durch die Pixeldichte mehr Details, sondern auch durch die Größe. Wow-Faktor von 27" 1440p > 32" 4k ist massiv höher als 27" -> 27".



Inwiefern ungesund? Wegen Eyestrain? Gibts dafür Empfehlungen wie groß Schrift sein sollte?
Kann mir kaum vorstellen, dass es dafür keine Empfehlungen gibt. Ich kenne sie jedoch nicht. Aber 100% 1440p 27" sind hier im Forum ca. 0,3cm Serif. Das entspricht so ziemlich genau den 0,3cm Serif in einem (unfassbar furchtbar zu lesenden Bildungs-) Roman, den gerade ich aus dem verstaubten Regal gezogen habe. Oft ist der Abstand zum Monitor wesentlich größer als der, den die meisten beim Lesen des Buches in verkrampfter Position einnehmen würden. Also ist stark davon auszugehen, dass das so am Monitor längst nicht ergonomisch ist. Zumindest nicht das Beispiel dieses Forums.

aber 1440p ist alles außer 100% viel zu groß.
Die meisten Sachen auf jeden Fall, der Text dieser steinzeitlichen Forenplattform schon mal nicht.

Ist auch alles scheißegal, wenn es darum geht, das Subpixellayout zu bewerten. Das kann man im Grunde auch komplett losgelöst von Schrift und irgendwelchen Skalierungsfaktoren machen und einfach dünne Linien und Kreise betrachten. Aber halt nicht mit verschmierten Linien wie bei 125% Schrift...
( :facepalm: )

Savay
2024-03-27, 22:16:00
Schriften mit Serifen sind bei 100% für mich nicht mehr dauerlesbar.
Wenn ich längere Dokumente wirklich lesen und nicht nur überfliegen muss lege ich das daher immer ins HO...110ppi oder weniger kann ich mir dafür leider nicht mehr dauerhaft geben.
Ich merke einfach das ich da schneller ermüde, je weniger PPI umso schlimmer.
Nen FHD mit ~90ppi ist für sowas für mich sogar schon nahezu unbrauchbar.

Daher ist 4K@150% dort auch echt ein signifikanter Fortschritt.
Ob nun 32" oder 27 ist zumindest für meinen Visus da vglw. unerheblich...der Unterschied lässt sich durchaus mit Vor oder Zurücklehnen ausgleichen, auch wenn min. 160ppi schon lieber.

Wow-Faktor von 27" 1440p > 32" 4k ist massiv höher als 27" -> 27".

Der "Meh"-Faktor von 160ppi zu 140ppi ist aber auch nicht zu unterschätzen. :wink:
Ich glaub richtig wow wäre eher 2880p gewesen auf 32".

Die roten und grünen Farbsäume oben und unten bleiben für mich grausig.

Sie fallen mir bei Text @150% auf dem 321URX nicht wirklich visuell auf.
Der Text wirkt lediglich bei gleicher Skalierung dadurch eher nicht ganz so scharf wie wie mit nem IPS oder meinem Yoga7 @175%,

"Schlimm" sind die Farbsäume eher dann wenn größere weiße Elemente auf Schwarzem Hintergrund zu sehen sind, da fällt mir das Fringing sofort sehr deutlich auf auch ohne Text.
Das fängt sogar schon mit dem Bootlogo des Monitors an...
Allerdings kommen SW Checkerboards und ähnliche Elemente zum Glück nicht allzu oft in der Praxis vor.


Wie groß ist der Unterschied wirklich..

IMHO ist der Unterschied absolut nicht praxisrelevant.
Wenn die Geräte nicht direkt nebeneinander stehen fällt es nicht wirklich auf.
Sollte kein wesentlicher Grund für oder wieder einer Kaufentscheidung sein.

ChaosTM
2024-03-27, 22:25:53
Niemand sollte sich in 2024 einen Monitor < 2160p kaufen.

jesus, ich bin zu faul um das alles nochmals zu erklären


Höhere Pixeldichte des Monitors ermöglicht bessere Qualität beim upscaling...
Wie oft noch ?


das predige ich seit 10? Jahren, aber die 1080/1440p Fraktion hat/wollte das nicht verstehen

woodsdog
2024-03-28, 07:02:49
Niemand sollte sich in 2024 einen Monitor < 2160p kaufen.

jesus, ich bin zu faul um das alles nochmals zu erklären


Höhere Pixeldichte des Monitors ermöglicht bessere Qualität beim upscaling...
Wie oft noch ?


das predige ich seit 10? Jahren, aber die 1080/1440p Fraktion hat/wollte das nicht verstehen

Wird dich überraschen, aber es gibt durchaus noch andere Anwendungsgebiete für Monitore abgesehen von Spiele UND der Preis spielt für viele nun mal auch ne Rolle.

Klar ist 4K das Optimum was Spiele + ggf Upscaler angeht. Aber 1440p ist durchaus eine Alternative. Kein Fliegengitter bei 27" oder 32" wenn man etwas weiter weg sitzt... Halb so viel GPU-Load... günstiger... mit 100% betreibbar und es bleibt noch lesbar...

Das keiner <4k kaufen soll ist mir zu pauschal.

The_Invisible
2024-03-28, 07:24:21
Wieso, gerade Office & DEV ist auch sehr angenehm in 32" 4k, am besten gleich 2 Monitore. Und bei Games sind sogar DLSS-P nutzbar in der Auflösung.

Aber man wiederholt sich, gabs hier im Thread schon zig mal ;)

ChaosTM
2024-03-28, 07:40:49
Wird dich überraschen, aber es gibt durchaus noch andere Anwendungsgebiete für Monitore abgesehen von Spiele UND der Preis spielt für viele nun mal auch ne Rolle.

Klar ist 4K das Optimum was Spiele + ggf Upscaler angeht. Aber 1440p ist durchaus eine Alternative. Kein Fliegengitter bei 27" oder 32" wenn man etwas weiter weg sitzt... Halb so viel GPU-Load... günstiger... mit 100% betreibbar und es bleibt noch lesbar...

Das keiner <4k kaufen soll ist mir zu pauschal.


Es geht da eher um Anwendungen und Platz am Bildschirm als Spiele. Die kann man immer noch mit geringerer Auflösung spielen wenn man will, dank der hohen Pixeldichte.



Und die Preise sind kaum noch höher..

woodsdog
2024-03-28, 08:17:33
in 4k 100% kann doch kein Mensch arbeiten auf <=32", das Argument "mehr Platz" ist daher müßig.

Pixel-Zähler werden sicher auch irgendwelche Standbild-Vorteile für 4k-DLSS-P vs 1440p-DLSS-Q finden, am Ende bleibt schon einfach die Tatsache das man immer noch Bildschirme <4k kaufen kann. Der 1440p-165Hz VRR LG hier vor kurzem verlinkt für 200 Flocken spricht da Bände.

Steam Hardware Surv 4k Anteil = 3,5%. So wichtig kanns also irgendwie nicht sein was hier für "nicht mehr kaufbar" gehalten wird.

Jeder wie er will v0v

ChaosTM
2024-03-28, 08:26:58
Ich kann mich noch gut erinnern, wie angenehm der Schritt von 1200p (24) auf 2160(28) für die Augen war.
War einfach ein stressärmeres, angenehmeres Arbeiten, obwohl Windows und einige Programme damals noch Probleme machten.

ich kann es nur jedem empfehlen - man hat Monitore meistens doch etwas länger

The_Invisible
2024-03-28, 08:59:02
in 4k 100% kann doch kein Mensch arbeiten auf <=32", das Argument "mehr Platz" ist daher müßig.

Pixel-Zähler werden sicher auch irgendwelche Standbild-Vorteile für 4k-DLSS-P vs 1440p-DLSS-Q finden, am Ende bleibt schon einfach die Tatsache das man immer noch Bildschirme <4k kaufen kann. Der 1440p-165Hz VRR LG hier vor kurzem verlinkt für 200 Flocken spricht da Bände.

Steam Hardware Surv 4k Anteil = 3,5%. So wichtig kanns also irgendwie nicht sein was hier für "nicht mehr kaufbar" gehalten wird.

Jeder wie er will v0v

125% geht ohne Probleme und es geht ja um die DPI, die Schrift usw ist einfach viel schärfer

Loeschzwerg
2024-03-28, 09:07:23
Jegliche Windows Skalierung sieht für mich falsch aus, auch 125%. Von daher... Für HO will ich zumindest keine 4k, auch weil eben kein 32" hinsichtlich Sitzabstand auf den Schreibtisch passen.

Soll doch jeder machen wie er will :)

Thunder99
2024-03-28, 09:29:08
Ich hab den OLED 27GR95QE-B und frage mich ob ich den PG32UCDM als besser/schlechter empfinden werde bei Schrift bzw Text :freak:

Kommt drauf an :freak:
Bin zumindest zufrieden mit der 2nd Gen mit dem Wissen es könnte besser sein. Aber ist ja subjektiv und wenn's einen wenig stört ist es doch gut :).

Nächstes Level wäre ja 5k QD-OLED auf 34" Ultra wide. Das hat den Hacken der massiv höheren GPU Anforderung beim Spielen. Aber ist dennoch langfristig Pflicht die Auflösung zu erhöhen.

Lurtz
2024-03-28, 09:52:02
das predige ich seit 10? Jahren, aber die 1080/1440p Fraktion hat/wollte das nicht verstehen
Was soll das Framing mit dem nicht verstehen wollen :confused:

Es ist am Ende wie alles eine Geldfrage. Und selbst 2160p DLSS Performance ist noch fordernder als 1440p DLSS Quality. Sowohl was die reine Leistungsfähigkeit als auch VRAM angeht.

Ging ja auch um den 32". ;)
Kleiner würd ich 4k eh nicht kaufen. Man sieht ja nicht nur durch die Pixeldichte mehr Details, sondern auch durch die Größe. Wow-Faktor von 27" 1440p > 32" 4k ist massiv höher als 27" -> 27".
Das bedeutet bei OLED dann eine Investition von locker ~1.200€, da sind wir wieder beim Punkt oben angekommen :D

Kann mir kaum vorstellen, dass es dafür keine Empfehlungen gibt. Ich kenne sie jedoch nicht. Aber 100% 1440p 27" sind hier im Forum ca. 0,3cm Serif. Das entspricht so ziemlich genau den 0,3cm Serif in einem (unfassbar furchtbar zu lesenden Bildungs-) Roman, den gerade ich aus dem verstaubten Regal gezogen habe. Oft ist der Abstand zum Monitor wesentlich größer als der, den die meisten beim Lesen des Buches in verkrampfter Position einnehmen würden. Also ist stark davon auszugehen, dass das so am Monitor längst nicht ergonomisch ist. Zumindest nicht das Beispiel dieses Forums.
Das stimmt natürlich. Wobei man da ja auch mal auf den Browserzoom zurückgreifen kann.

ChaosTM
2024-03-28, 09:52:50
Was soll das Framing mit dem nicht verstehen wollen :confused:




Das war blöd, ich gebe es zu..

Disconnected
2024-03-28, 09:59:29
Ich wünschte, es gäbe noch eine Auflösung zwischen WQHD und UHD. Ich habe hier einmal WQHD @27" und UHD @28". Der 27" könnte etwas schärfer sein und UHD auf 28" ist stellenweise schon arg klein. Windows-Skalierung kommt für mich nicht in Frage, da es für mich falsch aussieht.

Lurtz
2024-03-28, 11:04:49
Das war blöd, ich gebe es zu..
Klar hätte ich am liebsten 32", 4k... Aber ich bereue mittlerweile eigentlich in jedem AAA-Titel keinen HDR-fähigen Monitor zu haben, aktuell in Horizon FW, das ist echt kein Zustand mehr...

ChaosTM
2024-03-28, 11:20:46
HDR ist fast wichtiger als die Auflösung, auch wenn das oft schlecht umgesetzt ist.

Relex
2024-03-28, 11:55:00
Wobei 4K mit HDR natürlich nochmal was besonderes ist, wenn die Details sowohl scharf als auch konstraststark sind. Das HDR macht 4K eben subjektiv nochmal deutlich schärfer als es eh schon ist.
Aber das trifft natürlich auf alle Auflösungen zu.

Ich würde die Displayqualität mittlerweile auch über absolut alles andere stellen.
Die ganze Grafikleistung ist sinnlos, wenn der Monitor das nicht wiedergeben kann und gerade jetzt wo es mit OLED seit Jahrzehnten so einen Sprung gegeben hat lohnt es sich natürlich in ein besseres Display zu investieren. Im gesamten LCD "Zeitalter" hat sich das eigentlich nie wirklich gelohnt. Im Vergleich zu OLED mit HDR erscheint der Unterschied zwischen einem guten und einem schlechten LCD wie ein Fliegenschiss. Gut, vielleicht ausngeommen der allerersten TN Monitore, die ne Pixelreaktionszeit von gefühlt 5 sekunden und ne Blickwinkelstabilität von 10 grad hatten. :D

Und das Burn In Thema ist mir mittlerweile auch egal. Bei meinem LG ist noch nichts sichtbar, aber selbst wenn. Dann kauf ich halt im aller schlimmsten Fall alle 5 Jahre ein Display. Die werden ab jetzt eh nur noch billiger und langlebiger, aber man braucht sich praktisch keine Gedanken mehr machen, jemals wieder ein schlechtes Display zu bekommen. Mit OLED sind nahezu alle Probleme hinsichtlich Bildqualität gelöst. Gibt zwar noch genug Raum für verbesserungen, aber alles was jetzt noch kommt ist eher nice to have um was sehr gutes noch besser zu machen. Bei LCDs hatte man bisher ja nur die Wahl zwischen Pest und Cholera und das sah man selbst ohne OLED Vergleich. Gott bin ich froh, dass wir das hinter uns haben.

woodsdog
2024-03-28, 12:37:12
Mal so in die Runde... WELCHER OLED Schirm ist denn jetzt eigentlich aktuell mehr oder weniger das Ding, welches man Kauft wenn wir den Preispunkt auser Acht lassen und folgende Punkte so mehr oder weniger erfüllt:

- 4k
- >=120Hz (sind das nicht alle?)
- Schriftbild ist brauchbar, muss nicht "perfekt" sein
- Lüfter wenn es denn unbedingt sein muss im Alltag aus
- VRR in normalen Bereichen nicht kaputt
- Matt, zur Not Glossy
- kaufbar :redface:

ChaosTM
2024-03-28, 12:42:47
Ich hab 2 solche Monitore, aber beide sind sauteuer was ich zugeben muss (42 Zoll) daher führe ich sie hier nicht genauer an (Asus/XTC)

woodsdog
2024-03-28, 15:08:46
Hab auch ne Grafikkarte die Sauteuer war wie ich zugeben muss (33cm), daher führe ich sie hier nicht genauer an (Gigabyte).

;)

aufkrawall
2024-03-28, 15:23:24
Es ist am Ende wie alles eine Geldfrage. Und selbst 2160p DLSS Performance ist noch fordernder als 1440p DLSS Quality. Sowohl was die reine Leistungsfähigkeit als auch VRAM angeht.


Das bedeutet bei OLED dann eine Investition von locker ~1.200€, da sind wir wieder beim Punkt oben angekommen :D

Tja, hätte er den 4k 32" mit 100% Skalierung getestet, wüsste man ggf. schon, ob das für 1440p 27" gut genug wäre, sofern die vergleichbares Subpixel-Layout haben. :frown:

PHuV
2024-03-28, 17:59:00
Windows-Skalierung kommt für mich nicht in Frage, da es für mich falsch aussieht.
Warum? Sie ist in Win11 schon sehr gut, bis auf Ausnahmen. Ich fahre hier mit 250% bei 6k und 150% bei UHD prima.

Savay
2024-03-28, 18:15:43
Warum?

Gewohnheit.
Wenn man sich schon zu sehr an die streng genommen doch sehr verfälschende Darstellung von Fonts @100% gewöhnt hat sieht ein besseres Sampling natürlich plötzlich ungewohnt anders aus. . :wink:

Subpixelrendering sah, als das mit XP in der Breite ankam, für nicht wenige ja auch "falsch" aus.

aufkrawall
2024-03-28, 18:32:35
Sind ja auch Farbsäume mitunter sichtbar, wo vorher keine waren, was erstmal gewöhnungsbedürftig ist. Nur überwiegen die Vorteile bei gescheiter Umsetzung und passender Subpixelmatrix halt extrem, und mit steigender Pixeldichte nehmen die Nachteile auch immer weiter ab.
Von daher komisch, dass Microsoft in ihren komischen neuen UI-Frameworks (neue windows-Systemsteuerung etc.) gar kein Subpixel-AA mehr nutzt. So richtig ernstnehmen kann man die Firma in der Hinsicht auch nicht mehr.

Thunder99
2024-03-28, 21:39:03
Mal so in die Runde... WELCHER OLED Schirm ist denn jetzt eigentlich aktuell mehr oder weniger das Ding, welches man Kauft wenn wir den Preispunkt auser Acht lassen und folgende Punkte so mehr oder weniger erfüllt:

- 4k
- >=120Hz (sind das nicht alle?)
- Schriftbild ist brauchbar, muss nicht "perfekt" sein
- Lüfter wenn es denn unbedingt sein muss im Alltag aus
- VRR in normalen Bereichen nicht kaputt
- Matt, zur Not Glossy
- kaufbar :redface:

Die QD-OLED v.3 auf 32" 16:9 240Hz Modelle. Kommen aber erst auf dem Markt.

Finde persönlich aber 21:9 mittlerweile besser als 16:9.

Gast
2024-03-28, 22:57:43
Finde persönlich aber 24:9 mittlerweile besser als 16:9.

Was ist 24:9?

y33H@
2024-03-28, 23:16:58
PG32UCDM gekauft, berichte die Tage.

Relex
2024-03-28, 23:22:18
Jüngstes Beispiel: Bei Horizon Forbidden West wird auch mit Ultrawide support geworben und trotzdem ist das gesamte HUD auf 16:9 beschränkt.

Solche Unannehmlichkeiten gibt es ständig…

Will das niemandem schlecht reden, aber das zu empfehlen ohne auf die ständigen Probleme und frickeleien hinzuweisen find ich auch schwierig. Und ich sprech da aus eigener Erfahrung.

16:9 ist nach wie vor unersetzbar wenn man will, dass von anfang an einfach alles läuft, wie es sein soll.

Gast
2024-03-28, 23:46:42
Jüngstes Beispiel: Bei Horizon Forbidden West wird auch mit Ultrawide support geworben und trotzdem ist das gesamte HUD auf 16:9 beschränkt.



Das ist auch um ein vielfaches besser. Das HUD am Rand passt für Ultrawide nicht, damit liegt es außerhalb vom scharfen Gesichtsfeld.

Leider kapieren das viel zu viele einfach nicht.

robbitop
2024-03-29, 00:14:32
Das ist auch um ein vielfaches besser. Das HUD am Rand passt für Ultrawide nicht, damit liegt es außerhalb vom scharfen Gesichtsfeld.

Leider kapieren das viel zu viele einfach nicht.

so ist es. Das weitere FoV ist nur für mehr Immersion. Das HUD hingegen sollte im Sichtfeld sein. Wenn es anders herum ist, dann ist es suboptimal.

Cubitus
2024-03-29, 07:28:14
Bzgl HDR warum können die PC Monitore eigl durch die Bank weg kein HGiG.
Gut ich hab jetzt nen C3 TV mit WOLED. Und hatte davor kurz den Alienware 32er mit QD-OLED. Zunächst muss ich sagen das die Qualität beim Alienware unterirdisch war, da er beschädigt mit Kratzern angekommen ist, hatte wohl Pech. Jedenfalls sind die Farben knalliger das stimmt schon. Versuchte bei meinem Alienware den HDR 1000 Modus und HDR 400 Modus. Cyperpunk und andere spiele damit getestet. In Cyperpunk im ersten Moment denkst du dir joa schaut das strahlend geil aus, Mega. Auf den zweiten Blick stellte ich fest das das HDR einfach knallig überstrahlt ist. Teilweise strahlen die Werbeschilder so, das die Schrift zum Teil nicht nicht erkennbar ist. Bei der Werbung mit dem Major steht unten noch a steady Hand, das siehst beim Alienware gar nicht.. genau so sieht es z.b beim Gemäuer in Ghostwire Tokio aus, da strahlen Maueritzen as fuck. Bei Avatar glänzen die Steine einem das Gesicht weg. Usw. Jetzt auf dem LG C3, wirken zwar die Farben im direkten Vergleich nicht mehr so knallig. Dafür ist das Tonemapping mit HGiG über jeden Zweifel erhaben. In Cyberpunk lassen sich damit die Werbetafeln vernünftig lesen und strahlen trotzdem schön, im Ghostwire Tokio kommt das HDR super rüber und strahlt nicht so als ob man vom Mars kommt. Und in Avatar haben mit HGiG die glänzenden Steinbrocken auf einmal eine detaillierte Struktur. Den Unterschied merkst du sofort wenn du das HGiG ausschaltest. Der LG liefert Max immerhin auch noch 850 Nits ab. Es liegt also nicht an der Helligkeit. Viele Spiele vor allem die Ports nutzen HGIG, bei den Monitoren darf man dann selbst mit Reshade am Tonempapping rumdoktern und bekommt es aber nicht so wirklich gut hin. Beim TV funktioniert HDR out of the Box genauso wie es soll und gut ist.

https://hifi.de/ratgeber/hgig-hdr-gaming-48312

Beschreibt die Überstrahlung ganz gut

Relex
2024-03-29, 09:14:02
Wie jetzt, man kann das Tonemapping bei den aktuellen OLED Monitoren nicht ausschalten und bekommt kein HGIG? Damit sind sie ja praktisch völlig unbrauchbar für HDR. Sämtliche Kalibrierung über Windows oder die Ingame menüs wäre damit sinnfrei.
Kann ich grade gar nicht glauben.



Das ist auch um ein vielfaches besser. Das HUD am Rand passt für Ultrawide nicht, damit liegt es außerhalb vom scharfen Gesichtsfeld.

Leider kapieren das viel zu viele einfach nicht.

Sagen wir so, es kommt drauf an. Wenn wir von breiter als 21:9 sprechen okay. Da funktioniert es nicht, das Hud an den Rand zu bringen. Aber bei 21:9 sieht es extrem kacke aus, weil z.B. rechts Lebensbalken, Questziele, gesammelte Items und die Schnellauswahl sind. Die ganze linke Seite ist also stark genutzt. Das sieht einfach nur furchtbar hässlich aus, wenn das Bild dann noch weiter geht. Das Hud mittem im Bild wirkt da einfach komplett deplatziert und störend. Würde ich so niemals spielen wollen.

Cubitus
2024-03-29, 09:42:17
Wie jetzt, man kann das Tonemapping bei den aktuellen OLED Monitoren nicht ausschalten und bekommt kein HGIG? Damit sind sie ja praktisch völlig unbrauchbar für HDR. Sämtliche Kalibrierung über Windows oder die Ingame menüs wäre damit sinnfrei.
Kann ich grade gar nicht glauben.


Doch es gibt Optionen für das tonemapping, meistens aber nicht so direkt sondern viele Hersteller verpacken das in iwelche Modis.

Beim aktuellen Alienware kannst du den konsolenmodus auswählen und als source nicht rgb sondern Konsole auswählen, möglich das dann HGiG greift, aber wer weiß das schon. Dafür hast du dann halt keine 240hz mehr..

Aber explizites HGiG, bzw. mehr explizite Optionen mit dem tonemapping hast du z.b beim C3.

Ich finde es halt interessant, keiner der bisher von mir gesehene -oder getesteten Monitore hatte ne HGiG Option. An der verbauten HW liegt es ja nicht, die ist ja bei den PC Monitoren toll. Aber im HDR strahlen die Dinger dann um die Wette..

Gesehen, AW 34, 32, Samsung Neo G7, LG Ultra Gear 27.. Selbst der LG Monitor der ja eine ähnliche Software nutzt hatte keine HGiG Option.

Ich würde nicht sagen das das HDR kompletter Schrott bei den Monitoren ist, aber es ist falsch bzw. Überblendet. Und man muss dann eben selbst ausprobieren und den Monitor vernünftig Kalibrieren..

Resümee: TVs sind smart, Monitore nicht :wink:

Relex
2024-03-29, 09:52:44
Das Problem ist eben dass Dynamic Tonemapping z.B. bei meinem LG TV für jede Szene die Helligkeit neu interpretiert.

Ist die Maximalhelligkeit seitens Quelle bei sagen wir 400 nits, versucht der Tonemapper die Helligkeit zu pushen, damit die Möglichkeiten des Panels ausgenutzt werden. Dadurch wirkt die Szene aber viel zu hell. Hat die Szene eine hohe Peak Helligkeit, höher als das Panel kann, dann orientiert sich der Tonemapper daran, versucht die hohe Helligkeit auf die geringere Helligkeit des Panels zu mappen und zieht dafür die gesamthelligkeit der Szene runter. Das Bild ist zu dunkel.

Im Schnitt wirkt mit Tonemapper alles flacher und gleich hell, dadurch weniger dynamisch, weil er es nicht erlaubt, dass dunkle szenen dunkel bleiben und helle Szenen hell bleiben. Für mich macht das HDR tatsächlich ziemlich unbrauchbar. Der Tonemapper ist bei mir deswegen immer auf aus bzw. auf HGIG. Alles andere hat mit HDR nix zu tun. Denn für was wird bei HDR10 mit absoluten Helligkeitswerten gearbeitet, wenn das Display dann einfach selbst auswürfelt, wie hell der Inhalt dargestellt wird. Das ist einfach nur Unsinn.


Wo ich jetzt aber ein Verständnis problem habe: Wie kann es dann sein, dass die Messungen in den Tests zeigen, dass in HDR z.B. das EOTF Tracking passt. Dieses beschreibt doch, ob das Bild zu hell oder zu dunkel dargestellt wird. Würde der Tonemapper also eingreifen würde es diese Messungen versauen. Ebenso würde man, wenn man beispielsweise ein Testpattern mit 400 nits im z.B. 1% Window zuspielt keine 400 nits messen, sondern der Tonemapper würde es je nach Konfiguration auf einen höheren Wert mappen.

Ich könnte mir also vorstellen, dass der Tonemapper bei den Monitoren vielleicht nur einen Roll off bei den höchsten Helligkeitswerten macht und damit einfach nur hartes clipping gemindert wird, falls die Quelle falsch eingestellt ist und eine zu hohe Helligkeit sendet.


Mhmm, Fragen über Fragen...

Thunder99
2024-03-29, 10:01:27
Was ist 24:9?

Korrigiert, meinte 21:9, danke

Platos
2024-03-29, 10:15:38
Was ist HGiG ?

Relex
2024-03-29, 11:25:22
Das Tonemapping des Displays wird vollständig deaktiviert. Alle Helligkeitswerte werden unverfälscht, also 1:1 so dargestellt wie sie gesendet werden.

Das macht bei Spielen insbesondere deswegen Sinn, weil du ja im Spiel einstellen kannst, wie hoch die Maximale Helligkeit deines Displays ist.

Es gibt also keinen Grund dafür, dass das Display nochmal selbst tonemapping machen muss, das macht ja bereits das Spiel selbst. HGIG ist genau dafür gedacht.

Es kann daher (korrekt eingestellt) gar nicht passieren, dass das Helligkeitsvolumen des Quellmaterials und deines Displays unterschiedlich ist und nicht zueinander passt. Denn nur für diesen Fall kann Tonemapping sinnvoll sein und der Fall ist bei Spielen idr. ausgeschlossen.
Bei Filmen ist eigentlich auch sehr selten Tonemapping notwendig, weil die meisten Filme weniger als 1000 nits maximalhelligkeit nutzen. Tonemapping wäre nur dann sinnvoll, wenn die Maximahelligkeit des Quellmaterials sehr weit über den Möglichkeiten des Displays liegt. Dann würde der Tonemapper die Helligkeitswerte neu interpretieren und auf die Helligkeit des Displays runterrechnen. Jedoch mit dem Risiko, dass das Bild total verfälscht wird. Ohne Tonemapper (also mit HGIG) hat man dann einfach nur clipping und alles was über die Helligkeitswerte hinausgeht würde abgeschnitten werden und als 100% Weiß dargestellt werden. Je nach Grading des Quellmaterials kann das dann wenn man glück hat normal aussehen oder in einem stark überbelichtetem Look enden.


Also zusammengefasst:

Quellmaterial Max nits = Max Nits Display -> HGIG (Dynamic Tonemapping off) ist optimal
Quellmaterial Max Nits < Max Nits Display -> HGIG (Dynamic Tonemapping off) ist optimal. Optional Tonemapper an -> Bild wird aufgehellt (wers mag, ist aber inkorrekt)
Quellmaterial Max Nits > Max Nits Display -> Tonemapping an = optimal mit dem Risiko auf ein verfälschtes Bild. HGIG würde für clipping in den Highlights sorgen und wäre damit idr. das größere Übel.

Lurtz
2024-03-29, 11:55:46
Das ist auch um ein vielfaches besser. Das HUD am Rand passt für Ultrawide nicht, damit liegt es außerhalb vom scharfen Gesichtsfeld.

Leider kapieren das viel zu viele einfach nicht.
Das bedeutet umgekehrt ja, mit einem Ultrawide berechne ich viele Pixel, die auaßerhalb des scharfen Sehfelds liegen. Und da es keine vernünftigen Lösungen dafür gibt, gibt es auch keine Technologie, um die in niedrigerer Qualität zu berechnen.

Klingt nicht nach einem guten Deal.

Cubitus
2024-03-29, 11:56:23
Was man noch erwähnen sollte, HGiG, bzw die zugrunde liegenden Profile werden sowohl von AMD als auch Nvidia vollumfänglich supported.

Nachdem Relex das Thema sehr schön technisch zusammengefasst hat, kann ich vom praktischen sagen das folgende Spiele mit HGiG aktiviert besseres HDR (kein überblendetes) liefern als mit OFF.

God of War
Cyberpunk
Witcher 3
Avatar
Guardians of the Galaxy
Forza
Gears of War
Flight Simulator
Red Dead 2
Uvm.

Und selbst wenn kein verbesserter Effekt besteht, lässt sich das gesamte Tonemapping beim c3 einfach deaktivieren

Ich finde die Hersteller sollten endlich die HGiG Option in ihre über 1000 Euro teuren Monitore mit anbieten.

240Hz, QD-OLED und der ganze andere Hurra schön und und gut. Am Ende des Tages reicht mir auch ein WOLED mit 120Hz der muss auch keine 1000 nits können, aber er sollte dann zumindest das HDR korrekt darstellen können.
Aktuell sehe ich den Trend dahingehend das QD-OLED in den Himmel gelobt wird und der WOLED als schlechter empfunden wird, dabei hängt von der Bildqualität noch so viel mehr ab. OLED an sich ist schon mal ein krasser Sprung von z.b VA und Mini LED.

Tesseract
2024-03-29, 12:07:01
welche monitore machen tonemapping? ich bin eigentlich davon ausgegangen dass das auf monitoren überhaupt nicht passiert, so wie auch eine ganze reihe anderer TV-verschlimmbesserungen auf monitoren nie ein thema waren.

Cubitus
2024-03-29, 12:09:21
welche monitore machen tonemapping? ich bin eigentlich davon ausgegangen dass das auf monitoren überhaupt nicht passiert, so wie auch eine ganze reihe anderer TV-verschlimmbesserungen auf monitoren nie ein thema waren.

HGiG ist ausnahmsweise mal keine verschlimmverbesserung, sondern kann einem viel Arbeit bei der Kalibrierung abnehmen. Ich weiß keinen Monitor der dies bewusst unterstützt. Beim neuen Alienware gibt's den Konsolenmodus, da könnte es eventuell greifen. Allg Tonemapping Optionen sind mir bei keinem Monitor aufgefallen.

Tesseract
2024-03-29, 12:10:21
lies meinen post nochmal genau. ;)

Allg Tonemapping Optionen sind mir bei keinem Monitor aufgefallen.

nochmal: welche monitore machen tonemapping? ich kann micht nicht daran erinnern dass das irgendein reviewer jemals angesprochen hat also bin ich davon ausgegangen das verhalten von HGiG auf TVs sei auf monitoren sowieso der default, genauso wie 0-255 RGB, kein chroma substrampling, 1:1 pixel mapping etc. schon immer standard waren.