PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72

24p
2018-01-29, 10:43:43
Also glaubst Du, daß die Hersteller mit Absicht die Qualität schleifen lassen, weil es sich
a) mangels Alternativen doch verkauft?
b) sie damit höhere Gewinne einfahren?


Diese Frage wurde dir hier schon x mal beantwortet. Mal ganz abgesehen davon ist deine Argumentation ein naturalistischer Fehlschluss.


Und nein, ich würde den Asus UQ nicht für das Geld kaufen, da das Gerät für den Preis gnadenlos überteuert ist. Er kostet 500€ mehr als ein 55" OLED. Und bevor du hier jetzt wieder den nächsten Strohhalm greifst: Hier geht es nicht um die Monitortauglichkeit des OLED, sondern um die Einordnung der Preise. OLED ist immer noch die mit Abstand teuerste Paneltechnik, es kann nicht angeht, dass ein 0815 Mini Monitor (auch mit FALD) teurer ist als ein OLED oder teurer als ein FALD TV in 65". Für 1500€ und mit VA würde ich jedoch drüber nachdenken.

Savay
2018-01-29, 11:14:37
Wobei der Dell UP2718Q von der Latenz her IMHO als Spielemonitor ausscheidet.

Beim Dell steht doch sogar ganz klar im Fazit das es ein Content Creation Monitor ist....so wird der ja auch vermarktet! :wink: Der ist halt eher ein Anzeichen dafür wo es sich die Panel Technik kurzfristig hin entwickelt.

Insofern bestärkt der mich eher darin das FALD IPS garnicht sooo schlecht für den angestrebten Einsatzzweck sein wird....das muss einfach nur noch etwas optimiert werden...vor allem auch auf geringe Latenzen.
Im TV Segment hat das Processing ja bisher durchaus 1-2 oder mehr Frames im voraus zeit...für nen Gaming Monitor ist das natürlich nix.

Aber es fehlt am PC halt eh noch an Inhalten für HDR und die Softwareumgebung ist auch noch nicht ganz sauber....insofern ist das eher mit der HDR Situation im TV Segment von vor ca. 3 Jahren vergleichbar.

24p
2018-01-29, 11:34:03
Hmm Content Creation. Der Punkt ist, wenn die da mit hohem Umgebungslicht mastern ist der native Kontrast halt relativ egal. Bzw. kann man das Blooming dort ignorieren, da man weiß, dass es vom Monitor kommt. Das ist natürlich trotzdem nicht das Wahre.
Filme werden übrigens mit OLEDs (von Sony zB) oder mit dem Dolby Pulsar (FALD mit 4000 nits) gemastert. Der Asus ist da bestenfalls Semi-Pro (und imo auch nicht mal das, da PremiumTVs immer noch deutlich besser sind als dieser Monitor.

Ich selbst werde mir den IPS FALD von Asus mit 144Hz mal anschauen, aber 2000€ ist mir so eine Nicht-Fisch-nicht-Fleisch Lösung nicht wert.

Savay
2018-01-29, 11:39:07
Das ist natürlich trotzdem nicht das Wahre.

Aha.

"The blooming around the white moving object was not obvious in real use like your PS4 gaming tests (in the normal HDR mode). On the Samsung C32HG70 which has only 8 dimming zones, you can see this blooming more easily, as larger areas need to be brightened and dimmed to try and account for the small areas of differing content. The 384-zone FALD helped keep that blooming to a minimum here."

Ich weiß echt nicht was deine ständige VA Lobhudelei soll.
Die "flotteren" PC VAs sind übrigens mittlerweile recht weit vom 3-5-fachen Kontrast weg (Der alte EIZO Foris und der beliebte Philips sind wenn man sich den Durchschnitt der letzten Jahre betrachtet eher relativ ungewöhnliche Ausschläge nach oben)...real sind es oftmals allenfalls wohl eher 2-2,5x....teilweise sogar weniger!

24p
2018-01-29, 11:40:48
Worauf willst du hinaus? Dass der Tester in einer mutmaßlich hellen Umgebung kein Blooming gesehen hat?

Klar hilft FALD auch bei IPS, wirklich gut geht HDR aber nur mit FALD plus VA.

Troyan
2018-01-29, 11:45:03
Und Gaming geht nur wirklich gut mit IPS. Ein Dilemma, ha.

Savay
2018-01-29, 11:48:30
Worauf willst du hinaus?

Das du hier ständig aus ner minimalen Differenz nen riesen Unterschied aufbläst....zumal du dir mit VA genug andere Nachteile einfängst. :freak:


Klar hilft FALD auch bei IPS, wirklich gut geht HDR aber nur mit FALD plus VA.

Wirklich "gut" geht HDR nur mit OLED.
Aber das ganze gestöhne bringt ja eh nix wenn nicht ein FALD VA für PCs am Horizont zu sehen ist.
Dann nehm ich mittelfristig wohl lieber nen FALD IPS als nen EdgeLit LD VA.

Wobei ich den 27er Samsung schon seit Tagen fast im Warenkorb habe...nur um mal nen Low-Latency HDR Monitor + "144Hz" :freak: VRR VA zu testen...preislich find ich den auch garnicht sooo uninteressant angesichts der Eckdaten. :D

Mich hält momentan aber eher die Tatsache ab das ich meinen 1st Gen. HDR LCD TV (ohne LD) wohl die nächsten Wochen doch lieber gegen nen OLED tauschen werde (angsichts der Menge der HDR Inhalte die ich mittlerweile tatsächlich abrufen kann und ich somit wohl mehr davon hätte), ich eigentlich kein Curve mag und mir zudem der Platz aufm Tisch zu knapp wird. :wink:

Troyan
2018-01-29, 11:50:10
Die 35" 21:9 Geräte haben wohl ein VA Panel.

Savay
2018-01-29, 11:52:27
Die 35" 21:9 Geräte haben wohl ein VA Panel.

Ja vielleicht mit 512 Zonen von AUO...mit 200Hz. Zweihundert...und es ist Curved :freak: ich bin jedenfalls gespannt wie ein Flitzebogen ob und wie das alles zusammengeht.

Könnte aber realistisch betrachtet auch eher ein 8 Zonen (120Hz) Panel sein...ehrlich gesagt glaube ich eher an letzteres als an ersteres. :wink:

PHuV
2018-01-29, 11:53:30
Diese Frage wurde dir hier schon x mal beantwortet. Mal ganz abgesehen davon ist deine Argumentation ein naturalistischer Fehlschluss.
Warum?
Und nein, ich würde den Asus UQ nicht für das Geld kaufen, da das Gerät für den Preis gnadenlos überteuert ist. Er kostet 500€ mehr als ein 55" OLED. Und bevor du hier jetzt wieder den nächsten Strohhalm greifst: Hier geht es nicht um die Monitortauglichkeit des OLED, sondern um die Einordnung der Preise. OLED ist immer noch die mit Abstand teuerste Paneltechnik, es kann nicht angeht, dass ein 0815 Mini Monitor (auch mit FALD) teurer ist als ein OLED oder teurer als ein FALD TV in 65".
Da unterliegst Du jetzt deutlich Denkfehlern:

1) Du die Produktlinien TV und Monitor nicht vergleichen kannst.
2) Du ebenso nicht weißt, ob die OLEDs hier nur oder fast kostendeckend oder sogar subventioniert auf den Markt geschmissen werden. Da kann ein Gewinn über die Masse erzielt werden.

Daher hinkt aus meiner Sicht Dein Vergleich, das ist typisch einseitige Forschperspektive. Du kannst nicht einfach so die Preise vergleichen, wenn Du nicht alle Faktoren mit einbeziehst. Oder kennst Du die internen Kennzahlen, um Deine Behauptung unterstützen zu können?

Für 1500€ und mit VA würde ich jedoch drüber nachdenken.
Anscheinend bist Du der einzige hier, der VA als Technik bevorzugen würde. VA verliert doch immer im direkten Vergleich:

https://www.youtube.com/watch?v=CWYS2epJlT8
https://www.youtube.com/watch?v=UTMnf2SMgIE
Und mal unter Extrembedingungen:
PEXyktx6N00
Daher kann ich nicht nachvollziehen, warum Du VA als bevorzugte Technologie sehen willst? Rein farbilich sehen in allen Test und Videos die IPS-Displays mit Abstand deutlich besser aus.
Ich selbst werde mir den IPS FALD von Asus mit 144Hz mal anschauen, aber 2000€ ist mir so eine Nicht-Fisch-nicht-Fleisch Lösung nicht wert.
Ja toll. :rolleyes: Erst moserst Du über die Hersteller derbe rum, behauptest, Du seiest Premium Kunde, und dann ist es Dir doch nicht wert? :freak: Sorry, ich glaube nicht, daß Du überhaupt mir irgend etwas zufrieden sein wirst. Du wirst einer von den Dauernörglern. Bei akuji13 kann man ja immerhin sehr gute praktische Erfahrungen attestieren, weil er einfach schon so viele Displays getestet hatte. Ihn würde ich so einstufen, Dich aber hier nicht. Ich habe von Dir hier auch noch gar nicht gelesen, daß Du irgendwie mal als angeblicher Premium in Erscheinung getreten bist oder mal einen Testbericht verfaßt hast.

Troyan
2018-01-29, 12:12:18
VA Panels haben vor Allem dort Probleme, wo sie gegenüber IPS im Vorteil liegen: Dunkle Bildbereiche. Die Übergänge von Schwarz auf Grau sind richtig lahm und führen zu deutlichen Schlieren.

Als PC Monitor daher im Grunde unbrauchbar und imo nur relevant, wenn man <=60Hz spielt und viel Filme schaut.

PHuV
2018-01-29, 12:40:50
Deswegen kann ich überhaupt nicht verstehen, daß 24p hier VA bevorzugt, und habe sein Gepampe nicht verstanden, daß alles hier bereits erklärt wurde.

Ben Carter
2018-01-29, 12:45:30
Es gibt auch noch so etwas wie persönlichen Geschmack. Dem einen fallen die Negativ-Effekte von einem VA mehr auf, dem anderen dem von einem IPS.

24p
2018-01-29, 13:25:50
Deswegen kann ich überhaupt nicht verstehen, daß 24p hier VA bevorzugt, und habe sein Gepampe nicht verstanden, daß alles hier bereits erklärt wurde.

Kontrast.

Und btw, nur weil ich Premiumpreise zahlen will bedeutet das nicht, dass ich diese für alle Produkte zahle. ;) Für ein IPS Panel HDR Monitor gibt es von mir eben keine 2000€.


Zu deinen wild zusammengesuchten Tests (auf Spanisch :ugly:) sage ich mal nichts. Die sind null Aussagekräftig.
Deinen Nebelkerzen über OLED Panels, Produktlinien und irgendwelche Kennzahlen ebenso wenig.

Ich habe von Dir hier auch noch gar nicht gelesen, daß Du irgendwie mal als angeblicher Premium in Erscheinung getreten bist oder mal einen Testbericht verfaßt hast.

Dann solltest du besser lesen. ;)

Du wirst einer von den Dauernörglern.

Nö. Ich bin mit meinem OLED sehr zufrieden. Mit meiner GTX 1080Ti ebenfalls. Mit meinem LCoS Beamer ebenso. Nur bei den Monitoren muss ich konstatieren, dass es da z.Zt. nur überteuerten Schrott gibt. Aber hey, ich bin ja nur ein Dauernörgler, der in der Kneipe sitzt. Du bis echt so typisch Deutsch. Sobald mal jemand Kritik anbringt wird wie ein Kettenhund losgekläfft.

Schnäppchenjäger
2018-01-29, 13:58:28
Wie ich schon sagte, die Nörgler haben recht.
Warten wir mal 5-10 Jahre... dann wird es so einen scheiß wie IPS oder VA nicht mehr geben und man hat best of all worlds ;)
DVD-Qualität war auch mal top.. schau dir an wo es heute rangiert.

PHuV
2018-01-29, 14:00:52
Kontrast.
Aber wie Du doch an den angeblich nicht aussagekräftige Tests und vor allen Dingen Videos deutlich sehen kannst, Kontrast ist eben nur ein Kriterum von vielen. Von den Farben stinken alle VAs schlichtweg ab, das kann man doch deutlich sehen.

Und btw, nur weil ich Premiumpreise zahlen will bedeutet das nicht, dass ich diese für alle Produkte zahle. ;) Für ein IPS Panel HDR Monitor gibt es von mir eben keine 2000€..
Dann kannst Du Dich auch nicht beschweren, ganz einfach. Und Deine Vergleiche passen eben nicht. Monitor != TV.
Zu deinen wild zusammengesuchten Tests (auf Spanisch :ugly:) sage ich mal nichts. Die sind null Aussagekräftig.
Warum? Es ist doch deutlich auf den Videos zu sehen, daß VAs farblich alle verlieren. Das ist doch Aussage genug. :confused: Oder hast Du einen Augenfehler (nicht böse gemeint), so daß Dir VA angenehmer erscheint.

Deinen Nebelkerzen über OLED Panels, Produktlinien und irgendwelche Kennzahlen ebenso wenig.
Wie bitte, Nebelkerzen? :| Sorry, dann bist Du doch infantiler als gedacht, oder verfügst nicht über entsprechende Bildung und Wissen, so daß Du wüßtest, daß meine Einwürfe keine Nebenkerzen sind.

Nö. Ich bin mit meinem OLED sehr zufrieden. Mit meiner GTX 1080Ti ebenfalls. Mit meinem LCoS Beamer ebenso. Nur bei den Monitoren muss ich konstatieren, dass es da z.Zt. nur überteuerten Schrott gibt. Aber hey, ich bin ja nur ein Dauernörgler, der in der Kneipe sitzt. Du bis echt so typisch Deutsch. Sobald mal jemand Kritik anbringt wird wie ein Kettenhund losgekläfft.
Wo sage ich was gegen Kritik? Was Du machst, ist blindes Bashing und Stammtischparolen, mehr nicht.
Wie ich schon sagte, die Nörgler haben recht.
Nö, weil früher war immer alles besser. :rolleyes: Der Mensch vergißt zu schnell.

Warten wir mal 5-10 Jahre... dann wird es so einen scheiß wie IPS oder VA nicht mehr geben und man hat best of all worlds ;)
Dann bist Du aber sehr jung und noch sehr optimistisch. Ich kann Dir so viele Dinge nennen, die groß und bereit angekündigt waren, und doch gar nicht oder kaum gekommen sind.

DVD-Qualität war auch mal top.. schau dir an wo es heute rangiert.
Richtig, die Qualitätsansprüche ändern sich. Genau meine Rede, und dadurch wird die Technik auch komplizierter und komplexer. Da wird doch nicht einfach nur was zusammengebastelt, da machen sich sehr wohl eine Menge Leute viele viele Gedanken dazu. Ob das nun richtig gut ist oder nicht, ist eine andere Frage. Aber das dann alles gleich als Schrott und Mist abzuwerten?

24p
2018-01-29, 14:02:41
Mit HDR ist die Richtung ja quasi vorgegeben. "we need better pixels".
Der Standard verlangt deutlich mehr als Monitore und auch TVs heute liefern können und wird für die nächsten Jahre noch dafür sorgen, dass man mit einem neuen TV ohne Änderung der Quelle ein besseres Bild hat. Da wurde ordentlich vorgebaut. :)
Das setzt dann auch die Monitorhersteller unter druck. Die "HDR" Monitore ohne LD und mit 4000 nits IPS sind jedenfalls ein Nepp - so wird sich HDR am PC sicher nicht verbreiten. Hier haben die Konsolen mal einen echten Vorteil durch die hochqualitativen Ausgabegeräte. Am PC gibt's Leistung ohne Ende dank 1080Ti, aber das Ausgabegerät limitiert.

Aber wie Du doch an den angeblich nicht aussagekräftige Tests und vor allen Dingen Videos deutlich sehen kannst, Kontrast ist eben nur ein Kriterum von vielen. Von den Farben stinken alle VAs schlichtweg ab, das kann man doch deutlich sehen.



Anhand von abgefilmten Videos kann man keine Monitore beurteilen. Und nein, die Farben sind bei VA nicht per se schlechter.


Wie bitte, Nebelkerzen? :| Sorry, dann bist Du doch infantiler als gedacht, oder verfügst nicht über entsprechende Bildung und Wissen, so daß Du wüßtest, daß meine Einwürfe keine Nebenkerzen sind.



Genau. Ich bin total dumm und ungebildet und weine mich deswegen gleich in den Schlaf. ;(

5CH4CHT3L
2018-01-29, 14:03:27
@PhuV
Das "schwarz" des IPS war absolut NICHT schwarz im Vergleich.
Und da ich mein Monitor nicht als Public Display einsetze und nicht mit 70°C betreibe und auch nicht draufdrücke stimme ich für VA.

Mag ja gerne sein, dass IPS besser für andere Einsatzbereiche geeignet ist weil sie robuster sind

24p
2018-01-29, 14:08:58
Jop, so sieht es aus. Fürs HighFPS Gaming - klar, da braucht es IPS oder gar TN. Für HDR ist jedoch VA das Maß der Dinge und damit dass man dafür dann eben bezüglich der Schaltzeiten Abstriche machen muss, damit muss man eben leben. Ein IPS HDR Monitor stellt dafür HDR nicht so gut dar. MIR ist HDR und die BQ wichtig (in 4K kann ich eh nur mit 60p spielen), daher kommt für mich auch VA in Frage.

Savay
2018-01-29, 14:11:19
"Andere Einsatzbereiche" schließt halt explizit Monitor und Handheld ein. ;)
Da kommen die Stärken von IPS naturgemäß eher zum tragen als die Nachteile!
Die Diskussion hatten wir aber weiter vorne schon.

Das VA dann bei TVs idR eher dominiert ist auch kein besonderes Wunder...wobei IPS auch da teilweise seine Berechtigung hat...je nach Einsatzzweck.
Philips hat ja auch begründet warum sie bei den "besseren" LCD TVs wieder auf IPS setzen wollen.
Der Hellraumkontrast ist ja auch kein besonders Problem von IPS...dafür sind die Blickwinkel halt wieder besser.

Nen Rundum Sorglos Paket gibt es einfach nicht...

Für HDR ist jedoch VA das Maß der Dinge

Das eigentliche Maß der Dinge scheint ja für LCDs wohl eher die Art des LD zu sein...die relativ kleinen Differenzen zwischen IPS und VA spielen da wohl offensichtlich kaum noch ne Rolle. LCD bleibt nunmal LCD.
Kann man doch ziemlich gut an den Messwerten des Samsung vs. DELL erkennen.

Vom Nominal 2,1x besseren Schwarzwert bleibt defakto nicht wirklich was übrig...ganz im Gegenteil, das kehrt sich extrem um.

akuji13
2018-01-29, 14:16:41
Also glaubst Du, daß die Hersteller mit Absicht die Qualität schleifen lassen, weil es sich
a) mangels Alternativen doch verkauft?
b) sie damit höhere Gewinne einfahren?

Ja.
Über die Gründe kann man streiten, der stetige Kostendruck ist sicher einer davon.
Die Quartalszahlen müssen stimmen und solange die anderen das auch so machen prescht keiner vor.

Ist zwar aus einem ganzen anderen Bereich, wurde mir aber 2017 bei einem Besuch bei einem Hersteller auch so unter 8 Augen bestätigt.
Sinngemäß war die Aussage "Reklamationen zu bearbeiten die oft auch gar nicht geltend gemacht werden ist für uns günstiger als eine entsprechende Qualitätssicherung".

Das Problem liegt aber einfach daran, dass der Markt dafür geradezu winzig ist. Bei Hardwareanschaffungen im Freundeskreis werde ich oft gefragt, was gekauft werden sollte und wenn es um Monitore geht, dann ist die Anforderung meistens: 24" oder größer, 200 Euro oder weniger. Manchmal kommt noch Höhenverstellung dazu. Der Rest ist dann egal. "Ist ja nur ein Bildschirm"

Sind auch die Erfahrungen die ich mache.
Ich stelle einen 144Hz FS hin und spätestens nach 2 Monaten läuft der mit 60Hz und FS ist deaktiviert und keiner merkt es. :freak:

Wenn man sich mal die Abverkäufe eines Händlers anschaut wird der Eindruck bestätigt.

Daher hinkt aus meiner Sicht Dein Vergleich, das ist typisch einseitige Forschperspektive. Du kannst nicht einfach so die Preise vergleichen, wenn Du nicht alle Faktoren mit einbeziehst.

Ich bevorzuge übrigens auch VA (mangels OLED & Co.). :wink:
Glow und bleeding nerven mich zu Tode und da gibt es fast keine IPS mehr ohne.
In 27" ja, aber dann auch nur mit 60Hz.
In 34/35" sind IPS die Hölle für mich, bei den VAs ist es zu ertragen.
Der Schwarzwert ist auch eine sehr relevante Größe für mich.

Bei den TV/Monitor Vergleich muss ich dir widersprechen.
Ich bezweifle das bei OLED die aktuelle "Masse" zur Subventionierung ausreicht.

Und selbst wenn: Ist mir das völlig gleich.
Das ist überhaupt nicht von Belang für mich als Endkunden.
Da sitzen genug BWLer die rechnen können sollten.

Wenn ich für 1500€ einen besseren und viel größeren TV bekomme als für 1300€ als Monitor ist es mir egal ob da TV oder Monitor dran steht.
Beide erzeugen ein Bild...warum, wieso, weshalb spielt keine Rolle denn an beiden kann ich das machen was ich möchte.

24p
2018-01-29, 14:30:04
Zumal LG auch garantiert nicht OLEDs zum Spaß auf den Markt wirft und damit Geld verdienen will. Das kann man da auch gut an den Preisen erkennen, die mit zunehmender Fertigung immer geringer wurden.

Unterschiede bei den Fertigungsstrassen? Ja aber immer. Nur eben nicht so wie phuv denkt. Ein TV der Oberklasse oder OLED herzustellen ist wesentlich komplexer als einen Gamermonitor zusammenschrauben zu lassen. Zweiteres schafft jede Bude, die mit Monitoren sonst nichts am Hut hat (Asus, Aber und co). PremiumTVs gibt es nur bei den großen Herstellern mit entsprechend Know-How. Das ist schon ein guter Indikator dafür, dass die Gamermonitore überteuert sind. Für einen 0815 IPS LCD mehr zu verlangen als für einen OLED oder einen FALD TV von Panasonic in 58" - das ist lächerlich und zeigt eben genau das Problem im PC Bereich. Deswegen gibt es ja auch diesen Thread. Gaming ist eben doch zu sehr eine Nische, während der Markt für TVs wesentlich größer und zahlungskräftiger ist.

Kartenlehrling
2018-01-29, 14:36:23
Ist denn nun ein Preis für den 22inch OLED bekannt,
eine Preisspanne von 999€-4000€ ist ja nicht gerade genau?!!

PHuV
2018-01-29, 15:13:58
Mit HDR ist die Richtung ja quasi vorgegeben. "we need better pixels".
Der Standard verlangt deutlich mehr als Monitore und auch TVs heute liefern können und wird für die nächsten Jahre noch dafür sorgen, dass man mit einem neuen TV ohne Änderung der Quelle ein besseres Bild hat. Da wurde ordentlich vorgebaut. :)
Das setzt dann auch die Monitorhersteller unter druck. Die "HDR" Monitore ohne LD und mit 4000 nits IPS sind jedenfalls ein Nepp - so wird sich HDR am PC sicher nicht verbreiten. Hier haben die Konsolen mal einen echten Vorteil durch die hochqualitativen Ausgabegeräte. Am PC gibt's Leistung ohne Ende dank 1080Ti, aber das Ausgabegerät limitiert.
Oder sowas, was wirklich Nebelkerzen sind:

TV-Displays: 4K im Aufwind, HDR oftmals ungenutzt (https://www.heise.de/newsticker/meldung/TV-Displays-4K-im-Aufwind-HDR-oftmals-ungenutzt-3950610.html)
Viele der ultrahochauflösenden TV-Displays sind "HDR-kompatibel" − eine Worthülse, die es in sich hat.
Super Verarsche, HDR-kompatiblel. :rolleyes:
Anhand von abgefilmten Videos kann man keine Monitore beurteilen. Und nein, die Farben sind bei VA nicht per se schlechter.
Das mußt Du doch zugeben, liegt alleine im Auge des Betrachters. :confused: Und man sieht doch, selbst in den "schlechten" Videos deutliche Farbunterschiede.
Genau. Ich bin total dumm und ungebildet und weine mich deswegen gleich in den Schlaf. ;(
Das habe ich so nicht behauptet. Alles was ich sage, ist die Tatsache (die nicht von mir kommt, sondern einfach so ist), daß Du und ich nicht sehen, was intern an Kakukationen und Berechnungen da ist. Wer das weiß, macht eben nicht den Fehler wie Du, Monitore und TVs vom Preis und Leistung einfach gleichzusetzen, da kann eine ganz andere Berechnung für die Fixkosten, die Ausgaben usw. dahinterstecken.

PHuV
2018-01-29, 15:23:15
Ja.
Über die Gründe kann man streiten, der stetige Kostendruck ist sicher einer davon.
Die Quartalszahlen müssen stimmen und solange die anderen das auch so machen prescht keiner vor.

Ist zwar aus einem ganzen anderen Bereich, wurde mir aber 2017 bei einem Besuch bei einem Hersteller auch so unter 8 Augen bestätigt.
Sinngemäß war die Aussage "Reklamationen zu bearbeiten die oft auch gar nicht geltend gemacht werden ist für uns günstiger als eine entsprechende Qualitätssicherung".
Oha, das ist eine harte Aussage. Wer wars? :tongue:

Das ist eben das perverse an so einer Kosten-Nutzen-Rechnung, es ist dann für die effizienter, die Kunden unfair abzubügeln. Daher muß man hier einfach knallhart darauf setzen, daß Teil innerhalb von 14 Tage zurückzugeben. Blöde nur, wenn einige Featurefehler oder anderweitige Dinge erst später auftauchen. Dann muß man sich nicht wundern, daß man dann nur noch bei Amazon und Co. online kauft. Meine Desaster mit dem LG 31MU97-B ist mir eine Lehre gewesen.

24p
2018-01-29, 15:37:29
Oder sowas, was wirklich Nebelkerzen sind:

TV-Displays: 4K im Aufwind, HDR oftmals ungenutzt (https://www.heise.de/newsticker/meldung/TV-Displays-4K-im-Aufwind-HDR-oftmals-ungenutzt-3950610.html)

Super Verarsche, HDR-kompatiblel. :rolleyes:

Das mußt Du doch zugeben, liegt alleine im Auge des Betrachters. :confused: Und man sieht doch, selbst in den "schlechten" Videos deutliche Farbunterschiede.

Das habe ich so nicht behauptet. Alles was ich sage, ist die Tatsache (die nicht von mir kommt, sondern einfach so ist), daß Du und ich nicht sehen, was intern an Kakukationen und Berechnungen da ist. Wer das weiß, macht eben nicht den Fehler wie Du, Monitore und TVs vom Preis und Leistung einfach gleichzusetzen, da kann eine ganz andere Berechnung für die Fixkosten, die Ausgaben usw. dahinterstecken.

Da kommen wir doch schon viel eher auf einen gemeinsamen Nenner.

Der Punkt ist nur der, die Sache mit den Fixkosten usw ist mir zu unkonkret. Das kann man als Allgemeinplatz immer bringen, hilft aber hier nicht weiter. Keiner von uns kennt die Kalkulation 100% genau. Wir können aber Indizien nutzen. Und da bietet sich der Vergleich einfach an. Ich würde auch nicht behaupten, dass man damit mit einer Genauigkeit von +-10% die Kosten zw. TV und Monitor vergleichen kann. Solche eklatanten Unterschiede bei denen Top TVs wie OLEDs oder massiv komplexe FALD TVs teurer sind als recht simple Monitore - da reichen mir die Indizien um zu sagen: Da passt etwas nicht. Das ist einfach ein quick sanity check.

Was die Videos angeht: Kann man nicht. Den Schwarzwert kann man da nicht beurteilen. Zu hell und die Kamera hat einen Dynamikumfang, der unter dem des TVs liegt. Farben? Ebenso. Wir kennen den Weißabgleich nicht und wissen nicht was richtig oder falsch ist. Wir wissen auch nicht, ob der Sensor die Farben des Monitors korrekt aufnimmt. Bestimmte Filter haben andere Effekte. Ich habe mal einen OLED und einen TV fotografiert im MM. Beide standen übereinander und sahen per Auge nahezu gleich aus. Auf dem Bild war die Farbtemperatur des OLEDs trotzdem deutlich anders. Weiterhin ist das da im Video ein Samsung TV der Holzklasse (MU-Serie). Ebenfalls nicht repräsentativ. Und so weiter, mit Videos TVs und Monitore zu vergleichen - viele machen es, aber es bringt nichts. Und sorry, dass ich dich gestern so anfuhr, muss nicht sein. Gilt aber für dich auch.

akuji13
2018-01-29, 16:26:18
Oha, das ist eine harte Aussage. Wer wars? :tongue:


Wie gerne würde ich sagen wer es ist. :redface:
Und dazu noch Fotos einstellen für wen sie noch fertigen und was am Ende nur in andere Kartons verpackt wird.

Nix mit "Markenware hat eine höhere Qualität!".
Vermutet habe ich es wie andere auch schon lange, es so direkt zu sehen ist allerdings nochmal eine andere Nummer.

Tesseract
2018-01-29, 16:33:01
wie oft hatten wir diese diskussion eigentlich schon?
wenn der TV hauptsächlich 24fps anzeigt sind die schaltzeiten vollkommen egal und wenn es keine rolle spielt ob das ding 5 oder 50ms lag hat kann man natürlich 3+ frames zwischenspeichern und in der processing-chain mal eben gradielles full screen local dimming dranhängen - natürlich bietet sich VA mit dem besseren kontrast dann an. ändert aber nix daran, dass an ein gerät mit >=144Hz, VRR und geringem lag andere anssprüche gestellt werden die VA bis heute einfach nicht sinnvoll verfüllen kann. IPS reicht berg ab mit rückenwind gerade so für ~165Hz, für 200+ reicht momentan überhaupt nur TN (gerade so) und VA kotzt sich bereits ab 60Hz bei vielen übergängen an. local dimming + niedriger input lag erfordert support durch die zuspieler bzw. das protokoll und ist nicht so trivial wie auf TVs. für tone mapping gilt ähnliches.

der "technische vorsprung" der TVs ist kein vorsprung sondern ein anderer anwendungsbereich. sie sind in einigen bereichen scheinbar voran weil sie in anderen die diametral dagegen stehen jahre hinterherhinken. samsung, der größte TV-hersteller der welt, ist mit dem versuch VA in den gaming-bereich zu bringen kläglich gescheitert.

dieses jahre alte dilemma wird sich erst mit OLED oder ähnlichem lösen lassen.

24p
2018-01-29, 16:37:25
Wenn es nur mal so wäre. Die 60Hz 4K Monitore sind ja leider auch nicht besser. Dass man bei den Hardcore Gamermonitoren mit 165Hz Einschnitte machen muss aufgrund der Schaltzeiten bestreitet ja auch keiner. Aber auch die anderen Monitore sind leider nicht besser.
Und ja, bei TVs gibt es einen technischen Vorsprung. Es gibt OLEDs, local Dimming und relativ schnelle VAs. Die gibt es bei Monitoren nicht, auch nicht wenn ich mich auf 60Hz beschränke.

PHuV
2018-01-29, 16:47:38
Entschuldigung angenommen, so läßt es sich doch einfacher diskutieren. :smile: :ubeer:

Zur Kalkulation. Es macht einen Unterschied, wie die Dinger in Stückzahlen produziert werden. Ich vermute mal, daß ein besserer TV öfters verkauft wird als ein bessere Monitor, und schon ändert sich die Kalkulation. Nun ist die Frage, ist es vom Fertigungsprozess komplizierter, einen Monitor oder einen Fernseher zu bauen. Ansonsten könnte man doch ganz einfach den Fertigungsprozess adaptieren, und man baut nur mit einer anderen Platine mal einen TV und dann einen Monitor. Aber allein von den Größen paßt es ja nicht. Gerade bei OLEDs will mir nicht in den Kopf, warum 55" kein Problem sind, aber 35-40" für Monitore sehr wohl.

Zum Videos: Ja, Deine Kritikpunkte kann ich nachvollziehen. Aber selbst wenn die Aufnahme weder perfekt ist, und eben zig Filter, mangelnde Optik und Co. dahinterhängt, man sieht sehr wohl einen Unterschied, wenn beide Monitore danebenstehen. Gut, bei manchen Sachen haut es wirklich nicht hin, wie Dein Vergleich mit dem TVs. Aber gut, wer kauft sich TVs oder Monitore anhand Vergleichsvideos, :freak: die alten Hasen wie wir wissen ja, immer selbst anschauen und selbst testen, oder wie akuji13 in Exrem, alles nach Hause schicken lassen. :wink:

Tesseract
2018-01-29, 16:52:29
Es gibt OLEDs, local Dimming und relativ schnelle VAs.

wie gesagt: local dimming mit geringem lag gibt es auf TVs meines wissens genau so wenig wie bei monitoren (in der vergangenheit war LD sogar oft inaktiv wenn man in den gaming-modus geschaltet hat) und wo bitte gibt es bitte schnelle VA? nenn mir ein einziges beispiel mit objektiven messwerten.

und ja OLED gibt es zwar theoretisch, aber die preise sind nach wie vor extrem hoch und so lange die elektronik hinter dem panel nur standard-TV-zeug ist bleibt das panel leider trotzdem hinter den erwartungen. spiele ohne VRR und ohne hohe refreshraten sind nunmal minderwertig, da kann das panel noch so gut sein. jedes mal wenn ich etwas auf einer konsole laufen sehe frage ich mich erneut wie die leute sich das ernsthaft antun können. TVs sind nach wie vor als reine video-ausgabegeräte mit fixem, niedrigen refresh konzipiert. seit jahen passen sich die konsolenspiele den fernsehern und nicht die fernseher den ansrüchen der konsolen an.

24p
2018-01-29, 16:57:25
https://www.rtings.com/tv/reviews/samsung/qled-q9f-q9
Nicht schnell, aber schneller als der VA Schnitt.
Seit hdr passen sich die Konsolen den TVs an.

akuji13
2018-01-29, 17:06:39
die alten Hasen wie wir wissen ja, immer selbst anschauen und selbst testen, oder wie akuji13 in Exrem, alles nach Hause schicken lassen. :wink:

Zum Glück teilt jemand meine Leidenschaft (wobei die Betonung oft auf Leiden liegt! :D) und ich kann ganz viele Geräte gleich beim Händler testen.

Und da dann auch mal satte Stückzahlen die man als Privatanwender nur mit ganz viel Aufwand hinbekommt.
Aber auch das tut sich so mancher an mit 50+ Geräten. :freak:

PHuV
2018-01-29, 17:34:37
Und um mal eines klarzustellen, ich will weder Hersteller noch Anbieter irgendwie blind verteidigen oder bin gar auf deren Seite. Klar will ich auch als Konsument gerne das, was möglichst nahe an "perfekt" und "gut" rankommt. Ich hab ein Heimstudio zu Hause, fotografiere, filme etc. und mir ist sehr wohl bewußt, daß es das "Gerät" nicht geben kann (außer RME Fireface :biggrin:), ich hab eben auch mit zig Geräten zu tun.

Nur habe ich eben auch mit vielen Kunden aus der Proktion in Deutschland zu tun, und hab eben selbst in Fertigungsbetrieben in vielen Abteilungen gearbeitet, da steckt doch eine Menge Aufwand dahinter, etwas zu produzieren.

Und wenn ein Zulieferer nicht das Panel liefern kann, was macht man dann? Eigentlich wäre die Konsequenz, eigene Panelfertigung. Kann ja nicht sein, daß wir weltweit nur noch 5 große Anbieter haben. Wo ist das Problem, dann in Kleinserie speziell zu fertigen? Kann auch nicht jeder, weil es viel an Forschung und Entwicklung kostet, geschweige den so eine Fabrik mal aufzubauen. Wir sehen es ja an den Festplatten, wie stark der Markt mit den Anbietern geschrumpft ist.

Ich habe übrigens durch Abitreffen und so vor kurzem erfahren, daß in meiner alten Heimat sogar Panels und Monitore produziert werden: Data Modul (https://www.data-modul.com/de/monitor-loesungen.html) :eek:

Savay
2018-01-29, 17:43:48
Bei AH-IPS tut sich übrigens wohl noch was. Dürfte ne NanoIPS Variante sein.
http://www.tftcentral.co.uk/reviews/acer_prodesigner_pe320qk.htm#contrast_stability

24p
2018-01-29, 17:45:34
Den habe ich gestern auch schon im Blick gehabt.
Dann habe ich gesehen, dass die Bildhomogenität zum davonlaufen ist (Acer halt) und dass die Schaltzeiten denen von VAs entsprechen. Aber immerhin gibt es jetzt IPS mit Schaltzeiten der VAs mit dem halben nativen Kontrast. Und "HDR". :ugly:

Nochmal zur Qualität, weil es hier so gut passt. Dinge wie die Verarbeitungsqualität sind ja absolut unabhängig von Dingen, die Zielkonflikten unterliegen. Für Staub auf dem Panel, exzessives Bleed, Bildinhomogenitäten durch mangelnde Ausleuchtung und co habe ich kein Verständnis. Da wird die Verarbeitungsqualität der sub 200€ Klasse geboten und das ganze dann für ein vielfaches gekauft, weil es viele gamer offenbar nicht interessiert. Hauptsache ein Billigpanel in ein Schrottgehäuse mit edge Beleuchtung gebaut und ein paar LEDs und hässliche Designakzepte angepappt. :(


@tesseract

Gut. Du willst HighFPS Monitore und dir ist die BQ zweitrangig. Fein, für dich gibt es seit Jahren Monitore. Kaufen und glücklich sein, aber es tut doch nicht not hier jeden anzupampen, der nicht den 1000x 165Hz WQHD Monitor abfeiert (sogar Dell hat so einen im Portfolio - das sagt doch schon alles).

PHuV
2018-01-29, 17:50:27
Was bei mir mit VA nach wie vor nicht paßt, ist die Blickwinkelabhängigkeit. Gerade bei größeren Monitoren ab 27" wird es doch störend, sehe ich beim Philips mit 40" täglich. Da weiß ich auch nicht, ob das mit neueren VAs oder SVA irgendwie mal besser wird. Curved finde ich nach wie vor keine Lösung, besonders auf Arbeit nicht, wenn man den Kollegen am Monitor mal was zeigen will.
Den habe ich gestern auch schon im Blick gehabt.
Trotz IPS? :naughty:

Tesseract
2018-01-29, 17:50:31
https://www.rtings.com/tv/reviews/samsung/qled-q9f-q9
Nicht schnell, aber schneller als der VA Schnitt.

im für VA besonders kritischen 0%->20% übergang sehe ich da ungeschönt ~14-18ms. ja, für ein VA ist das sehr schnell, aber effektiv entspricht das trotzdem nur ~60Hz.
ein 80%-helligkeitsveränderungsfenster im graph hin und her zu verschieben bis man die kürzeste zeit gefunden hat funktioniert halt nicht wenn alle paar ms ein neuer refresh kommt. mit 144Hz hätte das panel im 0%->20%-übergang gerade mal ~10% helligkeit erreicht bevor der nächste refresh kommt. sprich: in einer dunklen szene in der sich viele übergange innerhalb des ~0-30% bereichs bewegen schmiert dir das panel die szene zu brei. außerdem haben einige andere übergänge schon sichtbare überschwinger.

Seit hdr passen sich die Konsolen den TVs an.
konsolen passen sich immer dem TV an weil der spielesektor in der TV-entwicklung so gut wie nix zu melden hat. genau das ist ja das problem. im monitorbereich gibt es zumindest einen kleinen teilmarkt der sich am gaming ordientiert.

5CH4CHT3L
2018-01-29, 17:55:52
Die Frage ist halt, was für ein Unternehmen noch wirtschaftlich wäre.
Angenommen man würde ein 34 / 38 Zoll 3840x1600 (21:9) VA Panel mit leicht erhöhter Refreshrate (80-100Hz) herstellen und die Monitorhersteller würden es verbauen - wie viele Geräte müsste man verkaufen und wie hoch muss man den Preis setzen, damit sich das lohnt bzw. würde es irgendeinen Preispunkt geben, bei dem sich das überhaupt lohnt?
(Local Dimming und OLED lass ich mal absichtlich raus weil die noch schwer einkalkulierbar sind)

Die Volumen bei >1000€ Monitoren sind winzig im Vergleich zu TVs der gleichen Preisklasse. Wenn man für den Markt Produkte bereitstellt, kann es passieren, dass nur Verlust drin ist.
Bei Nvidia gibt es ja auch keinen größeren Gaming-Chip als GP102 obwohl 600mm^2 und 512bit SI sicherlich drin wären

Savay
2018-01-29, 17:56:27
Aber immerhin gibt es jetzt IPS mit Schaltzeiten der VAs mit dem halben nativen Kontrast. Und "HDR".

Um die absolute HDR Eignung des spezifischen Models ging es nicht, sondern nur darum das bei AH-IPS beim statischen Kontrast offensichtlich durchaus noch was rauszuholen ist! :rolleyes:

Die Schaltzeiten sind für den Worst-Case übrigens immernoch doppelt so flott wie beim Samsung SVA QLED und der hat unter HDR ab dem Punkt an dem das Dimming nicht mehr zieht grademal den 1,36 fachen Kontrast! :freak:

Diese AH-IPS Variante mit etwas anderem OD und nem FALD...und ich könnte wahrscheinlich gut damit leben!
Zumal schon der Dell mit der "alten" AH-IPS Variante mit ~40% schlechterem statischen Schwarzwert dank des LD soviel besser als der Samsung mit dem 8 Zonen Dimming da steht. :tongue:

Tesseract
2018-01-29, 17:57:28
Du willst HighFPS Monitore und dir ist die BQ zweitrangig.

hört doch endlich mit diesen stohmännern auf. gerade weil mir gute BQ wichtig ist will ich ein gerät, dass in vielen situationen einen guten kompromiss darstellt. VA ist auf standbildern ohne zweifel sehr gut, das ändert aber nach wie vor nichts daran, dass VA in bewegung einfach massive probleme hat. (IPS und TN auch, aber bei weitem nicht so stark)

akuji13
2018-01-29, 17:57:39
IPS reicht berg ab mit rückenwind gerade so für ~165Hz

90% von denen profitieren schon ab 120Hz kaum/gar nicht in Sachen sichtbarer (nicht messbarer) Bewegtschärfe.

24p
2018-01-29, 18:00:17
im für VA besonders kritischen 0%->20% übergang sehe ich da ungeschönt ~14-18ms. ja, für ein VA ist das sehr schnell, aber effektiv entspricht das trotzdem nur ~60Hz.
ein 80%-helligkeitsveränderungsfenster im graph hin und her zu verschieben bis man die kürzeste zeit gefunden hat funktioniert halt nicht wenn alle paar ms ein neuer refresh kommt. mit 144Hz hätte das panel im 0%->20%-übergang gerade mal ~10% helligkeit erreicht bevor der nächste refresh kommt. sprich: in einer dunklen szene in der sich viele übergange innerhalb des ~0-30% bereichs bewegen schmiert dir das panel die szene zu brei. außerdem haben einige andere übergänge schon sichtbare überschwinger.


konsolen passen sich immer an dem TV an weil der spielesektor in der TV-entwicklung so gut wie nix zu melden hat. genau das ist ja das problem. im monitorbereich gibt es zumindest einen kleinen teilmarkt der sich am gaming ordientiert.

60Hz reichen mir.
Gerade heute läuft es bei den Konsolen aber in die richtige Richtung. TVs pushen HDR und 4K. Ende 2018 wird es die ersten hdmi2.1 TVs mit 4K@120Hz geben. Wenn der Mininghype so weitergeht kann der Mitteklassegamer statt zu einer rx580 für 500€ gleich zur xbox mit etwas der Leistung der rx570 greifen. Und das kommt von mir, einem Spieler, der seit 1993 durchgängig am PC spielt und keine Konsole besitzt. Sad but true.

hört doch endlich mit diesen stohmännern auf. gerade weil mir gute BQ wichtig ist will ich ein gerät, dass in vielen situationen einen guten kompromiss darstellt. VA ist auf standbildern ohne zweifel sehr gut, das ändert aber nach wie vor nichts daran, dass VA in bewegung einfach massive probleme hat. (IPS und TN auch, aber bei weitem nicht so stark)

Abseits von MMO-Zeug imo eher unwichtig. Ich zocke imme rnoch Witcher 3 in 4K und 60p mit meiner 1080ti. Nie würde ich auf WQHD zurückgehen.

PHuV
2018-01-29, 18:04:15
Abseits von MMO-Zeug imo eher unwichtig. Ich zocke imme rnoch Witcher 3 in 4K und 60p mit meiner 1080ti. Nie würde ich auf WQHD zurückgehen.
Was hast Du eigentlich aktuell als Monitor?

Tesseract
2018-01-29, 18:05:58
60Hz reichen mir.

dann komm mir bitte nicht mit BQ. in bewegung zeigt 4k@60Hz oft weniger texturdetails als 144Hz auf 800*600 und nein, das ist kein scherz. ihr könnt nicht einfach die zeitkomponente vollkommen ausblenden und dann mit BQ argumentieren. nur für filme in 24fps + motion blur würde ich VA den anderen paneltypen sofort vorziehen, das ist absolut keine frage, aber das ist nunmal nicht das einzige was ich mit einem monitor mache.

Ich zocke imme rnoch Witcher 3 in 4K und 60p mit meiner 1080ti.
wenn du entsprechende geräte schon direkt nebeneinder verglichen hast und dir 4k dann immer noch lieber ist haben wir wohl sehr verschiedene wahrnehmungen. ich komme mit dem 60Hz-matsch in bewegung einfach überhaupt nicht klar. sobald sich die szene auch nur leicht bewegt bist du sofort unterhalb von WQHD, wenn sich die szene schnell bewegt sieht man außer ein paar farbigen flächen fast überhaupt nix mehr. nein, danke.

24p
2018-01-29, 18:10:31
Ja und? Wenn ich das Bild nicht mit dem Auge verfolge ist das vollkommen egal (da per S+H Blurr im Auge eh unscharf). Ich kenne beides und 4K mit 60Hz ist trotzdem im Schnitt schärfer. Das mag bei hektischen MMO Kram anders sein, aber sowas spiele ich nicht.

Was hast Du eigentlich aktuell als Monitor?

Den LG 27MU67 aus 2016. Sollte ein Übergangsmonitor sein, da mich beim Dell WQHD die Ausleuchtung und das schreck verraffte Overdrive genervt hat. Aber wie das immer so ist, nichts hält länger als ein Provisorium. Wenn ich für 2000€ das Thema Monitor für die nächsten Jahre erledigen könnte...

PHuV
2018-01-29, 18:13:54
Ich schau mir gerade mal die Inputlags gängiger TVs an, das sieht ja noch nicht dolle aus:
https://www.dein-fernseher.de/input-lag-fernseher

24p
2018-01-29, 18:18:53
Vollständig ist die Liste aber nicht. Bei den LG OLEDs gibt es 21ms. Leider auch bei 120Hz Zuspielung, was evtl. so gewollt ist wegen Lipsync.

PHuV
2018-01-29, 18:21:06
Habs gerade gelesen:
https://displaylag.com/best-low-input-lag-tvs-gaming-by-gamers/

Ne, wäre trotzdem aktuell weit von dem entfernt, was ich gerne haben wollte.

aufkrawall
2018-01-29, 18:26:30
sobald sich die szene auch nur leicht bewegt bist du sofort unterhalb von WQHD, wenn sich die szene schnell bewegt sieht man außer ein paar farbigen flächen fast überhaupt nix mehr. nein, danke.
Wenn sich die Szene schnell bewegt, kannst du sowieso nichts außerhalb der Bildmitte erfassen, wenn du wirklich dem Geschehen folgen willst.
Fast niemand außer dir spielt abseits von MP-Shootern mit so durchgängig hohen fps. Häufig erzählen das Leute, die einem auch weismachen wollen, ihr TN hätte allgemein eine brauchbare Bildqualität (da zähl ich dich jetzt aber nicht zu, keine Sorge ;) ). Wenn ich so was höre, kann ich nur innerlich facepalmen.

Ex3cut3r
2018-01-29, 18:41:36
Ist mal wieder herrlich, der Glaubenskrieg, jeder der ein TN/IPS/VA zuhause hat, sagt komischerweise gleich die ganzen Nachteile des gegenüberstehendes Panel Typs auswendig auf. :freak:

Wieso lässt ihr 24p nicht einfach leben? Was soll dieses ständige runtermachen des "anderen" Wenn er sein 60Z IPS/VA Panel mag, dann soll er damit doch seinen Spaß machen.

xiao didi *
2018-01-29, 18:42:18
Wenn sich die Szene schnell bewegt, kannst du sowieso nichts außerhalb der Bildmitte erfassen, wenn du wirklich dem Geschehen folgen willst.
Bei 60 Hz an Hold-Type Bildschirmen braucht es aber keine schnellen Bewegungen, damit es matschig wird. Da reicht auch ein langsamer, gleichmäßiger Kameraschwenk.
(Auch ein schönes Beispiel: Homescreen geswipe auf Smartphones: da ist gar nix scharf.)
Ich persönlich habe mich daran einigermaßen gewöhnt, zumal die CRT Zeit schon ewig her ist. Bei spielen wie D3 oder auch Path of Exile, wo sich durch die Kameraposition praktisch der komplette Bildinhalt konstant bewegt, fällt es aber dennoch enorm auf. Sowas will ich nicht unterhalb von 120 Hz spielen, und selbst das ist nicht optimal.

Wenn jemand Bewegungsschärfe gegen Standbildschärfe eintauscht, kann ich den Kompromiss schon nachvollziehen. Beides geht im Moment ja leider nicht.

aufkrawall
2018-01-29, 18:46:25
Nur 60Hz sind ein No-Go, keine Frage.

xiao didi *
2018-01-29, 18:50:04
Mehr möchte Tesseract glaube ich auch nicht ausdrücken: Lieber WQHD@120Hz (oder mehr) als UHD@60Hz.

24p
2018-01-29, 18:52:22
Für mich halt nicht.

PHuV
2018-01-29, 18:53:35
Wieso lässt ihr 24p nicht einfach leben? Was soll dieses ständige runtermachen des "anderen" Wenn er sein 60Z IPS/VA Panel mag, dann soll er damit doch seinen Spaß machen.
Es geht nicht darum, jemanden runterzumachen. Ich habe alle Panel-Typen zu Hause, und nutze jedes für seinen Zweck, und ich verteidige nichts einfach nur, weil ich es habe. Mir war nur nicht klar, warum 24p VA so verteidigt, obwohl der Markt für schnelle Displays VAs wenig einsetzt. In allen Reviews lese ich immer IPS vor VAs, ebenso TN als schnellste Lösung. Aktuelles Beispiel, wo ein VA-Panel für Gaming nicht gerade gut abschneidet:

Prad - Test Monitor ASUS ROG STRIX XG35VQ (https://www.prad.de/testberichte/test-monitor-asus-rog-strix-xg35vq#Einleitung)

Das VA besseren Kontrast liefert war mir ja klar, aber sonst wäre ich jetzt nicht so der VA-Verfechter wie 24p und andere hier.

Kartenlehrling
2018-01-29, 19:00:11
Ist denn nun ein Preis für den 22inch OLED bekannt,
eine Preisspanne von 999€-4000€ ist ja nicht gerade genau?!!

Ich habe nochmal bei Youtube gesucht, im AVS-Forum wird kein Preis genannt aber erst Q3/2018 wird es ausgeliefert. (https://www.youtube.com/watch?v=HCWBab2XZgI)
Da hätten sie auch gleich bis zur CES 2019 warten können mit der Vorführung. ;(

24p
2018-01-29, 19:04:31
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/Samsung-Dreamhack-Leipzig-Meltdown-Spectre-HDR-980-Evo-1248999/

Mal schauen. Evtl gibt es ja einen Konterpart zum local dimming Asus mit 384 Zonen und 4K.

PHuV
2018-01-29, 20:06:42
1 ms mit Overdrive. Mit Ghosting oder ohne? Hat jemand einen aktuellen Samsung hier?

24p
2018-01-29, 20:10:59
Ohne ghosting bestimmt nicht, aber offenbar sind die nochmal besser als die bisherigen.

DanMan
2018-01-29, 20:24:23
*hustKindergartenhust*

Hat sich jemand mal das Bild auf einem gebogenen VA Monitor angeschaut? Würde mich interessieren, ob die Biegung gegen die extreme Blickwinkelabhängigkeit etwas bringt, oder sie nur noch schlimmer macht.

akuji13
2018-01-29, 20:36:54
Ich empfand die Blickwinkel noch nie als Problem.

Curved hilft mMn aber etwas.

1 ms mit Overdrive. Mit Ghosting oder ohne? Hat jemand einen aktuellen Samsung hier?

Ghosting ist immer noch da.
Die Bewegtschärfe steigt aber sichtbar.

y33H@
2018-01-29, 21:06:23
1 ms mit Overdrive. Mit Ghosting oder ohne? Hat jemand einen aktuellen Samsung hier?Ich hab den Samsung C27HG70 gekauft, bin noch am Tüfteln.

Cubitus
2018-01-29, 22:18:28
*hustKindergartenhust*

Hat sich jemand mal das Bild auf einem gebogenen VA Monitor angeschaut? Würde mich interessieren, ob die Biegung gegen die extreme Blickwinkelabhängigkeit etwas bringt, oder sie nur noch schlimmer macht.

Kommt drauf an wie du davor sitzt. Der Monitor sollte exakt ausgerichtet sein.
Wenn du den guten Winkel hast, wird das gebogene Bild etwas flacher und du siehst wirklich mehr ohne dich großartig mit dem Kopf bewegen zu müssen.

Sitzt du aber schief, hast du einen leichten Trapez-Effekt was etwas seltsam wirkt.
Bzw. ich finde die Reaktionszeiten bei dem Samsung VA eigl i.o bis auf die Latenz steht der Monitor keinem IPS nach.


@Panel Diskussion
Und das Spielgefühl auf meinem Samsung VA ist wesentlich besser als auf meinem alten LG IPS Panel..
Aber wie kann das denn sein? Wenn doch die Latenz so hoch ist? Oder ist diese im Endeffekt gar nicht mehr so entscheidend..

Hier mal zum Vergleich

60hz beim IPS mit schnellem Overdrive
https://www.prad.de/wp-content/uploads/2014/0630/lg-34um95-p-monitor-schaltzeiten-schnell.jpg

100hz beim VA mit schnellem Overdrive
https://www.prad.de/wp-content/uploads/2017/0816/samsung-c34f791wqu-monitor-100Hz_schaltzeiten_schnellstens.jpg

Klar VA hat eine höhere Latenz dafür aber auch 100hz, und allg bessere Schaltzeiten, aber was bedeutet denn das genau?
Und wie wirkt sich das aus?

Input Lag, incoming?
Ist es nicht auch so das durch diverse anderen Mechanismen dem entgegen gewirkt wird, sei es im DPI Treiber/Einstellungen der Maus, der Engine des Spiels, Grafiktreiber oder dem OS selbst.
Sodass die Messungen bzgl Latenz, welche wohl noch aus der CRT-Ära stammen, gar nicht mehr wirklich repräsentativ sind?

Tobalt
2018-01-29, 23:02:12
input lag messungen haben nichts mit crt zu tun. die zeit zwischen input und display ist absolut. was kann da oder nicht repräsentativ sein ?

wieso haben VA scheinbar selbstverständlich eine höhere latenz ?

Cubitus
2018-01-29, 23:42:57
input lag messungen haben nichts mit crt zu tun. die zeit zwischen input und display ist absolut. was kann da oder nicht repräsentativ sein ?


Die Tests bauen darauf auf, das man Siganle durch ein Messgerät laufen lässt und einen CRT mitunter als Referenz nimmt.

Natürlich kann man den Lag messen, aber ich meine das die reine Messung eventuell nichts über das Feeling aussagt was man letzten Endes bekommt.
Vermutlich ist es wohl auch am besten, wenn sich jeder selbst mehrere Monitore zum testen herholt und diese dann für sein jeweiliges Einsatzgebiet testet.

wieso haben VA scheinbar selbstverständlich eine höhere latenz ?

Ich verstehe den Begriff Latenz bei der Grafik nicht wirklich im Zusammenhang, kann auch gut sein das damit die komplette Bildaufbauzeit gemeint wird, und nicht explizit der Display lag. :uponder:

Edit: doch hab was gefunden:
Die Latenz ist ein wichtiger Wert für Spieler, wir ermitteln sie als Summe der Signalverzögerungszeit und der halben mittleren Bildwechselzeit.

Die halbe mittlere Bildwechselzeit ist beim Samsung C34F791WQU zwar mit 4,1 ms wirklich sehr gut, wird aber durch die ausgeprägte Signalverzögerung von 31,8 ms wieder zunichte gemacht. Insgesamt ergibt das wenig begeisternde 35,9 ms.

Der Wert ist wohl eine Mischung aus Beidem.. Der Bildwechsel läuft tatsächlich schnell ab.
Aber wie kommt jetzt die Signalverzögerung zustande? Und kann man das überhaupt je nach Spiel (Engine) und eingesetzter Hardware (Graka, Kabel, Anschlussart) und jeweilige Treiber repräsentativ messen?

Demolition_Man
2018-01-30, 01:13:43
Die Signalverzögerung ist die Latenz, die in der Elektronik des Monitors ensteht. Bei TVs verursachen die Videoprozessoren, welche das eingehende Signal bearbeiten, z.B. diese Latenz.

Im übrigen finde ich die beiden 144 Hz 27 Zoll VA Monitore von Samsung (FHD & WQHD) mit 1ms Reaktionszeit und BFI als sehr interessant. Ich frage mich warum die Geräte hier im Forum so wenig Beachtung finden. Nachdem ich von TN auf VA umgestiegen bin will ich nicht mehr zurück und ich spiele sehr ausgiebig Multiplayershooter.

PHuV
2018-01-30, 01:17:39
Ghosting ist immer noch da.
Die Bewegtschärfe steigt aber sichtbar.
Du hattest den schon? :tongue: Hast Du eigentlich eine AMD oder Nvidia? Mit Freesync bringen die Montore bei Nvidia doch nichts. :confused:

akuji13
2018-01-30, 07:55:42
Und das Spielgefühl auf meinem Samsung VA ist wesentlich besser als auf meinem alten LG IPS Panel..

Wenn du ein 60Hz mit einem 100Hz vergleichst auch kein Wunder. :tongue:

Du hattest den schon? :tongue: Hast Du eigentlich eine AMD oder Nvidia? Mit Freesync bringen die Montore bei Nvidia doch nichts. :confused:

Vor dem C27HG70 habe ich eine Zeit lang gesessen (beim Händler), den C32HG70 hatte ich auch hier.

Ich habe einen Rechner mit einer 1080Ti und einen mit einer Vega 64 LC.

Kartenlehrling
2018-01-30, 09:45:56
Seltsam, dachte der LG wär mit 10bit und HDR.
Das G-sync Modell kommt auf jedenfall mit 16.7 Mio. Farben und Reaktionszeit: 5ms.
Auch das die DP1.2 und HDMI1.4 sind zeigt das noch das alte G-sync Modul verbaut wurde.


https://www.computeruniverse.net/products/90716643/lg-32gk850g-b.asp
LG 32GK850G-B G-Sync Gaming Monitor 849,- €

akuji13
2018-01-30, 11:45:20
Ist doch vermutlich das übliche 32" VA panel wie z. B. im AOC nur hier eben mit G-Sync kombiniert.

PHuV
2018-01-30, 17:07:35
Nachdem ich sehe, daß beim PG279Q bei 144 Hz keinerlei Ghosting zu sehen ist, und ich von Amazon und akuji13 lese, daß beim 34UC89G-B und Samsungs nach wie vor Ghosting zu sehen ist, würde ich mir aktuell fürs Spielen kein VA antun. Bei TV, Video und normaler Monitorarbeit ist das ok, aber dann brauchen ich dafür auch keine 144 Hz.

Mal eine andere Frage: Wenn ich beim PG279Q mit 144 Hz normal auf den Desktop schaue, kommen mir die Schriften irgendwie etwas unscharf und seltsam vor? Normaler Effekt oder Einbildung? Ich habe das Teil bisher gar nicht mit 60 Hz betrieben. :tongue:

akuji13
2018-01-30, 17:30:31
Nachdem ich sehe, daß beim PG279Q bei 144 Hz keinerlei Ghosting zu sehen ist, und ich von Amazon und akuji13 lese, daß beim 34UC89G-B und Samsungs nach wie vor Ghosting zu sehen ist, würde ich mir aktuell fürs Spielen kein VA antun. Bei TV, Video und normaler Monitorarbeit ist das ok, aber dann brauchen ich dafür auch keine 144 Hz.

Für den Vergleich von 27" IPS vs. 32"/34" VA kriegst du erstmal virtuell einen Tritt vors Schienbein. :D

Wie groß die Unterschiede zwischen z. B. 27" und 34" sind hast du doch selbst erleben dürfen. :wink:
Der PG279Q hat ordentliche Schwarzwerte und kaum bis kein bleeding, die 34" IPS sind da allesamt gruselig was auch den erlebten Schwarzwert gleich richtig abstürzen lässt.
Den 89G kenne ich nicht, habe aber auch gelesen das er langsamer sein soll als andere IPS Geräte, dafür typisch LG, nicht so arg in Sachen bleeding betroffen.

Zum ghosting: Stell dir mal einen 27" Acer Predator XB271HUbmiprz hin...der hat auch ghosting, vor allem im schlecht abgestimmten ULMB Betrieb.
Bei IPS ist also auch nicht alles grundsätzlich schön was das betrifft.

Man muss halt wissen was man will.
Ich finde bleeding und glow furchtbar und lebe lieber mit den VA Nachteilen.
Ein 27" kommt mir grundsätzlich nicht mehr ins Haus für den Eigenbedarf...viel zu klein, falsches Format.
Die 34/38" IPS glühen mich direkt in die Hölle...also bleibt gar nichts mehr übrig außer VA für mich.

Tesseract
2018-01-30, 17:33:54
Mal eine andere Frage: Wenn ich beim PG279Q mit 144 Hz normal auf den Desktop schaue, kommen mir die Schriften irgendwie etwas unscharf und seltsam vor?

hatte dein alter vielleicht einen schärfefilter an? :D

sieht bei mir so aus:

Cubitus
2018-01-30, 17:48:10
Wenn du ein 60Hz mit einem 100Hz vergleichst auch kein Wunder. :tongue:



Ja sorry :freak:

Apropo 100hz und schnellstem Overdrive sehe ich jetzt bei dem VA Panel nicht unbedingt das krasse Ghosting.. Das hält sich definitiv in Grenzen.

denke mal die Seite ist ja gut bekannt:
https://www.blurbusters.com/


Die Signalverzögerung ist die Latenz, die in der Elektronik des Monitors ensteht.
Bei TVs verursachen die Videoprozessoren, welche das eingehende Signal bearbeiten, z.B. diese Latenz.

Im übrigen finde ich die beiden 144 Hz 27 Zoll VA Monitore von Samsung (FHD & WQHD) mit 1ms Reaktionszeit und BFI als sehr interessant. Ich frage mich warum die Geräte hier im Forum so wenig Beachtung finden. Nachdem ich von TN auf VA umgestiegen bin will ich nicht mehr zurück und ich spiele sehr ausgiebig Multiplayershooter.

Ich zocke mit dem 34er auch BF1, geht super:).
Und bei Rang ~93 und 3 Klassen auf 50 treffe ich auch ab und zu mal was.
Denke mal die 144hz sind nochmal nen Tacken smoother.

Aber mich wundert wie gesagt die hohe Latenz, das fühlt sich überhaupt nicht nach Mouslag oder jeglicher Eingabeverzögerung an.
Und ich besaß schon Monitore mit üblen Mouselags.

Iwas passt an diesen "kontrollierten Messungen" der Latenz nicht :uponder:

Savay
2018-01-30, 17:53:04
hatte dein alter vielleicht einen schärfefilter an? :D

Vlt ist auch Cleartype einfach noch auf nen falsches Subpixellayout eingestellt??!

PHuV
2018-01-30, 18:17:53
Das kann durchaus sein, weil ich ja immer noch den Philips mit dranhabe, wenn ich groß spielen will, und nicht online.

Deathcrush
2018-01-30, 18:54:03
https://www.computeruniverse.net/products/90716643/lg-32gk850g-b.asp
LG 32GK850G-B G-Sync Gaming Monitor 849,- €


Hui, ich muss mich gerade echt zusammenreissen ^^ Gibt es schon Testberichte? Ich warte ja eigentlich immer noch auf den hier https://www.alternate.de/Acer/Predator-Z321QU-LED-Monitor/html/product/1359118?event=search aber so langsam gribbelt es in den Fingern :)

Kartenlehrling
2018-01-30, 19:07:28
Willst du nicht lieber die 21:9 version nehmen LG-34GK950G, die hat G-sync+DisplayHDR600+100Hz/120Hz+3440x1.440+VA+1ms+21:9+curve


http://www.4gamer.net/games/999/G999902/20180116091/SS/003.jpg

Deathcrush
2018-01-30, 19:11:17
Ne, die Auflösung ist mir zu hoch.

Kartenlehrling
2018-01-30, 19:18:19
Du kann doch auf einen 3440x1440 in 2560x1440 spielen?
So mach ich das auf meinen 2560x1440 ich spiele dann in 21:9 also 2560x1080,
du würdes es halt anderrum machen in 16:9.

Deathcrush
2018-01-30, 19:28:01
Mit schwarzem Rand? Ney, das ist nicht so mein Ding ;)

Tobalt
2018-01-30, 20:14:04
Cubitus:

ok falls natürlich tw. latenz noch im Vergleich mit CRT gemessen wird wusste ich nicht. moderne verfahren lösen ja selbst das Displaysignal aus (ohne Pc) umd messen doe zeit bis zum Display.

das zweite sollte keine frage danach sein, was Latenz in der Grafik bedeutet..sondern ich wollte vielmehr nachfragen wieso du es "klar" nennst dass VA höhere input lags haben. meines Erachtens nach hängt der input lag nicht vom Display typ ab. oder doch ?

Kartenlehrling
2018-01-30, 20:48:57
https://www.asus.com/us/Monitors/ROG-SWIFT-PG35VQ/overview/
ROG Swift PG35VQ Gaming Monitor - 35 inch, Ultra-WQHD, HDR, 21:9 Curved, 200Hz, G-SYNC™

35inch Monitor mit 512 LED Zone ist schon fett, die 65inch 2016/17 direkt-LED TV hatten meinst nur 150-350 LED-zonen.

akuji13
2018-01-30, 21:05:56
Apropo 100hz und schnellstem Overdrive sehe ich jetzt bei dem VA Panel nicht unbedingt das krasse Ghosting.. Das hält sich definitiv in Grenzen.

Je nachdem was genau dargestellt wird (Farben & Kontrast) sieht das schon übel aus.

https://abload.de/thumb/dsc04118c8rvo.jpg (http://abload.de/image.php?img=dsc04118c8rvo.jpg)

Deathcrush
2018-01-30, 22:20:25
So schlimm ist es bei meinem VA aber nicht.

BlacKi
2018-01-30, 23:03:17
https://www.asus.com/us/Monitors/ROG-SWIFT-PG35VQ/overview/
ROG Swift PG35VQ Gaming Monitor - 35 inch, Ultra-WQHD, HDR, 21:9 Curved, 200Hz, G-SYNC™
auf den oder den acer warte ich leider. beide werden wohl den doppelten preis hängen haben als den jetzt verfügbaren 32 zoller.

der 32 zoll wäre ja nur provisorisch:freak::freak::freak:

Cubitus
2018-01-30, 23:29:08
https://www.asus.com/us/Monitors/ROG-SWIFT-PG35VQ/overview/
ROG Swift PG35VQ Gaming Monitor - 35 inch, Ultra-WQHD, HDR, 21:9 Curved, 200Hz, G-SYNC™

35inch Monitor mit 512 LED Zone ist schon fett, die 65inch 2016/17 direkt-LED TV hatten meinst nur 150-350 LED-zonen.

Hmm ein fetter Moni, aber wird bestimmt hard teuer. Wohl neustes Samsung VA Panel.

Asus bekommt wohl mit IPS nix geschissen.. Also nicht IPS ist Schrott sondern die Hersteller kommen mit der Bauweise nicht klar (Bleed etc.)
Warum also nicht VA, die Marktforscher von Asus und Co wissen ganz genau was in den Foren und Communitys abgeht.

Anfang 2014 war UltraWide im Business Bereich anzusiedeln, bis ein paar Verrückte auf die Idee kamen mit solchen Teilen auch zu zocken ^^

ATM erlebt VA eine Renaissance :freak:

Cubitus:

ok falls natürlich tw. latenz noch im Vergleich mit CRT gemessen wird wusste ich nicht. moderne verfahren lösen ja selbst das Displaysignal aus (ohne Pc) umd messen doe zeit bis zum Display.
das zweite sollte keine frage danach sein, was Latenz in der Grafik bedeutet..sondern ich wollte vielmehr nachfragen wieso du es "klar" nennst dass VA höhere input lags haben. meines Erachtens nach hängt der input lag nicht vom Display typ ab. oder doch ?

Naja ist wohl technisch bedingt so, das VA Panels träger sind. Aber Die Reaktion wie schnell sich ein Kristall dreht oder wie lange der TFT braucht um ein Signal zu verarbeiten sind definitiv zwei verschiedene paar Schuhe.
Aber ich bin auch der Meinung das der Lag von anderen Faktoren mitunter beeinflusst wird.

Je nachdem was genau dargestellt wird (Farben & Kontrast) sieht das schon übel aus.

https://abload.de/thumb/dsc04118c8rvo.jpg (http://abload.de/image.php?img=dsc04118c8rvo.jpg)

Ist schon ein extremes Beispiel, also so hab ich das hier im Einsatz auch nicht erlebt. Aber Ghosting gegenüber TN ist definitiv vorhanden.

Kartenlehrling
2018-01-30, 23:36:20
Laut TFTcentral.uk ist es ein AUO.

AUO AHVA M270QAN02.2 3840x2160 14ms G2G 1000:1 600 - 1000 178/178 1.07b DCIP3>=95% LED 144Hz HDR 384 areas Jul-17

AUO AMVA ? 3440x1440 172/178 DCI-P3 95% 200Hz 21:9 curved HDR 512 zone Q2 2018


AMVA (Advanced Multi-domain Vertical Alignment) ist eine von der AU Optronics Corperation (AUO) weiterentwickelte MVA-Variante.
Die Weiterentwicklung der MVA-Technologie bietet laut Hersteller AUO nicht verwaschene Farben,
noch höhere Kontrastwerte (5000:1) und einen S-PVA-typischen Blickwinkel von 178° in der Vertikalen und Horizontalen.

High-End Gaming Monitor Panels for Lightning-Fast, Immersive Gaming Experience
AUO has devoted to the development of gaming displays for many years, and continues to lead the industry by offering bezel-less professional grade gaming monitor panels with even faster response time and higher image quality.
To provide gamers with the optimal gaming experience, AUO has partnered with NVIDIA, a global leader in visual computing, to develop the NVIDIA G-SYNC™ HDR technology.
By applying the advanced HDR technology, more contrast in games with dark scenes can be accentuated, along with more clarity and richer details against both bright and dark backgrounds.
In addition, quantum dot wide color gamut technology has been adopted to achieve the best color performance possible, making gaming experience all the more realistic.
AUO is the world’s first(*) to present 27-inch gaming monitor panel combining 144Hz refresh rate and UHD 4K ultra high resolution,
applying advanced HDR technology and Adobe RGB 99% high color saturation.
AUO’s 35-inch WQHD (3440 x 1440) gaming monitor panel possesses refresh rate as high as 200Hz and advanced HDR technology,
and sports a curved design with 21:9 ultra wide aspect ratio to deliver an immersive, lightning-fast gaming experience.



In terms of professional monitor displays, AUO presents 32-inch UHD 4K HDR monitor panel capable of supporting the HDR10 standard and
professional grade Adobe RGB 99% high color saturation, meeting demanding requirements of video and graphic professionals for image colors and details.
https://www.auo.com/en-global/New_Archive/detail/News_Archive_Technology_170919

Cubitus
2018-01-30, 23:41:40
Laut TFTcentral.uk ist es ein AUO.

Okay, AUO.. Hatten die nicht mal so krasse Qualitätsschwankungen bei IPS?

akuji13
2018-01-31, 06:31:53
Ja genau die sind das.

So schlimm ist es bei meinem VA aber nicht.

Welchen hast du?

Ist schon ein extremes Beispiel, also so hab ich das hier im Einsatz auch nicht erlebt. Aber Ghosting gegenüber TN ist definitiv vorhanden.

Kannst du aber erleben denn das wurde auf solch einem Gerät gemacht das auch bei dir steht. :D

Ist allerdings wirklich ein extrem Beispiel und fällt meistens viel weniger auf.
Doof nur wenn man ein Spiel bzw. level hat wo solche Kontraste/Farben überwiegen.
Es gibt und gab schon immer Stellen die besonders kritisch waren, damals bezeichnete ich GTA III als "TFT-killer" wegen der nächtlichen Lichteffekte.

Das gezeigte stört mich persönlich zwar ist aber kein Ausschlusskriterium.

Warum also nicht VA, die Marktforscher von Asus und Co wissen ganz genau was in den Foren und Communitys abgeht.

Richtig.
Die ganzen 35" VA aus letztem Jahr sind bestimmt nicht zufällig erschienen.

robbitop
2018-01-31, 09:16:24
Habe gestern meinen Acer 32" 60 Hz 4K G-Sync Monitor abgebaut und gegen meinen Acer 27" AHVA/IPS 1440p 144Hz G-Sync getauscht. Ah tut das gut. :) Endlich wieder mehr Bewegtschärfe, geringerer Inputlag und "smoothness". Merke ich sofort. Nie wieder 60 Hz.
War im Direktvergleich wirklich wichtiger als die höhere Auflösung.

Und ich merke dass 32" mir einfach zu groß waren. Gerade von der Höhe bei normalem Sitzabstand (ca 1 m). Endlich wieder die volle Übersicht und nicht ständig mit den Augen über das Bild wandern. Man hat das HUD und einfach alles im Blick. 27" finde ich persönlich einfach optimal. 34" 21:9 sind sicher auch gut. Aber die gecurvten leiden alle an ziemlich schlechter Helligkeitsverteilung. Ohne Curve wandert mMn zu viel Bildschirminhalt im peripheren Blickwinkel -> Verlust der Übersicht.

Auch ist ein Multimonitor Setup mit einem 21:9 grenzwertig: 1.) ist das zu breit für meinen Doppelmonitorarm (VESA-Tischmount) und 2.) für den Schreibtisch fast grenzwertig und 3.) muss man dann sehr stark den Kopf drehen.

Irgendwie habe ich (zurück zu den Wurzeln) mit 27" und hoher Framerate für mich das Optimum gefunden.
Auch packt die 1080ti nun häufig dreistellige Frameraten. :)

Der 4790K macht dank 8 Threads, 4,6 GHz und schnellem Speicher (DDR3-2400 mit optimierten Timings/subtimings -> 42 ns Zugriffszeit -> brachte 20% mehr Leistung in GTA5 ggü DDR3-1600!!) auch noch genug Leistung für saubere Frametimes und hohe Bildraten in 1440p. Praktisch kein CPU Limit. :)

24p
2018-01-31, 09:21:26
So unterschiedlich können die Meinungen sein. Für mich ist das wandern des Auges über das Bild und die Tatsache, dass sich auch Dinge im peripheren Sichtfeld abspielen wichtig für die Immersion. Dazu kommt, dass das Wandern der Pupillen ergonomisch empfehlenswert ist.

robbitop
2018-01-31, 09:24:38
Beim Spielen aber hinderlich, wenn es um schnelle Reaktionen und präzises Handeln geht. :)

Gibt ja auch Leute, die an einem 40" Monitor aus gleichem Abstand spielen. Ich hatte mal einen 37" TV als Spielemonitor. Im ersten Moment immersiv und groß. Aber richtig gut spielen konnte ich damit nicht mehr.

24p
2018-01-31, 09:28:34
Ich spiele nur SP und da ist mir der Unterhaltungsaspekt viel wichtiger als irgendwelche Stats. Wenn es danach geht kann ich mir auch gleich einen 24" TN mit 200Hz hinstellen und sämtliche Details auf Low drehen und das Gamma verkurbeln (Damit man in jeder dunklen Ecke alles sieht) - das ist auch übersichtlicher. Mache ich aber nicht, sondern ich spiele W3 in 4K. Weil es geil aussieht.

robbitop
2018-01-31, 09:31:59
W3 sieht in 1440p auf einem IPS auch sehr gut aus. Dafür auch noch mit sehr hoher Bewegtschärfe und nicht so ein Blur, wenn man die Kamera bewegt. ;)

24p
2018-01-31, 09:34:39
Wenn ich nicht gerade mit dem Auge die Objekte verfolge merke ich vom Blur nichts (da unser Auge selbst blurrt). Und W3 ist kein ADS Shooter, bei dem man wild mit der Kamera hin und herwackelt. Man läuft 10 Sekunden geradeaus, da gibt es kaum Bewegungen die blurren. Dann dreht man sich mal für eine Sekunde. => Die meisten Zeit steht das Bild oder bewegt sich sehr langsam (in die Tiefe).

robbitop
2018-01-31, 09:37:37
Es gibt neben W3 auch andere - schnellere SP Titel. ;)
Falls die native Auflösung nicht reicht, kann man auch downsamplen. Gestern GTA5 in 5K@1440p getestet. Rennt immerhin mit ~55fps (2000/6000 MHz 1080ti). Sieht extrem sauber aus. Dennoch ist die höhe Bewegtschärfe in 1440p mit >100 fps zum Spielen besser gewesen. Smoother. Man trifft viel besser etc.
Gerade bei Spielen mit Shooterelementen extrem nett. :)

Ansonsten fällt mir die höhere Bewegtschärfe blind in so ziemlich allen Spielen sofort auf. Ob in W3 hab ich noch nicht getestet. Gibt ja noch viele andere Spiele. ;)

24p
2018-01-31, 09:39:49
Ich spiele seit ca 5 Jahren keine Shooter mehr. Das hat sich seit meiner BF1942, COD, MOHAA-Zeit einfach ausgelutscht.

Ben Carter
2018-01-31, 11:02:36
Ich ziehe 4k und 60 Hz einem 1440p und 120+ Hz auch vor. Es kommt halt sehr darauf an, was man spielt und bei dem, was und wie ich spiele kommt eine höhere Auflösung deutlich mehr zu tragen als eine höhere zeitliche Auflösung. Eine höhere Bildwiederholfrequenz würde ich natürlich dennoch mitnehmen, wenn es sie geben würde ohne andere Einschränkungen zu machen. :)

Bezüglich Input Lag: es gab mal einen Artikel eines Entwicklers von ABP:R, bei dem das Thema auch angeschnitten wurde (da ging es aber darum, dass Anfangs das Fahren mit Autos serverseitig ablief). Jedenfalls wurde dort genannt, wie groß die Toleranz bei einem üblichen Menschen ist und die war für mich erstaunlich hoch. Darum dürften auch viele Input Lag nicht so bemerken. Ich suche mal weiter, ob ich den Artikel noch finde.

lg Ben

EDIT: gefunden:

Human reaction time (or as it's called Mental Chronometry (https://en.wikipedia.org/wiki/Mental_chronometry)) is around 160ms, so processing everything at 33ms on the server, plus the packet roundtrip time (ideally less than 40-80ms) for a total of about sub 120ms of processing delay, should give us sufficient headroom to provide a good player experience.
http://apbreloaded.gamersfirst.com/2013/02/optimization-magic.html

24p
2018-01-31, 11:17:33
Mit den neuen Geräten sollte Ja beides möglich sein. Bei einem 4K Monitor mit 144Hz kann ich dann selbst entscheiden, was ich gerade will.

akuji13
2018-01-31, 11:21:17
Ich spiele seit ca 5 Jahren keine Shooter mehr. Das hat sich seit meiner BF1942, COD, MOHAA-Zeit einfach ausgelutscht.

Ich spiele die zumindest offline noch welche.
Also BF1, Borderlands, Doom usw.

Und die konnte ich sogar auf dem relativ langsamen 40" Philips problemlos spielen.
Das mehr Hz besser sind sehe ich aber auch so, unabhängig von der Reaktionszeit des panels.
Hohe Hz sorgen für eine gewisse Fluffigkeit trotz blur, schon 100 bewirken Wunder, selbst 75 sind spürbar angenehmer.

Der Philips mit 100Hz (oder mehr) inkl. FS/GS und ich wäre glücklich. :)

24p
2018-01-31, 11:29:38
Ich habe ja letztes Jahr immer mal wieder nach Kaufkandidaten geschaut. Jetzt habe ich aber beschlossen vor der Veröffentlichung der DP1.4 Geräte gar nichts mehr zu machen und mir die echten neuen Geräte mit HDR10, LD, 144Hz plus 4K anzuschauen. Solange man da nicht weiß, was kommt ist gerade jetzt der Zeitpunkt zum Kaufen eher schlecht. Zu viel Bewegung im Markt in den nächsten Wochen.

robbitop
2018-01-31, 11:55:06
Mit den neuen Geräten sollte Ja beides möglich sein. Bei einem 4K Monitor mit 144Hz kann ich dann selbst entscheiden, was ich gerade will.
Allerdings zu horrenden Preisen (~2000 €) und man braucht fast 2x GPU Leistung. GA102 sollte da dann aber helfen können. (wobei dieser bei einem 1440p Display auch anständige Frameraten für 2x2 DS liefern sollte)

24p
2018-01-31, 12:03:48
Bei einem solchen Monitor kann man dann aber zwischen 1440p@144Hz und 4K@60Hz wählen und hält sich alles offen. Ähnlich wie bei meinem OLED, der kann neben 4K60 immerhin FHD mit 120Hz.
Aber ja, 2000€ ist lächerlich für ein 27" Monitor. Da wäre ich dann extrem picky. Späße wie eine Ausleuchtung von -20% am Rand, Pixelfehler oder Bleeding gehen dann halt gar nicht. Irgendetwas sagt mir jedoch, dass diese Monitore weiterhin teure Featuremonster mit der Verarbeitungsqualität eines 200€ Geräts zum Preis eines Prosumergeräts sind. ;(

Rancor
2018-01-31, 12:29:59
Also ich kann auch nie wieder zu einem 60Hz Monitor greifen. Das ist einfach ekelhaft. Alleine schon auf dem Desktop, von Spielen will ich gar nicht erst reden. Ein Unterschied wie Tag und Nacht.

Imho ist 144Hz und 1440p atm das Optimum , bis es Grafikkarten gibt, die das in 4K schaffen. Dann ist beides natürlich der Hammer. Achja Adaptive Sync ist auch ein Muss. Egal ob GSync oder Freesync

robbitop
2018-01-31, 13:09:20
Bei einem solchen Monitor kann man dann aber zwischen 1440p@144Hz und 4K@60Hz wählen und hält sich alles offen. Ähnlich wie bei meinem OLED, der kann neben 4K60 immerhin FHD mit 120Hz.
Aber ja, 2000€ ist lächerlich für ein 27" Monitor. Da wäre ich dann extrem picky. Späße wie eine Ausleuchtung von -20% am Rand, Pixelfehler oder Bleeding gehen dann halt gar nicht. Irgendetwas sagt mir jedoch, dass diese Monitore weiterhin teure Featuremonster mit der Verarbeitungsqualität eines 200€ Geräts zum Preis eines Prosumergeräts sind. ;(
Nicht native Auflösung fahren? Käme bei mir nicht in die Tüte. Das ist garantiert unschärfer als natives 1440p.

Also ich kann auch nie wieder zu einem 60Hz Monitor greifen. Das ist einfach ekelhaft. Alleine schon auf dem Desktop, von Spielen will ich gar nicht erst reden. Ein Unterschied wie Tag und Nacht.

Imho ist 144Hz und 1440p atm das Optimum , bis es Grafikkarten gibt, die das in 4K schaffen. Dann ist beides natürlich der Hammer. Achja Adaptive Sync ist auch ein Muss. Egal ob GSync oder Freesync

Muss man halt gesehen haben. Ich glaube, dass einige noch nicht selbst im Alltag mal ein 144 Hz Gerät hatten. IMO ein gewaltiger Unterschied.

Mein Bruder hatte mich mal besucht und an meinem PC gespielt und ich hatte ihm nichts vom 144 Hz Display gesagt. Er fragte nach wenigen Minuten, warum das so extrem smooth und scharf in Bewegung ist und es sich in Overwatch so extrem genau spielt. Nach meiner Antwort hat er sich sofort ein 144Hz Gerät gekauft. Blind und ohne Vorwarnung erkannt.

Tesseract
2018-01-31, 13:32:52
Nicht native Auflösung fahren? Käme bei mir nicht in die Tüte. Das ist garantiert unschärfer als natives 1440p.
so schlimm ist das garnicht bei 4k->1440p, zumindest nicht in den typischen AAA-3D-szenen mit viel post processing. native ist natürlich trotzdem besser.

Er fragte nach wenigen Minuten, warum das so extrem smooth und scharf in Bewegung ist und es sich in Overwatch so extrem genau spielt. Nach meiner Antwort hat er sich sofort ein 144Hz Gerät gekauft. Blind und ohne Vorwarnung erkannt.
im RL ist mir noch nie jemand begegnet dem das nicht aufgefallen ist, selbst die non-gamer sehen das. die leute, die angeblich nicht mehr als 60Hz sehen kenne ich nur aus dem internet.

Savay
2018-01-31, 13:37:11
Nicht native Auflösung fahren? Käme bei mir nicht in die Tüte. Das ist garantiert unschärfer als natives 1440p.


Hängt davon ab wie skaliert wird!

Vor allem Spiele mit internem Up/Downsampling funktionieren hervorragend...wenn die GPU skaliert geht es idR auch sehr gut.
Die Scaler im Monitor sind verglichen damit leider meistens nur äußerst suboptimal umgesetzt!

im RL ist mir noch nie jemand begegnet dem das nicht aufgefallen ist, selbst die non-gamer sehen das. die leute, die angeblich nicht mehr als 60Hz sehen kenne ich nur aus dem internet.

Ach das ist ja auch Geschmackssache. Ich kann es sehen...mir ist die Standbildschärfe bisher aber ebenfalls weitaus wichtiger!
Was dagegen ein absolutes No-Go ist, ist eine PPI<150 auf Armlänge für alles abseits von Games...das empfinde ich tatsächlich als extrem "ekelhaft"! ;)

Das bisschen mehr Blur beim Movement das man bei 60FPS/Hz hat wird in vielen Games eh durch irgendwelches MotionBlur PP teilweise wieder künstlich eingebaut oder garnoch x-fach verschlimmert...insofern finde ich das insbesondere bei Singleplayer Games eher als nen Sturm im Wasserglas.
Zumal es mir da dann eh nur auf die BQ ankommt und dann werde ich sowieso sehr sehr selten weitaus mehr als 60FPS fahren (können)...was es noch weiter egalisiert.

Multiplayer ist z.T. ne andere Geschichte aber da komme ich mit 60Hz auch noch absolut hervorragend klar und nur für 1-2 MP Shooter zweigleisig fahren wollte ich bisher einfach noch nicht...insofern kann für mich 144Hz auch warten bis es halbwegs anständige und fair eingepreisete Monitore mit UHD und 120/144Hz gibt...dann kann ich es mir wenigstens aussuchen!

Und bis es soweit ist hat auch HDR@PC noch etwas zeit zum reifen! :tongue:

akuji13
2018-01-31, 13:44:39
im RL ist mir noch nie jemand begegnet dem das nicht aufgefallen ist, selbst die non-gamer sehen das. die leute, die angeblich nicht mehr als 60Hz sehen kenne ich nur aus dem internet.

Und ich kenne kaum Leute denen es auffällt. :D
Selbst side-by-side gibt es noch oft genug skeptische Blicke nach dem Motto "was meint er bloß?".
Und ich denke dann "das sieht doch ein Blinder!".
So unterschiedlich kann das sein.

Und von denen die es sehen sind dann höchstens noch 10% bereit den Preis für solche Geräte zu zahlen.

Tesseract
2018-01-31, 13:54:47
Das bisschen mehr Blur beim Movement das man bei 60FPS/Hz hat wird in vielen Games eh durch irgendwelches MotionBlur PP teilweise wieder künstlich eingebaut oder garnoch x-fach verschlimmert...
deswegen ist motion blur (neben CA und in fast allen fällen DoF) auch immer das erste was sofort aus gemacht wird. :wink:

Savay
2018-01-31, 13:57:00
deswegen ist motion blur (neben CA und in fast allen fällen DoF) auch immer das erste was sofort aus gemacht wird. :wink:

Lässt sich manchmal nur leider nicht vom generellen PP trennen...aber ehrlich gesagt gefallen mir die Effekte mittlerweile...zumindest wenn es gut umgesetzt ist. :tongue:

Davon abgesehen klemmt es allgemein ja auch bei nicht wenigen Grafiklastigen Titeln schon daran 1440p überhaupt mit signifikant mehr als 75FPS fahren zu können und nur um 144Hz ausnutzen zu können werd ich bei allem Enthusiasmus sicher nicht noch viel mehr für ne GPU ausgeben als so schon oder gar Details reduzieren. :freak:

Tesseract
2018-01-31, 14:01:42
Lässt sich manchmal nur leidet nicht vom generellen PP trennen...

also von meinen ~400 spielen war... ich glaube stanley parable... das einzige wo ich es wirklich nicht deaktivieren konnte.

24p
2018-01-31, 14:20:23
Nicht native Auflösung fahren? Käme bei mir nicht in die Tüte. Das ist garantiert unschärfer als natives 1440p.



Muss man halt gesehen haben. Ich glaube, dass einige noch nicht selbst im Alltag mal ein 144 Hz Gerät hatten. IMO ein gewaltiger Unterschied.

Mein Bruder hatte mich mal besucht und an meinem PC gespielt und ich hatte ihm nichts vom 144 Hz Display gesagt. Er fragte nach wenigen Minuten, warum das so extrem smooth und scharf in Bewegung ist und es sich in Overwatch so extrem genau spielt. Nach meiner Antwort hat er sich sofort ein 144Hz Gerät gekauft. Blind und ohne Vorwarnung erkannt.


Mit vernünftiger Skalierung und leichter Nachschärfung ist das imo besser als 1440p nativ. Kein Pixelraster. Scharf wirken auch native 1440p nur, weil da ständig das Nyquist-Theorem verletzt wird. Ich sitze täglich vor meinem 27" 4K und nein, zurück zu 1440p ist definitiv keine Option und schon mal gar nicht auf dem Windowsdesktop.

Und nein, ich kenne 144Hz von einem Kumpel und habe da auch schon gespielt. War nett, aber nach ein paar Minuten haben mich dann doch wieder lowDPI und der schlechte Schwarzwert geärgert. Es gibt auch Leute, die 144Hz gesehen haben und nicht der Sekte beitreten wollen. ;) Und btw, ich sehe 120Hz immer noch täglich auf meinem iPad - und da wird deutlich mehr geswiped als auf dem Desktop. Auch da wüsste ich sofort worauf ich eher verzichten würde, wenn es heißt: Retina oder 120Hz. ;)

robbitop
2018-01-31, 14:30:44
Davon abgesehen klemmt es allgemein ja auch bei nicht wenigen Grafiklastigen Titeln schon daran 1440p überhaupt mit signifikant mehr als 75FPS fahren zu können und nur um 144Hz ausnutzen zu können werd ich bei allem Enthusiasmus sicher nicht noch viel mehr für ne GPU ausgeben als so schon oder gar Details reduzieren. :freak:
Mit einer oc 1080ti ist das idR kein großes Problem auf dreistellige Frameraten @1440p zu kommen. Ausnahmen gibt es natürlich immer. :)

Mit vernünftiger Skalierung und leichter Nachschärfung ist das imo besser als 1440p nativ. Kein Pixelraster. Scharf wirken auch native 1440p nur, weil da ständig das Nyquist-Theorem verletzt wird. Ich sitze täglich vor meinem 27" 4K und nein, zurück zu 1440p ist definitiv keine Option und schon mal gar nicht auf dem Windowsdesktop.

Und nein, ich kenne 144Hz von einem Kumpel und habe da auch schon gespielt. War nett, aber nach ein paar Minuten haben mich dann doch wieder lowDPI und der schlechte Schwarzwert geärgert. Es gibt auch Leute, die 144Hz gesehen haben und nicht der Sekte beitreten wollen. ;) Und btw, ich sehe 120Hz immer noch täglich auf meinem iPad - und da wird deutlich mehr geswiped als auf dem Desktop. Auch da wüsste ich sofort worauf ich eher verzichten würde, wenn es heißt: Retina oder 120Hz. ;)
1440p auf meinem 4K 32" empfand ich (GPU Scaling) als merkbar unschärfer als natives 1440p. Aber natürlich in seiner Ausprägung begrenzt schlimm. @27" wäre es sicher noch weniger schlimm.

FullHD@1440p@27" hingegen finde ich signifikant unscharf. Geringere Auflösung wirkt sich generell schlecht auf die Erfüllung des Abtasttheorems aus.

Naja 1440p @27" @IPS ist nun wahrlich nicht grob und die Schwarzwerte und Blickwinkel sind auch nicht schlechter als bei 4K Monitoren. Bei den 1080p 27" Displays - insbesondere @TN - stimme ich jedoch zu.

144Hz @UHD wäre wie gesagt noch besser. Bis das aus Kostensicht erträglich wird (Monitorpreis + Preis der GPU, die das stemmen kann in hohen Frameraten) wird es sicherlich noch eine Weile dauern. Dann gibt es vermutlich die gleiche Diskussion mit 5K oder 8K vs 4K...

Am Ende ist es natürlich ein Stück weit eine Sache der Sehgewohnheiten, des Geschmacks und der Wahrnehmungsmöglichkeiten. Gerade Auflösung ist ja stark abhängig von der Sehkraft. Framerate eher nicht. Aliasing hingegen kann über AA und/oder DS bekämpft werden.

Tesseract
2018-01-31, 14:34:42
Scharf wirken auch native 1440p nur, weil da ständig das Nyquist-Theorem verletzt wird.

das hat an dem punkt mit dem abtast-theorem überhaupt nix mehr zu tun. wenn das gerenderte bild in 1440p vorliegt (egal wieviel aliasing es hat) hat man von 1440->1440 keinen zusätzlichen verlust mehr, von 1440->2160 allerdings schon. der zusätzliche blur macht das gerenderte ausgangsbild nicht besser, höchstens das sichtbare aliasing in gleichem maße weniger sichtbar wie echte details. weniger aliasing gibt es nur wenn man wirklich in 4k rendert.
der einzge vorteil den man hat ist der weniger stark sichtbare subpixelraster.

robbitop
2018-01-31, 14:39:16
Wobei das Subpixelraster eines 1440p 27" Monitor aus 1 m Entfernung jetzt (für den Großteil der Menschen) IMO nicht so proniert ist.
Temporales Aliasing (Flimmern) fällt mir bspw viel mehr auf. Das war auch bei 4K @32" noch stark der Fall.

Savay
2018-01-31, 14:44:00
Mit einer oc 1080ti ist das idR kein großes Problem auf dreistellige Frameraten @1440p zu kommen. Ausnahmen gibt es natürlich immer. :)

Wie gesagt...ich gebe sicher keine 750-800€+ aus wenn meine absolute Schmerzgrenze bei ~550€ für ne GPU liegt und nV bekommt auf absehbare Zeit erst recht keine Kohle mehr von mir...insofern. (Die G-Sync Steuer kommt ja eh noch oben drauf)
Und die Titel die ich meine bekommst du auch mit ner Ti nicht ohne zu reduzieren auf 3 stellige FPS raten. (Deus Ex MD, ME:A, Ghost Recon Wildlands, ACO, TW3 ...und und und.)


der einzge vorteil den man hat ist der weniger stark sichtbare subpixelraster.

Und das ist für sich gesehen schon Vorteil genug...

Warum diskutieren wir überhaupt drüber?! Muss doch eh jeder selbst wissen was er mag und wo er Prioritäten setzt... :freak:
Beides ist legitim und es hängt nur davon ab was man spielt und wie man es bevorzugt.

24p
2018-01-31, 14:46:31
das hat an dem punkt mit dem abtast-theorem überhaupt nix mehr zu tun. wenn das gerenderte bild in 1440p vorliegt (egal wieviel aliasing es hat) hat man von 1440->1440 keinen zusätzlichen verlust mehr, von 1440->2160 allerdings schon. der zusätzliche blur macht das gerenderte ausgangsbild nicht besser, höchstens das sichtbare aliasing in gleichem maße weniger sichtbar wie echte details. weniger aliasing gibt es nur wenn man wirklich in 4k rendert.
der einzge vorteil den man hat ist der weniger stark sichtbare subpixelraster.

Durch die höhere Zielauflösung ist es möglich das Bild quasi Tiefpass zu filtern ohne Detailverlust. Das geht bei 1440p nativ eben nicht. Vernünftige Scaler sind hier Voraussetzung und nicht simples bilineares Filtern (dann wird es eher unscharf). Bei meinem LG sieht das Upscaling plus die niedrigste Stufe Super Resolution (schärft 1440p Quellen auf 2160 so nach, dass noch kein EE zu sehen ist) besser aus als die nativen 1440p.

robbitop
2018-01-31, 14:47:15
@savay
Es gibt auch Detailregler. Die kann man anpassen um die Framerate zu steigern. Auf nvidia.com gibt es gute Optimisation Guides. Häufig erkennt man den BQ Verlust im Blindtest nicht, kann aber die Framerate signifikant steigern.

Optimaler Betriebspunkt. (wie undervolting bei GPUs)

Durch die höhere Zielauflösung ist es möglich das Bild quasi Tiefpass zu filtern ohne Detailverlust. Das geht bei 1440p nativ eben nicht. Vernünftige Scaler sind hier Voraussetzung und nicht simples bilineares Filtern (dann wird es eher unscharf). Bei meinem LG sieht das Upscaling plus die niedrigste Stufe Super Resolution (schärft 1440p Quellen auf 2160 so nach, dass noch kein EE zu sehen ist) besser aus als die nativen 1440p.
Ersteres ist nicht korrekt. Ein Tiefpassfilter kostet immer Details. Letzteres (nachschärfen) geht unabhängig von der Zielauflösung. Ein natives (egal ob nachgeschärft oder nicht) Bild enthält mehr Informationen als ein Hochskaliertes.

Savay
2018-01-31, 14:50:44
@savay
Es gibt auch Detailregler. Die kann man anpassen um die Framerate zu steigern.

Ja gibt es...und man kann zudem dank Down/Upsampling die Zielframerate eh mittlerweile recht genau dahinlegen legen wo es einem lieb ist...der eine hält 60FPS für nen anständiges Target...der nächste 144FPS.

Wo ist das eine jetzt besser als das andere?! :freak:

24p
2018-01-31, 14:51:17
Und das ist für sich gesehen schon Vorteil genug...

Warum diskutieren wir überhaupt drüber?! Muss doch eh jeder selbst wissen was er mag und wo er Prioritäten setzt... :freak:
Beides ist legitim und es hängt nur davon ab was man spielt und wie man es bevorzugt.


Das denke ich auch manchmal. Der Missionierungsdrang der HighFPS-Gamer ist extrem hoch.

robbitop
2018-01-31, 14:55:55
Das denke ich auch manchmal. Der Missionierungsdrang der HighFPS-Gamer ist extrem hoch.
Merkwürdige Wahrnehmung hast du da. Zumindest hier findet (m.E.) eine Diskussion auf sachlichen Grundlagen statt.

Ja gibt es...und man kann zudem dank Down/Upsampling die Zielframerate eh mittlerweile recht genau dahinlegen legen wo es einem lieb ist...der eine hält 60FPS für nen anständiges Target...der nächste 144FPS.

Wo ist das eine jetzt besser als das andere?! :freak:
Es geht nicht um besser oder schlechter. Ich beleuchte lediglich beide Optionen und meine subjektive Bewertung dazu. Objektiv besser ist nur, wenn sowohl eine Steigerung der Auflösung als auch eine Steigerung der zeitlichen Abtastung geschieht.

24p
2018-01-31, 15:03:57
Naja, Unterstellungen wie: "Wer 144Hz nicht will hat sie noch nie gesehen" sind schon sehr häufig. Kann ja nicht sein, dass es Leute gibt die beides kennen und sich trotzdem für 60Hz entschieden haben.

robbitop
2018-01-31, 15:25:31
Das ist meine persönliche Einschätzung mit häufig genug geäußerten Einschränkungen, dass es Geschmackssache ist. "Missionierung" ist etwas anderes. Wie gesagt: Seltsame Wahrnehmung.

akuji13
2018-01-31, 15:53:57
Zur Bildschärfe: Ich hatte 2017 sämtliche in Deutschland verfügbaren 27"@144Hz IPS hier und fand das sie alle ein unscharfes Bild hatten. :D
Nicht so schlimm wie der MG279Q aber dennoch verbesserungswürdig.

Lag nicht zwingend an der DPI sondern vermutlich am coating.

PHuV
2018-01-31, 16:12:22
Ich spiele seit ca 5 Jahren keine Shooter mehr. Das hat sich seit meiner BF1942, COD, MOHAA-Zeit einfach ausgelutscht.
Dann fang bloß kein PUBG an, das ist wichtig ein Suchtspiel. :tongue:
Also ich kann auch nie wieder zu einem 60Hz Monitor greifen. Das ist einfach ekelhaft. Alleine schon auf dem Desktop, von Spielen will ich gar nicht erst reden. Ein Unterschied wie Tag und Nacht.
Wo brauchst Du für das tägliche Arbeiten mehr als 60 Hz. :confused:
Das denke ich auch manchmal. Der Missionierungsdrang der HighFPS-Gamer ist extrem hoch.
Na ja, ich muß zugeben, sie haben mit einem recht: Der Inputlag bei Onlinespielen ist doch massiv anders als bei 60 Hz 144 FPS oder 144 Hz/144 FPS. Das fällt mir aber aktuell nur bei so deutlich PUBG auf.

Kartenlehrling
2018-01-31, 16:24:46
Zur Bildschärfe: Ich hatte 2017 sämtliche in Deutschland verfügbaren 27"@144Hz IPS hier und fand das sie alle ein unscharfes Bild hatten. :D
Nicht so schlimm wie der MG279Q aber dennoch verbesserungswürdig.
Lag nicht zwingend an der DPI sondern vermutlich am coating.


Mein MG279Q ist absulut scharf, jedenfall unter win7 und win8.1
Ich hatte hier zwei Stück und der erste davon war auch unscharf, aber dieser hatte auch eine menge Staubeinschlüsse,
wenn man über den Monitordisplay streichte hatte man das gefühl wie bei einer VA Panel das eine Gel-Schicht vorhanden wär die nicht sauber verklebt war.

robbitop
2018-01-31, 16:24:59
Zum Arbeiten braucht man nicht mehr als 60 Hz. Es ist eher das Gefühl, dass es nett ist, wenn sich alles so flüssig und scharf bewegt. Kann man auch gut beim aktuellen iPad Pro mit 120 Hz Display erleben. Ist wirklich sehr nett. Produktivität steigert das jedoch m.E. nicht.

Am Ende hat beides seine Vorteile. Am besten wäre, wie gesagt, beides. Hohe Auflösung und hohe Refreshrate. In 10 Jahren lachen wir uns sicherlich kaputt über die heutige Auflösung und Refreshrate. Man wird sicherlich noch eine Weile mit Kompromissen leben müssen.

Savay
2018-01-31, 16:34:40
Der Inputlag bei Onlinespielen ist doch massiv anders als bei 60 Hz 144 FPS oder 144 Hz/144 FPS. Das fällt mir aber aktuell nur bei so deutlich PUBG auf.

Probier doch nochmal gezielt 60FPS lock @ 144Hz+G-Sync aus. :wink:

Das Inputlag ist eher absolut und skaliert eigentlich nur relativ flach mit der anliegenden Wiederholfrequenz.
Wobei manche 144Hz Monitore im direkten 60Hz Betrieb (also ohne VRR) leider absolut gesehen wieder schlechter werden...manchmal auch schlechter als so mancher 60Hz Monitor.

Das einzige größere "Problem" ist halt gezielt nen 60Hz Monitor mit allgemein eher geringen Inputlag zu finden...das der absolut dann nicht besser kann ist halt so aber der ist dann @58-59FPS oder mit VSync off nicht zwingend im Nachteil gegen ein 144Hz Panel@60FPS.

Tesseract
2018-01-31, 16:46:23
Und das ist für sich gesehen schon Vorteil genug...
da sage ich auch nix dagegen. wenn ich meinen 1440p ohne sonstige nachteile (refresh, OD etc.) und ohne aufpreis gegen einen mit 4k tauschen könnte würde ich das sofort tun. details aus der 3D-szene hat man mit nur 1440p rendertarget aber trotzdem nicht mehr nur weil es aufgeblasen ist.

Bei meinem LG sieht das Upscaling plus die niedrigste Stufe Super Resolution (schärft 1440p Quellen auf 2160 so nach, dass noch kein EE zu sehen ist) besser aus als die nativen 1440p.
nachschärfen holt keine details zurück und ist auch ohne upscaling möglich.

24p
2018-01-31, 16:54:34
Die Details gehen nicht notwendigerweise verloren nur durch das Upscaling. Und ohne Upscaling ist kein sinnvolles Nachschärfen möglich, da schon die maximale Schärfe der aktiven Auflösung ausgereizt wird (es sei denn irgendwo sind Objekte unschärfer als es die Auflösung ermöglicht). Und ich sage auch nicht, dass man MEHR Details hat mit 1440@4K. Nur eben den besseren Bildeindruck, da kein Schärfeverlust plus geringeres Pixelraster. Mal ganz abgesehen davon geht da mit Aufwand bezüglich echter Nachschärfung so einiges. Objektkanten waren da bei mir genau so scharf wie natives 4K. Bei hochfrequenten Strukturen bringt die Raterei natürlich wenig, aber auch da war es dann nicht schlechter als die nativen 1440p.

BlacKi
2018-01-31, 17:04:46
Das einzige größere "Problem" ist halt gezielt nen 60Hz Monitor mit allgemein eher geringen Inputlag zu finden...das der absolut dann nicht besser kann ist halt so aber der ist dann @58-59FPS oder mit VSync off nicht zwingend im Nachteil gegen ein 144Hz Panel@60FPS.
der inputlag eines schnellen monitors ist doch auch durch die herzzahl bedingt schneller. deshalb hat seine pauschale aussage schon eine korrekte wertung.

du müsstest einen 144hz monitor finden der bei 60hz genauso verzögert wiedergibt wie einen 60hz monitor bei 60hz. das wiederrum wird schon einfacher.


Und nein, ich kenne 144Hz von einem Kumpel und habe da auch schon gespielt. War nett, aber nach ein paar Minuten haben mich dann doch wieder lowDPI und der schlechte Schwarzwert geärgert. Es gibt auch Leute, die 144Hz gesehen haben und nicht der Sekte beitreten wollen. ;) Und btw, ich sehe 120Hz immer noch täglich auf meinem iPad - und da wird deutlich mehr geswiped als auf dem Desktop. Auch da wüsste ich sofort worauf ich eher verzichten würde, wenn es heißt: Retina oder 120Hz. ;)
oft sind da die testumstände nicht optimal. wahrscheinlich kein schneller shooter und zu niedrige fps. erst dann kommen die 144hz voll zur geltung. es ist dann auch eine unterschied wie tag und nacht. aber hey, leute die nicht wollen müssen ja nicht.

Nightspider
2018-01-31, 17:08:46
AUO und Sharp wollen ja jetzt auch OLEDs fertigen.

OLEDs müssten doch eigentlich auch billiger sein als ein Display mit 500 Dimming-Zonen. Das ist so viel Mehraufwand mit der LCD-Direct-LED Technik und der Ergebnis ist eh immer höchstens mittelmäßig.

24p
2018-01-31, 17:15:53
Inzwischen kommen wir ja auch dahin, dass OLED TVs etwas günstiger sind als FALD LCDs. Den 65C7 gibt es ca für 2500€. Dafür gibt es eigentlich nur den 65DXW900 im Abverkauf von Panasonic.

Savay
2018-01-31, 17:19:09
Billiger vielleicht...aber das Risiko des IR macht die Hersteller doch noch nachhaltig nervös denke ich.
Im Monitorbetrieb sind ja arg viele Bildinhalte statisch.

BTW: ich hab hier nen alten 5:4 17" iiyama TN der ziemlich heftiges Image Retention zeigt.
Das aber nur als FunFact. ;D

der inputlag eines schnellen monitors ist doch auch durch die herzzahl bedingt schneller. deshalb hat seine pauschale aussage schon eine korrekte wertung.

Das Inputlag hat eine große absolute Komponente die einfach durch die Verzögerung der Elektronik bedingt ist und eine relative die am Scanout des Panels hängt.
Komponente A skaliert kaum bis gar nicht, Komponente B schon....

Er hat bisher aber nur direkt 60Hz mit gruseligem Inputlag @ 144FPS und 144Hz G-Sync mit super Inputlag @ 144FPS verglichen so wie sich das anhört. :wink:
Wenn sich sein Eindruck auch bei 60FPS@144Hz+VRR bestätigt, wird er tendenziell eher die Verzögerung der Monitorelektronik merken.


du müsstest einen 144hz monitor finden der bei 60hz genauso verzögert wiedergibt wie einen 60hz monitor bei 60hz. das wiederrum wird schon einfacher.

Häh? Nicht jeder 60Hz Monitor hat zwingend ein hohes absolutes Inputlag.

akuji13
2018-01-31, 17:23:01
Siehe z. B. den Dell U2414H.
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg279q.htm#lag

PHuV
2018-01-31, 17:31:31
https://www.heise.de/newsticker/meldung/TVs-mit-HDR10-und-OLEDs-ohne-Einbrennprobleme-3952447.html

Rückkehr zu IPS-Panels
Bei den LCD-TVs hat Philips in diesem Jahr einen bemerkenswerten Wechsel (zurück) zu IPS-Displays vollzogen. Der Einblickwinkel bei den zuletzt genutzten VA-Panels mit Quantenpunkten von Samsung sei zu klein gewesen, das habe der höhere In-Bild-Kontrast und die satten Farben nicht wettmachen können, erklärte Danny Tack.

Tesseract
2018-01-31, 17:46:41
Das Inputlag hat eine große absolute Komponente die einfach durch die Verzögerung der Elektronik bedingt ist und eine relative die am Scanout des Panels hängt.
Komponente A skaliert kaum bis gar nicht, Komponente B schon....
A ist bei gaming-monitoren in der regel sehr gering da keine frames für post-processing zwischengespeichert werden.

Wenn sich sein Eindruck auch bei 60FPS@144Hz+VRR bestätigt, wird er tendenziell eher die Verzögerung der Monitorelektronik merken.

60fps@144Hz-VRR ist sowieso wesentlich besser als als 60fps@60Hz bei gleicher grundlatenz da im ersten fall das bild trotzdem in 7ms aufgebaut wird. ich glaube es war sogar john carmack der mal gemeint hat eigentlich würde es mehr sinn machen das bild von unten nach oben als von oben nach unten aufzubauen (sprich die panel verkehrt einbauen) da der untere bildbereich in vielen spielen der latenzkritischere ist. vielleicht haben sie das im oculus sogar so gemacht.

PHuV
2018-01-31, 17:48:59
Er hat bisher aber nur direkt 60Hz mit gruseligem Inputlag @ 144FPS und 144Hz G-Sync mit super Inputlag @ 144FPS verglichen so wie sich das anhört. :wink:
Wenn sich sein Eindruck auch bei 60FPS@144Hz+VRR bestätigt, wird er tendenziell eher die Verzögerung der Monitorelektronik merken.
Jajaja, ich teste das schon noch, heute abend. :tongue:

BlacKi
2018-01-31, 18:06:09
Das Inputlag hat eine große absolute Komponente die einfach durch die Verzögerung der Elektronik bedingt ist und eine relative die am Scanout des Panels hängt.
Komponente A skaliert kaum bis gar nicht, Komponente B schon....

Er hat bisher aber nur direkt 60Hz mit gruseligem Inputlag @ 144FPS und 144Hz G-Sync mit super Inputlag @ 144FPS verglichen so wie sich das anhört. :wink:
Wenn sich sein Eindruck auch bei 60FPS@144Hz+VRR bestätigt, wird er tendenziell eher die Verzögerung der Monitorelektronik merken.

Häh? Nicht jeder 60Hz Monitor hat zwingend ein hohes absolutes Inputlag.
du willst sagen, das sein 144hz monitor bei 60hz nochmals langsamer ist als nur durch die reduzierten aktualisierungsraten?

die vorteile die nur durch die höheren aktualisierungsraten zustande kommen sind auf 60hzvs 144hz um 1/3 höher. je höher der inputlag des monitors welcher nur auf die elektronik zurückzuführen ist, umso geringer ist der vorteil von 144hz.

beispiel: der monitor1 braucht elektronisch bedingt 10ms, monitor 2 braucht 20ms.

10ms monitor1 + 16,66ms (60hz) = 26,66ms
10ms monitor1 + 6,94ms (144hz) = 16,94ms
20ms monitor2 + 16,66ms (60hz)= 36,66ms
20ms monitor2 + 6,94 ms (144hz)= 26,94ms

bei monitor 1 sieht man sofort das der die herzzahl den inputlag anteilsmäßig viel massiver reinbretzelt.

also, umso schneller die elektronik des monitors ist, umso größer ist der effekt der durch die hohen hz bedingt ist.

ps: https://youtu.be/mzts7ss97MY?t=429

Savay
2018-01-31, 18:52:05
du willst sagen, das sein 144hz monitor bei 60hz nochmals langsamer ist als nur durch die reduzierten aktualisierungsraten?


Nein, wie zum Geier kommst du darauf? :freak: Ich sprach von seinem Philips UHD VA.

Mach dein Rechenspielchen lieber mal mit 2ms vs. 20ms. Das sind nämlich eher die Größenordnungen in denen sich gute von schlechten (60Hz) Monitoren unterscheiden.


60fps@144Hz-VRR ist sowieso wesentlich besser als als 60fps@60Hz bei gleicher grundlatenz da im ersten fall das bild trotzdem in 7ms aufgebaut wird.

Das Scanout dürfte bei den meisten Desktop Panels deutlich schneller als die Refreshrate sein.

Der Blur hängt dann an den Schaltzeiten die wiederum nur etwas mit der effektiven Wiederholrate skalieren, was auch für VRR gilt...so viel schlechter als die 144er sind viele 60Hz Panel da allerdings gar nicht.
Die Schlieren durchs Hold-Type sind zudem ja eh unvermeidlich ohne BFI...insofern kann der unterschied kaum "wesentlich" sein.

Tesseract
2018-01-31, 21:06:53
Das Scanout dürfte bei den meisten Desktop Panels deutlich schneller als die Refreshrate sein.

warum haben die dann alle heftiges shearing? wenn man am desktop auf einem 60Hz schirm ein fenster schnell hin und her zieht wobbelt die unterkante teilweise einen zentimeter oder mehr nach. ich hab noch nie einen fixed refresh monitor gesehen bei dem das anders war. am DSP-projektor beispielweise ist auch auf 60Hz alles perfekt unverzerrt.

BlacKi
2018-01-31, 22:36:19
Nein, wie zum Geier kommst du darauf? :freak: Ich sprach von seinem Philips UHD VA.
achso, ich dachte er spricht vom selben monitor.

Ben Carter
2018-02-01, 11:27:02
Bzgl. Local Dimming: wäre es technisch nicht einfacher, wenn man zwischen Beleuchtung (wie auch immer die ausgeführt wird) und Panel ein weiteres Graustufenpanel einzieht? Die Elektronik zum Ansteuern wäre wohl simpler, da nur pro Pixel ein Wert berechnet werden müsste und das vermutlich noch recht simpel. Somit würde es keine oder kaum weitere Verzögerung mit sich bringen.

Nachteile:
Preis: ein weiteres Panel kostet natürlich etwas, aber ich kann mir vorstellen, dass ein Graustufenpanel günstiger herzustellen ist, als ein RGB-Panel.

Genauigkeit in der Fertigung: die Panels müssen natürlich sehr exakt ausgerichtet sein. Eventuell müsste man bei High-DPI sogar so weit gehen, dass man eine Ausrichtungselektronik hinzufügt, wobei auch das machbar sein sollte (in DSLRs/EVIL-Kameras werden die Sensoren teilweise auch bewegt). Steigert natürlich nochmals den Preis.

Eventuell müsste zwischen den beiden Panels eine weitere Schicht eingefügt werden, die die Polarisation aufhebt. Da weiß ich aktuell aber nicht, wie es bei den aktuellen Paneltypen aussieht. ggf. kann man es sogar so bauen, dass das Graustufenpanel gar keine eigene Polarisation mehr benötigt, dann kann diese Schicht auch wegfallen.

Hintergrundbeleuchtung müsste stärker werden, um die reduzierte Transmission auszugleichen. Das führt zu höheren Temperaturen und mehr Stromverbrauch.

Die Displays würden möglicherweise wieder etwas dicker werden, wobei sich das schon stark in Grenzen halten dürfte.


Was meint ihr dazu?

lg Ben

derF
2018-02-01, 11:52:43
Die Idee ging mir letztens auch schonmal durch den Kopf.
Problematisch: Das B/W-Panel muss ja dann eine entsprechende Lichtundurchlässigkeit erreichen können um einen Vorteil gegenüber dem RGB-Panel zu haben.
Ausrichtung ist, wie du sagtest, womöglich auch ein Problem. Wenn ich mir z.B. meinen Bildschirm angucke, wo rechts zwei Pixel nur beim rüberbeugen sichtbar sind. :freak:

Ben Carter
2018-02-01, 12:17:51
Das mit der Lichtundurchlässigkeit ist kein Problem. Ich greife mal Zahlen wild aus der Luft, da ich keine Werte kenne/bei der Hand habe.

Das RGB Panel bietet eine maximale Transmission von 80% (also bei weißen Pixeln gehen max. 80% Licht durch) und eine minimale Transmission von 1% (also bei Schwarz kommt noch immer 1% Licht durch).

Ein Graustufenpanel ist sicherlich etwas einfach zu realisieren und somit gehe ich mal von 80% max. und 0.5% minimale Transmission durch.

Um am Ende bei weiß 320 Cd/m² rauszubekommen, muss ich mit nur RGB-Panel 400 Cd/m² Leuchtkraft aufbringen. Wenn ich Schwarz darstelle bleiben allerdings noch immer 4 Cd/m² über.

Mit dem Graustufenpanel müsste ich 500 Cd/m² aufwenden um bei weiß 320 Cd/m² rauszubekommen. Bei Schwarz bleiben allerdings nur noch 0,025 Cd/m² über.

Vorausgesetzt, ich kann mit Cd/m² so einfach rechnen. Falls das nicht der Fall ist, bitte bescheidgeben.

Was die Ausrichtung betrifft: ich denke, dass man eine entsprechende Ausrichtungselektronik für unter 50 € hinbekommt. Immerhin werden Piezokristalle ja bei Lautsprecher und Tintenstrahldrucker verwendet und damit sollte es auch bei so einem Panel klappen.

62491

lg Ben

Savay
2018-02-01, 12:31:33
Ich würde mal sagen das eigentliche Problem ist das hier:

https://www.youtube.com/watch?v=cvBDkE_4yp4
https://youtu.be/zcqZHYo7ONs

warum haben die dann alle heftiges shearing?

Ach da gibt es nach meinen Erfahrungen durchaus eine ziemliche Schwankungsbreite bei den 60Hz Panels.
Den einzigen Zusammenhang den ich bisher wirklich erkennen konnte:

Je aktueller desto besser
Je mehr Zeilen desto schlechter
Panels für Laptops & Handhelds sind (oft mit Abstand) am schlechtesten....wahrscheinlich zum Strom sparen.

Das die HFR Panels da ne gewisse Mindestgeschwindkeit erreichen müssen ist klar, ich hab aber auch schon genug 60Hz Displays gesehen die damit eigentlich kein wirklich nennenswertes Problem haben.

Davon abgesehen hab ich das abseits vom (extrem schnellen) verschieben von Desktopinhalten, bei nem halbwegs aktuellen Desktop Panel noch nie wirklich bewusst wahrgenommen oder gar als problematisch identifiziert!
Bei ner VR Brille dürfte es definitiv anders aussehen, aber da sind die Rahmenbedingungen nunmal auch ganz andere und da ist 60Hz eh zuwenig.

Ben Carter
2018-02-01, 12:46:29
Ich kann mir das Video erst am Abend ansehen, aber nach kurzem googlen, glaube ich, was damit gemeint ist. Allerdings muss das kein Problem sein, wenn ich zwei vollständige Panele nutze, dann kann ich inzwischen einen Dipolarizer einsetzen. Klar, meine Gesamttransmission geht damit noch ein Stück runter, aber technisch sollte das kein Problem sein.

Polarisation und Depolarisation sind in der Fotografie mit ~75% Transmission zu haben, wobei ich mir recht sicher bin, dass die Polarisation mehr schluckt.

EDIT: ich kann das habe heute Abend testen, ich hab circulare Polfilter daheim.

MusicIsMyLife
2018-02-01, 13:10:54
Ich spiele die zumindest offline noch welche.
Also BF1, Borderlands, Doom usw.

Und die konnte ich sogar auf dem relativ langsamen 40" Philips problemlos spielen.
Das mehr Hz besser sind sehe ich aber auch so, unabhängig von der Reaktionszeit des panels.
Hohe Hz sorgen für eine gewisse Fluffigkeit trotz blur, schon 100 bewirken Wunder, selbst 75 sind spürbar angenehmer.

Der Philips mit 100Hz (oder mehr) inkl. FS/GS und ich wäre glücklich. :)

Der Post passt irgendwie zu mir wie Ar*** auf Eimer... *g*

Ich habe an meinem PC den BDM4065UC und den ROG Swift PG279Q hängen. Der Philips ist mein Hauptmonitor, der Swift ist meist deaktiviert (und wird in der Regel ausschließlich als Monitor für Testsysteme verwendet oder auch mal zu ner Arma-Lan mitgenommen). Beide Monitore sind per Wandhalterung so angebracht, dass ich sie mir mittig ausrichten kann.

Und trotzdem spiele ich zu 99 Prozent auf dem Philips. Für mich ist einfach die Größe das ausschlaggebende Kriterium. Selbst BF1 oder aktuell relativ häufig BFBC2 spiele ich online wieder auf dem Philips. Trotz 120+ Hz auf dem ASUS gefällt mir das Spielgefühl auf dem 60er Philips besser.

Meine persönlichen Erfahrungen mit den Battlefield-Onlineshootern (andere Shooter zocke ich nur als SP) zeigen, dass ich durch den PG279Q nicht besser werde. Ist alles Tagesform- und Server-abhängig, sodass ich UHD@60 Hz vorziehe.

Das heißt aber nicht, dass ich den Philips nicht auch lieber mit mehr Hz und Sync hätte. Am Liebsten natürlich mit FreeSync und NVIDIA unterstützt das endlich (aber eher friert die Hölle zu... :( ). Leider tut sich in dem Bereich aktuell überhaupt nichts. :(

Leistungstechnisch ist das natürlich eine andere Baustelle. Da ich ungern irgendwelche Details runterschraube, bedarf es natürlich der entsprechenden GPU-Rechenleistung. Wie sagte vor Jahren schon ein Kumpel: Auflösung verpflichtet. Daher dürfen es aktuell auch zwei 1080Ti sein, die mir aber beispielsweise in BF1 bei UHD + 125 Prozent Resolution Scale und Ultra-Einstellungen oftmals noch dreistellige FPS-Werte auf den Philips zaubern (dann natürlich entsprechend mit Tearing, für welches ich aber augenscheinlich nicht anfällig bin).

Ich bin also bei dir, akuji13: Gib mir nen BDM4065UC mit 100 Hz aufwärts sowie Sync und ich bin auch glücklich. :)

24p
2018-02-01, 13:33:55
Das mit der Lichtundurchlässigkeit ist kein Problem. Ich greife mal Zahlen wild aus der Luft, da ich keine Werte kenne/bei der Hand habe.

Das RGB Panel bietet eine maximale Transmission von 80% (also bei weißen Pixeln gehen max. 80% Licht durch) und eine minimale Transmission von 1% (also bei Schwarz kommt noch immer 1% Licht durch).

Ein Graustufenpanel ist sicherlich etwas einfach zu realisieren und somit gehe ich mal von 80% max. und 0.5% minimale Transmission durch.

Um am Ende bei weiß 320 Cd/m² rauszubekommen, muss ich mit nur RGB-Panel 400 Cd/m² Leuchtkraft aufbringen. Wenn ich Schwarz darstelle bleiben allerdings noch immer 4 Cd/m² über.

Mit dem Graustufenpanel müsste ich 500 Cd/m² aufwenden um bei weiß 320 Cd/m² rauszubekommen. Bei Schwarz bleiben allerdings nur noch 0,025 Cd/m² über.

Vorausgesetzt, ich kann mit Cd/m² so einfach rechnen. Falls das nicht der Fall ist, bitte bescheidgeben.

Was die Ausrichtung betrifft: ich denke, dass man eine entsprechende Ausrichtungselektronik für unter 50 € hinbekommt. Immerhin werden Piezokristalle ja bei Lautsprecher und Tintenstrahldrucker verwendet und damit sollte es auch bei so einem Panel klappen.

62491

lg Ben

So ein Panel wurde schon von Panasonic auf IPS Basis angekündigt. Allerdings nur für den professionellen Bereich. Es war da von 1.000.000:1 nativ die rede. bei 320 nits sind es bei geschlossenen Kristallen auch deutlich weniger als 1%, wenn man von einem Kontrast=1000:1 ausgeht. Also 0.1% und 0.32 nits. Hintereinander könnte das dann theoretisch die von Panasonic behauptete 1.000.000:1 ergeben.

Ben Carter
2018-02-01, 13:48:56
Ah, interessant. Muss mal die Augen offen halten danach. Vielleicht wird das ja doch eine Technologie, die zumindest im Highend-Segment bedacht werden kann.

Und ja, meine Zahlen waren einfach aus der Luft gegriffen. Wenn man zwei 1:1000 Panels hat, kommt man logischerweise auf 1:1.000.000.

24p
2018-02-01, 13:54:50
https://www.anandtech.com/show/10874/panasonic-develops-ips-panel-with-10000001-contrast-ratio-1000-nits-brightness

Der hier war's. Ob man das aber jemals in Consumertechnik sehen wird?

Ben Carter
2018-02-01, 14:00:24
Hab den Artikel auch gefunden.

Das kommt darauf an. Wenn eine selbstleuchtende Technologie billiger und/oder deutlich besser (auch entsprechend haltbar) wird, dann eher nicht. Wenn es mit OLED/Microleds bei Monitoren nur so tröpchenweise weitergeht, dann sehe ich da durchaus Potential. Vor allem, wenn man das wirlkich alles in einem Panel unterbringt, dann gibt's das ganze Ausrichtungsproblem nicht mehr.

lg Ben

Gast
2018-02-01, 19:48:11
Hallo, ich möchte demnächst mein 3 MOnitor Setup aufrüsten und suche curved 27" 3840x2160 4k UHD Modelle. Leider kann ich sowas nicht finden, die curved haben sämtlich nur eine niedrige FHD Auflösung? Ist da in nächster Zeit noch was zu erwarten oder muss ich 3 flache Modelle nehmen wie zb. den LG 27UD69?
Danke für eure Tipps!

PHuV
2018-02-03, 17:58:03
Er hat bisher aber nur direkt 60Hz mit gruseligem Inputlag @ 144FPS und 144Hz G-Sync mit super Inputlag @ 144FPS verglichen so wie sich das anhört. :wink:
Wenn sich sein Eindruck auch bei 60FPS@144Hz+VRR bestätigt, wird er tendenziell eher die Verzögerung der Monitorelektronik merken.
Bin doch erst heute dazu gekommen. Ich würde mal nach einige Testspielen mit Pubg sagen, mit 60@144 ist das Spielgefühl schlechter, ich treffe irgendwie verzögert, zudem ist der Bildaufbau irgendwie merkbar anders. Wie gesagt, rein subjetiver Eindruck. Mit 144@144 spielt es sich für mich besser.

robbitop
2018-02-03, 18:14:30
60 hz @ 144 hz mit vrr ist bei gleichen Randbedingungen auf keinen Fall schlechter als 60fps@60hz. Inputlag ist gleich. Der Refresh passiert beim 144 hz Monitor schneller (1/144 sek statt 1/60 sek) - die Bild wird aber so lange gahlten bis der nächste Frame kommt. Bei gleicher Monitorelektronik sollte es sich nahezu identisch anfühlen.

bnoob
2018-02-06, 15:46:00
Ich habe seit ungefähr einem Jahr einen Hisense H43MEC3050 4K VA @ 60 Hz als Monitor, soweit auch alles cool. Arbeiten ein Traum, die meisten Spiele auch.

Allerdings habe ich gemerkt, das ist nichts für schnelle Shooter.

Ich würde mir also zusätzlich einen 27" 1440p > 100 Hz Monitor holen. Ich hatte davor einen Qnix 27" 1440p IPS @ 80 Hz oder sowas, das war schon angenehm.

FreeSync möchte ich unbedingt haben, wenn es schon ein extra Monitor wird.

Nach der sehr interessanten Diskussion auf den letzten Seiten bin ich allerdings etwas verunsichert :D

Nach einer groben Recherche auf GH bleiben der Acer XF270HUAbmiidprzx und der ASUS MG279Q übrig.

Wenn ich das richtig verstanden habe, haben die das selbe Panel.

Auf den ersten Blick sieht es aber aus, als wäre die FreeSync-Implementierung von Acer deutlich leistungsfähiger.

Ist der Input-Lag der beiden vergleichbar?

Bekommen die mittlerweile auch das Binning hin, oder ist das immer noch Roulette?

akuji13
2018-02-07, 08:02:59
Zum Acer kann ich nix sagen weil ich den nicht kenne.

Lt. den Daten ist allerdings die range wie du schon bemerkt hast besser weil sie den gesamten Bereich abdeckt und man nicht wie beim Asus sie evtl. verschieben muss (mit den daraus resultierenden Nachteilen).

Auch wenn sie ein identisches panel haben muss der Bildeindruck nicht gleich sein, Stichwort coating.
Das des MG ist schon häufiger unangenehm aufgefallen, mir persönlich gefällt es auch nicht.
Zusätzlich empfand ich das panel als ziemlich langsam, die Werte die TFT Central gemessen hat zeigen auch unschöne Ausreißer.
Da du vom Qnix kommst sollte das aber kein Problem darstellen.

Wenn sich hier niemand finden der beide testen konnte wäre es sicher ratsam beide zu ordern und selbst in Augenschein zu nehmen.
Dann kannst du auch den lag selbst spüren ob er unterschiedlich ist bzw. ob das stört.

Zum Thema Qualität: Da scheint sich bei den 27" 144Hz IPS nix entscheidendes geändert zu haben.
Es gibt Serien aus Monat X die sind super, die nächste dann wieder katastrophal.

Die drei Asus die ich hatte waren was das angeht sehr gut, weder Dreck noch starkes bleeding.
Der letzte den ich vor ~3 Wochen beim Händler angeschaut habe war auch top.

bnoob
2018-02-07, 10:45:57
Danke schonmal :)

Ich hatte dann noch geschaut, ob sich mit einem TN-Gerät wirklich was sparen lässt, aber das ist ja quasi gar nicht der Fall, nachdem der Acer und der Asus so günstig sind. TN > 1080p scheint nicht sehr verbreitet zu sein.

Oder gibt es in dem Bereich auch ein TN-Panel, von dem man zumindest nicht brechen muss, wenn man alltags zu 90% VA benutzt? Schnellere Schaltzeiten sollten sich damit ja auf jeden Fall realisieren lassen.

PHuV
2018-02-07, 23:49:22
Zum Thema Qualität: Da scheint sich bei den 27" 144Hz IPS nix entscheidendes geändert zu haben.
Es gibt Serien aus Monat X die sind super, die nächste dann wieder katastrophal.
Hm, und woran seh ich jetzt, ob bei mir alles gut ist? Bisher hatte ich nichts zu bemängeln.

Lowkey
2018-02-08, 00:47:41
Ist die Technik der Fernseher nun "besser" oder "fortgeschrittener" als die der aktuellen Monitore?

akuji13
2018-02-08, 08:21:50
Hm, und woran seh ich jetzt, ob bei mir alles gut ist?

Wenn du keine Dreckeinschlüsse oder starkes bleeding siehst. :wink:

Ich hatte vom einem 27" IPS Acer 2 hier...der ältere war einwandfrei, die Charge danach furchtbar.
Da dachte man auch erst ab jetzt wird alles besser.

Einzelfälle konnte man ausschließen weil "alle" (=von anderen Nutzern aus diversen Foren) anderen Geräte aus der gleichen Baureihe ebenfalls entweder super oder grottig waren.

Savay
2018-02-08, 12:21:55
Ist die Technik der Fernseher nun "besser" oder "fortgeschrittener" als die der aktuellen Monitore?

Fortschrittlicher?
Jein.
HDR ist etwas weiter...aber da ist die Systemumgebung nun mal locker 2-3 Jahre voraus...und Content ist auch schon mehr da...wenn auch noch nicht sooooo arg viel wie man sich das wünschen könnte.
Wo Monitore besser sind: VRR, hohe Hz-Zahlen, geringe Latenzen usw.

Ich nehme mal an da werden sich die Geräteklassen in den nächsten Jahren aus unterschiedlichen Richtungen z.T. durchaus langsam angleichen.

Bessere Qualität der Panels?!
Jein.
IPS hat an sich als TV ja die gleichen Probleme und Stärken wie als Monitor, VA genauso...es fällt wegen des recht unterschiedlichen Contents der zugespielt wird oft nur anders auf.
OLED ist natürlich geil für HDR...für nen Monitor trauen sich die Hersteller aber offensichtlich nicht so recht.

TVs haben aber den Vorteil, dass die Zielgruppe für hochwertige Geräte wahrscheinlich etwas größer ist....das merkt man hier und da ziemlich sicher Preis-Leistungstechnisch, vor allem wenn man nen Monitor haben will der möglichst viele Features auf einmal abdeckt.
Ich würde jedoch sagen im großen und ganzen nimmt es sich gar nicht so viel....wobei ich bei Monitoren bisher auch komplett von dreckigen Panels verschont geblieben bin....aber vlt ist das ein spezifisches Problem bestimmter Baureihen die etwas mit der Montage zu tun haben könnten. (vlt. mehr Handmontage da absolute Kleinserie!?)

ashantus
2018-02-08, 18:45:11
Hallo,
bin nun auf folgenden neuen Monitor gestoßen: LG 27UK850-W.
https://geizhals.de/lg-electronics-27uk850-w-a1765349.html?hloc=at&hloc=de

http://www.lg.com/de/monitore/lg-27UK850-W

Dieser Monitor scheint mir interessant.
Er bietet:
- 4k bei 27 Zoll
- mit HDR (wobeider Kontrast mit 1000:1 bei mir die Frage aufwirft, wie das HDR in der Praxis rauskommt)
- 8bit+FRC Farbspektrum
- AMD Freesync (bis 60 Hz)
- Hardwarekalibrierung
- USB-C
Preislich auch fair mit ca. 700,-

Einziger Nachteil wäre "nur" 60Hz bei 4K Auflöung. Wobei ich den Standpunkt vertrete, daß ein anspruchsvolles Spiel bei 4k kaum mehr als 60Frames ausspuckt.

Ob man 27 Zoll oder mehr Zoll will, ist Geschmacksache.
Ich finde den Monitor sehr interresssant und freue mich auf einen Test.

DanMan
2018-02-08, 18:55:05
- mit HDR (wobei der Kontrast mit 1000:1 bei mir die Frage aufwirft, wie das HDR in der Praxis rauskommt)
A: Bei 350cd/m²? Beschissen.

PHuV
2018-02-09, 13:05:08
Na toll, jetzt habe ich extra den von akuji13 verwendeten Tipp mit PP14 bei Caseking gemacht, am 29.01. gleich den anderen Monitor zurückgesendet, und immer noch kein Geld zurück. Grund: Zu hoher Rückstand durch das Weihnachtsgeschäft, daher dauert das bis nächste Woche. :mad:

Der_Korken
2018-02-09, 13:29:52
Hallo,
bin nun auf folgenden neuen Monitor gestoßen: LG 27UK850-W.
https://geizhals.de/lg-electronics-27uk850-w-a1765349.html?hloc=at&hloc=de

http://www.lg.com/de/monitore/lg-27UK850-W

Dieser Monitor scheint mir interessant.
Er bietet:
- 4k bei 27 Zoll
- mit HDR (wobeider Kontrast mit 1000:1 bei mir die Frage aufwirft, wie das HDR in der Praxis rauskommt)
- 8bit+FRC Farbspektrum
- AMD Freesync (bis 60 Hz)
- Hardwarekalibrierung
- USB-C
Preislich auch fair mit ca. 700,-

Für mich ist da kaum ein Unterschied zum bald 3 Jahre alten 27MU67-B zu erkennen. Gleiche Reaktionszeit, gleicher Kontrast (OK der wird bei IPS auch nicht besser werden), gleiche Hz, gleiche (kleine) FreeSync-Range. Nur halt 350 statt 300cd/m² und auf dem Papier Unterstützung für HDR10. Dafür auch teurer. Haut mich absolut nicht vom Hocker.

Savay
2018-02-09, 13:31:51
A: Bei 350cd/m²? Beschissen.

Die Leuchtdichte ist sicher nicht das primäre Problem...eher das fehlende Local Dimming und Quantum Dots oder GBr-LEDs für den erweiterten Farbraum. :wink:

Mein alter LG 27MU67 mit wahrscheinlich relativ ähnlichem Panel geht bei 100% und nativem Weißpunkt ja durchaus bis >350cd/m²...das ist mir ehrlicht gesagt mit Großflächig weißen Inhalten im Büro bei "Spielebeleuchtung" nur schon eindeutig viel zu hell. :freak:
Für kurze Spitzlichter mag alles >300cd nett sein...aber das bringts mMn dann echt nur mit halbwegs ordentlichem LD.

Für mich ist da kaum ein Unterschied zum bald 3 Jahre alten 27MU67-B zu erkennen.

Das Panel dürfte ja auch "nur" ne etwas neuere Revision des im MU67 verbauten sein. :wink:

Das geht übrigens real bis knapp unter 400cd/m²....die offiziellen 300 im Datenblatt sind wohl recht konservativ ausgelegt.

24p
2018-02-09, 13:34:50
Hallo,
bin nun auf folgenden neuen Monitor gestoßen: LG 27UK850-W.
https://geizhals.de/lg-electronics-27uk850-w-a1765349.html?hloc=at&hloc=de

http://www.lg.com/de/monitore/lg-27UK850-W

Dieser Monitor scheint mir interessant.
Er bietet:
- 4k bei 27 Zoll
- mit HDR (wobeider Kontrast mit 1000:1 bei mir die Frage aufwirft, wie das HDR in der Praxis rauskommt)
- 8bit+FRC Farbspektrum
- AMD Freesync (bis 60 Hz)
- Hardwarekalibrierung
- USB-C
Preislich auch fair mit ca. 700,-

Einziger Nachteil wäre "nur" 60Hz bei 4K Auflöung. Wobei ich den Standpunkt vertrete, daß ein anspruchsvolles Spiel bei 4k kaum mehr als 60Frames ausspuckt.

Ob man 27 Zoll oder mehr Zoll will, ist Geschmacksache.
Ich finde den Monitor sehr interresssant und freue mich auf einen Test.

Und was ist daran interessant? Sowas gibt es schon seit 2 Jahren für 450€.

Savay
2018-02-09, 13:40:14
Und was ist daran interessant? Sowas gibt es schon seit 2 Jahren für 450€.

Nur die Tatsache, dass der Monitor HDR10 Inhalte frisst...was anderes ist faktisch ja nicht dazu gekommen.
Nen kleinen Unterschied zu SDR Material sieht man so dann sicher schon...aber optimal ist es wirklich nicht...zumal ja auch der erw. Farbraum fehlt.

Das ist halt das was ich als "HDR Ready" bezeichnen würde.

Der Preis ist allerdings echt schräg...die UVP vom MU67 war ja von anfang an niedriger.

DanMan
2018-02-09, 14:39:32
Die Leuchtdichte ist sicher nicht das primäre Problem...eher das fehlende Local Dimming .... :wink:
Soso. Bei PQ-HDR schon, denn das hat eine absolute Helligkeitsskala. Wenn dann das Tonemapping des Spiels sich nicht am Monitor orientiert (was es dann eher zu HLG macht), sondern stur auf - sagen wir - 1000cd/m² ausgelegt ist (wie bei Filmen der Fall), dann gibt es massiv Clipping, was zu einem völlig ausgewaschenem Bild führt.

Gibt genug Leute, die sich einen billigen HDR TV für ihre Konsole gekauft haben, und dann massiv enttäuscht wurden von dem was sie da zu sehen bekamen. Sah am Ende schlechter aus als SDR. Gleiches ist ja schon bei Tests von ersten "HDR" Monitoren geschehen, wo Mass Effect 3 ein besseres, kontrastreicheres Bild unter SDR bescheinigt wurde. Das lag aber garantiert am mittelmäßigen Monitor. Hier gilt einfach das Motto: Hubraum ist durch nichts zu ersetzen.

Mehr dazu: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11621927#post11621927

Kartenlehrling
2018-02-09, 15:16:49
Gibt genug Leute, die sich einen billigen HDR TV für ihre Konsole gekauft haben, und dann massiv enttäuscht wurden von dem was sie da zu sehen bekamen. Sah am Ende schlechter aus als SDR.
Gleiches ist ja schon bei Tests von ersten "HDR" Monitoren geschehen, wo Mass Effect 3 ein besseres, kontrastreicheres Bild unter SDR bescheinigt wurde.
Das lag aber garantiert am mittelmäßigen Monitor. Hier gilt einfach das Motto: Hubraum ist durch nichts zu ersetzen.

An vielen Punkten der PC-HDR war aber Microsoft Win10 schuld, da diese Problem bei den Consolen meist nicht auftraten.
Auch fehlt oft die Abstimmung von Zuspieler und TV/Monitor, die TV mussen Infos über ihre HDR Bandbreite senden, solange die TV nicht 10.000nits können.
Nicht ohne Grund gibts bei den Monitor nun eine Abstufung von DisplayHDR400, 600 und 1000.

Man kann eigentlich erst wirklich vergleichen wenn es die ersten DisplayHDR1000 Monitor mit Freesync2 Unterstützung geteste wurden.

Savay
2018-02-09, 15:19:29
Soso. Bei PQ-HDR schon, denn das hat eine absolute Helligkeitsskala. Wenn dann das Tonemapping des Spiels sich nicht am Monitor orientiert

Das mag ja sein, aber es ist mit HDR immernoch Sache der Panelelektronik das Signal entsprechend aufzubereiten!
Das Tonemapping findet bei normalem PQ-HDR endgültig eh erst im Display statt...und wird nicht mehr im Format selbst direkt festgebacken. Das ist ja der ganze Clou an der Geschichte!

Im Gegenteil ist es sogar so das eigentlich mit SDR auf einen absoluten Zielwert gemastert/getonemappt wird (~1:1000 bei max. ~100Nits)...mit HDR erst relativ.

BTW mit Freesync2 gibt es dann für HDR@PC eigentlich erst Renderingseitig (in dem Fall aber wohl eher Treiber und nicht Spieleseitig) wieder gezieltes Tonemapping passend auf die Fähigkeiten des Panels/Geräts...aber das hat ja wohl primär Performance/Latenzgründe...dass dürfte dann aber auch streng genommen nicht unbedingt mehr als "normale" PQ-HDR/HDR10 Kette durchgehen....die halt ursprünglich primär eher auf Videoinhalte ausgelegt ist.


Sah am Ende schlechter aus als SDR.

Irgendwas schmeißt du da durcheinander.

Ich hab (noch..der für besser ;) befundene LG OLED kommt dann hoffentlich morgen endlich mal an :up:) nen Samsung Quantum Dot LCD TV ohne LD zu Hause der im Peak nur ~350-400Nits macht...da sieht ordentliches HDR Material definitiv nicht schlechter aus als SDR Material...nur halt auch nicht wirklich viel besser...bis auf die Farben und manche Details die etwas besser sichtbar werden!

Wichtig ist erstmal, dass des Gerät intern die Transferfunktion richtig appliziert und den Standard auch sauber umsetzt, dass kann und sollte man im Laden dann aber auch mal testen bevor man einfach irgendeinen "HDR fähiges" Teil kauft...gibt da ja wohl Geräte die HDR10 entgegen nehmen aber darauf schlicht keine passende Transferfunktion anwenden, sondern noch die alte SDR Gammakurve...mit den Teilen ist man dann natürlich absolut komplett gearscht, weil alles komplett ausbleicht und die Tonwerte total falsch sind.

Wenn das Gerät PQ-HDR jedoch halbwegs korrekt umsetzt, dann hat man durch derartiges "HDR" (übrigens bewusst in Anführungszeichen) eigentlich keine Nachteile ggü. SDR....auch wenn sich die Vorteile je nach Specs ziemlich in Grenzen halten. (Was übrigens auf den genannten LG wohl doppelt zutrifft...der kann ja abseits des etwas knappen Kontrasts nichtmal die WCG Komponente von HDR10 richtig wiedergeben.)

Das die Wiedergabekette unter Windows noch nicht zwingend optimal ist, ist sowieso ne komplett andere Geschichte.

24p
2018-02-09, 16:15:14
Soso. Bei PQ-HDR schon, denn das hat eine absolute Helligkeitsskala. Wenn dann das Tonemapping des Spiels sich nicht am Monitor orientiert (was es dann eher zu HLG macht), sondern stur auf - sagen wir - 1000cd/m² ausgelegt ist (wie bei Filmen der Fall), dann gibt es massiv Clipping, was zu einem völlig ausgewaschenem Bild führt.

Gibt genug Leute, die sich einen billigen HDR TV für ihre Konsole gekauft haben, und dann massiv enttäuscht wurden von dem was sie da zu sehen bekamen. Sah am Ende schlechter aus als SDR. Gleiches ist ja schon bei Tests von ersten "HDR" Monitoren geschehen, wo Mass Effect 3 ein besseres, kontrastreicheres Bild unter SDR bescheinigt wurde. Das lag aber garantiert am mittelmäßigen Monitor. Hier gilt einfach das Motto: Hubraum ist durch nichts zu ersetzen.

Mehr dazu: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11621927#post11621927

Ein vernünftiges HDR Display bietet bereits ein für die Leuchtdichte sinnvolles Tonemapping.

DanMan
2018-02-09, 18:56:51
Das mag ja sein, aber es ist mit HDR immernoch Sache der Panelelektronik das Signal entsprechend aufzubereiten! Das Tonemapping findet bei normalem PQ-HDR endgültig eh erst im Display statt...
Nur in dem Fall, dass Dynamikumfang Input (Film, Spiel) > Dynamikumfang Output (Display). Aber selbst dann, auch nur am oberen Ende (siehe unten). Ansonsten gibt's kein weiteres Tonemapping bei HDR10.

...und wird nicht mehr im Format selbst direkt festgebacken. Das ist ja der ganze Clou an der Geschichte!
Bei Filmen schon, was ja jetzt schon ein Problem in der Zukunft darstellt, wenn es mal Displays mit deutlich mehr als 1000 cd/m² gibt. Denn in der HDR10 Spezi. ist nichts vorgesehen um den größeren Umfang des TVs zu nutzen, wenn man einen auf 1k nits gemasterten Film abspielt. Da gibt's dann vllt. irgendwelche Hersteller Erfindungen (HDR Upsampling™) - oder auch nicht, denn dann kann man die Filme ja gleich nochmal verkaufen ("jetzt mit noch mehr Nits!"). Bei Spielen bleibt es abzuwarten, ob sie sich am Display orientieren oder nicht.

Im Gegenteil ist es sogar so das eigentlich mit SDR auf einen absoluten Zielwert gemastert/getonemappt wird (~1:1000 bei max. ~100Nits)...mit HDR erst relativ.
Das ist bei beiden so. Filme, die derzeit im HDR10 Format herauskommen sind auf 1000 cd/m² gemastert.

Irgendwas schmeißt du da durcheinander.

Ich hab 'nen Samsung Quantum Dot LCD TV ohne LD zu Hause der im Peak nur ~350-400Nits macht...da sieht ordentliches HDR Material definitiv nicht schlechter aus als SDR Material...nur halt auch nicht wirklich viel besser...bis auf die Farben und manche Details die etwas besser sichtbar werden!
Reden wir jetzt von Spielen oder Filmen? Bei Filmen gebe ich dir Recht, bis zu dem Punkt, an dem der Screen eben technisch nicht mehr mitkommt. Aber genau da gibt's dann entweder Clipping, oder es wird noch viel früher bereits ein Roll-off durchgeführt, damit kein Clouding entsteht. Das sieht dann in den hellen Bereichen nicht einfach nur "nicht besser" aus, sondern viel kontrastarmer.
Bei Spielen ist es, wie gesagt, wieder die Frage, wie es die Entwickler nutzen werden. Stupide wie bei Filmen, oder doch auf das, was der Bildschirm vorgibt zu können, gemünzt.

RainingBlood
2018-02-09, 20:08:48
Apropros bessere Monitore. Auch im TN Lager gab es Verbesserungen in Sachen Bildquali. Habe mir letzte Woche selbst einen 28" 4K von Acer gekauft. Läppische 300€. Bester TN, den ich persönlich kenne, Schärfe und Farben (wenn natürlich auch nicht farbecht), gefallen mir sehr gut. Alle anderen TN, die ich privat und auf Arbeit erlebt habe, hatten gerade mit den Farben ein Problem: es gab IMMER einen mehr oder weniger ausgeprägten Grauschleier. Im Bezug auf die Blickwinkelabhängigkeit hat sich die letzten 5 Jahre aber nichts getan, das wird wohl nie was.

robbitop
2018-02-09, 20:24:43
Gute TNs sind irre schnell und auch von den Farben her nicht so übel. Aber die vertikale Blickwinkelabhängigkeit ist natürlich ziemlich schlecht. Der PG278Q (der erste gsync 1440p 144hz monitor) war IMO für ein TN irre gut. Und vor allem: keine Pissecke, kein Glow, kein Clouding.

Ex3cut3r
2018-02-09, 20:25:35
Ich hatte mal ein TN Panel von Samsung 2011er (S27A750D) mit 120HZ, dieses bot seitlich sehr gute Blickwinkel mit minimal blasseren Farben, aber oben und unten was es wie immer eine Katastrophe. Prad bestätigt mich damals eigentlich wenn auch beim TV Modell mit 60HZ Only. https://www.prad.de/testberichte/test-monitor-samsung-t27a750/2/#Blickwinkel
Ansonsten war das Gerät echt ok, für einen Schüler, 120HZ, 3D, 950:1 Kontrast und ganz anständige Farben, mittlerweile ist der bei meiner 5 Jahre jüngeren Schwester immer noch im Einsatz. Ach ja was gar nicht ging war die Entspieglung, ist/war ein Glossy Panel. *Würg* Schon das kleinste Licht, hat dafür gesorgt, dass man sich selbst sah.

Schade, dass sich seitdem bei den Blickwinkeln nicht viel geändert hat beim TN.

akuji13
2018-02-09, 20:25:55
Der PG hatte sogar gute Schwarzwerte.

MMn ist der auch besser als sein Nachfolger.

Sam Pau
2018-02-09, 20:30:48
Man sollte natürlich auch darauf achten, wie man seinen Monitor hinstellt.

https://steemit.com/monitors/@ncx/ips-vs-tn-right-and-wrong-ways-to-use-or-view-how-to-vastly-reduce-ahva-ips-pls-glow-and-increase-the-perceived-black-depth

Dennoch, die Blickwinkelabhängigkeit bei TN bleibt übel.

Savay
2018-02-09, 21:44:50
Nur in dem Fall, dass Dynamikumfang Input (Film, Spiel) > Dynamikumfang Output (Display).

Was heißt hier "nur"...wo hast du denn bitte mal den umgekehrten Fall bei PQ-HDR?
Das ist doch noch die absolute Regel und nicht die Ausnahme.

Nur mit normalem SDR ist es bisher halt bei bestimmten Panels anders herum.


Ansonsten gibt's kein weiteres Tonemapping bei HDR10.

?
Das eigentliche Tonemapping ist bei HDR10 doch immer Displayseitig....nach dem erhalt des 10bit PQ-HDR Streams im Scaler und vor dem eigentlichen Output ans Panel.

Es liegt in der Natur des Standards, dass es ein statisches Format ist und der Stream dann auch auf dem Zielgerät final getonemappt werden soll.
HDR10:
It uses SMPTE ST 2086 "Mastering Display Color Volume" static metadata to send color calibration data of the mastering display, such as MaxFALL (Maximum Frame Average Light Level) and MaxCLL (Maximum Content Light Level) static values, encoded as SEI messages within the video stream.

Wie das Tonemapping konkret aussieht kann ja wohl auch kaum im Detail spezifiziert sein, wenn es nunmal Gerätespezifisch sein muss.


Bei Filmen schon, was ja jetzt schon ein Problem in der Zukunft darstellt, wenn es mal Displays mit deutlich mehr als 1000 cd/m² gibt.

Du hängst dich viel zu sehr an der Leuchtdichte auf...der übertrag- und später konkret darstellbare Kontrastumfang ist viel interessanter.
1000nits ist davon abgesehen eh schon recht hell....10.000 willst du in nem Dunklen Wohnzimmer wohl sowieso eher nicht unbedingt direkt in die Augen gelasert bekommen. :freak:
Das ist einfach nur Headroom...mehr nicht.

Stupide wie bei Filmen, oder doch auf das, was der Bildschirm vorgibt zu können, gemünzt.

Wenn es um normales HDR10 geht wahrscheinlich so wie auch bisher schon...also eher stupide und so wie es für HDR10 halt spezifiziert ist. :wink:

Für direkt Ausgabebezogenes gibt es bisher m.W. erst Freesync2...das setzt aber soweit ich das bisher verstanden habe eh Treiberseitig an, fängt mehr oder weniger den normalen HDR10 Stream ab und tauscht danach faktisch wohl die gesamte HDR Pipeline von Windoof aus.
Du kannst es gerne als "Hack" bezeichnen der bestimmte Schwächen ausbügeln soll.

Ob da Spielespezifisch noch was anderes dynamisches kommt das weiter vorne in der Kette ansetzt werden wir sehen...mir ist aber noch nichts bekannt...hat nV da eigentlich schon was in petto?

24p
2018-02-10, 10:40:33
Bei Filmen schon, was ja jetzt schon ein Problem in der Zukunft darstellt, wenn es mal Displays mit deutlich mehr als 1000 cd/m² gibt. Denn in der HDR10 Spezi. ist nichts vorgesehen um den größeren Umfang des TVs zu nutzen, wenn man einen auf 1k nits gemasterten Film abspielt.


Das ist falsch. HDR10 lässt deutlich mehr als 1000 nits zu. Was oft vergessen wird ist, dass die angegebenen nits der Metadaten in den Medien nur die max nits des Masteringmonitors sind. Die können gerne nur 1000 nits sein. Das bedeutet aber nicht, dass die max nits eines Pixels irgendwo im Film auch mal 10.000 nits erreichen können (der Headroom der ST2084 EOTF ist 10.000 nits). Aus dem Grund ist auch für TVs wie den ZD) mit seinen 2000 nits ein dynamische Tonemapping sinnvoll.

DanMan
2018-02-10, 14:16:22
Was heißt hier "nur"...wo hast du denn bitte mal den umgekehrten Fall bei PQ-HDR? Das ist doch noch die absolute Regel und nicht die Ausnahme.
Mein TV schafft 1200 nits, was bedeutet, dass aktuelle HDR10 Filme quasi 1:1 so abgespielt werde, wie sie gemastert wurden, ohne dass da noch irgendein Tonemapping stattfinden würde. Warum auch?

Das eigentliche Tonemapping ist bei HDR10 doch immer Displayseitig....nach dem erhalt des 10bit PQ-HDR Streams im Scaler und vor dem eigentlichen Output ans Panel.

Es liegt in der Natur des Standards, dass es ein statisches Format ist und der Stream dann auch auf dem Zielgerät final getonemappt werden soll.
HDR10:
It uses SMPTE ST 2086 "Mastering Display Color Volume" static metadata to send color calibration data of the mastering display, such as MaxFALL (Maximum Frame Average Light Level) and MaxCLL (Maximum Content Light Level) static values, encoded as SEI messages within the video stream.

Wie das Tonemapping konkret aussieht kann ja wohl auch kaum im Detail spezifiziert sein, wenn es nunmal Gerätespezifisch sein muss.
Es ist gerätespezifisch, aber auf das im Mastering verwendete Display bezogen. Nur wenn das Gerät zuhause weniger Dynamik hat, dann gibt's ein Tonmapping am oberen Ende. Ich wiederhole mich...
HLG-HDR ist "scene-referred", nicht PQ-HDR. Steht alles in dem Präsentations-PDF, das ich verlinkt habe, aber das ließt ja keiner.

Wenn es um normales HDR10 geht wahrscheinlich so wie auch bisher schon...also eher stupide und so wie es für HDR10 halt spezifiziert ist.
Und jetzt gibst du mir plötzlich recht? :confused:

Das ist falsch. HDR10 lässt deutlich mehr als 1000 nits zu. Was oft vergessen wird ist, dass die angegebenen nits der Metadaten in den Medien nur die max nits des Masteringmonitors sind. Die können gerne nur 1000 nits sein. Das bedeutet aber nicht, dass die max nits eines Pixels irgendwo im Film auch mal 10.000 nits erreichen können (der Headroom der ST2084 EOTF ist 10.000 nits). Aus dem Grund ist auch für TVs wie den ZD) mit seinen 2000 nits ein dynamische Tonemapping sinnvoll.
Ich habe nie was anderes behauptet. Leg mir keine Worte in den Mund. Ich weiß, dass die PQ EOTF bis 10k nits ausgelegt ist. HDR10 Filme werden aber derzeit absichtlich mit einer Dynamik bis 1000 nits gemastered, damit sie auf derzeit kaufbaren Geräten möglichst gut aussehen. Das, und nichts anderes, habe ich geschrieben.

EOD für mich hier. Hab alles gesagt.

24p
2018-02-10, 14:35:50
Nein, werden sie nicht. Sie werden auf 1000 oder 4000 nits Monitoren gemastert, die Helligkeit einiger Filme geht trotzdem weit darüber hinaus. Du machst den Fehler, den viele machen: den nits Wert des Masteringdisplays auszulesen. Das sagt aber wenig über die tatsächlich maximale Helligkeit des Films aus.


Beispiel:

http://www.avsforum.com/forum/24-digital-hi-end-projectors-3-000-usd-msrp/2950608-hdr-uhd-bluray-waveform-analysis.html

Mad max FF

Max Nits 4000
Max CLL 9919
Max FALL 3242

Wurde offenbar auf dem Dolby Pulsar mit 4000 nits gemastert, hat aber Pixel, die 9919 nits hell sind.

Edit:

Es gibt sogar Filme, die Max nits 10.000 anzeigen als Helligkeit des Masteringdisplays, aber nur ca 1000 nits als max CLL erreichen.

DanMan
2018-02-10, 19:59:36
Ok, dann hat der Film eben ein paar Ausrutscher >9000 nits. Ändert an meiner Aussage trotzdem nicht viel, denn er wurde auf 4000 nits gemastert (DV Target, nicht HDR10). Sieht man auch in den Histogrammen (http://www.avsforum.com/forum/24-digital-hi-end-projectors-3-000-usd-msrp/2950608-hdr-uhd-bluray-waveform-analysis.html#post55518450) auf der Seite gut, dass bei ca 4000 nits gedeckelt wird. Es wird also sehr wohl auf ein bestimmtes Limit hin gearbeitet.

Darum passiert bei der HDR10 Ausgabe gemäß Spezi. trotzdem nichts anderes als entweder Clipping oder Roll-Off am oberen Ende. Bei DV gibt's Tonemapping, klar. Das ist ja deren großes Kaufargument. Aber davon hab ich bewusst nicht geschrieben - bezog sich alles auf HDR10.

24p
2018-02-11, 00:51:48
Nein, das sind HDR10 Filme, die dort mit max CLL 10.000 nits gemastert wurden. Du hast btw immer noch nicht verstanden, dass max nits lediglich die max nits des Masteringdisplays sind und der echte max nits Wert des Films durch maxCLL angezeigt wird. Alles statische Metadaten HDR10. Bitte einfach mal einsehen, wenn man im Unrecht ist und hier nicht eine sinnlosen Nebenkriegsschauplatz aufmachen nur um „Recht“ zu haben. Hast du in diesem Fall halt nicht.

Btw IST ein Rolloff Tonemapping. DV bietet dynamisches Tonemapping basierend auf dynamischen Metadaten.

DanMan
2018-02-11, 14:41:03
Das ist hier echt ermüdend, wie du ständig Strohmänner aufstellst nur um dich zu profilieren. Glaubt einfach was ihr wollt.

Savay
2018-02-11, 14:53:54
Was verstehst du überhaupt unter Tonemapping?!
Natürlich muss bei HDR10 Gerätespezifisch getonemappt werden solange die Panels das Format nicht zur gänze darstellen können...ich versteh nicht wie man darauf kommt das es anders läuft.

Das "statisch" gemastert wird bedeutet doch nicht das keine gezielte Aufbereitung im Gerät stattfindet......das sind doch 2 komplett verschiedene Paar Schuhe!
Die Aufbereitung orientiert sich übrigens an den Mastering Parametern in den Metadaten...und mal ganz im Ernst...wozu zum Geier sollte man die sonst überhaupt mitsenden wenn es so läuft wie du suggerierst...in dem Fall wären die nämlich komplett überflüssig und hätten null einfluss auf den Output.

Glaubt einfach was ihr wollt.

wenn es auf Endgeräten grundsätzlich aussähe wie hier auf dem 3. Panel....
https://static1.squarespace.com/static/54a8c619e4b0d05e1aae752f/t/5a37f632e4966b79a0e658d9/1512772682480/Clipping+in+the+darks+for+the+SmallHD+1703+P3X+and+the+Atomos+Sumo+19?format=250 0w

...hättest du ja nicht ganz unrecht...allerdings ist das eigentliche Kern-Problem auch dann immer noch nicht das obere Ende...sondern das untere...da saufen dir einfach die Tonwerte ab bei zu geringer DR. Erkennt man im Bild ja auch recht deutlich!
Allerdings macht so eine "direct" HDR darstellung wie das letzte Teil normalerweise kein anständiges End-User Gerät...bzw. es sollte das nicht tun.

Deswegen verstehe ich schlicht nicht wirklich wieso du von den Peak Nits eines Panels irgendwas signifikantes ableiten willst...das sorgt bei sauberer Implementierung am Ende "nur" für etwas mehr Brillianz...aber auch nur wenn überhaupt so helle Tonwerte im Material/der Szene sind.
Entscheidend ist am Ende der Tage sowieso immer noch der darstellbare Kontrastumfang.

Nach deiner Logik müsste übrigens HDR10 Material auf jedem OLED deutlich schlechter aussehen als auf den HighEnd LCDs! :rolleyes:

24p
2018-02-11, 15:18:27
Das ist eben typisch Forum. Erst Unsinn behaupten und dann ausweichen. Ist ja nicht schlimm, wenn man mal falsch liegt nur sollte man dann auch die Größe haben das einzusehen.

Veeegie
2018-02-12, 11:53:16
https://www.vr-freaks.de/test-viewsonic-xg2730/
https://www.notebooksbilliger.de/viewsonic+xg2730?nbb=pn.pcgh#Q4C5

Bei homogenen GraKa-Preisen, würde ich mir bei so einen Angebot Gedanken, um einen Umstieg auf 27" und WQHD machen.

24p
2018-02-12, 12:04:01
Und was hat das mit dem Topic zu tun? ;)

Veeegie
2018-02-12, 12:47:26
Nüx, und nu?

Ist en gutes Angebot, zum ersten mal unter 500€. Mir ist´s auf Grund der GraKa-Preise immernoch zu teuer aber vllt. ist´s für jemand anderen interessant. Die Chance darauf, hat mich dazu verführt bewusst aus der Reihe zu treten.

Sorry, meine Schuld ;)

Sam Pau
2018-02-12, 13:35:13
Ist immer noch teuer für einen TN.

Rush
2018-02-12, 16:59:58
Sorry, meine Schuld ;)

Alles gut! Dein Post ist nur verwunderlich, da es doch ein paar Alternativen mit den Eigenschaften bereits für unter 500 zu haben gibt.

DrumDub
2018-02-16, 13:55:35
Samsung C27HG70 im Test: Der 144-Hz-HDR-Quantum-Dot-Monitor (golem.de) (https://www.golem.de/news/samsung-c27hg70-im-test-der-144-hz-hdr-quantum-dot-monitor-1802-132451.html)

Botcruscher
2018-02-16, 15:02:07
Wie lange wollen die eigentlich die Leute noch verarschen?

Der_Korken
2018-02-16, 16:06:59
Samsung C27HG70 im Test: Der 144-Hz-HDR-Quantum-Dot-Monitor (golem.de) (https://www.golem.de/news/samsung-c27hg70-im-test-der-144-hz-hdr-quantum-dot-monitor-1802-132451.html)

Mittlerweile juckt mich das Teil schon ein wenig. Für mich (23', 1080p, IPS, 60Hz, kein ASync) dürfte es eine Verbesserung in allen Bereichen sein. Was halt nur nervt ist, dass es seit gefühlt 2-3 Jahren keinen cm vorwärts geht bei Monitoren. Wartet man, ändert sich auch die nächsten 3 Jahre nichts und man ärgert sich immer wieder, dass man nicht schon vor Jahren zugeschlagen hat. Andererseits besteht noch so langer Stagnation auch die Chance, dass es endlich mal wieder einen Sprung gibt und man ein Gerät wie oben dann zusätzlich noch mit 4K zum gleichen Preis gibt. Wie man's macht, ist es verkehrt.

Loeschzwerg
2018-02-16, 18:53:39
Der Standfuß geht ja mal überhaupt nicht.

Screemer
2018-02-16, 19:03:03
Der Standfuß geht ja mal überhaupt nicht.

Grad den find ich total super. Optisch, wie auch funktional. Der sieht unten aus wie mein eizo-vesa-Fuß. Den Rest können sie sich allerdings bei dem Preis sparen. Find ihn schlicht zu teuer.

Loeschzwerg
2018-02-16, 19:27:31
Echt? Wie tief ist denn bei dir der Schreibtisch? Bei meinem 75er würde ich direkt vor der Scheibe kleben :D

Der_Korken
2018-02-16, 20:13:46
Der Standfuß ist wirklich unpraktisch. Bei mir würde es vielleicht sogar irgendwie gehen (80cm Tiefe), weil meiner nicht vor der Wand steht, sondern ich mit dem Rücken zur Wand sitze. Trotzdem ist es ja nicht Sinn der Sache, wenn der Standfuß zur Hälfte übersteht ... und grottenhässlich bleibt er auch.

Ansonsten ist der Preis gar nicht mal so mies, wenn man sich das sonstige Angebot so anschaut. Will man 1440p+, 120+Hz, ~27 Zoll und kein TN, bleiben der Samsung, der Asus MG279Q und der Acer XF270HUA. Ersterer war doch afaik der, von dem man am besten gleich 5 Stück bestellt, damit auch einen bekommt, wo nicht alles voller bleeding oder Dreck unterm Panel ist. Auf sowas hätte ich absolut keinen Bock. Über den Acer weiß ich nichts. Hätte halt 4ms statt 1ms, keine Möglichkeiten für backlight strobing und IPS statt VA (wobei ich gar nicht weiß, was von beiden am Ende besser wäre für mich). Allerdings ist er auch nur 80€ günstiger als der Samsung.

Dass es absolut gesehen kaum vorwärts geht und man eigentlich für das Geld gerne noch 4K sehen möchte, steht außer Frage. Aber was will man machen?

Ex3cut3r
2018-02-16, 22:26:29
Das Teil hat doch Vesa 100x100, also könnte man den Fuß eh wechseln. Oder gleich an die Wand heften.

Ansonsten erscheint er mir als Gesamtpaket sehr stimmig und fair.

akuji13
2018-02-16, 22:44:20
Ansonsten ist der Preis gar nicht mal so mies, wenn man sich das sonstige Angebot so anschaut.

Wer auf "HDR" und blur reduction verzichten kann könnte auch den AOC nehmen.
https://geizhals.de/aoc-agon-ag322qcx-a1609741.html

Flusher
2018-02-16, 22:56:51
Ich hab im Dezember bei einem Medion AKOYA X58434 (https://geizhals.de/medion-akoya-x58434-md-22434-30022507-a1689036.html) für rund 500 EUR zugeschlagen. 21:9, 3440x1440 VA Panel bei 100 Hz inkl. Freesync.

Ist ein Samsung Panel und der Monitor ist baugleich mit dem HKC NB34C.

Ja, ist leider nicht das Top Panel, aber es gibt auch schlicht nicht Vernünftiges in dem Preisbereich.

N0Thing
2018-02-17, 00:17:58
Ist der denn mit der angegebenen Reaktionszeit von 8-16ms spieletauglich? Abgesehen davon, klingt der ja von den Daten her wirklich nicht schlecht.

Der_Korken
2018-02-17, 00:32:53
Wer auf "HDR" und blur reduction verzichten kann könnte auch den AOC nehmen.
https://geizhals.de/aoc-agon-ag322qcx-a1609741.html

Das HDR ist mir völlig wurscht, ich wüsste gar nicht, ob ich überhaupt HDR-Material hätte, um den zu befeuern. Ich blick da sowieso nicht durch, was es da an Standards gibt und ob non-OLED-Monitore überhaupt sinnvolles HDR bieten können. Das mit der Blur Reduction kann ich überhaupt nicht einschätzen. In den Reviews steht was davon, dass empfindliche User das eventuell als Flimmern wahrnehmen. Und generell habe ich Null Erfahrung mit >60Hz. Allerdings wäre mir der verlinkte Monitor zu groß für 60cm Sitzabstand.

Ph03n!X
2018-02-17, 08:07:58
Wäre schön wenn nun so langsam mal ab 40 Zoll mit Display HDR 400, 600 oder 1000 rauskommen würden.
Über den Philips von der IFA findet man leider nicht viel im Netz

Flusher
2018-02-17, 11:35:23
Ist der denn mit der angegebenen Reaktionszeit von 8-16ms spieletauglich? Abgesehen davon, klingt der ja von den Daten her wirklich nicht schlecht.

Man sieht etwas Ghosting im UFO-Test, fällt mir aber beim Spielen nicht auf. Egal ob schneller Shooter wie Quake Champions oder langsame RPGs wie Mass Effect Andromeda. (mit Overdrive = 8ms)

Corona-Effekt des Overdrives ist nicht übertrieben und fällt (mir) ebenfalls nicht im Alltag auf.

Ich komm von einem Eizo Foris FG2421 (https://geizhals.de/eizo-foris-fg2421-schwarz-fg2421-bk-a1024965.html) mit 120 Hz MVA-Panel und BFI.

Das einzige was mich stört ist, dass er täglich in der ersten halben Stunde Betrieb immer wieder mal knackt da er sich aufwärmt.


PS: den Eizo Monitor hab ich zum Verkauf, falls jemand Interesse haben sollte.

Hades11
2018-02-17, 15:55:42
Samsung C27HG70 im Test: Der 144-Hz-HDR-Quantum-Dot-Monitor (golem.de) (https://www.golem.de/news/samsung-c27hg70-im-test-der-144-hz-hdr-quantum-dot-monitor-1802-132451.html)
Wenn der gerade wäre und G-Sync hätte wäre er bis zu 300€ interessant. So bleib ich halt bei 22" 1080p 60hz ips.

Screemer
2018-02-17, 16:01:33
Echt? Wie tief ist denn bei dir der Schreibtisch? Bei meinem 75er würde ich direkt vor der Scheibe kleben :D
den aspekt der tiefe hab ich nicht bedacht. das ist natürlich ein problem. mein monitor hat ca. 20cm platz nach hinten zur wand. hier werden laut text 40cm benötigt. mmmh.

Loeschzwerg
2018-02-17, 16:18:21
Ja, ist echt etwas doof. Damit dürften viele potentielle Kunden so ein Problem haben, weshalb ich dieses Design nicht ganz nachvollziehen kann (trotz Vesa Mount).

Der_Korken
2018-02-18, 00:52:43
Was mir gerade aufgefallen ist im Golem-Artikel:

Mit eingeschalteter Motion-Blur-Reduktion sinkt die Helligkeit aufgrund der pulsierenden Hintergrundbeleuchtung auf 216 cd/m², was im Alltag angenehmer ist als 378 cd/m². Wer weniger als 100 Prozent Helligkeit nutzen möchte, sollte nicht empfindlich sein: Auch wenn Samsung von flimmerfrei spricht, wird Pulsweitenmodulation (PWM) eingesetzt. Wir finden es auf Dauer anstrengend für die Augen. Die Lösung ist die Motion-Blur-Reduktion, weil sie mit etwa 144 Hz arbeitet und ebenfalls die Helligkeit verringert.

Also ich haben meine Monitore eher so bei 20% Helligkeit eingestellt. Bei mehr ist mir das Bild zu hell und ich kriege nach ein paar Stunden Kopfschmerzen. Allerdings steht in einem anderen Review drin, dass der Samsung kein PWM nutzt:

https://pcmonitors.info/reviews/samsung-c27hg70/

The Samsung C27HG70 does not use PWM (Pulse Width Modulation) to regulate backlight brightness at any level. DC (Direct Current) is used to regulate backlight brightness, meaning that the monitor is considered ‘flicker-free’. Users who are sensitive to flickering or other side-effects of PWM usage will appreciate this. The exception to this is with the monitor set to its ‘Faster’ or ‘Fastest’ response time setting. This activates the ‘Impulsive Scanning’ strobe backlight mode, which induces flickering at a refresh rate corresponding to that of the display.

Wobei hier nicht klar ist, was bei fast und fastest passiert. Ist er dann nicht mehr flicker-free, weil die schwarzen Frames eingefügt werden oder weil doch PWM genutzt wird?

Was TN- oder IPS-Panel bei gleicher Frequenz besser können, sind die Pixelschaltzeiten beim Wechsel von Schwarz auf Grau oder heller. Der C27HG70 zeigt hier gelegentlich Schlieren, was uns aber nur aufgefallen ist, weil wir aufgrund des Panel-Typs explizit darauf geachtet haben. Mit 60 Hz oder 100 Hz gibt es kein Nachziehen mehr, mit 120 Hz hingegen schon.

Wieso werden die Schlieren bei weniger Hertz besser? Ich finde es ja schon immer abenteuerlich, dass rise- und fall-Zeiten des Panels sich bei höherer Hz-Zahl reduzieren, aber das hier kapier ich nicht.

Obacht: Wird Freesync genutzt, ist keine Motion-Blur-Reduktion möglich, der Low Input Lag aber ist automatisch an.

Mööööp ... was soll denn dieser Blödsinn? :mad:

Der Teufel scheint hier im Detail zu stecken mit all den vielen Einstellungsmöglichkeiten und komischen Inkompatiblitäten dazwischen.

akuji13
2018-02-18, 08:15:53
Der 32" Samsung ist auch ohne motion blur nicht mehr flicker free wie man im PCGH Video sehen kann.
https://youtu.be/yTPYXztH1F0?t=106
Laut Samsung ist er flimmerfrei weil man es nicht sehen kann. :wink:
Ich denke das wird bei dem 27" nicht anders sein.

Bei PCMonitors wurde auch behauptet das die FreeSync Probleme der 35" VAs mit einer älteren Treiberversion verschwunden wären was aber nicht der Fall war und man ließ sich auch nicht von dutzenden usern korrigieren.
Da darf man dann auch nicht immer alles glauben was so geschrieben wird.

Kartenlehrling
2018-02-18, 12:05:29
Motionblur Reduktion kann man nur über 80Hz einsetzten sonst sieht man das flackern, das würde doch schon 1000x diskutiert.

Sam Pau
2018-02-18, 13:31:33
Die 27" Version ist echt flicker-free und soll auch laut einigen User-Berichten leicht bessere responsivness haben.

Die 32" Version nutzt PWM.


Mööööp ... was soll denn dieser Blödsinn? :mad:

Der Teufel scheint hier im Detail zu stecken mit all den vielen Einstellungsmöglichkeiten und komischen Inkompatiblitäten dazwischen.

Du solltest dir erstmal durchlesen, was Motion Blur Reduction überhaupt ist und wie es funktioniert, dann wüsstest du warum es in der aktuellen Form nicht mit FreeSync oder G-Sync funktionieren kann.

Kartenlehrling
2018-02-19, 17:32:43
2AP0FhA5fjk
Samsung Cinema Led screen

In der Nahaufnahme sieht es wie ein Waffelmuster aus, erinnert ein wenig an plasma,
das ist wirklich nur was für Projektionen über 80inch bzw. 2m.


http://www.letsgodigital.org/images/artikelen/47/samsung-premier.jpg

Tesseract
2018-02-19, 17:40:11
Du solltest dir erstmal durchlesen, was Motion Blur Reduction überhaupt ist und wie es funktioniert, dann wüsstest du warum es in der aktuellen Form nicht mit FreeSync oder G-Sync funktionieren kann.
das problem ist, dass der monitor nicht dafür designt wurde ohne das multi-zonen-MBR zu laufen und ein sehr seltsam funktionierendes (garnicht funktionierendes?) overdrive hat, was auf dem VA mit freesync teilweise zu 30ms+ schaltzeiten führt. siehe tftcentral. vielleicht ist das mit aktuelleren firmwares aber inzwischen gefixt.

Der_Korken
2018-02-19, 20:10:18
Du solltest dir erstmal durchlesen, was Motion Blur Reduction überhaupt ist und wie es funktioniert, dann wüsstest du warum es in der aktuellen Form nicht mit FreeSync oder G-Sync funktionieren kann.

Nicht wirklich. Was Motion Blur Reduction ist, wusste ich schon vorher, nämlich ein künstliches Einfügen von Schwarzzeiten zwischen den Frames. Nur warum das nicht mit Free Sync (oder G-Sync) zusammen funktionieren soll, verstehe ich nicht. Wenn man in der Lage ist, das schwarze "Flackern" auf 60, 100, 120 oder 144Hz festzulegen, dann sollte man das doch auch so steuern können, dass die Intervalle variabel mit dem Panel mithalten. Man hat höchstens das Problem, dass man nicht in die Zukunft schauen kann und nicht exakt vorhersagen kann wie lange das nächste Frame angezeigt werden soll, aber wenn man als Annäherung einfach die Dauer des letzten Frames nicht, sollte das für die Praxis gut genug sein. Es ist ja nicht so, dass innerhalb eines Frames die Framerate um mehr als sagen wir mal 5% fluktuiert.

das problem ist, dass der monitor nicht dafür designt wurde ohne das multi-zonen-MBR zu laufen und ein sehr seltsam funktionierendes (garnicht funktionierendes?) overdrive hat, was auf dem VA mit freesync teilweise zu 30ms+ schaltzeiten führt. siehe tftcentral. vielleicht ist das mit aktuelleren firmwares aber inzwischen gefixt.

Der 32er ist bei tftcentral sehr schlecht weggekommen, was die Reaktionszeiten angeht. Da sah es aber auch so aus, als wäre quasi gar kein Overdrive aktiv bzw. die Voreinstellungen haben sich nur durch Motion Blur Reduction unterschieden, nicht aber durch die reinen Schaltzeiten. Dazu 0% Overshoot in allen Konstellationen. Zum 27er habe ich noch keinen Test gefunden, der die Schaltzeiten detalliert misst. Allerdings sollte man wohl nicht allzu optimistisch sein, wenn der 32er schon so abfällt (13ms gemessen, 1ms angegeben ...).

Kartenlehrling
2018-02-19, 20:26:20
Bei den Samsung kann man zum glück firmware aufgespielen, beim 32inch Modell gab es 5 oder 6 updates,
tftcentral.uk hatten nur die ersten zwei updates durchgeführt.



We first of all updated to the latest firmware at the time of testing (v1013.0).
It seems there have been quite a few firmware versions since original release as ours was actually originally on v1005.0).
We know that the latest firmware extends the FreeSync range and makes some other minor undisclosed adjustments to improve performance.
http://www.tftcentral.co.uk/reviews/samsung_c32hg70.htm

FM/201711/20171110103310623/m-HG732CCAA-1016.2.zip
http://www.samsung.com/de/support/model/LC32HG70QQUXEN

Tobalt
2018-02-24, 14:30:52
Korken:

bin auch der meinung dass mit einem bischen guten Willen auch MBR mit variabler Refresh Rate gehen sollte. Aber jetzt ist erstmal 2018 und wir werden mit sinnlos 1000 nit HDR gemolken :(

Vielleicht 2020.

Zu bedenken ist aber, dass dabei die Sync Range erheblich eingeschränkt auf >85 Hz, weil es darunter sonst zu flackern beginnt.

(unsinn gelöscht)

Kartenlehrling
2018-02-24, 15:23:38
Diese Woche war in Köln von LG für Europa die Hausmesse und da sagte der PresseHeini das selbst die 2018er TV-Geräte nur mit einer Vorversion von High Frame Rate (HFR) starte, ohne HDMI zuspielung.
Panel Technisch wären schon die 2017er fähig, aber die fehlende HDMI2.1 Spezifikation haben einen Strich durch die Entwicklung gezogen.

PHuV
2018-03-01, 18:31:03
Vesa Displayport: Dünnere und 100-Meter-Kabel werden Realität (https://www.golem.de/news/vesa-displayport-duennere-und-100-meter-kabel-werden-realitaet-1802-133053.html)

Lowkey
2018-03-02, 16:15:32
Der C49HG90DMU aka 49" ist auf 919 Euro gefallen.

Ph03n!X
2018-03-02, 18:23:51
Welches VESA DisplayHDR hat der?

Ok, nur 600

Kartenlehrling
2018-03-02, 18:25:03
DP1.2+ (also DP1.3/4) , zuerst stand im Menü 1.4 das wurde dann auf DP1.2+ geändert.
Unterstützt auf jedenfall HBR3 und freesync2.

Ph03n!X
2018-03-04, 09:49:03
Was haltet Ihr von sowas ? https://rog.asus.com/tag/bezel-free-kit/

Screemer
2018-03-04, 10:10:06
Das würde ich gern mal auf nicht-Presse-Fotos sehen oder mal live. Kann mir das schon gut vorstellen.

Ph03n!X
2018-03-04, 10:17:16
Ja, das Ganze als 4K HDR 1000 Multimonitor Setup. Ein Träumchen

akuji13
2018-03-04, 10:41:40
Was haltet Ihr von sowas ? https://rog.asus.com/tag/bezel-free-kit/

Wenig.

In einem Autorennspiel sind die Rahhmen ungefähr (!) als die A-Säule wahrnehmbar, in einem shooter evtl. als Elemente eines Helmes.
Diese Verzerrung wirkt irgendwie störend auf mich.

Gecko_0815
2018-03-04, 18:15:20
Was haltet ihr vom LG 32UK950-W?
https://geizhals.de/lg-electronics-32uk950-w-a1763249.html
Wie HDR600 und nur 450 cd/m² zusammen gehen verstehe ich zwar nicht, aber 450 cd/m² ist ja so schlecht nicht. Mein Eizo SX2462W ist nur auf 120 eingestellt. Ich bin auf der Suche nach einem größeren Nachfolger.

akuji13
2018-03-04, 18:58:16
Hat kein LFC und vermutlich wird sich die range auch nicht so weit anpassen lassen.
Außerdem ist es ein IPS was ich persönlich nicht so prickelnd finde.

Ich würde erstmal ein paar Tests/Nutzer reviews abwarten z. B. um Erkenntnisse über die Zonen zum Dimmen zu bekommen.

Gecko_0815
2018-03-04, 19:23:00
Danke für die Einschätzung.
LFC - Synch bei Frameraten < 60 Hz? Ich habe eh Nvidia. Und IPS habe ich beim Eizo auch, sehe auch den Glow bei schwarzen Bild, in der Praxis stört es mich nicht.

Sardaukar.nsn
2018-03-07, 21:09:50
Also dieses Jahr wohl schon mit VRR. Bin gespannt welche Konsole das als erstes unterstützt. Bis dahin über PC mit FreeSync?

Das neue Flaggschiff Q9FN bietet zudem eine Direct-LED-Hintergrundbeleuchtung, was in besseren Kontrastwerten und anderen Bildverbesserungen münden soll. Alle anderen Modelle müssen wie bisher mit Edge LED auskommen. Für Spieler dürfte der spezielle Gaming-Modus interessant sein, der die Latenz auf 15 ms reduziert. Werden eine Xbox oder PlayStation genutzt, kann zudem Variable Refresh Rate (VRR) aktiviert werden.

Quelle: https://www.hardwareluxx.de/index.php/news/consumer-electronics/heimkino/45873-ein-kabel-fuer-alles-samsung-setzt-2018-auf-qled-und-ein-wenig-direct-led.html

dildo4u
2018-03-17, 19:36:50
1dkqYjNE4P4

horn 12
2018-03-17, 20:14:00
Erneut NUR 40 - 60 Hz!
Ansonsten wie schon mein LG 27UD68-P /B einfach Top Monitor.

dildo4u
2018-03-17, 20:59:11
Passt doch gut Vega hängt genau in dem Bereich in 4k.

24p
2018-03-17, 21:49:00
450 nits und 98% sRGB. Was ist daran jetzt neu und vor allem „HDR“?

Tobalt
2018-03-19, 12:54:00
Meinungen der Monitorenthusiasten an dieser 3DC Umfrage erwünscht:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587395

Ectoplasma
2018-03-19, 14:45:22
450 nits und 98% sRGB. Was ist daran jetzt neu und vor allem „HDR“?

Weil sich HDR selbst nicht über NITS definiert und auch nicht über den Farbraum, sondern nur über die Dynamic Range des Luminanzkanals. HDR10 oder Dolby Vision inkludieren die NITS allerdings in ihrer Spezifikation, ebenso den Farbraum. Es ist also immer wichtig mit anzugeben, welche Norm gemeint ist. Wenn da nur HDR steht, sagt das nichts über die NITS oder den Farbraum aus. Man kann auch mit wenig NITS HDRs hervorragend ausgeben. Umgekehrt kann man auch 10000 NITS haben und trotzdem kein HDR darstellen, wenn der niedrigste Wert 5000 NITS beträgt. Letzteres ist jetzt natürlich nur ein übertriebenes Beispiel.

24p
2018-03-19, 18:23:10
Das ist mir schon klar, trotzdem weisst du, worauf ich hinaus will.

PHuV
2018-03-21, 16:10:51
Ich sehe gerade bei mir, daß beim PG279Q mit ULMB nur 120 Hz möglich sind. Per G-Sync habe ich ~144 Hz. Bring G-Sync aus mit ULMB geringere Latzenz, oder ist das egal?

Tesseract
2018-03-21, 18:22:11
der modus sollte egal sein, je höher die Hz umso geringer ist allerdings die latenz. wenn du allerdings tear-frei sein willst hat gsync mit limiter natürlich deutlich weniger latenz als ULMB mit klassischem vsync.

Troyan
2018-03-22, 00:29:10
Die G-Sync HDR Monitore sollen laut nVidia noch im April ausgeliefert und ab Mai im Handel sein: https://www.tweaktown.com/news/61286/nvidias-next-gen-4k-144hz-displays-launch-april/index.html

Kartenlehrling
2018-03-22, 00:34:19
An eine grosse Stückzahl glaube ich nicht mehr, bei so einem Preis.
Wer nicht vorbestellt bekommt vor Weihnachten keinen mehr.

Troyan
2018-03-22, 00:37:06
Ich glaube bei 2500€ muss man sich erstmal keine Sorgen machen. :D

Colin MacLaren
2018-03-22, 08:19:54
Für das Geld nagelt man sich einen LG 2018er, ggf. 2019er OLED an die Wand, da hat man 120Hz und VRR und noch was übrig um die AMD-Karte zu kaufen. Warum sind Monitore immer so irre teuer im Vergleich zu Fernsehern, die eigentlich einen deutlich höheren Materialaufwand haben müssten?

Und QLED halte ich nach wie vor für Augenwischerei und Marketing-Bullshit. Fehlen Samsung die Patente oder warum konnten Sie es zulassen, dass LG sie technologisch so dermaßen nass macht und Samsung keine OLED-Tvs liefert, obwohl sie die besten Handy-Displays bauen?

Ich habe ja nun auch einen QLED Monitor und das ist im Vergleich zum OLED-TV einfach nur lächerlich. Das ist Verbraucher-Verarsche für ComputerBild-Leser. OLED und QLED, klingt ja wie dasselbe...

Rush
2018-03-22, 08:36:52
Die G-Sync HDR Monitore sollen laut nVidia noch im April ausgeliefert und ab Mai im Handel sein: https://www.tweaktown.com/news/61286/nvidias-next-gen-4k-144hz-displays-launch-april/index.html

4K 144Hz. Darauf habe ich gewartet! :freak:

Manchmal fällt es mir wirklich schwer die Industrie zu verstehen.

24p
2018-03-22, 08:46:03
Meanwhile gibt es dann die 2018er OLEDs in 65" für diesen Preis. Dien können 120Hz in 4K dieses Jahr per HDMI auch nur deswegen nicht, weil die HDMI-Schnittstelle auf 2.1 zu spät festgelegt wurde.

akuji13
2018-03-22, 09:09:30
Für das Geld nagelt man sich einen LG 2018er, ggf. 2019er OLED an die Wand, da hat man 120Hz und VRR und noch was übrig um die AMD-Karte zu kaufen. Warum sind Monitore immer so irre teuer im Vergleich zu Fernsehern, die eigentlich einen deutlich höheren Materialaufwand haben müssten?

Ich habe aktuell leider keinen Platz für ein derart großes Gerät als Monitor.
Es passt schlichtweg nicht hin.

Deshalb bin ich da auch in einer Zwickmühle: Als Monitor zu groß, als TV zu klein.