PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 [43] 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72

akuji13
2018-12-18, 18:16:00
TFTCentral hat übrigens kein flimmern erwähnt!
So gründlich wie die sonst sind kann ich mir nicht wirklich vorstellen, dass denen das entgangen wäre.

Ich mir schon.

Denn dazu müsste man nämlich dutzende Spiele über Stunden testen.
Es gibt einen Bereich in Wildlands der flimmerte hier reproduzierbar mit einem Acer 27" G-Sync sobald Himmel im Bild war.

Andere G-Syncs flimmerten dort nicht, dafür woanders...wie dann an wieder anderer Stelle bestimmte FS Modelle.

Zuerst dachte ich natürlich an einen Bug im Spiel, Störungen durch den AB, ReShade usw. aber selbst als alles aus war konnte man jeweils durch aktivieren/deaktivieren das Phänomen nachstellen.

Entweder Voodoo oder der content spielt wirklich eine Rolle in Verbindung mit fps, scaler, firmware, Grafikkarte oder was auch immer.

Savay
2018-12-18, 21:00:28
Ich denke nur wahrlich nicht das es um gelegentliche Aussetzer geht!

Lowkey
2018-12-21, 19:10:54
Eine Full-HD-Ausführung wird mit dem japanischen E-Sport-Team Burning Core explizit für Spieler entwickelt. OLED-Technik erlaubt noch einmal deutlich schnelle Schaltzeiten als TN, was im Gaming-Bereich gerne gesehen ist. Der oben genannte Dell-Monitor ist zum Beispiel mit einer Reaktionszeit von 0,1 ms spezifiziert.


Wenn die Technik besser wird, dann kann mich bald beim 14jähriger Nachbar mit der neusten Hardware noch deutlicher schlagen. Wenn ich die Reaktionzeit von Mongraal (https://www.twitch.tv/mongraal)auf Twitch sehe, dann weiss ich, dass 100 von 100 Games verlieren würde.

Der Junge hat mal eben von 1680x1080 (oder so) durch reines Aufrüsten des Rechners seine Spielfähigkeit um ein paar 100% verbessert.

aufkrawall
2018-12-21, 19:15:57
Wie konnte ich mit 75Hz nur jemals etwas treffen? :rolleyes:

Kartenlehrling
2018-12-22, 22:59:30
Wenn die Technik besser wird,...

Also selbst für OLED würde ich aber nicht wieder bei 1080p anfangen,
auch wenn der Monitor mit 120Hz bzw. 144Hz daher kommt.
OLED, >1000nits, 200hz und 1440p und kleiner als 32" sind meine Wunschmaße.

https://www.4gamer.net/games/999/G999902/20181205131/SS/008.jpg

Lowkey
2018-12-23, 01:15:59
@aufkrawall: eigentlich dürftest du nicht mehr in deinem hohen Alter am PC zocken.

@Kartenlehrling

Der Monitor ist für e-sport gedacht, also weniger für uns, sondern für die Streamer. 0.1 + 14 Jahre alter Gamer = unbesiegbar. Der Junge regt sich sogar über den Ping auf, wenn er für unsere Verhältnisse niedrig scheint.

DavChrFen
2018-12-24, 00:36:10
Der OLED klingt wie endlich einen Nachfolger von meinem Monitor. Größe und Auflösung passen. Aber anscheinend erst im Jahr 2020. Was noch schön wäre, wäre, wenn man optional ein Flimmern einschalten kann (mir fällt der Name dafür gerade nicht ein). Und als Option G-Sync.

just4FunTA
2018-12-24, 00:45:27
Also selbst für OLED würde ich aber nicht wieder bei 1080p anfangen,
auch wenn der Monitor mit 120Hz bzw. 144Hz daher kommt.
OLED, >1000nits, 200hz und 1440p und kleiner als 32" sind meine Wunschmaße.

https://www.4gamer.net/games/999/G999902/20181205131/SS/008.jpg


das hört sich schon toll an, aber 21,6" ist einfach zu klein. :/


Mal sehen was dann wirklich kommt. :)

Benutzername
2018-12-25, 08:06:30
Wie konnte ich mit 75Hz nur jemals etwas treffen? :rolleyes:

Dir ist aber schon klar, daß die Verzögerung auf dem Signalweg von GRafikkarte zu ausgegebenem Bild bei einer Röhre erheblich kürzer war als heite mit HDMI/Displayport?


Und auch schon #damalsnachmkrieg zu Zeiten des Dampfcomputers auf dem Counterstrike Beta lief haben manche für das letzte bisschen Framerate lowpoly Modelle der Spielfiguren installiert. Details runter usw. usf. um ihre jugendlich hohe Reaktionszeit ausnutzen zu können.

-----------------------------

das hört sich schon toll an, aber 21,6" ist einfach zu klein. :/


Mal sehen was dann wirklich kommt. :)


Ich wette, später werden auch größere OLEDs kommen. Und ja, 22" sind etwas klein heutzutage. Naja, muss man sich näher ransetzen, dann sieht der monitor wieder größer aus. :biggrin:

basix
2018-12-31, 15:00:04
Habe heute zum ersten Mal mit einem 4K HDR Monitor rumgespielt (LG 27UK600-W, ausgehend von 1440p). Es ging vor allem darum, wie viel die höhere Auflösung bringt und auch wie sich HDR bemerkbar macht.

Fazit:

Für Spiele ist 4K genial, vor allem bei viel detailreicher Geometrie sowie Vegetation. Zum Beispiel Kingdom Come Deliverance und Witcher 3 profitieren sehr von der höheren Auflösung. Auch Far Cry 5, BF5 und SotTR etc. sind eine Wucht. Vor allem Vegetations- sowie Specular-Flimmern wird deutlich minimiert.
Viele Tools skalieren auch heute nur mässig mit der höheren Auflösung. 4K empfinde ich ausserhalb von Spielen, Filmen und Photobearbeitung nicht als nötig
Die HDR-Farbeinstellungen sind mit Windows und Monitor Standard ein graus. Viel zu knallige Farben (z.B. das 3DC Orange ;))
Ich brauche mehr als 60fps, am besten 100+, somit 120+Hz beim Monitor
Ich brauche FreeSync / G-Sync (der LG Monitor könnte ja FreeSync, Nvidia will aber nicht...). Tearing sucks
Ich brauche geringen Input-Lag


Der Ausflug hat sich für mich als Erfahrung gelohnt. 4K ist auch gefühlt ein grosser Sprung von 1440p, nicht nur auf dem Papier. Aber ich muss definitiv auf 4K / 120Hz / VRR / HDR10 warten. Der 2500 Euro G-Sync Quatsch ist mir aber zuwider, vor allem mit dem Lüfter. Die angesprochenen OLED Monitore hören sich sehr interessant an, aber 27" müssten es schon sein.

Also mein Wunsch:

OLED oder MicroLED / 27" / 4K / 120+Hz / FreeSync / HDR10 / AMD Karten mit doppelter RTX 2080 Ti Performance oder mehr :D


Bis dahin gehe ich zurück auf 1440p G-Sync. Der RoG Swift gefällt mir immer noch sehr. Für TN eine gute Farbwiedergabe, sehr homogene Ausleuchtung, 144Hz, geringer Input-Lag und G-Sync. Leider "nur" 1440p und kein HDR. Der 4K Monitor von LG kommt auf den Schreibtisch meines Vaters. Er wird nächstes Jahr sowieso mit einem neuen PC beglückt inkl. Zen 2 und Navi, das passt dann schon ;)

Reaping_Ant
2018-12-31, 15:28:50
Habe heute zum ersten Mal mit einem 4K HDR Monitor rumgespielt (LG 27UK600-W, ausgehend von 1440p).
Ich hatte die letzte Woche über die gegenteilige Erfahrung. Ich nutze zu Hause und in der Arbeit 4K auf 27", musste aber auf Heimaturlaub mit 1440p (ebenfalls auf 27") vorlieb nehmen. Ich war echt erschrocken, wie unscharf das insbesondere auf dem Desktop ist. Ich könnte damit nicht mehr arbeiten. Nur fürs Zocken würde mir die Entscheidung zwischen 4K und 144Hz schwer fallen, aber als Allrounder eindeutig ersteres. Hoffentlich muss man sich bald nicht mehr entschieden...

aufkrawall
2018-12-31, 15:34:03
Dir ist aber schon klar, daß die Verzögerung auf dem Signalweg von GRafikkarte zu ausgegebenem Bild bei einer Röhre erheblich kürzer war als heite mit HDMI/Displayport?

Das ist nicht korrekt, die Zeit zur Signalverarbeitung ist bei modernen, spieletauglichen Monitoren sehr kurz.

looking glass
2019-01-04, 14:35:14
Gigabyte nun auch mit nem IPS 27 Zoll 144Hz Monitor, non curved, endlich mal wieder was ungebogenes. Freesync im Range 48 - 144Hz, drunter mit LFC. Farbtiefe 10 Bit, wie man das alles aber nicht nur über Displayport, sondern auch über HDMI bekommen will, wage ich ja zu bezweifeln.

https://www.computerbase.de/2019-01/gigabyte-aorus-ad27qd-monitor/

aufkrawall
2019-01-04, 14:41:43
Wird wohl wegen der Aorus-Brand und dem RGB-Schnickschnack überteuert sein. Für 300€ wärs ne nette Sache, wenn die Qualität stimmt.

Ex3cut3r
2019-01-04, 15:17:41
Das könnte mein neuer werden, habe aktuell immer noch meinen Samsung 34" VA mit 3440x1440 Kalibriert @ Gamma 2.2 und 100% sRGB ohne Sync.

https://www.computerbase.de/2019-01/samsung-crg9-49-zoll-monitor-hdr-120-hz/

5120x1440 @ 120hz @ 32:9 @ VA Panel @ 49" Leider nur mit Freesync, habe aber eine Geforce bzw. RTX 2080. :redface:

Habe aber auch noch einen LG 38" mit 3840x1600 (21:10) mit 144hz (175hz OC) und G-Sync gesehen, vlt. wird es eher der werden. LG 38GL950G heißt der.

Da bekomme ich ausgehend von meinem 34" auch etwas mehr höhe, beim 32:9 49" wieder nur mehr Breite, höhe bleibt gleich.

BlacKi
2019-01-04, 17:19:51
Habe aber auch noch einen LG 38" mit 3840x1600 (21:10) mit 144hz (175hz OC) und G-Sync gesehen, vlt. wird es eher der werden. LG 38GL950G heißt der.

Da bekomme ich ausgehend von meinem 34" auch etwas mehr höhe, beim 32:9 49" wieder nur mehr Breite, höhe bleibt gleich.
"Further information can be found on LG’s website with more to come, the monitor itself is not due out until Q3 or Q4 2019.
"
https://pcmonitors.info/lg/lg-38gl950g-curved-3840-x-1600-175hz-nano-ips-g-sync-model/

Ex3cut3r
2019-01-04, 17:23:08
Passt mir, habe es nicht so super eilig bzw. steht hier schon seit 2,5 Jahre ein 34" Gerät. Ist aushaltbar damit. ;)

Troyan
2019-01-07, 06:47:27
Lenovo soll einen 1440p mit 240Hz laut nVidia bringen. Habe noch keine Pressemitteilung gefunden.

HisN
2019-01-07, 07:50:00
5120x1440 @ 120hz @ 32:9 @ VA Panel @ 49" Leider nur mit Freesync, habe aber eine Geforce bzw. RTX 2080. :redface:

Das ist ab dem 15.01. egal.

Die Hölle ist auf der CES zugefrohren.

https://blogs.nvidia.com/blog/2019/01/06/g-sync-displays-ces/

There are hundreds of monitor models available capable of variable refresh rates (VRR) using the VESA DisplayPort Adaptive-Sync protocol. However, the VRR gaming experience can vary widely.

To improve the experience for gamers, NVIDIA will test monitors. Those that pass our validation tests will be G-SYNC Compatible and enabled by default in the GeForce driver.

G-SYNC Compatible tests will identify monitors that deliver a baseline VRR experience on GeForce RTX 20-series and GeForce GTX 10-series graphics cards, and activate their VRR features automatically.

Support for G-SYNC Compatible monitors will begin Jan. 15 with the launch of our first 2019 Game Ready driver. Already, 12 monitors have been validated as G-SYNC Compatible (from the 400 we have tested so far). We’ll continue to test monitors and update our support list. For gamers who have monitors that we have not yet tested, or that have failed validation, we’ll give you an option to manually enable VRR, too.

basix
2019-01-07, 08:18:07
Das ist ab dem 15.01. egal.

Die Hölle ist auf der CES zugefrohren.

https://blogs.nvidia.com/blog/2019/01/06/g-sync-displays-ces/

:eek::eek::eek:

Und Samsung stellt MicroLED in 4K auf 75" vor. Das sind doch mal unverhoffte Entwicklungen :D
https://www.computerbase.de/2019-01/samsung-microled-fernseher-ces-2019/

Linmoum
2019-01-07, 08:44:58
Damit sind die BFGD dann auch quasi tot. ;D

M4xw0lf
2019-01-07, 09:08:36
Das ist ab dem 15.01. egal.

Die Hölle ist auf der CES zugefrohren.

https://blogs.nvidia.com/blog/2019/01/06/g-sync-displays-ces/
Warte mal, die führen da das a-Sync Modell des neuen Acer Nitro auf, von dem auch eine 300-500€ teurere G-Sync Version existiert :ulol:

Kartenlehrling
2019-01-07, 09:21:25
https://www.ustream.tv/NVIDIA

Ab 1:10Uhr sagt er es, ... auf einmal geht A-sync auf über 550+ Monitor die schon im Handel sind. :biggrin:

derF
2019-01-07, 09:29:30
Wow! Ändert nix an meiner Kaufeinstellung, aber ein zwar später aber guter Move für gemolkene nVidia-Käufer. :uhippie:

Tobalt
2019-01-07, 12:19:22
Tolle news, aber bei mir persönlich müssen die negativ punkte von nv noch über eine gewisse zeit schrittweise angebaut werden.

dreas
2019-01-07, 12:23:20
ok, g-sync ist tot. was machen die hersteller jetzt mit ihrem alten unverkäuflichen mist?

Nightspider
2019-01-07, 13:11:42
Super.

War ja nur noch eine Frage der Zeit bis Nvidia Freesync supported. Gerade jetzt wo alle zukünftigen Fernseher das auch supporten.

Fuck you Nvidia sag ich da nur. ^^

Sven77
2019-01-07, 13:13:54
Fuck you Nvidia sag ich da nur. ^^

nVidia unterstütz kein A-Sync = Fuck you nVidia
nVidia unterstützt A-Sync = Fuck you nVidia
:confused:

looking glass
2019-01-07, 13:31:12
Find ich gut das Nvidia endlich auch bei dem Standard mitzieht und ich finde es ebenfalls gut, das sie bei dem Standard halt schauen, wer tatsächlich was brauchbares abliefert (sie also selektieren).

Sry aber das Freesync Label ist einfach ein schlechter Witz, Rangebereich 48 - 60Hz bumms hast das Siegel, lächerlich.

Der_Korken
2019-01-07, 13:35:57
nVidia unterstütz kein A-Sync = Fuck you nVidia
nVidia unterstützt A-Sync = Fuck you nVidia
nVidia unterstützt A-Sync erst nach zig Jahren weil sie erst noch fett abkassieren wollten = Fuck you nVidia


ftfy ;)

Sehr überraschende News. Wobei es eigentlich abzusehen war, gerade weil die TV-Hersteller und bald auch Intel auf den freien Standard setzen. Für mich persönlich war die Inkompatiblität zu FreeSync-Monitoren schon ein echter Minuspunkt beim Graka-Kauf. Könnte für AMD also sogar negativ sein, weil sie jetzt nicht mehr das Alleinstellungsmerkmal für günstige VRR-Monitore haben. Für die technische Entwicklung ist es aber auf jeden Fall gut, dass der Markt nicht mehr künstlich fragmentiert ist.

robbitop
2019-01-07, 13:38:38
nVidia unterstütz kein A-Sync = Fuck you nVidia
nVidia unterstützt A-Sync = Fuck you nVidia
:confused:
Der Korken beschreibt es recht gut. ;)

Angeblich soll NV kein Framedoubling implementiert haben - das wäre Freesync vom Stand 2014. Gerade Framedoubling erweitert die VRR Ranges ja nochmal ordentlich und ist eines der wichtigsten Funktionen.

JVC
2019-01-07, 14:48:39
Angeblich soll NV kein Framedoubling implementiert haben - das wäre Freesync vom Stand 2014. Gerade Framedoubling erweitert die VRR Ranges ja nochmal ordentlich und ist eines der wichtigsten Funktionen.

Oha, ok das wäre nicht so gut :eek:
Kann ich mir aber schlecht vorstellen, da es wie du schon schreibst,
ein sehr wichtiges Funktion ist.

http://www.pcgameshardware.de/Fernseher-Hardware-134500/Tests/Samsung-Q9FN-Freesync-TV-1268364/
"Samsung Q9FN im Test: Kann Freesync am TV überzeugen?"
"Auf der Seite der TVs jedenfalls dürfte der Samsung Q9FN mit Freesync 2 HDR,
120 Hz und guter Bildqualität das aktuell beste Modell fürs Wohnzimmer-Gaming sein."
"Kurz gesagt: absolut spieletauglich."
Der würde mich fast schon reizen ^^
8K dauert mir irgendwie noch zu lange :rolleyes:

m.f.g. JVC

looking glass
2019-01-07, 15:07:55
Wäre die Implementierung denn so aufwendig, oder gar komplett unmöglich? Ich mein, wenn das "nur" ein Treiberfeature ist, mei, dann kommt das halt in den nächsten Versionen und fertig.

dargo
2019-01-07, 15:20:25
Find ich gut das Nvidia endlich auch bei dem Standard mitzieht und ich finde es ebenfalls gut, das sie bei dem Standard halt schauen, wer tatsächlich was brauchbares abliefert (sie also selektieren).

Sry aber das Freesync Label ist einfach ein schlechter Witz, Rangebereich 48 - 60Hz bumms hast das Siegel, lächerlich.
Komisch... beim Kauf einer Grafikkarte informiert sich hier jeder, warum nicht beim Bildschirm? Und falls du den 08/15 Hans meinst... der wird mit hoher Wahrscheinlichkeit beim Bildschirm eh einen komplett ohne VRR erwischen weil er nur nach dem Preis geht.

JVC
2019-01-07, 15:42:52
Angeblich soll NV kein Framedoubling implementiert haben -
https://www.golem.de/news/gaming-displays-nvidia-oeffnet-sich-fuer-adaptive-sync-1901-138536.html
"Mit G-Sync Compatible gekennzeichnet sind bisher einzig Monitore, deren maximale Frequenz mindestens das 2,4fache der minimalen beträgt. Hintergrund ist vermutlich das Frame Doubling, also wenn die Grafikkarte wenig Bilder liefert und einige dann zwei Refreshs lang angezeigt werden. Wenn das Display nur 40 Hz bis 60 Hz beherrscht, klappt das ergo nicht."

Klingt nicht so als würden sie es nicht unterstützen ...
Vielleicht kommt sowas wie
"Gree-Sync 1 -Ready" (ohne Framedoubling)
"Gree-Sync 2 -Ready" (mit Framedoubling)

m.f.g. JVC

dargo
2019-01-07, 15:58:24
Das mit dem min. 2,4 Faktor ist mir noch zu intrasparent. Der Asus MG279Q z.B hat einen Faktor von 2,57 und steht nicht auf der "Liste". Das braucht wohl noch einiges an Zeit. Da fehlen noch so viele Monitore.

JVC
2019-01-07, 17:01:15
Angeblich soll jeder Monitor der "Free-Sync" hat unterstützt werden ...
https://www.guru3d.com/news-story/nv...ompatible.html
"NVIDIA To support VESA Adaptive-Sync Technology

Not certified monitors will work as well by manually enabling the mode."

Dauert wohl ne Weile bis NV alles "gründlich geprüft" hat.
Obwohl sie nur prüfen müssten ob die eigene Graka den VESA-Standard VBLANK unterstützt.

Monitore werden wohl kein neues "Ready-irgendwas" Pickerl bekommen :uponder:

Soll doch NV doch ein "Free-Sync Ready" Pickerl auf ihre Grakas kleben :tongue:

m.f.g. JVC

dargo
2019-01-07, 17:40:09
Abwarten... wenn nachher A-Sync läuft, es aber hier und da zum Flackern kommt nützt das auch keinem was.

TwoBeers
2019-01-07, 23:42:35
Für mich liest sich Nvidias Liste bisher so, als ob die einfach das Alphabet durchgehen, Acer, Asus, BenQ.
Viewsonic braucht dann noch nen bissel. ;)

MusicIsMyLife
2019-01-08, 09:04:32
Ich habe mich gestern Abend erneut mit dem Philips Momentum 436M6VBPAB beschäftigt.

Hat oder hatte jemand hier diesen Monitor?

Ich habe gestern einige Reviews überflogen und auch bei Amazon die Kundenrezensionen gelesen. Zwei Dinge sind mir dabei aufgefallen:

1. Es wird von einem ungewöhnlichen Subpixel-Layout von BGR gesprochen.
2. In einem Review und in einer Renzension wird Dithering negativ erwähnt.

Bei 1. bin ich entspannt. Erstens hat mein aktueller BDM4065UC auch dieses Layout und zweitens fällt mir das nicht negativ auf. An der Stelle stellt sich mir aber eine Frage:

Beim Hardwareluxx-Review kommentierte ein User sinngemäß "BGR = schei*e". Dabei handelt es sich doch genau um die spiegelverkehrte Variante von RGB. Nach meiner Logik müsste doch etwas, was mit der BGR-Aufteilung schlecht aussieht, auch mit einer RGB-Aufteilung schlecht aussehen - nur maximal spiegelverkehrt. Wenn eine Kante unscharf wirkt, so müsste die auch mit der gebräuchlicheren Aufteilung unscharf wirken, vielleicht halt auf der anderen Seite.

Ist diese Logik so korrekt oder spielen da noch andere Faktoren mit rein? Falls das eine Noob-Frage sein sollte, bitte ich um Nachsicht... ;)

Zudem:
Dann hänge ich das Ding auf dem Kopf an meine Vesa-Halterung und drehe im Treiber die Bildausgabe um 180 Grad - schon hab ich wieder RGB... :D

Bei 2., also dem Dithering, bin ich aber etwas skeptisch. Denn auf den Bildern eines Reviews sieht das schon äußerst merkwürdig aus. Aufgrund der geringeren Pixeldichte gegenüber meinem 4065UC kann ich mir vorstellen, dass mich das stören könnte. Deshalb wären mir Erfahrungswerte mit dem Gerät lieb...

Bei Amazon meinte ein User, dass er Dithering im Treiber deaktiviert hätte (ich nehme mal an, er hat auf 8 bit gestellt), dass der Monitor aber trotzdem je nach Content/Farbe ein Schachbrettmuster anzeigt. Das schreckt mich ehrlich gesagt etwas ab...

Kann jemand Erfahrungswerte nennen?!

Robspassion
2019-01-09, 17:50:25
Alienware: OLED-Monitor mit 4K UHD und 120 Hz auf 55 Zoll

https://www.computerbase.de/2019-01/dell-alienware-55-oled-monitor-4k-uhd-120-hz/

Hört sich vom Papier her erstmal ganz nice an. Kleiner wäre natürlich super als Monitor.

Sardaukar.nsn
2019-01-09, 20:00:54
Dieses Jahr scheint endlich Bewegung in den Markt zu kommen. Super natürlich auch die Entscheidung von nVidia sich zu öffnen und FreeSync und (eigentlich logisch, bald auch HDMI 2.1 VRR) zu unterstützen.

Zusammenfassung von Eurogamer fand ich ganz informativ: https://www.eurogamer.net/articles/digitalfoundry-2019-01-09-best-gaming-monitors-of-ces-2019-7030

Trotzdem wäre mein TV/Monitor ein 2019er LG OLED (C9?) mit HDMI 2.1.

yamo
2019-01-10, 13:58:59
Ich find´s dennoch öde bezüglich Auflösung/Displaygröße. Ich muß mir kein 32:9 4k mit ner ppi eines FHD vor meine altersmüden Klüsen stellen.
Der LG 34WK95U-W 34" 21:9 UltraWide™ WUHD (5120 x 2160) Nano IPS Monitor klang sexy,
aber nur 60 Hz und kein A-Sync.
Sowas mit 120 Hz + Freesync 2 wäre mir ein Downgrade wert.

HisN
2019-01-10, 14:28:01
Asus zeigt Mini-Led-Prototyp.
Ich bin so froh das mein 4 Jahre alter UHD Monitor noch läuft wie am ersten Tag. Hoffentlich hält er solange durch, bis man sowas kaufen kann.

https://www.computerbase.de/2019-01/asus-proart-pa32ucx-monitor-prototyp-mini-leds/

Kartenlehrling
2019-01-10, 14:46:15
MiniLED leiden aber immer noch an Helo-Leuchten, für einen TV wo man 2 bzw. 3 Meter weg sitzt ist das vielleicht egal,
aber nicht für einen Monitor mit 30-50cm Abstand.
Erst mit den von Samsung vorgestellen MicroLED die wirlich alle 3 Farben selbst Leuchten,
wird es besser sein als OLED, kein Nachleuchten, Schlieren und Einbrennen.


Hisense bringt eine Technik, wo sie für das Backlight ein Graustufen-Bild in 1080p Auflösung herstellen und
dann erst durch ein 4k-UHD Nano-Farbschicht schicken. Das könnte das Helo-Leuchten minimieren.
Das erinnert ein wenig an Sony Backlight Master Drive.

https://o.aolcdn.com/images/dims?resize=2000%2C2000%2Cshrink&image_uri=https%3A%2F%2Fs.yimg.com%2Fos%2Fcreatr-uploaded-images%2F2019-01%2F63d0ae90-12b2-11e9-b6af-834baa6e6351&client=a1acac3e1b3290917d92&signature=b7ab8180d01cced502445869c1a4e0b70812a475
https://o.aolcdn.com/images/dims?quality=85&image_uri=https%3A%2F%2Fo.aolcdn.com%2Fimages%2Fdims%3Fresize%3D2000%252C2000%25 2Cshrink%26image_uri%3Dhttps%253A%252F%252Fs.yimg.com%252Fos%252Fcreatr-uploaded-images%252F2019-01%252Fb9537190-12a8-11e9-bcff-2eb6fe23e520%26client%3Da1acac3e1b3290917d92%26signature%3D117e023f3df38bfcd1c1a 8acddf1d8644632fc4a&client=amp-blogside-v2&signature=d415ac3ab4353cab6e21dd33fd53714989d5ec29

M4xw0lf
2019-01-10, 14:55:53
Asus zeigt Mini-Led-Prototyp.
Ich bin so froh das mein 4 Jahre alter UHD Monitor noch läuft wie am ersten Tag. Hoffentlich hält er solange durch, bis man sowas kaufen kann.

https://www.computerbase.de/2019-01/asus-proart-pa32ucx-monitor-prototyp-mini-leds/
1152 dimmbare Zonen sind immer noch nur ein 8000stel der akzeptablen Anzahl bei einem 4k Panel :tongue:

HisN
2019-01-10, 15:14:31
Na dann hab ich das mal wieder voll vermischt. Dachte der Micro-Led-Alarm kommt langsam ins rollen.

24p
2019-01-10, 15:37:34
Ein Glück, dass ich nicht den Prototyp mit dem lauten Gsync Modul für 2500€ gekauft habe. Da würde ich mich jetzt massiv ärgern.

MadManniMan
2019-01-10, 15:56:05
Gibt es inzwischen eigentlich ordentliche Roundups von Freesync-Monitoren?

MusicIsMyLife
2019-01-15, 10:25:46
Ich habe mich gestern Abend erneut mit dem Philips Momentum 436M6VBPAB beschäftigt.
...
Kann jemand Erfahrungswerte nennen?!

Nachdem hier scheinbar noch niemand Erfahrungen mit dem Philips Momentum gemacht hat, habe ich mir das Ding letzte Woche bestellt, um die Erfahrungen selbst zu machen. Gestern kam das Monster an.

Nach rund einer halben Stunde habe ich ihn wieder eingepackt und werde ihn zurückschicken!

Insgesamt stören mich einige Dinge an dem Gerät. Allen voran ist das Dithering eine Katastrophe. Egal, ob es sich um größere einfarbige Flächen handelt oder mein buntes Hintergrundbild - ich nehme Dithering fast überall so stark wahr, dass es unangenehm ist. Ob die Kopfbereiche in Word (blau), Excel (grün), die Kacheln im Windows-10-Startmenü oder selbst auf einigen Internetseiten - überall fällt das negativ auf.

Was mich zu der Frage führt, warum das kaum einer thematisiert. Ich habe einige Tests überflogen und nur in einem wurde das überhaupt benannt. Sind die Tester alle blind?! Bekommen die ausgesuchte Testsamples, wo alles erste Sahne ist? Oder gehen die nur mit Ihrem Testequipment zu Werke, ohne auch nur einmal selbst vor dem Monitor zu sitzen?! Sorry, aber ich verstehe das nicht...

Das Dithering ist aber nicht der einzige Punkt. Die Ausleuchtung ist kaum besser als bei meinem knapp vier Jahre alten BDM4065UC, welcher insbesondere bei großen grauen Flächen eine sehr ungleichmäßige Helligkeitsverteilung aufweist.

Dann wäre da noch eine unangenehme Helligkeitsverteilung je nach Blickwinkel. Die ist zwar schwer zu erklären, ich versuche es aber trotzdem mal. Sitzt man mittig davor und hat einen sehr dunklen Bildinhalt, so ist in der Bildschirmmitte ein breiter senkrechter Streifen sehr schön dunkel. Rechts und links daneben sind jedoch etwas hellere Streifen zu sehen und ganz am rechten/linken Rand sind die Bereiche wieder schön dunkel. Diese Verteilung ändert sich je nach Blickwinkel bzw. Sitzposition. Ich vergleiche das am ehesten mit Lamellen vor einem Fenster: Von einer Position aus kann man an einer Stelle durch die Lamellen durchschauen, bei anderen Stellen wird der Blick dank anderem Blickwinkel durch die Lamellen versperrt. Ändert man seine Position, so ändert sich auch die Stelle, wo man durchschauen kann.

So ähnlich ist hier der Eindruck. Das führt dazu, dass selbst bei Office-Arbeiten rechts und links ein spürbar dunkler Streifen wahrnehmbar ist, welcher sich je nach Sitzposition verschiebt. Das war beim BDM4065UC definitiv nicht so krass ausgeprägt.

In Sachen Spielen habe ich nur Far Cry 5 ausprobiert - was mir aber auch ausgereicht hat. Das Bild wirkt auf mich unrund - irgendwie verpixelt. Ob das nun am Dithering liegt oder an der leicht geringeren Pixeldichte sei mal dahingestellt. Ich empfand das Bild jedenfalls als nicht schön. Fast hatte es den Eindruck, als würde es rauschen (ähnlich einem zu hohen ISO-Wert auf einem Foto).

Obendrein dachte ich in einem Moment, dass das Gerät vor meinen Augen kaputtgegangen sei. Ich hatte gerade Far Cry 5 gestartet und den HDR-Modus im Spiel aktiviert, als rund ein Drittel des Bildes (hauptsächlich links und mittig unten) sehr dunkel waren und auch blieben. Man konnte zwar noch Bildinhalt erkennen, es war jedoch irgendetwas nicht in Ordnung.

Far Cry 5 aus - noch immer viel zu dunkel. PC-Reboot - noch immer viel zu dunkel. Monitor aus und wieder an - siehe da, wieder alles normal. Ich hatte den Eindruck, als wäre das Local Dimming in einem Zustand "hängen" geblieben. Ob Firmwarefehler, Inkompatibilität oder Defekt ist mir dabei völlig egal. Wenn sowas öfter passieren sollte ist das absolut nicht akzeptabel.

Da das Gerät obendrein auch noch zu schwer für meine Wandhalterung ist und keinen VGA-Anschluss mehr bietet (das wusste ich vorher und es wäre verschmerzbar gewesen, wenn es die einzigen Einschränkungen wären), geht das Ding postwendend zurück.

Zurück bleibe ich mir meiner obigen Frage: Warum fällt sowas keinem auf? Da gibt es etliche Reviews zum Monitor und in den Redaktionen beschäftigt man sich stundenlang mit dem Gerät - trotzdem fällt es kaum jemandem auf. Und ich mit meinem ungeschulten Auge stelle innerhalb einer halben Stunde derart viele Ecken und Kanten fest, dass ich das Teil schnellstmöglich retournieren will - da läuft doch irgendwas schief... :(

akuji13
2019-01-16, 08:39:07
Das fällt deshalb nicht auf weil die meisten "reviews" nicht mehr als ein erweitertes unboxing sind.

Es macht sich ja auch wie es scheint fast keiner eine Liste von Punkten die es zu kontrollieren gilt.

Lowkey
2019-01-16, 08:57:55
Meine nagelneuen Monitore sind am ersten Tag immer eine Katastrophe. Nach einer Woche sind meistens die Ausleuchtungsprobleme weg.

Mayhem
2019-01-16, 09:45:02
Erst mit den von Samsung vorgestellen MicroLED die wirlich alle 3 Farben selbst Leuchten, wird es besser sein als OLED, kein Nachleuchten, Schlieren und Einbrennen.

Qualität muss man erstmal abwarten, der Preis wird sicher sehr viel höher als OLED sein. Das wird erstmal ein kleiner exklusiver Luxusmarkt bleiben. Warum würde Samsung sonst jetzt selbst noch auf OLED Zug aufspringen?


Hisense bringt eine Technik, wo sie für das Backlight ein Graustufen-Bild in 1080p Auflösung herstellen und
dann erst durch ein 4k-UHD Nano-Farbschicht schicken. Das könnte das Helo-Leuchten minimieren.
Das erinnert ein wenig an Sony Backlight Master Drive.

Hatte Panasonic vor ein paar Jahren auch vorgestellt (https://www.heise.de/newsticker/meldung/Panasonic-attackiert-OLEDs-mit-kontraststarkem-IPS-Display-3562128.html). Kam da ein Gerät dazu raus? War bestimmt teuer und von der Qualität (Blickwinkel, Leuchtdichte bzw. Stromverbrauch) bescheiden.

Kartenlehrling
2019-01-16, 10:13:16
Hatte Panasonic vor ein paar Jahren auch vorgestellt. Kam da ein Gerät dazu raus?

Die gibts es doch, heißen Referenz 4k HDR Monitor und kosten nur 17.000,00€. (ftp://ftp.panasonic.com/provideo/bt4lh310p/bt-4lh310p_brochure.pdf)
Hisense ULED XD TV werden aber nicht so teuer sein.

STdZ_kiHYEY
This TV changes EVERYTHING

Mayhem
2019-01-16, 10:37:04
Die gibts es doch, heißen Referenz 4k HDR Monitor und kosten nur 17.000,00€. (ftp://ftp.panasonic.com/provideo/bt4lh310p/bt-4lh310p_brochure.pdf)
Hmm, wo ist da der Hinweis, dass das der Dual-Layer-LCD ist?


https://youtu.be/STdZ_kiHYEY
This TV changes EVERYTHING


Ich seh da nur Halos (https://youtu.be/STdZ_kiHYEY?t=142) wie bei anderen FALDs. Das ist weit von OLED Quali. Das Geblubber von Linus ist schon fast ekelhaft. Liest der das ab?

Kartenlehrling
2019-01-16, 13:06:49
Das ist von der Kamera, wenn du es Live betrachtes würde es "weniger" Leuchten.

Mayhem
2019-01-16, 13:12:09
Oh ja... ich gugg mir lieber Alien, Star Wars, Interstellar, Gravity heut abend aufm OLED, ohne "weniger" Leuchten an.
Aber jo, der HiSense changes everything...

Savay
2019-01-16, 14:51:39
Das ist von der Kamera

Fettige Frontlinse? :freak:
Das sieht definitiv nicht so aus als wenn es von der Kamera käme...erstens flackern sie und zweitens laggen sie dem Bild hinterher.

BlacKi
2019-01-16, 15:43:01
Oh ja... ich gugg mir lieber Alien, Star Wars, Interstellar, Gravity heut abend aufm OLED, ohne "weniger" Leuchten an.
Aber jo, der HiSense changes everything...
Umad bro?:biggrin:

Mayhem
2019-01-16, 16:39:11
Umad bro?:biggrin:
War nur beispielhaft

Gast
2019-01-16, 21:48:53
Die gibts es doch, heißen Referenz 4k HDR Monitor und kosten nur 17.000,00€. (ftp://ftp.panasonic.com/provideo/bt4lh310p/bt-4lh310p_brochure.pdf)
Hisense ULED XD TV werden aber nicht so teuer sein.

https://youtu.be/STdZ_kiHYEY
This TV changes EVERYTHING


Der "Hintergrund-LCD" kann Licht auch nicht perfekt Blocken, man bekommt damit also bestenfalls ein verdoppeltes natives Kontrastverhältnis gegenüber einem "normalen" LCD, real sogar etwas weniger, weil die Flüssigkristallschicht ja auch im durchlässigen Modus nicht perfekt durchlässig ist und damit Helligkeit kostet.

Dass das auf der hellen Messeumgebung gut aussieht glaub ich ja, aber ich kann mir nicht vorstellen, dass das nur annähernd ans perfekte Schwarz eines OLEDs in abgedunkelter Umgebung rankommt.

Von den anderen Vorteilen wie der besseren Schaltgeschwindigkeit bei OLED muss man gar nicht reden.

5CH4CHT3L
2019-01-18, 22:17:10
Der "Hintergrund-LCD" kann Licht auch nicht perfekt Blocken, man bekommt damit also bestenfalls ein verdoppeltes natives Kontrastverhältnis gegenüber einem "normalen" LCD

Falsch. Der maximal erreichbare Kontrast quadriert sich.
Aus 1:1000 wird 1:1000000.

(Außer durch das erste Panel gelangt nur bestimmtes Polarisiertes Licht, welches auch eher durch das zweite Panel gelangt. Dann würde der Kontrast sogar gleich bleiben können.)

M4xw0lf
2019-01-21, 13:02:11
Bildwechsel OLED vs IPS: https://www.blurbusters.com/high-speed-video-of-oled-refresh-cycles-at-960fps/

Ph03n!X
2019-01-26, 16:57:33
Was würdet Ihr aktuell bei einem 40 Zoll Monitor empfehlen?

Sollte 4K beherrschen und HDR

Oder doch lieber noch warten?

MicroLed wird erst in ein paar Jahren ein Thema sein

BlacKi
2019-01-26, 17:24:05
wenn async dir wichtig ist, dann gibts nur einen zu kaufen der das bringt.

Kartenlehrling
2019-01-29, 19:50:26
USI-T(Unified Standard Interface for TV) 2.0
Samsung’s USI-T 2.0 interface in the 8K DDI brings significant advancements in performance and efficiency
The 8K DDI reaches industry’s highest intra-panel interface speed at 4Gbps, allowing ultra-high resolutions in bezel-less TVs
https://news.samsung.com/global/samsung-enables-stunning-picture-quality-and-elegant-designs-in-8k-tvs-with-advanced-display-driver-ic

Das klingt nach niedrige Inputlags und dünne randlose TV, vielleicht auch Monitor.

Troyan
2019-02-01, 10:06:25
Amazon hat als Warehouse-Deal den Acer Predator X27 für 1500€ rausgehauen. Laut Beschreibung wohl ziemlich ramponiert. :D
Ich habe mal zugeschlagen. Mal sehen, ob ich 4K unbedingt benötige. Bin viel mehr über das Local Dimming und HDR1000 gespannt.

drmaniac
2019-02-01, 19:54:00
Ich hab gestern beim Phillips zugeschlagen, er war bei Amazon für 599 (https://www.amazon.de/gp/product/B07CRW3V31),-- drin.


Philips 436M6VBPAB/00 108 cm (42,5 Zoll) Konsolen Monitor (HDMI, USB Typ-C, USB Hub, 4ms Reaktionszeit, DisplayPort, Mini DisplayPort, 60 Hz, 3840x2160, Ambiglow) schwarz

Finde ich unschlagbar für den Preis:

- 43 Zoll

- MVA Panel (finde ich pers. besser wie IPS, kein Lightbleeding, mehr Kontrast, bessere Farben)

- 4K

- Quantum Dot

- HDR 1000

- Adaptyve Sync (auf YT getestet (https://www.youtube.com/watch?v=3brQ8VQEjXI), kompatibel mit NVIDIA Gsync)

- Ambiglow (Leds am Bildschirmrandboden beleuchten den Tisch passend zum Content)

- HDMI 2.0, DP 1.4 (die 1.2 ist eine fehlerhafte Beschreibung), es funktioniert bei DP 4K und HDR

- Dim Zonen

sehr(!) detailiertes Review:

https://pcmonitors.info/reviews/philips-436m6vbpab/

unter HDR *normal* Black luminance (cd/m²)= 0,02 und Kontrast 1:17767


Also er kann keine 120hz okay. Aber ansonsten finde ich die Ausstattung für den Preis einfach heftig.

Troyan
2019-02-01, 20:40:18
Lässt sich die Range vergrößern? 48Hz bis 60Hz ist jetzt nicht so prickelnd...

Ex3cut3r
2019-02-01, 23:09:13
Tolles Gerät sehe da nur 3 für mich persönliche Kritikpunkte.

43" zu groß | Für 4K "Witz Dpi" Niedriger als 27"@ 1440p
Reaktionszeiten wahrscheinlich zu langsam
Zu wenig HZ.

Aber ansonsten Top. Viel Spaß damit. :up:

Troyan
2019-02-03, 09:11:12
Habe seit gestern den Acer X27 und entgegen Amazons Meinung ist das Gerät in 100% einwandfreier äußerer Verfassung. Soll mir erstmal nur recht sein.

Der Ersteindruck ist beeindruckend. Ein IPS-Panel mit einem Schwarzwert auf VA-Niveau ist schon beachtlich. Die Halos beim Local Dimming sieht man. Vor Allem wenn man wie in BF5 schwarze Ladebildschirme mit Icons und Mauszeiger hat. Aber Ingame ist das bis auf extreme Ausnahmen kaum sichtbar. Und mich stört es auch nicht, da ich Halos vom Fernsehr gewohnt bin.

Ich habe auch zum ersten Mal HDR in Spielen gesehen und mein Gott. :eek: Da stimmt der Spruch "Seeing is believing". Das ist mit diesem HDR1000 und LD Monitor eine Qualität, die ich so nicht erwarte habe. Anthem war am Anfang unspielbar: Überall blitzt, man wird geblendet, die Farben. Unglaublich. Battlefield 5 sieht gleich um Längen besser aus.

Dagegen steht 4K. Ist mein erster 4K Monitor. Und ich sehe es nicht. Finde ich auf 27" komplett überbewertet. Habe Final Fantasy 15 getestet und ich ziehe DLSS immer noch 4K+TAA vor. Egal ob Downsampling auf 1440p oder jetzt mit richtigen 4K.

Des Weiteren holt man sich noch nette Fehler ein: Die Skalierung in Windows ist grottig. 100% ist viel zu klein. Ich brauche 150% und das sieht dann nicht mehr besser aus. Meine 2080TI benötigt deutlich mehr Strom und taktet sich nun im Firefox immer sofort hoch. Alleine den Mauszeiger zu bewegen erhöht den Stromverbrauch...

So ein Monitor mit 1440p wäre absolut perfekt und ausreichend. Leistung für 4K gibt es heute sowieso nicht und auf Bildqualität für native Ansteuerung zu verzichten, ist genauso unbefriedigend. Die Interpolation vom X27 ist dagegen wirklich gut. Sehe kaum Unterschiede 27" 1440p. Ein Hoch auf das Alter und die schlechter werdenden Augen. :freak:

Im Warehouse von Amazon hat es mich leicht mehr als 1500€ gekostet. Für das Paket ist das ein Preis, der okay ist.

Ein Nachteil der G-Sync HDR1000 Monitore ist jedoch, dass die intern immer mit 4K laufen. Niedrige Auflösungen werden also nicht übernommen sondern immer in "nativen" 4K interpoliert. Heißt also, wenn man mit 1440p spielt, muss man weiterhin 98Hz einstellen, um "10bit" zu erhalten. Ist nicht gerade überzeugend, aber 98Hz ist am Ende noch okay.

SamLombardo
2019-02-03, 17:41:48
Ich habe auch zum ersten Mal HDR in Spielen gesehen und mein Gott. :eek: Da stimmt der Spruch "Seeing is believing". Das ist mit diesem HDR1000 und LD Monitor eine Qualität, die ich so nicht erwarte habe. Anthem war am Anfang unspielbar: Überall blitzt, man wird geblendet, die Farben. Unglaublich. Battlefield 5 sieht gleich um Längen besser aus.

na dann hol dir mal die beiden neuesten Assassins Creed Teile (Origins und Odyssey) oder auch Shadow of the Tomb Raider. Unfassbar geil was da in HDR aufgefahren wird:eek:. Im Vergleich wirken die SDR Varianten richtig flau. HDR kann dich versauen;)

Kartenlehrling
2019-02-15, 13:03:51
Die neuen Samsungs TV die diese Woche in Portugal Euro-Heimmesse gezeigt wurden, haben eine Blickwinkelstabilität die wirklich beeindruckend ist.
Da kann man nur hoffen das diese Technik auch auf den Monitore übertragbar ist.

Einen Unterschied, den wir auch subjektiv wahrnehmen können, ist der Einsatz der neuen „Ultra Viewing Angle“-Technologie.
Es wird verhindert, dass Lichtstrahlen bereits vor dem Austritt aus dem Display streuen und an Leuchtkraft/Farbe verlieren.
Erst auf der letzten Schicht, streut das Licht in alle Richtungen. Das resultiert dann in einem deutlich besseren Blickwinkel.

Gast
2019-02-16, 15:08:19
na dann hol dir mal die beiden neuesten Assassins Creed Teile (Origins und Odyssey) oder auch Shadow of the Tomb Raider. Unfassbar geil was da in HDR aufgefahren wird:eek:. Im Vergleich wirken die SDR Varianten richtig flau. HDR kann dich versauen;)

Aber nur auf einem OLED. Auf einem LCD ist HDR mehr eine Farce, weil bei HDR kommt es eben weniger auf die maximale Helligkeit an, sondern wie die Bezeichnung sagt auf die dynamic range, und den LCDs fehlt einfach die Range um das vernünftig darstellen zu können.

Troyan
2019-02-17, 08:20:08
HDR funktioniert natürlich auch auf einem LCD. Ich habe hier ja die 384 Zonen Version von Acer und es sieht klasse aus. Im dunklen Zimmer poppt es links und rechts nur so auf.

Kritisch ist es bei LCDs nur dann, wenn man wirklich auf (fast) absolute Dunkelheit mit hellen Punkten trifft.

Ich spiele zur Zeit auch Metro Exodus und in Kombination mit Raytracing ist "Dunkelheit" deutlich dunkler. Das poppt gleich viel mehr auf dem Bildschirm. Das muss man gesehen haben, um es zu glauben.

SamLombardo
2019-02-17, 08:20:25
Gast, Das brauchst du mir nicht zu sagen;), ich habe einen 55er OLED als PC Monitor. Eben weil ich nach wirklich langem Testen mit ner Menge Geräten zu genau diesem Ergebnis gekommen bin. Aber auch mit guten LCDs kann man bzgl HDR Spaß haben*



*zumindest so lange bis man mal im Vergleich gesehen hat, was mit einem OLED möglich ist:D

SamLombardo
2019-02-17, 08:24:15
@Troyan, shit, wenn ich das schon wieder lese, muss ich mir wohl doch eine RTX zulegen.... und ich wollte eigentlich diese Generation überspringen. Grrr. ;)

Troyan
2019-02-17, 09:03:10
Es sieht so aus als ob mit Raytracing GI und AO es mehr viel Informationen für die Helligkeitswerte gibt und mit HDR die dunklen Bereiche viel dunkler dargestellt werden können. Ich war baff als ich RT aktiviert hatte mit HDR.

Eventuell ist es leicht zu dunkel, aber es zeigt, dass wir in Games auch bessere Techniken benötigen, um HDR vollständig ausnutzen zu können.

Anthem z.B. sieht im indirekten Lichtverhältnissen richtig blass aus. Der Unterschied zwischen direkter und indirekter Beleuchtung ist riesig. So etwas ist mir bis jetzt in Metro dank Raytracing nicht aufgefallen.

CD-LABS
2019-02-17, 09:51:20
@Troyan, shit, wenn ich das schon wieder lese, muss ich mir wohl doch eine RTX zulegen.... und ich wollte eigentlich diese Generation überspringen. Grrr. ;)
Wieso denn das? Hast du nicht noch genügend, was du bis dahin spielen kannst?
Nächster Vorteil wäre, dass du dann in den Genuss von nativer Auflösung, vielleicht sogar in den von DLSS-2x (falls das nachgepatched werden sollte---bisher hat es ja noch kein einziger Titel erhalten) kommen würdest und obendrein nicht zur EpicStore-Denuvo-Version greifen müsstest, sondern wohl sogar auf eine GOG-DRMfree-Version Zugriff hättest.

Es sieht so aus als ob mit Raytracing GI und AO es mehr viel Informationen für die Helligkeitswerte gibt und mit HDR die dunklen Bereiche viel dunkler dargestellt werden können. Ich war baff als ich RT aktiviert hatte mit HDR.

Eventuell ist es leicht zu dunkel, aber es zeigt, dass wir in Games auch bessere Techniken benötigen, um HDR vollständig ausnutzen zu können.

Anthem z.B. sieht im indirekten Lichtverhältnissen richtig blass aus. Der Unterschied zwischen direkter und indirekter Beleuchtung ist riesig. So etwas ist mir bis jetzt in Metro dank Raytracing nicht aufgefallen.
Das ist ja ein ganz übliches Phänomen: Löst man eine Limitation, dann werden anderen Themen bedeutender. Könnte man als Nebenschauplatz des abnehmenden Grenzertrages bezeichnen und prägt Hardware enorm...
...weitere Beispiele:
Je höher die Auflösung des Monitors, desto mehr profitiert man von hohen Bildwiederholraten. (klar, feinere Bewegungen werden durch die höhere Auflösung möglich)
Je höher die Bildwiederholraten, desto mehr profitiert man von guten Animationen.
Wenn beides toll ist, dann profitiert man mehr von Antialiasing.
Irgendwann bringt man Antialiasing am weitesten voran, indem man Zielauflösung und Zielfarbtiefe erhöht...
...und so weiter und so fort!

Gast
2019-02-17, 12:43:55
HDR funktioniert natürlich auch auf einem LCD. Ich habe hier ja die 384 Zonen Version von Acer und es sieht klasse aus. Im dunklen Zimmer poppt es links und rechts nur so auf.


384 Zonen sind nicht mal ansatzweise genug. Das sind vielleicht 24 x 16 Zonen, oder so ähnlich. Das sind immer noch viel zu wenig, da müsste man mindestens noch eine 0 auf jeder Achse anhängen, damit das annähernd ausreichend wäre.


Kritisch ist es bei LCDs nur dann, wenn man wirklich auf (fast) absolute Dunkelheit mit hellen Punkten trifft.

Gerade dann bringt aber HDR Vorteile. HDR bringt wenig bis gar nichts wenn das Bild im geamten sehr Hell oder sehr Dunkel ist, da stellt sich das Auge eh darauf ein. HDR bringt dann was, wenn man gleichzeitig sehr helle und sehr dunkle Stellen am Schirm hat, und genau da versagen LCDs.

Gast
2019-02-17, 12:49:03
Es sieht so aus als ob mit Raytracing GI und AO es mehr viel Informationen für die Helligkeitswerte gibt und mit HDR die dunklen Bereiche viel dunkler dargestellt werden können. Ich war baff als ich RT aktiviert hatte mit HDR.


Das ist zum Teil auch in Battlefield der Fall, auch wenn es dort "nur" für Reflexionen zum Einsatz kommt.

In den höheren beiden Einstellungen bekommt allerdings alle Oberflächen ab 50% Reflektivität die Raytracing-Nachbehandlung. Und man glaubt erstmal gar nicht wieviel in diesen Bereich hineinfällt, wodurch sich auch die allgemeine Beleuchtung in Battlefield mit Raytracing deutlich verbessert, zumindest ab der High-Einstellung.

CD-LABS
2019-02-17, 16:55:03
(...)

Gerade dann bringt aber HDR Vorteile. HDR bringt wenig bis gar nichts wenn das Bild im geamten sehr Hell oder sehr Dunkel ist, da stellt sich das Auge eh darauf ein. HDR bringt dann was, wenn man gleichzeitig sehr helle und sehr dunkle Stellen am Schirm hat, und genau da versagen LCDs.
Naja, HDR ist ja die Kombo aus erhöhtem Gamut, erhöhter Farbtiefe, erhöhtem Kontrast und erhöhter maximaler Helligkeit. Bei dir klingt es jetzt so, als wäre an HDR nur die letzten beiden Punkte von Bedeutung...

Ich hab über das Thema hier mal was ausführlich geschrieben:
http://extreme.pcgameshardware.de/news-kommentare-zu-monitore/526257-gaming-monitore-neues-modell-vereint-240-hz-hdr-und-0-6-ms-reaktionszeit-2.html#post9652980

Gast
2019-02-18, 12:53:36
Naja, HDR ist ja die Kombo aus erhöhtem Gamut, erhöhter Farbtiefe, erhöhtem Kontrast und erhöhter maximaler Helligkeit. Bei dir klingt es jetzt so, als wäre an HDR nur die letzten beiden Punkte von Bedeutung...


HDR ist nur ein erhöhter Kontrast. Damit HDR sinnvoll wird ist zwar eine höhere Farbtiefe und höherer Gamut Voraussetzung, umgekehrt ist das aber nicht der Fall, es gibt auch schon vor HDR Farbräume mit höherem Gamut als sRGB, und höhere Farbtiefen als 8bit pro Kanal. Dafür braucht es kein HDR, das gibt dann "nur" mehr den Kontrast oben drauf.

Kartenlehrling
2019-02-25, 00:43:38
Soo unauffällig auf dem Markt gekommen,
durch die freesync Monitor mit Nvidia ist das Monster in Vergessenheit geraten.

https://www.alternate.de/HP/OMEN-X-Emperium-65-LED-Monitor/html/product/1513998?newsletter=NL%2FB2C%2FKW8%2FNEUHEITEN
HP OMEN X Emperium 65, LED-Monitor (schwarz, NVIDIA G-Sync, HDR, UltraHD, 144 Hz) 3799,00€

just4FunTA
2019-02-25, 00:50:10
g2g 14ms also ähnlich schnell wie die oleds mit hdmi 2.1 bei ähnlichem Preis..

just4FunTA
2019-03-03, 06:11:53
sehe ich das richtig es gibt immernoch keine Ankündigungen für große gamingmonitore (>40")? Mal von nvidias oben erwähnten?

tEd
2019-03-03, 10:45:07
Alienware hat auf der CES einen 55" Oled Monitor gezeigt
120hz vrr
hdmi2.1
dp1.4

TobiWahnKenobi
2019-03-04, 11:34:20
müssten nicht die 2019er LG OLEDs (fernseher) brauchbare zwitter für PC und medienkonsum sein oder nehmen die PC-seitig keine 120Hz entgegen?!



(..)

mfg
tobi

just4FunTA
2019-03-04, 11:39:51
sind eine Möglichkeit, fängt aber erst bei 2.500€ an mit 55", ein ~40" für vielleicht unter 1.000€ wäre mir lieber. ;)

Wobei gibt es überhaupt eine Möglichkeit die 120Hz auch mit aktuellen Grafikkarten irgendwie anzusprechen die ja kein HDMI 2.1 haben oder werden wir die 120Hz erst mit zukünftigen Grakas nutzen können?

TobiWahnKenobi
2019-03-04, 11:41:33
adapter? atm stecken davon etliche in meiner RTX.. DP auf HDMI, USB-C auf HDMI_2.0..


USB-C auf HDMI_2.1 sollte machbar sein.. klingt zumindest naheliegender als einen fernseher mit DP zu finden.


(..)

mfg
tobi

just4FunTA
2019-03-04, 11:48:46
nun ich weiß nicht ob das möglich ist, falls ja wäre das natürlich die bequemste Lösung um 4k@120Hz zu kriegen. Ich finde zumindest aktuell keine usb-c 2 hdmi2.1 Adapter und die Fernseher kommen schon bald.

TobiWahnKenobi
2019-03-04, 11:55:25
zumindest was das bild angeht, wäre das ne krücke. was ich an allen adaptern bisher zu hassen gelernt habe, ist ihre unfähigkeit nachgeschaltete AVRs (egal ob direkt oder über ARC) zu erkennen. oder anders: adapter bieten hier grundsätzlich unter windows nur die möglichkeit als stereo-device konfiguriert zu werden. nur der native HDMI_2.0-anschluss an der graka lässt von 2.0, 5.1, 7.1 bis atmos alles zu. ärgerlich - darin steckt meine rift - die mag keine adpater (ganz pauschal).



(..)

mfg
tobi

Raspo
2019-03-04, 13:56:27
sehe ich das richtig es gibt immernoch keine Ankündigungen für große gamingmonitore (>40")? Mal von nvidias oben erwähnten?
Hast Du den XG438Q von Asus auf dem Schirm?
Auf den warte ich sehnsüchtig...

just4FunTA
2019-03-04, 18:22:18
Hast Du den XG438Q von Asus auf dem Schirm?
Auf den warte ich sehnsüchtig...

oh der hört sich ja gut an. Da bin ich mal gespannt was draus wird.

TobiWahnKenobi
2019-03-04, 18:40:13
etwas ausreichend großes mit ringsrum lichthöfen für 1 kilo-euro.


(..)

mfg
tobi

Raspo
2019-03-04, 22:10:42
etwas ausreichend großes mit ringsrum lichthöfen für 1 kilo-euro.
(..)

mfg
tobi
Ich bin nicht verwöhnt, zocke auf nem 8 Jahre alten 40 Zoll Philips-TV :freak:.
Neue TVs mit HDMI 2.1 in der Größe bis 46 Zoll lassen ja noch auf sich warten.

TobiWahnKenobi
2019-03-06, 09:50:20
40 zoll finde ich für den schreibtisch genau richtig und wenn man mit bild und reaktionszeiten
einverstanden ist, muss ein älterer schirm ja nicht grundsätzlich unbrauchbar sein. apropos..
in 40" hätte ich noch einen UHD-bildschirm abzugeben.. philips bdm4065uc (https://www.prad.de/testberichte/test-philips-bdm4065uc-erster-ultra-hd-monitor-mit-40-zoll/), falls hier jemand interesse hat, schickt mir ne PN.


(..)

mfg
tobi

BlacKi
2019-03-06, 10:02:36
es juckt so https://geizhals.de/samsung-c49rg90-lc49rg94ssuxzg-a2003534.html?hloc=de

w0mbat
2019-03-06, 14:50:39
Zum Zocken und Filme schauen macht 21:9 ja noch Sinn, aber 32:9 hat keine wirkliche Unterstützung, oder?

4Fighting
2019-03-06, 15:44:52
es juckt so https://geizhals.de/samsung-c49rg90-lc49rg94ssuxzg-a2003534.html?hloc=de


würde mich auch interessieren, aber 5120x1440 ist glaube ich der Tod für jede sGPU

Rampage 2
2019-03-06, 16:31:08
Meine nagelneuen Monitore sind am ersten Tag immer eine Katastrophe. Nach einer Woche sind meistens die Ausleuchtungsprobleme weg.

Auch bei IPS? Ich plane kurz- oder mittelfristig mir einen neuen Monitor zuzulegen.

Da mein Jetziges eins mit TN-Panel ist und ich immer wieder lese, dass IPS-Panel einen höheren Farbraum, lebendigere und knallige Farben sowie viel genauere Farbdarstellung haben, will ich möglichst unbedingt, dass der Nachfolger ein Modell mit IPS-Panel wird - wenn da nur nicht das Problem mit dem Schwarzwert und vor allem IPS-Glow sowie Backlight-Bleeding wäre...

... Ich will Doom 3, Quake 4 und Doom (2016) nicht mit dunkelgrauen Schatten oder massiv auffallenden Panel-Leuchten spielen müssen:(

R2

Gast - Ex3cut3r
2019-03-06, 17:26:58
würde mich auch interessieren, aber 5120x1440 ist glaube ich der Tod für jede sGPU

Wieso das denn? Sind weniger Pixel als 4K.

Gast
2019-03-06, 18:45:55
Auch bei IPS? Ich plane kurz- oder mittelfristig mir einen neuen Monitor zuzulegen.

Da mein Jetziges eins mit TN-Panel ist und ich immer wieder lese, dass IPS-Panel einen höheren Farbraum, lebendigere und knallige Farben sowie viel genauere Farbdarstellung haben, will ich möglichst unbedingt, dass der Nachfolger ein Modell mit IPS-Panel wird - wenn da nur nicht das Problem mit dem Schwarzwert und vor allem IPS-Glow sowie Backlight-Bleeding wäre...


Wenn du von einem TN kommst hast du garantiert keine Problem mit dem Schwarzwert von einem IPS.

TobiWahnKenobi
2019-03-06, 19:10:03
verschlechtern kannst du dich eigentlich nicht; egal was der nächste schirm für eine technologie mitbringt.


(..)

mfg
tobi

Rampage 2
2019-03-06, 19:37:40
verschlechtern kannst du dich eigentlich nicht; egal was der nächste schirm für eine technologie mitbringt.


(..)

mfg
tobi

Sicher?

Die TN-Panels haben zwar eine insgesamt schlechtere Bildqualität, aber dafür auch nicht die natürlichen Probleme eines IPS-Panels (IPS-Glow, Backlight-Bleeding) und auch der Schwarzwert soll (AFAIR) etwas besser sein als bei IPS - so oder so ähnlich habe ich das beim Googeln im Netz gelesen:wink:

R2

EvilOlive
2019-03-06, 19:39:33
Sicher?

so oder so ähnlich habe ich das beim Googeln im Netz gelesen:wink:

R2

Ist beides falsch.

EPIC_FAIL
2019-03-06, 19:42:28
Schwarzwert ist bei TN in der Regel ein wenig schlechter als bei IPS. Glow ist aber kaum in dem Ausmaß zu sehen. Subjektiv sind mir TNs bei dunklen Szenen lieber, da der Kontrast bei den IPSlern in den Ecken oft gefühlt bei 100:1 liegt.

TobiWahnKenobi
2019-03-06, 19:45:35
Sicher?

Die TN-Panels haben zwar eine insgesamt schlechtere Bildqualität, aber dafür auch nicht die natürlichen Probleme eines IPS-Panels (IPS-Glow, Backlight-Bleeding) und auch der Schwarzwert soll (AFAIR) etwas besser sein als bei IPS - so oder so ähnlich habe ich das beim Googeln im Netz gelesen:wink:

R2

ja, ganz sicher. wenn du dich mit den einschränkungen eines TN arrangieren konntest, kommst du auch mit jeder einschränkung anderer panels zurecht - alles eine reine gewöhnungssache.

wir reden jetzt aber nicht von den 99€ angeboten, wie sie in 24" beim discounter rumstehen, oder?


(..)

mfg
tobi

akuji13
2019-03-06, 20:45:37
Schwarzwert ist bei TN in der Regel ein wenig schlechter als bei IPS. Glow ist aber kaum in dem Ausmaß zu sehen. Subjektiv sind mir TNs bei dunklen Szenen lieber, da der Kontrast bei den IPSlern in den Ecken oft gefühlt bei 100:1 liegt.

So sieht es meistens aus.

Ausser man erwischt ein besonders gutes Modell bei IPS.

Keine Ahnung wie aktuell Stand der Dinge ist, aber als ich einen 27" suchte haben manche 50x das gleiche Gerät getauscht bis sie einen guten hatten.

Ich habe auch viele gehabt bis ein sehr guter darunter war und der hatte dann neben dem gruseligen coating gleich noch ein völlig versautes ULMB. :freak:

Megatron
2019-03-06, 21:23:15
Selbst eine 99€ IPS Gurke in 22" sieht allgemein besser aus als ein altes TN Panel. Wir reden wohl kaum von einem TN der aktuellsten Generation.
Bei den ollen Dingern ist doch schon durch die Blickwinkelabhängigkeit alles verdorben. Bzw. rettet die alten Teile nur die kleine Bildfläche.

Ich warte noch immer auf einen Samsung C27HG70 in gerade und wenn wir schon beim träumen sind, dann mit 10Bit Panel.
Mein aktueller Eizo mit VA hat zwar einen fantastischen Kontrast (laut Prad >5000:1) aber dementsprechend sieht das Bild auch in Bewegung aus.

Das interessanteste Panel finde ich da aber von LG das LM270WR7 - 27 Zoll, HDR600 und 4K Auflösung. Fragt sich nur, wann es damit mal Monitore zu bestaunen gibt.
Bzw. generell wie lange es von der Ankündigung bis zum Monitor dauert. Vielleicht bringt ja dann die Computex eine 1. Ankündigung.

akuji13
2019-03-06, 23:22:13
Selbst eine 99€ IPS Gurke in 22" sieht allgemein besser aus als ein altes TN Panel. Wir reden wohl kaum von einem TN der aktuellsten Generation.

Definiere alt.

Ein LG 24GM77 unterscheidet sich kaum vom aktuellen Modell oder anderen 24", ein BenQ XL2720T kann auch heute noch gut mithalten.

Ich hatte ihn so verstanden das er einen Neukauf plant (wegen Auflösung, Hz, Größe ect.), also müsste man auch aktuelle TN mit aktuellen IPS vergleichen.

Die 22" IPS Gurke wird übrigens auch durch die Größe vor allzu fiesem glow bewahrt. :wink:

BlacKi
2019-03-06, 23:32:03
würde mich auch interessieren, aber 5120x1440 ist glaube ich der Tod für jede sGPU
die leistung von 2x 2560x1440p monitoren.

anders ausgedrückt die leistung von DSR 2.00 auf nem 16:9 1440p monitor, also 3620x2036. dsr 2.25 wäre 4k.

Screemer
2019-03-07, 01:37:27
Schwarzwert ist bei TN in der Regel ein wenig schlechter als bei IPS. Glow ist aber kaum in dem Ausmaß zu sehen. Subjektiv sind mir TNs bei dunklen Szenen lieber, da der Kontrast bei den IPSlern in den Ecken oft gefühlt bei 100:1 liegt.sein TN ist fast 10 Jahre alt.

ezzemm
2019-03-07, 06:54:12
würde mich auch interessieren, aber 5120x1440 ist glaube ich der Tod für jede sGPU

iGPU = integrated GPU
dGPU = dedicated GPU
sGPU = Subtotal Gastrectomy for a Peptic Ulcer (https://acronyms.thefreedictionary.com/SGPU)?

Ich habe hier auf der Arbeit einen ASUS PG278QR (27" WQHD TN) und einen Lenovo P27H-10 (https://www.lenovo.com/de/de/accessories-and-monitors/monitors/professional/P27h-10-27inch-Monitor-HDMI/p/61AFGAT1EU) (27" WQHD IPS) nebeneinander stehen. Den ASUS brauche ich für stereoskopisches 3D.

Ich habe beide so eingestellt, dass sie die (weitgehend) gleiche Farbtemperatur, Helligkeit und Kontrast haben. Und die Monitore verhalten sich praktisch identisch was Blickwinkelabhängigkeit, Farben und Kontrast betrifft z.B. bei Wallpapern mit Milchstraßen-Fotografien.
Auch die Kollegen die ich befragt habe welches Bild sie besser finden meinten, dass beides doch identisch sei.

TLDR: Es ist nicht garantiert dass beim Wechsel von TN auf IPS signifikante Änderungen in die eine oder andere Richtung zu sehen sind.

Psychopat
2019-03-07, 16:59:04
Zum Thema alten TN kann ich auch noch meinen Senf dazugeben. Ich hab nen Samsung 226BW, also ewig alter TN. Im Büro sitze ich vor nem HP EliteDisplay E242. Gefühlt merke ich keinen Unterschied, ich musste erst nachschauen um zu wissen das der HP ein IPS ist. Die stehen jetzt aber auch nicht nebeneinander oder sind irgendwie kalibriert. Irgendwie faszinierend das der alte Samsung noch ein konkurrenzfähiges Bild liefert.

Bei dem HP hab ich aber auch das zweite Modell gebraucht. Das erste hatte ein Checkerboard Pattern (Dithering). Mein Kollege hat's nicht gesehen, ich schon. Der zweite Monitor war dann ok.

looking glass
2019-03-08, 16:02:24
Sodele, heute angekommen der kleine neue, ein Acer Nitro XV272UP - 27 Zoll, IPS, 1440p, 16:9, 144Hz, Freesync (soll laut Computerbase aber mit Nvida funktionieren), soweit mitbekommen ist das HDR Feature des Monitors (allerdings nur HDR 400) nicht mit Freesync vereinbar, glaub das zusammen funktioniert erst mit Freesync 2, was Nvidia soweit mir bekannt, nicht kann - ansonsten hätte der Monitor also auch HDR (Light sozusagen), ABER wichtiger, finde ich, 10 Bit (8Bit mit FRC), hoffentlich bekomme ich das auch ohne HDR an zu haben.

Wie dem auch sei, der neue Rechner steht noch nicht (im Sinne von heute erst mit verkabeln fertig geworden, aber noch kein System drauf etc., nicht mal getestet ob er startet), insofern konnte ich nur ein Schnelltest des Monitors machen, indem ich ihne per HDMI ans Notebook geklemmt habe - scheinbar habe ich ein Panellotteriegewinner *fuckyeah*, keine Pixelfehler gefunden, keine toten, keine Dauerleuchter, auch nicht in den Subpixeln, sollte es wahr sein, dann danke, danke an die Technikgötter, das sie gnädig mit mir sind.


Ach ja, der Monitor war lange nicht zu bekommen, ist jetzt aber wohl wieder in kleinen Dosen bei den üblichen Verdächtigen wie Alternate, Amazon usw. zu bekommen. Habe meinen bei Amazon direkt bestellt gehabt. Wollte eigentlich seinen kleinen Bruder den Acer Nitro VG270UP bestellen, aber der war justamente gerade nicht zu bekommen *hust*.

aufkrawall
2019-03-08, 16:12:50
ABER wichtiger, finde ich, 10 Bit (8Bit mit FRC)

Wieso findest du das wichtig? Das ist ein völlig unnützes Papierfeature.

Schnoesel
2019-03-08, 16:27:17
Also ich muss schon sagen seitdem bei mir ein 4K OLED von LG rumsteht ist es mir tatsächlich das erste mal passiert, dass mein TV eine bessere Bildqualität hat als mein Monitor und das bei Weitem. Echt traurig, dass OLED nicht für Monitore taugt. Ich würde mir sofort einen kaufen.

looking glass
2019-03-08, 16:39:40
Wieso findest du das wichtig? Das ist ein völlig unnützes Papierfeature.

Nun, wenn Du an nem "gammligen" TN sitzt und da dem Banding beim "alte Leute überfallen" zuschauen kannst, dann nimmst Du IPS und 10Bit gerne mit, weil hoffentlich auf der sicheren Seite. Ich spiele halt öfter ziemlich, mhhh, Monochrome gehaltene Sachen und glaub mir, da geht schon gehörig Spaß flöten, wenn dich das Banding anspringt wie nichts gutes.

Nicht falsch verstehen, 8Bit wird bestimmt ausreichen, aber einige der teureren G-Sync Monitore mit 27 Zoll/1440p/144Hz stehen in den Datenbanken die ich so eingesehen habe gern mal mit 8Bit (6Bit+FRC) und ähhh, ja, da bin ich mir dann nicht mehr so sicher, ob das ohne Banding daher kommt, dann doch lieber gleich sicher stellen, das da nicht solche faxen gemacht werden.

aufkrawall
2019-03-08, 17:12:24
Die Spiele laufen halt weiterhin nur mit 8 Bit, einzig die anzunehmende höhere Genauigkeit für die LUT hilft bei Farbanpassungen im Monitor-OSD.
Sechs Bit + FRC ist natürlich steinzeitlich, keine Frage.

Gast
2019-03-08, 18:47:06
Sicher?

Die TN-Panels haben zwar eine insgesamt schlechtere Bildqualität, aber dafür auch nicht die natürlichen Probleme eines IPS-Panels (IPS-Glow, Backlight-Bleeding) und auch der Schwarzwert soll (AFAIR) etwas besser sein als bei IPS - so oder so ähnlich habe ich das beim Googeln im Netz gelesen:wink:

R2

Beim Kontrast/Schwarzwert ist VA > IPS > TN.
Blickwinkel IPS > VA > TN.

Backlight-Bleeding hat weniger was mit der Paneltechnologie zu tun sondern hängt vom allgemeinen Aufbau des Panels und insbesondere von der Qualitätskontrolle des Herstellers ab. Eine zu fest angezogene Schraube beim Zusammenbau kann schon extremes Backlight-Bleeding verursachen, egal welches Panel verbaut wird. Weniger anfällig sind hier lediglich Panels die Direct-Lit sind, und damit im Unterschied zu den Edge-Lit panels weniger darauf angewiesen sind, dass irgendwelche Lichtleiter das Backlight gleichmäßig verteilen.

Gast
2019-03-08, 18:51:09
Wieso findest du das wichtig? Das ist ein völlig unnützes Papierfeature.

10bit ist extrem wichtig, weil mit 8bit pro Primärfarbe nur 256 Abstufungen (bzw. eigentlich nur 254 wenn man scharz und weiß nicht zählt) verfügbar sind, was in vielen Fällen einfach zu wenig ist.

Besonders feine Abstufungen im Blaukanal werden mit 8bit viel zu grob dargestellt.

Beispielsweise bei Fotos mit blauem Himmel und Farbverläufen im Himmel wird das deutlich sichtbar.

Vor allem können die meisten TNs nativ überhaupt nur 6bit und stellen die 8bit nur mit FRC dar, was man in einfärbigen Flächen auch deutlich flimmernd wahrnimmt.

Bei 10bit ist es dann relativ egal ob nativ oder mit FRC, da kann man die Unterschiede kaum wahrnehmen.

Gast
2019-03-08, 19:06:28
Sodele, heute angekommen der kleine neue, ein Acer Nitro XV272UP - 27 Zoll, IPS, 1440p, 16:9, 144Hz, Freesync (soll laut Computerbase aber mit Nvida funktionieren), soweit mitbekommen ist das HDR Feature des Monitors (allerdings nur HDR 400) nicht mit Freesync vereinbar, glaub das zusammen funktioniert erst mit Freesync 2, was Nvidia soweit mir bekannt, nicht kann - ansonsten hätte der Monitor also auch HDR (Light sozusagen), ABER wichtiger, finde ich, 10 Bit (8Bit mit FRC), hoffentlich bekomme ich das auch ohne HDR an zu haben.



Freesync 2 ist nicht viel mehr als Freesync mit gewissen mindeststandards, also eigentlich vergleichbar mit dem was G-Sync von Anfang an war, während jeder Monitor der irgendwie dynamische Refreshrates beherrscht ein Freesync (1) Logo bekommt.

Nvidias Adaptive Sync aka G-Sync-Compatible funktioniert auch mit den erweiterten Specs von Freesync 2, genauer gesagt muss ein Monitor, damit Nvidia ihn überhaupt Standardmäßig als kompatibel ansieht mindestens Freesync 2 können. Wenn der Monitor HDR mit dynamischer Refreshrate kann funktioniert das auch bei Nvidia.
Das einzige was proprietär ist und nicht mit Nvidia funktioniert ist AMDs HDR-Pipeline. AMD hat hier eine spezielle Pipeline, in der das Tonemapping bei HDR direkt im Postprocessing von der GPU gemacht wird, das muss allerdings auch vom Spiel selbst unterstützt werden, das funktioniert bei Nvidia nicht. Hier wird weiter wie üblich das volle HDR-Signal an den Bildschirm gesendet und das Tonemapping auf die Fähigkeiten des Monitors findet im Monitor statt.

Ich würde aber generell von beidem abraten, low motion blur ist wesentlich wichtiger und bringt viel mehr, funktioniert allerdings weder mit HDR noch mit Adaptive Sync.
HDR ist auf LCDs ein Graus, selbst die Full Matrix LEDs Backlights haben gerade mal ein paar 100 Zonen, was viel zu wenig ist, und der native Kontrast ist selbst bei VAs für HDR viel zu klein. Wenn LCDs vielleicht mal in die Richtung 100x100 Zonen kommen, könnte HDR evtl. halbwegs brauchbar sein, aber mit den ~300 Zonen die Full Matrix LEDs bieten reicht das bei weitem nicht aus, und bei den Edge-Lit LCDs sind oft nicht mal eine 2-stellige Anzahl an Zonen verfügbar, HDR ist da ein reinster Joke.

Und Adaptive Sync braucht es bei 144Hz auch nicht wirklich, mit dieser hohen Frequenz ist jeder Tear maximal 7ms sichtbar, man kann also genauso gut ohne Sync spielen und es fällt kaum auf.

Rampage 2
2019-03-09, 00:55:42
Schwarzwert ist bei TN in der Regel ein wenig schlechter als bei IPS. Glow ist aber kaum in dem Ausmaß zu sehen. Subjektiv sind mir TNs bei dunklen Szenen lieber, da der Kontrast bei den IPSlern in den Ecken oft gefühlt bei 100:1 liegt.


Ähhh... widersprichst du dir damit nicht selber? Zuerst sagst du, TNs haben einen noch schlechteren SW als IPS, dann wieder behauptest du, dass der Kontrast bei TNs doch besser ist als IPS? Ja wat denn nu? :|

gleich noch ein völlig versautes ULMB. :freak:


Nvidia ULMB ist ein weiteres Feature neben 3D-Vision 2, weshalb ich immer noch in Richtung GSync-Modellen neige. Egal ob G- oder FreeSync-Modell... irgendeine Form von Unschärfe-Reduktion muss das Display schon haben. Neben Nvidia ULMB gibt es noch Vendor-spezifische Techniken z.B. bei Samsung ("SAMBR") oder ASUS ("AELMB"). FreeSync scheint keine eigene MBR-Implementierung zu haben. (?)

Wurde schon ein Vergleichstest gemacht zwischen Nvidia ULMB & Lightboost und den Vendor-spezifischen Implementierungen von Samsung, ASUS, u.a. ?

Selbst eine 99€ IPS Gurke in 22" sieht allgemein besser aus als ein altes TN Panel. Wir reden wohl kaum von einem TN der aktuellsten Generation.


Doch, genau das tun wir - aktuelle Top-Modelle mit IPS-Panel (ASUS PG279Q, Acer XB1 XB271HU) sollten selbstverständlich mit aktuellen Top-Modellen mit TN-Panel (ASUS PG27VQ, ASUS PG278QR, Acer Z271U, Acer XZ1 XB271UA) verglichen werden. Anders ist es ja kein sinnvoller Vergleich...


Bei den ollen Dingern ist doch schon durch die Blickwinkelabhängigkeit alles verdorben. Bzw. rettet die alten Teile nur die kleine Bildfläche.



Also mein jetziger TN lässt sich leider nur 5-10° nach vorne biegen und hat auch keine Höhen-Verstellmöglichkeit - wenn ich mich zurücklehne, merke ich definitiv eine Veränderung in der Helligkeit des Bildes (es wird dunkler). ABER diese Veränderung ist nur minimal und zumindest bei den Farben kann ich keinerlei Veränderung feststellen (außer halt, dass sie nur ein bisschen dunkler werden), es ändert sich nur die Helligkeit und vielleicht auch der Kontrast, aber Letzteres kann ich nicht beurteilen:wink:

Ich bin mir sicher, dass die Blickwinkelabhängigkeit bei einem HighEnd TN-Panel der aktuellen Generation keine Rolle spielt, sofern sie höhenverstellbar und neigbar ist.


Ich hatte ihn so verstanden das er einen Neukauf plant (wegen Auflösung, Hz, Größe ect.), also müsste man auch aktuelle TN mit aktuellen IPS vergleichen.



Dito;)

Die Spiele laufen halt weiterhin nur mit 8 Bit, einzig die anzunehmende höhere Genauigkeit für die LUT hilft bei Farbanpassungen im Monitor-OSD. Sechs Bit + FRC ist natürlich steinzeitlich, keine Frage.


Ich war entsetzt darüber, dass es sowas überhaupt gibt - ich dachte bisher, dass ALLE Monitore, egal welche Technik und egal wie alt (sogar die ganz uralten Röhrendinger aus der Jahrtausendwende!!!!!111elf) mindestens 8bit pro Farbkanal und 8bit für den Alpha-Kanal ausgeben! Echt unglaublich...:facepalm:

R2

EPIC_FAIL
2019-03-09, 01:08:58
Ähhh... widersprichst du dir damit nicht selber? Zuerst sagst du, TNs haben einen noch schlechteren SW als IPS, dann wieder behauptest du, dass der Kontrast bei TNs doch besser ist als IPS? Ja wat denn nu? :|



Nein, misst man den Schwarzwert hat man nur eine ziemlich örtlich beschränkte Aussage über den Kontrast. Da schneiden IPSler typisch ein wenig besser ab als TNs. ABER: der klassische IPS Glow lässt sich mit den üblichen Messungen nicht einfangen, da dieser eben blickwinkelabhängig ist. Da du ja als Mensch die gesamte Bildfläche im Blick hast, wirst du subjektiv einen mehr oder weniger starken Kontrastverlust in den Ecken bei IPS sehen können.

Megatron
2019-03-09, 08:26:34
Doch, genau das tun wir - aktuelle Top-Modelle mit IPS-Panel sollten selbstverständlich mit aktuellen Top-Modellen mit TN-Panel verglichen werden. Anders ist es ja kein sinnvoller Vergleich...
Naja, rein für die Betrachtung beim Neukauf schon. Aber deine Angst bezieht sich ja allgemein auf IPS Monitore und da ist doch deine Referenz erstmal dein aktueller Monitor.
Welches Modell genau ist das überhaupt?

Zumal ich deine über 3 Jahre alten High End Gam0r IPS Beispiele jetzt auch nicht unbedingt als Referenz in Punkto Bildqualität heranziehen würde ;)

Ich war entsetzt darüber, dass es sowas überhaupt gibt - ich dachte bisher, dass ALLE Monitore, egal welche Technik und egal wie alt (sogar die ganz uralten Röhrendinger aus der Jahrtausendwende!!!!!111elf) mindestens 8bit pro Farbkanal und 8bit für den Alpha-Kanal ausgeben!
Den Alpha-Kanal beachten die allgemeinen Displays nicht wirklich. Wäre aber ein interessantes Feature, wenn dann plötzlich der Monitor transparent wird :freak:
Und LCD != Röhre. Die 6 Bit waren da lange Zeit der Standard, weshalb ja in diversen Bereichen noch sehr lange auf Röhrengeräte gesetzt wurde.
Bei der Röhre war es eher die Genauigkeit mit der das Analogsignal übertragen und verstärkt wurde. Deshalb gab es ja auch Monitore mit Extra BNC Steckern pro Farbe und für die Synchronisation, damit die Farbsignale in bestmöglicher Qualität wiedergegeben wurden - und überhaupt hohe Auflösungen nicht höllisch flimmerten.

Gast
2019-03-09, 18:07:45
Die Spiele laufen halt weiterhin nur mit 8 Bit, einzig die anzunehmende höhere Genauigkeit für die LUT hilft bei .


Spiele Rendern schon seit Ewigkeiten in HDR Rendertargets, und als SDR Rendertarget wird auch schon lange 32bit mit RGBA-Aufteilung in 10/10/10/2 anstatt 8/8/8/8 unterstützt.

Wenn du die Ausgabe auf 10bit/Kanal einstellst hast du in der Regel auch bei Spielen Vorteile.

Tobe1701
2019-03-10, 09:19:14
Und Adaptive Sync braucht es bei 144Hz auch nicht wirklich, mit dieser hohen Frequenz ist jeder Tear maximal 7ms sichtbar, man kann also genauso gut ohne Sync spielen und es fällt kaum auf.
Das kann man nicht verallgemeinern. Ich sehe und störe mich am Tearing auch bei 144Hz und mehr noch so sehr das spielen ohne Adaptive Sync für mich überhaupt nicht in Frage kommt.

Rampage 2
2019-03-10, 09:43:22
ABER: der klassische IPS Glow lässt sich mit den üblichen Messungen nicht einfangen, da dieser eben blickwinkelabhängig ist.


Wieso blickwinkelabhängig? Ich dachte, genau das entfällt bei IPS im Gegensatz zu TN? :|


Da du ja als Mensch die gesamte Bildfläche im Blick hast, wirst du subjektiv einen mehr oder weniger starken Kontrastverlust in den Ecken bei IPS sehen können.


Hmmm... du meintest das also so, dass bei IPS der Kontrast lokal besser ist als TN, aber von der Gesamtfläche des Bildschirms betrachtet dann doch wieder schlechter, weil IPS Glow und Backlight Bleeding ins Spiel kommen. Korrekt?

Naja, rein für die Betrachtung beim Neukauf schon. Aber deine Angst bezieht sich ja allgemein auf IPS Monitore und da ist doch deine Referenz erstmal dein aktueller Monitor.
Welches Modell genau ist das überhaupt?

Zumal ich deine über 3 Jahre alten High End Gam0r IPS Beispiele jetzt auch nicht unbedingt als Referenz in Punkto Bildqualität heranziehen würde ;)


Eben doch. Bei einem Neukauf messe ich das neue Gerät ja nicht daran, ob es gleich gut oder schlechter ist wie das aktuelle Gerät, sondern ob es schlechter (Schwarzwert, dunkle Szenen) ist als die besten TN-Modelle, die es !aktuell! zu haben gibt.

Wenn die !besten! aktuellen TN-Modelle eine bessere Bildqualität in dunklen Szenen oder eine vergleichbar gute Farbqualität haben wie die !besten! aktuellen IPS-Modelle, dann will ich das natürlich wissen;)

Meine Frage bzgl. der Farbwiedergabe IPS vs. TN wurde übrigens nicht beantwortet;)

Ich habe die 2015/16er Modelle nur deswegen als Beispiele genannt, weil es ja derzeit nichts Besseres gibt (außer die ultra-teuren 4K-Modelle mit Local Dimming & Quantum Dot). Es würde mich aber sehr freuen, falls neue 1440p IPS-Modelle in Planung sind - wurden schon welche für dieses oder nächstes Jahr angekündigt?

Und mein jetziges Gerät ist der Samsung PX 2370 LED (TN, LED-Backlight, 100% sRGB Abdeckung, 1000:1 Kontrast, max. 250cd Helligkeit, 1ms Reaktionszeit)


Den Alpha-Kanal beachten die allgemeinen Displays nicht wirklich. Wäre aber ein interessantes Feature, wenn dann plötzlich der Monitor transparent wird :freak:


Ein Monitor muss doch einen Alpha-Kanal haben. 32Bit Farbtiefe benötigt einen Transparenz-Spektrum von 8Bit. Und im Gegensatz zu den Farben kann man hier wohl kaum tricksen... (FRC oder anderer Kram)


Und LCD != Röhre. Die 6 Bit waren da lange Zeit der Standard, weshalb ja in diversen Bereichen noch sehr lange auf Röhrengeräte gesetzt wurde.


Wie soll ich das jetzt verstehen? Dass CRTs schon immer echte 8Bit pro Farbkanal
hatten und LCDs (anfangs) nicht? :confused:

R2

Megatron
2019-03-10, 11:12:51
Eben doch. Bei einem Neukauf messe ich das neue Gerät ja nicht daran, ob es gleich gut oder schlechter ist wie das aktuelle Gerät, sondern ob es schlechter (Schwarzwert, dunkle Szenen) ist als die besten TN-Modelle, die es !aktuell! zu haben gibt.
OK, ich hatte es schon so verstanden, dass es dir erstmal darauf ankommt, dich generell nicht zu verschlechtern.

Ein Monitor muss doch einen Alpha-Kanal haben. 32Bit Farbtiefe benötigt einen Transparenz-Spektrum von 8Bit. Und im Gegensatz zu den Farben kann man hier wohl kaum tricksen... (FRC oder anderer Kram)
Alpha gibt es nur bis zur Grafikkarte. Der Monitor weiß davon nichts mehr. Der hat dann 3x8 Bit oder 3x10 Bit, die verarbeitet werden.

Wie soll ich das jetzt verstehen? Dass CRTs schon immer echte 8Bit pro Farbkanal
hatten und LCDs (anfangs) nicht? :confused:
R2
Beim crt begrenzt nur die Qualität der analogen Signalverarbeitung. Das ist so ein bisschen wie digicam vs Analogfilm oder Schallplatte vs CD.
Also ja, späte Röhren waren zu mehr als 8 Bit pro Kanal fähig und bei den ersten LCD Displays waren 6 Bit schon eine tolle Leistung. Gerade im TN Bereich findet man ja heute solche Panels.

Vielleicht solltest du auch vor dem Kauf Mal in einem Elektronikmark schauen, wie so aktuell die Bildqualität ist und womit du dich abfinden kannst - oder auch nicht.
Sowas wie Backlight Bleeding lässt sich natürlich nur daheim im dunklen feststellen aber Farbdarstellung und Motion Blur kannst du allemal erkennen.

Gast
2019-03-10, 11:22:28
Wieso blickwinkelabhängig? Ich dachte, genau das entfällt bei IPS im Gegensatz zu TN? :|


Auch IPS sind vom Blickwinkel abhängig, wenn auch von allen LCD-Technologien am wenigsten.
IPS-Glow sind Blickwinkelabhägigkeiten die vor allem bei dunklen Bildern abhängige Helligkeits- und Farbschwankungen.



Hmmm... du meintest das also so, dass bei IPS der Kontrast lokal besser ist als TN, aber von der Gesamtfläche des Bildschirms betrachtet dann doch wieder schlechter, weil IPS Glow und Backlight Bleeding ins Spiel kommen. Korrekt?


Nein, der Kontrast ist immer mit IPS besser, insbesondere bei großen Bildschirmen, da dort der Blickwinkel in die Ecken bei TNs bereits limitierend wirkt. Backlight-Bleeding kann es bei TNs sowie IPS gleichermaßen geben.



Meine Frage bzgl. der Farbwiedergabe IPS vs. TN wurde übrigens nicht beantwortet;)


TNs haben generell die schlechteste Farbwiedergabe.


Ein Monitor muss doch einen Alpha-Kanal haben. 32Bit Farbtiefe benötigt einen Transparenz-Spektrum von 8Bit. Und im Gegensatz zu den Farben kann man hier wohl kaum tricksen... (FRC oder anderer Kram)

An den Monitor wird kein und wurde auch nie ein Alpha-Kanal gesendet.
An den Monitor werden immer nur die Farbkanäle gesendet, bei Traditionellen 32bit Framebuffern werden also 2x8bit = 24bit an den Monitor übertragen.
Wobei es mittlerweile auch Framebuffer mit 10-10-10-2 Aufteilung gibt, an den Monitor also 30bit gesendet werden.



Wie soll ich das jetzt verstehen? Dass CRTs schon immer echte 8Bit pro Farbkanal
hatten und LCDs (anfangs) nicht? :confused:


CRTs sind Analog, kennen also keine diskreten Zustände und haben damit "unendlich" viele Bits.

Die meisten TNs kennen im Panel nur 6bit pro Kanal (wobei neuere auch nativ höhere Farbtiefen darstellen können), wobei für die Übertragung von der Grafikkarte immer 8bit pro Kanal verwendet wurden.
Um Farben darzustellen die das Panel nativ nicht kann wechselt das Spannungslevel im LCD immer zwischen den umliegenden Farben, die nativ verfügbar sind (FRC). Die Folge ist vor allem in großen einfärbigen Flächen ein sichtbares flimmern, wobei ironischerweise genau die schnelle Schaltgeschwindigkeit der TNs das Ganze verschlimmert. FRC nützt nämlich im Prinzip die Trägheit der Flüssigkristalle um Farben darzustellen die das Panel eigentlich gar nicht kann.

IPS/VA können eigentlich immer mindestens 8bit pro Kanal nativ, wobei 10bit wieder oft mit FRC realisiert wird. Das ist aber im Gegensatz zu 6 auf 8bit kaum Sichtbar, da man ja mit 8bit schon immerhin 256 native Farbabstufungen hat, während es bei 6bit nur 64 sind. Der Unterschied zwischen den tatsächlich darstellbaren Farben ist also wesentlich geringer und damit hat FRC kaum sichbare negative Auswirkungen.

basix
2019-03-10, 13:07:56
Analog ja, aber irgendwo wie z.B. auf der Grafikkarte wird ein DAC dazwischen sein. Also wirst du trotzdem diskrete Farbzustände haben ;)

Megatron
2019-03-10, 15:22:31
Analog ja, aber irgendwo wie z.B. auf der Grafikkarte wird ein DAC dazwischen sein. Also wirst du trotzdem diskrete Farbzustände haben ;)
Ja, der RAMDAC war auf der Grafikkarte dafür zuständig die Signale zu wandeln. Dessen Qualität war also der 1. Baustein, was am CRT ankam.
Um entsprechend hohe Auflösungen und Refreshraten sicherzustellen war das Teil zuletzt in die Grafikchips integriert und lief bei 400MHz.

aufkrawall
2019-03-10, 15:47:49
Wenn du die Ausgabe auf 10bit/Kanal einstellst hast du in der Regel auch bei Spielen Vorteile.
Gibt es dazu auch einen Nachweis?

Gast
2019-03-10, 18:02:36
Analog ja, aber irgendwo wie z.B. auf der Grafikkarte wird ein DAC dazwischen sein. Also wirst du trotzdem diskrete Farbzustände haben ;)

Klar, die Übertragung zwischen Grafikkarte und Monitor erlaubt aber prinzipiell unendlich viele Zustände, ebenso wie die Bilderzeugung im Monitor selbst.

Das bringt logischerweise wenig, wenn die Digitale Quelle aus der das analoge Bild erzeugt wird eine ungenügenden Farbauflösung hat, und zu der Zeit als die Analoge Bildübertragung noch üblich war gab es soweit ich mich erinnern kann noch keine Grafikkarten die mehr als 8bit pro Kanal für den Framebuffer verwenden konnten (wobei ich mir da nicht sicher bin, die Radeons konnten das schon ziemlich früh).

Das Limit ist in dem Fall aber aber auf jeden Fall weder die Datenübertragung zum Monitor noch der Monitor selbst, ganz im Gegensatz zu Panels die selbst nur 6bit pro Kanal darstellen können.

akuji13
2019-03-10, 23:38:44
Nvidia ULMB ist ein weiteres Feature neben 3D-Vision 2, weshalb ich immer noch in Richtung GSync-Modellen neige. Egal ob G- oder FreeSync-Modell... irgendeine Form von Unschärfe-Reduktion muss das Display schon haben. Neben Nvidia ULMB gibt es noch Vendor-spezifische Techniken z.B. bei Samsung ("SAMBR") oder ASUS ("AELMB"). FreeSync scheint keine eigene MBR-Implementierung zu haben. (?)

Wurde schon ein Vergleichstest gemacht zwischen Nvidia ULMB & Lightboost und den Vendor-spezifischen Implementierungen von Samsung, ASUS, u.a. ?

Wüsste ich nicht.
Blur Busters hats nur mal kurz und allgemein angerissen das die Qualität stark schwankt.

Eigene Tests haben auch kein klares Bild ergeben:
Einmal war ULMB top, beim nächsten Gerät total unbrauchbar (ghosting, Mikroruckler).
Mit dem System von BenQ habe ich bislang gute Erfahrungen gemacht, vor allem weil es oft einstellbar ist in Sachen strobe crosstalk.
Deshalb nutze ich aktuell auch zusätzlich einen XL2730.

Möchte darauf auch nicht mehr verzichten.
Nicht nur wegen der Bewegtdarstellung sondern auch weil man damit ordentliche Schwarzwerte bekommt und die oft viel zu hohe Helligkeit der Geräte eindämmen kann.
Der XL2730 ist mir selbst auf Stufe 0 noch zu hell in der Nacht, trotz Hintergrundbeleuchtung.

Generall ist es schön wenn ein Gerät viele Variationen zulässt weil ich häufig andere Wünsche habe.
Einmal spiele ich (am Philips) in UHD@60Hz wenn das Spiel eher gemächlich ist und Schwarzwert gefragt, dann wieder am XL2730 mit Blur Reduction (wenn z. B. das Spiel sehr schnell ist) oder nutze den BenQ@FreeSync wenn es möglicht fluffig sein soll (weil die engine kritisch ist).

Einziger wirklicher Knackpunkt ist das üble coating, aber da hab ich noch nix anständiges gesehen bei den 27" Geräten.
Bei Gelegenheit werde ich das wohl mal entfernen.

basix
2019-03-11, 07:27:55
Klar, die Übertragung zwischen Grafikkarte und Monitor erlaubt aber prinzipiell unendlich viele Zustände, ebenso wie die Bilderzeugung im Monitor selbst.

Das bringt logischerweise wenig, wenn die Digitale Quelle aus der das analoge Bild erzeugt wird eine ungenügenden Farbauflösung hat, und zu der Zeit als die Analoge Bildübertragung noch üblich war gab es soweit ich mich erinnern kann noch keine Grafikkarten die mehr als 8bit pro Kanal für den Framebuffer verwenden konnten (wobei ich mir da nicht sicher bin, die Radeons konnten das schon ziemlich früh).

Das Limit ist in dem Fall aber aber auf jeden Fall weder die Datenübertragung zum Monitor noch der Monitor selbst, ganz im Gegensatz zu Panels die selbst nur 6bit pro Kanal darstellen können.

So ist es. Nur bringt mir im Endeffekt das "voll analoge Verhalten" des Monitors wenig, wenn die Quelle digital ist. Das war mein Punkt ;) Für mich als Enduser ist in erster Linie das Resultat entscheidend. Und da hat das digitale Farbsystem und dessen digitale Datenübertragung riesige Vorteile.

Für mich als Techniker ist alles spannend :D

Gast
2019-03-11, 15:53:39
So ist es. Nur bringt mir im Endeffekt das "voll analoge Verhalten" des Monitors wenig, wenn die Quelle digital ist. Das war mein Punkt ;) Für mich als Enduser ist in erster Linie das Resultat entscheidend. Und da hat das digitale Farbsystem und dessen digitale Datenübertragung riesige Vorteile.


Klar, vor allem da man natürlich mit analoger Übertragung auch jegliches Rauschen mitbekommt.

Ich wollte nur darauf hinweisen, dass es bei CRTs kein technisches Limit an Farben gab die der Monitor darstellen konnte.

Elite_Warrior
2019-03-11, 16:29:42
Sodele, heute angekommen der kleine neue, ein Acer Nitro XV272UP - 27 Zoll, IPS, 1440p, 16:9, 144Hz [...] scheinbar habe ich ein Panellotteriegewinner *fuckyeah*, keine Pixelfehler gefunden, keine toten, keine Dauerleuchter, auch nicht in den Subpixeln, sollte es wahr sein, dann danke, danke an die Technikgötter, das sie gnädig mit mir sind.


Habe ihn mir auch mal bestellt. Hatte schon 5 andere Monitore hier, die IMMER ein Problem bei sich hatten. Aber bei dem Acer waren mir die Technikgötter auch gnädig. Danke! https://www.worldofugly.de/normal/s208.gif

Höhnangst
2019-03-11, 19:32:00
Leute, ich weiß nicht. Ich würde gern mal nen neuen Monitor kaufen, aber die Hersteller schaffen es nicht, mich zu überzeugen. Die krebsen immer noch mit ihren blöden LCDs ohne richtiges Schwarz, aber mit viel Blickwinkel und anderen Problemchen rum, die es schon vor 20 Jahren gab. Das kotzt mich an. Was man so liest, sind OLEDs momentan für den reinen Desktop Betrieb leider auch noch ungeeignet (wegen Einbrennen bzw. Haltbarkeit) und davon abgesehen gibt es auch gar keine Monitore unter 40".

Das geht alles nur im Schneckentempo voran und das schon mindestens seit 10 Jahren. Das is sowas von frustrierend. Von den anderen Features (HDR, 120 Hz, Freesync / Gsync) möchte ich gar nicht erst anfangen.

SamLombardo
2019-03-11, 19:39:27
@Oled Monitor Diskussion:https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11741512&postcount=10244

Habe ihn jetzt seit einem halben Jahr und nutze ihn wirklich viel, von zocken über Surfen bis Videobearbeitung. Wenn ich mein Fazit auf einen Satz verdichten sollte dann wäre es dieser. Einen LCD werde ich mir nie wieder als Monitor holen:).
Das theoretisch was einbrennen könnte habe ich auch gelesen. Aber ich denke in der Praxis ist es weit weniger relevant, bzw die Panels bei denen das passiert sind nicht die Regel. Ich habe stundenlang Spiel Sessions auch bei Spielen mit festen HUD, und noch nie auch nur ein Nachleuchten gehabt. Von LCD zu OLED als Monitor ist einfach wie von einer Generation zur nächsten. Erst recht wenn man in HDR spielt.

SamLombardo
2019-03-11, 19:41:36
Die Spiele laufen halt weiterhin nur mit 8 Bit, einzig die anzunehmende höhere Genauigkeit für die LUT hilft bei Farbanpassungen im Monitor-OSD.
Sechs Bit + FRC ist natürlich steinzeitlich, keine Frage.
Wie ist das mit HDR games? Laufen die tatsächlich nur mit 8bit, oder wird hier 10 Bit genutzt, wenn der entsprechende Bildschirm vorhanden ist?

Höhnangst
2019-03-11, 19:46:24
Ich hab auch schon kurz mal drüber nachgedacht, einfach einen OLED-Fernseher zu holen, der dann rein zum Zocken am PC dienen könnte. Den LCD würde ich dann als Arbeitstier am Schreibtisch weiterverwenden. Aber ich weiß nicht recht. Rein von der Entfernung / Größe müsste der OLED dann schon eher so im Bereich 65 - 75" sein. Als Monitor auf dem Schreibtisch wären dagegen die 55" von dem LG schon viel zu groß. Das krieg ich hier nicht verbaut.

Wenn's halt einfach sowas zwischen 30 und 40" gäbe. Aber es soll halt nicht sein.

SamLombardo
2019-03-11, 19:51:36
Ich habe wie gesagt einen 55er (als reinen Monitor). Sitze so einen Meter entfernt. Am Anfang ist man erschlagen, aber man gewöhnt sich unglaublich schnell dran. Außerdem spiele ich viel mit benutzerdefinierten Auflösung, 21:9 usw. Lg will ja dieses Jahr auch kleinere OLED, 48 Zoll glaube ich, bringen.

aufkrawall
2019-03-11, 19:54:57
Wie ist das mit HDR games? Laufen die tatsächlich nur mit 8bit, oder wird hier 10 Bit genutzt, wenn der entsprechende Bildschirm vorhanden ist?
Dürfte so sein, ja. Wobei AMD mit HDMI 2.0a-Output für 60Hz auch lieber auf 8 Bit + Dithering zur Bandbreiten-Einsparung setzt anstatt auf 4:2:2 CSS.
Keine Ahnung, ob HDR einen Sonderfall darstellt, aber ohne HDR ist es für die Gradientendarstellung völlig egal, ob die Ausgabe in nativen 10 Bit erfolgt oder das Signal vorher mittels Dithering nach 8 Bit konvertiert wurde.

SamLombardo
2019-03-11, 20:02:23
Ah ok. Danke für die Info.

robbitop
2019-03-11, 20:08:43
IMO zu groß. Habe jahrelang an einem 37“ TV am Schreibtisch und an einem 32“ Monitor gespielt. Fand ich beides zu groß. Ständig den Kopf bewegen. Keine ordentliche Übersicht. HUD und Minimag zu weit weg.
Manche mögen es - ich fand es unschön.
27“ bei 16:9 oder 34“ bei 21:9 sind IMO ideal als Schreibtischmonitor.

TobiWahnKenobi
2019-03-11, 20:38:52
das 1000nits HDR von meinem momentum brezelt einem auch mit einem VA panel die augen weg - macht spaß das teil. schwarz geht auch völligst in ordnung. nur wirklich für den schreitisch arg grenzwertig was die größe angeht.. 43" und ich sitze ca. eine armlänge +20cm von dem teil weg. das subjektive bildempfinden ist pervers (gut).

hatte den eigentlich nur gekauft, weil ich freesync @nvidia ausprobieren wollte, aber der bleibt definitiv stehen. HDR wollte ich am tisch gar nicht haben.. bis neulich.. weiss auch gar nicht wann ich zuletzt nichtstuenderweise am pc gesessen und mir bunte hintergrundbildchen angeschaut habe.. also bis neulich.. :-P


(..)

mfg
tobi

Gast
2019-03-11, 21:38:32
Wie ist das mit HDR games? Laufen die tatsächlich nur mit 8bit, oder wird hier 10 Bit genutzt, wenn der entsprechende Bildschirm vorhanden ist?

HDR läuft natürlich mindestens mit 10bit/Kanal alles andere wäre ja grausam.

Sardaukar.nsn
2019-03-12, 05:59:13
Ich habe wie gesagt einen 55er (als reinen Monitor). Sitze so einen Meter entfernt. Am Anfang ist man erschlagen, aber man gewöhnt sich unglaublich schnell dran. Außerdem spiele ich viel mit benutzerdefinierten Auflösung, 21:9 usw. Lg will ja dieses Jahr auch kleinere OLED, 48 Zoll glaube ich, bringen.

Ich denke das ist ein interessanter Weg. Wenn man auf OLED TV statt Monitor setzt, sollte man evtl. auch sein Büro etwas umgestalten und etwas mehr Sitzabstand einplanen.

Tobalt
2019-03-15, 07:45:56
Sehe das mögliche Einbrennen gar nicht mal als das größte Problem sondern 60 Hz

24p
2019-03-15, 08:45:43
Die 2019er OLEDs haben HDMI 2.1 und schaffen 120Hz bei 4K.

TobiWahnKenobi
2019-03-15, 09:01:09
ausgeben, ja - mit zwischenbildberechnung. wie es mit zuspielung und ausgabe PC-seitig aussieht, sehen wir irgendwann.. wenn es soweit ist.


(..)

mfg
tobi

Savay
2019-03-15, 10:05:24
Schon die 2017er geben 120Hz bei 1080p aus...da limitiert doch nur die Schnittstelle!
Mit HDMI 2.1 sind dann auch regulär 120Hz bei 2160p drin...fehlen nur die Grafikkarten dafür.

24p
2019-03-15, 10:22:20
ausgeben, ja - mit zwischenbildberechnung. wie es mit zuspielung und ausgabe PC-seitig aussieht, sehen wir irgendwann.. wenn es soweit ist.


(..)

mfg
tobi

LG hat die Zuspielung von 4K mit 120Hz explizit beworben bei den neuen 2019ern. Ist eben blöd, dass die Turing-Karten kein HDMI 2.1 können.

Ph03n!X
2019-03-16, 16:29:40
Welchen 4K Monitor könnt Ihr für Office Arbeiten und ab und an mal ein Game empfehlen?

Wichtig wäre mir eine gute PiP , PbP Funktion.
Am liebsten wo ich die Größe für beides festlegen kann.
Mein aktueller macht bei PbP 1920x1280 pro Eingang. Aber es bleibt trotzdem ein großer schwarzer Streifen oben und unten.

USB-C wäre noch nice to have.

Nutze einen Windows Desktop PC und ein MacBook Pro.

TobiWahnKenobi
2019-03-16, 16:58:54
umfangreichere PiP funktionen findest du meist bei den geräten, die mehr als zwei quellen gleichzeitig anzeigen können. und empfehlen zum arbeiten, spielen und medien konsumieren kann ich meinen ex-bildschirm - bdm4065 - habe den nur abgebaut, weil hier für 2x 40 zoll kein platz ist.. leistungstechnisch absolut gut das gerät.


(..)

mfg
tobi

Gast
2019-03-17, 20:05:17
ausgeben, ja - mit zwischenbildberechnung.

Nein, in 1080p kannst du den Monitor direkt mit 120Hz ansteuern.

Mandalore
2019-03-18, 00:49:43
ausgeben, ja - mit zwischenbildberechnung. wie es mit zuspielung und ausgabe PC-seitig aussieht, sehen wir irgendwann.. wenn es soweit ist.


(..)

mfg
tobi


Keine Zwischenbildberechnung, das ist ja das Tolle, echtes 4K mit echten 120 Hz!!!

Kriton
2019-03-25, 23:45:33
Ich muss mal eine Noobfrage stellen:

Wie greifen die Schaltzeiten und die Latenz ineinander (und führt eine zu große Latenz nicht zu Lag)?

Ich frage wegen der Tests bei Prad:

https://www.prad.de/testberichte/test-monitor-iiyama-gb2760qsu-b1-red-eagle/6/

und

https://www.prad.de/testberichte/test-acer-xf270hua-gaming-monitor-ueberzeugt/4/#Latenzzeit

Der Ilyama ist ja ein TN, sollte also schneller sein. In der Latenz ist er aber deutlich schlechter. Das verstehe ich nicht, weil ich es so verstehe, dass sich die Latenz doch (vor allem) aus den Schaltzeiten ergeben sollte.
Die Latenz gibt doch an, wie groß die Verzögerung einer Eingabe ist, die wiederum ist doch darstellungsabhängig?

Oder muss ich das so verstehen, dass der Ilyama mit kurzen Schaltzeiten bei schnellen Bildern ohne Input besser ist als der Acer, der Acer aber besser bei Änderungen durch Input, dafür schlechter bei Änderungen ohne Input - die sonstige Elektronik also den Ilyama ausbremst?

Ist also der IPS (z.B. bei Bewegungen) in FPS schneller als der TFT und negiert damit den prinzipiellen Vorteil des TN-Panels?

Tesseract
2019-03-26, 00:03:05
steht doch eh da: "wir ermitteln sie als Summe der Signalverzögerungszeit und der halben mittleren Bildwechselzeit."

signalverzögerugszeit ist das was die monitorelektronik mit den pixel von der graka macht bevor der schaltvorgang beginnt. je nach modell kann die fast null (einige gaming-monitore) bis deutlich höher als die zellenschaltzeit (viele officegeräte) sein.

neben signalverzögerugszeit und zellenschaltzeit hat noch die refreshrate einen großen einfluß auf den gesamtlag wobei signalverzögerugszeit und refreshrate teilweise zusammenhängen.

Ist also der IPS (z.B. bei Bewegungen) in FPS schneller als der TFT und negiert damit den prinzipiellen Vorteil des TN-Panels?

kommt drauf an was du mit "schneller" meinst. beim TN schalten die zellen etwas schneller, d.h. wenn beide auf 144Hz laufen ist der TN in bewegung eine spur schärfer wobei beide auf einem recht hohen niveau liegen. anfühlen wird sich der IPS wahscheinlich besser da er weniger gesamtlag hat.

Tobalt
2019-03-26, 08:00:30
warum streamt man neue frames eigentlich von oben nach unten ?
wenn man sie stattdessen von der mitte nach außen streamt fällt ein Teil der wechselzeit in der wichtigen bildmitte direkt weg

robbitop
2019-03-26, 12:12:43
Ist bei modernen 144hz+ wahrscheinlich kein maßgeblicher Nachteil mehr.
Das ist historisch so noch aus der Zeit der Röhre (crt) über geblieben. :)

FlashBFE
2019-03-26, 13:30:40
warum streamt man neue frames eigentlich von oben nach unten ?
wenn man sie stattdessen von der mitte nach außen streamt fällt ein Teil der wechselzeit in der wichtigen bildmitte direkt weg
Weil das schon immer so war. ;)

Die digitalen Schnittstellen haben immer noch einen Pixeltakt, einen Zeilentakt und dann die vertikale Frequenz. Man bräuchte zumindest oberhalb der Phy-Ebene eine neu definierte Schnittstelle ohne Altlasten, um das anders zu machen.

Kamera-Sensoren haben üblicherweise ja das gleiche Grundprinzip, was sich dann in rolling Shutter äußert.

Gast
2019-03-26, 21:15:32
Ist bei modernen 144hz+ wahrscheinlich kein maßgeblicher Nachteil mehr.
Das ist historisch so noch aus der Zeit der Röhre (crt) über geblieben. :)

Jein.

Einige Monitore erlauben einen Pixeltakt an der Schnittstelle deutlich über der des Panels, was sich dann in niedrigeren Latenzen äußert.

Dabei wird das eigentliche Bild natürlich weiterhin mit Monitorfrequenz übertragen und dazwischen nix/schwarz. Technisch gesehen wird das Blanking-Interval deutlich erhöht, während das eigentliche Bild weiter mit der Panelfrequenz gesendet wird.

Aber klar, bei Displays die schon nativ hohe Frequenzen haben bringt das nicht mehr viel.

Kriton
2019-03-27, 17:19:49
Hat Samsung im Spielebereich tatsächlich nur noch gebogene Monitore?

Hat jemand Erfahrung mit dem Dell S2719DGF?

just4FunTA
2019-04-14, 22:53:51
Acer Predator CG437KP: Prolliger Gaming-Monitor mit 43 Zoll und 4K-Auflösung

Acer nennt für den LFGD-Monitor mit 43 Zoll außerdem eine native Auflösung von 3.840 x 2.160 Pixeln. Außerdem sollen 144 Hz und Adpative Sync auch anspruchsvolle Gamer ins Boot holen. Acer verbaut ein VA-Panel, das 90 % des DCI-P3-Farbraumes abdecken soll. Es entspricht sogar dem Standard VESA DisplayHDR 1000, was eine im PC-Bereich bemerkenswerte HDR-Wiedergabe möglich machen sollte. Denn aktuell gibt es noch nicht viele Monitore, die DisplayHDR 1000 erreichen, weil das eine maximale Helligkeit von 1.000 cd/m2 voraussetzt.

Der Monitor bietet zudem drei Ports für HDMI plus einen für DisplayPort und auch USB Typ-C. Im Lieferumfang ist auch eine Fernbedienung enthalten. Im Handel wird der Acer Predator CG437KP voraussichtlich ab dem 4. Quartal 2019 erhältlich sein. 1.499 Euro

https://stadt-bremerhaven.de/acer-predator-cg437kp-prolliger-gaming-monitor-mit-43-zoll-und-4k-aufloesung/

hört sich schon alles gut an, aber erst ende des Jahres und ein stolzer Preis. :x

FlashBFE
2019-04-15, 11:10:31
https://stadt-bremerhaven.de/acer-predator-cg437kp-prolliger-gaming-monitor-mit-43-zoll-und-4k-aufloesung/

hört sich schon alles gut an, aber erst ende des Jahres und ein stolzer Preis. :x
Gibt's das auch in 10" kleiner?
Bei 43" ist 4k schon zu wenig, um das als Monitor zu nehmen.

Mr.Magic
2019-04-15, 11:36:43
Du meinst 10" größer, oder? Ich bräuchte einen 55", damit ich Text bequem lesen kann, wenn das Teil an der Wand hängt, und 150cm+ von meinen Augen weg ist.

TobiWahnKenobi
2019-04-15, 14:13:47
ich empfinde „meine“ 43“ hinter dem schreibtisch als sehr angenehm.

wenn so ein gerät irgendwann mit 144Hz zu haben ist und nicht von acer kommt, schaue ich es mir an.


(..)

mfg
tobi

Razor
2019-04-15, 19:27:02
Öhm...
https://www.werbeverdienste.de/rechner/ppi-pixeldichte-rechner.html#ppi-rechner
"Die Pixeldichte beträgt bei einer Bildschirmauflösung von 3840 x 2160 (Pixel) und einer Bildschirmdiagonale von 43,00" (Zoll) genau: 102,4608 PPI."

Da ist ein QHD mit 27" schon besser:
"Die Pixeldichte beträgt bei einer Bildschirmauflösung von 2560 x 1440 (Pixel) und einer Bildschirmdiagonale von 27,00" (Zoll) genau: 108,7855 PPI."

32" QHD oder 24" FHD
"Die Pixeldichte beträgt bei einer Bildschirmauflösung von 2560 x 1440 (Pixel) und einer Bildschirmdiagonale von 31,50" (Zoll) genau: 93,2447 PPI."
"Die Pixeldichte beträgt bei einer Bildschirmauflösung von 1920 x 1080 (Pixel) und einer Bildschirmdiagonale von 24,00" (Zoll) genau: 91,7878 PPI."

Ergo: 4k bis max. 40" also Compi-Moni ;)

Razor

just4FunTA
2019-04-15, 22:20:40
@Razor

also ich habe einen 55" tv der zwar zu langsam ist für egoshooter, aber für Rennspiele geht der schon und das sieht in 4k schon sehr geil aus und da ist die ppi noch geringer.

BlacKi
2019-04-15, 22:59:50
was willst du mit ppi?

Mr.Magic
2019-04-16, 04:06:36
Ergo: 4k bis max. 40" also Compi-Moni ;)

Absoluter Käse.

Ein 40" 16:9 4K Monitor ist anstrengend. Bei 40cm von der Schreibtischkante sind viele Spiele nervig, weil man zu nah dran ist (HUD in den Ecken). Bei 80cm von der Schreibtischkante wird die Schrift sehr klein, was die Augen schnell ermüdet.
Brauchbar ist ein 21/32:9 1440p mit ungefährer Höhe eines 27" bei 40cm. Gut wäre das in 2160p.
Ideal wäre für mich ein 16:9 55" 4K an der Wand, also ca. 85cm bis zur vorderen Schreibtischkante, bzw. ~150cm bis zu meinen Augen (bin kein "indenMonitorKriecher").

Savay
2019-04-16, 11:50:42
Absoluter Käse.


Absoluter Käse sind vor allem wirklich immer Pauschalisierungen, da es halt vom Visus, der Sehstärke auf eine gegebene Distanz und den Platzverhältnissen abhängt.

Im Grunde kann doch jede Diagonale von 10 bis 99", bei einem Abstand von 30 bis 500cm und eine PPI von 50 bis 500 sinnvoll sein.

Ich empfinde übrigens alles unter 140ppi auf 80cm als absolut suboptimal...160 sind gut und so 200-240 wohl "optimal", für die Schriftgröße gibt es die Skalierung.
Muss man halt mal für sich selbst austesten! :wink:

BlacKi
2019-04-16, 12:07:16
Ich empfinde übrigens alles unter 140ppi auf 80cm als absolut suboptimal...160 sind gut und so 200-240 wohl "optimal", für die Schriftgröße gibt es die Skalierung.
Muss man halt mal für sich selbst austesten! :wink:
also ist bei dir fhd auf 11 zoll in 80cm entfernung optimal?:biggrin:

wie gesagt mit der ppi angabe kann man nichts einordnen.

ich hätte gerne einen 75" 4k fernseher/monitor mit 144hz und VRR und natürlich curved. auf 125-150cm entfernung ist das wohl perfekt. leider gibts den nicht und wirds auch nie geben. ppi sind nur 58, trotzdem perfekt.

Savay
2019-04-16, 12:09:42
wie gesagt mit der ppi angabe kann man nichts einordnen.

Doch kann man...wenn man die Entfernung einbezieht und die ist ja angegeben! :rolleyes: Ist halt ein substitut für die Winkelauflösung und die ist am Ende nun mal für den Bildeindruck mit Abstand am entscheidensten.

Über die PPI definiere ich den für mich optimalen Betrachtungsabstand für ein gegebenes Panel, den ich nicht unterschreiten will...über die Diagonale und Bildhöhe danach die resultierende die Arbeitsfläche und FoV...und das kommt erst im zweiten Schritt!

BlacKi
2019-04-16, 12:20:58
again:rolleyes:
also ist bei dir fhd auf 11 zoll in 80cm entfernung optimal?

Savay
2019-04-16, 12:22:10
again:rolleyes:
also ist bei dir fhd auf 11 zoll in 80cm entfernung optimal?

Ja, natürlich...genauso wie es bspw ein 22" mit UHD wäre...oder ein 44" mit 8K. :rolleyes:

Wo genau ist das Problem? Momentan lebe ich übrigens seit Jahren mit dem "Kompromiss" UHD@27"...für den Desktop relativ ok.

Ich hatte übrigens vor vielen Jahren ein 10,4" Tablet mit FHD...das war erst auf voller Armlänge zu ertragen. :tongue:
Das Nexus 7 mit den 330PPI war da schon ein enormer Fortschritt. :cool:

Mein aktuelles 13,3" Convertible hat genau wie der DT 160ppi...das ist für den "Schoßbetrieb" eigentlich etwas zu wenig für mich...aber was soll man tun...gibt ja leider nur in absurd überteuerten Geräten die 2160p oder zumindest 1440p Panels in entsprechender Größe. (wenn überhaupt)

BlacKi
2019-04-16, 12:32:58
Wo genau ist das Problem? Momentan lebe ich übrigens mit dem "Kompromiss" UHD@27"...für den Desktop relativ ok.
die nutzbarkeit?

ich würde es vorziehen auf 30-50cm ranzugehen. das ist aber nicht optimal deiner formulierung des optimums.

Savay
2019-04-16, 12:44:49
die nutzbarkeit?

ich würde es vorziehen auf 30-50cm ranzugehen. das ist aber nicht optimal deiner formulierung des optimums.

Die "Nutzbarkeit" wird doch eh nicht besser nur weil man sich dichter dran setzt!
Die Menge der darstellbaren Informationen bleibt ja ohne die Auflösung zu erhöhen absolut gleich.

Eine DIN A3 Seite auf FHD zeigt immer gleich viel vom Inhalt an...egal ob 60" oder 6" oder ob ich 1m oder 10cm davon weg bin.

Nutzbarkeit ist eh ein ziemlich undefinierter Begriff!

Davon abgesehen kann man sich entsprechend der konkreten Zielsetzung die anderen Parameter (Diagonale oder absolute Auflösung) auch ausrechnen, wenn man den gewünschten Abstand und PPI kennt.
Die PPI bei gegebenen Betrachtungsabstand definiert letztlich die Qualität...nicht mehr, nicht weniger! Alles andere ist dann Anwendungsbezogen erst der zweite Schritt!

just4FunTA
2019-04-18, 09:01:47
Asus ROG Strix XG438Q: 43 Zoll, 4K und 120 Hz für 1000€?

17.04.2019 um 18:02 Uhr von Willi Tiefel - Monitore mit 4K-Auflösung und 120 Hz galten bis vor einem halben Jahr noch als Wunschtraum, sind dann allerdings mit dem PG27UQ Realität geworden. Dieser ist mit weit über 2.000€ aber kaum bezahlbar. Auf der ROG Convention stellt Asus deshalb einen neuen 43-Zoll-Monitor vor, der diese Features für weniger als die Hälfte des Preises bieten soll.

http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Videos/Asus-Strix-XG438Q-43-Zoll-4k-und-120-Hz-fuer1000-1280033/

BlacKi
2019-04-18, 09:59:08
schade das er nicht curved ist. bei der größe ist das eigentlich ein muss.

gravitationsfeld
2019-04-18, 18:12:23
Voellig subjektiv. Ich finde gekruemmte Displays sind nervig.

looking glass
2019-04-18, 18:59:30
Bei 43 Zoll aber wirklich schon sinnig, würde meinen ab 32 Zoll bei Monitoren ist Curve durchaus hilfreich, drunter halte ich das allerdings auch für nervig.

jay.gee
2019-04-21, 20:36:39
Bei 43 Zoll aber wirklich schon sinnig, würde meinen ab 32 Zoll bei Monitoren ist Curve durchaus hilfreich, drunter halte ich das allerdings auch für nervig.

Ich wechsle am Dienstag von meinem 34er LG auf einen 35er AOC AGON AG352UCG6. Das wird dementsprechend mein erster Curve sein und ich bin schon ziemlich gespannt. Habe was Curve angeht zahlreiche User-Rezension gelesen und viele Spieler bescheinigen besonders im Ultra-Wide-Format ein gesteigertes Mittendrin-Gefühl.

Hängt natürlich auch vom Sitzabstand ab - wenn man zu weit vom Monitor entfernt sitzt, macht das ganze sicher keinen Sinn. Aber wenn man so wie ich ca. ~70cm vom Monitor entfernt sitzt, kann ich mir schon vorstellen, dass einen das Bild in Ultrawide sehr angenehm ins Geschehen reinzieht. Besonders im abgedunkelten Raum - das ist ja in Ultrawide schon ohne Curve ziemlich geil, weil quasi das ganze Sichtfeld und noch mehr nur noch Monitor ist.

looking glass
2019-04-21, 20:48:34
Mhhh, aber wenn ich es darauf absehe, wäre VR dann nicht sinniger? Das mittendrin ist doch gerade das, was bei VR ziehen soll.

Ich persönlich mag weder abgedunkeltes daddeln, noch komplettes eintauchen, aber da bin ich halt eh etwas seltsam, was das angeht, insofern bestimmt kein Standard.

jay.gee
2019-04-21, 21:07:24
Mhhh, aber wenn ich es darauf absehe, wäre VR dann nicht sinniger? Das mittendrin ist doch gerade das, was bei VR ziehen soll.

Ich persönlich mag weder abgedunkeltes daddeln, noch komplettes eintauchen, aber da bin ich halt eh etwas seltsam, was das angeht, insofern bestimmt kein Standard.

Ja, ich besitze auch eine Oculus Rift, die primär bei Simulationen zum Einsatz kommt. Das ist natürlich nochmal eine komplett andere Art von Mittendrin. Allerdings bieten die meisten Spiele ja kein VR und ich würde einen Witcher oder diverse andere Genres jetzt auch nicht unbedingt in VR spielen wollen. Wenn man dann trotzdem ins Geschehen eintauchen möchte, ergeben Ultrawide@Curve schon Sinn. Ich spiele am liebsten darüber hinaus in gedimmter Atmosphäre mit ein paar Ambient Lights.

looking glass
2019-04-21, 21:35:23
Gibt es bei VR nicht den Cinema Mode, womit man Spiele auch ohne VR Unterstützung daddeln kann? Soweit mir das noch im Kopf ist, entspricht der Mode doch einer Sichtgröße einer 3m großen Leinwand...

just4FunTA
2019-04-21, 21:46:41
Gibt es bei VR nicht den Cinema Mode, womit man Spiele auch ohne VR Unterstützung daddeln kann? Soweit mir das noch im Kopf ist, entspricht der Mode doch einer Sichtgröße einer 3m großen Leinwand...
Die Bildqualität ist grottenschlecht mit vr und nur durch das tolle immersionsgefühl mit vr zu ertragen. Damit ersetzt Niemand freiwillig seinen Monitor bei nichtvr Medien.

N0Thing
2019-04-22, 14:04:46
Ich wechsle am Dienstag von meinem 34er LG auf einen 35er AOC AGON AG352UCG6. Das wird dementsprechend mein erster Curve sein und ich bin schon ziemlich gespannt. Habe was Curve angeht zahlreiche User-Rezension gelesen und viele Spieler bescheinigen besonders im Ultra-Wide-Format ein gesteigertes Mittendrin-Gefühl.

Hängt natürlich auch vom Sitzabstand ab - wenn man zu weit vom Monitor entfernt sitzt, macht das ganze sicher keinen Sinn. Aber wenn man so wie ich ca. ~70cm vom Monitor entfernt sitzt, kann ich mir schon vorstellen, dass einen das Bild in Ultrawide sehr angenehm ins Geschehen reinzieht. Besonders im abgedunkelten Raum - das ist ja in Ultrawide schon ohne Curve ziemlich geil, weil quasi das ganze Sichtfeld und noch mehr nur noch Monitor ist.

Bin mal auf deine Eindrücke gespannt. Ich habe bei meinem 21:9 nur eine leichte Krümmung (3000R) und fand es zu Beginn auch ganz interessant, aber ein gesteigertes Mitten-Drin-Gefühl hat sie nie eingestellt und ich würde in Zukunft wieder ein gerades Display bevorzugen.

Nightspider
2019-04-22, 14:28:30
Liebäugelt hier jemand mit dem Kauf des Acer Nitro XV3 (4K + 144Hz bei 950€) ?

https://geizhals.de/acer-nitro-xv3-xv273kpbmiipphzx-um-hx3ee-p04-a1935862.html?hloc=at&hloc=de

just4FunTA
2019-04-22, 14:32:57
27" ...

Nightspider
2019-04-22, 15:44:14
Perfekte Größe fürs Zocken

Ich les nur gerade bei Amazon das der perverse Probleme mit Backlightbleeding haben soll.

Wie viele Jahre wir jetzt schon auf gute Monitore mit 4K+ mind. 120Hz warten.... :facepalm:

Im TV Bereich gibts sowas wie Backlightbleeding kaum, vor allem nicht im hohen Preisbereich. Und bei PC Monitoren kriegen wir den übelsten Rotz. -.-

Müssen wohl auf OLED Panels warten. Aber wer weiß was die Hersteller dann wieder verkacken werden.

jay.gee
2019-04-24, 15:44:08
Bin mal auf deine Eindrücke gespannt. Ich habe bei meinem 21:9 nur eine leichte Krümmung (3000R) und fand es zu Beginn auch ganz interessant, aber ein gesteigertes Mitten-Drin-Gefühl hat sie nie eingestellt und ich würde in Zukunft wieder ein gerades Display bevorzugen.

Nun, habe ihn Gestern angeschlossen und mein Ersteindruck ist, dass sich Curve bei ~70cm Sitzabstand nicht so gravierend anders anfühlt. Mag daran liegen, dass mein alter 34er Ultarwide Monitor quasi auch schon den ganzen Sichtbereich eingenommen hat und somit ein gutes Mittendringefühl vermittelt hat.

Curve ist hier drüben aber auch nicht störend, fühlt sich eigentlich sehr angenehm an. Hatte bis jetzt aber auch noch nicht die Gelegenheit, den Monitor in einer längeren Spiele-Session zu testen. Was dagegen aber schon nach den ersten Eindrücken ziemlich cool kommt sind UWQHD@120Hz mit G-sync.

x-force
2019-04-24, 16:08:02
Voellig subjektiv. Ich finde gekruemmte Displays sind nervig.

nein, sie sind der einzige weg um va panels für größere pc bildschirme zu nutzen.
blickwinkel lässt grüßen.

aufkrawall
2019-04-24, 16:09:27
Gibt trotzdem sichtbaren Gammashift. Wen das stört, kauft kein VA.

TurricanM3
2019-04-24, 16:34:37
Wie viele Jahre wir jetzt schon auf gute Monitore mit 4K+ mind. 120Hz warten.... :facepalm:


Nunja, wer ist "wir"? Glaube dafür gibt es so gut wie gar keinen Markt, geschweige denn Hardware.

just4FunTA
2019-04-24, 17:06:26
eben auf die 120hz warten "wir" weil die tv´s halt mit 4k kommen und mit 60hz macht das keinen Spaß. Aber für Spiele haben wir selbst mit 1440p schon Probleme mit der Performance und müssen die Grafik runterdrehen für > 100fps..

27" und 4k kommt für mich nicht in Frage..

BlacKi
2019-04-24, 17:24:18
ich sehe das nicht als problem an. notfalls eben grafik runterdrehen, oder zum schluss zum screenscale greifen. 85% von 4k auf 4k120hz sieht besser aus als 100% auf 1440p. alternativ könnte man auch auf 3840x1800 spielen wenn der monitor groß genug ist. das geht leider bei meinem fernseher nicht.

aber 27 zoll (habe ich derzeit) reichen mir nicht mehr. ich will mehr. 4k auf 43" gebogen wären mir schon 1500€ wert. die 34" uwqhd sind schon fast zu klein, naja, muss man halt näher ran.

Nightspider
2019-04-24, 17:28:55
Eben. Bei so einem Monitor kann man beliebig mit den Details und Auflösungen spielen, je nach SP oder MP Game und so immer ein optimales Bilderlebnis erhalten.

TurricanM3
2019-04-24, 17:35:57
Ich will nicht wissen wie Spiele aussehen um zumindest auf das Perfomance Niveau von 1440p zu kommen, was schon oft nicht reicht. Und dann evtl. noch interpoliert. :freak:
Hauptsache 4k 120Hz ne.

just4FunTA
2019-04-24, 17:36:23
ja eben die 4k nehme ich schon mit bei größeren Monitoren 43" @4k &120hz wird wohl die Zukunft. Im Notfall spiele ich dann halt eben mit 1440p das dürfte während dem zocken trotzdem noch gut aussehen, aber auf keinen Fall mit 27" das habe ich aktuell @1440p und umsteigen auf 4k 27" wäre nix für mich.

-------------------------------------------------------------------

Aber sagt mal inzwischen sind doch die Oleds von LG draußen mit hdmi 2.1 und 120hz @4k gibt es schon irgendwelche persönlichen Erfahrungen kriegt man die 120hz irgendwie auch mit aktuellen Grafikkarten? DP1.4 to HDMI2.1 Adapter oder irgendwas?

jay.gee
2019-04-24, 18:40:49
Ich will nicht wissen wie Spiele aussehen um zumindest auf das Perfomance Niveau von 1440p zu kommen, was schon oft nicht reicht. Und dann evtl. noch interpoliert. :freak:
Hauptsache 4k 120Hz ne.

Ich stand auch vor der Frage, mir einen 4K zuzulegen, aber bin dann für mich zu der Erkenntnis gekommen, dass UWQHD@120Hz mit G-sync für mich einfach aktuell den besten Kompromiss darstellen. Neben der Auflösung gibt es ja auch die Faktoren Details, die ich in Spiele nicht gerne runter schraube. Und halt die passenden Frames, die aktuelle Hardware hergeben können.

Jetzt könnte man zwar argumentieren, dass zukünftige Hardware noch schneller wird, um 4K ohne grössere Kompromisse spielen zu können. Demgegenüber steht dann aber die technische Evolution in Spiele selbst, die zukünftig ja auch wieder höhere Ansprüche an die Hardware stellen werden. Daher ist UWQHD 34/35 für mich gegenwärtig der absolute Sweet Spot. Viel grösser darf es beim PC-Gaming nicht sein, die Auflösung ist schön knackig, das Format ausgelegt für eine bessere Immersion und man muss deutlich weniger Kompromisse bei den InGame-Details eingehen - wenn überhaupt. Und mit 120Hz ist man auch recht gut aufgestellt.

N0Thing
2019-04-24, 18:59:43
Curve ist hier drüben aber auch nicht störend, fühlt sich eigentlich sehr angenehm an. Hatte bis jetzt aber auch noch nicht die Gelegenheit, den Monitor in einer längeren Spiele-Session zu testen. Was dagegen aber schon nach den ersten Eindrücken ziemlich cool kommt sind UWQHD@120Hz mit G-sync.

In Spielen finde ich curved auch nicht störend, da fällt es mir meist sogar überhaupt nicht auf. Aber wenn ich am PC arbeite (ist kein reiner Gaming-PC), dann wirkt die Krümmung je nach Bildschirminhalt teilweise störend. Viel Spaß auf alle Fälle mit deinem neuen Monitor, du nutzt ihn ja vermutlich vor allem für Spiele. :up:

Ex3cut3r
2019-04-24, 19:06:35
Ich stand auch vor der Frage, mir einen 4K zuzulegen, aber bin dann für mich zu der Erkenntnis gekommen, dass UWQHD@120Hz mit G-sync für mich einfach aktuell den besten Kompromiss darstellen.

4K? Ja, aber dann bitte in 21:9 nämlich mit 5160x2160.

2023 dann mit 38" oder 42" 240hz, OLED und G-Sync.

So ein Teil, hole ich mir dann auch. :biggrin:


Bis dahin, ist das IMO der beste Kompromiss:
https://www.lg.com/us/monitors/lg-38GL950G-B-gaming-monitor

38" 3840x1600, 175 HZ (OC) G-Sync, Nano-IPS leider immer noch nicht erhältlich. :redface:

gedi
2019-04-24, 20:35:40
Ich habe den HP Omen X Emperium 65 ins Auge gefasst. Als 2080Ti-User würde mich die VRR-Kompatibilität interessieren. Abstand zum Monitor beträgt in etwa 4m, also nix mit Schreibtisch und so …

Ui - ich seh gerade, der hat ja Gsync, also Forget it :)

just4FunTA
2019-04-24, 22:31:24
Und einen stolzen Preis..

gedi
2019-04-25, 00:02:35
Jo, aber Gsync, HDR1000 und 4k bei 120Hz aufwärts auf 65" kostet halt. Kleiner geht auf die Entfernung halt nicht

BlacKi
2019-04-25, 05:46:54
auf 4m entfernung wäre die fehlende kurve auch kein beinbruch, aber ich müsste das schon auf 1,5 -2m ran und dann fehlt halt die curve. aber hey, bei dem wertverfall würde ich sowieso drauf verzichten.

robbitop
2019-04-25, 10:17:02
Voellig subjektiv. Ich finde gekruemmte Displays sind nervig.
Vor allem führt das idR zu häßlichem Clouding. Dann lieber ohne curve.

Perfekte Größe fürs Zocken

Ich les nur gerade bei Amazon das der perverse Probleme mit Backlightbleeding haben soll.

Wie viele Jahre wir jetzt schon auf gute Monitore mit 4K+ mind. 120Hz warten.... :facepalm:

Im TV Bereich gibts sowas wie Backlightbleeding kaum, vor allem nicht im hohen Preisbereich. Und bei PC Monitoren kriegen wir den übelsten Rotz. -.-

Müssen wohl auf OLED Panels warten. Aber wer weiß was die Hersteller dann wieder verkacken werden.
Ja das ist schon bei den 144 Hz AHVA Panels für 1440p so gewesen. Backlightbleeding, clouding, "Pissecken". Guter Blickwinkel, gute Farben, mieser Kontrast.
Was Helligkeitsverteilung angeht, war der PG278Q (Asus ROG Swift) mit sehr gutem TN Panel wesentlich besser als die modernen AHVAs. Leider war die vertikale Blickwinkelstabilität wie bei allen TNs für den Garten.

IMO sind 27" bei 1440p und 144 Hz ein guter Sweetspot für aktuelle HW. 4K braucht 2,25x so viel Grafikleistung für gleiche Framerate. Die hohe zeitliche Auflösung (hohe Framerate) führt zu deutlich mehr Bewegtschärfe, so dass ein Bild, dass in Bewegung ist bei 1440p144Hz schärfer aussieht als ein 4K60 Bild.
Leider ist der Leistungsfortschritt bei GPUs ja massiv zurück gegangen. Früher gab es alle 18 Monate Faktor 2 an Leistung. Zuletzt waren es popelige Faktor 1,35.

Modernes TAA ist, wenn gut implementiert, auch eine echte Hilfe. Insbesondere in Verbindung mit Schärfefiltern. Entsprechend weniger Artefakte gibt es und das Bild wird temporal schön stabil. Bei Wolfenstein 2 hat der Effekt aus 8xTSSAA + Schärfefilter so gute Ergebnisse erzielt, dass Downsampling kaum noch bessere Ergebnisse brachte.

-----------------------------------

Ein interessantes Thema sind 21:9 Monitore. Die allgemeine Annahme ist, dass der Mensch ein besonders breites Gesichtsfeld hat, weil ja beide Augen nebeneinander sind. Jedoch wird vernachlässigt, dass sich die Felder beider Augen ja überschneiden. Das menschliche Gesichtsfeld ist eher 4:3.
http://www.otterstedt.de/wiki/index.php/Bildfeld
https://de.wikipedia.org/wiki/Gesichtsfeld_(Wahrnehmung)

Ich vermute, dass das höhere horizontale FoV und die größere Diagonale dafür verantwortlich ist, wenn man eine 21:9 Aufllösung einstellt.
Wenn man bspw einen 34" 21:9 Monitor hat, dann hat man 34% mehr Sicht in die Horizontale.
Wenn man aus dem 34" 21:9 Monitor einen genauso bereiten aber höheren 16:9 Monitor machen würde -> 36" 3440x1935 und entsprechend das horizontale und vertikale FoV bei jedem Spiel um jene 34% ggü einem herkömmlichen 27" 16:9 Monitor erhöhen würde, hätte man noch mehr Immersion, da es auch mehr Höhe gibt und das Sichtfeld es hergeben würde. Noch besser wäre theoretisch ein noch höherer 4:3 Monitor.
Auch dann müsste das FoV erhöht werden und das HUD in die Mitte rutschen. So wie bei 21:9.

The_Invisible
2019-04-25, 13:53:07
Gibt trotzdem sichtbaren Gammashift. Wen das stört, kauft kein VA.

Wobei bei IPS dann wieder der Glow stört. Bleibt eigentlich nur OLED übrig wenns die mal ohne Einbrenneffekte gibt. So ein >30" OLED PC Monitor mit 4k und >=1000nits wäre dann schon brutal geil. ; )

aufkrawall
2019-04-25, 13:58:45
Wobei bei IPS dann wieder der Glow stört.
Mich stört der sogar bei VA. :)
Zwar nicht so ausgeprägt wie bei IPS, aber halt zusätzlich zum Shift. Wobei Letzterer gerade auch bei dunklen Szenen wegen des so entstehenden Bandings übel ist.

Traxx
2019-04-25, 20:21:37
Ich bin auf diese beiden gespannt:

Alienware OLED
https://www.trustedreviews.com/reviews/alienware-55-inch-4k-oled-monitor

LG OLED C9
https://www.giga.de/unternehmen/lg/news/gaming-auf-dem-fernseher-darum-sind-lgs-neue-oled-tvs-auch-fuer-spieler-interessant/
Jaja, sry für den Giga-Link ^^

Für den LG müsste eine Grafikkarte mit HDMI 2.1 her, oder ein Adapter. Das könnte aber leider noch dauern...

Ich nutze im Moment fürs Grossbildzocken einen LG OLED C6 in 65" bei ca. 1.5 M Abstand. Das ist schon ziemlich nice. Für schnelle Games noch den "alten" 27" 144Harzer von ASUS. Hat für mich beides je nach Einsatz seine Vorteile.

robbitop
2019-04-26, 09:08:07
Ich würde darauf tippen, dass Navi einen HDMI 2.1 Port mit 48 gbit mitbringt.

Knuddelbearli
2019-04-27, 19:25:53
Was gilt heutzutage eigentlich als Mainstream Monitor?

Bin am überlegen wo die Reise für mich hingeht, habe aktuell 60Hz 1440p,

Mehr Hz brauch ich nicht spiel fast nur Aufbau, Simulationen und RPGs, gerade erstere 2 im lategame eigentlich immer deutlich unter 40 FPS, mehr Auflösung sorgt nur für mehr Aufrüstungsdruck bei der Grafikkarte und bereits jetzt nervt mich die Skalierung oft einfach nur, vor allem das mir jedes Spiel das nur in FHD läuft mir jedes mal meinen Desktop zerschießt ...

Also bleibt eigentlich nur ordentliches HDR und A-Synch über?

Florida Man
2019-04-28, 16:44:54
Im Grunde, wenn man ehrlich ist, gibt es auch 2019 noch keine wirklich guten Monitore. Allein die stets strukturierte und sichtbare Kunststoffschicht der Panels ist doch "häßlich", es gibt auch heute keinen guten Schwarzwert und die Verarbeitungsqualität nimmt seit einigen Jahren sogar noch ab. Ich finde die Entwicklung wirklich schlecht.

akuji13
2019-04-28, 22:06:28
Sehe ich auch so.
Aktuell reizt mich da gar nichts.

Toll das ich mehr Hz mit mehr Auflösung bekomme, das hilft aber nix wenn keine andere Baustelle behoben wird wie z. B. das gruselige coating bei den 27"/32".

Noch immer kann ich mir nicht vorstellen nur einen Monitor für alle Spiele zu nutzen weil es hier nicht um Kompromisse geht sondern es grundsätzlich hakt.
Jedes Gerät hat da mindestens einen gravierenden Mangel der dafür sorgt das ich so bestimmten content nicht spielen möchte.

Auch ein Grund warum mich z. B. neue Grafikkarten aktuell völlig kalt lassen.

Nightspider
2019-04-28, 22:55:26
IMO sind 27" bei 1440p und 144 Hz ein guter Sweetspot für aktuelle HW. 4K braucht 2,25x so viel Grafikleistung für gleiche Framerate. Die hohe zeitliche Auflösung (hohe Framerate) führt zu deutlich mehr Bewegtschärfe, so dass ein Bild, dass in Bewegung ist bei 1440p144Hz schärfer aussieht als ein 4K60 Bild.
Leider ist der Leistungsfortschritt bei GPUs ja massiv zurück gegangen. Früher gab es alle 18 Monate Faktor 2 an Leistung. Zuletzt waren es popelige Faktor 1,35.

Deswegen ja 4K + 120Hz. Dann kann man wählen und ist flexibler.

Und was die GPU Leistung betrifft: Bei den RTX Karten nimmt der, im Moment noch, unnötige Raytracing Kram so viel Platz weg.
Ich denke die Steigerung zur nächsten GPU Generation mit 7nm wird wieder ordentliche 60-70% betragen.

Und das reicht halt locker für 4K.

Und bei der nächsten Konsolen-Generation wird halt viel Leistung für echtes 4K draufgehen und eventuell 60fps. So viel mehr GPU Leistung für Effekte wird da auch nicht bereitstehen im Vergleich zur Xbox One X.

Wird also alles im Rahmen bleiben.

1440p mit 120Hz habe ich seit 7 Jahren...das ist echt jämmerlich wie wenig sich da getan hat.

Gynoug MD
2019-04-29, 23:57:33
Wobei bei IPS dann wieder der Glow stört.
...der (herstellerseitig) so einfach stark reduziert/verhindert werden könnte, diesbezüglich waren wir sogar vor 10 Jahren schon mal weiter, vor allem in der Preiklasse, in der sich heutige "Gaming"-Geräte wiederfinden...
:usad:

BlacKi
2019-05-01, 02:40:52
Ein interessantes Thema sind 21:9 Monitore. Die allgemeine Annahme ist, dass der Mensch ein besonders breites Gesichtsfeld hat, weil ja beide Augen nebeneinander sind. Jedoch wird vernachlässigt, dass sich die Felder beider Augen ja überschneiden. Das menschliche Gesichtsfeld ist eher 4:3.
http://www.otterstedt.de/wiki/index.php/Bildfeld
https://de.wikipedia.org/wiki/Gesichtsfeld_(Wahrnehmung)

Ich vermute, dass das höhere horizontale FoV und die größere Diagonale dafür verantwortlich ist, wenn man eine 21:9 Aufllösung einstellt.
Wenn man bspw einen 34" 21:9 Monitor hat, dann hat man 34% mehr Sicht in die Horizontale.
Wenn man aus dem 34" 21:9 Monitor einen genauso bereiten aber höheren 16:9 Monitor machen würde -> 36" 3440x1935 und entsprechend das horizontale und vertikale FoV bei jedem Spiel um jene 34% ggü einem herkömmlichen 27" 16:9 Monitor erhöhen würde, hätte man noch mehr Immersion, da es auch mehr Höhe gibt und das Sichtfeld es hergeben würde. Noch besser wäre theoretisch ein noch höherer 4:3 Monitor.
Auch dann müsste das FoV erhöht werden und das HUD in die Mitte rutschen. So wie bei 21:9.
wenn man bereit ist die augen zu bewegen erhöht isch das sichtfeld drastisch. dann kommt ein 21:9 verhältnis schon ungefähr hin.
ich pubg hat man auch vorteile von 21:9 wenn man versucht nachhinten zu schauen wenn man laufen muss. ausserdem spielt sich das meiste eh in der horizontalen ab. ich reden jetzt speziell von FPP. wie oft wünsche ich mir nach weit rechts und links schauen zu können ohne mein sichtfeld ständig abzuwenden.

robbitop
2019-05-01, 09:24:06
Man kann die Augen aber auch auf und ab bewegen. Das Blickfeld ändert sich dadurch nicht.

Die Vorteile kommen alle von der Größe und dem erhöhten FoV.

BlacKi
2019-05-01, 15:03:06
kommt drauf an. nehme ich einen monitor der 120cm breit 90cm hoch ist, und teste ihn gegen einen 120/67,5 oder gar 120/51,42. dann habe ich spielerisch keinen vorteil bei den verglichenen, denn die FOV kann ich ja notfalls anpassen. ich benötige die informationen nicht die die höheren monitore bieten. sie werden zum großteil umsonst berechnet. :redface:

ausserdem würdest du mir zustimmen das ich ausserhalb meiner brillengäser eh nichts mehr sehe, oder? ;)

ich hab mal meine gläser grob ausgemessen. 119mm breit und 30mm hoch. das wäre für mich das perfekte seitenverhältnis.das wären bei aufgerundeten 120mm ein 36:9 verhältnis. zur not tuts auch ein 32:9 monitor:biggrin:
(mir fällt gerade auf, das selbst bei meinem brillenformat die größten freien sichtflächen ebenfalls rechts und links befinden, nicht so wie man vl vermuten würde oben und unten)
ich hab natürlich verständnis wenn jemand andere werte wegen einer anderen brille hat und für sich auf andere werte kommt.

aber letztendlich passiert auf der unteren fläche bei höheren monitoren nicht viel und desshalb bietet es sich auch bei brillenlosen menschen an diese pixel zu sparen.:wink:

Megatron
2019-05-01, 17:32:33
ich hab mal meine gläser grob ausgemessen. 119mm breit und 30mm hoch. das wäre für mich das perfekte seitenverhältnis.das wären bei aufgerundeten 120mm ein 36:9 verhältnis. zur not tuts auch ein 32:9 monitor:biggrin:

66470
BlacKi, bist du es? :freak:

Nein mal ernsthaft - also wenn ich mal abwechselnd nur durch ein Auge schaue, dann habe ich da ein gehöriges Maß Überdeckung der Sichtbereiche. Bin ja kein Reh und will auch 3D sehen können :rolleyes:

Das eingerechnet schrumpft dein perfektes 36:9 ganz schnell Richtung 16:9.
Dass das Gehirn den Sichtbereich im Alltag in der Höhe ziemlich eindampft ist die eine Sache - aber wahrgenommen wird der Bereich trotzdem. Ansonsten würden wir nämlich entweder alle 3 Meter stolpern oder beim schauen auf den Weg mit dem Kopf irgendwo gegen rennen.

Was man aber bei einem echt blickfeld-füllenden Monitor beachten müsste, ist das UI - das darf dann natürlich nicht mehr so peripher angeordnet sein, wie es üblich ist.

Und hat schonmal jemand ordentliche Test zum Samsung Space Monitor gesehen (also optimalerweise der 27" Version)?
Der Fuß ist für mich eher ungeeignet aber ein neues? VA Panel finde ich auf jeden Fall spannend (wegen 10 Bit per FRC nehme ich an, es ist neu)

BlacKi
2019-05-01, 19:28:41
wer nutzt heute noch 3d monitore Oo

spass beiseite, man hat im blickfeld beider augen eine bessere sehqualität. jaber nutzen kann man das erweiterte sichtfeld eines super ultra breiten breitbild monitors trotzdem.

Ex3cut3r
2019-05-01, 19:34:22
Ich glaube viele verstehen 21:9 auch nicht richtig, wieso muss man alles im Blickfeld haben? Man kann sich auch etwa 10-20cm weiter weg setzen und dann hat man auch alles im Blick, mir gehts als 21:9 (3440x1440) Benutzer seit Anfang 2016 aber eher so, dass ich mich bei Shootern z.b weiterhin auf die Mitte des Bildes konzentriere, trotzdem habe ich die Seiten dank des peripheren Blickwinkels im "Blick" die folge man taucht viel mehr ein. Sitzabstand ganz normal wie bei einem 16:9 halt. Man hat halt nur das Spiel grob vor Augen - Keine Wand oder sonst was. World War Z hat out of the box tatsächlich keinen 21:9 Support, also ich habe das erste mal seit Jahren mal wieder in 16:9 gespielt...ich dachte mir nur so wtf? Wer hat das Licht ausgemacht??? Furchtbar ohne Witz. Also WSGF Forum angeschmissen, und tatsächlich gabs da schon seit Rls. Day einen passenden 21:9 Fix. Also nochmal gestartet -> jetzt fühlte es sich wieder natürlich an. :biggrin:

Also für mich persönlich geht ohne 21:9 wirklich gar nix mehr. Irgendwann gibts dann halt einen 21:9 4K mit 5120/5160x2160. Aber Raw 4K 3840x2160 niemals.

Megatron
2019-05-01, 19:57:59
wer nutzt heute noch 3d monitore Oo
Ich meine das "3D" draußen vor dem Fenster...
Nennt sich allgemein räumliches Sehen und funktioniert deshalb so gut, weil sich die Sichtbereiche überschneiden.
Ja ok, nicht jeder hat es so 100%ig damit und es fällt den betroffenen dadurch ungleich schwerer Entfernungen/Geschwindigkeiten usw einzuschätzen - aber das ist ein eigenes Thema...

und @Exe:
Wenn du jetzt einen 16:9 4k Monitor holst, der die gleiche Breite hat wie dein 21:9 Monitor, den entsprechend ein paar Zentimeter tiefer stellst und dein Sitzabstand so bleibt, wie bisher - ist das dann weniger immersiv?

Ex3cut3r
2019-05-01, 20:08:05
Jap, klar weil 16:9 weniger Inhalt vom Spiel darstellt als 21:9 zumindest bei gleichen FOV (Standard)

Hier mal zwei schnell Beispiele: FOV gleich (90)

https://abload.de/img/bfv_2019_05_01_20_08_k2kgq.jpg

https://abload.de/img/bfv_2019_05_01_20_08_i1kgr.jpg

robbitop
2019-05-01, 20:16:57
Der Effekt mit dem peripheren Blickwinkel wäre bei einem großen 16:9 mit höherem FoV in beide Richtungen der gleiche. Sogar eher besser weil zusätzlich zu den Mehrinformationen in horizontaler Ebene auch die Vertikale vergrößert wäre.

Ex3cut3r
2019-05-01, 20:26:28
Ja aber im Spiel bleibt die Höhe ja gleich, egal ob der Monitor höher ist oder nicht. Bei 21:9 hast du bei gleichen FOV trotz kleineren Monitor mehr Blickfeld links und rechts.

BlacKi
2019-05-01, 20:49:42
Ich meine das "3D" draußen vor dem Fenster...
Nennt sich allgemein räumliches Sehen und funktioniert deshalb so gut, weil sich die Sichtbereiche überschneiden.
Ja ok, nicht jeder hat es so 100%ig damit und es fällt den betroffenen dadurch ungleich schwerer Entfernungen/Geschwindigkeiten usw einzuschätzen - aber das ist ein eigenes Thema...
war mir schon klar... aber ich spielte das etwas weiter und bezog mich eigentlich darauf, das man keine überschneidende sichtfelder auf einem flachen(gebogenen^^) monitor benötigt, ausser falls man in 3d zocken will.

robbitop
2019-05-01, 20:57:18
Ja aber im Spiel bleibt die Höhe ja gleich, egal ob der Monitor höher ist oder nicht. Bei 21:9 hast du bei gleichen FOV trotz kleineren Monitor mehr Blickfeld links und rechts.

Das FoV kann man horizontal und vertikal erhöhen. ;)
Das Endergebnis wäre der gleiche Bildinhalt wie bei 21:9 nur dass zusätzlich noch weitere Informationen vertikal vorhanden sind. Was such eher zum menschlichen Blickfeld passt.

HUD etc kann man bei solchen „riesen 16:9“ Monitoren mit größerem fov auch in die Mitte tun, so dass vor allem das periphere Sichtfeld dazu gewinnt. Wie beim 21:9 nur eben noch besser weil in vertikaler Richtung.

Megatron
2019-05-01, 21:57:06
Genau darauf wollte ich hinaus.
Bei einem passenden 16:9 mit entsprechendem FoV geht ja nichts verloren. Es gibt nur mehr Informationen.
Vor allem, dass dieser Zugewinn auch wirklich wahrnehmbar ist, weil das menschliche Sichtfeld nicht einfach nur ein schmaler Schlitz ist.

@BlacKi
Ja, auf dem Monitor wird natürlich nur eine Fläche ohne echte Tiefe dargestellt. Aber tut mir leid, ich bin kein Gecko und kann meine Augen nicht unabhängig nach außen drehen, damit es dann keine "unnötige" Überlappung der Sichtbereiche gibt. :wink:

BlacKi
2019-05-01, 22:08:46
ich versteh dich nicht und umgekehrt.

nochmal: ich hab meine brille und alles innerhalb der brille kann ich scharf sehen ohne die maus oder den kopf drehen zu müssen. diese fläche will ich bestmöglich nutzen.

diese dinge sind einfach fakt. ich weiß nicht was es da zu diskutieren gibt? alles was innerhalb der gläser liegt kann ich scharf sehen. das kann ich mit einem 16:9 bilschirm nicht abbilden. das geht nicht.

das ausmessen der brille war zwar korrekt, aber da sich die sichtfläche überschneidet sind es natürlich keine nutzbaren 36:9.
dennoch ist es eben so, das wenn ich so nahe an den monitor herangehe das brillenhöhe und monitorhöhe übereinstimmen das rechts und links mindestens platz für ein 21:9 verhältnis ist.

Ex3cut3r
2019-05-01, 22:11:49
Das FoV kann man horizontal und vertikal erhöhen. ;)


Link zum Vertikalen FOV erhöhen? Wie soll das gehen? Konsolen Ports erlauben doch sowas IMO nicht, da ist einfach 16:9 aufgrund des Fernsehers Standard. Breite am PC geht zum glück, aber wie soll man mehr höhe erhalten? Selbst 16:10 wird heut zu tage immer abgeschnitten oder man hat einen ganz kleinen Balken oben und unten. (Mirrors Edge 1, Far Cry Reihe usw.)

robbitop
2019-05-02, 09:51:15
Über inis etc. Je nach Spiel.

Wenn sich solche ein Bildformat durchsetzen würde (was technisch wie gesagt wesentlich sinnvoller wäre, bräuchte man da gar nicht mehr rumzufummeln).

Wenn jemand eine schlecht geschnittene Brille hat, ist das kein Grund und warum die Mehrheit nicht einen Vorteil daraus ziehen sollte. Ich hatte früher auch mal so eine Brille mit flachen Gläsern. Jetzt habe ich große Gläser. Größeres Sichtfeld, nie wieder solche bescheuerten Schlitze. Sieht IMO such deutlich besser aus. ;)

BlacKi
2019-05-02, 11:39:33
und das in der horzontalen mehr passiert als in der vertikalen ist somit kein grund mehr in die breite zu gehen?

IMO machst du dich gerade lächerlich, nicht jeder will mit pilotenbrillen der 70er-80er jahre rumlaufen.

Ex3cut3r
2019-05-02, 17:15:45
Über inis etc. Je nach Spiel.

Wenn sich solche ein Bildformat durchsetzen würde (was technisch wie gesagt wesentlich sinnvoller wäre, bräuchte man da gar nicht mehr rumzufummeln).

Wenn jemand eine schlecht geschnittene Brille hat, ist das kein Grund und warum die Mehrheit nicht einen Vorteil daraus ziehen sollte. Ich hatte früher auch mal so eine Brille mit flachen Gläsern. Jetzt habe ich große Gläser. Größeres Sichtfeld, nie wieder solche bescheuerten Schlitze. Sieht IMO such deutlich besser aus. ;)

Das geht wie gesagt nicht, man kann nicht einfach die Höhe in den AAA Titeln der letzen Jahre erhöhen. Mir ist jedenfalls nichts bekannt, und ich bin regelmäßig in den WSGF Foren unterwegs. 21:9 geht -> Breite, wird Gott sei dank auch mittlerweile von fast jedem Spiel out of the Box unterstützt. Aber wer hat auch noch einen 16:10 oder 5:4 Monitor? Selbst als 16:10 seinen Prime Status hatte 2008-2011? haben 95% der Spiele nicht mehr oben und unten angezeigt.

DerRob
2019-05-02, 20:50:40
und das in der horzontalen mehr passiert als in der vertikalen ist somit kein grund mehr in die breite zu gehen?

Das mag vielleicht für Shooter gelten, es gibt aber auch noch andere Spiele da draußen... :wink:

BlacKi
2019-05-02, 20:56:13
absolut richtig, für RTS sind ist die breite nicht optimal, kann sogar störend sein.

Demolition_Man
2019-05-03, 16:18:02
Ich bin ebenfalls von einem 27 Zoll 16:9 auf einen 34 Zoll 21:9 umgestiegen und möchte das nicht mehr missen. Man muß es wirklich selbst ausprobieren um den Mehrwert zu erfahren.

Gast
2019-05-03, 19:26:46
absolut richtig, für RTS sind ist die breite nicht optimal, kann sogar störend sein.

Bei Diablo vermisse ich die zusätzliche Breite auch stark, seitdem ich wieder auf 16:9 unterwegs bin.

Knuddelbearli
2019-05-04, 13:19:34
Als Strategie und Rollenspieler sind mir dann halt die HUDs zu weit draußen, außer man ist soweit vom Monitor weg das man von der zusätzlichen breite kaum was hat und dafür oben und unten löcher klaffen

r3ptil3
2019-05-04, 14:15:40
Habe mir den 34GK950F geholt, sehr gut, bis auf das:

https://www.youtube.com/watch?v=CuXBy7iWiNc

Wird wohl ein Garantiefall, schade.

BlacKi
2019-05-04, 14:59:56
das ist der angersprochene qualitätsmangel der billigmonitore zum überteuerten preis über 1000€... der nächste hat mit hoher wahrscheinlichkeit dasselbe problem, aber wer nutzt schon ulmb.

was macht dieser billigschrott eigentlich so teuer?

r3ptil3
2019-05-04, 15:48:49
das ist der angersprochene qualitätsmangel der billigmonitore zum überteuerten preis über 1000€... der nächste hat mit hoher wahrscheinlichkeit dasselbe problem, aber wer nutzt schon ulmb.

was macht dieser billigschrott eigentlich so teuer?

Die Frage ist: Gibt es etwas vegleichbares mit besserer Qualität?

gedi
2019-05-05, 11:00:12
Ich habe die Idee mit dem HP verworfen und werde mir stattdessen wahrscheinlich einen Samsung Q90R kaufen. Da das Teil Freesync 2 unterstützt, wollte ich fragen, ob man mittels eines DP-Port auf HDMI Kabel (oder aktivem Konverter) mit Turing Async nutzen kann.

just4FunTA
2019-05-05, 13:57:32
Ich habe die Idee mit dem HP verworfen und werde mir stattdessen wahrscheinlich einen Samsung Q90R kaufen. Da das Teil Freesync 2 unterstützt, wollte ich fragen, ob man mittels eines DP-Port auf HDMI Kabel (oder aktivem Konverter) mit Turing Async nutzen kann.

Hat doch dank hdmi2 nur 60hz@4k.

Deathcrush
2019-05-05, 18:54:26
das ist der angersprochene qualitätsmangel der billigmonitore zum überteuerten preis über 1000€... der nächste hat mit hoher wahrscheinlichkeit dasselbe problem, aber wer nutzt schon ulmb.


Ich hatte das gleiche Modell zu Hause, allerdings die Gsyncversion, und habe mich ehrlich gefragt, warum die so teuer sind. Klar, eine tolle Bewegdarstellung aber mit IPS typischen Schwächen und für über 1000€ einfach nicht akzeptabel. Da erwarte ich einfach SEHR viel mehr für den Preis. Schlussendlich ist es wieder ein VA für 500€ mit Freesync von Acer geworden.

gedi
2019-05-05, 19:03:26
Hat doch dank hdmi2 nur 60hz@4k.

Der Q950R hat 4xHDMI 2.1, was 8k@60Hz entsprechen sollte. Leider hat Turing nur einen 2.0B-Ausgang. Gibt es einen Konverter von DisplayPort zu HDMI 2.1?