PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72

OC_Burner
2016-01-12, 19:48:39
Jetzt mal ehrlich, wer braucht so einen Quatsch? Anstatt sich auf das wesentliche bei einem Bildschirm zu konzentrieren, nämlich das Bild, werden solche überflüssigen Features implementiert.

Solch simple Funktionen über Smartphone steuern ist für mich auch Quatsch. In der Regel hat man nur eines in Verwendung, anschalten und Entsperrcode eingeben ist viel zu nervig. Da würde ich mir lieber eine gute alte mechanische Infrarotfernbedienug wünschen oder die Option via Schnelltaste am Monitor die Helligkeit bzw. das Profil ohne Menüführung direkt einstellen zu können. Oder eben wie Gynoug MD schon sagte das ganze mit Tool und Hotkey erledigen.

Edit:

http://abload.de/thumb/imgp5641ivsdo.jpg (http://abload.de/image.php?img=imgp5641ivsdo.jpg)

Aufnahme mit langer Belichtungszeit (Ohne Stativ :freak:). Die wesentlichen Punkte habe ich markiert.

Unter realen Bedingungen fällt mir das allerdings nicht störend auf. Da muss man schon sehr gezielt schauen.

Edit: Helligkeit bei 75% (noch sehr hell).

Wie lange war denn die Belichtungszeit? Das Bild beinhaltet keine EXIF.

Loeschzwerg
2016-01-12, 19:52:12
Ich brauche das Zeug auch nicht. Die Anzeige von Smartphone-Infos (Messages, Anrufe usw.) finde ich ganz praktisch bzw. eine nette Idee, aber auch das werde ich nicht nutzen.

Edit: 1/2 Sek. Belichtungszeit

TurricanM3
2016-01-12, 19:57:06
Angeblich kriege ich morgen endlich meinen PG278Q Austausch. Dieses mal steht hinter der neuen Seriennummer sogar kein _REF. Ob die mir tatsächlich einen neuen schicken weil ich schon fast einen Monat warte und mich mehrfach beschwert habe? Ich glaubs irgendwie nicht.

Kriton
2016-01-12, 20:49:04
Mit hoher Wahrscheinlichkeit hat die Seite nur die aktuelle Serie "verpasst", zumal nirgends steht, dass aktuelle Karten nicht unterstützt werden.

Mir ist klar, dass das deren Fehler (in der Darstellung) ist. Aus dem Text liest man ja auch eine gewisse Nvidianähe heraus.

derF
2016-01-12, 21:40:59
Ja, schon amüsant, dass sie Eizo dafür kritisieren, dass der Monitor kein G-Sync kann. ^^

Seth
2016-01-12, 23:21:46
So, letzte Woche ist der 4. (eigentlich 3., siehe Vorgeschichte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10885132#post10885132)) MG279Q von Mindfactory eingetroffen.
Diesmal allem Anschein nach ein Neugerät, dazu noch ohne BLB, Pixelfehlern oder Staubeischlüssen.
Es gibt sie also doch. :eek:

Dank veränderter Freesync Range von 56-144Hz und Frequenzvervielfachung ein toller Monitor.
Ich bin erstmal zufrieden. :)

dargo
2016-01-13, 08:14:25
@Seth

Endlich, auch wenn es kein leichter Weg war. :)

Phantom1
2016-01-13, 10:03:16
Dank veränderter Freesync Range von 56-144Hz und Frequenzvervielfachung ein toller Monitor.
wie genau funktioniert denn das?

Loeschzwerg
2016-01-13, 12:53:12
Mit dem "Custom Resolution Utility" funktioniert das:
http://www.monitortests.com/forum/Thread-Custom-Resolution-Utility-CRU?page=1

akuji13
2016-01-13, 13:18:41
Monitore einstellen kann man auch bequem über softMCCS.

dargo
2016-01-13, 17:00:32
wie genau funktioniert denn das?
CRU starten --> auf Edit klicken --> neue Freesync-Range eingeben --> mit Ok bestätigen --> Neustart.

Kartenlehrling
2016-01-13, 17:24:47
Ich habe es schon im freesync tread geposte, aber hier passt es auch rein,
der Eizo FS2735 soll die gleiche Panel haben wie schon der Asus MG279Q,
da tftcentral.co.uk das immer mit wirklichen öffen überprüfen ist es wohl sicher.

Annator
2016-01-13, 18:27:37
Ich habe es schon im freesync tread geposte, aber hier passt es auch rein,
der Eizo FS2735 soll die gleiche Panel haben wie schon der Asus MG279Q,
da tftcentral.co.uk das immer mit wirklichen öffen überprüfen ist es wohl sicher.

Scheint so nur das ich stark davon ausgehe, dass die Ausgangskontrolle bei Eizo um einiges besser ist als bei Asus.

TurricanM3
2016-01-14, 14:23:37
Asus hat mir tatsächlich als Austausch nun (nach einem Monat) einen neuen Monitor geschickt. Alle Aufkleber und Schutzfolien noch drauf, Prod. Sept. 2015.

Damit hätte ich nicht mehr gerechnet.

Ich hoffe nur das Ding ist halbwegs ok, mache ihn erst heute Abend an, gerade keine Zeit. Bitte drückt mir die Daumen, ich habe nämlich keine Lust mehr auf Getausche.

Loeschzwerg
2016-01-14, 15:39:46
Test zum FS2735 von Golem:
http://www.golem.de/news/eizo-foris-fs-2735-im-test-beinahe-der-wunschlos-gluecklich-monitor-1601-118524.html

derF
2016-01-14, 16:00:24
Was meinen sie denn hier:
Bei der Farbkalibrierung fällt uns ein unschönes Detail auf: Der Monitor benötigt bereits im Auslieferungszustand ohne aktivierte Zusatzfunktionen einen recht hohen Wert (80 auf der Skala bis 100) für eine Leuchtdichte von 120 cd/m² (optimal bei Tageslicht). Das könnte nach ein paar Jahren zu einem Problem führen.

Hier handelt es sich zugegeben um Spekulation - verwunderlich ist der Wert aber, da die meisten gängigen Monitore mit einer Helligkeitseinstellung zwischen 20-50/100 für 120 cd/m² kalibriert werden und dadurch noch Reserven nach oben übrig haben, wenn die Hintergrundbeleuchtung einmal nachlassen sollte. Für Spieler, die auf prozessorgesteuerte Verbesserungen bei Helligkeit und Kontrast verzichten wollen, könnte die maximale Helligkeit unter Umständen nach ein paar Jahren nicht mehr ausreichen.

Das klingt, als ob BFI angeschaltet ist, sie es aber nicht erwähnen.

@Turri: Viel Glück!

Traxx
2016-01-14, 16:02:56
Asus hat mir tatsächlich als Austausch nun (nach einem Monat) einen neuen Monitor geschickt. Alle Aufkleber und Schutzfolien noch drauf, Prod. Sept. 2015.

Damit hätte ich nicht mehr gerechnet.

Ich hoffe nur das Ding ist halbwegs ok, mache ihn erst heute Abend an, gerade keine Zeit. Bitte drückt mir die Daumen, ich habe nämlich keine Lust mehr auf Getausche.

Boah, hoffe das klappt jetzt endlich turri... *daumendrück* =)

TurricanM3
2016-01-14, 19:14:24
Hab leider wieder Pixelfehler. 2 Stück, komischerweise direkt diagonal zueinander. Bildmitte aber ein Glück relativ weit unten. Stört mich schon, schade. Je nach Blickwinkel sieht man die schlechter.
Wäre auch zu schön gewesen. :frown:
Das Ding ist zumindest aber wirklich neu und hat ein Glück keine Flecken oder große Macken. Die normalen Mängel am Rahmen hat er aber auch, z.B. den Verarbeitungsfehler rechts oben. Da muss man aber schon gezielt schauen.

Naja, denke ich werde ihn irgendwann wechseln, in was anderes (aktuell reichts mir nur mit dem Getausche). Mir fällt in F4 oder Anno das Pixel-Inversion Problem viel mehr auf als in BF4, da sehe ich es komischerweise fast überhaupt nicht. Ist jetzt nicht super störend, aber mal schauen wie sehr mich die beiden Pixel nerven. Bin da leider so ein Kandidat der dann oft da hin schaut. :(

Loeschzwerg
2016-01-14, 19:24:41
Madig :( Mich würde es stören bzw. ich würde völlig unbewusst darauf achten und mich jedes mal darüber ärgern.

Ich habe gestern meinen Eizo penibel genau nach Fehlern untersucht, aber es ist alles ok. So muss das sein.

Kartenlehrling
2016-01-14, 19:38:05
nur das man dafür 2x MG279Q bekommt,
leider fehlt ULMB, was ich aber nicht brauch da ich nicht in diesem FPS Bereich Spiele.

Loeschzwerg
2016-01-14, 19:46:00
ULMB vermisse ich nicht, das Panel ist mir schnell genug. Teuer war die Geschichte definitiv, aber so habe ich mir wenigstens die Zeit für etliche Umtauschaktionen gespart :D Ohne den Eizo hätte ich vermutlich auf FreeSync verzichtet und wäre bei der nächsten Graka Generation wieder bei NV gelandet. Jetzt werde ich zumindest 2mal überlegen.

dutchislav
2016-01-14, 21:54:31
nur das man dafür 2x MG279Q bekommt,
leider fehlt ULMB, was ich aber nicht brauch da ich nicht in diesem FPS Bereich Spiele.


sry, aber ich hab lieber ein gerät zum preis von zwei und hab dafür null fehler.
sowas macht mich als perfektionist nämlich verrückt ;)

Kartenlehrling
2016-01-14, 22:03:12
naja die ips-glow ecke unten rechts hat Er ja auch, nur ein wenig besser kaschiert,
dann wär nur pixelfehlerfrei (? wirklich), ULMB und Mobilapp für 450€, in meinem fall sogar 720€.

Ex3cut3r
2016-01-14, 22:50:52
Wer holt sich eigentlich den bald erscheinenden ASUS ROG PG348Q (1299,--) hier? :D

Y5lef-d65z4

HisN
2016-01-14, 23:13:07
http://www.techpowerup.com/219135/dell-unveils-a-30-inch-ultra-hd-monitor-with-an-oled-panel.html


Das der Monitor schon anfang April kaufbar sein soll finde ich sehr überraschend, damit hätte ich nicht gerechnend.

Oh Ficken wie geil ist das denn ... Danke Dell. Das richtige Geburtstags-Geschenk. Und die passende Graka mit DP1.3 kommt hoffentlich kurz danach in Form einer Pascal... naja. Das Jahr wird dann wohl spannend.

Auch wenn ich gerne viel Geld für Monitore ausgebe ... 5K, da schlachtet mich die Regierung. Aber das geht in die richtige Richtung. Scheiss auf den ganzen anderen Kinderkrahm der aktuell als Monitor verkauft wird. Wenn das Ding auch noch g-sync bekommt ist es perfekt. Und das wird früher oder später passieren.

Kartenlehrling
2016-01-14, 23:40:20
Ich glaube der wurde mit einem Tunderbolt3 betrieben,
ich habe ein foto gesehen da steckte er an einer Intel Nuc.


hier diese Box stand daneben.

http://arstechnica.com/gadgets/2016/01/intels-next-nuc-will-be-a-quad-core-mini-pc-with-iris-pro-and-thunderbolt-3/
Intel’s next NUC will be a quad-core mini PC with Iris Pro and Thunderbolt 3

HisN
2016-01-14, 23:43:48
Gibt halt noch keine DP1.3 Grakas, also haben sie TB genommen.
Ich würde mich schwer wundern wenn da "nur" DP1.2 verbaut ist.

dutchislav
2016-01-15, 01:07:05
Wer holt sich eigentlich den bald erscheinenden ASUS ROG PG348Q (1299,--) hier? :D

http://youtu.be/Y5lef-d65z4


mittlerweile kauf ich mir gar keinen asus mehr :freak:

Ex3cut3r
2016-01-15, 02:53:49
mittlerweile kauf ich mir gar keinen asus mehr :freak:

Ist auch vlt. besser so. :freak: :biggrin:

TurricanM3
2016-01-15, 13:45:46
Ich hab Asus kontaktiert wegen dem Fehler. Die würden erneut tauschen, aber haben mich auch darauf hingewiesen, dass sie nicht garantieren können einen besseren zu erhalten.

Leider sind bei der Produktion von Displays (ungeachtet der Preisklasse) sowohl Pixelfehler als auch Staub unter dem Display nie auszuschließen.

Dadurch ist auch in den AGBs für diesen Fall ein Vermerk:

https://eu-rma.asus.com/pickup_europe/de/agb.pdf

3. TFT-LCD-Pixelfehler

Trotz höchstmöglicher Standards können bei der komplexen Herstellung von Flüssigkristallbildschirmen (LCDs) mit

Dünnschichttransistoren (TFTs) immer noch geringe visuelle Störstellen auftreten. Diese sichtbaren Störstellen wirken sich nicht

auf die Leistung Ihres Produktes aus.

ASUS erbringt Ihnen dennoch unter folgenden Bedingungen einen Garantieservice für den TFT-LCD-Bildschirm Ihres ASUSProduktes:

• 3 helle Bildpunkte, 5 dunkle Bildpunkte oder insgesamt 8 helle und/oder dunkle Bildpunkte.
• 2 angrenzende helle Bildpunkte oder 2 angrenzende dunkle Bildpunkte.
• 3 helle und/oder dunkle Bildpunkte innerhalb eines Umkreises von 15 mm.

(Hinweis: Ein heller Bildpunkt ist ein weißer Pixel bzw. Subpixel auf schwarzem Hintergrund. Ein dunkler Bildpunkt ist ein schwarzer Pixel bzw. Subpixel auf farbigem – nicht schwarzem – Hintergrund.)


Ich werd dann wohl erneut tauschen. Ich habe entweder zwei angrenzende tote Pixel oder Staub, so sieht das aus:

http://abload.de/img/20160114_20524154af0.jpg (http://abload.de/image.php?img=20160114_20524154af0.jpg)

Auf dem Foto könnte man meinen es sei Staub, aber in natura sieht das eher eckig aus - also wie zwei angrenzende defekte Pixel. :frown:

Savay
2016-01-15, 13:50:16
Tauscht du noch oder spielst du schon?! ;D

Wenn man das so liest bin ich echt froh über meinen UHD LG. :D Der ist wenigstens Pixelfehler und Staubfrei...und auch das Glow/BLB/Clouding hält sich in technikspezifisch erwartbaren und mMn erträglichen Grenzen. Kann natürlich auch sein das ich einfach zu genügsam bin. ;)

Annator
2016-01-15, 13:51:43
Tauscht du noch oder spielst du schon?! ;D

Echt mal. :D

TurricanM3
2016-01-15, 14:15:53
Kann ihn ja zum Glück trotzdem nutzen und zocken. Hab aktuell sogar zwei da, weil dieses mal kein 1:1 Tausch. :freak:

Neue RMA ist beantragt. Mir ist inzwischen auch schon egal ob ich einen refurbished kriege, Hauptsache keine Bildfehler, Flecken oder sonstwas.

Übrigens hat der neue ein leicht wärmeres Bild. Trotz gleichen Einstellungen. Ich weiß aber auch nicht wie lange der refurbished davor schon lief. Der jetzt ist ja nagelneu.

Kartenlehrling
2016-01-15, 14:16:51
Tote Pixel finde ich auch nicht so schlimm vorallem bei einer Auflösung >1440p,
aber Staub schon und eigentlich sehen das die Hersteller genauso.
Staub und leuchtende Pixel sind nicht verhandelbar und mussen getauscht werden.

http://support.hp.com/us-en/document/c00288895
Understanding pixel and sub-pixel defects

TurricanM3
2016-01-15, 14:32:57
Ist auch immer eine Sache wo sich diese Fehler befinden.
Der refurbished Austausch hat fast genau in der Bildmitte Staub und außen 5 Pixelfehler. Den mittigen Staubkorn sehe ich selbst beim Zocken noch. Die Pixelfehler außen sind mir kein einziges mal aufgefallen.

Annator
2016-01-16, 12:46:42
Ok habe mir auch den Asus ROG PG279Q bestellt. Eigentlich nur um zu schauen wie schlimm es wirklich ist und weil dies eigentlich der Monitor von den Specs her ist den ich immer haben wollte. Die negativen Berichte haben mich aber abschrecken lassen. Ein Versuch sollte es aber sein. :)

Gebaut KW 46 2015 scheint unbenutzt zu sein. Asusklebeband am Karton und die Tüten sind eingeschweißt. Display usage time ist aber 3h.

Als Vergleichsmonitor habe ich meinen Eizo 2736 auch mit IPS Panel und für mach immer noch das Maß der Dinge an Bildqualität.

Keine Pixelfehler und kein Staub. Schonmal gut.
Der Eizo hat keinen sichtbaren IPS Glow. Der Asus schon. Ist aber nicht wirklich ausgeprägt. Könnte ich mit leben.
Der Asus hat einen leichten Lichthof an der oberen rechten Ecke zählt das schon als BLB? Nicht wirklich stark und nur dort.
Farbverschiebungen gerade auf Weiß sehe ich nicht. Kein Gelbton oder sonstige Verschiebungen.

Bin eigentlich positiv überrascht. Die Bildqualität ist wirklich gut. Nicht so gut wie beim Eizo aber man bekommt keinen Schock. Dafür 27", GSYNC und 144 Hz.

Wenn ich mal Zeit finde kann ich mal versuchen Vergleichsbilder vom perfekten Eizo und dem Asus zu machen.

PS. Glaub ich behalte den. :D

TurricanM3
2016-01-16, 15:37:40
Schon klasse, gestern Abend mal ein bisschen auf dem neuen PG278Q Austausch gezockt.

Dabei ist mir beim Rumlaufen in F4 in der Nacht (ziemlich dunkel) aufgefallen, dass der neue PG278Q auch wieder Helligkeitsunterschiede hat. Es gibt zwei Bereiche im Bild, die heller sind und einer der wieder wie eine leichte Verschmutzung unter coating aussieht. Die heben sich störend ab (ich hab nicht nach Fehlern gesucht, ist mir einfach so aufgefallen leider schon). Ungefähr diese Flächen:

http://abload.de/img/unbenannt-1pek8q.jpg (http://abload.de/image.php?img=unbenannt-1pek8q.jpg)

Sieht man aber nur bei dunklen Flächen beim bewegen!

Schon eigenartig. Der alte refurbished, hat davon absolut nichts! Beide neuen die ich hatte (Aug. & Sept. 2015) aber schon. Der aus August war ja ganz schlimm:

http://abload.de/img/unbenannt-2b5sy1.jpg

Das stört mich beim Zocken mehr als irgendwelche Pixelfehler, weil die Flächen sich leider störend abheben.

Gynoug MD
2016-01-16, 15:46:31
Als Vergleichsmonitor habe ich meinen Eizo 2736 auch mit IPS Panel und für mach immer noch das Maß der Dinge an Bildqualität.
Der Eizo hat keinen sichtbaren IPS Glow.
Kannst du mir bitte sagen, wann du diesen Eizo erworben hast bzw. das Produktionsdatum, denn es sollen ja nur die ersten Chargen geringen IPS-Glow aufweisen.

Annator
2016-01-16, 15:59:59
Kannst du mir bitte sagen, wann du diesen Eizo erworben hast bzw. das Produktionsdatum, denn es sollen ja nur die ersten Chargen geringen IPS-Glow aufweisen.

Ist die Erste Generation. Kann ich aber nochmal nachschauen.

Gynoug MD
2016-01-16, 16:04:05
Danke!

PacmanX100
2016-01-16, 17:34:40
Bessere Monitore interessieren mich nicht so, nur größere. ;)

Hat schon jemand Erfahrungen mit diesen gemacht?
WASABI MANGO UHD420 REAL 4K HDMI 2.0 SE 42" LG AH-IPS UHD 3840x2160 DP Monitore
oder
WASABI MANGO UHD490 REAL 4K HDMI 2.0 49" LG AH-IPS UHD 3840x2160 DP 1.2 Monitore

42 und 49 Zoll bei UltraHD mit HDMI 2.0 direkt aus Korea. Gibt's da einen besonderen Haken?

Kartenlehrling
2016-01-16, 18:38:01
Da stimmt was mit dem Panel nicht, die hatten eine rückruf aktion, ich wär da vorsichtig.

Kartenlehrling
2016-01-16, 21:46:48
Bei Spielen sieht die Situation bereits gut aus, denn die meisten Titel nutzen schon seit langem HDR beziehungsweise High Dynamic Range Rendering.
HDRR lässt die GPU zwar mit HDR arbeiten, geht aber von einem fehlenden HDR-Monitor aus.
Entsprechend kommt ein so genanntes Tone Mapping zum Einsatz, das die Ergebnisse wieder auf einen Gamma-2.2-Wert und damit einem SDR-Monitor abbildet.
Das Verfahren erzielt zwar eine bessere Farbgebung als SDR-Berechnungen, geht jedoch auch mit Fehlern einher, da das Tone Mapping nicht perfekt auf die Fähigkeiten eines einzelnen Monitors optimiert ist.
Bei HDR-Monitoren wird ebenfalls Tone Mapping genutzt, jedoch in einer Variante, die an ein HDR-Display angepasst ist. Diese muss vom Hersteller integriert werden.
http://www.computerbase.de/2015-12/amd-radeon-support-fuer-hdr-und-4k-displays-mit-120-hz-ab-2016/


Hat einer ein 10bit tauglichen Monitor oder TV und kann etwas dazu schreiben,
anscheinen gibts schon einige Spiele die ein HDR-Rendering ausgeben wenn sie erkennen das so ein tauglicher Monitor dranhängt.
Laut AMD können ja alle >R9-300er HDR-Rending Gaming.

Ich weiss das "Grid Autosport" auf jedenfall so ein Spiel ist das HDR-Rending kann und unterstützt.

Savay
2016-01-16, 22:31:55
Also die Anzeigegeräte hätte ich prinzipiell schon da.
Der LG 27MU67-B nimmt z.B. 10bit Signale an (aber kein HDR soweit ich weiß...vlt über den HDMI...müsste man mal mit nem HDR fähigen Quellgerät prüfen...ich rechne aber eher nicht damit)...mein JU6850 kann aber defintiv 10bit inkl. HDR verarbeiten...

Ich wüsste nur nicht wie ich das bei Spielen prüfen könnte und vorallem welches Spiel soll das denn nun tatsächlich unterstützen sollte!

Das HDRR ist doch bisher etwas rein internes und da wird doch immer auf ca. Rec.709 und LDR gemappt/gerendert zur Ausgabe.

Ohne passende Spiele, Treiber und Monitore wird das mMn nix...

Kartenlehrling
2016-01-16, 23:05:55
Wie man das erkennt weiss ich auch nicht,
wie gesagt "Grid Autosport" bin ich sicher da Intel es bewirbt und ich meinen "Lord of the Fallen".


LOL,
wenn man nach HDR-Rendering Gaming google, kann man 10 Jahre zurückgehen!! :eek:

http://www.valvesoftware.com/publications/2006/SIGGRAPH06_Course_HDRInValvesSourceEngine_Slides.pdf

Annator
2016-01-17, 02:57:57
Danke!

2012 KW 50 laut SoftMCCS aber bestellt am 24. März 2013.

Gynoug MD
2016-01-17, 12:26:11
2012 KW 50 laut SoftMCCS aber bestellt am 24. März 2013.

Danke, dann bringt`s wohl nix, wenn ich mir ein Gerät aus der neuen Charge bestelle.

dutchislav
2016-01-18, 03:40:39
Hab heut nach knapp 8 Jahren meinen ersten toten pixel gefunden. es wird zeit für einen neuen Monitor :D

Savay
2016-01-18, 10:41:28
LOL,
wenn man nach HDR-Rendering Gaming google, kann man 10 Jahre zurückgehen!! :eek:


Ja schon...das sind aber eigentlich 2 verschiedene paar Schuhe...einmal geht es um HDRR/HDRI also die Inhalterzeugende Seite..das hat aber am Ende nur eher wenig mit dem Output zu tun!
Der akutelle Trend dreht sich eher um die Anzeigeseite und primär darum ein akutelles einheitliches Ausgabeformat zu schaffen um dem steigenden statischen und zum Teil stark abweichenden Kontrast aktueller Anzeigegeräte besser Rechnung zu tragen.

Momentan wird ja nahezu jeder Inhalt für die Ausgabe auf ein einheitliches statisches Kontrastverhältnis von ca. 1:1000 ausgelegt und erfährt ein entsprechendes Tonemapping inkl. Farbraumkonvertierung nach Rec.709.

Durch Anzeigeseitiges HDR wird dann bald halt jedes Anzeigegerät ganz individuell den Inhalt nachbehandeln damit der Kontrastspielraum des Panels bestmöglich genutzt werden kann.
Der Nachteil dürfte aber sein das die Inhalte auf den Anzeigen z.T. noch deutlich unterschiedlicher aussehen dürften als bisher schon. Das eine Panel hat halt 1:2000, das nächste 1:8000 und dann gibt es eines mit 1:15.000.

Nur braucht es dafür Spiele und Treiber sowie GPUs die einen 10bit HDR Stream ausgeben und erzeugen konnen und genauso auch Anzeigegeräte die einen HDR Datenstream erkennen und diesen entsprechend nachbehandeln...ich glaube nicht wirklich das es reicht das der Bildschirm/Panel 10bit kompatibel ist!

Ectoplasma
2016-01-18, 13:09:40
Es gibt noch andere interessante Probleme in Zusammenhang mit HDRs. Man stelle sich eine schön gerenderte HDRR Scene vor, auf der jetzt ein Layer, z.B. die Settings für ein Spiel, eingeblendet werden sollen. Dieser Layer kann jetzt nich so einfach in das HDR eingefügt werden, da die Farbintensitäten so eines Layers üblicherweise im LDR Bereich liegen. In einem HDR gibt es aber keine Range von 0 bis 255, schon gar nicht einen Wert für ein absolutes Weiß (im LDR 255, 255, 255). Man müßte jetzt jedes Mal so einen Layer in die Domain des HDRs umrechnen. Das ist nicht so einfach wie man meint. Eigentlich müßte ein HDR Monitor für bestimmte Situationen gleichzeitig sowohl HDR als auch LDR Content verarbeiten können. Oder das Spiel müßte selbst den Modus in solch Situationen umschalten.

Kriton
2016-01-20, 15:33:32
Warum kann der Layer selbst nicht auch HDR sein?

Ectoplasma
2016-01-20, 17:08:45
Warum kann der Layer selbst nicht auch HDR sein?

Wie gesagt, dass sind alles nur Überlegungen, die ich habe. Vielleicht gibt es ja eine Lösung, die jemand kennt.

Das eigentliche Problem ist, dass es bei HDRs keine Obergränze für den Kontrast gibt. Mit welchen Helligkeitsinformationen sollte man also so einen Layer erstellen? Nimmt man den Mittelwert der Luminanz des dahinter liegenden HDRs? Mann könnte versuchen diesen Layer selbst als ein Objekt der Spielewelt zu rendern, was aber nie zu einer konstanten Helligkeit führen würde. Man könnte aber auch sagen, dass man bei HDRs doch einen maximalen Kontrast festlegt, also wie bei einem LDR, bei dem die Werte von 0 - 255 (8-Bit) gehen. Man weiss bei einem LDR, dass der Wert R 255, G 255, B 255 Weiß ergibt. Bei einem HDR könnte das aber einfach nur irgendein Grau in Abhängigkeit der Umgebung sein. So ist es übrigens auch in der Realität.

Man könnte es aber auch so machen, wobei ich nicht weiss, ob das bereits so ist, dass man alle Werte des HDRs in die Domain von 0 - 1 bringt. Dann könnte man den Wert 255 des LDRs auf 1 abbilden. Das HDR sieht dann zusammen mit der Layer erst einmal ordentlich aus. Jetzt aber soll der Monitor das HDR Bild anzeigen, wobei dieser in jdem Fall eine Art des Tonemappings vornhemen wird. Ja und jetzt passiert es, der Layer wird definitiv nicht so aussehen, wie gedacht.

Um das Problem zu verdeutlichen, gibt es einen einfachen Test. Man lade ein HDR in Photoshop. Nun läßt man es um 45 Grad rotieren und wählt als Hintergrundfarbe ein sattes Gelb aus. Der gelbe Hintergrund soll jetzt als Ersatz für unseren Layer herhalten. Nach der Rotation sieht noch alles gut aus. Jetzt möchte ich aber ein Tonemapping vornehmen. Also unter Image->Mode->8 auswhälen. Es erscheint der Tonemapping Dialog und man sieht sofort, dass die Hintergrundfarbe nicht mehr stimmt. Aus dem Gelb wird eher ein matschiges Gelbgrün.

Kriton
2016-01-20, 17:59:32
Du verstehst davon sicherlich deutlich mehr als ich. Meine Frage war so (simpel) gemeint, wie ich sie gestellt habe. Ausgangspunkt Deiner Überlegung war ja ein Unterschied. Ich wollte nur wissen, ob der überhaupt vorhanden sein muss, oder man man (in Deinem Beispiel die Settings) nicht auch "einfach" in HDR abbilden kann.

Ectoplasma
2016-01-21, 10:05:02
Du verstehst davon sicherlich deutlich mehr als ich. Meine Frage war so (simpel) gemeint, wie ich sie gestellt habe. Ausgangspunkt Deiner Überlegung war ja ein Unterschied. Ich wollte nur wissen, ob der überhaupt vorhanden sein muss, oder man man (in Deinem Beispiel die Settings) nicht auch "einfach" in HDR abbilden kann.

Man kann den Layer in HDR Daten abbilden, aber dann hat der Layer keine konstante Helligkeit, sondern eine schwankende. Das will man ja eigentlich vermeiden.

TurricanM3
2016-01-21, 11:15:30
Mal eine Frage von mir bez. Interpolation:
Ich habe ein 1080p Handy bis gestern gehabt. Habe nun ein 1440p und vorher die Befürchtung Youtube würde unschärfer (die Videos die ich schaue sind fast alle 1080p). Hatte gehofft das das nicht so schlimm würde.
Zu meiner Verwunderung sind die 1080p Vids auf dem neuen deutlich schärfer und detailreicher. Habe sie direkt nebeneinander verglichen, viel besser jetzt!
Wie bitte kann das sein? :confused:
Ich war der Auffassung Interpolation ginge immer mit einem Qualitätsverlust einher. Das Display wird wohl kaum so viel schärfer sein, es liegt ja trotzdem kein natives Bild vor. Bin echt verwundert...

akuji13
2016-01-21, 11:26:39
Das setzt voraus das beide displays in den Geräten auf einem Niveau agieren.
Wenn display B besser ist als A kann sogar Interpolation besser aussehen.

MMn sehen 2560x1080 auf dem Philips BDM interpoliert und leicht nachgeschärft auch besser aus als native 2560x1080 auf den 21:9 LGs die ich hatte.
Auch der AOC mit seinen 1920x1080 nativ sah nicht besser aus als die 1080p interpoliert auf dem Philips.

Das kann sehr unterschiedlich sein im Ergebnis, der X34 stellt 2560x1080 schlechter dar als der Philips weil mir da die Nachschärfung fehlt.

Botcruscher
2016-01-21, 11:40:49
YT Videos und andere Inhalte werden doch sowieso zum größten Teil interpoliert. Die höhere Auflösung hat dann natürlich auch mehr Information und weniger Fliegengitter.

Sunrise
2016-01-21, 12:08:39
Wie bitte kann das sein? :confused:
Da gibt es mehrere Möglichkeiten. Erstmal sind wie Botcrusher schon schrieb die YT-Videos kein 1:1 Abbild von deinem Ausgangsmaterial und dementsprechend von deutlich schlechterer Qualität (man lädt höhere Qualität und Auflösung hoch, bekommt aber weniger).

Wegen deinem neuen Display kann es auch an einer Kombination aus besserer Separierung der einzelnen der Pixel, sodass die Pixel nicht ineinander bluten, dem geringeren Pixelabstand und natürlich der Qualität der Interpolation, liegen.

Allein die Interpolation kann extrem viel ausmachen, denn lustigerweise ist Nearest Neighbour vom Bildeindruck her erstmal schärfer, verschluckt dir aber eine ganze Menge Details, weil im Prinzip nichts "interpoliert" wird. Dies siehst du aber bei sehr geringem Pixelabstand oft nicht, dir fällt nur sofort die höhere Schärfe ggü. Bilinear o.ä. auf.

Deshalb schreiben ja viele, dass man bei 4K weniger AA benötigt, weil dein Pixelabstand eben feiner ist.

TurricanM3
2016-01-21, 12:48:18
Mir ist schon klar, dass YT Vids nicht so gut aussehen wie das original (durch die viel niedrigere Bitrate). YT macht aber doch aus 1080p keine 720p? Das spielt sogesehen in Bezug auf mein "Problem" keine Rolle.

Ich verstehe es nach wie vor nicht, dass auf einem Display mit nativer Auflösung 1:1 das Bild schlechter aussieht als ein interpoliertes (in dem fall mit Verlust hochskaliert). Macht für mich absolut keinen Sinn, habe ich so auch noch nie erlebt. Ich kenne es ausschließlich, dass es matschiger wird.

Bei 4K auf 1080p hätte ich es noch verstanden, 1440p@1080p aber nicht.

mironicus
2016-01-21, 13:22:49
Man kann das Bild auch künstlich nachbessern mit Filtern.

derF
2016-01-21, 14:02:54
Ja, mit den richtigen Algorithmen und nachschärfen kann das Bild eventuell besser aussehen nach dem Upscaling.
Und ich schätze, dass man bei Youtube auch bei nativer Auflösung nicht immer 1:1 Pixelmapping bekommt. Bei dem ganzen Postprocessing was jeder Videodecoder/Player macht klingt das eh unwahrscheinlich. ;)

Sunrise
2016-01-21, 14:37:55
Asus PG279Q vs. Eizo FS2735:
http://www.computerbase.de/2016-01/eizo-fs2735-asus-pg279q-test/

...In zahlreichen Forenbeiträgen (auch hier bei ComputerBase) melden Käufer ein erhöhtes Aufkommen von Pixelfehlern beim PG279Q, und auch das Test-Sample von ComputerBase verfügt über mindestens zwei gänzlich inaktive Pixel. Darüber hinaus ist an mehreren Stellen Staub zwischen das Panel und die äußere Schutzschicht geraten, was insbesondere im Windows- und Office-Betrieb immer wieder störend ins Auge fällt. Das Testmodell des Eizo FS2735 verfügt hingegen über keinen erkennbaren Pixelfehler.

Das Panel von AU Optronics scheint aufgrund der zahlreichen Erfahrungsberichte im Netz sowohl für Backlight-Bleeding als auch Pixelfehler anfällig zu sein, was Eizo anscheinend durch eine striktere Qualitätskontrolle auszugleichen versucht – für die der Kunde schlussendlich auch bezahlt.

Interessant mal wieder die Staub-Geschichte beim ASUS. Bei solchen Berichten macht sich ASUS wirklich keine Freunde. Wäre für mich ein absolutes KO-Kriterium.

Annator
2016-01-21, 15:28:25
Frag mich wie hoch die Rückläufer Quote ist beim PG279Q. Schon schade das der Kunde die QC übernehmen muss.

Xaver Koch
2016-01-21, 15:45:49
Ja meine Güte, wenn den Leuten Qualität so wichtig wäre wie hier im Forum behauptet wird, dann würden die aktuellen Asus einfach nicht gekauft und der Hersteller wäre gezwungen zu reagieren.

Also aufhören zu jammern und entweder etwas mehr (Eizo) ausgeben oder Alternativen z.B. von Dell oder LG kaufen. Aber da mir die Asus optisch eh nicht gefallen fällt mir das sehr leicht, zumal m.E. kaum etwas über Eizo geht. ;)

Annator
2016-01-21, 16:06:36
Ja meine Güte, wenn den Leuten Qualität so wichtig wäre wie hier im Forum behauptet wird, dann würden die aktuellen Asus einfach nicht gekauft und der Hersteller wäre gezwungen zu reagieren.

Also aufhören zu jammern und entweder etwas mehr (Eizo) ausgeben oder Alternativen z.B. von Dell oder LG kaufen. Aber da mir die Asus optisch eh nicht gefallen fällt mir das sehr leicht, zumal m.E. kaum etwas über Eizo geht. ;)

Leider steht der Asus in der Kategorie alleine da. Der Eizo hat leider FreeSync, die Acer ist von der Qualität noch schlechter. Dell und LG haben einen 27", IPS, 144Hz, Gsync, 2560x1440 Monitor?

Es gibt ganze 3 Monitore die in die Kategorie fallen:

Acer Predator XB270HUbprz, 27" (UM.HB0EE.009)
Acer Predator XB271HUbmiprz, 27" (UM.HX1EE.005)
ASUS ROG Swift PG279Q, 27" (90LM0230-B01370)

Werewolf
2016-01-21, 16:07:09
EIZO 24" Gsync 144Hz IPS PLZ

GIEF NAO!

Gynoug MD
2016-01-21, 16:09:37
Es ist wirklich ein Novum, daß in einem Test endlich mal derart ausführlich auf die beschissene Serien-Streuung eingegangen wird (die auch diesen Thread zu gefühlt 90% beansprucht) und Klartext geschrieben wird, CB: gut gemacht!:up:

Besonders interessant auch die direkte Gegenüberstellung eines panelgleichen Gerätes mit sehr guter QS.
Ganz offensichtlich reichen auch 1600 Deutsche Altmark nicht aus, um kein Scheiß-Panel zu erhalten.:(
Da einigen Herstellern Serienprobleme (trotz Premiumpreisen!) egal sind, ist es vielleicht ein kleiner Lichtblick und ein kleines Drucknmittel, daß so etwas nun schwarz auf weiss auf einer stark frequentierten Seite zu lesen ist.

PS:
Ja Eizo, wir warten alle auf dieses Ding inkl. G-SYNC!

Annator
2016-01-21, 16:12:41
EIZO 24" Gsync 144Hz IPS PLZ

GIEF NAO!


Hab hier noch einen FG2421 rumliegen. Ist doch fast das Gleiche. :D

Loeschzwerg
2016-01-21, 16:38:47
EIZO 24" Gsync 144Hz IPS PLZ

GIEF NAO!

54542

---

Das, im CB Test beschrieben, FreeSync "Zuckeln" kann ich bestätigen. FreeSync hinkt hier G-Sync immer noch hinterher und wird es vermutlich auch die nächste Zeit noch. Die Bereichsauswahl des EIZO ist hier eine wirklich gute Notlösung.

dutchislav
2016-01-21, 16:42:43
54542

---

Das, im CB Test beschrieben, FreeSync "Zuckeln" kann ich bestätigen. FreeSync hinkt hier G-Sync immer noch hinterher und wird es vermutlich auch die nächste Zeit noch. Die Bereichsauswahl des EIZO ist hier eine wirklich gute Notlösung.


toll, hat sich nvidia mit ihren restriktionen wieder in's Abseits gestellt. Es ist mir echt unverständlich was die leute da treiben.

mironicus
2016-01-21, 16:43:13
Vielleicht ist das Freesync-Zuckeln durch ein Treiberupdate lösbar.

Loeschzwerg
2016-01-21, 16:57:53
Wäre wünschenswert. Die Frage ist allerdings wo es beim Treiberteam auf der To-Do Liste steht bzw. ob überhaupt ^^

iuno
2016-01-21, 17:38:20
Das, im CB Test beschrieben, FreeSync "Zuckeln" kann ich bestätigen. FreeSync hinkt hier G-Sync immer noch hinterher und wird es vermutlich auch die nächste Zeit noch. Die Bereichsauswahl des EIZO ist hier eine wirklich gute Notlösung.
Meinst du beim Umschalten mit LFC?

Wann faellt es dir denn genau auf? Ich habe schon laengere Zeit Battlefront im Grenzbereich gespielt und ist mir nicht negativ aufgefallen, das hatte ich so gar nicht erwartet. Bei mir laeuft das eigentlich wunderbar. Lt. Computerbase sei das aber vom Spiel abhaengig. Ich spiele aber zur Zeit sehr wenig und wie gesagt eben SWBF

Loeschzwerg
2016-01-21, 17:46:56
Ja, beim Überschreiten der Grenze.

Bei den Panorama Szenen in Unigine Valley ist es mir z.B. aufgefallen. Bei 35-90Hz gibt es diese Zuckler nicht.

Xaver Koch
2016-01-21, 18:27:24
EIZO 24" Gsync 144Hz IPS PLZ

Da sind wir schon zwei. ;)

Bis März geben ich denen noch, dann probiere ich den Acer XB240HAbpr mal aus (kann man ja bei Nichtgefallen zurückschicken). Größer als 24 gehe ich nicht - Punkt! Zudem sieht der Acer für ein TN sehr gut aus und wenn man den Videos im Netz glauben darf, verfärbt der sich nur bei wirklich seitlicher Betrachtung (und da habe ich beim VA ebenfalls Gamma-Shift). Zudem eine gute Gelegenheit zu testen, ob es unbedingt G-Sync sein muss oder 144 Hz mit schnellem Panel reichen. Vor allem weil ich adaptive V-Sync von nVidia gegenüber einfachem V-Sync als spürbar besser empfinde. Bei kritischen Spielen wie Assetto Corsa ist V-Sync ganz aus und im Spiel auf 120 Hz limitiert (warum auch immer fühlt es sich beim Limit auf 60 Hz subjektiv zäh an und das kann ich bei einer Simulation gar nicht haben).

dargo
2016-01-21, 18:47:27
Das, im CB Test beschrieben, FreeSync "Zuckeln" kann ich bestätigen. FreeSync hinkt hier G-Sync immer noch hinterher und wird es vermutlich auch die nächste Zeit noch.
Dieses Zuckeln tritt nicht immer auf. Es ist abhängig von der Engine bzw. Spiel. Hatte ich schon mal erwähnt. Ob das über den Treiber lösbar ist muss man sehen.

iuno
2016-01-21, 19:30:52
Ich habe das auch mal gesehen, ganz am Anfang als ich herumprobiert habe. Seit her ist es mir aber nie wieder aufgefallen. Vielleicht werde ich bei Gelegenheit mal den valley benchmark laden und schauen, ob es mir da auch auffaellt

dargo
2016-01-21, 21:06:38
Ich nehme dafür den Grafiktest 1 von Fire Strike. Perfekte Frametimes und 1080p mit 4xMSAA passt bei mir sehr gut damit die Freesync-Range unten paar Mal verlassen wird. Dort sehe ich dann dieses kurze Zuckeln. Das genaue Gegenteil wäre hier Stone Giant. Ebenfalls perfekte Frametimes und dort ist der Übergang absolut sauber.

MilesEdgeworth
2016-01-21, 22:33:17
Ich bin gespannt wann denn optische (Displayport-)Kabel vermehrt im Consumer-Markt auftauchen. Die Datenraten von Thunderbolt 3 oder Displayport 1.3 werden sich schon kaum noch elektrisch über die üblichen Distanzen (2-3m) bereitstellen lassen. Und sobald Monitore mit Auflösungen größer gleich UHD verbreiteter werden, wird der Bedarf an Bandbreite noch weiter zunehmen.

Derzeit kostet ein 10m langes optisches Displayport 1.2 Kabel (hier (http://www.dvigear.com/cables-dp-fo.html)) noch stolze 750$.

Alternativ könnte ich mir vorstellen, dass weiter in die Breite skaliert wird. Bisher nutzt Displayport ja "nur" vier Kanäle. Mehr Kanäle mit geringerer Bandbreite sollten doch leichter zu handhaben sein. Andererseits wäre dann die Rückwärtskompatibilität nicht mehr gegeben.

akuji13
2016-01-22, 08:52:00
Ja meine Güte, wenn den Leuten Qualität so wichtig wäre wie hier im Forum behauptet wird, dann würden die aktuellen Asus einfach nicht gekauft und der Hersteller wäre gezwungen zu reagieren.


Wenn ich mir die Rücksende/Tauschquoten anschaue scheint die Qualität doch wichtig zu sein.
Das man erstmal bestellt und hofft Glück zu haben ist verständlich wenn man wechselwillig ist.

toll, hat sich nvidia mit ihren restriktionen wieder in's Abseits gestellt. Es ist mir echt unverständlich was die leute da treiben.

Oder Eizo.

Den Beweis für die "wichtigen Bildverbesserungen" durch den (Eizo) eigenen Prozessor ist man bislang schuldig geblieben.

Dieses Zuckeln tritt nicht immer auf. Es ist abhängig von der Engine bzw. Spiel. Hatte ich schon mal erwähnt. Ob das über den Treiber lösbar ist muss man sehen.

Auch G-Sync läuft ja mal schlechter/besser je nach engine, mMn sollte sich das per software lösen lassen.

[dzp]Viper
2016-01-22, 09:41:43
Frag mich wie hoch die Rückläufer Quote ist beim PG279Q. Schon schade das der Kunde die QC übernehmen muss.
Ich frag mal nach :ulol:

MartinRiggs
2016-01-22, 09:49:37
Frag mich wie hoch die Rückläufer Quote ist beim PG279Q. Schon schade das der Kunde die QC übernehmen muss.

Muss man nicht, Asus ist für mich persönlich schon lange Geschichte, vielleicht hatte ich halt auch Pech aber Asus ist für mich "unkaufbar"

[dzp]Viper
2016-01-22, 09:52:45
Frag mich wie hoch die Rückläufer Quote ist beim PG279Q. Schon schade das der Kunde die QC übernehmen muss.
Also meine Quelle sagt mir, dass es wohl so um die 15-20% sind. :eek:

Kylo
2016-01-22, 09:54:48
Ich habe auch einen fehlerfreien PG279Q erhalten. Etwas Backlight Bleeding in den Ecken ist aber vorhanden!

Stört mich aber nicht. Bin ansonsten zufrieden. Wenn man hier so mitliest, dann ist es schon erschreckend was ASUS hier abliefert.

akuji13
2016-01-22, 10:18:14
Viper;10920916']Also meine Quelle sagt mir, dass es wohl so um die 15-20% sind. :eek:

"Mein" Händler hat mehr.

Robspassion
2016-01-22, 10:21:36
Viper;10920916']Also meine Quelle sagt mir, dass es wohl so um die 15-20% sind. :eek:

"Mein" Händler hat mehr.

Ist das bitter. Damals beim Start vom Rog Swift PG278Q war es ja schon ein Lotterie Spiel einen fehlerfreien zu bekommen, aber das geht ja mal gar nicht.

Bitte mehr Konkurrenz zum PG279Q.

Sunrise
2016-01-22, 11:10:09
Oder Eizo.

Den Beweis für die "wichtigen Bildverbesserungen" durch den (Eizo) eigenen Prozessor ist man bislang schuldig geblieben.
Wenn du das mal technisch durchdenkst, dann hat dir Eizo den Beweis bereits geliefert, denn niemand darf oder kann an G-Sync Veränderungen vornehmen. Du könntest lediglich mit großem Aufwand um G-Sync (egal, ob Modul oder ASIC) herumarbeiten, würdest dann aber alle G-Sync-Funktionen verlieren.

Die Funktionalität (der Scaler und die Firmware) ist fest von NV vorgegeben und auf das Panel und die restliche Elektronik angepasst, und Eizo bietet diverse Funktionen an, die ja nicht aus dem Nichts kommen. Somit ist der Beweis auch geliefert. Denn bei FreeSync hast du viele dieser Beschränkungen nicht, sofern du dich an die technischen Spezifikationen hälst, damit FreeSync funktioniert.

Es ist auch klar, warum NV das macht und das ergibt auch Sinn. Ebenso ist es klar, warum der Monitorhersteller das nicht unbedingt akzeptiert, weil er sich nicht von anderen durch eigene Merkmale (und genau das fehlt uns bei den Monitorherstellern oft) absetzen kann.

Eizo ist wohl einer der wenigen Hersteller, die sich überhaupt noch etwas dabei denken (wenn es auch oft Funktionen sind, die evtl. niemand jemals nutzt), im Gegensatz zu dem anderen Massenwaren-Restmüll, den dir die Hersteller andrehen wollen.

Werewolf
2016-01-22, 11:18:28
Also bleibt weiterhin nur die Möglichkeit der Panel-Lotterie von Asus und Acer wenn man an Gsync nicht vorbeikommt. Mir fiele aber im Leben nicht ein 1000+ für beide Marken zu zahlen. Acer eh nicht. Der XB271HU könnte eventuell die bessere QS seitens Acer bieten aber der Sprung von 24 auf 27 ist nicht spektakulär genug dass er mir 800€ wert wäre. D: Für Eizo ok

akuji13
2016-01-22, 11:20:33
@Sunrise
Ich sehe bei dem Gerät nicht 1 Eizo Funktion die die Bildqualität verbessert.

Smart Insight & Co. verändern die Bildqualität, verbessern ist aus meiner Sicht was anderes.
Typisches Marketing-Gewäsch halt, nicht mehr.

Sunrise
2016-01-22, 11:24:48
@Sunrise
Ich sehe bei dem Gerät nicht 1 Eizo Funktion die die Bildqualität verbessert.

Smart Insight & Co. verändern die Bildqualität, verbessern ist aus meiner Sicht was anderes.
Typisches Marketing-Gewäsch halt, nicht mehr.
Was verstehst du denn unter einer Funktion, welche die Bildqualität verbessert und die auch technisch mit G-Sync realisierbar wäre (oder von mir aus auch mit FreeSync) und die kein "Marketing-Gewäsch" ist, wenn die Panelauswahl begrenzt ist?

Mal davon ab, dass sRGB für Spieler in der Regel völlig ausreicht und die "Gamer-"IPS-Panels das bei guter Kalibrierung recht gut mittlerweile abdecken, ist doch automatisch alles andere "Marketing-Gewäsch".

Eigentlich müsste der Eizo noch teurer sein, wenn man mal bedenkt, welche Relationen das allein bei der Q&A zwischen ASUS und EIZO sind. Staub im Panel ist ein eindeutiges Zeichen, dass hier unsauber gearbeitet bzw. selektiert wurde und das dann für sehr viel Geld auch noch verkauft wird.

Dass das eine ziemliche Preistreiberei im Gamermarkt mittlerweile ist, ist das einzige, was hier sauer aufstößt. Es scheint aber genug preiswillige Käufer zu geben, dass sich solche Projekte lohnen.

Kartenlehrling
2016-01-22, 11:25:40
Das Input-Lag ist die Verzögerung, mit der eine Befehlseingabe via Tastatur, Maus oder Kontroller auf dem Bildschirm erscheint,
und kann für das Treffen oder Verfehlen eines Ziels entscheidend sein. Der von EIZO entwickelte Mikroprozessor gewährleistet,
dass Kommandos mit einer maximalen Verzögerung von nur 0,05 Frames auf dem Bildschirm dargestellt werden.

Der Vorteil ist klar: Deine Chancen beim Gamen erhöhst du erheblich.

Da sind ja einige Punkte, input-reduktion, ULMB und Smart Insight (Gamma-Kurve veränderung)
Beim ULMB hat Nvidia anscheinen sich dier Patentrechte gesichert, da überlegt man sich als Hersteller ob man das auch zusätzlich bezahlen will oder etwas leicht abgeändertes.

Loeschzwerg
2016-01-22, 11:28:56
Ich nutze keines dieser Bildbearbeitungs-Features, habe alles deaktiviert.

Letztendlich habe ich mir den Monitor aber wegen der Qualität + 144Hz + FreeSync geholt und das stimmt in meinen Augen alles.

mironicus
2016-01-22, 12:18:40
Der Eizo ist ein ziemliches Leichtgewicht. 4,6 KG ohne Standfuß ist schon ziemlich wenig.

akuji13
2016-01-22, 12:25:51
Was verstehst du denn unter einer Funktion, welche die Bildqualität verbessert und die auch technisch mit G-Sync realisierbar wäre? Oder von mir aus auch mit FreeSync.

Spontan fällt mir keine ein. :wink:
Selbst ULMB verbessert einseits und verschlechtert andererseits.

Für einen noch besseren lag sind +500€ dann doch zuviel, vor allem weil ich persönlich da keinen Unterschied mehr bemerke.
Hat ja auch mit der Bildqualität nichts zu tun.

Immerhin versucht man aber, zumindest scheint es so, durch gezielte Selektierung im Bereich der panels optimale Geräte hinzubekommen.

Gynoug MD
2016-01-22, 12:36:24
Was verstehst du denn unter einer Funktion, welche die Bildqualität verbessert und die auch technisch mit G-Sync realisierbar wäre (oder von mir aus auch mit FreeSync) und die kein "Marketing-Gewäsch" ist, wenn die Panelauswahl begrenzt ist?

Ich finde, eine Antwort darauf kann nur Eizo geben, und zwar in Zukunft (hoffentlich noch 2016) mit einem G-Sync-Monitor.
Marketing-Gewäsch betreiben doch alle Hersteller, auch renommierte Hersteller wie Eizo.

Sunrise
2016-01-22, 13:03:24
Ich finde, eine Antwort darauf kann nur Eizo geben, und zwar in Zukunft (hoffentlich nich 2016) mit einem G-Sync-Monitor.
Marketing-Gewäsch betreiben doch alle Hersteller, auch renommierte Hersteller wie Eizo.
Ich hoffe, dass EIZO bzgl. G-Sync garnichts anbieten wird. Denn nur so können sie auch sicherstellen, dass NV ihnen nicht sagt, was sie zu integrieren haben und was nicht und wir hier keine Produkte von der Stange bekommen.

Wenn die letzten Vorteile von G-Sync verschwinden, dann interessiert G-Sync sowieso niemanden mehr, außer NV denkt sich wieder irgendwas aus, nur um im Rennen zu bleiben, wie dieser Quatsch mit 165Hz statt 144Hz, nur damit es in Reviews dann besser aussieht für NV.

Ich will einfach einen Monitor kaufen mit VRR der über sehr gute Bildqualität ohne große Spielereien verfügt und im Signalweg so optimiert ist, dass er die Reaktionsfreudigkeit und die Bildparameter des Panels (in Zukunft OLED) so gut nutzt, das ich mir und viele andere keine Sorgen mehr um diese Monitorschieberei machen muss oder mir sogar mehrere Monitore hinstellen, nur wegen VRR eines anderen Herstellers.

akuji13
2016-01-22, 14:00:50
Wenn die letzten Vorteile von G-Sync verschwinden, dann interessiert G-Sync sowieso niemanden mehr, außer NV denkt sich wieder irgendwas aus, nur um im Rennen zu bleiben, wie dieser Quatsch mit 165Hz statt 144Hz, nur damit es in Reviews dann besser aussieht für NV.

Ist die Frage ob sich später noch jemand für AMDs Lösung interessiert.

MMn sieht man auch an den vielen unglücklichen Hz Bereichen wie wichtig den Herstellern FreeSync ist, bedingt durch AMDs geringen Marktanteil.

Troyan
2016-01-22, 14:05:42
nVidia verbietet überhaupt nichts. Die Firmware ist auch anpassbar durch den Hersteller. So hat Acer für den Acer Predator XB270HU die Firmware überarbeitet und ULMB für 120Hz freigegeben und das Menü verändert.

Gynoug MD
2016-01-22, 14:07:54
Ich hoffe, dass EIZO bzgl. G-Sync garnichts anbieten wird. Denn nur so können sie auch sicherstellen, dass NV ihnen nicht sagt, was sie zu integrieren haben und was nicht und wir hier keine Produkte von der Stange bekommen.

Das ist die Frage, was ist für die Konsumenten schlimmer: Proprietäre Technik/Innovation vom Monitorhersteller, oder die proprietäre Technik/Innovation vom bösen GPU-Hersteller, die zusammen nicht funktionieren?:freak:
Wäre Nvidia noch eine kleine und unbedeutende Firma, würden sie aufgrund ihrer ganzen Innovationen über den grünen Klee gelobt. Da sie jedoch (leider) Marktmacht (durch die Verbraucher) haben, wird man zu sehr eingeengt.
Oder Eizo wollte nicht sagen, daß die G-Sync-Platine jetzt tatsächlich nur ein DRM-Modul ist.:weg:

Kartenlehrling
2016-01-22, 14:11:17
Ohne diese Low Framerate Compensation (LFC) hätte AMD Freesync nie veröffentlichen dürfen und
somit hättes man auch keine Monitor mit 48-75Hz verkauft werden dürfen.
AMD hätte mehr Kontrolle übernehmen müssen, nur Monitor mit 40-100Hz VRR, basta !!!

Meine Spiele sind immer so eingestellt das ich im 45-80fps Range bleibe, bei viele Spiele ich mit limiter auf 60fps,
weil ich mir "einbilde" das viele Spiel auf diesen Wert optimiert sind und fahr damit gut,
vorallem wenn die Cutscene mit 30fps daher kommen.

Sunrise
2016-01-22, 14:12:23
MMn sieht man auch an den vielen unglücklichen Hz Bereichen wie wichtig den Herstellern FreeSync ist, bedingt durch AMDs geringen Marktanteil.
Diese Art der Implementation hat aber mit dem Standard nichts zu tun. Was NV da umsetzt, kann AMD 1:1 genauso. Ob das jetzt an den von der Industrie gelieferten Scalern, der Firmware oder an Limitationen bei AMDs Display Engines der aktuellen Generation liegt, weiß ich nicht, aber rein technisch lässt es sich genauso umsetzen.

Mehr noch, weil es zusätzlich mehr Freiheiten für jeden Hersteller lässt. Das ist auch der Grund, warum die Dinger aus dem Boden schießen und es immer mehr werden, viel mehr als bei G-Sync.

Aufgrund der problematischen Situation bei AMD muss man natürlich sehen und hoffen, dass AMD bzw. RTG weiterhin bestehen bleibt, das wäre für die Akzeptanz wichtig.

nVidia verbietet überhaupt nichts. Die Firmware ist auch anpassbar durch den Hersteller. So hat Acer für den Acer Predator XB270HU die Firmware überarbeitet und ULMB für 120Hz freigegeben und das Menü verändert.
Du hast nicht verstanden, was ich geschrieben habe.

robbitop
2016-01-22, 15:06:52
Spätestens wenn Intel es implementiert, ist die Verbreitung und die Akzeptanz gesichert. Ist nur noch eine Frage der Zeit. Würde mich wundern, wenn es in Cannonlake (wenn nicht sogar schon bei Kabylake) ankommt.

dargo
2016-01-22, 15:11:07
Auch G-Sync läuft ja mal schlechter/besser je nach engine, mMn sollte sich das per software lösen lassen.
Ich bin mir nicht sicher ob wir gerade vom gleichen Thema sprechen. :tongue:

Diese Art der Implementation hat aber mit dem Standard nichts zu tun. Was NV da umsetzt, kann AMD 1:1 genauso. Ob das jetzt an den von der Industrie gelieferten Scalern, der Firmware oder an Limitationen bei AMDs Display Engines der aktuellen Generation liegt, weiß ich nicht, aber rein technisch lässt es sich genauso umsetzen.

An den Display Engines kann es nicht liegen, schließlich gibt es den Nixeus Vue 24" mit 30-144Hz ohne LFC.

akuji13
2016-01-22, 15:18:55
Spätestens wenn Intel es implementiert, ist die Verbreitung und die Akzeptanz gesichert.

Stimmt.

Die Technik hat große Chancen ~100% Marktdurchdringung zu erreichen und gleichzeitig von vielen nicht (wegen NV Karten) oder nur unzureichend (wegen der Leistung der Intel Grafiklösungen) genutzt zu werden.

Die Vorstellung ist irgendwie skuril. :D

Sunrise
2016-01-22, 15:26:32
Stimmt.

Die Technik hat große Chancen ~100% Marktdurchdringung zu erreichen und gleichzeitig von vielen nicht (wegen NV Karten) oder nur unzureichend (wegen der Leistung der Intel Grafiklösungen) genutzt zu werden.

Die Vorstellung ist irgendwie skuril. :D
Was er im Kern eben meint ist, dass du auch zukünftig auf allen möglichen Geräten (Laptops, Pads, wie auch immer) minimale Frameraten (>30fps bzw. >35fps) erreichen kannst, bei denen dir VRR eigentlich immer etwas bringt, selbst wenn der Laptop oder wie auch immer nur 60fps max. oder begrenzt darstellen kann (mit reduzierten Details).

Siehst du ja an AMD, die bringen bald Polaris und werben mit medium Details bei Battlefront und 60fps als Laptop dGPU. Wenn AMD jetzt noch die Display Engine verbessert hat und FreeSync dann so ziemlich an jedem Laptop zur Verfügung steht, dann wird auch Intel da mitziehen wollen und das machen sie nicht mit NV, weil Intel das nicht nötig hat.

Insofern stimmt das was robbitop sagt schon, vor allem bei Intels immer weiter steigender iGPU-Leistung und dem extrem hohen Marktanteil. Allerdings würde es mit AMD deutlich schneller gehen, weil eben die Enthusiasten gerade in dem Bereich aktiv sind. Dafür brauchen wir aber erstmal eine neue GPU-Serie von AMD. Geht eben nicht von heute auf morgen, wenn der Marktanteil ggü. NV zu niedrig ist.

akuji13
2016-01-22, 15:54:12
Insofern stimmt das was robbitop sagt schon, vor allem bei Intels immer weiter steigender iGPU-Leistung und dem extrem hohen Marktanteil.

Wie gesagt, an der Marktdurchdringung habe ich wenig bis gar keine Zweifel.

Die iGPUs sehe ich allerdings heute und auch zukünftig als überschätzt an.

Entweder reicht für anspruchsvolle Spieler die Leistung nicht (die haben am desktop Rechner eben dann auch mehr als 1080p und wollen max Details) oder sie geben sich mit abgespeckten Details und niedrigen Auflösungen zufrieden und legen deswegen auch keinen Wert auf ein smoothes gameplay.

In meinem Umfeld kennen ~90% der user Free/G-Sync in Aktion und außer mir hat es keiner.
Von den ~90% die es bei mir angetestet haben bemerken ~80% keinen Unterschied...und da sind sogar ein 980 TI/Fury X Nutzer dabei.

Der Kauf eines Sync Monitors würde also eher "versehentlich" Erfolgen.
Wobei das letztlich ja auch egal ist wenns nicht mehr kostet.

Und es lässt für später die Option es zu nutzen offen.

Kriton
2016-01-22, 16:00:13
oder sie geben sich mit abgespeckten Details und niedrigen Auflösungen zufrieden und legen deswegen auch keinen Wert auf ein smoothes gameplay.

Ich erkenne dort keinen Kausalzusammenhang, wie durch "deswegen" suggeriert wird.

dargo
2016-01-22, 16:01:57
In meinem Umfeld kennen ~90% der user Free/G-Sync in Aktion und außer mir hat es keiner.
Von den ~90% die es bei mir angetestet haben bemerken ~80% keinen Unterschied...und da sind sogar ein 980 TI/Fury X Nutzer dabei.

Fielmann? :D

akuji13
2016-01-22, 16:12:27
Ich erkenne dort keinen Kausalzusammenhang, wie durch "deswegen" suggeriert wird.

Gewisse qualitative Ansprüche sind mMn wenn vorhanden in allen Bereichen vorhanden.

Ich würde z. B. keine Details reduzieren um ein Sync Fenster zu erreichen oder auf ein TN panel mit UHD setzen.
Die welche ich kenne und mit medium Details spielen stören auch keine MR oder die Defizite ihrer 1080p TNs.

Kann natürlich bei anderen anders sein.

Fielmann? :D

Mag sein. :D

Aber vielleicht ist das sogar ein erstrebenswerter Zustand:
Das spart Geld, Zeit und schont die Nerven. :wink:

Pumpi74
2016-01-22, 16:16:17
Wenn die letzten Vorteile von G-Sync verschwinden, dann interessiert G-Sync sowieso niemanden mehr, außer NV denkt sich wieder irgendwas aus, nur um im Rennen zu bleiben, wie dieser Quatsch mit 165Hz statt 144Hz, nur damit es in Reviews dann besser aussieht für NV.

Ein DP 1.3 G-Sync Modul wird sicherlich in der Mache sein. 1440p @ 0-240fps @ HDR wird wohl mindestens drin sein. Und natürlich wird das Freesync System wieder hinterher hinken, sie knabbern ja noch an aktuellen Standards...

Ich glaube kaum das sich so schnell was am Status ändert.

Kartenlehrling
2016-01-22, 16:51:53
Bei Intel wird immer noch die Akkuleistung einsparen vorrang haben, auch bei Spielen.
Das ihre igpu nun schon Leistungstark sind das man auch AAA Titel auf den Laptop spielen kann halte ich immer noch für zweitrangig.


Ein DP 1.3 G-Sync Modul wird sicherlich in der Mache sein. 1440p @ 0-240fps @ HDR wird wohl mindestens drin sein.
Und natürlich wird das Freesync System wieder hinterher hinken, sie knabbern ja noch an aktuellen Standards...

Ich glaube kaum das sich so schnell was am Status ändert.


Wie leicht du doch beeinflußbar bist,
ich sehe nur 165Hz und 200Hz Monitor wo diese Werte nichtmal das Papier wert sind auf den sie geschrieben stehen.

Several things make the Z35 stand out when it comes to gaming:

Refresh Rate - the VA panel has a native refresh rate support from AU Optronics of 144Hz so right away you know that the panel should be able to achieve decent refresh rates without complications.


Overclocking - Acer have then enabled an overclocking feature allowing you to overclock the screen up to 160, 180 or 200Hz maximum. This is quick and easy to achieve through the OSD menu. The reason for the "up to" 200Hz message is because you can customise the maximum refresh rate you want to select in the OSD, in 20Hz increments all the way up to 200Hz. We have been told that overclocking does not affect the Acer warranty, which carries standard warranty terms and is available via the Acer support website. We are told that once enabled in the OSD the monitor will report back to your operating system the supported refresh rates and it should not matter what graphics card vendor you are using. Based on this you should be able to get 200Hz in most cases it seems. Results may vary from system to system so you may have to limit yourself to 180Hz. Even without the overclocked refresh rate the native 144Hz is more than adequate and very fast anyway.


NVIDIA G-sync - this higher refresh rate support has been paired with an NVIDIA G-sync module, offering G-sync variable refresh rate support between 30 and 144Hz, or up to the maximum overclocked refresh rate if you select that. The overclocking facility of the screen seems to be related to the presence of a G-sync module, or perhaps more precisely down to the absence of a built-in scaler. G-sync brings about obvious benefits when it comes to gaming and so is very welcome.


ULMB Blur Reduction - this has been provided natively on this screen allowing users to operate a strobed backlight if they wish, for noticeable motion blur reduction benefits. Have a read of our full article about these technologies to understand the benefits in more detail. On the Z35, ULMB can be enabled at 85, 100 and 120Hz refresh rate settings (not 144Hz or above) but is not available when using G-sync.

Thomas Gräf
2016-01-22, 17:04:33
Ein DP 1.3 G-Sync Modul wird sicherlich in der Mache sein. 1440p @ 0-240fps @ HDR wird wohl mindestens drin sein. Und natürlich wird das Freesync System wieder hinterher hinken, sie knabbern ja noch an aktuellen Standards...

Ich glaube kaum das sich so schnell was am Status ändert.

HDR? AMD wird es unterstützen ja.
1440p@240fps? Die HDR Displays die ich kenne haben 4k und sind TV's

Also müßte Dein Gsync Killermodul etwas andere Specs haben.

-dualGPU Anschluß a'la nV
-4k@120HZ
-bis 120fps
-HDR
Dann jo dann hätten sie was zum angeben.

aso, LG oder Samsung sollten noch Bock haben das zu verbauen.

Pumpi74
2016-01-22, 17:33:45
Wie leicht du doch beeinflußbar bist, ich sehe nur 165Hz und 200Hz Monitor wo diese Werte nichtmal das Papier wert sind auf den sie geschrieben stehen.

Sagt ja keiner das die Hz Schleudern heute so toll sind. Das G-Sync System funktioniert heute trotzdem besser und einfacher.

Und das HDR auf UHD beschränkt ist steht auch nirgends fest geschrieben. Warum auch ?

fondness
2016-01-22, 17:35:32
An den Display Engines kann es nicht liegen, schließlich gibt es den Nixeus Vue 24" mit 30-144Hz ohne LFC.

Korrekt, die von AMD unterstützten Ranges sind weit höher als alles, was irgend ein Hersteller liefern kann.

Kartenlehrling
2016-01-22, 18:00:53
Nixeus Vue 24"

Aber 1080p und TN, damals hatten sie versprochen das der VUE27D (Glass IPS) nachgepatch wird,
ist nie passiert, als DEMO Monitor wurde er ja eingesetzt von AMD.
Diesen hätte ich vielleicht sogar mit 40-100Hz gekauft.

http://www.nixeus.com/?product=nixeus-vue-27d

dargo
2016-01-22, 18:19:51
Das G-Sync System funktioniert heute trotzdem besser und einfacher.

Sagt wer? Schon mal Freesync in Aktion erlebt?

Kriton
2016-01-22, 18:24:16
Gewisse qualitative Ansprüche sind mMn wenn vorhanden in allen Bereichen vorhanden.

Ich würde z. B. keine Details reduzieren um ein Sync Fenster zu erreichen oder auf ein TN panel mit UHD setzen.
Die welche ich kenne und mit medium Details spielen stören auch keine MR oder die Defizite ihrer 1080p TNs.

Kann natürlich bei anderen anders sein.


Ich halte Deine Aussage für falsch. Gerae wenn die Leute mit abgespeckten Details und niedrigen Auflösungen "zufrieden" sind, dann ist smoothes gameplay eher der Grund dafür. Man redzuiert Qualität für mehr FPS.

So ist es jedenfalls bei mir.

Kann natürlich bei anderen anders sein. :biggrin:

akuji13
2016-01-22, 22:28:51
Die Gruppe die ich meine reduziert die Details um überhaupt spielbare fps zu erhalten.

Wobei die meisten hier vermutlich mit den erzielten Ergebnissen nicht spielen würden.

Ich sag nur Battlefield 4 bei 25 fps.

Darkman.X
2016-01-22, 23:04:58
Ich denke auch, dass es so ist wie von "akuji13" beschrieben. Niedrige Details werden primär wegen fehlender Leistung eingesetzt. Die Spieler, die niedrige Details wegen der Smoothness nutzen (ich denke da an die damals kaputt-optimierten Quake3-Spieler), sind eindeutig eine Nische. Die meisten Spieler wollen eher hohe Bildqualität haben und heulen dann, wenn deren 400€ PC keine High-/Ultra-Details schaffen.

dargo
2016-01-22, 23:19:37
In eurer Welt gibt es nur niedrige und maximale Details? Was ist mit den ganzen Details dazwischen? Ihr denkt viel zu schwarz/weiß.

Darkman.X
2016-01-22, 23:30:24
Und du legst jedes Wort auf die Goldwaage. Ja, ich hatte von Low-Details gesprochen, aber das Gespräch dreht sich doch allgemein um das Reduzieren von Details und den Grund dafür, egal ob nun auf Medium oder Low. Außerdem hatte "akuji13" sogar von Medium-Details gesprochen.

Sunrise
2016-01-23, 00:15:06
Ich persönlich schalte immer Details ab, wenn ich kein durchgehend flüssiges Spielgefühl habe, ich bin da auch recht empfindlich. Wie dargo schon schrieb, sind das custom Einstellungen, die eigentlich auch fast jedes Spiel zulässt. Da werden dann Dinge abgeschaltet, die unnötig viel Leistung fressen und ich kaum bemerke.

Aufgrund der Tatsache, dass ich früher auch Quake2 auf einem CRT gespielt habe, ist mir ein flüssiges Bild jederzeit wichtiger, als das letzte bisschen Details. Und selbst medium Einstellungen sehen bei vielen Spielen noch sehr gut aus. Das letzte Bisschen kostet eben auch meist überproportional viel Leistung.

Die Leute, die mit LCDs aufgewachsen sind, bzw. sogar auf LCD konditioniert sind, die brauchen auch keine hohen FPS, und für die ist VRR auch immer von Vorteil, solange es >35fps sind. Das sollten zukünftige Karten bei medium Details auch locker packen.

Es raubt mir total die Stimmung, wenn es sich nicht flüssig spielt oder ich das Gefühl habe, es gibt Verzögerungen, daher ist VRR auch das Beste, was in dem Bereich passieren konnte und es wird auch stetig besser (Kinderkrankheiten) werden, da auch die Panels und Technologien besser werden und wir bald endlich wieder viel bessere CRTs mit hoher Auflösung haben.

akuji13
2016-01-23, 08:13:39
Die Leute, die mit LCDs aufgewachsen sind, bzw. sogar auf LCD konditioniert sind, die brauchen auch keine hohen FPS

Warum?

dargo
2016-01-23, 09:40:26
Ich persönlich schalte immer Details ab, wenn ich kein durchgehend flüssiges Spielgefühl habe, ich bin da auch recht empfindlich. Wie dargo schon schrieb, sind das custom Einstellungen, die eigentlich auch fast jedes Spiel zulässt. Da werden dann Dinge abgeschaltet, die unnötig viel Leistung fressen und ich kaum bemerke.

Genau das tue ich auch weil mir höhere fps wichtiger sind. Meistens ist es eine bis zwei Stufen weniger bei den Schatten oder antatt HBAO+ halt SSAO. LoD wird auch je nach Last etwas reduziert wenn die fps immer noch zu niedrig sind. Und so einen Blödsinn deaktiviere ich gleich.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10921196&postcount=3724
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10842826&postcount=2

PS: vordefinierte Presets vom Entwickler verwende ich nie.

Kriton
2016-01-23, 13:55:09
Ich denke auch, dass es so ist wie von "akuji13" beschrieben. Niedrige Details werden primär wegen fehlender Leistung eingesetzt. Die Spieler, die niedrige Details wegen der Smoothness nutzen (ich denke da an die damals kaputt-optimierten Quake3-Spieler), sind eindeutig eine Nische. Die meisten Spieler wollen eher hohe Bildqualität haben und heulen dann, wenn deren 400€ PC keine High-/Ultra-Details schaffen.

Ich bin ja bei Dir. Nur so verstehe ich ihn nicht. Mangelnde smoothness sind für mich niedrige fps. Die resultieren aus fehlender Leistung. Reden wir aneinander vorbei?

Didi Bouzul
2016-01-24, 11:32:35
So, habe mein mg279q bekommen, es stammt vom CSL-Ebay-Angebot (500€). Das Paket war unangetastet, alle Komponenten verschweißt. Der typische Weichmacher-Geruch verbreitete sich im Raum.:D
Ein Blick auf das Produktionsdatum: August 2015. Ein sehr ausführlicher Pixeltest verlief negativ, dann der Backlight-Bleeding Test. Und siehe da, bei maximaler Helligkeit und vollem Kontrast ein Lichthof rechts unten ("10cm-Viertelkuchenstück"), und weniger ausgeprägt links oben, auch leicht an den anderen Ecken. Diese verändern je nach Blickwinkel ihre Intensität und Ausdehnung. Die Farbe würde ich als dunkel-golden beschreiben und als nicht besonders ausgeprägt (Vgl. Bilder Amazonbewertung 1-2 Sterne). Aber: Bei normaler Benutzung (Querbeet: Mozilla, MSWord, Thunderbird, Youtube, GTAV, QL uvm) fallen mir die Lichthöfe absolut nicht auf. Bei Filmen mit sehr dunklen Szenen erahne ich eine etwas stärkere Helligkeit rechts unten. Nicht weiter störend - aber vielleicht ist da manch ein Anderer sensibler.
Viel schlimmer empfand ich die unscharfe, verschwommene Schrift - ich bin ein Viel-Leser. Das hat mich an CRT-Zeiten erinnert. Nicht akzeptabel. Also doch zurückschicken?
Nach stundenlangem Ausprobieren und Regeln habe ich dennoch ein gutes Ergebnis erzielt. Hierbei musste ich auch an den Windows-Einstellungen "Cleartype" und "Kanten und Bildschirmschriftarten verfeinern" rumspielen. Seltsamerweise können im OSD-Menü des Bildschirms nicht alle Optionen ausgewählt werden,wenn man von mehreren der sechs verschiedenen Presets ausgeht. Insbesondere die Option "Sharpness" ist nur vom Preset "Scenery" und "Cinema" zugänglich. Einfach dämlich von Asus, den Ersteindruck so zu versemmeln. Alles in Allem bin ich nach drei Tagen erstmal zufrieden.

Mannyac
2016-01-24, 12:23:37
So, jetzt muss ich mich auch mal melden nachdem hier so viel negatives zum MG279q geschrieben wurde.

Ich besitze nun seit ca. 2 Monaten so ein Ding und ja, ich musste den Ersten auch zurückschicken da die Schrift arg unscharf war und ein Cluster von Pixelfehler oder Dreck unter der Folie war. So genau kann ich das nicht sagen, jedenfalls ging der gleich zurück.

Den Neuen den ich erhalten habe ist nun aber ziemlich gut. Die Ausleuchtung ist nicht perfekt, und etwas IPS-Glow von unten rechts, sieht man aber im normalen Betrieb nicht. In ganz dunklen Szenen könnte das ein Problem werden, bisher ist es mir aber während dem Zocken nicht aufgefallen.

Ja und dann ist da halt Freesync. Mit einer kleinen Mod krieg man den Monitor ja bei 56-144Hz laufen und das ist zusammen mit Framedoubling (-trippling oder sonstiger vervielfachung) einfach genial. Das er nicht unter 56Hz kommt ist somit kein Problem mehr. (Mod, war hier glaube ich schon mal erwähnt: http://www.pcgameshardware.de/LCD-Hardware-154105/Specials/Freesync-Frame-Doubling-Modding-Test-1180261/)

Somit ist das für mich ein ziemlich perfekter Gamer-Monitor. Vielleicht hatte ich aber im Asus Lotto einfach auch viel Glück ;)

Kartenlehrling
2016-01-24, 14:02:47
https://www.youtube.com/watch?v=UbobxbgWYFw&feature=youtu.be
AMD R9 Nano & CLUB 3D HDMI 2 0 Adapter

Leider geht man in diesem Video nur auf 2160p/60Hz ein,
aber Intels Nuc wo ich schon gesagt habe das sie HEVC-Main10 Hybrid können funktioniert anscheinen dieser Dongle auch bestens.

Die erste Lieferung ist schon Ausverkauft .... LOL ich habe bei keinem Deutschen Händler einen Lagern gesehen.

PS176 fully supports both HDCP 1.4 and HDCP 2.2 content protection,
including the HDCP repeater function, with integrated HDCP Rx & Tx keys.
http://www.paradetech.com/wp-content/uploads/2015/08/PS176-block-20150806.png
http://www.paradetech.com/products/displayport-format-converters/ps176/

Ex3cut3r
2016-01-24, 15:24:31
Auf der Startseite gibt es momentan eine intressante Umfrage. ;)

horn 12
2016-01-24, 15:38:50
Was würde der Adapter kosten ?
und mit was kann ich den TV damit verlustfrei verbinden ?

Mandalore
2016-01-24, 16:26:14
5120*2160 auf nem 34 Zoll 21:9 Monitor mit DP1.3


Welche Refreshrate kann man höchstens erzielen?


Gibts eigentlich schon Gerüchte o. ä. über diese Art von Monitoren (also UHD+21:9)?

Ex3cut3r
2016-01-24, 21:04:14
Nein, mir ist jedenfalls noch nichts bekannt was 2160p im 21:9 Format angeht, ich habe aber letzends eine AMD Folie gesehen mit DP 1.3 aber mit 1440p also 3440x1440 und 190HZ wenn ich mich richtig erinnere. Nur finde ich die Folie grade nicht.

EDIT: Hier ist sie!

http://abload.de/thumb/rtg_page_34b2bmr.jpg (http://abload.de/image.php?img=rtg_page_34b2bmr.jpg)

Nun wenn bei DP 1.3 und 5K nur 60HZ möglich sind, sieht es für 5120*2160 auch nicht so rosig aus. :( 75-100HZ ?

iuno
2016-01-24, 21:52:37
100 Hz gingen schon mal nicht, 90 waeren noch drin.
5120*2160*24*90 = ~23.9 Gb/s
DP1.3: ohne overhead 25.92 Gbps

Kartenlehrling
2016-01-24, 22:27:54
Naja der 30" Dell UHD WOLED mit den 120Hz der auf der CES gezeigt wurde war mit USB3.1 und einer Thunderbolt3 Verteilerbox verbunden.

http://www.extremetech.com/wp-content/uploads/2015/06/TB3-640x312.png
http://www.extremetech.com/wp-content/uploads/2015/06/Thunderbolt1-640x338.png

Mandalore
2016-01-24, 22:48:12
Was meint ihr?


Merkt man einen Unterschied zwischen 100 und 120 Hz?

Habe extremst Lust (:D) mir diesen Asus 34" 21:9 Monitor zu holen, der 3440*1440@100Hz bietet.

ezzemm
2016-01-25, 06:53:49
Freesync, in der Art und Weise wie der Eizo FS2735 es realisiert, ist für mich noch GSync unterlegen.
Singleplayer-Games spiele ich mit hohen Grafiksettings, während ich Multiplayer-Games so konfiguriere, daß im Idealfall 144fps gehalten werden. Jedesmal den Range zu ändern in dem man ein verstecktes Menü öffnet, finde ich nicht so prickelnd.
Laut dem Computerbase-Test scheint das ja kein grundsätzliches Problem von Freesync zu sein. D.h. die Hoffnung besteht, daß es auch in dieser Beziehung zu GSync aufschließen kann.

Savay
2016-01-25, 10:31:35
Wo ist das problem? Lass ihn einfach zwischen 56 und 144Hz laufen...für unten drunter gibt`s doch Framevervielfältigung. ;)
Man muss sich mMn mittlerweile schon heftig was zurechtbiegen um die G-Sync Strafsteuer noch ernsthaft zu rechtfertigen. :D

derF
2016-01-25, 10:51:48
Ja gut, aber die Strafsteuer zahlen ja erstmal die Monitorhersteller, nicht direkt der Kunde. Am Ende kann man nur die erhältlichen Monitore und Preise vergleichen. Und da find ich sowohl die GSync- als auch die FreeSync-Angebote noch recht teuer.

Savay
2016-01-25, 11:03:35
Natürlich zahlt das am Ende der Kunde, entweder auf die eine oder auf die andere Weise...da braucht man sich nun wirklich keinen Illusionen hingeben. ;)
Wer nV weiterhin Kohle in den Rachen werfen will soll`s tun...bei mir hat es sich der Laden mit dem Gebaren in den letzten Monaten aber endgültig versaut. Deshalb habe ich trotz (noch) vorhandener GTX970 (3,5+0,5=Herz... :unono: ) auch bewusst nen Freesync Monitor genommen. :wink:

derF
2016-01-25, 11:16:29
Is ja richtig, spätestens seit der 970 bin ich auch kein potentieller Kunde mehr von dem arroganten Saftladen. Aber ich gebe auch keine 600€ für nen Asus-FreeSync-Monitor mit beschissener Qualitätssicherung aus.

Kartenlehrling
2016-01-25, 11:25:09
http://www.tftcentral.co.uk/news_archive/35.htm#panels_jan
Update: New Panels Coming This Year


Es werden warscheinlich einige hier es anderes sehen, aber mir gefällt die Entwicklung überhaupt nicht, Breitbild-Monitor in 37" ,40" und 49".



Schließlich Samsung haben ein 31,5 "Größe Panel kommen im 3. Quartal ebenfalls mit einem kolossalen 8K4K (7680 x 4230) Auflösung und
Adobe RGB Farbraumabdeckung, die eindeutig positioniert es als Premium-professionelle Panel.
Der wird wohl für "uns" nicht bezahlbar sein.

Botcruscher
2016-01-25, 12:42:54
Es werden warscheinlich einige hier es anderes sehen, aber mir gefällt die Entwicklung überhaupt nicht, Breitbild-Monitor in 37" ,40" und 49".

Die 49" sind bei 32:9 im Gespräch. Als Ersatz für 3 Monitore muss ja auch noch etwas Höhe erreicht werden.:biggrin: Der Trend zu 5 oder 8K ist hingegen einfach lächerlich. Keine ordentliche Schnittstelle und die Rechenleistung fehlt für die Inhalte.
Derweil fehlen die richtigen Knüller mit 4K, 120Hz, Freesync und ordentlichem Panel.

Gynoug MD
2016-01-25, 13:56:55
Es werden warscheinlich einige hier es anderes sehen, aber mir gefällt die Entwicklung überhaupt nicht, Breitbild-Monitor in 37" ,40" und 49".

So ist es, es wird aber wieder genug Konsumenten geben, die dankbar jeden Marketing-Stuß mitmachen und sich tischtennisplattengroße Monitore oder krumme Öllis auf den Schreibtisch stellen (bei gefühlten 40cm Seh-Abstand).:biggrin:

Andi_669
2016-01-25, 15:02:47
die Breitbild-Monitore mit 1440 oder mehr in der Höhe machen aber deutlich mehr Sinn als der Blödsinn mit den 1920x1080 16:9 Monitoren am PC,

Ex3cut3r
2016-01-25, 17:43:30
So ist es, es wird aber wieder genug Konsumenten geben, die dankbar jeden Marketing-Stuß mitmachen und sich tischtennisplattengroße Monitore oder krumme Öllis auf den Schreibtisch stellen (bei gefühlten 40cm Seh-Abstand).:biggrin:

Das ist vlt. deine Meinung, ich finde aber sogar 34" im 21:9 Format noch etwas klein, und bis 42" im 16:9 Format ist nichts zu groß. :cool:

24" 16:9 dagegen ist mir viel zu mickrig.

ezzemm
2016-01-26, 06:48:11
Wo ist das problem? Lass ihn einfach zwischen 56 und 144Hz laufen...für unten drunter gibt`s doch Framevervielfältigung. ;)
Man muss sich mMn mittlerweile schon heftig was zurechtbiegen um die G-Sync Strafsteuer noch ernsthaft zu rechtfertigen. :D

Wieso? Weil der hohe Freesync-Modus nicht so gut läuft wie der niedrige. Zumindest glaube ich das den Hardware-Testern, bevor ich 1500€ für Monitor und GraKa ausgebe um das selber herauszufinden ;)

http://www.computerbase.de/2016-01/eizo-fs2735-asus-pg279q-test/4/

Warum G-Sync aber immer noch besser ist, als FreeSync

Etwas anders gestaltet sich das Ergebnis, wenn man den Eizo-Monitor in den hohen FreeSync-Bereich schaltet. Denn dann ist die Anforderung an LFC deutlich höher, da die Frame-Doubling-Technik auch schon in FPS-Bereichen genutzt werden muss, die eigentlich flüssig laufen. Und es zeigt sich, dass FreeSync beim Umschalten zwischen dem normalen und dem LFC-Betrieb nicht ganz rund läuft – manchmal zumindest.
[...]
Die dritte Kategorie an Spielen, die allergisch auf LFC reagieren, ist selten, aber vorhanden. Tomb Raider beispielsweise scheint auf LFC teils recht allergisch zu reagieren. Im niedrigen FreeSync-Bereich fällt dies auf dem Eizo-Monitor nicht auf, da das Spiel dann ohnehin nicht gut läuft. Im hohen Bereich gibt es in einigen Szenen aber ein recht großes Problem, so dass das Spiel spürbar anfängt zu ruckeln – selbst mit 50 FPS. Das geschieht aber wiederum nicht in allen, sondern nur in einigen Sequenzen. Nvidias Frame-Doubling-Verfahren bei G-Sync hat diese Probleme bei hohen Bildwiederholfrequenzen nicht, da der Monitor einen durchgehenden Frequenzbereich unterstützt und so nicht wie bei FreeSync eine weitere Grenze für Frame Doubling schafft.
/

Savay
2016-01-26, 10:40:48
Danke, aber ich kenne den Test! :wink:
"manchmal", "ist selten", "Meistens sind FreeSync und G-Sync qualitativ identisch"... nunja. :cool:

Wie schon gesagt...man kann sich ja gerne was zurechtbiegen um die 200€+ Strafgebühr für das modul zu rechtfertigen...mir ist es das nur leider nichtmal im Ansatz Wert (auch angesichts des Rattenschwanzes an Konsequenzen der da mit dran hängt) zumal nV von mir in Zukunft eh keinen Cent mehr sieht solange es (noch) eine Alternative gibt.
Komplette Parität ist hier sowieso nur eine reine Zeitfrage und ausschließen das es sich da auch lediglich um Treiberprobleme handelt die zügig gefixt werden könnten, kann man da momentan ja auch nicht. :smile:

mironicus
2016-01-26, 11:13:33
Mein Samsung-UHD von dem ich hier vor einigen Wochen schwärmte, hat sich leider als Niete erwiesen. Der war einwandfrei am Anfang und jetzt kann ich dem Display beim Zerfall zusehen, denn alle paar Wochen fallen immer neue Pixel aus... :(

Geächteter
2016-01-26, 12:29:14
Mein Samsung-UHD von dem ich hier vor einigen Wochen schwärmte, hat sich leider als Niete erwiesen. Der war einwandfrei am Anfang und jetzt kann ich dem Display beim Zerfall zusehen, denn alle paar Wochen fallen immer neue Pixel aus... :(
Also kurz, der gewohnte aktuelle Industrieschrott im Monitorsektor. Die Industrie protzt mit Zoll und jenseits UHD-Auflösungen, dabei bekommen sie noch nicht mal wegen Kostendruck die Qualität aus vergangenen Tagen hin. Erinnert mich an die Fleischindustrie.

mironicus
2016-01-26, 12:42:57
Ja, so in etwa. ^^

OC_Burner
2016-01-26, 13:20:43
Ja, so in etwa. ^^

Gemeint ist der UE48JU7500?

mironicus
2016-01-26, 13:36:06
Gemeint ist der UE48JU7500?

Ja. Wirklich große Hoffnung habe ich nicht, dass ich Ersatz bekommen werde. Samsung will Bilder haben, die habe ich gemacht und ein Freund von mir hat sie auf seiner Seite online (http://www.animedigital.de/Samsung/index.php) gestellt.

Wird Zeit, dass dieses Thema mal in der Presse breit getreten wird. :freak:

Andi_669
2016-01-26, 14:09:03
Mm sieht seltsam aus, kommt mir vor als wenn das alles irgendwie Staub ist der da stört :confused:

Kartenlehrling
2016-01-26, 15:44:54
http://www.computerbase.de/2016-01/xub3490wqsu-ultra-wide-qhd-gibt-es-jetzt-auch-bei-iiyama/
Zudem nennt iiyama eine automatische Regelung von Kontrast und
Helligkeit sowie eine Möglichkeit zur individuellen Anpassung des Kontrastverhältnisses in dunklen Bereichen,
die unter dem Schlagwort „Black Tuner“ vermarktet wird.


Kontrast-verbesser und 10Bit, da kommen wohl die ersten HDR Monitore.

Mandalore
2016-01-26, 23:47:37
Es kommen ja zwei neue 27 Zoll Monitore von LG (4K, IPS, 60Hz, FreeSync)

LG27UD68 und 88


Laut Info-Blatt mit 10 Bit Panel. Heißt das, das sind HDR fähig?


BTW: Könnt ihr mir ne Kaufberatung machen?

Ich habe schon so lange gewartet, halte es aber nicht mehr aus (xD) und will mir einen 4K Monitor holen. EIgentlich hatte ich auf ne UHD 21:9 Variante gehofft, aber da scheint dieses Jahr nix mehr zu passieren.


So was könnt ihr mir empfehlen ?`Ich wär sogar bereit mir diesen neuen G-Sync Asus Monitor zu holen ^^.

Kartenlehrling
2016-01-26, 23:54:15
Ich wär sogar bereit mir diesen neuen G-Sync Asus Monitor zu holen ^^.

wird gerade verramscht ...

Der 4k G-sync Asus ist gerade im MindStar!
Sie haben 2 stück, also die chance einen Monitor unter 700€ zu bekommt ist gross, im moment ist er bei 735€+versand.

http://www.mindfactory.de/product_info.php/27Zoll--68-58cm--Asus-ROG-Swift-PG27AQ-schwarz-3840x2160-1xDP-1xHDMI_1019796.html

Mandalore
2016-01-27, 00:14:18
wird gerade verramscht ...

Der 4k G-sync Asus ist gerade im MindStar!
Sie haben 2 stück, also die chance einen Monitor unter 700€ zu bekommt ist gross, im moment ist er bei 735€+versand.

http://www.mindfactory.de/product_info.php/27Zoll--68-58cm--Asus-ROG-Swift-PG27AQ-schwarz-3840x2160-1xDP-1xHDMI_1019796.html

Lol WTF?!

Habe ihn bestellt. Ist das Neuware oder ?!?! Habe vor Euphorie nichts geschaut xD


BTW: Vielen Dank dir, 661€ habe ich gezahlt xD

Botcruscher
2016-01-27, 10:16:52
Wir sind auf die Qualität gespannt.:rolleyes:

Kartenlehrling
2016-01-27, 10:48:06
900€ wären mir zuviel für den Monitor, aber die 670€ sind doch nicht schlecht,
da kann man wohl auch mit den IPS typischen Fehler leben,
die dunklen Lichthöfe finde ich nicht Toll aber man wird sie im Normalbetrieb wohl nicht sehen.
Und viel wichtiger das G-sync soll auch unter 30fps gute Arbeit erledigen.
Und wenn man im 21:9 spielt kann man bestimmt recht viele Games >45fps erreichen.

https://pcmonitors.info/reviews/asus-pg27aq/
PG27AQ

Mandalore
2016-01-27, 13:17:17
900€ wären mir zuviel für den Monitor, aber die 670€ sind doch nicht schlecht,
da kann man wohl auch mit den IPS typischen Fehler leben,
die dunklen Lichthöfe finde ich nicht Toll aber man wird sie im Normalbetrieb wohl nicht sehen.
Und viel wichtiger das G-sync soll auch unter 30fps gute Arbeit erledigen.
Und wenn man im 21:9 spielt kann man bestimmt recht viele Games >45fps erreichen.

https://pcmonitors.info/reviews/asus-pg27aq/
PG27AQ

Exakt meine Gedanken. Selbst wenn das Ding 144 Hz gehabt hätte, wäre es zu teuer. Wenns OLED wäre, hätte ich dem Shop sogar noch nen Hunderter als Dankeschön da gelassen xD


Ich wollte/will einfach eine Art Übergangslösung bis ein UHD 21:9 kommt. Und falls ich den Asus behalte kann ich ihn ja am Ende (dank des Rabatts) verlustfrei verkaufen. ALso eine Art Win-Win-Situation, oder nicht? :D

Botcruscher
2016-01-27, 13:26:21
Win win war mein Samsung als Übergangslösung November 2014 für 370€. Mit der Qualität hat das aber nichts gemein. Asus steht im Moment für Pixelfehler und Dreck im Display. Für Geräte der Preisklasse einfach erbärmlich.

Triniter
2016-01-27, 16:14:10
Es ist echt ein absolutes Glücksspiel mit den Monitoren. Ich glaub ich hatte unverschämtes Glück, hab mir den Asus PB278QR geholt und hab echt geschwitzt ohne Ende ob ich ne Gurke erwische oder nicht. Naja Glück gehabt, bisher (4 Wochen) noch alles OK.

TurricanM3
2016-01-28, 13:45:34
Ich hab heute völlig unerwartet (es kam keine V-Info) einen weiteren PG278Q Austausch erhalten. Hab nur mal in das Paket geschaut ob das Display ok ist, da die Packung ziemlich ramponiert aussieht. Die haben den TFT dieses mal einfach so (ohne Schutzfolie) nackt in das Paket reingelegt!
Ist ein refurbished von Sept. 2014, was mir aber echt egal ist inzwischen - Hauptsache das Ding ist fehlerfrei. Werde ihn heute Abend näher anschauen und testen.

Atma
2016-01-28, 13:51:50
Ich hab heute völlig unerwartet (es kam keine V-Info) einen weiteren PG278Q Austausch erhalten. Hab nur mal in das Paket geschaut ob das Display ok ist, da die Packung ziemlich ramponiert aussieht. Die haben den TFT dieses mal einfach so (ohne Schutzfolie) nackt in das Paket reingelegt!
Ist ein refurbished von Sept. 2014, was mir aber echt egal ist inzwischen - Hauptsache das Ding ist fehlerfrei. Werde ihn heute Abend näher anschauen und testen.
Dein Durchhaltevermögen ist beachtlich ;)

TurricanM3
2016-01-28, 14:08:37
Leider nicht in allen Bereichen. ;D

Werewolf
2016-01-28, 15:16:04
32:9 Samsung Panels auf dem Weg bei 49", allerdings 1080 in der Vertikale

http://www.tftcentral.co.uk/images/329_curve_example.jpg

derF
2016-01-28, 15:19:17
Was is denn nur mit denen... :| :confused: :crazy: :lol:

Edit: Na immerhin kann man damit ziemlich exakt 2 27" FHDs ersetzen und hat keinen Rand. Nur ne beschissene DPI.

Mandalore
2016-01-29, 00:08:07
So habe den Monitor erhalten. BQ dank 4K Wahnsinn, wie erwartet.

Da es mein erster G-Sync Monitor ist: Ich merke nichts, wirklich absolut nichts :/// Habe gedacht, dass das ein Gamechanger ist :/


Habe aber ein Problem: Videos flackern bei bestimmten Farben, woran kann das liegen? (OD ist auf Extrem eingestellt)?

Kartenlehrling
2016-01-29, 00:21:40
OD ist auf Extrem eingestellt

? warum ???

Videos flackern bei bestimmten Farben
Hast du den Grafik-Treiber neu geladen, auch g-sync mal deaktiviert?

ezzemm
2016-01-29, 06:55:11
Da es mein erster G-Sync Monitor ist: Ich merke nichts, wirklich absolut nichts :/// Habe gedacht, dass das ein Gamechanger ist :/

Das mit dem VRR war bei mir, genauso wie das 144Hz-Panel, ein Aha-Erlebnis im umgekehrten Sinne: Beim ersten Mal spielen mit VRR/144Hz war es keine Offenbarung oder Gamechanger, wie du es sagtest.

Aber nachdem ich ein paar Wochen gespielt habe und dann mal ein Spiel ohne VRR startet, oder ich bei einem Bekannten an nem ollen 60 Hertzer spiele, fällt es dramatisch auf. Es ist ein subtiler, aber trotzdem sehr starker Effekt.

OC_Burner
2016-01-29, 08:36:15
So habe den Monitor erhalten. BQ dank 4K Wahnsinn, wie erwartet.

Da es mein erster G-Sync Monitor ist: Ich merke nichts, wirklich absolut nichts :/// Habe gedacht, dass das ein Gamechanger ist :/


Habe aber ein Problem: Videos flackern bei bestimmten Farben, woran kann das liegen? (OD ist auf Extrem eingestellt)?

Ja man muss das Problem kennen und auch bewusst wahrnehmen sonst wird man beim Umsteigen einfach kein AHA-Erlebnis haben. Judder ist nunmal ein Phänomen das viele garnicht wahrnehmen.

Geht das mit bestimmt Farben genauer? Hast du auch mal einen anderen Player probiert. Klingt eher nach DirectShowFilter-Probleme.

dargo
2016-01-29, 08:59:45
Ja man muss das Problem kennen und auch bewusst wahrnehmen sonst wird man beim Umsteigen einfach kein AHA-Erlebnis haben. Judder ist nunmal ein Phänomen das viele garnicht wahrnehmen.

Es hängt auch etwas von den Spielen ab. Manche sind da kritischer. Ich empfehle immer mal sich Rennspiele anzuschauen. Nicht auf das Fahrzeug sondern auf die Umgebung achten was alles an einem vorbeirauscht. Worst Case sind auch Replays wo die Kamera ständig in Bewegung ist. Oder Spiele wie bsw. GTA 5 und dann mit dem Fahrzeug in der Außenansicht im Kreis fahren.

Edit:
Das krasse Gegenbeispiel wäre bsw. Witcher 3. Das hatte ich letztens kurz ohne VRR, dafür allerdings mit 144Hz probiert. Ist durchaus brauchbar. Wenn man auf die Umgebung beim Gehen/Laufen (schnelles Reiten nicht probiert) achtet sieht man nur eine Art Mikrorucker. Wird aber sicherlich für viele akzeptabel sein. Mit keinem VRR und 60Hz hat man aber definitiv verloren, das Bild wird einfach zu selten fürs Auge refreshed.

Jupiter
2016-01-29, 11:07:31
Exakt. In GTA V ist jedes Ruckeln leicht wahrzunehmen. Für mich ist es mit Auto nicht spielbar, wenn es selbst minimal schwankt. Deshalb sind die Einstellungen so, dass es stets mit 60fps läuft. Hier hätte ich bisher so etwas wie G-Sync am meisten gebraucht.

Martin K.
2016-01-29, 11:16:14
Ich habe mir G Sync primär zugelegt um Tearing zu eliminieren. V Sync ist für mich keine Alternative, da der Inputlag zu groß wird.

SimonX
2016-01-29, 13:22:16
Bald gibt es OLED Monitore. Sind das dann "die besseren Monitore"?

Z.B. der Dell UP3017Q mit einer Response-Time von 0.1ms und seinen 120Hz bei 4K.


http://www.pcworld.com/article/3018710/hardware/dell-unveils-stunning-4k-oled-ultrasharp-display-and-declares-war-on-bezels.html

http://geizhals.eu/dell-ultrasharp-up3017q-a1376625.html

Martin K.
2016-01-29, 13:36:01
OLED, hohe Hz Zahl, G Sync bzw. Free Sync und günstiger Preis. Ja das wäre potentiell der bessere Monitor.

dargo
2016-01-29, 13:37:28
Ohne VRR auf keinen Fall, dafür sind die 120Hz noch viel zu wenig. Bei echten 480Hz können wir gerne darüber reden. Möglicherweise reichen schon 240/360Hz. Schwer zu sagen ohne es gesehen zu haben.

mironicus
2016-01-29, 14:37:11
Ich habe übrigens Feedback von Samsung bekommen zu meinem UE48JU7500 mit den Pixelfehlern, die seit dem Kauf entstanden sind (bis jetzt 7 ausgefallene Pixel): Keine Chance! Kein Umtausch! Keine Reparatur! :(
Bzw. NOCH nicht, da muss ich noch warten bis die Anzahl der defekten Pixel so hoch steigt, das sie es "akzeptieren".

Gynoug MD
2016-01-29, 15:00:31
Da es mein erster G-Sync Monitor ist: Ich merke nichts, wirklich absolut nichts :/// Habe gedacht, dass das ein Gamechanger ist :/

Das ist auch kein Wunder, denn mMn (getestet mit dem PG278) bringt G-Gync erst wirklich was, wenn du min. 30-40fps hast, andernfalls ist zwar der V-Sync Input Lag nicht mehr vorhanden, aber das jeweilige Spiel fühlt sich immer noch kaugummiartig an, bei 4k wirst du wahrscheinlich ständig im untersten Bereich rumhängen.
Zumindest der nicht spürbare Inputlag müßte dir doch eigentlich schon auf jedem Titelbildschirm/Menü auffallen, vergleiche mal direkt den Mauszeiger (z.B. im Titelmenü etc.) bei Vsync on (G-Sync off) mit Vsync off (G-Sync on).

MilesEdgeworth
2016-01-29, 17:14:36
So wie es scheint werden in Zukunft auch Displayport 1.3 Signale über Type C übertragen werden können. Voraussetzung sind natürlich entsprechende Controller.
Quelle (https://www.synopsys.com/dw/ipdir.php?ds=dwc_usb-c_31_displayport)

TurricanM3
2016-01-29, 21:44:06
Hab den neuen Austausch erst heute aufgemacht, anstrengende Woche und keine Lust mich zusätzlich aufzuregen.
Der neue Austausch hat keinen einzigen Pixelfehler, keine Flecken vom Panel eigentlich perfekt (die Mitte/Ende 2015 waren alle schlechter) ABER dafür aber ein dickes Staubkorn:

http://abload.de/thumb/20160129_2117198no9r.png (http://abload.de/image.php?img=20160129_2117198no9r.png)

Das geht locker über 4 Pixel, eher 5-6. Es ist echt zum Heulen. :frown:
So kam er übrigens an:

http://abload.de/thumb/20160129_205233ycquc.png (http://abload.de/image.php?img=20160129_205233ycquc.png)

Sieht aus wie einfach ins Paket geschmissen, keine Folie drum (nur gerade so drunter gelegt). RMA-Aufkleber mit neuer Seriennummer einfach schief und überstehend von unten drangepappt. Die gehen damit um wie mit gebrauchtem billig Zeug. So wie das Paket aussieht (Seriennummer stimmt überein) wurde der schon öfter zugeklebt und verschickt. Ich vermute ich bin nicht der erste der den bekommen hat.

Rahmen hat wieder diverse Hebelspuren und der Standfuß mehrere Kratzer:

http://abload.de/thumb/20160129_205928j6q9v.png (http://abload.de/image.php?img=20160129_205928j6q9v.png)

Ist auch schön versifft das Teil in den Ritzen etc. riecht auch etwas unschön (Raucherhaushalt?). :up:

Nächste RMA beantrage ich die Tage, bin aktuell mal wieder bedient. Ich bin mal gespannt ob Asus das noch lange mitmacht.

Merkor
2016-01-29, 21:49:14
Mein Gott, ist das fürchterlich. Mein Austausch PG278Q ist so perfekt er sein kann. Karton sieht grauenvoll aus und die Hebelspuren habe ich auch, aber das Panel ist gut. War trotzdem mein letzter Asus Monitor.

Martin K.
2016-01-30, 08:00:25
So kam er übrigens an:

http://abload.de/thumb/20160129_205233ycquc.png (http://abload.de/image.php?img=20160129_205233ycquc.png)


Jeder Privatverkäufer auf Ebay gibt sich mehr Mühe. Sowas Freches habe ich noch nicht gesehen. Direktaustausch von Asus? :biggrin:

Kartenlehrling
2016-01-30, 09:21:41
Stimmt da ist der Backstein wenigsten mit der Tageszeitung vom Vortag eingewickelt.

Botcruscher
2016-01-30, 11:12:47
Es ist auf jeden Fall spannende Unterhaltung. Wir sollten ein Tipspiel einführen. Der nächste hat 3 Pixelfehler und Dreck rechts oben.:freak:

Tobe1701
2016-01-30, 12:22:28
Eher ein Horrorfilm. Mein Interesse an einem Asus-Moni ist jedenfalls deutlich abgekühlt :(
Kumpel von mir hat über Amazon Market den PG279Q geschossen, bis jetzt ist er bis auf leichtes Bleeding zufrieden. Mal sehen wie sein Fazit in einigen Wochen ist.

Gynoug MD
2016-01-30, 14:58:51
Eher ein Horrorfilm. Mein Interesse an einem Asus-Moni ist jedenfalls deutlich abgekühlt :(

So ist es bei mir auch: Von "Muss ich zum Release haben!" nach "Behaltet euren Scheiß!".

Botcruscher
2016-01-30, 15:45:11
Das erklärt aber nicht warum ein 100 oder 200€ billig Display fehlerfrei und ohne _Dreck_ zu haben ist und der 1000€ sopour ultra gamingshit dagegen in irgend einem Textilfabrikanbau zusammen geschmissen wird.

Loeschzwerg
2016-01-30, 17:34:41
Daran sieht man nur was für eine Abzocke der ganze Monitormarkt ist bzw. auf welche Spitze es ASUS hier treibt :( Der FS2735 ist auch überteuert, aber hier stimmt wenigstens die Qualität.

Kartenlehrling
2016-01-30, 18:14:40
Oder man finde sich erstmal damit ab, ich habe mir gleich eine B-Ware gekauft,
habe zwei tote Pixel die nicht stören, ein MG279Q für 380€ + 2x gamekeys.

Der nächste Monitor ist ein UHD-HDR >100Hz und VRR, OLED wird wohl zu teuer bleiben,
aber die Entwicklung von Localdimming wird immer besser somit muss es nicht umbedingt ein OLED sein.

https://www.youtube.com/watch?v=u6cLqjSThpk

robbitop
2016-01-30, 18:41:58
Vergiss Local Dimming. Das sind idR nur wenige hundert Zonen. Das Bild besteht aber aus Millionen von Pixeln. Das sind 4x Größenordnungen zu wenig zumm Dimmzonen. Wird lokal gedimmt, kommt das bei dunklen Szenen mit feinen Details (z.B. ein Nachthimmel) entweder zu Halos oder zum Absaufen von Details. Ist systembedingt so. IMO ist es nur eine Krücke, die eigentlich wenig bringt, wenn man genauer hinschaut.

Der Fakt, dass Dell einen 30" 4K 120 Hz OLED für "nur" 5.000 € bringt, zeigt, dass es nicht mehr so lange dauert, bis man so ein Gerät für den Preis von aktuellen High End Monitoren (PG348Q oder X34) kaufen kann.

Ich tippe dabei auf 2-3 Jahre noch. Dann können die PC Entusiasten sich mit OLEDs ausstatten. 0815 Monitore werden dann sicher noch weitere 2 Jahre benötigen.

Geächteter
2016-01-30, 19:11:15
Ich habe übrigens Feedback von Samsung bekommen zu meinem UE48JU7500 mit den Pixelfehlern, die seit dem Kauf entstanden sind (bis jetzt 7 ausgefallene Pixel): Keine Chance! Kein Umtausch! Keine Reparatur! :(
Bzw. NOCH nicht, da muss ich noch warten bis die Anzahl der defekten Pixel so hoch steigt, das sie es "akzeptieren".
Das nennt man Kundenbindung. Vielleicht braucht die Industrie mal ne Lektion, ein Jahr lang nix kaufen und die Bande am ausgestreckten Arm verhungern lassen. Erfordert allerdings Disziplin im Kollektiv, daher unmöglich.

Kartenlehrling
2016-01-30, 19:14:10
@robbitop
Besser als der jetzige Stand, Lichtquelle am Panel Rand und Schwarz ist Grau, ist es alle mal.
Ausserdem hat Sony auf der CES diesen Monat behaupt das sie diesen Halo Effekt beseitig haben und
annähernd OLED Qualität erreicht haben ohne deren Negativ Punkte zu übernehmen.

robbitop
2016-01-30, 19:16:50
Das kann man nicht beseitigen. Das ist prinzipbedingt so. Man kann halt einfach dann weniger Dimmen. Aber dann bringt es auch nicht mehr viel.

Man schaue sich einfach die gemessenen ANSI Checkerboard Kontrastraten an. Die verraten die Wahrheit.

Was Local Dimming prinzipiell bringen kann, ist eine gleichmäßigere Ausleuchtung.

Botcruscher
2016-01-30, 19:32:38
Ich tippe dabei auf 2-3 Jahre noch. Dann können die PC Entusiasten sich mit OLEDs ausstatten. 0815 Monitore werden dann sicher noch weitere 2 Jahre benötigen.
;D

Von wann ist der Oled nächstes Jahr Thread? 2006?
Die Dinger werden als PC Moni mit 10h pro Tag mal richtig schnell verrecken.

Kartenlehrling
2016-01-30, 19:35:44
Von welchen Sony TV schreibst du hier?
Vor 3 Wochen hat sony von einem "Prototyp" diese aussage getroffen,
den sie auf der Messe zum erstenmal vorgeführt haben wie kannst du da einfach behaupten das alles BlaaBlaa ist oder Sony lügt.

robbitop
2016-01-30, 19:46:07
Einfach mal drüber nachdenken. Du hast 4x Größenordnungen weniger Dimmzonen als Pixel. Wenn Objekte, die deutlich kleiner sind als eine Dimmzone, auftreten. Was soll genau passieren? Da kann man nichts machen, außer nicht zu dimmen (kein besserer Kontrast) oder doch zu dimmen (Details saufen ab). Um Halo zu bekämpfen, muss der Gradient zu den Nachbarzonen sehr gering sein. Dann hat man zwar das Halo beseitigt, aber auch den Kontrast nicht erhöht. In all diesen Fällen ist der Mehrwert sehr sehr eingeschränkt. Einzig eine homogene Ausleuchtung bleibt.

Da ist nichts zu machen. Zaubern kann Sony auch nicht. Wenn man drüber nachdenkt, sollte das doch klar sein. Da können sie erzählen was sie wollen. Ohne signifikant bessere Ergebnisse als sonst (> 5.000:1) in einem ANSI Schachbrett sind das nur leere Behauptungen.

;D

Von wann ist der Oled nächstes Jahr Thread? 2006?
Die Dinger werden als PC Moni mit 10h pro Tag mal richtig schnell verrecken.
Abwarten. Bei OLEDs gab es erst in den letzten Jahren die entscheidenden Fortschritte in Fertigungskosten und Haltbarkeit, die es erlaubten, Seriengeräte (zugegeben sehr teure!) auf den Markt zu bringen.
Letztes Jahr im Sommer gab es kurzzeitig einen 65" 4K OLED für 3777€.

Einen solchen Monitor, wie ihn Dell vorgestellt hat, auch nicht. 15" waren IIRC lange das Maximum. So langsam scheinen die Kosten und die Haltbarkeit endlich in Serienfähige Regionen zu kommen. Das war die letzten 10 Jahre eben noch nicht so, dass man technologisch an diese Schwelle herankommt.

Pumpi74
2016-01-31, 03:31:42
Einfach mal drüber nachdenken.

Hat ein Experte auf dem Gebiet gemacht :

https://www.youtube.com/watch?v=7gp_kjyrRT8

Der Kanal ist übrigens spitze.

robbitop
2016-01-31, 11:48:55
Der hat sich ja richtig Gedanken gemacht. :rolleyes:
Erklärt wurde in deinem Link keine Details zum obigen. Ob der jetzt wirklich ein "Experte" ist, konnte ich dem Video nicht entnehmen. Er hat nur Dinge wiedergegeben aber keine kausalen Zusammenhänge erklärt. Ob "Digital-Fernsehen.DE" jetzt die Referenz ist, wage ich zu bezweifeln. AVS, FlatpanelsHD und co wären das wohl eher.

Immerhin >1000 Zonen. Immernoch viel zu wenig für ~8 Mio Pixel in UHD.
Wie gesagt: prinzipbedingt ist Local Dimming mit so wenigen Zonen einfach nur begrenzt sinnvoll. Die Cinemascope Balken bekommt es aber sicher gut weggedimmt ohne Nebenwirkungen.

Troyan
2016-01-31, 14:22:23
Local-Dimming hat noch andere Vorteile:
Bessere Helligkeitseinstellung, kein Clouding(!), erwähnte Cinescope-Balken.

Mein ZL1 hat 512 Zonen bei 1080p. Ist einfach klasse und reicht aus, um die größten Nachteile eines LCD Fernsehrs auszugleichen.

robbitop
2016-01-31, 15:07:04
Ja diese Nachteile können beseitigt werden. Das nannte ich ja bereits (Clouding ist übrigens eines der Symptome für eine unhomogene Helligkeitsverteilung der Panel-Beleuchtung). Aber der statische Kontrast des eigentlichen Bildes kann damit nicht sinnvoll angehoben werden. Zumindest nicht wenn dunkle und helle Bildinhalte in der gleichen (relativ großen) Zone sind und/oder der Helligkeitsgradient zu den benachbarten Zonen zu hoch ist. Insofern ist OLED ein riesiger Sprung nach vorn!

Undertaker
2016-01-31, 15:07:09
Immerhin >1000 Zonen. Immernoch viel zu wenig für ~8 Mio Pixel in UHD.
Wie gesagt: prinzipbedingt ist Local Dimming mit so wenigen Zonen einfach nur begrenzt sinnvoll.

Nunja, man braucht nun auch nicht unbedingt für jeden Pixel eine eigene Zone. Das menschliche Auge mag zwar einen gigantischen Dynamikumfang haben, doch wird dieser hauptsächlich durch die Iris erreicht. Mit hohen Helligkeitsgradienten in einer Situation tut sich Auge schon sehr viel schwerer, keine Ahnung was da noch möglich ist. Lokal Dimming + VA-Panel erreicht da schon sehr gute Ergebnisse, auch bei wenigen Zonen, muss man sagen.

robbitop
2016-01-31, 15:11:58
Ich habe noch kein einziges LD LCD Display gesehen, welches durch LD einen besseren Kontrast als sonst in echtem Bildmaterial und/oder im ANSI Checkerboard erreicht, ohne Halos zu erzeugen. Sichtbare Halos. Die Geräte die ich gesehen habe (und in Tests von Flatpanels und AVS reviewt worden sind) hatten entweder Halos + besseren Kontrast oder keine Halos aber dafür keinen besseren Kontrast. Sobald es ein Produkt gibt, dass beides unter einen Hut bringt und das nachvollziehbar messtechnisch aufgenommen wird, kann man nochmal drüber reden. Da braucht es aber noch einige Dimmzonen mehr. Vieleicht nicht für jeden Pixel eine. Aber ganz sicher nicht 4 Größenordnungen zu wenig. Bis dahin ist LD sehr kompromissbehaftet. Insbesondere vor dem Hintergrund, dass OLED so nah vor der Schwelle zum erschwinglichen Serienprodukt steht, wie noch nie zuvor.

Troyan
2016-01-31, 15:18:46
Toshiba ZL1. Halos sind nur von einer seitlichen Position sichtbar oder wirklich in richtig starken Kontrastunterschieden (0 -> 255).

robbitop
2016-01-31, 15:21:19
Ich habe zwar kein besonders tolles Review gefunden. Aber der Kontrast ist mit 3442:1 nur durchschnittlich. Ergo: keine Halos -> kein/kaum dimmen. Ergo keine Halos + besserer Kontrast. Genau was ich oben sagte.

Quelle:

http://www.cine4home.de/tests/TVs/Toshiba_ZL1/Test_Toshiba_55_ZL1.htm

Kartenlehrling
2016-01-31, 15:41:10
du bringst aber jetzt nicht wirklich eine Localdimming vergleich auf einem Test von vor 5 !!! Jahre.


ubriges in digitalfernsehende Video, spricht der eine von einem leuchtpixelbereich von 100 bis maximal 250 in heutige TV-Geräte und nicht vor 5!! Jahre.
Wir werden warten mussen ob in einem 30" Monitor es auch >1000 Leuchtbereich gibt, wie in einem 85" TV.
Ich glaube auch nicht wenn Dell uns hier ein 30" OLED 120Hz für 4999$ was ja bei uns nochmal 500€ mehr ist präsentiert das die Preise wie Käse den Berg runterrollen,
ich wette mit dir sogar das wir in 2 Jahren noch immer keinen UHD 30" OLED unter 3500€ kaufen konnen, nicht mal als B-ware.

Troyan
2016-01-31, 15:57:06
Ich habe zwar kein besonders tolles Review gefunden. Aber der Kontrast ist mit 3442:1 nur durchschnittlich. Ergo: keine Halos -> kein/kaum dimmen. Ergo keine Halos + besserer Kontrast. Genau was ich oben sagte.

Quelle:

http://www.cine4home.de/tests/TVs/Toshiba_ZL1/Test_Toshiba_55_ZL1.htm

http://www.digitalversus.com/tv-television/toshiba-55zl1-cevo-p11322/test.html

Auch aus deinem Test:

Der Inbildkontrast überschreitet mühelos die Millionen zu Eins Grenze und ist praktisch unendlich, da die abgeschalteten Bildbereiche teilweise komplett schwarz erscheinen

Je kleiner die Checkboxen, umso stärker werden die umliegenen abgeschalteten Zonen vom Licht beeinflusst. Halos sind kaum existent beim Zl1.

robbitop
2016-01-31, 18:35:05
du bringst aber jetzt nicht wirklich eine Localdimming vergleich auf einem Test von vor 5 !!! Jahre.
Troyan hat das Modell genannt. Ich kann nichts dafür, dass dieses alt ist.


ubriges in digitalfernsehende Video, spricht der eine von einem leuchtpixelbereich von 100 bis maximal 250 in heutige TV-Geräte und nicht vor 5!! Jahre.
Wir werden warten mussen ob in einem 30" Monitor es auch >1000 Leuchtbereich gibt, wie in einem 85" TV.
Leuchtpixelbereich? Was soll das sein? Du meinst Dimmzonen? Wie gesagt - Größenordnungen zu wenig.



Ich glaube auch nicht wenn Dell uns hier ein 30" OLED 120Hz für 4999$ was ja bei uns nochmal 500€ mehr ist präsentiert das die Preise wie Käse den Berg runterrollen,
ich wette mit dir sogar das wir in 2 Jahren noch immer keinen UHD 30" OLED unter 3500€ kaufen konnen, nicht mal als B-ware.

Spekulation. Insofern ist die Diskussion müßig. Aber wenn man auf empirischen Daten der Vergangenheit zurückgreift, könnte man ggf. zu folgendem Schluss kommen: OLED Geräte hatten in den letzten Jahren einen Preisverfall von in etwa Faktor 2 pro Jahr. Insofern sollte in 2-3 Jahren (meine originäre Aussage) so ein Gerät bei < 1.500 € sein.

http://www.digitalversus.com/tv-television/toshiba-55zl1-cevo-p11322/test.html

Auch aus deinem Test:


Je kleiner die Checkboxen, umso stärker werden die umliegenen abgeschalteten Zonen vom Licht beeinflusst. Halos sind kaum existent beim Zl1.
Aber nicht im ANSI-Checkerboardtest. Alles andere ist Augenwischerei.

Nightspider
2016-01-31, 18:49:10
1000 Zonen sind immer noch ein Witz im Vergleich zu 8mio "Zonen" bei OLED.

Das es bei Direct-LED kein Clouding gäbe ist auch nicht wirklich richtig:

https://www.youtube.com/watch?v=MEttPD6ZijA#t=23m0s

Hier sieht man extrem wie das Licht der Zonen das Schwarz durchleuchtet.


ich wette mit dir sogar das wir in 2 Jahren noch immer keinen UHD 30" OLED unter 3500€ kaufen konnen, nicht mal als B-ware.

Ich sage: niemals!

Das ist absolut unrealistisch meiner Meinung nach. Von LG gibts 55 Zoll OLED Fernseher mit 1080p für teils nur noch 1500 Euro.
Und dabei werden die Produktionskapazitäten gerade erst hochgefahren. Und Samsung steigt nächstes ja auch wieder ein bei großen OLED Panels.

Selbst bei 1000 Euro für 30" UHD OLED sollte die Marge für die Hersteller höher sein als bei aktuellen 55" UHD OLED TVs für 3000 Euro.
Für >3000€ würde das Ding niemand kaufen.

Ich wette das es in 2 Jahren 30 Zoll OLEDs für unter 900 Euro geben wird. 24-27 Zoll werden wir sogar noch viel eher unter 900 Euro sehen imo.

Kartenlehrling
2016-01-31, 19:09:46
Und selbst in deinem Video hat der ? 9000€ OLED probleme, Nachleuchten (memoryeffekt) und
die immer wieder fehlende Helligkeits Brillanz, irgendwie schon traurig bei einem Preis eines Kleinwagens.

Martin K.
2016-01-31, 19:12:09
Die OLED-Technik ist noch nicht ausgereift und die Herstellung sehr kompliziert. Überall wird in neue LCD-Fabriken investiert. Es ist nicht einmal abzusehen wann große TV-Hersteller wie Sony oder Samsung darauf setzen.

Es hat doch alles seine Gründe warum bisher nur LG darauf setzt. Den Panasonic OLED lasse ich mal aus.

Kartenlehrling
2016-01-31, 19:27:00
Das problem ist früher hat der Papi zur Fussball WM seine RöhrenTV bekommen für 3000 DM,
die haben dann aber auch 10 Jahren gehalten und die Entwicklung stand auf der Stelle.

Heute finde man selbst an 6000€ und 9000€ TV macken, die einem nach 3 Monat richtig nerven,
und das schlimme ist nach 1 Jahr gibts es deinen Monitor-TV mit Hardware updates.
Zum glück ist jetzt erstmal für die nächsten 10? Jahre die Standardwerte für UHD Premium festgelegt.

http://www.aftvnews.com/wp-content/uploads/2016/01/ultrahd-premium-uhd-alliance-uhda-logo-1.jpg

robbitop
2016-01-31, 19:27:36
Alles hat seine Vor- und Nachteile. OLED wird unter Nachleuchten/Einbrennen leiden. Die Frage ist, wie sehr und wie gut man es mit dem Fortschritt in den Griff bekommt.
Aber in Punkto Kontrast und Blickwinkel wischt OLED mit LCD den Boden auf. Ich denke bei OLED werden recht schnell die Vorteile die Nachteile überwiegen. Die Technologie geht ganz offensichtlich auf die Serienreife zu. Mit großen Schritten.

Screemer
2016-01-31, 21:49:34
Hat man eigentlich von diesem crt system mit den 100ten kleinen Röhren mal wieder was gehört? Gab hier auch mal nen thread. Leider kann ich nicht nicht mehr an den Namen der Technik erinnern.

robbitop
2016-01-31, 22:01:17
SED? War AFAIK eine Sackgasse!

Botcruscher
2016-01-31, 22:02:22
Kommt mit der 100TB Tesarom.
Alles hat seine Vor- und Nachteile. OLED wird unter Nachleuchten/Einbrennen leiden. Die Frage ist, wie sehr und wie gut man es mit dem Fortschritt in den Griff bekommt.
Aber in Punkto Kontrast und Blickwinkel wischt OLED mit LCD den Boden auf. Ich denke bei OLED werden recht schnell die Vorteile die Nachteile überwiegen. Die Technologie geht ganz offensichtlich auf die Serienreife zu. Mit großen Schritten.
Ich lass mich überraschen. Bis jetzt verrecken gerade die kurzwelligen Farben noch immer viel zu schnell. Selbst bei den Handydisplays ist es noch immer sehr deutlich.

PHuV
2016-01-31, 22:08:08
Der Fakt, dass Dell einen 30" 4K 120 Hz OLED für "nur" 5.000 € bringt, zeigt, dass es nicht mehr so lange dauert, bis man so ein Gerät für den Preis von aktuellen High End Monitoren (PG348Q oder X34) kaufen kann.

Ich tippe dabei auf 2-3 Jahre noch. Dann können die PC Entusiasten sich mit OLEDs ausstatten. 0815 Monitore werden dann sicher noch weitere 2 Jahre benötigen.
Du bist wirklich ein Optimist. :tongue: Ich teile nicht Deinen Glauben. Wie lange ist OLED schon im Gespräch? Und der Preis zeigt mir nur eines, daß sie die Fertigung bis heute nicht im Griff haben.
LG stellt super dünnen OLED Fernseher vor (http://www.energieleben.at/lg-stellt-super-duennen-oled-fernseher-vor/)
Die Ausschussrate von zwanzig Prozent liegt aber weiterhin deutlich über der von LCDs.
Das war Stand vor 20 Monaten:
Die OLED-Zukunft wird vertagt (http://www.heise.de/tr/blog/artikel/Die-OLED-Zukunft-wird-vertagt-2189368.html)
Vor 41 Monaten:
Serienproduktion von großen OLEDs stockt (http://www.heise.de/ct/ausgabe/2012-18-Serienproduktion-von-grossen-OLEDs-stockt-2340225.html)

Mr.Magic
2016-01-31, 23:19:37
Du bist wirklich ein Optimist. :tongue: Ich teile nicht Deinen Glauben. Wie lange ist OLED schon im Gespräch?

Seit 2006 macht OLED "Fortschritte".

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=294290

Vento
2016-01-31, 23:40:31
Die OLED-Technik ist noch nicht ausgereift und die Herstellung sehr kompliziert. Überall wird in neue LCD-Fabriken investiert. Es ist nicht einmal abzusehen wann große TV-Hersteller wie Sony oder Samsung darauf setzen.

Es hat doch alles seine Gründe warum bisher nur LG darauf setzt. Den Panasonic OLED lasse ich mal aus.


Samsung hat die Gerüchte bestätigt, 2017 bringen die ein komplettes OLED Flat-TV Portfolio auf den Markt.

29 days, according to the display and electronics industry, Samsung has resumed production coming as early as the first half of 2017 OLED TV, LG Electronics is expected to plunge to a full-fledged competition.

Samsung Electronics, a senior official said, "OLED TV 1 Year, will be completed early technology development for mass production", it was his "level consumers want (price, quality) and will be available to meet."


Dazu haben sie bereits LCD-Fabriken abgestoßen und erhöhen bei OLED deutlich ihre Kapazitäten.
Natürlich wird auch gleichzeitig in QD-LCD investiert, aber im normalen LCD Bereich ist man an einem Peak angelangt und die Kapazitäten werden im Wissen um zukünftige Entwicklungen bereits zurückgefahren.
Eine Firma wie Samsung kann es sich nicht erlauben dort nicht zu investieren, denn OLED, in weiterer Ferne auch QLED sind die Zukunft und werden den Markt in den kommenden Jahren dominieren neben QD-LCD.
Nur geht das nicht von heute auf morgen und wird seine Zeit brauchen, da geht es eben auch um Wirtschaftlichkeit und Gewinnmaximierung, um Effizienz der Produktion.

Sobald OLED dort insbesondere durch Printing Technologien weitere Fortschritte macht, wird dort auch massiv gepusht.
Es geht eben für die Firmen primär um Wirtschaftlichkeit und Gewinnmaximierung und nicht darum die bessere Technologie zu pushen, sondern die mit der man am meisten Geld verdienen kann.
Der Zeitpunkt wo OLED höhere Margen für die Konzerne abwirft, weil die Produktionskosten geringer sind als bei LCD wird kommen.
Für die nächsten Jahre wird LCD weiterhin dominieren, OLED den High End Consumer Markt bedienen.
Die Entwicklung hin zu OLED als solche ist aber absehbar, auch wenn der Monitor Bereich (vom Anforderungsprofil) wieder eine etwas andere Baustelle ist als der Consumer Flat-TV Bereich.

http://www.olednet.com/en/now-time-to-invest-for-oled-to-be-next-display/

Lee forecast that LCD, in its maturity stage of the industry life cycle, will lead the market for a while, but OLED technology will rapidly evolve and become the focus of the next generation display market. Regarding OLED TV, Lee mentioned that large area OLED mass production through printing technology is urgent in order to achieve price competitiveness. At present, OLED’s capacity is less than 1/100 of LCD. As such, even if there is demand, supply may not be able to meet it and Lee suggested the need for investment to the companies. He added that if there is low supply when the number of customers is high, the opening of the market could be delayed.

http://img5.fotos-hochladen.net/uploads/5106052285b7fdxwf2bvhc13r.jpg (http://www.fotos-hochladen.net)

BesenWesen
2016-02-01, 00:48:18
Seit 2006 macht OLED "Fortschritte".

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=294290

Erinnert mich immer an bißchen an die Kernfusion... da wird auch schon seit Jahrzehnten davon geredet, sie könnte "in 50 Jahren" praxistauglich werden.

Ich bin ja auch gespannt, ob wann da mal was draus wird, schon mein kleines olles Samung Ativ S hat mir die Vorzüge von (Am)Oled eindrucksvoll gezeigt. Allerdings würde es ein wirklich guter LCD für mich auch noch einige Jahre tun, die Krux scheint mir nicht so sehr der Stand der Technologie an sich zu sein sondern die miese Qualitätskontrolle der meisten Hersteller. Wenn ich mir allein die erschreckenden Berichte hier und andernorts rund um die Asus RoG Swift anschaue, läuft es mir kalt den Rücken runter. Und ich dachte schon, die Serienstreuungs-Lotterie bei Kameraobjektiven wäre schlimm. So spare ich dann wohl mal auf einen Eizo, gleich ob es erstmal noch WQHD oder UHD wird... mein Asus VG278HE mit seinen brutalen Lichthöfen muss über kurz oder lang mal weg.

Screemer
2016-02-01, 00:48:26
SED? War AFAIK eine Sackgasse!
danke, genau das meinte ich. sehr schade. versprach perfekte schwarzwerte und top farben.

Loeschzwerg
2016-02-01, 06:45:38
Test zum FS2735 von Hardware.info:
http://nl.hardware.info/reviews/6515/eizo-foris-fs2735-review-gaming-beeldscherm-met-bluetooth

Der Test von TFTCentral kommt voraussichtlich heute.

dargo
2016-02-01, 09:53:52
Der Foris hat bei über 1.000€ einen Kontrast von 650:1? :eek: :|

Botcruscher
2016-02-01, 10:05:56
Seit 2006 macht OLED "Fortschritte".

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=294290

Aber negative. Der Titel wurde von OLED schon nächstes Jahr! umbenannt.
http://img5.fotos-hochladen.net/uploads/5106052285b7fdxwf2bvhc13r.jpg (http://www.fotos-hochladen.net)
Und der P4 wird bald 10GHz erreichen. Der Durchbruch wird schon 10 Jahre herbei geredet.

PHuV
2016-02-01, 11:30:15
Aber negative. Der Titel wurde von OLED schon nächstes Jahr! umbenannt.

Und der P4 wird bald 10GHz erreichen. Der Durchbruch wird schon 10 Jahre herbei geredet.
Korrekt. (y) :frown: Das sind nun schon 10 Jahren, wo OLED rumdümpelt, deshalb ist ihr nach wie vor kritische Distanz angebracht.

Ex3cut3r
2016-02-01, 17:03:02
Der Foris hat bei über 1.000€ einen Kontrast von 650:1? :eek: :|

Da wo die Bleed Kritischen Stelen sind (ecken) auf jeden fall. Aber der Durchschnittswert ist es sicher nicht. ;)

Dachte bei Eizo achten sie sowieso mehr drauf Stichwort Qualitätskontrolle als bei Asus ?

Der_Korken
2016-02-01, 17:32:25
Da wo die Bleed Kritischen Stelen sind (ecken) auf jeden fall. Aber der Durchschnittswert ist es sicher nicht. ;)

Ganz unten ist auf der Seite auch der Kontrast nach Bildschirmsegmenten aufegschlüsselt. Er reicht von 331:1 (unten rechts) bis 1077:1 (unten links). Der Durchschnitt von 650:1 kommt durchaus hin. Vor allem haben andere aufgelistete Monitore dort wesentlich bessere Werte.

dargo
2016-02-01, 17:33:31
Das soll der Durchschnitt sein.
http://content.hwigroup.net/images/products_xl/331979/30/eizo-foris-fs2735.jpg

Das wäre ja ne Katastrophe für einen IPS.

EPIC_FAIL
2016-02-01, 17:50:30
Das soll der Durchschnitt sein.
http://content.hwigroup.net/images/products_xl/331979/30/eizo-foris-fs2735.jpg

Das wäre ja ne Katastrophe für einen IPS.

Für jeden Paneltyp is das eine Katastrophe. TN packen teils ja auch 1200:1... Ohne Glow ist der subjektiv sogar besser als bei den meisten IPS.

Aus den Messungen ergibt sich wohl, dass der Eizo auch rechts unten diese hässliche Pissecke hat :freak:

Ex3cut3r
2016-02-01, 17:56:42
Ganz unten ist auf der Seite auch der Kontrast nach Bildschirmsegmenten aufegschlüsselt. Er reicht von 331:1 (unten rechts) bis 1077:1 (unten links). Der Durchschnitt von 650:1 kommt durchaus hin. Vor allem haben andere aufgelistete Monitore dort wesentlich bessere Werte.

:freak: Tatsache, danke für die Aufklärung.

Das soll der Durchschnitt sein.
http://content.hwigroup.net/images/products_xl/331979/30/eizo-foris-fs2735.jpg

Das wäre ja ne Katastrophe für einen IPS.

Absolut, da lobe ich mir meinen Samsung S34E790C mit 2500:1 im Durschschnitt, zwar immer noch nicht so gut wie manch andere VA's aber besser als jedes IPS.

EDIT: Mit welchen Einstellungen habe sie denn den Kontrast ermittelt doch nicht mit 100% Helligkeit? Sry falls es da irgendwo steht, bin auf der Arbeit und habe nicht die Zeit es alles genau zu lesen.

Unicous
2016-02-01, 18:01:15
Heute oder morgen kommt die TFT-Central-Review. Also erst einmal abwarten.

EPIC_FAIL
2016-02-01, 18:02:34
EDIT: Mit welchen Einstellungen habe sie denn den Kontrast ermittelt doch nicht mit 100% Helligkeit? Sry falls es da irgendwo steht, bin auf der Arbeit und habe nicht die Zeit es alles genau zu lesen.

Ich glaub HWInfo macht alles mit Max Helligkeit. Das dürfte aber nichts ausmachen.

aufkrawall
2016-02-01, 18:03:36
Warum dürfte das nichts ausmachen? Es gibt durchaus Monitore, die mit unrealistischer Helligkeit deutlich Kontrast verlieren.

Ex3cut3r
2016-02-01, 18:06:15
Sehe ich wie Krawall, es wäre schon löblicher gewesen sie hätten ihn vorher kalibriert und dann getestet so wie es imo auch TFT Central macht. Mal sehen was die Review von TFT Central sagt. :)

dargo
2016-02-01, 18:06:19
EDIT: Mit welchen Einstellungen habe sie denn den Kontrast ermittelt doch nicht mit 100% Helligkeit?
Die Helligkeit spielt dabei kaum eine Rolle. Mein alter Benq hatte bei max. Helligkeit sogar den höchsten Kontrast.
http://www.prad.de/new/monitore/test/2011/test-benq-bl2400pt-teil5.html

Ex3cut3r
2016-02-01, 18:09:15
Die Helligkeit spielt dabei kaum eine Rolle. Mein alter Benq hatte bei max. Helligkeit sogar den höchsten Kontrast.
http://www.prad.de/new/monitore/test/2011/test-benq-bl2400pt-teil5.html

Das glaube ich dir, aber ich habe schon Monitore gesehen die auf Max Helligkeit und/oder Kontrast grausam waren.

EPIC_FAIL
2016-02-01, 18:11:19
Warum dürfte das nichts ausmachen? Es gibt durchaus Monitore, die mit unrealistischer Helligkeit deutlich Kontrast verlieren.

Das war bei Eizo nie der Fall, jedenfalls kann ich mich an keinen entsprechenden Test z.B. bei Prad erinnern.

robbitop
2016-02-01, 18:48:20
Du bist wirklich ein Optimist. :tongue: Ich teile nicht Deinen Glauben. Wie lange ist OLED schon im Gespräch?
Das ist kein Argument. Höchstens am Stammtisch. Jede Technologie muss reifen, bis sie serienreif ist. Das hat bei OLED sehr lange gedauert. Warum seit 1x Jahrzehnt darüber geredet wird, weiß ich nicht. IIRC hatte Sunrise (?) aber auch schon vor einem halben Jahrzehnt Roadmaps der OLED Hersteller gezeigt, die Angaben über den Output und Reifegrad von der jerweiligen OLED Generation gezeigt haben. Also war es eigentlich mindestens die letzten 5 Jahre absehbar, dass es noch zu keinem kostengünstigen Serienprodukt kommen konnte, es aber einen signifikanten Anstieg an Output (und Kostensenkung) pro Generation gibt.
Ergo war das Gerede im letzten Jahrzehnt eigentlich vorhersehbares Gerede über ungelegte Eier.

Die Preisentwicklung von Serien OLED Geräten zeigt einen eindeutigen Trend, dass die Technologie jetzt kurz davor ist, diese Schwelle zu durchbrechen. Das war vorher eben nicht so.
Im Sommer 2015 gab es einen 65" 4K OLED für 3777 €. Vor 2-3 Jahren musste man dafür noch knapp 20.000 € bezahlen. Es ist ganz eindeutig eine Entwicklung zu sehen, die sich signifikant von dem abhebt, was die letzten 10 Jahre passiert ist.

Auch wurden jetzt bereits vereinzelt PC Monitore und Laptops mit OLED als Seriengeräte auf der CES vorgestellt. Bis vor kurzem gab es OLED eigentlich nur in Smartphones.

EPIC_FAIL
2016-02-01, 19:39:12
Der Test des Eizo is jetzt auch auf TFT Central. Da liegt der Kontrast paneltypisch bei 1000:1, allerdings wurden keine Zonen geprüft.

fondness
2016-02-01, 19:40:54
Hier der Link:
http://www.tftcentral.co.uk/reviews/eizo_foris_fs2735.htm

Botcruscher
2016-02-01, 19:47:01
Hier der Link:
http://www.tftcentral.co.uk/reviews/eizo_foris_fs2735.htm

Eine Messung ohne Zonen lässt sich bei einer Helligkeitsabweichung von fast 28% doch nicht ernst nehmen. Es ist ja schön wenn der Kontrast irgendwo in der Mitte passt.

Kartenlehrling
2016-02-01, 19:59:30
Das Schwarz sieht nach der Kalibrierung wirklich Sexy aus, wenn alle Freesync Eizo so wären von Werk aus.


Black depth and contrast ratio are good for an IPS-type panel at 990:1 after calibration. Detail in darker scenes should not be lost as a result.

woodsdog
2016-02-02, 06:25:49
Aber wie ernst kann man OLED denn nehmen, wenn da heute immer noch Handy-Displays verkauft werden, die ein Problem mit einbrennen haben...?

Selbige zeigen eher nicht ständig das selbe an bzw sind 8-10 Stunden im Dauerbetrieb.

:-/

Rente
2016-02-02, 06:41:38
Von was für Smartphones redest du bitte? Mein Lumia 930 (1080p OLED, 5'') zeigt keine der Erscheinungen und wird immer wieder als Quasi-Zusatz-Monitor missbraucht.

derF
2016-02-02, 09:04:27
Dito @Lumia 930 und Lumia 800.

Martin K.
2016-02-02, 09:20:20
Bei meinem alten Lumia 800 sind die Windows Phone 7.5 Kacheln eingebrannt. Das Lumia 930 ist noch keine 2 Jahre alt. Das wird sicherlich auch einbrennen in den nächsten 1-2 Jahren. Bei einem Handy ist das nicht so schlimm, die tauscht man in der Regel alle 2-3 Jahre. Bei einem Fernseher, oder PC-Monitor ist das ein No-Go...

Kartenlehrling
2016-02-02, 09:22:20
Der Betriff einbrennen ist ja auch verkehrt, aber das schreiben auch Leute die behaupten 1000x Monitor gesehen zu haben.
Einbrennen > Memory Effekt (https://de.wikipedia.org/wiki/LCD-Memory-Effekt), das ist ein Nachleuchten, die LED Kristalle richten sich nicht mehr zurück, darunter leiden gerade die neuen Flimmerfrei Monitore und natürlich Mobils/Tables.
Im Fall von OLED ist es das Phosphor das auf die Reflexschicht auf begast wird was nachleuchte, auch hier sind gerade die stromspar Geräte gefärdet.


Hier kann man teste ob sein Monitor am Memory effekt leidet, 10min laufen lassen, timer läuft , Helligkeit >50%. (https://marco.org/rmbp-irtest.html)

http://www.hardwareluxx.de/community/attachments/f111/315934d1426186572-dell-ultrasharp-u2515h-mit-ips-panel-vorgestellt-img_1717.jpg
Dell u2515h

Martin K.
2016-02-02, 09:38:48
Es ist Fakt, dass Plasma, CRT, OLED mit der Zeit "Einbrennen". Ich nenne es "Einbrennen" als Überbegriff. Auch wenn es bei den verschieden Technologien unterschiedliche Ursachen dafür gibt.

Bei einem LCD habe ich noch nie irgendwelche Effekte dieser Art gesehen. Plasma immer wieder eingebrannt. Die TV-Logos von Pro7, das alte Logo von Kabel 1 waren selbst nach hunderten Stunden des Einfahrens immer zu sehen. Vor allem bei den letzten Generationen der Panasonic Plasmas. Samsung Plasmas sind hier weniger betroffen.

Bei OLED und der Röhre habe ich auch diverse Erfahrungen gemacht. Allerdings nicht in diesem Maße wie bei meinen Panasonic Plasmas. :)

Botcruscher
2016-02-02, 09:54:58
Im Fall von OLED ist es das Phosphor das auf die Reflexschicht auf begast wird was nachleuchte, auch hier sind gerade die stromspar Geräte gefärdet.

Bei OLED ist es einfach die Zersetzung der Zellen und damit einhergehend der Helligkeit und Farbverlust.

http://www.pocketpc.ch/attachments/nokia-lumia-925-a/130192d1372829194-nutzt-standby-zeitanzeige-burnin.jpg
http://www.android-hilfe.de/attachments/bildschirmfoto-2011-08-03-um-02-04-47-png.44891/
http://www.hifi-forum.de/bild/20150814203248_588504.html
http://www.hifi-forum.de/bild/20150730093421_585483.html

...

PHuV
2016-02-02, 11:20:30
Das ist kein Argument. Höchstens am Stammtisch.
Ach komm, Du bist hier nicht der Käse (im Sinne von Sachkundiger), daß Du meine berechtigte Kritik als "Stammtisch" diffamieren mußt. :rolleyes: (no)
Lies man das aktuelle Interview von Heinz Speidel von LG auf Seite 72 der PGHW 03/2016.

PC-Games Hardware 03/2016, Seite 72
"OLEDs werden definitiv kommen, sobald die technischen Probleme beseitigt sind, und das ist irgendwann ganz sicher der Fall. Im PC-Bereich ist es aber frühestens in fünf Jahren so weit."
:
"Die Betriebsdauer und der Anteil an Standbildern ist bei PC-Monitoren sehr viel höher. Bei einer Nutzungsdauer von vielleicht acht Stunden täglich und mehr wäre ein solcher Monitor nach 3 Jahren am Ende seiner Lebensspanne, Da ist die Technik einfach noch nicht weit genug."

So, und nun Du mit Deinem Zitat:
Ich tippe dabei auf 2-3 Jahre noch. Dann können die PC Entusiasten sich mit OLEDs ausstatten. 0815 Monitore werden dann sicher noch weitere 2 Jahre benötigen.
Wer ist nun hier Stammtisch? :rolleyes:
Die Preisentwicklung von Serien OLED Geräten zeigt einen eindeutigen Trend, dass die Technologie jetzt kurz davor ist, diese Schwelle zu durchbrechen. Das war vorher eben nicht so.
Wie selektiv informierst und liest Du eigentlich. :facepalm: Ich habe Dir vorher nur mal 3 Links gegeben, die den nahen Durchbruch von OLED ankündigen, die älteste vor ca. 41 Monaten. Auf der IFA 2008 war ich an allen Messeständen, und hab die schicken OLEDs bewundern, und überall nachgefragt, wann man das mal als PC-Monitor kaufen kann. Das ist jetzt auch schon fast 8 Jahren her.

Hier mal ein Überblick
OLED-Fernseher kurz vor dem Durchbruch (http://www.oled-tv-news.de/oled-fernseher-vor-durchbruch/)
Die Meldung war von 2011 für die Ankündigung 2012! Nun haben wir 2016, und wo ist der "Durchbruch"?

Du solltest echt mal Deinen Wunschträume und Phantasien mit der Realität abgleichen.