PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72

soLofox
2014-07-10, 11:52:52
Deswegen werde ich bei meinem 1440p Monitor mit 120Hz bleiben, der nur einen Bruchteil vom Asus ROG Swift PG278Q kostet und dabei sogar ein besseres Panal hat. ^^

der da wäre?

/edit

QNIX, erledigt.

Mandalore
2014-07-10, 14:03:07
Es gibt sogar 2 Reviews. Nämlich noch eines von Kitguru. Allerdings ist es leider so, dass die Hoschis, die keine Ahnung haben, das aller neuste Zeug zuerst bekommen.

Die labern Stunden lang über subjektive Eindrücke - aber es liegen idR keine qualifizierten Messdaten vor oder zumindest halbwegs sinnvolle Vergleiche, die ohne Messgeräte funktionieren.


Hat leider zur Zeit zu viele Nachteile:

1.) Windows Skalierung ist vergleichsweise schlecht
2.) nur 60 Hz
3.) TN Panel (was akzeptabel wäre, wenn 120 Hz und G-Sync an Board wären)
4.) kein G-Sync / A-Sync
5.) man braucht irre viele Grafikleistung. Selbst eine Titan SLI dürfte hin und wieder überfordert sein


Hast Recht, aber das Erlebnis ist einfach nur HAMMER:biggrin:;D Ehrlich, ich würde 4K jederzeit G-Sync 144Hz usw. vorziehen. Weil durch die hohe PPI, schaut alles so butterweich aus, sprich wie gemalen:eek: Einfach nur "GEIL". Aber da wir am Anfang sind, denke ich können wir mit vielen Sachen spätestens 2015 rechnen.

TurricanM3
2014-07-10, 14:36:55
Deswegen werde ich bei meinem 1440p Monitor mit 120Hz bleiben, der nur einen Bruchteil vom Asus ROG Swift PG278Q kostet und dabei sogar ein besseres Panal hat. ^^


Man liest aber immer wieder, dass die übertakteten Korea TFTs nicht so eine flüssige Bilddarstellung haben wie "echte" 120Hz. Hab schon mehrmals sogar "fake 120Hz" gelesen, auch von Leuten die den direkten Vergleich haben. Liegt das an IPS selbst oder woran? Hm, sehe gerade hinsichtlich Inputlag sind zumindest die beiden QNix 27er die in der PCGH getestet wurden ja nicht gerade optimal. Der eine 17ms und der andere sogar 30. Also wenn der Asus so viel hat, kaufe ich den definitiv nicht.
Welcher 1440p IPS ist zum Arbeiten eigentlich so mit der Beste? Glaube da steige ich auch mal um.

Es gibt sogar 2 Reviews. Nämlich noch eines von Kitguru. Allerdings ist es leider so, dass die Hoschis, die keine Ahnung haben, das aller neuste Zeug zuerst bekommen.

Die labern Stunden lang über subjektive Eindrücke - aber es liegen idR keine qualifizierten Messdaten vor oder zumindest halbwegs sinnvolle Vergleiche, die ohne Messgeräte funktionieren.


Jupp, den KitGuru Test hab ich drei Seiten vorher hier verlinkt. :smile:
Subjektive Eindrücke sind besser als keine. ^^
Mir selbst muss er letzten Endes zusagen, aber das was man so hört klingt vielversprechend.
Wichtig wäre für mich nur der Inputlag von dem Teil. Sobald da jemand was hört bitte hier posten.

aufkrawall
2014-07-10, 14:58:02
Man liest aber immer wieder, dass die übertakteten Korea TFTs nicht so eine flüssige Bilddarstellung haben wie "echte" 120Hz. Hab schon mehrmals sogar "fake 120Hz" gelesen, auch von Leuten die den direkten Vergleich haben. Liegt das an IPS selbst oder woran? Hm, sehe gerade hinsichtlich Inputlag sind zumindest die beiden QNix 27er die in der PCGH getestet wurden ja nicht gerade optimal. Der eine 17ms und der andere sogar 30. Also wenn der Asus so viel hat, kaufe ich den definitiv nicht.

Haben PCGH einen Qnix mit Multi-Input getestet? Wenn ja, *stirnklatsch*. :D
Es braucht Single-Input DL-DVI mit Bypass-PCB. Dann werden auch die 120Hz dargestellt und es läuft so flüssig wie mit 120Hz TNs, ohne jeglichen Lag.
Nur halt mit deutlich mehr Motion Blur, Gammashift und anderen BQ-Verschlechterungen.
Für viel Hz sollen die Overlord-Teile besser sein.


Welcher 1440p IPS ist zum Arbeiten eigentlich so mit der Beste? Glaube da steige ich auch mal um.

Dell UltraSharp U2713HM.

Kartenlehrling
2014-07-10, 14:59:38
overclock3d Review Video

LOL,
ich dachte zuerst sogar an Blitze aber das sind ja Texturmapping Fehler,
sowas von einer ASUS ROG MATRIX-GTX780TI-P-3GD5 Platinum für ? 700€ ? zu sehen ist ja richtig peinlich.

aufkrawall
2014-07-10, 15:39:10
Ist ein Treiberbug, Fix in Arbeit und für einen (den übernächsten?) Treiber geplant.
Wenn man sich das unbedingt anschauen will, kann man auf OpenGL schalten.
Die Unigine-Sachen neigen aber allgemein gerne zum stocken, schlechte Beispiele für flüssige Wiedergabe.

Kartenlehrling
2014-07-10, 16:38:22
Ein Grund mehr wieso ich Mantle begrüsse,
solche eingriffe sollten nicht von den Grafikkartenhersteller durch Treiberupdates bereinigt werden sondern gleich von den Spieleentwickler zugriff drauf haben.
Genauso wie diese SLI-Profile wieso müssen diese im Treiber immer nachgereicht werden?

Simon
2014-07-10, 17:17:28
Hat leider zur Zeit zu viele Nachteile:

1.) Windows Skalierung ist vergleichsweise schlecht
Die ist in der Tat mies. Custom UIs in Chrome, Steam, Origin, Battle.net, etc. skalieren gleich gar nicht :down:
OS X auf dem selben System handhabt das wesentlich besser.


2.) nur 60 Hz
Bin eh zu langsam fuer schnelle Shooter ;D

5.) man braucht irre viele Grafikleistung. Selbst eine Titan SLI dürfte hin und wieder überfordert sein
Oh ja... Mit einer GTX 770 spielt man besser in 1080p...

Mr.Magic
2014-07-10, 17:24:02
Es braucht Single-Input DL-DVI mit Bypass-PCB. Dann werden auch die 120Hz dargestellt und es läuft so flüssig wie mit 120Hz TNs, ohne jeglichen Lag.

Gibt es denn IPS mit Strobing? Falls nicht dümpeln selbst diese IPS auf dem technischen Stand von 2008er TN.

aufkrawall
2014-07-10, 17:32:06
Darum gings nicht, troll wen anders.

mironicus
2014-07-13, 18:55:07
Erste Preise gelistet (Europa-Preise schon ab 729 Euro).
http://geizhals.de/aoc-u3477pqu-a1140422.html

Neben den UHD-Monitoren ist das für mich momentan eines der interessantesten Monitore auf dem Markt - und man braucht nicht unbedingt ein Crossfire/SLI-Gespann für das Teil.

aufkrawall
2014-07-13, 18:56:49
Der IPS-Glow macht bei dem Seitenverhältnis eine Menge kaputt.

john carmack
2014-07-15, 10:20:08
Erste Preise gelistet (Europa-Preise schon ab 729 Euro).
http://geizhals.de/aoc-u3477pqu-a1140422.html

Neben den UHD-Monitoren ist das für mich momentan eines der interessantesten Monitore auf dem Markt - und man braucht nicht unbedingt ein Crossfire/SLI-Gespann für das Teil.


nicht mein geschmack!

nur 1440Pixel hoch...? Gerade in der Höhe muss sich was ändern (2160Pixel!).

Moralelastix
2014-07-15, 11:51:16
AOC(noch nie von dem Hersteller gehört) vermutlich der gleiche wie der von LG?

http://geizhals.de/lg-electronics-34um95-p-a1049833.html


Ich find das Bildformat auch sehr interessant und wär auch schon schwach geworden. Aber 800,-€ erscheinen mir irgendwie zu teuer angesichts der kommenden 400,-Dollar 4K Monitore der Intel Initiative. Die sollen ja 24 bis 28 Zoll groß sein und PLS Technik mit 60Hz bekommen.

Wenns 34" 21:9 PLS incl. 4K geben würde @ 800,-€ wär ich mit dabei.

fondness
2014-07-16, 15:54:07
Ist eigentlich irgend eine Schnittstelle auch nur angekündigt, die auch 120Hz @ 4K schafft?

Nightspider
2014-07-16, 16:22:30
Displayport 1.3 wird 4K@120Hz schaffen.

TurricanM3
2014-07-18, 02:26:11
Noch ein Test vom Asus GSync, lagt wohl nur 4ms! =)
http://www.tftcentral.co.uk/reviews/asus_rog_swift_pg278q.htm

akuji13
2014-07-18, 16:14:47
"The ULMB feature is accessible from the image section of the OSD menu as shown above. It is only available when running the screen at 85, 100 and 120Hz modes. It is not available at 144Hz and it is also important to note that ULMB does not work when you are using G-sync, it's one or the other."

Das darf doch nicht wahr sein. :P

Der eigentlich schon abgewählte BenQ XL2720Z ist nun wieder mit im Topf.

aufkrawall
2014-07-18, 17:40:16
Scheint bis auf die Blickwinkel wirklich ein heißes Gefährt zu sein, danke für den Link@Turri.
Eventuell ist das Backlight nicht in der Lage, mit 144Hz zu pulsieren? Da müsste man wissen, ob es welche am Markt gibt, die das können. Sonst kann man Asus nicht dafür kritisieren, dass ULMB nur bis 120Hz geht.

BenQ XL2720Z, lulz...

akuji13
2014-07-18, 17:47:50
BenQ XL2720Z, lulz...

Tja, es gibt halt Leute denen die BU sehr wichtig ist.

Vielleicht kaufe ich aber auch beide, dann ersetzt der PG278Q den PB278Q und der XL2720Z den XL2720T.

Aufgrund der grottigen Liefersituation seitens ASUS kriege ich auch vorab keinen zum Test, sonst könnte ich ja selbst schauen wie die BU des Asus im Vergleich zu der des BenQ ist. :rolleyes:

Die meines Eizo FG2421 z. B. reicht mir auf Dauer nämlich nicht mehr.

Nightspider
2014-07-18, 19:35:24
Ich hoffe Prad testet den Monitor schnellstmöglich.

aufkrawall
2014-07-18, 23:07:37
Tja, es gibt halt Leute denen die BU sehr wichtig ist.

Vielleicht kaufe ich aber auch beide, dann ersetzt der PG278Q den PB278Q und der XL2720Z den XL2720T.

Aufgrund der grottigen Liefersituation seitens ASUS kriege ich auch vorab keinen zum Test, sonst könnte ich ja selbst schauen wie die BU des Asus im Vergleich zu der des BenQ ist. :rolleyes:

Die meines Eizo FG2421 z. B. reicht mir auf Dauer nämlich nicht mehr.
BU = backlight uniformity?

ezzemm
2014-07-21, 06:53:13
Könnten die 120Hz bei ULMB eine Limitierung/Spezifikation der 3D-Vision-Technik von nVidia sein? Beim Lightboost-Hack meines Monitors sind auch nur 120Hz und keine 144Hz drin.

Samtener Untergrund
2014-07-21, 09:43:28
BU = backlight uniformity?
Nicht ganz. Gemeint ist die Backlight Unit, also die gesamte Hintergrundbeleuchtung.

akuji13
2014-07-21, 14:27:45
BU = backlight uniformity?
Nicht ganz. Gemeint ist die Backlight Unit, also die gesamte Hintergrundbeleuchtung.

Weder noch. ;)
Gemeint ist die Bewegungsunschärfe.

Als ich anfing mich mit Monitoren intensiver zu befassen war das noch die übliche Abkürzung dafür. :D

Ich hoffe Prad testet den Monitor schnellstmöglich.

Nicht gegen das Wissen und die Fähigkeiten der Leute bei Prad, aber mMn fallen ihre Ergebnisse grundsätzlich zu positiv aus.

Ich sehe Monitore grundsätzlich kritischer als die, Dinge wie fehlende A-TW Polarisatoren hätten viel deutlicher bemängelt werden müssen.

aufkrawall
2014-07-21, 15:05:41
Der XL2720Z kann ULMB mit 144Hz?

derF
2014-07-21, 15:07:15
Jap

akuji13
2014-07-21, 15:08:28
Der XL2720Z kann ULMB mit 144Hz?

Die BenQ eigene Technik heißt ja nicht ULMB, arbeitet aber auch mit 144Hz.
http://www.tftcentral.co.uk/reviews/content/benq_xl2720z.htm#blur_reduction

aufkrawall
2014-07-21, 15:10:49
Das ist natürlich gut. Trotzdem hat er natürlich nur ein 6Bit+FRC Panel mit unschönem Banding, der Kontrast ist auch schlechter käme auf den Test an. Die maximale Helligkeit mit ULMB ist auch gerade mal 100cd/m². Der Asus geht wohl heller.
Ich persönlich würde eh meist Gsync nutzen.

akuji13
2014-07-21, 15:22:15
Das ist ja das Schlimme:

Der BenQ wird vermutlich in Sachen BU besser sein (vor allem dank des Tools mit der V2 firmware), zieht dafür bei anderen den meisten anderen Bereichen den kürzeren.

Keine Ahnung woran es liegt das man nicht alle Dinge unter einen Hut bekommt um den Moni für mich zu bauen.

Vielleicht ist es technisch mit dem panel nicht möglich, vielleicht ist es aber auch nur eine Marketing-Entscheidung nach dem Motto: "Das letzte bißchen bessere BU braucht eh so gut wie keiner, also lassen wir das weg."

Allerdings stimme ich bei G-Sync zu: das würde ich wohl notgedrungen auch vorziehen, weil der Gewinn gerade in FPS ktitischen Szenen gewaltig ist.

Und FPS kritische Szenen werden mit alternder hardware sicher zunehmen, außerdem sollte sich die SLI Situation dadurch entspannen.
Hoffe ich mal, denn SLI + G-Sync habe ich noch nicht live erlebt.

aufkrawall
2014-07-21, 15:43:54
Und FPS kritische Szenen werden mit alternder hardware sicher zunehmen, außerdem sollte sich die SLI Situation dadurch entspannen.
Hoffe ich mal, denn SLI + G-Sync habe ich noch nicht live erlebt.
Ich fürchte, es wird sich eher verschlechtern, da man maximale Smoothness erwartet und die fps durch Vsync kaum noch begrenzt werden (wobei man zusätzlich noch einen fps-Limiter nutzen könnte).
Aber so hat man wenigstens eine gesyncte Ausgabe ohne Abart-Input Lag (Vsync-Lag + SLI-Lag = bäh).
Wobei AFR für mich wegen mangelhafter Unterstützung eh gestorben ist.

Kartenlehrling
2014-07-21, 15:57:19
Wieviele FPS schluckt den G-sync überhaupt, davon wird nie etwas erzählt in ihren Promotion-Infos,
bei Lucidlogix virtual-sync sind es auch schnell 10-20fps bei >120fps??!

aufkrawall
2014-07-21, 15:59:49
Musst du mal genauer lesen:
http://www.computerbase.de/2013-12/nvidia-gsync-test/4/

akuji13
2014-07-21, 16:06:30
wobei man zusätzlich noch einen fps-Limiter nutzen könnte

Was ich jederzeit machen würde.

Wenn G-Sync optimal arbeitet fühlen sich die wenigen FPS nach mehr an als ohne mit doppelt so hohen.

Kartenlehrling
2014-07-21, 16:13:08
Musst du mal genauer lesen:
http://www.computerbase.de/2013-12/nvidia-gsync-test/4/


Wenn du schon den "Test" rausgesucht hast hättes du ja wenigsten gleich Zitieren können,
ich finden irgendwie keinen Vermerk über FPS Verlust.

aufkrawall
2014-07-21, 16:14:35
3%

occ-kh@Mirko
2014-07-21, 17:14:09
3%
Als gemittelter Wert...

60hz=4,8%
144hz=2,8%

Es hängt zudem stark von der Engine ab ob GSync Sinn macht, BF4 z.B. profitiert überhaupt nicht davon, Tombraider am meisten.

aufkrawall
2014-07-21, 17:24:31
Als gemittelter Wert...

60hz=4,8%
144hz=2,8%

Diese Abstufung macht keinen Sinn, weil die Refreshrate die fps limitiert.
Komischerweise soll im Durchschnitt auch Gsync bei 60Hz schneller sein als Vsync. Liegt am fehlenden TB von Anno, so etwas hätte ich gar nicht mitgetestet.


Es hängt zudem stark von der Engine ab ob GSync Sinn macht, BF4 z.B. profitiert überhaupt nicht davon
Das möchte ich stark bezweifeln. Ich lese auch nichts von fps-Limiter.

TurricanM3
2014-07-21, 17:35:14
Es hängt zudem stark von der Engine ab ob GSync Sinn macht, BF4 z.B. profitiert überhaupt nicht davon, Tombraider am meisten.


Wie meinst du das? Ich kann BF4 ohne VSync nicht mehr zocken. Finde den Unterschied in der Smoothness enorm. Vorher mit einer Graka wars nicht so ausgeprägt.

occ-kh@Mirko
2014-07-21, 17:42:46
Denn noch mal lesen was verlinkt wurde:

Der Nutzen von G-Sync ist stark von der verwendeten Engine abhängig und kann von geradezu riesig bis hin zu kaum vorhanden variieren – die unterschiedliche Ausprägung der Nachteile beim Einsatz von V-Sync an/aus ließen das bereits vermuten.
http://www.computerbase.de/2013-12/nvidia-gsync-test/4/

Zudem weisst @CB darauf hin das sie extra Einstellungen an der 760 vorgenommen haben, woanders verpufft der Effekt womöglich.

Kartenlehrling
2014-07-21, 17:50:43
Benchmarks mit G-Sync

Soviel zu den optischen Vorteilen von G-Sync. Nun kommen wir dem Thema nach, ob man mit der neuen Nvidia-Technik Leistung verliert.

Performancerating
60 Hz
100,0
144 Hz @ V-Sync
99,8
144 Hz @ G-Sync
97,2
60 Hz @ G-Sync
95,2
60 Hz @ V-Sync
91,1

Angaben in Prozent

G-Sync kostet ein wenig Leistung – verbessert dabei aber auch die Bildqualität.
Wenig verwunderlich erzielen wir bei deaktiviertem V-Sync die beste Leistung, unabhängig von der Bildwiederholfrequenz.
Auf Platz zwei kommt der 144-Hz-Modus bei aktiviertem V-Sync. Der Geschwindigkeitsverlust ist nur minimal.

Wer G-Sync mit 144 Hz benutzt verliert drei Prozent Leistung gegenüber dem klassischen V-Sync. Kein getesteter Titel kommt zu irgendeiner Zeit auf über 144 Bilder pro Sekunde, weswegen die maximale FPS-Obergrenze nicht überschritten wird. G-Sync im 60-Hz-Modus läuft dann weitere zwei Prozent langsamer. Auf den letzten Platz kommt V-Sync bei 60 Hz – die Differenz zur abgeschalteten vertikalen Synchronisation liegt bei zehn Prozent. Anno 2070 ist der Grund dafür.
http://www.computerbase.de/2013-12/nvidia-gsync-test/4/


Ich verstehe nicht wie sie auf die 9% kommen bei 60hz/Ohne - 60hz/vsync, und wieso es nur 3% bei g-sync sein soll?!

occ-kh@Mirko
2014-07-21, 18:05:38
Es geht um ein Erlebnis, dass in Abhängigkeit des eigenen Werteurteils und des Anspruches bestimmt wird.

Andere stört das Ruckeln garnicht oder sie nehmen es beim spielen nicht mal wahr. 5 Mods kamen hier zu einem Ergebnis. Um den Leser an dem Werturteil teilhaben zu lassen, wären Videos nicht schlecht gewesen. Dann kann man nachvollziehen was gemeint ist.

Kein Spiel erreichte 144hz, daher ist der Wert von 2,8 vs. 3 % zu niedrig, er wird höher liegen, zwischen 2,8 bis 4,8% der fps Raten. Das sagt jedenfalls dieser Testartikel aus.

Den Rest müsste man bei den Mods nochmal nachfragen.

TurricanM3
2014-07-21, 19:01:09
Denn noch mal lesen was verlinkt wurde:


http://www.computerbase.de/2013-12/nvidia-gsync-test/4/

Zudem weisst @CB darauf hin das sie extra Einstellungen an der 760 vorgenommen haben, woanders verpufft der Effekt womöglich.


Dann hab ich das schon richtig verstanden. Was mich eben wundert: Wenn ich BF4 mit VSync on schon deutlich angenehmer (flüssiger) empfinde als off, dann kann es mit GSync doch nicht schlechter sein? Wie können die dann sagen BF4 profitiere kaum von GSync? :confused:

Kartenlehrling
2014-07-21, 19:46:57
Ich vergleich das G-sync immer mit dem Lucidlogix virtual-sync, und da ist es wirklich wie Tag und Nacht wenn man damit Spiel,
aber Richtig zur Geltung kommt es wenn man über >60fps spielt,
ich hab leider nur ein 60hz Monitor, aber selbst da ist das Fahrgefühl in Rennspiele wie Tag und Nacht,
ich haben permanent FPS zwischen 75-120fps (hab 120fps limiter) und ein absolut tearingfreies Spiel.

Also frag ich mich was kann das Nvidia G-sync besser als das Lucidlogix Program?

aufkrawall
2014-07-21, 20:18:00
Dann hab ich das schon richtig verstanden. Was mich eben wundert: Wenn ich BF4 mit VSync on schon deutlich angenehmer (flüssiger) empfinde als off, dann kann es mit GSync doch nicht schlechter sein? Wie können die dann sagen BF4 profitiere kaum von GSync? :confused:
AMD meinte zu Freesync, dass nicht jede Engine variablen Vblank gleich gerne mag. Frag mich nicht, wieso. :redface:
Ich würde davon ausgehen, dass allein die Frametimes die Güte von Gsync beeinflussen. Und die sind bei BF ja gerne mal nicht so gut, besonders ohne Mantle oder ohne fps-Limit.
Ich schätze, mit einem fps-Limit bei ~100 würde sich BF ziemlich gut mit G-Sync anfühlen. Halt wie mit Vsync, nur ohne Lag und seichteren Rucklern, wenns mal kurz drunter geht.


Also frag ich mich was kann das Nvidia G-sync besser als das Lucidlogix Program?
Oh man...
Der Lucid-Schrott passt die Refreshrate nicht an, folglich ruckelt es. Mit mehr fps wird das natürlich mehr und mehr kompensiert.

Kartenlehrling
2014-07-21, 21:17:19
Oh man...
Der Lucid-Schrott passt die Refreshrate nicht an, folglich ruckelt es. Mit mehr fps wird das natürlich mehr und mehr kompensiert.

Was du für eine Scheiß erzählst, warum sieht es dann bei mir Geschmeidig aus?
Leider habe ich keine Videokamera die >120fps aufnehmen kann, bei mir läuft es "Ruckelfrei" , Smoothie und Tearingfrei.

aufkrawall
2014-07-21, 23:37:27
Dann erklär mal, wie Lucid das erreichen will.
Wobei das daneben gehen dürfte, weil es dir mit Sicherheit schon an Grundverständnis für die Problematik fehlt.

4Fighting
2014-07-22, 08:54:10
also der asus wird mir immer sympathischer. Sie gewähren ja sogar 3 Jahre Garantie auf Monitore, was bei Gsync vor dem Hintergrund von "Kinderkrankheiten" sicher nicht schaden kann :)

john carmack
2014-07-23, 10:51:51
Warum sind eigentlich die 28" 4k so günstig und die 32" 4k soo übertrieben teuer?

gibt es einen Grund dafür?

Loeschzwerg
2014-07-23, 11:09:48
Liegt zum großen Teil am Panel (IGZO und IPS gegen TN) und dem Drumherum (z.B. Standfuß, Kalibierung usw.).

Mir gibt es immer zu wenige Tests der TN Dinger... Hallo Prad, CB, PCGH, Golem und Co., testet hier endlich mal was!

john carmack
2014-07-23, 11:19:59
Liegt zum großen Teil am Panel (IGZO und IPS gegen TN) und dem Drumherum (z.B. Standfuß, Kalibierung usw.).

Mir gibt es immer zu wenige Tests der TN Dinger... Hallo Prad, CB, PCGH, Golem und Co., testet hier endlich mal was!


Ich ha hier auf der Arbeit und zu hause eine Dell 30" 2560x1600

Kleiner soll mein Neuer bitte nicht werden! ;)
(Die Größe und die Arbeitsfläche auf die Pixel bezogen ist ganz klar eine Gewöhnungssache! - und JA - man gewöhnt sich unheimlich schnell daran :D )

Aber ich will auch keine 1700€ oder mehr ausgeben. Da hilft wohl nur warten......... :(

Ex3cut3r
2014-07-23, 14:29:14
Falls es jemanden interssiert, auf TomsHardware gibt einen schönen Test zum 21:9 QHD LG
http://www.tomshardware.de/lg34um95-219-monitor-display-review,testberichte-241599.html

Ich finde, das Seitenverhältnis, gar nicht so schlecht.

4Fighting
2014-07-23, 16:13:24
Falls es jemanden interssiert, auf TomsHardware gibt einen schönen Test zum 21:9 QHD LG
http://www.tomshardware.de/lg34um95-219-monitor-display-review,testberichte-241599.html

Ich finde, das Seitenverhältnis, gar nicht so schlecht.

Leider braucht man dafür ziemlich viel GPU-Power.:(

Ex3cut3r
2014-07-23, 16:20:13
Jo, aber du mit deinen 2 780ti's hast die du doch eingentlich :D

4Fighting
2014-07-23, 16:26:23
Jo, aber du mit deinen 2 780ti's hast die du doch eingentlich :D

1440p und ein bisschen Luft nach oben ist mir aber lieber. Ich kann immer noch auf 4k downsamplen oder wohin auch immer.

Als reiner Desktop/Surfmonitor macht es durchaus Sinn, aber zum Spielen ist es imo noch nichts.

Ex3cut3r
2014-07-23, 16:35:55
Da stimme ich dir zu, 3440x1440 ist halt speziell, trotzdem reizt mich der Monitor für Filme und Spiele irgendwie. :D

akuji13
2014-07-23, 16:40:54
Mir sind meine Titans schon für 1920x1080 zu lahm und ihr wollt sowas. :D

Ex3cut3r
2014-07-23, 16:54:38
;D Jeder hat halt andere Vorlieben, für diesen Monitor müsste ich auch noch eine neue Graka holen, und das dann doch etwas zu viel des guten, so bleibts erstmal bei meinen 27" TN 1080p Monitor :(

dargo
2014-07-23, 20:11:20
Falls es jemanden interssiert, auf TomsHardware gibt einen schönen Test zum 21:9 QHD LG
http://www.tomshardware.de/lg34um95-219-monitor-display-review,testberichte-241599.html

Ich finde, das Seitenverhältnis, gar nicht so schlecht.
Mit 14ms G/G taugt das Ding höchstens nur zum Arbeiten.

Grey
2014-07-23, 20:37:32
Mit 14ms G/G taugt das Ding höchstens nur zum Arbeiten.


...und selbst da nervt es.

Ex3cut3r
2014-07-23, 20:55:58
Kein Problem für mich. :)

john carmack
2014-07-24, 09:39:11
Wieviel VRam fressen den eigentlich spiele Diablo3, Divinity Original Sin, XCOM oder StarCraft 2 bei 4k Auflösungen?

Dafür müsste doch eine 7870 locker reichen, oder?

derguru
2014-07-24, 13:42:22
ram reicht für fxaa aber die performance nicht mit der gpu^^

john carmack
2014-07-24, 14:07:27
ram reicht für fxaa aber die performance nicht mit der gpu^^


Echt jetzt?

Was brauch ich denn für eine GPU für D3 oder XCOM @ max Details & 4K resolution?

derguru
2014-07-24, 14:45:59
für d3 konstante 60 fps haut nicht hin,selbst mit einer 7950@1100/1500.

selbst im menü komme ich nicht auf 60 fps geschweige denn in action und imo sind 60 fps konstant pflicht für d3. xcom k.a.

http://abload.de/thumb/diabloiii2014-07-2414xvpn0.png (http://abload.de/image.php?img=diabloiii2014-07-2414xvpn0.png)

naja, amd soll erst mal 4k 60Hz gebacken bekommen(60Hz SST 4K).:(

john carmack
2014-07-24, 15:08:55
hmmm.... das ist ja krass...
hätte nicht gedacht das selbt solche Spiele so massiv die Hardware fordern :D

Naja gut. Mal schauen was die Herbst/Winter Generation von GraKa´s mit sich bringt und wie weit die Preise runtergehen.

gut - XCOM ist ja runden basiert - da braucht es keine 60FPS da reichen 30FPS völlig aus.

4Fighting
2014-07-24, 17:30:11
Sind halt 4x so viele Pixel, die zu berechnen sind.

Das ist schon sehr, sehr viel mehr;)

Hoffentlich kommt morgen der rog swift :D

Kartenlehrling
2014-07-24, 17:47:00
Hoffentlich kommt morgen der rog swift

Ich hab irgendwo in einem Forum gelesen, das einige Händler zwar die Monitor schon im Lager haben, aber nicht ausliefen dürfen, erst 6. August oder soo.

john carmack
2014-07-24, 19:53:28
Dachte das der rog swift erst im Winter kommt...?! Egal! Um so besser! Er soll ja so um die 1500€ starten. Immer noch sehr viele Euronen :D aber bis jetzt wohl das Beste am Markt ;)

Rente
2014-07-24, 23:00:07
Dachte das der rog swift erst im Winter kommt...?! Egal! Um so besser! Er soll ja so um die 1500€ starten. Immer noch sehr viele Euronen :D aber bis jetzt wohl das Beste am Markt ;)
800€, nicht 1500... ;(

http://geizhals.de/asus-rog-swift-pg278q-90lm00u0-b01370-a1052247.html

john carmack
2014-07-24, 23:36:45
800€, nicht 1500... ;(

http://geizhals.de/asus-rog-swift-pg278q-90lm00u0-b01370-a1052247.html

:confused:
Bitte - da bin ich jetzt aber falsch informiert oder ich habe an einen anderen Monitor gedacht?

Bringt ASUS nicht einen neuen 4K Monitor mit nativen HDMI 2.0 raus?


EDIT:
Diesen hier meine ich:ASUS PA328Q
http://www.computerbase.de/2014-06/asus-pa328q-liefert-uhd-mit-60-hertz-ueber-hdmi-2.0/

Ex3cut3r
2014-07-24, 23:56:37
Die anderen meinen diesen "Gamer" TN Monitor mit 144hz und G-Sync gedöns @ 1440p. ^^

4Fighting
2014-07-25, 10:21:29
hat jemand den Monitor schon erhalten?

robbitop
2014-07-25, 10:33:58
Miami Nice hat ihn heute morgen bekommen:

LOL, das Teil ist schon da. Der Postbote hat mich um 7:30 aus dem Bett geklingelt. Ausgepackt und angeschlossen ist er, macht einen wertigen Eindruck.
Bild ist gut, konnte bisher keinen Pixelfehler ausmachen.

Aber jetzt muss ich erst mal zur Arbeit.

€: Anzoggen musste ich ihn einfach noch ^^

Das Bild ist echt top. Eher zu vergleichen mit den IPS Displays auf der Arbeit statt mit meinen TN Paneln, die ich privat bisher ausschließlich genutzt habe. Habe gerade Path of Exile reingeworfen, da habe ich normal Tearing wie sau. Schön V-Snyc und den FPS Meter an, FPS schwanken bei mir zwischen 100 - 125, aber kein Tearing *jubel* :)

Ja was soll ich schreiben? Ich bin erst mal stark begeistert von dem Gerät, sollte bei 800€ Anschaffungskosten aber auch drin sein. Jetzt muss ich aber wirklich los ins Büro.


Er ist begeistert. ASUS hat mit dem "Premium TN Panel" offenbar nicht zu wenig versprochen. :up:

P.S

ich vermute, dass Miami Nice nicht "V-Sync" sondern "G-Sync" meint.

fondness
2014-07-25, 10:47:35
Ich hätte gerne ein Review von zB Prad, weiß da jemand ob was kommt? Mit Userberichten ist das immer so eine Sache, viele steigen von 10 Jahre alten Monitoren um und sind dann ganz begeistert, nur weil sie den Fortschritt verpasst haben. Und wenn er gut ist hätte ich gerne denselben ohne den $200 Aufpreis für NVs proprietäres Zeug^^

4Fighting
2014-07-25, 10:52:33
Ich hätte gerne ein Review von zB Prad, weiß da jemand ob was kommt? Mit Userberichten ist das immer so eine Sache, viele steigen von 10 Jahre alten Monitoren um und sind dann ganz begeistert, nur weil sie den Fortschritt verpasst haben. Und wenn er gut ist hätte ich gerne denselben ohne den $200 Aufpreis für NVs proprietäres Zeug^^

Müsste sich ja ausbauen lassen oder? Könntest es dann verticken:freak:

robbitop
2014-07-25, 10:56:19
Ich hätte gerne ein Review von zB Prad, weiß da jemand ob was kommt? Mit Userberichten ist das immer so eine Sache, viele steigen von 10 Jahre alten Monitoren um und sind dann ganz begeistert, nur weil sie den Fortschritt verpasst haben. Und wenn er gut ist hätte ich gerne denselben ohne den $200 Aufpreis für NVs proprietäres Zeug^^
Es gibt ein sehr qualifiziertes Review von TFTCentral. Da sind viele Messwerte drin und die sind IMO vergleichbar mit Prad.

Die waren (natürlich nicht grenzenlos) begeistert. Das Ding ist wohl für ein TN Panel sehr gut. Aber ein IPS (Blickwinkel) wird natürlich nicht daraus.

Wundert mich aber auch nicht. Ich kenne den Unterschied zwischen billig TNs und Premium TNs (MacBook Pro). Das ist schon ein gewaltiger Unterschied. Allerdings noch kein IPS. Aber schon sehr gut.

dargo
2014-07-25, 11:07:52
Es gibt ein sehr qualifiziertes Review von TFTCentral. Da sind viele Messwerte drin und die sind IMO vergleichbar mit Prad.

Die waren (natürlich nicht grenzenlos) begeistert. Das Ding ist wohl für ein TN Panel sehr gut. Aber ein IPS (Blickwinkel) wird natürlich nicht daraus.

Wundert mich aber auch nicht. Ich kenne den Unterschied zwischen billig TNs und Premium TNs (MacBook Pro). Das ist schon ein gewaltiger Unterschied. Allerdings noch kein IPS. Aber schon sehr gut.
Was ist denn bitte schön an einem IPS gut? Ich habe noch keinen IPS gesehen der beim Schwarzwert überzeugt. Im Prinzip ist doch alles beim alten geblieben. Man darf wieder entscheiden welches Übel einen am wenigsten stört... Schwarzwert, Blickwinkel, nativer Kontrast, Reaktionszeit. :( Schei.. Kompromisse bei den Flachmännern. :P

Edit:
Mal was anderes... wie gut ist aktuell eigentlich die Unterstützung der Spiele was 21:9 angeht? Ich staune wie viele 21:9 Bildschirme es mittlerweile gibt. Den Philips finde ich recht schick.
http://geizhals.at/de/philips-298p4qjeb-298p4qjeb-00-a899731.html

Nur leider auch wieder nur IPS. Wie ist das mit der Pixeldichte bei diesem 29 Zöller im Vergleich zum 24 Zöller mit Full-HD? Ist die Pixeldichte identisch? Sprich... wenn ich da drauf Full-HD fahre habe ich quasi 24 Zoll? Nur halt mit schwarzen Streifen links/rechts?

robbitop
2014-07-25, 11:24:34
Was ist denn bitte schön an einem IPS gut? Ich habe noch keinen IPS gesehen der beim Schwarzwert überzeugt. Im Prinzip ist doch alles beim alten geblieben. Man darf wieder entscheiden welches Übel einen am wenigsten stört... Schwarzwert, Blickwinkel, nativer Kontrast, Reaktionszeit. :( Schei.. Kompromisse bei den Flachmännern. :P
Das ist doch immer und überall so. Nichts ist gut in allen Kriterien, da diese oftmals diametral sind.

VAs haben zwar einen super Schwarzwert sind aber extremst langsam. Schlieren finde ich in Spielen jetzt nicht unbedingt wünschenswert.

Ist immer die Frage, was man will. Für mich ist in Spielen ein scharfes, schnelles und ruckelfreies Bild wichtiger als Schwarzwert und Blickwinkel.

Am TV wo Blurays geschaut werden ist Schwarzwert natürlich King. ;)


Edit:
Mal was anderes... wie gut ist aktuell eigentlich die Unterstützung der Spiele was 21:9 angeht? Ich staune wie viele 21:9 Bildschirme es mittlerweile gibt. Den Philips finde ich recht schick.
http://geizhals.at/de/philips-298p4qjeb-298p4qjeb-00-a899731.html

Nur leider auch wieder nur IPS. Wie ist das mit der Pixeldichte bei diesem 29 Zöller im Vergleich zum 24 Zöller mit Full-HD? Ist die Pixeldichte identisch? Sprich... wenn ich da drauf Full-HD fahre habe ich quasi 24 Zoll? Nur halt mit schwarzen Streifen links/rechts?

21:9 finde ich auch sehr interessant und ich denke, dass die neusten Spiele das alle unterstützen. Ist halt ein ähnlicher Vorgang wie das Durchsetzen von 16:9 damals.

Wenn 21:9 dann aber 34". 29" sieht total popelig klein aus, weil das Ding eben so breit ist.
34" 21:9 mit G-Sync fände ich auch interessant.

Nachteil mit den breiten Monitoren ist allerdings, dass es dann schwierig mit mehreren Monitoren auf dem Schreibtisch wird.

dargo
2014-07-25, 11:28:29
Das ist doch immer und überall so. Nichts ist gut in allen Kriterien, da diese oftmals diametral sind.

VAs haben zwar einen super Schwarzwert sind aber extremst langsam. Schlieren finde ich in Spielen jetzt nicht unbedingt wünschenswert.

Ist immer die Frage, was man will. Für mich ist in Spielen ein scharfes, schnelles und ruckelfreies Bild wichtiger als Schwarzwert und Blickwinkel.

Am TV wo Blurays geschaut werden ist Schwarzwert natürlich King. ;)
Letzteres kann ich allerdings nicht ganz nachvollziehen. Schließlich liefern Spiele genauso Grafik wie Filme. ;) Egal... jeder hat seine eigenen Prioritäten. :)

Kannst du mir das noch mit der Pixeldichte bei dem 29 Zöller 21:9 erklären? Das Format würde mich für Spiele durchaus reizen. Besonders unter dem Aspekt, dass ich auch gerne Rennspiele wie zb. Assetto Corsa im Cockpit spiele. Da ist 16:9 einfach noch ein Guckloch. :D


Wenn 21:9 dann aber 34". 29" sieht total popelig klein aus, weil das Ding eben so breit ist.
34" 21:9 mit G-Sync fände ich auch interessant.

Nee... 34" wäre mir zuviel. Bzw. die Pixeldichte würde dabei wieder leiden. Da müsste dann eine höhere Auflösung her. Wofür man wieder mehr GPU-Power braucht. 2560x1080 finde ich schon ok. Sind immerhin schon 33% mehr Pixel, was ich mit Tahiti noch gerade so akzeptieren würde.


Nachteil mit den breiten Monitoren ist allerdings, dass es dann schwierig mit mehreren Monitoren auf dem Schreibtisch wird.
Das wäre in meinem Fall wurscht, hab immer nur einen Bildschirm am Schreibtisch.

robbitop
2014-07-25, 11:48:22
Letzteres kann ich allerdings nicht ganz nachvollziehen. Schließlich liefern Spiele genauso Grafik wie Filme. ;) Egal... jeder hat seine eigenen Prioritäten. :)
Naja einen Film sieht man ja nur an. Bei einem Spiel geht es um Interaktion. Da muss es butterweich laufen. Da wäre wohl der Eizo mit den 240 Hz vermutlich der einzige Kompromiss. Mir wäre der aber zu klein.

Kannst du mir das noch mit der Pixeldichte bei dem 29 Zöller 21:9 erklären?
Ich verstehe die Frage nicht. :)

Nee... 34" wäre mir zuviel. Bzw. die Pixeldichte würde dabei wieder leiden. Da müsste dann eine höhere Auflösung her. Wofür man wieder mehr GPU-Power braucht. 2560x1080 finde ich schon ok. Sind immerhin schon 33% mehr Pixel, was ich mit Tahiti noch gerade so akzeptieren würde.
Die 34" sind IIRC in 3840x1440. IMO ein guter Kompromiss. Pixeldichte ist dann auch ok. Braucht man halt eine anständige GPU. Ein Hawaii mit ordentlich OC. Bzw. es kommt ja sicher dieses Jahr nochmal etwas neues von NV und AMD.


Das wäre in meinem Fall wurscht, hab immer nur einen Bildschirm am Schreibtisch.
Ich habe im Moment noch einen 37" TV als Monitor. Grausam. Wird ersetzt durch den ASUS ROG Swift + Dell 24" Monitor. 2 Monitore sind einfach super praktisch in Windows. Surfen und nebenbei noch ein Video laufen lassen zB. Oder Spielen und nebenher noch was nachschauen im Internet oder einen Stream laufen lassen.

dargo
2014-07-25, 12:04:03
Ich verstehe die Frage nicht. :)

24" 16:9 mit 1920x1080 vs. 29" 21:9 mit 2560x1080.

Ist die Pixeldichte identisch bei beiden?

robbitop
2014-07-25, 12:07:02
24" 16:9 mit 1920x1080 vs. 29" 21:9 mit 2560x1080.

Ist die Pixeldichte identisch bei beiden?
24" 16:9 FullHD: 91.8 ppi
29" 21:9 2560x1080: 95.8 ppi

also vergleichbar.

34" 21:9 3440x1440p sind sogar 113 ppi.

4Fighting
2014-07-25, 12:13:29
wobei ich nicht glaube, das die GPU power so schnell brauchbare FPS mit 3440x1440p liefert.

Ich meine das sind ja 2,39x so viele Pixel wie 1080p

dargo
2014-07-25, 12:14:52
24" 16:9 FullHD: 91.8 ppi
29" 21:9 2560x1080: 95.8 ppi

also vergleichbar.

Danke. :)

Den finde ich auch recht interessant.
http://www.lg.com/de/monitore/lg-25UM65

Hat sogar minimal bessere Pixeldichte als ein 27 Zöller mit 1440p. :D Allerdings mit nur 25" dann wohl in der vertikalen kleiner als ein 24 Zöller 16:9. Man will sich ja steigern und nicht umgekehrt. :wink: Zudem muss ein Bildschirm bei mir höhenverstellbar sein.

PS: der ist sogar vertikal kleiner als ein 23 Zöller, sieht man im Link. :redface:


34" 21:9 3440x1440p sind sogar 113 ppi.
Alles ganz nett. Aber imho noch zu früh dafür. Mir sind 60+fps wichtiger. Und zuviele Details reduzieren will ich dann auch nicht. Grundsätzlich ja zu dieser Auflösung, allerdings nur mit SLI/CF. Oder irgendwann mit 10+ TFLOPS Single-GPU. :tongue:

robbitop
2014-07-25, 12:16:52
wobei ich nicht glaube, das die GPU power so schnell brauchbare FPS mit 3440x1440p liefert.

Ich meine das sind ja 2,39x so viele Pixel wie 1080p
Dann muss man halt nochmal investieren. Irgendwie muss man NV und AMD am Leben halten. :D:D

dargo
2014-07-25, 12:20:31
Dann muss man halt nochmal investieren. Irgendwie muss man NV und AMD am Leben halten. :D:D
Die sollen erstmal was vernünftiges liefern. :cool: Tahiti-Leistung x2. ;)

robbitop
2014-07-25, 12:22:28
Habe ich da. 2x Titan SLI :D
Dazu noch G-Sync und alles wirkt schon eher als bei 60 fps flüssig.

dargo
2014-07-25, 12:23:35
Habe ich da. 2x Titan SLI :D

Nix SLI, Single-GPU. ;)

4Fighting
2014-07-25, 13:04:43
Dann muss man halt nochmal investieren. Irgendwie muss man NV und AMD am Leben halten. :D:D

Naja gut, aber je nach Spiel geht den 780ti's der VRAM aus.

Daher finde ich die Lösung 1440p und dann DS eigentlich angenehmer.

Ich verstehe auch persönlich den 4k Hype nicht. Bis das wirklich durchgehend hohe FPS liefert mit sGPUs dauert es eh noch etwas.

fondness
2014-07-25, 13:50:26
Daher finde ich die Lösung 1440p und dann DS eigentlich angenehmer.

Ich verstehe auch persönlich den 4k Hype nicht. Bis das wirklich durchgehend hohe FPS liefert mit sGPUs dauert es eh noch etwas.

Findest du nicht das du dir in den zwei Sätze selbst widersprichst? Einerseits bist du für 1440p mit Downsampling, andererseits verstehst du den 4K Hype nicht.
Klar kostet 4K Leistung, aber wer einmal auf einem 4K Monitor gearbeitet oder gespielt hat will nicht mehr zurück, dagegen wirkt die full-hd Möhre zu Hause einfach extrem billig und fast steinzeitlich.

4Fighting
2014-07-25, 13:56:44
Findest du nicht das du dir in den zwei Sätze selbst widersprichst? Einerseits bist du für 1440p mit Downsampling, andererseits verstehst du den 4K Hype nicht.
Klar kostet 4K Leistung, aber wer einmal auf einem 4K Monitor gearbeitet oder gespielt hat will nicht mehr zurück, dagegen wirkt die full-hd Möhre zu Hause einfach extrem billig und fast steinzeitlich.

Nein...ich kann bei Bedarf "4k" wählen und bin nicht darauf angewiesen.

Je nach Scaler habe ich doch, wenn ich bei einem nativen 4k auf eine kleinere Auflösung gehen muss, Unschärfe oder?

fondness
2014-07-25, 13:59:42
Nein...ich kann bei Bedarf "4k" wählen und bin nicht darauf angewiesen.

Dass das nicht dasselbe ist wie native Pixel muss ich dir wohl nicht sagen.


Je nach Scaler habe ich doch, wenn ich bei einem nativen 4k auf eine kleinere Auflösung gehen muss, Unschärfe oder?

Full-HD sollte mit voller Schärfe gehen, da jeweils die Hälfte der nativen Auflösung. Ansonsten hat man wohl etwas Unschärfe, allerdings sollte das durch die hohe Pixeldichte weit nicht so krass sein wie bei aktuellen Monitoren.

Sailor Moon
2014-07-25, 14:02:51
Full-HD sollte mit voller Schärfe gehen, da jeweils die Hälfte der nativen Auflösung.
Hängt vom konkreten Monitor ab. Die beiden 4K-Bildschirme, die ich bislang hier stehen hatte, setzten das (Pixelwiederholung) aber so nicht um.

4Fighting
2014-07-25, 14:06:48
Dass das nicht dasselbe ist wie native Pixel muss ich dir wohl nicht sagen.



Full-HD sollte mit voller Schärfe gehen, da jeweils die Hälfte der nativen Auflösung. Ansonsten hat man wohl etwas Unschärfe, allerdings sollte das durch die hohe Pixeldichte weit nicht so krass sein wie bei aktuellen Monitoren.

Für mich ist 1440p + Option für DS aber weitaus geschmeidiger.

Für dauerhaft 4k reicht mir die Leistung noch nicht aus:(

Ex3cut3r
2014-07-25, 15:00:52
@ Dargo

Hier ist ne Seite, wo man Monitor größen untereinander vergleichen kann:
http://www.displaywars.com/25-inch-21x9-vs-24-inch-16x9

Und hier gibt einen PPi Rechner. https://www.sven.de/dpi/

Vlt. wäre der auch etwas für dich. http://www.lg.com/nl/monitoren/lg-29UM95-ips-monitor
29" aber mit 3440x1440 und einer PPi von 129 (aber erst was für die nächste Graka Gen imo)


MFG

dargo
2014-07-25, 15:28:20
@ Dargo

Hier ist ne Seite, wo man Monitor größen untereinander vergleichen kann:
http://www.displaywars.com/25-inch-21x9-vs-24-inch-16x9

Und hier gibt einen PPi Rechner. https://www.sven.de/dpi/

Super Links, vielen Dank. :)


Vlt. wäre der auch etwas für dich. http://www.lg.com/nl/monitoren/lg-29UM95-ips-monitor
29" aber mit 3440x1440 und einer PPi von 129 (aber erst was für die nächste Graka Gen imo)

Die Pixeldichte wäre traumhaft bei gleichzeitig schönem Widescreen. Da könnte ich eventuell über den schlechteren Kontrast und Schwarzwert hinwegsehen. Aber wie du schon sagst... dafür braucht man jede Menge GPU-Power wenn man 60+fps anpeilt. Das wäre vielleicht was in den nächsten 5 Jahren.

Ex3cut3r
2014-07-25, 15:34:43
Gerne, ich hab das selbe "Prob" wollte mir gerne den 34" mit 3440x1440 holen, aber welche Singlegraka soll da gute Konstante Frames auch grade bei den kommenden Titeln bieten? Imo keine. :D

dargo
2014-07-25, 15:47:30
Eben, das muss man auch berücksichtigen. Die GPU-Last wird in kommenden Titeln der nächsten Jahre auch steigen (wäre traurig wenn nicht). Schließlich wollen wir schönere Spiele erleben. Bei dem ganzen LCD-Mist vermisse ich echt die alten CRT-Zeiten. Dort war man schön flexibel was die GPU-Anforderungen der Spiele anging. ;(

Ex3cut3r
2014-07-25, 16:32:51
;) Naja ich werde 21:9 Monitore weiter beobachten, finde das Format hat etwas zum Gamen. Ich seh die Zunkuft schon kommen, 4K oder 21:9, dass wird schwierig für mich :D

Kartenlehrling
2014-07-25, 16:38:40
Hängt vom konkreten Monitor ab. Die beiden 4K-Bildschirme, die ich bislang hier stehen hatte, setzten das (Pixelwiederholung) aber so nicht um.

Das ist ja das Problem vorallem noch von Windows, wenn man ein 4k Monitor auf 1080p Desktop runterstellt weil man den Text und Bottons nicht erkennt oder lesen kann, profitiert man nicht von der höheren Pixeldichte.
Da werden wir bestimmt noch 5 Jahre warten müssen, das Mac OS X bekommt es besser hin.
Zum glück funktioniert es schon bei allen Browser recht gut.

dargo
2014-07-25, 16:41:22
;) Naja ich werde 21:9 Monitore weiter beobachten, finde das Format hat etwas zum Gamen. Ich seh die Zunkuft schon kommen, 4K oder 21:9, dass wird schwierig für mich :D
4k auf 21:9. :D --> 5160x2160 auf 34". :freak:

OC_Burner
2014-07-25, 16:48:26
4k auf 21:9. :D

5040x2160:naughty:

dargo
2014-07-25, 16:50:13
5040x2160:naughty:
Oder halt so. :D Schöne Zukunftsaussichten. :)

robbitop
2014-07-25, 18:28:59
Naja gut, aber je nach Spiel geht den 780ti's der VRAM aus.

Daher finde ich die Lösung 1440p und dann DS eigentlich angenehmer.

Ich verstehe auch persönlich den 4k Hype nicht. Bis das wirklich durchgehend hohe FPS liefert mit sGPUs dauert es eh noch etwas.
Ich hätte heute kein Geld mehr für Karten unter 4 GiB VRAM ausgegeben. Die Erfahrung lehrt, dass VRAM Anforderungen immer weiter steigen. Aber das hatten wir schonmal und ist auch hier OT.

Ich sitze wie auf Kohlen bis ich endlich mal den ASUS ROG SWIFT bestellen kann. Ist deiner denn schon da?

4Fighting
2014-07-25, 18:49:43
Ich sitze wie auf Kohlen bis ich endlich mal den ASUS ROG SWIFT bestellen kann. Ist deiner denn schon da?

Kommt leider erst morgen:(

Hast Du keinen mehr erwischt?

robbitop
2014-07-25, 19:16:58
Leider nicht. :(

Mandalore
2014-07-25, 19:40:36
@4Fighting: Wo hast du den bestellt wenn ich fragen darf? Könntest du evlt. so ein kleines "Review" machen über Farben, Bildqualität usw.?

Ich hätte mal ne Frage: Ein iPhone 3GS hat ja auf 3,5 Zoll eine PPi von ca. 163.
Ein 28 Zoll Monitor mit 4K Auflösung hat eine PPi von 157.


Trotzdem habe ich festgestellt, (und genau das ist es was mich so verwundert) dass auch wenn man sehr nah rangeht, die Pixelstruktur des 28 sehr sehr viel feiner ist als die des iPhone 3 GS. Es schaut so aus als wären die 4K@28 so wie die Auflösung der Retina-Geräte. Kann mir einer dieses Phänomen erklären.;D

Kartenlehrling
2014-07-25, 19:49:46
http://www.blurbusters.com/wp-content/uploads/2014/01/lag-csgo.png
http://www.blurbusters.com/gsync/preview2/

Auf jedenfall bleibt der FPS-limiter dein bester Freund.

Und G-sync für unter 60fps/60hz und LightBoost/ULMB >60hz max120fps,
und für was sind die 144hz gut, dann hätten man sie gleich weg lassen können?!

Should I use G-SYNC or ULMB?

Currently, G-SYNC and ULMB is a mutually-exclusive choice – you cannot use both simultaneously (yet), since it is a huge engineering challenge to combine the two.

G-SYNC: Eliminates stutters, tearing and reduces lag, but not motion blur.
LightBoost/ULMB: Eliminates motion blur, but not stutters or tearing.

Motion blur eliminating strobe backlights (LightBoost or ULMB) always looks best when strobe rate matches frame rate. Such strobe backlights tend to run at high refresh rates only, in order to avoid flicker (to avoid eyestrain-inducing 60Hz style CRT flicker).

We found that G-SYNC looked nicer at the low frame rates experienced in both Battlefield 4 and Crysis 3, while ULMB looked very nice during Counter Strike: GO. We did not yet do extensive tests on input lag, but preliminary checks shows that ULMB adds only approximately 4ms (center/average) input lag compared to VSYNC OFF or good frame-capped G-SYNC. If you do, however, use ULMB, and you prefer not to fully lock the frame rate to refresh rate, then using a close frame rate works well (e.g. fps_max 118) as a latency compromise, if you prefer the motion clarity of ULMB.

It is a personal preference whether to use G-SYNC or ULMB. As a rule of thumb:

G-SYNC: Enhances motion quality of lower & stuttery frame rates.
LightBoost/ULMB: Enhances motion quality of higher & consistent frame rates.

robbitop
2014-07-25, 22:48:04
4fighting hat wie Miaminice bei Alternate bestellt. Die hatten schon Monitore auf Lager, durften aber noch nicht versenden. Dann hat ASUS wegen Beschwerden die Versandsperre aufgehoben. Dadurch waren die Dinger ratz fatz weg.

Ich habe heute ein paar Händler angerufen. Die Aussage war praktisch immer: Lieferdatum noch unbekannt.

MiamiNice
2014-07-25, 23:34:25
Ich finde das Teil btw. Top. Die 144hz merkt man in jedem Spiel direkt wenn man, wie ich, von einem 60hz Modell kommt. Das Bild ist unglaublich "ruhig" und die Bewegungen smooth. Dabei habe ich bisher die Overdrive Funktion noch gar nicht genutzt. G-Sync kann ich irgendwie schlecht bewerten. Ich habe in Elite Dangerous teilweise FPS Sprüge von 2XX auf 50 und das bemerkte man am alten Moni direkt. Auf dem Asus bilde ich mir ein das dies nicht spürbar ist. Ich glaube ich bin noch von den 144hz überreizt.

Die Verpackung, die Details (wie z.b. der LED Ring am Boden des Ständers, der je nach Betriebsmode in vers. Farben leuchtet) kommen sehr edel rüber. Der Monitor an sich fasst sich trotz viel Plastik ziemlich wertig an. Allerdings sind so ziemlich alle Anschlüsse schlecht zu erreichen. Mal eben USB einstecken ist imho nicht. Das Panel lässt sich in alle Richtungen beachtlich weit schwenken, imho aber ein wenig zu leicht. Viele Optionen sind im OSD nicht vorhanden, allerdings ist es aufgeräumt und leicht zu bedienen.

Bei mir wurde er direkt als G-Sync Gerät erkannt und mit 144hz eingerichtet. V-Sync kann ich im Treiber nicht mehr verstellen, steht nun fett G-Sync drin.

Aktuell bin ich noch mit der Farbe am knobeln, ich mag es eher ein wenig farbintensiver. Die Farben sind ziemlich kalt und strahlen nicht :biggrin:

Kartenlehrling
2014-07-26, 00:31:57
Die ersten Test die ich jetzt gelesen habe sind es einfach zuviele Sachen die man beachten, einstellen und Abwegen muss was besser ist.
Wieso geht nicht einfach 2x Schalter am Monitor umlegen und alles läuft 100% besser?

N0Thing
2014-07-26, 01:22:41
Weil das dann schon von Hersteller erledigt worden wäre. ;)

Ex3cut3r
2014-07-26, 01:49:03
Ist das nicht wie bei den Prozessoren? Das jedes Panel/Monitor anders sein kann, was die Kalibierung angeht z.B. ? :D

Kartenlehrling
2014-07-26, 02:11:01
Was hat das mit Kalibrieren zu tun?
Oder glaubst du wirklich wenn Du dir 5 Monitor nach Hause bestellst das da einer bei ist der weniger Input Lag hat bei >120fps ?

john carmack
2014-07-26, 09:44:37
Hat mal jemand Downsampling auf einem 4k ausprobiert? :D

4Fighting
2014-07-26, 10:00:52
sooo...Moni liegt in der Postfiliale bereit :)

Mal abholen :o

Hat mal jemand Downsampling auf einem 4k ausprobiert?

im DS Thread gab es mal Versuche. Aber iirc ging das irgendwie überhaupt nicht

Cubitus
2014-07-26, 10:03:35
4fighting hat wie Miaminice bei Alternate bestellt. Die hatten schon Monitore auf Lager, durften aber noch nicht versenden. Dann hat ASUS wegen Beschwerden die Versandsperre aufgehoben. Dadurch waren die Dinger ratz fatz weg.

Ich habe heute ein paar Händler angerufen. Die Aussage war praktisch immer: Lieferdatum noch unbekannt.

Also wenn du auf G-Sync verzichten kannst.
Dann kann ich dir diesen TFT ans Herz legen.

ASUS VG278HE, 27

Ist zwar schon ein wenig älter, aber kann auch ohne Probleme 1440p via DS@120hz und eben 4K@60Hz.

Ansonsten 1080p@144Hz, 3DVision tauglich ist dieser auch.

Und kostet 349 Euro

http://geizhals.at/de/asus-vg278he-90lme6001t510n1c-a807004.html

Tesseract
2014-07-26, 12:34:01
Ist zwar schon ein wenig älter, aber kann auch ohne Probleme 1440p via DS@120hz und eben 4K@60Hz.

mit einer tatsächlichen pixeldichte aus dem jahr 1995. ganz großes kino. :rolleyes:

robbitop
2014-07-26, 12:48:22
Eben. Kein G-Sync und kein 1440p. Das waren die Kernpunkte für den ROG SWIFT. Der wird gekauft. Jetzt muss das Ding nur noch irgendwo mal verfügbar sein. :(

Cubitus
2014-07-26, 13:42:40
=)mit einer tatsächlichen pixeldichte aus dem jahr 1995. ganz großes kino. :rolleyes:

Zumindest kenne ich den Unterschied zwischen Theorie und Praxis ;)

Eben. Kein G-Sync und kein 1440p. Das waren die Kernpunkte für den ROG SWIFT. Der wird gekauft. Jetzt muss das Ding nur noch irgendwo mal verfügbar sein.


Imo wird Gsync überbewertet.. Aber gut muss jeder für sich selbst wissen.. Zudem 800 Euro für einen TN, dafuq: Aber schöne(re) Farben werden auch immer wieder überbewertet..Von dem her was solls, braucht man beim Spielen eh nicht. Hauptsache der Bildfluss ist schön glatt.. :crazy:
Wenn ich so viel Kohle ausgeben würde, dann 21:9 IPS mit nativen 4K, definitiv. Seit den letzten Treiber Updates wird dieses Format ohne Probleme unterstützt.

TurricanM3
2014-07-26, 13:45:26
Der ROG Swift klingt wirklich gut. Ich bin aber zu geizig die UVP dafür hinzublättern. :redface:

Würde mich mal interessieren ob hier jemand BF4 mit VSync gezockt hat und nun was zum direkten Unterschied zu GSync sagen kann. Ich hab ein FPS-Limit von 118 mit VSync und selbst bei 115 fühlt es sich manchmal schon richtig schlecht an. :/

mit einer tatsächlichen pixeldichte aus dem jahr 1995. ganz großes kino. :rolleyes:


Stört nicht jeden. :smile:

Tesseract
2014-07-26, 13:54:55
Zumindest kenne ich den Unterschied zwischen Theorie und Praxis ;)
die pixeldichte ist sowohl in der theorie als auch in der praxis totaler mist und ich behaupte die meisten leute mit solchen monitoren haben den unterschied in der praxis noch nie gesehen sonst würden sie sich dieses zeug nicht dauernd schön reden. ganz besonders mit downsampling macht das ja mal überhaupt keinen sinn - die leistung von höheren auflösungen zu verbraten und dann vor einem verpixelten fliegengitter zu sitzen. die CRTs von 1995 waren wenigstens so unscharf, dass einem der pixelraster nicht die augen zerfressen hat.

ich kenne privat auch ein paar leute die die unterschiede "nicht sehen" bis sie sie dann wirklich mal gesehen haben.

Imo wird Gsync überbewertet..
gsync als proprietäre implementierung oder variable vblank allgemein? letzteres ist für spieler ohne frage die wichtigste erneuerung der letzten 10+ jahre.

Stört nicht jeden. :smile:
diejenigen, an die die empfehlung gerichtet war offensichtlich schon.

Nightspider
2014-07-26, 14:13:19
Und die anderen Entwicklungen im Monitorbereich von 1280*1024 zu 2560*1440 oder gar 3840*2160 sowie der Sprung von 60 zu 144Hz sind für dich unwichtiger als G-Sync? lol

Zumal der Vorteil von G-Sync bei 144Hz eh relativ gering ist imo. Schließlich haben viele Spieler eh keine Probleme mit Tearing.
In wenigen Jahren gibts OLED-Gamer-Monitore. Gibt genug andere bedeutende Entwicklungen neben G-Sync. (144Hz, Black Frame Insertion, 4K, 3D, MultiMonitorSetups,OLED)

Ich würde sogar auf G-Sync verzichten solange ich alle anderen Features habe)

MiamiNice
2014-07-26, 14:13:41
Irgendwie finde ich, zumindest in Elite : Dangerous, ULMB besser als G-Sync. Durch den Helligkeitsverlust wird das schwarz des Weltraums wesentlich besser und im Asteroidenfeld macht ULMB echt was her. Viele Ecken/Kanten die sich schnell bewegen sind echt ein Fest für das Auge.

Tesseract
2014-07-26, 14:33:31
Und die anderen Entwicklungen im Monitorbereich von 1280*1024 zu 2560*1440 oder gar 3840*2160 sowie der Sprung von 60 zu 144Hz sind für dich unwichtiger als G-Sync? lol

auflösungen weit jenseits von 1280*1024 und refresh rates über 60 gibt es schon länger als 10 jahre, variable vblank hingegen löst ein seit jahrzehnten bestehendes problem.

TurricanM3
2014-07-26, 14:43:09
Wo genau liegt eigentlich der Unterschied zwischen Lightboost und ULMB? Ich hab LB mal getestet, aber ehrlich gesagt waren die Vorteile eher gering.

Nightspider
2014-07-26, 14:43:38
:rolleyes:

Nur das damals die besten und teuersten Röhren gerade mal bei rund 2K Auflösung lagen mit meist niedrigeren Refreshraten als 100Hz und wie heute bei die vierfache Auflösung haben, bei optional deutlich größeren und/oder breiteren Bildflächen und sich jeder heutzutage hohe Auflösungen leisten kann bei niedrigem Stromverbrauch.

Und TFTs gab es vor 10 Jahren keine mit hohen Hz zahlen im Endkundenmarkt.

G-Sync wird eh nur ein kurzes Leben haben im Vergleich zu Freesync.

Tesseract
2014-07-26, 14:52:27
Nur das damals die besten und teuersten Röhren gerade mal bei rund 2K Auflösung lagen mit meist niedrigeren Refreshraten als 100Hz und wie heute bei die vierfache Auflösung haben, bei optional deutlich größeren und/oder breiteren Bildflächen und sich jeder heutzutage hohe Auflösungen leisten kann bei niedrigem Stromverbrauch.

dafür haben sie einen echten pulsierenden bildaufbau und nicht nur eine approximation wie lightboost und nach wie vor deutlich bessere schaltzeiten. ein CRT braucht keine 144Hz um einen TFT mit 144Hz bei der bewegungsdarstellung zu schlagen, da tun es wohl auch 85Hz.
außerdem gibt es die features die du aufführst bisher nichtmal auf den "teuersten und besten" TFTs gemeinsam.

Nightspider
2014-07-26, 14:56:42
Und? das macht jetzt G-Sync zur besten Entwicklung seit 10 Jahren? :ugly:

Hast du also noch einen CRT Monitor und hast nur auf G-Sync gewartet? ;D

Auf deinem alten CRT dürftest du ja nicht mehr viel sehen dank des Einbrenns - noch so ein toller Vorteil von CRT. ;D

Tesseract
2014-07-26, 14:59:53
Und? das macht jetzt G-Sync zur besten Entwicklung seit 10 Jahren? :ugly:
was hast du immer mit gsync? ich rede von variabler vblank allgemein, ob das gsync, der DP-standard oder eine andere implementierung ist, ist total nebensächlich und wenn sich eines davon mal durchsetzt wird es nichtmehr verschwinden, selbst wenn schon lange keine TFTs mehr produziert werden.

Hast du also noch einen CRT Monitor und hast nur auf G-Sync gewartet? ;D
nein, ich habe keinen CRT mehr (bzw. haben schon, aber nicht im einsatz), hatte ihn allerdings noch lange nach dem aufkommen der ersten TFTs im einsatz und ärgere mich seit jahren über die schwächen der TFTs. das synchonisationsproblem war mir allerdings schon zu CRT-zeiten ein dorn um auge.

Kartenlehrling
2014-07-26, 15:35:40
Ich glaube sogar das 60hz reicht mit Adaptive-Sync (AMD FreeSync) auf DP1.2a, unter 60hz finde ich das Adaptive-Sync wichtiger, als auf 120Hz Monitore.
Ich hoffe nur das diese AMD freesync auch mit Ultra Low Motion Blur funktioniert.

MiamiNice
2014-07-26, 15:38:51
Wo genau liegt eigentlich der Unterschied zwischen Lightboost und ULMB? Ich hab LB mal getestet, aber ehrlich gesagt waren die Vorteile eher gering.

Ist imho das selbe.

:rolleyes:

G-Sync wird eh nur ein kurzes Leben haben im Vergleich zu Freesync.

Du meinst wie z.b. Mantle? Ich denke so lange Free Snyc nicht standardmässig in jedem Monitor ist, wird es G-Sync geben. Bei den Enthusiasten vielleicht sogar noch ein wenig länger. Ganz im Gegensatz zu z.b. Mantle :wink:
Mal wieder ein AMD Seitenhieb, was hab ich das vermisst. Sorry :biggrin:

Cubitus
2014-07-26, 15:59:46
die pixeldichte ist sowohl in der theorie als auch in der praxis totaler mist und ich behaupte die meisten leute mit solchen monitoren haben den unterschied in der praxis noch nie gesehen sonst würden sie sich dieses zeug nicht dauernd schön reden. ganz besonders mit downsampling macht das ja mal überhaupt keinen sinn - die leistung von höheren auflösungen zu verbraten und dann vor einem verpixelten fliegengitter zu sitzen.

Es sind Unterschiede zwischen nativ und DS erkennbar.
Im Desktop sowieso!

Allerdings, beim Spielen kann ein DS-Auflösung von 1440p auf einem 1080p@27 Zöller eine günstige Alternative sein.
Zudem ist der Sitz-Abstand zum TFT wichtig. Bei üblichem Abstand ist es schwer das "Fliegengitter" auszumachen. Man klebt ja keine 10 bis 20 cm vor einem 27 Zoll TFT!
Also sooo dramatisch wie du es darstellt ist es gewiss nicht.

gsync als proprietäre implementierung oder variable vblank allgemein? letzteres ist für spieler ohne frage die wichtigste erneuerung der letzten 10+ jahre.

Vblank an sich ist geil, aber Gsync mir zu kompromiss-behaftet.

1. da proprietär
2. finde ich es schade das nur die darstellungs-ärmeren TN Panels diese Geschwindigkeit aufbringen können. Aber das ist atm wohl nicht anders lösbar.


diejenigen, an die die empfehlung gerichtet war offensichtlich schon.

Ja gut, ist wohl so.

Tesseract
2014-07-26, 16:15:13
beim Spielen kann ein DS-Auflösung von 1440p auf einem 1080p@27 Zöller eine günstige Alternative sein.
aber wirklich nicht. native 1440p ist mit downsampling nicht im geringsten vergleichbar, verlangt aber ebenso viel leistung. man braucht dicke hardware, am ende bleibt von der qualität aber ein großer teil auf der strecke. außerdem sehe ich das fliegengitter auch auf 1440p bei ~1m sitzabstand deutlich. ganz ehrlich: wer das "nicht sieht", sieht auch kein downsampling. außerdem geht es nicht nur um das fliegengitter sondern auch um den wesentlich geringeren detailgrad.

Aber das ist atm wohl nicht anders lösbar.
klar ist es das, hat bisher nur niemand gebaut weil "gamer" und "grafiker" in den augen der hersteller scheinbar sich nicht überdeckende zielgruppen sind.

dargo
2014-07-26, 17:18:41
In wenigen Jahren gibts OLED-Gamer-Monitore.
Sorry, aber das lese ich von dir schon seit 2-3 Jahren. Nichts weiter als feuchte Träume.

Nightspider
2014-07-26, 17:27:11
Und von dir liest man an jeden Tag wie scheiße BF4 ist und trotzdem spielst du es jeden Tag.

Es gibt mittlerweile Tablets mit 10,5 Zoll OLEDs und OLED Fernseher zwischen 55 und bald 70 Zoll. 55 Zoll OLED Fernseher gibt es jetzt schon für 3500 Euro und die Preise fallen weiter.
Es spricht nichts dagegen das es bald OLEDs für den PC gibt.

Wenn du das als feuchte Träume bezeichnest musst du schon ziemlich beschränkte Vorstellungskraft haben.

Und wenn es nächstes Jahr die ersten OLED Monitore gibt habe ich recht gehabt, wenn ich das vor 1-2 Jahren behauptet habe.

dargo
2014-07-26, 17:33:28
Und von dir liest man an jeden Tag wie scheiße BF4 ist und trotzdem spielst du es jeden Tag.

Zusammenhang? :uconf2:


Und wenn es nächstes Jahr die ersten OLED Monitore gibt habe ich recht gehabt, wenn ich das vor 1-2 Jahren behauptet habe.
Ja... dann bekommst du einen Keks von mir.

Kartenlehrling
2014-07-26, 17:36:48
Bei 18" sind wir,
aber ich glaube mehr als 24" werden wir in den nächsten 3-5 Jahren immernoch nicht sehen.

https://www.youtube.com/watch?v=AxbHpXE4VM0
LG arbeitet mit Hochdruck im Bereich der flexiblen Displays und erst vor Kurzem hatte man uns ein erstes 18 Zoll Display gezeigt, welches sehr biegsam und schon fast aufzurollen ist.
Bis zur Marktreife dauert es natürlich noch einige Zeit aber in einem Video zeigt uns LG nun einmal genau dieses 18 Zoll OLED-Display in Aktion.

Nightspider
2014-07-26, 18:01:54
Wir sind bei 77".
Wir brauchen keine durchsichtigen und flexiblen Panels am PC.

Man kann auch starre, gebogene Panels produzieren.

robbitop
2014-07-26, 18:16:12
Imo wird Gsync überbewertet.. Aber gut muss jeder für sich selbst wissen.. Zudem 800 Euro für einen TN, dafuq: Aber schöne(re) Farben werden auch immer wieder überbewertet..Von dem her was solls, braucht man beim Spielen eh nicht. Hauptsache der Bildfluss ist schön glatt.. :crazy:
Wenn ich so viel Kohle ausgeben würde, dann 21:9 IPS mit nativen 4K, definitiv. Seit den letzten Treiber Updates wird dieses Format ohne Probleme unterstützt.
Du brauchst mir nichts über BQ erzählen. ;)

Leider gibt es den Wunschmonitor eben nicht. 21:9 + 4K + IPS und G-Sync.

Gerade zum Spielen ist G-Sync absolut vorteilhaft. Hast du es je in Aktion gesehen? Vermutlich nicht.

Solange es obiges nicht auf dem Markt gibt, muss man eben Kompromisse schließen. Da ich gerne und vor allem Spiele, ist die Abtastung der Bilder über der Zeitachse das wichtigste Kriterium. Würde ich viel arbeiten oder Filme schauen, sähe es anders aus.

Zumal der ROG SWIFT für ein TN sehr sehr gut sein soll. Also bewerte lieber nicht Dinge, die du nicht getestet hast. ;)

was hast du immer mit gsync? ich rede von variabler vblank allgemein, ob das gsync, der DP-standard oder eine andere implementierung ist, ist total nebensächlich und wenn sich eines davon mal durchsetzt wird es nichtmehr verschwinden, selbst wenn schon lange keine TFTs mehr produziert werden.

This :up:

Kartenlehrling
2014-07-26, 18:19:43
Wir sind bei 77".



Geizhals Suchmaschine (http://geizhals.de/?o=10) sagt was anderes und bitte Monitor mit > 60hz oder 120hz "echte Herz.

Rente
2014-07-26, 18:23:13
Falsche Liste, hier findest du die Geräte die es aktuell gibt: http://geizhals.de/?cat=tvlcd&xf=3952_OLED
Vollständig ist auch die nicht.

Nightspider
2014-07-26, 18:25:09
Geizhals Suchmaschine (http://geizhals.de/?o=10) sagt was anderes und bitte Monitor mit > 60hz oder 120hz "echte Herz.

Derzeit gibt es 55 Zoll und innerhalb der nächsten 3 Monate will LG die neue Serie mit 55-77" 4K OLEDs auf den Markt bringen.

Erstmal muss Displayport 1.3 auf den Markt kommen bevor du dir 4K und 120Hz wünschen kannst.

Wir haben Ende des Jahres hochauflösende OLED Panels und nächstes Jahr gibt es Displayport 1.3

ASUS wartet zB. auch nur auf Displayport 1.3 um 4K Monitore mit 120Hz auf den Markt bringen zu können.

Tesseract
2014-07-26, 18:28:22
dass es keine OLEDs am desktop gibt hat marktwirtschaftliche, keine technischen gründe. ein kleiner teil der OLED-kapazitäten wandert in die dicksten fernseher damit die hersteller damit in den penis-charts ganz oben liegen und der rest (wohl >95% der kapazität) geht in mobile devices weil da die ausbeute und die erzielten preise pro m² am höchsten sind. TFTs am desktop werden wohl so lange standard sein, so lange die fabriken dafür noch laufen bzw. abgeschrieben sind.

Nightspider
2014-07-26, 18:36:08
Ist ja am Ende auch nur eine Preisfrage welche der beiden Technologien zu einem Zeitpunkt Standard ist.
2016 sollen sich aber kleine OLED Panels schon günstiger fertigen lassen als LCDs weil man einfach die komplett Backlight Unit weglassen kann und keinen Diffusor benötigt.

Auf LG trifft deine Aussage allerdings nicht zu denn soweit mir bekannt ist, verbaut LG noch gar keine OLED Panels in Smartphones außer im LG Flex wobei das Flex auch nur ein Versuchskaninchen ist.

Botcruscher
2014-07-26, 18:36:24
OLED soll seit 2009 2007 kommen...
Asus "wartet" wirklich. Die hängen seit Jahren an ihren 1080 Gurken. Der Minischritt Richtung 1440 kommt 2 Jahre zu spät. Zu Weihnachten ärgert sich der Käufer schwarz.

grobi
2014-07-26, 18:51:44
@robbitop

So ein ROG Swift für ca. 800€ ist ja wohl völlig überzogen. Selbst 500€ würde ich für so einen TFT nicht ausgeben.

Cubitus
2014-07-26, 18:54:13
aber wirklich nicht. native 1440p ist mit downsampling nicht im geringsten vergleichbar, verlangt aber ebenso viel leistung. man braucht dicke hardware, am ende bleibt von der qualität aber ein großer teil auf der strecke. außerdem sehe ich das fliegengitter auch auf 1440p bei ~1m sitzabstand deutlich. ganz ehrlich: wer das "nicht sieht", sieht auch kein downsampling. außerdem geht es nicht nur um das fliegengitter sondern auch um den wesentlich geringeren detailgrad.


Sag mal was für ein Vesper willst du mir eigentlich erzählen !?
Ich habe doch den direkten Vergleich nebeneinander ;(

http://abload.de/thumb/img_20140726_1829411fdjp9.jpg (http://abload.de/image.php?img=img_20140726_1829411fdjp9.jpg) http://abload.de/thumb/wddsosj27.jpg (http://abload.de/image.php?img=wddsosj27.jpg)

1 Bild 1080p Desktop, 2Bild Watch Dogs downsampled.
Und wo ist da jetzt dein Fliegengitter, ich sehe keins..
Ach ja da ist es ja

http://fliegengitter-markt.de/images/product_images/popup_images/281_0.jpg


Du brauchst mir nichts über BQ erzählen.

Leider gibt es den Wunschmonitor eben nicht. 21:9 + 4K + IPS und G-Sync.

Gerade zum Spielen ist G-Sync absolut vorteilhaft. Hast du es je in Aktion gesehen? Vermutlich nicht.

Solange es obiges nicht auf dem Markt gibt, muss man eben Kompromisse schließen. Da ich gerne und vor allem Spiele, ist die Abtastung der Bilder über der Zeitachse das wichtigste Kriterium. Würde ich viel arbeiten oder Filme schauen, sähe es anders aus.

Zumal der ROG SWIFT für ein TN sehr sehr gut sein soll. Also bewerte lieber nicht Dinge, die du nicht getestet hast.

Stell dir vor, ich habe sogar mit Frau Tatár, dieses Jahr, im Planet Reseller geschnackt..:eek: Die hatten da das Pendel Demo am start.
Aber Gsync war nur kurze Zeit Gesprächs Thema, es ging eher um Vorteile der Grid Technolgie und wir wir das im CAD Bereich bzgl Virtualiserung via Citrix einsetzen könnten.. Wie gesagt jedem das seine.. Wenn du meinst du fährst mit so nem gesyncten TN besser dann ist es eben so..

SamLombardo
2014-07-26, 20:22:21
55 Zoll OLED Fernseher gibt es jetzt schon für 3500 Euro und die Preise fallen weiter.

2.999€ lieferbar (http://geizhals.de/lg-electronics-55ea880v-a1137505.html):smile:

(del676)
2014-07-26, 20:38:04
Nur 3000€?
Naja halb so schlimm, nach spaetestens 3 Jahren braucht man dann ein neues Panel. :lol:

Nightspider
2014-07-26, 20:45:43
Man bist du lustig...

not

Die Lebensdauer ist vor allem bei den LG OLEDs sehr gut. Wenn du ihn nicht 24h am Tag laufen lässt halten die locker 10 Jahre.

(del676)
2014-07-26, 20:53:02
5000 Stunden sind gut?
Wenn man nicht laenger wie ~85minuten pro Tag fernsieht, haelt er dann auch 10 Jahre. :rolleyes:
10 Jahre .... wow was fuer ne Lebensdauer!

dargo
2014-07-26, 20:57:52
5000 Stunden sind gut?
Wenn man nicht laenger wie ~85minuten pro Tag fernsieht, haelt er dann auch 10 Jahre. :rolleyes:
10 Jahre .... wow was fuer ne Lebensdauer!
Manchmal muss ich echt den Kopf schütteln. Manche kriegen wohl schon einen Ständer wenn sie OLED hören. Wenn das mit den 5.000 Stunden stimmt ist es ein absoluter Witz und überhaupt nicht marktreif. Vorallem wenn man die Preise dazu in Relation stellt.

Nightspider
2014-07-26, 21:01:31
Wieso schreibst du so einen Müll? Es sind 25.000 Stunden angegeben.

Und 10 Jahre braucht ein TV mein Enthusiasten nicht zu halten. Da reichen schon 5 Jahre mehr als aus.

Tesseract
2014-07-26, 21:41:08
Und wo ist da jetzt dein Fliegengitter, ich sehe keins..
dann geh zum augenarzt und troll mit deinen unscharfen bildern wo anders. :rolleyes:

(del676)
2014-07-26, 22:03:39
Weil 5.000-12.000 Stunden aktueller Stand der OLED Technik ist.
Oder werden die Panele nicht mit voller Helligkeit betrieben?
Und in welcher Zeit halbiert sich die Helligkeit laut Hersteller?

Cubitus
2014-07-26, 22:31:10
dann geh zum augenarzt und troll mit deinen unscharfen bildern wo anders. :rolleyes:

Tja was soll ich machen hab keine gute Cam hier.
Zumindest besser also hier Sachen total überspitzt dar zustellen.
Und deine teilweise überhebliche Art, nur ich hab die totale Weisheit der Bildqualität inne, könnte man ebenso als trollen bezeichnen.

Sicher du kennst dich in der Thematik sehr gut aus, ich streite dir ja deine Kompetenz nicht ab, ich sag nur das du hier die Sache definitiv dramatischer darstellst als es ist.

Man sieht definitiv keine Pixel-Raster auf gewissen Abstand.
Meine Fresse bei den TVs ist es doch fast dasselbe...
Und den DS-Effekt siehst du dennoch...

Und wenn Robbitop einen Gsync panel möchte. Dann ist das auch okay.

Aber FPS-Glättung ist in meinem Augen eben nicht alles.
Deswegen fahr ich atm noch mit zwei Panel-Typen, weil es den Monitor für mich noch nicht gibt.

Ist ja nicht so das mein Asus ne lahme Krücke ist, zum Shootern nutze ich den äußerst gerne..

robbitop
2014-07-27, 01:14:38
@robbitop

So ein ROG Swift für ca. 800€ ist ja wohl völlig überzogen. Selbst 500€ würde ich für so einen TFT nicht ausgeben.
Kann ja jeder so handhaben wie er will. Mir ist es das wert.

Einen Monitor kaufe ich nicht alle Tage und der ist eben derzeit der einzige, der das kann.

klar ist der teuer - aber für mich derzeit alternativlos.

Das sinnlose Träumen von OLED + 4 K + hohe Refreshrate ist Zeitverschwendung. Darauf wartet man noch ein halbes Jahrzehnt...


Stell dir vor, ich habe sogar mit Frau Tatár, dieses Jahr, im Planet Reseller geschnackt..:eek: Die hatten da das Pendel Demo am start.
Aber Gsync war nur kurze Zeit Gesprächs Thema, es ging eher um Vorteile der Grid Technolgie und wir wir das im CAD Bereich bzgl Virtualiserung via Citrix einsetzen könnten.. Wie gesagt jedem das seine.. Wenn du meinst du fährst mit so nem gesyncten TN besser dann ist es eben so..
Oh ja CAD. Da bist du ja auch im richtigen Forum. :rolleyes:

@work brauche ich auch kein G-Sync oder A-Sync. Es geht hier im 3DCF zu 99% um 3D-Spiele als Anwendung.

BTW: kurz mal eine Pendeldemo anschauen ist nicht das gleiche wie an Spielen testen.

dann geh zum augenarzt und troll mit deinen unscharfen bildern wo anders. :rolleyes:
Also wer das bei den paar dpi, die derzeit im Monitorbereich Standard sind, nicht sieht, hat echt ein Augenproblem. Aber so kann man auch Geld sparen. :D

Mandalore
2014-07-27, 01:33:04
Also die Pixel sieht man schon definitiv bei 1440p. Es ist halt "körnig". Dem Moderator hier sollte man einen 4K monitor geben und wenn er auf 1mm Abstand immer noch keine Pixel sehen möchte dann habe ich auch ne Lösung: Einfach ausm Fenster schauen:biggrin:;D

Cubitus
2014-07-27, 02:43:02
Oh ja CAD. Da bist du ja auch im richtigen Forum. :rolleyes:

@work brauche ich auch kein G-Sync oder A-Sync. Es geht hier im 3DCF zu 99% um 3D-Spiele als Anwendung.

BTW: kurz mal eine Pendeldemo anschauen ist nicht das gleiche wie an Spielen testen.


Hast du denn schon mal mit G-Sync gespielt?
Aber weißt ich hab auf der Cebit was besseres zu tun als nach GamOrs Kram zu gucken. Sonst hätte ich mich sicherlich mehr mit dem Gsync auseinandergesetzt, darum ging es ;)

Dem Moderator hier sollte man einen 4K monitor geben und wenn er auf 1mm Abstand immer noch keine Pixel sehen möchte dann habe ich auch ne Lösung: Einfach ausm Fenster schauen.

Vermutlich sollte man Robbitop und Tesseract erstmal einen größeren Tisch kaufen...Weil so ein 27er@1440p benötigt auch eine gewisse Tiefe. Sonst gibt es das Pixel-/Fliegengittermassaker 2.0 :freak:

Im Wann kommen endlich bessere Tische auf den Markt Thread

können die beiden dann über diverse Holzarten, Lackier, Kleister und- Farbmischungen, Spaltmaße, Schraub -und Stecktypen + Ausrichtung des Tisches im Feng Shui,
oder über die glatten Eigenschaften eines 20 Jahre alten Fliesentisches sinnieren ;D

HPVD
2014-07-27, 09:03:45
...

@work brauche ich auch kein G-Sync oder A-Sync.

doch! auch @work würde G-Sync oder A-Sync mehr als Sinn machen.
Es gibt mehr als genügend große CAD Modelle die beim ständigen Drehen/Bewegen (mehrachsig mit 3D-Maus) während der Konstruktion ruckeln,
weil selbst die großen Karten das nicht bei 60fps schaffen
-denn gerade hierbei werden ja eher große/mehrere Monitore genutzt und wenn man den ganzen Tag an soetwas bastelt sind hohe Grafikqualitätseinstellungen mehr als nur nice to have...

=> im Grunde wollen Gamer und Pros damit schon ähnliche Dinge
und die Anforderungen bzgl Blickwinkel, Farbwiedergabe etc sind im Pro Bereich wahrscheinlich (noch) höher..

von daher macht es für Gamer und Pros Sinn hier mit zulesen/schreiben ;-)

robbitop
2014-07-27, 11:56:51
Hast du denn schon mal mit G-Sync gespielt?
Anno 2070. Und das war ein Unterschied wie Tag und Nacht.

Aber weißt ich hab auf der Cebit was besseres zu tun als nach GamOrs Kram zu gucken. Sonst hätte ich mich sicherlich mehr mit dem Gsync auseinandergesetzt, darum ging es ;)
Dann war es also eine sinnfreie Leeraussage.

Hier ging es um G-Sync und ich fragte, ob du es überhaupt schon mal ausprobiert hast und du entgegnest, dass dich das gar nicht interessiert. :| Also bist du gar nicht qualifiziert, G-Sync überhaupt bewerten zu können. Wäre also sinnvoll, wenn man sich zu etwas, was man nicht bewerten kann, einfach nicht äußert. Ansonsten kommt nichts sinnvolles dabei heraus.

Ich mache beruflich ebenso Entwicklung. Das hat aber mit dem 3DCF nichts zu tun. Das ist Arbeit. Im 3DCF geht es um 3D Grafik für Spiele. Es gibt genug CAD Foren. Und klar ist G-Sync oder A-Sync dafür sinnfrei. Das ist die gleiche Aussage, dass Wasser nass ist.

Aber hier geht es nicht um sowas. Also lass den Kram, wo er hingehört: in der Firma. ;) (ich nerve ja hier auch keine Leute mit Mehrkörperdynamik)



Vermutlich sollte man Robbitop und Tesseract erstmal einen größeren Tisch kaufen...Weil so ein 27er@1440p benötigt auch eine gewisse Tiefe. Sonst gibt es das Pixel-/Fliegengittermassaker 2.0 :freak:

Im Wann kommen endlich bessere Tische auf den Markt Thread

können die beiden dann über diverse Holzarten, Lackier, Kleister und- Farbmischungen, Spaltmaße, Schraub -und Stecktypen + Ausrichtung des Tisches im Feng Shui,
oder über die glatten Eigenschaften eines 20 Jahre alten Fliesentisches sinnieren ;D
:|

Pixeldichte ist ein hoch aktuelles Thema. Ist ja schön, dass dir eine geringe Pixeldichte ausreicht (Sehstärke/hoher Abstand). Aber es ist prinzipbedingt klar, dass eine höhere Pixeldichte die BQ deutlich verbessert. Wer das heute noch leugnet, kann eigentlich nur trollen.

doch! auch @work würde G-Sync oder A-Sync mehr als Sinn machen.
Es gibt mehr als genügend große CAD Modelle die beim ständigen Drehen/Bewegen (mehrachsig mit 3D-Maus) während der Konstruktion ruckeln,
weil selbst die großen Karten das nicht bei 60fps schaffen
-denn gerade hierbei werden ja eher große/mehrere Monitore genutzt und wenn man den ganzen Tag an soetwas bastelt sind hohe Grafikqualitätseinstellungen mehr als nur nice to have...

=> im Grunde wollen Gamer und Pros damit schon ähnliche Dinge
und die Anforderungen bzgl Blickwinkel, Farbwiedergabe etc sind im Pro Bereich wahrscheinlich (noch) höher..

von daher macht es für Gamer und Pros Sinn hier mit zulesen/schreiben ;-)
Sicher hat man einen gewissen Vorteil. IMO aber nicht vergleichbar wie beim Spielen. Beim Konstruieren hat man wesentlich mehr Zeit und muss keine Headshots verteilen. Also in kürzester Zeit die Maus pixelgenau treffen. So schnell konstruieren, dass man unbedingt 60 FPS braucht, tut IMO kein Mensch. Man dreht das Bild so dass man weiter modellieren kann. Aber man dreht ja nicht beim modellieren ständig.

Cubitus
2014-07-27, 12:16:43
Anno 2070. Und das war ein Unterschied wie Tag und Nacht.


Dann war es also eine sinnfreie Leeraussage.

Hier ging es um G-Sync und ich fragte, ob du es überhaupt schon mal ausprobiert hast und du entgegnest, dass dich das gar nicht interessiert. :| Also bist du gar nicht qualifiziert, G-Sync überhaupt bewerten zu können. Wäre also sinnvoll, wenn man sich zu etwas, was man nicht bewerten kann, einfach nicht äußert. Ansonsten kommt nichts sinnvolles dabei heraus.


Wie gesagt gegen geglättete Frames habe ich absolut nichts.
Ich hab halt paar Minuten live gesehen ohne Hands on.
Ich denke aber schon das es mich mehr qualifiziert, als so manch anderen User, welcher nur darüber gelesen bzw. Youtube Videos gesehen hat.

Nur eben G_Sync selbst finde ich nicht optimal, nicht wegen der Technik sondern wegen den Gegebenheiten.

Pixeldichte ist ein hoch aktuelles Thema. Ist ja schön, dass dir eine geringe Pixeldichte ausreicht (Sehstärke/hoher Abstand). Aber es ist prinzipbedingt klar, dass eine höhere Pixeldichte die BQ deutlich verbessert. Wer das heute noch leugnet, kann eigentlich nur trollen.


Ja das weiß ich schon selbst, es ging mir nur um die völlig überzogenen Ausführungen, dass ein nativer 1080p@27 ein totaler Pixelhaufen ist!
Und der DS Effekt durch die Grobkörnung nicht zur Geltung kommt, das ist so einfach nicht richtig! Da es auch dort mehrere Faktoren gibt, wie z.b den Sitzabstand, Modell-Typ, oder einzelne DS-Stufen.
Abgesehen davon kann auch ein gröberes Raster unter Umständen sogar angenehmer zum arbeiten sein ;). Also augen-schonender, sodass man gar nicht erst zum Augenarzt muss.

Zudem, vorhin habe ich auch geschrieben, wenn ich mir heute einen TFT kaufen würde, welcher zum TV, Arbeiten und Spielen eingesetzt werden sollte, also ein Allrounder, wäre es dieser:

21:9 LG 34UM95-P

Prad-Test (http://www.prad.de/new/monitore/test/2014/test-lg-34um95-p.html#Einleitung)

https://www.youtube.com/results?search_query=lg-34um95-p

dargo
2014-07-27, 12:17:32
@Tesseract

Beim Thema Fliegengitter muss man aufpassen. Neuerdings werden viele Monitore mit einer sehr rauhen Antiglare-Folie ausgeliefert. Ich durfte das 2x selbst sehen. Das ist wirklich furchtbar. Je nach Farbe springt dann einem das Pixelraster regelrecht ins Auge. Das ist dann besonders bei helleren Farben (ich glaube bei hellgrau war es am schlimmsten) schlimm. Und da ging es noch um 1920x1080 auf 24". Full-HD @27" ist mir persönlich auch zu grob, selbst mit einer perfekten Folie. Wollte nur darauf hinweisen, dass man bei der ganzen Diskussion zum Pixelraster die Folie nicht vergessen sollte. Diese hat einen erheblichen Einfluss drauf!

Disconnected
2014-07-27, 12:24:36
Um nochmal auf das 21:9-Thema zurück zu kommen: ich habe jetzt stichprobenartig mal einige Spiele in 21:9 getestet. Schaut auf den ersten Blick recht gut aus. Der größte Schritt war wohl schon damals von 4:3 auf Widescreen generell. In den meisten Fällen wird der Aspect Ratio und das FOV korrekt gesetzt. Gerade letzteres sollte man nicht unterschätzen. Waren Vert- Titel auf 16:10 nur ein Ärgernis, könnten sie auf 21:9 zur Unspielbarkeit führen. Zwar füllt 21:9 das Sichtfeld besser aus, allerdings nicht das fokussierte. Wichtige Informationen wie HUD sollten also nicht in den Ecken stehen. Auch die Diagonale sollte man nicht unterschätzen. 21:9 ist sehr breit. Wählt man eine zu niedrige Größe, sind die Monitore in der Höhe ziemlich beschnitten. Von der Höhe her sind 24" 16:10, 27" 16:9 und 34" 21:9 ziemlich ähnlich.

Cubitus
2014-07-27, 12:26:53
Um nochmal auf das 21:9-Thema zurück zu kommen: ich habe jetzt stichprobenartig mal einige Spiele in 21:9 getestet. Schaut auf den ersten Blick recht gut aus. Der größte Schritt war wohl schon damals von 4:3 auf Widescreen generell. In den meisten Fällen wird der Aspect Ratio und das FOV korrekt gesetzt. Gerade letzteres sollte man nicht unterschätzen. Waren Vert- Titel auf 16:10 nur ein Ärgernis, könnten sie auf 21:9 zur Unspielbarkeit führen. Zwar füllt 21:9 das Sichtfeld besser aus, allerdings nicht das fokussierte. Wichtige Informationen wie HUD sollten also nicht in den Ecken stehen. Auch die Diagonale sollte man nicht unterschätzen. 21:9 ist sehr breit. Wählt man eine zu niedrige Größe, sind die Monitore in der Höhe ziemlich beschnitten. Von der Höhe her sind 24" 16:10, 27" 16:9 und 34" 21:9 ziemlich ähnlich.

Ja wenn dann einen dicken 21:9 TFT ^^
Das kostet zudem richtig Leistung, unabhängig von der Auflösung. Weil eben auch mehr sichtbare "Geometrie" dargestellt werden muss.
Aber geil ist es trotzdem, denke auch zukünftig wird bei der Games Entwicklung auch darauf geachtet werden.

Welchen TFT hast du?

@Dargo
Da hast du recht, bzw. auf das Modell kommt es ebenfalls an.

Disconnected
2014-07-27, 12:33:42
Ich habe einen Dell U2711. Dem habe ich die Custom Auflösung 2560x1080 hinzugefügt. Kann gerne noch weitere Spiele testen.

Ex3cut3r
2014-07-27, 13:59:03
Also hast du auf einen ganz normalen 16:9 ein 21:9 Bild erzwungen? Wie sieht das dann bei dir aus, wird dann oben und unten ein Schwarzer Balken gesetzt?

dargo
2014-07-27, 14:09:53
Also hast du auf einen ganz normalen 16:9 ein 21:9 Bild erzwungen? Wie sieht das dann bei dir aus, wird dann oben und unten ein Schwarzer Balken gesetzt?
Klar... was sonst? Kann doch jeder selbst testen. Bei Full-HD halt einfach 1920x822 setzen.

Ex3cut3r
2014-07-27, 16:41:01
Aso, ok.

akuji13
2014-07-28, 15:19:25
Ist immer die Frage, was man will. Für mich ist in Spielen ein scharfes, schnelles und ruckelfreies Bild wichtiger als Schwarzwert und Blickwinkel.

Wenn ich Spiele mit viel dunklen Anteilen spiele, benutze ich zwangsweise meine FG2421.

Da ist mir der XL2720T zu hell und grau und der ASUS PB278Q zu langsam.

Klar kostet 4K Leistung, aber wer einmal auf einem 4K Monitor gearbeitet oder gespielt hat will nicht mehr zurück, dagegen wirkt die full-hd Möhre zu Hause einfach extrem billig und fast steinzeitlich.

Alle 4K Monis die ich bislang vor mir hatte waren steinzeitlich, es gibt nämlich mehr als die Auflösung:
Riesige lags und maximal 60Hz sind nicht modernes, eine mangelhafte Ausleuchtung ebenfalls nicht.

Anno 2070. Und das war ein Unterschied wie Tag und Nacht.

Anno habe ich nicht nicht gesehen, aber was wir getestet haben mit G-Sync war ein Traum.

Wenn sich 40 fps oder stark schwankende fps anfühlen wie konstante 80 ist das schon genial. :)

dargo
2014-07-29, 09:53:35
Ich muss nochmal was fragen denn irgendwie reizt mich der LG 34UM95-P mit 34" und 21:9 Format sehr. Im GPU-Markt herrscht momentan eh gähnende Langerweile dann könnte man paar Kröten in einen neuen Bildschirm investieren. :D

Dieser Bildschirm hat eine native Auflösung von 3440x1440. Für aktuelle GPU im Preissegment von 200-300€ eigentlich zuviel für aktuelle Spiele. Ich hatte ja schon gesagt, dass mich 29" mit 2560x1080 eher ansprechen würden. Folgende Idee... wenn die GPU-Leistung nicht reicht erstelle ich mir beim LG 34UM95-P einfach ein paar Custom-Auflösungen wie zb. 2560x1080, 2796x1200 oder 3029x1300 etc. und lasse diese dann vom Bildschirm pixelgenau skalieren (bei etwas älteren Games die nicht so gpu-lastig sind kann man dann die vollen 3440x1440 nutzen). Dann hat man zwar ein etwas kleineres Bild und schwarze Streifen links/rechts/unten/oben, dafür aber keine Interpolation, die eh immer sche... aussieht.

Jetzt folgende Frage... wieviel kleiner wäre das Bild beim LG 34UM95-P wenn ich mit 2560x1080 spiele im Vergleich zum 29" 21:9 Bildschirm mit einer nativen Auflösung von 2560x1080? Kleiner muss es wohl sein da die Pixeldichte beim LG 34UM95-P höher ist. Der Pixelabstand beim LG 34UM95-P entspricht mit 0,231mm in etwa einem 27" Bildschirm mit 2560x1440 und 0,233mm. Noch besser wäre wohl der LG 29UM95 (29", 21:9 und 3440x1440) mit ~0,200 Pixelabstand. Nur wenn ich hier bei 29" 2560x1080 nutze dann wird das Bild wohl schon zu klein für meinen Geschmack sein.

Für den LG 34UM95-P spricht der Pradtest. Bei sehr gut kann man wohl nicht viel falsch machen. Was mich noch etwas stört ist der recht hohe Preis von ~800€. Und keinen höhenverstellbaren Fuss (gibt nur zwei Höhen beim LG) finde ich in dieser Preisklasse auch doof. Auf diese Ergonomie möchte ich eigentlich nicht verzichten.

4Fighting
2014-07-29, 09:59:36
Es gibt von Linus ein brauchbares Review von den Monitor auf youtube. Dort zeigt er auch kurz Grid mit 2560x1080p auf dem Monitor...Vielleicht hilft dir das ja schon mal.

Mr.Magic
2014-07-29, 10:39:40
Und keinen höhenverstellbaren Fuss (gibt nur zwei Höhen beim LG) finde ich in dieser Preisklasse auch doof. Auf diese Ergonomie möchte ich eigentlich nicht verzichten.

http://geizhals.de/aoc-u3477pqu-a1140422.html

robbitop
2014-07-29, 10:42:18
Ich muss nochmal was fragen denn irgendwie reizt mich der LG 34UM95-P mit 34" und 21:9 Format sehr. Im GPU-Markt herrscht momentan eh gähnende Langerweile dann könnte man paar Kröten in einen neuen Bildschirm investieren. :D

Dieser Bildschirm hat eine native Auflösung von 3440x1440. Für aktuelle GPU im Preissegment von 200-300€ eigentlich zuviel für aktuelle Spiele. Ich hatte ja schon gesagt, dass mich 29" mit 2560x1080 eher ansprechen würden. Folgende Idee... wenn die GPU-Leistung nicht reicht erstelle ich mir beim LG 34UM95-P einfach ein paar Custom-Auflösungen wie zb. 2560x1080, 2796x1200 oder 3029x1300 etc. und lasse diese dann vom Bildschirm pixelgenau skalieren (bei etwas älteren Games die nicht so gpu-lastig sind kann man dann die vollen 3440x1440 nutzen). Dann hat man zwar ein etwas kleineres Bild und schwarze Streifen links/rechts/unten/oben, dafür aber keine Interpolation, die eh immer sche... aussieht.

Jetzt folgende Frage... wieviel kleiner wäre das Bild beim LG 34UM95-P wenn ich mit 2560x1080 spiele im Vergleich zum 29" 21:9 Bildschirm mit einer nativen Auflösung von 2560x1080? Kleiner muss es wohl sein da die Pixeldichte beim LG 34UM95-P höher ist. Der Pixelabstand beim LG 34UM95-P entspricht mit 0,231mm in etwa einem 27" Bildschirm mit 2560x1440 und 0,233mm. Noch besser wäre wohl der LG 29UM95 (29", 21:9 und 3440x1440) mit ~0,200 Pixelabstand. Nur wenn ich hier bei 29" 2560x1080 nutze dann wird das Bild wohl schon zu klein für meinen Geschmack sein.

Für den LG 34UM95-P spricht der Pradtest. Bei sehr gut kann man wohl nicht viel falsch machen. Was mich noch etwas stört ist der recht hohe Preis von ~800€. Und keinen höhenverstellbaren Fuss (gibt nur zwei Höhen beim LG) finde ich in dieser Preisklasse auch doof. Auf diese Ergonomie möchte ich eigentlich nicht verzichten.

Angeblich soll Crossfire aktuell so gut laufen wie noch nie. Vieleicht auch einfach billig eine zweite Tahiti aus dem Marktplatz kaufen und sich über die hohe Auflösung freuen?

Wenn das Ding noch G-Sync/A-Sync hätte, wäre ich auch ernsthaft am Überlegen. Aber 60 Hz ohne alles? Meh...

dargo
2014-07-29, 10:58:58
http://geizhals.de/aoc-u3477pqu-a1140422.html
Habe ich schon gesehen. Der wäre genau richtig. Leider aber noch kein Pradtest oder? Das Panel ist identisch, die Elektronik aber wohl kaum. Deshalb weiß ich nicht ob der genau so gut wie der LG ist.

Angeblich soll Crossfire aktuell so gut laufen wie noch nie. Vieleicht auch einfach billig eine zweite Tahiti aus dem Marktplatz kaufen und sich über die hohe Auflösung freuen?

Nee... CF/SLI kommt mir nicht in den Rechner. Keine Lust auf Gefrickel, Abhängigkeit vom IHV was Profile angeht und die deutlich höhere Hitzentwicklung, ergo höhere Lautstärke. Nächstes Jahr kommt eh eine neue Graka rein. Wird wohl Fiji (R9 300 non X) werden. Hoffentlich schafft es die endlich Faktor 2 von Tahiti zu liefern. :rolleyes:


Wenn das Ding noch G-Sync/A-Sync hätte, wäre ich auch ernsthaft am Überlegen. Aber 60 Hz ohne alles? Meh...
Irgendeinen Tod stirbt man beim LCD immer. :usad: Ich fänds schon recht gut wenn die Dinger wenigstens 100Hz hätten bei ~800€.

robbitop
2014-07-29, 11:12:21
Irgendeinen Tod stirbt man beim LCD immer. :usad: Ich fänds schon recht gut wenn die Dinger wenigstens 100Hz hätten bei ~800€.
Am besten 144 Hz. Dann wäre G-Sync/A-Sync auch nicht so dringend. Aber das machen wohl weder Panel noch DP1.2 mit bei der Auflösung.
G-Sync hingegen könnten sie verbauen. Das ist verfügbar und technisch möglich.

dargo
2014-07-29, 11:23:11
Am besten 144 Hz. Dann wäre G-Sync/A-Sync auch nicht so dringend. Aber das machen wohl weder Panel noch DP1.2 mit bei der Auflösung.
G-Sync hingegen könnten sie verbauen. Das ist verfügbar und technisch möglich.
G-Sync geht mir am allerwertesten vorbei. Ich will nicht von Nvidia abhängig sein. Zum Glück bin ich nicht so allergisch auf Tearing. Jedenfalls nicht bei hohen Bildraten. Am schlimmsten finde ich Tearing wenn man genau bei der Bildchirmfrequenz oder knapp drüber/drunter ist. Da stört es mich auch. Aber so spiele ich nicht.

robbitop
2014-07-29, 11:38:06
G-Sync geht mir am allerwertesten vorbei. Ich will nicht von Nvidia abhängig sein. Zum Glück bin ich nicht so allergisch auf Tearing. Jedenfalls nicht bei hohen Bildraten. Am schlimmsten finde ich Tearing wenn man genau bei der Bildchirmfrequenz oder knapp drüber/drunter ist. Da stört es mich auch. Aber so spiele ich nicht.
A-Sync ist ja leider noch nicht fertig. Finde ich auch besser, da offener Standard.

A-Sync/G-Sync hilft ja nicht nur gegen Tearing. Wenn es nur das wäre. Es macht weniger fps auch deutlich smoother. Das ist IMO ein Killerfeature für A-Sync/G-Sync.

dargo
2014-07-29, 12:05:28
A-Sync ist ja leider noch nicht fertig. Finde ich auch besser, da offener Standard.

A-Sync/G-Sync hilft ja nicht nur gegen Tearing. Wenn es nur das wäre. Es macht weniger fps auch deutlich smoother. Das ist IMO ein Killerfeature für A-Sync/G-Sync.
Schon klar. Nur wie gesagt stören mich 2 Sachen an G-Sync.

1. Abhängigkeit von NV.
2. Momentan nur TN.

Beides ein nogo für mich. Ich behalte jedenfalls den 34 Zöller 21:9 im Auge. Bis Ende des Jahres wird der vielleicht noch auf ~600€ fallen. Immerhin wollte LG am Anfang knapp 1000€ für. Es fehlt bei dem 34-er noch etwas an Konkurrenz. Bisher nur zwei Bildschirme... AOC (noch nicht mal lieferbar) und LG. Das sieht bei den 29-ern besser aus. Sollte sich A-Sync in paar Jahren durchsetzen kann man den Bildschirm immer noch wechseln.

robbitop
2014-07-29, 12:09:31
A-Sync/G-Sync wird mittelfristig sicher auch für alle anderen Paneltypen kommen.

Leider ist das alles immer ein Kompromiss.

Wenn ich mir vorstelle, wie genial so ein Monitor wäre, wenn bestimmte Technologien schon serienreif wären.

4K+144Hz (dank DP1.3) und OLED und A/G-Sync auf einem 21:9 Format. Dann hätte man Blickwinkel, Kontrast und Schaltzeiten endlich vereint. Allerdings dann wohl kombiniert mit häßlichem Nachleuchten...

dargo
2014-07-29, 12:20:50
Ist für A-Sync (wieso eigentlich A? sollte es nicht eher Free-Sync heißen?) eigentlich DP1.3 Voraussetzung oder reicht schon DP1.2 aus?

robbitop
2014-07-29, 12:23:15
Ist für A-Sync (wieso eigentlich A? sollte es nicht eher Free-Sync heißen?) eigentlich DP1.3 Voraussetzung oder reicht schon DP1.2 aus?
AMD hat es zuerst FreeSync genannt. Es ist dann in den VESA Standard DP1.2a und höher geflossen. Die VESA nennt es "Adaptive Sync". Das ist der offizielle Begriff des offenen Standards.
Es ist aber leider optional.

fondness
2014-07-29, 13:03:36
Angeblich soll Crossfire aktuell so gut laufen wie noch nie. Vieleicht auch einfach billig eine zweite Tahiti aus dem Marktplatz kaufen und sich über die hohe Auflösung freuen?


Aufpassen, die guten Frametimes sind zu erheblichen Teilen der XDMA-Engine der Hawaii-GPUs geschuldet, bei Tahiti mit der Brücke kann es da schon anders aussehen.

robbitop
2014-07-29, 13:12:06
Dann: billig 2x 290er kaufen. :up:
Aber MultiGPU ist nicht für jeden.

Kartenlehrling
2014-07-29, 13:19:18
Ist für A-Sync (wieso eigentlich A? sollte es nicht eher Free-Sync heißen?) eigentlich DP1.3 Voraussetzung oder reicht schon DP1.2 aus?


Diese zwei Dell musste mit DP1.2a FreeSync bzw. AdaptiveSync können, es fehlt nur die Treiberunterstütztung von AMD.

http://geizhals.de/?cmp=1117038&cmp=1117041#xf_top
Dell UltraSharp UZ2315H, 23.5" Dell UltraSharp UZ2715H, 27

fondness
2014-07-29, 13:21:39
Nur weil Dp1.2a unterstützt wird heißt das noch lange nicht das auch FreeSync-Support vorhanden ist.

Kartenlehrling
2014-07-29, 13:42:40
Es muss ein Scaler verbaut sein,
da mit wiedergabe von table und smartphones über MHL geworben wird denke ich das ein Scaliere auch verbaut ist, aber mit DP1.2a wurde das ja in die Vesa Richtlinien verankert.
Ich denke nicht das Dell ohne Grund mit DP1.2a auf ihre Seite wirbt.


Monitore, die dem neuen DisplayPort-Standard 1.2a entsprechen, müssen wie bei G-Sync über einen Frequenzteiler (Scaler) verfügen,
der in Bezug auf die Bildwiederholraten anpassungsfähig ist („adaptive refresh-aware“).
Der Standard kann von VESA-Mitgliedern ohne kostenpflichtige Lizenz eingesetzt werden. Zukünftig soll ein Logo Modelle mit Adaptive Sync kennzeichnen.
DisplayPort-1.2a-Monitore können Adaptive Sync nutzen, müssen es aber nicht.
http://www.computerbase.de/2014-05/adaptive-sync-vesa-displayport-1.2a-amd-freesync/

robbitop
2014-07-29, 13:47:54
A-Sync ist AFAIK optional.

akuji13
2014-07-29, 13:53:55
Es macht weniger fps auch deutlich smoother. Das ist IMO ein Killerfeature für A-Sync/G-Sync.

Und das muss man live gesehen haben um es richtig beurteilen zu können. :)
(Also ob es das einem Wert ist oder nicht)


1. Abhängigkeit von NV.

Verstehen kann ich das, keine Bindung ist immer besser als irgendeine Bindung.

Allerdings muss ich immer auch schmunzeln wenn die Masse der Leute das Argument bringen.
(Freaks wie wir es sind mal außen vor gelassen)

Denn wie groß ist die Abhängigkeit wirklich? Wie oft werden GPU und Monitor gewechselt?

In meinem Umfeld werden die Grafikkarten (respektive die Rechner ansich) im Schnitt 4-5 Jahre verwendet, bei einer Monitorlaufzeit von 10 Jahren wäre man da 2x an NV gebunden.

Wenn es denn 10 Jahre wären...denn die Monitore werden nach ca. 5-6 Jahren ausgemustert z. B. aufgrund der Größe.

Theoretisch übrigens 2x mit den Karten, denn die Chance das NV in einer kommenden Generation es mal wieder schafft ein runderes Produkt zu bringen (was man dann sowieso gekauft gekauft hätte) ist ja auch nicht völlig abwegig.

Und zu guter Letzt ist der ASUS auch ohne G-Sync ja nicht der allerschlechteste Monitor.

Nightspider
2014-07-29, 14:46:21
10 Jahre? Lol, nicht mal im Traum.

Monitor höchstens 5 Jahre und Grafikkarten mindestens mit jeder neuen Generation.

akuji13
2014-07-29, 15:05:19
Bei dir/uns vieleicht, wir sind aber auch nicht die Masse. ;)
(Außerdem schrieb ich bei Monis ja auch 5-6 Jahre.)

Allerdings legt die Masse auch keinen Wert auf G-Sync oder Alternativen. :D

dargo
2014-07-29, 15:24:23
Verstehen kann ich das, keine Bindung ist immer besser als irgendeine Bindung.

Allerdings muss ich immer auch schmunzeln wenn die Masse der Leute das Argument bringen.
(Freaks wie wir es sind mal außen vor gelassen)

Denn wie groß ist die Abhängigkeit wirklich? Wie oft werden GPU und Monitor gewechselt?

Also ich kann jetzt nur von mir sprechen.

Grafikkarte wird dann gewechselt wenn die Leistung in etwa verdoppelt wird (aber auch nicht um jeden Preis). Das ist früher natürlich deutlich öfter passiert als heute. Heute musst du da schon mit ~3 Jahren rechnen, leider. :( Ein Bildschirm hält bei mir ewig wenn er auf ganzer Linie überzeugt. Warum sollte ich auch einen Bildschirm wechseln wenn für mich alles passt? Das macht nun wirklich keinen Sinn.

btw.
Ich habe gerade Assetto Corsa mit 1920x822 probiert. Das macht im Cockpit schon was her. =) Der linke Außenspiegel ist quasi bei jedem Fahrzeug komplett zu sehen + zusätzlich noch ein Stück der Strecke. Also mein nächster Bildschirm wird wohl definitiv ein 21:9-er sein. Was mich allerdings völlig überrascht, dass BF4 mit 21:9 nicht zurecht kommt. :confused: Anstatt schwarze Streifen oben und unten habe ich die nun links und rechts. :| Das Bild ist völlig gestaucht.

akuji13
2014-07-29, 15:30:15
Ein Bildschirm hält bei mir ewig wenn er auf ganzer Linie überzeugt. Warum sollte ich auch einen Bildschirm wechseln wenn für mich alles passt? Das macht nun wirklich keinen Sinn.

Das wird wohl der Grund sein...mich hat noch nie ein Bildschirm völlig überzeugt. :D

OC_Burner
2014-07-29, 16:36:49
Ich muss nochmal was fragen denn irgendwie reizt mich der LG 34UM95-P mit 34" und 21:9 Format sehr. Im GPU-Markt herrscht momentan eh gähnende Langerweile dann könnte man paar Kröten in einen neuen Bildschirm investieren. :D

Dieser Bildschirm hat eine native Auflösung von 3440x1440. Für aktuelle GPU im Preissegment von 200-300€ eigentlich zuviel für aktuelle Spiele. Ich hatte ja schon gesagt, dass mich 29" mit 2560x1080 eher ansprechen würden. Folgende Idee... wenn die GPU-Leistung nicht reicht erstelle ich mir beim LG 34UM95-P einfach ein paar Custom-Auflösungen wie zb. 2560x1080, 2796x1200 oder 3029x1300 etc. und lasse diese dann vom Bildschirm pixelgenau skalieren (bei etwas älteren Games die nicht so gpu-lastig sind kann man dann die vollen 3440x1440 nutzen). Dann hat man zwar ein etwas kleineres Bild und schwarze Streifen links/rechts/unten/oben, dafür aber keine Interpolation, die eh immer sche... aussieht.

Jetzt folgende Frage... wieviel kleiner wäre das Bild beim LG 34UM95-P wenn ich mit 2560x1080 spiele im Vergleich zum 29" 21:9 Bildschirm mit einer nativen Auflösung von 2560x1080? Kleiner muss es wohl sein da die Pixeldichte beim LG 34UM95-P höher ist. Der Pixelabstand beim LG 34UM95-P entspricht mit 0,231mm in etwa einem 27" Bildschirm mit 2560x1440 und 0,233mm. Noch besser wäre wohl der LG 29UM95 (29", 21:9 und 3440x1440) mit ~0,200 Pixelabstand. Nur wenn ich hier bei 29" 2560x1080 nutze dann wird das Bild wohl schon zu klein für meinen Geschmack sein.

Für den LG 34UM95-P spricht der Pradtest. Bei sehr gut kann man wohl nicht viel falsch machen. Was mich noch etwas stört ist der recht hohe Preis von ~800€. Und keinen höhenverstellbaren Fuss (gibt nur zwei Höhen beim LG) finde ich in dieser Preisklasse auch doof. Auf diese Ergonomie möchte ich eigentlich nicht verzichten.

Es gibt doch sicherlich ein paar schicke Smartphone-Apps die dir das auf die schnelle ausrechnen können. HD or Not HD wäre da so ein Kandidat.

http://abload.de/thumb/screenshot_2014-07-29l4k8g.png (http://abload.de/image.php?img=screenshot_2014-07-29l4k8g.png)

Wenn der 34UM95-P, 34" Pixelgenau darstellen können sollte, wäre 2560x1080 von der Größe her wohl mit 25.2" vergleichbar. Mir ist aber gerade mal eben aufgefallen das die 2560x1080 oder 3440x1440 Monitore gar kein echtes 21:9 Seitenverhältniß haben sondern 64:27 respektive 43:18. Für das Marketing ziemlich doof. Da wird dann mal schnell gerundet;D Gab es für die ganzen anderen Seitenverhältnisse bis jetzt noch nicht.

SamLombardo
2014-07-29, 16:41:05
Ich war schon einen Klick vorm Bestellen, als ich gelesen hatte, das beim Asus ROG Swift GSync nicht zusammen mit 3D Vision funktioniert:freak:. Da ich ausschließlich 3D Vision zocke hat sich der Kauf für mich leider erst mal erledigt;(. Hoffentlich ist das keine Hardwaresache und kann mit einem neuen NV Treiber gefixt werden!

OC_Burner
2014-07-29, 16:53:35
Das ist eine Hardwaresache und läßt sich leider nicht mal eben per Treiber ändern. Aktuell hat man die Wahl, G-Sync oder 3DVision aber nicht beides gleichzeitig. Variable Refreshraten für Shutterbrillen sind wohl machbar aber nicht ganz so einfach. Ist schonmal hier im G-Sync Thread angegangen worden.

akuji13
2014-07-29, 16:58:43
Da ich ausschließlich 3D Vision zocke hat sich der Kauf für mich leider erst mal erledigt;(.

Siehst du das wirklich?

Ich habe noch nie jemanden "getroffen" dem sync bei 3D Vision wichtig gewesen wäre.

Ex3cut3r
2014-07-29, 17:07:51
Also 800€ für ein TN Panel könnte ich nicht verantworten, selbst wenn er 240HZ bieten würde, wartet doch erstmal ab, bis ASUS seine Monopol Stellung mit 1440p + G-Sync + 144HZ verloren hat, ich bin sicher, dann wird der Preis sich auch normalisieren.

SamLombardo
2014-07-29, 17:08:09
Siehst du das wirklich?

Ich habe noch nie jemanden "getroffen" dem sync bei 3D Vision wichtig gewesen wäre.


Hm. Ich dachte gerade bei 3D könnte eine solche Technik für ein flüssigeres Spielgefühl sorgen. (Einfach wegen der generell niedrigeren fps).
Ob es wirklich eine Hardwaresache ist und nicht per Treiber behoben werden kann, darüber sind sich selbst die Freaks im Geforce Forum noch nicht wirklich einig, siehe zB dieses Posting (https://forums.geforce.com/default/topic/762021/3d-vision/rog-swift-pg278q-review-/post/4269850/#4269850). Man wird sehen:)

OC_Burner
2014-07-29, 17:17:14
Hm. Ich dachte gerade bei 3D könnte eine solche Technik für ein flüssigeres Spielgefühl sorgen. (Einfach wegen der generell niedrigeren fps).
Ob es wirklich eine Hardwaresache ist und nicht per Treiber behoben werden kann, darüber sind sich selbst die Freaks im Geforce Forum noch nicht wirklich einig, siehe zB dieses Posting (https://forums.geforce.com/default/topic/762021/3d-vision/rog-swift-pg278q-review-/post/4269850/#4269850). Man wird sehen:)

Mit 3DVision1 hätte das vielleicht noch per Treiber realisiert werden können. Aber mit 3DVision2 ist das einfach so ohne weiteres nicht möglich. Das Display schaltet doch zwischen jedem Frame die Hintergrundbeleutung komplett ab und das ist in der Firmware fest einprogrammiert. Da hat der Treiber nichts zu melden.

SamLombardo
2014-07-29, 17:23:32
Aber mit 3DVision2 ist das einfach so ohne weiteres nicht möglich. Das Display schaltet doch zwischen jedem Frame die Hintergrundbeleutung komplett ab und das ist in der Firmware fest einprogrammiert. Da hat der Treiber nichts zu melden.
Hm. Stimmt. Das kompliziert das ganze natürlich. Scheint wirklich nicht wahrscheinlich.

dargo
2014-07-29, 17:25:36
Es gibt doch sicherlich ein paar schicke Smartphone-Apps die dir das auf die schnelle ausrechnen können. HD or Not HD wäre da so ein Kanditat.

http://abload.de/thumb/screenshot_2014-07-29l4k8g.png (http://abload.de/image.php?img=screenshot_2014-07-29l4k8g.png)

Wenn der 34UM95-P, 34" Pixelgenau darstellen können sollte, wäre 2560x1080 von der Größe her wohl mit 25.2" vergleichbar.
Danke. :)

Das wäre dann doch schon einiges kleiner. Kannst du mir noch sagen welche Auflösung ich bei dem 34" LG einstellen müsste damit das Bild genau so groß ist wie bei 29" mit 2560x1080? :redface:

2944x1242 oder eher 2752x1161?

robbitop
2014-07-29, 17:36:47
Ich war schon einen Klick vorm Bestellen, als ich gelesen hatte, das beim Asus ROG Swift GSync nicht zusammen mit 3D Vision funktioniert:freak:. Da ich ausschließlich 3D Vision zocke hat sich der Kauf für mich leider erst mal erledigt;(. Hoffentlich ist das keine Hardwaresache und kann mit einem neuen NV Treiber gefixt werden!
Das geht prinzipbedingt nicht. Denk mal drüber nach, warum nicht. ;)
Kleiner Tip: es hat was mit Shutter zu tun...

OC_Burner
2014-07-29, 17:40:27
Danke. :)

Das wäre dann doch schon einiges kleiner. Kannst du mir noch sagen welche Auflösung ich bei dem 34" LG einstellen müsste damit das Bild genau so groß ist wie bei 29" mit 2560x1080? :redface:

2944x1242 oder eher 2752x1161?

2944x1242 (64:27) bzw. 2940x1260 (21:9), genähert.

SamLombardo
2014-07-29, 17:51:07
Das geht prinzipbedingt nicht. Denk mal drüber nach, warum nicht. ;)
Kleiner Tip: es hat was mit Shutter zu tun...
Bisschen von oben herab heute was:)? Nun, in der Theorie ist mir das schon klar. In der Praxis sind sich nicht mal die Freaks im NV Forum einig. Diskussion von heute:
But, the real question, the real unknown is whether the glasses can do dynamic shuttering, where the frequency changes all the time like with gsync. If they have some sort of forced timing circuit, then current tech would not match. My reading on how the glasses work suggests that it's just an IR signal for on/off, not something complicated with a timing circuit.If that's true, then there is no technical reason why it wouldn't work.

Kurz gesagt, man wird sehen.

robbitop
2014-07-29, 17:56:52
Dynamisches Shuttern ginge aber auch nur in sehr engen Grenzen, bis es flimmern würde. Die Erfahrung wäre wohl nicht angenehm. Wenn es so einfach wäre, hätte man es umgesetzt.
Das gleiche gilt für ULMB + G-Sync.

Die einzige Alternative wäre wohl das Polfilterverfahren (auf Kosten der vertikalen Auflösung).

dargo
2014-07-29, 18:02:47
2944x1242 (64:27) bzw. 2940x1260 (21:9), genähert.
Nochmal danke. :)


Mir ist aber gerade mal eben aufgefallen das die 2560x1080 oder 3440x1440 Monitore gar kein echtes 21:9 Seitenverhältniß haben sondern 64:27 respektive 43:18.

Ja... mit den angebotenen 21:9 Bildschirmen hat man im Prinzip noch etwas mehr "Wide" als bei 21:9 üblich. Ich müsste das eigentlich mit 1920x810 simulieren.

OC_Burner
2014-07-29, 18:39:25
Dynamisches Shuttern ginge aber auch nur in sehr engen Grenzen, bis es flimmern würde. Die Erfahrung wäre wohl nicht angenehm. Wenn es so einfach wäre, hätte man es umgesetzt.
Das gleiche gilt für ULMB + G-Sync.

Die einzige Alternative wäre wohl das Polfilterverfahren (auf Kosten der vertikalen Auflösung).

Exakt das und mit 4K Bildschirmen beträgt der Auflösungsverlust ja praktisch null wenn man von 1080p kommt. Hoffentlich kommt da was.:)

robbitop
2014-07-29, 19:55:05
Aber der Auflösungsverlust gegenüber 4K ist da. 4K ist endlich mal eine vernünftige Auflösung. Wenn die GUIs und die GPUs erstmal soweit sind, werden wir uns fragen, wie wir es jahrelang mit diesem grobkörnigen Mist ausgehalten haben. :D

Disconnected
2014-07-29, 20:15:02
Ich müsste das eigentlich mit 1920x810 simulieren.
1920x816 bzw. 1920x800 wäre das Bild in Cinemascope (ausgehend von Blu-ray bei Filmen, ohne Balken).

dargo
2014-07-29, 20:39:03
1920x816 bzw. 1920x800 wäre das Bild in Cinemascope (ausgehend von Blu-ray bei Filmen, ohne Balken).
Was die Bluray bietet ist irrelevant. Es geht um das Verhältnis welches die 21:9 Bildschirme liefern. Und das ist eben 2,37, ergo 1920x810.

Rente
2014-07-29, 20:44:59
Was die Bluray bietet ist irrelevant. Es geht um das Verhältnis welches die 21:9 Bildschirme liefern. Und das ist eben 2,37, ergo 1920x810.
Woran glaubst du haben sich die Hersteller bei der Entwicklung ihrer 21:9-Monitoren wohl orientiert (allen voran Philips)?
Am Format der BluRay. - Seine Ausführung ist also absolut relevant, die leichte Abweichung von 21:9 ist dem Film-Format für das Heimkino geschuldet.

dargo
2014-07-29, 20:47:30
Woran glaubst du haben sich die Hersteller bei der Entwicklung ihrer 21:9-Monitoren wohl orientiert (allen voran Philips)?
Am Format der BluRay. - Seine Ausführung ist also absolut relevant.
Nö... denn weder 1920x816 noch 1920x800 passen zu 2560x1080 oder 3440x1440.

Rente
2014-07-29, 21:05:34
Die Abweichung/Verzerrung zwischen 21:9 (2,33) und den bis zu 2,39:1 der BluRay (2,35:1 ist keine starre Festlegung) und den effektiven 2,39 der Monitore ist bei übliches Sichtabstand unter Umständen feststellbar.
Allerdings ist das auch irgendwie relativ irrelevant, die Balken bei 2,33:1 bzw. 2,35:1 sind bei den Panelgrößen unter 34'' aus meiner Sicht kaum sichtbar bei unverzerrter Ausgabe.

Außerdem bleibt man so zusätzlich in der Höhe und Breite bei relativ üblichen Werten, quasi 2 Fliegen mit einer Klappe.
2560x1097,14 und 3440x1474,29 bzw. 2520x1080 u. 3360x1440 wären irgendwie Mist, letztere würden zwar auch funktionieren, dann hätte man aber wieder oben und unten Balken bei Filmen statt links und rechts.

Um die Diskussion meinerseits mal abzuschließen, am liebsten wäre mir der aktuelle 34'' 21:9 mit 5160x2160 - 4K passt, effektiv knapp unter 2,39 und einfach mal genug Auflösung für alles (11,146 Mio).
Funktioniert nur mit DP1.2 dann wohl leider nicht mehr.

Mandalore
2014-07-30, 00:31:29
Aber der Auflösungsverlust gegenüber 4K ist da. 4K ist endlich mal eine vernünftige Auflösung. Wenn die GUIs und die GPUs erstmal soweit sind, werden wir uns fragen, wie wir es jahrelang mit diesem grobkörnigen Mist ausgehalten haben. :D


4K ist wirklich der Wahnsinn;D;D

Ich ziehe die 4K Auflösung von allen anderen Dingen vor. G-Sync, 144Hz usw. Durch die Pixeldichte schaut einfach alles so hammermäßig aus, dass man darauf nicht mehr verzichten möchte...

Ex3cut3r
2014-07-30, 01:48:32
Welchen 4K moni hast du denn?

Nightspider
2014-07-30, 10:21:22
Es gibt ja jetzt schon 4K Monitore für knapp 450 Euro.
Wenn es einen 4K Monitor gibt der 75 bis 80 Hz schafft würde ich mir nichts anderes holen.

Außer man jagt den 1.Platz bei jeder Runde in einem Shooter.

FlashBFE
2014-07-30, 10:37:10
Ja, aber die große Masse hat leider TN. Ansonsten gibt es nur zwei Nicht-TN-Panels auf dem Markt mit 32" und 24" und entsprechend wenige Monitore. Eigentlich hat auch schon LG vor längerer Zeit IPS-Panels in UHD angekündigt, es lässt aber alles auf sich warten.

Nightspider
2014-07-30, 10:42:11
Samsung wollte auch günstige 4K Monitore mit PLS Panel auf den Markt bringen.

Das macht Hoffnung das es vielleicht auch wieder 4K Korea Monitore geben wird. :D

akuji13
2014-07-30, 11:08:39
Hm. Ich dachte gerade bei 3D könnte eine solche Technik für ein flüssigeres Spielgefühl sorgen. (Einfach wegen der generell niedrigeren fps).

Das es sinnvoll wäre sehe ich genau so, ich wollte nur zum Ausdruck bringen das die Mehrheit vom 3D Effekt so "erschlagen" ist, das sie auf sync, aa, af wenig bis keinen Wert legen.

Ich ziehe die 4K Auflösung von allen anderen Dingen vor. G-Sync, 144Hz usw. Durch die Pixeldichte schaut einfach alles so hammermäßig aus, dass man darauf nicht mehr verzichten möchte...

Kann ich nicht nachvollziehen.

MMn ist die Bewegungsunschärfe das allergrößte Manko der TFTs gegenüber den CRTs.
Ok, in 4K sind die frames meist so niedrig das das eh irrelevant ist. :D

Direkt danach kommt der Schwarzwert.

Spätestens wenn ich etwas spiele wo es dunkel ist, ists Essig mit der hohen Pixeldichte, weil die in grau statt schwarz auch nicht mehr schön aussieht.

Zumal 4K auch nicht ausreicht um auf AA Modi zu verzichten, da muss schon mehr her.

Der grundsätzliche Schritt zu 4K/8K ist natürlich richtig.

derguru
2014-07-30, 11:51:16
Es gibt ja jetzt schon 4K Monitore für knapp 450 Euro.
Wenn es einen 4K Monitor gibt der 75 bis 80 Hz schafft würde ich mir nichts anderes holen.

Außer man jagt den 1.Platz bei jeder Runde in einem Shooter.

die jetzigen 4k-tn Monitore sind aber nur für nv geeignet weil amd keine 60Hz bei 4k (über dp)zum laufen kriegt.
ich hatte mal versucht mit einer nv karte aus neugier die hz-zahl zu erhöhen aber nicht mal 1 hz über 60 hat er mit gemacht.^^

HPVD
2014-07-30, 11:59:06
die jetzigen 4k-tn Monitore sind aber nur für nv geeignet weil amd keine 60Hz bei 4k zum laufen kriegt.
ich hatte mal versucht mit einer nv karte aus neugier die hz-zahl zu erhöhen aber nicht mal 1 hz über 60 hat er mit gemacht.^^

hmm -fast ;-)
4K-Monitore @60hz laufen mit AMD-Karten sogar ganz hervorragend:
und das sogar mit voller Farbtiefe...
einfach mal den Displayport probieren :-)

derguru
2014-07-30, 12:16:43
ach was^^ SST geht mit AMD nicht.

fondness
2014-07-30, 12:27:31
Das ist Blödsinn. AMD wirbt sogar damit das es besser geht als bei NV:
http://community.amd.com/community/amd-blogs/amd-gaming/blog/2014/05/05/celebrating-a-new-generation-of-ultrahd-displays

derguru
2014-07-30, 12:30:01
60Hz bei 4k ist nicht möglich bei AMD. getestet mit 7950, r9 290x und gtx780 womit es auf anhieb ging.

mal abgesehen davon liest man das überall das es nicht geht.

z.b.
http://geizhals.de/?sr=1077793,809187#7285060

ist ja gerade das lustige weil amd damit auch noch wirbt^^

fondness
2014-07-30, 12:33:25
60Hz bei 4k ist nicht möglich bei AMD. getestet mit 7950, r9 290x und gtx780 womit es auf anhieb ging.

mal abgesehen davon liest man das überall das es nicht geht.^^

z.b.
http://geizhals.de/?sr=1077793,809187#7285060

Das glaubst du doch selbst nicht, das geht definitiv (habe ich auch schon selbst mit einer 7950 getestet), ganz davon abgesehen das es dazu dutzende Tests im Netz gibt und selbst bei deinem Link x User zurück schreiben das es eben doch geht.

derguru
2014-07-30, 12:35:25
zeig mal die dutzenden user mit links.

ich kann dir aber in der zeit weitere zeigen.^^

http://www.computerbase.de/forum/showthread.php?t=1349515&p=15799770#post15799770

Annator
2014-07-30, 12:37:03
QHD mit gutem IPS/PLS Panel (wie Eizo 2736) und 120Hz in 27" würde ich sofort kaufen auch wenn der 1000€ kostet.

fondness
2014-07-30, 12:37:59
zeig mal die dutzenden user mit links.

ich kann dir aber in der zeit weitere zeigen.^^

http://www.computerbase.de/forum/showthread.php?t=1349515

Kannst du wirklich nicht selbst auf deinen Link klicken?
http://geizhals.de/?sr=1077793,809187,7302492#7302492
http://geizhals.de/?sr=1077793,809187,7289018#7289018
http://geizhals.de/?sr=1077793,809187,7287026#7287026

Mag sein das es mit diesem Monitor warum auch immer Probleme gibt, aber generell ist das sicher nicht so. Ganz davon abgesehen das sich dort auch ein Geforce-User mit den selben Problemen meldet.

akuji13
2014-07-30, 12:40:26
@Annator

Was heißt gut?
Die üblichen IPS Probleme hat auch der.

@4K@AMD

Bestimmte Kombinationen machen Probleme.

Das könnte aber auch an den Monis liegen.

4Fighting
2014-07-30, 12:42:09
QHD mit gutem IPS/PLS Panel (wie Eizo 2736) und 120Hz in 27" würde ich sofort kaufen auch wenn der 1000€ kostet.

Sollten doch die Overlords für knappe 400 EUR können oder?

derguru
2014-07-30, 12:44:23
Kannst du wirklich nicht selbst auf deinen Link klicken?
http://geizhals.de/?sr=1077793,809187,7302492#7302492
http://geizhals.de/?sr=1077793,809187,7289018#7289018
http://geizhals.de/?sr=1077793,809187,7287026#7287026

Mag sein das es mit diesem Monitor warum auch immer Probleme gibt, aber generell ist das sicher nicht so. Ganz davon abgesehen das sich dort auch ein Geforce-User mit den selben Problemen meldet.

Und der User der sich dort bei Geizhals beschwert hat eine 5850, diese untersützt noch nicht mal DP1.2 UND KANN DESHALB nicht funktionieren.

die da schreiben das es geht sind solche honks wie du die es nicht glauben wollen weil es sich um amd handelt.
wie auch immer, ich hab es selber gehabt und keine chance, treiber, kabel, grafikkartewechsel, hat alles nicht geholfen außer eine vernünftige karte einzubauen aller nv (gtx780) und schon hat es auf anhieb geklappt.

fondness
2014-07-30, 12:47:25
die da schreiben das es geht sind solche honks wie du die es nicht glauben wollen weil es sich um amd handelt.


Oh danke für die Beleidigung und die Leute dort kennst du natürlich alle persönlich und weißt deshalb ganz genau wer die Wahrheit sagt und wer nicht schon klar.

derguru
2014-07-30, 12:50:32
bitte!
solang keine redaktion das bestätigt glaube ich an das was ich erlebt habe, die reviews die ich bisher gesehen habe von 4k-Tn Modellen liefen alle auf geforce karten.

HPVD
2014-07-30, 12:50:54
noch mal ganz kurz zu 4K @ 60Hz bei AMD Karten
bei MST Monitoren gehts sowieso
und bei SST:
- machmal hilft einfach ein neues hochwertiges kurzes DP-Kabel
- manchmal ist es nicht unbedingt AMDs Schuld
Collaboration with AOC has identified non-standard display timings as the root cause of 60Hz SST flickering exhibited by the AOC U2868PQU panel on certain AMD Radeon™ graphics cards.
und wird trotzdem gefixt:
A software workaround has been implemented in AMD Catalyst 14.7 RC driver to resolve the display timing issues with this display.
http://support.amd.com/en-us/kb-articles/Pages/latest-catalyst-windows-beta.aspx
- machmal gibts bestimmt auch andere Sachen die aber ja nicht gleich "unmöglich" bedeuten...
schon mal selbst nen konkreten Bugreport-geschrieben?
http://www.amdsurveys.com/se.ashx?s=5A1E27D25AD12B63

fondness
2014-07-30, 12:51:52
bitte!
solang keine redaktion das bestätigt glaube ich an das was ich erlebt habe, die reviews die ich bisher gesehen habe von 4k-Tn Modellen liefen alle auf geforce karten.

Vielleicht sollte du dich einfach vorher informieren bevor du hier Leute beschimpfst die nicht deine beschränkte Sichtweise teilen, danke. Und für 60Hz braucht es kein TN-Pannel. Erst vor kurzem dieses Review gelesen zB: http://www.hardocp.com/article/2014/07/23/gtx_780_oc_6gb_vs_r9_290x_4gb_overclocked_at_4k#.U9jO77E_prs

Annator
2014-07-30, 12:55:22
@Annator

Was heißt gut?
Die üblichen IPS Probleme hat auch der.


Gut wie mein Eizo 2736. Welche IPS Probleme?

Sollten doch die Overlords für knappe 400 EUR können oder?

Von der Bildqualität sind die nicht auf dem Stand meines Eizos. Hatte den hier stehen und bin ziemlich enttäuscht gewesen. Der sah richtig Blass aus im Gegensatz zum Eizo.

Im Prinzip brauch ich exakt den 2736 mit 120Hz. :)

derguru
2014-07-30, 13:05:08
ich will was lauffähiges sehen und kein geplapper von möchtegern amd fuzzis und meine fresse was soll dein link zeigen,das MST auf ein sharp funz oder was?

@HPVD

hab ich alles versucht inkl. telefonischer support, vom AMD kommt nur achselzucken und der tip ich sollte auf 30hz laufen lassen,das reicht ja auch.^^

an ein hochwertiges 100€ ^^dp -kabel hatte ich gedacht bis dann die geforce mit allen anderen dp(günstigen und original) kabeln lief.

selbst hier im forum gibt es das problem mit den selben symptomen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=554825

akuji13
2014-07-30, 13:10:29
Gut wie mein Eizo 2736. Welche IPS Probleme?

IPS glow, Schwarzwert.

Der glow ist bei dem weitaus weniger ausgeprägt als bei anderen Geräten, dennoch ist er vorhanden.
Schwarzwert ist zwar auch besser als bei anderen Modellen, trotzdem sollte der besser sein in der Preisklasse.

Dazu kommen die üblichen TFT Problembereiche:
Ausleuchtung, RGB Farbraum, Reaktionszeit, Latenz.

Meine Meinung als Käufer:
Geräte in der 600€ Klasse sollten besser sein.
Die Wertungen z. B. von Prad.de sind mir immer zu hoch angesetzt.

Aber nix anderes sage ich jetzt über den ASUS ROG und werde das auch nach dem Kauf sagen.
Es ist die Verzweiflung die mich dazu bringt solche Geräte zu kaufen, wie schön war das doch früher als mir sowas egal war. :D

fondness
2014-07-30, 13:16:36
ich will was lauffähiges sehen und kein geplapper von möchtegern amd fuzzis und meine fresse was soll dein link zeigen,das MST auf ein sharp funz oder was?

@HPVD

hab ich alles versucht inkl. telefonischer support, vom AMD kommt nur achselzucken.

an ein hochwertiges 100€ ^^dp -kabel hatte ich gedacht bis dann die geforce mit allen anderen dp(günstigen und original) kabeln lief.

selbst hier im forum gibt es das problem mit den selben symptomen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=554825


Kann ich etwas für deine Probleme dafür? Oder bist du wirklich nicht fähig sachlich zu diskutieren? Es haben dir jetzt hier mehrere User bestätigt das es bei bestimmten Konstellationen zu Problemen kommen kann, ebenso gibt es Aussagen das es bei manchen läuft. Wenn du damit nicht klar kommst ist das auch nicht meine Schuld, ich habe es nicht nötig mit dir meine Zeit zu verschwenden oder dir irgend was zu beweisen. Du kannst ja gerne wen anderen blöd anmachen wenn dir das so viel Spaß macht. Ganz davon abgesehen das es bei deinen Links eh immer nur um einen Monitor geht. Sei froh das es jetzt läuft, aber deshalb ist deine Aussage 60Hz und 4K läuft bei AMD nicht noch lange nicht richtig.

derguru
2014-07-30, 13:26:46
eben, das ist das problem, spam halt nicht wenn du dazu nichts beitragen kannst außer dein amd pr geblubber und was für eine bestätigungen? lol
und nein es geht nicht nur um den samsung,bei asus das selbe problem aber lesen ist so ne sache.

Nur zur Info (habe den ASUS PB287 4K SST Minitor):

Nachdem ich ja mit einer GfTitan keine Probs hatte, habe ich die letzte Woche damit verbracht meinen 2. PC (HTPC) 4K tauglich zu machen.

Dabei kam heraus:

Weder Intel Haswel CPUs noch irgent welche AMD GPUs oder APUs sind in der Lage 4K SST-displays anzusprechen. Intel geht nur bis FHD und AMD nur bis 40Hz mit Glück. In beiden Fällen ist das das offizielle Statement seitens des Supports - ich habe da mehrfach telefoniert. Es liegt laut AMD an den verbauten Timing-Controllern, d.h. es wird auch kein Treiber-Update geben. Das habe ich extra explizit nachgefragt.

Die einzige Möglichkeit die neuen 60Hz SST 4K Monitore anzusprechen ist also NVIDIA. http://geizhals.de/?sr=1077793,809187,7302492#7302492
nein ich bin das nicht mit anderem namen.:rolleyes:

fondness
2014-07-30, 13:36:05
eben, das ist das problem, spam halt nicht wenn du dazu nichts beitragen kannst außer dein amd pr geblubber und was für eine bestätigungen? lol

Okay das heißt Aussagen bei Geizhals die deine Sichtweise bestätigen glaubst du, welche die es nicht tun und bei denen es läuft hältst du für verblendet. Mehr braucht man dazu wohl nicht zu sagen. Ganz davon ab gesehen das du mich in dem einen Satz schon wieder mehrmals persönlich anmachen musstest, offensichtlich bist du wirklich nicht fähig sachlich zu diskutieren, traurig.

Annator
2014-07-30, 14:16:08
IPS glow, Schwarzwert.

Der glow ist bei dem weitaus weniger ausgeprägt als bei anderen Geräten, dennoch ist er vorhanden.
Schwarzwert ist zwar auch besser als bei anderen Modellen, trotzdem sollte der besser sein in der Preisklasse.

Dazu kommen die üblichen TFT Problembereiche:
Ausleuchtung, RGB Farbraum, Reaktionszeit, Latenz.

Meine Meinung als Käufer:
Geräte in der 600€ Klasse sollten besser sein.
Die Wertungen z. B. von Prad.de sind mir immer zu hoch angesetzt.

Aber nix anderes sage ich jetzt über den ASUS ROG und werde das auch nach dem Kauf sagen.
Es ist die Verzweiflung die mich dazu bringt solche Geräte zu kaufen, wie schön war das doch früher als mir sowas egal war. :D

Naja man kann ja immer nur Monitore gegen andere Monitore vergleichen. Ich hatte so einige durch (Dell, Eizo, Asus und den Overlord) und habe den Eizo 2736 behalten da er den besten Kompromiss aus Latenz zur maximalen Bildqualität wiedergibt. Den Asus würde ich auch gerne mal testen aber ich sehe mich schon wieder kotzen wenn ich die Bildqualität vergleiche.

Was hats du denn für deinen PG278Q Test als Vergleich schon gesehen? Nur damit ich mich schonmal auf die subjektive Beurteilung einstellen kann. :)

akuji13
2014-07-30, 14:27:22
Was hats du denn für deinen PG278Q Test als Vergleich schon gesehen? Nur damit ich mich schonmal auf die subjektive Beurteilung einstellen kann. :)

Ich teste um die 50 TFTs jedes Jahr.
Vom 100€ Gerät bis hin zum 3500€ Gerät, also nicht nur Monis die auf Spieler ausgerichtet sind.
Das mache ich seit 2002.

Also es waren schon einige. :D
Als Vergleichskandidaten für den ASUS bieten sich idealerweise der Eizo FG2421 und die BenQ XL2720T/Z an für alles abseits von G-Sync.

Selbst zu Hause habe ich immer zwischen 5-10 an 3 Rechnern.
3 davon permanent am Spielerechner, weil es den Moni leider nicht gibt.

Je nach Spiel kommt dann der zum Einsatz der mir am Besten geeignet erscheint.

Immer noch ein ein Favorit über die lange Zeit gesehen: mein NEC 20WGX².
Ich trauere dem AT-W Polarisator noch heute nach.

Mein erster eigener war ein schweineteurer NEC, welches Modell weiß ich nicht mehr.

Annator
2014-07-30, 14:40:58
Ich teste um die 50 TFTs jedes Jahr.
Vom 100€ Gerät bis hin zum 3500€ Gerät, also nicht nur Monis die auf Spieler ausgerichtet sind.
Das mache ich seit 2002.

Also es waren schon einige. :D
Als Vergleichskandidaten für den ASUS bieten sich idealerweise der Eizo FG2421 und die BenQ XL2720T/Z an für alles abseits von G-Sync.

Selbst zu Hause habe ich immer zwischen 5-10 an 3 Rechnern.

3 davon permanent am Spielerechner, weil es den Moni leider nicht gibt.
Je nach Spiel kommt dann der zum Einsatz der mir am Besten geeignet erscheint.

Immer noch ein ein Favorit über die lange Zeit gesehen: mein NEC 20WGX².

Alles klar. :D Bin gespannt.

Nightspider
2014-07-30, 14:44:20
50 TFTs im Jahr?

Hast du keine Hobbys und Freunde? :ugly:

akuji13
2014-07-30, 14:50:17
Alles klar. :D Bin gespannt.

Wohin die Reise gehen wird ist eigentlich schon klar, das kann man bei den Profis nachlesen. ;)

Ich denke es wird der beste TN den ich je hatte (bislang waren das Eizo+NEC Geräte), natürlich nicht ohne faden Beigeschmack.

Aber wer unbedingt z. B. die Farbbrillianz eines guten IPS will, wird damit auch nicht glücklich.

50 TFTs im Jahr?

Hast du keine Hobbys und Freunde? :ugly:

Doch, beides. Erstaunlicherweise. :D

Aber während ihr ein Spiel nach dem anderen durchspielt, widme ich mich den TFTs.
Ist ja auch eines meiner Hobbys. ;)

Außerdem profitiere ich ja auch davon.

derguru
2014-07-30, 15:10:45
Okay das heißt Aussagen bei Geizhals die deine Sichtweise bestätigen glaubst du, welche die es nicht tun und bei denen es läuft hältst du für verblendet. Mehr braucht man dazu wohl nicht zu sagen. Ganz davon ab gesehen das du mich in dem einen Satz schon wieder mehrmals persönlich anmachen musstest, offensichtlich bist du wirklich nicht fähig sachlich zu diskutieren, traurig.
genau,ich habe die selbe erfahrung gemacht im gegensatz zu dir der pr folien raus kramt. :popcorn:bei wem soll es eigentlich funktioniert haben?

huch, noch einer mit dem identischen problem, steht nicht welche karte aber ich rate mal.:tongue:
https://www.youtube.com/watch?v=_IM6HR8hvGI

aber genug davon.:freak: