PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wo bleiben PC-Monitore mit hoher Pixeldichte?


Seiten : 1 2 3 [4]

PatkIllA
2014-03-03, 15:27:36
Preis ist OK. Aber bitte mit IPS.
Dafür müsste es ein Fernseher mit größerer Fläche und noch mehr extra Technik sein.
Immerhin scheint man jetzt anscheinend die Eingangselektronik auch LowCost bei einem Billghersteller ordern zu können.

robbitop
2014-03-03, 16:04:17
Wenn dann 27-28" als Monitor - nicht als TV.

Raff
2014-03-03, 17:52:44
TN ist bei 28 Zoll schon grenzwertig, am Rand könnte es schon zu Farbverfälschungen kommen, wenn man frontal davor sitzt. Nun, es gibt gute und schlechte TN-Panels – hoffen wir, dass Samsung bei einem 600-Euro-Gerät nicht auf den letzten Cent schaut.

derguru, genauer Bericht erwünscht! :D

MfG,
Raff

Nightspider
2014-03-03, 17:56:28
Genau hier würde jetzt ein Curved Panel Sinn machen. Ab 27 Zoll macht eine leichte Biegung imo schon viel Sinn, gerade bei Egoshootern.
Bin mal gespannt ob dieses Jahr schon gebogene Monitore für den PC im Handel landen.

aufkrawall
2014-03-03, 17:59:14
Nun, es gibt gute und schlechte TN-Panels
Bei welchem TN-Panel säuft oben bei dunklen Inhalten nicht was ab?

Raff
2014-03-03, 18:04:41
Von Perfektion hat keiner geredet. :D Ich meinte damit nur, dass es Panels gibt, bei denen sofort alles crappy aussieht, während sich bei anderen die Artefakte in Grenzen halten.

Ich kann jedem Umsteiger von PVA/IPS jedenfalls nur dazu raten, mehr als eine Minute drüberzuglotzen. Mir fällt das Gesamtbild am Zweitsystem mit einem Benq XL2410T immer wieder negativ auf. Die Abweichung am Rand und die Lichthöfe sind schon störend, aber die generelle Neigung zu Rauschen ist gegenüber dem Samsung 305T Plus wirklich ekelhaft.

MfG,
Raff

aufkrawall
2014-03-03, 18:08:55
Jop, dem schließe ich mich an.
Auch mal so etwas wie z.B. Outlast anschmeißen. Das gibt mit dem 6Bit + FRC Zeug so ein krasses Banding, dass der ganze Spielspaß im Eimer ist.

oids
2014-06-04, 23:59:39
[Computex] Intel will deutlich günstigere 4K-Monitore

http://www.tomshardware.de/intel-ultrahd-uhd-4k,news-250724.html

Mr.Magic
2014-06-05, 01:07:22
Bei welchem TN-Panel säuft oben bei dunklen Inhalten nicht was ab?

Bei allen meinen Asus ist der Kontrast astrein*. Nur das Banding ist schwer zu reduzieren, so dass es dann fast nur noch im unteren Schwarzbereich vorkommt (und bei rot<->grün).
Mein BenQ hat keinerlei Banding, dafür aber extreme Kontrastprobleme an DVI (120Hz). Wenn man den Kontrast übers Menü die Gamma von 2.2 auf 2.0 ändert, dann sind die Farben grausig. An HDMI passt das Bild seltsamerweise (gibt ~2.0 Gamma bei 2.2 Einstellung aus, ohne orange zu gelbgrün zu verändern).

Ich freue mich auf den ASUS PG278Q mit 8bit TN.

*Der 120Hz 27" hat lustigerweise ausgerechnet bei 60Hz größere Probleme mit dem Blickwinkel. Oben schmutzigweiß, unten reinweiß. Außer man sitzt penibel nach Sitzhaltungsempfehlung, so dass man sich beim Geradeausglotzen in die eigenen Augen blickt (fucking gloss). Bei 120Hz mit Strobing ist das dann weg.

aufkrawall
2014-06-22, 18:31:24
Kann mir nochmal jemand erklären, warum für 1080p -> 4k nearest neighbor am besten sein soll?
Habe das mal mit madVR bei 720p -> 1440p ausprobiert und es sieht erwartungsgemäß aliased bis zum geht nicht mehr aus.

Original:
http://abload.de/thumb/csgo_2014_06_22_18_01ifkh0.png (http://abload.de/image.php?img=csgo_2014_06_22_18_01ifkh0.png)

1440p nearest neighbor:
http://abload.de/thumb/nnyojz9.png (http://abload.de/image.php?img=nnyojz9.png)

bilinear:
http://abload.de/thumb/bi5pk5d.png (http://abload.de/image.php?img=bi5pk5d.png)

lanczos3 + anti-ringing filter:
http://abload.de/thumb/lanczos3arc9knv.png (http://abload.de/image.php?img=lanczos3arc9knv.png)

NNEDI3 64 neurons quadruple:
http://abload.de/thumb/646tktn.png (http://abload.de/image.php?img=646tktn.png)

NNEDI toppt alles andere um Längen. Da könnte man sogar noch ein wenig nachschärfen. Das müsste in einen Scaler-Chip mit niedriger Latenz...

OC_Burner
2014-06-22, 19:17:15
Kann mir nochmal jemand erklären, warum für 1080p -> 4k nearest neighbor am besten sein soll?

Weil künstliche Unschärfe allgemein mist ist?:freak: Es dreht sich nicht immer alles um Spiele. Stell dir mal vor ich müsste jetzt deine Bilder auf einem 28 Zoll Gerät mit nativen 4k untersuchen, bei dem aber nur 1920x1080 als Desktopauflösung eingestellt ist (der Bildschirm skaliert bikubisch oder bilinear auf Vollbild). Daneben würde noch ein 28 Zoll Bildschirm mit nativ 1920x1080 stehen. Auf welchem Bildschirm ließe sich wohl Bildqualität besser einschätzen ohne diese via Grafikprogramm oder ähnliches zu Zoomen?

Mein Bildschirm bläßt 800x600 im korrekten Seitenverhältniß zu 1600x1200 auf. Per On-Screen-Menü im Bildschirm läßt sich zwischen Nearest Neighbor und Bicubic wechseln. Schriften sehen klar besser aus bei Bilinear/Bicubic, das stellt man auch garnicht in Frage. Geht es aber um die Bearbeitung oder Beurteilung von Pixeln ist Nearest Neighbor dank Unverfälschtheit klar vorn.

aufkrawall
2014-06-22, 19:26:21
Wieso sollte man die Auflösung, abseits von Spielen, runterstellen?

OC_Burner
2014-06-22, 19:37:29
Wieso sollte man die Auflösung, abseits von Spielen, runterstellen?

Desktopelemente zu klein? Viele beschweren sich über zu kleine Schriften und die Windowsskalierung ist ebenfalls nicht das gelbe vom Ei.

aufkrawall
2014-06-22, 20:01:07
afair ging es bei der Diskussion damals schon um Spiele.
Ich hatte vermutet, dass man sich so jede Menge zusätzliches Aliasing gegenüber nativen 720p einfängt, auf Flächen, die sonst keines hätten (Texturen).
Und das ist offenbar der Fall. Ziemlich egal, dass es ein genaues Vierfaches ist.

Edit: Nachgeschärftes NNEDI sieht schärfer aus als nn und ist extrem weniger aliased:
http://abload.de/thumb/64sharpmcjwn.png (http://abload.de/image.php?img=64sharpmcjwn.png)

OC_Burner
2014-06-22, 20:21:51
Das Alias nimmt aber eben nicht zu, einzig und allein dessen Sichtbarkeit wird durch die größeren Pixel erhöht. Bei deinem 720p Vergleich solltest du dich entsprechend weit weg setzen und zwar so weit weg, dass aufgeblasene 720p via Nearest Neighbor genauso groß erscheinen wie native 720p auf deinem Bildschirm. Nichts anderes ist doch der Vergleich zwischen 28 Zoll bei 4k und 1080p.

Edit: NNEDI ist zwar echt toll, aber nicht gerade Resourcenschonend. Warum spielen wie nicht alle mit halber Auflösung und skalieren anschließend hoch?

aufkrawall
2014-06-22, 20:32:39
Nur weil man ab einem gewissen Abstand kein statisches Aliasing mehr wahrnimmt, muss das noch lange nicht für temporales gelten.
Hast du dir mal Alphatests ala Crysis oder Shader-Aliasing ala Crysis 3 mit nn-Scaling angeschaut?

raumfahrer
2014-07-12, 10:55:54
Verwundert, dass noch nicht hier erwähnt:

NEC MultiSync EA244UHD, 23.8" 4k AH-IPS

http://www.necdisplay.com/p/desktop-monitors/ea244uhd-bk

Laut gh.de lagernd ab 1270€. E: In schwarz ab 1240€.

Showtime
2014-07-14, 14:21:37
Den Leuten hier im Thread geht es glaube ich in erster Linie um Monitore wie den, welchen du verlinkt hast, aber im bezahlbaren Rahmen ;). ~24" und 4K und irgendwas IPS-ähnliches für 400 Euro und ich bin dabei...

drmaniac
2014-07-15, 09:59:48
Den Leuten im Thread (MIR :D) gefallen auch solche Monitore ^^ Im Titel steht ja nicht "..bix maximal X Euro ;P)

sstevens
2014-07-28, 16:31:22
Viel wichtiger als die Pixeldichte ist, dass endlich die Leute wieder 16:10 oder 4:3 Format nachfragen. Der 16:9-Hype ist mir bis heute unklar. Es ist wirklich nur ein HYpe ohne Nutzen.Es gibt auch ne klare Begründung:
http://www.wpavel.de/bildschirmmasse.php

Rente
2014-07-28, 17:22:19
Das wird nicht mehr passieren, eher steigt die Nachfrage nach 21:9-Bildschirmen.

Die Erläuterungen sind auch eher tendenziös, immerhin haben vernünftige Monitore auch alle eine Pivot-Funktion + man kann auch einfach mehrere Monitore nutzen.

Das Thema hat sich mit 1440p bzw. 2160p (und dabei Monitoren > 27'') quasi sowieso irgendwie erledigt, dann hat man auch mehr Platz in der Höhe als auf 1280x1024 bzw. 1920x1200, Nachfolgeauflösungen bei 5:4/4:3 und 16:10 sind für den Massenmarkt (so weit ich weiß) überhaupt nicht mehr in Planung.
2560x2048 oder 3840x2400 wären durchaus nett, aber wohl auch teurer.

sstevens
2014-07-28, 21:57:52
Bei 21:9 sehe ich die Hoffnung, dass ich sofort 2x 4:3 nebeneinander nutzen könnte. Von mir aus können Sie ihn dann noch breiter machen, damit es 3x 4:3 Monitorfelder sind.
Sind 21:9 eigentlich wirklich genau 2x 4:3?
Welches Format wären eigentlich 2x 16:10 ?
Ist was für Mathematiker ;)

robbitop
2014-07-28, 22:07:14
Bei 21:9 sehe ich die Hoffnung, dass ich sofort 2x 4:3 nebeneinander nutzen könnte. Von mir aus können Sie ihn dann noch breiter machen, damit es 3x 4:3 Monitorfelder sind.
Sind 21:9 eigentlich wirklich genau 2x 4:3?
Welches Format wären eigentlich 2x 16:10 ?
Ist was für Mathematiker ;)
Für Mathematiker? Eher Sekundarstufe 1. ;)

Die X-Achse wird verdoppelt. Also 8:3. Gemeinsamer Nenner (um mit 16:9 vergleichen zu können) wäre 9. Also 24:9 wäre 2x 4:3. Also ist 2x 4:3 ein wenig breiter als 21:9.

2x 16:10 wären 32:10. Wenn man das auf 9 in Y-Richtung rechnen will einfach mit 9/10 multiplizieren. Also ~ 29:9. :)

sstevens
2014-07-28, 22:13:16
Danke, 5. Klasse ist zu lange her ;)
Dann hätte ich also gerne SOFORT einen Nvidia-3D-fähigen 29:9-Monitor.
Vielen Dank :)

spass beiseite: die fehlende Höhe im bild muss doch einfach jeden nerven. jeden

robbitop
2014-07-28, 22:18:09
Wenn der Monitor groß genug ist, hast du auch irgendwann genug Höhe. ;) (bei 27" für 16:9 und 34" für 21:9 trifft das IMO zu)

Ich finde 2x separate Monitore besser als 21:9. Weil man explizit separat Dinge drauf lassen kann und Windows schön die Fenster darauf maximiert oder halbiert. Auch 2x Vollbildanwendungen gehen.

Trap
2014-07-28, 22:21:54
Ich finde 2 Monitore besser weil man dann einen davon hochkant betreiben kann. 1920 Pixel hoch hat auch was :D

sstevens
2014-07-28, 23:18:40
Wenn der Monitor groß genug ist, hast du auch irgendwann genug Höhe. ;) (bei 27" für 16:9 und 34" für 21:9 trifft das IMO zu)

Ich finde 2x separate Monitore besser als 21:9. Weil man explizit separat Dinge drauf lassen kann und Windows schön die Fenster darauf maximiert oder halbiert. Auch 2x Vollbildanwendungen gehen.

Ich denk die 21:9er bekommen 2 eingänge? Dann hat man doch 2 Monitore. Insgesamt braucht das dann weniger Platz und Strom.

"Wenn der Monitor gross genug ist" lass ich nicht gelten. Siehe mein link oben.

sstevens
2014-07-28, 23:26:35
Ich finde 2 Monitore besser weil man dann einen davon hochkant betreiben kann. 1920 Pixel hoch hat auch was :D

DAs machst Du nur weil Du keinen schönen 4:3 mehr hast.

robbitop
2014-07-28, 23:33:04
Ich denk die 21:9er bekommen 2 eingänge? Dann hat man doch 2 Monitore. Insgesamt braucht das dann weniger Platz und Strom.

"Wenn der Monitor gross genug ist" lass ich nicht gelten. Siehe mein link oben.
Ich denke die werden normal über Displayport angesprochen. Verhält sich unter Windows also wie 1x Monitor. Dieser MST Kram war nur notwendig bis die Scaler in den Monitoren vernünftige Auflösungen unter DP1.2 unterstützt haben.

Egal was du "gelten" lässt oder nicht. Ich bleibe bei meiner Meinung. ;)

Mr.Magic
2014-07-28, 23:45:59
Ich denke die werden normal über Displayport angesprochen.

Viele moderne Monitore haben mehrere Eingänge, und können das Bild teilen. Die meisten 21:9 Modelle kommen AFAIK außerdem mit Virtual Desktop Software.

mekakic
2014-07-29, 14:35:41
Lohnt es sich überhaupt mit Windows 7 und 4K Monitoren anzufangen? Man liest doch häufiger von Problemen was die GUI Scalierung angeht... mein Hauptziel wäre es neben Papers vernünftig am Monitor lesen zu können (also gute Schirftdarstellung) vorallem in Entwicklungsumgebungen (Rhapsody, VisualStudio, Eclipse) viel Platz auch für kleine Details zu haben... bzw. in UML Diagrammen auch noch was in abartigen Zoomstufen lesen zu können.

Samtener Untergrund
2014-07-29, 16:17:07
MS gibt einem Programmierer schon seit Vista alle Dinge mit, damit er auf einem Display mit beliebiger DPI-Zahl eine gute Oberfläche darstellen kann. Und die MS-Programme selbst halten sich auch an diese Vorgaben. Ich könnte dir keine aktuelle Software von MS nennen, die nicht gut skaliert.

Prinzipiell ist die Situation wie beim Farbmanagement, auch da ist Windows seit Jahren auf gleichem Level wie MacOS. Aber zugunsten der größtmöglichen Kompatibilität mit alter Software werden solche Features nicht verpflichtend gemacht, sondern eben nur zur Verfügung gestellt. Apple hingegen hat viel weniger Probleme damit, alte Zöpfe abzuschneiden.

Bei mir in der Firma haben wir uns bereits die Mühe gemacht, unseren Softwarebestand auf die Tauglichkeit mit HiDPI-Displays zu prüfen und die entsprechende Hersteller anzuschreiben. Aktuell wird keine Software mehr neu aufgenommen, die nicht dementsprechend vorbereitet ist und ab 1.1.15 werden wir beginnen, inkompatible ältere Software zu delisten. Wenn alles wie vorgesehen läuft, sind wir nächstes Jahr dann soweit, dass wir alle PCs umstellen können.

So würde ich an deiner Stelle auch vorgehen. Überprüfe deinen Softwarebestand. Gibt es dort inkompatible Programme, die für dich unverzichtbar sind, dann lasse es bleiben. Meistens finden sich jedoch Alternativen, die mittlerweile diesen Aspekt beachten.

robbitop
2014-07-29, 17:39:00
IMO hat Apple das besser gelöst. MacOS konnte wesentlich besser mit HighDPI Auflösungen umgehen. Auch bei Applikationen, die das noch nicht unterstützten.

FlashBFE
2014-07-29, 19:48:00
IMO hat Apple das besser gelöst. MacOS konnte wesentlich besser mit HighDPI Auflösungen umgehen. Auch bei Applikationen, die das noch nicht unterstützten.Apples Version ist eigentlich sehr viel schlechter, weil es nur den einen HiDPI-Modus gibt, der 200% Skalierung ergibt und das auch nur auf speziell unterstützten Monitoren. Auf Windows wäre so was in die Hose gegangen, aber erstens ist Apples Marketing 'ne Wucht, das Wort "Retina" zu erfinden, was natürlich alle sofort haben wollen und wo die Software schnell nachziehen musste und zweitens kann Apple gleichzeitig die Hardware vorgeben und so unpassende Zwischenauflösungen verhindern. Untaugliche Software wird einfach hoch skaliert, aber das kann Windows seit Vista genauso, wenn sich die Software nicht über den DPI-Aware-Schalter aktiv dagegen wehrt, was aber leider viele Programme machen, ohne selbst ordentlich zu skalieren (Paradebeispiel VLC).

Den Nachteil von Apples unflexibler Lösung habe ich selbst erlebt: Meine Eltern haben einen Mac Mini an einem FullHD-TV im Wohnzimmer. Dort haben sie immer Probleme, irgendwas zu lesen, weil die Schrift auf die Entfernung zu klein wird. Prima, dachte ich, in der neuen MacOS-Version gibt es ja nun Skalierung. Das wäre die Lösung gewesen. Dummerweise werden keine FullHD-Anzeigen unterstützt. Aber es gibt einen Workaround, indem man ne Entwicklungsumgebung installiert und MacOS vorgaukelt, man wäre Softwareentwickler. Dann wird HiDPI für beliebige Anzeigen ermöglicht. Es ließ sich aktivieren und es sah toll aus. Für ein paar Minuten. Denn als ich zum Test auf dem nun virtuell nur 960x540 großen Bildschirm iTunes starten wollte, was meine Eltern oft benutzen, bekam ich ne Fehlermeldung, das solche niedrigen Auflösungen nicht unterstützt werden. Pustekuchen. Das war's mit Retina.

robbitop
2014-07-29, 20:10:35
Die Funktion ist eben für die Retina Displays der Notebooks. IMO funktioniert das dort sehr gut - seitens Usability.

Jim
2014-08-19, 14:06:53
Apples Version ist eigentlich sehr viel schlechter, weil es nur den einen HiDPI-Modus gibt, der 200% Skalierung ergibt und das auch nur auf speziell unterstützten Monitoren.

Hä? Es wesentlich mehr als nur eine 200% Skalierung. Ich kann auf dem Mac selber die Auflösung definieren und das UI wird dann dementsprechend hochskaliert, was soll daran bitte schlecht sein? Es geht i.Ü. um HiDPI Monitore.

Auf Windows wäre so was in die Hose gegangen, aber erstens ist Apples Marketing 'ne Wucht, das Wort "Retina" zu erfinden, was natürlich alle sofort haben wollen und wo die Software schnell nachziehen musste und zweitens kann Apple gleichzeitig die Hardware vorgeben und so unpassende Zwischenauflösungen verhindern.

Du solltest Dir vielleicht mal die Dokumentation von Apple genau durchlesen. Natürlich sind Zwischenauflösungen möglich, und auch kein Problem. es wird stufenlos skaliert.

In Windows, ich habe mein tolles Notebook mit 3000+x irgendwas Auflösung und kann die Schrift nicht mehr lesen, weil es keine brauchbare, einheitliche Möglichkeit gibt, das UI vernünftig zu skalieren.

Untaugliche Software wird einfach hoch skaliert, aber das kann Windows seit Vista genauso, wenn sich die Software nicht über den DPI-Aware-Schalter aktiv dagegen wehrt, was aber leider viele Programme machen, ohne selbst ordentlich zu skalieren (Paradebeispiel VLC).

Gefährliches Halbwissen. In Windows können nur einige der APIs Schriften frei hochskalieren. Alle anderen machen das mit bipolarer Interpolation, was dann so richtig scheisse aussieht, wenn ca. 50% der Windows gut/bzw schlecht skalieren und der ahnungslose User hier eher an einen Bug denkt.

Den Nachteil von Apples unflexibler Lösung habe ich selbst erlebt: Meine Eltern haben einen Mac Mini an einem FullHD-TV im Wohnzimmer. Dort haben sie immer Probleme, irgendwas zu lesen, weil die Schrift auf die Entfernung zu klein wird. Prima, dachte ich, in der neuen MacOS-Version gibt es ja nun Skalierung. Das wäre die Lösung gewesen. Dummerweise werden keine FullHD-Anzeigen unterstützt. Aber es gibt einen Workaround, indem man ne Entwicklungsumgebung installiert und MacOS vorgaukelt, man wäre Softwareentwickler. Dann wird HiDPI für beliebige Anzeigen ermöglicht. Es ließ sich aktivieren und es sah toll aus. Für ein paar Minuten. Denn als ich zum Test auf dem nun virtuell nur 960x540 großen Bildschirm iTunes starten wollte, was meine Eltern oft benutzen, bekam ich ne Fehlermeldung, das solche niedrigen Auflösungen nicht unterstützt werden. Pustekuchen. Das war's mit Retina.

Das hat mit Retina und HiDPI mal überhaupt nichts zu tun. Sag deinen Eltern, sie sollen sich nen grösseren Fernseher kaufen, oder sich näher ransetzen.

FlashBFE
2014-08-19, 17:06:20
blaVom ersten bis zum letzten Satz ohne Ahnung. Anderen Halbwissen vorwerfen und dann von "bipolarer Interpolation" schreiben :freak:. Ne danke, auf dem Niveau braucht man nicht weiterdiskutieren.

sstevens
2014-08-21, 09:34:53
Tja, im Moment kann ich mir keinen Monitor kaufen.
Eigentlich wollte ich einen 3D-Nvidia-fähigen Monitor haben in 16:10. Den gibts aber nicht. (oder doch?)
Dann muss ich jetzt warten bis ein 3D-fähiger 21:9 kommt, der schnell ist, matt und dann am besten 4K.
Also ...Warten, warten warten

Hübie
2014-08-21, 15:48:52
Ich frage hier mal blöd in die Runde: zwei mal 30 Hertz eines MST-Monitors sind doch keine 60 Hz oder? Wie erkenne ich denn Monitore die wirklich 60 mal pro Sekunde auffrischen? :confused:
@sstevens: Vergiss es. 21:9 ist zwar dem menschlichen Blickfeld sehr ähnlich aber dank Industrieverarsche hat man jede Menge Probleme damit. 16:10 ist auch ab und zu mal problematisch. Und dann noch 3DV? Haha. Träum weiter. Auch wenn dass durchaus wünschenswerte Monitore wären.

FlashBFE
2014-08-21, 19:50:31
Tja, im Moment kann ich mir keinen Monitor kaufen.
Eigentlich wollte ich einen 3D-Nvidia-fähigen Monitor haben in 16:10. Den gibts aber nicht. (oder doch?)
Dann muss ich jetzt warten bis ein 3D-fähiger 21:9 kommt, der schnell ist, matt und dann am besten 4K.
Also ...Warten, warten warten
Also das ist ja so eine spezielle Kombination, dass ich nicht drauf warten würde. Vor allem 4k mit den für NVidia-Shutter-3D nötigen 120Hz übersteigt die aktuelle DP-Spezifikation.

Ich frage hier mal blöd in die Runde: zwei mal 30 Hertz eines MST-Monitors sind doch keine 60 Hz oder? Wie erkenne ich denn Monitore die wirklich 60 mal pro Sekunde auffrischen? :confused:
Doch. Die Monitore mit MST-Zuspielung schaffen 30Hz bei einem Stream und 60Hz bei zwei Streams (Multistream eben). Soweit ich weiß ist der Dell P2815Q der einzige UHD-Monitor, der nur 30Hz kann. Edit: Ich würde trotzdem keinen Monitor mit MST mehr kaufen. Da gibt es zu viele andere kleine Nachteile.

OC_Burner
2014-08-21, 20:09:41
Tja, im Moment kann ich mir keinen Monitor kaufen.
Eigentlich wollte ich einen 3D-Nvidia-fähigen Monitor haben in 16:10. Den gibts aber nicht. (oder doch?)
Dann muss ich jetzt warten bis ein 3D-fähiger 21:9 kommt, der schnell ist, matt und dann am besten 4K.
Also ...Warten, warten warten

Die ersten 3D Vision Monitore kammen noch in 16:10 daher. Also wenn du nichts gegen 1680x1050 und Geisterbilder hast, kannst du in der Bucht sicher noch eines der ersten Geräte erstehen.

KiBa
2014-08-21, 20:22:41
@sstevens: Vergiss es. 21:9 ist zwar dem menschlichen Blickfeld sehr ähnlich
Das Gesichtsfeld beider Augen zusammen beträgt 180° horizontal und 110° vertikal. Das Verhältnis ist ca. 1,6 genauso wie bei einem 16:10 Monitor. 16:9 ist schon einiges schmaler als das. Nur mal so... ;)

Hübie
2014-08-22, 01:08:54
Ich schrieb bewusst Blickfeld statt Gesichtsfeld ;) Das was wir also wahrnehmen ist eher ein 21:9 Format. Aber gut da streite ich mich nicht drum. Ich habe einen 16:9 und wünsche mir oft links und rechts noch ein paar Zentimeter :)

L233
2014-08-22, 08:33:29
Ich schrieb bewusst Blickfeld statt Gesichtsfeld ;) Das was wir also wahrnehmen ist eher ein 21:9 Format. Aber gut da streite ich mich nicht drum. Ich habe einen 16:9 und wünsche mir oft links und rechts noch ein paar Zentimeter :)

Setz Dich näher an den Bildschirm.

Mr.Magic
2014-08-22, 09:13:28
Setz Dich näher an den Bildschirm.

Wenn ich nah genug rangehe, dass ich bei 16:9 oben und unten nur noch Monitor sehe, ist links und rechts noch Platz...

Hübie
2014-08-22, 12:28:37
Setz Dich näher an den Bildschirm.

:P Ich sitze das Problem einfach aus. Und wenns zehn Jahre dauert ists mir auch egal ;)

KiBa
2014-08-22, 22:13:40
Ich schrieb bewusst Blickfeld statt Gesichtsfeld ;) Das was wir also wahrnehmen ist eher ein 21:9 Format. Aber gut da streite ich mich nicht drum. Ich habe einen 16:9 und wünsche mir oft links und rechts noch ein paar Zentimeter :)
Ich will ja auch gar nicht streiten, sondern herausfinden, wie groß das binokulare Blickfeld ist. Auf Wikipedia ist nur das monokulare beschrieben und da ist vertikal sogar etwas größer als horizontal.

Konami
2014-08-22, 22:46:48
Ich will ja auch gar nicht streiten, sondern herausfinden, wie groß das binokulare Blickfeld ist. Auf Wikipedia ist nur das monokulare beschrieben und da ist vertikal sogar etwas größer als horizontal.
Man sieht jedenfalls mit den Augenwinkeln auch noch Dinge, die leicht "hinter" einem sind. In Bezug auf Virtual Reality hab ich mal gelesen, dass man für ein vollständiges Mittendrin-Gefühl über 200° horizontales Blickfeld bräuchte.

dildo4u
2014-09-14, 00:05:52
LG 34UM95 34" UltraWide Widescreen 21:9 Monitor - My New Favourite

http://youtu.be/KnrxNfxRK_4

Kann man noch halbwegs mit einer GPU betreiben.

Botcruscher
2014-09-14, 11:45:13
Ich will ja auch gar nicht streiten, sondern herausfinden, wie groß das binokulare Blickfeld ist. Auf Wikipedia ist nur das monokulare beschrieben und da ist vertikal sogar etwas größer als horizontal.

Nie einen Sehtest gemacht? Die erwähnten 200° dürften locker hinkommen. Es geht auch nicht um scharf sehen. Dafür hat die Evolution ja das Hirn so angelegt. Der gesamte Außenbereich reagiert extrem auch Bewegung und Kontraste.

Botcruscher
2014-09-14, 11:52:25
LG 34UM95 34" UltraWide Widescreen 21:9 Monitor - My New Favourite
http://youtu.be/KnrxNfxRK_4
Kann man noch halbwegs mit einer GPU betreiben.
Vor einem Jahr hätte ich mich über den Moni gefreut. Heute fehlt da eindeutig 4K. Für den Preis gibt es bald auch 2 4K Monitore. Da kann man auch über 3 Nachdenken (das die Anbindung zu langsam ist lassen wir mal aus).
Die GPU hat auch genug Leistung um alles von Arbeit, Dota2 bis Risen 3 in 4K zu zocken. Scheiß auf Crysis und Bugfield. Allein der Qualitätsgewinn durch die Auflösung wiegt einige AA und AF Stufen auf.

fondness
2014-09-14, 12:38:13
Wenigstens tut sich endlich mal was bei den Monitoren, sodass es sich lohnt über eine Neuanschaffung nachzudenken. Aktuell konnte mich allerdings noch keiner vollends überzeugen, ideal wäre natürlich 4K+144Hz+IPS+FreeSync, realistisch ist wohl eher bald mal entweder 1440p+144Hz+IPS+FreeSync oder 4K+60Hz+IPS+FreeSync. Da muss ich noch austesten ob mit 144Hz oder 4K wichtiger ist.

ChaosTM
2014-09-14, 13:05:36
4k ganz eindeutig.
Für mich -> Gaming 2.0 - (fast) kein AA mehr nötig, viel mehr Details usw.
Man gewöhnt sich nur so schnell dran. 1080p geht fast nicht mehr, selbst mit über-AA.

Optimal wäre natürlich eine Kombi aus allem oben genannten. Aber solche Panels existieren leider noch nicht.

FlashBFE
2014-09-14, 13:34:45
LG 34UM95 34" UltraWide Widescreen 21:9 Monitor - My New Favourite

http://youtu.be/KnrxNfxRK_4

Kann man noch halbwegs mit einer GPU betreiben.

Strenggenommen gehört der Monitor gar nicht in den Thread hier rein, weil der mit rund 110dpi auch nur eine normale Pixeldichte hat. Der ist eben sehr breit und hat deutlich weniger Pixel als UHD. Aber er ist eine Alternative, wenn man maximale Arbeitsfläche mit schlecht skalierender Software braucht und keine zwei Monitore nebeneinander will.

Für mich kommt auch nur noch UHD in Frage. Dann kann ich erstens meine Fotos mit 8MPix anschauen, was schon alleine die Anschaffung rechtfertigen würde. Zweitens würde ich dann auch ein Paar ältere Spiele wieder auspacken und mit ungeahnter Qualität noch mal zocken, z.B. Bioshock oder Supreme Commander. Scheiß auf den aktuellen Kram, der wird dann eben hochskaliert. Ich warte nur noch auf IPS/VA+FreeSync, ansonsten sind mir 60Hz genug, weil ich noch nix anderes kenne ;).

KiBa
2014-09-15, 22:00:36
Nie einen Sehtest gemacht? Die erwähnten 200° dürften locker hinkommen. Es geht auch nicht um scharf sehen. Dafür hat die Evolution ja das Hirn so angelegt. Der gesamte Außenbereich reagiert extrem auch Bewegung und Kontraste.
Das Blickfeld ist nur der Bereich, in dem scharf gesehen werden kann, Augenbewegungen einberechnet. Das beträgt eher um die 100° horizontal. Blick- und Gesichtsfeld kombiniert (also scharfes und peripheres Sehen, gibt es dafür einen Namen?) ist dann über 180°.

Hübie
2014-09-16, 00:18:19
Ich habe mich auch gefragt ob lieber hohe Frequenz oder hohe Auflösung für mich wichtig ist. Zu diesem Zwecke stelle ich öfter mal auf 60Hz mit downsampling und muss sagen: scheiß auf 120/144 Hz. Allerdings muss ich sagen dass ich keine onlineshooter mehr zocke. 120 Hz interessieren mich nur noch wegen dem sterbenden 3D vision.

Wurschtler
2014-12-16, 13:23:06
LG präsentiert 8K auf 55": http://www.tomshardware.de/display-8k-55-ces,news-251820.html

drmaniac
2014-12-16, 17:14:55
leider kein PC Monitor, aber technisch sehr beeindruckend.

Also meine 2x27" 2560x1440 IPS Monitore taugen ;) zwar noch.

Der Reiz ist aber da sie zu ersetzen. Und wenn dann nur durch 4K.

Gefühlt würde ich einen 40" 4K Curved IPS wohl geil finden. Aber da muss ich wohl bis März15 warten.

In der Zwischenzeit evtl. der Phillips 4K (http://geizhals.at/eu/philips-bdm4065uc-bdm4065uc-00-a1201936.html) 40" für 700 euro. Weis nur nicht ob ich mit dem VA klar komme. Hätte den Vorteil, dass die DPI ca dem der 27er entspricht (und ich damit keine Probleme mit der Skalierung unter Win8 bekomme), ich mehr Pixlel (8.2Mio) habe als bei den beiden 27ern (7.3Mio) und endlich wieder zentral auf einen Monitor starren kann^^

Xaver Koch
2014-12-18, 23:22:10
4k ganz eindeutig.
Für mich -> Gaming 2.0 - (fast) kein AA mehr nötig, viel mehr Details usw.

Wie sieht es denn mit Strategiespielen bei hoher Auflösung und Pixeldichte aus? DSR macht bei mir (egal ob AoE III, TW Empire, Shogun 2, CoH 1 und 2) die Schriften und Zahlen unlesbar klein (selbst bei 2,25 - darunter wird es so und so matschig). Die Skalierung bei Win7 gefällt mir bei höherer Pixeldichte (1680x1050 und 120% zu 1920x1200 und 135% - jeweils 22 Zoll) ebenfalls nicht.

Rente
2014-12-18, 23:32:47
Windows 7 ist für 4K-Monitore <32 Zoll quasi unbrauchbar.

ChaosTM
2014-12-18, 23:43:27
Strategiespiele hab ich noch nicht probiert, seit ich das Gerät habe. Dazu kann ich nichts sagen.

Windows 7 selbst macht keinerlei Probleme mehr. Ein paar Programme skalieren aber immer noch nicht richtig wie zb. Steam oder Irfanfiew.
Da sollte man sich vorher informieren, weil das kann sehr mühsam werden.

Bei Spielen und selbst beim Desktop bleibt aber immer der Not-Ausweg 1440p, was auch noch hervorragend aussieht oder eben runter auf 1080p.

Wie auch immer, mit der höheren Auflösung ist man imho einfach flexibler unterwegs .

Xaver Koch
2014-12-19, 00:27:10
Bei Spielen und selbst beim Desktop bleibt aber immer der Not-Ausweg 1440p, was auch noch hervorragend aussieht oder eben runter auf 1080p.

Habe die Skalierung mal bei AoE III probiert (1280x720 zu 1680x1050). Die Schriften und Größen sind gleich, es sieht skaliert (ob durch GPU oder Anzeige gibt sich nicht so viel) allerdings deutlich "weicher" sowie weniger knackig und klar aus - besonders die Lesbarkeit der Schriften leidet. Wenn das bei den 4k Monitoren unter Win8(.1) nicht anders funktioniert, bekommt man die viel zu kleinen Schriften und Zahlen (sollte auch für Rollenspiele relevant sein) nicht lesbar.

1440 oder 1080 einstellen halte ich nur für einen Notnagel, wenn die GPU-Leistung nicht reicht (was bei aktuellen Shootern selbst bei GTX 980 und R9 290X fast immer der Fall sein dürfte).

Bleibt also nur Desktop und ältere Action-Spiele und Shooter als Einsatz für 4k Monitore (klar könnte man auch SLI mit mehreren GTX 980 fahren, aber irgendwo muss man die Kirche im Dorf lassen). Alles andere ist m.E. derzeit eine riesige Baustelle. Ich möchte mich ehrlich gesagt nicht von einem nativem 4k Desktop auf ein hochskaliertes Spiel umstellen müssen (1680 nativ bei 120% sieht zudem m.E. stimmiger als 1920 mit 135% aus - bei der Lesbarkeit der Schriften gibt es ein totes Rennen). Anders herum ist DSR statt AA eine nette Alternative (halt wiederum nicht für Strategie, Rollenspiele und wahrscheinlich Adventures).

Mein Fazit: 4k Monitore sind aktuell (Skalierung, GPU-Leistung) nichts für jedermann (aber Desktop und Spiele für die die GPU in nativem 4k reicht sehen bestimmt fantastisch aus).

Ex3cut3r
2014-12-19, 00:57:02
Ich finde der Sweet Spot, liegt momentan bei 1440p sprich 2560x1440p oder sogar im 21:9 Format, 3440x1440p, erstaunlicherweise frisst das Breitbild auch je nach Spiel nur 3-10 FPS mehr laut PCGH Heft.

robbitop
2014-12-19, 11:13:05
Es frisst so viel mehr, wie es mehr Pixel sind. Frisst es weniger, wurde nicht im GPU Limit getestet.

fondness
2014-12-19, 11:41:31
Nur wenn du davon ausgehst das jedes Pixel gleich viel Aufwand bedeutet, gerade wenn man das Seitenverhältnis ändert ist das allerdings nicht der Fall.

Kriton
2014-12-19, 13:34:34
Warum nicht?

kleeBa
2014-12-19, 14:51:54
[...]realistisch ist wohl eher bald mal entweder 1440p+144Hz+IPS[...]
Inzwischen bin ich soweit das mir solche Specs vollkommen reichen würden. :freak:

ChaosTM
2014-12-19, 19:03:31
Wer seinen Augen (und daraus resultierend, seinem Kopf) was gutes tun will, greift zu einem Gerät mit > 120ppi.

Eigentlich eine der, oder die nützlichste/wichtigste Eigenschaft von High DPI Monitoren. Komisch, dass das so selten erwähnt wird.

Rente
2014-12-19, 19:25:35
Bei 120ppi von HighDPI zu sprechen ist auch irgendwie süß, das sind je nach Vormonitor dann wahnsinnige 10-30% mehr.
Selbst der Dell 24'' 4K-Monitor kommt nur auf 179, das wäre aber immerhin deutlich sichtbar, mehr ist momentan aber auch nur noch bei Notebooks und Tablets drin - es gibt ja aktuell nicht mal eine (einzelne Schnittstelle) für mehr als 5K@60Hz für Monitore die größer als 30'' sind, für 27 wäre es noch halbwegs ok (217ppi), aber auch da gibt es 1 Ankündigung und 1 fertiges Gerät und scheinbar ist es nicht mal ein Panel.

ChaosTM
2014-12-19, 19:28:07
> 120dpi -> unterste Schmerzgrenze für Stress ärmeres Arbeiten. Richtig angenehm wirds ab 150

Rente
2014-12-19, 19:31:22
> 120dpi -> unterste Schmerzgrenze für Stress ärmeres Arbeiten. Richtig angenehm wirds ab 150
Gibt es dazu auch irgendwelche Untersuchungen? Der Abstand zum Display spielt dabei doch eine viel wichtigere Rolle.

Eine Quelle wäre nett.

ChaosTM
2014-12-19, 19:45:31
Eigene Erfahrung.
Seit ich den höher auflösenden Monitor habe gibt es keine Kopfschmerzen mehr, selbst nach stundenlangem spielen. Ich kann wieder relativ kleine Schriften entziffern, die vorher unmöglich lesbar waren
Alles ist viel Stressfreier und angenehmer wenn man keine Pixeln mehr sieht.
Zusammengefasst.: ein Fest für die Augen :)

Betrachtungsabstand ist normal würde ich sagen.
Vielleicht jetzt etwas näher als früher..

Edit.: Mein alter Monitor war ein 24er Dell mit PVA Panel und 1200p.

d2kx
2014-12-19, 20:29:43
LG präsentiert 8K auf 55": http://www.tomshardware.de/display-8k-55-ces,news-251820.html

8K 120Hz wird schon längst in Japan getestet.

https://www.youtube.com/watch?v=3l0lvwGZFR4

Thomas Gräf
2014-12-24, 19:27:33
Oha, das sieht total plastisch und echt aus.

Hübie
2014-12-24, 20:14:30
8K 120Hz wird schon längst in Japan getestet.

https://www.youtube.com/watch?v=3l0lvwGZFR4

Der Interviewer scheint mir recht inkompetent zu sein :rolleyes: Weiß nicht mal was der Unterschied zwischen Prismaverfahren und single CMOS ist. Na ja wie immer: Volk wird verarscht :biggrin:
Es gab glaub ich in den 70ern die ersten 4k-Kameras.

Mr.Magic
2014-12-25, 10:00:38
Es gab glaub ich in den 70ern die ersten 4k-Kameras.

70mm Film schafft 4K locker. Das existiert mindestens seit den 1890ern. Hollywood hat es ab den 50ern öfter mal verwendet.

Hübie
2014-12-25, 11:16:21
Nur weil es der Film "schafft" heißt es nicht dass dies verwendet wurde. Aber mit genauen Zahlen kann ich nur via Google dienen - das wiederum könnt ihr alle selber :P

Mr.Magic
2014-12-25, 11:57:40
Ungefähr 40 Filme BIS 1970. Dann ungefähr 'ne Handvoll AB 1992. In den 70ern bleibt danebengegriffen.

Hübie
2014-12-25, 13:01:44
Aha. Na dann eben so. Hättest auch gleich sagen können. Am besten mit Quelle, sonst kanns ja sein das du genauso daneben gegriffen hast :P

Mr.Magic
2014-12-25, 13:06:27
Frühes Kinosystem mit 70mm Projektoren (1897 patentiert).
http://en.wikipedia.org/wiki/Cinéorama

Filmliste:
http://en.wikipedia.org/wiki/List_of_70_mm_films

Hübie
2014-12-25, 13:51:40
Ich sehe da nirgends ne Auflösung. :|

Mr.Magic
2014-12-25, 14:19:10
Filmmaterial verwendet kein Raster, und hat daher keine feste Auflösung. Da spielen viele Faktoren in die tatsächliche Bildqualität.

http://filmschoolonline.com/sample_lessons/sample_lesson_HD_vs_35mm.htm

Hübie
2014-12-25, 15:08:21
Du brauchst aber ein Äquivalent. Bringt ja nix wenn das digitalisierte Bild in 2k (fast) genau so aussieht wie in 4k, weißt was ich meine?
Dann sind meine 70er vielleicht doch nicht so verkehrt?

Edit: und soviel mir bekannt ist haben die mehrere Raster die in zwei Richtungen verschoben sind und dann jeweils nur halb besetzt.

Mr.Magic
2014-12-25, 15:21:58
aus dem Link oben:
"35mm Resolution

There is an international study on this issue, called Image Resolution of 35mm Film in Theatrical Presentation. It was conducted by Hank Mahler (CBS, United States), Vittorio Baroncini (Fondazione Ugo Bordoni, Italy), and Mattieu Sintas (CST, France)."


35mm Filmmaterial reicht laut den Experten für 1080p. 70mm Material hat die vierfache Fläche. Muss ich mehr schreiben?

Deine 70er bleiben verkehrt, weil da schon niemand mehr 70mm verwendete, wenn man Vergnügungsparks und IMAX weglässt.

Hübie
2014-12-25, 15:43:34
Aha. Okay danke. Wieder was gelernt :)

Edit: Trotzdem sind die 70er ne geile Zeit X-D

Iamnobot
2015-01-06, 11:53:24
HP kommt ebenfalls mit einem 5K Bildschirm (wohl das gleiche Panel wie Apple und Dell). Preis: 1300 Dollar :eek:

http://www.heise.de/newsticker/meldung/5K-Bildschirm-auch-von-HP-2511169.html

Nightspider
2015-01-06, 12:21:05
War doch klar das der Preis sehr schnell Richtung 1000 Euro und darunter wandern wird.

Immerhin haben die Bildschirme außer 5K keine Besonderheit und sind schon fast langweilig gegen die 75,120,144Hz Monitore mit FreeSync, G-Sync usw.

mekakic
2015-01-07, 10:55:18
Taugt der Monitor als Coding Maschine? Also ohne Einschränkungen, dass der als 2-Monitor Betrieb angesteuert wird o.ä.?

Dell Professional P2415Q, 24"
http://geizhals.de/dell-professional-p2415q-a1204422.html