PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bessere Monitore?


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72

ChaosTM
2014-10-23, 03:49:25
Ich kann dich nicht ernst nehmen.

Wer 4k in Aktion erlebt hat, kann nicht mehr zurück..

Ich versteh ihn. :wink:

Chris Lux
2014-10-23, 09:22:30
Wer 4k in Aktion erlebt hat, kann nicht mehr zurück..

Ich versteh ihn. :wink:
dann verstehe auch, dass es auch leute gibt denen 1440p 120+Hz GSync mehr gibt.

Godmode
2014-10-23, 10:00:49
Wer 4k in Aktion erlebt hat, kann nicht mehr zurück..

Ich versteh ihn. :wink:

Glaube ich dir durchaus. Das Problem ist, dass es keinen 4k Monitor gibt der auch 3DVision unterstützt und das noch dauern wird, bis es DP 1.3 gibt. 3DVision hat mir gestern wieder die Augen aus dem Kopf geschlagen und die Kinnlade ist auf dem Tisch zerschellt.

Die Lösung für mich wären zwei Monitore. Ein 4k Monitor für nicht 3DVision Titel und der andere für 3DVision. :)

registrierter Gast
2014-10-23, 10:04:04
Wer 4k in Aktion erlebt hat, kann nicht mehr zurück..

Ich versteh ihn. :wink:
So lange es keine Desktopumgebungen gibt, welche 4K unterstützen, kann man sehr wohl noch zurück. Mein 4K Monitor ist ein reiner Officemonitor und ich stelle die Auflösung jeden Morgen auf 2304x1296, weil ansonsten alles zu klein zum Arbeiten wäre.

Wer 4K als Spielemonitor nutzt, der wird sicherlich glücklich damit sein. :)

Edit:
Ein 25" mit 1440er Auflösung wäre für aktuelle OS Verhältnisse einfach perfekt zum Arbeiten.

SamLombardo
2014-10-23, 10:21:00
Glaube ich dir durchaus. Das Problem ist, dass es keinen 4k Monitor gibt der auch 3DVision unterstützt und das noch dauern wird, bis es DP 1.3 gibt. 3DVision hat mir gestern wieder die Augen aus dem Kopf geschlagen und die Kinnlade ist auf dem Tisch zerschellt.

Die Lösung für mich wären zwei Monitore. Ein 4k Monitor für nicht 3DVision Titel und der andere für 3DVision. :)
Du hast ja sowas von recht:smile:. Ein 4K 3D Vision fähiger Monitor (am besten noch passiv *träum*) wäre sofort meiner. (Fast) egal zu welchem Preis:biggrin:

PHuV
2014-10-23, 12:01:20
Ich kann dich nicht ernst nehmen.
Warum nicht. Zudem ein weiterer Punkt: wer will den für die Foto- und Bildbearbeitung einen 16:9-Bildschirm? :rolleyes Schon mal hochauflösende Bilder damit angeschaut?
Wer 4k in Aktion erlebt hat, kann nicht mehr zurück..

Ich versteh ihn. :wink:
Danke, wenigstens jemand, der versteht. Es ist wirklich so, mein oller Dell 30" wirkt einfach nicht mehr so klar und scharf.
dann verstehe auch, dass es auch leute gibt denen 1440p 120+Hz GSync mehr gibt.
Verstehe ich auch, seh ich jetzt auch mit G-Sync. Ohne ist nicht mehr, man gewöhnt sich einfach zu schnell dran. Aber 440p 120+Hz GSync ist auch was anderes als der vorgestellte "farbechte" Benq-Monitor. Welche Käuferschicht soll den damit angesprochen werden. Wer will den einen 23,8" mit 2560x1440? Wie gesagt, der Markt bietet doch heute viele andere Monitore.
Hier auch mal ein Kommentar:

http://www.prad.de/new/monitore/test/2014/test-samsung-u28d590d-led-teil5.html#Bildqualitaet
Viele Anwender empfinden die genannte Auflösung von 2.560 x 1.440 Pixeln auf einem 27 Zoll Gerät schon als zu klein oder als gerade noch tolerierbar.

3DVision hat mir gestern wieder die Augen aus dem Kopf geschlagen und die Kinnlade ist auf dem Tisch zerschellt.
Kann Du mir bitte erklären, was Du damit genauer meinst? Was das so gut oder wie, und welches Spiel? Seit ich das OR DK2 kenne, ist für mich persönlich 3D-Vision einfach nur lau.

Showtime
2014-10-23, 12:42:24
Ich kann die "Pixelfanatiker" hier verstehen. Privat habe ich auch die Auswahl, ob ich an einem 24"-Dell mit 1.920 * 1.200 Pixel arbeite oder an einem Surface Pro 3 mit 12" und 2.160 * 1.440 Pixel. Die Auswahl fällt praktisch immer auf das Surface, weil ich es einfach satt bin, Pixel an meinem Monitor zu zählen. Für mich kann 4K auf dem Desktop daher auch gar nicht schnell genug kommen (und gerne auch in 16:10...).

robbitop
2014-10-23, 12:59:51
Vorher bräuchte es eine anständige GUI-Skalierung. Heute hat man die Wahl zwischen super kleiner Schrift oder die Pixelschärfe aus der Waschküche. :down: meh

ChaosTM
2014-10-23, 13:23:46
Kann ich nicht nachvollziehen.
(edit.: win7 pro)
Bei 164% Skalierung und 157dpi (meine Pixeldichte) ist die Schrift angenehm lesbar UND knackscharf.
Alles bestens - nur Steam zickt etwas..

Chris Lux
2014-10-23, 14:37:50
Oder 5% Sehstärke. :D
Das kann ich sogar bei den aktuellen Panasonic Plasmas noch. Und da liegt locker eine Größenordnung an Schwarzwert zu den VA Panels.

Das Auge arbeitet ja was Licht angeht sehr adaptiv. Wenn keine andere Lichtquelle mehr als der TV zu sehen ist, braucht es schon OLED um das wirklich erreichen zu können.
Bias Lighting...

robbitop
2014-10-23, 15:09:15
Sowas wie Ambilight meinst du? Na dann lieber nativen Kontrast. :)

Gipsel
2014-10-23, 15:16:16
Igitt! Aber local Dimming müßte bei schwarzen Balken ganz gut funktionieren.

RLZ
2014-10-23, 16:42:51
Igitt! Aber local Dimming müßte bei schwarzen Balken ganz gut funktionieren.
Wenn man es richtig umsetzt schon.

Sony ist bei ihrem 1080p Topmodell dieses Jahr von horizontale Anordnung mit VA auf vertikale Anordnung mit IPS gewechselt. Damit waren die Balken nicht mehr dimmbar und wegen IPS zusätzlich grau.
Da bleibt nur noch ein :facepalm:

Loeschzwerg
2014-10-23, 16:48:08
Hat schon einer die Windows 10 Preview auf einem 4k Moni rennen? Bessert sich was zu 8.1?

Jonas_2014
2014-10-23, 17:10:11
Deswegen kauft man auch dieses Jahr lieber die W8-Reihe von Sony. VA-Panel. :up:

Mein 60" hat zwar kein Local-Dimming, aber die Balken sind dank des VA-Panels ziemlich schwarz. Verglichen mit einem Panasonic VT50-Plasma kaum Unterschiede festzustellen. Dafür hat man bei Helligkeit im Raum 100% Schwarz, das konnte der VT50 zB gar nicht. Da war Schwarz dann deutlich schlechter als beim meinem Sony jetzt. Natürlich nur subjektiv. :)

Rente
2014-10-23, 18:25:30
Hat schon einer die Windows 10 Preview auf einem 4k Moni rennen? Bessert sich was zu 8.1?
Die Skalierung funktioniert wieder besser, man geht jetzt größtenteils den gleich Weg wie Apple, natürlich gibt es weiterhin "Problem-Programme" und viele Altlasten die noch aktualisiert werden müssen (Icons usw.).

Loeschzwerg
2014-10-23, 18:54:52
Die Skalierung funktioniert wieder besser, man geht jetzt größtenteils den gleich Weg wie Apple, natürlich gibt es weiterhin "Problem-Programme" und viele Altlasten die noch aktualisiert werden müssen (Icons usw.).

Passt, die Altlasten wird man eh nie auf einen Schlag wegbekommen. Solange man nicht täglich über schlechte GUI Skalierung stolpert ist alles ok.

Showtime
2014-10-24, 10:58:27
Vorher bräuchte es eine anständige GUI-Skalierung. Heute hat man die Wahl zwischen super kleiner Schrift oder die Pixelschärfe aus der Waschküche. :down: meh

Kann man da bei 4K-Monitoren nicht einfach die Windows-Skalierung auf 200 % stellen? Dann bekommt man doch Schriften, Icons etc. in derselben Größe wie auf 1080p zu sehen, aber mit der erhöhten Bildschärfe von 4K, oder habe ich da irgendwo einen Denkfehler?

ChaosTM
2014-10-24, 11:53:51
Kann man da bei 4K-Monitoren nicht einfach die Windows-Skalierung auf 200 % stellen? Dann bekommt man doch Schriften, Icons etc. in derselben Größe wie auf 1080p zu sehen, aber mit der erhöhten Bildschärfe von 4K, oder habe ich da irgendwo einen Denkfehler?

Das geht, ja.
Ich hab auch mit 200% angefangen. Bin aber mittlerweile bei 170, da ich jetzt etwas näher am Monitor sitze als früher und alles viel entspannter lesbar ist.
Windows ist nicht mehr das Problem. Manche Programme skalieren halt noch nicht gut oder gar nicht aber die werden immer weniger.

Godmode
2014-10-24, 12:10:37
Kann Du mir bitte erklären, was Du damit genauer meinst? Was das so gut oder wie, und welches Spiel? Seit ich das OR DK2 kenne, ist für mich persönlich 3D-Vision einfach nur lau.

Ich meine den 3D Effekt. Es ist einfach gewaltig, was man plötzlich alles für Details wahrnimmt, die in der 2D Projektion einfach nicht da sind. Ich habe the Vanishing of Ethan Carter gemeint. Den Fix installieren und die Spielwelt genießen: http://helixmod.blogspot.co.at/2014/09/the-vanishing-of-ethan-carter.html

akuji13
2014-10-24, 12:12:00
Ich meine den 3D Effekt. Es ist einfach gewaltig, was man plötzlich alles für Details wahrnimmt, die in der 2D Projektion einfach nicht da sind.

Stimmt....ghosting z. B. :D

Nicht falsch verstehen, ich genieße so einige Spiele dank 3D Vision aber die Mängel sind unübersehbar.

Unicous
2014-10-27, 13:30:57
Parade Tech hat übrigens (vor zwei 5 Tagen) einen neuen Controller vorgestellt:

http://www.paradetech.com/2014/10/parade-announces-dp667/

den DP 667

http://www.paradetech.com/products/displayport-lcd-timing-controller-products/dp667/


Der kann aber auch nur 4K.:freak:

Vllt. ist der DP 665 im Retina iMac doch extra für Apple (und Dell?) hergestellt und hat eine verdoppelte Anzahl der Lanes um 5K zu ermöglichen (oder lediglich die Bandbreite wurde out of spec erhöht).

Jedenfalls gibt es jetzt einen Controller für native 4k Displays.


edit:

Ooooh: money qoute aus der PM:

“Traditionally only used between a GPU and embedded display, eDP is now making inroads as the panel interface within a computer monitor,” said Jimmy Chiu, Executive VP of Marketing at Parade Technologies. “As monitors move towards higher resolution such as 4K and beyond, the pin and wire count to support the existing LVDS interface, or even MIPI, is simply not practical. And enabling the DP667 with an SST interface means it can be supported by various monitor controller devices, in addition to a direct GPU interface with an AIO device. The use of SST ensures improved compatibility and interoperability, and can also reduce display enabling latency.”


Außerdem:

The DP667 is compliant to eDP v1.3 and includes backlight control capability through the eDP AUX Channel. The output of the DP667, which interconnects to the LCD column drivers, supports various point-to-point COF/COG interface types including Parade’s SIPI™ interface standard. The DP667 supports eDP power management features including variable frame rate control protocols compatible with all popular GPUs, and supports the DisplayPort Adaptive Sync feature. Device configuration capability includes programmable Tcon control signal generation, row / column driver I/Os, and a programmable Gamma look-up table.


Edit: Ich habe noch eine ganz verquere Theorie. Was wäre wenn der DP 665 nichts weiter als ein DP663x2 ist?

VooDoo7mx
2014-10-27, 18:53:35
Kann man da bei 4K-Monitoren nicht einfach die Windows-Skalierung auf 200 % stellen? Dann bekommt man doch Schriften, Icons etc. in derselben Größe wie auf 1080p zu sehen, aber mit der erhöhten Bildschärfe von 4K, oder habe ich da irgendwo einen Denkfehler?

Doch genau so sieht es aus. Gibt aber immer noch reihenweise Programme die nicht ordentlich skalieren und wo dann einfach nur um 200% vergrößert wird und dies derbe scheiße aussieht.
Zusätzlich handhaben auch die verschiedenen Windowsversionen die Skalierung anders. Richtig gut geht das mit Windows 8.1. Wenn man High dpi Displays nutzt, sollte man auch Win 8.1 nutzen alles andere ist halbgar und suboptimal.

mironicus
2014-10-29, 13:33:01
http://www.ultra-hdtv.net/philips-bdm4065uc-40-zoll-grosser-uhd-monitor-mit-va-panel/
Anleitung: http://download.p4c.philips.com/files/b/bdm4065uc_61/bdm4065uc_61_dfu_deu.pdf
Wie wäre die Pixeldichte bei 40 Zoll? Bei so einer Größe sollte man theoretisch die Windowsskalierung bei 100% belassen können.

Kartenlehrling
2014-10-29, 13:40:20
ich meine gelesen zu haben ... nur 110dpi was für einen heutigen Monitor immer noch viel ist.

ChaosTM
2014-10-29, 13:49:14
Doch genau so sieht es aus. Gibt aber immer noch reihenweise Programme die nicht ordentlich skalieren und wo dann einfach nur um 200% vergrößert wird und dies derbe scheiße aussieht.
Zusätzlich handhaben auch die verschiedenen Windowsversionen die Skalierung anders. Richtig gut geht das mit Windows 8.1. Wenn man High dpi Displays nutzt, sollte man auch Win 8.1 nutzen alles andere ist halbgar und suboptimal.

Halbgar und suboptimal sind Monitor < 2160p ;)

Man muss bei der Skalierung etwas herumprobieren, bis man die für sich optimale Lösung findet.

Showtime
2014-10-29, 14:50:33
http://www.ultra-hdtv.net/philips-bdm4065uc-40-zoll-grosser-uhd-monitor-mit-va-panel/
Anleitung: http://download.p4c.philips.com/files/b/bdm4065uc_61/bdm4065uc_61_dfu_deu.pdf
Wie wäre die Pixeldichte bei 40 Zoll? Bei so einer Größe sollte man theoretisch die Windowsskalierung bei 100% belassen können.

Und wie benutzt man so einen "Monitor"? Ich habe testweise mal meinen Fernseher mit 40 Zoll auf meinen Schreibtisch an dieselbe Position wie meinen Monitor gestellt und wurde praktisch von der Größe erschlagen. Ging gar nicht. Hängt man den dann einfach 1-2 Meter entfernt an eine Wand und arbeitet/spielt daran? Auf einem Tisch kann ich es mir, wie gesagt, nicht vorstellen.

Und ja, das Gerät hat 110 ppi. Ich finde aber nicht, dass das "viel" ist. Ein 22 Zoll großer 1080p-Monitor kommt auf etwa 100 ppi, was jetzt nicht so viel weniger ist. Dieser 23,8 Zoll große 4K-Monitor von Dell braucht endlich mal Konkurrenz, das Ding kostet immer noch 550 Euro.

Ist eigentlich irgendwann auch mit 16:10-Monitoren zu rechnen (oder anderen Formaten, die ein wenig in die Höhe und nicht in die Breite wachsen)?

Kartenlehrling
2014-10-29, 15:14:52
Das ist auch eins der vielen probleme bei so grossen Monitor, die Augen ermüden viel zu schnell weil sie über den gesammten Bildschirm wandern müssen,
bester abstand ist der wo man ohne seine Augen zu bewegen alles im Blick hat, empfohlen wird auch ober Bildrand = Augenbraun.

Und dann sollte der Text ohne seine Sitzposition zu verlassen immer lesebar sein.

Atma
2014-10-29, 18:52:11
Ich weiß, dass das nicht unbedingt hier rein gehört, doch da hier einige mit tiefgreifenden Kenntnissen unterwegs sind, stell ich einfach mal die Frage:

Habe seit letzten Samstag einen LG 34UM95-P mit dem ich an sich wirklich sehr zufrieden bin. Tolles Format, tolle Farben usw. Nur gibt es ein Problem: brutaler IPS Glow. Den Effekt kannte ich vor dem LG in der Form noch nicht, obwohl ich davor auch schon viele Jahre Monitore mit IPS Panel hatte. Aus dem Grund habe ich den Monitor bereits retourniert und gestern das Austauschgerät erhalten. Leider hat der genau dasselbe Problem: brutaler IPS Glow in der linken unteren Ecke.

Nun zur eigentlichen Frage: ist es möglich dem IPS Glow in irgendeiner Art zumindest etwas entgegenzuwirken? Mit Hardwarekalibrierung mittels Colorimeter oder so? Möchte den Monitor nur sehr ungern zurückgeben und mir das Geld wiedergeben lassen, aber wenn man den Glow nicht entgegenwirken kann, bleibt wohl leider keine andere Möglichkeit. Bei einem Gerät, das fast 800 € kostet ist es einfach inakzeptabel so einen Mangel nicht anzukreiden.

akuji13
2014-10-29, 20:02:53
Nun zur eigentlichen Frage: ist es möglich dem IPS Glow in irgendeiner Art zumindest etwas entgegenzuwirken? Mit Hardwarekalibrierung mittels Colorimeter oder so?

Wenn es da etwas gäbe wäre mir das bislang unbekannt, also sage ich mal nein.

Leider haben die ansich guten LG´s häufig Probleme damit, ich hatte noch keinen von denen der da i. O. gewesen wäre.

Atma
2014-10-29, 20:36:48
Wenn es da etwas gäbe wäre mir das bislang unbekannt, also sage ich mal nein.

Leider haben die ansich guten LG´s häufig Probleme damit, ich hatte noch keinen von denen der da i. O. gewesen wäre.
Verdammt :frown:. Das hatte ich befürchtet.

PSXRacer
2014-10-30, 02:43:11
Sagt mal sieht fullhd auf einem 4k tv genauso mies aus wie 720p auf einem fullhd tv?

Felixxz2
2014-10-30, 03:05:56
Nein, uhd ist genau fhd x4, man kann fhd im Prinzip pixelgenau abbilden auf einem 4k gerät.
Tests wären trotzdem mal spannend, weil ein 4k tv ja andere spalte zwischen den pixeln hat, innerhalb eines fhd pixels gibt es also schwarze linien, andererseits sind die abstände zu nachbarpixeln kleiner.

Tesseract
2014-10-30, 12:32:48
Leider hat der genau dasselbe Problem: brutaler IPS Glow in der linken unteren Ecke.

wenn du mit dem kopf in der bildmitte bist ist das was du beschreibst kein IPS-glow sondern backlight bleeding aufgrund billiger verarbeitung. der glow ist immer relativ zur kopfposition - geometrisch bedeutet das, dass IPS-pixel diagonal mehr licht durchlassen. wenn du z.B. horizontal von der seite auf das bild siehst sollte es relativ gut sein, wenn du dann aufstehst und diagonal von schräg oben auf das bild siehst müsste es als ganzes ausbleichen. wenn das was du meinst immer lokal in einer ecke bleibt hat es mit IPS nix zu tun.

mironicus
2014-10-30, 14:35:15
Ist das Backlight-Bleeding eigentlich markanter geworden seid es LED-Hintergrundbeleuchtung gibt? Neue Monitore haben heute alle LEDs und deutlich weniger Stromverbrauch als Monitore mit CCFL. Mein Sony-Fernseher von 2010 hat CCFL hat praktisch kaum Backlight-Bleeding, bei LED-Monitoren sehe ich schon Farbveränderungen beim einfarbigen Anmelde-Bildschirm unter Windows. Durch das Backlightbleeding verfärbt sich ein Blau in ein Lila an den Ecken. :D

Atma
2014-10-30, 18:26:33
wenn du mit dem kopf in der bildmitte bist ist das was du beschreibst kein IPS-glow sondern backlight bleeding aufgrund billiger verarbeitung. der glow ist immer relativ zur kopfposition - geometrisch bedeutet das, dass IPS-pixel diagonal mehr licht durchlassen. wenn du z.B. horizontal von der seite auf das bild siehst sollte es relativ gut sein, wenn du dann aufstehst und diagonal von schräg oben auf das bild siehst müsste es als ganzes ausbleichen. wenn das was du meinst immer lokal in einer ecke bleibt hat es mit IPS nix zu tun.
Wenn ich meinen Kopf nach links unten Bewege ist der Effekt fast ganz weg. In normaler Position schimmert der Effekt orange/gelblich.

PHuV
2014-10-31, 23:10:51
Sagt mal sieht fullhd auf einem 4k tv genauso mies aus wie 720p auf einem fullhd tv?
Was hast Du den für ein TV? Und ich kann bisher über 720p weder auf FullHD Plasma oder Beamer nichts negatives sagen. Was soll den da so schlecht aussehen? :confused:

Und FullHD auf 4k auf dem Monitor ist genauso wie bei FullHD-Monitor. Wenn man jedoch vorher einen 4k-Filmg gesehen hat, sieht FullHD doch etwas mau aus.

samm
2014-11-02, 14:04:00
Was hast Du den für ein TV? Und ich kann bisher über 720p weder auf FullHD Plasma oder Beamer nichts negatives sagen. Was soll den da so schlecht aussehen? :confused:Wenn der Bildschirm nativ 1080p bietet, muss für die Vollbild-Wiedergabe von 720p geblurrt (extrapoliert) werden. Hingegen könnte 1080p auf einem 2160p-Bildschirm pixelgenau wiedergegeben werden, weil jedes Ursprungspixel direkt auf 4 Zielpixel abgebildet werden kann.

Mandalore
2014-11-02, 15:41:21
Kurze Frage: Gibts es eigentlich Spiele für Full HD bzw. QuadHD Smartphones, die nativ darauf laufen? Mich würde interessieren, wie es mit AA ausschaut bei 400PPI+, ob es ab da soweit ist, dass man es nicht mehr braucht. Jemand ne Ahnung?

Hat eigentlich schon jemand 4K Monitor mit OS X Yosemite ausprobiert? Müsste doch eigentlich perfekt laufen, da ja selbst 5K in Harmonie damit auskommt?

Botcruscher
2014-11-02, 15:51:21
Mit mehr Auflösung nimmt das Flimmern nur ab, es verschwindet nicht.

Moralelastix
2014-11-02, 16:10:30
Was is nu eingentlich aus der Intel Initiative in Zusammenarbeit mit Samsung geworden. Da sollten doch billige 4k PLS Monitore um die 350,- € kommen?

Alles nur Marketing Blablah?

Nightspider
2014-11-02, 16:17:26
Das teuerste ist vllt noch der Controller-Chip. Gibt ja glaube erst ein oder zwei auf dem Markt.

Ich weiß gar nicht ob die großen Firmen wie Samsung auch eigene Steuerungs-Chips für Monitore herstellen. Das würde niedrigere Preise ermöglichen.
Imo wird es aber nicht mehr lange dauern bis Samsung auch PLS-4K-Monitore herausbringen wird. Und Samsung wird bestimmt auch mit einem eigenen 5K Monitor kontern um nicht Apple das gesamte Feld überlassen zu müssen.

Mandalore
2014-11-03, 20:03:42
Mit mehr Auflösung nimmt das Flimmern nur ab, es verschwindet nicht.


:eek::confused:


Kannst du das näher erläutern?;):redface:

Grestorn
2014-11-03, 20:14:35
:eek::confused:


Kannst du das näher erläutern?;):redface:

Das Schimmern entsteht durch Moiré Effekte, eine Interferenz zwischen dem Raster der darzustellenden Grafik und dem Pixelraster des Monitors. Nur eine unendlich hohe Auflösung des Monitors würde das zum Verschwinden bringen.

Deswegen wird man immer eine Anti-Aliasing Technik brauchen, um Schimmern zu unterdrücken.

derF
2014-11-04, 10:11:57
Hm, auch bei Antialiasing (ohne unendlich Abtastsamples) hast du dasselbe Problem, nur dass es dort in weniger heftigen Farbwandlungen des dafür größeren Pixels endet (dafür mit Unschärfe im Vergleich zum höher aufgelösten Bild).
Man braucht so oder so eine höhere Abtastung als das Quellmaterial hochfrequente Stellen enthält. Nyquist-Shannon wird da vermutlich nicht reichen, da der Unterschied zwischen ein und zwei Pixel Breite ja auch noch als unruhiges Bild wahrgenommen wird.

Grestorn
2014-11-04, 10:16:00
Hm, auch bei Antialiasing (ohne unendlich Abtastsamples) hast du dasselbe Problem, nur dass es dort in weniger heftigen Farbwandlungen des dafür größeren Pixels endet (dafür mit Unschärfe im Vergleich zum höher aufgelösten Bild).
Man braucht so oder so eine höhere Abtastung als das Quellmaterial hochfrequente Stellen enthält. Nyquist-Shannon wird da vermutlich nicht reichen, da der Unterschied zwischen ein und zwei Pixel Breite ja auch noch als unruhiges Bild wahrgenommen wird.

Prinzipiell stimmt es, dass auch AA nicht ein perfektes, Shimmering-freies Bild erzeugen kann, aus genau diesem Grund.

Da AA aber die Pixelkanten "abschleift" wird der Effekt doch massiv unterdrückt, und zwar weitaus effektiver, als es die Erhöhung der Auflösung vermag.

PHuV
2014-11-04, 10:32:25
Wenn der Bildschirm nativ 1080p bietet, muss für die Vollbild-Wiedergabe von 720p geblurrt (extrapoliert) werden. Hingegen könnte 1080p auf einem 2160p-Bildschirm pixelgenau wiedergegeben werden, weil jedes Ursprungspixel direkt auf 4 Zielpixel abgebildet werden kann.
Theoretisch? Sicher. Nur sieht man das bei einen normalen TV oder Monitor nicht. Mir ist da bisher noch nie was aufgefallen.

Sunrise
2014-11-04, 11:31:15
Theoretisch? Sicher. Nur sieht man das bei einen normalen TV oder Monitor nicht. Mir ist da bisher noch nie was aufgefallen.
Die Aussage von PSXRacer kann ich auch nicht nachvollziehen.

Das äußert sich bei schlechtem Ausgangsmaterial eigentlich garnicht, bei gutem Ausgangsmaterial allenfalls in leichter Unschärfe und bei sehr gutem Ausgangsmaterial mit minimalem Detailverlust. Jedoch umso besser das Downscaling (möglichst wenig Detailverlust) vorher war, umso weniger wirst du überhaupt etwas sehen können. Ist dein Material dass du zuspielst schon detailarm oder unscharf, wird man keinen nennenswerten Unterschied sehen können, außer dein TV ist extrem groß und der Pixelabstand entsprechend größer (bei FullHD).

Allenfalls das reine Wissen darüber, dass ich jetzt gerade 720p zuspiele suggeriert uns natürlich "Das ist ja nur 720p, dass muss schlechter als natives 1080p sein...". Klar, es ist auch schlechter, nur eben nicht unbedingt sichtbar schlechter.

Da müssen schon mehrere Dinge zusammen kommen (grottenschlechtes Upscaling, schlechtes Ausgangsmaterial, evtl. sogar garkein natives HD-Material, der TV ist extrem groß oder taugt schlicht nichts...), dass man von "schlecht" reden kann.

Wenn man madVR für Videos oder Screenshots (oder was auch immer man darstellen will) nutzt und NNEDI3-Upscaling aktiviert, dann hast du ein so gestochen scharfes Resultat, dass du garnicht erst bemerkst, dass da eine Extrapolation vorgenommen wurde. Dieses extrem hochwertige Upscaling ist so gut, dass man da sogar deutlich niedriger aufgelöstes Quellmaterial zuspielen kann ohne nennenswerte Artefakte bzw. Nebeneffekte feststellen zu können. Das erhöht natürlich nicht die Qualität des Ausgangsmaterials, aber stellt das Bild ohne sichtbare Upscaling-Artefakte dar. Diese Qualität ist aber madVR bzw. Avisynth-Filtern vorbehalten, sowas wird es wohl so schnell nicht bzw. nie in Consumer-Hardware geben.

Bin gerade nicht am Rechner sonst könnte ich da mal Vergleichsscreenshots zeigen, aber 720p von 1080p bei gutem Ausgangmaterial auf einem FullHD-Monitor zu unterscheiden ist evtl. bei Betrachtung mit der Lupe möglich, aber bei normalem Sitzabstand sieht man da kaum bis garkeinen Unterschied. Erst recht dann nicht wenn man normale TV-Sitzabstände einhält und hier nicht am TV klebt.

Für Spiele gelten natürlich zusätzliche Regeln.

Annator
2014-11-04, 12:58:28
Ab welcher Pixeldichte wird AA überflüssig?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=516701

PHuV
2014-11-04, 13:46:48
Computergenerierte Grafik ist noch mal was anderes als Filme und Co. Wie Sunrise es sagt, bei Computerspielen sieht man einen Unterschied mit 720p, bei normalen TV-Schauen eben nicht.

akuji13
2014-11-04, 13:57:13
Bin gerade nicht am Rechner sonst könnte ich da mal Vergleichsscreenshots zeigen, aber 720p von 1080p bei gutem Ausgangmaterial auf einem FullHD-Monitor zu unterscheiden ist evtl. bei Betrachtung mit der Lupe möglich, aber bei normalem Sitzabstand sieht man da kaum bis garkeinen Unterschied.

Auf einem 1080p Monitor sieht 720p Material in fullscreen mMn furchtbar aus.
Sehe ich bei den Pornos sofort. :D

Klar schwindet der Unterschied mit der Qualität des jeweiligen Materials (720p ist ja nicht automatisch immer von der gleichen Qualität), aber sichtbar bleibt es immer.

aufkrawall
2014-11-04, 14:13:18
Mit vernünftigem Scaling ist der Unterschied bei Filmen wirklich meist nicht groß.

akuji13
2014-11-04, 14:19:03
Das ist relativ.

Zumal es auch vom Monitor abhängig ist: auf einem 24" 1080p sieht 720p anders aus als auf 27" 1080p.

Und panel/Elektronik des selbigen sind auch nicht zu vernachlässigen.

PHuV
2014-11-04, 14:55:57
Da sollten wir echt mal einen Test machen. :smile:

aufkrawall
2014-11-04, 15:22:03
Das ist relativ.
Eigentlich nicht, Filme sind im Vergleich zu Spielen fast immer sehr unscharf.

akuji13
2014-11-04, 15:48:45
Relativ weil Auslegegungssache.

Ich sehe da einen deutlichen Unterschied, andere nicht oder nur in geringem Maße.

VooDoo7mx
2014-11-04, 16:45:07
So Jungs, da ich keinen Bock mehr hatte auf den Asus 27" AHVA zu warten und gesparte 220€ + 1" auch sehr interessant für mich klangen, habe ich mir den Samsung mit den weit verbereiteten 28" TN Panel gegriffen.

Ich hatte erst die Befürchtung das 28" schon zu groß für den Schreibtisch sind, also man nicht mehr alles erfassen kann ohne permanent den Kopf zu drehen, doch die Größe passt optimal.

Das Design des Displays mit den schmalen Rändern und den schicken Standfuß ist ein absoluter Hingucker. Wie vorab schon informiert ist die Stabilität des Standfußes nicht sonderlich gut

Auch nvidia typisch war die Installation hervorragend einfach. Quasi Plug and Play an den Displayport und es wurde sofort auf 3840x2160 60Hz SST gestellt.

Nach den ersten testen muss ich sagen, dass der LCD das beste TN Panel hat was ich bisher geshen hab. Bei normaler Benutzung fällt auch im vertikalen keinerlei Color Shifting auf. Beim betrachten einiger 4K Youtube Videos kommen auch Fraben sehr gut rüber. Mit etwas NAchhilfe in den Einstellungen kann man auch in etwa 95% sRGB erreichen, was für ein TN Panel schon sehr beachtlich ist. Leider saufen die Kontraste dann doch etwas ab, besonders in vergleich zu meinen Galaxy Tab S 10.5 und meinen Surface 3 Pro. Wobei diese Geräte auch die besten Displays ihrer Klasse haben und ich den Samsung eher als Budget Produkt sehe.

Beim Spielen ist mir sofort aufgefallen, dass meine GTX680 oftmals nicht mehr für 60fps ausreicht. Wenn man aber mit weniger FPS leben kann, reicht auch eine Grafikkarte dieser Klasse aus. Grid 2 @ Max mit 2xMSAA läuft z.B. mit 40-50fps. Borderlands 2 @ Max Mit etwas Tweaking in den Settings sind da auch sicher 60fps drin. Andere Spiele die die Grafikkarte weniger fordern wie z.B. Grim Dawn, Deagon Age, Mass Effect 2+3 bleiben aber locker bei 60fps und sehen fantastisch aus. Bei fast jeden Game dümpelt meine GTX680 zwischen 110 und 120% Powertarget, in Spitzen sogar noch mehr. In den 2 1/2 Jahren seit ich diese Karte habe, wurde sie noch nie so dermaßen gefordert.
Games in 4k auf den Teil sind einfach nur jaw dropping. So einen Quantensprung hab ich schon seit Jahren nicht mehr erlebt. Egal was man an Anti Alaising auf sonstigen Monitoren einstellt an den Eindruck von 4k kommt da rein gar nichts ran. Oftmals reicht schon ein günstiges Post Process AA und man hat ein ruhigeres und schärferes Bild als z.B. 1080p mit 4xMSAA auf 23", was ich vorher hatte. Allgemein richtet so Post Process AA kaum den Schaden an, den man sonst auf einen 1080p Schirm sieht. TN typisch hat das Display auch sehr gute Schaltzeiten und kaum Inputlag. Es gibt sogar einen Modus, welcher diesen noch weiter reduziert, muss ich aber noch etwas testen.

Jedoch machen auch einige Games in 4K Probleme, dass nur noch der Bildschirm/Mauszeiger flackert nachdem man die Auflösung gewählt hat. Dies betrifft unter anderen Star Wars:TOR, Supreme Commander 2, Sins of a Solar Empire Rebellion und Rayman Origins. Hatte gestern leider nicht mehr viel Zeit zum testen, vermute aber irgendeinen Treiber Bug oder Einstellungsfehler, da andere Leute diese Games schon in 4K spielen.

Mein vorläufiges Fazit ist, dass der Samsung 28" TN UHD für das was er kostet ein Klasse Produkt ist und sein Geld locker wert ist.

mironicus
2014-11-04, 17:03:35
Hm... hoffentlich bereust du das nicht, wenn bezahlbare 4K-IPS Displays sich auf den Markt ausbreiten. Die Preise werden ohnehin ganz stark fallen bei breiter Verfügbarkeit.

Meinen 144 Hz-TN schalte ich kaum noch ein, das Bild ist gegenüber meinen 24 Zoll-IPS Asus PB248Q einfach grottig. Selbst die bessere Bewegungsschärfe, Lightboost, darauf kann ich mittlerweile verzichten.

ChaosTM
2014-11-04, 17:19:12
Games in 4k auf den Teil sind einfach nur jaw dropping. So einen Quantensprung hab ich schon seit Jahren nicht mehr erlebt. Egal was man an Anti Alaising auf sonstigen Monitoren einstellt an den Eindruck von 4k kommt da rein gar nichts ran. Oftmals reicht schon ein günstiges Post Process AA und man hat ein ruhigeres und schärferes Bild als z.B. 1080p mit 4xMSAA auf 23", was ich vorher hatte.


Es werden immer mehr. :)
Man muss es wirklich gesehen haben..

VooDoo7mx
2014-11-04, 19:32:58
Hm... hoffentlich bereust du das nicht, wenn bezahlbare 4K-IPS Displays sich auf den Markt ausbreiten. Die Preise werden ohnehin ganz stark fallen bei breiter Verfügbarkeit.

Meinen 144 Hz-TN schalte ich kaum noch ein, das Bild ist gegenüber meinen 24 Zoll-IPS Asus PB248Q einfach grottig. Selbst die bessere Bewegungsschärfe, Lightboost, darauf kann ich mittlerweile verzichten.

Man darf auch nicht vergessen das TN /= TN und IPS /= IPS ist. Es gibt genauso auch schlechte glänzende IPS Panel die nmicht mal mit 200CD leuchten und wo die Farbkalibrierung nicht mal 50% sRGB abdeckt. Genauso gibt es auch haufenweise supergrottige 1366x768 15,6" TN Panel die millionenfach in billigen Notebooks einegbaut werden. Diese sind so schlecht das man gar nicht drüber reden muss.

Ich hab einfach keinen Bock mehr zu warten bis bezahlbare IPS 4K Displays kommen. Ich möchte jetzt was kaufen. Eine Alternative wäre das Asus 27" AHVA (IPS Like). Der kommt aber jetzt erst Ende November, mit Pech wird der aber weiter verschoben und dann heißt es wieder warten, warten und nochmal warten. Zusätzlich wird dieser Monitor mit über 700€+ Versand weit über 200€ mehr kosten.
Persönlich wollte ich mir ein $400 23,8" PLS 4K Display aus der Samsung/Intel Initiative kaufen. Auch weil ich 28" als zu Groß empfand. Jetzt da ich so einen bei mir stehen habe, sehe ich diesen als die richtige größe an, uma uch von der größeren Arbeitsfläche zu profitieren. Bei 23,8" wird alles so klein, dass man skalieren muss und der Flächenvorteil ist dahin. Diese Samsung/Intel Displays sollten im 3.Quartal kommen. Warscheinlich kommen die nicht einmal mehr dieses Jahr oder anscheinend überhaupt nicht mehr.
Man kann immer auf was besseres warten und es wird auch immer günstiger. 2004 hab ich für einen 19" TN LCD noch über 400€ bezahlt.
Jedoch glaube ich nicht, dass auch 2015 einen 4K Bildschirme für 200€ hinterhergeworfen werden. Da wird sich preislich die nächste Zeit nicht viel tun. Es gibt einfach auch keien weiteren 4K Panels am Horizont, die den Preis noch weiter drücken können.

Psychopat
2014-11-04, 21:23:55
Ich würde mir auch gerne einen neuen Monitor kaufen. So kurz vor der Markteinführung von Freesync macht es aber wenig Sinn. Ich hoffe in nem halben Jahr gibt es Monitore die Gsync und Freesync beherrschen und man ist nicht durch eine Proprietäre Lösung gebunden. Gibt ja gerüchteweise Scalarchips die eben beides können.

PHuV
2014-11-04, 21:37:29
So Jungs, da ich keinen Bock mehr hatte auf den Asus 27" AHVA zu warten und gesparte 220€ + 1" auch sehr interessant für mich klangen, habe ich mir den Samsung mit den weit verbereiteten 28" TN Panel gegriffen.
Versteh ich nicht, für weniger als 100 € mehr hättest Du gleich G-Sync mit dabei, wenn Du den Acer genommen hättest. :confused: Oder bei beim Preis des Samsungs hättest Du auch den Asus bekommen, der in meinen Augen besser als der Samsung ist.

Ich überlege aktuell immer noch bei diesem Ding hier.

http://geizhals.de/lg-electronics-31mu97-b-a1162783.html

akuji13
2014-11-05, 09:11:45
Also wenn der mal nicht einen neuen glow-Rekord aufstellt! :D

Kauf den bitte mal und berichte uns. ;)

TN typisch hat das Display auch sehr gute Schaltzeiten und kaum Inputlag.

Hat der nicht um die 20ms?

[dzp]Viper
2014-11-05, 09:45:10
Für mich wären 4K auf 27" momentan noch nicht praktikabel. In vielen Spielen wird das UI dann einfach nur viel zu klein. Klar ist die Bildqualität wirklich toll (konnte es selber schon sehen) aber das mit dem UI ist einfach zu störend.

Wahrscheinlich sieht das ganze in 12-24 Monaten ganz anders aus. Gerade jetzt wo es im Treiber DSR gibt wird eine ordentliche UI-Skalierung hoffentlich bald in fast jedem Spiel vorhanden sein.

Ph0b0ss
2014-11-05, 09:49:41
So Jungs, da ich keinen Bock mehr hatte auf den Asus 27" AHVA zu warten und gesparte 220€ + 1" auch sehr interessant für mich klangen, habe ich mir den Samsung mit den weit verbereiteten 28" TN Panel gegriffen.

Ist damit der Samsung U28D590D, 28" gemeint? Ich frage deshalb, weil das Teil laut TFT Central insgesamt 39ms Input-Lag hat. Das ist doch zum Zocken völlig ungeeignet.

akuji13
2014-11-05, 09:52:11
Jein.

Ist ja nicht jeder gleich gepolt in solchen Sachen, vielen reichen solche Werte völlig aus ohne das als negativ zu empfinden.

Ich sags immer wieder, ein Freund von mir spielt noch immer an einem in allen Bereichen grottenschlechten V7 und findet das alles so in Ordnung.

PHuV
2014-11-05, 09:53:47
Ist damit der Samsung U28D590D, 28" gemeint? Ich frage deshalb, weil das Teil laut TFT Central insgesamt 39ms Input-Lag hat. Das ist doch zum Zocken völlig ungeeignet.
Versteh ich ja auch nicht, und der Asus PB287Q ist auch nicht teuerer, und vor allen Dingen schneller.

mironicus
2014-11-05, 09:56:28
Viper;10411893']Für mich wären 4K auf 27" momentan noch nicht praktikabel. In vielen Spielen wird das UI dann einfach nur viel zu klein. Klar ist die Bildqualität wirklich toll (konnte es selber schon sehen) aber das mit dem UI ist einfach zu störend.

Wahrscheinlich sieht das ganze in 12-24 Monaten ganz anders aus. Gerade jetzt wo es im Treiber DSR gibt wird eine ordentliche UI-Skalierung hoffentlich bald in fast jedem Spiel vorhanden sein.

Der 40 Zöller von Philips könnte dir sicherlich gefallen. Keine Windows-Skalierung notwendig aufgrund der Größe und das UI von jedem Spiel was nicht skaliert (davon gibt es eine Menge) bleibt gut lesbar.

Kartenlehrling
2014-11-05, 10:09:35
Ich finde auch die WQHD (2560x1440) Monitore interesanter als 4k,
die ersten 24" und 25" kommen noch dieses Jahr, sie können 24-85Hz, sind flicker-frei, fehlt nur noch Gametauglichkeit und volles freesync dann wär ich glücklich.


hier zb.
http://geizhals.de/acer-g7-g247hyu-schwarz-um-qg7ee-005-a1190832.html
Acer G7 G247HYU schwarz, 23.6" (UM.QG7EE.005) ab €299,99

robbitop
2014-11-05, 10:10:34
Ich würde nie wieder ein TN kaufen. Selbst bei meinem 800 € ASUS ROG SWIFT sind die Blickwinkel in vertikaler Richtung einfach zu eingeschränkt. Man sieht wie sich der Kontrast zu den Rändern hin verschlechtert. Gerade, wenn man sich schön in seinen Stuhl lümmelt. Aber auch beim direkten draufschauen.
Fällt mir insbesondere in dunkleren Szenen wie bei The Witcher 2 auf.

Andererseits würde ich nie wieder ohne mind 120 Hz und G-Sync leben wollen.

Ich freue mich schon auf das Panel mit 1440p + 144 Hz mit IPS.

Bis es >60 Hz bei 4K Panels gibt, dauert es noch. Und bis dato ist die Skalierung von Windows eh noch suboptimal. Ändert sich in Windows 10 laut meinen Recherchen nicht.

1440p finde ich aus 1m schon ziemlich gut. Ich sehe praktisch keine Pixel mehr und keine Treppen mehr. Wenn ich das ganze mit ein wenig AA kombiniere, ist das von der Artefaktfreiheit (Pixeltreppen, Flimmern, Moire etc) schon ziemlich perfekt.

Godmode
2014-11-05, 10:47:37
Würdest du den ROG Swift bis auf das TN Makel sonst empfehlen? Ich gurke immer noch mit meinem 24" 120Hz Benq herum, den ich auch Mangel an guten Alternativen bisher nicht ersetzt habe.

robbitop
2014-11-05, 11:03:47
Zum Zocken ist er IMO ein Traum.

27" ist IMO die ideale Größe
1440p bringt deutlich mehr Auflösung als 1080p - ist aber immernoch in Windows ohne Skalierung praktikabel -> DSR mit Faktor 4 bringt das Ganze auf 5K. Dafür müssen dann aber selbst deine 2x 980er mit OC "schwitzen". :D
144 Hz ist ein Traum. Selbst in Windows merkt man, dass alles viel schärfer in Bewegung aussieht und flüssiger ist. (finde es immer witzig, wenn ich mal ein Fenster vom ROG auf meinen 2. Monitor mit 60 Hz schiebe: smooth -> "ruckelig". Natürlich sind 60 Hz nicht ruckelig. Aber im Vergleich zu 144 Hz wirkt es wie ein Rückschritt)

Gekoppelt mit G-Sync einfach nur genial. Kein Stottern, kein Tearing. Auch weniger FPS fühlen sich dadurch merklich flüssiger an.

Leider musst du noch warten, wenn du SLI + G-Sync + DSR nutzen willst. DSR wird nicht freigeschaltet, sobald ein G-Sync Monitor erkannt wird. Soll aber bald gefixt werden.


Aber die Kehrseite der Mediallie ist ggü IPS ganz klar der schlechtere Blickwinkel. Da kann mir jeder sagen was er will, dass TN nicht TN ist. Das stimmt auch. Für ein TN sind Kontrast, Farben und Blickwinkel ganz gut. Kein Vergleich zu Gammel-Mediamarkt-TNs. Aber halt noch ein riesen Unterschied zu IPS. Besser gehts mit der Technologie halt nicht.

Verglichen zu einem VA ist der Kontrast natürlich auch mau. VAs erreichen zwischen 3000 und 5000:1. TNs und IPS halt ca. 1000:1.

Mir reicht der Kontrast meines ROGs. Nur der Blickwinkel nervt noch.

VooDoo7mx
2014-11-05, 11:20:08
Versteh ich nicht, für weniger als 100 € mehr hättest Du gleich G-Sync mit dabei, wenn Du den Acer genommen hättest. :confused: Oder bei beim Preis des Samsungs hättest Du auch den Asus bekommen, der in meinen Augen besser als der Samsung ist.

http://geizhals.de/lg-electronics-31mu97-b-a1162783.html

Gsync brauche ich nicht, da ich ausschließlich immer mit V-Sync bei konstanten 60fps komplett ohne Framedrops spiele. Außerdem finde ich den Acer Monitor hässlich.
Der Asus ist dahin gehend besser, da er die stabilere Konstruktion ist und viel mehr Verstellmöglichkeiten mit Pivot bietet als der Samsung. Sind aber alles Sachen die für mich keine Relevanz haben. Das Panel ist nämlich genau das selbe. Zusätzlich ist der Asus, viel größer, schwerer, dicker, klotziger und gefällt mir auch vom Design nicht. Ein dearart großer Monitor ist bei mir auch ein Einrichtungsstück was einen gewissen Stil haben muss. Zusätzlich ist der Samsung etwas günstiger und hat auch ein Displayport und HDMI Kabel im Lieferumfang. Auch nochmal Geld gespart.

Ist damit der Samsung U28D590D, 28" gemeint? Ich frage deshalb, weil das Teil laut TFT Central insgesamt 39ms Input-Lag hat. Das ist doch zum Zocken völlig ungeeignet.

Sagen wir es mal so: mir ist nicht mehr verzögerung aufgefallen als bei meinen bisherigen LCDs. Ich spiele aber auch kaum (Online)Shooter, sondern hauptsächlich Konsolenports mit Pad, RPGs, Strategiespiele und MMOs. Zusätzlich hat der Samsung Monitor eine Game Einstellung, die den Input Lag reduziert. Bin aber noch nicht wirklich zum testen gekommen.

Versteh ich ja auch nicht, und der Asus PB287Q ist auch nicht teuerer, und vor allen Dingen schneller.

Der hat genau das selbe Panel und Scaler, der kann gar nicht großartig anders sein. Und ja der ist teurer und man muss auch noch Kabel kaufen.

mironicus
2014-11-05, 11:22:46
Mir reicht der Kontrast meines ROGs. Nur der Blickwinkel nervt noch.

Lösung des Problems: Du guckst immer starr im idealen Blickwinkel deines Kopfes zum Monitor, so dass du niemals Kontrast- und Farbverschiebungen wahrnimmst.

Und wenn du von deinem Arbeitsplatz aufstehst schließt du immer voher die Augen und öffnest sie erst wenn dein Monitor deinen Popo erblickt.

Wenn du das ab jetzt immer machst, werden deine negativen Gedanken "Scheiß TN! Ich brauch IPS!" schnell verfliegen, weil du dadurch den einzigen wirklichen Nachteil des Monitors geschickt ignorierst und nicht mehr damit konfrontiert wirst. :freak:;D

robbitop
2014-11-05, 11:25:52
Dann musst du aber viel Leistung "verschwenden". Denn Voraussetzun ist, dass selbst die tiefsten Drops nicht unter 60 fps fallen. Und Schwankungen gibt es in Spielen Häufig in Bereichen von Faktor 2-3. Also liegt der Averagewert dann bei 80-120 fps.

Und die kannst du mangels 120/144 Hz Monitor nicht nutzen. Auch nicht die zusätzliche Schärfe.

Mit einem G/A-Sync Monitor reichen (bei sGPU) häufig 40-50 fps um subjektiv so flüssig zu sein wie gelockte 60 fps. Bedeutet, man kann sich mehr Details leisten oder Geld an der GPU sparen.

Man kann sich IMO 60 Hz + V-Sync IMO nicht schönreden. 144 Hz ohne G/A-Sync oder 60 Hz + G/A-Sync wären noch ein guter Kompromiss.

Lösung des Problems: Du guckst immer starr im idealen Blickwinkel deines Kopfes zum Monitor, so dass du niemals Kontrast- und Farbverschiebungen wahrnimmst.

Und wenn du von deinem Arbeitsplatz aufstehst schließt du immer voher die Augen und öffnest sie erst wenn dein Monitor deinen Popo erblickt.

Wenn du das ab jetzt immer machst, werden deine negativen Gedanken "Scheiß TN! Ich brauch IPS!" schnell verfliegen, weil du dadurch den einzigen wirklichen Nachteil des Monitors geschickt ignorierst und nicht mehr damit konfrontiert wirst. :freak:;D
Leider nicht. Denn selbst wenn man perfekt sitzt und mit den Augen auf den Mittelpunkt des Monitors schaut, ist es bei 27" einfach schon problematisch, weil der resultierende vertikale Blickwinkel auf den oberen und unteren Bildschirmrand schon genügt, um sichtbare Farb- und Kontrastverschiebungen zu bedeuten.

Auch bei "Premium TNs" (zu denen der SWIFT sicher gehört).

Naja - ich denke mal in einem halben Jahr wird es entsprechende IPS Modelle geben. :)

derguru
2014-11-05, 11:49:32
noch eine alternative zum tn-schrott, bezahlbarer 4k ips-panel

http://geizhals.at/de/acer-b276hkymjdpprz-um-hb6ee-009-a1179045.html

Godmode
2014-11-05, 11:56:41
Zum Zocken ist er IMO ein Traum.

27" ist IMO die ideale Größe
1440p bringt deutlich mehr Auflösung als 1080p - ist aber immernoch in Windows ohne Skalierung praktikabel -> DSR mit Faktor 4 bringt das Ganze auf 5K. Dafür müssen dann aber selbst deine 2x 980er mit OC "schwitzen". :D
144 Hz ist ein Traum. Selbst in Windows merkt man, dass alles viel schärfer in Bewegung aussieht und flüssiger ist. (finde es immer witzig, wenn ich mal ein Fenster vom ROG auf meinen 2. Monitor mit 60 Hz schiebe: smooth -> "ruckelig". Natürlich sind 60 Hz nicht ruckelig. Aber im Vergleich zu 144 Hz wirkt es wie ein Rückschritt)

Gekoppelt mit G-Sync einfach nur genial. Kein Stottern, kein Tearing. Auch weniger FPS fühlen sich dadurch merklich flüssiger an.

Leider musst du noch warten, wenn du SLI + G-Sync + DSR nutzen willst. DSR wird nicht freigeschaltet, sobald ein G-Sync Monitor erkannt wird. Soll aber bald gefixt werden.


Aber die Kehrseite der Mediallie ist ggü IPS ganz klar der schlechtere Blickwinkel. Da kann mir jeder sagen was er will, dass TN nicht TN ist. Das stimmt auch. Für ein TN sind Kontrast, Farben und Blickwinkel ganz gut. Kein Vergleich zu Gammel-Mediamarkt-TNs. Aber halt noch ein riesen Unterschied zu IPS. Besser gehts mit der Technologie halt nicht.

Verglichen zu einem VA ist der Kontrast natürlich auch mau. VAs erreichen zwischen 3000 und 5000:1. TNs und IPS halt ca. 1000:1.

Mir reicht der Kontrast meines ROGs. Nur der Blickwinkel nervt noch.

Danke für die Aufzählung. Ich weiß selber, dass ich weniger als 120Hz nicht mehr haben will. Ist eigentlich absehbar, welche neuen 120Hz+ GSync Monitore in naher Zukunft (2-3 Monate) erscheinen werden? Momentan gibt ja nur eine sehr eingeschränkte Auswahl und der ROG Swift ist der einzige mit 1440p und 144Hz.

noch eine alternative zum tn-schrott, bezahlbarer 4k ips-panel

http://geizhals.at/de/acer-b276hkymjdpprz-um-hb6ee-009-a1179045.html

Unter 120Hz kann ich leider nicht gehen. Eine Möglichkeit wäre, den ROG Swift und einen 4k Monitor zu kaufen.

akuji13
2014-11-05, 12:06:58
Unter 120Hz kann ich leider nicht gehen. Eine Möglichkeit wäre, den ROG Swift und einen 4k Monitor zu kaufen.

Und einen 21:9 curved. :D

Ich finde aktuell wird die Sutuation eher schlimmer als besser.

Gsync brauche ich nicht, da ich ausschließlich immer mit V-Sync bei konstanten 60fps komplett ohne Framedrops spiele.

Wie willst du die 60 fps halten in 4k ohne von vorn herein etliche Titel auszuschließen?

noch eine alternative zum tn-schrott, bezahlbarer 4k ips-panel

http://geizhals.at/de/acer-b276hkymjdpprz-um-hb6ee-009-a1179045.html

Acer Schrott ist aber auch keine wirkliche Alternative. :D

Der ist nicht mal flicker-free.

robbitop
2014-11-05, 12:25:06
Ist eigentlich absehbar, welche neuen 120Hz+ GSync Monitore in naher Zukunft (2-3 Monate) erscheinen werden? Momentan gibt ja nur eine sehr eingeschränkte Auswahl und der ROG Swift ist der einzige mit 1440p und 144Hz.
Leider nicht. Bisher wissen wir nur, dass AU Optics an einem 1440p 144 Hz Serienpanel arbeitet. Aber noch nicht konkret welcher OEM und welches Modell daraus wird. Ich bin mir aber sicher, dass es schon schnell genug ein Produkt geben wird.

Im Moment gibt es, wenn man nicht < 120 Hz gehen will IMO nur eine Option. Und das ist der SWIFT.



Unter 120Hz kann ich leider nicht gehen. Eine Möglichkeit wäre, den ROG Swift und einen 4k Monitor zu kaufen.
Dadurch hast du nichts gewonnen IMO. Zumindest bei mir ist der 2. Monitor der "Assi" Monitor. Auf dem liegt kein Fokus - da werden nur Dinge mal drauf geschoben. IdR richtet man sich ja seinen Arbeitsplatz so ein, dass man zentral auf einen Monitor schaut.

Zumal dir 4K als Nichtspielegerät gar nichts bringen - dank UI Skalierung hast du die Auswahl zwischen zu klein oder Matsch. Da wird auch Windows 10 nichts dran ändern. Leider scheint es die meisten Entwickler noch kalt zu lassen - es gibt nur wenige Anwendungen, die wirklich DPI-Aware sind und somit perfekt skalierbar sind.

Raff
2014-11-05, 12:26:35
Besitzt hier jemand den feschen LG 34UM95-P (http://preisvergleich.pcgameshardware.de/lg-electronics-34um95-p-a1049833.html)? :)

Mein fünf Jahre alter 30-Zöller mit 2.560 × 1.600 Pixeln liegt leider im Sterben und ich überlege, diesen Wiiiidescreen anstelle einer UHD-Kiste zu kaufen. UHD ist super, keine Frage, die Leistungskosten sind jedoch immens. Da ich nach Möglichkeit immer Supersampling dazu gebe, bietet 3.440 × 1.440 einen deutlich besseren Puffer dafür als 3.840 × 2.160.

Meine Bedenken bezüglich des Widescreen-Supports vor allem älterer Spiele konnte ich nur teilweise beseitigen. Schön ist, dass man 2.560 × 1.440 mittig darstellen lassen kann - das bringt schon ein gutes Bild und vernünftige Pixeldichte. Hier ist Grund 2, warum ich eher kein UHD-Display haben möchte: Beim Spielen ist die hohe Pixeldichte beispielsweise eines 24- oder 28-Zöllers mit UHD geil, bei allem anderen aber nicht - ich finde da erst den Asus PQ321 angenehm, aber das Ding ist echt groß. Beim 34UM95 ist die Pixeldichte angenehm, ohne Ultra-Wide-Support ist das Bild aber zu klein; das ist nur eine Notlösung.

Nach etwas Gefummel habe ich das LG-Planel im Kurztest sogar zu 5.120 × 2.880 überredet, zentriert, per Oldschool-Downsampling. DSR geht natürlich auch, solange ich eine Geforce im Rechner habe. Hmpf, es ist schwierig. Ein paar frische Erfahrungswerte abseits von Google fänd ich gut. =)

MfG,
Raff

mironicus
2014-11-05, 12:27:39
Was wollt ihr denn? Im nächsten Jahr sollte es folgendes geben:

Bedingung erfüllt:
1) 1440P + IPS + 144 Hz + Freesync/GSync
2) 4K + IPS + 60 Hz + Freesync/GSync

Erst wenn diese Bedingungen erfüllt sind (und es mehrere Anbietern auf dem Markt gibt = Konkurrenz = günstigere Preise), fällt eine Kaufentscheidung. Bis dahin sollte man doch warten können.

akuji13
2014-11-05, 12:44:28
Besitzt hier jemand den feschen LG 34UM95-P (http://preisvergleich.pcgameshardware.de/lg-electronics-34um95-p-a1049833.html)? :)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10404705&postcount=2279

Die Erfahrungen kann ich so bestätigen.

Was wollt ihr denn? Im nächsten Jahr sollte es folgendes geben:

Bedingung erfüllt:
1) 1440P + IPS + 144 Hz + Freesync/GSync
2) 4K + IPS + 60 Hz + Freesync/GSync

IPS = miese Schwarzwerte. ;)

Bis dahin sollte man doch warten können.

Nein.

Ich warte seit 2003 auf ordentliche displays.

Tesseract
2014-11-05, 12:56:50
Gsync brauche ich nicht, da ich ausschließlich immer mit V-Sync bei konstanten 60fps komplett ohne Framedrops spiele.
selbst wenn du die 60fps 100% konstant halten kannst hast du mit vsync leider höheren input lag. meine lösung seit jahren ist vsync off im multiplayer und vsync on im singleplayer - wirklich gut ist die lösung aber auch nicht.

kasir
2014-11-05, 13:02:14
Mein fünf Jahre alter 30-Zöller mit 2.560 × 1.600 Pixeln liegt leider im Sterben


Was ist dem mit dem guten Stück? Als die beiden 19" iiyama Monitore hier im Haus ausgestiegen sind, hat ein Wechsel des Primärkondensators die Dinger reanimiert. Die müssten mitlerweile 10Jahre alt sein. Mein Dell WFP2407-HC hat seit 6-7Jahren viele Betriebsstunden gesammelt und das Teil rennt ohne zu murren.

robbitop
2014-11-05, 13:10:15
selbst wenn du die 60fps 100% konstant halten kannst hast du mit vsync leider höheren input lag. meine lösung seit jahren ist vsync off im multiplayer und vsync on im singleplayer - wirklich gut ist die lösung aber auch nicht.
Na zum Glück ist dieser Era endlich vorbei. :)

mironicus
2014-11-05, 13:16:13
Nein.

Ich warte seit 2003 auf ordentliche displays.

Dann sind deine Ansprüche halt nicht erfüllbar. :freak:
Zumindest ist es sicherlich ein doofes Gefühl über so einen langen Zeitraum Wünsche zu haben, die nicht erfüllt werden können. :D

robbitop
2014-11-05, 13:22:10
Ich bin gespannt, wie die Leute reagieren werden, sobald sie merken, dass OLED auch nicht perfekt ist. :D
Dann wird wieder wegen Nachleuchten und Einbrennen rumgejammert.

Es ist nunmal in der Natur und Technik so, dass praktisch immer mehrere gewünschte Eigenschaften diametral zueinander sind und Vorteile durch Nachteile erkauft werden.

Am Ende muss man sich entscheiden, welche Eigenschaft die wichtigste und welche die Unwichtigste ist. (mich würde Einbrennen mehr stören als ein zu schlechter Schwarzwert)

mironicus
2014-11-05, 13:32:54
Und an dem Tag an dem man nichts mehr findet, was einen stört, liegt man wahrscheinlich in einem Sarg. :D

Tesseract
2014-11-05, 13:35:15
Ich bin gespannt, wie die Leute reagieren werden, sobald sie merken, dass OLED auch nicht perfekt ist. :D

für spieler kommen bei TFTs aber mehr probleme zusammen als bei jeder anderen technik bisher und in griff bekommt man die auch nicht wirklich - auch nicht wenn man viel geld in die hand nimmt. das war bei CRTs noch anders wo man viele probleme (flimmern, krümmung, konvergenz, maskenstruktur etc.) mit geld- bzw. materialeinsatz dann doch noch recht gut bekämpfen konnte. OLEDs machen bisher im schnitt überhaupt einen sehr guten eindruck.

john carmack
2014-11-05, 13:56:23
In wie weit eignet sich der LG 42UB820V zum zocken?

https://www.alternate.de/LG/42UB820V-LED-TV/html/product/1166323?partner=DeIdealo&campaign=Fernseher/LG/1166323

Welche Nachteile gibt es?

mironicus
2014-11-05, 14:03:49
Hier gibt es genug Rezensionen:
http://www.amazon.de/Samsung-UE40HU6900-LED-Backlight-Fernseher-Sprachsteuerung-schwarz/product-reviews/B00IVXCE8O/ref=dpx_acr_txt?showViewpoints=1

aufkrawall
2014-11-05, 14:03:54
Laut dem Comment stinkts.

akuji13
2014-11-05, 14:34:35
Dann sind deine Ansprüche halt nicht erfüllbar. :freak:

Ich befürchte auch. :freak:

Und an dem Tag an dem man nichts mehr findet, was einen stört, liegt man wahrscheinlich in einem Sarg. :D

Stimmt. :D

Ich sage immer: "Wer zufrieden ist, ist tot!".

(mich würde Einbrennen mehr stören als ein zu schlechter Schwarzwert)

Mich würde beides stören...dennoch werde ich kaufen obwohl ich schon jetzt weiß das ich mich ärgern werde. :D

Bin ich jetzt dumm, masochistisch oder beides? :freak:

für spieler kommen bei TFTs aber mehr probleme zusammen als bei jeder anderen technik bisher und in griff bekommt man die auch nicht wirklich - auch nicht wenn man viel geld in die hand nimmt.

Genau das ist es.

Eine größere Baustelle wäre verschmerzbar, aber man kriegt egal was man kauft einen Sack voll davon.

robbitop
2014-11-05, 15:26:24
für spieler kommen bei TFTs aber mehr probleme zusammen als bei jeder anderen technik bisher und in griff bekommt man die auch nicht wirklich - auch nicht wenn man viel geld in die hand nimmt. das war bei CRTs noch anders wo man viele probleme (flimmern, krümmung, konvergenz, maskenstruktur etc.) mit geld- bzw. materialeinsatz dann doch noch recht gut bekämpfen konnte. OLEDs machen bisher im schnitt überhaupt einen sehr guten eindruck.
Abwarten. Prinzipbedingt altern LEDs. Egal wieviel Geld du da reinpumpst. Und Rekalibrieren kannst du auch nur nach fester Kennlinie, die aber resultierend aus Fertigungstoleranzen auch nicht 100 % passen.

Ich sage nicht, dass OLEDs nicht die bessere Technologie sein werden. Wäre schlimm, wenn nicht. Immerhin kommt sie Jahrzehnte nach der LCD Einführung in den Serieneinsatz.

Aber sie wird Nachteile haben. Erstmal muss man abwarten, wie sich die OLEDs im Dauereinsatz als Monitor so schlagen. Immerhin müssen die es abkönnen, stunden- und tagelang feste Muster anzeigen zu können. Da ist bei dieser Technologie IMO Nachleuchten (=temporäres Einbrennen) oder Einbrennen (permanent) vorprogrammiert.

Wenn ich damit Unrecht habe, würde es mich am Ende ja freuen. Aber ich wäre erstmal nicht zu optimistisch.

Botcruscher
2014-11-05, 15:33:56
Bei OLED bekommt man die Alterung nicht in den Griff. Die Technik kann man bis auf weiteres für größere Bildschirme abschreiben. Es sind nicht ohne Grund einige Hersteller ausgestiegen.

PHuV
2014-11-05, 17:59:58
noch eine alternative zum tn-schrott, bezahlbarer 4k ips-panel

http://geizhals.at/de/acer-b276hkymjdpprz-um-hb6ee-009-a1179045.html
Der ist doch neu, oder? Habe ich noch nirgendwo gesehen. Infos gibts noch gar keine

http://www.acer.de/ac/de/DE/content/professional-model/UM.HB6EE.009

Hm, dann doch lieber den noch als Pivot mit dazu, als Alternative zum LG 31MU97-B? :uponder:

PHuV
2014-11-05, 18:08:39
Der hat genau das selbe Panel und Scaler, der kann gar nicht großartig anders sein.

Stimmt, im Overdrive "Standard" sind beide fast gleich:
Samsung U28d590d
http://www.prad.de/images/monitore/samsung_u28d590d_led/schaltzeiten-standard2-thumb.jpg

Asus Pb287q
http://www.prad.de/images/monitore/asus_pb287q/schaltzeiten2-0-thumb.jpg


Und ja der ist teurer und man muss auch noch Kabel kaufen.
Na ja, 10-30 € Unterschied ist doch nicht die Welt. Und nach dem Aussehen habe ich bei Monitoren noch gar nicht geschaut. Was soll da am Acer "häßlich" sein? :confused:

InsaneDruid
2014-11-05, 18:09:10
Da hier (http://www.hdtvtest.co.uk/news/input-lag) alle LGs horrenden Lag aufweisen, stehen die Chancen schlecht, dass gerade der da top ist.

Sonys haben dort in diesem Test (Cam-Test) ca. 6 ms Lag, im Vergleich zu 31-53!.

Gipsel
2014-11-05, 18:26:11
Aber sie wird Nachteile haben. Erstmal muss man abwarten, wie sich die OLEDs im Dauereinsatz als Monitor so schlagen. Immerhin müssen die es abkönnen, stunden- und tagelang feste Muster anzeigen zu können. Da ist bei dieser Technologie IMO Nachleuchten (=temporäres Einbrennen) oder Einbrennen (permanent) vorprogrammiert.Alterung okay, das ist ein schwierig zu lösendes Problem. Aber nachleuchten werden OLEDs sicher nicht, solange die Ansteuerung nicht kaputt geht (oder die Pixeltreiber ein sehr ungünstiges Design haben). Ist der Strom für den Pixel aus, leuchtet da garantiert nichts.

Gynoug MD
2014-11-05, 19:48:26
Ich befürchte auch. :freak:



Stimmt. :D

Ich sage immer: "Wer zufrieden ist, ist tot!".


Ich bin da weniger anspruchsvoll, aber selbst das scheint für die Hersteller unerreichbar zu sein.
Ich wollte auch nicht mehr als ein qualitätiv gutes 1080p VA-Panel, das spiele tauglich ist.
Deine Meinung zum FG2421 hat mir nicht so recht gepasst, also habe ich es selbst "probiert" (alles unter dem Gesichtspunkt eines pingeligen Verbrauchers, nicht eines semiprofessionellen Testers;)).
Ein fantastischer Schwarzwert, super Kontrast,>20% Helligkeit PWM frei, für mich perfekte, glasklare Bewegungsschärfe, leider in Kombination mit TN-Blickwinkeln (!), extremen Ausbleichen aller Farben an beiden Bildschirmrändern (weit über das normale, VA-bedingte Maß hinaus) und schicken dauerroten Pixelfehlern!
Warum macht Eizo sowas? Ohne diese groben Fehler (2 Geräte getestet, MFD 10/2013 und 11/2013, gibts neuere Revisionen, wer weiss was?) wäre es für Viele das perfekte Gerät.
Leider leider hast du Recht mit deiner Aussage, daß, bis auf den super Schwarzwert, wenig Positives übrig bleibt.
Morgen kommt das Asus-ROG-Teil ins Haus, mal schauen, ob ich mit den Blickwinkeln und dem Schwarz (besser Grauwert:rolleyes:) leben kann.

Raff
2014-11-05, 20:47:59
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10404705&postcount=2279

Die Erfahrungen kann ich so bestätigen.

Damit könnte ich wohl leben. :)

Was ist dem mit dem guten Stück? Als die beiden 19" iiyama Monitore hier im Haus ausgestiegen sind, hat ein Wechsel des Primärkondensators die Dinger reanimiert. Die müssten mitlerweile 10Jahre alt sein. Mein Dell WFP2407-HC hat seit 6-7Jahren viele Betriebsstunden gesammelt und das Teil rennt ohne zu murren.

Bedauerlicherweise fehlt mir die Elektronikkenntnis, um das verlässlich zu beurteilen (und erst recht, die Probleme zu beheben). Ich tippe darauf, dass das CCFL-Backlight im Sterben liegt. Jedenfalls scheint es für die linke und rechte Bildhälfte getrennte Versorger zu geben und die linke Seite fällt sporadisch aus. Das äußert sich nicht durch Kleinigkeiten wie ein dunkles Bild, sondern durch fiese Dunkelheit von mehr als der (linken) Hälfte des Bildes, Farbverfälschung und krasse Schlieren. Noch ist es phasenweise wieder in Ordnung, aber es ist wohl nur eine Frage der Zeit, bis die Komponenten gar nicht mehr "anspringen". Seit etwa einem Jahr brummt das LCD außerdem - das bereitete mir schon Sorgen, ohne zu wissen, wie schlimm es kommen kann ... X-D Vermutlich haben ein paar wichtige Elkos keinen Bock mehr, zumindest scheint das ein klassisches Problem zu sein.

Es handelt sich übrigens um einen Samsung Syncmaster 305T Plus. Hast du eine spontane Idee, wo bzw. ob man da ansetzen kann? :) Meine Recherche ergab, dass Backen in den meisten Fällen hilft ... aber wenn es wirklich Elkos sind, ist das kein zielführender Weg, da hilft nur ein Austausch. Aber ich denke, dass ich die Power-Platine tatsächlich backen werde, denn zu verlieren habe ich nichts. :uup:

MfG,
Raff

PHuV
2014-11-05, 23:35:32
Warum legst Du Dir nicht gleich nen 4k-Monitor mit G-Sync wie den Acer XB280HK zu? Dann könnt Ihr auch gleich mal endlich nen gescheiten Test dazu machen. :tongue:

Nightspider
2014-11-05, 23:47:06
Bin auch dafür das Raff sich den holt. :D

Bei OLED bekommt man die Alterung nicht in den Griff. Die Technik kann man bis auf weiteres für größere Bildschirme abschreiben. Es sind nicht ohne Grund einige Hersteller ausgestiegen.

Wenigstens werden wir die Vorteile der OLEDs schon bald im Oculus Rift erleben dürfen.

Gerade Elite Dangerous oder Star Citizen sind perfekt geeignet da man eben auf dem OLED ein perfektes schwarz hat. =)

TurricanM3
2014-11-06, 00:12:23
Wir steuern auf Ende 2014 zu und immer noch kein BenQ XL2720G mit GSync in Sicht. :frown:

PS: Bez. OLED und Haltbarkeit muss ich mal was anmerken: ich hab mich selbst gewundert, aber mein Handy hat nach ca. 1,5 Jahren schon Alterungserscheinungen gezeigt. Die Farben/Leuchtkraft bei der dauerhaft eingeblendeten 5mm Android Leiste oben sind anders als der Rest vom Display. :(
Das sieht man aber nur ganz leicht und eher dann wenn ich es sehr dunkel einstelle.

Nightspider
2014-11-06, 00:23:35
Wobei die OLEDs von 2015 wahrscheinlich schon doppelt so lange halten wie die von 2012. Wenn nicht gar länger.

Das fehlende blaue PHOLED Material wurde ja erst vor kurzem entwickelt und wird 2015 wohl überall verwendet werden.

N0Thing
2014-11-06, 00:26:20
PS: Bez. OLED und Haltbarkeit muss ich mal was anmerken: ich hab mich selbst gewundert, aber mein Handy hat nach ca. 1,5 Jahren schon Alterungserscheinungen gezeigt. Die Farben/Leuchtkraft bei der dauerhaft eingeblendeten 5mm Android Leiste oben sind anders als der Rest vom Display. :(
Das sieht man aber nur ganz leicht und eher dann wenn ich es sehr dunkel einstelle.

Jep, den Effekt habe ich auch bei meinem Lumia 820. Da sieht man inzwischen auch in dem Bereich, der beim browsen die Adressleiste einnimmt, einen deutlichen Helligkeitsunterschied, gerade bei weißem Hintergrund.
Sollten sich OLED-Monitore und gerade TV-Geräte sich nicht deutlich besser verhalten, hat man gerade bei letzteren irgendwann auch oben und unten Farbunterschiede durch den Wechsel zwischen 16:9 und 21:9 Medien.

akuji13
2014-11-06, 09:13:20
Leider leider hast du Recht mit deiner Aussage, daß, bis auf den super Schwarzwert, wenig Positives übrig bleibt.

Hätte mich auch gewundert wenn nicht, schließlich gab es diese Eindrücke schon lange bevor ich meinen hatte.

Zumindest Pixelfehler hat meiner keine. :D

Hätte wohl besser geschwiegen zu dem Thema, denn so wird der Versuch meinen zu verkaufen wohl weiterhin erfolglos bleiben. ;)

Wir steuern auf Ende 2014 zu und immer noch kein BenQ XL2720G mit GSync in Sicht. :frown:

Auch wenn ich nicht daran glaube das G-Sync komplett verschwinden wird (sondern eher ein Schattendasein fristen die SLI oder 3D Vision) habe ich inzwischen ernste Zweifel das der überhaupt noch kommt.

G-Sync zu implementieren kann ja kein Hexenwerk sein wenn die anderen es auch schaffen.

mironicus
2014-11-06, 09:39:17
Wir steuern auf Ende 2014 zu und immer noch kein BenQ XL2720G mit GSync in Sicht. :frown:.

http://www.zackzack.de/html/detail/zackzack.html?itemId=25435

FlashBFE
2014-11-06, 09:54:19
Wir steuern auf Ende 2014 zu und immer noch kein BenQ XL2720G mit GSync in Sicht. :frown:
Es ist auch nichts von Free-/ASync zu sehen, was mich ebenfalls ärgert. AMD hat zwar nebulöse Versprechen von Ende dieses Jahrs gemacht, aber das ist nichts wert, solange nicht auch ein Monitorhersteller etwas dazu sagt. Es wurde noch nicht ein konkreter Monitor angekündigt, deshalb frage ich mich auch, wie lange ich noch warten soll, bevor ich aufgebe und beim Acer B276HK oder ASUS PB279Q zuschlage.

robbitop
2014-11-06, 10:29:02
Alterung okay, das ist ein schwierig zu lösendes Problem. Aber nachleuchten werden OLEDs sicher nicht, solange die Ansteuerung nicht kaputt geht (oder die Pixeltreiber ein sehr ungünstiges Design haben). Ist der Strom für den Pixel aus, leuchtet da garantiert nichts.
Nachleuchten heißt nicht, dass etwas nachleuchtet. ;) Das ist ein Term aus dem Bereich der Plasmageräte. Die Pixel dort altern ja auch. Es bedeutet temporäres Einbrennen. Historisch vermutlich, weil beim Term "Einbrennen" gefühlte Massenpanik ausbricht. Einfach weil wieder andere Muster angezeigt werden und durch die stochastisch verteilte Alterung das Ganze wieder untergeht. Sozusagen ein leichtes Einbrennen.

Ich habe aber extra die Bedeutung in Klammern dahinter geschrieben. ;)

Wobei die OLEDs von 2015 wahrscheinlich schon doppelt so lange halten wie die von 2012. Wenn nicht gar länger.

Das fehlende blaue PHOLED Material wurde ja erst vor kurzem entwickelt und wird 2015 wohl überall verwendet werden.

Die Alterungsfähigkeit bei OLED wird sicher immer besser. Das dämpft das Verhalten. Aber ganz eliminiert wird es nie sein. Somit bleibt das Potenzial zum (temporären) Einbrennen erhalten.

Warum legst Du Dir nicht gleich nen 4k-Monitor mit G-Sync wie den Acer XB280HK zu? Dann könnt Ihr auch gleich mal endlich nen gescheiten Test dazu machen. :tongue:
So wie ich Raff als BQ Fanatiker kenne, kann ich mir schwer vorstellen, dass er auf ein TN Panel wechseln wird. :)

Hinzu kommt, dass 4K eine Einzelkarte ja wirklich in die Ecke drängt. Da muss man sicherlich hin und wieder auch die Details reduzieren.

akuji13
2014-11-06, 11:20:30
http://www.zackzack.de/html/detail/zackzack.html?itemId=25435

1.Ist das kein BenQ also kein technisch identisches Gerät (BlackEqualizer usw.)
2.Sind die Bilder soweit mir bekannt geschönt: der Rahmen ist hochglanz, der des BenQ wäre es nicht

mironicus
2014-11-06, 13:23:38
War ja auch als Alternative gedacht (27 Zoll, 1080P, GSync).

Aber schau mal wie viel Leute den Monitor bereits erworben haben (nach 17 Stunden). :D

Auf dem Weg zum Mainstream! :D

Awrack
2014-11-06, 18:44:58
Schon bekannt.....5K von Dell

http://www.computerbase.de/2014-11/dells-5k-monitor-kommt-im-dezember/

Jonas_2014
2014-11-06, 19:55:31
Für das Geld bekomme ich nen Retina iMac und ich wette da ist das Display sogar besser...

Unicous
2014-11-06, 20:15:40
Für das Geld bekomme ich nen Retina iMac und ich wette da ist das Display sogar besser...

Oder es ist genau dasselbe.:wink:

Raff
2014-11-06, 20:23:53
Warum legst Du Dir nicht gleich nen 4k-Monitor mit G-Sync wie den Acer XB280HK zu? Dann könnt Ihr auch gleich mal endlich nen gescheiten Test dazu machen. :tongue:

Bin auch dafür das Raff sich den holt. :D

Mal sehen, die Entscheidung ist noch nicht gefallen. Abwarten, zunächst eröffne ich die Backsaison und stecke die Hauptlogikplatine meines 305T Plus in den Ofen. Wünscht mir Glück! :biggrin: :naughty:

http://abload.de/thumb/305tdisassembled2tzs4o.jpg (http://abload.de/image.php?img=305tdisassembled2tzs4o.jpg)

MfG,
Raff

Kartenlehrling
2014-11-07, 01:40:15
http://blog-imgs-61.fc2.com/w/a/t/watchmonoblog/S277HK_07.jpghttp://blog-imgs-61.fc2.com/w/a/t/watchmonoblog/S277HK_04.jpg

Ohh man dieses Silberplastik sieht schon verdammt billig aus, und der Rahmen was ist den das für ein Spaltmasse die man da sieht?
Aber was noch viel schlimmer ist das die Monitor generell immer weiter verschoben werden und trotzdem kein "adaptive Vsync" an Board haben, aber HDMI2.0 wird wenigsten versprochen.

Der Acer H257HU ( 25" WQHD) zeigen sie überhaupt nicht, auf diesen warte ich eigentlich.
Der Monitormarkt ist wirklich furchbar.

http://www.bloglovin.com/viewer?post=3675994337&group=0&frame_type=a&context=&context_ids=&blog=5593651&frame=1&click=0&user=0

Sonyfreak
2014-11-07, 01:44:03
Vermutlich wurde der hier noch nicht genannt, aber QHD auf 23,6" könnte echt toll aussehen. KLICK (http://geizhals.at/acer-g7-g247hyu-schwarz-um-qg7ee-005-a1190832.html) Falls der Acer einen separaten Umschalter für die Eingänge anbietet, könnte das mein nächster Monitor werden.

mfg.

Sonyfreak

Awrack
2014-11-07, 18:46:05
Der Dell wurde schon vor dem Apple vorgestellt (gibts da nen Link zu) und wird unter 1800€ kosten.

http://www.hardwareluxx.de/index.php/news/hardware/monitore/33246-dell-world-2014-5k-displays-werden-im-kommenden-jahr-guenstiger.html

ChaosTM
2014-11-07, 20:20:43
2015: 2160p(+) displays will rule the market :D

Wurde auch wirklich zeit..!!

2048x1536 hatte ich schon 1999 mit einem 22er Iyama CRT...

aufkrawall
2014-11-07, 20:23:42
Mal sehen, die Entscheidung ist noch nicht gefallen. Abwarten, zunächst eröffne ich die Backsaison und stecke die Hauptlogikplatine meines 305T Plus in den Ofen. Wünscht mir Glück! :biggrin: :naughty:

http://abload.de/thumb/305tdisassembled2tzs4o.jpg (http://abload.de/image.php?img=305tdisassembled2tzs4o.jpg)

MfG,
Raff
Kannste knicken, in ein paar Wochen oder Monaten krepiert das Panel völlig.
Ist offenbar normal bei diesem Monitor, Samsung hatte Mist gebaut.

OC_Burner
2014-11-07, 21:12:05
Kannste knicken, in ein paar Wochen oder Monaten krepiert das Panel völlig.
Ist offenbar normal bei diesem Monitor, Samsung hatte Mist gebaut.

Der Platine sollte ordentlich Feuer unterm Hintern gemacht werden.

http://forum.electronicwerkstatt.de/phpBB/Ersatzteile_Reparatur_Monitor/lcd_tft_samsung_305t_plus_bild_flackert_gruene_streifen-t124175f4_bs0.html

aufkrawall
2014-11-07, 21:17:13
Mein Bruder hatte den auch im Einsatz, das Flimmern konnte mehrmals durch vorübergehendes Hochdrehen des Backlights für einige Tage abgestellt werden.
Nach ein paar Monaten ist dann aber plötzlich einfach ein großer Teil des Bildes mit Streifenmuster ausgefallen.
Man sollte sich auf jeden Fall schon mal nach etwas Neuem umsehen.

PHuV
2014-11-08, 00:50:35
Ich hab mir heute im Apple Store Berlin mal das iMac 5k Retina für ne halbe Stunde in Ruhe angeschaut, der Monitor ist wirklich eine Pracht. Alles scharf, die Farben sind echt klasse, soweit ich das beurteilen kann. Nur muß man doch sehr nahe daran arbeiten, besonders wenn man älter ist.

Raff
2014-11-09, 15:06:06
Kannste knicken, in ein paar Wochen oder Monaten krepiert das Panel völlig.
Ist offenbar normal bei diesem Monitor, Samsung hatte Mist gebaut.

Der Platine sollte ordentlich Feuer unterm Hintern gemacht werden.

http://forum.electronicwerkstatt.de/phpBB/Ersatzteile_Reparatur_Monitor/lcd_tft_samsung_305t_plus_bild_flackert_gruene_streifen-t124175f4_bs0.html

Mein Bruder hatte den auch im Einsatz, das Flimmern konnte mehrmals durch vorübergehendes Hochdrehen des Backlights für einige Tage abgestellt werden.
Nach ein paar Monaten ist dann aber plötzlich einfach ein großer Teil des Bildes mit Streifenmuster ausgefallen.
Man sollte sich auf jeden Fall schon mal nach etwas Neuem umsehen.

Ich habe stundenlang Threads gewälzt und Videos angesehen, bevor ich meinen Samsung 305T Plus zerlegt habe. Die Diagnose einiger Pioniere ist, dass der Hauptprozessor, ein Altera Hardcopy-Chip, eine fiese Hitzeschleuder ist, die man beim Design leider nicht mit ordentlicher Kühlung versehen hat. So führt die starke Erwärmung (und das anschließende Erkalten) auf Dauer anscheinend dazu, dass das Lot des Chips bröselig wird und grobe Fuck-ups entstehen - Flackern, Linien durchs Bild, halbseitige Ausfälle et cetera. Was ich beim Checken der Elkos sah, war äußerlich in Ordnung, allerdings galt mein Fokus der Logikplatine.

Dabei habe ich mein LCD ziemlich geschont, es lief nur etwa mit halber Helligkeit, außerdem habe ich die Bildskalierung (wegen Downsampling) vom Grafikprozessor übernehmen lassen, was den Altera-ASIC eigentlich entlasten sollte. Dennoch gab's die erwähnten Symptome. Gerade habe ich das Backen hinter mir, das einem billigen Reflow entspricht. Und siehe da: Beim ersten Funktionstest (das waren nur fünf Minuten) erhielt ich ein tadelloses Bild! :biggrin: :eek:

Nun muss ich nur noch für Kühlung sorgen, damit der Hitzkopf sich nicht wieder selbst tötet. Das billige Hitzeblech wollte ich zunächst einfach modden, dabei ist's aber unschön verbogen und nun kriegt jeder Chip einen Kühlblock und irgendwie muss ich da auch einen Lüfter reinklemmen. Mal sehen, wie. Und ob das auf Dauer gut geht. Aber die Aufrüstpläne liegen daher zunächst auf Eis. Der 305T Plus hat einfach ein zu gutes Bild, um ihn einfach zu ersetzen (daher auch der Aufwand), allein der hohe Stromverbrauch (bei maximaler Helligkeit) stört mich etwas. Daher sehe ich mir die Tage noch ein paar UHD-LCDs an. :)

MfG,
Raff

robbitop
2014-11-09, 15:27:00
Wenns den hier mit G/A-Sync gäbe:
http://geizhals.de/1123437
Dann würde ich zuschlagen!

Kartenlehrling
2014-11-09, 15:56:06
HEHE, wenn man bei deinem Link auf " Mehr infos von Hersteller" drückt kommt man ROG-Asus.
Da musste ich über das G-sync Foto lachen,
das Gosting an den Ränder sieht schon .... scheisse aus.


http://rog.asus.com/wp-content/uploads/2014/06/ASUS-4K-Gsync.jpg

Mr.Magic
2014-11-09, 16:15:46
http://rog.asus.com/wp-content/uploads/2014/06/ASUS-4K-Gsync.jpg

Das auf dem Bild sieht wie 3D Vision aus. Funktioniert das inzwischen gleichzeitig mit G-Sync?

Das billige Hitzeblech wollte ich zunächst einfach modden, dabei ist's aber unschön verbogen und nun kriegt jeder Chip einen Kühlblock und irgendwie muss ich da auch einen Lüfter reinklemmen.

Wäre ein Luftkanal nicht einfacher? Ein Loch für einen saugenden Lüfter über den Chip, und unten ein paar Schlitze ins Gehäuse...

Raff
2014-11-09, 16:24:48
Wäre ein Luftkanal nicht einfacher? Ein Loch für einen saugenden Lüfter über den Chip, und unten ein paar Schlitze ins Gehäuse...

Jo, an sowas dachte ich auch, allerdings muss ich das noch umsetzen, ohne das Gehäuse komplett zu zerpfuschen – ist leider nur Plastikcrap. :ugly:

MfG,
Raff

Grestorn
2014-11-09, 17:10:29
Das auf dem Bild sieht wie 3D Vision aus. Funktioniert das inzwischen gleichzeitig mit G-Sync?Kann es nicht, da Du für 3D-Vision exakt gleich lange Bildzeiten für beide Augen brauchst. Das widerspricht prinzipbedingt dem variablen Refreshraten von G-Sync.

mekakic
2014-11-10, 09:35:58
Ich hab mir heute im Apple Store Berlin mal das iMac 5k Retina für ne halbe Stunde in Ruhe angeschaut, der Monitor ist wirklich eine Pracht. Alles scharf, die Farben sind echt klasse, soweit ich das beurteilen kann. Nur muß man doch sehr nahe daran arbeiten, besonders wenn man älter ist.Jepp. Hab ich auch letztens gemacht. Der Schritt zu High DPI auf dem Desktop ist überfällig und ganz besonders wenn es auch so schön ist.

derF
2014-11-10, 09:40:17
Kann es nicht, da Du für 3D-Vision exakt gleich lange Bildzeiten für beide Augen brauchst. Das widerspricht prinzipbedingt dem variablen Refreshraten von G-Sync.
Höchste Zeit für Polarisations-3D.

PHuV
2014-11-10, 11:38:18
Wenns den hier mit G/A-Sync gäbe:
http://geizhals.de/1123437
Dann würde ich zuschlagen!
Ist die Frage, warum man hier nicht die G-Sync-Platine einbaut.

In der PC-Games wird mein Acer getestet:

http://www.pcgameshardware.de/LCD-Hardware-154105/Specials/Acer-Predator-XB280HK-Test-1141693/

Kartenlehrling
2014-11-10, 12:14:37
Hättes du dir den weiterführenden Link von @Robbitop angesehen wärs du zu diesem Artikel gekommen.

4K 28-inch monitor with G-Sync

Something for future aspirations – ASUS is showing off a concept of 4K 28-inch monitor with G-Sync on its booth in Computex.
While Nvidia also showed the PQ321Q with G-Sync during CES, that required two G-Sync modules to run the MST display.

This model has a single 4K panel running at 60Hz over DP1.2, meaning it requires just one G-Sync module, which is far more user friendly.
At this stage there’s no price, ETA or even brand name attached to the concept on show; it’s just to exhibit ASUS’-leading technology.

PHuV
2014-11-10, 12:42:19
Und wo liest Du aus diesem Link heraus, daß ein IPS-Panel mit G-Sync versehen wird? :confused: Und wenn Du aufmerksam gelesen hättest, hättest Du bemerkt, daß der Link von Robbitop ein 27"-Monitor ist.

robbitop
2014-11-10, 13:25:28
Es ist noch kein IPS Monitor mit G-Sync (und 4K) angekündigt.
Ich tippe darauf, dass daran liegt, dass TN und G-Sync mit "Gaming" assoziiert werden und IPS eher mit "Arbeiten".
Vielleicht fürchtet man, dass das nur ein Nischenprodukt wäre...

Kartenlehrling
2014-11-10, 13:37:25
Das liegt wohl daran das G-sync nur im Vollbildmodus Gaming funktioniert, 4k + ips Panele wird halt nicht für Gaming genommen.
Das wird ja mit Freesync/adaptive Vsync anders, wo es für Video und vielleicht sogar Bildbearbeitung eingesetzt werden kann.

Grestorn
2014-11-10, 13:43:22
Das liegt wohl daran das G-sync nur im Vollbildmodus Gaming funktioniert, 4k + ips Panele wird halt nicht für Gaming genommen.
Das wird ja mit Freesync/adaptive Vsync anders, wo es für Video und vielleicht sogar Bildbearbeitung eingesetzt werden kann.

Ich kann mir nicht vorstellen, dass ein variabler Refresh auf dem Desktop mit Win8 und älter machbar ist. Da müsste man Aero kräftig umschreiben. Das hat nichts mit GSync oder Freesync zu tun.

Kartenlehrling
2014-11-10, 13:45:37
Prototypen hat ja Asus vorgestellt :

ASUS PQ321QE, 32" Panel: IGZO (ASV) und 2x G-sync Module, die hätten sie dann bestimmt für 2500€ verkauft.


@Grestorn

Hat doch Intel vor ̶1̶ Jahren schon vorgeführt und wird doch schon in Laptops und Table genutzt um Strom zu sparen.

Asus hat anscheinen auch die ganzen Techniken von Lucid aufgekauft, jedenfalls sind fast alle Produkte von der Lucid Seite verschwunden.
Nach den ganzen Patenttrolle in den letzten Jahre ein nachvollziehender Zug.

Lucid’s products and technology are covered by an extensive IP portfolio that had been developed for nearly a decade.
With over 48 patents granted, the portfolio comprises of several interlocking patent families in the fields of GPU power and
performance improvement techniques, multiple-GPU optimization and graphics processing techniques.

Unicous
2014-11-10, 13:48:12
Vor einem Jahr?

TLMb4VtCzaw

Kartenlehrling
2014-11-10, 13:51:09
nagut :) 3 ...

PHuV
2014-11-10, 14:29:23
Prototypen hat ja Asus vorgestellt :

ASUS PQ321QE, 32" Panel: IGZO (ASV) und 2x G-sync Module, die hätten sie dann bestimmt für 2500€ verkauft.
Tja, es scheint wohl gewichtige Gründe zu geben, daß es das noch nicht zu kaufen gibt.

HPVD
2014-11-10, 16:21:03
Welchen größeren (Qualitäts-)Unterschied seht/erwartet Ihr

denn zwischen dem
- Samsungs U32D970Q
https://www.samsung.com/de/consumer/displays/displays/uhd/LU32D97KQSR/EN
und dem
- LG 31MU97-B
http://www.lg.com/de/monitore/lg-31MU97-B

der LG hat eine etwas höherer Auflösung, ist dabei ein paar Millimeter kleiner und hat Lautsprecher
-> aber sonst??
beide
- unterstützen ADOBE RGB >99%
- sind vorkalibriert und
- sind flickerfree

Preislich ist der Unterschied mit 480€ ja schon recht ordentlich..
s. auch
z.B. http://geizhals.de/?cat=monlcd19wide&xf=103_flicker-free~103_Wide+Color+Gamut~99_30~3856_3840#xf_top

PHuV
2014-11-10, 16:59:48
Ich mag Samsung Panels nicht besonders, die haben so einen eigenartigen Farbton, ich mag lieber LG-Displays. Und der LG hat mit echten 4k eine bessere Auflösung.

Ich hätt ja den LG heute gekauft, wenn der Lieferant in Berlin Abholung zulassen würde. So :P

ndrs
2014-11-10, 17:12:33
Es ist noch kein IPS Monitor mit G-Sync (und 4K) angekündigt.
Ich tippe darauf, dass daran liegt, dass TN und G-Sync mit "Gaming" assoziiert werden und IPS eher mit "Arbeiten".
Ich vermute eher, dass es doch ein gewisses Maß an Schaltgeschwindigkeit voraussetzt. Die meisten (oder alle?) Gsync-Displays haben ja mindestens 120Hz. Bei den 4K-Varianten fehlt es nur, weil die Datenrate nicht durch die Leitung passen würde.
Das Bild wird ja trotz Gsync nicht plötzlich dargestellt sobald die Grafikkarte den Trigger gibt. Der Bildaufbau muss immernoch durchgeführt werden, wodurch die Reaktionszeit des Panels wieder ins Spiel kommt. Wer weiß, was das noch für komische Nebeneffekte hat...

PHuV
2014-11-10, 17:33:52
IPS hat aktuell einfach noch zu hohe Schaltzeiten im Vergleich zu TN oder VA-Panels. Es gibt zwar Anbieter mit IPS-vergleichbaren Paneltypen, die Übertakten, aber das sind eben IPS-ähnliche Verfahren. Es wurde bei IPS immer nur Prototypen gezeigt, die mit G-Sync arbeiten können. Deshalb glaube ich nicht, daß es am Image liegt, es geht eben mit den normalen IPS-Panels nicht, oder es ist viel zu aufwendig und teuer.

Es gibt ja aktuell nur einen IPS-Hersteller, und das ist LG! Der Name IPS ist markenrechtlich von LG geschützt. Alle anderen Hersteller haben anderen Namen, wie z.B. PLS von Samsung.

aufkrawall
2014-11-10, 17:47:42
Da die Eigenschaften quasi komplett identisch sind, ist diese Verallgemeinerung schon nicht zu grob. ;)

PHuV
2014-11-10, 18:02:29
Man darf ja auch nicht vergessen, die Hersteller sind ja nicht blöde, und wollen vor allen Dingen eines: mit möglichst wenig Aufwand viel Geld verdienen. Wenn es möglich wäre, ein gutes IPS- oder ähnliches Panel mit G-Sync zu vertreiben, wäre doch ein Hersteller dämlich, es nicht zu tun. Man sieht es doch am Asus ROG SWIFT PG278Q, es gibt sehr wohl einen Markt für solche Sachen, und die Leute bezahlen es. Es ist heute nichts wichtiger, wie einen technischen Vorsprung vor allen anderen zu haben. Wer eher etwas taugliches auf den Markt werfen kann, hat meistens wichtige Marktanteile gewonnen.

Selbst ich bin aktuell echt am überlegen, mir ein Apple 27" 5k Retina zu kaufen.

grobi
2014-11-10, 19:14:29
Seit wann sind IPS-Panels langsamer als VA-Panels? Es ist eher anders herum.

ndrs
2014-11-10, 20:28:00
Seit wann sind IPS-Panels langsamer als VA-Panels? Es ist eher anders herum.
Hat doch niemand gesagt. Es ging um TN. Oder gibt es Gsync-Monitore mit VA-Technik?

PHuV
2014-11-10, 20:28:13
Woher hast Du diese Fehlinformation? Alle Zeitschriften und Tests sagen was anderes. TN > PVA => IPS, so ist überall der Stand.

Rente
2014-11-10, 20:45:19
Woher hast Du diese Fehlinformation? Alle Zeitschriften und Tests sagen was anderes. TN > PVA > IPS, so ist überall der Stand.
TN > IPS-artige > VA-artige Panel in Sachen Reaktionszeit.

Siehe z.B. hier: http://www.tftcentral.co.uk/articles/panel_technologies.htm

EPIC_FAIL
2014-11-10, 20:46:31
Woher hast Du diese Fehlinformation? Alle Zeitschriften und Tests sagen was anderes. TN > PVA > IPS, so ist überall der Stand.

VA hat bei einigen Farb/Helligkeitswechseln ganz hässliche Ausreißer nach oben, daher ist IPS idr schneller

aufkrawall
2014-11-10, 20:55:44
So ist es. Es gibt wahrscheinlich keinen VA-Monitor ohne heißes CCFL-Backlight, der nicht unschöne Bewegtbildartefakte macht (sei es durch die Reaktionszeit an sich oder Overdrive).

PHuV
2014-11-10, 21:32:06
TN > IPS-artige > VA-artige Panel in Sachen Reaktionszeit.

Siehe z.B. hier: http://www.tftcentral.co.uk/articles/panel_technologies.htm
Je nachdem, wo Du nachschaust:

http://www.gamestar.de/hardware/praxis/tft-monitore/2570125/die_besten_tft_monitore.html
http://monitor-vergleich.com/wissen/tn-ips-mva-pva-panels-im-ueberblick
usw.

Mal ist VA vor IPS, mal umgekehrt. Auf alle Fälle ist die Anfangsbehauptung, das IPS schneller als TN sei, definitiv falsch.
Hat doch niemand gesagt. Es ging um TN. Oder gibt es Gsync-Monitore mit VA-Technik?
Ach so, jetzt versteh ich. Richtig, ich dachte, es ging um Vergleich von TN vs IPS.

Unicous
2014-11-10, 21:38:14
Gamestar? Wirklich?


monitor-vergleich.com?

PHuV
2014-11-10, 21:40:47
Das waren die schnellesten, die gefunden habe, aber Tenor ist überall ungefähr gleich. Ich spiele ja seit 8 Jahren auf nem IPS (Dell 3007WFP), zwischendrin mit einem BENQ XL2410T, und mit dem neuen Acer merke ich hier doch einen Unterschied. Gewöhnen kann man sich wohl an alles. ;)

aufkrawall
2014-11-10, 21:46:38
Der macht wahrscheinlich schönes rotes Aufleuchten von Schwarz <-> weiß, das IPS nicht macht. ;)

Unicous
2014-11-10, 21:53:25
@PHuV

Ich kann dir sagen warum der Tenor gleich ist. Weil jeder von jedem abschreibt und alle von Wikipedia (und zu allen Überfluss noch auf alten Erkenntnissen fußt). Entschuldige, aber ich traue Gamestar maximal das Testen von Spielen zu und vllt. noch Gaming-Mäusen (da kann man ja nicht soo viel falsch machen Mäuschen in den USB-Stöpsel und dann geht das Testen los), aber Seiten wie tftcentral und PRAD vertraue ich deutlich mehr als monitor-vergleich.com deren Seite ausschaut wie ein hundsordinärer Klickmich-Blog mit einer hundsordinären Gut/schlecht Tabelle, wie sie ein Zweitklässler besser hinbekommt.


Und vor allem traue ich dem Typen nicht der diese Website verantwortet... besonders wenn er nach kurzer Recherche auch diese Website verantwortet: "KopfhoererTest.net" (e: und auch kopfhoerer.com :freak:) (wenn man weiter sucht findet man bestimmt noch mehr von dieser SEO-Scheiße)

Ach wie schön (Valentin Dushe ist der Verantwortliche für diese Seiten)

Praktische Tipps für die Linkakquise

Gleich Anfang des neuen Jahres verfasste Valentin Dushe auf marketingblick.de einen schönen How To-Artikel zum Thema personalisierte Linkanfragen. Dabei beschreibt er in drei ausführlichen Schritten, mit welchen Methoden höhere Erfolgsquoten für die eigene Linkakquise erreicht werden können.

http://www.projecter.de/blog/seo/seo-auslese-januar-2013.html

PHuV
2014-11-10, 22:31:23
@PHuV
aber Seiten wie tftcentral und PRAD vertraue ich deutlich mehr als monitor-vergleich.com deren Seite ausschaut wie ein hundsordinärer Klickmich-Blog mit einer hundsordinären Gut/schlecht Tabelle, wie sie ein Zweitklässler besser hinbekommt.


Und vor allem traue ich dem Typen nicht der diese Website verantwortet... besonders wenn er nach kurzer Recherche auch diese Website verantwortet: "KopfhoererTest.net" (e: und auch kopfhoerer.com :freak:) (wenn man weiter sucht findet man bestimmt noch mehr von dieser SEO-Scheiße)

Ach wie schön (Valentin Dushe ist der Verantwortliche für diese Seiten)
Meine Güte, Du hängst Dich aber auch an Kleinigkeiten auf. Prad und c't bzw. PGHW sagen doch in zig Tests ungefähr das gleiche.

Unicous
2014-11-10, 22:34:49
Und. Was sagen sie?




(ps. Kleinigkeiten... da muss ich echt schmunzeln)

Raff
2014-11-10, 22:42:36
Das waren die schnellesten, die gefunden habe, aber Tenor ist überall ungefähr gleich. Ich spiele ja seit 8 Jahren auf nem IPS (Dell 3007WFP), zwischendrin mit einem BENQ XL2410T, und mit dem neuen Acer merke ich hier doch einen Unterschied. Gewöhnen kann man sich wohl an alles. ;)

Vor einem BenQ XL2410T sitze ich auch immer wieder. Meiner Meinung nach hat dieses TN-Panel eine ganz ekelhafte Farbwiedergabe und zudem inhomogene Beleuchtung. Das kann beispielsweise beim Acer-UHD eigentlich nur besser sein. :freak:

MfG,
Raff

PHuV
2014-11-10, 23:01:26
Ich habe den BenQ XL2410T schon lange verkauft, weil ich an sich auf 3D-Vision 2 wechseln wollte. Und Du hast recht, dolle ist/war er nicht. Nichtsdestotrotz war er im Reaktionsverhalten spürbar schneller als der Dell. Aber das ich den Dell noch immer nach 8 Jahren habe, spricht ja eine deutliche Sprache ;). Jedoch muß ich zugeben, daß mir der Acer von den Farben aktuell eher zusagt, trotz TN und Blickwinkelabhänigkeit.

Mir ist aufgefallen, daß aktuell keiner das Display vom imac 5k Retina bzgl. Reaktionsverhalten und Latenz genauer unter die Lupe nimmt. Sind wohl alle vom Bildeindruck überwältigt. 😄

Nightspider
2014-11-10, 23:10:38
Woran liegt das eigentlich, das es keine Monitore mit so guten IPS Panels gibt wie zB. in den iPhones und iPads?

Kauft Apple die schon alle auf?
Zu hohe Defektrate, so das sich nur kleine Panels finanziell lohnen?
Preis?
Exklusivdeals?

Denn die IPS Panels aus diversen Smartphones haben immer noch die besten Kontrastwerte.

Unicous
2014-11-10, 23:19:14
Ganz einfach. (e: extra für PhuV) :wink::wink: Weil sich alle auf TN eingeschossen haben und es Kohle kosten würde extra Fabriken dafür zu bauen bzw. "umzubauen".

Ich habe vor einiger Zeit gelesen, dass IPS und Co. nicht unbedingt teurer sein müsste, es liegt einzig und allein daran, dass TN seit Jahren den Markt "dominiert" und die Hersteller zu faul (a.k.a. geizig) sind daran etwas zu ändern.

Wenn du aber Apple heißt und den Leuten erst Kohle in den Rachen schmeißt und nach kurzer Zeit auf die Streckbank schnallst...profitiert einzig und allein Apple davon. Wenn Apple keinen Bock mehr hat und eine andere Technologie besser findet, kann sich der Rest des Marktes darauf stürzen.

Und generell bei Tablets und Smartphones musste erst einmal wieder Innovationskraft freigesetzt werden um bessere Displays zu ermöglichen. Im Monitorsektor herrscht weiterhin der Status Quo...während Apple sich (fast?) exklusiv die 5K Display Produktion gesichert hat.

PHuV
2014-11-10, 23:41:31
Ganz einfach.
Sagt der, der weder von IT noch von Wirtschaft was versteht :rolleyes:

Meistens haben ja nur dumme Menschen auf komplexe Themen einfache Antworten. Ich kann mir nicht vorstellen, daß es sooo einfach ist, wie Du es behauptest. Anders gefragt, warum wurden die vor 3 Jahren vorgestellten Prototypen niemals marktreif? Warum ist OLED noch nicht verbreitet? Warum scheitern die Hersteller permanent an der Herstellung besserer Displays? Weil es sehr wohl komplex und kompliziert ist. Ist Dir beispielsweise überhaupt bewusst, mit welchen hohen Ausschussraten die Panelhersteller kämpfen müssen? Diese Verluste mußt Du als Hersteller erst mal finanziell auffangen. Wir sprechen hier von Verlustraten von 60-90%.

Unicous
2014-11-10, 23:47:41
Huiuiui, sagt derjenige der SEO-Seiten als ultimative Quelle angibt.

Willst du hier ein Schlammcatchen eröffnen oder deine Argumente mit Fakten unterfüttern. Ich suche mal den Artikel heraus...aber etxra für dich setze ich hinter "Ganz einfach" noch mal zwei:wink::wink: um auch für dich zu verdeutlichen wie ich es meinte.


:rolleyes:


edit: Warum begebe ich mich eigentlich auf dein Niveau und melde den Post nicht einfach. Hmmm. Na egal.

PHuV
2014-11-10, 23:51:46
Das mit der ultimativen Quelle hast Du in den Mund genommen, ich sagte was von vergleichbar und Beispiel. Wenn Du nicht abstrahieren kannst, dann laß doch das Diskutieren.😒

Und Du weichst auf meine Fragen aus und lenkst wieder mal sehr plump ab.

Unicous
2014-11-10, 23:58:46
Mal ist VA vor IPS, mal umgekehrt. Auf alle Fälle ist die Anfangsbehauptung, das IPS schneller als TN sei, definitiv falsch.

Man nehme zwielichtige Quellen und konstantiere: Definitiv falsch.

Wenn die Zuverlässigkeit dieser Quellen anprangert wird:

Meine Güte, Du hängst Dich aber auch an Kleinigkeiten auf.


Und zum Schluss:

Meistens haben ja nur dumme Menscheen auf komplexe Themen einfache Antworten.

Ich kann mit persönlichen Angriffen umgehen, aber bitte streue doch noch ein paar Fakten mit ein.


Edit: Welche Frage? Zwischen den persönlichen Angriffen konnte ich nichts legitimes entdecken.

grobi
2014-11-11, 05:42:14
@PHuV

Wer hat denn behauptet das IPS schneller als TN ist?

IPS ist schon sehr Gamertauglich. Ich habe keinen Rückschritt gemacht von meinem subjektiven Empfinden aus gesehen.

PHuV
2014-11-11, 09:21:55
@PHuV

Wer hat denn behauptet das IPS schneller als TN ist?

IPS ist schon sehr Gamertauglich. Ich habe keinen Rückschritt gemacht von meinem subjektiven Empfinden aus gesehen.
Trotzdem langsamer als TN. Und sorry, ja, ich hab mich verlesen, ich dachte, Du meinstest TN, Du hast aber VA geschrieben.

Ich hab heute Nacht sogar von dem LG 31MU97-B mehrfach geträumt, ich glaube, das war ein "Zeichen". :biggrin:

Grestorn
2014-11-11, 09:30:45
Nen feuchten Traum von einen 31" Monitor? Na, wenn das kein Zeichen ist! ;)

PHuV
2014-11-11, 09:45:08
Ja, feucht war der auch noch, und es ist noch was vom Unix-Thread eingeflossen, ein OS, was ich bedienen mußte, was ich gar nicht kannte. :eek: Ich häng zuviel hier im Forum rum.
Der Monitor ist vielfach verfügbar, aber noch keine Tests. :frown:

Gouvernator
2014-11-11, 09:57:25
Solche Auflösungen würde ich ohne Gsync niemals kaufen. Für 60 FPS braucht man dann SLI, das heißt Inputlag für MP Shooter. Mit Gsync kann man dann auf 60+FPS@Vsync verzichten und kommt mit einer GPU aus ohne Inputlag.
Wenn ich das Geld hätte dann nur für 4k+IPS+Gsync. Oder einen 75" 4k mit gutem Inputlag ab 3k€. Alles andere ist Geldverschwendung ohne richtigen Mehrwert.

Momentan die beste Lösung die ansatzweise an das dran kommt ist ASUS ROG Swift PG278Q. Mit 6ms Inputlag hat man noch gut Luft für SLI Setup und mit Gsync kann man dann durchgehend in 5k DSR zocken @SLI.

EDIT.
Wobei ich lege den allergrößten Wert auf Blickwinkel/Schwarzwert/Farben. So das ich den Monitor möglichst nah an mein OLED "kalibrieren" kann. Deswegen mag ich auch den jetzigen 27" Fujitsu. Der nächste Moni muss mindestens ein IPS+besten Schwarzwert aufweisen, Black level muss kalibrierbar sein, Gsync und mindestens 1440p bei ~10ms Inputlag.

PHuV
2014-11-11, 13:16:33
Wenn ich das Geld hätte dann nur für 4k+IPS+Gsync. Oder einen 75" 4k mit gutem Inputlag ab 3k€. Alles andere ist Geldverschwendung ohne richtigen Mehrwert.
Wenns halt schon ein IPS mit G-Sync gäbe. Könnte man das vielleicht sogar selbst modden? :uponder: Platine ausbauen und in einen anderen Monitor einbauen, so wie hier?
G-Sync-Upgrade für mutige Bastler kostet 199 Dollar (http://www.computerbase.de/2014-01/g-sync-upgrade-fuer-mutige-bastler-kostet-199-dollar)
Wenn das 100% klappen würde, würde ich mir glatt den LG kaufen und ihn modden. Aber c't sagt dazu ja nein:
Gaming-Monitor mit G-Sync und 4K für 600 Euro (http://www.heise.de/newsticker/meldung/Gaming-Monitor-mit-G-Sync-und-4K-fuer-600-Euro-2293127.html)
Auch er nutzt TN-Technik – die blickwinkelstabilere IPS- oder VA-Technik wird in Gaming-Monitoren derzeit nicht eingesetzt. Für beide Monitore ist eine Grauschaltzeit von nur einer Millisekunde spezifiziert – das schaffen IPS- und VA-Panels allenfalls mit einem extremen Overdrive und entsprechender Latenz.

john carmack
2014-11-11, 16:08:12
32" 4K fällt auf 950€ (Acer B326HK)

http://www.idealo.de/preisvergleich/OffersOfProduct/4639959_-b326hk-acer.html

ChaosTM
2014-11-11, 16:13:39
http://www.sony.at/pro/product/broadcast-products-professional-monitors-oled-monitors/bvm-x300/specifications/#specifications

In 2 Jahren könnte sowas erschwinglich sein. G/Freesync und 120hz dazu und fertig wäre der fast perfekte Monitor.
Jetzt müssen nur noch die Panels haltbar genug sein.

Unicous
2014-11-11, 16:17:46
@PHuV

Afaik wurde das Modding Kit längst eingestellt und Tom Peterson von Nvidia hat auch gesagt, dass das eine einmalige Sache war.

PHuV
2014-11-11, 16:36:41
@PHuV

Afaik wurde das Modding Kit längst eingestellt und Tom Peterson von Nvidia hat auch gesagt, dass das eine einmalige Sache war.
Schade. :frown: An sich wird ja nur die Nvidia-Platine zur Monitorplatine dazwischengeschaltet.
http://www.sony.at/pro/product/broadcast-products-professional-monitors-oled-monitors/bvm-x300/specifications/#specifications

In 2 Jahren könnte sowas erschwinglich sein. G/Freesync und 120hz dazu und fertig wäre der fast perfekte Monitor.
Jetzt müssen nur noch die Panels haltbar genug sein.
Meines Wissens nach gibts noch kein OLED > 75 Hz. Gerade vor diesem Problem steht ja auch Oculus, die schreien förmlich nach OLED >= 90 Hz. Da werden wir wohl noch lange warten müssen. Und im DK2 bekommt OR nur 75 Hz hin, weil sie das Display bzw. die Schaltelektronik übertakten.

Gynoug MD
2014-11-11, 20:53:04
Ich habe jetzt den Asus PG278Q in Betrieb und bin soweit, abgesehen von den (natürlich) armseligen TN-Blickwinkeln, sowie nur einem DP, zufrieden.
1a Verarbeitung/Ergonomie, gute Ausleuchtung, 0 Pixelfehler, Farben auch nicht schlechter als beim FG2421, G-Sync top.

ABER, um es kurz vorweg zu nehmen:
Meine Zodac GTX970 überhitzt jetzt bei grafisch sehr anspruchsvollen Spielen sehr stark und das führt (Metro LL Redux etc.) nach kurzer Zeit zum Absturz.
Gehäusebelüftung etc. sind ausreichend, als Test habe ich mit einem Ventilator auf höchster Stufe direkt vor die Grafikkarte gestellt (+GPU-Fan 100%), leider ohne Erfolg.
Das heisst, die Platine überhitzt wohl schneller, als es eine noch so gute Kühlung kompensieren könnte.
Kann das jemand mit min. 1440p Auflösung (Metro LL Redux Max Benchmark 3x) verifizieren, liegts nur an meiner Zotac?
Wenn ja, dann wirds für Maxwell-Spieler mit WQHD-Monitoren wohl bald einen Riesenproblem geben, spätestens im Sommer...

Grestorn
2014-11-11, 21:03:23
Das ist sicher nicht normal. Die Karte wirst du wohl zurückschicken und tauschen lassen müssen.

Kartenlehrling
2014-11-11, 21:20:56
Das ist der 144hz bug, die grafikkarte takte immer auf Multi-Monitor mode.
Stell den Monitor so ein das er nur auf 120hz takte und dann ist alle wieder gut.

ABER, um es kurz vorweg zu nehmen:
Meine Zodac GTX970 überhitzt jetzt

Dieser Bug ist eigentlich störender im Idle,
wie weit sich das nun im Spiele auch auswirkt muss man rausfinden, aber ich würde erstmal den Monitor nicht über 120hz stellen.

Gynoug MD
2014-11-11, 21:40:29
Das ist der 144hz bug, die grafikkarte takte immer auf Multi-Monitor mode.
Stell den Monitor so ein das er nur auf 120hz takte und dann ist alle wieder gut.



Dieser Bug ist eigentlich störender im Idle,
wie weit sich das nun im Spiele auch auswirkt muss man rausfinden, aber ich würde erstmal den Monitor nicht über 120hz stellen.

Den "144Hz-Idle-Bug" kenne ich, alle Abstürze, o.g. Erfahrungen und Nervenzusammenbrüche basieren auf 120Hz.

Grestorn
2014-11-11, 21:43:04
Das ist der 144hz bug, die grafikkarte takte immer auf Multi-Monitor mode.
Stell den Monitor so ein das er nur auf 120hz takte und dann ist alle wieder gut.

Das ist kein Bug sondern einfach notwendig, die Karte kann 144 Hz nicht mit voll reduziertem Takt zuverlässig treiben.

Das ist aber nur für den Desktop relevant, den man deswegen tatsächlich besser auf 120 Hz laufen lässt (mehr braucht man da ja auch nicht). In Spielen selbst interessiert es kaum, dass der Takt nicht voll runtergefahren werden kann... Deswegen: Spiele mit 144 Hz, den Desktop mit 120 Hz.

Mit den Crashes hat das aber so oder so nichts zu tun. Wenn Du kein Problem mit Deiner Stromversorgung hast, ist auf jeden Fall Deine Karte defekt.

Kartenlehrling
2014-11-11, 22:06:17
...., alle Abstürze, o.g. Erfahrungen und Nervenzusammenbrüche basieren auf 120Hz.

Dann hat das ja nichts mit dem Monitor zu tun sondern der Grafikkarte und Treiber.

OT:
Ich hatte zb. letzt das probleme gehabt das ich bei meinem MSI Afterburner ein update durchführte habe,
und obwohl ich diese Tool nur fürs OSD habe, meine Takt Werte verstellt waren und das erst gar nicht gemerkt habe.

Grestorn
2014-11-11, 22:14:19
Dann hat das ja nichts mit dem Monitor zu tun sondern der Grafikkarte und Treiber. Ich hab nichts von Monitor geschrieben. Lies meinen Beitrag nochmal langsam und aufmerksam.

PHuV
2014-11-11, 23:39:57
Ist jemanden aufgefallen, daß ein 32" Acer UHD-Monitor mit IPS-Panel lieferbar ist?
Acer Business B326HKymjdpphz, 32" (UM.JB6EE.005) (https://geizhals.at/de/acer-business-b326hkymjdpphz-um-jb6ee-005-a1179049.html)

HPVD
2014-11-12, 07:50:15
32" 4K fällt auf 950€ (Acer B326HK)

http://www.idealo.de/preisvergleich/OffersOfProduct/4639959_-b326hk-acer.html


jo und auch der 4K IPS BenQ BL3201PT, 32" (9H.LCFLB.QBE)
für 950€
(nur noch nicht in D erhältlich)
https://geizhals.at/?cat=monlcd19wide&xf=3856_3840~99_30#xf_top

und der ist auch flickerfree...

PHuV
2014-11-12, 19:41:57
Ich schau mir gerade ein paar Comics und PDFs mit dem Acer an. Da macht das Anschauen auf keinem UHD-Display kein Spaß mehr. :frown:

Gouvernator
2014-11-12, 19:48:11
Ich schau mir gerade ein paar Comics und PDFs mit dem Acer an. Da macht das Anschauen auf keinem UHD-Display kein Spaß mehr. :frown:
Doch. Aber erst ab 75". ;)

HPVD
2014-11-12, 19:49:03
Ich schau mir gerade ein paar Comics und PDFs mit dem Acer an. Da macht das Anschauen auf keinem UHD-Display kein Spaß mehr. :frown:

auf keinem UHD-Display = auf einem Nicht-UHD-Display ? :rolleyes:
sorry irgendwie steh ich aufm schlauch...

PHuV
2014-11-12, 23:23:58
auf keinem UHD-Display = auf einem Nicht-UHD-Display ? :rolleyes:
sorry irgendwie steh ich aufm schlauch...
Alles, was kleiner als UDH/4k ist oder nicht UHD, sieht nun doof und unscharf aus. ;)

Kartenlehrling
2014-11-12, 23:36:47
Es wird aber daran gearbeit ...

m Test zeigte der Philips eine gute Leistung. Die automatische Bildanpassung ist bei allen gängigen Bildformaten überzeugend. Auflösungen wie 2048 x 1536, 1920 x 1200 und 1600 x 1200 Pixel werden an beiden Seiten mit schwarzen Balken dargestellt. 4:3-Bildformate können über die Einstellung Bildformat im Menü Bild auch unverzerrt dargestellt werden. Zur Darstellung kleinerer Bildformate eignet sich auch die Bild-in-Bild Funktion. Damit lassen sich separat angeschlossene Bildsignale mit einer Auflösung von 1024 x 768, 800 x 600 oder 640 x 480 Bildpunkten pixelgenau in einem kleinen Bildschirmfenster darstellen.

Die Bildschärfe kann in 10 Schritten im Bereich von 0 bis 100 weiter optimiert werden. Die sichtbaren Änderungen fallen angesichts der hohen Pixeldichte des 28-Zoll-Monitors jedoch gering aus. Die Pixel weisen einen Abstand von nur 0,16 mm auf. Damit ergibt sich eine Auflösung von 159 dpi, was praktisch der Auflösung von Plakaten im Druck (150 dpi) entspricht.


Die Schärfe bei nativer Auflösung ist erwartungsgemäß sehr gut. Die einfache HD-Auflösung von 1.280 x 720 Pixel sieht man an, dass die notwendige Pixelvergrößerung hauptsächlich durch zusätzlich eingefügte graue Bildpunkte bewirkt wird. Dies führt zu etwas fetteren Konturen mit leichtem Unschärfeeindruck. Farbsäume treten nicht auf.
http://www.prad.de/new/monitore/test/2014/test-philips-288p6ljeb-teil6.html

akuji13
2014-11-13, 08:09:52
Es wird an so vielen Dingen gearbeitet die nie erscheinen oder in weiter Ferne liegen.

Stand heute: Es sieht nicht mehr total scheiße aus sondern nur noch scheiße. :D

hellibelli
2014-11-13, 08:43:51
Ich habe jetzt den Asus PG278Q in Betrieb und bin soweit, abgesehen von den (natürlich) armseligen TN-Blickwinkeln, sowie nur einem DP, zufrieden.
1a Verarbeitung/Ergonomie, gute Ausleuchtung, 0 Pixelfehler, Farben auch nicht schlechter als beim FG2421, G-Sync top.

ABER, um es kurz vorweg zu nehmen:
Meine Zodac GTX970 überhitzt jetzt bei grafisch sehr anspruchsvollen Spielen sehr stark und das führt (Metro LL Redux etc.) nach kurzer Zeit zum Absturz.
Gehäusebelüftung etc. sind ausreichend, als Test habe ich mit einem Ventilator auf höchster Stufe direkt vor die Grafikkarte gestellt (+GPU-Fan 100%), leider ohne Erfolg.
Das heisst, die Platine überhitzt wohl schneller, als es eine noch so gute Kühlung kompensieren könnte.
Kann das jemand mit min. 1440p Auflösung (Metro LL Redux Max Benchmark 3x) verifizieren, liegts nur an meiner Zotac?
Wenn ja, dann wirds für Maxwell-Spieler mit WQHD-Monitoren wohl bald einen Riesenproblem geben, spätestens im Sommer...


Ich habe ungefähr die gleiche Hardware. Asus Swift Rog und eine MSI 970 GTX.
Da ich den Moni gestern erst bekommen habe, kann ich noch nicht so viel dazu sagen ob die Graka überhitzt. Habe lediglich Mordors Schatten 2 Stunden gezockt und etwas COD.
Dabei hatte ich einmal einen Treiberreset (aber nur mit OC der Graka). Habe dieses dann etwas runtergeschraubt so das ich mit Turbo auf 1,5 Ghz Chiptakt komme und damit lief es Problemlos. Das die Graka jetzt wärmer wird, konnte ich nicht sehen. Vielleicht liegt es aber auch an den Treiber. Nutze den aktuellsten. Als OS habe ich Windows 7 64bit. Werde aber wohl am WE mal auf Windows 8.1 wechseln. Mal schauen wie das alles mit dem 8.1 läuft.

Es kann aber eigentlich nicht sein, wenn du den GPU Lüfter auf 100% hast und deine Gehäuselüfter auch alle gut aufgestellt sind, dass Sie so stark überhitzt das es zum Absturz führt.

Wie warm wird die denn überhaupt? Selbst mit DSR auf 4K wurde meine nie so heiß, dass sie abgeschmiert ist.

john carmack
2014-11-13, 13:13:19
hi Leute,

was ist an dem Grücht dran, das 4K Monitore eigentlich aus 2 zusammengelöteten Bildschrimen bestehen - es somit also keine nativen 4K Monitore gibt?

Stimmt das?

Kartenlehrling
2014-11-13, 13:37:39
Das ist quatsch,
es gab mal Video bei PCGH.de vom ersten 25.000€ 4k Monitor der noch mit „MST“ (Multi-Stream-Transport) arbeite,
da sah man in der Mitte einen Strich weil die "zwei" Monitor nicht sauber eingemessen waren, nach optimalen einmessen sah man nichts mehr.

Trotzdem würde ich nur Single-Stream Monitor kaufen, für normal Desktoparbeiten ist das egal,
aber Spiele zb. können oft damit nicht anfangen, genau wie es immer noch 21:9 profile brauch.

PHuV
2014-11-14, 10:32:49
IBC2014: Sony 4K-OLED-Monitor BVM-X300
ny1-vZ65J_w

Das wäre doch der Traum von Gouverator.

Kostet aber nur 30K €.

ChaosTM
2014-11-14, 10:51:01
Siehe #2417 letzte Seite :)
In 2 Jahren gibts was besseres in bezahlbar - hoffentlich.

PHuV
2014-11-14, 11:19:37
Ich hab ein Video, Du nur Text. ;) (http://www.youtube.com/watch?v=hAxrzn5Ml5E)

hAxrzn5Ml5E

Ich lese gerade in der aktuellen c't 25/14, daß keiner der 4k-fähigen Receiver HDCP 2.2 beherrscht. Sprich, man kann nur 4k-Filme ohne Kopierschutz per PC und Grafikkarte abspielen. Da ist man doch als Frischkäufer glatt wieder in den Arsch gebissen und muß sich einen neuen Receiver kaufen.

ChaosTM
2014-11-14, 11:34:31
Das war zu befürchten..
Und jop, ein Video ist deutlich aussagekräftiger. :)

HPVD
2014-11-14, 11:37:03
Ich lese gerade in der aktuellen c't 25/14, daß keiner der 4k-fähigen Receiver HDCP 2.2 beherrscht.

??

dachte das bringt HDMI 2.0 mit??

Nightspider
2014-11-14, 12:19:18
Erste FreeSync-Monitore ab Dezember im Handel:

http://www.computerbase.de/2014-11/erste-freesync-monitore-amd-dezember-januar/

AMD FreeSync wird im vollen Umfang nur auf den Modellen Radeon R7 260, Radeon R7 260X, Radeon R9 285, Radeon R9 290 und Radeon R9 290X funktionieren.

Wie jetzt, wieso nicht Maxwell?

PHuV
2014-11-14, 12:23:04
Wie jetzt, wieso nicht Maxwell?
Ist doch logisch:

Weil FreeSync eine Antwort von AMD (http://www.gamestar.de/hardware/news/grafikkarten/3058447/amd_freesync.html)auf Nvidias G-Sync ist. FreeSync wird den Catalyst-Treiber eingebaut.

Nvidia müßte das erst in seine Treiber implementieren, und ich vermute mal stark, daß sie es nicht tun werden.

PHuV
2014-11-14, 12:32:13
??

dachte das bringt HDMI 2.0 mit??
Tja, die Hersteller sind geschickt, und schreiben in ihre Doku nur etwas wie

Beispiel Denon PRODUCT INFORMATION AVR-X4100W (http://assets.eu.denon.com/DocumentMaster/MASTER/Denon_AVR-X4100W_EN01.pdf)

Latest HDMI standard with 4K Ultra HD Scaling up to 60Hz and 4:4:4 colour resolution

Wer weiß, was die Receiver-Hersteller wieder an eigenen Lösungen eingebaut haben? Fakt ist, daß zum Zeitpunkt der Herstellung der neuen 4k-Receiver noch überhaupt keine HDMI 2.0-Chips verfügbar waren.

Also, wer auf 4k im Heimkino umsteigen will, muß noch warten. Ich find das ja mal gut, daß wenigstens c't mal diese Aspekte unter die Lupe nimmt. In den diversen Hifi-Zeitschriften wird heute eh nur gelobhudelt und beworben, so richtig testen tun die ja nicht mehr. Und zu Hause steht man dann mit dem neuen Zeugs da, und wundert bzw. ärgert sich, warum das alles nicht so funktioniert wie es soll.

N0Thing
2014-11-14, 12:46:01
Ist doch logisch:

Weil FreeSync eine Antwort von AMD (http://www.gamestar.de/hardware/news/grafikkarten/3058447/amd_freesync.html)auf Nvidias G-Sync ist. FreeSync wird den Catalyst-Treiber eingebaut.

Nvidia müßte das erst in seine Treiber implementieren, und ich vermute mal stark, daß sie es nicht tun werden.

Zumal AMD sicher keine Werbung für Nvidia-Produkte machen würde, selbst wenn sie wüßten, daß deren Karten FreeSync theoretisch unterstützen.

Unicous
2014-11-14, 13:26:26
http://forums.overclockers.co.uk/showpost.php?p=27210099&postcount=86

Hi there

Spoke to LG.

Hoping to get 29" and 34" super-wide flat IPS panels early next year with FreeSync which shall be exclusive to OcUK in UK.

So IPS and Freesync, boooooooooooooooooom!

:eek:

Nightspider
2014-11-14, 13:34:14
Das Hoping irritiert mich dezent.

Unicous
2014-11-14, 13:41:02
Er hofft, dass er "exklusiv" für OcUK Anfang nächsten Jahres Monitore von LG? bekommt.

Er hat das bei LG angefragt, gepitcht und hofft, dass er es dann anbieten kann.
Ich sehe "hoping" da nicht so irritierend. Dass der Typ in den Jahren, seit er bei OcUk (2000-2008, 2010-) ist, ordentliche Deals und Exclusives herausgeholt hat stimmt mich daher eher optimistisch als nachdenklich.

M4xw0lf
2014-11-14, 13:42:27
Er hofft, dass er "exklusiv" für OcUK Anfang nächsten Jahres Monitore von LG? bekommt.

Er hat das bei LG angefragt, gepitcht und hofft, dass er es dann anbieten kann.
Ich sehe "hoping" da nicht so irritierend. Dass der Typ in den Jahren, seit er bei OcUk (2000-2008, 2010-) ist, ordentliche Deals und Exclusives herausgeholt hat stimmt mich daher eher optimistisch als nachdenklich.
Ich glaub hoping bezieht sich hauptsächlich auf "early" next year.

robbitop
2014-11-14, 13:43:21
Zumal für solche Produkte die Komponenten ja kaufbar sind. Es gibt gute IPS Panels mit 4K oder 3840x1440 und es gibt G-Sync und A-Sync Scaler. Man muss es nur wollen, dann kann man auch ein entsprechendes Produkt auf den Markt werfen.

Ich bin mir auch ziemlich sicher, dass das passieren wird.

Langfristig wird NV auch A-Sync in ihre Produkte investieren. Es wird IMO über kurz oder lang in jedem Scaler landen. Weils keine Mehrkosten erzeugt. Aber ein Custom FPGA schon.

mironicus
2014-11-14, 14:35:51
Vielleicht ist ja das 34 Zoll Curved-Display von LG das nicht benannte Modell was bereits FreeSync-fähig (nach Update der Firmware) ist. Es gab ja schon mal Andeutungen über Curved-Monitore mit IPS und Freesync von AMD-Mitarbeitern.

PHuV
2014-11-14, 17:56:13
Langfristig wird NV auch A-Sync in ihre Produkte investieren. Es wird IMO über kurz oder lang in jedem Scaler landen. Weils keine Mehrkosten erzeugt. Aber ein Custom FPGA schon.
Dazu müssen wir erst mal wissen und erfahren, wie gut FreeSync arbeitet. Bisher gibts meines Wissens nach noch nichts genaueres geschweige den Tests.

Gipsel
2014-11-14, 18:07:21
Dazu müssen wir erst mal wissen und erfahren, wie gut FreeSync arbeitet. Bisher gibts meines Wissens nach noch nichts genaueres geschweige den Tests.Was heißt wie gut? Die Framesynchronisation wird praktisch perfekt laufen. Da gibt es schlicht nicht viel Spielraum, wenn man das unterstützt. Entweder geht es (also daß ein Bufferflip den Refresh triggert), oder nicht. Die Größe des Bereichs, in dem der Refresh den Frameraten angepaßt werden kann, ist eine Funktion des Monitors. Der Rest ist dann hauptsächlich Sache der Eigenarten des Spiels/der Engine (also z.B. ob die Updates des Gamestates smooth erfolgen oder es Spikes bei den Frametimes gibt, die dann trotz des framesynchrones Refreshes zu einer Art Judder führen). Bei Letzterem kann es prinzipiell keine Unterschiede zwischen G- und A-Sync geben.

Ex3cut3r
2014-11-14, 18:26:07
Also so ein 21:9 IPS mit 3440x1440 oder höher reizt mich auch, dazu G-Sync oder Freesync *sabber* bloß der IPS-Glow macht mir Kopfschmerzen.

Cubitus
2014-11-14, 18:43:57
Die LGs glowen durch die Bank alle.. Die curved, lt Bilder im Netz sogar noch schlimmer. Ich hatte insgesamt 4 Modelle des lg 34um95, Modell Nr 3 behielt ich.

Nach dem ich selbst das unterste bezel löste und vorsichtig wieder anbrachte.
Da dieses durch den Anpressdruck tatsächlich Lichthöfe in den unteren Ecken verursachte, kam nach dem Eingriff die Ausleuchtung ähnlich gut rüber, wie beim Prad Test-Gerät.

Schade das in in einer gwissen "Fach"-Zeitung das curved Display regelrecht beworben wurde, aber auf den Glow einzugehen hielt man wohl nicht für nötig..;(

Gynoug MD
2014-11-15, 04:34:52
Ich habe ungefähr die gleiche Hardware. Asus Swift Rog und eine MSI 970 GTX.
Da ich den Moni gestern erst bekommen habe, kann ich noch nicht so viel dazu sagen ob die Graka überhitzt. Habe lediglich Mordors Schatten 2 Stunden gezockt und etwas COD.
Dabei hatte ich einmal einen Treiberreset (aber nur mit OC der Graka). Habe dieses dann etwas runtergeschraubt so das ich mit Turbo auf 1,5 Ghz Chiptakt komme und damit lief es Problemlos. Das die Graka jetzt wärmer wird, konnte ich nicht sehen. Vielleicht liegt es aber auch an den Treiber. Nutze den aktuellsten. Als OS habe ich Windows 7 64bit. Werde aber wohl am WE mal auf Windows 8.1 wechseln. Mal schauen wie das alles mit dem 8.1 läuft.

Es kann aber eigentlich nicht sein, wenn du den GPU Lüfter auf 100% hast und deine Gehäuselüfter auch alle gut aufgestellt sind, dass Sie so stark überhitzt das es zum Absturz führt.

Wie warm wird die denn überhaupt? Selbst mit DSR auf 4K wurde meine nie so heiß, dass sie abgeschmiert ist.

OS W7 64bit, Karte bei 1440p im Spiel im Wortsinne kochend heiss (Inspector zeigte jedoch immer nur ~70 Grad) , Abstürze ließen sich minimieren durch Abschaltung der Nvidia-"Physx".
G-Sync nach wie vor genial (ab ca. 40fps), trotzdem gehen mir der mittelmäßige SW und die ebenso mittelmäßige Durchzeichnung in dunklen Bereichen immer mehr auf den Sack, daß "alte" S-PVA-Panel ist hier, immer noch, haushoch überlegen!
Beispiel Outlast-Gamma-Einstellung: Beim Asus TN-Panel ist die Figur rechts erst zu erkennen, wenn der Schalter fast ganz rechts steht, beim ollen NEC P221w fast komplett durchgehend von schwächer bis stärker...

Zudem ist diese LED-Hintergrundbeleuchtung der (aller) neuen Monitore mMn einfach anstrengender für die Augen (ja, auch ohne PWM), halt "Kühlschrank" ähnlich.

ChaosTM
2014-11-15, 11:21:06
... trotzdem gehen mir der mittelmäßige SW und die ebenso mittelmäßige Durchzeichnung in dunklen Bereichen immer mehr auf den Sack, daß "alte" S-PVA-Panel ist hier, immer noch, haushoch überlegen!
Beispiel Outlast-Gamma-Einstellung: Beim Asus TN-Panel ist die Figur rechts erst zu erkennen, wenn der Schalter fast ganz rechts steht, beim ollen NEC P221w fast komplett durchgehend von schwächer bis stärker...

Zudem ist diese LED-Hintergrundbeleuchtung der (aller) neuen Monitore mMn einfach anstrengender für die Augen (ja, auch ohne PWM), halt "Kühlschrank" ähnlich.

Schwarzwert und Durchzeichnung sind bei meinem auch etwas schlechter als bei meinem 2405er DELL von 2005 (PVA). Der Unterschied ist aber minimal. Wäre auch schlimm, noch klarer gegen ein fast 10 Jahre altes Panel zu verlieren. ;)

Die Non-PWM Hintergrundbeleuchtung empfinde ich aber als eine wahre Wohltat fürs Auge. Selbst nach stundenlangem Spielen oder Surfen kein Kopfschmerz wie früher!
Das kann aber auch an der Auflösung liegen. Es flimmert nix mehr.

Monitore sind momentan immer Kompromiss behaftet, aber das hatten wir schon.
Bis zum 30+ OLED mit Freesync usw. wird er reichen..

PHuV
2014-11-15, 13:47:37
Was heißt wie gut? Die Framesynchronisation wird praktisch perfekt laufen. Da gibt es schlicht nicht viel Spielraum, wenn man das unterstützt.
Wenn ich danach gehe, was alles schon versprochen und angekündigt wurde, und was dann rauskam, glaube ich es erst, wenn ich es sehe bzw. es vernünftige Tests gibt. Warten wir es ab, und beurteilen es, wenn es dann auch wirklich da ist.

Ex3cut3r
2014-11-15, 16:49:06
Die LGs glowen durch die Bank alle.. Die curved, lt Bilder im Netz sogar noch schlimmer. Ich hatte insgesamt 4 Modelle des lg 34um95, Modell Nr 3 behielt ich.

Nach dem ich selbst das unterste bezel löste und vorsichtig wieder anbrachte.
Da dieses durch den Anpressdruck tatsächlich Lichthöfe in den unteren Ecken verursachte, kam nach dem Eingriff die Ausleuchtung ähnlich gut rüber, wie beim Prad Test-Gerät.

Schade das in in einer gwissen "Fach"-Zeitung das curved Display regelrecht beworben wurde, aber auf den Glow einzugehen hielt man wohl nicht für nötig..;(

Also, könntest du damit den Glow eindämmen, oder sogar komplett loswerden? :eek:

Und wieso kriegt das LG nicht selber hin? ^^

grobi
2014-11-15, 16:57:58
Mein LG mit AH-IPS hat kein Glow. Da habe ich wohl Glück gehabt? Oder ist das erst ein Problem der neueren Art?

AU-MKK
2014-11-15, 17:02:49
warum kein apple

Gouvernator
2014-11-15, 17:13:29
IBC2014: Sony 4K-OLED-Monitor BVM-X300
http://youtu.be/ny1-vZ65J_w

Das wäre doch der Traum von Gouverator.

Kostet aber nur 30K €.
Ja danke auch, jetzt hast du mich rattig gemacht. So rattig das ich aus Verzweiflung meine 22" CRTs angepackt habe. Und nun steht einer da... Gott ist er geil. Das muss man sich nach Jahren LCD/OLED immer wieder geben. Absolut flüssige Bewegungen des Zeigers, es sieht aus wie in den Stein gemeißelt beim bewegen. Ich bin jetzt fast überzeugt das die Elektronik aller LCDs dank Inputlag sowas wie natürliches Mikroruckeln erzeugt. Dank Null Inputlag schimpfen mich in COD alle "hacker", "reported". und das obwohl ich mit dem Gamepad gegen sie zocke. =)
In 2048x1536@85hz sieht es teilweise atemberaubend aus und realistisch. Einziges Nachteil ist weiches Bild, nicht sonderlich hell und klein... seit ich an 27" gewöhnt bin.

Alles in allem waren die Leute damals richtig blöd das sie wegen bisschen Unschärfe und Klobigkeit die CRTs abgeschrieben haben.

Unicous
2014-11-15, 20:09:54
Wenn ich danach gehe, was alles schon versprochen und angekündigt wurde, und was dann rauskam, glaube ich es erst, wenn ich es sehe bzw. es vernünftige Tests gibt. Warten wir es ab, und beurteilen es, wenn es dann auch wirklich da ist.

Du bezichtigst damit VESA der Lüge. Ob AMD mit Freesync Marketing macht, ist da erst einmal egal.

Du bezichtigst damit auch Intel der Lüge, die nämlich die gleiche Technik schon vor 3 Jahre öffentlich gezeigt haben, nur unter der Stromsparprämisse.

Viele tun so, als wäre Adaptive Sync eine Verschwörungstheorie die erst einmal bewiesen werden muss. Aber die Technologie und "Philosophie" dahinter ist alt und lediglich ungenutzt.

Ob G-Sync am Ende irgendwelche Vorteile bietet, muss sich noch herausstellen. Natürlich könnte Nvidia G-Sync mit weiteren Features ausstatten die mit variabler Bildwiederholrate nichts mehr zu tun hat, aber das grundlegende Konzept von G-Sync und Adaptive Sync ist dasselbe, ich frage mich daher, was G-Sync laut Tom Peterson "besser" macht (neben dem zum Erbrechen wiederholten "Fakt" dass Adaptive Sync ja nur eine optionale Spec ist).

Kartenlehrling
2014-11-15, 20:57:46
ich frage mich daher, was G-Sync laut Tom Peterson "besser" macht (neben dem zum Erbrechen wiederholten "Fakt" dass Adaptive Sync ja nur eine optionale Spec ist).

Ein vorteil hat g-sync jetzt schon, es funktioniert auf allen DX11 Nvidia Grafikkarten.

Unicous
2014-11-15, 21:02:16
Du meinst wohl eher alle Kepler( und jünger) Karten.

Cubitus
2014-11-15, 21:32:47
Also, könntest du damit den Glow eindämmen, oder sogar komplett loswerden? :eek:

Und wieso kriegt das LG nicht selber hin? ^^

Nicht ganz weg, aber wesentlich eingedämmt.
Das Bezel saß in den unteren Ecken sowas von fest, nach dem anlösen waren keine Wolken mehr zu sehen. Oben bekomme ich den Rahmen nicht weg.

Allerdings drückt es unten immer noch etwas drauf. Wenn man das Bezel unten komplett löst, sind dann die unteren Wolken fast ganz weg. Leider könnten so Gewitter-Tiere ins Panel eindringen.
Also auch nicht so gut. Du keine Ahnung warum das LG bei der Produktion nicht hin bekommt, ich weiß nur beim Kundendienst läuft sowas unter "Clouding" Und die machen dort wohl nix anderes als das Panel in den Rahmen einzupassen.

http://abload.de/img/shot8ostm.png (http://abload.de/image.php?img=shot8ostm.png)

Ex3cut3r
2014-11-15, 21:46:12
:up: Danke dann hol mich zu Weihnachten wohl auch einen, mit dem Glow wie auf deinem Foto kann man Leben imo. Hab schon schlimmere gesehen ;)

Der LG 34UC97-S, soll laut PCGH nochmal nen besseren Inputlag haben, im vergleich zum 34um95-p nochmal nen Fortschritt, allerdings auch 300€ teurer :freak:

PHuV
2014-11-15, 22:06:01
Du bezichtigst damit VESA der Lüge.
Was redest Du da wieder für einen Schwachsinn, denkst Du auch mal nach, bevor Du schreibst? :rolleyes:

Wo sage ich, daß jemand lügt? Ich habe zuviele Sachen schon erlebt, gekauft usw., die dann beileibe nicht das gehalten habe, was sie versprochen haben. Und was ist dann da verwunderlich, wenn ich hier erst mal mit Äußerungen vorsichtig bin, ob etwas tauglich ist oder nicht? Warten wir es doch mal ab, und dann sehen wir ja, wie es in der Praxis aussieht. Nur schon vorher nur anhand von wagen Aussagen und Versprechungen schon gleich wissen zu wollen, wie etwas sein wird, halte ich für falsch, egal wer und was er für Versprechungen macht. Wo ist dann Dein Problem? Mehr sage ich doch nicht, abwarten!

Es gibt heute so viele technische Komponenten in einer Kette, und es braucht nur eine nicht korrekt zu arbeiten, oder Probleme zu haben, oder 2 Teile haben ein bißchen Probleme, und schon klappt gar nichts mehr richtig. Mal mit HDMI in der Anfangsphase zu tun gehabt, oder DSL, oder VoiP, aktuell USB 3.0, oder aktuell auch G-Sync mit SLI und DSR? Das funktioniert leider nicht immer so, wie es immer angepriesen und verkauft wird, und der Kunde merkt es immer als letztes. Schau Dir die aktuelle c't 25/14 und das Thema 4K an.
Ob G-Sync am Ende irgendwelche Vorteile bietet, muss sich noch herausstellen. Natürlich könnte Nvidia G-Sync mit weiteren Features ausstatten die mit variabler Bildwiederholrate nichts mehr zu tun hat, aber das grundlegende Konzept von G-Sync und Adaptive Sync ist dasselbe, ich frage mich daher, was G-Sync laut Tom Peterson "besser" macht (neben dem zum Erbrechen wiederholten "Fakt" dass Adaptive Sync ja nur eine optionale Spec ist).
Da sprich wieder mal ein Blinder vom Farben, oder? Hast Du G-Sync, hast Du 4K? Du reißt so groß und permanent Deine Klappe auf, nörgelst an allen rum, und kannst keine praktischen Erfahrungen vorweisen.

Fakt ist eben, G-Sync ist auf dem Markt, und es funktioniert. Ob es jemanden Vorteile bietet, muß jeder doch dann selbst beurteilen, und diejenigen die es dann auch kaufen. Und bisher habe ich hier keinen negativ über G-Sync reden hören. Es gibt Probleme mit G-Sync, SLI und DSR usw., sicher. Aber G-Sync funktioniert, und man kann es kaufen. Ob es überall und immer gleich gut funktioniert, ist wieder zu diskutieren. Weiterhin ist auch offen, wie FreeSync auf all diese Dinge reagieren wird. Und ich gebe erst ein Urteil darüber ab, wenn es verfügbar ist, und man es praktisch erleben kann. Man kann es aber aktuell eben noch nicht kaufen und sehen.

Unicous
2014-11-15, 22:19:20
Denkst du nach bevor du schreibst ist meine Gegenfrage.

Es ist ein offizieller VESA-Standard warum musst du FUD verbreiten und sagen ich glaube es erst wenn ich es sehe. Völlig unnötig.

Dass man an den Monitor variable Wiederholungsraten schicken kann, hat schon G-Sync bewiesen und davor hat es Intel mit dem Panel Self Refresh Feature des eDP Standards gezeigt. Wenn VESA dieses Feature nun nutzt um über Displayport eben jenes Signal an den Timing Controller zu senden, was muss da noch bewiesen werden.

Das Feature wurde nicht genutzt, Scaler bzw. Timing Controller haben es logischerweise nicht unterstützt und jetzt wurde es integriert und AMD steuert das per Treiber (wie auch Nvidia).

Dass AMD es nur ansatzweise zeigen konnte lag eben daran, dass die Monitor-Hardware es nicht zuließ. Nvidia hat dafür die gesamte Scaler- und Controller-Hardware gegen ihren FPGA ausgetauscht.

Adaptive Sync nutzt "normale" Hardware wie sie zum Beispiel http://www.paradetech.com/ herstellt.

Wo liegt jetzt dein Problem?

edit:

Hast du also auch, nachdem Nvidia G-Sync vorgestellt hat gesagt, ich glaube es erst wenn ich es sehe... oder hast du es sofort geglaubt. Ich denke Letzteres. Nachprüfen kann man es nachträglich natürlich nicht. ;)

Es geht um Vorteile die über VRR hinausgeht. Das hat Tom Peterson behauptet. Es ist besser als die Spec "Adapative Sync". Das war die Aussage. Nichts anderes meine ich.

PHuV
2014-11-15, 22:41:51
Es ist ein offizieller VESA-Standard warum musst du FUD verbreiten und sagen ich glaube es erst wenn ich es sehe. Völlig unnötig.
Und? Nimm meine aufgezählten Beispiele. USB 3.0 läuft bis heute nicht sauber, und hat Probleme. Und da willst Du mir weißmachen, daß jemand einfachmal einen neuen Standard macht, und dann ist alles FriedeFreudeEierkuchen? :rolleyes: Du hast echt keine Ahnung.
Dass man an den Monitor variable Wiederholungsraten schicken kann, hat schon G-Sync bewiesen und davor hat es Intel mit dem Panel Self Refresh Feature des eDP Standards gezeigt. Wenn VESA dieses Feature nun nutzt um über Displayport eben jenes Signal an den Timing Controller zu senden, was muss da noch bewiesen werden.
Das es eben auch so in der Praxis funktioniert.
Das Feature wurde nicht genutzt, Scaler bzw. Timing Controller haben es logischerweise nicht unterstützt und jetzt wurde es integriert und AMD steuert das per Treiber (wie auch Nvidia).
Aha, merkst Du was? Und Du erlaubst Dir jetzt schon ein Urteil von etwas, was Du und andere vom Hörsagen kennen? :rolleyes:
Dass AMD es nur ansatzweise zeigen konnte lag eben daran, dass die Monitor-Hardware es nicht zuließ.
Ja ups, so was aber auch. :rolleyes: Was ist dann so verwerflich am meiner Position, daß ich hier erst mal abwarte und das sehen will?
Nvidia hat dafür die gesamte Scaler- und Controller-Hardware gegen ihren FPGA ausgetauscht.
Und es funktioniert.
Hast du also auch, nachdem Nvidia G-Sync vorgestellt hat gesagt, ich glaube es erst wenn ich es sehe... oder hast du es sofort geglaubt. Ich denke Letzteres. Nachprüfen kann man es nachträglich natürlich nicht. ;)
Ich glaube niemanden mehr etwas im voraus, ich warte ab und halte mich mit Urteilen zurück. Ich bin mittlerweile über 30 Jahre mit IT beschäftigt, wenn ich für jedes Versprechen oder Ankündigung, geschweige den "Standardisierung", die dann doch nichts brauchte, nen Euro bekommen hätte, wäre ich heute reich. :tongue: Und nein, ich habe mir den Acer gekauft, weil in der c’t 20/14 diesen Monitor mit G-Sync getestet wurde, und er für tauglich befunden wurde, und es gab dazu noch einige weitere Tests im Netz. Das hat ja noch nichts weiter zu sagen, dann muß der praktische und persönliche Test entscheiden, ob etwas für einen gut oder lohnenswert ist, oder nicht. Und mehr sage ich doch gar nicht.

Also, warum soll ich vorher etwas vertrauen oder beloben, wenn ich darüber noch nichts genaueres weiß? Wo rede ich FreeSync schlecht? Du tust ja so, als ob ich das tue.
Es geht um Vorteile die über VRR hinausgeht. Das hat Tom Peterson behauptet. Es ist besser als die Spec "Adapative Sync". Das war die Aussage. Nichts anderes meine ich.
Und was ist dann daran soo schlimm, einfach mal abzuwarten, und erst dann seinen Senf dazu zu geben, wenn es praktische Erfahrungen gibt?

Unicous
2014-11-15, 22:47:58
Sobald ich die WoT gesehen habe, war mir klar dass du an einer normalen Diskussion nicht interessiert bist. Niemand nimmt jeden einzelnen Satz auseinander um eine ordentliche Diskussion zu führen.

Daher für EOD.

PHuV
2014-11-15, 22:53:58
Sobald ich die WoT gesehen habe, war mir klar dass du an einer normalen Diskussion nicht interessiert bist.
:confused: Was ist WoT?

Niemand nimmt jeden einzelnen Satz auseinander um eine ordentliche Diskussion zu führen.
Ich schon, weil ich Dir damit explizit klar und deutlich zeige, wie falsch Du liegst. Du bist doch derjenige, der dauern rummotzt, falsch ließt, und sonst was einem unterstellst, was nicht gesagt wurde. Wenn Du zur Abstraktion nicht fähig bist, dann solltest Du wirklich mal einfach nichts sagen, dann sagst Du schon mal nichts falsches. Oder wenigstens mal einsehen, daß Du falsch liegst.
Daher für EOD.
Das machen alle, die dann keine Argumente mehr haben. Wenn Du nicht einstecken kannst, oder in der Lage bist, Dich argumentativ auseinander zu setzen, warum trollst Du dann so hier permanent herum? Du hast ja anscheinend nicht mal die Hardware, um überhaupt im entferntesten mitreden zu können.

Also nochmals, wo habe ich Deiner Meinung nach FreeSync schlecht geredet geschweige den schlecht gemacht? Nirgendwo.

Unicous
2014-11-15, 22:56:33
Kindergarten.:rolleyes:

PHuV
2014-11-15, 22:58:26
Du willst einen daraus machen! Dann bleib Doch bei Deinem Kindergarten, und laß die Erwachsenen hier, die das Zeugs haben und mitreden können, vernünftig diskutieren, und plappere nicht so inkompetent dazwischen, es nervt, wirklich!

Nochmals, wo mache ich FreeSync schlecht? Dann entschuldige Dich doch einfach mal für diese Unterstellung.

Grestorn
2014-11-15, 23:25:50
:confused: Was ist WoT?

Wall of Text. Und eine Diskussion abzubrechen weil der andere tatsächlich Argumente bringt und das dann als "Wall of Text" abzutun, muss eines der lamesten Dinge sein, die ich hier gesehen habe...

PHuV
2014-11-15, 23:45:27
Wall of Text.
Danke. Ich werd echt langsam alt, die ganzen Abkürzungen und so.. :wink:
Und eine Diskussion abzubrechen weil der andere tatsächlich Argumente bringt und das dann als "Wall of Text" abzutun, muss eines der lamesten Dinge sein, die ich hier gesehen habe...
Der werte Kollege hat ja schon mehrfach seine Diskussionsfähigkeit in anderen Threads bewiesen. :rolleyes:

Wenn wirklich immer alles so einfach wäre, wie die Leute das glauben...

Unicous
2014-11-15, 23:45:35
Wollt ihr den Kindergarten jetzt hier weiter treiben? Ich muss mich nicht mit halb Gezeter/halb Beleidigung auseinandersetzen.

Gipsel hat Recht und da kann es auch keine Diskussion geben. Außer man will den Anschein erwecken dass eine seit Jahren bekannte technologische Notwendigkeit
http://en.wikipedia.org/wiki/Vertical_blanking_interval

irgendeine Art von Schlangenöl sei wenn sie von AMD verwendet wird und von VESA in den DP Standard aufgenommen wurde.


Auf welcher Grundlage soll man bei solch einem Unverständnis noch weiterkeifen (denn nichts anderes ist das hier was PHuV gerade veranstaltet)?

PHuV
2014-11-15, 23:51:39
Auf welcher Grundlage soll man bei solch einem Unverständnis noch weiterkeifen (denn nichts anderes ist das hier was PHuV gerade veranstaltet)?
Du behauptest doch permanent, ich würde FreeSync schlechtreden, was nicht stimmt. Und nochmals, was nützt ein Standard? Erst mal gar nichts, solange sich keiner entsprechend daran hält, oder es entsprechend sauber implementiert! Hast Du mal die Probleme mit anderen Dingen wie z.B. HDMI mal hautnah mitbekommen? Da wurde so viel versprochen, und es gab anfangs haufenweise Probleme, und jeder Hersteller hat es auf den anderen geschoben, z.B. Kette Player, Receiver, Beamer/TV. Heute redet keiner mehr darüber, aber damals lief kaum was richtig, selbst wenn man Geräte vom gleichen Hersteller hatte. Ein ähnliches Problem haben wir mit USB 3.0. Läuft trotz "Standard" mitnichten rund. Du brauchst doch bloß mal regelmäßíg die c't zu lesen, da stehen doch permanent diese Probleme drin, siehe c't 25/2014, Seite 120, Zitat:
nach unserem Kenntnisstand beherrscht kein einziger der aktuellen AVReceiver von Denon, Marantz, Pioneer, Sony oder Yamaha HDCP 2.2. Auf den Websites und in den Bedienungsanleitungen schweigen sich diese Hersteller zur unterstützten HDCP-Version beharrlich aus.
So, und nun? HDMI 2.0 ist eindeutig definiert und im Standard festgelegt, daß es HDCP 2.2 (http://www.digital-cp.com/files/static_page_files/F3FDE47C-1A4B-B294-D0802DFEF646E602/HDCP%20on%20HDMI%20Specification%20Rev2_2_Final1.pdf) unterstützen muß! Nun gibt es einen Sonys FMP-X5 (Player für 4k-Medien) mit HDMI 2.0 und HDCP 2.2. Und alle, die bereits bis heute einen 4k-Receiver gekauft haben, sind mehr oder minder gekniffen, weil sie diesen Player nicht am Receiver betreiben können. Das führt dann zu der perversen Lösung, daß im FMP-X5 einen separaten Ausgang für Audio gibt, damit hier kein HDCP aktiv ist, und das Bild mit einer separaten Schnittstelle an das bildgebende Gerät weitergleitet werden muß. :uclap:

Und Du willst mir nun erzählen, das AMD nur mit dem Finger schnippst, VESA das brav in den Standard mit übernimmt, und hurra, alles geht? Da in anderen Bereichen überall immer die gleichen Probleme auftauchen, würde ich erst mal abwarten, was tatsächlich dann verfügbar ist, und wie gut das funktioniert.

Nvidia kann man nachsagen was man will, aber sie sind hier doch recht mutig vorgeprescht, haben eine eigene Lösung entwickelt, und sie funktioniert, weil sie eben kein Standard ist, sondern proprietär. Und es funktioniert, was will man anderes sagen. Genau so hat eine Firma Apple mal so einen 5k-Monitor mit Hilfe eines vom Standard abweichenden eigenen Chip Parade Technologies DP665 LCD Timing Controller eingebaut, damit dieser Monitor überhaupt angesteuert werden kann. Funktioniert auch. Bis das als Standard so funktioniert, werden wir wohl noch eine Weile warten müssen.

Unicous
2014-11-15, 23:53:39
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10423218&postcount=2464

EOD.


(Mich interessiert übrigens nicht im Geringsten was du für Probleme mit Technik hast. Ich verlange lediglich, dass du etablierte Fakten als Fakt annimmst und nicht versuchst zu relativieren. Wir sind hier nicht in einem Aluhut-Forum)

PHuV
2014-11-16, 00:22:17
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10423218&postcount=2464

EOD.
Lange nicht EOD, weil Gipsel hier nur spekuliert, mehr nicht. Wo sehen wir den heute FreeSync praktisch funktionieren? Einfach mal so annehmen, daß alles schon irgendwie funktionieren wird, siehe aktuelles Beispiel 4k aus der c't 25/14, ist falsch.
(Mich interessiert übrigens nicht im Geringsten was du für Probleme mit Technik hast. Ich verlange lediglich, dass du etablierte Fakten als Fakt annimmst und nicht versuchst zu relativieren. Wir sind hier nicht in einem Aluhut-Forum)
Du kannst gar nichts verlangen, weil Du nichts praktisch vorweisen kannst. Und die Probleme habe nicht (nur) ich, sondern die Probleme tauchen eben tatsächlich und täglich auf, auch wenn Du das nicht wahrhaben willst. Gut, wer nur labbert und nie was tatsächlich kauft, und zu Hause wie Du vermutlich noch mit nem 19" und einer Ti4200 spielt, hat diese Probleme vermutlich nicht. :rolleyes:

Nochmals die Frage, was sagt ein Standard wie VESA darüber aus, wie gut es letztlich dann in den Geräten selbst funktionieren wird? Rein gar nichts, da müssen wir alle erst mal abwarten.

Und mal ehrlich, liest Du hier im Forum nicht richtig mit, oder bilden sich die Leute hier diverse Probleme nur ein?

Unicous
2014-11-16, 00:28:30
Gipsel spekuliert nicht, er konstatiert. Das kapierst du nur leider nicht.

EOD.:wink:

PHuV
2014-11-16, 00:35:48
Die Framesynchronisation wird praktisch perfekt laufen.
Das ist sehr wohl Spekulation. A-Sync wird einerseits nur da laufen, wo die Monitore mit entsprechenden Frequenzteiler versehen sind, und dann müssen wir erst mal praktisch sehen, wie gut das dann mit den aktuellen AMD-Karten funktioniert. Wenn es das tut, schön, aber solange wir noch nichts praktisches haben, kann man so eine Aussage als absolute Wahrheit noch nicht treffen. Wie ich sage, abwarten, was die Praxis sagt. Von Spekulationen kann sich keiner was kaufen.

Nix EOD, das bestimmst nicht Du allein.

Unicous
2014-11-16, 00:39:12
Nein ist es nicht.


edit:
Ob AMD die Freesync-Implementierung im Treiber oder auch Hardware verkackt ist völlig nebensächlich. Freesync ist der Marketingname für AMDs Treiber und Hardware Support des Adaptive Sync Standards, der auf erprobter Technologie basiert. Da kannst du auch noch zig mal gegen anzetern. Adaptive Sync ist unabhängig von Freesync. Nur weil du es synonym verwendest heißt das nicht, dass du deine Narrative auch anderen überstülpen kannst

Adaptive Sync wird funktionieren, weil es schon längst funktioniert.

PHuV
2014-11-16, 00:42:50
Hast Du eine Glaskugel und bist der Weissagung tätig? :| Jetzt sei doch nicht so ungeduldig und spekuliere auf die Erfüllung Deiner feuchten Wunschtäume, sondern warte einfach mal ab. Wir werden ja vermutlich Ende Dezember/Januar mehr wissen. Es ist ja aktuell (nach meinen bisherigen Wissensstand) nicht mal bekannt, welcher Monitorhersteller A-Sync anbieten wird. Warum wird dann so ein Gedöns darum gemacht? Bei Nvidia war schnell bekannt, welcher Hersteller G-Sync anbieten wird.

Unicous
2014-11-16, 00:44:41
Kannst du zur Abwechslung auch ohne ad hominems auskommen?

Grestorn
2014-11-16, 00:45:29
Wir reden über ungelegte Eier... Lasst uns einfach abwarten.

Wenn Freesync genauso gut und problemlos läuft und AMD es schafft die Monitorhersteller dazu zu bewegen, das auf breiter Front anzubieten, dann haben sie auf jeden Fall einen echten Coup gegen nVidia platziert und deren Investition komplett obsolet gemacht.

In diesem Fall wäre nVidia aber ehrlich selber schuld. Auf diese Idee hätten sie auch kommen können.

PHuV
2014-11-16, 00:47:14
Kannst du zur Abwechslung auch ohne ad hominems auskommen?
Wenn Du permanent so blöde ankommst, nicht. Verzichte darauf, dann gerne, ganz einfach.
Wir reden über ungelegte Eier... Lasst uns einfach abwarten.
Ist zwar kein Ostern, aber ich stimme Dir zu. ;)

Wenn Freesync genauso gut und problemlos läuft und AMD es schafft die Monitorhersteller dazu zu bewegen, das auf breiter Front anzubieten, dann haben sie auf jeden Fall einen echten Coup gegen nVidia platziert und deren Investition komplett obsolet gemacht.
Richtig, aber ist das nicht verdächtig, daß man hier nix genaues rausrückt? Nvidia hat doch auch keine solche Geheimniskrämerei betrieben.
In diesem Fall wäre nVidia aber ehrlich selber schuld. Auf diese Idee hätten sie auch kommen können.
Ohne Grund haben sie ja nicht so eine spezielle Platine selbst entwickelt. Wir werden es bald sehen, wenns mal kommt.

Unicous
2014-11-16, 00:47:52
Adaptive Sync funktioniert. Warum muss man das mit "Wenn Freesync genauso gut und problemlos läuft und AMD es schafft" relativieren?

Würdet ihr die gleich Chose auch bei Intel veranstalten, falls sie Adaptive Sync in ihren SoCs implementieren?

Grestorn
2014-11-16, 00:53:02
Adaptive Sync funktioniert. Warum muss man das mit "Wenn Freesync genauso gut und problemlos läuft und AMD es schafft" relativieren?

Woher weißt Du wie gut Adaptive Sync funktioniert? Es gibt da ja nicht nur "funktioniert perfekt" und "funktioniert gar nicht". Da sind jede Menge Zwischenstufen denkbar. Gesehen hat noch keiner einen Monitor der Adaptive Sync implementiert. Die Demo von AMD damals war ja ein direkt angesteuerter Notebook Monitor.

Ob das intel oder AMD macht, spielt doch keine Rolle.