PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDMI nutzen? - welches HDMI Kabel?


Gast
2011-07-08, 15:07:14
Hallo

Demnächst verabschiedet sich möglicherweise mein 11 Jahre alter 17" CRT. Daher spiele ich mit dem Gedanken mir den Samsung Syncmaster P2770FH zu kaufen. Diesem Monitor liegt ein DVI-Kabel bei. Meine Grafikkarte unterstützt jedoch auch HDMI 1.4. Jetzt frage ich mich, ob es eventuell Sinn macht den Monitor per HDMI zu verbinden. Ich habe jetzt gelesen, daß HDMI eine höhere Bandbreite als DVI-D ermöglicht und Features wie DeepColor etc. hat.

Frage Nummer 1:

Ist es in meinem Fall sinnvoll HDMI statt DVI-D zu nutzen?
Oder anders gefragt: Wäre HDMI rausgeschmissenes Geld, wenn der Monitor DVI-D kann? Der Hersteller Samsung legt dem TFT ein DVI-D Kabel bei. Ist das vielleicht eine versteckte Empfehlung bei diesem Gerät nicht HDMI zu nutzen?

Frage Nummer 2:

Wäre dieses Kabel ok?:

AmazonBasics Hochgeschwindigkeits-HDMI-Kabel mit Ethernet:
http://www.amazon.de/AmazonBasics-Hochgeschwindigkeits-HDMI-Kabel-mit-Ethernet-Meter/dp/B003L1ZYYM

In den Rezensionen schreibt jemand:


HDMI Standard
Ver. 1.0, 1.1, 1.2, 1.2a
Geschwindigkeit: 2,25 Gbps
Video: 1080i
Audio: 2.0, 7.1, DVD Audio, SACD
Stecker: Normal

HDMI High Speed
Ver. 1.3, 1.3a
Geschwindigkeit: 10,2 Gbps
Video: 1080i, 1080p, Deep Color, 3D, 4k2k
Audio: 2.0, 7.1, DVD Audio, SACD, Dolby Digital, DTS, Audio Return
Stecker: Normal, Mini (nur 1.3a)

HDMI High Speed with Ethernet
Ver. 1.4, 1.4a
Geschwindigkeit: 10,2 Gbps
Video: 1080i, 1080p, Deep Color, 3D, 4k2k
Audio: 2.0, 7.1, DVD Audio, SACD, Dolby Digital, DTS, Audio Return
Stecker: Normal, Mini, Micro
Ethernet

Also wäre dieses Kabel dann geeignet?

Frage Nummer 3:

Was hat es mit der mehrfachen Abschirmung von HDMI Kabeln auf sich? Ich dachte die Signale werden digital übertragen, so daß keine Störungen der Bildqualität mehr möglich sind? Wie man sieht hat das Kabel von Amazon im Gegensatz zu anderen Herstellern keine Ferrit-Ringe... ist das schlecht?


Danke schonmal für's lesen.

ndrs
2011-07-08, 15:20:57
Dein Monitor wird mit den "besonderen" HDMI-Features eh nichts anfangen können. (Ich weiß zwar nicht was DeepColor genau ist, aber supertolle Farben auf nem TN-Panel? Eher nicht)
Über Abschirmung würde ich mir auch keine Gedanken machen. Das ist alles Marketing-Geblubber. Bei digital gilt: Jedes Kabel ist wie das andere. Oder gibts schon irgendwo Premium-SATA-Kabel mit Goldkontakten? :)

Ric
2011-07-08, 15:25:15
Frage Nummer 1: Wenn nur Das Bild übertragen wird, ist DVI vorzuziehen - sobald es dabei ist.
Wegen des Kabels, wirst du keinen einzigen Bildpunkt anders oder besser sehen können, als mit DVI - schon gar nicht, weil beide Übertragungsstandards elektrisch kompatibel sind. Auf deutsch: Es kommt das selbe Signal an, egal ob DVI oder HDMI

Frage Nummer 2: Da der Monitor keine Netzwerkfunktionalität besitzt ist dieses Feature vollkommen uninteressant. Aber bei dem Preis ist es auch egal. Die Länge von gerade mal 2 Metern schafft selbst jedes Billigstkabel. Von daher keine Empfehlung, aber auch kein Fehler.

Frage Nummer 3: Siehe Oben. Bei 2 Metern ist die Abschirmung unkritsch. Wenn du bei Kabellängen über 10 Metern hantierst.
Auch digitale Signale können gestört werden. Die Abschirmung unter den Aderpaaren und gegen Einflüsse von außen. Digitale Übertragung heißt nicht, dass jemand Einsen oder Nullen durch das Kabel quetscht, sondern dass es definierte Zustände gibt (Spannungen), die als Einsen und Nullen interpretiert werden. Gibt es hier Störungen, dann kann es sein, dass das Signal verloren geht.
Aber nochmal: Bei 2 Metern Kabellänge ist das eher sehr unkritisch.

Ist das vielleicht eine versteckte Empfehlung bei diesem Gerät nicht HDMI zu nutzen?
Nein eher der versteckte Hinweis, dass man nicht nochmal Lizenzgebühren an das HDMI-Konsortium zahlen möchte.

Kosh
2011-07-08, 15:30:39
Einfach irgendein billiges HDMI Kabel kaufen. Reicht völlig aus.
Machst dir viel zu viel Gedanken zu dem Thema.
Ist bei diesem nämlich völlig überflüssig.

Spasstiger
2011-07-08, 16:11:54
Du kannst auch das DVI-Kabel nutzen, um ein HDMI-Signal zu übertragen, brauchst nur einen passiven Adapter wie er z.B. vielen Grafikkarten beiliegt.
Und unter Umständen kann der Monitor sogar über den DVI-I-Eingang HDMI-Signale entgegennehmen, so dass selbst beim Anschluss mit dem DVI-Kabel automatisch eine HDMI-Verbindung zu Stande kommt (die Grafikkarte gibt HDMI-Signale auch über den DVI-Ausgang aus).
Der einzige Vorteil bei der Übertragung eines HDMI- statt eines DVI-Signals wäre, dass man den Ton gleich mitübertragt. Mit 36 Bit Farbtiefe oder der höheren theoretischen Bandbreite von HDMI "High Speed" (ab HDMI 1.3) kann der Monitor nix anfangen.

Das Signal kann sich auf dem Übertragungsweg auf jeden Fall verschlechtern, weil eine physikalische Übertragung immer analog erfolgt. Treten bei der analogen Übertragung eines digitalen Signals Störungen auf, können Bits falsch erkannt werden und man spricht von Bitfehlern. Je nach Häufigkeit dieser Bitfehler (Bitfehlerrate) können sich diese Störungen dann stärker oder schwächer auf das Bild auswirken bis hin zum Totalausfall.

Gast
2011-07-08, 16:24:50
Frage Nummer 1: Wenn nur Das Bild übertragen wird, ist DVI vorzuziehen - sobald es dabei ist.
Gibt es dafür einen konkreten Grund?

Ich frage deshalb, weil ich schonmal von Problemen gelesen habe, wo TFT-Displays bei hohen Auflösungen plötzlich kein Bild mehr hatten, weil DVI zu langsam(?) war. ATi und nvidia haben in ihren Treibern für viele Displays die Wiederholrate auf 59 Hz statt 60 Hz abgesenkt. Der neue Monitor hätte 1920x1080 (=FullHD). Ist das noch OK für DVI? Nicht das ich hinterher über DVI unter Windows 7 nur 1080i nutzen kann oder ähnliche Scherze.

Wegen des Kabels, wirst du keinen einzigen Bildpunkt anders oder besser sehen können, als mit DVI - schon gar nicht, weil beide Übertragungsstandards elektrisch kompatibel sind. Auf deutsch: Es kommt das selbe Signal an, egal ob DVI oder HDMI.
Wenn man einen HDMI -> DVI-D Adapater verwendet, dann hat man zB. immer nur SingleLink. Vielleicht hat Samsung das Bandbreitenproblem bei DVI-D über Duallink gelöst? Die GTX 460 scheint auf alle Fälle schonmal eine Duallink-Buchse zu haben (24+1). Duallink müßte für FullHD reichen - oder? Kann man das vielleicht mal irgendwo nachlesen, ob es tatsächlich so ist? Meine Idee war, daß man bei HDMI vielleicht eher auf der sicheren Seite ist.


So hab das Problem gefunden,
Es war das HDMI zu DVI-D Kabel, schließ nur das HDMI Kabel das mitgeliefert wurde an, und an der Grafikkarte mit einem Adapter -> Problem gelöst.

http://www.computerbase.de/forum/showthread.php?t=484087

Ich habe übrigens nicht vor digitales Audio/Ethernet etc. zu nutzen. Nur DeepColor hat sich jedenfalls schonmal interessant angehört:

"Der Standard Deep Color stellt eine Erweiterung der Farbtiefe von den bisher verwendeten 8 Bit auf 10, 12 oder gar 16 Bit je Farbkanal dar. Die Spezifikation HDMI 1.3 unterstützt diesen Standard, der vor allem eine deutlich höhere Bandbreite erfordert."

Wird das von PC-Spielen genutzt?

arT_of_WaR
2011-07-08, 16:32:22
Einfach irgendein billiges HDMI Kabel kaufen. Reicht völlig aus.
Machst dir viel zu viel Gedanken zu dem Thema.
Ist bei diesem nämlich völlig überflüssig.

ich habe mir bei amazon ingesamt 4 hdmi kabel geholt.
2m und 5m billig 1.3 hdmi (2-3€) sowie 5m 1.4 hdmi (12€ "marken" kabel)

das 5m hdmi kabel hat "verschluckt" das bild in seltenen abständen, das heißt wenn der pc angeschlossen ist wirds mal kurz schwarz und dann kommt das bild wieder als wäre einfach das hdmi kabel kurz ausgesteckt. dies passiert mit dem 1.4 hdmi kabel nie.

das bild wenn es angezeigt wird mag das gleiche sein, aber durch diese erfahrungen würde ich nicht gerade zum 2€ kabel greifen, amazon basic sollte ausreichen.

ndrs
2011-07-08, 16:45:37
"Der Standard Deep Color stellt eine Erweiterung der Farbtiefe von den bisher verwendeten 8 Bit auf 10, 12 oder gar 16 Bit je Farbkanal dar. Die Spezifikation HDMI 1.3 unterstützt diesen Standard, der vor allem eine deutlich höhere Bandbreite erfordert."

Wird das von PC-Spielen genutzt?
Wir stehen wie schon seit Jahren bei 32bit Farbtiefe. Wenn überhaupt, dann ist das sicher ein exklusives BlueRay-Feature. (Korrigiert mich wenn ich hier daneben liege.)
Und selbst wenn deine Graka etwas derartiges ausgeben würde, würdest du mit dem Billig-TN-Panel keinen Unterschied feststellen.

universaL
2011-07-08, 17:00:49
32bit sind wenn ich mich recht erinnere:

8bit für je rot,grün,blau und nochmals 8 für die graustufen/helligkeit :-)

Ric
2011-07-08, 17:09:13
Gibt es dafür einen konkreten Grund?


Ja, weil es dabei ist und keine kosten verursacht.

Vergiss den Rest deiner Bedenken, das ist irrelevant. Wenn es nicht geht, liegt ein Mangel vor (etwas ist kaputt)

PatkIllA
2011-07-08, 17:51:58
Wir stehen wie schon seit Jahren bei 32bit Farbtiefe. Wenn überhaupt, dann ist das sicher ein exklusives BlueRay-Feature. (Korrigiert mich wenn ich hier daneben liege.)
Und selbst wenn deine Graka etwas derartiges ausgeben würde, würdest du mit dem Billig-TN-Panel keinen Unterschied feststellen.
32bit sind wenn ich mich recht erinnere:

8bit für je rot,grün,blau und nochmals 8 für die graustufen/helligkeit :-)Die 8 Bit sind für Transparenz und die werden nicht mitübertragen. Am Monitor kommen aber nur RGB mit je 8 Bit an.
Bei Deep Color hat man mehr pro Kanal übertragen. Das ist insbesondere sinnvoll, falls man an der Grafikkarte die Parameter anpassen will oder man einen größen Farbraum benutzt.
Auf BluRay gibt es btw. kein DeepColor sondern nutzt nicht mal volle 8 Bit sondern nur 16 - 235 und speichert auch nur die Helligkeit mit voller Auflösung.

Gast
2011-07-08, 18:13:26
Die 8 Bit sind für Transparenz und die werden nicht mitübertragen. Am Monitor kommen aber nur RGB mit je 8 Bit an.
Bei Deep Color hat man mehr pro Kanal übertragen. Das ist insbesondere sinnvoll, falls man an der Grafikkarte die Parameter anpassen will oder man einen größen Farbraum benutzt.
Also könnte es am PC jetzt doch Auswirkungen haben? ndrs meinte ja, daß es keinen Sinn macht, wenn das Display nicht 'gut genug' für mehr Farben ist.

In den Specs steht bei dem Display 16,7 mio Farben:
http://samsung.de/de/Privatkunden/Buero/Displays/ConsumerDisplays/P2770FH/LS27EFHKUFEN/detail.aspx?atab=specifications

Das wären ja sogar nur 24 Bit ... oder?

http://de.wikipedia.org/wiki/Farbtiefe_%28Computergrafik%29

Würden da mehr Bits pro Farbkanal was bringen, wenn das Bild digital übertragen wird und im Display selbst erzeugt wird? Das müßte dann im Display doch wieder auf 8 Bit runtergerechnet werden - oder? Kann die GTX 460 Bilder mit DeepColor erzeugen? Im nvidia Control-Panel steht bei mir 'Color depth: Highest (32 Bit)'. Würde sich das mit HDMI eventuell ändern? Vielleicht hätte ich dann Highest (48 Bit)??

PatkIllA
2011-07-08, 18:37:12
Die Vorteile sind sofern der Monitor überhaupt irgendwas davon unterstützt wohl eher theoretischer Natur.
Die 32 Bit in Windows sind 24 Bit für RGB und Transparenz, wobei man letztere nicht mitüberträgt und nur beim Zusammenfügen braucht. Das Display rechnet eh nochmal um, um nachher seine Pixel anzusteuern.
Theoretisch wäre es machbar eine höhere Farbtiefe zu haben, falls ein Programm Framebuffer mit mehr als 32 Bit benutzt. Ich weiß aber nicht, ob das nicht trotzdem vorher zu 32 Bit flachgeklopft wird.
Außerdem kann man dann in der Grafikkarte an Gamma, Helligkeit und Kontrast einstellen ohne zwangsläufig Banding zu produzieren. Aber das sollte man eh eher am Monitor einstellen.

Gast
2011-07-08, 18:53:06
Weder Panel, noch die Elektronik kann irgendetwas mit mehr als 24-Bit anfangen, auch 42 Fantastilliarden Farben ändern daran gar nichts. Es gibt einige Monitore, die über DP auch mit echten 10Bit angesteuert werden können, die sind für Bildbearbeiter gedacht und kosten entsprechend. Für dich ist es ganz einfach, mit DVI erhältst du die optimale Verbindung für diesen Monitor, du kannst mit keiner anderen Technik eine auch nur leichte Verbesserung erreichen.

PatkIllA
2011-07-08, 18:56:02
DVI sieht über den zweiten Link übrigens auch höhere Farbtiefen vor. Das dürfte aber noch weniger unterstützt werden als DeepColor von HDMI.
Bei Fernsehern und Beamern ist DeepColor unterstützung auch nicht so selten. Interne Verarbeitung mit mehr als 8 Bit sollte sich auch immer mehr durchsetzen. Intern ist das sogar noch eher sinnvoll, da sowieso gerechnet werden muss um, nachher das Panel anzusteuern.

Gast
2011-07-08, 18:59:07
Gibt es dafür einen konkreten Grund?

Ich frage deshalb, weil ich schonmal von Problemen gelesen habe, wo TFT-Displays bei hohen Auflösungen plötzlich kein Bild mehr hatten, weil DVI zu langsam(?) war. ATi und nvidia haben in ihren Treibern für viele Displays die Wiederholrate auf 59 Hz statt 60 Hz abgesenkt. Der neue Monitor hätte 1920x1080 (=FullHD). Ist das noch OK für DVI? Nicht das ich hinterher über DVI unter Windows 7 nur 1080i nutzen kann oder ähnliche Scherze.


Wenn man einen HDMI -> DVI-D Adapater verwendet, dann hat man zB. immer nur SingleLink. Vielleicht hat Samsung das Bandbreitenproblem bei DVI-D über Duallink gelöst? Die GTX 460 scheint auf alle Fälle schonmal eine Duallink-Buchse zu haben (24+1). Duallink müßte für FullHD reichen - oder? Kann man das vielleicht mal irgendwo nachlesen, ob es tatsächlich so ist? Meine Idee war, daß man bei HDMI vielleicht eher auf der sicheren Seite ist.


http://www.computerbase.de/forum/showthread.php?t=484087

(schnipp)

Single Link DVI reicht bis 1920x1200 bei 60Hz mit reduced blanking aus. ATI und nVidia haben auch die Bildwiederholrate nicht gesenkt, die ist weiterhin bei 59.94Hz, Windows zeigt dies nur anders an. Es gibt leider Komponenten, die damit nicht umgehen können, dort sollte man sie auf 60.001 Hz erhöhen, damit springt die Anzeige um und alles funktioniert wieder. Das geht auch mit der normalen DVI-Leitung. Erst ab 2560x1440/1600 bei 60Hz oder bei echten 120Hz für 3D-taugliche Monitore bei niedrigeren Auflösungen braucht man Dual Link DVI.

PatkIllA
2011-07-08, 19:02:24
Warum machst du dir eigentlich soviel Sorgen um das Kabel und so wenig um den Monitor?
Bei 27" stellt man sich was mit 2560x1440 hin.

MasterElwood
2011-07-09, 12:38:41
Bei dem Hammerpreis des verlinkten Kabel von Amazon gibts keinen Grund das nicht zu kaufen.

Das Kabel entspricht allen momentanen Standards und ist somit für alles was es derzeit gibt (3D, 4K...) geeignet - was viele andere Kabel nicht sind.

Hab 4 der Kabel im einsatz (eines in 3D) und gibt überhaupt keine Probleme.

Billig. Zukunftssicher. KAUFEN !!!!!

TS-Gast
2011-07-09, 17:07:56
Warum machst du dir eigentlich soviel Sorgen um das Kabel und so wenig um den Monitor?
Bei 27" stellt man sich was mit 2560x1440 hin.
Über der Sache mit dem neuen Monitor 'brüte' ich schon seit Monaten. Das es durch den großen Pixelabstand 27" sind, nehm ich als Plus nur dankend mit. Ich habe einen sehr starken Sehfehler. ;) Für 2560x1440 wär meine Grafikkarte zudem bei aktuellen Games viel zu schwach. Und wenn man dann runterskaliert, wäre das Bild nicht wirklich optimal. Ich glaub auch nicht, daß mich gröbere Pixel stören. In meine Brille ist eine drastische Pixelabstandsverkleinerung eingebaut. :biggrin:

Ich werde das HDMI Kabel vielleicht einfach mitbestellen. Probieren geht über studieren. Wenn man vorher besser Bescheid wüßte, wäre es natürlich noch besser. Außerdem habe ich inzwischen bei einem HDMI-Kabel Hersteller im Katalog gelesen, daß das Monitorbild am PC bei Fotos ab HDMI 1.3 tatsächlich farblich besser sein soll. Ich weiß leider nicht, wie es dazu kommt. Vielleicht werden durch DeepColor mit 48-Bit die Farbübergänge exakter berechnet? Es ist mir allerdings ein Rätsel wie meine Grafikkarte, die ja im Prinzip nicht mehr als 8 Bit pro Farbkanal verarbeitet, dann so ein Bild mit DeepColor an den Monitor weitergeben soll. Vielleicht braucht man dafür dann zusätzlich eine entsprechende Grafikkarte? Die ATi FireGL hätte zB. bis zu 16 Bit pro Farbkanal:
http://www.amd.com/us/products/workstation/graphics/ati-firegl-3d/v8650/Pages/v8650.aspx

Weiß jemand hier im 3DCF zufällig, ob man die benötigte Bandbreite für 1920x1080 bei 60Hz und 32 Bit ausrechnen kann? Da kommen bestimmt noch zusätzliche Steuerinformationen für den Monitor dazu? (DDC etc) Welche Bandbreite DVI Kabel im Gegensatz zu HDMI Kabeln haben, ist ja halbwegs bekannt.

ndrs
2011-07-09, 18:55:07
1920 x 1080 = 2073600 Bildpunkte
x 24bit = 49766400 Bit pro Bild
/8 = 6220800 Byte pro Bild
= 6,2 MB pro Bild
*60Hz = 373 MB/s

PatkIllA
2011-07-09, 19:33:50
Über der Sache mit dem neuen Monitor 'brüte' ich schon seit Monaten. Das es durch den großen Pixelabstand 27" sind, nehm ich als Plus nur dankend mit. Ich habe einen sehr starken Sehfehler. ;)Dann könntest du ja auch schon fast über einen 32" Full HD LCD TV nachdenken. Die sind ziemlich günstig für mehr Bildfläche und nicht TN.

1920 x 1080 = 2073600 Bildpunkte
x 24bit = 49766400 Bit pro Bild
/8 = 6220800 Byte pro Bild
= 6,2 MB pro Bild
*60Hz = 373 MB/s
Da fehlt aber noch das Blanking. UntenstehendesBild zeigt die Bildgeometrie bei 1080p und es sind schon 462 MB / sek.

edit:
sehe gerade dass die nativen 1200 Zeilen angezeigt werden.

edit2:
Zweiter Screenshot mit 1080p und 10Bit Farbtiefe. Da sind es schon 576 MB. Ton ist da auch mit drin, aber der kommt ja eh in die Blanking bereiche.

TS-Gast
2011-07-10, 22:51:26
Dann könntest du ja auch schon fast über einen 32" Full HD LCD TV nachdenken. Die sind ziemlich günstig für mehr Bildfläche und nicht TN.
Ne - die LCD-TVs sind als Monitore unbrauchbar. Ich hab mir die Dinger im MediaMarkt angesehen. Standbilder sind ok - aber sobald sich was bewegt wird es wirklich schlimm. Es sei denn man sitzt wie bei einem normalen TV 5 Meter weit weg. Aber ich sitze etwa 40 cm davor. Wenn ich mich 40cm vor ein 32" TV stelle krieg ich von den Rändern kaum noch was mit. So extrem verkleinert meine Brille dann doch wieder nicht. :biggrin:

edit2:
Zweiter Screenshot mit 1080p und 10Bit Farbtiefe. Da sind es schon 576 MB. Ton ist da auch mit drin, aber der kommt ja eh in die Blanking bereiche.
576 MB/s * 8 = 4,608 GBit/s

Damit würde Single link-DVI ausfallen. Denn das ermöglicht maximal 3,96 GBit/s:

# Single link maximum data rate including 8b/10b overhead is 4.95 Gbit/s @ 165 MHz. With the 8b/10b overhead removed, the maximum data rate is 3.96 Gbit/s.
# Dual link maximum data rate is limited only by the bandwidth limits of the copper the DVI cable is constructed of and by the DVI signal's source.

http://en.wikipedia.org/wiki/Digital_Visual_Interface

Dual link scheint keine Bandbreitenbegrenzung zu haben. Damit wäre Dual link-DVI dem HDMI ja haushoch überlegen.... :uponder:


Up to 48 bits per pixel are supported in dual link DVI

Wäre das nicht genau das, was bei HDMI als 'DeepColor' beworben wird? :uponder:

Die Sache mit dem TN verstehe ich auch noch nicht so ganz. Da das Gerät bei mir als reiner Monitor benutzt wird, sitze ich immer bei optimalem Betrachtungswinkel davor. Ich stehe weder auf dem Schreibtisch noch knie ich auf dem Fußboden, wenn ich am PC arbeite. Auch schräg draufschauen kommt bei mir (wegen starkem Sehfehler) nicht vor. Ich denke mal, das TN für mich OK ist. Aber zur Sicherheit werde ich mir den P2770FH jetzt doch nochmal vorher im Geschäft anschauen. Vielleicht ist 27" doch zu groß für ein TN-Panel bei geringem Augenabstand....

PatkIllA
2011-07-10, 22:57:34
Dual Link DVI hat genau die doppelte Bandbreite von Single Link DVI.
HDMI hat die Bandbreite mit 1.3 auf maximal 340 MHz erhöht und liegt damit sogar leicht über Dual Link DVI. Allerdings machen fast alle Geräte und Peripherie bei 225 MHz dicht. Das ist 1080p mit 60 Hz und 36 Bit Farbtiefe. Bei einem einfachen Monitor nutzt das aber eh nichts.
Wenn du einen fortschrittlichen Anschluss willst musst du DisplayPort nehmen. HDMI ist im wesentlichen ein aufgebohrtes DVI.

TS-Gast
2011-07-11, 22:06:22
So - ich hab mich heute entschieden. War nochmal in der Stadt um mir den P2770FH anzusehen. Ist ein tolles TFT - und ich hätte ihn fast direkt gekauft. Leider gab es den nur noch als Vorführgerät und da ich schon sehr schlechte Erfahrungen mit solchen Geräten gemacht habe, hab ich das ganze Zeug jetzt bei Amazon bestellt. Bin mal gespannt ob ich einen Monitor ohne Pixelfehler bekomme. (Drückt mir die Daumen!)

Hab mir auch gleich ein HDMI-Kabel mitbestellt - aber dann doch nicht das von Amazon aus dem Ausgangspost. Das Kabel von HDgear ist ein bischen teurer, macht aber insgesamt auf mich einen qualitativ besseren Eindruck:

http://ecx.images-amazon.com/images/I/51RscREUaiL.jpg

http://www.amazon.de/HDGear-HC0065-02B-High-Speed-Kabel/dp/B0031N7FME

Danke nochmal an dich Patkilla, ndrs und alle, die sich in diesem Thread engagiert haben!

TS-Gast
2011-07-13, 16:45:23
kleines Update:

Das neue Display ist heute gekommen. - Keine Pixelfehler!!! Juhuuu!!!!! Zum Lieferumfang gehört ein DVI-D Kabel. Aus dem Aufdruck des Kabels ergibt sich, daß es nur ein Single-Link-DVI-Kabel ist. Also scheint Single-Link für eine native Auflösung von 1920x1080x32x60 doch ausreichend zu sein. Das neue HDMI-Kabel habe ich leider zusammen mit einer KVM-Switch für DVI bestellt. Das scheint sich deshalb nun etwas zu verzögern.Für die, die eventuell auch den P2770FH im Auge haben hier ein paar Sachen die mir aufgefallen sind:

- keine Pixelfehler (bei amazon.de gekauft)

- Standfuß hält gut, aber das Display ist wegen der Größe schon recht wackelig. Also besser nicht mehr anfassen oder gegenkommen.

- das Display ist in keinsterweise einstellbar. Man kann es nicht mal neigen (was mich bei einem TN-Panel ziemlich überrascht hat). Als ich mir das Teil im Geschäft angeschaut hatte, war es genau in Augenhöhe... die werden gewußt haben warum. Ich hab eine Holzplatte druntergelegt, welche ich über zwei kleine Holzklötzchen in der Neigung anpassen kann.

- das Display war in meinem Fall nicht 100% waagerecht. Das fällt bei der Größe besonders auf (zumindest mir). Über die 2 kleinen Holzklötzchen läßt sich aber auch dieses Problem lösen.

- das Display macht keine Geräusche wenn man die Helligkeit verringert (das konnte man in manchen Reviews lessen)

- die Farben muß man komplett manuell einstellen. Die Werkseinstellungen sind suboptimal. Ich habs mit R=81 G=60 B=40 laufen und die Helligkeit runter auf 15% (ich mags gern bunt).

- die Einstellung für den Auto-Scan (hdmi/dvi/vga) ist gewöhnungsbedürftig. Es gibt nur die Auswahl auto/manuell. Man kann also nicht explizit sagen, daß der Monitor zB. mit dvi starten soll. In meinem Fall macht er es zum Glück so. Bin mal gespannt, ob ich wieder auf 'auto' muß, wenn ich das HDMI-Kabel anschließe...

Das Bild ist für meine Anforderungen perfekt. Das einzige Manko ist der Standfuß. Für einen anständigen (einstellbaren) Fuß hätte der Hersteller bei einem Gerät dieser Größe wahrscheinlich eine Metallkonstruktion wählen müssen. Und dann wär der Monitor sehr schwer, unhandlich und teuer geworden.

Gast123456
2011-07-13, 17:04:23
Also scheint Single-Link für eine native Auflösung von 1920x1080x32x60 doch ausreichend zu sein.
Das haben wir dir doch schon vorgerechnet, allerdings sind es 24Bit, die 8Bit Transparenz werden nur in der Grafikkarte gebraucht.

- das Display war in meinem Fall nicht 100% waagerecht. Das fällt bei der Größe besonders auf (zumindest mir). Über die 2 kleinen Holzklötzchen läßt sich aber auch dieses Problem lösen.
Leider hat der Monitor keine Vesa-Halterung, sonst könnte man das verbessern, auch ohne einen externen Fuß kaufen zu müssen.