PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HDMI oder DVI, was ist besser?


Chip4000
2013-12-25, 10:03:10
Hallo und fröhliche Weihnachten an alle.
Ich möchte mir am Freitag diesen Monitor kaufen.
http://www.alternate.de/Acer/G246HLBbid,_LED-Monitor/html/product/1011426/?
Da ich meinen letzigen 22Zoll auf DVI laufen habe, würde mich interessieren, ob ich den neuen TFT statt mit DVI auch mit einem HDMI Kabel anschliessen kann.
Was ist überhaupt zwischen HDMI und DVI?

Lowkey
2013-12-25, 10:07:24
HDMI überträgt zusätzlich Sound an den Monitor.

DVI soll besser sein, aber praktisch hat man bislang bei DVI und HDMI sehr oft farbliche Unterschiede. Kurz: das Bild kann per HDMI komplett anders aussehen als mit DVI.

Phantom1
2013-12-25, 10:09:08
Der größte unterschied zwischen HDMI und DVI ist das bei HDMI nicht nur Bild sondern auch Ton übertragen werden kann. Ansonsten ist die Bildqualität 1:1 identisch.

Am PC macht HDMI oft mehr probleme, daher nimm besser gleich DVI wenn du keine Tonübertragung braucht.

ZapSchlitzer
2013-12-25, 10:15:30
Unter nVidia besteht wohl noch immer das Problem des begrenzten RGB-Farbraumes, wenn man den Monitor per HDMI ansteuert.
Wie es bei AMD ausschaut, weiß ich nicht.

Auch ist die mögliche Auflösung per HDMI auf die native Auflösung des Monitors begrenzt. Zwar unterstützt HDMI Auflösungen oberhalp von 1080p, doch meldet
der Monitor nur die Native an das Betriebssystem. Das ganze lässt sich aber wohl umgehen.

Chip4000
2013-12-25, 10:34:01
Also, dann kann ich ja bei DVI bleiben.
Danke Euch für die ausfühliche aufklärung.

Emissary1978
2013-12-25, 13:02:09
Ich hab meine auch noch immer per DVI angeschlossen. Habs mal mit HDMI probiert, aber da gabs dann Probleme mit abgeschnittenen Seitenrändern wegen dem Overscan.

samm
2013-12-25, 14:51:39
DVI ist besser, nicht nur wegen höheren möglichen Auflösungen / Bildwiederholraten, sondern auch weil Treibergefrickel wegen Overscan und Farbraum nicht nötig ist.

HDMI ist nur genau dann besser, wenn man den PC an Receiver / Fernseher bei max. 60Hz mit 1080p hängen will und darauf BluRays kucken will.

duty
2013-12-25, 17:53:13
wenn der Monitor kein Audio hat kann man auch DVI nehmen,
wenn Ton am Monitor würde ich HDMI nehmen weniger Kabel Salat , HDMI hat noch einen Vorteil wenn man mehrere Geräte hat das allles über ein HDMI Switch am Monitor , kann man also alle Geräte daran betreiben , also z.b. den TV HD Receiver oder Xbox... noch mit

ist alles nur eine Einstellungs-Sache Overscan im Treiber auf 0 % stellen
dann sind die Ränder weg und auch die Schrift so als wenn man DVI hätte

also so

bithunter_99
2013-12-28, 11:01:59
nimmt man denn nicht heute eigentlich Display-Port?

RavenTS
2013-12-28, 19:09:27
nimmt man denn nicht heute eigentlich Display-Port?

Ist weiterhin nur eher eine Nische, da DVI schlicht der Standard für PC-Monitore ist, denn eigentlich jedes vernünftige Gerät anbietet. DP nicht unbedingt und dann müsste man mit Adaptern anfangen...

PatkIllA
2013-12-28, 19:42:36
DP nicht unbedingt und dann müsste man mit Adaptern anfangen...Dann ist es aber meist kein DP mehr.
Wird eigentlich jetzt Dual Mode 1.1 von Grafikchips unterstützt?

mrcoolj2
2013-12-28, 23:18:17
Bin jetzt auch mal auf das Thema gestoßen.
Wie sieht es mit LED Fernseh aus? Hab denn mit HDMI angeschlossen , dachte wäre besser.
Ich müßte dann einen DVI-HDMI Adapter benutzen, geht da nicht der Farbraum wieder verloren oder unterstützt der LED den Farbraum erst garnicht.

Samtener Untergrund
2013-12-28, 23:43:16
Fernseher lasse besser bei HDMI. Über DVI werden wahrscheinlich alle Farbstufen übertragen und dies wird dein TV nicht verstehen, da er auf 16 bis 235 ausgelegt ist. Und das ist nicht gut (http://burosch.de/technik/514-video-range.html).

PatkIllA
2013-12-28, 23:49:49
Fernseher lasse besser bei HDMI. Über DVI werden wahrscheinlich alle Farbstufen übertragen und dies wird dein TV nicht verstehen, da er auf 16 bis 235 ausgelegt ist. Und das ist nicht gut (http://burosch.de/technik/514-video-range.html).
Das kann man bei fast allen Gerätenj passend einstellen.
Die meisten machen das bei Automatik auch "richtig". RGB als Full Range und YCbCr als Limited. IMO eine total dämliche Idee, dass die HDMI die Bits nicht nutzen. Insbesondere da es bei PC Signalen mit RGB seit Ewikgeiten mit Full Range etabliert war und auch sonst die ganze sonstige Elektronik bei RGB 0 als schwarz und 255 als Weiß ansieht.

RGB, YCbCr und Full vs Limited ist nicht der Farbraum.

dllfreak2001
2013-12-28, 23:54:49
Das klingt so, als ob HDMI nicht 8Bit pro Farbkanal könne.

Die Farbraumkrüppelei gibt es derzeit nur bei Nvidia.

PatkIllA
2013-12-28, 23:57:06
Das klingt so, als ob HDMI nicht 8Bit pro Farbkanal könne.Es kann sogar mehr. Bei 8Bit werden den 256 möglichen Werten werden aber nur 16 bis 235 genutzt.
Die Farbraumkrüppelei gibt es derzeit nur bei Nvidia.Gibt es bei AMD auch. Da kann man es aber wenigstens noch umstellen und halbwegs nachvollziehen.

mrcoolj2
2013-12-29, 00:03:57
also würde mir das nichts nützen?oder gibt es da unterschiede bei den Modellen`?

PatkIllA
2013-12-29, 00:10:08
Aus dem PC geht man am besten RGB Full Range raus, da der intern so arbeitet. TVs arbeiten intern auch mit RGB (einige wandeln zwischendurch wieder nach YCbCr) und an den Werten wird fürs Farbmanagement eh noch rumgerechnet. Bei den meisten kann das im Menü passend einstellen. Bei reinem PC Betrieb könnte man das auch Anpassen von Kontrast und Helligkeit erreichen, aber das würde sich auf alle Quellen auswirken.

Ich habe bei mir per Dr.HDMI und angepasstem EDID die Ausgabe von YCbCr unterbunden.

dllfreak2001
2013-12-29, 00:10:27
Es kann sogar mehr. Bei 8Bit werden den 256 möglichen Werten werden aber nur 16 bis 235 genutzt.

Ja, aber das ist eine Treibersache. Sowohl alle gängigen TVs als auch Monitore
nehmen den vollen Farbraum an.


Gibt es bei AMD auch. Da kann man es aber wenigstens noch umstellen und halbwegs nachvollziehen.

Bei Intel ist es auch so, nur Nvidia geht da seinen eigenen beschissenen Weg und das seit Jahren.

PatkIllA
2013-12-29, 00:12:55
Ja, aber das ist eine Treibersache. Sowohl alle gängigen TVs als auch Monitore
nehmen den vollen Farbraum an.Der Farbraum bleibt der gleiche.
Bei YCbCr ist es immer limited Range. Das Problem gibt es nur bei RGB.
Bei Intel ist es auch so, nur Nvidia geht da seinen eigenen beschissenen Weg und das seit Jahren.Schon mal per angepasstem EDID versucht?

mrcoolj2
2013-12-29, 00:22:41
also mit Dr.HDMI könnte das dann gehen. Ist reiner PC betrieb

PatkIllA
2013-12-29, 00:24:22
also mit Dr.HDMI könnte das dann gehen. Ist reiner PC betrieb
Das geht wahrscheinlich auch ohne. Bei NVIDIA ist es wohl etwas zickiger. Ein Bild kriegt man auf jeden Fall hin.

mrcoolj2
2013-12-29, 00:30:24
hab ja NVIDIA

StefanV
2013-12-29, 03:29:03
Unter nVidia besteht wohl noch immer das Problem des begrenzten RGB-Farbraumes, wenn man den Monitor per HDMI ansteuert.
Wie es bei AMD ausschaut, weiß ich nicht.
Bei AMD gibt es eine Option, mit der man das umstellen kann.

Schaut dann so aus:
47503


Auch ist die mögliche Auflösung per HDMI auf die native Auflösung des Monitors begrenzt. Zwar unterstützt HDMI Auflösungen oberhalp von 1080p, doch meldet
der Monitor nur die Native an das Betriebssystem. Das ganze lässt sich aber wohl umgehen.
WTF?!
Also wenn der Monitor ein 1080p Schirm ist, dann kann man nicht 720p oder sowas in der Art einstellen?!

PatkIllA
2013-12-29, 10:18:19
WTF?!
Also wenn der Monitor ein 1080p Schirm ist, dann kann man nicht 720p oder sowas in der Art einstellen?!Geht mehr um die 1440p Schirme. Die kriegt man derzeit mit HDMI nicht brauchbar angesteuert.

Exxtreme
2013-12-29, 12:19:31
Also meiner Erfahrung nach ist DVI problemloser als HDMI. Hat auch kein DRM eingebaut.

MartinB
2013-12-29, 13:01:13
Geht mehr um die 1440p Schirme. Die kriegt man derzeit mit HDMI nicht brauchbar angesteuert.

Mit 55Hz sollte es gehen.

ndrs
2013-12-29, 13:15:58
DVI unterstützt genauso HDCP wie HDMI.
Für Auflösungen über 1080p 1600x1200 ist bei HDMI (ich glaub bis 1.2) noch zu beachten, dass Monitor und Graka Reduced blanking unterstützen müssen. Dadurch verringert sich der Farbraum und die freiwerdende Datenrate wird für die restlichen Pixel benutzt. Ich persönlich konnte an meinem Dell U2412 keinengroßen Unterschied erkennen (HDMI -> SingleLink-DVI-Adapter).

Edit: Da hab ich einiges durcheinander gebracht. Danke PatkIllA für die Korrektur.

PatkIllA
2013-12-29, 13:21:10
Mit 55Hz sollte es gehen.Liegt auch über der 165 MHz Bandbreite und vor allem steht es im EDID nicht drin. Geht also nur mit Gefummel.
DVI unterstützt genauso HDCP wie HDMI.Eigentlich ist das aber nur mit reingekommen, weil HDMI im wesentlichen eine DVI Erweiterung ist und die Chips das eben können. In der Spezifikation gibt es das nicht.
Für Auflösungen über 1080p ist bei HDMI (ich glaub bis 1.2) noch zu beachten, dass Monitor und Graka Reduced blanking unterstützen müssen.Reduced Blanking braucht man schon für 1080p
Dadurch verringert sich der Farbraum und die freiwerdende Datenrate wird für die restlichen Pixel benutzt. Der Farbraum ändert sich überhaupt nicht. Nur die schwarzen Intervalle zwischen den Bildern und zwischen den Zeilen werden kleiner. Eigentlich ist das ganze für digitale Bildschirme total über.
Also meiner Erfahrung nach ist DVI problemloser als HDMI. Hat auch kein DRM eingebaut.
Würde ich zwar auch so sehen, wenn man aber die ganzen Erweiterungen (3D, 24p, Audio) nutzen will, dann wird es halt wieder kompliziert.

mrcoolj2
2013-12-29, 17:51:02
wäre das eine Lösung für mich?

http://www.prad.de/new/monitore/specials/signalpegel/signalpegel.html

StefanV
2013-12-29, 18:35:58
Am einfachsten wäre wohl ev. ein DP to HDMI oder ein DVI to HDMI Adapter, oder?

Gut, alternativ könnt man auch die nV Karte gegen eine AMD tauschen...

dllfreak2001
2013-12-29, 23:06:11
Nein, der Treiber erkennt an der Edid ob der Monitor über seinen HDMI-Eingang angeschlossen wurde.
Ich habe das Spiel mit Adaptern schon durch.

Durch die Erstellung einer Custom-Resolution lässt sich das Problem umgehen aber die 1080p mit 60 Hz kann man nicht erneut erstellen oder überschreiben.
Dazu muss die Registry bearbeitet werden.

mrcoolj2
2013-12-29, 23:32:40
bei mir hat es mit der Methode geklappt! Hammer Bild jetzt!!!

PHuV
2013-12-30, 11:47:27
Am einfachsten wäre wohl ev. ein DP to HDMI oder ein DVI to HDMI Adapter, oder?
Die laufen aber manchmal nicht sauber, wie ich leidlich feststellen mußte. Beispielsweise habe ich ein Problem mit einem LG, der per DVI ein PC-Bild einwandfrei darstellt, aber per HDMI das gleiche Bild verzerrt darstellt.
wäre das eine Lösung für mich?

http://www.prad.de/new/monitore/specials/signalpegel/signalpegel.html
Ach sieh an, daran liegt es.

Kriton
2013-12-30, 20:17:13
bei mir hat es mit der Methode geklappt! Hammer Bild jetzt!!!

Mit welcher denn nun?

aufkrawall
2013-12-30, 20:30:13
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10047287&postcount=68

dllfreak2001
2013-12-30, 22:21:41
Das Tool im ersten Post des folgend verlinkten Threads runterladen.


http://hardforum.com/showthread.php?t=1729604


Funktioniert bei mir einwandfrei und man braucht keine eigene Auflösungen erstellen.
Ein Knopfbedienung eben.

duty
2013-12-31, 02:38:58
HDMI ist in so fern besser weil es den Ton mit durch schleift und es längere Kabel so wie HDMI SWITCHER gibt , du kannst also mehre Geräte an einem TV oder Monitor anschließen und betreiben
bei mir ist es so ich habe keine DVD Player und nicht vor einen zu kaufen das mache ich mit dem PC
bei einem stink normalen Büro TV wo man sonst nichts weiter mit macht kann man auch
ein einfaches VGA Kabel nehmen das reich dafür,
besseren Monitore haben ja meinst 3 Anschlüsse VGA,DVI,HDMI da kann man dann drei
Geräte an einem Monitor betreiben ohne das man einen Umschalter braucht

mrcoolj2
2014-01-04, 02:28:57
@ Kriton diese

http://www.prad.de/new/monitore/specials/signalpegel/signalpegel-teil2.html