PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : dvi oder crt ausgang ? unterschiede ?


mapel110
2003-05-07, 02:49:51
ist das gleich oder gibts da irgendwelche unterschiede ? sprich, gibt es vorteile, wenn man den CRT-monitor an den DVI per adapter hängt ?

Mehrpack
2003-05-07, 03:26:27
hi,
also in der c`t hat gestanden das die signalstärke(??) am DVI ausgang etwas stärker ist als am CRT-Ausgang, dort ist die Signalstärke genau nach Specification, deswegen ist das Bild am DVI ausgang etwas schärfer als am CRT-Ausgang.

Mehrpack

Inquisitor
2003-05-07, 07:55:49
Gabs nicht mal GF4-Karten, bei denen das Bild miserabel war, wenn man nen CRT per Adapter an den DVI gehängt hat (irgendwas mit Schattenbildung), oder verwechsel ich da jetzt was?

ow
2003-05-07, 14:57:00
Originally posted by Mehrpack
hi,
also in der c`t hat gestanden das die signalstärke(??) am DVI ausgang etwas stärker ist als am CRT-Ausgang, dort ist die Signalstärke genau nach Specification, deswegen ist das Bild am DVI ausgang etwas schärfer als am CRT-Ausgang.

Mehrpack

in welcher c't stand das?

ich erinnere mich nur an die oefter (=in mehreren Graka-Tests) getroffene Aussage, dass der Zweitanschluss in der Qualitaet um 1-2 Klassen hinter dem primaeren Anschluss zurueckhaengt.

Der Signalpegel hat uebrigens mit der Schaerfe nix zu tun. Die Anstiegszeiten und Signalbreite sind dafuer verantwortlich.

[dzp]Viper
2003-05-07, 15:05:58
und meist ist der mitgelieferte dvi -> dsub adapter ne ganze miese qualtiät

ow
2003-05-07, 15:31:29
Originally posted by [dzp]Viper
und meist ist der mitgelieferte dvi -> dsub adapter ne ganze miese qualtiät


adapter koennen eh immer nur die qualitaet verschlechtern und nicht verbessern.

Pirf2
2003-05-07, 15:38:58
Stimmt schon, aber ich glaube nicht, daß der Adapter an einem DVI-I Ausgang die Qualität merklich verschlechtert - den dieser DVI-Ausgang bietet (unabhängig voneinander) ein digitales Signal für Flats und ein analoges zur Verwendung über einen Adapter (außer man hat einen Monitor mit einem DVI-A Eingang, der das analoge Signal darüber statt über Sub-D entgegennimmt).
Wenn das analoge Signal schlechter ist am DVI-Ausgang, liegt das an der Karte - und das ist bei ATI (ich glaube das hat auch die ct damals geschrieben) genauso der Fall wie bei Nvidia, da der Ausgang als sekundär betrachtet wird, und davon ausgegangen wird, daß der Primäre Monitor an den Sub-D Ausgang kommt. Es mag sicher auch Karten geben, die das besser machen, da hat der Distributor auch erheblichen Einfluß drauf.
Es gab auch mal von einem Hersteller Karten, bei denen der DVI der primäre war, und auch analog erheblich besser war, als der Sub-D-Ausgang (waren das die GF4?).

Fazit - bei meiner HIS9700Pro ist das Bild bei beiden Ausgängen bei 1024@100Hz ziemlich gleich, bei 1280@85Hz ist der Sub-D geringfügig besser.

Greetz,
Pirf2

[dzp]Viper
2003-05-07, 15:41:49
Originally posted by ow



adapter koennen eh immer nur die qualitaet verschlechtern und nicht verbessern.

ja das stimmt schon :) aber es gibt (achtung Pirf2) billig DVI adapter .. und die die bei den 9700 drin sind, sind auch nicht das gelbe vom Ei - aber ok

ow
2003-05-07, 17:27:02
@pirf2 & viper

ihr habt natürlich beide recht.
Die Qualität des DVI-Ausgangs hat ja nix mit dem Anschluss selber zu tun. Die Quali kann man genauso gut hinkriegen, wie auf dem primären Ausgang.
Leider wird da wohl bei den Boardherstellern dran gespart.

Der Adapter stellt physikalisch betrachtet nichts anderes als einen Filter dar, in der Regel wird er höherfrequente Bildsignalanteile weiter dämpfen (->Unschärfe). Hier hängt es ganz von der Qualität diese Adapters ab, was hinten noch ankommt am Monitor. Da dürfte es schon erhebliche Unterschiede geben.

Mehrpack
2003-05-08, 00:06:32
Originally posted by ow


in welcher c't stand das?

ich erinnere mich nur an die oefter (=in mehreren Graka-Tests) getroffene Aussage, dass der Zweitanschluss in der Qualitaet um 1-2 Klassen hinter dem primaeren Anschluss zurueckhaengt.

Der Signalpegel hat uebrigens mit der Schaerfe nix zu tun. Die Anstiegszeiten und Signalbreite sind dafuer verantwortlich.

hi,
c't 04/03.
auf der seite 118.

... Ausserdem schneidet der zweite Ausgang, versteckt in der DVI-Busche, bei einigen Testkarten besser ab als der erste, was am durchgängig höhren Spannungshub liegt. Den ersten Ausgang hat ATI anscheinend sehr bemüht auf Normpegel getrimmt, worunter die Steilheit der Singalflanken etwas leidet. Gerade wer mit hohen Auflösungen auf einem analogen Display arbeiten will, sollte das Gerät deshalb auch probehalber per Adapter an die DVI-Buche anschließen, sofern man auf den Video-Ausgang verzichten kann. ...

hatte das mit dem Signalpegel verwechselt.

Mehrpack

MGeee
2003-05-09, 21:59:04
also bei mir siehts am DVI definitiv besser aus, als am D-Sub :D:D