PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF 6800 U: Nur DVI, kein VGA-Anschluss?


Darkman.X
2004-06-08, 01:06:21
Hi,
ich habe mich mal in einigen Online-Shops umgesehen, dabei ist mir aufgefallen, dass (fast) alle GeForce 6800 Ultra "nur" 2 DVI-Anschlüsse und einen TVOut haben, keine normalen VGA-Anschluss mehr. Ist das wirklich so, dass alle nur noch DVI haben ? Ich hatte mal gelesen, dass es analoge und digitale DVI gibt, welche werden bei den 6800er verwendet ? Und was bedeutet das für CRT-Monitore ? Man muss dann wohl einen Adapter nehmen, aber bleibt die Qualität gleich, verglichen mit einem VGA-Anschluss ?

Ich weiß, viele Fragen, aber ich bin halt ein wenig überrascht, dass die ganzen Karten keinen VGA-Anschluss mehr haben. Vielleicht kann mich einer etwas aufklären... :)

Darkman

Gast
2004-06-08, 01:13:22
Jo wozu auch? Es gibt ja auch kaum noch CRTs in den Läden. TFT und DVI ist in. Zur Not tuts ein Adapter was allerdings ein etwas schlechteres Bild bringt.

BlackArchon
2004-06-08, 01:56:52
Bei vielen aktuellen Grafikkarten, die einen DVI- und einen VGA-Anschluss haben, liegt doch auch schon ein Adapter bei, um den DVI- als VGA-Anschluss zu verwenden. Dies wird bestimmt genauso sein bei den 6800er Karten.

Uller
2004-06-08, 08:45:19
Original geschrieben von BlackArchon
Bei vielen aktuellen Grafikkarten, die einen DVI- und einen VGA-Anschluss haben, liegt doch auch schon ein Adapter bei, um den DVI- als VGA-Anschluss zu verwenden. Dies wird bestimmt genauso sein bei den 6800er Karten.

Es liegen i.d.R. zwei Adapter bei.

Gast
2004-06-08, 11:29:02
Besser ist es in dem Fall ein D-Sub-DVI-A Kabel zu kaufen, das kommt der Bildqualität zugute!

Darkman.X
2004-06-08, 15:48:55
@all:
Danke für die Antworten.
Jetzt weiß ich, dass höchstwahrscheinlich ein Adapter beiliegen wird. Aber wie sieht es dann mit der Qualität aus ? Ich hab das bis jetzt noch nie ausprobiert...


Original geschrieben von Gast
Besser ist es in dem Fall ein D-Sub-DVI-A Kabel zu kaufen, das kommt der Bildqualität zugute!
Was ist denn der Unterschied zwischen einem "D-Sub-DVI-A Kabel" und einem normalen Adapter + üblichem D-Sub-Kabel ? Ist das Kabel höherwertiger als das normale D-Sub-Kabel von Monitoren ?

[dzp]Viper
2004-06-08, 15:55:02
Die Qualität ist auch nicht anders wie als hättest du einen DSUB ausgang an der Grafikkarte. Warum? Weil der Adapter genau das macht was sonst die grafikkarte (also der Baustein auf der grafikkarte) machen würde, wenn er verbaut wäre ;))

Normal geben Grafikkarten das Signal digital aus - aber durch die CRT´s waren auf den Grafikkarten immer Digital zu Analogwandler drauf (genau das selbe wie der Adapter der jetzt immer beiliegt).
Mit den TFT´s (DVI) sind dieses Wandler nun unwichtig geworden.

Gast
2004-06-08, 20:39:30
In den ´DVI <-> D-Sub Adaptern´ ist kein DA-Wandler drin. Die meisten Grafikkarten haben einen (oder zwei) DVI-I Ausgang - so auch die 6800er - und an diesen liegen analoge und digitale Signal an. Da der DVI-I Port aber nicht mechanisch kompatibel mit D-Sub ist, ist der Adapter einfach nur ein Umsetzer, um die mechanische Kompatibilität herzustellen.

Analoge Signalübertragung bei hohen Auflösungen ist ehe nicht ganz unproblematisch, da Einstreuung von außen oder übersprechen innerhalb des Kabels das analoge Signal verfälschen können und damit die Bildqualität darunter leidet. Also sollte man schon ein hochwertige Kabel mit unter Abschirmung einsetzen (nicht umsonst haben große CRTs BNC-Anschlüsse, damit ein BNC-Monitorkabel eingesetzt werden kann). Ein Adapter ist ein weiterer Übergabepunkt in der Kette, und damit ein weiter Schwachpunkt an dem z.B. Signal Reflexionen entstehen können und das geht wieder zu lasten der Bildqualität.

zeckensack
2004-06-08, 20:56:27
Original geschrieben von Gast
In den ´DVI <-> D-Sub Adaptern´ ist kein DA-Wandler drin. Die meisten Grafikkarten haben einen (oder zwei) DVI-I Ausgang - so auch die 6800er - und an diesen liegen analoge und digitale Signal an. Da der DVI-I Port aber nicht mechanisch kompatibel mit D-Sub ist, ist der Adapter einfach nur ein Umsetzer, um die mechanische Kompatibilität herzustellen.

Analoge Signalübertragung bei hohen Auflösungen ist ehe nicht ganz unproblematisch, da Einstreuung von außen oder übersprechen innerhalb des Kabels das analoge Signal verfälschen können und damit die Bildqualität darunter leidet. Also sollte man schon ein hochwertige Kabel mit unter Abschirmung einsetzen (nicht umsonst haben große CRTs BNC-Anschlüsse, damit ein BNC-Monitorkabel eingesetzt werden kann). Ein Adapter ist ein weiterer Übergabepunkt in der Kette, und damit ein weiter Schwachpunkt an dem z.B. Signal Reflexionen entstehen können und das geht wieder zu lasten der Bildqualität. Alles schön und gut, aber die gängigen (=erschwinglichen) CRTs haben nunmal fest integrierte Kabel mit D-SUB am End'. Da kann man nichts austauschen ...

resonatorman
2004-06-08, 21:02:08
Original geschrieben von Gast
Ein Adapter ist ein weiterer Übergabepunkt in der Kette, und damit ein weiter Schwachpunkt an dem z.B. Signal Reflexionen entstehen können und das geht wieder zu lasten der Bildqualität.
Das hieße dann ja, daß für einen CRT-Besitzer (der typische Gamer sag ich mal) so eine Karte suboptimal wäre...

Darkman.X
2004-06-08, 21:31:24
Original geschrieben von [dzp]Viper
Die Qualität ist auch nicht anders wie als hättest du einen DSUB ausgang an der Grafikkarte. Warum? Weil der Adapter genau das macht was sonst die grafikkarte (also der Baustein auf der grafikkarte) machen würde, wenn er verbaut wäre ;))

Normal geben Grafikkarten das Signal digital aus - aber durch die CRT´s waren auf den Grafikkarten immer Digital zu Analogwandler drauf (genau das selbe wie der Adapter der jetzt immer beiliegt).
Mit den TFT´s (DVI) sind dieses Wandler nun unwichtig geworden.
Mit meinem Laienwissen dachte ich immer, dass der RAMDAC die Digital-Analog-Umwandlung macht. Und ich hatte es mir immer etwas komplizierter vorgestellt und konnte es nicht glauben, dass so ein billiger Adapter mithalten kann. Deshalb war ich auch wegen der Qualität ein wenig besorgt.
Aber der Gast hatte schon etwas von DVI-I geschrieben gehabt, was ich auch nochmal googelte. Dementsprechend kann aus der GraKa auch weiterhin ein analoges Signal kommen, und der Adapter sorgt nur für eine mechanische Kompatibilität.


Original geschrieben von Gast
In den ´DVI <-> D-Sub Adaptern´ ist kein DA-Wandler drin. Die meisten Grafikkarten haben einen (oder zwei) DVI-I Ausgang - so auch die 6800er - und an diesen liegen analoge und digitale Signal an. Da der DVI-I Port aber nicht mechanisch kompatibel mit D-Sub ist, ist der Adapter einfach nur ein Umsetzer, um die mechanische Kompatibilität herzustellen.

Analoge Signalübertragung bei hohen Auflösungen ist ehe nicht ganz unproblematisch, da Einstreuung von außen oder übersprechen innerhalb des Kabels das analoge Signal verfälschen können und damit die Bildqualität darunter leidet. Also sollte man schon ein hochwertige Kabel mit unter Abschirmung einsetzen (nicht umsonst haben große CRTs BNC-Anschlüsse, damit ein BNC-Monitorkabel eingesetzt werden kann). Ein Adapter ist ein weiterer Übergabepunkt in der Kette, und damit ein weiter Schwachpunkt an dem z.B. Signal Reflexionen entstehen können und das geht wieder zu lasten der Bildqualität. Original geschrieben von zeckensack
Alles schön und gut, aber die gängigen (=erschwinglichen) CRTs haben nunmal fest integrierte Kabel mit D-SUB am End'. Da kann man nichts austauschen ...
Wow, danke für die Antworten. Also, falls ich mir solch eine GraKa holen werde, muss ich mir wohl auch solch ein Kabel kaufen. Ich hab einen Iiyama-Monitor, da ist das D-Sub-Kabel nicht fest am Monitor :)
Aber ist die Einstreuung von Außen oder das Übersprechen im Kabel wirklich so schlimm ? Vor meinem jetzigen Monitor hatte ich auch ein Iiyama-Modell mit zusätzlichen BNC-Anschlüssen und ich war damals auch so verrückt und kaufte mir solch ein teures Kabel, weil ich schon damals von Übersprechen usw. hörte. Aber ich muss sagen, dass ich im Bild keinen Unterschied zum normalen D-Sub-Kabel gesehen habe. Vielleicht liegt's auch daran, dass ich nur 1024x768 benutze ?!?

@resonatorman:
So ist es, nach dem Text von Gast. Es ist aber die Frage, ob man die Bildverschlechterung erkennt. Wie gesagt, ich hatte schon damals mit BNC-Kabel keine Verbesserung gegenüber D-Sub gesehen. Vielleicht ist das für normale Desktop-Programme und Spiele nicht wirklich notwendig.....und man sieht erst bei CAD-Programmen den Unterschied......keine Ahnung...

Quasar
2004-06-08, 21:42:38
Original geschrieben von Darkman.X
Vielleicht liegt's auch daran, dass ich nur 1024x768 benutze ?!?

Ja. Mit dieser Auflösung bist du eh fein raus aus allen Sorgen um gute oder schlechte Bildqualität. Erst eine einzige Grafikkarte, die ich jemals hatte, lieferte in 1024x768 ein merkbar schlechtes Bild. =)

Gast
2004-06-08, 23:15:55
Ich hatte ja schon dazu geschrieben bei hoher Auflösung und wie Quasar schon richtig geschrieben hat, bei 1024 x 768 gibt eher selten Probleme.

Immer wenn die Videofrequenz richtig hoch geht, also bei hoher Auflösung so ab 1280 x 1024 mit hoher Bildwiederholfrequenz wird es problematischer, da dann das Bildsignal so hochfrequent ist, das es damit auch sehr störanfällig wird und um so wichtiger wird ein Monitorkabel von guter Qualität (eine gute Innen und Außenschirmung und das der Leitungswiederstand wirklich bei 75 Ohm liegt und nicht nur auf dem Papier steht).

So einige Leute wissen gar nicht wie matschig ihr Bild ist und das mit einem guten Kabel die Bildqualität deutlich steigen würde!

Ciao Ge!st

Panasonic
2004-06-09, 00:49:04
Original geschrieben von Darkman.X
Mit meinem Laienwissen dachte ich immer, dass der RAMDAC die Digital-Analog-Umwandlung macht. Und ich hatte es mir immer etwas komplizierter vorgestellt und konnte es nicht glauben, dass so ein billiger Adapter mithalten kann. Deshalb war ich auch wegen der Qualität ein wenig besorgt.
Aber der Gast hatte schon etwas von DVI-I geschrieben gehabt, was ich auch nochmal googelte. Dementsprechend kann aus der GraKa auch weiterhin ein analoges Signal kommen, und der Adapter sorgt nur für eine mechanische Kompatibilität.


Jepp, durch den DVI Ausgang wird auch weiterhin ein analoges Signal durchgeschleift, welches dann von einem DVI->VGA Adapter gesplittet wird. Adapter=Splitter.

Darkman.X
2004-06-09, 23:15:08
Also, nochmals vielen Dank für die vielen Antworten. Jetzt bin ich etwas schlauer :)