PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : VGA-Karten in hoher Auflösung mit schlechterer Signalqualität?


Die gelbe Eule
2009-01-18, 14:33:29
In einigen Reviews konnte ich lesen, dass die Signalqualität mit Zunahme der Auflösung schlechter werden kann. Ich glaube bei einer 8400GS war es sehr deutlich.

Worauf müsste man achten, um nicht so eine Karte zu erwischen und woran liegt das eigentlich?

Spasstiger
2009-01-18, 14:44:28
Die G80-Karten hatten einen dedizierten RAMDAC-Chip ("External Video I/O"), weil die Signale bei einer Integration in die GPU zu stark gestört worden wären.

Hier ein Bild:
http://www.computerbase.de/bildstrecke/15886/132/

Die günstigeren Karten mit G8x-Chip hatten sowas nicht.

Die gelbe Eule
2009-01-18, 15:11:13
Ok, nun geht mir beim NVIO ein Licht auf. Aber trotzdem ist es mir noch unverständlich, dass die Singalqualität in kleineren Auflösungen sehr gut ist, aber dann sprungartig abnimmt. Die Signale müssten ja demnach permanent gestört sein.

AnarchX
2009-01-18, 15:18:23
Von welchem Signal sprichst du überhaupt? Analog oder digital?

@Spasstiger:
AFAIK sind die Gründe für NVIO @G80 und G200 doch andere, wenn es mit den Störsignalen durch die Shader zusammenhängen würde, dann würde man aus einem G92 mit 128SPs@1.8GHz @ GTX+ wohl kein Bild mehr bekommen.

Die gelbe Eule
2009-01-18, 15:31:38
Digital natürlich.

lumines
2009-01-18, 15:39:49
Digital? :|
dann dürfte gar kein bild ausgegeben werden, wenn die störungen so stark wären.

Gertz
2009-01-18, 16:17:31
Digital natürlich.
Digital? O.o
da gibts keine probleme.. Die graka berechnet, schiebt die daten an den DVI und der Monitor zeigt sie genauso digital an, wie sie rauskommen..

Analog hat die probleme, weil die digitalen bilder erst auf analog umgerechnet werden, und ggf. vom tft wieder zurueck ins digitale.

Spasstiger
2009-01-18, 16:33:19
Digital? O.o
da gibts keine probleme.. Die graka berechnet, schiebt die daten an den DVI und der Monitor zeigt sie genauso digital an, wie sie rauskommen..
Das stimmt so nicht, auch digitale Signale leiden unter Störungen. Wenn die Störungen zu groß sind, kommt es zu Bitfehlern. Und die sieht man dann auch in Form von falschfarbigen Pixel oder Syncproblemen/Flackern.

Bei ATI kann man im Treiber solchen Problemen entgegenwirken, indem man den DVI-Transmitter mit einer geringeren Frequenz arbeiten lässt:

http://www.abload.de/img/dvi8mco.png

Die Störungen müssen auch nicht zwangsläufig von der Grafikkarte selbst kommen, auch andere Komponenten im PC senden elektromagnetische Strahlung aus.

Coda
2009-01-18, 16:55:39
Von welchem Signal sprichst du überhaupt? Analog oder digital?

@Spasstiger:
AFAIK sind die Gründe für NVIO @G80 und G200 doch andere, wenn es mit den Störsignalen durch die Shader zusammenhängen würde, dann würde man aus einem G92 mit 128SPs@1.8GHz @ GTX+ wohl kein Bild mehr bekommen.
Anscheinend macht man es, damit man Prozessschritte für den analogen Chipteil sparen kann. Es ist sonst nämlich schon sehr ärgerlich, wenn man den ganzen perfekten Chip wegwerfen muss nur weil dort noch was schief geht.

²Thom
2009-01-26, 16:41:01
Hi Die gelbe Eule,

Vielleicht pickt sich Dein Monitor das VGA-Signal von der DVI-Verbindung. Probier mal ein Kabel, bei dem der Analog-Teil im Stecker nicht geschaltet/bestückt ist.

Ist zwar nicht sehr wahrscheinlich, möglich jedoch schon.

Die gelbe Eule
2009-01-26, 17:07:29
Das Problem liegt ja nicht bei mir, habe DVI-HDMI an LCD TV. Ich habe nichtmal einen normalen VGA Ausgang auf meinen zwei Karten ;)
Beobachtet habe ich aber schon eine miese Qualität bei Low Profile Karten, wo der VGA Ausgang gesockelt ist, also mit einem extra Kabel abgeführt wird.

²Thom
2009-01-26, 17:46:23
Gab es bei DVI auf HDMI nicht das Problem, dass die Pegel die DVI bringt, zu niedrig sind für den HDMI-Eingang und man theoretisch einen aktiven Adapter bräuchte.
Probier mal ne GraKa mit einem richtigen HDMI-Ausgang, damit sollte das Problem behoben sein.

Wolfram
2009-01-26, 18:03:35
Das stimmt so nicht, auch digitale Signale leiden unter Störungen. Wenn die Störungen zu groß sind, kommt es zu Bitfehlern. Und die sieht man dann auch in Form von falschfarbigen Pixel oder Syncproblemen/Flackern.
Hier mal ein Beispiel...
http://www.abload.de/thumb/000_0069fvlp.jpg (http://www.abload.de/image.php?img=000_0069fvlp.jpg)
...offenbar hervorgerufen durch einen billigen Umschalter/billige Kabel/vergleichsweise schlechten Graka-Ausgang:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412458

Die gelbe Eule
2009-01-27, 17:16:13
Gab es bei DVI auf HDMI nicht das Problem, dass die Pegel die DVI bringt, zu niedrig sind für den HDMI-Eingang und man theoretisch einen aktiven Adapter bräuchte.
Probier mal ne GraKa mit einem richtigen HDMI-Ausgang, damit sollte das Problem behoben sein.

Wie gesagt, ich habe keine Probleme, laß aber davon, dass die Signalqualität schlechter werden kann, warum auch immer. Es kommt auf das sSgnal an, welches die VGA Karte erzeugt, nicht welcher Port letztendlich die Übertragung gewährleistet.