PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 2D-Bildqualität


BadMax76
2007-01-14, 09:52:57
Hallo,
wer kann genaueres zur 2D Bildqualität der beiden Hersteller Nvidia und ATI Auskunft geben, zur Auswahl steht eine ASUS X1950 pro oder eine XFX 7900 GT Extreme Edition.

Es soll ja da in Sachen Farben einen Unterschied geben.

Angiesan
2007-01-14, 10:24:23
Habe sowohl Ati wie auch NV Karten hier laufen, und in 2D gibt es so gut wie keine Unterschiede. Das hängt aber bei beiden sehr an dem Treiber.
Bestes Beispiel sind die neuen von NV 9744 relativ hell und 9792 sehr dunkel.

Grüße

Gast
2007-01-14, 10:33:51
Generell ist die 2D-Bildqualität bei Nvidia und ATI gleich gut. Solange die Kartenhersteller da keinen Müll bauen, wie z.b. den D-Sub-15 bei Low-Profile-Karten über ein Flachbandkabel anzuschließen. Dann kann die Bildqualität weniger gut sein, aber das hat nichts mit ATI oder Nvidia zu tun, sondern eben mit den jeweiligen Herstellern.

Wenn der Bildschirm über DVI angeschlossen werden soll, gibt es nichtmal da Unterschiede.

Um die 2D-Bildqualität brauchst du dir jedenfalls bei beiden genannten Karten keine Sorgen machen.

Gast
2007-01-14, 12:22:44
die 2D-bildqualität hängt praktisch nicht vom grafikchip ab (die integrierten DACs sind bei beiden sehr gut) sondern davon welche bauteile der hersteller verwendet.

in der regel sollte es aber kaum sichtbare unterschiede geben, und im DVI-zeitalter ist die ausgabequalität sowieso immer gleich gut.

Tigerchen
2007-01-14, 14:21:01
aths hat mal geschrieben daß er die 2D Features von nVidia für überlegen und wichtiger hält als den 3D Teil.

BadMax76
2007-01-14, 14:23:53
aths hat mal geschrieben daß er die 2D Features von nVidia für überlegen und wichtiger hält als den 3D Teil.

wo wo Link ??

deekey777
2007-01-14, 14:30:43
wo wo Link ??
Irrelevant, denn das hat nichts mit dem Thema zu tun. Für das zitierte Posting hat der Urheber eine gelbe Karte bekommen.

Die c't misst als eine der wenigen Zeitschriften die Qualität der Bildausgabe. Da nehmen sich die Hersteller nicht viel. Bis 1600x1200 ist die analoge Ausgabe befriedigend.

anddill
2007-01-14, 15:05:24
Nimm DVI. dann ist die Analogausgabe sowieso überflüssig.

Tesseract
2007-01-14, 15:09:22
meiner erfahrung nach hat nvidia meist die bessere signalqualität. das ist natürlich von hersteller zu hersteller je nach verwendeten bauteilen unterschiedlich aber im großen und ganzen hab ich den eindruck als seien die großen PCB layouts von nvidia wesentlich weniger störungsanfällig (durch zB staub usw.) als die kompakteren von ati.

Mr. Lolman
2007-01-14, 17:37:32
meiner erfahrung nach hat nvidia meist die bessere signalqualität. das ist natürlich von hersteller zu hersteller je nach verwendeten bauteilen unterschiedlich aber im großen und ganzen hab ich den eindruck als seien die großen PCB layouts von nvidia wesentlich weniger störungsanfällig (durch zB staub usw.) als die kompakteren von ati.

Meiner Erfahrung nach ist das Jacke wie Hose. Bei Analogausgängen zu GF2 Zeiten habs da zT noch himmelschreiende Unterschiede, aber da hat man sich halt einfach ne V5 gekauft, und hatte das Problem nicht mehr.

Jetzt zu DVI-Zeiten ist die Diskussion überflüssig - wobei ich aktuell mangels Kabel meine TFT auf der X1900XTX auch analog betreibe. Die BQ ist jedenfalls einwandfrei.

Gast
2007-01-14, 19:01:46
Ein Wort: Matrox :)

=Floi=
2007-01-14, 19:33:48
gibt es da eigentlich auch unterschiede bei den mitgeliferten adaptern?
habe ne 7950gt @ samsung syncmaster crt und das bild ist nicht so richtig messerscharf wie ich es möchte
alter monitor war 15% defekt (philips) aber mit dem neuen ist es jetzt auch nicht so wirklich besser geworden und nun habe ich den adapter im verdacht :rolleyes:

Black-Scorpion
2007-01-14, 20:00:44
DVI/VGA Adapter?

Da ist doch nichts drinn.
Der führt nur die analogen Leitungen vom DVI Ausgang zur VGA Buchse.

Xmas
2007-01-14, 20:09:39
DVI/VGA Adapter?

Da ist doch nichts drinn.
Der führt nur die analogen Leitungen vom DVI Ausgang zur VGA Buchse.
Anschlussstellen sind stets anfällig dafür, das Signal zu verschlechtern. Dafür muss kein aktives Element drin sein.

Dr.Dirt
2007-01-14, 20:21:58
hab ich den eindruck als seien die großen PCB layouts von nvidia wesentlich weniger störungsanfällig (durch zB staub usw.) als die kompakteren von ati.

Staub auf dem PCB hat keinen Einfluß auf die Signalqualität, wie kann man nur solchen Blödsinn behaupten. :rolleyes:

Lambo-Fan
2007-01-14, 20:28:39
Anschlussstellen sind stets anfällig dafür, das Signal zu verschlechtern. Dafür muss kein aktives Element drin sein.

Dem stimme ich zu. Diese Adapter stellen immer eine Art Verlängerung des Signalweges dar, daher sollte sich die Signalqualität theoretisch minimal verschlechtern. Darüber hinaus wird das Signal auch noch vom verwendeten VGA-Kabel beeinflusst.
Ob nun nVidia oder Ati-Karte, das sollte eigentlich egal sein, weil die verbauten Filter am VGA-Ausgang der Karte entscheidend sind (wie ja auch schon vorher von anderen usern angedeutet wurde).

Gast
2007-01-14, 21:25:10
Dem stimme ich zu. Diese Adapter stellen immer eine Art Verlängerung des Signalweges dar,

bei einem signalweg von 1-1,5m spielen diese 2cm sicher kaum eine rolle, die kontaktstellen könnten aber durchaus das signal verschlechtern, aber ich denke kaum dass das in den sichtbaren bereich fallen wird.

wer viel wert auf bildqualität legt sollte auch einen entsprechenden monitor mit DVI-anschluss besitzen, da ist das ganze sowieso hinfällig.

Tesseract
2007-01-14, 23:27:41
Staub auf dem PCB hat keinen Einfluß auf die Signalqualität, wie kann man nur solchen Blödsinn behaupten. :rolleyes:

ich behaupte den "blödsinn" weil ich die erfahrung bei vielen verschiedenen karten verschiedener hersteller der letzen jahre gemacht habe. angefangen von matrox über nvidia bis ati.
wenn die karte verstaubt können ghostbilder und schatten entstehen. ist nunmal so.

zuletzt hab ich ein paar systeme umgestellt und eine (iirc) 7900GTS gegen eine X800 getauscht (die vorher am DVI hing) und hab gedacht ich seh nicht recht weil das bild so scheiße war. ghostbilder bis zumgeht nicht mehr. dann karte entstaubt und das bild war wieder 1A.

Coda
2007-01-14, 23:38:40
Das kann ich mir eigentlich nur so erklären, dass Staub irgendwie zwischen Spulen gekommen ist, aber seltsam ist es dennoch :|

Tesseract
2007-01-14, 23:45:24
im privatsystem hab ich das auch noch nicht festgestellt aber bei den systemen in dem büro mehrmals. sind ein paar systeme mit ziemlich vielen ziemlich großen CRT monitoren (grafik büro) und ein paar druckern auf relativ kleinem raum.
vielleicht ist der staub da deswegen relativ stark statisch geladen oder so.

Dr.Dirt
2007-01-15, 00:46:58
ich behaupte den "blödsinn" weil ich die erfahrung bei vielen verschiedenen karten verschiedener hersteller der letzen jahre gemacht habe. angefangen von matrox über nvidia bis ati.
wenn die karte verstaubt können ghostbilder und schatten entstehen. ist nunmal so.

Naja, Einbildung ist auch ne Bildung. :uup:

maestro768
2007-01-15, 00:55:44
Wie sieht es denn mit der Quali des TV-Out aus? Gibt es da unterschiede und findet man irgendwo überhaupt Reviews, die darauf eingehen?

anddill
2007-01-15, 01:03:57
Mit dem Staub ist das wirklich eine seltsame Geschichte. Vor allem die Kyro-Karten waren da extrem empfindlich. Ich hab zwar bisher keine Änderung der analogen Bildqualität bemerkt, aber manchmal, wenn eine Graka absolut nicht mehr starten wollte, reichte ein kräftiger Puster auf die Platinenrückseite.
Dabei ist trockener Staub eigentlich ein Isolator, und die Platinen sind sowieso mit Lack isoliert. Vielleicht ist es ja die andere Dielektrizitätskonstante (gegenüber Luft) des Staubs, der Leitung zu Leitung und Leitung zu Massekapazitäten minimal verändert und dadurch die Signalverarbeitung beeinflußt. Dazu muß das Teil aber schon ganz schön hart an der Grenze gebaut sein, denn der Effekt ist sicher minimal.

Wolfram
2007-01-27, 20:05:57
Zur Signalqualität: Ich hatte kürzlich eine 7300 LE (vermutlich aus einem Dell-PC) in den Fingern, die eine miserable Bildqualität lieferte (1280x1024). Ebenso taugt die Onboard-Grafik des 6150er-Boards in meinem Office-Rechner nichts. Das Thema ist also nicht ausgestanden.

Die X1800XT in meinem Spielerechner liefert hingegen ein sauberes Bild, ebenso die 6800 GT und 9800 davor. Und auch eine 6200A, die ich vor einer Weile in meinem Office-Rechner hatte. Ist also offenbar nicht nur eine Preisfrage.

rookz
2007-01-27, 20:54:54
Ich hatte gestern eine FX5900 im PC und bin jetzt auf X1600pro umgestiegen.

Die ATI liefert ein viel besseres Bild.

Gast
2007-01-28, 10:53:18
Die ATI liefert ein viel besseres Bild.Was aber nichts mit ATI oder Nvidia zu tun hat. Wenn der Kartenhersteller keinen Mist gebaut hat, ist das Bild bei beiden einwandfrei. Bei deiner FX5900 wurde wohl irgendwo gespart.
Zur Signalqualität: Ich hatte kürzlich eine 7300 LE (vermutlich aus einem Dell-PC) in den Fingern, die eine miserable Bildqualität lieferte (1280x1024). Ebenso taugt die Onboard-Grafik des 6150er-Boards in meinem Office-Rechner nichts. Das Thema ist also nicht ausgestanden.Ja, bei Onboard-Grafik ist die Qualität fast immer mies. Wenn man einen TFT hat, sollte man besser ein Board mit DVI-Ausgang kaufen. Gibts ja auch auf einigen 6150ern.

Wuge
2007-01-28, 11:30:21
Ich ha vor kurzem die X800XL gegen eine 8800 GTS getauscht und bin (wider Erwarten) der Meinung dass sich die 2D-Qualität verbessert hat.

Damit meine ich nicht Bildrauschen o.Ä. , dank DVI ist die Signalqualität bei beiden Karten gut.

Nur irgendwie hab ich das Gefühl, dass die GF in Verbindung mit Schriftartglättung bessere Ergebnisse liefert. Auf der Radeon gabs nur "matschig" oder "ausgefranzt" die GeForce bekommt ein feines, sauberes Bild hin.

RavenTS
2007-01-28, 13:10:39
...
Die c't misst als eine der wenigen Zeitschriften die Qualität der Bildausgabe. Da nehmen sich die Hersteller nicht viel. Bis 1600x1200 ist die analoge Ausgabe befriedigend.

Und genau ab diesen Auflösungen wird es ja beispielsweise erst für manche interessant. Will man ein TH2GO-System nutzen kann man ja bis 3840x1024 fahren, da lassen sich sicherlich eher Unterschiede feststellen...

Ernie
2007-01-28, 20:28:43
Hab meiner Freundin eine alte Geforce3 in ihren Rechner eingebaut, damit sie endlich Anno 1701 spielen kann und sehe in 2D einen Riesenunterschied zur bisherigen Matrox G450. Tja, mal sehen, wie lange ihr Anno Spaß macht; wahrscheinlich baue ich ihr bald wieder die gute Matrox ein. So ein scharfes Bild habe ich nichtmal über mein ATI X850 per DVI.

Wolfram
2007-01-28, 20:59:11
Hab meiner Freundin eine alte Geforce3 in ihren Rechner eingebaut, damit sie endlich Anno 1701 spielen kann und sehe in 2D einen Riesenunterschied zur bisherigen Matrox G450. Tja, mal sehen, wie lange ihr Anno Spaß macht; wahrscheinlich baue ich ihr bald wieder die gute Matrox ein. So ein scharfes Bild habe ich nichtmal über mein ATI X850 per DVI.
Kann das wirklich sein? Oder kann die Matrox durch andere Faktoren den Eindruck eines schärferen Bildes hervorrufen? Man kann ja auch zB nicht sicher sein, daß Helligkeit un Kontrast genau gleich eingestellt sind/waren.

Ich habe im übrigen auch noch eine Geforce3, die aber ein messerscharfes Bild (jedenfalls in 1280x1024) liefert. Stammt aus den USA, evtl. wegen besserer (fehlender?) Entstörfilter?

Coda
2007-01-28, 21:18:28
So ein scharfes Bild habe ich nichtmal über mein ATI X850 per DVI.

Das kann per Definition nicht sein :rolleyes:

Amplified
2007-01-28, 21:30:35
Gude,

hatte schonmal jemand das Problem, das sich die Bildqualität je nach Temperatur der Karte verändert?

Hab hier eine XpertVision 7600gt, die nach dem einschalten gut 10 min. brauch um über den Analogen VGA ein scharfes Bild zu liefern.
Dachte erst es liegt am TFT oder am Kabel. Hab aber beides schon getauscht. Eine alte Rage XL liefert von Anfang an ein scharfes Bild.

Ein Grund die Karte mal einzuschicken?

MfG, Amp

Coda
2007-01-28, 21:33:04
Hm ja, könnte ein halb defekter Kondensator sein o.ä. Auf jeden Fall nicht gerade normal.

Amplified
2007-01-28, 21:48:17
Hmmm, dumm nur das ich die Rechnung von Mindfactory nicht mehr finde.
Werd morgen mal anrufen.

Danke

Coda
2007-01-28, 22:40:28
Nur irgendwie hab ich das Gefühl, dass die GF in Verbindung mit Schriftartglättung bessere Ergebnisse liefert. Auf der Radeon gabs nur "matschig" oder "ausgefranzt" die GeForce bekommt ein feines, sauberes Bild hin.

Das ist aber unter Windows <Vista eigentlich eine Software-Sache :|

Corny
2007-01-29, 10:43:53
So ein scharfes Bild habe ich nichtmal über mein ATI X850 per DVI.


Dir ist klar das für die analoge Übertragung das Bild von der Grafikkarte erst von Digital auf Analog und vom Bildschirm dann wieder von Analog auf Digital umgerechnet wird? Dadurch kann ein Bild nur schlechter werden als wenn es gleich Digital übertragen wird.
Wie hab ichs heut so schön in der C't gelesen - "es ist in etwa so sinnvoll wie eine Kaffeemaschine mit Eiswürfeln zu befüllen"

Der subjektiv bessere Eindruck der Bildqualität dürfte also hauptsächlich eine Täuschung sein. Vielleicht stellt die Matrox einfach die Farben etwas anders dar.

Ernie@work
2007-01-29, 11:49:30
Natürlich ist mir das klar.

DVI bedeutet aber nicht gleich perfektes Bild. Es wird nur digital und ohne Umrechnung übertragen. Wenn das Ausgangsbild der ATI aber nicht so gut ist wie das der Matrox, dann kann das Matrox-Bild auch bei analoger Ausgabe sichtbar besser sein als das per DVI verlustfrei übertragene, aber schlechtere Ausgangsbild der ATI.

Black-Scorpion
2007-01-29, 12:06:58
Ich sehen hier keinen Unterschied zwischen VGA und DVI-D.
Angeschlossen habe ich aber VGA, weil ich auch gerne den Bios Screen sehe. ;)

PhoenixFG
2007-01-29, 14:44:11
Wieso sollte der via DVI nicht sichtbar sein?

Coda
2007-01-29, 14:59:19
Ich ha vor kurzem die X800XL gegen eine 8800 GTS getauscht und bin (wider Erwarten) der Meinung dass sich die 2D-Qualität verbessert hat.

Was noch sein könnte: Das Ding hat ja auch nen seperaten RAMDAC im Gegensatz zur ATI.

Marodeur
2007-01-29, 15:09:25
Hm, mein guter CRT (IBM P275) ist derzeit an meine Grafikkarte über einen DVI-VGA-Adapter angeschlossen.

Jetzt hab ich in der Arbeit irgendwo noch ein DVI auf VGA-Kabel gefunden so das ich keinen Adapter brauch. Eventuell könnte da die Bildquali jenseits von 1280x1024 noch verbessert werden, oder?

StefanV
2007-01-29, 15:11:09
yep

Gast
2007-01-29, 15:14:38
Hm, mein guter CRT (IBM P275) ist derzeit an meine Grafikkarte über einen DVI-VGA-Adapter angeschlossen.

Jetzt hab ich in der Arbeit irgendwo noch ein DVI auf VGA-Kabel gefunden so das ich keinen Adapter brauch. Eventuell könnte da die Bildquali jenseits von 1280x1024 noch verbessert werden, oder?

Hat der P275 nicht eh einen einen DVI-Eingang?

Marodeur
2007-01-29, 15:29:42
Hat der P275 nicht eh einen einen DVI-Eingang?

Ja, aber ebenfalls natürlich nur einen DVI-A. Kommt also vermutlich aufs gleiche raus. Aber ich hatte bisher nur DVI-D-Kabel rumliegen.

Matzepower
2007-01-29, 15:49:14
Da hätte ich eine Frage zu, wie ist die Bildqualität in 2D bei einer MSI 7900 GTO?

Wird das Signal schlechter wenn man einen DVI to VGA Adapter benutzt weil man noch keinen TFT hat?

Gast
2007-01-29, 17:42:36
DVI bedeutet aber nicht gleich perfektes Bild. Es wird nur digital und ohne Umrechnung übertragen. Wenn das Ausgangsbild der ATI aber nicht so gut ist wie das der Matrox, dann kann das Matrox-Bild auch bei analoger Ausgabe sichtbar besser sein als das per DVI verlustfrei übertragene, aber schlechtere Ausgangsbild der ATI.


das ausgangsbild ist aber digital und damit identisch (zumindest in der 2D-ausgabe)

Gast
2007-01-29, 17:44:37
Wird das Signal schlechter wenn man einen DVI to VGA Adapter benutzt weil man noch keinen TFT hat?

sollte eigentlich nicht sichtbar sein, evtl. messbar.

Black-Scorpion
2007-01-29, 17:51:46
Wieso sollte der via DVI nicht sichtbar sein?
Frag nicht mich sondern Philips oder ATI.
Ich sehe den Bootscreen nicht und könnte dadurch den Bootmanager vom Bios nicht nutzen.

²Thom
2007-01-30, 08:47:25
Frag nicht mich sondern Philips oder ATI.
Ich sehe den Bootscreen nicht und könnte dadurch den Bootmanager vom Bios nicht nutzen.

Das liegt daran, dass die ATI im Bios-Modus nur 50 Hz macht und das manche Monitore nicht mögen und dunkel bleiben. Das kann man mit einem ATI/Radeon- Tweek-Tool ändern/flashen. Den Namen vom Tool hab ich vergessen.

Warum die immer noch an den 50 Hz festhalten??? Weiß ich auch nicht.

Endorphine
2007-01-30, 10:41:26
Ja, aber ebenfalls natürlich nur einen DVI-A. Kommt also vermutlich aufs gleiche raus. Aber ich hatte bisher nur DVI-D-Kabel rumliegen. Mit DVI-A sparst du dir den Adapter und das kommt natürlich der Signalqualität zu gute.

Xmas
2007-01-30, 14:15:14
Das liegt daran, dass die ATI im Bios-Modus nur 50 Hz macht und das manche Monitore nicht mögen und dunkel bleiben. Das kann man mit einem ATI/Radeon- Tweek-Tool ändern/flashen. Den Namen vom Tool hab ich vergessen.

Warum die immer noch an den 50 Hz festhalten??? Weiß ich auch nicht.
Das ist allerdings sehr seltsam, denn der DVI-Standard schreibt hier eigentlich 640x480 mit 60 Hz vor (und das muss jeder Monitor mit DVI-D-Eingang unterstützen).

Black-Scorpion
2007-02-09, 10:41:30
Das ist allerdings sehr seltsam, denn der DVI-Standard schreibt hier eigentlich 640x480 mit 60 Hz vor (und das muss jeder Monitor mit DVI-D-Eingang unterstützen).
Ich nehme meine Aussage von oben zurück.
Er kann es doch.
Das geht aber nur wenn ich sofort nach dem booten entweder die Pausentaste drücke oder dem Rechner etwas Zeit gebe und den TFT später einschalte.
Sonnst ist es wie oben geschrieben und ich sehe nichts.