PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Signalqualitätstest der GF4Ti-Karten in der aktuellen c't


Exxtreme
2002-05-04, 14:07:14
Es wurden 19 Karten insgesamt getestet. Tja, was soll man sagen? Durchgehend mittelmässig bis schlecht. Eine einzige Karte hat ein 'gut' bekommen was die Signalqualität angeht und zwar die Xtasy GF4Ti4600 von Visiontek. Ich denke nVidia tut gut daran ihr Zertifizierungsprogramm so schnell wie möglich zu realisieren. Es dürfte nämlich doch einige Kunden kosten. Heise hat hier (http://www.heise.de/newsticker/data/law-03.05.02-000/) eine Zusammenfassung online gestellt.

Gruß
Alex

Quasar
2002-05-04, 14:19:29
Puhhh, hab' ich eine Glück. Ich habe bis 1600x1200 mit 85Hz ein einwandfreies 2D-Bild. Damals mit meiner ELSA Gladiac GTS und dann mit der GF3 von Asus.

Mal im Ernst: Vielleicht habe ich wirklich Glück, aber ich sehe hier echt keinen Unterschied zur Matrox G400, dem undisputed champion of extrem gute Bildqualität.

Messen lassen sich bestimmt einige Unreinheiten im Signalverlauf, das will ich der c't nicht in Abrede stellen, nur ist die Frage, wieviel dann auch wirklich am Ende noch bis zum Monitor gelangt.

Wie viele Leute haben denn einen 19"-Monitor für €250 mit DSub-Anschluss, der dann auch noch durch rauhe Mengen anderer elektrischer Leiterbahnen geführt ist?
Will sagen, imho ist in den meisten Fällen nicht die Graka das begrenzende Element.

Trotzdem täte nV gut daran, diesen Makel schleunigst abzustellen!

StefanV
2002-05-04, 15:13:37
Tja, NiVida halt....



Ich vermute, daß der Ausgang am Chip recht viel Störsignale abgibt, weswegen die Hersteller einen 'größeren' RF Filter verwenden müssen.
DAS Könnte man messen, wenn man einmal vor und einmal hinter dem RF FIlter misst...
Was aber keiner tut, denn so könnte man die Unterschiede der CHIPS zeigen...

Quasar
2002-05-04, 15:30:36
DAS wäre vermutlich wirklich mal interessant, Stefan!

RAL
2002-05-04, 16:46:59
Das ist 'ne Schande würd ich mal so aus dem Bauch heraus sagen. Keine einzige Karte mit sehr gut und nur eine mit guter Signalqualität. Übrigens wenn man sich heute noch einen CRT-Monitor zulegt, dann am besten einen mit DVI-Anschluss. So kann man das Problem auch umgehen.

StefanV
2002-05-04, 17:17:44
Originally posted by RAL
Übrigens wenn man sich heute noch einen CRT-Monitor zulegt, dann am besten einen mit DVI-Anschluss. So kann man das Problem auch umgehen.

Gute Idee...

Dummerweise gibt es nur einen Hersteller, der einen DVI Anschluß verbaut, und da auch nur einen DVI-A...

PS: hab noch einen 'alten' Monitor mit BNC und DSUB Anschluß, Diamondtron NF Röhre...

BigBen
2002-05-04, 17:20:37
*LOL* Genau das habe ich auch vor ein paar Tagen zur allgemeinen Grafik- bzw. Singnalqualität der GeForce 3 Karten mal gesagt, was sich bei den 4er Karten ja nochmal verschlimmbessert hat *G*

Im vergleich zu der Radeon (Build by ATI) meines Bruders und meiner Kyro II (Hercules Prophet 4500), stimmt bei den Nvidia Karten die Qualität des Singnals einfach nicht, was ich neulich mal bei einem Kumpel mit seiner GeForce 3 gesehen habe. Aber die Leute wollen es ja nie glauben, das ihre tolle und teure (Nvidia) Karte ne schlechte Singnalqualität hat und man dies auch noch sieht *G*

mfG
BigBen

RAL
2002-05-04, 17:30:27
Hier gehts aber nicht um die "allgemeine Grafikqualität" und auch nicht um GF3-Karten, die deutlich besser bei den c't Tests abschnitten.

BigBen
2002-05-04, 17:41:44
War gerade dabei mein Posting zu bearbeiten... jetzt ist es verständlicher.

Ich weiss, das es in der neuen C`t nicht um die Geforce 3 Karten geht und das diese Problematik erst bei der 4. Generation für vermehrte Aufregung gesorgt hat. Aber ich hatte halt mal den direkten Vergleich mit einer GeForce 3 und da sah man schon Unterschiede auf dem Desktop und in 3D Anwendungen.

Das ist doch voll krank, wenn man soviel Geld für eine Grafikkarte bezahlt und die Hersteller dann miderwertige Komponenten einsetzen, um ein paar Cents zu sparen! Wer viel bezahlt soll auch das Dementsprechende bekommen.

mfG
BigBen

StefanV
2002-05-04, 17:48:12
Eine hübsche Kühlung ist halt gefragter als ein gutes Bild...

Unregistered
2002-05-04, 18:42:47
Eine Radeon8500 hat dort auch nur ein befriedigend bekommen ...

skampi
2002-05-04, 19:10:56
Originally posted by Unregistered
Eine Radeon8500 hat dort auch nur ein befriedigend bekommen ...

Für die Aussage braucht man sich doch nicht verstecken. Nur Mut!;)

evilernie
2002-05-04, 19:45:33
Originally posted by Unregistered
Eine Radeon8500 hat dort auch nur ein befriedigend bekommen ...

imho hat im GF3 Ti 200/500 Test, wo die ATI 8500 drin war, die ATI ++ bekommen. Muß ich aber noch mal nachsehen.

StefanV
2002-05-04, 19:46:48
Originally posted by Unregistered
Eine Radeon8500 hat dort auch nur ein befriedigend bekommen ...

Am DSUB Ausgang, der DVI soll besser sein ;)

Aber das beste Signal hat immer noch die Matrox Millenium 2!!

So ein scharfes und kontrastreiches Bild hab ich seit dem nicht mehr gesehen...

Gut, scharf schon, z.B. auf meiner Powergene MX, aber erst, nach dem ich den Kolben angesetzt hab *eg*

Quasar
2002-05-04, 19:46:52
Es gibt keine GF4 TI200/500.

evilernie
2002-05-04, 19:48:58
Originally posted by Exxtreme
Ich denke nVidia tut gut daran ihr Zertifizierungsprogramm so schnell wie möglich zu realisieren. Es dürfte nämlich doch einige Kunden kosten.

hoffe ja noch auf gute Treiber und keine Probleme mehr mit ATI 8500 und diversen Boards.

Aber werde mir jetzt die Sparkle GF4 Ti 4400 kaufen, da billig und leise. Signalqualität ist laut C´t (), aber wenigstens nicht nur (-).
Wollte mir erst die MSI GF4 Ti 4400 oder winfast GF4 Ti 4400 kaufen. Die MSI ist laut C´t aber fast lauter als ein CDROM bei 40x (nur die GK hört nie auf). Die Winfast GF4 Ti 4600 ist ja alut Signalqualität die schlechteste.

evilernie
2002-05-04, 19:50:03
Originally posted by Quasar
Es gibt keine GF4 TI200/500.

schon auf GF3 Ti 200/500 geändert.

Sebuste
2002-05-04, 21:03:19
ist es nicht so das die geforce karten eine schlechte signalquali haben weil sich die hersteller sich nicht an der refermodel halten ?
man siehe hier was die hersteller einsparen wegen 2-3 € pro karte. Dies ist echt ein ernsthaftes problem für nv.

Birdman
2002-05-04, 22:10:21
na ja, ich möchte mal ned wissen, was alle die Koreaner auf ihre 8500LE karten bauen.....
Leider hört man da nie was drüber, da fast alle revies ausschliesslich auf der 8500er, allermeistens noch die "orig" Ati, beruhen.

aths
2002-05-04, 23:36:51
Ich kann nur aus persönlicher Erfahrung reden, da ich kein Messlabor habe. Die Ti4600, die ich habe, ist noch einen Zacken schärfer als die Voodoo4.

ernesto.che
2002-05-05, 00:01:28
Originally posted by aths
Ich kann nur aus persönlicher Erfahrung reden, da ich kein Messlabor habe. Die Ti4600, die ich habe, ist noch einen Zacken schärfer als die Voodoo4.
Meiner Meinung nach, ist es hier genauso wie im Hi-Fi Bereich: Geräte müssen miteinander harmonieren.

Desti
2002-05-05, 00:37:13
Originally posted by aths
Ich kann nur aus persönlicher Erfahrung reden, da ich kein Messlabor habe. Die Ti4600, die ich habe, ist noch einen Zacken schärfer als die Voodoo4.

Hatte die Voodoo4 nicht damals in der c't ein sehr gut bekommen, oder wars die V5 *grübel*...naja...digital TFT rult eh alles weg :P

Sebuste
2002-05-05, 00:44:42
schärfer ? hmm kommt drauf an was für zeug dein hersteller verbaut hat. ansonsten was ich schaf nenne ich matrox g5500.... lecker

Haarmann
2002-05-05, 12:05:54
zZ Nutze ich ja den DVI der R8500 - ok mit dem isses scharf ;)

Aber mal allgemein gesagt ist bei der R8500 buid by ATI der DVI schärfer - klingt komisch is aber so. Aber auch der ist noch nicht perfekt. Es geht ja noch besser.

Des weiteren möchte ich noch das gute Abschneiden der Hercules Produkte betonen. Ev sind diese Karten ja ned die schnellsten Karten am Markt, aber wenigstens kann man damit das Bild, was gerendert wird auch noch scharf sehen ;). Besonders die angeblich guten ASUS GF4 Ti haben nicht wirklich gut abgeschnitten. Deren GF3 wiederum waren noch gut. Die GF2 MX wiederum gemischt usw.
Für mich ist eigentlich alles unterhalb der G550 ein schlechter Witz - Sind wir doch mal ehrlich, diese Karte ist kein wirklich teures Produkt. Mehraufwand ist wohl 5$ je Karte. Technisch machbar isses offensichtlich auch. Wenn man nun den 3 fachen Preis einer G550 blecht, dann erwarte ich dann auch ne Karte mit Top SQ zu diesem Top Preis. Die darf dann gerne auch noch 5$ mehr kosten ;). Ob nun 500$ oder 505$ is nun echt egal.

Sebuste
2002-05-05, 12:23:01
500$ oder 50$ währe mir nicht egal, das maximalste was ih in meine grafik stecken würde sind 300€ ´. mehr auch nicht.

Quasar
2002-05-05, 13:11:18
Originally posted by Haarmann
Besonders die angeblich guten ASUS GF4 Ti haben nicht wirklich gut abgeschnitten. Deren GF3 wiederum waren noch gut.

Das ist für wiederum ein Beweis, daß diese Meßmethode zwar schön und gut ist, aber an der Praxis genauso vorbeigeht, wie der Vom-Tisch-Fall-Test für Monitor bei der Computerbild (oder ich habe einfach seit langer Zeit extremes Glück, was die 2D-Qualität der Karten angeht).

Exxtreme
2002-05-05, 13:32:21
Originally posted by Quasar


Das ist für wiederum ein Beweis, daß diese Meßmethode zwar schön und gut ist, aber an der Praxis genauso vorbeigeht, wie der Vom-Tisch-Fall-Test für Monitor bei der Computerbild (oder ich habe einfach seit langer Zeit extremes Glück, was die 2D-Qualität der Karten angeht).
Ich denke, daß die Serienstreuung ziemlich gross ist. Das ist aber eigentlich auch kein idealer Zustand. Wie Haarmann schon sagte, die 5 $ mehr dürfte jeder übrig haben, der gute SQ haben will. Und technisch scheint es auch keine Hindernisse zu geben.

Gruß
Alex

Quasar
2002-05-05, 13:39:19
Das kann natürlich auch gut sein, und gerade bei den doch etwas teureren Asus-Karten, die ansonsten wirklich gut sind (siehe GPU-Temp-Test bei Anand), sollten die paar Cent für solche Bauteile doch drin sein.

Damit unterstellst du, Exxtreme, jedoch, daß ich in den letzten drei Jahren wirklich extremes Glück bei meiner "Serienstreuung" hatte ;)

ow
2002-05-05, 14:11:42
Mich würde u.a auch mal interessieren, wie die Unterschiede der Signalqualität bei Karten aus unterschiedlichen Ländern sind. Also ohne CE-Norm.

skampi
2002-05-05, 15:02:54
Originally posted by Quasar


Das ist für wiederum ein Beweis, daß diese Meßmethode zwar schön und gut ist, aber an der Praxis genauso vorbeigeht, wie der Vom-Tisch-Fall-Test für Monitor bei der Computerbild (oder ich habe einfach seit langer Zeit extremes Glück, was die 2D-Qualität der Karten angeht).

Ganz so zugespitzt würde ich es nicht ausdrücken, siehe Matrox. Eventuell hast Du keine Möglichkeit zum Vergleich.

Originally posted by ow

...Also ohne CE-Norm.


Interessanter Ansatz.

Quasar
2002-05-05, 15:10:27
Doch, skampi. Ich habe mittlerweile sogar fünf Matrox-Karten (uralt-PCI, Mystique, G100, G400 und G400MAX). Die sollten als Referenz eigentlich genügen.

skampi
2002-05-05, 15:41:11
Das denk ich auch.

aths
2002-05-05, 17:07:49
Im tecchannel-Test hat die Matrox-Karte eine barbarisch gute Signalqualität, da habe ich echt gestaunt. Ebenso staunte ich nicht schlecht darüber, was andere Karten aus dem Rechteck machten: Sinus, oder noch schlimmer Dreiecke...

milkyway
2002-05-05, 20:37:40
Ich dachte bisher immer, die Bildschärfe-Unterschiede bei Grakas seien eher marginal und hab deshalb nie viel auf diesbezügliche Tests gegeben. Deswegen hab ich die üble Bildschärfe meines damls neuen 19"s mit GF2MX auf den Monitor zurückgeführt. Es lag aber tatsächlich an der Graka (von Pixelview) - mit der neuen MSI GF3 ist alles gestochen scharf, auch in hohen Auflösungen/Refresh-Raten. :)

aths
2002-05-06, 10:53:59
Desti,

es war die Voodoo4 :)

ow
2002-05-06, 11:49:09
Originally posted by aths
Im tecchannel-Test hat die Matrox-Karte eine barbarisch gute Signalqualität, da habe ich echt gestaunt. Ebenso staunte ich nicht schlecht darüber, was andere Karten aus dem Rechteck machten: Sinus, oder noch schlimmer Dreiecke...


aths

Dreiecke sind den Sini vorzuziehen, weil in der Dreicksform die Oberwellen noch drin sind.
Sinus = alle Oberwellen weggefiltert, nur noch Grundschwingung

StefanV
2002-05-06, 13:22:49
Originally posted by ow
aths

Dreiecke sind den Sini vorzuziehen, weil in der Dreicksform die Oberwellen noch drin sind.
Sinus = alle Oberwellen weggefiltert, nur noch Grundschwingung

Trotzde sind die meisten unfähig ein brauchbares Signal zu Stande zu bekommen :P

Ob da NV wohl auch geschlampt hat??

Wir werden es wohl nie erfahren, da wohl kaum einer die Signale vor dem RF Filter misst...

ow
2002-05-06, 13:37:43
Stefan:

Du kannst die Signale nicht einfach vor dem RF-Filter messen. HF-Signale brauchen einen genau spezifizierten Abschlusswiderstand.

Du kannst allenfalls den RF-Filter komplett ueberbruecken, was allerdings auch schon ein Eingriff in den Messaufbau darstellt.

Xmas
2002-05-06, 16:51:10
Mal ganz abgesehen davon dass das "annähernd rechteckige" Signal z.B. der Creative GF4 nicht einfach aus dem Nichts entsteht...

Sebuste
2002-05-06, 16:54:04
oder kyro, ich glaube bei ihr wars auch ganz brauchbar .....

aths
2002-05-06, 18:32:51
Originally posted by ow

aths

Dreiecke sind den Sini vorzuziehen, weil in der Dreicksform die Oberwellen noch drin sind.
Sinus = alle Oberwellen weggefiltert, nur noch Grundschwingung

Soweit ist mir die Signaltheorie zum Glück auch noch geläufig :) Doch Oberwellen hin oder her - ich weiss nicht, ob ein Dreieck wirklich ein besseres Bild liefert als der entgültig verschliffene Sinus. Der Sinus kommt letzlich näher an die Rechteckschwinung heran.

"Beweis": Bilineare vs. Bicosinus-Filterung beim Vergrößern. Der lineare (Dreiecksform) bringt unschärfere Resultate als der Cosinus-Filter.

Haarmann
2002-05-06, 21:19:07
Es ist und bleibt tragisch, was da aus den Karten so alles rauskommt, die z.T. doch einiges mehr kosten, denn die G550...

Meine Meinung dazu ist und bleibt ein Pfui.

Kosh
2002-05-06, 22:06:15
Als ich von meiner Voodoo2 auf eine TNT2 umgestigen bin, hatte ich einen deutlichen Qualitätsverlust gesehen.

Dann von Geforce1 SDR auf Kyro2 bin ich wieder vom Hocker gefallen, welch Qualitativ grosser Unterschied dort besteht.
Meine Kyro2 hat eine deutlich bessere Bildqualität.

Das bestätigt auch ein Kumpel von mir, wenn wir gegeneinader spielen. Er hat eine Geforce 2 von Asus (oder Elsa?)

StefanV
2002-05-06, 22:28:51
Originally posted by Kosh
Als ich von meiner Voodoo2 auf eine TNT2 umgestigen bin, hatte ich einen deutlichen Qualitätsverlust gesehen.

Dann von Geforce1 SDR auf Kyro2 bin ich wieder vom Hocker gefallen, welch Qualitativ grosser Unterschied dort besteht.
Meine Kyro2 hat eine deutlich bessere Bildqualität.

Das bestätigt auch ein Kumpel von mir, wenn wir gegeneinader spielen. Er hat eine Geforce 2 von Asus (oder Elsa?)

Mich hats vom Hocker gerissen, mit was für einem Schrott einige Leute leben können ;)

z.B. lieferte meine GLADIAC GTS ein nicht besonders scharfes Bild.

Als Vergleichsmöglichkeit hatte ich damals eine, ratet mal ;-), richtig, Matrox (Millenium 1)...

Die 'scharfen' Karten, die ich hatte:

Matrox Millenium 1, MGA G200, G400, Radeon 32DDR, 64DDR und Radeon 8500...

[edit]
Fast vergessen:

XPert98, ViperV330 und PowerColor Powergene MX

Diese 3 Karten sind aber nicht von Haus aus gut ;)

PS: es hängt auch einiges vom Chip ab!!
Denn die ELSA Winner 1000 TRIO V war geschärft kaum schärfer als vorher...

Matt
2002-05-08, 11:19:20
Ich besitze einen 19" Monitor mit DSub Anschluss (SyncMaster 950p) von Samsung und habe sogar mit meiner Riva GF2 MX ein hervorragendes Bild. Vor 3 Tagen ging mir meine Brille abhanden und seither sitz ich ohne vorm PC, kein Problem! Hab zwar nur unterdurchschnittlich schlechte Augen, aber ich denke die Qualität bei Nvidia ist ABSOLUT in Ordnung und wir bei den GF4 Karten vielleicht noch besser sein.

StefanV
2002-05-08, 12:06:10
Originally posted by Matt
Ich besitze einen 19" Monitor mit DSub Anschluss (SyncMaster 950p) von Samsung und habe sogar mit meiner Riva GF2 MX ein hervorragendes Bild. Vor 3 Tagen ging mir meine Brille abhanden und seither sitz ich ohne vorm PC, kein Problem! Hab zwar nur unterdurchschnittlich schlechte Augen, aber ich denke die Qualität bei Nvidia ist ABSOLUT in Ordnung und wir bei den GF4 Karten vielleicht noch besser sein.

DAS sagen viele, die nur ihre eigene Karte kennen und NIE eine ATI oder MATROX Karte ausprobiert haben...

Glaub mir, die Matrox/ATIs sind meist besser!!!!

Insbesondere bei der GF2 MX soll das Bild recht bescheiden sein.

ow
2002-05-08, 12:56:59
Insbesondere meine GF2MX hat das schaerfste Bild all meiner Karten. Da kommt weder die ATi Radeon noch die Kyro hin.

StefanV
2002-05-08, 13:36:17
Originally posted by ow
Insbesondere meine GF2MX hat das schaerfste Bild all meiner Karten. Da kommt weder die ATi Radeon noch die Kyro hin.

Bei deinem 17"/70kHz kannst das ja auch kaum erkennen!!

Ich hab selbst so ein Teil (Daewoo 710B), gegenüber dem MV450PRO ist das ein unterschied wie Tag und Nacht beim Bild!!

Dunkeltier
2002-05-08, 14:00:37
Die Signaltechnisch übelste Karte die ich jemals besaß, war die "Creative Annihilator Pro" (Geforce 256 DDR). Das Bild wurde schon ab 800x600 unscharf, so schlimm ist noch nicht mal meine Hercules Daytona mit S3 Virge DX Chip gewesen!

Xmas
2002-05-08, 14:07:02
Originally posted by Stefan Payne
Bei deinem 17"/70kHz kannst das ja auch kaum erkennen!!

Ich hab selbst so ein Teil (Daewoo 710B), gegenüber dem MV450PRO ist das ein unterschied wie Tag und Nacht beim Bild!!
Was ist das denn für ein Quark, Stefan? Du kannst wohl kaum von Bilddiagonale und Horizontalfrequenz ableiten, ob ows Monitor scharf ist oder nicht.

Und wenn ow sagt dass die MX auf seinem Monitor das beste Bild bringt, dann ist doch wohl das entscheidend, und nicht wie das Bild auf einem Monitor wäre den er gar nicht hat.

Kosh
2002-05-08, 14:10:56
Originally posted by Matt
Ich besitze einen 19" Monitor mit DSub Anschluss (SyncMaster 950p) von Samsung und habe sogar mit meiner Riva GF2 MX ein hervorragendes Bild. Vor 3 Tagen ging mir meine Brille abhanden und seither sitz ich ohne vorm PC, kein Problem! Hab zwar nur unterdurchschnittlich schlechte Augen, aber ich denke die Qualität bei Nvidia ist ABSOLUT in Ordnung und wir bei den GF4 Karten vielleicht noch besser sein.

Damals, als ich noch einen 15 Zoll Monitor hatte und beim Kumpel seinen 17er sah, dachte ich auch immer, das mein 15er kaum kleiner war als sein 17er.

Bis ich danach heimkam und meinen 15er sah. Dann fiel mir immer sofort auf das meiner deutlich kleiner war.

Genauso wirst du erst sehen,wie mies deine Grafikkarte von der Bildqualität ist (MX soll die mit Abstand schlechteste Qualität bei NVIDIA Karten haben),wenn du deinen Monitor neben einen mit Kyro2, ATI oder erst recht Matrox karte stellst.

StefanV
2002-05-08, 14:16:31
Originally posted by Xmas
Was ist das denn für ein Quark, Stefan? Du kannst wohl kaum von Bilddiagonale und Horizontalfrequenz ableiten, ob ows Monitor scharf ist oder nicht.

Und wenn ow sagt dass die MX auf seinem Monitor das beste Bild bringt, dann ist doch wohl das entscheidend, und nicht wie das Bild auf einem Monitor wäre den er gar nicht hat.

Dennoch kann ich das an meinem Daewoo Monitor kaum unterscheiden!

Dadran seh ich nur sehr schwer den Unterschied zwischen Voodoo4 und MGA Millenium2.

An meinem Iiyama dagegen sehr deutlich, was hauptsächlich an der schärferen Streifenmaske liegt.

Das liegt aber auch daran, daß ich meinen Iiyama höhere Frequenzen zumuten kann, was den Unterschied nochmals verdeutlicht.

Bei 1024x768 @ 85Hz ist der Unterschied zwischen den meisten Karten nicht soo groß, erst bei 100Hz fangen die meisten Karten an sich zu unterscheiden, wobei man den Monitor als 'Fehlerquelle' Eliminieren sollte, in dem man das mit einer Karte ohne RF Filter testet (hab gerade eine drin *eg*)

[edit]

Mein Daewoo ist auch bei 85Hz deutlich schärfer als der 85kHz Highscreen meines Onkels, obwohl ich den Daewoo an seiner Leistungsgrenze (68,6kHz) betreibe...

ow
2002-05-08, 14:23:29
Originally posted by Stefan Payne


Bei deinem 17"/70kHz kannst das ja auch kaum erkennen!!




*LOL*

Wenn ich auf DEM Monitor schon erkenne, was denkst du wie das denn bei hoeheren Aufloesungen/Refreshraten aussieht??

ow
2002-05-08, 14:24:54
Originally posted by Black Cow
Die Signaltechnisch übelste Karte die ich jemals besaß, war die "Creative Annihilator Pro" (Geforce 256 DDR). Das Bild wurde schon ab 800x600 unscharf, so schlimm ist noch nicht mal meine Hercules Daytona mit S3 Virge DX Chip gewesen!




Wuerde ich anhand gelesener Tests so bestaetigen.
Die CL GF DDR war wirklich unter aller S.., was die Bildqualitaet betraf.

ow
2002-05-08, 14:26:46
Originally posted by Kosh


MX soll die mit Abstand schlechteste Qualität bei NVIDIA Karten haben



Alles nur unbewiesene Geruechte aus Anti-NV Hetzkampagnen.
Sage ich dir als MX/Radeon/Kyro User.

evilernie
2002-05-08, 14:26:59
da gab es die Elsa Erazor X, nicht X2. Die war auch schlecht.

ow
2002-05-08, 14:29:03
Originally posted by evilernie
da gab es die Elsa Erazot X, nicht X2. Die war auch schlecht.


Ja, Signal-Anstiegszeit von 7,8ns gg. 3,5ns wenn ich den 2 Jahre alten c't Test noch richtig im Kopf habe.

evilernie
2002-05-08, 15:22:53
also laut C´t 8/2000 hatte die Erazor X wirklich 7,8ns bei 540mV. Damals noch die gute Asus V6600 nur 1ns bei 730mV. Die Annihilator Pro (die nicht Pro war noch besser) war aber mit 3,9ns bei 600mV nicht so schlecht.

Unregistered
2002-05-08, 16:12:25
Ich habe mit mal die GF4Ti4400 von MSI (die von Alternate) gekauft. Von Hercules Kyro2 4500 umgestiegen. Nachdem ich hier (Forum) schon eine ganze Weile lese, hatte ich natürlich ein ungutes Gefühl was die Bildqualität anbelangt.
[Vor einigen Wochen/Monaten hatte ich auch mal drei verschiedene Radeon8500 (zwei LEs PbA, eine 275er-BbA) in meinem PC (alle freezten 3D-Anwendungen, zurückgeschickt). Nur mal so zur Info.]

Rein 'optisch' ( subjektiv also ) hat die MSI-GF4 sogar ein leicht besseres Bild (1280x960x32 85Hz (mehr will ich nicht) Desktop, ADI MicroScan 5G, BNC-Kabel) als meine Hercules Kyro2.
Die ATIs waren aber dennoch noch etwas besser ( wieder rein subjektiver Eindruck ) als die MSI-GF4.

Meine erste nVidia-Karte, aber trotzdem zufrieden :D (vorher nur Matrox Mystique&Millenium2, Voodoos und Kyro2).

Dunkeltier
2002-05-08, 18:17:58
Originally posted by evilernie
also laut C´t 8/2000 hatte die Erazor X wirklich 7,8ns bei 540mV. Damals noch die gute Asus V6600 nur 1ns bei 730mV. Die Annihilator Pro (die nicht Pro war noch besser) war aber mit 3,9ns bei 600mV nicht so schlecht.

Zumindest war mein Exemplar dermaßen schlecht, das ich mir geschworen habe nie wieder eine Creative Grafikkarte zu kaufen. Besser gesagt, keine mehr mit NVidia Chip. (Naja, an den letzten Satz habe ich mich nicht gehalten. Jedenfalls habe den kauf der Geforce 2 Ti von Club 3D nicht bereut gehabt...) Und in meinen ganzen Leben hatte ich bis zu diesem besagten Tage keine Grafikkarte, die ab 800x600 so abgekackt ist.

Als ich den Schrott umtauschen wollte, meinte der Händler flapsig: "Die Karte geht doch einwandfrei!" Ja super, in den unteren 2 Auflösungen. Frage mich noch immer, wie ich damals so leichtfertig 630 DM verpulvern konnte.

Wo wir gerade darüber sprechen, ich hatte mal die "Creative Labs Webcam". Die war so schrottig, lief nicht mal unter 16 Bit Desktopfarbtiefe!!!



P.S.: Der Laden lief so "gut", das er schließen mußte. Soviel zum Thema Kundenservice.

ow
2002-05-08, 19:58:28
Originally posted by evilernie
also laut C´t 8/2000 hatte die Erazor X wirklich 7,8ns bei 540mV. Damals noch die gute Asus V6600 nur 1ns bei 730mV. Die Annihilator Pro (die nicht Pro war noch besser) war aber mit 3,9ns bei 600mV nicht so schlecht.


Komm, jetzt rück mal bitte noch den Wert von der Elsa X2 raus. Ich will wissen, wie gut mein Gedächtnis noch ist.:D

evilernie
2002-05-08, 20:06:33
zum Glück ist das noch in einer 2000er Ausgabe im Schrank. Die alten habe ich ab 1990 gestern auf den Boden gebracht.

X2 2,5ns und 740mV.

StefanV
2002-05-08, 20:10:26
Originally posted by ow
*LOL*

Wenn ich auf DEM Monitor schon erkenne, was denkst du wie das denn bei hoeheren Aufloesungen/Refreshraten aussieht??

Anders, siehe c't!!

Da hatte die G450 auch ein recht bescheidenes Bild beim Testaufbau, in 1600x1200 soll es dagegen besser sein.

Wie du sicher weißt, muß der RF Filter für eine bestimmte Frequenz ausgelegt sein...

Thowe
2002-05-08, 20:22:15
Originally posted by Black Cow
... Hercules Daytona mit S3 Virge DX Chip gewesen!

Palit Daytona ? So weit ich es weiss heissen nur die Palit Karten Daytona.


Originally posted by Kosh
(MX soll die mit Abstand schlechteste Qualität bei NVIDIA Karten haben),

Weiss zwar nicht wer die Gerüchte säht, allerdings ist es definitiv nicht so. Die GF2MX Karten bieten im Durchschnitt eine recht gute Leistung was die Signalqualität betrifft. Einzige mir bekannte Ausnaheme sind die Karten von Gigabyte.


@Stefan, wäre dir dankbar wenn du es endlich schaffen würdest ows Meinung und klar vorhandenes technisches Verständnis akzeptieren würdest.

Zum Thema Elsa Erasor X. An der Karte wollte mein TFT-Display nicht mal ein Bild erzeugen, denke spricht deutlich für die Qualität der Karte. Aber auch andere GeForce, auch gerade die GeForce2GTS Karten hatten hier deutliche schwächen.


Originally posted by Stefan Payne
Wie du sicher weißt, muß der RF Filter für eine bestimmte Frequenz ausgelegt sein...

Sicher weiss er das.


http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=4731

Nur zur Erinnerung, scheint mal wieder nötig zu werden.

StefanV
2002-05-08, 20:26:05
Originally posted by Thowe
@Stefan, wäre dir dankbar wenn du es endlich schaffen würdest ows Meinung und klar vorhandenes technisches Verständnis akzeptieren würdest.

Sicher weiss er das.

1. beruht auf gegenseitigkeit.
Wer meine Meinung akzeptiert, dessen Meinung akzeptiere ich auch.

2. zum Zeitpunkt seines Posts muß er es wohl vergessen haben/nicht dran gedacht haben...

ow
2002-05-08, 21:47:25
Originally posted by Stefan Payne


1. beruht auf gegenseitigkeit.
Wer meine Meinung akzeptiert, dessen Meinung akzeptiere ich auch.

2. zum Zeitpunkt seines Posts muß er es wohl vergessen haben/nicht dran gedacht haben...


1. Meinungen kann man haben Stefan. Wissen hat man oder nicht. Und was DU glaubst zu wissen, ist bisweilen schlichtweg unakzeptabel.

2. Keinen Kommentar wert

Exxtreme
2002-05-08, 21:51:27
Ohhh man !!
Wenn ihr euch schon an die Gurgel gehen müsst, dann macht das bitte per PM.

Gruß
Alex

Unregistered
2002-05-10, 13:15:23
Originally posted by Thowe


@Stefan, wäre dir dankbar wenn du es endlich schaffen würdest ows Meinung und klar vorhandenes technisches Verständnis akzeptieren würdest.

Nur zur Erinnerung, scheint mal wieder nötig zu werden.

Gepaart mit offensichtlicher Aroganz und Ignoranz ist das immer noch keine gute Mischung für einen Mod, was der Streitkultur im Forum nicht zuträglich ist.

Dr.Doom
2002-05-10, 14:17:57
Jetzt, da ich auch eine GF4 besitze, kann ich mitreden :) .

Von BQ ist die GF4 von MSI nur beim VideoCD/DivX gucken grottenschlecht: Klötzchen bei schnellen Kameraschwenks, allgemein recht unscharf.
Bei Spielen, auch hin hohen Auflösungen (1600x1200 z.B.), ist die GF4 wirklich sehr gut!

Da ich mit meinem PC aber auch TV und Videos (VCD/DivX/DVD) ansehe, kommt die GF4 nächste Woche wieder raus.
Schade, beim Spielen echt flott :( .

Dunkeltier
2002-05-10, 15:57:40
@ Thowe

War mir nicht sicher, hatte nur den Hercules Aufdruck und den Namen des Chips im Kopf. ;)

@ Dr.Doom

Lass tauschen mit saftigen Ausgleich. :D

Dr.Doom
2002-05-10, 16:04:20
Originally posted by Black Cow
@ Dr.Doom
Lass tauschen mit saftigen Ausgleich.

Wie? Was? Hä? *nicht kapier*

Dunkeltier
2002-05-10, 16:12:46
Originally posted by Dr.Doom


Wie? Was? Hä? *nicht kapier*


Wolltest die doch rausreißen, mangels Qualität beim abspielen von DVD´s. :D

Haarmann
2002-05-10, 16:44:06
Tut mir leid Dr Doom, aber das muss ich nun doch mal kurz zeigen...

Dr.Doom sagte...
"Jetzt, da ich auch eine GF4 besitze, kann ich mitreden :) .

Von BQ ist die GF4 von MSI nur beim VideoCD/DivX gucken grottenschlecht: Klötzchen bei schnellen Kameraschwenks, allgemein recht unscharf.
Bei Spielen, auch hin hohen Auflösungen (1600x1200 z.B.), ist die GF4 wirklich sehr gut!

Da ich mit meinem PC aber auch TV und Videos (VCD/DivX/DVD) ansehe, kommt die GF4 nächste Woche wieder raus.
Schade, beim Spielen echt flott :( ."

Ich weiss wirklich nicht, wie auf einem ADI 17 Zoll CRT 5G irgendwas scharf sein kann bei 1600*1200... Also entweder stimmt Deine Signatur nicht, oder ich kann Dich nur zu Fielmann schicken... ;)

Dr.Doom
2002-05-10, 17:47:20
@BlackCow:
Nein, nur beim VideoCD und DivX abspielen, DVDs sind gestochen scharf , was eine gute Überleitung zu diesem hier darstellt :D :

Originally posted by Haarmann
Tut mir leid Dr Doom, aber das muss ich nun doch mal kurz zeigen...
Dr.Doom sagte...
"Jetzt, da ich auch eine GF4 besitze, kann ich mitreden.
Von BQ ist die GF4 von MSI nur beim VideoCD/DivX gucken grottenschlecht: Klötzchen bei schnellen Kameraschwenks, allgemein recht unscharf.
Bei Spielen, auch hin hohen Auflösungen (1600x1200 z.B.), ist die GF4 wirklich sehr gut!
Da ich mit meinem PC aber auch TV und Videos (VCD/DivX/DVD) ansehe, kommt die GF4 nächste Woche wieder raus.
Schade, beim Spielen echt flott."

Ich weiss wirklich nicht, wie auf einem ADI 17 Zoll CRT 5G irgendwas scharf sein kann bei 1600*1200 ... Also entweder stimmt Deine Signatur nicht, oder ich kann Dich nur zu Fielmann schicken...

ADI MicroScan 5G 17" (Model 937G, Manufactured 1998). Per BNC-Kabel an GraKa angeschlossen.
Ist schon korrekt :) . Ist natürlich ein rein subjektiver Eindruck!
Das Wort "Arbeitsplatz" unter 1600x1200 bei 85Hz kann ich noch aus zwei Metern Entfernung lesen/erkennen, wobei ich normalerweise nicht soweit vom Monitor entfernt sitze ;) .

Richtig unscharf ist mein alter 14" NoName Monitor bei 1024x768 und aufwärts: Da zittert das Bild, die Schrift läuft und bewegt sich irgendwie, und das Bild ist generell etwas (naja, etwas ist untertrieben :D ) unscharf.

Ausserdem war ich erst letzte Woche beim Augenarzt und bekomme bald eine neue Brille, da sich meine Sehkraft verbessert hat (bin kurzsichtig). Zu Fielmann gehe ich übrigens nie, da ich nicht auf Billigramsch stehe.

Tja, jetzt bist du wieder dran ...

StefanV
2002-05-10, 18:29:21
Originally posted by Dr.Doom
Zu Fielmann gehe ich übrigens nie, da ich nicht auf Billigramsch stehe.

Ich geh gerne zu Fielmann.

Das liegt aber mehr an den Lehrlingen *eg*

Xmas
2002-05-10, 18:34:28
Originally posted by Dr.Doom
Von BQ ist die GF4 von MSI nur beim VideoCD/DivX gucken grottenschlecht: Klötzchen bei schnellen Kameraschwenks, allgemein recht unscharf.
Hm, wenn du Klötzchen bei Filmen siehst, dann sollte das aber nicht an der Grafikkarte, sondern am Film selbst (bzw. an der Kompression) liegen.

Dr.Doom
2002-05-10, 18:40:15
Originally posted by Xmas

Hm, wenn du Klötzchen bei Filmen siehst, dann sollte das aber nicht an der Grafikkarte, sondern am Film selbst (bzw. an der Kompression) liegen.

Jo, die Vermutung liegt nahe, aber auf einer Kyro2 sieht derselbe Film in demselben PC viel besser aus (keine Klötzchen, etc.) .
Deshalb ??? -> Problem sponsored by nV ??? .

EDIT: Sind zwei unterschiedliche Win-Installationen auf unterschiedlichen Partitionen. Ein Win mit Kyro2 installiert, das andere mit der GF4.
( also kein Treiber"konflikt" )

Birdman
2002-05-10, 18:41:45
jep, denn bei DivX hab ich echt noch nie nen unterschied bei graks ausmachen können, jedenfalls was die quali betrifft. Da wird eh alles von der Software gerendert...
btw. evtl. hat bei dir die installation der GF4 karte ja etwas an den Postprocessing Einstellungen des Players geriegelt...Wenn der drum nimmer auf FullQaulity steht, sieht man viel mehr macroblocks und Fullscreen wird pixelig und unscharf.

Dr.Doom
2002-05-10, 18:46:54
Originally posted by Birdman
jep, denn bei DivX hab ich echt noch nie nen unterschied bei graks ausmachen können, jedenfalls was die quali betrifft. Da wird eh alles von der Software gerendert...
btw. evtl. hat bei dir die installation der GF4 karte ja etwas an den Postprocessing Einstellungen des Players geriegelt...Wenn der drum nimmer auf FullQaulity steht, sieht man viel mehr macroblocks und Fullscreen wird pixelig und unscharf.

Hmm.
Nutze den DivX v5.01. Quality-Einstellung auf "zwei Striche unterhalb von Maximal" (Standard, ist dort schon nach der Installation).
Wenn ich den Quality-Regler auf Maximum stelle laufen Ton und Bild nicht mehr synchron (Ton ist weiter fortgeschritten (~1sec) als das Bild).
Wie gesagt, mit Kyro2 passiert das nicht.
Deshalb ja meine Verwunderung ??? !

Haarmann
2002-05-10, 19:01:20
Dr.Doom.

:rofl:

Hast schon recht, das Bild mag gut wirken... aber es bleibt eigentlich unterm Optimum. Es zeigt für mich eigentlich nur, was der User sich schon alles gewohnt ist...

Dr.Doom
2002-05-10, 19:15:16
Originally posted by Haarmann
Dr.Doom.

Hast schon recht, das Bild mag gut wirken... aber es bleibt eigentlich unterm Optimum. Es zeigt für mich eigentlich nur, was der User sich schon alles gewohnt ist...

Wenn du meinst :) ...

Wie war das mit dem Frosch:
Wirft man einen Frosch ins heisse Wasser, wird er sofort wieder herausspringen. Erhitzt man das Wasser langsam mit dem Frosch, wird er mitgekocht werden :D .

Auch wenn ich dir das "Sterbe gleich vor Lachen..." etwas übelnehme (ich suche schliesslich Hilfe, werde aber verspottet) :
:bier:

(Du bist nicht zufällig mir "Herr_Mann" bei rivastation verwand ??? .)

EDIT: Achso, den ADI Monitor habe ich irgendwann mal gebraucht ür billisch Geld gekauft. Besser als mein 14"er ist er allemal =) .

Birdman
2002-05-10, 19:16:24
also ob die Kyro für DivX besser ist kann ich ned sagen...
Ich habe seber nur erfahrungen mit GF3/4 und Ati8500. Dabei konnte ich keinen Unterschied festellen zwischen den Karten, jedoch aber zwischen win98 und win2k. So dünkt mich das Bild unter 98 besser, da es imho unter 2k fast so ausieht als würden die filme nur mit 16bit laufen...vor allem dunke flächen haben oftmals relativ starkes banding.

btw. ich habe bisher noch keinen DivX5 Movie gekukkt, nur 3er und 4er. (und ich kukk die 3er mit dem 3er codec, und 4er mit dem 4er)
Rippe selbst auch noch das meiste mit DivX3. DivX4 und 5 filtert mir zuviel Details raus...das sieht jeweils aus wie DivX3 mit aktiviertem Noise Filter.
Daher kann es schon sein, dass das abspielen mit dem 5er Coded zu Problemen auf Nv karten führen kann...k.A. halt.

Dr.Doom
2002-05-10, 19:21:06
@Vogelmann: Woran erkenne ich, obs ein DivX 3, 4 oder 5 Film ist ??? ?

Birdman
2002-05-10, 19:53:56
ich sehe das ganze mittels des AVI_info Tools an...erhältlich wie auch so manch anderes auf www.doom9.org

skampi
2002-05-10, 20:15:25
Vermutlich wird ein DirectShow-Filter des Mediaplayers nicht zugeschaltet, das Problem hatte ich bei den frühen R100-Treibern unter W2k auch.

skampi
2002-05-10, 20:16:57
Originally posted by Birdman

btw. ich habe bisher noch keinen DivX5 Movie gekukkt, nur 3er und 4er. (und ich kukk die 3er mit dem 3er codec, und 4er mit dem 4er)
Rippe selbst auch noch das meiste mit DivX3. DivX4 und 5 filtert mir zuviel Details raus...das sieht jeweils aus wie DivX3 mit aktiviertem Noise Filter.

Das wäre mir neu.

Dr.Doom
2002-05-10, 20:33:41
Originally posted by skampi
Vermutlich wird ein DirectShow-Filter des Mediaplayers nicht zugeschaltet, das Problem hatte ich bei den frühen R100-Treibern unter W2k auch.

und wie schalte ich den Filter hinzu ??? ?

skampi
2002-05-10, 20:42:48
KA, habe in keinem Forum wirklich Hilfe gefunden. Probier mal einen anderen Treiber aus oder nutze einen anderen Player, z.B. "bsplay" ,funzt übrigens sogar auf einem K6-2 Notebook flüssig und ohne Hänger.

Andre
2002-05-23, 12:22:14
Na, was sehen meine trüben Augen da:


ATI Radeon 8500:

Für die Amplitude von 757 mV am VGA-Ausgang kassiert die ATI eine gute Wertung. Ein uneinheitliches Bild zeigt die Karte bei Flankenanstiegs- und abfallzeiten mit 2,50 beziehungsweise 3,57 ns. Deren Dauer sorgt darüber hinaus für Punktabzug. Die Richtung Sinus tendierende Signalform mit Schwächen in der Deckung der RGB-Signale rettet die Gesamtwertung nicht - Ausreichend.


Sparkle 7200T6 (GF 4 TI 4400)

Mit einer Signalamplitude von 723 mV am VGA-Ausgang schlägt die Sparkle SP7200T6 nur minimal über die Stränge. Mit identischen Anstiegs- und Abfallzeiten der Flanken von 3,14 ns kassiert sie gerade noch ein Befriedigend. Die deutliche Sinusform des Signals hat diese Wertung nicht verdient.

Die Signalqualität ist befriedigend.



MSI GF 4 TI 4400:

Am VGA-Ausgang bietet die MSI G4Ti4600 eine Signalamplitude von 609 mV, was für eine befriedigende Wertung genügt. Die Flankenanstiegs- und Abfallzeiten von 2,32 und 2,38 ns sind gut. Die Signalform tendiert zum Rechteck, insgesamt erlaubt dies eine befriedigende Gesamtwertung des VGA-Signals.

Heute gelesen und zwar hier:

http://www.tecchannel.de/hardware/907/index.html

Soviel zum Thema der überrragenden ATI-Signalqualität.

evilernie
2002-05-23, 12:29:47
Sparkle Sp7200T6 ist imho eine GF4 Ti 4600 und laut C´t ist das Bild schlecht. Die Ti 4400 von Sparkle ist da besser.

Birdman
2002-05-23, 13:04:19
Originally posted by skampi

Das wäre mir neu.
Bei doom9 gibts nen netten Bildvergleich dazu. Schlussendlich hat der 5er codec zwar die nase vorn, vor allem weil er viel weniger starke macroblocks zeigt als der 3er, aber wenn man auf den detailgrad der images kukkt, sieht man schon recht deutlich, dass der 4er und 5er weniger Details rüberbringen.

Wenn ich nen rip mache, encodiere ich eigentlich immer einmal mit dem 3er (VBR) und einmal mit dem 4er. Danach kukk ich mir einige teile des Films an und behalte denjenigen mit dem besseren ergebnis. (iss natürlich immer ein wenig subjetiv, da sich einige leute mehr an macroblocks und andre an "verwaschenen" Bilder stören)

Andre
2002-05-23, 13:57:38
Originally posted by evilernie
Sparkle Sp7200T6 ist imho eine GF4 Ti 4600 und laut C´t ist das Bild schlecht. Die Ti 4400 von Sparkle ist da besser.

Kann sein.
Festzuhalten ist aber, dass nach dem Tecchannel Test die Sparkle Karte besser als die von vielen bis ans Ende des Universums gelobte SQ der Radeon 8500 ist.

evilernie
2002-05-23, 14:13:23
aber das war auch leider eine 8500LE. Laut Techchannel 50 GK Signalqualität ist die Hercules 8500Le eine der besten.
Bei LE Karten ist es wohl recht schwer zu sagen, welche gut und schelcht ist. Da gibt es Firmen, die kennt man nicht mal. Da kann man dann wohl auch nichts über die Signalqualität sagen. Die Build By Ati waren dafür immer recht gut.

Mal sehen ,ich hatte mir diese Woche mal die Sparkle 4400 bestellt und was die für ein Bild auf meinem Iiyama Vision Master Pro 510 (22") macht. Auf Tomshardware.com ist der Test der Signalqualität wieder um 180% gegen die C´t gedreht. Da sind GK gut, die laut C´t schlechte signalqulität habe. Bei Tom aber nur per Augentest. Es kann wohl auch eine große Streuung geben.

http://www.tecchannel.de/tecdaten/show.php3?catid=148&pageid=989&sort=wertung&sortorder=desc

skampi
2002-05-23, 14:38:39
Originally posted by Birdman

Bei doom9 gibts nen netten Bildvergleich dazu. Schlussendlich hat der 5er codec zwar die nase vorn, vor allem weil er viel weniger starke macroblocks zeigt als der 3er, aber wenn man auf den detailgrad der images kukkt, sieht man schon recht deutlich, dass der 4er und 5er weniger Details rüberbringen.

Wenn ich nen rip mache, encodiere ich eigentlich immer einmal mit dem 3er (VBR) und einmal mit dem 4er. Danach kukk ich mir einige teile des Films an und behalte denjenigen mit dem besseren ergebnis. (iss natürlich immer ein wenig subjetiv, da sich einige leute mehr an macroblocks und andre an "verwaschenen" Bilder stören)

Man kann den 5'er eigentlich sehr gut auf seine Bedürfnisse optimieren. Z.B. "max quantizer" und "rc ap" runter kommt man mehr in Richtung LowMotion.

StefanV
2002-05-23, 17:23:15
Originally posted by Andre
Na, was sehen meine trüben Augen da:
Heute gelesen und zwar hier:

http://www.tecchannel.de/hardware/907/index.html

Soviel zum Thema der überrragenden ATI-Signalqualität.

Wieviele Karten von einem Typ hatten sie??
Wahrscheinlich nur eine, damit ist dieser Test auch wieder fürn Hintern!!

Denn es gibt ja noch sowas wie Bauteiltoleranz...

evilernie
2002-05-23, 17:28:08
Originally posted by Stefan Payne
Denn es gibt ja noch sowas wie Bauteiltoleranz...

ja, die liegen sp bei preiswerten Bausteinen bei 2%. High Ende bei max 0,2%. Also da kann es so nicht sein, daß es mal "super", mal "schlecht" ist.

Aber bei Powered By Ati kann man wohl nie sagen, welchen Hersteller man bekommt. Da kann man wohl super als auch schlechte Signalqualität bekommen.

StefanV
2002-05-23, 17:40:27
Originally posted by evilernie
ja, die liegen sp bei preiswerten Bausteinen bei 2%. High Ende bei max 0,2%. Also da kann es so nicht sein, daß es mal "super", mal "schlecht" ist.

Aber bei Powered By Ati kann man wohl nie sagen, welchen Hersteller man bekommt. Da kann man wohl super als auch schlechte Signalqualität bekommen.

1. geringere Toleranzen sind billiger, auch sind 'höhere' Baugruppen billiger...
DAS kann man aber nur feststellen, wenn man mehrere Karten regulär im Laden kauft (und nicht vom Hersteller 'Pressemuster' bekommt...
Auch hat noch niemand getestet, wie gut ein Chip ist.
Also mal ohne RF Filter versucht...

2. Das mag schon stimmen...

evilernie
2002-05-23, 17:46:05
Originally posted by Stefan Payne


1.DAS kann man aber nur feststellen, wenn man mehrere Karten regulär im Laden kauft (und nicht vom Hersteller 'Pressemuster' bekommt...


das macht keiner mehr.

Die C´t kauft wohl mal Rechner von der Stange im Laden, damit man den Service mittesten kann.

Aber bei Grafikkarten (letzter Test) hatten die immer 2 Stück direkt vom Hersteller. Das da nur Premiumkarten (was bei der Signalqualität der GF4 wohl nicht viel bedeuten kann) rausgehen, ist wohl klar.

Andre
2002-05-23, 18:20:32
Originally posted by Stefan Payne


Wieviele Karten von einem Typ hatten sie??
Wahrscheinlich nur eine, damit ist dieser Test auch wieder fürn Hintern!!

Denn es gibt ja noch sowas wie Bauteiltoleranz...

Und warum gilt diese Toleranz nur für ATI (denn die müssen ja super sein, ein ausreichend ist ja unakzeptabel) und nicht für NV (die müssen ja schlecht sein, deswegen gilt hier auch keine Ausrede) ?

Andre
2002-05-23, 18:21:24
Originally posted by Stefan Payne
Wahrscheinlich nur eine, damit ist dieser Test auch wieder fürn Hintern!!

"Wahrscheinlich"?
Hast du dafür einen Beweis oder wie muss ich das verstehen?

Gunnar
2002-05-23, 20:54:12
> Das da nur Premiumkarten (was bei der Signalqualität der GF4 wohl
> nicht viel bedeuten kann) rausgehen, ist wohl klar

Könnte sein und gilt dann wohl für jeden Test bei denen die Tester offiziell die Objekte angefordert haben. Die Hersteller werden doch nicht so blöd sein Karten von der Stange zu schicken. Und wenn trotzdem Resultate wie bei der der "ct" herauskommen ist das schon fast jämmerlich.
Aber den Herstellern schert es einen Furz weil die meisten User sich nur geil auf die Benchmarks stürtzen und die SQ somit auf der Strecke bleibt. Nach dem Motto die schnellste Karte mit den tollsten OC-Werten muß die Beste sein ... was schert uns die SQ.

Die GeFurz4 Karten sind Performance-optimiert, in tollen Farben angepinselt und sonst nichts. Alles andere ist Zufall.


Gruß Gunnar

aths
2002-05-23, 21:19:29
Die GF in meiner Kiste ist nicht angepinselt. Die Signalqualität erreicht sicher kein Matrox-Niveau, aber für meine (durch längere Zeit Voodoo4-Benutzung und vor allem dem gutem Monitor) recht hohen Ansprüche voll ausreichend.

Gunnar
2002-05-23, 21:45:40
Ich bleib dabei ... bei den vielen anderen Beiträgen die gelesen habe scheint die SQ der TV-OUT oder die Lüfterlautstärke sogar bei gleichen Modellen unterschiedlich zu sein. In der "ct" steht z.b. das der Lüfter der MSI-Karte ordentlich Radau macht. Soeben lese ich einen Beitrag von "Storm" der schreibt von einer absolut annehmbaren Lautstärke.

Also es scheint von Karte zu Karte unterschiedlich zu sein bzw. die Fertigungstoleranzen sind enorm. Anders kann ich das auch nicht mehr erklären.


Gunnar

evilernie
2002-05-23, 21:54:01
also MSI GF4 sind laut. C´t sagt 49db und Test von Tom sagt 50dB. Das ist laut

Voodoo3Killer
2002-05-24, 00:05:28
Zu dieser Signalqualitäts Diskussion sag ich nur eins:

Messen kann man viel, was zählt ist, was man am Ende davon sieht.

Und sollte ich mit welcher Karte auch immer auf ein "schlechtes" Bild stoßen, hab ich immer noch das Fernabsatzgesetz!

;)