PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF3 verbläst die GF4 beim anisotropischen Filter


Exxtreme
2002-03-07, 22:15:31
Schaut euch mal diesen Artikel bei NVNEWS (http://216.12.218.208/~nvnews.net/previews/geforce4_ti4600/page_3.shtml) an. Bei hohen Auflösungen verliert die GF4 obwohl sie eigentlich dank der höheren Taktfrequenzen deutlich gewinnen müsste.

Gruß
Alex

Richthofen
2002-03-07, 22:21:16
mein Reden auf Rivastation zum GF4 Test.
Ist meiner Meinung nach ein Bug im Treiber weil normal ist das ganz sicher nicht.

Exxtreme
2002-03-07, 22:23:12
Originally posted by Richthofen

Ist meiner Meinung nach ein Bug im Treiber weil normal ist das ganz sicher nicht.
Was? Ein Bug in den Detonator-Treibern? Kann doch gar nicht sein, oder? ;)

Gruß
Alex

Doomtrain
2002-03-07, 22:58:52
Originally posted by Exxtreme

Was? Ein Bug in den Detonator-Treibern? Kann doch gar nicht sein, oder? ;)




Nie im Leben!!! *eg*

aths
2002-03-08, 10:49:33
Siehe meine Theorie vom absichtlich "unausgereiftem" Treiber. Ich bin sicher, dass das zu gegebenen "Anlass" gefixt wird.

Haarmann
2002-03-08, 12:05:09
aths

Das is Variante 1 ;)

Variante 2 finde ich lustiger... Fehler im Chipdesign - Das Zusammenspiel der einzelnen Teile funzt ned und jemand hat das zu testen vergessen... Denn er tritt erst bei hoher Auflösung auf - efv hat man die Teile aber direkt aus der X-Box übernommen und dort gibts diese Probleme ja nicht ;)

ow
2002-03-08, 12:09:20
Wie, ist das schon alles an Verschwoerungstheorien?
Kommt schon, gebt euch mal etwas mwehr Muehe. ;);)

[dzp]Viper
2002-03-08, 12:29:25
hmmmmm *grübel* ..... *rauch*

Quasar
2002-03-08, 13:38:21
nV hält sich nur an die Auflagen der US-Kartellbehörden, indem sie sich in mindestens einem Punkt angreifbar machen. Ansonsten würde niemand mehr eine ATi kaufen und nV hätte das Monopol und würde wie M$ zerschlagen und aus den Scherben beider Unternehmen würde Sony-II (Konsolen inkl. Chips) und OS-2.2 (Betriebssystem mit den besten Treibern der Welt) entstehen. Keine der Firmen hätte auf absehbare Zeit eine Überlebenschance ----


Treiberbug klingt am wahrscheinlichsten. Denn ansonsten müsste ja allein schon der gestiegene Chiptakt für eine Performance-Steigerung gut sein...

Richthofen
2002-03-08, 15:50:24
ist wohl eher kein Hardware Bug sondern ein Softwareproblem.
Entwerder auf Grund des frühen Stadiums der Karten oder absichtlich um den nächsten ATI Launsch zu versauen.
Aber solange es nur Performanceprobleme sind, gehts doch.
Irgendwelche Bluescreens und ähnliches wär schlimmer.
Wie ich bereits sagte - neue Treiber -> mehr Speed.
Da dieser nur bei AF von Nöten ist werde ich am Ende mit 15% Steigerung doch gut liegen.
Das sollte ausreichen um auch höher getaktete Konkurenzprodukte auf Abstand zu halten.

aths
2002-03-08, 16:39:38
Ich glaube noch immer nicht, dass es ein "Bug" ist. Für so blöd halte ich die nicht. Ich vermute absichtliches zurückhalten von Leistung. Sie haben beim Launch vor allem das AA erwähnt, vielleicht werden sie bald die Wichtigkeit von AF heraus streichen - und erwähnen, wie sie das AccuView-Subsystem (AF zählen sie zu AV dazu) "verbessert" haben.

Richthofen, gegen das schnelle RIP-Mapping der Radeon kommt nV nie an. Der Leistungs-Abstand wird immer zugunsten der Radeon ausfallen.

Quasar
2002-03-08, 17:17:19
Originally posted by aths

Richthofen, gegen das schnelle RIP-Mapping der Radeon kommt nV nie an. Der Leistungs-Abstand wird immer zugunsten der Radeon ausfallen.

Relativ gesehen vielleicht, aber selbst wenn eine GF4 prozentual mehr bei zugeschaltetem AF verlieren sollte, kann das, je nach neuem Treiber, absolut durchaus schneller sein, als der geringe prozentuale Verlust den ATi von ihrem (niedrigeren) Grundwert hinnehmen muss..

Piffan
2002-03-08, 17:25:29
Originally posted by Quasar


Relativ gesehen vielleicht, aber selbst wenn eine GF4 prozentual mehr bei zugeschaltetem AF verlieren sollte, kann das, je nach neuem Treiber, absolut durchaus schneller sein, als der geringe prozentuale Verlust den ATi von ihrem (niedrigeren) Grundwert hinnehmen muss..

Genau, auch Ati kann nicht aus Sch**** Gold machen. ;-)

Haarmann
2002-03-08, 17:25:55
Es sei denn, es liegt wirklich an der neuen HW

Denn es ist mir noch immer Schleierhaft, wie genau der Treiber den Anisotropen Filter verlangsamen kann...

aths
2002-03-08, 18:07:28
Quasar,

wenn du die beiden Verfahren kennst, würdest du sowas auch nicht schreiben. Einfach gesagt erfordern höhere RIP-Mapping-Stufen lediglich mehr Speicher für zusätzliche Maps, während höhere AF-Stufen auf der GeForce deutlich mehr Lese-Vorgänge benötigen.

Haarmann,

weil ich hierzu keine einleuchtende Erklärung anbieten kann, spreche ich bei meiner Theorie ausdrücklich von solcher.

ow
2002-03-08, 18:29:43
Originally posted by Haarmann
Es sei denn, es liegt wirklich an der neuen HW

Denn es ist mir noch immer Schleierhaft, wie genau der Treiber den Anisotropen Filter verlangsamen kann...


Du könntest geanusogut fragen, wieso denn manche Treiber schneller sind als andere.;)

Möglichkeiten gibt´s da viele.
Brauchst nur dem Treiber zu sagen, er soll bei aktivem AF jedes zweite Pixel zweimal berechnen.

aths
2002-03-08, 18:45:58
... oder vielleicht reicht es, die neue Cache-Architektur nicht ausnutzen (diese Idee ist nicht von mir, ich glaube Quasar äußerte sie mal)...

Haarmann
2002-03-08, 18:51:03
Tja ich kann mir nur irgendwie denn Sinn dahinter nicht vorstellen...

Es bencht ja eh kein Aas zZ mit aniso

Quasar
2002-03-08, 18:55:30
Originally posted by aths
Quasar,

wenn du die beiden Verfahren kennst, würdest du sowas auch nicht schreiben. Einfach gesagt erfordern höhere RIP-Mapping-Stufen lediglich mehr Speicher für zusätzliche Maps, während höhere AF-Stufen auf der GeForce deutlich mehr Lese-Vorgänge benötigen.


Ich habe zwar nicht das technische Verständnis deiner Wenigkeit (ernst gemeint!), aber in diesem Falle denke ich, macht die Methode nicht den Unterschied.
Zur Erinnerung, du schriebst:
"Richthofen, gegen das schnelle RIP-Mapping der Radeon kommt nV nie an. Der Leistungs-Abstand wird immer zugunsten der Radeon ausfallen."

Darauf erwiderte ich:
"Relativ gesehen vielleicht, aber selbst wenn eine GF4 prozentual mehr bei zugeschaltetem AF verlieren sollte, kann das, je nach neuem Treiber, absolut durchaus schneller sein, als der geringe prozentuale Verlust den ATi von ihrem (niedrigeren) Grundwert hinnehmen muss.."

Worauf ich hinaus will, ist folgendes:
Wenn ATi bsw. 200fps schafft und durch AF in gegebener Qualität sagen wir 10% verliert, bleiben noch 180fps übrig. nV schafft, sagen wir, 275fps und verliert 30% durch AF, bleiben noch 192fps übrig.

Der relative Abstand wird der Radeon noch lange zum Ruhme gereichen (oder auch nicht, only time will tell..), aber wenn ausreichend Leistung vorhanden ist, sind auch 30% Verlust kein Problem.....übrigens analog deiner Argumentation was Smoothvision und Serious Sam angeht ;) .

BTW, die wilde Theorie mit dem AF und den Caches stammte von mir ;)

aths
2002-03-08, 20:17:07
Quasar,

ok insofern habe ich dich missverstanden. Doch ich glaube nicht, dass es so weit kommen wird. (Die neue GF4 Ti in 0.13µm, die uns wohl im Herbst erwartet, mag das vielleicht schaffen. Bei den aktuellen Modellen sehe ich in höheren AF-Stufen keine Chance.)

Richthofen
2002-03-08, 22:37:40
wo is das Problem?
Solange sie in Kombination AF und FSAA vor ATI bleiben passts doch.
Dann bieten sie bei spielbarer Performance die bessere Qualität, da du ja bei der Radeon wegen des ehrblich niedrigerem Grundwertes deutliche Abstriche machen müsstest.
Und in Kombination ist der Unterschied ziemlich deutlich.

MadManniMan
2002-03-09, 00:24:08
@richthofen:

so gesehen richtig.

aber vergiß eins nicht, ne ti4400 kriegste ab 800 tacken, ne r85 ab 500...

von den 300 kann ich gut 3 mal tanken oder den urlaub mit meiner kleinen mal eben um ne woche verlängern!

Richthofen
2002-03-09, 00:26:58
der preisunterschied sagt doch nix anderes aus, als das es sich Nvidia leisten kann.
Hab dir doch schonmal gesagt das das ATIs Problem ist.
Es ist halt niemand bereit für ATI das selbe wie für Nvidia zu zahlen.
Ich auch nicht. Ich würde auch nicht für EPOX und CO soviel zahlen wie für Asus.

Haarmann
2002-03-09, 00:47:49
Richthofen

Es gibt auch Leute wie mich, deren einziger Grund nochmals NVidia zu kaufen der Preis von 25€ je Karte war...
Und mit jeder neuen NV Karte, die auf gewissen Boards und Konfigs Ärger macht, werden diese Leute mehr werden.
Und weisste was NVs grösstes Problem ist? Wenn die mal ihre Krone loswerden, sind se platt... Keine Features, kein guter Preis und keine Krone mehr - ich geb ihnen dann noch 1 Jahr und se sind futsch, denn ihre guten Zahlen stimmten ja wohl hinten und vorne nicht. Daher werden die wohl auch rel wenig Reserven haben.
Es gibt ausser Speed keinen Grund auch nur an NV Karten zu denken. Und genau daran werdens zugrunde gehen.

MadManniMan
2002-03-09, 00:50:16
bitte was ist an ati so schlecht, wenn sie det beste value bieten und nem 12.klässler wie mir im mom die einzige alternative bieten?

aths
2002-03-09, 03:06:27
MadManniMan,

ich würde mich von Richthofen nicht zu sehr beeindrucken lassen.

Xmas
2002-03-09, 04:44:52
Originally posted by Haarmann
Und weisste was NVs grösstes Problem ist? Wenn die mal ihre Krone loswerden, sind se platt... Keine Features, kein guter Preis und keine Krone mehr - ich geb ihnen dann noch 1 Jahr und se sind futsch, denn ihre guten Zahlen stimmten ja wohl hinten und vorne nicht. Daher werden die wohl auch rel wenig Reserven haben.
Es gibt ausser Speed keinen Grund auch nur an NV Karten zu denken. Und genau daran werdens zugrunde gehen.
Glaubst du das wirklich, was du da schreibst?

Haarmann
2002-03-09, 10:19:36
Xmas
Oh doch - denn wer seine Bilanzen fälschen muss, der is meisst schlecht dran danach. Wer seine Bilnazen aufpolieren muss, damit die Manager mehr Geld verdienen, der macht keine Rücklagen. Solange aber der Karren läuft, merkts ja keiner. Wenn Du nun keine Reserven hast, dann ist ziemlich schnell Ebbe. 2 Quartale mit Verlust könnens dann schon gewesen sein. NV ist nicht mehr das 10 Mann Unternehemen - da kostet alleine der Betrieb viel Geld.
Dann is der Traum der 18-jährige Aktionäre wohl dann ein Alptraum ;)

HOT
2002-03-09, 10:23:38
Das NV zugrunde geht, kann ich mir auch nicht vorstellen. Das NV irgendwann dieses oder nächstes Jahr die Märktherrschaft verliert, halte ich allerdings vor sehr wahrscheinlich.

MadManniMan
2002-03-10, 00:17:51
@aths:

ich wollte versuchen, mal mit dem richthöfle zumindest annährend irgendwas gemein zu haben, also argumentativ.

ich habs aufgegeben *resignier*

StefanV
2002-03-10, 01:37:54
Originally posted by HOT
Das NV zugrunde geht, kann ich mir auch nicht vorstellen. Das NV irgendwann dieses oder nächstes Jahr die Märktherrschaft verliert, halte ich allerdings vor sehr wahrscheinlich.
Und sobald sie die Herrschafft verloren haben, dann sind sie auch schon so gut wie am Ende.
ATI und MGA bieten halt mehr als NV, wenn man NICHT nur Wert auf die Game Performance legt...
NV war/ist/wird nur für die Hardcore Gamer interessant (sein).

Das NV unproblematisch ist, ist auch nur ein Märchen ;)

Xmas
2002-03-10, 02:19:44
Originally posted by Stefan Payne
ATI und MGA bieten halt mehr als NV, wenn man NICHT nur Wert auf die Game Performance legt...
NV war/ist/wird nur für die Hardcore Gamer interessant (sein).
Sag mal Stefan wo lebst du denn??? Den Marktanteil von NVidia (und mit welchen Chips dieser erreicht wird) weißt du aber?

StefanV
2002-03-10, 03:07:16
Originally posted by Xmas

Sag mal Stefan wo lebst du denn??? Den Marktanteil von NVidia (und mit welchen Chips dieser erreicht wird) weißt du aber?

AFAIK bei um die 70%, wieso??

Allerdings weiß ich nicht, welche Bereiche in diese Rechnung mit einfließen und von Wem sie gemacht wurde usw.

Könnte mir vorstellen, daß der Marktanteil je nach 'Art der Darstellung' zwischen 40% und 80% liegt.

Kommt halt darauf an, was man wie zussammenrechnet ;-)

PS: Bei den einen Rechnungen kann Matrox einen Marktanteil von 20-30% haben, bei der anderen 0,2%, kommt halt darauf an, was einfließt ;)

Das das Ganze mit 'Low Cost' Chips erreicht wird dürfte wohl klar sein ;)

Xmas
2002-03-10, 03:29:32
Und wie passt das dann zu "NV war/ist/wird nur für die Hardcore Gamer interessant (sein)." ?

aths
2002-03-10, 05:10:33
MadManniMan,

ich würde nicht sagen, dass Richthofen nicht argumentiert. Allerdings, wie soll ich sagen... von seinem Standpunkt aus mag er öfters recht haben.

StefanV
2002-03-10, 13:41:07
Originally posted by Xmas
Und wie passt das dann zu "NV war/ist/wird nur für die Hardcore Gamer interessant (sein)." ?

Was können NV Chips, außer in Spielen schnell sein??

Der TV-Out ist vom Treiber mies Unterstützt (den besten TV Out hat die Hercules Prophet 4800, ev MGA ab G400, denn die könnn ein RGB Signal ausgeben)

Bei DVD Legt seit Jahren ATI vor, ohne das irgendwer was entgegensetzt (schade eigentlich).

ow
2002-03-10, 13:48:16
Originally posted by Stefan Payne

Was können NV Chips, außer in Spielen schnell sein??



Seit wann ist ein TNT2M64 oder TNT Vanta denn schnell?
Stell dir vor, die NV Chips können auch ein reines 2D Bild ausgeben.
Was der einzige Sinn für einen Arbeitsrechner ist.



Der TV-Out ist vom Treiber mies Unterstützt (den besten TV Out hat die Hercules Prophet 4800, ev MGA ab G400, denn die könnn ein RGB Signal ausgeben)

Bei DVD Legt seit Jahren ATI vor, ohne das irgendwer was entgegensetzt (schade eigentlich).


:lol:

Die Tv out Unterstützung ist sehr gut. Habe da absolut keine Problem damit.
Und DVD läuft auf meiner MX einwandfrei, besser geht´s mit ATis auch nicht.

MadManniMan
2002-03-10, 13:58:14
aths,

naja, argumentieren tut er schon und seine eigenwillige art, das zu tun, bringt doch ein gewisses maß individualität ins forum. wogegen nun wirklich nichts zu sagen ist.

ich warte nur auf den tag, an dem er und ich in irgendeinen grakaforum mal einer meinung sind(außerhalb geht das durchaus)... ;)

HOT
2002-03-10, 14:13:44
NVidia ist genauso ein Hersteller wie ATI und PowerVR auch. irgendwann verlieren sie die Marktherrschaft wieder und jemand anders übernimmt sie. Das ist normal in den Geschäft und wiederholt sich laufend.

aths
2002-03-10, 14:17:34
ow,

mit ATI-Karten ist die DVD-Qualität garantiert besser, wenn du mal unvoreingenommen vergleichst. Der TV-Out einer GF2 MX wird von jeder Voodoo3 in Dingen Problemlosigkeit und Qualität geschlagen.

Von der 2D-Qualität einer Durschnitts-TNT2 oder GF2MX ganz zu schweigen - auch hier sind ATI-Karten oder STB-Voodoos besser.

Andre
2002-03-10, 16:16:21
Originally posted by aths
ow,

mit ATI-Karten ist die DVD-Qualität garantiert besser, wenn du mal unvoreingenommen vergleichst. Der TV-Out einer GF2 MX wird von jeder Voodoo3 in Dingen Problemlosigkeit und Qualität geschlagen.

Von der 2D-Qualität einer Durschnitts-TNT2 oder GF2MX ganz zu schweigen - auch hier sind ATI-Karten oder STB-Voodoos besser.

Komisch nur, dass die c´t da was anderes festgestellt hat - wie auch andere Online-Mags.
Aber hey, NV und gleiche Qualität, dass würde ja Dein Weltbild zerstören, nicht wahr?

Quasar
2002-03-10, 16:20:16
Dafür gab's doch die netten Close-Ups von dem Motorrad bei vielen Radeon8500-Tests.

Nur bezieht sich das Adaptive De-Interlacing auf TV-Inhalte (und DVDs, die im TV-Format aufgezeichnet sind), nicht auf Kinofilme.

MC und iDCT sind in der Tata ausschließlich CPU-schonende Features, die nichts mit der BQ zu tun haben, wenn genügend CPU-Power vorhanden ist, um eine ausreichend schnelle Decodierung und Dekomprimierung zu ermöglichen.

Das muss natürlich jeweils vom Soft-DVD-Player unterstützt werden.

Was Tv-out angeht, full ack, da muss nV noch nacharbeiten...

StefanV
2002-03-10, 17:47:06
Originally posted by ow
Die Tv out Unterstützung ist sehr gut. Habe da absolut keine Problem damit.
Und DVD läuft auf meiner MX einwandfrei, besser geht´s mit ATis auch nicht.

WTF ist Overscan??

ow
2002-03-10, 19:17:46
Originally posted by HOT
NVidia ist genauso ein Hersteller wie ATI und PowerVR auch. irgendwann verlieren sie die Marktherrschaft wieder und jemand anders übernimmt sie. Das ist normal in den Geschäft und wiederholt sich laufend.


Es stellt sich nur die Frage, WER denn WANN NV die Marktführerschaft abnimmt. Im Moment ist da weit und breit nichts zu sehen.

(ps) OK, wie schnell´s gehen kann hat man an 3Dfx gesehen. Ich denke aber nicht dass NV dieselben Fehler macht.

ow
2002-03-10, 19:18:58
Originally posted by aths
ow,

mit ATI-Karten ist die DVD-Qualität garantiert besser, wenn du mal unvoreingenommen vergleichst. Der TV-Out einer GF2 MX wird von jeder Voodoo3 in Dingen Problemlosigkeit und Qualität geschlagen.

Von der 2D-Qualität einer Durschnitts-TNT2 oder GF2MX ganz zu schweigen - auch hier sind ATI-Karten oder STB-Voodoos besser.


Einfach lächerlich, deine Aussage. In ALLEN Punkten.

ow
2002-03-10, 19:22:02
Originally posted by Quasar
Dafür gab's doch die netten Close-Ups von dem Motorrad bei vielen Radeon8500-Tests.

Nur bezieht sich das Adaptive De-Interlacing auf TV-Inhalte (und DVDs, die im TV-Format aufgezeichnet sind), nicht auf Kinofilme.

MC und iDCT sind in der Tata ausschließlich CPU-schonende Features, die nichts mit der BQ zu tun haben, wenn genügend CPU-Power vorhanden ist, um eine ausreichend schnelle Decodierung und Dekomprimierung zu ermöglichen.

Das muss natürlich jeweils vom Soft-DVD-Player unterstützt werden.

Was Tv-out angeht, full ack, da muss nV noch nacharbeiten...


Was fehlt denn dem TV out bei NV?

Meinst du fehlendes Overscan?
Kann ich verschmerzen, denn die knapp 2cm schwarzer Bildrahmen stören absolut nicht.
Ausserdem gibt´s ja noch TvTool.

Piffan
2002-03-10, 20:26:26
Ist zwar offtopic, aber was mir beim TV- Out meiner GF2- Ultra so richtig auf den Sack geht: Wenn ich auf den Fernsehr schalte, dann muß ich die Einstellungen über TV tätigen. Macht Spaß, wenn der Fernsehr gut 5m hinter dem Rücken steht. Schade eigentlich, daß die Ultra keinen Dual- Ausgang bietet....

Quasar
2002-03-10, 20:34:07
...was mit GeForce2MX und allem ab GeForce4 behoben wäre...

@ow:
Ja, Overscan nervt. Ich fänd's besser, wenn man nicht auf ein kostenpflichtiges externes Tool zurückgreifen müsste.

Außerdem hab ich den Eindruck, daß das Bild etwas unscharf ist.

ow
2002-03-10, 21:00:16
Originally posted by Quasar
...was mit GeForce2MX und allem ab GeForce4 behoben wäre...

@ow:
Ja, Overscan nervt. Ich fänd's besser, wenn man nicht auf ein kostenpflichtiges externes Tool zurückgreifen müsste.



Da hast du schon recht. Ich war aber durchaus angenehm überrascht, wie schmal der schwarze non-overscan Rahmen auf minem TV ist.



Außerdem hab ich den Eindruck, daß das Bild etwas unscharf ist.

Welcher TV Encoder, welche Karte?

Birdman
2002-03-10, 21:11:00
na ja, NV sollter zuallererste mal an der Signalqualität ihrer karten, bzw. dem kartenlayout schrauben.
nu soll mir keiner kommen mit "Zufall" oder "Ausnahmefall" denn ich habe bisher so ziemlich jede NV Karte gekauft die man haben kann, von herstellern wie Asus, Creative und Elsa.
Und ein jede hatte ein ganz klar schlechtere Signalqualität als (m)eine alte voodoo3, eine G400 oder auch die r8500.
einzig und alleine der nforce auf dem MSI Board, war wirklich top in dieser beziehung und dessen quality ist imho auch besser als die von allen obengenannten.

TVout kann ich nix viel sagen, aber bei meiner vooodo3 3000 konnte ich den nie in betrieb nehmen...ging ned, entweder recher abgestürzt oder einfasch schwarzes Bild aufem TV oder was weiss ich auch immer.
und seither hab ich den mist nie mehr probiert, Monitor rulzt :D

Andre
2002-03-10, 21:16:53
Originally posted by Birdman
na ja, NV sollter zuallererste mal an der Signalqualität ihrer karten, bzw. dem kartenlayout schrauben.
nu soll mir keiner kommen mit "Zufall" oder "Ausnahmefall" denn ich habe bisher so ziemlich jede NV Karte gekauft die man haben kann, von herstellern wie Asus, Creative und Elsa.

Auch wieder komisch, dass tecchannel KEINEN Unterschied zwischen einer Geforce 4/Radeon/Kyro 2 sehen konnte - die habens sogear technisch ausgemessen.
Aber was manche hier so sehen können, schon klasse ;)

Unregistered
2002-03-10, 22:10:21
Originally posted by Andre

...die habens sogear technisch ausgemessen.


lol

skampi

Unregistered
2002-03-10, 22:19:48
Originally posted by Andre


Auch wieder komisch, dass tecchannel KEINEN Unterschied zwischen einer Geforce 4/Radeon/Kyro 2 sehen konnte - die habens sogear technisch ausgemessen.
Aber was manche hier so sehen können, schon klasse ;)


Du hast aber schon gemerkt, daß sich die von Dir zitierte c't sowie der tecchannel widersprechen.

skampi

aths
2002-03-10, 23:26:56
ow,

eine einfache Frage: Hast du je DVD auf einer Radeon (und gutem Monitor) gesehen? Also live?

Quasar
2002-03-10, 23:31:19
@ow:

Zählt eh nicht, da ich den TV-out von der einen Karte über Composite an meinem Video angeschlossen hatte und den dann an den Eingang meiner TV-Karte im anderen Rechner. Ich wollte nur mal sehen, ob der überhaupt geht...

Andre
2002-03-11, 00:25:48
Originally posted by Unregistered



Du hast aber schon gemerkt, daß sich die von Dir zitierte c't sowie der tecchannel widersprechen.

skampi

Err, der Hinweis auf die c´t bezog sich auf die DVD-Quali, der Hinweis tecchannel auf die Signalqualität.
Wo ist das Problem?

Andre
2002-03-11, 00:26:26
Originally posted by Unregistered


lol

skampi

Was lol?
Ich kann ja wohl einen Ausgangspegel messen oder etwa nicht?

ow
2002-03-11, 09:08:39
Originally posted by Andre


Was lol?
Ich kann ja wohl einen Ausgangspegel messen oder etwas nicht?


Klar kann man das.
Es sind hier nur einige zu dumm, um das zu kapieren.

Unregistered
2002-03-11, 09:45:14
Originally posted by Andre


Was lol?
Ich kann ja wohl einen Ausgangspegel messen oder etwa nicht?

Das stell ich auch nicht in Frage. Allerdings scheint es bei dem offenkundig fehlenden Fachwissen wohl nicht jedem möglich, solche Messungen zu interpretieren.

Aber vielleicht sollten sich Du und ow zusammenwerfen und gemeinsame Postings veröffentlichen, dann kommt eventuell auch mal was Sinnvolles raus.

skampi

Haarmann
2002-03-11, 09:50:40
Andre

Weisste, die SQ an der Graka zu messen ist dummerweise schon vom Konzept her falsch.
Die SQ musst NACH dem VGA Kabel messen nicht VOR. Der Moni hängt nämlich am Kabel dran ;).
Aber das is ja nur Teil 1... Die einzig gute NV Karte dort is ne ASUS 7100 - dummerweise nur eine der 2 7100er, denn die andere ist grottenschlecht. Daher never buy NV based HW for a clear picture if u cannot mod the card urself. Die qualität der Karten schwankt zu stark.

Exxtreme
2002-03-11, 10:19:57
@ Haarmann
Wobei man sagen muss, daß die Hersteller seit der GF3Tixxx gut nachgebessert haben. Ein Kumpel von mir hat eine GF2GTS von ASUS und man muss sagen, daß die BQ ab 1024'er Auflösung schlicht unbrauchbar ist. Ein andere Bekannter hat sich auch 'ne ASUS geholt, aber diesmal eine GF3Ti200. Und da ist die BQ um Welten besser.
Die Gleichung nVidia-GraKa = schlechte SQ stimmt so nicht. Deswegen empfehle ich meinen Bekannten, die sollen sich lieber Marken-GraKas kaufen, auch wenn sie 50 EUR mehr kosten.

Gruß
Alex

ow
2002-03-11, 10:31:00
Originally posted by Haarmann
Andre

Weisste, die SQ an der Graka zu messen ist dummerweise schon vom Konzept her falsch.
Die SQ musst NACH dem VGA Kabel messen nicht VOR. Der Moni hängt nämlich am Kabel dran ;).



Klar, dann kan man die teils beschissenen VGA-Kabel, die das Signal verfaelschen auch noch NV anlasten, gelle?
So ein Unfug!
Die Signalqualitaet der Graka wird am VGA Ausgang gemessen und sonst niergendwo.

Andre
2002-03-11, 11:24:28
skampi,

"Das stell ich auch nicht in Frage. Allerdings scheint es bei dem offenkundig fehlenden Fachwissen wohl nicht jedem möglich, solche Messungen zu interpretieren."

Was gibts da großartig zu interpretieren?

"Aber vielleicht sollten sich Du und ow zusammenwerfen und gemeinsame Postings veröffentlichen, dann kommt eventuell auch mal was Sinnvolles raus."

Ui, jetzt hast Du es mir gegeben - ich bin beeindruckt.
Aber schön, dass es Menschen gibt, die meinen Tag verschönern wollen - indem sie sich richtig schön lächerlich machen und unter die Gürtellinie gehen.
Aber stimmt, Herr Durchblick hat gesprochen - Amen.

ow
2002-03-11, 12:14:11
Mach's wie ich Andre:

Das inkompetente Gelaber von skampi einfach ignorieren.

Birdman
2002-03-11, 19:34:21
ich denke ow und andre hatten bisher selber nie das vergnügen, ne radeon und eine durschnitts gf karte bzgl. bildqualität zu testen, sonst wüssten sie was die meisten hier meinen.
was die ct bei ihren karten (die xtra vom hersteller an die ct geschickt wurden) messen muss noch lange nicht das sein, was wir enduser in den Läde kaufen.

ich selber halte ja auch ned allzuviel von der Ati, aber die 2d signal/bildqualität und das termische verhalten sind deutlich besser als bei den meisten NV karten.
wogegen ich beim DVD playback nix gemerkt habe von einer überlegenheit der Ati lösung....aber diese feinen nuancen sind eh fast nur subjektives empfinden...je nach dem findet man das eine besser oder das andre.

ow
2002-03-11, 20:54:06
Originally posted by Birdman
[B]
was die ct bei ihren karten (die xtra vom hersteller an die ct geschickt wurden) messen muss noch lange nicht das sein, was wir enduser in den Läde kaufen.



Die c´t kauft ihre Karten ganz normal im Laden, AUSSER es handelt sich um noch nicht erhältliche Vorserienboards, was dann entsprechend kenntlich gemacht wird.

Thowe
2002-03-11, 21:22:51
Kinders, ich dachte die Diskussion um Signalqualität wäre langsam durch.

Wie und Warum stand hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=4731)

Es gab sicher einige GF2GTS Karten oder auch GF1 Karten die eine sehr schlechte Signalqualität hatten. Allerdings sind mir noch keine GF3 Karten mit schlechter Signalqualität unter die Finger gekommen. Wer sich eine Timbuktu GF3TI666 holt ist dann halt selbst schuld, wenns hapert. Aber das kann in Zukunft auch bei ATI basierten Karten passieren, gerade wo jetzt einige kommen die nicht auf dem ATI Design basieren. Auch bei den Kyro-Karten, die ansonsten eine excellete Signalqualität bieten, gab es eine Serie von Karten von PorwerColor (Kyro1 Rev.2) die sehr schlecht waren.

Richthofen
2002-03-11, 22:04:39
mein Reden.

Alles eine Sache des Herstellers der Graka.
Bei Asus hatte ich noch keine Probs.
Meine Pixelview GF2Ti ist erstaunlicher Weise auch nicht wirklich schlecht. Hatte eigentlich bei dem jämmerlichen Preis damit gerechnet, das gespaart wird irgendwo.

Birdman
2002-03-11, 22:30:24
na ja, ich kann einfach meine radeon8500 gegen eine Asus deluxe GF3 (defekt da chip abgerissen) und eine Creativelabs ti500 (wird von MSI gefertigt, wie die karten von so manch anderem "hersteller" auch...z.B. Elsa) vergleichen, und da hat die radeon die Nase vorn.
nicht dass die beiden gf3 karten unbrauchbar wäre bei hohen auflösungen und hohen refreshraten, aber differenzen sind ganz klar auszumachen.

Haarmann
2002-03-12, 09:55:22
Es geht um die Kostanz der Qualität. Es gibt NV basierende Karten die ne gute SQ haben, bloss kommts mir vor wie Lotto. Eure gelobten ASUS kommen aus China und nicht mehr Taiwan.
Du kannst Karte mit toller SQ haben und die Seriennummer 1 höher hat ne SQ wo Du an Deinem Monitor zweifelst.
Daher bringt es nix nur eine KArte je Hersteller zu testen, mann muss minimal 3 nehmen und die Schwankunden mit vermessen.

P.S. OW eh hätten alle Karten das gleich miese Kabel ;)

ow
2002-03-12, 10:08:23
Originally posted by Haarmann


P.S. OW eh hätten alle Karten das gleich miese Kabel ;)


Klar, aber dann musst das das Kabel zunaechst seperat durchmessen.

In der HF-Technik ist ausserdem ein korrekter Leitungsabschluss erforderlich, um Reflexionen auf dem Kabel zu daempfen/eliminieren.

Du musst also die elektrischen Parameter des VGA Ausgangs der Graka bestimmen, dann die Leistungsparameter des Monitors inkl. dessen elektr. Abschluss und dann kannst du sogar eine theoretische Aussage ueber die Signalqualitaet an der HF-Endstufe des Monitors ('Bildroehren-Eingang') treffen.

Da Vidoe-Signale aber genormt sind (Pegel, Abschluss,..) kann man mit Norm-Abschluss (75 Ohm) auch direkt an der VGA-Buchse messen und eine Aussage ueber die zu erwartende BQ treffen.

Wenn das Signal hier schon stark verformt ist, gibt's nur Bildmatsch auf dem Monitor.




/edit:

auch Audio-Verstaerker werden ueblicherweise an den Lautsprecher ausgaengen gemessen, aber ohne Anschluss von Kabeln und Lautsprechern. Ist hier vielleicht einleuchtender.

Haarmann
2002-03-12, 11:23:53
Naja ich würde mal nen BNC Kabel von nem Eizo Monitor verwenden...
Das sollte als Hi-End durchgehen. Dazu würde ich mir gleich mal das Bild auf nem Eizo auch betrachten.
Eben ein Praxisnaher Test und nicht irgendwelche Werte, deren Auswirkungen kein Mensch so genau abschätzen kann auf einem bestimmten Monitor. Es könnte ja sein, dass die Monitorhersteller sich z.T. den miesen SQs anpassen?

Ich weiss, was Du mir sagen willst, aber ich halte nichts von diesen Theorie Tests - es bringt mir nix, wenn ne ideal Boxe, die man ned kaufen kann, oder ein perfekter Monitor, den ich aber auch nicht kaufen kann, toll mit aussähen... Es gibt bei mir ne Grundregel, es zählen nur Sachen, die ich erwerben kann.

Ich sage das nicht ganz ohne Überlegung. Vor langer Zeit hatten wir mal 2 Monitore. Nen LeastCost Viewpoint und nen Eizo Trinitron Schirm. Mit ner Matrox sah der Eizo besser aus, aber seltsamerweise rulte die S3 aufm Viewpoint mehr, und glaub mir, die Karte war mies. S3 Virge eben - Hesteller irgendwer in Asien, Treiber S3 Referenz ohne alles.

Andre
2002-03-12, 11:38:24
Originally posted by Haarmann
Eben ein Praxisnaher Test und nicht irgendwelche Werte, deren Auswirkungen kein

Grundsätzlich stimme ich zu, aber das Problem ist aus meiner Sicht, dass eine Bewertung der SQ rein am Monitorbild kaum möglich ist - stelle Dir vor der Tester hat 5 Dioptrin.
Ich will damit sagen, dass das echt super-subjektiv ist und wohl kaum als allgemeingültig gelten kann - und das Messen der SQ am Anschluss ist wenigstens technisch nachweisbar und vor allem beweisbar.
Was machst Du, wenn Du einen leicht defekten Monitor erwischst?
Wird am Anschluss gemessen, bleibt der Wert gleich, aufm Monitor siehts aber schlechter aus, als es ist.

ow
2002-03-12, 11:54:21
@Haarmann

Es ist in der Tat moeglich, dass ein ausserhalb der elektrischen Specs liegender Monitor mit einer ausserhalb der Norm liegender Graka ein besseres Bild liefert, als wenn nur eine der beiden Komponenten ausserhalb der Norm liegt.


Aber wie will man dann ueberhaupt etwas messen und Aussagen ueber die Qualitaet der Komponenten treffen?

-> dafuer gibt es eben Normen.

Die c't benutzt fuer Monitortests einen entsprechenden Testbildgenerator, der exakt die Norm fuer Videosignale einhaelt.

Ebenso wird die Graka-Signalqualitaet bei genormtem Abschluss ermittelt (pratisch ein simulierter idealer Monitor).

Wenn sowohl Graka als auch Monitor innerhalb der Norm (und ihrer Toleranzen liegen), dann MUSS die BQ gut sein.

Bei Fehlanpassung jeglicher Art kann das Bild nur schlechter werden.


Wenn in Reviews die BQ beurteil wird, dann muss man strenggenommen etwa ein Dutzend Grakas (Fertigungsstrueung) mit ebenso einem Dutzend verschiedener Monitore kombinieren und dann daraus eben "mitteln".
Aber von einer exakten Messmethode ist das weit entfernt.

aths
2002-03-12, 13:29:41
Originally posted by aths
ow,

eine einfache Frage: Hast du je DVD auf einer Radeon (und gutem Monitor) gesehen? Also live?

ow
2002-03-12, 13:51:02
Originally posted by aths



Nein, aber tut's eine Rage128Pro zur Not auch?
Oder was kann der Radeon mehr ausser MC und iDCT?

Und erklaer mir doch mal, wieso bei reiner Software Dekodierung die Bilder unterschiedlich sein sollten?

Oder mal so gesagt:

Der bei meiner GF2MX beiliegende Player (OEM WinDVD, nennt sich WinFastDVD) kann die MC des GF2MX nicht nutzen, gibt nur gruen/rosa Streifen bei der Ausgabe aber kein Bild (eigentlich eine Frechheit;)).

Also nutze ich reine SW Dekodierung fuer Video und uebrigens auch Audio (VIA AC97).
Bild und Tonqualitaet sind hierbei einwandfrei, was sollte ein Ati da besser machen?

Und einen XP1700 juckt die SW DVD Dekodierung nicht wirklich, die CPU Last liegt unter 30%.

Also allenfalls fuer alte, schwaechere Systeme wie einen K6-2 oder P2 kannn die ATi einen Vorteil verbuchen, da sie DVD Wiedergabe ueberhaupt erst moeglich macht durch ihre HW Funktionen.

Aber wer steckt schon ein R8k5 oder R7k5 in einen K6-2?

In heutigen Mittelklasse-Systemen werkeln CPUs ab 700Mhz.
Der DVD-Vorteil der ATi ist also dahin (wie uebrigens auch der Vorteil der HW T&L, hast ja meine Benches gesehen;))

aths
2002-03-12, 14:32:38
ow, entscheidend ist die Implementierung des Overlays.

AlfredENeumann
2002-03-12, 22:29:49
Originally posted by ow

Nein, aber tut's eine Rage128Pro zur Not auch?
Oder was kann der Radeon mehr ausser MC und iDCT?

Und erklaer mir doch mal, wieso bei reiner Software Dekodierung die Bilder unterschiedlich sein sollten?

Oder mal so gesagt:

Der bei meiner GF2MX beiliegende Player (OEM WinDVD, nennt sich WinFastDVD) kann die MC des GF2MX nicht nutzen, gibt nur gruen/rosa Streifen bei der Ausgabe aber kein Bild (eigentlich eine Frechheit;)).

Also nutze ich reine SW Dekodierung fuer Video und uebrigens auch Audio (VIA AC97).
Bild und Tonqualitaet sind hierbei einwandfrei, was sollte ein Ati da besser machen?

Und einen XP1700 juckt die SW DVD Dekodierung nicht wirklich, die CPU Last liegt unter 30%.

Also allenfalls fuer alte, schwaechere Systeme wie einen K6-2 oder P2 kannn die ATi einen Vorteil verbuchen, da sie DVD Wiedergabe ueberhaupt erst moeglich macht durch ihre HW Funktionen.

Aber wer steckt schon ein R8k5 oder R7k5 in einen K6-2?

In heutigen Mittelklasse-Systemen werkeln CPUs ab 700Mhz.
Der DVD-Vorteil der ATi ist also dahin (wie uebrigens auch der Vorteil der HW T&L, hast ja meine Benches gesehen;))

Von der geschwindigkeit redet hier auch keiner, sondern von der Bildqualität. Und zwar nicht bei einer reinen Softwarelösung was ja wiederum humbug ist.

Quasar
2002-03-12, 22:47:37
Das musst du mir bitte mal erklären AEN...."reinen Softwarelösung, was ja wiederum Humbug ist".

Meinst du jetzt, es gäbe keine reine Softwarelösung, oder meinst du, bei einer reinen Softwarelösung unterscheidet sich die BQ nicht oder meinst du, man kann nV-Software nicht mit ATi-Hardware vergleichen?

aths
2002-03-12, 23:10:28
Ich glaube er meint, dass HW-decoding bessere IQ als SW-decoding liefer kann. Ich glaube, dass sich die Spreu vom Weizen eher bei der HW-gefilterten Ausgabe trennt.

Quasar
2002-03-12, 23:13:52
Ich denke, prinzipiell kann Software-Dekoding ein gleich gutes Ergebnis liefern, es kostet halt nur mehr Rechenzeit. Die ist aber in Zeiten von 1,5GHz+ CPUs reichlich vorhanden.

P.S.: aths, hast Post

AlfredENeumann
2002-03-12, 23:19:14
Originally posted by Quasar
Ich denke, prinzipiell kann Software-Dekoding ein gleich gutes Ergebnis liefern, es kostet halt nur mehr Rechenzeit. Die ist aber in Zeiten von 1,5GHz+ CPUs reichlich vorhanden.


http://www.3dconcepts.de/chips/radeon/11.htm


es nutzt einem die beste Hardware nix, wenn die verwendete Software dies nicht unterstützt.

Quasar
2002-03-13, 01:04:28
Hab' ich dich richtig verstanden: ATi's Video Features sind alle nutzlos, weil es keine passende Software dafür gibt?

Unregistered
2002-03-13, 08:51:23
Originally posted by Quasar
Hab' ich dich richtig verstanden: ATi's Video Features sind alle nutzlos, weil es keine passende Software dafür gibt?

ATi liefert die Software mit.

Gruss Labberlippe

ow
2002-03-13, 09:38:14
Originally posted by Quasar
Ich denke, prinzipiell kann Software-Dekoding ein gleich gutes Ergebnis liefern, es kostet halt nur mehr Rechenzeit. Die ist aber in Zeiten von 1,5GHz+ CPUs reichlich vorhanden.

P.S.: aths, hast Post


Das Ergebnis von SW Dekoding ist immer besser als das HW-berechnete (sofern die Algorithmen was taugen).

Wenn ihr exakt gerendertes 3D sehen wollt, muesst ihr auch den SW Reference Rasterizer von MS bemuehen.
An dessen Qualitaet kommt kein HW-Beschleuniger heran.

ow
2002-03-13, 09:39:58
Originally posted by aths
ow, entscheidend ist die Implementierung des Overlays.


Hab keine Probleme mit dem Overlay. Der Madonion Video-Mark auch nicht.

ow
2002-03-13, 09:43:26
Originally posted by aths
Ich glaube er meint, dass HW-decoding bessere IQ als SW-decoding liefer kann. Ich glaube, dass sich die Spreu vom Weizen eher bei der HW-gefilterten Ausgabe trennt.


Ich glaube das nicht. s.o.


OT

Kann mir jemand eine DVDplayer SW nennen, die die MC des GF nutzt?
Wuerde da gerne mal mit/ohne HW-DVD die BQ vergleichen.

Haarmann
2002-03-13, 10:20:36
OW

Ich glaube mein Uralt WinDVD 1.285 nützt dies aus, wenn erst findet. Aber müsste es mal mit ner GF austesten. Bevor ich den ATI Player hatte, war dies mein Default Player.

ow
2002-03-13, 10:36:17
Originally posted by Haarmann
OW

Ich glaube mein Uralt WinDVD 1.285 nützt dies aus, wenn erst findet. Aber müsste es mal mit ner GF austesten. Bevor ich den ATI Player hatte, war dies mein Default Player.


Die Frage ist ob's auch funzt.

Der von Leadtek mit der Gf2MX gelieferte Player (nennt sich WinFast DVD, ist eine OEM von PowerDVD, Version 2.55) sollte auch die MC ab GF1 Chips unterstuetzen, aber ausser gruen/rosa Geflimmere gibt's nix auf dem Monitor zu sehen.

Ohne HW-Beschleunigung laeuft's wirklich sehr gut.

Quasar
2002-03-13, 11:54:31
Ich glaube PowerDVD ab Version 3.0 kommt damit klar...ob's viel hilft weiß ich allerdings nicht.

ow
2002-03-13, 12:39:49
Originally posted by Quasar
Ich glaube PowerDVD ab Version 3.0 kommt damit klar...ob's viel hilft weiß ich allerdings nicht.


Waere halt schoen, wenn ich meinen WinfastDVD irgendwie updaten koennte. Hab da aber bislang nicht gefunden.

AlfredENeumann
2002-03-13, 13:02:15
@ow

es ist tatsächlich ein dicker unterschied in der Qualität wenn du z.B. PowerDVd oder sonstiges nimmt und den ATI-DVD-Player. Darum habe ich auch mal den link von 3DConcept gepostet. Da sind 3 schöne kleine bilder drin, wo man den unterschied der u.a. gemeint ist sieht.

PS: Außderm habe ich noch keinen anderen Player gesehen der im Zoom eine so gute Bildqualität liefert.

Quasar
2002-03-13, 13:10:46
Bist du sicher, AEN, daß sich das Adaptive De-Interlacing nicht nur auf Dinge bezieht, die im Interlaced-Verfahren aufgezeichnet wurden, i.e. TV-Inhalte?

aths
2002-03-13, 13:31:26
ow, natürlich funzt dein Overlay. Nur kann dieses unterschiedlich implementiert sein, z.B. je nach dem, welche Scaling-Algorithmen verwendet wurden.

ow
2002-03-13, 13:38:06
Originally posted by aths
ow, natürlich funzt dein Overlay. Nur kann dieses unterschiedlich implementiert sein, z.B. je nach dem, welche Scaling-Algorithmen verwendet wurden.


Das ist mir sowas von egal, welche Algos da verwendet werden, solange es funzt.
Und was sollen die unterschiedlichen Algos deiner Meinung nach bringen?
Scalieren kann afaik jeder Chip das Overlay.

aths
2002-03-13, 14:55:56
Unterschiedliche Verfahren bringen unterschiedliche Qualität. Das Overlay beim Radeon ist nun einmal sehr gut.

ow
2002-03-13, 15:10:10
Kannst du die sehr gute Quali des Radeon Overlay irgendwie belegen?

Laesst sich das Benchen? Oder in Screenshots sehen?

Und wieso denkst du, das Overlay bei den Nv Chips schlechter sein soll?

Gibt's da Belege dafuer?

Behaupten laesst sich vieles...

aths
2002-03-13, 15:19:32
ow, theoretisch lassen sich sogar Screenshots machen :) Das wäre mir jetzt allerdings zu aufwändig.

Beim Downscaling liefert die GF3 z.B. deutlich (!) bessere Qualität als eine Voodoo. Beim Upscaling scheint ATI im Vorteil zu sein. Beleg: Weil die Qualität immer wieder so gelobt wird. Wenn du jetzt keine dunkle Verschwörung von Fanatikern heranziehen willst, so bleibt als Schluss, dass ATI eine sehr gute Overlay-Implementierung hat.

Die TV-Ausgabe via Overlay ist bei meinem Nachbarn (mit RadeonDDR) jedenfalls ausgezeichnet, subjektiv besser als bei mir.

AlfredENeumann
2002-03-13, 19:39:44
Originally posted by Quasar
Bist du sicher, AEN, daß sich das Adaptive De-Interlacing nicht nur auf Dinge bezieht, die im Interlaced-Verfahren aufgezeichnet wurden, i.e. TV-Inhalte?


Wenn ich das whitepaer von ATI richtig gedeutet habe funktioniert das bei allen viedeoquellen. Es ist ja nicht nur das adaptive de-interlacing, es sind noch ne menge andere dinge die im Chip gemacht werden. Ich empfehle dir, wenn du interesse hast das whitepaper mal zu lesen. Ist etwas über 600KB lang.

Quasar
2002-03-13, 20:18:41
Das tat ich, und dort stand auf Seite 13 sinngemäß folgendes:
Blablabla....das meiste Material ist immer noch im Interlaced-Verfahren aufgezeichnet (TV-content). Im Endeffekt muss interlaced'ter Inhalt in progressive Framefolgen konvertiert werden...blablabla.

Also bewirkt Adaptives De-Interlacing hauptsächlich Qualitätsvorteile bei interlaced content -> analoges Quellenmaterial.

edit:
Und genau das ist der Grund, warum mich die Radeon8500DV interessiert!

aths
2002-03-13, 20:32:53
Quasar hat natürlich recht, adaptives deinterlacing bringt nur Vorteile bei bewegten Bildern, die im Halbzeilenverfahren kodiert wurden. Hier bieten Radeon und GF4MX (leider nicht die Ti) dank adaptivem Deinterlacing optische Vorteile.

Deinterlacing kann natürlich auch in SW gemacht werden. Die HW-Methode liefert jedoch das bessere Bild, da die SW-Methode einige Vereinfachungen nutzt.

Ansonsten hängt die Qualität eben noch von den Scaling-Algorithmen des Overlays ab.