PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Scanout beim AA bei GFs


hmx
2004-09-20, 23:46:18
Laut Computerbase nutzt die 6800 Reihe (und auch die GFFX Reihe bei2xAA) bei
beim MSAA eine spezielle Technik des Downfilterings, den FB-Scanout. Damit spart man Bandbreite, verbraucht aber mehr VRAM. In einem Test von Computerbase wird ersichtlich, dass dies die 6800er bei 1600 und 4xAA doch einiges an Leistung Kostet, da ihr bei Triple Buffering dann der Bildspeicher ausgeht. Ist es möglich auch die "Standartmethode" des Scanouts zu nutzen oder können die 6800er nur den FB-Scanout?

q@w
2004-09-21, 09:48:48
Ich glaube nicht, daß für die Standardmethode spezielle Hardware nötig ist, ergo dürfte man nahezu jede Karte dazu "zwingen" können, die per default Filter@Scanout betreibt.

Dummerweise scheint nVidia das nicht zu interessieren, obwohl ich schon die eine oder andere Mail dahin geschickt habe, bei den 128MB-Modellen ab 1280x1024 und bei den 256ern ab 1600x1200 diesen Krams abzuschalten - sie wollen's anscheinend nicht einsehen.

hmx
2004-09-21, 16:34:48
Schade. Eigendlich sollte NV ja schon interressieren, dass ihre Karten dadurch einen Nachteil gegenüber Atis haben bei hohen Auflösungen und AA.
Vielleicht müsste man denen schreiben, dass sie so auch einige Benchmarks gegen ATi verlieren. :D

reunion
2004-09-21, 17:39:15
Ich glaube nicht, daß für die Standardmethode spezielle Hardware nötig ist, ergo dürfte man nahezu jede Karte dazu "zwingen" können, die per default Filter@Scanout betreibt.

Dummerweise scheint nVidia das nicht zu interessieren, obwohl ich schon die eine oder andere Mail dahin geschickt habe, bei den 128MB-Modellen ab 1280x1024 und bei den 256ern ab 1600x1200 diesen Krams abzuschalten - sie wollen's anscheinend nicht einsehen.

IMO wird NV schon wissen warum sie es nicht abschalten, offensichtlich bringt es mehr Vor- als Nachteile.

Quasar
2004-09-21, 18:24:50
Möglich - allerdings denke ich nicht, daß ein Einbruch von >70fps auf <15fps beim Sprung von 2xAA auf 4xAA (inkl. etwas AF) auch durch den höheren Bandbreitenverbrauch von "normalem" Buffer-Mischen entstünde.

Und ja, nVidia weiß darüber Bescheid, aber ändern wollen sie's wohl trotzdem nicht. Selbst schuld. :)