Archiv verlassen und diese Seite im Standarddesign anzeigen : Kolumne: Lasst die Hände von der anisotropen Filterung
Leonidas
2004-12-20, 22:54:59
Link:
http://www.3dcenter.org/artikel/2004/12-20.php
Ist eine interessante Perspektive, die ich bisher selber noch gar nicht wirklich beachtet habe, die aber etwas für sich hat.
PS: Kolumne stellen (dies sollte man eigentlich wissen), die Meinung des jeweiligen Verfassers dar und müssen nicht die Meinung des Seiten-Inhabers oder des gesamten Redaktions-Teams abbilden.
Pinoccio
2004-12-20, 23:08:03
Hm, schwere Kost. Nix für Praktiker, obwohl gerade für die geschrieben.
Morgen nochmal in Ruhe lesen!
mfg Sebastian
iam.cool
2004-12-20, 23:29:53
Gute Kolumne, zwar ein bischen "schwere Kost" für die Uhrzeit aber gut.
MFG
MadMan2k
2004-12-21, 00:32:24
nichts wirklich neues, aber es musste mal öffentlich angeprangert werden...
tombman
2004-12-21, 00:32:51
Naja, ich bin da anderer Meinung.
Klar, diese ständigen AF BQ Reduzierungen gehen mir auch gegen den Strich, aber zu behaupten 1600x1200 in der jetzigen Form sei Unsinn lehne ich strikt ab.
Die Zielgruppe für high end kArten HAT für gewöhnlich passende Monitore für 1600x1200, daher werden diese Leute SEHR wohl einen Unterschied sehen im Vergleich zu niedrigeren Auflösungen. Ja, auch bei heutigen games, die eigentlich zu grobe Texturen haben...
Ich bleibe daher bei dem Spruch: "Auflösung kann durch nix ersetzt werden" ;)
Die beste Mischung ist aber IMO immer noch eine höhere Auflösung PLUS AA/AF.
SuperHoschi
2004-12-21, 00:50:49
Obwohl ich gleich aufm Keyboard einschlafe,
hört/liest sich Aths Artikel schon sehr logisch.
Ich persönlich kenne nur einen Gamer der einen
größeren Moni hat als ein 17".
Der spielt mit seinem 21 Zöller doch glatt
Diablo2 in 640x480. Das sieht echt krass aus!
Naja, zurück zu Topic.
ATHS ICH STIMM DIR VOLL ZU.
Nieder mit den pössen Marketing Leuten, die
den armen Technikern vorschreiben wie und was
sie zu machen haben, nur damit die dummen
ComputerBild längeren Balken Kaufentscheidungs-
Kunden Ihre Grakas kaufen.
Gute Nacht
SuperHoschi
SuperHoschi
2004-12-21, 00:55:30
Naja, ich bin da anderer Meinung.
Die Zielgruppe für high end kArten HAT für gewöhnlich passende Monitore für 1600x1200,
Und was ist mit den Leuten die sich zur 500 Euro Graka einen 500 Euro
TFT kaufen, zwecks besserer Bildqualität?
Die sind nämlich auch auf 1280x1024 "beschränkt"
So jetzt aber wirklich ins Bett.
N8
SuperHoschi
Botcruscher
2004-12-21, 01:29:20
Und was ist mit den Leuten die sich zur 500 Euro Graka einen 500 Euro
TFT kaufen, zwecks besserer Bildqualität?
Die sind nämlich auch auf 1280x1024 "beschränkt"
So jetzt aber wirklich ins Bett.
N8
SuperHoschi
Ack
Gut Nacht
Tesseract
2004-12-21, 02:04:16
ich kann mich aths nur voll und ganz anschließen. die heute gebotene bildquallität ist, für die eigentlich sehr hohen verwendeten auflösungen, ziemlich beschissen.
hier matsch, da flimmern. alles einfach viel inhomogener als es eigentlich nötig wäre.
dabei könnte man schon mit relativ geringen auflösungen ziemlich nette sachen anstellen.
MadManniMan
2004-12-21, 02:55:23
A)
Ich weiß nicht, wies euch geht, aber die "ungrobe" Auflösung ist für mich erst mit 1280*1024 bei 17" erreicht. Merke ich, weil: ich spiele hier an meinem Zweitwohnsitzrechner ;) mit einem 15" TFT, der natürlich nur 1024*768 fahren läßt - und ganz ehrlich? Zu grob...
Während ich dazu neige, nach einer Heimkehr an meinen 17" TFT zunächst das Lesen von Schrift anstrengend zu finden, hat imho für Spiele dieser Monitor das idealste von mir bisher erlebte Pixel/Flächen-Verhältnis.
B)
Winkelabhängigkeit ist schwachsinn. Amen.
Wollte ich es am Anfang noch nicht einsehen, so merke ich doch spätestens jetzt im Quervergleich von HL2 auf meiner 9500 Pro @1280*1024 und 16*AF und meiner FX5800 @1024*768 und 8*AF, daß da irgendwas nicht stimmen kann, wenn die letztere das schönere Bild liefert.
C)
Amen.
mapel110
2004-12-21, 04:02:24
Hat man mehr Pixel, kann man, und da gibt es keine Diskussion, eben mehr Informationen darstellen. Die Möglichkeit, mehr Informationen anzuzeigen, steigt. Aber wie viele Informationen dann im einzelnen Pixel tatsächlich stecken, ist eine andere Frage. Betrachtet man eine gegebene Leistung und verbessert die Texturdarstellung mit AF, hat man auf gleicher Bildschirmfläche mehr Informationen, als ginge man nur über die Auflösungssteigerung.
wieviele
Man sieht: Ist erst einmal eine angenehme Auflösung erreicht, die nicht "grob" wirkt, sollte jede weitere Bildqualitätssteigerung über Antialiasing und AF erfolgen – es bringt anbetrachts der aufgewendeten Leistung einfach mehr. Die älteren GeForce-Karten (bis einschließlich der kompletten FX-Serie) beherrschen hardwareseitig quasi-perfektes AF. Der Lohn war, dass sie dafür harsch kritisiert wurden, wie viel Leistung dies doch verbrauchen würde. Dass das nur deshalb so viel Leistung kostet, weil diese auch in Qualität umgesetzt wird (Ausnahme bilineares AF auf GeForce4 Ti, hier gibt es ein Leistungsproblem), wurde einfach nicht zur Kenntnis genommen. Als Dankeschön beglückte uns Nvidia beim NV40 jetzt mit ATI-mäßigen AF-"Optimierung".
wieviel
AF-"Optimierungen"
würden sehr viele Transistoren verbrauchen.
Wieviele Transistoren hatte Geforce3? 57 Millionen wird gemunkelt und bot dabei gutes 8xAF.
Ich halte es also für ein Gerücht, dass der Transistorcount der Grund für schlechtes AF ist. :)
btw Deltachrom hat 8 Pipes und 60-80 Millionen Transistoren.
Schnitzl
2004-12-21, 07:11:05
A)
Ich weiß nicht, wies euch geht, aber die "ungrobe" Auflösung ist für mich erst mit 1280*1024 bei 17" erreicht. Merke ich, weil: ich spiele hier an meinem Zweitwohnsitzrechner ;) mit einem 15" TFT, der natürlich nur 1024*768 fahren läßt - und ganz ehrlich? Zu grob...
Während ich dazu neige, nach einer Heimkehr an meinen 17" TFT zunächst das Lesen von Schrift anstrengend zu finden, hat imho für Spiele dieser Monitor das idealste von mir bisher erlebte Pixel/Flächen-Verhältnis.
19" Röhre und 1024*768 ;) Ist die Auflösung höher wird das Bild unscharf :(
B)
Winkelabhängigkeit ist schwachsinn. Amen.
Wollte ich es am Anfang noch nicht einsehen, so merke ich doch spätestens jetzt im Quervergleich von HL2 auf meiner 9500 Pro @1280*1024 und 16*AF und meiner FX5800 @1024*768 und 8*AF, daß da irgendwas nicht stimmen kann, wenn die letztere das schönere Bild liefert.
Hm, du hast den direkten Vergleich. Würde es dir auch auffallen, wenn du nur eine Karte hättest?
(Das heisst nicht das ich ATI´s Verhalten gutheisse!)
MfG
wieviele
wieviel
AF-"Optimierungen"Die Optimierung bezieht sich im Kontext nur auf das Muster, daher Singular. Das Wort "wieviel" gibt nach den neuen Regeln nicht mehr.
Wieviele Transistoren hatte Geforce3? 57 Millionen wird gemunkelt und bot dabei gutes 8xAF.
Ich halte es also für ein Gerücht, dass der Transistorcount der Grund für schlechtes AF ist. :)Das ist es ja – R420 und NV40 haben noch deutlich mehr Transistoren, aber lange kein GeForce3-AF.
Naja, ich bin da anderer Meinung.
Klar, diese ständigen AF BQ Reduzierungen gehen mir auch gegen den Strich, aber zu behaupten 1600x1200 in der jetzigen Form sei Unsinn lehne ich strikt ab.
Die Zielgruppe für high end kArten HAT für gewöhnlich passende Monitore für 1600x1200, daher werden diese Leute SEHR wohl einen Unterschied sehen im Vergleich zu niedrigeren Auflösungen. Ja, auch bei heutigen games, die eigentlich zu grobe Texturen haben...
Ich bleibe daher bei dem Spruch: "Auflösung kann durch nix ersetzt werden" ;)
Die beste Mischung ist aber IMO immer noch eine höhere Auflösung PLUS AA/AF.
Da stimme ich Tombman völlig zu!
Aber es ist sehr lustig zu sehen wie die meisten ATHS Meinung hinterherlaufen !
Ich warte noch auf die Kolumne, und die Erde ist doch eine Scheibe! Eine Silizium-Scheibe ;)
Naja, ich bin da anderer Meinung.
Klar, diese ständigen AF BQ Reduzierungen gehen mir auch gegen den Strich, aber zu behaupten 1600x1200 in der jetzigen Form sei Unsinn lehne ich strikt ab.
Die Zielgruppe für high end kArten HAT für gewöhnlich passende Monitore für 1600x1200, daher werden diese Leute SEHR wohl einen Unterschied sehen im Vergleich zu niedrigeren Auflösungen. Ja, auch bei heutigen games, die eigentlich zu grobe Texturen haben...
Ich bleibe daher bei dem Spruch: "Auflösung kann durch nix ersetzt werden" ;)
Die beste Mischung ist aber IMO immer noch eine höhere Auflösung PLUS AA/AF.
Full ACK! Ich spiele wegen meines TFT auch ausschließlich in 1600x1200. Die Interpolation des Teils ist zwar auch in Ordnung, kommt aber gegen die native Auflösung nicht an.
Und was ist mit den Leuten die sich zur 500 Euro Graka einen 500 Euro
TFT kaufen, zwecks besserer Bildqualität?
Die sind nämlich auch auf 1280x1024 "beschränkt"
So jetzt aber wirklich ins Bett.
N8
SuperHoschi
Es gibt auch Leute, die für einen TFT mehr ausgeben als für die Grafikkarte und da machen eben diese 1600x1200 sehr viel Sinn...
Ist also kein Argument.
Chris Lux
2004-12-21, 08:54:19
Ich bleibe daher bei dem Spruch: "Auflösung kann durch nix ersetzt werden" ;)
Die beste Mischung ist aber IMO immer noch eine höhere Auflösung PLUS AA/AF.
full ack.
beispiel bei mir:
HL² 1920x1200 8xAF 4xAA sieht sahne aus, wobei AF und AA wirklich noch einen großen unterschied zur 'blanken' auflösung machen.
GTR 1600x1200 8xAF 8xSAF (1920 geht erst mit der 1.2 version ab weihnachten).
ich möchte die hohen aufkösungen wirklich nicht missen, genauso wenig wie die AA und AF verbesserungen an der bildqualität.
wo ich aths auch zustimmen muss ist, dass der content dafür geschaffen sein muss. bei älteren spielen stelle ich desshalb das AF ruter oder ganz aus, da der matsch im vordergrund wirklich im krassen gegensatz zu den scharfen details im hintergrund steht. als beispiel wie es in einem modernen spiel aussehen kann zeigen die bilder aus dem screenshot thread (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2555194&postcount=390), welche im vordergrund echt super details besitzen (die randsteine beachten).
also als zusammenfassung, ich stimme aths weitestgehend zu, nur würde ich die hohen auflösungen nicht als sinnlos abstempeln.
Chris Lux
2004-12-21, 08:57:24
Und was ist mit den Leuten die sich zur 500 Euro Graka einen 500 Euro
TFT kaufen, zwecks besserer Bildqualität?
Die sind nämlich auch auf 1280x1024 "beschränkt"
ich will nicht arogant wirken, aber für 500€ kannst du keine bessere qualität erwarten, das kostet in der regel ne menge mehr und dann würde dir aber auch jeder raten einen tft mit 1600+ zu holen. sowas mit passablen reaktionszeiten kostet dann jedoch wirklich viel.
deshalb bleib ich noch ne weile bei röhrenmonitoren, gerade professionelle CAD monitore bieten echt krasse bildquali, an die IMO tfts nicht rankommen.
Full ACK! Ich spiele wegen meines TFT auch ausschließlich in 1600x1200. Die Interpolation des Teils ist zwar auch in Ordnung, kommt aber gegen die native Auflösung nicht an.
...so sieht es aus....
Mave@Work
2004-12-21, 09:20:33
Klasse Kolumne.
Genau die richtige Mischung zwischen technischem Anspruch und
eigener Meinung.
Ich hab einen TFT der maximal 1280x1024 darstellen kann, also wurde genau
mein Dilemma beschrieben.
"Zitat von tombman
Ich bleibe daher bei dem Spruch: "Auflösung kann durch nix ersetzt werden"
Die beste Mischung ist aber IMO immer noch eine höhere Auflösung PLUS AA/AF."
Aths hat ja wohl gesagt das kein 1600x1200 für die meisten Gamer gilt.
Ich kenne viele, die eine High-End Graka haben aber keinen TFT der diese Auflösung fährt, und bei CRT wird häufig eine zu hohe Auflösung gewählt.
Tombman: Hast du den Artikel richtig gelesen. Auflösung kann eben doch durch andere Massnahmen ersetzt werden, und das wesentlich effektiver.
Ich spiele lieber in 1280x1024 mit 4XAA als in 1600x1200 ohne AA. Du hast zwar gesagt das beste wäre die Mischung, aber meiner Meinung sieht eine etwas geringere Auflösung + Bildverbessernde Maßnahmen deutlich besser aus als hohe Auflösung ganz ohne diese.
Mir persönlich gefällt ein Bild ohne AA einfach nicht mehr. Das sieht IMHO
immer etwas unruhig aus.
War bisher die beste Kolumne. Weiter so.
Auflösung ist nicht unwichtig - schon gar nicht ineffizient (zumindest in gewissen Maßen nicht).
Die Kolumne tut gerade so, als würden AA und AF die Probleme durch eine geringe Auflösung in Wohlgefallen auflösen - wenn dem so wäre, könnte ich zustimmen.
Allein, sie doktern nur an den Symptomen herum, ohne die Ursache zu bekämpfen.
Und dank nVs (glücklicherweise ehemaligem) 4x OG-MS oder ATis (altbekannten) und nVs (neu "gewonnenen") tollen Texturfiltern, bei denen man einstellen kann, was man will und trotzdem ab 4xAF keinen reellen Gegenwert mehr zur eingestellten "Zahl" bekommt, nimmt diese Herumdokterei auch noch von Generation zu Generation in ihrer Wirksamkeit ab (speziell bei Texturfiltern).
Tolle Leistung! :down:
Erste Wahl kann eigentlich nur "echte" Auflösung sein.
Zudem sollte, insbesondere bei den sparse-AA Lobeshymnen nicht komplett unter den Tisch fallen, daß EER nicht alles ist. Zwar ein wichtiger Qualitätsindex, aber auch hier fallen Kanten durch ungünstige Winkel eher auf, als bei "full-sample"-AA - vom Kosten/Nutzen-Faktor erstmal abgesehen.
Hm, du hast den direkten Vergleich. Würde es dir auch auffallen, wenn du nur eine Karte hättest?
Wäre der Trabbi nicht ein (subjektiv!!) perfektes Auto gewesen, wenn man keinerlei Vergleichsmöglichkeit gehabt hätte?
BodyLove
2004-12-21, 10:36:44
@Kolumne
Sagt leider nichts neues. Das mit der Auflösung, mhh ich würde gerne in 1600x1200 spielen, aber der TFT bietet max 1280x1024 an. Bei der Auflösung und mit 4xAA und 16xAF fängt bei mir zur Zeit nichts zu ruckeln an. Am liebsten würde ich die vorhandene Mehrleistung in was sinnvolleres reinstecken. Aber das geht ja nicht. :(
@tombman
Ich glaube was Aths meint ist, dass man zum Beispiel bei 1280x1024 mit buchmäßigem AA und AF ein besseres Bild, bei weniger Leistungseinbruch, bekommt, als bei 1600x1200. Dazu gibt er eben an, dass die Grafikkarten ohne die Optimierungen bei 1600x1200 und 4xAA und 16xAF nicht gut performen würden. Ich stimme Aths hier voll und ganz zu. Ganz ehrlich, ich würde lieber auf die 1600x1200 benches verzichten und besseres AA und AF haben. Das will imho aths ausdrücken. Im gewissen Sinne.;)
(del676)
2004-12-21, 10:45:32
tja die Kernaussage ist richtig, nur ist eine nichtgrobe auflösung bei mir 1600x1200 (wahrscheinlich wegen 22" ;) )
allerdings führt oft auch kein weg an auflösung vorbei (1600x1200 2x2 SuperSampling) da soviele Progger noch Alphatests benutzen ...
auch bei GTR empfinde ich es als viel schlimmer 1600x1200 mit normalen 4xAA anstatt mit 2x2SuperSampling ... weil die Bodenmarkierungen auf der Strecke bei normalem AA so komisch aliasen -> ka warum, stört aber wenn man schnell sein will
obs mit bilderbuch AF besser wär kann ich ned sagen
und das winkelabhängigkeit beschissen ist wissen wir alle und musste mal wieder ins gedächtnis gerufen werden (wehe die neue generation kommt wieder mit diesem MIST)
Hi.
Tja, irgendwie haben sich die Käufer das jetzige Problem selbst "geschaffen".
Wer achtet denn heute beim Grafikkarten-Kauf auf die Bildqualität? Der Durchschnitts-User guckt in ner GamesHardware-Zeitschift auf die Benchmarks und guckt welche Karte bei extremen Einstellungen ein paar Frames mehr hat... Am besten ist natürlich noch wenn die Werte bei einer Karte höher sind ob nun 8x oder 16x etc. pp.
Noch cooler ist dann natürlich wenn die Karte ultracoole Features hat wie PixelShader 4.xschießmichtot. Wird zwar erst in 3 Jahren benutzt, aber man hat es jetzt schon. ;) Hey. 3DMark macht ja auch so viel Spaß.... ;)
Klar das da die Hersteller "mitziehen" müssen und halt hohe Zahlen zeigen müssen. Ob nun das optimierte 16xAF aussieht wie 2xAF unoptimiert, merkt der Käufer doch nicht. Er hat seine hohen Werte, ist glücklich und wenn er liest das es "optimiert" ist, dann freut er sich vielleicht, das der Hersteller schön "optimiert". Denn "Optimal" ist immer gut. ;)
danke danke danke ATHS !
endlich fasst du das in worte was mich schon seit beginn des "optimierens" ankotzt... es ist einfach völlig kontraproduktiv und raubt sich selbst die existenzgrundlage
Labberlippe
2004-12-21, 12:09:15
Hi
Ich sehe das ganze dennoch anders.
Komischerweise wurde ja immer eingebläut das 1024x768 sowieso out ist, da ja die meisten mit 1600x1200 spielen.
Wie jetzt, nur weil AF mit im Spiel ist, soll das nicht mehr gelten.
Freilich finde ich den ganzen optimierungswahn alles andere als gut, nur "echtes" winkelunabhängiges AF kostet massiv Leistung.
Wie sieht da wohl die Leistung aus wenn AF16x ohne Winkel mit 4xFSAA oder 8X FSAA aktiviert ist das ganze noch in 1600x1200
Freilich das Bild ist super, nur werden die aktuellen Games als Slideshow ablaufen.
Was auch vergessen wird das die MidRange Karten alle auf der gleichen Technologien basiern, was glaubt Ihr wo die dann wohl Leistungsmässig wären.
Ich persönlich muss sagen das die BQ nicht wirklich mies ist, hier wird ja wiedereinmal fast so getan als ob man Augenkrebs bekommen würde.
Ich würde es eher empfehlen das man einen Artikel objektiv schreibt und auf die Vor und Nachteile beider AF Verfahren eingeht.
Wünschenswerter wäre es wenn die Hersteller beide Varianten anbieten würden, was leider schwer geht, da die Winkeloptimierung in HW gegossen ist.
Dennoch könnte man mit einer alten GeForce3/4 es versuchen beiderseitig zu beleuchten, mit mehren Anwendungen und die Screens offen legen und nicht immer nur über die Theorie das ganze ablästern.
Wäre auch für den Leser leichter nach zu vollziehen wäre und bitte last mal die AF Blume weg sondern zeigt Screens von den div. Games.
*Nachtrag:
Mir ist schon klar das dieser Artikel eine Kolumne ist :-)
Gruss Labberlippe
seahawk
2004-12-21, 12:23:41
Ich denke auch, das Auflösung durch ncits zu ersetzen ist. Man kann ja nur nicht die Qualität des Bildes betrachten, man muss auch die Größe der argestellten Spielewelt betrachten. Und der Ausschnitt der davon bei hohen Auflösungen über den Monitor flimmert ist größer als bei niedrigeren. Liber ein großes Bild ohne AA+AF, als ein Guckloch mit AA+AF.
Der einzige Fehler ist, dass heute die Ultra High-End-Karten zu sehr gehypt werden. Die meisten Spieler brauchen diese Karten nicht.
Es nutzt ja auch niemand zu hause auf einen 17" TFT ne Quadro. ;D
Pappy
2004-12-21, 12:25:59
Die Kolumne bestätigt die Praxis und es ist gut, dass das mal gesagt worden ist. Eine Auflösung von 1600 x 1200 ist einfach zu uneffizient. Besonders wenn Framedrops die Spielbarkeit beeinträchtigen. Dies ist vor allem bei First Person Shootern der Fall, wo es dann einfach schwieriger wird den Gegner zu treffen. Mit AF lässt sich dann wenigstens noch ein Kompromiss finden zwischen Bildquali und konstanten FPS finden. So kann man mit 8x AF und 4 x AA bei 1280 x 1024 eine einigermaßen ansprechendene Bildquali erreichen ohne, dass die FPS gleich wieder in den roten Bereich gehen.
Crazy_Borg
2004-12-21, 12:37:21
@Aths
Nette Kolumne.
War mir des Problems noch gar nicht so bewusst.
Dafür weiss ich jetzt warum meine alte GF4 unter AF
1.) grottig aussah
2.) massiv an Leistung verlor.
Und danke für die endlich mal positive Beleuchtung einer S3 Deltachrome.
Ist ja schon fast einzigartig!
Was auch vergessen wird das die MidRange Karten alle auf der gleichen Technologien basiern, was glaubt Ihr wo die dann wohl Leistungsmässig wären.
Wie ist das denn jetzt gemeint?
Im Bezug auf die AF Berechnung?
Doch nicht auf die Technik, oder?
Glaube kaum das ATI's 9500 genauso arbeiten wie nvidia's GF5 5900XT und diese wie eine S3 Deltachrome und die wiederrum wie eine XGI Volari V8.
Es sei denn da wird massiv Werksspionage betrieben. :cool:
Ich denke auch, das Auflösung durch ncits zu ersetzen ist. Man kann ja nur nicht die Qualität des Bildes betrachten, man muss auch die Größe der argestellten Spielewelt betrachten. Und der Ausschnitt der davon bei hohen Auflösungen über den Monitor flimmert ist größer als bei niedrigeren. Liber ein großes Bild ohne AA+AF, als ein Guckloch mit AA+AF.
Der einzige Fehler ist, dass heute die Ultra High-End-Karten zu sehr gehypt werden. Die meisten Spieler brauchen diese Karten nicht.
Es nutzt ja auch niemand zu hause auf einen 17" TFT ne Quadro. ;D
Bei 3D Anwenfdungen ändert die Auflösung nichts am, Bildauschnitt. Das gilt nur für 2D
Labberlippe
2004-12-21, 12:57:52
@Aths
Nette Kolumne.
War mir des Problems noch gar nicht so bewusst.
Dafür weiss ich jetzt warum meine alte GF4 unter AF
1.) grottig aussah
2.) massiv an Leistung verlor.
Und danke für die endlich mal positive Beleuchtung einer S3 Deltachrome.
Ist ja schon fast einzigartig!
Wie ist das denn jetzt gemeint?
Im Bezug auf die AF Berechnung?
Doch nicht auf die Technik, oder?
Glaube kaum das ATI's 9500 genauso arbeiten wie nvidia's GF5 5900XT und diese wie eine S3 Deltachrome und die wiederrum wie eine XGI Volari V8.
Es sei denn da wird massiv Werksspionage betrieben. :cool:
Hi
Schon Hersteller bezogen.
Wobei die S3 Variante sehr effektiv klingt, stand mal in der PCGH.
Gruss Labberlippe
Mave@Work
2004-12-21, 13:02:30
Hi
nur "echtes" winkelunabhängiges AF kostet massiv Leistung.
hast Du den Artikel/Kolumne überhaupt gelesen. Aths macht doch gerade klar,
das es immer noch weniger Leistung kostet als eine entsprechende Erhöhung
der Auflösung.
Es kostet halt Transitoren und davor scheuen sich die IHVs aber so viel kann das nicht sein, wie einer der Vorredner schon festgestellt hat.
"Zitat von mapel110
Wieviele Transistoren hatte Geforce3? 57 Millionen wird gemunkelt und bot dabei gutes 8xAF.
Ich halte es also für ein Gerücht, dass der Transistorcount der Grund für schlechtes AF ist."
Narrenkönig
2004-12-21, 13:08:01
Noch cooler ist dann natürlich wenn die Karte ultracoole Features hat wie PixelShader 4.xschießmichtot. Wird zwar erst in 3 Jahren benutzt, aber man hat es jetzt schon. ;) Hey. 3DMark macht ja auch so viel Spaß.... ;)
Da muss ich wiedersprechen. Wenn Nvidia so gedacht hätte wie ATi im Moment dann währen wir noch bei Hardware T&L ohne Shadern.
Lowkey
2004-12-21, 13:23:54
Was mir bei all den Posts fehlt, ist ein praktischer Bezug zu den Spielen.
ATI & Nvidia haben es ja nicht so genau mit AF und FSAA. Ein Laie weiss das so oder so nicht und ignoriert zum Teil diese Features. Gewisse Leute kennen sich damit besser aus, wie man an der Kolumne sieht. Es wäre daher als Konsequenz aus dieser Kolumne von nachhaltigem Nutzen, wenn es dazu eine Art Leitfaden gibt, welche Betriebsmodi man festlegen soll, damit die Bildqualität stimmt. Zwar kann man das nicht wirklich generell festlegen, da Spiele, Grafik und Hardware bei jedem unterschiedlich sind, aber es muss doch möglich sein, einen kurzen Beitrag zu schreiben, welche Auflösung mit welchen Modi das Optimum an Bildqualität in Relation zur Leistung bringt?
Genauso interessant wäre es zu wissen, welche Grafikdetails in Spielen viel Performance fressen, aber Spielerisch eher unnütz sind (in manchen Spielen zB. Schatteneffekte).
Es existiert in den Köpfen immer noch die Meinung, dass teurer Hardware besser ist, dass neuste Hardware besser ist und das Details auf MAX immer das Beste sein muss.
Thowe
2004-12-21, 13:44:54
Sagen wir es so, mein aktuelles TFT macht 1280x768 Bildpunkte und ich möchte einfach das beste Bild, was auf diesem möglich ist. Erstaunlich nur, das WMV-HD Videos verdammt geil darauf aussehen und normale Spielegrafik immer noch "pixelig" wirkt.
Mal nebenbei bemerkt, es gibt eine Menge Spiele die nicht unbedingt es zulassen, das man hohe Auflösungen wählt, warum also muss ich mir hier mit schlechter Qualität "abspeisen" lassen, wenn eine bessere durchaus möglich wäre?
OBrian
2004-12-21, 14:17:31
Wie groß nun die Auflösung sein muß, darüber kann man ja nun steiten; aber die 6800U- bzw. X850XT-Klasse hätte auf jeden Fall genug Leistung bei allen Spielen, um auch in hoher Auflösung gutes AA und AF anzubieten, von daher ist die Kernaussage der Kolumne absolut richtig.
Nur: Was sollen wir dagegen tun? Deltachromes kaufen ist ja wohl auch keine Lösung, bei denen scheitert es an ganz anderen Dingen (die mehr wiegen als AF), der normale Gamer kann ja nur Ati oder nVidia kaufen. Also kann man gar nicht mehr mit der Geldbörse abstimmen, wenn man nicht selber massive Nachteile haben will.
Mit persönlich würde es wirklich schon genügen, wenn Ati bzw. nVidia die passenden Infos zum Treiber inoffiziell "leaken" würden (vergleichbar mit nVidias inoffiziellen AA-Modi), so daß das jemand in einen Tweaker einbauen kann, mit dem man dann optimale Qualität freischalten kann. Dann können die Firmen weiterhin ihre blöden Benchmarkwars ausfechten, würden aber gleichzeitig bei den qualitätsbewußten Gamern Sympathien gewinnen. noch besser wärs natürlich im Treiber-CP, meinetwegen sehr versteckt mit Hinweis "Vorsicht, Änderung nur für Profis, kann Leistung extrem negativ beeinflussen", damit nicht hinterher DAUs angetapert kommen und sich beschweren über die lahmen 3DMark-Werte.
Bloß glaube ich nicht, daß das eine rein treiberseitige Geschichte ist. Sonst hätte nVidia das winkelabhängige AF ja auch der 5xxx-Reihe spendieren können.
Ist doch toll so. Dann können sie uns später den "guten" Filter als Verbesserung verkaufen. Müßt das auch mal so sehen. Dann haben die Menschen wieder einen Grund hunderte Euro auszugeben und sich stundenlang an etwas zu ergötzen. Intelligente Kunden braucht hier keiner, denn die Denken zu viel. Die Masse muß auf immer glauben, daß sie z.B. bei 60 Hz Bildwiederholungsfrequenz 100 Bilder/s sehen könnten. Viel hilft viel und Geiz ist sowieso geil. Lieber eine ältere Karte, die häßlich (aber korrekt) rendert als eine neue, die sich mit Tricks Performance erschleicht und "falsch" arbeitet :)
Da muss ich wiedersprechen. Wenn Nvidia so gedacht hätte wie ATi im Moment dann währen wir noch bei Hardware T&L ohne Shadern.
Ich sag ja nix gegen die Implementierung neuer Funktionen. Nur diese als Kaufargument nutzen, ohne sofortigen nutzen... das ist es was ich meine.
Ich fand die Kolumne auch sehr gut und hilfreich. Ich habe übrigens auch ein 17" TFT (von daher sind die Tipss für mich nich zu gebrauchen weil mein TFT ne Interpolation der übelsten Sorte hat)...und ich spiele auch lieber auf 1280x1024 (mittlere Details) als in 1024x768 hohe Details (oder niedriger)...AAundAF verträgt m,eine GF 4 Ti soweiso nich so gut...aber diejenigen unter euch die jetzt meine Karte bashen wollen sollen sich mal die Texturfilterungsqualität ihrer Karte angucken...na na..ja schon was gelernt. Super Kolumne *nach mehr lechz*
Fazit: Hätt ich nen CRT würd ich das so machen wie der Kolumnenersteller das sagt zumal es ja hier irgendwo schon mal ne fette Diskussion über Monitorgrößen und passende Auflösungen gab (meine Lieblings-Kolumne)
SuperHoschi
2004-12-21, 14:47:12
ich will nicht arogant wirken, aber für 500€ kannst du keine bessere qualität erwarten, das kostet in der regel ne menge mehr und dann würde dir aber auch jeder raten einen tft mit 1600+ zu holen. sowas mit passablen reaktionszeiten kostet dann jedoch wirklich viel.
deshalb bleib ich noch ne weile bei röhrenmonitoren, gerade professionelle CAD monitore bieten echt krasse bildquali, an die IMO tfts nicht rankommen.
Da hast Du in Deinem Fall schon Recht.
Wenn wir uns aber die wirklich große Masse der Spieler anschauen,
dann siehts eher so aus das die einen 17" CRT haben und die
moderneren einen 15-17" TFT.
Die Leute die wirklich "gute" Sachen haben (wie Du) sind quasi die
Ausnahme die die Regel bestätigen.
Hey das wäre doch die richtige Gelegenheit hier einen Poll auf zu machen
wer hat welches Bilddarstellungsgerät?
Dann sehen wir gleich was die 3D-Center Forum Leser wirklich haben
und was für die meisten Sinn macht (Auflösung/AA/AF)
[ ] 15" Röhre
[x] 17" Röhre
[ ] 19" bis Kinoleinwand Röhre
[ ] 15" TFT
[ ] 17" bis 18" TFT
[ ] 19" bis Kinoleinwand TFT
[ ] anderes
CU
SuperHoschi
Tigerchen
2004-12-21, 15:57:01
Hat man mehr Pixel, kann man, und da gibt es keine Diskussion, eben mehr Informationen darstellen. Die Möglichkeit, mehr Informationen anzuzeigen, steigt. Aber wie viele Informationen dann im einzelnen Pixel tatsächlich stecken, ist eine andere Frage. Betrachtet man eine gegebene Leistung und verbessert die Texturdarstellung mit AF, hat man auf gleicher Bildschirmfläche mehr Informationen, als ginge man nur über die Auflösungssteigerung.
wieviele
Man sieht: Ist erst einmal eine angenehme Auflösung erreicht, die nicht "grob" wirkt, sollte jede weitere Bildqualitätssteigerung über Antialiasing und AF erfolgen – es bringt anbetrachts der aufgewendeten Leistung einfach mehr. Die älteren GeForce-Karten (bis einschließlich der kompletten FX-Serie) beherrschen hardwareseitig quasi-perfektes AF. Der Lohn war, dass sie dafür harsch kritisiert wurden, wie viel Leistung dies doch verbrauchen würde. Dass das nur deshalb so viel Leistung kostet, weil diese auch in Qualität umgesetzt wird (Ausnahme bilineares AF auf GeForce4 Ti, hier gibt es ein Leistungsproblem), wurde einfach nicht zur Kenntnis genommen. Als Dankeschön beglückte uns Nvidia beim NV40 jetzt mit ATI-mäßigen AF-"Optimierung".
wieviel
AF-"Optimierungen"
würden sehr viele Transistoren verbrauchen.
Wieviele Transistoren hatte Geforce3? 57 Millionen wird gemunkelt und bot dabei gutes 8xAF.
Ich halte es also für ein Gerücht, dass der Transistorcount der Grund für schlechtes AF ist. :)
btw Deltachrom hat 8 Pipes und 60-80 Millionen Transistoren.
Deltachrome, FX5800 und GeForce 3 (die hab ich lang genug gehabt) performen sehr schlecht mit "echtem" AF.
ATI und nV haben sich schon was dabei gedacht AF adaptiv zu gestalten. aths ewiger Kreuzzug ist nur noch peinlich. Er kann ja wunderbar theoretisieren. Fakt ist daß AF auf GF3 und 4 derbste Performaceeinbrüche brachte. Das hat einem die Tränen in die Augen getrieben. aths sollte es mal unterlassen diese Fakten auf rethorisch geniale Weise unter den Tisch fallen zu lassen und einsehen daß er mit seinem Kreuzzug auf dem Holzweg ist.
Tigerchen
2004-12-21, 15:58:56
Da stimme ich Tombman völlig zu!
Aber es ist sehr lustig zu sehen wie die meisten ATHS Meinung hinterherlaufen !
Ich warte noch auf die Kolumne, und die Erde ist doch eine Scheibe! Eine Silizium-Scheibe ;)
:up:
Aber es gibt noch ein paar freie Geister!:)
Sagen wir es so, mein aktuelles TFT macht 1280x768 Bildpunkte und ich möchte einfach das beste Bild, was auf diesem möglich ist. Erstaunlich nur, das WMV-HD Videos verdammt geil darauf aussehen und normale Spielegrafik immer noch "pixelig" wirkt.
Dass liegt vermutlich daran, dass du ja beim Video auch eine Art Supersampling hast. Dass Bild stellt ja die Auflösung der Kamera (die Linse hat kein Pixeliges Bild) auf 1280*768 runterskaliert da. Da hat man dan Praktisch Optimales AA, da von einer sehr hoch aufgelösten Quelle runterskaliert wird.
Lowkey
2004-12-21, 16:26:28
Ich kann aus der Kolumne und dem hier Gesagten keinen Nutzen als Spieler entnehmen.
iam.cool
2004-12-21, 17:32:16
Ich kann aus der Kolumne und dem hier Gesagten keinen Nutzen als Spieler entnehmen.
hm... warn nicht genug Balken, aber dafür gibts ja die CB :uup: :rolleyes:
Die Kolumne bestätigt die Praxis und es ist gut, dass das mal gesagt worden ist. Eine Auflösung von 1600 x 1200 ist einfach zu uneffizient. Besonders wenn Framedrops die Spielbarkeit beeinträchtigen. Dies ist vor allem bei First Person Shootern der Fall, wo es dann einfach schwieriger wird den Gegner zu treffen. Mit AF lässt sich dann wenigstens noch ein Kompromiss finden zwischen Bildquali und konstanten FPS finden. So kann man mit 8x AF und 4 x AA bei 1280 x 1024 eine einigermaßen ansprechendene Bildquali erreichen ohne, dass die FPS gleich wieder in den roten Bereich gehen.
Also ich kenne momentan kein aktuelles FPS-Spiel, bei dem bei mir die FPS mit 1600*1200 in den Keller gehen bzw. ich Framedrops habe (und nein, 30 FPS sind für mich NICHT flüssig).
Ich spiele dabei immer mit 8xAF und meist mit 2xAA oder 4xAA (Doom 3 als einzigem "Ausreißer" allerdings ohne AA, da es hier wirklich üble Framedrops mit AA gibt).
MadManniMan
2004-12-21, 18:25:23
Deltachrome, FX5800 und GeForce 3 (die hab ich lang genug gehabt) performen sehr schlecht mit "echtem" AF.
ATI und nV haben sich schon was dabei gedacht AF adaptiv zu gestalten. aths ewiger Kreuzzug ist nur noch peinlich. Er kann ja wunderbar theoretisieren. Fakt ist daß AF auf GF3 und 4 derbste Performaceeinbrüche brachte. Das hat einem die Tränen in die Augen getrieben. aths sollte es mal unterlassen diese Fakten auf rethorisch geniale Weise unter den Tisch fallen zu lassen und einsehen daß er mit seinem Kreuzzug auf dem Holzweg ist.
Hm, ich zocke hier mit einer FX5800 und genieße 64tap AF ohne jede Winkelabhängigkeit und mit annehmbarer Performance. Achja, High Quality bei Bedarf, hin und wieder stört selbst die geringste Optimierung noch, da bin ich für den Schalter dankbar.
So, jetzt bedenke mal, wie alt die Karte ist und daß sie nicht das Topmodell war ... es muß ja nichtmal 128tap "Lehrbuch"AF sein, 8fach reicht ja auch schon - bei "richtiger" Implementierung muß das ja dann auch nochmal gut Performance ziehen.
Ich wünsche mir - im Gegensatz zu aths - eine Auswahlmöglichkeit zwischen Winkeladaptivität und der Norm ... je nach App möchte ich selektieren können.
Man könnte jetzt sagen: da, wo der Winkelmist nicht auffällt, ist es eh kaum schneller, aber es gibt schon Szenarien, in denen das subjektive Empfinden darüber erfreut ist, weit hinten Schärfe zu haben, während manche Winkel noch ein bissl matschig sind.
Hätte ich die Wahl, würde ich aber das NV<=40-Verfahren als einzig mögliches nehmen.
Also Tigerchen, nicht aths ist der, der verbohrt ist und Propaganda macht - er hat einfach eine Meinung, die objektiv vernünftig ist ... und er fordert von den IHVs das sinnlose Rumoptimieren sein zu lassen.
Eher bist du es, der sich auf seiner Meinung versteift - denk mal drüber nach.
MadManniMan
2004-12-21, 18:34:24
19" Röhre und 1024*768 ;) Ist die Auflösung höher wird das Bild unscharf :(
Oh, tut mir leid! 1024*768 ist wirklich grob mit dieser Diagonalen, mein 17er TFT hat ja in etwa dieselben Maaße - und da manche Apps 1024 als oberes Limit haben(alte Spiele vor allem) und meine Karte mich manchmal auf 1024 runterzwingt, kann ich das gut nachempfinden.
Hm, du hast den direkten Vergleich. Würde es dir auch auffallen, wenn du nur eine Karte hättest?
(Das heisst nicht das ich ATI´s Verhalten gutheisse!)
Nun, so direkt ist der Vergleich nicht. Meine Radeon 9500 Pro ist momentan rund 3 Autorstunden von mir entfernt - und das letzt mal auf der gezockt habe ich Donnerstag abend, während ich Sonntag abend auf meiner Fx5800 weiterspielte.
Und wie gesagt: bei HL² fällt das wirklich auf.
Aber du hast recht: wenn man nicht weiß, wie "gutes" AF aussieht, vermißt mans auch nicht. Ich habe damals von einer GF3 Ti200 auf diese Karte gewechselt - und mehr denn 2*AF war nicht drin, da ich für üblich immer zusätzlich noch 2*AA fuhr ... da war die Karte schon am Röcheln.
So war der Sprung natürlich groß, als ich auf einmal 16*AF ohne Performancehit nutzen konnte ... und 2* -> 16* sieht man auch deutlich, wenn das 16* stark winkelabhängig ist, vor allem wenn die Performance stimmt.
Nun habe ich mir allerdings noch einmal aus einer Sammelwut heraus eine GF4 gekauft und beim BF1942 Zocken bemerkt, daß das ATi-AF teilweise richtig scheiße aussehen kann ;)
Und als ich dann dieses AF mit der FX5800 (gleiche Sammelwut) noch schnell bekam, war meine naiv-rosarote Einstellung optimiertem AF gegenüber wie weggeblasen.
Quasar
2004-12-21, 18:43:03
[COLOR="#000088"]
Deltachrome, FX5800 und GeForce 3 (die hab ich lang genug gehabt) performen sehr schlecht mit "echtem" AF.
ATI und nV haben sich schon was dabei gedacht AF adaptiv zu gestalten.
aths ewiger Kreuzzug ist nur noch peinlich.
Falsch - die FX5800u zumindest hat mehr als genug Rohleistung für genügend schnelles AF. IIRC habe ich dazu sogar mal einen Thread im Benchmark- oder Technologie-Forum zu aufgemacht - damals warst du IIRC aber recht still...
edit:
Link (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=115704)
Adaptives AF ist auch i.O. - nur hat das nicht wirklich was mit Winkelabhängigkeit zu tun. Winkelabhängigkeit führt über kurz oder lang dazu, daß solche Aussagen wie "GF3 ist bis zu 7x schneller als GF2u" uns vermutlich noch als moralisch hochstehendes Marketing- Beispiel in ERinnerung bleiben.
Selbst aktuell müsste es eigentlich "<=16xAF" heissen - wobei sich mehr und mehr das "<" ggü. dem "=" durchsetzt.
Aber ok, wenn dann irgendwann nur 0,01% der dargestellten Pixel noch den eingestellten AF-Grad abbekommen und es das ist, was du willst....
(Und sag jetzt nicht wieder, man sähe es nicht - da habe ich dir neulich erst ein deutliches Gegenbeispiel gegeben).
Peinlich.... hm, peinlich wäre IMO was anderes. Aber wenn es dir peinlich ist, steht es dir natürlich frei, dich zurückzuziehen.
MadManniMan
2004-12-21, 18:57:05
Ich denke, mit diesem deinen letzten Post und der Gewißheit, daß die NV30/35/38 Reihe allesamt flotte Tapezierer waren, können wir uns wieder des Grundthemas besinnen ;)
:up:
Tigerchen
2004-12-21, 19:10:58
Hm, ich zocke hier mit einer FX5800 und genieße 64tap AF ohne jede Winkelabhängigkeit und mit annehmbarer Performance. Achja, High Quality bei Bedarf, hin und wieder stört selbst die geringste Optimierung noch, da bin ich für den Schalter dankbar.
So, jetzt bedenke mal, wie alt die Karte ist und daß sie nicht das Topmodell war ... es muß ja nichtmal 128tap "Lehrbuch"AF sein, 8fach reicht ja auch schon - bei "richtiger" Implementierung muß das ja dann auch nochmal gut Performance ziehen.
Ich wünsche mir - im Gegensatz zu aths - eine Auswahlmöglichkeit zwischen Winkeladaptivität und der Norm ... je nach App möchte ich selektieren können.
Man könnte jetzt sagen: da, wo der Winkelmist nicht auffällt, ist es eh kaum schneller, aber es gibt schon Szenarien, in denen das subjektive Empfinden darüber erfreut ist, weit hinten Schärfe zu haben, während manche Winkel noch ein bissl matschig sind.
Hätte ich die Wahl, würde ich aber das NV<=40-Verfahren als einzig mögliches nehmen.
Also Tigerchen, nicht aths ist der, der verbohrt ist und Propaganda macht - er hat einfach eine Meinung, die objektiv vernünftig ist ... und er fordert von den IHVs das sinnlose Rumoptimieren sein zu lassen.
Eher bist du es, der sich auf seiner Meinung versteift - denk mal drüber nach.
"Denk mal drüber nach"
Das impliziert daß ich nicht nachdenke. Dankeschön. Das Kompliment gebe ich gern zurück. Anscheinend hab ich mir die gewaltigen Performanceeinbrüche mit Lehrbuch-AF (und dies auch noch ohne AA) nur eingebildet. aths bildet sich auch was ein.Nämlich es besser zu wissen als die gesamte Ingenieurszunft von ATI und nVIDIA zusammen. Im übrigen Frage ich mich wie man im Zusammenhang mit einer FX5800 überhaupt von Performance sprechen kann. Da ist wohl eine gehörige Portion Wunschdenken mit im Spiel.
Tigerchen
2004-12-21, 19:16:46
Falsch - die FX5800u zumindest hat mehr als genug Rohleistung für genügend schnelles AF. IIRC habe ich dazu sogar mal einen Thread im Benchmark- oder Technologie-Forum zu aufgemacht - damals warst du IIRC aber recht still...
edit:
Link (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=115704)
Adaptives AF ist auch i.O. - nur hat das nicht wirklich was mit Winkelabhängigkeit zu tun. Winkelabhängigkeit führt über kurz oder lang dazu, daß solche Aussagen wie "GF3 ist bis zu 7x schneller als GF2u" uns vermutlich noch als moralisch hochstehendes Marketing- Beispiel in ERinnerung bleiben.
Selbst aktuell müsste es eigentlich "<=16xAF" heissen - wobei sich mehr und mehr das "<" ggü. dem "=" durchsetzt.
Aber ok, wenn dann irgendwann nur 0,01% der dargestellten Pixel noch den eingestellten AF-Grad abbekommen und es das ist, was du willst....
(Und sag jetzt nicht wieder, man sähe es nicht - da habe ich dir neulich erst ein deutliches Gegenbeispiel gegeben).
Peinlich.... hm, peinlich wäre IMO was anderes. Aber wenn es dir peinlich ist, steht es dir natürlich frei, dich zurückzuziehen.
Na hab gesehen "Villagemark". Und das dann gar nicht erst weiterverfolgt. Solche Threads über synthetische Benchmarks verfolge ich nicht so gerne. Wirst auch kaum was zu Themen wie Aquamark oder 3D-Mark von mir hören.
Quasar
2004-12-21, 19:21:08
[COLOR="#000088"]
Na hab gesehen "Villagemark". Und das dann gar nicht erst weiterverfolgt.[...]
Solltest du vielleicht mal. Kann sogar den Horizont erweitern. ;)
MadManniMan
2004-12-21, 19:25:12
Im übrigen Frage ich mich wie man im Zusammenhang mit einer FX5800 überhaupt von Performance sprechen kann. Da ist wohl eine gehörige Portion Wunschdenken mit im Spiel.
Bwah. Genug ist genug.
Wenn du nicht ohne Denunzierung willst, dann ist für mich hier EOD.
Viel Glück noch, Q ;)
mapel110
2004-12-21, 19:29:35
Im übrigen Frage ich mich wie man im Zusammenhang mit einer FX5800 überhaupt von Performance sprechen kann. Da ist wohl eine gehörige Portion Wunschdenken mit im Spiel.
FX5800 ist eine verdammt schnelle DX8-Karte, wenn auch nebenher eine grottige dx9-karte.
Aber ich denke, das weißt du bzw ich hoffe es. :)
Tigerchen
2004-12-21, 19:42:56
FX5800 ist eine verdammt schnelle DX8-Karte, wenn auch nebenher eine grottige dx9-karte.
Aber ich denke, das weißt du bzw ich hoffe es. :)
Ja. Aber reden wir hier über DX8? Man kann sich natürlich uralte Games raussuchen und dann dovon schwärmen wie schnell und toll das "echte" AF ist.
Tigerchen
2004-12-21, 19:47:08
Solltest du vielleicht mal. Kann sogar den Horizont erweitern. ;)
Du erwartest doch nicht im Ernst daß ich jeden Thread verfolge. Und wie gesagt , synthetische Tests sind nicht so mein Ding.
Spiel doch mal richtige Spiele. Vielleicht kannst du dann auch mal mitreden.
Schon der 2.te der sich nicht entblödet meinen geistigen Horizont als beschränkt zu bezeichnen. Schön wenn man sich das so einfach machen kann gelle?
Tigerchen
2004-12-21, 19:49:23
Bwah. Genug ist genug.
Wenn du nicht ohne Denunzierung willst, dann ist für mich hier EOD.
Viel Glück noch, Q ;)
Du hast doch den Fehdehandschuh geworfen. Meinst du es macht mich glücklich wenn da einer behauptet ich denke nicht nach? Da komm ich richtig in Fahrt. Selber schuld!
Quasar
2004-12-21, 19:58:31
Du erwartest doch nicht im Ernst daß ich jeden Thread verfolge. Und wie gesagt , synthetische Tests sind nicht so mein Ding.
Spiel doch mal richtige Spiele. Vielleicht kannst du dann auch mal mitreden.
Wenn du den Thread - nun hast du sogar den direkten Link und den Hinweis, daß du dort etwas dazulernen könntest - mutwillig nicht liest, dann muss man fast schon daraus folgern, daß du dich in deine Ignoranz suhlst. ;)
Aber bitte - behaupte weiterhin irgendwelche unfundierten Dinge über "sehr schlecht performendes AF bei allen GF vor nV40".
Du hast ja recht - 46% Leistungsverlust sind gegenüber 40% Leistungsverlust natürlich eine andere Welt und absolut inakzeptabel. ;)
Schon der 2.te der sich nicht entblödet meinen geistigen Horizont als beschränkt zu bezeichnen. Schön wenn man sich das so einfach machen kann gelle?
Deine Heulsusennummer zieht nicht. JEDER kann seinen Horizont erweitern - der ist per definition IMMER beschränkt.
Pinoccio
2004-12-21, 20:05:32
JEDER kann seinen Horizont erweitern - der ist per definition IMMER beschränkt.
Nein, meiner nicht.
Sorrry, aber wie einige hier ihren Standpunkt vertreten ist IMHO lächerlich.
mfg Sebastian
Mr. Lolman
2004-12-21, 20:23:07
Guter Artikel. Auch wenn ich ihm nicht uneingeschränkt zustimmen kann. Macht doch mal Benches. Würd mich nicht wundern wenn ein optimiertes 16xAF nicht nur mehr Performance sondern auch "bessere"* Qualität als unoptimiertes 4xAF bringt.
*Qualität ist gerade in dem Fall was sehr subjektives. Bspw. würde unoptimiertes winkelunabhängiges Lehrbuch AF auch bei komplett einfärbigen Texturen immernoch deutlichst mehr Leistung als die optimierten AF Methoden brauchen, ohne dass sich das Ergebnis auch nur irgendwie unterscheidet (klar point sampling würde da genauso reichen ;))
Solange die Hersteller adaptives AF nicht gebacken bekommen kann ich durchaus den Optimierungswahn verstehen. Denn der Worstcase für Texturfilterung bietet sich in kaum einen Spiel. Ich erinnere an den "LOD oder nicht LOD" Artikel (http://www.forum-3dcenter.de/vbulletin/showthread.php?t=146879) von mir, wo ich wunderbares Moiré auf R300 Karten erzeugen konnte. Ein ATi Gast fragte mich ob ich den wirklich der Meinung bin, dass sich diese Eigenheit von Tenebrae auch nur in irgendeinem anderen Spiel bemerkbar machen wird, und ich meinte: "Ja"
Jetzt gibts das Spiel. Kuckt euch mal Chronicles of Riddick genauer an. Zum Kotzen ist das ATi R300 AF da stellenweise. Trotzdem bin ich bei allen anderen Spielen sehr zufrieden mit ATis AF Lösung, und spiel HL² sogar mit 4xbiAF, ohne dass ich vomitiere. Komisch, oder? ;)
BTW: Wer hat die Mär von der notwendigen hohen Bildschirmauflösung, um hochauflösende Texturen korrekt darzustellen, erfunden?
Sobald man sich einer texturierten Wand so sehr nähert dass dargestellte Pixel/Texel>1, hat eine Texturauflösung, die höher ist als die Bildschirmauflösung, Sinn. Auch mit 320x200 können 2048² Texturen sinnvoll sein. Außerdem kann man die Textur auch strecken. Sie muß ja nicht unbedingt 1:1 auf die Polygone geklebt werden :)
Tigerchen
2004-12-21, 20:27:24
Wenn du den Thread - nun hast du sogar den direkten Link und den Hinweis, daß du dort etwas dazulernen könntest - mutwillig nicht liest, dann muss man fast schon daraus folgern, daß du dich in deine Ignoranz suhlst. ;)
Aber bitte - behaupte weiterhin irgendwelche unfundierten Dinge über "sehr schlecht performendes AF bei allen GF vor nV40".
Du hast ja recht - 46% Leistungsverlust sind gegenüber 40% Leistungsverlust natürlich eine andere Welt und absolut inakzeptabel. ;)
Deine Heulsusennummer zieht nicht. JEDER kann seinen Horizont erweitern - der ist per definition IMMER beschränkt.
Nur an solchen synthetischen Test zu hängen ist genauso sinnfrei wie die Leistung einer Grafikkarte alleine an Doom3, oder auf der anderen Seite, an HL² festzumachen. Enger Horizont wie? Schon mal in den Spiegel geguckt?
MadManniMan
2004-12-21, 20:27:55
*seufz*
Ich wollte dich nie angreifen. Ich habe auch nie andeuten wollen, daß du nicht nachdenkst - tatsächlich aber unterstelle ich dir, eine sehr subjektive und suggestive Schreibweise zu verwenden und dabei an nV-Produkten im Allgemeinen, sowie an der FX5800 kein gutes Haar zu lassen.
"Uralt"-DX8-Spiele sagst du? Gibt es denn so eine "Flut" an DX9-Spielen, daß man mit einer FX nichts mehr spielen kann? Und selbst wenn: die Karte hat einige Quartale hinter sich, sie "darf" langsam sein. Genau wie eine GF4 heute nichts mehr vernünftig präsentieren muß. Genau wie eine Radeon256 heute kaum mehr Sinn machen braucht.
Daß die FXen keine Überkarten sind, bestreitet niemand.
Aber warum sprichst du ihnen prinzipiell Spielenutzbarkeit ab?
Tatsächlich spiele ich in 1024 mit vollen möglichen Details und 2*AA/8*AF auf meine FX5800 Half-Life 2 ... zwar fehlt es an DX9 Effekten, aber für die Reflektionen aufm Wasser liefert mein Duron zuwenig Polygone.
Es geht aber auch nicht um die DX9-Leistung, sondern um die Texturierungspower - und die ist bei der FX absolut vorhanden, ich verstehe nicht, warum du das absteitest.
Gehe ruhig auf mein von mir als Unterstellung Gekennzeichnetes ein, ich provoziere eine Diskussion in die Richtung. Bleib aber bitte sachlich!
Ich wollte nie eine Fehde mit dir, du hast sehr empfindlich reagiert.
Mr. Lolman
2004-12-21, 20:38:27
: die Karte hat einige Quartale hinter sich, sie "darf" langsam sein.
Generell ACK, nur ists was anderes, wenn ne Karte gleichen Alters/Preises trotz höherer Auflösung, 4xAA und DX9 mehr fps bringt als besagt FX5800.
Aber darum gehts ja garnicht, deswegen wieder Ontopic plz =)
Quasar
2004-12-21, 20:45:21
Nur an solchen synthetischen Test zu hängen ist genauso sinnfrei wie die Leistung einer Grafikkarte alleine an Doom3, oder auf der anderen Seite, an HL² festzumachen. Enger Horizont wie? Schon mal in den Spiegel geguckt?
Wer hängt denn nur an solchen synthetischen Tests?
Natürlich wäre das sinnlos, sich nur daran hochzuziehen - allein, der Blick auch auf diese erlaubt es, festzustellen, daß das AF allein nicht grottenlangsam ist.
edit:
Ja, ich habe schonmal in den Spiegel geguckt und ja, mir ist bekannt, daß eine FX5800 meist langsamer als eine R9700p ist und nein, es tut mir nicht weh, das zu schreiben.
Schnitzl
2004-12-21, 20:46:13
Hm, du hast den direkten Vergleich. Würde es dir auch auffallen, wenn du nur eine Karte hättest?
Wäre der Trabbi nicht ein (subjektiv!!) perfektes Auto gewesen, wenn man keinerlei Vergleichsmöglichkeit gehabt hätte?
Mit oder ohne Vergleich, der Trabbi ist ein perfektes Auto! ;)
@ MadManniMan:
ok ... die Frage ist nur ob man die Hersteller überhaupt dazu bringen kann in nächsten Generationen die Optimierungen wegzulassen :confused:
Vielleicht wenn man es Ihnen als Marketing-Argument verkauft... =)
P.S.: HL2 fällt für mich flach, Sacred unterstützt nur 1024 :wink:
Tigerchen
2004-12-21, 20:46:47
*seufz*
Ich wollte dich nie angreifen. Ich habe auch nie andeuten wollen, daß du nicht nachdenkst - tatsächlich aber unterstelle ich dir, eine sehr subjektive und suggestive Schreibweise zu verwenden und dabei an nV-Produkten im Allgemeinen, sowie an der FX5800 kein gutes Haar zu lassen.
"Uralt"-DX8-Spiele sagst du? Gibt es denn so eine "Flut" an DX9-Spielen, daß man mit einer FX nichts mehr spielen kann? Und selbst wenn: die Karte hat einige Quartale hinter sich, sie "darf" langsam sein. Genau wie eine GF4 heute nichts mehr vernünftig präsentieren muß. Genau wie eine Radeon256 heute kaum mehr Sinn machen braucht.
Daß die FXen keine Überkarten sind, bestreitet niemand.
Aber warum sprichst du ihnen prinzipiell Spielenutzbarkeit ab?
Tatsächlich spiele ich in 1024 mit vollen möglichen Details und 2*AA/8*AF auf meine FX5800 Half-Life 2 ... zwar fehlt es an DX9 Effekten, aber für die Reflektionen aufm Wasser liefert mein Duron zuwenig Polygone.
Es geht aber auch nicht um die DX9-Leistung, sondern um die Texturierungspower - und die ist bei der FX absolut vorhanden, ich verstehe nicht, warum du das absteitest.
Gehe ruhig auf mein von mir als Unterstellung Gekennzeichnetes ein, ich provoziere eine Diskussion in die Richtung. Bleib aber bitte sachlich!
Ich wollte nie eine Fehde mit dir, du hast sehr empfindlich reagiert.
Na wenns dir nur um die Texturierung im DX8 Modus geht dann hast du sicher Recht.
Ich hacke speziell auf der FX-Serie herum weil sie als DX9-Karten verkauft wurden aber nie die Leistung in diesem Modus erbrachten die ich erwarte. Bei den billigen 5200/5600/5700 ist es egal. Die sind eben billig. Aber bei den teuren Karten sollte man eigentlich mehr geboten bekommen. Daß die FX5800 ein paar Quartale alt ist, ist keine Ausrede. Meine R300 ist noch älter!
Gegen nV im allgemeinen hab ich nichts. Bin nForce2 und Soundstorm-Fan! Und ich verteidige hier auch das winkelabhängige AF des nV40. War schon im Oktober 2002 von diesem Konzept überzeugt. Wenn nV das zuerst gebracht hätte dann wäre ich wahrscheinlich gar nicht zu ATI gewechselt.
Unfug
2004-12-21, 22:51:02
Super Kolumne.
Aber eine Frage häte ich noch:
Wäre also ein Spiel bei 640x480 mit 32xAA und 32xAF( Utopie) mit genauso einer Qualität wie bei 1600x1200 ohne AF?
höchstens wenn dein Bildschirm nur 640x480 schafft - ansonsten leidet das Bild wohl mehr unter grossen Pixeln = grobes Bild. Als Beispiel - kein AF/AA der Welt kann bei mir 512x384-Spiele retten, weder auf meinem 15" TFT noch auf dem 17" CRT, von grösseren Monitoren ganz zu schweigen, in solche Riesenpixel kannst du ja keine neuen Infos quetschen
zusammengefasst - mehr Auflösung bringt weniger (Bildqualität/Performance) als gutes AF+AA, insbesondere wenn der Monitor die "scharfen" Auflösungen wie 1600x1200 nicht sinnvoll bewältigt (d.h. TFTs mit 19" oder weniger sowie die meisten CRTs mit <21"). Aber AF und AA kann man nicht universell verwenden um niedrige Auflösungen auszugleichen.
Auflösung ist nicht unwichtig - schon gar nicht ineffizient (zumindest in gewissen Maßen nicht).Sofern eine angenehme Feinkörnigkeit erreicht ist, wird Auflösungssteigerung gegenüber AA und AF sehr ineffizient, denn dem quadratischem Aufwand steht der nur lineare Aufwand beim AF gegenüber. Wo die "angenehme Feinkörnigkeit" liegt habe ich bewusst offen gelassen, da hier jeder andere Präferenzen hat.
Die Kolumne tut gerade so, als würden AA und AF die Probleme durch eine geringe Auflösung in Wohlgefallen auflösen - wenn dem so wäre, könnte ich zustimmen.
Allein, sie doktern nur an den Symptomen herum, ohne die Ursache zu bekämpfen.Doch. Oder anders, die Auflösung zu erhöhen ist ebenfalls nur ein "rumdoktoren".
Die Auflösung bestimmt, wie viele Informationen pro Fläche, sagen wir mal pro cm², dargestellt werden könnten. Erst mit AA und AF erreicht man, dass die Farben der einzelnen Pixel wirklich ihrem "möglichen Informationsgehalt" nahekommen.
Es ist nicht sinnvoll, den Audio-Inhalt einer ausgeleierten, auf Fe basierten Kassette mit 192 KHz und 24 Bit Auflösung zu samplen. Dann schon lieber 44,1 KHz und 16 Bit, dafür mit einem sorgfältigen Einsatz von Rauschfiltern.
Genauso wenig wäre es sinnvoll, bei einem Stecknadelkopf-großem Objektiv einen CCD-Chip mit etlichen Megapixeln zu verwenden. Dann lieber einen CCD-Chip, der rauscharm arbeitet und Blooming verhindert.
Bei erreichter angenehmer Feinkörnigkeit ist es nicht sinnvoll, zulasten von AF die Auflösung zu steigern. Natürlich haben auch AA und AF ihren "Grenznutzen", so bringt 4x AA/AF eben weniger als "doppelt so viel" wie 2x AA/AF. Irgendwann gelangt man dann zu einem Punkt, wo – für einen gewissen Bereich – die Auflösungssteigerung wieder mehr bringt. Jedenfalls, damit AF pro Rechenleistungsverbrauch so viel bringt, wie möglich, muss es un-"optimiertes" AF sein. Darum geht es in der Kolumne – obwohl man "dank" "optimiertem" AF die Auflösung höher stellen kann, nimmt die Gesamtbildqualität ab.
mir ist bekannt, daß eine FX5800 meist langsamer als eine R9700p ist und nein, es tut mir nicht weh, das zu schreiben.[/i]Gut dass du das mal ansprichst! Ohne AA und AF sind FX 5800 und Radeon 9700 in vielen Spielen CPU-limitiert. Mit AF wird die 5800 angesichts geringerer Rohleistung eher GPU-limitiert als die 9700. Deshalb scheint es so, als ob AF besonders brutal zuschlagen würde. IIRC hast du mal Radeon-Tests in GPU-limitierten Szenen durchgeführt und gezeigt, dass AF in diesem Szenario mehr kostet als gedacht.
Freilich finde ich den ganzen optimierungswahn alles andere als gut, nur "echtes" winkelunabhängiges AF kostet massiv Leistung."Vollwinkel-AF" bringt trotzdem pro verbrauchter Rechenleistung den besten Qualitätsgewinn. Wenn man nicht genug Leistung für 16x "Vollwinkel-AF" hat, kann man ja 8x einstellen. Dazu ist die Abstufung schließlich gedacht. Warum hat man 2x, 4x und 8x wenn man eh nur 16x nutzt, dieses aber nicht alle Flächen mit bis zu 16x behandelt?
Wie sieht da wohl die Leistung aus wenn AF16x ohne Winkel mit 4xFSAA oder 8X FSAA aktiviert ist das ganze noch in 1600x1200
Freilich das Bild ist super, nur werden die aktuellen Games als Slideshow ablaufen.Richtig – aber wer hat die Möglichkeit, 1600x1200 ergonomisch zu fahren?
Ich persönlich muss sagen das die BQ nicht wirklich mies ist, hier wird ja wiedereinmal fast so getan als ob man Augenkrebs bekommen würde.Es wird von den IHVs die Möglichkeit verschenkt, die GPU-Leistung bestmöglich in Qualität umzusetzen. Weil eben viele immer noch glauben, Auflösung sei das einzig Wahre.
Ich würde es eher empfehlen das man einen Artikel objektiv schreibt und auf die Vor und Nachteile beider AF Verfahren eingeht.Abgesehen von einem seltenen Spezialfall hat das NV40- oder ATI-AF gegenüber GeForce FX- oder S3 DC-AF keine Vorteile. So einfach ist das :)
Dennoch könnte man mit einer alten GeForce3/4 es versuchen beiderseitig zu beleuchten, mit mehren Anwendungen und die Screens offen legen und nicht immer nur über die Theorie das ganze ablästern.Auf Screens habe ich bewusst verzichtet. Ansonsten würden Diskussionen enstehen, ob das Bild wirklich schlechter sei oder nicht nur "anders", und so weiter. Um eine solche Diskussion auf fachlicher Ebene zu führen, müssen bestimmte Vorkenntnisse vorhanden sein. Ansonsten gewinnt der innere Schweinehund (bzw. der innere Fanboy) wenn es um die Bewertung geht. Ich weiß nicht wie ich das sagen soll, ohne jetzt wie eine überhebliche Anusöffnung dazustehen, doch die erforderlichen Kenntnisse in der Signaltheorie sind bei den wenigsten Foren-Teilnehmern vorhanden.
Ich denke auch, das Auflösung durch ncits zu ersetzen ist. Dann denkst du falsch.
Sorry für die ruppige Formulierung!
Die Bildschirmauflösung gibt an, mit welcher Abtastrate die vorliegenden Daten (Geometrie und Oberflächen-Texturen) gesampelt werden. Angenommen, wir haben ein reines Sinus-Signal mit f = 1 KHz. Das muss man nach Shannon mit mindestens fA = 2 KHz abtasten. Mit fA > 2 KHz kann man das Signal aber immer vollständig rekonstruieren. Wenn man mit 4, 8, oder 16384 KHz abtastet – es wird einfach nicht mehr genauer. Wir haben hier einen Fall, in dem erhöhte Auflösung nichts bringt.
Nun ist das beim 3D-Bild nicht ganz so einfach. Die Geometrie liegt außerdem dermaßen präzise vor, dass man mit erhöhter Auflösung bei den heutigen technischen Möglichkeiten immer auch ein besseres Bild erhält. Gesteigerte Auflösung bringt also nicht nichts.
Es gibt aber in Bezug auf die Geometrie Möglichkeiten, mittels einem sparsed grid Multisampling Antialiasing, nur die Geometrie ansich höher aufzulösen, und somit rechenschonend ein besseres Bild zu erzeugen.
Mittels AF steht die Möglichkeit zur Verfügung, einen Filterkernel nicht-quadratischer Form zu emulieren, kurz gesagt, on the fly Texturen "in der benötigten Richtung" besser aufzulösen. Auch das bringt mehr, als via allgmeiner Auflösungssteigerung Texturen in alle Richtungen höher aufzulösen.
Nun gehen beim AA-Downsampling und beim AF-Sampling die Lokalitätsinformationen der Zusatzsamples verloren. Das mag den einen oder anderen dazu bewegen, anzunehmen, deshalb wäre AA/AF als "Rumdoktorn" zu betrachten. Dennoch hat man auf die Fläche gerechnet mehr Informationen, womit AA/AF eine "echte" Informationsgewinnungsmethode darstellen. Der Aufwand von AA und AF ist bei tatsächlich optimaler Implementierung jeweils nur linear. Der Aufwand via Auflösungssteigerung ist immer quadratisch.
Allerdings wird Auflösung aus verschiedenen Gründen zunächst dringender gebraucht als AA und AF, denn erst mal muss die Potenz da sein, überhaupt eine vernünftige Menge an Informationen darzustellen. Dann jedoch wird Auflösungssteigerung immer ineffektiver, und es schlägt die Stunde von AA und AF.
[COLOR="#000088"]
Deltachrome, FX5800 und GeForce 3 (die hab ich lang genug gehabt) performen sehr schlecht mit "echtem" AF.
ATI und nV haben sich schon was dabei gedacht AF adaptiv zu gestalten. aths ewiger Kreuzzug ist nur noch peinlich. Er kann ja wunderbar theoretisieren. Fakt ist daß AF auf GF3 und 4 derbste Performaceeinbrüche brachte. Das hat einem die Tränen in die Augen getrieben. aths sollte es mal unterlassen diese Fakten auf rethorisch geniale Weise unter den Tisch fallen zu lassen und einsehen daß er mit seinem Kreuzzug auf dem Holzweg ist.Bei der GF4 Ti gibts bei bilinearem AF ein Performance-Problem. Ansonsten wird pro verbrauchter Leistung (gerechnet auf die Grundleistung, die bei der 5800 geringer ist als bei der 9700) mehr Qualität erzeugt als bei ATI oder beim NV40 ab 4x AF. Das ist so, ob du das glaubst oder nicht.
*Qualität ist gerade in dem Fall was sehr subjektives. Bspw. würde unoptimiertes winkelunabhängiges Lehrbuch AF auch bei komplett einfärbigen Texturen immernoch deutlichst mehr Leistung als die optimierten AF Methoden brauchen, ohne dass sich das Ergebnis auch nur irgendwie unterscheidet (klar point sampling würde da genauso reichen ;)) Den Text musste ich von der Größe her im Rahmen halten. Es ist natürlich nicht sinnvoll, einfarbige Texturen mit 16x AF sampeln. Dann muss die Applikation selbst den AF-Grad festlegen, was man bis heute leider nur selten sieht.
AF ist immer adaptiv umgesetzt. Als weiteren adaptiven Grad die Sampling-Frequenz nach dem Texturinhalt zu bestimmen ist zunächst eine clevere Idee. Aber ein guter Designer erstellt die Texturen so, dass sie jene zusätzliche Optimierung in der Praxis fast nichts bringen würde. Dann wäre es schneller, den Textur-Test wegzulassen und alles herkömmlich adaptiv zu sampeln.
Auch das beste unoptimierte AF kriegt das Geflimmer bei richtig bösen Texturen nicht weg. Ein gutes Artwork zeichnet sich weiterhin dadurch aus, auch auf solche "bösen" Texturen zu verzichten.
Man kann beim AF durchaus einige Samples einsparen, ohne das Nyqist-Kritierum zu verletzen. Mir schwirren da ein paar Ideen durch den Kopf. Die Umsetzung erfordert allerdings zusätzliche Rechenwerke, am besten mit FP32-Präzision. Wir haben heute im NV40 feinste FP32-Rechenwerke, die der IEEE-Spec recht nahe sind, im R420 FP32/FP24-Rechenwerke, die für erstaunliche Pixelshader-Effekte genau genug sind. Wir brauchen ein vergleichbar hochwertiges AF!
mapel110
2004-12-22, 01:56:15
Ein gutes Artwork zeichnet sich weiterhin dadurch aus, auch auf solche "bösen" Texturen zu verzichten.
wodurch wird eine Textur böse? nur durch "wenig unterschiedliche Farben"?
Super Kolumne.
Aber eine Frage häte ich noch:
Wäre also ein Spiel bei 640x480 mit 32xAA und 32xAF( Utopie) mit genauso einer Qualität wie bei 1600x1200 ohne AF?Das hängt davon ab. Auflösung muss schon sein – so nützt das beste Antialiasing nichts, wenn man in 640x480 arbeitet. Es bleibt (angesichts heutiger Monitorflächen) ein grober Eindruck. Würde man die 640x480-Auflösung jedoch auf eine höhere Interpolieren (wodurch Unschärfe ins Spiel kommt) hätte man – bei entsprechendem Content – etwa das Bild einer NTSC-DVD. Dass DVD-Filme realistischer aussehen als Computerspiele hängt natürlich damit zusammen, dass Computer heute weder die Geometrie-Auflösung, noch die realistischen Oberflächentexturen bieten können, vom Lighting und Shadowing ganz zu schweigen.
Nun bin ich Fan von der HDTV-Auflösung 1920x1080. Entsprechend hochwertig aufgezeichnete Filme werden entsprechenden visuellen Genuss bieten. Widerspricht das jetzt der Kolumne?
Nein. Die Kolumne sieht, dass die Leistung der GPUs begrenzt ist, und fordert, dass die vorhandene Render-Leistung bestmöglich in Qualität umgesetzt wird. Dieses Kriterium führt dann eben nicht zur maximal möglichen Auflösung zulasten AA/AF.
wodurch wird eine Textur böse? nur durch "wenig unterschiedliche Farben"?Böse Texturen sind Texturen, die entweder hochfrequentes, starkes Rauschen beinhalten, oder die die Maximalfrequenz voll ausnutzen (sprich, ein texelweises Schachbrettmuster ist die vorstellbar böseste Textur.)
Gerade weil kein vernünftiger Designer auf die Idee kommt, "vollböse" Texturen einzusetzen, kam erst ATI, später auch NV auf den Trichter, gleich zu untersampeln. Wohin das führt sieht man ja: Zu Texturflimmern, das je stärker ist, desto schärfer die Texturinhalte sind, während die Screenshots scheinbar besonders scharfe Texturen zeigen.
Ehemals machte AF das Bild immer noch besonders ruhig, gerade weil (aus verschiedenen Gründen) ein leichtes Oversampling stattfand. Was ist nun besser: Ein AF womit man Gefahr läuft, dass es flimmern kann, oder lieber eine 10% langsamere Grafik bei einem auch in Bewegung ruhigen Bild?
Hmm,
Also ich spiele nur auf 1600x1200, da das die Auflösung meines LCD Display ist.
Hmm,
Also ich spiele nur auf 1600x1200, da das die Auflösung meines LCD Display ist.*Krümelkacker-Modus* Deines LC-Displays. */Modus*
Beim TFT ist es natürlich in der Regel die beste Wahl, mit der nativen TFT-Auflösung zu spielen.
MadManniMan
2004-12-22, 03:32:42
Generell ACK, nur ists was anderes, wenn ne Karte gleichen Alters/Preises trotz höherer Auflösung, 4xAA und DX9 mehr fps bringt als besagt FX5800.
Aber darum gehts ja garnicht, deswegen wieder Ontopic plz =)
Ja, nur nochmal ganz kurz... ich würde nie leugnen, daß ne R9700 im Ganzen besser ist und daß das AA und die SM2.0 Geschwindigkeit hier überlegen sind, aber es geht ja auch gar nicht um die Karte an sich, sondern um Lehrbuch-AF, unabhängig von den Rahmenbedingungen.
Und hier sehe ich das Potential von Top-Notch Produkten: viel Leistung in viel Qualität stecken! Und die FX5800 hat doch noch recht viel Leistung.
...warum stecken denn so viele ihre teuer bezahlten Füllraten und Bandbreiten in Supersampling-Modi? ;)
Wir haben mit der X800 XL bald auf dem PCIe Markt einen Preis-Leistungs-Kracher ... aber warum? Weil die Füllrate "intelligent gespart" wird. Die Differenz zu ner X800 XT wäre doch viel größer, würde das AF auch wirklich so kompromißlos wie bis einschließlich den FXen vor den Treibereien eingesetzt.
Wie aths schon sagte: lieber 10% "unnötig" Leistung verschenken für Oversampling, als extreme Standbildschärfe mit Geflimmer. Und im Fall von AF speziell: ...als in manchen (Textur-)Bereichen einen Matsch zu haben.
Das ist doch auch das Prinzip des Supersampling-Krams - und das ist wirklich beliebt!
...ich glaub, ich zieh mir nachher mal eine Diashow mit geforctem DX9, 8xS und HQ 8*AF rein ;)
MadManniMan
2004-12-22, 04:34:21
Vorweg: die Quintessenz dieser Kolumne ist für mich, daß die Optimale Balance zwischen Auflösung, AA und AF gefunden werden soll.
Dabei ist zu beachten, daß es für jeden wohl jeweils ein subjektives Gleichgewicht gibt(objektivierbar ist es sicherlich auch, macht aber imho nur als ergänzende Betrachtung Sinn), das hervorruft, daß ab einer gewissen
Feinkörnigkeit eher mehr AA und AF Sinn macht - andersherum ists dann aber genauso. Wenn es die Leistung zuließe, würde ich erst wieder über einen neuen Monitor nachdenken, wenn ich in 1280*1024 auf sichtbaren 17" mit 6*AA laut ATi und 8*HQ AF laut NV20-38 noch Reserven hätte.
ok ... die Frage ist nur ob man die Hersteller überhaupt dazu bringen kann in nächsten Generationen die Optimierungen wegzulassen :confused:
Vielleicht wenn man es Ihnen als Marketing-Argument verkauft... =)
Ich habe eine Hoffnung: durch künftige Shaderlastigkeit wird Zeit für die TMUs frei, zu spielen. Zudem sollte doch gerade nV merken, daß die Hybrid-AA-Modi recht beliebt sind ... von daher habe ich die Hoffnung nicht aufgegeben, daß zumindest künftige nV-Karten als Alternative mustergültige BQ bieten werden.
Na wenns dir nur um die Texturierung im DX8 Modus geht dann hast du sicher Recht.
Es geht mir ja eigentlich nur sekundär um die FXen. Primär geht es mir darum, daß ich bei den texelstarken Karten gerne die Möglichkeit hätte, "winkelechtes" AF zu nutzen.
NV30/35/38 boten, bzw. bieten(zunehmend seltener ;) ) wirklich hohe Füllraten und erlauben den im Ganzen wirklich guten 4*AF Modus fast immer, den exzellenten 8*Modus doch oft.
Wäre die NV3X-Reihe zusätzlich gut für DX9-Apps, fiele es dir leichter, meine Andeutungen im Zusammenhang einzugrenzen?
Ich hacke speziell auf der FX-Serie herum weil sie als DX9-Karten verkauft wurden aber nie die Leistung in diesem Modus erbrachten die ich erwarte. Bei den billigen 5200/5600/5700 ist es egal. Die sind eben billig. Aber bei den teuren Karten sollte man eigentlich mehr geboten bekommen. Daß die FX5800 ein paar Quartale alt ist, ist keine Ausrede. Meine R300 ist noch älter!
Sieh es so: mit dem R300 ist ein 1337-Chip entstanden, der NV30 war "nur" gut. Dumm gelaufen ist die Vorraussetzung von FP24, dreist fand ich lediglich nVs Ansatz, für SM2.0 FX12 noch anwenden dürfen zu wollen. FP16 hätte IMHO der Spielerwelt nicht geschadet ;)
Mich würde echt interessieren, wie vor allem die Graka-Welt mit FP16 SM2.0 ausgesehen hätte :ugly:
Und ja, die FXen haben gegen die 9500 - 9800er das Nachsehen, nur Teildiszipilinen(Lehrbuch-AF, Hybrid-Modi, zuverlässigeres On-The-Fly Switchen von AA und AF) haben mich zum Kauf überredet. Naja ... und der Preis von 90€ :D
Gegen nV im allgemeinen hab ich nichts. Bin nForce2 und Soundstorm-Fan! Und ich verteidige hier auch das winkelabhängige AF des nV40. War schon im Oktober 2002 von diesem Konzept überzeugt. Wenn nV das zuerst gebracht hätte dann wäre ich wahrscheinlich gar nicht zu ATI gewechselt.
Hm, also nur eine FX-Phobie ;)
Und das Thema Winkel-AF ... es ist nur schwerlich objektivierbar, da Empfinden einfach subjektiv gesteuert ist.
Dennoch erschließt sich auch mir die Logik dieser Vorgehensweise nicht immer, bin geneigt zu fordern, den User entscheiden können zu lassen, wobei ich bei einer entweder/oder Wahl aufs Lehrbuch AF zurückgriff.
Nur eine Bitte: bleibe bei allem hier sachlicher! Wenns um die Argumentation klassisches vs. "modernes" AF geht, wirst du aus irgendeinem Grund emotional.
Ja. Aber reden wir hier über DX8? Man kann sich natürlich uralte Games raussuchen und dann dovon schwärmen wie schnell und toll das "echte" AF ist.
Es war die Rede von AF, nicht von DX8 und auch nicht von DX9. Wieso für DX9 winkelabhängiges AF wichtiger sein sollte ist mir schleierhaft, schließlich sinkt sogar das Verhältnis Texops zu arithmetischen Berechnungen.
Man kann sich natürlich Karten mit winkelabhängigem AF raussuchen und dann davon schwärmen wie schnell (nicht toll) das 16x AF ist. Dass dann bei einem großen Teil des Bildes nicht der eigentlich notwendige AF-Grad appliziert wird, kann man ja ignorieren.
Oder aber man sieht z.B. beim DeltaChrome, dass der Performance-Einbruch für echtes 16x AF gar nicht so groß sein muss
MadManniMan
2004-12-22, 05:15:27
Danke Xmas, in dieser Konsequenz hatte ich es bisher nicht ausdrücken können :D
Nebenbei kann man anmerken, daß alle Karten mit "zuviel" Füllrate für vernünftiges AF wirklich geeignet sind ... das sollte man bei der Betrachtung des DC nicht vergessen, das ungeteilte Winz-Speicherinterface wird dem Chip einfach nicht wirklich gerecht.
Chris Lux
2004-12-22, 08:09:48
Böse Texturen sind Texturen, die entweder hochfrequentes, starkes Rauschen beinhalten, oder die die Maximalfrequenz voll ausnutzen (sprich, ein texelweises Schachbrettmuster ist die vorstellbar böseste Textur.)
HL² ist voll mit solchen 'bösen' texturen.
hier an der im bild links hauswand
http://img60.exs.cx/img60/8577/hl22004-11-1617-47-16-53.jpg
und wer es hier findet, darf es behalten ;)
http://img112.exs.cx/img112/5562/hl22004-11-2122-55-40-78.jpg
wegen diesen artefakten hab ich HL² dann auch auf 4xAF zurückgestellt, da mir das geflimmer viel mehr auf den sack ging als etwas unschärfere texturen in der entfernung. ich schreibe dies auch der negative texture lod einstellung der aktuellen treiber (ati UND nv) zu. (wobei man dies bei neuren nv treibern abstellen kann).
edit: bilder sind aus dem screenshot thread (beide von dildo4u mit 6800GT 1280*1024 4XAA 16Aniso alle details High)
Danke Xmas, in dieser Konsequenz hatte ich es bisher nicht ausdrücken können :D
Nebenbei kann man anmerken, daß alle Karten mit "zuviel" Füllrate für vernünftiges AF wirklich geeignet sind ...Auch wenn die Füllrate knapp ist, ist "Vollwinkel-AF" sinnvoll. Dann halt nur 2x oder 4x. (S3 bietet auch Zwischenstufen wie 3x, 5x, 7x etc. Das ist natürlich noch besser.)
Radeonator
2004-12-22, 08:43:20
Deltachrome, FX5800 und GeForce 3 (die hab ich lang genug gehabt) performen sehr schlecht mit "echtem" AF.
ATI und nV haben sich schon was dabei gedacht AF adaptiv zu gestalten. aths ewiger Kreuzzug ist nur noch peinlich. Er kann ja wunderbar theoretisieren. Fakt ist daß AF auf GF3 und 4 derbste Performaceeinbrüche brachte. Das hat einem die Tränen in die Augen getrieben. aths sollte es mal unterlassen diese Fakten auf rethorisch geniale Weise unter den Tisch fallen zu lassen und einsehen daß er mit seinem Kreuzzug auf dem Holzweg ist.
Sry, aber da wiederspreche ich einfach mal! Für das gebotene AF performt gerade die DC sehr gut! Das einzige was peinlich ist, ist etwas nicht zu verstehen und andere für das eigene nicht begreifen zu beleidigen...
Er hat nichts unter den Tisch fallen lassen, vielleicht solltest du den Text mal ganz lesen, statt einen Kreuzzug für minderwertige Qualität ins Leben zu rufen!
*Kopfschüttel*
Zitat aus dem Artikel : Wir sehen schon, dass die AF-Leistung völlig falsch eingeschätzt wird. Opfert man mit 8x AF 50% der Leistung, wird das schon als "schlecht" angesehen – in Wahrheit ist das gut. Sollte 8x AF nur 30% an Leistung kosten, wäre dies in grafikkartenlimitierten Szenen nur darüber zu realisieren, das tatsächlich nur wenige Pixel verbessert werden.
Es geht vor allem um Highend und dort kann man jawohl max Quali erwarten! Man gibt doch keine 400 Euronen und aufwärts aus, um optimierten Pixelbrei kredenzt zu bekommen!
Bring doch mal ein echtes Argument, Aths theoretisiert und beschönt nichts, sondern liefert Fakten. Das ist ein riesen Unterschied und zudem etwas, das du uns noch schuldig geblieben bist...
Es geht vor allem um Highend und dort kann man jawohl max Quali erwarten! Darum geht es auch, aber nicht nur. Auch kleine Karten würden ja davon profitieren, wenn die Texturfüllraten-Leistung bestmöglich in Qualität umgesetzt würde.
Nun kann man bei Karten à la Radeon 9600 sagen, ok, zu dem Preis muss man in Kauf nehmen dass an der Umsetzung der AF-Formel gespart wurde, weshalb man ein weniger optimales Muster geboten bekommt. Die von einigen Leuten aufgestellte Behauptung, große Karten würden bei optimalem 16x AF zu langsam sein, kann ich nicht nachvollziehen. Erstens sehe ich in der Breite nicht die Notwendigkeit, 1600x1200 zu nutzen. Zweitens, selbst wenn die Karten für 16x "Vollwinkel-AF" zu langsam wären, geht es doch nicht darum ein AF zuzuschalten was "16x" heißt und irgendwo auch mal 16x nutzt. Besser wäre ein niedrigerer AF-Grad, der dafür überall dort, wo es die Qualität erhöhen würde, auch appliziert würde.
Mr. Lolman
2004-12-22, 12:35:10
Besser wäre ein niedrigerer AF-Grad, der dafür überall dort, wo es die Qualität erhöhen würde, auch appliziert würde.
Kann man auch nicht verallgemeinern. Denn der Durchschnittsspieler achtet nicht auf alle Bildbereiche gleich stark. (z.B. kuckt man durchschnittlich öfter genau in die Mitte, als rechts unten)
Man könnts mit FPS genauso erklären aber nehmen wir jetzt mal ein Rennspiel. Die Rennstrecke ist selten geneigt (maximal bei Nascar Racing), als kein Problem für Winkelabhängigkeit. Der Blick des Spielers ist auf den Fluchtpunkt konzentriert, um den Streckenverlauf rechtzeitig zu erkennen. Links und rechts sind meinetwegen Berge.
1. Ist durch die hohen Polygonzahlen der Übergang zw. gutem und schlechtem AF meistens ein fliessender.
2. Sind die Berge für den unmittebaren Naheindruck ohnehin scharf genug (Gäbs nicht so weite gleichmässige Flächen würd 2xAF bei vielen Spielen locker reichen)
3. Soll AF zwar mehr Schärfe in die Texturen reinbringen aber tut das u.U. zu Lasten des Realismus, da bei sehr hohen AF Stufen in der Entfernung deutlich zu sehen ist, wie die Texturen aneinander gekachelt sind (bspw Serious Sam)
4. Wenn die Optimierungen nur 10% bringen würden, bräucht ich sie auch nicht. Imo ist aber dadurch 40-50% Mehrleistung drinnen.
5. Aufwändigere Spiele kommen immer. Ohne dieser Mehrleistug wär wahrscheinlich das erste Spiel bald da, was man auf den neuen HighEnd Karten nicht mehr mit 1280x1024 8/16 xAF spielen kann. Da wär das Geschrei wohl größer, als wenn ein paar Forum Freaks ein Flimmern entdecken, was 50% der 0815 Spieler nicht sehen, und den restlichen 50% wurscht ist..
6. AF Optimierung = Super, aber Möglichkeit zu unoptimiertem AF wär nett :)
Kladderadatsch
2004-12-22, 13:11:53
mal was ganz anderes:
heißt die redewendung nicht "die finger von etwas lassen", statt die "hände"?:wink:
seahawk
2004-12-22, 14:45:34
BTW: Wer hat die Mär von der notwendigen hohen Bildschirmauflösung, um hochauflösende Texturen korrekt darzustellen, erfunden?
Sobald man sich einer texturierten Wand so sehr nähert dass dargestellte Pixel/Texel>1, hat eine Texturauflösung, die höher ist als die Bildschirmauflösung, Sinn. Auch mit 320x200 können 2048² Texturen sinnvoll sein. Außerdem kann man die Textur auch strecken. Sie muß ja nicht unbedingt 1:1 auf die Polygone geklebt werden :)
Aber gerade gestreckte Texturen wirken arg verwaschen und detailarm. Weswegen ich auch heute noch überwiegend in 1024x768 spiele. Die meisten Texturen erreichen in dieser Auflösung maximale Qualität.
Mr. Lolman
2004-12-22, 14:53:00
Aber gerade gestreckte Texturen wirken arg verwaschen und detailarm.
Mit Detailtexturing kein Problem... Außerdem hab ich schon zu V3 Zeiten (wo die meisten noch in 800x600 spielten) für UT99 ne 2048² Landschaftstextur zusammengefitzelt (http://img27.exs.cx/my.php?loc=img27&image=Untitled-265.jpg) und da war mir die Auflösung fast noch zu gering, obwohl die Arbeit mit 64x256² Tiles schon genug war. 4096² wär mir händisch zu zach gewesen, und irgendwann limitert ja auch der GraKaspeicher von so ner Voodoo3 ;)
Tigerchen
2004-12-22, 15:23:04
Bei der GF4 Ti gibts bei bilinearem AF ein Performance-Problem. Ansonsten wird pro verbrauchter Leistung (gerechnet auf die Grundleistung, die bei der 5800 geringer ist als bei der 9700) mehr Qualität erzeugt als bei ATI oder beim NV40 ab 4x AF. Das ist so, ob du das glaubst oder nicht.
Hab ich das abgestritten? Ich glaube nicht. Die Qualität ist immer etwas besser. Du verlierst trotzdem mehr Leistung als den meisten Leuten lieb ist. Das Volk hat jedenfalls mit den Füßen abgestimmt. Du kannst nicht behaupten daß sind alles nur Deppen ohne Ahnung. Die DAU's kaufen FX5700 oder R9600 SE. Aber keine R9800 Pro die jetzt überall ausverkauft ist. Komm mal raus aus deinem Elfenbeinturm.
L4gW4g0n
2004-12-22, 15:30:27
3. Soll AF zwar mehr Schärfe in die Texturen reinbringen aber tut das u.U. zu Lasten des Realismus, da bei sehr hohen AF Stufen in der Entfernung deutlich zu sehen ist, wie die Texturen aneinander gekachelt sind (bspw Serious Sam)
5. Aufwändigere Spiele kommen immer. Ohne dieser Mehrleistug wär wahrscheinlich das erste Spiel bald da, was man auf den neuen HighEnd Karten nicht mehr mit 1280x1024 8/16 xAF spielen kann. Da wär das Geschrei wohl größer, als wenn ein paar Forum Freaks ein Flimmern entdecken, was 50% der 0815 Spieler nicht sehen, und den restlichen 50% wurscht ist..
sorry, aber 3. is mir noch nie aufgefallen :|
Und zu 5. Entweder du hast nicht verstanden um was es hier geht oder... *auchnichtweiterweiss*
Schönen Tag
Bei der GF4 Ti gibts bei bilinearem AF ein Performance-Problem. Ansonsten wird pro verbrauchter Leistung (gerechnet auf die Grundleistung, die bei der 5800 geringer ist als bei der 9700) mehr Qualität erzeugt als bei ATI oder beim NV40 ab 4x AF. Das ist so, ob du das glaubst oder nicht.
Warum ist die grundleistung beim Texturieren eigendlich bei der 9700er niedriger als bei der 5800er? Da stehts doch 8*1 gegen 4*2, aber mit höherem Takt.
MadManniMan
2004-12-22, 15:47:01
Hab ich das abgestritten? Ich glaube nicht. Die Qualität ist immer etwas besser. Du verlierst trotzdem mehr Leistung als den meisten Leuten lieb ist. Das Volk hat jedenfalls mit den Füßen abgestimmt. Du kannst nicht behaupten daß sind alles nur Deppen ohne Ahnung. Die DAU's kaufen FX5700 oder R9600 SE. Aber keine R9800 Pro die jetzt überall ausverkauft ist. Komm mal raus aus deinem Elfenbeinturm.
Weil die Karte einfach ne heftige Grundperformance hat und vor allem gegenüber der FX-Reihe weitere Vorteile bietet - das schnellere AF ist nur die Spitze des Eisberges.
Tigerchen
2004-12-22, 15:48:13
Sry, aber da wiederspreche ich einfach mal! Für das gebotene AF performt gerade die DC sehr gut! Das einzige was peinlich ist, ist etwas nicht zu verstehen und andere für das eigene nicht begreifen zu beleidigen...
Er hat nichts unter den Tisch fallen lassen, vielleicht solltest du den Text mal ganz lesen, statt einen Kreuzzug für minderwertige Qualität ins Leben zu rufen!
*Kopfschüttel*
Zitat aus dem Artikel : Wir sehen schon, dass die AF-Leistung völlig falsch eingeschätzt wird. Opfert man mit 8x AF 50% der Leistung, wird das schon als "schlecht" angesehen – in Wahrheit ist das gut. Sollte 8x AF nur 30% an Leistung kosten, wäre dies in grafikkartenlimitierten Szenen nur darüber zu realisieren, das tatsächlich nur wenige Pixel verbessert werden.
Es geht vor allem um Highend und dort kann man jawohl max Quali erwarten! Man gibt doch keine 400 Euronen und aufwärts aus, um optimierten Pixelbrei kredenzt zu bekommen!
Bring doch mal ein echtes Argument, Aths theoretisiert und beschönt nichts, sondern liefert Fakten. Das ist ein riesen Unterschied und zudem etwas, das du uns noch schuldig geblieben bist...
Tu mal nicht so als ob optimiertes AF mit Point Sampling gleichzusetzen ist. Pixelbrei? Was soll daß denn für ein Argument sein?
Der Spruch von aths in Rot ist eine Delikatesse, keine Frage. Nur verbirgt er mehr Fakten als sie zu offenbaren. Richtig wäre folgende Formulierung:
Wir sehen schon, dass die AF-Leistung völlig falsch eingeschätzt wird. Opfert man mit 8x AF 50% der Leistung, wird das schon als "schlecht" angesehen – und so ist es auch. Sollte 8x AF nur 30% an Leistung kosten, wäre dies in grafikkartenlimitierten Szenen nur darüber zu realisieren, das tatsächlich weniger Pixel verbessert werden. Das ist sinnvoller weil in der überwältigenden Mehrheit der Szenen mittels optimiertem AF nur die relevanten Pixel verbessert werden.
Gerade weil es HighEnd ist, ist es doch immer ärgerlich wenn schon 6 Monate nach dem Kauf das erste Spiel erscheint daß die neue SuperDuper Grafikkarte in die Knie zwingt. Genau diese Situation ist mit der FX Serie direkt mehrfach eingetreten. Da die ganze Leistung in AF zu verballern nur um bißchen mehr Qualität zu kriegen hat sich übrigens auch an der Ladentheke nicht ausgezahlt für nV. Ich erwarte da vom nV40 keinen solchen Reinfall solange die neuen Technikdemo Effekte nicht genutzt werden. Und das werden sie wohl auch nicht.
Tigerchen
2004-12-22, 15:50:46
Weil die Karte einfach ne heftige Grundperformance hat und vor allem gegenüber der FX-Reihe weitere Vorteile bietet - das schnellere AF ist nur die Spitze des Eisberges.
Sicher. Nur ein Mosaikstein.
MadManniMan
2004-12-22, 16:06:40
Tu mal nicht so als ob optimiertes AF mit Point Sampling gleichzusetzen ist. Pixelbrei? Was soll daß denn für ein Argument sein?
Es ist auf jeden Fall ein besseres "Argument", als dein ständiges "Nee, Winkel-AF ist besser, weil: ist so."
Menschen haben ein Problem damit, wenn die Begründung für Dinge im Verborgenen liegt. Mein Bruder bekam 7 Jahre Ikea-Gardinen gucken, obwohl es keinen Beweis gab. Der letztendliche Grund für die Richterin war "Weil er schon eine Bewährungsstrafe hat." ... ein Derivat von "Ist so." - damit haben verständlicherweise nun viele Leute ein Problem... ;)
Ich selbst setze die Qualität von 16* Winkelmist-AF auf einem subjektiven Niveau mit etwa 4* Nünftigem gleich, wobei das natürlich nicht für andere gelten muß ;)
Der Spruch von aths in Rot ist eine Delikatesse, keine Frage. Nur verbirgt er mehr Fakten als sie zu offenbaren. Richtig wäre folgende Formulierung:
Wir sehen schon, dass die AF-Leistung völlig falsch eingeschätzt wird. Opfert man mit 8x AF 50% der Leistung, wird das schon als "schlecht" angesehen – und so ist es auch. Sollte 8x AF nur 30% an Leistung kosten, wäre dies in grafikkartenlimitierten Szenen nur darüber zu realisieren, das tatsächlich weniger Pixel verbessert werden. Das ist sinnvoller weil in der überwältigenden Mehrheit der Szenen mittels optimiertem AF nur die relevanten Pixel verbessert werden.
Tigerchen, das tut richtig weh! Wer um Gottes Willen legt denn fest, welche Winkel "wichtig" sind? ATi? nV? Der Hund von meiner Nachbarin?
Ach wäre das schön gewesen, wären nur 45° Winkel und deren Vielfache die "relevanten" für den R300 gewesen :ugly:
Ich erinner mich mit Schrecken an diverse runde Tunnel in vielen Spielen, mal ist der Mist scharf, mal matscht er rum. Aber die manchmal auch mit rund 22,5° in der Landschaft hängenden Hügelpolygone vor und hinter dem Tunnel folgen dem Schema, da gewöhnt sich das Menschlein mit der Zeit dann dran.
Richtig Lustig ists, wenn man wie z.B. in Halo einen runden Fahrstuhlschaft hoch- oder runterfährt und sich beim Blick nach oben dreht ;) LSD ist nix dagegen!
...ja, ich dramatisiere bewußt - um einfach mal die Gegenseite zu illustrieren. Du kehrst das Problem unter den Teppich. Ist für dich nicht vorhanden. Ist sogar gut! ;(
Gerade weil es HighEnd ist, ist es doch immer ärgerlich wenn schon 6 Monate nach dem Kauf das erste Spiel erscheint daß die neue SuperDuper Grafikkarte in die Knie zwingt. Genau diese Situation ist mit der FX Serie direkt mehrfach eingetreten. Da die ganze Leistung in AF zu verballern nur um bißchen mehr Qualität zu kriegen hat sich übrigens auch an der Ladentheke nicht ausgezahlt für nV. Ich erwarte da vom nV40 keinen solchen Reinfall solange die neuen Technikdemo Effekte nicht genutzt werden. Und das werden sie wohl auch nicht.
Du solltest ins Marketing gehen! Du bist dir der Problematik einer High-End-Karte bewußt: sie muß alles in Super-Hyper-Einstellungen sauflott darstellen können. Wenn sie ein bissel langsamer ist, dabei aber besseres ausspuckt, ist die Karte scheiße ... die gute alte Balkenproblematik ;)
Daß kaum jemand ohne Ahnung die Problematik kennt, oder gar begreift, ist kaum verwunderlich...
Sicher. Nur ein Mosaikstein.
Eben - aber du drehst der FX einen Strick aus dem AF. Diese Betrachtungsweise ist imho zu einseitig.
L4gW4g0n
2004-12-22, 16:18:51
Sicher. Nur ein Mosaikstein.
Ja die Winkelabhängigkeit bringt nicht viel Geschwindigkeit! Man kanns nur nicht messen weil man sie bei keinem Chip abstellen kann. Das meiste Von dem Speed kommt vom "bir" Filtern und "Stages über 1 mit maximal 2x af oder ganz ohne" zu filten.
Ein einfaches beispiel:
geg.: Chipleistung: 100
ges.: Qualität
So jetzt hat man chip A mit "winkelabhängigkeit"
Man kann eine tolle rießige Zahl beim AF einstellen nämlich "16" und erreicht jetzt Qualität "50" und Geschwindigkeit "50"
Mit Chip B ohne abhängigkeit kann man nur die kleine minderwärtige Zahl "8" einstellen und wenn man das bei 3dc im Forum schreiben würde, würden einen alle anderen Member gleich auslachen weil 8 eine so kleine Zahl ist und alle anderen die Zahl 16 einstellen können! Aber dieser Chip erreicht jetzt auf einmal Qualität "60" und Geschwindigkeit "45"
Das eben weil die vorhandene Rechenleistung die nunmal fix ist besser in Qualität umgesetzt wird. Das will Aths doch die ganze Zeit sagen (macht er ja auch)! AF ohne optimierungen setzt die Rechenleistung OPTIMAL in Qualität um da kann man nichtsmehr Optimieren... Jede Optimierung kostet Qualität und zwar mehr Qualität als sie Geschwindigkeit bringt! Und da sagt der gesunde, menschliche Verstand einfach, dass das keinen Sinn ergibt.
Der Spruch von aths in Rot ist eine Delikatesse, keine Frage. Nur verbirgt er mehr Fakten als sie zu offenbaren. Richtig wäre folgende Formulierung:
Wir sehen schon, dass die AF-Leistung völlig falsch eingeschätzt wird. Opfert man mit 8x AF 50% der Leistung, wird das schon als "schlecht" angesehen – und so ist es auch. Sollte 8x AF nur 30% an Leistung kosten, wäre dies in grafikkartenlimitierten Szenen nur darüber zu realisieren, das tatsächlich weniger Pixel verbessert werden. Das ist sinnvoller weil in der überwältigenden Mehrheit der Szenen mittels optimiertem AF nur die relevanten Pixel verbessert werden.
"Optimiertes" AF verbessert nur die "relevanten" Pixel, richtig. Insofern ist winkelabhängiges AF nicht "optimiert", sondern lediglich performanter.
Pappy
2004-12-22, 17:10:42
Ich bin natürlich kein Experte, aber letzten Endes sind Grafikkarten zum Zocken gedacht. So war es zumindest als ich angefangen habe mich mit dem Scheiß zu beschäftigen ;) Als Spieler ist mir ehrlich gesagt wurscht, ob die Bildqualität perfekt ist oder nur "optimiert". Wenn ich in UT 2004 drei Gegner vor mir habe, dann habe ich erst recht keine Zeit mir anzusehen, ob die Texturen, obwohl 16 x eingestellt, nur nach 2x AF aussehen. Es gefällt mir immernoch gut und ich gehöre bestimmt nich zu den Spielern, die die Mipmapdetailstufe soweit herunterstellen, dass man nur noch Klötze und weiße Flächen erkennen kann. Vielleicht könnte es hier und da ein bisschen besser sein, es fällt ja schon irgendwie auf. Aber davon kann ich mir nix kaufen, wenn mir ständig die Frames wegbrechen. AF ist ein schönes Schmankerl auf welches ich nicht verzichten möchte, aber es muss auch einsetzbar bleiben, sonst bleibt einfach der Spielspaß weg. Das war bei meiner GF 3 aber nunmal nicht der Fall. Haltet mich für einen DAU, aber bei einer 500 €- Karte erwarte ich in erster Linie Geschwindigkeit. Ich denke mal für den Großteil der Konsumenten dürfte, mangels Sachkenntnis, das selbe gelten. Aths mag ja mit seiner Meinung in der Theorie recht haben, aber in der Praxis geht es den meisten wohl am After vorbei. Amen.
LovesuckZ
2004-12-22, 17:49:03
Haltet mich für einen DAU, aber bei einer 500 €- Karte erwarte ich in erster Linie Geschwindigkeit. Ich denke mal für den Großteil der Konsumenten dürfte, mangels Sachkenntnis, das selbe gelten.
Dann solltest du dir eher eine 1000€ CPU statt einer 500€ teuren Karte kaufen, da die maximalste Geschwindigkeit zum groeßten Teil von der CPU* abhaengt.
AA und AF sind nur Moeglichkeiten, überschuessige Leistung in Qualitaet ein zutauschen. Achja, wenn du den Unterschiecd zwischen 16x und 2x AF nicht sehest, wieso spielst du dann überhaupt mit 16?
Das was zur Zeit mit dem ansiotropen Filter geschieht unterbindet seine eigentliche Aufgabe und verkommt nur noch zu einen Balkenvergleichmaßstab, bei welchen nicht die Qualitaet sondern die zum Schluss übrig gebliebende Zahl über Sinn oder Unsinn entscheidet...
*Man kann davon ausgehen, dass du deine Aufloesung unter 1024*768 waehlst, alle deine Details herunterstellst und aufsonstige bildverschonenden Verwendungszwecke verzichtest.
ich glaub die meisten hier verstehen nicht,daß ein bilderbuch af- filter effizienter arbeitet als ein optimierter
wenn es euch mit "echtem" 16 oder 8 fach af zu langsam ist stellt doch einfach 2x oder 4x mal... und selbst da werdet ihr sehen, daß die quali besser ist als ein optimiertes 8fach
Tigerchen
2004-12-22, 19:15:39
Ja die Winkelabhängigkeit bringt nicht viel Geschwindigkeit! Man kanns nur nicht messen weil man sie bei keinem Chip abstellen kann. Das meiste Von dem Speed kommt vom "bir" Filtern und "Stages über 1 mit maximal 2x af oder ganz ohne" zu filten.
Ein einfaches beispiel:
geg.: Chipleistung: 100
ges.: Qualität
So jetzt hat man chip A mit "winkelabhängigkeit"
Man kann eine tolle rießige Zahl beim AF einstellen nämlich "16" und erreicht jetzt Qualität "50" und Geschwindigkeit "50"
Mit Chip B ohne abhängigkeit kann man nur die kleine minderwärtige Zahl "8" einstellen und wenn man das bei 3dc im Forum schreiben würde, würden einen alle anderen Member gleich auslachen weil 8 eine so kleine Zahl ist und alle anderen die Zahl 16 einstellen können! Aber dieser Chip erreicht jetzt auf einmal Qualität "60" und Geschwindigkeit "45"
Das eben weil die vorhandene Rechenleistung die nunmal fix ist besser in Qualität umgesetzt wird. Das will Aths doch die ganze Zeit sagen (macht er ja auch)! AF ohne optimierungen setzt die Rechenleistung OPTIMAL in Qualität um da kann man nichtsmehr Optimieren... Jede Optimierung kostet Qualität und zwar mehr Qualität als sie Geschwindigkeit bringt! Und da sagt der gesunde, menschliche Verstand einfach, dass das keinen Sinn ergibt.
So viele Worte nur um sich die Wahrheit so hinzubiegen wie man sie gerne hätte.
Bau dir ne GF3 ein.
Schalte den trilinearen Filter ein. Spiele Serios Sam oder Wolfenstein, beides damals aktuell.
Schalte 4x AF ein. Spiele nochmal. Dann weißt du was "Oldschool AF" kostet. In echt und ohne teoretisierendes Geschwaffel.
Wenn du oder aths meint daß das gerechtfertigt ist dann soll es mir Recht sein. Für mich ist es das nicht.
Tigerchen
2004-12-22, 19:17:28
ich glaub die meisten hier verstehen nicht,daß ein bilderbuch af- filter effizienter arbeitet als ein optimierter
wenn es euch mit "echtem" 16 oder 8 fach af zu langsam ist stellt doch einfach 2x oder 4x mal... und selbst da werdet ihr sehen, daß die quali besser ist als ein optimiertes 8fach
Nein. Das ist das Schlimme daran. Echtes AF ist einfach zu teuer. Wenn es so einfach wäre.....
Tigerchen
2004-12-22, 19:21:50
Eben - aber du drehst der FX einen Strick aus dem AF. Diese Betrachtungsweise ist imho zu einseitig.
Die FX'en haben viele Mängel. AF ist da nur ein Teilaspekt.
Quasar
2004-12-22, 19:36:04
Bau dir ne GF3 ein.
Schalte den trilinearen Filter ein. Spiele Serios Sam oder Wolfenstein, beides damals aktuell.
Schalte 4x AF ein. Spiele nochmal. Dann weißt du was "Oldschool AF" kostet. In echt und ohne teoretisierendes Geschwaffel.[/COLOR]
Warum eine GF3? Warum keine Ti4600? Oder FX5800u/FX5950?
BTW, wenn ich das täte, würde es ausser mit der GF3 keinen Unterschied machen, welchen AF-Level ich wählte. Und das ist mir Oldschool-AF allemal wert.
Quasar
2004-12-22, 19:38:23
Echtes AF ist einfach zu teuer.
Echtes AF im Sinne von GF2/GF3/GF4/GFFX/DC-AF ist nicht zu teuer.
L4gW4g0n
2004-12-22, 19:45:46
So viele Worte nur um sich die Wahrheit so hinzubiegen wie man sie gerne hätte.
Bau dir ne GF3 ein.
Schalte den trilinearen Filter ein. Spiele Serios Sam oder Wolfenstein, beides damals aktuell.
Schalte 4x AF ein. Spiele nochmal. Dann weißt du was "Oldschool AF" kostet. In echt und ohne teoretisierendes Geschwaffel.
Wenn du oder aths meint daß das gerechtfertigt ist dann soll es mir Recht sein. Für mich ist es das nicht.
Tut mir echt leid wenn ich, dass jetzt so direkt sage aber du WILLST es einfach nicht einsehen! Wie schonmal erwähnt immer nach dem "ne aber schau doch" prinzip... ohne ein Argument :frown:
Und ob du es glaubs oder nicht ich hab eine Ti4200 und kann selbst moderne Games noch mit AF spielen! wie:
Flatout 2af
XIII 2af
Serious Sam ob du es glaubst oder nicht 8af :P
Du kannst nicht einfach Karten nehmen die schon zig Jahre auf dem Buckel haben und bei denen zu 100% die Graka limitiert und dann sagen mach doch mal af an und schau wie Langsam alles wird. Und es dann mit einer 6800UE vergleichen die mit dem selben proz. läuft und sagen "Schau 16af und nur 2% langsamer" :hammer:
Quasar
2004-12-22, 22:36:45
Um nochmal das "echte" AF gegen das "unechte" zu stellen (und die "unterirdische" Performance der FX gegen die der nV40) hier noch eine kleine Tabelle:
Angegeben ist das Leistungsniveau in Relation zum Startwert
Det44.03 Quality Perf. High-Perf.
kein AF 100%
2xAF 70% 79% 87%
(max).4xAF 61% 64% 71%
max. 8xAF 54% 57% 63%
max. 16xAF ./. ./. ./.
Und jetzt der nV40 mit aktuellen Treibern und "HQ" - von dem ich vermute, daß er dem "Quality" sehr früher Treiber, wie den 44.03ern von oben, weitgehend entspricht. Wenn ich da falsch liegen sollte, bitte ich um Korrektur.
Angegeben ist das Leistungsniveau in Relation zum Startwert der nV40
FW67.02 High Quality
kein AF 100%
2xAF 71,7%
(max).4xAF 60,7%
max. 8xAF 54,6%
max. 16xAF 51,5
Woah!
Ich muss schon sagen, gegenüber dem AF der GeForceFX ein gigantischer Sprung. ;)
mapel110
2004-12-22, 22:43:37
ist das villagemark? ich wette, in einem echten game sieht das ganz anders aus!
ich wette, in einem echten game sieht das ganz anders aus!
Iwo, nur in den 3-4 shaderlastigen Spielen. :tongue:
Quasar
2004-12-22, 22:47:25
Klar ist das Villagemark - der genügt zum beweisen, daß es nicht am AF als solches liegt.
mapel110
2004-12-22, 22:51:50
Klar ist das Villagemark - der genügt zum beweisen, daß es nicht am AF als solches liegt.
türlich liegt das am AF, bzw an der Analyse der Texturen und Winkel, die widerum AF abbekommen. Für mich zählt diese Technik eindeutig zur Implementierung von AF.
Quasar
2004-12-22, 22:57:09
türlich liegt das am AF, bzw an der Analyse der Texturen und Winkel, die widerum AF abbekommen. Für mich zählt diese Technik eindeutig zur Implementierung von AF.
Du meinst also, daß diese "Analyse" mehr Rechenzeit verschlingt, als sie einspart? Oder wie darf ich dein Posting sonst verstehen?
mapel110
2004-12-22, 22:58:39
Du meinst also, daß diese "Analyse" mehr Rechenzeit verschlingt, als sie einspart? Oder wie darf ich dein Posting sonst verstehen?
nö, die Implementierung zielt eher auf Spielcontent ab, als auf den content von Villagemark. So meine ich das. :)
Dann solltest du dir eher eine 1000€ CPU statt einer 500€ teuren Karte kaufen, da die maximalste Geschwindigkeit zum groeßten Teil von der CPU* abhaengt.
AA und AF sind nur Moeglichkeiten, überschuessige Leistung in Qualitaet ein zutauschen. Achja, wenn du den Unterschiecd zwischen 16x und 2x AF nicht sehest, wieso spielst du dann überhaupt mit 16?
Das was zur Zeit mit dem ansiotropen Filter geschieht unterbindet seine eigentliche Aufgabe und verkommt nur noch zu einen Balkenvergleichmaßstab, bei welchen nicht die Qualitaet sondern die zum Schluss übrig gebliebende Zahl über Sinn oder Unsinn entscheidet...
*Man kann davon ausgehen, dass du deine Aufloesung unter 1024*768 waehlst, alle deine Details herunterstellst und aufsonstige bildverschonenden Verwendungszwecke verzichtest.
Mit dem Unterschied von 16x und 2x wird auf die Kolumne angespielt, wer lesen kann ist klar im Vorteil....Und nein, wenn du den Thread aufmerksam verfolgt hättest, dann wüsstest du, dass ich in 1280 x 1024 spiele und ebenso FSAA wie auch AF nutze.
Was meinst du was für Bauklötze die Leute staunen, wenn sie viel Geld für eine Grafikkarte ausgeben und die dann bei 8x AF derbe einbricht? Das war auch das was ich meinte, es interessiert die Leute einen Schmarrn welches AF nun eingesetzt wird, da sie den Unterschied wärend des
Spielens garnicht oder nur kaum wahrnehmen.
Natürlich ist eine schnelle CPU sehr wichtig, aber wenn ich o.g Settings benutze, dann ist wohl auch klar, dass es ein bisschen schön aussehen darf. Und da darf es halt mit den FPS nicht zu weit Berg ab gehen. Das war auch mit schnell gemeint.
[Anusöffnungmodus]Maxilmalste Geschwindigkeit ---> lol[/Anusöffnungmodus]
Quasar
2004-12-22, 23:36:18
nö, die Implementierung zielt eher auf Spielcontent ab, als auf den content von Villagemark. So meine ich das. :)
Na, das erkläre mir bitte nochmal genauer - so wie ich es im Moment verstehe, klingt es nämlich etwas widersinnig:
"In einem reinen Füllratentest ist das AF des nV30 quasi leistungsequivalent zu dem des nV40 - in Spielen jedoch fällt die Leistung (nicht "die Balkenlänge"...) des nV30 demgegenüber stark ab".
Im Gegenteil beweist IMO diese Testreihe, so sie denn fehlerfrei ist, eher, daß jedes Quentchen Geschwindigkeit, was durch winkelabhängigkeit gewonnen wird, allein durch Verzicht auf Qualität zustande kommt.
mapel110
2004-12-22, 23:46:38
Im Gegenteil beweist IMO diese Testreihe, so sie denn fehlerfrei ist, eher, daß jedes Quentchen Geschwindigkeit, was durch winkelabhängigkeit gewonnen wird, allein durch Verzicht auf Qualität zustande kommt.
ahh, jetzt sind wir auf einem Nenner. :uup:
Meine Aussage(n] bezog(en) sich nur auf die Performance, nicht auf die Qualität.
LovesuckZ
2004-12-22, 23:53:51
Mit dem Unterschied von 16x und 2x wird auf die Kolumne angespielt, wer lesen kann ist klar im Vorteil....Und nein, wenn du den Thread aufmerksam verfolgt hättest, dann wüsstest du, dass ich in 1280 x 1024 spiele und ebenso FSAA wie auch AF nutze.
Wenn ich in UT 2004 drei Gegner vor mir habe, dann habe ich erst recht keine Zeit mir anzusehen, ob die Texturen, obwohl 16 x eingestellt, nur nach 2x AF aussehen.
UT2003 habe ich ohne AA/AF/High Qualitaet gespielt, weil es mir primaer nicht auf die Grafik ankam.
Dagegen spiele ich HL² mit allen Details und HQ AF, hier habe ich zeit, mir auch mal die Gegend anzusehen. Und ich bin froh, HQ einzustellen zu koennen.
Haltet mich für einen DAU, aber bei einer 500 €- Karte erwarte ich in erster Linie Geschwindigkeit.
Widerspruch in sich, hohe Aufloesung, AA und AF zu benutzen, aber "in erster Linie Geschwindigkeit" zu erwarten...
Würde es dir auf die Qualitaet ankommen, waere ein Pochen auf reduzierte Darstellung beim AF ebenfalls ein Widerspruch.
Was meinst du was für Bauklötze die Leute staunen, wenn sie viel Geld für eine Grafikkarte ausgeben und die dann bei 8x AF derbe einbricht? Das war auch das was ich meinte, es interessiert die Leute einen Schmarrn welches AF nun eingesetzt wird, da sie den Unterschied wärend des
Spielens garnicht oder nur kaum wahrnehmen.
Ein NV40 hat eine bis zu vierfache Leistung einer GF3.
Nun stellen wir uns vor, die GF3 erreiche mit 8x AF 30FPS, wo wird dann wohl der NV40 liegen?
Und dem Unterschied nicht sehen würden: Ich denke schon, dass jemand den qualitativen Nachteil von "Quality" und "High Quality" sehen werde, da dieser nicht mehr wegzudenken ist.
Natürlich ist eine schnelle CPU sehr wichtig, aber wenn ich o.g Settings benutze, dann ist wohl auch klar, dass es ein bisschen schön aussehen darf. Und da darf es halt mit den FPS nicht zu weit Berg ab gehen. Das war auch mit schnell gemeint.
Qualitaet hat ihren Preis, wer reduziertes AF benutzen moechte, sollte dies gerne selbst einstellen, aber nicht als einzigen Standard fordern.
Und ja, "es [darf] bisschen schön aussehen" widerspricht sich irgendwie mit "aber bei einer 500 €- Karte erwarte ich in erster Linie Geschwindigkeit".
Und "Geschwindigkeit" bedeutet Rohleistung* und die haengt tragischer Weise im meisten Fall an der CPU.
*Kein AA/AF/hoehere Aufloesung über 1024*768 etc.
1. Ist durch die hohen Polygonzahlen der Übergang zw. gutem und schlechtem AF meistens ein fliessender.
2. Sind die Berge für den unmittebaren Naheindruck ohnehin scharf genug (Gäbs nicht so weite gleichmässige Flächen würd 2xAF bei vielen Spielen locker reichen)Fließend und mäßig bitte mit ß – danke :).
Solche Autorennspiele sind jetzt ein Beispiel, wo der ATI-AF-Style nicht so stört. Einzelbeispiele helfen imo nicht weiter, um die generelle Brauchbarkeit zu ermitteln.
3. Soll AF zwar mehr Schärfe in die Texturen reinbringen aber tut das u.U. zu Lasten des Realismus, da bei sehr hohen AF Stufen in der Entfernung deutlich zu sehen ist, wie die Texturen aneinander gekachelt sind (bspw Serious Sam)Das ist nicht das Problem vom AF, sondern vom Designer.
4. Wenn die Optimierungen nur 10% bringen würden, bräucht ich sie auch nicht. Imo ist aber dadurch 40-50% Mehrleistung drinnen. 40-50% "Mehr"-Leistung wären nur dann drin, wenn kaum noch Pixel durchs AF verbessert würden. Mein Beispiel mit den 10% bezog sich allerdings auf Unterfilterung.
5. Aufwändigere Spiele kommen immer. Ohne dieser Mehrleistug wär wahrscheinlich das erste Spiel bald da, was man auf den neuen HighEnd Karten nicht mehr mit 1280x1024 8/16 xAF spielen kann. Ja, und. Hauptsache, der Modus heißt 8x oder 16x?
6. AF Optimierung = Super, aber Möglichkeit zu unoptimiertem AF wär nett :)Die Winkel-"Optimierung" bei ATI ist keine primär gewollte "Optimierung", sondern ein Nebeneffekt vereinfachter AF-Koordinaten-und-Downfiltering-Logik. Das Resultat ist eine weit vom Optimum entfernte Art und Weise, anisotrop zu filtern.
Warum ist die grundleistung beim Texturieren eigendlich bei der 9700er niedriger als bei der 5800er? Da stehts doch 8*1 gegen 4*2, aber mit höherem Takt.Die 9700 zeigt sich soweit ich weiß in der Praxis in der Texturierungs-Leistung als überlegen, Takt hin oder her.
[COLOR="#000088"]
So viele Worte nur um sich die Wahrheit so hinzubiegen wie man sie gerne hätte.
Bau dir ne GF3 ein.
Schalte den trilinearen Filter ein. Spiele Serios Sam oder Wolfenstein, beides damals aktuell.
Schalte 4x AF ein. Spiele nochmal. Dann weißt du was "Oldschool AF" kostet. In echt und ohne teoretisierendes Geschwaffel. Gutes AF muss viel kosten, weil Verbesserung durch AF Füllrate verschlingen muss – irgendwo müssen die Textursamples ja herkommen. Würde die Geschwindigkeit kaum sinken, wärst du entweder CPU-limitiert, oder der AF-Modus kann nicht viel taugen. Die 9700 ist deutlich rohleistungsstärker als eine Ti 4600, erst recht als eine GeForce3. Da kann man natürlich auch mehr Grafiklast auf die GPU legen.
Die Auflösung zu steigern kostet auch Leistung. AF bringt für die gleiche Zusatzleistung mehr Zusatzqualität als würde man die Auflösung erhöhen. Um diesen Effekt bestmöglich auszunutzen, also um so wenig Zusatzleistung zu brauchen für maximale Zusatzqualität, bedarf es jedoch eines "Vollwinkel-AFs". Ansonsten müsste man die Pixel, die mit ATI-Style-AF "übersehen" werden, ineffizient via Auflösungssteigerung verbessert werden – oder man verkneift sich die Zusatzqualität gleich ganz. Will man keine bestmögliche Qualität, braucht man eh keine besonders hohe Auflösung. Man kann es drehen und wenden wie man will – "Vollwinkel-AF" ist der beste Weg, Leistung effektiv in Texturqualität umzusetzen.
[COLOR="#000088"]
Nein. Das ist das Schlimme daran. Echtes AF ist einfach zu teuer. Wenn es so einfach wäre....."Echtes" AF ist der effizienteste Weg, Leistung in Qualität umzusetzen. So einfach ist das manchmal. Wenn es nicht für 8x oder 16x "Vollwinkel-AF" reicht, muss man halt 4x nehmen. Dazu ist der maximale AF-Grad einstellbar. Aufgrund der adaptiven Implementierung verbessert AF ohnehin nur dort, wo es Qualität bringt. Überall, wo es Qualität bringen würde, sollte es dann aber auch zur Wirkung gelangen.
Sowohl R420 als auch NV40 enttäuschen hier – denn AF kostet nur Texturfüllrate. AF sorgt für eine hohe Hitrate im Texture Cache. Hochwertig anisostrop gefilterte Texturen bringen auch beim Pixelshading Qualität. Im isotropen Filtermodus oder mit 2x AF bringt NV40 eine extrem hochwertige LOD-Berechnung und hohe Genauigkeit bei der Texturfilterung. Das wäre der ideale Ansatz für quasi-perfektes 16x AF. Stattdessen empfiehlt NV in den Benchmark-Guides, 8x AF vs 8x AF zu benchen und verschweigt, dass die GeForce FX das bessere 8x AF haben. Natürlich wird laut tönend die neue 4x-AA-Maske beworben, den ATI schon lange hat, von 3dfx mal ganz abgesehen – und erklärt die neue Maske mit einem falschen Bild.
ATI vermarktet R420 als "High Definition VPU" und das bei 6 Bit Bi-LERP-Auflösung, 5 Bit Tri-LERP-Auflösung, und dem peinlichen AF-Muster das nicht mal 2x quasi-perfekt anzeigt – beide IHVs enttäuschen. In einem Zeitalter, wo DX9-Shader in die zweite Runde gehen, sollte man schon den Anspruch stellen, alte Multitexturing-Games mit quasi perfekt anisotrop gefilterten Texturen spielen zu können.
Tigerchen
2004-12-23, 12:41:16
Warum eine GF3? Warum keine Ti4600? Oder FX5800u/FX5950?
BTW, wenn ich das täte, würde es ausser mit der GF3 keinen Unterschied machen, welchen AF-Level ich wählte. Und das ist mir Oldschool-AF allemal wert.
GF3 weil die keine Optimierungen kann und du wirklich nur erfährst was das AF kostet. Bei den FX'en ist das ja alles nicht mehr so einfach. Da spielen dann andere Optimierungen mit rein die du (vielleicht?) durch Tweaks erst mal abschalten mußt.
Tigerchen
2004-12-23, 12:58:22
Tut mir echt leid wenn ich, dass jetzt so direkt sage aber du WILLST es einfach nicht einsehen! Wie schonmal erwähnt immer nach dem "ne aber schau doch" prinzip... ohne ein Argument :frown:
Und ob du es glaubs oder nicht ich hab eine Ti4200 und kann selbst moderne Games noch mit AF spielen! wie:
Flatout 2af
XIII 2af
Serious Sam ob du es glaubst oder nicht 8af :P
Du kannst nicht einfach Karten nehmen die schon zig Jahre auf dem Buckel haben und bei denen zu 100% die Graka limitiert und dann sagen mach doch mal af an und schau wie Langsam alles wird. Und es dann mit einer 6800UE vergleichen die mit dem selben proz. läuft und sagen "Schau 16af und nur 2% langsamer" :hammer:
Ich hab nicht nur gesagt nimm mal ne alte Grafikkarte sondern gleich dazu geschrieben nimm auch entsprechend alte Spiele. Und 2xAF zählt sowieso nicht weil bei 2xAF immer voll gefiltert wird. Bei allen Karten! Die Unterschiede fangen bei 4xAF an. Da guckste was?
Das die Ti4200 noch genug Leistung für 8xAF in Serious Sam hat ist schön für dich. Goldstatus Serious Sam 5.3.2001. Die GeForce 4 Ti4200 erschien im Spätsommer 2002. Zu zeigst hier ein altes Spiel auf einer relativ neuen Grafikkarte. Das war wohl nix. Versuchs doch nochmal! :)
Labberlippe
2004-12-23, 13:11:51
"Vollwinkel-AF" bringt trotzdem pro verbrauchter Rechenleistung den besten Qualitätsgewinn. Wenn man nicht genug Leistung für 16x "Vollwinkel-AF" hat, kann man ja 8x einstellen. Dazu ist die Abstufung schließlich gedacht. Warum hat man 2x, 4x und 8x wenn man eh nur 16x nutzt, dieses aber nicht alle Flächen mit bis zu 16x behandelt?
Ja da stimme ich Dir zu, allerdings habe ich ja immer noch im Hinterkopf die Mid/Lowrange Karten.
Da wird die Power vermutlich nicht ausreichen.
Egal ob 2x u.s.w. full gefiltert wird.
Wenn wir Doom3 hernehmen Beispielsweise könnte ich mit full AF nicht mal dran denken AF zu aktivieren.
Da wäre schon sense, hier macht das ganze Schema wieder einen Sinn.
Natürlich wäre Full AF 2x auch eine Möglichkeit nur sieht das halt nicht so aus als wenn 8x AF mit Winkel nimmt.
Die Leistung wäre fast die gleiche und sieht dennoch trotz Winkelabhängikeit besser aus.
Natürlich gibt es ein paar einbussen nur die Schärfe ist trotzdem (gerade hinten weiter) besser.
Ist aber natürlich nur mein Geschmack.
Bei High End Finde ich die Winkelabhängikeit natürlich auch kacke keine Frage nur eines sollte man bedenken das die jetzigen Highend bald mal zu Low End werden und da ist es schon fein auch in späterer Folge AF doch noch nutzen zu können.
Fein wäre es wenn man natürlich es wahlweise an und abschalten kann.
Richtig – aber wer hat die Möglichkeit, 1600x1200 ergonomisch zu fahren?
Jo das ist natürlich ne andere Sache
Es wird von den IHVs die Möglichkeit verschenkt, die GPU-Leistung bestmöglich in Qualität umzusetzen. Weil eben viele immer noch glauben, Auflösung sei das einzig Wahre.
Da stimme ich Dir voll und ganz zu.
Keine Frage.
Das Problem daran ist aber das die Hersteller hier nicht das ganze dennoch Beschleunigen wollen.
Ich glaube das die Karten alle noch lange nicht in der Lage sind das ganze voll zu Beschleunigen ohne Qualitätsverlust, deshalb die Optimierungen.
Abgesehen von einem seltenen Spezialfall hat das NV40- oder ATI-AF gegenüber GeForce FX- oder S3 DC-AF keine Vorteile. So einfach ist das :)
Doch Performance Vorteile.
Die GeForce3 brach heavy ein mit AF.
Bevor ich die 9600XT hatte konnte ich mit der Hercules 8500 noch immer die Games mit AF nutzen, freilich war es nur Bi AF, nur bei Halo konnte ich wirklich schlimme Bugwellen sehen.
Beim Rest ist es mir nie kaum aufgefallen und wenn dann derart minmal das es mich nicht gejuckt hat, da mir schärfere Texturen lieber waren.
Auf Screens habe ich bewusst verzichtet. Ansonsten würden Diskussionen enstehen, ob das Bild wirklich schlechter sei oder nicht nur "anders", und so weiter. Um eine solche Diskussion auf fachlicher Ebene zu führen, müssen bestimmte Vorkenntnisse vorhanden sein. Ansonsten gewinnt der innere Schweinehund (bzw. der innere Fanboy) wenn es um die Bewertung geht. Ich weiß nicht wie ich das sagen soll, ohne jetzt wie eine überhebliche Anusöffnung dazustehen, doch die erforderlichen Kenntnisse in der Signaltheorie sind bei den wenigsten Foren-Teilnehmern vorhanden.
Ich würde es dennoch mal begrüssen einen Artikel zu lesen, der das ganze in Game verhalten zeigt.
Dazu dann noch die Leistungswerte wie die Karten an Leistung gewinnen/Verlieren.
Pro Kontra für beide Varianten.
Das ganze erschwert jetzt leider das ganze natürlich da alle Karten winkelabhängig sind.
Keine Frage.
Theorie ist für die meisten immer ein Problem da man gerne etwas zum greifen hätte.
AF für Daus :-)
Wird sich leider nie ändern da nicht jeder das Verständniss oder die Mühe aufbringen will um das ganze zu verstehen.
Danke aths an Dir, das Du mein Statement nicht mit sinnslosen Kommentaren abgeblockt hast, wie einiges es hier gerne machen.
ala den Artikel hast schon verstanden?.
Einer wenigsten, der verstanden hat worauf ich hinaus wollte.
Gruss Labberlippe
[COLOR="#000088"]
Ich hab nicht nur gesagt nimm mal ne alte Grafikkarte sondern gleich dazu geschrieben nimm auch entsprechend alte Spiele. Und 2xAF zählt sowieso nicht weil bei 2xAF immer voll gefiltert wird. Bei allen Karten!Nicht bei R100, R200, R300 und R420 sowie den entsprechenden RV-Derivaten.
Die Unterschiede fangen bei 4xAF an. Da guckste was? Schon bei 2x unterscheiden sich GF FX von NV40 und von R300/R420.
Ja da stimme ich Dir zu, allerdings habe ich ja immer noch im Hinterkopf die Mid/Lowrange Karten.
Da wird die Power vermutlich nicht ausreichen.Gerade auch wenn die Leistung gering bemessen ist, ist es ja besonders günstig, wenn die Leistung so effizient wie möglich in Qualität umgesetzt wird. Das bietet beim AF nur "Vollwinkel-AF".
Natürlich wäre Full AF 2x auch eine Möglichkeit nur sieht das halt nicht so aus als wenn 8x AF mit Winkel nimmt.
Die Leistung wäre fast die gleiche und sieht dennoch trotz Winkelabhängikeit besser aus.
Natürlich gibt es ein paar einbussen nur die Schärfe ist trotzdem (gerade hinten weiter) besser.Wie wäre es mit 4x AF als Kompromiss? Ob es "gerade hinten" scharf ist oder nicht, hängt vom Winkel um die Z-Achse ab. "Schräge" Polygone werden gerade hinten mit ATI-Style-AF eben nicht besonders scharf. Tatsächlich kommt 16x kaum zum Einsatz, schon bei sehr kleinen Abweichungen von 90°, erst reicht bei kleinen Abweichungen um 45° wird auf max 8x zurückgeschaltet.
Bei High End Finde ich die Winkelabhängikeit natürlich auch kacke keine Frage nur eines sollte man bedenken das die jetzigen Highend bald mal zu Low End werden und da ist es schon fein auch in späterer Folge AF doch noch nutzen zu können.Soll man AF nur "nutzen können", oder sollte man nicht die maximale Wirkung aus dem AF erzielen?
Ich glaube das die Karten alle noch lange nicht in der Lage sind das ganze voll zu Beschleunigen ohne Qualitätsverlust, deshalb die Optimierungen.Das sind sie schon lange, es gibt nur wenige Spiele, die bei 1600x1200 mit hohen AF-Einstellungen ins Keuchen kommen. Die Auflösung wird aber nur von wenigen Leuten genutzt – in 1280x960 (oder x1024) wäre genug Füllraten-Power für feinstes AF vorhanden. Auch wenn die Füllraten-Leistung zu knapp wäre, wäre das noch immer der bessere Weg als über die Auflösung gehen zu müssen, denn über die erhöhte Auflösung braucht man viel mehr Leistung pro Qualitätsverbesserung. Man kann es drehen und wenden – "Vollwinkel-AF" ist das wahre optimale AF.
Ich würde es dennoch mal begrüssen einen Artikel zu lesen, der das ganze in Game verhalten zeigt.
Dazu dann noch die Leistungswerte wie die Karten an Leistung gewinnen/Verlieren.
Pro Kontra für beide Varianten.
Das ganze erschwert jetzt leider das ganze natürlich da alle Karten winkelabhängig sind.IIRC war es Quasar, der die Radeons durch einen Benchmark mit viel 90°-Geometrie scheuchte – und natürlich verloren die Karten vergleichbar viel Leistung mit AF, wie die GeForce FX-Karten. Leistungs-"Gewinn" kommt nur dadurch zustande, dass an Qualität gespart wird. Dann aber muss man für eine insgesamt bessere Grafik ja wieder die Auflösung erhöhen (oder Supersampling nutzen) – beides hat seine Grenzen. Mit "Vollwinkel-AF" verbraucht man viel weniger Leistung um ein insgesamt gleich gutes Bild zu bekommen.
Labberlippe
2004-12-23, 14:17:03
Es war die Rede von AF, nicht von DX8 und auch nicht von DX9. Wieso für DX9 winkelabhängiges AF wichtiger sein sollte ist mir schleierhaft, schließlich sinkt sogar das Verhältnis Texops zu arithmetischen Berechnungen.
Man kann sich natürlich Karten mit winkelabhängigem AF raussuchen und dann davon schwärmen wie schnell (nicht toll) das 16x AF ist. Dass dann bei einem großen Teil des Bildes nicht der eigentlich notwendige AF-Grad appliziert wird, kann man ja ignorieren.
Oder aber man sieht z.B. beim DeltaChrome, dass der Performance-Einbruch für echtes 16x AF gar nicht so groß sein muss
Hi
Das muss man aber dennen lassen, geile Lösung seitens Deltachrome wird aber auch getrickst aber in meine Augen ein besserer Trick als bei nVIDIA und ATI.
Gruss Labberlippe
GF3 weil die keine Optimierungen kann und du wirklich nur erfährst was das AF kostet. Bei den FX'en ist das ja alles nicht mehr so einfach. Da spielen dann andere Optimierungen mit rein die du (vielleicht?) durch Tweaks erst mal abschalten mußt.
Wenn ein Haken im Treiber ein Tweak ist - ja.
Aber das habe ich ja bei meinen Vergleichen getan - die reine AF-Leistung scheint sich, bei Geometrie, die die Winkelabhängigkeit nicht/kaum zum Zuge kommen läßt, prozentual gesehen, kaum geändert zu haben seit GFFX.
HQ sollte die Texturen genügend in Ruhe lassen.
Hi
Das muss man aber dennen lassen, geile Lösung seitens Deltachrome wird aber auch getrickst aber in meine Augen ein besserer Trick als bei nVIDIA und ATI.
Gruss Labberlippe
Was soll denn beim Deltachrome getrixt werden?
DanMan
2004-12-26, 15:01:57
Gute Kolumne aths! :up:
Vielleicht sollte man dazu zurückkehren die AF- und AA-Geschwindigkeit aus den Benchmarks herauszunehmen, und nur noch im Text darauf hinweisen, inwiefern es mit dem jeweiligen Spiel nutzbar ist. Dann legen die Hardware-Hersteller vllt. wieder mehr Wert auf die Qualität, wenn sie in dieser Disziplin nicht mehr in Konkurrenz stehen. Schließlich ist es absurd ein qualitätssteigerndes Merkmal in erster Linie über seine Geschwindigkeit zu bemessen.
Und mal ehrlich: in der Rohleistung tut sich ja schon seit einiger Zeit nicht mehr viel. Das wird mir immer wieder klar, wenn ich sehe wie ich aktuelle Spiele immernoch auf meiner GF4 spielen kann (natürlich ohne AA, AF & aktuelle Shader-Effekte). Also ist es eigentlich nur logisch, dass man endlich mal andere Gesichtspunkte ins Auge fasst, als immer nur die fps zu erhöhen - koste es was es wolle.
roadrunner
2004-12-26, 21:48:22
*anregung*
vielleicht sollte man in zukünftigen test es so machen, dass man ermittelt welche AA und AF einstellung bei ATI oder Nvidia die gleichen fps ergeben.
also z.B. 40fps bei spiel xyz bei ATI mit x1 fachem AA und y1 fachem AF und bei nvidia mit x2 fachem AA und y2 fachem AF.
Popeljoe
2004-12-26, 22:12:11
Guter Artikel, ich hab ihn sogar echt kapiert! :)
Die Frage ist doch für uns, wie wir die "harten Tests" der Hersteller beurteilen...
Imo klingt das bei denen so nach "gnadenloser Aufklärung"!
Bedeutet aber wieder mal einfach nur Marketing Gebrabbel, wer sein Produkt besser anpreisen kann gewinnt! Und sei es auch nur auf kosten der User!
Wie testet das 3DC in Zukunft?
Popeljoe
Ich finde es eine Verarschung an den Kunden optimiertes AF standardmässig in seinen Grafiktreiber einzubauen.
Wenn man kein AF haben will soll man es austellen und wenn man von der Leistung seiner Grafikkarte überzeugt ist sollte man es anlassen.
Es ist albern zu sagen das ist 16 faches AF obwohl es in Wirklichkeit nur 2 faches AF ist.
Ich finde es auch fast schon als Betrug soetwas zu vermarkten.
Stichwort Mogelpackung.
Der deutsche Verbraucherschutz, Kartellamt sollte da mal einen Blick drauf werfen.
Guter Artikel, ich hab ihn sogar echt kapiert! :)
Die Frage ist doch für uns, wie wir die "harten Tests" der Hersteller beurteilen...
Imo klingt das bei denen so nach "gnadenloser Aufklärung"!
Bedeutet aber wieder mal einfach nur Marketing Gebrabbel, wer sein Produkt besser anpreisen kann gewinnt! Und sei es auch nur auf kosten der User!
Wie testet das 3DC in Zukunft?Das ist die Entscheidung des jeweiligen Testers – ich schreib hier ja nur Artikel.
Ich finde es eine Verarschung an den Kunden optimiertes AF standardmässig in seinen Grafiktreiber einzubauen.
Wenn man kein AF haben will soll man es austellen und wenn man von der Leistung seiner Grafikkarte überzeugt ist sollte man es anlassen.
Es ist albern zu sagen das ist 16 faches AF obwohl es in Wirklichkeit nur 2 faches AF ist.
Ich finde es auch fast schon als Betrug soetwas zu vermarkten.
Stichwort Mogelpackung.
Der deutsche Verbraucherschutz, Kartellamt sollte da mal einen Blick drauf werfen.Das ist nicht ganz so einfach.
- Texturfilterung ist immer eine Näherung. Wie weit man da "cheaten" darf, steht nirgendwo festgeschrieben. In einem Artikel stellte ich bestimmte Forderungen an eine "Lehrbuch-Qualität", im B3D-Forum wurden diese allerdings als Unsinn abgetan.
- Anisotrope Texturfilterung: Anisotrop ist ein schwammiger Begriff. Die Kolumne beklagt, dass suboptimale AF-Implementierungen dafür sorgen, dass die Texturfüllrate ineffizient in Qualität umgesetzt wird. Zu R300-Zeiten behauptete ATI noch in einem Paper, jetzt mit der Radeon 9700 würde überall volles AF, unabhängig vom Winkel um die Z-Achse appliziert – was aber nicht stimmt. Man kann den Satz allerdings auch so lesen, dass jetzt unabhängig vom Winkel überhaupt AF zum Tragen kommt, was beim R200 ja noch nicht so war.
Aber vielleicht sollte man eine Richtline im Gesetz festlegen.
Sonst ist ja auch fast alles im Gesetz geregelt in Deutschland. Warum denn dann nicht auch für AF?
Aber vielleicht sollte man eine Richtline im Gesetz festlegen.
Sonst ist ja auch fast alles im Gesetz geregelt in Deutschland. Warum denn dann nicht auch für AF?
LOL, sorry, auch wenn's sicherlich gut von Dir gemeint ist, aber Du kannst ja gerne mal einen Gesetzesentwurf anregen, der die Hersteller zu einer bestimmten Implementierung von AF "zwingt" und wir reden dann in 5 Jahren noch mal drüber ;)
Bzw. müßte es da wohl erstmal eine Art ISO-Norm für "korrektes" AF geben, sonst dürfte in der Werbung wie bislang auch jeder Hersteller sein eigenes Süppchen kochen.
Demirug
2005-01-02, 00:34:13
LOL, sorry, auch wenn's sicherlich gut von Dir gemeint ist, aber Du kannst ja gerne mal einen Gesetzesentwurf anregen, der die Hersteller zu einer bestimmten Implementierung von AF "zwingt" und wir reden dann in 5 Jahren noch mal drüber ;)
Bzw. müßte es da wohl erstmal eine Art ISO-Norm für "korrektes" AF geben, sonst dürfte in der Werbung wie bislang auch jeder Hersteller sein eigenes Süppchen kochen.
Eine ISO wird es nicht mal in 5 Jahren dafür geben aber es gab ja das Gerücht das MS in Zukunft die Filterfunktionen vorschreiben möchte.
Endorphine
2005-01-02, 23:55:55
Jetzt muss ich auch mal wieder meinen Senf zu einem Artikel auf 3DCenter abgeben. :D Das primäre Verfahren, die Bildqualität zu steigern ist in vielen Köpfen noch immer, die Auflösung zu erhöhen. Was hat man davon? Durch kleinere Pixel wird erreicht, dass es auf gleicher Fläche nun mehr Pixel gibt als früher. Entsprechend lassen sich auf dieser Fläche mehr Informationen unterbringen. Die Fähigkeit, mehr Informationen darzustellen, steigt also. Das "primäre Verfahren, um die Bildqualität zu steigern" ist also immer noch die Auflösungserhöhung? Das finde ich interessant. In meinem Bekanntenkreis und auch in vielen mir bekannten Firmen und bei sonstigen Bildschirmarbeitsplätzen ist es ein primäres Verfahren zur Bildqualitätssteigerung, bestehende Kathodenstrahlröhrenmonitore gegen Flüssigkeitskristallanzeigen (landläufig "TFT-Monitor" genannt) zu ersetzen. Diese haben eine feste Auflösung, an der man nichts drehen kann. Für alle Auflösungen unterhalb dieser physikalischen Auflösung ist jede Diskussion um Bildqualitätssteigerungen durch irgendwelche erweiterten Texturfilterfunktionen und AA obsolet - unterhalb der physikalischen Auflösung ist die BQ dank Interpolation einfach zu grottig, als dass sich der Einsatz lohnen würde. Und höhere Auflösungen, die dann zu einer physikalisch feiner aufgelösten Darstellung auf gleicher Schirmfläche führen würden, kann man nicht nutzen.
Ich war in meinem Bekanntenkreis einer der Letzten, die ihren CRT-Monitor gegen ein LCD eingetauscht haben. Überall um mich herum sinkt die CRT-Rate rapide und geht langsam aber sicher gegen Null, abgesehen von ein paar Grafikern mit sehr teuren hardwarekalibrierten Grafiker-CRTs, aber auch da ist eine Wende ersichtlich.
Als kleine Statistik: http://extremetracking.com/open;sys?login=3dc
41.34% der User nutzen momentan 3DCenter mit einer Auflösung von 1024 x 768. Man kann aus meiner Sicht davon ausgehen, dass ungefähr die Hälfte davon einen CRT in der Größe von 17" oder seltener 19" nutzen werden. Die andere Hälfte dieser User wird die 3DC-Seiten wohl gerade mit einem LCD besuchen, der entweder in einem Notebook steckt oder als 15"-LCD auf dem Schreibtisch steht. Hat die Gruppe der 17"-CRT-User wirklich eine Wahl bei der Auflösung? Glaube ich kaum. Wer heute noch so ein Gerät nutzt wird eher kein High-End Teil nutzen, sondern ein "preiswerteres" Modell. Damit scheiden Auflösungen >1024x768 praktisch ohnehin wegen mangelnder Ergonomie (Bildschärfe, Vertikalfrequenz) aus. Die LCD-User in dieser Auflösung sind ohnehin festgelegt und nutzen auch in Spielen nichts anderes.
39.03% der 3DC-User haben atm 1280x1024 eingestellt. Mir sind keine marktgängigen CRTs mit 5:4 bekannt und auf 4:3 CRTs ist diese Auflösung nicht erträglich, da bei Vollbild stark verzerrend. Man kann davon ausgehen, dass das die (stetig weiter wachsende) Gruppe der 17" und 19"-LCD User ist. Diese haben ebenfalls keine Wahl bei der Auflösung und müssen die physikalische in Spielen verwenden, wenn sie auf BQ Wert legen.
26,24% der User verwenden CRT-Auflösungen von 1152x864 oder 800x600.
Bereits 3.74% verwenden 1600x1200. Die Rate steigt, scheinbar finden 20+" LCDs langsam Verbreitung. Diese Auflösung wird wohl kaum jemand mit einem CRT beim Internetsurfen verwenden (Bildschärfe, allg. Ergonomie).
Lange Rede, kurzer Sinn: ist das Hauptargument des Artikels überhaupt noch von Belang oder aktuell? Bei - *Taschenrechnertaste auf der Tastatur drück* - zusammengerechnet knapp zwei Drittel (!) der 3DC-User dient offensichtlich ein LCD als Anzeigegerät. Diese Nutzerschaft hat gar keine Wahl bei der Auflösung in Spielen, wenn sie auf das letzte Quantum Bildqualität Wert legt. Die Möglichkeit der Auflösungserhöhung für mehr BQ wird in Zukunft praktisch bedeutungslos, wenn LCDs Standard und CRTs nur noch Nischenprodukte sind.
Der Artikel geht aus meiner Sicht von nicht mehr aktuellen Verhältnissen bei der tatsächlichen Leserschaft aus.
Man sieht: Ist erst einmal eine angenehme Auflösung erreicht, die nicht "grob" wirkt Die Frage nach Auflösungserhöhung zur Bildqualitätsteigerung stellt sich für 2/3 der 3DC-User offensichtlich gar nicht (mehr). Und in Zukunft wird dieser Anteil *orakel* sicher noch wachsen.
Weiterhin...
Manche bleiben stur dabei, dass primär die höhere Auflösung zum besseren Bild beitragen würde. Ich bleibe stur dabei, dass man Aliasing zuerst in der Ursache bekämpfen sollte, bevor man mit irgendwelchen Algorithmen in der Bilddarstellung die Artefakte lindern will. Ursachenbekämpfung heisst in dem Fall, dass man zuerst die physikalisch dargestellte Auflösung erhöht (bei Fixauflösungsmonitoren wie bei LCDs: viele dots per inch, also z. B. keine 19"-TFTs mit grausig niedriger Auflösung kaufen). Erst danach sollte AA zum Zuge kommen. Polygonkanten in 3D-beschleunigter Darstellung machen ohnehin nur einen kleinen Teil des Bildes aus, der Großteil wird von (gefilterten) Texturen beansprucht.
*hust* Ich halte das Argument für sehr weit hergeholt, dass irgendwer die Auflösung erhöht, um mangelnde Texturqualität zu erhöhen. Dafür nutzt jeder, der weiss, was ein Texturfilter ist, heute AF. Und daran wird sich wohl auch so schnell nichts ändern. Dennoch ist die folgende Grafik natürlich schön anzusehen:
http://www.3dcenter.org/images/2004/12-20_afvsaufl.png
In diesem Zuge sind 1600x1200-Benches eher denn Blödsinn, sofern dafür nicht auch mindestens 2048er (eigentlich noch deutlich bessere) Texturen von den Spiel-Programmierern zur Verfügung gestellt wurden. Tatsächlich aber können die Radeon-Karten maximal 2048er Texturen nutzen, und die GeForce-Karten büßen bei größeren Texturen deutlich an Leistung ein. Entgegen dem Werbe-Gewäsch sind diese Karten also eigentlich nicht für den echten Genuss in 1600x1200 gebaut. Sondern, um in dieser für Spieler kaum relevanten, aber prestigeträchtigen Auflösung Benchmarks zu gewinnen.
[...]
Leider versteifen sich ATI und Nvidia darauf, dass ihre Karten unbedingt in 1600x1200 gebencht werden müssen, ansonsten könnten sie ihre ach so überragende Leistung nicht zeigen.
[...]
Ein reine Idiotie: Der Kunde sieht, wie toll die Karte noch in 1600x1200 performt, obwohl die wenigstens einen Monitor besitzen, welcher diese Auflösung augenschonend und ohne die Lochmaske dabei zu überfahren darstellen kann.
[...]
Und das ist absolut lächerlich, den Kunden mit Billig-AF abzuspeisen, nur damit die XT-PE- und Ultra-Chips, die sich kaum einer kauft, in Auflösungen glänzen, die kaum einer nutzt. Hm. Ich habe einen Monitor mit 1600x1200 Pixel Festauflösung und bin daher seit neuestem noch viel mehr als früher daran interessiert, Benchmarks in dieser Auflösung zu sehen. Und das "Lochmasken überfahren"-Problem hatte ich mit meinem 19"-CRT nicht. Bei Spielen kam es mir nicht auf die ultimative Bildschärfe an, dafür schätzte ich die hohe physikalische Auflösung mit entsprechend feinkörniger Darstellung.
Und dass "kaum einer" 1600x1200 nutzt stellt sich in der 3DC-Websitestatistik auch anders dar. In Zukunft wird man sich bei einem Monitorkauf außerdem mittelfristig zwischen zwei Auflösungen entscheiden müssen: 1280x1024 (17-19" LCD) und 1600x1200 (>19" LCD). Wem dann 1280 nicht reicht oder wer lieber ein 4:3 Seitenverhältnis und hohe Auflösung haben will wird dann vielleicht noch deutlich öfter als bisher zu Monitoren greifen, die 1600x1200 anzeigen können.
Ist es also wirklich so furchtbar schlimm, dass immer mehr Benchmarks in 1600x1200 gefahren werden? Das sehe ich anders. Ich sehe auch noch eine andere Tendenz: die CRTs sterben aus und damit auch die Möglichkeit für viele Tester, mehr als 1280x1024 zu testen, mangels LCD mit >19". Der Artikel ist natürlich eine schöne Begründung für diese Tester, die doch so verschwindend kleine Gruppe der 1600x1200-User (Vorsicht, Ironie ;)) einfach nicht mehr zu beachten. Soll das der Nebeneffekt deines Artikels sein? Das fände ich etwas unschön.
Sonst natürlich schöne Kolumne, die bei mir aber wegen der genannten mangelnden Aktualität bezüglich LCD-Verbreitung und der 1600x1200-Diskriminierung einen faden Beigeschmack hinterlässt. Trotzdem: weiter so, ich lese solcher Art Kolumne gerne.
Ailuros
2005-01-03, 00:45:23
Die erste Seite dieses Threads hab ich noch durchgelesen, die restlichen 6 hab ich mir erspart.
Zum Thema:
AF sorgt hier also für ein vertikales "Textur-Supersampling on the fly".
Als ich vor einiger Zeit mal sagte dass man AF auch als quasi "Textur-antialiasing" ansehen kann, meinte ich nichts anderes. Und bevor es zu nochmal zu Missverstaendnissen kommt: allein hohe Aufloesungen sind nicht die Loesung fuer aliasing generell. Wenn moeglich sollte man tatsaechlich eine hohe Aufloesung mit antialiasing kombinieren, wobei das letztere im Raume der heutigen Moeglichkeiten eher nach einer Kombination von Multisampling + Anisotropischer Filterung klingt.
Regeln koennen aber auch selbst hier schlecht festgelegt werden, weil hier eben zu viele Faktoren mitspielen. Beispiel wie gross ist die Bildflaeche und was heisst dann in dieser Relation "hohe Aufloesung"? CRT oder TFT? usw. usw.
In diesem relativen Sinn ist auf einem 21" CRT alles oder das meiste <1280*960 eigentlich Schwachsinn und in diesem Fall macht auch die Wahl von 1600*1200 in 3D erstmal richtig Sinn, aber auch nur wenn die Leistung einer Applikation ausreicht fuer genuegend MSAA + AF samples; das alles ist aber auch zu grob vereinfacht. Reicht mir aber die Leistung fuer 1600 mit AA+AF NICHT mehr aus in einem theoretischen Fall, sie reicht aber fuer 1280 mit xAA+yAF, dann waehle ich natuerlich den zweiten Fall. Stur nur auf hoehere Aufloesungen zu bestehen ist tatsaechlich Schwachsinn; unter gewissen Bedingungen und Vorraussetzungen wird eine hoehere Aufloesung zum Idealfall.
Zurueck zum AF: zu den Zeiten der R300 drueckte ich ein Auge zu was die Winkelabhaengigkeit betrifft, weil sie eben als erste "sinnvolles" 4xMSAA mit ausgezeichneter Leistung benutzen konnte (wobei "sinnvoll" siehe 4xRGMS vs. 4xOGMS). Mehr war im gegebenen Fall auf 150nm wohl nicht mehr moeglich. Nichtdestominder war es damals eine sehr bewusste Wahl und die vorerwaehnten waren auch nicht die einzigen Vorteile dieses bestimmten chips.
Wo mir die erwaehnte Toleranz ausgeht ist im Fall wo ich ~160M chips mit 520MHz sehe. Hoehere Qualitaet waere in diesem Fall moeglich gewesen, mit einer groesseren Anzahl von Transistoren und eben einer niedrigeren Taktrate.
Das kann selbst S3 besser: Dieser wenig beachtete Hersteller macht vor, dass man bis 16x sehr gutes AF haben kann – die S3-Grafikchips kranken allerdings an anderen Nachteilen (von denen viele treiberseitig bedingt sind). Doch der im Gamermarkt weitgehend irrelevante DeltaChrome, ein recht kleiner Chip bestehend aus höchstens 80 Millionen Transistoren, zeigt, dass exzellentes AF möglich ist. Aber ATI (160 Millionen Transistoren) und Nvidia (222 Millionen Transistoren) kriegen das nicht hin.
Natuerlich sollte man hier sagen dass wenn DeltaChrome tatsaechlich zumindest eine 9700PRO haette aufnehmen sollen, dass dann eben die 80M nicht mehr ausgereicht haetten. Wie dem auch sein ist dieser bescheidene "Kleine" mit 8 trilinearen TMUs ausgeruestet. Mit 325MHz ist seine trilineare Fuellrate genau so hoch wie die bilineare Fuellrate 9700PRO, wobei die letztere mit wahrem trilinear nur noch die Haelfte erreicht. Fuer AF braucht man Fuellrate; mal ganz grob vereinfacht bilineare Filterung bekommt man auf heutigen chips noch fuer "frei"; trilinear eben nicht. Deshalb auch die unendlichen Sparmassnahmen um an trilinearer Fuellrate dazuzugewinnen. Auf jeden Fall entfaellt bei tri-TMUs die Notwendigkeit fuer Winkel-abhaengigkeit, den restlichen Optimierungs-Quark fuer noch bessere Leistung koennte man immer noch durch Treiber-Optionen zulassen.
Wieso hoehere Qualitaet? Was hatte ich gegen Parhelia's FAA einzuwenden? Dass der Algorithmus keine poly intersections glaetten kann als Beispiel oder versagt beim stenciling. Mal ganz verrueckt verdrehte Logik: wuerde ich einen Multisampling Algorithmus tolerieren, welcher in der Mehrzahl der Faelle glaetten wuerde, aber in gewissen Winkeln sehr schlecht oder gleich gar nicht glaettet? Die Antwort ist nein.
Waeren alternative Methoden nicht momentan moeglich, gaebe es eigentlich schwer einen Grund zum meckern. Da aber der Aufwand fuer bessere AF-Qualitaet nicht so gross ist und die Moeglichkeit besteht, verdienen sich sowohl ATI als auch NVIDIA jegliche Kritik was diesen Bereich betrifft. Und es wird auch nicht nachlassen; selbst der kommende R520 scheint bis jetzt wenn ich all den Geruechten glauben soll, keine besondere Unterschiede. Verrueckt hohe Taktraten und immer noch bilineare TMUs; man muss ja die Benchmarks gewinnen koennen um das geht es ja viel zu viel leider heutzutage.
Alles natuerlich wie immer IMHO.
Nazar
2005-01-03, 14:25:13
Worauf bezieht sich dieser artikel denn nun... auf "standbilder"?
Hier wird, in für den spieler unwichtigen teilbereichen, so viel wert gelegt, dass ich über meine eigene auffassungsgabe erstaunt bin.
Laut diesem artikel wird mir hier verkauft, dass ich mehr wahrnehme als ich eigentlich kann.
Es gibt mit sicherheit eine sinvolle anwendung für diesen artikel.. für ECHTE spieler ist er aber für den hintern.
Der artikel ist bestimmt was für eine philosophiestunde.
Die benutzten fremdwörter an sich sind schon eine diskussion wert.
Besonders angetan hat es mir "untersampeln".... wir sind hier immer noch am diskutieren was das zu bedeuten hat und wo "sowas" anwendung findet. ;D
Nazar
2005-01-03, 15:03:45
Echtes AF im Sinne von GF2/GF3/GF4/GFFX/DC-AF ist nicht zu teuer.
Gibs zu... du hast nie eine dieser karten besessen und kaust nur das wieder, was du mal gehört hast?!
Du behauptest also allen ernstes, du würdest lieber mit "echtem" (was immer das sein soll) AF und dafür starken rucklern QIII zocken, als flüssig zu spielen, bei gleicher "wahrnehmbarer" BQ und flüssig.
Ich weiss wirklich nicht was ihr hier nicht begreifen wollt, was aber die leute bei ati und nvidia schon begriffen haben.
Die für den spieler wahrnehmbare BQ liegt weit ausserhalb eurer "religion".
Die Diskussion, die ihr hier anstrebt, ist reine "standbildmentalität".
Ein spieler nimmt schon eine menge mehr informationen auf, als im bewusst ist, aber bei weitem nicht soviel, wie dieser artikel uns weiss machen möchte.
Der Artikel an sich ist ok.
Leider wird eine komplizierter satzaufbau genutzt, welcher mit fremdworten nur so gespickt ist, das die verständlichkeit verloren geht.
Ob nun gewollt oder nicht sei mal dahingestellt.
Was aber nicht angesprochen wurde, und das halte ich als spieler für wichtig, ist der "echte" nutzen vom "echten" AF für den spieler.
Als "einfacher" leser, kommt es einem so vor, als ob hier fachidioten über den nutzen von AF, eine diskussion über den sinn den lebens anstrengen.
Aber jedem das seine.
;D
Jetzt muss ich auch mal wieder meinen Senf zu einem Artikel auf 3DCenter abgeben. :D Das "primäre Verfahren, um die Bildqualität zu steigern" ist also immer noch die Auflösungserhöhung? Das finde ich interessant. In meinem Bekanntenkreis und auch in vielen mir bekannten Firmen und bei sonstigen Bildschirmarbeitsplätzen ist es ein primäres Verfahren zur Bildqualitätssteigerung, bestehende Kathodenstrahlröhrenmonitore gegen Flüssigkeitskristallanzeigen (landläufig "TFT-Monitor" genannt) zu ersetzen. Ich habe zwar inzwischen selbst einen TFT-Monitor, aber gehe bei Spielern entweder davon aus, dass sie einen guten CRT haben, oder einen schnellen TFT mit 1280x1024 Bildpunkten. 1600x1200-er Displays hat kaum einer. Die konkrete Auflösung ist aber nicht so wichtig, um zu fordern, Texturfüllrate bestmöglich in Qualität umzusetzen, weil man in jeder Auflösung davon profitiert.
Lange Rede, kurzer Sinn: ist das Hauptargument des Artikels überhaupt noch von Belang oder aktuell?Die Hauptaussage der Kolumne ist, dass Auflösung über- und Texturqualität unterschätzt wird.
Die Frage nach Auflösungserhöhung zur Bildqualitätsteigerung stellt sich für 2/3 der 3DC-User offensichtlich gar nicht (mehr).Vor allem haben nach wie vor fast keine Leute die Möglichkeit, 1600x1200 sinnvoll zu nutzen – auch ein wichtiger Punkt der Kolumne.
Ich bleibe stur dabei, dass man Aliasing zuerst in der Ursache bekämpfen sollte,Genau das wird mit Antialiasing getan.
*hust* Ich halte das Argument für sehr weit hergeholt, dass irgendwer die Auflösung erhöht, um mangelnde Texturqualität zu erhöhen. Dafür nutzt jeder, der weiss, was ein Texturfilter ist, heute AF. Das halte ich für nicht weit hergeholt. Noch immer fragen Leute, was AA und AF bedeuten. Ob höhere Auflösung "besser" ist, wird nicht gefragt (da das klar ist.)
Ist es also wirklich so furchtbar schlimm, dass immer mehr Benchmarks in 1600x1200 gefahren werden?Nein, aber es ist furchtbar schlimm, wenn für Leistung in 1600x1200 Texturqualität geopfert wird, da hätten wir den reduziert trilineare Filter, AF mit Undersampling und vom Winkel um die Z-Achse reduziertes AF.
Besonders angetan hat es mir "untersampeln".... wir sind hier immer noch am diskutieren was das zu bedeuten hat und wo "sowas" anwendung findet. ;DNa beim AF. Neuerdings werden einfach zu wenig Samples gelesen (spart Füllraten, erzeugt aber Texturflimmern.)
Die Diskussion, die ihr hier anstrebt, ist reine "standbildmentalität".Winkelabhängiges AF zeigt gerade in Bewegung seine Nachteile.
Leider wird eine komplizierter satzaufbau genutzt, welcher mit fremdworten nur so gespickt ist, das die verständlichkeit verloren geht.
Ob nun gewollt oder nicht sei mal dahingestellt.Natürlich nicht. Wenn du sagen würdest, welche Worte unbekannt sind, würde ich jene natürlich zu erklären versuchen.
Was aber nicht angesprochen wurde, und das halte ich als spieler für wichtig, ist der "echte" nutzen vom "echten" AF für den spieler.
Als "einfacher" leser, kommt es einem so vor, als ob hier fachidioten über den nutzen von AF, eine diskussion über den sinn den lebens anstrengen.Der Nutzen von optimalem AF wäre, dass die Grafikleistung besser in Qualität umgesetzt wird. Mit gleichem Aufwand wird dann ein besseres, bzw. mit weniger Aufwand ein gleich gutes Bild erzeugt.
Quasar
2005-01-03, 18:42:48
Gibs zu... du hast nie eine dieser karten besessen und kaust nur das wieder, was du mal gehört hast?!
Ja, genau.
Einen Delta-Chrome habe ich allerdings nur auf der CeBit hinter Glas "live" gesehen.
Aber jedem das seine.
;D
Danke, zu gütig.
*wieder_neue_sachen_zum_nachplappern_lesen_geht*
edit:
Du behauptest also allen ernstes, du würdest lieber mit "echtem" (was immer das sein soll) AF und dafür starken rucklern QIII zocken, als flüssig zu spielen, bei gleicher "wahrnehmbarer" BQ und flüssig.
Nein, das musst du irgendwie falsch verstanden haben. Ich behaupte allen Ernstes, daß ich QIII mit der bestmöglichen Bildqualität zocken würde - so, wie jedes andere Spiel auch.
Nur erlaube ich mir, einzufordern, daß ich mir selbst aussuchen kann, was für mich die beste Bildqualität ist. Das kann von Spiel zu Spiel, von Level zu Level, ja sogar von Szene zu Szene schwanken.
Und ja, ehe ich 320fps in Q3 anstrebe, gönne ich mir lieber das furchtbar ineffiziente Supersampling-AA.
Quasar
2005-01-03, 18:50:26
Der Artikel an sich ist ok.
Leider wird eine komplizierter satzaufbau genutzt, welcher mit fremdworten nur so gespickt ist, das die verständlichkeit verloren geht.
Ob nun gewollt oder nicht sei mal dahingestellt.
Ist Deutsch deine Muttersprache?
Quasar
2005-01-03, 18:55:30
Genau das wird mit Antialiasing getan.
Nein.
Es wird versucht, das zu reduzieren, was sich durch die endliche Bildschirmauflösung bildet: Artefakte.
Dur verwechselst hier Ursache und Wirkung.
Ailuros
2005-01-03, 23:22:30
Nein.
Es wird versucht, das zu reduzieren, was sich durch die endliche Bildschirmauflösung bildet: Artefakte.
Dur verwechselst hier Ursache und Wirkung.
Ich hab jetzt Deinen und aths' Kommentar dreimal durchgelesen und kann immer noch nicht verstehen, wo er sich falsch ausgedrueckt hat.
Man versucht aliasing tatsaechlich mit anti-aliasing zu beseitigen; bei PC Spielen gelingt es noch nicht so gut dem menschlichen Auge vorzugaukeln dass kein Gruseln da ist, in der Mehrheit der anderen Faelle schon. Aliasing ist ein Frequenz-problem (wie die meisten hier schon wissen) und dafuer werden in Bereichen wie sound, imaging, motion picture usw. sehr effektive AA-Methoden angewendet und in der Mehrheit der Faelle klappt es auch.
AA-Methoden sind ja eigentlich auch nur eine quasi "Imitation" was das menschliche Auge selber anwendet; und ja in aeusserst seltenen Faellen wo die Frequenz doch zu hoch ist kann es sogar vorkommen dass selbst in Echtzeit das menschliche Auge ein bisschen aliasing oder moire Effekte erwischen kann.
Was ich nicht verstehen kann wenn es zu antialiasing kommt, ist wie man aliasing in seiner Ursache theoretisch bekaempfen soll. Irgend ein halbwegs logischer Vorschlag fuer "analog to digital sound conversion" ohne antialiasing? Sehr einfaches Beispiel eigentlich.
Quasar
2005-01-03, 23:38:32
Ganz einfach. Heutige AA-Methoden doktern an den Symptomen herum (jaggies), ohne jedoch die Ursache (endliche, oder zumindest geringere Auflösung des Ausgabegerätes als die des menschlichen Auges) die zur Bildung dieser Symptome führen.
Natürlich muss für eine Therapie ( =Bekämpfung der Ursache) nicht nur die Grafikleistung erhöht werden, sondern auch die Displayauflösung. Aber ohne letzteres wird jeglicher Versuch allein auf Seiten der Grafikkarten immer ein Herumdoktern an Symptomen bleiben, denn es wird ganz einfach (zumindest beim niederwertigen MSAA) nur dort anti-aliasing betrieben, wo die Symptome am deutlichsten zutage treten (Polygonkanten).
Stell dir jemanden mit einem gebrochenen Fuß vor. Der kann nur noch einen Fuß belasten. Du kannst nun die Ursache bekämpfen, also den Knochen wieder richten, schienen und zusammenwachsen lassen oder aber du pumpst ihn so voll Painkiller ;) daß er die Schmerzen nicht mehr spürt. Letzteres ist ohne Zweifel kostengünstiger als eine richtige OP - vor allem, wenn man diese "Therapie" als Mainstream serviert bekommt und sowieso massenweise billige Schmerzmittel hergestellt werden.
Die Menge der Analogien ist verblüffend.
Was ist sinnvoller?
Ganz einfach. Heutige AA-Methoden doktern an den Symptomen herum (jaggies), ohne jedoch die Ursache (endliche, oder zumindest geringere Auflösung des Ausgabegerätes als die des menschlichen Auges) die zur Bildung dieser Symptome führen.MSAA berechnet die Kanten in höherer Auflösung und filtert dann runter, wobei zwar Lokalitätsinformationen verloren gehen, aber das Aliasing trotzdem stark reduziert wird. Multisampling Antialiasing ist "echte" Aliasing-Reduzierung. Mehr als eine Reduzierung bringt das Erhöhen der Auflösung auch nicht. Dank MSAA entspricht die Pixelfarbe eher der "wahren" Pixelfarbe als ohne AA. Das ist keine Quacksalberei, wie dein "Herumdoktorn" nahe legt. Das kannst du mir glauben oder nicht, aber als Student am "Fachbereich Elektrotechnik und Informatik", mit einer 1,7 in "Grundlagen der Nachrichtentechnik", dem Besuch einer freiwilligen Zusatzvorlesung zum Thema Signalfilterung und jetzt dem Besuch des Wahlpflichtfaches "Analyse digitaler Messdaten" und des Pflichtfaches "Grafische Oberflächen / Bildverarbeitung" weiß ich schon, wovon ich spreche.
Aliasing ist nicht das Vorhandensein einer niedrigen Samplerate, sondern die Tatsache, dass beim Sampling das Nyquist-Kriterium nicht eingehalten wird. Deshalb treten die Aliasing-Symptome auf, und nicht, weil die Display-Auflösung unterhalb der Augen-Auflösung liegt. Im Kontext bestmögliches Antialising würde pro Pixel den genauen Flächeninhalt des Dreieckes berechnen, welches das Pixel überdeckt und die Farben entsprechend ihrem exakten Flächenanteil eingehen lassen. Da das extrem aufwändig wäre, behilft man sich in dem man einfach mehrere Sichtprobem im Pixel nimmt. Das ist eine ganz gute Näherung für die Flächeninhalt-Bestimmung. Schon 4 "sparsed" angeordnete Samples bringen erhebliche Aliasing-Reduzierung. Aliasing erzeugt Störeffekte, und wenn man die wegbekommt, wird bei einer aktuellen Auflösung keiner mehr über die Kantenqualität meckern.
Antialiasing via ultrahohen DPI-Zahlen hat nur dann den vollen Effekt, wenn das "Downsampling" durch das begrenzte Auflösungsvermögen des Auges zustande kommt. Downsampling muss also auf dem einen oder anderen Wege ohnehin erfolgen. Es ist kein Teufelswerk, wenn das gleich die Grafikkarte macht, damit man auch in gängigen Auflösungen seine Freude hat – Ziel ist schließlich nur, Aliasing-Artefakte bestmöglich zu reduzieren.
Das Posting hier mag rechthaberisch³ klingen, aber das nehme ich mal in Kauf. Wichtig ist mir, dass der Aliasing-Begriff richtig angewendet wird, da helfen Parabeln mit einem verletzten Fuß nicht weiter.
MadManniMan
2005-01-04, 03:02:37
Ich denke, diese traditionsreiche Diskussion zwischen euch beiden ;) ist nicht zuletzt auch ein Stück Interpretationsfrage ... für gänzlich objektivierbar halte ich die Thematik nicht, denn letztlich geht es immernoch um das Bearbeiten von Kram, der Menschen irgend "gefallen" soll - so sehr die Theorie auch fakultativ verankert sein mag.
Dennoch habe ich eine Frage: was sagt das Nyquist-Kriterium eigentlich konkret aus, wie ist es formuliert?
Ailuros
2005-01-04, 06:01:45
Abgesehen davon, ich hab PC-Grafik von jeglichem anderen Segment mit Absicht getrennt. Ohne motion blur (sprich temporales antialiasing) als Beispiel werden Seiten-effekte bei radikalen Frequenz-aenderungen schwer zu beseitigen sein. Wahres und hochwertiges motion blur kommt ja fuer den PC momentan fast gar nicht in Frage.
Ganz einfach. Heutige AA-Methoden doktern an den Symptomen herum (jaggies), ohne jedoch die Ursache (endliche, oder zumindest geringere Auflösung des Ausgabegerätes als die des menschlichen Auges) die zur Bildung dieser Symptome führen.
Natürlich muss für eine Therapie ( =Bekämpfung der Ursache) nicht nur die Grafikleistung erhöht werden, sondern auch die Displayauflösung. Aber ohne letzteres wird jeglicher Versuch allein auf Seiten der Grafikkarten immer ein Herumdoktern an Symptomen bleiben, denn es wird ganz einfach (zumindest beim niederwertigen MSAA) nur dort anti-aliasing betrieben, wo die Symptome am deutlichsten zutage treten (Polygonkanten).
Wie hoch sind normalerweise die render targets bei Spielfilmen?
Grestorn
2005-01-04, 11:20:46
Aliasing ist nicht das Vorhandensein einer niedrigen Samplerate, sondern die Tatsache, dass beim Sampling das Nyquist-Kriterium nicht eingehalten wird. Deshalb treten die Aliasing-Symptome auf, und nicht, weil die Display-Auflösung unterhalb der Augen-Auflösung liegt. Das Nyquist-Kriterium besagt lediglich, dass bei einer Digitalisierung die Abtastfrequenz mindestens doppelt so hoch wie die maximal zu erfassende Frequenz sein muss.
Bei hochfrequenten Texturen (Gitter o.ä.) wäre dieses Kriterium sicher anwendbar, aber gerade da hilft MSAA bekanntlich nichts (wenn das Gitter nur aus einer Textur besteht).
Die "Jaggies" am Rande einer Textur haben nichts mit irgendeiner Frequenz zu tun und bleiben (ohne AA) so lange für das Auge sichtbar, wie die Auflösung des Monitors unter der des Auges liegen. Somit finde ich die Zitierung von Nyquist in diesem Zusammenhang etwas unpassend.
P.S.: Auch altgediente und sicherlich sehr kompetente Foren- und 3DC-Crew-Mitglieder sollten darauf verzichten, mit ihrer Bildung anzugeben. Ihr könnt mal beruhigt davon ausgehen, dass hier auch andere Menschen sind, die eine akademische Ausbildung haben und die vielleicht auch noch durch eine etwas längere berufliche Praxis untermauert haben. Es sieht einfach nie gut aus, wenn man seine Argumente statt mit Fakten mit seinem Ausbildungsgrad untermauert.
Auch wenn ich natürlich verstehen kann, wenn einer ein Fakt einfach nicht wahrhaben will, dass man ihm klarmacht, dass man es einfach besser weiß. Dennoch sind auch Akademiker nie unfehlbar, selbst in ihrem Spezialgebiet nicht.
GastRobert
2005-01-04, 14:06:46
Mal kurz zum Überfahren der Lochmaske des Monitors:
Es geht niemandem in einer 3D-Umgebung darum scharfe Pixel zu sehen, bei kleinen 2D-Darstellungen wie kleinen Schriftarten mag es sinnvoll sein die Pixel noch scharf erkennen zu wollen, in einer 3D-Landschaft ist das aber unsinnig. Ich sehe TV auf meinem 21" Fehrnseher grundsätzlich nur aus Entfernung ums die fünf Meter, weils mir näher dran zu "pixelig" und damit zu "unecht" wird. Um ein Bestmögliches 3D-Bild auf einem CRT zu erhalten muss man eigentlic die Lochmaske leicht überfahren, da die Löcher schlieszlich nicht in Schachbrettmuster sondern versetzt angeordnet sind, die höchstmöglcih darstelbare Auflösung ist nunmal die Lochmaske selbst und wenn ich hier am Schreibtisch sitze wo die Entcfehrnung meiner Augen zum Monitor doch sehr gering ist sind 0,25 mm schon angemessen, dass ich hier dennoch in 1024*768 vorbeischaue hat andere Gründe, schlussendlich ist das hier auch keine 3D-Landschaft.
Natürlich ist es dennoch Unsinn alls in höchstmöglicher Auflösung spielen zu müssen, weil nunmal die Textureauflösung begrenzt ist und ich nunmal nicht mehr Details sehen kann als mit die Texturauflösung bietet, das wird ja auch im Artikel aufgegriffen. Dazu ist es natürlich auch nicht unbedingt Bildqualitätsteigernd wenn man die verbesserung an einer Stelle nur mit Verschlechterung an anderer Stelle erkauft, im Grunde ist der Artikel richtig, nur das "Überfahren der Auflösung" wird diskriminiert.
Die höhere Auflösung nutzt, wenn die Texturen an objekten in naher Sichtweite bereits weniger scharf sind als die Monitorauflösung, nur noch wenn tatsächliche Ploygonkanten sehr eng aneinander liegen, wenn man zB. in Morrowind eine Treppe aus etwas Entfehrnung, zB. in Balmora von der anderen Flussseite betrachtet oder in Unreal 2 von der Schiffsbrücke kommt und auf dieses Kabelbündel gegenüber der Leiter zuläuft, in Bewegung flimmert das einfach trotz 6x Sparsed AA sehr stark. Da solche Betrachtungsumstände in Spielen aber heute noch sehr selten sind kann man das zur Zeit noch vernachlässigen.
Das Nyquist-Kriterium besagt lediglich, dass bei einer Digitalisierung die Abtastfrequenz mindestens doppelt so hoch wie die maximal zu erfassende Frequenz sein muss.
Bei hochfrequenten Texturen (Gitter o.ä.) wäre dieses Kriterium sicher anwendbar, aber gerade da hilft MSAA bekanntlich nichts (wenn das Gitter nur aus einer Textur besteht).Alphatest-Texturen sind in der Kolumne ausgespart.
Die "Jaggies" am Rande einer Textur haben nichts mit irgendeiner Frequenz zu tun und bleiben (ohne AA) so lange für das Auge sichtbar, wie die Auflösung des Monitors unter der des Auges liegen. Somit finde ich die Zitierung von Nyquist in diesem Zusammenhang etwas unpassend.Am Rande einer Textur oder am Rande eines Polygons?
Es sieht einfach nie gut aus, wenn man seine Argumente statt mit Fakten mit seinem Ausbildungsgrad untermauert. Ja, ich weiß. Aber kaum was ist so schwer aus der Welt zu kriegen wie Halbwarheiten.
Dennoch sind auch Akademiker nie unfehlbar, selbst in ihrem Spezialgebiet nicht.Japp. Nur hätte ich dann gerne Gegenargumente auf fachlicher Ebene. Nicht, damit erst mal viele Leute ausgeschlossen werden, sondern damit die Diskussion gewinnbringend ist.
Grestorn
2005-01-04, 16:26:42
Am Rande einer Textur oder am Rande eines Polygons?Polygon... natürlich :redface:
Wie hoch sind normalerweise die render targets bei Spielfilmen?Soweit ich weiß, wird HDTV-Auflösung genutzt.
Ja, ich weiß. Aber kaum was ist so schwer aus der Welt zu kriegen wie Halbwahrheiten.
Polygon... natürlich :redface:Das hat aber schon was mit Frequenzen zu tun.
Grestorn
2005-01-04, 17:48:15
Das hat aber schon was mit Frequenzen zu tun.Die Kante eines Polygons? Die nicht-parallel zur Abtastung verläuft?
Nach Nyquist könnte ich fehlerfrei 800 vertikale Linien bei einer 1600x1200 Auflösung sampeln. Stelle ich die Linien schräg, erhalte ich Aliasing-Effekte.
RLZ hat das im anderen Thread wunderbar beschrieben (der Pixel enthält das Integral der in ihm abzubildenden Information). Nyquist ist ok bei linearen Abtastungen, aber ich weiß nicht, wie ich das bei 2-Dimensionalen Abtastungen anwenden sollte (aber ich hab auch weder Nachrichtentechnik- noch Bildverarbeitung studiert). Deswegen erscheint mir Nyquist in diesem Zusammenhang halt als unangebracht.
Klär mich auf, wenn ich mich täusche :)
Endorphine
2005-01-04, 18:10:48
Ich bleibe stur dabei, dass man Aliasing zuerst in der Ursache bekämpfen sollte, bevor man mit irgendwelchen Algorithmen in der Bilddarstellung die Artefakte lindern will.
Genau das wird mit Antialiasing getan. Und genau das was du schreibst ist falsch. Ich habe mich zu dem Thema gerade noch einmal mit meinem Professor für Messtechnik unterhalten, da wir heute unter anderem das Thema A/D-Wandlung, Abtastraten etc. behandelten.
Da du gern mit Signaltheorie argumentierst: Antialiasing ist signaltheoretisch nicht viel mehr als ein Tiefpass, der höhere Frequenzen, die nicht mehr aufgelöst werden können, abschneidet. Insofern wird das Shannon-Abtasttheorem (welches nur eine Banalität beschreibt und von dir wohl eher als Totschlagargument eingesetzt wird, gegen die, die zu faul sind, es nachzuschlagen) nicht verletzt, wenn AA zum Zuge kommt. Es sind nach dem AA-Tiefpass eben schlicht keine Frequenzen mehr vorhanden, die nicht aufgelöst werden könnten. In der Informationstechnik wird bei der Rasterung von grafischen Inhalten natürlich vorher das Ausgangsmaterial soweit möglich (selektiv) intern höher aufgelöst und erst dann der "Tiefpass" angewandt.
Dennoch ist - und da ist mein Prof mit mir einer Meinung - Antialiasing keine Methode, um die Ursache von Aliasing und die dadurch entstehenden Artefakte zu beheben. Es werden ganz klar nur die Symptome gelindert, das ist alles. Du kannst falsches auch 100x wiederholen und deine erreichten Hochschulleistungen angeben, dadurch wird es nicht richtiger.
Fakt ist eines: Aliasing entsteht durch eine zu wenig genaue und/oder zu seltene Abtastung. Aliasing kann durch Antialiasing nur in den Symptomen (das ist eine Wirkung) gemildert werden. In der Ursache kann man gleichermaßen nur eins tun: öfter pro Zeiteinheit abtasten (für zeitlich veränderliche Größen) und die Schrittauflösung des Abtasters erhöhen (mehr Bits für den A/D-Wandler z. B. oder eben höhere Rasterauflösung bei der grafischen Ausgabe am Rechner).
Ein Aliasingartefakt bei gerasterter 3D-Grafik ist es beispielsweise, wenn ich ein weit (!) entferntes Objekt nicht mehr genau erkennen kann, da es irgendwann mit steigender Entfernung nur noch die "Fläche" von einem Pixel in der Rasterauflösung hat. Du sagst, dass die Ursache für dieses Aliasingproblem mit AA bekämpft wird. Prima, dass du dein Lieblingsgebiet nicht richtig verstanden hast und stattdessen lieber mit wohlklingenden Theoremen argumentierst, die Banalitäten beschreiben und mit dem Kern der Diskussion nichts zu tun haben. Fakt ist jedenfalls, dass man auch mit unendlich hoher interner AA-Auflösung Aliasingartefakte nicht in der Ursache bekämpfen (also "beseitigen") kann. Man kann nur einzelne Effekte wie line-popping lindern, also an den Symptomen herumdoktorn. Und auch signaltheoretisch bekämpft AA keinesfalls die Ursachen (nämlich fehlende Abtastfrequenz und -Auflösung), sondern es werden nur die Frequenzen durch Tiefpässe abgeschnitten, die das Shannon-Theorem verletzen würden.
Das Shannon (oder auch Nyquist-) Theorem besagt ja lediglich, dass man ein Signal mindestens mit der zweifachen Frequenz abtasten muss (reziproke Nyquist: Signal maximal 1/2 der Abtastfrequenz), damit es nicht zu Aliasing kommt. AA ist hier - um Quasars Beispiel aufzugreifen - wie eine Amputation des schmerzenden gebrochenen Beines. Ohne Bein ist nichts mehr da, was Schmerzreize an das Gehirn senden könnte. Mit Ursachenbekämpfung (gebrochenes Gelenk heilen) hat AA jedenfalls nichts zu tun. Solltest du immer noch anderer Meinung sein: verrate mir bitte, wie ich nach der Rasterung 1-Pixel große Objekte in der Form von sonstigem Bildinhalt unterscheiden soll. Die gesamte Fachwelt der Signaltheorie wartet gespannt auf deine nobelpreisverdächtige wissenschaftliche Arbeit, wie du die Ursachen von Aliasing mit Antialiasing bekämpfen und dabei Informationen, die nach dem Tiefpass verloren gegangen sind, wiederherstellen möchtest. Bitte kläre mich und die restliche Welt auf, wie du diese Meisterleistung vollbringst.
Im Anhang findet sich übrigens die mathematische Beschreibung des von aths so gern zitierten Nyquist-Shannon Abtasttheorems, einer Banalität.
Quasar
2005-01-04, 19:12:38
MSAA berechnet die Kanten in höherer Auflösung und filtert dann runter, wobei zwar Lokalitätsinformationen verloren gehen, aber das Aliasing trotzdem stark reduziert wird. Multisampling Antialiasing ist "echte" Aliasing-Reduzierung.
Bis hierhin stimme ich dir zu.
Mehr als eine Reduzierung bringt das Erhöhen der Auflösung auch nicht.
Doch, denn...
Dank MSAA entspricht die Pixelfarbe eher der "wahren" Pixelfarbe als ohne AA.
Du sagst "eher" - wir könnten jetzt philosophieren, was die "wahre Farbe" eines Pixels ist, aber eine Auflösungserhöhung bringt mehr, als mehr Pixel, die "eher der wahren Pixelfarbe" entsprechen: Nämlich mehr Pixel, die tatsächlich der wahren Farbe entsprechen.
Das ist keine Quacksalberei, wie dein "Herumdoktorn" nahe legt. Das kannst du mir glauben oder nicht,[...]
Herumdoktern ist das, was die Medizin tut, wenn sie nicht die Ursache einer Krankheit bekämpfen kann, sondern nur deren Manifestation (Symptome).
Herumdoktern ist das, was gängige AA-Methoden tun, wenn sie nicht die Ursache von Aliasing bekämpfen, sondern dessen Manifestation, wie du selbst später noch bestätigst. (s.u.)
[...]aber als Student am "Fachbereich Elektrotechnik und Informatik", mit einer 1,7 in "Grundlagen der Nachrichtentechnik", dem Besuch einer freiwilligen Zusatzvorlesung zum Thema Signalfilterung und jetzt dem Besuch des Wahlpflichtfaches "Analyse digitaler Messdaten" und des Pflichtfaches "Grafische Oberflächen / Bildverarbeitung" weiß ich schon, wovon ich spreche.
Das glaube ich dir auch gern - aber wie sagt man so schön: Manche sehen den Wald vor lauter Bäumen nicht.
Aliasing ist nicht das Vorhandensein einer niedrigen Samplerate, sondern die Tatsache, dass beim Sampling das Nyquist-Kriterium nicht eingehalten wird.
Ok... eigentlich hätte ich jetzt aber gedacht, daß dies eher auf Texturaliasing zutrifft.
Deshalb treten die Aliasing-Symptome auf,[...]
Symptome? Und an dieser Manifestation versucht AA herumzudoktern (s.o.). Das dies nicht immer erfolgreich geschieht, bestätigst du selbst ("eher der wahren Pixelfarbe" und "mehrere Sichtprobem im Pixel nimmt. Das ist eine ganz gute Näherung" (s.u.) - wenn man die Ursache besiegt, wären die Symptome nicht mehr vorhanden und nicht nur in abgemilderter Form sichtbar.
Solange die gerenderte Auflösung innerhalb der Grenzen des menschlichen optischen Wahrnehmungsvermögens liegt (sinnvoll, wenn man sich mal rein auf Computergrafik beschränkt), solange wird es wahrnehmbares Aliasing als Folge hiervon geben. Der Versuch, diese Artefakte in die Nähe der Wahrnehmungsschwelle zu verschieben, bekämpft einen Effekt, der bereits vorhanden ist (also eine Ursache haben muss) und deswegen selbst eine Manifestation darstellt und keine selbstbedingte Ursächlichkeit.
Die Kante eines Polygons? Die nicht-parallel zur Abtastung verläuft?
Nach Nyquist könnte ich fehlerfrei 800 vertikale Linien bei einer 1600x1200 Auflösung sampeln. Stelle ich die Linien schräg, erhalte ich Aliasing-Effekte.
RLZ hat das im anderen Thread wunderbar beschrieben (der Pixel enthält das Integral der in ihm abzubildenden Information). Nyquist ist ok bei linearen Abtastungen, aber ich weiß nicht, wie ich das bei 2-Dimensionalen Abtastungen anwenden sollte (aber ich hab auch weder Nachrichtentechnik- noch Bildverarbeitung studiert). Deswegen erscheint mir Nyquist in diesem Zusammenhang halt als unangebracht.
Klär mich auf, wenn ich mich täusche :)Abgetastet Audio-Signale sind Sample-"Punkte", aus denen dann das analoge Signal, also ein richtiger Sinus rekonstruiert werden kann. Bei 3D-Grafik steht das Sample jedoch für eine Fläche. Nyquist ist aber auch auf Pixelrastern nicht unangebracht. Zum Beispiel kann man beim "Durchschreiten" des Rasters in 45° zur Z-Achse gedreht höhere Frequenzen darstellen als im 90°-Ausrichtung. In der Diagonalen hat das Pixel zwar die 1,414-fache Ausdehnung, dafür "durschneidet" man (fast) immer zwei Pixel und kommt so auf eine durchschnittliche höhere Frequenz. Entsprechend sieht das isotrope LOD-Muster aus (Ausnahme NV40): Bei 45° diese "Einkerbungen", die MIPs fangen erst später an.
Wie viele Linien sich getrennt darstellen lassen, auch das kann Onkel Nyquist sagen :) nur muss man natürlich Besonderheiten wie oben genannt berücksichtigen. In 45°-Ausrichtung kann man in einem 100x100-Raster ca. 141 Linien darstellen. (Tatsächlich wird es dann ein Schachbrett-Muster, die Trennung verschwindet. Mit "vollem" Antialiasing* wären aber knapp 140 Linien möglich.)
* Das mit dem Integral ist das Ziel, und wird mit aktuellen Verfahren nicht erreicht, jedoch angenähert.
Die anderen Postings beantworte ich später.
Und genau das was du schreibst ist falsch. Ich habe mich zu dem Thema gerade noch einmal mit meinem Professor für Messtechnik unterhalten, da wir heute unter anderem das Thema A/D-Wandlung, Abtastraten etc. behandelten.
Da du gern mit Signaltheorie argumentierst: Antialiasing ist signaltheoretisch nicht viel mehr als ein Tiefpass, der höhere Frequenzen, die nicht mehr aufgelöst werden können, abschneidet. Was macht Multisampling Antialiasing anderes, außer die Kanten in einer höheren Auflösung als der Bildschirmauflösung zu samplen und dann einen Tiefpass (das Downfiltering) zu applizieren? (Der Tiefpass, wie zeckensack weiter unten schreibt, bezieht sich natürlich auf die jetzt höher aufgelösten Samples. Ebenso führt er das wichtige Kriterium an, dass kein Sample in mehreren Pixeln genutzt wird, auf solche (in der Filtertechnik eigentlich wichtigen) Feinheiten verzichte ich in diesem Posting mal. Der Tiefpass beim MSAA wird auf das übersampelte Material so appliziert, dass keine Frequenzen unterdrückt werden die mit der Auflösung noch darstellbar sind, jedoch werden (die meisten) höheren Frequenzen gedämpft oder gar beseitigt, die das Shannon-Abtastheorem verletzen würden.)
Insofern wird das Shannon-Abtasttheorem (welches nur eine Banalität beschreibt und von dir wohl eher als Totschlagargument eingesetzt wird, gegen die, die zu faul sind, es nachzuschlagen) nicht verletzt, wenn AA zum Zuge kommt. Es sind nach dem AA-Tiefpass eben schlicht keine Frequenzen mehr vorhanden, die nicht aufgelöst werden könnten.Eben: Frequenzen die größer sind als die halbe Samplingfrequenz führen dazu, dass das gesampelte Signal verfälscht wird. Das möchte man vermeiden, in dem man Antialiasing nutzt. Multisampling bietet kein vollständiges Antialiasing, dämpft aber die Störungen erheblich.
Dennoch ist - und da ist mein Prof mit mir einer Meinung - Antialiasing keine Methode, um die Ursache von Aliasing und die dadurch entstehenden Artefakte zu beheben. Es werden ganz klar nur die Symptome gelindert, das ist alles. Du kannst falsches auch 100x wiederholen und deine erreichten Hochschulleistungen angeben, dadurch wird es nicht richtiger.Mit "echtem" Antialising würden alle Fehler, die das Aliasing erzeugt, beseitigt. Multisampling liefert eine Approximation, die dem echten AA um so näher kommt, je mehr (und je besser angeordnete) Samples pro Pixel genutzt werden.
Fakt ist eines: Aliasing entsteht durch eine zu wenig genaue und/oder zu seltene Abtastung. Aliasing kann durch Antialiasing nur in den Symptomen (das ist eine Wirkung) gemildert werden. In der Ursache kann man gleichermaßen nur eins tun: öfter pro Zeiteinheit abtasten (für zeitlich veränderliche Größen) und die Schrittauflösung des Abtasters erhöhen (mehr Bits für den A/D-Wandler z. B. oder eben höhere Rasterauflösung bei der grafischen Ausgabe am Rechner).Genau das tut MSAA doch, wenn auch nur für die Polygonkanten, im ersten Schritt. Im zweiten Schritt wird downgefiltert. Die endgültige Rasterauflösung steigt nicht, aber die Aliasing-Effekte nehmen ab.
Ein Aliasingartefakt bei gerasterter 3D-Grafik ist es beispielsweise, wenn ich ein weit (!) entferntes Objekt nicht mehr genau erkennen kann, da es irgendwann mit steigender Entfernung nur noch die "Fläche" von einem Pixel in der Rasterauflösung hat.Das ist kein Aliasing-Effekt, sondern ein Effekt der begrenzten Auflösung. Aliasing bezeichnet Störeffekte durch die Verletzung des Shannon-Theorems bzw. des Nyquist-Kriteriums.
Du sagst, dass die Ursache für dieses Aliasingproblem mit AA bekämpft wird. Prima, dass du dein Lieblingsgebiet nicht richtig verstanden hast und stattdessen lieber mit wohlklingenden Theoremen argumentierst, die Banalitäten beschreiben und mit dem Kern der Diskussion nichts zu tun haben.Ich habs verstanden, keine Sorge. Folgendes Beispiel: Du komprimierst eine 44,1-KHz-Wave-Datei ins MP3-Format, aber berücksichtigst nur Frequenzen bis 16 KHz. Wenn man das Wave einfach durch Weglassen von Samples auf 32 KHz Abtastrate umsampelt, werden die Frequenzen höher als 16 KHz "nach links" ins Spektrum gespiegelt, verfälschen also Signalanteile unterhalb 16 KHz. "Antialiasing" ist diesem Zusammenhang, das Signal per Tiefpass auf 16 KHz zu begrenzen und es erst dann weiterzuverarbeiten.
Dass man nach dem Komprimieren keine Frequenzen > 16 KHz mehr hören kann ist kein Aliasing-Artefakt. Dass ein Pixel nur so viel darstellen kann wie ein Pixel, ist auch kein Aliasing-Artefakt. Sondern eine Folge der begrenzten Auflösung.
Das menschliche Auge löst nicht unendlich fein auf, trotzdem nehmen wir kein Aliasing wahr, dass durch die endlich aufgelöste Netzhaut entstünde. Natürlich nehmen wir auch keine beliebig feinen Details wahr, aber das hat mit Aliasing nichts zu tun.
Bis hierhin stimme ich dir zu.Das ist ja schon mal was :)
Doch, denn...
Du sagst "eher" - wir könnten jetzt philosophieren, was die "wahre Farbe" eines Pixels ist, aber eine Auflösungserhöhung bringt mehr, als mehr Pixel, die "eher der wahren Pixelfarbe" entsprechen: Nämlich mehr Pixel, die tatsächlich der wahren Farbe entsprechen.Die Auflösung ist aber begrenzt. Warum sehen die Kanten auf meinem 19" CRT-Moni 1024x768 mit 4x RGAA viel, viel besser aus als in 1600x1200 ohne AA, wo es doch im letzten Fall mehr Pixel gibt?
Zwar gibt es mehr Pixel, doch pro Fläche (z. B. cm²) sind, was Kanten angeht, weniger "echte" Informationen vorhanden als im ersten Fall. Zwar gehen viele Lokalitätsinformationen im ersten Fall verloren, dennoch ist man insgesamt besser dran.
Ich hatte auch mal ein Experiment gemacht: Ein Raster von 32x32 Bildpunkten kann eigentlich, sofern die Linie durch die Mitte gehen muss, maximal 124 unterschiedliche Winkel darstellen (da es nur 124 Randpixel gibt.) Mit AA kann man jedoch anschließend aus den Farbzwischenstufen wieder Informationen zum Verlauf der Kante gewinnen, und deutlich feiner auflösen. (Einfache Möglichkeit: Bilinear hochvergrößern, und dann das Bild binearisieren. Damit kann man auch "zwischen" die ehemaligen Pixel greifen.) In einem gewissen Rahmen sind die Lokalitätsinformationen also rekonstruierbar. Dazu müssen sie in ihrem Umfeld gesehen werden. Verloren gehen sie dann, wenn z. B. so feine Strukturen abgebildet werden, dass es keine Linie mehr gibt die über mehrere Pixel geht. Aber auch dann wirkt Antialiasing: Die Störeffekte (was wir als Flimmern wahrnehmen) sind weg. (Tatsächlich kann es noch "schwimmen", aber Shannon ist erfüllt.) Dass mit endlich vielen Rasterpunkten nicht beliebig viele Informationen dargestellt werden können, ist kein Aliasing-Artefakt, sondern sowas ähnliches wie Energieerhaltung :) (Man sollte hier eigentlich, was korrekt wäre, den Entropie-Begriff verwenden, aber das Nennen von Fachtermini stößt hier ja nur begrenzt auf Gegenliebe.)
Nun könnte man sagen, halt, das AA-Beispiel ist dumm. Man müsste schon mit der Auflösung 2048x1536 vergleichen. Kantenmäßig verliert man aber auch gegen 1024x768 mit 4x RGAA. Zwar hat man jetzt pro Pixel gleich vier Pixel, die aber vergleichsweise "blöd" gesampelt sind. Pro Fläche hat liegen im ersten Fall mehr "echte" Informationen vor.
Man kann sich Antialiasing einerseits so denken, dass für das Pixel mehr "echte" Informationen hinzugerechnet werden, aber korrekt ist die entgegengesetzte Vorstellung, nämlich, dass (beim Multisampling nur einige, nicht alle) falsche Informationen weggerechnet werden.
Es gibt Wege, dies zu mit Zusatzrechnungen erreichen, ohne extrem viele Subsamples rendern zu müssen. Mir schwebt z. B. ein Verfahren im Kopf herum, was etwa 256x OGMSAA entspricht, allerdings die Dreiecks-Ecken falsch behandelt, ansonsten jedoch mit sehr wenigen Samples pro Pixel auskommt.
Herumdoktern ist das, was die Medizin tut, wenn sie nicht die Ursache einer Krankheit bekämpfen kann, sondern nur deren Manifestation (Symptome).
Herumdoktern ist das, was gängige AA-Methoden tun, wenn sie nicht die Ursache von Aliasing bekämpfen, sondern dessen Manifestation, wie du selbst später noch bestätigst. (s.u.)Die Ursache von Aliasing ist das Verletzen des Nyquist-Kriteriums. Die Ursache ist nicht, dass die Samplingrate begrenzt ist. Die Ursache ist, dass vor dem Sampling noch Frequenzen > fA/2 enthalten sind. Wollte man Antialiasing rein übers Hochsampeln und Downfiltern machen, müsste man eigentlich unendlich viele Samples nehmen. Tatsächlich aber ist das nicht erforderlich, da es ohnehin ein Quantisierungsrauschen in der Farbauflösung gibt. Es gäbe aber auch die Möglichkeit, für jedes im Pixel sichtbare Polygon exakt (oder wenigstens mit FP32-Genauigkeit) auszurechnen, wie viel davon sichtbar ist, und die Farbe entsprechend zu wichten. Dann reduziert man die unendlich vielen Rechnungen auf endlich viele, und hat trotzdem (im Rahmen der Rechengenauigkeit mögliches) vollständiges Antialiasing.
Ok... eigentlich hätte ich jetzt aber gedacht, daß dies eher auf Texturaliasing zutrifft.Das eine muss das andere ja nicht ausschließen.
Symptome? Und an dieser Manifestation versucht AA herumzudoktern (s.o.). Das dies nicht immer erfolgreich geschieht, bestätigst du selbst ("eher der wahren Pixelfarbe" und "mehrere Sichtprobem im Pixel nimmt. Das ist eine ganz gute Näherung" (s.u.) - wenn man die Ursache besiegt, wären die Symptome nicht mehr vorhanden und nicht nur in abgemilderter Form sichtbar.Das ist jetzt aber kein Problem des Antialiasings per se, sondern der Tatsache, dass Multisampling nur eine Näherung ist. "Echtes" AA würde alle Informationen für das Pixel aufintegrieren.
Näherungsberechnungen sind allerdings grundsätzlich ausreichend, da letztlich die Pixelfarbe auch quantisiert ist. Kommt man auf ein halbes Bit Farbfehler, ist das praktisch echtes AA. Das wird man in absehbarer Zeit zwar nicht schaffen, aber was bliebe wären nur wenige Pixel, die noch flimmern. Damit kann man leben und hat "so gut wie" echtes AA.
Solange die gerenderte Auflösung innerhalb der Grenzen des menschlichen optischen Wahrnehmungsvermögens liegt (sinnvoll, wenn man sich mal rein auf Computergrafik beschränkt), solange wird es wahrnehmbares Aliasing als Folge hiervon geben. Der Versuch, diese Artefakte in die Nähe der Wahrnehmungsschwelle zu verschieben, bekämpft einen Effekt, der bereits vorhanden ist (also eine Ursache haben muss) und deswegen selbst eine Manifestation darstellt und keine selbstbedingte Ursächlichkeit.Nein :)
So lange die gerenderte Auflösung unterhalb der Auflösung des Auges liegt, ist das Bild immer etwas unschärfer als es das Auge vollkommen ausreizen würde. Stör-Effekte durch Aliasing lassen sich trotzdem beseitigen. Da die völlige Beseitigung extrem aufwändig wäre, begnügt man sich mit einer Näherung, die lediglich lindert. Keineswegs aber wäre zur Beseitigung notwendig, in "Augen-Auflösung" zu rendern.
zeckensack
2005-01-05, 01:35:28
*eskurzmacht*
Ich widerspreche Endorphine, und stimme aths zu, denn dieser Satz:Antialiasing ist signaltheoretisch nicht viel mehr als ein Tiefpass, der höhere Frequenzen, die nicht mehr aufgelöst werden können, abschneidet.... ist falsch (bzw er beschreibt weder Multisampling noch Supersampling).
Vor dem Downfilter werden zusätzliche Samples gebildet, die ohne AA nicht gebildet werden würden. Es ist also nicht nur ein "Tiefpass".
Eigentlich ist der Downfilter überhaupt kein echter Tiefpass, denn der Kernel erstreckt sich nie über mehrere Pixel hinweg. Dh er wirkt nicht frequenzreduzierend ggü der Version ohne AA. Er integriert nur die Samples innerhalb der einzelnen, isolierten Pixel.
Die einzigen praktisch existierenden Ausnahmen sind "Quincunx" und "4x9tap". Hier handelt es sich um echte Tiefpässe, und mit weitgehend anerkannt grauenhaftem Ergebnis. Im Prinzip hast du, Endorphine, erklärt warum Quincunx blöd ist. Von vernünftigen AA-Techniken hast du dich schon mit dem zitierten Satz verabschiedet.
Ailuros
2005-01-05, 06:26:37
Eventuell wuerde ich noch FLIPQUAD dazuzaehlen, obwohl es doch im Grunde gut genug fuer sehr kleine Geraete wie Handys sein wird.
*eskurzmacht*
Ich widerspreche Endorphine, und stimme aths zu, denn dieser Satz:... ist falsch (bzw er beschreibt weder Multisampling noch Supersampling).
also ich stimme Quasar zu, denn diesen Fakt
"Heutige AA-Methoden doktern an den Symptomen herum (jaggies), ohne jedoch die Ursache (endliche, oder zumindest geringere Auflösung des Ausgabegerätes als die des menschlichen Auges) die zur Bildung dieser Symptome führen."
scheint aths auch nicht einzusehen.
Aliasing lässt sich von vornherein komplett vermeiden, wenn die Auflösung nur hoch genug ist und das is dann der Fall, wenn das Auge den Abstand zweier benachbarter Bildpunkte nicht mehr auflösen kann..
DrumDub
2005-01-05, 11:09:44
Aliasing lässt sich von vornherein komplett vermeiden, wenn die Auflösung nur hoch genug ist und das is dann der Fall, wenn das Auge den Abstand zweier benachbarter Bildpunkte nicht mehr auflösen kann..
das problem dabei ist nur, dass der aufwand in einer solchen auflösung zu rendern in keinem fall im verhältnis zu einer maßnahme wie aa steht.
Quasar
2005-01-05, 11:23:33
Das bestreitet ja eigentlich keiner. Allerdings weiß auch keiner so genau, wie hoch die "Renderleistung" wäre, wenn AA-spezifische Dinge in R&D sowie Chipfertigung komplett eingespart worden wären. ;)
also ich stimme Quasar zu, denn diesen Fakt
"Heutige AA-Methoden doktern an den Symptomen herum (jaggies), ohne jedoch die Ursache (endliche, oder zumindest geringere Auflösung des Ausgabegerätes als die des menschlichen Auges) die zur Bildung dieser Symptome führen."
scheint aths auch nicht einzusehen.
Aliasing lässt sich von vornherein komplett vermeiden, wenn die Auflösung nur hoch genug ist und das is dann der Fall, wenn das Auge den Abstand zweier benachbarter Bildpunkte nicht mehr auflösen kann..Meine beiden langen Postings hast du aber gelesen?
Auch hierzu ein Beispiel aus der Audiotechnik. Das menschliche Gehör geht kaum über 20 KHz hinaus, oft ist bei 16 KHz Schluss, oft noch darunter. Nehmen wir an, wir könnten bis maximal 20 KHz hören. Da wäre man mit einer Abtastrate von 44,1 KHz voll auf der sicheren Seite.
Tastet man damit aber ein Signal ab, was Frequenzen größer 22,05 KHz enthält, kommt es zu Aliasing. Dann werden auch Frequenzen unterhalb 22,05 KHz verfälscht aufgezeichnet.
Es reicht daher nicht, einfach nur an (oder über) der Wahrnehmungsgrenze zu samplen, um Aliasing zu unterdrücken.
Ailuros
2005-01-05, 17:31:46
Das bestreitet ja eigentlich keiner. Allerdings weiß auch keiner so genau, wie hoch die "Renderleistung" wäre, wenn AA-spezifische Dinge in R&D sowie Chipfertigung komplett eingespart worden wären. ;)
Wenn Du vom EER ausgehen wuerdest, dann waere die Rechenleistung miserabel in der hohen Aufloesung. Angenommen ich greife auf einer Radeon auf 6x sparse MSAA in 1280*960.
7680*5760? Bon Apetit.... ;)
***edit: da Dir die obrige Rechnung wohl nicht passen wird, probier dann einfach mal einen maximalen theoretischen Wert auszurechnen mit HDTV Aufloesung * Pixar's 64x stochastic Supersampling. Selbst wenn ich stinknormale 720*568 video source Aufloesung nehme ist das maximale theoretische Resultat verrueckt hoch.
Aliasing lässt sich von vornherein komplett vermeiden, wenn die Auflösung nur hoch genug ist und das is dann der Fall, wenn das Auge den Abstand zweier benachbarter Bildpunkte nicht mehr auflösen kann..
Das ist ein weit verbreiteter Irrglaube. Wenn dem so wäre, müsstest du einfach ein paar Schritte rückwärts gehen, und das Aliasing wäre weg. Ist leider nicht so, glatte Kanten sind auch nicht alles.
Allerdings ist es natürlich immer noch eine äußerst wichtige Sache, denn: Ziel muss ja nicht sein, Aliasing vollständig zu eliminieren, sondern wahrnehmbares Aliasing zu eliminieren. Und das hilft schon sehr viel, wie weiter unten erläutert wird.
Fakt ist, das Signal, in diesem Fall das imaginäre Bild einer Szene, die durch die Grafikdaten beschrieben wird, besitzt unendlich hohe Freqenzen, denn es ist nicht stetig. Um nun Aliasing zu vermeiden, kann man prinzipiell zwei Dinge tun:
1. Das Signal frequenzlimitieren (z.B. durch einen Tiefpass), oder
2. die Samplefrequenz über die doppelte maximale Signalfrequenz erhöhen.
Punkt 1 ist in diesem Kontext nicht praktikabel, man überlege sich bitte ein Verfahren mit dem man Szenendaten frequenzlimitiert ;)
Zu 2, wir erhöhen also die Samplefrequenz auf etwas mehr als zwei mal unendlich. Geht leider auch nicht.
Man muss folglich feststellen, dass sich Aliasing nicht vollständig eliminieren lässt.
Hier kommt uns aber die begrenzte Auflösungsfähigkeit des menschlichen Auges entgegen. Statt Aliasing vollständig zu eliminieren, reicht es ja auch, das Signal quasi-unendlich zu samplen, Flächen zu integrieren und diese mit einer Auflösung jenseits der Wahrnehmbarkeitsschwelle darzustellen*.
Letzteres wird in der Regel nur selten gemacht, weil es zu viel Leistung kostet.
Multisampling nimmt nur eine begrenzte Anzahl Samples, keinesfalls quasi-unendlich. Dazu behandelt es nur die Kanten. Supersampling hat diesen Fehler nicht, ist aber zu teuer.
Quasi-unendliches Samplen und Flächen Integrieren kann man auch in einem Schritt zusammenfassen. Dann lässt man das Samplen sein und integriert nur noch die Flächenfunktionen. Das mag bei einfachen Funktionen wie Gouraud-Shading oder linearem Texture-Mapping noch halbwegs machbar sein. Bei komplexen Shadern ist aber auch dieser Weg nicht mehr vollständig realisierbar.
* Man braucht also tatsächlich beides, hohe Auflösung und Antialiasing. Was mehr benötigt wird, muss jeder für sich entscheiden, denn vollständiges Eliminieren von (auch nur wahrnehmbarem) Aliasing ist in der Praxis sowieso nicht erreichbar.
Ab einer bestimmten Auflösung fällt das Kosten/Nutzen-Verhältnis in meinen Augen klar zugunsten des AA aus. Derartig klar, dass ich davon ausgehe dass es auch bei den meisten anderen Menschen so ist. Nur eben, ab welcher Auflösung das der Fall ist, ist von Person zu Person verschieden.
MadManniMan
2005-01-06, 02:46:15
*Beifall klatscht*
Besser hätte ich es kaum formulieren können! ...zumal ich so weit gar nicht gedacht habe ;)
Ich bein kein Freund des ultimativen Objektivierens, deshalb tat ich mich schwer, mich irgendwo auf Seiten Qs, aths oder Endos Seite einzureihen - aber nach diesem Post fällt es mir schwer, neben meiner natürlich verbleibenden, subjektiven Einstellung der Res/AA-Diskussion gegenüber von dieser Darstellung Xmas abzuweichen.
:massa:
*Beifall klatscht*
Besser hätte ich es kaum formulieren können! ...zumal ich so weit gar nicht gedacht habe ;)
Ich bein kein Freund des ultimativen Objektivierens, deshalb tat ich mich schwer, mich irgendwo auf Seiten Qs, aths oder Endos Seite einzureihen - aber nach diesem Post fällt es mir schwer, neben meiner natürlich verbleibenden, subjektiven Einstellung der Res/AA-Diskussion gegenüber von dieser Darstellung Xmas abzuweichen.Darum ging es zwar auch in meiner Kolumne (Auflösung ist nicht alles, AF muss her, Xmas bezieht das hier halt (und zurecht) aufs AA) aber in der jetzigen Diskussion geht es nur unter anderem darum, was mehr lohnt; eher, was Aliasing überhaupt ist. Und was man dagegen tun könnte, sowie, was aktuelle Grafikkarten anbieten.
Dass Antialiasing nur Herumdoktorn ist und die "wahre" Aliasing-Beseitigung im Einstellen von sehr hohen Auflösungen liegt, wie Quasar und Endorphine glauben, stimmt eben nicht. Wer meint, dass es reichen würde, an oder schon knapp unterhalb Wahrnehmungsgrenze zu samplen, hat nicht verstanden, was Aliasing ist.
MadManniMan
2005-01-07, 03:52:06
Wohl wahr, wohl wahr!
Man sollte nur Folgendes bedenken: möchte man eine Grundsatzdiskussion über den theoretischen Ansatz der Thematik halten, oder vergißt man bei all dem nicht, daß hier über Dinge geredet wird, die Menschen gefallen sollen?
Bei Letzterem - und ich bin nicht geneigt, mich auf den ersteren Punkt zu fokussieren - ist IMHO Xmas Formulierung sowas wie der Stein der Weisen.
Quasar
2005-01-07, 08:01:41
Dass Antialiasing nur Herumdoktorn ist und die "wahre" Aliasing-Beseitigung im Einstellen von sehr hohen Auflösungen liegt, wie Quasar und Endorphine glauben, stimmt eben nicht. Wer meint, dass es reichen würde, an oder schon knapp unterhalb Wahrnehmungsgrenze zu samplen, hat nicht verstanden, was Aliasing ist.
Wie erklärst du mir, als jemandem, der weder edit: Fachbereich Elektrotechnik und Informatik
mit 1,7 studiert, noch verstanden hat, was Aliasing ist, dann das hier:
Man muss folglich feststellen, dass sich Aliasing nicht vollständig eliminieren lässt.
Insbesondere, wenn man noch folgendes berücksichtigt, wo ich zugegebenermaßen nicht "innerhalb des Doppelten des menschlichen Wahrnehmungsvermögens"* geschrieben habe:
Solange die gerenderte Auflösung innerhalb der Grenzen des menschlichen optischen Wahrnehmungsvermögens liegt (sinnvoll, wenn man sich mal rein auf Computergrafik beschränkt), solange wird es wahrnehmbares Aliasing als Folge hiervon geben. Der Versuch, diese Artefakte in die Nähe der Wahrnehmungsschwelle zu verschieben, bekämpft einen Effekt, der bereits vorhanden ist (also eine Ursache haben muss) und deswegen selbst eine Manifestation darstellt und keine selbstbedingte Ursächlichkeit.
*Zumal auch real Aliasing existiert oder sind Moire-Muster nicht auch eine Form von Aliasing?
edit:
Hier nochmal die komprimierte Ausgangslage:
Ich bleibe stur dabei, dass man Aliasing zuerst in der Ursache bekämpfen sollte,[...]Genau das wird mit Antialiasing getan.Nein. Es wird versucht, das zu reduzieren, was sich durch die endliche Bildschirmauflösung bildet: Artefakte. Du verwechselst hier Ursache und Wirkung.
Wie erklärst du mir, als jemandem, der weder edit: Fachbereich Elektrotechnik und Informatik
mit 1,7 studiert,Ne 1,7 hab ich vielleicht in einzelnen Fächern.
noch verstanden hat, was Aliasing ist,Darum kannst du dich auch selbst kümmern, nicht? Meine Zeit als Erklär-Bär ist begrenzt. Beispielsweise muss ich dringend was im Fach "Analyse digitaler Messdaten" abgeben, wo wir einen bestimmten IIR-Filter in Mathcad modellieren (und auswerten) sollen.
Endorphine hat von seinem Prof richtige Antworten bekommen, doch leider im Drang, mich hier zu widerlegen, in Teilen falsch ausgelegt.
Da du Xmas' Posting zitierst, warum folgst du der Argumentation nicht bis in die letzte Konsequenz?
zeckensack
2005-01-07, 18:51:25
also ich stimme Quasar zu, denn diesen Fakt
"Heutige AA-Methoden doktern an den Symptomen herum (jaggies), ohne jedoch die Ursache (endliche, oder zumindest geringere Auflösung des Ausgabegerätes als die des menschlichen Auges) die zur Bildung dieser Symptome führen."
scheint aths auch nicht einzusehen.Dass zu geringe Auflösung des Ausgabemediums die Ursache für Aliasing sein soll, sehe ich auch nicht ein. Und für ein Faktum halte ich es natürlich auch nicht.
Aliasing lässt sich von vornherein komplett vermeiden, wenn die Auflösung nur hoch genug ist und das is dann der Fall, wenn das Auge den Abstand zweier benachbarter Bildpunkte nicht mehr auflösen kann..Das würde ich als rumdoktern an den Symptomen umschreiben.
Faktum ist nämlich, dass Aliasing dadurch nicht verschwindet. Es verschiebt sich nur in vom Menschen nicht mehr wahrnehmbare Frequenzbereiche. Das halte ich für einen erwähnenswerten Unterschied.
Quasar
2005-01-07, 20:15:45
Da du Xmas' Posting zitierst, warum folgst du der Argumentation nicht bis in die letzte Konsequenz?
Dieser schrieb:
Man muss folglich feststellen, dass sich Aliasing nicht vollständig eliminieren lässt.
Und was bedeutet das?
Wenn sich etwas nicht vollständig eliminieren läßt, bleibt es vorhanden. Das Vorhandensein äußert sich "irgendwie". Dieses "irgendwie" sind Symptome (http://de.wikipedia.org/wiki/Symptom). Äußerungen einer Ursache.
Die Ursache hat Xmas natürlich viel genauer, definierter und damit besser beschrieben als ich. Ich nahm irrigerweise an, die Ursache sei, daß die gerenderte Auflösung zu gering wäre, nicht wissend, daß eine hinreichende Auflösung unmöglich zu erreichen wäre.
Trotz allem bleibt Anit-Aliasing ein Herumdoktern an den Symptomen, da Aliasing sich, wie du ja nichtmal bestritten hast, in unserem Kontext nicht vermeiden läßt, ergo vorhanden ist, ergo Symptome (der Samplefrequenz < 2*unendlich) bereits ausgebildet sind.
In der realen Welt können wir als kleinstmögliche Auflösung evtl. subatomare Teilchen annehmen - vielleicht liesse sich darüber in einem separaten Thread philosophieren.
Das würde ich als rumdoktern an den Symptomen umschreiben.
Faktum ist nämlich, dass Aliasing dadurch nicht verschwindet. Es verschiebt sich nur in vom Menschen nicht mehr wahrnehmbare Frequenzbereiche. Das halte ich für einen erwähnenswerten Unterschied.
ack. dennoch ist der Mensch geneigt als nicht vorhanden anzusehen was er nicht wahrnimmt. und für die praxis des sehens und hörens ist diese ansicht ausreichend.
zeckensack
2005-01-07, 22:16:45
ack. dennoch ist der Mensch geneigt als nicht vorhanden anzusehen was er nicht wahrnimmt. und für die praxis des sehens und hörens ist diese ansicht ausreichend.Einerseits ja.
Andererseits nein. Wie aths mit dem Audio-Beispiel zu erklären versuchte, müssen auch bei "für den Menschen ausreichender Abtastung" Vorkehrungen getroffen werden, um Aliasing zu vermeiden.
Bei Audio-ADCs muss deswegen zB zwingend ein Tiefpass vor den Wandler geschaltet werden. Tut man dies nicht, "spiegeln" sich hohe Frequenzen an der Abtastfrequenz, wodurch wieder eine Störung im wahrnehmbaren Spektrum resultieren kann. Stichwort "Interferenz", und daraus resultiert nicht nur räumliches Aliasing, sondern auch temporales Aliasing (rückwärts drehende Räder in Filmen) und Moiré*.
Ein 80kHz-Signal zB führt bei 44,1kHz Abtastung zu einer Spiegelung bei 44,1kHz-(80kHz-44,1kHz)=8,2kHz. Das wäre dann wieder definitiv im hörbaren Bereich, und würde stören. Eine höhere Abtastrate alleine behebt dieses Problem nicht generell, sondern verschiebt nur den Fangbereich, in dem Störsignale liegen müssen, um zu sichtbarer Interferenz zu führen.
Nun werden diese Vorkehrungen sowohl im Audio- wie auch im Grafikbereich größtenteils schon getroffen. Bei Audio-Produktionen sitzen an den richtigen Stellen steile Tiefpässe, und bei Grafik greifen wir auf Mipmap-Filter zurück, die im Prinzip das gleiche bewirken. Zudem gibt es zB Regeln für das Rastern von Linien, die quasi verbieten, dass eine Linie unterbrochen gezeichnet wird, wenn sie keine Pixelzentren trifft. Diese Maßnahmen verhindern das Auftreten von Aliasing in ihrem Wirkungsbereich.
Höhere Abtastrate tut nichts dergleichen.
Gäbe es kein Mipmapping, sähe jede texturierte Grafik scheiße aus. Gäbe es keine Regeln für Linien-Rasterisierung, sähe jede Strichgrafik scheiße aus. Auch in 4096x3072 auf'm 15-Zoll-CRT. Denn, und jetzt komme ich auf die Interferenz zurück, ein Tiefpass nach der Spiegelung ins sichtbare Spektrum ist wirkungslos. Ein 22,05kHz-Tiefpass, und ist er auch noch so gut, ist nicht geeignet um eine 8,2kHz-Störung zu eliminieren.
Alphatest-Zäune flimmern auch mit Quincunx, nur anders.
*man kaufe sich ein Moskitonetz, falte es einmal um und staune
Dieser schrieb:
Und was bedeutet das?
Wenn sich etwas nicht vollständig eliminieren läßt, bleibt es vorhanden. Das Vorhandensein äußert sich "irgendwie". Dieses "irgendwie" sind Symptome (http://de.wikipedia.org/wiki/Symptom). Äußerungen einer Ursache.
Die Ursache hat Xmas natürlich viel genauer, definierter und damit besser beschrieben als ich. Ich nahm irrigerweise an, die Ursache sei, daß die gerenderte Auflösung zu gering wäre, nicht wissend, daß eine hinreichende Auflösung unmöglich zu erreichen wäre.
Trotz allem bleibt Anit-Aliasing ein Herumdoktern an den Symptomen, da Aliasing sich, wie du ja nichtmal bestritten hast, in unserem Kontext nicht vermeiden läßt, ergo vorhanden ist, ergo Symptome (der Samplefrequenz < 2*unendlich) bereits ausgebildet sind.Kanten-Aliasing ließe sich mit entsprechend hohem Aufwand so stark senken, dass:
- Die restlichen Aliasing-Effekte im Quantisierungsrauschen der 8-Bit-Farbkanalauflösung verschwinden.
- Nur ganz ganz wenige Pixel stärker betroffen sind.
Damit sind die Aliasing-Nachteile, also die Bildstörungen durch Aliasing, "praktisch" beseitigt. Das ist kein Herumdoktorn. "Echtes" Antialiasing durch ultrahohe Auflösungen ist, inzwischen wird das hoffentlich auch von Gästen akzeptiert :), kein guter Weg, um dem Aliasing Herr zu werden.
"Herumdoktorn" wäre, mit Quincunx die hohen Frequenzen zu dämpfen. (Die hohen Frequenzen werden ja nicht rausgefiltert, aber in ihrer Amplitude geschwächt) um das Auge zu "betrügen". Multisampling ist kein "Betrug". Antialiasing setzt an der Ursache an, womit natürlich die Symptome verringert werden sollen.
Es lassen sich Beispiele zeigen, wo eine Linie in einer Auflösung aus gewissem Abstand betrachtet vollkommmen glatt erscheint – dank Antialiasing. Der Treppeneffekt ist dann "praktisch vollkommen" beseitigt.
Mehr als 256 Stufen lohnen ohnehin nicht (siehe 8-Bit-Auflösung.) Dass man nicht beliebig dünne Linien darstellen kann ist eine Folge des begrenzten Frequenzspektrums. Vom Antialiasing darf man nicht erwarten, dass das gehen soll, sondern dass Treppen-Effekte möglichst vermieden, sowie dass Line-Popping möglichst unterbunden wird. Nun mag man sagen, es sei auch nicht besonders schön, wenn eine Linie mal 1 Pixel breite, mal 2 Pixel breite (mit schwächerer Färbung) beantsprucht. Trotzdem handelt es sich um Antialiasing – das Flimmern wird so gut es geht unterdrückt.
Wenn du die Möglichkeit haben möchtest, höhere Frequenzen darzustellen, um ein noch schärferes Bild zu bekommen, dann brauchst du (neben Antialiasing) auch eine höhere Auflösung.
In der realen Welt können wir als kleinstmögliche Auflösung evtl. subatomare Teilchen annehmen - vielleicht liesse sich darüber in einem separaten Thread philosophieren.In der realen Welt gibt es eine kleinste relevante Länge, und eine kleinste relevante Zeiteinheit. Schon deshalb kann man nicht "unendlich genau" samplen. (Und braucht man auch nicht, da wir eine Wellenlänge von 2x dieser Größe auch nicht wahrzunehmen imstande sind.)
Wenn wir die reale Welt nachbilden wollen ist Antialiasing genau richtig: Auf ein Lichtrezeptor im Auge fällt ja nicht nur ein einziger (1 Photon dicker) Lichtstrahl, sondern der Rezeptor empfängt die integrierte Information einer Fläche. Das wird mit Multisampling nachgebildet.
Außerdem kann man beim Multisampling die Subpixel in anderer Ausrichtung abtasten, als das Pixelraster vorgibt. Durch eine kluge Subpixel-Anordnung wird dafür gesorgt, dass möglichst viele "interessante" Pixelinformationen einfließen – Antialiasing bringt dann mehr als die Auflösung weiter zu steigern, welche lediglich für eine angenehme Feinkörnigkeit zuständig ist. Auflösung soll das Potenzial bringen, auch hohe Frequenzen darstellen zu können. Antialiasing soll dafür sorgen, dass (vor allem) ebenjene hohen Frequenzen möglichst "wahr", also unverfälscht wiedergegeben werden. Das ist aus kausalen Gründen nur dann möglich, wenn es bei der Ursache ansetzt. Denn ein Herumdoktorn am fertigen AA-losen Bild bringt bezüglich Antialiasing ja nichts.
Micha303
2005-05-16, 07:40:40
Also ich nutze 1024 Auflösung mit 4 fach AA und 4AF, klappt gut und sieht gut aus, habe eine 6600GT
Was für mich aber ein Rätsel bleibt warum 2 Spiele abstürzten wenn ich Antialiasing einschalte sie aber ohne Probleme laufen wenn Antialiasing aus ist :confused:
Grestorn
2005-05-16, 11:02:11
Also ich nutze 1024 Auflösung mit 4 fach AA und 4AF, klappt gut und sieht gut aus, habe eine 6600GT
Was für mich aber ein Rätsel bleibt warum 2 Spiele abstürzten wenn ich Antialiasing einschalte sie aber ohne Probleme laufen wenn Antialiasing aus ist :confused:
Welche Spiele?
kharthax
2005-08-14, 16:47:33
@aths
hast du zufällig ... natürlich rein subjektiv gesehen ... eine Austellung der Art:
Auflösung AAx AFx = eine bestimmte BQ
gemacht? D.h. welche Modi sind miteinander qualitativ vergleichbar?
z.B. 1024 4xAA 4xAF = 1280 2xAA 2xAF ... ohne auf die Geschwindigkeit zu achten
DANKE
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.