PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Antialiasing veranschaulicht


Spasstiger
2007-11-05, 01:47:46
Immer wieder merkt man in Diskussionen das Unverständnis vieler darüber, was AntiAliasing ist. Oftmals fallen die Begriffe Kantenglättung und Treppeneffekt, welche ja nur Teilaspekte darstellen und nicht den ganzen Sachverhalt korrekt wiedergeben.
Und bevor man wieder hochtrabend daherkommt mit der Erklärung "weniger Informationsverlust bei der Rasterisierung", dachte ich, eröffne ich mal einen Thread, in dem die Wirkung von AntiAliasing veranschaulicht wird ohne zu sehr in die Details zu gehen.

Ich mache den Anfang mit einer von mir erstellten Animation (/EDIT: es geht mir um Echtzeit-3D-Grafik).
Das Szenario ist eine längliche Fläche, die auf dem Bildschirm weniger als ein Pixel breit dargestellt werden soll und über das Bild wandert. Es könnte sich beispielsweise um eine Stromleitung, einen Grashalm oder eine Zaunlatte handeln, die der Spieler bei einer Drehung erblickt:
http://img3.imagebanana.com/img/qimdlj3h/phases.gif

Links ist die Linie, wie sie vom Designer gedacht war. In der Mitte ist die Linie, wie sie auf dem Bildschirm ohne Antialiasing dargestellt wird. Rechts ist die Linie mit Antialiasing.
Man sieht deutlich, wie die Linie ohne AA abgehackt wird, während sie mit AA durchgängig bleibt, wenn auch etwas kontrastärmer. Ohne AA erscheint die Linie in Originalfarbe ein ganzes Pixel breit, was aber nicht der Realität entspricht (sie ist nur ca. 60% eines Pixels breit).
Das Bild mit Antialiasing wirkt wesentlich ruhiger und ist auch näher an einem Digitalfoto. Auf diesem wird man nämlich nie so abgehackte, harte Linien sehen wie in meiner Animation ohne AA.

P.S.: Falls der Thread etwas in ein (Möchtegern-)Expertengespräch ausarten sollte, aber ein paar gute Veranschaulichungen zwischendrin auftauchen, werde ich diese im Startposting mit aufnehmen (mit Verweis auf den Urheber und das Posting im Thread natürlich). Vielleicht haben wir dann mal einen Thread, den man auch einem Laien als Referenz nennen kann. Die Artikel von aths auf der Hauptseite sind zwar super, gehen aber für viele schon zu sehr in die Tiefe.

tokugawa
2007-11-05, 02:19:19
Eigentlich sollte die mittlere Linie ebenfalls durchgehend sein, aber eben "hart-pixelig". Siehe Bresenham-Algorithmus.

Spasstiger
2007-11-05, 02:27:07
Eigentlich sollte die mittlere Linie ebenfalls durchgehend sein, aber eben "hart-pixelig". Siehe Bresenham-Algorithmus.
Nicht beim Echtzeit-3D-Rendering, wo nur ein Sample in der Mitte eines Pixels geprüft wird.
Man sieht ja oft genug in Spielen solche abgehackten Linien, die bei leichten Mausbewegungen (Änderungen der Perspektive) flimmern.

=Floi=
2007-11-05, 03:25:36
du könntest noch ein paar beispielbilder (bitte auch mit transparentem aa und einem schönen zaun) aufnhemen
(1024er auflösung mit 0AA und 8AA wäre hier ein schöner vergleich) nebenbei könnte man auch noch die auswirkung der auflösung (beim crt) auf das aa veranschaulichen

StefanV
2007-11-05, 03:31:36
0xFSAA (auch 0° AF) würde so ausschauen, ~1024x768.

Du siehst also, 1x FSAA ist das 'kleinste' wo gibt, 0x wäre dunkler Schirm/kein Signal.

tokugawa
2007-11-05, 03:35:58
Nicht beim Echtzeit-3D-Rendering, wo nur ein Sample in der Mitte eines Pixels geprüft wird.
Man sieht ja oft genug in Spielen solche abgehackten Linien, die bei leichten Mausbewegungen (Änderungen der Perspektive) flimmern.

Naja, das kommt darauf wie so ein Element gerendert wird. Wenn dieser vermeintliche "Strich" keine Linie sondern ein dünnes Polygon ist, dann trifft das vielleicht zu.

Mit Linedrawing (GL_LINES oder ähnliches) würde man durchgehende Linien erhalten.

Zur Veranschaulichung von Anti-Aliasing gehört meiner Meinung nach nicht dieses separate "Problem" der abgehackten Linien dazu und verwirrt hier eher. Bestes Beispiel wäre einfach wie in OpenGL über GL_LINES mal mit, und mal ohne Anti-Aliasing zu rendern. Beides durchgehend, aber eine Variante halt "hartpixelig".

Gast
2007-11-05, 09:17:48
Nicht beim Echtzeit-3D-Rendering, wo nur ein Sample in der Mitte eines Pixels geprüft wird.
Man sieht ja oft genug in Spielen solche abgehackten Linien, die bei leichten Mausbewegungen (Änderungen der Perspektive) flimmern.
ich hab sowas bei einer Linie noch nie gesehen.

Grestorn
2007-11-05, 09:21:36
ich hab sowas bei einer Linie noch nie gesehen.

Doch natürlich sieht man das. Insbesondere wenn das Aliasing durch transparente Texturen entsteht. Blattwerk in einiger Entfernung zeigt genau dieses Verhalten.

Avalox/Gast
2007-11-05, 09:28:19
Ich denke Grundverwirrung besteht in der Begrifflichkeit.

Alle bemühen immer Linien als Demonstration. Ich denke, weil im Hinterkopf.
Kantenglättung = Objektkante steckt. Natürlich treten aliasing Effekte, aber nicht nur an Objektkanten auf, sondern an jeder Kante. Ob nun als Muster in einer Texture, als Geometriekante oder sonstige Kante.

Ich denke, man muss viel kritischer heutiges Rendering betrachten.

Antialiasing ist eine Krücke und keine tolle Sache. Antialiasing soll massive Einschränkungen im generellen Ansatz des Rendering überdecken.

Vielleicht sollte man mal den Unterschied von einen fotografierten Objekt (kann durchaus mal eine Linie sein), gegenüber einen Echtzeit gerenderten Objekt gegenüberstellen und so Antialiasing erklären.

Marscel
2007-11-05, 09:33:10
Soll mir keiner sagen, dass das noch niemand gesehen hat:

http://www.pcreact.de/misc/hl2.jpg

Henroldus
2007-11-05, 10:11:38
0xFSAA (auch 0° AF) würde so ausschauen, ~1024x768.

Du siehst also, 1x FSAA ist das 'kleinste' wo gibt, 0x wäre dunkler Schirm/kein Signal.
ich vertrete nach wie vor die Meinung, dass 0x bedeutet, das kein Antialiasing gegen dass Aliasing benutzt wird und wir somit das "hartpixlige" ergebnis aus dem zweiten Bild im ersten post erhalten.
erst ab 2x fängt AA wirklich an und bedeutet, dass nicht nur eine sampleposition(in der Mitte des Pixels) abgefragt wird sondern Zwei.
Es gibt bei 2xAA somit 3 mögliche Farben für das resultierende Pixel:

keine sampleposition wird von der zu zeichnende Linie berührt: Farbe weiss
eine sampleposition wird berührt: grau
2 samplepositionen werden berührt: schwarz


es gibt aber auch schöne artikel dazu bei 3Dcenter:
http://www.3dcenter.org/artikel/anti-aliasing-masken/

ideales AA wäre die prozentuale Berechnung wieviel pixelfläche von der Linie berührt wird, da es aber nicht nur Linien sondern auch Kreise etc gibt ist das recht kompliziert und wohl auf absehbare zeit nicht in echtzeit möglich.
Der beste aber auch teuerste weg ist SSAA da hier das Bild in einer höheren Auflösung berechnet und dann herunterskaliert wird.
Bei 2x2 SSAA steigt der rechenaufwand aber durch 2. Dimension bereits um das 4fache(ohne optimierungen)!
zusätzlich werden dafür auch die Texturen verbessert da 4 Pixel und somit deren Farbe zu einem zusammengefasst werden.

Mstrmnd
2007-11-05, 11:00:21
Ich glaube, dass 0xAA einfach nicht definiert ist. Deswegen braucht man sich darüber nicht streiten. :wink:

Gast
2007-11-05, 11:09:44
Juhu, mein lieblings Erklärbär hat wieder zugeschlagen. Nach der super Erklärung von POM 4 Dummies nun AA. Das Prinzip kannte ich schon, auch ähnliche Animationen wie deine hab ich schonmal gesehen, aber dennoch sind bei mir noch Fragen offen - lustigerweise grad gestern noch unter der Dusche drüber nachgedacht.

1. Wo wir überall AA eingesetzt? Nur bei scharfen Kanten (Linien, Kanten, Farbübergängen...) oder beim ganzen Bild (=alle Farbübergänge)? Dann wäre das doch eher ein Weichzeichner oder etwa nicht? Wenn nicht beim ganzen Bild: wie wird erkannt, wann und wo AA sein soll? (das war auch mein Prob. beim Verständnis von POM)

2. Warum können hohe Auflösungen angeblich AA nicht ersetzen? Hab hier schon öfters davon gehört, aber nie wirklich verstanden. Vor allem, da mich das mittlere Bild deiner Animation stark an Spiele mit zu geringer Auflösung erinnert. Z.B. TMN: Flaggenmasten in der Ferne waren teilweise unsichtbar, Sichtwinkel leicht verändert -> sichtbar; Auflösung erhöht -> immer sichtbar. Hätte AA also den gleichen Effekt wie die höhere Auflösung gehabt und umgekehrt?

@Avalox: gute Idee, aber bitte nicht zuviel Fachchinesisch... ;)

Sonyfreak
2007-11-05, 11:18:39
1) MSAA, also die Variante die du im Treibermenü auswählen kannst, kommt nur bei Polygonkanten zum Einsatz. Daher werden Farbübergänge, Texturen und so weiter nicht bearbeitet. AntiAliasing fügt dem Bild nur zusätzliche Informationen hinzu, nimmt aber keine weg.
Durch AA wird ja die Farbe eines Pixels nicht verändert, sondern nur genauer berechnet. Die Farbe wir je nach AA-Stufe an einem (1xAA), zwei (2xAA) und so weiter Punkten überprüft, bevor sie gerendert wird.

2) Auch bei hohen Auflösungen können die Farben durch eine winzige Bewegung umspringen. Ein plötzlicher Farbwechsel von einer dunklen Kante über einem helleren Hintergrund oder umgekehrt ist daher immer sehr leicht sichtbar. Durch AA werden diesen Zwischenstufen hinzugefügt, wodurch der Kontrast nicht mehr so hoch ist und man daher dieses "Überspringen" nicht mehr so leicht erkennen kann. Optimal ist natürlich eine hohe Auflösung in Verbindung mit Kantenglättung.

mfg.

Sonyfreak

StefanV
2007-11-05, 11:19:16
ich vertrete nach wie vor die Meinung, dass 0x bedeutet, das kein Antialiasing gegen dass Aliasing benutzt wird und wir somit das "hartpixlige" ergebnis aus dem zweiten Bild im ersten post erhalten.
erst ab 2x fängt AA wirklich an und bedeutet, dass nicht nur eine sampleposition(in der Mitte des Pixels) abgefragt wird sondern Zwei.
Wenn die Zahl links die Anzahl der Sample bedeutet, wie soll dann bei 0x FSAA 'nen Bild gerendert werden?!
Denn 0 bedeutet ja nix, wenn ich keine Samples hab, kann ich nix rendern, kann nix aufm Bild erscheinen...

Ergo ist 0x falsch.

Avalox/Gast
2007-11-05, 11:59:02
Daher werden Farbübergänge, Texturen und so weiter nicht bearbeitet. AntiAliasing fügt dem Bild nur zusätzliche Informationen hinzu, nimmt aber keine weg.

Ja? Ich denke AntiAliasing nimmt grade falsche hochfrequente Anteile des Bildes weg. Es sollte damit Informationen reduzieren.
Ich vermute mal stark, dass sich Bilder mit hohen Antialiasing auch besser JPG packen lassen sollten, als Bilder ohne Anitaliasing.

Es sind halt "falsche" Informationen, welche bereinigt werden.

AntiAliasing ist ja nichts anderes als die Auflösung zu erhöhen. Hinter AntiAliasing verbergen sich eben Ansätze die Auflösung zu erhöhen, ohne im selben Maßstab den Rechenaufwand ansteigen zu lassen. Ein Methode um erheblich Rechenleistung einsparen, da heutige Grafiksystem wenig leistungsfähig sind.

Gast
2007-11-05, 12:02:34
Hochfrequent != Hoher Informationsgehalt

Avalox/Gast
2007-11-05, 12:06:02
Hochfrequent != Hoher Informationsgehalt

Doch. Speicher diese mal effektiv(!), wirst dich wundern.

dargo
2007-11-05, 12:18:56
Warum können hohe Auflösungen angeblich AA nicht ersetzen? Hab hier schon öfters davon gehört, aber nie wirklich verstanden.
Natürlich kann höhere Auflösung AA ersetzen. Das Problem ist halt, dass in der Regel mit höherer Auflösung die Bildschirmfläche (TFTs) auch steigt. Somit hast du dabei nichts gewonnen. Schließlich ändert sich mit einem größeren TFT die Pixeldichte nicht bzw. kaum.

Stelle dir einen 20" WS TFT mit einer 1680x1050 Auflösung vor. Und nun stelle dir den gleichen TFT mit einer Auflösung von 6720x4200 vor. Bei der zweiten Variante wird das menschliche Auge kaum mehr Aliasing erkennen aus einem "normalen" Abstand von ~0,5m zum TFT. Die Pixel hätten nur noch ein Viertel der Größe wie in der ersten Variante, oder der Abstand vom Pixel zum Pixel wäre nur noch ein Viertel groß (bin mir jetzt nicht sicher)?

Das selbe Ergebnis erreichst du auch mit der ersten Variante mit 4x4 SSAA, zumindest was die Qualität der Kantenglättung angeht.

Coda
2007-11-05, 12:26:11
Ja? Ich denke AntiAliasing nimmt grade falsche hochfrequente Anteile des Bildes weg. Es sollte damit Informationen reduzieren.
Ich vermute mal stark, dass sich Bilder mit hohen Antialiasing auch besser JPG packen lassen sollten, als Bilder ohne Anitaliasing.
JPEG ist kein gutes Maß dafür. Ein verlustloser Algorithmus wird bei einem Bild mit AA auf jeden Fall mehr Speicher benötigen.

Grestorn
2007-11-05, 12:39:09
2. Warum können hohe Auflösungen angeblich AA nicht ersetzen? Hab hier schon öfters davon gehört, aber nie wirklich verstanden.

Theoretisch kann eine Ultrahohe Auflösung AA durchaus ersetzen. Sie muss aber so hoch sein, dass das Auge selbst bewegte Aliasing-Artefakte nicht mehr wahrnehmen kann. Und davon sind wir noch einige Größenordnungen entfernt.

dargo
2007-11-05, 12:42:55
Theoretisch kann eine Ultrahohe Auflösung AA durchaus ersetzen. Sie muss aber so hoch sein, dass das Auge selbst bewegte Aliasing-Artefakte nicht mehr wahrnehmen kann. Und davon sind wir noch einige Größenordnungen entfernt.
Ich denke mit dem Beispiel da oben von 6720x4200 auf 20" verteilt könnte man schon gut mit leben. Bis sowas aber noch flüssige Frames liefert wird noch viele Jahre dauern. Schließlich wird die Software auch immer rechenintensiver.

Avalox/Gast
2007-11-05, 13:05:06
Ein verlustloser Algorithmus wird bei einem Bild mit AA auf jeden Fall mehr Speicher benötigen.


Ja, das ist aber anormales Verhalten und hängt damit zusammen, dass der Algorithmus von einer falsch angenommenen Entropie ausgeht. Das gerenderte Bild, ist eben extrem ungenau.
Ob mit AA oder ohne spielt dort kaum eine Rolle im theoretischen Ansatz.

Warum ist JPEG kein gutes Maß?

Henroldus
2007-11-05, 13:26:13
Stelle dir einen 20" WS TFT mit einer 1680x1050 Auflösung vor. Und nun stelle dir den gleichen TFT mit einer Auflösung von 6720x4200 vor. Bei der zweiten Variante wird das menschliche Auge kaum mehr Aliasing erkennen aus einem "normalen" Abstand von ~0,5m zum TFT. Die Pixel hätten nur noch ein Viertel der Größe wie in der ersten Variante, oder der Abstand vom Pixel zum Pixel wäre nur noch ein Viertel groß (bin mir jetzt nicht sicher)?

zu recht unsicher ;)
die von dir gewählte auflösung ist 4mal so hoch, die Fläche eine Pixels also nur noch ein 16tel!
der rechenaufwand also auch 16mal so hoch!
(wenn er sich alle 2 Jahre verdoppelt(Moorsches Jesetz) dauerts also noch 8 Jahre :( )

Mr. Lolman
2007-11-05, 13:47:11
(wenn er sich alle 2 Jahre verdoppelt(Moorsches Jesetz) dauerts also noch 8 Jahre :( )

Nö, 4 Jahre. (ld16)

Grestorn
2007-11-05, 13:56:39
Nö, 4 Jahre. (ld16)

Vor vier Jahren war die übliche Auflösung 1280x1024.

Heute ist die übliche Auflösung 1680x1050, bestenfalls 1920x1200

Coda
2007-11-05, 14:10:03
Ja, das ist aber anormales Verhalten und hängt damit zusammen, dass der Algorithmus von einer falsch angenommenen Entropie ausgeht.
Nein. Das Bild mit Anti-Aliasing enthält wirklich mehr Informationen. Definitiv.

Anti-Aliasing ist kein Low-Pass-Filter.

Warum ist JPEG kein gutes Maß?
Weil dass die menschliche Bildwahrnehmung berücksichtigt, das hat aber nichts mit der wirklichen Informationsmenge zu tun.

Gast
2007-11-05, 14:10:04
Vor vier Jahren war die übliche Auflösung 1280x1024.

Heute ist die übliche Auflösung 1680x1050, bestenfalls 1920x1200

Ja, die LCD-Entwicklung erfüllt nicht ganz das Mooresche Gesetz. Die Grafikkarten lagen eine Zeit lang (oder liegen noch immer?) sogar über dem Faktor 2/Jahr..


Es ging mir aber eher darum, dass man bei ner jährlichen Leistungsverdoppelung nur 4 Jahre braucht um insgesamt 16-fache Leistung zu erreichen - und nicht 8.

BTW: Ich häng immernoch @1280x1024. Alles darüber ist mir zu teuer. Dafür schaff ich mir jetzt aber nen 1280x720 Beamer an...

Henroldus
2007-11-05, 14:13:32
Nö, 4 Jahre. (ld16)
nein, da 4 mal eine Periode a 2 Jahre(bestenfalls 18 Monate)

heute: einfache leistung
2009: doppelte
2011: 4fache
2013: 8fache
2015 16fache

;)

Actionhank
2007-11-05, 14:23:30
Nein. Das Bild mit Anti-Aliasing enthält wirklich mehr Informationen. Definitiv.

Das halte ich für falsch. Wo sollen diese Informationen auch herkommen.

Klassisch kommt Aliasing ja aus der Nachrichtentechnik. Und dort geht es um Aliasing-Artefakte durch Unterabtastung. Diese können eben durch eine Tiefpass-Filterung verhindert werden. Dabei ist dieses Tiefpassfiltern nur eine Notlösung, da dabei Informationen verloren gehen. Besser ist natürlich eine Erhöhung der Abtastung.

Ich denke, das kann man auch auf Computergrafik übertragen, mit dem Unterschied, dass halt nicht nach der Zeit sondern nach dem Ort diskretisiert wird.

Edit: Sehe gerade, dass es da wohl doch einen Unterschied zwischen Signalanalyse und Computergrafik gibt.

Gast
2007-11-05, 14:35:30
nein, da 4 mal eine Periode a 2 Jahre(bestenfalls 18 Monate)

heute: einfache leistung
2009: doppelte
2011: 4fache
2013: 8fache
2015 16fache

;)

Ajo, stimmt. Ich ging davon aus, dass sich die Leistung alle Jahre verdoppelt (war zumindest bei GraKas eine zeitlang der Fall)

Henroldus
2007-11-05, 14:40:47
Das halte ich für falsch. Wo sollen diese Informationen auch herkommen.

Klassisch kommt Aliasing ja aus der Nachrichtentechnik. Und dort geht es um Aliasing-Artefakte durch Unterabtastung. Diese können eben durch eine Tiefpass-Filterung verhindert werden. Dabei ist dieses Tiefpassfiltern nur eine Notlösung, da dabei Informationen verloren gehen. Besser ist natürlich eine Erhöhung der Abtastung.

genau das macht ja AA durch die höhere sampleanzahl ;)
siehe auch:
Nyquist-Shannon-Abtasttheorem (http://de.wikipedia.org/wiki/Nyquist-Shannon-Abtasttheorem)

Ajo, stimmt. Ich ging davon aus, dass sich die Leistung alle Jahre verdoppelt (war zumindest bei GraKas eine zeitlang der Fall)
der G80 ist nun ein jahr alt, seit dem gerade mal ca 15% (8800 Ultra), leider :(

Avalox/Gast
2007-11-05, 14:42:21
Nein. Das Bild mit Anti-Aliasing enthält wirklich mehr Informationen. Definitiv.

Anti-Aliasing ist kein Low-Pass-Filter.


Du entfernst doch hochfrequente Anteile, oder nicht?
Es ist kein striktes Filter. Einige Anteile werden entfernt, andere nicht.




Weil dass die menschliche Bildwahrnehmung berücksichtigt, das hat aber nichts mit der wirklichen Informationsmenge zu tun.

Na klar. Aber auch AntiAliasing ist auf die menschliche Bildwahrnehmung zugeschnitten. AntiAliasing soll dort wirken wo es "am meisten auffällt."

Gast
2007-11-05, 14:47:02
Du entfernst doch hochfrequente Anteile, oder nicht?
Es ist kein striktes Filter. Einige Anteile werden entfernt, andere nicht.


Man entfernt garnix. Man bildet Mittelwerte aus einem höheren Grundinformationsgehalt (ggü noAA)

Avalox/Gast
2007-11-05, 14:51:47
Man entfernt garnix. Man bildet Mittelwerte aus einem höheren Grundinformationsgehalt (ggü noAA)

ja dann sehe dir mal eine Frequenzanalyse deines AA Bildes an und du wirst feststellen, dass hochfrequente Anteile reduziert (entfernt) wurden.

Grestorn
2007-11-05, 14:57:16
ja dann sehe dir mal eine Frequenzanalyse deines AA Bildes an und du wirst feststellen, dass hochfrequente Anteile reduziert (entfernt) wurden.

Der Unterschied ist: Ein Tiefpass nimmt ein Signal, bei dem schon Informationen fehlen, und "feilt die Kanten raus", entfernt also noch weiter Informationen.

Anti-Aliasing nimmt aber ein besseres Signal (= höhere Auflösung) und verrechnet diese zusätzlichen Informationen. Somit entsteht eben kein Informationsverlust sondern ein Informationsgewinn.

MadManniMan
2007-11-05, 15:01:04
ja dann sehe dir mal eine Frequenzanalyse deines AA Bildes an und du wirst feststellen, dass hochfrequente Anteile reduziert (entfernt) wurden.

Ja aber wodurch denn? ;)

betasilie
2007-11-05, 15:05:23
ja dann sehe dir mal eine Frequenzanalyse deines AA Bildes an und du wirst feststellen, dass hochfrequente Anteile reduziert (entfernt) wurden.
Genau, sie wurden entfernt, oder besser - ersetzt. Und die Informationen, die ersetzt wurden, werden aus einem höherauflösenden Bild erechnet, was die hochfrequenten Anteile ersetzt und die neuen Pixel enthalten Informationen des höher aufgelösten Bildes, die sich aus den Farben der Pixel ergeben. ;)

Avalox/Gast
2007-11-05, 15:06:53
Anti-Aliasing nimmt aber ein besseres Signal (= höhere Auflösung) und verrechnet diese zusätzlichen Informationen. Somit entsteht eben kein Informationsverlust sondern ein Informationsgewinn.

Es sind falsche Informationen, eben durch Ungenauigkeiten, welche entfernt werden. Immer auf das Zielbild betrachtet.

Ich finde das ist wichtig im grundlegenden Verständnis, denn es offenbart den allgemeinen Nachteil des Renderings.

Ein Sample ist halt immer ein unendlich kleiner Punkt und ein Pixel eine endliche Fläche. Ein fundamentales Problem.

betasilie
2007-11-05, 15:11:03
Es sind falsche Informationen, eben durch Ungenauigkeiten, welche entfernt werden. Immer auf das Zielbild betrachtet.

Ich finde das ist wichtig im grundlegenden Verständnis, denn es offenbart den allgemeinen Nachteil des Renderings.

Ein Sample ist halt immer ein unendlich kleiner Punkt und ein Pixel eine endliche Fläche. Ein fundamentales Problem.
Nein, das ist falsch. Natürlich werden Pixel niemals eine Kante außerhalb von 0° und 90° korrekt darstellen können (bei normalen Grid). Aber eben da fasst das Antialiasing, in dem es die Farbinformation eines Pixel entsprechend anpasst, um der höherauflösenden Information gerecht zu werden. Das ist Information und diese ist genauer, als mit 1*AA.

Grestorn
2007-11-05, 15:11:31
Es sind falsche Informationen, eben durch Ungenauigkeiten, welche entfernt werden. Immer auf das Zielbild betrachtet.


Nein, das stimmt nicht. Die Information ist eine bessere Näherung an die Realität.

Ein Tiefpass liefert dagegen eine schlechtere Näherung an die Realität als das ungefilterte Signal.

pest
2007-11-05, 15:14:15
AA reduziert Information im Sinne der Entropie
selbst wenn man so argumentiert das die "Mittelwerte" ja zusätzliche Information enthält die das menschliche Sehvermögen als Verbesserung betrachtet,
so ist diese Information "geraten" und entspricht keiner wirklichen Detailaufwertung.

betasilie
2007-11-05, 15:19:07
AA reduziert Information im Sinne der Entropie
selbst wenn man so argumentiert das die "Mittelwerte" ja zusätzliche Information enthält die das menschliche Sehvermögen als Verbesserung betrachtet,
so ist diese Information "geraten" und entspricht keiner wirklichen Detailaufwertung.
Nein, das stimmt nicht. Das Bild oben zeigt es eigentlich hervorragend.

Wenn Du mit einfarbigen Bauklötzchen eine schräge Kante nachbauen willst, bist íst das weit weg von der Vorlage. Wenn Du allerdings mit mehrfarbigen Bauklötzchen den Hintergrund aus Position des betrachters mit einbeziehst, kannst Du die Kante eben viel genauer, näher an der Realität, darstellen.

Und geraten ist mal garnichts, da man Informationen für AA benutzt.

pest
2007-11-05, 15:24:26
Wenn Du allerdings mit mehrfarbigen Bauklötzchen den Hintergrund aus Position des betrachters mit einbeziehst, kannst Du die Darstellung der Kante eben viel genauer, näher an der Realität, darstellen.


Es geht um die Definition von Entropie und Information! Natürlich sieht es besser aus. Es hat im Vergleich zum Original aber nicht mehr echte Information,
weil die Information interpoliert ist.

lesen + verstehen
http://de.wikipedia.org/wiki/Entropie_(Informationstheorie)

betasilie
2007-11-05, 15:31:38
Es geht um die Definition von Entropie und Information! Natürlich sieht es besser aus. Es hat im Vergleich zum Original aber nicht mehr echte Information,
weil die Information interpoliert ist.

lesen + verstehen
http://de.wikipedia.org/wiki/Entropie_(Informationstheorie)
Ich verstehe sehr wohl, was Entropie ist. :| Ich denke Du verstehst nicht, dass AA eben genau den mittleren Informationsgehalt der Kantendarstellung erhöht, eben weil genauere Informationen in die Pixelberechnung einfließen. :rolleyes:

Avalox/Gast
2007-11-05, 15:34:18
Nein, das stimmt nicht. Die Information ist eine bessere Näherung an die Realität.



Es gibt keine Realität, an die man sich annähern kann.

Beim Rendering wird der Farb bzw. Helligkeitswert eines Punktes ermittelt. Unendlich klein. ohne jegliches räumliches Maß.
Ein Pixel hat immer eine räumliche Ausdehnung (betasilie: Egal wie das Pixel aussieht und geformt ist), du überträgst nun den einen Farbwert des Punktes auf einen Pixel.
Ein Pixel enthält allerdings unendlich viele Punkte. Jeder Punkt kann seine eigene Farbeigenschaft haben. Von diesen unendlich vielen Punkten kennst du aber nur einen und überträgst dessen Eigenschaft auf alle weiteren Punkte des Pixels. Damit vervielfältigst du dessen Information.

Genau dieses "zuviel Vervielfältigt" soll AA entgegenwirken. Indem es genau da sucht, wo es auffällt und ggf. genauer hinsieht und noch ein paar weitere Messpunkte mehr erhebt um den Farbwert eines Pixels genauer bestimmen zu können.

pest
2007-11-05, 15:35:11
Ich verstehe sehr wohl, was Entropie ist. :| Ich denke Du verstehst nicht, dass AA eben genau den mittleren Informationsgehalt der Kantendarstellung erhöht, eben weil genauere Informationen in die Pixelberechnung einfließen. :rolleyes:

Du hast es also nicht verstanden. Eine "weiche" Kante hat einen geringeren Informationsgehalt als eine "harte" Kante.

betasilie
2007-11-05, 16:08:16
Du hast es also nicht verstanden. Eine "weiche" Kante hat einen geringeren Informationsgehalt als eine "harte" Kante.
Und unsere geglättete Kante wurde anhand von Informationen einer höher aufgelösten, harten Kante errechnet, die mehr entropische Informationen hat. :uup:

Avalox/Gast
2007-11-05, 16:16:13
Und unsere geglättete Kante wurde anhand von Informationen einer höher aufgelösten, harten Kante errechnet, die mehr entropische Informationen hat. :uup:

nein, das ist nicht richtig. Der Rechner stochert nur um das erste Sample rum und "weiss" dann, dass dort wo das Bild ohne AA eine Kante zeigt, gar kein so harter Übergang ist. Also entfernt der Rechner Information aus dem Bild.
Pest hat ganz Recht.

pest
2007-11-05, 16:27:01
Es geht nicht darum was du als besser empfindest sondern wie diese Information entsteht. Wenn du beim MP3 Hören den Equalizer einschaltest und es subjektiv besser klingt, hast du trotzdem nicht mehr Information. Wenn AA Informationen benutzt die nicht im Ausgangsbild enthalten sind um das neue Bild zu rendern, dann muss ich mich entschuldigen und du hast Recht, denn da kenne ich mich nicht so gut aus.

Bezüglich Entropie und Information/Gedankenexperiment.

die Entropie ist definiert als Sum{p_i * log(p_i)/log(2)}
p_i ist die Wahrscheinlichkeit eines auftretenden Zeichens/Pixels

wie kann man diese Wahrscheinlichkeit anhand einer Linie berechnen?
nehmen wir einen simplen Prädikator der entlang der Linie läuft und den Farbwert des nächsten Linienpunktes rät indem er den vorigen Linienpunkt zu Hilfe nimmt. Hat der Prädikator richtig geraten ist die Wahrscheinlichkeit 1.0, lag er daneben ist die Wahrscheinlichkeit geringer bis zu 0.1.

Lasse ich diesen erfunden Prädikator nun entlang der "harten" Linie verlaufen,
wird er selten richtig raten, und eine geringe Wahrscheinlichkeit für die einzelnen Linienpixel liefern. Die weichen Übergänge dagegen werden besser eraten und resultieren eben in einer höheren Wahrscheinlichkeit der Vorhersage. Jetzt kommts ;-)
Höhere Wahrscheinlichkeit->geringere Entropie.
Schlechte Möglichkeit der Vorhersage->hohe Entropie

last try ;-)

Spasstiger
2007-11-05, 16:30:30
Antialiasing (in der Computergrafik) muss man immer in zwei Schritten betrachten:
1.Schritt: Abtastung mit einer höhere Abtastrate als ohne AA. Der Informationsgehalt wird vervielfacht und liegt so auch zunächst im Speicher.
2. Schritt: Downfiltering. Da das Ausgabegerät nur einen Bruchteil der abgetasteten Punkte wiedergeben kann, müssen die Samples miteinander verrechnet werden. Dabei kommt es natürlich zum Informationsverlust, welcher sich in kontrastärmeren Bildern zeigt. Das Downfiltering entspricht dem Tiefpassfilter in der digitalen Signalverarbeitung.

Im Gegensatz zur Signalverarbeitung beinhaltet Antialiasing in der Computergrafik also auch Überabtastung.

pest
2007-11-05, 16:35:50
Antialiasing muss man immer in zwei Schritten betrachten:
1.Schritt: Abtastung mit einer höhere Abtastrate als ohne AA. Der Informationsgehalt wird vervielfacht und liegt so auch zunächst im Speicher.


Was bedeutet das? Wird von der Engine tatsächlich ein höheraufgelöstes Bild berechnet, oder wird das gerenderte Bild durch AA aufgepumpt. Letzteres nehme ich an!

Grestorn
2007-11-05, 16:43:50
Leuts, ihr versteht das Grundprinzip von AA nicht.

Es gibt einen fundamentalen Unterschied zwischen einem Tiefpass und von AA.

Schaut Euch doch einfach das Bild vom Threadstarter an. Wie würde wohl das mittlere Bild aussehen, wenn man einen Tiefpass darauf anwenden würde? Wie das rechte?

Keinesfalls!!! Nehmt das mittlere der Sequenz, bei der im mittleren Bild nur zwei Pixel links und rechts zu sehen ist. Ein Tiefpass würde die beiden Pixel keinesfalls verbinden sondern sie nur unscharf machen.

Dagegen nutzt AA mehr Informationen aus dem Originalbild. Optimales AA (unendliches AA) würde die volle Genauigkeit des linken Bildes benutzen. Deswegen wird die Linie defakto vollständig, wenn auch mangels Auflösung unscharf, dargestellt.

Ergo: Mehr Informationen durch AA, nicht weniger.

Ich weiß echt nicht, wie ich Euch das noch anders klarmachen soll...

rotalever
2007-11-05, 16:44:51
Was bedeutet das? Wird von der Engine tatsächlich ein höheraufgelöstes Bild berechnet, oder wird das gerenderte Bild durch AA aufgepumpt. Letzteres nehme ich an!
Die Graphikkarte berechnet weder ein höher aufgelöstes Bild, noch wird irgendwas aufgepumt. Es wird für entsprechende Bildpunkte des Framebuffers eben nicht nur das Objekt herangezogen, welche genau an der Stelle ist, sonder auch die daneben. Genau wird wenn ein schwarzen Objekt 60% auf dem Pixel ist, nicht der Pixel komplett schwarz gefärbt sondern 60% Grau, bzw. ein schwarzer Pixel wird 60% mit dem Untergrund geblendet.

Grestorn
2007-11-05, 16:45:30
Was bedeutet das? Wird von der Engine tatsächlich ein höheraufgelöstes Bild berechnet, oder wird das gerenderte Bild durch AA aufgepumpt. Letzteres nehme ich an!

Natürlich wird das Bild höheraufgelöst berechnet. Das ist ja der Witz daran. Sonst könnte man einfach nur einen Blurfilter drüberlassen - das würde auch keine Performance kosten!

Supersampling berechnet in der Tat das gesamte Bild in höherer Auflösung. Bei Multisampling wird die höhere Auflösung auf die Polygonkanten begrenzt, was die Effizienz verbessert, mit den bekannten Nachteilen.

Grestorn
2007-11-05, 16:46:28
Die Graphikkarte berechnet weder ein höher aufgelöstes Bild, noch wird irgendwas aufgepumt. Es wird für entsprechende Bildpunkte des Framebuffers eben nicht nur das Objekt herangezogen, welche genau an der Stelle ist, sonder auch die daneben. Genau wird wenn ein schwarzen Objekt 60% auf dem Pixel ist, nicht der Pixel komplett schwarz gefärbt sondern 60% Grau, bzw. ein schwarzer Pixel wird 60% mit dem Untergrund geblendet.

... was de Fakto einer Berechnung einer höheren Auflösung entspricht. Wenn ich einen Pixel 4x statt einmal abtaste, habe ich de Fakto eine 4x höhere Auflösung.

rotalever
2007-11-05, 16:50:25
... was de Fakto einer Berechnung einer höheren Auflösung entspricht. Wenn ich einen Pixel 4x statt einmal abtaste, habe ich de Fakto eine 4x höhere Auflösung.
Ja und nein. Höhere Auflösung hört sich halt immer so an, als würde man für einen 100x100 Pixelbildschirm ein 400x400 Bild berechnen und dann wieder runterfiltern. Das ist ja wohl bei Multisampling nicht der fall.

Avalox/Gast
2007-11-05, 16:56:32
Ja und nein. Höhere Auflösung hört sich halt immer so an, als würde man für einen 100x100 Pixelbildschirm ein 400x400 Bild berechnen und dann wieder runterfiltern. Das ist ja wohl bei Multisampling nicht der fall.

Doch ist auch dort der Fall. Ein Algorithmus bestimmt halt nur die Stellen, wo das Bild feiner gesampelt wird und wo man die Ungenauigkeit von wenigen Samples toleriert. Die Auflösung der Samples nicht der Pixel.
Ein Samplepunkt ist nie ein Pixel gewesen, oder gleich zu setzen. Es ist halt nur ein Tribut an die Rechenleistung, dass man für ein Pixel auch nur ein Sample verwendet.

Avalox/Gast
2007-11-05, 17:04:14
Ergo: Mehr Informationen durch AA, nicht weniger.


Genaueres Bild. Weniger Information. Das ist ja der "scheinbare" Widerspruch.

Du kannst problemlos ein Bild konstruieren, indem ein Tiefpass und ein AA Ansatz überhaupt nicht zu unterscheiden sind und die selben Ergebnisse liefern.
Du wirst aber kein AA Ansatz finden, welcher die Entropie eines Bildes ohne AA weiter erhöht.

Grestorn
2007-11-05, 17:11:52
Genaueres Bild. Weniger Information. Das ist ja der "scheinbare" Widerspruch.

Du kannst problemlos ein Bild konstruieren, indem ein Tiefpass und ein AA Ansatz überhaupt nicht zu unterscheiden sind und die selben Ergebnisse liefern.
Du wirst aber kein AA Ansatz finden, welcher die Entropie eines Bildes ohne AA weiter erhöht.

Zweimal nein.

Ein Tiefpass nimmt nur die Informationen, die er im vorliegenden Signal hat. Mehr steht ihm nicht zur Verfügung.

Ein Tiefpass über ein analoges oder unendlich hoch augelöstes Signal würde in der Tat einem unendlichem Anti-Aliasing entsprechen (je tiefer die Frequenz, ab der der Tiefpass abschneidet, desto niedriger die Ziel-Auflösung).

Aber wenn der Tiefpaß auf das bereits digitalisierte Signal mit begrenzter Auflösung angewendet wird, dann geht weitere Information verloren gegenüber dem digitalisierten, unbehandeltem Signal!

Im Gegensatz dazu wird beim Anti-Aliasing ja das Originalsignal (bzw. eine bessere Annäherung daran) herangezogen, weswegen Informationen hinzukommen.

Avalox/Gast
2007-11-05, 17:16:42
Im Gegensatz dazu wird beim Anti-Aliasing ja das Originalsignal (bzw. eine bessere Annäherung daran) herangezogen, weswegen Informationen hinzukommen.

Nein, werden diese nicht. Denn die einzelnen Samples fügst du zu einen einzigen Pixel zusammen. Damit kann dieser einzige Pixel nur maximal die Farbe und Helligkeit eine einzigen Samples annehmen, vermutlich wird dessen Farbwert gerundet sein.

Ein Bild mit Antialiasing wird immer geringere hochfrequente Anteile besitzen, als ein Bild ohne AA. Da wirst du doch wenigstens zustimmen.

Coda
2007-11-05, 17:19:29
Du hast es also nicht verstanden. Eine "weiche" Kante hat einen geringeren Informationsgehalt als eine "harte" Kante.
Nö.

pest
2007-11-05, 17:21:20
Nö.

Ich habe mir immerhin die Mühe gemacht mit einem ausführlichen Beispiel zu argumentieren. Wie sich dein "Nö" mit der Def. der Entropie verträgt ist mir allerdings schleierhaft.

Grestorn
2007-11-05, 17:25:35
Nein, werden diese nicht. Denn die einzelnen Samples fügst du zu einen einzigen Pixel zusammen. Damit kann dieser einzige Pixel nur maximal die Farbe und Helligkeit eine einzigen Samples annehmen, vermutlich wird dessen Farbwert gerundet sein.

Überleg doch mal: Hättest Du Recht, bräuchte man gar keine Samples sondern könnte einfach einen Tiefpass über das Bild legen. Das ist einfacher und wesentlich schneller.

Lies auch meinen letzten Beitrag, in dem ich erklärt habe, dass ein Tiefpaß nur dann äquivalent auf ein (unendliches) AA wäre, wenn man ihn auf das Originalbild mit unendlicher Auflösung anwenden würde.

Grestorn
2007-11-05, 17:26:28
Ich habe mir immerhin die Mühe gemacht mit einem ausführlichen Beispiel zu argumentieren. Wie sich dein "Nö" mit der Def. der Entropie verträgt ist mir allerdings schleierhaft.

Weil ihr hartnäckig ignoriert, dass es einen Unterschied macht, ob ich einen harten Pixel einfach nur weichklopfe, oder ob ich ein Bild in höherer Auflösung abtaste und aus den Abtastungen den Mittelwert bilde.

Avalox/Gast
2007-11-05, 17:28:04
Überleg doch mal: Hättest Du Recht, bräuchte man gar keine Samples sondern könnte einfach einen Tiefpass über das Bild legen. Das ist einfacher und wesentlich schneller.


Das einfache Tiefpass Filter filtert ja alle hochfrequenten Anteile aus, auch die die durchaus gewollt sind.

pest
2007-11-05, 17:32:40
Weil ihr hartnäckig ignoriert, dass es einen Unterschied macht, ob ich einen harten Pixel einfach nur weichklopfe, oder ob ich ein Bild in höherer Auflösung abtaste und aus den Abtastungen den Mittelwert bilde.

Also ich finde mein "Rate"-Beispiel bzgl. Entropie mehr als einleuchtend
und Mathematik lügt für mich jedenfalls nicht. Allerdings nutze ich die Zeit jetzt
für einen Spaziergang und lass mir alles nochmal durch den Kopf gehen....

<-- kann nicht verlieren :biggrin:

Grestorn
2007-11-05, 17:32:45
Das einfache Tiefpass Filter filtert ja alle hochfrequenten Anteile aus, auch die die durchaus gewollt sind.

Geh doch mal bitte auf meine Argumente ein.

Coda
2007-11-05, 17:36:31
Ich habe mir immerhin die Mühe gemacht mit einem ausführlichen Beispiel zu argumentieren. Wie sich dein "Nö" mit der Def. der Entropie verträgt ist mir allerdings schleierhaft.
http://www.binaryessence.de/dct/de000142.htm

Nehmen wir an wir hätten ein Bild das aus zwei Dreiecken besteht. Eines schwarz über die obere linke Bildschirmhälfte, das andere weiß auf der unteren rechten.

Ohne AA hätten wir nur schwarze und weiße Werte, damit ist die Entropie natürlich geringer als in einem Bild in dem auch Graustufen auftreten, vor allem wenn diese nicht so oft vorkommen.

pest
2007-11-05, 17:41:18
Ohne AA hätten wir nur schwarze und weiße Werte, damit ist die Entropie natürlich geringer als in einem Bild in dem auch Graustufen auftreten, vor allem wenn diese nicht so oft vorkommen.

die Entropie ist größer ohne AA!
ich versuchs anders...wenn ich sage "schwarzes Dreieck" und du sollst raten
was als nächstes kommt, wirst du mit hoher Wahrscheinlichkeit nicht "weisses Dreieck" sagen. -> geringe Wahrscheinlichkeit -> Hohe Entropie
Sage ich allerdings "schwarzes Dreieck, dunkelgraues Dreieck" wirst du besser raten-> höhere W. -> geringe Entropie

Avalox/Gast
2007-11-05, 17:42:51
Geh doch mal bitte auf meine Argumente ein.

Tue ich gerne. Denn die Argumentation

Im Gegensatz dazu wird beim Anti-Aliasing ja das Originalsignal (bzw. eine bessere Annäherung daran) herangezogen, weswegen Informationen hinzukommen.

ist nicht richtig. Richtig ist, dass bei Verwendung von AA weniger falsche Informationen hinzu kommen.

Das ist auch logisch erklärbar.
Denn das Artefakt entsteht ja erst, wenn du das Sample auf Pixelgrösse darstellst, dabei entstehen die Fehler, welche als Artefakt den Informationsanteil des Bildes fälschlicherweise(!) erhöhen.

Gast
2007-11-05, 17:44:14
Kannst ja mal versuchen, ob du aus dem Informationsgehalt des 1. Bildes das 2. Bild erzeugen kannst: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4959774#post4959774

Grestorn
2007-11-05, 17:46:10
Kannst ja mal versuchen, ob du aus dem Informationsgehalt des 1. Bildes das 2. Bild erzeugen kannst: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4959774#post4959774

Hervorragendes Beispiel! Danke für den Link.

Coda
2007-11-05, 17:47:47
die Entropie ist größer ohne AA!
Die Signaltheorie sagt etwas anderes. Rechne nach.

Avalox/Gast
2007-11-05, 17:51:41
@gast

Schicke beide Bilder durch eine Signalanalyse und du wirst feststellen, dass das erste Bild mehr hochfrequente Anteile hast, als im zweiten Bild.

Das "Du" mehr im zweiten Bild mehr erkennst, spricht allein für die abstrakten Fähigkeiten des menschlichen Gehirns.

Grestorn
2007-11-05, 17:56:19
@gast

Schicke beide Bilder durch eine Signalanalyse und du wirst feststellen, dass das erste Bild mehr hochfrequente Anteile hast, als im zweiten Bild.

Das "Du" mehr im zweiten Bild mehr erkennst, spricht allein für die abstrakten Fähigkeiten des menschlichen Gehirns.

Mit keinem Tiefpass der Welt kannst Du aus dem linken das mittlere Bild erzeugen. Einfach weil im linken Bild Infos fehlen, die im mittleren wieder vorhanden sind.

Avalox/Gast
2007-11-05, 17:59:24
Mit keinem Tiefpass der Welt kannst Du aus dem linken das mittlere Bild erzeugen. Einfach weil im linken Bild Infos fehlen, die im mittleren wieder vorhanden sind.

Das habe ich auch nie behauptet. Die Deteils des zweiten Bildes sind im ersten Bild "mit zusätzlicher falscher" Information überdeckt worden. Das ist der Unterschied.

Grestorn
2007-11-05, 18:08:20
Das habe ich auch nie behauptet. Die Deteils des zweiten Bildes sind im ersten Bild "mit zusätzlicher falscher" Information überdeckt worden. Das ist der Unterschied.

Bitte? Es geht doch darum, ob AA ein einfacher Tiefpass ist, wie Du behauptest, und dass durch AA keine Information hinzugefügt wird sondern verloren geht. Auch das behauptest Du.

Das unterabgetastete Bild ohne AA ist das linke. Da ist keine "zusätzliche falsche" Information, sondern lediglich Unterabtastung.

Und das lässt sich eben nicht durch einen einfachen, nachträglichen Tiefpass beheben!

Willst Du allen ernstes behaupten, dass im mittleren Bild keine zusätzlichen Informationen stecken, die im linken - dem Bild ohne AA - fehlen?

betasilie
2007-11-05, 18:12:46
Was bedeutet das? Wird von der Engine tatsächlich ein höheraufgelöstes Bild berechnet, oder wird das gerenderte Bild durch AA aufgepumpt. Letzteres nehme ich an!
Sag mal ... wie oft wurde denn bitte vorher von mir und anderen geschrieben, dass man ein höher aufeglöstes Bild nimmt, um dass AA zu berechnen?! Dafür, dass Du anderen Leuten unwissenheit unterstellst, hast Du a) selber sehr wenig wissen über grundlegende AA-Mechanismen, b) noch hast Du scheinbar die Beiträge gelesen/verstanden, die die Leute hier geschrieben haben.

Botcruscher
2007-11-05, 18:18:12
Das Problem ist eben das man mit wesentlich mehr Informationen arbeitet umd dann etwas mehr Informationsgehalt dar zu stellen. Eigentlich sollte man lieber die Auflösung erhöhen.

Also (fast) nur dazu da um schlechte Monitore zu kaschieren.:|

Avalox/Gast
2007-11-05, 18:20:58
Bitte? Es geht doch darum, ob AA ein einfacher Tiefpass ist,


Habe ich nie. Ganz im Gegenteil der Unterschied ist mir wohl bewusst.
Ich habe immer nur geschrieben, dass AA einige hochfrequente Anteile im Bild beseitigt.


wie Du behauptest, und dass durch AA keine Information hinzugefügt wird sondern verloren geht. Auch das behauptest Du.


Ja das tut es auch. AA reduziert falsche Informationen.


Und das lässt sich eben nicht durch einen einfachen, nachträglichen Tiefpass beheben!

Willst Du allen ernstes behaupten, dass im mittleren Bild keine zusätzlichen Informationen stecken, die im linken - dem Bild ohne AA - fehlen?

ja behaupte ich, obwohl es natürlich nicht so aussieht.

R300
2007-11-05, 18:26:40
@ Botcruscher:

Es wurde hier aber auch schon erwähnt, dass größere Auflösung in den meisten Fällen auch eine größere Bildfläche bedeuten. Das heißt die Pixel bleiben gleich groß und die Bilder bleiben pixelig.

Am besten ist höhere Auflösung mit viel AA.;D

Botcruscher
2007-11-05, 18:36:25
Genau das ist doch zB. der Witz bei 17 vs 19 Zoll TFT. Der 19 Zöller sieht einfach immer Kacke aus. Die Pixel müsten eigentlich kleiner werden, nicht größer. Das ist ja das Paradox mit den TFTs. Die werden zwar größer, aber der Informationsgehalt wächst nicht so recht mit.

Tesseract
2007-11-05, 18:36:56
omg, diese halbwahrheiten schmerzen.

die frage ist überhaupt nicht, ob die pixel im fertigen bild mehr informationen enthalten. die antwort darauf ist nämlich immer nein. jedes 1280x1024 bild in 32 bit enthält gleich viel information. egal ob es bunt oder schwarz ist.

die entscheidende fage ist, wieviel der ursprünglichen, geometrischen, indiskreten information sich im fertigen bild wiederfindet. oder anders formuliert: wieviel information ist im kanal A(geometrie)->B(raster) verloren gegangen.
und da ist es nunmal fakt, dass mit antialiasing deutlich weniger verloren geht und das bild deshalb näher am original und daher besser ist.
das ist informationstheoretisches fakt.

Aquaschaf
2007-11-05, 18:42:51
die antwort darauf ist nämlich immer nein. jedes 1280x1024 bild in 32 bit enthält gleich viel information. egal ob es bunt oder schwarz ist.

Kompression ist doch z.B. nur möglich weil es nicht so ist.

Avalox/Gast
2007-11-05, 18:55:00
Mal eine Fangfrage in der Logik deiner Argumentation.


di die antwort darauf ist nämlich immer nein. jedes 1280x1024 bild in 32 bit enthält gleich viel information. egal ob es bunt oder schwarz ist.


Du sagst jedes Bild braucht den selbsten Speicherplatz, deshalb enthält es gleich viel Informationen


wieviel information ist im kanal A(geometrie)->B(raster) verloren gegangen.
und da ist es nunmal fakt, dass mit antialiasing deutlich weniger verloren geht und das bild deshalb näher am original und daher besser ist.
das ist informationstheoretisches fakt.

Jetzt sagst du, mit AA gehen Informationen von einem übergeordneten idealen Bild verloren im Rendering.

Bedeutet dieses aber nicht, dass wenn Informationen verloren gehen, diese dann nicht mehr da sind und somit das gerenderte Bild weniger Informationen enthält?

Wenn Informationen verloren gehen, kann doch auch nur weniger im fertigen Bild ankommen oder nicht?

Botcruscher
2007-11-05, 19:00:36
Der Speicherplatz ist doch so ziemlich egal. Was limitiert ist die Auflösung des Anzeigegerätes. Durch das zerlegen des Bildes in Klötzchen entsteht doch das Problem erst.

Tesseract
2007-11-05, 19:07:29
ich glaube ich hab mich etwas falsch ausgedrückt.

das bild ansich kann natürlich mehr oder weniger differenzierbare information enthalten. es ist aber entscheidend, wo diese information her kommt. ersetze das "gleich viel" durch "unentscheidbar viel" (sofern man den weg/ursprung der information nicht kennt), dann sollte es passen.

wenn du die geometrieinformation A rasterst geht z.B. 99,9% der information verloren. das fertige bild enthält also 0,1% der ursprünglichen information.
wenn du jetzt auf irgendeine weise B information hinzufügst(z.B. rauschen), kann das bild in summe (A+B) natürlich gleich viel oder sogar mehr information enthalten als der ursprung.
das ändert aber nix daran, dass 99,9% der entscheidenden information fehlt.

daher kannst du, ohne den rechenweg zu kennen, nicht entscheiden welches bild mehr ursprüngliche information enthält und die frage nach dem informationsgehalt des fertigen bildes ist daher relativ irrelevant.

Henroldus
2007-11-05, 19:21:52
Durch das zerlegen des Bildes in Klötzchen entsteht doch das Problem erst.
das nennt man auch digitalisierung. hier wird ein signal abgetastet mit all den daraus resultierenden problemen.
ist die abtastung hoch genug fällt der unterschied aber kaum auf(vgl Bitrate bei MP3)

pest
2007-11-05, 20:33:03
Die Signaltheorie sagt etwas anderes. Rechne nach.

:rolleyes:
das menschliche Sehempfinden ist nicht Erinnerungsfrei
Modell, mit Codierung

a[] e[] array
a[0]=16
a[1] = 128 //hart
a[2] = 164 // weich

e[1] = a[1]-a[0]=112 //vorhersage
e[2] = a[2]-a[1]=36
golomb e[1]=7+5=12 Bits <- harter Übergang
golomb e[2]=6+4=10 Bits

Aquaschaf
2007-11-05, 21:15:56
Hä? Die Rechnung ist so vereinfacht dass sie die Situation überhaupt nicht abbildet.

Trap
2007-11-05, 21:33:30
Das was man eigentlich haben möchte ist eine möglichst hohe Korrelation zwischen tatsächlich gerendertem Bild und einem idealen Bild mit unendlicher Auflösung.

Über Informationsgehalt braucht man nicht diskutieren, der hat doch nichts damit zu tun welches Bild besser oder schlechter ist.

Spasstiger
2007-11-05, 21:44:25
Das was man eigentlich haben möchte ist eine möglichst hohe Korrelation zwischen tatsächlich gerendertem Bild und einem idealen Bild mit unendlicher Auflösung.

Über Informationsgehalt braucht man nicht diskutieren, der hat doch nichts damit zu tun welches Bild besser oder schlechter ist.
Jopp. Mehr Aliasing bewirkt, dass mehr Details aus der kontinuierlichen Bildvorlage enthalten sind (also Vorlage und Renderergebniss eine stärkere Korrelation aufweisen). Ob der Informationsgehalt bzw. die Entropie steigt oder sinkt, ist völlig egal.

Das ist so wie wenn man Dieter Bohlens Buch "Nichts als die Wahrheit" verbrennt und dann behauptet, der Informationsgehalt der heimischen, wissenschaftlichen Bibliothek hätte sich verringert. ;)

P.S.: Eigentlich wollte ich die jetzige Entwicklung des Threads vermeiden. Wir argumentieren ja schon mit Korrelation und Entropie, wo der 0815-3DC-Leser garantiert aussteigt.

Novox
2007-11-05, 21:56:46
Durch das zerlegen des Bildes in Klötzchen entsteht doch das Problem erst.
Das Bild wird aber nicht in "Klötzchen" zerlegt. Das Signal wird an den Gitterpunkten abgetastet. "Klötzchen" entstehen erst durch eine qualitativ schlechte Rekonstruktion des ursprünglichen kontinuierlichen Signals. Aber zugegeben, die Bildchen von Spasstiger implizieren in der Tat das "kleine-Quadrate"-Modell.

Tesseract
2007-11-05, 23:19:58
Das Bild wird aber nicht in "Klötzchen" zerlegt. Das Signal wird an den Gitterpunkten abgetastet. "Klötzchen" entstehen erst durch eine qualitativ schlechte Rekonstruktion des ursprünglichen kontinuierlichen Signals.

diese denkweise ist imho komplett verkehrt.

pixel sind keine punkte. pixel sind flächen, die die dahinterstehende geometrie möglichst gut repräsentieren sollen. diese tatsache ist einfach durch die hardware gegeben und unumstößlich.

das ziel ist es jetzt einen wert zu finden, der das geometrische vorgehen innerhalb dieser fläche möglichst gut repräsentiert.
abtastung der mittelpunkte ist eine möglichkeit. dabei geht aber nunmal leider sehr viel der farbinformation dieses pixels verloren. das kann, je nach geometrie sogar annähernd 100% sein.
eine gewichtung dergeometrie ist da nunmal eine viel genauere repräsentation, auch wenn dabei farbwerte entstehen, die es in der geometie so nicht gibt.

dargo
2007-11-06, 00:08:41
(wenn er sich alle 2 Jahre verdoppelt(Moorsches Jesetz) dauerts also noch 8 Jahre :( )
Deutlich länger.
In 8 Jahren wirst du vielleicht in dieser Auflösung heutige Games flüssig spielen können, wie zb. Crysis. In 8 Jahren werden wird aber über Crysis nur müde lächeln.

Ringwald
2007-11-06, 00:29:30
@ Botcruscher:

Es wurde hier aber auch schon erwähnt, dass größere Auflösung in den meisten Fällen auch eine größere Bildfläche bedeuten. Das heißt die Pixel bleiben gleich groß und die Bilder bleiben pixelig.

Am besten ist höhere Auflösung mit viel AA.;D

Ich glaube hier geht es eher um Monitore, da setzt sich keiner vor ein 40 Zoll Monster ;D
Irgendwann ist einfach die Grenze für ein Monitor aufn Schreibtisch erreicht.

betasilie
2007-11-06, 00:45:24
diese denkweise ist imho komplett verkehrt.

pixel sind keine punkte. pixel sind flächen, die die dahinterstehende geometrie möglichst gut repräsentieren sollen. diese tatsache ist einfach durch die hardware gegeben und unumstößlich.

das ziel ist es jetzt einen wert zu finden, der das geometrische vorgehen innerhalb dieser fläche möglichst gut repräsentiert.
abtastung der mittelpunkte ist eine möglichkeit. dabei geht aber nunmal leider sehr viel der farbinformation dieses pixels verloren. das kann, je nach geometrie sogar annähernd 100% sein.
eine gewichtung dergeometrie ist da nunmal eine viel genauere repräsentation, auch wenn dabei farbwerte entstehen, die es in der geometie so nicht gibt.
Besser kann man es kaum ausdrücken.

Ich finde es übrigens sehr interessant, dass es selbst bei einem so einfachen Thema wie Antialiasing immer wieder Leute gibt, die nicht verstehen, dass AA eine Darstellung ermöglicht, die wesentlicher näher an den ursprünglichen Informationen ist, als ohne, eben weil weniger Informationen verloren gehen, wenn man die Pixel anhand von Subpixeln erechnet, die einfach mehr Informationen in das Resultat einfließen lassen, als ohne.

Spasstiger
2007-11-06, 00:52:54
Ich finde es übrigens sehr interessant, dass es selbst bei einem so einfachen Thema wie Antialiasing immer wieder Leute gibt, die nicht verstehen, dass AA eine Darstellung ermöglicht, die wesentlicher näher an den ursprünglichen Informationen ist, als ohne, eben weil weniger Informationen verloren gehen, wenn man die Pixel anhand von Subpixeln erechnet, die einfach mehr Informationen in das Resultat einfließen lassen, als ohne.
Es gibt sogar Leute, die behaupten, Antialiasing sei Postprocessing - ähnlich wie ein Blur-Filter.

anorakker
2007-11-06, 03:09:05
ich habe das gefühl, hier wird der begriff "information" viel zu undefiniert verwendet. das quantisierte bzw. diskretisierte "bild" ohne aa, was wir auf dem monitor betrachten (bild2) korreliert wesentlich weniger mit dem ausgangsbild, als das aa gefilterte, denn entscheidend ist nicht die bandbreite sondern das tatsächliche spektrum ansich.
imo produziert aa auch nicht "mehr" information, es verringert nur die korrelation weniger als die harte abtastung.

Grestorn
2007-11-06, 06:46:19
imo produziert aa auch nicht "mehr" information, es verringert nur die korrelation weniger als die harte abtastung.

AA "produziert" sicher keine Information, sondern durch das Verfahren wird lediglich weniger Information "zerstört" bzw. unterschlagen als bei einem einfach abgetastetem Rasterbild.

Aber wahrscheinlich hast Du genau das gemeint.

Ailuros
2007-11-06, 08:41:23
Ich hab den Thread zwar ganz durchgelesen, aber entweder bin ich uebermuedet oder ich sehe keine direkte Verbindung zwischen dem originalen Post und der Debatte die spaeter entstand.

Nur eine kleine Anmerkung von mir: es ist zwar schoen und gut wenn sich solche Diskussionen auf die Rand-Informationen eines polygons konzentrieren, aber mir persoenlich sind die inneren Daten eines polygons um einiges wichtiger.

Es duerfte um einiges effektivere Methoden als die heutige anisotropische Filterung geben, die aber wahrscheinlich viel zu teuer sind in heutige HW zu implementieren.

Von dem was ich in der Vergangenheit gelesen und verstanden habe, gibt es immer noch keine gute Kombination fuer Anisotropic und pixel shading als einfaches Beispiel. Zwar gaebe es Alternativen fuer diese Faelle, aber es wird trotzdem einiges an Leistung kosten (weniger als Supersampling, aber immerhin...).

Zu guter letzt dass mit den sehr hohen Aufloesungen die AA ersetzen sollen ist auch so eine Angelegenheit fuer sich. Es muesste einen verrueckt hohen dpi (sehr hohe Aufloesung bei sehr kleiner Bildflaeche) auf Bildschirmen geben und ich will bezweifeln dass es fuer polygon interior data irgend einen besonderen Unterschied machen wuerde.

Die Rechnung ich kann nach X Jahren eine X*Y Aufloesung erreichen ist IMHLO aeusserst naiv; denn sie beinhaltet leider nicht die Steigerung der Rechenkraft einer jeglichen zukuenftigen GPU. So eine Matheuebung macht nur Sinn wenn das Prozentual an shading pro Szene zu den heutigen Verhaeltnissen gleich bleibt.

Dass man in allen Bereichen wo jegliche Form von AA angewendet wird, diese bis jetzt nicht aufgegeben wurde, sondern stets weitergeforscht wird um effektivere und "billigere" Algorithmen zu entwickeln ist fuer mich ein Anzeichen dass antialiasing die beste Methode ist und sein wird um dem menschlichen Auge vorzugaukeln dass wenig oder gar keine aliasing in einer Szene zu sehen ist.

Was wuerde denn ein grosses Animations-Studio fuer 3d Filme genau davon abhalten anstatt fortschrittliche analytische Algorithmen verrueckt hohe Aufloesungen zu benutzen? Und bevor jemand sagt dass es hier der Interaktivitaet wie in Spielen fehlt, die Film-Industrie als Beispiel hat den gigantischen Vorteil von Temporalem AA mit hoher Sample-anzahl der momentan nicht praktisch anzuwenden ist auf heutiger HW.

Avalox/Gast
2007-11-06, 11:49:46
Was wuerde denn ein grosses Animations-Studio fuer 3d Filme genau davon abhalten anstatt fortschrittliche analytische Algorithmen verrueckt hohe Aufloesungen zu benutzen? Und bevor jemand sagt dass es hier der Interaktivitaet wie in Spielen fehlt, die Film-Industrie als Beispiel hat den gigantischen Vorteil von Temporalem AA mit hoher Sample-anzahl der momentan nicht praktisch anzuwenden ist auf heutiger HW.


Na Studios stehen unter den selben Kostendruck, wie der Anwender Zuhause. Hohe Auflösung bedeutet viel Aufwand und damit teure Umsetzung. Ich denke auch im Studio zählt jeder eingesparte Euro, vermutlich dort noch mehr als Zuhause, wo sich ja niemand zu rechtfertigen braucht.

Das Gejammer der Konsumentn ist ja heute schon durchaus da, dass Studios die Auflösung ihrer CGIs so weit reduziert haben, dass diese selbst inzwischen HD Ausgaben nicht mehr gerecht werden. (gibt einen tollen Artikel zum Thema)

Ein Punkt ist doch der, dass AA eine relativ hohe Auflösung voraussetzt. Je niedriger die Auflösung um so schlechter sieht auch AA aus. Für AA wird eben eine optische Täuschung verwendet.

Mal zum Thema:

Ich habe mich schon des öfteren gefragt, weshalb keine GPU ein wechselnde Verteilung ihrer Samples vornimmt? Schon das erste Sample müsste nicht immer in der Mitte eines Pixel liegen. Ein Pixelwert wird so ermittelt, der nächste anders. Vielleicht 4 oder 5 verschiedene Muster/Positionen.
Eigentlich sollte es dann ein leichtes Pixelflimmern um Konturen (auch Texturen) geben, welche durchaus ähnlich dem ist, wie man es von einer Kameraaufnahme her kennt. Ich fände dieses durchaus interessant und es würde doch die Szene realistischer wirken lassen.
Eine simulierte unterschiedliche Quantenausbeute.

Spasstiger
2007-11-06, 12:03:37
Mal zum Thema:

Ich habe mich schon des öfteren gefragt, weshalb keine GPU ein wechselnde Verteilung ihrer Samples vornimmt? Schon das erste Sample müsste nicht immer in der Mitte eines Pixel liegen. Ein Pixelwert wird so ermittelt, der nächste anders. Vielleicht 4 oder 5 verschiedene Muster/Positionen.
Eigentlich sollte es dann ein leichtes Pixelflimmern um Konturen (auch Texturen) geben, welche durchaus ähnlich dem ist, wie man es von einer Kameraaufnahme her kennt. Ich fände dieses durchaus interessant und es würde doch die Szene realistischer wirken lassen.
Eine simulierte unterschiedliche Quantenausbeute.
Gibt es doch, nennt sich Temporal-AA und wird von ATI angeboten. Nur flimmert das bei niedrigen Frameraten (weshalb es offiziell auch erst ab 60 fps aktiv ist) und schaltet VSync zwangsweise ein.
Jedenfalls ist der Nutzen sehr gering. Bei niedrigen Frameraten hat man sehr unruhige Konturen, die Bildruhe durch AA wird zunichte gemacht. Und sehr hohe fps erreicht man mit AA meist eh nicht, man geht ja in der Regel schon ans Limit des Spielbaren, um eine möglichst gute Qualität zu erzielen.

Ein Punkt ist doch der, dass AA eine relativ hohe Auflösung voraussetzt. Je niedriger die Auflösung um so schlechter sieht auch AA aus. Für AA wird eben eine optische Täuschung verwendet.
Rasterisierte 3D-Grafik generell ist nur Fake. Ohne AA ist die optische Täuschung schlechter als mit AA. Und gerade bei niedrigen Auflösungen sieht das Bild mit AA wesentlich angenehmer und schöner aus, auch die TFT-Interpolation verunstaltet das Bild mit AA weit weniger.
Digitalkameras führen übrigens das durch, was die optimale Form von Antialiasing in der Rasterisierung wäre: Es wird das Flächenintegral über ein ganzes Pixel gebildet, da ein Pixel über die gesamte Fläche mit Photonen beschossen wird und die Gesamtenergie für den aufgenommenen Farbwert relevant ist.
In der Rasterisierung von 3D-Grafik muss man sich an diese Integrale annähern durch Verwendung einer ausreichend hohen Zahl an Samples pro Pixel. Ein Sample pro Pixel ist pedantisch betrachtet sogar Pfusch hoch zehn.

Ailuros
2007-11-06, 12:21:50
Na Studios stehen unter den selben Kostendruck, wie der Anwender Zuhause. Hohe Auflösung bedeutet viel Aufwand und damit teure Umsetzung. Ich denke auch im Studio zählt jeder eingesparte Euro, vermutlich dort noch mehr als Zuhause, wo sich ja niemand zu rechtfertigen braucht.

Das Gejammer der Konsumentn ist ja heute schon durchaus da, dass Studios die Auflösung ihrer CGIs so weit reduziert haben, dass diese selbst inzwischen HD Ausgaben nicht mehr gerecht werden. (gibt einen tollen Artikel zum Thema)

Ein Punkt ist doch der, dass AA eine relativ hohe Auflösung voraussetzt. Je niedriger die Auflösung um so schlechter sieht auch AA aus. Für AA wird eben eine optische Täuschung verwendet.

Da Pixar als Beispiel ein bis zu 64x samples stochastiches AA/temporales AA verwendet und den Algorithmus auch fest patentiert hat, ist dieser weder billig noch heisst es dass wenn man bei 1080p bis zu 64x sparsed SSAA anwendet dass die "Aufloesung" zu gering ist. Du kannst ja gerne die Basis Aufloesung auf jeder Achse mit 64 multiplizieren, um zu sehen dass eine solche Aufloesung selbst nach einem Jahrzent nicht moeglich sein koennte.

Und nein eine solche Aufloesung wuerde auch nicht alle aliasing/Frequenz Probleme loesen, schon gar nicht bei sehr schneller Bewegung in einem Bild.

Das menschliche Auge verwendet selber eine sehr aehnliche aber um einiges fortschrittlichere optische Taeuschung wie AA. Es gibt auch Aussnahmen wo das AA des Auges versagt.

Ailuros
2007-11-06, 12:23:16
Gibt es doch, nennt sich Temporal-AA und wird von ATI angeboten. Nur flimmert das bei niedrigen Frameraten (weshalb es offiziell auch erst ab 60 fps aktiv ist) und schaltet VSync zwangsweise ein.
Jedenfalls ist der Nutzen sehr gering. Bei niedrigen Frameraten hat man sehr unruhige Konturen, die Bildruhe durch AA wird zunichte gemacht. Und sehr hohe fps erreicht man mit AA meist eh nicht, man geht ja in der Regel schon ans Limit des Spielbaren, um eine möglichst gute Qualität zu erzielen.

Die Idee koennte durchaus was wert sein wenn zusaetzliche HW im backbuffer stecken wuerde.

Avalox/Gast
2007-11-06, 12:28:26
Digitalkameras führen übrigens das durch, was die optimale Form von Antialiasing in der Rasterisierung wäre: Es wird das Flächenintegral über ein ganzes Pixel gebildet, da ein Pixel über die gesamte Fläche mit Photonen beschossen wird und die Gesamtenergie für den aufgenommenen Farbwert relevant ist.
In der Rasterisierung von 3D-Grafik muss man sich an diese Integrale annähern durch Verwendung einer ausreichend hohen Zahl an Samples pro Pixel. Ein Sample pro Pixel ist pedantisch betrachtet sogar Pfusch hoch zehn.


Ich meinte es ohne Wertung. Zu niedrige Auflösung sieht mM nach nie schön aus, ob mit AA oder ohne. Dann will ich es umformulieren, hohe Auflösungen lässt AA erst nett aussehen. Ich finde AA wirklich sinnvoll und will gar nicht dagegen sprechen.

Eine Kamera ist übrigens ein interessantes Thema. Denn Digitalkameras nutzen auch eine Antialiasing-Technik.
Und diese AntiAliasing ist ein Tiefpass Filter! Das wird so bewerkstelligt, dass die Optik der Kamera nie scharf abbildet auf dem bildgebenen Chip.
Ein optischer Tiefpass.
Du kannst keine neuere Digitalkamera wirklich scharf stellen. Ansonsten gäbe Moiré-Effekte auf den Fotos.
Man sieht auch digital Fotoapparate kommen nicht ohne AntiAliasing aus.
Nachteile der digitalen Technik.

Spasstiger
2007-11-06, 12:42:47
Wir sollten jetzt aber nicht anfangen, das Signalverarbeitungs-AA und das AA bei der Rasterisierung durcheinanderzuwürfeln, diese sind nämlich nicht identisch (auch im übertragenen Sinne nicht).

Actionhank
2007-11-06, 12:44:49
Eine Kamera ist übrigens ein interessantes Thema. Denn Digitalkameras nutzen auch eine Antialiasing-Technik.
Und diese AntiAliasing ist ein Tiefpass Filter! Das wird so bewerkstelligt, dass die Optik der Kamera nie scharf abbildet auf dem bildgebenen Chip.
Ein optischer Tiefpass.
Du kannst keine neuere Digitalkamera wirklich scharf stellen. Ansonsten gäbe Moiré-Effekte auf den Fotos.
Man sieht auch digital Fotoapparate kommen nicht ohne AntiAliasing aus.
Nachteile der digitalen Technik.

Also um das nochmal zusammenzufassen:
Antialiasingfilter sind Tiefpassfilter. Der Punkt ist, dass damit ein höher aufgelöstes Bild gefiltert und anschließend downgesamplet wird. D.h. ein
Antialiasingfilter ist schon ein Tiefpass, aber die ganze Prozedur besteht einfach aus 2 Schritten: Filtern und Downsampling.

Sonyfreak
2007-11-06, 12:48:35
Wer behauptet, AntiAliasing würde die sichtbaren Bildinformationen nicht deutlich steigern, möge sich einfach mal diese beiden Bilder aus der Praxis ansehen:

http://www.imgnow.de/thumbs/UT2004200711061242211400fpng.png (http://www.imgnow.de/?img=UT2004200711061242211400fpng.png) http://www.imgnow.de/thumbs/UT200420071106124242310a3png.png (http://www.imgnow.de/?img=UT200420071106124242310a3png.png)

Beide Bilder wurden auf den selben Grafikdetails gemacht, und nur das AA geändert. Links 1xAA 1xAF // Rechts 4x4SSAA 1xAF

Das PNG-komprimierte Bild ohne AA ist übrigens 1,5MB, das Bild mit AA hingegen 1,7MB groß.

mfg.

Sonyfreak

Mr. Lolman
2007-11-06, 12:49:00
Nö. Das Filtern entsteht erst durchs Downsampling. Da ist nix mit Tiefpass unzo.

Actionhank
2007-11-06, 12:53:32
Nö. Das Filtern entsteht erst durchs Downsampling. Da ist nix mit Tiefpass unzo.
Nö. Kann sein, dass das in einem Schritt gemacht wird, aber gefiltert muß es eigentlich. Also auch wenn du den Wert eines Pixeln anhand der Umgebung bestimmst, dann ist das ein Filtern.

Trap
2007-11-06, 13:14:36
Also um das nochmal zusammenzufassen:
Antialiasingfilter sind Tiefpassfilter. Der Punkt ist, dass damit ein höher aufgelöstes Bild gefiltert und anschließend downgesamplet wird. D.h. ein
Antialiasingfilter ist schon ein Tiefpass, aber die ganze Prozedur besteht einfach aus 2 Schritten: Filtern und Downsampling.
Das so zu beschreiben ist ziemlich nutzlos, da muss man vorher schon verstanden haben wie es geht, um die Erklärung verstehen zu können.

Der Tiefpassfilter den du meinst ist das Subpixel-Sample Zusammenrechnen und das "downsampling" das du meinst ist, dass alle Subpixel-Sample danach weggeworfen werden und nur der errechnete Wert übernommen wird.

Im normalen Grafikgebrauch erklärt man den Filter nicht als Filter und das Downsampling impliziert ein verrechnen der ursprünglichen Pixel.

Die ganzen Begriffe haben keine eindeutige Bedeutung, man muss entweder sicher sein, dass der andere die gleiche Bedeutung verstehen wird oder muss explizit definieren welche Bedeutung man meint.

Actionhank
2007-11-06, 13:19:05
Das so zu beschreiben ist ziemlich nutzlos, da muss man vorher schon verstanden haben wie es geht, um die Erklärung verstehen zu können.

Der Tiefpassfilter den du meinst ist das Subpixel-Sample Zusammenrechnen und das "downsampling" das du meinst ist, dass alle Subpixel-Sample danach weggeworfen werden und nur der errechnete Wert übernommen wird.

Im normalen Grafikgebrauch erklärt man den Filter nicht als Filter und das Downsampling impliziert ein verrechnen der ursprünglichen Pixel.

Die ganzen Begriffe haben keine eindeutige Bedeutung, man muss entweder sicher sein, dass der andere die gleiche Bedeutung verstehen wird oder muss explizit definieren welche Bedeutung man meint.

mag sein, habe jetzt meine gewohnten termini benutzt. komme eher aus der signalverarbeitung als aus der computergrafik. habe nur gestern mal nen artikel auf wiki dazu gelesen und da war das ganze recht ähnlich benannt.

Lolman@work
2007-11-06, 13:26:57
Nö. Kann sein, dass das in einem Schritt gemacht wird, aber gefiltert muß es eigentlich. Also auch wenn du den Wert eines Pixeln anhand der Umgebung bestimmst, dann ist das ein Filtern.

Ja eh. Aber kein Tiefpassfilter ;)

Gast
2007-11-06, 13:44:16
Es gibt sogar Leute, die behaupten, Antialiasing sei Postprocessing - ähnlich wie ein Blur-Filter.


Das ist lediglich eine Frage der Betrachtungsweise, SSAA kannst du definitiv als Postprocessing Filter sehen (und auch so implementieren), der aus 4 Pixeln 1 Pixel macht.

Gast
2007-11-06, 13:48:10
Also um das nochmal zusammenzufassen:
Antialiasingfilter sind Tiefpassfilter.


Richtig, aber die Umkehr gilt nicht: nicht jedes TP-Filter ist ein AA-"Filter".

Gast
2007-11-06, 13:50:17
1. Wo wir überall AA eingesetzt? Nur bei scharfen Kanten (Linien, Kanten, Farbübergängen...) oder beim ganzen Bild (=alle Farbübergänge)? Dann wäre das doch eher ein Weichzeichner oder etwa nicht? Wenn nicht beim ganzen Bild: wie wird erkannt, wann und wo AA sein soll? (das war auch mein Prob. beim Verständnis von POM)


1) MSAA, also die Variante die du im Treibermenü auswählen kannst, kommt nur bei Polygonkanten zum Einsatz. Daher werden Farbübergänge, Texturen und so weiter nicht bearbeitet. AntiAliasing fügt dem Bild nur zusätzliche Informationen hinzu, nimmt aber keine weg.
Durch AA wird ja die Farbe eines Pixels nicht verändert, sondern nur genauer berechnet. Die Farbe wir je nach AA-Stufe an einem (1xAA), zwei (2xAA) und so weiter Punkten überprüft, bevor sie gerendert wird.
mfg.

Sonyfreak

Heißt das jetzt, bei AA werden ALLE Pixel und deren Nachbarn (bei XxAA halt die X-Nächsten ebenfalls) verglichen?

Trap
2007-11-06, 14:00:28
Ja eh. Aber kein Tiefpassfilter ;)
Ein Mittelwert ist ein Tiefpass. Wenn du es nicht glaubst kannst du es auch nachrechnen.
Heißt das jetzt, bei AA werden ALLE Pixel und deren Nachbarn (bei XxAA halt die X-Nächsten ebenfalls) verglichen?
Nein, es werden keine Pixel verglichen, sondern Samples die innerhalb eines Pixels liegen. Die müssen extra fürs AA erst errechnet werden, deshalb kostet das ja so viel Leistung. Bei x-fach AA werden x Samples pro Pixel erzeugt und verrechnet. Bei Multisampling-AA nur eben nur in den Pixeln in denen auch Polygonkanten liegen.

Spasstiger
2007-11-06, 14:36:11
Downsampling kann mit einem Tiefpass realisiert werden und wird es im Fall von "Computergrafik-AA" auch. Der Antialiasing-Filter im signalverarbeitungs-technischen Sinne ist also das Downsampling (denn ein Antialiasing-Filter ist immer ein Tiefpass, der dem Nyquist-Shannon-Abtasttheorem genügt).
Nur wird beim "Computergrafik-AA" auch mit einer höheren Abtastrate gearbeitet als für die Ausgabe erforderlich. Das nennt man Oversampling/Überabtastung (http://de.wikipedia.org/wiki/%C3%9Cberabtastung).

Überabtastung wird bei der Analog-Digital-Wandlung genutzt, um

* Frequenzen oberhalb der halben Zielabtastfrequenz zu entfernen (teilweise Verlagerung der Filterung vom Analog- in den (einfacher zu handhabenden) Digital-Bereich)
o um irreparable Aliasingfehler im Zielsignal zu vermeiden


Antialiasing (also Tiefpassfilterung) ist übrigens ein Bestandteil des Oversamplings. Denn Oversampling beinhaltet immer auch Resampling/Downsampling auf die Zielfrequenz (bzw. die Zielauflösung), was eben durch einen Tiefpass realisiert wird.

Trap
2007-11-06, 14:50:04
Oversampling ist in der Signalverarbeitung aber kein generelles Merkmal von Antialiasing.
AA ohne Oversampling geht nur auf dem kontinuierlichen Signal vor dem Sampling. Dafür ist aber die Anwendung zuständig, nicht die Grafikkarte oder der Treiber. Manche Anwendungen bemühen sich da ein wenig mit LOD und ähnlichem, richtig gut funktioniert das aber alles nicht.

Spasstiger
2007-11-06, 14:53:05
AA ohne Oversampling geht nur auf dem kontinuierlichen Signal vor dem Sampling. Dafür ist aber die Anwendung zuständig, nicht die Grafikkarte oder der Treiber. Manche Anwendungen bemühen sich da ein wenig mit LOD und ähnlichem, richtig gut funktioniert das aber alles nicht.
Ich hab den von dir zitierten Satz zwischenzeitlich schon rausgestrichen, weil er mir selbst nicht so recht gefallen hat. Denn Oversampling beinhaltet ja auch Resampling, welches die Funktion des Antialiasing erfüllen kann und bei 3D-Rastergrafik auch erfüllt.

Eigentlich sollte man das Antialiasing heutiger Grafikkarten "Oversampling zur Vermeidung von Aliasing" nennen. ;)
Man kommt halt sehr schnell mit dem exakt definierten Begriff "Antialiasing" aus der Signalverarbeitung ins Gehege.

Avalox/Gast
2007-11-06, 15:20:05
Eigentlich sollte man das Antialiasing heutiger Grafikkarten "Oversampling zur Vermeidung von Aliasing" nennen. ;)

Es ist ganz sicher kein Oversampling. Ist ist einfach eine höhere Abtastung.
Oversampling beschreibt ja, dass das Signal mit einer überhöhten(!) Abtastrate abgetastet wird. Also einer Abtastrate welche über der Nyquist Frequenz liegt.

Das sieht man doch auch praktisch darin, dass jedes AA die Alias Effekte (mehr oder weniger) reduziert, aber nicht beseitigt.

Xmas
2007-11-06, 15:22:27
Signalkette:
Geometriedaten --Sampling--> Framebuffer --Ausgabe--> Bildschirmdarstellung --Auge&Hirn--> Wahrnehmung

Ziel:
Das wahrgenommene Bild soll möglichst nahe an dem sein, was real existierende Körper erzeugen würden.

Problem 1:
Das Geometriesignal enthält "unendlich hohe" Frequenzen, muss aber zur Verarbeitung abgetastet werden. Normalerweise muss vor jedem Samplen das Signal mit einem Tiefpass gefiltert werden, um Aliasing zu vermeiden. Dummerweise gibt es kein praktikables Verfahren um einen Tiefpass auf Geometriedaten anzuwenden.

Die einzig praktikable Möglichkeit ist es, das Geometriesignal mit sehr hoher Samplerate abzutasten um dann den Tiefpass anzuwenden. Da die Samplerate endlich ist nimmt man dabei immer etwas Aliasing in Kauf. Das resultierende Signal tastet man dann mit der Zielauflösung ab.

Konkret also:
Geometriedaten --Sampling--> hochaufgelöstes Signal [--Tiefpass--> gefiltertes Signal --Sampling-->] Framebuffer

In der Realität werden die eingeklammerten Schritte als ein einziger ausgeführt, das Downsampling.


Problem 2:
Jeder Monitor und jedes Auge ist anders, und keine Kombination von beiden rekonstruiert das Signal "ideal". Da es in der Regel auf das Ergebnis der Gesamtkette ankommt und nicht auf Zwischenergebnisse, müsste man eigentlich den Downsample-Filter je nach Monitor und Betrachter variieren, um die bestmögliche Qualität zu bekommen.


Entgegen der weit verbreiteten Meinung ist übrigens das Flächenintegral von angenommenen quadratischen Pixeln, also ein Boxfilter, nur in Spezialfällen ideal, nämlich dann wenn man auf das Pixelraster ausgerichtete 2D-Grafik anzeigt. Der Boxfilter ist ein schlechter Tiefpass und verursacht deswegen beim Downsampling noch einmal Aliasing, weil das gefilterte Signal nicht ausreichend Bandlimitiert ist.

Gast
2007-11-06, 15:31:13
Doch natürlich sieht man das. Insbesondere wenn das Aliasing durch transparente Texturen entsteht. Blattwerk in einiger Entfernung zeigt genau dieses Verhalten.
Wir sprechen von Linien, nicht von anderen Primitiven. Bitte beim Thema vom Topic bleiben, dass eine Linie visualisiert.

Spasstiger
2007-11-06, 15:41:42
Wir sprechen von Linien, nicht von anderen Primitiven. Bitte beim Thema vom Topic bleiben, dass eine Linie visualisiert.
Mein Beispiel soll ein flächiges Objekt (z.B. ein Primitive) zeigen und keine 2D-Linie.

Es ist ganz sicher kein Oversampling. Ist ist einfach eine höhere Abtastung.
Oversampling beschreibt ja, dass das Signal mit einer überhöhten(!) Abtastrate abgetastet wird. Also einer Abtastrate welche über der Nyquist Frequenz liegt.

Das sieht man doch auch praktisch darin, dass jedes AA die Alias Effekte (mehr oder weniger) reduziert, aber nicht beseitigt.
Oversampling bedeutet, dass mit einer höheren Frequenz abgetastet wird als für die Darstellung der Signalbandbreite benötigt wird.
Oversampling bedeutet nicht, dass Nyquist bezüglich des Eingangssignals eingehalten wird.

Also z.B. Ausgabe von 1600x1200 Bildpunkten, Abtastung mit 3200x2400 Bildpunkten. Das Eingangssignal ist kontinuierlich in einer nahezu unendlichen Auflösung (begrenzt durch die Genauigkeit der Eingangsdaten, aber das soll hier nicht das Thema sein). Um Nyquist überhaupt einhalten zu können, müsste man also erstmal definieren, welche Auflösung für eine bestimmte Anwendung genügt.
Audiosignale auf einer Audio-CD sind ja auch nur Nyquist-konform, weil man 20 kHz als maximal hörbare Frequenz festgelegt hat, nicht etwa, weil es nur akkustische Signale bis 20 kHz gibt.

Gast
2007-11-06, 15:59:43
Mein Beispiel soll ein flächiges Objekt (z.B. ein Primitive) zeigen und keine 2D-Linie.
Du schriebst aber explizit von einer Linie.

Das Szenario ist eine Linie, die auf dem Bildschirm weniger als ein Pixel breit dargestellt werden soll und über das Bild wandert. Es könnte sich beispielsweise um eine Stromleitung handeln, die der Spieler bei einer Drehung erblickt:


ps. Eine Linie ist auch ein Primitiv.

Spasstiger
2007-11-06, 16:07:26
Du schriebst aber explizit von einer Linie.
Ok, ich hab mich da etwas salopp ausgedrückt und dachte eigentlich, dass die Grafik klar genug sein sollte. Man sieht eine Fläche, also kann ich unmöglich eine Linie im Sinne eines Striches gemeint haben. Es soll einfach ein Objekt sein, was ganz normal mit MSAA oder SSAA abgetastet wird.

ps. Eine Linie ist auch ein Primitiv.
Jo, meinetwegen. Bin bei diesen geometrischen Details nicht sehr bewandert.

Avalox
2007-11-06, 18:25:57
Oversampling bedeutet, dass mit einer höheren Frequenz abgetastet wird als für die Darstellung der Signalbandbreite benötigt wird.
Oversampling bedeutet nicht, dass Nyquist bezüglich des Eingangssignals eingehalten wird.



Oversampling ist eine "zu hohe" Abtastung. Eine Abtastung welche nach dem Abtasttheorem nicht mehr benötigt wird, um das Signal bestmöglich wieder zu geben. Ein Oversampling erhöht an sich nicht die Qualität der Aufnahme.
Oversampling hat in der Verwendung nur den Vorteil, dass man billigere analoge Filter verwenden kann. Bzw. bei nun mal limitierten Filtern die Qualität verbessert.

Ich denke ganz klar, dass Überabtastung/Oversampling bei AA der falsch gewählte Begriff ist. Obwohl zugegeben, dieser öfter mal im Zusammenhang verwendet wird. Ich denke dieses ist nicht richtig.




Also z.B. Ausgabe von 1600x1200 Bildpunkten, Abtastung mit 3200x2400 Bildpunkten.


Das ist die Frage. Ich denke, dem ist eben nicht so.
Eigentlich müsste man die Auflösung und die Farbtiefe als Grenzfrequenz sehen. Damit sollte man eigentlich ganz einfach ein maximale Abtastfrequenz ermitteln können. Wird nur für heutige Verhältnisse exotisch gross sein.



Audiosignale auf einer Audio-CD sind ja auch nur Nyquist-konform, weil man 20 kHz als maximal hörbare Frequenz festgelegt hat, nicht etwa, weil es nur akkustische Signale bis 20 kHz gibt.

Ohne jetzt krümelig zu erscheinen zu wollen, sind es bei einer CD 22,05kHz.
Das Oversampling ergibt sich aber daraus, dass die aufzunehmenden Daten zuvor durch ein analoges Tiefpassfilter geführt wurden.
In dem aufzunehmenden Signal befinden sich keine Frequenzen mehr, oberhalb von 22,05kHz zum Zeitpunkt der Wandlung. Deshalb liegt die Abtastfrequenz eben bei 44,1kHz. Würden sich nun Frequenzanteile über 22,05kHz im Ursprungssignal stecken, würde es mächtige Artefakte geben. Deshalb wird je grade vor der Wandlung ein analoges Tiefpassfilter geschaltet.

Eine Oversampling wird nun mit mehr als 44,1kHz arbeiten (obwohl eigentlich nicht notwendig für die exakte Wiedergabe!) wird es die fehlende Steilheit des analogen Filters ausgleichen helfen.

Kurzum, bei jeder analogen Audiowandlung wird ein analoges Tiefpassfilter vorgeschaltet. Aus diesem ergibt sich die benötigte Abtastfrequenz nach dem Abtasttheorem und ist damit überhaupt nicht willkürlich. Die 22,05kHz als Grenzfrequenz kommen natürlich vom menschlichen Hörvermögen.

Das Audiosampling ist das Beispiel für die Anwendung von Nyquist/Shannon Entdeckung schlechthin.

Spasstiger
2007-11-06, 19:23:36
Ohne jetzt krümelig zu erscheinen zu wollen, sind es bei einer CD 22,05kHz.
Das Oversampling ergibt sich aber daraus, dass die aufzunehmenden Daten zuvor durch ein analoges Tiefpassfilter geführt wurden.
In dem aufzunehmenden Signal befinden sich keine Frequenzen mehr, oberhalb von 22,05kHz zum Zeitpunkt der Wandlung. Deshalb liegt die Abtastfrequenz eben bei 44,1kHz. Würden sich nun Frequenzanteile über 22,05kHz im Ursprungssignal stecken, würde es mächtige Artefakte geben. Deshalb wird je grade vor der Wandlung ein analoges Tiefpassfilter geschaltet.

Eine Oversampling wird nun mit mehr als 44,1kHz arbeiten (obwohl eigentlich nicht notwendig für die exakte Wiedergabe!) wird es die fehlende Steilheit des analogen Filters ausgleichen helfen.

Kurzum, bei jeder analogen Audiowandlung wird ein analoges Tiefpassfilter vorgeschaltet. Aus diesem ergibt sich die benötigte Abtastfrequenz nach dem Abtasttheorem und ist damit überhaupt nicht willkürlich. Die 22,05kHz als Grenzfrequenz kommen natürlich vom menschlichen Hörvermögen.

Das Audiosampling ist das Beispiel für die Anwendung von Nyquist/Shannon Entdeckung schlechthin.
Ähm, die 20 kHz bzw. weniger als 44,1/2 kHz wurden gewählt, weil man keinen Tiefpass mit beliebiger Flankensteilheit bauen kann und bei mir in der Vorlesung war afair auch die Rede von 20 kHz an nutzbarer (Einseiten-)Bandbreite.
/EDIT: Natürlich sind auf dem Datenträger an sich schon volle 22,05 kHz nutzbar. Man kann aber keine analogen Signale bis genau 22,05 kHz auf eine Audio-CD mit 44,1-kHz-Abtastrate bannen.

Das ist die Frage. Ich denke, dem ist eben nicht so.
Eigentlich müsste man die Auflösung und die Farbtiefe als Grenzfrequenz sehen. Damit sollte man eigentlich ganz einfach ein maximale Abtastfrequenz ermitteln können. Wird nur für heutige Verhältnisse exotisch gross sein.
Welche Rolle spielt die Farbtiefe in diesem Zusammenhang?
Und dass bei 2x2 OGSSAA bei einer Auflösung von 1600x1200 an 3200*2400 Punkten abgetastet wird, ist Fakt.

Avalox
2007-11-06, 20:13:55
Ähm, die 20 kHz bzw. weniger als 44,1/2 kHz wurden gewählt, weil man keinen Tiefpass mit beliebiger Flankensteilheit bauen kann und bei mir in der Vorlesung war afair auch die Rede von 20 kHz an nutzbarer (Einseiten-)Bandbreite.


Filter sind dort ausnahmsweise nicht schuld. Mit der Audio CD wollte man ein Medium haben, welche Tonsignale von 20Hz - 20kHz exakt wiedergeben kann.

Du würdest also nach Nyquist/Shannon eine Samplingrate von 40kHz benötigen. 40kHz konnten aber die 1979 verbreiteten digitalen Bandmaschinen nicht liefern (aufgrund der Bandgeschwindigkeit), weshalb man auf die nächst höhere mit diesen Geräten mögliche Samplingrate ausgewichen ist. Eben 44,1kHz. Na ja zumindest fast, die erreichte Rate lag etwas niedriger. CDs dieser Zeit werden deswegen etwas zu schnell abgespielt.

Böse Zungen behaupten auch immer, dass die CD solch eine unrunde Samplingfrequenz nutzt, weil diese höchste Anforderungen beim Resampling auf gebräuchlich Samplingraten stellt, was das digitale kopieren aus andere Medien erschweren sollte. Aber ich denke, dass ist dann doch wohl eher ein praktischer Nebeneffekt.




Man kann aber keine analogen Signale bis genau 22,05 kHz auf eine Audio-CD mit 44,1-kHz-Abtastrate bannen.


Doch kannst du machen. Kann man auch selbst probieren. Das genau sagt doch das Abtasttheorem. Natürlich gibt es kein Filter mit einer absoluten Flankensteilheit. Auch nicht für die Reproduktion. Aber da kann man ja eine Menge machen. Oversampling in der Wiedergabe z.B.



Welche Rolle spielt die Farbtiefe in diesem Zusammenhang?
Und dass bei 2x2 OGSSAA bei einer Auflösung von 1600x1200 an 3200*2400 Punkten abgetastet wird, ist Fakt.

Du setzt je bei AA geometrische Position in einen Farb/Helligkeitswert um.

Wie hoch ist denn nun das maximale AA, bis Unterschiede von einem Display nicht mehr dargestellt werden können? Die Farbtiefe, wie auch die Auflösung ist je beschränkt.

Spasstiger
2007-11-06, 20:41:13
Doch kannst du machen. Kann man auch selbst probieren. Das genau sagt doch das Abtasttheorem. Natürlich gibt es kein Filter mit einer absoluten Flankensteilheit. Auch nicht für die Reproduktion. Aber da kann man ja eine Menge machen. Oversampling in der Wiedergabe z.B.
Ich hab das jetzt auf die Aufnahme bezogen gemeint. Nimm ein Audiosignal digital auf mit 44,1 kHz. Je nach Qualität der verwendeten Aufnahmeelektronik liegt deine tatsächlich nutzbare Maximalfrequenz irgendwo zwischen 20 und 22,05 kHz. In Studios wird heutzutage natürlich nicht mehr mit 44,1 kHz abgetastet, sondern mit weit mehr (Oversampling, da sind wir uns ja beide einig).

Wie hoch ist denn nun das maximale AA, bis Unterschiede von einem Display nicht mehr dargestellt werden können? Die Farbtiefe, wie auch die Auflösung ist je beschränkt.
Das ist ein genereller Denkfehler. Du kannst hunderte Samples pro Pixel haben und dennoch das eigentlich relevante Muster verfehlen.
Man darf bei der Abtastung nicht den Wertebereich und den Argumentenbereich durcheinanderwürfeln.

betasilie
2007-11-06, 20:48:06
Wie hoch ist denn nun das maximale AA, bis Unterschiede von einem Display nicht mehr dargestellt werden können? Die Farbtiefe, wie auch die Auflösung ist je beschränkt.
Das hängt wohl stark von der Displaygröße und der Auflösung ab. Jedenfalls falls Du dich auf den visuellen Effekt beim betrachten beziehst. Das theoretische maximum abzudecken muss ja nicht anwendungspraktisch sinnvoll sein.

Pixar hat jedenfalls lange Zeit mit 64faches AA gearbeitet, afair. *

Edit: * Jup, Ailuros hat es auch schon geschrieben, daher wird das mit dem 64-fach AA schon stimmen. ;)

Avalox
2007-11-06, 20:56:21
Das ist ein genereller Denkfehler. Du kannst hunderte Samples pro Pixel haben und dennoch das eigentlich relevante Muster verfehlen.
Man darf bei der Abtastung nicht den Wertebereich und den Argumentenbereich durcheinanderwürfeln.


Ich glaube nicht, dass es ein Denkfehler ist.
Grafikkarten sind ja nicht beliebig genau. Deshalb gibt es auch nur eine endliche Anzahl an Möglichkeiten der Verteilung.
Dieses gilt sowohl für die Geometrie, wie auch die Sampleverteilung. Ich denke schon, dass man dort eine Obergrenze festlegen kann, welche dann zudem noch mit der ebenfalls beschränkten Wiedergabe am Monitor abgleichen lässt.

Warum soll das nicht zutreffen?

Spasstiger
2007-11-06, 21:07:09
Ich glaube nicht, dass es ein Denkfehler ist.
Grafikkarten sind ja nicht beliebig genau. Deshalb gibt es auch nur eine endliche Anzahl an Möglichkeiten der Verteilung.
Dieses gilt sowohl für die Geometrie, wie auch die Sampleverteilung. Ich denke schon, dass man dort eine Obergrenze festlegen kann, welche dann zudem noch mit der ebenfalls beschränkten Wiedergabe am Monitor abgleichen lässt.

Warum soll das nicht zutreffen?
Du sprichst jetzt zwei verschiedene Punkte an:
Zum einen die Abhängigkeit von der Farbtiefe. Diese ist nicht gegeben. Wenn du ein Schachbrettmuster abtastest und nur die weißen Flächen erfasst, hast du nichts gewonnen. Egal ob du mit 4, 64 oder 1024 Samples weiße Flächen erfasst.
Zum anderen sprichst du auch die begrenzte Genauigkeit der Geometriedaten an. Das spielt natürlich eine Rolle, denn diese begrenzte Genauigkeit begrenzt auch deinen Argumentenbereich.

Merke: Bei der Abtastung kommt es nur auf den Argumentenbereich (Zeit, Ort, Frequenz, Auflösung) an, nicht auf den Wertebereich (Spannung, Pegel, Farbe).

Avalox
2007-11-06, 21:13:47
Diese ist nicht gegeben. Wenn du ein Schachbrettmuster abtastest und nur die weißen Flächen erfasst, hast du nichts gewonnen.

Ja. Ein theoretischer Fall.
Da aber ein Computer eine endliche Genauigkeit bietet, kannst du definitiv eine Abtastung mit der selben Genauigkeit ausführen, wie das abgetastete "Muster". Sind schließlich beides Bestandteile des selben begrenzten Systems. Du kannst den obrigen theoretischen Fall damit dann wieder völlig ausschliessen. Zudem kennst du ja die kleinste geometrische Form mit einer Ausdehnung. Also sollte es eigentlich kein Problem sein.
Es muss eine Obergrenze geben, denn der Computer als solches ist nur endlich genau.

Spasstiger
2007-11-06, 21:26:00
Ja, wie gesagt, wenn dein Argumentenbereich eingeschränkt ist, kannst du die optimale Abtastrate daran festmachen. Wenn z.B. die Geometriepositionen nur mit 32-Bit-Genauigkeit vorliegen, reichen über das ganze Bild 2*2^32 Samplepositionen in einem geordneten Gitter für eine optimale Abtastung der Geometrie.
Bei einer Auflösung von 1600x1200 wäre das dann ein 4774-faches OGSSAA.
Bei gedrehten oder verteilten Abtastmustern verhält es sich wohl nochmal etwas anders, wie man das genau rechnet, weiß ich auch nicht. Auch bei anderen AA-Verfahren wie MSAA/CSAA muss man wohl aufpassen.

Der Wertebereich des abzutastenden Signals (hier die Farbtiefe) lässt aber keine Rückschlüsse auf die optimale Abtastrate zu.

Avalox
2007-11-06, 21:55:30
Ja, wie gesagt, wenn dein Argumentenbereich eingeschränkt ist, kannst du die optimale Abtastrate daran festmachen. Wenn z.B. die Geometriepositionen nur mit 32-Bit-Genauigkeit vorliegen, reichen über das ganze Bild 2*2^32 Samplepositionen in einem geordneten Gitter für eine optimale Abtastung der Geometrie.
Bei einer Auflösung von 1600x1200 wäre das dann ein 4774-faches OGSSAA.
Bei gedrehten oder verteilten Abtastmustern verhält es sich wohl nochmal etwas anders, wie man das genau rechnet, weiß ich auch nicht. Auch bei anderen AA-Verfahren wie MSAA/CSAA muss man wohl aufpassen.


Verstehe ich jetzt zwar nicht, wie du 4774 faches AA kommst.
Edit. Ach so. Warum ist es denn nicht ein 2^32*2^32 fachen AA?
Aber die MSAA/CSAA Verteilungen können ja nur Teilmengen dessen sein.




Der Wertebereich des abzutastenden Signals (hier die Farbtiefe) lässt aber keine Rückschlüsse auf die optimale Abtastrate zu.

Aber doch umgekehrt? Schränkt die eingeschränkte Farbtiefe, auch die noch sinnvolle Abtastfrequenz ein?

Ein praktisches Beispiel. Ein Objekt mit einer Farbe/Helligkeit über einem Hintergrund mit der selben Farbe, aber einer um einer Nuance geringeren Helligkeit.
Jetzt kannst du beliebig viele Samples an der Objektkante ausführen, die Verteilung immer genauer bestimmen, aber eben nicht mehr darstellen, weil die Grafikkarte dazu gar nicht in der Lage ist.

Coda
2007-11-06, 22:12:58
nVIDIA GPUs haben 12-Bit-Supixel-Präzision, d.h. ein 4096x4096 Raster pro Pixel.

BAGZZlash
2007-11-06, 23:09:34
Verstehe ich jetzt zwar nicht, wie du 4774 faches AA kommst.
Edit. Ach so. Warum ist es denn nicht ein 2^32*2^32 fachen AA?
Aber die MSAA/CSAA Verteilungen können ja nur Teilmengen dessen sein.

Aber doch umgekehrt? Schränkt die eingeschränkte Farbtiefe, auch die noch sinnvolle Abtastfrequenz ein?

Ein praktisches Beispiel. Ein Objekt mit einer Farbe/Helligkeit über einem Hintergrund mit der selben Farbe, aber einer um einer Nuance geringeren Helligkeit.
Jetzt kannst du beliebig viele Samples an der Objektkante ausführen, die Verteilung immer genauer bestimmen, aber eben nicht mehr darstellen, weil die Grafikkarte dazu gar nicht in der Lage ist.


Ich glaube, was Spasstiger Dir sagen will, ist, daß bei der Computergrafik theoretisch die "Genauigkeit des Computers" nicht endlich ist. Die primitives, deren Kanten es zu glätten gilt, liegen ja nach Rotation und Translation als mathematische Beschreibung im Raum vor, also als Vektoren, genau wie wir's in der Schule gelernt haben. Erst durch Projektion auf die 2D-Ebene (den Bildschirm) endet die Genauigkeit, wodurch das Aliasing dann auch entsteht.

Hm, naja, das stimmt nicht ganz. Selbst vor der Projektion liegen die Vertices "nur" als single vor (zumindest ist das bei D3D so), was eine endliche Genauigkeit bedeutet. Das kannst Du aber hier nicht meinen. Die Idee ist: Rasterisiere diese "ungenauen" single-Vertices auf ein Raster (einen Bildschirm), der genauer darstellen kann, als eine single-Variable. Oder: Finde eine AA-Maske, die mehr subpixels abbildet, als eine single-Variable speichern kann. Erst dann wird diese Ungenauigkeit bedeutsam.
Achso, sorry: "Single" heißt bei Euch C-Codern ja "float". :smile:

Interessanter Thread übrigens. Ich dachte mir schon ganz am Anfang, daß das entsprechend ausarten wird. Wo ist eigentlich aths, wenn man ihn braucht? :cool:

Avalox
2007-11-06, 23:24:30
Oder: Finde eine AA-Maske, die mehr subpixels abbildet, als eine single-Variable speichern kann. Erst dann wird diese Ungenauigkeit bedeutsam.



Nee. Dass hatten wir ja schon.
Die Frage ist doch eher die, kann man eine Teilmenge herleiten von hinreichender Genauigkeit?

Habe aber keine Idee.

Komme zum Schluss, dass AA bisher einfach zu oberflächlich behandelt wurde.

BAGZZlash
2007-11-06, 23:35:24
Die Frage ist doch eher die, kann man eine Teilmenge herleiten von hinreichender

Richtig, genau das ist die Frage. Ich wollte ja nur sagen, daß die Geometriedaten vor der Projektion in nahezu beliebiger Genauigkeit vorliegen. Die Ungenauigkeit, die ich hier meine, hat nichts mit der Ungenauigkeit zu tun, um die es bei AA geht.

Avalox
2007-11-06, 23:53:57
hat nichts mit der Ungenauigkeit zu tun, um die es bei AA geht.

Ja. Ganz genau. Aber kann man aus der Genauigkeit die Du meinst, eine oberste Abtastfrequenz herleiten? Wenn ja, kann man auch vielleicht eine niedrigere hinreichende Abtastfrequenz ableiten?

Das sind doch genau die Fragen, um die es hier grade geht.

Bisher hatten wir in den Seiten zuvor immer begründet, dass unendlich viele Samples notwendig wären, denn die Geometrie ist beliebig genau zu ermitteln. Ist sie nicht, haben wir grade festgestellt. Sie ist nicht ideal, denn sie wird im beschränkten Computer abgebildet. Damit muss es ja auch eine endliche Abtastfrequenz geben. Diese haben wir ja im Prinzip auch schon ergründet. Ist aber eine niedrigere Abtastfrequenz vielleicht auch schon hinreichend? Schließlich haben wir es je mit einer Menge zusätzlicher Einschränkungen zu tun im Rendering Prozess.

Spasstiger
2007-11-07, 00:31:14
Verstehe ich jetzt zwar nicht, wie du 4774 faches AA kommst.
Edit. Ach so. Warum ist es denn nicht ein 2^32*2^32 fachen AA?
Ja hast recht. Ich hab das Quadrat vergessen.

Aber die MSAA/CSAA Verteilungen können ja nur Teilmengen dessen sein.
Da kommt ja noch das Centroid Sampling dazu, was die ganze Sache verkompliziert. Es wird nicht da der Farbwert ermittelt, wo abgetastet wird.
Und es wird pro Polygon maximal auch nur 1 Farbwert ermittelt statt mehrere. Beim SSAA werden pro Polygon immer soviele Farbwerte ermittelt wie Samples darin liegen.
Dazu noch die Sache mit den rotated und sparsed grids. Sind halt viele Faktoren, die konkrete Rechnungen erschweren.

Ein praktisches Beispiel. Ein Objekt mit einer Farbe/Helligkeit über einem Hintergrund mit der selben Farbe, aber einer um einer Nuance geringeren Helligkeit.
Jetzt kannst du beliebig viele Samples an der Objektkante ausführen, die Verteilung immer genauer bestimmen, aber eben nicht mehr darstellen, weil die Grafikkarte dazu gar nicht in der Lage ist.
Im Falle eines sehr niederfrequenten Signals kommt man natürlich auch mit einer viel geringeren Abtastrate aus (ich gehe davon aus, dass du mit dem darüberliegenden Objekt kein total ausgefranstes Ding meinst, sondern ein simples Polygon/Dreieck).
Aber generell kann hinter einem Pixel ja auch z.B. eine Mandelbrot-Figur stecken, deren Genauigkeit nur durch die von Coda erwähnte 12-Bit-Supixel-Präzision begrenzt ist.
3D-Renderer und Grafikkarten sorgen aber schon dafür, dass die Bildinformation nicht zu hochfrequent wird (LOD-Systeme, Mipmapping, etc.).

Was ich mich frage: Wenn alle Bilddaten als mathematische Funktionen vorliegen, könnte dann eine Grafikkarte nicht einfach das Integral über das gesamte Pixel ausrechnen? Sollte ja nicht so aufwändig sein. Man hat ja nur Dreiecke und Linien, so dass man nur sehr wenige Rechenschritte bis zum gelösten Integral braucht. Und Texturen sollten durch das Mipmapping auch aliasingfrei sein. Nur Shader sind wohl etwas problematisch, wenn man das Integral über die Pixelfläche rechnen möchte.
Der Vorteil der Integral-Methode ist, dass man immer das bestmögliche Ergebniss erhält und nur soviele Rechenschritte braucht, wie auch tatsächlich erforderlich.
8x8 SSAA dagegen wäre bei den meisten Pixeln eines Bildes mit Kanonen auf Spatzen geschossen.

BAGZZlash
2007-11-07, 08:57:35
Ja. Ganz genau. Aber kann man aus der Genauigkeit die Du meinst, eine oberste Abtastfrequenz herleiten? Wenn ja, kann man auch vielleicht eine niedrigere hinreichende Abtastfrequenz ableiten?


Hmm, eine solche Frequenz würde sich ja aus dem Auflösungsvermögen des menschlichen Auges ergeben, so wie die verhältnismäßig niedrige hinreichende Abtastfrequenz bei Audio sich aus dem Auflösungsvermögen des menschlichen Ohres ergibt. Wie von Dir schon beschrieben. (Ich frage mich, wie sich Töne von einer CD für einen Hund oder eine Fledermaus anhören - total verfälscht? Vermutlich so, wie sich für uns ein Sample mit 11 KHz anhört: Eben mit Aliasing übersät... ;()
Hier sind wir schnell auch wieder bei der Frage, ob ein Display mit einer hinreichend hohen Auflösung (i.S.v. Pixeldichte, also z.B. 19" mit 32.000 x 24.000) AA überflüssig macht. Aber das wurde ja schon zufridenstellend geklärt.

pest
2007-11-07, 09:18:39
Wenn alle Bilddaten als mathematische Funktionen vorliegen, könnte dann eine Grafikkarte nicht einfach das Integral über das gesamte Pixel ausrechnen? Sollte ja nicht so aufwändig sein.

Der Aufwand wäre enorm, außer die Fkt.en sind statisch und du speicherst die Stammfkt. gleich mit

BAGZZlash
2007-11-07, 10:21:02
Richtig. Theoretisch wäre es möglich, das Integral zu berechnen, in der Praxis aber zu aufwändig. Das Integral ist ja sozusagen die Summe im stetigen Fall. Eigentlich immer, wenn ein Computer ein Integral berechnen soll, wird über die Summe approximiert, selbst bei Mathematik- und Statistikprogrammen.
Aber wir diskutieren ja momentan auch darüber, ob es wirklich nötig wäre, das Integral zu nehmen. Wie gesagt, nötig wäre es nur dann, wenn die Geometriedaten "unendlich" genau wären. Da sie es nicht sind, reicht ein extrem feines Raster, um die Summe zu approximieren. Dies wird noch etwas gröber, wenn man als oberes "Feinheitsmaß" das Auflösungvermögen des menschlichen Auges heranziehen würde. Aber selbst das wäre immer noch viel zu aufwändig momentan. Die Frage ist eben auch: Wo liegt dieses Auflösungsvermögen des Auges? Weit über dem, was Monitore derzeit darstellen können.

Xmas
2007-11-07, 12:33:06
Bisher hatten wir in den Seiten zuvor immer begründet, dass unendlich viele Samples notwendig wären, denn die Geometrie ist beliebig genau zu ermitteln. Ist sie nicht, haben wir grade festgestellt. Sie ist nicht ideal, denn sie wird im beschränkten Computer abgebildet. Damit muss es ja auch eine endliche Abtastfrequenz geben. Diese haben wir ja im Prinzip auch schon ergründet. Ist aber eine niedrigere Abtastfrequenz vielleicht auch schon hinreichend? Schließlich haben wir es je mit einer Menge zusätzlicher Einschränkungen zu tun im Rendering Prozess.
Natürlich ist die Genauigkeit endlich, allerdings so hoch dass es unrealistisch ist mit heutiger Hardware die entsprechende Abtastfrequenz zu nehmen. Und die Hardware wird ja auch genauer.

Die tatsächlich benötigte Samplerate um Aliasing so weit zu unterdrücken dass es den Betrachter nicht mehr stört, was ja das konkrete Ziel in der Praxis ist, lässt sich nur experimentell bestimmen.


Nur Shader sind wohl etwas problematisch, wenn man das Integral über die Pixelfläche rechnen möchte.
"Etwas problematisch" ist gut. Praktisch wird es damit unmöglich.

Der Vorteil der Integral-Methode ist, dass man immer das bestmögliche Ergebniss erhält
Ich möchte nochmals betonen dass das Integral, also die Anwendung eines Boxfilters, in der Regel nicht das bestmögliche Ergebnis bringt.

MadManniMan
2007-11-07, 12:50:26
Ich möchte nochmals betonen dass das Integral, also die Anwendung eines Boxfilters, in der Regel nicht das bestmögliche Ergebnis bringt.

Die Betonung dessen wird aber so lange nix nützen, wie es uns nicht erklärt wurde ;(

Spasstiger
2007-11-07, 14:24:04
Welche Ansätze für AA außer Supersampling gibt es eigentlich beim Raytracing?

Xmas
2007-11-07, 21:22:31
Die Betonung dessen wird aber so lange nix nützen, wie es uns nicht erklärt wurde ;(
Das erstellen von Bildern die das Warum zeigen ist leider ein wenig umständlich, darum verweise ich mal auf >ein paar ältere Bilder und Animationen (http://forum.beyond3d.com/showthread.php?p=958211#post958211)< (insbesondere die nachfolgenden Animationen von arjan de lumens).

Der Boxfilter ist ein schlechter Tiefpass womit einige zu hochfrequente Teile im Signal drinbleiben und Aliasing verursachen. Das Resultat ist besonders abhängig von der Phase des Signals, was gerade bei Animationen sehr stört.

Nehmen wir mal "unendliches" Supersampling und einen Boxfilter, um eine 1/2 Pixel breite horizontale schwarze Linie auf weißem Hintergrund darzustellen. Angenommen die Linie grenzt gerade an den oberen Rand einer Pixelzeile und wird nun langsam einen halben Pixel nach unten bewegt. Wie äußert sich das im gerenderten Bild? Genau: gar nicht! Lokalitätsinformationen innerhalb eines Pixels gehen beim Boxfilter vollständig verloren.

Jetzt bewegen wir die Linie nochmal einen halben Pixel nach unten. Was passiert? Die obere Pixelzeile geht linear von Mittelgrau zu Weiß über, die untere tut das Umgekehrte. Hört sich ja eigentlich ganz vernünftig an. In Kombination mit dem oben genannten Verhalten führt das aber bei Animation zu einer Art "Wellenbildung": Erst passiert nichts, dann Übergang, dann wieder nichts, dann Übergang, usw.

Das kann man in den verlinkten Animationen besonders gut sehen.

Spasstiger
2007-11-07, 21:28:52
Der Boxfilter dürfte bei Animationen schon ideal sein, wenn man dazu auch zeitliches AA hat (Motion Blur). Schließlich hat so ein Videosignal drei Dimensionen (x,y,t), über die allesamt abgetastet wird.

MadManniMan
2007-11-07, 22:47:39
Ja, das ist gut verständlich - aber es ist immernoch die korrekteste Darstellung dessen, was alles innerhalb der Fläche - und damit geografisch wertlos, nur quantitativ relevant - liegt. Aber da erzähl ich Dir nix Neues...

Problem: was für derartige Linien ideal ist, kann das für andere Strukturen nicht nachteilig sein? Ich komm grad im Gedanken nicht weiter *grübel*

Hab ich den gausschen Filter so richtig verstanden, daß nach Zufall gewichtet wird, oder doch eher nach Nähe zum Mittelpunkt der Pixelfläche?

Xmas
2007-11-07, 22:59:42
Der Boxfilter dürfte bei Animationen schon ideal sein, wenn man dazu auch zeitliches AA hat (Motion Blur). Schließlich hat so ein Videosignal drei Dimensionen (x,y,t), über die allesamt abgetastet wird.
Nein, auch dann wird der Boxfilter nicht plötzlich ideal. Es ist bekannt dass der Boxfilter kein guter Tiefpass ist. Motion Blur ändert am obigen Beispiel bei langsamer Animation auch fast gar nichts.

Hab ich den gausschen Filter so richtig verstanden, daß nach Zufall gewichtet wird, oder doch eher nach Nähe zum Mittelpunkt der Pixelfläche?
Beim Gaussfilter wird nach dem Abstand vom Pixelmittelpunkt gewichtet.

MadManniMan
2007-11-07, 23:03:00
Beim Gaussfilter wird nach dem Abstand vom Pixelmittelpunkt gewichtet.

Hm... für Vektordarstellungen gefällt mir diese Idee - und wenn man es nur bei MSAA appliziert, sehe ich das auch unkritisch. Aber für FSAA ist ein solcher Filter auch gar nicht gedacht, richtig?

Xmas
2007-11-07, 23:13:21
Hm... für Vektordarstellungen gefällt mir diese Idee - und wenn man es nur bei MSAA appliziert, sehe ich das auch unkritisch. Aber für FSAA ist ein solcher Filter auch gar nicht gedacht, richtig?
Falls du mit FSAA Supersampling meinst: Doch, warum nicht? Eigentlich ist ein Filterkernel breiter als ein Pixel eher bei MSAA problematisch, da ja dort der Farbwert (außer bei Centroid-Sampling an Kanten) von der Pixelmitte kommt, egal wo das Sample liegt. Insofern ist der Edge-Detect-Filter von ATI eigentlich eine sehr gute Lösung.

Spasstiger
2007-11-07, 23:40:28
Wenn man die Samples mit einem Gaussfilter gewichtet, hat man leider immer eine gewisse Unschärfe im Bild.

Neomi
2007-11-07, 23:54:06
Wenn man die Samples mit einem Gaussfilter gewichtet, hat man leider immer eine gewisse Unschärfe im Bild.

Nur dann, wenn man Samples außerhalb des Pixels mit einrechnet. Nebenbei erwähnt sind Boxfilter bei den üblichen niedrigen Modi (bis 4x, egal ob OG oder RG) mehr oder weniger zwangsweise identisch zu Gaußfiltern, da alle Samples den gleichen Abstand zum Pixelzentrum haben und daher gleich gewichtet werden müssen.

Xmas
2007-11-08, 10:57:36
Wenn man die Samples mit einem Gaussfilter gewichtet, hat man leider immer eine gewisse Unschärfe im Bild.
Welche für gutes Antialiasing allerdings unverzichtbar ist.

Gast
2007-11-08, 11:00:48
nVIDIA GPUs haben 12-Bit-Supixel-Präzision, d.h. ein 4096x4096 Raster pro Pixel.
Mehr info! Hast du eine Quelle oder hast du das ausgerechnet oder schätzt du nur weil du weisst wie die max Auflösung ist und was an Bits übrig bleibt bei int?

Gast
2007-11-08, 11:03:08
Es gibt weit mehr und viel bessere Filter als Gaus. Verwendet man auch schon lange beim generieren von Mipmaps und mehr ist das Downsamplen auch nicht bei AA.

Gast
2008-07-20, 16:20:46
Vor vier Jahren war die übliche Auflösung 1280x1024.

Heute ist die übliche Auflösung 1680x1050, bestenfalls 1920x1200


lol, vor 4 jahren war die meistgenutzte auflösung noch 1024x768 seit diesem jehr ist es 1280x1024 und an 2ter stelle die kleinste HDReady auflösung, kbn....

Grestorn
2008-07-20, 17:41:27
lol, vor 4 jahren war die meistgenutzte auflösung noch 1024x768 seit diesem jehr ist es 1280x1024 und an 2ter stelle die kleinste HDReady auflösung, kbn....

Es ist kaum noch möglich einen Monitor mit 1280x1024 zu kaufen, die meisten haben heute 1440 oder 1680.

Und auch schon vor 4 Jahren konnte man praktisch keine 1024x768 Monitore mehr kaufen. Ich weiß nicht, wo Du lebst.

Mr. Lolman
2008-07-20, 17:44:53
Es ist kaum noch möglich einen Monitor mit 1280x1024 zu kaufen, die meisten haben heute 1440 oder 1680.


Ähem: http://geizhals.at/?cat=monlcdc;sort=artikel&xf=99_17%3B98_1280x1024

Grestorn
2008-07-20, 17:56:55
Kaum != nicht.

Schau mal zu nem Saturn. Natürlich gibt es noch ein paar 4:3 Monitore, speziell für Business-Anforderungen, wobei ich selbst da 16:10 Monitore vorziehe. Aber in der Menge an 16:10 Monitoren gehen die inzwischen unter.

Aber 16:10 kosten nicht mehr nennenswert mehr, und jemand der auch mal spielen will, wäre sehr schlecht beraten, wenn er sich heute noch nen 4:3 Monitor holen würde.

Mr. Lolman
2008-07-20, 17:59:29
Aber 16:10 kosten nicht mehr nennenswert mehr, und jemand der auch mal spielen will, wäre sehr schlecht beraten, wenn er sich heute noch nen 4:3 Monitor holen würde.

Letztenendes ists wiedermal ne Glaubenssache. Höhere Auflösung braucht stärkere HW. Genau aufgrund dessen (und weil ich am Beamer auch mit 1280x720 limitiert bin), hab ich mit letztes Jahr noch mal nen 19" Benq geholt.

IVN
2008-07-21, 10:51:35
Wer behauptet, AntiAliasing würde die sichtbaren Bildinformationen nicht deutlich steigern, möge sich einfach mal diese beiden Bilder aus der Praxis ansehen:

http://www.imgnow.de/thumbs/UT2004200711061242211400fpng.png (http://www.imgnow.de/?img=UT2004200711061242211400fpng.png) http://www.imgnow.de/thumbs/UT200420071106124242310a3png.png (http://www.imgnow.de/?img=UT200420071106124242310a3png.png)

Beide Bilder wurden auf den selben Grafikdetails gemacht, und nur das AA geändert. Links 1xAA 1xAF // Rechts 4x4SSAA 1xAF

Das PNG-komprimierte Bild ohne AA ist übrigens 1,5MB, das Bild mit AA hingegen 1,7MB groß.

mfg.

Sonyfreak
Sehr schön.
Jetzt drucke die Bilder aus (300dpi) und beurteile noch mal.

AnarchX
2008-07-21, 11:04:29
Sehr schön.
Jetzt drucke die Bilder aus (300dpi) und beurteile noch mal.
Was soll den dieser Unsinn?
Hier geht es um das Bild auf einem Monitor und da bewegen sich die meisten in den Haushalten verfügbaren Geräte um die 100dpi.

Spasstiger
2008-07-21, 11:10:51
Sehr schön.
Jetzt drucke die Bilder aus (300dpi) und beurteile noch mal.
Da sieht man das Aliasing immer noch aus normalem Leseabstand.

IVN
2008-07-21, 11:24:07
Was soll den dieser Unsinn?
Hier geht es um das Bild auf einem Monitor und da bewegen sich die meisten in den Haushalten verfügbaren Geräte um die 100dpi.
Nö, INZWISCHEN geht es darum ob AA (in meinem Beispiel SSAA) wirklich besser ist als ohne. Wenn man ein Ausgabe"gerät" mit hohem dpi hat - Papier - sieht man das SSAA (=runterskalierte hohe Res.) keinesfalls besser als die "Standardres." ist. Über wirklich hohe Res vs SSAA brauchen wir nichtmal zu diskutieren. Da ist sofort klar das SSAA suckt. Der Umstand der AA dennoch legitimiert ist das generelle Suckness der Displays.

Wenn erwünscht ist, kann ich ein Praxisbeispiel nennen, welches veranschaulicht wie unnütz SSAA (vom Prinzip her - nicht an Games gebunden) tatsächlich ist.

Grestorn
2008-07-21, 15:24:15
Nö, INZWISCHEN geht es darum ob AA (in meinem Beispiel SSAA) wirklich besser ist als ohne. Wenn man ein Ausgabe"gerät" mit hohem dpi hat - Papier - sieht man das SSAA (=runterskalierte hohe Res.) keinesfalls besser als die "Standardres." ist. Über wirklich hohe Res vs SSAA brauchen wir nichtmal zu diskutieren. Da ist sofort klar das SSAA suckt. Der Umstand der AA dennoch legitimiert ist das generelle Suckness der Displays.

Wenn erwünscht ist, kann ich ein Praxisbeispiel nennen, welches veranschaulicht wie unnütz SSAA (vom Prinzip her - nicht an Games gebunden) tatsächlich ist.

Sorry, aber das ist Quatsch.

SSAA schleift harte Kanten, die nicht exakt auf Pixelgrenzen der hohen Auflösung liegen, tatsächlich etwas ab, das ist korrekt. Dennoch wird die Information erhöht: Es ist dann nämlich ein sichtbarer Unterschied, ob die Kante um einen Pixel (der hohen Auflösung) verschoben ist oder nicht. In der Standardauflösung ohne SSAA würde das Ergebnis immer gleich aussehen, egal ob die Kante verschoben ist oder nicht.

ethrandil
2008-07-21, 16:31:38
Tjanun, angenommen man will eine Szene korrekt rastern mit einer endlichen Anzahl von Abtastpunkte (= (sub-)pixel), dann hat man theoretisch nur drei Möglichkeiten:

a) Man verwendet keine Strukturen, die kleiner sind als 2 (sub-)Pixel
b) Man erhöht das Rauschen im Bild durch ein irreguläres Abtastmuster, d.H. zeitlich irregulär wechselndes Antialiasing
c) Man erhöht die Unschärfe

MipMaps kommen bei a) zum tragen, indem sie die Texturen so unscharf machen, dass sie praktisch nicht höher aufgelöst sind als 2 Pixel. Wird das nicht korrekt gemacht, flimmerts.
Bei Kanten ist es anscheinend sehr schwer, c) absolut perfekt umzusetzen - aber eine ausreichend hohe Zahl von Subpixeln kann das Problem näherungsweise lösen, indem ein höher auflösendes Bild berechnet wird, das wird dann unscharf gemacht und auf die Auflösung des Bildschirms runtergerechnet.
Rechteckfilter sind in der Tat nicht das Optimum dabei. Gauss-Filter sind in der Theorie optimal aber nicht das visuell ansprechendste. Ich habe ganz ansehnliche Resultate mit einem umgekehrt exponential-förmigen 'Kegel' gesehen, aber ich weiß nicht ob das gemacht wird.

Was war nch gleich die Frage im Thread? ;-)

ethrandil
2008-07-21, 16:39:05
Sorry, aber das ist Quatsch.

SSAA schleift harte Kanten, die nicht exakt auf Pixelgrenzen der hohen Auflösung liegen, tatsächlich etwas ab, das ist korrekt. Dennoch wird die Information erhöht: Es ist dann nämlich ein sichtbarer Unterschied, ob die Kante um einen Pixel (der hohen Auflösung) verschoben ist oder nicht. In der Standardauflösung ohne SSAA würde das Ergebnis immer gleich aussehen, egal ob die Kante verschoben ist oder nicht.
Dieses Beispiel ist schwierig, um einen Informationsgewinn zu belegen.

Ein Schachbrettmuster mit sehr hoher Frequenz ist mit Antialising nur noch grau, aber ohne ist erkennbar, dass es weiße und schwarze Farbe im Bild gibt.

Allgemein lässt sich aus einem Bild mit (gaussschem)Antialliasing aber die Ursprungsszene detaillierter beschreiben als ohne.

Grestorn
2008-07-21, 16:56:46
Dieses Beispiel ist schwierig, um einen Informationsgewinn zu belegen.

Ein Schachbrettmuster mit sehr hoher Frequenz ist mit Antialising nur noch grau, aber ohne ist erkennbar, dass es weiße und schwarze Farbe im Bild gibt.

Allgemein lässt sich aus einem Bild mit (gaussschem)Antialliasing aber die Ursprungsszene detaillierter beschreiben als ohne.

Bei statischen Bildern gebe ich Dir recht. Aber wir reden von bewegten Bildern.

Tesseract
2008-07-21, 17:02:48
Ein Schachbrettmuster mit sehr hoher Frequenz ist mit Antialising nur noch grau, aber ohne ist erkennbar, dass es weiße und schwarze Farbe im Bild gibt.

muss nicht sein. wenn du pech hast ist das bild auch komplett schwarz oder komplett weiß oder hat irgendwelche anderen artefakte (streifen usw.) die mit dem ausgangsbild überhaupt nix mehr zutun haben.

ethrandil
2008-07-21, 18:10:34
muss nicht sein. wenn du pech hast ist das bild auch komplett schwarz oder komplett weiß oder hat irgendwelche anderen artefakte (streifen usw.) die mit dem ausgangsbild überhaupt nix mehr zutun haben.
Ich ging von perfektem Antialiasing aus. In entsprechenden Beispielen ist echtes näherungsweises AA nicht besser als nicht-AA, richtig.

aths
2008-07-21, 18:25:41
Gauss-Filter sind in der Theorie optimal Warum?

Coda
2008-07-21, 19:19:45
Ich dachte auch immer Lanczos sei eigentlich besser.

IVN
2008-07-21, 19:28:27
Sorry, aber das ist Quatsch.

SSAA schleift harte Kanten, die nicht exakt auf Pixelgrenzen der hohen Auflösung liegen, tatsächlich etwas ab, das ist korrekt. Dennoch wird die Information erhöht: Es ist dann nämlich ein sichtbarer Unterschied, ob die Kante um einen Pixel (der hohen Auflösung) verschoben ist oder nicht. In der Standardauflösung ohne SSAA würde das Ergebnis immer gleich aussehen, egal ob die Kante verschoben ist oder nicht.
Quatsch ist das keinesfalls.

SSAA - und ich benutze es hier als Bsp. weil es auf das gesamte Bild einwirkt - verringert die Schärfe des Bildes. Das ist Fakt. Und in meinem Buch ist Schärfeabfall Informationsverlust, egal was unter "Rechts-Klick --> Eigenschaften" steht.

Nur den schlechten Bildschirmen haben wir es zu verdanken das die AA-Bilder besser aussehen. Bei einem BS mit 300dpi und aus 40-50cm Entfernung würde man kein Aliasing bemerken, das SSAA-Bild würde aber unscharf aussehen.

Coda
2008-07-21, 19:31:21
Und in meinem Buch ist Schärfeabfall Informationsverlust, egal was unter "Rechts-Klick --> Eigenschaften" steht.
Es enthält zwar mehr "Informationen", aber leider nicht die des ursprünglichen Signals. Da muss man ganz klar unterscheiden.

Vom Ausgangssignal ist mit Supersampling natürlich mehr enthalten, weil viel mehr Samples genommen werden. Da braucht man gar nicht drüber diskutieren.

Nur den schlechten Bildschirmen haben wir es zu verdanken das die AA-Bilder besser aussehen. Bei einem BS mit 300dpi und aus 40-50cm Entfernung würde man kein Aliasing bemerken, das SSAA-Bild würde aber unscharf aussehen.
Unsinn. Egal wie hoch deine Bildschirmauflösung ist werden dünne Linien immer flimmern ohne AA auch bei sehr hoher Auflösung.

Spasstiger
2008-07-21, 20:15:35
Unsinn. Egal wie hoch deine Bildschirmauflösung ist werden dünne Linien immer flimmern ohne AA auch bei sehr hoher Auflösung.
Exakt. Kann jeder daheim selbst nachvollziehen, wenn er mal 2 m vom Bildschirm wegsitzt statt 70 cm. Aliasing ist immer noch sichtbar.

Trap
2008-07-21, 20:28:16
Exakt. Kann jeder daheim selbst nachvollziehen, wenn er mal 2 m vom Bildschirm wegsitzt statt 70 cm. Aliasing ist immer noch sichtbar.
Bei 20m aber nicht mehr.

Coda
2008-07-21, 20:29:30
Bei 20m hast du den Filter im Auge.

Wenn du natürlich eine 2-3x so hohe Pixelauflösung hast wie das Auge auflösen kann dann würde das Aliasing wohl weg sein. Aber imho sind wir davon noch weit weg.

Spasstiger
2008-07-21, 20:56:13
Warum?
Er meint wohl die Tatsache, dass das Spektrum der Übertragungsfunktion eines Gauss-Filters keine Nebenzipfel/Überschwinger hat, weil die Fouriertransformierte einer Gauss-Funktion wieder eine Gaussfunktion ist.
So kann man sicherstellen, dass das Abtasttheorem eingehalten wird.

Natürlich haben Gaussfilter auch Nachteile.

IVN
2008-07-21, 21:21:14
Exakt. Kann jeder daheim selbst nachvollziehen, wenn er mal 2 m vom Bildschirm wegsitzt statt 70 cm. Aliasing ist immer noch sichtbar.
Ja klar. Der Mensch der, aus 2m Entfernung, Aliasing sehen kann, wurde noch nicht geboren.

€:

Natürlich wenn man die native Res. des BS benutzt. Irgendeinen "Ultra definition" auf 640*x Pixel runterzwingen...klar das man da auch aus 20m Entfernung die Pixel zählen kann.

Spasstiger
2008-07-21, 21:25:35
Ja klar. Der Mensch der, aus 2m Entfernung, Aliasing sehen kann, wurde noch nicht geboren.
Hm? Dann gehöre ich zu den Menschen.
Meine Sehschärfe ist mit 140% laut Optiker noch im Bereich des Normalen.

Xmas
2008-07-21, 21:48:44
Ja klar. Der Mensch der, aus 2m Entfernung, Aliasing sehen kann, wurde noch nicht geboren.
Flimmern, Moiré und unterbrochene Linien sieht man auch aus 5 m Entfernung noch. Um Aliasing zu sehen muss man noch lange nicht die einzelnen Pixel voneinander unterscheiden können.

Trap
2008-07-21, 22:02:47
Ja klar. Der Mensch der, aus 2m Entfernung, Aliasing sehen kann, wurde noch nicht geboren.
Auf Armlänge Entfernung kann man mindestens 500 dpi unterscheiden. Bleiben bei 2 Metern noch immer mehr als 100 und damit genug um einzelne Pixel auf dem Monitor zu unterscheiden.

ethrandil
2008-07-21, 22:41:24
Warum?
Ich dachte auch immer Lanczos sei eigentlich besser.

Er meint wohl die Tatsache, dass das Spektrum der Übertragungsfunktion eines Gauss-Filters keine Nebenzipfel/Überschwinger hat, weil die Fouriertransformierte einer Gauss-Funktion wieder eine Gaussfunktion ist.
So kann man sicherstellen, dass das Abtasttheorem eingehalten wird.

Natürlich haben Gaussfilter auch Nachteile.

Richtig - der Lanczos ist im Grenzfall ein Filtenr mit der sinc-Funktion und auch in gewisser Weise optimal. Der entspricht nämlich einem Rechteckfilter im Frequenzraum, blabla soll heißen: Das Shannon-Abtasttheorem wird dann eingehalten und alle Frequenzen die zu groß sind werden abgeschnitten.
Leider führt das wie gesagt zu Überschwingern im Ortsbereich - das heißt ein gefilterter Punkt wird nach der Filterung im Prinzip so aussehen, als ob in der Mitte ein Wassertropfen ins Wasser gefallen wäre und man sieht die Wellen, die sich Kreisförmig ausbreiten.

http://www.dominik-epple.de/pyglplot/Screenshots/sinc-alpha-04.png

Gauss hat das nicht - man hat im Ortsbereich eine (gauss-)Unschärfe und im Frequenzbereich auch - genaugenommen ist damit das Abtasttheorem allerdings nur näherungsweise erfüllt!

Es gilt allerdings eine Ungleichung, die vielen informell aus der Physik bekannt ist: Man kann nicht gleichzeitig unendlich genau Ort und Zeit messen. Genaugenommen verhält es sich so beim Filtern von Bildern genauso: Man kann nicht gleichzeitig exakt eine bestimmte Frequenz filtern und wissen, an welcher Stelle sie auftritt.
wen das interessiert, der soll fragen, aber die Gaussfunktion ist die Funktion, die das Produkt aus Orts- und Frequenzgenauigkeit optimiert :-).

- eth

IVN
2008-07-21, 22:51:00
Spasstiger, Xmas,Trap

Alles was ihr sagt hängt von der Definition und den Faktoren unter welchen getestet wurde.

Ich für meinen Teil definiere Aliasing als Treppen-Effekte, in einem Standbild.

Jetzt einzeln:

Spasstiger: Du bist, so wie jeder andere Mensch auch, nicht fähig aus 2m Entfernung Aliasing zu sehen. Was du siest ist das Flimmern. Das ist für mich aber kein Aliasing. In einem Standbild würdest du es nie im Leben erkennen.

Xmas: Yo. Unterschiedliche Definitionen von Aliasing.

Trap: Das geht nicht. 500dpi aus 70-100cm Entfernung? Meine Augen sind gesund, ich kann aber die Print-"Fehler" die von 200dpi eines National Geographic kommen nicht erkennen, wenn ich so weit weg bin.

Deine Behauptung mag für Schwarzweiß gelten(wo die Res. des menschlichen Auges, angeblich, doppelt so hoch ist), für Farbe (wo Kontraste viiiiiiel schwächer sind) niemals.

Diese Max-Werte werden bei guter Beleuchtung und mit schwarzen Symbolen auf komplett weißem Hintergrund, ermittelt.
-------------------------------------------

Hohe Res. und KEIN AA ist der richtige Weg. In der Realität (und viele schreien nach mehr Realismus) gibt es eine klare Trennung zw. Objekt und Hintergrund (und NEIN, ich spreche nicht von DOF) - was auch normal ist, da 3D. AA macht diesen Effekt kaputt. Konturen sollen nicht verwischt werden, sie sollen scharf aber nicht störend sein, und DAS geht nur über mehr Auflösung/Fläche. 300dpi empfinde ich als einen Sweetspot.

AA ist nur das z.Z. geringere Übel.

Spasstiger
2008-07-21, 23:53:33
Spasstiger: Du bist, so wie jeder andere Mensch auch, nicht fähig aus 2m Entfernung Aliasing zu sehen. Was du siest ist das Flimmern. Das ist für mich aber kein Aliasing.
Mach dir erst mal schlau, was Aliasing ist. Aliasing ist ein in der Systemtheorie exakt definierter Begriff und kein bischen schwammig oder interpretierbar.

Tesseract
2008-07-21, 23:58:58
Ich ging von perfektem Antialiasing aus. In entsprechenden Beispielen ist echtes näherungsweises AA nicht besser als nicht-AA, richtig.

das hab ich nicht gemeint. mit AA wirst du im fall eines schachbretts meist viel grau bekommen.
du hast aber gemeint ohne AA kann man wenigstens noch erkennen, dass es schwarz und weiß ist. das stimmt aber eben nicht immer.
wenn das schachbrett sehr ungünstig liegt kann es sein, dass z.B. die kompletten schwarzen felder wegfallen und das bild weiß bleibt.

ohne AA hast du nicht mehr bildinformation. das ist ein irrglaube.

IVN
2008-07-22, 00:46:06
Mach dir erst mal schlau, was Aliasing ist. Aliasing ist ein in der Systemtheorie exakt definierter Begriff und kein bischen schwammig oder interpretierbar.
Bitte erleuchte mich.

Von der Systemtheorie hab ich noch nie etwas gehört.

Die Definitionen die ich gefunden habe schließen Fehler (Distortionen oder Artefakte - nenns wie du willst) in einem Standbild nicht aus.

ethrandil
2008-07-22, 01:00:01
ohne AA hast du nicht mehr bildinformation. das ist ein irrglaube.
Definiere Bildinformation. Die Entropie eines ungefilterten Bildes kann in der tat höher sein als das eines gefilterten. Hat es darum mehr Bildinformationen? Nein.

Ein Bild hat mehr Bildinformationen, wenn sich aus dem Bild die Ursprungsszene genauer rekonstruieren lässt. Aber ist diese Definition sinnvoll, wenn man von einem intuitiven Informationsbegriff ausgeht? Dann gilt wohl eher: Ein Bild hat mehr Bildinformationen, wenn der Mensch aus dem Bild die Ursprungsszene genauer rekonstruieren kann.

Und schwupps sind wir bei einem ganz schön komplizierten Informationsbegriff, bei dem uns wohl nur noch die Biologen weiterhelfen können.

ethrandil
2008-07-22, 01:21:30
Bitte erleuchte mich.

Von der Systemtheorie hab ich noch nie etwas gehört.

Die Definitionen die ich gefunden habe schließen Fehler (Distortionen oder Artefakte - nenns wie du willst) in einem Standbild nicht aus.
Systemtheorie (http://de.wikipedia.org/wiki/Systemtheorie) ist eine Theorie, die sich sehr abstrakt mit Entitäten/Strukturen und deren Beziehungen/Funktionen auseinandersetzt. Häufig werden an Unis in dem Rahmen Fouriertransformation etc vorgestellt.

Als Alias-Effekte [ˈeɪliəs] oder Aliasing-Effekte werden im Bereich der Signalanalyse Fehler bezeichnet, die durch die Nichtbeachtung des Abtasttheorems (zu geringe Abtastfrequenz) beim digitalen Abtasten von Signalen auftreten. In der Bildverarbeitung und Computergrafik treten Alias-Effekte bei der Abtastung von Bildern auf und führen zu Mustern, die im Originalbild nicht enthalten sind.
Aliasing in animierten Bildern tritt sowohl im Ortsbereich auf - an hochfrequenten Stellen (Kanten, detailreiche Texturen) als auch im Zeitbereich (schnelle Bewegungen -> Wagenradeffekt (http://de.wikipedia.org/wiki/Alias-Effekt#Filme)) auf.

Die deutsche Wikipediaseite zum Treppeneffekt (http://de.wikipedia.org/wiki/Treppeneffekt) behauptet, dies sei kein Antias-Effekt im Sinne der Signalverarbeitung. Das ist so nicht ganz richtig - ich vermute im Thread wurde schon argumentiert, wieso er das doch ist.
Der Moiré-Effekt (http://de.wikipedia.org/wiki/Moiré-Effekt) ist auch Aliasing.
Flimmern ist auch eine Folge von Aliasing. Im Standbild fällt das Flimmern nur nicht auf, weil der Treppeneffekt oft an unauffälligen Stellen auftritt. Das Flimmern kommt dadurch, dass im Folgebild der Treppeneffekt leicht versetztes Aliasing produziert, das sehr starke Helligkeitsänderungen bewirken kann! (Wenn korrekt 'weichgezeichnet' wird, fallen diese Helligkeitsunterschiede weit geringer aus.) Diese Helligkeitsänderungen bemerken wir als Flimmern - weil unsere Augen stärker Flimmer- als Treppeneffektanfällig sind ;-). Im Grunde wird durch falsche Abtastung ein Flimmern verursacht, das in der (animierten) Szene nicht vorhanden ist. Das Flimmern geht aber vorallem auf das Aliasing im Bild zurück - Aliasing über die Zeit ist etwas anderes.

hmx
2008-07-22, 02:37:14
Spasstiger, Xmas,Trap

Alles was ihr sagt hängt von der Definition und den Faktoren unter welchen getestet wurde.

Ich für meinen Teil definiere Aliasing als Treppen-Effekte, in einem Standbild.

Jetzt einzeln:

Spasstiger: Du bist, so wie jeder andere Mensch auch, nicht fähig aus 2m Entfernung Aliasing zu sehen. Was du siest ist das Flimmern. Das ist für mich aber kein Aliasing. In einem Standbild würdest du es nie im Leben erkennen.

Xmas: Yo. Unterschiedliche Definitionen von Aliasing.

Trap: Das geht nicht. 500dpi aus 70-100cm Entfernung? Meine Augen sind gesund, ich kann aber die Print-"Fehler" die von 200dpi eines National Geographic kommen nicht erkennen, wenn ich so weit weg bin.

Deine Behauptung mag für Schwarzweiß gelten(wo die Res. des menschlichen Auges, angeblich, doppelt so hoch ist), für Farbe (wo Kontraste viiiiiiel schwächer sind) niemals.

Diese Max-Werte werden bei guter Beleuchtung und mit schwarzen Symbolen auf komplett weißem Hintergrund, ermittelt.
-------------------------------------------

Hohe Res. und KEIN AA ist der richtige Weg. In der Realität (und viele schreien nach mehr Realismus) gibt es eine klare Trennung zw. Objekt und Hintergrund (und NEIN, ich spreche nicht von DOF) - was auch normal ist, da 3D. AA macht diesen Effekt kaputt. Konturen sollen nicht verwischt werden, sie sollen scharf aber nicht störend sein, und DAS geht nur über mehr Auflösung/Fläche. 300dpi empfinde ich als einen Sweetspot.

AA ist nur das z.Z. geringere Übel.

Nö. Ich hatte mal ein Laptop mit 1920x1200 auf 17". Selbst wenn ich da etwas weiter weg gesessen habe konnte man Kantenflimmern erkennen. Viel deutlicher wird es noch bei komplexer Geometrie wie zB Bäume und Blätter. Da erkennt man das Flimmern so lange man noch erkennen kann das dort Bäume sind von der Entfernung her.
Damit man Aliasing mit Auflösung bekämpft muss eine so hohe Auflösung her die einfach zur Zeit und auch in näherer Zukunft nicht möglich ist. Zudem ist es auch Wahnsinnig ineffizient da man die Leistung viel besser in den Content stecken kann. AA eignet sich viel besser zur Bekämfung von Kantenflimmern.

Ich frage mich im ernst wie du auf einem >26" Display eine so hohe Auflösung erreichen willst und vor allem was der Preis ist. Die hohe Auflösung hat nämluch Opportunitätskosten da man mit der Leistung auch was anderes machen könnte was viel sinnvoller ist. Aliasing ist eben nicht nur die Kante sondern eben auch das Flimmern in Bewegung, daher macht dein Beispiel mit dem Druck keinen Sinn da es sich hier nicht um ein bewegtes Bild handelt. Ein Mioree was auf PLA TVs früher bei der Tagesschau an den Karierten Anzügen aufgetaucht ist siehst du auch aus 10 Meter Entfernung auf einem 43 cm TV obwohl dort keine harten Kontraste zu sehen sind.

Und btw ist es auch langsam ermüdend. Ich lese hier schon seit Ende 2001 mit und alle Jahre wieder kommt einer der den Sinn und die funktionsweise von AA nicht verstanden hat mit irgendwelchen Halbweisheiten. Les dir den Artikel durch, hat mir damals auch enorm geholfen.

Grestorn
2008-07-22, 12:35:27
Ja klar. Der Mensch der, aus 2m Entfernung, Aliasing sehen kann, wurde noch nicht geboren.

Du siehst vielleicht die Alias-Zacken selbst nicht mehr, aber Du kannst in Bewegung immer noch locker die aus dem Aliasing entstehenden Folgen, nämlich das Kantenflimmern wahrnehmen. Auch aus 4 oder 5 Metern.

IVN
2008-07-22, 13:03:53
Nö. Ich hatte mal ein Laptop mit 1920x1200 auf 17".
Das ist nicht annähernd genug.
Selbst wenn ich da etwas weiter weg gesessen habe konnte man Kantenflimmern erkennen. Viel deutlicher wird es noch bei komplexer Geometrie wie zB Bäume und Blätter. Da erkennt man das Flimmern so lange man noch erkennen kann das dort Bäume sind von der Entfernung her.
Damit man Aliasing mit Auflösung bekämpft muss eine so hohe Auflösung her die einfach zur Zeit und auch in näherer Zukunft nicht möglich ist. Das ist mir schon klar. Ist dir aber auch klar das Öko-Energie (genau wie der Weg über die Auflösung) das Richtige für die Zukunft ist, OBWOHL sie heute immer noch teurer ist als die "Dinosaurier-Exkremente" die wir aus der Erde auspumpen und verbrennen?Zudem ist es auch Wahnsinnig ineffizient da man die Leistung viel besser in den Content stecken kann. Das ist das Problem. Was ist Content, aus der Sicht einer GPU, wenn nicht höher aufgelöste Texturen und feinere Geometrie? KI, Physik und Sound sind nicht die Aufgabe der GPU und haben auf die Auflösung keinen Einfluss. Dummerweise ergeben höher aufgelöste Texturen erst mit mehr Auflösung Sinn. Was denkst du wieso die meisten Spiele heute immer noch keine (oder nur geringfügig) besseren Texturen als z.B. UT04 verwenden. Displays sind hier klar der limitierende Faktor. Und da man sich nicht über die Auflösung von den Last-Gen-Games distanzieren kann, die GPUs aber mehr Leistung haben und von den Konsumenten (zumindest den Hardcore-Gamern) ein Fortschritt erwartet wird, verbrät man die überflüssige Leistung über die Shader. Diese flimmern aber auch, was man nur mit SSAA oder wieder mit mehr Auflösung bekämpfen kann.AA eignet sich viel besser zur Bekämfung von Kantenflimmern.

Ich frage mich im ernst wie du auf einem >26" Display eine so hohe Auflösung erreichen willst und vor allem was der Preis ist. Das ist nicht mein Job. An den Herstellern liegt es in diese Richtung zu forschen und ein solches Produkt für die Massen verfügbar zu machen. Das einzige was von mir erwartet wird, ist genügend Geld bereit zu halten. :)Die hohe Auflösung hat nämluch Opportunitätskosten da man mit der Leistung auch was anderes machen könnte was viel sinnvoller ist.Was genau? Bessere Texturen kannst du ohne mehr Res. vergessen, feinere Geometrie ist auch Unsinn wenn die Texturen die darauf "geklebt" werden lächerlich aussehen. Aliasing ist eben nicht nur die Kante sondern eben auch das Flimmern in Bewegung, daher macht dein Beispiel mit dem Druck keinen Sinn da es sich hier nicht um ein bewegtes Bild handelt.Ja, ich geb zu das dieses Bsp. nicht passend ist. Trotzdem würde ich viel lieber auf einem 19" 300dpi LCD ohne AA ein Spiel mit, auf diese Res. angepassten Texturen, spielen, als eins mit heutigen Texturen auf einem gleich-großen LCD mit heute gängiger Auflösung und 100xAA. Ein Mioree was auf PLA TVs früher bei der Tagesschau an den Karierten Anzügen aufgetaucht ist siehst du auch aus 10 Meter Entfernung auf einem 43 cm TV obwohl dort keine harten Kontraste zu sehen sind.Karo ist der Ultra-Kontrast schlechthin.

Und btw ist es auch langsam ermüdend. Ich lese hier schon seit Ende 2001 mit und alle Jahre wieder kommt einer der den Sinn und die funktionsweise von AA nicht verstanden hat mit irgendwelchen Halbweisheiten. Les dir den Artikel durch, hat mir damals auch enorm geholfen.Ich weiß sehr wohl wozu AA da ist und was es tut. Vll. nicht jedes Detail, das brauche ich aber nicht, um zu erkennen das es nicht der Weisheit letzter Schluss ist.
......

Gast
2008-07-22, 13:04:46
ich würde immer eher 8192x6144 auf einem X-beliebigem Monitor bevorzugen statt 2048x1536@16xSSAA.

Spasstiger
2008-07-22, 13:06:57
ich würde immer eher 8192x6144 auf einem X-beliebigem Monitor bevorzugen statt 2048x1536@16xSSAA.
Das würde hier jeder tun. Aber es gibt keine Displays mit dieser Auflösung. Das ist doch der Pferdefuß an der Geschichte.
Außerdem kann man mit weit weniger Rechenleistung auch schon viel erreichen, MSAA + Transparenz-AA.

Xmas
2008-07-22, 13:10:07
Hohe Res. und KEIN AA ist der richtige Weg.
Da unendlich hohe Auflösung nicht realisierbar ist, ist hohe Auflösung und AA der richtige Weg.

Spasstiger
2008-07-22, 13:15:49
Da unendlich hohe Auflösung nicht realisierbar ist, ist hohe Auflösung und AA der richtige Weg.
Ab einer bestimmten Auflösung übernimmt das Auge die Tiefpassfilterung. Und die höhere Abtastrate wäre mit einer sehr hohen Auflösung auch gegeben.
Nur sind wir halt meilenweit von derart hochauflösenden Bildschirmen entfernt und selbst wenn es diese gäbe, wäre es immer noch sinnvoller, niedrigere Auflösungen mit schnellen AA-Verfahren wie MSAA zu nutzen (zumindest wenn die Rechenleistung begrenzt ist).

IVN
2008-07-22, 13:19:11
Da unendlich hohe Auflösung nicht realisierbar ist, ist hohe Auflösung und AA der richtige Weg.
Unendlich hohe Res. ist auch nicht nötig. Es reicht doch wenn man das menschliche Auge overpowert. Und das geht leichter als viele hier annehmen - absolut gesehen ist es trotzdem schwer.

Grestorn
2008-07-22, 13:22:33
Unendlich hohe Res. ist auch nicht nötig. Es reicht doch wenn man das menschliche Auge overpowert. Und das geht leichter als viele hier annehmen - absolut gesehen ist es trotzdem schwer.

Was wäre denn Deiner Meinung nach eine ausreichende Auflösung?

Ich denke, Du unterschätzt das Auge gewaltig. Wir können kleinste Details wahrnehmen, wenn sie sich bei Bewegung konträr zum Rest des Gesamtbildes verändern, und genau das passiert ja beim Aliasing.

Gast
2008-07-22, 13:23:44
15 oder mehr MP Bildschirm würde mich echt mehr reizen wie so ein 256xAA Modus. Aber wie ich mir denken kann werden Hersteller jede noch so kleine Mückensteigerung möglichst lang ausnutzen 1920x1200-->dann kommt 2300x1440--> irgendwann in 10-20 Jahren wird 2500x1600 Standard.

IVN
2008-07-22, 13:38:49
Was wäre denn Deiner Meinung nach eine ausreichende Auflösung?

Ich denke, Du unterschätzt das Auge gewaltig. Wir können kleinste Details wahrnehmen, wenn sie sich bei Bewegung konträr zum Rest des Gesamtbildes verändern, und genau das passiert ja beim Aliasing.
300dpi ist mMn der "Sweetspot."

Mir ist klar dass das Auge (oder besser die Augen) zu mehr imstande sind. Aber nur unter bestimmten Umständen. Optimale Beleuchtung, hoher Kontrast, und nichts was die Aufmerksamkeit auf sich lenkt.

Es ist klar das auch Unterschiede zw. 300dpi und 600 bemerkbar sind, das aber nur wenn man sich die beiden Bilder mehrere Male hintereinander ansieht. In bewegtem Medium hat man dafür kaum Zeit.

Und wie ich schon sagte. Die max. Res. der Augen wird mit S&W (wohl weil der Kontrast da am höhsten ist) und mit Symbolen auf weißem Hintergrund (keine Ablenkung) erreicht. Was in Spielen und Videos nie vorkommt.

Grestorn
2008-07-22, 13:50:14
300dpi ist mMn der "Sweetspot."

300dpi reichen nicht annähernd um Aliasing-Effekte in Bewegung für das Auge unsichtbar werden zu lassen.

Du sprichst immer von Standbildern und ignorierst wiederholt, dass das Auge Bewegungen anders wahrnimmt als statische Szenen.

ethrandil
2008-07-22, 14:33:37
Aaalso, laut wikipedia (http://de.wikipedia.org/wiki/Bildaufl%C3%B6sung#Sch.C3.A4rfe_eines_Bildes_.E2.80.93_Aufl.C3.B6sungsverm.C3.B6 gen_des_Auges) hat sehen wir ca 400dpi. Für ca 2x2 Antialiasing bräuchten wir also 800dpi. Das entspricht der 10fachen Auflösung meines tft-monitors also der 100fachen Pixelmenge.
Die Zeitliche Auflösung des Auges beträgt bis zu 90 Hz. Um auf der Zeitachse flimmern zu verringern, bauchen wir also ca 180 Hz das entspricht dem 5fachen des in Spielen praktisch notwendigen und dem dreifachen von auf tfts gut darstellbaren 60Hz.

In der Vergangenheit ist Rechenleistung schneller gestiegen als Auflösung. (Wir hatten 1998 standardmäßig 800x600 - das hat sich bis heute nur verdreifacht!) Sollte sich die Entwicklung fortsetzen ist AA auch weiterhin das Mittel der Wahl. Es ist einfach günstiger eine zweite Grafikkarte zum AA zu verbauen als einen Monitor mit doppelter Auflösung zu kaufen.

Es macht auch relativ wenig Sinn das AA durch "mehr pixel als das auge sehen kann" zu ersetzen - Dann kann man gleich genausoviele Pixel nehmen, wie das auge sehen kann (also 400 dpi) und AA machen - dann braucht man keine 800dpi und der Effekt des AA sollte keine 'schlimme' Unschärfe verursachen.

Und etwas scherzhaft: Die Fullscreen-Effekte werden dann eh künstlich Unschärfe wieder einbauen, weil nach dem schwimmen oder in actionreichen Szene kann man ja nicht so scharf gucken ;-)

Grestorn
2008-07-22, 15:09:38
In der Vergangenheit ist Rechenleistung schneller gestiegen als Auflösung. (Wir hatten 1998 standardmäßig 800x600 - das hat sich bis heute nur verdreifacht!)

800x600 = 480.000 Pixel
1920x1600 = 3.072.000 Pixel

Der Faktor ist also 6,4 und nicht "nur" 3.

Dem Rest Deines Postings stimme ich aber durchaus zu.

Gast
2008-07-22, 15:58:03
Das würde hier jeder tun.Nö, würde nicht jeder. Nicht immer ergibt die direkte Darstellung der Renderauflösung das angenehmste Bild. Das Beispiel Dynasty Warriors 5 Empires habe ich ja schon früher einmal gebracht: Stellt man die 360 auf 720p wird direkt die gerenderte Auflösung ausgegeben - und es flimmert stellenweise wie die Seuche. Stellt man die 360 auf 480p Letterbox (640x360) hat man 2x2 SSAA, was die Bildqualität erträglich macht.

hmx
2008-07-22, 16:25:01
......

1. Was hat Öko-Energie mit AA zu tun? Muss das sein dass in Foren immer so unsinnige Vergleiche kommen? Multisampling wird immer billiger sein als eine höhere Auflösung.

2. Das was ich mit Karo meine sind keine harten Kontraste. Das kann durchaus auch ein Karo mit hellbraun auf dunkelbraun sein und du siehst das Moiree. Polygonkanten haben immer solche Kontraste wenn kein AA zum Einsatz kommt.

@ Ethrandil: Interessant wäre mal nicht nur zu sehen wie sich die Auflösung vervielfacht hat sondern zu sehen was mit den DPI passiert ist, da dieser Wert für dieses Thema wesentlich aussagekräftiger ist. In der Zeit in der ein Sprung von 800x600 auf 1024x768 passiert ist sind nämlich auch die Monitore größer geworden.

Spasstiger
2008-07-22, 17:23:48
@ Ethrandil: Interessant wäre mal nicht nur zu sehen wie sich die Auflösung vervielfacht hat sondern zu sehen was mit den DPI passiert ist, da dieser Wert für dieses Thema wesentlich aussagekräftiger ist. In der Zeit in der ein Sprung von 800x600 auf 1024x768 passiert ist sind nämlich auch die Monitore größer geworden.
Guter Punkt!

Mitte 1998:
Mainstream (Voodoo 1, Riva 128) = 640x480 @ 15 Zoll/14 Zoll sichtbar => 57 pixels per inch
High-End (Voodoo 2 SLI) = 1024x768 @ 17 Zoll/16 Zoll sichtbar => 80 pixels per inch

Mitte 2008:
Mainstream = 1280x1024 @ 19 Zoll sichtbar => 86 pixels per inch
High-End = 1920x1200 @ 24 Zoll sichtbar => 94 pixels per inch

Bis zur Voodoo 5 war FSAA allerdings auch undenkbar, breitere Anwendung fand es erst in Form von MSAA mit der Radeon 9700.

Pinoccio
2008-07-22, 17:40:57
dpiDa vielerlei Software nicht flexibel war, sich auf unterschiedliche DPI der Monitore anzupassen, gab es zumindest im Windows-Bereich, also wo auch gespielt wird und somit AA für die breite Masse interessant ist, wenig Bestrebungen, die Auflösung zu erhöhen.

"Das Lenovo-Display hat mit 1440 x 900 Pixeln eine höhere Auflösung als das Macbook (1280 x 800). Allerdings führt dies dazu, dass die Schrift sehr klein bzw. bei der Wahl einer niedrigeren Auflösung unscharf wird."
WELT Online am 07.05.2008 (http://www.welt.de/webwelt/article1973945/Lenovos_Notebook_passt_in_einen_Briefumschlag.html).

mfg

Gast
2008-07-22, 18:08:24
Etwas grob gerechnet haben wir bei 8196x6144@21" 4:3 ca. 500dpi (489 genau). Das wäre zukünftiges Overkill. Aber heute für die Hälfte von dpi bräuchte man ein anständiges Monitor der etwa bei 21" ~4000x3000 schafft; 3200x2400 wären aber auch schon recht...

hmx
2008-07-22, 18:22:31
Etwas grob gerechnet haben wir bei 8196x6144@21" 4:3 ca. 500dpi (489 genau). Das wäre zukünftiges Overkill. Aber heute für die Hälfte von dpi bräuchte man ein anständiges Monitor der etwa bei 21" ~4000x3000 schafft; 3200x2400 wären aber auch schon recht...

Zusätzlich muss sich auch die Rechenleistung der Grafikkarten vervielfachen ohne dass sich der Content der Spiele technisch verbessert. Daran sieht man schon dass dieser Weg nicht gangbar ist und sein wird.

Gast
2008-07-22, 18:38:50
Zusätzlich muss sich auch die Rechenleistung der Grafikkarten vervielfachen ohne dass sich der Content der Spiele technisch verbessert. Daran sieht man schon dass dieser Weg nicht gangbar ist und sein wird.
Ja natürlich. Die Grafikkarten müssen auch entsprechende Anschlüsse bieten. Obwohl wir schon diesen Weg teilweise gehen. Zwar nicht mit hohen dpi aber dank Surround Gaming. Beides wäre natürlich noch lieber ;D

Savay
2008-07-22, 20:31:19
nein, da 4 mal eine Periode a 2 Jahre(bestenfalls 18 Monate)

heute: einfache leistung
2009: doppelte
2011: 4fache
2013: 8fache
2015 16fache

;)


bezieht sich moores law nicht eigentlich auf die transistor menge?! :rolleyes:
früher war das mal noch sehr schlüssig doppelte transistor zahl mit doppelter leistung gleichzusetzen aber das dürfte langsam nicht mehr (immer) gelten.

Coda
2008-07-22, 21:09:44
Bei CPUs nicht, aber bei GPUs passt es immer noch sehr gut da man da wunderbar parallelisieren kann.

Gast
2008-07-22, 21:24:54
Auflösung ist ja auch ungleich dpi. Was nützt mir ein 180" LCD mit xxxxXxxxx wenn er nur dpi eines 17 Zöllers@640x480 besitzt. Ähm, rechnet mal aus wie gross ist dpi von einem 2560x1600 30 zöller.

JaDz
2008-07-22, 21:38:15
Auflösung ist ja auch ungleich dpi. Was nützt mir ein 180" LCD mit xxxxXxxxx wenn er nur dpi eines 17 Zöllers@640x480 besitzt. Ähm, rechnet mal aus wie gross ist dpi von einem 2560x1600 30 zöller.
Ca. 100.

http://members.ping.de/~sven/dpi.html

Savay
2008-07-22, 22:14:36
Bei CPUs nicht, aber bei GPUs passt es immer noch sehr gut da man da wunderbar parallelisieren kann.

naja aber auch das hat seine grenzen wie der GT200 relativ eindrucksvoll zeigt ;)

es kommt ja noch drauf an wo die transistoren investiert werden

Gast
2008-07-22, 22:53:36
IBMs berühmter 3840x2400 TFT hat 204dpi. Nächster Schritt auf dem Riesendisplay Markt könnte sein 3840x2400 30"@60Hz =150dpi. Was das erst kostet...

Aquaschaf
2008-07-23, 01:06:36
naja aber auch das hat seine grenzen wie der GT200 relativ eindrucksvoll zeigt ;)

Das hat doch überhaupt keinen Zusammenhang dazu. Die Grenzen der Parallelisierbarkeit wird man vermutlich nie erreichen bei diesem Problem.

Gast
2008-07-23, 01:49:35
Auflösung ist ja auch ungleich dpi. Was nützt mir ein 180" LCD mit xxxxXxxxx wenn er nur dpi eines 17 Zöllers@640x480 besitzt. Ähm, rechnet mal aus wie gross ist dpi von einem 2560x1600 30 zöller.

Naja, wenn du 180" hast wirst du auch entsprechend weit davon entfernt sitzen, sagen wir mal 50x so weit weg wie vor einem 17" Monitor -> dann ist es für dich immer noch gut doppelt so scharf wie bei eben jenem...

Spasstiger
2008-07-23, 09:13:33
Zusätzlich muss sich auch die Rechenleistung der Grafikkarten vervielfachen ohne dass sich der Content der Spiele technisch verbessert. Daran sieht man schon dass dieser Weg nicht gangbar ist und sein wird.
Wenn man irgendwann das Uncanny Valley (http://de.wikipedia.org/wiki/Uncanny_Valley) erreicht, wird man sich vielleicht weniger auf die Effektdichte und den Detailgrad als auf die Auflösung konzentrieren, weil man sonst mit mäßigem Anstieg der Rechenleistung kaum noch eine deutliche Verbesserung der wahrgenommenen Optik erreichen wird.
Zur Zeit gibts aber noch vieles abseits der Auflösung zu verbessern.

aths
2008-07-23, 18:01:43
Wenn man irgendwann das Uncanny Valley (http://de.wikipedia.org/wiki/Uncanny_Valley) erreicht, wird man sich vielleicht weniger auf die Effektdichte und den Detailgrad als auf die Auflösung konzentrieren, weil man sonst mit mäßigem Anstieg der Rechenleistung kaum noch eine deutliche Verbesserung der wahrgenommenen Optik erreichen wird.
Zur Zeit gibts aber noch vieles abseits der Auflösung zu verbessern.Auflösung bringt dann auch nix mehr. Eher wird die Künstlichkeit noch verstärkt.

DVD-Filme (NTSC) haben 480 Zeilen Bildauflösung und bieten trotzdem realistischere Bilder als jedes Game welches in Ultra-X-Q-Superduper-VGA rendert.

Gast
2008-07-23, 18:34:05
Auflösung bringt dann auch nix mehr. Eher wird die Künstlichkeit noch verstärkt.

DVD-Filme (NTSC) haben 480 Zeilen Bildauflösung und bieten trotzdem realistischere Bilder als jedes Game welches in Ultra-X-Q-Superduper-VGA rendert.
Bei einer super-duper ultra_X VGA Auflösung+AA mutiert ein gewöhnliches Spiel zu einem bewegten Kunstobjekt. Hast schon mal schönes klassisches Gemälde betrachtet? So wird ein Spiel aussehen nur interaktiv.

aths
2008-07-23, 19:46:11
Bei einer super-duper ultra_X VGA Auflösung+AA mutiert ein gewöhnliches Spiel zu einem bewegten Kunstobjekt. Hast schon mal schönes klassisches Gemälde betrachtet? So wird ein Spiel aussehen nur interaktiv.Der Stil klassischer Gemälde wird doch nicht durch ultrahohe Auflösung erreicht. Es sollten auch nicht alle Spiele wie ein klassisches Gemälde aussehen.

Gast
2008-07-23, 20:01:07
Nein natürlich nicht. Schon deswegen nicht weil nicht alle so genial sind...

Ein Bildschirm mit einer Ausgabe in druckqualität [~300dpi) nimmst du wie ein Bild wahr. Ob das eine 3D Szene ist oder was anderes ist völlig Banane - das sieht aus wie gedruckt. Punkt.

Coda
2008-07-23, 22:39:42
Beim Druck wird aber auch Anti-Aliasing verwendet.

Gast
2008-07-24, 00:36:20
Anti-Aliasing ist überall unverzichtbar. Das wertet das Bild nochmals auf je mehr desto besser.

aths
2008-07-27, 12:48:34
Nein natürlich nicht. Schon deswegen nicht weil nicht alle so genial sind...

Ein Bildschirm mit einer Ausgabe in druckqualität [~300dpi) nimmst du wie ein Bild wahr. Ob das eine 3D Szene ist oder was anderes ist völlig Banane - das sieht aus wie gedruckt. Punkt.Und jetzt ist die Diskussion beendet? Bei Verletzung des Nyquist-Kriteriums flimmert es auch mit 300 dpi. Es lässt sich sehr einfach Geometrie dafür konstruieren.

Gast
2008-07-27, 13:13:26
Und jetzt ist die Diskussion beendet? Bei Verletzung des Nyquist-Kriteriums flimmert es auch mit 300 dpi. Es lässt sich sehr einfach Geometrie dafür konstruieren.
Bei 300dpi ist es sowas von egal ob was flimmert oder nicht... Dann nimmst du halt 2xAA.

aths
2008-07-27, 13:20:46
Bei 300dpi ist es sowas von egal ob was flimmert oder nicht... Dann nimmst du halt 2xAA.Das optisch bessere Ergebnis wird bei 150 dpi und 8x sparse AA mit vernünftigem Downfilter erreicht. Man braucht nicht mal einen größeren Framebuffer, gelangt aber zu einer EER (edge equivalent resolution) von 1200 dpi statt von nur 600 dpi.

Bei 2x AA hat man auch keinen großen Spielraum für Downfilter die besser sind als Box-Filter. Bei 8x AA lassen sich schon vernünftige Tent-Filter realisieren.

Gast
2008-07-27, 13:22:12
21" Monitor; eine 4:3 Auflösung 6000x4500; für 60Hz über 260Khz; Ramdac 2000Mhz; 360dpi .

Äusserst realistische Aussichten über was wir hier diskutieren. ;D

Bis das möglich wird gibts AA for free.

Gast
2008-07-27, 13:30:09
Das optisch bessere Ergebnis wird bei 150 dpi und 8x sparse AA mit vernünftigem Downfilter erreicht. Man braucht nicht mal einen größeren Framebuffer, gelangt aber zu einer EER (edge equivalent resolution) von 1200 dpi statt von nur 600 dpi.

Bei 2x AA hat man auch keinen großen Spielraum für Downfilter die besser sind als Box-Filter. Bei 8x AA lassen sich schon vernünftige Tent-Filter realisieren.

Mit Sicherheit nicht. Du kannst reale dpi niemals durch AA ersetzen. Ausserdem sind 150dpi ganz schön wenig auf 21" nur 2533x1900.

ethrandil
2008-07-27, 17:49:56
Bei 300dpi ist es sowas von egal ob was flimmert oder nicht... Dann nimmst du halt 2xAA.
Also, alle die hier über "hohes AA ist egal bei hoher Auflösung" diskutieren hört her, ich habe euren Traum visualisiert.

Ich habe ein Foto genommen und es auf 25% Seitenlänge verkleinert. Das wäre das Bild, das auf einem sehr hochauflösendem Monitor angezeigt würde. Beim Erzeugen des Bildes verwendete ich folgende Methoden (von links nach rechts):
* Kein AA
* Bikubische Filterung ('quasi' mit AA)
* Gaussglättung + diskrete Abtastung

Weil es hier auch um das Flimmern geht, habe ich das auch noch für zwei leicht verschobene Fotos gemacht und die Ergebnisse in ein Gif mit ca. 60Hz gespeichert.

Eure These ist, dass man AA nicht braucht, weil das Auge das AA dann selber macht - der hohen Auflösung sei Dank. Darum habe ich die obigen drei Bilder nochmals - mit AA - verkleinert. Das entspricht in Etwa dem Effekt, den unser Blick auf das Monitorbild hätte.

Hier ist das Bild nachdem es nochmals auf 25% verkleinert wurde. Ein Monitor, der diesen Effekt zeigt hat also ca die 16fache Pixeldichte.
http://img520.imageshack.us/img520/986/canon350danimationlowsy8.gif

Hier ist das Bild mit nur 50% verkleinerung (4fache Pixeldichte):
http://img528.imageshack.us/img528/1008/canon350danimationmidnt5.gif

Ein Ausschnitt des Originalbildes ohne folgendes Verkleinern:
http://img169.imageshack.us/img169/9350/canon350danimationhighqc1.th.gif (http://img169.imageshack.us/my.php?image=canon350danimationhighqc1.gif)

Ich habe das Bild in X-Richtung um 1 und 2 Pixel verschoben. Auch im kleinsten Bild sehe ich an der horizontalen Kante in der Mitte starkes Flimmern.
Für mich sieht das so aus, als ob wir AA auch weiterhin brauchen. Ich ahlte die Diskussion um diesen Punkt damit für beendet. :rolleyes:

- eth

Gast
2008-07-27, 17:57:58
Cool, thx! Aber ich befürchte, die Bilder lösen Migräne aus ;) Welchen AA-Varianten entsprechen denn Bikubischer und Gauss-Filter? Letzterer wird ja wohl kaum angewandt, wegen des Aufwands, sehe ich das richtig?

ethrandil
2008-07-27, 18:15:00
Das tut mir leid ;-) Dann lieber schnell weggucken *g*.

Also - das ist nicht ganz leicht, weil kubisches Downsampling stark nicht-linear ist. Das ist auf jeden Fall mehr als 'simples' Antialiasing. Dabei werden jedenfalls 4x4=16 Punkte zur Rechnung verwendet. Theoretisch könnte man das auch zum AA verwenden nur glaube ich, dass Gauss da eher noch schneller zu berechnen ist.

Gauss lässt sich durchaus effizient implementieren - jedenfalls näherungsweise für hinreichend kleine Filtergrößen. Das sollte eine Grafikkarte eigentlich schaffen. Im Grunde muss man nur die Subpixel geschickt gewichten - dann sollte man mit 16x AA schon gute Ergebnisse bekommen ;-).

- eth

aths
2008-07-27, 22:26:30
Mit Sicherheit nicht. Du kannst reale dpi niemals durch AA ersetzen. Ausserdem sind 150dpi ganz schön wenig auf 21" nur 2533x1900.Man benötigt keine ultrahohe DPI für ausreichend detaillierten Darstellungen. Vernünftige Texturfilterung und geometrisches Antialiasing sind deutlich effizienter um eine gute Rekonstruktion des Inhalts zu erreichen, als stur in hoher Pixeldichte zu rendern.

Wie gesagt hat man mit 150 dpi und 8x sparse grid AA eine bessere (doppelt so gute) Kantenauflösung als mit 300 dpi und 2x sparse grid AA. Es ergibt für die Darstellungsqualität von Bewegtbildern keinen Sinn, ultrahohe Pixeldichte zu nehmen wenn dafür am Antialiasing gespart werden muss.

In erster Näherung berechnet sich Bildqualität pro Fläche aus Pixelzahl mal Pixelqualität. Die Bildqualität lässt sich derzeit noch durch Pixelqualität wesentlich effizienter verbessern als durch eine Erhöhung der Pixelzahl (also auf die Fläche gerechnet dann Pixeldichte.) "Reale dpi" bringen wenig wenn die Qualität pro Pixel gleich bleibt. Es ist praktisch ordered grid Supersampling ohne anschließendes Downfiltering – also ineffizient.

Das festhalten an "echter Auflösung" als bester Qualitätsbringer geht von der falschen Annahme aus, dass die auf herkömmliche Art berechnete Pixelfarbe bereits eine sehr gute Näherung der optimalen Pixelfarbe sei.

Tesseract
2008-07-27, 22:34:20
Du kannst reale dpi niemals durch AA ersetzen.

es geht auch nicht darum auflösung 1:1 durch AA zu ersetzen sondern darum, was du für welchen rechenaufwand (bzw. produktionsaufwand) bekommst.

und da bekommst du durch ordentliches AA bzw. texturfilterung für den ähnlichen rechenaufwand (oder produktionskosten im falle des displays) das wesentlich bessere gesamtbild.

natürlich kommst du mit auflösung irgendwann immer ans ziel. die frage ist nur wie sinnvoll das ist. du kommst auch überall hin wenn du immer nur nach links abbiegst. schnell bist du damit aber wohl in den wenigsten fällen.