PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ausschließlich mit AA + AF benchen?


Nukeproof
2007-01-05, 12:42:01
Ich stell' mir die Frage schon länger:

Warum führt ihr Benchmarks in zig verschiedenen Setups, aber fast auschließlich mit sehr hohen AF, AA Einstellungen durch?

Für Enthusiasten mag es ja interessant sein zu sehen, was man mit moderner Hardware jetzt aus aktuellen Titeln rausholen kann. Da steht dann die Frage im Vordergrund: Wann rüste ich auf, um echte Vorteile gegenüber meiner aktuellen Hardware zu haben?

Mich (und ich denke noch viele andere) interessiert aber viel mehr: Wie laufen die Titel von heute und morgen mit Durchschnitts/Minimalsettings auf meinem System?

Wenn ich das optimale Setting für anspruchsvolle Titel suche, schalte ich die Filterung ganz runter und AA ab. Bei 800 x 600 schalte ich allen optionalen eyecandy der engine ein (Schatten, HDR, etc.), schaue ob's flüssig läuft und stelle dann ggf. die Auflösung hoch. Erst ab 1280 x 1024 mach' ich mir Gedanken, ob ich an AA und AF rumspiele.

Auflösung und Grafikfeatures tragen meiner Meinung nach viel mehr zum optischen Eindruck bei, als das überbewertete und Performance killende AF+AA.

Wenn ich irgendwann soviel abschalten muss, dass das ganze nur noch entäuschend aussieht, ist es Zeit aufzurüsten. (Bis dahin sind hoffentlich 1,5-2 Jahre seit der letzten Aufrüstung vergangen.) Ich denke, dass ist für die Mehrheit der Zocker der Maßstab - nicht, ob ich durch frühzeitiges Aufrüsten noch 2-3 Stufen AA/AF hochschalten kann...

Dazu wäre es meiner Ansicht nach sinnvoll, aktuelle Titel auch ganz ohne AA+AF zu benchen, ggf. in hoher Auflösung um die CPU Limitierung zu umgehen.

Auf die für mich entscheidende Frage: werde ich bei anstehender Aufrüstung mit einer X1950 Pro / XT oder einer GF 7950 GT, mit 256 oder 512 MB vorraussichtlich länger Freude (ohne AF/AA) haben, geben eure aufwendigen Test leider kaum Aufschluss....

Bei der letzten Aufrüstung GF6800 oder Radeon X800 übrigens auch nicht ;)

Ronny G.
2007-01-05, 12:48:14
Für mich sind Games ohne AA und AF nicht so der Prüller, es störte mich schon sehr in Gothic3 ohne AA zu zocken, gerade in den Städten wo viele Hütten standen sah es ohne geglättete Kanten doch sehr schlecht aus.
Ohne AA/AF wirkt halt vieles matschiger und unklar, eher Konsolenartig.

Bei den Benches geht es halt die Grafikarte zu fordern, bzw. zu sehen wie diese nun einbrechen wird oder auch nicht.

sei laut
2007-01-05, 12:57:52
Bei den Benches geht es halt die Grafikarte zu fordern, bzw. zu sehen wie diese nun einbrechen wird oder auch nicht.

Das ist der Punkt. Wenn ich sehen will, wieviel die CPU packt, kleine Auflösung, kein aa und kein af.
Will ich aber sehen, wann die Grafikkarte an ihre Grenzen kommt, muss man halt die Grafikeinstellungen hochschrauben.

James Ryan
2007-01-05, 13:23:14
Aktuelle High-End Karten haben soviel Leistung, dass FSAA und AF einfach ein Muss sind um die Graka überhaupt noch zu fordern.
Außerdem ist FSAA und AF für mich seit meiner Geforce 1 DDR(!) einfach Pflicht, ohne sehen Spiele einfach schlechter aus.

MfG :cool:

paul.muad.dib
2007-01-05, 14:14:27
Lies das mal: http://www.3dcenter.de/artikel/2004/12-20.php

Die Einstellung 1024x768 +2xAF +2xAA sieht besser aus als 1280x1024 ohne AA, AF. Gleiches gilt für 800x600 vs. 1024x768.

Anders ausgedrückt: Es macht mehr Sinn, zuerst AA/AF einzuschalten und dann mit der Auflösung hochzugehen.

Spasstiger
2007-01-05, 14:14:56
Auf die für mich entscheidende Frage: werde ich bei anstehender Aufrüstung mit einer X1950 Pro / XT oder einer GF 7950 GT, mit 256 oder 512 MB vorraussichtlich länger Freude (ohne AF/AA) haben, geben eure aufwendigen Test leider kaum Aufschluss....
Dann schau doch die CPU-Benchmarks an, die werden in 800x600 bei vollen Details ohne AA/AF gemacht.

AF zumindest ist aber für mich ein Pflichtfeature, denn was nutzen z.B. hohe Texturauflösungen, wenn in 5 m Entfernung doch wieder alles matschig ist?!

The_Invisible
2007-01-05, 15:26:12
Lies das mal: http://www.3dcenter.de/artikel/2004/12-20.php

Die Einstellung 1024x768 +2xAF +2xAA sieht besser aus als 1280x1024 ohne AA, AF. Gleiches gilt für 800x600 vs. 1024x768.

Anders ausgedrückt: Es macht mehr Sinn, zuerst AA/AF einzuschalten und dann mit der Auflösung hochzugehen.

nö, mit höherer auflösung gibt es mehr bilddetails, darum bevorzuge ich auch immer eine höhere auflösung vor aa wenn es knapp wird. af sollte aber min immer auf 4x stehen.

mfg

lilgefo~
2007-01-05, 15:27:11
Lies das mal: http://www.3dcenter.de/artikel/2004/12-20.php

Die Einstellung 1024x768 +2xAF +2xAA sieht besser aus als 1280x1024 ohne AA, AF. Gleiches gilt für 800x600 vs. 1024x768.

Anders ausgedrückt: Es macht mehr Sinn, zuerst AA/AF einzuschalten und dann mit der Auflösung hochzugehen.

naja kommt auf den monitor an bei nem snadard tft wuerd ich eher die optimale aufloesung nehmen als interpoliertes matschbild mit aa

Spasstiger
2007-01-05, 15:55:14
nö, mit höherer auflösung gibt es mehr bilddetails, darum bevorzuge ich auch immer eine höhere auflösung vor aa wenn es knapp wird. af sollte aber min immer auf 4x stehen.

mfg
Mit 4xMSAA fließt die vierfache Bildinformation an Polygonkanten mit ein, da müsste man von 1280x1024 die Auflösung auf 2560x2048 hochsetzen, um Kanten mit dem selben Detailgrad gerechnet zu bekommen.
Besonders stark macht sich das bemerkbar, wenn sich mehrere kleine Polygone auf einem Pixel überlagern, z.B. bei Stromleitungen. Bei gängigen Auflösungen ohne AA nimmt man hier immer ein Flimmern wahr, da halt immer nur die Farbinformation eines Polygons in das Pixel mit einfließt. Und manchmal ist das die Farbinformation des Himmels dahinter, manchmal die einer Stromleitung, manchmal die einer anderen. Mit AA fließen all diese Farbinformationen zusammen in das Pixel mit ein (je nach Anzahl und Position der AA-Samples).

naja kommt auf den monitor an bei nem snadard tft wuerd ich eher die optimale aufloesung nehmen als interpoliertes matschbild mit aa
Sehe ich auch so. Mit einem TFT sollte man immer die native Auflösung fahren, AA kann man dann bei vorhandenen Leistungsreserven immer noch aktivieren. Auf einem CRT ziehe ich aber 1024x768 mit 4xAA einer Auflösung von 1280x960 ohne AA klar vor. Bei meiner Radeon 9700 laufen beide Einstellungen interessanterweise sogar meist gleichschnell. Gut anno 2002 und Anfang 2003 hab ich auch meist 1280x960 mit 6xAA an gehabt, mit den damaligen Spielen ging das noch. Damals wurde man ja auch noch belächelt, mit solchen Einstellungen zu spielen. Da hat man sich anhören müssen, dass man bei 1280x960 überhaupt kein AA bräuchte. Waren halt neidische GeForce-4-Ti-User. ;)

Hobby
2007-01-05, 16:09:29
Für mich als Gelegenheits- bis Nongamer sind die Werte auch nicht so von Interesse, zumal bei Auflösungen von 1280 x 1024 x 32 der Treppcheneffekt ( AA ) für mein Auge kaum noch eine Rolle spielt.

Für mich eine Frage der Wahrnehmung, wobei ich zugebe das bei 640 x 480 und 800 x 600 das Bild ohne AA schrecklich aussieht. Aber die meisten Grafikkarten packen ja locker 1280 x 1024 x 32 flüssig ohne AA und AF.

Ronny G.
2007-01-05, 16:21:16
Dann schau doch die CPU-Benchmarks an, die werden in 800x600 bei vollen Details ohne AA/AF gemacht.


Die Auflösung allein sagt doch aber nichts über die Grafiklast aus, es gibt auch engines die bei 1024x768 stark CPU-lastig(Limitierend) sind.

Spasstiger
2007-01-05, 16:32:06
Die Auflösung allein sagt doch aber nichts über die Grafiklast aus, es gibt auch engines die bei 1024x768 stark CPU-lastig(Limitierend) sind.
Ja, ich schreibe ja auch, dass er sich die (CPU-limitierten) CPU-Tests anschauen soll. Da hat er Ergebnisse in seiner gewünschten Einstellung. Dass es absurd ist und in meinem Posting ein wenig Ironie mit drin steckt, wollte ich nicht so deutlich sagen. Ich wollte eigentlich, dass er selber draufkommt.

paul.muad.dib
2007-01-05, 18:37:39
Um mit Auflösung die BQ von 1024x768 2xAA, 2x AF zu bekommen, müsste man eine Auflösung von 2048x1536 fahren.

Sehe ich auch so. Mit einem TFT sollte man immer die native Auflösung fahren, AA kann man dann bei vorhandenen Leistungsreserven immer noch aktivieren.

Ich fand Oblivion auf meiner X800 XT mit 4AA in 1024x768 deutlich angenehmer auf meinem TFT. So stark sehe ich die Verluste bei Interpolation gar nicht.
Liegt aber vielleicht daran, dass mir Texturschärfe generell nicht so stark auffällt, auch AF ist mir nicht so wichtig, mich stört vor allem das Geflimmere der Kanten.



Für mich als Gelegenheits- bis Nongamer sind die Werte auch nicht so von Interesse, zumal bei Auflösungen von 1280 x 1024 x 32 der Treppcheneffekt ( AA ) für mein Auge kaum noch eine Rolle spielt.

Für mich eine Frage der Wahrnehmung, wobei ich zugebe das bei 640 x 480 und 800 x 600 das Bild ohne AA schrecklich aussieht. Aber die meisten Grafikkarten packen ja locker 1280 x 1024 x 32 flüssig ohne AA und AF.

Finde ich krass, dass du das nicht wahrnimmst. Mir fällt das Flimmern der Kanten in Bewegung sofort ins Auge.


Eure Einwände greifen hier aber imo trotzdem nicht, weil im Test einfach keiner Einsteigerkarten vermessen wurden. Diese Karten sind nur für Leute interessant, die AA, AF auch einsetzen wollen. Für deine Präferenzen solltest du besser nach Tests mit X1650 und 7600 Karten schauen.

Mr. Lolman
2007-01-05, 18:42:27
Pics ansehen und verstehen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4959774#post4959774

Madkiller
2007-01-05, 20:31:49
Ist hier besser aufgehoben. :)

*move*

Ontopic:
Also 4xAF ist bei mir ein Muß. Da gehe ich lieber mit den Details runter, bevor das aus gemacht wird (aber ok, braucht eh nicht viel).
Details bleiben bei mir eigentlich auch immer @maximum, solange ich mindestens ne 1280er Auflösung hin bekomme. Nur bei Schatten und Lichteffekte spar ich gern - ist mir nicht so wichtig.
Wenn ich natürlich bei meinem TFT die native Auflösung von 1680x1050 hinbekomme, und noch Reserven über sind, werden die in FSAA investiert. Und dann erst in Transparenz-AA.
Höhere Auflösungen sind mir wegen der höheren Texturqualität wichtiger als AA.
Klar, bei 4xMSAA hat man an den Kanten pro Pixel 4 Farbinformantionen. Aber das ändert nichts daran, daß der Pixel nur ein Mischmasch aus diesen Informationen ist.
Alles über 4xAA ist meiner Meinung nach nicht mehr schön. Die Übergänge werden mir einfach zu weich.. zu wenig Kontrast. :)
Dennoch ist AA natürlich eine Wohltat um das Flimmern zu reduzieren.

Coda
2007-01-05, 21:31:57
Alles über 4xAA ist meiner Meinung nach nicht mehr schön. Die Übergänge werden mir einfach zu weich.. zu wenig Kontrast. :)

Errr.... Egal. Ich spar mir's einfach.

Raff
2007-01-05, 23:53:01
Errr.... Egal. Ich spar mir's einfach.

Du wirst doch zugeben, dass das nicht mehr als Spam ist. Du scheinst massig Fachwissen zu haben, also lass die unwissende Welt doch daran teilhaben.

Dass AA dem Bild Informationen hinzufügt und nicht blurrt, wissen die meisten mittlerweile sicher – falls du das sagen wolltest. ;)

MfG,
Raff

erwingage
2007-01-06, 01:56:53
AA&AF@HQ sind in jedem game unverzichtbar:wink:
beim bench bin ich für ohne AA&AF:wink:

Coda
2007-01-06, 02:38:17
Wieso das denn? CPU-Bench oder wie?

misterh
2007-01-06, 02:53:31
Wieso das denn? CPU-Bench oder wie?

mehr Pkt?

@Topic

Bin für Games

auf standard zu setzen ala 1280x1024 4x/16x

benchmark ala 3dmarks ohne AA/AF

aths
2007-01-06, 05:39:03
Auf die für mich entscheidende Frage: werde ich bei anstehender Aufrüstung mit einer X1950 Pro / XT oder einer GF 7950 GT, mit 256 oder 512 MB vorraussichtlich länger Freude (ohne AF/AA) haben, geben eure aufwendigen Test leider kaum Aufschluss....

Bei der letzten Aufrüstung GF6800 oder Radeon X800 übrigens auch nicht ;)Seitdem ich eine Voodoo 4 4500 hatte, spiele ich nur noch mit AA. Seit der GeForce 4 Ti 4600 nur noch mit AA und AF. Seither hatte ich eine Radeon 9600 (ohne Pro oder Ultra), eine FX 5900 XT, eine 6600 GT, eine 9700 Mobile (vergleichbar mit Radeon 9600 Pro bei langsamerem Speicher) und eine 7600 GT. Nie würde mir einfallen, ohne Antialiasing oder anisotrope Filterung zu spielen.

Denn der optische Qualitätsgewinn ist erheblich im Vergleich zu dem, was an Framerate verloren geht.

aths
2007-01-06, 06:35:06
Du wirst doch zugeben, dass das nicht mehr als Spam ist. Du scheinst massig Fachwissen zu haben, also lass die unwissende Welt doch daran teilhaben.

Dass AA dem Bild Informationen hinzufügt und nicht blurrt, wissen die meisten mittlerweile sicher – falls du das sagen wolltest. ;)Etwas Randsubpixel-Blur würde die Qualität weiter steigern als das der heute verwendete Boxfilter liefert. Das heißt, dass heutiges 8x AA noch immer zu scharf ist.

Madkiller
2007-01-06, 10:33:35
Errr.... Egal. Ich spar mir's einfach.
Welche Probleme hast du denn mit meiner persönlichen Meinung?

Dass AA dem Bild Informationen hinzufügt und nicht blurrt, wissen die meisten mittlerweile sicher – falls du das sagen wolltest. ;)

MfG,
Raff
Genau das schrieb ich doch einen Absatz über dem den Coda zitiert hat.
Und ich schrieb auch ganz klar von meinen Vorlieben, nicht von irgend etwas allgemeingültigem. Ich begründete das sogar! Ich bin auch was das Thema AA im Allgemeinen angeht, einer Meinung mit Mr. Lolman

Nukeproof
2007-01-07, 13:34:07
Also ehrlich gesagt hat mich eure Argumentation nicht überzeugt.

Hier (auf 3dcenter) wird bei jedem größeren Benchmark viel Aufmerksamkeit der Vergleichbarkeit von nvidia und Ati bezüglich AA und AF gewidmet. Dann bencht man fast ein Dutzend verschiedene Setups, diskutiert auf mehreren Seiten die Vor-/Nachteile der einzelnen Methoden, nur die einfachste und naheliegenste Konfiguration, die fast 100% vergleichbar ist (kein AA nur bi- oder trilineare Filterung) wird nicht nicht mal ermittelt?

Ich hab' ja geschrieben, dass man z.T. hohe Auflösungen und eine starke CPU braucht um sinnvolle Ergebnisse zu bekommen, aber es gibt aktuelle Games die schon bei 1024x768 ohne AF+AA deutliche Performanceunterschiede bei highende Grafikkarten aufzeigen.

siehe jeweils 1. Benchmark

http://hardware.thgweb.de/2006/12/20/his_radeon_x1950xt_und_x1650xt/page11.html
http://hardware.thgweb.de/2006/12/20/his_radeon_x1950xt_und_x1650xt/page13.html
http://hardware.thgweb.de/2006/12/20/his_radeon_x1950xt_und_x1650xt/page14.html

Bei 1600x1200 und mehr mit einem E6800 sind aktuelle Titel wohl eher selten CPU limitiert.

Im Übrigen zeigt z.B. der 2. link, dass für eine GF7800 ohne AA/AF rund 54% schneller ist als mit 4xAA+8xAF. Das kann der Unterschied zwischen spielbar und unspielbar sein.

Im Gegensatz zu einer höheren Auflösung verbessert AA überhaupt nicht den Detailgrad des Bildes, sondern kaschiert nur den Treppeneffekt. Dazu die bekannten Probleme mit HDR und transparenten Texturen... find ich's ziemlich unspektakulär. Schatten- oder Lichteffekte der engine, würd' ich jedenfalls nie für AA abschalten.

Alte Games spiele ich jedenfalls lieber in sehr hohen Auflösungen z.B. 1600x1200. Den unterschied mit/ohne AA sehe ich auf meiner 22" Röhre nicht.

Auf die Idee aufzurüsten, sobald ich auf AA verzichten muss, komme ich jedenfalls im Leben nicht.

Ich will ja auch keinem seine Lieblingssettings ausreden - ich verstehe hier nur nicht, warum man angesichts des hohen Gesamtaufwandes eines Bench-Artikels, nicht die 2 Minuten extra investiert und die "Rohperformance" auch noch ermittelt. Ich wäre bestimmt nicht der einzige, der einen Blick drauf werfen würde...

Spasstiger
2007-01-07, 13:40:42
Im Gegensatz zu einer höheren Auflösung verbessert AA überhaupt nicht den Detailgrad des Bildes, sondern kaschiert nur den Treppeneffekt.
AA erhöht den Detailgrad, da mehr Samples in die Berechnung eines Pixels mit einfließen (Oversampling mit anschließendem Downsampling).

Mr. Lolman
2007-01-07, 13:56:40
Nukeproof: Ich bitte dich an dieser Stelle höflichst, dich einmal über das Funktionsprinzip von AA (und auch AF) zu informieren. Ein gutes (rotated oder sparse) grid AA erhöht den Detailgrad eines Bildes mehr, als es eine doppelte Abtastung beider Achsen (sprich 4x höhere Auflösung) könnte.

Deswegen poste ich hier nochmal den Link: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4959774#post4959774

In dem 2048x1536 Bild sieht man immernoch Löcher im Geländer. Im 1024x768 AA Bild ist das Geländer durchgängig. Durch die geschickte Subpixelanordnung heutiger AA Modi hat ein 1024x768 4xAA Bild, den selben Detailgrad wie ein 4096x3072 Bild. Sieht man auch 2 Posts über meinem verlinkten.

AA/AF sind Bildverbesserungsmodi, die heute nicht mehr wegzudenken sind. Auch wenn heutige Grafikkarten immernoch um bis zu 50% ggü. noAA/AF einbrechen, ist es sinnfrei heutige Highendkarten in niedrigen Auflösungen ohne AA/AF zu erbenchen.

Solche Settings sind einfach nicht das gedachte Einsatzgebiet von Highendkarten. (Bei Lowend GraKatests ist deine Argumentation besser aufgehoben, denn da reicht die Performance oft wirklich nicht mehr für AA/AF).

Das ist imo genau die gleiche Geschichte, über die ich auch in meinem 3DC Artikel (http://www.3dcenter.org/artikel/neue_filtertricks/) mokiert hab: Highendkarten wurden jahrelang nur in niedrigen Settings getestet (gepaart mit flimmriger Treiberdefaulteinstellung und nicht maximierten Ingamesettings), und die Käufer wunderten sich dann, warum der Verlust in den präferierten AA/AF Settings höher ist als bei der Konkurrenz.

Wenn das nicht in Tests erbencht wird, ensteht so ein verzerrrtes Bild über die Leistungsfähigkeit der GraKas. Damit sind die AA/AF Tests nun hoffentlich legitimiert. Was gegen umfassende noAA/AF Tests spricht, ist schlicht und einfach der Zeitaufwand, der angesichts der Praxisferne der Werte (wer kauft sich nen G80, um dann ohne AA/AF zu spielen) meistens in einem eher ungünstigen Verhältnis zum Nutzun steht...

Wenn du mit der Argumentation immernoch nicht einverstanden bist, dann gehörst wohl zu der Minderheit im 3DC , die den unzweifelhaften Nutzen von AA/AF nicht erkennen wollen oder können.




BTW - zur Klärung: Ich find schön wenn jemand meiner Meinung übereinstimmt, aber ich halte das nicht so wie Madkiller, dass ich AA Modi über 4xSG überflüssig finde. Alles bis 256xSG kann einen optischen Nutzen bringen.

Nukeproof
2007-01-07, 14:01:07
Ok, hab' die Diskussion bisher nur überflogen, werd's mir mal genau anschauen.

Dennoch, um eine Aufrüstung noch ein halbes Jahr aufzuschieben, bin ich gerne bereit auf AA/AF zu verzichten (jede Karte ist ohnehin nur ein paar Monate wirklich "high end", die nächste Generation Mainstreamkarten ist meist schon schneller). Umzu sehen welche Karte mir in der Zukunft wohl länger eine "Mindestspielbarkeit" gewährleistet, ist einen Benchmark ohne AA/AF am ehesten geeignet, weil dann - wenn ich AF/AA abschalte - deren effiziente Implementation in Hardware/Treiber völlig belanglos ist.

Mr. Lolman
2007-01-07, 14:26:19
Ok, hab' die Diskussion bisher nur überflogen, werd's mir mal genau anschauen.

Dennoch, um eine Aufrüstung noch ein halbes Jahr aufzuschieben, bin ich gerne bereit auf AA/AF zu verzichten (jede Karte ist ohnehin nur ein paar Monate wirklich "high end", die nächste Generation Mainstreamkarten ist meist schon schneller). Umzu sehen welche Karte mir in der Zukunft wohl länger eine "Mindestspielbarkeit" gewährleistet, ist einen Benchmark ohne AA/AF am ehesten geeignet, weil dann - wenn ich AF/AA abschalte - deren effiziente Implementation in Hardware/Treiber völlig belanglos ist.

Das ist deine Zugangsweise. Es gibt hier genug Leute, mich eingeschlossen, die eher erst die Auflösung oder ein paar Ingamedetails (wie zB Schattengenauigkeit) runterstellen, bevor sie auf AA/AF verzichten.

Madkiller
2007-01-07, 14:29:54
BTW - zur Klärung: Ich find schön wenn jemand meiner Meinung übereinstimmt, aber ich halte das nicht so wie Madkiller, dass ich AA Modi über 4xSG überflüssig finde. Alles bis 256xSG kann einen optischen Nutzen bringen.
Ya, sry. War missverständlich formuliert.
Hätte in dem letzten Satz auf das "auch" verzichten sollen und das mit nem eigenen Absatz trennen sollen.
Es ist mir klar, daß ich mit dem "max 4xFSAA" wohl nicht viele haben, die mir zustimmen. Kein Problem - Meinungen müssen nicht gleich sein. :)
Ich wollte damit eigentlich nur aussagen, daß ich mir sehr wohl bewußt bin, daß sich das Bild durch höhere FSAA-Modis objektiv verbessert, das aber mit meiner Meinung kollidiert.

paul.muad.dib
2007-01-07, 15:16:38
Ok, hab' die Diskussion bisher nur überflogen, werd's mir mal genau anschauen.

Dennoch, um eine Aufrüstung noch ein halbes Jahr aufzuschieben, bin ich gerne bereit auf AA/AF zu verzichten (jede Karte ist ohnehin nur ein paar Monate wirklich "high end", die nächste Generation Mainstreamkarten ist meist schon schneller). Umzu sehen welche Karte mir in der Zukunft wohl länger eine "Mindestspielbarkeit" gewährleistet, ist einen Benchmark ohne AA/AF am ehesten geeignet, weil dann - wenn ich AF/AA abschalte - deren effiziente Implementation in Hardware/Treiber völlig belanglos ist.

Ja, das fände ich auch sinnvoll. Es ist aber schwierig, sowas auszumessen.

Zum einen kommt man dann bei den betrachteten KArten schnell in eine CPU-Limitierung, es müssten wahrscheinlich schon sehr hohe Auflösungen gefahren werden, um noch deutliche Unterschiede darstellen zu können.

Das größere Problem ist aber, das die Aussagekraft solcher Benchmarks für zukünftige Spiele nur sehr begrenzt ist, da diese ganz andere Anforderungen an die Hardware stellen. Wenn Karte X also in heutigen Benchmarks schneller ist als Karte Y, dann ist damit nicht automatisch gesagt, dass diese auch mehr Reserven für die Zukunft hat.

Beispielsweise war eine Geforce 5800 Ultra seinerzeit ohne AA/AF schneller als eine Radeon 9700 (pro). Durch den vermehrten Einsatz von Pixelshadern ist aber dann die Geforce Karte weit zurückgefallen und hat bald keine Spielbaren fps mehr liefern können, bsp. Far Cry oder HL2 (mit PS 2.0).

Ähnliches scheint sich nun auch bei dem Vergleich G70 und Derivate vs. r580 abzuspielen. Anfangs waren die entsprechenen G70 Karten oft schneller, doch in neueren Spielen bleiben sie weit zurück.

Andereseits könnten aber auch wiederum Spiele erscheinen, die die Stärken der G70 Architektur stärker ausnutzen, dann sähe es wieder anders aus.

Nukeproof
2007-01-07, 15:18:56
Ohne euch zu Nahe treten zu wollen, erinnert mich der verlinkte Artikel bezüglich Bildqualität ein wenig an manche Diskussion unter "Audiphilen", wo Messequipment im Gegenwert eines Reihenhäuschens aufgefahren wird, um eklatante Klangunterschiede von Stereoanlagen im Wert einer Mittelklasse Limousine aufzuzeigen. ;)

Ich stimme schon zu, dass man maximale Qualität ohne wenn und aber über die Treiberpanels zugänglich machen sollte, aber die aufgezeigten "Mängel", die man in großen vergleichenden Screenshots noch mit der Lupe suchen muss, beeinträchtigen mein persönliches Spielerlebnis, bei bewegten Bildern mit Konzentration aufs Spielgeschehen nicht. FPS sells und der Durchschnittsgamer, der seinen Komplett-PC mit unterdimensionierter Grafikkarte bei Aldi oder Mediamarkt gekauft hat, profitiert IMHO eher von 30% Performancezuwachs, als dass ihm graue Haare wegen geringfügig flimmernder Texturen, oder verwaschener Werbetafeln im Rückspiegel seine Rennwagens wachsen.

Engineeinstellung, wie HDR sehe ich dagegen sofort und kann mich auch im Spielverlauf regelmäßig drüber freuen.

Mein Wunsch, nach einem zusätzlichen Benchmark Durchlauf ohne AA/AF ist zumindest angekommen, auch wenn die Idee auf wenig Gegenliebe stößt ;)

Spasstiger
2007-01-07, 15:23:27
Beispielsweise war eine Geforce 5800 Ultra seinerzeit ohne AA/AF schneller als eine Radeon 9700 (pro). Durch den vermehrten Einsatz von Pixelshadern ist aber dann die Geforce Karte weit zurückgefallen und hat bald keine Spielbaren fps mehr liefern können, bsp. Far Cry oder HL2 (mit PS 2.0).
Oder ganz krasses Beispiel Oblivion. Wo einer Radeon 9700 Pro noch gut flüssige 50 fps ermöglicht (in den Höhlenlevels), kriecht eine GeForce FX 5900 bei 10 fps und weniger rum.

Nukeproof
2007-01-07, 15:35:15
Ja, das fände ich auch sinnvoll. Es ist aber schwierig, sowas auszumessen.

Zum einen kommt man dann bei den betrachteten KArten schnell in eine CPU-Limitierung, es müssten wahrscheinlich schon sehr hohe Auflösungen gefahren werden, um noch deutliche Unterschiede darstellen zu können.

Das größere Problem ist aber, das die Aussagekraft solcher Benchmarks für zukünftige Spiele nur sehr begrenzt ist, da diese ganz andere Anforderungen an die Hardware stellen. Wenn Karte X also in heutigen Benchmarks schneller ist als Karte Y, dann ist damit nicht automatisch gesagt, dass diese auch mehr Reserven für die Zukunft hat.

Beispielsweise war eine Geforce 5800 Ultra seinerzeit ohne AA/AF schneller als eine Radeon 9700 (pro). Durch den vermehrten Einsatz von Pixelshadern ist aber dann die Geforce Karte weit zurückgefallen und hat bald keine Spielbaren fps mehr liefern können, bsp. Far Cry oder HL2 (mit PS 2.0).

Ähnliches scheint sich nun auch bei dem Vergleich G70 und Derivate vs. r580 abzuspielen. Anfangs waren die entsprechenen G70 Karten oft schneller, doch in neueren Spielen bleiben sie weit zurück.

Andereseits könnten aber auch wiederum Spiele erscheinen, die die Stärken der G70 Architektur stärker ausnutzen, dann sähe es wieder anders aus.

Stimmt, ist mir schon klar, dass alles nur ein grober Anhaltspunkt sein kann, wie sich heutige Hardware in Spielen von Morgen schlägt.

Halbwegs brauchbare Benchmarks gibts aber schon. Der 3dMark u.a. versuchen ja frühzeitig neue/zukunftsweisende Features auszureizen, noch bevor Spiele (die ja auf 'ner Druchschnitsskiste noch laufen sollen) davon in großem Stil Gebrauch machen können. Von engines wie DOOM3 oder UT20xx weiss man, dass sie vielfältig lizensiert werden. Da gibt's oft schon Demo-Levels oder Quality-mods, mit einem Vielfachen an Polygonen/Lichtquellen/sonstigen Details, die einen Eindruck vermitteln, wie die Grafikkarte damit klarkommt, wenn man die engine ausreizt. Wenn ich dann noch AA/AF abschalte, bekommt man (so bilde ich mir zumindest ein) einen brachbaren Eindruck, welche Grafikkarte für die einfachste Darstellung in Zukunft eher ausreicht.

Nukeproof
2007-01-07, 15:38:33
Oder ganz krasses Beispiel Oblivion. Wo einer Radeon 9700 Pro noch gut flüssige 50 fps ermöglicht (in den Höhlenlevels), kriecht eine GeForce FX 5900 bei 10 fps und weniger rum.

Wenn ich mich korrekt erinnere, gab es aber damals (als beide Karten noch aktuelle waren) Test mit extrem aufwendigen Quake3 Levels, wo sich andeutete, dass die Radeon 9700 wesentlich besser dasteht.

Ähnliches deuten da einige Reviews aktuell bezüglich X1950 vs GF9500 bei intensivem SM 3.0 Einsatz an.

Spasstiger
2007-01-07, 15:44:23
Wenn ich mich nicht täusche, war das aber auch schon anhand einer sehr detaillierten Demomap für Quake3 vor 2 Jahren so zu erahnen.
Kann ich mir nicht eigentlich vorstellen und wenn es doch so ist, liegen die Ursachen woanders. Die ultraschlechte Performance der GeForce-FX-Karten in Oblivion kommt von der exzessiven Verwendung von Parallax-Mapping (Pixelshader 2.0).

Lightning
2007-01-07, 15:45:40
Ohne euch zu Nahe treten zu wollen, erinnert mich der verlinkte Artikel bezüglich Bildqualität ein wenig an manche Diskussion unter "Audiphilen", wo Messequipment im Gegenwert eines Reihenhäuschens aufgefahren wird, um eklatante Klangunterschiede von Stereoanlagen im Wert einer Mittelklasse Limousine aufzuzeigen. ;)

Ich stimme schon zu, dass man maximale Qualität ohne wenn und aber über die Treiberpanels zugänglich machen sollte, aber die aufgezeigten "Mängel", die man in großen vergleichenden Screenshots noch mit der Lupe suchen muss, beeinträchtigen mein persönliches Spielerlebnis, bei bewegten Bildern mit Konzentration aufs Spielgeschehen nicht. FPS sells und der Durchschnittsgamer, der seinen Komplett-PC mit unterdimensionierter Grafikkarte bei Aldi oder Mediamarkt gekauft hat, profitiert IMHO eher von 30% Performancezuwachs, als dass ihm graue Haare wegen geringfügig flimmernder Texturen, oder verwaschener Werbetafeln im Rückspiegel seine Rennwagens wachsen.

Engineeinstellung, wie HDR sehe ich dagegen sofort und kann mich auch im Spielverlauf regelmäßig drüber freuen.

Mein Wunsch, nach einem zusätzlichen Benchmark Durchlauf ohne AA/AF ist zumindest angekommen, auch wenn die Idee auf wenig Gegenliebe stößt ;)

Man darf die Zielgruppe, für die diese Artikel geschrieben sind, nicht vergessen. Der "Durchschnittsgamer mit Komplett-PC", nunja, der kauft sich eben einfach seinen Komplett-PC, ohne, dass er sich großartig für die darin verbaute Grafikkarte und erst recht nicht für deren Technik interessiert. So wird er auch nie eine High-End-Grafikkarte in Betrieb haben, um die es in diesem Test aber geht. High-End lohnt sich wiederum nur, wenn man Plus an Bildqualität, welches sich damit erreichen lässt, auch braucht. Dieses Plus besteht eben zum größten Teil aus AA und AF. Ansonsten laufen fast alle Spiele auch ohne High-End-Hardware, oft sogar mit hohen Details, problemlos.

Ganz darüber hinaus haben diese Artikel zwar durchaus einen Nutzen als Kaufberatung, aber das ist nicht das einzige Ziel. 3DCenter ist eine Webseite, die sich auf den technischen Aspekt spezialisiert hat, und somit geht es auch einfach nur um das pure Interesse am Thema. Wo wir wieder bei der Zielgruppe wären: Jemand, der sich nicht für Grafikkarten interessiert, wird sich so einen Artikel niemals durchlesen. Bestenfalls schaut er sich ein paar Diagramme an, die er auf Grund mangelndem Wissens aber nicht richtig deuten kann, egal ob dort nun AA und AF aktiviert ist, oder nicht.

Aquaschaf
2007-01-07, 15:48:44
FPS sells und der Durchschnittsgamer, der seinen Komplett-PC mit unterdimensionierter Grafikkarte bei Aldi oder Mediamarkt gekauft hat, profitiert IMHO eher von 30% Performancezuwachs, als dass ihm graue Haare wegen geringfügig flimmernder Texturen, oder verwaschener Werbetafeln im Rückspiegel seine Rennwagens wachsen.

Engineeinstellung, wie HDR sehe ich dagegen sofort und kann mich auch im Spielverlauf regelmäßig drüber freuen.

Mein Wunsch, nach einem zusätzlichen Benchmark Durchlauf ohne AA/AF ist zumindest angekommen, auch wenn die Idee auf wenig Gegenliebe stößt ;)

Es geht um Tests von Highend-Karten, und da macht dein Wunsch - wie schon ausführlich erläutert - keinen Sinn. Bei den Tests von Karten aus nicht den obersten Segmenten gibt es doch Benchmarks ohne Antialiasing.

Nukeproof
2007-01-07, 16:08:27
Ist bei mir angekommen, aber erstens gibt's in keinem der aktuellen Performance-Reports einen einzigen Benchmark ohne AA und AF und zweitens ist Highend von heute das absolute Minimum von Übermorgen - und darum gings mir ja. Eure mehrfach bemühte grundsätzliche Unterscheidung von "Highend" und "Einsteiger" Karte kann ich nicht nachvollziehen, dass definiert sich letzlich viel weniger über den Kaufpreis, als das alter der GPU - egal wieviel ich dafür ausgegeben habe.

Aquaschaf
2007-01-07, 16:27:20
Eure mehrfach bemühte grundsätzliche Unterscheidung von "Highend" und "Einsteiger" Karte kann ich nicht nachvollziehen, dass definiert sich letzlich viel weniger über den Kaufpreis, als das alter der GPU - egal wieviel ich dafür ausgegeben habe.

Für eine Highend-Karte wären Benchmarks ohne AA&AF interessant von Spielen die 2 Jahre später erscheinen. Leider gibt es noch keine Zeitreisen, was die Sache schwierig gestaltet. Die Karten im Performance-Report bewegen sich immer noch im höheren Preissegment in dem zumindest anisotrope Filterung immer sinnvoll ist. Und wie schon gesagt: 3dcenter hat mit den Artikeln nicht den sprichwörtlichen DAU im Visier, der noch nie etwas von AA&AF gehört hat und einen alten ALDI-PC benutzt.

Madkiller
2007-01-07, 16:40:18
Ist bei mir angekommen, aber erstens gibt's in keinem der aktuellen Performance-Reports einen einzigen Benchmark ohne AA und AF und zweitens ist Highend von heute das absolute Minimum von Übermorgen - und darum gings mir ja.
Es gibt aber Durchläufe ohne FSAA.
Und AF braucht eh nicht so viel Performance wie AA - gerade in stressigen Szenen.

StefanV
2007-01-07, 16:44:43
Alles über 4xAA ist meiner Meinung nach nicht mehr schön. Die Übergänge werden mir einfach zu weich.. zu wenig Kontrast. :)
Öhm, Quincunx?? :|
Weil davon sprichst du irgendwie...

Ganz nebenbei:
Hast schonmal mehr als 6xFSAA gesehen sprich Crossfire AA??
Meine Beobachtung ist eher, das die Kanten noch glatter werden, da wird nix 'weich' oder Matschig...

Mr. Lolman
2007-01-07, 16:45:50
Ohne euch zu Nahe treten zu wollen, erinnert mich der verlinkte Artikel bezüglich Bildqualität ein wenig an manche Diskussion unter "Audiphilen", wo Messequipment im Gegenwert eines Reihenhäuschens aufgefahren wird, um eklatante Klangunterschiede von Stereoanlagen im Wert einer Mittelklasse Limousine aufzuzeigen. ;)


Das hat aber durchaus seinen Sinn. Denn eben weil sich niemand über die AF Qualität beschwert hat, gibts/gabs diese miesen Optimierungen...

Madkiller
2007-01-07, 16:46:21
Öhm, Quincunx?? :|
Weil davon sprichst du irgendwie...

Nope. Die Sätze über dem von dir zitierten nicht gelesen?

Ganz nebenbei:
Hast schonmal mehr als 6xFSAA gesehen sprich Crossfire AA??
Meine Beobachtung ist eher, das die Kanten noch glatter werden, da wird nix 'weich' oder Matschig...
Auch das solltest du eigentlich wissen. ;)
Ya, erst vor wenigen Tagen 16Q AA.

Nukeproof
2007-01-07, 17:08:58
Für eine Highend-Karte wären Benchmarks ohne AA&AF interessant von Spielen die 2 Jahre später erscheinen. Leider gibt es noch keine Zeitreisen, was die Sache schwierig gestaltet. Die Karten im Performance-Report bewegen sich immer noch im höheren Preissegment in dem zumindest anisotrope Filterung immer sinnvoll ist. Und wie schon gesagt: 3dcenter hat mit den Artikeln nicht den sprichwörtlichen DAU im Visier, der noch nie etwas von AA&AF gehört hat und einen alten ALDI-PC benutzt.

Irgendwie machst Du Dir (Im Gegensatz zu mir, der ich gerade die verlinkten Forenbeiträge und Artikel lese) nicht die Mühe, das zu betrachten, was andere anführen.

http://hardware.thgweb.de/2006/12/20/his_radeon_x1950xt_und_x1650xt/page11.html

Prey, Oblivion und Rise of Nations zeigen bereits mit einem (eher lahmen) Athlon 64 FX-60, bei 1024x768 ohne AF/AA keine echte CPU Limitierung mehr. Allein das rechtfertigt aus meiner Sicht einen solchen Vergleich (zumal man mit schnellerer CPU/höherer Auflösung die Limitierung weit in Richtung GPU verschieben kann). Woher willst Du außerdem sicher sein, diverse Benchmarks seien ohne AA/AF in jedem Fall CPU limitiert, wenn man es nicht ausprobiert (und mit dem min. Quality setup noch keine CPU Limitierung erreicht wurde)

Auch lässt sich so erst, die Effizienz der AA/AF Algorithmen ermitteln.

(del)
2007-01-07, 17:11:48
Du wirst doch zugeben, dass das nicht mehr als Spam ist. Du scheinst massig Fachwissen zu haben, also lass die unwissende Welt doch daran teilhaben.

Dass AA dem Bild Informationen hinzufügt und nicht blurrt, wissen die meisten mittlerweile sicher – falls du das sagen wolltest. ;)Und? Es ist nunmal so, daß VIELE mehr als 4xAA eben als matschig empfinden. Einige sehen das sogar so bei 4xAA, fahren 2xAA und ziehen lieber AF eine oder zwei Stufen höher.
Ob Coda Doktorarbeiten schreiben kann die sowas unwiderruflich widerlegen wird für diese Leute wohl keine Geige spielen.

Praktisch. Theoretisch - und für mich nur bei den letzten Voodoos praktisch - kann man mit noch höheren Einstellungen sehr wohl empfindsam besseres Bild hinbekommen. Selbst bei einem G80 gefällt mir das aber nicht so "hammer" wie bei einer Voodoo (u.a. in Erinnerung an Lolis HL2 Schreenshots).

Ich meine aber der Threadstarter wollte an sich nur wissen, warum "sehr hohe" AA/AF Einstellungen gewählt werden. Vielleicht liegt es daran, daß hier meist nur die Overburner-Modelle getestet werden und die Leistung eh da ist.

Wie sich Midrange, im Vergleich, mit 4xAA/8xAF oder gar 2xAA/4xAF schlägt, halte ich aber auch für sehr interessant. Da sind euch andere Seiten aber leider eh meist voraus mit den Ergebnissen. Viel Hardware bekommt ihr nicht gerade...

@Nukeproof
Was THG da "anführt" kommt wohl alleine durch HDR zustande. Das ist dann trotz allem eine leicht andere Baustelle ;)

Spasstiger
2007-01-07, 17:13:03
Woher willst Du außerdem sicher sein, diverse Benchmarks seien ohne AA/AF in jedem Fall CPU limitiert, wenn man es nicht ausprobiert (und mit dem min. Quality setup noch keine CPU Limitierung erreicht wurde)
Nur weil etwas nicht veröffentlicht wurde, heißt es nicht, dass es nicht getestet wurde. Madkiller wird schon geschaut haben, wo die CPU-Limits liegen.

(del)
2007-01-07, 17:19:16
Nur weil etwas nicht veröffentlicht wurde, heißt es nicht, dass es nicht getestet wurde. Madkiller wird schon geschaut haben, wo die CPU-Limits liegen.Wenn man die Infos im Text auch an den richtigen Stellen findet, dann ist es auch ok. Ist ja nicht schlimm, wenn man nach dem Lesen der Tests von Madkiller genauso 'schlau' wird wie Madkiller selbst, oder?

Aquaschaf
2007-01-07, 17:27:18
Woher willst Du außerdem sicher sein, diverse Benchmarks seien ohne AA/AF in jedem Fall CPU limitiert, wenn man es nicht ausprobiert (und mit dem min. Quality setup noch keine CPU Limitierung erreicht wurde)

Du führst Prey als Beispiel an. Dort nimmt die Performance mit AA&AF auch bei Highend-Karten deutlich ab. Aber die +110FPS ohne AA&AF sind doch uninteressant, wenn man mit AA&AF noch im sorgenfreien Bereich über 50 oder 60FPS liegt.