PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Qualität des AF auf Radeon HD 6800


Seiten : 1 [2] 3 4 5

Schlammsau
2010-10-26, 20:47:04
@schlammsau:
Ich hoffe nur, dass du die Karte nicht wegen des bandings auf Cypress gekauft hast :(

Nein, mehr oder weniger aus purer Neugier. Hatte ja eine 5850.....
199€ sind nicht die Welt und, ihr kennt mich ja, das Banding und eventuelles Flimmern, stört mich nicht die Bohne.

Nichtsdestotrotz sieht man, dass da was faul ist bzw nicht richtig läuft, und das sollte behoben werden.

Gipsel
2010-10-26, 20:53:42
Zunächst mal jedoch sollten sie dafür sorgen, dass bei deren interner Abweichung vom Lehrbuchverfahren zwecks Optimierung keine Artefakte wie das banding entstehen.
Ich glaube, beim einfachsten Lehrbuchbeispiel springt auch die Anzahl der Samples an bestimmten Stellen hart um, da könnte man das also im Prinzip auch sehen. Das kann man im Prinzip ja dadurch verhindern, daß man die Samples nicht ganz äquidistant anordnet (eine Analogie aus einem ganz anderen Bereich: was viele vielleicht schon mal gesehen haben, ist wie sich bei Tesselation die Geometrie zwischen zwei ganzzahligen Tess-Faktoren verhält, da gibt es auch keine Sprünge), sondern beim Übergang zur nächsthöheren Anzahl die zusätzlichen Samples erstmal an genau der gleichen Stelle nimmt, wie die bei der nächstniedrigen Stufe und sie erst dann langsam auseinanderrücken läßt.

Müßte vielleicht Coda mal fragen, wie er das genau bei seinem ALU-Filtering macht.

@Moderation:
Gerade gesehen, daß Coda jetzt einen Thread im Technologie-Unterforum aufgemacht hat (den hatte ich vermißt). Da paßt das vielleicht viel besser. Kann man meine zwei Posts vielleicht dahin verschieben? Danke!

Jake Dunn
2010-10-26, 21:09:45
Hat denn jemand schonmal die Stellen in den Spielen nachgestellt? Ich seh nur immer Bilder und Videos von Evergreen-GPUs.
Jo TMNF hatte ich mal mit der HD3K nachgeschaut.


1280x720, max. 4xAA, 16xAF
http://www.abload.de/thumb/tmforever2010-09-2914-gds0.png (http://www.abload.de/image.php?img=tmforever2010-09-2914-gds0.png)

Langenscheiss
2010-10-26, 21:18:46
Ich glaube, beim einfachsten Lehrbuchbeispiel springt auch die Anzahl der Samples an bestimmten Stellen hart um, da könnte man das also im Prinzip auch sehen. Das kann man im Prinzip ja dadurch verhindern, daß man die Samples nicht ganz äquidistant anordnet (eine Analogie aus einem ganz anderen Bereich: was viele vielleicht schon mal gesehen haben, ist wie sich bei Tesselation die Geometrie zwischen zwei ganzzahligen Tess-Faktoren verhält, da gibt es auch keine Sprünge), sondern beim Übergang zur nächsthöheren Anzahl die zusätzlichen Samples erstmal an genau der gleichen Stelle nimmt, wie die bei der nächstniedrigen Stufe und sie erst dann langsam auseinanderrücken läßt.

Müßte vielleicht Coda mal fragen, wie er das genau bei seinem ALU-Filtering macht.


Man kann Shader point samples von beliebigen Textur-Koordinaten nehmen lassen. Den Rest hat er dann einfach per Shader (also nicht per TMU) berechnet. Ab SM3 gibt es die ddx/ddy Befehle, welche den Gradienten liefern (man füttert den Befehl einfach mit der Textur-Koordinate, die dem Shader mitgeteilt wird, und der gibt dir den Unterschied zur Textur-Koordinate des nächsten Pixels in x/y Richtung an => Gradient! Den Rest kann man vollständig im Shader berechnen. Damit legt man die TMUs natürlich mehr oder weniger schlafen, denn normal sagt man den TMUs nur "tex2D" und den Rest machen sie dann.

Gorkon
2010-10-26, 23:12:28
Da stimmt was überhaupt nicht bei dem GF104-Shot. Da ist anscheinend negatives LOD am Werk :|

Leider nein, dass sieht wirklich so aus: 16xAF per App, Links Q, Rechts HQ (FW 260.99)

http://www.abload.de/thumb/gf104_q4cno.png (http://www.abload.de/image.php?img=gf104_q4cno.png) http://www.abload.de/thumb/gf104_hqoei6.png (http://www.abload.de/image.php?img=gf104_hqoei6.png)

Sorry, wenn ich damit hier so gerade in die laufende Disskusion reinplatze :redface:

Ontopic: Das ist jetzt kein Scherz, dass sich im eigentlichen Sinne nichts an dem Banding-Problem geändert hat? Schlammis Videos hab ich gesehen und ich sehe irgendwie mehr flimmern als bei Cypress aber weniger Banding.

mfg

Eggcake
2010-10-26, 23:16:25
Geändert schon, aber es ist nicht behoben (wie du eigentlich schon selbst sagtest ;) ).

Langenscheiss
2010-10-26, 23:25:01
Sie verstecken das banding im Flimmern, kann man sagen. Es ist, wie du auf den Texel-Analysen erkennen kannst, teilweise behoben. Das Problem sind die kleinen AF-Grade. Hier erhöhen sie quasi immer noch schlagartig die Anzahl an verwendeten Samples. Das an sich ist vielleicht nicht mal der eigentliche Grund fürs banding (obwohl ich das schon irgendwo glaube), da es in gewisser Weise sogar intrinsisch ist (die Referenz-Implementierung sieht halt nur 2:1,4:1,8:1,16:1 vor), aber seit eh und je spart man samples aus, und wenn man dies an den falschen Stellen tut, fällt es auf. Es ist hier auf jeden Fall der Indikator fürs banding. Wenn du die Diskussion zurückverfolgst, wirst du feststellen, dass ich das banding schon angekündigt habe, bevor es überhaupt Videos gab. Allein auf Basis der Texel-Analyse.

Superheld
2010-10-26, 23:38:14
Nein, mehr oder weniger aus purer Neugier. Hatte ja eine 5850.....
199€ sind nicht die Welt und, ihr kennt mich ja, das Banding und eventuelles Flimmern, stört mich nicht die Bohne.

Nichtsdestotrotz sieht man, dass da was faul ist bzw nicht richtig läuft, und das sollte behoben werden.

Du bist verrückt :freak:
................................................................................ ....

Gorkon
2010-10-26, 23:46:37
@ Langenscheiss

Ok alles klar...sind ein paar mehr Posts hier seit heute Nachmittag geworden :D

Nachdem ich mir mal die Texelanalyse und Schlammis Videos nochmal auf dem Plasma angeguckt habe (der TFT hier ist einfach scheiße :() seh ichs jetzt auch. Das Banding wird anscheinend tatsächlich per Unterfilterung der entsprechenden Bereiche "gefixt". Dadurch flimmerts aber wieder massiv. Sowas dann als Bugfixing und neues Feature (HP-Lod) zu verkaufen grenzt wirklich schon an kaum zu überbietende Dreistigkeit :mad:

Sollte sich bei Cayman da nichts ggü. Barts tun, wäre das wirklich ein Armutszeugnis. Bei der Theoretischen Rechen- und Füllratenpower absolut nicht notwendig :frown:

mfg

Exxtreme
2010-10-26, 23:50:26
Sollte sich bei Cayman da nichts ggü. Barts tun, wäre das wirklich ein Armutszeugnis. Bei der Theoretischen Rechen- und Füllratenpower absolut nicht notwendig :frown:

mfg
Ich glaube nicht einmal, dass sie Rechenleistung sparen wollen. Kann sein, dass das absichtlich(!) so in HW gegossen wurde um vlt. Transistoren zu sparen. Denn Filter, die korrekt filtern hatten sie ja schon mal. Liegt also nicht daran, dass sie es nicht können. Nicht wollen trifft's eher.

Dr. Cox
2010-10-26, 23:51:09
Dann ist auch das Hardwarebug Argument kaum mehr haltbar, ich glaube die wissen ganz genau was sie da machen.

Natürlich wissen sie was sie machen. AMD Cheatet beim AF was das Zeug hält. Es kann mir keiner Sagen, dass ATI/AMD nicht weiß, wie man ein perfektes AF hin bekommt. Zu Zeiten der X19X0-Karten hat ATI auch ein fast perfektes AF angeboten. Wie man perfekt filtert, werden die Ingenieure bei AMD sicherlich nicht verlernt haben. Für diese abstrakten Bildfehler beim AF von AMD gibt es ganz andere Gründe. AMD wird sich seit dem R600 irgendwie massiv verkalkuliert haben, was die TMUs an sich, oder aber das TMU/Shaderverhältnis angeht. Aus diesem Grund muss AMD nun beim AF cheaten, um mit Nvidia leistungsmäßig gleich zu ziehen. AMD ist ein genauso kühl und berechnendes auf Geld fixiertes Unternehmen wie es Intel und Nvidia auch sind. AMD hat in meinen Augen jeglichen "Welpenschutz" eines kleinen "sympathischen" Underdogs verloren, spätestens seit Cypress!


Ich habe all dies schon vor über einem Jahr vermutet und nun wurde es durch das gesamte Vorgehen zu "barts" nur noch bekräftigt und bestätigt:

Ich habe auch meine HD4870/1024MB wegen dem echt nervigem Geflimmer gegen eine GTX280 eingetauscht und ich muss euch sagen, das ist ein Unterschied wie Tag und Nacht! Solange ATI die Filteroptimierungen nicht deaktiviert, oder im Treiber zum Deaktivieren freigibt, bleibe ich bei Nvidia!

Ich hoffe jedoch inständig, dass ATI sich eines Besseren belehren lässt und in Zukunft auf die Filteroptimierungen verzichtet. Falls ATI dies tatsächlich tun sollte, kann man damit aber erst rechnen, wenn ATI eine neue Architektur anbietet, also erst mit der übernächsten Generation. Denn ATI hat eine Problem, sie haben sich mit der R600-Architektur massiv verkalkuliert. Alle Chips die auf der R600-Architektur basieren haben das Problem, dass die TMUs im Vergleich zu den Shadern viel zu unterdimensioniert sind. Die TMUs einer HD4870 hätten ohne die Optimierungen nicht genug Texelleistung um mit einer GTX260 mitzuhalten, da bringt dann auch die hohe Shaderleistung nichts mehr, wenn die TMUs den Chip ausbremsen. Würde man jetzt die Filteroptimierungen bei der HD4870 komplett deaktivieren, dann könnte es sogar sein, dass die HD4870 nicht einmal mehr die Leistung einer 9800GTX erreicht. In diesem Fall wäre aber das gute Preisleistungsverhältnis der HD4870 nicht mehr gegeben und ATI wäre nicht mehr wettbewerbsfähig. Aus diesem Grund wird es die Filteroptimierungen bei ATI auch weiterhin geben, zumindest bis zur übernächsten Generation. Denn dann steht wieder eine neue Architektur an, mit der ATI alles besser machen kann, so dass es ein besseres Verhältnis zwischen TMUs und Shadern gibt.

Im Prinzip waren die Filteroptimierungen ab der HD2900XT nur eine Notlösung ATIs, da man sich was die Architektur angeht, schlicht und ergreifend verkalkuliert hat, nicht mehr und nicht weniger. Denn auch hochauflösende Texturen sind nach wie vor gefragt und werden ganz sicher nicht durch Shadereffekt abgelöst.


http://extreme.pcgameshardware.de/blogs/pcgh_raff/149-appell-qualitaet-anstatt-quantitaet-page3.html#comment553

Ronny145
2010-10-26, 23:51:41
Nachdem ich mir mal die Texelanalyse und Schlammis Videos nochmal auf dem Plasma angeguckt habe (der TFT hier ist einfach scheiße :() seh ichs jetzt auch. Das Banding wird anscheinend tatsächlich per Unterfilterung der entsprechenden Bereiche "gefixt". Dadurch flimmerts aber wieder massiv.


Sieht deswegen die HD6000 im AF Tester schärfer (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8349957#post8349957) aus???

Langenscheiss
2010-10-26, 23:51:45
@Gorkon:
Also wenn das wirklich NUR durch Unterfiltern gefixed wird, dann isses wirklich dreist!!! Wie genau gespart wird, sieht man ja mit diesem Programm nicht, es gibt halt nur die Zahlen in Form von Farben aus. Was ich nur nicht verstehe ist, warum man diesen Fix dann nicht auch bei den untersten AF-Graden anwendet. Dadurch ist das banding doch überhaupt noch sichtbar. NV bekommt das doch auch in den Griff, also kann es am technischen letztlich nicht hapern.

@Ronny:
Also am LOD hat sich nichts geändert, deswegen gehe ich davon aus. Habe ich ja auch so beim Vergleich geschrieben.

LovesuckZ
2010-10-26, 23:57:21
Ich glaube nicht einmal, dass sie Rechenleistung sparen wollen. Kann sein, dass das absichtlich(!) so in HW gegossen wurde um vlt. Transistoren zu sparen. Denn Filter, die korrekt filtern hatten sie ja schon mal. Liegt also nicht daran, dass sie es nicht können. Nicht wollen trifft's eher.

Wieviel mm^2 wird man wohl sparen? Auf 40nm sollte das wohl im selben Bereich liegen wie die dedizierte Tessellation-Unit.
Sie boten auf 90nm mit <300mm^2 vernünftige Filterung an. nVidia fand beim G80 mit 480mm^2 Platz für vernünftige Filterung.
Ich sehe in der Qualität eher eine politische Entscheidung, um einen Vergleich mit nVidia zu verhindern. Denn wenn man wesentlich mehr Leistung als der Konkurrent verliert, dann steht man plötzlich nicht mehr so gut dar.

Gipsel
2010-10-26, 23:58:46
Hier erhöhen sie quasi immer noch schlagartig die Anzahl an verwendeten Samples. Das an sich ist vielleicht nicht mal der eigentliche Grund fürs banding (obwohl ich das schon irgendwo glaube), da es in gewisser Weise sogar intrinsisch ist (die Referenz-Implementierung sieht halt nur 2:1,4:1,8:1,16:1 vor)Das dürfte irgendeine Kombination sein. Bei korrekter Implementation springt man ja von gerade ausreichender Abtastung zu einer zweifach Überabtastung, was kein starkes Banding ergeben sollte (nichtsdestotrotz könnte man den Übergang unter den richtigen Bedingungen vielleicht trotzdem sehen). Vollständig verhindern könnte man es wohl nur mit nicht äquidistanten Samplepositionen, wie ich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8350931#post8350931) schon mal angedeutet hatte.

Für mich sieht es ein wenig danach aus, daß die Länge, über die gesampelt wird, sich eventuell nicht kontinuierlich verändert sondern Sprünge aufweisen kann.

Dr. Cox
2010-10-27, 00:05:02
Ich glaube nicht einmal, dass sie Rechenleistung sparen wollen. Kann sein, dass das absichtlich(!) so in HW gegossen wurde um vlt. Transistoren zu sparen. Denn Filter, die korrekt filtern hatten sie ja schon mal. Liegt also nicht daran, dass sie es nicht können. Nicht wollen trifft's eher.

Genauso wird es wohl auch sein, denn ATI hat mit der X19X0-Reihe bereits gezeigt, dass sie fast perfekt filtern können, wenn sie wollen...


Vor über zwei Jahren hatte ich ein Tool - ich glaube es war das ATI-Tool - mit dem konnte ich fast alle AF-Optimierungen deaktivieren, sodass z.B. in Gothic 3 das AF-Flimmern meiner HD 4870 fast vollständig verschwand.
Die Bildqualität war dadurch fast vergleichbar zu meiner GTX 280. Allerdings fiel die Framerate dabei fast um das Doppelte!
Und genau das bestärkt meine Vermutung, dass ATI-Karten bei perfektem AF einen derart hohen Leistungseinbruch hätten, dass AMD diese Optimierungen niemals freiwillig deaktivieren wird ;)

Gorkon
2010-10-27, 00:15:09
@Gorkon:
Also wenn das wirklich NUR durch Unterfiltern gefixed wird, dann isses wirklich dreist!!! Wie genau gespart wird, sieht man ja mit diesem Programm nicht, es gibt halt nur die Zahlen in Form von Farben aus. Was ich nur nicht verstehe ist, warum man diesen Fix dann nicht auch bei den untersten AF-Graden anwendet. Dadurch ist das banding doch überhaupt noch sichtbar. NV bekommt das doch auch in den Griff, also kann es am technischen letztlich nicht hapern.

Ich wüsste nicht wie sonst. Auf deinen Texelvergleichsbildern (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8350581&postcount=213) sieht man ja, dass es eine Differenz von gut -8% gibt, was Barts weniger macht. Das was man an den "Übergängen" gefixt hat, spart man anscheinend irgendwo anders wieder ein > HP-LOD > Flimmern :(

mfg

Gipsel
2010-10-27, 00:21:09
@Dr. Cox und LS:
Ihr werft da bei den möglichen Gründen was durcheinander:
1. Rechenaufwand sparen um schneller zu werden
2. Transistoren sparen um kleinere GPUs bauen zu können

Als Alternative könnte es noch andere, uns jetzt nicht so direkt ersichtliche Kriterien an den Filter gegeben haben. Z.B. lohnt es sich vielleicht mal, über den ganz Inneren Teil des Tunnels nachzudenken, der ist bei ATI nämlich perfekt grau, bei nvidia nicht. Dass heißt im Prinzip, daß die Radeons dort perfekt filtern (besser als die Referenzimplementierung! die Muster dort sind schlicht Artefakte des Filters), die Geforces nicht. Das mag als Optimierungsziel des Filters nichts aber auch gar nichts gegen das in einigen Tests zu beobachtende Flimmern oder Banding helfen, aber vielleicht gab es einfach andere (falsche?) Prioritäten für den Filter.

Dr. Cox
2010-10-27, 00:26:20
Das mag als Optimierungsziel des Filters nichts aber auch gar nichts gegen das in einigen Tests zu beobachtende Flimmern oder Banding helfen, aber vielleicht gab es einfach andere (falsche?) Prioritäten für den Filter.

Und was für Prioritäten könnten das deiner Meinung nach sein?

Selbst wenn deine Vermutung Stimmen sollte - was ich derzeit bezweifle - dann müsste man doch an anderer Stelle einen Vorteil aus den AF-Optimierungen ziehen. Wenn es nicht die Geschwindigkeit/Balkenlänge ist, die durch die Optimierungen Vorteile bekommt, was dann?

Gorkon
2010-10-27, 00:29:42
Z.B. lohnt es sich vielleicht mal, über den ganz Inneren Teil des Tunnels nachzudenken, der ist bei ATI nämlich perfekt grau, bei nvidia nicht. Dass heißt im Prinzip, daß die Radeons dort perfekt filtern (besser als die Referenzimplementierung!

Jetzt bin ich verwirrt. Gerade dieser Bereich soll afaik doch garnicht erst so aussehen > http://www.gpu-tech.org/content.php/137-A-closer-look-at-the-anisotropic-filtering-of-the-Radeon-HD-5000-series

Diese graue Fläche ist doch die "Discworld" von der Carsten da spricht. Auf G80+ gibt es da zwar fieses Moiré, aber im Endeffekt sollen das die Details der Tunneltextur sein, die AMD ab RV8xx einfach "verschluckt".

mfg

Gipsel
2010-10-27, 00:36:05
Und was für Prioritäten könnten das deiner Meinung nach sein?Z.B. weniger Filter-Artefakte bei hochfrequentem Content? Das Problem daran ist, daß die normalerweise nicht so stark auffallen und stören (weil sie auch in Bewegung stehen bleiben und eben nicht flimmern).
Selbst wenn deine Vermutung Stimmen sollte - was ich derzeit bezweifle - dann müsste man doch an anderer Stelle einen Vorteil aus den AF-Optimierungen ziehen. Wenn es nicht die Geschwindigkeit/Balkenlänge ist, die durch die Optimierungen Vorteile bekommt, was dann?
Der Vorteil wäre die Optimierung eines (wenn auch vielleicht nebensächlichen) Aspektes des AF-Filters. Ich behaupte ja nicht, daß es sicher so ist, es war lediglich eine alternative Erklärung für das beobachtete Verhalten.

Gipsel
2010-10-27, 00:41:08
Jetzt bin ich verwirrt. Gerade dieser Bereich soll afaik doch garnicht erst so aussehen > http://www.gpu-tech.org/content.php/137-A-closer-look-at-the-anisotropic-filtering-of-the-Radeon-HD-5000-series

Diese graue Fläche ist doch die "Discworld" von der Carsten da spricht. Auf G80+ gibt es da zwar fieses Moiré, aber im Endeffekt sollen das die Details der Tunneltextur sein, die AMD ab RV8xx einfach "verschluckt".

mfgNein, im Prinzip muß das dort so einfach grau aussehen. Wenn Du mit Deinem Auge auf eine schwarz-weiß karierte Fläche schaust, bei der die einzelne Schachbrettelemente kleiner sind als das Auflösungsvermögen Deines Auges (hier also 1 Pixel), dann sollte man gar keine Struktur mehr erkennen können. Das sollte also konturlos grau sein, genau wie bei den Radeons zu beobachten. Das ist also das perfekt gefilterte Ergebnis (edit: wäre interessant zu wissen, wie man da hin kommt, ein normales AF ist es ja nicht). Das "fiese Moiré"-Muster stellt keine Details mehr dar, es ist einfach eine Unzulänglichkeit des Filters.

Das Problem sind eigentlich nur die Übergänge dahin. Aber die ansonsten dort im Inneren beobachteten Muster sind Artefakte, die vom Filteralgorithmus kommen. Insofern kann man zumindest in dieser Beziehung sagen, daß die Radeons dort besser filtern (was natürlich nichts über die Qualität in anderen Aspekten aussagt). Daher kommt meine angebotene Alternative der anderen (falschen) Prioritäten für den Filter.

Edit:
Oder um mal Langenscheiß zu zitieren:
Eben. Das graue ganze hinten ist völlig normal und muss so sein. Irgendwann ist man halt bei der letzten Mipstufe angekommen und die ist halt nur noch grau. Sieht man ja immer schön in den Vergleichen zwischen Mip und ohne Mip. Darüber hinaus kommt ja auch noch folgender Effekt bei diesen Schachbrettern hinzu. Denke dir mal annähernd unendlich viele Kacheln im Pixel-footprint und lasse nun AF über alle Samples mitteln. Das ganze bekommt doch schon statistischen Charackter und da ist grau, selbst ohne Verwendung von Mipmaps bei einer genügend hohen Sample-Zahl und entsprechender Gewichtung beim Mittelungsprozess geradezu Pflicht.

LovesuckZ
2010-10-27, 01:03:23
Als Alternative könnte es noch andere, uns jetzt nicht so direkt ersichtliche Kriterien an den Filter gegeben haben. Z.B. lohnt es sich vielleicht mal, über den ganz Inneren Teil des Tunnels nachzudenken, der ist bei ATI nämlich perfekt grau, bei nvidia nicht. Dass heißt im Prinzip, daß die Radeons dort perfekt filtern (besser als die Referenzimplementierung! die Muster dort sind schlicht Artefakte des Filters), die Geforces nicht. Das mag als Optimierungsziel des Filters nichts aber auch gar nichts gegen das in einigen Tests zu beobachtende Flimmern oder Banding helfen, aber vielleicht gab es einfach andere (falsche?) Prioritäten für den Filter.

Kannst du mir an Schlammsau's Video ohne SGSSAA zeigen, wo sich diese Implementierung gegenüber nVidia's HQ positiv auswirkt?

Gorkon
2010-10-27, 01:04:31
@Gipsel

Oh ok, dann hab ich da wirklich was komplett falsch verstanden. So macht das mit den "Falschen Prioritäten" beim AF natürlich auch wirklich Sinn...danke für die Erklärung :)

mfg

Gipsel
2010-10-27, 01:04:48
@LS:
lesen => denken => posten

Langenscheiss
2010-10-27, 01:18:40
Das dürfte irgendeine Kombination sein. Bei korrekter Implementation springt man ja von gerade ausreichender Abtastung zu einer zweifach Überabtastung, was kein starkes Banding ergeben sollte (nichtsdestotrotz könnte man den Übergang unter den richtigen Bedingungen vielleicht trotzdem sehen). Vollständig verhindern könnte man es wohl nur mit nicht äquidistanten Samplepositionen, wie ich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8350931#post8350931) schon mal angedeutet hatte.

Für mich sieht es ein wenig danach aus, daß die Länge, über die gesampelt wird, sich eventuell nicht kontinuierlich verändert sondern Sprünge aufweisen kann.


Naja, das banding tritt auf jeden Fall an den Stellen auf, an denen die Sample-Zahl abrupt erhöht wird. Irgendein Zusammenhang muss da ja bestehen, denn die meisten Textur-Filter erhöhen das eben nicht so abrupt (siehe Barts bei höheren AF-Graden).

Es gab ja auf beyond3d im HD5K Thread auch schon mal diese Andeutung.
Ich glaube dass man die Übergänge sieht,
1. weil eben NICHT wie in einer korrekten Implementierung von perfekter Abtastung auf 2-fach Übertastung, sondern von Untertastung auf Übertastung gesprungen wird. Das sieht man insbesondere im 3DCenterFilter-Tester. Direkt vor dem banding ist das Flimmern sehr groß! (Benutze mal Ground2 als Textur und schieb das LOD durch um das Flimmern mit dem banding zu vergleichen, dann siehst du, was ich meine.)
2. weil eventuell die zusätzlichen Samples falsch gewichtet werden, was deiner Begründung schon am nächsten kommen würden.

Ich weiß jetzt nicht, wie flexibel die TMUs sind, aber sie müssen doch letztendlich auch nicht jeden Sample bilinear machen, oder? Könnte sie nicht auch einfach point samples mit bilinear samples verbinden und diese dann etwas anders verrechnen? So könnte man ja eventuell auch nochmal an der ein oder anderen Stelle Texel-Leistung sparen.

Rein technisch kann dieses Problem auf jeden Fall keine große Hürde sein, denn Nvidia bekommt das klar hin. Und die Texel-Analysen sprechen auch für sich. Barts hat das Problem, so zumindest mein erster Eindruck, einfach dadurch gelöst, dass man offenbar nicht mehr von Untertastung auf Übertastung, sondern von leichter Untertastung auf stärkere Untertastung springt, welche dann über das AF-Level hinweg sich wieder zu einer leichten Untertastung entwickelt. Denn eins ist sicher, NV schafft es, deutlich mehr samples (im Vergleich zu Barts) so zu verteilen, dass kein banding und weniger Flimmern entsteht. Bei NV sind darüber hinaus die Übergangszonen zwischen den AF-Graden noch deutlich zu erkennen, wenn gleich sie "weich" genug sind, damit man kein banding sieht. So beseitigen sie sowohl Flimmern als auch banding.

Gipsel
2010-10-27, 01:50:38
Es gab ja auf beyond3d im HD5K Thread auch schon mal diese Andeutung.Ups, das habe ich wohl verpaßt.
Ich weiß jetzt nicht, wie flexibel die TMUs sind, aber sie müssen doch letztendlich auch nicht jeden Sample bilinear machen, oder? Könnte sie nicht auch einfach point samples mit bilinear samples verbinden und diese dann etwas anders verrechnen? So könnte man ja eventuell auch nochmal an der ein oder anderen Stelle Texel-Leistung sparen.Das Problem ist, daß die Radeon-TMUs immer 16Byte auf einmal von einer Textur-Adresse lesen, also normalerweise 4 Samples. Ob diese 4 Samples jetzt gleich zu einem bilinear gefiltertem Texel verrechnet werden oder nicht, macht für den Aufwand keinen Unterschied, bilineares Filtering ist sozusagen komplett umsonst. Nvidia könnte eventuell ab den GF1xx so eine Optimierung anwenden, da dort Pointsamples (im Bereich +-64 Texel um die primäre Texturkoordinate, das reicht aber locker) mit doppelter Rate (im Vergleich zu bilinear gefilterten Texeln) gelesen werden können.
Barts hat das Problem, so zumindest mein erster Eindruck, einfach dadurch gelöst, dass man offenbar nicht mehr von Untertastung auf Übertastung, sondern von leichter Untertastung auf stärkere Untertastung springtWenn das alles wäre, müßte man das ja mit einer kleinen LOD-Anpassung hinbiegen können, das geht aber glaube ich nicht wirklich (oder man muß es fast um eine komplette Stufe verschieben, soo viele Samples werden aber auf keinen Fall gespart). Ich denke, da passiert auch irgendwas Komisches mit der Sampleverteilung.
Denn eins ist sicher, NV schafft es, deutlich mehr samples (im Vergleich zu Barts) so zu verteilen, dass kein banding und weniger Flimmern entsteht.Wahrscheinlich kann das nur Coda beantworten, aber wie zuverlässig sind denn eigentlich die Sampleanzahlen bzw. wie werden die eigentlich genau ermittelt?

Langenscheiss
2010-10-27, 02:03:32
Frag mal Demirug. Ich weiß auch nicht, wie man sowas misst, aber irgendwie muss es ja gehen, sonst könnte man ja auch diese Texel-Benches nicht machen. Ich gehe davon aus, dass die Werte letztendlich Funktionen der Sample-Summe sind (vielleicht sogar annähernd identisch). Aber die Werte passen halt sehr gut, z.B. stimmt der Wert SUM auf bilinear ziemlich exakt mit der Anzahl der verarbeiteten Pixel mal 4 überein. Ich würde jetzt für die Werte nicht meine Hand ins Feuer legen, aber eine Tendenz zeigen sie schon.

Gipsel
2010-10-27, 02:08:56
Naja, das banding tritt auf jeden Fall an den Stellen auf, an denen die Sample-Zahl abrupt erhöht wird. Irgendein Zusammenhang muss da ja bestehen,Eine naive Idee wäre, daß die Sampleanzahl hochgesetzt wird, aber der Sampleabstand gleich bleibt (statt halbiert), also über die doppelte Distanz gesampelt wird, was dann eventuell diesen abrupten Sprung ergibt.
Wenn also a und b die beiden Achsen der Ellipse sind und N die Anzahl der Samples, wird der Abstand nicht als max(a,b)/(N-1) sondern fälschlicherweise als max(a,b)/(N/2-1) berechnet. Das repariert sich dann langsam irgendwie bis zur nächsten Stufe und dann kommt der nächste Sprung. Oder die ordnen irgendwie die Samples um und das passiert gar nicht äquidistant entlang einer Linie. Oder die benutzen nicht den Standard-Tri-Filter sondern samplen immer Bi (dafür öfter und/oder aus verschiedenen Mipmaps) und rechnen dann nach irgendeinem vertrackten Algo die Samples zusammen. An irgendwas muß es ja liegen. Ich denke es wird schwer das exakt herauszubekommen, solange nicht der genau benutzte AF-Algo offengelegt wird (oder man durch Rumprobieren die Ergebnisse mehr oder weniger pixelgenau reproduzieren könnte).

Langenscheiss
2010-10-27, 02:22:50
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=745002&postcount=8

Hier erklärt er es. Die Funktionalität ist so, wie ich es beschrieben habe. Wie das genau mit dem Framebuffer funktioniert, weiß ich nicht.

Gipsel
2010-10-27, 03:05:54
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=745002&postcount=8

Hier erklärt er es.
Hmm, nicht wirklich.

Aber trotzdem danke.

Das, was mir jetzt spontan eingefallen ist, wäre die begrenzte Genauigkeit der Interpolatoren auszunutzen (haben nur 256 mögliche verschiedene Gewichte, zumindest war es so das letzte Mal, als ich das überprüft habe), was aber die Gefahr birgt, daß das nicht mehr funktionieren würde, falls sich das mal ändern sollte (außerdem weiß ich gar nicht, ob das bei nv/ATi gleich ist). Bei Verwendung von Fließkommtexturen mit bestimmten Werten könnte man so anhand der interpolierten Werte (die eigentliche Interpolation ist im Rahmen des Texturformates exakt, nur die Gewichte nicht) feststellen, aus wie vielen das zusammengemixt wurde. Allerdings dürfte das so nur für sehr geringe Sampleanzahlen klappen, wenn ich da jetzt nichts übersehe (was aber wahrscheinlich der Fall ist). Hmm. Aah, wahrscheinlich kann man das mit einer Art Multipass-Verfahren auch für noch mehr Samples hinbekommen (man macht Änderungen an den Texturen und beobachtet, wie sich die Pixel ändern)! Aber ist auch erstmal egal.

Langenscheiss
2010-10-27, 03:20:06
An sowas habe ich auch gedacht. Man lässt den Texturfilter seine Arbeit machen und überprüft sie anschließend mit der CPU, in dem man sie aus dem Framebuffer ausliest. Was man damit erfasst, muss nicht unbedingt die exakt verwendete Sample-Zahl sein, aber, wie gesagt, es ist eine monoton wachsende Funktion der Sample-Zahl. Dann sind lediglich exakte Angaben sinnlos, relative und vor allem Vergleiche bleiben aber möglich.

Gipsel
2010-10-27, 04:02:11
Es gab ja auf beyond3d im HD5K Thread auch schon mal diese Andeutung.Ah, gerade gefunden (http://forum.beyond3d.com/showthread.php?p=1479306#post1479306).
Da hat der Mintmaster ja praktisch das Gleiche geschrieben wie ich. Auch hat er die mögliche Lösung für das Vermeiden des Bandings beim Hochsetzen der Sampleanzahl (neue Positionen starten identisch zu den alten, alternativ spielt man mit den Gewichten, das ist aber m.M. nach nie perfekt).
Aber so wie ich Coda verstanden habe, gibt es bei diesem D3D AF-Tester wohl ein Problem mit nicht ordnungsgemäß gesetzten MipMaps, wodurch die Moirees im Innern eventuell verstärkt werden. Kann also sehr gut sein, daß nvidia-Karten mit ordnungsgemäß gefilterten MipMaps da auch ein perfektes Grau hinzaubern.

Schlammsau
2010-10-27, 09:33:38
Ich bin mal gespannt, wie sich AMD dazu äussert.

Exxtreme
2010-10-27, 09:48:08
Wieviel mm^2 wird man wohl sparen? Auf 40nm sollte das wohl im selben Bereich liegen wie die dedizierte Tessellation-Unit.
Sie boten auf 90nm mit <300mm^2 vernünftige Filterung an. nVidia fand beim G80 mit 480mm^2 Platz für vernünftige Filterung.
Ich sehe in der Qualität eher eine politische Entscheidung, um einen Vergleich mit nVidia zu verhindern. Denn wenn man wesentlich mehr Leistung als der Konkurrent verliert, dann steht man plötzlich nicht mehr so gut dar.
Ich glaube nicht einmal, dass die niedrigere Genauigkeit taktbereinigt so viel Leistung bringt. Wenn beide Kontrahenten dafür einen Takt brauchen dann ist das gehüpft wie gesprungen.

Wenn man aber Transistoren einspart dann wird das Design tendenziell einfacher und man kann u.U. höhere Taktfrequenzen fahren.

AnarchX
2010-10-27, 09:55:06
Wenn AMD die Konkurrenz scheuen würde, dann gäbe es nun keinen High Quality Schalter.

Laut Carsten Spille kostet High Quality bis zu 28% gegenüber Quality, insofern werden zukünftige Reviews interessant sein.

Aber vielleicht hat AMD auch High Quality im Bezug auf Cayman eingeführt, der vielleicht unter dieser Einstellung Cypress und Barts deutlich hinter sich lässt. ;)

puntarenas
2010-10-27, 09:59:16
Wenn AMD die Konkurrenz scheuen würde, dann gäbe es nun keinen High Quality Schalter.

Laut Carsten Spille kostet High Quality bis zu 28% gegenüber Quality, insofern werden zukünftige Reviews interessant sein.

Naja, ich würde eher sagen, Quality bringt bis zu 28% gegenüber dem bisherigen Treiberstandard "A.I. Default". Den Spin zur vollmundigen Qualitätssteigerung möchte ich nicht unbedingt mitgehen.

DrumDub
2010-10-27, 10:06:01
Wenn man aber Transistoren einspart dann wird das Design tendenziell einfacher und man kann u.U. höhere Taktfrequenzen fahren. ist für mich der einzig plausible grund, warum sie es machen.

AnarchX
2010-10-27, 10:10:05
Wie Coda schon öfter geäußert hat, kostet wohl ein solch optimierter Filter eher Transistoren.
Aber diese zusätzlichen Transistoren sind wohl weniger, als die man für eine vernünftige Bandbreitenversorgung der TMUs benötigt.

boxleitnerb
2010-10-27, 11:41:17
Die 28% sind aber ein absoluter Extremfall. Im Schnitt waren es bei HT4U 4%. Das muss man schon dazusagen. Wobei die kleine Anzahl an Spielen auch nicht unbedingt repräsentativ ist.
Ich warte auf PCGH, hoffentlich machen die mit allen Treibersettings (10.9 und 10.10) Benchmarks.

AnarchX
2010-10-27, 11:46:09
Der Workload eines Spieles besteht natürlich nicht nur aus Filterung durch die TMUs.
Aber in den häufig genutzten Balkenratings sind eben diese ~5%, das was eine Karte vor die andere schieben kann.

MadManniMan
2010-10-27, 11:47:48
Hier fehlt ein Post von mir :| Na dann noch einmal:

Unbeabsichtigter, aber eben leider auch unüberlegter Weise spielt Leo mit der aktuellen Betrachtung auf der Homepage dem AMD-Markting sowas von in die Händ (http://www.3dcenter.org/news/2010-10-26)e, dass es wirklich ärgerlich ist. Ich meine, es ist ja nun wirklich klar, dass man Q und Q eben nicht vergleichen kann. Das Ausmaß gilt es noch zu bestimmen, aber ein Faktum wird so eben völlig ignoriert:

Leistung bzw. Performance = Framerate x Bildqualität

Solang das nicht Grundsatz einer jeden Betrachtung wird, kann man sich derlei Aufwand echt in den Popo stecken.


3DCenter gilt als besonders kritisch - wenn nun selbst hier ein Persilschein für den Filterquatsch ausgestellt wird, können wir uns die Mühe eigentlich gleich schenken. Das ist ein Dolchstoß, von der sich die Betrachtung eventuell nicht mehr erholt.

Scheiße.

deekey777
2010-10-27, 12:00:27
Genauso wird es wohl auch sein, denn ATI hat mit der X19X0-Reihe bereits gezeigt, dass sie fast perfekt filtern können, wenn sie wollen...


Vor über zwei Jahren hatte ich ein Tool - ich glaube es war das ATI-Tool - mit dem konnte ich fast alle AF-Optimierungen deaktivieren, sodass z.B. in Gothic 3 das AF-Flimmern meiner HD 4870 fast vollständig verschwand.
Die Bildqualität war dadurch fast vergleichbar zu meiner GTX 280. Allerdings fiel die Framerate dabei fast um das Doppelte!
Und genau das bestärkt meine Vermutung, dass ATI-Karten bei perfektem AF einen derart hohen Leistungseinbruch hätten, dass AMD diese Optimierungen niemals freiwillig deaktivieren wird ;)
Bist du dir ganz sicher, dass das kein Placebo-Effekt war? Denn es ist seit Jahren nicht möglich, irgendwelche Optimierungen abzuschalten (über CCC bzw. Regedit); es gab nur eine Ausnahme und zwar bei AI Advanced.

LovesuckZ
2010-10-27, 12:43:34
Wenn man aber Transistoren einspart dann wird das Design tendenziell einfacher und man kann u.U. höhere Taktfrequenzen fahren.

Die Anzahl an Transistoren für vernünftige Filterung sollte so gering sein und so wenig Platz einnehmen, dass man wohl hier spart, um höher takten zu können.
Interessant wären in diesem Zusammenhang auch Vergleiche mit einer GF3/4 und einer Geforce FX in Trackmania. Wenn selbst diese GPUs in 180nm und 150nm besser filtern sollten, dann ist es bei AMD nur eine rein politische Entscheidung, um den Vergleichen mit der Konkurrenz aus dem Weg zu gehen.

Langenscheiss
2010-10-27, 15:58:00
Ah, gerade gefunden (http://forum.beyond3d.com/showthread.php?p=1479306#post1479306).
Da hat der Mintmaster ja praktisch das Gleiche geschrieben wie ich. Auch hat er die mögliche Lösung für das Vermeiden des Bandings beim Hochsetzen der Sampleanzahl (neue Positionen starten identisch zu den alten, alternativ spielt man mit den Gewichten, das ist aber m.M. nach nie perfekt).
Aber so wie ich Coda verstanden habe, gibt es bei diesem D3D AF-Tester wohl ein Problem mit nicht ordnungsgemäß gesetzten MipMaps, wodurch die Moirees im Innern eventuell verstärkt werden. Kann also sehr gut sein, daß nvidia-Karten mit ordnungsgemäß gefilterten MipMaps da auch ein perfektes Grau hinzaubern.

Also Mintmaster sagt korrekter Weise:
1. Die Erhöhung der Sample-Zahl geschieht zu spät = Unterfilter => Moire, Flimmern
2. Vermutliche gibt es entweder bei der Erhöhung der Sample-Zahl oder bei der Verteilung, letzteres wäre dann deine Begründung, ein Cheat/Bug.

Also, im Großen und Ganzen müsste es ja 8 verschiedene Stufen im Texel-Bild mit klaren Übergängen dazwischen geben (also 2,4,6,8,10,12,14,16), da laut dem Coda-Beitrag immer nur gerade Anzahlen genommen werden können. Diese Stufen sieht man ja auch in den Bildern (im Vergleich zwischen HD5K und NV, welcher im Artikel auf 3DCenter verlinkt ist, und auf den HD5KzuHD6K Bildern hier im Thread). Man beachte hier vor allem die NV-Bilder, welche diese Stufen klar zeigen, aber trotzdem kein banding verursachen.

Lass mich zunächst nochmal rein mit dem Sample-Zahlen argumentieren:

Diese Stufen sind bei NV nicht so abrupt, wie auf dem HD5K-Bild. Wenn das Ergebnis des Zählers stimmen sollte, so zeigen die Bilder, dass AMD aus irgendeinem Grund einfach falsch herum arbeitet. Dazu schaue man sich nochmal genau den NV-AMD-Vergleich (verlinkt im HD5K-AF-Artikel) an. Die Stufenbildung im NV-Bild kommt dadurch zu stande, dass man einfach 8 oder 9 verschiedene Farben sieht, welche jeweils an den Kanten von weniger nach mehr grün wechselt. Auf den AMD-Bildern hingegen sieht man die Treppenbildung deshalb, weil nach jeder Kante zunächst sehr stark und dann !wieder schwächer! gefiltert wird.
Hier ein Beispiel-Verlauf der trilinearen Samples, so wie es im AFTester aussieht (jede Stufe sei in 2 Bereiche aufgeteilt):
HD5K: (2 - 2) - (6 - 4) - (8 - 6) - (10 - 8) - (12 - 10) - (14 - 12) - (16 - 14) - (16 - 16)
NV: (2 - 2) - (4 - 4) - (6 - 6) - (8 - 8) - (10 - 10) - (12 - 12) - (14 - 14) - (16 - 16)
Ob es stimmt, kann man nicht mit Sicherheit sagen, aber so sehen die Texel-Analysen nun mal aus, mehr kann ich auch nicht sagen.

2. Der Vergleich mit Barts zeigt, dass AMD sich die ganzen Erhöhungen dazwischen mehr oder weniger komplett spart. Man sieht, dass Barts über den gesamten Bereich einer Treppenstufe, in dem auf Cypress die Sample-Zahl wieder gesenkt wird, stumpf die gleiche niedrige Sample-Zahl verwendet (das grüner werden kommt schlich durch die Tri-Bänder) wird, die Cypress erst am Ende dieser Stufe einsetzt.
=> banding verschwunden, aber teils krasses Unterfilter, also genau das, was die vielen Reviews sagen. Das ist auch eine passende Erklärung dafür, warum Barts so scharf ist im Hintergrund.

Das ist allein das, was man an den Texel-Bildern (falls sie halbwegs korrekt sind), sehen und sagen kann. Dann kommt natürlich das Problem der Verteilung und Gewichtung hinzu. Wie ich das verstanden habe, wird hier vorgeschlagen, bereits vorher die Sample-Zahl zu erhöhen, die Sample-Paare aber dann kontinuierlich so zu verschieben, bis man quasi bei äquidistanter Abtastung der langen Halbachse angelangt ist. D.h. z.B mit 4 trilinearen Samples:

Von
2 samples
---o-------o---
über 4 samples mit gleichen Punkten
---2o-------2o---
nach 4 samples mit gleichen Abständen
-o---o---o---o-

Oder man macht das mit entsprechenden Gewichten der einzelnen Punkte.

Es kann sehr gut sein, dass wohl eine Kombination von beiden Problemen, also falsche Abtastung/Gewichtung und falsche Samplezahlen zum banding führen.

Gipsel
2010-10-27, 18:51:00
Lass mich zunächst nochmal rein mit dem Sample-Zahlen argumentieren:
[..]
Nichts gegen Deine Argumentation, aber ich würde immer noch Hinterkopf behalten, daß es vielleicht noch eine kleine Unsicherheit mit den Samplezahlen gibt. Wenn die Position der Samples so gewählt werden sollte, wie ich das unten gleich als Variante der nicht äquidistanten Samples beschreibe, dann könnte die Texelanalyse eventuell die Übergänge zu höheren Sampleanzahlen schlicht verpassen, weil im Prinzip an den Übergängen die gleichen (ungefilterten) Samples gelesen und nur minimal anders gewichtet werden.
Wie ich das verstanden habe, wird hier vorgeschlagen, bereits vorher die Sample-Zahl zu erhöhen, die Sample-Paare aber dann kontinuierlich so zu verschieben, bis man quasi bei äquidistanter Abtastung der langen Halbachse angelangt ist. D.h. z.B mit 4 trilinearen Samples:

Von

---2o-------2o---
nach
-o---o---o---o-
Nennen wir mal die längere Achse der in dem Footprint liegenden Ellipse a und die kleiner Achse b. Sozusagen "laut Kochrezept" sollte kurz vor dem Übergang von 2x auf 4x (also bei a/b<~2) die Samplepositionen entlang der längeren Achse der Ellipse (a) so gewählt werden:

o--------o

Direkt dahinter, nach dem Übergang auf 4x (a/b>~2, immer noch etwa gleiche Länge der Achse a) sollte das dann so aussehen:

o--o--o--o

Die äußeren Samples bleiben also sozusagen an den gleichen Positionen stehen und es werden einfach noch zwei zusätzliche Samples dazwischen genommen. Wenn dieser Übergang früh genug geschieht (also bei a/b=2), dann dürfte das eigentlich keinen deutlich sichtbaren Übergang ergeben, wahrscheinlich bleibt es aber beobachtbar.

Lösung 1, unterschiedliche Wichtung:

Oben wurden ja alle Punkte gleich gewichtet, was in Hardware sehr einfach ist (2 Werte addieren und Summe 1 Bit verschieben oder 4 Werte addieren und Summe um 2 Bit verschieben usw.). Deswegen gibt es als mögliche Sampleanzahlen traditionell auch immer nur die Zweierpotenzen. Wenn die TMUs AF aber durch Looping durch die sowieso vorhandenen bilinearen Filter vornehmen (bzw. solche für den Zweck einfach nochmal dazupacken), dann können die Samples auch unterschiedlich gewichtet werden. Die kann z.B. so aussehen, daß die äußeren (die alten) Punkte immer das Gewicht 1 bekommen, die inneren Samples (die neuen) aber am Übergang mit Gewicht 0 starten, wobei das dann langsam zunimmt (in Abhängigkeit von a/b), bis direkt vor dem Übergang zur nächsten Stufe wieder alle Punkte die gleichen Gewichte haben.
Das funktioniert wahrscheinlich halbwegs passabel, das prinzipielle Problem daran ist nur, daß es nur für den Übergang von 2x auf 4x perfekt funktioniert. Beim Übergang von 4x auf 8x (bei allen außer bei 2x auf 4x) hat man das Problem, daß nicht alle alten Punkte erhalten bleiben (nur die beiden äußeren), sondern alle inneren Punkte neu angeordnet werden:
o------o------o------o
o--o--o--o--o--o--o--oDeshalb kann diese Lösung nie perfekt sein (auch wenn die sichtbaren Auswirkungen wahrscheinlich schon recht gut behoben werden).

2. Lösung, nicht äquidistante Samples:

Für (oder gegen) das Banding besser wäre es meiner Meinung nach wirklich, die Samplepositionen zu verschieben, also z.B. beim Übergang von 2x auf 4x
erstmal von
o--------o
auf
O--------O
zu gehen (O = zwei Samples an praktisch der gleichen Stelle) und dann mit zunehmendem a/b stetig die Samplepositionen auseinanderzurücken:
oo------oo
o-o----o-o
bis man schließlich kurz vor dem Übergang zu 8x bei äquidistanten Samplepositionen ankommt:
o--o--o--o

Bei dieser Vorgehensweise kann man sowohl die einfachere Gleichgewichtung aller Samples beibehalten und hat dabei definitiv keine Banding-Artefakte durch den Sprung der Sampleanzahl. Der Nachteil ist eine etwas schlechtere Verteilung der Samples, sie nähern den Footprint nicht mehr so gut an (die Samples liegen tendenziell etwas mehr am Rand des Footprints), auch wenn die Nyquist-Bedingung nicht verletzt wird. Dies könnte zu minimal schlechteren Filterresultaten führen.

3. Lösung, die Kombination von 1. und 2.:
Aber es gibt natürlich auch eine Lösung dafür, die Kombination von 1 und 2. Jetzt stellt mal die Farbe ganz grob das Gewicht der jeweiligen Samples dar:
oo------oo
o-o----o-o
o--o--o--o

Dadurch erreicht man beides, kein Banding und wieder eine "bessere" Abtastung des Footprints (es wird mathematisch gesehen der komplette Footprint gleich gewichtet). Aber wieviel das die Flimmerneigung verändert (ich vermute höchst minimal), müßte man wohl ausprobieren (Coda?).

Bei all dem sind natürlich viele verschiedene Implementationen möglich (über welchen Bereich werden die Gewichte angepaßt und wie die Samples verschoben usw.), so daß man wohl ohne Hilfe der IHVs kaum auf den genau benutzten kommt.
Es kann sehr gut sein, dass wohl eine Kombination von beiden Problemen, also falsche Abtastung/Gewichtung und falsche Samplezahlen zum banding führen.Das würde ich auch erstmal vermuten. Oder wie Mintmaster bei B3D meinte, passen vielleicht die die Gewichte nicht zu den Samplepositionen (z.B. weil das Weglassen von ein paar Samples nicht entsprechend berücksichtigt wurde).

Schlammsau
2010-10-27, 19:13:44
Ich hab jetzt mal HL² Lost Coast getestet....subjektiv hat sich das AF-Flimmern unter HQ deutlich verbessert!

Langenscheiss
2010-10-27, 19:31:09
@Gipsel:
D.h. traditionell sind nur 2er-!Potenzen! als Sample-Anzahl möglich, aber durch Ausnutzen den vorhandenen Logik ist es eben auch möglich alle geraden Werte zwischen 2 und 16 zu nehmen?
Ich habe auch bereits daran gedacht, dass der Analysator gegenüber bestimmten Sample-Verteilungen anfällig werden kann, wenn man davon ausgeht, dass so gezählt wird, wie du dir das denkst. Deswegen habe ich das ja auch nicht in Stein gemeißelt. Trotzdem glaube ich immer noch, das bei Barts reduziert wurde.

Und zur Verschiebung/Gewichtung: So wie du es beschrieben hast, meinte ich es, nur dass ich nicht wusste, das die äußeren Samples immer fix sind.

EDIT:
Und nochwas: Wäre es nicht möglich, mit extrem hochauflösenden Texturen eine Art Kernel-Spur zu erstellen? Man berechnet vorher für einen entsprechenden Pixel bei einer entsprechenden Textur mit Abstand und Orientierung einen möglichst genauen Pixelfootprint. Man stelle sich nun, ähmlich dem Kachelmuster eine Textur vor, die in diesem footprint hineingeladen wird. Nun macht gibt man allen Kacheln den gleichen Farbwert außer einer. Bei genügend hoher Auflösung müsste man damit doch die einzelnen Samples erwischen, ohne das andere in den gleichen Bereich fallen, oder? Das könnte man dann ja an dem ausgelesenen interpolierten Farbwert sehen, und wenn halt doch mehr als ein Sample erwischt wurde, müsste man es ja wegen der Gewichtung auch am Farbwert erkennen. (bei genügend hoher Farbpräzision). Das macht man halt dann fürs ganze Bild bzw. auf einer Geraden in die Bildtiefe. Damit hätte man doch zumindest was die Sample-Position angeht, eine Art Spur, oder?

Gipsel
2010-10-27, 19:46:25
D.h. traditionell sind nur 2er-!Potenzen! als Sample-Anzahl möglich, aber durch Ausnutzen den vorhandenen Logik ist es eben auch möglich alle geraden Werte zwischen 2 und 16 zu nehmen?Ja, traditionell gibt es nur die Zweierpotenzen. Allerdings könnte man mit genügend flexiblen TMUs im Prinzip beliebige Anzahlen von Samples verrechnen, auch ungerade (aber keine Ahnung, ob das gemacht wird). Damit könnte man sich im Prinzip immer an der Filterbedingung "entlanghangeln", also ordentlich Samples sparen ohne theoretisch das Bild wesentlich schlechter zu machen. Zur Wahl der Anzahl von Samples wird einfach a/b (Verhältnis der Achsen der Ellipse) zur nächsten ganzen Zahl statt zur nächsten Zweierpotenz aufgerundet. Spart dann zwar keine Zeit für die Filterung in den TMUs, aber Bandbreite.
Und zur Verschiebung/Gewichtung: So wie du es beschrieben hast, meinte ich es, nur dass ich nicht wusste, das die äußeren Samples immer fix sind.Sie sollten fix sein. Falls sie es nicht sind (sondern so verteilt wie Du zuerst aufgemalt hattest), könnte das zu einer mehr oder weniger starken Flimmerneigung führen (weil es keinen [ausreichenden] Überlapp zwischen den für benachbarte Pixel gesampelten Bereichen gibt).

LuXon
2010-10-27, 19:55:47
Ja, traditionell gibt es nur die Zweierpotenzen. Allerdings könnte man mit genügend flexiblen TMUs im Prinzip beliebige Anzahlen von Samples verrechnen, auch ungerade (aber keine Ahnung, ob das gemacht wird). Damit könnte man sich im Prinzip immer an der Filterbedingung "entlanghangeln", also ordentlich Samples sparen ohne theoretisch das Bild wesentlich schlechter zu machen. Zur Wahl der Anzahl von Samples wird einfach a/b (Verhältnis der Achsen der Ellipse) zur nächsten ganzen Zahl statt zur nächsten Zweierpotenz aufgerundet. Spart dann zwar keine Zeit für die Filterung in den TMUs, aber Bandbreite.

Da taucht bei mir auch gleich eine Frage auf. Bei Spielen mit Gamebryo-Engine (Fallout 3; oblivion; Fallout new vegas) kann man zwischen 0 und 15 Samples auswählen. Wird das demnach auch aufgerundet?

Oder wäre es zwar theoretisch möglich mit der Eingine, die GPU's runden dann jedoch die Werte.

Langenscheiss
2010-10-27, 20:16:32
Keine Ahnung, was gemeint ist, aber mit ner Shader-Implementierung kann man soviele Samples nehmen wie man will. Man lässt die TMUs auf Point-Sampling (d.h. nächst gelegener Texel wird ausgegeben) und macht alles andere in den ALUs. Keine Ahnung, ob das bei dieser Engine zum Einsatz kommt. Das mit den samples kann sich aber auf etwas völlig anderes beziehen. Nur zur info: Sample ist auf Deutsch nichts anderes als "Probe" bw. "Muster", das muss nichts mit Texels zu tun haben.

Coda
2010-10-27, 20:20:40
Keine Ahnung, ob das bei dieser Engine zum Einsatz kommt.
Sicher nicht. Das ist unglaublich langsam.

Gipsel
2010-10-27, 20:43:23
EDIT:
Und nochwas: Wäre es nicht möglich, mit extrem hochauflösenden Texturen eine Art Kernel-Spur zu erstellen? Man berechnet vorher für einen entsprechenden Pixel bei einer entsprechenden Textur mit Abstand und Orientierung einen möglichst genauen Pixelfootprint. Man stelle sich nun, ähmlich dem Kachelmuster eine Textur vor, die in diesem footprint hineingeladen wird. Nun macht gibt man allen Kacheln den gleichen Farbwert außer einer. Bei genügend hoher Auflösung müsste man damit doch die einzelnen Samples erwischen, ohne das andere in den gleichen Bereich fallen, oder? Das könnte man dann ja an dem ausgelesenen interpolierten Farbwert sehen, und wenn halt doch mehr als ein Sample erwischt wurde, müsste man es ja wegen der Gewichtung auch am Farbwert erkennen. (bei genügend hoher Farbpräzision). Das macht man halt dann fürs ganze Bild bzw. auf einer Geraden in die Bildtiefe. Damit hätte man doch zumindest was die Sample-Position angeht, eine Art Spur, oder?
Ja, das könnte man vielleicht wirklich hinbekommen. Im Prinzip müßte das sogar in einem Pixelshader unabhängig von echter Geometrie funktionieren. Soweit ich weiß, kann man ja auch die Gradientenberechnung nicht nur von den TMUs ausführen lassen, sondern auch die Gradienten selber manuell in der Tex-Instruktion setzen (geht zumindest in IL, also wahrscheinlich auch in HLSL). Zusammen mit einem ordentlichen LOD Bias (bzw. deaktiviertem MipMapping, so daß an weit auseinander liegenden Texturkoordinaten gesampelt wird), ließe sich das dann wohl sogar so stricken, daß man sowohl Samplemuster als auch die Gewichte herausbekommt (für beliebige Gradienten). Wahrscheinlich könnte man so wirklich den benutzten AF-Algo rekonstruieren. Wäre vielleicht mal eine Überlegung wert.

MadManniMan
2010-10-27, 20:56:54
Ganz davon ab, dass die aktuelle Diskussion höchst interessant ist: sind wir inzwischen so weit, eine Aussage zu treffen, wie RV600/700, RV800, RV900 und G80/GF100 filtern und das gegenüber stellen? Ich bin es Leid, solche Betrachtungen wie heute morgen von Leo (http://www.3dcenter.org/news/2010-10-26) mehr oder weniger unkommentiert stehen lassen zu müssen.

Ich sehe das ganz pragmatisch und möchte einfach nicht, dass künftig Einsparungen wieder auf der Tagesordnungen stehen werden - was aber wieder geschehen wird, wenn einfach so Dinge gleichgesetzt werden, die de facto als qualitativ unterschiedlich und damit eben nicht als 1:1 vergleichbar verschrien sein sollten. ;(

Gipsel
2010-10-27, 21:03:27
Ganz davon ab, dass die aktuelle Diskussion höchst interessant ist: sind wir inzwischen so weit, eine Aussage zu treffen, wie RV600/700, RV800, RV900 und G80/GF100 filtern und das gegenüber stellen?Du meinst z.B. so, wie man die verschiedenen AA-Modi anhand der Anzahl und Anordnung (Stichwort EER) der Geometrie- und Textursamples gegenüberstellen kann?

Wenn man es schafft, die Filteralgorithmen zu rekonstruieren (Langenscheiß' und mein letzter Post), kann man das fast genau so in Angriff nehmen und hat dann auch eine objektive Datenlage (z.B. zur Anzahl und Verteilung der Samples), die sich nicht wegdiskutieren läßt. Verkompliziert wird es allerdings durch den adaptiven Charakter von AF. Man müßte die Betrachtung praktisch für den Verlauf der Anisotropie vornehmen. Das ist im prinzip sogar zweidimensional, zum einen die Anisotropie an sich (vereinfacht das Verhältnis der Kantenlängen des Pixelfootprints) und zum anderen der Winkel zwischen den beiden Kanten. Letzteres sollte aber mit den (fast) winkelunabhängigen Filterblumen bei den neueren Grafikkarten kaum eine Rolle spielen.

Langenscheiss
2010-10-27, 21:07:32
@Manni
Kann ich verstehen. Solange ich aber nicht abschätzen kann, wie groß der Messfehler in den Analysen ist, will ich, sofern keine deutlichen Unterschiede zu sehen sind, keine definitiven Aussagen treffen. Außerdem kommt es dann immer noch drauf an, wie es in Spielen ist.
Aber das Barts unterfiltert gegenüber Cypress, sieht man ja auch in der Praxis. Lass dir nichts vormachen, diese Schärfe bei einigen Szenen ist nicht irgendein Wunder, das ist schlicht Untersampling, und ich denke, dass die von mir ermittelten 8% gegenüber Cypress wohl nicht NUR auf einen Messfehler zurückzuführen sind.

Schlammsau
2010-10-27, 21:13:07
Redest du von Q oder HQ?

Subjektiv empfinde ich HQ auf Barts besser als A.I. Off auf Cypress. Kann mich aber auch täuschen.....

MadManniMan
2010-10-27, 23:26:30
Wenn wir - korrigiere: ihr ;) - bei der Theoriebetrachtung auf einem Level seid, bei dem man davon sprechen kann, dass die nötigsten Erkenntnisse vorhanden sind (was fehlt noch?), dann benötigen wir noch ein paar schöne Spielevideos/-screenshots von verschiedensten Karten.

FRAPS ahoi, ich kann vielleicht zumindest mit meiner G80 helfen!

Langenscheiss
2010-10-27, 23:46:49
Ne, ich hab dem Demirug n PM geschickt. Der wird mir hoffentlich nochmal genau erklären, wie der beim Analysator genau misst. Erst dann man von der theoretischen Seite wirklich sicher sein. Wäre wohl ziemlich peinlich, wenn man Flimmern mit etwas begründen will, was jeder andere ziemlich leicht entkräften könnte. Wenn man sowas bringt, dann muss man erklären, wie genau man misst, quasi Protokoll führen. Beim banding war es ja was anderes, denn die grundsätzliche Arbeitsweise wird in diesen Bildern schon deutlich. Leonidas hat sich da im Artikel ja auch sehr zurückhaltend geäußert (korrekter Weise).
Sag mal, dauer die Bilder bei dir mit dem g80 auch n halbe Stunde. Ich hab gestern den Analysator mal auf meinem Laptop (8600M) laufen lassen, und das hat ja wohl ewig gedauert.

@Schlammsau:
Ich meinte im ersten Satz im Vergleich zu NV, sorry, war ungeschickt formuliert. Im zweiten Satz war es korrekt, denn da bezog ich mich nicht auf die Praxis, sondern die Theorie. Ich kenne die Szenen aus den Barts Reviews nicht auf dem Cypress (bis auf die banding Geschichten).

Gipsel
2010-10-27, 23:57:49
Ne, ich hab dem Demirug n PM geschickt. Der wird mir hoffentlich nochmal genau erklären, wie der beim Analysator genau misst. Erst dann man von der theoretischen Seite wirklich sicher sein. Wäre wohl ziemlich peinlich, wenn man Flimmern mit etwas begründen will, was jeder andere ziemlich leicht entkräften könnte. Wenn man sowas bringt, dann muss man erklären, wie genau man misst, quasi Protokoll führen. Beim banding war es ja was anderes, denn die grundsätzliche Arbeitsweise wird in diesen Bildern schon deutlich. Leonidas hat sich da im Artikel ja auch sehr zurückhaltend geäußert (korrekter Weise).
Sag mal, dauer die Bilder bei dir mit dem g80 auch n halbe Stunde. Ich hab gestern den Analysator mal auf meinem Laptop (8600M) laufen lassen, und das hat ja wohl ewig gedauert.
Check mal Deine PM's. Ich habe da gerade eben mal einen kleinen Pixelshader skizziert (dürfte kürzer werden als dieser Post ;)), mit dem man direkt die Samplingmuster (und auch Gewichte) in Echtzeit (d.h. einige tausend fps, wenn es sein muß) sichtbar machen kann. Sollte im Prinzip auf jeder Grafikkarte laufen können, ist also nicht herstellerspezifisch. Damit könnte man dann direkt sehen, ab die zusätzlichen Samples einfach nur zu spät kommen oder ob sonst was schief läuft. Außerdem könnte man dann mal die nv und AMD-Implementation vergleichen und definitv sagen, wer wann unter welchen Umständen Samples einspart.

Gipsel
2010-10-28, 00:09:39
Wenn wir - korrigiere: ihr ;) - bei der Theoriebetrachtung auf einem Level seid, bei dem man davon sprechen kann, dass die nötigsten Erkenntnisse vorhanden sind (was fehlt noch?)
Einer muß das Tool programmieren (in Codas AF-Tester einbauen?) bzw. vorher nochmal checken, ob meine Idee überhaupt funktioniert. Sie ist zwar hinreichend einfach, allerdings habe ich die letzten Tage auch deutlich zu wenig geschlafen, als daß ich behaupten würde, daß das zu 100% so funktioniert :rolleyes:

Außerdem ist meine Kenntnis der DirectX-API sehr oberflächlich. Ich orientiere mich eigentlich nur daran, daß es in HLSL meist eine fast 1:1 Entsprechung in AMDs IL gibt, mit der ich mich ein wenig mehr auskenne ;)

Coda
2010-10-28, 00:12:08
Wieso schreibst du das per PM und nicht öffentlich?

Ich hab mir dazu auch schon Gedanken gemacht. was ich rausgefunden habe ist, dass die ATI-Hardware durchaus in der Lage wirklich 16 Samples zu nehmen.

Falles es einfach ist ist das kein Ding das ich das einbaue.

Gipsel
2010-10-28, 00:26:09
Wieso schreibst du das per PM und nicht öffentlich?Weil das meiner Meinung vielleicht etwas zu technisch für dieses Unterforum war. Außerdem interessiert das wahrscheinlich höchstens 3 Leute hier, wie der Test genau funktionieren soll. Die meisten sind doch dann an (schönen?) Bildern bzw. Vergleichen interessiert, die man hinterher dann anstellen kann.

Ich hab mir dazu auch schon Gedanken gemacht. was ich rausgefunden habe ist, dass die ATI-Hardware durchaus in der Lage wirklich 16 Samples zu nehmen.Alles andere hätte mich auch wirklich überrascht.
Falles es einfach ist ist das kein Ding das ich das einbaue.Sollte auf jeden Fall nicht soo schwer sein. Man übergibt eine Handvoll Parameter an den Pixelshader (die gewünschten Gradienten und ein oder zwei Skalierungsfaktoren) und dann dürften das auch kaum noch 5 Zeilen oder so sein. Der größere Aufwand wird wohl eher die Oberfläche und Steuerung des Ganzen ;)

Hayab
2010-10-28, 01:08:47
So so, mit HD6xxx Reihe schaft AMD die Texturbugwelle auch nicht zu beseitigen. :cool:

Flatterball77
2010-10-28, 01:27:04
Heute kommt meine 470 SOC. Mal schauen vielleicht schreib ich hier was zu der Karte bezüglich Vergleich AF ATI und NV 470. Ich freue mich schon so auf die Karte ihr glaubt es nicht:D:crazy::whisper:

Achso 250 Euro war der Preis;)

Hab am Wochenende nen Vergleich da steigt ne Lanparty bei mir. 6870 wird dann auch anwesend sein:eek:

AF von 4850, 5850 kenn ich ja schon. Übel. Mal schauen, die Filterung von der 68XX soll ja noch schlimmer sein.

Wie dem auch sei, ich erwarte da dieselbe schlimme BQ wie bei den Vorgängern. Da wird der Chip kleingehalten, Hauptsache Stromverbrauch unter Last ist gut. Gecheated wird wie eh und je. Bald hab ich hier direkte Vergleiche, dann gibts eye to eye comparisons=)

Angiesan
2010-10-28, 09:58:29
An die Experten, es würde mich ungemein freuen, wenn man mal Arcania mit in die Tests aufnehmen könnte, es gibt in diesem Spiel sehr hochfrequente Bodentexturen (Kopfsteinpflaster) da sieht das Af der HD 5850 meiner Meinung nach besser aus wie das der GTX 480 HQ und clamp aktiviert. Vor allem und das wundert mich sehr habe ich dort ein umgedrehtes Bild, dort zeigt die NV ein deutliches Banding und Flimmern die ATi flimmert vielleicht noch ein wenig mehr, irgendwie sieht das grober aus hat aber zumindest dort kein sichtbares Banding:freak: Es scheint so zu sein , dass es wirklich beide Hersteller betrifft, je nachdem was für Optimierungen bei dem Spiel greifen.
Der gleiche Effekt trifft im übrigen auch bei dem Gitterboden bei dem Oldie CoD WaW auf z.B. in der Map Sub Pens dort bekomme ich heftige Moire Effekte mit der NF nicht aber mit der ATi es ist zum Haare raufen wir sind meiner Meinung bald soweit dass man sich je nach Spiel die NV oder die ATi/AMD in den Rechner hängen darf oder gleich ganz auf AF verzichtet :freak: was aber nicht wirklich eine Lösung ist.
Insofern begrüße ich das sehr was hier gerade gemacht wird, mann sollte aber NV nicht aus dem Blick verlieren, dort ist auch nicht alles gut, auch wenn es deutlich seltener auftritt wie bei ATi,
Meine Frage ist, woran liegt das? Das AF der NV ist ja in den meisten Spielen dem der ATI überlegen, es gibt allerdings wie o.a. Ausnahmen und mich würde es interessieren warum es zu solchen kommen kann wenn das AF der NV so nah am Optimum ist.

Raff
2010-10-28, 10:12:41
An die Experten, es würde mich ungemein freuen, wenn man mal Arcania mit in die Tests aufnehmen könnte, es gibt in diesem Spiel sehr hochfrequente Bodentexturen (Kopfsteinpflaster) da sieht das Af der HD 5850 meiner Meinung nach besser aus wie das der GTX 480 HQ und clamp aktiviert. Vor allem und das wundert mich sehr habe ich dort ein umgedrehtes Bild, dort zeigt die NV ein deutliches Banding und Flimmern die ATi flimmert vielleicht noch ein wenig mehr, irgendwie sieht das grober aus hat aber zumindest dort kein sichtbares Banding:freak: Es scheint so zu sein , dass es wirklich beide Hersteller betrifft, je nachdem was für Optimierungen bei dem Spiel greifen.

Von Arcania dachte ich auch, dass es ein super Flimmertest wird – ist es aber nicht. Und wirklich: Auf einer HD 5000 flimmert das Spiel weniger als auch einer clamped GeForce. Das Problem ist, dass das Spiel je nach Szene und Blickwinkel das MIP-Mapping "vergisst", wodurch die Szenerie extrem flimmert/grießelt. Das tritt auf GeForce-Karten deutlich häufiger auf als auf Radeönern. Und Clmap clamped eben nur MIP-Maps, kann jedoch nichts reißen, wenn die weg sind ...

_______

Btw: Nachdem ich Hunderttausend Bilder und Fraps-Videos gemacht habe, muss ich sagen, dass das HD-6000-AF, ebenso wie das HD-5000-AF mit neuen Treibern, eine riesengroße Scheiße ist. Es flimmert tierisch – kein Wunder, handelt es sich doch standardmäßig um das einstige A.I. Erweitert.

MfG,
Raff

Exxtreme
2010-10-28, 10:15:57
Btw: Nachdem ich Hunderttausend Bilder und Fraps-Videos gemacht habe, muss ich sagen, dass das HD-6000-AF, ebenso wie das HD-5000-AF mit neuen Treibern, eine riesengroße Scheiße ist. Es flimmert tierisch – kein Wunder, handelt es sich doch standardmäßig um das einstige A.I. Erweitert.

MfG,
Raff
Japp. Deshalb habe ich diesmal mit dem Geldbeutel abgestimmt und mit eine GTX 460 geholt. Solche absichtlichen Unstimmigkeiten müssen IMHO nicht auch noch belohnt werden.

AnarchX
2010-10-28, 10:20:42
Btw: Nachdem ich Hunderttausend Bilder und Fraps-Videos gemacht habe, muss ich sagen, dass das HD-6000-AF, ebenso wie das HD-5000-AF mit neuen Treibern, eine riesengroße Scheiße ist. Es flimmert tierisch – kein Wunder, handelt es sich doch standardmäßig um das einstige A.I. Erweitert.

Das bezieht sich aber auf Quality?
Und was ist deine Meinung zu High Quality mit "native texturing"?

Raff
2010-10-28, 10:25:33
Das bezieht sich aber auf Quality?
Und was ist deine Meinung zu High Quality mit "native texturing"?

Native Texturing?

Meine Aussage mit den Mörder-Exkrementen bezieht sich auf:

- HD 6000 mit Quality (Treiberstandard) und erst recht "Performance"
- HD 5000 mit Catalyst 10.10+ und A.I. Standard (äquivalent zu Quality auf HD 6000)

Beides entspricht A.I. Erweitert von früheren Karten/Treibern und damit Gruselflimmern.

High Quality (HD 6000) respektive A.I. Off auf den obigen Paaren ergibt die Qualität, welche einst A.I. Standard vollbrachte – und die ist ok, mehr aber auch nicht. "Ok" im Sinne von "Kann es meist mit Nvidias Quality aufnehmen, verliert im Zweifel jedoch."

MfG,
Raff

AnarchX
2010-10-28, 10:36:15
Native Texturing?
Das bezieht sich auf eine Aussage von Baumann, der behauptet, dass High Quality die von Software unbeeinflusste Filterqualität der HW wiedergibt. :D

Techreport hat ja sehr gut gezeigt, dass der neue Treiberstandard Quality die Geschwindigkeit der Filterung mal um gute 20% steigert, was im Szenario eines Spieles wohl immer noch ~5% sind.

Baumann behauptet ja auch, dass das neue Quality der Filterqualität aller Radeon HDs, ausgenommen der Cypress-Karten, wiederspiegelt und man es nun eben vereinheitlich hat.
Wobei einige User etwas anderes sehen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8342901#post8342901 Juniper mit nun reduzierter Filterqualität

Schlammsau
2010-10-28, 10:36:40
Also ist AMDs HQ schlechter als nVidia´s Q?

Angiesan
2010-10-28, 11:00:49
Native Texturing?

Meine Aussage mit den Mörder-Exkrementen bezieht sich auf:

- HD 6000 mit Quality (Treiberstandard) und erst recht "Performance"
- HD 5000 mit Catalyst 10.10+ und A.I. Standard (äquivalent zu Quality auf HD 6000)

Beides entspricht A.I. Erweitert von früheren Karten/Treibern und damit Gruselflimmern.

High Quality (HD 6000) respektive A.I. Off auf den obigen Paaren ergibt die Qualität, welche einst A.I. Standard vollbrachte – und die ist ok, mehr aber auch nicht. "Ok" im Sinne von "Kann es meist mit Nvidias Quality aufnehmen, verliert im Zweifel jedoch."

MfG,
Raff

Dabei wurde doch immer behauptet, dass das AF der 58xxer nicht angerührt wurde:freak:
Raff hast Du schon mal Metro 2033 mit dem neuen Beta getestet? Da hauen die ATi´s mal den Turbo raus, unglaublich aber meine 5850 oc ist jetzt auf Augenhöhe mit meiner GTX 480 lol allerdings nur mit AAA und ohne Tiefenschärfe, das ist aber auch auf der 480iger nicht spielbar.

Langenscheiss
2010-10-28, 11:17:56
Also ist AMDs HQ schlechter als nVidia´s Q?

Puh, theoretisch nicht unbedingt, aber da AMD HQ völlig identisch zu A.I. standard of Cat10.9 ist, kannst du ja dir und uns die Frage stellen, ob AMDs altes A.I. standard besser ist, als NVs Q.
Also was Flimmern angeht, ist NV in der Regel glaub ich besser.

@Raff:
Wie, haben die das jetzt für die HD5K auch angepasst? Also im Cat10.9 war A.I. standard noch gleich zu HQ.

Raff
2010-10-28, 11:22:21
@Raff:
Wie, haben die das jetzt für die HD5K auch angepasst? Also im Cat10.9 war A.I. standard noch gleich zu HQ.

Installierst du beispielsweise den 10.10x RC5, 10.10b, 10.10c, whatever (http://support.amd.com/us/kbarticles/Pages/GPU84AMDCatalyst1010aHotfix.aspx), bleibt die Benennung bei "A.I. Standard/Erweitert/Deaktiviert", aber die Standard-Qualität wird auf HD-6000-Niveau gesenkt. So, wie hier ausgeführt und gebencht (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4). Mit dem 10.9 WHQL oder Hotfix ist A.I. Standard noch A.I. Standard und nicht Erweitert.

Kurz:

HD 5000 + Cat. 10.9 A.I. Standard = HD 6000 HQ
HD 5000 + Cat 10.10x A.I. Standard = HD 6000 Q

HD 6000 Q = HD 5000 Cat 10.9 mit A.I. Erweitert
HD 6000 Q = HD 5000 Cat 10.10x mit A.I. Standard

HD 6000 HP = Irgendwas Hässliches, das es mit HD 5000 + Cat 10.9 noch nicht gab

MfG,
Raff

Schlammsau
2010-10-28, 11:26:30
Alter Schwede, wasn das für ne sch****?

Jetzt würd ich aber echt Druck bei AMD machen!

ColdColt
2010-10-28, 11:36:31
Also ist das neue HD5000 AI Standard im 10.10 dem AI Erweitert vom 10.9 gleichzusetzen?

Eggcake
2010-10-28, 11:38:05
Ja

Raff
2010-10-28, 11:38:15
Exakt.

MfG,
Raff

ColdColt
2010-10-28, 11:40:24
Und wie erreicht man mit dem 10.10 die aus dem 10.9 entsprechende AI Standard Qualität? Mit AI deaktiviert?

Raff
2010-10-28, 11:42:14
Gaynow.

Neu ist, dass man A.I. Off nutzen kann, ohne dass Bugfixes deaktiviert werden.

MfG,
Raff

Langenscheiss
2010-10-28, 12:52:35
I

HD 6000 HP = Irgendwas Hässliches, das es mit HD 5000 + Cat 10.9 noch nicht gab

MfG,
Raff

Der HP Modus wird wohl so sein, wie der HP Modus bei der gemoddeten inf auf HD5K. Ich habe den 10.10 Treiber halt nur mit der gemoddeten inf auf HD5K getestet, aber nicht mit Standard inf, deswegen wusste ich das nicht.

Das heißt im Wesentlichen: Samplezahl-Erhöhung im AF-Algo geschieht noch später (bei noch stärkerer Verzerrung), Bi-Bänder noch breiter. Die logische Fortsetzung von Q. Dieses Verhalten zeigt sich zumindest im AFTester.

DrumDub
2010-10-28, 13:51:05
den hp-mdous gabs schon auf r420: hieß damals performance.

Palpatin
2010-10-28, 14:20:39
Gaynow.

Neu ist, dass man A.I. Off nutzen kann, ohne dass Bugfixes deaktiviert werden.

MfG,
Raff
Wie schauts mit Crossfire aus? Nur noch grusel Filter nutzbar oder geht das jetzt auch ohne A.I. bei 5xxx Serie, bin grad etwas verwirrt.

LovesuckZ
2010-10-28, 14:23:30
Wie schauts mit Crossfire aus? Nur noch grusel Filter nutzbar oder geht das jetzt auch ohne A.I. bei 5xxx Serie, bin grad etwas verwirrt.

Du kannst jetzt frei entscheiden, wie du filtern lassen möchtest. Es wurde alles von der Filterung abgekoppelt. Aber freu dich nicht zu früh: Das war heute A.I off ist, war gestern A.I Standard.
Es hat sich nichts verbessert.

Exxtreme
2010-10-28, 14:34:55
Installierst du beispielsweise den 10.10x RC5, 10.10b, 10.10c, whatever (http://support.amd.com/us/kbarticles/Pages/GPU84AMDCatalyst1010aHotfix.aspx), bleibt die Benennung bei "A.I. Standard/Erweitert/Deaktiviert", aber die Standard-Qualität wird auf HD-6000-Niveau gesenkt. So, wie hier ausgeführt und gebencht (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4). Mit dem 10.9 WHQL oder Hotfix ist A.I. Standard noch A.I. Standard und nicht Erweitert.

Kurz:

HD 5000 + Cat. 10.9 A.I. Standard = HD 6000 HQ
HD 5000 + Cat 10.10x A.I. Standard = HD 6000 Q

HD 6000 Q = HD 5000 Cat 10.9 mit A.I. Erweitert
HD 6000 Q = HD 5000 Cat 10.10x mit A.I. Standard

HD 6000 HP = Irgendwas Hässliches, das es mit HD 5000 + Cat 10.9 noch nicht gab

MfG,
Raff
Da ich kein CCC mehr auf dem Rechner habe ... was ist die qualitativ höchste Filterstufe im CCC, die man einstellen kann? Und mit was ist diese Filterstufe zu früher vergleichbar?

Langenscheiss
2010-10-28, 16:15:12
Da ich kein CCC mehr auf dem Rechner habe ... was ist die qualitativ höchste Filterstufe im CCC, die man einstellen kann? Und mit was ist diese Filterstufe zu früher vergleichbar?

Also im CCC (alles in Klammern bezieht sich immer auf HD5K)

HD5K inf mod
Höchste Stufe HD6K (HD5K): HQ, Formatoptimierung aus/an Cat10.10 <-> vergleichbar (identisch) mit A.I. off/standard Cat10.9 ---- Das beste, was die Filter können. Im Idealfall kein Bri-AF, aber ?möglicherweise? trotzdem noch AF spezifische Optimierungen, welche zu Unterfiltern führen

Mittlere Stufe HD6K (HD5K): Q, Formatoptimierung aus/an Cat10.10 <-> vergleichbar (fast identisch/identisch) mit A.I. erweitert Cat10.9 ---- Breitere Bi-Bänder = Bri-AF in kleinen Bändern, AF aggressiver beim Unterfiltern/Optimieren, da zusätzliche Samples erst bei höherer Anisotropie angefordert werden, sehr geringfügige positive LOD-Verschiebung

Unterste Stufe HD6K (HD5K): HP, Formatoptimierung aus/an Cat10.10 <-> nicht vergleichbar mit irgendeiner A.I. Stufe Cat10.9 ---- noch schlechter als alles andere, noch breitere Bi-Bänder, noch aggressivere AF-Optimierung, LOD ändert sich nicht mehr stark im Gegensatz zu Q

Was neu ist, ist der HP Modus und die Tatsache, dass man diese zusätzliche Optimierung jetzt unabhängig von der Filter-Qualität aktivieren oder deaktivieren kann.

HD5K Ohne inf mod
A.I. off 10.10 Formatoptimierung aus/an <-> identisch zu A.I. off/standard 10.9
A.I. stanard 10.10 Formatoptimierung aus/an <-> fast identisch/identisch zu A.I. erweitert 10.9
A.I. erweitert 10.10 Formatoptimierung aus/an <-> wie beim HP Modus

fondness
2010-10-28, 18:27:47
Von Arcania dachte ich auch, dass es ein super Flimmertest wird – ist es aber nicht. Und wirklich: Auf einer HD 5000 flimmert das Spiel weniger als auch einer clamped GeForce. Das Problem ist, dass das Spiel je nach Szene und Blickwinkel das MIP-Mapping "vergisst", wodurch die Szenerie extrem flimmert/grießelt. Das tritt auf GeForce-Karten deutlich häufiger auf als auf Radeönern. Und Clmap clamped eben nur MIP-Maps, kann jedoch nichts reißen, wenn die weg sind ...

Ist auch ein Vorteil wenn es in Arcania weniger flimmert oder etwa nicht?
Die Aussage kommt so rüber ala "flimmert auf einer Radeon mehr" -> Scheiß Karte.
"Flimmert auf einer Geforce mehr" -> Scheiß Spiel.


Btw: Nachdem ich Hunderttausend Bilder und Fraps-Videos gemacht habe, muss ich sagen, dass das HD-6000-AF, ebenso wie das HD-5000-AF mit neuen Treibern, eine riesengroße Scheiße ist. Es flimmert tierisch – kein Wunder, handelt es sich doch standardmäßig um das einstige A.I. Erweitert.


Es hat sich nichts verschlechtert, nur die Bezeichnungen sind andere.

uweskw
2010-10-28, 19:10:47
war so ein schöner Tread.....
bis Flatterball77 kam und das Niveau runtergezogen hat. Da lassen Raff und LS natürlich auch nicht lange auf sich warten.

Mich würden Vergleichsvideos von Crysis oder Gothic3 interessieren. Meine 460 GTX flimmert da auch recht deutlich.

Greetz
U.S.

Schlammsau
2010-10-28, 19:29:59
war so ein schöner Tread.....
bis Flatterball77 kam und das Niveau runtergezogen hat. Da lassen Raff und LS natürlich auch nicht lange auf sich warten.

Mich würden Vergleichsvideos von Crysis oder Gothic3 interessieren. Meine 460 GTX flimmert da auch recht deutlich.

Greetz
U.S.

Mit welchen Settings?

y33H@
2010-10-28, 19:32:13
Vor allem flimmert das AF? Wohl viel eher der restliche Content ... aber das scheinen manche nicht zu kapieren ...

uweskw
2010-10-28, 19:36:24
Habs stehen auf: HQ an, clamp aktiviert, SSAA per Tool auf 4x
soeben aber erfahren ich müsse irgendwelche Bits setzen?? damit Gothic das SSAA annimmt.
Bin gerade am suchen, für Tips dankbar.

Was ist eigentlich der Unterschied zw. Schaderflimmern un AF-Flimmern? Bzw. was kommt wo und wie häufig vor?

Greetz
U.S.

Schlammsau
2010-10-28, 19:38:41
Habs stehen auf: HQ an, clamp aktiviert, SSAA per Tool auf 4x
soeben aber erfahren ich müsse irgendwelche Bits setzen?? damit Gothic das SSAA annimmt.
Bin gerade am suchen, für Tips dankbar.

Was ist eigentlich der Unterschied zw. Schaderflimmern un AF-Flimmern? Bzw. was kommt wo und wie häufig vor?

Greetz
U.S.

Ich mach gleich mal ein Crysis Video 4xSGSSAA und 16xHQAF.

Langenscheiss
2010-10-28, 19:39:57
@y33h
Tja, wenn wir es dann endlich geschafft haben, beide Hersteller davon zu überzeugen, doch mal endlich ein vernünftiges AF zu implementieren (es muss ja nicht perfekt sein, nur nicht eins, was auffällt), dann werden sich alle (zurecht) auf das Shader-Flimmern stürzen.
Das kann der beste Texturfilter nicht glätten, da hilft nur der Dampfhammer (zurzeit). Und dann kommen ja noch immer mehr deferred renderer und da ist es ja immer so eine Sache mit dem MSAA, ja ja, es wird wohl noch lange Flimmern. Angesichts der jahrelangen Stagnation im Bereich des Realismusgrades der Grafik (seit Crysis) sollte doch den Entwicklern langsam klar werden, dass man jetzt eine Chance hat, endlich ein durchgängig hohes BQ-Niveau durchzusetzen. Stattdessen aber optimiert man noch aggressiver um 1FPS mehr zu bekommen, denn das Aus- und Überreizen der AF-Optimierungen bringt wohl kaum noch signifikante Steigerungen, wenn man bereits eine recht hohe Qualität erreicht hat (also jetzt nicht mit den Quality und HP-Modi verwechseln, ist klar, dass die was bringen) und wenn man dabei irgendwas falsch macht, sieht man das, was AMD uns mit Cypress und Barts (lol) eindrucksvoll bewiesen hat.

Schlammsau
2010-10-28, 19:52:39
Es wird immer was zu motzen geben!

C.D.B.
2010-10-28, 21:25:53
So, hab' nun meine Sapphire HD6870 seit ca. 2h drinn. Der erste Eindruck: Die Bild-Quali ist gegenüber RV670 ein gutes Stück besser! (X³R/X³TC/HL²@CAT10.10, HQ, MSAA+AAA, AA+AF anwendungsgesteuert)

:)

Raff
2010-10-28, 22:07:17
Ist auch ein Vorteil wenn es in Arcania weniger flimmert oder etwa nicht?
Die Aussage kommt so rüber ala "flimmert auf einer Radeon mehr" -> Scheiß Karte.
"Flimmert auf einer Geforce mehr" -> Scheiß Spiel.

Wenn ein nachgewiesen besserer Texturfilter plötzlich, d.h. im Einzelfall grützig aussieht, kann es nicht am Filter liegen.

Es hat sich nichts verschlechtert, nur die Bezeichnungen sind andere.

Nein, die Standard-Qualität ist schlechter geworden! Eine HD 6000 filtert standardmäßig wie eine HD 5000 ein Jahr lang zuvor es nur mit A.I. Erweitert (maximale "Optimierungsstufe") tat. Das ist ein Rückschritt. Das einzig Gute ist, dass man das alte Niveau zurückbekommen kann.

MfG,
Raff

Mr. Lolman
2010-10-28, 22:29:35
Das einzig Gute ist, dass man das alte Niveau zurückbekommen kann.

MfG,
Raff

Und dass das Banding zumindest zum Teil gefixt wurde, und dass das AF von den Anwendungsoptimierungen entkoppelt wurde. Das heisst: Eigentlich ists bloßt schlecht, dass der Default-Wert mieser ist (wobei das ja anscheinend auch nicht immer der Fall ist), und dass das Banding zT immernoch vorhanden ist.

Iruwen
2010-10-28, 23:01:33
Eigentlich ist es schlecht dass AMD auf den Folien mit besserem AF geworben aber nur den Banding Bug (?) gefixt (und das nichtmal richtig) und eine noch miesere Qualitätsstufe eingeführt hat.

Langenscheiss
2010-10-28, 23:04:48
Ohne jetzt die technischen Details von ATI zu haben, sag ich jetzt mal trotzdem, dass es schlicht peinlich und dreißt ist, dass die das banding derart schlampig "gefixed" haben. Es ist ja nicht so, dass die erst seit 2 Wochen vor dem Barts-Launch davon wussten. Wie man ja auch auf diversen Seiten lesen konnte, muss den Ingenieuren das schon kurz vorm Cypress-Launch aufgefallen sein, dass die da irgendwo Bockmist gemacht haben. 1 Jahr danach, und sie liefern solch eine Lösung ab! Sowas ist imo nicht akzeptabel, unabhängig davon ob man es noch oft sehen kann, oder nicht.
Außerdem ist es ein absolutes Armutszeugnis für die BQ-Reviews. Da winkt AMD mit einer Folie samt großem Bild vom 3DCenter FilterTester, und die Seiten/Magazine, die sich damit befasst haben, haben mehrheitlich konstatiert, dass AMD es nun tatsächlich gefixed hat, die meisten hatten einfach blindes Vertrauen. Da bin ich als Nutzer schon etwas verwirrt, dass ich nur mal höflich hier im Forum nachn Texel-Bild fragen muss, innerhalb von einem Tag n Antwort bekomme, feststelle, dass es immer noch banding geben muss, was dann prompt per Video bestätigt wird. Komisch, dass mir sowas gelingt, aber den Testern, die doch in der Launch-Zeit einen nicht unbeachtlichen Teil ihrer Zeit der Graka widmen, nicht. CB hat sich ja sogar extra TM angeschaut, haben sich aber wohl nur auf diesen einen Referenz-Shot eingeschossen.
Wenns um FPS geht, dann wissen viele sehr gut bescheid, welche Einflüsse bei der Bewertung berücksichtigt werden müssen, BQ wird dagegen immer noch sehr stiefmütterlich behandelt, und AMD nutzt das gnadenlos aus.

Blaire
2010-10-28, 23:04:58
Eigentlich wurde da garnichts gefixt, es wurde nur weiter nach hinten verschoben, vorhanden ist es weiterhin, selbst SGSSAA hilft dagegen nicht, was schon traurig genug ist.

Langenscheiss
2010-10-28, 23:12:28
Doch es wurde gefixed, aber nur zum Teil.
Die höheren AF-Grade (Samplezahlen) sind komplett sauber, aber die liegen meist auch schon auf den nächsten Mip-Stufen und zumeist weiter hinten im Bild. Diese Übergänge fielen auf Cypress auch kaum auf.
Ein nicht unerheblicher Teil des Bildes liegt aber auf der niedrigsten Stufe (also die Textur selbst), und genau an dieser Stelle haben sie es quasi gar nicht gefixed, nur ein ganz wenig geglättet. Das sind die Kanten, die man auf Barts immer noch sieht.
SGSSAA hilft in sehr seltenen Fällen (siehe Elite Force 2 im AF-Vergleichs-Thread), aber meist nicht. Im Wesentlichen kann es auch nur in der direkten Übergangszone zwischen 2 Bereichen helfen, denn ob man davor oder dahinter durch Supersampling mehr Abtastung macht, spielt keine Rolle, solange die zusätzlichen Samples im gleichen Bereich bleiben. Sprich, die Anisotropie bei den zusätzlichen Samples von SGSSAA ändert sich ja nicht dramatisch, da ja auf Subpixel-Level.

LovesuckZ
2010-10-28, 23:47:57
Ohne jetzt die technischen Details von ATI zu haben, sag ich jetzt mal trotzdem, dass es schlicht peinlich und dreißt ist, dass die das banding derart schlampig "gefixed" haben. Es ist ja nicht so, dass die erst seit 2 Wochen vor dem Barts-Launch davon wussten. Wie man ja auch auf diversen Seiten lesen konnte, muss den Ingenieuren das schon kurz vorm Cypress-Launch aufgefallen sein, dass die da irgendwo Bockmist gemacht haben. 1 Jahr danach, und sie liefern solch eine Lösung ab! Sowas ist imo nicht akzeptabel, unabhängig davon ob man es noch oft sehen kann, oder nicht.
Außerdem ist es ein absolutes Armutszeugnis für die BQ-Reviews. Da winkt AMD mit einer Folie samt großem Bild vom 3DCenter FilterTester, und die Seiten/Magazine, die sich damit befasst haben, haben mehrheitlich konstatiert, dass AMD es nun tatsächlich gefixed hat, die meisten hatten einfach blindes Vertrauen. Da bin ich als Nutzer schon etwas verwirrt, dass ich nur mal höflich hier im Forum nachn Texel-Bild fragen muss, innerhalb von einem Tag n Antwort bekomme, feststelle, dass es immer noch banding geben muss, was dann prompt per Video bestätigt wird. Komisch, dass mir sowas gelingt, aber den Testern, die doch in der Launch-Zeit einen nicht unbeachtlichen Teil ihrer Zeit der Graka widmen, nicht. CB hat sich ja sogar extra TM angeschaut, haben sich aber wohl nur auf diesen einen Referenz-Shot eingeschossen.
Wenns um FPS geht, dann wissen viele sehr gut bescheid, welche Einflüsse bei der Bewertung berücksichtigt werden müssen, BQ wird dagegen immer noch sehr stiefmütterlich behandelt, und AMD nutzt das gnadenlos aus.

Es ist erfreulich, dass es dir auffällt, dass heute jeder einen Test machen kann. ;)
Das schlimmste sind aber die, die davon wissen, aber keine Konsequenzen ziehen - vornehmlich deutsche Seiten wie PCGH.de, Computerbase.de und HT4U. Statt im Sinne des Kunden zu sein und Produkte nicht mehr zu empfehlen, die gewisse Mindestanforderungen nicht erfüllen, wird das Problem auf zwei Sätze begrenzt und weiterhin mit Cheateinstellungen auf beiden Seiten verglichen. Statt den Dopingsünder auszuschließen, lässt man eben beide Dopen. Und der bessere Doper gewinnt. :rolleyes:
Und dann kommt es eben auch zu solch einer Situation, wo der eine es mit dem Doping übertreibt und fast tot umfällt. Das, was AMD hier gemacht hat, liegt auf einem Niveau mit dem, was nVidia bei Geforce FX und g70 tat. Ist die Hardware zu schwach, muss man irgendwo Leistung erschummeln.
Dabei wäre vernünftige Filterung heute so schnell implementierbar, dass vorallem Kunden mit weniger Geld davon profitieren könnten.

MadManniMan
2010-10-29, 01:03:01
Das schlimmste sind aber die, die davon wissen, aber keine Konsequenzen ziehen - vornehmlich deutsche Seiten wie PCGH.de, Computerbase.de und HT4U.

+ 3DCenter - zumindest momentan.

Siehe Reviewübersicht z.B.

Iruwen
2010-10-29, 01:06:54
Mindestanforderungen

Wenn du mir ein Spiel zeigen würdest das ich nicht kenne würde ich wahrscheinlich weder Banding noch Flimmern sehen. Ich seh das nur da wo ich ein Spiel schon bis zum Erbrechen unter anderen Voraussetzungen gespielt hab (dafür nervt es mich dann auch entsprechend). Bei den Beispielen hier seh ich auch oft genug nicht worum es geht wenn es nicht gerade jemand markiert oder es einem deutlich ins Auge springt. Also "Mindestanforderung" ist da sehr relativ. Dann hätten PCGH & Co auch pauschal die GF100 Karten zum Teufel schicken müssen da sie die Lautstärkemindestanforderung nicht erfüllt haben - was wohl 99% der User eher auffällt als ein bisschen mieses AF.
Es sollte in den Reviews deutlich erwähnt werden (wenn schon aus Zeitmangel nicht im Launch Review, dann wenigstens später), aber mehr kann man nicht erwarten und wäre auch nicht im Sinne der potentiellen Kunden. Es sind halt trotzdem sehr gute Karten, auch wenn die Firmenpolitik mal stinkt.

/e: Gamestar nimmt nur Redakteure die woanders die Probezeit nicht gepackt haben *renn*

Raff
2010-10-29, 07:27:22
Ohne jetzt die technischen Details von ATI zu haben, sag ich jetzt mal trotzdem, dass es schlicht peinlich und dreißt ist, dass die das banding derart schlampig "gefixed" haben. Es ist ja nicht so, dass die erst seit 2 Wochen vor dem Barts-Launch davon wussten. Wie man ja auch auf diversen Seiten lesen konnte, muss den Ingenieuren das schon kurz vorm Cypress-Launch aufgefallen sein, dass die da irgendwo Bockmist gemacht haben. 1 Jahr danach, und sie liefern solch eine Lösung ab! Sowas ist imo nicht akzeptabel, unabhängig davon ob man es noch oft sehen kann, oder nicht.

Hoffen wir einfach, dass Barts in jeder Hinsicht nur eine Zwischenlösung ist. In Cayman steckt mehr Neuentwicklung – hoffentlich auch bei den TMUs.

Es ist erfreulich, dass es dir auffällt, dass heute jeder einen Test machen kann. ;)
Das schlimmste sind aber die, die davon wissen, aber keine Konsequenzen ziehen - vornehmlich deutsche Seiten wie PCGH.de, Computerbase.de und HT4U. Statt im Sinne des Kunden zu sein und Produkte nicht mehr zu empfehlen, die gewisse Mindestanforderungen nicht erfüllen, wird das Problem auf zwei Sätze begrenzt und weiterhin mit Cheateinstellungen auf beiden Seiten verglichen. Statt den Dopingsünder auszuschließen, lässt man eben beide Dopen. Und der bessere Doper gewinnt. :rolleyes:

PCGH zieht keine Konsequenzen? Warum hat man sich dann vor den Benchmarks das AF angesehen und anschließend mit HQ (= Ex-A.I.-Standard) gebencht? An HQ gibt's nur wenig auszusetzen.

MfG,
Raff

V2.0
2010-10-29, 07:31:20
war so ein schöner Tread.....
bis Flatterball77 kam und das Niveau runtergezogen hat. Da lassen Raff und LS natürlich auch nicht lange auf sich warten.

Mich würden Vergleichsvideos von Crysis oder Gothic3 interessieren. Meine 460 GTX flimmert da auch recht deutlich.

Greetz
U.S.

Du hast Dich von dem Forum irre machen lassen. Denn bei fiesen Shadern und Content, also dann wenn es meist richtig ins Auge fällt, flimmert die NVidia auch.

Angiesan
2010-10-29, 09:01:55
Was mich mal interessieren würde, was ließt der Treiber eigentlich aus um zwischen HD58xx und HD 68XX zu unterscheiden???

Ich würde mein Bios soweit moden wenn dies möglich ist , dass meine HD 5850 als HD 68XX erkannt wird nur um zu sehen, ob die HD 68XX wirklich besseres AF kann oder ob es nur in Software realisiert wird.

Wird vom Treiber nur die ID ausgelesen oder mehr? Kennt sich da jemand aus?

Da ich am verlängerten Wochenende Zeit habe stelle ich mich gerne als Versuchsobjekt zu Verfügung wenn mir jemand sagen kann was ich verändern muss.

Ich habe so die Vermutung, dass die HD 68er nicht das Leistungsniveau der 5850 und GTX460 erreichen und AMD da was tun musste um das gerade zu rücken:wink:und die angegebenen Leistungseinbrüche von bis zu 20 % Q versus HQ würden ja dazu passen, außerdem interessiert es mich, ob man das Banding auch auf der HD 58XX auf 68er Niveau bekommen kann oder ob das wirklich in HW verändert wurde.Wenn dem nicht so ist könnt Ihr AMD das ja um die Ohren hauen:D was sie dann auch sicherlich verdient hätten

Also brauche eure Hilfe und liefere dann gerne die Bilder vom Tester zur Auswertung durch die Experten:biggrin:

ColdColt
2010-10-29, 09:06:08
Haben die HD5800er auch die hohen Leistungseinbrüche zwischen AI Off und AI Standard?

Angiesan
2010-10-29, 09:15:13
zumindest in der pre 10.10 Zeit konnte man bei dem ein oder anderen Spiel schon Leistungseinbrüche mit AI off verzeichnen. wurde aber seit längerem wohl nicht mehr ausführlich getestet da man immer davon ausging das an Ai auch Bugfixes gekoppelt sind was ja dann das Bild verzerrt hätte.

Schlammsau
2010-10-29, 09:21:55
Jetzt wirds Zeit, dass Loli seine guten alten Q3A Gifs ausgräbt, und das Märchen endgültig aus der Welt schafft.

Raff
2010-10-29, 09:24:22
Welches Märchen?

MfG,
Raff

ColdColt
2010-10-29, 09:25:29
Ich konnte zumindest auf meiner HD5870 im HAWX2 Benchmark keinen FPS Unterschied zwischen AI Off und AI Standard feststellen.

puntarenas
2010-10-29, 09:26:45
Jetzt wirds Zeit, dass Loli seine guten alten Q3A Gifs ausgräbt, und das Märchen endgültig aus der Welt schafft.
Welches Märchen?


Ich hoffe, ein Märschen mit der Qualität des AF auf Radeon HD 6800 zu tun hat. Threads für olle Kamellen gibt es schließlich genug...

Schlammsau
2010-10-29, 10:19:24
Das die schlechtere AF Quali der Radeons, mit der der G70er von damals zu vergleichen ist.

Zwischen den Standardsettings liegen/lagen Welten!

Raff
2010-10-29, 10:21:49
Ich kann dir schon mal mit absoluter Sicherheit sagen, dass zumindest G7x-HQ weniger flimmert als Barts-Q. Erst gestern getestet. :naughty:

MfG,
Raff

deekey777
2010-10-29, 12:02:05
Ich kann dir schon mal mit absoluter Sicherheit sagen, dass zumindest G7x-HQ weniger flimmert als Barts-Q. Erst gestern getestet. :naughty:

MfG,
Raff
Subjektiv weniger flimmert. Eine objektive Bewertung liegt bestimmt auch vor, oder?

Raff
2010-10-29, 12:24:15
Auge, Fraps und Screenies = subjektiv, in Relation zum Rest

MfG,
Raff

V2.0
2010-10-29, 12:44:03
Man müsste G7X Q gegen Barts Q vergleichen und da dürfte Barts locker besser sein.

Raff
2010-10-29, 12:46:48
Yep, definitiv. Aber da ich so gerne Dinge wiederhole, um die Realität zu pushen: G7x-HQ wird hier immer schlechter gemacht als es ist. Nur G7x-Q ist aus der Hölle. Das einzige, was bei G7x-HQ stört, ist die Winkelabhängigkeit. Banding-Schlonz gibt's da aber nicht.

MfG,
Raff

Schlammsau
2010-10-29, 16:29:50
Ich hoffe es wird endlich an einem Artikel speziell zur Filterquali der HD6000 Serie geschrieben.

Tretet AMD damit endlich gehörig in den Arsch! Die Bandinggeschichte ist wirklich unter alle Sau.

Reibt es ihnen endlich unter die Nase. Postet es auch meinetwegen bei Geizhals.

Coda
2010-10-29, 16:54:59
Subjektiv weniger flimmert. Eine objektive Bewertung liegt bestimmt auch vor, oder?
Wie willst du das bitte objektiv bewerten?

Spasstiger
2010-10-29, 19:06:10
So ein AF bei einer Enthusiastenkarte ist alles, nur nicht vernünftig.
Dafür gibts SGSSAA, was die AF-Schwächen beseitigt und dank automatischer LOD-Bias-Anpassung einen leichten Bildquali-Vorteil gegenüber NV hat (außer man legt bei NV selbst Hand an den LOD-Bias-Regler an). Klar wollen wir alle die bestmögliche AF-Implementierung sehen, wie man sie von NV kennt, aber AMD hat immer noch die zweit- oder drittbeste AF-Hardware-Implementierung am Markt. Man kann beim AF wesentlich mehr verbocken als es AMD tut. Und man muss auch sehen, dass AF an sich nicht die perfekte Methode zur Abtastung von Texturen ist. Supersampling ist AF bei gleicher Sample-Zahl aus Qualitätssicht immer überlegen. AF ist nur eine performante Approximation.

dildo4u
2010-10-29, 19:08:10
Dafür gibts SGSSAA, was die AF-Schwächen beseitigt und dank automatischer LOD-Bias-Anpassung einen leichten Bildquali-Vorteil gegenüber NV hat (außer man legt bei NV selbst Hand an den LOD-Bias-Regler an).
Das testet aber kaum einer.Egal die PCGH wird mit "HQ"AF testen das ist alle was man braucht um eine Entscheidung zu treffen.

DrFreaK666
2010-10-29, 19:12:50
Dafür gibts SGSSAA, was die AF-Schwächen beseitigt und dank automatischer LOD-Bias-Anpassung einen leichten Bildquali-Vorteil gegenüber NV hat (außer man legt bei NV selbst Hand an den LOD-Bias-Regler an). Klar wollen wir alle die bestmögliche AF-Implementierung sehen, wie man sie von NV kennt, aber AMD hat immer noch die zweit- oder drittbeste AF-Hardware-Implementierung am Markt. Man kann beim AF wesentlich mehr verbocken als es AMD tut. Und man muss auch sehen, dass AF an sich nicht die perfekte Methode zur Abtastung von Texturen ist. Supersampling ist AF bei gleicher Sample-Zahl aus Qualitätssicht immer überlegen. AF ist nur eine performante Approximation.

Und wo ist das tolle SGSSAA bei DX10/DX11-Titeln?? Flimmerts da etwa nicht mehr?

Ailuros
2010-10-29, 19:13:31
Dafür gibts SGSSAA, was die AF-Schwächen beseitigt und dank automatischer LOD-Bias-Anpassung einen leichten Bildquali-Vorteil gegenüber NV hat (außer man legt bei NV selbst Hand an den LOD-Bias-Regler an). Klar wollen wir alle die bestmögliche AF-Implementierung sehen, wie man sie von NV kennt, aber AMD hat immer noch die zweit- oder drittbeste AF-Hardware-Implementierung am Markt. Man kann beim AF wesentlich mehr verbocken als es AMD tut. Und man muss auch sehen, dass AF an sich nicht die perfekte Methode zur Abtastung von Texturen ist. Supersampling ist AF bei gleicher Sample-Zahl aus Qualitätssicht immer überlegen. AF ist nur eine performante Approximation.

Wenn eine jegliche AF Optimierung bei der Grundfilterung spart dann rettet Dir Supersampling auch nicht mehr den Tag (obwohl es trotz allem mit SSAA leicht besser wird). Bei Unterfilterung ist die einzige Loesung normale Filterung und kein up/downsampling vom gleichen Quark.

Wie dem auch sei reines AF ist so spottbillig was Fuellrate betrifft im Vergleich zu Supersampling das so eine Loesung so oder so ans laecherliche grenzt.

Fetter Fettsack
2010-10-29, 19:24:06
Einen Flimmer-Standard festlegen und Ergebnis auf einer Skala einordnen. Für sich gesehen objektiv.^^

Spasstiger
2010-10-29, 19:29:52
Wenn eine jegliche AF Optimierung bei der Grundfilterung spart dann rettet Dir Supersampling auch nicht mehr den Tag (obwohl es trotz allem mit SSAA leicht besser wird). Bei Unterfilterung ist die einzige Loesung normale Filterung und kein up/downsampling vom gleichen Quark.
Das 16:1 AF von AMD hat mit 2xSGSSAA eine genauso geringe Flimmerneigung wie das von NV und zeigt dank minimal negativem LOD-Bias auch eine minimal höhere Texturschärfe. Mit 8xSGSSAA ist von den "Unzulänglichkeiten" beim AF überhaupt nichts mehr zu sehen. NVs AF sieht dann nur noch glatter aus, weil sie das LOD-Bias nicht automatisch ins Negative verschieben. Das bedeutet dann aber leider keinen Gewinn an Texturschärfe im Gegensatz zu AMD.
Wenn man bei AMD die SGSSAA-Anzahl unabhängig vom MSAA-Grad einstellen könnte und wenn SGSSAA auch unter DX10 und DX11 gehen würde, wäre dauerhaft aktives 2xSGSSAA sicherlich eine Option bei den High-End-Karten. Das verbessert das Bild insgesamt, auch bei problematischen Shadern, die auf einer GeForce genauso flimmern würden.

Ich will natürlich ebenfalls den Tag erleben, an dem AMD Referenz-AF implementiert. Aber die jetzige Lösung ist keine Katastrophe, sondern eben nur ein "gut" statt einem "sehr gut".

boxleitnerb
2010-10-29, 19:32:41
Dafür gibts SGSSAA, was die AF-Schwächen beseitigt und dank automatischer LOD-Bias-Anpassung einen leichten Bildquali-Vorteil gegenüber NV hat (außer man legt bei NV selbst Hand an den LOD-Bias-Regler an). Klar wollen wir alle die bestmögliche AF-Implementierung sehen, wie man sie von NV kennt, aber AMD hat immer noch die zweit- oder drittbeste AF-Hardware-Implementierung am Markt. Man kann beim AF wesentlich mehr verbocken als es AMD tut. Und man muss auch sehen, dass AF an sich nicht die perfekte Methode zur Abtastung von Texturen ist. Supersampling ist AF bei gleicher Sample-Zahl aus Qualitätssicht immer überlegen. AF ist nur eine performante Approximation.

Sorry, aber gerade von dir hab ich so einen Unsinn nicht erwartet.

1. braucht es für SGSSAA überhaupt die Möglichkeit, im jeweiligen Spiel AA zu benutzen
2. Performance???
3. zweit- oder drittbestes AF...äh Intel, Nvidia, AMD...welche Grafikchiphersteller kennst du noch, die wir nicht kennen? Dritter Platz ist letzter Platz.

Spasstiger
2010-10-29, 19:36:47
Via, SiS, Matrox, PowerVR, S3, Qualcomm, ...
Es gibt noch andere Unternehmen, die Grafikchips oder besser "AF-Hardware-Implementierungen" entwickeln, als Nvidia, AMD und Intel. Und Nvidia, AMD und Intel haben auch mehr als jeweils eine AF-Implementierung in ihrem Repertoire.
AMD hängt mit der Radeon-HD-6800-Serie einen Intel GMA HD auch in Sachen bestmögliche AF-Qualität meilenweit ab. Von letzter Platz kann bei AMD nicht ansatzweise die Rede sein.

boxleitnerb
2010-10-29, 19:42:00
Via, SiS, Matrox, PowerVR, S3, Qualcomm, ...
Es gibt noch andere Unternehmen, die Grafikchips oder besser "AF-Hardware-Implementierungen" entwickeln, als Nvidia, AMD und Intel. Und Nvidia, AMD und Intel haben auch mehr als jeweils eine AF-Implementierung in ihrem Repertoire.
AMD hängt mit der Radeon-HD-6800-Serie einen Intel GMA HD auch in Sachen bestmögliche AF-Qualität meilenweit ab. Von letzter Platz kann bei AMD nicht ansatzweise die Rede sein.

Die anderen Firmen sind ja für uns Spieler soooo relevant. Intel für Spieler ebenso (noch) nicht. Also stimmt letzter Platz schon, es sei denn, man klugscheißt, so wie du es tust. Aber das weißt du ja auch selbst. Und dass das mit dem SGSSAA Unsinn ist, ebenfalls. Bitte werde nicht auch noch ein Fanboy, von denen haben wir hier schon genug.

Spasstiger
2010-10-29, 19:45:56
Wenn ich das AMD-AF so niedermachen und das NV-AF so hypen würde wie manch einer hier, dann wäre ich Fanboy. Da ich kein Fanboy sein will, versuche ich realistisch zu bleiben.
Wenn du dir zufällig 20 Mitglieder in diesem Forum rauspicken würdest, würden dir im Spieletest bei bestmöglicher AF-Einstellung vielleicht zwei oder drei sagen können, ob sie gerade an einem Rechner mit NV- oder mit AMD-Grafik setzen.

boxleitnerb
2010-10-29, 19:52:19
Wenn ich das AMD-AF so niedermachen und das NV-AF so hypen würde wie manch einer hier, dann wäre ich Fanboy. Da ich kein Fanboy sein will, versuche ich realistisch zu bleiben.
Wenn du dir zufällig 20 Mitglieder in diesem Forum rauspicken würdest, würden dir im Spieletest bei bestmöglicher AF-Einstellung vielleicht zwei oder drei sagen können, ob sie gerade an einem Rechner mit NV- oder mit AMD-Grafik setzen.

Kritik ist angebracht und darf geübt werden. Wenn dich das nicht interessiert oder dir das AF gut genug ist, überlese sie doch einfach. Ich möchte jedenfalls keine Kompromisse bei einer Karte in dieser Preisklasse eingehen.
Diese Diskussion ist aber auch total überflüssig. Mit SSAA das AF schönen ist einfach nur Quatsch und ein lahmer Versuch, die schlechtere Qualität zu entschuldigen - egal ob du oder 20 sie im Blindtest bemerken oder nicht.

Bandit3644
2010-10-29, 19:53:09
Wenn du dir zufällig 20 Mitglieder in diesem Forum rauspicken würdest, würden dir im Spieletest bei bestmöglicher AF-Einstellung vielleicht zwei oder drei sagen können, ob sie gerade an einem Rechner mit NV- oder mit AMD-Grafik setzen.

selbst das bezweifel ich

Spasstiger
2010-10-29, 19:58:40
Aus Enthusiasten-Sicht finde ich es tragischer, dass AMD kein SGSSAA unter DX10/11 anbietet, als die Defizite beim AF. Denn auch mit dem besten AF und MSAA + Transparenz-AA bekommst du das Bild in den meisten Spielen nicht flimmerfrei. Ein Bildquali-Fanatiker kommt um SGSSAA gar nicht herum.
AF ist schon eine "Budget"-Methode, die zwar sehr gut sein kann (siehe NV), aber nie perfekt sein wird.

Dural
2010-10-29, 20:00:01
also ich würde sofort den unterschid NV zu AMD sehen in einem von mir bekannten game und das nicht mal nur wegen dem AF... da gibt es noch andere unterschide!

Spasstiger
2010-10-29, 20:05:11
Ich würde den Unterschied auch sehen, weil ich weiß, wo ich hinschauen muss. Und ich schiebe auch jedem NV-Nutzer, bei dem ich an den Rechner kann, HQ-AF unter. ;)
Aber ein Laie würde sich nur an den Kopf fassen, wenn er die AF-Diskussionen verfolgt und sich dann ein Bild davon macht. Man sollte die Diskussion eher dahingehend verschieben, dass man AMD dafür kritisiert, dass sie im Gegensatz zu NVidia Füllrate sparen und sie sich somit einem fairen Vergleich entziehen. Aber man sollte AMD nicht in der Weise kritisieren, dass man von einem lausigen, unbrauchbaren AF spricht.

LovesuckZ
2010-10-29, 20:15:45
Die selben 20 Leute würde auch keinen Unterschied zwischen CSAA und MSAA sehen. So, darf nVidia alles über 4xMSAA rausrationalisieren? :rolleyes:

Fetter Fettsack
2010-10-29, 20:18:50
Aber es kommt eben viel effektiver rüber, wenn man sagt, "Omg, bei AMD platzen einem die Augen", als wenn man sagt "AMD ist unfair, weil sie Füllrate sparen". Die Zugkraft der zweiteren Option geht offensichtlich gegen null, also bleibt nur mehr die erste.
Schließlich fühlen sich bei ersterem die Angesprochenen direkt betroffen, bei zweiterem hingegen ist der suggerierte persönliche Störfaktor eher marginal.

fondness
2010-10-29, 20:18:52
Ich würde den Unterschied auch sehen, weil ich weiß, wo ich hinschauen muss. Und ich schiebe auch jedem NV-Nutzer, bei dem ich an den Rechner kann, HQ-AF unter. ;)
Aber ein Laie würde sich nur an den Kopf fassen, wenn er die AF-Diskussionen verfolgt und sich dann ein Bild davon macht. Man sollte die Diskussion eher dahingehend verschieben, dass man AMD dafür kritisiert, dass sie im Gegensatz zu NVidia Füllrate sparen und sie sich somit einem fairen Vergleich entziehen. Aber man sollte AMD nicht in der Weise kritisieren, dass man von einem lausigen, unbrauchbaren AF spricht.

Das Problem ist einfach das hier zu 99% keine objektiven Beobachter (so wie du) Beiträge schreiben, sondern hoch emotionalisierte "Fanboys". Da wird jeder kleine Schwachstelle hoch stilisiert bis zum geht nicht mehr. Wenn man das Ganze nüchtern betrachtet merkt man erst wie lächerlich die Diskussion tw. ist. Hier könnte man ja den Eindruck gewinnen als würde man mit einer Radeon innerhalb kürzester zeit blind werden. :ugly:

Ailuros
2010-10-29, 20:34:01
Das 16:1 AF von AMD hat mit 2xSGSSAA eine genauso geringe Flimmerneigung wie das von NV und zeigt dank minimal negativem LOD-Bias auch eine minimal höhere Texturschärfe. Mit 8xSGSSAA ist von den "Unzulänglichkeiten" beim AF überhaupt nichts mehr zu sehen.

Wieso ich jetzt sogar noch auf 8x SSAA greifen wuerde ist mir ein Raetsel ausser ich spiel wirklich nur aeltere Spiele.

NVs AF sieht dann nur noch glatter aus, weil sie das LOD-Bias nicht automatisch ins Negative verschieben.

Wie meinen "glatter"? Ein ruhigeres Bild? Falls ja ist es dann eben nicht so dass Supersampling das eigentliche Problem (egal wie hoch die Sample-Anzahl) am Ende beseitigt.

Wenn man bei AMD die SGSSAA-Anzahl unabhängig vom MSAA-Grad einstellen könnte und wenn SGSSAA auch unter DX10 und DX11 gehen würde, wäre dauerhaft aktives 2xSGSSAA sicherlich eine Option bei den High-End-Karten. Das verbessert das Bild insgesamt, auch bei problematischen Shadern, die auf einer GeForce genauso flimmern würden.

Nur frisst selbst 2x SSAA immer noch zu viel wertvolle Fuellrate die leider nicht der Verbesserung von shader aliasing analog ist.

Ich will natürlich ebenfalls den Tag erleben, an dem AMD Referenz-AF implementiert. Aber die jetzige Lösung ist keine Katastrophe, sondern eben nur ein "gut" statt einem "sehr gut".

Es soll bei Cayman besser sein. Bevor ich es aber selber sehe will ich noch keine Schlussfolgerung ziehen.

Aber ein Laie würde sich nur an den Kopf fassen, wenn er die AF-Diskussionen verfolgt und sich dann ein Bild davon macht. Man sollte die Diskussion eher dahingehend verschieben, dass man AMD dafür kritisiert, dass sie im Gegensatz zu NVidia Füllrate sparen und sie sich somit einem fairen Vergleich entziehen. Aber man sollte AMD nicht in der Weise kritisieren, dass man von einem lausigen, unbrauchbaren AF spricht.

Und hier genau ist mein eigentlicher Einspruch zu dem was Du oben schreibst. Ja natuerlich sparen sie eine gewisse Portion an Fuellrate fuer ihre AF Implementierung, aber dafuer als Alternative noch teueres was Fuellrate betrifft Supersampling als Loesung vorzuschlagen ist sollte wer verstehen? Selbst mit 2x SSAA wird so viel Fuellrate verballert dass das was ATI bei AF und den Optimierungen spart eher laecherlich im Vergleich ist.

Das diese Diskussion nur etwas fuer "empfindliche" Augen ist ist wohl schon klar. Der eigentliche Punkt fuer solche Debatten sollte sein dass sich AMD wendet und das Ganze zum besseren aendert. In 2010 und bei solch bombastischen GPUs ist es eher laecherlich dass man nicht richtig trilinear filtern kann als einfaches Beispiel.

boxleitnerb
2010-10-29, 20:35:05
Alle Kritiker pauschal als Fanboys zu betiteln ist ein starkes Stück. Was darf man denn überhaupt noch kritisieren? Fehlendes PhysX? Schlechtere T-Performance? AF? Kein Downsampling? Kein SGSSAA in DX10/11?

Egal, mit was man kommt, es gibt immer Leute, die dagegenhalten und sagen "ist ja nicht so schlimm, braucht man nicht etc."

Wir sind das 3DCenter, nicht Computerbase. Ja, wir sind ein Forum voller Korinthenkacker, aber wir sind stolz drauf, weil hier so manches erwächst, wovon später die ganze Welt redet. Fanboys "diskutieren" nur höchst oberflächlich, aber dass hier auch wissenschaftlich fundiert AF und Co behandelt werden, geht dabei wohl unter. Schade.

Spasstiger
2010-10-29, 20:37:08
Wie meinen "glatter"? Ein ruhigeres Bild?
Vor allem ein unschärferes Bild meine ich damit. Unnötig unscharf. Flimmerarm sind beide Varianten.

Wir sind das 3DCenter, nicht Computerbase. Ja, wir sind ein Forum voller Korinthenkacker, aber wir sind stolz drauf, weil hier so manches erwächst, wovon später die ganze Welt redet. Fanboys "diskutieren" nur höchst oberflächlich, aber dass hier auch wissenschaftlich fundiert AF und Co behandelt werden, geht dabei wohl unter. Schade.
Eine fundierte Diskussion kann imo nur zu Stande kommen, wenn man sich keinem Kreuzzug anschließt. Denn sonst manifestieren sich Meinungen und Gefühle, die mit Sachlichkeit und wissenschaftlicher Nüchternheit nichts mehr zu tun haben.

Ailuros
2010-10-29, 20:44:09
Das Problem ist einfach das hier zu 99% keine objektiven Beobachter (so wie du) Beiträge schreiben, sondern hoch emotionalisierte "Fanboys". Da wird jeder kleine Schwachstelle hoch stilisiert bis zum geht nicht mehr. Wenn man das Ganze nüchtern betrachtet merkt man erst wie lächerlich die Diskussion tw. ist. Hier könnte man ja den Eindruck gewinnen als würde man mit einer Radeon innerhalb kürzester zeit blind werden. :ugly:

Wenn es am Ende dazu kommt dass sich etwas zum besseren aendert dann ist es mir persoenlich auch wurscht wie dieses genau erreicht wird.

Spasstiger
2010-10-29, 20:48:32
Und hier genau ist mein eigentlicher Einspruch zu dem was Du oben schreibst. Ja natuerlich sparen sie eine gewisse Portion an Fuellrate fuer ihre AF Implementierung, aber dafuer als Alternative noch teueres was Fuellrate betrifft Supersampling als Loesung vorzuschlagen ist sollte wer verstehen? Selbst mit 2x SSAA wird so viel Fuellrate verballert dass das was ATI bei AF und den Optimierungen spart eher laecherlich im Vergleich ist.
Du vermischst hier verschiedene Dinge.
SSAA ist etwas, das ein Enthusiast nutzen sollte, wenn er Wert auf ein nahezu aliasingfreies Bild legt. Denn nur SSAA ist wirksam gegen Shaderflimmern. Und mit SSAA sind die Defizite beim AF nicht mehr zu sehen, weil AMD den LOD-Bias nicht soweit ins Negative schiebt wie es die Sample-Zahl bei Referenz-AF zulassen würde.
Die Kritik, die ich AMD gegenüber für angebracht halte, hat damit aber überhaupt nichts zu tun. Ich denke, dass sich AMD einem fairen Vergleich entzieht, weil sie kein Referenz-AF anbieten. Dabei spielen SSAA und Co. keine Rolle.

Ronny145
2010-10-29, 20:51:03
Ja gegen flimmern, gegen Banding hilft aber auch SSAA nichts (HD5000).

Spasstiger
2010-10-29, 20:53:26
Banding ist mit der HD6K-Serie gefixt.

Ailuros
2010-10-29, 20:54:40
Vor allem ein unschärferes Bild meine ich damit. Unnötig unscharf. Flimmerarm sind beide Varianten.

Ist das dann nicht eher ein Problem des Spiels selber bzw. dem artist der fuer die bestimmte Texturen mit bestimmtem LOD dafuer entschieden hat?

Ronny145
2010-10-29, 20:56:48
Banding ist mit der HD6K-Serie gefixt.

Laut den letzten Tests nicht vollständig. Mir fehlen da aber noch weitere Vergleichsvideos. Für Trackmania wurde eine recht günstige Stelle verwendet auf CB.

Spasstiger
2010-10-29, 20:59:29
Ist das dann nicht eher ein Problem des Spiels selber bzw. dem artist der fuer die bestimmte Texturen mit bestimmtem LOD dafuer entschieden hat?
Nein, der Artist hat mit dem LOD-Bias nix am Hut, außer er erzwingt Aliasing in Form eines negativen LOD-Bias. Das gilt dann aber nicht für bestimmte Texturen, sondern für die gesamte Szene.
Wenn man Texturen überabtastet, dann muss der AA-Algorithmus im Grafiktreiber das LOD-Bias anpassen. Ansonsten hat man außer Matsch nicht viel bei der Texturfilterung gewonnen.

Ailuros
2010-10-29, 21:11:04
Du vermischst hier verschiedene Dinge.
SSAA ist etwas, das ein Enthusiast nutzen sollte, wenn er Wert auf ein nahezu aliasingfreies Bild legt. Denn nur SSAA ist wirksam gegen Shaderflimmern.

Es kostet aber trotz allem zu viel. Wenn ich in einem anspruchsvollem Spiel X mit 4xMSAA/16xAF in der nativen Aufloesung gerade noch Spielbarkeit erreiche dann gibt es nicht mehr viel Luftraum fuer SSAA, ausser man reduziert die Aufloesung oder in-game Effekte. In solchen Faellen ueberlasse ich es lieber dem Enthusiasten selber was genau insgesamt ihn besser anspricht. "Sollte" klingt mir zu subjektiv.

SSAA ist wunderbar in aelteren Spielen oder wo immer die CPU stark limitiert u.a.

Und mit SSAA sind die Defizite beim AF nicht mehr zu sehen, weil AMD den LOD-Bias nicht soweit ins Negative schiebt wie es die Sample-Zahl bei Referenz-AF zulassen würde.

Nochmal wenn der Treiber irgendwo untefiltern sollte hilft Dir das upsampling nicht zum Grad wie richtige Filterung. Die zweite Option ist zich Mal billiger.

Die Kritik, die ich AMD gegenüber für angebracht halte, hat damit aber überhaupt nichts zu tun. Ich denke, dass sich AMD einem fairen Vergleich entzieht, weil sie kein Referenz-AF anbieten. Dabei spielen SSAA und Co. keine Rolle.

Der Vorschlag das Ganze mit SSAA zu versuchen zu bewaeltigen ist eher der mir irgendwie im Hals stecken bleibt.

Nein, der Artist hat mit dem LOD-Bias nix am Hut, außer er erzwingt Aliasing in Form eines negativen LOD-Bias.

Kommt ja heutzutage eher selten vor, aber erzaehl mir bloss nicht dass nicht einige Entwickler in der Vergangenheit nicht die Schnappsidee hatte einen negativen LOD auf Texturen anzuwenden.

Das ist aber nicht der Punkt hier....

Das gilt dann aber nicht für bestimmte Texturen, sondern für die gesamte Szene.
Wenn man Texturen überabtastet, dann muss der AA-Algorithmus im Grafiktreiber das LOD-Bias anpassen. Ansonsten hat man außer Matsch nicht viel bei der Texturfilterung gewonnen.

Entwickler sollten generell keinen LOD auf Texturen erzwingen. Von dem abgesehen wenn eine Textur bzw. Szene zu matschig generell aussieht ist zwar SSAA ein Weg das Ganze zu verbessern ohne dass stoerende Nebeneffekte dank dem negativem LOD das mit SSAA zugeschaltet wird, aber fuer mich muss nach wie vor die Fuellrate generell im brutalen Ueberfluss liegen damit ich zu so etwas greife persoenlich.

PCGH_Raffael
2010-10-29, 22:01:11
Wenn du dir zufällig 20 Mitglieder in diesem Forum rauspicken würdest, würden dir im Spieletest bei bestmöglicher AF-Einstellung vielleicht zwei oder drei sagen können, ob sie gerade an einem Rechner mit NV- oder mit AMD-Grafik setzen.

selbst das bezweifel ich

also ich würde sofort den unterschid NV zu AMD sehen in einem von mir bekannten game und das nicht mal nur wegen dem AF... da gibt es noch andere unterschide!

Ich mache mit. =) In Crysis Warhead, WoW, GTA 4, Trackmania & Co. ist klar erkennbar, ob eine Radeon oder eine Geforce rendert.


Banding ist mit der HD6K-Serie gefixt.

Laut den letzten Tests nicht vollständig. Mir fehlen da aber noch weitere Vergleichsvideos. Für Trackmania wurde eine recht günstige Stelle verwendet auf CB.

Das Banding ist auf Barts definitiv nicht weg – es ist aber sehr schwierig, es anzutreffen. In Crysis Warhead ist's möglich.

MfG,
Raff

Spasstiger
2010-10-29, 22:13:11
Ich mache mit. =) In Crysis Warhead, WoW, GTA 4, Trackmania & Co. ist klar erkennbar, ob eine Radeon oder eine Geforce rendert.
Macht das doch mal bei euch in der Redaktion. Du baust die zwei Testkisten auf und lässt deine Kollegen einzeln auf einem zufällig ausgewürfelten Rechner eines der von dir genannten Spiele zocken. Im Anschluss wird jeweils getippt, ob auf einer NV oder einer ATI gezockt wurde. Bei purem Raten liegt die Quote an richtigen Tipps bei 50%.

derguru
2010-10-29, 22:15:45
toll bei den angegeben spielen sieht das jeder blinde,man kann auch spiele aussuchen wo es nicht bemerkbar ist.:freak:

Eggcake
2010-10-29, 22:18:46
Darum geht es ja nicht wirklich. Das Ding ist: es ist nicht gefixt. Dass man es nicht in jedem Spiel antrifft/nicht überall gleich ausgeprägt ist, das ist hoffe ich jedem klar.

derguru
2010-10-29, 22:23:46
soll das jetzt ne leistung sein banding zuèrkennen?wenn man allein die trackmania screens schaut,das würde man selbst mit einer anaglyph brille sehen.:cool:

PulsarS
2010-10-29, 22:29:46
Ich mache mit. =) In Crysis Warhead, WoW, GTA 4, Trackmania & Co. ist klar erkennbar, ob eine Radeon oder eine Geforce rendert.

MfG,
Raff
Das ist aber sehr wenig an Auswahl von Spielen.
Und diese Aufzählung zeigt ja ganz deutlich, dass es kein allgemeines Problem ist, sondern nur in "Spezialfällen" auftritt.
Wenn man gegenargumentieren wollte, dann könnte man diese Spiele als Ausnahmen nennen, die die Regel bestätigen, dass es eben allgemein nicht so ist...
Diesen Satz (Ausnahmen bestätigen die Regel...) hat wohl schon fast jeder im Deutschunterricht gehört (Grammatik) ;)
Hinzu kommt, dass man schon wirklich versiert sein muss, um da Unterschiede auszumachen.
Macht mal die Tests mit 08/15-Gamern... und ihr würdet feststellen, dass die meisten da keine Unterschiede sehen.


Ich will ja jetzt nicht sagen, dass das Problem nicht existiert, nur sehe ich es für die Allgemeinheit nicht wirklich als akut an. :)

Sorry, dass ich das jetzt in eine Richtung biege, die den BQ-Spezies nicht gefällt, aber so ist leider die Realität. :(

edit:
toll bei den angegeben spielen sieht das jeder blinde,
Nicht wirklich.
Ich habe schon einige fiese Stellen aus HL2 gezeigt, wo es richtig schlecht aussieht... viele haben das Flimmern nicht mal wahrgenommen.
Und hier sehe ich eben das Problem. Viele können einfach garnicht nachvollziehen, über was wir uns hier den Kopf zerbrechen.

derguru
2010-10-29, 22:31:59
was ich jetzt mmal wissen will weil jeder was anderes quakt,ist das banding nun beim 6er bei HQ gefixt oder nicht?

nach hier schon oder?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8355086#post8355086

Langenscheiss
2010-10-29, 22:38:35
@PulsarS
Und das, was die "BQ-Spezies" erleben, ist keine Realität?
Versteh das jetzt bitte nicht persönlich, aber diese hochtrabenden Ansprüch darauf, entscheiden zu wollen, was wichtig ist, und was nicht, ist mindestens genauso nervig wie unser vermeintliches "Rumgeheule".
Und Argumente, die in Richtung "vielleicht liegt es ja doch am Spiel" gehen, sind mittlerweile nur noch lächerlich...

@guru
Es ist überhaupt nicht komplett gefixed, egal welche Stufe. Das die Kanten sich ändern, liegt nur daran, dass auf den Optimierungsstufen das AF aggressiver optimiert wird.
Nochmal, das banding ist nur auf höherer Anisotropie gefixed (das hat eigentlich nichts mit der Treibereinstellung zu tun), die sichtbaren Kanten aus den Spielbeispielen liegen aber alle in Bereichen niedriger Anisotropie/Texturverzerrung. In diesem Bereich ist der Übergang nur etwas "weicher", aber nicht komplett geglättet, weshalb das banding jetzt schwerer sichtbar ist, ganz abgesehen vom Flimmern, welches deutlich überwiegt.
Problem: Wenn man SGSSAA aktiviert, um das Flimmern loszuwerden, wird das banding deutlicher sichtbar.

y33H@
2010-10-29, 22:39:36
Macht mal die Tests mit 08/15-Gamern... und ihr würdet feststellen, dass die meisten da keine Unterschiede sehen.Wie definiert sich "08/15"? Es gibt ja auch Leute, die zwischen 800x600 auf nem 24er aufgeblasen, und 1920x1200 mit 4x SGSSAA weder einen Unterschied sehen, noch anhand der Fps fühlen. Und dennoch zocken sie mit Muße. Andere, wie Raff oder ich, sehen oder spüren bestimmte Dinge sofort und fühlen sich gestört. Was teils mehr Fluch denn Segen ist ;(

Iruwen
2010-10-29, 22:40:48
@PulsarS
Und das, was die "BQ-Spezies" erleben, ist keine Realität?
Versteh das jetzt bitte nicht persönlich, aber diese hochtrabenden Ansprüch darauf, entscheiden zu wollen, was wichtig ist, und was nicht, ist mindestens genauso nervig wie unser vermeintliches "Rumgeheule".
Und Argumente, die in Richtung "vielleicht liegt es ja doch am Spiel" gehen, sind mittlerweile nur noch lächerlich...
Zumal Crysis Warhead, WoW und GTA 4 jetzt auch nicht unbedingt die unbeliebtesten Spiele sind...

PulsarS
2010-10-29, 22:44:05
@PulsarS
Und das, was die "BQ-Spezies" erleben, ist keine Realität?
Versteh das jetzt bitte nicht persönlich, aber diese hochtrabenden Ansprüch darauf, entscheiden zu wollen, was wichtig ist, und was nicht, ist mindestens genauso nervig wie unser vermeintliches "Rumgeheule".
Und Argumente, die in Richtung "vielleicht liegt es ja doch am Spiel" gehen, sind mittlerweile nur noch lächerlich...
Du hast mich anscheinend missverstanden. :)
Ich sage ja nicht, dass das Problem nicht existiert, sondern dass die meisten es nicht als Problem sehen.
Ich gehöre selbst zu den Personen, für die BQ wichtig ist und ich seh die Unzulänglichkeiten des AF schon.
Nur ist das meistens so, dass wenn der Content richtig fies ist, das AF selbst bei einer Geforce flimmert, da das aktuelle AF eben auch nicht perfekt ist.
Und es liegt nicht am Spiel!
Es liegt am Content.

Edit:
btw wollte ich noch einen Lob an Dich aussprechen.
Du hast das AF der AMD-Karten richtig gut durchleuchtet, so in der Art (praxisnah und komplett) ist es bis jetzt meines Wissens nach noch nicht gemacht worden. :up:

Pirx
2010-10-29, 22:46:34
Es ist Jammern auf sehr hohem Niveau. Man kann vieles kritisieren, da gibt es bei beiden IHVs was zu finden, aber deshalb eine Firma verbal ständig in den Boden zu stampfen ist bei weitem übertrieben.

Unschön ist es für Interssierte auch, wenn man eindeutig merkt, daß ein Hardwaretester nicht neutral ist und es offensichtlich auch nicht sein will.

LovesuckZ
2010-10-29, 22:51:35
"Jammern auf hohem Niveau"?! Ich will ja nicht böse sein, aber das, was Barts und vorallem Cypress in Trackmania zu stande bringen, hat mit hohem Niveau soviel zu tun wie GF100 mit dem grünen Daumpreis für Stromsparwunder.

Langenscheiss
2010-10-29, 22:51:46
Es ist Jammern auf sehr hohem Niveau. Man kann vieles kritisieren, da gibt es bei beiden IHVs was zu finden, aber deshalb eine Firma verbal ständig in den Boden zu stampfen ist bei weitem übertrieben.

Unschön ist es für Interssierte auch, wenn man eindeutig merkt, daß ein Hardwaretester nicht neutral ist und es offensichtlich auch nicht sein will.

Das mag auf das Flimmern !teilweise! zutreffen, aber wenn sie ein Versprechen (naja, über Versprechen kann man streiten) offensichtlich nicht halten und damit die Kunden nicht nur wie üblich verblenden, sondern einfach dreißt anlügen, dann haben wir das gute Recht, uns hier zu beschweren, ob man den Effekt nun noch häufig sieht oder nicht. Die meisten haben ja selbst auf Cypress das banding nie gesehen, warum sollte das jetzt plötzlich wieder ein Argument sein?

@PulsarS
Naja, mittlerweile bin ich noch n bissl weiter, was den Grund fürs banding angeht. Wenn das stimmt, würde das bedeuten, dass ich wohl meine Meinung über Untersampeln als fix für banding auf Barts nochmal ändern oder zumindest überdenken müsste, allerdings wär ich ohne die Hilfe von Gipsel und Coda wohl nicht druff gekommen, weil man ohne genaues Verständnis über die Analyse-Methode auf sowas nicht kommen kann, deswegen leite ich das Lob mal an diese Leute weiter.
Aber keine Angst. Tendenziell waren die Analysen schon korrekt, man muss jetzt nicht alles revidieren.

derguru
2010-10-29, 22:57:00
@Langenscheiss

alles klar,thx für die info.:)

Es ist Jammern auf sehr hohem Niveau. Man kann vieles kritisieren, da gibt es bei beiden IHVs was zu finden, aber deshalb eine Firma verbal ständig in den Boden zu stampfen ist bei weitem übertrieben.

das interessante ist doch das nv gegenüber amd´s af in keinsterweise bashing ausübt,irgendwie merkwürdig obwohl man jede gelegenheit eigentlich ausnutzt. :|

y33H@
2010-10-29, 23:05:14
AF lässt sich auf PR-Slides schlecht bashen ;)

derguru
2010-10-29, 23:11:02
und ob das geht,es würde schon reichen ihr eigenes af in den himmel zu loben aber selbst da nada.

Savay
2010-10-30, 02:13:33
ach lasst bitte WoW aus dem spiel wenn ihr über enthusiasten taugliche BQ durch eine perfekte AF implementierung lamentieren wollt :tongue:

Ich mache mit. =) In (...)WoW(...) & Co. ist klar erkennbar, ob eine Radeon oder eine Geforce rendert

mit SGSSAA oder ohne? :wink:

wer sich das flimmercontent game no1 ohne SGSSAA antut, der hat in einer filterdiskussion eigentlich nichts verloren...es tut mir ja sehr leid aber das ist im falle von WoW ganze ehrlich nur noch reinste korithenkackerei! :rolleyes:

mal ganz ab von den ganzen flimmertexturen, die dann mit nem nV AF ohne SSAA besser aussehen (aber immernoch flimmern), sind grade in den waldgebieten geschätzte 75% aller flimmernden pixel eher auf die unmassen von alphatests und die projezierten schatten zurückzuführen...
pikanterweise wird nichts davon durch den AF erfasst. :freak:
das spiel bleibt selbst mit 8xMSAA und transparenz antialiasing und perfektem AF eine flimmerhölle...nebenher läuft 4xSGSSAA in dem fall sogar besser und bügelt nahezu alles flimmern weg. :rolleyes:

spielen in denen reale nachteile zu erkennen sind weil SSAA einfach keine logische option (performance und kompatibilität, DX10/11 spiele, usw.) darstellt lasse ich ja noch gelten...aber sich zu streiten ob ein vollkommen zugeflimmertes bild zu 10% weniger flimmert weil das AF etwas besser ist, obwohl sowohl aus performance als auch aus allgemeiner BQ sicht einzig und allein SSAA die logische alternative darstellt, ist IMO ein wenig strange!

beschränkt euch um der diskussion willen lieber auf spiele in denen man mit einer radeon als BQ-enthusiast einen echten nachteil hat...und nicht nur einen "konstruierten"...das macht es glaubwürdiger. :)

wobei ich rein persönlich grade crysis auch schon als sehr grenzwertiges beispiel betrachte aufgrund der ganzen alphatests...das spiel flimmert so oder so aufgrund des contents schon wie bescheuert und fast ähnlich schlimm wie WoW. :freak:
beim durchzocken empfand ich das schlechtere filtern der radeon jetzt nicht als wesentlich störender als die ohnehin flimmernde vegetation und etliche der shader...aber trotz bleibt es ein wesentlich legitimeres beispiel da bei maximaler BQ SSAA ja leider keine option darstellt.
aus der immersion reißt einen das schlechtere AF in dem fall jedoch nicht wirklich wenn man mal ehrlich ist...
vorallem wer sich am AF flimmern stört muss eigentlich auch den flimmercontent monieren den uns die spiele hersteller dort regelmäßig vorsetzen und die viel zu selten und/oder halbherzig umgesetzten ingame optionen für FSAA und transparen-AA in DX10/11 titeln! :)

=Floi=
2010-10-30, 06:06:25
nun gibt es auch einen bericht von CB:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/#abschnitt_einleitung

boxleitnerb
2010-10-30, 06:20:39
Mir sind grad die Augen rausgefallen...WOW! Sehr schöne Betrachtung und endlich wird bei AMD mit HQ bzw. AI Off getestet. Sehr schön!

mapel110
2010-10-30, 06:40:22
nun gibt es auch einen bericht von CB:
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/#abschnitt_einleitung
CB hat auch Videos zum Download. Da kommt BartsHQ noch nicht mal an nvidias GF100Q ran. Banding 4tw...

Meine Reihenfolge der Videos:
GF100HQ
GF100Q (wobei ich kaum einen Unterschied zu HQ ausmachen kann)
CypressAIoff
BartsHQ
CypressAIStandard
BartsQ

boxleitnerb
2010-10-30, 06:57:46
Findet ihr bei den Videos Barts-HQ auch schlechter als Cypress 10.9/10 AI Standard?

Bei Cypress ist die Flimmerwelle (gut zu sehen direkt rechts neben der Schiene) deutlich dezenter als bei Barts - selbst auf HQ.

Darüberhinaus muss ich zugeben, dass ich bei Barts zwischen Q und HQ praktisch keinen Unterschied sehe.

derguru
2010-10-30, 07:17:38
CB hat auch Videos zum Download. Da kommt BartsHQ noch nicht mal an nvidias GF100Q ran. Banding 4tw...

Meine Reihenfolge der Videos:
GF100HQ
GF100Q (wobei ich kaum einen Unterschied zu HQ ausmachen kann)
CypressAIoff
BartsHQ
CypressAIStandard
BartsQ
sehe ich auch so,aber ein kleines banding ist unter gf100Q auch zusehen,selbst unter HQ.
beim cayman kann man bestimmt kein besseres af erwarten,bestimmt wie der bart verdammte hacke.:mad:

boxleitnerb
2010-10-30, 07:26:54
Barts HQ rangiert für mich noch unter Cypress - egal welche Einstellung. Bei Barts hat das Flimmern der sich verschiebenden Linie eine "höhere Amplitude", ist intensiver.

Wo erkennt ihr zwischen Barts Q und HQ einen Unterschied?

Schlammsau
2010-10-30, 10:42:32
Computerbase hat als erster nen ausführlichen AF-Test veröffentlicht.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/5/#abschnitt_anisotrope_filterung_auf_hd_6800
Und leider müssen wir gleich zur Einleitung feststellen und zugeben, dass sich bei der anisotropen Filterung mehr getan hat als gedacht – in negativer Hinsicht. Uns war zwar bereits im Launch-Review aufgefallen, dass die anisotrope Filterung auf einer Radeon HD 6800 teilweise etwas merkwürdige Ergebnisse abliefert, allerdings haben wir daraufhin nicht die richtigen Schlüsse gezogen.

Denn anders als damals von uns gedacht ist die „Quality-Einstellung“, also der Treiberstandard, auf einer Radeon HD 6800 nicht ebenbürtig zu Catalyst A.I. Standard – sondern schlechter! Ja, wir haben ausführliche Betrachtungen in Half-Life 2, Oblivion sowie Trackmania durchgeführt und kommen heute zu dem Schluss, dass die Radeon HD 6800 per Treiber-Default schlechter filtert als der Vorgänger.

Zwar tritt das störende Banding auf der Barts-GPU kaum noch auf (gänzlich verschwunden ist das Phänomen anscheinend nicht, wie ein Mitglied im 3DCenter-Forum heraus gefunden hat), dafür entspricht die restliche Texturfilterung derjenigen Qualität, die auf einer Radeon-HD-5000-GPU als Catalyst A.I. Advanced bekannt ist. Damit flimmert das Bild auf einer Radeon HD 6800 sichtbar mehr als bis jetzt von ATi gewohnt – sprich: dieselbe Treibereinstellung sieht nun schlechter aus als bisher! Das können wir in allen drei hier gezeigten Spielen sowie weiteren Titeln bestätigen. Damit macht ATi ein Schritt vorwärts (Banding), geht gleichzeitig aber zwei zurück.

Eine kleine Entwarnung können wir insofern geben, als dass der Regler „High Quality“ die Qualität des anisotropen Filters wieder auf das Niveau von Catalyst A.I. Standard zurückstellt. (Zumindest meistens, denn in Half-Life 2 scheinen die Kiesel-Strukturen derart „AF-mordend“ zu sein, dass selbst High Quality nicht an die Qualität von A.I. Disabled heran kommt. Warum dies so ist, ist uns derzeit nicht ersichtlich, zumal der First-Person-Shooter das einzige Spiel ist, in dem uns das Verhalten aufgefallen ist.) Ein besseres Bild ist allerdings nicht möglich.

Bitte 3DC, schreibt auch einen Test........

Raff
2010-10-30, 10:45:32
Sehr gut, immer feste drauf, AMD hat sich die Kritik hart erarbeitet. Hoffentlich ziehen zahlreiche Medien mit ähnlichen Berichten nach, dann gibt's standardmäßig wieder besseres AF. Steigende Rechenleistung, aber fallende Bildqualität – WTF?

... ab davon ist der Inhalt des Artikels nichts Neues. Es gibt nur mehr Bilder. :D

MfG,
Raff

Schlammsau
2010-10-30, 11:15:54
Ich muss ehrlich zugeben, das absenken der Standardquali, ist schon ein starkes Stück von AMD.
Das gehört gehörig kritisiert und angeprangert.

Ein richtiger Schritt ist, dass testen von HQ (AMD) vs. Q (nVidia)! Ich hoffe da ziehen alle Tester mit. Hätte auch nicht gedacht, dass bei AMD zwischen Q und HQ doch so viel FPS liegen.

mironicus
2010-10-30, 11:20:54
Ich kann die Videos von Computerbase nicht abspielen (MPC Cinema und FFDShow installiert). Was für einen Codec haben die verwendet?

EDIT: Ah ja... "FRAPS" in FFDShow aktivieren, dann läufts.

Raff
2010-10-30, 11:25:19
Oder einfach Fraps (www.fraps.com) installieren. :D

MfG,
Raff

Schlammsau
2010-10-30, 11:31:53
Oder mit dem VLC abspielen. :)

dildo4u
2010-10-30, 11:39:51
Computerbase hat als erster nen ausführlichen AF-Test veröffentlicht.
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/5/#abschnitt_anisotrope_filterung_auf_hd_6800


Bitte 3DC, schreibt auch einen Test........
Das ist der wichtigste Teil. :massa:

Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.

http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/15/#abschnitt_fazit

Mancko
2010-10-30, 11:55:10
Wie ich bereits in diversen Threads geschrieben habe, hat sich im Performance Segment nichts verändert. AMD spart etwas Fertigungskosten aber Sieger ist dort nach wie vor Nvidia mit der 460 und 470.

Solche Praktiken sind im Jahr 2010 inakzeptabel und ATI/AMD hatte nun wirklich viele Jahre Zeit hier etwas zu verbessern. Das sogar die standardsettings abgesenkt weren ist schon ein starkes Stück. Genauso eine Nummer hat Nvidia mal zu G7x Zeiten gebracht und ist dafür massiv kritisiert worden. Seitdem ist die Bildqualität bei Nvidia wirklich gut und konstant auf hohem Niveau. Der Kunde sollte die Barts Karten einfach links liegen lassen. Im Endeffekt besteht auch kein Grund diese zu kaufen derzeit, da die Konkurenz zu gleichen Preisen das bessere Gesamtpaket abliefert. Daran wird AMD nicht zu Grunde gehen aber das wird sie zwingen beim nächsten Launch im Jahr 2011 hier massiv nachzubessern. Und das dürfte im Sinne aller Kunden sein. Das sollten auch die begreifen, die lieber AMD statt Nvidia Produkte kaufen.
Nvidia muss man echt zu gute halten, dass sie bis jetzt dort nicht gedreht haben. Statt dessen gabs dann Bashing für laute oder Stromfressende Grafikkarten. Ich hoffe das sie auch weiterhin bei der BQ keine Kompromisse machen. Die Versuchung wäre ja durchaus beim G4XX Launch dagewesen aufgrund der Verspätung.

Ich bin froh dass ich eine 460OC von Gigabyte habe. Die 6850 ist nun wirklich keine Alternative und die 6870 m.E. auch nicht. Momentan kann man nur raten entweder ne massiv werkseitig übertaktete 460 zu kaufen oder die 470 und manuell ein paar Maßnahmen zur besseren Kühlung zu ergeifen.


Frage an PCGH oder CB Schreiberlinge hier im Forum:
Könnt Ihr die Tests nicht mal in Englisch verfassen? :) Dann lässt sich das global richtig schön verbreiten und andere Seiten machen mal die Augen auf.

Ronny145
2010-10-30, 11:58:36
Schade das CB keine worst case Banding Szene in Trackmania genommen hat, um Unterschiede besser zu sehen. Ansonsten ein guter Artikel und die Entscheidung HQ zu verwenden ist nur begrüßenswert. Jetzt müssen sich weitere Redaktionen dem anschließen.

Mau1wurf1977
2010-10-30, 12:23:04
Ja top Artikel. Fuer mich als Leihe und Kunde auch sehr leicht zu verstehen...

boxleitnerb
2010-10-30, 13:53:41
Nochmal die Frage, ich komm mir echt blöd vor, es nicht zu sehen:

Seht ihr einen Unterschied zwischen Barts-Q und HQ??? Ich hab die Videos jetzt jeweils 10x angeschaut und es flimmert beides ein gutes Stück schlimmer als Cypress (egal mit welchem Treiber/Setting in meinen Augen), aber untereinander kann ich keine Differenz ausmachen.

Eggcake
2010-10-30, 13:59:38
Die Videos sind imho viel zu niedrig aufgelöst/zu pixelig - da erkennt man kaum etwas.

Raff
2010-10-30, 14:03:21
In der Praxis ist der Unterschied klar vorhanden. Das Flimmern ist mit HQ auf einem erträglichen Niveau, während Q und LQ ("Leistung") deutlich unruhiger filtern.

MfG,
Raff

boxleitnerb
2010-10-30, 14:11:04
Raff, werdet ihr da demnächst entsprechend aufgelöste Videos aus der angesprochene Praxis bringen (kein AF-Tester)?

Aber den Unterschied zwischen Barts und Cypress bzw. AMD und Nvidia sehe ich sehr deutlich. Das müsste ja im Umkehrschluss heißen, dass zwischen Q und HQ ein viel kleinerer Unterschied liegt - sonst wäre er (für mich) ebenso deutlich sichtbar.

Könnt ihr mal sagen, wo ihr Unterschiede seht und wo nicht? Würde mich interessieren :)

Raff
2010-10-30, 14:12:35
Bilder, Videos, Print und Online. =) Dauert aber noch etwas.

MfG,
Raff

boxleitnerb
2010-10-30, 14:29:42
Btw, zur Schärfe der Radeons:

CB schreibt im Launchartikel was von positivem LOD (matschiger), y33h@ im Luxx was von negativem bei Barts. Was stimmt jetzt? Nur das AF kritisieren und die Schärfe außer Acht lassen geht natürlich nicht. Man vergleiche die Shots:

Barts Q (http://www.computerbase.de/bildstrecke/31423/19/) / GF100 Q (http://www.computerbase.de/bildstrecke/31423/21/)

GF100 HQ (http://www.computerbase.de/bildstrecke/31423/22/)

Erst HQ ist so scharf wie Barts. Was ist hierfür die Ursache?

Savay
2010-10-30, 14:30:38
kann man als HD58xx nutzer die AF qualität des barts mittlerweile eigentlich per treiber modifikation simulieren oder ist der AF schieber auf nem RV870 in dem falle buggy?

ich hab zwar den 10.10 drauf aber nur mit standard inf installiert da ich das MLAA recht uninteressant finde und beim AF sehe ich in dem fall jetzt noch keinen unterschied zu älteren treiberversionen.

Raff
2010-10-30, 14:31:49
Btw, zur Schärfe der Radeons:

CB schreibt im Launchartikel was von positivem LOD (matschiger), y33h@ im Luxx was von negativem bei Barts. Was stimmt jetzt? Nur das AF kritisieren und die Schärfe außer Acht lassen geht natürlich nicht. Man vergleiche die Shots:

Barts Q (http://www.computerbase.de/bildstrecke/31423/19/) / GF100 Q (http://www.computerbase.de/bildstrecke/31423/21/)

GF100 HQ (http://www.computerbase.de/bildstrecke/31423/22/)

Erst HQ ist so scharf wie Barts. Was ist hierfür die Ursache?

Das sind übrigens JPEGs, also in jedem Fall verfälscht ...

MfG,
Raff

Savay
2010-10-30, 14:35:09
Das sind übrigens JPEGs, also in jedem Fall verfälscht ...

MfG,
Raff

ist bei den geforces nicht auch noch FSAA an?! :wink: dadurch wirkt das bild subjektiv schon insgesamt deutlich ruhiger auch wenn man anhand der straßentextur schon einen unterschied erkennen kann da dieses auf der GF100 einfach weniger hochfrequent ist :smile:

EDIT: das AMDsche Q und HQ sieht da ja mal nahezu gleich aus :freak:
auch zwischen barts HQ und GF100 Q ist jetzt kein übermäßig großer unterschied IMO...
und so wie es auf den bildern aussieht wird auch das GF100 HQ noch ein wenig flimmern...allerdings etwass schmalbandiger.

allerdings taugen solche bilder ja auch nicht wirklich für eine beurteilung :)

boxleitnerb
2010-10-30, 14:35:26
Das sind übrigens JPEGs, also in jedem Fall verfälscht ...

MfG,
Raff

Das mag sein - aber würden die Bilder dann nicht alle auf dieselbe Art und Weise verfälscht werden? Man sieht ja zwischen AMD und NV-Q bzw. zwischen NV-Q und NV-HQ einen deutlichen Unterschied!
Was sind denn deine/eure eigenen Beobachtungen bzgl. Schärfe bzw. Detailgrad im Zusammenhang mit dem AF?

Ronny145
2010-10-30, 15:47:06
Btw, zur Schärfe der Radeons:

CB schreibt im Launchartikel was von positivem LOD (matschiger), y33h@ im Luxx was von negativem bei Barts. Was stimmt jetzt? Nur das AF kritisieren und die Schärfe außer Acht lassen geht natürlich nicht. Man vergleiche die Shots:

Barts Q (http://www.computerbase.de/bildstrecke/31423/19/) / GF100 Q (http://www.computerbase.de/bildstrecke/31423/21/)

GF100 HQ (http://www.computerbase.de/bildstrecke/31423/22/)

Erst HQ ist so scharf wie Barts. Was ist hierfür die Ursache?


Mir fällt auch auf das Nvidia besser glättet. Schau mal rechts am Bein der Statue, bei Nvidia glatt und Barts noch richtige Sägekanten sichtbar. Oder die Bordsteinkante. Als erstes müsste mal sichergestellt werden, dass doch gleichwertige AA Einstellungen verwendet wurden. Kann nämlich auch die Schärfe minimal beeinflussen. Ohne AA schärfer als mit AA. Leider gibt CB nie die genauen Einstellungen an.

boxleitnerb
2010-10-30, 15:48:42
Soviel Kompetenz traue ich Wolfgang zu, dass hier exakt dieselben Einstellungen beim AA gewählt wurden. Vielleicht gibt er die Infos noch raus...

LovesuckZ
2010-10-30, 15:49:20
Das ist der wichtigste Teil. :massa:

Da wir derartige Geschäftspraktiken im Jahre 2010 nicht unterstützen werden, haben wir uns dazu entschlossen, in Zukunft jede Radeon-HD-6000-Karte mit der etwa fünf Prozent langsameren High-Quality-Variante zu testen, sodass das Endergebnis mit der Standardeinstellung von Nvidia in etwa vergleichbar ist.

http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/15/#abschnitt_fazit

Wichtiger wäre es sich wesentlich stärker zu positionieren und und keine Empfehlung für die 6850 auszusprechen, da es eine mindesten gleichwertige Alternative in Form der GTX460 gibt. Nur so kann man AMD zwingen in Zukunft endlich auf nVidia aufzuschließen.

Savay
2010-10-30, 16:11:20
Soviel Kompetenz traue ich Wolfgang zu, dass hier exakt dieselben Einstellungen beim AA gewählt wurden. Vielleicht gibt er die Infos noch raus...

also auf den screens ist definitv ein unterschiedlicher AA grad aktiv. :freak: (sprich auf den radeons 1x und auf der geforce >=4x)

jaja...übers AF meckern aber nicht sehen das beim vergleich nicht der gleiche FSAA grad aktiv war! :tongue:
ok spielt im direkten bezug auf den AF keine besondere rolle (auch wenn so ein bild subjektiv gesehen insgesamt ruhiger wirkt) solange es kein SSAA war aber amüsant finde ich es trotzdem...nicht böse sein. :wink:

MechWOLLIer
2010-10-30, 16:18:54
Btw, zur Schärfe der Radeons:

CB schreibt im Launchartikel was von positivem LOD (matschiger), y33h@ im Luxx was von negativem bei Barts. Was stimmt jetzt? Nur das AF kritisieren und die Schärfe außer Acht lassen geht natürlich nicht. Man vergleiche die Shots:

Barts Q (http://www.computerbase.de/bildstrecke/31423/19/) / GF100 Q (http://www.computerbase.de/bildstrecke/31423/21/)

GF100 HQ (http://www.computerbase.de/bildstrecke/31423/22/)

Erst HQ ist so scharf wie Barts. Was ist hierfür die Ursache?

Gut aufgepasst, das war unser Fehler =)
Ich weiß nicht mehr wieso, aber aus irgend einem Grund hat der Spieler in Oblivion "die Seuche". Der hat irgend eine Krankheit, die ihm nach und nach Lebenspunkte abzieht (erkennt man gut an den unterschiedlichen Lebenpunkten auf den Screenshots). Die Krankheit verläuft immer so ab, dass das Bild unscharf wird, dann einige sekunden lang langsam wieder an Schärfe gewinnt, bevor es ganz scharf ist. Nun habe ich bei dem Screenshot wohl etwas zu früh F12 gedrückt und dort war der Spieler noch nicht ganz erholt. Darum war das Bild unschärfer. Ist nun aber ersetzt :)

Ronny145
2010-10-30, 16:26:30
Kantenglättung sieht immer noch beschissen aus auf dem Barts Bild...

fizzo
2010-10-30, 16:57:14
Wichtiger wäre es sich wesentlich stärker zu positionieren und und keine Empfehlung für die 6850 auszusprechen, da es eine mindesten gleichwertige Alternative in Form der GTX460 gibt. Nur so kann man AMD zwingen in Zukunft endlich auf nVidia aufzuschließen.

Solange NV keine GTX460 1GB mit nur 1x6pin Stecker liefern kann gibt es leider keine gleichwertige Alterntative. Aber wenn du so willst kann man ja die Empfehlung für die GTX470/480, wie auch der 460 unter Last, zurückziehen, nur so kann man NV zwingen in Zukunft endlich, was den Stromverbrauch betrifft, auf AMD aufzuschließen :ugly:

Die letzten zwei Wochen verrichteten hier im Rechner jeweils eine HD 4850/5850/6850 mit unterschiedlichsten Treibern und Einstellungen ihren Dienst. Erst durch die Diskusion hier im Forum habe ich div. Extremsituationen (danke Ronny145 für das Savegame von HL2) nachgestellt. Als ich diese dann z.b. in meinem Umfeld vorführte, konnen wir nur den Kopf schütteln über welche IMHO marginalen Details man sich hier Seitenlang echauffiert. Aber gut, wir sind hier ist ja auch ein Technikforum und da ist das legitim. Wenn ich jedoch solche Forderungen, wie von LZ, hier im Thread lese, so hat dies nichts mehr Technikaffinität zu tun.

Eggcake
2010-10-30, 17:13:04
Bezogen auf die CB-Videos:

Ich tue mich schwer Banding zu erkennen...evt. liegt's auch an den etwas klein geratenen Videos. Also Unterschiede zwischen 5800 Cat. 10.10 standard vs. 10.9 standard sehe ich praktisch keine.
Das Flimmern ansich aber sieht man sehr gut. IMHO flimmert auf den Videos die 6800 viel stärker als die 5800?! Auf der 6800 flimmert ein grösserer Bereich (HQ vs. A.I. Off 10.10 bzw. A.I. Standard 10.9).

y33H@
2010-10-30, 17:16:12
Ja, die 68x0 flimmern deutlich stärker.

LovesuckZ
2010-10-30, 17:28:14
Bezogen auf die CB-Videos:

Ich tue mich schwer Banding zu erkennen.

Jedenfalls sieht man sehr schön die einzelnen Übergänge auf den Videos - und das noch selbst aus 30-40cm zum Monitor. Nichtmal ein annährender Vergleich zu Q und vorallem zu HQ auf nVidia Karten. Also nach den Videos ist die Filterung von AMD nicht nur zu kritisieren. Da muss schon was stärkeres angewendet werden. Als Tester darf man für sowas nichtmal daran denken Awards zu verteilen.

Wenn man überlegt, dass die Karten vier Jahre nach dem G80 erscheinen, ist das nur traurig.

/edit: Nach dem Sehen der Cypress Videos kann ich nur sagen: Cypress filtert mit 10.9 besser als Barts mit HQ. Zwar ist das Banding deutlicher zu sehen, aber die Flimmerneigung ist nicht so present. Und das Banding gibt es dafür selbst noch auf Barts.

y33H@
2010-10-30, 17:33:43
Ach komm, deswegen kein Award?

Tesseract
2010-10-30, 17:39:17
Nur das AF kritisieren und die Schärfe außer Acht lassen geht natürlich nicht.

auch wenn das in diesem beispiel eine andere ursache hatte: verwechselt nicht immer kontrast mit schärfe. ein unterfiltertes bild hat meist höheren kontrast, allerdings eine geringere schärfe bezogen auf die abtastung der textur/geometrie. das ist auch der diametrale unterschied zwischen höherer abtastung und blur: beides verringert in der regel den kontrast im bild, allerdings verringert blur auch die schärfe der szene, wärend höhere abtastung die schärfe der szene erhöht.

eine szene ohne AA ist im grunde extrem unscharf, allerdings hat diese unschärfe so einen hohen kontrast, dass er am bild zumindest oberflächlich schärfer wirkt. das ist aber ein trugschluss.

LovesuckZ
2010-10-30, 17:39:38
Ach komm, deswegen kein Award?

Für was? Der niedrige Stromverbrauch ist nonsens, wenn man nicht HQ von nVidia erreichen kann. Würde man auf ein ähnliches Niveau kommen wollen, hätte man auch deutlich weniger FPS. Und eine langsamere Karte sollte perse nicht soviel brauchen.
Eine GTX460 verbraucht zwar mehr Strom, aber selbst auf Q ist die Filterung noch besser.

Ich kann mich noch an die ersten Leaks der Filter-Folien vom r520 vor 5 Jahren errinnern. Und wie unfassbar es zum damaligen Zeitpunkt war. Das mit Barts geht überhaupt nicht. Das ist verarsche. Und im Sinne eines jedem Kunden - egal ob nVidia und AMD - wollen wir keinen sichtbaren Optimierungswettkampf mehr haben.
Fortschritt durch Verbesserung

mironicus
2010-10-30, 17:49:47
Das ist doch ein gefundenes Fressen für NVidia. Wenn Cayman erscheint können sie statt "more Tesselationpower" immer noch auf die Qualität der Filterung herumreiten. Und je mehr Krach man um die Filterung macht, desto eher wird AMD daran arbeiten.

derguru
2010-10-30, 17:52:01
Das ist doch ein gefundenes Fressen für NVidia. Wenn Cayman erscheint können sie statt "more Tesselationpower" immer noch auf die Qualität der Filterung herumreiten. Und je mehr Krach man um die Filterung macht, desto eher wird AMD daran arbeiten.
das wirst du aber von nv nie zu hören bekommen,das hat die über 4 jahre nicht interessiert aber wer sagt das der cayman auch so filtern muss.

Mau1wurf1977
2010-10-30, 17:56:01
Ich muss zugeben ich tue mir schwer die Unterschiede zu erkennen. Ich sehe die Bildqualitaet gar nicht so sehr als das Problem, sondern ich denke eher dass AMD damit ein Image Problem bekommen wird.

Schlechte Presse verbreitet sich heutzutage sehr schnell und bevor AMD weiss was passiert ist sagt jeder in den Foren dass AMD eine schlechte Bild Qualität.

Dass AMD dann auch noch eine Folie hat auf der Sie sagen dass die 5000er Serie einen AF bug hatte, aber jetzt sei alles wieder in Ordnung und jetzt stellt sich heraus dass dem nicht so ist, tja das ist nicht ideal.

Die Namensbezeichnung von Barts und die Shader/BIOS Sache mit den Reviewkarten helfen da auch nicht.

mironicus
2010-10-30, 18:25:26
Ich finde es reicht eigentlich aus, wenn man GPUs mit den Default-Einstellungen testet, dann aber auf die "schlechtere" Filterung gegenüber der Konkurrenz klar hinweist. Das ist fairer als wenn man AMD im Nachhinein Cheaterei unterstellt. Sie haben die Qualität der Filterung für alle Karten angeglichen. Wenn man im Test darauf hinweist, dass man bei NVidia eine bessere Grafik-Qualität erhält sollte das ausreichen und die potentiellen Kunden wissen Bescheid, worauf sie sich beim Kauf einer Radeon 6800 einlassen.

LovesuckZ
2010-10-30, 18:30:04
Ich finde es reicht eigentlich aus, wenn man GPUs mit den Default-Einstellungen testet, dann aber auf die "schlechtere" Filterung gegenüber der Konkurrenz klar hinweist. Das ist fairer als wenn man AMD im Nachhinein Cheaterei unterstellt. Sie haben die Qualität der Filterung für alle Karten angeglichen. Wenn man im Test darauf hinweist, dass man bei NVidia eine bessere Grafik-Qualität erhält sollte das ausreichen und die potentiellen Kunden wissen Bescheid, worauf sie sich beim Kauf einer Radeon 6800 einlassen.

Dann brauchen wir in Zukunft keine Vergleiche mehr mit AA und AF, da hier die Standardeinstellung geändert werden muss. Genauso dürfen ebenfalls keine Vergleiche an den Standardeinstellungen im Spiel vorgenommen werden.

Wollen wir wirklich der Mehrheit an diskreten Grafikkartenkäufer (vorallem über 100€) absprechen, dass sie Einstellungen im Spiel und im CP nicht ändern?

Mau1wurf1977
2010-10-30, 18:38:22
Ich finde es reicht eigentlich aus, wenn man GPUs mit den Default-Einstellungen testet, dann aber auf die "schlechtere" Filterung gegenüber der Konkurrenz klar hinweist.

Finde ich eigentlich auch. Ich denke CB wollte einfach Ihre Position extrem deutlich machen und erhofft sich wahrscheinlich von AMD eine Stellungnahme / eventuelle Abschaffung.

Botcruscher
2010-10-30, 18:40:07
Hinweise bringen nichts. Was zählen sind Balken, einfach simple Balken. Den Text liest doch eh keiner.

mironicus
2010-10-30, 18:50:15
Das AMD die Default-Einstellungen geändert hat, um ein paar % mehr bei den Benchmarks erhalten zu können, ist natürlich kein feiner Schritt. Aber es ist durchaus legitim. Das kann NVidia von mir aus auch so machen. Das ist Teil des Wettbewerbs. Und ehrlich gesagt vermute ich fast das NVidia dies selbst nicht als Kritik öffentlich aufgreifen wird, da sie ja schon mal eine ähnliche Strategie gefahren hatten.

Ernste Sorgen würde ich mir eher dann machen, wenn die neue Generation tatsächlich schlechter filtern würde bzw. die Grafik schlechter aussehen würde. Das ist aber nicht der Fall. Die nachträglichen Tests mit den HQ-Filter wirken fast schon beruhigend, da der Performance-Verlust nur minimal ist und z.B. die 6850 im CB-Gesamtrating immer noch leicht über eine GTX 460 mit 715 MHz steht.

Eggcake
2010-10-30, 18:51:10
Im Prinzip hast du schon recht, mironicus, aber siehe Beitrag über mir: Balken!
So traurig es ist, aber darauf kommt es nunmal an. Wenn wir das hinnehmen, führt dies nur zu einem: dass beide Hersteller optimieren bis zum geht nicht mehr um den längeren Balken zu haben - und das kann keiner ernsthaft wollen.

mironicus
2010-10-30, 18:59:24
Ich bin kein Hardcore-Gamer (ein maximal 150 Euro-Grafikkartenkäufer) und in der Regel verändere ich die Einstellungen im Catalyst-Treiber eher selten. Die Spiele sollen ohne Fehler funktionieren, mögliche Einstellungen bei den Details erfolgen über die Spiele selbst. Beim Spielen achte ich nicht penibel darauf, ob die Grafik flimmert.

Wieviel Prozent der Gamer repräsentiere ich mit diesem Profil ...?

Wird AMD die Kritik von Enthusiasten soweit aufgreifen, dass sie wirklich daran etwas ändern...?

Mau1wurf1977
2010-10-30, 19:00:06
Hinweise bringen nichts. Was zählen sind Balken, einfach simple Balken. Den Text liest doch eh keiner.

Also ich lese immer das Fazit / Empfehlung zuerst. Darin finde ich die meisten Info in der kürzesten zeit!

y33H@
2010-10-30, 19:04:41
Ein kleines Minus im Fazit wiegt aber keine einstelligen prozentualen verlängerten Fps-Balken auf Kosten der BQ auf.

Fetter Fettsack
2010-10-30, 19:08:16
Wie wäre es, wenn man BQ-Balken einführt?
Also je mehr objektiv mittels Screenshots und /oder Videos nachweisbar (entkräftet somit das Subjektivitätsargument) an BQ vorhanden ist, desto länger der Balken.
Kann man entweder global oder für jedes Spie einzeln machen.

EDIT:

Ein kleines Minus im Fazit wiegt aber keine einstelligen prozentualen verlängerten Fps-Balken auf Kosten der BQ auf.

Schnall ich nicht. Bitte nocheinmal für geistige Minderleister. :)

y33H@
2010-10-30, 19:16:46
OK: Gesetzt den Fall, man bencht die HD6k mit Q statt HQ. Dann wird der Balken um einige Prozent länger, sofern AF aktiv ist. Je nach Spiel und Szene nur 3%, wenn's mies läuft, auch mal über 10%. Klar soweit? Eine Geforce, die mit Q filtert, wird hierdurch langsamer dargestellt, als es bei gleicher Bildqualität der Fall wäre. Die Leute sehen aber nur: Radeon schneller als Geforce. Und daran wird der kleine Minuspunkt "AF schlechter" bei den Pros/Cons im Zweifel nichts ändern.

Raff
2010-10-30, 19:18:13
OK: Gesetzt den Fall, man bencht die HD6k mit Q statt HQ. Dann wird der Balken um einige Prozent länger, sofern AF aktiv ist. Je nach Spiel und Szene nur 3%, wenn's mies läuft, auch mal über 10%. Klar soweit? Eine Geforce, die mit Q filtert, wird hierdurch langsamer dargestellt, als es bei gleicher Bildqualität der Fall wäre. Die Leute sehen aber nur: Radeon schneller als Geforce. Und daran wird der kleine Minuspunkt "AF schlechter" bei den Pros/Cons im Zweifel nichts ändern.

So ist es. Balken sind die Macht, weil sie jeder Depp versteht. Prosa, so toll sie auch ist, wird oft ignoriert.

MfG,
Raff

Savay
2010-10-30, 19:18:31
Wie wäre es, wenn man BQ-Balken einführt?


und wie willst du "BQ" quantisieren?! :smile:

das einzige was hilft ist bei nominell vergleichbarer BQ zu testen....evtl noch mit hinweisen ob die testeinstellungen das technische maximum darstellen und/oder noch potenzial vorhanden ist.

y33H@
2010-10-30, 19:22:13
Balken sind die Macht, weil sie jeder Depp versteht.Selbst das nicht ;(

Das einzige, was jeder kapiert, ist ob länger oder kürzer nominell besser ist. Ein Fps-Balken sagt aber mehr aus (oder eben nicht).

Fetter Fettsack
2010-10-30, 19:22:23
OK: Gesetzt den Fall, man bencht die HD6k mit Q statt HQ. Dann wird der Balken um einige Prozent länger, sofern AF aktiv ist. Je nach Spiel und Szene nur 3%, wenn's mies läuft, auch mal über 10%. Klar soweit? Eine Geforce, die mit Q filtert, wird hierdurch langsamer dargestellt, als es bei gleicher Bildqualität der Fall wäre. Die Leute sehen aber nur: Radeon schneller als Geforce. Und daran wird der kleine Minuspunkt "AF schlechter" bei den Pros/Cons im Zweifel nichts ändern.

Ahh, das hast du gemeint. Hab mich vorhin "verdacht".^^

Danke schön. :)

EDIT:

und wie willst du "BQ" quantisieren?!

Hmm, auf die Schnelle fiele mir jetzt nur eine skala von 0 bis 100 ein, auf welcher eben der Grad der AF-Qualität darestellt wird.

LovesuckZ
2010-10-30, 19:23:33
So ist es. Balken sind die Macht, weil sie jeder Depp versteht. Prosa, so toll sie auch ist, wird oft ignoriert.

MfG,
Raff

Wesentlich mächtiger ist das Wort der Leute, denen man vetraut.
Eine PCGH.de, die eine klare Nichtempfehlung ausspricht, wird AMD mehr wehtun als ein User im Forum oder eine Hardwaretestseite im Internet.
Wenn eine Grafikkarte solch einen eklatanten Mangel aufweist, müssen auch die Leute davor gewarnt werden.

Fetter Fettsack
2010-10-30, 19:29:00
Man kann aber nicht einfach wegen etwas, dass offensichtlich nicht übermäßig vielen auffällt, einen generellen Boykott anregen. Denn abgesehen von der AF-Sache sind die Karten auch nicht gerade die schlechtesten. Ich finde, dass du auch die Kirche im Dorf lassen solltest. :)

EDIT:

Worauf ich hinauswill: da fehlt es schlicht an der Verhältnismäßigkeit, die doch zumindest in einem groben rahmen gewahrt bleiben sollte, auch wenn man es subjektiv gerne härter hätte.

Bzgl. BQ-Balken:

Ich hab von der Generierung von AF so gut wie keine Ahnung, aber was ic so aufgeschnappt habe, gibt es mathematisch korrektes AF und dann eben qualitativ minderwertigeres. In meinem Gedankengang wäre das mathematishc korrekte dann mit 100% anzusetzen, der Rest eben entsprechend eines festzulegenden objektivierbaren Faktors in Relation anzusetzen.

Savay
2010-10-30, 19:33:28
Worauf ich hinauswill: da fehlt es schlicht an der Verhältnismäßigkeit, die doch zumindest in einem groben rahmen gewahrt bleiben sollte, auch wenn man es subjektiv gerne härter hätte.


"amd bööööhse, ähnvauh guuuuuuuuuuuuht...ugh ugh" ;D



Hmm, auf die Schnelle fiele mir jetzt nur eine skala von 0 bis 100 ein, auf welcher eben der Grad der AF-Qualität darestellt wird.

schon klar..aber ab welchem punkt definierst du "doppelt so gut"?
was ist die bezugsgröße für die "BQ"? ab wann definierst du die BQ als 100%...ab wann als 0%?! etc. pp. ;)

das ist insgesamt eine hochgradig subjektive geschichte... :)

die grafikausgabe auf eine möglichst vergleichbare qualität einzustellen (was über differenzbilder recht gut abgleichbar ist) und einfach mit solchen settings zu benchen ist deutlich besser zu realisieren und wesentlich eindeutiger. :smile:

ist das nicht möglich muss man als tester auch einfach mal sagen:
bis hierhin und nicht weiter: die karten laufen jetzt ausser konkurrenz ohne vergleich zu anderen modellen! :)

LovesuckZ
2010-10-30, 19:33:54
Man kann aber nicht einfach wegen etwas, dass offensichtlich nicht übermäßig vielen auffällt, einen generellen Boykott anregen. Denn abgesehen von der AF-Sache sind die Karten auch nicht gerade die schlechtesten. Ich finde, dass du auch die Kirche im Dorf lassen solltest. :)

Es fällt den Leute doch sowieso schon nicht auf, weil sie keinen Vergleich zu Hause haben. Unterschiede zwischen Plasma und LCD fallen auch erst auf, wenn man beide nebeneinander stehen hat.
Dafür gibt es dann Tester, denen man ein gewisses Vertrauen entgegen bringt. Eine PCGH.de kann sich im einem 1:1 Vergleich eben besser von etwas überzeugen, als jemand, der nur Geld für eine Karte hat.
Oder anders: Lass doch mal dieses HL2 Video in einem Geschäft nebeneinander laufen. Dann sehen es die Leute. Dann können sie sich auch aufgrund eigener Erfahrung entscheiden.
Man möchte auch vor Bugs in Spielen gewarnt werden. Selbst, wenn sie bei einem dann nicht auftreten. Nur viel schlimmer ist es, nichts davon zu wissen. Das ist genau der falsche Weg. Bart's Filterung ist genau solch ein Bug. Muss nicht stören, kann aber auch ziemlich nervig werden. Wie z.B. in Half Life 2.

Pirx
2010-10-30, 19:33:57
Wesentlich mächtiger ist das Wort der Leute, denen man vetraut.
Eine PCGH.de, die eine klare Nichtempfehlung ausspricht, wird AMD mehr wehtun als ein User im Forum oder eine Hardwaretestseite im Internet.
Wenn eine Grafikkarte solch einen eklatanten Mangel aufweist, müssen auch die Leute davor gewarnt werden.
Hast du das beim G70 auch gefordert? Bleibt mal auf dem Teppich (ich weiß, es ist sinnlos):rolleyes:

Tesseract
2010-10-30, 19:36:26
Wenn eine Grafikkarte solch einen eklatanten Mangel aufweist, müssen auch die Leute davor gewarnt werden.

so "eklatant" ist der mangel im grunde ja auch nicht. allerdings ist es vollkommen ungerechtfertigt dann karten nach fps-zahlen 2 stellen nach dem komma zu vergleichen.
denn den leuten, denen der unterschied im AF nicht auffällt, fallt +-20% fps auch sicher nicht auf.
genau für solche leute macht es dann aber auch überhaupt keinen sinn einer karte den vorzug zu geben, weil sie 3% schneller ist.

Unyu
2010-10-30, 19:37:21
Man kann aber nicht einfach wegen etwas, dass offensichtlich nicht übermäßig vielen auffällt, einen generellen Boykott anregen. Denn abgesehen von der AF-Sache sind die Karten auch nicht gerade die schlechtesten. Ich finde, dass du auch die Kirche im Dorf lassen solltest. :)

Zwei Links zu ausführlichen Filterartikeln bei jeder HD2-6 auf Geizhals würden schon viel bringen.

LovesuckZ
2010-10-30, 19:38:14
Hast du das beim G70 auch gefordert? Bleibt mal auf dem Teppich (ich weiß, es ist sinnlos):rolleyes:

G70? Oh, du meinst vor 5 1/2 Jahren? Nein. Aber da war ich auch keine 25 Jahre.
Wobei, ich habe dort mich für eine X1800XT von Asus (die mit dem Alternativkühler) entschieden als ich von der 6600GT aufgerüstet habe. Auch wegen dem AF.
Seit 4 Jahren habe ich nun immer HQ eingestellt. Und forciere dies als Standardeinstellung anzuerkennen.

Raff
2010-10-30, 19:38:57
Barts filtert (nur) mit HQ brauchbar. Solange diese Option besteht – mittlerweile ohne Nebenwirkungen, die einst durch A.I. Off verursacht wurden –, kann man eine HD 6800 empfehlen. Mit klarem Hinweis, dass die Konkurrenz mehr bietet.

PCGH (http://www.pcgameshardware.de/aid,678322/Grafikkarten-Testuebersicht-Radeon-und-Geforce-November-2010/Grafikkarte/Test/?page=2) empfiehlt im Duell HD 6850 vs. GTX 460/1G aktuell die letztgenannte Grafikkarte. Warum wohl?

Das umfassendste Angebot für Spieler ist Nvidias Geforce GTX 460/1G. Sie konkurriert in Spielen mit AMDs gleichpreisiger Radeon HD 6850, führt jedoch mehrere Vorteile ins Feld: Der anisotrope Texturfilter (AF) flimmert weniger, sie beherrscht GPU-beschleunigte Physik (Physx) und ihr Übertaktungspotenzial ist im Schnitt etwas größer.

MfG,
Raff

Fetter Fettsack
2010-10-30, 19:40:42
schon klar..aber ab welchem punkt definierst du "doppelt so gut"?
was ist die bezugsgröße für die "BQ"? ab wann definierst du die BQ als 100%...ab wann als 0%?! etc. pp.

Ich definiere nur die 100%, die im AF-Fall (der Rest der unter BQ fällt, ist hier einmal ausgeklammert) die mathematisch korrekte Berechnung darstellt.
Dann muss man sich irgendwie etwas einfallen lassen, wie man Sampleeinsparungen von den 100% abzieht.

Dazu müsste man halt wissen, wie AF genau funktioniert, damit man einen solchen Abzug dann in Zahlen ausdrücken kann. Wie man die Anzahl der Sample-Einsparugen genau verifiziert, bereitet mir allerdings ein wenig Kopfweh.^^

Tesseract
2010-10-30, 19:43:30
Dann muss man sich irgendwie etwas einfallen lassen, wie man Sampleeinsparungen von den 100% abzieht.
und genau das kannst du eben nicht weil das objektiv nicht wirklich sinnvoll definierbar ist. du kannst angeben wie groß abweichungen usw. sind, aber das lässt sich nicht auf das subjektive gefallen übertragen.

boxleitnerb
2010-10-30, 19:44:00
Das wird so nicht funktionieren, denn:

Ein Hersteller A ist geschickter mit seinen Optimierungen und ist praktisch am Optimum, spart vielleicht 5% Performance. Hersteller B schafft das nicht und es flimmert deutlich mehr. Warum sollte man A einen Abzug geben für etwas, das (den meisten) nicht auffällt - selbst denen, die ein Auge dafür haben?
Gehst du nach dem Aufwand oder nach dem Ergebnis?

Raff
2010-10-30, 19:44:46
und genau das kannst du eben nicht weil das objektiv nicht wirklich sinnvoll definierbar ist. du kannst angeben wie groß abweichungen usw. sind, aber das lässt sich nicht auf das subjektive gefallen übertragen.

Ja. Was man sich auch ausdenkt, 100-prozentig wasserdicht wird keine Methode sein. Die Folge wäre, dass nicht nur die Flameboys an die Decke gehen. Ergo: BQ weitgehend annähern und so bewerten. Btw, weil's passt: Wenn ich gerade durch das CB-Forum und auch Hwluxx fliege und die mehrfach personifizierte Verblödung Flammen spuckt, weiß ich, warum ich meine Accounts stillgelegt habe ... "PCGH ist böse und ihr, CB, lasst euch von deren AF-Gefasel blenden!". OMFG. :ulol:

MfG,
Raff

Savay
2010-10-30, 19:45:35
Dann muss man sich irgendwie etwas einfallen lassen, wie man Sampleeinsparungen von den 100% abzieht.


eben...und genau dazu musst du definieren ab wievielen flimmernden pixeln oder eingesparten sampels du die BQ mit 0% quantisieren möchtest... :wink:

und das ist und bleibt hochgradig subjektiv. ;)

die ausgabe qualität auf ein vergleichbares niveau bringen ist dort IMO der einzige gangbare weg.

Fetter Fettsack
2010-10-30, 19:53:28
Gehst du nach dem Aufwand oder nach dem Ergebnis?

Ich hatte die Hoffnung, dass beides miteinander korreliert.

Ein Hersteller A ist geschickter mit seinen Optimierungen und ist praktisch am Optimum, spart vielleicht 5% Performance. Hersteller B schafft das nicht und es flimmert deutlich mehr.

Nun, wenn uns das flimmern stört, dann muss sich das irgendwie auch eruieren lassen, ab wann etwas filtert. Sprich, ich stelle mir das als Laie so vor, dass eine vom perfekten 100% AF-Filter glättbare Textur dann störend flimmert, wenn sie eine bestimmte Frequenz erreicht, die der Sparfilter nicht mehr glätten kann.
Nun müsste man ermitteln, wie arg dieser Frequenzüerhang ist und dies entsprechend von den 100% abziehen.

Das allerdings unter der Prämisse, dass das schlechtes AF allein durch hochfrequente Texturen entsteht, die eben durch Sparfilter ihr Unwesen treiben.

eben...ung genau dazu musst du definieren ab wievielen flimmernden pixeln oder eingesparten sampeln du die BQ mit 0% quantisieren möchtest...

Ich mach es mir jetzt einmal ganz leicht: 0% = kein AF ;D

EDIT:aths und langenscheiß könnten sich hier vielleicht eher dazu auslassen, wie man sowas praktisch angehen könnte, mir fehlt das nötige Wissen dazu.

Tesseract
2010-10-30, 20:04:55
Sprich, ich stelle mir das als Laie so vor, dass eine vom perfekten 100% AF-Filter glättbare Textur dann störend flimmert, wenn sie eine bestimmte Frequenz erreicht, die der Sparfilter nicht mehr glätten kann.

kannst du auch nicht machen weil das vom content abhängt. du kannst ein spiel gestalten, wo du den unterschied nie sehen wirst, du kannst auch eins machen wo die optimierung zwischen spielbar und unspielbar unterscheidet. in der praxis ist es dann irgendwas dazwischen.

Fetter Fettsack
2010-10-30, 20:05:40
Worauf ich im Grunde hinaus wollte: jede BQ-Maßnahme hat mathematischen Background/Ursprung. Jede Abweichung davon muss daher auch in prozentuale Werte fassen lassen. Das war meine Grundidee.

EDIT:


kannst du auch nicht machen weil das vom content abhängt. du kannst ein spiel gestalten, wo du den unterschied nie sehen wirst, du kannst auch eins machen wo der optimierung zwischen spielbar und unspielbar unterscheidet. in der praxis ist es dann irgendwas dazwischen.

Auf den ersten Blick Punkt für dich. Wenn es jedoch zur Folge hat, dass sich die Spieleschmieden mehr Mühe geben, i Rahmen ihrer Möglichkeiten das Geflimmere zu unterbinden, fände ich das durchaus erbaulich.
Allerdings hast du recht, dass das dann in einer ungerechten Situation münden würde, da das trotz eines guten Ergebnisses (kein Flimmern) eine schlechte Bewertung entstünde.

Tesseract
2010-10-30, 20:07:27
Worauf ich im Grunde hinaus wollte: jede BQ-Maßnahme hat mathematischen Background/Ursprung. Jede Abweichung davon muss daher auch in prozentuale Werte fassen lassen. Das war meine Grundidee.

du hast hier aber eine gleichung mit 3 unbekannten: die anfälligkeit der optimierung(das was du ausdrücken willst), der content den sie bearbeiten muss und das subjektive empfinden der leute.

LovesuckZ
2010-10-30, 20:09:27
Eure Empfehlung find ich zu einseitig, auch wenn ich immo wohl ne GTX460 bevorzugen würde, gehört in den Absatz auch ganz klar rein, dass die GTX460 30w mehr verbraucht.

Bei besserer BQ. Man müsste also die Konkurrenzkarte auf das Niveau der GTX460 bringen und dann die erreichte Bildzahl pro Sekunde mit dem Verbrauch gegenüberstellen.

Fetter Fettsack
2010-10-30, 20:20:17
du hast hier aber eine gleichung mit 3 unbekannten: die anfälligkeit der optimierung(das was du ausdrücken willst), der content den sie bearbeiten muss und das subjektive empfinden der leute.

Wieso kann ich nicht feststellen, wie der jeweilige Content aussieht und auf AF reagiert? Verstecken das die Spieleentwickler denn so emsig?

Das subjektive Empfinden lässt sich doch auch in Werte fassen, nämlich, dass man Flimmern erst ab einer bestimmten Frequenz wahrnimmt. Außerdem würde ich das subjektive Empinden erst in der Legende zu einem AF-Balken erwähnen, nämlich, ab welchem Wert das AF Flimmern verursacht.

Ich meinte es so:

100%= mathematisch korrektes AF (256x ?), metzelt jegliches Flimmern nieder.

85% = Sampleeinsparungen im Umfang von "X" Samples sowie Flimmeranfälligkeit bei Texturen mit Frequenzen über "Y"-Irgendwas-Hertz

60% = Sampleeinsparungen im Umfang von "X+Z" Samples sowie Flimmeranfälligkeit bei Texturen mit Frequenzen über "Y+A"-Irgendwas-Hertz

A, Y, X und Z sind Zahlenwerte

Legende: Unter 80% AF-BQ tritt z.T. störendes Flimmern auf.

So hab ich mir das vorgestellt. Wobei etwa auch eine volle Sampleanzahl nichts bringt, wenn die Flimmeranfälligkeit gegeben ist. Diese würde dann in unserem Fall eine besser Platzierung als 79% verhindern. Ist jetzt nur ein sehr grobes Grundkonzept. ;)

LovesuckZ
2010-10-30, 20:22:21
Ich sehe nicht das Problem mit der Samplereduzierung. Entscheidend ist auf dem Platz. Man benötigt also ein Referenzvideo und muss anhand des Outputs der Karten es mit diesem vergleichen.
Nur die Bewertung in Punkte oder % ist nicht möglich.

Fetter Fettsack
2010-10-30, 20:27:44
Meinst du mich, LovesuckZ?

Eine abschließende Bewertung, inwieweit die Änderungen vomIdealzustand abweichen, ist, wie ich meine, aber dennoch vonnöten, wenn man es denn in die allgemein verständlichen Balken ummünzen will. Videos sind aber als "Beweis" gut.

Tesseract
2010-10-30, 20:31:13
Wieso kann ich nicht feststellen, wie der jeweilige Content aussieht und auf AF reagiert?

zum einen weil ein spiel nicht deterministisch abläuft und du nicht weißt was der spieler alles macht und zum anderen weil es viel zu komplex wäre. ob z.B. eine texture flimmert (rein mathematisch, unabhängig davon wie sie wahrgenommen wird) hängt ab von
a) dem winkel
b) der entfernung
c) der geschwindigkeit in der sie sich bewegt
d) ob der spieler daran überhaupt vorbei läuft.
und solche texturen hat ein spiel nicht eine sondern vielleicht 5000.

was willst du jetzt genau berechnen?

Fetter Fettsack
2010-10-30, 20:42:46
Eigentlich nur die "Flimmeranfälligkeit".
Also, ab wann eine Textur mit einem bestimmten AF-Filter flimmert. Vorrausgesetzt, dass sich Texturen bei dem AF-Filter (nennen wir ihn X) allesamt gleich verhalten.