PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Qualität des AF auf Radeon HD 6800


Seiten : [1] 2 3 4 5

AnarchX
2010-10-22, 10:11:16
http://www.plaatjesupload.nl/bekijk/2010/10/19/1287495322-650.jpg

Banding-Problem auf HD 5000: http://www.3dcenter.org/artikel/amd-mit-neuen-schwaechen-bei-der-filterqualitaet


There is no "Cat AI standard" going forward. The optimization behaviour has been unified across all boards from Cat 10.10 onwards, so the default beviour on Cypress is different, but you can get back to Cat 10.9 quality on Cyress by changing the slider to high quality.
http://forum.beyond3d.com/showpost.php?p=1485307&postcount=3892

Betrachtung von PCGH:
"Qualität" ist die neue Standardeinstellung, zudem sind die Render Target Replacements aktiv. Uns fiel zu Beginn der Tests auf, dass der anisotrope Filter der HD-6800-Karten im Vergleich mit einer Radeon HD 5870 stärker flimmert. Nach Rücksprache mit AMD teilte man uns mit, dass die Standardeinstellung "Qualität" aggressiver filtert als der bisherige Treiberstandard (A.I. Standard; dort seien die Texturfilteroptimierungen bei der HD-5800-Reihe bereits deaktiviert)

Unterm Strich ist die Entwicklung insgesamt positiv:
- das Banding-Problem der Evergreens, laut AMD ein Hardware-Bug, ist beseitigt,
- das AF-Flimmern ist nicht so stark wie bei einer HD 4000 und die Rendertarget-Optimierungen lassen sich auf Wunsch abschalten.
- Den Nutzern werden mehr Freiheiten geboten denn je.
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4

MadManniMan
2010-10-22, 10:13:14
Flimmern kann man "wegsupersampeln", Banding nicht. Letzteres sehe ich daher persönlich als schlimmer an. Das einzige "Gute" ist, dass es weit seltener banded als flimmert ...

Na komm - es hat fast ein Jahr gedauert, biss das Banding tatsächlich aufgefallen ist und es bedarf eines gewissen, offenbar selten anzutreffenden hochfrequenten Contents. Und außerdem bin ich gar geneigt, diesen HW-Bug als Bug zu verzeihen.

Was aber hochgradig Poposex ist:
- das Bugfixing als neues Feature bewerben
- FLIMMERN FTW! Wieviel % aller Reviews werden HQ vs. Q benchen? 5?

deekey777
2010-10-22, 10:16:51
Das ist doch eine Sauerei.
Der Wunsch war: High Quality = mindestens AI Off, aber ohne dass sinnvolle Optimierungen und insbesondere nicht CF deaktiviert wird.
Was passiert: HQ funktioniert noch nicht richtig, liefert AI on Quali, Q ist schlechter als AI on, und Leistung ist eh etwas, das keine anfasst.

AnarchX
2010-10-22, 10:18:06
Sicher das "High Quality" nicht den maximalen Fähigkeiten der TMUs entspricht?

y33H@
2010-10-22, 10:21:07
Hauptsache, dass Dave Bauman die Winkelunabhängigkeit auffährt (http://forum.beyond3d.com/showpost.php?p=1485302&postcount=3889) :usad:
Quality provides similar optimizations at the software level to NVIDIA, High Quality provides native texturing. PCGH also does not take into account the high precision LOD and pure angle invaraint AF that is offered in all modes but not available in NVIDIA hardware.
Wieviel % aller Reviews werden HQ vs. Q benchen? 5? Freu mich auf Xbitlabs. Die werden (vermutlich) NVs HQ-AF gegen das Q (= "AI Advanced") der HD6k stellen ;(

DrumDub
2010-10-22, 10:30:36
schon geslesen?

Und in der Tat, der Qualitätsschalter mutet auf dem Barts-Chip zumindest in Oblivion etwas merkwürdig zu. Denn unter der Standard-Einstellung flimmert das Spiel interessanterweise weniger als unter High-Quality! Letzteres sieht der Texturfilterung vom RV870 erneut ähnlich. Immer noch die Nase vorne hat die anisotrope Filterung auf dem GF100. Dort ist „High Quality“ zwar nicht einwandfrei, aber schon sehr ruhig. Und selbst die Standardeinstellung ist dem Barts noch minimal überlegen. Wir sehen diese Modi allerdings als so gut wie gleichwertig an, wobei sich bei Nvidia eben immer noch die Hohe Qualität hinzu schalten lässt.

Dass der Qualitätsschalter auf dem Barts-Kern nicht immer solche merkwürdigen Ergebnisse zaubert, zeigt das kostenlose Spiel Trackmania. Dort ist die High-Quality-Implementierung in der Tat besser, da ein ruhigeres Bild erzeugt wird. Zusätzlich fällt das nervtötende Banding-Problem des RV870 unabhängig von der Einstellung weg, das in Trackmania sehr präsent war.In dem Titel ist schlussendlich allerdings erneut Nvidia der König, denn die AF-Implementierung der Kalifornier ist, was das Flimmern betrifft, selbst dem Barts ein gutes Stückchen voraus. In dem Titel gilt das bereits schon für „Quality“, die höhere Stufe ist dann logischerweise noch besser. http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850/6/#abschnitt_afeindruecke

bleibt also alles beim alten, bis auf das so gut wie behobene banding-problem.

Exxtreme
2010-10-22, 10:35:32
schon geslesen?

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850/6/#abschnitt_afeindruecke

bleibt also alles beim alten, bis auf das so gut wie behobene banding-problem.
Japp, und deshalb bin ich auch enttäuscht von dieser neuen Generation. Das Banding ist mir nie aufgefallen, das Flimmern hingegen schon.

V2.0
2010-10-22, 10:38:07
Ich bin mir sicher, dass die "Problemchen" ein Treiberbug des Launchtreiber sind.

PCGH_Raffael
2010-10-22, 10:40:02
Ich bin mir sicher, dass die "Problemchen" ein Treiberbug des Launchtreiber sind.

Nein, das sind bewusste Entscheidungen, die man uns auf Nachfrage bestätigte. Wenn sich etwas am "Quality = A.I. Erweitert" ändert, dann nur, wenn das genug Leute zu Recht an den Pranger stellen.

MfG,
Raff

deekey777
2010-10-22, 10:44:50
Nein, das sind bewusste Entscheidungen, die man uns auf Nachfrage bestätigte. Wenn sich etwas am "Quality = A.I. Erweitert" ändert, dann nur, wenn das genug Leute zu Recht an den Pranger stellen.

MfG,
Raff
Ach komm: Es wurde bezüglich der HD5000 bestätigt. Ist ein kleiner, aber Unterschied, denn so kann man alles bestreiten.

Moment: Der Mipmap-Regler ist weg?
Jetzt wird's lächerlich.

V2.0
2010-10-22, 11:06:40
Es gibt eine einfache Möglichkeit. Bencht einmal Q und einmal HQ und zeigt die Differenz in der Leistung. BQ kann man imho nicht vermitteln.

deekey777
2010-10-22, 11:10:26
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850/6/#abschnitt_afeindruecke
So fällt im Vergleich RV870 gegen Barts auf, dass auf der Barts-GPU das LOD etwas ins Positive verschoben ist, was eventuell die Flimmerneigung etwas drückt. Andere Unterschiede sind nicht zu sehen. Wird auf der Barts-Karte nun aber „High Quality“ aktiviert, sieht die AF-Blume interessanterweise wieder so aus wie auf dem RV870 – das LOD ist also wieder etwas aggressiver.
Meine Erklärung: Da TFQ jetzt auch MM-Detailebene regelt, wird LOD bei Q ins Positive verschoben.

MadManniMan
2010-10-22, 11:12:29
Freu mich auf Xbitlabs. Die werden (vermutlich) NVs HQ-AF gegen das Q (= "AI Advanced") der HD6k stellen ;(

Nich Dein Ernst? Ich dachte, die Xbitlabs wären sowas wie 3DConcept :usad:


Japp, und deshalb bin ich auch enttäuscht von dieser neuen Generation. Das Banding ist mir nie aufgefallen, das Flimmern hingegen schon.

SCHLIMMER noch! Sieh Dir mal die Videos von HT4U an (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index8.php) - selbst HQ flimmert stärker als die 5000er :(

MadManniMan
2010-10-22, 11:13:42
Es gibt eine einfache Möglichkeit. Bencht einmal Q und einmal HQ und zeigt die Differenz in der Leistung. BQ kann man imho nicht vermitteln.

Ja toll - mit der Erkenntnis, dass selbst AMD-HQ vs. NV-Q kein vernünftiger Vergleich mehr ist :mad:

Mr. Lolman
2010-10-22, 11:16:26
Nich Dein Ernst? Ich dachte, die Xbitlabs wären sowas wie 3DConcept :usad:


Nö. Leider. Sie haben zwar auf das G70 Flimmern reagiert, und deswegen den NV-Treiber (damals) richtigerweise auf HQ gestellt, aber seitdem daran nix mehr geändert. :usad:

Nich Dein Ernst? Ich dachte, die Xbitlabs wären sowas wie 3DConcept :usad:




SCHLIMMER noch! Sieh Dir mal die Videos von HT4U an (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index8.php) - selbst HQ flimmert stärker als die 5000er :(


Anscheinend ist das sehr vom Texturinhalt abhängig und dementsprechend auch schwierig eine allgemeine Aussage zu treffen:


Nach diesen Videos muss man festhalten, dass der direkte Vergleich AMD HD 5800 gegenüber HD 6800 weiterhin genauso flimmert. Man muss ebenfalls festhalten, dass NVIDIAs Lösung weiterhin fast perfekt an der Vorgabe arbeitet. Dabei muss man aber gleichfalls erwähnen, dass dieses Verhalten eben nur für diesen Vergleich gilt. In Spielen kann sich dies wiederum ganz anders zeigen und schon seinerzeit meldete man verschiedentlich zurück, dass die Radeon-HD-5000-Modelle sich in Spielen deutlich besser hinsichtlich diesem geschilderten Flimmer-Umstand verhalten, als der Referenzvergleich prinzipiell darstellt.



Moment: Der Mipmap-Regler ist weg?
Jetzt wird's lächerlich.
Ist er das? Link?

V2.0
2010-10-22, 11:17:59
Besser als Q vs. Q und 10+ % Vorsprung für ATI. Was ATI da abliefert ist imho übelstes Cheating und sonst gar nichts. Ein Kollege hat ATI Q mit NV70 Q verglichen. Ich hoffe der übertreibt.

DrumDub
2010-10-22, 11:18:29
SCHLIMMER noch! Sieh Dir mal die Videos von HT4U an (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index8.php) - selbst HQ flimmert stärker als die 5000er :( stimmt wohl nicht immer: Dass der Qualitätsschalter auf dem Barts-Kern nicht immer solche merkwürdigen Ergebnisse zaubert, zeigt das kostenlose Spiel Trackmania. Dort ist die High-Quality-Implementierung in der Tat besser, da ein ruhigeres Bild erzeugt. s.o.

V2.0
2010-10-22, 11:24:09
Wenn man böse ist könnte man sagen, dass der ATI Treiber wohl typische AF Testanwendungen detected.

desert
2010-10-22, 11:25:25
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850/6/#abschnitt_afeindruecke

Meine Erklärung: Da TFQ jetzt auch MM-Detailebene regelt, wird LOD bei Q ins Positive verschoben.

hat cb doch festgestellt:

...So fällt im Vergleich RV870 gegen Barts auf, dass auf der Barts-GPU das LOD etwas ins Positive verschoben ist, was eventuell die Flimmerneigung etwas drückt...

deekey777
2010-10-22, 11:26:20
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=6
. Additionally, AMD combined the Catalyst AI and mipmaps detail level sliders, to make the new texture filtering quality slider. This offers performance, quality and high quality modes, with quality and surface format optimizations enabled by default. This will apply to HD 5000 series as well as HD 6000 series, to be introduced in the AMD Radeon HD 6000 launch driver due now, Catalyst 10.10.
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/bildergalerie/?iid=1448686

hat cb doch festgestellt:

...So fällt im Vergleich RV870 gegen Barts auf, dass auf der Barts-GPU das LOD etwas ins Positive verschoben ist, was eventuell die Flimmerneigung etwas drückt...
Was haben die festgestellt? Dass Mipmap-Detailebene entfernt wurde?

desert
2010-10-22, 11:28:18
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=6
. .
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/bildergalerie/?iid=1448686


Was haben die festgestellt? Dass Mipmap-Detailebene entfernt wurde?

na das ati das lod ins positive verschiebt bei Q-einstellung.

MadManniMan
2010-10-22, 11:36:50
Ich hab mir jetzt die HT4U-Videos nochmal angesehen und HQ vom RV940 flimmert deutlich stärker als RV870-Standard ;(

Wir haben also einen Ansatzpunkt - warum sollte es auch in Spielen völlig anders sein?

Blaire
2010-10-22, 11:39:30
SCHLIMMER noch! Sieh Dir mal die Videos von HT4U an (http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/index8.php) - selbst HQ flimmert stärker als die 5000er :(

Die Videos zeigen das ganze Ausmaß eindrucksvoll, völlig egal ob Q oder HQ bei der 6800 es flimmert viel zu stark und das ist überhaupt nicht mit NV Q bzw. HQ zu vergleichen! Wenn diese Textur schon flimmert, wie sieht denn erst die andere Groundtextur aus da ists sicher noch viel schlimmer.

MadManniMan
2010-10-22, 11:42:47
Selbstverständlich wird es nicht in allen Anwendungen überall auffällige Unterschiede geben, aber habe mal auch nur eine nicht ganz handzahme Weichspültextur und schon ist das Geflimmer da.

Ich hätte vor meinem Wechsel von der 3850 auf die 8800 GT auch nicht gedacht, dass selbst bei Left 4 Dead der Unterschied so groß sein würde - und das Spiel ist nicht gerade für extreme Augenschmäuße bekannt.

deekey777
2010-10-22, 11:56:51
Ich hab mir jetzt die HT4U-Videos nochmal angesehen und HQ vom RV940 flimmert deutlich stärker als RV870-Standard ;(

Wir haben also einen Ansatzpunkt - warum sollte es auch in Spielen völlig anders sein?
Bei meiner HD4850 konnte ich HL2 mehr als deutlich sehen, dass HQ schlechter ist als Q. Es kann sein, dass HQ nicht einwandfrei funktioniert (siehe CB).

Blaire
2010-10-22, 11:58:51
Selbstverständlich wird es nicht in allen Anwendungen überall auffällige Unterschiede geben, aber habe mal auch nur eine nicht ganz handzahme Weichspültextur und schon ist das Geflimmer da.


Ich kann dir versichern, daß was der Filtertester da anzeigt, ist bei Nvidia und HQ auch 1:1 inGame übertragbar und sieht auch genauso aus, ausgenommen Abschnitte die bei selbst bei Lehrbuchfilter flimmern würden.

PCGH_Raffael
2010-10-22, 12:01:16
Wir haben Fraps-Videos, auf denen HQ definitiv weniger flimmert als Q (Half-Life 2, evil Kiesel). Auch kostet HQ Fps.

MfG,
Raff

Gestrandet
2010-10-22, 12:01:17
Hab grad die HT4U-Videos angeschaut und kann nur sagen: Bäh, igitt, was leistet sich AMD da für einen Cr*pf*ck???
So ein Flimmermüll kommt mir nicht mehr ins Haus (bin G70-geschädigt).
pn an Baumann ist raus ... er soll das nächste Mal bitteschön unsere Augen retten :-/

V2.0
2010-10-22, 12:01:34
Bei meiner HD4850 konnte ich HL2 mehr als deutlich sehen, dass HQ schlechter ist als Q. Es kann sein, dass HQ nicht einwandfrei funktioniert (siehe CB).

Da wäre die Frage ob das noch Zufall ist.

MadManniMan
2010-10-22, 12:02:00
Ich kann dir versichern, daß was der Filtertester da anzeigt, ist bei Nvidia und HQ auch 1:1 inGame übertragbar und sieht auch genauso aus, ausgenommen Abschnitte die bei selbst bei Lehrbuchfilter flimmern würden.

Glaub ich Dir aufs Wort - ich meinte es ja auch eher umgekehrt! Also dass AMDs Filter in der Praxis eben nicht immer als flimmrig gesehen werden müssen, es aber doch oft zu sehen ist.

boxleitnerb
2010-10-22, 12:06:07
Wie schonmal erwähnt: Die Flimmerneigung hängt auch von der Geschwindigkeit, mit der man über eine Fläche fährt, zusammen. Die HT4U Videos halte ich daher nicht für absolut vergleichbar.

MadManniMan
2010-10-22, 12:16:07
Ja, das habe ich selbstverständlich beim Betrachten im Hinterkopf behalten - aber nichtdestotrotz sind die Unterschiede augenscheinlich: beim RV940 ist das Flimmern in einem breiteren Band und dabei näher ... und soviel stärker, dass die Geschwindigkeit da nichts kompensiert.

Mr. Lolman
2010-10-22, 12:22:01
. und soviel stärker, dass die Geschwindigkeit da nichts kompensiert.

Schon selbst ausprobiert?

MadManniMan
2010-10-22, 12:35:29
Schon selbst ausprobiert?

Hast Recht - Bauchgefühl ;( Ich schreib Peter mal ... vielleicht kann er nochmal gleiche Geschwindigkeiten aufnehmen!

Blaire
2010-10-22, 12:50:38
Wie schonmal erwähnt: Die Flimmerneigung hängt auch von der Geschwindigkeit, mit der man über eine Fläche fährt, zusammen. Die HT4U Videos halte ich daher nicht für absolut vergleichbar.

Minimal, entweder es flimmert oder nicht. Selbst bei "Volltempo" Movement 0.3 ändert sich bei NV@HQ nichts.

fondness
2010-10-22, 12:57:39
http://forum.beyond3d.com/showpost.php?p=1485302&postcount=3889

Was meint Baumann eigentlich mit dem "high precision LOD" das NV angeblich fehlt? Kann dazu ein Guru was genaueres sagen? Das mit der winkelabhängigkeit ist klar, aber er sagt ja ausdrücklich winkelunabhängigkeit und high precision LOD, also meint er was anderes.

Mr. Lolman
2010-10-22, 13:27:07
Vielleicht das, was sich auf den guru3d Screenshots von COD MW2 auf der Fläche mittig links recht deutlich bemerkbar macht: http://www.guru3d.com/article/radeon-hd-6850-6870-review/9

V2.0
2010-10-22, 13:34:32
Was?

AnarchX
2010-10-22, 13:38:28
Vielleicht das, was sich auf den guru3d Screenshots von COD MW2 auf der Fläche mittig links recht deutlich bemerkbar macht: http://www.guru3d.com/article/radeon-hd-6850-6870-review/9

Das ist wohl möglich einer der Winkel, die der Filter der GeForce nicht mehr richtig erfasst.

Mr. Lolman
2010-10-22, 13:48:29
Kann sein. Man siehts aber auch rechts am Weg.

/EDIT: und an der Waffe!
/EDIT: Das AA scheint mir stw. auch etwas glatter. Wird aber wohl an der Sampleanordnung liegen.

Coda
2010-10-22, 13:49:16
"Qualität" ist die neue Standardeinstellung, zudem sind die Render Target Replacements aktiv. Uns fiel zu Beginn der Tests auf, dass der anisotrope Filter der HD-6800-Karten im Vergleich mit einer Radeon HD 5870 stärker flimmert. Nach Rücksprache mit AMD teilte man uns mit, dass die Standardeinstellung "Qualität" aggressiver filtert als der bisherige Treiberstandard (A.I. Standard; dort seien die Texturfilteroptimierungen bei der HD-5800-Reihe bereits deaktiviert). Erst die Option "Hohe Qualität" bringe die Optimierungen auf den bislang gekannten Level und ist vergleichbar mit dem bisherigen A.I. Standard der HD-5800-Karten. Die HD-6000-Karten filtern also standardmäßig auf dem Niveau einer HD-5000-Karte mit A.I. Erweitert/Advanced. AMD verschafft seinen neuen Karten einen Fps-Vorteil auf Kosten der Bildqualität. Ist "Hohe Qualität" aktiviert, verschwindet das unschöne AF-Banding fast vollständig, das Flimmern wird ebenfalls reduziert - die Bildrate natürlich auch.
Und ich dachte schon, dass AMD seine Kunden nicht mehr verarscht.

Wie konnte ich so blöd sein. Sie legen sogar noch eins drauf. Werben mit angeblichen Verbesserungen, dabei ist es sogar noch schlimmer als vorher :facepalm:

Hab grad die HT4U-Videos angeschaut und kann nur sagen: Bäh, igitt, was leistet sich AMD da für einen Cr*pf*ck???
So ein Flimmermüll kommt mir nicht mehr ins Haus (bin G70-geschädigt).
pn an Baumann ist raus ... er soll das nächste Mal bitteschön unsere Augen retten :-/
Der ignoriert auf B3D alles was in diese Richtung geht ziemlich konsequent.

boxleitnerb
2010-10-22, 14:16:09
Eigentlich genial - man suggeriert Verbesserungen, die eigentlich nur Bugfixes sind, stellt die Kritiker mit dem nutzlosen (im Vergleich zu HD5000) HQ-Schalter zufrieden, den eh kein Reviewer außer PCGH benutzt und bekommt in den Reviews noch bis zu 10% mehr fps. Drei Fliegen mit einer Klappe.

Ob sich AMD diesbezüglich jemals ändern wird? Sie haben doch schon im Vergleich zur Konkurrenz pervers hohe Füllrate - warum muss da überhaupt gespart werden?

Vento
2010-10-22, 14:21:32
Das Schlimme ist das die Masse der Testseiten diese Cheaterei auch noch indirekt belohnt.
Für AMD geht das Konzept voll auf, man verschafft sich einen FPS-Vorteil auf Kosten der Bildqualität und es wird nicht einmal abgestraft.

boxleitnerb
2010-10-22, 14:25:04
Hoffen wir inständig, dass Nvidia sich nicht mehr auf diesen Pfad begibt und vielleicht bei zukünftigen Karten sogar einen vollkommen winkelunabhängigen Filter bringt UND die Q-Option streicht. HQ kostet ja eh nix bei denen. Dann ist die Cheaterei auf der Seite schonmal endgültig Vergangenheit.

AMD...naja, nachdem die diesen Bock geschossen haben, was kommt als Nächstes?

Schrotti
2010-10-22, 14:39:48
Sie haben doch schon im Vergleich zur Konkurrenz pervers hohe Füllrate - warum muss da überhaupt gespart werden?

Das würde mich auch interessieren.

deekey777
2010-10-22, 14:48:37
Eigentlich genial - man suggeriert Verbesserungen, die eigentlich nur Bugfixes sind, stellt die Kritiker mit dem nutzlosen (im Vergleich zu HD5000) HQ-Schalter zufrieden, den eh kein Reviewer außer PCGH benutzt und bekommt in den Reviews noch bis zu 10% mehr fps. Drei Fliegen mit einer Klappe.

Ob sich AMD diesbezüglich jemals ändern wird? Sie haben doch schon im Vergleich zur Konkurrenz pervers hohe Füllrate - warum muss da überhaupt gespart werden?
Die extreme Füllrate haben sie gerade nicht mit steigender anisotroper Filterung: Obwohl sie "optimieren", fällt die Füllrate zumindest beim Cypress unerklärlich rapide ab.

DrFreaK666
2010-10-22, 14:52:56
Ist das AF bei maximalen Einstellung nun besser oder schlechter als das AF, vom HD5k???
Ich blick da gerade nicht richtig durch

deekey777
2010-10-22, 14:58:33
Das Banding wurde entfernt, das steht schon fest.
Ob eine HD6800 unter HQ wirklich besser ist als eine HD5800 unter HQ, muss noch untersucht werden. Fest steht aber, dass HQ = AI standard, und AI off bisher der beste Modus war.
Ganz einfach gesagt: Mit 10.10 verarscht AMD die Welt gehörig.

mrt
2010-10-22, 16:19:20
Die extreme Füllrate haben sie gerade nicht mit steigender anisotroper Filterung: Obwohl sie "optimieren", fällt die Füllrate zumindest beim Cypress unerklärlich rapide ab.
Zu wenig Bandbreite zu den Texcaches, die ist im Vergleich zur HD4870 nur um 50% gestiegen.
Bis AMD mal die AF-Register in die offene Doku für R600 aufwärts packen, geh ich mal von kaputten TMUs aus. :biggrin:

boxleitnerb
2010-10-22, 16:24:20
Hat eigentlich noch eine andere Seite explizit gesagt, dass der Treiberstandard bei HD6000 schlechter ist als bei HD5000?
Die einzige Quelle, die es dafür meines Wissens nach gibt ist PCGH (die Antwort von AMD) und die HT4U Videos.

Könnte jemand von PCGH mal bitte den exakten englischen Wortlaut der AMD-Antwort posten?

zustand
2010-10-22, 16:32:24
Warum sollte AMD überhaupt in der Lage sein, TMUs von ähnlicher Qualität wie nVidia zu bauen. Es ist ja nicht so, dass nVidia nicht selber Effizienzprobleme in gewissen Bereichen im Vergleich zu AMD besitzt.

Die ganze Problematik kann sich natürlich mit Cayman in Luft auflösen, daran glauben würde ich jetzt aber nicht.

Zum neuen Regler gibt es von meiner Seite nichts hinzuzufügen.

AnarchX
2010-10-22, 16:44:20
HD 6900 würde ich noch nicht abschreiben, da gibt es bei AMD durchaus schon Ideen in Form von Patenten zu effektiveren TMUs. Und Cayman wird wohl eine echte Northern Islands GPU sein.
Vielleicht filtert Turks ~ HD 6600 gar besser als Barts? ;D

mrt
2010-10-22, 16:47:20
Basiert Turks auf Cayman?
Warum sollte AMD überhaupt in der Lage sein, TMUs von ähnlicher Qualität wie nVidia zu bauen. Es ist ja nicht so, dass nVidia nicht selber Effizienzprobleme in gewissen Bereichen im Vergleich zu AMD besitzt.

Die ganze Problematik kann sich natürlich mit Cayman in Luft auflösen, daran glauben würde ich jetzt aber nicht.

Zum neuen Regler gibt es von meiner Seite nichts hinzuzufügen.
Hast du schon einmal von den "Radeon X1xx0"-Karten gehört oder willst du nur trollen? Klar kann AMD TMUs bauen die gut Filtern, haben sie ja schon mal.

AnarchX
2010-10-22, 16:52:29
Seit den R520 TMUs hat sich aber doch einiges getan. Außerdem könnte die Basis für die TMUs in den aktuellen GPUs könnte wohl möglich eher R400/R500(Xenos) sein.

Basiert Turks auf Cayman?
Ist noch nicht bekannt, höchstens über den Shadercompiler könnte man vielleicht herausfinden ob auf diese Device-ID 4D Code erzeugt wird.

Coda
2010-10-22, 16:53:48
Warum sollte AMD überhaupt in der Lage sein, TMUs von ähnlicher Qualität wie nVidia zu bauen.
Das Filtering an sich ist wenn man die Gradienten erstmal hat äußerst trivial.

Der sehr einfache Algorithmus dafür steht auch in der OpenGL-AF-Spec und in jedem Lehrbuch. Es ist einfach nur eine Durchschnittsbildung (evtl. mit Gamma-Korrektur) über n gleichverteilte Samples entlang des längeren Gradienten. Die Anzahl der Samples ergibt sich trivial aus max(AF-Level, Längerer Gradient / Kürzerer Gradient).

Als Code sieht das so aus:
float3 color_sum = float3(0.0f, 0.0f, 0.0f);

for(float i=0.0f; i<n; ++i) {
float2 texcoord = texcoord_start + i*dr;

if(lambda <= 0.0f || !do_lerp) {
// Magnification
color_sum += albedo.SampleLevel(sample_state, texcoord, lambda);
}
else {
// Filter trilinear
float3 mip1 = albedo.SampleLevel(sample_state, texcoord, lambda_trunc + lambda_tmu_fix);
float3 mip2 = albedo.SampleLevel(sample_state, texcoord, lambda_trunc + 1.0f - lambda_tmu_fix);

color_sum += lerp(mip1, mip2, trilinear_lerp_factor);
}
}

return (color_sum / n);
Das werden sie ja gerade noch hinbekommen :rolleyes:

Es ist meiner bescheidenen Meinung nach sogar viel komplizierter nicht sauber zu filtern, weil man dann mehr Transistoren braucht für die Kontrolle wie gepfuscht werden soll.

mrt
2010-10-22, 17:13:15
Das ist eigentlich Fakt, da brauchst nicht "nach meiner bescheidenen Meinung nach" schreiben.

@AnarchX
Wage ich zu bezweifeln, R400 war doch irgendeine irre Anordnung wenn ich mich recht erinner. Selbst wenn doch, AF is Algorithmisch nicht schwer, siehe Coda über mir oder Literatur. ;)

Coda
2010-10-22, 17:23:08
Die Gradientenberechnung ist winkelunabhängig schon recht komplex. Im Wesentlichen muss man dafür die lange und kurze Halbachse der im Texel-Footprint eingeschlossenen Ellipse berechnen.

Aber das ist ja nichts was in Hardware Performance kosten würde. Transistoren sind praktisch "umsonst", nur Cycles und Bandbreite nicht.

boxleitnerb
2010-10-22, 17:46:11
Weiß jemand, mit welchen Treibern/Einstellungen die Videos bei HT4U gemacht wurden? Bei der 5870 steht es nicht genau dabei. Ich gehe davon aus, das Video wurde recycled und ein alter Treiber benutzt, da dort die Optimierungen ja noch anders waren. Denke, AI Standard?

Die Veränderung im AF ist eine reine Treibersache seit dem Launchtreiber, richtig?

LovesuckZ
2010-10-22, 17:48:45
Da musst du dort nachfragen. Aus dem Test geht es nicht hervor.

zustand
2010-10-22, 17:48:50
Das Filtering an sich ist wenn man die Gradienten erstmal hat äußerst trivial.

Der sehr einfache Algorithmus dafür steht auch in der OpenGL-AF-Spec und in jedem Lehrbuch. Es ist einfach nur eine Durchschnittsbildung (evtl. mit Gamma-Korrektur) über n gleichverteilte Samples entlang des längeren Gradienten. Die Anzahl der Samples ergibt sich trivial aus max(AF-Level, Längerer Gradient / Kürzerer Gradient).

Als Code sieht das so aus:
float3 color_sum = float3(0.0f, 0.0f, 0.0f);

for(float i=0.0f; i<n; ++i) {
float2 texcoord = texcoord_start + i*dr;

if(lambda <= 0.0f || !do_lerp) {
// Magnification
color_sum += albedo.SampleLevel(sample_state, texcoord, lambda);
}
else {
// Filter trilinear
float3 mip1 = albedo.SampleLevel(sample_state, texcoord, lambda_trunc + lambda_tmu_fix);
float3 mip2 = albedo.SampleLevel(sample_state, texcoord, lambda_trunc + 1.0f - lambda_tmu_fix);

color_sum += lerp(mip1, mip2, trilinear_lerp_factor);
}
}

return (color_sum / n);
Das werden sie ja gerade noch hinbekommen :rolleyes:

Es ist meiner bescheidenen Meinung nach sogar viel komplizierter nicht sauber zu filtern, weil man dann mehr Transistoren braucht für die Kontrolle wie gepfuscht werden soll.

Ich wollte eigentlich darauf hinaus, das AMD im Vergleich zu nVidia vielleicht irgendwelche Probleme mit dem Performanceverlust bei entsprechender Qualität hat und sich das ganze nicht so einfach lösen lässt. Deine Argumentation scheint ja rein die Implementierung des Filters selbst zu betreffen. Ich versuche nur einen logischen Grund in AMDs Verhalten diesbezüglich zu finden, und ich kann mir nicht erklären, warum die Entwicklungsabteilung dort gegen jegliche Logik handeln würde. Es gibt natürlich noch andere Erklärungsmöglichkeiten.

Naja, mal Cayman abwarten. Wenn ich aber den neuen Regler betrachte, glaube ich aber nicht so recht an das ganze.

Flatterball77
2010-10-22, 18:39:39
Naja, war zu erwarten mit der Filterung. Das AMD aber jetzt so dreist einen HQ Hebel einbaut und damit HQ Filterung von NV suggeriert, nicht schlecht die Marketingabteilung von AMD:freak:

V2.0
2010-10-22, 18:42:16
Das stimmt allerdings, die Qualität an sich ist bei HQ völlig ok. Die Umbenennung und der reduzierte Treiberstandard ist ne Saurerei.

Flatterball77
2010-10-22, 18:48:07
Das stimmt allerdings, die Qualität an sich ist bei HQ völlig ok. Die Umbenennung und der reduzierte Treiberstandard ist ne Saurerei.

Wo ist bei AMD die HQ-Angabe angebracht:confused:? Die Filterung ist schlecht der Name ist ein Hohn. Noch komischer wirds bei AMD wenn man sieht welches Bios auf die 6850 geflasht wurde:freak:

PS.: AMD hats geschafft die Käufer wahrlich zu verwirren. Fängt bei der Namensgebung an und hört bei der Filterung auf. Find ich nicht gut, ehrlich.

V2.0
2010-10-22, 19:06:47
Ich meinte, die AF Qualität ist durch das gelöste Banding-Problem ok gegenüber dem Vorgänger. ne Sauerei ist, dass AI Standard nun HQ genannt wird und man mit Q einen Treiberstandard bietet, der schlechter als der bisherige ist.

AnarchX
2010-10-22, 19:12:12
However, the problem we showed with the HD 5000's anisotropic filtering here remains on the HD 6000 series.The shimmering issue is only visible in motion, so a screenshot can't demonstrate the problem. To reproduce the effect, load texture2.dds from the program install directory, and configure the settings as follows - Texture movement Y = -0.3; Max Anisotropy 16x; LOD Bias 0.0; Texture Scale 1.0x; Texture Movement X 0. We've outlined the areas where if you try this for yourself, you might see the issue as well:
[...]
AMD are aware of the issue and are looking in to it. Our NVIDIA GeForce GTX 460 did not demonstrate this issue, with the image looking identical to the ALU perfect implementation of this test
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=6

Immerhin scheinen die US-Seiten, zumal Rage3D eher AMD wohlgesonnen ist, auch das Problem zu erkennen.

Flatterball77
2010-10-22, 19:15:03
Ich meinte, die AF Qualität ist durch das gelöste Banding-Problem ok gegenüber dem Vorgänger. ne Sauerei ist, dass AI Standard nun HQ genannt wird und man mit Q einen Treiberstandard bietet, der schlechter als der bisherige ist.

OK, alles klar:wink:. Ja, ein Bug wird beseitigt dann heben wir die Filterung auf HQ hoch:freak:. Aber stimmt schon, ein riesen Beschiss:mad:

Wie dem auch sei, hab die Warterei satt gehabt und gleich nach diesen teilweise lustigen Reviews zu einer NV gegriffen.

Gut fand ich noch den Test auf HT4U, sehr schön detailliert. Witzlos dagegen CB und Gamestar.

mrt
2010-10-22, 19:22:27
Die Gradientenberechnung ist winkelunabhängig schon recht komplex. Im Wesentlichen muss man dafür die lange und kurze Halbachse der im Texel-Footprint eingeschlossenen Ellipse berechnen.

Aber das ist ja nichts was in Hardware Performance kosten würde. Transistoren sind praktisch "umsonst", nur Cycles und Bandbreite nicht.
Relativ komplex, ja, aber wir reden hier auch nicht von einem Unternehmen mit 5 Erstsemestrigen als Angestellte.
Drücken wir es so aus, der Transistorbedarf ist vergleichsweise lächerlich. Bandbreite hätte eine HD4870 meiner Meinung nach genug, die Beschränkungen bei der Qualität sind da politischer Natur, Cypress hat wohl zu wenig Bandbreite, eben die von mir weiter oben erwähnten 50% mehr als RV770, bei verdoppelter Anzahl an TMUs. Failure by Design sag ich da nur.
Weiß man schon wieviel Bandbreite Barts hat?

Coda
2010-10-22, 19:33:19
Gipsel meinte ja mal dass es vielleicht auch an der Breite der Anbindung der Texture-Caches auf dem Chip liegen könnte. Dann würde mehr externe Bandbreite auch nichts nützen. Ich halte das auch für plausibel.

Relativ komplex, ja, aber wir reden hier auch nicht von einem Unternehmen mit 5 Erstsemestrigen als Angestellte.
Drücken wir es so aus, der Transistorbedarf ist vergleichsweise lächerlich.
Dafür haben sie aber lange daran rumgepfuscht. Angefangen von R300 der nur die Gradienten und Diagonale berücksichtigte und das auch noch ziemlich ungenau berechnete bis zum komischen R500/R600-Area-AF.

Entweder sie wussten nicht wie es besser geht oder es braucht doch eine relevante Menge an Transistoren. Ich denke eher letzteres.

deekey777
2010-10-22, 19:37:48
http://www.rage3d.com/reviews/video/amd_hd6870_hd6850_launch_review/index.php?p=6

Immerhin scheinen die US-Seiten, zumal Rage3D eher AMD wohlgesonnen ist, auch das Problem zu erkennen.
Den Gag hast du aber ausgelassen. ;(
AMD are aware of the issue and are looking in to it.

Vento
2010-10-22, 19:46:39
Den Gag hast du aber ausgelassen. ;(

Der wirkliche Gag kommt zum Ende des Artikels.:)

"Fundamentally it shows AMD are engaged with the enthusiast community and value their feedback."

Mr. Lolman
2010-10-22, 19:51:27
Der wirkliche Gag kommt zum Ende des Artikels.:)

"Fundamentally it shows AMD are engaged with the enthusiast community and value their feedback."

Najo, ganz falsch ists ja nicht. Die Bandingsache tritt so selten auf, dass der Noob wahrscheinlich nichtmal merkt, dass die HW dran schuld ist.

Dass der Fix davon nun marketingtechnisch ausgeschlachtet wird, ist ne andere Sache. Ein fieser Pfusch ist allerdings, dass Q nun schlechter ist, als das alte Standard-AI (soferns keine Szenen mit Banding gibt). Najo PCGH hat daraus die Konsquenzen gezogen und bencht nun anscheinend bri vs. tri - was ich auch grundsätzlich befürworte - sofern denn die AF-BQ wirklich vergleichbar ist. (auch wenn ich das, u.a. anhand der COD-MW2 Screenshots von guru3d nicht ganz glauben kann)

Gut find ich allerdings, dass endlich(!) die Textufilteroptimierungen von den applikationsspezifischen Optimierungen entkoppelt wurden. Wurde ja auch echt Zeit und war eine unnötige Gängelung der User.

Blaire
2010-10-22, 20:12:41
Gut find ich allerdings, dass endlich(!) die Textufilteroptimierungen von den applikationsspezifischen Optimierungen entkoppelt wurden. Wurde ja auch echt Zeit und war eine unnötige Gängelung der User.

Das müsste erstmal untersucht werden, ich glaube jedenfalls nicht das die sich so einfach von den Optimierungen trennen nach den heutigen Pannen. Schau dir die 2 Videos auf Hardtecs4u an, das ist auf gut Deutsch ein schlechter Witz sowas den Leuten unterzujubeln. Das ist so in keinster Weise mit Nvidia vergleichbar. Ich würde zum Vergleich liebend gern mal eine 7800GTX@HQ zum Vergleich sehn, selbst das dürfte nicht so extrem flimmern.

Fetza
2010-10-22, 20:16:38
Gut find ich allerdings, dass endlich(!) die Textufilteroptimierungen von den applikationsspezifischen Optimierungen entkoppelt wurden. Wurde ja auch echt Zeit und war eine unnötige Gängelung der User.

Und das hilft wobei? Bei garnichts, denn die karte filtert unter aller sau. Ich habe ja extra auf den release von barts gewartet, weil ich jetzt einfach davon ausgehe, das cayman ähnlich schlecht filtern wird. Da bleibt mir also wieder nur eine nv-karte. Mir kann auch niemand erzählen, das ein durchschnittsuser den unterschied nicht sieht. Man muss schon nichts anderes kennen, um die schlechte amd filterung als normal anzusehen.

Mr. Lolman
2010-10-22, 20:20:55
Das müsste erstmal untersucht werden, ich glaube jedenfalls nicht das die sich so einfach von den Optimierungen trennen nach den heutigen Pannen. Schau dir die 2 Videos auf Hardtecs4u an, das ist auf gut Deutsch ein schlechter Witz sowas den Leuten unterzujubeln. Das ist so in keinster Weise mit Nvidia vergleichbar. Ich würde zum Vergleich liebend gern mal eine 7800GTX@HQ zum Vergleich sehn, selbst das dürfte nicht so extrem flimmern.

Die Videos sagen leider nix aus, da die Texturgeschwindigkeit unterschiedlich ist. Probiers einfach selbst mal aus. Je nach Speed wirken Bereiche entweder flimmrig, oder nicht. Achja, ich hab zu den damaligen Q3a gifs (R300 vs NV40) irgendwann mal den RV770 hinzugefügt. Kram ich gern hervor, damit du siehst, wie sich die Erinnerungen verklären...

EDIT: Mal abgesehen davon, dass sich niemand mehr übern G70 beschwert hat, nachdem HQ wieder knapp auf NV40 Niveau angehoben wurde.

Und das hilft wobei? Bei garnichts, denn die karte filtert unter aller sau

HQ ist wohl besser als das bisherige AI, da es kein Banding mehr gibt.

Flatterball77
2010-10-22, 20:25:08
Und das hilft wobei? Bei garnichts, denn die karte filtert unter aller sau. Ich habe ja extra auf den release von barts gewartet, weil ich jetzt einfach davon ausgehe, das cayman ähnlich schlecht filtern wird. Da bleibt mir also wieder nur eine nv-karte. Mir kann auch niemand erzählen, das ein durchschnittsuser den unterschied nicht sieht. Man muss schon nichts anderes kennen, um die schlechte amd filterung als normal anzusehen.

Ja. Aber was hast du erwartet bei den Chipdaten? OK, ich hoffte auch irgendwie das AMD ne Wunderwaffe auf den Asphalt bringt ala G80, aber es wurde (für mich) eine unkaufbare Karte! Danke AMD:P

Achso, Cayman wirds auch nicht besser machen, wartets ab;)

Hauptsache die Balkenlänge in Vantage stimmt bei AMD;D

Heute hab ich bestellt fertig aus die NV Karte bleibt dann im Rechner:wink:

@Lolman

Ich hatte kurzzeitig eine G70 im Rechner die alsbald gegen eine ATI ausgetauscht wurde. (Konnte mich da noch net informieren da kein Internet;(

Eggcake
2010-10-22, 20:32:06
HQ ist wohl besser als das bisherige AI, da es kein Banding mehr gibt.

Laut HT4U gibt's das doch sehr wohl noch?!

mrt
2010-10-22, 20:36:06
Gipsel meinte ja mal dass es vielleicht auch an der Breite der Anbindung der Texture-Caches auf dem Chip liegen könnte. Dann würde mehr externe Bandbreite auch nichts nützen. Ich halte das auch für plausibel.
Genau davon schreibe ich ja, siehe Beitrag #49. Da sind wir uns dann ja alle einig. :)

Dafür haben sie aber lange daran rumgepfuscht. Angefangen von R300 der nur die Gradienten und Diagonale berücksichtigte und das auch noch ziemlich ungenau berechnete bis zum komischen R500/R600-Area-AF.

Entweder sie wussten nicht wie es besser geht oder es braucht doch eine relevante Menge an Transistoren. Ich denke eher letzteres.
Vergiss bitte nicht, dass aktuell in 40nm gefertigt wird und nächstes Jahr beginnt die 28nm Produktion. R300 war noch 150nm, R520 90nm etc. Zudem sollte man nie vergessen, dass es die Hersteller auch als notwendig ansehen müssen, die aktuelle Filterqualität bei AMD zeigt das überdeutlich. Richtig teuer ist ja die nötige Bandbreite für vernünftiges AF.
Edit: Bissl anders formuliert, wenn man eh nicht genug Cachebandbreite zur Verfügung stellen kann, dann macht es auch keinen Sinn Resourcen in die Gradientenberechnung zu stecken. (Spart auch Bandbreite wenn man nicht bei allen Winkeln voll filtert)

Blaire
2010-10-22, 20:51:09
Die Videos sagen leider nix aus, da die Texturgeschwindigkeit unterschiedlich ist. Probiers einfach selbst mal aus. Je nach Speed wirken Bereiche entweder flimmrig, oder nicht. Achja, ich hab zu den damaligen Q3a gifs (R300 vs NV40) irgendwann mal den RV770 hinzugefügt. Kram ich gern hervor, damit du siehst, wie sich die Erinnerungen verklären...

Das ist Unsinn, ich habs vorhin mit NV HQ getestet selbst auf höchster Geschwinigkeit flimmert es kaum mehr. Das kann jeder selber nachprüfen. Jeder Blinde sieht die Flimmerwellen sowohl bei Q als auch HQ@6850. Selbst HighPerformance auf Nvidia flimmert nicht so grässlich.

EDIT: Mal abgesehen davon, dass sich niemand mehr übern G70 beschwert hat, nachdem HQ wieder knapp auf NV40 Niveau angehoben wurde.

Weil die Qualität mit dem G80 auch massiv angehoben wurde und die Ansprüche mit der Zeit auch entsprechend gewachsen sind.

LovesuckZ
2010-10-22, 20:54:37
Es ist tragisch, dass man eine 5 1/2 alte GPU aus dem Grab holen muss, um AMD's inakzeptables Verhalten mit diesem Launch zu rechtfertigen.
Ich habe es miterlebt als nVidia die Standardqualität bei den Geforce FX Karten rapide gesenkt hat. Ich weiß also, wie scheiße sowas ist.
Aber seit dem G80 haben sie nichts mehr gemacht. Sie bieten seitdem mit HQ einem Modus an, den AMD mit der Migration auf DX10+ über Board geworfen haben.

Wer also im Jahr 2006 einen Filtercheatartikel über nVidia geschrieben hat, der sollte sich gleichmal ransetzen, um einen Geizhals.at/deutschland verlinkbaren Artikel schreiben.

boxleitnerb
2010-10-22, 20:54:55
Ich habs grad mal einer Freundin gezeigt. Die sieht NULL Unterschied selbst zwischen ALU- und TMU-Rendering. Die Masse sieht nichts und interessiert sich nicht dafür. Aber das ist nun eigentlich nichts Neues.

Edit:
Was spricht eigentlich dagegen, bei Nvidia Q zu streichen und HQ zur einzigen Einstellung zu machen? Kostet nix und sieht besser aus und die ewige Diskussion, was vergleichbar wäre, wäre gegessen.

sulak
2010-10-22, 21:04:58
nV HQ Texture Filtering brauch je nach Spiel schon Leistung, aber warum sollte man HQ zum Standard machen wenn man dadurch einen Leistungsnachteil in Benchmarks hat. Die Marketing Abteilung kann sowas nicht verkaufen, eher wird bei nV vieleicht noch eine 2. Optimierung aktiviert werden wenn man sieht, das AMD die Qualität im Treiberdefault reduziert.

Raff
2010-10-22, 21:05:48
Ich habs grad mal einer Freundin gezeigt. Die sieht NULL Unterschied selbst zwischen ALU- und TMU-Rendering.

Glaube ich nicht. Sie sieht garantiert etwas – die Frage ist nur, ob die das stört, was sie sieht. Und falls sie wirklich nichts sieht, dann solltest du sie mal zum Optiker/Augenarzt begleiten. Ist wirklich nicht böse gemeint :), aber die Unterschiede sind definitiv sichtbar. Objektiv, es sieht eben "anders" aus. Es stellt sich nur stets die Frage, ob einen das Flimmern, Moiré oder gar Banding beim Spielen stört.

MfG,
Raff

Aquaschaf
2010-10-22, 21:08:00
Bleibt noch die Hoffnung dass es wenigstens bei Cayman besser aussieht..

Raff
2010-10-22, 21:09:07
Bleibt noch die Hoffnung dass es wenigstens bei Cayman besser aussieht..

Unverbesserliche Optimisten. ;D

Meckert (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069) fleißig weiter, dann steigen die Chancen. =)

MfG,
Raff

LovesuckZ
2010-10-22, 21:11:18
hey Raff,
kannst du Aussagen zu Cypress und der neuen Standardeinstellung machen? Immerhin behandelte AMD Crysis ja gesondert bzgl. der Filterung.

Langenscheiss
2010-10-22, 21:11:39
Ich finds geil, wie sich jetzt auf einmal mehr und mehr Seiten auf TrackMania stürzen. Das ist schon ne ganze Weile her, dass ich Bilder aus dem Spiel gepostet habe. Ich hätte es viel früher machen können, aber ich dachte erst an einen Treiberfehler.
Das mag jetzt etwas arrogant klingen, aber ich glaube, dass wir hier es schon geschafft haben, ein paar Tester wachzurütteln. AnandTech hat sich sogar für die Lobpreisungen der HD5K entschuldigt! (und mal eben einen shot aus meinem Thread da ins Review gepackt)
Die meisten sind übrigens immer noch davon überzeugt, dass es sich um Mip-Banding handelt. Insofern sind wir (und PCGH) hier den anderen voraus. Ich denke, dass AMD wohl schon früh davon wusste, aber man merkt bei manchen Tests schon, dass hier (und anderswo) vor einer Zeit ein Diskussion darüber begonnen hat.

Vento
2010-10-22, 21:12:00
Edit:
Was spricht eigentlich dagegen, bei Nvidia Q zu streichen und HQ zur einzigen Einstellung zu machen? Kostet nix und sieht besser aus und die ewige Diskussion, was vergleichbar wäre, wäre gegessen.

Würde an der Problematik der Vergleichbarkeit nichts ändern, zumal es qualitativ kein Pendant zu NV's HQ gibt bei AMD.
An Nvidia's Stelle würde ich jetzt hingehen und den Standard "Qualität" so weit es eben geht dem AMD Standard anpassen.
Die aktuellen Karten liegen teilweise so dicht beieinander, dass man sich bei AMD mit leistungsoptimierten AF Modi einen kaufentscheidenden Vorteil erschummelt.
Die Masse der Käufer schaut nach den Benchmarks und trifft auf Basis dieser die Kaufentscheidung, die Artikel über AF Qualität liest doch kaum jemand, da wird instant zu den Benchmarks geswitcht, maximal schaut man sich noch Lautstärke, Stromverbrauch und das Fazit an.

Da die überwiegende Mehrheit der Review Seiten die Filtertricks bei AMD indirekt belohnt und die Mehrheit der Käufer nur die Balkenlänge interessiert würde ich bei Nvidia jetzt daran arbeiten einen maximal vergleichbaren Modus als Standard zu implementieren, HQ natürlich erhalten.

boxleitnerb
2010-10-22, 21:12:15
nV HQ Texture Filtering brauch je nach Spiel schon Leistung, aber warum sollte man HQ zum Standard machen wenn man dadurch einen Leistungsnachteil in Benchmarks hat. Die Marketing Abteilung kann sowas nicht verkaufen, eher wird bei nV vieleicht noch eine 2. Optimierung aktiviert werden wenn man sieht, das AMD die Qualität im Treiberdefault reduziert.

Ja ich meine, dann muss man nicht immer diskutieren, welche Modi man nun gegenüberstellen muss. Zumindest auf NV-Seite. Schreibt halt zum Benchmark "AMD-AF miserabel!" und lässt das den Leser schlucken. Und zwar nicht irgendwohin, sondern unter jedes verdammte Balkenbild. JEDES.

Ich würde es Nvidia hoch anrechnen, die High Road zu nehmen, Q zu streichen und AMD "da unten" einfach ihr ärmliches Ding machen zu lassen. NV ist Enthusiastenfirma - es ist unter ihrer Würde, sich wegen so einem Mist rumzustreiten. Man weiß selbst, welche Qualität man liefert, das sollte reichen.

Bei den Skalierungstests von CB ist exakt Null Unterschied in der Performance zwischen Q und HQ. Wenn man das bedenkt, muss man sich fragen, ob NV überhaupt soviel Performance gewinnen kann bei einer merklichen Verschlechterung der Qualität. Bringts das? Das gibt erstmal negative Publicity.

@Raff: Nein, ich hab ihr sogar genau markiert, wohin sie schauen soll - sie sieht es nicht.

Aquaschaf
2010-10-22, 21:15:17
Unverbesserliche Optimisten. ;D

Ich will einfach eine Karte mit der AMD-Architektur im Rechner haben um zu sehen wie gut die sich in OpenCL schlägt, ich will aber nicht für Spiele die Grafikkarte wechseln müssen wenn ich vernünftige Filterung brauche. Solange die das nicht hinkriegen existiert die Grafikkarte die ich mir kaufen will leider nicht :D

Azubi
2010-10-22, 21:23:14
@Raff: Nein, ich hab ihr sogar genau markiert, wohin sie schauen soll - sie sieht es nicht.

Mach dir nichts draus - meine Freundin sieht auch keine Parklücken in der City die nicht mindestens 10m lang ist. :freak:

Aber ich gebe mal zu, ich muß oft mehrmals auf eure Pics schauen (auch wenn die Stellen schon umkreist sind) und sehe dann doch nichts. Aber flimmern nehme ich scheinbar etwas sensibler auf. Da meckere ich oft schon wo andere nichts zu bemängeln haben.

Irgendwo sah ich heute hier ein Bild wo nur weiße und schwarze Quadrate kreisförmig um ein Zentrum aufgebaut waren. Da war links (keine Ahnung mehr was) und rechts die HD6850 gezeigt. Für mich war das rechte (HD6850) sofort unangenehm weil das stehende Bild auf mich wirkte als flimmere es mehr als das linke.

edit
Das ist es. Würde ich gefragt werden welches besser für mich ertragbar ist würde ich ohne lange zu zögern "Das Linke" schreien. Erst Recht wenn ich beim Betrachten den Kopf bewege. Eigenartig - aber ist so.
http://www5.pic-upload.de/22.10.10/cp74ab9ks3n.jpg (http://www.pic-upload.de/view-7486322/Vergleich.jpg.html)

airbag
2010-10-22, 21:38:11
@Azubi

Auf dem linken Bild ist ganz klar Banding zu erkennen. Hab jemanden auch mal diese Bild gezeigt und sogar die klaren Abgrenzungn rot markiert und derjenige hat es nicht gesehen. flimmern auf einem Standbild dürfte eh nicht so sehen sein.

boxleitnerb
2010-10-22, 21:38:29
@Azubi: Also nichts für ungut, aber DAS ist jetzt schon "etwas" weit hergeholt :)

@airbag: Zum Verzweifeln, oder? Wie man das nicht sehen kann...wie kann man da überhaupt die Kleider im Schrank finden, die man morgens anzieht???

Azubi
2010-10-22, 21:42:48
@Azubi

Auf dem linken Bild ist ganz klar Banding zu erkennen. Hab jemanden auch mal diese Bild gezeigt und sogar die klaren Abgrenzungn rot markiert und derjenige hat es nicht gesehen. flimmern auf einem Standbild dürfte eh nicht so sehen sein.

Ich erkenne da auch 4 große Bandingbereiche. Aber es wirkt auf mich dennoch angenehmer als das Rechte.

edt
ähm, banding bedeutet doch unterschiedliche Helligkeitsstreifen. Oder? Bevor ich mich hier zum absoluten Deppen oute. :-)

Spasstiger
2010-10-22, 21:48:27
Nutzt NVs AF eigentlich generell einen leicht positiven LOD-Bias? Es fällt ja schon auf, dass die Radeons einen Tick mehr Tiefenschärfe beim AF haben, was aber mit Flimmern erkauft wird. Beim AMDs neuem HQ-AF sollte das LOD-Bias ja genau auf 0 stehen. Und angeblich lässt das Radeon-AF auch keine Samples aus, sprich reduziert nicht künstlich die Füllratenanforderungen.

Coda
2010-10-22, 21:51:50
Nutzt NVs AF eigentlich generell einen leicht positiven LOD-Bias?
Nö. Ist mir nichts aufgefallen. Die zusätzliche "Schärfe" bei AMD dürfte einfach durch die Unterfilterung erzeugt werden. Gibt halt hochfrequenteren Output.

Und angeblich lässt das Radeon-AF auch keine Samples aus, sprich reduziert nicht künstlich die Füllratenanforderungen.
Das tut es mit absoluter Sicherheit. Sonst würde es sauber aussehen. Ich habe schon erläutert, warum das keinen anderen Grund haben kann.

Scheiß egal was die Gradientenlogik ausspuckt, man kann das Resultat mit der einfachen Formel immer sauber filtern (sprich NV HQ Niveau).

boxleitnerb
2010-10-22, 21:52:21
Und angeblich lässt das Radeon-AF auch keine Samples aus, sprich reduziert nicht künstlich die Füllratenanforderungen.

Warum verliert man dann aber beim Schritt auf HQ bis zu 10%?

Spasstiger
2010-10-22, 21:54:29
Ich rede jetzt nur von HQ bzw. dem alten Treiberstandard. Bei Q wird möglicherweise schon gespart und das Flimmern durch positives LOD-Bias in Grenzen gehalten.

Coda
2010-10-22, 21:55:05
Ich auch. AMD spart auch mit A.I. off eindeutig und sichtbar.

airbag
2010-10-22, 21:56:17
Nutzt NVs AF eigentlich generell einen leicht positiven LOD-Bias? Es fällt ja schon auf, dass die Radeons einen Tick mehr Tiefenschärfe beim AF haben, was aber mit Flimmern erkauft wird.
Dürfte an Negativer LOD Bias auf Clamp liegen, mit dem die meisten testen .

edit:
Und angeblich lässt das Radeon-AF auch keine Samples aus, sprich reduziert nicht künstlich die Füllratenanforderungen.

--------------------------------------------------------------------------------


Beziehst du dich auf die Texelanalyse von Demirugs AF-Tester ? Wenn ja scheint er relat viele Optimierungen zu deaktivieren`, wenn ich mich richtig errinne.

Coda
2010-10-22, 21:59:01
99% aller Spiele verwenden kein negatives LOD, also nein.

airbag
2010-10-22, 22:01:42
Dachte das es schon etwas mehr wären? Vor allem ein paar mit Unreal Engine sollen es ja verwenden.

Coda
2010-10-22, 22:49:50
Wäre mir neu. Im Allgemeinen lässt sich das Phänomen jedenfalls so nicht erklären.

boxleitnerb
2010-10-23, 09:41:16
Mal eine hypothetische Frage:

Meint ihr, NV könnte auch so ca. 10% sparen, wenn sie die Qualität des Standardmodus auf AMD-Niveau absenken? Woran liegt es, dass Nvidia beim Schritt auf HQ praktisch nichts verliert?

PulsarS
2010-10-23, 12:01:37
Glaube ich nicht. Sie sieht garantiert etwas – die Frage ist nur, ob die das stört, was sie sieht. Und falls sie wirklich nichts sieht, dann solltest du sie mal zum Optiker/Augenarzt begleiten. Ist wirklich nicht böse gemeint :), aber die Unterschiede sind definitiv sichtbar. Objektiv, es sieht eben "anders" aus. Es stellt sich nur stets die Frage, ob einen das Flimmern, Moiré oder gar Banding beim Spielen stört.

MfG,
Raff
Raff,

das hat mit Optiker nichts zu tun!
Es hängt einfach von der Wahrnehmungsfähigkeit ab, wie stark man das Flimmern "sieht" oder ob man es überhaupt sieht.

@boxleitnerb
mach Dir nichts draus, meine Frau sieht auch keine Unterschiede.
Das finde ich jedoch "normal", da sie kaum spielt.
Viel schlimmer finde ich, dass den Unterschied zwischen AMD und NV selbst gestandene Spieler nicht wahrnehmen.
Ich "betreue" einige Gamer-PCs bei Freunden und Bekannten und musste leider feststellen, dass die meisten sich überhaupt nicht um BQ kümmern.

Ein paar Leuten habe ich versucht das Flimmern (wobei ich eher den Ausdruck Grieseln bevorzuge) bei ATI zu zeigen, mit sehr wenig Erfolg.
Für den 08/15-Gamer scheint die AF-Qualität also kein Verkaufsargument zu sein.
Das wird wohl auch ein Punkt sein, warum AMD da nichts macht.
Dann müssen halt die Leute, die wirklich Probleme mit dem AF von AMD haben, einfach Nvidia kaufen.
Der Anteil am gesamten Markt dürfte aber verschwindend gering sein.
Wenn ich sehe, dass das Banding erst nach einem Jahr "entdeckt" wurde, stärkt das nur meine Vermutung, dass die meisten mit einer AMD-Karte einfach mit der gebotenen BQ zufrieden sind.
Ich bin ja schon kritisch was BQ angeht, nehme das gelegentliche Grieseln beim Zocken aber kaum wahr. :freak:

AnarchX
2010-10-23, 13:50:28
Btw some people at AMD strongly disagreed with this move.
http://forum.beyond3d.com/showpost.php?p=1485945&postcount=38

(del)
2010-10-23, 13:54:08
Meint ihr, NV könnte auch so ca. 10% sparen, wenn sie die Qualität des Standardmodus auf AMD-Niveau absenken?10%? :|

Spasstiger
2010-10-23, 13:55:49
Wenn das intern schon Streitthema war, kann man AMD mit genügend negativer Presse vielleicht auch dazu bewegen, High Quality zum Treiberstandard zu machen. Wenn man schon nicht die beste max. Qualität hat, kann man wenigstens die beste Standardqualität offerieren.

Palpatin
2010-10-23, 13:58:52
Mal eine hypothetische Frage:

Meint ihr, NV könnte auch so ca. 10% sparen, wenn sie die Qualität des Standardmodus auf AMD-Niveau absenken? Woran liegt es, dass Nvidia beim Schritt auf HQ praktisch nichts verliert?
NV sparrt ja irgendwo schon gewaltig da der Rückstand der 460 ohne AA und AF deutlich höher ist als mit, wie sie das allerdings hinbekommen und trozdem die bessere BQ liefern ist wohl ihr großes Geheimnis.

Raff
2010-10-23, 14:00:48
Wenn das intern schon Streitthema war, kann man AMD mit genügend negativer Presse vielleicht auch dazu bewegen, High Quality zum Treiberstandard zu machen. Wenn man schon nicht die beste max. Qualität hat, kann man wenigstens die beste Standardqualität offerieren.

Streitthema war AFAIK, überhaupt eine Wahl ins CCC einzubauen. Und Radeon-HQ ist mitnichten besser als Geforce-Q. In den meisten Zweifelsfällen (evil content) flimmert eine Geforce weniger.

MfG,
Raff

Spasstiger
2010-10-23, 14:03:41
Streitthema war AFAIK, überhaupt eine Wahl ins CCC einzubauen. Und Radeon-HQ ist mitnichten besser als Geforce-Q. In den meisten Zweifelsfällen (evil content) flimmert eine Geforce weniger.

MfG,
Raff
NV "Q" = bri-AF, AMD "HQ" = tri-AF.
Man sieht bei NVs "Q" die Bugwellen.
Ich finds auch lustig, bis zu HD5K-Generation wurden die Treiberstandards bei ATI und NV als vergleichbar eingestuft und jetzt ist angeblich sogar ein höherwertigerer Modus als der alte Treiberstandard schlechter als NVs gleichgebliebener Treiberstandard.

Raff
2010-10-23, 14:04:40
Das ist 'ne schöne Theorie, die mich an das lustige "Ati filtert immer trilinear" einiger HD-5000-Reviews erinnert. ;)

Meine Praxieindrücke sehen bislang so aus: Es ist einfacher, bei AMD Flimmern zu sehen als bei Nvidia Banding.

Ich finds auch lustig, bis zu HD5K-Generation wurden die Treiberstandards bei ATI und NV als vergleichbar eingestuft und jetzt ist angeblich sogar ein höherwertigerer Modus als der alte Treiberstandard schlechter als NVs gleichgebliebener Treiberstandard.

Vergleichbar waren die beiden auf jeden Fall, in 99 Prozent der Fälle. Aber eben nicht in allen. ;)

MfG,
Raff

boxleitnerb
2010-10-23, 14:05:21
10%? :|
Ok, sorry. Bis zu 10%. Im Schnitt der Games bei HT4U verliert die 6870 ca. 4%.

Palpatin
2010-10-23, 14:09:23
Bei AMD kann man es ja aus Performance-Sicht zummindest nachvollziehen warum sie Q als Default drinnen haben, bei NV nicht.
Wenn ich bei meinen Kumpels schau haben 9 von 10 NV User AF auf Q stehen und ca 5 von 10 nutzen es nur wenn es ingame einzustellen ist. Da es nur 1-3% Leistung kostet ist es schon sehr schade das man es 90% der User verwehrt...........

deekey777
2010-10-23, 14:09:28
Streitthema war AFAIK, überhaupt eine Wahl ins CCC einzubauen. Und Radeon-HQ ist mitnichten besser als Geforce-Q. In den meisten Zweifelsfällen (evil content) flimmert eine Geforce weniger.

MfG,
Raff
Wobei mir mit meiner HD4850 mehr als überdeutlich aufgefallen ist, dass HQ in HL2 so richtig Scheiße baut. Irgendwie habe ich das Gefühl, dass man wegen dieser Unzulänglichkeiten keine eindeutige Aussage treffen kann, aber im Zweifel gegen AMD.

(del)
2010-10-23, 14:12:26
@boxleitnerb
Meine ich mal :freak:

Und schätze, für 4% mehr FPS und 30% schlechtere Publicity bewegen die NV-Programmierer nicht einen Finger.

Spasstiger
2010-10-23, 14:16:50
Das ist 'ne schöne Theorie, die mich an das lustige "Ati filtert immer trilinear" einiger HD-5000-Reviews erinnert. ;)
Hast du Hinweise darauf, dass HQ nicht durchweg tri-AF ist? Solange das nicht bewiesen ist, würde ich davon ausgehen, dass AMD unter HQ auch nur tri-AF offeriert.

Vergleichen wir mal die AF-Eigenschaften von AMD und NV:

NV "HQ" (ab GeForce 8800):
- Flimmerneigung minimal (vergleichbar mit Referenzimplementierung)
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

NV "Q" (ab GeForce 8800) = Treiberstandard:
- Flimmerneigung gering
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- bri-AF, kein Banding, Bugwellen
- LOD-Bias 0

AMD "HQ" (ab Radeon HD6K):
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

AMD "Q" (ab Radeon HD6K) = Treiberstandard:
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- bri-AF?
- LOD-Bias positiv (d.h. effektiv geringerer AF-Grad als angegeben)

LovesuckZ
2010-10-23, 14:17:32
http://forum.beyond3d.com/showpost.php?p=1485945&postcount=38

Warum nicht das Zitat:
I'm not very happy with the way AMD presented this new feature to the press. Imho they've been intentionally misleading so that the press thought Barts default quality setting was the same as previously + the quality fix.

Alles für den Erfolg.
Aber AMD respektive ATi hat ja Erfahrung mit dem Belügen der Presse bzgl. ihrer Filterqualität.

(del)
2010-10-23, 14:26:09
Aber AMD respektive ATi hat ja Erfahrung mit dem Belügen der Presse bzgl. ihrer Filterqualität.Mit dem Belügen der Presse haben die meisten Hersteller Erfahrung. Das gilt nicht nur für NV.

Blaire
2010-10-23, 22:46:02
Streitthema war AFAIK, überhaupt eine Wahl ins CCC einzubauen. Und Radeon-HQ ist mitnichten besser als Geforce-Q. In den meisten Zweifelsfällen (evil content) flimmert eine Geforce weniger.


Nichtmal ansatzweise gleichwertig! @Raff ein Blick auf die HL2 Schienenszene sollte dafür schon reichen, was mehr oder weniger flimmert die Textur ist ziemlich böse. Die Vergleichsvideos aus dem Filtertester lügen nicht das ist Flimmern extrem, da gibt es überhaupt nichts schönzureden, offensichtlicher geht es nicht.

Mr. Lolman
2010-10-23, 23:02:26
Ich werf nur nochmal die Screenshots von guru3d als Diskussionsthema ein. Obwohl ATi-Q ein positives LOD und bri mitsich bringt, sieht man bei den COD-MW2 Screenshots an diversen Stellen deutlich mehr Details als bei NV.

Möglichst geringe Flimmerneigung ist nicht das einzige Kriterium für gutes AF. (andernfalls ist jedem freigestellt, das LOD nochmehr ins Positive zu ziehen) Imho sieht man hier nämlich genau das, was Dave Baumann als 'High Precision LOD' bezeichnet.

LovesuckZ
2010-10-23, 23:09:20
Da heutzutage kaum noch Myth-ähnliche Spiele erscheinen, ist niedige Flimmerneigung ein sehr wichtiges Kriterium, wenn es um die Beurteilung der ansiotropen Filterung geht.
Minimal mehr Details auf Screenshot rechtfertigt kein deutlicheres Flimmern in Bewegung, wodurch die Detailmehrheit sowieso untergeht.

Mr. Lolman
2010-10-23, 23:18:46
Bei NV wirkt das stw. wie ein niedriger AF-Grad. An der Waffe, bei der Stelle wo der Daumen endet, sieht mans auch überdeutlich. Und flimmern tuts ja auch nicht immer und überall. sondern nur bei relativ hochfrequenten Texturen.

/EDIT: Eigentlich ist der Unterschied dermaßen eklatant, dass es entweder, ein applikations/treiberspezifisches Problem ist, oder Guru3D irgendwas beim Einstellen der AF-Grads verbockt hat.

Blaire
2010-10-23, 23:26:18
Ich werf nur nochmal die Screenshots von guru3d als Diskussionsthema ein. Obwohl ATi-Q ein positives LOD und bri mitsich bringt, sieht man bei den COD-MW2 Screenshots an diversen Stellen deutlich mehr Details als bei NV.

Möglichst geringe Flimmerneigung ist nicht das einzige Kriterium für gutes AF. (andernfalls ist jedem freigestellt, das LOD nochmehr ins Positive zu ziehen) Imho sieht man hier nämlich genau das, was Dave Baumann als 'High Precision LOD' bezeichnet.

Ja genau immer schön Ablenkungsmanöver starten, so ist Recht. :biggrin: 1.) Sind die Guru3D Screenshots nicht 1:1 Blickwinkelgenau 2.) sollte es dir doch zu denken geben, das bei Ati anscheinend TRAA aktiviert wurde, bei Nvidia nicht. Wer weiss was der da verglichen hat... Empfehle ich dir mal einen Blick auf die Computerbase Review Trackmania Screenshots zu werfen wo einem ganz klar 2 sehr grobe Moirewellen ins Auge springen@HQ, die so bei NV Quality deutlich softer sind und kaum stören. Wer das nicht sehen will, der sollte mal seine Augen kontrollieren lassen.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update-2/6/#abschnitt_afeindruecke

/EDIT: Eigentlich ist der Unterschied dermaßen eklatant, dass es entweder, ein applikations/treiberspezifisches Problem ist, oder Guru3D irgendwas beim Einstellen der AF-Grads verbockt hat.

Hast du erst nachträglich reineditiert, dann hät ich meinen Text etwas anders verfasst. So siehts immer so aus, als würdest etwas verteidigen was eigentlich offensichtlich ist. Auf jeden Fall darf sowas nicht durchgehn, die sollen das AF endlich mal vernünftig implementieren und die Meckerei hört dann endlich mal auf mehr verlangt doch niemand.

Mr. Lolman
2010-10-23, 23:56:08
Schau dir mal die Trackmaniascreenshots genau an. Hinten sieht mans wieder. (Beim Nadeo Logo, die Dachreling, der "Zaun" unter der Bandenwerbung. Das alles bekommt man mit positivem LOD auch hin. (oder niedirgerem Mipmapdetail). Wenn ich die Computerbaseszene nachstellen könnte, würd ich da gern ein paar Tests anstellen.

Außerdem schaut auch (womöglich aufgrund des anscheinend positiveren LOD, bei ATI Q, dieses auch auf den Screenshots weniger flimmrig aus, als HQ)

airbag
2010-10-24, 00:02:21
Die solltest du problemlos nachstellen können, weil es die exakt gleiche Stelle ist, wie die von Langenscheiss. Musst einfach nur mal in Raffs Thread suchen.

Mr. Lolman
2010-10-24, 00:04:37
Sind ja nur ~1600 Posts. :ulol:


Wenn mir jemand die Settings nennen kann, oder einen Link dazu postet, kann ich morgen gerne ein paar Tests anstellen (halt mit HD5800 und Banding ;()

Blaire
2010-10-24, 00:11:08
Schau dir mal die Trackmaniascreenshots genau an. Hinten sieht mans wieder. (Beim Nadeo Logo, die Dachreling, der "Zaun" unter der Bandenwerbung. Das alles bekommt man mit positivem LOD auch hin. (oder niedirgerem Mipmapdetail). Wenn ich die Computerbaseszene nachstellen könnte, würd ich da gern ein paar Tests anstellen.

Dumm das dann die Unschärfe zunimmt, das ist also keine Lösung. Das Bild auf Nvidia ist auch nicht unschärfer. Außerdem sollte man bitte beim Thema bleiben und nicht immer nach irgendwelchen Ausflüchten suchen.

airbag
2010-10-24, 00:17:01
@Mr.Lolman

Gefunden. Bitte :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8293621&postcount=1344

edit:
Mhh sind doch nicht die Gleichen. Sollte aber auch verwendbar sein.

Mr. Lolman
2010-10-24, 00:26:37
Das Bild auf Nvidia ist auch nicht unschärfer.

Bei den Texturen eben stellenweise schon. Und je nach Kombination von Textur-LOD und Mipmapdetailsettings kann man das wohl auch mehr oder weniger gut nachstellen, da ja durch die Textur-LOD Verschiebung per se nicht das ganze Bild homogen unschärfer wird, sondern die Mipmapübergänge verschoben werden. Sieht man ja auch bei den ATi Q/HQ Screenshots. Q wirkt am Screenshot optisch besser obwohls lt. CB flimmriger ist. HQ + minimal positives LOD (oder Mipmapdetail @ Q) könnte da imo schon was bewirken.

Wobei man das LOD imo wohl schon stark verschieben müsste um die Struktur auf der Dachreling zu entfernen.

. Außerdem sollte man bitte beim Thema bleiben und nicht immer nach irgendwelchen Ausflüchten suchen.

Hm? Wir sind doch beim Thema: AF-Qualität. Und dazu gehört eben auch das LOD (=Level of Detail => welches je nach Situation bei NV augenscheinlich etwas geringer ist)

@Mr.Lolman

Gefunden. Bitte :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8293621&postcount=1344

Thx.

Blaire
2010-10-24, 00:33:14
Ich kann keine großen Schärfe-Unterschiede erkennen, außer das die Ati Shots in der Ferne stark ausfransen. Ansonsten ist die Detailschärfe absolut gleichwertig. Aber darum geht es auch nicht, es ist offensichtlich das die Moirewellen wie ich sie mal nennen will, genau das wiederspiegeln was auch im Texturfiltertest zu sehen ist.

Leonidas
2010-10-24, 06:53:43
Hast du Hinweise darauf, dass HQ nicht durchweg tri-AF ist? Solange das nicht bewiesen ist, würde ich davon ausgehen, dass AMD unter HQ auch nur tri-AF offeriert.

Vergleichen wir mal die AF-Eigenschaften von AMD und NV:

NV "HQ" (ab GeForce 8800):
- Flimmerneigung minimal (vergleichbar mit Referenzimplementierung)
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

NV "Q" (ab GeForce 8800) = Treiberstandard:
- Flimmerneigung gering
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- bri-AF, kein Banding, Bugwellen
- LOD-Bias 0

AMD "HQ" (ab Radeon HD6K):
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

AMD "Q" (ab Radeon HD6K) = Treiberstandard:
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- bri-AF?
- LOD-Bias positiv (d.h. effektiv geringerer AF-Grad als angegeben)



Ich würde gern das Posting als Ausgangsbasis zu einem Artikel über die Problematik verwenden. Dazu zwei Fragen:

1. Wie würde man die 5000er Serie innerhalb dieser einzelnen Punkte einschätzen?
2. Gibt es hierzu Korrekturen oder gänzlich andere Meinungen oder kann man dies als Faktenbasis nehmen?

boxleitnerb
2010-10-24, 07:21:42
Bei den Vergleichsvideos beim Blindtest von pest gab es bei Nvidia-Q soweit ich weiß auch leichtes Banding, kann das sein?

Die Aufstellung sollte man unbedingt nochmal gegenchecken.

AnarchX
2010-10-24, 07:56:25
Da sind doch die genannten Bugwellen bei NV-Q, eben der Bereich mit dem bilinearen Filter.
Das Banding war das Problem mit abrupten Übergangen der AF-Stufen, was bei HD 5000 auch unter trilinearer Filterung auftrat.

horn 12
2010-10-24, 08:24:45
Nun, sehe es so:
Falls Cayman standardmässig auf HQ AF (bereits im Treiber) setzt
4D Shader hat
Cayman PRO bereits die Performance HD5850+20% erreicht
und schlussendlich um die 290-320 Euro zu haben ist,
ERST dann hat AMD noch eine Chance bei mir.

Cayman XT wird wohl über 400 Euro liegen,
DUAL Karte knappe 550 Euro.

Wann sollte genau die Vorstellung der Cayman Karten stattfinden, Ende November, aber den Tag weiss man noch nicht ?:frown:

=Floi=
2010-10-24, 09:27:58
400€ sind egal, wenn es ein paar ECHTE verbesserungen gibt.
lass das AF endlich perfekt sein und SGSSAA und TMAA überall freieinstellbar sein und die größten kritikpunkte sind weg. ATI hat leider auch den hang zur implementierung von matsch aa modi und keine neuen qualitativ hochwertigen aa modi.

anzumerken wäre noch ein bessere treibersupport für neue games. (blockbuster!)

boxleitnerb
2010-10-24, 09:30:18
Ich glaube nicht ernsthaft, dass sich bei AMD beim AF was in den nächsten 5 Jahren ändert. Dazu eiern die zu lange auf dem derzeitigen Niveau rum und interessieren sich scheinbar nicht für echte Verbesserung. Nur wenn etwas offensichtlich richtig kaputt ist (Mipmapübergänge), wird Hand angelegt.

Was mal von Nöten wäre:
Ein Bildqualitätswettrüsten. Dummerweise legt die Masse der Kunden keinen Wert darauf.

Raff
2010-10-24, 10:20:30
AMD "Q" (ab Radeon HD6K) = Treiberstandard:
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- bri-AF?
- LOD-Bias positiv (d.h. effektiv geringerer AF-Grad als angegeben)

LOD-Bias positiv? Woher kommt diese Info? :) Und es flimmert trotzden extrem ... da muss also eine Menge Qualität (= Samples) fehlen.

MfG,
Raff

puntarenas
2010-10-24, 10:27:15
LOD-Bias positiv? Woher kommt diese Info? :)
Du abonnierst die falschen Threads (Achtung: HD5850):
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8344890#post8344890

:)

fondness
2010-10-24, 12:53:43
LOD-Bias positiv? Woher kommt diese Info? :) Und es flimmert trotzden extrem ... da muss also eine Menge Qualität (= Samples) fehlen.

MfG,
Raff

Woher weiß man eigentlich das sich NV die geringe Flimmerneigung nicht mit positivem LoD erkauft? Es fällt ja auf Screens oft auf dass das Bild bei NV unschärfer wirkt.

Das würde nicht nur zu den Aussagen von Dave Baumann mit dem "high precision LoD", sondern auch zu den oberen Screens passen, wo man ja deutlich sieht das AMD offensichtlich "weiter zurück" eine höhere AF Stufe appliziert.

fondness
2010-10-24, 12:58:07
Streitthema war AFAIK, überhaupt eine Wahl ins CCC einzubauen. Und Radeon-HQ ist mitnichten besser als Geforce-Q. In den meisten Zweifelsfällen (evil content) flimmert eine Geforce weniger.

MfG,
Raff

Es gibt auch anderen Kriterien als Flimmern, auch wenn du offensichtlich nur noch darauf schielst. Man sollte hier schon auch die Arbeit berücksichtigten. Wenn AMD bei HQ tri filtert ist der Vergleich mit NV-Q, die ein deutlich sichtbares bi-Band vor sich her zieht mehr als unfair. bi spart ggü. tri satte 50% Füllrate, das holst du mit einer "Sampleoptimierung" niemals raus.

Dr. Cox
2010-10-24, 13:03:35
Was mal von Nöten wäre:
Ein Bildqualitätswettrüsten. Dummerweise legt die Masse der Kunden keinen Wert darauf.

Nvidia ist daran irgendwie mit schuld. Nvidia müsste mit ihrer deutlich besseren Bildqualität genauso hausieren gehen wie mit PhysX, dann würde sich etwas ändern. Wenn Nvidia die eigene Bildqualität so extrem anpreist, dann könnten die bekannten Hardwareredaktionen einen direkten Bildvergleich anstellen, indem die Cheaterei von AMD entblößt werden würde, so dass es selbst der letzte ATI-DAU versteht ;)


Wobei ich mir nicht wirklich sicher bin, ob solche krass verblendeten und von ihrer Meinung über AMD eingenommenen Leute tatsächlich zu überzeugen sind:

http://www.computerbase.de/forum/showpost.php?p=8682577&postcount=396

Was dieser "gruffi" vom Stapel lässt ist lustig und traurig zu gleich. Zuerst bin ich vor Lachen fast vom Stuhl gefallen, dann allerdings registrierte ich, dass er den Müll den er da von sich gibt wirklich ernst meint :freak:

Du solltest nicht so viele Märchen erfinden und Sachen behaupten, die AMD nie gesagt hat oder die schlichtweg nicht stimmen.

Auf den Folien zur HD 6800 Serie steht:

More performance per mm² and per Watt - ja
Faster tessellation and geometry throughput - ja
New and improved image quality features - ja
Enhanced multimedia accelleration - ja
HDMI 1.4a, DisplayPort 1.2 - ja
Better performance than the ATI Radeon HD 5850 - ja

Darüber hinaus:

Verfügbarkeit - ja

Allein schon die AMD-Folie, sie hat ja auch so recht, wie alle Tests zeigen ;D

Wenn AMD uns sagt ihre Grafikqualität ist die beste, dann stimmt das natürlich auch. Auch Dave Baumann hat als objektiver und neutraler Sprecher natürlich recht und alle Hardware-Seiten lügen :freak:

Wie verblendet/vernebelt kann man eigentlich sein? Schaut euch den Post von "gruffi" an und ihr wisst es...

@boxleitnerb: Großes Lob an dich, dass du es so lange durchgehalten hast auf sachlicher Ebene eine Diskussion mit "gruffi" führen zu wollen ;)

boxleitnerb
2010-10-24, 13:17:09
Danke...man muss wohl ein bisschen Masochist sein, um gegen 10 gleichzeitig zu argumentieren :)

Aber fairerweise muss ich noch was sagen:
Ich hätte gerne einen Beleg für die Aussage im PCGH-Review, dass AMD bei Q aggressiver filtert als bei AI-Standard. Das glaubt nämlich sonst keiner da drüben :)
Dave Baumann sagt "different", aber was da am Ende bei rauskommt, steht wieder auf einem anderen Blatt bzw. muss noch weiter von PCGH und Langenscheiss untersucht werden.

deekey777
2010-10-24, 13:18:44
Ich würde gern das Posting als Ausgangsbasis zu einem Artikel über die Problematik verwenden. Dazu zwei Fragen:

1. Wie würde man die 5000er Serie innerhalb dieser einzelnen Punkte einschätzen?
2. Gibt es hierzu Korrekturen oder gänzlich andere Meinungen oder kann man dies als Faktenbasis nehmen?
Ich denke mal, dass das, was für die HD6800 gilt, ab cat. 10.10 auch für Cypress gilt (+ Banding-Problematik).
Die Kernfrage ist: Was gilt für frühere Treiber? AMD behauptet, dass AI auf Standard alle Tex-"Optimierungen" deaktiviert (HD5800), Dave Baumann geht einen Schritt weiter und sagt, dass das schon für frühere Treiber galt. Nur steht das irgendwie im Widerspruch zu Äußerungen mehrerer 3DCF-Mitglieder.
Es kann wirklich sein, dass 10.10 HQ dem 10.10 AI Standard entspricht, weil es eben kein AI OFF mehr gibt.

SamLombardo
2010-10-24, 13:25:21
http://www.computerbase.de/forum/showpost.php?p=8682577&postcount=396

Was dieser "gruffi" vom Stapel lässt ist lustig und traurig zu gleich. Zuerst bin ich vor Lachen fast vom Stuhl gefallen, dann allerdings registrierte ich, dass er den Müll den er da von sich gibt wirklich ernst meint :freak:

Loool Was ist denn das für ein Kiddiforum. Da lob ich mir das 3DC, selbst wenn es hier manchmal heiß her geht;). Selbst unsere größten Fans auf beiden Seiten sind Musterbeispiele an Diskussionskultur gegen das was da abgeht...

Eggcake
2010-10-24, 13:29:04
Die Diskussionen in CB erinnern mich immer wieder an Kinder, welchen gesagt wird, dass ihr Spielzeug nicht das beste ist. Wobei nein...Kinder würden dann das bessere wollen...dort werden einfach Fakten ignoriert :P

boxleitnerb
2010-10-24, 13:34:16
Sagen wir einfach, die Leute dort sind an einer eingehenderen Betrachtung nicht so sehr interessiert und legen Wert auf andere Dinge.
Gruffi z.B. ist zwar eine harte Nuss, aber er scheint (nach eigenen Angaben) doch etwas weiterreichende Qualifikationen zu besitzen und ansonsten auch kompetent zu sein. Nur besonders kritisch oder vollkommen neutral ist er nicht.

airbag
2010-10-24, 13:38:06
Loool Was ist denn das für ein Kiddiforum. Da lob ich mir das 3DC, selbst wenn es hier manchmal heiß her geht;). Selbst unsere größten Fans auf beiden Seiten sind Musterbeispiele an Diskussionskultur gegen das was da abgeht...
Sehe ich auch so. Ich fühle mich im Moment hier deutlich wohler als dort. :)
Vor allem, weil man hier nicht ständig angeflamt wird, wenn man gegen den Mainstream ankämpft , wie beim AF.

deekey777
2010-10-24, 13:41:25
Wollen wir nicht langsam zurück zum Thema?

Langenscheiss
2010-10-24, 13:45:07
AMD behauptet, dass AI auf Standard alle Tex-"Optimierungen" deaktiviert (HD5800)

Das behaupte ich auch, allerdings kann ich es nur im AfTester bestätigen, keine Ahnung was in Spielen läuft. Siehe AF-Thread dazu. Poste gleich mal die restlichen Sachen (+ alles vorherige und zusätzliches Material im Anhang), die ich dazu noch gemacht habe, dann kann meins wegen jeder Differenz-Bilder machen.

Ronny145
2010-10-24, 13:50:26
Was dieser "gruffi" vom Stapel lässt ist lustig und traurig zu gleich. Zuerst bin ich vor Lachen fast vom Stuhl gefallen, dann allerdings registrierte ich, dass er den Müll den er da von sich gibt wirklich ernst meint :freak:


gruffi=mr.dude

Bekannt als AMD Fanatiker in hardwarelux, CB, p3d etc.

sklave_gottes
2010-10-24, 14:02:11
Es gibt auch anderen Kriterien als Flimmern, auch wenn du offensichtlich nur noch darauf schielst. Man sollte hier schon auch die Arbeit berücksichtigten. Wenn AMD bei HQ tri filtert ist der Vergleich mit NV-Q, die ein deutlich sichtbares bi-Band vor sich her zieht mehr als unfair. bi spart ggü. tri satte 50% Füllrate, das holst du mit einer "Sampleoptimierung" niemals raus.

Ausserdem spart NV bei den AF winkeln minimal, mann muss es zwar mit der Lupe suchen aber je nach game und Winkel ist es sichtbar! Hier Spart NV auch.
Insgesammt ist das bild von NV wirklich eindeutig besser, weil das flimmern wesentlich mehr ins auge springt. Aber rein von gesparter rechnenleistung meiner meinung nach bei AMD-HQ vs NV-Q ist NV vorne. Mit anderen Worten: AMD spart nicht mehr wie NV sondern eher an den Falschen stellen...

boxleitnerb
2010-10-24, 14:03:12
Wobei man der Fairness halber wirklich sagen muss, dass PCGH die einzigen sind, die behaupten, dass Q schlechter als AI Standard ist. Bisher habt ihr dafür auch keinen objektiven Beleg geliefert.
Ich selbst tue mich auch nicht ganz leicht, bei den Videos von HT4U einen Unterschied zu sehen. HQ erscheint mir z.B. sogar etwas schlechter als Q :confused:

airbag
2010-10-24, 14:06:38
Ausserdem spart NV bei den AF winkeln minimal, mann muss es zwar mit der Lupe suchen aber je nach game und Winkel ist es sichtbar! Hier Spart NV auch.

Gibst eigentlich irgendwo Vergleichsmaterial zur Winkelabhängigkeit?(AF Blume und G70shots ausgeschlossen )

sklave_gottes
2010-10-24, 14:08:41
hier stand mist sory

Exxtreme
2010-10-24, 14:11:12
Das Thema heißt Qualität des AF auf Radeon HD 6800 und nicht Huddy oder gruffi.

Langenscheiss
2010-10-24, 14:18:16
Mit anderen Worten: AMD spart nicht mehr wie NV sondern eher an den Falschen stellen...

Bilderbuchfall HD5K = AMD sampled in etwa gleich viel wie Gf100, aber weniger als G80, bei Verwendung von Mips (Standard in Spielen):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8319341&postcount=1509

Realität: ???

Ich glaube trotzdem, dass du recht hast, auch was die HD6K angeht, wenn gleich sie ja das AF überarbeitet haben und ich es in sofern nicht mit Sicherheit sagen kann.

PTY
2010-10-24, 14:28:58
Servus zusammen, versteh ich das richtig, der neue Standard Q-AF ist minimalst schlechter, als das alte Standard AI, bzw. eigentlich besser weil das Banding weg ist!? Und HQ ist mit AI Off vergleichbar, aber natürlich auch ohne dem Banding!?
Also hat sich die AF Situation doch eigentlich verbessert oder nicht. Alleinig das schlechtere Standard-AF könnte man ATI ankreiden. Dagegen stehen doch andere Verbesserungen, wie schnelleres Tessellation und MLAA. Für den Preis sind die neuen Karten, schon mehr als nur ne überlegung wert.

Gruas

Eggcake
2010-10-24, 14:34:20
Ich selbst tue mich auch nicht ganz leicht, bei den Videos von HT4U einen Unterschied zu sehen. HQ erscheint mir z.B. sogar etwas schlechter als Q :confused:

Yup, finde ich auch...HQ scheint in den Videos sätker zu flimmern Oo

Langenscheiss
2010-10-24, 14:34:25
Servus zusammen, versteh ich das richtig, der neue Standard Q-AF ist minimalst schlechter, als das alte Standard AI, bzw. eigentlich besser weil das Banding weg ist!? Und HQ ist mit AI Off vergleichbar, aber natürlich auch ohne dem Banding!?
Also hat sich die AF Situation doch eigentlich verbessert oder nicht. Alleinig das schlechtere Standard-AF könnte man ATI ankreiden. Dagegen stehen doch andere Verbesserungen, wie schnelleres Tessellation und MLAA. Für den Preis sind die neuen Karten, schon mehr als nur ne überlegung wert.

Gruas

Also bei der HD5K gilt (wahrscheinlich):
HQ-AF = A.I. standard (bzw. off)
Q-AF = A.I. erweitert
LQ-AF = noch mieser als A.I. erweitert

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8345338&postcount=1644 (sorry für Eigenwerbung, aber da sieht man den Unterschied)

Bei der HD6K haben sie nun das banding entfernt. Ich denke aber, dass die Ergebnisse der HD5K sich abgesehen vom banding übertragen lassen. Andererseits gibt es sehr viele Berichte über seltsames Flimmerverhalten, deswegen kann man es zurzeit wohl noch nicht mit Sicherheit sagen.

Angiesan
2010-10-24, 15:13:27
Also bei der HD5K gilt (wahrscheinlich):
HQ-AF = A.I. standard (bzw. off)
Q-AF = A.I. erweitert
LQ-AF = noch mieser als A.I. erweitert

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8345338&postcount=1644 (sorry für Eigenwerbung, aber da sieht man den Unterschied)

Bei der HD6K haben sie nun das banding entfernt. Ich denke aber, dass die Ergebnisse der HD5K sich abgesehen vom banding übertragen lassen. Andererseits gibt es sehr viele Berichte über seltsames Flimmerverhalten, deswegen kann man es zurzeit wohl noch nicht mit Sicherheit sagen.

Was mich jetzt mal interessiert, wenn man den 10.10 auf einer GD50XX installiert bekommt man dann den gewohnten Standard oder schlechtere Qualität? Weil soweit ich das verfolgen konnte gibt es ohne gemodete Inf ja kein HQ AF auf der HD 50XX, oder?

Wenn dies so ist finde ich es schon eine Sauerei, dass man die Alten Karten mit einer schlechteren Qualität bedient wie es eh schon war.
Kannst Du zu dem Thema was sagen?

Langenscheiss
2010-10-24, 15:19:31
@Angiesan
Wenn du die inf nicht moddest, bekommst du ganz normal die A.I. Auswahl-Möglichkeiten off, standard und erweitert wie beim 10.9. Da der 10.10 beta im AFTester bei mir mit A.I. off die gleiche Qualität hatte, wie der 10.9 mit a.i. off, bin ich mir ziemlich sicher, dass man mit dem 10.10a final ohne gemoddete inf ebenfalls das best mögliche AF bekommt, in dem man einfach A.I. standard bzw. off setzt.

boxleitnerb
2010-10-24, 15:22:19
Wird diese neue inf irgendwann in einen zukünftigen Treiber als Standard aufgenommen oder bleibt es dabei, dass HD5000 das AF so wie gehabt bekommt und nur HD6000 in den "Genuss" der neuen Einstellungen (inkl. Banding-Fix)?

Langenscheiss
2010-10-24, 15:23:33
@boxleitnerb
Also, so wie ich Dave Baumann verstanden habe, wird es das in Zukunft wohl für alle Karten geben. Der hat nämlich argumentiert, dass es für AMD wichtig gewesen sei, die Einstellungen für alle Reihen zu vereinheitlichen. Kannst im beyond3d thread nachlesen, weiß jetzt gerade nicht, welche Seite.

boxleitnerb
2010-10-24, 15:24:58
Stimmt, ich erinnere mich. Naja, solange man dann auf HQ schalten kann, bleibt es wirklich beim Alten bzw. ist durch den Fix sogar leicht besser. Muss man aber erstmal tun - das sehe ich bei den meisten nicht.

Langenscheiss
2010-10-24, 15:27:41
Stimmt, ich erinnere mich. Naja, solange man dann auf HQ schalten kann, bleibt es wirklich beim Alten bzw. ist durch den Fix sogar leicht besser. Muss man aber erstmal tun - das sehe ich bei den meisten nicht.

Eben genau das ist ja der Streitpunkt, der hier so viele aufregt. Viele Tester machen sich schlicht keine Gedanken darüber, welche Settings man vergleichen muss, aber solange einem effektiv nichts genommen wird, isses ja insgesamt okay. Allerdings weiß ich noch zu wenig über die Details des HD6K AFs, deswegen will ich mich da noch nicht so festlegen. Wie gesagt, meine Vermutungen basieren auf Vergleiche mit der HD5K.

boxleitnerb
2010-10-24, 15:34:53
Privat wirst du dir wohl kaum eine HD6000er kaufen, oder? Sonst muss man sich auf PCGH verlassen - aber deine Texelanalysen gefallen mir besser, das ist so gründlich und wissenschaftlich :)
Wenn dann noch Videos vom AF-Tester dazukämen (gleiche Geschwindigkeit, nicht so wie bei HT4U)...:massa:

Vor allem müsste man die Performance eigentlich aller Modi auf HD5k und HD6k vergleichen, also

Performance, Q, HQ
AI Off, AI Std, AI Adv

Natürlich einmal mit neuem Treiber und einmal mit altem, sonst gehts ja nicht.

Wenn ich eine Radeon hätte, würde ich ja gerne helfen, weil mir ist klar, dass das eine ziemliche Arbeit ist - auch wenn man selbstlaufende Benchmarks heranziehen kann, um den Aufwand nicht explodieren zu lassen.
Mein Standpunkt ist aber, um der Diskussion ein für alle Mal eine nicht anfechtbare Faktenbasis zu geben, sollte so eine Untersuchung so ausführlich und gründlich wie möglich sein. Einfach sagen "es scheint subjektiv mehr zu flimmern" reicht nicht aus, um Fanboys zu überzeugen.

Langenscheiss
2010-10-24, 15:44:59
Privat wirst du dir wohl kaum eine HD6000er kaufen, oder? Sonst muss man sich auf PCGH verlassen - aber deine Texelanalysen gefallen mir besser, das ist so gründlich und wissenschaftlich :)
Wenn dann noch Videos vom AF-Tester dazukämen (gleiche Geschwindigkeit, nicht so wie bei HT4U)...:massa:

Vor allem müsste man die Performance eigentlich aller Modi auf HD5k und HD6k vergleichen, also

Performance, Q, HQ
AI Off, AI Std, AI Adv

Natürlich einmal mit neuem Treiber und einmal mit altem, sonst gehts ja nicht.

Wenn ich eine Radeon hätte, würde ich ja gerne helfen, weil mir ist klar, dass das eine ziemliche Arbeit ist - auch wenn man selbstlaufende Benchmarks heranziehen kann, um den Aufwand nicht explodieren zu lassen.
Mein Standpunkt ist aber, um der Diskussion ein für alle Mal eine nicht anfechtbare Faktenbasis zu geben, sollte so eine Untersuchung so ausführlich und gründlich wie möglich sein. Einfach sagen "es scheint subjektiv mehr zu flimmern" reicht nicht aus, um Fanboys zu überzeugen.

Ich versuche genau deshalb, es wissenschaftlich zu machen, aber leider sagen diese Analysen nie etwas darüber aus, wie der Spiele-Alltag aussieht. Ich will Amd nichts böses unterstellen, aber ich habe schon manchmal den Eindruck, als würden einige Spiele Sonderbehandlungen abkriegen. Insofern müssen die Bilder immer als Idealfall angesehen werden.

Und nein, ich würde mir keine HD6K kaufen. Da bleib ich lieber bei meiner jetzigen. AF ist mies, aber performen tut sie ganz gut, und das banding fällt halt nicht häufig auf, nur leider in einem meiner Lieblingsspiele (TrackMania). Außerdem hab ich auch nicht Geld wie Heu.

Bis es erste HD6K user hier gibt, wird wohl der Cayman schon raus sein.

boxleitnerb
2010-10-24, 15:49:57
Schade, aber verständlich. Dann hoffen wir mal, dass es bei Cayman endlich Geschichte ist, dann kann man diese endlose Diskussion darüber auch begraben.

LuXon
2010-10-24, 16:58:57
Ich habe mir die Videos von ht4u runtergeladen und bei beiden ATI's ist mir das Flimmern im vorderen Bereich sofort aufgefallen. Doch was mich auch noch stark störte war das "Flimmern" etwa auf 2/3 der Bildhöhe. Was ist denn das? Für typisches Flimmern sieht es für mich nicht aus.

Leonidas
2010-10-24, 17:05:49
Sry für das Doppelpost, aber ich hätte das gern beantwortet:



Hast du Hinweise darauf, dass HQ nicht durchweg tri-AF ist? Solange das nicht bewiesen ist, würde ich davon ausgehen, dass AMD unter HQ auch nur tri-AF offeriert.

Vergleichen wir mal die AF-Eigenschaften von AMD und NV:

NV "HQ" (ab GeForce 8800):
- Flimmerneigung minimal (vergleichbar mit Referenzimplementierung)
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

NV "Q" (ab GeForce 8800) = Treiberstandard:
- Flimmerneigung gering
- Gradientenberechnung sehr gut (Winkelabhängigkeit gering)
- bri-AF, kein Banding, Bugwellen
- LOD-Bias 0

AMD "HQ" (ab Radeon HD6K):
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- tri-AF, kein Banding, keine Bugwellen
- LOD-Bias 0

AMD "Q" (ab Radeon HD6K) = Treiberstandard:
- Flimmerneigung mäßig
- Gradientenberechnung optimal (Winkelabhängigkeit minimal, vergleichbar mit Referenzimplementierung)
- bri-AF?
- LOD-Bias positiv (d.h. effektiv geringerer AF-Grad als angegeben)



Ich würde gern das Posting als Ausgangsbasis zu einem Artikel über die Problematik verwenden. Dazu zwei Fragen:

1. Wie würde man die 5000er Serie innerhalb dieser einzelnen Punkte einschätzen?
2. Gibt es hierzu Korrekturen oder gänzlich andere Meinungen oder kann man dies als Faktenbasis nehmen?

Angiesan
2010-10-24, 17:37:53
@Angiesan
Wenn du die inf nicht moddest, bekommst du ganz normal die A.I. Auswahl-Möglichkeiten off, standard und erweitert wie beim 10.9. Da der 10.10 beta im AFTester bei mir mit A.I. off die gleiche Qualität hatte, wie der 10.9 mit a.i. off, bin ich mir ziemlich sicher, dass man mit dem 10.10a final ohne gemoddete inf ebenfalls das best mögliche AF bekommt, in dem man einfach A.I. standard bzw. off setzt.
Danke ich habe zwar meine 5850 mittlerweile im 2 Rechner aber dann kann ich ja da beruhigt den neuen 10.10 aufspielen.
Im übrigen tolle Arbeit was Du da mit deinen Tests alles herausgefunden hast, Respekt! (y)

Langenscheiss
2010-10-24, 18:30:39
Wenn der 3DCenterFilterTester ne Texel-Analyse hätte, könnte ich mit Sicherheit auch das Flimmern erklären, was man in den HT4U Videos sehen kann.

Wenn man die gleiche Szene auf ner HD5K reproduziert, und halt einfach mal zwischen hochfrequentem Checkerboard und Ground wechselt, sieht man, dass das üble Flimmern, was auch auf der HD6K zu sehen ist, verdächtig Nahe an den ersten paar AF-banding Zonen (teils sogar fast parallel!) liegt. Die sichtbaren Zonen widerum befinden sich halt meist noch auf der 1. Mip-Stufe. Diese Zonen zeichnen sich dadurch aus, dass AMD vor diesen Kanten (vom Betrachter aus) weniger sampled als NV, aber dahinter teils deutlich mehr (siehe dazu den Vergleich, der im AF-Artikel verlinkt ist), wodurch (unter anderem) ein solcher banding Effekt entstehen kann. Mein Verdacht ist einfach, dass man es zwar geschafft hat, das banding zu entfernen (durch weniger abrupten Anstieg der Samples und eventuell durch Verbesserung der Sample-Verteilung und Gewichtung, die pro Pixel angesetzt wird, sprich der Abtast-Kernel), aber der Anstieg des AF-Grades halt immer noch dermaßen ungünstig ist, dass es in gewissen Bereichen vor den Kanten zur Unterfilterung kommt. Genau in diesen Zonen sieht man nämlich in den HT4U-Szenen dieses Flimmern, zumindest liegen Flimmer-Bereiche und (ehemalige) banding Bereiche sehr dicht "aufeinander". Ob man durch das Unterfiltern auf dieser Stufe allerdings derart viel Performance rausholen kann, dass es sich wirklich lohnt, weiß ich nicht.

EDIT: Wer sich selbst davon Überzeugen möchte, dass die beiden Gebiete zusammenfallen (falls Radeon HD5K vorhanden)
- Startet den 3DCenterFilter-Tester
- Wählt die Textur Ground2
- Textur-Movement Einstellen
- bei der Bewegung das LOD von + nach - durchschieben. Bei - sieht man das Flimmern, bei + das banding.

Hab dazu mal n kleines Video gemacht:
http://www.multiupload.com/DS295T7Z7U

Man muss etwas genauer hinschauen, um beim positiven LOD das banding zu sehen, aber wenn man es einmal gefunden hat, wird man feststellen, dass das Flimmern bei negativem LOD ziemlich genau vor der Kante hin zum nächsten AF-Grad (das HD5K banding) liegt. Klar, beim negativen LOD flimmert gerade weiter oben im Bild alles. Ich beziehe mich aber nur auf die Bereiche ganz vorne auf der Textur.
Wie gesagt, meine Erklärung zu dem Flimmern ist Unterfiltern kurz vorm (abrupten) AF-Grad-Sprung. Das erklärt wohl auch, warum NV hier besser abschneidet, denn genau in diesen Zonen verwenden die mehr samples.

=Floi=
2010-10-24, 21:22:21
kann mal jemand erklären wieso das banding ein hardware bug sein soll?
klingt irgendwie komisch.

Gorkon
2010-10-24, 21:58:11
kann mal jemand erklären wieso das banding ein hardware bug sein soll?
klingt irgendwie komisch.

Eine Mögliche Theorie gibt es von Carsten Spille (PCGH): http://www.gpu-tech.org/content.php/137-A-closer-look-at-the-anisotropic-filtering-of-the-Radeon-HD-5000-series

Könnte am nur 8KiB großen L1-Texturcache pro Quad-TMU im RV8xx ggü. 16KiB beim RV7xx liegen.

mfg

Langenscheiss
2010-10-25, 00:24:17
kann mal jemand erklären wieso das banding ein hardware bug sein soll?
klingt irgendwie komisch.

Das mit dem Textur-Cache ist eine mögliche Erklärung.
Warum soll das sonst n hardwarebug sein? Weil eben ein nicht unerheblicher Teil vom AF in Form von Hardware-Logik vorhanden sein muss. Es ist ja nicht so, als seien die TMUs derart programmierbar, dass man per Treiber der Karte quasi jede Art von Textur-Filter aufschwätzen kann. Stattdessen ist das AF von außen nur in soweit steuerbar, als dass man das maximale AF-Level und damit die negative LOD-Verschiebung anpassen kann. Dazu kommen dann noch Schalter für Optimierungen wie größere Bi-Bänder und adaptive Verschiebung des AF-Grades. Aber grundsätzliche Berechnungen sind von der Hardware reguliert, sonst könnte man ja die perfekte Winkelunabhängigkeit ja auch auf eine HD4K per Treiber implementieren.
Man kann aber, wie z.B. im 3DCenter FilterTester, einfach die TMU-Arbeit auf ungefilterte reads beschränken und den Rest dann in den ALUs berechnen, aber das ist ja nicht der Sinn der Sache.

AnarchX
2010-10-25, 09:04:07
Bei Techreport hat man wohl auch mal die HD 5000 mit dem neuen Standard-AF getestet.

Radeon HD 5850 1GB
with Catalyst 8.782-100930m drivers & 10.9a application profiles
Asus Radeon HD 5870 1GB
with Catalyst 8.782-100930m drivers & 10.9a application profiles
XFX Radeon HD 6850 1GB
with Catalyst 8.782-100930m drivers & 10.9a application profiles
XFX Radeon HD 6870 1GB
with Catalyst 8.782-100930m drivers & 10.9a application profiles

Alt:
http://img294.imageshack.us/img294/64/rm3daniso.gif
http://techreport.com/articles.x/19242/6

Neu:
http://techreport.com/r.x/radeon-hd-6800/rm3d-aniso.gif
http://techreport.com/articles.x/19844/8

Da hat wohl die Senkung der Standard-Qualität gute 20% in stark limitierten Fällen gebracht.

Pirx
2010-10-25, 09:17:52
Limitiert diese Füllrate, bei den verschiedenen AF-Graden?

Exxtreme
2010-10-25, 09:25:27
Eine Mögliche Theorie gibt es von Carsten Spille (PCGH): http://www.gpu-tech.org/content.php/137-A-closer-look-at-the-anisotropic-filtering-of-the-Radeon-HD-5000-series

Könnte am nur 8KiB großen L1-Texturcache pro Quad-TMU im RV8xx ggü. 16KiB beim RV7xx liegen.

mfg
Ich glaube nicht, dass ein zu kleiner Cache sowas auslösen kann. Denn wenn etwas nicht in den Cache passt dann wird es direkt aus dem normalen RAM geholt was natürlich ordentlich Performance kostet.

DrumDub
2010-10-25, 13:52:00
hier noch mal die erklärung, warum amd/ati immer noch flimmeranfälliger ist: On the Radeons, the checkerboard pattern melts into a gray circle well before the end of the cylinder, whereas the GF104 shows detail all the way to the end, with some intriguing and intricate moire patterns. Those patterns are smoother and more regular than the ones on the Radeons, which translates into less visual noise. http://techreport.com/articles.x/19844/2

barts (http://techreport.com/r.x/radeon-hd-6800/barts-af2.png)
gf 104 (http://techreport.com/r.x/radeon-hd-6800/gf104-af2.png)

Exxtreme
2010-10-25, 14:01:07
hier noch mal die erklärung, warum amd/ati immer noch flimmeranfälliger ist: http://techreport.com/articles.x/19844/2

barts (http://techreport.com/r.x/radeon-hd-6800/barts-af2.png)
gf 104 (http://techreport.com/r.x/radeon-hd-6800/gf104-af2.png)
Dafür sieht es bei den eingefärbten Mipmaps besser aus. Bei NV hat man den Eindruck als ob es in Richtung brilinear geht.

Witzig finde ich dass bei den Radeons die Rechtecke irgendwannmal verschwinden und zu einer grauen Masse werden. Könnte ein Problem mit der Rechengenauigkeit sein.

DrumDub
2010-10-25, 14:09:15
Dafür sieht es bei den eingefärbten Mipmaps besser aus. Bei NV hat man den Eindruck als ob es in Richtung brilinear geht. ja. wobei der test wohl mit treiberstandard gemacht wurde.

Witzig finde ich dass bei den Radeons die Rechtecke irgendwannmal verschwinden und zu einer grauen Masse werden. Könnte ein Problem mit der Rechengenauigkeit sein. genau das ist der punkt. deshalb gibt es wohl die höhere flimmeranfällgkeit.

LovesuckZ
2010-10-25, 14:11:42
Dafür sieht es bei den eingefärbten Mipmaps besser aus. Bei NV hat man den Eindruck als ob es in Richtung brilinear geht.

Ist ja auch nur Quality. Da ist Brilinear und Sample-Optimierung aktiviert.

Langenscheiss
2010-10-25, 18:07:07
1. Nvidia Gf100 hat auf HQ definitiv keine deutlich breiteren Bi-Bänder als AMD HD5/6K. Keine Ahnung was die da getestet haben???
2. Die Begründung auf tech-report passt genau zu dem, was ich oben geschrieben und in dem Video demonstriert habe. So wie ich das auf techreport gelesen habe, gibt es auf einer kleinen Übergangszone um die Kanten, welche auf HD5K sichtbar sind, einen Kernel-Misch, der aber auf Crypress irgendwie überhaupt nicht aktiv ist, also nicht passiert. Dass bestätigt nochmal alles zur Ursache des bandings, was hier bereits im Artikel zum banding geschrieben wurde. Insofern auch klar, warum es ein HW-Bug ist.
Allerdings besteht das Problem nun immer noch darin, dass AMD insbesondere vor diesen Kanten zu wenig sampled, dahinter jeweils zuviel! Es geschieht zwar ein Kernel-Übergang, wodurch der große Bandenkrieg ausbleibt, der AF-Grad bzw. die Sample-Zahl wird aber immer noch nicht so intelligent erhöht, dass Flimmern weitesgehend ausbleibt.

Mein Fazit: AMD spart zwar !in der Regel! keine Samples und damit Leistung, schafft es offenbar aber nicht, einen ausgewogenen AF-Algorithmus mit einer intelligenten Anpassung des AF-Grades zu entwickeln! Ich gehe sogar soweit zu behaupten, dass dies vielleicht sogar eine bewusste Entscheidung war, um stattdessen die perfekte Winkelunabhängigkeit (welche auch für das AF an sich, nicht nur fürs Mipmapping gilt) als "Marketing-Feature" einzubauen. Nvidia hat diesbezüglich offenbar einfach den besseren Job gemacht, ohne das AMD hier zwangsläufig cheatet, und das sage ich nicht als NV-Troll.

Da es ja auch schon erste Besitzer dieser Karten hier gibt, könnten die das ganze einmal mit dem AFTester bestätigen. Wäre dankbar für Bilder.

AnarchX
2010-10-26, 12:06:55
http://twitter.com/CarstenSpille/status/28631338847

Da könnte wohl High Quality schon sehr nah an "native texturing" dran sein.

Langenscheiss
2010-10-26, 12:49:06
Ich hab ja im Hd6850 Erfahrungs-Thread schon mal angefragt, ob mal jemand Bilder mit dem AFTester machen kann. Vielleicht sparen sie ja selbst unter idealen Bedingungen deutlicher ein unter Quality als auf der HD5K-Reihe.

Coda
2010-10-26, 12:51:13
hier noch mal die erklärung, warum amd/ati immer noch flimmeranfälliger ist: http://techreport.com/articles.x/19844/2

barts (http://techreport.com/r.x/radeon-hd-6800/barts-af2.png)
gf 104 (http://techreport.com/r.x/radeon-hd-6800/gf104-af2.png)
Da stimmt was überhaupt nicht bei dem GF104-Shot. Da ist anscheinend negatives LOD am Werk :|

Langenscheiss
2010-10-26, 12:56:41
Habt ihr schon die Bilder aus dem Erfahrungs-Thread gesehen. Irgendwas stimmt da immer noch nicht, lol. Hinten sieht es weich aus, vorne gibt es immer noch banding, was bei NV nicht auftritt. Entsprechend sieht man in der Texel-Analyse vorne noch die krassen Übergänge. Werde mich heute abend an den Vergleich machen!!! Außerdem scheint die Sample-Zahl deutlich reduziert gegenüber HD5K.

Ronny145
2010-10-26, 13:09:14
Habt ihr schon die Bilder aus dem Erfahrungs-Thread gesehen. Irgendwas stimmt da immer noch nicht, lol. Hinten sieht es weich aus, vorne gibt es immer noch banding, was bei NV nicht auftritt. Entsprechend sieht man in der Texel-Analyse vorne noch die krassen Übergänge. Werde mich heute abend an den Vergleich machen!!! Außerdem scheint die Sample-Zahl deutlich reduziert gegenüber HD5K.


Ja das ist mir auch aufgefallen. Irgendwas ist da anders. Sieht auf meinen 5770 Bildern weicher aus.

Langenscheiss
2010-10-26, 13:15:03
Was sieht auf den HD5770 Bildern weicher aus? Das banding ist auf der HD5770 genauso vorhanden, wie bei der HD5870/50.

Ronny145
2010-10-26, 13:28:24
Was sieht auf den HD5770 Bildern weicher aus? Das banding ist auf der HD5770 genauso vorhanden, wie bei der HD5870/50.

http://www.abload.de/img/texturfilterung_hohe_qlzfr.png
http://www.abload.de/img/off_16_normaljnif.png


Es sieht schärfer aus auf der 6850.

Mr. Lolman
2010-10-26, 14:08:21
Da stimmt was überhaupt nicht bei dem GF104-Shot. Da ist anscheinend negatives LOD am Werk :|

Imo ists nur Bri-AF.

Coda
2010-10-26, 14:35:06
Nö kann nicht sein. Die niedrigst aufgelöste Mipmap (= pures Grau) wird überhaupt nicht angezeigt. Das kann unmöglich von Bri kommen.

Mr. Lolman
2010-10-26, 14:45:40
Der Schmäh beim D3D-AFtester Schachbrettmuster ist ja, dass das die Mipmaps nicht eine niedriger aufgelöste Version der Basemap sind, sondern einfach einen Teilbereich des Checkerboards darstellen. Die kleinste Mip (die hier übrigens garnicht zu sehen ist), zeigt reines weiß. die zweitkleinste ein 2x2 Schachbrettmuster, die drittkleinste ein 4x4 usw. usf...
http://www.abload.de/thumb/mipmapsfhdt.png (http://www.abload.de/image.php?img=mipmapsfhdt.png)

Reines grau macht einfach ATis Filterkernel draus. Außerdem sieht man schön an den tintet Mipmaps, dass bei NV hier kein negatives LOD zum Einsatz kommt.

Langenscheiss
2010-10-26, 16:38:28
http://www.abload.de/img/texturfilterung_hohe_qlzfr.png
http://www.abload.de/img/off_16_normaljnif.png


Es sieht schärfer aus auf der 6850.

Ja, das mag sein, aber der Punkt ist, dass das banding nicht verschwunden ist. Je nachdem welcher AF-Grad in einer Applikation als Minimum gesetzt wird, wird das banding auch auf den Barts-Chips zu sehen sein. Warum das so ist, wird sofort klar, wenn man sich die Analysen anschaut. Höherer AF-Grad = quasi butterweicher Anstieg der samples, aber vorne sind die gleichen harten Übergänge wie auf Cypress.

Coda
2010-10-26, 16:40:35
Reines grau macht einfach ATis Filterkernel draus.
Aha und wie soll das gehen? Ich hätte die Textur gerne mal zur Untersuchung.

Übrigens ist der "Filterkernel" normales Bilinear wie bei jeder GPU seit der Voodoo 1.

Hm? Wir sind doch beim Thema: AF-Qualität. Und dazu gehört eben auch das LOD (=Level of Detail => welches je nach Situation bei NV augenscheinlich etwas geringer ist)
Ist es nicht. Das bildest du dir nur ein, weil bei AMD durch die Unterfilterung das Bild "schärfer" aussieht. Das erzähl ich dir aber auch schon zum hundersten Mal.

Überhaupt lege ich dir echt mal dringend ans Herz dir genau anzuschauen wie das LOD überhaupt berechnet wird. Dann können wir auch mal vernünftig diskutieren.

Woher weiß man eigentlich das sich NV die geringe Flimmerneigung nicht mit positivem LoD erkauft?
Die Unschärfe würde einem ins Auge springen. Man sieht auch nichts dergleichen im Filtertester.

Ronny145
2010-10-26, 16:41:21
Ja, das mag sein, aber der Punkt ist, dass das banding nicht verschwunden ist. Je nachdem welcher AF-Grad in einer Applikation als Minimum gesetzt wird, wird das banding auch auf den Barts-Chips zu sehen sein.


Das mit dem Banding müsste man mal im Spiel testen. Wäre schon hart wenns das immer noch in der Form gibt. Aber abseits des Bandings interessiert ja auch das Flimmerverhalten. Unterschiede zwischen HD5000 und HD6000 würden mich interessieren.

Langenscheiss
2010-10-26, 16:49:02
@Ronny
Ich mach die Bilder nachher, dann wirst du Sample-Differenz-Bilder kriegen, die dir genau sagen, wo welche Karte mehr sampled (filtert).
Aber ich sage dir jetzt schon. Wenn das Spiel bei gewählten Bildeinstellungen (Kamera, FOV etc.) einen entsprechend ungünstigen minimalen AF-Grad ansetzt, ist die Chance groß, dass das banding auch auf Barts zu sehen ist. Frag mich nicht, warum sie den zugegeben sehr glatten Filter-Übergang nur bei höheren AF-Graden durchführen.

Zum positiven LOD:
Also eines ist sicher: Im D3DAfTester benutzen sowohl die Radeons als auch die Nvidias auf der jeweils höchsten Treiber-Stufe das gleiche LOD. Dafür sind genug Bilder in den anderen Threads hier vorhanden, die das mehrfach eindeutig zeigen.
Nochmal. Die Flimmer-Neigung auf ATI ist nicht zwangsläufig ein Cheat oder LOD oder irgendwas. Es ist mMn schlicht die Art und Weise, wie der Texturfilter arbeitet. Das hat nichts mit Mip-Interpolation zu tun, es gibt schlicht unterschiedliche Möglichkeiten, AF zu implementieren, insbesondere geht es wohl darum, bei welchem Abstand (Gradienten) welchen AF-Grad anzusetzen. Wäre dem nicht so, so säh jedes Texel-Bild absolut gleich aus (bei gleichem LOD).

Schlammsau
2010-10-26, 16:56:18
Video kommt gleich!

Schlammsau
2010-10-26, 17:10:32
.....

MadManniMan
2010-10-26, 17:15:07
Ohne mir die Videos anzusehen: wozu an dieser Stelle 8*SGSSAA? ;(

y33H@
2010-10-26, 17:20:08
@ Schlammsau

Warum keulst du bei einem AF-Test das Flimmern per SGSSAA weg?! :uattack4:

Schlammsau
2010-10-26, 17:22:24
@ Schlammsau

Warum keulst du bei einem AF-Test das Flimmern per SGSSAA weg?! :uattack4:
Es geht doch ums Banding!?
Und das sieht man mit SGSSAA noch deutlicher als ohne! ;)

Langenscheiss
2010-10-26, 17:24:18
Ohne mir die Videos anzusehen. Ich glaube nicht, dass man banding auf Barts in diesem Spiel sieht. Es kommt halt drauf an. Im D3DAfTester sind vielleicht ungünstige Einstellungen gewählt, aber da ist das banding nicht verschwunden, und es ist anhand der Analysen klar, warum. TM wird wohl in den Bereich fallen, der auf Barts zugegeben butterweich fließt.

DrumDub
2010-10-26, 17:24:30
...

Schlammsau
2010-10-26, 17:25:39
Na gut....dann halt nicht! :P

Langenscheiss
2010-10-26, 17:26:43
Ne ne, kannst ruhig posten. Ich will den Filter auch mal in Bewegung sehen.

Ronny145
2010-10-26, 17:29:05
Siehst du Unterschiede im Filtertester beim Flimmern mit der ground1 Textur? Ansonsten sind Spiele wie HL2 oder Drakensang ohne SSAA sinniger, um mögliche AF Unterschiede aufzuzeigen.

Langenscheiss
2010-10-26, 17:29:43
Ne ne, TM ist schon gut. Moire und Flimmern sieht man da auch recht gut, nur halt ohne SSAA.

Schlammsau
2010-10-26, 17:31:25
Ne ne, TM ist schon gut. Moire und Flimmern sieht man da auch recht gut, nur halt ohne SSAA.

ohne SSAA kommt in ein paar Minuten.

Schlammsau
2010-10-26, 18:00:21
TMNF, 1920x1080, 8xAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/H983CI0CKH

Blaire
2010-10-26, 18:00:48
Du könntest auch mal ein Video von der berühmten HL2 Schienenszene posten, dann wird sich schnell zeigen wie sauber das neue AF der Ati "arbeitet". ;)

boxleitnerb
2010-10-26, 18:13:25
Hat jemand von derselben Stelle bitte ein Vergleichsvideo auf einer Geforce?

Langenscheiss
2010-10-26, 18:30:38
D3DAFTester-Vergleich HD5850 vs HD6850

Settings: Cat 10.10a - Treiber HQ, keine Formatoptimierung - af via Anwendung - kein AA (auch nicht MLAA)

Application settings: LODBias 0 - Use Stage: 0 - Use Checkerboard Texture/scale 0 - Objects: Plane/Distance: 2.2/Angle: 57 - scene/texture rotation: 0 - Mipmaps: Linear

Szene
http://www.abload.de/thumb/16xaf_mipmaps_hd5tohd63px9.png (http://www.abload.de/image.php?img=16xaf_mipmaps_hd5tohd63px9.png)
- LOD und Bi-Bänder anscheinend auf beiden Karten gleich
- banding weiter hintem im Bild verschwunden, vorne nicht mehr so stark wie auf HD5K, aber vorhanden

Texel-Analyse
http://www.abload.de/thumb/16xaf_mipmaps_hd5tohd6gqtg.png (http://www.abload.de/image.php?img=16xaf_mipmaps_hd5tohd6gqtg.png)
- Übergänge auf HD6K bei höheren AF-Leveln sehr weich, deutlich weicher noch als auf NV (Vergleiche mit NV-Bilder) => sehr kontinuierliche Steigerung der verwendeten samples, auf HD5K der typische Anstieg der Sample-Rate nach den Übergängen, welcher das banding verursachte
- immer noch sehr abrupter Übergang auf niedrigem AF-Level, wenn auch weicher als auf Cypress => potentielle Banding-Gefahr vorhanden, es ist jedoch nicht klar, ob das in Spielen sichtbar wird, im AF-Tester ist es jedoch sichtbar, wie der erste Shot zeigt
- Wie gesagt: LOD und Bi-Bänder gleich !gut!

Sample-Differenz
http://www.abload.de/thumb/16xaf_mipmaps_samplediprc2.png (http://www.abload.de/image.php?img=16xaf_mipmaps_samplediprc2.png)

Hier wird klar, was ATI gemacht hat, um das banding zu fixen (?). Alle Bereiche direkt nach dem Übergang zum nächsten AF-Level wurden auf Cypress überfiltert. Diese Überfiltern haben sie einfach verbessert, in dem sie die verschiedenen AF-Grade und entsprechenden AF-Abtastmuster (Kernel) weicher ineinander überführen. Allerdings sparen sie dabei eine recht beträchtliche Anzahl an Samples (ca. 8% gegenüber HD5K). Damit wird auch klar, warum sich in Punkto Flimmern absolut nichts geändert hat! Im Gegenteil, die Bereiche, die sonst übersampled wurden, werden jetzt eventuell auch untersampled. Ich gehe sogar soweit zu behaupten, dass damit ihr ach so tolles High Precision LOD als schlichtes Untersamplen entlarvt wird.

Es stellen sich für mich an diesem Punkt zwei Fragen:
1. Warum hat ATI, um das banding zu minimieren, auf soviel samples schlicht und einfach verzichtet, anstatt die Summe einfach besser aufzuteilen?
2. Warum wurden die niedrigsten AF-Level im adaptiven Verfahren bei dem ?Fix? nicht mitberücksichtigt? Vielleicht gibt es ja Spiele, die etwas hochfrequentes in diesem Bereich zeigen. Und schwupps, ist das banding wieder zu sehen.

Ich hab das ganze auch noch ohne Mips, aber das kann ja wohl noch warten.

Vielen Dank an fizzo für die Bilder der HD6K!

@Schlammsau:
In deinem Video ist Motion-blur drin, oder? Kann sein, dass die kritischen Bereiche da nicht drin sind. Ich wüsste ne Stelle, an der du zu 100% feststellen könntest, ob das banding in TM noch vorhanden ist, aber die kenne ich nur in United Forever, aber nicht in Nations Forever.

Schlammsau
2010-10-26, 18:32:18
Gibt es was hochfrequenteres als die Texturen aus meinem Video? Ich meine das ist doch schon das fieseste was man sich antun kann. Und hier gibts kein Banding!

Blaire
2010-10-26, 18:34:33
TMNF, 1920x1080, 8xAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/H983CI0CKH

Sieht übel aus. Kannst du mal 8xSGSSAA zum Vergleich posten?

Langenscheiss
2010-10-26, 18:44:05
Gibt es was hochfrequenteres als die Texturen aus meinem Video? Ich meine das ist doch schon das fieseste was man sich antun kann. Und hier gibts kein Banding!

Das bezog sich nicht auf den Content der Textur! Es liegt halt auch am Lichteinfall. Auf der Map aus meinen ersten Videos wüsste ich eine Stelle. Da sieht man auch perfekt diesen Kegel, der auf den AF-Tester-Bilder immer etwas rausragt.

Wie gesagt, ich behaupte nicht, dass das banding jetzt nicht !in Spielen! behoben wurde, aber man sieht doch, dass man immer noch Situationen erzeugen kann, in dem es auftritt, wenn gleich diese vielleicht eher "theoretisch" sind.

Davon abgesehen wird denk ich schon klar, warum Barts immer noch mehr flimmert wie NV.

Kannst du vielleicht mal bei Crysis schauen?

Settings: HD5850/Cat 10.9 - 1680x1050 - 4xAA via application/16xAF via driver - A.I. disabled - Ingame maximum, 64bit, D3D10
http://www.multiupload.com/BZ3S2Y1LHD

Die Szene ist auf Shore, weiß leider nicht mehr genau, wo, aber vielleicht fällt dir da was auf.

Ronny145
2010-10-26, 18:56:21
Gibt es was hochfrequenteres als die Texturen aus meinem Video? Ich meine das ist doch schon das fieseste was man sich antun kann. Und hier gibts kein Banding!


In HL2 gibt es auch fiese Stellen wo auch Nvidia noch flimmert. Aber schau dir doch mal das Kanalrouten save an mit beiden Karten. Vielleicht fallen dir Unterschiede auf.

Schlammsau
2010-10-26, 18:58:14
Sieht übel aus. Kannst du mal 8xSGSSAA zum Vergleich posten?

TMNF, 1920x1080, 8xAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/H983CI0CKH

TMNF, 1920x1080, 8xSGSSAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/JAZA8MNZ5Z

In HL2 gibt es auch fiese Stellen wo auch Nvidia noch flimmert. Aber schau dir doch mal das Kanalrouten save an mit beiden Karten. Vielleicht fallen dir Unterschiede auf.
Ich habe kein HL² mehr auf der Platte.

Kannst du vielleicht mal bei Crysis schauen?

Settings: HD5850/Cat 10.9 - 1680x1050 - 4xAA via application/16xAF via driver - A.I. disabled - Ingame maximum, 64bit, D3D10
http://www.multiupload.com/BZ3S2Y1LHD

Die Szene ist auf Shore, weiß leider nicht mehr genau, wo, aber vielleicht fällt dir da was auf.

Gib mir mal ein Save.

Langenscheiss
2010-10-26, 19:04:15
@Schlammsau:
Ist ne Multiplayer-Map. Die, auf dem die große Hafenanlage im Lade-Bildschirm zu sehen ist. Würde mich halt nur interessieren, ob man da noch banding sieht, wie in meinem geposteten Video. Brauchst nicht extra n Video machen.

fizzo
2010-10-26, 19:06:02
Vielen Dank an fizzo für die Bilder der HD6K!



Immer doch,

hier zum Vergleich mit Qualität ohne Optimierungen:

http://www.abload.de/thumb/linear_16_q_tinted_1ueii.png (http://www.abload.de/image.php?img=linear_16_q_tinted_1ueii.png)

http://www.abload.de/thumb/linear_16_q_tintedti4m.png (http://www.abload.de/image.php?img=linear_16_q_tintedti4m.png)

Sum: 5143513 - Max: 71 - P: 589.020G

boxleitnerb
2010-10-26, 19:06:24
Sind das bei Schlammsaus SGSSAA Video gleich zwei Bänder, die da laufen oder hab ich mich verguckt?

Langenscheiss
2010-10-26, 19:08:13
Zu den Shots von fizzo:
Qualität arbeitet auf HD6K ähnlich, wie auf HD5K. Größere Bi-Bänder und etwas nach hinten verschobene AF-Grade!

@Schlammsau:
Ich bin ein Prophet: Dein Video zeigt eindeutig banding!!! Das ist mir sofort ins Auge gesprungen, wenn gleich nicht so stark wie auf HD5K. Passt PERFEKT zu den Tester-Shots!

Lächerlich von ATI, ganz ehrlich...

boxleitnerb
2010-10-26, 19:15:58
Langenscheiss, wirst du an dem neuen AF-Artikel bei 3DC mitwirken und deine Testmethode auch für Laien mal erklären?
Ich weiß zwar im Groben, wie AF funktioniert, aber in Verbindung mit einem kleinen "Auffrischungskurs" zu den Details, auf die es ankommt, wäre so eine Erklärung super. Damit nicht nur die Profis hier mitreden können ;)

Eggcake
2010-10-26, 19:18:36
deine Testmethode auch für Laien mal erklären? :)

Wäre toll :)

Wenn Lust/zeitlich möglich. Interessiere mich sehr dafür (vor allem da selber betroffen..).

@SSAA-Video:
Sehe auch zwei Bänder. Bogenförmig direkt oberhalb der vorderen Räder und noch etwas weiter vorne das zweite.

Blaire
2010-10-26, 19:19:03
TMNF, 1920x1080, 8xAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/H983CI0CKH

TMNF, 1920x1080, 8xSGSSAA, Ingame 16xAF (Cat 10.10a, HQ-AF, Oberflächenoptimierungen deaktiviert)
http://www.multiupload.com/JAZA8MNZ5Z

Danke, also Banding ist zu sehen, wenn auch durch das SSAA in abgeschwächter Form als es noch bei der HD5xx0 der Fall war.

Langenscheiss
2010-10-26, 19:21:08
Ich würde gerne alles erklären, aber Schreiben kann Leonidas besser. Außerdem gibt es schon einen Artikel über AF hier auf 3DCenter, der imo sehr gut ist.

Ich mein, ATI hat es zwar verbessert, aber WARUM ZUM TEUFEL HABEN SIE ES DANN NICHT AUF ALLEN AF-GRADEN VERBESSERT ?

Da geben sie es schon zu, und dann passiert sowas trotzdem nochmal..., das ist echt peinlich und IMO einen fetten Nachtrag im Artikel wert!
ATI hat es nämlich nur gerade so weit verbessert, dass man es im 3DCenter-Filtertester nicht mehr sehen kann, weil in diesem Programm ein deutlicher höherer AF-Grad als Minimum angesetzt wird. Auf den höheren AF-Graden ist es ja perfekt, wie die Bilder zeigen, aber die wirklich entscheidenden Bereiche für Spiele haben sie offenbar fast vergessen.

Schlammsau
2010-10-26, 19:21:17
Stimmt, Banding ist vorhanden, wenn auch deutlich weniger als noch mit der HD5000 Serie.

Langenscheiss
2010-10-26, 19:27:10
Die Tatsache, dass es überhaupt vorhanden ist, ist nach der Vorgeschichte schon schlimm genug.

Mr. Lolman
2010-10-26, 19:31:32
Aha und wie soll das gehen? Ich hätte die Textur gerne mal zur Untersuchung.

Die wird zur Laufzeit generiert. Eine 512x512 Pixel große Textur die ein Schachbrettmuster mit den Abmessungen (2^Checkerboardtextursetting+1)^2 beinhaltet. In dem Fall wurde wohl Checkerboard 3 verwendet. Das Schachbrettpattern ist also 16x16 Pixel groß.

Anbei hab ich die Textur mit einem 8x8 Pattern nachgebastelt, da man bei deinem Filtertester damit das Banding besser sieht. (Demirugs Tool verwendet anscheinend ein anderes FOV)

Übrigens ist der "Filterkernel" normales Bilinear wie bei jeder GPU seit der Voodoo 1.

Vielleicht merkt der Algorithmus, das die zu sampelnden Texel zu klein wären und bezieht deswegen Nachbartexel mitein?



Ist es nicht. Das bildest du dir nur ein, weil bei AMD durch die Unterfilterung das Bild "schärfer" aussieht. Das erzähl ich dir aber auch schon zum hundersten Mal.

Sooo stark unterfiltern die nicht, dass die Schärfe bei den Guru3d Screenshots nur dadurch zustande kommt. Sonst würde man ähnliche unterschiede auch bei den AF-Testern feststellen können. Schau dir mal zB das Battlfield gif an.


Überhaupt lege ich dir echt mal dringend ans Herz dir genau anzuschauen wie das LOD überhaupt berechnet wird. Dann können wir auch mal vernünftig diskutieren.

Och Menno. LOD meinte ich in dem Fall im übertragenen Sinn, nämlich in Form von Detailgrad.

Schlammsau
2010-10-26, 19:36:12
Danke, also Banding ist zu sehen, wenn auch durch das SSAA in abgeschwächter Form als es noch bei der HD5xx0 der Fall war.

Das stimmt so nicht, auch das alte Video von mir war mit SSAA, und dort war das Banding wesentlich deutlicher zu sehen!

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8286560#post8286560
TMNF, 1920x1080, 8xSGSSAA, Ingame 16xAF (Cat 10.9, A.I. Default)
http://www.multiupload.com/NCTE94EO2Z

Blaire
2010-10-26, 19:37:13
Die Tatsache, dass es überhaupt vorhanden ist, ist nach der Vorgeschichte schon schlimm genug.

Dann ist auch das Hardwarebug Argument kaum mehr haltbar, ich glaube die wissen ganz genau was sie da machen.

Eggcake
2010-10-26, 19:37:46
Die Tatsache, dass es überhaupt vorhanden ist, ist nach der Vorgeschichte schon schlimm genug.

Aber wirklich...nach den Folien hätte ich nun wirklich nicht mehr mit Banding gerechnet...schon ziemlich frech das zuerst als "Feature" anzupreisen, obwohl es eher unter "Bug" fällt - und es dann nicht mal funktioniert :ugly:

deekey777
2010-10-26, 19:37:52
Versucht hier eine Person andere zu überzeugen, dass es kein Banding-Problem bei der HD5000-Serie gibt?

Langenscheiss
2010-10-26, 19:41:17
Dann ist auch das Hardwarebug Argument kaum mehr haltbar, ich glaube die wissen ganz genau was sie da machen.

Die wissen was sie machen, aber es ist trotzdem n Hardware-Geschichte. Die HW entscheidet, wie wo mit welchem Kernel AF angesetzt wird, bzw. wie der Blend zwischen den einzelnen Af-Graden funktioniert (von außen kann man das nur über die Optimierungen geringfügig verschieben) Für höhere level haben sie es gefixed, für die unteren nicht, vermutlich, weil sie dachten, dass es auf diesem Level sowieso nicht auffällt. Dabei sind genau die Level das Problem, lol. Ich sag nur: FAIL.

@deekey
Ich weiß nicht, wie du das meinst, aber das einzige, wovon hier Leute überzeugt werden sollen, ist, dass das banding auf HD6K zwar nicht mehr so stark ist, wie bei der HD5K, aber es dennoch auftritt, und man sieht auch genau, warum das noch so ist.

Gestrandet
2010-10-26, 19:41:24
Was ATI sich mit diesem Launch geleistet hat, ist wirklich nicht mehr feierlich. Merkwürdige Namensgebung, merkwürdige Pressesamples, merkwürdiger Flimmer- und Banding-Pfusch ...
Man bekommt ein bisschen das Gefühl, da sind ein paar Leute unglücklich, dass sie nicht mehr ATI heißen dürfen (was ich gut verstehen könnte).

Schlammsau
2010-10-26, 19:45:29
Die wissen was sie machen, aber es ist trotzdem n Hardware-Geschichte. Die HW entscheidet, wie wo mit welchem Kernel AF angesetzt wird, bzw. wie der Blend zwischen den einzelnen Af-Graden funktioniert (von außen kann man das nur über die Optimierungen geringfügig verschieben) Für höhere level haben sie es gefixed, für die unteren nicht, vermutlich, weil sie dachten, dass es auf diesem Level sowieso nicht auffällt. Dabei sind genau die Level das Problem, lol. Ich sag nur: FAIL.

@deekey
Ich weiß nicht, wie du das meinst, aber das einzige, wovon hier Leute überzeugt werden sollen, ist, dass das banding auf HD6K zwar nicht mehr so stark ist, wie bei der HD5K, aber es dennoch auftritt, und man sieht auch genau, warum das noch so ist.

Dann packt das in den Artikel!

Langenscheiss
2010-10-26, 19:46:08
Ich hab schon die PM an Leonidas geschrieben!

Langenscheiss
2010-10-26, 20:02:23
Für alle, die nochmal genau wissen wollen, wie genau der AF-Grad berechnet wird, kann ich noch den Technologie-Beitrag von Coda empfehlen. Und wie Coda es schon sagt, Performance sparen kann man, indem man sich nicht an den AF-Grad hält, der sich aus der korrekten Berechnung ergibt. Deswegen gibt es ja soviele Unterschiedliche Bilder bei den Texel-Analysen. Allerdings müssen die MAX-Werte aus dem Analysator dann wohl jeweils um 1 korrigiert werden, denn da kommen ja offenbar immer ungerade Werte vor, obwohl es nur gerade sein können.

Es wäre übrigens wünschenswert, das ganze hier nicht in eine Fanboy-Diskussion mit Sticheleien ausarten zu lassen...

Schlammsau
2010-10-26, 20:14:45
Ich hab die Videos mal in dem anderen Thread gepostet.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8350779#post8350779

puntarenas
2010-10-26, 20:19:35
Dieser Thread hier ist gegenwärtig sehr sachlich und konstruktivg gehalten. Damit das auch so bleiben kann erlaube ich mir, allzu zugespitzte, persönliche Wertungen auf die Spielwiese auszulagern:
AMD/ATI - Qualität des AF auf Radeon HD 6800- Zugespitztes und Abgeflachtes (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494478)

Beschwerden bitte im Kontaktforum oder per PN an mich!

Schlammsau
2010-10-26, 20:27:19
Ich habe jetzt mal mit Q gegengetestet...keine Veränderung, das gleiche Banding wie mit HQ!

Komische Geschichte!

Langenscheiss
2010-10-26, 20:31:47
Warum komisch? Du hast doch gesehen, dass Q zumindest auf der HD5K (und nach den shots von fizzo auch auf HD6K) nur die Anzahl der genutzten Samples bzw. die verwendeten AF-Level auf größere Texturverzerrungen verschiebt (ich sage jetzt bewusst samples bzw. level, weil der AF-Grad im eigentlichen wörtlichen Sinne, wie ich ja im Beitrag von Coda gelernt habe, fix ist). Das ist eine simple Optimierung, hat aber nichts mit dem eigentlichen Problem zu tun, was bei den geringen AF-Graden nach wie vor darin besteht, dass kein Blend zwischen den ATI-eigenen "Optimierungs"-Stufen besteht.

Der Punkt ist, dass ATI als auch NV wohl grundsätzlich etwas weniger sampled, als der AF-Grad es mathematisch vorschreibt, um die Bedingungen einzuhalten. Dabei haben sie intern ein Verfahren entwickelt, wie man diese Optimierung möglichst geschickt macht. Das wird dann von der Hardware entschieden, von außen kann man nur durch Max AF und wohlmöglich ein paar kleinen Reglern eingreifen. Nur leider geht im Optimierungs-Algo irgendwas schief, sodass der Algorithmus plötzlich denkt "oh, hier darf ich nicht mehr optimieren, bitte die Sample-Zahl sofort erhöhen" => banding!

Schlammsau
2010-10-26, 20:33:04
Komisch deshalb, weil laut AMD, dass Problem ja gefixt sein soll.
Sie haben es aber nur verbessert und nicht gefixt!

Nicht gut!

LovesuckZ
2010-10-26, 20:34:00
Tritt das Bandingproblem auch auf vorigen GPUs von AMD auf?

Gipsel
2010-10-26, 20:37:56
Für alle, die nochmal genau wissen wollen, wie genau der AF-Grad berechnet wird, kann ich noch den Technologie-Beitrag von Coda empfehlen. Und wie Coda es schon sagt, Performance sparen kann man, indem man sich nicht an den AF-Grad hält, der sich aus der korrekten Berechnung ergibt. Deswegen gibt es ja soviele Unterschiedliche Bilder bei den Texel-Analysen.
[..]
Es wäre übrigens wünschenswert, das ganze hier nicht in eine Fanboy-Diskussion mit Sticheleien ausarten zu lassen...
Bezugnehmend auf den letzten Satz ignoriere ich das Trollen von LS mal (okay, eine Frage muß erlaubt sein: LS, wann habe ich hier überhaupt schon mal was geschrieben?) und versuche etwas zum Thema beizutragen.

Mir ist klar, daß es praktisch ein Lehrbuchverfahren gibt, wie AF und die Auswahl der Samples unter Ausnutzung der bilinearen Hardware (Grundlage sind immer 4 benachbarte Samples aus den Mipmaps) passieren sollte. Was mir aber auch klar ist, ist daß dieses Verfahren den "Footprint" eines Pixels im Texelspace keineswegs korrekt abbildet und dabei generell tendenziell überfiltert, sprich etwas blurrt. Es ist definitiv nicht das Maximum an Information, was man mit einem perfekten Resampling vom Texelspace in Pixelspace darstellen könnte. Allerdings hilft diese Wahl dabei, das Flimmern zu verringern.

Um es kurz zu machen, welche Kriterien würde man dann an den "perfekten" AF-Filter stellen? "Perfektes" Sampling mit Maximierung der im einzelnen Bild enthaltenen Information (sozusagen infinite Sample Supersampling komplett ohne MipMaps) führt zwar zur maximal darstellbaren Schärfe in einem Screenshot, aber auch zu einem nicht akzeptablen Flimmern (praktisch ein temporales Moire-Muster zwischen Texel- und Pixel-Grid). Hält man sich sklavisch an Nyquist-Shannon, wird das Flimmern zwar unterdrückt (es wird deutlich kleiner, weg ist es auch noch nicht ganz), kann man keine Strukturen mehr darstellen, die kleiner als 2 Pixel sind, man verliert also deutlich an Schärfe. In welche Richtung dreht man am besten die Schrauben, um den besten Kompromiß zu finden? Die Frage geht an die Experten hier natürlich.

PS:
Habe vorher hier nach einem Thread zu diesem Thema im Technologie-Unterforum gesucht, allerdings nichts gefunden (habe mir aber nur das letzte Jahr angesehen).

Langenscheiss
2010-10-26, 20:38:02
@LS
Theoretisch ja, auf HD4K, aber nur sehr sehr begrenzt, und wohl nicht in Spielen. Längst nicht so stark, wie bei HD5K und HD6K.
@Gipsel
Klingt für mich wie n Frage an die Theoretiker. Wie man es im Detail macht, da bin ich überfragt...
Zunächst mal jedoch sollten sie dafür sorgen, dass bei deren interner Abweichung vom Lehrbuchverfahren zwecks Optimierung keine Artefakte wie das banding entstehen.

LovesuckZ
2010-10-26, 20:39:41
@LS
Theoretisch ja, auf HD4K, aber nur sehr sehr begrenzt, und wohl nicht in Spielen. Längst nicht so stark, wie bei HD5K und HD6K.

Hat denn jemand schonmal die Stellen in den Spielen nachgestellt? Ich seh nur immer Bilder und Videos von Evergreen-GPUs.

pest
2010-10-26, 20:39:50
@schlammsau

hast du jetzt ne HD6xxx ?

Schlammsau
2010-10-26, 20:40:47
@schlammsau

hast du jetzt ne HD6xxx ?

Ja!

Langenscheiss
2010-10-26, 20:43:26
Hat denn jemand schonmal die Stellen in den Spielen nachgestellt? Ich seh nur immer Bilder und Videos von Evergreen-GPUs.

Es gibt wohl kein bekanntes Spiel, wo es sichtbar wird. Man muss sogar im AFTester genauer hinschauen, um es zu sehen. Deswegen theoretisch.

@schlammsau:
Ich hoffe nur, dass du die Karte nicht wegen des bandings auf Cypress gekauft hast :(