PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Qualität des AF auf Radeon HD 6800


Seiten : 1 2 3 4 [5]

y33H@
2010-12-05, 19:02:22
Wie soll man das [HQ sei HW-Filterung] nachweisen? Das weiß nur AMD. Ob tri oder bi, sollte sich prüfen lassen, NV filtert iirc nur bei HQ durchgehend tri.

fondness
2010-12-05, 19:06:06
Wie soll man das [HQ sei HW-Filterung] nachweisen? Das weiß nur AMD. Ob tri oder bi, sollte sich prüfen lassen, NV filtert iirc nur bei HQ durchgehend tri.

Das mit der Hardware-Filterung kann man natürlich nicht voll überprüfen. Aber man kann sehr wohl überprüfen ob das stimmen kann. Nämlich indem man verifiziert ob so kleine Schweinereien wie eben bri-Filterung, Stageoptimierungen, LoD-Verschiebungen, etc. nicht vorkommen. Denn sowas ist mit Sicherheit nicht in Hardware gegossen. ;)

Wenn das der Fall ist sollte man das auch berücksichtigen, denn NV_Q verursacht definitiv eine ordentliche Bugwelle.

y33H@
2010-12-05, 19:16:22
LoD und bi/tri sollte man entdecken, ja. Wo wir aber gerade bei Schweinereien sind - das wäre auch tierischer Aufwand. Man kann eben nur schlecht vergleichen ... es bandet, es flimmert, es matscht und es gibt andere Winkel. Vll gibt's mit DX12 ja eine AF-Richtlinie, beim SGMSAA fordert es ja seit DX10 die App an und da geben sich AMD wie NV praktisch nichts. Einheitliche BQ, ein Traum ...

Privat zocke ich auf der Geforce eh nur HQ und alle Optimierungen aus, habe eben mal default geladen und mich in Crysis über das Banding "gefreut". Wenn ich nun dran denke, was Cypress fabriziert hat *würg* Dann doch lieber etwas mehr flimmern bei Barts :usad:

fondness
2010-12-05, 19:26:10
LoD und bi/tri sollte man entdecken, ja. Wo wir aber gerade bei Schweinereien sind - das wäre auch tierischer Aufwand. Man kann eben nur schlecht vergleichen ... es bandet, es flimmert, es matscht und es gibt andere Winkel. Vll gibt's mit DX12 ja eine AF-Richtlinie, beim SGMSAA fordert es ja seit DX10 die App an und da geben sich AMD wie NV praktisch nichts. Einheitliche BQ, ein Traum ...

Privat zocke ich auf der Geforce eh nur HQ und alle Optimierungen aus, habe eben mal default geladen und mich in Crysis über das Banding "gefreut". Wenn ich nun dran denke, was Cypress fabriziert hat *würg* Dann doch lieber etwas mehr flimmern bei Barts :usad:

Der Aufwand wäre beachtlich, keine Frage. Aber das ist eben das was ich schon länger kritisiere: Bei allem nötigen Respekt für eure aufwändigen AF-Vergleiche (das ist auch der Grund warum ich nach wie vor ein Abo habe), ihr achtet IMO eben nur aufs flimmern und das ist zu wenig. Besonders wenn man dann auf der anderen Seite bri gegen tri vergleicht, denn dadurch spart man deutlich mehr Fillrate.

y33H@
2010-12-05, 19:58:01
Da Barts (und vermutlich Cayman) kaum noch banden, müsste man nun NV bei Q auf die Finger klopfen - nur gibt's da seit Jahren eben HQ, was trilinear filtert und nicht flimmert. An HQ gibt's halt an sich nichts zu meckern.

LovesuckZ
2010-12-05, 20:10:39
LoD und bi/tri sollte man entdecken, ja. Wo wir aber gerade bei Schweinereien sind - das wäre auch tierischer Aufwand. Man kann eben nur schlecht vergleichen ... es bandet, es flimmert, es matscht und es gibt andere Winkel. Vll gibt's mit DX12 ja eine AF-Richtlinie, beim SGMSAA fordert es ja seit DX10 die App an und da geben sich AMD wie NV praktisch nichts. Einheitliche BQ, ein Traum ...


Es gibt kein SGMSAA Zwang ab DX10.1. Man muss nur MSAA mit 4 Samples unterstützen.

y33H@
2010-12-05, 20:14:45
Ich meinte das eher so, dass die App das AA anfordern muss - das kann man ja ausbauen und Richtlinien setzen. Das AA muss dieses und jenes Grid haben, so und so viele Samples usw. und für's AF das gleiche.

fondness
2010-12-05, 20:18:12
Da Barts (und vermutlich Cayman) kaum noch banden, müsste man nun NV bei Q auf die Finger klopfen - nur gibt's da seit Jahren eben HQ, was trilinear filtert und nicht flimmert. An HQ gibt's halt an sich nichts zu meckern.

Warum so kompliziert? Man braucht ja nur die Trilineare-Optimierung bei Q ausschalten.

LovesuckZ
2010-12-05, 20:20:59
Ich meinte das eher so, dass die App das AA anfordern muss - das kann man ja ausbauen und Richtlinien setzen. Das AA muss dieses und jenes Grid haben, so und so viele Samples usw. und für's AF das gleiche.

App-AF ist immer schlechter als Treiber-AF. Nein danke.
MS wird maximal den AF-Grad fordern. Aber keine Art wie gesamplet und wie verteilt wird.

y33H@
2010-12-05, 20:21:04
@ fondness

Schon klar - aber dann kann ich auch den Rest gleich killen. Als Vergleich natürlich praktisch, da man mit dem Schalter problemlos das Banding prüfen kann.
App-AF ist immer schlechter als Treiber-AF. Nein danke. Na na, wir wollen mal nicht gleich die Pauschalitäts-Keule schwingen, LZ. Raff hat vor einiger Zeit mal verglichen - manche Devs sparen sichtbar, manche praktisch unsichtbar, manche gar nicht.

LovesuckZ
2010-12-05, 20:23:45
Na na, wir wollen mal nicht gleich die Pauschalitäts-Keule schwingen, LZ. Raff hat vor einiger Zeit mal verglichen - manche Devs sparen sichtbar, manche praktisch unsichtbar, manche gar nicht.

Ja. Ganz toll. Und wenn ein Dev spart, dann wäre man am Arsch. :freak:

y33H@
2010-12-05, 20:26:54
Zumindest wäre man dann bei AMD und NV am Arsch und der "Schuldige" ist der Dev :ulol: So flamt sich's leichter *SCNR*

airbag
2010-12-05, 20:26:54
I Das AA muss dieses und jenes Grid haben, so und so viele Samples usw. und für's AF das gleiche.

Beim AA sehe ich da weniger Notwendigkeiten, weil AA bei der Sampleanzahl nicht adaptiv wirkt und es kaum noch Differenzen gibt. Unteranderem liegt es ja auch daran, dass sich gewisse Masken als effektiv herausgestellt haben und es in dem Sinne vorerst auch keine Verbesserung geben wird. Höchstens unterscheiden sich ein paar Winkel, was optisch zu vernachlässigen ist, weil du ja auch selber gesagt hast, dass man die UNterschiede zwischen NV 4*RGMSAA und AMD 4*RGMSAA nicht sieht

y33H@
2010-12-05, 20:31:18
Nicht sehen sagte ich nicht. Es gibt Unterschiede, denn die Masken sind nicht identisch - aber praktisch ist's egal.

Tesseract
2010-12-05, 20:44:51
Höchstens unterscheiden sich ein paar Winkel, was optisch zu vernachlässigen ist, weil du ja auch selber gesagt hast, dass man die UNterschiede zwischen NV 4*RGMSAA und AMD 4*RGMSAA nicht sieht

man sieht die unterschiede, nämlich dann wenn man bei nvidia die gamma"korrektur" ausschaltet die bei jedem monitor den ich bis jetzt gesehen habe schlechtere ergebnisse produziert als normales gamma. das kann in extremfällen bei hohem kantenkontrast dazu führen, dass selbst 2xRG ohne korrektur nicht schlechter aussieht als 8xSG mit.
ich frag mich bis heute für was dieser unsinn da ist.

rein von der maske her sind die modi von nv und ati im schnitt aber gleichwertig.

Coda
2010-12-05, 22:11:46
Der Gamma-Korrektur-Schalter betrifft doch ohnehin nur OpenGL. Das ist in D3D immer an.

Banshee18
2010-12-05, 22:26:11
Tja, vor knapp 5 Jahren fand es Mr.Lolman (http://alt.3dcenter.org/artikel/neue_filtertricks/index3.php) ziemlich doof, heute denkt er nichtmal daran einen gleichwertigen Artikel auf dieser Seite zu schreiben. Da sieht man mal, dass Kritik von einigen nichts ist außer FUD.
Mr.Lolman hat ja schon länger nichts mehr geschrieben. Ich denke, dass das einfach ein Zeitproblem ist, da brauchst du nichts reininterpretieren.
Schreib doch du einen Artikel. Wenn er ausführlich, hochwertig und sachlich ist, bin ich mir sicher, dass Leo ihn gerne veröffentlicht.

Und das wird hier in den News geschrieben:


Und da wundern sich die Leute noch, warum Spiele heute so toll flimmern. Es ist ja kein "genereller Beinbruch".
Kritik kannst du im Thread zu den entsprechenden News äußern. Wenn sie sachlich ist und du nicht so eine Show wie andernorts abziehst, diskutiert Leo bestimmt gerne mit dir.

Langenscheiss
2010-12-06, 00:28:25
Wie soll man das [HQ sei HW-Filterung] nachweisen? Das weiß nur AMD. Ob tri oder bi, sollte sich prüfen lassen, NV filtert iirc nur bei HQ durchgehend tri.

AMD HQ ist mit sehr hoher Wahrscheinlichkeit full trilinear. Im D3D-AF-Test ist das definitiv so, aber nun hat Nvidia ja behauptet, AMD würde bei dieser Fenstergröße nicht cheaten. Vergleicht man jedoch den Tunnel vom D3D-Test mit dem 3DCenter Test, insbesondere in Hinblick auf die bi-Bänder, so scheint es so, als sei HQ tatsächlich immer trilinear. Aber nur um das nochmal klarzustellen, auch wenn die meisten das wohl wissen:
Immer trilinear heißt nicht, dass jeder Pixel des Bildes aus einer trilinearen Abtastung resultiert. Unter einer gewissen, außreichend geringen Texturverzerrung wird nur noch von der ursprünglichen Textur (also keiner verkleinerten Mipmap) gesampled, d.h. die Mip-Interpolation wird unterhalb einer Schwelle sinnvollerweise nicht mehr betrieben. Das gleiche gilt für die Bi-Bänder, die unter "full trilinear" nur ein paar Pixel breit sind (oft wohl nur 1 bis 2 Pixel). Das ist aber unabhängig vom Hersteller immer so.

Coda
2010-12-06, 00:46:17
Klarstellung:

In der Magnification filtert man immer bilinear (d.h. die Texel der größten Mip sind projeziert "größer als zwei Pixel"), ansonsten kann man sich wohl ein sehr dünnes Bi-Band leisten (minimale brilineare Filterung).

Unter einer gewissen, außreichend geringen Texturverzerrung wird nur noch von der ursprünglichen Textur (also keiner verkleinerten Mipmap) gesampled
Mit der Verzerrung hat das nichts zu tun. Die Aussage ist so falsch. Es kommt auf die Größe des Footprints an.

Vermutlich verwechselst du das damit, dass bei ausreichend niedriger Verzerrung nicht mehr anisotrop gefiltert wird, weil der Footprint praktisch nicht mehr verzerrt ist.

Langenscheiss
2010-12-06, 02:10:22
Klarstellung:
...
Mit der Verzerrung hat das nichts zu tun. Die Aussage ist so falsch. Es kommt auf die Größe des Footprints an.

Vermutlich verwechselst du das damit, dass bei ausreichend niedriger Verzerrung nicht mehr anisotrop gefiltert wird, weil der Footprint praktisch nicht mehr verzerrt ist.

Okay, beim Schwellenkriterium hab ich jetzt wohl was durcheinander geschmissen. Danke für die Richtigstellung.
Aber mir ging es auch nur darum, dass nicht plötzlich jemand kommt und sagt "dass ist nicht full trilinear, weil der und der Pixel nicht trilinear gesampled wurde". Dazu gehört dann logischerweise auch der Magnification-Fall.

Coda
2010-12-06, 02:39:25
Das wäre ja auch gar nicht unterscheidbar.

Selbst wenn man zweimal aus der größten Mip sampled und das verrechnet, würde immer das Gleiche rauskommen im Magnification-Fall als würde man nur einmal sampled :)

Kann durchaus sein, dass manche Chips das früher gemacht haben um die Logik zu vereinfachen. Die LOD-Kalkulation gibt dann für beide Samples einfach gleiche Mip aus.

Cyphermaster
2010-12-06, 11:01:54
Schreib doch du einen Artikel.Das kann ich nur unterstützen.

Raff
2010-12-06, 12:09:19
Der Aufwand wäre beachtlich, keine Frage. Aber das ist eben das was ich schon länger kritisiere: Bei allem nötigen Respekt für eure aufwändigen AF-Vergleiche (das ist auch der Grund warum ich nach wie vor ein Abo habe), ihr achtet IMO eben nur aufs flimmern und das ist zu wenig. Besonders wenn man dann auf der anderen Seite bri gegen tri vergleicht, denn dadurch spart man deutlich mehr Fillrate.

PCGH achtet nicht nur aufs Flimmern. Bester Beweis: die Kritik am Banding. Es wird kritisiert, was immer ins Auge sticht. Und Nvidias Bri-Gefrickel ist im Vergleich mit AMDs HD-6800-Flimmerband ziemlich harmlos.

MfG,
Raff

Schlammsau
2010-12-06, 12:09:41
Puhh.....der würde aber dann etwas einseitig aussehen. :rolleyes:

Dr. Cox
2010-12-06, 12:36:55
HQ ist HW-Filtering ;( Und für Cayman gelte es auch ... tja ...

http://ht4u.net/news/23043_amd_gibt_exklusive_telefonkonferenz_zur_diskussion_der_bildqualitaet_fuer_ deutsche_medien/


Tja, das heißt dann wohl, dass Cayman auch so eine Krüppel-GPU wird wie Barts, echt toll AMD :uclap:

Spätestens jetzt nach diesem "Statement" von AMD sollte auch der letzte DAU wissen, woher bzw. wodurch bei AMD-Karten die "Effektivität" der GPUs herkommt.

Wenn bei einer GPU schon von Anfang an Transistoren bei den TMUs eingespart werden um Rechenzeit und Transistoren bzw. Die-Größe einzusparen, würde ich nicht mehr von einem effektivem Chip-Design sprechen, sondern von einer riesigen Kunden-Verarsche!

Sollte AMD nach Cayman tatsächlich wieder willens sein vernünftige TMUs zu verbauen, werden AMD-Karten auch wieder eine genau so hohe - eventuell sogar höhere - TDP haben wie gleich schnelle Nvidia-Karten. Den Vorteil den AMD derzeit durch das Einsparen von Transistoren an den TMUs erschlichen hat fällt dann nämlich weg.

Schlussendlich kann man damit - unabhängig davon was uns die Pressestelle von AMD weiß machen will - sagen, dass AMD bewusst und direkt "gecheatet" hat!

Mir war das schon seit meiner HD 4870 im Jahre 2008 klar, nichts desto trotz ist dies der letzte Beweis für diese schändliche "Schummelei" die AMD schon ungestraft seit dem R600 druchzieht. Damit ist Cayman für mich erst einmal gestorben, genauso wie meine Hoffnung darin, dass AMD irgendwann einmal zu seinen Fehlern steht und diese endlich berichtigt...


PS: Sorry, für meine Emotionen die in diesem Post enthalten sind, aber ich kann meine Empörung und Enttäuschung über AMDs Firmenpolitik einfach nicht zurückhalten...

Raff
2010-12-06, 12:40:22
AMD reagiert auf unsere Kritik, was man als "Eingeständnis" deuten könnte. Und dass Cayman nur Billig-AF beherrscht, ist noch nicht raus.

MfG,
Raff

fondness
2010-12-06, 12:46:27
Und Nvidias Bri-Gefrickel ist im Vergleich mit AMDs HD-6800-Flimmerband ziemlich harmlos.


Durch bi statt tri erhältst du eine satte Verdoppelung der Füllrate. Durch ein "Flimmerband" wo du Samples einsparst erreichst du sicherlich keine Verdoppelung der Füllrate.

Dr. Cox
2010-12-06, 12:46:59
AMD reagiert auf unsere Kritik, was man als "Eingeständnis" deuten könnte. Und dass Cayman nur Billig-AF beherrscht, ist noch nicht raus.


Aber AMD behauptet ja immer noch, dass ihre AF-Qualität gegenüber der Konkurrenz gleichwertig ist und dass man bei AMD mit der Qualität zufrieden sei.

Indirekt haben sie sich natürlich bereits eingestanden, dass man ihnen auf die Schliche gekommen ist, öffentlich hingegen reden sie immer noch alles schön.

Wenn Cayman tatsächlich nicht im letzten Moment überarbeitet wurden ist - was ich mir kaum vorstellen kann - dann wird Cayman die gleichen TMUs wie Barts haben. Wenn nun AMDs Aussage stimmt, dass HQ das "Beste" ist was Barts hardwareseitig zu bieten hat, dann wird es auch das "Beste" sein, dass Cayman zu bieten haben wird ;)

Raff
2010-12-06, 12:51:12
Durch bi statt tri erhältst du eine satte Verdoppelung der Füllrate. Durch ein "Flimmerband" wo du Samples einsparst erreichst du sicherlich keine Verdoppelung der Füllrate.

Das stimmt, aber darum geht's nur bedingt. Wenn das angeblich weniger "optimierte" Bild immer noch mehr flimmert als das "optimiertere", spielt die Fairness keine Rolle – denn das "optimiertere" Bild ist ja immer noch hübscher als das weniger "optimierte". ;)

MfG,
Raff

N0Thing
2010-12-06, 12:53:59
Eben. Ich denke das Problem beginnt eben dann, wenn Hersteller X und Y mit unterschiedlicher BQ verglichen werden. Weil solange dann nur nach Schw....Balkenlänge bewertet wird, bleibt dem Hersteller mit der besseren BQ eigentlich nichts anderes übrig, als ebenfalls die BQ zugunsten der Performance zu senken.

Und ich denke nicht, dass das in unserem allgemeinem Interesse ist.

Ja, da wird der Hersteller bestraft, der einen Mehrwert bietet. Vielleicht sollte Nvidia einen Benchmark-Modus anbieten, der exakt die Qualität von AMD erreicht. Dann können die Tester die Karten fair vergleichen und der unwissende Kunde bekommt bei Treiberstandard Q weiterhin eine bessere Bildqualität und kann mit HQ noch weiter verbessern.

Dr. Cox
2010-12-06, 13:09:34
Ja, da wird der Hersteller bestraft, der einen Mehrwert bietet. Vielleicht sollte Nvidia einen Benchmark-Modus anbieten, der exakt die Qualität von AMD erreicht. Dann können die Tester die Karten fair vergleichen und der unwissende Kunde bekommt bei Treiberstandard Q weiterhin eine bessere Bildqualität und kann mit HQ noch weiter verbessern.

Ja, es müsste im Geforce-Treiber unter "Textufilter" eine zusätzliche Option geben, die dann "AMD-Qualität" heißt :freak:
Und das ganze müsste dann so sortiert sein:

- AMD-Qualität
- Hohe Leistung
- Leistung
- Qualität
- Hohe Qualität

Und natürlich müsste "AMD-Qualität" standardmäßig aktiviert sein, damit einheitliche Bedingungen bei den Benchmarks herrschen ;)

N0Thing
2010-12-06, 13:20:53
Das würde nur zu Lasten des Kunden gehen. Die Modi "Hohe Leistung" und "Leistung" streichen, dafür einen Bench-Modus, der der BQ des AMD Standard entspricht und es würde klare Verhältnisse geben.
Wenn NV mit der Zeit gehen will, können sie ja noch einen Konsolen-Modus anbieten, der die Auflösung halbiert und dann das Bild hochskaliert. *scnr*

Dr. Cox
2010-12-06, 13:32:33
Wenn NV mit der Zeit gehen will, können sie ja noch einen Konsolen-Modus anbieten, der die Auflösung halbiert und dann das Bild hochskaliert. *scnr*

So etwas gab es ja in F.E.A.R. ;) :freak:

Langenscheiss
2010-12-06, 13:33:46
Mich würde jetzt mal interessieren, warum es jetzt plötzlich wieder so sonnenklar sein soll, dass es sich hier um einen absichtlichen cheat handelt, obwohl doch lang und breit darüber diskutiert wurde, dass es keines Falls sicher ist, dass AMD tatsächlich bewusst cheatet.
Flimmern ist da, das ist eindeutig, aber bereits das banding Problem hat gezeigt, dass AMD trotz aller Ressourcen und manpower, die sie haben, offenbar nicht richtig mit ihren Texturfiltern klar kommen. Man kann denen zwar viele böse Absichten unterstellen, aber das banding war mit 99.9999%iger Sicherheit keine bewusste Maßnahme, um Performance zu gewinnen. Warum sollte das Flimmern nicht auch ein solches Problem sein?
Sicher dürfen wir die Möglichkeit eines cheats nicht außer Acht lassen, aber es könnte genau so gut sein, dass deren sowieso schon recht schlampiger fix des bandings ein unabsichtiger Schuss nach hinten war. Die QA bei denen hat das banding nicht bemerkt (was schlimm genug ist), da wundert mich es nicht, dass denen das Flimmern auch nicht aufgefallen ist.
Ich kann es zwar genauso wenig beweisen, aber für mich ist das eher ein internes Problem bei AMD, als bewusste Kundenverarsche. Nur leider müssen es die Kunden ausbaden.

LovesuckZ
2010-12-06, 14:23:11
Es geht ja nicht ansich um das Flimmern. Das ist auch kein Cheat sondern nur Unfähigkeit auf Seiten von AMD. Das muss jedoch kritisiert werden.
Aber das Absenken der Default-Qualität nach Jahren der Stagnation ist ein eindeutiger Betrugsversuch gewesen. Es gab keinen Grund dazu. Man tat es einfach, um sich Leistung zu erschummeln, die im Grunde nicht vorhanden ist, weil man sonst noch schlechter zur Konkurrenz stünde.

Cyphermaster
2010-12-06, 14:52:36
Es geht ja nicht ansich um das Flimmern. Das ist auch kein Cheat sondern nur Unfähigkeit auf Seiten von AMD. Das muss jedoch kritisiert werden.
Aber das Absenken der Default-Qualität nach Jahren der Stagnation ist ein eindeutiger Betrugsversuch gewesen. Es gab keinen Grund dazu. Man tat es einfach, um sich Leistung zu erschummeln, die im Grunde nicht vorhanden ist, weil man sonst noch schlechter zur Konkurrenz stünde.Betrug wäre es nur, wenn es ein Referenz-Bildqualitätsniveau gäbe, das garantiert wird. Oder ein Committment, daß man irgendwelche Referenz-Niveaus für Tests beläßt, ähnlich wie der Normverbrauch beim Auto. Gibt es aber nicht.

LovesuckZ
2010-12-06, 15:09:59
"Betrug" ist das Vortäuschen von falschen Tatsachen, um einen Vorteil zu erhalten.
Da benötigt es keine Referenz. Alleine das nicht kommunizieren der Absenkung der Default-Qualität ist ein Betrug gewesen, weil damit Leistung(ssteigerung) suggeriert wurde, die nicht auf normalen Wege erreicht wird.

N0Thing
2010-12-06, 15:19:09
@Cyphermaster:

Den Treiberstandard passend zum Release einer neuen Generation abzusenken und sich zufälligerweise dadurch knapp vor, oder auf gleicher Höhe mit der Konkurrenz zu plazieren, finde ich moralisch angreifbar.

fondness
2010-12-06, 15:22:42
Das stimmt, aber darum geht's nur bedingt. Wenn das angeblich weniger "optimierte" Bild immer noch mehr flimmert als das "optimiertere", spielt die Fairness keine Rolle – denn das "optimiertere" Bild ist ja immer noch hübscher als das weniger "optimierte". ;)

MfG,
Raff

Das ist nur subjektiv ob einem Flimmern mehr stört als ein bi Band. Wer schon gesagt, du argumentierst nur anhand des "Flimmergrades". ;)

Raff
2010-12-06, 15:32:00
Das ist nur subjektiv ob einem Flimmern mehr stört als ein bi Band. Wer schon gesagt, du argumentierst nur anhand des "Flimmergrades". ;)

Natürlich, denn sonst gibt's am AMD-AF nichts auszusetzen. Es ist "nur" das Flimmern (welches den kompletten Eindruck versaut). ;) Die von vielen so geliebte Bildschärfe ist direkt damit verzahnt.

MfG,
Raff

Cyphermaster
2010-12-06, 15:39:40
"Betrug" ist das Vortäuschen von falschen Tatsachen, um einen Vorteil zu erhalten.
Da benötigt es keine Referenz. Alleine das nicht kommunizieren der Absenkung der Default-Qualität ist ein Betrug gewesen, weil damit Leistung(ssteigerung) suggeriert wurde, die nicht auf normalen Wege erreicht wird.
@Cyphermaster:

Den Treiberstandard passend zum Release einer neuen Generation abzusenken und sich zufälligerweise dadurch knapp vor, oder auf gleicher Höhe mit der Konkurrenz zu plazieren, finde ich moralisch angreifbar.Wenn eine neue Version des "Golf" rauskommt, und die Verarbeitung (z.B. um den Preis um 5% -und damit unter den Preis der Konkurrenz- zu senken, sprich "Performancevorteile" zu haben) nicht exakt so gut ist, wie die des Vorgängers, ist das dann auch schon Betrug? Betrug ist es, wenn zugesicherte Dinge nicht eingehalten werden; nicht automatisch das, was der Kunde erwartet.

Daß eine Verleitung des Kunden zu so einem Fehlschluß nicht grade besonders userfreundlich ist, ist zwar klar, aber es hat eine andere Qualität als Betrug.

LovesuckZ
2010-12-06, 15:46:40
Betrug ist es, wenn zugesicherte Dinge nicht eingehalten werden; nicht automatisch das, was der Kunde erwartet.


Nö, leider falsch.

Cyphermaster
2010-12-06, 15:57:00
Dann bitte belege, wo AMD den Kunden damit bewußt irreführt bzw. Tatsachen vorspiegelt, und zwar in einer Art, daß ihm materieller Schaden entsteht. Betrug ist kein Begriff, den man leichtfertig verwenden sollte, sondern ein Straftatbestand.

fondness
2010-12-06, 16:02:22
Natürlich, denn sonst gibt's am AMD-AF nichts auszusetzen. Es ist "nur" das Flimmern (welches den kompletten Eindruck versaut). ;)

Es geht aber auch um den Vergleich mit der Konkurrenz, und da gibt es eben sehrwohl auch anderen Kriterien.


Die von vielen so geliebte Bildschärfe ist direkt damit verzahnt.

MfG,
Raff

Mehr Schärfe erhältst du durch bi statt tri, nicht durch eingesparte Samples.

Coda
2010-12-06, 16:08:42
Durch bi statt tri erhältst du eine satte Verdoppelung der Füllrate. Durch ein "Flimmerband" wo du Samples einsparst erreichst du sicherlich keine Verdoppelung der Füllrate.
Uh, da wäre ich meinen eigenen Experimenten nach vorsichtig.

LovesuckZ
2010-12-06, 16:08:44
Dann bitte belege, wo AMD den Kunden damit bewußt irreführt bzw. Tatsachen vorspiegelt, und zwar in einer Art, daß ihm materieller Schaden entsteht. Betrug ist kein Begriff, den man leichtfertig verwenden sollte, sondern ein Straftatbestand.

Ich rede nicht vom "Betrug" nach strafrechtlicher Bedeutung, sondern einzig umgangsprachlich in moralischer Form. Dann ersetze es doch einfach durch "cheat", "schummeln" oder "betrügen".

Und wenn du gerne einen Beleg dafür haben willst:
AMD suggerierte den anwesenden Journalisten auf dem Pressevent, dass sie die Qualität gegenüber Evergreen durch Beseitigung des Banding-Problem verbessert hätten (Quelle: Tridam, Pressefolien). Deutsche Seiten fanden heraus, dass jedoch einerseits eine Verschlechterung der Default-Qualität stattfand (die zuerst offiziell nur bei Barts vorkam und nach dem Fall des NDA für Evergreen durchgeführt wurde) und andererseits auch die Flimmerproblematik wieder deutlich zunahm. Selbst die suggerierte Verbesserung tritt nur zum Teil ein. Andere Journalisten vertrauten dem Wort von AMD und machten keine Nachforschungen, wodurch nicht die Wahrheit kommuniziert wurde. Dadurch gewann AMD ca. durchschnittlich 6% an Leistung, die nicht real sind. Die entstandenen Werte ließen dadurch einen größeren Vorsprung gegenüber der Konkurrenz zu, wodurch einige Leute die Karten als besser empfunden haben und ihre Kaufentscheidung trafen. Die Werte mit der schlechteren Default-Qualität gegenüber Cypress und nVidia stehen nun im Web und werden von den Seiten auch nicht entsprechend angepasst.

Lass also deine Arroganz im Kontaktforum und erkundige dich erstmal, wie der Sachverhalt aussieht.

Blaire
2010-12-06, 16:10:21
Natürlich, denn sonst gibt's am AMD-AF nichts auszusetzen. Es ist "nur" das Flimmern (welches den kompletten Eindruck versaut). ;) Die von vielen so geliebte Bildschärfe ist direkt damit verzahnt.


Banding ist doch noch vorhanden, das ist doch Makel genug oder nicht?

Coda
2010-12-06, 16:10:50
Wenn bei einer GPU schon von Anfang an Transistoren bei den TMUs eingespart werden um Rechenzeit und Transistoren bzw. Die-Größe einzusparen, würde ich nicht mehr von einem effektivem Chip-Design sprechen, sondern von einer riesigen Kunden-Verarsche!
Ich glaube nicht, dass das Absicht ist und denke auch nicht, dass da groß Die-Space gespart wird.

Die Gradientenrechnung bei AMD braucht sicher schon deutlich mehr Transistoren als bei NVIDIA und auch die Samplepositionen werden genauer bestimmt.

Das passt nicht zusammen. Wenn überhaupt dann wird schlicht Füllrate eingespart.

LovesuckZ
2010-12-06, 16:12:12
Es geht aber auch um den Vergleich mit der Konkurrenz, und da gibt es eben sehrwohl auch anderen Kriterien.

Ja, der Output. :freak:
Aber der interessiert ja anscheinend nicht in einem BILDQUALITÄTsvergleich.

Und vielleicht ist es nicht angekommen: AMD hat in jedem Modus ein Flimmer-BANDING Problem, dass deutlich auffälliger ist als das Bri-Banding bei Q.

fondness
2010-12-06, 16:14:08
Ja, der Output. :freak:
Aber der interessiert ja anscheinend nicht in einem BILDQUALITÄTsvergleich.

Und wer bestimmt ob weniger flimmern besser ist als bri statt tri? Du?

Coda
2010-12-06, 16:28:07
Mehr Schärfe erhältst du durch bi statt tri, nicht durch eingesparte Samples.
Das musst du mir jetzt erklären. Und natürlich führen eingesparte Samples zu mehr "Schärfe", weil unterfiltert wird.

Cyphermaster
2010-12-06, 16:32:53
Lass also deine Arroganz im Kontaktforum und erkundige dich erstmal, wie der Sachverhalt aussieht.1. Bezüglich Arroganz dort solltest grade du vielleicht besser keine großen Töne spucken.
2. Wie ich oben schon beschrieben habe, bestreite ich nicht den Sachverhalt, daß AMD eine Qualitätsabsenkung in den Defaulteinstellungen vorgenommen hat, die nicht klar an den Kunden kommuniziert wurde. Ich bin lediglich vorsichtiger mit einem Begriff wie "Betrug", der strafrechtliche Relevanz haben kann.

Es ist schließlich ja nicht so, daß es NUR die "Default"-Einstellung geben würde, sondern der Kunde ja weiterhin auch höhere/geringere Qualitätssettings einstellen kann. Daher ist es auch -grade bei einem außerhalb der reinen Mathematik- schlecht bis gar nicht definiertem Faktor wie "Bildqualität" nicht grade leicht, einen scharfen Vergleich zu ziehen. Wenn z.B. etwas wie "enhanced visual gaming quality" versprochen wird, dann kann das mathematisch durchaus eine leichte "Verunschärfung" des Bildes sein. Genauso wie sich die Frage stellt, nach welchem Maßstab man welche Modi im Treiber verrechnet, um "DIE" Bildqualität einer Grafikkarte zu ermitteln und zu vergleichen. Ganz zu schweigen davon, wie man BQ+Performance-Faktoren dann miteinander verrechnet, um den insgesamten Kundennutzen zu ermitteln. Wieviel mehr bringen dem +10% FPS, und wieviel +10% mathematische BQ?

Daß AMD sich hinsichtlich der BQ im konkreten Fall nicht mit Ruhm bekleckert hat, da brauchen wir uns nicht zu streiten.

LovesuckZ
2010-12-06, 16:38:57
Und wer bestimmt ob weniger flimmern besser ist als bri statt tri? Du?

Verstehst du nicht, dass AMD aufgrund der schlechten Sample-Verteilung ebenfalls ein Banding aufweist? Das UT2004 Video der PCGH spricht Bände.

1. Bezüglich Arroganz dort solltest grade du vielleicht besser keine großen Töne spucken.
2. Wie ich oben schon beschrieben habe, bestreite ich nicht den Sachverhalt, daß AMD eine Qualitätsabsenkung in den Defaulteinstellungen vorgenommen hat, die nicht klar an den Kunden kommuniziert wurde. Ich bin lediglich vorsichtiger mit einem Begriff wie "Betrug", der strafrechtliche Relevanz haben kann.

Es ist schließlich ja nicht so, daß es NUR die "Default"-Einstellung geben würde, sondern der Kunde ja weiterhin auch höhere/geringere Qualitätssettings einstellen kann. Daher ist es auch -grade bei einem außerhalb der reinen Mathematik- schlecht bis gar nicht definiertem Faktor wie "Bildqualität" nicht grade leicht, einen scharfen Vergleich zu ziehen. Wenn z.B. etwas wie "enhanced visual gaming quality" versprochen wird, dann kann das mathematisch durchaus eine leichte "Verunschärfung" des Bildes sein. Genauso wie sich die Frage stellt, nach welchem Maßstab man welche Modi im Treiber verrechnet, um "DIE" Bildqualität einer Grafikkarte zu ermitteln und zu vergleichen. Ganz zu schweigen davon, wie man BQ+Performance-Faktoren dann miteinander verrechnet, um den insgesamten Kundennutzen zu ermitteln. Wieviel mehr bringen dem +10% FPS, und wieviel +10% mathematische BQ?

Daß AMD sich hinsichtlich der BQ im konkreten Fall nicht mit Ruhm bekleckert hat, da brauchen wir uns nicht zu streiten.

Wie gesagt: Mich interessiert eure Verteidigungsmaßnahmen nicht. Wenn das 3dcenter.de meint, dass sie keine neutrale Position in diesem Fall will, dann ist es ihr gutes Recht. Lasst es dann aber auch dort, wo nur das 3dcenter.de es auch lesen kann.

Mr. Lolman
2010-12-06, 17:42:57
Ich check immernoch nicht, wie sichs jetzt mit der Barts BQ verhält.


Default wird optimiert und HQ entspricht dem damaligen default, bloß ohne Banding. Und dann gibts noch die Situationen wo default weniger flimmert als HQ (auch ohne Banding). Das klingt dann aber so, als wär die Barts BQ insgesamt besser als die Cypress BQ. Wenn ich mir LS Posts so durchles bekomm ich aber den Eindruck, als wär sie deutlich schlechter geworden. Ja was stimmt denn jetzt?

BTW: UT2004 ist ein äußerst schlechtes Beispiel für BQ-Vergleiche, denn 1. hat NV da schon immer so gefiltert, wie ihnen gerade passt (zumindest mit NV40 war auch unter HQ kein trilinear möglich) und 2. UT2004 defaultmäßig ein negatives LOD verwendet, was ja vom NV-Treiber geschickterweise weggeclampt wird. Ich hoffe sehr, dass PCGH bei den Videos entweder Clamp deaktiviert hatte, oder das LOD in der ini auf 0.0 gestellt hat - sonst wären die wohl für die Tonne!

Tesseract
2010-12-06, 17:45:13
Das musst du mir jetzt erklären. Und natürlich führen eingesparte Samples zu mehr "Schärfe", weil unterfiltert wird.

außerdem ist das nicht mal schärfe sondern nur kontrast. schärfe geht dadurch nur verloren, außer man hat irgendeine seltsame definition von schärfe die aliasingartefakte als detail versteht. :freak:

Raff
2010-12-06, 17:58:59
BTW: UT2004 ist ein äußerst schlechtes Beispiel für BQ-Vergleiche, denn 1. hat NV da schon immer so gefiltert, wie ihnen gerade passt (zumindest mit NV40 war auch unter HQ kein trilinear möglich) und 2. UT2004 defaultmäßig ein negatives LOD verwendet, was ja vom NV-Treiber geschickterweise weggeclampt wird. Ich hoffe sehr, dass PCGH bei den Videos entweder Clamp deaktiviert hatte, oder das LOD in der ini auf 0.0 gestellt hat - sonst wären die wohl für die Tonne!

UT2004 ist eines von vielen Beispielen. Mal ohne deine Frage zu beantworten: Warum wäre es "für die Tonne", ein Spiel genau so abzufilmen, wie es 99,999 Prozent der Nutzer zu sehen bekommen?

MfG,
Raff

Vento
2010-12-06, 18:01:57
Ich check immernoch nicht, wie sichs jetzt mit der Barts BQ verhält.


Default wird optimiert und HQ entspricht dem damaligen default, bloß ohne Banding. Und dann gibts noch die Situationen wo default weniger flimmert als HQ (auch ohne Banding). Das klingt dann aber so, als wär die Barts BQ insgesamt besser als die Cypress BQ. Wenn ich mir LS Posts so durchles bekomm ich aber den Eindruck, als wär sie deutlich schlechter geworden. Ja was stimmt denn jetzt?



Leonidas hat es in seinem Artikel bewertet und schön zusammengefasst.
In erster Linie flimmert es bei Barts deutlich stärker als bei Radeon HD 5800/5900 "A.I. = off".
Das Banding bei Barts ist auch nicht vollständig beseitigt, sondern reduziert im Vergleich zu Cypress.

"AF-Banding-Bug geringfügig noch vorhanden: seltene Banding-Effekte"

http://www.3dcenter.org/artikel/amds-radeon-hd-580059006800-mit-rueckschritten-bei-der-filterqualitaet


Hier kannst du dir ansonsten auch nochmal die Flimmerneigung anschauen, dort sieht man schön das die Flimmerneigung bei Barts HQ deutlich breitbandiger und stärker ausgeprägt ist als bei Cypress A.I. = off.

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Raff
2010-12-06, 18:06:46
Das "AF transition banding" ist auf Barts in der Praxis kaum der Rede wert. Es ist zweifellos noch (stark abgeschwächt) da und in konstruierten Fällen auch sichtbar, das Flimmern wiegt jedoch viel mehr.

MfG,
Raff

airbag
2010-12-06, 18:07:28
Ich check immernoch nicht, wie sichs jetzt mit der Barts BQ verhält.


BTW: UT2004 ist ein äußerst schlechtes Beispiel für BQ-Vergleiche, denn 1. hat NV da schon immer so gefiltert, wie ihnen gerade passt (zumindest mit NV40 war auch unter HQ kein trilinear möglich) und 2. UT2004 defaultmäßig ein negatives LOD verwendet, was ja vom NV-Treiber geschickterweise weggeclampt wird. Ich hoffe sehr, dass PCGH bei den Videos entweder Clamp deaktiviert hatte, oder das LOD in der ini auf 0.0 gestellt hat - sonst wären die wohl für die Tonne!

Seitwann forciert der Treiber den automatisch Clamp ?
Wenn ich mich richtig errinne ist Negativer LOD Bias zulassen Standard. Genauso wie bei Drakensang- Am Fluss der Zeit.

Mr. Lolman
2010-12-06, 18:09:43
@Vento:
1. Dankeschön.
2. Urks. Das ist ja echt mal ne beschixxene BQ, was da abgeliefert wird
3. Default sieht tatsächlich besser aus als HQ :|

UT2004 ist eines von vielen Beispielen. Mal ohne deine Frage zu beantworten: Warum wäre es "für die Tonne", ein Spiel genau so abzufilmen, wie es 99,999 Prozent der Nutzer zu sehen bekommen?

MfG,
Raff

Weils unfair ist. Dass negatives LOD Flimmern verstärkt, sollte hinlänglich bekannt sein.

Seitwann forciert der Treiber den automatisch Clamp ?
Wenn ich mich richtig errinne ist Negativer LOD Bias zulassen Standard. Genauso wie bei Drakensang- Am Fluss der Zeit.

Sobald man den AF-Grad übern Treiber einstellt, macht er das. (zumindest wars beim 197er so)

Langenscheiss
2010-12-06, 18:12:05
Ich check immernoch nicht, wie sichs jetzt mit der Barts BQ verhält.


Default wird optimiert und HQ entspricht dem damaligen default, bloß ohne Banding. Und dann gibts noch die Situationen wo default weniger flimmert als HQ (auch ohne Banding). Das klingt dann aber so, als wär die Barts BQ insgesamt besser als die Cypress BQ. Wenn ich mir LS Posts so durchles bekomm ich aber den Eindruck, als wär sie deutlich schlechter geworden. Ja was stimmt denn jetzt?


Also, einmal ein Status-Update basierend auf dem, was ich glaube, zu wissen:

Besser oder schlechter würde ich nicht sagen, sondern eher sowas wie "vom Regen in die Traufe". Cypress = banding, deshalb möglicherweise weniger Flimmern (ich suggeriere bewusst einen kausalen Zusammenhang), Barts = fast kein banding mehr, aber dafür deutlich mehr Flimmern. HQ = dass, was die Hardware kann (laut AMD), Q = leichte Optimierungen bei den AF-Samples, leicht größere Bi-Bänder = leichte, aber im Vergleich zu HQ kaum erkennbare Optimierungen, die etwa 6 bis 10% Leistung bringen. Den Fall, dass Q weniger flimmert als HQ, konnte ich persönlich noch nicht beobachten. Bei diesen Tweak-PC-Videos scheint es so auszusehen, allerdings verändern bereits geringste Einstellungen am Texture-movement das Flimmerverhalten, und außerdem erkennt man dort nur einen kleinen Ausschnitt.
Ob das Flimmern nun cheaten ist oder nicht konnte noch nicht gezeigt werden.

Blaire
2010-12-06, 18:16:42
Sobald man den AF-Grad übern Treiber einstellt, macht er das. (zumindest wars beim 197er so)

Das wäre ja ganz was neues... normal ist das immer auf Allow, auch dann wenn man den AF Grad selber wählt.

Edit: Hab mich vertan, der stellt tatsächlich auf Clamp zurück. Dies hat aber nur dann Auswirkung wenn ein Game negatives LOD anfordert.

LovesuckZ
2010-12-06, 19:20:19
Nein, bei Auswahl im CP springt es auf Clamp. Bei App-AF dagegen bleibt es erhalten.

/edit: Wobei ich trotzdem ein negatives LoD im D3D AF Tester einstellen kann, wenn Clamp eingestellt ist...

Kalmar
2010-12-06, 19:54:05
ich finds net wo hat die pcgh denn die video zum vergleich oder waren die nur auf der dvd ?

Langenscheiss
2010-12-06, 20:01:06
ich finds net wo hat die pcgh denn die video zum vergleich oder waren die nur auf der dvd ?
Die Videos gabs bis jetzt glaub ich nur auf DVD.

y33H@
2010-12-06, 20:03:43
Bisher nur DVD+, ja.

Dr. Cox
2010-12-06, 21:01:30
Ich check immernoch nicht, wie sichs jetzt mit der Barts BQ verhält.


Default wird optimiert und HQ entspricht dem damaligen default, bloß ohne Banding. Und dann gibts noch die Situationen wo default weniger flimmert als HQ (auch ohne Banding). Das klingt dann aber so, als wär die Barts BQ insgesamt besser als die Cypress BQ. Wenn ich mir LS Posts so durchles bekomm ich aber den Eindruck, als wär sie deutlich schlechter geworden. Ja was stimmt denn jetzt?

BTW: UT2004 ist ein äußerst schlechtes Beispiel für BQ-Vergleiche, denn 1. hat NV da schon immer so gefiltert, wie ihnen gerade passt (zumindest mit NV40 war auch unter HQ kein trilinear möglich) und 2. UT2004 defaultmäßig ein negatives LOD verwendet, was ja vom NV-Treiber geschickterweise weggeclampt wird. Ich hoffe sehr, dass PCGH bei den Videos entweder Clamp deaktiviert hatte, oder das LOD in der ini auf 0.0 gestellt hat - sonst wären die wohl für die Tonne!


Wenn du dir selbst ein genaues Bild machen willst, dann schau dir das hier genau an und vergleiche die Bildqualität der Karten untereinander:

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Und dann will ich einen Artikel von dir sehen, der ähnlich dem ist, den du einst zum AF-Flimmern des G70 geschrieben hast ;)

Mr. Lolman
2010-12-06, 21:40:09
Wenn du dir selbst ein genaues Bild machen willst, dann schau dir das hier genau an und vergleiche die Bildqualität der Karten untereinander:

Danke, aber den Link hat Vento schon letzte Seite gepostet. Hast du sicher auch gesehen (unde vll. auch Langenscheiss Einwände dazu gelesen)


Und dann will ich einen Artikel von dir sehen, der ähnlich dem ist, den du einst zum AF-Flimmern des G70 geschrieben hast ;)

Ohne, dass ich die Karte besitz, wird das nix. Außerdem hat Leo eh schon 2 Artikel dazu geschrieben.

y33H@
2010-12-06, 21:44:45
Es wird schon jemand finden, der dir eine Karte schickt, wenn du einen Aufruf startest.

airbag
2010-12-06, 21:50:27
Das klingt ja glatt nach einem Angebot. ^^
(ihr/Raff habt/hat doch im Moment eh nen Haufen Barts rumliegen )

Dr. Cox
2010-12-06, 22:08:19
Danke, aber den Link hat Vento schon letzte Seite gepostet. Hast du sicher auch gesehen (unde vll. auch Langenscheiss Einwände dazu gelesen)

Habe es erst später gesehen ;)



Ohne, dass ich die Karte besitz, wird das nix. Außerdem hat Leo eh schon 2 Artikel dazu geschrieben.

Kannst du dir die Karte nicht von jemandem Ausleihen?

Amboss
2010-12-27, 00:02:33
@Cyphermaster:

Den Treiberstandard passend zum Release einer neuen Generation abzusenken und sich zufälligerweise dadurch knapp vor, oder auf gleicher Höhe mit der Konkurrenz zu plazieren, finde ich moralisch angreifbar.

Ich sehe das als Verarsche und Zeichen dafür, das Besitzer der Vorgängergeneration (HD5800er) fallen gelassen werden. Es ist zwar bestimmt nicht als Verarsche geplant worden, aber letztenendes ist es nichts anderes. Ab Cat 5.10 hat meine HD5850 in den Standard-Settings eine deutliche Verschlechterung erfahren. Jetzt muss ich sogar Ai deaktivieren, um die Standard-Qualität von früher annährend zu erreichen. Lächerlich sag ich nur.

Raff
2010-12-27, 00:23:15
Auch mit einer HD 5000 gibt's mit neuen Treibern den neuen A.I.-Regler.

MfG,
Raff

Ronny145
2010-12-27, 00:38:54
Auch mit einer HD 5000 gibt's mit neuen Treibern den neuen A.I.-Regler.

MfG,
Raff


Stimmt. Wobei AMD das A.I afaik auch für die HD5000 entkoppeln wollte. In Cat 10.10e ist das schon so gewesen. Eigentlich nur eine simple inf Geschichte.

Blaire
2011-01-05, 20:42:26
Bitte löschen...

=Floi=
2011-01-05, 20:48:11
sei doch froh, so triffst du wenigstens den bremspukt besser. :ugly:

Blaire
2011-01-05, 20:50:04
sei doch froh, so triffst du wenigstens den bremspukt besser. :ugly:

Problem war das Treiber AF, dies funktioniert wieder mal nicht...mit Ingame AF ist es besser (doch Banding gibts trotzdem).

Raff
2011-01-08, 21:55:36
Huh, woorum geht's?

MfG,
Raff

Blaire
2011-01-08, 23:56:48
Huh, woorum geht's?


Es ging um NFS:Shift aber das Problem hat sich erledigt, das Treiber AF griff nicht.

Ronny145
2011-01-11, 21:46:20
http://alienbabeltech.com/main/?p=23098

Passt eigentlich nicht ganz hier, da es mehr umfasst als nur das AF.


I couldn’t find any examples in-game where AMD’s angle invariance made a difference. That’s not to say there’s no difference out there somewhere, just that it was much easier to find instances of shimmering. I even fired up Descent 3 which allows full 360 degree freedom on all three axes, but I still couldn’t concoct an advantage for AMD.

Das erinnert mich an die Gamestar wo sie doch immer die stärke Winkelabhängigkeit negativ bewerten bzw. andersrum positiv. AF Blume ist halt nicht alles. Die nicht vorhandenen performance Unterschiede bei der 5770 zwischen HQ und Q kann ich mir überhaupt nicht erklären. Auch in Crysis sind die bei mir eindeutig messbar gewesen. In FarCry, Trackmania und anderen spielen sogar ziemlich deutlich. Ein englischer Bildqualitäts Artikel ist jedenfalls begrüßenswert.


Hmm Cat 10.12 für die HD5770, da gibts noch die alten AI Schalter, wird ja auch erwähnt. Dann sind die HQ/Q Benchmarks bei der 5770 so gar nicht möglich, erklärt so einiges.

airbag
2011-01-11, 21:59:05
Naja, wenn man sich das Fazit durchliest, ist die Kritik bei weitem nicht so harsch wie bei den deutschen Reviews. Aber wenigstens geht es in die richtige Richtung.

Both vendors degrade image quality at default driver settings, though the 6850 is the worst offender out of the three cards. Also both the 470 and 6850 showed a performance increase by using Q over HQ, though Both vendors degrade image quality at default driver settings, though the 6850 is the worst offender out of the three cards. Also both the 470 and 6850 showed a performance increase by using Q over HQ, though the 6850 was impacted the most overall. In contrast, the 5770 showed no performance change and the least image quality loss from using default driver settings.

With regards to filtering quality, the 6850 has reduced the hard transitions and dead zones compared to the 5770, but they’re still present. As for shimmering, the 6850 has a higher incidence of it on certain detailed textures during in-game movement. While angle invariance is theoretically an advantage for AMD, I couldn’t find any scenario where it offered a practical benefit over nVidia.

Image quality aficionados will recognize that nVidia’s AF still produces the smoothest and most uniform images overall. With that said, if you’re someone who never changes the driver control panel from its defaults, you probably won’t notice a difference between the two vendors. And to be perfectly fair, occurrences of practical differences tend to be rare anyway. In contrast, the 5770 showed no performance change and the least image quality loss from using default driver settings.
.

deekey777
2011-01-19, 12:00:53
http://www.rage3d.com/board/showthread.php?t=33972936
We have changed the behavior of the texture filtering slider in our latest Catalyst Hotfix driver based on feedback, as detailed below.


The HQ setting remains unchanged. This provides reference quality filtering from our hardware, meaning it does exactly what an application requests with no optimizations or tweaks of any kind.
The Quality setting has now been improved to match the HQ setting in all respects except for one – it enables an optimization that limits trilinear anisotropic filtering to areas surrounding texture mipmap level transitions, while doing bilinear anisotropic filtering elsewhere. Sometimes referred to as “bilinear” filtering, it offers a way to improve filtering performance without visibly affecting image quality. It has no impact on texture sharpness or shimmering, and this can be verified by comparing it visually with the High Quality setting.



We continue to recommend the Quality setting as the best one to use for competitive testing for the following reasons:


It should be visually indistinguishable from the High Quality setting for real textures (with the exception of special test patterns using colored mip levels)
Visual quality should now be equal to the default setting used on HD 5800 series GPUs with Catalyst 10.9 and earlier drivers, or better when used on HD 6800/6900 series GPUs due to other hardware filtering improvements
It matches the default texture filtering quality setting currently implemented on our competitor’s GPUs, which make use of the same trilinear filtering optimization
The Performance setting has also been changed to address a few user comments regarding the sharpness of our default filtering settings causing shimmering in certain cases. It now provides a smoother filtering option that eliminates most shimmering while preserving the improved detail provided by anisotropic filtering. We accomplished this by applying a small LOD bias and tweaking some other characteristics of the filter in software. This setting also includes the trilinear optimization used in the Quality mode, since it offers improved performance with no discernable effect on sharpness or shimmering. Frame rates should be similar to those obtained with the quality setting.


Keine Wertung meinerseits.

Q ist wohl das, was AI standard war (10.9 und älter).

Schlammsau
2011-01-20, 18:05:10
Hier 2 Crysis Videos mit dem neuen Treiber:

HD6900

Crysis@High, 720p, 4xAA, 16xAF
(unkomprimierte Fraps Aufzeichnungen)

Q -> http://www.multiupload.com/Y3ZXVT4P6F
HQ -> http://www.multiupload.com/6O1YE0EN2B

boxleitnerb
2011-01-20, 18:13:26
Ich lad sie grad runter.

Aber eins würde mich doch mal interessieren:

Wäre es nicht viel viel einfacher, gleich "gescheit" zu filtern anstatt das Treiber- und Engineeringteam mit Optimierung nach Optimierung zu beschäftigen?
Das wirkt auf mich ein bisschen so, als ob man halbnackt durch Eisregen läuft und ab und zu immer ne andere Grippepille schluckt, anstatt sich nen Pulli anzuziehen und sich irgendwo unterzustellen. :freak:

N0Thing
2011-01-20, 18:26:05
Wenn, wie AMD sagt, die Hardware es nicht besser kann, bleibt erstmal keine andere Option. AMD muß beim nächsten Chip wieder auf das Niveau von X18xx/ X19xx kommen (bei AI off) und alle können sich über nahezu perfekte Filterung von AMD und Nvidia freuen.

Langenscheiss
2011-01-20, 18:28:39
Ich lad sie grad runter.

Aber eins würde mich doch mal interessieren:

Wäre es nicht viel viel einfacher, gleich "gescheit" zu filtern anstatt das Treiber- und Engineeringteam mit Optimierung nach Optimierung zu beschäftigen?
Das wirkt auf mich ein bisschen so, als ob man halbnackt durch Eisregen läuft und ab und zu immer ne andere Grippepille schluckt, anstatt sich nen Pulli anzuziehen und sich irgendwo unterzustellen. :freak:
Allem Anschein nach macht sich AMD mit ihren Filtern das Leben unnötig schwer (siehe dazu auch Technologie-Forum), auch wenn man keine Aussagen mit absoluter Sicherheit treffen kann.
Nvidia benutzt vermutlich seit dem G80 mehr oder weniger die gleichen Filter und fahren damit gut, weil er eine solide Qualität und genügend Flexibilität bezüglich Sparmodi und Performance bietet. AMD hingegen doktort ständig am AF. Warum? Genau weiß ich es auch nicht, aber es ist mMn eine Kombination aus Logik sparen, Performance gewinnen und Feature-Prahlerei. Vielleicht bekommen sie mit der aktuellen Architektur einfach keine gute Performance bei solidem AF, sodass sie auf irgendwelche Tricksereien angewiesen sind, die grundsätzliche Defizite (nach den Erkenntnissen aus dem B3D-Forum ist AMD bei der Samplezahl unflexibler, da nicht in 2er-Schritten sondern klassisch in 2er Potenzen von 1 bis 16 gestuft wird) ausgleichen. Aber das führt schon zu sehr in den Bereich der Spekulation. Aber grundsätzlich weiß auch AMD/ATI, wie man solide filtert, wie ja die älteren Karten zeigen.

LovesuckZ
2011-01-20, 18:56:18
Nvidia benutzt vermutlich seit dem G80 mehr oder weniger die gleichen Filter und fahren damit gut, weil er eine solide Qualität und genügend Flexibilität bezüglich Sparmodi und Performance bietet.

Tun sie. Und es fragwürdig, ob in Zukunft an der Umsetzung etwas geändert wird. Es ist auch logisch es gleich sofort richtig zu machen und nicht stückchenweise an einer halbfertigen Implementierung rumzudoktern. Denn mit jeder Änderung am Flickwerk macht man auch meistens irgendwas wieder kaputt.

Langenscheiss
2011-01-20, 19:22:58
Hier 2 Crysis Videos mit dem neuen Treiber:

HD6900

Crysis@High, 720p, 4xAA, 16xAF
(unkomprimierte Fraps Aufzeichnungen)

Q -> http://www.multiupload.com/Y3ZXVT4P6F
HQ -> http://www.multiupload.com/6O1YE0EN2B

Kann auf den ersten Blick keinen nennenswerten Unterschied feststellen. Hätte ich aber auch nach den notes von AMD nicht anders erwartet.

N0Thing
2011-01-20, 19:27:24
ATI hat es ja schon einmal Richtig gemacht. Die Frage ist, ob die aktuelle Technik Absicht ist oder ein Bug. Spätestens beim nächsten Chip muß sich AMD offenbaren, ob sie an einer besseren Filterung interessiert sind, oder auch bei zukünftigen Chips ihren potentiellen Kunden das bekannte Flimmer-AF bieten wollen. Ich befürchte ja inzwischen letzteres, aber die Hoffnung und so...

Ronny145
2011-01-20, 19:43:44
Filtertester Videos und HL2 screens @HD6850.

8.82.2.0

High Quality:
http://www.file-upload.net/download-3145503/Filter-Tester-High-Quality.rar.html
http://www.abload.de/img/hl2highqualityrdt1.png


Quality: http://www.file-upload.net/download-3145609/Filter-Tester-Quality.rar.html
http://www.abload.de/img/hl2qualitywevz.png


Performance: http://www.file-upload.net/download-3145683/Filter-Tester-Performance.rar.html
http://www.abload.de/img/hl2performanceqhcu.png

8.79.6.2RC3

High Quality: http://www.file-upload.net/download-3145906/Filter-Tester-High-Quality-8.79.6.2.rar.html
http://www.abload.de/img/hl2highquality8.79.6.2hdw7.png


Quality: http://www.file-upload.net/download-3146008/Filter-Tester-Quality-8.79.6.2.rar.html
http://www.abload.de/img/hl2quality8.79.6.2fhkr.png

Performance: http://www.file-upload.net/download-3146095/Filter-Tester-Performance-8.79.6.2.rar.html
http://www.abload.de/img/hl2performance8.79.6.2ccpv.png


Also wie schon in den release notes beschrieben bekommt Performance ein positives Lod ab. Quality scheint sich dann HQ angeglichen zu haben, HL2 zeigt mit dem neuen Treiber hier keine Unterschiede mehr.

Langenscheiss
2011-01-20, 21:38:57
So, wie ich mir das gedacht habe. Quality hat sich quasi gar nicht sichtbar geändert (außer, man macht Analysen etc.). Die Aussage von Raff, dass Quality deutlich weniger flimmert, kann ich hier absolut nicht bestätigen. Lediglich der Performance-Modus ist ruhiger, bedingt durch positives LOD.
Kannst du noch mal einen TMU/ALU Vergleich bei Performance hochladen, aber diesmal bitte mit der anderen Ground-Textur (das Gras, weil das noch mehr flimmert). Mich würde interessieren, wieviel Matsch man sich bei Performance gegenüber einer Referenz-Lösung einkauft. (Vielleicht sollte man als Barts/Cayman-User demnächst Performance wählen)
Insgesamt muss ich sagen: Toll gemacht AMD. Ihr habt es innerhalb von 2 Monaten geschafft, ein LODBias einzubauen.
Nein, ihr habt es nicht nur geschafft, mit viel heißer Luft den Status Quo in den vertretbaren Einstellungen beizubehalten (das Abschaffen des Aniso-bias unter Q macht auf Grund des sowieso vorhandenen Flimmerns den Kohl nicht mehr fett), sondern ihr habt darüber hinaus paradoxer Weise den überflüssigen Performance-Modus visuell aufgewertet! Die Bi-Bänder waren bei den meisten Spielen genauso wenig sichtbar, wie in Q oder HQ, aber das reduzierte Flimmern ist ja gegen das bisschen Matsch fast eine Wohltat!
Herzlichen Glückwunsch! Und wen wollt ihr damit verarschen?

Raff
2011-01-20, 21:46:05
Die Aussage von Raff, dass Quality deutlich weniger flimmert, kann ich hier absolut nicht bestätigen.

Nun, ich habe eine HD 6950 gesehen, die einmal mit dem 8.79.6 und einmal mit dem 8.82.2 befeuert wurde. Deutlich war's in Crysis Warhead. Das waren aber keine langen Exkurse, sondern relativ kurze Stichproben. Von daher können sich die Unterschiede auch auf Ausnahmen beschränken.

Den Performance-Modus finde ich übrigens gut, diese Bildruhe ist auf Radeon-Karten sonst nur mit mindestens 2x SGSSAA möglich. ;D Dumm nur, dass es wirklich ziemlich unscharf ist – GeForce-Q bietet mehr Details und eine ähnliche Bildruhe (!). Auch dumm, dass P laut AMD nicht mehr schneller ist als Q ...

€dit: Abgesehen davon zeigen Ronnys Q-Shots ganz deutliche Unterschiede zwischeneinander ...

MfG,
Raff

Langenscheiss
2011-01-20, 22:09:49
Kannst du mir mal einen Hinweis geben, wo ich die Q shots vergleichen soll. Ich sehe nämlich nur den Unterschied zwischen Performance alter Treiber/Performance neuer Treiber.
EDIT:
Ne, habs schon gesehen. Tatsächlich ist der Boden an manchen Stellen jetzt etwas weniger kontrastreich. Aber in den Videos hat sich das nicht sichtbar auf das Flimmern ausgewirkt.
Ich will nicht bezweifeln, dass du gesehen hast, was du gesehen hast, aber gerade Crysis war für AMD schon immer ein Sonderfall. Es könnte auch gut sein, dass sie ein paar spezielle Optimierungen deaktiviert haben (was nicht schlecht wäre)

Ronny145
2011-01-20, 22:12:04
So, wie ich mir das gedacht habe. Quality hat sich quasi gar nicht sichtbar geändert (außer, man macht Analysen etc.). Die Aussage von Raff, dass Quality deutlich weniger flimmert, kann ich hier absolut nicht bestätigen. Lediglich der Performance-Modus ist ruhiger, bedingt durch positives LOD.
Kannst du noch mal einen TMU/ALU Vergleich bei Performance hochladen, aber diesmal bitte mit der anderen Ground-Textur (das Gras, weil das noch mehr flimmert).


Kann ich machen, dauert aber noch. Flimmern hat sich wie bereits erwähnt unter HQ und Q nicht geändert, nicht nur der Filtertester zeigt es sondern auch HL2 und Drakensang. Woher sollte es auch kommen, das Lod wurde ja nur im performance Modus geändert.



€dit: Abgesehen davon zeigen Ronnys Q-Shots ganz deutliche Unterschiede zwischeneinander ...

MfG,
Raff

Das hat mit dem Flimmern nichts zu tun, sondern wohl damit:

The Quality setting has now been improved to match the HQ setting in all respects except for one – it enables an optimization that limits trilinear anisotropic filtering to areas surrounding texture mipmap level transitions, while doing bilinear anisotropic filtering elsewhere.

Kannst du mir mal einen Hinweis geben, wo ich die Q shots vergleichen soll. Ich sehe nämlich nur den Unterschied zwischen Performance alter Treiber/Performance neuer Treiber.

Die HL2 Bilder sind sicherlich gemeint.

Langenscheiss
2011-01-20, 22:19:18
Ja, habs jetzt auch gesehen. Dass sind wohl die Unterschiede, die durch das Entfernen des Aniso-Bias unter Q entstanden sind (auf Cypress würde man hier eine Verschiebung des bandings sehen). Das Flimmern ändert sich dadurch aber wohl nicht. Meine Kritik bleibt somit bestehen.

Ronny145
2011-01-20, 23:57:52
http://www.abload.de/img/filtertesterperformancqm5g.png
http://www.load.to/r9awnRFvXM/Filter_Tester_Performance_8.82.2.rar


Hier das TMU/ALU Bild und Video. Flimmert trotzdem mehr als die Referenz.

Langenscheiss
2011-01-21, 03:15:22
Tja, da kann man halt sehen, wo deren Defizite liegen. Die Flimmerbereiche liegen halt zu einem nicht unerheblichen Teil auf dem höchsten LOD (wenn ich die colored mipmaps aus dem Filtertester jetzt richtig in Erinnerung habe). Wenn man die mit nem LODBias glätten wollte, hätte man in der Ferne alles verblurred!
Ich hoffe für AMD, dass deren nächste Generation endlich wieder saubere Filter hat.

Ronny145
2011-01-21, 20:16:36
Das stimmt. Um das Flimmern effektiv zu bekämpfen und auf Nvidia @HQ oder R5x0 Level zu kommen, müsste AMD das Lod noch deutlich stärker erhöhen als jetzt schon im performance Modus, würde aber zu stark blurren. Hier wird dann auch klar wie groß der Unterschied ist. Ist natürlich ein wenig gelindert im Performance Modus. Eine Top Filterung ist letztlich nicht draus zu machen mit der Hardware. Der HQ Modus macht für mich dagegen kein Sinn mehr, ich sehe keinerlei Vorteil darin gegenüber Quality. Anbei noch weitere 3 Beispiele für die Schärfeunterschiede im neuen performance Modus.


Performance: http://www.abload.de/img/dirt2_gameperformanceucln.png
Quality: http://www.abload.de/img/dirt2_gamequalitybemv.png

Performance: http://www.abload.de/img/drakensangperformancevhdi.png
Quality: http://www.abload.de/img/drakensangqualitycdf6.png

Performance: http://www.abload.de/img/daoriginsperformance_19hl6.png
Quality: http://www.abload.de/img/daoriginsquality_1bi7g.png

Langenscheiss
2011-01-22, 01:08:49
In meinen Augen hat HQ auch vorher kaum Sinn gemacht, selbst auf dem Cypress nicht, weil in AF kritischen Szenen eher das banding aufälllt, als das vielleicht an einigen wenigen Stellen etwas stärkere Flimmern auf dem Cypress (was ja längst nicht so krass ist wie auf Barts/Cayman). Auch wenn es nicht aus den gleichen Gründen ist (von wegen "vergleichbar mit Nvidia"), aber bezüglich der Empfehlung von Q stimme ich AMD zu.

Langenscheiss
2011-01-23, 15:31:48
D3DAFTester1.3 - Vergleich Cat10.10 - Cat11.1a

Vorab
Für ein besseres Verständnis der nachfolgenden Analyse seien nochmal 4 Threads verlinkt
AF erklärt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494476
D3DAFTester: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=745002#post745002
HD5K Analyse: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8344890&postcount=1640
HD6K Analyse: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8373318&postcount=847

Heute soll es darum gehen, zu zeigen, was sich mit dem neuen Treiber geändert hat. Ich kann hier nicht für Barts oder Cayman sprechen, gehe aber davon aus, dass die Ergebnisse übertragbar sind. Genaueres kann nur durch weitere Analysen geklärt werden. Ich sag nur schon mal soviel: Das Ergebnis ist überraschend, im negativen und positiven Sinne!
Ein Wort noch zur Testmethode. Dass die Angaben zu den Sample-Zahlen nicht absolut stimmen, ist mittlerweile klar. Es sind effektive Werte, die jedoch viel mehr über die zu erwartende Bildqualität aussagen, als die wahren Werte. Darüber hinaus könnten die relativen Angaben durchaus stimmen. Das werde ich nun nicht weiter erwähnen! Wenn ich von Samples spreche, meine ich effektive Werte, es sei denn, ich erwähne etwas anderes!

System: Win764Bit Professional - HD5850 - No AA - 16xAF - No format optimization
Application: Settings: LODBias: 0 - Textures: Use Checkerboard Texture - Texture-scale: 0 - Objects: Plane - Distance: 2.2 - Angle: 57 - Scene Rotation around Z axis: 0 - Texture Rotation: 0

Modus: Quality

Szenen-Vergeich
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/scenecomparison_16xaf_id2d.png (http://www.abload.de/image.php?img=scenecomparison_16xaf_id2d.png)http://www.abload.de/thumb/scenecomparison_16xaf_6ihz.png (http://www.abload.de/image.php?img=scenecomparison_16xaf_6ihz.png)

Abgesehen von den bekannten Cypress-Effekten sieht man, dass der Aniso-Bias wieder zurückgenommen wurde. Diesen Bias relasiert AMD technisch vermutlich so, dass die Länge der kurzen Halbachse einen positiven offset bekommt, denn dadurch verringert sich die Anisotropie bei gleichzeitiger Vergrößerung des footprints, was widerum die leichte LOD-Verschiebung bewirkt. Da dies hier nun wegfällt, ist sowohl die Anisotropie als auch das LOD im Gegensatz zum Verhalten auf dem alten Treiber völlig unangetastet. Falls dies so nicht stimmt, bitte ich um Korrekturen.

Texel-Analyse
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/texelanalysis_16xaf_q_efwl.png (http://www.abload.de/image.php?img=texelanalysis_16xaf_q_efwl.png)http://www.abload.de/thumb/texelanalysis_16xaf_q_vhmi.png (http://www.abload.de/image.php?img=texelanalysis_16xaf_q_vhmi.png)

Das oben beschriebene wird hier deutlich. Aber wie wirkt sich das letztendlich auf die Sample-Zahl aus? Nachfolgende Bilder zeigen es:

Sample-Differenz
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/sampledifference_16xaf2h7i.png (http://www.abload.de/image.php?img=sampledifference_16xaf2h7i.png)http://www.abload.de/thumb/sampledifference_16xafndiy.png (http://www.abload.de/image.php?img=sampledifference_16xafndiy.png)

Es wird klar, was AMD gemacht hat. Sie hiefen Q quasi auf das Niveau von HQ. Der einzige Unterschied sind die breiteren Bi-Bänder. Ohne Mipmaps ist Q identisch zu HQ. Im großen und ganzen keine spektakuläre Änderung und dementsprechend ändert sich das Flimmerverhalten auch nur unmerklich, wie ja die Videos von Ronny gezeigt haben. Die Sample-Rate wurde um etwa 1% erhöht. Ich erwarte maximale Leistungseinbuße innerhalb dieses Bereiches. Ein entscheidender Faktor dafür, dass die Differenz im Mipmap-Fall kleiner ist, als im No-Mipmap-Fall ist die Tatsache, dass durch eine positive LOD-Verschiebung Bereiche trilinear gesampled werden, die vorher noch bilinear gesampled wurden, also kleine Bereiche auf LOD 0, bei denen die footprint-Größe im Verhältnis zur Texel-Größe gerade so ist, dass eine trilineare Abtastung keinen Vorteil mehr bietet.

Viel interessanter jedoch ist der

Modus: Performance

Szenen-Vergeich
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/scenecomparison_16xaf_2ppm.png (http://www.abload.de/image.php?img=scenecomparison_16xaf_2ppm.png)http://www.abload.de/thumb/scenecomparison_16xaf_iq8p.png (http://www.abload.de/image.php?img=scenecomparison_16xaf_iq8p.png)

Ohne Banding wäre hier nichts zu sehen, ich gehe deshalb direkt zur
Texel-Analyse
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/texelanalysis_16xaf_lqaq3p.png (http://www.abload.de/image.php?img=texelanalysis_16xaf_lqaq3p.png)http://www.abload.de/thumb/texelanalysis_16xaf_lq8rej.png (http://www.abload.de/image.php?img=texelanalysis_16xaf_lq8rej.png)

Hier AMD kräftig geschraubt. Der Aniso-Bias ist !fast! auf HQ-Niveau, d.h. im Vergleich zum alten LQ hat AMD ein zusätzliches LOD-Bias eingeführt, denn die LOD-Verschiebung ist effektiv genauso groß wie beim alten LQ, bei dem ja durch den Aniso-Offset eine zusätzliche Verschiebung des LODs bewirkt wurde. Die Sample-Zahl ist im NoMipmap-case fast auf HQ Niveau, im Mipmap-Case sogar noch über der Zahl im Modus "Quality" , was durch die zusätzlichen trilinearen Samples bewirkt wird. All das führt in Addition zu einem teilweise deutlich ruhigeren Bild im Verhältnis zu Q oder HQ, wie die Videos von Ronny zeigen.

Eindrucksvoll ist auch die
Sample-Differenz
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/sampledifference_16xafzssy.png (http://www.abload.de/image.php?img=sampledifference_16xafzssy.png)http://www.abload.de/thumb/sampledifference_16xaffs92.png (http://www.abload.de/image.php?img=sampledifference_16xaffs92.png)

Eine Erhöhung um 7%! Das erklärt, warum Raff zu dem Ergebnis kam, dass der Performance Modus nicht mehr besser ist als im Quality Modus, auch wenn es sich hier nur um effektive Werte handelt! Man sieht sehr schön, wie weit der Aniso-Bias reduziert wurde.

Zusammenfassung
Was will AMD damit erreichen? Einerseits ist es positiv, dass sie nun einen Modus anbieten, der eine bessere Bildqualität liefert, dabei aber bis auf breitere Bi-Bänder kaum irgendwelche cheats einsetzt. Dass dies durch ein positives LOD-Bias erreicht wird, sollte zumindest für Besitzer der HD6K-Karten verschmerzbar sein. Wie sich diese Maßnahme in der realen Welt auf die Schärfe auswirkt, konnte man ja schon an den Bildern von Ronny erahnen. Letztendlich wird es wohl eine Sache des persönlichen Geschmacks sein.
Aber, um zur Kritik zu kommen, ich rede hier NICHT von der Einstellung "Quality", sondern von der Einstellung "Performance"!!
Quality ist HQ mit breiteren Bi-Bändern, d.h. effektiv ein etwas performanteres HQ, also im Grunde gegenüber HQ vorzuziehen. Aber wer sich eine wirkliche Verbesserung der Flimmer-Neigung erhofft hat, muss zum neuen Performance-Modus greifen. Und genau hier wird es jetzt undurchsichtig! Was soll denn bitte der Name "Performance"? Diese Einstellung hat nichts mehr mit einem Performance-Modus zu tun! Im Grund ist das ja auch nicht schlimm, denn diese Einstellung hat eigentlich vorher sowieso keiner gebraucht, aber was hier betrieben wird, ist eine für mich unlogische Irreführung durch falsche Benennung. Angebrachter wäre, um es jetzt etwas plump auszudrücken, "HQ mit mehr Matsch aber weniger Flimmern und mehr Performance". Q wäre "HQ mit mehr Performance".
Was am Ende für mich als Empfehlung bleibt, sind die Einstellungen "Quality" und "Performance", je nachdem ob man "Matsch" gegenüber "Flimmern" präferiert, wobei die Ausprägung beider Extrema natürlich von Spiel zu Spiel unterschiedlich sein wird. Aber eines ist klar: Performance, in seiner jetzigen Fassung, ist wohl kein "Cheat"-Modus gegenüber Quality, wenn gleich dies durch strukturierte Benchmarks noch abgeklärt werden müsste.

Raff
2011-01-23, 16:48:06
Das neue "Performance" ist IMO auf einer HD 5000 nicht nötig – das Cypress-Flimmern ist gegenüber Cayman relativ harmlos. Eine HD 5000 verliert durch Performance viel Schärfe, aber nur wenig Flimmern. Auf einer HD 6000 ist der Performance-Modus aber eine schöne Option, da die Karten deutlich unruhiger filtern.

MfG,
Raff

Schlammsau
2011-01-23, 16:50:31
Das ist durchaus interessant, also ist wirklich die Performanceeinstellung die, die man als Flimmergeplagter Radeon-User nehmen sollte.

Auf welchem IQ-Niveau ist dieser Modus? Kommt der an Q von nVidia ran?

Raff
2011-01-23, 16:51:23
Nein. Die Bildruhe von Radeon-P erreicht zwar fast GeForce-Q, die Radeon ist aber unschärfer.

MfG,
Raff

Ronny145
2011-01-23, 16:55:27
Die TextureLoD Funktion in der registry hatte doch vorher keine Auswirkung, oder? Wenn ich den auf 1 stelle erreiche ich mit Quality nahezu die Schärfe und Flimmerverhalten vom neuen Performance Modus. Lodadjust mit 1 blurrt deutlich mehr. Ich denke auch, dass Performance höchstens für HD6000 Nutzer interessant ist.

Schlammsau
2011-01-23, 16:56:07
Welcher Modus ist noch am ehesten mit nVidias Q zu vergleichen?

Schaffe89
2011-01-23, 17:14:41
Die Bildruhe von Radeon-P erreicht zwar fast GeForce-Q, die Radeon ist aber unschärfer.

Welche Spiele nehmt ihr dann als Referenz um zu der EInschätzung zu kommen?

airbag
2011-01-23, 17:15:25
Welche Spiele nehmt ihr dann als Referenz um zu der EInschätzung zu kommen?
Wahrscheinlich die gleichen wie immer. Crisis und HL2 voran.

Schaffe89
2011-01-23, 17:18:13
Ist das nicht suboptimal immer nur die gleichen Beispiele zu nehmen und dann das Verhalten auf andere Engines, Contents zu übertragen?
Zumal es gar nicht soviele Spiele gibt die auf einer Radeon mehr flimmern.
Um die Vergleichbarkeit zu wahren isses natürlich am besten.

airbag
2011-01-23, 17:20:36
Die Unterschiede wird man sicherlich auch in anderen Spielen sehen. In Crisis und HL2 ist es aber halt nur am leichtesten zu zeigen.

Raff
2011-01-23, 17:20:47
Welche Spiele nehmt ihr dann als Referenz um zu der EInschätzung zu kommen?

Dazu taugt alles, was gute bzw. fiese Texturen hat: Crysis Warhead, Half-Life 2, etc.

Ist das nicht suboptimal immer nur die gleichen Beispiele zu nehmen und dann das Verhalten auf andere Engines, Contents zu übertragen?
Zumal es gar nicht soviele Spiele gibt die auf einer Radeon mehr flimmern.
Um die Vergleichbarkeit zu wahren isses natürlich am besten.

Man nimmt eben Beispiele, die die Effekte am besten zeigen. Prinzipiell wirkt sich das Filtergedöns auf jedes Spiel aus, nur stört es bei Konsolenmatsch 08/15 eben weniger als bei grafisch guten Spielen.

MfG,
Raff

Langenscheiss
2011-01-23, 17:26:47
Ich habe nichts gegen den Performance-Modus, abgesehen von der Benennung. Das neue "Performance" ist definitiv nicht mehr der Ultrasparmodus, den es vorher gab.
Meine Empfehlung für AMD: Macht dieses positive LOD-Bias als Haken-Option wie bei der Format Optimierung. Dann kann man entweder HQ (also keine breiteren Bi-Bänder) mit und ohne LOD-Bias, oder Q mit und ohne LOD-Bias verwenden. Die jetzige Auswahl ist suboptimal und irreführend, weil man ja davon ausgeht, dass der Performance-Modus im Gegensatz zu Q generell ungeeignet ist.
Den ursprünglichen Performance-Modus kann man weglassen, aber meinswegen können sie ihn auch lassen.

Schaffe89
2011-01-23, 17:28:05
Half Life 2 ist grafisch veraltet. Und bei Far Cry2,wo die Texturen sehr ansprechend sind ist nicht wirklich ein Unterschied festzustellen, oder doch?

Das neue "Performance" ist definitiv nicht mehr der Ultrasparmodus, den es vorher gab.

Naja auch den HQ Modus bei Nvidia und der HQ Modus bei AMD bringen nicht wirklich optische Verbesserungen,bei AMD ist dieser gar schlechter als Q und bei Nvidia nach meiner Recherche auch nur gleichgut.

Langenscheiss
2011-01-23, 17:29:18
Das hat mit graphisch veraltet nicht viel zu tun. Es geht nur um die Flimmeranfälligkeit des contents.

airbag
2011-01-23, 17:30:39
Das es alt ist, heißt nicht, dass es nichts taugt. Immerhin spielen das Spiel noch recht viele Leute.
Davon abgesehen dürfte die Source Engine, die HL2 ja verwendet recht verbreitet sein.

Ronny145
2011-01-23, 17:33:53
Half Life 2 ist grafisch veraltet. Und bei Far Cry2,wo die Texturen sehr ansprechend sind ist nicht wirklich ein Unterschied festzustellen, oder doch?

Die Texturen sind nicht veraltet. Zwar fehlen einige neue Fatures und vor allem das Shader Gedöns, aber das spielt keine Rolle. HL2 ist ein prima Filtertester.



Naja auch den HQ Modus bei Nvidia und der HQ Modus bei AMD bringen nicht wirklich optische Verbesserungen,bei AMD ist dieser gar schlechter als Q und bei Nvidia nach meiner Recherche auch nur gleichgut.


HQ bei Nvidia reduziert das Flimmern, bei AMD macht es dagegen keinen Unterschied.

Schaffe89
2011-01-23, 17:34:59
eben weniger als bei grafisch guten Spielen.

Weiß halt nicht was Raff damit meint, gibt gnug Beispiele für grafisch tolle Titel mit Content das wenig flimmert und daher AMD in Punkto Qualität Nvidia in nichts nachsteht, das habt ihr bei euren sehr informativen Artikeln aus meiner Sicht immer etwas zu wenig beachtet.

Die Texturen sind nicht veraltet

Naja.. da gibts besseres.

Quaker
2011-01-23, 17:50:32
Weiß halt nicht was Raff damit meint, gibt gnug Beispiele für grafisch tolle Titel mit Content das wenig flimmert und daher AMD in Punkto Qualität Nvidia in nichts nachsteht, das habt ihr bei euren sehr informativen Artikeln aus meiner Sicht immer etwas zu wenig beachtet.



Naja.. da gibts besseres.
Jo, wie sieht es z.bsp mit Doom 3 aus? Hab ich da ein grosser Nachteil wenn ich auf eine 6000er aufrüsten möchte?

Sonyfreak
2011-01-23, 17:53:16
Jo, wie sieht es z.bsp mit Doom 3 aus? Hab ich da ein grosser Nachteil wenn ich auf eine 6000er aufrüsten möchte?Vermutlich ändert sich nicht viel, da auch schon das AF deiner HD 3870 flimmert.

mfg.

Sonyfreak

airbag
2011-01-23, 17:55:39
Man hat kein Supersampling unter OpenGL. D.h. Wenn es durch das AF flimmert ist man am Arsch.

Langenscheiss
2011-01-23, 17:56:42
Naja auch den HQ Modus bei Nvidia und der HQ Modus bei AMD bringen nicht wirklich optische Verbesserungen,bei AMD ist dieser gar schlechter als Q und bei Nvidia nach meiner Recherche auch nur gleichgut.

Das Problem ist nur, dass je nach persönlicher Präferenz und Hardware der Performance-Modus sogar höherwertiger ist, als der Quality-Modus und der High-Quality-Modus. Die breiteren Bi-Bänder fallen wirklich kaum auf.
Trotzdem suggeriert das CCC, dass man bei Performance mehr Performance bekommt (was wohl nicht der Fall ist, im Vergleich zu Quality) und demzufolge auch Abstriche bei der BQ macht. Das ist aber nun nicht mehr unbedingt so.
Klar für Cypress lohnt sich der Performance-Modus nicht, aber bei Barts und co ist er echt eine Überlegung wert.

Dr. Cox
2011-01-23, 17:57:33
Weiß halt nicht was Raff damit meint, gibt gnug Beispiele für grafisch tolle Titel mit Content das wenig flimmert und daher AMD in Punkto Qualität Nvidia in nichts nachsteht,

Danke für den Lacher des Tages :freak: ;D



das habt ihr bei euren sehr informativen Artikeln aus meiner Sicht immer etwas zu wenig beachtet.

Kein Wunder weil es so etwas auch nicht gibt und es einzig und allein deiner offensichtlich blühenden Phantasie entspringt, dass aktuelle AMD-Karten qualitativ mit dem AF aktueller Nvidia-Karten mithalten könnten.



Naja.. da gibts besseres.

Ja und auch dort flimmert eine AMD-Karte mehr als eine Nvidia-Karte ;)

Ronny145
2011-01-23, 18:00:43
Weiß halt nicht was Raff damit meint, gibt gnug Beispiele für grafisch tolle Titel mit Content das wenig flimmert und daher AMD in Punkto Qualität Nvidia in nichts nachsteht, das habt ihr bei euren sehr informativen Artikeln aus meiner Sicht immer etwas zu wenig beachtet.

Welche Titel wären das? Die Spiele müssen mehrere Kriterien erfüllen. In Rennspielen oder Sportspielen allgemein ist es schlecht nachzustellen, in Spielen ohne vernünftige Speicherfunktion auch nicht. Niemand behauptet, dass die schlechtere Filterung in jedem Spiel auffällt, ist klar. Je größer der Matsch und gutmütiger der Content desto weniger auffallend.


Naja.. da gibts besseres.

Was ändert das? Im Gegenteil, viele der neuen Spiele sind schlechter geeignet weil aufgrund von Techniken wie Parallax Mapping oder Quadtree Displacement Mapping AF nicht auf alles greift. Und neue Spiele die mit Shaderflimmern am Boden glänzen werden auch mit der besten Filterung immer flimmern. Für Filtertests ungeeignet. Deswegen ist die Rede von prinzipiell.

Jo, wie sieht es z.bsp mit Doom 3 aus? Hab ich da ein grosser Nachteil wenn ich auf eine 6000er aufrüsten möchte?

Mit einer aktuellen Nvidia kannst du SSAA reinkloppen was auf der HD6000 nicht funktioniert.

Schaffe89
2011-01-23, 18:53:41
Kein Wunder weil es so etwas auch nicht gibt und es einzig und allein deiner offensichtlich blühenden Phantasie entspringt, dass aktuelle AMD-Karten qualitativ mit dem AF aktueller Nvidia-Karten mithalten könnten.


Anscheinend hast du keine Ahnung davon, dass es Titel mit unterschiedlicherem Content gibt und dass eben dann die flimmeranfälligkeit der AMD Karten nicht ins Gewicht fällt, das wird dir Raff bestätigen. Wenn du´s nicht glaubst, dann lies CT oder guck bei HT4U vorbei.
Ich wollte blos erreichen, dass Raff eventuell auch mal andere Titel zur Rate zieht außer Worst Case, das ist kein Grund jemanden persönlich Anzufeinden und alles mit Polemik und Fanatismus zu spicken, das hilft keinem.

Je größer der Matsch und gutmütiger der Content desto weniger auffallend.


Wobei die Faktoren Matsch und gutmütiges Content nicht vermischt werden sollten.
Es muss ja nicht zwangsläufig matschig sein.

Was ändert das?

Was das ändert?
Das ändert die übertriebene Darstellung der Tatsachen, da immernur Worst Case gezeigt wird.
Eine vernünftige Berichterstattung muss mehrere Spiele auf das AF Flimmern untersuchen und nicht den Worst Case, auch wenn es hilfreich ist, da man hier genauer auf Verbesserungen oder Verschlechterungen eingehen kann.
Bei PCGH wird ja immernoch Sinnfrei HQ getestet.
Eine Begründung warum dies gemacht wird, fehlt immernoch, genauso wie bei Computerbase.


Mit einer aktuellen Nvidia kannst du SSAA reinkloppen was auf der HD6000 nicht funktioniert.

Natürlich funktioniert das, schließlich ein directx9 Titel.

Danke für den Lacher des Tages


Bleib doch mal sachlich.
Es geht nicht darum die AF Problematik wegzureden, also kannst du auch beruhigt bleiben.

Niemand behauptet, dass die schlechtere Filterung in jedem Spiel auffällt, ist klar

Dr. Cox schon ;-)

Langenscheiss
2011-01-23, 18:58:22
...
Natürlich funktioniert das, schließlich ein directx9 Titel.
Schon mal was von OpenGL gehört. Seit wann ist Doom3 ein Dx9 Titel?
:facepalm:
Auf der HD5K gehts, bei den HD6K-Karten gehts afaik nicht mehr.

Also ich wünsche mir immer zweigleisige Benchmarks. Im Vergleich NV - AMD sollte man zwecks Vergleichbarkeit in HQ benchen, weil die Ergebnisse sonst nicht aussagekräftig genug sind. Aber wenn man als AMD Käufer wissen will, was auf AMD am sinnvollsten ist, sind Benches in Q und "Performance" alias "Q alternativ" durchaus sinnig.

Ronny145
2011-01-23, 19:01:00
Was das ändert?
Das ändert die übertriebene Darstellung der Tatsachen, da immernur Worst Case gezeigt wird.

Es ist mitnichten worst case. Es gibt genügend Beispiele und man könnte problemlos noch mehr zeigen, alles eine Frage des Aufwandes. Außerdem beantworte doch mal meine Frage, welche Titel meinst du? Es geht darum, wenn irgendwann mal wieder neue Vergleiche anstehen, diese eventuell zu berücksichtigen.


Natürlich funktioniert das, schließlich ein directx9 Titel.

Nein, auf einer HD6000 ist kein SSAA unter OpenGL möglich, daher auch kein SSAA in Doom3 als OpenGL Spiel.

Quaker
2011-01-23, 19:04:13
Vermutlich ändert sich nicht viel, da auch schon das AF deiner HD 3870 flimmert.

mfg.

Sonyfreak
Ok, dann bin ich ja beruhigt - sehe nämlich bei der 3870 kein flimmern (resp. ist mir bis jetzt noch nicht aufgefallen), somit werde ich es wohl bei der 6000er auch nicht bemerken. :)

y33H@
2011-01-23, 19:10:27
Bei PCGH wird ja immernoch Sinnfrei HQ getestet.Falsch, siehe kommende Print :rolleyes: Und sinnfrei ist es nicht, denn es wurde begründet, siehe Antwort auf deine nächste falsche Aussage.
Eine Begründung warum dies gemacht wird, fehlt immernoch, genauso wie bei Computerbase.Falsch. Die Begründung würde bei PCGH (http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/?page=4) und bei CB (http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/5/#abschnitt_anisotrope_filterung_auf_hd_6800) geliefert :rolleyes:Natürlich funktioniert das, schließlich ein directx9 Titel.Falsch, zum Dritten :rolleyes: Doom III ist OGL.

\EDIT
Anstatt anderen Polemik und Fanatismus vorzuwerfen, solltest du dich erst mal informieren und keine Lügen [wie die oben zitierten und korrigierten] auftischen :facepalm:

Schaffe89
2011-01-23, 19:30:25
Falsch, siehe kommende Print Und sinnfrei ist es nicht, denn es wurde begründet, siehe Antwort auf deine nächste falsche Aussage.

Du weißt genau, dass ihr auf die Schnelle kein gutes Fazit ziehen habt können. Also gilt die Begründung nicht mehr.
Jetziger Standpunkt ist, dass Q nicht schlechter ist als HQ.
Ihr habt ja auch auf Hinweise nicht reagiert, denn es wäre ja schlimm zugeben zu müssen, dass man sich aufgrund der Zeit etwas verspekuliert hat.


Anstatt anderen Polemik und Fanatismus vorzuwerfen, solltest du dich erst mal informieren und keine Lügen [wie die oben zitierten und korrigierten] auftischen


Mich schaudert es nur wie du versucht andere absichtlich ständig zu diskreditieren, obwohl es von mir nicht absichtlich verfolgt wurde. Ganz anders wie bei dem Herren Dr. Cox oder bei dir selbst.

Außerdem beantworte doch mal meine Frage, welche Titel meinst du?

Naja, COD6/7, Far Cry2,MafiaII,Mass Effect2, Stalker Call of Pripyat und solche Konsorten halt, einfach ein bisschen Abwechslung.

Nein, auf einer HD6000 ist kein SSAA unter OpenGL möglich, daher auch kein SSAA in Doom3 als OpenGL Spiel.


Achso, danke für die Erklärung. :)

Raff
2011-01-23, 19:32:22
Da gibt's kein "verspekuliert". Das sieht man schon daran, dass alle relevanten (deutschen) Medien die HD-6000-Karten mit HQ testen bzw. testeten. Folglich muss da etwas dran sein.

MfG,
Raff

Schaffe89
2011-01-23, 19:40:24
Und wie zeigt sich das? Ich sehe absolut keinen Unterschied.
Zumal viele User auch der Meinung sind, es gäbe keinen Unterschied und in den letzten PCGH Zeitungen das leider auch nicht erklärt wurde, warum denn nun mit HQ statt Q getestet wird (zumindest was ich an Informationen aufgesaugt habe), sonst kommt wieder dein Kollege und haut mir auf den Kopf.

relevanten (deutschen) Medien die HD-6000-Karten mit HQ testen bzw. testeten. Folglich muss da etwas dran sein.



Warum testen dann die Franzosen, die Engländer und die Amerikaner nicht mit HQ,ich meine die haben auch Augen.:)
Und was meinst du mit relevanten Medien? Was ist für dich relevent?

airbag
2011-01-23, 19:44:11
Warum testen dann die Franzosen, die Engländer und die Amerikaner nicht mit HQ,ich meine die haben auch Augen.:)
Die Franzosen testen zwar nicht damit, weisen den Leser aber daraufhin! Neben den Balken zeichnet eine kritische Betrachtung der Werte einen guten Journalisten aus.
Und das sich bie den Amis was getan hat zeigt ja Guru3d, sowie alienbabeltech

Schaffe89
2011-01-23, 19:46:52
Achso, auf den Seiten war ich jetzt konkret nicht, aber danke für den Hinweis.
Trotzdem überzeugt mich hinsichtlich nichts, was dafür spricht mit HQ zu testen.
Aber die PCGH soll ja in der nächsten wieder mit Q testet, dann bin ich ja mal gespannt was da so kommt.^^

Langenscheiss
2011-01-24, 00:13:02
Achso, auf den Seiten war ich jetzt konkret nicht, aber danke für den Hinweis.
Trotzdem überzeugt mich hinsichtlich nichts, was dafür spricht mit HQ zu testen.
Aber die PCGH soll ja in der nächsten wieder mit Q testet, dann bin ich ja mal gespannt was da so kommt.^^
Die breiteren Bi-Bänder sind eine anerkannte Optimierung, aber in Benchmarks muss sowas freilich berücksichtigt werden, damit man nicht die berühmten Äpfel mit Birnen vergleicht. Dass man allerding kritisch sein sollte, ist durchaus richtig. Im Grunde müsste sich halt endlich mal jemand hinsetzen und schauen, in welchen Modi die Grafikkarten vergleichbar viele Samples nehmen. Dann könnte man besser beurteilen, welcher Hersteller bei welcher Sample-Rate welche Performance und BQ liefert. In diesem Fall müssten BQ und Performance bei einem Review gleiches Gewicht für die Endwertung haben. Leider sind wir von diesem Idealfall noch weit entfernt. Jedenfalls befürchte ich, auf Grund neuerer Erkenntnisse, dass NV in diesem Vergleich deutlich besser abschneiden würde als AMD.

airbag
2011-01-24, 00:16:50
Aber die PCGH soll ja in der nächsten wieder mit Q testet, dann bin ich ja mal gespannt was da so kommt.^^

Aber sicherlich in Zusammenhang mit einem anderen Thema bzw. dann auch noch mit HQ Werten ?

N0Thing
2011-01-24, 10:42:12
Half Life 2 ist grafisch veraltet.

Es wurde ja noch ein Titel neben HL2 genannt, der für die AF-Tests heran gezogen wurde. Der ist übrigens genauso alt wie das von dir vorgeschlagene Far Cry 2. ;)

Raff
2011-01-25, 12:04:48
Radeon HD 6000/5000: Catalyst 11.1a Hotfix mit modifiziertem AF (http://www.pcgameshardware.de/aid,808746/Radeon-HD-6000/5000-Catalyst-111a-Hotfix-mit-modifiziertem-AF-Update-AMD-Statement/Grafikkarte/Test/)

Die PCGH tritt das Thema ebenfalls wieder breit.

MfG,
Raff

airbag
2011-01-25, 12:16:26
Muss man euren Schritt verstehen ? Immerhin hat man damals Cypress als Referenz genommen und wenn ihr jetzt wieder auf Q zurück geht, ist es ja immer schlechter als Cypress.

Raff
2011-01-25, 13:03:28
Wie dort ausgeführt wird, ergibt HQ irgendwie keinen Sinn. Das kann noch so "nativ" sein: Natives Gemurkse hilft nicht. Schon gar nicht, wenn es Leistung kostet. Die Band-Spielereien ("reduziertes trilinear" = brilinear) sorgen dafür, dass sich in einigen Fällen das Flimmern anders streut, was subjektiv alles andere als schädlich ist. Natürlich kann es sein, dass dadurch Banding entsteht – davon ist Nvidias Treiberstandard, welcher dieselbe "Optimierung" nutzt, aber ebenfalls potenziell betroffen.

Dabei sollte man trotzdem nie vergessen, dass die HD-6000-Serie schlechter filtert als die eigenen Vorgänger (Banding ausgeklammert). AMD soll das gefälligst in den folgenden Chips zurechtfixen.

MfG,
Raff

Langenscheiss
2011-01-25, 14:45:54
Wie dort ausgeführt wird, ergibt HQ irgendwie keinen Sinn. Das kann noch so "nativ" sein: Natives Gemurkse hilft nicht. Schon gar nicht, wenn es Leistung kostet. Die Band-Spielereien ("reduziertes trilinear" = brilinear) sorgen dafür, dass sich in einigen Fällen das Flimmern anders streut, was subjektiv alles andere als schädlich ist. Natürlich kann es sein, dass dadurch Banding entsteht – davon ist Nvidias Treiberstandard, welcher dieselbe "Optimierung" nutzt, aber ebenfalls potenziell betroffen.

Dabei sollte man trotzdem nie vergessen, dass die HD-6000-Serie schlechter filtert als die eigenen Vorgänger (Banding ausgeklammert). AMD soll das gefälligst in den folgenden Chips zurechtfixen.

MfG,
Raff
Danke, dass ihr meinen Beitrag verlinkt habt. Wie groß ist denn jetzt laut euren Tests der Performanceunterschied zwischen "Performance" und "Quality"? Also in Prozent.

mapel110
2011-01-25, 17:34:26
Jetzt filtert AMD noch weniger Tri bei Q und ihr belohnt das auch noch.

Langenscheiss
2011-01-25, 17:49:10
Jetzt filtert AMD noch weniger Tri bei Q und ihr belohnt das auch noch.
Im Grunde stimmt das nicht. Es haben sich nur alle Bi-Bänder verschoben. Diese Verschiebung wirkt sich halt auf LOD 0 so aus, dass der Algorithmus etwas früher aufhört, trilinear zu sampeln (bei entsprechender footprint-Größe nicht nötig). Wenn man aber im gleichen Maße den Aniso-Bias reduziert, d.h. die Diskrepanz auf LOD 0 durch einen angepassten anisotropen Filter eliminiert, ist man am Ende bei ähnlicher BQ im Sinne von kaum unterscheidbar, zumindest wenn man es nicht übertreibt. Davon abgesehen sind die wahren Sample-Zahlen sowieso noch anders. AMD filtert allem anschein nach, was das angeht, "by the book", d.h. 2x,4x,8x,16x und damit gezwungener Maßen oft mehr als Nvidia.
Wenn man Q+trilineare Optimierung mit AMD Q vergleicht, geht das schon in Ordnung, was den Rechenaufwand für die beiden Karten angeht. Die BQ steht auf einem anderen Blatt Papier.

Blaire
2011-01-25, 17:52:01
Sry Raff aber das ist wohl ein Scherz? Ich meine damals wurde G7x HQ auch weiter gebencht, hier wird AMD noch dafür belohnt? Das sollte man eigentlich erst dann tun, wenn die Filterqualität verbessert wird und dies ist nicht der Fall. Noch dazu da Nvidia wohl unter DX10/11 immer mit HQ ausführt.

Ihr könntet doch als Kompromiss beides testen, so daß man erahnen kann wieviel Leistung AMD hier gegenüber HQ gewinnt.

Langenscheiss
2011-01-25, 17:54:58
Noch dazu da Nvidia wohl unter DX10/11 immer mit HQ ausführt.
Das ist allerdings schon ein schlagendes Argument. Die trilineare Optimierung bringt definitiv Performance, und wenn Nvidia hier immer HQ ansetzt, ist es imo zwar nicht in Ordnung von Nvidia, aber man muss fairer Weise Rücksicht darauf nehmen.

LovesuckZ
2011-01-25, 17:56:45
Das ist allerdings schon ein schlagendes Argument. Die trilineare Optimierung bringt definitiv Performance, und wenn Nvidia hier immer HQ ansetzt, ist es imo zwar nicht in Ordnung von Nvidia, aber man muss fairer Weise Rücksicht darauf nehmen.

Es geht ja nichtmal darum. In Crysis ist die Qualität von AMD unter aller Kanone. Und die PCGH.de verwendet das Spiel weiterhin zum Vergleich. Soetwas ist hochgradig lächerlich, weil im Grunde egal ist, was AMD macht. Würden sie in Crysis überhaupt nicht mehr filtern, würde man das Spiel weiterhin nehmen...

Langenscheiss
2011-01-25, 18:07:54
Für mich ist das entscheidende Problem, zu entscheiden, ob man die Wahl des Qualitäts-Modus nach dem vermuteten Rechenaufwand (normiert auf die Leistung der Karte) oder der gelieferten Qualität trifft.
Nimm z.B. die HQ Problematik. Es gibt bestimmt genug Spiele/Situationen in Dx10/11, in denen die gelieferte BQ von AMD ähnlich ist mit der von NV. Aber wenn NV hier immer HQ ansetzt, isses in Benchmarks irgendwo auch wieder unfair, auf Grund der trilinearen Optimierung.
Wenn man dann aber Crysis !Dx9! mit NV Standard-Einstellungen nimmt, kann man nicht mehr von vergleichbarer BQ sprechen, egal ob man jetzt bei AMD Q oder HQ wählt, wenn gleich Q vom Rechenaufwand sicher ähnlich hoch ist wie NVs Q + trilineare Optimierung. Es stellt sich erneut die Frage: Was ist hier fair? Welchen Maßstab lege ich an.

LovesuckZ
2011-01-25, 18:13:02
Für mich ist das entscheidende Problem, zu entscheiden, ob man die Wahl des Qualitäts-Modus nach dem vermuteten Rechenaufwand (normiert auf die Leistung der Karte) oder der gelieferten Qualität trifft.
Nimm z.B. die HQ Problematik. Es gibt bestimmt genug Spiele/Situationen in Dx10/11, in denen die gelieferte BQ von AMD ähnlich ist mit der von NV. Aber wenn NV hier immer HQ ansetzt, isses in Benchmarks irgendwo auch wieder unfair, auf Grund der trilinearen Optimierung.
Wenn man dann aber Crysis !Dx9! mit NV Standard-Einstellungen nimmt, kann man nicht mehr von vergleichbarer BQ sprechen, egal ob man jetzt bei AMD Q oder HQ wählt, wenn gleich Q vom Rechenaufwand sicher ähnlich hoch ist wie AMDs Q + trilineare Optimierung. Es stellt sich erneut die Frage: Was ist hier fair? Welchen Maßstab lege ich an.

Diese Features nennen sich ja "Bildqualitätsverbesserungstechniken". Hier geht es allein um das Ergebnis und nicht dem Weg. Wenn man sich Crysis ansieht, dann interessiert es einem nicht, ob der Aufwand der selbe ist. Das Ergebnis ist einfach nur schlecht. Genauso wie in einer Prüfung: Es interessiert den Prüfern nicht, ob der Lernaufwand zwischen zwei Leuten gleich war, wenn der eine am Ende einfach mehr wusste und qualitativ bessere Antworten gab.
Crysis zeigt doch sehr schön, wie komisch man sich bei der PCGH.de verhält: Einerseits aufzeigen wie schlecht AMD dort filtert, andererseits das Spiel weiterhin als Vergleich verwenden, ohne das Ergebnis von AMD entsprechend dem von nVidia anzupassen. Dann brauche ich auch niemanden, der mir sagt, wie schlecht AMD ist...

Langenscheiss
2011-01-25, 18:18:31
Diese Features nennen sich ja "Bildqualitätsverbesserungstechniken". Hier geht es allein um das Ergebnis und nicht dem Weg. Wenn man sich Crysis ansieht, dann interessiert es einem nicht, ob der Aufwand der selbe ist. Das Ergebnis ist einfach nur schlecht. Genauso wie in einer Prüfung: Es interessiert den Prüfern nicht, ob der Lernaufwand zwischen zwei Leuten gleich war, wenn der eine am Ende einfach mehr wusste und qualitativ bessere Antworten gab.
Crysis zeigt doch sehr schön, wie komisch man sich bei der PCGH.de verhält: Einerseits aufzeigen wie schlecht AMD dort filtert, andererseits das Spiel weiterhin als Vergleich verwenden, ohne das Ergebnis von AMD entsprechend dem von nVidia anzupassen. Dann brauche ich auch niemanden, der mir sagt, wie schlecht AMD ist...

Okay, das kann ich akzeptieren. Aber dann komm bitte bei anderen Spielen nicht damit, dass AMDs Q zwar fast gleiche BQ bietet, aber dafür eine trilineare Optimierung einsetzt, was dann widerum gegen die Wahl der Q-Einstellung sprechen würde. Das Problem bei deiner Argumentation bezüglich der aktuellen Problematik ist, dass AMDs Karten auf HQ und Q wohl in 90% nicht (d.h. ohne genau Analyse an Screenshots) voneinander zu unterscheiden sind. Wenn du also sagst, dass nicht der Weg sondern das Ergebnis zählt, dann musst du aber genau dies widerum als Legitimation für die Wahl von Q betrachten.

DrFreaK666
2011-01-25, 18:20:51
Ich hoffe, dass die nächsten GPUs von AMD besser filtern.
Ich bemerke sogar bei Silverfall ein Flimmern, und da kann man nun nicht von detailierten Texturen reden. Zum Glück reichts noch für 4xSGSSAA.
Aber langsam käst es mich auch an :mad:

LovesuckZ
2011-01-25, 18:21:28
Okay, das kann ich akzeptieren. Aber dann komm bitte bei anderen Spielen nicht damit, dass AMDs Q zwar fast gleiche BQ bietet, aber dafür eine trilineare Optimierung einsetzt, was dann widerum gegen die Wahl der Q-Einstellung sprechen würde. Das Problem bei deiner Argumentation bezüglich der aktuellen Problematik ist, dass AMDs Karten auf HQ und Q wohl in 90% nicht (d.h. ohne genau Analyse an Screenshots) voneinander zu unterscheiden sind. Wenn du also sagst, dass nicht der Weg sondern das Ergebnis zählt, dann musst du aber genau dies widerum als Legitimation für die Wahl von Q betrachten.

Meine Argumentation geht viel weiter: Ohne SSAA darf man AMD's Karten einfach nicht mit nVidia vergleichen, wenn man ansiotrope Filterung aktiviert. Und unter OpenGL und DX1x müssen sie eben mit einem "zu schlecht" makiert werden. Ansonsten brauchen wir keine Bildqualitätsvergleiche mehr, wenn die Bildqualität sowieso nur sekundäre Beachtung findet. Beim AA ist es nicht ganz so wild. Aber beim AF sind die Unterschiede schon groß, dass es Hohn ist beide miteinander zu vergleichen.

Langenscheiss
2011-01-25, 18:31:11
Meine Argumentation geht viel weiter: Ohne SSAA darf man AMD's Karten einfach nicht mit nVidia vergleichen, wenn man ansiotrope Filterung aktiviert. Und unter OpenGL und DX1x müssen sie eben mit einem "zu schlecht" makiert werden. Ansonsten brauchen wir keine Bildqualitätsvergleiche mehr, wenn die Bildqualität sowieso nur sekundäre Beachtung findet. Beim AA ist es nicht ganz so wild. Aber beim AF sind die Unterschiede schon groß, dass es Hohn ist beide miteinander zu vergleichen.
Ich rede hier aber nicht von BQ-Vergleichen, sondern Benchmarks. Du meinst also, dass man AMDs Karten demnächst nur noch mit SSAA benchen sollte. Das wäre eine Extremmaßnahme, die vielleicht etwas bringen würde im Sinne von Einsehen seitens AMD, wenn jeder Bencher das durchziehen würde, und wenn überhaupt, dann nur im direkten Vergleich zwischen Nvidia und AMD. Es geht aber in Tests auch darum, zu zeigen, was die Karte unabhängig von der Konkurrenz in Spielen bei, für das Niveau der Graka, "ansprechender" BQ leistet. Wenn die benchmarks hier nicht zweigleisig wären, fänd ich das nicht so toll.
Außerdem: Ja, AMD filtert schlechter, aber sooooooooooo gewaltig ist der Unterschied auch nicht. Deine Maßnahme wäre nicht selten eine klare Bevorzugung von Nvidia.

y33H@
2011-01-25, 18:34:11
Würde man nur noch SSAA benchen (AMD + NV), dann wären die Radeons bei den Balken (klar) in Front. Außer unter DX10/11, da stünde eine 0 :ugly:

LovesuckZ
2011-01-25, 18:40:23
Es geht aber in Tests auch darum, zu zeigen, was die Karte unabhängig von der Konkurrenz in Spielen bei, für das Niveau der Graka, "ansprechender" BQ leistet. Wenn die benchmarks hier nicht zweigleisig wären, fänd ich das nicht so toll.

Zeige mir einen Test, indem es nicht darum geht für den Leser eine Erleichterung bei der Kaufentscheidung zu ermöglichen. Es werden immer verschiedene Karten verglichen.


Außerdem: Ja, AMD filtert schlechter, aber sooooooooooo gewaltig ist der Unterschied auch nicht. Deine Maßnahme wäre nicht selten eine klare Bevorzugung von Nvidia.

Es ist weder die Schuld von nVidia, von mir oder den Testern, wenn AMD nicht eine verdammt ähnliche BQ liefern kann. Warum muss eigentlich nVidia dauernd benachteiligt werden? 8xMSAA wird dauernd verwendet statt 16xCSAA. Oder wieso gibt es kein 16xQ und 16xEQAA?

Es geht auch niemand darauf ein, dass mit einer nVidia-Karte absolut die bessere BQ zu erreichen ist. Dauernd gibt es ein paar, AMD-freundliche Settings, und Kritik wird irgendwo am Rande geübt. Und dann wundert man sich, dass Leute SSAA als Propagandazweck missbrauchen - nur weil AMD dort schneller ist.

Langenscheiss
2011-01-25, 18:52:18
Zeige mir einen Test, indem es nicht darum geht für den Leser eine Erleichterung bei der Kaufentscheidung zu ermöglichen. Es werden immer verschiedene Karten verglichen.



Es ist weder die Schuld von nVidia, von mir oder den Testern, wenn AMD nicht eine verdammt ähnliche BQ liefern kann. Warum muss eigentlich nVidia dauernd benachteiligt werden? 8xMSAA wird dauernd verwendet statt 16xCSAA. Oder wieso gibt es kein 16xQ und 16xEQAA?

Es geht auch niemand darauf ein, dass mit einer nVidia-Karte absolut die bessere BQ zu erreichen ist. Dauernd gibt es ein paar, AMD-freundliche Settings, und Kritik wird irgendwo am Rande geübt. Und dann wundert man sich, dass Leute SSAA als Propagandazweck missbrauchen - nur weil AMD dort schneller ist.

Zum ersten Punkt. Es gibt auch im Performance-Bereich noch anderen Kauf-Argumente für einen bestimmten Hersteller als das BQ/Performance-Verhältnis. Für diese Leute sollte man dann aber trotzdem Benches ohne SSAA und co machen. Im HighEnd-Bereich bin ich deiner Meinung.

Naja, und zum anderen. Wodurch wird Nvidia benachteiligt bzw. was soll die Tester machen, damit es nicht mehr so ist? Du willst nicht, dass sie dir ständig vorbrabbeln, dass Nvidia (bei vermutlich ähnlichem Aufwand) die besser BQ liefert. Aber wenn man plötzlich SSAA hinzuschaltet, ist es oft nicht nur das Erreichen des Status quo, sondern eine Benachteiligung von AMD, und das willst du doch sicher genauso wenig wie eine Benachteiligung von Nvidia, oder? Ist zwar schon alt, aber nimm z.B. Hl2 oder TrackMania. Ohne SSAA sehen diese Spiele schlechter aus auf aktuellen AMD-Karten, mit SSAA bei AMD widerum deutlich besser als auf Nvidia-Karten (abgesehen vom banding auf Cypress). Und wenn ich jetzt sage, man sollte doch beide Karten auf SSAA benchen, dann kommt natürlich das berechtigte Argument, dass dies nicht dem üblichen Fall entspricht.
Versteh mich nicht falsch, ich sehe dein Anliegen bzw. Problem, aber so einfach, wie du dir das vorstellst, kommt man glaub ich nicht zu einer gerechten Lösung.

LovesuckZ
2011-01-25, 19:11:22
Zum ersten Punkt. Es gibt auch im Performance-Bereich noch anderen Kauf-Argumente für einen bestimmten Hersteller als das BQ/Performance-Verhältnis. Für diese Leute sollte man dann aber trotzdem Benches ohne SSAA und co machen. Im HighEnd-Bereich bin ich deiner Meinung.

In diesem Bereich ist es doch doppelt fatal keine vernünftige BQ-Filterung anzubieten, weil man keine zusätzliche Leistung für SSAA hat.


Naja, und zum anderen. Wodurch wird Nvidia benachteiligt bzw. was soll die Tester machen, damit es nicht mehr so ist? Du willst nicht, dass sie dir ständig vorbrabbeln, dass Nvidia (bei vermutlich ähnlichem Aufwand) die besser BQ liefert. Aber wenn man plötzlich SSAA hinzuschaltet, ist es oft nicht nur das Erreichen des Status quo, sondern eine Benachteiligung von AMD, und das willst du doch sicher genauso wenig wie eine Benachteiligung von Nvidia, oder?

Ich will kein SSAA gegen "reines" MSAA. TS-AAA + HQ-AF auf nVidia-Seite ist ein faires Gegengewicht. Nur kann man nicht mehr beim reinen MSAA bleiben, wenn man SSAA benötigt, um auf die BQ von nVidia's Filterung zu kommen. Ansonsten soll mir ein Reviewer mal erklären, warum er ausgerechnet beim AA sehr ähnliche BQ will, aber beim AF es ihm nicht interessiert.


Versteh mich nicht falsch, ich sehe dein Anliegen bzw. Problem, aber so einfach, wie du dir das vorstellst, kommt man glaub ich nicht zu einer gerechten Lösung.

Siehe erstes Zitat. Klar ist SSAA reines MSAA+AF in bestimmten Bereichen überlegen. Aber man kann bei nVidia sehr stark individualisieren. Und wenn ich mir Crysis ansehe, dann ist es einfach nicht mehr fair.

deekey777
2011-01-25, 19:19:26
Die gleiche Person forderte vor Jahren, dass man 8xCSAA gegen 8xMSAA testen soll, weil bei AF geschummelt wird. Jetzt sind wir so weit, dass SGSSAA gegen TAA+HQAF getestet werden soll.

LovesuckZ
2011-01-25, 19:25:05
Die gleiche Person forderte vor Jahren, dass man 8xCSAA gegen 8xMSAA testen soll, weil bei AF geschummelt wird. Jetzt sind wir so weit, dass SGSSAA gegen TAA+HQAF getestet werden soll.

Ich habe gefordert: 16xCSAA gegen 8xMSAA bei bleibendem Flimmer-AF.

PCGH_Raffael
2011-01-25, 19:33:52
Ihr könntet doch als Kompromiss beides testen, so daß man erahnen kann wieviel Leistung AMD hier gegenüber HQ gewinnt.

"Beides testen" entspricht dem Benchen von 10 anstelle von 5 Karten. Da wir normalerweise kein Treibermischmasch praktizieren, ist das kein gangbarer Weg.

Würden sie in Crysis überhaupt nicht mehr filtern, würde man das Spiel weiterhin nehmen...

Ansonsten soll mir ein Reviewer mal erklären, warum er ausgerechnet beim AA sehr ähnliche BQ will, aber beim AF es ihm nicht interessiert.

Du hast vollkommen Recht. Wir sind doof, Bildqualität interessiert uns nicht die Bohne.

___

Wir haben HQ und Q in diversen Ernstfällen verglichen und Differenzbilder erstellt. Heraus kam, dass Q im Zweifel das ruhigere Bild liefert, während offensichtliches Banding, das vom Bri-Filter herrührt, nicht oder nur im vergleichbaren Maße wie bei Nvidia auftrat. In den Differenzbildern zeigen sich kaum Unterschiede, bis auf die Banden – dito bei Nvidia (Q gegen HQ). Würde Q nicht im Zweifel das angenehmere Bild liefern, hätten wir nicht so gehandelt. Die Kritik am Radeon-AF nimmt dadurch ja nicht ab. Und wir hoffen sehr, dass AMD die Message wirklich aufgenommen hat und die Ingenieure das AF in neuen Chips verbessern. Wenn es für den nächsten nicht schon zu spät ist ...

Crysis Warhead ist in der Tat ein Fall, bei dem wir über Konsequenzen nachdenken, weil AMD hier nicht dieselbe Arbeit leistet wie Nvidia. So einfach ist das aber nicht. Tests ohne AA/AF sind wenig zielführend. ;) Ich habe eine Weile mit Nvidias Filter-Optionen experimentiert und fand, dass "Quality" inklusive beider Sparmaßnahmen ein ähnlich flimmriges Bild bringt wie eine Radeoon HD 6000. Nur kann es keine Lösung sein, die Bench-BQ auf beiden Seiten sichtbar zu senken.

MfG,
Raff

nagus
2011-01-25, 19:36:33
"Beides testen" entspricht dem Benchen von 10 anstelle von 5 Karten. Da wird normalerweise kein Treibermischmasch praktizieren, ist das kein gangbarer Weg.

:up: (im gegensatz zu CB, die alle möglichen treiber mischen... da kann man sich den test auch gleich sparen)

Gipsel
2011-01-26, 01:10:27
Die SSAA-Diskussion wurde hierhin (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8530217#post8530217) verschoben.

Mr. Lolman
2011-01-26, 08:45:21
Siehe erstes Zitat. Klar ist SSAA reines MSAA+AF in bestimmten Bereichen überlegen. Aber man kann bei nVidia sehr stark individualisieren. Und wenn ich mir Crysis ansehe, dann ist es einfach nicht mehr fair.

Dafür sind bei Ati bei Crysis die Schatten besser. Und bei Farcry2 waren (sind?) sie das auch, und niemanden hats auch nur die Bohne interessiert. Also halt mal besser die Füße still....

Coda
2011-01-26, 14:51:23
Dafür sind bei Ati bei Crysis die Schatten besser.
Das halte ich für ein Gerücht. Es gibt an dieser Stelle keinerlei Spezialpfad für die Hersteller und die Rechengenauigkeit ist spätestens seit D3D11-Hardware vollständig vorgegeben.

y33H@
2011-01-26, 14:59:23
Bei Crysis sind die Schatten identisch *seufz*

Schaffe89
2011-01-26, 15:00:18
Das sollte man eigentlich erst dann tun, wenn die Filterqualität verbessert wird und dies ist nicht der Fall. Noch dazu da Nvidia wohl unter DX10/11 immer mit HQ ausführt.



Vielmehr wurde es deswegen gemacht weil die BQ von AMD zu Barts unnötig gesenkt wurde, jetzt wurde sie etwas verbessert und Q ist eigentlich gleichwertig mit HQ, warum also HQ testen?
Und wenn Nvidia als default HQ für directx10/11 vorsieht, dann sollen sie doch, kostet ihnen eh nur 0 bis 2% im Schnitt und ist nett für BQ Festischisten.

Langenscheiss
2011-01-26, 15:08:41
Vielmehr wurde es deswegen gemacht weil die BQ von AMD zu Barts unnötig gesenkt wurde, jetzt wurde sie etwas verbessert und Q ist eigentlich gleichwertig mit HQ, warum also HQ testen?

Bewusst gesenkt wurde erst mal nichts (das Flimmern war sicherlich nicht reine Absicht), und auch vorher war Q annähernd gleichwertig, wenn man nur die BQ betrachtet. Anhand einiger Bilder sieht man zugegeben bei genauer Betrachtung minimale Unterschiede, aber ob diese Unterschiede in Echtzeit jetzt ausschlaggebend sind dafür, dass jetzt plötzlich wieder Q und nicht HQ die Stufe der Wahl ist, ist auf jedenfall diskussionwürdig (es wurde ja diskutiert). PCGH hat sich jetzt nun mal dafür entschieden, Q zu wählen, und ich finde, dass man sowohl sinnvoll dafür auch als dagegen argumentieren kann. Dazu kommt ja auch, dass man zum Barts release auch schon ein wenig geschockt war über das Flimmern. In solchen Momenten kann man schnell solche Entscheidungen treffen, für die man, je länger man darüber nachdenkt, auch wieder Gegenargumente finden kann. Ich denke nicht, dass wir das hier PCGH vorwerfen können.

Schaffe89
2011-01-26, 15:17:35
Bewusst gesenkt wurde erst mal nichts (das Flimmern war sicherlich nicht reine Absicht), und auch vorher war Q annähernd gleichwertig, wenn man nur die BQ betrachtet.

Ja da kann man sicherlich geteilter Meinung sein.
Aber ich denke auf jeden Fall dass die Entscheidung so korrekt war, weil man sich in Puncto BQ schon auf einem sehr sehr hohem Niveau befindet, was das Meckern angeht.

Es ist weder die Schuld von nVidia, von mir oder den Testern, wenn AMD nicht eine verdammt ähnliche BQ liefern kann. Warum muss eigentlich nVidia dauernd benachteiligt werden?

Nvidia wird also benachteiligt, wenn in Tests darauf hingewiesen wird, dass AMD in diversen Spielen flimmeranfälligeres AF bietet und sogar einige Tester noch mit HQ benchen, was die Performance einer HD6970 fast unter die einer GTX570 drückt und Nvidia zusätzlich noch als default HQ (weil sies können) für ihre Karten in direct x10+ anbietet? Das ist schon sehr weit hergeholt.
Zudem beschuldigst du Tester sie intressieren sich nicht für die AF Qualität bedenkst aber dabei nicht, dass man hier nicht die Möglichkeit hat das anzugleichen und die Unterschiede äußerst minimal und sich deswegen PCGH auch entschlossen hat wieder Q zu benchen, weil man mit HQ einfach nicht eine BQ Angleichung erreicht und somit halt wie gehabt im Fazit erwähnt wird, dass die Filterung bei AMD etwas schlechter sei.
Was sollen diese grotesken Posts? Suggestives Vorgehen, in vielen deiner Posts ist eigentlich unerwünscht.

Coda
2011-01-26, 15:19:49
Ja da kann man sicherlich geteilter Meinung sein.
Bezüglich was?

Schaffe89
2011-01-26, 15:28:02
Ob man nun HQ beibehält oder wieder Q nimmt.

Coda
2011-01-26, 15:33:51
Eh scheiß egal auf der derzeitigen AMD-Hardware. Das AF ist einfach kaputt, das wird erst die nächste Generation richten.

Schaffe89
2011-01-26, 15:34:12
Es geht auch niemand darauf ein, dass mit einer nVidia-Karte absolut die bessere BQ zu erreichen ist. Dauernd gibt es ein paar, AMD-freundliche Settings, und Kritik wird irgendwo am Rande geübt. Und dann wundert man sich, dass Leute SSAA als Propagandazweck missbrauchen - nur weil AMD dort schneller ist.



Also laut PCGH ist AMD bei SGSSAA unter directx9 BQ mäßig+ HQ im Vorteil. Vorteil für Nvidia unter directx11, da dort kein SGSSAA bei AMD geht, dafür aber downsampling, was auch sehr schön anzusehen ist.
Schade ist nur dass unter directx10/11 das nicht konform mit den Spezifikationen für directx11 ist, was Nvidia inoffiziell mit einem Zusatztool umgehen lässt.

Was sind AMD freundliche Settings?

Wer missbraucht das als Propagandazweck?

y33H@? Weil er sachlich davon berichtet,dass AMD schneller wäre unter directx9? Oder wen meinst du da?

Das AF ist einfach kaputt,

Kaputt?

Coda
2011-01-26, 15:37:15
Kaputt?
Kaputt. Die Chips haben einen Bug in Hardware, deshalb das Flimmern.

Schaffe89
2011-01-26, 15:42:28
Nun, wenn man sich soweit im Klaren ist, könnten die Provozierer doch auf davon absehen, ständig Cheat zu rufen. ;-)

Coda
2011-01-26, 15:48:31
Prinzipiell schon, allerdings muss man auch schauen dass das falls sie es wirklich fixen nicht wieder in Zukunft einreißt durch "Sampleoptimierungen" auf HQ.

Ich erwarte auf der höchsten Einstellung einfach ein kompromisslos sauberes AF. Alles andere ist moderner Hardware komplett unwürdig.

Mr. Lolman
2011-01-26, 16:12:47
Bei Crysis sind die Schatten identisch *seufz*

Tatsächlich? Hat NV nachgezogen, oder Ati die Schattenqualität wieder geändert? Da gabs ja mal nen Artikel auf PCGH (ca. zeitgleich gabs auch einen, wo man die Unterschiede in Farcry2 schön sah).


Das halte ich für ein Gerücht. Es gibt an dieser Stelle keinerlei Spezialpfad für die Hersteller und die Rechengenauigkeit ist spätestens seit D3D11-Hardware vollständig vorgegeben.

Im Spiel eh nicht. Aber im Treiber. Eine Zeitlang wars bei Ati sogar so, dass die unterschiedlichen Schattenfilter Optionen (über die Konsole in Crysis) garkeine Wirkung gezeigt haben. An dem Spiel ist treiberseitig sehr viel herumgedoktort worden.

Coda
2011-01-26, 16:16:44
Ich weiß nur, dass ich eine zeitlang störende weiße Punkte und Shadow Acne auf RV770 beobachten durfte. Sowas ist mir bei NVIDIA nie aufgefallen.

Aber nun gut, sei's dahingestellt. Dass das Spiel von beiden IHVs überoptimiert wurde ist kein Geheimnis.

Langenscheiss
2011-01-26, 17:41:08
Ich weiß nur, dass ich eine zeitlang störende weiße Punkte und Shadow Acne auf RV770 beobachten durfte. Sowas ist mir bei NVIDIA nie aufgefallen.

Aber nun gut, sei's dahingestellt. Dass das Spiel von beiden IHVs überoptimiert wurde ist kein Geheimnis.
Diese Punkte bekomme ich immer unter Dx10. Unter Dx9 mit gemoddeten Konfigs passiert das nicht. Vorher mit meiner 8800GTX ist mir das auch nicht aufgefallen.

Naja, und ich hoffe doch, dass die nächste Generation das AF richtet. Wir haben beim Barts/Cayman ja auch gehofft, doch es wurde weder das banding vollständig beseitigt noch die generell schlechtere Qualität im Vergleich zu Nvidia verbessert, obwohl doch zumindest, was den Verkauf angeht (beim tapeout weiß ich es nicht), knapp ein Jahr dazwischen lag.

LovesuckZ
2011-01-26, 17:53:07
Nvidia wird also benachteiligt, wenn in Tests darauf hingewiesen wird, dass AMD in diversen Spielen flimmeranfälligeres AF bietet und sogar einige Tester noch mit HQ benchen, was die Performance einer HD6970 fast unter die einer GTX570 drückt und Nvidia zusätzlich noch als default HQ (weil sies können) für ihre Karten in direct x10+ anbietet? Das ist schon sehr weit hergeholt.

Ich antworte darauf mal mit einem "hä".
Es ist nVidia's Dummheit, dass sie unter DX1x dauernd HQ-ähnlich filtern. Es ist jedoch nicht ihre Dummheit, dass der Konkurrent eine AF-Implementierung hat, die der Zeit einfach hinterhinkt.
Es ist absurd den AA-Grad zu erhöhen, um Kantenflimmern zu beseitigen, aber gleichzeitig ist es egal, dass vorallem bei AMD durch das Hinzuschalten von AF ein Flimmern sowie Banding in das Bild gebracht wird, dass so deutlich ist, dass es in Anwendungen auffällt.
nVidia wird für ihre Kundenfreundlichkeit bestraft, da dauernd mit 8xMSAA verglichen wird, wobei sie deutlich schnellere CSAA Modi haben, gleichzeitig darf AMD weiter an der BQ-Schraube rumpanschen. Wer keinen Wert auf BildRUHE legt, der wird sich sehr schnell auch mit CSAA anfreunden.


Zudem beschuldigst du Tester sie intressieren sich nicht für die AF Qualität bedenkst aber dabei nicht, dass man hier nicht die Möglichkeit hat das anzugleichen und die Unterschiede äußerst minimal

Nur weil bei DIR alles "minimal" ist, ist dies noch lange nicht die Wirklichkeit. Die Unterschiede zwischen 16xCSAA und 8xMSAA sind auch in vielen Fällen "minimal". Trotzdem ist 8xMSAA a)besser von der Qualität und b)natürlich mit dem 8xMSAA von AMD zu vergleichen.

und sich deswegen PCGH auch entschlossen hat wieder Q zu benchen, weil man mit HQ einfach nicht eine BQ Angleichung erreicht und somit halt wie gehabt im Fazit erwähnt wird, dass die Filterung bei AMD etwas schlechter sei.
Was sollen diese grotesken Posts? Suggestives Vorgehen, in vielen deiner Posts ist eigentlich unerwünscht.

Die PCGH.de testet auch weiter Crysis - eine Anwendung, in der sie selbst gezeigt haben, wie minderwertig die Qualität ist. Eine Notiz im Fazit ist nichts Wert. Erst wenn es auch Konsequenzen auf die Balken hat, wird sich etwas ändern.

DrFreaK666
2011-01-26, 17:59:05
Vielleicht sollte man sich nicht nur auf die Balken verlassen , sondern auch mal das Fazit lesen...
Und mit Cypress Cayman gibts bei AMD auch "CSAA", welches afair schöner sein soll als das von NV. Bist immer noch für einen Vergleich?

airbag
2011-01-26, 17:59:23
@LZ
AMD hat auch CSAA bzw EQAA-Modi.
Davon abgesehen können sich es scheinbar erlauben unter DX10/11 HQ zu forcieren, da die Fermikarten im Moment recht performant dort scheinen.

LovesuckZ
2011-01-26, 18:01:46
Und mit Cypress gibts bei AMD auch "CSAA", welches afair schöner sein soll als das von NV. Bist immer noch für einen Vergleich?

Cypress hat kein CSAA, sondern nur Cayman. Und bietet hier nur mit 8xCSAA und 16xQCSAA sogar weniger Option als Fermi-basierte Karten und verlieren mehr Leistung. Laut Computerbase sollen sie jedoch mit (Stencil-)Schatten zusammenarbeiten, aber Bilder habe ich noch keine gesehen.

DrFreaK666
2011-01-26, 18:03:46
Meinte natürlich Cayman...

Mr. Lolman
2011-01-26, 19:32:23
Cypress hat kein CSAA, sondern nur Cayman. Und bietet hier nur mit 8xCSAA und 16xQCSAA sogar weniger Option als Fermi-basierte Karten und verlieren mehr Leistung. Laut Computerbase sollen sie jedoch mit (Stencil-)Schatten zusammenarbeiten, aber Bilder habe ich noch keine gesehen.

Du hast ja wiedermal eine blühende Phantasie. Cayman hat CSAA ab 2x aufwärts. Und es ergänzt Optimal mit SGSSAA. 2560x1600 2xSGSSAA + CSAA ist bspw. häufig möglich. Und in solchen Fällen kostet CSAA nichtmal 1 fps Leistung.

LovesuckZ
2011-01-26, 19:34:17
Du hast ja wiedermal eine blühende Phantasie. Cayman hat CSAA ab 2x aufwärts. Und es ergänzt Optimal mit SGSSAA. 2560x1600 2xSGSSAA + CSAA ist bspw. häufig möglich. Und in solchen Fällen kostet CSAA nichtmal 1 fps Leistung.

Cool, 4xCSAA. Ich spiel z.B. mit 8xSGMSAA und 2xSGSSAA. Dabei kostet dies gerademal 5-10% mehr Leistung als 2xSGSSAA.

Irgendwie dumm gelaufen dein Einwand.

Mr. Lolman
2011-01-26, 19:50:17
Herrlich wie du dermaßen konsequent ignorieren kannst, dass du Unsinn verzapfst.

LovesuckZ
2011-01-26, 19:58:45
Herrlich wie du dermaßen konsequent ignorieren kannst, dass du Unsinn verzapfst.

Ich habe 2xEQAA absichtlich vergessen. Wen interessiert es schon, wenn 4xMSAA kaum langsamer ist?
Komischerweise hat dich CSAA in den letzten Jahren nicht interessiert. Aber wie beim AF: Wie AMD es macht, Lolman findet es toll. :freak:

Banshee18
2011-01-26, 20:52:36
Lolman und LovesuckZ, seid lieb zueinander. ;(
Das AF ist einfach kaputt, das wird erst die nächste Generation richten.
Das sagt AMD, doch wie glaubwürdig sind sie?

DrFreaK666
2011-01-26, 21:18:11
Lolman und LovesuckZ, seid lieb zueinander. ;(

Das sagt AMD, doch wie glaubwürdig sind sie?

Hoffen wir, dass AMD Recht behält...
Ich (und hoffentlich auch andere User) wechsle zu NV wenn sie wieder das bessere Produkt haben sollten...

Schaffe89
2011-01-26, 21:34:03
Es ist nVidia's Dummheit, dass sie unter DX1x dauernd HQ-ähnlich filtern. Es ist jedoch nicht ihre Dummheit, dass der Konkurrent eine AF-Implementierung hat, die der Zeit einfach hinterhinkt.


Schaffst du es nicht sachlich und konstruktiv irgendetwas zu begründen?
Warum sollte denn Nvidia hier benachteiligt werden? Nur weil sie eine minimal bessere AF Implementierung haben und dies einen Pluspunkt im Review bedeutet? CB , PCGH, CT, HT4U sagen, dass das AF etwas schlechter ist, zumal AMD auch nicht cheatet und Performance absichtlich einspart.
Zumal HQ im vergleich zu Q bei Nvidia kaum Performance kostet.

Komischerweise hat dich CSAA in den letzten Jahren nicht interessiert.

CSAA spart, soviel ich weiß durch zusätzliche Samples V-ram ein, ist also in Verbindung mit SGSSAA sinvoll oder?

Banding in das Bild gebracht wird, dass so deutlich ist, dass es in Anwendungen auffällt.


Banding wurde mit Barts gefixt und es tritt soviel ich weiß nurnoch sporadisch in theoretischen Tests auf.
Bei Nvidia hingegen hast du dezentes BAnding, dafür weniger flimmern.

y33H@
2011-01-26, 21:37:37
Das "native filtering" der ALUs aber ist schon Absicht. Und daraus resultiert die Performance.

Schaffe89
2011-01-26, 21:43:18
Eine Notiz im Fazit ist nichts Wert. Erst wenn es auch Konsequenzen auf die Balken hat, wird sich etwas ändern.



Komplette Berichte über das schlechte AF imm PCGH Heft und allgegenwärtige Erwähnung soll also schlechter sein, wie ein Balken der 5% weniger Performance anzeigt, obwohl der User im Spiel nichts merkt ob Q oder HQ.
DAs sieht man eigentlich nur auf Differenzbildern.
Wie willst du denn den Balken verkürzen? 10 bis 15%? Okay dann merkt mans.

nVidia wird für ihre Kundenfreundlichkeit bestraft, da dauernd mit 8xMSAA verglichen wird, wobei sie deutlich schnellere CSAA Modi haben, gleichzeitig darf AMD weiter an der BQ-Schraube rumpanschen.

Wer vergleicht hier dauernd mit 8xAA? Was hat Kundenfreundlichkeit mit 8xAA zu tun? Soviel ich weiß wird in Tests wegen der Vergleichbarkeit vor allem auf 4x und 8xAA gesetzt, heißt ja nicht dass man es nutzen muss, ich finde 4xAA wichtiger.
Wo panscht AMD weiter an der BQ? Soviel ich weiß haben sie erst einen modifizierten Treiber gebracht, um die BQ etwas zu verbessern, zumal AMD auch CSAA besitzt, zumindest Cayman und nochmal zum Letzten: Wo wird Nvidia bestraft?

Entweder du zitierst meine Argumente und diskutierst sachlich oder lässt es sein, ich bin es langsam leid.;(

y33H@
2011-01-26, 21:50:32
5% können bereits den Unterschied machen zwischen HD 6970 vor oder hinter GTX 570. Und die Leute starren idR nur auf die Balken, dabei sind selbst +/- 10% hinsichtlich der Spielbarkeit vollkommen egal. Eine schlechtere BQ hat mehr Auswirkung auf die Immersion ... andererseits, sieht man sich die Konsolen an und Leute, die bei Uncharted 2 Tränen der Rührung weinen ... dann gilt das wohl auch nicht :usad:

Coda
2011-01-27, 08:15:20
Das sagt AMD, doch wie glaubwürdig sind sie?
Ich habe meine Gründe es für glaubwürdig zu halten.

Das "native filtering" der ALUs aber ist schon Absicht. Und daraus resultiert die Performance.
Du meinst TMUs oder?

Ich schätze es so ein, dass eher kein Performancevorteil daraus resultiert, wenn ich die Problembeschreibung korrekt interpretiert habe. Und nein, es ist keine Absicht.

y33H@
2011-01-27, 09:51:34
Sorry, natürlich TMUs. Die ALUs machen zwar Interpolation, aber filtern freilich nicht.

Cyphermaster
2011-01-27, 10:00:04
Es ist weder die Schuld von nVidia, von mir oder den Testern, wenn AMD nicht eine verdammt ähnliche BQ liefern kann.Es gibt keine Zwangsanforderung, daß irgendein Produkt das müßte - auch wenn dir das wohl nie beizubiegen ist. Eine Vergleichbarkeit 1,000 : 1,000 von Produkten mit der Konkurrenz ist auch nicht notwendig, egal wie schön das für Benchmarking-Zwecke wäre. Referenz ist ohnehin die mathematisch exakte Implementierung, nicht die Konkurrenz; sonst müßte man den mit dem besseren AF im Vergleich ja auch loben, obwohl sein AF trotzdem winkelabhängig, flimmrig usw. sein könnte (nur halt besser als das der Konkurrenz). Das kanns nicht sein.
Warum muss eigentlich nVidia dauernd benachteiligt werden?nVidia wird nicht benachteiligt, und wenn du das in riesigen Lettern an den Himmel schreiben ließest. Jede einzelne Testseite kann sich frei entscheiden, wie sie was testet! Es ist irrelevant, ob man unter verschiedenen Settings aber (subjektiv) gleicher/ähnlicher BQ testet, oder ob man trotz verschiedener BQ unter gleichen Settings bencht. Das Eine ist mehr der Blickwinkel des Kunden ("Wie schnell sind die Karten bei ähnlichem Aussehen im Spiel?"), der andere mehr der des Wissenschaftlers ("Wieviel Prozent Leistungsunterschied besteht unter welcher Einstellung zwischen den Karten?"), keine Sichtweise ist automatisch unfair. Man könnte theoretisch ja auch testen, wieviel BQ man bei z.B. fixen 30/45/60/75/... FPS aus jeder Karte rausholen kann. Relevant für die Qualität eines Reviews wird es dann, wenn es darum geht, wie man sowas erklärend kommentiert! Ohne diese Infos sind Diagramme nichtssagend, man braucht immer solche Randinformationen, z.B. welche BQ-Unterschiede sich daraus ergeben, wenn man HQ vs. HQ bencht, oder ab welchem Punkt/warum man HQ vs. Q als ähnliche Bildqualität betrachtet.

Es mag dich schockieren, wie simplifiziert viele DAUs ihre Kaufentscheidung einfach daran festmachen, welche Balkenlänge in irgendeinem Diagramm steht, und sich um die Settings bzw. deren Bedeutung einen feuchten Kehricht scheißen - aber Tests sind weder dazu da, noch geeignet, um die Eigenschaften von Karten so weit zu versimplifizieren, daß man daraus eine einzige Kennzahl machen kann. Egal, wie gut sie auch sein mögen. Wenn ein DAU so doof ist, daß er sich noch nicht mal die Benchmark-Settings an einem Diagramm durchliest, dann kann man ihm nicht helfen. So jemand würde auch eine GTX580 mit 16GB DDR2-RAM und 64Bit kaufen, weil er mal nen langen Balken mit "GTX580 Anisotrope Filterung" drauf gesehen hat, und so viel Speicher drauf verbaut ist. Und ich wette, er könnte dir nichtmal ansatzweise was dazu erklären, was über "Das macht das Bild besser" hinausgeht.

Coda
2011-01-27, 10:25:05
Sorry, natürlich TMUs. Die ALUs machen zwar Interpolation, aber filtern freilich nicht.
Was interpolieren sie denn?

y33H@
2011-01-27, 10:38:48
Die Texturinpolation (Pixel <> Texel) läuft nicht mehr über einen Teil der TMUs, sondern als Special-Function via den ALUs. Gerade bei AMD lag es nahe, das so zu machen.

Langenscheiss
2011-01-27, 10:43:02
@y33h:
Natürlich versucht AMD, möglichst performantes Filtern in Hardware umzusetzen, aber ich glaube auch nicht, dass die aktuelle flimmrige Lage reine Absicht war, und dass sie damit Performance gewinnen, glaube ich nach den Beiträgen aus dem B3D-Forum auch nicht mehr.
EDIT:
Kannst du mir eine Quelle für diese special-function Geschichte geben? Ich dachte bislang eigentlich immer, dass die Interpolation der Texels zum Pixel in den TMUs passiert....naja, im Grunde auch nicht weiter wichtig, wo das genau in Hardware steckt, hauptsache es läuft schneller.

Raff
2011-01-27, 10:44:43
Welche Beiträge genau? =)

MfG,
Raff

Coda
2011-01-27, 10:50:22
Die Texturinpolation (Pixel <> Texel) läuft nicht mehr über einen Teil der TMUs, sondern als Special-Function via den ALUs. Gerade bei AMD lag es nahe, das so zu machen.
Ich wollte dich nur testen :tongue:

Kannst du mir eine Quelle für diese special-function Geschichte geben? Ich dachte bislang eigentlich immer, dass die Interpolation der Texels zum Pixel in den TMUs passiert.
NVIDIA macht das seit G80 in den SFUs, AMD seit Cypress, wenn ich mich richtig entsinne.

Das ist halt ein Fall, in dem man Platz für Spezialhardware einsparen und stattdessen auf dem Chip mehr Universal-Einheiten verbauen kann.

Raff
2011-01-27, 10:53:15
NVIDIA macht das seit G80 in den SFUs, AMD seit Cypress, wenn ich mich richtig entsinne.

Evergreen, um genau zu sein. :D

MfG,
Raff

Langenscheiss
2011-01-27, 10:54:56
@Coda
Ah, okay. Danke. Mit diesen Architektur-Dingen kenne ich mich nicht so gut aus, aber interessieren tuts mich doch ;)

y33H@
2011-01-27, 10:56:36
Ich wollte dich nur testen :tongue:Du pööhser du :biggrin:

Ja, ab G80 und Evergreen-Gen. Und wie gesagt, an ALUs mangelt's AMD ja nicht ...

Coda
2011-01-27, 11:01:34
Es gibt auch ein Patent von NVIDIA das beschreibt wie die gleichen Multiplizierer und Addierer die für die Interpolation verwendet werden auch zur Auswertung der transzendenten Funktionen in den SFUs eingesetzt werden.

Bei AMD machen es halt die normalen FMA-Einheiten der ALUs. Da braucht man nichtmal Spezialbefehle.

y33H@
2011-01-27, 11:11:53
Seit Cayman können die VLIW4 ja eh alle das gleiche.

Gipsel
2011-01-27, 13:47:11
Es gibt auch ein Patent von NVIDIA das beschreibt wie die gleichen Multiplizierer und Addierer die für die Interpolation verwendet werden auch zur Auswertung der transzendenten Funktionen in den SFUs eingesetzt werden.

Bei AMD machen es halt die normalen FMA-Einheiten der ALUs. Da braucht man nichtmal Spezialbefehle.
Es wurden schon spezielle Interpolationsbefehle mit Evergreen eingeführt (die aber prinzipiell auch in normalem Code verwendet werden können). Ein interessanter Punkt ist, daß sie afair mit FP32-Genauigkeit arbeiten, obwohl für die TMUs eigentlich minimal weniger ausreichen würden (8 Bit [oder 9? Habe ich gerade nicht auf dem Schirm] für die Gewichte, mehr Abstufungen kennen die nicht, eigentlich erwarten die TMUs ein 13.8 Festpunktformat für die Texturkoordinaten).
In den SFUs können im Prinzip auch Multiplier mit geringerer Genauigkeit als FP32 (24Bit Mantisse) sitzen, das reicht für die transzendenten Funktionen aus. Aber höchstwahrscheinlich ist das minimale Sparpotential einfach den Aufwand nicht wert, da irgendwas Spezielles zu stricken. Insbesondere falls man noch größere Texturauflösungen (oder feinere Abstufungen der Gewichte) ermöglichen will, stößt man sehr schnell an die Grenzen des FP32 Formates. Und es gibt ja auch mehr als nur Texturkoordinaten zu interpolieren.
Seit Cayman können die VLIW4 ja eh alle das gleiche.Das wird oft gesagt und es gibt auch keine Einschränkungen, aber es ist nicht ganz richtig. Nur durch Kombination von x,y,z können die transzendenten Funktionen gerechnet werden, w spielt da keine Rolle. Die w-ALU ist also etwas kleiner, da dort die entsprechenden LUTs fehlen (und die in x, y, z sind auch unterschiedlich, sprich spezialisiert). Aber wie gesagt, resultiert daraus keine Einschränkung (noch nicht mal theoretisch).

y33H@
2011-01-27, 14:06:37
Hast du zu der w-ALU-Sache einen Link für mich?

Gipsel
2011-01-27, 14:14:36
Hast du zu der w-ALU-Sache einen Link für mich?Nicht wirklich. Die Doku zu Cayman ist bisher noch nicht raus. Also ist das bisher nur meine reine Beobachtung des erzeugten Codes (die transzendenten Funktionen gehen immer an x,y,z raus, an w nie [was allerdings auch an einer Compilerpräferenz liegen könnte]) gepaart mit ein wenig Überlegung (x,y,z müssen notgedrungen unterschiedliche Aufgaben übernehmen, und alle LUTs überall zu duplizieren wäre Verschwendung, daraus folgt: x bekommt eine LUT, y eine andere, z wieder eine andere und w gar keine). Irgendwann bei B3D im Forum stand sogar mal, welchen Algorithmus AMD für die transzendenten Funktionen benutzt. Aus dieser dunklen Erinnerung speist sich das mit den LUTs. Da müßte ich nochmal nachforschen, um das hundertprozentig festzuzurren.

Coda
2011-01-27, 17:35:33
Das klingt plausibel. Schade dass es keine Die-Shots von den neueren AMD-Chips gibt.