PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Qualität des AF auf Radeon HD 6800


Seiten : 1 2 3 [4] 5

Ailuros
2010-11-03, 14:29:16
Das ist kein "extremer Fall", das ist Moiré. Das hat NICHTS mit dem Auge zu tun. Da ist das Signal (= Das Licht was am Auge ankommt) von vornherein verflimmert, der Filter (= Das Hirn) kann also gar nichts besser machen.

Und wie bekaempft man moire patterns z.B. bei image processing? Du kannst mich gerne eines besseren belehren aber ich hab den Eindruck dass die descreen filter die hier meistens benutzt werden auf 2x Mal (oder mehr) der erwuenschten Aufloesung skalieren, einen blur oder despeckle filter anwenden, auf die erwuenschte Aufloesung zuruecksamplen und dann einen sharpening filter anwenden.

Und hier genau verlier ich den Zusammenhang; denn solche Methoden wie die descreen filter erinnern mich zu stark an anti-aliasing.

Du sagst selber dass der Filter (das Hirn) hier versagt. Ergo was bringe ich genau hier durcheinander?

Bei sowas werd ich echt pampig. Da werden grundsätzliche Zusammenhänge nicht verstanden und Dinge zusammengeworfen die nichts miteinander zu tun haben.

Eine Aufklaerung von jemand der sich um einiges besser in solchen Feldern auskennt, hilft stets.

Coda
2010-11-03, 14:33:59
Du sagst selber dass der Filter (das Hirn) hier versagt. Ergo was bringe ich genau hier durcheinander?
Nein. Sage ich nicht. Ich sage, dass es das wiedergibt was ankommt: Flimmern.

Du mischt hier Flimmern vom Eingangsignal und Flimmern von der Abtastung wild durcheinander. Wenn die Luft flimmert, dann flimmert sie, wenn der Fernseher flimmert, dann flimmert er, wenn man zwei Gitter hintereinander unterschiedlich bewegt dann flimmert es. Dagegen kann man nichts mehr machen und es ist eben das korrekte Ergebnis.

Was nicht korrekt ist, ist wenn etwas flimmert, obwohl es das Eingangssignal nicht tut.

Bei deinem Beispiel aus dem Image-Processing ("Karriertes Hemd vor der Kamera"), kommt Moiré daher das in der Abtastung ein zusätzliches Gitter ist, was im Eingangssignal noch nicht vorhanden war.

Ailuros
2010-11-03, 14:36:22
Das ist eine Ausrede und kein Grund.

Tja nur ist keine Ausrede mehr wenn man bedenkt mit was fuer Mitteln ein Film bearbeitet wird im Vergleich zu einem 0815 high end desktops. Wenn ich render farm zu Hause haette dann waere es auch ein anderes Kapitel.

Nein. Sage ich nicht. Ich sage, dass es das wiedergibt was ankommt: Flimmern.

Du mischt hier Flimmern vom Eingangsignal und Flimmern von der Abtastung wild durcheinander.

Jetzt faellt der Groschen endlich. Merci bien.

Langenscheiss
2010-11-03, 14:56:34
Da sind die Videos mit Barts Q und HQ ebenfalls. Soweit ich das gesehen habe, hat TwPc lediglich Ausschnitte des Filtertesters gezeigt.

Damit meinte ich nicht Video-Vergleiche, sondern Texel-Analysen. Die sind zwar absolut gesehen wohl nicht immer korrekt, aber wenn gleiche Hardware miteinander verglichen wird, sollten die gemessenen Unterschiede schon stimmen (bis auf eine unbekannte Normierung), da eventuelle Fehler sich beim Differenz-Bild wegheben können.

Banshee18
2010-11-04, 00:24:32
Ja, darüber diskutieren wir intern ebenfalls. Das ist alles von ganz vielen Faktoren abhängig, inklusive dem Auge welches davor sitzt.

Gruß
Peter
Hi Peter,
ich habe Interesse am Witcher-Savegame.
Selbst NV-Q ist da deutlich besser, als ATi-HQ. Da frage ich mich, wie NV mit "Leistung" oder "Hohe Leistung" aussieht und warum bisher Treiberstandard immer als vergleichbar gesehen wurde.

LovesuckZ
2010-11-04, 01:06:27
Das frage ich mich auch. Nach den Videos (HL2, The Witcher, Filtertester) ist selbst nVidia-Quality deutlich überlegen. Die Konsequenz darf also nicht sein, die Qualität bei nVidia weiter runterzuregeln, sondern sie muss bei AMD erhöht werden -> SGSSAA.

dllfreak2001
2010-11-04, 09:43:38
:biggrin: Dann musst du bei Nvidia-Karten auch Kantenglättung einschalten....

Fetter Fettsack
2010-11-04, 14:40:22
Die Konsequenz darf also nicht sein, die Qualität bei nVidia weiter runterzuregeln, sondern sie muss bei AMD erhöht werden -> SGSSAA.

Wieso muss man denn deiner Ansicht nach bei zwei Optionen (NV-Q vs. ATi HQ oder NV HQvs. ATi SGSSAA), bei denen jeweils Vergleichbarkeit gegeben ist, denn die nehmen, die für eine Firma überaus unvorteilhaft ist?

nV-Q vs. ATi-HQ ist gerecht, man kann die Leistung wunderbar messen und vergleichen, während dein anderer Vorschlag doch krass überzogen ist. Warum eigentlich, was versprichst du dir denn davon? :)

LovesuckZ
2010-11-04, 14:45:04
Wieso muss man denn deiner Ansicht nach bei zwei Optionen (NV-Q vs. ATi HQ oder NV HQvs. ATi SGSSAA), bei denen jeweils Vergleichbarkeit gegeben ist, denn die nehmen, die für eine Firma überaus unvorteilhaft ist?

nV-Q vs. ATi-HQ ist gerecht, man kann die Leistung wunderbar messen und vergleichen, während dein anderer Vorschlag doch krass überzogen ist. Warum eigentlich, was versprichst du dir denn davon? :)

Weil man nicht die Firma benachteiligen kann, die vernünftige Filterqualität bietet. Nach den Videos ist ein Vergleich nV-Q und AMD-HQ nicht gerechtfertigt, da nV-Q immer noch deutlich besser aussieht.
Entweder man schließt AMD Karten kategorisch aus, wenn es um höhrere Qualität geht oder man muss Settings finden, die ein nV-ähnliches Niveau erreichen. Und wenn das bei AMD nur über SSAA geht, dann haben sie einfach pech gehabt. Es hat sie niemand gezwungen eine g70-Q ähnliche Qualität ende 2010 anzubieten.

Langenscheiss
2010-11-04, 14:55:53
Auch wenn man da wieder den Fanboy raushören kann, so sehe ich doch (leider Gottes) einen gewissen Sinn dahinter. Imo kann man seit Barts AMD HQ nicht mehr mit NV Q vergleichen. NV Q ist eigentlich in den meisten Fällen, was die Qualität angeht, relativ nah dran an NV HQ, was definitiv von nichts überboten werden kann, was AMD bietet. Tja, und wenn SGSSSAA das einzige Mittel ist... Allerdings sieht AMD + SGSSAA wohl besser aus als NV Q, weshalb man dann auf NV eventuell auch eine vielleicht niedrige AA Stufe aktivieren sollte, um wirklich Vergleichbarkeit zu schaffen. Außerdem hat NV ja auch noch den Leistungs-Modus.
Dass Cypress flimmert, hat imo die gleiche Ursache wie das banding (hab ich auch hier im Forum schon mal irgendwo in Form eines Videos nahegelegt), insofern wäre ohne das banding Cypress HQ vergleichbar mit NV Q, aber bei Barts sehe ich das leider auch anders.

LovesuckZ
2010-11-04, 15:02:16
Allerdings sieht AMD + SGSSAA wohl besser aus als NV Q, weshalb man dann auf NV eventuell auch eine vielleicht niedrige AA Stufe aktivieren sollte, um wirklich Vergleichbarkeit zu schaffen.

Natürlich gehört bei nVidia AA mit TS-AA dazu. Und von mir aus darf man gerne AMD eine leicht bessere BQ durch verringertes Shader- und Texturaliasing zuschreiben. Aber ansonsten gibt es keine Möglichkeit einer vergleichbaren Einstellung.
"Leistung" oder "Hohe Leistung" sehe ich als lächerlich an. Denn irgendwann kommt man zum Punkt, wo man sagen muss: Dann kann ich gleich auf einer Konsole aus 4m Entfernung spielen.

Fetter Fettsack
2010-11-04, 15:03:21
Die Frage ist doch eher, kostet nv-Q mehr als ati-HQ respektive umgekehrt? Da AMD anscheinend eine recht mangelhafte und leistungsfressende Implementierung zu haben scheint, kann man, wie ich meine, sehr wohl sagen, dass eine gewisse Gleichberechtigung bei nv-Q vs. ati-HQ vorliegt.

Warum? Weil für ungefähr die selbe Leistung die GeForce-Karten ein besseres Bild als die AMD Karten zaubern können.

Zudem bedenke bitte auch das praktische Element. Kein Schwein wird um der Vergleichbarkeit willen bei der momentanen Situation keinerlei AMD Karten mit AF testen, nur weil die GeForce Karten einen (wenn überhaupt) marginalen Unterschied im AF-Berechnungsaufwand haben (egal, in welche Richtung, ich würde ja, wie gesagt, eher die Geforce im Vorteil sehen), zumal ohnedies die wenigsten User überhaupt einen Unterschied zwischen keinem AF und 8x sehen (behaupte ich jetzt^^).

LovesuckZ
2010-11-04, 15:07:55
Warum? Weil für ungefähr die selbe Leistung die GeForce-Karten ein besseres Bild zaubern als es die AMD Karten können.

Dann darf man AMD und nVidia-Karten nicht mehr miteinander vergleichen. Viel Spaß den Leuten zu erklären, warum die ein oder andere Karte besser sein sollte.


Zudem bedenke bitte auch das praktische Element. Kein Schwein wird um der Vergleichbarkeit willen bei der momentanen Situation keinerlei AMD Karten mit AF testen, nur weil die GeForce Karten einen (wenn überhaupt) marginalen Unterschied im AF-Berechnungsaufwand haben (egal, in welche Richtung, ich würde ja, wie gesagt, eher die Geforce im Vorteil sehen), zumal ohnedies die wenigsten User überhaupt einen Unterschied zwischen keinem AF und 8x sehen (behaupte ich jetzt^^).

Hm, dann brauchen wir auch keine Tests mit 8xMSAA. Erstes kann man bei nVidia den schnelleren CSAA, bei dem "zumal ohnedies die wenigsten User überhaupt einen Unterschied" sehen würden, aktivieren und zweitens macht er kein Sinn, wenn man die ansiotrope Filterqualität auf einem schlechten Niveau belässt.
Wenn man a sagt, sollte man endlich auch die Konsequenz davon tragen. Entweder zählt absolute BQ oder aber nur Trade-offs.

fizzo
2010-11-04, 15:11:43
Mal eine ganz banale Frage: bei welchen dieser 11 Spielen (http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/7/#abschnitt_benchmarks) ist für das geschulte Auge ein Qualitätsunterschied zwischen NV-Q bzw. AMD-HQ ersichtlich? Wieviel % des Spieleumfangs sind davon betroffen?

DrumDub
2010-11-04, 15:24:07
Mal eine ganz banale Frage: bei welchen dieser 11 Spielen (http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/7/#abschnitt_benchmarks) ist für das geschulte Auge ein Qualitätsunterschied zwischen NV-Q bzw. AMD-HQ ersichtlich? Wieviel % des Spieleumfangs sind davon betroffen? gute und wichtige frage. in den meisten fällen wird der unterscheid nämlich nicht auffallen. nicht umsonst werden immer beispielszenen in spielen gesucht bei denen es besonders auffällt.

auf der anderen seite muss man sagen, dass man amd trotzdem weiterhin auf die füßen treten sollte, weil sie es eigentlich besser können müssten und eine verschlechterung der standardqualität bei barts sowieso eine absolute frechheit ist.

mapel110
2010-11-04, 15:27:42
Hab den Thread hier glaube nicht so ganz verfolgt, aber hat denn mal ein Radeon6000-User Videos hochgeladen, wo es nicht zu sehen sein sollte?

Ronny145
2010-11-04, 15:31:10
Hab den Thread hier glaube nicht so ganz verfolgt, aber hat denn mal ein Radeon6000-User Videos hochgeladen, wo es nicht zu sehen sein sollte?

Was meinst du mit nicht zu sehen sein sollte?

Fetter Fettsack
2010-11-04, 16:11:02
Dann darf man AMD und nVidia-Karten nicht mehr miteinander vergleichen. Viel Spaß den Leuten zu erklären, warum die ein oder andere Karte besser sein sollte.

So habe ich das nicht gemeint. Mir ging es eher darum, dass man trotz des zarten (meiner Ansicht nach vorhandenen) AF-Leistungsvorteils der GeForces mit Q vs. AMD-HQ sagen kann, dass hier ungefähr Gleichstand herrscht. Mehr braucht es ja nicht, um relevante Vergleiche durchzuführen. Um das ging es mir. :)

Wenn man a sagt, sollte man endlich auch die Konsequenz davon tragen. Entweder zählt absolute BQ oder aber nur Trade-offs.

Bitte nocheinmal in der Version für geistige Nachzügler.

LovesuckZ
2010-11-04, 16:15:53
So habe ich das nicht gemeint. Mir ging es eher darum, dass man trotz des zarten (meiner Ansicht nach vorhandenen) AF-Leistungsvorteils der GeForces mit Q vs. AMD-HQ sagen kann, dass hier ungefähr Gleichstand herrscht. Mehr braucht es ja nicht, um relevante Vergleiche durchzuführen. Um das ging es mir. :)

Es geht hier nicht um Leistung, sondern um BQ. AMD's-HQ ist einfach nicht vergleichbar mit Q. Das wäre so als wenn auf eine Strecke ein Auto die Kurven abkürzt und der andere nur die Curbs mitnimmt. Und das bringt uns dann zu folgendem:


Bitte nocheinmal in der Version für geistige Nachzügler.

Es sollte Qualität zählen und nicht sichtbare Trade-offs. Weil dann darf man bei nVidia auch kein 8xMSAA für Vergleiche heranziehen, sondern die schnelleren 8xCSAA bzw. 16xCSAA Modi und bei Unterschieden reicht es dann zu behaupten: Sieht man beim Spielen sowieso nicht...

fizzo
2010-11-04, 16:28:21
gute und wichtige frage. in den meisten fällen wird der unterscheid nämlich nicht auffallen. nicht umsonst werden immer beispielszenen in spielen gesucht bei denen es besonders auffällt.

Nur wird diese, wie es scheint, gekonnt "überlesen". Ich will endlich was greifbares. Reden wir hier überspitzt von mehr oder weniger als 1% aller Fälle?

auf der anderen seite muss man sagen, dass man amd trotzdem weiterhin auf die füßen treten sollte, weil sie es eigentlich besser können müssten und eine verschlechterung der standardqualität bei barts sowieso eine absolute frechheit ist.

Dieser Umstand gehört aufgezeit - ohne wenn und aber! Jedoch vermisse ich die Verhätlnismäßigkeit bei der ganzen Diskussion. Darum auch meine o.a. Frage.

Iruwen
2010-11-04, 16:51:12
Was für eine Verhältnismäßigkeit vermisst du denn? AMD solls besser machen und HQ gegen Q zu benchen ist absolut verhältnismäßig. LZs etwas überzogene Vorstellungen mal außen vor gehört das kritisiert dass die Schwarte kracht und genau das passiert gerade. Oder legst du Wert drauf dass das Schule macht und demnächst kommt Crysis 2 oder Diablo 3 oder <populäres Spiel hier einfügen> raus und du hast dann plötzlich doch mal größere Defizite die sich nicht so ohne weiteres beheben lassen in einem Spiel in dem es dir massiv auffällt.

airbag
2010-11-04, 17:01:14
Nur wird diese, wie es scheint, gekonnt "überlesen". Ich will endlich was greifbares. Reden wir hier überspitzt von mehr oder weniger als 1% aller Fälle?

Wohl eher zweiteres. Aber das vor allem in Titeln die auch von vielen gespielt werden.

fizzo
2010-11-04, 17:32:30
Was für eine Verhältnismäßigkeit vermisst du denn?

Die BQ von der HD 68xx Serie wird per se als "untragbar" kommuniziert, obwohl in 99% aller Fälle (geschätzt) kein subjektiver Unterschied wahrnehmbar ist.

AMD solls besser machen und HQ gegen Q zu benchen ist absolut verhältnismäßig.

Das kann ich so unterschreiben!


Oder legst du Wert drauf dass das Schule macht und demnächst kommt Crysis 2 oder Diablo 3 oder <populäres Spiel hier einfügen> raus und du hast dann plötzlich doch mal größere Defizite die sich nicht so ohne weiteres beheben lassen in einem Spiel in dem es dir massiv auffällt.

Auf diese polemische Fragestellung, welcher noch dazu die Diskussionsgrundlage fehlt, erwartest du hoffendlich nicht wirklich eine Antwort.

Schlammsau
2010-11-04, 18:18:56
In den allermeisten Games, so ~90% flimmert das AF der Radeons definitiv überhaupt nicht!

Aber bei den restlichen 10% (zB Crysis, Witcher) kann es ab und an vorkommen, dass eine Stelle mit extrem fiesen Content, relativ stark flimmert.
Was aber dann aber auch wieder nur ein "Worst Case" Szenario ist.

Praktisch kommt das flimmern so gut wie nie vor.....eigentlich nur, wenn man danach sucht.

Ich bastle mal ein Beispiel

MadManniMan
2010-11-04, 18:40:05
*seufz*

Es dürfte hingegen recht wenige Szenen geben, in denen das Flimmern überhaupt nicht vorhanden ist - nur, weil man das Flimmern an den Extrema zeigt, heißt das nicht, dass die "allgemeine" Unruhe kein Problem sei.

Warum macht man Shots zum Vergleich von AA-Modi an prominenten Kanten? Warum nimmt man nicht einen Ball aus vielen Tausend Polygonen mit guten Texturen und Shadern und lässt den Außenbereich außen vor und zoomt stattdessen auf die Polygonkanten weiter innen?


Ich stimme nicht oft mit LS überein, aber in dem Zusammenhang sei diese Frage gestattet: wenn die Relevanz vom Flimmer-AF so gering ist, warum dann nicht 8*MSAA vs. 8*CSAA benchen? (Was ich NIE gutheißen würde!)

Schlammsau
2010-11-04, 18:45:31
*seufz*
Ich stimme nicht oft mit LS überein, aber in dem Zusammenhang sei diese Frage gestattet: wenn die Relevanz vom Flimmer-AF so gering ist, warum dann nicht 8*MSAA vs. 8*CSAA benchen? (Was ich NIE gutheißen würde!)

Weil der Unterschied zwischen 8xAA und 8xCSAA praktisch immer zu sehen ist!?

Und der grosse Unterschied in meinen Augen der ist, dass sich "Flimmer"-AF nur an ganz wenigen "ausgesuchten" Stellen bemerkbar macht. Nämlich da wo extrem hochfrequente Stellen in einem Game vorkommen. Das solche Stellen nur vergleichsweise wenige Games haben, ist doch auch klar oder?

PS: Ich lade gerade einen Ausschnitt von Crysis hoch.....und als kleine Denksportaufgabe, müsst ihr Raten, mit welchem Q-Modus (AMD) ich das Video aufgenommen habe. :devil:

Coda
2010-11-04, 19:13:37
Weil der Unterschied zwischen 8xAA und 8xCSAA praktisch immer zu sehen ist!?
Der von Flimmer-AF zu normalem AF auch. Das seh ich nicht nur an "ausgesuchten Stellen".

Schlammsau
2010-11-04, 19:15:52
Der von Flimmer-AF zu normalem AF auch. Das seh ich nicht nur an "ausgesuchten Stellen".
Achso....du siehst es immer, und es flimmert immer?

Blödsinn!

Coda
2010-11-04, 19:22:41
Ich seh das immer. Da leg ich meine Hand ins Feuer dafür.

Schlammsau
2010-11-04, 19:32:11
Ich seh das immer. Da leg ich meine Hand ins Feuer dafür.

Ich möchte sehen, wie du zB bei DiRT1&2, Grid, ArmA1&2, Street Fighter IV, Transformer WFC, HAWX1&2 usw. AF-Flimmern wahrnehmen willst.
Es gibt unzählige Games wo nichts flimmert, und auch nicht flimmern kann.

Leonidas
2010-11-04, 19:54:37
Es sollte Qualität zählen und nicht sichtbare Trade-offs. Weil dann darf man bei nVidia auch kein 8xMSAA für Vergleiche heranziehen, sondern die schnelleren 8xCSAA bzw. 16xCSAA Modi und bei Unterschieden reicht es dann zu behaupten: Sieht man beim Spielen sowieso nicht...


Korrekt. Oder man sagt: Wieso AMD mit 16x AF testen wie nVidia? Den Unterschied zu 8x AF sieht man doch nicht - wieso also nicht AMD mit 8x und nVidia mit 16x AF?

Getestet werden kann immer nur zu gleichen Bedingungen, ganz egal ob die einzelne Option nun sichtbar ist oder nicht. Die meisten BQ-Optionen in den Spielen selber haben auch keine sofort sichtbaren Auswirkungen, es würde aber dennoch keiner auf die Idee kommen, bei dem einem Hersteller das eine und bei dem anderen das andere einzustellen.

airbag
2010-11-04, 19:58:53
Ich möchte sehen, wie du zB bei DiRT1&2, Grid, ArmA1&2, Street Fighter IV, Transformer WFC, HAWX1&2 usw. AF-Flimmern wahrnehmen willst.

Von Grid kann man sagen, dass es flimmert. Bei den anderne weis ich es nicht, weil nicht gespielt.

edit:
Mhh zu gleichen Bedingungen muss man wahrscheinlich mit 2*AF testen, weil da scheinbar am wenigsten gecheatet wird.

Raff
2010-11-04, 20:41:38
Ich seh das immer. Da leg ich meine Hand ins Feuer dafür.

Ich lege deine Hand unterstützend mit ins Feuer. ;D Das sieht man.

In Dirt 2 ist's auch klar sichtbar (wenn auch nicht auf allen Strecken), die anderen Spiele kenne ich nicht. Street Fighter 4 dürfte zu den Ausnahmen gehören, wo man mangels gescheiter Texturen keinen Unterschied sehen kann.

MfG,
Raff

desert
2010-11-04, 22:04:19
In den allermeisten Games, so ~90% flimmert das AF der Radeons definitiv überhaupt nicht!

Aber bei den restlichen 10% (zB Crysis, Witcher) kann es ab und an vorkommen, dass eine Stelle mit extrem fiesen Content, relativ stark flimmert.
Was aber dann aber auch wieder nur ein "Worst Case" Szenario ist.

Praktisch kommt das flimmern so gut wie nie vor.....eigentlich nur, wenn man danach sucht.

Ich bastle mal ein Beispiel

Du bist echt lustig, über das g70 af aufregen, aber bei ati verniedlichen und als nicht wichtig abschreiben. Und der g70 filterte nach beseitigung besser als barts heute. Und ich wette das barts in standard sogar schlechter filtert als g70 in quality.

echt unglaublich. nvidia wurde für solch cheat af zu recht gesteinigt aber bei amd interessiert es keine sau. Wo ist eigentlich lolli der bq fan, der war doch damals auch gross beteiligt an der hinrichtung des g 70 chips.

http://alt.3dcenter.org/artikel/neue_filtertricks/index3.php

...Auf der anderen Seite bencht fast jedes Hardware-Blatt immer noch mit performanceverzerrenden Standard-Treibereinstellungen, die wie bereits mehrfach deutlich gemacht, optisch nicht vergleichbar sind...

Raff
2010-11-04, 22:12:27
Du bist echt lustig, über das g70 af aufregen, aber bei ati verniedlichen und als nicht wichtig abschreiben. Und der g70 filterte nach beseitigung besser als barts heute. Und ich wette das barts in standard sogar schlechter filtert als g70 in quality.

Wir wollen doch nicht übertreiben. ;) Ein G7x filtert mit Q nicht nur flimmriger als Barts, sondern auch noch winkelabhängig, das heißt, gerade Winkel um 45 Grad bekommen nur 2 bis 4x AF ab. G7x HQ hingegen ... flimmert weniger als Barts (!), bleibt jedoch winkelabhängig. Ja, ich habe das erst letzte Woche gestetet.

MfG,
Raff

Screemer
2010-11-04, 22:13:23
@dessert: wenn es keine sau interessiert, warum wird dann hier seit 40, ich wiederhole 40 seiten, "rumgeheult"? richtig, weil es leute gibt die es sehen.

allerdings muss ich bei der liste von schlammi sagen, dass die spiele so schnell sind, dass kaum jemand das flimmern wahrnehmen wird. es gibt natürlich ausnahmen der regel.

Langenscheiss
2010-11-04, 22:29:58
Ich bemühe dieses Beispiel ja quasi schon zu Tode, aber einen Gewichtheber lässt man doch bei Olympia auch nicht 2 Kg stemmen, oder?
Klar, dass man in den meisten Fällen keine besonderen Unterschiede sieht, aber ich will halt auch wissen, wie der Filter sich schlägt, wenn er vor größeren Herausforderungen gestellt wird, denn leider kommen diese Situationen in Games häufiger vor, als man meinen könnte.
Genauso kann man das Gros aller Spiele heutzutage schon mit einer guten Performance-Karte bei hohen Einstellungen flüssig spielen, aber trotzdem geht es letztendlich immer darum, wer die beste Leistung bringt, weil es eben auch Spiele wie Crysis oder Metro gibt, die man mittlerweile mit SSAA spielen möchte. Nur leider gilt das Prinzip der besten Leistung bei AMD offenbar nur für den P-Balken, aber nicht so sehr für die BQ, und so hoffe ich umso mehr, dass sie mich mit Cayman Lügen strafen.

Eggcake
2010-11-04, 22:59:24
einen Gewichtheber lässt man doch bei Olympia auch nicht 2 Kg stemmen, oder?

Nö, aber mit Doping :freak:


SCNR :usad:


Trotzdem darf man nicht übertreiben. Also ATI SSAA aufzwingen ist nun wirklich reichlich übertrieben - ebenso grundsätzlich andere AA-Modi. Das macht's auch nicht fairer.

C.D.B.
2010-11-04, 23:02:42
Mal nebenbei angemerkt:

Das derzeit schlechte AF der HD6k gegenüber der HD5k ist erstens:

Besser als auf HD2k/HD3k und HD4k

und zweitens:

Ist dies doch bestimmt eine reine Software-Angelegenheit. Wir haben für die HD6k gerade mal den 10.10 Final, als ERSTER Treiber (für HD6k) überhaupt, und 4 betas.

Was spricht dagegen, das AMD (wie anno dazumal NV bei G70) per Treiber die Angelegenheit bereinigt. Sprich, das AF-Niveau der HD6k zumindest auf HD5k-Niveau wieder anhebt?

Arg früh, um das AF der HD6k zu verteufeln! ;)

mapel110
2010-11-04, 23:08:15
Arg früh, um das AF der HD6k zu verteufeln! ;)
Was glaubst du denn, warum nvidia damals nachgebessert hat?! Ohne die Artikel zu dem Thema wäre da GAR NICHTS passiert.

Tesseract
2010-11-04, 23:42:55
Ist dies doch bestimmt eine reine Software-Angelegenheit.

das könnte sein, ist aber keinesfalls gesichert.

Dr. Cox
2010-11-04, 23:51:28
Die BQ von der HD 68xx Serie wird per se als "untragbar" kommuniziert, obwohl in 99% aller Fälle (geschätzt) kein subjektiver Unterschied wahrnehmbar ist.


Hast du denn schon einmal das AF der HD 6870 mit einer GTX 460 verglichen?

Wenn nicht, dann hast du jetzt die Möglichkeit dazu:

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php


Einen besseren und direkten Vergleich als von "tweakpc" gibt es bisher noch nicht ;)

Im Übrigen flimmert die HD 6870 mit HQ mehr als mit Q, ich denke diese Videos sollten das ein für alle mal beweisen...

Iruwen
2010-11-04, 23:53:52
AMD hat auch gesagt sie fixen das Banding, sie haben es verbessert aber nicht ganz gefixt, also entweder sie wollen nicht oder sie können es einfach nicht besser. Ändern wird sich am AF bei den "alten" Karten bestimmt nichts mehr.

Dr. Cox
2010-11-05, 00:01:37
AMD hat auch gesagt sie fixen das Banding, sie haben es verbessert aber nicht ganz gefixt, also entweder sie wollen nicht oder sie können es einfach nicht besser. Ändern wird sich am AF bei den "alten" Karten bestimmt nichts mehr.

Auch Cayman wird so ein Grafikkrüppel werden wie Barts, da bin ich mir ziemlich sicher. AMD hat viele Gründe dafür...

MadManniMan
2010-11-05, 01:29:24
Auch Cayman wird so ein Grafikkrüppel werden wie Barts, da bin ich mir ziemlich sicher. AMD hat viele Gründe dafür...

Ich habe zuletzt irgendwann eine Tabelle gesehen, in der die neueren Radeons trotz theoretisch hoher Grundfüllrate bei den hohen AF-Modi in besserer Qualität massiv einbrechen - Begründung wären dafür IIRC kleine Caches gewesen.

Also: Sparfilter nicht zum Transensparen, sondern um die Unzulänglichkeit der (bewussten?) Designentscheidung mit dem Flaschenhals Füllrate zu umgehen?

DrumDub
2010-11-05, 01:30:12
Hast du denn schon einmal das AF der HD 6870 mit einer GTX 460 verglichen?

Wenn nicht, dann hast du jetzt die Möglichkeit dazu:

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Einen besseren und direkten Vergleich als von "tweakpc" gibt es bisher noch nicht ;) das beispiel ist eben genauso ein extrembeispiel, bei dem selbst das alu-rendering flimmert. bitte auch mal den text des artikels lesen: Im Folgenden zeigen wir einen 15 Sekunden langen aufgezeichneten Bildausschnitt als MP4 Videos mit sehr hoher Bitrate, der quasi 1:1 das Bildgeschehen wiederspiegeln. Es wurde ein X und Y Movement von -0.7 verwendet, bei dem das Flimmern am deutlichsten auftrat. Das Flimmern tritt nicht auf dem gesamten Bild auf, weshalb wir uns hier eben auf einen Bildausschnitt beschränken. Das komplette Fullscreen Video wäre mehrere hundert Megabyte groß und würde sich kaum online abspielen lassen.

Im Übrigen flimmert die HD 6870 mit HQ mehr als mit Q, ich denke diese Videos sollten das ein für alle mal beweisen... das trifft für diesen auschnitt bei dieser szene zu. die flimmerneigung beim rv970 unter hq wird damit relativ zu q wohl allgemein größer sein. müsste man aber noch mal genauer untersuchen.

Coda
2010-11-05, 07:49:57
Also: Sparfilter nicht zum Transensparen, sondern um die Unzulänglichkeit der (bewussten?) Designentscheidung mit dem Flaschenhals Füllrate zu umgehen?
Natürlich ist der Sparfilter nicht zum Transistoren sparen da. Das habe ich doch schon oft genug dargelegt.

Sparfilter brauchen mehr Transistoren weil die Logik zur Abtastung konfigurierbar sein muss.

uweskw
2010-11-05, 11:34:21
bin ich den der einzige dem das ins Auge springt?

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

bei den Tweak-pc Videos ist das Bild der 68er selbst auf Q schärfer als bei der 460er auf HQ
Und auf Q sieht die 460er richtig matschig aus. Im Video. Das gleiche sehe ich bei meiner neuen NV auch in etlichen Spielen. Mit meiner 4850er wirkte das Bild oft klarer. Aber angeblich gibts da keinen sichbaren Unterschied....

U.S.

MadManniMan
2010-11-05, 11:48:01
Coda,

die Mär von den "gesparten" Transistoren kommt halt immer wieder auf.
Es ist also so, dass für den selben Effekt letztlich mehr Transistoren schalten, trotzdem aber in der Summe weniger berechnet wird?

Mich interessiert im Zusammenhang mit dieser Überlegung, inwiefern Potential zu weniger Stromverbrauch mit einer solchen "Spararchitektur" besteht.



uweskw,

das jetz nich Dein Ernst?
Du findest das Flimmern besser? :confused:

uweskw
2010-11-05, 13:04:52
das jetz nich Dein Ernst?
Du findest das Flimmern besser? :confused:

Muss man sich denn zwischen Matsch und Flimmern entscheiden? :confused:
Mich perönlich würde dann ein begrenzter, fimmernder Bereich weniger stören als ein insgesamt verwascheneres Bild.

MadManniMan
2010-11-05, 13:10:34
Ernsthaft: beschäftige Dich mal mit Nyquist, bitte ;(

Screemer
2010-11-05, 13:12:40
Muss man sich denn zwischen Matsch und Flimmern entscheiden? :confused:
Mich perönlich würde dann ein begrenzter, fimmernder Bereich weniger stören als ein insgesamt verwascheneres Bild.
dem kann man nur uneingeschränkt beipflichten. ist wohl immer sache des users. beides zu lösen, dass wäre natürlich das beste. ich find matsch aber auch grässlich.

Exxtreme
2010-11-05, 13:14:07
Coda,

die Mär von den "gesparten" Transistoren kommt halt immer wieder auf.
Zwischen Sparfiltern gibt es wiederum Unterschiede und die einzelnen Varianten müssen nicht unbedingt mehr Transistoren brauchen.

Ronny145
2010-11-05, 13:15:30
Muss man sich denn zwischen Matsch und Flimmern entscheiden? :confused:
Mich perönlich würde dann ein begrenzter, fimmernder Bereich weniger stören als ein insgesamt verwascheneres Bild.

Es geht auch beides, siehe R520/R580. Allerdings sehe ich nichts schärferes, ein Bild in größerer Auflösung wäre sinnvoller.

Coda
2010-11-05, 13:25:12
die Mär von den "gesparten" Transistoren kommt halt immer wieder auf.
Das macht sie nicht richtiger. Jeder der den Algorithmus kennt muss dir das bestätigen.

Es ist also so, dass für den selben Effekt letztlich mehr Transistoren schalten, trotzdem aber in der Summe weniger berechnet wird?
Moment, moment. Die Anzahl der Transistoren hat ja nichts damit zu tun wieviel durchschalten.

Mich interessiert im Zusammenhang mit dieser Überlegung, inwiefern Potential zu weniger Stromverbrauch mit einer solchen "Spararchitektur" besteht.
Da gibt es sicher Auswirkungen, denn für ordentliches AF braucht man etwas mehr Bandbreite und mehr Takte beim Sampling.

Zwischen Sparfiltern gibt es wiederum Unterschiede und die einzelnen Varianten müssen nicht unbedingt mehr Transistoren brauchen.
Wenn man an der Winkelabhängigkeit spart, dann kann man Transistoren sparen. Das tut AMD aber nicht.

Bei der Abtastung braucht man definitiv mehr Logik um das Abtastverhalten regeln zu können anstatt einfach immer korrekt abzutasten.

dem kann man nur uneingeschränkt beipflichten. ist wohl immer sache des users. beides zu lösen, dass wäre natürlich das beste. ich find matsch aber auch grässlich.
Korrektes AF produziert keinen "Matsch", sondern die maximale Schärfe die sich noch ohne Flimmern und Aliasing darstellen lässt.

puntarenas
2010-11-05, 13:34:34
Korrektes AF produziert keinen "Matsch", sondern die maximale Schärfe die sich noch ohne Flimmern und Aliasing darstellen lässt.
Warum sehen die Bilder auf einer Radeon dann so knackig scharf aus und wirken so hübsch "crisp"? Ist das denn nicht deutlich mehr Schärfe als bei Nvidia, also näher am Maximum?

Savay
2010-11-05, 13:40:41
Warum sehen die Bilder auf einer Radeon dann so knackig scharf aus und wirken so hübsch "crisp"? Ist das denn nicht deutlich mehr Schärfe als bei Nvidia, also näher am Maximum?

natürlich sehen sie "crisper" aus weil weniger stark gefiltert wird.

das dies auf standbildern oft als besser empfunden wird liegt daran, dass sich die leute dank der stärkeren verbreitung von TFTs und unmengen überschärfter inhalte (nicht nur in spielen) an unterfilterte bilder gewöhnt haben. :freak:
dazu kommt das raster und vektor grafik per se sehr unnatürliche hohe kontraste an pixelkanten aufweisen selbst wenn sie per AA geglättet werden und je mehr man soetwas zu sehen bekommt umso mehr nimmt man es als "korrekt" wahr...das hat letztenendes nur etwas mit den sehgewohnheiten zu tun.

kompakte digitalkameras überschärfen die bilder ja z.B. auch derartig das ein umsteiger auf eine DSLR zu anfang extrem enttäuscht von den, zwar korrekteren, aber auf pixel ebene weitaus weniger scharf wirkenden bildern ist und das obwohl die DSLR bei genauerer betrachtung wesentlich mehr informationen auf pixelebene bereithält!

"(über)scharf" ist halt trendy...bedeutet aber auch gleichzeitig unter umständen informationsverlust. :)

EDIT: mein guten deutsch verbessert hat... :lol:

Coda
2010-11-05, 13:40:53
Es wird unterfiltert, dadurch entsteht Schärfe die eigentlich nicht da ist. Wer das auf NVIDIA haben will kann gerne auf "Performance" stellen, das LOD-Bias ins Negative ziehen und sich auch dort wunderschönen Augenkrebs bekommen.

puntarenas
2010-11-05, 13:45:17
weil sich die sehgewohnheiten der leute dank der TFTs und unmengen überschärfter inhalte an unterfilterte inhalte gewöhnt hat. :freak:

Ich wollte nur, dass Coda diesen hier im Raum stehenden Unfug auch noch entkräftet. Selbstverständlich passen sich Sehgewohnheiten an und wer jahrelang auf Unterfilterung geglotzt hat, der bringt das vermutlich als Erwartungshaltung mit, wenn er Bilder qualitativ beurteilt. Subjektiv kann man alles "schöner" finden, über Geschmack lässt sich ja nicht streiten.

Warum sehen die Bilder auf einer Radeon dann so knackig scharf aus und wirken so hübsch "crisp"? Ist das denn nicht deutlich mehr Schärfe als bei Nvidia, also näher am Maximum?
Es wird unterfiltert, dadurch entsteht Schärfe die eigentlich nicht da ist. Wer das auf NVIDIA haben will kann gerne auf "Performance" stellen, das LOD-Bias ins Negative ziehen und sich auch dort wunderschönen Augenkrebs bekommen.
Danke!

P.S. Ich hoffe du fühlst dich jetzt nicht benutzt und schmutzig... :smile:

Botcruscher
2010-11-05, 13:50:34
Das ist Ansichtssache. Ich persönlich finde die schärfer wirkenden Texturen auch besser. Bei der Bilderstrecke der PCGH zum Test der 68XX war der Unterschied auch deutlich zusehen.

natürlich sehen sie "crisper" aus weil weniger stark gefiltert wird.

das dies auf standbildern oft als besser empfunden wird liegt daran, dass sich die leute dank der stärkeren verbreitung von TFTs und unmengen überschärfter inhalte an unterfilterte bilder gewöhnt hat. :freak:
kompakte digitalkameras überschärfen die bilder ja z.B. auch derartig das ein umsteiger auf eine DSLR zu anfang extrem enttäuscht von den, zwar korrekteren, aber auf pixel ebene weitaus weniger scharf wirkenden bildern sind! und das obwohl die DSLR bei genauerer betrachtung wesentlich mehr informationen auf pixelebene bereithält... :wink:

"überschärf" ist halt trendy...bedeutet aber auch gleichzeitig informationsverlust. :)

dazu kommt das raster und vektor grafik per se sehr unnatürliche hohe kontraste an pixelkanten aufweisen selbst wenn sie per AA geglättet werden und je mehr man soetwas zu sehen bekommt umso mehr nimmt man es als "korrekt" wahr...das hat letztenends nur etwas mit den sehgewohnheiten zu tun. :)

Das ist immerhin mal eine Antwort.

Ronny145
2010-11-05, 13:53:25
Bei der Bilderstrecke der PCGH zum Test der 68XX war der Unterschied auch deutlich zusehen.


Hast du ein Link? Kann dort keine Vergleichsbilder finden.

puntarenas
2010-11-05, 13:54:45
Das ist Ansichtssache.
Was den Thread hier angeht eigentlich nicht, denn hier ist das Thema die objektive "Qualität des AF auf Radeon HD 6800". Was du am Ende schöner oder vertrauter findest, bleibt dir unbenommen, aber warum das für die Einschätzung hier im Thread nicht herhalten kann, haben Savay und Coda ja sehr schön verdeutlicht.

Menace
2010-11-05, 13:58:13
das dies auf standbildern oft als besser empfunden wird liegt daran, dass sich die leute dank der stärkeren verbreitung von TFTs und unmengen überschärfter inhalte (nicht nur in spielen) an unterfilterte bilder gewöhnt hat. :freak:
dazu kommt das raster und vektor grafik per se sehr unnatürliche hohe kontraste an pixelkanten aufweisen selbst wenn sie per AA geglättet werden und je mehr man soetwas zu sehen bekommt umso mehr nimmt man es als "korrekt" wahr...das hat letztenendes nur etwas mit den sehgewohnheiten zu tun.


:eek: Wenn es soweit ist, wäre mal ein Blick links und rechts am Bildschirm vorbei dringend angeraten. Und wer dann noch hauptsächlich Matsch sieht, sollte zum Optiker.

Welche Theorien hier noch geschwungen werden, warum Schärfe widernatürlich ist. ;D

Wer seine Sehgewohnheiten anhand von Vektorgrafiken und TFTs festmacht, hat ein wirkliches und ernstes Problem und erklärt mir schlagartig, warum die Leute sich stundenlang über matschige Texturen und flimmernde Graslandschaften auslassen können. :freak:

Iruwen
2010-11-05, 14:04:21
Unschärfe kommt in der "Realität" eher vor als Flimmern.

puntarenas
2010-11-05, 14:05:40
Wir hatten hier im Forum allerdings auch schon Leute, die ernsthaft behauptet haben, dass Vegetation in der Natur (ist so ein real life Ding) ebenfalls flimmert. :)

Menace
2010-11-05, 14:20:37
Unschärfe kommt in der "Realität" eher vor als Flimmern.
Wir hatten hier im Forum allerdings auch schon Leute, die ernsthaft behauptet haben, dass Vegetation in der Natur (ist so ein real life Ding) ebenfalls flimmert. :)

Ihr redet aber schon von etwas, das ihr aus eurem alltäglichen Leben kennt? ;-)

1. Spielgrafiken sind meilenweit davon entfernt, auch nur ansatzweise eine vernünftiges "Abbild" zu bieten und das ist es, was mich wirklich stört. Aber wenn euch matschige Texturen oder flimmern mehr daran stört, dann seit ihr eigentlich sehr bescheiden. :up:

2. Unschärfe kommt aber immer kontextabhängig in der "Realität" vor. Abgesehen von nötigen Brillen, ist das Auflösungsvermögen des Auges der einzig limitierende Faktoren. Man kann nichts "schärfer" sehen, als das eigene Auge einem bietet. In der Realität sehe ich dann etwas unscharf, wenn ich nicht darauf fokussiere bzw. wenn entsprechende Entfernungen dazwischen liegen. Was über 30 cm liegt (ich werde alt :biggrin: ) sehe ich scharf. Schaue ich auf die Wiese in 20 m Entfernung sehe ich Grashalme scharf im Wind sich bewegen. Und alles was ich in den Vergleichsvideos davon betrachte ich meilenweit davon entfernt, als Diskussionsgrundlage für irgendeine "Qualität" zu dienen (meine bescheidene Meinung).

Vegetation flimmert vielleicht wenn eine heiße Landschaft davor ist. Apropos Vegetation, ich begebe mich jetzt in diese. :rolleyes:

uweskw
2010-11-05, 14:24:04
Es wird unterfiltert, dadurch entsteht Schärfe die eigentlich nicht da ist. Wer das auf NVIDIA haben will kann gerne auf "Performance" stellen, das LOD-Bias ins Negative ziehen und sich auch dort wunderschönen Augenkrebs bekommen.

Das hab ich jetzt schon etliche male gehört.
Aber warum wirkt das NV Video auf HQ AFdann schärfer als auf Q AF ?
Weil HQ unterfiltert?
Also Q besser als HQ??????

nochal die Videos von Tweak-PC
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Savay
2010-11-05, 14:36:12
:eek: Wenn es soweit ist, wäre mal ein Blick links und rechts am Bildschirm vorbei dringend angeraten.
(...)
Wer seine Sehgewohnheiten anhand von Vektorgrafiken und TFTs festmacht, hat ein wirkliches und ernstes Problem und erklärt mir schlagartig(...)

naja es ist ja nicht so das die leute alles nur noch nach reiner pixelschärfe beurteilen...was abseits vom monitor natürlich eh nicht geht. :lol:

es geht auch garnicht darum das "schärfe" unnatürlich ist...
das problem ist das digitale inhalte einfach gewohneitsmäßig einem gewissen "standard" entsprechen müssen...und zwar jenem der einem dauernd vorgemacht wird.
irgendwann erwartet man zwangsläufig einfach das die rastergrafik genau dem zu entsprechen hat und richtet seine ästhetischen ansprüche daran aus.

wenn ich mich im internet umsehe sehe ich einfach unmengen von überscharfen inhalten...kein wunder das man dies irgendwann als besser empfindet. :tongue:

allein schon was 99% aller kompaktknipsen an bildergebnissen rausspuckt ist überspitzt formuliert auf pixelebene gnadenlos kaputtgeschärft...wenn man sowas tagtäglich sieht ist es ja kein wunder das man es als "korrekt" empfindet ;)

Iruwen
2010-11-05, 14:42:46
Eigentlich gehts hier ja ums HD 6800 AF. Wenn jemand findet dass Nvidia "matscht" kanner sich dafür ja in einem separaten Thread zerpflücken lassen :D Schade dass einige immer versuchen zu relativieren und von Verhältnismäßigkeit reden. Wo die wohl waren als der GF100 Stromverbrauch Thema war...

Menace
2010-11-05, 16:26:18
Da es im folgenden um Bildqualität im allgemeinen geht, mache ist daraus einen




es geht auch garnicht darum das "schärfe" unnatürlich ist...
das problem ist das digitale inhalte einfach gewohneitsmäßig einem gewissen "standard" entsprechen müssen...und zwar jenem der einem dauernd vorgemacht wird.

allein schon was 99% aller kompaktknipsen an bildergebnissen rausspuckt ist überspitzt formuliert auf pixelebene gnadenlos kaputtgeschärft...wenn man sowas tagtäglich sieht ist es ja kein wunder das man es als "korrekt" empfindet ;)

Kompaktknipsen kranken imho an was ganz anderem. Aber das wäre zu offtopic. ;)

Den Maßstab den jegliche Abbildung haben sollte ist, kommt sie an die "natürliche Bildqualität" heran. Und da sind sowohl weichgezeichnete Texturen wie auch das Flimmern eher ein kleines Problem.

Dass das kritisiert wird, ist ja völlig in Ordnung, aber welche Religion inkl. Dogmatik man daraus zimmert erheitert mich vor allem dann, wenn man sieht, an welcher Krüppelgrafik das ganze fest gemacht wird.

Eigentlich gehts hier ja ums HD 6800 AF. Wenn jemand findet dass Nvidia "matscht" kanner sich dafür ja in einem separaten Thread zerpflücken lassen :D Schade dass einige immer versuchen zu relativieren und von Verhältnismäßigkeit reden. Wo die wohl waren als der GF100 Stromverbrauch Thema war...

Um Gottes Willen, Du hast völlig Recht. AF ist viel (!) schlimmer als ein Stromverbrauch. Und das Relativieren ist des Teufels, wo die Welt eigentlich doch so einfach ist. ;-)

fondness
2010-11-05, 16:32:42
Ist dies doch bestimmt eine reine Software-Angelegenheit.

Also laut Dave Baumann ist HQ native texturing, die TMUs können also nicht mehr.

Angiesan
2010-11-05, 16:33:57
Es gehört aber doch auch in diesen Thread, da die NV Karten ja als Standard der nahezu perfekten Implementierung herhalten müssen.

Ich kann nur so viel sagen, es gibt von Spiel zu Spiel sehr wohl Unterschiede in der Schärfe des Bildes und ab und an kann ich sagen gefällt mir das Bild meiner 5850 besser wie das meiner 480er da die Texturen einfach knackiger sind ob das nun so gewollt ist oder nicht ist mir dann wiederum egal es gefällt mir einfach besser und bringt auch den ein oder anderen Vorteil beim Onlinezocken.

Nur mal ein Beispiel, die 5850 flimmert gelegentlich und auch ich habe eine Zeit lang gebraucht das zu erkennen. Aber eins ist Fakt es gibt Spiele da kann ich einen Gegner einfach auf große Distanz mit meiner ATi besser erkennen wie mit meiner NV Ich hatte das auch schon mal geschrieben und es wurde damals nicht aufs AF geschoben sondern das die ATI etwas nicht darstellt was wir damals als Fog bezeichnet haben.
Da hat sich im übrigen bis heute nichts geändert die NV Grafik ist in CoD WaW immer noch fogiger wie mit einer ATi sozusagen legales cheating :biggrin: oder was :freak:

Raff
2010-11-05, 16:37:40
Ich kann nur so viel sagen, es gibt von Spiel zu Spiel sehr wohl Unterschiede in der Schärfe des Bildes und ab und an kann ich sagen gefällt mir das Bild meiner 5850 besser wie das meiner 480er da die Texturen einfach knackiger sind ob das nun so gewollt ist oder nicht ist mir dann wiederum egal es gefällt mir einfach besser und bringt auch den ein oder anderen Vorteil beim Onlinezocken.

Nur mal ein Beispiel, die 5850 flimmert gelegentlich und auch ich habe eine Zeit lang gebraucht das zu erkennen. Aber eins ist Fakt es gibt Spiele da kann ich einen Gegner einfach auf große Distanz mit meiner ATi besser erkennen wie mit meiner NV Ich hatte das auch schon mal geschrieben und es wurde damals nicht aufs AF geschoben sondern das die ATI etwas nicht darstellt was wir damals als Fog bezeichnet haben.
Da hat sich im übrigen bis heute nichts geändert die NV Grafik ist in CoD WaW immer noch fogiger wie mit einer ATi sozusagen legales cheating :biggrin: oder was :freak:

Meiner Meinung nach (!) ist das unlogisch. Ein flimmerfreies Bild ist gerade beim Onlinegaming wertvoll. Denn jedes Pixel, das auf den Schirm unherspringt, klaut unsere Aufmerksamkeit. Die Augen fokussieren diese Änderungen/Dynamik der Umgebung, dabei geht es doch darum, den Feind zu erkennen. Dieser sollte das einzige sein, was sich auf dem Schirm bewegt – und nicht der Asphalt/Zaun/Baum vor der Nase. Daraus folgt: Ist alles ruhig und sauber gesampelt, können wir uns auf das Wesentliche konzentrieren. In der Natur hat das System.

MfG,
Raff

Schlammsau
2010-11-05, 16:47:58
Das ist extrem weit hergeholt....wenns nach deiner Logik gehen würde, müssten alle Profi-Shooterzocker mit einer Radeon, nachteile gegenüber welchen mit einer GeForce haben.
Dem ist aber definitiv nicht so, ich kenne ein paar die Zocken auch mit einer Radeon sehr erfolgreich in ihren Clans.

Angiesan
2010-11-05, 17:08:24
Meiner Meinung nach (!) ist das unlogisch. Ein flimmerfreies Bild ist gerade beim Onlinegaming wertvoll. Denn jedes Pixel, das auf den Schirm unherspringt, klaut unsere Aufmerksamkeit. Die Augen fokussieren diese Änderungen/Dynamik der Umgebung, dabei geht es doch darum, den Feind zu erkennen. Dieser sollte das einzige sein, was sich auf dem Schirm bewegt – und nicht der Asphalt/Zaun/Baum vor der Nase. Daraus folgt: Ist alles ruhig und sauber gesampelt, können wir uns auf das Wesentliche konzentrieren. In der Natur hat das System.

MfG,
Raff
Raff du solltest dir das Spiel vielleicht noch mal ansehen, das sieht auf einer ATI extremst sauber aus und ist sicherlich kein gutes Beispiel um den AF Filter zu bewerten da sehe ich für die Radeon keinen Nachteil, im Gegenteil, da muss sich die NV anstrengen und kommt nur mit HQ an die Qualität der ATi ran zumindest mal an die der 5850, ist sicherlich aber auch ein extremes Beispiel.

Iruwen
2010-11-05, 17:09:15
Alter Schlammi, der Post war jetzt nicht dein Ernst :freak:
Das was Raff beschreibt macht mich z.B. bei CS:S kirre, deshalb bügel ich da 8xSGSSA mit Narrow-Tent Filter drüber. Lieber eine leichte Unschärfe als dass irgendwas ablenkt.

Um Gottes Willen, Du hast völlig Recht. AF ist viel (!) schlimmer als ein Stromverbrauch. Und das Relativieren ist des Teufels, wo die Welt eigentlich doch so einfach ist. ;-)
[/spoiler]
Die Intention ist das Problem.

Angiesan
2010-11-05, 17:18:40
Alter Schlammi, der Post war jetzt nicht dein Ernst :freak:
Das was Raff beschreibt macht mich z.B. bei CS:S kirre, deshalb bügel ich da 8xSGSSA mit Narrow-Tent Filter drüber. Lieber eine leichte Unschärfe als dass irgendwas ablenkt.

Wenn du da kein Lag verspürst selbst bei CS S gegenüber einem normalen Modus?! Tja dann... ich hatte auf der Ati oft die SGSSA Keule in Games eingesetzt und habe wenn ich es mal vergessen hatte zu deaktivieren das sofort beim Online spielen gemerkt aber leider nicht an der besseren Grafik :freak:

Jake Dunn
2010-11-05, 17:18:52
Ich spiele mit reduzierter Grafik und ohne AA im MP :freak: und ja getroffen werden die anderen..

Schlammsau
2010-11-05, 17:23:43
@Iruwen

Das AF muss ja die Hölle auf Erden sein. Und die armen Zocker, die CS(S) ohne SGSSAA zocken müssen, weil die Leistung nicht reicht.
Was macht man nur bei DX10+ Titeln, da geht ja kein SSAA.

Warum kaufst du dir nicht endlich eine Geforce?
Deine 5870 müsstest ja noch ziemlich gut an den Mann bringen können, hab meine 5850 für 170€ verscherbelt.
Über 200€ müssten locker drin sein, dann kannst dir eine stark übertaktete 460 oder gleich ne 470 ordern.

Dann flimmert nix mehr und Du hast wieder mehr Spass am zocken......

Iruwen
2010-11-05, 17:24:25
Das hat nichts mit AMDs AF zu tun sondern nur mit dem was Raff sagte, das betraf meine GTX 295 genauso. Ich bin mit der 5870 zufrieden. Die Treiber haben mal genervt, aber der 10.3/10.10 funktionieren für mich einwandfrei.

Wenn du da kein Lag verspürst selbst bei CS S gegenüber einem normalen Modus?! Tja dann... ich hatte auf der Ati oft die SGSSA Keule in Games eingesetzt und habe wenn ich es mal vergessen hatte zu deaktivieren das sofort beim Online spielen gemerkt aber leider nicht an der besseren Grafik :freak:
Ich musste nur HDR abschalten damit die FPS über 80 bleiben, aber das ist eigentlich eh Standard.

Ronny145
2010-11-05, 17:41:50
Ich kann nur so viel sagen, es gibt von Spiel zu Spiel sehr wohl Unterschiede in der Schärfe des Bildes und ab und an kann ich sagen gefällt mir das Bild meiner 5850 besser wie das meiner 480er da die Texturen einfach knackiger sind ob das nun so gewollt ist oder nicht ist mir dann wiederum egal es gefällt mir einfach besser und bringt auch den ein oder anderen Vorteil beim Onlinezocken.


Kann doch eigentlich nicht so schwer sein mal Vergleichsscreens zu machen, dann kann es jeder nachvollziehen. Von solchen subjektiven Eindrücken halte ich nicht viel. Die Schärfe könnte man gut in Bildern sehen.

Zu tweakpc und der angeblich geringeren Schärfe anhand Videos beurteilt.

Juniper
http://www.abload.de/image.php?img=filtertester16xafaioff0ggx.png
GF100
http://h-2.abload.de/img/filtertester2010-11-05myak.png

Zwischen HQ und Q gibt es bei dem Beispiel kein Schärfeunterschied. Keine Ahnung weshalb tweakpc dort auf einen Unterschied kommt.

y33H@
2010-11-05, 18:23:28
Daraus folgt: Ist alles ruhig und sauber gesampelt, können wir uns auf das Wesentliche konzentrieren. In der Natur hat das System.Richtig, diverse Tiere etwa sehen nur bewegte Objekte und das ist gut so ;-)

Fetter Fettsack
2010-11-05, 18:49:54
Wenn ich mich kurz unbeliebt machen darf:

Solche Tiere reagieren nur auf Bewegungen, weil sie eher recht wenige Farben sehen -> höherer Kontrast. Stehendes Zeug sehen die auch, nur pfeifen sie sich nichts drum.^^

:D

uweskw
2010-11-05, 20:55:25
Zu tweakpc und der angeblich geringeren Schärfe anhand Videos beurteilt.

Juniper
http://www.abload.de/image.php?img=filtertester16xafaioff0ggx.png
GF100
http://h-2.abload.de/img/filtertester2010-11-05myak.png

Zwischen HQ und Q gibt es bei dem Beispiel kein Schärfeunterschied. Keine Ahnung weshalb tweakpc dort auf einen Unterschied kommt.

der zweite Link ist NV 16xAF Q ??
was sollen mir diese Bilder belegen?

Savay
2010-11-05, 21:12:02
Richtig, diverse Tiere etwa sehen nur bewegte Objekte und das ist gut so ;-)

irgendwie nen blödes beispiel ;)

das menschliche auge sieht auch nur "bewegungen"...eigentlich funktionieren alle höher entwickelten augen nach dem prinzip. :wink:
hühner müssen beispielsweise ständig ihren kopf bewegen um die umgebung wahrnehmen zu können...sobald sie den kopf still halten verblassen die sich nicht verändernden bereiche und es wird nur noch die sich bewegende information verarbeitet...beim menschlichen auge verhält sich das exakt gleich, das ganze wird lediglich etwas eleganter durch ständige bewegung des auges über die muskulatur kompensiert. :smile:

entscheidender ist da AFAIR das verhältniss der farb zu den chroma zäpfchen...je höher der chroma anteil desto stärker wird auf sich verändernde kontraste/bewegungen reagiert bzw. wahrgenommen. (bewegungen im äusseren sichtfeld z.B.)

Ronny145
2010-11-05, 21:19:26
der zweite Link ist NV 16xAF Q ??
was sollen mir diese Bilder belegen?

Das es keinen Schärfeunterschied gibt entgegen der tweakpc Videos.

_flx
2010-11-05, 21:21:45
Ich weiß gar nicht wieso hier Leute das AF schoen reden?! Es flimmert (zum Teil wie echt extrem). Und das schlimmste das bei dieser Art von Kritik, wie sie hier praktiziert wird (soll heißen, auf recht hohem Niveau), passieren kann ist doch das AMD was gegen die Flimmerhölle tut. Die, die das Flimmern jetzt schon nicht als stören erachten, denen kanns egal sein, die anderen freuen sich über ein besseres Bild.

Ist ja nicht auszuhalten hier :freak:

san.salvador
2010-11-05, 21:27:38
Vielleicht hat sich der eine oder andere ins Flimmern verliebt. Stockholmsyndrom anyone? :ugly:

C.D.B.
2010-11-05, 23:18:10
Vielleicht hat sich der eine oder andere ins Flimmern verliebt. Stockholmsyndrom anyone? :ugly:

Vielleicht kann sich der eine oder andere den AF-Hype um die Barts-Chips wegen der (teilweise extrem) überzogenen Darstellung von LoveSuckZ & Co. nicht nachvollziehen?

/me zum bleistift!

Daß das AF schlechter als auf HD5xxx sein soll glaub' ich euch ja. Bin aber von RV670 auf Barts geswitcht. Und die Bild-Quali ist eindeutig besser. (Das deliciöse RGSSAA nicht mal einbezogen!)

Nur mal so in den Raum geworfen. ;)

Angiesan
2010-11-07, 12:58:08
Kann mir einer einen Filehoster nennen bei dem man auch PNG hochladen kann die größer wie 2 MB sind?

Habe mal ein paar Bilder gemacht um das mal zu zeigen was ich geschrieben habe dabei und soviel kann ich schon sagen sind die Unterschiede nicht nur von ATI zu NV zu erkennen sondern auch von Forceware 258.96 zu 260.99 meiner Meinung nach arbeitet der FW 260.99 mit einem leicht positivem Lod denn die Unterschiede sind deutlich zu erkennen. Bei dem Vergleich 258.96 über MS Update kann man die Unterschied im Übrigen zur ATi wirklich mit der Lupe suchen, aus diesem Grund ist er jetzt auch wieder bei mir drauf und bleibt zuerst mal. Und ich dachte schon ich hätte was an den Augen.

Gorkon
2010-11-07, 13:07:43
www.abload.de - 10MB Pro Bild und schnell sowieso. Das sollte reichen denke ich ;)

mfg

airbag
2010-11-07, 14:32:37
Bei abload.de geht es problemlos . Ab 20MB pro Bild wird es halt nur problematisch, weil man dann keinen Hoster findet -^^

Raff
2010-11-07, 14:54:04
Ich weiß gar nicht wieso hier Leute das AF schoen reden?! Es flimmert (zum Teil wie echt extrem). Und das schlimmste das bei dieser Art von Kritik, wie sie hier praktiziert wird (soll heißen, auf recht hohem Niveau), passieren kann ist doch das AMD was gegen die Flimmerhölle tut. Die, die das Flimmern jetzt schon nicht als stören erachten, denen kanns egal sein, die anderen freuen sich über ein besseres Bild.

Ist ja nicht auszuhalten hier :freak:

Das ist der Punkt, der viel zu selten ausgesprochen wird. Wer das Flimmern geil findet, der kann sich gerne weiter ankrebsen lassen. Aber bitte gestattet uns Bildharmoniebedürftigen die (harsche) Kritik am Sparfilter, auf dass wir endlich auch einen Modus bekommen, der "uns" so gefällt wie "euch" das knackig scharfe Flimmern. Schärfe wird immer möglich sein. Selbst mit 512x Lehrbuch-AF und 16x Supersampling ließe sich wunderfeines Flimmern zusammenzimmern, wenn man das Texture LOD auf -3 setzt.

Bei abload.de geht es problemlos . Ab 20MB pro Bild wird es halt nur problematisch, weil man dann keinen Hoster findet -^^

Für einen BQ-Vergleich brauchst du höchstens 10 MiByte (übliche Auflösungen als PNG). Downsampling-Auflösungen als BMP hochzuladen ist nicht besonders sinnvoll. ;)

MfG,
Raff

Fetter Fettsack
2010-11-07, 15:07:56
Downsampling-Auflösungen als BMP hochzuladen ist nicht besonders sinnvoll.

Aber lustig, weil für die Betrachtungswilligen böse. ;D

airbag
2010-11-07, 15:17:54
Downsampling-Auflösungen als BMP hochzuladen ist nicht besonders sinnvoll.
Ja unteranderem, aber die Aussage war eher allgemeint gemeint. (z.B RAW Fotografie)

C.D.B.
2010-11-07, 15:45:13
... Aber bitte gestattet uns Bildharmoniebedürftigen die (harsche) Kritik am Sparfilter, auf dass wir endlich auch einen Modus bekommen, der "uns" so gefällt wie "euch" das knackig scharfe Flimmern. ...
MfG,
Raff

Tja, wenn Du wirklich so "Bildharmoniebedärftig" wäst, wie Du es von Dir behauptest, müßte doch die widerliche Schattendarstellung auf Platz eins stehen - und nicht das AF. ;)

Und zudem bitte ich Dich, als Fachmann in Sachen 3D, das AF-Grieseln nicht als "Flimmern" zu bezeichnen. Die meisten (nicht sonderlich bewandten) User suchen dann nämlich nach etwas flimmerndem, und finden was anderes ... z.B. die Schatten, die Flimmern tatsächlich je nach Game heftig!

Langenscheiss
2010-11-07, 16:11:52
D3DAFTester Vergleich HD6850 HQ vs Q

So hier der versprochene Vergleich zwischen HQ und Q auf Barts.
Danke an fizzo für die Bilder.

Vorab
Für ein besseres Verständnis der nachfolgenden Analyse seien nochmal 3 Threads verlinkt
AF erklärt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494476
D3DAFTester: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=745002#post745002
HD5K Analyse: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8344890&postcount=1640

Testmethode
Leider ist dieser Punkt in bei den letzten Untersuchungen immer zu kurz gekommen. Auch musste ich selber noch etwas darüber lernen, was wir hier genau sehen, sodass ich diesen Punkt bisher nie so deutlich darlegen konnte.
Die Texel-Analyse approximiert die Anzahl an Texel, die pro Pixel vom Texturfilter verwendet wird, um die finale Pixel-Farbe zu berechnen. Details sind mir nicht bekannt (eine Antwort auf meine PM blieb bis jetzt aus, könnte ich sogar verstehen, denn dieser Algorithmus ist ja schließlich geistiges Eigentum), aber als gesichert gilt, dass das Programm eine bekannte Eingabe von der Grafikkarte filtern lässt, das Ergebnis aus dem Framebuffer liest (das sind die Farben, die man bei dem Test sieht) und dieses Ergebnis mit der Eingabe vergleicht, woraus nach anschließender Analyse die wahrscheinlichste Sample-Rate ermittelt wird. Nach der Abarbeitung aller Pixel erstellt das Programm die bekannten Bilder, in denen der größte Wert die Farbe RGB = (0,255,0) und der niedrigste RGB = (255,0,0) erhält. Für alle Zwischenwerte wird die Farbe dann schlicht linear interpoliert.
Ein auf den ersten Blick fundamentales Problem ergibt sich dadurch, dass nur indirekt gezählt werden kann. Textursamples, die dicht zusammenliegen, oder eine ungünstige Gewichtung bei der anschließenden Interpolation können dazu führen, dass unter Umständen deutlich zu wenige (zu viele?) Samples erfasst werden. Dies führt den Test dennoch nicht ad absurdum, ganz im Gegenteil sogar! Das, was wir hier bekommen, ist nicht die korrekte Sample-Zahl, sondern die effektive Sample-Zahl. Erstere ist nämlich bei ungünstiger Verteilung und Gewichtung relativ bedeutungslos. Zum Beispiel kann ich 16 trilineare Samples entlang der großen Halbachse so verteilen, dass ich 8 an einer und 8 an der anderen Stelle lege. Effektiv hat man also nur 2 Samples, und der Wert, den die Texel-Analyse hier ausgeben würde, wäre aussagekräftiger bezüglich der BQ als die reine Sample-Zahl.
In dem Moment, in dem wir uns von der zuweilen etwas eindimensionalen Diskussion über das Vorhandensein von "Optimierungen" verabschieden, und uns nur darum kümmern, was wir letztendlich für eine BQ erhalten, wird diese Analyse zu einem durchaus mächtigen Werkzeug, wenn gleich absolut korrekte Werte natürlich noch besser für ein objektives Urteil wären. Anstatt absolut korrekter Werte erhalten wir eine Beurteilung, die rein auf dem Endprodukt, also der Pixelfarbe bei gegebenem Input, basiert. Deshalb müssen Ergebnisse aus früheren Analysen auch nicht vollständig revidiert werden. Der deutlich höhere Rot-Anteil in den Barts-Bildern z.B. sagt vielleicht nicht etwas darüber aus, ob Barts jetzt wirklich im eigentlichen Sinne spart, aber das Ergebnis ist uns ja allen bekannt: Flimmern!
Genau dieses Flimmern hat die Analyse schlicht dadurch registriert, dass man offenbar !effektiv! weniger sampled, als auf Cypress, wenn gleich die eigentliche Sample-Rate sich wahrscheinlich gar nicht so drastisch unterscheidet. Außerdem können relative Angaben zu Unterschieden, sofern die Vergleiche mit gleicher oder sehr ähnlicher Hardware durchgeführt werden, durchaus den wahren Wert approximieren. Ich werde nichtsdestotrotz auch weiterhin die absoluten Angaben mit in die Bilder packen, wenn gleich deren Bedeutung jedes Mal kritisch hinterfragt werden muss!

So, nach diesem etwas länglichen Text, der mir aber sehr wichtig war, komme ich nun zu den Ergebnissen:

Settings
System: HD6850/Cat10.10d - 16xAF - Keine Formatoptimierung - Kein AA
Application: LODBias 0 - Use Stage: 0 - Use Checkerboard Texture/scale 0 - Objects: Plane/Distance: 2.2/Angle: 57 - scene/texture rotation: 0.0

Szenen-Vergeich
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/scenecomparison_16xaf_eujx.png (http://www.abload.de/image.php?img=scenecomparison_16xaf_eujx.png)http://www.abload.de/thumb/scenecomparison_16xaf_dnw3.png (http://www.abload.de/image.php?img=scenecomparison_16xaf_dnw3.png)

Zu sehen ist (bei genauer Betrachtung)
- banding bei geringerer Texturverzerrung
- Kanten verschieben sich auf Q dadurch, dass die Grenze für das hochsetzen der Samplerate erhöht wird, das heißt, der Umsprung geschieht bei höherer Texturverzerrung
- breitere Bi-Bänder
- leichte positive LOD-Verschiebung

Texel-Analyse
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/texelanalysis_16xaf_hqw5wt.png (http://www.abload.de/image.php?img=texelanalysis_16xaf_hqw5wt.png)http://www.abload.de/thumb/texelanalysis_16xaf_hqsnef.png (http://www.abload.de/image.php?img=texelanalysis_16xaf_hqsnef.png)

Hier werden beschriebene Optimierungen deutlich. Das aggressivere AF, breitere Bi-Bänder und positives LODBias sind zu sehen. Das banding entsteht wie bei Cypress an den Stellen, an denen schlagartige die !!EFFEKTIVE!! Sample-Rate erhöht wird. (Das Erhöhen der tatsächlichen Rate geschieht bei AF intrinsisch in Stufen, aber dieser Stufen-Effekt kann durch Anpassung der Verteilung ung Gewichtung der Samples, also einer Anpassung der "effektiven" Sample-Rate, vermieden werden, was hier offenbar nicht richtig funktioniert. Mehr dazu weiter unten.) Das Verhalten von Q gegenüber HQ ist also identisch zu dem auf Cypress. Deutlich wird das auch noch bei folgenden Bildern:

Sample-Differenz
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/sampledifference_16xaf1xag.png (http://www.abload.de/image.php?img=sampledifference_16xaf1xag.png)http://www.abload.de/thumb/sampledifference_16xaffbks.png (http://www.abload.de/image.php?img=sampledifference_16xaffbks.png)

Rot entspricht mehr Samples auf HQ, grün bedeutet mehr Samples auf Q. Die Farben wurden auf den jeweils angegebenen Maximalwert normiert.
Man sieht hier genau, wo die Optimierung ansetzt. Allein durch das veränderte Verhalten des AF spart man etwa 3% an effektiver Sample-Rate.
Im relevanten Mipmap-Fall sind es etwa 6%. Rein technisch können es deutlich mehr als 6% sein, aber die 6% beziehen sich darauf, was man effektiv an der BQ erkennen kann. Außerdem entspricht dies auch etwa dem Performance-Verlust ( http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/ ). Die grünen Streifen zeigen nochmal das leicht positive LODBias unter Q.

Zusammenfassend kann man sagen, das Q wie auf Cypress an 3 Stellen ansetzt:
- Erhöhung der Sample-Rate bei größerer Texturverzerrung, als bei HQ
- Verbreiterung der Bi-Bänder alias Brilineare Optimierung
- positives LODBias als Ausgleich für den ersten Punkt

D3DAFTester Vergleich HD6850 Q vs HD5850 Q

Testmethode
Nach der ewig langen Begründung des ersten Teils könnte man sich ja jetzt fragen, ob sowas überhaupt noch sinnvoll ist, da hier ja verschiedene Hardware verglichen wird, was die oben geschilderten Probleme mit sich bringt. Ich will diesen Vergleich aber nicht dazu nutzen, Barts als Cheater zu entlarven, sondern stattdessen schlicht die BQ Unterschiede aufzeigen, die sich, wie ich ja oben erklärt habe, sehr wohl an der "effektiven" Sample-Rate erkennen lassen.

Settings
System1: HD6850/Cat10.10d - 16xAF - Q - Keine Formatoptimierung - Kein AA (danke an fizzo)
System2: HD5850/Cat10.10a (modded inf) - 16xAF - Q (identisch zu A.I. standard im 10.10 Treiber ohne gemoddete inf) - Keine Formatoptimierung - Kein AA
Application: LODBias 0 - Use Stage: 0 - Use Checkerboard Texture/scale 0 - Objects: Plane/Distance: 2.2/Angle: 57 - scene/texture rotation: 0.0

Szenen-Vergeich
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/16xaf_nomipmaps_hd5tohp6it.png (http://www.abload.de/image.php?img=16xaf_nomipmaps_hd5tohp6it.png)http://www.abload.de/thumb/16xaf_mipmaps_hd5tohd6158d.png (http://www.abload.de/image.php?img=16xaf_mipmaps_hd5tohd6158d.png)

Unter Mipmap-Bedingungen erkennt man keine Unterschiede bis auf das etwas stärkere banding von Cypress bei stärkerer Texturverzerrung. Was ohne Mipmaps (bzw. mit Mipmaps, aber ohne Mipmap tint, das Bild hab ich auch, packe ich aber hier nicht rein) mit der Helligkeit passiert, kann ich leider nicht erklären. Ich habe mir die Bilder mehrmals schicken lassen, aber es trat immer wieder das gleiche Problem auf. Ich gehe allerdings nicht davon aus, das wir hier ein weiteres Barts-Problem gefunden haben. Da ist wohl irgendwo auf dem Weg von fizzos Graka zu meinem Photoshop irgendwas nicht richtig gelaufen, also bitte nicht überbewerten. (@Schlammsau: Vielleicht kannst du mir noch mal entsprechende Bilder als Gegenkontrolle schicken bzw. selbst vergleichen.)

Texel-Analyse
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/16xaf_nomipmaps_hd5toh6usc.png (http://www.abload.de/image.php?img=16xaf_nomipmaps_hd5toh6usc.png)http://www.abload.de/thumb/16xaf_mipmaps_hd5tohd6unf4.png (http://www.abload.de/image.php?img=16xaf_mipmaps_hd5tohd6unf4.png)

Der einzige erkennbare Unterschied ist die Veränderung der effektiven Sample-Rate, aber genau an diesem Beispiel wollte ich das Problem nochmal erklären. Schaut man sich auf Cypress genau den Farbverlauf an, so stellt man fest, dass dieser vor jedem Sprung mehr zu rot tendiert, um dann wieder abrupt auf grüner zu springen. Selbst der dämlichste Ingenieur würde niemals so sampeln, denn wären hier tatsächliche Sample-Zahlen dargestellt würde der Chip ja bei größerer Texturverzerrung weniger anstatt mehr sampeln. Dennoch ist die Koinzidenz mit dem banding eindeutig und genau das ist der Punkt, den ich anfangs nicht richtig interpretieren konnte.
Das Programm und dessen ermittelten Sample-Raten spiegeln das Endergebnis wieder, nicht die tatsächliche Durchführung. Was wir hier gewisser Maßen verfolgen, ist nicht (nur) die Sample-Zahl, sondern auch die Variation der Verteilung und Gewichtung der Samples. Dass das Programm kurz vor dem Sprung rot zeigt, liegt daran, dass eben diese hier nicht korrekt angesetzt wird, sodass das Endergebnis im Framebuffer so aussieht, als sei es Undersampling. Das impliziert natürlich sowohl den blur nach der Kante als auch das Flimmern vor der Kante, was man "in der realen Welt" (also Spiele) sowie im 3DCenterFilterTester verifizieren kann.
Warum also das ganze? Ich denke, die Antwort sehen wir im Barts-Bild. Einen derart weichen Übergang von rot nach grün schafft keine andere Grafikkarte am Markt. Dave Baumann nennt das ganze "High Precision LOD" und meint damit einen intelligenten AF-Algorithmus, der durch geschickte Verteilung und Gewichtung die im AF-Algorithmus intrinsisch vorhandenen Filter-Stufen (TMUs sind halt nicht soo flexibel) so ausgleicht, dass der effektive Filtergrad sich perfekt an die Texturverzerrung anpasst. Das ist an sich ein guter und wohl auch schon recht üblicher Ansatz. Meine Vermutung ist die, dass AMD das ursprünglich schon mit Cypress einführen wollte. Das Cypress-Bild zeigt im Grunde nur die verbugte Variante des Barts-Bildes. Da ist bei der Implementierung hardwareseitig einfach irgendwas schief gelaufen.
Das Problem ist allerdings, dass man mit dieser Anpassung ja nicht mehr Informationen gewinnen kann, sondern immer nur aus mehr effektiv weniger machen kann, weil für eine bessere Filterung ja auch real mehr Samples eingesetzt werden müssen. Kombiniert man diesen Ansatz also mit einer AF-Optimierung, was eine reale Herabsetzung der Samplerate bedeutet, oder berechnet man die Verteilung und Gewichtung falsch, so führt dies leicht zu zu starkem Undersampling und damit Flimmern. Wenn die das bei Cypress nicht falsch gemacht hätten, hätte Cypress wohl genauso krasses Flimmern wie Barts (lol)!
Ich finds ja gut, dass man bei AMD versucht, sich von der recht alten Referenz-Implementierung von AF zu entfernen, aber die stufige Referenz-Variante kombiniert mit einer vernünftigen Sample-Rate produziert weder banding noch deutliches Flimmern! Also was soll dieser Mist, AMD???

Zum Abschluss noch

Sample-Differenz
---Keine Mipmaps-------Mipmaps------
http://www.abload.de/thumb/16xaf_nomipmaps_sampleb6z7.png (http://www.abload.de/image.php?img=16xaf_nomipmaps_sampleb6z7.png)http://www.abload.de/thumb/16xaf_mipmaps_sampledioniy.png (http://www.abload.de/image.php?img=16xaf_mipmaps_sampledioniy.png)

Normierung auf das jeweilige Maximum. Diese Unterschiede verdeutlichen nochmal, wie sich das Bildresultat auf Cypress sich kurz vor jedem Sprung wieder an das Result auf Barts angleicht.

So, ich weiß, dass war viel auf einmal, aber ich hoffe mal, dass dies in Hinblick auf den nächsten AF-Artikel etwas hilft. Ich habe oben davon gesprochen, dass man die Probleme z.B. bei Crysis verifizieren kann. Das möchte ich an dieser Stelle selbst noch machen:

3DCenter Filter Tester:
Video: http://www.multiupload.com/IXK4OYKLRY
Settings: HD5850/Cat10.10a - 16xAF/A.I. off - kein AA - Textur: ground2/scale: 1 - Textur-Movement y: 0.05 - LODBias von 5 bis 0 und zurück durchgeschoben

Das beste ist, wenn man, bevor man das Video sich komplett anschaut, sich nur den ersten Frame nimmt, und mal die Kante vom banding sucht. Diese fixiert man dann und beobachtet, wie man dann beim Ändern des LODBias plötzlich vor dieser Kante diesen Flimmerstreifen sieht, der ja auch in den TweakPC Videos zu sehen ist.

Crysis
Video: http://www.multiupload.com/MZSWXICY9B
Settings: HD5850/Cat10.10a - 16xAF/A.I. off - kein AA - D3D9 - Ingame custom config - Map: Relic

Gerade bei Crysis sieht man das imo sehr gut. Moire/Flimmern wird vor der nächsten Kante sehr stark, danach ist es in einem kleinem Bereich quasi gar nicht mehr vorhanden. Video ist unkomprimiert, damit man den Effekt und vor allem die Kanten besser sieht.

Raff
2010-11-07, 16:50:06
Du hast zu viel Zeit – sau geil! :biggrin:

Hihi, wie gut, dass Cypress so "buggy" ist, macht das AF erträglicher. Das Problem ist, dass wir auf dem Flimmerstand von 2008 (HD 4000) sind. Und kommt mir nicht mit der lustig perfekten Gradientenberechnung. Die fällt nur in solchen Sample-Vergleichen auf.

MfG,
Raff

Langenscheiss
2010-11-07, 17:17:39
Der Sonntag nachm Saufen ;)

Es war mir wichtig, auch mal eine korrekte oder zumindest adequatere Interpretation zu liefern.

EDIT: Videos sind im posting.

EDIT2: Hab oben nochmal den Computerbase Performance-Vergleich verlinkt. Die 6% passen doch ganz gut, oder?

Mau1wurf1977
2010-11-27, 08:19:09
Was sagt Ihr dazu:

A representative from AMD has stepped forward to set the record straight. AMD denies any accusations and underhanded tactics and has reaffirmed it's commitment to the PC gaming community. The rep who stepped forward also pointed out that the default IQ settings in the Catalyst drivers had recently been revisited and they were what AMD deemed "on-par" with NVIDIA's default IQ settings.

The statement pointed out that AMD takes "great care in determining the default settings of Catalyst drivers" and that the current defaults "deliver a very good gaming experience".


Quelle: http://australia.tweaktown.com/news/17764/amd_responds_to_nvidia_s_iq_complaits/index.html

derguru
2010-11-27, 10:53:11
gamestar hat das thema auch aufgegriffen.
AMD & Nvidia - Cheatvorwürfe wegen Bildqualität (http://www.gamestar.de/hardware/news/grafikkarten/2319589/amd_nvidia.html)

witz komm raus,wird wohl nichts mit besserem af beim cayman.;(
Gegenüber Hexus hat AMD Stellung genommen und die Vorwürfe zurückgewiesen. Nach Ansicht von AMD sind die Qualitätseinstellungen des Catalyst-Treibers auf dem gleichen Niveau wie die der Nvidia-Treiber. Man gebe sich große Mühe bei der Festlegung der Standardeinstellungen, deren aktuelle Version »ein sehr gutes Spiele-Erlebnis liefert«.

PCGH_Carsten
2010-11-27, 11:01:43
Was sagt Ihr dazu:




Quelle: http://australia.tweaktown.com/news/17764/amd_responds_to_nvidia_s_iq_complaits/index.html

Klingt ein bißchen wie vor sechseinhalb Jahren:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/offizielles-ati-statement-zur-texturfilterung/

puntarenas
2010-11-27, 11:05:18
gamestar hat das thema auch aufgegriffen.

Sie verrühren es aber mit einem möglichen Anti-Aliasing-Cheat von Nvidia in einem bestimmten Spiel. Ich hoffe, wir können hier im Thread beim Thema "Qualität des AF auf Radeon HD 6800" bleiben. Wenn es Diskussionsbedarf zu der "H.A.W.X. 2 Thematik" gibt, ist das in einem separaten Thema besser aufgehoben, sonst ist jede sachliche Auseinandersetzung schnell dahin.

derguru
2010-11-27, 11:11:16
ignorier den bezug auf hawx2 einfach,mir ging es nur um af.

Blaire
2010-11-27, 17:16:29
Von was reden die da mit Hawx2? Die meinen den ersten HAWX Teil wie ich das sehe. http://www.kitguru.net/forum/22540-post1.html Und das ist auch kein Cheat, dieses Game hat eigene AA Bits dabei, sowohl für DX9 als auch DX10.

Langenscheiss
2010-11-27, 19:53:05
Was sagt Ihr dazu:
Quelle: http://australia.tweaktown.com/news/17764/amd_responds_to_nvidia_s_iq_complaits/index.html

Naja, das ist ja quasi ein Geständnis. Sie behaupten halt, dass die BQ so gut ist, wie AMD es für richtig hält. Da bleibt uns leider nicht mehr, als künftig wieder zu Nvidia-Karten zu greifen, denn wenn das die offizielle Haltung von AMD zu dem Thema ist, dann können wir lange auf Verbesserungen warten.

Exxtreme
2010-11-27, 20:02:37
gamestar hat das thema auch aufgegriffen.
AMD & Nvidia - Cheatvorwürfe wegen Bildqualität (http://www.gamestar.de/hardware/news/grafikkarten/2319589/amd_nvidia.html)

witz komm raus,wird wohl nichts mit besserem af beim cayman.;(
Der Blogeintrag liest sich da sehr interessant. :)

http://blogs.nvidia.com/ntersect/2010/11/testing-nvidia-vs-amd-image-quality.html


"NVIDIA’s own driver team has verified specific behaviors in AMD’s drivers that tend to affect certain anisotropic testing tools. Specifically, AMD drivers appear to disable texture filtering optimizations when smaller window sizes are detected, like the AF Tester tool uses, and they enable their optimizations for larger window sizes. The definition of “larger” and “smaller” varies depending on the API and hardware used. For example with DX10 and 68xx boards, it seems they disable optimizations with window sizes smaller than 500 pixels on a side. For DX9 apps like the AF Tester, the limit is higher, on the order of 1000 pixels per side. "


Wenn das stimmt dann ist das IMHO schon sehr kreativ. X-D

airbag
2010-11-27, 20:12:03
Das kann ein AMD User mal nachtesten, ob die BQ bei kleinem Fenster wirklcih besser ist.

edit:
bei den AF tester ist es ja nicht möglich die Fenstergröße zu variieren.

Exxtreme
2010-11-27, 20:55:53
Joa, wäre nicht schlecht wenn man die Fenstergröße variieren könnte.

Fetza
2010-11-27, 21:04:11
Was sagt Ihr dazu:




Quelle: http://australia.tweaktown.com/news/17764/amd_responds_to_nvidia_s_iq_complaits/index.html

Dazu sage ich, das amd damit im bereich der grafikkarten nur noch als preisdrücker für nvidia karten gut ist. Kein grafikgourmet würde sich eine graka für 300 euro oder mehr holen um amds ekligen drecksfilter ausgeliefert zu sein.

Cayman ist damit von meiner einkaufsliste definitiv gestrichen.

Spirou
2010-11-27, 22:21:05
Kein grafikgourmet würde sich eine graka für 300 euro oder mehr holen um amds ekligen drecksfilter ausgeliefert zu sein.Schon jemand eine Eingabe an den Petitionsausschuss ausgearbeitet, damit da ein Aufkleber draufkommt, wie auf die Zigarettenpackungen?

Nur gut, daß noch kein Grafikkartenhersteller auf die Idee gekommen ist, subliminale Botschaften in die Bildausgabe einzukodieren: "Gehe in das nächstbeste Forum und schreibe..."

Oder etwa doch schon?

Fetza
2010-11-27, 22:44:25
Schon jemand eine Eingabe an den Petitionsausschuss ausgearbeitet, damit da ein Aufkleber draufkommt, wie auf die Zigarettenpackungen?

Nur gut, daß noch kein Grafikkartenhersteller auf die Idee gekommen ist, subliminale Botschaften in die Bildausgabe einzukodieren: "Gehe in das nächstbeste Forum und schreibe..."

Oder etwa doch schon?

Nö, da kannst du ganz beruhigt sein. Ein forum wie das 3dcenter bringt es nunmal mit sich, das sich dort hauptsächlich grafiktenthusiasten versammeln. Da haben es grafikkarten, die schlechte grafik abliefern nunmal schwer - bzw. deren firmen.

Ich hätte erwartet, das amd mit cayman eine karte fertigt, welche über eine vernünftige anisotrope filterung verfügt - dies ist allem anschein nach falsch, damit ist cayman entwertet. Was nützt mir eine karte, die super schnell ist, aber schlecht filtert?

Exxtreme
2010-11-27, 23:21:04
Ich hätte erwartet, das amd mit cayman eine karte fertigt, welche über eine vernünftige anisotrope filterung verfügt - dies ist allem anschein nach falsch, damit ist cayman entwertet. Was nützt mir eine karte, die super schnell ist, aber schlecht filtert?
Es steht noch nicht fest, dass Cayman schlecht filtert auch wenn ich stark davon ausgehe.

Bucklew
2010-11-28, 00:22:22
Ich hätte erwartet, das amd mit cayman eine karte fertigt, welche über eine vernünftige anisotrope filterung verfügt - dies ist allem anschein nach falsch, damit ist cayman entwertet. Was nützt mir eine karte, die super schnell ist, aber schlecht filtert?
Diese 10%, die sich ATI da herbei cheatet optimiert, werden sie nicht mehr abgeben, außer externer Druck zwingt sie dazu (siehe G70). Wobei diese 10% ja nur der Unterschied zwischen dem aktuellen Q und HQ sind (wobei das neue HQ ja ungefähr dem alten Q entspricht). Wieviel Prozent mehr es sind dadurch, dass ja auch das alte Q schon gewisse Einsparungen hatte....Ich glaube das wollen wir gar nicht wissen.

Spirou
2010-11-28, 01:18:52
Wir schreiben das Jahr 2010 und ganz Gallegrün ist von den rötischen Filtern erobert, einzig ein kleines leichengrünes Dorf im Norden der Vertriebsregion Nordafrika & Arabien leistet noch erbitterten Widerstand...

Ihr wisst aber, daß AMD das Vertriebsbüro Europa schon vor einiger Zeit aufgelöst und euch alle wirklich der Abteilung Nordafrika und Arabien zugeordnet hat, oder? (ich hab das Gefühl, ich weiß auch warum)

Macht nix, ihr nehmt einfach alle noch einen Schluck Zaubertrank (bis auf die PCGH-Redakteure, die ja schon als Kind in den Topf gefallen sind), und macht mal ordentlich externen Druck. Besonders die sogenannten Grafikenthusiasten (=>10K Beiträge in sämtlichen Foren ihrer sprachlichen Reichweite).

Ich sehe da nur ein kleines Problem. Wer eine drei nicht von einer zehn unterscheiden kann, hat offensichtlich so schlechte Augen, daß ihn sowieso niemand zu Fragen der Bildqualität konsultiert.

Fetza
2010-11-28, 01:57:11
Wir schreiben das Jahr 2010 und ganz Gallegrün ist von den rötischen Filtern erobert, einzig ein kleines leichengrünes Dorf im Norden der Vertriebsregion Nordafrika & Arabien leistet noch erbitterten Widerstand...

Ihr wisst aber, daß AMD das Vertriebsbüro Europa schon vor einiger Zeit aufgelöst und euch alle wirklich der Abteilung Nordafrika und Arabien zugeordnet hat, oder? (ich hab das Gefühl, ich weiß auch warum)

Macht nix, ihr nehmt einfach alle noch einen Schluck Zaubertrank (bis auf die PCGH-Redakteure, die ja schon als Kind in den Topf gefallen sind), und macht mal ordentlich externen Druck. Besonders die sogenannten Grafikenthusiasten (=>10K Beiträge in sämtlichen Foren ihrer sprachlichen Reichweite).

Ich sehe da nur ein kleines Problem. Wer eine drei nicht von einer zehn unterscheiden kann, hat offensichtlich so schlechte Augen, daß ihn sowieso niemand zu Fragen der Bildqualität konsultiert.

Und ich würde sagen, du redest hier irgendwie nur unsinniges zeuchs. Weshalb ich dich jetzt einfach mal wegen spammens melden werde, da du nichts sachliches zum thema beizutragen hast.

Spirou
2010-11-28, 02:41:06
Und ich würde sagen, du redest hier irgendwie nur unsinniges zeuchs. Weshalb ich dich jetzt einfach mal wegen spammens melden werde, da du nichts sachliches zum thema beizutragen hast.
Wieso? Du wirst doch von mir über wichtige Fakten unterrichtet. Zum Beispiel, daß drei Prozent keine zehn Prozent sind, oder wo euer Druck ankommt und wo nicht. Da wird Dir Dein Spamknopf nicht viel weiterhelfen.

Ihr habt euch hier in eine ziemlich alberne Selbstüberschätzung verstiegen mit eurer Idee vom Druck machen. Das kann auch nur passieren, wenn man sich an Leute hängt, die weder wissen, wie der AMD-Vertrieb organisiert ist (D gehört inzw. nun mal zu Nordafrika), noch wer im Grafikkartengeschäft den Ton angibt, nämlich PC-Partner in Hong Kong.

To be heard or read in Hong Kong one has to discuss the whole topic in english at least but i'd recommend chinese rather for that kind of purpose and i'd sadly have to mention, at PC-Partner they tend to call germans retards und shrug their shoulders.

PS in english or chinese three percent also are nothing less or more than three percent and all tens of thousands of enthusiasts' rants won't count as long as they are posted in the retards' forums of northern africa.

Mich würde aber eher interessieren, ob es stimmt, daß sich die Filterqualität im direkten Vergleich zwischen RV670 und Barts nicht verschlechtert hat. Dann kann ich nämlich mal langsam ans Aufrüsten denken. Danke im Voraus, Ihr wackeren Mannen.

Fetza
2010-11-28, 13:50:46
Wieso? Du wirst doch von mir über wichtige Fakten unterrichtet. Zum Beispiel, daß drei Prozent keine zehn Prozent sind, oder wo euer Druck ankommt und wo nicht. Da wird Dir Dein Spamknopf nicht viel weiterhelfen.

Weil ich nie von einem performance verlust/gain gesprochen habe. Der interessiert mich nämlich nicht, cayman könnte bei vernünftiger filterung von mir aus ruhig 10% performance verlieren. Genausogut interessiert es mich herzlich wenig, ob amd 3 oder 10% mit seinen karten an performance gained, mit dem cheatfilter. Eine high-end karte ist ad absurdum geführt, von dem moment an, wo sie um klassen schlechter filtert als karten von 2006. Das war meine aussage - und bleibt meine meinung.

Ihr habt euch hier in eine ziemlich alberne Selbstüberschätzung verstiegen mit eurer Idee vom Druck machen. Das kann auch nur passieren, wenn man sich an Leute hängt, die weder wissen, wie der AMD-Vertrieb organisiert ist (D gehört inzw. nun mal zu Nordafrika), noch wer im Grafikkartengeschäft den Ton angibt, nämlich PC-Partner in Hong Kong.

Ich denke einfach, das man auf vernünftige produkte ausweichen kann, das muss aber jeder selbst wissen. Wie amd seinen vertrieb regelt ist mir völlig egal, die grafikkarten sind untauglich, weil sie schlechte grafik erzeugen (das bild schwimmt mehr denn je). Daher sind sie für mich untauglich. Was da irgendwelche chinesen dazu sagen, ist mir auch völlig egal.

To be heard or read in Hong Kong one has to discuss the whole topic in english at least but i'd recommend chinese rather for that kind of purpose and i'd sadly have to mention, at PC-Partner they tend to call germans retards und shrug their shoulders.

PS in english or chinese three percent also are nothing less or more than three percent and all tens of thousands of enthusiasts' rants won't count as long as they are posted in the retards' forums of northern africa.

Mich würde aber eher interessieren, ob es stimmt, daß sich die Filterqualität im direkten Vergleich zwischen RV670 und Barts nicht verschlechtert hat. Dann kann ich nämlich mal langsam ans Aufrüsten denken. Danke im Voraus, Ihr wackeren Mannen.

Und die asiaten zocken sowieso in der regel auf eher schlechten gaming maschinen. Noch nie was von den china famern gehört, mit ihren mickermaschinen? In china wird fast nur in internet cafes gezockt. Da würde ich sogar schätzen, die spielen ganz ohne aa und af. Aber was hat das mit kunden zu tun, die sich grafikkarten für 300 euro und mehr kaufen in europa und amerika? Die kaufen sich die hardware, weil sie besonders gute grafik haben wollen.

Exxtreme
2010-11-28, 13:58:35
Ihr habt euch hier in eine ziemlich alberne Selbstüberschätzung verstiegen mit eurer Idee vom Druck machen. Das kann auch nur passieren, wenn man sich an Leute hängt, die weder wissen, wie der AMD-Vertrieb organisiert ist (D gehört inzw. nun mal zu Nordafrika), noch wer im Grafikkartengeschäft den Ton angibt, nämlich PC-Partner in Hong Kong.
Bei Nvidia hat Druck aufbauen ordentlich funktioniert. Jetzt müssten nur noch die großen UK-/US-Sites mal aufwachen und diesen Sparfilter auch monieren.
To be heard or read in Hong Kong one has to discuss the whole topic in english at least but i'd recommend chinese rather for that kind of purpose and i'd sadly have to mention, at PC-Partner they tend to call germans retards und shrug their shoulders.

PS in english or chinese three percent also are nothing less or more than three percent and all tens of thousands of enthusiasts' rants won't count as long as they are posted in the retards' forums of northern africa.

Mich würde aber eher interessieren, ob es stimmt, daß sich die Filterqualität im direkten Vergleich zwischen RV670 und Barts nicht verschlechtert hat. Dann kann ich nämlich mal langsam ans Aufrüsten denken. Danke im Voraus, Ihr wackeren Mannen.
Die Grafikkarten, die hier besprochen werden interessieren die Chinesen sowieso nicht. Viel zu teuer.

Raff
2010-11-28, 14:01:15
Ihr habt euch hier in eine ziemlich alberne Selbstüberschätzung verstiegen mit eurer Idee vom Druck machen. Das kann auch nur passieren, wenn man sich an Leute hängt, die weder wissen, wie der AMD-Vertrieb organisiert ist (D gehört inzw. nun mal zu Nordafrika), noch wer im Grafikkartengeschäft den Ton angibt, nämlich PC-Partner in Hong Kong.

Unsere "Selbstüberschätzung" machte das G7x-AF besser. Unsere "Selbstüberschätzung" brachte ein SGSSAA-Tool bei Nvidia. Unsere "Selbstüberschätzung" hinsichtlich des Radeon-AFs verbreitet sich nach Übersee. Lieber "selbst überschätzen", als sich mit jedem Scheiß zufrieden geben. AMD wird auch noch einlenken.

Mich würde aber eher interessieren, ob es stimmt, daß sich die Filterqualität im direkten Vergleich zwischen RV670 und Barts nicht verschlechtert hat. Dann kann ich nämlich mal langsam ans Aufrüsten denken. Danke im Voraus, Ihr wackeren Mannen.

Eine HD 3870 flimmert weniger als Barts. Auch, wenn der mit "HQ" (eine euphemistische Bezeichnung) filtert.

MfG,
Raff

deekey777
2010-11-28, 14:20:23
Von was reden die da mit Hawx2? Die meinen den ersten HAWX Teil wie ich das sehe. http://www.kitguru.net/forum/22540-post1.html Und das ist auch kein Cheat, dieses Game hat eigene AA Bits dabei, sowohl für DX9 als auch DX10.
Die offizielle Erklärung ist, dass HAWX bei Ingame-4x das höchste Antialiasing anfordert und das ist 16xCSAA, nur mit dem richtigen Profil wird normales 4xMSAA aktiviert, darum macht die Umbenennung dieses Profil unwirksam und man hat scheinbar besseres 4xMSAA.

Bucklew
2010-11-28, 14:25:37
Also ich weiß nicht was Spirou da für einen völligen Blödsinn verzapft, aber AMD hat sog. Sales Offices in München, Italien, UK, Paris etc. - Wofür sollten die wohl zuständig sein, wenn nicht für den Verkauf in der entsprechenden Region?

Naja, viel geschrieben immerhin, wenn auch alles nur Stuss...

y33H@
2010-11-28, 14:50:59
Ich denke, er meint eher die Presse-Leute ;)

Bucklew
2010-11-28, 14:54:45
Ich denke, er meint eher die Presse-Leute ;)
Vertrieb = Presse? ;D

Langenscheiss
2010-11-29, 10:13:37
Es steht noch nicht fest, dass Cayman schlecht filtert auch wenn ich stark davon ausgehe.

Mit Recht, nachdem AMD mit seiner Stellungnahme zum NV-blog die BQ Verschlechterung indirekt zugegeben haben und ihre Taten sogar damit verteidigen, dass die BQ angeblich auf dem gleichen Niveau sei, das NV biete. (Was mal wieder zeigt, wie einfach sich nicht nur Kunden, sondern auch inkompetente Redakteure diverser Websites sich von diesem PR-blupp einwickeln lassen)

@All:
Woher genau kommen jetzt eigentlich diese 10%? Also laut computerbase sind es im Mittel auf Barts 5-6% zwischen HQ (dem alten default) und Q (dem neuen default), was in etwa auch dem BQ Verlust entspricht (zumindest in der Form, in der er messbar ist).
http://www.computerbase.de/artikel/grafikkarten/2010/bericht-radeon-hd-6800/13/

Coda
2010-11-29, 10:30:27
Sagen wir so: Ich wäre ziemlich erstaunt, dass sich da nach dem Tapeout noch etwas ändert *hust*

y33H@
2010-11-29, 11:06:40
@ Langenscheiss

Die (über) 10% kommen von Messungen, die Carsten und Raff gemacht haben. Teils Worst-Case provoziert.

Raff
2010-11-29, 11:13:44
@ Langenscheiss

Die (über) 10% kommen von Messungen, die Carsten und Raff gemacht haben. Teils Worst-Case provoziert.

PCGH 01/2011, Seite 40 => BQ-Artikel. Auf Seite 41 findet sich ein Worst-Case-Benchmark, wo HQ 15 Prozent gegenüber Q kostet. Das Heft gibt's derzeit nur für Abonnenten, Normalsterbliche müssen bis übermorgen warten.

MfG,
Raff

Dr. Cox
2010-11-29, 12:27:10
PCGH 01/2011, Seite 40 => BQ-Artikel. Auf Seite 41 findet sich ein Worst-Case-Benchmark, wo HQ 15 Prozent gegenüber Q kostet. Das Heft gibt's derzeit nur für Abonnenten, Normalsterbliche müssen bis übermorgen warten.



Dabei muss man aber auch bedenken, dass HQ natürlich immer noch nicht perfekt ist und von HQ (AMD) zu Q/HQ (Nvidia) bestimmt noch einmal ordentlich Leistung verloren gehen würde, wenn AMD auf Nvidias HQ-Level filtern könnte. Ich schätze, dass die HD 6870 mindestens 20% Leistung von Q (AMD) auf Nvidias Q-Niveau verlieren würde. Somit wäre die HD 6870 auch nicht mehr Konkurrenzfähig zur GTX 460 und müsste massiv im Preis fallen. Daher wird AMD auch niemals Nvidias AF-Qualität anbieten, nicht mit Barts und wahrscheinlich auch nicht mit Caymann. "Ercheatete" Leistung ist "günstiger" als real verbesserte Leistung ;) :freak:

PS: Auf die neue PCGH freue ich mich schon ;)
Wird denn auch dieses Mal der Artikel zur AF-Qualität von Barts enthalten sein?

G 80
2010-11-29, 13:18:02
Daher wird AMD auch niemals Nvidias AF-Qualität anbieten, nicht mit Barts und wahrscheinlich auch nicht mit Caymann. "Ercheatete" Leistung ist "günstiger" als real verbesserte Leistung ;) :freak:




Da muss ich leider zustimmen. Wobei ich Niemals jetzt als die nähere bis mittlere Zukunft sehe.

Imho kann es jetzt nur passieren das es Amd mit den Optimierungen übertreibt und es bei mehr Leuten über die Schmerzensgrenze schlägt.

Aber das wird wohl dank Konoslen nicht passieren.

Nächste Ziel ist wohl AA-Quali und Implementierungen in Spielen zu ruinieren. Diese Quincunx-Blurr-AA und MoH + Mafia AA zeigen ja schonmal die Richtung .... + natürlich noch kein AA als Klassiker wie in GTA IV (aber halt dort gibts doch diesen Bildmatsch-AA-Ersatz - anstatt Augenkrebs zu verursachen, kann man sich dank diesem tollen Unschärfe-Filter gleich mal das Endstadium desselben ansehen ....)

boxleitnerb
2010-11-29, 13:20:38
Dabei muss man aber auch bedenken, dass HQ natürlich immer noch nicht perfekt ist und von HQ (AMD) zu Q/HQ (Nvidia) bestimmt noch einmal ordentlich Leistung verloren gehen würde, wenn AMD auf Nvidias HQ-Level filtern könnte. Ich schätze, dass die HD 6870 mindestens 20% Leistung von Q (AMD) auf Nvidias Q-Niveau verlieren würde. Somit wäre die HD 6870 auch nicht mehr Konkurrenzfähig zur GTX 460 und müsste massiv im Preis fallen. Daher wird AMD auch niemals Nvidias AF-Qualität anbieten, nicht mit Barts und wahrscheinlich auch nicht mit Caymann. "Ercheatete" Leistung ist "günstiger" als real verbesserte Leistung ;) :freak:

PS: Auf die neue PCGH freue ich mich schon ;)
Wird denn auch dieses Mal der Artikel zur AF-Qualität von Barts enthalten sein?

Das ist eine Behauptung, die du nicht beweisen kannst. Langenscheiss selbst sprach mal von ungünstiger Sampleverteilung, nicht unbedingt von eingesparten Samples (bei HQ) iirc. Es muss nichtmal (viel) Performance kosten - sie könnten schlicht unfähig sein, eine ordentliche Filterung umzusetzen, die auf ihrer Hardware ebensowenig kosten würde die bei NV.

Exxtreme
2010-11-29, 13:22:11
Das ist eine Behauptung, die du nicht beweisen kannst. Langenscheiss selbst sprach mal von ungünstiger Sampleverteilung, nicht unbedingt von eingesparten Samples (bei HQ) iirc. Es muss nichtmal (viel) Performance kosten - sie könnten schlicht unfähig sein, eine ordentliche Filterung umzusetzen, die auf ihrer Hardware ebensowenig kosten würde die bei NV.
Ist halt immer komisch wenn man früher zu etwas fähig war und aktuell plötzlich nicht mehr. ;)

derguru
2010-11-29, 14:37:18
Nvidia: AMD & der Bildqualitätsbetrug (http://www.hartware.de/news_50489.html)
es macht die runde;)
amd muss darauf reagieren,so langsam stehts auf jeder seite.
her mit der r520 af quali.:biggrin:

Ronny145
2010-11-29, 14:46:29
Da muss ich leider zustimmen. Wobei ich Niemals jetzt als die nähere bis mittlere Zukunft sehe.

Imho kann es jetzt nur passieren das es Amd mit den Optimierungen übertreibt und es bei mehr Leuten über die Schmerzensgrenze schlägt.

Aber das wird wohl dank Konoslen nicht passieren.



Die Schmerzgrenze ist für die breite Masse noch lange nicht erreicht befürchte ich. Man sieht doch wie sich der Mainstream an dem bisschen mehr Schärfe ergötzt und das Flimmern in den Hintergrund tritt. Das wäre nur ein Vorteil wenn es nicht gleichzeitig auf Kosten der Bildruhe geht. Möglich wäre durchaus beides wie man am R520 sieht. Was bleibt ist das eliminierte Banding mit Barts.

LovesuckZ
2010-11-29, 14:54:03
Das Problem ist doch auch, dass Flimmern heute fast schon zu jedem Spiel gehört. Da gibt es kein AA, flimmernde Texturen ala Just Cause, flimmernde Schatten... Da ist es doch nur logisch, dass ein flimmernder Boden keinem stört.

Heute kommt mir Grafik in Spielen so vor, dass sie nur auf Bildern toll aussehen soll (da kann man auch Downsampling en Masse verwenden...). Mieser LoD, überall flimmern und keine vernünftige AA-Unterstützung. Irgendwie entwickelt es sich alles in eine Richtung, die einfach nur schrecklich ist.

boxleitnerb
2010-11-29, 14:57:37
Glaubt ihr, das Thema erledigt sich automatisch in den nächsten 5-10 Jahren? Durch eine Vorgabe einer Referenzimplementierung in DX 1x, Raytracing oder einfach so potente Hardware, dass AF praktisch nichts mehr kostet bzw. der Gewinn von Optimierungen absolut vernachlässigbar wird.

_flx
2010-11-29, 15:10:04
Das Problem ist doch auch, dass Flimmern heute fast schon zu jedem Spiel gehört. Da gibt es kein AA, flimmernde Texturen ala Just Cause, flimmernde Schatten... Da ist es doch nur logisch, dass ein flimmernder Boden keinem stört.

Heute kommt mir Grafik in Spielen so vor, dass sie nur auf Bildern toll aussehen soll (da kann man auch Downsampling en Masse verwenden...). Mieser LoD, überall flimmern und keine vernünftige AA-Unterstützung. Irgendwie entwickelt es sich alles in eine Richtung, die einfach nur schrecklich ist.


Ich glaubs ja fast nicht aber; da hast du imho voll und ganz recht!

Cyphermaster
2010-11-29, 16:12:32
Nvidia: AMD & der Bildqualitätsbetrug (http://www.hartware.de/news_50489.html)
es macht die runde;)
amd muss darauf reagieren,so langsam stehts auf jeder seite.
her mit der r520 af quali.:biggrin:Ach komm, wer glaubt denn daran noch? AMD wird halt das Allernötigste tun, um wie nVidia sagen zu können, man habe daraus gelernt - und nVidia wird beginnen, in kleinen Schritten zu "optimieren", bis die Kunden doch wieder murren. Im Augenblick kann AMD über Kosmetik im Treiber hinaus ohnehin maximal Verbesserung bei der nächsten HW-Generation, also den HD7, geloben.
Glaubt ihr, das Thema erledigt sich automatisch in den nächsten 5-10 Jahren? Durch eine Vorgabe einer Referenzimplementierung in DX 1x, Raytracing oder einfach so potente Hardware, dass AF praktisch nichts mehr kostet bzw. der Gewinn von Optimierungen absolut vernachlässigbar wird.Mit Sicherheit nicht. Mit potenterer Hardware werden auch die Darstellungsgrößen steigen, so daß der Druck, den Leistungsverlust durch AF möglichst gering zu halten, sich eher noch verschlimmert. Schon der Sprung der Standard-Displays von 17"/5:4/1,3MP auf 22"/16:9/2MP bedeutet ja praktisch +50% an Pixeln, die es zu filtern gilt. Zusätzlich verbraucht jede Filterung Energie (je ineffizienter, desto mehr), was bei den aktuellen, eh schon über-überlangen Elektroheizungen von teilweise jenseits der 300W bei wirklicher Vollast natürlich auch ein nicht zu vernachlässigender Faktor ist.

Zur These "Flimmerige Games ab Pressung": +1 zur Meinung von LovesuckZ und fezy.

Dr. Cox
2010-11-29, 16:29:04
Das ist eine Behauptung, die du nicht beweisen kannst. Langenscheiss selbst sprach mal von ungünstiger Sampleverteilung, nicht unbedingt von eingesparten Samples (bei HQ) iirc. Es muss nichtmal (viel) Performance kosten - sie könnten schlicht unfähig sein, eine ordentliche Filterung umzusetzen, die auf ihrer Hardware ebensowenig kosten würde die bei NV.

Siehe den Post von Exxtreme:

Ist halt immer komisch wenn man früher zu etwas fähig war und aktuell plötzlich nicht mehr. ;)

Dito ;)

derguru
2010-11-29, 16:33:34
Ach komm, wer glaubt denn daran noch? AMD wird halt das Allernötigste tun, um wie nVidia sagen zu können, man habe daraus gelernt - und nVidia wird beginnen, in kleinen Schritten zu "optimieren", bis die Kunden doch wieder murren. Im Augenblick kann AMD über Kosmetik im Treiber hinaus ohnehin maximal Verbesserung bei der nächsten HW-Generation, also den HD7, geloben.
reicht doch wenn es zum HD7 verbesserung geben würde,dann hat es wenigstens was gebracht auch wenn die geschichte sich irgendwann wiederholen wird.

Quaker
2010-11-29, 16:34:03
Früher konnte man GPU's entwickeln die auch ohne Kühler nicht heiss liefen...

Dr. Cox
2010-11-29, 16:36:37
Früher konnte man GPU's entwickeln die auch ohne Kühler nicht heiss liefen...

Und was möchtest du damit sagen? Etwa das keiner bei AMD mehr weiß, wie man korrekt filtert, oder dass es unumgänglich ist so zu filtern wie es derzeit die HD 68X0-Karten tun? :rolleyes:

Cyphermaster
2010-11-29, 16:42:13
reicht doch wenn es zum HD7 verbesserung geben würde,dann hat es wenigstens was gebracht auch wenn die geschichte sich irgendwann wiederholen wird.Sicher, nur wird es deshalb keine unmittelbare "Reaktion" AMDs geben. Und es bringt nicht wirklich etwas, außer eine temporäre Verschiebung der besseren Filterqualität von einem zum anderen IHV. Eine durchgängige, konsequente Thematisierung bräuchte noch weit mehr Druck seitens der Käufer, die sind aber noch viel zuviel Performance-fixiert dafür. Und wie schon gesagt: Solange nicht mindestens genauso viel Druck auf die Spielehersteller ausgeübt wird, ist das alles sinnfrei, weil auch die beste Filterung bei "bösem" Content kaum was reißen kann, sondern nur SSAA ein wenig Linderung bietet.

G 80
2010-11-29, 16:45:59
LZ hat da leider völlig Recht.

@ JC 2: Ja das ist wirklich schlimm. Ich krieg mit ach und krach TSSA + 2 AA auf meinen Karten zusammen. Es flimmert weniger ....... was aber nicht viel heißen soll - es ist immernoch die Hölle.



@ bessere AF früher: Ich sehe ja die alte ATI Implementirung als Ideallösung ruhig und scharf - nur halt nicht ganz billig. Dannach komt G80-GT 200: Einen Tick unschärfer aber praktisch kostenlos - yay!

GF 100 hält zwar das Niveau aber HQ ohne irgendwelche Optimirungen verbraucht relativ zur gestiegenen Gesamtleistung mehr + man sieht ja wie AMD damit davonkommt ---> Nur ne Frage der Zeit bevor NV wieder zu "optimieren" beginnt, die default-Quali sinkt und ein hoffentlich noch vorhandere optimierungsfreier Modus teurer wird.
Ich hoffe! zumindest nur sie lassen wenigstens einen optmierungsfreien HQ Schalter; dann ist die Entwicklung immernoch nicht toll aber immerhin bleibt die Abhilfe erhalten.

Cyphermaster
2010-11-29, 17:20:46
Ich hoffe! zumindest nur sie lassen wenigstens einen optmierungsfreien HQ Schalter; dann ist die Entwicklung immernoch nicht toll aber immerhin bleibt die Abhilfe erhalten.Das wird sogar sehr wahrscheinlich so sein - als Feigenblättchen. Denn dann kann man ja wieder sagen, man hätte ja auf Userwunsch hin einen "HQ"-Modus mit Norm-Filterung - auch wenn der unterirdische Performance bietet. Ich befürchte aber abseits von diesem effektiv unbrauchbaren Modus dann vom IHV "für das beste Spielerlebnis empfohlen"en Einstellungen mit Betitelungen wie "Balanced", "Optimized" usw., die dann auch nur wieder totale Krüppel-Filter bekommen, damit die Balkenlänge stimmt.

Black-Scorpion
2010-11-29, 18:01:22
Nächste Ziel ist wohl AA-Quali und Implementierungen in Spielen zu ruinieren. Diese Quincunx-Blurr-AA und MoH + Mafia AA zeigen ja schonmal die Richtung .... + natürlich noch kein AA als Klassiker wie in GTA IV (aber halt dort gibts doch diesen Bildmatsch-AA-Ersatz - anstatt Augenkrebs zu verursachen, kann man sich dank diesem tollen Unschärfe-Filter gleich mal das Endstadium desselben ansehen ....)
Gerade mit deinem Benutzerbild und Nick wäre ich vorsichtig sich über die AA Qualität zu äußern. Nvidia hat einige Generationen gebraucht um an die AA Qualität von ATI heranzukommen. die war einfach nur mies.

y33H@
2010-11-29, 18:22:27
Hmmm, iirc ist das SGMSAA bei NV/AMD seit gefühlten Ewigkeiten annähernd identisch. Wovon sprichst du also? NV hat allerdings mit der GF6/7 ein böses Foul beim AF begangen, die GF4/5 und alles ab G80 filtern aber einwandfrei.

Langenscheiss
2010-11-29, 18:38:53
Naja, die ein oder andere website mehr scheint jetzt auch davon Wind bekommen zu haben, aber solange das nur deutsche sites sind, werden die droben nicht reagieren (obwohl der deutsche PC Markt ganz bestimmt nicht unwichtig ist, gerade der Enthusiast-Bereich).
Davon abgesehen liegt für mich der Schwerpunkt bei dem Gemecker noch zu einseitig auf der Absenkung der default-quality, womit ich natürlich nicht sagen will, dass man so etwas gutheißen sollte. Teils werden die Aussagen, die viele andere hier im Forum (ich auch ;) ) und die Leute von PCGH und co. einwandfrei bewiesen haben, auf irgendeine Art in Zweifel gezogen bzw. mystifiziert. So nach dem Motto "man munkelt, ATI hätte klangheimlich an der BQ rumgeschraubt" mit 4-fachem Konjunktiv.
Was wir brauchen, sind klare Statements und dementsprechende Handlungen. AMD erreicht NVs BQ teilweise bei weitem nicht (was nicht ausschließt, dass es nicht auch Spiele gibt, wo der Unterschied kaum zu sehen ist), auch nicht im HQ, da kann AMD noch so viel davon sprechen, dass SIE finden, sie seien auf einem Niveau mit NV, da kann Dave Baumann noch soviel mit seinem (effektiv unterfilternden) High-Precision LOD kommen. Die Konsequenz kann nur sein, dass man künftig in Benchmarks AMD HQ gegen NV Q bzw. sogar NV Leistung antreten lässt (wobei man letzteres wirklich sich genau überlegen und stichhaltig rechtfertigen müsste), die BQ von NV durchgängig als die bessere präsentiert wird, und Leute, denen wirklich was an BQ liegt sich zukünftig wieder bei Team Green bedienen (falls ich mir alsbald nochmal eine neue zulege, so ganz bestimmt keine AMD Karte).
Die Chance, dass all dies so bald geschehen wird, ist wohl sehr sehr gering, um nicht zu sagen unmöglich. Da können 3DCenter und PCGH noch so viele GUTE Artikel rausbringen, es wird erst dann was bringen, wenn auch auf der anderen Seite des Teichs (Konsolenland) endlich ein Sinneswandel stattfindet.

G 80
2010-11-29, 18:46:51
Gerade mit deinem Benutzerbild und Nick wäre ich vorsichtig sich über die AA Qualität zu äußern. Nvidia hat einige Generationen gebraucht um an die AA Qualität von ATI heranzukommen. die war einfach nur mies.


Ich weis jetzt nicht was du an G 80er AA aussetzten hast oder ob du provozieren oder einfach nur trollen willst. Falls du die "du bist ein Fanboy"-Keule schwingen willst sags einfach - hab ich wenigstens Futter für meinen Counter in der Sig.

Aber wenn wir schon dabei sind erzähl mal was genau zB am GF 7 AA grauenhaft war? Die Hybridmodi die es bei ATI nicht gab? SLI-AA? OGSSA?

Aber nein ne GF 7 wäre mir trotz dem späteren HQ-AF-Filter-Schalter nicht in den PC gekommen - ich wollte sogar immer ne 1950 pro (bzw. davor 1800XT eben wegen godlike A-AF) für AGP ist aber dann ne 88 GTS sammt komplett neuem Unterbau geworden geworden.

Und abschließend noch aus dem Grafikkartenhistorienthread:


[...]
ATI 9600 XT 128 MB, 9700 pro 128 MB, 9800 pro 128 MB (ja ich mag diese Serie bzw. [...] - Müll Treiber. BQ Sprung!
X700 Mob. 128 MB. [...]
X850 XT [...]
8800 GTS 640 - lebt noch. BQ-Offenbarung.
8800 GTX SLI - lebt noch aktiv. #2

Auf die ATI 9000er wolltest du doch raus, ja? Also bitte wieder diese Schublade schließen in die du mich stecken wolltest und weiter mit dem ursprünglichen AF-Thema.

Bucklew
2010-11-29, 19:15:04
Das ist eine Behauptung, die du nicht beweisen kannst. Langenscheiss selbst sprach mal von ungünstiger Sampleverteilung, nicht unbedingt von eingesparten Samples (bei HQ) iirc. Es muss nichtmal (viel) Performance kosten - sie könnten schlicht unfähig sein, eine ordentliche Filterung umzusetzen, die auf ihrer Hardware ebensowenig kosten würde die bei NV.
Genau, ATI investiert haufenweise Entwicklungszeit inklusive Erkennung der Fenstergröße in diese Techniken, die dann überhaupt keinen Vorteil bieten ;)

deekey777
2010-11-29, 19:24:48
Hmmm, iirc ist das SGMSAA bei NV/AMD seit gefühlten Ewigkeiten annähernd identisch. Wovon sprichst du also? NV hat allerdings mit der GF6/7 ein böses Foul beim AF begangen, die GF4/5 und alles ab G80 filtern aber einwandfrei.
Nvidia bietet erst seit der 8800 SGMSAA, während schon der R300 SGMSAA anbot (6xMSAA). Erst mit dem NV40 bietet Nvidia ein Rotated-Grid 4xRGMSAA an, was die Radeons seit R300 abieten? Oder R200?

LovesuckZ
2010-11-29, 19:30:18
2xMSAA des NV20 hat ein RG-Muster.

y33H@
2010-11-29, 19:31:40
Eh, das SGMSAA (2x und 4x) von G7x ist laut 3DC (http://www.3dcenter.org/artikel/nvidia-geforce-8800-gtx-review/technikvergleich-anti-aliasing)identisch zu dem des G80 (und damit allen Nachfolgern).

deekey777
2010-11-29, 19:34:57
Eh, das SGMSAA (2x und 4x) von G7x ist laut 3DC (http://www.3dcenter.org/artikel/nvidia-geforce-8800-gtx-review/technikvergleich-anti-aliasing)identisch zu dem des G80 (und damit allen Nachfolgern).
Vielleicht auch mal den Text lesen?

2xMSAA des NV20 hat ein RG-Muster.
Hm, stimmt.

y33H@
2010-11-29, 19:37:54
Vielleicht auch mal den Text lesen?
SG = RG

Black-Scorpion
2010-11-29, 19:44:21
NV40 war auf dem Stand der GF3 und damit hatte sich seit 2001 nichts geändert was AA betrifft.

LovesuckZ
2010-11-29, 19:47:32
Klar, wenn man den Fakt ignoriert, dass das 4xMSAA der GF3 nur OG und des NV4x RG war. :rolleyes:

Ist es vielleicht möglich die Postings zu löschen, die vollkommen falsch sind?

Botcruscher
2010-11-29, 19:47:58
MS sollte "optimierungsfreies" mathematisch korrektes AF beim nächsten DX einfach festschreiben. Damit wäre das Thema endlich mal gegessen.

LovesuckZ
2010-11-29, 19:49:59
MS sollte "optimierungsfreies" mathematisch korrektes AF beim nächsten DX einfach festschreiben. Damit wäre das Thema endlich mal gegessen.

Das wird Microsoft nie machen, weil sie nie festlegen, wie etwas umzusetzen ist. So ist es auch mit 4xMSAA und 10.1. Die Sample-Verteilung obliegt den einzelnen IHVs.

deekey777
2010-11-29, 19:50:18
NV40 war auf dem Stand der GF3 und damit hatte sich seit 2001 nichts geändert was AA betrifft.
Echt?
http://alt.3dcenter.org/artikel/nv40_benchmarks/index5.php
http://alt.3dcenter.org/artikel/nv40_benchmarks/index6.php

y33H@
2010-11-29, 19:53:53
4x SGMSAA ab NV40 bis heute ... wie also kommt Black-Scorpion also auf Bullshit a là "Nvidia hat einige Generationen gebraucht um an die AA Qualität von ATI heranzukommen. die war einfach nur mies"?

deekey777
2010-11-29, 19:57:51
4x SGMSAA ab NV40 bis heute ... wie also kommt Black-Scorpion also auf Bullshit a là "Nvidia hat einige Generationen gebraucht um an die AA Qualität von ATI heranzukommen. die war einfach nur mies"?
Es ist RGMSAA!
Das eine ist ein gestreutes Muster, das andere ein rotiertes.

y33H@
2010-11-29, 20:09:10
Wenn ich mir das SG ab G80 und das RG bei NV40/G7x anschaue, dann ist das (fast) identisch :P

Raff
2010-11-29, 20:09:18
Du kannst ein Muster auch so streuen, dass es "rotiert" aussieht. RG mag richtig sein, doch um nicht noch mehr "WTFOMGLOL AA"-Verwirrung unter weniger nerdigen Nerds zu stiften, nennt man alle heutigen Implementierungen einfach SG.

PS: Auf die neue PCGH freue ich mich schon ;)
Wird denn auch dieses Mal der Artikel zur AF-Qualität von Barts enthalten sein?

Da ist vermutlich alles drin und dran, was du dir wünschst. :D

MfG,
Raff

Coda
2010-11-29, 20:18:40
Es ist RGMSAA!
Das eine ist ein gestreutes Muster, das andere ein rotiertes.
Das ist bei 4x äquivalent. Von der Implementierung gibt es auch keinen Vorteil von "RG" gegenüber "SG".

Eine Anekdote dazu: R300 konnte in Hardware auch 3xMSAA. Wurde nur nie angeboten im Treiber.

Raff
2010-11-29, 20:22:45
Wie sieht das Muster aus? Shots? =)

Da frage ich mich spontan, ob man auf einer aktuellen GeForce noch irgendwie 6:1 und 12:1 AF aktivieren kann. Früher ging das im nHancer. "Lückenfüller"-Modi, ahoi.

MfG,
Raff

Exxtreme
2010-11-29, 20:28:26
Wie sieht das Muster aus?
Wahrscheinlich ein halbiertes 6x AA.

Raff
2010-11-29, 20:29:58
Halbier das mal. :D

MfG,
Raff

Coda
2010-11-29, 20:31:06
Wie sieht das Muster aus?
Die Frage ergibt keinen Sinn, weil die Samplepositionen bei ATI seit R300 frei bestimmbar sind durch den Treiber.

Und da es keinen Treiber gab der es anbot gibt es auch kein Muster :)

Da frage ich mich spontan, ob man auf einer aktuellen GeForce noch irgendwie 6:1 und 12:1 AF aktivieren kann.
Ich denke. Die HW kann es ziemlich sicher noch, weil man das auch einsetzt um (legitim) Füllrate zu sparen.

airbag
2010-11-29, 20:37:15
Wenn man mal in den INspector guckt, scheint es noch möglich zu sein es zu aktivieren.

Exxtreme
2010-11-29, 20:43:45
Halbier das mal. :D

MfG,
Raff
Bittesehr. =)

deekey777
2010-11-29, 20:48:22
Bittesehr. =)
Dir ist schon klar, dass daraus Kitguru eine News über geheime AA-Modi der Radeons bastelt?

Das ist bei 4x äquivalent. Von der Implementierung gibt es auch keinen Vorteil von "RG" gegenüber "SG".

...
Ich sag auch nicht, dass sie nicht gleich aussehen. Wenn mich nicht alles täuscht, ist 4xSSAA einer Radeon SGSSAA und nicht RGSSAA.

airbag
2010-11-29, 20:51:25
Wenn man mal in den INspector guckt, scheint es noch möglich zu sein es zu aktivieren.

Okay scheinbar doch nicht.
Weil 6:1 die gleichen ValueHex hat wie 4:1
12:1 hat aber andere als 16:1 und 8:1

edit:
12:1 ausgewählt macht es optisch keinen Unterschied zu 16:1, kostet aber mehr FPS.
Scheint mit dem Inspector also nicht wirklcih möglich zu sein.

Cyphermaster
2010-11-29, 20:58:49
Ist doch ziemlich egal, für welche Filterungen ein IHV vor 3-5 Jahren gelobt/geschlagen wurde. Was interessant ist, ist die Frage, wie man mit den heutigen Chipdesigns und Treibern vernünftig filtert. Oder eben nicht...

Coda
2010-11-29, 22:33:57
Dir ist schon klar, dass daraus Kitguru eine News über geheime AA-Modi der Radeons bastelt?
Gibt's heute nicht mehr. Seit R600 gibt's nur noch 2x/4x/8x.

Ich sag auch nicht, dass sie nicht gleich aussehen. Wenn mich nicht alles täuscht, ist 4xSSAA einer Radeon SGSSAA und nicht RGSSAA.
Natürlich ist es RGSSAA bei 4x. Es ist ein "rotiertes" Muster. Wie gesagt gibt es da eh keinen Implementierungsunterschied in Hardware wo man die Samples jetzt hinsetzt.

Es ist halt so dass das rotierte Ordered-Grid-Muster bei 4x gerade optimal ist. Das sorgt glaube ich gerade für deine Verwirrung.

y33H@
2010-11-29, 22:36:09
deekey777 ist offenbar der Ansicht, RG sei etwas anderes als SG. Dabei ist RG nur ein SG, dass so streut, dass es wie ein rotiertes OG wirkt.

Cyphermaster
2010-11-30, 12:37:39
Da kann man auch verschiedener Meinung sein. Ein "Rotated (ordered) Grid" ist eigentlich ein Spezialfall eines "Sparse Grid", weil die Abstände und Winkel des Netzes eben identisch sind. Bei einem "echten" SG wären sie das nicht notwendigerweise, da kann man die Samplepositionen auch anders über die Fläche verbröseln, eben ohne eine solche Ordnung.

Könnten wir uns damit bitte wieder aus der Ursuppe des Samplings wieder zum Threadthema hin bewegen? Danke.

Iruwen
2010-11-30, 15:40:06
deekey777 ist offenbar der Ansicht, RG sei etwas anderes als SG. Dabei ist RG nur ein SG, dass so streut, dass es wie ein rotiertes OG wirkt.
Bei dem Satz bin ich ausgestiegen :biggrin:

Spasstiger
2010-11-30, 20:19:06
Ein RG ist normalerweise kein rotiertes OG, sondern ein spezielles SG. In einem rotierten OG hat man nur 45°- und 90°-Winkel zwischen Linien, die die Abtastpunkte verbinden. In einem RG hat man keine 45°- oder 90°-Winkel.

PCGH_Raffael
2010-12-01, 18:57:30
Good news: AMD hat die weitreichende Kritik am HD-6000-AF vernommen, bastelt intern und wird sich treiberseitig um das Flimmern kümmern.

MfG,
Raff

Ronny145
2010-12-01, 18:58:26
Good news: AMD hat die weitreichende Kritik am HD-6000-AF vernommen, bastelt intern und wird sich treiberseitig um das Flimmern kümmern.

MfG,
Raff


Also auch für Barts hoffe ich oder doch nur Cayman?

airbag
2010-12-01, 19:06:55
Good news: AMD hat die weitreichende Kritik am HD-6000-AF vernommen, bastelt intern und wird sich treiberseitig um das Flimmern kümmern.

MfG,
Raff
Mhh kann ja leider viel heißen.
Z.b das Q auf HQ Niveau von Barts umbenannt wird und HQ dann Cypressquali ohne Banding bekommt. -.-


edit:
Frage ist dann natürlich wann ? Ich glaube kaum, dass sie es zum Caymanlaunch verbessert haben. Balkenlänge und BQbanausen und so ...

boxleitnerb
2010-12-01, 19:13:36
Seid mal nicht so pessimistisch. Ich hätte NIE damit gerechnet, dass da was in dieser Form kommt. So gesehen ist es schonmal ein Gewinn :)

airbag
2010-12-01, 19:21:52
Bei Cayman haben sich doch auch versprochen das AF zu verbessern. Was ist draus geworden ?:(

boxleitnerb
2010-12-01, 19:26:15
Barts meinst du? Naja das Banding haben sie ja verbessert :biggrin:
Ich bin zuversichtlich. Könnt mich ja schlagen, wenn nachher wieder nur Scheiße rauskommt ;)

Coda
2010-12-01, 19:37:22
Bei Cayman haben sich doch auch versprochen das AF zu verbessern. Was ist draus geworden ?:(
Nix wird daraus. das Tapeout war vor Tag X.

PCGH_Raffael
2010-12-01, 19:45:54
Nix wird daraus. das Tapeout war vor Tag X.

AMD will das AF per Treiber verbessern. Die Frage ist, wie weit sich in Hardware gegossener Murks per Software umprogrammieren lässt. Hättest du eine Idee, Schöpfer des bei AMD sehr bekannten Filtertesters? :)

MfG,
Raff

airbag
2010-12-01, 19:48:24
Barts meinst du? Naja das Banding haben sie ja verbessert

ix wird daraus. das Tapeout war vor Tag X.


Äh ja Schreibfehler. Habe Barts gemeint. :(

Langenscheiss
2010-12-01, 20:11:12
Good news: AMD hat die weitreichende Kritik am HD-6000-AF vernommen, bastelt intern und wird sich treiberseitig um das Flimmern kümmern.

MfG,
Raff

1. Quelle?
2. Falls das stimmen sollte, wäre ich sehr überrascht. In ihrer Antwort auf den NV-Blog waren sie doch noch so sicher, dass sie "on par" mit Nvidia seien.

Sie haben, wie ja der A.I. Regler zeigt, (begrenzte?) Kontrolle darüber, bei welcher Texturverzerrung welche Sample-Rate (und Verteilung?) anzusetzen ist, d.h. sie können quasi die angesetzte "Filterintensität" verschieben, wie man es mit dem Qualitäts-Regler ja auch selbst kann. Ich vermute, dass sie, wenn es stimmen sollte, hier ansetzen und das ganze einfach weiter hin zu geringerer Texturverzerrung verschieben. Auch könnten sie die default Qualität wieder auf das ursprüngliche Niveau zurücksetzen, aber damit wäre das Flimmern noch nicht weg. Man müsste schon eins druff legen.

PCGH_Raffael
2010-12-01, 20:15:37
Quelle: AMD (Telefonkonferenz)

Weiteres klärt sich in den kommenden Tagen.

MfG,
Raff

derguru
2010-12-01, 20:21:19
aha das hört sich ja gut an,von wegen das der öffentliche druck keinen einfluss hat.(danke nv,das hat am meisten bewirkt tippe ich mal)
wenn die rede von HD-6000-AF ist,ist damit dann auch der cayman gemeint oder nur die barts?nda wah:biggrin:

Ronny145
2010-12-01, 20:30:46
aha das hört sich ja gut an,von wegen das der öffentliche druck keinen einfluss hat.
wenn die rede von HD-6000-AF ist,ist damit dann auch der cayman gemeint oder nur die barts?nda wah:biggrin:


Na bei Cayman würde ich mir am wenigsten Sorgen machen. Wobei AMD für den launch Treiber zwecks fps Balken beim alten bleiben könnte. Hauptsache es gibt kein Zweiklassen-AF. Cayman bekommt das "verbesserte" AF weil High-End und Barts bliebe womöglich außen vor.

Leonidas
2010-12-01, 20:31:27
AMD will das AF per Treiber verbessern. Die Frage ist, wie weit sich in Hardware gegossener Murks per Software umprogrammieren lässt. Hättest du eine Idee, Schöpfer des bei AMD sehr bekannten Filtertesters? :)



Zwischen "wollen", "können" und "machen" besteht noch ein Unterschied. Man nannte es eine "interesting idea", was im englischen so ziemlich alles bedeuten kann, aber nicht viel über die konkreten Absichten aussagt.

Zumindest hat man erkannt, daß das "Shimmering" ein Problem ist. Vielleicht schafft dies ja langfristig ein Bewußtsein für diesen Punkt. Sobald das da ist, löst sich das Problem meist von alleine, denn gute Ingenieure hat man bei AMD zweifelsfrei.

Langenscheiss
2010-12-01, 20:35:42
Öffentlicher Druck,hmm...
Ich hab jetzt die Diskussion in den internationalen Foren nicht groß weiterverfolgt, aber wo, außer von ein paar deutschen sites und Nvidia gabs denn jetzt groß Druck? Diese Sticheleien von Nvidia kennt man doch schon, das ist doch noch kein Grund, direkt zu reagieren.
Hey, ich habs! Ich vermute, dass der AMD Chef letztens Crysis auf der Arbeit gespielt hat und dabei gemerkt hat, dass das Bild viel schlechter sei, als auf dem Rechner zuhause, in dem, pssss, ne NV Karte drinne ist.

EDIT: Gibt es irgendwo Auszüge aus diesem Gespräch/dieser Konferenz whatever, in dem das diskutiert wurde. Plötzlich scheinen hier Leute, bzw. Leonidas, darüber bescheid zu wissen, welcher Wortlaut genau verwendet wurde???

Orbmu2k
2010-12-01, 20:48:25
Okay scheinbar doch nicht.
Weil 6:1 die gleichen ValueHex hat wie 4:1
12:1 hat aber andere als 16:1 und 8:1

edit:
12:1 ausgewählt macht es optisch keinen Unterschied zu 16:1, kostet aber mehr FPS.
Scheint mit dem Inspector also nicht wirklcih möglich zu sein.

Mhh da ist wohl ein Tippfehler bei 6x im CSN.

Also du kannst bei AF auch einfach einen Dezimal Wert eintragen der dann in Hex umgerechnet wird. Was der Treiber damit macht musst du dann testen.

Einstellen kannst du mit dem Inspector alles was du willst. Was der Treiber draus macht ist ne andere Frage.

derguru
2010-12-01, 20:50:40
Na bei Cayman würde ich mir am wenigsten Sorgen machen. Wobei AMD für den launch Treiber zwecks fps Balken beim alten bleiben könnte. Hauptsache es gibt kein Zweiklassen-AF. Cayman bekommt das "verbesserte" AF weil High-End und Barts bliebe womöglich außen vor.
hoffentlich,wichtig ist halt das ein hq schalter auch hq ist.:biggrin:
Öffentlicher Druck,hmm...
Ich hab jetzt die Diskussion in den internationalen Foren nicht groß weiterverfolgt, aber wo, außer von ein paar deutschen sites und Nvidia gabs denn jetzt groß Druck? Diese Sticheleien von Nvidia kennt man doch schon, das ist doch noch kein Grund, direkt zu reagieren.
Hey, ich habs! Ich vermute, dass der AMD Chef letztens Crysis auf der Arbeit gespielt hat und dabei gemerkt hat, dass das Bild viel schlechter sei, als auf dem Rechner zuhause, in dem, pssss, ne NV Karte drinne ist.
es reicht wohl das nv stichelt,hab mich schon immer gewundert warum nv beim af nie die schnauze aufgemacht hat obwohl man sonst jede gelegenheit nutzt.naja jedenfalls vielen dank nv,ich denke das ist der hauptgrund warum amd was am af macht(versucht).:biggrin:

Blaire
2010-12-01, 20:57:53
Ohne die deutschen Sites hätte sich da garnichts gerührt, Nvidia hat das lediglich gepusht. Erstmal abwarten ob man da wirklich von einer Verbesserung später reden kann.

derguru
2010-12-01, 21:01:19
ja aber ohne das pushen von nv wäre nicht viel passiert,so wären die news schnell wieder in der versenkung verschwunden.aber endlich gingen mal die news weiter als von 3dc zu pcgh und zurück,diesmal haben sich viel mehr seiten daran beteiligt dank nv´s blog.

aber bevor ich vergesse,ausgangspunkt war Langenscheiss beitrag dazu,sonst wäre rein gar nichts passiert.:D

Leonidas
2010-12-01, 21:15:39
Den exakten Wortlaut gibt es leider nicht und ich war auch leider nicht geistesgegenwärtig genug, das gleich mitzuschneiden. Ist aber nicht so viel interessantes gesagt wurden, das man es nicht in Stichworten notieren konnte.

airbag
2010-12-01, 22:04:54
es reicht wohl das nv stichelt,hab mich schon immer gewundert warum nv beim af nie die schnauze aufgemacht hat obwohl man sonst jede gelegenheit nutzt.naja jedenfalls vielen dank nv,ich denke das ist der hauptgrund warum amd was am af macht(versucht).:biggrin:


Hätte NV sicherlich eher gemacht, wenn sie auch Beweise hätten , die nicht nur aus deren Testabteilung kommt. Von daher sind die deutschen Test ja die Steilvorlage dafür gewesen.

Langenscheiss
2010-12-01, 22:43:53
Scheint wohl so zu sein, sie haben ja auch fleißig zitiert. Trotzdem bin ich immer noch überrascht, dass AMD überhaupt den Finger gerührt hat. Dieses Gemecker kommt doch sowieso nur von den Enthusiasten.

y33H@
2010-12-01, 22:45:58
Die Enthusiasten sind aber Stimmungsmacher und Meinungsträger.

Langenscheiss
2010-12-01, 22:53:00
Da muss man doch glatt Angst haben, dass man hier im Forum nicht von irgendwelchen Geheimdiensten überwacht wird, weil zuviel "Stimmung" verbreitet wird...
Naja, Spaß beiseite, mich freut es jedenfalls, dass überhaupt was passiert ist, und dass diese 48 Seiten Gemecker offenbar nicht gänzlich für die Katz waren.

Kalmar
2010-12-01, 22:55:44
was mich wieder zu der frage führt ob nicht sogar nen ati member hier aktiv ist oder auch welche von nv.

nein ich meine keine fanboys sondern wirklich welche von der entwicklungs/treiberabteilung

y33H@
2010-12-01, 22:56:29
Lesen vermutlich hin und wieder schon, so ist's nicht.

Bucklew
2010-12-01, 23:30:24
AMD will das AF per Treiber verbessern.
Ich dachte das wäre schon gleich gut wie bei der grünen konkurrenz? ;)

airbag
2010-12-02, 12:19:02
Ansich hast du ja recht, dass es irgendwie ein bisll erbärmlich ist in Australien erstmal alles abzustreiten und dann doch Fehler eingestehen.



Mhh vielleicht verkaufen sie das AF ja dann als "best AF in the industry" wie es xbitlabs zu Barts geschrieben hat.:freak:

y33H@
2010-12-02, 12:21:34
HQ ist HW-Filtering ;( Und für Cayman gelte es auch ... tja ...

[...] Ausdrücklich betonte man aber, dass die Wahl der High-Quality-Option dazu führe, dass sämtliche Optimierungen deaktiviert würden. Diese Bildqualität stelle das dar, was die Hardware-Einheiten letztlich bieten können. [...] Über den Treiber selbst arbeite man aktuell an Verbesserungen des Quality-Modus. Der High-Quality-Modus sei, da frei von Optimierungen, von dieser Arbeit natürlich nicht betroffen. [...] Da AMD an dieser Stelle eingesteht, dass die High-Quality-Settings das Optimum dessen darstellt, was die Textur-Einheiten an Bildqualität bieten können [...] Damit wiederum steht fest, dass die kommenden Cayman-GPUs (Radeon HD 6950 / HD 6970) ebenfalls noch mit dem Problem behaftet sein werden [...]

http://ht4u.net/news/23043_amd_gibt_exklusive_telefonkonferenz_zur_diskussion_der_bildqualitaet_fuer_ deutsche_medien/

airbag
2010-12-02, 12:28:10
Aber irgendwie war doch klar, dass sowas kommt. ^^

BTW
Da haben die Jungs von HT4U im Gegensatz zu anderen auch die ganze Zeit zugehört .;)

N0Thing
2010-12-02, 13:13:19
HT4U (http://ht4u.net/news/23043_amd_gibt_exklusive_telefonkonferenz_zur_diskussion_der_bildqualitaet_fuer_ deutsche_medien/)

AMD versicherte uns noch einmal separat, dass man die Thematik sehr ernst nehme und hart an Lösungen arbeitet.

Dann bin ich mal gespannt ob den Worten auch Taten folgen. Ich hoffe, daß es nicht eine PR-Reaktion auf den Nvidia-Blog darstellt.

boxleitnerb
2010-12-02, 13:21:11
Wenigstens weiß man jetzt, dass sie sich der Probleme bewusst sind und dran arbeiten. Zumindest für die nächste GPU-Generation (oder spätestens deren Refresh) hab ich Hoffnung.

Sonyfreak
2010-12-02, 13:23:33
Naja, Spaß beiseite, mich freut es jedenfalls, dass überhaupt was passiert ist, und dass diese 48 Seiten Gemecker offenbar nicht gänzlich für die Katz waren.48 Seiten? Hier im Forum wird ja schon wesentlich länger über das AF-Problem diskutiert. Ich (und natürlich viele, viele andere User auch) hab zu diesem Thema auch schon kiloweise Vergleichsmaterial geliefert, nur fehlen mir in letzter Zeit einfach die Motivation und die nötigen Drahtseilnerven, um zu dieser Diskussion noch weiter aktiv beizutragen. ^^

Würde mich aber sehr freuen, wenn sich AMD endlich dieses Problems annimmt.

mfg.

Sonyfreak

mapel110
2010-12-02, 16:37:24
http://www.guru3d.com/article/exploring-ati-image-quality-optimizations/
AMD ATI's Image Quality Optimizations

/edit
Schade, sie ziehen auch keine Konsequenzen. Sie belassen es bei einem Appell an ATI, nachzubessern. Na wollen wir es hoffen.

Sonyfreak
2010-12-02, 16:56:53
http://www.guru3d.com/article/exploring-ati-image-quality-optimizations/
AMD ATI's Image Quality Optimizations
Bildqualitätsvergleiche mit JPG. :up: :facepalm:

Immerhin empfiehlt man AMD, den Treiberstandard rückgängig zu machen ...

mfg.

Sonyfreak

airbag
2010-12-02, 18:12:41
JPEGs reichen durch aus schon für offentsichliche Vergleiche.
z.B das Banding im Trackmaniashot sieht man allemal

LovesuckZ
2010-12-02, 18:37:10
Ich schau mir gerade die Videos der PCGH an und muss eigentlich nur den Kopfschütteln, wie man sowas im Jahr 2010 veröffentlichen kann. Bei der Qualität ist es auch logisch, dass die AMD Karten in Crysis so gut abschneiden.

Black-Scorpion
2010-12-02, 18:38:23
Die Enthusiasten sind aber Stimmungsmacher und Meinungsträger.
Beim ersten gebe ich dir recht. Stimmung machst du ja eh ständig. Das zweite kannst du aber vergessen. Oder willst du deine Meinung über andere stellen?

boxleitnerb
2010-12-02, 18:43:00
Meinungsträger im Bezug auf unbedarfte User, die sich nicht derart detailliert mit solchen Themen auseinandersetzen.

Langenscheiss
2010-12-02, 19:04:32
Der guru Artikel ist mal wieder unter aller Sau!
Wieso zum Teufel nehmen die diesen uralt shot, der lediglich das banding zeigen sollte?
Dann verlinken die den Artikel zur Hd5k Reihe und dem banding, obwohl das mit dem aktuellen Problem des Treiber-Standards und des Flimmerns !direkt! nichts zu tun hat (die Gründe für beide Probleme liegen imo dicht beieinander, aber darum gehts hier ja nicht).

boxleitnerb
2010-12-02, 19:11:13
Schreib den Autor halt mal an, du hast schließlich mitunter noch am meisten Ahnung davon. ;)

PCGH_Raffael
2010-12-02, 19:45:56
Ich schau mir gerade die Videos der PCGH an und muss eigentlich nur den Kopfschütteln, wie man sowas im Jahr 2010 veröffentlichen kann. Bei der Qualität ist es auch logisch, dass die AMD Karten in Crysis so gut abschneiden.

Wenn dir das runde Gigabyte Fraps-Gedöns auf der DVD nicht reicht: Den Rest stellen wir online, wenn endlich mal Zeit dafür ist. ;)

MfG,
Raff

LovesuckZ
2010-12-02, 19:51:01
Wenn dir das runde Gigabyte Fraps-Gedöns auf der DVD nicht reicht: Den Rest stellen wir online, wenn endlich mal Zeit dafür ist. ;)

MfG,
Raff

Könnt ihr Werte aus Crysis mit Q und HQ bei nVidia nachliefern? Am besten mit einem zusätzlichen Video zu Q. Wäre schon sehr absurd, wenn wirklich ab DX10 immer HQ-ähnlich gefiltert werde...

PCGH_Raffael
2010-12-02, 19:53:57
Haben wir auf jeden Fall herumliegen, wir müssen uns nur mal darauf einigen, was wir hochpumpen. Aber HQ-/Q-Werte auf einer Geforce sollten als Vergleich schon dabei sein, ja. :)

MfG,
Raff

Langenscheiss
2010-12-02, 20:40:09
Ich schau mir gerade die Videos der PCGH an und muss eigentlich nur den Kopfschütteln, wie man sowas im Jahr 2010 veröffentlichen kann. Bei der Qualität ist es auch logisch, dass die AMD Karten in Crysis so gut abschneiden.

Das, was in Crysis an machen Stellen geboten wird, ist echt abartig.
Jetzt stell dir das
http://www.multiupload.com/MZSWXICY9B
mal mit Barts vor.
Als ich das damals in Crysis gesehen habe, konnte ich nur noch den Kopf schütteln. Die BQ ist echt ne Zumutung, anno 2010.

EDIT:
Ach und noch was Allgemeines, auch noch in Bezug auf den Artikel von guru3d:
1. Ich find es NICHT in Ordnung, dass AMD pünktlich zum Launch die DEFAULT-Quality gesenkt hat.
2. Der Q modus AN SICH, also !unabhängig davon, dass AMD sowieso flimmert!, ist mMn eine legitime Optimierung. Bei guru wird zu den Mass-effect shots die Frage gestellt, ob man einen Unterschied zwischen HQ und Q sieht. Klar lautet die Antwort "nur, wenn man wirklich SEHR genau hinschaut". Denn, wie ich ja auf S.43 zeigen wollte, wird der Großteil des Bildes mit Q absolut gleich gefiltert, wie mit HQ. D.h., hier muss man wirklich schon genau wissen, wo die Übergänge liegen, um die breiteren Bi-Bänder und den leicht später einsetzenden Sample-Sprung wirklich zu sehen, diese minimal LOD-Verschiebung wird man imo sowieso nie sehen.
3. Der Unterschied zwischen NV und AMD ist deutlich zu sehen, wenn man nicht gerade direkt senkrecht auf Fläche schaut. Moire ist auf AMD deutlich kräftiger ausgeprägt, was ein klares Indiz dafür ist, dass man unter Bewegung deutlich mehr Flimmern hat, als mit ner NV Karte. Davon abgesehen ist derartiger bad content, genau wie bei TM, nicht so sehr geeignet, Unterschiede im Flimmerverhalten zu zeigen, weil man ja sowieso Moire hat, ob das AF nun gut ist, oder nicht (was nicht heißt, dass man nicht auch solchen content mal testen sollte). Da sind die hier (und in anderen Threads) gezeigten Videos imo besser. Die PCGH hab ich allerdings noch nicht gekauft, insofern kann ich dazu nichts sagen.

Naja, ich könnte mich ja bei denen mal melden, aber nachdem es wohl gefühlte Jahre gedauert hat, bis einer bei denen ausm Forum verstanden hat, worum es beim banding ging, ist mir jetzt irgendwie die Motivation abhanden gekommen. Auf deren Tests kann ich gut verzichten.

airbag
2010-12-02, 21:54:46
Auch wenn es nicht ganz richtig ist, geht der Guru3D Test wenigstens in die richtige Richtung. :)

Den ersten ordentlichen Test werden wir ja bald auf Alienbabeltech sehen, wenn BFG10K endlich seine HD6850 hat.

Langenscheiss
2010-12-02, 23:20:41
Der Typ ist einer der wenigen ausm AT-Forum, der BQ ernst nimmt. Und der Vorteil: Die Leute da hören auf den, die AT Redaktion leider (noch) nicht.

airbag
2010-12-03, 01:02:20
Vielleicht eine Frage des Stolzes ? Ansonsten waren die Redis von Anandtech ja noch nie für ihr gutes Auge hinsichtlich der BQ bekannt.

N0Thing
2010-12-03, 02:47:59
Naja, ich könnte mich ja bei denen mal melden, aber nachdem es wohl gefühlte Jahre gedauert hat, bis einer bei denen ausm Forum verstanden hat, worum es beim banding ging, ist mir jetzt irgendwie die Motivation abhanden gekommen. Auf deren Tests kann ich gut verzichten.

Irgendwie schon erstaunlich, daß es gefühlt außerhalb von Deutschland kein Schwein interessiert welche Unterschiede es bei AF gibt...

(Bzw. daß sich dort scheinbar niemand darum bemüht, daß AMD irgendwann mal einen perfekten AF anbietet, oder wenigstens auf dem nahezu perfekten HQ-Level von NV.)

Cyphermaster
2010-12-03, 08:55:29
Irgendwie schon erstaunlich, daß es gefühlt außerhalb von Deutschland kein Schwein interessiert welche Unterschiede es bei AF gibt... Noch nicht mal innerhalb Deutschlands ist das so ein besonderes Massenanliegen. Man muß das realistisch sehen: We're the BQ-Natsis! ;)

Vento
2010-12-03, 09:30:48
Gäbe es sehr viel mehr anschauliche Vergleiche in Tests, wie bei Tweak PC, würde sich die Anzahl der Bildqualitätsverächter sicherlich etwas reduzieren lassen.
Die zeigen es sehr anschaulich was Flimmern bedeuten kann und wie groß die Unterschiede ausfallen können.
Man muss sich nur den ersten Clip anschauen, dann sieht man schon den Unterschied zwischen Barts HQ und NV HQ, denn letzteres entspricht bei dem Test bezüglich der Flimmerneigung ziemlich exakt dem jeweils auf der linken Seite herangezogenen "optimalen" AF.

http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

boxleitnerb
2010-12-03, 13:52:46
Noch nicht mal innerhalb Deutschlands ist das so ein besonderes Massenanliegen. Man muß das realistisch sehen: We're the BQ-Natsis! ;)

Das sehe ich nur bedingt so.

Erstens betreffen die AF-Optimierungen ja auch die Performance, was ein leicht verfälschtes Bild der Radeon-Performance vermittelt. Ein fairer Vergleich mit der Konkurrenz ist so nicht möglich. Deshalb zu meckern, halte ich für legitim und keine Korinthenkackerei.

Zweitens tun wir der AMD-Community (abgesehen von dem verletzten Stolz der Fanboys) einen Gefallen, wenn Verbesserungen letztendlich doch eintreten. Nach Nvidias AF-Desaster freuten wir uns über HQ, nachdem das fehlende SSAA bei Radeons erwähnt wurde, freut man sich über SGSSAA. Dasselbe mit dem Banding bei HD5K. Ich vermute, dass die Betrachtungen der Community auch hier der Grund waren, dass sich kurz vor Launch noch treiberseitig was bewegt hat. Man möge mich bitte korrigieren, wenn ich falsch liege.

Lieber zuviel kritisiert als zu wenig - es kann nur besser werden und dann hat jeder was davon.

Langenscheiss
2010-12-03, 16:08:33
Dasselbe mit dem Banding bei HD5K. Ich vermute, dass die Betrachtungen der Community auch hier der Grund waren, dass sich kurz vor Launch noch treiberseitig was bewegt hat. Man möge mich bitte korrigieren, wenn ich falsch liege.

Mag sein, dass die community etwas bewirkt hat, aber sicher nicht kurz vor dem Launch, und das hat auch nichts mit dem Treiber zu tun. Das banding ist ein Bug in den TMUs bzw. irgendwo in der ganzen Texturfilterlogik auf dem Chip, der zu einer inkorrekten Filter-Sample-Verteilung führt. Es gab da auf irgendeiner Hardware-Seite mal ein ganz kurzes statement dazu von AMD, dass denen das angeblich schon kurz nach dem Launch aufgefallen sei, dass irgendwas da in der Hardware nicht in Ordnung ist. Das wurde dann mehr oder weniger "gefixed". Warum es allerdings immer noch nicht völlig beseitigt ist, könnte ich dir nur sagen, wenn ich technische Details darüber aus erster Hand (also von AMD) hätte, aber die sagen logischerweise nichts dazu. Wer will denn auch schon sein eigenes Produkt schlecht machen.

Coda
2010-12-03, 16:23:24
Erstens betreffen die AF-Optimierungen ja auch die Performance, was ein leicht verfälschtes Bild der Radeon-Performance vermittelt.
Wenn es Bugs sind ist das nicht zwangsläufig der Fall.

boxleitnerb
2010-12-03, 16:43:45
Mag sein, dass die community etwas bewirkt hat, aber sicher nicht kurz vor dem Launch, und das hat auch nichts mit dem Treiber zu tun. Das banding ist ein Bug in den TMUs bzw. irgendwo in der ganzen Texturfilterlogik auf dem Chip, der zu einer inkorrekten Filter-Sample-Verteilung führt. Es gab da auf irgendeiner Hardware-Seite mal ein ganz kurzes statement dazu von AMD, dass denen das angeblich schon kurz nach dem Launch aufgefallen sei, dass irgendwas da in der Hardware nicht in Ordnung ist. Das wurde dann mehr oder weniger "gefixed". Warum es allerdings immer noch nicht völlig beseitigt ist, könnte ich dir nur sagen, wenn ich technische Details darüber aus erster Hand (also von AMD) hätte, aber die sagen logischerweise nichts dazu. Wer will denn auch schon sein eigenes Produkt schlecht machen.

Ah ok. Danke für die Erklärung.

Wenn es Bugs sind ist das nicht zwangsläufig der Fall.

Was genau meinst du? HQ kostet ja ein paar Prozent. Es ist allerdings schon komisch, weil HQ meiner Meinung nach nicht wirklich besser aussieht. Teilweise kommt es mir sogar vor, als flimmere HQ mehr als Q. So gesehen könnte es schon ein Bug sein, weil so kann das eigentlich nicht beabsichtigt worden sein.

Kriton
2010-12-03, 17:56:30
Ich denke mal es läuft darauf hinaus, dass Bugs zwar ein schlechteres AF zur Folge haben können, aber dabei nicht unbedingt einen Einfluss auf die FPS haben müssen (weil sie im Gegensatz zu bewussten Cheats nicht zielgerichtet sind).

Langenscheiss
2010-12-03, 18:30:55
Ah ok. Danke für die Erklärung.



Was genau meinst du? HQ kostet ja ein paar Prozent. Es ist allerdings schon komisch, weil HQ meiner Meinung nach nicht wirklich besser aussieht. Teilweise kommt es mir sogar vor, als flimmere HQ mehr als Q. So gesehen könnte es schon ein Bug sein, weil so kann das eigentlich nicht beabsichtigt worden sein.

Genau deshalb meinte ich ja auch, dass imo die Q Stufe ein legitimer Kompromiss ist, wenn man davon absieht, dass die Karten sowieso flimmern. Nur dieses klangheimliche Absenken der Default Qualität pünktlich zum launch gibt bzw. gab dem ganzen einen faden Beigeschmack.
Mir erscheint es zumindest anhand der Tests und der Analysen völlig schlüssig, dass der Unterschied zwischen HQ und Q im Normalfall visuell kaum erkennbar sein sollte. Warum allerdings HQ manchmal mehr flimmert (was ich allerdings noch nicht gesehen habe, aber soviele games habe ich ja auch net, außerdem hab ich ja schließlich nicht den Barts im Rechner), weiß ich nicht, Sinn macht es imo nicht, aber ich glaub dir das jetzt einfach mal, weil ich es selbst nicht besser weiß.
Was Coda wohl meint, ist, dass Flimmern, wenn es an einem Bug liegt, nicht unbedingt von REALEM Unterfiltern kommen muss, denn nur wenn man real weniger sampled, kann man auch Performance gewinnen (was logisch ist).

Bucklew
2010-12-04, 00:57:32
Genau deshalb meinte ich ja auch, dass imo die Q Stufe ein legitimer Kompromiss ist, wenn man davon absieht, dass die Karten sowieso flimmern. Nur dieses klangheimliche Absenken der Default Qualität pünktlich zum launch gibt bzw. gab dem ganzen einen faden Beigeschmack.
d.h. es wäre ok, wenn ein IHV die BQ absenkt zugunsten von mehr Performance, solange die Unterschiede nur marginal sind und nur von "Profis" erkannt werden?

Coda
2010-12-04, 02:19:15
Was Coda wohl meint, ist, dass Flimmern, wenn es an einem Bug liegt, nicht unbedingt von REALEM Unterfiltern kommen muss, denn nur wenn man real weniger sampled, kann man auch Performance gewinnen (was logisch ist).
Es könnte ja auch sein, dass die Samplepositionen dumm gesetzt werden oder beim Zusammenrechnen irgendwas "vergessen" wird :ugly:

Aquaschaf
2010-12-04, 10:53:19
d.h. es wäre ok, wenn ein IHV die BQ absenkt zugunsten von mehr Performance, solange die Unterschiede nur marginal sind und nur von "Profis" erkannt werden?

Was heißt "wäre"? Modi mit suboptimaler Bildqualität gibt es bei beiden Herstellern und sie haben ihre Berechtigung.

Langenscheiss
2010-12-04, 11:49:32
Es könnte ja auch sein, dass die Samplepositionen dumm gesetzt werden oder beim Zusammenrechnen irgendwas "vergessen" wird :ugly:
Genau das meine ich ja die ganze Zeit mit dem sog. "effektivem Unterfiltern".
Das banding hat ja mMn gezeigt, dass AMD in diesem Bereich Nachholbedarf hat.

@Bucklew:
Es ist legitim solange sowas nicht absichtlich dazu genutzt wird, Ergebnisse beim Launch zu verfälschen und dem User klar wird, was er bekommt und wie er den alten Standard zurückbekommt.
In diesem Fall hat AMD das leider missbraucht, aber generell hat die Stufe Q gegenüber HQ, abgesehen vom Flimmern, schon seine Daseinsberechtigung, weil der Unterschied zu HQ wirklich relativ gering ist.

crux2005
2010-12-04, 11:55:15
Image Quality Under a Microscope

Several technology websites have discovered that AMD has reduced their default texture filtering quality for some products with the introduction of the Catalyst driver version 10.10. We have verified the new Cat 10.11 driver has the same problems.

“Getting directly to the point, major German Tech Websites ComputerBase and PC Games Hardware (PCGH) both report that they must use the “High” Catalyst AI texture filtering setting for AMD 6000 series GPUs instead of the default “Quality” setting in order to provide image quality that comes close to NVIDIA’s default texture filtering setting. 3DCenter.org has a similar story, as does TweakPC. The behavior was verified in many game scenarios. AMD obtains up to a 10% performance advantage by lowering their default texture filtering quality according to ComputerBase.”

As a result, several websites have already decided to test the affected AMD cards going forward with higher than default texture quality settings, to come closer to NVIDIA’s default quality.

nTeresting, 3. Dec.

:)

Langenscheiss
2010-12-04, 12:10:31
Interessant.
Woher stammt das und welche Seiten außer den deutschen Seiten haben ihre Testbedingungen verändert?
Wobei "under a microscope" schon arg übertrieben ist. Die sollten sich mal warm anziehen, wenn wir wirklich ein "Mikroskop" hätten (wer weiß, wer weiß)...

LovesuckZ
2010-12-04, 12:42:43
Das ist nVidia's PR Newsletter von Brian Burke. Kannst ihm ja per Twitter anschreiben, vielleicht schickt er dir eine Liste.

Langenscheiss
2010-12-04, 12:44:24
Nein danke, sowas brauch ich nicht. Ich warte einfach auf die Cayman-Tests, die ja in den nächsten 30-60 Tagen wohl anstehen sollten.
Trotzdem danke für die Info.

Bucklew
2010-12-04, 13:28:07
@Bucklew:
Es ist legitim solange sowas nicht absichtlich dazu genutzt wird, Ergebnisse beim Launch zu verfälschen und dem User klar wird, was er bekommt und wie er den alten Standard zurückbekommt.
In diesem Fall hat AMD das leider missbraucht, aber generell hat die Stufe Q gegenüber HQ, abgesehen vom Flimmern, schon seine Daseinsberechtigung, weil der Unterschied zu HQ wirklich relativ gering ist.
Eben. Ich denke das Problem beginnt eben dann, wenn Hersteller X und Y mit unterschiedlicher BQ verglichen werden. Weil solange dann nur nach Schw....Balkenlänge bewertet wird, bleibt dem Hersteller mit der besseren BQ eigentlich nichts anderes übrig, als ebenfalls die BQ zugunsten der Performance zu senken.

Und ich denke nicht, dass das in unserem allgemeinem Interesse ist.

LovesuckZ
2010-12-05, 14:47:17
Die PCGH hab ich allerdings noch nicht gekauft, insofern kann ich dazu nichts sagen.


Das UT2004 Video ist auch toll. Es macht bei AMD fast schon mehr Sinn nur mit 4x bzw 2xAF zu spielen, weil die Optimierungen nicht annährend so stark sind.

Ich glaube, dass nichtmal der r420 diese Qualität bot, trotz aller Cheaterei zu damaligen Zeit. Selbst die FX Karten hatten "nur" einen brilinearen (Stage-)Filter und flimmerten nicht annährend so stark.

Kommentar von Nick Steam aus den Blog-Kommentaren:
Also, Hilbert at Guru3D showed the perf gains that we’re concerned about by AMD’s stepping down default IQ. Diceman is right that it’s most obvious in motion, not still shots. Even though Hilbert doesn’t think the actual default IQ degradation is a real big deal IQ-wise (which we disagree given all people who used to argue that we needed to improve our default IQ in the past, and not have any texture shimmer, etc, and now all of the sudden it’s acceptable to the community for AMD default settings to have texture shimmer???….)...

Tja, vor knapp 5 Jahren fand es Mr.Lolman (http://alt.3dcenter.org/artikel/neue_filtertricks/index3.php) ziemlich doof, heute denkt er nichtmal daran einen gleichwertigen Artikel auf dieser Seite zu schreiben. Da sieht man mal, dass Kritik von einigen nichts ist außer FUD.

Und das wird hier in den News geschrieben:
Dabei scheint es sich um einen Vorteil zu handeln, welche AMD mit der aktuellen Hardware wohl gar nicht einholen kann, denn laut AMD-Aussage ist der "HighQuality"-Modus faktisch frei von Optimierungen und bietet daher das maximale, was auf der AMD-Hardware machbar ist. Sollte dies zutreffen, dann hat AMD in der Tat das Problem, daß man in der Frage der Flimmer-Anfälligkeit derzeit einfach nicht so gut wie nVidia ist. Es muß aber unsererseits ebenfalls betont werden, daß dies nicht als genereller Beinbruch zu sehen ist, auch wenn manche der von uns diesbezüglich gewählten Worte unter Umständen auch mal drastisch herüberkommen: Denn auch die Filterqualität ist letztlich nur ein Teil der Gesamtsumme eines Grafikchips. An der Filterqualität entscheidet sich nicht primär das Gesamturteil über einen Grafikchip, dies ist letztlich nur ein kleiner Punkt auf dem Weg zu einem Gesamturteil.

Und da wundern sich die Leute noch, warum Spiele heute so toll flimmern. Es ist ja kein "genereller Beinbruch".

Raff
2010-12-05, 14:50:08
Trylinear ist eben nicht alles. Die fehlenden AF-Samples gab's zu FX-Zeiten noch nicht.

MfG,
Raff

Langenscheiss
2010-12-05, 15:29:08
Naja, adaptiv hat man schon immer gearbeitet, allein schon um Bandbreite zu sparen, zumindest früher. Ich glaube immer noch (wie auf S.43 erläutert), dass AMD einfach irgendwas neues ausprobieren wollte. Mit Cypress konnte man schlicht nicht feststellen, ob deren Ansatz funktioniert hat, weil sie ein Fehler bei der Implementierung gemacht haben, der zum banding führte. Jetzt mit Barts erhalten wir das, was uns ursprünglich schon mit Cypress erwarten sollte, und jetzt sieht AMD, dass deren Weg offenbar zu teils massivem Flimmern führt.

@LS:
Bei 2x,4x ist schlicht kein großer Spielraum für Optimierungen oder "unkonventionelle Ansätze". Ob man nun einen trilinearen Abtastpunkt oder 2 hat, hat zwar einen Unterschied bei der BQ zur Folge, aber eine große Auswahl an sinnvollen Realisierungen für Abtastungen des footprints an 2 Stellen gibt es nunmal nicht.
Was hast du gegen die News? Bei dem ganzen (berechtigtem) Gemecker hier dürfen wir nicht vergessen, dass wir Cypress beim Launch zurecht für den relativ geringen Stromverbrauch bei guter Performance gelobt haben. Natürlich muss man diese Werte nun neu interpretieren, aber es ist, wie Coda ja schon angesprochen hat, nicht gesichert, dass das Flimmern für einen enormen Performancegewinn steht. Ich glaube zwar fest daran, dass AMD sich ziemlich klar darüber ist, was genau die da verbockt haben (auch wenn sie, wie ich erfahren habe, manchmal vorgeben, selber ein bissl aufm Schlauch zu stehen), aber ob alles nur daran liegt, dass man samples sparen muss, würde mich zwar letztendlich nicht überraschen, kann aber zurzeit kaum als Tatsache hingestellt werden.

LovesuckZ
2010-12-05, 15:39:06
Was hast du gegen die News? Bei dem ganzen (berechtigtem) Gemecker hier dürfen wir nicht vergessen, dass wir Cypress beim Launch zurecht für den relativ geringen Stromverbrauch bei guter Performance gelobt haben.

Weil es lächerlich ist?!
Die Arbeit pro Frame bestimmt am Ende, wieviele FPS man erhält. Und dadurch entstehen ja solche Aussagen wie "geringer Stromverbrauch bei guter Performance". Wenn man ohne AA und AF spielt, dann ist dieses Verhältnis sogar besser. Es entscheidet immer die BQ beim Spielen, nicht der Weg. Das sollten Reviewer endlich lernen. Weil sonst einstellungen mit AA und AF absurd sind, da sie anscheinend nicht den selben Output erzeugen müssen...

fondness
2010-12-05, 18:54:31
HQ ist HW-Filtering ;( Und für Cayman gelte es auch ... tja ...



http://ht4u.net/news/23043_amd_gibt_exklusive_telefonkonferenz_zur_diskussion_der_bildqualitaet_fuer_ deutsche_medien/

Stimmt das nachweisbar? Wird in HQ immer voll trilinear gefiltert? Dann sollte man das auch berücksichtigen bei Vergleichen. NV spart durch bri-Filterung bei Q schließlich auch mal eben locker 25% Fillrate. Das äußerst sich dann zwar nicht durch flimmern aber durch Bugwellen.