PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : BQ R520 und G70: Wie viel davon in der Hardware?


Omega2
2005-10-07, 11:06:35
Hiho,

nachdem es ja nun bereits mehrere Threads gibt, in denen über die Unterschiede in der BQ zwischen den beide Chips gesprochen wird, jetzt mal einige Frage, die mich als Laien sehr interessiert:

1. NV hat ja im Mom wohl die etwas schlechtere Bildqualität . Wie viel von der "besseren" BQ ist beim R520 in die Hardware gegossen?

2. Kann NV, bei vertretbarem Leistungsverlust, die bessere BQ ATIs mittels Treiber auch realisieren bzw. wo sind da die Grenzen?

Danke für die Antworten.

Cu Omega

Odal
2005-10-07, 11:19:46
naja die ATI BQ ist ja hauptsächlich wegen des winkelunabhängigen AF beim R520 besser (und das ist wariable). Es gibt gerüchte das der G70 da auch variable ist wenn dem so sei könnte man wirklich winkelunabhängiges AF freischalten. Aber das ist wie mit Gott manche leute glauben dran und manche eben nicht. Wenn dann dürfte sich das in den nächsten wochen zeigen.

Quasar
2005-10-07, 11:32:37
Freut euch nicht zu früh.

Omega2
2005-10-07, 11:49:49
naja die ATI BQ ist ja hauptsächlich wegen des winkelunabhängigen AF beim R520 besser (und das ist wariable). Es gibt gerüchte das der G70 da auch variable ist wenn dem so sei könnte man wirklich winkelunabhängiges AF freischalten. Aber das ist wie mit Gott manche leute glauben dran und manche eben nicht. Wenn dann dürfte sich das in den nächsten wochen zeigen.

Ist denn das winkelunabhängige AF des R520 in die Hardware gegossen, oder wird das über Treiber realisiert?

Cu Omega

Crushinator
2005-10-07, 12:03:05
Ist denn das winkelunabhängige AF des R520 in die Hardware gegossen, oder wird das über Treiber realisiert?
Der Chip kann mit größter Wahrscheinlichkeit nicht komplett winkelunabhängig filtern, und was man im Treiber einstellen kann ist auch mindestens das, was der Chip kann. Um die Frage direkt zu beantworten: Diese AF-Logik ist in Hardware gegossen.

Neomi
2005-10-07, 12:09:26
Ist denn das winkelunabhängige AF des R520 in die Hardware gegossen, oder wird das über Treiber realisiert?

Wie stellst du dir eine AF-Implementation im Treiber denn vor? Die CPU müßte die Texturen sampeln, was wohl extrem lahm wäre. Dazu müßten die Texturen außerdem im Systemspeicher liegen. Das ganze würde auf reines Softwarerendering hinauslaufen.

Natürlich muß der anisotrope Filter vollständig in Hardware umgesetzt sein, er läßt sich nur eben per Treiber konfigurieren. Man kann den Filter zwar auch per Shader nachbasteln, aber das ist nicht gerade performant.

Omega2
2005-10-07, 12:14:10
Wie stellst du dir eine AF-Implementation im Treiber denn vor? Die CPU müßte die Texturen sampeln, was wohl extrem lahm wäre. Dazu müßten die Texturen außerdem im Systemspeicher liegen. Das ganze würde auf reines Softwarerendering hinauslaufen.


Ich stelle mir gar nichts vor. Ich bin ein Laie und deswegen frage ich ja die Profis :D


Natürlich muß der anisotrope Filter vollständig in Hardware umgesetzt sein, er läßt sich nur eben per Treiber konfigurieren. Man kann den Filter zwar auch per Shader nachbasteln, aber das ist nicht gerade performant.

Das Flimmern des NV70 ist demnach in der Hardware begründet, oder ist es einfach im Treiber schlecht umgesetzt worden?

Cu Omega

Karümel
2005-10-07, 12:21:04
Freut euch nicht zu früh.


Weißt Du was was wir nicht wissen?

seahawk
2005-10-07, 12:25:23
Freut euch nicht zu früh.

:|

Was meinst Du jetzt ? HQ-AF auf dem G70 oder etwas ganz anderes ?

deekey777
2005-10-07, 12:33:14
Freut euch nicht zu früh.

Hm, wiedermal ein adaptiver (HQ-)AF Algorithmus? ;(

SentinelBorg
2005-10-07, 12:36:16
Ich wüsste nicht, warum der G70 nicht auch winkelunabhängig arbeiten sollen könnte. Denn logisch betrachtet, muss doch für die ganze Sache mit der Winkelei mehr Logik im Chip sein, als weniger. Denn der Chip kann ja 16x AF wirken, wenn er will. Warum sollte er dann nicht in der Lage sein, es auf alle Texturen auszuführen?

Sentinel

Crushinator
2005-10-07, 12:36:32
(...) Das Flimmern des NV70 ist demnach in der Hardware begründet, oder ist es einfach im Treiber schlecht umgesetzt worden?
Der Treiber sagt dem Chip, wieviele Samples er zum Filtern der Texturen verwenden soll. Im Flimmerfall wird ihm eine Zahl vorgegeben die für eine gute Filterung unzureichend ist. Daraus resultiert allerdings, daß der Chip schneller mit dem Filtern fertig wird. Er selbst kann jedenfalls ausreichend filtern, man muß ihm das nur abverlangen.

Die Texturfilterung hat allerdings mit der Winkelabhägigkeit des AF-Grades wenig zu tun. G70 kann eben so wenig komplett winkelunabhägig anisotrop filtern wie R5X0. Sie unterscheiden sich HW-Technisch nur darin, welche Winkel wieviel AF-Stufen abbekommen.

[€dit]
Siehe nachfolgenden Beitrag. :D

MikBach
2005-10-07, 12:47:21
Ich wüsste nicht, warum der G70 nicht auch winkelunabhängig arbeiten sollen könnte. Denn logisch betrachtet, muss doch für die ganze Sache mit der Winkelei mehr Logik im Chip sein, als weniger. Denn der Chip kann ja 16x AF wirken, wenn er will. Warum sollte er dann nicht in der Lage sein, es auf alle Texturen auszuführen?

Sentinel
:confused:
Ich glaube da bringst du etwas durcheinander.
Nur weil ein Chip 16xAF beherrscht, heisst es noch lange nicht nicht, das er es auch winkelunabhängig kann.

Ich denke Neomi hat es ganz gut beschrieben.

@Crushi:
"unausreichend"?
Ist das die neue Rechtschreibung?
Ich kenne nur unzureichend oder nicht ausreichend. :)

Crushinator
2005-10-07, 12:55:22
@Crushi:
"unausreichend"?
Ist das die neue Rechtschreibung?
Ich kenne nur unzureichend oder nicht ausreichend. :)
Ich hatte den Satz zig mal umformuliert, von "ausreichend" über "nicht ausreichend" und irgendwann habe ich schnell abkürzen wollen, woraufhin unbewußt das dabei rauskam, was Du bemängelst. X-( (Nun korrigiert)

seahawk
2005-10-07, 12:57:52
Niemand weiss, ob der G70 in jetzt reduzierten Winkeln eine höhere Filterung zu kommen lassen kann. NV wird sicher erstmal die Marktreaktion abwarten, wenn sie überhaupt reagieren (reagieren können).

HOT
2005-10-07, 14:42:54
Mit "Freut euch nicht zu Früh" war wohl eher gemeint, dass man sich keinesfalls darauf verlassen sollte, dass der G70 winkelunabhängiges AF bekommt. Und das glaube ich auch, denn solange der G70 ggü. dem R520 in diesem Thema zurückfällt, würde sich NV damit selbst ins Knie schiessen. Ist der G70 darin Konkurrenzfähig könnte das irgendwann vielleicht mal kommen, es sei denn NV bewahrt sich das für den G72 auf. Das es auf nem G70 kommt ist also mehr als unwahrscheinlich.

Quasar
2005-10-07, 15:10:03
:|
Was meinst Du jetzt?[…9
Ich meine beide Karten.

seahawk
2005-10-07, 17:08:06
Ich meine beide Karten.

Jetzt bin ich verwirrt ?

Man ich sollte unsere XL mal echt aus dem Dauerlauf klauen und zu hause mal richtig benchen und die BQ testen. Aber die hängt bestimmt noch 1 Monat im Torturetestrack.

DanMan
2005-10-07, 17:29:55
Nunja, das winkelunabhängige 2xAF des G70 lässt nach wie vor hoffen. :d

SentinelBorg
2005-10-07, 20:14:37
Am besten fände ich folgende Lösung durch Nvidia:

- Der bisherige AF-Regler wird umbenannt in "Max. AF".
- Es kommt ein neuer AF-Regler dazu, der "Min. AF" heisst und mit dem man den minimalst möglichen AF-Grad einstellen kann.

Damit könnte dann jeder Anwender selbst entscheiden, wieviel Winkelabhängigkeit er denn möchte.

Sentinel

Oblivion
2005-10-13, 17:18:11
HOT hat das sehr gut beschrieben - Nvidia wird nicht viel ändern, denn vielen ist die Balkenlänge und nicht die Bildquali wichtig und wenn mehr Leute nV als ATI kaufen wieso sollten sie es ändern?

Coda
2005-10-13, 17:27:52
Bei der derzeitigen Lage muss nVIDIA aber entweder deutlich billiger als ATi sein oder relevant mehr Leistung bieten.

Bildqualität spielt eine große Rolle im High-End imho.

reunion
2005-10-13, 17:34:18
HOT hat das sehr gut beschrieben - Nvidia wird nicht viel ändern, denn vielen ist die Balkenlänge und nicht die Bildquali wichtig und wenn mehr Leute nV als ATI kaufen wieso sollten sie es ändern?

Es reicht nV mit Sicherheit nicht, mehr Karten zu verkaufen als ATi. nV ist ein Börsen-unternehmen, und diese haben nunmal die Angewohnheit, den Gewinn maximieren zu wollen. Und konkurrenzfähiges AF wäre ein weiterer, durchaus wichtiger, wenn nicht der entscheidende Punkt, sich für nV und nicht für ATi zu entscheiden. Das heißt, sollte nV winkelunabhängiges AF anbieten können, würde man das mit Sicherheit tun (bzw. hätte es schon längst getan).

Oblivion
2005-10-13, 17:39:27
Ich bin ja auch dafür dass nV sich in dem Bereich deutlich verbessert aber überlegt mal:

interessiert dass den Otto-Normalverbraucher? erkennt er den Unterschied? Sieht er das Flimmern wirklich? denke nein ... er möchte die schnellste Grafikkarte haben - und deswegen zählen die Balken!

Demirug
2005-10-13, 17:43:14
Es reicht nV mit Sicherheit nicht, mehr Karten zu verkaufen als ATi. nV ist ein Börsen-unternehmen, und diese haben nunmal die Angewohnheit, den Gewinn maximieren zu wollen. Und konkurrenzfähiges AF wäre ein weiterer, durchaus wichtiger, wenn nicht der entscheidende Punkt, sich für nV und nicht für ATi zu entscheiden. Das heißt, sollte nV winkelunabhängiges AF anbieten können, würde man das mit Sicherheit tun (bzw. hätte es schon längst getan).

Ich fürchte (durchaus auch zu meinem bedauern) du überschätzt die Wichtigkeit des Features "winkelunabhängiges AF" im Bezug auf die globalen Kaufentscheidungen etwas.

Zudem hat nVidia in diesem Punkt doch sowieso schon den "First Hit" verloren. Aus rein Marketing technischen Überlegungen ist es sinnvoller sich das bis zum Launch der nächsten Karte aufzuheben denn dann hat man wieder die ganze Presse zusammen.

aths
2005-10-14, 19:05:49
Der Treiber sagt dem Chip, wieviele Samples er zum Filtern der Texturen verwenden soll. Nö, das bestimmt die TMU, oder noch genauer, die Tex-Unit.

aths
2005-10-14, 19:14:58
HOT hat das sehr gut beschrieben - Nvidia wird nicht viel ändern, denn vielen ist die Balkenlänge und nicht die Bildquali wichtig und wenn mehr Leute nV als ATI kaufen wieso sollten sie es ändern?Dann müssen sie nichts ändern. Deshalb wird 3DCenter Artikel raushauen, die sich speziell damit beschäftigen. Und – wie gewohnt – wird die AF-Problematik auch in anderen Artikeln erwähnt werden, die sich nicht direkt mit AF beschäftigen.

Problem: Wir haben noch keine Karte. Hätten wir von ATI eine Karte bekommen, dann gäbe es den speziellen AF-Artikel wahrscheinlich schon.

MadManniMan
2005-10-14, 19:26:12
Am besten fände ich folgende Lösung durch Nvidia:

- Der bisherige AF-Regler wird umbenannt in "Max. AF".
- Es kommt ein neuer AF-Regler dazu, der "Min. AF" heisst und mit dem man den minimalst möglichen AF-Grad einstellen kann.

Damit könnte dann jeder Anwender selbst entscheiden, wieviel Winkelabhängigkeit er denn möchte.

Sentinel

Hört sich schön an, stelle ich mir aber unpraktikabel vor.
Zudem solltest Du beachten, daß AF immer adaptiv appliziert wird, also durchaus nach Verzerrungsgrad auch die rechten Winkel beim winkelabhängigen 16*AF nur bi- oder trilinear gefiltert werden. Mit einem Mindest-AF-Grad würde man unnütz Leistung verschenken.

Aber Du meinst sicherlich ein quasi (umgangssprachlich) programmierbares (also konfigurierbares) AF Muster - sicherlich interessante Spielerei ...

AnPapaSeiBua
2005-10-15, 14:50:10
Hab grad die aktuelle c't (22/05) durchstöbert und da stolpere ich doch über diese Aussage auf Seite 122, da geht es um die Winkelabhängigkeit des AF:

"Bei ATI ist dieser Mechanismus fest im Chip verdrahtet; Nvidia bildet die Winkelabhängigkeit im Treiber ebenfalls ohne Abschaltoption nach."

Eigentlich ist die c't ja für gut recherchierte Artikel bekannt, also, wissen die was, was wir nicht wissen?

Coda
2005-10-15, 15:02:21
Ich denke nicht. Das ist nur eine Vermutung die oft geäußert wird, also wohl schlechte Recherche seitens der CT.

Coda
2005-10-15, 15:04:01
Hört sich schön an, stelle ich mir aber unpraktikabel vor.
Zudem solltest Du beachten, daß AF immer adaptiv appliziert wird, also durchaus nach Verzerrungsgrad auch die rechten Winkel beim winkelabhängigen 16*AF nur bi- oder trilinear gefiltert werden. Mit einem Mindest-AF-Grad würde man unnütz Leistung verschenken.Ich glaube er meinte minimalen AF-Grad bei dafür ausreichender Verzerrung, also bei der gängigen "Blume".

Demirug
2005-10-15, 15:09:08
Hab grad die aktuelle c't (22/05) durchstöbert und da stolpere ich doch über diese Aussage auf Seite 122, da geht es um die Winkelabhängigkeit des AF:

"Bei ATI ist dieser Mechanismus fest im Chip verdrahtet; Nvidia bildet die Winkelabhängigkeit im Treiber ebenfalls ohne Abschaltoption nach."

Eigentlich ist die c't ja für gut recherchierte Artikel bekannt, also, wissen die was, was wir nicht wissen?

c't und Grafikkarte = vergiss es. Irgendwie hat man dort nie so richtig den Anschluss gefunden als aus 2D Karten 3D Beschleuniger wurden.

AnPapaSeiBua
2005-10-15, 15:12:44
c't und Grafikkarte = vergiss es. Irgendwie hat man dort nie so richtig den Anschluss gefunden als aus 2D Karten 3D Beschleuniger wurden.

Den Eindruck hab ich auch schön langsam. Zum Benchen raten die, bei NV auf die zweithöchste Qualität zu stellen und bei ATI auf die höchste. Ich persönlich würde das genau anders herum machen (Flimmern...).

aths
2005-10-15, 19:09:07
c't und Grafikkarte = vergiss es. Irgendwie hat man dort nie so richtig den Anschluss gefunden als aus 2D Karten 3D Beschleuniger wurden.Ich würde es weniger hart formulieren und meinen, dass die c't etwa auf DX8-Niveau stehen geblieben ist. Dennoch wird mich keiner dazu bringen, über den Manfred Bertuch zu lästern – man muss nicht alles wissen, sondern sich auch mal Gedanken machen und was ausprobieren. Das kann er. Das Thema "Grafikkarten" wird bei der c't imo einfach zu niedrig gehängt.

Ailuros
2005-10-15, 19:19:08
Es gibt IMHO keine Moeglichkeit winkelunabhaengigeres AF auf NV4x/G7x auf irgend eine Art freizuschalten.

Von dem abgesehen wird wohl "quality" AF so lange mit so vielen Optimierungen bleiben, so lange die Konkurrenz auch mit Optimierungen bei default erscheint.

Auch ATI's neues high quality AF ist uebrigens adaptiv; Gott sei Dank LOL ;)

seahawk
2005-10-15, 19:24:17
Langsam mächte ich Dich Orakel nennen.

Aber ich ahne was Du meinst.

Ailuros
2005-10-15, 19:55:03
NVIDIA hat mit der Winkel-abhaengigkeit Transistoren und nicht Leistung gespart; sehr viel extra Infos braucht man da nicht dazubekommen und so weit raten zu koennen.

Schau Dir mal den Leistungsunterschied zwischen den beiden AF modi auf R520 genauer an und ueberdenk nochmal dessen Transistoren-Anzahl. Es kann doch um Gottes Willen nicht alles caches oder Speicher-controller sein oder?

Ailuros
2005-10-15, 19:58:05
Uebrigens und das stets IMHO:

Vergleichbar zwischen R520 und G70 sind nur die winkelabhaengigeren modi (alter modus bei ATI) jeweils mit oder ohne Optimierungen fuer beide Seiten.

R520's neuen modus sollte man dann individuell fuer sich benchen.

Mr. Lolman
2005-10-15, 20:48:13
Uebrigens und das stets IMHO:

Vergleichbar zwischen R520 und G70 sind nur die winkelabhaengigeren modi (alter modus bei ATI) jeweils mit oder ohne Optimierungen fuer beide Seiten.

R520's neuen modus sollte man dann individuell fuer sich benchen.

Nichts gegen deine bescheidene Meinung. Aber R420 default sieht lt. den 3DC(hardware.fr)-Videos um nix schlechter aus als NV40 HQ.

mindfaq
2005-10-15, 21:17:34
R420 ohne Optimierungen sieht aber auch nicht unbedingt besser aus als NV40-HQ. ;)

aths
2005-10-15, 21:37:09
R520's neuen modus sollte man dann individuell fuer sich benchen.Ja.

Aber ohne Apostroph, bitte. Im Deutschen setzt man weder bei Mehrzahl, noch beim Genitiv einen Apostroph vor dem "s".

aths
2005-10-15, 21:41:14
Japp, es ist sogar leicht höherwertiger.

Ailuros
2005-10-16, 00:52:29
Nichts gegen deine bescheidene Meinung. Aber R420 default sieht lt. den 3DC(hardware.fr)-Videos um nix schlechter aus als NV40 HQ.

Von Perfektion auf R420 (auch auf R520 im alten modus) was Optimierungen betrifft wuerde ich erstmal gar nicht reden. In der Mehrzahl der Faelle wo bei einer NV4x/G7x "high quality" fuer den qualitaet-bewussten Spieler quasi zur Pflicht wird, gilt auch nicht viel anderes fuer die konkurrierenden Radeons.

Mr. Lolman
2005-10-16, 01:03:28
n. In der Mehrzahl der Faelle wo bei einer NV4x/G7x "high quality" fuer den qualitaet-bewussten Spieler quasi zur Pflicht wird, gilt auch nicht viel anderes fuer die konkurrierenden Radeons.

Dafür hätt ich gern ein paar Belege...

Ailuros
2005-10-16, 01:08:57
Dafür hätt ich gern ein paar Belege...

Willst Du mir allen Ernstes einreden dass Du Spiele wie BF2 z.B. auf einer R4xx/5xx mit eingestellten Optimierungen spielen wuerdest?

Mr. Lolman
2005-10-16, 01:15:04
Willst Du mir allen Ernstes einreden dass Du Spiele wie BF2 z.B. auf einer R4xx/5xx mit eingestellten Optimierungen spielen wuerdest?

Die Frage lass ich andere beantworten, da ich weder BF2, noch ne R4xx/5xx habe.

Ailuros
2005-10-16, 01:44:25
Die Frage lass ich andere beantworten, da ich weder BF2, noch ne R4xx/5xx habe.

Schoen dass Du Deine Meinung dann nur auf ein paar videos basierst :rolleyes:

Mr. Lolman
2005-10-16, 10:00:58
Schoen dass Du Deine Meinung dann nur auf ein paar videos basierst :rolleyes:

Schick mir einen R4x0 und ich seh mit das gerne nochmal selbst an. Aber andererseits, wärs ja die Aufgabe der HW-Journalie die Produkte so genau zu testen, dass man sich anhand von Reviews/Tests/Videos eine Meinung bilden darf/kann...

AnPapaSeiBua
2005-10-16, 10:40:38
NVIDIA hat mit der Winkel-abhaengigkeit Transistoren und nicht Leistung gespart; sehr viel extra Infos braucht man da nicht dazubekommen und so weit raten zu koennen.

Schau Dir mal den Leistungsunterschied zwischen den beiden AF modi auf R520 genauer an und ueberdenk nochmal dessen Transistoren-Anzahl. Es kann doch um Gottes Willen nicht alles caches oder Speicher-controller sein oder?

Das kann ich mir nicht vorstellen. Für volles AF braucht man nun mal mehr Samples bei gewissen Winkeln. Bei Szenen mit fast ausschließlich waagrechten und senkrechten (großen) Flächen gibt's natürlich kaum Unterschiede. Würde es keinen Performance-Unterschied geben, hätte ATI wohl nicht beide Verfahren implementiert. Das wär ja dann Transistorverschwendung.

ShadowXX
2005-10-16, 11:43:47
Das kann ich mir nicht vorstellen. Für volles AF braucht man nun mal mehr Samples bei gewissen Winkeln. Bei Szenen mit fast ausschließlich waagrechten und senkrechten (großen) Flächen gibt's natürlich kaum Unterschiede. Würde es keinen Performance-Unterschied geben, hätte ATI wohl nicht beide Verfahren implementiert. Das wär ja dann Transistorverschwendung.

Aber genau davon gehen viele aus (also das ATI beide AF-Methoden "einzeln" implementiert hat)

reunion
2005-10-16, 11:44:42
Willst Du mir allen Ernstes einreden dass Du Spiele wie BF2 z.B. auf einer R4xx/5xx mit eingestellten Optimierungen spielen wuerdest?


Siehst du eine Unterschied zwischen AI_low und AI_off?
Ich sehe praktisch nichts, habe aber bis zu 10% mehr Leistung dadurch.

Auf meiner 6600GT mache ich das freilich nicht, da "Quality" stark zu flimmern neigt.

Ailuros
2005-10-16, 13:24:09
Schick mir einen R4x0 und ich seh mit das gerne nochmal selbst an. Aber andererseits, wärs ja die Aufgabe der HW-Journalie die Produkte so genau zu testen, dass man sich anhand von Reviews/Tests/Videos eine Meinung bilden darf/kann...

Eine Anfrage via e-mail an ATI fuer HW A oder B duerfte genug sein von Deiner Seite aus.

Wenn ich Zeit in der absehbaren Zukunft finde werde ich selber was mal darueber schreiben.

***edit: und komm mir bloss nicht mit dem Journalismus-Mist; es ist genau der Journalismus der ueber ein Jahr weitgehend die Augen zudrueckte seit 2004, wobei Neben-effekte mit Filterungs-Optimierungen konstant zu sehen waren und das auf beiden Seiten. Nein Moment ich gehe noch weiter, ich weiss gar nicht wie oft ich in der Vergangenheit zu rTool greifen musste fuer R3xx und wie selten diese bei mir mit "quality" anstatt "high quality" was den LOD bias betrifft lief. Komischerweise kamen noch ein paar Leckerbissen in R4xx dazu was Optimierungen betrifft.

Ailuros
2005-10-16, 13:27:53
Siehst du eine Unterschied zwischen AI_low und AI_off?
Ich sehe praktisch nichts, habe aber bis zu 10% mehr Leistung dadurch.

Die wirklich krankhaften Faelle die keine Optimierungen tolerieren setzen tatsaechlich auf beiden Seiten voraus dass Optimierungen abgestellt werden. 10% ist mir zu bescheiden und mal wieder schoen verdreht. Wie dem auch sei auf beiden Seiten kann man die Optimierungen abschalten ohne dass man die Spielbarkeit verliert.

Ailuros
2005-10-16, 13:34:03
Das kann ich mir nicht vorstellen. Für volles AF braucht man nun mal mehr Samples bei gewissen Winkeln. Bei Szenen mit fast ausschließlich waagrechten und senkrechten (großen) Flächen gibt's natürlich kaum Unterschiede. Würde es keinen Performance-Unterschied geben, hätte ATI wohl nicht beide Verfahren implementiert. Das wär ja dann Transistorverschwendung.

Es gibt Leistungsmessungen in mehr als einem Review im Netz; ich konnte auf jeden Fall bis jetzt keinen gigantischen Unterschied zwischen "HQ-AF" und deren vorigen AF mit Optimierungen eingeschaltet sehen was die Leistung betrifft.

Eigentlich - falls HQ-AF tatsaechlich wie ATI behauptet durchgehend trilinear filtert - muesste man fuer die wahren Vergleiche auch noch die Optimierungen im alten modus abschalten.

Der neue modus brauchte mehr Transistoren sowieso; wieso es jetzt Transistoren-Verschwendung sein sollte eine aeusserst billige aeltere Methode zu behalten die sowieso viel weniger rechnet ist mir fremd. Wie schwer ist es ueberhaupt fuer einen Algorithmus nach unten zu rechnen?

reunion
2005-10-16, 15:01:14
Die wirklich krankhaften Faelle die keine Optimierungen tolerieren setzen tatsaechlich auf beiden Seiten voraus dass Optimierungen abgestellt werden. 10% ist mir zu bescheiden und mal wieder schoen verdreht. Wie dem auch sei auf beiden Seiten kann man die Optimierungen abschalten ohne dass man die Spielbarkeit verliert.


Das Problem dabei ist, dass mit AI_off auch noch einige hilfreiche Optimierungen, wie das Shaderreplacement in Doom3 deaktiviert wird. Und da man wie schon gesagt keinen visuellen Unterschied bemerkt, spricht eigentlich nichts dagegen.

Siehe auch http://www.3dcenter.de/artikel/g70_flimmern/index2.php

Ailuros
2005-10-16, 15:33:05
Das Problem dabei ist, dass mit AI_off auch noch einige hilfreiche Optimierungen, wie das Shaderreplacement in Doom3 deaktiviert wird. Und da man wie schon gesagt keinen visuellen Unterschied bemerkt, spricht eigentlich nichts dagegen.

Siehe auch http://www.3dcenter.de/artikel/g70_flimmern/index2.php


Ihr koennt ja weiterhin versuchen den Mist unter den Teppich zu kehren oder zu den videos endlos linken, aber wenn ihr Euch selber einredet moechtet dass ein wirklich qualitaetsbewusster User NIE Optimierungen auf einer Radeon abschalten wuerde, dann von mir aus soll es auch so sein.

In einer perfekten Welt braeuchten wir auch keine Filterungs-Optimierungen; im gegebenen Fall ist es eben egal von welcher Seite ziemlich leicht Qualitaet fuer Leistung zu opfern und viele aber gibt es da nicht. Texturing-stage und LOD-Fummeleien auf beiden Seiten fuehren zu Nebeneffekten und zu verdammt sichtbaren je nach Fall.

Es gibt stets einen Unterschied zwischen was ich wirklich nicht sehen kann und was ich nicht sehen will. Ich persoenlich habe mich stets gegen Filterungs-Pfuschereien gewehrt und ich hab auch nicht vor damit aufzuhoeren wenn mich was stoert und das unabhaengig welchen IHV es betrifft. Wer keinen Unterschied sehen kann, gut fuer ihn. Es heisst aber dann eher dass man je nach Bevorzugung blind genug ist oder eben nicht so empfindlich fuer gewisse Neben-effekte ist.

Coda
2005-10-16, 17:05:32
Das Problem dabei ist, dass mit AI_off auch noch einige hilfreiche Optimierungen, wie das Shaderreplacement in Doom3 deaktiviert wird.Deshalb gehört das auch ganz klar unabhängig gemacht seitens ATi.

Blaire
2005-10-16, 18:40:26
Dafür hätt ich gern ein paar Belege...

Schau dir mal die Screens von Doom3 an. Ati "Default" gibts böses Banding ...
Ich frage mich warum du immer so Ati verteidigst... Gibt doch garkein Grund dafür.

http://www.digit-life.com/articles2/video/r520-part4-c.html

Screenshots am Ende der Seite einmal mit AI und einmal ohne.

Mr. Lolman
2005-10-16, 23:24:12
Schau dir mal die Screens von Doom3 an. Ati "Default" gibts böses Banding ...
Ich frage mich warum du immer so Ati verteidigst... Gibt doch garkein Grund dafür.

http://www.digit-life.com/articles2/video/r520-part4-c.html

Screenshots am Ende der Seite einmal mit AI und einmal ohne.


Bei den Screenshots am Ende steht, dass es anscheinend noch ein Problem mit HQ-AF und aktivem AI gibt. Default sieht viel besser aus:


Not a trace remains of the unanimity in Far Cry. Pay attention how much worse GF7800 filters the grid texture on the floor than both Radeons — the GF7800 can match the RX1800 only in High Quality mode. In our opinion, trilinear filtering in the GF7800 remains "optimized" even in High Quality mode; at least, it obviously of lower quality than that in Radeon cards.

When Catalyst A.I. is disabled, both Radeon cards stop substituting a shader responsible for texture lighting. As a result, lighting changes and performance drops noticeably.

And again we see no special advantages of the new anisotropy algorithm in the R520. None can antialias semitransparent textures in this frame: for some reason, the central grid on the background remains unsmoothed not only on the RX1800, but on the GF7800 as well.

We have witnessed a strange artifact in Doom 3 on the RX1800: HQ anisotropy with active Catalyst A.I. is of lower quality than even the regular anisotropy. That's how it looks: a clearly visible line at the border of the texture and the first MIP level. So you'd better disable Catalyst A.I. to get back the normal HQ anisotropy:

Ailuros
2005-10-17, 00:11:34
ROFL :D

Digit-Life kann also keinen einzigen Vorteil in HL2 sehen als Beispiel mit dem neuen AF-modus auf X1k.....wunderbar *kopfschuettel*

Of course, the difference in antialiasing quality of wires is striking: that's the effect of no effective gamma correction in the GF7800. Then, a prying glance makes out a difference in antialiasing quality of transparent textures — trees. It's hard to tell the reasons for this difference.

Erstens kann man Gamma-Korrektur dazuschalten auf der 7800 und zweitens sehen die Radeon TAA shots auf LCDs mieser aus und genau umgekehrt auf CRTs.

That's the third game already, where we don't see significant advantages of the new anisotropy algorithm in the RX1800.

*seufz*

Mr. Lolman
2005-10-17, 00:17:10
ROFL :D

Digit-Life kann also keinen einzigen Vorteil in HL2 sehen als Beispiel mit dem neuen AF-modus auf X1k.....wunderbar *kopfschuettel*



Erstens kann man Gamma-Korrektur dazuschalten auf der 7800 und zweitens sehen die Radeon TAA shots auf LCDs mieser aus und genau umgekehrt auf CRTs.



*seufz*

Die haben anscheinend nicht gewußt wo sie suchen sollen. :|

BTW: Atis Gammakorrektur hat bei HL² den Vorteil das die Stromkabel selbst noch dort glättet werden, wo die Sonne im Hintergund scheint. (UNd das sieht selbst auf meinem LCD besser aus, als die NV Version.

Blaire
2005-10-17, 00:28:02
Bei den Screenshots am Ende steht, dass es anscheinend noch ein Problem mit HQ-AF und aktivem AI gibt. Default sieht viel besser aus:

Naja ich hab andere Beobachtungen gemacht. BF2 sieht bei HQ selbst mit AI off, schlechter und flimmernder aus, als 7800GTX@HQ. Bei CS:Source genau das gleiche, da hatten wir ja erst kürzlich Videos gesehn wo man das gut erkennen konnte. Ati optimiert genau wie Nvidia @Defaulttreibersettings und beide stellen keine Alternative zum echten HQ dar.

Mr. Lolman
2005-10-17, 00:32:02
Stimmt, beide optimieren. Aber Ati bei weitem nicht so schlimm wie NV. Deswegen stellt imo ATi-default schon eine Alternative dar. Computerbase sind ja auch zu dem Schluss gekommen, daß im Durchschnitt ATi-default sehr wohl mit NV-HQ vergleichbar ist...

MadManniMan
2005-10-17, 01:25:49
Die haben anscheinend nicht gewußt wo sie suchen sollen. :|

Ich befürchte fast, der Gucker wußte nicht ums Prinzip von Winkeladaption :conf:

Ailuros
2005-10-17, 01:50:34
Die haben anscheinend nicht gewußt wo sie suchen sollen. :|

BTW: Atis Gammakorrektur hat bei HL² den Vorteil das die Stromkabel selbst noch dort glättet werden, wo die Sonne im Hintergund scheint. (UNd das sieht selbst auf meinem LCD besser aus, als die NV Version.

Das mit der Gammakorrektur ist auch so eine zwielichtige Angelegenheit, denn man sollte die Kallibrierung eines jegliches Bildschirms dann auch noch in Betracht nehmen.

Auf LCDs sieht man eben diese bekloppten weisse Punkte bei ATIs AA; ist mir aber persoenlich sowieso schnuppe da ich LCDs nur fuer Buero-Mist benutze. Uebrigens wenn jemand schon mit einem LCD spielt und eine native Aufloesung von 1280*1024 hat, kann man locker 8xS mit 4xTSAA und AF kombinieren und HL2 bleibt noch mehr als nur spielbar, ob jetzt Gamma-Korrektur an oder aus, quality oder high quality.

Ailuros
2005-10-17, 01:58:12
Stimmt, beide optimieren. Aber Ati bei weitem nicht so schlimm wie NV. Deswegen stellt imo ATi-default schon eine Alternative dar. Computerbase sind ja auch zu dem Schluss gekommen, daß im Durchschnitt ATi-default sehr wohl mit NV-HQ vergleichbar ist...

Die Optimierungen und dessen Grad liegen etwa auf gleichem Nivaeu. Dass beide eine total andere MIPmapping Methode benutzen ist dann eine andere Geschichte; gaebe es nicht faelle wo die eine oder andere Methode zu Nebeneffekten fuehrt, wuerde ich Dir dann sogar recht geben. Nur in Deinen Traeumen ist ATIs default mit NV-HQ vergleichbar. Eben wie mit der verpatzten alten Logik und bloeden Argument dass man 22bpp mit 32bpp haette vergleichen sollen.

Man vergleicht Aepfel gegen Aepfel und man kann dann screenshots oder videos anhaengen mit Vergleichen was die Bildqualitaet betrifft. Ich hab auf jeden Fall Spiele wie F1 2002, Rallisport Challenge, BF2 und viele andere NIE auf einer Radeon mit Optimierungen gespielt; wunder Dich ruhig warum.

aths
2005-10-17, 06:38:21
Das mit der Gammakorrektur ist auch so eine zwielichtige Angelegenheit, denn man sollte die Kallibrierung eines jegliches Bildschirms dann auch noch in Betracht nehmen. Es ist keine Gammakorrektur, sondern Gamma-Adjustierung beim AA, Herrgott wie oft soll ich das noch sagen (das geht auch an Lolman.)

Dieses Gamma-adjusted AA ist in der Tat nicht immer von Vorteil, wie ich bei meiner Radeon Mobility in WoW oft genug sehe. In WoW reiße ich die Gamma-Korrektur hoch, und dann sorgt das Gamma-adjustierte Downfiltering für schlechte Zwischenfarben, die tendenziell viel zu hell sind.

Man vergleicht Aepfel gegen Aepfel und man kann dann screenshots oder videos anhaengen mit Vergleichen was die Bildqualitaet betrifft. Ich hab auf jeden Fall Spiele wie F1 2002, Rallisport Challenge, BF2 und viele andere NIE auf einer Radeon mit Optimierungen gespielt; wunder Dich ruhig warum.Richtig ist auf jeden Fall eins: Wenn eine so genannte "Optimierung" die fps-Zahl deutlich ansteigen lässt, ist auch damit zu rechnen, dass an der Qualität erhebliche Kompromisse eingegangen wurden. Bringt "A. I. low" kaum mehr fps, kann es auch gut sein, dass die "Optimierungen" kaum sichtbar sind, steigt die fps-Zahl deutlich, ist es entsprechend unwahrscheinlich dass man keine Qualitätsnachteile sehen kann. So verzichte ich in HQ-Settings gerne auf jegliche Einsparungen am trilinearen Filter.

Mr. Lolman
2005-10-17, 08:50:32
F1 2002, Rallisport Challenge, BF2 und viele andere NIE auf einer Radeon mit Optimierungen gespielt; wunder Dich ruhig warum.

Lustigerweise sind das zT Spiele, in denen man von Hausaus ATi eine bessere BQ zugesteht...

z.B. http://www.zdnet.de/enterprise/client/0,39023248,39125640-11,00.htm

aths
2005-10-17, 08:52:58
Naja, wer vom "anisotropischen Filtering" schreibt, dem traue ich nicht unbedingt Kompetenz zu. Zumal hier Dinge durcheinandergewürfelt werden. Die unterbrochene Fahrbahnbegrenzung ist Folge der Unterfilterung, nicht der Kantenglättung. Die Krönung: Das NV-AF wird als besser bezeichnet, da es schärfer sein.

Mr. Lolman
2005-10-17, 08:53:27
Es ist keine Gammakorrektur, sondern Gamma-Adjustierung beim AA, Herrgott wie oft soll ich das noch sagen (das geht auch an Lolman.)


"Korrektur" impliziert nur "Änderung/Verbesserung" und nicht automatisch "Richtigstellung". Deswegen ist Gammakorrektur auch nicht falsch!


Die Krönung: Das NV-AF wird als besser bezeichnet, da es schärfer sein.

Ja, und da sind sie nichtmal die Einzigen. Der Fehler passiert leidergottes sogar recht vielen Reviewern. Firingsquad fand deswegen auch biAF toller als triAF :|

aths
2005-10-17, 08:55:09
Korrektur heißt, etwas korrekt zu machen oder zumindest korrekter zu machen. Das Gamma-adjusted Downfiltering kann aber die Kantenglättung auch verschlechtern, je nach Gammakorrektur und Monitor-Wiedergabecharakteristik.

Mr. Lolman
2005-10-17, 08:59:40
Naja, wer vom "anisotropischen Filtering" schreibt, dem traue ich nicht unbedingt Kompetenz zu. Zumal hier Dinge durcheinandergewürfelt werden. Die unterbrochene Fahrbahnbegrenzung ist Folge der Unterfilterung, nicht der Kantenglättung.

Man siehts aber ganz leicht an der Oberkante von der linken, blauen Bande (die jpg-Qualität ist eigentlich auch ne Frechheit ;)) Irgendjemand hat im 3DCF jedoch mal Screenshots von nem anderen Rennspiel gepostet (GTR?) wo man deutlich sah, dass bei NV wieder einige Stellen völlig ungeglättet waren. (ca. so wie manche Teile der HL²-Stromkabel)

aths
2005-10-17, 09:04:12
Dafür sehe ich links oben, bei der Kante Dach/Himmel die Glättung auf der GeForce-Karte von leichtem Vorteil. Auch der dunkelrote Mast ist auf meinem Bildschirm bei der GeForce-Version besser geglättet. Solche Einzelfälle sagen aber nichts über die generelle Qualität aus.

seahawk
2005-10-17, 10:24:07
Die haben anscheinend nicht gewußt wo sie suchen sollen. :|

BTW: Atis Gammakorrektur hat bei HL² den Vorteil das die Stromkabel selbst noch dort glättet werden, wo die Sonne im Hintergund scheint. (UNd das sieht selbst auf meinem LCD besser aus, als die NV Version.

Und den Nachteil, dass dünne Kabel oftmals wie Gleiderketten aussehhen. Deswegenbin ich froh, dass man be iBV die Gammanpassung abstellen kann.

reunion
2005-10-17, 10:38:08
Deshalb gehört das auch ganz klar unabhängig gemacht seitens ATi.


Richtig, nur habe ich trotzdem lieber AI_low, bei welchem ich wie schon erwähnt keine IQ-Nachteil ausmachen kann, als AI_off mit bsw. einer Auflösungsstufe weniger.

reunion
2005-10-17, 10:43:07
Ihr koennt ja weiterhin versuchen den Mist unter den Teppich zu kehren oder zu den videos endlos linken, aber wenn ihr Euch selber einredet moechtet dass ein wirklich qualitaetsbewusster User NIE Optimierungen auf einer Radeon abschalten wuerde, dann von mir aus soll es auch so sein.

In einer perfekten Welt braeuchten wir auch keine Filterungs-Optimierungen; im gegebenen Fall ist es eben egal von welcher Seite ziemlich leicht Qualitaet fuer Leistung zu opfern und viele aber gibt es da nicht. Texturing-stage und LOD-Fummeleien auf beiden Seiten fuehren zu Nebeneffekten und zu verdammt sichtbaren je nach Fall.

Es gibt stets einen Unterschied zwischen was ich wirklich nicht sehen kann und was ich nicht sehen will. Ich persoenlich habe mich stets gegen Filterungs-Pfuschereien gewehrt und ich hab auch nicht vor damit aufzuhoeren wenn mich was stoert und das unabhaengig welchen IHV es betrifft. Wer keinen Unterschied sehen kann, gut fuer ihn. Es heisst aber dann eher dass man je nach Bevorzugung blind genug ist oder eben nicht so empfindlich fuer gewisse Neben-effekte ist.


Kannst du mir auch zumindest ein Beispiel nennen, wo man einen deutlichen Unterschied erkennt (zw. AI_low und AI_off), oder bist du nur darauf aus, mir etwas zu unterstellen?
Es gibt dazu im übrigen zahlreiche Tests im Netz, keiner vermochte eine sichtbare IQ-Verschlechterung auszumachen; aber schon klar, De gustibus non est disputandum.

Raff
2005-10-17, 10:45:44
Kannst du mir auch zumindest ein Beispiel nennen, wo man einen deutlichen Unterschied erkennt (zw. AI_low und AI_off), oder bist du nur darauf aus, mir etwas zu unterstellen?
Es gibt dazu im übrigen zahlreiche Tests im Netz, keiner vermochte eine sichtbare IQ-Verschlechterung auszumachen.

Kann ich mal solche Tests auf aktuellen Karten sehen? :)
Denn das dauernde "ab R420 gibt's bri, das kann flimmern" hätte ich zu gerne mal gesehen. Ich staune zumindest immer über die astreine Flimmerfreiheit meiner 9800, wenn ich am WE mit ihr spiele (die Woche über mit der 6800).

MfG,
Raff

reunion
2005-10-17, 10:57:47
Kann ich mal solche Tests auf aktuellen Karten sehen? :)
Denn das dauernde "ab R420 gibt's bri, das kann flimmern" hätte ich zu gerne mal gesehen. Ich staune zumindest immer über die astreine Flimmerfreiheit meiner 9800, wenn ich am WE mit ihr spiele (die Woche über mit der 6800).

MfG,
Raff


Ich möchte an dieser Stelle gleich mal festhalten, dass ich nie behauptet habe, dass eine ATi-Karte flimmerfrei ist. Alles was ich sagte, war, dass ich keine Unterschied zwischen AI_low und AI_off ausmachen kann, und das wird im übrigen selbst von aths "Flimmer-Artikel (http://www.3dcenter.de/artikel/g70_flimmern/)" bestätigt.

In der aktuellen PCGH findet man dazu ebenfalls einen netten Bericht, der selbst AI_low als weniger flimmeranfällig wie nVs HQ befindet.

Und auch CB hat dazu was geschrieben:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/

Raff
2005-10-17, 11:05:16
Es gibt keine "flimmerfreie" Karte. Das ist auch eine GeForce4 nicht, wenn die Texturen dazu neigen, einen anzuspringen. Nach ausgiebigen Tests kann ich aber sagen: ein R3x0 hat in 95% der Fälle flimmerfreies AF. Ein NV40 @ HQ flimmert laut meinen Augen oft mehr.

MfG,
Raff

reunion
2005-10-17, 11:15:16
Es gibt keine "flimmerfreie" Karte. Das ist auch eine GeForce4 nicht, wenn die Texturen dazu neigen, einen anzuspringen. Nach ausgiebigen Tests kann ich aber sagen: ein R3x0 hat in 95% der Fälle flimmerfreies AF. Ein NV40 @ HQ flimmert laut meinen Augen oft mehr.

MfG,
Raff


Das kann ich größtenteils bestätigen, meine alte 9700pro, aber auch die X800XT meines Bruders neigen - egal ob mit oder ohne AI - wesentlich weniger zum Flimmern, als meine 6600GT mit HQ.

TrigPe
2005-10-17, 11:18:02
Es gibt keine "flimmerfreie" Karte. Das ist auch eine GeForce4 nicht, wenn die Texturen dazu neigen, einen anzuspringen. Nach ausgiebigen Tests kann ich aber sagen: ein R3x0 hat in 95% der Fälle flimmerfreies AF. Ein NV40 @ HQ flimmert laut meinen Augen oft mehr.

MfG,
Raff

Probier mal den Cat 5.9 oder 5.10. Die BQ hat sich imho recht deutlich verschlechtert. Naja, vielleicht bilde mich mir das auch nur ein. :|


MfG

Raff
2005-10-17, 11:26:45
Probier mal den Cat 5.9 oder 5.10. Die BQ hat sich imho recht deutlich verschlechtert. Naja, vielleicht bilde mich mir das auch nur ein. :|


MfG

Habe ich -- nichts. Noch immer besser als NV40 HQ.

MfG,
Raff

aths
2005-10-17, 12:42:53
Habe ich -- nichts. Noch immer besser als NV40 HQ.

MfG,
RaffInwiefern besser?

reunion
2005-10-17, 12:53:51
Inwiefern besser?

Es kommt weit seltener zu flimmernden Texturen, wobei "flimmern" vielleicht der falsche Ausdruck ist, das Bild ist auf jeden Fall deutlich ruhiger.

aths
2005-10-17, 12:59:20
Dass Radeon-Karten generell ein ruhiges Bild liefern würden, kann ich nicht bestätigen – WoW zum Beispiel empfinde ich mit der Radeon Mobility nicht gerade als besser im Vergleich zur 6600 GT. Allerdings habe ich auch AI aktiviert, während ich mit der GT in HQ oder mit Supersampling spielte.

reunion
2005-10-17, 13:11:17
Dass Radeon-Karten generell ein ruhiges Bild liefern würden, kann ich nicht bestätigen – WoW zum Beispiel empfinde ich mit der Radeon Mobility nicht gerade als besser im Vergleich zur 6600 GT. Allerdings habe ich auch AI aktiviert, während ich mit der GT in HQ oder mit Supersampling spielte.


WoW habe ich nicht, aber zB in BF2 oder in FarCry wirkt selbst AI_low besser als HQ IMHO. Speziell die Schatten, sowie Gräser sind auf der Radeon wesentlich weniger flimmeranfällig.

Fetza
2005-10-17, 13:12:52
Meiner meinung nach ist der r3xx deutlich besser in punkto bildquali, sowohl af als auch besonders aa. Ich persönlich habe mir die 6800 damals nur für doom3 gekauft, da die radeon 9800 da doch etwas zu langsam war. Jedoch bin ich vom nv40 in bezug auf bildquali eher entäuscht. Die texturen flimmern auch in hq deutlich mehr als gegenüber meiner alten radeon. Vom AA fang ich jetzt mal nicht an, das ist ein witz (der multisampling teil) wenn man bedenkt wieviel zeit zwischen den beiden karten liegt.

Gruss

Fetza

Raff
2005-10-17, 13:39:30
Dass Radeon-Karten generell ein ruhiges Bild liefern würden, kann ich nicht bestätigen – WoW zum Beispiel empfinde ich mit der Radeon Mobility nicht gerade als besser im Vergleich zur 6600 GT. Allerdings habe ich auch AI aktiviert, während ich mit der GT in HQ oder mit Supersampling spielte.

Dann mach' das SSAA bei der 6800 mal aus. Ich mache das seit einiger Zeit auch, da ich den Leuchteffekt zu lieben gelernt habe ... und damit geht leider kein SSAA.

Jedenfalls flimmert die 6800 in Darkshore, Stranglethorn oder sonstigen Gebieten mit Wald mehr als die 9800. Beide nur mit AF und MSAA, HQ, A.I. beim R350 an.

Und gerade der 81.84 ist mir suspekt ... meiner Meinung nach flimmert das noch deutlich mehr als mit einem End-70er. Muss das mal genauer untersuchen.

MfG,
Raff

Ailuros
2005-10-17, 14:26:05
Kannst du mir auch zumindest ein Beispiel nennen, wo man einen deutlichen Unterschied erkennt (zw. AI_low und AI_off), oder bist du nur darauf aus, mir etwas zu unterstellen?
Es gibt dazu im übrigen zahlreiche Tests im Netz, keiner vermochte eine sichtbare IQ-Verschlechterung auszumachen; aber schon klar, De gustibus non est disputandum.

Menschenskinder wenn Ihr nichts sehen koennt seit froh; ich hab gesagt ich werde wahrscheinlich in der absehbaren Zeit einen Artikel darueber schreiben.

Es gibt keine "flimmerfreie" Karte. Das ist auch eine GeForce4 nicht, wenn die Texturen dazu neigen, einen anzuspringen. Nach ausgiebigen Tests kann ich aber sagen: ein R3x0 hat in 95% der Fälle flimmerfreies AF. Ein NV40 @ HQ flimmert laut meinen Augen oft mehr.

Sicher wenn ich in einem maessigen Prozentual mit rTool damals die texturing stage Optimierung abstellte und den MIPmap LOD bias auf "quality" und ergo auf +0.5 drehte.

Die texturing-stage Optimierung ist eine der uebelsten ueberhaupt egal welche GPU. Seite an Seite mit der "mehr LOD fuer weniger AF samples" Optimierung die es aber nur seit R4xx/NV4x gibt.

Das MIPmapping zwischen den beiden GPU Familien ist so fundamental verschieden dass es normal ist dass Seiten-effekte manchmal in ganz verschiedenen Stellen auftreten. Serious Sam SE und/oder NFS PU und auch Far Cry waren zwei Beispiele wo bei Radeons generell mehr aliasing zu sehen war, weil die Entwickler mit LOD etwas verpatzt hatten und weil den Radeons und deren MIPmapping dieses nicht besonders schmeckte.

Und es geht mir hier ueberhaupt nicht wer besser oder mieser optimiert oder wer benchmarks gewinnt oder verliert; mir geht es darum dass wenn man Optimierungen abschalten muss wird es genauso oft auf beiden Seiten passieren.

***edit: wobei uebrigens WoW ein weiteres blendendes Beispiel von mieser Entwicklung seitens ISV ist.

Mr. Lolman
2005-10-17, 15:28:47
Menschenskinder wenn Ihr nichts sehen koennt seit froh; ich hab gesagt ich werde wahrscheinlich in der absehbaren Zeit einen Artikel darueber schreiben.



Sicher wenn ich in einem maessigen Prozentual mit rTool damals die texturing stage Optimierung abstellte und den MIPmap LOD bias auf "quality" und ergo auf +0.5 drehte.


War das nicht 0.25?


Die texturing-stage Optimierung ist eine der uebelsten ueberhaupt egal welche GPU. Seite an Seite mit der "mehr LOD fuer weniger AF samples" Optimierung die es aber nur seit R4xx/NV4x gibt.

Garnicht egal, welche GPU. Denn Ati überfiltert beim biAF so stark, dass das Mipband tw. kaum noch sichtbar ist. Zum Rest Ack.


Das MIPmapping zwischen den beiden GPU Familien ist so fundamental verschieden dass es normal ist dass Seiten-effekte manchmal in ganz verschiedenen Stellen auftreten. Serious Sam SE und/oder NFS PU und auch Far Cry waren zwei Beispiele wo bei Radeons generell mehr aliasing zu sehen war, weil die Entwickler mit LOD etwas verpatzt hatten und weil den Radeons und deren MIPmapping dieses nicht besonders schmeckte.


Ich bild mir (genauso wie reunion) ein, dass Farcry auf meinem R300 wenigwer flimmrig war.

Blaire
2005-10-17, 15:45:01
WoW habe ich nicht, aber zB in BF2 oder in FarCry wirkt selbst AI_low besser als HQ IMHO. Speziell die Schatten, sowie Gräser sind auf der Radeon wesentlich weniger flimmeranfällig.

BF2 wirkt besser? Na dann schau dir mal die MAP Gulf of Oman an, das grieselt schon im Vordergrund heftig auf einer X800XT selbst mit AI off. Da ist Nvidia@HQ deutlich besser. Da weiter entfernte Objekte auf Ati verwaschener aussehn das stimmt und natürlich dadurch nicht so flimmeranfällig.

Ailuros
2005-10-18, 01:02:13
War das nicht 0.25?

Nachweisen kann man es jederzeit, aber soweit ich mich erinnern kann waren es 0.5 Stufen.

Garnicht egal, welche GPU. Denn Ati überfiltert beim biAF so stark, dass das Mipband tw. kaum noch sichtbar ist. Zum Rest Ack.

Bei den Stellen wo man wirklich trilinear braucht, hilft es gar nichts.

Ich bild mir (genauso wie reunion) ein, dass Farcry auf meinem R300 wenigwer flimmrig war.

Nicht fuer mich und ueberhaupt was das Gruenzeug betrifft.

aths
2005-10-18, 01:57:19
Dann mach' das SSAA bei der 6800 mal aus. Ich mache das seit einiger Zeit auch, da ich den Leuchteffekt zu lieben gelernt habe ... und damit geht leider kein SSAA.

Jedenfalls flimmert die 6800 in Darkshore, Stranglethorn oder sonstigen Gebieten mit Wald mehr als die 9800. Beide nur mit AF und MSAA, HQ, A.I. beim R350 an.

Und gerade der 81.84 ist mir suspekt ... meiner Meinung nach flimmert das noch deutlich mehr als mit einem End-70er. Muss das mal genauer untersuchen.

MfG,
RaffIm Moment habe ich nur den Laptop, da kann ich meine 6600 GT nicht einbauen. Der Vollbildleucht-Effekt funzte bei mir aber auch mit Supersampling. (Auf Dauer nervte mich das Leuchten aber. Das hätten die nutzen können, wenn man frisch aus einem Dungeon kommt, und es dann langsam abklingen lassen.)

Coda
2005-10-18, 02:00:05
Und gerade der 81.84 ist mir suspekt ... meiner Meinung nach flimmert das noch deutlich mehr als mit einem End-70er. Muss das mal genauer untersuchen.Bei mir definitiv nicht. Manche beklagen sich aber darüber. Bug?

aths
2005-10-18, 02:11:02
Garnicht egal, welche GPU. Denn Ati überfiltert beim biAF so stark, dass das Mipband tw. kaum noch sichtbar ist.Nein. Die LOD-Bestimmung ist beim biAF manchmal so ungenau, dass das MIP-Banding durch ungewolltes "MIP-Map-Dithering" nur schwer zu sehen ist.

Raff
2005-10-18, 08:40:02
Bei mir definitiv nicht. Manche beklagen sich aber darüber. Bug?

Gute Frage, keine Ahnung. Kam bisher noch nicht dazu, mir das genauer anzusehen.

MfG,
Raff

Mr. Lolman
2005-10-18, 08:57:42
Nein. Die LOD-Bestimmung ist beim biAF manchmal so ungenau, dass das MIP-Banding durch ungewolltes "MIP-Map-Dithering" nur schwer zu sehen ist.

Müsste das ganze dann nicht auch flimmern? -> mehr als bei NV (wg. ungenauerer LOD-Bestimmung?)

/edit: Tut es aber nicht. Ganz im Gegenteil: Mir sind bis jetzt nur optische Vorteile afugrund dieser ungenauen LOD-Bestimmung aufgefallen. Eine geniale Optimierung :usweet:

aths
2005-10-18, 15:14:18
Müsste das ganze dann nicht auch flimmern? -> mehr als bei NV (wg. ungenauerer LOD-Bestimmung?)Inwiefern ist die LOD-Bestimmung bei der GeForce ungenau?

/edit: Tut es aber nicht. Ganz im Gegenteil: Mir sind bis jetzt nur optische Vorteile afugrund dieser ungenauen LOD-Bestimmung aufgefallen. Eine geniale Optimierung :usweet:Die Nachteile liegen auf der Hand: Einige Quads sind zu unscharf, andere überscharf. Um MIP-Banding wegzubekommen, sollte man mindestens trilineare Filterung verwenden. (Trilineare Filterung ist ja auch nur eine Annäherung an "echte" Texturverkleinerung.)

Mr. Lolman
2005-10-18, 17:07:02
Inwiefern ist die LOD-Bestimmung bei der GeForce ungenau?

Nö, die Ati Karten sind ungenauer als die NVidia Karten. So wars gemeint.


Die Nachteile liegen auf der Hand: Einige Quads sind zu unscharf, andere überscharf. Um MIP-Banding wegzubekommen, sollte man mindestens trilineare Filterung verwenden. (Trilineare Filterung ist ja auch nur eine Annäherung an "echte" Texturverkleinerung.)

Unscharf/überscharf aus der Sicht des Technikers, der gut sichtbare Mipmapübergänge vorraussetzt. Genau richtig aus der Sicht des Spielers der (aus welchen Gründen auch immer) sich für Atis biAF entschieden hat.

aths
2005-10-19, 07:09:57
Nö, die Ati Karten sind ungenauer als die NVidia Karten. So wars gemeint.Frag doch mal Ailuros, was er zur Flimmerfreiheit bei Radeonkarten sagt :)

Unscharf/überscharf aus der Sicht des Technikers, der gut sichtbare Mipmapübergänge vorraussetzt. Genau richtig aus der Sicht des Spielers der (aus welchen Gründen auch immer) sich für Atis biAF entschieden hat.Aus deiner Sicht als Spieler vielleicht. Die trilineare Filterung ist ja auch von der Ungenauigkeit betroffen (auch wenn man durch die MIP-Interpolation das ganze nicht so stark sieht.) Der Texturfilter ansich kann noch so exakt arbeiten, ohne genaue LOD-Bestimmung hat man davon nicht viel, aber zumindest bis einschließlich R480 arbeitet der Radeon-Texturfilter ja nicht gerade exakt. Für die meisten Fälle scheint es ja genau genug zu sein, ich hätte trotzdem lieber Reserve, um auch in schwierigen Fällen gut gefilterte Texturen zu sehen.

Mr. Lolman
2005-10-19, 15:40:14
Frag doch mal Ailuros, was er zur Flimmerfreiheit bei Radeonkarten sagt :)

Aus deiner Sicht als Spieler vielleicht. Die trilineare Filterung ist ja auch von der Ungenauigkeit betroffen (auch wenn man durch die MIP-Interpolation das ganze nicht so stark sieht.) Der Texturfilter ansich kann noch so exakt arbeiten, ohne genaue LOD-Bestimmung hat man davon nicht viel, aber zumindest bis einschließlich R480 arbeitet der Radeon-Texturfilter ja nicht gerade exakt. Für die meisten Fälle scheint es ja genau genug zu sein, ich hätte trotzdem lieber Reserve, um auch in schwierigen Fällen gut gefilterte Texturen zu sehen.

Die ungenaue Lod -Bestimmung verwischt ja tw. den Übergang zw. den Mipmapstufen (egal wie gut/schlecht das jetzt ist). Damit bei ATis biAF, die einzelnen Mips zum Übergang zur nächst kleineren hin nicht flimmrig werden (was auch der Fall ist) muss man Überfiltern, oder?

aths
2005-10-19, 16:46:38
Die ungenaue Lod -Bestimmung verwischt ja tw. den Übergang zw. den Mipmapstufen (egal wie gut/schlecht das jetzt ist). Damit bei ATis biAF, die einzelnen Mips zum Übergang zur nächst kleineren hin nicht flimmrig werden (was auch der Fall ist) muss man Überfiltern, oder?Er unterfiltert aber teilweise auch. Das siehst du nur nicht. Natürlich muss es da etwas flimmern, in einzelnen Quads. Das gilt sogar für trilineare Filterung, wobei trilineare Filterung grundsätzlich etwas weniger flimmeranfällig ist. (Allerdings gibts bezüglich trilinearer Filterung noch eine Sache, die ich bislang nicht verstanden habe und irgendwann noch mal in Ruhe durchdenken muss.)

Würde er so stark überfiltern, dass auch Herr Nyquist glücklich wäre, und würde man gleichzeitig die Sichtbarkeit des ungewollten MIP-"Ditherings" vermeiden, müsste man die Texturen sehr matschig darstellen.

sulak
2005-10-19, 18:00:55
D.h. lieber etwas matschigere Texturen in Kauf nehmen als Flimmern und Bugwellen? Gibts denn keine Lösung um mal ein gescheites Bild zu bekommen, das nicht ganz so matschig ist aber auch nicht gleich in totalem Flimmern ausartet?

Ailuros
2005-10-20, 04:17:44
D.h. lieber etwas matschigere Texturen in Kauf nehmen als Flimmern und Bugwellen? Gibts denn keine Lösung um mal ein gescheites Bild zu bekommen, das nicht ganz so matschig ist aber auch nicht gleich in totalem Flimmern ausartet?

In einem Fall wo der Entwickler zu stark negative LOD Werte fuer manche Texturen benutzt oder eben generell das MIPmapping im Spiel verpatzt hat, leider nicht.

aths
2005-10-20, 08:51:04
D.h. lieber etwas matschigere Texturen in Kauf nehmen als Flimmern und Bugwellen? Gibts denn keine Lösung um mal ein gescheites Bild zu bekommen, das nicht ganz so matschig ist aber auch nicht gleich in totalem Flimmern ausartet?Wenn der Entwickler nichts versaut und die Texturfilter so arbeiten, wie sie nach dem Lehrbuch sollten, dann hat man sehr gute Texturen.

Der Entwickler muss Texturmaterial erstellen, welches detailliert ist ohne jedoch "böse" zu sein. Zum Beispiel sind auf einer dunklen Fläche einzelne versprenkelte weiße Texel "böse".

Der Texturfilter darf nicht so genannt "optimiert" sein. Er muss zum Beispiel volle trilineare Filterung bieten, denn durch trilineare Filterung wird die Flimmeranfälligkeit in der Tendenz gesenkt. Wird nur "brilineare" Filterung geboten, steigt die Wahrnehmbarkeit von Texturflimmern. Beim AF darf auf keinen Fall unterfiltert werden, sonst: Flimmern. Es darf aber auch nicht stark überfiltert werden, sonst: Matsch.

Heutige Texturfilterung berechnet nur eine grobe Näherung im Vergleich zum "wahren", also mathematisch korrektem Textursample. Diese Approximation hat ihre eigenen Gesetze, die man beachten muss, um Texturflimmern zu vermeiden und dennoch eine detaillierte Texturierung zu gewährleisten.

Standardmäßige Unterfilterung à la NV40 und G70 ist schon mal ganz, ganz schlecht: Entweder Flimmergefahr oder der Zwang zu Matsch-Texturen.