Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia: Neue (und alte) Filtertricks


Leonidas
2006-02-16, 19:32:00
Link:
http://www.3dcenter.org/artikel/neue_filtertricks/

Note:
Bin gespannt, wenn wir in drei Wochen irgendwo mal wieder was positives zu nVidia sagen, daß wir dann dort gleich wieder als nVidia-Fanboys beschimpft werden ;)

Gast
2006-02-16, 19:55:03
Note:
Bin gespannt, wenn wir in drei Wochen irgendwo mal wieder was positives zu nVidia sagen, daß wir dann dort gleich wieder als nVidia-Fanboys beschimpft werden ;)


Oh je, ich hoffe das ist nicht dein ernst. Durch solche Kommentare bewirkt du nur das Gegenteil.

Kladderadatsch
2006-02-16, 20:24:29
mr. lolman hat da wirklich eine sehr eingängige und klare formulierung getroffen:)

auch wenn der kern des themas schon im artikel 'HighEnd-Chip G70: Nur noch mit flimmernder Grafik?' angesprochen wurde, gibts doch auch sehr interessante dinge. endlich mal eine so 'schöne' demonstration des flimmerns, auch die benchmarks haben sehr überrascht:up:

Grestorn
2006-02-16, 20:26:47
Nur als Anmerkung: Die beschriebenen Probleme sind tatsächlich allein vom ControlPanel verschuldet. Und dies macht noch sehr viel mehr falsch, was man genau sieht, wenn man mit RegMon mal schaut wann was geschrieben wird.

Wenn man externe Tools verwendet, um die jeweiligen Registry-Einträge zu modifizieren, funktioniert alles wie erwartet.

Das Panel ist, auch wenn es auf den ersten Blick nett und sinnvoll aussieht, intern eine Katastrophe. Ich bezweifle nicht, dass einige Effekte politisch motiviert sind, aber die meisten stammen m.E. tatsächlich schlicht von schlechter Arbeit des verantwortlichen Programmierers.

nV hat auch nichts zu gewinnen, wenn das Abschalten einer Optimierung eben diese nicht deaktiviert. Das fällt auf, und dieser Artikel ist bei weitem nicht das erste Mal, dass dies diskutiert wurde.

Leonidas
2006-02-16, 20:29:57
Oh je, ich hoffe das ist nicht dein ernst. Durch solche Kommentare bewirkt du nur das Gegenteil.


Ja, ok, war eventuell übertrieben. Also bitte nicht so ernst nehmen, ich bin aktuell zu müde, um was ernsthaftes zu sagen ;))

BlueI
2006-02-16, 20:48:07
Fazit, 3. Absatz:

[...] ATI hingegen erworb sich durch das so genannte "Area-AF" der Chips R20 und R580 einen derartigen optischen Vorteil, dass die Wahl für jeden Bildqlitäts-bewussten Spieler eigentlich eindeutig sein müsste. [...]

Ansonsten mal wieder ein richtig guter Artikel. :)

3dzocker
2006-02-16, 21:00:47
Toller Artikel, absolut lesenswert.
Schön ist auch beschrieben, wie man die maximale Grafikqualität auf NV40 und G70 hinbekommt.
Was mich im Zusammanhang mit meiner X800XT-PE interessiert, muss man dort auch solche Schritte durchfühen (Reihenfolge)?
Ist AI=aus AI=low vorzuziehen?
Wenn ja, warum?

tschau

Gast
2006-02-16, 21:07:20
Naja, der Artikel ist imho viel zu einseitig. Nach dem Motto "Nvidia cheatet und ATI macht nur gute, nützliche "Optimierungen".

Dass man bei ATIs Crossfire dazu gezwungen wird mit bri-AF zu spielen, wird natürlich nicht erwähnt.

Gast
2006-02-16, 21:10:08
Ist AI=aus AI=low vorzuziehen?
Wenn ja, warum?Von der Bildqualität ist AI off auf jeden Fall vorzuziehen, da es mit AI-low nur einen brilinearen Filter gibt. Allerdings opfert man auf diese Weise auch gleich sämtliche applikationsspezifischen, sinnvollen Optimierungen.

Das finde ich imho viel schlimmer. Entweder ich ertrage den bri-Filter oder ich muss Performanceeinbußen in Kauf nehmen. ATI sollte dringend die Filtercheats von den sinnvollen Optimierungen trennen und nicht alles in diesem dummen "AI"-Schalter zusammenfassen.

Mr. Lolman
2006-02-16, 21:19:58
vielleicht sollte man noch erwähnen, dass das Riddick gif mit maximal-möglicher Qualität entstanden ist.

Wegen ATis briFilter: Ist doch egal wie der heisst, solang die Qualität stimmt. Ich habs auch schon im Forum ein paar mal angedeutet: Wenn jemand einen sichtbaren Nachweis für schlechtere Qualität bei AIon bringen kann, immer her damit.

Bisher kenn ich keinen.

Gast
2006-02-16, 21:26:45
Ich will überhaupt keine Cheats sehen. Weder bei ATI noch bei NV. Man kann doch nicht andauernd auf vergleichbare BQ pochen und im nächsten Augenblick fordern, dass bri vs. tri gebencht wird?

Es ist doch wohl ein Unding, dass ATI ihren zahlenden Kunden nicht die Möglichkeit gibt mit vollem trilinearen Filter zu spielen ohne a) Crossfire "abzuschalten" bzw. b) sämtliche applikationsspezifischen Optimierungen abzuschalten.

3dzocker
2006-02-16, 21:27:12
Wegen ATis briFilter: Ist doch egal wie der heisst, solang die Qualität stimmt.

Das sehe ich anders, ich will volle trilineare Filterung, ich will, ich will, ich will.

Kann mal einer Screenshots verlinken/machen wo man den Unterschied zwi. bri - tr. sieht.
Kann mir das grad nicht vorstellen.
Zocke eigenlich immer mit "App. controlled" und AI=aus.
Was für Optimierungen gehen denn da flöten, mit AI=aus?
Könnte man direkt nen Artikel drüber schreiben... ;)

tschau

Gast
2006-02-16, 21:32:27
Was für Optimierungen gehen denn da flöten, mit AI=aus?So Sachen wie Shaderreplacement und evtl. auch irgendwelche Anpassungen des gehypten Memorycontrollers. Solange du kein Crossfire betreibst, ist es allerdings kein Weltuntergang mit AI off zu spielen.

Ja, auch ich denke, dass dieses Thema ebenfalls einen Artikel wert wäre.

Mr. Lolman
2006-02-16, 21:35:00
Das sehe ich anders, ich will volle trilineare Filterung, ich will, ich will, ich will.

Kann mal einer Screenshots verlinken/machen wo man den Unterschied zwi. bri - tr. sieht.
Kann mir das grad nicht vorstellen.
Zocke eigenlich immer mit "App. controlled" und AI=aus.
Was für Optimierungen gehen denn da flöten, mit AI=aus?
Könnte man direkt nen Artikel drüber schreiben... ;)

tschau

Ihr (du) unterschätzt ATis Hang zur Überfilterung.

Gerhard
2006-02-16, 22:12:24
Ja, durch starke Überfilterung kann sogar ein mathematisch und vom Endergebnis korrekter trilinearer Filter trotz samplen aus nur einer Mipmap (also Verwendung des BILINEAREN! Filter) erzeugt werden.

Der bei ATI verwendete brilineare Filter wird durch die Überfilterung tatsächlich vom Endergebnis ein nahezu perfekter trilinearer Filter, zumindest kann ich keine entsprechenden Probleme feststellen.

Fehlt dagegen die Überfilterung (NVidia) führt dies natürlich zu einer schlechteren Bildqualität. Auch wenn dies natürlich im Vergleich zu den sonstigen Optimierungen noch harmlos ist.

aths
2006-02-16, 22:14:25
Das fällt auf, und dieser Artikel ist bei weitem nicht das erste Mal, dass dies diskutiert wurde.Je öfter die Problematik öffentlich diskutiert wird, umso besser, finde ich.

Naja, der Artikel ist imho viel zu einseitig. Nach dem Motto "Nvidia cheatet und ATI macht nur gute, nützliche "Optimierungen".

Dass man bei ATIs Crossfire dazu gezwungen wird mit bri-AF zu spielen, wird natürlich nicht erwähnt.Der Artikel beschäftigt sich vorwiegend mit Bugs in Nvidias Treibern. Man kann in keinem Artikel eine allumfassende Darstellung geben. Es gibt auf 3DCenter auch Artikel, die sich gezielt ATI zur Brust nehmen.

Ihr (du) unterschätzt ATis Hang zur Überfilterung.Das entschärft die Problematik verringerter trilinearer Filterung allerdings fast gar nicht.


Ja, durch starke Überfilterung kann sogar ein mathematisch und vom Endergebnis korrekter trilinearer Filter trotz samplen aus nur einer Mipmap (also Verwendung des BILINEAREN! Filter) erzeugt werden.Das kann man so allgemein nicht sagen, und in Bezug auf AF-Überfilterung schon gar nicht. (AF nimmt zusätzliche Samples nur in einer Richtung, um MIP-Mapping "on the fly" zu emulieren, müsste man in beiden Achsen Zusatzsamples erstellen.)

Der bei ATI verwendete brilineare Filter wird durch die Überfilterung tatsächlich vom Endergebnis ein nahezu perfekter trilinearer Filter, zumindest kann ich keine entsprechenden Probleme feststellen.

Fehlt dagegen die Überfilterung (NVidia) führt dies natürlich zu einer schlechteren Bildqualität. Auch wenn dies natürlich im Vergleich zu den sonstigen Optimierungen noch harmlos ist.Ein Filter sollte weder unter- noch überfiltern. Nvidia versucht, mit der FX ging es los (dort allerdings kaum wahrnehmbar) beim AF (abgesehen von der starken Winkelabhängigkeit seit NV40) mittel Zusatzlogik zu sparen, in dem möglichst wenig überfiltert werden muss. Schon GeForce 3 bietet einen 6x-Zwischenmodus. Das ist sinnvoll. Nicht sinnvoll ist es, den Grad trilinearer Filterung zu verringen.

(del676)
2006-02-16, 22:17:34
wie siehts aus wenn man z.b. riddick.exe in foo.exe umbenennt?

Banshee18
2006-02-16, 22:51:48
Zwar nichts Neues, aber schön, dass dieses Thema endlich mal auch für "n00bs" verständlich erklärt wird. Ein sehr schöner Artikel, der kaum besser sein könnte. :up:

Fehler:
Fazit, 3. Absatz: Bildqlitäts
Seite 3, ganz am Anfang: Was ist ein "Mär"? Soll das Märchen heißen, oder ist nur mir der Ausdruck nicht bekannt?

Kladderadatsch
2006-02-16, 23:09:32
Seite 3, ganz am Anfang: Was ist ein "Mär"? Soll das Märchen heißen, oder ist nur mir der Ausdruck nicht bekannt?
eine mär ist praktisch ein märchen, was erfundenes jedenfalls.

Gast
2006-02-16, 23:10:07
den ausdruck gibts wirklich
kannst aber auch märchen sagen ist fast das gleiche

MadManniMan
2006-02-16, 23:48:41
Was ist ein "Mär"?

Die Mär ;)

Der Artikel hat mich doch ein Bisschen schockiert, hab ich doch Quake4 und Doom3 noch auf meiner einstigen 6600 gespielt - zum Glück(haha) konnte ich auf die Optimierungen der Geschwindigkeit wegen nicht verzichten. Hui.

Na ich bin mal gespannt, wie AI live aussieht... mit allem anderen außer HQ(hab fast nur D3D gezockt, von daher...) war ich bei meiner NV43 nicht wirklich zufrieden, wenn ich die Leistung übrig hatte.

paul.muad.dib
2006-02-17, 00:29:07
Schon wieder ein guter Artikel, der den Anspruch des 3DC unterstreicht. Wie sieht es eigentlich mit englischsprachigen Hardware-Reviews aus? Wird da auf vergleichbare BQ geachtet?
Wie verwende ich die UT2004 Testmap?

@aths:
Momentan scheinst du deine Avatare wie deine Unterwäsche zu wechseln, oder kommt mir das nur so vor?

OBrian
2006-02-17, 01:16:15
Wie verwende ich die UT2004 Testmap?
Mapdatei in das Verzeichnis mit den anderen Maps schieben, also UT2004\maps\ und dann einfach in der console "open aftest2" eingeben.


Nachdem wir ja wissen, daß weder mit Ati- noch nVidia-Karten wirklich 100%ige BQ ermöglicht wird, wäre ja mal interessant zu erfahren, wie z.B. die Volari-Karten abschneiden. Auch wenn die im Endeffekt für die wenigsten eine echte Alternative darstellen werden, hätte man zumindest eine Referenz, falls die irgendwas besser hinbekommen.

paul.muad.dib
2006-02-17, 01:20:50
Mapdatei in das Verzeichnis mit den anderen Maps schieben, also UT2004\maps\ und dann einfach in der console "open aftest2" eingeben.


Nachdem wir ja wissen, daß weder mit Ati- noch nVidia-Karten wirklich 100%ige BQ ermöglicht wird, wäre ja mal interessant zu erfahren, wie z.B. die Volari-Karten abschneiden. Auch wenn die im Endeffekt für die wenigsten eine echte Alternative darstellen werden, hätte man zumindest eine Referenz, falls die irgendwas besser hinbekommen.

1. Danke

2. Afaik können die Volaris weder AA noch AF. AA wird durch eine Blur-Filter simuliert, AF ist eine Show-Einstellung.

Anarchy-HWLUXX
2006-02-17, 01:57:07
Nice Artikel ... sehr interesannt ...

Wird es auch mal was ähnlich Detailliertes zu ATis Optimierungen geben ? Is doch geradezu pflicht, wenn scho denn scho beide Hersteller untersuchen.

Banshee18
2006-02-17, 02:13:01
..., AF ist eine Show-Einstellung.

Ich glaube, wenn man AF an macht, wird ein negativer Lod-Bias verwendet, was die Bildqualität sogar beinahe verschlechtert.

MountWalker
2006-02-17, 02:34:17
Naja, bei mir (Radeon 9700) ist seit Catalyst 6.2 in GT Legends ein ähnliches Rumgeflimmer an den Streckenlinien wie das der Artikel für Nvidia zeigt - erst seit 6.2, vorher war alles sauber. Überhaupt ist bei mir mit 6.2 einiges kaputt gegangen, so funktioniert keinerlei Einstellung zu AA mehr aus dem CCC, weswegen ich das CCC deinstalliert habe und wieder rTool nutze, damit läuft zwar AA wie es soll, aber schönes AF bekomme ich damit auch nicht mehr hin.

Kurz gesagt:
Könnte es sein, dass ATI jetzt mit Cat. 6.2 ein wenig Optimierungswahn von Nvidia übernommen hat?

Denniss
2006-02-17, 03:58:26
Ein sehr gelungener und interessanter Artikel.
Ich kann mir nicht vorstellen das NV je wieder mit irgendjemanden vom 3DC sprechen wird ... :biggrin:

Leonidas
2006-02-17, 06:16:06
Mapdatei in das Verzeichnis mit den anderen Maps schieben, also UT2004\maps\ und dann einfach in der console "open aftest2" eingeben.




Sofern UT2004 ordnungsgemäß installiert ist, reicht auch ein doppelklick auf die Datei, egal wo sie sich befindet.

Leonidas
2006-02-17, 06:19:29
Ich kann mir nicht vorstellen das NV je wieder mit irgendjemanden vom 3DC sprechen wird ... :biggrin:


Tja, diesbezüglich liegt wiederum nVidia vorn: Mit denen kann man trotz solcher Artikel (hatten wir ja auch in der Vergangenheit schon) reden und die sind diesbezüglich auch aufnahmebereit. Ein kritischer, aber nichts desto trotz produktiver und beiderseitiger Kontakt.

Um so mehr ist es verwunderlich, welche Politik ATI gegenüber dem 3DC an den Tag legt. ATI ist lange nicht mehr so gut weggekommen bei 3DC wie dieser Tage - was aber primär daran liegt, welche Produkte ATI am laufen hat. Wenn wir in dieser doch günstigen Situation immer noch unter der Würde von ATI sein sollen, weiß ich auch nicht mehr weiter ...

seahawk
2006-02-17, 08:25:06
Guter Artikel aber ich hätte mir ein deutlich formulierters Fazit gewünscht.

Man hätte klar sagen sollen, dass die BQ der NV Karten nicht konkurrenzfähig ist, wenn man die üblichen Standardeinstellungen des Treibers nutzt.

Matthias80
2006-02-17, 08:58:12
top

Gast
2006-02-17, 09:10:47
So Sachen wie Shaderreplacement und evtl. auch irgendwelche Anpassungen des gehypten Memorycontrollers. Solange du kein Crossfire betreibst, ist es allerdings kein Weltuntergang mit AI off zu spielen.

Warum sollte man überhaupt mit AI-off spielen?
Oder nenn mal ein Spiel, wo es qualitative Unterschiede zwischen AI-off und AI-low gibt. Würde ich mir gerne näher ansehen, da ich immer mit AI-low spiele und bisher keine Kompromisse eingehen musste...

robbitop@work
2006-02-17, 09:12:30
Tja, diesbezüglich liegt wiederum nVidia vorn: Mit denen kann man trotz solcher Artikel (hatten wir ja auch in der Vergangenheit schon) reden und die sind diesbezüglich auch aufnahmebereit. Ein kritischer, aber nichts desto trotz produktiver und beiderseitiger Kontakt.

Um so mehr ist es verwunderlich, welche Politik ATI gegenüber dem 3DC an den Tag legt. ATI ist lange nicht mehr so gut weggekommen bei 3DC wie dieser Tage - was aber primär daran liegt, welche Produkte ATI am laufen hat. Wenn wir in dieser doch günstigen Situation immer noch unter der Würde von ATI sein sollen, weiß ich auch nicht mehr weiter ...
Schon ziemlich erbärmlich, wie schlecht IHVs mit Kritik umgehen können (und aus der Presse eigentlich nur Loblieder hören wollen). Da schließe ich derzeit keinen IHV außer S3 Graphics (aus guten Gründen!!) aus.

Monger
2006-02-17, 09:23:14
Hui, harte Worte...

Da meine letzte nVidia Karte eine Riva TNT2 war, kann ich da nicht ganz mitreden ;)

Aber für mich ist der zentrale Satz folgender:


Dabei wäre es doch einfach: Jeder, der einen Test für eine Grafikkarte zu schreiben plant, spielt zuerst jedes Spiel wenigstens eine halbe Stunde lang und achtet dabei besonders auf die Darstellungsqualität. Dann wählt man eine Szene mit möglichst scharfen Texturen und macht ein verlustfrei komprimiertes Bild davon, natürlich von jeder Karte. Hat man das Gefühl, dass die Bildqualitäts-Unterschiede zwischen den Karten zu groß sind, überprüft man nochmal die Treibereinstellungen und versucht, mittels Anpassen der Optionen eine möglichst gleiche Bildqualität zu erreichen - wobei natürlich das Ziel ist, eine insgesamt möglichst hohe Qualität zu erreichen. Ist das geschafft, fertigt man neue Screenshots an und dann erst macht man sich ans Benchen.


GENAU so ist es! Mich interessiert es als Kunden letztendlich nicht, ob das jetzt brilinear, voll trilinear oder gar nicht gefiltert wurde. Alles was mich interessiert ist, wie es letztendlich aussieht.
Wenn z.B. ATI Optimierungen vornimmt die mir überhaupt nicht auffallen, ist das für mich ok. Wenn ich etwas Leistung über habe und dafür ein schöneres Bild will, schalte ich halt nach und nach bildverbessernde Maßnahmen hinzu.

Der gesamte technische Background ist für einen Otto-Normaluser völlig uninteressant. Dass man vom Kunden einen so hohen Kenntnisstand verlangt um das Control Panel zu bedienen, ist eigentlich eine Frechheit.

Mir leuchtet es deshalb völlig ein, dass man erst anhand der Screenshots eichen muss, bevor man Benchmarks fahren kann.
Bei Grafikkarten gibt es nunmal zwei Parameter: Geschwindigkeit und Bildqualität. Um eins zu messen, muss man das andere fix halten.

Ich fände übrigens auch die andere Variante interessant: Mal zu vergleichen, wieviel Bildqualität man bei Karte X und Y bei - sagen wir mal - 45 fps rauskitzeln kann. Das ergibt zwar ein wesentlich groberes Raster, aber es entspricht eher der Realität. Denn dann kann der Kunde sehen: "Wenn ich die Karte X kaufe, kann ich Spiele spielen die etwa so gut aussehen, wenn ich Karte Y kaufe, sieht es entsprechend besser/schlechter aus."

Das ist realistisch und praktikabel.

Rente
2006-02-17, 10:22:00
Von der Bildqualität ist AI off auf jeden Fall vorzuziehen, da es mit AI-low nur einen brilinearen Filter gibt. Allerdings opfert man auf diese Weise auch gleich sämtliche applikationsspezifischen, sinnvollen Optimierungen.

Das finde ich imho viel schlimmer. Entweder ich ertrage den bri-Filter oder ich muss Performanceeinbußen in Kauf nehmen. ATI sollte dringend die Filtercheats von den sinnvollen Optimierungen trennen und nicht alles in diesem dummen "AI"-Schalter zusammenfassen.
Man kann bei ATi aber mit externen Tools, wie dem ATT volle Trilineare Filterung erzwingen, und das geht bei NVidia leider nicht.
Oder kann man die Optimierung in UT2004 irgendwie umgehen, z.B. durch das editieren einer Profildatei von NVidia?

Gast
2006-02-17, 10:36:50
diesen absatz kann ich bei mir (6800GT, forceware 83.40) nicht wirklich nachvollziehen.

Deaktiviert man nicht einzeln alle "Optimierungen", bevor man auf HighQuality schaltet, sind sie unter OpenGL immer noch aktiv. Wer über diesen Punkt nicht Bescheid weiß, oder aber nicht per Zufall dieserart seine Treiber-Einstellungen getätigt hat, bekommt unter OpenGL-Spielen also generell keine HighQuality-Grafikqualität bei nVidia geboten - und dies seit geraumer Zeit (getestet mit den meisten wichtigen Treibern von 66.72 bis 83.40).

das problem besteht einzig allein mit der "anisotropen mip-filter-optimierung".
was man mit den anderen optimierungen anstellt ist vollkommen egal, wenn man HQ einstellt sind sie deaktiviert, sowohl unter OGL als auch unter D3D, zumindest bei mir.

grundsätzlich gefällt mir der artikel sehr gut, er zeigt schön sachlich die "probleme" aktueller treiber bzw. des control-panels.

weniger gut finde ich riddick als beispiel für flimmernde texturen durch "filteroptimierungen" herzunehmen, soweit ich mich erinnern kann flimmert es sowohl auf ati als auch auf nv-karten mit und ohne AF sehr stark, was eher darauf schließen lässt dass das problem am texturmaterial liegt.
ein spiel mit "besserem" texturmaterial wäre imo eher angebracht.

ganz und garnicht kann ich mich allerdings diesem satz anschließen:

Als lobende Ausnahmen seien die ComputerBase (seit ein paar Monaten) und die PC Games Hardware (seit der Ausgabe 02/06) erwähnt

beide deaktivieren zwar auf NV-karten die optimierungen, lassen sie aber im gegenzug bei ATI-karten aktiviert. ein derartiges verhalten in einem artikel der sich offenbar grundsätzlich gegen "filteroptimierungen" ausspricht zu loben halte ich für extrem inkonsequent.

nicht umsonst gibt es formeln für bi/trilineare filterung (beim AF hat man das ja leider versäumt) an die sich die IHVs zu halten haben, da sollte man auch so testen dass sich alle so nah wie möglich daran halten.

Detritus
2006-02-17, 10:37:46
Prima Artikel, gefällt mir inhaltlich gut ich werde bei meiner 6800GT mal drauf achten. Trotzdem:

<korinthenkacking>
Zitat der Einleitung
Am PC Antialiasing (AA) und anisotrope Filterung (AF) zu aktivieren, ist für die meisten Spieler erst seit einigen Jahren gang und gäbe. Dabei gibt es die Features schon seit mehr als einem halben Jahrzehnt.
imho sind "einige Jahre" "einem halben Jahrzehnt" reichlich ähnlich...
</korinthenkacking>


Entschuldigung schon vorab für's kleinlich sein; mir ist das nur sofort ins Auge gestochen.

BlackArchon
2006-02-17, 12:29:45
Zwei Dinge sind mir aufgefallen:

- Im Abschnitt 'So sieht man die "brilineare" Filterung bei Unreal Tournament 2004:' (auf Seite 2) steht bei Punkt 5 'Mit Doppelklick starten, mit der Tabulator-Taste (alternativ "ö") die UT2004-Konsole aufrufen und eingeben.'. Ja was soll man denn eingeben? Der Satz ist nicht zu Ende geführt worden.
- Auf Seite 3 beim Benchmark-Diagramm, wo die CPU und das Mainboard angegeben sind, steht 'AMD Athlon 64 3700 @ 2.4 GHz - Asus K84-E Deluxe (nVidia nForce4-4X)'. Das Plus nach 3700 fehlt, dann könnte das '@ 2.4 GHz' (abgesehen davon, dass das ein Komma statt eines Punktes sein müsste) gleich ganz weggelassen werden, schließlich ist das nur der Standardtakt der CPU. Und das Mainboard heißt K8N4-E Deluxe, da fehlt ein 'N'.

Ansonsten bin ich positiv überrascht, dass es Mr. Lolman gelungen ist, diesen Artikel ziemlich vorurteilsfrei und ohne Seitenhiebe zu erstellen. Hätte ich gar nicht so erwartet.

MountWalker
2006-02-17, 12:40:53
...beide deaktivieren zwar auf NV-karten die optimierungen, lassen sie aber im gegenzug bei ATI-karten aktiviert. ein derartiges verhalten in einem artikel der sich offenbar grundsätzlich gegen "filteroptimierungen" ausspricht zu loben halte ich für extrem inkonsequent....
Es geht darum möglichst gleiche Resultate zu erzeugen und wenn man bei ATI auf HQ stellen würde, wäre die Winkeloptimierung deaktiviert, was bei Nvidia nicht geht. Deswegen kann man nicht ernsthaft ATI auf HQ stellen wenn man vergleichbare Vorraussetzungen schaffen will. ;)

blutrausch
2006-02-17, 13:52:06
ich finde den artikel großartig, etliche informationen die mir bisher nicht bekannt waren und sehr schön und verständlich geschrieben. auch eine sehr interessantes fazit
weiter so :)

(del676)
2006-02-17, 14:03:38
jop, vergleichbare vorraussetzungen wären super
ned einfach 4xAA 16xAF HQ gegeneinander benchen
bei nvidia braucht man da leider oft 8xS weils grieselt!

aths
2006-02-17, 14:09:03
@aths:
Momentan scheinst du deine Avatare wie deine Unterwäsche zu wechseln, oder kommt mir das nur so vor?Mein Standard-Avatar, die Kichererbse, wird wieder kommen.


Ich glaube, wenn man AF an macht, wird ein negativer Lod-Bias verwendet, was die Bildqualität sogar beinahe verschlechtert.Nicht nur "beinahe". Eine Änderung des LOD-Bias', egal in welche Richtung, verschlechtert die Bildqualität.


Ein sehr gelungener und interessanter Artikel.
Ich kann mir nicht vorstellen das NV je wieder mit irgendjemanden vom 3DC sprechen wird ... :biggrin:Ich kann mir das schon vorstellen. Was der Treiber verhaut, wurde mit Bildern belegt. Und ich kenne Nvidia gut genug das ich weiß, dass die nicht nur mit servilen Artikelschreibern reden.

Gast
2006-02-17, 14:18:27
Es geht darum möglichst gleiche Resultate zu erzeugen und wenn man bei ATI auf HQ stellen würde, wäre die Winkeloptimierung deaktiviert, was bei Nvidia nicht geht. Deswegen kann man nicht ernsthaft ATI auf HQ stellen wenn man vergleichbare Vorraussetzungen schaffen will. ;)Er meint nicht das HQ-AF. Das sollte man der Vergleichbarkeit wegen natürlich ausschalten zum Benchen. Viel wichtiger ist, dass bei ATI auch AI ausgeschaltet wird, da man mit angeschaltetem AI nur brilineare Filterung bekommt, während es bei NV in HQ i.d.R. volles tri gibt.

Mr. Lolman
2006-02-17, 14:50:12
Nicht nur "beinahe". Eine Änderung des LOD-Bias', egal in welche Richtung, verschlechtert die Bildqualität.

Da sind wir uns anscheinend immernoch nicht einig. Du kennst meine biAF Pics, die ich dir in der PN geschickt hab. Da sieht man, dass Ati 1. einen negativen LOD Bias hat, und 2. die deutlich bessere BQ. (Vom zu wünschenden flimmerfreien Optimum aus betrachtet. lehrbuch konformer bilinear ist natürlich NVs Filter, aber dementsprechen auch flimmrig und mit Mip-Banding behaftet. Das gleiche gilt auch fürs brilineare Filtering und für AF ohne Mipmaps)

Und anscheinend sind sich div. verschiedene (Renn-)Spieledesigner einig, dass für (geringfügig) negativen LOD-Bias doch hinundwieder ne Notwendigkeit besteht (siehe dazu meine letzten Kommentare in der Artikelvorabversion)

Raff
2006-02-17, 15:11:19
Nicht nur "beinahe". Eine Änderung des LOD-Bias', egal in welche Richtung, verschlechtert die Bildqualität.

Sofern kein SSAA zum Einsatz kommt, ja. Negative Einstellungen und besagtes AA schauen aber richtig dosiert meist sehr gut aus (3dfx ahoi).

MfGm
Raff

aths
2006-02-17, 16:03:18
Sofern kein SSAA zum Einsatz kommt, ja. Negative Einstellungen und besagtes AA schauen aber richtig dosiert meist sehr gut aus (3dfx ahoi).Normales Supersampling justiert das LOD von sich aus richtig, das hatte 3dfx nur verdüst. Supersampling erhöht die Abtast-Rate, und das LOD-Bias muss natürlich auf die tatsächlich verwendete Sampling-Frequenz bezogen werden. Jegliches Spielen am LOD-Bias bringt – einigermaßen vernünftigen Content vorausgesetzt – grundsätzlich Nachteile.

Da sind wir uns anscheinend immernoch nicht einig. Du kennst meine biAF Pics, die ich dir in der PN geschickt hab. Da sieht man, dass Ati 1. einen negativen LOD Bias hat, und 2. die deutlich bessere BQ. (Vom zu wünschenden flimmerfreien Optimum aus betrachtet. lehrbuch konformer bilinear ist natürlich NVs Filter, aber dementsprechen auch flimmrig und mit Mip-Banding behaftet. Das gleiche gilt auch fürs brilineare Filtering und für AF ohne Mipmaps)

Und anscheinend sind sich div. verschiedene (Renn-)Spieledesigner einig, dass für (geringfügig) negativen LOD-Bias doch hinundwieder ne Notwendigkeit besteht (siehe dazu meine letzten Kommentare in der Artikelvorabversion)Niemals besteht eine Notwendigkeit zum negativen LOD-Bias. Warum LFS standardmäßig einen Bias von -2 hat, ist mir unverständlich. Wollten die das Flimmern à la Gran Turismo nachstellen, damit sich Playstation-Umsteiger sofort wie zuhause fühlen? Auch eine ingame AA-Einstellung suche ich vergebens. Behauptung: Die LFS-Macher legen nicht allzu viel Wert auf flimmerfreie Bildqualität.

ATIs leicht negativer Standard-Bias könnte auch die Folge ungenauer LOD-Bestimmung sein, womöglich wurde beim Runden gespart, so dass er tendenziell ein wenig zu früh abrundet (die letzten Bitstellen abschneidet statt rundet.) Damit Texturen mit anisotroper Filterung noch gut aussehen, muss es sich um "natürliche" Texturen handeln. Dünne, kontrastreiche Linien sind immer problematisch, auch schon bei isotroper Filterung.

Jeglicher Filter ist nur dafür gedacht, mit korrektem LOD eingesetzt zu werden. Wie in Kürze in einer angesehenen Zeitschrift zu lesen sein wird, ist die LOD-Bestimmung bei isotroper Filterung bereits ein Kompromiss. Wollte man Aliasing (sofern man keine richtig "bösen" Texturen hat) ganz vermeiden, müsste man bei bilinearer Filterung +0.5 nehmen. Tatsächlich wird bei korrekter Filterung und aktueller LOD-Berechnung eine halbe MIP-Stufe lang streng genommen schon unterfiltert. Das funktioniert solange gut, wie man "natürliche" Texturen hat. Dünne Striche in Rennspielen bringen diesen Kompromiss an seine Grenzen. Hier kann tendenzielle AF-Überfilterung natürlich die Problematik abschwächen.


Man sollte das Pferd von der richtigen Seite aufzäumen und nicht versuchen, den Teufel mit dem Beelzebub auszutreiben. Wie in Unreal erst unscharfe Texturen zu nehmen und dafür das Bias ins Negative zu verschieben ist indisktuabel. Wenn LFS versucht, AF via LOD-Bias zu "simulieren", müsste man XGIs "AF"-Einstellung genauso rechtfertigen.

Mr. Lolman
2006-02-17, 16:18:48
Normales Supersampling justiert das LOD von sich aus richtig, das hatte 3dfx nur verdüst. Supersampling erhöht die Abtast-Rate, und das LOD-Bias muss natürlich auf die tatsächlich verwendete Sampling-Frequenz bezogen werden. Jegliches Spielen am LOD-Bias bringt – einigermaßen vernünftigen Content vorausgesetzt – grundsätzlich Nachteile.

Wie soll das gehen, wenn das Supersampling übern einen Multisamplingbuffer (T-Buffer) realisiert wird? Da ändert sich das LOD ja nicht. Nur die Flimmeranfälligkeit nimmt ab. Bei solcherart AA muss man immer das LOD-Bias anpassen, wenn man maximalen optischen Gewinn erzielen will.


Niemals besteht eine Notwendigkeit zum negativen LOD-Bias. Warum LFS standardmäßig einen Bias von -2 hat, ist mir unverständlich. Wollten die das Flimmern à la Gran Turismo nachstellen, damit sich Playstation-Umsteiger sofort wie zuhause fühlen? Auch eine ingame AA-Einstellung suche ich vergebens. Behauptung: Die LFS-Macher legen nicht allzu viel Wert auf flimmerfreie Bildqualität.

Du kennst die Screenshots aus dem Artikel. Mit LOD 0.0 ist die Grafik an manchen stellen zu unscharf (2). Bei GTR/GTL ist die Problematik noch heftiger. Ich such dir gerne die Threads + Pics raus.


ATIs leicht negativer Standard-Bias könnte auch die Folge ungenauer LOD-Bestimmung sein, womöglich wurde beim Runden gespart, so dass er tendenziell ein wenig zu früh abrundet (die letzten Bitstellen abschneidet statt rundet.) Damit Texturen mit anisotroper Filterung noch gut aussehen, muss es sich um "natürliche" Texturen handeln. Dünne, kontrastreiche Linien sind immer problematisch, auch schon bei isotroper Filterung.

Jeglicher Filter ist nur dafür gedacht, mit korrektem LOD eingesetzt zu werden. Wie in Kürze in einer angesehenen Zeitschrift zu lesen sein wird, ist die LOD-Bestimmung bei isotroper Filterung bereits ein Kompromiss. Wollte man Aliasing (sofern man keine richtig "bösen" Texturen hat) ganz vermeiden, müsste man bei bilinearer Filterung +0.5 nehmen. Tatsächlich wird bei korrekter Filterung und aktueller LOD-Berechnung eine halbe MIP-Stufe lang streng genommen schon unterfiltert. Das funktioniert solange gut, wie man "natürliche" Texturen hat. Dünne Striche in Rennspielen bringen diesen Kompromiss an seine Grenzen. Hier kann tendenzielle AF-Überfilterung natürlich die Problematik abschwächen..

Der letzte Satz triffts auf den Punkt. Denn auch bei brilinearer Filterung wird unterfiltert, und mit ATis tendenzieller Überfilterung wieder halbwegs wieder ausgeglichen. (im Sinne von Flimmeranfälligkeit. Der verringerte Interpolationsgrad zw. den Mips bleibt natürlich)


Man sollte das Pferd von der richtigen Seite aufzäumen und nicht versuchen, den Teufel mit dem Beelzebub auszutreiben. Wie in Unreal erst unscharfe Texturen zu nehmen und dafür das Bias ins Negative zu verschieben ist indisktuabel. Wenn LFS versucht, AF via LOD-Bias zu "simulieren", müsste man XGIs "AF"-Einstellung genauso rechtfertigen.

Es gibt auch bei LOD 0.0 Texturen (böse Texturen) die ohne Überfilterung zum Flimmern neigen. Hier hat ATi einen weiteren (geringen) Vorteil.

desperado2000
2006-02-17, 16:19:13
Gibt es ein Tool das die in diesem Artikel beschriebenen Optimierungen und Filtertriks komplett ausschaltet kann?

Ich würde gern mal testen ob dann diese komische Bugwelle bei Bf2 mit einer 6800@GT verschwindet.

(del676)
2006-02-17, 16:36:23
seit heute kann ich bestätigen dass man mit einem GTX SLI niemals auf die Bildqualität EINER 1900XT kommen kann - zumindest mal nicht in GTR, GTL

MadManniMan
2006-02-17, 16:46:14
Wie soll das gehen, wenn das Supersampling übern einen Multisamplingbuffer (T-Buffer) realisiert wird? Da ändert sich das LOD ja nicht. Nur die Flimmeranfälligkeit nimmt ab. Bei solcherart AA muss man immer das LOD-Bias anpassen, wenn man maximalen optischen Gewinn erzielen will.

Und warum macht das der Treiber nicht allein ;)

aths
2006-02-17, 17:51:23
Vorausschickend möchte ich sagen, dass das mit der Wahrnehmungspsychologie so eine Sache ist. Das mathematisch beste Ergebnis wird von vielen nicht als optimal empfunden, sie schätzen je nach Situation überschärfte, zu unscharfe, zu grisselige oder zu glatte Bilder als "besser" ein. Jeder sollte seinen Grafiktreiber so einstellen, dass ihm das Bild am besten gefällt. Wer zum Beispiel Quinuncx mag, soll es nehmen. Wer es überschärft mag, soll am LOD-Bias spielen oder die Texturfilterung nicht auf "HQ" setzen und bei Q belassen.

Doch reden wir über persönliche Vorlieben, kommen wir nie zu gesicherten, da belegbaren Aussagen. Der perfekte Texturfilter würde Samples erzeugen, wie sie bei unendlichfachem Supersampling herauskommen würden. Isotrope und bisher realisierte anisotrope Verfahren können das selbst dann nicht erreichen, wenn sie voll nach Lehrbuch vorgehen und mit maximaler Genauigkeit rechnen.

Isotrope Filterung mit MIP-Mapping wurde erfunden, um die Kosten (Taktzyklen) für ein Textursample konstant zu halten. Bisher realisierte anisotrope Filterung baut auf isotroper auf, und verbessert das Ergebnis erheblich.

Es ist aber immer günstiger, lieber in voller Qualität zu filtern, also ohne "Optimierungen", als die Nachteile der "Optimierung" mit Supersampling ausbügeln zu müssen. Mit Supersampling nähert man sich dem mathematisch exakten Ergebnis an. Daher meine Forderung, ein mathematisch möglichst exaktes Sample auch ohne Supersampling zu gewährleisten. Daraus folgt, dass man am LOD-Bias nicht spielen sollte.

Wie soll das gehen, wenn das Supersampling übern einen Multisamplingbuffer (T-Buffer) realisiert wird? Da ändert sich das LOD ja nicht. Nur die Flimmeranfälligkeit nimmt ab. Bei solcherart AA muss man immer das LOD-Bias anpassen, wenn man maximalen optischen Gewinn erzielen will. Es ist nicht entscheidend, wo die Daten liegen, also ob im Multisample-Buffer oder nur in einem hochskalierten Framebuffer. Bei 2x SSAA dürfte man eigentlich kein generelles LOD-Bias nutzen, da nur in eine Richtung höher abgetastet wird, aber die MIPs in beide Richtungen skalieren. Bei 4x sparse AA wäre ein LOD-Bias von knapp -1 ok. Das sollte der Treiber von sich aus machen.


Du kennst die Screenshots aus dem Artikel. Mit LOD 0.0 ist die Grafik an manchen stellen zu unscharf (2). Bei GTR/GTL ist die Problematik noch heftiger. Ich such dir gerne die Threads + Pics raus.Es darf aber nicht zu unscharf sein. Ist es zu unscharf, sind entweder die Texturen blöd, oder man hat die Nachteile die dadurch entstehen, dass MIP-Maps auf beiden Achsen skaliert werden woraus folgt, dass man bei Aliasingvermeidung in der Regel in einer Richtung erheblich überfiltert. Nur möglichst winkelunabhängiges AF kann dem – bis zu einem gewissen Verzerrungsgrad – abhelfen.

Der letzte Satz triffts auf den Punkt. Denn auch bei brilinearer Filterung wird unterfiltert, und mit ATis tendenzieller Überfilterung wieder halbwegs wieder ausgeglichen. (im Sinne von Flimmeranfälligkeit. Der verringerte Interpolationsgrad zw. den Mips bleibt natürlich)AF nimmt zusätzliche Samples in eine Richtung, MIPs skalieren in beide Richtungen. Die stärkste AF-Überfilterung kann bei zu starker Unterfilterung kein Flimmern verhindern. Es ist offensichtlich, dass es viel effizienter ist, AF ohne Überfilterung zu realisieren und es – unter anderem mit einer volltrilinearen Filterung – gar nicht erst flimmern zu lassen.

Wir haben die Wahl: Bilinear mit LOD-Bias von +0,5 oder trilinear. Das erste ist in der Regel zu unscharf, das zweite verdoppelt mal kurz die Takte die man sampelt. Angesichts der extremen Texelfüllrate die heutige Mittelklassekarten schon bieten, halte ich es für sinnvoller, voll trilinear zu filtern und beim AF auch keine Samples einzusparen. Lieber eine Auflösungsstufe geringer und dafür Flimmerfreiheit bei gleichzeitig schön scharfen Texturen, als "optimierte" Einstellungen in 1600x1200.

Es gibt auch bei LOD 0.0 Texturen (böse Texturen) die ohne Überfilterung zum Flimmern neigen. Hier hat ATi einen weiteren (geringen) Vorteil.ATIs AF überfiltert nur tendenziell, nicht generell. Der Texturfilter ist nicht für "böse" Texturen gedacht, deshalb sind die Texturen ja auch "böse". Selbst Extremsupersampling kann bei bestimmten "bösen" Texturen ein Flimmern nicht verhindern. Der perfekte Texturfilter, es wurde schon gesagt, würde das Sample liefern was man mit Extremsupersampling bekommen würde. Man sollte prinzipiell keine bösen Texturen einsetzen. Wenn ein Texturfilter hier (erwartungsgemäß) versagt, ist das nur richtig so.

Bei flimmeranfälligen, aber nicht vollbösen Texturen (also das Szenario, was du angesprochen hast) kann zwar Überfilterung hilfreich sein, aber man opfert damit dann auch wieder bei anderen, guten Texturen Bildschärfe.

Gast
2006-02-17, 18:07:30
Es geht darum möglichst gleiche Resultate zu erzeugen und wenn man bei ATI auf HQ stellen würde, wäre die Winkeloptimierung deaktiviert, was bei Nvidia nicht geht. Deswegen kann man nicht ernsthaft ATI auf HQ stellen wenn man vergleichbare Vorraussetzungen schaffen will. ;)

es geht nicht um das area-AF, sondern in erster linie um die bri-optimierung und etwaige sample-optimierungen bei AI-on.

Mr. Lolman
2006-02-17, 18:50:11
Vorausschickend möchte ich sagen, dass das mit der Wahrnehmungspsychologie so eine Sache ist. Das mathematisch beste Ergebnis wird von vielen nicht als optimal empfunden, sie schätzen je nach Situation überschärfte, zu unscharfe, zu grisselige oder zu glatte Bilder als "besser" ein. Jeder sollte seinen Grafiktreiber so einstellen, dass ihm das Bild am besten gefällt. Wer zum Beispiel Quinuncx mag, soll es nehmen. Wer es überschärft mag, soll am LOD-Bias spielen oder die Texturfilterung nicht auf "HQ" setzen und bei Q belassen.

Doch reden wir über persönliche Vorlieben, kommen wir nie zu gesicherten, da belegbaren Aussagen. Der perfekte Texturfilter würde Samples erzeugen, wie sie bei unendlichfachem Supersampling herauskommen würden. Isotrope und bisher realisierte anisotrope Verfahren können das selbst dann nicht erreichen, wenn sie voll nach Lehrbuch vorgehen und mit maximaler Genauigkeit rechnen.

Isotrope Filterung mit MIP-Mapping wurde erfunden, um die Kosten (Taktzyklen) für ein Textursample konstant zu halten. Bisher realisierte anisotrope Filterung baut auf isotroper auf, und verbessert das Ergebnis erheblich.

Es ist aber immer günstiger, lieber in voller Qualität zu filtern, also ohne "Optimierungen", als die Nachteile der "Optimierung" mit Supersampling ausbügeln zu müssen. Mit Supersampling nähert man sich dem mathematisch exakten Ergebnis an. Daher meine Forderung, ein mathematisch möglichst exaktes Sample auch ohne Supersampling zu gewährleisten. Daraus folgt, dass man am LOD-Bias nicht spielen sollte.

Ich fürchte wir werden diesbezügl. nie gemeinsam auf einen grünen Zweig kommen. Denn imo ists 1. nicht möglich ein exaktes Sample ohne Supersampling zu bekommen, und 2. bewegen sich viele Texturfilteroptimierungen in der Grauzone zw. mathematischem Optimum und menschlicher Wahrnehmungsschwelle, und 3. gehts letztenendes immernoch um die fps.

Warum also die BQ nicht subtil verschlechteren, wenn damit manche Spiele länger spielbar bleiben. Bei den meisten Usern (ok auch sehr subjektiv!) käme das dem Kosten-Nutzen-Verhältnis entgegen. Und genau, das Ziel verfolgen die IHV mit der Entwicklung von MSAA/AAA/AF. Bei 8xSGSSAA (meinetwegen 16 oder gleich 64, egal) und angepasstem LOD, könnte man sich in vielen Fällen AF schon komplett sparen. Bei dermassen negativen LOD bräuchte man auch keinen trilinearen Filter mehr und könnte sich so auch eine etwaige "bri" Logik im Chip sparen. Dann baut man einfach ein Füllratenmonster und gut ist.

Erkennt jemand die Parallelen zu den letzten Voodookarten? Wär die Idee letztenendes nicht nur ne Kostenfrage, sondern tatsächlich bloß dumm gäbs wohl auch kein Quantum3D oder Evans & Sutherland.

Also ist das Grundprinzip der anisotropen Filterung schon ein Zugeständnis an fehlende Leistungsfähigkeit, und deswegens ists imo durchaus verständlich, dass man in dieser Sparte zu weiteren fps-Optimierungen angesetzt hat. Bloß übertreiben sollte mans nicht...

Um noch ein konkretes Beispiel zu bringen: NVs Lehrbuch HQ AF kann auch mit LOD 0.0 das Problem von zerstückten Begrenzungslinien haben. Das hatten wir auch schonmal diskutiert. Hier hilft imo nur Überfilterung.


Es ist nicht entscheidend, wo die Daten liegen, also ob im Multisample-Buffer oder nur in einem hochskalierten Framebuffer. Bei 2x SSAA dürfte man eigentlich kein generelles LOD-Bias nutzen, da nur in eine Richtung höher abgetastet wird, aber die MIPs in beide Richtungen skalieren. Bei 4x sparse AA wäre ein LOD-Bias von knapp -1 ok. Das sollte der Treiber von sich aus machen.

Das stimmt schon eher. Aber auf natürliche Weise geschieht da nix. Bei dieser AA Technik muss man immer manuell nachjustieren. Dass ist das einzige was man 3dfx vorwerfen kann. Andererseits waren damals die Treibereinstellungen auch noch alle recht transparent, vll. wars ne prinzipielle Entscheidug.

P.S.: Weil damals noch viel weniger böse Texturen verwendet wurden (hauptsächlich wegen geringerer Auflösung) , konnte man tw. das LOD.Bias bei 4xAA ohne Probleme auf -2 setzen. Je nach App, war ein anderer Wert optimal.


AF nimmt zusätzliche Samples in eine Richtung, MIPs skalieren in beide Richtungen. Die stärkste AF-Überfilterung kann bei zu starker Unterfilterung kein Flimmern verhindern. Es ist offensichtlich, dass es viel effizienter ist, AF ohne Überfilterung zu realisieren und es – unter anderem mit einer volltrilinearen Filterung – gar nicht erst flimmern zu lassen.

Ja bevor man die Texturunits Däumchen drehen lässt, lässt man sie halt überfiltern, überhaupt wenn man damit Unzulänglichkeiten bei der LOD Bestimmung kaschieren kann. Und zu stark Unterfiltert wird bei ATis brilinear anscheinend auch nicht. Sonst gäbs ja schon Beschwerden.


Wir haben die Wahl: Bilinear mit LOD-Bias von +0,5 oder trilinear. Das erste ist in der Regel zu unscharf, das zweite verdoppelt mal kurz die Takte die man sampelt. Angesichts der extremen Texelfüllrate die heutige Mittelklassekarten schon bieten, halte ich es für sinnvoller, voll trilinear zu filtern und beim AF auch keine Samples einzusparen. Lieber eine Auflösungsstufe geringer und dafür Flimmerfreiheit bei gleichzeitig schön scharfen Texturen, als "optimierte" Einstellungen in 1600x1200.

Alles Geschmackssache.


ATIs AF überfiltert nur tendenziell, nicht generell. Der Texturfilter ist nicht für "böse" Texturen gedacht, deshalb sind die Texturen ja auch "böse". Selbst Extremsupersampling kann bei bestimmten "bösen" Texturen ein Flimmern nicht verhindern. Der perfekte Texturfilter, es wurde schon gesagt, würde das Sample liefern was man mit Extremsupersampling bekommen würde. Man sollte prinzipiell keine bösen Texturen einsetzen. Wenn ein Texturfilter hier (erwartungsgemäß) versagt, ist das nur richtig so.

Ja, mathematisch richtig. Der Spieler hingegen freut sich, wenn der Texturfilter auch trotz bösen Texturen nicht versagt (vgl. zerstückte Begrenzungslinien bei Filtertestproggi + spezielle Textur)


Bei flimmeranfälligen, aber nicht vollbösen Texturen (also das Szenario, was du angesprochen hast) kann zwar Überfilterung hilfreich sein, aber man opfert damit dann auch wieder bei anderen, guten Texturen Bildschärfe.

Ja so wie man mit AA Bildschärfe opfert. Oder mit Extremsupersampling vgl zu mipmaplosen bilinearem Filtering...

Gast
2006-02-17, 18:59:19
Ja so wie man mit AA Bildschärfe opfert. Aths hat schon Recht, dass man mit Überfilterung z.T. auch Texturen unschärfer macht als sie sein müssten. Was das mit einem angeblichen Bildschärfeverlust durch Antialiasing zu tun hat, leuchtet mir nicht ein, da es diesen nicht gibt, außer du meinst Quincunx.

Grestorn
2006-02-17, 19:30:04
Aths hat schon Recht, dass man mit Überfilterung z.T. auch Texturen unschärfer macht als sie sein müssten. Was das mit einem angeblichen Bildschärfeverlust durch Antialiasing zu tun hat, leuchtet mir nicht ein, da es diesen nicht gibt, außer du meinst Quincunx.
Die Konturen von Objekten wirken weicher, was speziell bei Text als Unschärfe auffällt. Da Text von MSAA üblicherweise nicht beeinflusst wird, fällt das nur bei SSAA auf.

Der selbe Effekt wie auch bei ClearType.

MadManniMan
2006-02-17, 19:51:48
Was ist "Schärfe"? Wenn es eine Definition gibt: Wer definiert "Schärfe"? Was legitimiert ihn dazu? Ist "Schärfe" gut oder schlecht? Kann man pauschal antworten?

Je nach Interpretation des Begriffes kommen völlig unterschiedliche Ergebnisse zustande - ich komm mir beispielweise nicht blöde vor, zu behaupten, daß Pixelgruppen schärfer werden, je mehr Subpixel für die jeweilige Berechnung verwendet werden.

Mr. Lolman
2006-02-17, 20:09:05
Naja, bei mir (Radeon 9700) ist seit Catalyst 6.2 in GT Legends ein ähnliches Rumgeflimmer an den Streckenlinien wie das der Artikel für Nvidia zeigt - erst seit 6.2, vorher war alles sauber. Überhaupt ist bei mir mit 6.2 einiges kaputt gegangen, so funktioniert keinerlei Einstellung zu AA mehr aus dem CCC, weswegen ich das CCC deinstalliert habe und wieder rTool nutze, damit läuft zwar AA wie es soll, aber schönes AF bekomme ich damit auch nicht mehr hin.

Kurz gesagt:
Könnte es sein, dass ATI jetzt mit Cat. 6.2 ein wenig Optimierungswahn von Nvidia übernommen hat?Bitte um Screenshots. Bilder erzeugen einfach eine größere Wirkung! :D

Guter Artikel aber ich hätte mir ein deutlich formulierters Fazit gewünscht.

Man hätte klar sagen sollen, dass die BQ der NV Karten nicht konkurrenzfähig ist, wenn man die üblichen Standardeinstellungen des Treibers nutzt.Ich hoffe, dass auch HW-Redakteure den Artikel lesen. Und die müssten nach der Lektüre eigentlich kapiert haben worums geht. Außerdem hab ichs ohnehin gesagt: Auf der anderen Seite bencht fast jedes Hardware-Blatt immer noch mit performanceverzerrenden Standard-Treibereinstellungen, die wie bereits mehrfach deutlich gemacht, optisch nicht vergleichbar sind (siehe dazu auch unseren Artikel über das Texturenflimmern des G70-Chips)

Gut, dass hätte man noch fett drucken können, aber ich wollt eigentlich nicht bash0rn sondern aufklär0rn. Den Spagat hinzubekomen war tw. wirklich schwer. ;)


diesen absatz kann ich bei mir (6800GT, forceware 83.40) nicht wirklich nachvollziehen.

das problem besteht einzig allein mit der "anisotropen mip-filter-optimierung".
was man mit den anderen optimierungen anstellt ist vollkommen egal, wenn man HQ einstellt sind sie deaktiviert, sowohl unter OGL als auch unter D3D, zumindest bei mir.

grundsätzlich gefällt mir der artikel sehr gut, er zeigt schön sachlich die "probleme" aktueller treiber bzw. des control-panels.Ein Problem dahinter ist, dass viele der Optimierungen noch zusätzlich anscheinend adaptiv funktionieren (zB vom Spiel abhängig). Andererseits hab ich mittlerweile den 83.40 oben und bei mir bestätigen sich deine Beobachtungen, zumindest unter Quake3. Sollte das auch der Fall bei Quake4, Doom³ und Serious Sam 2 sein, muss man das natürlich umformulieren. Problem: Den brilinearen Filter ist im Normalfall nur mit Coloredmipmaps einwandfrei als solcher feststellbar und dazu gibts iirc in besagten Spielen keine Option und 3D-Analyze konnte hier auch nix einfärben, Die Sampleoptimierung führt zur Unterfilterung, was beim biAF allerdings genauso der Fall ist. HQ verringert im vgl zu Q die unterfilterung.

Ergo: Mit verfügbaren Methoden ists kaum feststellbar ob die Optimierungen noch aktiv sind oder nicht. Bloß die Sampleoptimierung springt durch die aprupten Mipmapübergänge eutlich ins Auge. Deswegen ists umso bemerkenswerter, dass seit Herbst 2004 (wo dieses Verhalten erstmals auftrat), niemand von dieser Problematik berichtet hat.


weniger gut finde ich riddick als beispiel für flimmernde texturen durch "filteroptimierungen" herzunehmen, soweit ich mich erinnern kann flimmert es sowohl auf ati als auch auf nv-karten mit und ohne AF sehr stark, was eher darauf schließen lässt dass das problem am texturmaterial liegt.
ein spiel mit "besserem" texturmaterial wäre imo eher angebracht.Naja, lt PCGH flimmert Riddick selbst auf NV HQ mehr als auf ATI AIon. Besseres Texturmaterial verdeckt außerdem nur die Unzulänglichkeiten der Texturfilter.


ganz und garnicht kann ich mich allerdings diesem satz anschließen:

beide deaktivieren zwar auf NV-karten die optimierungen, lassen sie aber im gegenzug bei ATI-karten aktiviert. ein derartiges verhalten in einem artikel der sich offenbar grundsätzlich gegen "filteroptimierungen" ausspricht zu loben halte ich für extrem inkonsequent.

nicht umsonst gibt es formeln für bi/trilineare filterung (beim AF hat man das ja leider versäumt) an die sich die IHVs zu halten haben, da sollte man auch so testen dass sich alle so nah wie möglich daran halten.Der Artikel spricht sich nicht grundsätzlich gegen Filteroptimierungen aus. sondern nur gegen die, die eine optische Verschlechterung mitsich bringen.Und da beisst NV momentan halt in den sauren Apfel. Solang ATis AIon nicht sichtbar schlechter ist als AIoff, und dementsprechend vergleichbar mit NV HQ ist, seh ich keinen Grund warum mans deaktivieren sollte.

Beispiel: NVs 16xAA SLI AA hat einen 4xSS anteil - mit sehr unglücklicher Sample verteilung. Der Aufwand des SS AA ist jedoch nicht geringer als bei einem 4xRGSSAA mit optimaler Sampleverteilung. Darf man die SS-Modi jetzt gegeneinander benchen nur weil der Aufwand gleich ist? Ja, wenn man die Divergenz zw. theoretischer und tatsächlicher Leistungsfähigkeit sichtbar machen will schon. Dies geschieht dann aber ungeachtet der optischen Qualität.

Der Fehler der dabei entsteht, zeig ich am einem anderen Beispiel: 3dfx 22bit Darstellung war auch nicht 4free, sondern kostete im Durchschnitt ~5% Leistung. Außerdem waren 3dfx "22bit" ja nur eine geschickt gefilterte Darstellung der 16bit Ausgabe. Also war die Karten von 3dfx nochmal 5% langsamer und sie konnten sich dafür auch keine schöneren Benchmarkbalken kaufen, nur die Gunst der Informierten, zu denen ich persönlich kaum ein HW-Blatt der damaligen Zeit zähle...

Außerdem: Beide IHV bewegen sich mit ihren Texturfiltern an der Schwelle des tragbaren. Dementsprechend gibts gleich Aufschreie, wenns mal mit den Optimierungen übertrieben wurde. Wir haben hier im Forum min. 3 NV eher zugetane Leute, die ein aktuelles ATi TopModell besitzen. Und glaub mir, wenn Ati ähnlichen Mist baut, wie NV beim G70 Release, steht dass umgehend im Forum und wird Thema künftiger Artikel :)

Prima Artikel, gefällt mir inhaltlich gut ich werde bei meiner 6800GT mal drauf achten. Trotzdem:

<korinthenkacking>
Zitat der Einleitung

imho sind "einige Jahre" "einem halben Jahrzehnt" reichlich ähnlich...
</korinthenkacking>


Entschuldigung schon vorab für's kleinlich sein; mir ist das nur sofort ins Auge gestochen.

Seit ein "paar Jahren" würde besser passen, stimmt.

Grestorn
2006-02-17, 20:17:23
Beispiel: NVs 16xAA SLI AA hat einen 4xSS anteil - mit sehr unglücklicher Sample verteilung. Der Aufwand des SS AA ist jedoch nicht geringer als bei einem 4xRGSSAA mit optimaler Sampleverteilung. Auch wenn Du es noch 1000x wiederholst wird es nicht richtiger.

Die "Anordnung" der Samples beim SS-Anteil ist nicht suboptimal, sondern für SS nicht nur genau richtig, sondern auch ganz natürlich. Schließlich wird nicht gesampelt sondern in höherer Auflösung gerechnet und dann skaliert.

Es wurde schon des öfteren geschrieben, dass man durch SS eben gerade keine Kanten glätten will (sondern Texturen) und deswegen die üblichen Gründe, warum man beim MS ein rotiertes Grid benutzt, nicht relevant sind.

MountWalker
2006-02-17, 20:37:11
Bitte um Screenshots. Bilder erzeugen einfach eine größere Wirkung! :D
Ich glaub ich hab jezt ein Hardware-Problem, als ich das Spiel gerade gestartet habe war die Grafik nur Grün (als ob Rot und Blau nicht mehr existierten). Bei FEAR das gleiche, 3DMark kommt aber noch in der kompletten Farbpalette daher. Ich schau mir mal den Kühler an und installier den Treiber neu.

Mr. Lolman
2006-02-17, 20:54:33
Auch wenn Du es noch 1000x wiederholst wird es nicht richtiger.

Die "Anordnung" der Samples beim SS-Anteil ist nicht suboptimal, sondern für SS nicht nur genau richtig, sondern auch ganz natürlich. Schließlich wird nicht gesampelt sondern in höherer Auflösung gerechnet und dann skaliert.

Es wurde schon des öfteren geschrieben, dass man durch SS eben gerade keine Kanten glätten will (sondern Texturen) und deswegen die üblichen Gründe, warum man beim MS ein rotiertes Grid benutzt, nicht relevant sind.

Du wirst doch nicht allen Ernstes behaupten, dass die SS-Sample Verteilung beim SLI 16xAA optimal ist: http://static.hardwareluxx.de:443/hardware/andreas/Artikel/SLI-AAvsSuperAA/SLI-AA_4.jpg

Xmas
2006-02-17, 21:00:10
Die "Anordnung" der Samples beim SS-Anteil ist nicht suboptimal, sondern für SS nicht nur genau richtig, sondern auch ganz natürlich. Schließlich wird nicht gesampelt sondern in höherer Auflösung gerechnet und dann skaliert.
Die Anordnung bei SLI-AA ist weder natürlich noch optimal. Dass es selbst mit den limitierten AA-Möglichkeiten von NV4x/G7x besser geht, habe ich schon mal hier im Forum beschrieben.

Es wurde schon des öfteren geschrieben, dass man durch SS eben gerade keine Kanten glätten will (sondern Texturen) und deswegen die üblichen Gründe, warum man beim MS ein rotiertes Grid benutzt, nicht relevant sind.
Supersampling soll Aliasing verhindern, wozu Kanten genauso gehören. Supersampling nicht dazu zu verwenden, bestmöglich Kanten zu glätten, ist schlicht Verschwendung (also z.B. ATIs 8x und 12x SuperAA).

Grestorn
2006-02-17, 21:06:00
Du wirst doch nicht allen Ernstes behaupten, dass die SS-Sample Verteilung beim SLI 16xAA optimal ist: http://static.hardwareluxx.de:443/hardware/andreas/Artikel/SLI-AAvsSuperAA/SLI-AA_4.jpg
Ach, es war vom SLI-AA die Rede? Ich dachte es ging um das normale 16xS.

Das SLI-AA ist Schrott.

/note to self: Genauer lesen bevor Posten.

Mr.Soapdown
2006-02-17, 21:32:43
Mal wieder Aufklärung nach Oswald Kolle. BESTENS

Vorausschickend möchte ich sagen, dass das mit der Wahrnehmungspsychologie so eine Sache ist. Das mathematisch beste Ergebnis wird von vielen nicht als optimal empfunden, sie schätzen je nach Situation überschärfte, zu unscharfe, zu grisselige oder zu glatte Bilder als "besser" ein. Jeder sollte seinen Grafiktreiber so einstellen, dass ihm das Bild am besten gefällt. Wer zum Beispiel Quinuncx mag, soll es nehmen. Wer es überschärft mag, soll am LOD-Bias spielen oder die Texturfilterung nicht auf "HQ" setzen und bei Q belassen.


So sollte es OttoNormalUser machen!

Nur leider, wie in einem Vorpost schon geschrieben wird es da mit der Bedienung schon schwierig. Also müsste ein slider her der sagen wir 10 Stufen besitzt. ( Performace bis HQ abgestuft)

Zu Mr.Lolman vs aths:
Kann es ein, dass ihr beide irgendwie Recht habt? Liest sich so. Ich bin aber leider nicht so bewandert.

Mr.Soapdown
2006-02-17, 21:43:09
Besteht eigentlich die Möglichkeit "on the fly" die Filter bzw dessen Optimierungen zu ändern? Oder muss ich immer ganz raus aus dem Spiel und neu laden?

Beispiel:
Ich kommen in einem Spiel an eine Stelle an der ich sage: Mensch das sieht garnicht gut aus, hier muss ich den ein oder anderen Filter setzten oder forcieren.

Alt-TAb eben mal ins Menu gegangen, neue Einstellungen gesetzt und zack zurück ins Game mal sehen wie´s nun aussieht.

(del)
2006-02-17, 22:28:02
"Da die objektive Bewertung eines subjektives Kriteriums " Hat aths den Artikel noch nicht gelesen? ;)

Super auf dem Tablett serviert, Lolli. Es würde sich jetzt ein schneller Nachschlag zum Thema 6.1 <-> 6.2 anbieten. Damit ihr eben nicht ATI-lastig erscheint. Bzw. wenigstens dem Meckern der User im stillen Kammerchen widmen und das Ergebnis mitteilen. Wenn es aber wirklich mit dem 6.2 auch bei ATI schlechter aussieht: Sofort als Part2 nachschieben.

edit: " beim Treiberstandard, dem "Quality"-Settiung "

(del676)
2006-02-17, 22:29:27
?
mit dem cat 6.2 siehts schlechter aus?
interessant ... ich schlecke mir alle zehn finger ab wenn ich BF2 mit AI auf High spiele - weils noch immer besser aussieht als nv-"hq"-af X-D

(del)
2006-02-17, 22:32:21
?
mit dem cat 6.2 siehts schlechter aus?
interessant ... ich schlecke mir alle zehn finger ab wenn ich BF2 mit AI auf High spiele - weils noch immer besser aussieht als nv-"hq"-af X-D
Du hast a) einen R5x0 und b) stehst Du dazu jetzt genauso wie früher zum G70. Nun gut...

Mr. Lolman
2006-02-17, 22:38:18
Alt-TAb eben mal ins Menu gegangen, neue Einstellungen gesetzt und zack zurück ins Game mal sehen wie´s nun aussieht.

Iirc funktioniert das leider nicht.

"Da die objektive Bewertung eines subjektives Kriteriums " Hat aths den Artikel noch nicht gelesen? ;)
Doch aths, hat den Artikel sogar mehrmals gelesen. Klingt vll. etwas holprig ist aber imo nicht falsch. z.B.: 70 von 100 Menschen behaupten dass die BQ schlecht ist. BQ => subjektiv. 70 -100 => objektiv. :)


Super auf dem Tablett serviert, Lolli. Es würde sich jetzt ein schneller Nachschlag zum Thema 6.1 <-> 6.2 anbieten. Damit ihr eben nicht ATI-lastig erscheint. Bzw. wenigstens dem Meckern der User im stillen Kammerchen widmen und das Ergebnis mitteilen. Wenn es aber wirklich mit dem 6.2 auch bei ATI schlechter aussieht: Sofort als Part2 nachschieben.

Na klar. Sofern jemand Beweise hat, dass der 6.2 schlechter als der 6.1 filtert, her damit.

Gast
2006-02-17, 22:40:48
Ein Problem dahinter ist, dass viele Optimierungen der Optimierungen noch zusätzlich anscheinend adaptiv funktionieren (zB vom Spiel abhängig). Andererseits hab ich mittlerweile den 83.40 oben und bei mir bestätigen sich deine Beobachtungen, zumindest unter Quake3. Sollte das auch der Fall bei Quake4, Doom³ und Serious Sam 2 sein, muss man das natürlich umformulieren. Problem: Den brilinearen Filter ist im Normalfall nur mit Coloredmipmaps einwandfrei als solcher feststellbar und dazu gibts iirc in besagten Spielen keine Option und 3D-Analyze konnte hier auch nix einfärben, Die Sampleoptimierung führt zur Unterfilterung, was beim biAF allerdings genauso der Fall ist. HQ verringert im vgl zu Q die unterfilterung.


den bri-filter kann man auch ohne color-mip-maps einfach mit differenzbildern feststellen. die sample-optimierung führt nicht nur zur unterfilterung sondern spielt auch noch am LOD herum, und ist daher mit color-mips sehr einfach nachweisbar.
auch ohne color-mips sollte sich zumindest feststellen lassen ob sich bei HQ zwischen aktiver und inaktiver optimierung ein unterschied besteht (man kann z.b. mit nhancer die optimierungen auch mit aktivem HQ-modus einzeln ein- und ausschalten)
die mip-optimierung ist wie gesagt die einzige wo dieser bug auftritt, und auch da nur in OGL (wobei die tri-optimierung da sowieso egal ist da ja komplett bilinear gefiltert wird)

das war bei mir übrigens mit allen treibern der fall bei denen ich dieses verhalten getestet habe, und das waren recht viel, beispielsweise auch mit dem 81.98.

bilineares AF sollte normalerweise nie unterfiltern, sondern im bereich des mip-wechsels auf der seite der größeren mipmap genau richtig filtern, und nach dem wechsel auf die kleinere mip überfiltern bis schließlich beim nächsten mip-übergang wieder genau richtig gefiltert wird.


Ergo: Mit verfügbaren Methoden ists kaum feststellbar ob die Optimierungen noch aktiv sind oder nicht. Bloß die Sampleoptimierung springt durch die aprupten Mipmapübergänge eutlich ins Auge. Deswegen ists umso bemerkenswerter, dass seit Herbst 2004 (wo dieses Verhalten erstmals auftrat), niemand von dieser Problematik berichtet hat.


wie gesagt lassen sich mit differenzbildern auch die anderen optimierungen sehr leicht zeigen, wobei die tri-optimierung unter OGL bei aktiver mip-optimierung sowieso wirkungslos ist (es wird vollständig bilinear gefiltert)


Naja, lt PCGH flimmert Riddick selbst auf NV HQ mehr als auf ATI AIon. Besseres Texturmaterial verdeckt außerdem nur die Unzulänglichkeiten der Texturfilter.


kann schon sein, ich habe auf beiden karten (9800/6800GT) so extremes flimmern in erinnerung, dass ich nicht mehr sagen kann ob eine karte mehr oder weniger flimmert, aber gut möglich dass die ATI durch die allgemeine tendenz zur überfilterung etwas weniger flimmert. nur mit SSAA (was leider zu langsam ist) und stark positivem LOD ist das flimmern halbwegs einzudämmen.

vor allem flimmert das spiel auf allen karten auch mit isotroper filterung sehr stark (natürlich nur bis zu dem bereich bis die natürliche überfilterung des bi/trilinearen filters alles zu matsch werden lässt), weshalb ich das spiel für derartige tests nicht unbedingt als geeignet ansehe.


Der Artikel spricht sich nicht grundsätzlich gegen Filteroptimierungen aus. sondern nur gegen die, die eine optische Verschlechterung mitsich bringen.Und da beisst NV momentan halt in den sauren Apfel. Solang ATis AIon nicht sichtbar schlechter ist als AIoff, und dementsprechend vergleichbar mit NV HQ ist, seh ich keinen Grund warum mans deaktivieren sollte.


ich sehe auch keinen grund derartige "optimierungen" anzubieten, die jeder bis zu seiner persönlichen wahrnehmungsschwelle einstellen kann, objektive tests sollten dennoch so nah wie möglich am mathematischen "ideal" bleiben.

wenn man die optimierungen mittesten will, dann in gesonderten tests wo jeweils nur karten eines IHVs vorkommen. da kann man dann den geschwindigkeitsgewinn der karten durch die einzelnen optimierungen ermitteln, und zusätzlich sollte der tester einen subjektiven eindruck über die veränderte bildqualität dazuschreiben (und bitte jedes setting mindestens 30min spielend testen, und nicht nur ein paar screenshots anfertigen)


Beispiel: NVs 16xAA SLI AA hat einen 4xSS anteil - mit sehr unglücklicher Sample verteilung. Der Aufwand des SS AA ist jedoch nicht geringer als bei einem 4xRGSSAA mit optimaler Sampleverteilung. Darf man die SS-Modi jetzt gegeneinander benchen nur weil der Aufwand gleich ist?


nö, da gibt es nichts gegeneinander zu testen, man sollte FSAA-settings nur mit gleichem modus und gleicher subpixelanordnung (gespiegelt ist natürlich auch erlaubt ;) ) gegeineinander testen.

wenn man auch settings zeigen will die nur ein IHV anbietet dann darf in diesem test auch nur dieser vorkommen, am besten natürlich wieder mit einem subjektiven qualitätseindruck und mit getestetem leistungsverlust.



Wir haben hier im Forum min. 3 NV eher zugetane Leute, die ein aktuelles ATi TopModell besitzen.


würde ich in nächster zeit eine graka kaufen (wobei ich mich herstellerneutral sehe, in den 3 PCs in unserem haus arbeitet eine GF4TI4400, eine 9800pro und eine 6800GT, es kommt eben immer das beste preis/leistungsverhältnis ins haus ;) ), wäre es höchstwahrscheinlich auch eine ATI, allerdings in erster linie wegen dem "AreaAF". da mir multi-grakas sowieso zu teuer sind könnte ich auch mit AI-off gut leben.

Gast
2006-02-17, 22:44:19
Na nicht schlecht! Sieht aus als ob das 3DCenter neuen vielversprechenden Autorenzuwachs bekommen hat!

Wurde auch langsam Zeit, dass jemand den billigen Tricks von NVidia einen Riegel vorschiebt!!

Respekt Mr.Lolman!

(del)
2006-02-17, 22:45:46
Doch aths, hat den Artikel sogar mehrmals gelesen. Klingt vll. etwas holprig ist aber imo nicht falsch. z.B.: 70 von 100 Menschen behaupten dass die BQ schlecht ist. BQ => subjektiv. 70 -100 => objektiv. :)
Ja ok. wie gesagt bin ich nicht 100% von hier ;) Bis jetzt hätte ich aber immer drauf geschworen, daß es "eines subjektiveN Kriteriums" heisst. Sorry :confused:
Na klar. Sofern jemand Beweise hat, dass der 6.2 schlechter als der 6.1 filtert, her damit.
Irgendwer hat heute noch :confused: darüber und GTR gemeckert (von 6.1 auf 6.2) Find das nicht. Ich und die SuFu :mad:

(del676)
2006-02-17, 23:57:23
Du hast a) einen R5x0 und b) stehst Du dazu jetzt genauso wie früher zum G70. Nun gut...

jaja, ich weiss, ich bin wieder mal ein fanboy - nur diesmal bei der nächsten marke - wie die letzten 10 jahre :rolleyes:

Mr. Lolman
2006-02-18, 00:08:22
den bri-filter kann man auch ohne color-mip-maps einfach mit differenzbildern feststellen. die sample-optimierung führt nicht nur zur unterfilterung sondern spielt auch noch am LOD herum, und ist daher mit color-mips sehr einfach nachweisbar.
auch ohne color-mips sollte sich zumindest feststellen lassen ob sich bei HQ zwischen aktiver und inaktiver optimierung ein unterschied besteht (man kann z.b. mit nhancer die optimierungen auch mit aktivem HQ-modus einzeln ein- und ausschalten)
die mip-optimierung ist wie gesagt die einzige wo dieser bug auftritt, und auch da nur in OGL (wobei die tri-optimierung da sowieso egal ist da ja komplett bilinear gefiltert wird)

das war bei mir übrigens mit allen treibern der fall bei denen ich dieses verhalten getestet habe, und das waren recht viel, beispielsweise auch mit dem 81.98.

NHancer zeigt mir, dass unter HQ noch alle Optimierungen noch aktiv sind. Außerdem hat NV im Laufe der Treiberversionen schon so oft den Filterkernel angepasst, dass es wohl vermessen ist, zu behaupten, dass unter HQ keine Optimierungen mehr aktiv sind. HQ ist lt. Definition wohl einfach die Qualität mit der, der Großteil der Leute zufrieden sein dürfte. Die Texturfilter sind spätestens ab dem NV40 so frei programmierbar, dass NV wohl ohne Probleme ATis defaultqualität überbieten könnte. Nur kostet das dementsprechend Tex-Performance... ;)



bilineares AF sollte normalerweise nie unterfiltern, sondern im bereich des mip-wechsels auf der seite der größeren mipmap genau richtig filtern, und nach dem wechsel auf die kleinere mip überfiltern bis schließlich beim nächsten mip-übergang wieder genau richtig gefiltert wird.

Bi(A)F unterfiltert erst ab LOD +0.5 nicht mehr - und zwar bei afaik jedem IHV.



vor allem flimmert das spiel auf allen karten auch mit isotroper filterung sehr stark (natürlich nur bis zu dem bereich bis die natürliche überfilterung des bi/trilinearen filters alles zu matsch werden lässt), weshalb ich das spiel für derartige tests nicht unbedingt als geeignet ansehe.

Welches würdest du als geeignet ansehen? Letztenendes kann man doch nur mit Extrembeispielen zeigen, wo die Grenzen der Texturfilterung liegen. Dass ne durchschnittliche HL² Textur mit HQ einwandfrei dargestellt wird, ist ja auch nicht Thematik der Sache.


ich sehe auch keinen grund derartige "optimierungen" anzubieten, die jeder bis zu seiner persönlichen wahrnehmungsschwelle einstellen kann, objektive tests sollten dennoch so nah wie möglich am mathematischen "ideal" bleiben.

wenn man die optimierungen mittesten will, dann in gesonderten tests wo jeweils nur karten eines IHVs vorkommen. da kann man dann den geschwindigkeitsgewinn der karten durch die einzelnen optimierungen ermitteln, und zusätzlich sollte der tester einen subjektiven eindruck über die veränderte bildqualität dazuschreiben (und bitte jedes setting mindestens 30min spielend testen, und nicht nur ein paar screenshots anfertigen)

Das setzt vorraus, dass beide IHV die Texturfilter auf höchster Qualität nicht mehr optimieren. Weder bei ATi noch bei NV ist das der Fall. Nächstes Problem: Ein IHV kann näher am mathematischen Ideal sein. Ignoriert man das ändert er den Filter von der Idealposition zu einer konkurrenzfähigeren, schnelleren, qualitativ schlechteren Version.

NV Karten wurden und werden immernoch mit Q+Opts gebencht. Ati mit AIon, was bei BQ vergleichen problemlos mit NV HQ mithalten kann. Hätte ATi auch das Problem mit blockierten ALUs bei TexOPs gäbs auch schon längst nen HQ schalter und schlechte Defaultqualität.



würde ich in nächster zeit eine graka kaufen (wobei ich mich herstellerneutral sehe, in den 3 PCs in unserem haus arbeitet eine GF4TI4400, eine 9800pro und eine 6800GT, es kommt eben immer das beste preis/leistungsverhältnis ins haus ;) ), wäre es höchstwahrscheinlich auch eine ATI, allerdings in erster linie wegen dem "AreaAF". da mir multi-grakas sowieso zu teuer sind könnte ich auch mit AI-off gut leben.

Warum? Nur damit du weisst, dass der trilineare Interpolationsgrad höher ist? (sehen kann man das nach bisherigen Erkenntnissen ohnehin nicht)


BTW: Das beste PL Verhältnis boten imo: Ti4200, X800Pro Vivo

x) Wobei die 9700 2 Monate später eindeutig die bessere Wahl war und auch nicht durch ne 9800pro ersetzt hätte werden müssen
x) Statt zur 6800GT hätt ich im Nachhinein wohl auch zum R420 greifen sollen. AAA ist schon was feines. Und ne x800pro vivo auf x850xt pe Niveau ist heutzutage noch ordentlich flott.

Ich hab mich von der 6800GT auch blenden lassen. Neben dem kaputten Videoprozessor, der für div Hänger beim Dscaler kucken (+gleichzeitigem Browsen) verantwortlich war, hats mich schon mal sehr verblüfft, dass bei UT2004 die Performance um 50% einbricht wenn man von default auf HQ stellt.

Aber damals wars ja noch nicht notwendig auf HQ zu stellen :rolleyes:. Zwar gabs natürlich vereinzelte Beschwerden über Flimmrigkeit bei default, aber da hiess es, dass das bei Ati genauso ist, und man ja auf HQ stellen kann. Dass ATi Karten default die eindeutig bessere BQ haben war mir nach 30sec Quake3 spielen mit dem 61.67 klar - und der hatte noch nichtmal die fiese Mipfilter Optimierung! Gut, HQ war dann optisch meistens einwandfrei aber dafür auch tw deutlich langsamer. Das alles relativierte den vermeintlichen Wert der 6800GT schon recht deutlich.

Nur wegen dem SM3.0 Bonus hab ich sie dann doch behalten. Und Farcry HDR hat mich den größten Ärger wieder vergessen lassen. Trotzdem, wäre damals schon mit HQ gebencht worden hätten mich die fps-Balken wohl nicht so geblendet...

Mr. Lolman
2006-02-18, 00:13:29
Ja ok. wie gesagt bin ich nicht 100% von hier ;) Bis jetzt hätte ich aber immer drauf geschworen, daß es "eines subjektiveN Kriteriums" heisst. Sorry :confused:

Tatsächlich :redface:

Ich dachte du warst mit der Syntax unzufrieden.


Irgendwer hat heute noch :confused: darüber und GTR gemeckert (von 6.1 auf 6.2) Find das nicht. Ich und die SuFu :mad:

Das war MountWalker, der das hier (http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3993088#post3993088) vorerstmal ein bisschen relativiert hat.

Banshee18
2006-02-18, 00:15:27
Nicht nur "beinahe". Eine Änderung des LOD-Bias', egal in welche Richtung, verschlechtert die Bildqualität.
Ich glaube, man kann darüber streiten, ob Matsch oder Geflimmer mehr stört. Ein LOD-Bias!=0 ist im Normalfall natürlich Blödsinn, aber wenn ich die Wahl trilinearer Filter/trilinearer Filter + leicht negativer LOD hätte, würde ich mich wahrscheinlich für Letzteres entscheiden. Wobei....ich hab´ das lange nicht mehr live betrachtet. :biggrin:

€: aths, wie ist die Option "Direct3D MIP-map LOD Bias" zu interpretieren? "Best quality" ist 0, denke ich, aber was ist mit den anderen Einstellungen?

Grestorn
2006-02-18, 11:00:34
NHancer zeigt mir, dass unter HQ noch alle Optimierungen noch aktiv sind.Vorsicht, das ist nicht unbedingt ein Indikator. nHancer zeigt Dir an, wie die entsprechenden Registry-Einträge gerade aussehen. Und es ist sicherlich richtig, dass das ControlPanel, wenn Du auf HQ stellst, die Einträge für die Optimierungen selbst nicht ändert.

Es kann aber durchaus sein - und so hatte ich das Verhalten des Original-Panels auch immer interpretiert - dass zumindest der Autor des Panels davon ausgeht, dass der Treiber bei HQ keine der anderen Optimierungen nutzt, egal wie deren Eintrag in der Registry aussieht.

Aber offenbar stimmt das nicht. Ob das Verhalten des Panels politisch motivierte Absicht ist, ein Kommunikationsfehler zwischen Treiber- und Panelentwickler ist oder tatsächlich der Treiber sich nicht vereinbarungsgemäß verhält, kann man von außen überhaupt nicht beurteilen.

Mr. Lolman
2006-02-18, 12:02:20
Ob das Verhalten des Panels politisch motivierte Absicht ist, ein Kommunikationsfehler zwischen Treiber- und Panelentwickler ist oder tatsächlich der Treiber sich nicht vereinbarungsgemäß verhält, kann man von außen überhaupt nicht beurteilen.

Sicher kann man das.

1. Der 61.76 hat den Fehler nicht aber auch nicht die Mipfilter Optimierung
2. Der 65.73 hat den Fehler auch nicht, aber schon die Mipfilter Optimierung
3. Ab dem 66.72 haben alle Treiber sowohl den Fehler als auch die Mipfilter Optimierung.

Mir ists dabei auch egal ob die Treiber- oder Panelentwickler dafür verantwortlich sind, jedenfalls riecht das ganze nach üblen Beschiss und wär schon wiedermal ein sehr seltsamer unabsichtlicher Bug - der ja netterweise ganz schön viel zusätzliche fps bringen kann - unter "HQ" :|

Grestorn
2006-02-18, 12:07:27
Mir ists dabei auch egal ob die Treiber- oder Panelentwickler dafür verantwortlich sind, jedenfalls riecht das ganze nach üblen Beschiss und wär schon wiedermal ein sehr seltsamer unabsichtlicher Bug - der ja netterweise ganz schön viel zusätzliche fps bringen kann - unter "HQ" :|Ich glaub nicht an Absicht. Dazu sind viel zu viele andere, ganz ähnlich gelagerte Bugs im Panel, die keine Geschwindigkeitsvorteile bringen, sondern nur nerven.

nVidia würde sich mit einer solchen Aktion nur schaden. Irgendwie scheint das ganze Treiberentwicklungsteam, zumindest auf der "High-Level" Ebene, ziemlich chaotisch zu sein.

Bei ATI ist es - wenn man sich das CCC ansieht - aber leider kein bisschen besser.

Mr. Lolman
2006-02-18, 12:17:32
Ich glaub nicht an Absicht. Dazu sind viel zu viele andere, ganz ähnlich gelagerte Bugs im Panel, die keine Geschwindigkeitsvorteile bringen, sondern nur nerven.

nVidia würde sich mit einer solchen Aktion nur schaden. Irgendwie scheint das ganze Treiberentwicklungsteam, zumindest auf der "High-Level" Ebene, ziemlich chaotisch zu sein.

Bei ATI ist es - wenn man sich das CCC ansieht - aber leider kein bisschen besser.

Wie solls dann möglich sein, dass der 65.73 den Fehler nicht hat aber alle anderen ab dem 66.72 schon? Von selbst kommt der Fehler nicht. Und an unabsichtlich programmierte Bugs glaub ich auch nicht ganz, wenn man gleichzeitig darauf bedacht ist, jedes Quentchen Performance aus dem Treiber zu quetschen, und seit den 77er Treibern selbst bei älteren Spielen wie Far Cry noch die Shader optimiert hat.

Nvidia hat sich schon mit der Flimmergeschichte bei G70 HQ geschadet. Und das war sicher auch nicht unabsichtlich, auch wenn man so getan hat.

Dadurch, dass ich keinen G70 hab kann ich auch nicht den Performanceverlust messen, der zw Zwangsflimmer-HQ der 1. G70 Treiber und dem 1. Treiber mit gutem HQ liegt. So beläuft er sich halt auf 2-3%.

Wahrscheinlich genauso 2-3% wie lt. Mancher HQ vs. default kosten soll :|

Außerdem könnte man genauso behaupten, dass ATis ehemalige "TS-Optimierung" nur ein Bug war. Denn der Registrykey exisiterte auch schon länger und Atis Treiber waren ja gerade ein der Vergangenheit ein bisschen chaotisch (Quake3 "Bug" ;)), und deswegen kanns locker sein, dass irgendwann unabsichtlich der Regkey bearbeitet wurde, wenn man auf Quality-AF stellte. :crazy:


Bezügl. Atis CCC: Was macht das für Probleme, ausser dass es nicht so flott wie das alte CP rennt?

Grestorn
2006-02-18, 12:31:20
Ich steig nicht auf die Diskussion ein. Meinetwegen hältst Du alles, was bei nV passiert für böse Absicht, siehst den Verlust von HQ auf mehr als 20% und das CCC für beste Errungenschaft seit der Erfindung von geschnittenem Brot. I don't care.

Mr. Lolman
2006-02-18, 12:48:03
Ich steig nicht auf die Diskussion ein. Meinetwegen hältst Du alles, was bei nV passiert für böse Absicht, siehst den Verlust von HQ auf mehr als 20% und das CCC für beste Errungenschaft seit der Erfindung von geschnittenem Brot. I don't care.

Hab ich gesagt dass ich das mach? Mich fuckt der fps-Verlust von default auf HQ total an. Hätt ich das alles vorher gewusst, hätt ich mir keine NV Karte geholt. Jetzt hab ich eine (eh nimmer lang), beim Spielen div. Bugs/Unstimmigkeiten bemerkt und hab auf aths Anraten einen Artikel veröffentlicht, dessen Grundaussage - nämlich dass die BQ-Verschlechterungen Absicht sind - dir anscheinend gegen den Strich geht.

Weil NV will ja (wie ATi) nur unser bestes (=Geld) und würde (genau wie ATi ;)) nie unlautere Absichten hegen, wie zB mit nem kleinen "Bug" mehr fps rauszukitzeln.

Aber soweit kommts meistens eh nicht, weil die meisten (englischsprachigen) Seiten ohnehin noch mit default benchen - wo wir uns hoffentlich mitlerweile alle einig sind, dass das ÜBERHAUPT NICHT vergleichbar ist. Vor etwa einem Jahr, zu dem Zeitpunkt wo ich mir meine 6800GT gekauft hab, war ja der Grundtenor, dass die default Einstellungen sehr wohl vergleichbar sind. ;)

Leonidas
2006-02-18, 12:59:49
beide deaktivieren zwar auf NV-karten die optimierungen, lassen sie aber im gegenzug bei ATI-karten aktiviert. ein derartiges verhalten in einem artikel der sich offenbar grundsätzlich gegen "filteroptimierungen" ausspricht zu loben halte ich für extrem inkonsequent.


Da kannst es auf ATI nicht deaktivieren - ohne die sinnvollen und notwendigen Bugfixes des Treibers mit auzuschalten. Das haben wir ja angesprochen: ATI fehlt derzeit die Trennung zwischen Optimierung und Bugfixing. Wobei ATI das IMO bewußt nicht trennt, um die User an ihre Vorstellung von BQ und Optimierung zu binden.

Leonidas
2006-02-18, 13:02:29
- Im Abschnitt 'So sieht man die "brilineare" Filterung bei Unreal Tournament 2004:' (auf Seite 2) steht bei Punkt 5 'Mit Doppelklick starten, mit der Tabulator-Taste (alternativ "ö") die UT2004-Konsole aufrufen und eingeben.'. Ja was soll man denn eingeben? Der Satz ist nicht zu Ende geführt worden.
- Auf Seite 3 beim Benchmark-Diagramm, wo die CPU und das Mainboard angegeben sind, steht 'AMD Athlon 64 3700 @ 2.4 GHz - Asus K84-E Deluxe (nVidia nForce4-4X)'. Das Plus nach 3700 fehlt, dann könnte das '@ 2.4 GHz' (abgesehen davon, dass das ein Komma statt eines Punktes sein müsste) gleich ganz weggelassen werden, schließlich ist das nur der Standardtakt der CPU. Und das Mainboard heißt K8N4-E Deluxe, da fehlt ein 'N'.
.


Alles noch gefixt.

(del)
2006-02-18, 13:21:03
Da kannst es auf ATI nicht deaktivieren - ohne die sinnvollen und notwendigen Bugfixes des Treibers mit auzuschalten. Das haben wir ja angesprochen: ATI fehlt derzeit die Trennung zwischen Optimierung und Bugfixing. Wobei ATI das IMO bewußt nicht trennt, um die User an ihre Vorstellung von BQ und Optimierung zu binden.
"Die Trennung" würd ich das auch nicht nennen. Wer will schon Bugfixes abschalten? :) Mich interessiert aber bissl die Technik dahinter. Ich stellte mir das immer so vor, daß man DLLs/whatever ändert um EIGENE Fehler auszumerzen. Neukompilieren. Fertig. Wie bringt man den Treiber mit paar "Registryeinträgen" (AI_off) wieder auf den alten Stand? Muß man sich die alten Bugs im Kode quasi aufbewahren, damit man sie bei der Ausführung 'mitnimmt', wenn AI ausgeschaltet wird? :|

Gast
2006-02-18, 13:47:29
NHancer zeigt mir, dass unter HQ noch alle Optimierungen noch aktiv sind. Außerdem hat NV im Laufe der Treiberversionen schon so oft den Filterkernel angepasst, dass es wohl vermessen ist, zu behaupten, dass unter HQ keine Optimierungen mehr aktiv sind. HQ ist lt. Definition wohl einfach die Qualität mit der, der Großteil der Leute zufrieden sein dürfte. Die Texturfilter sind spätestens ab dem NV40 so frei programmierbar, dass NV wohl ohne Probleme ATis defaultqualität überbieten könnte. Nur kostet das dementsprechend Tex-Performance... ;)


nhancer zeigt dir nur ob die entsprechenden reg-keys gesetzt sind oder nicht, wobei nhancer afiak das einzige tweak-programm ist dass die reg-keys für die optimierungen auch mit aktivem HQ verändern kann.

wenn HQ aktiviert ist SOLLTEN allerdings die anderen reg-keys für die optimierungen ignoriert werden, was laut meinen beobachtungen mit diversen treibern einzig allein mit der "anisotropem mip-filter-optimierung" und auch da nur unter OGL nicht der fall ist.




Welches würdest du als geeignet ansehen? Letztenendes kann man doch nur mit Extrembeispielen zeigen, wo die Grenzen der Texturfilterung liegen. Dass ne durchschnittliche HL² Textur mit HQ einwandfrei dargestellt wird, ist ja auch nicht Thematik der Sache.


auf jeden fall ein spiel mit texturen die bei isotroper filterung nicht das kleinste anzeichen an flimmern zeigen.

HL2 leistet sich da auch einige böse ausrutscher. eventuell würde ich die außentexturen von farcry nehmen (nicht die gitterstrukturen teilweise in den innenlevels die auch schon fast riddick-like flimmern)
am besten würde ich aber für einen derartigen test aber fast die doom3-texturen nehmen. durch dass massig eingesetzte specular-bump-mapping sind diese sehr anspruchsvoll für den texturfilter, ohne aber wirklich übertrieben "böse" zu sein.



Das setzt vorraus, dass beide IHV die Texturfilter auf höchster Qualität nicht mehr optimieren. Weder bei ATi noch bei NV ist das der Fall.


durchaus möglich, aber bis jetzt habe ich noch keinen beweis für diese tatsache gesehen, da sage ich lieber: "im zweifel für den angeklagten"


NV Karten wurden und werden immernoch mit Q+Opts gebencht. Ati mit AIon, was bei BQ vergleichen problemlos mit NV HQ mithalten kann. Hätte ATi auch das Problem mit blockierten ALUs bei TexOPs gäbs auch schon längst nen HQ schalter und schlechte Defaultqualität.


je nach spiel ist zumindest Q+Tri-Opt durch aus mit ATIs qualität vergleichbar.
das problem ist imo in erster linie dass ATIs optimierungen offenbar adaptiv auf einzelne spiele reagieren (ob mittels profil oder texturanalyse sei mal dahingestellt), während NVs optimierungen offenbar immer gleich stark sind und damit je nach textur kaum auffallen oder aber extrem schreckliche ergebnisse bringen können.

dass bei NV eine ALU durch die texturfilterung blockiert (wie lange auch immer, wie weit die einschränkung geht ist ja noch immer nicht klar) spielt zumindest bis zur x1800 kaum eine rolle. ATI hat bis dahin auch nur 1 ALU/pipe die zwar immer genutzt werden kann. NV hat auch 1ALU/pipe die immer genutzt werden kann und zusätzlich eine 2. die bei arithmetiklastigen shadern auch einiges bringen kann.

wenn die theorie stimmen würde dass NV die optimierungen braucht um ihre ALU freizubekommen müsste ja gerade bei arithmetiklastigen shadern ein extremer einbruch beim wechsel auf HQ zu beobachten sein. FEAR oder auch einfach nur der shadermark beweist aber das gegenteil, werden arithmetiklastige shader eingesetzt gibt es HQ fast für umsonst.

ich habe auch irgendwie das gefühl dass du das ganze "verkehrtrum" siehst.
es ist ja nicht die ALU die die TEX-einheit blockiert sondern die TEX-einheit blockiert die ALU, was aber wie gesagt weniger "schlimm" ist da man selbst im schlimmsten fall noch immer 1ALU/pipe frei hat. ATI hab bis zum R580 allerdings in allen fällen immer nur 1ALU/pipe.


Warum? Nur damit du weisst, dass der trilineare Interpolationsgrad höher ist? (sehen kann man das nach bisherigen Erkenntnissen ohnehin nicht)


es stimmt schon dass der bri-filter kaum sichtbar ist, allerdings gibt es durchaus situationen in denen es auffällt, in erster linie wenn die textur linien in richtung des fluchtpunktes enthält (z.b. mittelstreifen bei autorennspielen)

vor allem finde ich es für idiotisch wenn ich im jahre 2006 eine high-end-karte besitze und ein feature dass bereits mit der GF1 standard war nicht benutzen soll.

Mir ists dabei auch egal ob die Treiber- oder Panelentwickler dafür verantwortlich sind, jedenfalls riecht das ganze nach üblen Beschiss und wär schon wiedermal ein sehr seltsamer unabsichtlicher Bug - der ja netterweise ganz schön viel zusätzliche fps bringen kann - unter "HQ"

ich weiß es natürlich nicht, aber ich glaube kaum dass es sich dabei um absicht handelt, das ganze verhält sich einfach zu "blöd".

1. tritt der bug nur unter OGL ein, womit mal schon fast 99% aller spiele nicht betroffen wären.

2. glaube ich nicht dass NV absichtlich nur eine der optimierungen unter HQ aktiv lässt und die anderen korrekterweise ignoriert.

3. wenn NV absichtlich eine optimierung auch unter HQ "reinschummeln" würde, dann wäre es wohl eher die Tri-optimierung. die bringt auch schon einiges an leistung und fällt kaum auf (es ist eher so dass die mip-filter-optimierung bei aktiver Tri-optimierung kaum mehr was bring), während der bilineare filter sofort jedem ins auge sticht.

Gast
2006-02-18, 13:50:17
Da kannst es auf ATI nicht deaktivieren - ohne die sinnvollen und notwendigen Bugfixes des Treibers mit auzuschalten. Das haben wir ja angesprochen: ATI fehlt derzeit die Trennung zwischen Optimierung und Bugfixing. Wobei ATI das IMO bewußt nicht trennt, um die User an ihre Vorstellung von BQ und Optimierung zu binden.

na und?

soll man ATI dafür dass sie sinnvolle und "böse" optimierungen nicht trennen auch noch dafür loben indem man einfach alle optimierungen aktiv lässt?

würden endlich alle high-end-tests nur mehr HQ gegen AI-off testen wäre das für ATI vielleicht endlich mal ein anstoß die einstellungen transparenter zu gestalten und nicht nur mit einem einzigen nichtssagenden schalter.

MountWalker
2006-02-18, 13:50:36
@meine AF-Problematik

Ich hab jetzt alles geprüft, die Hardware ist soweit normal, aber scheinbar gabs Konflikte zwischen dem eigentlich deinstallierten CCC und rTool, die ua. auch diesen Grünstich produzierten. Das was mich dazu bewogen hatte CCC zu deinstallieren und wieder rTool zu verwenden war, dass bei mir AA unf AF erstmal in der Darstellung in Spielen verschwunden waren. Ich hab, nachdem ich rTool und ATI-Tool deinstalliert, Treiber neuinstalliert und auch das CCC wieder installiert habe, jetzt rausgefunden, dass das bei mir dann passiert, wenn ich das Häkchen bei dem in 6.2 neu eingeführten Punkt "AF höchster Qualität" setze.

Ich vermute mal die Funktion geht auf R300 einfach nicht, weswegen bei den ersten Testversuchen dann grafisch in eine Art "Save-Mode" geschaltet wurde, bei dem auch irgendwie Mip-Mapping abgeschaltet worden sein könnte. Seit ich aber mal probiert habe was passiert, wenn ich dann in GTL AA über die Spielkonfiguration anschalte bewirkt der Punkt "AF höchster Qualität" im CCC gar keine Änderung mehr und alles funktioniert normal - auch jetzt wo ich das in der Spielkonfiguration wieder abgeschaltet habe ist alles wieder so wies bei Cat 6.1 war und sein sollte. :smile: Ich hab dummerweise bei den Versuchen vor dem Ausflug über die Spielkonfiguration für Screenshots die falsche Taste gedrückt ([Druck] statt [F12]) und daher keine Screenshots mehr von den unter- oder ungefilterten Texturen, aber falls jemand sowas bei sich sehen sollte weiß er jetzt wie er das Problem los wird. ;)

aths
2006-02-18, 14:27:38
"Da die objektive Bewertung eines subjektives Kriteriums " Hat aths den Artikel noch nicht gelesen? ;)Ich habe ihn gründlicher gelesen als jeder andere hier :)

Super auf dem Tablett serviert, Lolli. Es würde sich jetzt ein schneller Nachschlag zum Thema 6.1 <-> 6.2 anbieten. Damit ihr eben nicht ATI-lastig erscheint. Auf 3DCenter dürfen auch Artikel erscheinen, die für sich genommen dem einen oder anderen ATI- oder NV-lastig vorkommen. Hauptsache, 3DC bietet insgesamt eine augewogene Darstellung.

aths
2006-02-18, 14:36:44
ich finde den artikel großartig, etliche informationen die mir bisher nicht bekannt waren und sehr schön und verständlich geschrieben. auch eine sehr interessantes fazit
weiter so :)Ja, deswegen halte ich den Artikel auch für wichtig. Jeder, der etwas tiefer in der Materie steckt, bekommt im Artikel keine oder fast keine neuen Informationen. Aber viele Anwender wissen nicht, welches seltsame Verhalten der Treiber an den Tag legt. Die erhalten hier aber nicht nur die Auflistung der Bugs, sondern erfahren auch, wie man unter den Umständen die noch beste Grafik einstellen kann.

aths
2006-02-18, 16:20:10
Einleitend noch was zur Unterfilterung bei Rennspielen: Auf dem Fernseher, bei Konsolenspielen der DC/PS2/Cube/Xbox-Generation, würde ich negatives LOD-Biasing bei bestimmten Texturen in Grenzen akzeptieren. Hier hat man aufgrund des unscharfen Displays viel mehr Möglichkeiten, zu tricksen. Am PC sollte ein guter CRT mit BCN-Stecker, oder ein TFT mit DVI angeschlossen sein. Hier geht es um das einzelne Pixel.

Ich fürchte wir werden diesbezügl. nie gemeinsam auf einen grünen Zweig kommen. Denn imo ists 1. nicht möglich ein exaktes Sample ohne Supersampling zu bekommen, und 2. bewegen sich viele Texturfilteroptimierungen in der Grauzone zw. mathematischem Optimum und menschlicher Wahrnehmungsschwelle, und 3. gehts letztenendes immernoch um die fps. Mir geht es nicht "letztenendes immernoch um die fps". Zu viel fps kann man zwar meistens in die Auflösung stecken (darunter fällt auch Supersampling, das ermöglicht in höherer Auflösung zu rechnen auch bei einem Display, dass keine höheren Auflösungs-Stufen bietet) aber es gibt weitaus effizientere Möglichkeiten, die BQ zu steigern. Die Auflösung ist wichtig, um die gewünschte Feinkörnigkeit des virtuellen Filmmaterials zu gewährleisten. Glatte Kanten und scharfe Texturen sollte man auf anderem Wege erzeugen.

Man kann ohne Supersampling ein innerhalb der Filtermöglichkeiten exakte Samples bekommen. Nur sind diese Möglichkeiten eben begrenzt. Aber das macht nichts, die Filter nach dem Lehrbuch sind gut genug, dass sie ohne Supersampling eine (auf den Zweck bezogen) sehr gute Qualität erzeugen.

Zu hohe Auflösung ist gar nicht gut, sie offenbart nur im Vordergrund die Grenzen der Geometrie- und Texturauflösung. Das ist unrealistisch, da wir in der Realität gerade bei nahen Objekten besonders viele Details sehen.

Warum also die BQ nicht subtil verschlechteren, wenn damit manche Spiele länger spielbar bleiben. Bei den meisten Usern (ok auch sehr subjektiv!) käme das dem Kosten-Nutzen-Verhältnis entgegen. Und genau, das Ziel verfolgen die IHV mit der Entwicklung von MSAA/AAA/AF. Bei 8xSGSSAA (meinetwegen 16 oder gleich 64, egal) und angepasstem LOD, könnte man sich in vielen Fällen AF schon komplett sparen. Bei dermassen negativen LOD bräuchte man auch keinen trilinearen Filter mehr und könnte sich so auch eine etwaige "bri" Logik im Chip sparen. Dann baut man einfach ein Füllratenmonster und gut ist.

Erkennt jemand die Parallelen zu den letzten Voodookarten? Wär die Idee letztenendes nicht nur ne Kostenfrage, sondern tatsächlich bloß dumm gäbs wohl auch kein Quantum3D oder Evans & Sutherland.

Also ist das Grundprinzip der anisotropen Filterung schon ein Zugeständnis an fehlende Leistungsfähigkeit, und deswegens ists imo durchaus verständlich, dass man in dieser Sparte zu weiteren fps-Optimierungen angesetzt hat. Bloß übertreiben sollte mans nicht...Warum so viel Leistung verballern? Der Privatmann kann mit den Mängeln von Lehrbuchfiltern leben, er achtet darauf, dass die Hardware bezahlbar ist. Quantum3D und Co. bieten Speziallösungen für Spezialbranchen an.

AF ist kein Zugeständnis an fehlende Leistungsfähigkeit. AF bietet für den gleichen Aufwand ein deutlich besseres Sample. AF erfordert Extralogik und erlaubt, einen Filterkernel zu realisieren der das Pixel im Texturespace viel besser repräsentiert. AF ist insofern eine "echte" Methode und keine billige Abkürzung um sich um Supersampling drücken zu müssen. Supersampling ist eine Bruteforce-Methode mit dem Holzhammer die man nimmt, wenn aus irgendwelchen Gründen günstigere Methoden (MSAA mit Transparency AA, AF) vom Grafikchip nicht beherrscht werden.

Um noch ein konkretes Beispiel zu bringen: NVs Lehrbuch HQ AF kann auch mit LOD 0.0 das Problem von zerstückten Begrenzungslinien haben. Das hatten wir auch schonmal diskutiert. Hier hilft imo nur Überfilterung. Imo Schnellschuss. Auch die fälschlicherweise lineare Interpretation von sRGB-Texturen kann zu solchen Artefakten führen. Ein Filter hat ohne Überfilterung ein vernünftiges Ergebnis zu bringen. Tut er es nicht, müsste man mit Synthies prüfen, woran das nun genau liegt. Taugt die Textur nicht oder liegt es daran, dass der Filter-Algo Mängel aufweist? Wird generell unzulässig "optimiert" oder hat man hier einen Fall, für den der Filter nun mal nicht ausgelegt ist? Überfilterung macht alle Texturen tendenziell unscharf. Nun sehe ich bei ATI-Karten keine ungewöhnlich unscharfen Texturen, soweit ich weiß wirkt das ATI-AF im 90°-Winkel meist sogar geringfügig schärfer (als GF-HQ.) (Hier kenne ich aber nicht den letzten Stand der Dinge.) Überfiltert die Radeon wirklich so?

Das müsste man austesten, in dem man die Texturen bei unterschiedlichen Verzerrungsgraden vergleicht. Hat man z. B. genau 1:8, so dass exakt 8x AF zur Anwendung kommt, wird ja nicht überfiltert. Ist das Radeon-Ergebnis trotzdem flimmerfreier (ohne unschärfer zu sein) als das GeForce-Bild? Weil ATI womöglich etwas ungenauer rechnet, sollte man 1:7,9 oder so nutzen, damit er bei 1:8 nicht versehentlich schon 16x AF nimmt. Leider wurde dafür das Tool noch nicht geschrieben (womit man auch ausmessen könnte, welche AF-Grade intern nun wirklich geboten werden.)

P.S.: Weil damals noch viel weniger böse Texturen verwendet wurden (hauptsächlich wegen geringerer Auflösung) , konnte man tw. das LOD.Bias bei 4xAA ohne Probleme auf -2 setzen. Je nach App, war ein anderer Wert optimal. Bei -2 muss es flimmern, oder die Texturen taugen nichts. Gegenprobe: Ohne 4x SSAA und LOD -1 spielen. Wer dann kein Flimmern sieht, kann bei 4x auf -2 nutzen.

Ja bevor man die Texturunits Däumchen drehen lässt, lässt man sie halt überfiltern, überhaupt wenn man damit Unzulänglichkeiten bei der LOD Bestimmung kaschieren kann. Und zu stark Unterfiltert wird bei ATis brilinear anscheinend auch nicht. Sonst gäbs ja schon Beschwerden.Würden ATIs TMUs tatsächlich unterausgelastet, würden sie uns nicht mit "brilinearer" Filterung beglücken. Ich halte es noch immer für einen Skandal, dass ATI noch mit volltrilinearer Filterung geworben hat, als sie es längst nicht mehr boten. Gerade jetzt wo sie das TMU-ALU-Verhältnis auf 1:3 verschoben haben, wird ATI bemüht sein, beim Sampling wo es nur geht Taktzyklen zu sparen. Wenigstens hat ATI erkannt, dass geringere AF-Winkelabhängigkeit mehr Zusatzqualität bringt, als es fps kostet.

Dass die Adaptivität bei ATIs AF nicht so hoch ist wie bei der GeForce hängt damit zusammen dass ATI nicht bereit war, die Schaltkreise für die Zusatzlogik zu implementieren. AF sollte bis zum eingestellten Maximalgrad so hoch filtern wie nötig, aber so wenig wie möglich. Abgesehen von dem Winkelabhängigkeitsscheiß kann ich Nvidias Bemühungen, beim AF überflüssige Samples zu sparen, nur begrüßen. (Allerdings sind die aufgrund der CineFX-Architektur auch ganz besonders darauf angewiesen.)

Ja, mathematisch richtig. Der Spieler hingegen freut sich, wenn der Texturfilter auch trotz bösen Texturen nicht versagt (vgl. zerstückte Begrenzungslinien bei Filtertestproggi + spezielle Textur)Bei richtig bösen Texturen versagt auch ATIs Texturfilter. Bei nur schwierigen Texturen kann Überfilterung innerhalb des Kernels zu einem sanfteren und flimmerfreieren Ergebnis führen. Dafür opfert man damit auch Schärfe bei guten Texturen, die gerade an der Grenze zur "bösen" Textur sind.

Dennoch darf ein Fahrbahnrand auf dem Bildschirm nicht unterbrochen erscheinen. MIP-Mapping müsste dafür sorgen, dass es eher unscharf wird. Man müsste gucken, ob die Linie wirklich unterbrochen ist (dann funktioniert das AF nicht so, wie es sein sollte) oder ob es ein Gamma-Problem ist, welches "Hüggel" reinbringt die dann angesichts der ohnehin dünnen Linie wie eine Unterbrechung wirken.

Beim G70-AF gibts ja basierend auf Demirugs Untersuchungen und Überlegungen die Theorie, dass es nicht so funktioniert wie ursprünglich gedacht. Ich halte es für möglich, dass das G70-AF nur "in der Regel" ein valides Sample bringt, aber hier und dort (bei bestimmten Verzerrungsformen des Pixels im Texturespace) versagt.

Ja so wie man mit AA Bildschärfe opfert. Oder mit Extremsupersampling vgl zu mipmaplosen bilinearem Filtering...Mit AA opfert man keine Schärfe, das sieht nur so aus :) Ein Bild ohne AA scheint aufgrund harter Übergänge zunächst schärfer, ist aber falscher, da die Lage der Polygone ungenauer wiedergegeben wird.

Das Textursample ist je richtiger, je besser das Sample für das Pixel die Farben anteilig zusammenfasst, die dort bei korrekter Berechnung drin liegen. Dieses Kriterium führt zwar nicht zu größtmöglicher Flimmerfreiheit, sollte aber meiner Meinung das Kriterium darstellen.

aths
2006-02-18, 16:45:05
Ich glaube, man kann darüber streiten, ob Matsch oder Geflimmer mehr stört. Ein LOD-Bias!=0 ist im Normalfall natürlich Blödsinn, aber wenn ich die Wahl trilinearer Filter/trilinearer Filter + leicht negativer LOD hätte, würde ich mich wahrscheinlich für Letzteres entscheiden. Wobei....ich hab´ das lange nicht mehr live betrachtet. :biggrin:

€: aths, wie ist die Option "Direct3D MIP-map LOD Bias" zu interpretieren? "Best quality" ist 0, denke ich, aber was ist mit den anderen Einstellungen?Die sind schlechter, da ein positiver LOD-Bias genutzt wird.

Banshee18
2006-02-18, 16:54:30
Ja, hab ich auch schon bemerkt. Wie ist die Abstufung?

aths
2006-02-18, 17:30:47
Das weiß ich nicht mehr. Ich nutze diese Option ohnehin nicht.

Raff
2006-02-18, 17:36:18
Mag nicht noch einer die Spar-Filter allgemein und speziell Nvidia anhand World of WarCraft zerreißen? Ich kenne kein Spiel, das derart ausgeprägt "Artefakte" auswirft, wenn der Filter mal wieder auf Sparflamme arbeitet.

Übrigens fällt auch hier auf, dass HQ @ NV40 nicht gleich HQ @ G70 ist. Mit letzterem flimmert es subjektiv noch mehr. Der NV40 wird aber bereits von einem R350 verbraten. R4x0/5x0 kA. Wenn ich Zeit finde, baue ich mal Videos ... einfach, um mal von der Subjektivität weg zu kommen.

MfG,
Raff

mapel110
2006-02-18, 18:10:50
Mag nicht noch einer die Spar-Filter allgemein und speziell Nvidia anhand World of WarCraft zerreißen? Ich kenne kein Spiel, das derart ausgeprägt "Artefakte" auswirft, wenn der Filter mal wieder auf Sparflamme arbeitet.

Übrigens fällt auch hier auf, dass HQ @ NV40 nicht gleich HQ @ G70 ist. Mit letzterem flimmert es subjektiv noch mehr. Der NV40 wird aber bereits von einem R350 verbraten. R4x0/5x0 kA. Wenn ich Zeit finde, baue ich mal Videos ... einfach, um mal von der Subjektivität weg zu kommen.

MfG,
Raff
http://www.anandtech.com/video/showdoc.aspx?i=2381&p=4
the Radeon 9800 Pro behaves very similarly to the X700 Pro (a bit slower, but nothing huge) Das würde also bedeuten, weniger als 28.3 fps.
Und nvidia hat dort mit der 6800 GT 49,4 fps bei Q. HQ soll dort also ca 45 % kosten in einem ansonsten doch recht CPU-Limitierten Spiel?

Raff
2006-02-18, 18:15:50
Ja, HQ kostet obendrein noch sehr viel. Aber Quality ist da schlicht und einfach indiskutabel.

MfG,
Raff

Mr. Lolman
2006-02-18, 18:17:05
http://www.anandtech.com/video/showdoc.aspx?i=2381&p=4
the Radeon 9800 Pro behaves very similarly to the X700 Pro (a bit slower, but nothing huge) Das würde also bedeuten, weniger als 28.3 fps.
Und nvidia hat dort mit der 6800 GT 49,4 fps bei Q. HQ soll dort also ca 45 % kosten in einem ansonsten doch recht CPU-Limitierten Spiel?

Ich denke Raff meinte "BQ-mässig" verbraten. Außerdem war ich bisher der Meinung, dass ne 9800p schneller ist, als ne X700p.

BTW: Lies dir mal den Schwachsinn durch, denn Anandtech zur BQ schreibt.

MadManniMan
2006-02-18, 19:03:32
BTW: Lies dir mal den Schwachsinn durch, denn Anandtech zur BQ schreibt.

:ucatch:

"Even the NV3x GPUs had no problems in WoW, although their anisotropic filtering quality seemed to suffer in comparison to the latest GPUs."

Xmas
2006-02-18, 19:19:54
am besten würde ich aber für einen derartigen test aber fast die doom3-texturen nehmen. durch dass massig eingesetzte specular-bump-mapping sind diese sehr anspruchsvoll für den texturfilter, ohne aber wirklich übertrieben "böse" zu sein.
Dem kann ich jetzt nicht folgen. Bei Specular BM ohne AA im Shader kann der Texturfilter noch so gut sein, es kann trotzdem flimmern.

Gast
2006-02-18, 20:15:58
Dem kann ich jetzt nicht folgen. Bei Specular BM ohne AA im Shader kann der Texturfilter noch so gut sein, es kann trotzdem flimmern.

tut es aber bei doom3 (auf HQ) nicht, ganz im gegensatz zu riddick ;)

Gast
2006-02-20, 10:49:27
Deswegen sagte Xmas vermutlich auch "kann" und nicht "tut immer". ;-)


Q

Gast
2006-02-20, 10:56:36
Naja, lt PCGH flimmert Riddick selbst auf NV HQ mehr als auf ATI AIon. Besseres Texturmaterial verdeckt außerdem nur die Unzulänglichkeiten der Texturfilter.
Aus welcher Ausgabe stammt dieses Zitat? m.W. ist es schon "etwas" älter, oder?




Q

Mr. Lolman
2006-02-20, 12:10:43
Aus welcher Ausgabe stammt dieses Zitat? m.W. ist es schon "etwas" älter, oder?


11/05, Seite 118

Gast
2006-02-20, 13:10:52
11/05, Seite 118
Ah, danke schön. :)

Q

Gast
2006-02-20, 13:40:52
Wo finde ich diesen LOD-Clamp Schalter im deutschen treiber und wie schalte ich auf maximale qualität?

Thanx in A.

Mr. Lolman
2006-02-20, 14:25:32
Wo finde ich diesen LOD-Clamp Schalter im deutschen treiber und wie schalte ich auf maximale qualität?

Thanx in A.

An der gleichen Position wie im englischen Treiber. Für maximale Qualität halte dich an die im Artikel beschriebene Reihenfolge, oder verwende externe tools wie nhancer oder atuner.

Gast
2006-02-20, 14:31:44
Danke schön...

Gast
2006-02-20, 22:33:22
Na endlich wurde einmal erklärt wie man die NIVIDA Treiber richtig schalten muss, so das man die optimale Quallität rausholen kann.

Sehr guter Bericht, macht weiter so.

mfg

Hakkerstiwwel
2006-02-21, 09:26:30
@meine AF-Problematik

Ich hab jetzt alles geprüft, die Hardware ist soweit normal, aber scheinbar gabs Konflikte zwischen dem eigentlich deinstallierten CCC und rTool, die ua. auch diesen Grünstich produzierten. Das was mich dazu bewogen hatte CCC zu deinstallieren und wieder rTool zu verwenden war, dass bei mir AA unf AF erstmal in der Darstellung in Spielen verschwunden waren. Ich hab, nachdem ich rTool und ATI-Tool deinstalliert, Treiber neuinstalliert und auch das CCC wieder installiert habe, jetzt rausgefunden, dass das bei mir dann passiert, wenn ich das Häkchen bei dem in 6.2 neu eingeführten Punkt "AF höchster Qualität" setze.

Ich vermute mal die Funktion geht auf R300 einfach nicht, weswegen bei den ersten Testversuchen dann grafisch in eine Art "Save-Mode" geschaltet wurde, bei dem auch irgendwie Mip-Mapping abgeschaltet worden sein könnte. Seit ich aber mal probiert habe was passiert, wenn ich dann in GTL AA über die Spielkonfiguration anschalte bewirkt der Punkt "AF höchster Qualität" im CCC gar keine Änderung mehr und alles funktioniert normal - auch jetzt wo ich das in der Spielkonfiguration wieder abgeschaltet habe ist alles wieder so wies bei Cat 6.1 war und sein sollte. :smile: Ich hab dummerweise bei den Versuchen vor dem Ausflug über die Spielkonfiguration für Screenshots die falsche Taste gedrückt ([Druck] statt [F12]) und daher keine Screenshots mehr von den unter- oder ungefilterten Texturen, aber falls jemand sowas bei sich sehen sollte weiß er jetzt wie er das Problem los wird. ;)
der HQ Schalter spinnt definitif bei R4x0
siehe auch
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3993598&postcount=9

Elrood
2006-02-22, 17:02:40
3te Seite, 2ter Absatz:

Der ersten Tip bei Beschwerden über flimmerige Bildqualität lautet auch immer

:rolleyes:

Guter Artikel sonst!

deekey777
2006-02-22, 20:53:21
Erste Seite:
2. Anisotrope Mipfilter Optimierung
per default inaktiv
Schaltet bei TS>0 (Direct3D) bzw. bei allen Texturen (OpenGL) auf zwangsbilinearem Filter um (MIP-Banding-Neigung). Hat also trotz der missverständlichen Namensgebung nichts mit dem Filter gemein, der für die Erstellung der Mipmaps vantwortlich ist. :|

mooneye
2006-02-23, 14:55:01
Mich würde auch mal interessieren ob es eine Möglichkeit gibt,die Probleme welche Nvidia mit den Rennspielen hat(Aufblurrende weisse Linien mit Clamp on,und extremAliasing mit Clamp auf off trotz 4xAA,ausser ich stell 8x ein aber dann ist der Performanceeinbruch einfach zu gross mit meiner 7800GT) selbst zu beheben. Z.b in dem man selbst die Asphalttexturen so bearbeitet das alles so aussieht wie bei einer ATI.
Aber was muss man da genau ändern? Passiert das bei den Filteroptionen welche man im dds Utility von Nvidia einstellen kann,wenn man die Textur als .dds Datei abspeichert?Was genau muss ich anders einstellen damit die weissen Linien auch in HQ ohne Optimierungen mit 4xAA und 16xAF bis zum Horizont gehen und nicht aufblurren?
Rede hier vorallem von GTLegends, GTR und rFactor.
Also wenn hier jemand echt Bescheid weiss was ich tun muss, dann bitte melde er sich..... Danke

Ps: Eigentlich schon traurig dass nach ca 4 Monaten seit GTL draussen ist immer noch kein Fix dafür gemacht wurde, weder von Nvidia noch vom Spieleentwickler selbst............bad support

MadManniMan
2006-02-23, 15:04:14
Das extreme Aliasing mit Clamp Off ist freilich logisch - da ändert AA auch überhaupt nichts dran, weils sich nicht um Texturen schert. Der Effekt durch 8*AA kommt durch den Supersamplinganteil, aber das sollte Dir doch bewußt sein ;)

Gast
2006-02-23, 19:55:32
Mich würde auch mal interessieren ob es eine Möglichkeit gibt,die Probleme welche Nvidia mit den Rennspielen hat(Aufblurrende weisse Linien mit Clamp on,und extremAliasing mit Clamp auf off trotz 4xAA,


dass muss so sein, ohne clamp muss die textur, wenn sie ein negative LOD hat (was afiak bei GT-legends für die texturschicht der begrenzungslinien der fall ist) muss sie flimmern, bei korrektem LOD muss die linie zwangsweise irgendwann unscharf werden, 16xAF ist eben nicht unendlichfaches AF. zudem kommt man durch natürliche geländeübergänge recht leicht in den bereich, indem "dank" winkelabhängigkeit nicht mehr voll gefiltert wird.

8xS verdoppelt quasi den AF-grad auf waagrechten texturen, was natürlich gerade bei rennspielen sehr positiv auffällt.

mooneye
2006-02-24, 13:50:32
ja, schon ,nur warum geht es denn dann bei ATI Karten ohne Probleme?
Dort kann man mit 4xAA 8xAF die weissen Linien bis zum Horizont sehen.Hatte sogar mit meiner alten 9800Pro das bessere Bild als nun mit der 7800GT.
Ich hasse meine 7800 GT für das :P :P ;( :mad: und werde darum bals zu ner ATI wechseln
Und wenn man das ganze bei Nvidia nur mit 8xs AA beheben kann mit Clamp off, dann bricht eben die Performance viel zu stark ein.Habs extra ausprobiert in GTL auf der langen Geraden in SPA. Mit Clamp on 4xAA 16xAF 1280x1024 hab ich auf hohen Gamesettings 78Fps mit Clamp auf off 16xAF 8xsAA nur noch 52 Fps und das ruckelt schon und wirkt erst noch langsam. Ist echt zum heulen die Kombination Nvidia und GTL. :mad: :mad: ......und auch andere Racinggames............ :(

Gast
2006-02-24, 14:27:50
ja, schon ,nur warum geht es denn dann bei ATI Karten ohne Probleme?
Dort kann man mit 4xAA 8xAF die weissen Linien bis zum Horizont sehen.Hatte sogar mit meiner alten 9800Pro das bessere Bild als nun mit der 7800GT.


offenbar überfiltert die ATI-karte etwas so dass du mit dem leicht negativem LOD (fast) kein flimmern bemerkst. dadurch hast du quasi einen leicht höheren AF-level und damit auch schärfere texturen.



Und wenn man das ganze bei Nvidia nur mit 8xs AA beheben kann mit Clamp off, dann bricht eben die Performance viel zu stark ein.Habs extra ausprobiert in GTL auf der langen Geraden in SPA. Mit Clamp on 4xAA 16xAF 1280x1024 hab ich auf hohen Gamesettings 78Fps mit Clamp auf off 16xAF 8xsAA nur noch 52 Fps und das ruckelt schon und wirkt erst noch langsam.

das glaub ich dir aufs wort, 52fps ruckeln bestimmt :lol:, vor allem wenn man vielleicht sogar vor einem TFT sitzt der real das bild nur mit 60Hz updatet und durch die trägheit noch langsamer ist.

also sorry, wenn 52fps nicht mehr reichen, dann weiß ich wirklich nicht mehr weiter.

moeb1us
2006-02-24, 18:04:33
das ist ja nur subjektiv zu bewerten, obwohl ich persönlich von solchen bildraten in gtl nur träumen kann -schnüff-

zum artikel möchte ich lolman auch noch gratulieren, auch wenn ich immer wieder über deine kommasetzung stolpere :D

Ailuros
2006-02-28, 16:06:48
Zwar etwas spaet dran der Artikel, aber trotz allem kurz, uebersichtlich und strikt auf den Punkt. Die bisherigen Meinungsverschiedenheiten (subjektiv oder objektiv) wurden ja schon erwaehnt also ueberflussig. Ausgezeichnete Arbeit :)



Bei 8xSGSSAA (meinetwegen 16 oder gleich 64, egal) und angepasstem LOD, könnte man sich in vielen Fällen AF schon komplett sparen. Bei dermassen negativen LOD bräuchte man auch keinen trilinearen Filter mehr und könnte sich so auch eine etwaige "bri" Logik im Chip sparen. Dann baut man einfach ein Füllratenmonster und gut ist.

Bei 16xSS bekommst Du einen negativen LOD u.U. von -2.0, was in etwa 4xAF entspricht. Der Vergleich zwischen dem was an Fuellrate fuer 16xSS und 4xAF braucht, zeigt wie idiotisch die erste Methode waere.

1. Man braeuchte nicht nur eine Uebermenge an Fuellrate fuer hohe SS sample Anzahlen sondern eine unrealistische Menge an Bandbreite und Speicher. Nur ein TBDR waere hier eine Loesung, aber die Fuellraten-Verschwendung wuerde auch hier gelten.

2. Wie steht es mit float HDR und AA Kombinationen noch mehr fuer (1) fuer die absehbare Zukunft?

3. Analytische AA Algorithmen waeren eine Zwischen-loesung (z.B. irgend eine Art pseudo-stochastic SSAA) fuer (1) und (2), nur braeuchte man sowieso hier >16x/32x samples das es Sinn machen wuerde. Das naechste Dilemma waere aber auch hier warum nicht gleich pseudo-stochastisches Multisampling anstatt um auch hier Fuellrate zu sparen.

Brilinearen Quark und jegliche anderen Optimierungen koennte man auch mit trilinearen TMUs einsparen, und diese kommen auch um zich-Male billiger als eine von Grund auf schlecht balancierte GPU mit einer idiotisch hohen bilinearen Fuellrate fuer SSAA.

aths
2006-02-28, 21:22:34
Brilinearen Quark und jegliche anderen Optimierungen koennte man auch mit trilinearen TMUs einsparen, und diese kommen auch um zich-Male billiger als eine von Grund auf schlecht balancierte GPU mit einer idiotisch hohen bilinearen Fuellrate fuer SSAA.Ganz genau.

Leonidas
2006-03-04, 06:19:54
Schreibfehler noch gefixt.

Mr. Lolman
2006-03-14, 23:54:49
Imo sollte man den Artikel unbedingt auf Englisch übersetzen!

Wer würde dabei helfen?


(Neuer Thread dafür?)

Gast
2006-03-15, 00:50:02
Hmm, wenn ich ehrlich bin, würde ich sagen, dass es da andere Artikel gäbe, deren Übersetzung ich für sinnvoller halte (nichts gegen dich Lolman ;)). Zum Beispiel "Der lange Weg zum HDR-Rendering" oder auch ein paar ältere Artikel. Aber das ist nur meine Meinung. ;)

deekey777
2006-03-15, 01:43:52
Imo sollte man den Artikel unbedingt auf Englisch übersetzen!

Wer würde dabei helfen?


(Neuer Thread dafür?)

Nachahmer: http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=23

;) :D

MikBach
2006-03-22, 14:12:35
Schon mitbekommen, dass auch der Artikel von Lolman (neben dem Flimmerartikel von aths) bei Geizhals verlinkt wird?
http://www.geizhals.at/deutschland/a191901.html

@Lolman

guter, ausführlicher Artikel. Sogar mit Anleitung, wie man es richtig einstellt. :up:

Hakkerstiwwel
2006-03-22, 15:36:31
Imo sollte man den Artikel unbedingt auf Englisch übersetzen!

Wer würde dabei helfen?


(Neuer Thread dafür?)
Bin at mom etwas knapp mit der Zeit
Seite 1 fuer Freitag? :deal: ?

Mr. Lolman
2006-03-22, 15:43:39
Schon mitbekommen, dass auch der Artikel von Lolman (neben dem Flimmerartikel von aths) bei Geizhals verlinkt wird?
http://www.geizhals.at/deutschland/a191901.html

@Lolman

guter, ausführlicher Artikel. Sogar mit Anleitung, wie man es richtig einstellt. :up:


Thx :)

Bin at mom etwas knapp mit der Zeit
Seite 1 fuer Freitag? :deal: ?

Ja gerne!

Vertigo
2006-03-22, 16:10:50
Thx :)



Ja gerne!
Wenn Du noch einen Übersetzer suchst ... vielleicht kann man sich ja in die "Arbeit" reinteilen?

Mr. Lolman
2006-03-22, 16:51:12
Wenn Du noch einen Übersetzer suchst ... vielleicht kann man sich ja in die "Arbeit" reinteilen?

Immer. Würdest du Seite2 übernehmen?

Vertigo
2006-03-22, 16:56:36
Immer. Würdest du Seite2 übernehmen?
Geht klar. Ist ja nicht viel Text. Werde mich gleich mal ransetzen.

Hakkerstiwwel
2006-03-23, 09:48:20
Geht klar. Ist ja nicht viel Text. Werde mich gleich mal ransetzen.
Good Luck
ich hasse Lolman :udevil: , und zwar nicht fuer das was, sondern wie er es geschrieben hat. Dieser Text ist der am schwersten uebersetzbare was mir je untergekommen ist.

aeedit
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4115160#post4115160

page 1 online

Vertigo
2006-03-23, 12:44:27
Good Luck
ich hasse Lolman :udevil: , und zwar nicht fuer das was, sondern wie er es geschrieben hat. Dieser Text ist der am schwersten uebersetzbare was mir je untergekommen ist.

aeedit
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4115160#post4115160

page 1 online
Naja, Seite 1 hat ja mehr Text als Seite 2 und 3 zusammen - Hut ab vor Deiner Leistung !

Hakkerstiwwel
2006-03-23, 14:31:12
Naja, Seite 1 hat ja mehr Text als Seite 2 und 3 zusammen - Hut ab vor Deiner Leistung !
Danke, deins war ja auch nicht nur ein wenig :uhippie:
Hab deine Seite 2 etwas modifiziert. Ich bin mir aber sicher dass Zecki unser beider Machwerke noch etwas frisieren wird.

Gast
2006-03-23, 14:37:56
Danke, deins war ja auch nicht nur ein wenig :uhippie:
Hab deine Seite 2 etwas modifiziert. Ich bin mir aber sicher dass Zecki unser beider Machwerke noch etwas frisieren wird.
Kann er ruhig tun - ich habe schon ewig nicht mehr Deutsch-Englisch übersetzt, nur umgekehrt. Das da in 1,5h einige Fehler passieren würden, war mir schon klar. Aber man versteht ja hoffentlich, was gemeint ist.

MfG Heinrich

Gast
2007-07-25, 02:32:43
schonungslos!

Danke Mr. Lolman!