PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ist die 6600GT schneller als die 9800pro?


Seiten : 1 [2] 3

InsaneDruid
2005-02-06, 17:34:44
Ich muss ehrlich sagen, dass mich Polygongaps in den seltensten Fällen gestört haben, da ich bis zum Schluss fast jedes Spiel mit 1280x1024 4xAA gespielt hab. (Ok D³ ohne AA, und FC nur mit 2xAA) Um das flüssig darzustellen musste halt schon ab und an mal biAF aktiv sein. Und der bilineare Filter birgt weitaus größere Unregelmässigkeiten in der 3D Darstellung als tw. auftretende Polygongaps. ;)

Aber ich muss zugeben, dass mir mit der 6800GT bisher nur bei SplinterCell welche aufgefallen sind, und auch nur deswegen weil ich danach gesucht hab. Insgesamt müsste die Wahrscheinlichkeit des Auftretens solcher Gaps, natürlich aufgrund der höheren Subpixelpräzision geringer sein (und so ists mit großer Sicherheit auch), nur bedeutet das halt nicht, das man mit ner NV40 davor vollkommen gefeit ist...

Il2 hab ich leider nicht, und bei Ut2k4 ist mir hinsichtlich Polygongaps nix aufgefallen. Nur bin ich vll. kein Indikator dafür, da mir auch bei der R300 in UT2k4 keine Polygongaps aufgefallen sind. Dafür merkt man da relativ schnell, dass man bei der Qualitätseinstellung (Standard) (zumindest bei UT2004) nur einen astreinen bilinearen Filter auf allen TS>0 serviert bekommt. Außerdem ist das AF im Ggs zu ATi eher unscharf als überscharf (so wie bei ATi der tw. Fall). Aber dafür gibts ja LOD Regler...


Hm siehste, ich seh nun wieder jeden Gap und reagier höchstgradisch allergisch, wohingegen mich das optimierte AF in den seltensten Fällen stört.

Kannst du mal in ONS-Crossfire gucken, nähe Punkt 5 in östlicher Richtung.

http://photobucket.com/albums/v103/cvmIh6EV/dinge%20und%20sachen/th_snap153.jpg (http://img.photobucket.com/albums/v103/cvmIh6EV/dinge%20und%20sachen/snap153.jpg)

Da isses richtig gehend ultrakrass, wobei ich da eher die Devs für schuldig machen wöllte.

aths
2005-02-06, 17:34:48
Schon klar das SM2.0 keine Geschwindigkeit definiert. Reden wir aneinander vorbei?

Sicher bin ich mir auch nicht. Es war nur seltsam, dass auf der R300 die liebe Ruby komplett auflösungs- (und AA Modus-) unabhängig immer ziemlich gleich läuft. Daher die Theorie mit der VS Limitierung...Ist Ruby denn auf dem NV40 auch von der Äuflösung (weitgehend) unabhängig?

Doch, aber ein korrektes LOD und ein vernünftig funktionierender trilinearer Filter sollten auch bei Bumpmapping jegliches Moiré vermeiden können, oder?Nein.

Wenn der Entwickler "vernünftige" Bumpmaps erstellt, dann ja. Allerdings gibts hier das Problem des Detailgrades. Je mehr Details, die je stärker herausgearbeitet werden sollen, desto anfälliger ist Bumpmapping fürs Flimmern.

Jesus
2005-02-06, 17:39:46
Kann man aber abschalten.

Das bezog sich eher auf diesen Test. Die applikationsspezifischen Optimierungen kannst du aber bei NV nicht abschalten, zumdinest ist mir keine Möglichkeit bekannt. Von daher ist es auch kaum vergleichbar, da AI =off leider alle Optimierungen ausschaltet.

Mr.Magic
2005-02-06, 17:45:59
Mit dem Regler auf High Quality sollten auch die anwendungsspezifischen Optimierungen aus sein.

StefanV
2005-02-06, 17:47:44
Nein, eigentlich nicht

Mr. Lolman
2005-02-06, 17:49:17
Ist Ruby denn auf dem NV40 auch von der Äuflösung (weitgehend) unabhängig?

Mal testen...


Nein.

Wenn der Entwickler "vernünftige" Bumpmaps erstellt, dann ja. Allerdings gibts hier das Problem des Detailgrades. Je mehr Details, die je stärker herausgearbeitet werden sollen, desto anfälliger ist Bumpmapping fürs Flimmern.


Ja aber was ist mit Nyquist? Unabhängig vom Content, darf ein Texel nie kleiner als ein Pixel sein, sonst flimmerts. Ohne Mipmaps würd ichs ja verstehen, aber bei aktivem Mipmapping, korrektem LOD und trilinearem Filter darfs kein Moiré geben. Flimmern meinetwegen schon, das liegt dann wirklich an der Schärfe (bzw. am Detailsgrad) der Bumpmap, aber doch kein Moiré, oder täusch ich mich da?

robbitop
2005-02-06, 18:01:32
Also dass bei D3 ein Grossteil der NV Performance von Shaderreplacements und App spezifischen Optimerungen stammen und nicht von der "überlegenen" Architektur, Ultrashadow etc. sollte eigentlcih mittlerweile bekannt sein.

Das stimmt nur bedingt.
Ich habe das mal untersucht. Die 6800 verlor durch das Abschalten der Optimierungen in Doom 3 (Demirug/Quasar Methode) ziemlich genau 50% Leistung im TRDM1.
Bei ATI habe ich es mit einem "unoptimierten" Treiber getestet gegen einen "optimierten". Auch hier waren es komischerweise ziemlich genau 50%.
Shaderreplacements bringen bei beiden IHVs den gleichen Performance-UP.
Das Verhälltnis bleibt also gleich. Verwundert mich angesichts der besseren ROPs und des hier besser geeigneten Early Z auch keinesfalls.

---
Bei HL2 war es allerdings mehr als Shaderreplacements. Hier hat man bei ATI wohl an den Shadern mitgeschrieben. Schön kurz und viele T-Ops reingehauen. Möglicherweise auch RSQ.
Wundert mich gar nicht, dass hier R3xx/4xx vorn liegen muss.
Laut Demi ist hier nämlich kein Shaderreplacement möglich.

Aus diesem Blickwinkel kann ich nicht verstehen, warum man beide Spiele miteinander vergleicht.

Mr. Lolman
2005-02-06, 18:17:49
Hm siehste, ich seh nun wieder jeden Gap und reagier höchstgradisch allergisch, wohingegen mich das optimierte AF in den seltensten Fällen stört.

Kannst du mal in ONS-Crossfire gucken, nähe Punkt 5 in östlicher Richtung.

http://photobucket.com/albums/v103/cvmIh6EV/dinge%20und%20sachen/th_snap153.jpg (http://img.photobucket.com/albums/v103/cvmIh6EV/dinge%20und%20sachen/snap153.jpg)

Da isses richtig gehend ultrakrass, wobei ich da eher die Devs für schuldig machen wöllte.


Ja gibts auf der NV Karte auch, wennauch in weitaus geringerer Form (flimmern tun die Pixel schon deutlich, nur bekommt man kaum mehr als 1-2 Pixelfehler gleichzeitigaufs Bild, deswegen die Position) Aber warum machst du nicht einfach AA an. Mit ein paar Tweaks lief UT2004 auf meiner 9700pro @400/350 mit fast höchster Detailstufe (bis auf Physik (normal), Dynamic MeshLod (normal), Charakter Shadows (none), trilinea (deaktiviert)) mit 1280x1024 4xAA/4xbiAF wunderbar flüssig. Gut ein paar ini Tweaks wie "DefaultTexMipBias=0.0" und "MinDesiredFrameRate=0.000000" waren auch notwendig aber noAA sieht einfach mies aus. Da kommt mir vom Treppchenwandern noch viel mehr das ko..en als von den flimmrigen Pixel. (Glaub mir, ich hätt das Spiel nicht auf meiner Radeon spielen wollen, wenn die Darstellung desselbigen auf deinem Screenshot dem Optimum entspräche)

http://img232.exs.cx/img232/3477/shot000502et.th.jpg (http://img232.exs.cx/my.php?loc=img232&image=shot000502et.jpg)

Coda
2005-02-06, 18:24:13
Also bissel mehr Subpixelpräzission wär bei ATi echt mal nicht schlecht. ATi rendert auf 1/16 pixel genau, nVidia auf 1/4096 (!).

Mr. Lolman
2005-02-06, 18:27:46
Also ich hätt da mal ne nette Textur wo es - ohne Bumpmapping, mit passendem LOD, trilinearem Filter, Treiber @ HQ & deaktivierte Optimierungen schon bei simplen Singletexturing - zu hässlichem Moiré kommt. Es liegt nämlich wirklich an den Unterschieden in den Mipmaps. (Mipmaps mit Cubic Filter erzeug(t)/en):

http://img166.exs.cx/img166/8985/metal448he.png

DDS File: http://img166.exs.cx/img166/7171/metal44dds3se.jpg (mit Endung "dds" speichern...)

Mr. Lolman
2005-02-06, 18:29:32
Also bissel mehr Subpixelpräzission wär bei ATi echt mal nicht schlecht. ATi rendert auf 1/16 pixel genau, nVidia auf 1/4096 (!).

Hm, ohne Pfusch würden 0bit Subpixelpräzision reichen...

aths
2005-02-06, 18:38:41
Hm, ohne Pfusch würden 0bit Subpixelpräzision reichen...Wie kommst du denn darauf?

aths
2005-02-06, 18:40:50
Ja aber was ist mit Nyquist? Unabhängig vom Content, darf ein Texel nie kleiner als ein Pixel sein, sonst flimmerts. Ohne Mipmaps würd ichs ja verstehen, aber bei aktivem Mipmapping, korrektem LOD und trilinearem Filter darfs kein Moiré geben. Flimmern meinetwegen schon, das liegt dann wirklich an der Schärfe (bzw. am Detailsgrad) der Bumpmap, aber doch kein Moiré, oder täusch ich mich da?Genau das mit Nyquist ist das Problem. Ein Normalmap-Texel ist beim Bumpmapping eine Normale, und kein Bildtexel. Bumpmapping ist eine Funktion, welche im Ergebnis für geringere oder höhere Frequenzen sorgen kann, als das als Bildinhalt interpretierte Ausgangsmaterial aufweist.

Nicht alle Aliasing-Effekte würde ich als Moiré bezeichnen. Moiré ist soviel ich weiß ein Artefakt der beim Umtasten eines bereits gerasterten Bild in ein anderes Raster entstehen kann.

Black-Scorpion
2005-02-06, 18:44:07
Das stimmt nur bedingt.
Ich habe das mal untersucht. Die 6800 verlor durch das Abschalten der Optimierungen in Doom 3 (Demirug/Quasar Methode) ziemlich genau 50% Leistung im TRDM1.
Bei ATI habe ich es mit einem "unoptimierten" Treiber getestet gegen einen "optimierten". Auch hier waren es komischerweise ziemlich genau 50%.
Shaderreplacements bringen bei beiden IHVs den gleichen Performance-UP.
Das Verhälltnis bleibt also gleich. Verwundert mich angesichts der besseren ROPs und des hier besser geeigneten Early Z auch keinesfalls.

---
Bei HL2 war es allerdings mehr als Shaderreplacements. Hier hat man bei ATI wohl an den Shadern mitgeschrieben. Schön kurz und viele T-Ops reingehauen. Möglicherweise auch RSQ.
Wundert mich gar nicht, dass hier R3xx/4xx vorn liegen muss.
Laut Demi ist hier nämlich kein Shaderreplacement möglich.

Aus diesem Blickwinkel kann ich nicht verstehen, warum man beide Spiele miteinander vergleicht.
Den Beitrag (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157) von Demi zu D³ und nVidia kennst du aber?
Oder hat sich daran was geändert.

Mr. Lolman
2005-02-06, 18:58:14
Wie kommst du denn darauf?


Gut war vll. etwas übertrieben formuliert. Das Pixelflimmern (aka Polygongaps) ensteht ja IMHO erst dadurch, dass Polygonkanten nicht genau aneinander liegen. Aber ich glaub fast ich überseh da was...


Nicht alle Aliasing-Effekte würde ich als Moiré bezeichnen. Moiré ist soviel ich weiß ein Artefakt der beim Umtasten eines bereits gerasterten Bild in ein anderes Raster entstehen kann.

Sind wir uns einig, dass das Moiré ist?
http://img32.photobucket.com/albums/v95/franz/quake00010.gif

BTW: Soll ich noch eine animierte gif vom dds Plugin basteln, wo man sieht, dass es auch ohne Bumpmapping definitiv Moiré gibt, sofern sich die einzelnen Mipmaps stark genug voneinander unterscheiden?

Coda
2005-02-06, 19:07:21
Gut war vll. etwas übertrieben formuliert. Das Pixelflimmern (aka Polygongaps) ensteht ja IMHO erst dadurch, dass Polygonkanten nicht genau aneinander liegen. Aber ich glaub fast ich überseh da was...Auf dem Standbild nicht, aber in Bewegung würd's wirklich furchtbar aussehen :D
Auch hier is ATi mal wieder beim absoluten Minimum des brauchbaren, im CAD Bereich is das aber eigentlich nich brauchbar. Keine Ahnung wie die die das bei den FireGL machen.

Jesus
2005-02-06, 19:22:01
Das stimmt nur bedingt.
Ich habe das mal untersucht. Die 6800 verlor durch das Abschalten der Optimierungen in Doom 3 (Demirug/Quasar Methode) ziemlich genau 50% Leistung im TRDM1.
Bei ATI habe ich es mit einem "unoptimierten" Treiber getestet gegen einen "optimierten". Auch hier waren es komischerweise ziemlich genau 50%.
Shaderreplacements bringen bei beiden IHVs den gleichen Performance-UP.
Das Verhälltnis bleibt also gleich. Verwundert mich angesichts der besseren ROPs und des hier besser geeigneten Early Z auch keinesfalls.


Wenn das bei NV wirklich 50% sind ist es schon ziemlich übel finde ich. Allerdings hatte ich bei mir (ATI) nie wirklich so einen krassen Performancesprung durch AI (siehe auch hier (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=123&seite=18)

aths
2005-02-06, 19:35:36
Den Beitrag (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157) von Demi zu D³ und nVidia kennst du aber?
Oder hat sich daran was geändert.Wer sagt, dass ATI inzwischen nicht auf den gleichen Trichter gekommen ist?

Jesus
2005-02-06, 19:42:46
Also bissel mehr Subpixelpräzission wär bei ATi echt mal nicht schlecht. ATi rendert auf 1/16 pixel genau, nVidia auf 1/4096 (!).

Da aber dieses Pixelflimmern auf beiden Karten auftritt scheint das wohl nicth all zu viel zu bringen, im Verhältnis zum betriebenen Aufwand.

aths
2005-02-06, 19:54:09
Da aber dieses Pixelflimmern auf beiden Karten auftritt scheint das wohl nicth all zu viel zu bringen, im Verhältnis zum betriebenen Aufwand.Prinzip des abnehmenden Ertrages. Imo aber kein Grund, praktisch alles bis an die Wahrnehmungsschwelle zu senken. Das Risiko des sichtbaren Qualitätsverlustes steigt, und wir leben im Jahr 2005. Warum überall auf Kraft das letzte Bit sparen, zumal es andere zeigen, dass man auch Chip bauen kann die "Vollqualität" liefern? Seit NV40 sogar mit "Vollleistung", wenn man so will.

Black-Scorpion
2005-02-06, 19:56:35
Wer sagt, dass ATI inzwischen nicht auf den gleichen Trichter gekommen ist?
Was hat das jetzt mit ATI zu tun?
Hast du auch gelesen was robbitop zu D³ und nVidia geschrieben hat?
Und dann das was Demi geschrieben hat?
Dann bleibt immernoch die Frage wo nVidia den Rest der Leistung rausholt.

Und ich habe gefragt ob sich daran (Demis Beitrag) was geändert hat (durch neue Erkenntnisse).

PS. Und nicht wieder die überlegene Hardware als Grund anführen.
Das wurde schon so oft runtergebetet.

Jesus
2005-02-06, 20:05:03
Hab eben mal wieder D3 eingeworfen:

timedemo demo1 usecache jeweils:

1024x768 0xAA 1xAF, um Filtertricks auszuschliessen:

AI off: 50.5 fps
AI Standard: 50.6 fps
AI Aggressive: 50.7 fps

Nein, das ist kein Witz :rolleyes:

Edit; und nochmal mit 1024x768 4xAA 1xAF:
AI off: 28.2 fps
AI standard: 28.2 fps


(Cat 5.1, Vsync off, triple buffer off)
:up:

godess
2005-02-06, 20:08:45
ich denk mal AI bringt auf den r4xx mehr als beim r3xx. deswegen würde der unterschied bei einer 850xt größer ausfallen. das denke ich jedenfalls.

StefanV
2005-02-06, 20:29:05
ich denk mal AI bringt auf den r4xx mehr als beim r3xx. deswegen würde der unterschied bei einer 850xt größer ausfallen. das denke ich jedenfalls.
Hast du dafür ev. auch 'nen Beweis oder ist das nur deine Vermutung?!

aths
2005-02-06, 20:34:31
Was hat das jetzt mit ATI zu tun?
Hast du auch gelesen was robbitop zu D³ und nVidia geschrieben hat?
Und dann das was Demi geschrieben hat?
Dann bleibt immernoch die Frage wo nVidia den Rest der Leistung rausholt.

Und ich habe gefragt ob sich daran (Demis Beitrag) was geändert hat (durch neue Erkenntnisse).Mein aktueller Kenntnisstand ist, dass ATI den Abstand in Doom 3 verkleinern konnte, jedoch ohne NV40-Leistung zu erreichen. Geht man davon aus, dass ATI in der Treiberabteilung keine schlechteren Leute beschäftigt als Nvidia, darf man annehmen, dass ATI aus Doom 3 ungefähr inzwischen so viel rausholt, wie NV. Dass NV +100% schafft, wie robbitop meint, bezweifle ich.

PS. Und nicht wieder die überlegene Hardware als Grund anführen.
Das wurde schon so oft runtergebetet.Trotz erheblichem Taktnachteil bleibt bei der GeForce das Plus. Für mich liegt da der Schluss nahe, dass sich hier bestimmte zusätzliche Schaltkreise auszahlen, die die Radeon nicht hat.

godess
2005-02-06, 20:39:44
Hast du dafür ev. auch 'nen Beweis oder ist das nur deine Vermutung?!
lies es, dann siehst du das es meine vermutung ist. warum? den r3xx hat ATi schon "runter" optimiert, sodass die optimierungen nur noch dem r4xx zu gute kommen.

aths
2005-02-06, 20:42:34
Hast du dafür ev. auch 'nen Beweis oder ist das nur deine Vermutung?!Wenn er schreibt "Ich denke mal", was wird es denn höchstwahrscheinlich sein?

Jesus
2005-02-06, 20:59:12
lies es, dann siehst du das es meine vermutung ist. warum? den r3xx hat ATi schon "runter" optimiert, sodass die optimierungen nur noch dem r4xx zu gute kommen.

Wie soll das möglich sein ? Der r4xx basiert doch zu 99,9999% auf dem total veralteten r3xx... , nur mehr Takt und Pipes eben:eek:

Coda
2005-02-06, 21:03:11
Naja rumoptimiert wurde ja, das ist ja schließlich bekannt.

Mr. Lolman
2005-02-06, 21:13:56
Hast du dafür ev. auch 'nen Beweis oder ist das nur deine Vermutung?!

Ich denke mal AI bringt auf RV3x0/R360* und R420 Karten ca,. gleichviel.


*bin mir ziemlich sicher dass der R360 auch brilinear kann...

Mr. Lolman
2005-02-06, 21:15:51
Sry, wenn ich das jetzt so von mir gebe, daber das was NV als trilinearen, unoptimierten HQ Filter anbietet, ist ne Frechheit. Zumindest beim 61.76. Folgendes Setting: UT2004, LOD Bias sowohl im Treiber als im Spiel (ut2004.ini) selbst, sowie für die Textur(UnrealED) im speziellen war 0.0:

1024x768 noAA/AF, HQ:

http://img211.exs.cx/img211/8818/shot000901vx.th.gif (http://img211.exs.cx/my.php?loc=img211&image=shot000901vx.gif)
(animiertes gif)

Wer nix erkennnen kann, kann sich gerne von mir das 6MB große Orignal schicken lassen, oder er testets einfach selbst: http://img211.exs.cx/img211/6038/filtertestut20pw.jpg (mit "ut2" Endung abspeichern)

Damit man auch wirklich sieht, dass der NV40 mit HQ und trilinearem Filter Herrn Moiré alle Ehre macht, sollte man in der ut2004.ini den Wert "DefaultTexMipBias" auf "0.0" stellen und eine Auflösung von 1024x768 gewählt haben. Dann einfach in der Startposition verharren und unter ständig kreisenden Mausbewegungen die Wände beobachten :biggrin:. Obwohl mit der Standardeinstellung von -0.5 kanns eigentlich nur schlimmer werden. Vll. muss man ein paar Schritte zurückgehen. Am besten selbst ausprobieren.


Schade. Auf gute HQ Filterung hatte ich eigentlich schon gehofft als ich mir das NV Teil zugelegt hatte. Mal sehen wie sich die ATi Karten dabei schlagen. Testet alle mit... :D

aths
2005-02-06, 21:25:41
Sry, wenn ich das jetzt so von mir gebe, daber das was NV als trilinearen, unoptimierten HQ Filter anbietet, ist ne Frechheit.
Was NV da anbietet, ist sehr gut. Wenn das in diesem Spiel flimmert, liegt das am Spiel. Behaupte ich jetzt einfach mal, denn ich hatte mit echter trilinearer Filterung bislang nirgends Probleme. Edit: Außer in UT, wie schon mal geschrieben.

Mr. Lolman
2005-02-06, 21:35:12
Behaupte ich jetzt einfach mal, denn ich hatte mit echter trilinearer Filterung bislang nirgends Probleme.

Dann test doch mal mein Level, oder sieh dir die von mir auf der letzten Seite verlinkten Textur mal genauer an.

Wenn mir ganz fad ist, bau ich das Gleiche für UT99/Q3a und Farcry. Ich stell jedoch einfach mal die Behauptung in den Raum, dass das in KEINEM Spiel das auch nur irgendwie besser sein wird (Klar, wenn in UT2004 flimmert, liegts an UT2004 -> Weil eben der LODBias standardmässig negativ ist. Deswegen hab ich ja extra dazugeschrieben, dass man in auf 0.0 stellen soll. :ucrazy4:) Und wenn man schon höchst theoretische Artikel über ATis Filtertricks verfasst, sollte man zumindest so offen sein, sich ein praktisches Beispiel näher anzusehen, um einzusehen, dass das was NV anbietet, BEI WEITEM nicht so rosig ist, wie man immer propagiert!

aths
2005-02-06, 21:40:44
Und wenn man schon höchst theoretische Artikel über ATis Filtertricks verfasst, sollte man zumindest so offen sein, sich ein praktisches Beispiel näher anzusehen, um einzusehen, dass das was NV anbietet, BEI WEITEM nicht so rosig ist, wie man immer propagiert!Bleiben wir doch sachlich. Entweder hat NV eine applikationsabhängige Treiber-"Optimierung", die Unterfilternung erzwingt. Oder es liegt am Spiel bzw. dessen Content. Das erste halte ich für sehr unwahrscheinlich. Oder es ist eine "böse" Textur. Bestimmte Texturinhalte (die alle gemeinsam haben, dass sie hochfrequente Anteile besitzen) flimmern auch mit bestem Lehrbuch-TF (oder AF.)

SKYNET
2005-02-06, 21:49:37
Reicht es dir nicht daß die 6600 GT die Krone im 200,-€ Segment hat? Mußt du noch hinzufügen daß du irgendwo mal eine 6600GT für 153,-€ gesehen hast? Wenn ich lang genug suche finde ich auch noch ne 9800 Pro für 153,-€ in den Weiten des I-Net. Fakt ist daß der Straßenpreis im Ruhrpott für beide Karten so bei 200,-€ liegt und die 6600 GT klar die bessere Karte fürs Geld ist.

Der Rest deines Mamumutpostings ist übelstes Fanboygespamme. Probleme mit abrauchenden Grafikkarten oder Treibern die hier und dort mal Ärger machen gibts auf allen Seiten. Das Niveau der ATI/nV-Treiber ist sehr hoch. Fehler auf Grund der Komplexität aber unvermeidlich. Es ist nicht möglich auch nur 1000 Zeilen Code zu schreiben der nicht mindestens 2 Fehler enthält.



suchen ? ist ganz normal bei geizhals gelistet mein jung. :P

Mr. Lolman
2005-02-06, 21:58:36
Oder es ist eine "böse" Textur. Bestimmte Texturinhalte (die alle gemeinsam haben, dass sie hochfrequente Anteile besitzen) flimmern auch mit bestem Lehrbuch-TF (oder AF.)

Einigen wir uns auf die böse Textur. Ich bin halt enttäsucht, dass das was ich bei ATi als Zeugnis div. HW mässigen Filteroptimierungen zu erkennen glaubte, bei NV im gleichen Maße auftritt...

StefanV
2005-02-06, 22:01:15
Was NV da anbietet, ist sehr gut.

Ists nicht, aber das kannst ja z.B. mit Demis D3D TExturfiltertest selbst nachprüfen...

aths
2005-02-06, 22:04:46
Einigen wir uns auf die böse Textur. Ich bin halt enttäsucht, dass das was ich bei ATi als Zeugnis div. HW mässigen Filteroptimierungen zu erkennen glaubte, bei NV im gleichen Maße auftritt...Zecki hat mal n Filtertester geschrieben, da flimmern die Texturen prinzipiell, einige noch mit LOD-Bias +2. Am LOD-Bias sollte man aber grundsätzlich nicht spielen :) also sollten die Content-Artworker (hihi, tolles denglisch) gefälligst keine "bösen" Texturen nehmen.

Aus verschiedenen Gründen sind versprenkelte helle (oder dunkle) Texel in einer Textur auch "böse". Zu den Gründen zählt unter anderem die lineare MIP-Erzeugung, obwohl Texel-Farben oft nichtlinear (sondern annähernd für sRGB) gespeichert sind.

aths
2005-02-06, 22:07:19
Ists nicht, aber das kannst ja z.B. mit Demis D3D TExturfiltertest selbst nachprüfen...Was sollte ich da sehen?

robbitop
2005-02-06, 22:18:40
Den Beitrag (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157) von Demi zu D³ und nVidia kennst du aber?
Oder hat sich daran was geändert.

Das war das reine Editieren einer HLSL Datei, die alle Optimierungen von NV raushaut. Das hat Demi damals entdeckt und es gab einen riesen großen Performanceabfall.
Laut meinen Messungen 50% (mit späteren Treibern hat NV diese Optimierung in den Treiber übernommen und das Verändern der HLSL Datei bringt nichts mehr).
Bei ATI kam damals von einem Cat auf den anderen genau dieses Speedup (fast auf den Prozent genau).
Beide optimieren applikationsspezifisch. Was sie da machen, weiß ich nicht und es spielt keine Rolle. Offenbar machen beide dasselbe, NV früher als ATI.
Beide gewinnen gleich viel Performance -> der Maßstab ändert sich nicht. Und nur darauf wollte ich hinaus.
Got it? ;)

InsaneDruid
2005-02-06, 23:01:09
Ja gibts auf der NV Karte auch, wennauch in weitaus geringerer Form (flimmern tun die Pixel schon deutlich, nur bekommt man kaum mehr als 1-2 Pixelfehler gleichzeitigaufs Bild, deswegen die Position) Aber warum machst du nicht einfach AA an. Mit ein paar Tweaks lief UT2004 auf meiner 9700pro @400/350 mit fast höchster Detailstufe (bis auf Physik (normal), Dynamic MeshLod (normal), Charakter Shadows (none), trilinea (deaktiviert)) mit 1280x1024 4xAA/4xbiAF wunderbar flüssig. Gut ein paar ini Tweaks wie "DefaultTexMipBias=0.0" und "MinDesiredFrameRate=0.000000" waren auch notwendig aber noAA sieht einfach mies aus. Da kommt mir vom Treppchenwandern noch viel mehr das ko..en als von den flimmrigen Pixel. (Glaub mir, ich hätt das Spiel nicht auf meiner Radeon spielen wollen, wenn die Darstellung desselbigen auf deinem Screenshot dem Optimum entspräche)

http://img232.exs.cx/img232/3477/shot000502et.th.jpg (http://img232.exs.cx/my.php?loc=img232&image=shot000502et.jpg)

Dank für den Shot. Also mein Screenie ist noch recht "wenig" durchsiebt, in Bewegung ist das (dort an der Stelle) noch viel übler. Also die Stelle da hats schon in sich, sonst gehts eigentlich mit Gaps in UT Bei vielen Maps auch garkeine.

Hattest du FSAA off? Sonst würds ja kaschiert dadurch.

Wegen 4xFSAA etc. Also 4xFSAA+4xAF ist mir schon in 1024 zu lahm um ernsthaft UT zu zocken habs dann immer ohne FSAA und mit 4xAF gezockelt. Ich brauch >60fps auch im krassen infight (und ingame hab ich vieles sehr weit hochgedreht, bin kein PicMip5 zocker ;) ). Und jetzt brauch ich 1680*1050 (native Auflösung), und da wirds eng :) Der Shot ist fix in 1280*800 entstanden, nur ums zu zeigen.

Piffan
2005-02-06, 23:16:23
Soderle, jetzt will ich mal wieder Öl ins Feuer gießen. Nachdem Mr. Payne plötzlich so pflaumenweich geworden ist. :D

Wenn ne bessere Subpixelpräzision die Darstellung bei VORHANDENEN Spielen meist verbessert, indem die vor allem in dunklen Szenen tierisch nervenden Gaps verringert werden, dann sollte Ati sich zusammenreißen und das bieten. Zumal es ja auf der FireGL wohl besser ist, habe ich das richtig verstanden? Könnte so etwas vielleicht per Treiber geschehen? Gibts nicht Mods, die aus ner normalen NV ne Profikarte für CAD machen. Geht das nicht bei Ati auch?

Genauso wird es langsam mal Zeit, dass sich Ati bequemt, das Supersampling für Windows freizugeben. Was soll der Mist, dass man es für Macs bereitstellt, aber die Bedürfnisse der vielen Windowszocker mit Füßen tritt?

Man sollte langsam mal erkennen, was los ist: Ati gibt sich mächtige Mühe, die seit der R300 gewonnene Leistungskrone im HighEndsektor zu verteidigen, erbringt aber bei den Features nur das Allernötigste. Rechengenauigkeit am unteren Limit, Vorenthaltung des Supersamplings und schon gar keine Stereotreiber.......

Also mich nervt das schon ein bissele, wenn ich über 500 Tacken auf den Tisch gelegt habe und die Bildqualität nicht wirklich viel besser geworden ist. Könnte man einen Teil der brachialen Fülleistung einer X800XT oder X850XT nicht wenigstens in Supersampling investieren? Dass es nicht wehtun würde, sieht man ja an NV- Karten.........

StefanV
2005-02-07, 09:33:34
Was sollte ich da sehen?
Etwas, das ausschaut wie ein Kreis, was man aber auch irgendwie nicht ändern kann :|

robbitop
2005-02-07, 11:04:44
@Piffan

ein Grund, warum ATI SSAA vieleicht nicht bringt, könnte der relativ kleine Rendertargetbereich sein. 2048x2048 waren das glaube ich nur. Also ab 1024 ist Schluss mit 4xOGSS.

Demirug
2005-02-07, 11:29:50
@Piffan

ein Grund, warum ATI SSAA vieleicht nicht bringt, könnte der relativ kleine Rendertargetbereich sein. 2048x2048 waren das glaube ich nur. Also ab 1024 ist Schluss mit 4xOGSS.

Ja, wobei die GuardBands bis 2880 gehen. Damit sollten dann wenn ATI es intern lösst durchaus auch noch Auflösungen bis 1440 mit 4xOGSS möglich sein.Hängt natürlich auch noch von anderen Faktoren ab.

Mit dem was der Treiber aber derzeit rausrückt ist bei 1024er Auflösungen schluss. Und hybride Modies gehen leider auch nicht. :(

Tigerchen
2005-02-07, 14:36:45
suchen ? ist ganz normal bei geizhals gelistet mein jung. :P

Dachte ich mir. :|

Tigerchen
2005-02-07, 14:39:54
Das war das reine Editieren einer HLSL Datei, die alle Optimierungen von NV raushaut. Das hat Demi damals entdeckt und es gab einen riesen großen Performanceabfall.
Laut meinen Messungen 50% (mit späteren Treibern hat NV diese Optimierung in den Treiber übernommen und das Verändern der HLSL Datei bringt nichts mehr).
Bei ATI kam damals von einem Cat auf den anderen genau dieses Speedup (fast auf den Prozent genau).
Beide optimieren applikationsspezifisch. Was sie da machen, weiß ich nicht und es spielt keine Rolle. Offenbar machen beide dasselbe, NV früher als ATI.
Beide gewinnen gleich viel Performance -> der Maßstab ändert sich nicht. Und nur darauf wollte ich hinaus.
Got it? ;)

Ein guter Grund die ausgelatschten Benchmarkpfade zu verlassen nicht wahr?

robbitop
2005-02-07, 14:52:00
Ein guter Grund die ausgelatschten Benchmarkpfade zu verlassen nicht wahr?


Falls du die Timedemo meinst, ich nutzte eine Custom Timedemo. Die Optimierungen gelten bei D3 natürlich fürs ganze Spiel.
Das Gute daran ist, dass die Spieler hier profitieren.
Meine Ergebnisse sind also prinzipiell aussagekräftig über das ganze Spiel ;)

aths
2005-02-07, 16:36:02
Etwas, das ausschaut wie ein Kreis, was man aber auch irgendwie nicht ändern kann :|Hast du damit ein Problem?

Jesus
2005-02-07, 19:28:12
Bei ATI kam damals von einem Cat auf den anderen genau dieses Speedup (fast auf den Prozent genau).

Könntest du mri mal sagen welches Timedemo du da verwendet hast ? Ich komme nämlich nie und nimmer auf 50% (siehe seite vorher), und hab auch noch kein Review gesehen wo AI on/off so einen grossen Unterschied ausgemacht hat.

robbitop
2005-02-07, 20:12:06
Könntest du mri mal sagen welches Timedemo du da verwendet hast ? Ich komme nämlich nie und nimmer auf 50% (siehe seite vorher), und hab auch noch kein Review gesehen wo AI on/off so einen grossen Unterschied ausgemacht hat.

trdm1
und ich meine natürlich nicht AI. ATI wäre schön blöd, wenn sie die shaderreplacements mit AI deaktivieren würden. Laut meinen Messungen bringt AI bei Doom nur mit AF etwas (CP glaube ich). Ansonsten gar nichts.
Ich habe einfach mal einen alten Treiber versuchsweise mit Doom3 genutzt, wo noch kein Shaderreplacement enthalten sein konnte. Dann dagegen die Nachfolgerversion MIT Replacements. Und tada: 50%
Sowas schüttelt man nicht aus dem Ärmel.
Bei NV durch die Umschreibung der HLSL ebenfalls.

ATI ist mit AI nicht ehrlich, ist eher ein Mittel um gewisse Journalisten abzuspeisen. Replacements lassen sich oft nicht dadurch ausschalten. Komisch, dass das kaum jemand merkt...

Quasar
2005-02-07, 20:21:28
...merken will.

Jesus
2005-02-07, 20:33:53
trdm1
und ich meine natürlich nicht AI. ATI wäre schön blöd, wenn sie die shaderreplacements mit AI deaktivieren würden. Laut meinen Messungen bringt AI bei Doom nur mit AF etwas (CP glaube ich). Ansonsten gar nichts.
Ich habe einfach mal einen alten Treiber versuchsweise mit Doom3 genutzt, wo noch kein Shaderreplacement enthalten sein konnte. Dann dagegen die Nachfolgerversion MIT Replacements. Und tada: 50%
Sowas schüttelt man nicht aus dem Ärmel.
Bei NV durch die Umschreibung der HLSL ebenfalls.

ATI ist mit AI nicht ehrlich, ist eher ein Mittel um gewisse Journalisten abzuspeisen. Replacements lassen sich oft nicht dadurch ausschalten. Komisch, dass das kaum jemand merkt...

Das glaube ich jetzt einfach mal nicht, denn bei Doom3 bringt AI wesentlich mehr wie bei jedem anderen Spiel. Oftmals sind die Karten ohne AI sogar schneller, wenn AA und AF aus sind, bei Doom sind sie aber auch unter diesen Umständen um etwa 10 fps langsamer (beides bewiesen, siehe ZDnet Benchmark der X800XL unter FarCry und Doom3). Von irgendwoher muss die Performance ja auch kommen.

robbitop
2005-02-07, 20:40:04
Das glaube ich jetzt einfach mal nicht, denn bei Doom3 bringt AI wesentlich mehr wie bei jedem anderen Spiel. Oftmals sind die Karten ohne AI sogar schneller, wenn AA und AF aus sind, bei Doom sind sie aber auch unter diesen Umständen um etwa 10 fps langsamer (beides bewiesen, siehe ZDnet Benchmark der X800XL unter FarCry und Doom3). Von irgendwoher muss die Performance ja auch kommen.

Ich habe es im Gegensatz zu anderen ausführlich untersucht. Du musst wissen, was du glaubst und was nicht.
Bei mir brachte AI in Doom3 nur im Einsatz mit AF etwas. Sonst so gut wie gar nichts. Erst ein unoptimierter Treiber brachte komischerweise genau den Performancedrop, den auch das HLSL Editieren brachte.
Warum stellst du das nicht mal nach?

Ich habs mit ner 9600XT untersucht.

Jesus
2005-02-07, 20:50:25
Ich habe es im Gegensatz zu anderen ausführlich untersucht. Du musst wissen, was du glaubst und was nicht.
Bei mir brachte AI in Doom3 nur im Einsatz mit AF etwas. Sonst so gut wie gar nichts. Erst ein unoptimierter Treiber brachte komischerweise genau den Performancedrop, den auch das HLSL Editieren brachte.
Warum stellst du das nicht mal nach?

Ich habs mit ner 9600XT untersucht.

Richtig bei mir (r350) bringts auch nur was mit AA & AF, siehe 2 Seiten vorher. Aber bei den X800 scheint das sehr wohl zu wirken (siehe ZDnet u.a.). Ich glaube kaum das ATI nur bei den alten r3xx Karten bescheisst und bei den X800ern nicht mehr - macht irgendwie keinen Sinn :rolleyes:

Aber ich werd morgen extra mal Cat 4.5 gegen Cat 5.1 benchen in D3 ;)

reunion
2005-02-07, 20:54:27
trdm1
und ich meine natürlich nicht AI. ATI wäre schön blöd, wenn sie die shaderreplacements mit AI deaktivieren würden. Laut meinen Messungen bringt AI bei Doom nur mit AF etwas (CP glaube ich). Ansonsten gar nichts.
Ich habe einfach mal einen alten Treiber versuchsweise mit Doom3 genutzt, wo noch kein Shaderreplacement enthalten sein konnte. Dann dagegen die Nachfolgerversion MIT Replacements. Und tada: 50%
Sowas schüttelt man nicht aus dem Ärmel.
Bei NV durch die Umschreibung der HLSL ebenfalls.


Welchen Treiber hast du denn bei ATi genommen?
Und warum nicht auch bei nV eine alten Treiber?
Die neueren Treiber sollten auch ohne "Cheats" eine gewisse Mehrleistung aus der Hardware herrausholen können IMO.

robbitop
2005-02-07, 20:58:34
Welchen Treiber hast du denn bei ATi genommen?
Und warum nicht auch bei nV eine alten Treiber?
Die neueren Treiber sollten auch ohne "Cheats" eine gewisse Mehrleistung aus der Hardware herrausholen können IMO.

Bei NV wars natürlich auch ein "alter". Denn bei den neueren funktioniert die HLSL Methode nicht mehr.

@Jesus
so große Unterschiede sind zw dem RV360 und dem R420 im Pixelteil nicht vorhanden bis auf die Menge. Insofern denke ich zumindist zu sehen, dass beide replacements in etwa gleich viel bringen und dass das Verhältnis sich dadurch nicht oder nur unwesentlich ändert.

Demirug
2005-02-07, 21:00:39
ATI ist mit AI nicht ehrlich, ist eher ein Mittel um gewisse Journalisten abzuspeisen. Replacements lassen sich oft nicht dadurch ausschalten. Komisch, dass das kaum jemand merkt...

Die Replacements schaltet AI schon ab (zumindestens bei D3). Was andere Optimierungen angeht ist das so eine Sache. Sobald mehr als eine Applikation davon profitiert oder sie nicht über eine Applikationserkennung aktiviert wird fällen sie für ATI nicht mehr in den Bereich der zu AI gehört.

robbitop
2005-02-07, 21:03:57
Die Replacements schaltet AI schon ab (zumindestens bei D3). Was andere Optimierungen angeht ist das so eine Sache. Sobald mehr als eine Applikation davon profitiert oder sie nicht über eine Applikationserkennung aktiviert wird fällen sie für ATI nicht mehr in den Bereich der zu AI gehört.

hm und warum brachte AI on nur etwas mit AF?
Ohne AF nothing.
Alter Treiber -> neuer Treiber gewaltiger Boost.
Von einer Treiberversion auf die nächste. Das war sehr auffällig.

Ich weiß nicht, was NV und ATI hier tun. Aber sie scheinen das gleiche zu tun und es scheint so ziemlich das gleiche zu bringen.

-> Verhältnis bleibt ca. gleich
-> Spieler profitiert
-> beide "optimieren"

nur darauf wollte ich hinaus.

Demirug
2005-02-07, 21:09:05
hm und warum brachte AI on nur etwas mit AF?
Ohne AF nothing.
Alter Treiber -> neuer Treiber gewaltiger Boost.
Von einer Treiberversion auf die nächste. Das war sehr auffällig.

Ich weiß nicht, was NV und ATI hier tun. Aber sie scheinen das gleiche zu tun und es scheint so ziemlich das gleiche zu bringen.

-> Verhältnis bleibt ca. gleich
-> Spieler profitiert
-> beide "optimieren"

nur darauf wollte ich hinaus.

Hast du Applikation AF oder Panel AF benutzt?

robbitop
2005-02-07, 21:11:54
Hast du Applikation AF oder Panel AF benutzt?

Beide aber einzeln natürlich.
Das AF im Spiel war "schnell", das AF im CP war "langsam". Erst dank AI kam das AF im CP an das AF im Spiel von der Geschwindigkeit heran. AI brachte nichts mit dem AF im Spiel.

Jesus
2005-02-07, 21:13:45
so mal eben doch gebencht ;)

timedemo1 usecache: 1024x768 0xAA 1xAF High Details vsync off:

Cat 4.5: 46.4 fps
Cat 5.1: 50.5 fps (AI off)

nicht ganz 50% ich denke das fällt in den Bereich allgemeine Optimierungen, sind ja auch einige Monate ins Land gezogen seit diesen beiden Treibern... :biggrin:

robbitop
2005-02-07, 21:26:09
so mal eben doch gebencht ;)

timedemo1 usecache: 1024x768 0xAA 1xAF High Details vsync off:

Cat 4.5: 46.4 fps
Cat 5.1: 50.5 fps (AI off)

nicht ganz 50% ich denke das fällt in den Bereich allgemeine Optimierungen, sind ja auch einige Monate ins Land gezogen seit diesen beiden Treibern... :biggrin:

Machst du beim 5.1 bitte vorsichtshalber das AI mal an?

schau mal hier: http://www.3dcenter.de/artikel/catalyst_treibervergleich/index_bench09.php
bis zu 38% mehr Leistung mehr nur durch nen neuen Treiber.
Ok bei der 9600XT hatte ich noch etw mehr. Vieleicht ist hier mehr optimierbar gewesen dank neuerer HW?

edit: Timedemo 1 ist auch noch ziemlich CPU belastend. Stell mal bitte die Auflösung höher.
TRDM1 besitzt keine Bots...ist ein aufgenommenes 1v1 ...vieleicht macht auch das was aus?

Demirug
2005-02-07, 22:08:20
Beide aber einzeln natürlich.
Das AF im Spiel war "schnell", das AF im CP war "langsam". Erst dank AI kam das AF im CP an das AF im Spiel von der Geschwindigkeit heran. AI brachte nichts mit dem AF im Spiel.

Danke.

Du hast gerade bestätigt das AI das Shadereplacement deaktiviert. Das ist nämlich das gleiche Verhalten das auch der sogenate Humus Patch hat.

Der Grund ist einfach. Das Replacement tauscht eine Texturezugriff durch eien Rechnung aus. Dieser dependent Zugriff ist von den Koordinaten meist etwas ungünstig so das volles AF angewendet werden muss. Nach dem Replacement ist dieses aufwendige Sample natürlich weg. Bei App AF bekommt diese Texture aber gar kein AF damit ist das sample nicht mehr so teuer und das Replacment bringt wenig oder nichts. Erschwerend kommt noch hinzu das in den älteren Treibern irgendwas im Bezug auf die Filterwahl durch die Applikation defekt war. Aber da weiß Zecki besser bescheid da er diesen fehler schon lange vor D3 gemeldet hat aber ATI sich erst darum gekümmert hat als er in D3 sichtbar wurde.

robbitop
2005-02-07, 22:11:58
Danke.

Du hast gerade bestätigt das AI das Shadereplacement deaktiviert. Das ist nämlich das gleiche Verhalten das auch der sogenate Humus Patch hat.

Der Grund ist einfach. Das Replacement tauscht eine Texturezugriff durch eien Rechnung aus. Dieser dependent Zugriff ist von den Koordinaten meist etwas ungünstig so das volles AF angewendet werden muss. Nach dem Replacement ist dieses aufwendige Sample natürlich weg. Bei App AF bekommt diese Texture aber gar kein AF damit ist das sample nicht mehr so teuer und das Replacment bringt wenig oder nichts. Erschwerend kommt noch hinzu das in den älteren Treibern irgendwas im Bezug auf die Filterwahl durch die Applikation defekt war. Aber da weiß Zecki besser bescheid da er diesen fehler schon lange vor D3 gemeldet hat aber ATI sich erst darum gekümmert hat als er in D3 sichtbar wurde.

Hm und wo kommen die 38% vom 4.9 zum 4.10 her, ohne AF?

reunion
2005-02-07, 23:06:51
Hm und wo kommen die 38% vom 4.9 zum 4.10 her, ohne AF?

Wurde AI von Raff deaktiviert?
Immerhin ist der 4.10er der erste Treiber der AI unterstützt.

StefanV
2005-02-07, 23:17:03
Hm und wo kommen die 38% vom 4.9 zum 4.10 her, ohne AF?
Vielleicht hat ATI ein paar Pferdefüße im OGL Code gefunden und beseitigt?!

Xmas
2005-02-07, 23:38:54
Also ich hätt da mal ne nette Textur wo es - ohne Bumpmapping, mit passendem LOD, trilinearem Filter, Treiber @ HQ & deaktivierte Optimierungen schon bei simplen Singletexturing - zu hässlichem Moiré kommt. Es liegt nämlich wirklich an den Unterschieden in den Mipmaps. (Mipmaps mit Cubic Filter erzeug(t)/en):

http://img166.exs.cx/img166/8985/metal448he.png
Die Textur ist in der Tat reichlich daneben und wird auf jeder Karte flimmern. Dabei kommt es nicht auf die Mipmaps an. Ganz extrem ist es bei 1-Pixel-Schachbrett-Texturen, wie man in den AF-Testern sehen kann. Für sowas ist die LOD-Berechnung nicht vorgesehen.

deekey777
2005-02-07, 23:42:18
Vielleicht hat ATI ein paar Pferdefüße im OGL Code gefunden und beseitigt?!

Darum schiessen ja die Frames in RtCW&Co bzw. SS:SE seit dem 4.10 in die Höhe. ;(

robbitop
2005-02-08, 00:33:12
ich bin nach wie vor der Meinung, dass ATI (mit AI) die gleichen "Optimierungs"-Vorteile wie NV hat und dies das Verhältnis nicht verschiebt.

Mr. Lolman
2005-02-08, 09:50:40
Dabei kommt es nicht auf die Mipmaps an.

Wetten dass es doch so ist. Denn, wenn ich die Mipmaps mit nem Cubic Filter anstatt mit nem Box erzeugen lasse, flimmerts von der Mip0 zur 1. Mip kaum, dafür innerhalb der Mips deutlicher als mit nem Box Filter.

Jesus
2005-02-08, 11:49:37
Machst du beim 5.1 bitte vorsichtshalber das AI mal an?


Hab ich schon 2 Seiten vorher, ändert überhaupt nichts (0.1 fps). Ich denke nicht das ATI mehr macht als der Humus Shader, dazu sind die 5 fps unterschied zwischen nem uralt Treiber und dem neuesten viel zu wenig. (zumindest beim r3xx)

StefanV
2005-02-08, 11:52:05
Hast du damit ein Problem?
Nein, aber soll die nV40 nicht eine 'Lehrbuchhafte' Qualität bringen?!
Oder soll sie nicht, laut dir, 'sehr gut' sein?!

Anscheinend trift das nicht so ganz zu...

Gasst
2005-02-08, 11:57:21
Nein, aber soll die nV40 nicht eine 'Lehrbuchhafte' Qualität bringen?!


Das tut sie doch auch, also wo ist dein Problem?

StefanV
2005-02-08, 12:01:22
Das tut sie doch auch, also wo ist dein Problem?
Eben das tut sie nicht, da wird genauso optimiert, wie bei den Radeons, schlimmer noch:

Der Vorgänger war besser (als der Vorgänger), man hat also bei nV die Qualität verschlechtert, bei ATI hatte man nie was besseres, das ist sehrwohl ein Unterschied...

Unbestreitbar liefern die nV2x Chips die beste Qualität, gefolgt von den nV1x Chips (die nur 2°AF können), danach wurds einfach nur schlechter...

Mr. Lolman
2005-02-08, 12:31:34
Das tut sie doch auch, also wo ist dein Problem?

Imo muss ein lehrbuchmässiger trilinearer Filter so gut sein, dass bei Singletexturing mit Mipmaps unter keinen Umständen Flimmern auftritt.

Grestorn
2005-02-08, 12:38:21
Imo muss ein lehrbuchmässiger trilinearer Filter so gut sein, dass bei Singletexturing mit Mipmaps unter keinen Umständen Flimmern auftritt.
Das ist nicht möglich.

Einfaches Beispiel: Stell dich direkt vor eine Wand, die eine Textur zeigt, die eine ähnliche Auflösung wie der verwendete Modus hat. Die Textur zeigt Streifen, die jeweils ein Pixel breit sind. Da Du direkt an der Wand stehst, darf weder MipMapping die Textur runterrechnen und da die Textur lotrecht zum Blickvektor steht, darf auch das AF keinen Einfluss nehmen.

In dieser Konstellation, wirst Du immer ein Moiré Muster sehen, speziell wenn sich die Textur dreht. Das gezeigte Beispiel ist die Definition der Erzeugung eines Moiré Musters.

StefanV
2005-02-08, 12:40:39
Imo muss ein lehrbuchmässiger trilinearer Filter so gut sein, dass bei Singletexturing mit Mipmaps unter keinen Umständen Flimmern auftritt.
Am besten wir begraben mal diesen 'Lehrbuchmäßigen' shit einfach mal und ersetzen das Wort 'Lehrbuchmäßig' mal durch 'theoretisch am besten' oder ähnliche Worte, die verdeutlichen, das es rein theoretisch ist...

Grast
2005-02-08, 12:41:25
Unbestreitbar liefern die nV2x Chips die beste Qualität, gefolgt von den nV1x Chips (die nur 2°AF können), danach wurds einfach nur schlechter...

Und was ist mit den NV3x?
Hast du vergessen, dass die dieselbe Qualitaet wie die NV2x liefern koennen?

StefanV
2005-02-08, 12:42:45
Nein, können sie nicht, lieber gast (ow?!)...

Mr. Lolman
2005-02-08, 12:53:33
Da Du direkt an der Wand stehst, darf weder MipMapping die Textur runterrechnen...

Warum nicht? Sicher geschieht das so. Oder warum sind solche Texturen bei niedrigen Auflösungen unschärfer, ohne dass sie gleich brutalst flimmern würden...

Jesus
2005-02-08, 13:12:22
nochmal trdm1 gebencht: 1024x768 0xAA 1xAF

Cat 4.5: 48.9 fps
Cat 5.1: 52.3 fps (=AI off, 52.4 fps AI standard)

Xmas
2005-02-08, 13:44:29
Ists nicht, aber das kannst ja z.B. mit Demis D3D TExturfiltertest selbst nachprüfen...
Etwas, das ausschaut wie ein Kreis, was man aber auch irgendwie nicht ändern kann :|
Nein, aber soll die nV40 nicht eine 'Lehrbuchhafte' Qualität bringen?!
Oder soll sie nicht, laut dir, 'sehr gut' sein?!

Anscheinend trift das nicht so ganz zu...
Stefan, wenn du einfach mal gleich konkret sagen würdest was du meinst, dann würde sich eine solche Diskussion auch nicht über zwei Seiten ziehen...


Eben das tut sie nicht, da wird genauso optimiert, wie bei den Radeons, schlimmer noch:

Der Vorgänger war besser (als der Vorgänger), man hat also bei nV die Qualität verschlechtert, bei ATI hatte man nie was besseres, das ist sehrwohl ein Unterschied...
Das ist nicht schön, aber inwiefern ist das "schlimmer"? Für mich als Kunden zählt einzig und allein, wie es mit meiner aktuellen Karte aussieht. Nicht, ob es früher besser oder schlechter war.

Xmas
2005-02-08, 14:05:03
Wetten dass es doch so ist. Denn, wenn ich die Mipmaps mit nem Cubic Filter anstatt mit nem Box erzeugen lasse, flimmerts von der Mip0 zur 1. Mip kaum, dafür innerhalb der Mips deutlicher als mit nem Box Filter.
Das meinte ich nicht. Diese Textur flimmert auch, wenn gar keine Mipmaps zur Anwendung kommen (müssen).

Imo muss ein lehrbuchmässiger trilinearer Filter so gut sein, dass bei Singletexturing mit Mipmaps unter keinen Umständen Flimmern auftritt.
Das ist nicht möglich.

StefanV
2005-02-08, 14:09:03
Das ist nicht schön, aber inwiefern ist das "schlimmer"? Für mich als Kunden zählt einzig und allein, wie es mit meiner aktuellen Karte aussieht. Nicht, ob es früher besser oder schlechter war.
Wenn jemand niemals "was gutes" hatte und er sich stetig verbessert, dann ist das zwar nicht wirklich schön aber durchaus in Ordnung.

Wenn jemand aber "was gutes" einfach so über den Haufen wirft und daraus "was nicht gutes" macht, warum auch immer, dann ist das wesentlich schlimmer.

Denn im ersten Fall haben wir zweifelsfrei einen Fortschritt bzw eine Verbesserung.

Im zweiten Fall haben wir zweifelsohne einen Rückschritt bzw eine verschlechterung...

Es ist zwar richtig, das es uns als Kunden nicht soo recht interessiert, wies vorher war, nur wenns vorher besser war als es jetzt ist, dann ists doch irgenwie auch schlecht bis ganz schlecht, oder?!

StefanV
2005-02-08, 14:13:18
Das ist nicht möglich.
Würdest du nicht auch eher sagen, das eine "theoretisch perfekte" bzw "Lehrbuchmäßige Filterung" momentan nicht möglich ist und das, was wir momentan alles haben, nur ein Kompromiss zwischen Aussehen und Aufwand ist? ;)

Das z.B. etwas Filterqualität geopfert wird, um z.B. einen 2. Display Controller (samt RAMDAC) unterzubringen oder aber um eine weiteres Quad unterzubringen...

Xmas
2005-02-08, 14:33:40
Wenn jemand niemals "was gutes" hatte und er sich stetig verbessert, dann ist das zwar nicht wirklich schön aber durchaus in Ordnung.

Wenn jemand aber "was gutes" einfach so über den Haufen wirft und daraus "was nicht gutes" macht, warum auch immer, dann ist das wesentlich schlimmer.

Denn im ersten Fall haben wir zweifelsfrei einen Fortschritt bzw eine Verbesserung.

Im zweiten Fall haben wir zweifelsohne einen Rückschritt bzw eine verschlechterung...

Es ist zwar richtig, das es uns als Kunden nicht soo recht interessiert, wies vorher war, nur wenns vorher besser war als es jetzt ist, dann ists doch irgenwie auch schlecht bis ganz schlecht, oder?!
Ob Fortschritt oder Rückschritt interessiert mich nicht, mich interessiert nur was ist.
Wenn ein intelligenter Schüler aus Faulheit mal eine Vier schreibt, ist das Ergebnis trotzdem noch besser als bei einem unbegabten Schüler, der sich mit aller Anstrengung von Sechs auf Fünf verbessert.

Das AF des NV40 wird nicht dadurch schlechter, dass es mal einen NV20 gab. Du willst mir doch nicht erzählen, dass ATI nicht in der Lage wäre, ein besseres AF zu implementieren?

Xmas
2005-02-08, 14:39:19
Würdest du nicht auch eher sagen, das eine "theoretisch perfekte" bzw "Lehrbuchmäßige Filterung" momentan nicht möglich ist und das, was wir momentan alles haben, nur ein Kompromiss zwischen Aussehen und Aufwand ist? ;)

Das z.B. etwas Filterqualität geopfert wird, um z.B. einen 2. Display Controller (samt RAMDAC) unterzubringen oder aber um eine weiteres Quad unterzubringen...
Ich meinte das so wie ich es sage. Es ist nicht möglich, Flimmern in jedem Fall zu vermeiden und gleichzeitig keine weichgespülten Bilder zu erhalten.

robbitop
2005-02-08, 15:05:22
@Jesus
stell mal bitte die Auflösung hoch.
Und AF alternativ dazu wäre klasse :)

verdammt jetzt bräuchte ich akut einen NV40. Quasar kannst du mit Benches optimiert/unoptimiert aufwarten?

Grestorn
2005-02-08, 15:07:59
Warum nicht? Sicher geschieht das so. Oder warum sind solche Texturen bei niedrigen Auflösungen unschärfer, ohne dass sie gleich brutalst flimmern würden...
MipMapping bedeutet, dass für Texturen, die weiter vom Beobachter weg sind, niedriger aufgelöste Varianten verwendet werden, um ein Aliasing mit der Bildauflösung zu vermeiden.

Wenn Du direkt vor der Textur stehst, also der Abstand 0 ist, kann MipMapping daran nichts korrigieren.

Das Texturen in älteren Spielen matschig werden, wenn man zu nah rankommt, liegt nur daran, dass sie viel geringer aufgelöst sind, als Deine Bildschirmauflösung.

Jesus
2005-02-08, 15:08:45
@Jesus
stell mal bitte die Auflösung hoch.
Und AF alternativ dazu wäre klasse :)

verdammt jetzt bräuchte ich akut einen NV40. Quasar kannst du mit Benches optimiert/unoptimiert aufwarten?

ok, aber ich werd nicht wieder den Cat 4.5 installiern, hab keinen Bock mehr ;)

Gasst
2005-02-08, 15:10:24
Wenn jemand niemals "was gutes" hatte und er sich stetig verbessert, dann ist das zwar nicht wirklich schön aber durchaus in Ordnung.

Wenn jemand aber "was gutes" einfach so über den Haufen wirft und daraus "was nicht gutes" macht, warum auch immer, dann ist das wesentlich schlimmer.

Denn im ersten Fall haben wir zweifelsfrei einen Fortschritt bzw eine Verbesserung.

Im zweiten Fall haben wir zweifelsohne einen Rückschritt bzw eine verschlechterung...




Selbst wenn man sich dieser Argumantation anschliessen taete (was ich ebensowenig tue wie Xmas) bleibt doch unterm Strich, dass NV immer noch besser filtert als ATI. Und nur das zaehlt.

p.s. Davon abgesehen ist ATIs Brilinearitaet auch ein Rueckschritt in der Filter-Qualitaet.

Gästchen
2005-02-08, 15:22:05
Das Ergebnis einer AF-Winkeloptimierung ist bei 8x AF in meinen Augen schlechter als bei 4x AF ohne Winkeloptimierung. Warum? Weil ich nunmal gern Spiele spiele in denen der Boden durch einer ziemlich durchgewölbte Landfläche dargestellt wird und da "ungünstige" Winkel eben gern mal neben "günstigen" Winkeln auftreten.

16x AF bringt mir null komma nichts, wenn ich dann in einigen Winkeln 2x-Matsch sehe, aber 16x wird benötigt, damit man in Benchmarks nen größeren Penis hat.

------------

Was das Texturflimmern in Nähe betrifft bin ich erschrocken wodurch das angeblich "generell" passieren sollte, denn seit ich Jedi Knight mit eingeschaltetem, bilinearem Texturfilter gespielt habe - und das ist verflucht lange her - weiß ich, dass in guten 3D-Spielen jede Textur gefiltert wird, egal wie nah sie an der Kameraposition ist. Bei Ultima IX wurde nichts gefiltert, deswegen flimmerte das auch 1999 noch extrem.

MipMapping setzt nur in Entfehrnung an, weil dort die gängige bilineare Filterung im Pixelraster keine Wirkung mehr zeigt.

Bilineares Filtern hat erstmal nichts mit MipMapping zu tun.

Wer das genauer wissen will kann sich die PC-Action-Ausgabe 02/99 zu Gemüte führen, dort werden "Texturing - Bekleben von Spieleobjekten mit Texturen", "Shading - Erzeugung eines Farbverlaufs auf Texturen" (hat nichts mit Shader zu tun), "Fogging - Einbau von Nebelschwaden am Horizont", "Schatten - Schattenwurf von Objekten durch Lichteinfluss", "Alpha Blending - Darstellung von Transparenzeffekten", "Bilineares Filtern - Geschmeidigere Texturen durch Farbmischung", "Mip Mapping - Einsatz unterschiedlich aufgelöster Texturen", "Trilineares Filtern - Filtern zwischen einzelnen Mip Maps", "Perspektiven Korrektur" - Verbesserte Texturdarstellung bei Spieleobjekten, "Anti-Aliasing - Glättung von pixeligen Polygonkanten", "Z-Buffering - Verwaltung von Tiefeninformationen", "Environment Mapping - Reflektionen der Umgebung auf Oberflächen", "Lens Flares - Lichtreflektionen auf Glasscheiben", "Bump Mapping - Darstellung sichtbarer Oberflächenstrukturen", "AGP - Fotorealistische Spieleumgebungen" #*, "Echtfarben-Rendern 3D-Spiele in hoher Farbqualität" und "Nachschlag: 3D-Fähigkeiten von Grafikkarten - Strips and Fans, Anisotropisches Filtern, Multi-texturing, Texturkompression" kurz, knapp aber bündig und verständlich vor allem mit veranschaulchenden Screenshotvergleichen aus der echten Spiele-Praxis erklährt. Hach unter Thilo Bayers Fichtel war Computecs Hardwareredaktion einfach geil. :)

#* Es geht hier um AGP-Texturing das damals noch echte Vorteile brachte

PS:
Die besagte PC-Action-Ausgabe ist die erste Ausgabe mit echtem, menschlichem Cover-/Top-Story-Model und die einzige in der die Maße des Models aufgelistet werden, also ein echtes Sammlerstück. :P

Gästchen
2005-02-08, 15:26:59
PPS:
S3 Delta Chrome filtert aktuell mit sehr guter Qualität, wie einst eien Geforce 3 - Wo bleibt eigentlich der am Freitag in den news angekündigte Artikel über die beiden Außenseiter?

Jesus
2005-02-08, 15:41:53
Cat 5.1 , 1024x768 0xAA High Details, Timedemo1

8x AF (app)

AI Off: 43.3 fps
AI Standard: 49.1 fps
AI Advanced: 47.0fps

8xAF (CC forced)

AI Off: 35.6 fps
AI Standard: 48.7 fps

Ergo: ATI != böse :rolleyes:


Allerdings sollten diese Ergebnisse nicht mit den vorherigen Verglichen werden, weil ich da leider noch den Humus Shader installiert hatte (hatte ich bei diesem Test jetzt anfangs auch, dadurch brachte AI etwa 1-2 fps weniger, aber die FPS bei AI Off waren natürlich höher).

Gasst
2005-02-08, 16:16:16
PPS:
S3 Delta Chrome filtert aktuell mit sehr guter Qualität, wie einst eien Geforce 3 -


Das tut er leider nicht.
Nachzulesen u.a. hier:
http://www.beyond3d.com/forum/viewtopic.php?t=20140&start=20

aths
2005-02-08, 17:53:32
Nein, aber soll die nV40 nicht eine 'Lehrbuchhafte' Qualität bringen?!
Oder soll sie nicht, laut dir, 'sehr gut' sein?!

Anscheinend trift das nicht so ganz zu...Wir reden hier von isotropen Filtern, und da ist der NV40 in der Tat sehr gut. Aber auch beim HQ-AF in jedem Falle besser als eine beliebige Radeon.

Imo muss ein lehrbuchmässiger trilinearer Filter so gut sein, dass bei Singletexturing mit Mipmaps unter keinen Umständen Flimmern auftritt.So einen Filter kannst du ja mal versuchen zu entwerfen.

Gästchen
2005-02-08, 18:05:07
Das tut er leider nicht.
Nachzulesen u.a. hier:
http://www.beyond3d.com/forum/viewtopic.php?t=20140&start=20

Wenn sich zeckensack mal ein bisschen besser ausdrücken würde würde ich vielleicht etwas mehr dazu sagen können.
"No banding, no lod cheat. It is true aniso, it samples from the expected mipmap level(s), and it properly combines with trilinear. It simply takes too few samples for a given surface inclination, or at least so it seems."

Wenn es "zu wenige Samples" verwendet ist ein anderer AF-Grad eingestellt als er glaubt/behauptet eingestellt zu haben, mehr nicht.

Wie gesagt der Artikel der am Freitag in den News für das vergangene Wochenende angekündigt wurde wäre sehr sehr interessant.

Jesus
2005-02-08, 18:06:33
Wir reden hier von isotropen Filtern, und da ist der NV40 in der Tat sehr gut. Aber auch beim HQ-AF in jedem Falle besser als eine beliebige Radeon.


Naja, bei ATI flimmerts weniger, grosse Schärfeunterschiede hat noch kein Reviewer bemängelt und wenn dann war bekanntlich das ATI AF schärfer, was zu Anfang ja auch immer bemängelt wurde weil es angeblich zu flimmern führt :rolleyes: - wo ausser im AF Tester ist NV40s AF bitteschön besser ?

Gaast
2005-02-08, 18:24:55
- wo ausser im AF Tester ist NV40s AF bitteschön besser ?


Überall ist es besser, du musst nur mal genau hinschauen.

Jesus
2005-02-08, 18:25:54
Überall ist es besser, du musst nur mal genau hinschauen.

Ach ja richtig, hab ich vergessen sorry...

StefanV
2005-02-08, 18:27:42
Überall ist es besser, du musst nur mal genau hinschauen.
Hast dazu auch ein paar Beweise?!

Denn die User sagen ja bekanntlich was anderes -> nV Flimmert, ATI nicht.

Auch ansonsten scheint die nV4x Serie bei einigen Usern nicht wirklich beliebt zu sein...

Jesus
2005-02-08, 18:34:17
Hast dazu auch ein paar Beweise?!


Seit wann braucht man denn Beweise? Es reicht doch wenn man das theoretische Halbwissen hat um zu behaupten dass A besser als B ist, weil es einfach so sein muss :rolleyes:

werzbkw
2005-02-08, 18:37:09
Wir reden hier von isotropen Filtern, und da ist der NV40 in der Tat sehr gut. Aber auch beim HQ-AF in jedem Falle besser als eine beliebige Radeon.



Ack! Endlich mal einer, der Ahnung hat und kein Fanboy Geplapper von sich gibt. Bin mal gespannt auf die nächste ATI-Generation, vielleicht hat die ja mal Filter die einer Highend Karte würdig sind.

wervwl
2005-02-08, 18:40:12
Seit wann braucht man denn Beweise? Es reicht doch wenn man das theoretische Halbwissen hat um zu behaupten dass A besser als B ist, weil es einfach so sein muss :rolleyes:


*lol*
Versuch mal in durch Praxis eine Theorie zu widerlegen. Viel Spaß dabei.

StefanV
2005-02-08, 18:48:32
Seit wann braucht man denn Beweise? Es reicht doch wenn man das theoretische Halbwissen hat um zu behaupten dass A besser als B ist, weil es einfach so sein muss :rolleyes:
Hier wird immer über die theoretisch ach so miese Qualität der ATI Chips geredet, bewiesen, anhand von Spielen wird rein garnichts...

Jedes Unbedeutende Dingens wird auch noch herangezogen, um die ATI Chips schlecht zu reden, gelobt werden die sehr selten von einigen, das trifft immer nur nV, warum auch immer :|

Hier wird immer die nV HW sonstwie schöngeredet, mit Praxisrelevanten Dingen wird das so gut wie nie dargelegt...

Theorie ist eine Sache, die Praxis eine andere, was man in der Theorie sieht, muss man in der Praxis nicht unbedingt auch sehen...^

Selbst der Vermurkste Shadercore der nV3x Serie wird schöngeredetX-D

Polak
2005-02-08, 18:59:16
Ack! Endlich mal einer, der Ahnung hat und kein Fanboy Geplapper von sich gibt. Bin mal gespannt auf die nächste ATI-Generation, vielleicht hat die ja mal Filter die einer Highend Karte würdig sind.
Die FX war in der Theorie (Features) auch nicht schlecht. In der Praxis sieht das aber anders aus. Theorie interessiert keinen normalen Gamer, nur das was er in der Praxis erlebt.
Praxis ist Alles. Es ist aber sicherlich nicht schlecht sich auch mit der Theorie zu befassen. Nur sollte das nicht so ausarten, daß man automatisch bei der Karte, die theoretisch schlechter ist, genauer hinschaut. ;)

StefanV
2005-02-08, 19:01:39
Genau das ist der Punkt...

Was in der Theorie sichtbar ist, muss nicht in der Praxis sichtbar sein.

Anstatt sich allzu sehr auf die Theorie zu vertiefen, sollte man lieber die Praxis beachten und schauen, wie es in der Praxis ausschaut, nicht in der Theorie!!

Coda
2005-02-08, 19:02:23
Selbst der Vermurkste Shadercore der nV3x Serie wird schöngeredetDas kommt halt drauf an von welcher Seite man es sieht. FÜr DX 9.0 so wie es existiert war er sicher vermurkst.

Tigerchen
2005-02-08, 19:05:18
Falls du die Timedemo meinst, ich nutzte eine Custom Timedemo. Die Optimierungen gelten bei D3 natürlich fürs ganze Spiel.
Das Gute daran ist, dass die Spieler hier profitieren.
Meine Ergebnisse sind also prinzipiell aussagekräftig über das ganze Spiel ;)

Zu diesem Spiel zu diesem Zeitpunkt!
Sagt dann natürlich nichts über die allgemeine Spieleperformance, in diesem Fall unter OpenGL, bei den vielen Spielen die nicht die Aufmerksamkeit von nV/ATI genießen aus.

Coda
2005-02-08, 19:08:48
Also mir ist das geflimmere früher vor allem in UT2004 aufgefallen.
Aber seit ich mit dem nHancer als LOD Bias clampe flimmert es überhaupt nicht mehr, selbst mit allen Optimierungen.

Gasst
2005-02-08, 19:26:31
Die FX war in der Theorie (Features) auch nicht schlecht. In der Praxis sieht das aber anders aus. Theorie interessiert keinen normalen Gamer, nur das was er in der Praxis erlebt.
Praxis ist Alles. Es ist aber sicherlich nicht schlecht sich auch mit der Theorie zu befassen. Nur sollte das nicht so ausarten, daß man automatisch bei der Karte, die theoretisch schlechter ist, genauer hinschaut. ;)

Ähm..du redest hier von 2 verschiedenen Dingen und sagst Features=Theorie und Praxis=Speed.

Was soll denn das?
Man kann nur ein und diesselbe Sache in Theorie und Praxis vergleichen.

In der Praxis können die FX Shader sehr vieles berechnen was eine ATI nicht oder nur umständlich kann. Wie es auch die Theorie sagt.

Und ebenso ist die theoretische Shadergeschwindigkeit der FXen genauso schlecht wie die praktische.

StefanV
2005-02-08, 19:28:09
In der Praxis können die FX Shader sehr vieles berechnen was eine ATI nicht oder nur umständlich kann. Wie es auch die Theorie sagt.

Schön, mit einer absolut indiskutablen Geschwindigkeit, für 'nen Gamer...

Features ohne Speed ist absolut nutzlos...

Polak
2005-02-08, 19:34:42
Ähm..du redest hier von 2 verschiedenen Dingen und sagst Features=Theorie und Praxis=Speed.

Was soll denn das?
Man kann nur ein und diesselbe Sache in Theorie und Praxis vergleichen.
War nur ein Beispiel, daß gut in der Theorie nicht gleich gut in der Praxis bedeuten muss.

In der Praxis können die FX Shader sehr vieles berechnen was eine ATI nicht oder nur umständlich kann. Wie es auch die Theorie sagt.
In der Praxis (Spiele) ist die ATI immer viel schneller, wenn komplizierte oder viele Shader eingesetzt werden.

Und ebenso ist die theoretische Shadergeschwindigkeit der FXen genauso schlecht wie die praktische.
Nein. Das hängt von vielen Faktoren ab.
Empfehle diesen Artikel:
http://3dcenter.de/artikel/cinefx/

aths
2005-02-08, 19:35:34
Naja, bei ATI flimmerts weniger, grosse Schärfeunterschiede hat noch kein Reviewer bemängelt und wenn dann war bekanntlich das ATI AF schärfer, was zu Anfang ja auch immer bemängelt wurde weil es angeblich zu flimmern führt :rolleyes: - wo ausser im AF Tester ist NV40s AF bitteschön besser ?Ich hatte bislang noch gar kein Flimmern mittels AF auf meiner 6600 GT. Insofern kann es auf einer ATI-Karte schwerlich weniger flimmern. Das NV4x-AF ist (zumindest auf HQ) überall besser, als das ATI-AF. Die Frage ist, ob das ATI-AF so viel schlechter ist, dass man Unterschiede sieht, und wenn ja, diese als schlechtere BQ wahrnimmt. Ich kann mich jetzt nicht erinnern, mit der Radeon 9600 ernsthafte AF-Texturqualitätsprobleme gehabt zu haben. Das heißt aber nicht, dass es nicht besser geht.

Von Usern von Radeon-Karten erwarte ich keine kritische Auseinandersetzung mit "ihrer" BQ, da (fast) alle dieser User damals auch das winkelabhängige AF verteidigten. Da scheint die Regel zu gelten, mehr BQ als ATI liefert, bräuchte man nicht. Inzwischen hat auch NV begriffen, dass die meisten User die AF-Texturqualität nicht richtig einschätzen können und "beglücken" uns beim NV4x mit ATI-mäßiger Winkelabhängigkeit.

Polak
2005-02-08, 19:44:55
Die Frage ist, ob das ATI-AF so viel schlechter ist, dass man Unterschiede sieht, und wenn ja, diese als schlechtere BQ wahrnimmt.
Ack.
Das können wahrscheinlich die wenigsten wahrnehmen.

PS ist GSM1800 für den Nutzer besser als GSM900? ;)

InsaneDruid
2005-02-08, 19:51:42
Von Usern von Radeon-Karten erwarte ich keine kritische Auseinandersetzung mit "ihrer" BQ, da (fast) alle dieser User damals auch das winkelabhängige AF verteidigten.

Uh, das nenn ich mal nen derben Tiefschlag. Du erwartest von ALLEN Radeon Usern keine kritische Auseinandersetzung, weil einige das winkelabhängige AF verteidigten?

Das ist hart. So ne Art ATI-Sippenhaft? :(

Jesus
2005-02-08, 19:53:21
Von Usern von Radeon-Karten erwarte ich keine kritische Auseinandersetzung mit "ihrer" BQ, da (fast) alle dieser User damals auch das winkelabhängige AF verteidigten. Da scheint die Regel zu gelten, mehr BQ als ATI liefert, bräuchte man nicht. Inzwischen hat auch NV begriffen, dass die meisten User die AF-Texturqualität nicht richtig einschätzen können und "beglücken" uns beim NV4x mit ATI-mäßiger Winkelabhängigkeit.

Ah verstehe also ATI ist wieder mal Schuld dass NV mist baut. Genauso wie mit ihrem blöden Bri-AF, dass .... oder nein warte das war ja NV die als erste nicht mehr anständig filterten und niemand hats gemerkt.

Imo nehmen sich beide Firmen da überhaupt nichts wenn es darum geht das letzte Quentchen Leistung für den Balken aus ihren Karten rauszuholen, sei es durch Filteroptimierungen, Shaderreplacements oder sonst was.

LovesuckZ
2005-02-08, 20:04:25
Ah verstehe also ATI ist wieder mal Schuld dass NV mist baut. Genauso wie mit ihrem blöden Bri-AF, dass .... oder nein warte das war ja NV die als erste nicht mehr anständig filterten und niemand hats gemerkt.


Review 9600pro: 16. April
Review 5900U mit 44.03 Treiber: 11. Mai

(Hardocp.com)

Denk mal darüber nach...

StefanV
2005-02-08, 20:07:22
Nö, wieso?!

Der Nv30 erschien vor der 9600 und die Hardware ist durchaus zu Bri in der Lage, der Treiber wurd aber nachgereicht :rolleyes:

Mr. Lolman
2005-02-08, 20:07:33
Ich hatte bislang noch gar kein Flimmern mittels AF auf meiner 6600 GT. Insofern kann es auf einer ATI-Karte schwerlich weniger flimmern. Das NV4x-AF ist (zumindest auf HQ) überall besser, als das ATI-AF. Die Frage ist, ob das ATI-AF so viel schlechter ist, dass man Unterschiede sieht, und wenn ja, diese als schlechtere BQ wahrnimmt. Ich kann mich jetzt nicht erinnern, mit der Radeon 9600 ernsthafte AF-Texturqualitätsprobleme gehabt zu haben. Das heißt aber nicht, dass es nicht besser geht.

Von Usern von Radeon-Karten erwarte ich keine kritische Auseinandersetzung mit "ihrer" BQ, da (fast) alle dieser User damals auch das winkelabhängige AF verteidigten. Da scheint die Regel zu gelten, mehr BQ als ATI liefert, bräuchte man nicht. Inzwischen hat auch NV begriffen, dass die meisten User die AF-Texturqualität nicht richtig einschätzen können und "beglücken" uns beim NV4x mit ATI-mäßiger Winkelabhängigkeit.


Die Winkelabhängigkeit ist zwar fies, da nicht abschaltbar, jedoch bringt sie (performancetechnisch) fast immer mehr Nutzen als das sie Schaden anrichtet. Da lässt sich auch ganz leicht erklären: Schaden und Nutzen würden sich in Waage halten, sofern man immer dann, wenn die WA greift, auch automatisch eine schlechtere BQ erkennen würde.

Nutzen: höhere Perf
Schaden: schlechtere BQ

Da das aber nicht automatisch der Fall ist, und die WA nur in einigen wenigen Situationen wirklich als suboptimal empfunden wird, hat man in allen anderen Situationen wo sie auch greift, aber nicht bemerkt wird, schon gewonnen.

Du meinst selbst, dass dir das Rv3x0 Filtering kaum negativ aufgestossen ist. Und das obwohl du wahrscheinlich zu den am stärksten sensibilisierten Leuten im Forum gehörst, wenns um Texturfilter geht. Mackg hat das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=203256) recht schön aufgeschlüsselt. Da stehen bei seiner 6800LE bei 1024x768 4xAA/16xAF 40fps mit unoptimierten HQ gegen 71fps mit Q und aktiven Optimierungen. Das ist ein Vorsprung von fast 78% der da mal schnell erzielt wird. Andersrum wage ich zu bezweifeln, dass 4xAA/4xAF HQ auch diese 71fps erreicht und zusätzlich auch noch besser aussehen würde.

Sicher optimal ists nicht, aber solang es keinen wirklich (auf den Grad bezogen) adaptiven anisotropen Filter gibt, ist das wohl die beste Lösung. Bei ATi frag ich mich halt, ob die Filteroptimierungen mit AI wirklich deaktiviert werden können, allerdings hab ich im ATi Forum noch kaum Anfragen gehört, wie man das AF verbessern könnte, während eine Zeitlanng (zumindest bis zum Erscheinen des LOD Clamp Schalters) bei NV schon immerweider gefragt wurde wie dem Flimmern beizukommen sei.

Damit mein ich weder, dass NV mieser filtert, noch dass ATI User schlechtere Grafik gewöhnt sind, sondern nur, dass ja anscheinend alles in Ordnung ist, wenn die Leute mit der Grafik zufrieden sind. (Wär sie wirklich so sh1ce, hättest du wohl definitv ein Problem mit deiner 9600 gehabt und das Forum wär voll von Anfragen, wie man das Problem umgehen kann)

Klar die bestmögliche Qualität entspricht imo bei beiden Herstellen nicht dem Optimum, aber imo ists für den Durchschnittsspieler optimaler mit ~70fps durch die Gegend zu heizen und dafür mal irgendwo ne filtertechnische Unregelmässigkeit zu entdecken (die wohl im Normalfall eh nur uns Freaks auffällt), als ne 6800LE im Rechner zu haben und sich zu wundern warum bei 1024x768 4xAA/16xAF schon Schluss ist mit mehr als 40fps avg...

aths
2005-02-08, 20:12:27
Uh, das nenn ich mal nen derben Tiefschlag. Du erwartest von ALLEN Radeon Usern keine kritische Auseinandersetzung, weil einige das winkelabhängige AF verteidigten?

Das ist hart. So ne Art ATI-Sippenhaft? :(Konkretisierung: Ich erwarte von Hardcore-ATI-Fans keine kritische Auseinandersetzung. Das Standardargument ist ja "Man sieht es nicht", und da braucht man nicht mehr weiterreden. Wer keine Unterschiede sieht, für den ist es ja gut. Es ist ja auch nicht so, dass ich bei einer Radeon sofort sehe: "Aha, schlechtes ATI-AF". Und dass die Radeon 9600 brilinear filtert, habe ich gar nicht gesehen.

Weil ich nicht speziell daraufhin geguckt habe, sondern annahm, das sei schon alles in Ordnung so. Ich freute mich allerdings über die unerwartet hohe Leistung bei trilinearer Filterung. Aber die Brilinearität ist nicht so klein, dass man sie prinzipiell nicht wahrnehmen könnte. Man muss allerdings spezielle kritische Stellen im Spiel finden, um Unterschiede zu echter trilinearer Filterung zu sehen. Dann fällt das auch nur in Bewegung richtig auf, Screenshots helfen daher nicht viel weiter.

Lange Rede, kurzer Sinn: Wer einfach immer sagt, das reicht schon, weil man auf den ersten Blick keine Qualitätssenkungen sieht, der wird es auch nie sehen.

Coda
2005-02-08, 20:13:24
Naja 8xAF ohne Winkelabhängigkeit wäre mir lieber als 16xAF mit und die Performance dürfte eigentlich relativ gleich sein.

aths
2005-02-08, 20:15:02
Ah verstehe also ATI ist wieder mal Schuld dass NV mist baut. Genauso wie mit ihrem blöden Bri-AF, dass .... oder nein warte das war ja NV die als erste nicht mehr anständig filterten und niemand hats gemerkt.

Imo nehmen sich beide Firmen da überhaupt nichts wenn es darum geht das letzte Quentchen Leistung für den Balken aus ihren Karten rauszuholen, sei es durch Filteroptimierungen, Shaderreplacements oder sonst was.Ich sehe bei GeForce-Karten sehr schnell, ob die brilinear filtern. Weshalb ich nur voll trilinear spiele. Ich möchte nicht nur Pixelshader sehen. Bevor ich gute Pixelshader haben möchte, brauche ich erst mal beste Multitexturing-Fähigkeiten mit allerbesten (also hochpräzisen) Texturfiltern. Das liefert der NV40 leider nur bis einschließlich 2x AF.

Die "Schuld" am blöden AF-Muster ab 4x beim NV40 hat nicht ATI, sondern haben die ATI-User :) die nur 16x eingestellt haben wollen ohne sich mit der tatsächlichen Texturqualität kritisch auseinandersetzen. Und die NV-User, die bei ihrer GeForce3-FX nur den Leistungabfall bei 8x AF sehen, ohne das Auge für die tatsächliche Texturqualität zu haben.

StefanV
2005-02-08, 20:18:55
Naja 8xAF ohne Winkelabhängigkeit wäre mir lieber als 16xAF mit und die Performance dürfte eigentlich relativ gleich sein.
Das magst du so sehen, viele andere sehen das aber anders, die verzichten lieber auf irgendwas als auf 50-100% an Performance...

Sicher, wenn man 100fps hat, dann kann mans schon nutzen, nur kann man diese Performance nicht anderweitig besser nutzten?!

z.B. für mehr Effekte und/oder größere Texturen/Landschaften und sonstigem?!

Quasar
2005-02-08, 20:22:18
Lange Rede, kurzer Sinn: Wer einfach immer sagt, das reicht schon, weil man auf den ersten Blick keine Qualitätssenkungen sieht, der wird es auch nie sehen.
Vielleicht schlimmer: Der wird evtl. auch Stück für Stück entwöhnt werden vom jeweils neuesten "The world's fastest graphics accelerator ever".

StefanV
2005-02-08, 20:25:35
Die "Schuld" am blöden AF-Muster ab 4x beim NV40 hat nicht ATI, sondern haben die ATI-User :) die nur 16x eingestellt haben wollen ohne sich mit der tatsächlichen Texturqualität kritisch auseinandersetzen. Und die NV-User, die bei ihrer GeForce3-FX nur den Leistungabfall bei 8x AF sehen, ohne das Auge für die tatsächliche Texturqualität zu haben.
LOL, natürlich X-D
Immer haben die ATi User oder ATI Schuld...

Also echt, an dieser Stelle zeigst du mal (wieder), welcher Marke du hörig bist...
Aber wie wärs mal mit 'nem Artikel, in dem du nicht nV lobst und ATi niedermachst?!

Gibt so viel, worüber man schreiben könnte, aber du nimmst immer das, was sich am besten eignet, um nV zu loben und/oder ATi niederzumachen...

Wie wärs mal zur Abwechlung mal mit 'Nem Artikel, in dem ATi (Technologien) oder nV (Technologien) nicht mit einer einzigen Silbe erwähnt werden und nur mit einer kleinen Andeutung erwähnt wird, das die das aktuell ähnlich sind?!

Buffered UMA Graphik würd sich dafür vorzüglich anbieten, da man da als perfektes Beispiel ein Produkt aus der Mitte nehmen kann: den Intel i810.

InsaneDruid
2005-02-08, 20:29:07
Konkretisierung: Ich erwarte von Hardcore-ATI-Fans keine kritische Auseinandersetzung. Das Standardargument ist ja "Man sieht es nicht", und da braucht man nicht mehr weiterreden. Wer keine Unterschiede sieht, für den ist es ja gut. Es ist ja auch nicht so, dass ich bei einer Radeon sofort sehe: "Aha, schlechtes ATI-AF". Und dass die Radeon 9600 brilinear filtert, habe ich gar nicht gesehen.

Weil ich nicht speziell daraufhin geguckt habe, sondern annahm, das sei schon alles in Ordnung so. Ich freute mich allerdings über die unerwartet hohe Leistung bei trilinearer Filterung. Aber die Brilinearität ist nicht so klein, dass man sie prinzipiell nicht wahrnehmen könnte. Man muss allerdings spezielle kritische Stellen im Spiel finden, um Unterschiede zu echter trilinearer Filterung zu sehen. Dann fällt das auch nur in Bewegung richtig auf, Screenshots helfen daher nicht viel weiter.

Lange Rede, kurzer Sinn: Wer einfach immer sagt, das reicht schon, weil man auf den ersten Blick keine Qualitätssenkungen sieht, der wird es auch nie sehen.

Es ging mir lediglich um die meiner Meinung nach untragbare VERALLGEMEINERUNG, ob nun "ATI FAN" oder "HARDCORE ATI FAN". Diesen Menschenmengen per se eine angebliche Meinung anzuhängen halte ich für höchstgradig daneben.

Man kann sehrwohl FAN (auch HARDCORE FAN) sein, UND die kritisch zu sehenden Sachen kritisch sehen.

Find ich schade sowas grade von dir zu hören. :(

Coda
2005-02-08, 20:30:08
Das magst du so sehen, viele andere sehen das aber anders, die verzichten lieber auf irgendwas als auf 50-100% an Performance...Uhm ich habe doch gesagt: Bei etwa gleicher Performance.

ShadowXX
2005-02-08, 20:50:16
LOL, natürlich X-D
Immer haben die ATi User oder ATI Schuld...

Also echt, an dieser Stelle zeigst du mal (wieder), welcher Marke du hörig bist...
Aber wie wärs mal mit 'nem Artikel, in dem du nicht nV lobst und ATi niedermachst?!

Gibt so viel, worüber man schreiben könnte, aber du nimmst immer das, was sich am besten eignet, um nV zu loben und/oder ATi niederzumachen...

Wie wärs mal zur Abwechlung mal mit 'Nem Artikel, in dem ATi (Technologien) oder nV (Technologien) nicht mit einer einzigen Silbe erwähnt werden und nur mit einer kleinen Andeutung erwähnt wird, das die das aktuell ähnlich sind?!

Buffered UMA Graphik würd sich dafür vorzüglich anbieten, da man da als perfektes Beispiel ein Produkt aus der Mitte nehmen kann: den Intel i810.


Den hinteren Teil von aths Aussage hast du aber gekonnt überlesen:


Die "Schuld" am blöden AF-Muster ab 4x beim NV40 hat nicht ATI, sondern haben die ATI-User die nur 16x eingestellt haben wollen ohne sich mit der tatsächlichen Texturqualität kritisch auseinandersetzen. Und die NV-User, die bei ihrer GeForce3-FX nur den Leistungabfall bei 8x AF sehen, ohne das Auge für die tatsächliche Texturqualität zu haben.

Mr. Lolman
2005-02-08, 20:54:56
Naja 8xAF ohne Winkelabhängigkeit wäre mir lieber als 16xAF mit und die Performance dürfte eigentlich relativ gleich sein.


Ich schwör dir, dass sie das nicht ist. Sonst hätte man diese sh1ce WA garnicht erst integriert. Ich mein, wenn zw. Q und HQ schon >75% liegen, und da ändert sich nur die Brilinearität, sowie ein paar LOD Berechungen, dann ists wohl sehr schwer möglich, dass 8xAF unoptimiert, so schnell wie 16x mit WA ist.

Quasar
2005-02-08, 21:01:17
[...]Ich mein, wenn zw. Q und HQ schon >75% liegen, und da ändert sich nur die Brilinearität, sowie ein paar LOD Berechungen, [...]
Bist du dir da ganz sicher?

ShadowXX
2005-02-08, 21:02:27
Ich schwör dir, dass sie das nicht ist. Sonst hätte man diese sh1ce WA garnicht erst integriert. Ich mein, wenn zw. Q und HQ schon >75% liegen, und da ändert sich nur die Brilinearität, sowie ein paar LOD Berechungen, dann ists wohl sehr schwer möglich, dass 8xAF unoptimiert, so schnell wie 16x mit WA ist.

Hmmm...also bei mir (6800 Ultra 425/1200) liegen definitv keine 75% zwischen Quality + Optimierungen und HQ.

Meistens nur um die 10%......

Mr. Lolman
2005-02-08, 21:04:29
Konkretisierung: Ich erwarte von Hardcore-ATI-Fans keine kritische Auseinandersetzung. Das Standardargument ist ja "Man sieht es nicht", und da braucht man nicht mehr weiterreden. Wer keine Unterschiede sieht, für den ist es ja gut. Es ist ja auch nicht so, dass ich bei einer Radeon sofort sehe: "Aha, schlechtes ATI-AF". Und dass die Radeon 9600 brilinear filtert, habe ich gar nicht gesehen.

Weil ich nicht speziell daraufhin geguckt habe, sondern annahm, das sei schon alles in Ordnung so. Ich freute mich allerdings über die unerwartet hohe Leistung bei trilinearer Filterung. Aber die Brilinearität ist nicht so klein, dass man sie prinzipiell nicht wahrnehmen könnte. Man muss allerdings spezielle kritische Stellen im Spiel finden, um Unterschiede zu echter trilinearer Filterung zu sehen. Dann fällt das auch nur in Bewegung richtig auf, Screenshots helfen daher nicht viel weiter.


Und deswegen schreibst du Artikel die einem Annehmen lassen, dass das was ATi einem vorsetzt der letzte Dreck ist, und das die ATI User (also auch ich) im konkreten daran schuld sind, dass jetzt der NV40 auch sh1ce filtert?

Dann hast du plötzlich selbst eine Radeon im Rechner die tatsächlich noch mieser filtert, als damals schon bekannt war, und dir fällt die schlechte Qualität immernoch nicht auf? Jetzt kannstu du dir wahrscheinlich denken, warum ich immer so darauf erpciht war, dass gane auch anhand von praktischen Beispielen festzuhalten (und auch wenn mans nur in Bewegung sieht. Ists denn so schwer ein animiertes gif zu basteln?)


Lange Rede, kurzer Sinn: Wer einfach immer sagt, das reicht schon, weil man auf den ersten Blick keine Qualitätssenkungen sieht, der wird es auch nie sehen.

So ein Stuss. Bei ATI war mir (nicht zuletzt aufgrund deiner Artikel ;)) klar, dass das was man vorgesetzt bekommt, suboptimal ist. Die NV Filter hast du immer in den höchsten tönen gelobt und nicht zuletzt deswegen hab ich mir auch so ein Teil zugelegt. Und ich muss sagen, dass die filterqualität auf HQ vll. minimalst besser ist als auf ner R300, aber bei weitem nicht so gut, dass es solche Artikel rechtfertigen würde, weil es vom Flimmerfreien Optimum (falls sowas überhaupt existiert) weiter entfernt ist, als dass es sich von ATi positiv abhebt...

Und dass NV bei den Texturfiltern Optimierungsbedarf hatte (hinsichtlich Performance) sollte spätestens seit der R200 klar sein....

Jesus
2005-02-08, 21:05:25
Die "Schuld" am blöden AF-Muster ab 4x beim NV40 hat nicht ATI, sondern haben die ATI-User :) die nur 16x eingestellt haben wollen ohne sich mit der tatsächlichen Texturqualität kritisch auseinandersetzen. Und die NV-User, die bei ihrer GeForce3-FX nur den Leistungabfall bei 8x AF sehen, ohne das Auge für die tatsächliche Texturqualität zu haben.

Logisch.... nicht wirklich.

Schuld daran hat wohl eher noch das AF selbst welches einfach in dieser Form (vorallem auf NV Karten) zu langsam ist. Was macht der GeForce 3 User wenn er sich ne Slideshow mit 8xAF ansehen muss? Er weint und kauft sich ne ATI Karte (oder umgekehrt).
Diese Fragen werden sich NV (und ATI) wohl auch irgendwann mal gestellt haben. Was diese Optimierungen (vorallem bei NV) bringen haben Lolman und andere ja schon gezeigt.

StefanV
2005-02-08, 21:13:11
Uhm ich habe doch gesagt: Bei etwa gleicher Performance.
Wofür man mindestens Tri TMUs bräuchte, wozu aber bisher kein Hersteller bereit ist, es einzubauen (außer, angeblich, S3)...

Das normale Kosten <-> Nutzen verhältnis...

Man hat dafür momentan einfach nicht so recht Platz.

Bei den 2. oder 3. WGF Generation könnte es hingegen was werden, wenn Winzigweich nicht in 3-5 Jahren ein neues WGF bringt (hoffentlich NICHT!!)...

StefanV
2005-02-08, 21:20:19
Ich sehe bei GeForce-Karten sehr schnell, ob die brilinear filtern. Weshalb ich nur voll trilinear spiele. Ich möchte nicht nur Pixelshader sehen. Bevor ich gute Pixelshader haben möchte, brauche ich erst mal beste Multitexturing-Fähigkeiten mit allerbesten (also hochpräzisen) Texturfiltern. Das liefert der NV40 leider nur bis einschließlich 2x AF.

Die "Schuld" am blöden AF-Muster ab 4x beim NV40 hat nicht ATI, sondern haben die ATI-User :) die nur 16x eingestellt haben wollen ohne sich mit der tatsächlichen Texturqualität kritisch auseinandersetzen. Und die NV-User, die bei ihrer GeForce3-FX nur den Leistungabfall bei 8x AF sehen, ohne das Auge für die tatsächliche Texturqualität zu haben.
Eine Sache verstehe ich aber nicht ganz:

Warum hast du damals dir 'ne Voodoo gekauft, wenn du doch so ein BQ Fetischist bist?!

Damals wär die Matrox G400 die einzig richtige Wahl für dich, nach deinen jetzigen Anforderungen, denn das war die einzige Karte, die damals echtes Trilinear konnte ebenso war sie in 32bit sehr sehr schnell...

blubb
2005-02-08, 21:28:46
Nö, wieso?!

Der Nv30 erschien vor der 9600 und die Hardware ist durchaus zu Bri in der Lage, der Treiber wurd aber nachgereicht :rolleyes:

Hat ati eben bei nvidia geklaut. so wie nvidia eine antwort auf atis winkelabhängigkeit brachte.

SKYNET
2005-02-08, 21:31:59
LOL, natürlich X-D
Immer haben die ATi User oder ATI Schuld...

Also echt, an dieser Stelle zeigst du mal (wieder), welcher Marke du hörig bist...
Aber wie wärs mal mit 'nem Artikel, in dem du nicht nV lobst und ATi niedermachst?!

Gibt so viel, worüber man schreiben könnte, aber du nimmst immer das, was sich am besten eignet, um nV zu loben und/oder ATi niederzumachen...

Wie wärs mal zur Abwechlung mal mit 'Nem Artikel, in dem ATi (Technologien) oder nV (Technologien) nicht mit einer einzigen Silbe erwähnt werden und nur mit einer kleinen Andeutung erwähnt wird, das die das aktuell ähnlich sind?!

Buffered UMA Graphik würd sich dafür vorzüglich anbieten, da man da als perfektes Beispiel ein Produkt aus der Mitte nehmen kann: den Intel i810.

ich finde, aths hat recht.

du als ATI fan-püppchen, wirst das natürlich anders sehn.


und wage es nicht....

.... ich hatte selber ne 9800pro. :P

StefanV
2005-02-08, 21:33:03
ich finde, aths hat recht.
Ich finde, aths übertreibt maßlos und macht aus 'ner Mücke 'nen Elefanten.

SKYNET
2005-02-08, 21:42:27
Ich finde, aths übertreibt maßlos und macht aus 'ner Mücke 'nen Elefanten.


in manchen sachen schon, aber hier hat er recht.

und, er lobt NV auch nicht nur in den himmel, aber diese zeilen überliest du anscheinend gekonnt/gewollt ?


er übt durchaus auch kritik an NV, aber wenn er kritik an ATI übt bist du immer gleich oben auf, um gegen anzustänkern.

sry, aber so kommt mir das vor, klar bin auchnet ohne und eher richtung NV eingestellt, aber ist nicht so das ich mir nicht auch ne ATI in rechner stecken würde wenns passt.


in dem sinne: lese auchmal "zwischen" den zeilen ;), und nichtnur was DU lesen WILLST.

wuzetti
2005-02-08, 21:56:42
klar bin auchnet ohne und eher richtung NV eingestellt

das wort zum mittwoch abend ;D ;D ;D

entschuldigung vielmals, aber das musste ich einfach loswerden!

G@st_ist_kaputt
2005-02-08, 22:05:33
Die "Schuld" am blöden AF-Muster ab 4x beim NV40 hat nicht ATI, sondern haben die ATI-User :) die nur 16x eingestellt haben wollen ohne sich mit der tatsächlichen Texturqualität kritisch auseinandersetzen. Und die NV-User, die bei ihrer GeForce3-FX nur den Leistungabfall bei 8x AF sehen, ohne das Auge für die tatsächliche Texturqualität zu haben.


Ja, so ist das leider.:(
Oder so ähnlich, weil ich den Unterschied zwischen den ATI und NVIDIA Usern, nicht sehe. Beide haben sich weder kritisch mit der Texturqualität auseinandergesetzt noch hatten beide das Auge dafür. Für einzelne mag das nicht stimmen aber für die Masse an Usern schon.

Coda
2005-02-08, 22:12:33
Wofür man mindestens Tri TMUs bräuchte, wozu aber bisher kein Hersteller bereit ist, es einzubauen (außer, angeblich, S3)...Ich hab von 8x ohne vs. 16x mit Winkelabhängigkeit geredet.
Ließt du die Posts überhaupt?

StefanV
2005-02-08, 22:18:33
Ja, hab ich...

Nur frisst 8° ohne schon etwas mehr Performance als 16° mit...

Meine FX5200 ist gerad 'drüben' sonst hätt ich mir mal was einfallen lassen, als Test (gegen 6600)...

Coda
2005-02-08, 22:50:41
Ja "etwas mehr" ist bei der gebotenen Qualität aber mehr als akzeptabel.

aths
2005-02-08, 22:52:54
Das magst du so sehen, viele andere sehen das aber anders, die verzichten lieber auf irgendwas als auf 50-100% an Performance...

Sicher, wenn man 100fps hat, dann kann mans schon nutzen, nur kann man diese Performance nicht anderweitig besser nutzten?!

z.B. für mehr Effekte und/oder größere Texturen/Landschaften und sonstigem?!Meine Kolumne zum Thema hast du wahrscheinlich gelesen. Aber auch verstanden? Dort wird dargelegt, dass winkelunabhängiges AF aus einer gegebenen Leistung die beste Texturqualität erzeugt.

Reicht in einem Szenario die Texturfüllrate nicht aus, kann man ja den AF-Grad senken. Das ist sinnvoller als eine Z-Winkel-abhängige Senkung des AF-Grades.

aths
2005-02-08, 22:54:27
LOL, natürlich X-D
Immer haben die ATi User oder ATI Schuld...Lies das Posting noch mal bitte. Und zwar das gesamte Posting.

Deine weiteren Vorhaltungen bezüglich Parteilichkeit wirken und deinem Stil auf mich nicht gerade überzeugend.

aths
2005-02-08, 22:58:36
Es ging mir lediglich um die meiner Meinung nach untragbare VERALLGEMEINERUNG, ob nun "ATI FAN" oder "HARDCORE ATI FAN". Diesen Menschenmengen per se eine angebliche Meinung anzuhängen halte ich für höchstgradig daneben.

Man kann sehrwohl FAN (auch HARDCORE FAN) sein, UND die kritisch zu sehenden Sachen kritisch sehen.

Find ich schade sowas grade von dir zu hören. :(Man kann Hardcore-Fan sein und trotzdem die Realität nicht vergessen, ja. Beispielsweise scheinen mir Mr. Lolman oder selbst Jesus durchaus daran interessiert, dass Fakten auf den Tisch kommen. Wie diese bewertet werden, darüber kann es dann Diskussionen geben. Oft gibt es auch keine Einigung darüber, aber das ist ja im Leben normal. Trotzdem lernt man was dabei, finde ich.

Leider gibt es auch Fanboys, die bastelt sich die Sache so zurecht, wie sie es gerade brauchen.

aths
2005-02-08, 22:59:45
Hmmm...also bei mir (6800 Ultra 425/1200) liegen definitv keine 75% zwischen Quality + Optimierungen und HQ.

Meistens nur um die 10%......Ich kann in synthetischen Tests ca. 25% mehr Geschwindigkeit bekommen, wenn von HQ auf Q ohne weitere aktive "Optimierungen" geschaltet wird. Die einzelnen "Optimierungen" bringen dann in der Summe weniger als der Schritt von HQ zu Q.

aths
2005-02-08, 23:10:52
Und deswegen schreibst du Artikel die einem Annehmen lassen, dass das was ATi einem vorsetzt der letzte Dreck ist, und das die ATI User (also auch ich) im konkreten daran schuld sind, dass jetzt der NV40 auch sh1ce filtert? "Die einen annehmen lassen"? Sicher fühlen sich ATI-Fans, ich sags mal vulgär, angepisst, wenn ich respektlos auf ATIs Hardware herumhacke und ausgerechnet NVs Hardware als gutes Beispiel anführe. Aber was durfte ich nicht schon alles hören, wenn ich NVs Hardware, gerade auch in Bezug auf die Texturfilter, nicht minder respektlos angehe. Aus meiner Feder stammt ja nun wirklich nicht nur der bewusste Artikel der ATIs Filter kritisiert.

Dann hast du plötzlich selbst eine Radeon im Rechner die tatsächlich noch mieser filtert, als damals schon bekannt war, und dir fällt die schlechte Qualität immernoch nicht auf? Jetzt kannstu du dir wahrscheinlich denken, warum ich immer so darauf erpciht war, dass gane auch anhand von praktischen Beispielen festzuhalten (und auch wenn mans nur in Bewegung sieht. Ists denn so schwer ein animiertes gif zu basteln?)GIF hat nur 256 Farben.

So ein Stuss. Bei ATI war mir (nicht zuletzt aufgrund deiner Artikel ;)) klar, dass das was man vorgesetzt bekommt, suboptimal ist. Die NV Filter hast du immer in den höchsten tönen gelobt und nicht zuletzt deswegen hab ich mir auch so ein Teil zugelegt. Und ich muss sagen, dass die filterqualität auf HQ vll. minimalst besser ist als auf ner R300, aber bei weitem nicht so gut, dass es solche Artikel rechtfertigen würde, weil es vom Flimmerfreien Optimum (falls sowas überhaupt existiert) weiter entfernt ist, als dass es sich von ATi positiv abhebt...

Und dass NV bei den Texturfiltern Optimierungsbedarf hatte (hinsichtlich Performance) sollte spätestens seit der R200 klar sein....In dem Punkt bleibe ich hart: Gute Texturen müssen einfach entsprechend Performance kosten. Jetzt geht es aber in Richtung längere Pixelshader mit immer größeren arithmetischen Teilen. Dann wird im Verhältnis Texturpower wieder frei, welche man z. B. für bestmögliche anisotrope Filterung einsetzen könnte.

Die GeForce FX hatte noch recht kleine Texturcaches, erst der NV40 (und NV43) ist hier auf Radeon-Niveau. Will man die Texturleistung durch effizienteres Caching oder andere Tweaks verbessern, die die Qualität nicht beeinträchtigen, immer her damit. Geht es zulasten der Qualität finde ich es lächerlich, dies noch im Pixelshader-Zeitalter für notwendig zu erachten. NV4x hat endlich vernünftig dimensionierte Caches und offenbar auch allgemein ein hochoptimiertes Speicher-Interface, was der Texturleistung zugute kommt. Insofern bestand Bedarf. Keinen Bedarf sehe ich, wenns um brilineare Filterung, "Sample optimized" AF oder winkelabhängige Schärfereduzierung geht.

Was "Flimmerfreiheit" angeht, kann man nichts gegen "böse" Texturen machen, wenn man nicht gleichzeitig andere vernünftige Kriterien aufgeben will. Dazu gehört z. B., eine Textur die im 1:1 Pixel:Texel-Verhältnis gerendert wird, genau so wiederzugeben wie sie halt aussieht. Tut man das bei einem texelweisen Schachbrettmuster, wird diese Textur in Bewegung in der X-Y-Ebene schrecklich flimmern, auch bei besten Lehrbuch-Texturfiltern. Auch wenn man 16x16 Supersampling macht (weil das in diesem Fall nämlich gar nichts bringen würde.) Die Texturdarstellung geht weiterhin vom Pixelschachbrett über 50% Grau bis zum Pixelschachbrett.

Oder, ich glaube das wurde schon erwähnt, stell dir eine Textur vor, die zeilenweise schwarz und weiß aufgebaut ist, also horizontale Linien mit 1 Texel Stärke hat. Wenn man diese Textur um die Z-Achse dreht, wie soll das "flimmerfrei" gerendert werden? Das geht prinzipiell nicht, wenn du nicht generell mit LOD +1 oder so arbeiten möchtest.

aths
2005-02-08, 23:11:44
Logisch.... nicht wirklich.

Schuld daran hat wohl eher noch das AF selbst welches einfach in dieser Form (vorallem auf NV Karten) zu langsam ist. Was macht der GeForce 3 User wenn er sich ne Slideshow mit 8xAF ansehen muss? Er weint und kauft sich ne ATI Karte (oder umgekehrt).Oder er schaltet auf 4x.

Diese Fragen werden sich NV (und ATI) wohl auch irgendwann mal gestellt haben. Was diese Optimierungen (vorallem bei NV) bringen haben Lolman und andere ja schon gezeigt.Welche "Optimierungen" meinst du jetzt konkret?

StefanV
2005-02-08, 23:12:15
"Die einen annehmen lassen"? Sicher fühlen sich ATI-Fans, ich sags mal vulgär, angepisst, wenn ich respektlos auf ATIs Hardware herumhacke und ausgerechnet NVs Hardware als gutes Beispiel anführe.

Richtig, warum zur Hölle nimmst nV HW und nicht 3DLabs oder Matrox?!

Als Beispiel, wie mans nicht machen sollte, brauchst auch nicht ATI nehmen, denn da bieten sich Intel und SIS hervorragend an.

aths
2005-02-08, 23:13:26
Eine Sache verstehe ich aber nicht ganz:

Warum hast du damals dir 'ne Voodoo gekauft, wenn du doch so ein BQ Fetischist bist?!Weil die Spiele mit Glide am besten aussahen, oft besser als mit D3D in 32 Bit.

StefanV
2005-02-08, 23:14:33
Weil die Spiele mit Glide am besten aussahen, oft besser als mit D3D in 32 Bit.
Ach, dafür nimmst 'ne Karte die beim Trilinearen Filter bescheißt?! (ja, in diesem Fall kann mans wirklich so sagen denn die Voodoos haben nicht so recht TF beherrscht und eher Mipmap Dithering genutzt)??

Besser gesagt eine Karte, die bei MT kein Trilinear kann...

aths
2005-02-08, 23:19:15
Richtig, warum zur Hölle nimmst nV HW und nicht 3DLabs oder Matrox?!

Als Beispiel, wie mans nicht machen sollte, brauchst auch nicht ATI nehmen, denn da bieten sich Intel und SIS hervorragend an.In diesem Forum haben aber nur wenige Intel- oder SiS-Hardware. Das ist, denke ich, doch dein Hauptkriterium, was in diesem Forum angesagt sei?

aths
2005-02-08, 23:22:52
Ach, dafür nimmst 'ne Karte die beim Trilinearen Filter bescheißt?! (ja, in diesem Fall kann mans wirklich so sagen denn die Voodoos haben nicht so recht TF beherrscht und eher Mipmap Dithering genutzt)??

Besser gesagt eine Karte, die bei MT kein Trilinear kann...Ja. Und? Was hat meine Graka-Historie mit dem Thema zu tun? Da stehe ich jetzt auf dem Schlauch.

StefanV
2005-02-08, 23:33:55
Ja. Und? Was hat meine Graka-Historie mit dem Thema zu tun? Da stehe ich jetzt auf dem Schlauch.
Meinst nicht, das das irgendwie etwas inkonsequent ist?!

Auf der einen Seite willst sonstwie perfekte Filter, auf der anderen kaufst dir freiwillig 'ne Karte, die von den Filtern her 'ne mittlere Katastrophe ist, dann haust du noch gewaltig auf diejenigen drauf, die das WA AF nicht so schlecht finden, wie du es tust.

Dabe hast selbst mal 'ne Karte bevorzugt, die nichtmal richtig Trilinear filtern konnte, got the point?!

Irgendwie entsteht der Eindruck, das du 'ne Abneigung gegen ATi hast...

Frank
2005-02-08, 23:55:32
Meinst nicht, das das irgendwie etwas inkonsequent ist?!

Nur wer sich selbst ändert, bleibt sich treu.

Ich denke jeder entwickelt sich weiter und ich frage mich gerade ernsthaft, was Dein rumgehacke auf einen Grafikkartenkauf von aths von vor 5 Jahren hier eigentlich zu suchen hat.

Piffan
2005-02-08, 23:55:35
Meinst nicht, das das irgendwie etwas inkonsequent ist?!

Auf der einen Seite willst sonstwie perfekte Filter, auf der anderen kaufst dir freiwillig 'ne Karte, die von den Filtern her 'ne mittlere Katastrophe ist, dann haust du noch gewaltig auf diejenigen drauf, die das WA AF nicht so schlecht finden, wie du es tust.

Dabe hast selbst mal 'ne Karte bevorzugt, die nichtmal richtig Trilinear filtern konnte, got the point?!

Irgendwie entsteht der Eindruck, das du 'ne Abneigung gegen ATi hast...

Tschuldigung, dass ich hier mal was zu sage.....Der Zeitpunkt, zu dem die Hardware auf den Markt kam, spielt sicher ne große Rolle. Anfangs war der Voodoo1/2 ohne Alternative, später bei der Voodoo 4/5 gabs keine Karte, die vergleichbares AA anbot.

StefanV
2005-02-09, 00:00:02
Nur wer sich selbst ändert, bleibt sich treu.

Ich denke jeder entwickelt sich weiter und ich frage mich gerade ernsthaft, was Dein rumgehacke auf einen Grafikkartenkauf von aths von vor 5 Jahren hier eigentlich zu suchen hat.
Und ich verstehe nicht, was aths rumgehacke auf den ATi Usern bzw des andauernden schlechtredens der ATI Karten und des hochjubelns der nV Karten soll...

Besonders da er früher mal 'ne V4 hatte, sollte er eigentlich selbst wissen, das es auch andere Dinge als die Filterung gibt, die beim Kauf einer GraKa nicht ganz unwichtig sind, von daher wars eher ein Wink mit dem Zaunpfahl...

StefanV
2005-02-09, 00:05:24
Tschuldigung, dass ich hier mal was zu sage.....Der Zeitpunkt, zu dem die Hardware auf den Markt kam, spielt sicher ne große Rolle. Anfangs war der Voodoo1/2 ohne Alternative, später bei der Voodoo 4/5 gabs keine Karte, die vergleichbares AA anbot.
Öhm, Piffan, wir sprechen hier gerad von einer V4 4500...

Zu V1/v2 Zeiten, anfangs auch V3 Zeiten, hattest du durchaus recht, wobei die V3 teilweise auch für unter 200 Deutsche Mark über den Tisch ging...

Nur damals, zu Zeiten der V4 gabs durchaus bessere Karten, unter anderem die G400, die gerade bei der Texturfilterung lange Zeit seines gleichen suchte...

Oder aber die NV1x Serie, die es damals ebenso gab...

Aber sicher, man kanns sich auch immer so zurechtbiegen, wie mans gerad haben will, man kann aber auch mal sagen, das man etwas eventuell etwas überbewertet und das es andere gibt, die diverse Dinge nicht wirklich interessieren...

Das FSAA war z.B. ein guter Punkt, denn NUtzbar wars damals gerade eben so auf der V5, wenn man nicht gerad die Details stark runtergeschraubt hat...

Wobei es auch heute noch Leute gibt, die kein FSAA benutzen, zum Teil, weil sie nicht wissen, was das ist, zu einem anderen weil ihnen das zu langsam ist oder warum auch immer, das ist halt so, ändern kann mans nur bei einem kleinen Teil, wenn überhaupt...

Und wieder anderen ist das AF egal, FSAA nicht.

Und ganz andere wollen einfach eine schnelle Karte...

aths
2005-02-09, 00:13:10
Irgendwie entsteht der Eindruck, das du 'ne Abneigung gegen ATi hast...Der Eindruck ist teilweise richtig. Traditionell NV-kritisch wurde ich schon zu ganz früheren Zeiten (Gamesattack lässt grüßen :)) für pro-ATI gehalten, was aber auch falsch ist. NV geht unehrlich mit seinen Kunden um. ATI inzwischen auch. Beide IHVs haben aber auch wunderbare Produkte, die jeweils bis auf wenige Schwächen sehr gut sind.

StefanV
2005-02-09, 00:14:51
Der Eindruck ist teilweise richtig.
Ach nee, hätt ich jetzt nach deinen ganzen 'ATi ist böse, nV rockt' Artikeln nun absolut nicht gedacht X-D

aths
2005-02-09, 00:15:54
Tschuldigung, dass ich hier mal was zu sage.....Der Zeitpunkt, zu dem die Hardware auf den Markt kam, spielt sicher ne große Rolle. Anfangs war der Voodoo1/2 ohne Alternative, später bei der Voodoo 4/5 gabs keine Karte, die vergleichbares AA anbot.Japp. Die Voodoo4 hat 2x RGSSAA. Die GeForce2 MX hätte echte trilineare Filterung und 2x AF geboten, wobei ich das mit dem AF damals noch nicht wusste. Aber für eine vergleichbare Kantenglättung hätte die GF2 MX 4x OGSSAA gebraucht. Da nahm ich dann doch lieber die Karte, die Glide unterstützt. Da ich ausgiebig UT spielte, und auch länger in der Ultima IX-Welt unterwegs war, habe ich das nicht bereut :)

aths
2005-02-09, 00:19:10
Und ich verstehe nicht, was aths rumgehacke auf den ATi Usern bzw des andauernden schlechtredens der ATI Karten und des hochjubelns der nV Karten soll...

Besonders da er früher mal 'ne V4 hatte, sollte er eigentlich selbst wissen, das es auch andere Dinge als die Filterung gibt, die beim Kauf einer GraKa nicht ganz unwichtig sind, von daher wars eher ein Wink mit dem Zaunpfahl...Hrm. Dass die Radeon das bessere Multisampling bietet, schreibe ich jetzt wirklich nicht zum ersten mal. Ansonsten frage ich mich, was die 9800 Pro der 6600 GT sonst noch voraus haben sollte.

Dass der bessere Texturfilter der 6600 GT so viel besser sei als von der 9800 Pro, dass man die Radeon daher nicht nehmen sollte, schrieb ich jedenfalls nicht. Das würde sowohl meinem theoretischen Tests als auch meiner Erfahrung in tatsächlichen Spielen widersprechen.

Frank
2005-02-09, 00:22:07
Ach nee, hätt ich jetzt nach deinen ganzen 'ATi ist böse, nV rockt' Artikeln nun absolut nicht gedacht X-D
Dein Verhalten wird in diesem Thread nun auch noch unfair. Überleg mal genauer, was du eigentlich gerade geschrieben hast.

aths
2005-02-09, 00:22:22
Ach nee, hätt ich jetzt nach deinen ganzen 'ATi ist böse, nV rockt' Artikeln nun absolut nicht gedacht X-DMir ist es egal, welcher IHV durch meine Artikel gut oder schlecht dasteht. Wichtig ist, dass der Artikel sachlich und richtig ist. Wird in einer bestimmten Zeit ein bestimmter IHV besonders positiv hervorgehoben könnte es ja daran liegen, dass er tatsächlich das insgesamt bessere Produkt anbietet. Artikel, dessen Inhalt 'ATi ist böse, nV rockt' ist, gibt es allerdings auf 3DCenter nicht. Woanders veröffentliche ich im Netz (seit langem) nicht. Darf man fragen, von welchen Artikeln du sprichst?

Seraf
2005-02-09, 00:24:50
Mensch! Geht doch nicht auf Payne ein! Ihr seid "schon wieder" OT.
Dem missionarischen Eifer Paynes und den Erklärungsversuchen von Aths zu folgen macht keinen Spaß mehr :usad:

Banshee18
2005-02-09, 01:32:52
...Es ist ja auch nicht so, dass ich bei einer Radeon sofort sehe: "Aha, schlechtes ATI-AF". Und dass die Radeon 9600 brilinear filtert, habe ich gar nicht gesehen.

Weil ich nicht speziell daraufhin geguckt habe, sondern annahm, das sei schon alles in Ordnung so. Ich freute mich allerdings über die unerwartet hohe Leistung bei trilinearer Filterung. Aber die Brilinearität ist nicht so klein, dass man sie prinzipiell nicht wahrnehmen könnte. Man muss allerdings spezielle kritische Stellen im Spiel finden, um Unterschiede zu echter trilinearer Filterung zu sehen. Dann fällt das auch nur in Bewegung richtig auf, Screenshots helfen daher nicht viel weiter....

Irgendwie tun mir die Technikfreaks (mich eingeschlossen) leid. Man sieht Dinge, die eigentlich nichteinmal auffallen, höchstens, wenn man sie sucht. :(
Und dann kann man sie leider nicht mehr ignorieren, man sieht sie immer und überall.
Einerseits kotzt es mich deshalb an, auf diese Seite gestoßen zu sein, andererseits kann man froh sein, dass es so Leute wie aths gibt, die auf solche Schwächen hinweisen, sonst hätten wir im Jahre 2010 wahrscheinlich wieder Grafik vom Jahre 1996 und würden es nichteinmal bemerken.
Wenn wir ehrlich sind, ist aths sehr neutral und lobt das, was halt gerade gut ist. Manchmal zwar ein wenig zu übertrieben, aber es scheint in der Tat notwendig zu sein.

mfg

Banshee

md
2005-02-09, 09:08:34
eins ist klar. ihr pros wisst zuviel ueber grafikkarten. ich hab den ganzen thread jetzt mal gelsen und kapier nur die haelfte :confused: . ich kann mir aber jetzt trotzdem denken warum die 6600gt schneller ist. mich wuerde es gerne interessieren wie eine 9800pro @ 450/400 (oder etwas in der art) gegen eine 6600gt ankommt... :biggrin:

edit: ihr pors damit wollte ich euch nicht beleidigen!

robbitop
2005-02-09, 09:11:33
ich finde es ziemlich schlimm, dass sich so viele Leute Stückchenweise ohne Widerstand entwöhnen lassenl. Klar ist es schwer, ein "Stückchen" zu sehen, aber ich z.B. sehe den Unterschied in gewissen Situationen mit bewegten Bildern. Und wer weiß, wie oft wir noch entwöhnt werden.
Besonders bei Max Payne 1/2 fiel mir der Unterschied WA AF und original AF (DC) schon desöfteren auf.

Und wenn man sich Spiele mit komplexerer Geometrie anschaut, fällt es auf jeden Fall auf, wenn man es ersteinmal gesehen hat.

WA AF bringt nicht nur Performance, sondern spart v.A. Transistoren.

Wolfram
2005-02-09, 09:23:30
Als ich von einer Geforce3 auf eine 9800 non-pro umgestiegen bin, war mein erster Eindruck, das Bild sei weicher. Ob das nun tatsächlich an der optimierten anisotropen Filterung gelegen hat, weiß ich nicht, ist aber zu vermuten.

Mein Grund für den Umstieg war damals unter anderem, daß sich etliche Maps in UT2003 auch in 1024x768 nur noch ohne anisotropen Filter spielen ließen. AA ist mir demgegenüber nicht so wichtig.

Es gibt viele Leute, die sagen, sie sähen den Effekt der anisotropen Filterung nicht. Kann ich nicht verstehen. Wenn es das nicht mehr gäbe, wäre es, als könnte ich meine HiFi-Anlage nur noch mit mp3s füttern.

Um beim Beispiel zu bleiben: Wenn alle mp3s für ausreichend hielten, und die Musikindustrie irgendwann beschlösse, deswegen nichts in CD-Qualität mehr zu vertreiben, wäre das für mich furchtbar. Einziger Ausweg: Ansprüche hochhalten!

Coda
2005-02-09, 09:30:47
WA AF bringt nicht nur Performance, sondern spart v.A. Transistoren.Zumindest beim NV40 sieht das AF Muster nicht danach aus, das ist viel zu "sauber abgestuft" dafür. Deshalb dachte ich anfangs auch man könnte es vielleicht abschalten :(

Quasar
2005-02-09, 10:01:54
Zumindest beim NV40 sieht das AF Muster nicht danach aus, das ist viel zu "sauber abgestuft" dafür. Deshalb dachte ich anfangs auch man könnte es vielleicht abschalten :(

Ja, das hat mich auch etwas gewundert.

zeckensack
2005-02-09, 10:28:19
Einfaches Beispiel: Stell dich direkt vor eine Wand, die eine Textur zeigt, die eine ähnliche Auflösung wie der verwendete Modus hat. Die Textur zeigt Streifen, die jeweils ein Pixel breit sind. Da Du direkt an der Wand stehst, darf weder MipMapping die Textur runterrechnen und da die Textur lotrecht zum Blickvektor steht, darf auch das AF keinen Einfluss nehmen.

In dieser Konstellation, wirst Du immer ein Moiré Muster sehen, speziell wenn sich die Textur dreht. Das gezeigte Beispiel ist die Definition der Erzeugung eines Moiré Musters.
MipMapping bedeutet, dass für Texturen, die weiter vom Beobachter weg sind, niedriger aufgelöste Varianten verwendet werden, um ein Aliasing mit der Bildauflösung zu vermeiden.

Wenn Du direkt vor der Textur stehst, also der Abstand 0 ist, kann MipMapping daran nichts korrigieren.Oh ... ;(

Das hat nicht wirklich etwas mit dem "Abstand" zu tun. Für die Auswahl des LODs wird die Ableitung von Texturkoordinate/Bildschirmkoordinate herangezogen. Richtiger als "Abstand" wäre "Texel/Pixel-Verhältnis", weil das im Ggs zu ersterem nicht von den Eigenschaften der Projektion, nicht von der Auflösung und nicht von der Texturgröße abhängt, sondern einfach immer funktioniert.

Und deine erste Aussage ist auch nicht korrekt. Sowas habe ich auch noch nie gesehen. Entweder eine Textur ist zu scharf oder nicht. Aber sie wird garantiert nicht streifig weil man sie nicht ganz exakt 1:1 darstellt.

Es wird ja nicht nur zwischen den Mipmaps gefiltert, sondern auch innerhalb der Stufen. Selbst wenn also nur aus dem größten Miplevel texturiert wird, so gibt es trotzdem noch einen Rekonstruktionsfilter, und die kommen mit Rotationen etc sehr sehr gut klar, wenn ich noch nicht total erblindet sein sollte.


PS:
GL_NEAREST = point sampling ohne Mipmaps
GL_LINEAR = bilinear ohne Mipmaps
GL_NEAREST_MIPMAP_NEAREST = point sampling mit Mipmaps
GL_NEAREST_MIPMAP_LINEAR = benutzt keine Sau (~"trilineares point sampling")
GL_LINEAR_MIPMAP_NEAREST = bilinear mit Mipmaps
GL_LINEAR_MIPMAP_LINEAR = trilinear

Xmas
2005-02-09, 10:30:02
Die Winkelabhängigkeit ist zwar fies, da nicht abschaltbar, jedoch bringt sie (performancetechnisch) fast immer mehr Nutzen als das sie Schaden anrichtet. Da lässt sich auch ganz leicht erklären: Schaden und Nutzen würden sich in Waage halten, sofern man immer dann, wenn die WA greift, auch automatisch eine schlechtere BQ erkennen würde.

Nutzen: höhere Perf
Schaden: schlechtere BQ

Da das aber nicht automatisch der Fall ist, und die WA nur in einigen wenigen Situationen wirklich als suboptimal empfunden wird, hat man in allen anderen Situationen wo sie auch greift, aber nicht bemerkt wird, schon gewonnen.
Kann ich absolut nicht nachvollziehen.

Kannst du überall wo eine höhere AF-Stufe greift, einen Qualitätsunterschied ausmachen? In manchen Situationen gibt es keinen, je nach Texturinhalt, aber häufig wohl doch. Da wirst du mir zustimmen, denke ich. Sonst würdest du ja deinen Ausführungen nach auf höhere AF-Stufen zugunsten der Performance verzichten.

Wenn aber nun eine höhere AF-Stufe bei einer Fläche einen Unterschied macht, dann macht sie das unabhängig von einer etwaigen Drehung der Fläche um die Z-Achse.

Mit anderen Worten, wenn die Winkelabhängigkeit greift, ist die Häufigkeit von Situationen, bei denen ein Unterschied erkennbar ist, exakt identisch mit der Häufigkeit, mit der zwischen unterschiedlichen AF-Stufen ein Unterschied erkennbar ist.

Wer behauptet, zwischen winkelabhängigem AF und winkelunabhängigem AF sieht man fast nie einen Unterschied, der behauptet somit, dass man zwischen den entsprechenden AF-Stufen fast nie einen Unterschied sieht.

zeckensack
2005-02-09, 10:32:42
Wenn sich zeckensack mal ein bisschen besser ausdrücken würde würde ich vielleicht etwas mehr dazu sagen können.
"No banding, no lod cheat. It is true aniso, it samples from the expected mipmap level(s), and it properly combines with trilinear. It simply takes too few samples for a given surface inclination, or at least so it seems."

Wenn es "zu wenige Samples" verwendet ist ein anderer AF-Grad eingestellt als er glaubt/behauptet eingestellt zu haben, mehr nicht.

Wie gesagt der Artikel der am Freitag in den News für das vergangene Wochenende angekündigt wurde wäre sehr sehr interessant.Was soll ich denn da noch groß ausdrücken?
1. Trilinear ist weltklasse
2. AF nicht
a)Es ist anisotrop (kein LOD-Hack)
b)Die Miplevel-Auswahl ist "korrekt" (dh wie erwartet)

Trotzdem schimmert's sehr stark. Das kann mehrere Ursachen haben, und da kann ich auch nur raten, weil ich die Hardware nunmal nicht konstruiert habe :|
Zu wenige Samples, zu unpräzise Abbildung des Richtungsvektors, zu große Abstände zwischen den Samples oder sonstwie falsche Positionen derer.

Grestorn
2005-02-09, 10:35:35
Und deine erste Aussage ist auch nicht korrekt. Sowas habe ich auch noch nie gesehen. Entweder eine Textur ist zu scharf oder nicht. Aber sie wird garantiert nicht streifig weil man sie nicht ganz exakt 1:1 darstellt."Weil man sie nicht ganz exakt 1:1 darstellt"???Das habe ich doch gar nicht geschrieben...

Es wird ja nicht nur zwischen den Mipmaps gefiltert, sondern auch innerhalb der Stufen. Selbst wenn also nur aus dem größten Miplevel texturiert wird, so gibt es trotzdem noch einen Rekonstruktionsfilter, und die kommen mit Rotationen etc sehr sehr gut klar, wenn ich noch nicht total erblindet sein sollte.So? Wenn Du von bilinearem Filtern im Gegensatz zu Pointsampling sprichst, so muss das versagen, wenn die Auflösung der Textur, die dargestellt werden soll (wobei die Entfernung des Betrachters zum Polygon schon berücksichtigt ist), in der Nähe der Zielauflösung ist. Was soll denn da noch bilinear gefiltert werden? Es fehlt ja der Platz, um Zwischenstufen zwischen den Schwarz/Weiß Pixel einzufügen.

Deswegen gibt es ein Moiré Muster, und zwar ganz unabhängig von irgendwelchen Filtern. Nur der LOD kann daran was ändern, weil der eben dazu führt, dass die Textur in einer geringeren Auflösung gesampelt wird (und diese damit nicht mehr mit der Zielauflösung interferriert).

zeckensack
2005-02-09, 10:40:40
*lol*
Versuch mal in durch Praxis eine Theorie zu widerlegen. Viel Spaß dabei.
Praxis ist Alles. Es ist aber sicherlich nicht schlecht sich auch mit der Theorie zu befassen. Nur sollte das nicht so ausarten, daß man automatisch bei der Karte, die theoretisch schlechter ist, genauer hinschaut. ;)Theorie ist toll. Insbesonder weil sie einem helfen kann, die Praxis besser zu verstehen.

Man muss für eine These ala "NV40 filtert supi-toll", so man sie theoretisch "beweisen" möchte aber mehr wissen als man außerhalb gewisser Kalifornischer Designschmieden wissen kann. Dh theoretisch wie praktisch filtert NV40 dann supi-toll, wenn im NV40 eine Filterlogik zum Einsatz kommt von der man (gerne auch rein theoretisch) weiß dass sie supi-toll filtert. Das weiß aber hier keiner, mit Verlaub.

Und deswegen geht's auch nicht rein theoretisch, sondern die Praxis muss ein Wörtchen mitreden dürfen. Und die hat nunmal die Indizien dafür geliefert dass da irgendwas faul ist.

Gasst
2005-02-09, 10:58:12
Und deswegen geht's auch nicht rein theoretisch, sondern die Praxis muss ein Wörtchen mitreden dürfen. Und die hat nunmal die Indizien dafür geliefert dass da irgendwas faul ist.


Wie willst du in der Praxis aber denn bestimmen, welche zweier Karten besser filtert, wenn eine eindeutige Referenz fehlt?

zeckensack
2005-02-09, 11:07:31
Und dass NV bei den Texturfiltern Optimierungsbedarf hatte (hinsichtlich Performance) sollte spätestens seit der R200 klar sein....Bis dahin war ja alles sehr vernünftig, aber warum in Ras Namen musst du hier den R200 ins Spiel bringen?
Ein Paradebeispiel für schnelles Texturieren wenn man irgendwo einen Haken anhakt neben dem "AF" steht, ja. Das lasse ich jetzt mal so stehen.

"Hinsichtlich Performance" ist die einzige Art und Weise wie sich irgendjemand davon inspirieren lassen sollte, und selbst wenn wäre es immer noch traurig.

Qualität kostet Leistung!!
Mit gezieltem Weglassen von Qualität Leistung zu schinden ist keine Kunst!!

Demirug
2005-02-09, 11:10:20
zeckensack, ist nur das TRI AF problematisch oder auch das BI-AF? Ich habe da nämlich eine Idee.

Mr. Lolman
2005-02-09, 11:14:31
Kann ich absolut nicht nachvollziehen.

Kannst du überall wo eine höhere AF-Stufe greift, einen Qualitätsunterschied ausmachen? In manchen Situationen gibt es keinen, je nach Texturinhalt, aber häufig wohl doch. Da wirst du mir zustimmen, denke ich. Sonst würdest du ja deinen Ausführungen nach auf höhere AF-Stufen zugunsten der Performance verzichten.

Wenn aber nun eine höhere AF-Stufe bei einer Fläche einen Unterschied macht, dann macht sie das unabhängig von einer etwaigen Drehung der Fläche um die Z-Achse.

Bist du dir sicher? Dann ist also jeder trilineare Filter nur ne mehr oder minder schlechte Approximation ans Optimum, da ja fast jede GraKa ne schöne Blume darstellt (auch der NV40 in sehr geringem Maße) Komisch, dass bisher keiner eine Überfilterung bei 45° Winkel erkennen konnte.


Mit anderen Worten, wenn die Winkelabhängigkeit greift, ist die Häufigkeit von Situationen, bei denen ein Unterschied erkennbar ist, exakt identisch mit der Häufigkeit, mit der zwischen unterschiedlichen AF-Stufen ein Unterschied erkennbar ist.

Wer behauptet, zwischen winkelabhängigem AF und winkelunabhängigem AF sieht man fast nie einen Unterschied, der behauptet somit, dass man zwischen den entsprechenden AF-Stufen fast nie einen Unterschied sieht.

Ich schrieb, dass es in einigen wenigen Situationen als suboptimal empfunden wird. D.H. nicht, dass ich die Winkelabhängigkeit nicht öfter erkennen kann, wenn ich unbedingt will. Aber so, dass es einem wirklich ins Auge springt, ist doch eher selten. V.A. dadurch, dass man meistens auf einer um die Z Achse nicht gedrehten Fläche unterwegs ist, fällt die WA sogut wie nie im mittlerem Bildschirmbereich. Und du wirst mir wohl zustimmen, dass man eher auf die Mitte des Bildes fixiert ist, als z.B. aufs rechts obere Eck.

Und dann gabs ja noch Texturen, die so ne hohe Filterung garnicht brauchen. Trotzdem istswohl für en Durchschnittskunden praktikabler seine immer Treibereintellungen auf 4xAA/16xAF zu setzen anstatt, sich jetzt mit dem fürs jew. Spiel optimalen AF Modus herumzuschlagen, der natürlich meist auch der höchst wählbare wär. Nur kommt dann wieder der Leistungsaspekt ins Spiel. Tja und da hat ATi mit der R200 vorgelegt. (Wieviel GF4 User haben Mafia in 1280x1024 mit 8xAF gespielt?) Klar die Qualität war aufgrund der Bilinearität oftmals unzureichend, aber theoretisch hätte sie ja ausnahmslos eine Katastrophe sein müssen.

Schaut, ich will die aktuelle AF Situation nicht als 100% zufriedenstellend bezeichnen, aber ich denke, dass der Performancegewinn durch Filteroptimierungen hier eher unterschätzt wird. Das Flatoutbeispiel will ich nicht schon wieder penetrieren, aber wenn allen der Sprung von HQ auf Q (und Optis) schon mal mehr als 75% Performance bringen kann, kann ich mir gut vorstellen, dass die Winkelabhängigkeit an die 100% bringen kann. Klar abschaltbar wärs ideal, aber ganz drauf verzichten würd ich nicht, denn dann wär mir meine 6800GT defintiv zu langsam. Und ich glaub die Mehrheit spielt lieber in ihrer bevorzugten Auflösung, als das sie, nur um optimale Filterqualität zu bekommen, mit der Auflösung so weit runter gehen, damit die Performance wieder passt...

Mr. Lolman
2005-02-09, 11:19:23
Qualität kostet Leistung!!
Mit gezieltem Weglassen von Qualität Leistung zu schinden ist keine Kunst!!

Kommt drauf an wie gut gezielt. Bei der R200 war das eher ein Griff in die Hose. Serious Sam war untragbar. Mafia war ok. (ja ich bin einer dieser biAF Deppen, die auf nem großen Monitor mit ner 9800p Flatout eher in 1600x1200 4xAA/4xbiAF spielen würden, als sich mit 1024x768 4xAA/16xFulltriAF, bei gleicher Performance, zu begüngen)

zeckensack
2005-02-09, 11:21:39
"Weil man sie nicht ganz exakt 1:1 darstellt"???Das habe ich doch gar nicht geschrieben...Du hast geschrieben dass man sich vor eine Textur stellen möge die möglichst genau so groß ist wie die Darstellungsauflösung. Und das hatte ich so gedeutet, dass du das meinst, was ich schrieb, nur anders formuliert :)
So? Wenn Du von bilinearem Filtern im Gegensatz zu Pointsampling sprichst, so muss das versagen, wenn die Auflösung der Textur, die dargestellt werden soll (wobei die Entfernung des Betrachters zum Polygon schon berücksichtigt ist), in der Nähe der Zielauflösung ist. Was soll denn da noch bilinear gefiltert werden? Es fehlt ja der Platz, um Zwischenstufen zwischen den Schwarz/Weiß Pixel einzufügen.Für's Filtern braucht man keinen Platz zwischen den Pixeln. Filtern ist doch keine reine Einfügeoperation :|

Je nachdem wie weit die Rasterpunkte Textur/Viewport auseinanderliegen, werden halt die Gewichte bestimmt mit denen benachbarte Samples vermischt werden. Solange man mindestens "bilinear" filtert wird immer! gemischt, egal aus welcher Mipstufe die Samples kommen.
Da wo das Texturraster genau auf dem Viewport-Raster zu liegen kommt, dann sind die Gewichte Einsen und Nullen. Das ist auch kein Problem, dann hat man das gleiche Ergebnis wie bei point sampling.
Wo die Raster um exakt 0,5 gegeneinander verschoben sind, hast du ein halb/halb-Gemisch aus benachbarten Texeln. Etc etc.
Das wichtige dabei ist allerdings, dass die Gewichte pro Sample neu entschieden werden.

Deswegen gibt es ein Moiré Muster, und zwar ganz unabhängig von irgendwelchen Filtern. Nur der LOD kann daran was ändern, weil der eben dazu führt, dass die Textur in einer geringeren Auflösung gesampelt wird (und diese damit nicht mehr mit der Zielauflösung interferriert).Davon bin ich immer noch nicht überzeugt.

zeckensack
2005-02-09, 11:29:57
Richtig, warum zur Hölle nimmst nV HW und nicht 3DLabs oder Matrox?!

Als Beispiel, wie mans nicht machen sollte, brauchst auch nicht ATI nehmen, denn da bieten sich Intel und SIS hervorragend an.3DLabs-(P9)-Texturfilter bieten das wahrscheinlich schlechteste AF aller Zeiten. Matrox ist auf 4xAF limitiert. SiS und Intel benutzt keine Sau, folglich besteht wenig Aufklärungsbedarf. ATI muss Investigationsopfer sein, denn sehr viele Leute benutzen ATI-Hardware für 3D-Anwendungen.

Grestorn
2005-02-09, 11:31:17
Für's Filtern braucht man keinen Platz zwischen den Pixeln. Filtern ist doch keine reine Einfügeoperation :|
Einverstanden (auch zu Deinen Nachfolgenden Ausführungen)

Aber: Wenn Du das berühmte Moiré-Gitter hernimmst (zwei engmaschige Gitter gegeneinander verdrehen), dann werden auch die einzelnen "Pixel" gemittelt und nicht einfach "an" oder "aus" dargestellt.

D.h., wenn die beiden Gitter zusammen ein Löchlein nur "halb" offen lassen, ist es auch nur "halb" so hell wie ein anderes, wo in beiden Gittern ein Loch deckungsgleich übereinenanderliegt.

Langer Rede kurzer Sinn: Die beiden Gitter bilden hier ziemlich genau das Verhalten eines bilinearen Filters nach. Dennoch bekommt man extremste Moiré Effekte.

zeckensack
2005-02-09, 11:34:42
zeckensack, ist nur das TRI AF problematisch oder auch das BI-AF? Ich habe da nämlich eine Idee.Beides.

PS: Du meintest doch den DeltaChrome, richtig?
Bzgl R200 kann's ja kaum gewesen sein X-D

StefanV
2005-02-09, 11:35:02
3DLabs-(P9)-Texturfilter bieten das wahrscheinlich schlechteste AF das jemals gebaut wurde. Matrox ist auf 4xAF limitiert. SiS und Intel benutzt keine Sau, folglich besteht wenig Aufklärungsbedarf. ATI muss Investigationsopfer sein, denn sehr viele Leute benutzen ATI-Hardware für 3D-Anwendungen.
1. eben, das, was 3DLabs mit dem P9 gebracht hat, ist wirklich unter aller Sau...
2. Das ist ebenfalls schade, nur ist Matrox dafür bekannt, perfekte BQ zu bieten, seit der G400, eigentlich...

3. nein, SIS und Intel benutzen mehr als du denkst, selbst wenns nur auf der Arbeit oder in ihrem tollen Centrino Notebook ist, gerade Intel wird sehr häufig benutzt!!
SiS eher weniger, das stimmt, bei Intel muss ich dir aber doch widersprechen.
Das Problem ist doch, das jeder weiß, das SiS unter aller Sau filtert, bei Intel geht man aber davon aus, das alles 'völlig normal' ist, was absolut nicht stimmt, denn das, was Intel macht, ist ebenfalls unter aller Sau.

Die Verbreitung hier im Forum dürfte auch höher sein als manche denken mögen, sei es auch nur wegen dem i855GM...

InsaneDruid
2005-02-09, 11:39:49
Dazu erstmal ne Frage:

Bringt die Winkelabhängigkeit auch Vorteile (vom Speedgewinn), wenn man zb ne Szene mit NUR 0°, 45° 90° Flächen hat (eckiger Gang zb)?

Coda
2005-02-09, 11:40:53
Kann der REF Rasterizer eigentlich anisotropisch filtern?

Demirug
2005-02-09, 11:42:57
Beides.

PS: Du meintest doch den DeltaChrome, richtig?
Bzgl R200 kann's ja kaum gewesen sein X-D

Ja, ich meinte den DeltaChrome aber wenn es bei BI auch passiert kann meine Theorie nicht ganz stimmen. Aber eines lässt sich ja leicht prüfen. Wird den beim TRI AF immer noch FAST TRI benutzt? Mein Verdacht ging nämlich in diese Richtung.

InsaneDruid
2005-02-09, 11:46:01
Nein, natuerlich nicht, da in diesem Falle ja ueberall volles AF appliziert wird.
Speed bringt es nur dort, wo auch wirklich Bildqualitaet eingespart wird.

Ahja, wollt ich nur mal bestätigt haben.

Damit dürfte der Speedgewinn proportional zu der Menge der schlechter gefilterten Flächen liegen. *Milchmädchenrechnungsmode*.

Was einer global verminderten AF Stufe, welche NICHT winkelabhängig ist gleich kommt, nur das bei letzterer das Bild homogener ist.

Man erkauft sich soviel Speed, wie man "schlechtere" Qualität bekommt.

Demirug
2005-02-09, 11:46:39
Kann der REF Rasterizer eigentlich anisotropisch filtern?

Ja, er filtert soweit ich das sehen konnte nach dem gleichen Verfahren wie NV2X/NV3X allerdings bei den bilinearen Filter für Min, Mag und Mip nur mit der gleichen Genauigkeit wie ATI.

Problematisch ist allerdings das schon im Sourcecode für den DX7 Refrast schon 5 (IIRC) Formeln für die Bestimmung des LODs zur Auswahl standen. Wählt man da eine andere verändert sich auch das AF.

zeckensack
2005-02-09, 11:48:13
Kommt drauf an wie gut gezielt. Bei der R200 war das eher ein Griff in die Hose. Serious Sam war untragbar. Mafia war ok. (ja ich bin einer dieser biAF Deppen, die auf nem großen Monitor mit ner 9800p Flatout eher in 1600x1200 4xAA/4xbiAF spielen würden, als sich mit 1024x768 4xAA/16xFulltriAF, bei gleicher Performance, zu begüngen)Dass wir uns richtig verstehen ...
Ich hatte lange Zeit eine Radeon 8500 als meine Ein-Und-Alles-Karte, und ich war mit der Performance und der Texturqualität generell zufrieden. Aber das AF habe ich nie benutzt, weil ich es immer wenn ich es versuchte zum Brechen fand. Und ich habe in der Zeit sicher mehr als ein Spiel gespielt, und auch mehr als einmal nachgesehen ob das AF vielleicht doch zu irgendwas nutze ist.

Und vergiss nicht dass ich immer noch eine Radeon 9200 im Regal habe, und sie regelmäßig für Testläufe in die dafür vorgesehene Öffnung im Rechner montiere. Ich muss nicht versuchen mich daran zu erinnern, ich kann's mir jederzeit ansehen. Ertragen kann ich's immer noch nicht.

Eine ähnliche Situation wie jetzt mit der DeltaChrome. Kaum ist das AF mal an, verspüre ich auch schon den Wunsch es wieder abzuschalten.

Coda
2005-02-09, 11:51:00
Was erzeugt der REF dann eigentlich für ne Blume? Eine "perfekte" oder auch winkelabhängig? Im AF Tester kann man ihn ja leider nicht auswählen.

Kaum ist das AF mal an, verspüre ich auch schon den Wunsch es wieder abzuschalten.Ich dachte das Deltachrome AF sei gut? Und wie sieht die Blume vom R200 eigentlich aus?

zeckensack
2005-02-09, 11:56:23
Ja, ich meinte den DeltaChrome aber wenn es bei BI auch passiert kann meine Theorie nicht ganz stimmen. Aber eines lässt sich ja leicht prüfen. Wird den beim TRI AF immer noch FAST TRI benutzt? Mein Verdacht ging nämlich in diese Richtung.Es kommt darauf an.
Es gibt IMO eine Automatik im Treiber um zwischen "echtem" Trilinear und Fast-Tri auszuwählen (ähnlich dem was ATI auf den zu Brilinear fähigen Karten macht).

http://www.zeckensack.de/misc/

Hier kannst du dir den Quellcode zu moire_monster anschauen. Da ist eine Passage bei der Erzeugung einer Textur mit eingefärbten Mipleveln drin, die mit "confuse the driver" beginnt. Die Textur wird zuerst ganz harmlos mit "normalen" Mipmaps gefüllt, dann mal vorsichtshalber auch benutzt, und dann werden die Texturdaten ersetzt.

Wenn ich diese Prozedur benutze, dann "denkt" der DC-Treiber er kann Fast-Tri benutzen und man kann sieht nur noch Bilinear (ebenso wie btw die ATI-Treiber dann die diversen Tri-Hacks für RV250, RV280, RV360 und R420 aktivieren und man sich diese mal in Ruhe ansehen kann).

Lasse ich diese Verwirrungstaktik weg, dann schaltet der Treiber auf "traditionelles" Trilinear.

Quasar
2005-02-09, 11:59:19
Und wie sieht die Blume vom R200 eigentlich aus?
Schlimm.

Vier riesengroße "Ohren" um die 45°-Winkel und dazu rein bilinear.

Coda
2005-02-09, 12:03:08
Also so wie das der 3DLabs Realizm?

Quasar
2005-02-09, 12:03:46
Also so wie das der 3DLabs Realizm?
Das (AF der Realizm) kenne ich nicht.

edit:
http://pics.computerbase.de/artikel/122/35.png
(oben 16xAF, unten 8xAF ;) )
Ist zwar eine R9000, aber biAF-mäßig nehmen die sich im Filtertest-App nichts.

StefanV
2005-02-09, 12:04:37
Ich dachte das Deltachrome AF sei gut? Und wie sieht die Blume vom R200 eigentlich aus?
Wenn ich 'nen Kühler für meine R200 gefunden hab und ich sie wieder eingebaut hab, dann poste ichs mal...

Xmas
2005-02-09, 12:15:49
Bist du dir sicher? Dann ist also jeder trilineare Filter nur ne mehr oder minder schlechte Approximation ans Optimum, da ja fast jede GraKa ne schöne Blume darstellt (auch der NV40 in sehr geringem Maße) Komisch, dass bisher keiner eine Überfilterung bei 45° Winkel erkennen konnte.
Kein trilinearer Filter ist perfekt, das ist klar. Ob die kleine Delle bei 45° angebracht ist oder nicht, da bin ich mir noch nicht so ganz sicher. Ich meinte allerdings die AF-Winkelabhängigkeit, die ja deutlich Stärker hervortritt.

Ich schrieb, dass es in einigen wenigen Situationen als suboptimal empfunden wird. D.H. nicht, dass ich die Winkelabhängigkeit nicht öfter erkennen kann, wenn ich unbedingt will.
Selbiges gilt für das reduzieren der AF-Stufe. Ist es ja letztlich auch.

Aber so, dass es einem wirklich ins Auge springt, ist doch eher selten. V.A. dadurch, dass man meistens auf einer um die Z Achse nicht gedrehten Fläche unterwegs ist, fällt die WA sogut wie nie im mittlerem Bildschirmbereich. Und du wirst mir wohl zustimmen, dass man eher auf die Mitte des Bildes fixiert ist, als z.B. aufs rechts obere Eck.
8xAF statt 16xAF springt mir auch nicht ins Auge.

Gedrehte Flächen sind aber mitnichten auf den Bildaußenrand beschränkt. Wenn du meinst, Filterung abhängig vom Bildbereich wäre sinnvoll, dann fordere doch das. Es würde vielleicht sogar gut funktionieren. Aber bitte abschaltbar, da es einige Spiele gibt bei denen man eben nicht immer auf den mittleren Bildbereich starrt.

Und dann gabs ja noch Texturen, die so ne hohe Filterung garnicht brauchen. Trotzdem istswohl für en Durchschnittskunden praktikabler seine immer Treibereintellungen auf 4xAA/16xAF zu setzen anstatt, sich jetzt mit dem fürs jew. Spiel optimalen AF Modus herumzuschlagen, der natürlich meist auch der höchst wählbare wär.
Dafür nutzen beide ja mittlerweile Texturanalyse, die je nach Inhalt den maximalen AF-Grad zurückschraubt.

Nur kommt dann wieder der Leistungsaspekt ins Spiel. Tja und da hat ATi mit der R200 vorgelegt. (Wieviel GF4 User haben Mafia in 1280x1024 mit 8xAF gespielt?) Klar die Qualität war aufgrund der Bilinearität oftmals unzureichend, aber theoretisch hätte sie ja ausnahmslos eine Katastrophe sein müssen.
Es kann aber doch nicht das Ziel sein, einen Modus zu haben der schnell ist und "16x AF" genannt wird, aber keine Qualität liefert.

Schaut, ich will die aktuelle AF Situation nicht als 100% zufriedenstellend bezeichnen, aber ich denke, dass der Performancegewinn durch Filteroptimierungen hier eher unterschätzt wird. Das Flatoutbeispiel will ich nicht schon wieder penetrieren, aber wenn allen der Sprung von HQ auf Q (und Optis) schon mal mehr als 75% Performance bringen kann, kann ich mir gut vorstellen, dass die Winkelabhängigkeit an die 100% bringen kann. Klar abschaltbar wärs ideal, aber ganz drauf verzichten würd ich nicht, denn dann wär mir meine 6800GT defintiv zu langsam. Und ich glaub die Mehrheit spielt lieber in ihrer bevorzugten Auflösung, als das sie, nur um optimale Filterqualität zu bekommen, mit der Auflösung so weit runter gehen, damit die Performance wieder passt...
Den Performancegewinn durch Winkelabhängigkeit würde ich eher klein einschätzen, ganz bestimmt keine 100%. Ansonsten müsstest du ja deutliche fps-Einbrüche feststellen können wenn du z.B. nach oben in einen rechteckigen Schacht blickst und dich dabei drehst.

Man kann nicht NV25 und NV40 gegenüberstellen und daran "zeigen", dass Winkelunabhängigkeit ja ach so viel Performance kostet. Denn die Unterschiede sind weitaus größer als nur die Winkelabhängigkeit.

Coda
2005-02-09, 12:19:31
Ansonsten müsstest du ja deutliche fps-Einbrüche feststellen können wenn du z.B. nach oben in einen rechteckigen Schacht blickst und dich dabei drehst.Das wäre mal ein interessanter Benchmark :)

robbitop
2005-02-09, 12:37:13
@Zecki

also ich sehe beim besten Willen kein Shimmering mit dem DC AF.
Ich habe es sogar mal bei aths (spätestens ihm sollte das ja auffallen) zu Haus ausprobiert und auch er fand es wirklich gut und sah kein Shimering. Probiert habe ich Max Payne 2, Max Payne 1, War Craft 3 und UT2004 Demo. Ansonsten fiel mir beim Benchen kein Shimering mit AF auf (Aquanox 2, Splinter Cell, Doom3, Far Cry ect).
Aths sah, so weit ich weiß, nur MP1 und WC3.

Könnte das evtl am Treiber liegen? Du hast mit deinem W2K System viele Probleme mit dem DC, die bei mir nicht auftreten.

Demirug
2005-02-09, 12:52:34
Es kommt darauf an.
Es gibt IMO eine Automatik im Treiber um zwischen "echtem" Trilinear und Fast-Tri auszuwählen (ähnlich dem was ATI auf den zu Brilinear fähigen Karten macht).

http://www.zeckensack.de/misc/

Hier kannst du dir den Quellcode zu moire_monster anschauen. Da ist eine Passage bei der Erzeugung einer Textur mit eingefärbten Mipleveln drin, die mit "confuse the driver" beginnt. Die Textur wird zuerst ganz harmlos mit "normalen" Mipmaps gefüllt, dann mal vorsichtshalber auch benutzt, und dann werden die Texturdaten ersetzt.

Wenn ich diese Prozedur benutze, dann "denkt" der DC-Treiber er kann Fast-Tri benutzen und man kann sieht nur noch Bilinear (ebenso wie btw die ATI-Treiber dann die diversen Tri-Hacks für RV250, RV280, RV360 und R420 aktivieren und man sich diese mal in Ruhe ansehen kann).

Lasse ich diese Verwirrungstaktik weg, dann schaltet der Treiber auf "traditionelles" Trilinear.

Also bei "normalen" Texturen wird beim AF auch FAST TRI benutzt, oder habe ich das falsch verstanden?

Es könnte da also wirklich einen Zusammenhang geben.

Mr.Magic
2005-02-09, 13:27:49
AF Winkelabhängigkeit mag ja etwas Leistung bringen liefert aber definitiv ein minderwertiges Bild. Ich habe geflucht als ich von der GeForce 4 auf die FX umstieg und es nur "optimierte" Treiber gab. Dann lies sich das endlich abschalten und die BQ war wieder in Ordnung. Bei meiner 6800 habe ich nun ein "Feature" in Hardware, ein sogenanntes 16xAF das schlechter aussieht als echtes 4xAF, und kann nicht mal auf Besserung hoffen.

zeckensack
2005-02-09, 14:53:53
@Zecki

also ich sehe beim besten Willen kein Shimmering mit dem DC AF.
Ich habe es sogar mal bei aths (spätestens ihm sollte das ja auffallen) zu Haus ausprobiert und auch er fand es wirklich gut und sah kein Shimering. Probiert habe ich Max Payne 2, Max Payne 1, War Craft 3 und UT2004 Demo. Ansonsten fiel mir beim Benchen kein Shimering mit AF auf (Aquanox 2, Splinter Cell, Doom3, Far Cry ect).
Aths sah, so weit ich weiß, nur MP1 und WC3.

Könnte das evtl am Treiber liegen? Du hast mit deinem W2K System viele Probleme mit dem DC, die bei mir nicht auftreten.Ich empfehle Quake 3. Ist mir aber damals, als ich mein kleines User-Review verfasste, auch bei Yager (Aquanox-Engine!) sehr stark aufgefallen.

Es könnte höchstens sein, dass ich eine frühe S8-Revision habe, in der noch ein Fehler drin ist, der bei neueren Revisionen behoben wurde. Das wäre natürlich sehr schön :)
Ich habe sehr früh zugeschlagen, IIRC eine Woche nachdem die Dinger überhaupt in Deutschland bestellbar waren.

zeckensack
2005-02-09, 14:55:05
Also bei "normalen" Texturen wird beim AF auch FAST TRI benutzt, oder habe ich das falsch verstanden?

Es könnte da also wirklich einen Zusammenhang geben.Das weiß ich jetzt nicht genau.
Es schimmert aber auch bei Bi-AF. Immer noch ein möglicher Zusammenhang?

zeckensack
2005-02-09, 14:57:59
Dazu erstmal ne Frage:

Bringt die Winkelabhängigkeit auch Vorteile (vom Speedgewinn), wenn man zb ne Szene mit NUR 0°, 45° 90° Flächen hat (eckiger Gang zb)?Nein. Das ist ja das blöde dran.
Der Performance-Vorteil beruht nur auf den Pixeln die aufgrund der WA mit geringerem AF-Grad behandelt werden.

Quasar
2005-02-09, 15:02:00
Nein. Das ist ja das blöde dran.
Der Performance-Vorteil beruht nur auf den Pixeln die aufgrund der WA mit geringerem AF-Grad behandelt werden.
...innerhalb einer gegebenen Architektur. Ansonsten spart man ja Transistoren und das ermöglicht....[bekannt]

aths
2005-02-09, 15:17:53
eins ist klar. ihr pros wisst zuviel ueber grafikkarten. ich hab den ganzen thread jetzt mal gelsen und kapier nur die haelfte :confused: . ich kann mir aber jetzt trotzdem denken warum die 6600gt schneller ist. mich wuerde es gerne interessieren wie eine 9800pro @ 450/400 (oder etwas in der art) gegen eine 6600gt ankommt... :biggrin:Das hängt vom Spiel ab. Die 6600 GT wird sich gegen die 450-er 9800 aber kaum absetzen können. Allerdings lassen sich viele 6600-GT-Karten ebenfalls übertakten.

aths
2005-02-09, 15:22:14
Schaut, ich will die aktuelle AF Situation nicht als 100% zufriedenstellend bezeichnen, aber ich denke, dass der Performancegewinn durch Filteroptimierungen hier eher unterschätzt wird.Gerade weil du auf Performance achtest, müsstest du winkelunabhängiges AF fordern. Denn nur dieses Z-Winkel-unabhänige AF setzt eine gegebene Performance am besten in Texturqualität um. Oder, anders gesagt, verbraucht für eine bestimmte Zieltexturqualität am wenigsten Leistung.

robbitop
2005-02-09, 15:22:23
ginge auch Gothic2 zum Testen auf Shimering?
Die anderen Spiele habe ich derzeit nicht mehr.

aths
2005-02-09, 15:27:52
Dazu erstmal ne Frage:

Bringt die Winkelabhängigkeit auch Vorteile (vom Speedgewinn), wenn man zb ne Szene mit NUR 0°, 45° 90° Flächen hat (eckiger Gang zb)?Dann kann es natürlich keinen Performancevorteil geben. Jeglicher Performance-Vorteil geht direkt mit einer Qualitätseinbuße daher. Man spart nur dann Texturfüllrate, wenn man auch auf Texturdetails verzichtet.

Und auf einer tollen DX9-Graka möchte ich nun wirklich nicht auf Texturdetails verzichten.
Kann der REF Rasterizer eigentlich anisotropisch filtern?Anisotrop, nicht tropisch :) Ja, kann der Ref.

aths
2005-02-09, 15:33:31
Bist du dir sicher? Dann ist also jeder trilineare Filter nur ne mehr oder minder schlechte Approximation ans Optimum, da ja fast jede GraKa ne schöne Blume darstellt (auch der NV40 in sehr geringem Maße) Komisch, dass bisher keiner eine Überfilterung bei 45° Winkel erkennen konnte.Da wird ja auch nicht überfiltert. Der NV40 nutzt bei AF bis einschließlich 2x beim 45°-Winkel ein LOD, welches den maximal möglichen Schärfegrad nicht ausnutzt.

Das ist erst mal blöd, finde ich.

Auf der anderen Seite argumentiere ich gegen winkelabhängiges AF gerne mit einem Tunnel, wo bestimmte Winkel schärfer abgebildet sind als andere. Das NV40-TF oder 2x AF bietet nun (fast) gleiche Schärfe bei jedem Winkel, während andere Karten zugunsten der Schärfe bei 45°-Winkeln eben eine Ungleich-Verteilung des Detailgrads zeigen.

Ist das nun besser oder schlechter?


Ich schrieb, dass es in einigen wenigen Situationen als suboptimal empfunden wird. D.H. nicht, dass ich die Winkelabhängigkeit nicht öfter erkennen kann, wenn ich unbedingt will. Aber so, dass es einem wirklich ins Auge springt, ist doch eher selten. V.A. dadurch, dass man meistens auf einer um die Z Achse nicht gedrehten Fläche unterwegs ist, fällt die WA sogut wie nie im mittlerem Bildschirmbereich. Und du wirst mir wohl zustimmen, dass man eher auf die Mitte des Bildes fixiert ist, als z.B. aufs rechts obere Eck.Warum dann nicht auch das MSAA auf das mittlere Drittel im Bild beschränken? Oder Texturfilterung am Außenrand ganz weglassen?

Ich gucke mich oft um in einer 3D-Welt. Steht man unter einer Säule und guckt schräg darauf, kann die Z-Winkel-abhängige AF-Grad-Senkung greifen, und plötzlich verschwinden Details im Texturmatsch. Haben wir das heute wirklich noch nötig?

Eine GF FX filtert bei 8x AF auch nicht gänzlich optimal. Aber da sehe ich beim "Säulentest" trotzdem keine Schwächen. Wie du die Texturen auch drehst und wendest: Man hat den Eindruck, alles was 8x AF vertragen kann, bekommt es auch. Folge: Gleichmäßig hohe Texturschärfe im gesamten Bild. Jetzt mit der 6600 GT gucke ich bei Max Payne mal schräg an einer Häuserwand hoch und der Detailgrad sinkt. Toll, echt. SM 3, HDPR, aber keine bestmöglichen Texturen. Von SM 3 und HDPR habe ich heute noch nichts. Von bestmöglichen Texturen hätte ich hier und jetzt was.

Ich bin nicht prinzipiell gegen einen Tausch Qualität in Leistung. Warum gibt es kein Setting, dass der Treiber applikationsabhängig z. B. auf bestimmten Stages den AF-Grad limitiert, weil da nur diffuse lightmaps draufliegen? Der User wählt dann dieses Setting und stellt ansonsten 4x//16x ein. Wer mehr Qualität will, braucht die Möglichkeit, solche Dinge selbst einstellen oder zumindest gänzlich abstellen zu können.

zeckensack
2005-02-09, 15:47:15
...innerhalb einer gegebenen Architektur. Ansonsten spart man ja Transistoren und das ermöglicht....[bekannt]Richtig.

Tigerchen
2005-02-09, 15:48:44
Konkretisierung: Ich erwarte von Hardcore-ATI-Fans keine kritische Auseinandersetzung. Das Standardargument ist ja "Man sieht es nicht", und da braucht man nicht mehr weiterreden. Wer keine Unterschiede sieht, für den ist es ja gut. Es ist ja auch nicht so, dass ich bei einer Radeon sofort sehe: "Aha, schlechtes ATI-AF". Und dass die Radeon 9600 brilinear filtert, habe ich gar nicht gesehen.

Weil ich nicht speziell daraufhin geguckt habe, sondern annahm, das sei schon alles in Ordnung so. Ich freute mich allerdings über die unerwartet hohe Leistung bei trilinearer Filterung. Aber die Brilinearität ist nicht so klein, dass man sie prinzipiell nicht wahrnehmen könnte. Man muss allerdings spezielle kritische Stellen im Spiel finden, um Unterschiede zu echter trilinearer Filterung zu sehen. Dann fällt das auch nur in Bewegung richtig auf, Screenshots helfen daher nicht viel weiter.

Lange Rede, kurzer Sinn: Wer einfach immer sagt, das reicht schon, weil man auf den ersten Blick keine Qualitätssenkungen sieht, der wird es auch nie sehen.

Das ist eine ziemliche gewagte Aussage. Wenn eine der Firmen die Grenzen des "sieht man nicht" überschreitet stößt es auch mir sauer auf. Früher war auch nicht alles immer so super wie du hier immer suggerieren willst. Denk mal ans trilineare Dithern! Das sah auf TNT-Karten wirklich mies aus.

zeckensack
2005-02-09, 15:55:10
Wie willst du in der Praxis aber denn bestimmen, welche zweier Karten besser filtert, wenn eine eindeutige Referenz fehlt?Wofür brauche ich dafür eine Referenz?

Ich brauche auch keinen Iridium-Urmeter, um festzustellen dass Peter Maffay kleiner ist als Hulk Hogan.

StefanV
2005-02-09, 15:55:54
Jop, damals war die G400 auch die einzige Karte, die wirklich immer und überall Trilinear gefiltert hat, alle anderen konnten das nicht...


Dazu noch 3DFX, die damals nichts wirklich gebacken bekamen und einfach nur 'ne neuauflage des Vorgängers brachten, nichtmal 32bit bei Games konnten die 3DFX Chips von TF reden wir lieber garnicht erst...

Tigerchen
2005-02-09, 15:55:59
Gerade weil du auf Performance achtest, müsstest du winkelunabhängiges AF fordern. Denn nur dieses Z-Winkel-unabhänige AF setzt eine gegebene Performance am besten in Texturqualität um. Oder, anders gesagt, verbraucht für eine bestimmte Zieltexturqualität am wenigsten Leistung.

aths! Es zeugt von ganz schlechtem Stil wenn man seinen virtuellem Gegenüber mit Absicht so fehlinterpretiert. Dieses "Verbiegen" zeugt zwar von großem intellektuellem Potential aber gleichzeitig von einer himmelschreienden sozialen Inkompetenz. Lass dies bitte sein. Bitte!

robbitop
2005-02-09, 15:57:27
Jop, damals war die G400 auch die einzige Karte, die wirklich immer und überall Trilinear gefiltert hat, alle anderen konnten das nicht...


Dazu noch 3DFX, die damals nichts wirklich gebacken bekamen und einfach nur 'ne neuauflage des Vorgängers brachten, nichtmal 32bit bei Games konnten die 3DFX Chips von TF reden wir lieber garnicht erst...

unbrauchbare OGL Treiber fallen mir nur dazu ein.

StefanV
2005-02-09, 15:58:52
unbrauchbare OGL Treiber fallen mir nur dazu ein.
Thema Verfehlt, Robbi :P

Hier gehts eher um Texturfilterung, nicht um die Treiber, aber dazu könnt man auch was aktuelels zu nV sagen, siehe nV Forum...

Quasar
2005-02-09, 15:59:53
Das ist eine ziemliche gewagte Aussage. Wenn eine der Firmen die Grenzen des "sieht man nicht" überschreitet stößt es auch mir sauer auf. Früher war auch nicht alles immer so super wie du hier immer suggerieren willst. Denk mal ans trilineare Dithern! Das sah auf TNT-Karten wirklich mies aus.

Richtig - und wurde zurecht kritisiert. Nur leider zu wenig, um den Erfolg des TNT wirklich zu bremsen. Wir können eigentlich froh sein, daß das nicht Schule machte und wir heute TNT2-Tri allüberall zu sehen bekommen.

robbitop
2005-02-09, 16:03:55
Thema Verfehlt, Robbi :P

Hier gehts eher um Texturfilterung, nicht um die Treiber, aber dazu könnt man auch was aktuelels zu nV sagen, siehe nV Forum...

damals war Texturfilterung wohl noch nicht so gefragt, wie heute. Performance und Stabilität waren wichtiger. NV Treiber machen bis auf Ausnahmen, die man immer findet, keine großartigen generellen Probleme. Beispiele lassen sich natürlich überall finden. Aber zu G400 Zeiten wars furchtbar. Ich habe mich dran errinnert, weils schon ein sehr einschneidendes Erlebnis war. Im Sinne von: was nutzt ein guter Texturfilter, wenn 1/2 der Spiele kaum zum Laufen zu kriegen sind?

StefanV
2005-02-09, 16:16:36
Bei mir lief eigentlich alles, mit der G400, konnte mich eigentlich nie über die Treiber beklagen...

G@st
2005-02-09, 16:17:14
Wofür brauche ich dafür eine Referenz?

Ich brauche auch keinen Iridium-Urmeter, um festzustellen dass Peter Maffay kleiner ist als Hulk Hogan.


Wenn du zwei Karten vergleichst und feststellst, das eine mehr Flimmern erzeugt als die andere, wie kannst du dann sagen, welche "korrekter" rechnet ohne eine Referenz zu haben?
Es koennten ja auch "boese" Texturen im Spiel sein und die mehr flimmernde Karte liefert das korrektere Ergebnis.

G@st
2005-02-09, 16:18:45
Das ist eine ziemliche gewagte Aussage. Wenn eine der Firmen die Grenzen des "sieht man nicht" überschreitet stößt es auch mir sauer auf. Früher war auch nicht alles immer so super wie du hier immer suggerieren willst. Denk mal ans trilineare Dithern! Das sah auf TNT-Karten wirklich mies aus.



Wenn's einem nicht gefaellt, kann man ja reines bilinear nutzen.

G@st
2005-02-09, 16:20:43
Thema Verfehlt, Robbi :P

Hier gehts eher um Texturfilterung, nicht um die Treiber, aber dazu könnt man auch was aktuelels zu nV sagen, siehe nV Forum...


Hier geht es aber um Karten von HEUTE und nicht was vor 6 Jahren vielleicht einmal war. Thema verfehlt!

robbitop
2005-02-09, 16:20:47
Bei mir lief eigentlich alles, mit der G400, konnte mich eigentlich nie über die Treiber beklagen...
vermutlich keine OGL Spiele gespielt? ;)
Das ging damals auch durch die Medien.
D3D Top - OGL Flop

Gästchen
2005-02-09, 16:29:11
Was soll ich denn da noch groß ausdrücken?
1. Trilinear ist weltklasse
2. AF nicht
a)Es ist anisotrop (kein LOD-Hack)
b)Die Miplevel-Auswahl ist "korrekt" (dh wie erwartet)

Trotzdem schimmert's sehr stark. Das kann mehrere Ursachen haben, und da kann ich auch nur raten, weil ich die Hardware nunmal nicht konstruiert habe :|
Zu wenige Samples, zu unpräzise Abbildung des Richtungsvektors, zu große Abstände zwischen den Samples oder sonstwie falsche Positionen derer.
Ich wollte dich auch nur zu einer deutschsprachigen Antwort provozieren, da in deinem englischen Text bei Beyond3D nicht ersichtlich war, was nun genau zu sehen ist. Es schimmert also das ist es was ich wissen wollte. :p
Danke. :)


@Tigerchen

Du redest Unsinn, was aths gesagt hat ist rein objektiv richtig nur mangelt es bei dir daran einfach mal darüber nachzudenken. Den AF-Grad herabsetzen um Performeance zu gewinnen kann jeder, niemand ist gezwungen eine ultra-geil-hohe Zahl "16" in seinen Treibereinstellungen zu betrachten um nen längeren Penis zu kriegen.


PS
War die News-Mitteilung am Freitag falsch und es gibt gar keinen Artikel über S3 und XGI?

Quasar
2005-02-09, 16:33:29
@Tigerchen
Du redest Unsinn, was aths gesagt hat ist rein objektiv richtig nur mangelt es bei dir daran einfach mal darüber nachzudenken. Den AF-Grad herabsetzen um Performeance zu gewinnen kann jeder, niemand ist gezwungen eine ultra-geil-hohe Zahl "16" in seinen Treibereinstellungen zu betrachten um nen längeren Penis zu kriegen.

Ich bin sicher, Tigerchen (und auch andere) verstehen dies sehr wohl - immerhin ist es dasselbe Prinzip, welches immer beim schlechten 4xOG-MS des nV3x angebracht wurde: Hohe Zahl != Hohe Qualität.

aths
2005-02-09, 16:55:00
[COLOR="#000088"]
Das ist eine ziemliche gewagte Aussage. Wenn eine der Firmen die Grenzen des "sieht man nicht" überschreitet stößt es auch mir sauer auf. Früher war auch nicht alles immer so super wie du hier immer suggerieren willst. Denk mal ans trilineare Dithern! Das sah auf TNT-Karten wirklich mies aus."Verteidige" ich die trilineare Texturqualität der TNTs irgendwo? Ist es nicht auf der anderen Seite blöd, dass 2x AF auf der GF2 MX besser aussieht, als auf einer X800 XT PE? Und dass 8x AF auf einer Uralt-GeForce3 insgesamt bessere Texturen erzeugt als eine 6800 Ultra SLI mit 16x AF?

Bitte denk mal daran, dass deine blaue Postingfarbe aufmerksamkeitsheischend wirkt.

[COLOR="#000088"]aths! Es zeugt von ganz schlechtem Stil wenn man seinen virtuellem Gegenüber mit Absicht so fehlinterpretiert. Dieses "Verbiegen" zeugt zwar von großem intellektuellem Potential aber gleichzeitig von einer himmelschreienden sozialen Inkompetenz. Lass dies bitte sein. Bitte!Oh, wenn du das sagst, dann werde ich in Zukunft nur noch dir genehme Postings schreiben. Und auf Fakten keine Rücksicht mehr nehmen.

aths
2005-02-09, 17:06:38
Theorie ist toll. Insbesonder weil sie einem helfen kann, die Praxis besser zu verstehen.

Man muss für eine These ala "NV40 filtert supi-toll", so man sie theoretisch "beweisen" möchte aber mehr wissen als man außerhalb gewisser Kalifornischer Designschmieden wissen kann. Dh theoretisch wie praktisch filtert NV40 dann supi-toll, wenn im NV40 eine Filterlogik zum Einsatz kommt von der man (gerne auch rein theoretisch) weiß dass sie supi-toll filtert. Das weiß aber hier keiner, mit Verlaub.Viele wichtige Eigenschaften lassen sich im Experiment ermitteln. Da zeigt sich, dass NV40 meist besser, nie schlechter als R420 ist. Sofern beide auf HQ / AI off eingestellt wurden.

Wunderbar syntetische Füllraten-Experimente liefern mir passable Erklärungen zum Topic: "Warum ist die 6600GT schneller als die 9800pro?" und außerdem einen Eingrenzungsbereich, also wann die 6600 wirklich schneller ist, und wann nicht. Das deckt sich auch mit rein theoretischen Überlegungen "wie es sein müsste". Ist toll, wenn das mal alles zusammenpasst :)

Und deswegen geht's auch nicht rein theoretisch, sondern die Praxis muss ein Wörtchen mitreden dürfen. Und die hat nunmal die Indizien dafür geliefert dass da irgendwas faul ist.... was denn?

Frank
2005-02-09, 18:11:37
Jop, damals war die G400 auch die einzige Karte, die wirklich immer und überall Trilinear gefiltert hat, alle anderen konnten das nicht...


unbrauchbare OGL Treiber fallen mir nur dazu ein.

Offtopic:

Beide mal nicht ganz in Ordnung. Die G400 filtert bei weitem nicht immer und überall trilinear - nur wenn man es entsprechend einstellte. Desweiteren kostet das auch Performance. Und OGL Spiele liefen fast immer ordentlich. Die Zeiten von dem TurboGL Zusatztreiber & irgendwelchen Problemen waren ja recht schnell vorbei.

Piffan
2005-02-09, 18:30:00
Mal ne grundsätzliche Überlegung: Wenn die WA tatsächlich viel bringt für die Performance, dann doch nur, weil ein entsprechend hoher Anteil der Texturen einer Szene mit einem geringeren AF- Grad gefiltert wird. Daher scheint mir die These, dass die "Schädlichkeit" der WA geringer ist als ihr performancetechnischer Vorteil, irgendwie unlogisch. - Es sei denn, es gibt wahrnehmungsphysiologische Gründe, dass man bei bestimmten Winkeln weniger sensibel ist.......

Die WA ist für mich ein Widerspruch in sich: Sie wurde eingeführt, damit die Performance bei nominal hohen Af- Graden besser wird. Wenn aber die Peformance besser wird, ist auch der "Beschiss" größer und damit die hohe Zahl praktisch wertlos. Dann doch lieber ne ehrliche Filterung ohne Tricks und der Kunde selbst sucht sich den besten AF- Grad heraus.....Man kann es drehen und wenden wie man will, Ati als "Pionier" und die vehementen Verteidiger der WA leisten der Qualitätsverschlechterung Vorschub. Besonders perfide sind dann Vorwürfe, dass Ati ja nie besser war und darum NV besonders beschimpft werden muss, weil NV die WA erst kürzlich eingeführt hat. Ist es nicht eher so, dass sich NV den Gegebenheiten angepasst hat? Lediglich bei der Brilinearität war NV Vorreiter, mangelhaftes AF bietet Ati aus Tradition....

Zur Klarstellung: Ich bin der Meinung, dass man mit Karten von beiden Herstellern recht gut spielen kann und beide recht hohe Bildqualität liefern (von Einzelfällen abgesehen), will hier weder die eine Firma noch die andere schlechtmachen. Mir gehen die stereotypen Diskussionen NV versus Ati auf die Nerven; imho haben beide Leichen im Keller...

Anderer Punkt: Zeckes Spruch vom Hulk war recht witzig, aber irgendwie ist der Einwurf vom Gast durchaus logisch: Wer sagt denn, dass die Designer korrekt gearbeitet haben? Bei Max Payne 2 gibts auch nen schönen Texturen- Schärferegler...LOL, der verschiebt lediglich das LOD und man hat bei starkem AF die schönsten Moirés.......

godess
2005-02-09, 19:05:06
ich bin genau deiner meinung, beide haben ihre schwächen. und keiner is wirklich besser!!!

robbitop
2005-02-09, 19:07:51
@Piffan
ich glaube, dass das WA AF bei ATI primär aus Transistorspargründen eingeführt worden ist. R300 @150nm war sicher ein Höllenritt.

StefanV
2005-02-09, 19:18:14
@XMas, Demi

Ich muss jetzt mal nerven, aber eure Filtertester sind irgendwie fürn Hintern, zumindest wenn man die Filterung älterer Karten testen möchte...

Ok, auf der Rage 128 funzt, nur auf den Voodoos nicht (auf _ALLEN_)...

Mr. Lolman
2005-02-09, 19:21:10
@Piffan
ich glaube, dass das WA AF bei ATI primär aus Transistorspargründen eingeführt worden ist. R300 @150nm war sicher ein Höllenritt.

Mit enormen, nie zugetrautem Potential. >300MHz erschienen jedem unrealistisch. Zum Schluss warens deutlich über 400...


Zur Filterung: Sicher hat die WA auch Transistorspargründe als Ursache. Aber nochmal: Sie fällt nicht immer auf (auch wenn sie greift) So bald sie auch nur einmal von 100 Fällen nicht auffällt hat man schon gewonnen, weil man genau in dem einen Fall ne höhere Performance hat, ohne optisch sichtbare einbussen.

/edit: Damit man das so stehen lassen kann, müsste die WA nicht nur abschaltbar, sondern auch der durchschnittliche Performancegewinn bekannt sein ;(



(Außerdem: weniger Transistoren -> geringere Komplexität -> höhere Taktbarkeit -> Mehr Performance)

Und beim AA seh ich auch Optimierungspotential. Zwar nicht in der Form wie aths vorgeschlagen hat, aber braucht man 4 Samples um ne schwach kontrastige Kante halbwegs zu glätten? Die sollten eher bei starken Kontrasten eingesetzt werden.

Mr. Lolman
2005-02-09, 19:22:56
und man hat bei starkem AF die schönsten Moirés.......

...die auf GF4 Karten kaum sichtbar sind....

Piffan
2005-02-09, 19:24:41
@Piffan
ich glaube, dass das WA AF bei ATI primär aus Transistorspargründen eingeführt worden ist. R300 @150nm war sicher ein Höllenritt.

Der aber zu einem brillianten Ergebnis führte. Meine liebe Rad 9700 bleibt in der Familie, jetzt erfreut sich meine Jüngere Tochter dran, bei Kotor, Gothic und Sims 2.....Nie hat ne Graka derart lange überragende Leistungen geliefert, inzwischen rackert sie bei 390 Mhz.... :)

Selbst Doom III und erst recht HL2 haben ihr nichts ausgemacht........

Jesus
2005-02-09, 19:27:04
Theorie ist toll. Insbesonder weil sie einem helfen kann, die Praxis besser zu verstehen.

Man muss für eine These ala "NV40 filtert supi-toll", so man sie theoretisch "beweisen" möchte aber mehr wissen als man außerhalb gewisser Kalifornischer Designschmieden wissen kann. Dh theoretisch wie praktisch filtert NV40 dann supi-toll, wenn im NV40 eine Filterlogik zum Einsatz kommt von der man (gerne auch rein theoretisch) weiß dass sie supi-toll filtert. Das weiß aber hier keiner, mit Verlaub.

Und deswegen geht's auch nicht rein theoretisch, sondern die Praxis muss ein Wörtchen mitreden dürfen. Und die hat nunmal die Indizien dafür geliefert dass da irgendwas faul ist.

Genau das ist der Punkt, danke! :)

Viele wichtige Eigenschaften lassen sich im Experiment ermitteln. Da zeigt sich, dass NV40 meist besser, nie schlechter als R420 ist. Sofern beide auf HQ / AI off eingestellt wurden.


Das würde ich auch gerne Wissen? Wie filtern denn beide wenn optimierungen aus sind? Und jetzt bitte nicht wieder mit 2xAF argumentieren, dass ist völlig irrelevant, weils niemand benutzt bei diesen Karten.

Im moment lese ich eigentlich nur immer was von Texturflimmern im Zusammenhang mit dem AF des NV40, das ja beim R420 weniger ausgeprägt sein soll. Warum das so ist und anfangs als der NV40 rauskam anscheinend nicht so war kann sich jeder selbst ausmalen. Auf jeden Fall trägt es wohl nicht dazu bei dass das AF des NV40 im Moment besser ist, eher das Gegenteil.

Mr. Lolman
2005-02-09, 19:29:03
Dazu noch 3DFX, die damals nichts wirklich gebacken bekamen und einfach nur 'ne neuauflage des Vorgängers brachten, nichtmal 32bit bei Games konnten die 3DFX Chips von TF reden wir lieber garnicht erst...

Du Ketzer!!!!

Wer brauchte damals schon arschlahmes 32bit Rendering, oder TF. Das ging wohl niemandem ab, ausser der blauäugigen, Marketinggeschwätz-zitierenden Presse. Auch AA/AF hält erst jetzt schön langsam Einzug beim
Durchschnittsgamer.

aths
2005-02-09, 19:31:26
Zur Filterung: Sicher hat die WA auch Transistorspargründe als Ursache. Aber nochmal: Sie fällt nicht immer auf (auch wenn sie greift) So bald sie auch nur einmal von 100 Fällen nicht auffällt hat man schon gewonnen, weil man genau in dem einen Fall ne höhere Performance hat, ohne optisch sichtbare einbussen. (Außerdem: weniger Transistoren -> geringere Komplexität -> höhere Taktbarkeit -> Mehr Performance)Fällt dir das nicht auf, fällt dir auch der Unterschied zwischen 16x und 4x AF nicht auf. ATIs AF-Style schaltet sogar bis auf 2x zurück. 16x kriegen fast gar keine Winkel, höchstens 8x. Entweder sieht man die Texturschärfe durch AF, dann muss man auch die Winkelabhängigkeit sehen, sofern man sich nicht nur die Bereiche aussucht, wo sie nicht greift. Oder man erkennt es nicht, dann ist die WA auch Wurst.

Ich behaupte an dieser Stelle, würde bei 8x AF in Wahrheit nur 6x geliefert werden, und bei 16x nur 12x, kaum jemand würde je den Unterschied sehen – außer in direkten Vergleichen bzw. in synthetischen Testern.

Und beim AA seh ich auch Optimierungspotential. Zwar nicht in der Form wie aths vorgeschlagen hat, aber braucht man 4 Samples um ne schwach kontrastige Kante halbwegs zu glätten? Die sollten eher bei starken Kontrasten eingesetzt werden.Hrm? Wie willst du vorher wissen, ob im Pixel nur schwachkonstrastige Anteile reinkommen werden?

Quasar
2005-02-09, 19:50:51
@XMas, Demi

Ich muss jetzt mal nerven, aber eure Filtertester sind irgendwie fürn Hintern, zumindest wenn man die Filterung älterer Karten testen möchte...

Ok, auf der Rage 128 funzt, nur auf den Voodoos nicht (auf _ALLEN_)...

Tjo, woran das dann wohl liegen mag... :|

Mr. Lolman
2005-02-09, 19:53:35
Fällt dir das nicht auf, fällt dir auch der Unterschied zwischen 16x und 4x AF nicht auf. ATIs AF-Style schaltet sogar bis auf 2x zurück. 16x kriegen fast gar keine Winkel, höchstens 8x. Entweder sieht man die Texturschärfe durch AF, dann muss man auch die Winkelabhängigkeit sehen, sofern man sich nicht nur die Bereiche aussucht, wo sie nicht greift. Oder man erkennt es nicht, dann ist die WA auch Wurst.

16x bekommen alle geraden Flächen, also meistens die Böden, auf denen man sich bewegt. Außerdem find ich 8xAF eh homogener. Ich willl ja nichtmal dass du Anhänger meiner Theorie wirst. Nur versuch mal in deiner schwarz/weissen Sichtweise ein paar Grautöne zu erkennen. Ein Mensch ist nunmal kein Computer. Dementsprechend kann man GraKas Ocen und sieht meinetwegen auch keine Pixelfehler, auch wenn der Chip schon längst nicht mehr richtig rechnet. Klar WA ist nicht der Weisheit letzter Schluss, aber imo zumindest ein Ansatz, ob der subjektiven Betrachtungsweise eines jeden Menschens, einem einen gewissen Grad an Mehrperformance zu beschehren. (Wir haben diese Diskussion alle paar Monate mal. ;) Das letzte oder vorletzte Mal hab ich im absoluten worst-case (max AF, gegen max WA) bewiesen, dass selbst eine 2xAF Textur neben einer 16xAF nicht negativ hervorstechen muss, sofern der Kontent stimmt. Außerdem muss es ja irgendeinen deutlichen Grund dafür geben. Die IHVs machen das ja nich um uns BQ Fetischisten zu ärgern, oder?


Hrm? Wie willst du vorher wissen, ob im Pixel nur schwachkonstrastige Anteile reinkommen werden?

Muss man halt nen 2D Filter drüber laufen lassen...

Quasar
2005-02-09, 20:07:45
Das letzte oder vorletzte Mal hab ich im absoluten worst-case (max AF, gegen max WA) bewiesen, dass selbst eine 2xAF Textur neben einer 16xAF nicht negativ hervorstechen muss, sofern der Kontent stimmt.
Dann müssen die lieben Content-Designer auch noch darauf achten, daß die WA ihre Werke aus jedem beliebigen Winkel noch ordentlich hinbekommt? Und das, wo sie doch noch nichtmal so simple Dinge wie ein ordentliches LOD (s. UT-Reihe) für ihre Texturen hinbekommen, ohne später 'nachhelfen' zu müssen oder immer noch massiv Alpha-Test einsetzen (wenn auch teilweise evtl. mit Rücksicht auf schwächere Rechner)?

Nein, ich denke nicht, daß das der Weg ist - ansonsten kommen hinterher noch einige auf die Idee, sich in drei, vier Jahren darüber zu beschweren, daß erst dann dieseundjene Texturen ordentlich genutzt würden - obwohl doch schon 2004 möglich.
Merke: Wenn man sich genug anstrengt, kann man jeden Fortschritt bremsen.

StefanV
2005-02-09, 20:10:06
Tjo, woran das dann wohl liegen mag... :|
Wenns nur die Voodoos wären :rolleyes:

Savage 2000 geht ebenso nicht, Unichrome kann ich gerad nicht testen, da 'ne R200 im AGP sitzt...

Quasar
2005-02-09, 20:13:26
Auch das überrascht mich nicht sehr.
Unichrome-Shots hast du doch mal in Zeckis Thread gepostet - oder war's Endo?