PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVs Trick mit dem anisotropen Filter


Quasar
2002-06-28, 16:31:56
Wie heute in einem Post von Unwinder zu lesen war, scheint es sich bei dem AF-Bug der GeForce4 nicht nur um einen Bug zu handeln. Unwinder, der Programmierer des RivaTuner schrieb, es handele sich bei dem angenommenen AF-Bug um eine Unfähigkeit des GF4, mehr als eine Textur gleichzeitig anisotrop zu filtern.
Den vorgeblichen Bugfix (Ich bekenne mich schuldig im Sinne der Anklage), der unter OpenGL seit der Treiberversion 28.90 für "normale" Werte sorgte, ist laut Unwinder ein Trick, bei dem lediglich die Basis-Textur, aber keine Reflection- oder Lightmaps mehr anisotrop gefiltert wird.
Wir haben es noch nicht geprüft, aber es gibt dafür auch wohl Belege hinsichtlich der Bildqualität.
In der neuesten Version des RivaTuner (2.0 RC11) ist für OpenGL eine Auswahlmöglichkeit für die alte AF-Version und die neue, performance-verbesserte Version enthalten.
Hier (http://www.nvnews.net/forum/showthread.php?&threadid=16084) ist der entsprechende Thread im Forum von nVnews zu finden.

Exxtreme
2002-06-28, 16:55:01
Autsch! Das gibt bald einen üblem Flamewar. Die Frage bleibt ob es ein Bug ist oder Absicht.

Gruß
Alex

StefanV
2002-06-28, 17:09:20
:rofl:

Oh mann...

nee, dazu sag ich jezt nix, kann ich mir gerade eben so noch verkneifen :naughty:

Silent Hunter
2002-06-28, 18:45:10
no comment :D :D

Piffan
2002-06-28, 18:51:17
Na und? Wie sieht die Optik aus, wenn man den "Trick" anwendet? Wo bitteschön würde es stören, wenn die überlagerten Texturen nicht mehr anisotroph gefiltert werden?

Wäre schön, wenn jemand testet und berichtet. So wäre es doch mal ganz lustig, einen Shot mit und ohne zu machen.....

Ich weiss noch wie es war, als die Diskussion um das überlegene FSAA der Ati geführt wurde.... Es bringt nix, theoretisch über so etwas zu fachsimpeln, man muß es mal sehen....

Falls es sich deutlich auswirken würde, hieße das nicht gleichzeitig, dass die Bildqualität der GF3 besser als die der GF4 ist??

Quasar
2002-06-28, 18:58:49
Ab dem 28.90er wird's dann wohl so sein :)

aths
2002-06-28, 19:36:17
Originally posted by Piffan
Falls es sich deutlich auswirken würde, hieße das nicht gleichzeitig, dass die Bildqualität der GF3 besser als die der GF4 ist?? Was mich viel mehr interessiert ist, warum GeForce3 in Relation schneller anisotrop filtert als GeForce4 Ti.

Originally posted by Quasar
Unwinder, der Programmierer des RivaTuner schrieb, es handele sich bei dem angenommenen AF-Bug um eine Unfähigkeit des GF4, mehr als eine Textur gleichzeitig anisotrop zu filtern.Ich kann mir weder vorstellen, dass sie das mit Absicht entfernt haben, noch kann ich mir einen versehentlichen Hardwarefehler vorstellen.

nagus
2002-06-28, 19:37:06
supa nvidia! wirklch toll!


1A! bravo Nvidia!

Micron
2002-06-28, 19:40:55
Originally posted by nagus
supa nvidia! wirklch toll!


1A! bravo Nvidia!
Halt doch die Fresse, du gehst mir mit deinen Sinnlosen komentaren so dermassen auf den Sack. Als ATI das gemacht hat um die bechmarkliste anzuführen hast du dein Mund nicht so weit aufgerisssen. Also halt die Füsse still

askibo
2002-06-28, 19:44:45
Originally posted by nagus
supa nvidia! wirklch toll!


1A! bravo Nvidia!

*seufz*

Richthofen
2002-06-28, 19:47:10
@aths

Hast du bei dir mal verglichen gehabt die Bildqualität?
Ich hatte damals einiges rumgetestet und konnte bei mir keinen Unterschiede feststellen. Ich hatte ja zur gleichen Zeit sogar eine GF3Ti500 drinn.
Ich werds bei Gelegenheit mal näher anschauen. Momentan hab ich aber Klausurphase.
Du könntest ja mit deinem geübten Auge das mal an deiner GF4Ti4600 testen.
Wenn man den Unterschied nicht sieht ist es mir egal. Wenn man ihn sieht ist es mir nicht egal.

geforce
2002-06-28, 19:47:37
Naja, da gleicht sich doch die Sache mit ATIs 8500 damit aus! ;)

Quasar
2002-06-28, 19:58:32
Originally posted by aths
Ich kann mir weder vorstellen, dass sie das mit Absicht entfernt haben, noch kann ich mir einen versehentlichen Hardwarefehler vorstellen.

Naja, ich tendiere dazu, Unwinder zu glauben, da er in seinem RivaTuner die Möglichkeit bietet, von der neuen auf die alte Methode umzuschalten. Das setzt imho voraus, daß er weiß, wie dieser Modus umgeschaltet wird, woraus sich wiederum folgern ließe, daß er weiß, was genau diese Treiberoption umschaltet.

Quasar
2002-06-28, 19:59:18
Originally posted by nagus
supa nvidia! wirklch toll!
1A! bravo Nvidia!

Allein, einen solchen Kommentar von dir zu provozieren, ist es immer wieder wert, hier einen Thread zu eröffnen.

Darf ich dich bei Gelegenheit zitieren?

Haarmann
2002-06-28, 20:04:01
Quasar

Von Dir als NVidianer so nen Thread zu sehen, zeugt von Mut...

Peinlich für NVidia is sowas.. aber alle Firmen machen ihre Fehler...

Piffan
2002-06-28, 20:20:12
Originally posted by Haarmann
Quasar

Von Dir als NVidianer so nen Thread zu sehen, zeugt von Mut...

Peinlich für NVidia is sowas.. aber alle Firmen machen ihre Fehler...

Dies ist kein Zeichen von Mut! Es zeigt eine sachliche Neutralität!

Leute wie nagus haben ein Problem, nicht Quasar!

Richthofen
2002-06-28, 21:26:34
also bevor nun einige hier wieder rumflamen will ich erstmal screens sehen wo man den Unterschied sieht.

Im übrigen bezweifel ich das sich die Sache ausgleicht.
Wenn ich jetzt mal so meine Aniso Qualität sehe und dann die screens ausm Web nehme von Digit-life oder sonst wo von ner Radeon8500 mit AF, dann empfinde ich meine Qualität immer noch überlegen wenn ich jetzt davon ausgehe, das sich bei mir was verschlechtert haben soll.
Ich hab damals als ich das Improvement mit dem 28.90er bemerkt habe eigentlich keine qualitativen Unterschiede zu meiner GF3Ti500 und zu vorherigen Treibern feststellen können.

In sofern will ich erstmal Screen Gegenüberstellungen sehen und dann urteile ich.
Aths das könntest du mal machen du hast doch Zeit :)

aths
2002-06-28, 21:39:26
Originally posted by Richthofen
Ich werds bei Gelegenheit mal näher anschauen. Momentan hab ich aber Klausurphase.Dito.
Originally posted by Richthofen
Wenn man den Unterschied nicht sieht ist es mir egal. Wenn man ihn sieht ist es mir nicht egal. Ich hab bei mir auch Fast Linear MIP-Mapping aktiviert :D In gut 2 Wochen sollte ich die Zeit haben das mal anzugucken, aber ich denke bis dahin hat sich das sicher schon (wenigstens ein Stückchen) aufgeklärt.

aths
2002-06-28, 21:54:01
Originally posted by Quasar
Naja, ich tendiere dazu, Unwinder zu glauben, da er in seinem RivaTuner die Möglichkeit bietet, von der neuen auf die alte Methode umzuschalten. Das setzt imho voraus, daß er weiß, wie dieser Modus umgeschaltet wird, woraus sich wiederum folgern ließe, daß er weiß, was genau diese Treiberoption umschaltet. :) OpenGL Texture Sharpening wird in meiner Version noch falsch erklärt. Ich bin da jetzt nicht drin, aber die Reg-Keys zu kennen setzt natürlich keine Kenntnis der internen Vorgänge voraus. Ich sehe jedenfalls keinen Grund, warum GF4 so beschnitten worden soll, außer für eine nachträgliche "Leistungssteigerung". Wenn er eine vernünftige Erklärung hat, soll er damit rausrücken. Sein Betrag zur Aufklärung verwirrt mich jedenfalls noch mehr :bonk:

StefanV
2002-06-28, 22:01:14
hm...

Könnte es sein, daß die GF4 'einfachere' TMUs hat als die GF3??

aths
2002-06-28, 22:19:17
Originally posted by Stefan Payne
hm...

Könnte es sein, daß die GF4 'einfachere' TMUs hat als die GF3?? Das ergäbe keinen Sinn.

Ich sage mal, letztlich ist mir der Weg egal wie gerendert wird - hauptsache, die Qualität ist gut und der Speed ok. Wenn nV in OpenGL jetzt trickst, weil Lightmaps nicht anisotrop gefiltert werden - mein Gott, von Lightmaps gibt es eh keine MIP-Maps.

Bei GeForce3 halbiert sich die Füllrate mit AF. Was genau geht intern vor? Braucht er beide TMUs? Oder brauchen die jeweils doppelt so lange?

Um die Wahrheit zu sagen ist mir der interne Ablauf gar nicht so wichtig - bei der GeForce4 Ti kann man sicherlich mindestens GeForce3-Technik verlangen. AF haben sie ins "AccuView"-Paket mit aufgenommen; es künstlich zu beschneiden um eine Handvoll Transitoren zu sparen ergibt keinen Sinn. Für so doof, einen Hardware-Bug der sich irgendwo eingeschlichen hat nicht bemerkt zu haben, halte ich sie auch nicht. Ebenso glaube ich nicht daran, dass das Treiberteam so inkompetent ist, dass sie bei der Übertragung der Binaries von GeForce3 zu 4 einen solchen Bug produziert haben bzw. den nicht längst haben fixen können.

Daher bleibt mir nur noch, Absicht zu vermuten. (Gibt es andere Vorschläge?) Die Theorie mit der Absicht wird allerdings durch Unwinders Entdeckung auch wieder zweifelhaft... vor allem wenn man dem TI-Gerücht Glauben schenkt, nV hätte sich beim Deto zunächst voll auf AA konzentriert und nähme sich nun AF vor. Wenn sie das was Quasar beschrieben hat unter "Optimierung" verstehen - tja dann wäre noch immer nicht geklärt, wieso GF4 Ti im Multitexturing-Modus bei AF gegenüber GeForce3 im Nachteil ist.

Unreal Soldier
2002-06-28, 22:42:31
@aths
Ich tendiere dir zu glauben, denn solch ein Bug für einpaar-Prozentchen Leistung zu coden, oder im chip zu designen ist wirklich ein Schwachsinn. Ich denk nicht, dass es ein Designbug im Chip ist, sondern, eher ein Trieberbug, wenn es ein 100%-Bug ist. Übrigens ds kommt bei GF-Serie zum ersten mal vor, dass NV für Leisutng sowas tut.

MFG
Unreal Soldier

nagus
2002-06-28, 22:45:07
Originally posted by Blackmagic

Halt doch die Fresse, du gehst mir mit deinen Sinnlosen komentaren so dermassen auf den Sack. Als ATI das gemacht hat um die bechmarkliste anzuführen hast du dein Mund nicht so weit aufgerisssen. Also halt die Füsse still


leck mich, ok?

nagus
2002-06-28, 22:47:03
Originally posted by Piffan


Dies ist kein Zeichen von Mut! Es zeigt eine sachliche Neutralität!

Leute wie nagus haben ein Problem, nicht Quasar!


ja, ich hab wirklich ein problem... und zwar nvidias kundenverarsche-politik!

RAL
2002-06-28, 23:38:47
nagus,

wie wärs mal mit einem etwas anderen Tonfall?

nur ne Idee...macht die Gespräche für alle fruchtbarer.

Piffan
2002-06-28, 23:50:30
Originally posted by nagus



ja, ich hab wirklich ein problem... und zwar nvidias kundenverarsche-politik!

Aha, der Herr nagus weiß also ganz genau Bescheid..... Dann erkläre er doch mal, worin die Verarsche besteht. Wo nun genau liegt der Nachteil für den Kunden? Bekommt er eine schlechte Ware, eine lahme Gurke angedreht?
Wohl eher nicht.... Wenn es noch niemand gesehen hat, wird es wohl nicht so tragisch sein...

Aber falls was dran ist, würde ich von einem Fehler sprechen, nicht von Kundenverarsche. - Neiiin, bei NV arbeiten auch nur Menschen, o Gott!

Ich möchte mal wissen, was Herr nagus schon im Leben auf die Beine gestellt hat, dass er immer so vom Leder zieht... Der Psychologe würde wohl das Problem eher bei ihm suchen denn von Kundenverarsche zu sprechen....

Salvee
2002-06-29, 00:05:10
Richtig, bei nV arbeiten auch nur Menschen, die zu allem Überfluss auch nur mit Wasser kochen.
Wird Zeit, dass der nV'sche Saubermann-Nimbus ins Reich der Märchen geschickt wird, wo er auch hingehört.
(ATi ist schon da ;))

aths
2002-06-29, 00:08:53
Ich fürchte, Quasar hat sich geirrt. Das prüfe ich jetzt mal...

aths
2002-06-29, 00:18:23
Also Unwinder sagt selbst: "I've no strict info on it, I can only share my assumptions."

Ich hab mal den "performance boost" gemessen: Von 126.7 auf 140.3 fps. (Bei 4:1 anisotroper Filterung mit MIP-Map-Interpolation.) Das sind ca. 10% mehr. Meiner Meinung nach wurde die Sache mit der TMU nicht "behoben". Es handelt sich um eine "Quick'n'dirty"-Filterung, die aber vom GeForce4-AF-Problem unabhängig ist. nV versucht meiner Meinung, AF durch Zugeständnisse an die Qualität schneller zu machen. Der "Bug", dass bei GeForce4 mit AF die Füllrate geviertelt wird, bleibt aber, zumindest in D3D, bestehen. Also während GeForce4 in OpenGL mit vernünftiger Füllrate anisotrop filtert, ist das derzeit in D3D noch nicht der Fall. Alex Unwinders neues Setting schaltet m.E. nicht den "Bug" um, der in D3D zu beobachten ist.

Unregistered
2002-06-29, 00:22:12
aths woher kommst du?

Piffan
2002-06-29, 00:25:02
Originally posted by Salvee
Richtig, bei nV arbeiten auch nur Menschen, die zu allem Überfluss auch nur mit Wasser kochen.
Wird Zeit, dass der nV'sche Saubermann-Nimbus ins Reich der Märchen geschickt wird, wo er auch hingehört.
(ATi ist schon da ;))

Also soo naiv ist wohl niemand, dass er einer erfolgreichen Firma einen Persilschein ausstellen würde. Den Saubermann- Nimbus kann eine Firma nur bei Fans haben, die sind ja immer blind auf einem Auge....

Ich finde es nur paranoid, wenn bei jeder Unregelmäßigkeit immer von Vorsatz ausgegangen wird....Beim 3dMark- Bug konnten sich auch die üblichen Verdächtigen nicht beherrschen und sprachen von Betrug und Schummelei, bevor irgendwas klar war..Manchmal sind es einfach nur Pannen...

Schlimm finde ich, wenn mit Murks die Kunden über Jahre abgekocht werden.... Aber sogar bei einer berüchtigten Chipsatzschmiede will man sich ja endlich bessern, hat man zumindest angekündigt....

Anárion
2002-06-29, 00:30:48
Originally posted by Blackmagic

Halt doch die Fresse, du gehst mir mit deinen Sinnlosen komentaren so dermassen auf den Sack. Also halt die Füsse still

Würd ich dir auch empfehlen. Kommst nämlich nicht besser weg als Nagus ;)

Quasar
2002-06-29, 00:32:21
@aths:
Meiner Meinung nach schaltet er wieder zurück auf die "alte" Version, denn unter OpenGL wird nach dem Umschalten von "Performance Optimization" auf "Quality Optimization" wieder der alte Zustand hergestellt, daß GF4 bei Einsatz von AF in Single- und Multitexturing denselben niedrigen Wert erreicht.

Insofern ist es kein neues Setting, sondern ein Setting, welches den prä-28.90er Zustand wiederherstellt.

Und so, wie sich dieses Setting auswirkt, klingt imho noch immer Unwinders Spekulation am plausibelsten, daß "The easiest way to work around this problem (NVIDIA, listen ) is to allow us to force AF on per-stage level. There is no need to use AF for all texturing stages (or texture units in OGL therminology) in the most of currently existing games. Why to filter secondary textures (usually light/reflection maps and so on)?! It's just a waste of fillrate, the difference in IQ will be hardly noticable.
I assume that they already did such optimization in the OpenGL 28.90+, and there are some facts that confirm it:
1. Both anisotropy modes (slow/quality and fast) give the same performance in singletexturing mode, fast mode gives boost in conjunction with multitexturing only.
2. IQ differences in Q3 are noticable (but it was very difficult to find it ) on the lightmaps only.
3. It looks like they've experimented with D3D driver too - it contains encrypted D3D registry entry, which allows to limit the maximum degree of anisotropy for specified texturing stages for NV25 only.
All this stuff allows me to assume that in fast mode they simplify filtering algorithm (disable anisotropy at all?) on some textures (far from camra?), filtered by non-primary texturing unit.

Frage an diejenigen, die sich mit D3D-Programmierung auskennen: Wäre eine ähnliche Optimierung für D3D möglich, d.h., daß bestimmte Textur-Stages nur eine vordefiniert-begrenzte Zahl von AF-Samples erlaubt wird oder liefe das der D3D-Spezifikation zuwider?

Vedek Bareil
2002-06-29, 00:40:25
Originally posted by nagus ja, ich hab wirklich ein problem... und zwar nvidias kundenverarsche-politik! ja sieh mal an, ich habe sogar zwei Probleme:

1) ATI's anisotroper Schrottfilter, der das Sch... MIP-Banding nicht weggemacht kriegt

2) Kyro's anisotroper Müllfilter, der so ultralahm ist, daß ihn jede Schnecke überholt

:D :lol:

Demirug
2002-06-29, 00:56:35
Originally posted by Quasar
Frage an diejenigen, die sich mit D3D-Programmierung auskennen: Wäre eine ähnliche Optimierung für D3D möglich, d.h., daß bestimmte Textur-Stages nur eine vordefiniert-begrenzte Zahl von AF-Samples erlaubt wird oder liefe das der D3D-Spezifikation zuwider?

Die Spec erlaubt dem Programmierer das einstellen des Levels pro Textur zwischen 1 und einem von Treiber vorgegebehnen Maximallevel. Dieser Maximallevel ist für alle Stages gleich. Ob der Treiber nun berechtigt ist einen kleineren maxLevel als den vom Programmierer vorgegegebenen zu benutzten scheint eine grauzone zu sein.

RAL
2002-06-29, 02:24:36
Originally posted by Anárion


Würd ich dir auch empfehlen. Kommst nämlich nicht besser weg als Nagus ;)

*unterschreib*

GloomY
2002-06-29, 03:00:46
Originally posted by Vedek Bareil
ja sieh mal an, ich habe sogar zwei Probleme:
1) [...]
2) Kyro's anisotroper Müllfilter, der so ultralahm ist, daß ihn jede Schnecke überholtDer Kyro-Filter ist nicht langsamer als der der anderen. Er braucht nur eben viel Füllrate, von dem die Kyro nicht gerade viel hat, die anderen Karten jedoch schon...

ow
2002-06-29, 10:14:07
Gloomy


Doch, der Kyro filtert aniso extrem langsam, das hat nichts mit der Füllrate zu tun.

StefanV
2002-06-29, 10:48:28
Originally posted by Vedek Bareil
ja sieh mal an, ich habe sogar zwei Probleme:

1) ATI's anisotroper Schrottfilter, der das Sch... MIP-Banding nicht weggemacht kriegt

Nur hats ATI hinbekommen einen AF Filter zu realisieren, ohne, daß sich die Füllrate ändert :naughty:

Haarmann
2002-06-29, 10:58:40
Wie Richthofen schon sagte, solange man beim Endbild nix oder wenig sieht, es aber viel schneller würde, bleibt der Murks tragbar, auch wenn es besser wäre, NV würde im Treiber den ein und ausschalten lassen. Dann kann nämlich der User wählen was er denn genau will.


zum Kapitel Verarschung, Nagus, Blackmagic usw...

Verarscht von ner Firma fühlt sich wohl immer der, der das so will... Wenn ich also NV Kunde bin (indirekt), dann kann ich mir verarscht vorkommen, wenn das Produkt nicht das bietet, was ich aufgrund von was auch immer erwartet hab. Ich muss mir aber nicht verarscht vorkommen!
Bsp für das wäre GF2 GTS... Unter 32Bit hat die Karte sicher kein Gigatexel... Der Kunde hat also das Recht sich verarscht vorzukommen.

Weswegen nahm ich dieses NV Beispiel und keines von ATI? Weil ich ne GTS2 hatte und diese damals kaum schneller als die GF DDR war (inkl oc war die GF DDR eh schneller, weil der ELSA GF2 RAM auch fürn Arsch waren) - ergo voll fürn Arsch das "Upgrade".

Verarscht fühlte ich mich auch von PowerVR, seit die neuen Kyro Treiber mitm Dual Athlon nimmer wollen... Hätte ich ned extra dem Support mal das gesteckt, käm ich mir wohl weniger verarscht vor ;)

MadManniMan
2002-06-29, 11:01:23
jupp, er hat seine aniso-implementation vom neon250 übernommen, wurde nicht gerade darauf optimiert

zum thema: solche dinge sind es, die reaktionen wie von nagus in ihrer intention für mich verständlich machen. btw: wenn blackmagic hier dann rummault, ist das für mich ein zeichen von indifferenter betrachtung des sachverhaltes, also irgendwie subjektiv, aber egal

wenn nv diese option für performanceschübe auserkoren hat, sollen sie sie gefälligst in den deots zur auswahl lassen. ich bin seit jeher in BQ++ freak und hab in meinen 2 wochen intensivsten rumgetestes mit meiner ti200 schon nen recht guten blick für die schönen "neuen dinge" wie nutzbares ms oder af(weil schnell und schön) entwickelt. wenn jetzt nv daherkommt und mir diese bildquali wegnehmen will, dann finde ich das nicht wirklich schön. *gottseidankhabichnegf3*

unter diesen umständen fände ich es sogar wieder legitim, das af der r8500 mit dem des gf4 zu vergleichen(i.e. in benches), da beide nicht (mehr) den standart bieten und ich mir nicht anmaßen will, zu beurteilen, wer in welchem anteil der situationen noch bq-mäßig die nase vorn hat. die leute regen sich über dinge wie "turbotex" vom xabre auf, aber wenn es auf einmal so "unwesentliche" dinge, wie eine "leichte beschneidung der af-quali zu gunsten der über alles relevanten performance" /edit:/ des marktführers geht, dann ists ein kavaliersdelikt und bedarf keiner weiteren kritik.

wenn dann auch noch ein richthofen ankommt, von lächerlicher af-quali der r8500 redend um vom thema abzulenken, obwohl er wahrscheinlich noch nie eine solche in der hand gehalten geschweige denn in aktion gesehen hat, dann find ich das alles aus irgendeinem grund nicht mehr lustig.


in diesem sinne... supa nvidia! wirklch toll! 1A! bravo Nvidia!

HOT
2002-06-29, 11:11:12
Originally posted by Vedek Bareil
ja sieh mal an, ich habe sogar zwei Probleme:

1) ATI's anisotroper Schrottfilter, der das Sch... MIP-Banding nicht weggemacht kriegt

2) Kyro's anisotroper Müllfilter, der so ultralahm ist, daß ihn jede Schnecke überholt

:D :lol:

Ja, aber beide Filtern wenigstens Anisotropisch. Es gibt schon Games, wo der bilineare Aniso der ATis negativ auffällt, aber dafür funktioniert er korrekt. Und der Kyro hat schlichtweg nicht genug Power. Trotzdem hat PowerVR dieses Feature eingebaut UND SIE HABEN ES NICHT VERMARKTET! Denn damit kann man alte Spiele wie pod ungemein aufwerten ;)
ATI kann man es vielleicht noch ankreiden, aber PowerVR keinesfalls.

Das keine Lightmap gefiltert wird, finde ich auch ok. Kritisch ist es dann eher mit Bumpmaps und Detailmaps.
Da nützt es nichts mehr nur die Basemap zu filtern, das sieht dann kagge aus.
Wie auch immer das Problem zustanda kommt, NVidia kann sich nicht von Problemen, wie andere auch, freisprechen. Meiner Meinung nach ist daran die Suche nach dem letzten bisschen Performance schuld - aber das ist reine Spekulation. Bin leider kein Treiberprogrammierer und hab von den Spitzfindigkeiten der Geforcearchitektur leider keine Ahnung :(

HOT
2002-06-29, 11:14:40
Originally posted by MadManniMan
jupp, er hat seine aniso-implementation vom neon250 übernommen, wurde nicht gerade darauf optimiert

zum thema: solche dinge sind es, die reaktionen wie von nagus in ihrer intention für mich verständlich machen. btw: wenn blackmagic hier dann rummault, ist das für mich ein zeichen von indifferenter betrachtung des sachverhaltes, also irgendwie subjektiv, aber egal

wenn nv diese option für performanceschübe auserkoren hat, sollen sie sie gefälligst in den deots zur auswahl lassen. ich bin seit jeher in BQ++ freak und hab in meinen 2 wochen intensivsten rumgetestes mit meiner ti200 schon nen recht guten blick für die schönen "neuen dinge" wie nutzbares ms oder af(weil schnell und schön) entwickelt. wenn jetzt nv daherkommt und mir diese bildquali wegnehmen will, dann finde ich das nicht wirklich schön. *gottseidankhabichnegf3*

unter diesen umständen fände ich es sogar wieder legitim, das af der r8500 mit dem des gf4 zu vergleichen(i.e. in benches), da beide nicht (mehr) den standart bieten und ich mir nicht anmaßen will, zu beurteilen, wer in welchem anteil der situationen noch bq-mäßig die nase vorn hat. die leute regen sich über dinge wie "turbotex" vom xabre auf, aber wenn es auf einmal so "unwesentliche" dinge, wie eine "leichte beschneidung der af-quali zu gunsten der über alles relevanten performance" geht, dann ists ein kavaliersdelikt und bedarf keiner weiteren kritik.

wenn dann auch noch ein richthofen ankommt, von lächerlicher af-quali der r8500 redend um vom thema abzulenken, obwohl er wahrscheinlich noch nie eine solche in der hand gehalten geschweige denn in aktion gesehen hat, dann find ich das alles aus irgendeinem grund nicht mehr lustig.


in diesem sinne... supa nvidia! wirklch toll! 1A! bravo Nvidia!

*unterschreib*

MadManniMan
2002-06-29, 11:29:32
danke hot.

was mir gerade dabei einfällt... wer von euch hat giants gespielt? und wer von denen mit af? der dürfte auf jeden fall wissen, daß es bescheuert wäre, die landscape bumps nicht zu filtern(ansiotrop natürlich), wenn man af aktivierte. kann ja sein, daß nv auch nur inkompatibilitäten aus dem weg gehen will(siehe mein thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=24009 )

man stelle sich mal folgendes vor: doom3 kommt raus und die bumps werden nicht anisotrop gefiltert, wenn man af aktiviert *autsch* ;D

aths
2002-06-29, 14:35:35
Originally posted by MadManniMan
aber wenn es auf einmal so "unwesentliche" dinge, wie eine "leichte beschneidung der af-quali zu gunsten der über alles relevanten performance" /edit:/ des marktführers geht, dann ists ein kavaliersdelikt und bedarf keiner weiteren kritik.Erinnert mich an den S3TC-Bug, der bis einschließlich GeForce4 Ti aktiv ist. Für ca. 2% mehr Speed opferten sie ein gutes Stück Qualität. Um diese wiederzuerlangen muss der DXT3-Fix genutzt werden, was dann aber wieder ein wenig auf die Geschwindigkeit geht...

Zu den Bumpmaps: Soweit ich weiß, werden diese nicht mal trilinear gefiltert.

Originally posted by MadManniMan
Tidepool-Demo? ...schick! wo bleiben die Spiele mit diesen Effekten?Geht in DX nur ab PixelShader 1.3. Kann deine GF3 also in DX gar nicht darstellen.

aths
2002-06-29, 14:49:59
Originally posted by ow
Gloomy

Doch, der Kyro filtert aniso extrem langsam, das hat nichts mit der Füllrate zu tun. Dass der Kyro so langsam filtert könnte nicht damit zu tun haben, dass er dabei jede Menge Füllrate verpulvert? Wenn ich recht informiert bin, ist es so.

Xmas
2002-06-29, 14:53:46
Originally posted by HOT
Kritisch ist es dann eher mit Bumpmaps und Detailmaps.
Da nützt es nichts mehr nur die Basemap zu filtern, das sieht dann kagge aus.
Ganz im Gegenteil. Bump- und Detail-Maps sind oft nur für den Nahbereich gedacht. Und da macht AF kaum einen Unterschied.
Das filtern von Bump(Normal-)maps ist sowieso problematisch, denn je mehr Texel verwendet werden desto wichtiger wird es, das Ergebnis zu renormalisieren.

Thowe
2002-06-29, 14:54:48
Die Kyro braucht AnIsotrop 4x solange wie beim BiLinear

nggalai
2002-06-29, 15:26:43
Originally posted by Xmas

Ganz im Gegenteil. Bump- und Detail-Maps sind oft nur für den Nahbereich gedacht. Und da macht AF kaum einen Unterschied.
Das filtern von Bump(Normal-)maps ist sowieso problematisch, denn je mehr Texel verwendet werden desto wichtiger wird es, das Ergebnis zu renormalisieren. *zustimm* In der DXDEV Mailing-List hatten wir vor einiger Zeit mal eine Diskussion dazu, und der Tipp war, nichtmal MIP-Mapping zu verwenden, bei Bumpmaps. Ergo auch kein trilineares Filtering, und AF macht auch kaum Sinn.

Und Detail/Dirtmaps sind ja gerade für Nahansicht gedacht--da sollte AF eh nicht greifen.

ta,
-Sascha.rb

HOT
2002-06-29, 15:34:15
Bei SeSam WIRD die Detailmap gefiltert.

Piffan
2002-06-29, 15:37:13
Originally posted by Xmas

Ganz im Gegenteil. Bump- und Detail-Maps sind oft nur für den Nahbereich gedacht. Und da macht AF kaum einen Unterschied.
Das filtern von Bump(Normal-)maps ist sowieso problematisch, denn je mehr Texel verwendet werden desto wichtiger wird es, das Ergebnis zu renormalisieren.

Da sieht man es mal wieder: Es bringt gar nix, sich das Maul zu zerreißen, ich will endlich mal Shots sehen!

Bei den detailed textures von Unreal als Beispiel: Die sind derartig auf den Nahbereich getrimmt, dass Aniso vollkommen lächerlich wäre....

Bei den Bumps wäre ich nicht so sicher, denn es muß wohl die Normale unangetastet bleiben, dafür aber könnten doch die "Endtexturen" (Produkte) wieder gefiltert werden? Nun muß ich aber zugeben, daß ich als Laie nicht die Ahnung habe, spekuliere halt so dahin ( wie viele andere hier auch ;)

Was anderes: Man kann das Aniso doch offiziell gar nicht im Treiber aktivieren, oder? Also muß man mit der gelieferten Qualität zufrieden sein und die Schnauze halten :D

Piffan
2002-06-29, 15:47:42
Spekuliere grade so schön weiter.... Bumps und Aniso sind ein Paradoxon! Denn egal wie ich es drehe, wenn ich flach auf eine gebumpte Fläche schaue, bricht die Illusion in jedem Falle zusammen, mit oder ohne Aniso!

Mir scheint die Diskussion mal wieder um des Kaisers neue Kleider zu gehen: Keiner sieht was, aber manche reden drüber, wie wichtig das Aniso bei Bumps doch ist....;)

Xmas
2002-06-29, 16:24:08
Originally posted by Piffan
Bei den detailed textures von Unreal als Beispiel: Die sind derartig auf den Nahbereich getrimmt, dass Aniso vollkommen lächerlich wäre....
Detail Textures sind immer nur für den Nahbereich...

Bei den Bumps wäre ich nicht so sicher, denn es muß wohl die Normale unangetastet bleiben, dafür aber könnten doch die "Endtexturen" (Produkte) wieder gefiltert werden? Nun muß ich aber zugeben, daß ich als Laie nicht die Ahnung habe, spekuliere halt so dahin ( wie viele andere hier auch ;)
Nein, man kann nicht nachträglich Filtern (bis auf FSAA), weil pro Pixel nur ein Wert berechnet wird.

Was anderes: Man kann das Aniso doch offiziell gar nicht im Treiber aktivieren, oder? Also muß man mit der gelieferten Qualität zufrieden sein und die Schnauze halten :D
Für OpenGL kann man es im Treiber aktivieren.

MadManniMan
2002-06-29, 17:28:34
Originally posted by aths

Geht in DX nur ab PixelShader 1.3. Kann deine GF3 also in DX gar nicht darstellen.

dessen bin ich mir durchaus bewußt, aber wer will denn schon dx? :zunge:


nee im ernst, es kotzt mich an, daß die fähigkeiten dieses lustigen prachtstückes in meinem rechner nur in techdemos genutzt wird. die möglichkeit, diese auszunutzen, besteht seit ewigkeiten, allerdings scheinen grafiker und engine-progger im allgemeinen arg konservativ eingestellt.

Labberlippe
2002-06-30, 11:51:13
Also ich glaube kaum das ein grosser Optischer Unterschied beim Aniso zwischen GeForce 3 und 4 ist.

Vielleicht versucht nVIDIA die AF Performance zu steigern.
So wie ich das jetzt auf die schnelle sehe, pfeifen Sie auf objekte wo AF mehr oder weniger sinnlos ist.

Wenn nVIDIA die Bildqualität hält und AF Performancemässig steigt dann ist die ganze Diskussion eh wurscht.
Ein Hit wäre es aber auf alle Fälle wenn man das ganze mit Screen genauer überprüfen könnte.

Ich sehe darin kein Skandal.

Jeder Hersteller hat halt sein eigenes AF verfahren.

Gruss Labberlippe

zeckensack
2002-06-30, 12:03:02
Originally posted by Xmas
Detail Textures sind immer nur für den Nahbereich...
Schonmal irgendwas mit der LithTech-Engine gespielt? Vorzugsweise NOLF? Da sieht das ganz anders aus ...

Exxtreme
2002-06-30, 12:04:36
Originally posted by Labberlippe
Wenn nVIDIA die Bildqualität hält und AF Performancemässig steigt dann ist die ganze Diskussion eh wurscht.
Ein Hit wäre es aber auf alle Fälle wenn man das ganze mit Screen genauer überprüfen könnte.

Ich sehe darin kein Skandal.

Jeder Hersteller hat halt sein eigenes AF verfahren.

Gruss Labberlippe
Wenn die BQ darunter nicht leidet ist eher als ein Feature zu sehen. Aber Borsti wollte z.B. die R8500 zum Parhelia-Test mit diesen Worten nicht zulassen:

ATIs Radeon 8500 haben wir für diese Vergleiche nicht herangezogen, da deren anisotropische Filterung durch diverse Treibertricks etwas umstritten ist und den Vergleich nur unnötig kompliziert hätte.

NV verwendet jetzt auch "Treibertricks". Folglich müsste die GF4Ti auch nicht herangezogen werden dürfen! Diese "Treibertricks" sind IMHO legitim, da sie den Endanwender Vorteile bringen und dieser sie meistens auch einsetzen wird.

Gruß
Alex

MadManniMan
2002-06-30, 12:05:30
sehr richtig, zeckensack.

außerdem meine ich ohne weiteres große unterschiede bei anisotropie bei detail textures(black&white) und bumpmaps(giants) zu sehen

MadManniMan
2002-06-30, 12:07:13
exxtreme, ich kann mich da nur wieder selbst zitieren

Originally posted by MadManniMan unter diesen umständen fände ich es sogar wieder legitim, das af der r8500 mit dem des gf4 zu vergleichen(i.e. in benches), da beide nicht (mehr) den standart bieten und ich mir nicht anmaßen will, zu beurteilen, wer in welchem anteil der situationen noch bq-mäßig die nase vorn hat

zeckensack
2002-06-30, 12:08:12
Originally posted by Labberlippe
Vielleicht versucht nVIDIA die AF Performance zu steigern.
So wie ich das jetzt auf die schnelle sehe, pfeifen Sie auf objekte wo AF mehr oder weniger sinnlos ist.

Wenn nVIDIA die Bildqualität hält und AF Performancemässig steigt dann ist die ganze Diskussion eh wurscht.
Ein Hit wäre es aber auf alle Fälle wenn man das ganze mit Screen genauer überprüfen könnte.

Ich sehe darin kein Skandal.

Jeder Hersteller hat halt sein eigenes AF verfahren.

Gruss Labberlippe

http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/006771.html

Zitat von Matt Craighead, Oberguru in der Abteilung OpenGL-Treiber (arbeitet für NVIDIA (all caps!)):If the user is deciding, then it needs to be the app's responsibility still to decide *how* to cut down on the scene/shader complexity. The driver simply has far, far too little information to make *any* policy decisions for the app. In general, policy decisions for rendering *must* be made using higher-level information, such as scene graph information or knowledge about the particular demands of the application.

The driver's role is to do precisely what it is told to do, but as quickly as possible.Also nix mit "Wenn's keiner sieht, isses auch nicht passiert". Wenn es nur ein einziges Spiel (oder gar eine 'richtige' Applikation :o) gibt, bei der es negativ auffällt, ist's geschummelt. Das sehe ich so, und das sieht der da oben anscheinend auch so.

/edit:
Bevor zurückgeschossen wird, das AF auf der Radeon8500 ist für die Tonne :P

Quasar
2002-06-30, 12:16:21
Originally posted by zeckensack
Matt Craighead

Klingt wie ein falsch geschriebener Nick "Matt Crack-Head"... :lol:

zeckensack
2002-06-30, 12:55:38
Originally posted by Quasar
Klingt wie ein falsch geschriebener Nick "Matt Crack-Head"... :lol: Na, wer wird denn gleich wegen eines Namens spotten ...
Der olle Matt hat ziemlich viel auf dem Kasten, und ich vermute mal, daß du ihm treibermäßig einiges zu verdanken hast ;)

Quasar
2002-06-30, 12:58:00
:rofl:

Wenn ich voher gewusst hätte, daß die OpenGL-Treiber bei nV von Crack-Heads geschrieben werden, wär' ich zu 3DLabs gewechselt.... ;)

Craigheads Leistung soll jedoch gewürdigt werden, aber der Name...........

Xmas
2002-06-30, 17:50:22
Originally posted by zeckensack
Schonmal irgendwas mit der LithTech-Engine gespielt? Vorzugsweise NOLF? Da sieht das ganz anders aus ...
Hm, wofür? Detail Textures sind, wie der Name schon sagt, für Details. Details sieht man aber nun mal nur wenn sie nah sind. Was soll das also?

-X-
2002-06-30, 18:39:48
die lith-tech-engine is auch fürn arsch;)

zeckensack
2002-06-30, 19:20:31
Originally posted by Xmas

Hm, wofür? Detail Textures sind, wie der Name schon sagt, für Details. Details sieht man aber nun mal nur wenn sie nah sind. Was soll das also? Bei NOLF werden kleine hochfrequente Detail-Textures ganz exzessiv eingesetzt.

Die Auflösung der Basistexturen ist totaler Kindergarten. Die Oberflächen erhalten erst durch die DTs ihre Definition, und sind auch in der Entfernung noch 'voll da'. Wenn man da am Filter sparen würde, dann sähe es reichlich scheußlich aus.

Ich wollte dir auch nicht auf den Schlips treten oder so, aber das Spiel solltest du gesehen haben, um zu verstehen was ich meine. Ist sonst recht schwer zu beschreiben ... ich muß mal schauen, ob ich ein paar nette Screenshots hinkriege :)

Unregistered
2002-06-30, 19:56:59
http://www.beyond3d.com/reverend/gf4aniso/index.php

Richthofen
2002-06-30, 21:08:59
den Link wollte ich auch grad geben.

Ich hab die Screens nicht angeschaut jetzt weil ich keine Zeit haber aber ich denke mal der Schreiber dieses Kurzartikels weiss wovon er redet :)
Er ist ja nicht grad unbekannt.

Er sieht keinen Aniso Qualitäts Unterschied zum Schlechten hin. Die gestiegene Performance bemerkt er aber auch.
Naja mal guggen was andere noch so bringen aber manchmal wird einiges heisser gekocht als es ist hab ich den Eindruck.

Birdman
2002-06-30, 21:53:26
Originally posted by Quasar
Klingt wie ein falsch geschriebener Nick "Matt Crack-Head"... :lol:
Jetzt weiss ich auch wieso der Nv Treiber so schnell ist....der iss sicher auf Speed.

Unregistered
2002-06-30, 22:28:52
Auf was sonst? Auf Stutterings wie bei ATI sicher ned.

aths
2002-06-30, 23:35:58
Ein schneller Bildvergleich in Quake brachte bei mir zutage, dass sich die Texturen nicht unterschieden. Der "Trick", wie er auch immer geht, löst allerdings das AF-Problem in D3D nicht.

Exxtreme
2002-06-30, 23:42:58
[B]Originally posted by Auf Stutterings wie bei ATI sicher ned.
???

Gruß
Alex

Quasar
2002-06-30, 23:44:09
Originally posted by aths
Der "Trick", wie er auch immer geht, löst allerdings das AF-Problem in D3D nicht.

Vielleicht ist er einfach noch nicht in den D3D-Teil des Treibers implementiert worden?

tb
2002-07-01, 00:23:14
Wenn ich bei NVIDIA einen solchen "Trick" einbauen würde, dann würde ich diesen deaktivieren, sobald ein Screenshot erstellt wird. Technisch ist dies kein Problem, was natürlich auch umgekehrt angewannt werden kann, sobald ein Screenshot erstellt wird, rechnet der Karte das Bild in besserer Qualität als normal. Fakes dieser Art dürften recht schwer zu enttarnen sein.

Gruß
Thomas

Birdman
2002-07-01, 00:46:33
Originally posted by tb
Wenn ich bei NVIDIA einen solchen "Trick" einbauen würde, dann würde ich diesen deaktivieren, sobald ein Screenshot erstellt wird. Technisch ist dies kein Problem, was natürlich auch umgekehrt angewannt werden kann, sobald ein Screenshot erstellt wird, rechnet der Karte das Bild in besserer Qualität als normal. Fakes dieser Art dürften recht schwer zu enttarnen sein.
Gruß
Thomas
Huh? die Treiberprogrammierer bei Nvidia mögen ja SuperLeute sein, aber sowas wie die da prognostizierst ist dann doch schwer lösbar, wenn nicht gar unmöglich.
Es ist eher so das Screenshots schlechter aussehen als inGame Grafik, da darauf die Post-Operations nicht zu sehen sind. (aka Vooodoo 22bit)

tb
2002-07-01, 01:42:44
Originally posted by Birdman

Huh? die Treiberprogrammierer bei Nvidia mögen ja SuperLeute sein, aber sowas wie die da prognostizierst ist dann doch schwer lösbar, wenn nicht gar unmöglich.
Es ist eher so das Screenshots schlechter aussehen als inGame Grafik, da darauf die Post-Operations nicht zu sehen sind. (aka Vooodoo 22bit)

Das ist leider sehr einfach lösbar, normalerweise wird der Framebuffer niemals(bei "normalen" Spielen/Anwendungen) ausgelesen, dies ist aber bei einem Screenhsot nötig und sowas ist sehr leicht durch den Treiber zu "entdecken"....

Gruß
Thomas

Xmas
2002-07-01, 02:29:28
Originally posted by tb
Das ist leider sehr einfach lösbar, normalerweise wird der Framebuffer niemals(bei "normalen" Spielen/Anwendungen) ausgelesen, dies ist aber bei einem Screenhsot nötig und sowas ist sehr leicht durch den Treiber zu "entdecken"....

Gruß
Thomas
???
Ein Screenshot kann doch erst gemacht werden wenn die Szene fertig gerendert ist. Wie soll denn der Treiber bereits am Anfang eines Frames wissen, dass am Ende der Framebuffer ausgelesen wird? Um die Qualität zu verbessern müsste dem Treiber ja im Voraus bekannt sein, wann ein Screenshot gemacht wird.

Haarmann
2002-07-01, 09:43:18
Schwer wirds doch eher, wenn wie bei NV der RAMDAC noch nen paar Sachen macht ... Da isn Screenshot wohl ned mehr einfach ein Framebufferabbild. Ev ists dann wirklich ne Funktion des Treibers (Sorry, aber ich kenne die Treiberinternas bei NV auch nicht). Denke alle Chips, die bei FSAA die DACs selber downsampeln lassen, haben nie nen echtes Framebufferabbild im Grakaram... Wozu auch?

Richthofen
2002-07-01, 13:18:36
ich hab jedenfalls weder auf screens noch im game bei mir zwischen Ti4400 und GF3Ti500 nen Unterschied sehen können. Auch nicht nachdem ich vom 28.32er Treiber, der ja noch die lahme AF Performance hatte in D3D und OGL, auf den 28.90er umgestiegen bin.
Der hat zumindest mal unter OGL die Performance round about um 33% gesteigert.
Für mich alles im grünen Bereich. Jetzt wart ich nur drauf das die das in Direct3D auch machen.
Ich befürchte allerdings, das dies noch ne Weile dauern wird, da der Parhelia wohl doch nicht so gut performt wie angenommen.
Denke mal die lassen sich damit noch bissl Zeit.

tb
2002-07-01, 13:22:20
@Xmas

Das stimmt. Jedoch kann man sich nicht unbedingt sicher sein, dass gerade der aktuelle Framebuffer auch als Bild gespeichert wird, gerade bei 25 oder mehr Bildern pro Sekunden würde es kein Problem darstellen, eben erst das nächste Bild abzuspeichern. Hät ich ne GF4, dann würd ichs ja mal überprüfen :(

@Haarmann

Der RAMDAC wird nur bei FSAA im Vollbildmodus "mit" verwendet, sonst nicht.

Thomas

aths
2002-07-01, 15:10:31
Der AF-Bug wurde auch in OpenGL noch nicht gefixt. Das Speed-Up (was ja nun sooo groß nicht ist) kam alleine durch diesen "Trick", wo Unwinder kleine Qualitätsunterschiede feststellen will.

Wenn bei GeForce3 beide TMUs af filtern sollen, ist der Einbruch deutlich geringer als wenn das bei GF4 der Fall sein soll. Scheinbar ist nur eine der beiden GF4-TMUs in der Lage, AF zu applizieren :bonk:

Ziemlich verwirrend, zumal nV zu diesem Thema eisern schweigt.

Unregistered
2002-07-01, 15:18:53
Weil auch nix dran ist.

Unregistered
2002-07-01, 15:43:10
Originally posted by Unregistered
Weil auch nix dran ist.

Was Du mit Deiner eindrucksvollen Argumentation überzeugend beweist.

Alexander

Xmas
2002-07-01, 16:04:10
Originally posted by tb
Das stimmt. Jedoch kann man sich nicht unbedingt sicher sein, dass gerade der aktuelle Framebuffer auch als Bild gespeichert wird, gerade bei 25 oder mehr Bildern pro Sekunden würde es kein Problem darstellen, eben erst das nächste Bild abzuspeichern. Hät ich ne GF4, dann würd ichs ja mal überprüfen :(
Aber nur wenn man per Windows-Zwischenablage einen Screenshot macht. Wenn die Applikation selbst den Framebuffer ausliest muss der bis zu diesem Zeitpunkt gerenderte Framebufferinhalt zurückgegeben werden (schon allein deswegen weil die ausgelesenen Daten ja zum Rendern des nächsten Frame verwendet werden könnten). Es ist ja nicht so dass das Programm dem Treiber sagt: "mach jetzt bitte mal nen Screenshot".

Unregistered
2002-07-01, 16:12:44
Ich muss nix belegen ich trau nur meinen Augen.
Man sollte den Rivatuner Heinz mal nach Fakten fragen denn die fehlen bisher. Auch beyond3d.net sieht keine sichtbaren Unterschiede...

TheGnubbel
2002-07-01, 17:50:52
hallo leute,
ich glaube ich hab ne erklärung dafür, warum nvidia den "AF-Bug" in D3d noch nich gefixt hat...
weil es unter D3D keine anisotropische filterung gibt in ihren treibern...
nur vielleicht 10% oder ein paar mehr der user sind so schlau und mladen sich programme wie rivatuner oder ähnliches ruinter um af einzuschalten (grobe schätzung meinerseits)
also warum ein bug beheben,den es seitens nvidia gar nicht gibt, da in ihren treibern kein af unter direct 3d vorgesehen ist????

oder andere variante: nvidia releast mit ihren detos der 30... version welche mit af unterstützung die dann auch in den offiziellen whql treibern vorhanden ist
natürlich nur gesetzt dem fall das das af unter open gl und direct 3 d genauso schnell, wäre, was voraussetzen würde, das der AF-Bug gefixt ist oder zumindest durch irgendwelche tricks siehe opengl die leistung von af stimmt...

soviel von mir hier.....dazu

nggalai
2002-07-01, 17:54:53
Hi Gnubbel,Originally posted by TheGnubbel
ich glaube ich hab ne erklärung dafür, warum nvidia den "AF-Bug" in D3d noch nich gefixt hat...
weil es unter D3D keine anisotropische filterung gibt in ihren treibern...
nur vielleicht 10% oder ein paar mehr der user sind so schlau und mladen sich programme wie rivatuner oder ähnliches ruinter um af einzuschalten (grobe schätzung meinerseits)
also warum ein bug beheben,den es seitens nvidia gar nicht gibt, da in ihren treibern kein af unter direct 3d vorgesehen ist????
In den Treibern hat's keine Einstellungsmöglichkeiten für AF, da das eigentlich von der Applikation gehandhabt werden soll, i.e. weil das SPIEL und nicht das Treiberfrontend anisotropes Filtering aktivieren soll.

Und das macht es auch. ;)

ta,
-Sascha.rb

TheGnubbel
2002-07-01, 18:06:24
ja das verstehe ich schon, das unter direct 3d zunehmend die spiele selber entscheiden können, wie sie filtern oder was jetzt ganz aktuell ist welchen fsaa modus man nehmen soll
ich halte das das natürlich auch für nen riesen vorteil vom komfort für den user her,aber trotzdem kann man von nvidia doch fordern die gleichen bildqualitätsverbessernden Maßnahmen dem user zu kommen lassen wie unter open gl
außerdem, wenn die anisotropische filterung vom spiel gesteuert wird, ist das problem dass die qualität nicht so doll ist
mein beispiel hierfür ist f1 racing championship wo man im spiel direkt einstellen ob mit aniso oder ohne und das ergebnis ist schlechter als wenn ich mit dem rivatuner af einstelle sogar nur 2x
darüber hinaus, wenn nvdia schon mehr oder weniger will, dass af vom spiel direkt kontrolliert werden kann und soll, dann sollen die den spieleentwicklern auch mal ein bißchen feruer unterm arsch machen damit die das af auch implementieren und zwar auch regelbar für den
user mit 2fach 4fach und 8fach
zumal af als feature neben fsaa immer wichtiger wird....

also initiative gründen für mehr AF in games!!!!!!!!!

ow
2002-07-01, 19:00:44
Originally posted by TheGnubbel
ja das verstehe ich schon, das unter direct 3d zunehmend die spiele selber entscheiden können, wie sie filtern oder was jetzt ganz aktuell ist welchen fsaa modus man nehmen soll




Das hast du falsch verstanden. Die Spiele können nicht sondern müssen entscheiden. Eine Regelung voin AF/FSAA über die Treiber ist nicht vorgesehen für das D3D API.

Im übrigen hält sich auch ATi mit der Radeon1 strikt an diese Vorgabe: kein Einstellen des AF im Treiber möglich.


ich halte das das natürlich auch für nen riesen vorteil vom komfort für den user her,aber trotzdem kann man von nvidia doch fordern die gleichen bildqualitätsverbessernden Maßnahmen dem user zu kommen lassen wie unter open gl



Ist auch unter OGL nicht vorgesehen, AF im Treiber einzuschalten. Das macht das Spiel über die OGL Extension 'GL_EXT_texturefilter_anisotropic'.


außerdem, wenn die anisotropische filterung vom spiel gesteuert wird, ist das problem dass die qualität nicht so doll ist
mein beispiel hierfür ist f1 racing championship wo man im spiel direkt einstellen ob mit aniso oder ohne und das ergebnis ist schlechter als wenn ich mit dem rivatuner af einstelle sogar nur 2x



Das kann nicht sein. Die Qualität muss exakt identisch sein.
Darüberhinaus erzwingt eine treiberseitige Einstellung das Verhalten, im Spiel sind die Einstellungen dann wirkungslos.


darüber hinaus, wenn nvdia schon mehr oder weniger will, dass af vom spiel direkt kontrolliert werden kann und soll, dann sollen die den spieleentwicklern auch mal ein bißchen feruer unterm arsch machen damit die das af auch implementieren und zwar auch regelbar für den
user mit 2fach 4fach und 8fach
zumal af als feature neben fsaa immer wichtiger wird....

also initiative gründen für mehr AF in games!!!!!!!!!


s.o., D3D API. MS will das. Sonst vermutlich keiner.

Aber du hast natürlich recht. Es sollten keine neuen Spiele mehr ohne Optionen für AA/AF erscheinen. So sieht der DX-Standard das ja vor (dehalb soll man es ja im Spiel einstellen können).

aths
2002-07-03, 14:58:22
Originally posted by ow
Aber du hast natürlich recht. Es sollten keine neuen Spiele mehr ohne Optionen für AA/AF erscheinen. So sieht der DX-Standard das ja vor (dehalb soll man es ja im Spiel einstellen können). Ich darf ergänzen dass bitte auch gleich die Auflösungen mit zugehörigen Bildwiederholraten vernünftig einstellbar sein sollten, dann wäre auch das 60-Hz-Problem vom Tisch.

ow
2002-07-03, 17:00:05
Und ich darf ergaenzen:

Betrifft den VSync ebenso.
Bis (AFAIK) DX6 war's ausschliesslich Treibersache, ab DX7 koennen die Apps. das Verhalten des VSync regeln.

StefanV
2002-07-03, 17:35:10
Originally posted by ow
Und ich darf ergaenzen:

Betrifft den VSync ebenso.
Bis (AFAIK) DX6 war's ausschliesslich Treibersache, ab DX7 koennen die Apps. das Verhalten des VSync regeln.

Ach, war da nicht mal ein 'Cheat' in Verbindung mit Matrox??


Aach ja, MGA hat den VSync mal deaktivert gehabt, als alle noch mit VSync gebencht haben :lol:

ow
2002-07-03, 18:33:21
Muss ich da jetzt irgendeinen Sinn in deinem Posting erkennen, Mr. SP??

Das Abschalten des Vsync im Treiber unterstützen alle mir bekannten Karten mit Ausnahme des Intel i740. Da ist Vsync immer an (d3d&ogl). Ach ja, und der S3Virge hat Vsync immer an.:D

StefanV
2002-07-03, 18:41:31
Originally posted by ow
Muss ich da jetzt irgendeinen Sinn in deinem Posting erkennen, Mr. SP??

Das Abschalten des Vsync im Treiber unterstützen alle mir bekannten Karten mit Ausnahme des Intel i740. Da ist Vsync immer an (d3d&ogl). Ach ja, und der S3Virge hat Vsync immer an.:D

1. nein...

2. na, dann kannst du dir ja in etwa vorstellen, bei welcher Karte/welchem Chip das gewesen sein könnte...

ow
2002-07-03, 18:58:54
Du sprichst in Rätseln.


btw. der einzige mir bekannte Test, bei dem Vsync unterschiedlich war, stammt aus einer c´t. Und da war bei der G400Max Vsync ein (liess sich nicht abschalten) und bei allen anderen (TNT2, Neon250,..) aus.

Wurde aber von der c´t drauf hingewiesen, dass die Werte der Matrox höher ausfallen müssten (etwa 10%?).

StefanV
2002-07-03, 19:03:08
Originally posted by ow
Du sprichst in Rätseln.


btw. der einzige mir bekannte Test, bei dem Vsync unterschiedlich war, stammt aus einer c´t. Und da war bei der G400Max Vsync ein (liess sich nicht abschalten) und bei allen anderen (TNT2, Neon250,..) aus.

Wurde aber von der c´t drauf hingewiesen, dass die Werte der Matrox höher ausfallen müssten (etwa 10%?).

1. ach nee *eg*

2. tja, dann hast du wohl 'nen falschen Test erwischt.
Der, den ich meine, da war VSync bei MGA aus aber bei allen anderen ein...

3. hm, obs in der c't war, weiß ich nicht, war glaub ich PC-Games oder CHIP oder sonstwer, die haben einen ziehmlichen Aufstand gemacht, daß MGA den VSync deaktiviert hatte...

Haarmann
2002-07-03, 19:12:22
ow

"Betrifft den VSync ebenso.
Bis (AFAIK) DX6 war's ausschliesslich Treibersache, ab DX7 koennen die Apps. das Verhalten des VSync regeln."

Ich darf das wohl auch ergänzen...
Ein DX5 Game kennt z.B. weder FSAA noch Aniso Filter - Beide Eigenschaften wirken sich aber durchweg positiv auf die Bildqualität des Games aus. Wenn man nun in einem DX8 Treiber diese Settings nicht Treiberseitig aktivieren kann, werden all diese alten Games weiterhin gleich mies aussehen, wie vorher.
Was ich damit sagen will - es ist eifach bekloppt seitens NVidia die Nutzer aller alten Games durchs Fehlen eines treiberseitigen Settings für den Aniso Filter unter D3D zu strafen. Selbst wenn DX8 Games dies selber aktivieren können, so sind noch lange nicht alle Games dessen mächtig - sehr wohl sehen aber alle Games besser aus mit, denn ohne.

Fazit ALLE diese Schalter sind sehr wohl berechtigt, auch wenn sie bei moderner Software eigentlich überflüssig erscheinen... Das solltest gerade Du mit Deinem Hochmodernen Win98 zu würdigen wissen *eg*

Demirug
2002-07-03, 19:40:50
IMO sollten diese Schalter nicht von den einzelnen Hersteller in die Treiber eingebaut werden. Besser wäre es wenn MS sie direkt in das DX Controlpanel einbaut.

TheGnubbel
2002-07-03, 22:43:06
@OW
isse klare das spiele nicht könne entscheide ob aniosfilter oder nicht ,das das die machen müssen is klar

aber mit der tatsache, dass der anisotrpische filter wenn er direkt vom spiel unterstützt und ausgewählt werden darf, schlechter ist als die manuelle wahl mit rivatuner ist meiner meinung nach tatsache, da ich bei F1RC unterschiede diesbezüglich erkannt haben möchte...

ich meine, das aniso im spiel ist doch vielleicht gar nicht so festgelegt mit 2x, 4x, 8x mal aniso filter vielleicht gibbet es da eigene einstellungen
aber wie gesagt, das ganze kann ich nur bei F1RC vermuten bei anderen games nicht
das das Environment mapping von F1RC auch software ist obwohl die geforce das auch in harware kann , davon möchte ich an dieser stelle gar nicht reden
Warum zum geier ist das EM so CPU lastig????
mitEM monaco start 1400 Ghz 14 fps
mit EM monaco start 1000 Ghz 10 fps
ARGH!!!!!!!!!!!!!!!!!!!!

cu Thegnubbel

StefanV
2002-07-03, 22:50:37
Originally posted by Demirug
IMO sollten diese Schalter nicht von den einzelnen Hersteller in die Treiber eingebaut werden. Besser wäre es wenn MS sie direkt in das DX Controlpanel einbaut.

Ähm, welches DX Panel??

DXDIAG??

Demirug
2002-07-03, 22:53:22
Originally posted by Stefan Payne


Ähm, welches DX Panel??

DXDIAG??

Nö. Das in der Systemsteuerung. Kann aber sein das man das nur mit dem SDK bekommt.

StefanV
2002-07-03, 23:07:52
Originally posted by Demirug

Nö. Das in der Systemsteuerung. Kann aber sein das man das nur mit dem SDK bekommt.

Tja, siehst du, da ist der Haken ;)

Das gibts nur beim SDK...

nggalai
2002-07-03, 23:11:45
Hi Stefan,

such mal nach directx.cpl. findet man so ziemlich überall aufm Netz . . . ;)

ta,
-Sascha.rb

StefanV
2002-07-03, 23:30:57
Originally posted by nggalai
Hi Stefan,

such mal nach directx.cpl. findet man so ziemlich überall aufm Netz . . . ;)

ta,
-Sascha.rb

Ah, THX.

Jetzt weiß ich, was Demirug meinte, dieses Panel hatte ich selbst irgendwann mal drauf.

Hatte aber irgendwie keinen nutzen für mich, außer, daß ich es damit wohl irgendwie hinbekommen hab, daß mir XWA eine FPS Anzeige Ausspuckt...

Kennung Eins
2002-07-05, 10:04:01
Originally posted by Unregistered Man sollte den Rivatuner Heinz mal nach Fakten fragen denn die fehlen bisher.Was für ein SINNVOLLER Kommentar!

Die Fakten liegen auf dem Tisch, m.a.W. sind erkennbar im Treiber.
Disassemblier den mal, und du wirst es selber sehen. Was denkst du, wie Unwinder das rausgerkiegt hat?

Doch die Mehrheit der Computeruser ist einfach zu dumm, bzw. ihnen Fehlt der Wille und das Wissen, WIE man mal SELBER so etwas nachvollziehen kann.

Und wenn du Unwinder als "Heinz" bezeichnest, was ist dann John Carmack für dich? "Klaus"?

(del676)
2002-07-06, 17:21:40
Meine Meinung (korrigiert mich wenn ich mich irre)

ich habe vor kurzem meine TI500 geschrottet, da hab ich ernsthaft überlegt eine Radeon zu kaufen, aus Bildqualitätsgründen - bin dann aber, nach etlichen Reviews/Tests/Screenshots zu dem Schluss gekommen das ich lieber eine GF4 kaufe weil das A.F. wesentlich besser aussieht

denn:

die ATI filtert ja nur "gerade" Flächen und keine schiefen (nur 90° Flächen)

das fiel mit bei vielen Screenshots derart aus, das ich lieber eine GF4 filterung habe, die zwar in der Enfernung verwischt, und relativ langsamer ist, aber das manche Flächen einfach ned gfiltert werden is viel schlimmer (meine Ansicht)

und, ich spiele zur zeit Nascar 2002 Seasons, in 1600,32bit 2x FSAA, und 4x A.F. - und siehe da, 4x A.F. sieht noch immer besser aus als kein A.F. :D

solange die Performance ned zu stark einbricht, und die Bildqualität steigt - warum soll ich mich KÜNSTLICH aufregen? (uuu er filtert nur die Basistextur - WEM FÄLLTS AUF :D ???? )

eigentlich habe ich ja auf Matrox gehofft, aber die hat in Performance etwas enttäuscht, der Hauptgrund warum ich aber keine Matrox gelauft habe, die Bildqualität ist in Vergleich zu einer nVidia um nix besser, manchmal sogar arg schlechter (nicht geglättete Kanten und schlechtes AF.)

und laut fast allen Reviews ist die Signalqualität (gemessen mit Oszis) auch um nix besser als die der MARKEN GF4s, und schon gar ned mithalten kann sie mit Radeons oder der G550


also mein Resümee - nVidia optimiert Performance damit man eine Verbesserung des Bildes erreicht - UND das ganze soll spielbar sein - was is daran falsch? (wäre es besser voll auf Bildqualität zu gehen und man kann nr mehr 800x600 spielen weils so lahm ist???)

PS: warum streitet ihr euch eigentlich?

StefanV
2002-08-11, 20:16:11
Originally posted by Stefan Payne

Aach ja, MGA hat den VSync mal deaktivert gehabt, als alle noch mit VSync gebencht haben :lol:

Falls es immer noch jemanden interessiert:

Das war Virge gegen Matrox Mystique.

Bei der Mystique war VSync deaktiviert, weshalb MGA von einigen 'Revolverblättern' gleich des Cheatens bezichtigt wurde...