PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : neue Treiber lassen wieder volle Tri-AF zu?


Seiten : [1] 2

Gast
2004-06-08, 18:25:00
laut CB sind neue Treiber für beide neuen ATI und Nvidia wieder möglich,Full-Tri-AF zuzuschalten!Was haltet ihr davon?
Vorallem wie ist es zu diesem Sinneswandel beiden seites gekommen?

Der "Hawk"

Gast
2004-06-08, 18:28:40
Nene, bei NV ist der Schalter eingebaut (sogar für die FX Serie), bei Ati musst du per Tweak diese Einstellungen vornehmen, damit hat sich da gar nix verändert!

Gast
2004-06-08, 18:41:56
Ja,das ist richtig,aber bei den ATIs kann man das über Registry-Tweak machen,dann klappt es auch bei denen,aber ist natürlich bischen unkomfortabel,als bei Nvdia.Aber eben habe ich es gesehen,die Atis brechen schon richtig ein,auch wenn es trotzdem spielbar bleibt.

Der "Hawk"

seahawk
2004-06-08, 18:56:27
Nana, wenn andere Leute rausfinden wie man die Optimierungen im ATI Treiber abstellt, dann würde ich nicht sagen, dass ATI einen Treiber bereitstellt, der dem User die Wahl läst.

Gast
2004-06-08, 19:02:15
Deswegen meinte ich auch "unbequem",aber zumindest möglich.Das musste doch von ATI geplant worden sein,sonst wäre doch bei anderen Treibern schon drauf gekommen oder?
Vielleicht ist es auch nur ein Insider!Also irgedwie muss doch ein Stein ins rollen gekommen sein,ist ein guter Anfang,auf jedenfall ausbaufähig.ATI hat gesehen,bevor dei Community negativ auf diese Optimierung ist,haben sie halt reagiert,bevor es schlimmer wird.My 2 Cents

Der "Hawk"

Quasar
2004-06-08, 19:17:08
ATi selbst sagte heute auf Nachfrage, daß sie die Reg-Einträge erst prüfen müssten - man könne so adhoc nicht sagen, ob es die korrekten sind und deren Wirkung korrekt erkannt wurde.

Ich/wir gehen jedoch stark davon aus.


BTW, wurde der Artikel geupdated:
AF gibt's nur auf TS0 mit tri, dahinter wird's bilinear - wie bei ATi.
Scheint so, als wolle nV mit ATi ein bißchen Katz und Maus spielen und legt immer nur soviel Bildqualität auf, wie man auch bei der Konkurrenz bekommen kann.
Irgendwie passt das gut zu den Aussagen Alibrandis, daß man sich bezüglich der Texturfilter nicht genug gelobt fühlte in der letzten Runde - und nun darf's der Kunde ausbaden. :(

Gast
2004-06-08, 19:22:55
Verstehe ich das jetzt richtig,dass Nvidia ZUERST mit dieser Idee aufkam und ATI dann nachgezogen hat?Das heisst wohl immer noch warten,denn tri nur über Stage 1 reicht noch nicht aus,um volle Qualität zu haben.Und das es Ati prüfen muss,heisst nur,das man die richtigen Reg-Key gefunden hat,was man anhand der Performance sieht.
@Quasar
Wäre es möglich auch Benchmarks von der G6800 zu sehen,um zusehen,woe gross die Einbrüche sind?

Der "Hawk"

robbitop
2004-06-08, 19:24:15
könnten sich beide nicht mal treffen und einfach vereinbaren, die Optimierungen rauszunehmen?
Ist imo ein Stadioneffekt (in der Halbzeit stehen einige auf, um besser sehen zu können. Da dann letztendlich alle stehen, ists genauso wie im Sitzen, nur unbequemer).
Oder Microsoft müsste hier klare Richtlinien setzen, aber das kann man wohl vergessen.

Zum Kotzen...

Quasar
2004-06-08, 19:35:57
Original geschrieben von Gast
@Quasar
Wäre es möglich auch Benchmarks von der G6800 zu sehen,um zusehen,woe gross die Einbrüche sind?

Der "Hawk"

"Unsere" GF6800 befindet sich z.Zt. in Händen der deutschen Schneckenpost. Kann mit etwas Glück also nur noch Wochen dauern. :(

So kann ich nur Benches der 6800U anbieten, die ohne jede (bekannte) Optimierung sind: 45,28fps in UT2003-Pyramid 16x12x32, 4x/16x.

Wie schon in den CB-News angemerkt: Oftmals bleibt die XT "PE" auch ohne Optimierung schneller, der Abstand ist nur nicht so deutlich.
Eventuell ist das der Grund für ATi gewesen, die Optimierungen einzubauen: Wenn sich beide Karten nicht viel nehmen, kauft man eher die, die mehr und besser Technik enthält. Wenn der Vorsprung dagegen "fühlbar" ist, dann geht der erste Griff bei vielen zur reinen Speed.

Nur eine Möglichkeit.

DanMan
2004-06-08, 19:38:37
Original geschrieben von Quasar
BTW, wurde der Artikel geupdated:
AF gibt's nur auf TS0 mit tri, dahinter wird's bilinear - wie bei ATi.
Was ich für skandalös halte. Das Hauptaugenmerk liegt wohl doch auf den DAUs.

Dass zuvor auf den Stages >0 immer nur 2x Tri-AF gab hielt ich noch für problemlos. Aber jetzt auf bilinear umzusteigen... nicht mit mir.

Ich glaube ich lass diese Generation auch aus, wie schon die davor, und verpass meiner alten GF4 ne Stickstoffkühlung. :( ;D

Quasar
2004-06-08, 19:40:47
Original geschrieben von Gast
Verstehe ich das jetzt richtig,dass Nvidia ZUERST mit dieser Idee aufkam und ATI dann nachgezogen hat?

Das weiß ich nicht. Ich denke, daß nV sich von DX9 und ihrer guten Filterung ein wenig mehr versprachen, als es dann schlußendlich eintrat.
Dazu lobten die Reviewer zwar ATis AA verdientermaßen über den grünen Klee, aber kaum einer erwähnte nVs bessere Filterung - "sieht man im Spiel eh nicht, hieß es da".

Da man nunmal mit der Hardware leben muss, die man hat, versuchte man eben, per Treiber mehr aus der Choose herauszuholen, was leider eine Scheiss-Idee von nV war (meine Meinung).

Image im Arsch und Performance in DX9-Games immer noch ziemlich hintendran.

Gast
2004-06-08, 19:41:48
Original geschrieben von Quasar
"Unsere" GF6800 befindet sich z.Zt. in Händen der deutschen Schneckenpost. Kann mit etwas Glück also nur noch Wochen dauern. :(

So kann ich nur Benches der 6800U anbieten, die ohne jede (bekannte) Optimierung sind: 45,28fps in UT2003-Pyramid 16x12x32, 4x/16x.

Wie schon in den CB-News angemerkt: Oftmals bleibt die XT "PE" auch ohne Optimierung schneller, der Abstand ist nur nicht so deutlich.
Eventuell ist das der Grund für ATi gewesen, die Optimierungen einzubauen: Wenn sich beide Karten nicht viel nehmen, kauft man eher die, die mehr und besser Technik enthält. Wenn der Vorsprung dagegen "fühlbar" ist, dann geht der erste Griff bei vielen zur reinen Speed.

Nur eine Möglichkeit.

Dann mal kurz eine weitere Frage an dich:

Bezieht sich das Updates des Artikels nur auf die FX-Reihe oder beinhaltet der "Tri nur auf der ersten Stage" auch die nv40??

(anders gefragt...gibts auf der nv40 FullTRI auf allen Stages mit den neuen Treibern???)

ShadowXX
2004-06-08, 19:43:13
Original geschrieben von Gast
Dann mal kurz eine weitere Frage an dich:

Bezieht sich das Updates des Artikels nur auf die FX-Reihe oder beinhaltet der "Tri nur auf der ersten Stage" auch die nv40??

(anders gefragt...gibts auf der nv40 FullTRI auf allen Stages mit den neuen Treibern???)

Das war ich...Firefox hatte meinen Keks gegessen...

reunion
2004-06-08, 19:43:29
Original geschrieben von Quasar
BTW, wurde der Artikel geupdated:
AF gibt's nur auf TS0 mit tri, dahinter wird's bilinear - wie bei ATi.
Scheint so, als wolle nV mit ATi ein bißchen Katz und Maus spielen und legt immer nur soviel Bildqualität auf, wie man auch bei der Konkurrenz bekommen kann.
Irgendwie passt das gut zu den Aussagen Alibrandis, daß man sich bezüglich der Texturfilter nicht genug gelobt fühlte in der letzten Runde - und nun darf's der Kunde ausbaden. :(


Das ist ja echt zum kotzen, schön langsam verliert man den überblick welcher treiber welche Cheats beinhaltet :madman:

Fadl
2004-06-08, 19:44:43
Original geschrieben von Gast
Dann mal kurz eine weitere Frage an dich:

Bezieht sich das Updates des Artikels nur auf die FX-Reihe oder beinhaltet der "Tri nur auf der ersten Stage" auch die nv40??

(anders gefragt...gibts auf der nv40 FullTRI auf allen Stages mit den neuen Treibern???)

Wird wohl wie bei ATI sein. Ohne Zusatz Tool scheint da erstmal nichts zu gehen.

Gast
2004-06-08, 19:51:13
Original geschrieben von Quasar
Das weiß ich nicht. Ich denke, daß nV sich von DX9 und ihrer guten Filterung ein wenig mehr versprachen, als es dann schlußendlich eintrat.
Dazu lobten die Reviewer zwar ATis AA verdientermaßen über den grünen Klee, aber kaum einer erwähnte nVs bessere Filterung - "sieht man im Spiel eh nicht, hieß es da".

Da man nunmal mit der Hardware leben muss, die man hat, versuchte man eben, per Treiber mehr aus der Choose herauszuholen, was leider eine Scheiss-Idee von nV war (meine Meinung).

Image im Arsch und Performance in DX9-Games immer noch ziemlich hintendran.
Ja,da muss man den Mann recht geben.In früheren Reviews war fat immer die Rede von der besseren FSAA der Radeon zu hören und nicht die AF der NVIDIA,was bedauerlich zu der jetzigen Situation beigesteuert hat.Als die Karten der ATI seit 2 Jahren schon eh gute AA bot,wurde mehr und mehr auf AF geachtet.Tja,meiner Meinung nach hätte NVDIA schon damals die FSAA der Geforce3 verbessern müssen,dann ären sie vielleicht nicht so ins Hintertreffen geraten.Das haben sie verschlafen,genauso wie ATI seit 2 Jahren dieselbe Architektur aussaugt und immer noch kein PS3.0 anbietet!
Der "Hawk"

Quasar
2004-06-08, 20:12:26
Original geschrieben von ShadowXX
Das war ich...Firefox hatte meinen Keks gegessen...

Keine Ahnung, wie gesagt, ist unsere NV40 momentan gut verpackt in einem gelben Kleintransporte unterwegs durch Deutschland. ;(

Dafür spräche allerdings, daß mit den Launch-Treibern diese heute Feature genannte Selbstverständlichkeit verfügbar war. Dagegen die teils deutlichen Performancesprünge in Reviews, die den 61.1/2 Treiber nutzten.

LovesuckZ
2004-06-08, 20:39:52
Original geschrieben von Gast
(anders gefragt...gibts auf der nv40 FullTRI auf allen Stages mit den neuen Treibern???)

Wenn man es der Anwendung übergibt, wahrscheinlich...

Borsti hat mal geschrieben, dass er bei seinen Tests immer die "Default" Einstellungen verwende, weil der Groeßteil der User diese nicht veraendern würden.
Er beschreibt genau die Situation, in welcher wir uns befinden: Immer weniger Qualitaet in den Defaultsettings und dazu keine Moeglichkeit die bestmögliche über das CP einzustellen, um die Vergleiche zu gewinnen. Und da 95% aller Tester sowie Kaeufer dies akzeptieren, denke ich, werden wir wohl bald noch weitere Optimierungens sehen...

LovesuckZ
2004-06-08, 20:46:24
Original geschrieben von Quasar
ATi selbst sagte heute auf Nachfrage, daß sie die Reg-Einträge erst prüfen müssten - man könne so adhoc nicht sagen, ob es die korrekten sind und deren Wirkung korrekt erkannt wurde.


Hoffentlich dauert das nicht so lange wie beim Patentieren ihrer "künstlichen Intelligenz"...

resonatorman
2004-06-08, 21:16:01
Original geschrieben von DanMan
Ich glaube ich lass diese Generation auch aus, wie schon die davor, und verpass meiner alten GF4 ne Stickstoffkühlung. :( ;D
Super Idee, das hätte ich auch machen sollen!

Gil-galad
2004-06-08, 21:34:58
Original geschrieben von seahawk
Nana, wenn andere Leute rausfinden wie man die Optimierungen im ATI Treiber abstellt, dann würde ich nicht sagen, dass ATI einen Treiber bereitstellt, der dem User die Wahl läst.

Ob ATi wieder bessere Bildqualität liefern wird (auch für RV/R3xx Karten), entscheidet sich bald ;)

Quasar
2004-06-08, 21:36:29
Also heute war angeblich noch nichts entschieden.... :|

Piffan
2004-06-08, 22:32:02
Einen Weg gäbe es doch, die Großen wieder zur Vernunft zu bringen: Es müssten namhafte Tester bei Benches konsequent auf AF verzichten. Würde höchstwahrscheinlich zu einem Kopf- an Kopfrennen führen und es wäre keine Grund mehr, diese beschissenen "Optimierungen" zu pflegen....

Wäre vielleicht auch in Demirurgs Sinn, der mal sagte, dass bei Vergleichen oberhalb einer gewissen FPS- Zahl der Gleichstand ausgerufen werden sollte......

Habe den Thread "Grafikkarten- Manifest" nicht mehr verfolgt....da hatte ich sowas ja angeregt und bekam sofort was aufs Maul ;)

Wenn allerdings selbst normales Tri schon optimiert wird, dann stellt man eben Bi ein. :D

Gil-galad
2004-06-08, 22:35:31
Original geschrieben von Quasar
Also heute war angeblich noch nichts entschieden.... :|

Ich hab ja auch geschrieben: "... entscheidet sich bald."

aths
2004-06-08, 22:54:32
Original geschrieben von Piffan
Einen Weg gäbe es doch, die Großen wieder zur Vernunft zu bringen: Es müssten namhafte Tester bei Benches konsequent auf AF verzichten.Dann würde AF vielleicht gar nicht mehr angeboten: "Will/braucht ja keiner".

Piffan
2004-06-08, 22:57:56
Original geschrieben von aths
Dann würde AF vielleicht gar nicht mehr angeboten: "Will/braucht ja keiner".

Das sagst jetzt nur du. Ich würde sagen, dass die so verständigen Tester, die meinen Rat befolgen, garantiert noch was zur maximalen Bildqualität sagen. :stolz:

LovesuckZ
2004-06-08, 23:01:06
Original geschrieben von Piffan
Wenn allerdings selbst normales Tri schon optimiert wird, dann stellt man eben Bi ein. :D

Wenn es so weitergeht, brauch man es bald nicht mehr einstellen...
Beispiel: R420 Default - AF.
Und da es vielen egal ist, warum nicht gleich bei "Quality" "bilinear" liefern? "Performance" kann ja dann "point sampling" sein.

Fadl
2004-06-08, 23:01:18
Original geschrieben von Piffan
Das sagst jetzt nur du. Ich würde sagen, dass die so verständigen Tester, die meinen Rat befolgen, garantiert noch was zur maximalen Bildqualität sagen. :stolz:

Deine Meinung im Manifest von Demirug nur direkt vergleichbares zu benchen war damals schon sehr unsinnig.
Mit deinem neuen Vorschlag ohne AF zu testen gehst du sogar noch einen Schritt weiter in diese Richtung ;)

Achja, warum dann nicht gleich in 640x480 testen. Frames gibt es dann ja genug. Kein Hersteller verliert und alle sind zufrieden...wäre das ok für dich :D

Piffan
2004-06-08, 23:33:37
Original geschrieben von Fadl
Deine Meinung im Manifest von Demirug nur direkt vergleichbares zu benchen war damals schon sehr unsinnig.
Mit deinem neuen Vorschlag ohne AF zu testen gehst du sogar noch einen Schritt weiter in diese Richtung ;)

Achja, warum dann nicht gleich in 640x480 testen. Frames gibt es dann ja genug. Kein Hersteller verliert und alle sind zufrieden...wäre das ok für dich :D

Wer hier Unsinn schreibt, kann ich Dir sagen. Willste es nicht kapieren oder geht es nicht?

Wenn ich die "Leistung" von Grakas vergleiche, MUSS ich nun mal alle mit dem selben Handycap belegen. Wenn es ginge, würde ich ja auch volle Kanne die Auflösung erhöhen UND FSAA bis mas UND AF bis max. Aber es geht nun mal nicht, ergo kann ich nur dort die Werte bis zum Anschlag raufsetzen, wo die Modi gleiche Lasten erzeugen....

Was allerdings niemanden daran hindert, die Güte und den Eindruck beim Zocken wiederzugeben....

Mal ne Frage: Gibt es dich wirklich oder bist Du ein Bot? Du springst wie ein konditionierten Kaninchen wieder auf meine These und tust sie wieder als Unsinn ab. Ist das Diskussionskultur oder Totschlag- Rhetorik?

Und bitte mal den Kontext sehen, ich erwähnte meine törichte Idee lediglich noch mal, weil mir die Mauschelei bei den Filtern wirklich auf die Nerven geht und ich gab eine Idee kund, wie man den "Optimierern" das Handwerk legen würde, indem man die Mogel- Modi einfach auslässt. Wenn das jetzt zu kompliziert ist, frage ruhig noch mal nach.

Fadl
2004-06-08, 23:51:30
Ich denke jeder stört sich an den Optimierungen.
Aber wenn man jetzt z.B. ohne AF und AA(denn auch dort gibt es Unterschiede) testet, ja was bringt das denn den Endkunden? Denn man kauft sich so eine Karte um MIT AF und AA zu testen und zwar wenn möglich in den höchsten Settings und Maximaler Auflösung.
Wenn so etwas gar nicht erst von den Medien getestet wird dann brauchen es die Hersteller auch nicht anbieten. Vergleicht ja eh keiner.
Darüber hinaus sind die heutigen Karten einfach viel zu schnell um sie ohne AF zu testen. Das ergibt ja meistens werte von weit über 100fps auch in hohen Auflösungen. Da limitiert ja dann nur noch die CPU.
Was hättest du dann davon?
Die Bildqualität sollte in Zukunft mehr in den Vordergrund gestellt werden. Darüber sind wir uns wohl alle einig.
Aber das geht mit deinem Vorschlag nur gleiche Lasten zu vergleichen halt nicht. Da werden dann ja auch neue Entwicklungen seitens der Hersteller keine Bedeutung mehr finden. Optimierungen ohne Qualitätsverlust wie von Hersteller 1 entwickelt würde keinen Sinn mehr für sie machen denn es wird ja eh nicht getestet da der Hersteller 2 diese Optimierung nicht hat und dadurch kein gerechter Vergleich stattfindet... so schlägst du das doch vor!
Demnach sollte man wohl auch keine Autos mehr miteinander vergleichen oder? Denn dort wird auch sehr vieles auf unterschiedliche Art und Weise erreicht. Fahren tun sie aber alle.

Gast
2004-06-09, 00:06:17
Bencht mit VSync, ist realitätsnäher, wer spielt denn ohne ? Damit wird ja weiterhin die Leistung der Grafikkarten ausgewiesen, nur capt die Bildwiederholrate die max FPS

Piffan
2004-06-09, 00:10:58
Original geschrieben von Fadl
Ich denke jeder stört sich an den Optimierungen.
Aber wenn man jetzt z.B. ohne AF und AA(denn auch dort gibt es Unterschiede) testet, ja was bringt das denn den Endkunden? Denn man kauft sich so eine Karte um MIT AF und AA zu testen und zwar wenn möglich in den höchsten Settings und Maximaler Auflösung.
Wenn so etwas gar nicht erst von den Medien getestet wird dann brauchen es die Hersteller auch nicht anbieten. Vergleicht ja eh keiner.
Darüber hinaus sind die heutigen Karten einfach viel zu schnell um sie ohne AF zu testen. Das ergibt ja meistens werte von weit über 100fps auch in hohen Auflösungen. Da limitiert ja dann nur noch die CPU.
Was hättest du dann davon?
Die Bildqualität sollte in Zukunft mehr in den Vordergrund gestellt werden. Darüber sind wir uns wohl alle einig.
Aber das geht mit deinem Vorschlag nur gleiche Lasten zu vergleichen halt nicht. Da werden dann ja auch neue Entwicklungen seitens der Hersteller keine Bedeutung mehr finden. Optimierungen ohne Qualitätsverlust wie von Hersteller 1 entwickelt würde keinen Sinn mehr für sie machen denn es wird ja eh nicht getestet da der Hersteller 2 diese Optimierung nicht hat und dadurch kein gerechter Vergleich stattfindet... so schlägst du das doch vor!
Demnach sollte man wohl auch keine Autos mehr miteinander vergleichen oder? Denn dort wird auch sehr vieles auf unterschiedliche Art und Weise erreicht. Fahren tun sie aber alle.

Qualität hat immer ihren Preis. Darum halte ich es mal für ein Märchen, dass eine Karte "schnelleres" AF bietet als eine andere. Vielmehr sind die Entwickler so durchtrieben, schlechteres AF als vollwertiges AF zu verkaufen. Und lange Zeit geht der Schmuh ja gut. Selbst wenn nach einiger Zeit der Markteinführung der Schwindel enttarnt wird, ist der Marketingbonus der "schnelleren" Karte noch im Kopf des DAUS; schließlich hat der ja in unzähligen Vergleichen sehen können (Achtung, Balken!), welche Karte eindeutig die andere versägt.....

Also sträube Dich nicht künstlich, ich habe ja nie gesagt, dass bei Reviews die Qualität außen vor bleiben soll. Sie muss eben eine eigene Rubrik bekommen mit einem Hinweis auf die Performance- Verluste in Relation zur Rohleistung. Der Vergleich mit dem Konkurrenten muss wegen fehlender gemeinsamer Basis eben sehr vorsichtig getätigt werden. Also wäre wieder mal der "Blindtest" an der Reihe: Der Proband weiß nicht, welche Hardware er gerade zum Daddeln hat, gibt aber seine subjektiven Eindrücke bezüglich der Bildgüte wieder.

Was eben grundfalsch ist und die Optimierungsspirale weiter nach oben treibt, ist die direkte Gegenüberstellung der Karten mit Balkendiagrammen bei nominell gleichen Modi. Nominell ist eben absolut ungleich......und darum hat der Schmuh in Benches nichts zu suchen.

Klar ist meine Meinung nicht das Maß der Dinge, aber immerhin habe ich von Dir eben nicht wieder was aufs Maul bekommen....:D

ShadowXX
2004-06-09, 07:34:59
Original geschrieben von Fadl
Ich denke jeder stört sich an den Optimierungen.
Aber wenn man jetzt z.B. ohne AF und AA(denn auch dort gibt es Unterschiede) testet, ja was bringt das denn den Endkunden? Denn man kauft sich so eine Karte um MIT AF und AA zu testen und zwar wenn möglich in den höchsten Settings und Maximaler Auflösung.
Wenn so etwas gar nicht erst von den Medien getestet wird dann brauchen es die Hersteller auch nicht anbieten. Vergleicht ja eh keiner.
Darüber hinaus sind die heutigen Karten einfach viel zu schnell um sie ohne AF zu testen. Das ergibt ja meistens werte von weit über 100fps auch in hohen Auflösungen. Da limitiert ja dann nur noch die CPU.
Was hättest du dann davon?
Die Bildqualität sollte in Zukunft mehr in den Vordergrund gestellt werden. Darüber sind wir uns wohl alle einig.
Aber das geht mit deinem Vorschlag nur gleiche Lasten zu vergleichen halt nicht. Da werden dann ja auch neue Entwicklungen seitens der Hersteller keine Bedeutung mehr finden. Optimierungen ohne Qualitätsverlust wie von Hersteller 1 entwickelt würde keinen Sinn mehr für sie machen denn es wird ja eh nicht getestet da der Hersteller 2 diese Optimierung nicht hat und dadurch kein gerechter Vergleich stattfindet... so schlägst du das doch vor!
Demnach sollte man wohl auch keine Autos mehr miteinander vergleichen oder? Denn dort wird auch sehr vieles auf unterschiedliche Art und Weise erreicht. Fahren tun sie aber alle.

Ich habe allerdings noch nie Autovergleiche mit Balken gesehen....

Klar werden in solchen Tests auch die PS(bzw. KW) mit aufgeführt...der vergleich findet aber meist über andere Qualitäten statt..(Verbrauch, Ausstattung usw...).

Vielleicht sollten sich auch die Tester von GraKas auf sowas zurückbesinnen und nicht mehr die Balkenlängenvergleiche in den Vordergrund hiefen...

Mann kann die Benchmarkwerte ja noch erwähnen bzw. auflisten...aber man muss dabei ja nicht mehr die Karten verschiedenen IHVs in das gleiche Diagramm packen...

Jeder IHV bekommt seine eigene Tabelle, wo die Karten des jeweiligen IHVs untereinander verglichen werden...

Der Rest ist Fliesstext, der sich mit Qualität, Aussatattung an Features usw. auseinandersetzt...Benchmarkwerte werden nur noch herausgehoben, wenn es extreme aussetzer gibt...

Aber dann kann ja keine mehr schreien...meine Karte hat in Test x 0.5 Frames mehr als deine...(was auf den Balken dann sehr geren überzogen dargestellt wird...).

Vielleicht sollte man die Skalen der Balkendiagramme so wählen, das 5 FPS nicht mehr aussehen wie 20%....

Gast
2004-06-09, 08:16:24
Original geschrieben von Quasar
"Unsere" GF6800 befindet sich z.Zt. in Händen der deutschen Schneckenpost. Kann mit etwas Glück also nur noch Wochen dauern. :(

So kann ich nur Benches der 6800U anbieten, die ohne jede (bekannte) Optimierung sind: 45,28fps in UT2003-Pyramid 16x12x32, 4x/16x.

Wie schon in den CB-News angemerkt: Oftmals bleibt die XT "PE" auch ohne Optimierung schneller, der Abstand ist nur nicht so deutlich.
Eventuell ist das der Grund für ATi gewesen, die Optimierungen einzubauen: Wenn sich beide Karten nicht viel nehmen, kauft man eher die, die mehr und besser Technik enthält. Wenn der Vorsprung dagegen "fühlbar" ist, dann geht der erste Griff bei vielen zur reinen Speed.

Nur eine Möglichkeit.

Völliges NV-Boy -> Denken. Die Performance ist nicht alles !

Viel wichtiger ist die Ergonomie, siehe Stromverbqauch und Hitze. Da liegt NV meilenweit von der X800 entfernt, bei gleichem Speed.

ShadowXX
2004-06-09, 08:32:05
Original geschrieben von Gast
Völliges NV-Boy -> Denken. Die Performance ist nicht alles !

Viel wichtiger ist die Ergonomie, siehe Stromverbqauch und Hitze. Da liegt NV meilenweit von der X800 entfernt, bei gleichem Speed.

Wenn du so denkst, ist das gut....die meisten definieren Ihre Karten allerdings wirklich nur über den Speed...(egal welcher IHV bevorzugt wird..)

Da musst du nur mal ins Benchmarkforum schauen bzw. wie sich nach Tests um 2 bis 3 FPS geprügelt wird...

q@w
2004-06-09, 08:51:08
Original geschrieben von Gast
Völliges NV-Boy -> Denken. Die Performance ist nicht alles !

Viel wichtiger ist die Ergonomie, siehe Stromverbqauch und Hitze. Da liegt NV meilenweit von der X800 entfernt, bei gleichem Speed.

Wenn ich dann, ebenfalls gedeckt vom Schutzmantel des Gast-Daseins, mal mit gleicher Keule entgegenhalten darf:

- Wieso dann winkelabhängigs AF (zuerst bei ATi, jetzt auch bei nV :kotz: )
- Wieso der Verzicht auf FP32 zumindest zur Texturaddressierung?
- Wieso undokumentiertes, nicht per Treiber abschaltbares Brilinear (erst bei nV, jetzt bei ATi :kotz: )
- Wieso sinnlos hochgetaktete "Schwanzlängen"-Editionen ("XT-Platinum" & "Ultra-Extreme" my ass!)

Um noch einen Schritt weiterzugehen:
Wieso überhaupt andere Karten, als solche mit S3 Delta Chrome, der, wie es sich momentan darstellt, ein Musterbeispiel an Ergonomie ist?

;Q

mrdigital
2004-06-09, 09:42:48
Original geschrieben von ShadowXX
...
Vielleicht sollte man die Skalen der Balkendiagramme so wählen, das 5 FPS nicht mehr aussehen wie 20%....
YA und das auf einem "FPS-Niveau" von 200Fps...

LovesuckZ
2004-06-09, 09:53:08
Original geschrieben von q@w
- Wieso undokumentiertes, nicht per Treiber abschaltbares Brilinear (erst bei nV, jetzt bei ATi :kotz: )


Nut UT2003 - ja.
Insgesamt - nein.

seahawk
2004-06-09, 10:13:13
Ich denke man sollte von den Balken weg.

Mir schwebt mehr eine Unterteilung in uneingeschränkt spielbar, spielbar, eingeschränkt spielbar und macht kenen Spaß mehr vor.

Mehr Benchmarks braucht man nicht.

Das benchgt man dann ohne AA+AF und einmal mit möglichst vergleichbaren Settings. Wäre für mich 4xAA+8XAF bei aktivierten AF Optimierungen.

Danach ist es Aufgabe des Testers BQ-Verluste aufzulegen.

Gesamtwertung sollte so aussehen : (Benotung von 1-6)

Leistung : 40
Bildqualität : 30%
Lautstärke, Ergonomie : 20%
Ausstattung : 10%

Gesamtnote : X,XX

(ich finde die PCGH ist da schon sehr nahe dran)

Tjell
2004-06-09, 10:55:53
Original geschrieben von seahawk
Ich denke man sollte von den Balken weg.

Mir schwebt mehr eine Unterteilung in uneingeschränkt spielbar, spielbar, eingeschränkt spielbar und macht kenen Spaß mehr vor.

Mehr Benchmarks braucht man nicht.

Das benchgt man dann ohne AA+AF und einmal mit möglichst vergleichbaren Settings. Wäre für mich 4xAA+8XAF bei aktivierten AF Optimierungen.

Danach ist es Aufgabe des Testers BQ-Verluste aufzulegen.

Gesamtwertung sollte so aussehen : (Benotung von 1-6)

Leistung : 40
Bildqualität : 30%
Lautstärke, Ergonomie : 20%
Ausstattung : 10%

Gesamtnote : X,XX

(ich finde die PCGH ist da schon sehr nahe dran)

Ich erwähne auch immer wieder gerne für viele Verweise die PCGH, man könnte mich fast für einen Werber von denen halten.

Aber bei denen wird das wirklich schon sehr anschaulich bewertet, da in deren Balkendiagrammen immer beim jeweiligen Spiel/Benchmark angegeben wird, bei welchen Frameraten welches subjektive Empfinden bezüglich flüssiger Darstellung vorliegt.

Da in deren Redaktion mehrere Tester am Werk sind, kann man von einer einigermaßen durchschnittlichen Widergabe dieses Empfindens ausgehen.

So oder ähnlich würde ich mir das auch von anderen Reviewern wünschen, denn so sieht man sehr schnell, ab welcher Framerate keine signifikante Steigerung bezüglich flüssiger Darstellung zu erwarten ist.

Fadl
2004-06-09, 11:15:47
Wenn ihr immer so von der PCGH schwärmt dann muss ich sie mir wohl mal wieder kaufen. Sind in der aktuellen Ausgabe die neuen Karten im Test?

MuLuNGuS
2004-06-09, 12:23:10
öhm jau,

sind mal wieder mit einem neuem test dabei..

q@w
2004-06-09, 12:50:42
Original geschrieben von LovesuckZ
Nut UT2003 - ja.
Insgesamt - nein.

Das war aber nur im 44.xx/45.2x so, gelle? Die 50er-Forcewarez hatten diesen Rotz AFAIK durchgängig, deswegen habe ich da dankend verzichtet.

;Q

Showtime
2004-06-09, 13:12:42
Original geschrieben von seahawk
Leistung : 40
Bildqualität : 30%
Lautstärke, Ergonomie : 20%
Ausstattung : 10%

Gesamtnote : X,XX


Das Problem dabei ist aber, dass der Punkt "Bildqualität" vielleicht bald schon keinen Zweck mehr erfüllt. Nämlich dann, wenn ATi und nVidia begriffen haben, dass ihre ganzen "Optimierungen" falsch sind, und sie wieder auf Trilinear und perfektes AF wechseln. Sobald das erreicht wäre, bekäme jede Karte die volle Wertung in der Bildqualitätsabteilung, und somit würde BQ wieder nebensächlich werden. "Auf die Bildqualität wollen wir nicht weiter eingehen, die ist natürlich perfekt, also widmen wir diesen Test ausschliesslich der Leistung". So könnte dann ein Ausschnitt aus einem Grafikkarten Review lauten.
Die Idee, Benchmarks (oder auch Spiele) auf max 100fps fest zu setzen, halte ich für gut, wenigstens wird der Balkenwahn etwas eingedämmt.

ravage
2004-06-09, 13:35:01
Ich habe mir vor kurzem auch eine kleine Review-Revolution ausgedacht.

Derzeit wird ja für beide Karten eine vergleichbare Grafikqualität festgelegt, und dann geschaut, wer diese am schnellsten darstellenkann.

Wieso dreht man den Spiess nicht einfach um?

Man nimmt ein Spiel, setzt eine bestimmte Framerate fest (z.B. 60 fps) und guckt, welche karte bei durchschnittlich 60 fps die beste Bildqualität liefert.

Das wäre doch sicher möglich, oder?

LovesuckZ
2004-06-09, 13:38:39
Original geschrieben von ravage
Man nimmt ein Spiel, setzt eine bestimmte Framerate fest (z.B. 60 fps) und guckt, welche karte bei durchschnittlich 60 fps die beste Bildqualität liefert.


Das ist nicht anderes als die jetzigen Vergleiche, nur in eine anderen Verpackung. Der Inhalt, bzw. die Aussage, ist die selbe.

ravage
2004-06-09, 13:43:18
Bei einem älteren Spiel würde dann aber die maximale Qualität entscheiden, und nicht der Speed. Somit wäre das Hauptaugenmerk IMO eher in richtung Qualität verschoben.

/EDIT: ich editier noch was dazu um es klarer zu machen

Also derzeit wird immer versucht eine möglichst gleiche Qualität bei beiden Herstellern zu finden. Die maximal mögliche Qualität wurde sicher auch erwähnt, aber der unkundige Leser hat davon anscheinend nicht viel mitbekommen, da er nur auf die hübschen Balken schielt.

Genau dies wurde von vN angeprangert.

Denn zu Geforce 4 zeiten bot ATi kein vergleichbares AF, auch die Geforce 5 war (vor der brilinearen Katastrophe) mit der AF Qualität IMO weit voraus.

Bei ATi war das AA besser, und vor allem Schneller. Und da ist der Punkt, weil es viel schneller war, wurde es wieder interessant für den normalen Leser (weil längere Balken)

Ich hoffe es wird langsam klar, worauf ich hinaus möchte. ;)

LovesuckZ
2004-06-09, 13:51:34
Original geschrieben von ravage
Bei einem älteren Spiel würde dann aber die maximale Qualität entscheiden, und nicht der Speed. Somit wäre das Hauptaugenmerk IMO eher in richtung Qualität verschoben.


Die "Optimierungen" sind trotzdem vorhanden.
Hardocp.com macht ein aehnliches Verfahren. Dort geht man nach dem Minimumframes.
Leider machen sie es nur halbherzig: Sie benchen mit den "defaultsettings", was ebenfalls eine Beeinflussung hat, und setzen die Karte in eine "untere" kategorie, wenn diese nur ein einziges mal unter diese Grenze geraten. Dabei ist es egal, wie der relative Anteil ist (was machen 10sec in einer 10min Timedemo aus?).

ravage
2004-06-09, 13:56:17
Original geschrieben von LovesuckZ
Die "Optimierungen" sind trotzdem vorhanden.
Hardocp.com macht ein aehnliches Verfahren. Dort geht man nach dem Minimumframes.
Leider machen sie es nur halbherzig: Sie benchen mit den "defaultsettings", was ebenfalls eine Beeinflussung hat, und setzen die Karte in eine "untere" kategorie, wenn diese nur ein einziges mal unter diese Grenze geraten. Dabei ist es egal, wie der relative Anteil ist (was machen 10sec in einer 10min Timedemo aus?).
Richtig, noch sind die Optimierungen vorhanden. Aber wenn auf einmal bei einem Älteren Spiel, bei dem die Geschwindigkeit eh egal ist, eine Geforce 4 oder eine Radeon 9700 vor der Geforce 6800 und der Radeon x800 steht, weil die Karten einfach eine bessere Bildqualität bieten, dann werden hoffentlich auch die Speedfreaks irgendwann wach.

Gast
2004-06-09, 15:22:05
Die Chiphersteller haben ein Problem:

Einen Grafikchip zu erbauen, ist zeit und kostenaufwendig. Ist eine Chipgeneration einfach nur schlecht (siehe Volari), dann kann dadaß das aus für die Firma bedeuten.
Schlecht auch im Sinne von Ergonomie (Preis Leistung Entwicklung usw.)

Zum anderen wird auch eine imenser Erwartungsdruck seitens der User. Ihr seht doch, daß nV und ATI immer gerne damit werben wie: "Doppelt so schnell wie unser alter Chip"
Daß ist ja quasie das Minimum das die Chipschmieden erfüllen MÜSSEN um Konkurrenzfähig zu bleiben.

Außerdem sieht es doch so aus, daß neue und immer Aufwendigere spiele auf den Markt kommen. Das Manko ist, daß die Next Gen Karten halt mind. doppelt so schnell laufen "müssen" damit man sie als next gen bezeichnet.

Auch Boardhersteller haben es schwer. Hercules ist tot, Terratec glaube ich auch, und Elsa wird WIEDER so schnell verschwinden wie sie erschienen sind. Gainwand setzt lächerliche 50+ MHZ bei ihren golden sampel drauf, damit sie ein verkaufsargument haben.

Doch wer braucht das ?
Die halbwärtszeit von Grafikkarten sind eh miserabel, nach spätestens zwei Jahren sollte man seine ex-highend graka mal austauschen, damit man wieder ordentlich zocken kann. Demnächst vielleicht jedes Jahr eine mind. neue Graka ?

Ich finde es einfach eine frechheit, daß einem Vorgegaukelt wird, daß man die beste Grafikkarte braucht. Ich z.B. zocke mit einer R9700 np, war damals schweine teuer, und ich werde sie sicherlich noch sehr sehr lange behalten (nächstes frühjahr!). Die Illusion, daß ich jedes Spiel auf maximalen Details in höchster Auflösung zocken muß! damit ich spaß habe, wird mir doch von den dauernden reviews gegeben. Also ehrlich, ob Charakterschatten an oder aus, bei nem gescheiten Spiel kommt es nicht auf die Effektekiste drauf an! (Bsp: SW KOTOR das beste daran: Endgeile Story, bugfrei, geile soundkulisse, schöne grafik die ich mit moderaten details auf TFT 1280*1024 genießen konnte).

Zum eigentlichen Topic:
Liebe Grafik enthusiasten/cineasten:
Es mag für euch vielleicht eine Erungenschaft sein, daß man volles Tri-AF demnächst vielleicht einstellen kann, aber dann lebt auch mit den konsequenzen (geschwindigkeitseinbußen). Ich finde es ehrlich gesagt bemerkenswert, daß sich hier soviele Leute dafür einsetzen auch "Cheats" zu entdecken, aber bleibt dann auch so nüchtern, und freut euch an den 80 statt 95 frames.

Von den Chipherstellern zu erwarten, daß bei den neusten Games Geschwindigkeit und Qualität auf höchsten maße für höchstes Geld immer zu kaufen sei, ist schwachsinn. Die Chiphersteller probieren ihr möglichstes, beides im hohen Maße herzustellen, aber ihr müsst euch im klaren sein, daß die Anforderungen der Software gegenüber der aktuellen hardware niemals erreicht werden kann.
Und genau deshalb werden auch z.B. Doom3 und HL2 zurückgehalten, bis eine passende und weitverbreitete Generation an Hardware auf dem Markt ist, die das Spielen der Titel in öchsten Auflösungen mit höchstmöglicher Geschwindigkeit gestattet.´

MfG der -> Gast

Tjell
2004-06-09, 15:28:05
Original geschrieben von Gast
Und genau deshalb werden auch z.B. Doom3 und HL2 zurückgehalten, bis eine passende und weitverbreitete Generation an Hardware auf dem Markt ist, die das Spielen der Titel in öchsten Auflösungen mit höchstmöglicher Geschwindigkeit gestattet.

MfG der -> Gast

Achso. Deshalb immer "When it's done." :idea:

MechWOLLIer
2004-06-09, 16:32:46
Also kann man aber per Atuner dem NV40 immer noch volles AF auf allen TS aufzwingen?
Wenn ja, weiß einer wieviel Performanceverlust es dabei gibt?
Gibt es neben dem Bi AF bei TS>0 eigentlich noch andere AF Optimierungen bei NV mit dem Treiber?

reunion
2004-06-09, 16:35:58
Original geschrieben von MechWOLLIer
Also kann man aber per Atuner dem NV40 immer noch volles AF auf allen TS aufzwingen?


Vermutlich ja...

Wenn ja, weiß einer wieviel Performanceverlust es dabei gibt?


Unterschiedlich, je nachdem woe stark die Füllrate limitiert zwischen 0 und ~30%.

Gibt es neben dem Bi AF bei TS>0 eigentlich noch andere AF Optimierungen bei NV mit dem Treiber?

Mit dem neuen treiber AFAIK nicht.

Showtime
2004-06-09, 16:40:59
Original geschrieben von Gast
Und genau deshalb werden auch z.B. Doom3 und HL2 zurückgehalten, bis eine passende und weitverbreitete Generation an Hardware auf dem Markt ist, die das Spielen der Titel in öchsten Auflösungen mit höchstmöglicher Geschwindigkeit gestattet.
MfG der -> Gast

Glaub ich nicht. Es gab schon immer so ein paar Spiele, die extreme Hardwareanforderungen hatten, die wurden auch nicht extra zurückgehalten. Outcast z.B. konnte beim Release wohl niemand flüssig spielen, das gleiche gilt für Q3 und FarCry. Die Entwickler geben teilweise auch gar kein Releasetermin an, weil sie selbst nicht genau wissen, wann sie fertig werden. id hat nie gesagt, wann genau Doom 3 erscheint, immer nur "When it's done". Daher kann man dabei ja schlecht von "zurückhalten" sprechen, wenn sie nicht einmal ein Release Datum bekannt geben.

Gast
2004-06-09, 17:28:21
Doom3 kommt im Sommer das ist offiziell

Tigerchen
2004-06-09, 17:38:37
Original geschrieben von Showtime
Das Problem dabei ist aber, dass der Punkt "Bildqualität" vielleicht bald schon keinen Zweck mehr erfüllt. Nämlich dann, wenn ATi und nVidia begriffen haben, dass ihre ganzen "Optimierungen" falsch sind, und sie wieder auf Trilinear und perfektes AF wechseln. Sobald das erreicht wäre, bekäme jede Karte die volle Wertung in der Bildqualitätsabteilung, und somit würde BQ wieder nebensächlich werden. "Auf die Bildqualität wollen wir nicht weiter eingehen, die ist natürlich perfekt, also widmen wir diesen Test ausschliesslich der Leistung". So könnte dann ein Ausschnitt aus einem Grafikkarten Review lauten.
Die Idee, Benchmarks (oder auch Spiele) auf max 100fps fest zu setzen, halte ich für gut, wenigstens wird der Balkenwahn etwas eingedämmt.

Perfektes AF wird es nicht mehr geben da es außerhalb interessierter Zirkel abgelehnt wird. Es frißt zuviel Leistung, auch wenn der eine oder andere das nicht wahr haben will.
Immer dran denken! Wer den Kunden vorm Regal verachtet und sich selbst und seine Wünsche zum Masstab aller Dinge macht wird an der Einkaufskasse scheitern.

Hakkerstiwwel
2004-06-09, 17:43:44
Original geschrieben von Gast
Die Chiphersteller haben ein Problem:


Und genau deshalb werden auch z.B. Doom3 und HL2 zurückgehalten, bis eine passende und weitverbreitete Generation an Hardware auf dem Markt ist, die das Spielen der Titel in öchsten Auflösungen mit höchstmöglicher Geschwindigkeit gestattet.´

MfG der -> Gast

Interessante These, ich glaube allerdings dass die Publisher eher am Profit interessiert sind, und die vorgestreckten Entwicklungskosten plus den zu erwarteten Gewinn lieber dieses als naechstes Jahr wieder hereinfahren (irgendwie muessen sie ja auch ihr Budget erfuellen und ihren Investoren erzaehlen warum kein Geld hereinkommt):zweifel:

Showtime
2004-06-09, 17:52:10
Original geschrieben von Tigerchen

Perfektes AF wird es nicht mehr geben da es außerhalb interessierter Zirkel abgelehnt wird. Es frißt zuviel Leistung, auch wenn der eine oder andere das nicht wahr haben will.
Immer dran denken! Wer den Kunden vorm Regal verachtet und sich selbst und seine Wünsche zum Masstab aller Dinge macht wird an der Einkaufskasse scheitern.


Man kann dem normalen Kunden ja weiterhin das optimierte AF andrehen, aber irgendwo tief in der Registry eine Option zum aktivieren des "echten" AF anbieten. Damit wäre sowohl dem Welcher-Balken-ist-länger-Kunden als auch dem Bildqualitätsfanatiker geholfen.

aths
2004-06-09, 17:56:02
Original geschrieben von Tigerchen
[COLOR="#000088"]
Perfektes AF wird es nicht mehr geben da es außerhalb interessierter Zirkel abgelehnt wird. Es frißt zuviel Leistung, Nein. "Perfektes" AF ist der beste Weg, Füllrate in Qualität umzusetzen. Wirklich perfektes AF wird es auf längere Sicht nur deshalb nicht geben, weil die AF-Logik zu komplex würde.

Showtime
2004-06-09, 17:58:22
Original geschrieben von aths
Wirklich perfektes AF wird es auf längere Sicht nur deshalb nicht geben, weil die AF-Logik zu komplex würde.

War vielleicht etwas unglücklich formuliert von meiner Seite. Ich meinte auch kein perfektes AF, sondern ein GF3/4 AF.

LovesuckZ
2004-06-09, 18:11:00
Laut Ante P (http://www.beyond3d.com/forum/viewtopic.php?p=303072#303072) sei es beim Treiber "61.41" möglich, die Stageoptimierung abzustellen. Ausserem stuende "High Quality" für die Deaktivierung der Filterungs- und AFoptimierung. Auf diesem Bild (http://www.nordichardware.se/UndaC/AA/desk_af.jpg) von ihm sieht die "Deaktivierung".

Tigerchen
2004-06-09, 18:13:22
Original geschrieben von Showtime
Man kann dem normalen Kunden ja weiterhin das optimierte AF andrehen, aber irgendwo tief in der Registry eine Option zum aktivieren des "echten" AF anbieten. Damit wäre sowohl dem Welcher-Balken-ist-länger-Kunden als auch dem Bildqualitätsfanatiker geholfen.

Nein.
Dazu mußt du die Hardware umbauen. Da ist nix zu machen. Die trilineare Optimierung ist wohl programmierbar. Da wirds wohl gehen.

Tigerchen
2004-06-09, 18:18:29
Original geschrieben von aths
Nein. "Perfektes" AF ist der beste Weg, Füllrate in Qualität umzusetzen. Wirklich perfektes AF wird es auf längere Sicht nur deshalb nicht geben, weil die AF-Logik zu komplex würde.

Du hast sicher erheblich mehr Durchblick bei technischen Sachverhalten als ich. Aber von der Kunst Eskimos Kühlschränke zu verkaufen hast du nicht den Schimmer einer Ahnung. :)

aths
2004-06-09, 18:30:54
Original geschrieben von Tigerchen
[COLOR="#000088"]
Du hast sicher erheblich mehr Durchblick bei technischen Sachverhalten als ich. Aber von der Kunst Eskimos Kühlschränke zu verkaufen hast du nicht den Schimmer einer Ahnung. :)Wozu auch? Ich will dem Leser Sachverhalte erläutern, und nicht (oft falsche) Verkaufsargumente in die Welt posaunen.

Gast
2004-06-09, 18:45:02
[SIZE=1]Original geschrieben von LovesuckZ
Borsti hat mal geschrieben, dass er bei seinen Tests immer die "Default" Einstellungen verwende, weil der Groeßteil der User diese nicht veraendern würden.

Jub. Mal angenommen, Hersteller B stellt 1024x768 dar, wenn man 1280x960 wählt. Hersteller A stellt die Auflösung korrekt da.
Da man davon ausgehen kann, dass 95% der Käufer eh nicht im Treiber rumfummeln, gewinnt nun Hersteller B den Test mit haushohem Vorsprung, da die Karte ja 1/3 schneller ist.
Und Hersteller A ist nur nicht in der Lage, gescheite Grafikchips zu bauen... ;)

Tigerchen
2004-06-10, 06:20:32
Original geschrieben von aths
Wozu auch? Ich will dem Leser Sachverhalte erläutern, und nicht (oft falsche) Verkaufsargumente in die Welt posaunen.


Das ist ja auch okay. Aber jemand der davon lebt eine Sache die er produziert, welche auch immer, zu verkaufen kann sich diese Sichtweise nicht erlauben.
Es war schon immer so daß man das Verhalten der Leute nicht durch Aufklärung verändern kann.
Rauchen tötet! Und trotzdem wird geraucht!
Fett sein tötet! Trotzdem explodieren die Zahlen der Fettleibigen!


Also sage ich dir nochmal. Es wird in Zukunft kein von dir propagiertes AF mehr geben. Du magst dies sehr bedauern. Für mich ist das kein großer Verlust. Aber egal wie wir dazu stehen ändern können wir das nicht.

Karlsson
2004-06-10, 06:48:10
:uhippie:

Quasar
2004-06-10, 08:35:26
Ich denke nicht, daß "wir" nichts ändern können. Es stimmt zwar, daß ich, aths, Tigerchen oder sonstwer wenig Aussicht auf Erfolg hätte, aber die IHVs haben "uns" (die sog. Community) zum Erreichen ihrer Ziele (Meinungsmultiplikatoren) in eine ziemlich mächtige Position gehievt.

Wenn die Community mehr oder weniger an einem Strang zöge und sagen würde "Es reicht!", denke ich, würden die IHVs schon auf Wünsche wie, einen Schalter zum Deaktivieren aller Optimierungen einzubauen, hören.

Wenn nun allerdings innherhalb der Community auch noch Streit und Zwistigkeit herrscht, weil "der eigene IHV" ja sowieso alles besser/schneller/schöner macht und man die "Optimierungen gar nicht im Spiel sieht", dann gebe ich Tigerchen recht, dann ist es relativ zwecklos.

Denn solange Meinungsmultiplikatoren auf das PR-Gewäsch hören, das ihnen vorschreibt, was man "nicht wahrnimmt" und was nicht, welche Features man jetzt noch nicht braucht und welche doch, wieviel Qualität dem User noch zumutbar ist, ab welch unterem Optimierungslevel das Spielerlebnis leidet und was als MinFPs noch erträglich ist und letztens, die Beweislast versucht umzukehren und sagt "Zeigt uns Stellen, wo die IQ leidet" in dem genauen Bewußtsein, daß dies nur in hochauflösenden Videos sichtbar gemacht werden kann, zu deren Erstellung nur die wenigsten ein geeignetes Tool nutzen können, so lange werden die IHVs damit durchkommen.

Tigerchen,
Ich habe diese Frage schon einmal gestellt und AFAIK keine Antwort bekommen, aber Gast hat dies ja wieder aufgegriffen:
Was würdest du sagen, wenn ein IHV deiner Wahl bei 1600x1200 nur 1580x1185 anböte?
Den Unterschied sieht man mit einiger Sicherheit nur, wenn man einen Bildbetrachter hat, der die Bildauflösung direkt angibt, nicht aber in-Game.

Erlaubte Optimierung (man sieht's ja nicht) oder Cheat?

Nächste Frage:
Angenommen, dieses Verfahren schleppt man ein Jährchen mit durch und keinem fällt's auf. Dann bringt man eine neue Generation, senkt die 16x12-Auflösung auf 1560x1170 und da die lieben Reviewer zur Qualitätsbetrachtung ja nur allzugern auf Screenshot-Ausschnitte in zigfacher Vergrößerung zurückgreifen, senkt man gleich noch den LOD auf -0,1 und erreicht damit eine minimal höhere Bildschärfe auf Kosten des Texturflimmerns.
Die lieben Reviewer lassen ihre Benchmarks laufen, bei denen man im Timedemo-Modus sowieso nichts erkennt, machen ihre bekannten Screenshots und lobpreisen die angeblich höhere Bildschärfe.

Erlaubte Optimierung (man sieht's ja nicht) oder Cheat?

Nächste Frage:
Angenommen, dieses Verfahren schleppt man ein Jährchen mit durch und keinem fällt's auf. Dann bringt man eine neue Generation, senkt die 16x12-Auflösung auf 1540x1155 und da die lieben Reviewer zur Qualitätsbetrachtung ja nur allzugern auf Screenshot-Ausschnitte in zigfacher Vergrößerung zurückgreifen, senkt man gleich noch den LOD auf -0,2 (im Vergleich zur letzten Generation also wieder -0,1) und erreicht damit eine minimal höhere Bildschärfe auf Kosten des Texturflimmerns.
Die lieben Reviewer lassen ihre Benchmarks laufen, bei denen man im Timedemo-Modus sowieso nichts erkennt, machen ihre bekannten Screenshots und lobpreisen die angeblich höhere Bildschärfe.

Erlaubte Optimierung (man sieht's ja nicht) oder Cheat?


Du siehst, worauf ich hinauswill, hoffe ich?

WANN ist für dich die Grenze erreicht - sehen kannst du sowas ja nicht, ist immer nur ein minimaler Unterschied zur Vorgängergeneration und wenn du jetzt sagst, soll doch jemand mit noch älteren Karten vergleichen, das hat einer im B3D-Forum getan. Eine MP2-Szene zwischen GF4 und X800. Das offensichtlich Rauschen selbst in der stillstehenden Textur wurde ihm mit Worten wie "Ist doch bekannt, daß die GF4 hier besser filtere, man müsse schon aktuelle Produkte vergleichen, die ja schließlich auch in derselben Leistungsklasse spielen.

to be continued....

Hakkerstiwwel
2004-06-10, 08:48:48
Irgendwie ist das Beispiel schlecht gewaehlt. Solange noch irgendwo Tri oder AF gefiltert wird, kann man das Ganze noch so drehen dass es Tri und AF ist.
1.550 x 1.162 als 1.600 x 1.200 zu verkaufen duerfte allerdings eher rechtlich bedenklich sein.
ps: TFT Benutzer wuerden einen grausigen Unterschied bemerken

Quasar
2004-06-10, 08:58:05
Original geschrieben von LovesuckZ
Laut Ante P (http://www.beyond3d.com/forum/viewtopic.php?p=303072#303072) sei es beim Treiber "61.41" möglich, die Stageoptimierung abzustellen. Ausserem stuende "High Quality" für die Deaktivierung der Filterungs- und AFoptimierung. Auf diesem Bild (http://www.nordichardware.se/UndaC/AA/desk_af.jpg) von ihm sieht die "Deaktivierung".

Für die GeForce-FX Reihe hilft auch das leider nicht. :down:

edit:
Bitte ausser Acht lassen, ich dachte unsinnigerweise, es ginge noch um den 61.23er

Quasar
2004-06-10, 09:00:33
Original geschrieben von Hakkerstiwwel
Irgendwie ist das Beispiel schlecht gewaehlt. Solange noch irgendwo Tri oder AF gefiltert wird, kann man das Ganze noch so drehen dass es Tri und AF ist.
1.550 x 1.162 als 1.600 x 1.200 zu verkaufen duerfte allerdings eher rechtlich bedenklich sein.
ps: TFT Benutzer wuerden einen grausigen Unterschied bemerken

Es geht mir nicht um rechtliche Bedenken, dazu bin ich zuwenig Jurist mit Herzblut, sondern darum, wie weit sich der Kunde das Heft aus der Hand nehmen lassen will, bis er mal sagt: "Stop, jetzt sehe ich einen Unterschied."

Wehret den Anfängen heißt es doch so schön, denn wenn die Lawine erstmal rollt, ist sie kaum noch zu stoppen.



Es ist, wie gesagt, ein Analogon, ein Beispiel, auch wenn dein TFT-Nutzer-Einwand sicherlich berechtigt ist. :)

Demirug
2004-06-10, 09:04:06
Original geschrieben von LovesuckZ
Laut Ante P (http://www.beyond3d.com/forum/viewtopic.php?p=303072#303072) sei es beim Treiber "61.41" möglich, die Stageoptimierung abzustellen. Ausserem stuende "High Quality" für die Deaktivierung der Filterungs- und AFoptimierung. Auf diesem Bild (http://www.nordichardware.se/UndaC/AA/desk_af.jpg) von ihm sieht die "Deaktivierung".

Man kann nicht abschalten was es nicht gibt.

Das ist keine Stageoptimierung sondern der (missglückte) Versuch aufgrund des Texturinhaltes die richtige Filtereinstellung zu wählen. Etwas was eigentlich die Designer eines Spiels machen sollten. Da es aber nicht immer richtig funktioniert sollte man es wirklich abschalten können. Bei den GF6 ist es ja allen anschein nach gar nicht aktiv. Wobei man das bei dem neuen Treiber natürlich wieder prüfen müsste.

Quasar
2004-06-10, 09:08:22
Original geschrieben von Demirug
Man kann nicht abschalten was es nicht gibt.

Das ist keine Stageoptimierung sondern der (missglückte) Versuch aufgrund des Texturinhaltes die richtige Filtereinstellung zu wählen.

Aber es wird auf allen Stages dieselbe Texture benutzt und die höheren Stages bekommen kein "bri", sondern richtigs "BI".... :gruebel:
Oder meinst du, die inhaltsanalyse kommt nur bei höheren Stages zum Einsatz?
Dann wäre aber der Zufall ziemlich groß, daß dieser Algo genauso danebengreift, wie der von ATi. :|

r@h
2004-06-10, 09:11:24
Danke Quasar.
(auf Deinen großen Post bezogen ;-)

Ich bin der Meinung, dass das Faß bereits jetzt über gelaufen ist.
Und man muss jetzt handeln, oder aber man sollte für immer die Schnautze halten.

Diejenigen, die sich hier mit Wirtschaftlichkeit und Marketing heraus reden wollen, haben offensichtlich nicht begriffen, in welche Richtung dies aller hier derzeit eigentlich geht. Es ist eine einfache (weitere) Entmündigung des Endverbrauchers... und einige hier (ja hier, in einem 'aufgeklährten' Forum !) haben damit offenbar kein Problem.

Auch wenn Tigerchen recht haben sollte (i.e. kein 'vernünftiges' AF mehr... für immer), muss man dem entgegen halten, dass die IHV's hier schon längst weiter sind und bereits die Basisfilterung (i.e. den trilinearen Filter) angegriffen haben. Insofern sollte sich Tigerchen (und diejenigen, die ihm zustimmen) vielleicht vor Augen halten, dass mit dieser Argumentation der Weg frei gemacht wird, zu Dingen wie:

Weg mit den Filtern, braucht ja 'eh keiner !
Und schon sind wir wieder bei nVidia vor gf3 und bei ATI vor R300...
Kann doch wohl nicht Sinn und Zweck der Übung sein, oder ?

Fakt ist, dass moderne (nextGen) Karten ohne die besagten Quali-Features (AA/AF und selbstverständlich trilineare Filterung) bei heutigen Games einfach keinen Sinn machen.

Dann gibt es auch noch einen IHV, der der Meinung ist, dass nicht einmal innvoative Technologie für eine nextGen Hardware benötigt wird und absolute Geschwindigkeit reicht (die man sich zum Teil auch noch 'erschummeln' musste).

Der andere IHV sagt: nextGen Hardware braucht auch nextGen Technologie. Weiß aber ganz genau, dass für den Super-Dau da drußen nur die 'Balken' zählen und schielt auf das Konkurrenzprodukt, welches zwar nichts Neues, dafür aber Performance - wenn auch bei mieser BQ - und damit 'Balken' im Überfluß bietet. Also braut man die 'Balken-Schummler' auch gleich ins eigene Produkt (um Fair zu sein: baut diese aus), um hier Paroli bieten zu können...

-

Lange Rede, kurzer Sinn: Wenn die IHV's so weiter machen, dan wirds über kurz oder lang nur noch Mainsteam-Ware bei mieser BQ geben. Wenn es das ist, was Ihr wollt, dann stimmt dem jetzigen Gebaren nur zu... oder versucht Euch damit raus zu reden, dass man als Endbenutzer ja 'eh nix ändern oder bewirken kann.

Ich denke, dass ComputerBase und damit Quasar sehr wohl gezeigt hat, dass man etwas ändern kann. Die Meldung, bzw. der Artikel verbreitete sich wie ein Lauffeuer um die Welt und nach einem mächtigen Aufschrei in der Community haben nun sogar die IHV's reagiert.

Man kann also was bewirken, wenn man nur will.

Und ich hoffe inständig, dass die Info von AnteP korrekt ist, und zumindest bei nVidia die Optionen 'Tri-Opt-Off' und 'High Quality' so wirken, wie man sich das vorstellt (i.e. Deaktivierung der reinen trilinearen Optimierungen und Deaktivierung der kompletten Filter-Optimierungen, d.h. inkl. der Stage-Optimierung etc.pp)... auch für die FX'en !

Razor

P.S.: Und ebenso hoffe ich, dass ATI selbiges tut... auch wenn sie am meisten dabei verlieren würden... was vermutlich dieses Anliegen ad absurdum führen dürfte.

LovesuckZ
2004-06-10, 09:11:27
Original geschrieben von Demirug
Man kann nicht abschalten was es nicht gibt.


Da GF6 Karten schwerer zu bekommen sind als ein 6er im lotto, fehlt die Information, wie sie mit dem Betatreiber 61.32 im Zusammenhang mit dem CP AF arbeitet.
Die NV35 Karten haben ebenfalls eine aehnliche Stageoptimierung wie die ATi Karten (Stage 1 (0) - trilinear/brilinear, Rest - bilinear).

Demirug
2004-06-10, 09:25:35
Original geschrieben von Quasar
Aber es wird auf allen Stages dieselbe Texture benutzt und die höheren Stages bekommen kein "bri", sondern richtigs "BI".... :gruebel:
Oder meinst du, die inhaltsanalyse kommt nur bei höheren Stages zum Einsatz?
Dann wäre aber der Zufall ziemlich groß, daß dieser Algo genauso danebengreift, wie der von ATi. :|

Reden wir jetzt vom allgemeinen Fall oder einem speziellen Spiel?

Quasar
2004-06-10, 09:34:31
Vom "allgemeinen" AF-Tester. :)

P.S.:
Wenn mein HDD-Image, welches ich grade gemacht habe, auch noch bootfähig ist, kann ich dazu demnächst ein paar Fragen beantworten.

Demirug
2004-06-10, 09:36:37
Original geschrieben von LovesuckZ
Da GF6 Karten schwerer zu bekommen sind als ein 6er im lotto, fehlt die Information, wie sie mit dem Betatreiber 61.32 im Zusammenhang mit dem CP AF arbeitet.
Die NV35 Karten haben ebenfalls eine aehnliche Stageoptimierung wie die ATi Karten (Stage 1 (0) - trilinear/brilinear, Rest - bilinear).

Also meiner Erfahrung nach wählen die FXen den Texturfilter aufgrund des Inhalts und nicht aufgrund der Stage aus. Was zwar etwas besser als das sture Stageprinzip ist aber bei einer "Qualität" Einstellung trotzdem nicht aktzeptabel ist.

LovesuckZ
2004-06-10, 09:40:51
Original geschrieben von Demirug
Also meiner Erfahrung nach wählen die FXen den Texturfilter aufgrund des Inhalts und nicht aufgrund der Stage aus. Was zwar etwas besser als das sture Stageprinzip ist aber bei einer "Qualität" Einstellung trotzdem nicht aktzeptabel ist.

Du koenntest ja mal den Forceware Betatreiber 61.32 überprüfen. Eventuell hat man diese eine "Optimierung" durch die starre Stageoptimierung ersetzt.
Oder Nvidia hat dein AF Tester mal wieder "liebgewonnen"...

Demirug
2004-06-10, 09:54:23
Original geschrieben von LovesuckZ
Du koenntest ja mal den Forceware Betatreiber 61.32 überprüfen. Eventuell hat man diese eine "Optimierung" durch die starre Stageoptimierung ersetzt.
Oder Nvidia hat dein AF Tester mal wieder "liebgewonnen"...

Mein AF-Tester nehme ich für sowas inzwischen sowieso nicht mehr.

Das man in den neuen Treibern jetzt das ATI Verfahren nachgebaut hat wäre möglich. Ich kann auf den Rechner allerdings gerade nicht den Treiber tauschen daher muss ein Gegentest mit dem 61.32 noch etwas warten.

WEGA
2004-06-10, 10:43:51
gibts ein tool, mit dem man den texturfilter im spiel einfärben kann? und wenn wo gibts das?

Quasar
2004-06-10, 10:46:22
www.tommti-systems.de

Es heist 3D-Analyze, funktioniert aber nicht in jedem Game.

WEGA
2004-06-10, 11:03:28
THX, 3DC hats auch http://www.3dcenter.de/downloads/3d-analyze.php

aths
2004-06-10, 11:42:23
Original geschrieben von LovesuckZ
Da GF6 Karten schwerer zu bekommen sind als ein 6er im lotto, fehlt die Information, wie sie mit dem Betatreiber 61.32 im Zusammenhang mit dem CP AF arbeitet. Lotto spiele ich gar nicht erst. Geleakte Betatreiber nutze ich auch nicht X-D.

Tigerchen
2004-06-10, 12:24:44
Original geschrieben von Quasar
Ich denke nicht, daß "wir" nichts ändern können. Es stimmt zwar, daß ich, aths, Tigerchen oder sonstwer wenig Aussicht auf Erfolg hätte, aber die IHVs haben "uns" (die sog. Community) zum Erreichen ihrer Ziele (Meinungsmultiplikatoren) in eine ziemlich mächtige Position gehievt.

Wenn die Community mehr oder weniger an einem Strang zöge und sagen würde "Es reicht!", denke ich, würden die IHVs schon auf Wünsche wie, einen Schalter zum Deaktivieren aller Optimierungen einzubauen, hören.

Wenn nun allerdings innherhalb der Community auch noch Streit und Zwistigkeit herrscht, weil "der eigene IHV" ja sowieso alles besser/schneller/schöner macht und man die "Optimierungen gar nicht im Spiel sieht", dann gebe ich Tigerchen recht, dann ist es relativ zwecklos.

Denn solange Meinungsmultiplikatoren auf das PR-Gewäsch hören, das ihnen vorschreibt, was man "nicht wahrnimmt" und was nicht, welche Features man jetzt noch nicht braucht und welche doch, wieviel Qualität dem User noch zumutbar ist, ab welch unterem Optimierungslevel das Spielerlebnis leidet und was als MinFPs noch erträglich ist und letztens, die Beweislast versucht umzukehren und sagt "Zeigt uns Stellen, wo die IQ leidet" in dem genauen Bewußtsein, daß dies nur in hochauflösenden Videos sichtbar gemacht werden kann, zu deren Erstellung nur die wenigsten ein geeignetes Tool nutzen können, so lange werden die IHVs damit durchkommen.

Tigerchen,
Ich habe diese Frage schon einmal gestellt und AFAIK keine Antwort bekommen, aber Gast hat dies ja wieder aufgegriffen:
Was würdest du sagen, wenn ein IHV deiner Wahl bei 1600x1200 nur 1580x1185 anböte?
Den Unterschied sieht man mit einiger Sicherheit nur, wenn man einen Bildbetrachter hat, der die Bildauflösung direkt angibt, nicht aber in-Game.

Erlaubte Optimierung (man sieht's ja nicht) oder Cheat?

Nächste Frage:
Angenommen, dieses Verfahren schleppt man ein Jährchen mit durch und keinem fällt's auf. Dann bringt man eine neue Generation, senkt die 16x12-Auflösung auf 1560x1170 und da die lieben Reviewer zur Qualitätsbetrachtung ja nur allzugern auf Screenshot-Ausschnitte in zigfacher Vergrößerung zurückgreifen, senkt man gleich noch den LOD auf -0,1 und erreicht damit eine minimal höhere Bildschärfe auf Kosten des Texturflimmerns.
Die lieben Reviewer lassen ihre Benchmarks laufen, bei denen man im Timedemo-Modus sowieso nichts erkennt, machen ihre bekannten Screenshots und lobpreisen die angeblich höhere Bildschärfe.

Erlaubte Optimierung (man sieht's ja nicht) oder Cheat?

Nächste Frage:
Angenommen, dieses Verfahren schleppt man ein Jährchen mit durch und keinem fällt's auf. Dann bringt man eine neue Generation, senkt die 16x12-Auflösung auf 1540x1155 und da die lieben Reviewer zur Qualitätsbetrachtung ja nur allzugern auf Screenshot-Ausschnitte in zigfacher Vergrößerung zurückgreifen, senkt man gleich noch den LOD auf -0,2 (im Vergleich zur letzten Generation also wieder -0,1) und erreicht damit eine minimal höhere Bildschärfe auf Kosten des Texturflimmerns.
Die lieben Reviewer lassen ihre Benchmarks laufen, bei denen man im Timedemo-Modus sowieso nichts erkennt, machen ihre bekannten Screenshots und lobpreisen die angeblich höhere Bildschärfe.

Erlaubte Optimierung (man sieht's ja nicht) oder Cheat?


Du siehst, worauf ich hinauswill, hoffe ich?

WANN ist für dich die Grenze erreicht - sehen kannst du sowas ja nicht, ist immer nur ein minimaler Unterschied zur Vorgängergeneration und wenn du jetzt sagst, soll doch jemand mit noch älteren Karten vergleichen, das hat einer im B3D-Forum getan. Eine MP2-Szene zwischen GF4 und X800. Das offensichtlich Rauschen selbst in der stillstehenden Textur wurde ihm mit Worten wie "Ist doch bekannt, daß die GF4 hier besser filtere, man müsse schon aktuelle Produkte vergleichen, die ja schließlich auch in derselben Leistungsklasse spielen.

to be continued....


Ist doch ganz einfach.
Nimm die R8500. Bilinearer Filter + AF. Springt sofort ins Auge. Wird nicht (oft) gekauft.
Nimm die Volari. Splinter Cell wird in niedrigerer Auflösung gerendert. Springt sofort ins Auge. Wird nicht (oft) gekauft.

Hab schon trilinear gefilterte Bilder von nV40 vs. R420 (Digit-life) gesehen. da sah das R420 Bild geringfügig besser aus. Von "Rauschen" keine Spur. Kenn den Thread im B3D-Forum nicht. Weiß auch nicht ob da authentische Bilder oder Fakes gezeigt werden. Lassen wir das mal beiseite.

Machs dir nicht so schwer. Der Markt entscheidet. Gnadenlos. Die Volari hat gezeigt wie schnell ein Hersteller auf seiner Ware sitzen bleibt wenn er wirklich miese Qualität liefert.

Winkelabhängiges AF hat zum Erfolg von ATI beigetragen auch wenn ihr euch dieser einfachen Wahrheit verschließt. Wenn der adaptive trilineare Filter von ATI allerdings so schlecht ist wie von dir, Lovesuckz und aths propagiert wird ATI das ganz schnell am Absatz merken. DAS und nur DAS wird dann ganz schnell ein Umdenken bewirken.

Der Gedanke ein Meinungs-Multiplikator und Manipulator zu sein scheint euch im übrigen sehr zu behagen. Aber die Massen heutzutage erfolgreich zu manipulieren ist verdammt schwierig. Ich denke mal ihr überschätzt euch da ein wenig.

xL|Sonic
2004-06-10, 12:26:00
Original geschrieben von r@h
Danke Quasar.
(auf Deinen großen Post bezogen ;-)

Ich bin der Meinung, dass das Faß bereits jetzt über gelaufen ist.
Und man muss jetzt handeln, oder aber man sollte für immer die Schnautze halten.

Diejenigen, die sich hier mit Wirtschaftlichkeit und Marketing heraus reden wollen, haben offensichtlich nicht begriffen, in welche Richtung dies aller hier derzeit eigentlich geht. Es ist eine einfache (weitere) Entmündigung des Endverbrauchers... und einige hier (ja hier, in einem 'aufgeklährten' Forum !) haben damit offenbar kein Problem.

Auch wenn Tigerchen recht haben sollte (i.e. kein 'vernünftiges' AF mehr... für immer), muss man dem entgegen halten, dass die IHV's hier schon längst weiter sind und bereits die Basisfilterung (i.e. den trilinearen Filter) angegriffen haben. Insofern sollte sich Tigerchen (und diejenigen, die ihm zustimmen) vielleicht vor Augen halten, dass mit dieser Argumentation der Weg frei gemacht wird, zu Dingen wie:

Weg mit den Filtern, braucht ja 'eh keiner !
Und schon sind wir wieder bei nVidia vor gf3 und bei ATI vor R300...
Kann doch wohl nicht Sinn und Zweck der Übung sein, oder ?

Fakt ist, dass moderne (nextGen) Karten ohne die besagten Quali-Features (AA/AF und selbstverständlich trilineare Filterung) bei heutigen Games einfach keinen Sinn machen.

Dann gibt es auch noch einen IHV, der der Meinung ist, dass nicht einmal innvoative Technologie für eine nextGen Hardware benötigt wird und absolute Geschwindigkeit reicht (die man sich zum Teil auch noch 'erschummeln' musste).

Der andere IHV sagt: nextGen Hardware braucht auch nextGen Technologie. Weiß aber ganz genau, dass für den Super-Dau da drußen nur die 'Balken' zählen und schielt auf das Konkurrenzprodukt, welches zwar nichts Neues, dafür aber Performance - wenn auch bei mieser BQ - und damit 'Balken' im Überfluß bietet. Also braut man die 'Balken-Schummler' auch gleich ins eigene Produkt (um Fair zu sein: baut diese aus), um hier Paroli bieten zu können...

-

Lange Rede, kurzer Sinn: Wenn die IHV's so weiter machen, dan wirds über kurz oder lang nur noch Mainsteam-Ware bei mieser BQ geben. Wenn es das ist, was Ihr wollt, dann stimmt dem jetzigen Gebaren nur zu... oder versucht Euch damit raus zu reden, dass man als Endbenutzer ja 'eh nix ändern oder bewirken kann.

Ich denke, dass ComputerBase und damit Quasar sehr wohl gezeigt hat, dass man etwas ändern kann. Die Meldung, bzw. der Artikel verbreitete sich wie ein Lauffeuer um die Welt und nach einem mächtigen Aufschrei in der Community haben nun sogar die IHV's reagiert.

Man kann also was bewirken, wenn man nur will.

Und ich hoffe inständig, dass die Info von AnteP korrekt ist, und zumindest bei nVidia die Optionen 'Tri-Opt-Off' und 'High Quality' so wirken, wie man sich das vorstellt (i.e. Deaktivierung der reinen trilinearen Optimierungen und Deaktivierung der kompletten Filter-Optimierungen, d.h. inkl. der Stage-Optimierung etc.pp)... auch für die FX'en !

Razor

P.S.: Und ebenso hoffe ich, dass ATI selbiges tut... auch wenn sie am meisten dabei verlieren würden... was vermutlich dieses Anliegen ad absurdum führen dürfte.

Das Problem an der Sache ist, dass es nunmal 3 Nutzergruppen gibt.
Zum einen die, die möglichst hoffe FPS-raten haben will, damit das Spiel auch bei max. Settings flüssig läuft, bzw. die Onlinegamer, die auch nach hohen FPS geifern, weil man nur so bei manchen Spielen Bugs/exploits in der Engine ausnutzen kann, damit sie sich nen Vorteil schaffen können.
Dann gibt es die Gruppe, der es egal ist welche Grafikkarte im PC ist und den PC einfach nur für Officeanwendungen nutzen.
Und als letzte gruppe gibt es die Leute, denen performance und BQ wichtig sind, wenn nicht sogar die BQ noch wichtiger als Performance.
Die ersten beiden Gruppen machen dabe aber leider den Großteil aus, würde mal sagen mehr als 90% und deswegen wird es schwer werden die IVH's vom Gegenteil zu überzeugen. Hinzu kommt, dass viele die hier rumheulen über ATI's Optimierungen trotzdem sich eine NextGen Karte holen, vielleicht keine von ATI, aber von nvidia, welche auch keine reine weisse Weste haben, was auch der falsche Weg ist...

LovesuckZ
2004-06-10, 12:51:08
Original geschrieben von Valmar
Das Problem an der Sache ist, dass es nunmal 3 Nutzergruppen gibt.
Zum einen die, die möglichst hoffe FPS-raten haben will, damit das Spiel auch bei max. Settings flüssig läuft, bzw. die Onlinegamer, die auch nach hohen FPS geifern, weil man nur so bei manchen Spielen Bugs/exploits in der Engine ausnutzen kann, damit sie sich nen Vorteil schaffen können.
Dann gibt es die Gruppe, der es egal ist welche Grafikkarte im PC ist und den PC einfach nur für Officeanwendungen nutzen.


Und beide Gruppen liegen nicht im "Einzugsgebiet" der High End Karten...
Wozu also Qualitaet mindern, wenn ich dadurch meine eigentliche Kaeuferschicht (außer ein paar Leuten wie Tigerchen) verfehle?

Quasar
2004-06-10, 12:51:31
Original geschrieben von Tigerchen

Ist doch ganz einfach.
Nimm die R8500. Bilinearer Filter + AF. Springt sofort ins Auge. Wird nicht (oft) gekauft.
Nimm die Volari. Splinter Cell wird in niedrigerer Auflösung gerendert. Springt sofort ins Auge. Wird nicht (oft) gekauft.

Hab schon trilinear gefilterte Bilder von nV40 vs. R420 (Digit-life) gesehen. da sah das R420 Bild geringfügig besser aus. Von "Rauschen" keine Spur. Kenn den Thread im B3D-Forum nicht. Weiß auch nicht ob da authentische Bilder oder Fakes gezeigt werden. Lassen wir das mal beiseite.

Machs dir nicht so schwer. Der Markt entscheidet. Gnadenlos. Die Volari hat gezeigt wie schnell ein Hersteller auf seiner Ware sitzen bleibt wenn er wirklich miese Qualität liefert.

Winkelabhängiges AF hat zum Erfolg von ATI beigetragen auch wenn ihr euch dieser einfachen Wahrheit verschließt. Wenn der adaptive trilineare Filter von ATI allerdings so schlecht ist wie von dir, Lovesuckz und aths propagiert wird ATI das ganz schnell am Absatz merken. DAS und nur DAS wird dann ganz schnell ein Umdenken bewirken.

Der Gedanke ein Meinungs-Multiplikator und Manipulator zu sein scheint euch im übrigen sehr zu behagen. Aber die Massen heutzutage erfolgreich zu manipulieren ist verdammt schwierig. Ich denke mal ihr überschätzt euch da ein wenig.


Mit den beiden Beispielen R8500 und Volari liegst du voll auf meiner Linie, auch wenn's dir vielleicht nicht aufällt. :)
Die (neueren) Radeons sind da in einer etwas anderen Stellung gewesen: Sie waren schlicht eine Klasse schneller, als alles, was es in dem Jahr gab und konnten auch die FX in modernen Spielen ziemlich alt aussehen lassen.

Nun ist es aber so, daß die Unterschiede zwischen R420 und NV40 auf ca. 10% zusammengeschrumpft sind, und nicht mehr 100-250% ausmachen.
Wer weiß, vielleicht ist da dann doch wieder Platz für ein größeres Bewußtsein für Bildqualität.

Was die Gedanken an Meinungsmultiplikatoren angeht, mach' dir mal keine Sorgen. Das wird sicherlich nicht großartig überschätzt - oftmals eher im Gegenteil. ;)



Wieso gehst du eigentlich nicht auf mein Beispiel mit der Auflösung ein? 5% weniger Bildinhalt? Das fällt doch nicht auf... könnte man doch eigentlich mal probieren...

BTW,
"Hab schon trilinear gefilterte Bilder von nV40 vs. R420 (Digit-life) gesehen." <- Merkst' was? NV40 vs. R420 akzeptierst du fraglos, aber den Shot GF4 vs. R420 aus B3D (IIRC) sprichst du, ohne ihn zu kennen, per se erstmal ab, daß du ihn für authentisch hältst.

Quasar
2004-06-10, 12:55:16
Original geschrieben von Valmar
Zum einen die, die möglichst hoffe FPS-raten haben will, damit das Spiel auch bei max. Settings flüssig läuft,[...]


Meinst du, man könnte diese Leute nicht glücklich machen, indem man einfach die Bezeichnung der Slider vertauscht? Aus "High Performance" wird dann "High Quality" und schon sind sie glücklich?

(Ich hoffe, die Ironie und der Bezug zur aktuellen Situation sind nicht zu tief versteckt...)

edit:
Falls doch, es ist schon so weit, daß hinter dem Schalter "High Quality" gar nicht mehr High-Quality steckt, sondern irgendwas zwischen Medium- und High-Quality...

robbitop
2004-06-10, 12:57:40
tigerchen
du weisst aber schon dass der LOD Cheat von ATi die Screenies scharf aussehen lässt und in bewegung gibts flimmern. Screenshots sind bei sowas ohne Aussage. Man muss es in Bewegung sehen, dann fällt sogar bri auf

xL|Sonic
2004-06-10, 13:08:47
@LZ und Quasar
Sicher gehören diese Onlinegamer mit in dieses Einzugsgebiet. Eine Highend Karte wird aus mehreren gründen gekauft: 1. hohe FPS Raten
2. hohe BQ (dazu zähle ich nicht nur AA und AF, sondern auch Ingame Settings, wie Partikelcount, Schatten usw. die bei Spielen wie Doom 3, jetzt schon bei Far Cry und vielen zukünftigen selbst die neuesten High-End Karten schon fast in die Knie zwingen werden)(welche allerdings nicht so sehr optimiert wird, dass es schlechter aussieht als auf einer GF2)
3. sie soll möglichst lange halten

Mich persönlich stört es eher weniger, wenn ich kein AA und AF zuschalten kann, als wenn ich bei Spielen solche wichtigen Sachen wie Schatten, dynamisches Licht usw. ausschalten muss, nur um in den Genuß ruckelfreier Grafik zu kommen. Was die Slider angeht, wenn man das macht, dann erhält man bei UT2k4 z.B. ja schon fast den Eindruck man spielt UT und somit hinkt der Vergleich etwas in meinen Augen. Aber vielleicht reden wir auch einfach aneinander vorbei.

Was mich einfach stört sind die Leute, die jetzt großartig rumheulen, aber trotzdem auf den NextGen Zug aufspringen und sich eine Karte holen werden.

HOT
2004-06-10, 13:13:45
Original geschrieben von r@h
Danke Quasar.
(auf Deinen großen Post bezogen ;-)

Ich bin der Meinung, dass das Faß bereits jetzt über gelaufen ist.
Und man muss jetzt handeln, oder aber man sollte für immer die Schnautze halten.

Diejenigen, die sich hier mit Wirtschaftlichkeit und Marketing heraus reden wollen, haben offensichtlich nicht begriffen, in welche Richtung dies aller hier derzeit eigentlich geht. Es ist eine einfache (weitere) Entmündigung des Endverbrauchers... und einige hier (ja hier, in einem 'aufgeklährten' Forum !) haben damit offenbar kein Problem.

Auch wenn Tigerchen recht haben sollte (i.e. kein 'vernünftiges' AF mehr... für immer), muss man dem entgegen halten, dass die IHV's hier schon längst weiter sind und bereits die Basisfilterung (i.e. den trilinearen Filter) angegriffen haben. Insofern sollte sich Tigerchen (und diejenigen, die ihm zustimmen) vielleicht vor Augen halten, dass mit dieser Argumentation der Weg frei gemacht wird, zu Dingen wie:

Weg mit den Filtern, braucht ja 'eh keiner !
Und schon sind wir wieder bei nVidia vor gf3 und bei ATI vor R300...
Kann doch wohl nicht Sinn und Zweck der Übung sein, oder ?

Fakt ist, dass moderne (nextGen) Karten ohne die besagten Quali-Features (AA/AF und selbstverständlich trilineare Filterung) bei heutigen Games einfach keinen Sinn machen.

Dann gibt es auch noch einen IHV, der der Meinung ist, dass nicht einmal innvoative Technologie für eine nextGen Hardware benötigt wird und absolute Geschwindigkeit reicht (die man sich zum Teil auch noch 'erschummeln' musste).

Der andere IHV sagt: nextGen Hardware braucht auch nextGen Technologie. Weiß aber ganz genau, dass für den Super-Dau da drußen nur die 'Balken' zählen und schielt auf das Konkurrenzprodukt, welches zwar nichts Neues, dafür aber Performance - wenn auch bei mieser BQ - und damit 'Balken' im Überfluß bietet. Also braut man die 'Balken-Schummler' auch gleich ins eigene Produkt (um Fair zu sein: baut diese aus), um hier Paroli bieten zu können...

-

Lange Rede, kurzer Sinn: Wenn die IHV's so weiter machen, dan wirds über kurz oder lang nur noch Mainsteam-Ware bei mieser BQ geben. Wenn es das ist, was Ihr wollt, dann stimmt dem jetzigen Gebaren nur zu... oder versucht Euch damit raus zu reden, dass man als Endbenutzer ja 'eh nix ändern oder bewirken kann.

Ich denke, dass ComputerBase und damit Quasar sehr wohl gezeigt hat, dass man etwas ändern kann. Die Meldung, bzw. der Artikel verbreitete sich wie ein Lauffeuer um die Welt und nach einem mächtigen Aufschrei in der Community haben nun sogar die IHV's reagiert.

Man kann also was bewirken, wenn man nur will.

Und ich hoffe inständig, dass die Info von AnteP korrekt ist, und zumindest bei nVidia die Optionen 'Tri-Opt-Off' und 'High Quality' so wirken, wie man sich das vorstellt (i.e. Deaktivierung der reinen trilinearen Optimierungen und Deaktivierung der kompletten Filter-Optimierungen, d.h. inkl. der Stage-Optimierung etc.pp)... auch für die FX'en !

Razor

P.S.: Und ebenso hoffe ich, dass ATI selbiges tut... auch wenn sie am meisten dabei verlieren würden... was vermutlich dieses Anliegen ad absurdum führen dürfte.

full Ack ;)

LovesuckZ
2004-06-10, 13:15:31
Original geschrieben von Valmar
@LZ und Quasar
Sicher gehören diese Onlinegamer mit in dieses Einzugsgebiet.

Ich sage nur: No Details.

Eine Highend Karte wird aus mehreren gründen gekauft: 1. hohe FPS Raten

Erreicht man auch mit einer 200€ teuren 9800pro.

2. hohe BQ

Eine Karte, die nicht richtig "trilinear" filtert, bietet keine "hohe BQ".

3. sie soll möglichst lange halten


Die ueberschuessige Leistung einer High End Karte steckt man in eine erhoehte Aufloesung und/oder AA/AF. Wie du sieht, opfere ist Speed, um Qualitaet zu erhalten. Welchen Sinn macht es nun, Bildqualitaet zu verschenken, wenn ich deutliche Reserven habe? Und wenn die neuen Karten in aktuellen Spielen meiner Meinung nach nicht den erwünschten Leistungsschub bringen, dann warte ich auf die naechste Generation, bevor man abstriche in der Qualitaet hinnimmt, weil die Karten zu langsam waeren.
Und eine Karte haelt genauso lange, egal ob ich am Anfang AA/AF einstelle oder ohne spiele.

HOT
2004-06-10, 13:16:13
Original geschrieben von LovesuckZ
Und beide Gruppen liegen nicht im "Einzugsgebiet" der High End Karten...
Wozu also Qualitaet mindern, wenn ich dadurch meine eigentliche Kaeuferschicht (außer ein paar Leuten wie Tigerchen) verfehle?

Da muss ich dir mal zustimmen. Wer sich ein derartiges High'End Geschoss kauft, will möglichst hohe FPS bei möglichst hoher BQ. Ein CS Spieler braucht sich keine der neuen Karten, das ist schlicht gesgt overkill ;)
Speed ist ja nicht mehr das Hauptproblem, was sich bei heutigen Speilen ergibt.
Ein CS Spieler der hohe FPS haben will nutzt schlicht kein AA oder AF. Das ist schlicht Thema verfehlt bei den IHVs.
Die die es nutzen wollen, wollen auch dass es die gewünschte Wirkung hat (ausser Tigerchen so scheint mir :P).
Ich frage mich, warum hier immernoch wehement Leute ihre IHVs verteidigen obwohl sie sich von denen auf gut deutsch gesagt verarschen lassen.
Es gibt nur einen sinnvollen Grund ein derartiges Vorgehen an den Tag zu legen: um bei Reviewern möglichst link möglichst gute Ergebnisse zu schinden. Danke, darauf kann ich echt verzichten.

xL|Sonic
2004-06-10, 13:19:18
Original geschrieben von LovesuckZ
Ich sage nur: No Details.



Erreicht man auch mit einer 200€ teuren 9800pro.



Eine Karte, die nicht richtig "trilinear" filtert, bietet keine "hohe BQ".

Lies mal das was inden Klammern steht, da steht, dass ich zu hoher BQ nicht nur AF und AA zähle!

Die ueberschuessige Leistung einer High End Karte steckt man in eine erhoehte Aufloesung und/oder AA/AF. Wie du sieht, opfere ist Speed, um Qualitaet zu erhalten. Welchen Sinn macht es nun, Bildqualitaet zu verschenken, wenn ich deutliche Reserven habe? Und wenn die neuen Karten in aktuellen Spielen nicht den erwünschten Leistungsschub bringen, dann warte ich auf die naechste Generation, bevor man abstriche in der Qualitaet hinnimmt, weil die Karten dann zu langsam waeren.

Wenn du nach dem Muster gehst, dürftest du dir gar keine Karte mehr holen, da es immer so sein wird, wenn du die neusten Spiele zocken willst.
Für alte Spiele brauchst du in meinen Augen auch nicht unbedingt ne High End Karte, da reicht dann auch eine 9800 Pro.

xL|Sonic
2004-06-10, 13:22:13
Original geschrieben von HOT
Da muss ich dir mal zustimmen. Wer sich ein derartiges High'End Geschoss kauft, will möglichst hohe FPS bei möglichst hoher BQ. Ein CS Spieler braucht sich keine der neuen Karten, das ist schlicht gesgt overkill ;)

Warten wir mal ab, wie das aussieht, wenn CS:Source bzw. CS2 rauskommt. Ich kenne soviele Onlinegamer, die sich recht früh nach dem erscheinen eine Radeon 9700 pro / 9800 pro geholt haben, auch wenn sie nur hauptsächlich CS im inet spielen. Diese Leute zocken dafür aber meistens auch die aktuellesten anderen Games, wie Far Cry und evt. diese auch online.

Aber gut, das sind verschiedene Erfahrungswerte und Ansichten, von daher wird man wohl nur schwer auf einen Nenner kommen können :)

P.S.: Für Q3 z.B. ist es zwingend erforderlich hohe FPS zu haben, wenn man denn mit guten Spielern mithalten will. Da div. Moves nur bei hohen FPS möglich sind.

LovesuckZ
2004-06-10, 13:23:36
Original geschrieben von Valmar
Wenn du nach dem Muster gehst, dürftest du dir gar keine Karte mehr holen, da es immer so sein wird, wenn du die neusten Spiele zocken willst.


"neuste" Spiele sind auch die, welche keine PS2.x mit über hunderten Anweisungen verwenden und heute erscheinen.
Dazu kommt noch, dass ich doch nicht aufhoere, meine alten geliebten Spiele nicht mehr anzufasse, weil die Karte dafür ohne AA/AF zu schnell waere.
Oder wirfst du deine Spiele jedes Jahr weg?

HOT
2004-06-10, 13:24:13
Original geschrieben von Valmar
Warten wir mal ab, wie das aussieht, wenn CS:Source bzw. CS2 rauskommt. Ich kenne soviele Onlinegamer, die sich recht früh nach dem erscheinen eine Radeon 9700 pro / 9800 pro geholt haben, auch wenn sie nur hauptsächlich CS im inet spielen. Diese Leute zocken dafür aber meistens auch die aktuellesten anderen Games, wie Far Cry und evt. diese auch online.

Aber gut, das sind verschiedene Erfahrungswerte und Ansichten, von daher wird man wohl nur schwer auf einen Nenner kommen können :)

deswegen nutzen diese Spieler immernoch kein AA oder AF, weil es Leistung kostet. wofür brauchen die denn dann die Optimierungen? Wer sich deshalb eine HighEnd karte holt um ein 0,2% besseres Ergebnis bei CS zu erziehlen, dem ist echt net mehr zu helfen...

xL|Sonic
2004-06-10, 13:26:07
Original geschrieben von LovesuckZ
"neuste" Spiele sind auch die, welche keine PS2.x mit über hunderten Anweisungen verwenden und heute erscheinen.
Dazu kommt noch, dass ich doch nicht aufhoere, meine alten geliebten Spiele nicht mehr anzufasse, weil die Karte dafür ohne AA/AF zu schnell waere.
Oder wirfst du deine Spiele jedes Jahr weg?

Nö, aber ich habe i.d.R. nicht die Zeit um meine ganzen alten Spiele zu spielen, muss ja arbeiten. Vielleicht kommt das wieder, wenn mein Studium anfängt, aber derzeit spiele ich fast nur Onlinegames, weil die einfach mehr Spass machen, wenn man mit nen paar Freunden und teamspeak spielt.

xL|Sonic
2004-06-10, 13:27:17
Original geschrieben von HOT
deswegen nutzen diese Spieler immernoch kein AA oder AF, weil es Leistung kostet. wofür brauchen die denn dann die Optimierungen? Wer sich deshalb eine HighEnd karte holt um ein 0,2% besseres Ergebnis bei CS zu erziehlen, dem ist echt net mehr zu helfen...

Wie gesagt,wir reden aneinander vorbei,drum sollten wir es dabei belassen, meinst du nicht ?

HOT
2004-06-10, 13:38:02
Da etwas früher hier vom Grossteil der Spieler die Rede war muss ich da auch mal was zu verlieren:
Was macht der Grossteil der Spieler? Die haben keinen blassen schimmer was Filter sind oder wie 3D Grafik funzt.
Was machen die? Starten ihr Spielchen und spielen. Was nutzen die? Weder AA noch AF. Vielleicht durch Zufall mal, weil sie im CP rumgespielt haben (wundern sich dann warum das Spiel auf einmal langsam läuft :D).
Das sind keine Orientierungspunkte für die IHVs und dafür braucht man keine Optimierung.
Schauen wir uns an wer denn AF überhaupt benutzt: Das sind Hardwarebewusste Spieler und BQ Bewusste Spieler.
Und was erwarten die davon? Richtig, dass AF die gewünschte Wirkung hat!

Ich glaube, dass hier viele einfach falsch informiert sind, wie sie Optimierungen BQ technisch auswirken. Ich denke, dass die Quali besser ist, wenn man einen AF Level (aus Performancegründen) einen tiefer stellt als Texturflimmern etc in Kauf zu nehmen.

HOT
2004-06-10, 13:42:11
Original geschrieben von Valmar
Wie gesagt,wir reden aneinander vorbei,drum sollten wir es dabei belassen, meinst du nicht ?

Das glaube ich aber nicht ;)

Du hast mich glauble ich nur falsch verstanden. Q3 Spieler oder Spieler neuerer Onlineshooter kaufen sich die möglicht schnellen Karten, ok.
Aber sie nutzen dann kein AA oder AF!

xL|Sonic
2004-06-10, 13:44:51
Naja, der Orientierungspunkt ist dahingehend vorhanden, weil sich diese Spieler durch die Balkendiagramme beeindrucken lassen und unterschiede meist erst bei AA und AF auffallen.
Btw. gibts auch Spieler, die AA und AF nutzen, mache ich ja auch, nur wenn ichdann selbst bei Spielen wie Natural Selection oder Frontline Force (beides HL Mods)die FPS teilweise auf 40 oder weniger einbrechen, dann nehme ich gerne eine Optimierung (wenn sie im rahmen ist)in Kauf und habe dafür höhere FPS. Mal abgesehen davon, dass ich in den ersten Minuten vielleicht drauf gucke, wie gut alles aussieht, aber danach hat man eh kein Auge mehr für sowas, weil das Spiel viel zu sehr fesselt ;)

Sphinx
2004-06-10, 13:45:54
Original geschrieben von HOT
Aber sie nutzen dann kein AA oder AF!

Kann dem nur zustimmen... besonders in Spielen - die ein schnelles Spielgeschehen haben (UT2k4,UT2k03) verzichte ich auf AA + AF...

HOT
2004-06-10, 14:01:01
Original geschrieben von Valmar
Naja, der Orientierungspunkt ist dahingehend vorhanden, weil sich diese Spieler durch die Balkendiagramme beeindrucken lassen und unterschiede meist erst bei AA und AF auffallen.
Btw. gibts auch Spieler, die AA und AF nutzen, mache ich ja auch, nur wenn ichdann selbst bei Spielen wie Natural Selection oder Frontline Force (beides HL Mods)die FPS teilweise auf 40 oder weniger einbrechen, dann nehme ich gerne eine Optimierung (wenn sie im rahmen ist)in Kauf und habe dafür höhere FPS. Mal abgesehen davon, dass ich in den ersten Minuten vielleicht drauf gucke, wie gut alles aussieht, aber danach hat man eh kein Auge mehr für sowas, weil das Spiel viel zu sehr fesselt ;)

Was das denn für ne Doppelmoral?
Wenn der Mod zu langsam läuft nimm den AF Level der dazu passt. Damit haste immernoch besser BQ als mit Optimierung.
Es mag Spiele geben, die Texturen haben, dass die Optimierungen net auffallen, das ist aber auch der einzige sinnvolle Grund, Optimierungen zu benutzen.
Warum benutzt du überhaupt AF, wenn es dich net interessiert bzw. dir gearnet auffällt und nur FPS wichtiger sind? Siehst du den Widerspruch?

Vielleicht macht die Optimierung ja doch sinn, und zwar den, dass Spieler, die sich dolle Hardware gekauft haben sich selber einen vormachen können und sagen können, dass die schlimmsten Games mit 16xAF laufen (und trotzdem scheisse aussehen). Sorry für die harte Formulierung.

Dich zähle ich zu den Hardwarebewussten Spielern, sonst wärst du wohl net hier im Forum.

Gast
2004-06-10, 14:03:13
Die Diskussion um Cheats hatten wir schon vor langer Zeit und der Aufschrei der Entrüstung war groß.

Die neue Generation der Grafikchips ist aber in die gleiche Richtung gegengen, leider.

Ich unterstütze voll die Forderungen nach korrektem filtern, nur war bis jetzt kein Erfolg zu verzeichnen. Durch Beiträge im Forum geschieht nichts, der Artikel von Quasar hatte "entsprechende" Antworten seitens der Industrie bekommen. So wird das kein Sieg für die Bildqualität werden.

xL|Sonic
2004-06-10, 14:20:32
Also, was mich persönlich angeht ist das so. Ich gucke zuerst auf die FPS, die ich mit den höchstmöglichen Ingame Settings erreiche. Wenn ich dabei merke, ich habe noch Luft für mehr, aktiviere ich auch gerne AA und AF (wobei eher AF, weil das bei Egoshootern eher auffällt, als AA). Allerdings auch nur in einem gewissen Rahmen, wenn die FPS zu sehr einbrechen, wirds ausgemacht.
Was die optimierungen angeht, gut, dass sind von meiner Seite aus alles auch erstmal nur Mutmaßungen und kann ich erst beurteilen, wenn ich meine x800 XT PE habe.
Ersat dann werde ich sehen, was sinnvoller ist. Hoher AF Level mit Optimierung oder niedriger AF Level ohne Optimierung.
Aber jeder hat nunmal einanderes empfinden in Sachen BQ, ist halt alles subjektiv. Und bei mir istdas vielleicht nichtso extrem ausgeprägt,weil für mich andere Dingeim Vordergrund stehen und auch vielleicht, weil ich leidenschaftlicher Konsolenspieler bin :)

aths
2004-06-10, 14:38:50
Original geschrieben von Gast
Ich unterstütze voll die Forderungen nach korrektem filtern, nur war bis jetzt kein Erfolg zu verzeichnen. Nicht so vorschnell, bitte =)

Quasar
2004-06-10, 14:44:35
Original geschrieben von Gast
Ich unterstütze voll die Forderungen nach korrektem filtern, nur war bis jetzt kein Erfolg zu verzeichnen. Durch Beiträge im Forum geschieht nichts, der Artikel von Quasar hatte "entsprechende" Antworten seitens der Industrie bekommen. So wird das kein Sieg für die Bildqualität werden.

Ein IHV wird demnächst in dieser Beziehung vorlegen, ich denke (und hoffe), über kurz oder lang wird der andere IHV diesbezüglich dann nachziehen.

sth
2004-06-10, 15:16:43
Original geschrieben von Quasar
Ein IHV wird demnächst in dieser Beziehung vorlegen
Sind damit die (hoffentlich in den nächsten Referenz-Treibern vorhandenen) Schalter zu Deaktivierung von Brilinear und AF-Pfuschereien bei nVidia gemeint?

Tigerchen
2004-06-10, 15:21:12
Original geschrieben von Quasar
Mit den beiden Beispielen R8500 und Volari liegst du voll auf meiner Linie, auch wenn's dir vielleicht nicht aufällt. :)
Die (neueren) Radeons sind da in einer etwas anderen Stellung gewesen: Sie waren schlicht eine Klasse schneller, als alles, was es in dem Jahr gab und konnten auch die FX in modernen Spielen ziemlich alt aussehen lassen.

Nun ist es aber so, daß die Unterschiede zwischen R420 und NV40 auf ca. 10% zusammengeschrumpft sind, und nicht mehr 100-250% ausmachen.
Wer weiß, vielleicht ist da dann doch wieder Platz für ein größeres Bewußtsein für Bildqualität.

Was die Gedanken an Meinungsmultiplikatoren angeht, mach' dir mal keine Sorgen. Das wird sicherlich nicht großartig überschätzt - oftmals eher im Gegenteil. ;)



Wieso gehst du eigentlich nicht auf mein Beispiel mit der Auflösung ein? 5% weniger Bildinhalt? Das fällt doch nicht auf... könnte man doch eigentlich mal probieren...

BTW,
"Hab schon trilinear gefilterte Bilder von nV40 vs. R420 (Digit-life) gesehen." <- Merkst' was? NV40 vs. R420 akzeptierst du fraglos, aber den Shot GF4 vs. R420 aus B3D (IIRC) sprichst du, ohne ihn zu kennen, per se erstmal ab, daß du ihn für authentisch hältst.


Dein Beispiel mit dem weniger Bildinhalt finde ich an den Haaren herbeigezogen. Darum gehe ich nicht drauf ein.
Quasar. Das Problem ist daß du mit einem Screenshot argumentierst den ich nicht kenne. Wie soll ich dazu Stellung nehmen? Zu dem Shot von Digit-life kann ich etwas sagen weil ich ihn schon gesehen habe und auf Festplatte gesichert habe. Da weiß ich natürlich immer noch nicht ob man mir da nicht ne Fälschung untergejubelt hat. Wer weiß dies heute schon? Ist auch egal. Der Punkt ist wie gesagt daß ich keine Stellung zu einem nie gesehenen Max Payne Screenshot beziehen kann. Ich kann dir nicht.
Merkst du was? Du verlangst von mir dir fraglos zu folgen.

Quasar
2004-06-10, 15:25:22
Original geschrieben von sth
Sind damit die (hoffentlich in den nächsten Referenz-Treibern vorhandenen) Schalter zu Deaktivierung von Brilinear und AF-Pfuschereien bei nVidia gemeint?

Soweit ich weiß, ja. Mit dem bekannten AF-Tester scheint das soweit auch zu funktionieren, aber dem alleine sollte man mittlerweile nicht mehr glauben, IMO.

sth
2004-06-10, 15:29:22
Original geschrieben von Quasar
Soweit ich weiß, ja. Mit dem bekannten AF-Tester scheint das soweit auch zu funktionieren, aber dem alleine sollte man mittlerweile nicht mehr glauben, IMO.
Ich hoffe mal, dass ihr bald wieder NV40-Hardware zur Verfügung habt... dann gibt's hoffentlich Klarheit.

Quasar
2004-06-10, 15:58:57
Original geschrieben von Tigerchen

Dein Beispiel mit dem weniger Bildinhalt finde ich an den Haaren herbeigezogen. Darum gehe ich nicht drauf ein.
Ach so, natürlich. Ist ja auch verrückt - wer würde sowas machen? Das wäre ja genauso blöde, wie am LOD herumzuspielen: Sowas fällt sofort auf.

Original geschrieben von Tigerchen
Quasar. Das Problem ist daß du mit einem Screenshot argumentierst den ich nicht kenne. Wie soll ich dazu Stellung nehmen? Zu dem Shot von Digit-life kann ich etwas sagen weil ich ihn schon gesehen habe und auf Festplatte gesichert habe. Da weiß ich natürlich immer noch nicht ob man mir da nicht ne Fälschung untergejubelt hat. Wer weiß dies heute schon? Ist auch egal. Der Punkt ist wie gesagt daß ich keine Stellung zu einem nie gesehenen Max Payne Screenshot beziehen kann.

Es geht auch nicht darum, daß du den Screenshot kennen musst, sondern darum, wie damit umgegangen wurde. Wenn ich den Thread wiederfinde, liefer ich dir gern den Link nach.

Original geschrieben von Tigerchen
Ich kann dir nicht. Merkst du was? Du verlangst von mir dir fraglos zu folgen.

Nö, verlange ich nicht. Aber ATi verlangt es - und damit hast du offenbar keine Probleme (oder bemerkst es nicht).
;)

Tigerchen
2004-06-10, 16:19:10
LOL. Gibt genug Grafikkarten von ATI an denen ich in der Vergangenheit kein gutes Haar gelassen habe. Erzähl mir also bitte nichts von blinder Gefolgschaft.

r@h
2004-06-10, 16:54:39
Original geschrieben von HOT
...dass die schlimmsten Games mit 16xAF laufen (und trotzdem scheisse aussehen). Sorry für die harte Formulierung.Absolut treffend, deutlich und korrekt formuliert !
:up:

Razor

r@h
2004-06-10, 16:55:33
Original geschrieben von aths
Nicht so vorschnell, bitte =) Das hoffe ich doch stark !
:)

Razor

DanMan
2004-06-10, 17:15:00
Original geschrieben von Valmar
Ersat dann werde ich sehen, was sinnvoller ist. Hoher AF Level mit Optimierung oder niedriger AF Level ohne Optimierung.
Wenn du denn die Wahl hättest. Wär das nicht schön?

Ich bin mir ziemlich sicher, dass es wohl keine komplette Deaktivierungsmöglichkeit in den ControlPanels geben wird. Dadurch wäre ja wieder ein direkter Vergleich der Leistung möglich, und das wollen die Herrschaften wohl tunlichst vermeiden.

xL|Sonic
2004-06-10, 17:30:34
Warum ? geht doch. Steht doch alles auf cb.de
Ist zwar nicht so komfortabel, aber das wichtigste erstmal ist, dass es überhaupt abschaltbar ist.
Und somit kannst du es vergleichen.
Zumindest was das Tri Filtering angeht....Stage Optrimierungen sind ja nachwievor vorhanden...

Gast
2004-06-10, 18:00:01
Original geschrieben von aths
Nicht so vorschnell, bitte =)

Verstehe ich nicht, machst du jetzt eine Kehrtwende?

Gast
2004-06-10, 18:06:33
Original geschrieben von Quasar
Ein IHV wird demnächst in dieser Beziehung vorlegen, ich denke (und hoffe), über kurz oder lang wird der andere IHV diesbezüglich dann nachziehen.

NV hat bereits das winkelabhängige filtern schon eingebaut, was sich ich keinesfalls abschalten läßt. Ati hat ebenfalls noch draufgelegt, die Laola-Welle läßt mir jedesmal das Essen hochkommen.

Verstehe deinen Optimismus nicht, bin gar so deprimiert zu sagen, die refrech-chips bringen ebenfalls keine Besserung.

Uller
2004-06-10, 18:11:10
Original geschrieben von Gast
Verstehe ich nicht, machst du jetzt eine Kehrtwende?

Nein, er meint damit sicherlich, dass die Forderungen nach einer Wahlmöglichkeit erhört wurden. Nvidia scheint alles an- und ausschalten zu lassen (außer der Winkelabhängigkeit, die kann man nicht ausschalten).

Gast
2004-06-10, 18:19:39
Original geschrieben von Uller
Nein, er meint damit sicherlich, dass die Forderungen nach einer Wahlmöglichkeit erhört wurden. Nvidia scheint alles an- und ausschalten zu lassen (außer der Winkelabhängigkeit, die kann man nicht ausschalten).

Aha, sind wir uns da so sicher? Immerhin sind ja schon einige Spielereien bekannt geworden.

Unterschiedliche AF Level und unterschiedliche Filtermethoden (bi, bri und tri) auf den verschiedenen Texturstages. Daraus ergeben sich eine ganze Menge Möglichkeiten, mal ganz abgesehen davon daß bestimmte Applikationen zum Testen vom Treiber erkannt werden. Viel Spaß dabei.

Quasar
2004-06-10, 18:23:14
Original geschrieben von Gast
NV hat bereits das winkelabhängige filtern schon eingebaut, was sich ich keinesfalls abschalten läßt. Ati hat ebenfalls noch draufgelegt, die Laola-Welle läßt mir jedesmal das Essen hochkommen.

Verstehe deinen Optimismus nicht, bin gar so deprimiert zu sagen, die refrech-chips bringen ebenfalls keine Besserung.

Ja, mit der Winkelabhängigkeit scheinen wir erstmal leben zu müssen - schlimm genug! Allerdings finde ich es noch ein Stück dümmlicher von BEIDEN IHVs, das bißchen Rest-Filterqualität, was sie noch bieten, auch noch per Treiber zusätzlich zu beschneiden.
Darauf war mein "Optimismus" bezogen.

DanMan
2004-06-11, 01:54:39
Original geschrieben von Quasar
Ja, mit der Winkelabhängigkeit scheinen wir erstmal leben zu müssen - schlimm genug!
Einen kleinen Funken Hoffnung hab ich noch, da das 2x AF ja nach wie vor keine Winkelabhängigkeit zeigt. Wieso soll das also nicht auch bei den höheren Modi möglich sein?

Coda
2004-06-11, 02:11:02
Die Ausprägung der Winkelabhängigkeit ist bei 2x nur nicht groß.
Das AF ist definitiv in HW verbaut.

Mich kotzt das ganze auch an. Ich hoffe auf PVR Series 5 oder einen "großen" Chip von S3.

aths
2004-06-11, 08:47:02
Original geschrieben von DanMan
Einen kleinen Funken Hoffnung hab ich noch, da das 2x AF ja nach wie vor keine Winkelabhängigkeit zeigt. Wieso soll das also nicht auch bei den höheren Modi möglich sein? 2x AF ist für die anderen Modi an den "schwachen" Stellen das Minimum. Ich will aber noch bestimmte Tests beim 4x AF machen.

Piffan
2004-06-11, 12:51:53
Original geschrieben von Gast
Aha, sind wir uns da so sicher? Immerhin sind ja schon einige Spielereien bekannt geworden.

Unterschiedliche AF Level und unterschiedliche Filtermethoden (bi, bri und tri) auf den verschiedenen Texturstages. Daraus ergeben sich eine ganze Menge Möglichkeiten, mal ganz abgesehen davon daß bestimmte Applikationen zum Testen vom Treiber erkannt werden. Viel Spaß dabei.

Eigentlich sind alle Benches ne Farce. Sorry, aber die ganze Arbeit, die sich Leo oder Thilo von PcGH gemacht haben, ist für den Arsch!
Hier liegt nicht mehr die Karte vorn, die besser ist, sondern diejenige, wo man die schlauen Kritiker am besten verarscht....

Lustig auch Leos Erklärung in den News, dass Ati gute Arbeit geleistet hat, indem die Bildqualität kaum leidet, aber die Performance deutlich besser wird. HALLO???

Eigentlich tragen die fanATIker die volle Schuld an der Misere. Haben jahrelang das AF der Radeons schöngeredet und die tolle Performance über den grünen Klee gelobt. Will mich da nicht aussnehmen. Nur: Dann bitte nicht einäugig sein. Leider habe ich ebenfalls ins selbe Horn gestoßen und mit der Performance meiner Radeon 9700 bei 16!fachem AF geprahlt und es schön geredet.

Was mich sehr nachdenklich macht: Das eigentlich nur noch Quasar übrig ist von den aufrichtigen Nvidioten, ows Weggang reißt eine nicht schließbare Lücke. Wenn nur noch Fanboys die Fahne für NV hochhalten, ist dieses Forum wertlos geworden :(

Exxtreme
2004-06-11, 12:57:29
Original geschrieben von Piffan
Lustig auch Leos Erklärung in den News, dass Ati gute Arbeit geleistet hat, indem die Bildqualität kaum leidet, aber die Performance deutlich besser wird. HALLO???

Trifft auch auf Multisampling zu. ;)
Original geschrieben von Piffan
Eigentlich tragen die fanATIker die volle Schuld an der Misere. Haben jahrelang das AF der Radeons schöngeredet und die tolle Performance über den grünen Klee gelobt. Will mich da nicht aussnehmen. Nur: Dann bitte nicht einäugig sein. Leider habe ich ebenfalls ins selbe Horn gestoßen und mit der Performance meiner Radeon 9700 bei 16!fachem AF geprahlt und es schön geredet.

Naja, solange du keinen Unterschied gemerkt hast zu deiner GF dann war's doch ein guter Deal für dich. Deutlich mehr Performance bei für dich kaum sichtbaren Qualitätsverlust.

Bei mir ist's z.Zt. so, daß mich diese Winkelabhängigkeit tatsächlich stört.
Original geschrieben von Piffan
Was mich sehr nachdenklich macht: Das eigentlich nur noch Quasar übrig ist von den aufrichtigen Nvidioten, ows Weggang reißt eine nicht schließbare Lücke. Wenn nur noch Fanboys die Fahne für NV hochhalten, ist dieses Forum wertlos geworden :(
Es könnte sich bald wieder ändern. :D *hint*

aths
2004-06-11, 13:14:14
Original geschrieben von Piffan
Was mich sehr nachdenklich macht: Das eigentlich nur noch Quasar übrig ist von den aufrichtigen Nvidioten, ows Weggang reißt eine nicht schließbare Lücke. Wenn nur noch Fanboys die Fahne für NV hochhalten, ist dieses Forum wertlos geworden :( Quasar halte ich für einen vergleichsweise neutralen im Forum. Wenn ich das richtig sehe, versucht er eher, die momentan vorherrschende Grundhaltung (ATI r00lt) kritisch zu hinterfragen.

DrumDub
2004-06-11, 13:34:27
Original geschrieben von aths
Quasar halte ich für einen vergleichsweise neutralen im Forum. Wenn ich das richtig sehe, versucht er eher, die momentan vorherrschende Grundhaltung (ATI r00lt) kritisch zu hinterfragen.

jupp. außerdem liefert quasar auch immmer die fakten um seine urteile zu belegen.

Gast
2004-06-11, 14:31:58
Original geschrieben von aths
die momentan vorherrschende Grundhaltung (ATI r00lt)


Wie bitte? :O

Ati hat mit bem R300 und R350 wirklich einen Killerchip gehabt, aber mit der neuen Generation die glorreichen Zeiten der 8500 erreicht.

Ich würde mir wünschen, du könntest einen vernichtenden Artikel diesbezüglich schreiben. Der NV40 darf auch ruhig erwähnt werden.

zeckensack
2004-06-11, 14:45:46
Mal ein ganz klein wenig @ Topic ...

Den brilinearen Filter auf der FX sehe ich ohne AF nur ab und an, dafür muss ich mich auch anstrengen. Stört mich kaum bis garnicht*.

Mit AF, und inklusive allen Optimierungen die da im Treiber (61.12) schlummer mögen, halte ich die Filterqualität der FX für "gerade noch akzeptabel". Ich kann es in Bewegung jederzeit* sehen, und es stört.

Also immer her mit diesem Schalter :)

*die Auswahl meiner bisher mit der FX angespielten Titel ist recht begrenzt. In Zahlen: 10 Spiele, 10 Techdemos/sonstiges.

Leonidas
2004-06-12, 05:59:42
Note:

Treiber 61.34 bringt neue Filtereinstellungen mit: Quality-Modus hat dieselben Optimierungen wie ATi, HQ-Modus mit deaktivierter trilinearer Optimierung ist komplett optimierungsfrei. Gilt für FX wie GF6 und soll für die nächste Zeit die Filter-Qualität bei NV bleiben.

Quasar
2004-06-12, 08:11:21
Original geschrieben von Piffan
Was mich sehr nachdenklich macht: Das eigentlich nur noch Quasar übrig ist von den aufrichtigen Nvidioten, ows Weggang reißt eine nicht schließbare Lücke. Wenn nur noch Fanboys die Fahne für NV hochhalten, ist dieses Forum wertlos geworden :(

Ich wollte nur nochmal anmerken (aufgrund der beiden positiven Kritiken von aths und drumdub, mit denen ich ja bekanntlich nicht immer einer Meinung bin), daß ich diesen Satz von Piffan nicht als negativ aufgefaßt habe. :)

(Nicht, daß es jetzt Punkte gibt, oder so)

Axel
2004-06-12, 08:34:57
Original geschrieben von Leonidas
Note:

Treiber 61.34 bringt neue Filtereinstellungen mit: Quality-Modus hat dieselben Optimierungen wie ATi, HQ-Modus mit deaktivierter trilinearer Optimierung ist komplett optimierungsfrei. Gilt für FX wie GF6 und soll für die nächste Zeit die Filter-Qualität bei NV bleiben.

Ist die Winkelabhängigkeit im HQ-Modus auch verschwunden? Ich dachte diese ist in der Hardware festgeschrieben.

Quasar
2004-06-12, 08:37:52
Nein, die ist bis jetzt unverändert (und es ist, IMO, selbst wenn nV es ändern könnte, nicht damit zu rechnen, daß sie es auch tun - die momentanen Einstellungen unter "Quality" zeigen ziemlich deutlich, daß nV nur soviel an Qualität rausrücken will, wie ATi dies tut.

s. auch das Interview mit L.Alibrandi dazu auf der Hauptseite - das spricht Bände.

Gast
2004-06-12, 10:04:13
Original geschrieben von Quasar
Nein, die ist bis jetzt unverändert (und es ist, IMO, selbst wenn nV es ändern könnte, nicht damit zu rechnen, daß sie es auch tun - die momentanen Einstellungen unter "Quality" zeigen ziemlich deutlich, daß nV nur soviel an Qualität rausrücken will, wie ATi dies tut.

s. auch das Interview mit L.Alibrandi dazu auf der Hauptseite - das spricht Bände.


was ich sehr bedauerlich finde aber auch verstehen kann.
Wenn mal jeder ganz ehrlich ist, auch wenn er der totale Fanboy der anderen Seite ist, muss man doch erkennen, dass der Hype ums AA, DX9 und die tolle Performance die Kritik am wirklich schlechten Filtering total überdeckt hat bzw. die notwendige Kritik ist völlig untern Tisch gefallen.

Niemand wollte BQ Unterschiede gesehen haben. Bei Nvidia reichte oftmals schon ein anderes Verhalten im Treiber und das Cheatergeschrei war groß. Jede Winzigkeit wollte mit einmal jeder gesehen haben.
Eigentlich braucht sich keiner wundern, dass Nvidia sich dazu genötigt sieht seine BQ obwohl sie besser sein könnte als die der Konkurenz anzupassen. Das ist wirklich sehr schade.

Im Regelfall muss man ja grundsätzlich skeptisch sein, was die Firmen und Ihre PR so sagen aber in dem Punkt war der Mann von Nvidia ziemlich ehrlich und zu 100% an der Wahrheit dran. Für Ihre tolle Filterqualität wurden sie nicht einmal gelobt immer nur für die schlechtere Performance gebasht.
Das ist wirklich traurig. Die Karten haben so viel Power und es wäre überhaupt kein Problem die volle Qualität zu nutzen. Da bleiben noch genug FPS übrig. Und wenn der Power nicht reicht geht man eben eine AF Stufe runter.

Die Reviewer sollten langsam mal erkennen, dass hier Abstriche immer optional sein müssten. Da schliesse ich neben den ganzen Optimierungen auch die Winkelabhängigkeit mit ein. Man hätte klar sagen müssen, dass Winkelabhängiges AF NICHT vergleichbar ist mit vollem AF. Dann wärs auch nicht soweit gekommen.
Da sind Kunden, Fanboys und Tester eindeutig schuld an der Entwicklung. Sowas nennt man nicht differenzierte Bewertung.
ATI war bei DX9 Speed (nicht Features) und AA besser also war alles besser. So war der Grundton und alle sind dem wie beim klassischen Herdentrieb gefolgt.
Es braucht sich keiner wundern, wieso dann die Konkurenz sicht gezwungen sieht die eigene BQ anzupassen. Ich würde es sogar verstehen, wenn sie jegliche Option weglassen würden, solange es Seiten wie hardocp.com gibt, die doch dreist die volle Quality bei Nvidia gegen die optimierte bei ATI benchen mit dem Kommentar - sieht gleich aus.
Sowas lächerliches hab ich noch nie gelesen. Das sieht NIE IM LEBEN gleich aus und kann es auch nicht.
Da kann ich mich auch hinstellen und behaupten FX12 oder FP16 sieht immer gleich aus wie FP24.

Gruss
Richti

Mr. Lolman
2004-06-12, 11:47:33
Schiebt die Schuld nicht auf die Leute. Imo sind Balkenreviews weitaus schlimmer.


Wenn sich die Hersteller tatsächlich nach der Community richten würden, hätte man, längst Regler zur völlig freien Konfiguration von AA/AF, wahlweise aktivierbares Supersampling, page flipping support, und ein erweitertes Smartshader tool, (mit dem man für jede Spieltextur einen Shadereffekt auswählen, oder selbst erstellen kann)

Das Controlpanel wär nicht so hässlich, und die Treiber wären nur mehr 10MB gross anstatt 20.



Wär alles machbar. Trotzdem geschieht nichts, obwohl für diese Dinge sicher mehr Feature Requests kamen, als für schlechtere Textufilterung. Also schiebt das nicht auf die Community, und die Leute, die ATis AF bisher ok fanden.

Gast
2004-06-12, 11:54:29
Original geschrieben von Leonidas
Note:

Treiber 61.34 bringt neue Filtereinstellungen mit: Quality-Modus hat dieselben Optimierungen wie ATi, HQ-Modus mit deaktivierter trilinearer Optimierung ist komplett optimierungsfrei. Gilt für FX wie GF6 und soll für die nächste Zeit die Filter-Qualität bei NV bleiben.


Wann wird denn dieser ominöse Treiber Revision erscheinen und was genau bedeutet "optimierungsfrei" (würde micht nicht wundern wenn das neu definiert wurde).
Keine Stageoptimierung mehr?

aths
2004-06-12, 11:59:10
Original geschrieben von Mr. Lolman
Also schiebt das nicht auf die Community, und die Leute, die ATis AF bisher ok fanden. In den meisten Fällen ist das R300-AF auch ok, da es eine allgemeine BQ-Verbesserung darstellt. R300-AF gut zu finden ist daher voll "zulässig" :)

Nur ist diese Verbesserung nicht so gut, wie z. B. GF3-FX Texturen verbessern können. Was das NV-AF an Leistung kostet, bekommt man in Qualität ausgezahlt. Das Problem ist, dass jeder Zahlen vergleichen kann, aber sich die wenigsten um das tatsächlich gerendere Bild kümmern. Demzufolge wird "16x" AF eingeschaltet und gebencht, und ATI für das Ergebnis gelobt.

Mr. Lolman
2004-06-12, 12:40:46
Original geschrieben von aths
Demzufolge wird "16x" AF eingeschaltet und gebencht, und ATI für das Ergebnis gelobt.

Gut, dieser Umstand ist dann aber eher den Reviewern anzulasten...

aths
2004-06-12, 16:26:11
Original geschrieben von Mr. Lolman
Gut, dieser Umstand ist dann aber eher den Reviewern anzulasten... Ja und nein.

Ja, die Reviewer haben letztlich die Verantwortung für ihre Artikel. Aber von ATI gibts ja auch Review-Guides. Dort wird z. B. schön AF verglichen, natürlich nur bei Winkeln wo es auch noch was bringt. Nvidias Review-Guides sind natürlich auch nicht sauber.

DanMan
2004-06-12, 17:12:25
Original geschrieben von Mr. Lolman
Gut, dieser Umstand ist dann aber eher den Reviewern anzulasten...
Genauso wie den Blindgänger, die fressen was man ihnen da füttert.

LovesuckZ
2004-06-12, 17:13:33
Original geschrieben von DanMan
Genauso wie den Blindgänger, die fressen was man ihnen da füttert.

Wieso?
Man liest diese Reviews, um sich eine Meinung über ein Produkt zu beschaffen, überwelche man nicht verfuegt.
Diese "Blindgänger" haben deswegen am wenigsten die Schuld.

robbitop
2004-06-12, 18:03:15
nicht unbedingt. Jeder hat die Möglichkeit eine Vielzahl von Quellen zu recherchieren. Wer nur eine Quelle liesst, hat oft Nachteile.

Aquaschaf
2004-06-12, 18:16:31
Nicht jeder hat die Zeit und Lust sich bei einem, insgesamt betrachtet, eher nebensächlichen Thema wie Grafikkarten intensiv Informationen zu recherchieren.

DanMan
2004-06-12, 18:24:25
Original geschrieben von LovesuckZ
Wieso?
Man liest diese Reviews, um sich eine Meinung über ein Produkt zu beschaffen, überwelche man nicht verfuegt.
Diese "Blindgänger" haben deswegen am wenigsten die Schuld.
Nicht wenn sie alles für bare Münze nehmen was man ihnen auftischt.

"Drinking bleach reduces your risk of getting cancer by 99%!"
Original geschrieben von Aquaschaf
Nicht jeder hat die Zeit und Lust sich bei einem, insgesamt betrachtet, eher nebensächlichen Thema wie Grafikkarten intensiv Informationen zu recherchieren.
Dann muss man aber eben auch die Fresse halten können wenn man keine Ahnung hat.

Gast
2004-06-12, 19:06:29
Leo gibt immer einen umfassenden Ausblick auf die Hardware, da reicht eine Quelle vollkommen.

xL|Sonic
2004-06-12, 19:07:31
Original geschrieben von Aquaschaf
Nicht jeder hat die Zeit und Lust sich bei einem, insgesamt betrachtet, eher nebensächlichen Thema wie Grafikkarten intensiv Informationen zu recherchieren.

Wer das bei einer 500€Karte nicht tut, ist doch selber schuld und sollte sich dann im nachhinein nicht drüber aufregen, wenn ihm was nicht gefällt.

aths
2004-06-12, 19:27:06
Original geschrieben von Aquaschaf
Nicht jeder hat die Zeit und Lust sich bei einem, insgesamt betrachtet, eher nebensächlichen Thema wie Grafikkarten intensiv Informationen zu recherchieren. Für solche Leute reicht eine kleine Grafikkarte ja auch aus :)

DrumDub
2004-06-13, 20:20:00
Original geschrieben von Valmar
Wer das bei einer 500€Karte nicht tut, ist doch selber schuld und sollte sich dann im nachhinein nicht drüber aufregen, wenn ihm was nicht gefällt.

exakt.

r@h
2004-06-13, 21:21:06
Hi Leo,
Original geschrieben von Leonidas
Note:

Treiber 61.34 bringt neue Filtereinstellungen mit: Quality-Modus hat dieselben Optimierungen wie ATi, HQ-Modus mit deaktivierter trilinearer Optimierung ist komplett optimierungsfrei. Gilt für FX wie GF6 und soll für die nächste Zeit die Filter-Qualität bei NV bleiben. Darf ich Dir zu diesem Treiber (http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=148461) ein paar Werte liefern ?
:D

Habe mir mal die neuen Optionen etwas näher angeschaut und dabei folgendes grundzätzliches festgestellt:

Es gibt nun eine Wechselwirkung zwischen dem 'Image Setting', geforcetem (erzwungenem) bzw. ungeforcetem (app-gesteuertem) AF und den beiden neuen Optimierungs-Deaktivierungs-Schieberchen (kurz ODS genannt ;-) 'Tri-Optimierung' bzw. 'AF-(Stage-)Optimierung'.

Um das ganze etwas logisch aufzubauen, nenne ich hier nur kurz die Default-Einstellung des Treibers (also direkt nach der Installation). Diese beinhaltet App-gesteuertes AF, das Image Setting 'Quality' und damit aktivierte Trilinear- und deaktivierte AF-(Stage-)Optimierung. Dazu aber später mehr.

Primär sollte hier das "Image Setting" betrachtet werden:

Lediglich in den Modi unterhalb der 'High Quality'-Einstellung kann etwas an den ODS (siehe oben ;-) geändert werde. Ist also HQ ausgewählt, sind beide ODS und damit auch alle verbundenen Optimierungen deaktiviert. Aber da ist noch ein bissel mehr (was noch zu klären ist), weil 'Quality' mit beiden ODS auf 'Off' immer noch ein Stückerl schneller ist, als der HQ-Modus.

Von den beiden 'Performance'-Modi rede ich hier lieber nicht, da diese für mich - selbst bei 'unoptimiertem' Tri/AF - eine inakzeptable BQ erzeugen.

Sekundär nun also die beiden 'wichtigen' ODS:

1) "Trilienar optimization"

Diese Option ist für die (De-)Aktiverung des (fixen) Tri-Bandes zuständig, welches z.Bsp. vom aTuner unter OGL bereits beeinflußt, bzw. vollständig auf 'reines' trilineares Filtern eingestellt werden konnte. Dieser Schalter deaktiviert nun das Tri-Band sowohl unter OpenGL, als auch unter Direct3D vollständig und ermöglicht somit wieder den von der gf3 gut bekannten 'echten' trilinearen Filter.

2) "Anisotropic optimization"

Diese Option ist für die (De-)Aktiverung der Stage-Optimierung des trilinearen Filters in Verbindung mit den gewählten AF-Leveln verantwortlich. Selbst bei deaktiviertem (1°) AF hat dieser Schalter noch einen - wenn auch sehr geringen - Einfluß auf die Performance... vor allem aber auf die dargestellte BQ! Diese Stage-Optimierung macht nichts anderes, als mit dem gewählten AF-Level (!) auf den Stages 1-7 nur noch bilinear zu filtern. Unabhängig davon, ob der AF-Level in der Applikation gewählt oder im Control-Panel erzwungen wird.

-

Diese beiden Optimierungen können sowohl separat, als auch in Kombination (De-)Aktiviert werden. Natürlich hat dies nicht den kumulativen Effekt, welcher sich durch die einzelnen Optimierungen ergibt, da sich selbstredend die Tri-Band-Optimierung bei aktiverter AF-(Stage-)Optimierung nur noch auf Stage 0 auswirken kann.

Genug der Theorie.

Habe jetzt mal an einem Extrem-Beispiel einen kleinen Performancevergleich vorgenommen, um die theoretischen Performance-Vorteile durch diese Optimierungen darzulegen. Theoretisch deswegen, weil ich hier ein Extrem-Beipsiel gewählt habe, welches sich nur bedingt auf die Real-World übertragen läßt.

Dieses Extrem-Beipsiel ist der Antalus-Flyby von UT2003.

Extrem auch deswegen, weil hier die sichtbaren Texturen nicht auf Stage 0 liegen, sondern auf Stage 1 und somit ein bilineares Filtern auf Stage 1 erhebliche Vorteile verschafft. Um diesem Beipsiel wenigstens einen Hauch von Realität beizugen, ist bei allen angegebenen Werten das hinzu geschaltete 2x(RGMS) AA zu berücksichtigen.

Aber seht selbst...

Die Performance-Mode sind hier außer Acht gelassen, insofern sich die On/Off-Spalten auf den 'Quality'-Modus der Image Settings beziehen:
High- Tr-Off Tr-On Tr-Off Tr-On
Quality AF-Off AF-Off AF-On Tr-On

1°AF 161.48 162.00 165.27 162.21 165.38
0,3% 2,3% 0,5% 2,4%

2°AF 121.54 125.62 139.01 144.69 151.54
3,4% 14,4% 19,0% 24,7%

4°AF 104.03 110.75 129.30 131.50 140.77
6,5% 24,3% 26,4% 35,3%

8°AF 96.99 105.13 124.76 125.01 137.90
8,4% 28,6% 28,9% 42,2%In diesem (zugegebenermaßen sehr krassen ;-) Beispiel, ist also im höchsten AF-Level eine maximale Einsparung von mehr als 40% drin. Dass muss man sich erst einmal auf der Zunge zergehen lassen...

Aber um auch den - von Leo auf der News-Seite schon erwähnten - Vorteil solcher Optimierungen darzustellen, habe ich auch noch einen anderen Vergleich anzubieten, welcher die 'Kosten' von höheren AF-Leveln ins Verhältnis setzt:
HQ Tr-Off Tr-On Tr-Off Tr-On
AF-Off AF-Off AF-On Tr-On

1°AF 161.48 162.00 165.27 162.21 165.38

2°AF 121.54 125.62 139.01 144.69 151.54
-24,7% -22,5% -15,9% -10,8% - 8,4%

4°AF 104.03 110.75 129.30 131.50 140.77
-35,6% -31,6% -21,8% -18,9% -14,9%

8°AF 96.99 105.13 124.76 125.01 137.90
-39,9% -35,1% -24,5% -22,9% -16,6%Im extrem hier also eine 'Kostenreduktion' von ursprünglich satten 40% auf gerade mal 17% ermöglicht wird.

Insbesondere dieser Punkt dürfte vor allem langsameren Karten zugute kommen, welche somit wunderbar in den 'Kosten' höherer AF-Level zu skalieren sind.

-

So, alles weitere sollte sich in der weiteren Diskussion ergeben. Bleibt eigentlich nur noch zu hoffen, dass ATI nun nachzieht, wo nVidia ja jetzt endlich das ermöglicht, was sich hier einige schon seit einer halben Ewigkeit erhofften: 'echte' trilineare Filterung auch auf den FX-Karten, von der gerade die 58'er und 59'er profitieren, da diese i.d.R. noch genug 'Power' haben, um den Leistungsverlust von 40% hinzunehmen und damit 'echte' trilineare Filterung bis zum maximalen AF-Level von 8°AF zu erhalten.

Razor

P.S.: Ob diese neuen Optionen tatsächlich in allen Real-World-Anwendungen das bewirken, was sie zumindest im AF-Tester tun, bleibt selbstredend abzuwarten. Auch zeigte der OGL-AF-Tester auf den Stages 1-3 keine AF-Optimierung (i.e. den bilinearen Filter), was aber auch mit dem Tool zu tun haben kann, da ich dort nocht nie Optimierungen solcher Art beobachten konnte. Vielleicht 'wirkt' diese AF-Optimierung aber auch nur unter D3D... who knows.

P.P.S.: Und ach ja, für die Tests wurde natürlich meine gute alten FX5900 von MSI benutzt, welche auf FX5950-Takten läuft...

r@h
2004-06-13, 21:24:38
Und ich vergaß zu erwähnen:

Der 61.34 ist ganz (in-)offizell der Treiber, welcher den Beta-Testern des "Sommer 2004 SDK" mit Unterstützung für SM3/NV40 von nVidia ans Herz gelegt wurde.

Selber konnte ich feststellen, dass sich dieser Treiber absolut konsistent und ohne irgendwelchen 'Irregularitäten' darbot und somit die breitest mögliche Unterstützung von nVidia-Chips bietet... von den Mobility-Chips mal (wie immer) abgesehen... ;)

Razor

Quasar
2004-06-13, 21:28:39
Original geschrieben von r@h
Ist also HQ ausgewählt, sind beide ODS und damit auch alle verbundenen Optimierungen deaktiviert. Aber da ist noch ein bissel mehr (was noch zu klären ist), weil 'Quality' mit beiden ODS auf 'Off' immer noch ein Stückerl schneller ist, als der HQ-Modus.

Das ist dasselbe, was bei ATi durch RV350ANTHRESH ausgelöst wird. Das Nach-hinten-verschieben der Schwelle, ab der in der Basistextur, also vor der ersten Mip, die Samplezahl pro Pixel erhöht wird.

Kommt alles Heute oder morgen ;)

LovesuckZ
2004-06-13, 21:32:20
Original geschrieben von Quasar
Das ist dasselbe, was bei ATi durch RV350ANTHRESH ausgelöst wird. Das Nach-hinten-verschieben der Schwelle, ab der in der Basistextur, also vor der ersten Mip, die Samplezahl pro Pixel erhöht wird.

Also sieht die "Default" genauso aus wie bei ATi?
Lod - Verschiebung, Winkelabhaengigkeit, Stageoptmierung und "Brilinear"?

Kommt alles Heute oder morgen ;)

Wie oft hast du bzw. habt ihr euern Artikeln eigentlich schon umbearbeitet?

Quasar
2004-06-13, 21:40:30
Original geschrieben von LovesuckZ
Also sieht die "Default" genauso aus wie bei ATi?
Lod - Verschiebung, Winkelabhaengigkeit, Stageoptmierung und "Brilinear"?[/SIZE]
Fast. LOD-Verschiebung beim AF (nur auf R420) fehlt m.W. noch, die GF verschiebt nur innerhalb der Basistextur, ATi kann das getrennt regeln und spätere AF-Level nach hinten schieben.


Original geschrieben von LovesuckZ

Wie oft hast bzw. habt ihr euern Artikeln eigentlich schon umbearbeitet? [/SIZE]

Fünfmal, IIRC.
:kotz:

r@h
2004-06-13, 21:46:24
Original geschrieben von Quasar
Fast. LOD-Verschiebung beim AF (nur auf R420) fehlt m.W. noch, die GF verschiebt nur innerhalb der Basistextur, ATi kann das getrennt regeln und spätere AF-Level nach hinten schieben.Auch sollte man beim Vergleichen von NV3x zu R3x0 nicht vergessen, dass sich ATI's Winkelabhängigkeit nicht abschalten läßt, die ja bei nVidia-Karten bis zu den FX'en nicht gegeben ist.
Original geschrieben von Quasar
Fünfmal, IIRC.
:kotz: Oh mein Gott, Du Ärmster !
Du hast echt mein tiefempfundenes Mitleid...

Aber ich bin da ja mal unheimlich gespannt, was da so von Dir/Euch kommen wird !

So wünsche ich Dir/Euch ein gutes Gelingen.

Razor

r@h
2004-06-13, 22:37:40
Original geschrieben von r@h
<snip> Auch zeigte der OGL-AF-Tester auf den Stages 1-3 keine AF-Optimierung (i.e. den bilinearen Filter), was aber auch mit dem Tool zu tun haben kann, da ich dort nocht nie Optimierungen solcher Art beobachten konnte. Vielleicht 'wirkt' diese AF-Optimierung aber auch nur unter D3D... who knows. <snap>Hab's gerade im nvnews-Forum beim Mini-Review (http://www.nvnews.net/vbulletin/showthread.php?p=339351#post339351) einer 6800 (128MB) von MikeC gelesen... KEINE AF-(Stage-)Optimierung unter OpenGL !

Habe dem OGL-AF-Tester also Unrecht getan...
Sorry, Xmas !
:-(

Razor

r@h
2004-06-13, 22:44:28
Ich zitiere hier mal diesbezügliche Kommentare (die wohl von nVidia übernommen worden zu sein scheinen ;-) :
Brian also furnished reviewers with a new ForceWare 61.34 WHQL candidate driver and an updated GeForce 6 Series reviewers guide. Texture filtering optimizations have been a hot topic of late and I'm glad to report that NVIDIA is giving the user total control over texture filtering options in the 61.34 driver. In addition to trilinear filtering optimizations, NVIDIA also added optimizations for anisotropic filtering.

The following section contains excerpts from the reviewers guide in regards to texture filtering:


Image Settings

With the launch of the NVIDIA ForceWare Release 60 graphics driver, NVIDIA has modified the Performance & Quality control panel to more accurately represent the driver settings. Users now have full control over image quality, trilinear optimizations, and anisotropic optimizations. NVIDIA now offers High Performance, Performance, Quality, and High Quality modes for Image Settings.

- The High Performance mode offers users the highest frame rate possible.

- Performance mode offers users an optimal blend of image quality and performance.

- Quality mode offers users the highest image quality while still delivering exceptional performance.

- High Quality mode is designed to give discriminating users images that do not take advantage of the programmable nature of the texture filtering hardware, and is overkill for everyday gaming.

http://www.nvnews.net/previews/geforce_6800/61.34_texture_filtering_settings.png


Trilinear and Anisotropic Optimizations

NVIDIA implements intelligent algorithms for trilinear and anisotropic optimizations. These optimizations are enabled by default. NVIDIA’s anisotropic optimization enables the NVIDIA display driver to take advantage of its programmability to substitute point-mipmap (bilinear) filtering for linear-mipmap (trilinear) filtering on some texture stages. The option the user specifies for "Image settings" determines which texture stages will be affected. The "Quality" image setting enables the use of point-mipmap filtering on all but the first texture stage.

NVIDIA’s trilinear optimization allows better texture filtering performance with no perceived lose of image quality. Users can view the areas of the image that are effected by the trilinear optimization by enabling textures that contain colored mipmap chains which are used in typical diagnostic applications.

Note: Colored mipmaps are not the sole determinant of the quality of the filtering. Comparing colored mipmaps with the optimization on and off only gives you a good idea of where to look on the "in-game" image for areas where the optimization is applied (i.e. where image quality may change). If the optimization is working correctly, you should not be able to see any difference in the in game screen shot when the optimization is on or off. Viewing objects in motion gives a much better illustration of filtering quality because trilinear filtering is a technique designed to reduce the appearance of the bands caused by the mipmap transitions when the image is in motion and the banding is more noticeable.

Turning trilinear optimization off disables trilinear optimizations and will result in the best image quality. NVIDIA understands that some users may want to disable these features, so we’ve provided controls to do this. To disable trilinear optimizations and anisotropic optimizations, click on the Show Advanced Settings checkbox and then set the Value to Off for Trilinear Optimizations and Anisotropic Optimizations. For OpenGL applications, the behavior of anisotropic optimizations is that regardless of what the Control Panel reports back; On or Off, the resulting behavior will be Off, because no Anisotropic Optimizations are implemented for OpenGL.


Anisotropic Filtering

NVIDIA's Quality, Performance, and High Performance modes feature adaptive texture filtering, a technology that takes advantage of the adaptive/programmable hardware to make more intelligent choices about bandwidth usage and allow the hardware to work more efficiently without making quality tradeoffs. Selecting High Quality mode will disable adaptive texture filtering.

NVIDIA’s High Quality mode gives true anisotropic filtering without leveraging the adaptive and programmable nature of the texture filtering hardware. There is virtually no perceivable image quality difference between High Quality and Quality modes. If you do image inspections between High Quality and Quality settings, you'll find them to be virtually indistinguishable.Na ja...

Man soll also die 'Quality'-Optimierungen nicht bzw. "so gut wie nicht" von dem unoptimierten 'High Quality'-Setting unterscheiden können ?
:???:

Hört sich doch wirklich seeeeeehhhhhrrrrr nach nVidia an, oder ?
:D

Aber ich danke ihnen auf Knieen für diese wundervollen Schalter !
:massa:

Razor

robbitop
2004-06-14, 00:16:05
Hallo Razor!

Du hast wirklich mal wieder einmal einen deiner wertvollen Treiberberichte released. Klasse gemacht, man sieht sehr gut, was die Optimierungen an Performance brachten.

Du hast bessere Augen als ich: siehst du das Fehlen der Optimierungen deutlich? Wenn ja wie deutlich und wie oft und wo siehst du sie nicht?

r@h
2004-06-14, 19:29:02
Original geschrieben von robbitop
...man sieht sehr gut, was die Optimierungen an Performance brachten.Bringen können...
Schließlich habe ich mir da wohl wirklich den worst-case gegriffen.
:D
Original geschrieben von robbitop
Du hast bessere Augen als ich: siehst du das Fehlen der Optimierungen deutlich? Wenn ja wie deutlich und wie oft und wo siehst du sie nicht? Also die 'Basis-Optimierung' von HQ zu Q(uality) konnte ich visuell im bewegten Bild nicht dingfest machen. Insofern scheintDas Nach-hinten-verschieben der Schwelle, ab der in der Basistextur, also vor der ersten Mip, die Samplezahl pro Pixel erhöht wird.
(Zitat Quasar)keinen besonderen Einfluss auf die BQ zu haben.

Die Tri-Optimierung ("Brilinear") sehe ich wirklich nur extremst selten... im bewegten Bild eigentlich so gut, wie gar nicht. Uru wäre hier ein Beispiel (insbesonders auf der Wüstenebene), wo man dessen 'Wirkung' sehr gut beobachten kann (würde hier soweit gehen, dass es auf 'ner Radeon schlicht unspielbar ist).

Die AF-(Stage-)Optimierung hingegen kann man fast überall beobachten, wenn man denn darauf achtet. Klar in hektischen Online-Gefechten wird man auch davon kaum was mitbekommen, aber wenn's mal ruhiger wird, dann kommt's nicht so gut. - Richtig 'schlecht' wirkt diese Art der Optimierung auf Games wie UT2003/04, da hier visuell wahrnehmbare Texturen auf Stage 1 liegen, die mit aktivierter Optimierung schlicht nur noch bilinear gefiltert werden. DAS sieht dann richtig übel aus...

-

Insofern ich die Stage-Optimierung grundsätzlich deaktiviere, die TriOpt wird in Games aktiviert, wenn die Leistung nicht mehr reicht (ist gottlob nur sehr selten der Fall ;-) und wo es richtig auffällt, bzw. Performance in diesem Maße keine Rolle spielt, wird auch TriOpt deaktiviert (und im Falle eines Performance-Bedarfes eben der AF-Level reduziert). Einen Grund, den HQ-Modus zu benutzen, habe ich derzeit noch nicht gefunden...

Razor

MadManniMan
2004-06-14, 19:34:23
Original geschrieben von r@h
Die Tri-Optimierung ("Brilinear") sehe ich wirklich nur extremst selten... im bewegten Bild eigentlich so gut, wie gar nicht. Uru wäre hier ein Beispiel (insbesonders auf der Wüstenebene), wo man dessen 'Wirkung' sehr gut beobachten kann (würde hier soweit gehen, dass es auf 'ner Radeon schlicht unspielbar ist).

- ohne die letzten Seiten gelesen zu haben, also völlig aus der Diskussion heraus gerissen -

Du meinst auf RV350/360 und R420, oder? Wenn mich mein Gedächtnis nicht täuscht, ist das Bri-Band beim RV350/360 größer, denn beim NV3X, beim R420 kleiner (Quellen: ComputerBase und XBit-Labs), ergo müßte dann diese Unspielbarkeit entweder nur auf den R9600ern, oder aber auf allen drei Chips gegeben sein?

Tigerchen
2004-06-14, 19:39:42
Uru filtert auch auf einer R300 nur Bilinear, egal was man im Control-Panel einstellt. Da braucht man schon das rTool um Uru trilineares Filtern beizubringen. Das haben die Spieleprogrammierer verbockt.

resonatorman
2004-06-14, 20:23:28
Nach allem was ich hier gelesen habe, kann man doch sagen, daß die FX in Verbindung mit dem neuen Treiber ALLEINE in der Lage ist, optimale BQ anzubieten.
Kann man das so stehen lassen?

edit : GF4 und früher ausgeklammert, weil hier die Leistung nicht mehr reicht.

The_Invisible
2004-06-14, 20:48:38
Juhu, danke, vielen Dank an nvidia für diesen wundervollen schalter, so sollte es sein, wenn man will kann man die optimierung einschalten (die man nur sehr selten visuell bemerkt) und sonst alle optimierungen ganz ab (wie ich es habe), somit habe ich wieder gutes altes oldschool GF4 AF auf meine FX

hoffen wir das es bei den offiziellen treibern auch so bleibt

mfg

MadManniMan
2004-06-14, 20:50:12
Original geschrieben von resonatorman
Nach allem was ich hier gelesen habe, kann man doch sagen, daß die FX in Verbindung mit dem neuen Treiber ALLEINE in der Lage ist, optimale BQ anzubieten.
Kann man das so stehen lassen?

edit : GF4 und früher ausgeklammert, weil hier die Leistung nicht mehr reicht.

Den DeltaChrome nicht vergessen! ;) Ansonsten hast du leider Recht!

r@h
2004-06-15, 05:59:14
Original geschrieben von MadManniMan
Du meinst auf RV350/360 und R420, oder? Wenn mich mein Gedächtnis nicht täuscht, ist das Bri-Band beim RV350/360 größer, denn beim NV3X, beim R420 kleiner (Quellen: ComputerBase und XBit-Labs), ergo müßte dann diese Unspielbarkeit entweder nur auf den R9600ern, oder aber auf allen drei Chips gegeben sein? Nein.

Wie Tigerchen schon sagte, siehts auch auf einer R300 per Default absolut schlecht aus (mächtiges Wellenscheiben ahoi)... bzw. mit einem R350, den ich seit einiger Zeit mein Eigen nennen darf.

Selbst mit dem rTool und dem damit erzwungenen TriFilter sieht es nicht so richtig prall aus. Keine Ahnung warum das so ist...

Aber um Mißverständnisse zu vermeiden: auch auf 'ner FX sah es recht übel aus - bis eben der 61.34 kam, mit der Möglichkeit, wirklich ALLE Optimierungen zu deaktivieren (Quali 'ohne' reicht hier, muss nicht HQ sein).

Razor

robbitop
2004-06-15, 11:56:29
@the_inv
es ist nicht ganz das oldscoolAF der NV2x, aber es ist schon nah dran und das zu erträglicher Performance.

DrumDub
2004-06-15, 11:57:28
Original geschrieben von r@h
Wie Tigerchen schon sagte, siehts auch auf einer R300 per Default absolut schlecht aus (mächtiges Wellenscheiben ahoi)... bzw. mit einem R350, den ich seit einiger Zeit mein Eigen nennen darf.


nein. das ist die stage"optimierung", die sich bei uru über die ingame-af-setting nicht umgehen lässt.
mit dme rtool oder radlinker im fulltriaf gibt da keine wellen mehr. wellen gibts da höchsetns noch im kopf.

MechWOLLIer
2004-06-15, 14:38:11
Original geschrieben von robbitop
@the_inv
es ist nicht ganz das oldscoolAF der NV2x, aber es ist schon nah dran und das zu erträglicher Performance.

Was ist den noch anders im Gegensatz zum AF des NV2x?
Ich dachte, dass NV2x und NV3x abgesehen von den Optimierungen gleich sind.

robbitop
2004-06-15, 14:48:35
schau dir die Isotrope Blume mal an und dann die 8xAF Blume. IIRC gabs da unterschiede bzgl geringer Winkeladaptivität

MadManniMan
2004-06-15, 16:12:43
Original geschrieben von r@h
Nein.

Wie Tigerchen schon sagte, siehts auch auf einer R300 per Default absolut schlecht aus (mächtiges Wellenscheiben ahoi)... bzw. mit einem R350, den ich seit einiger Zeit mein Eigen nennen darf.

Default sah scheiße aus, das ist wahr.

Original geschrieben von r@h
Selbst mit dem rTool und dem damit erzwungenen TriFilter sieht es nicht so richtig prall aus. Keine Ahnung warum das so ist...

Also das Wellenschieben gab sich bei mir de facto nur über Bi auf irgendwelchen Stages.

Was sein kann, ist daß du die Neigung zum leichten Unterfiltern der Radeons wahrnimmst - ich tus nicht (nicht mehr? :| ), aber dieses Unterfiltern kann IIRC auch einen leichten Bugwelleneffekt hervorrufen...

...Abhilfe wäre hier ein Senken des MipMap-LoD-Bias per 3rd-Partytool - +0,25 sollten wohl reichen :grübel:

Original geschrieben von r@h
Aber um Mißverständnisse zu vermeiden: auch auf 'ner FX sah es recht übel aus - bis eben der 61.34 kam, mit der Möglichkeit, wirklich ALLE Optimierungen zu deaktivieren (Quali 'ohne' reicht hier, muss nicht HQ sein).

Razor

Ich hab die Urudemo vor Ewigkeiten mal angespielt und herausgefunden, daß mir das Genre nicht zusagt - die Optik hats mir dennoch angetan! Hier habe ich dann auch mal gemerkt, daß ich als vorrangig "Schnellspiel"-Kram-Spieler bei lahmen Sachen doch sehr auf die Texturen achte und auf FullTri nicht verzichten möchte.

Axel
2004-06-15, 17:30:33
Original geschrieben von robbitop
schau dir die Isotrope Blume mal an und dann die 8xAF Blume. IIRC gabs da unterschiede bzgl geringer Winkeladaptivität

Yep, die FX hat bei 8xAF eine ganz leichte Winkelabhängigkeit.

Jesus
2004-06-15, 17:42:44
Original geschrieben von DrumDub
nein. das ist die stage"optimierung", die sich bei uru über die ingame-af-setting nicht umgehen lässt.
mit dme rtool oder radlinker im fulltriaf gibt da keine wellen mehr. wellen gibts da höchsetns noch im kopf.


URU filtert per default nur bilinear, hat nichts mit irgendeiner optimierung zu tun.

Blaire
2004-06-15, 17:43:44
Was ist eigentlich das Uru? Das liegt als Vollversion bei meine MSI dabei? 3D SHooter?

Quasar
2004-06-15, 18:19:15
Original geschrieben von Axel
Yep, die FX hat bei 8xAF eine ganz leichte Winkelabhängigkeit.

Ja, aber hat die nicht auch die GF4 TI?
Ich habe momentan leider nur OpenGL-Shots da, diese sehen aber bist auf den Rand des Tunnels zum "schwarzen Loch" in der Mitte hin, nahezu gleich aus.

MechWOLLIer
2004-06-15, 18:20:08
Original geschrieben von robbitop
schau dir die Isotrope Blume mal an und dann die 8xAF Blume. IIRC gabs da unterschiede bzgl geringer Winkeladaptivität

Stimmt hast recht. Die FX wird bei 8xAF ganz leicht Winkelanhängig.

Axel
2004-06-15, 18:41:29
Original geschrieben von Quasar
Ja, aber hat die nicht auch die GF4 TI?
Ich habe momentan leider nur OpenGL-Shots da, diese sehen aber bist auf den Rand des Tunnels zum "schwarzen Loch" in der Mitte hin, nahezu gleich aus.

Möglich.
Ich kanns aber nicht beurteilen, da Leonidas keine AF-Darstellungen der GF3/4 im Archiv hat.

Die FX-Blumen gibts hier. (http://www.3dcenter.org/artikel/r9800xt_vs_gffx5950u/index8.php)

Tigerchen
2004-06-15, 19:18:17
Original geschrieben von Blaire
Was ist eigentlich das Uru? Das liegt als Vollversion bei meine MSI dabei? 3D SHooter?

3D Adventure. Was für Eierköpfe.:)

Gast
2004-06-15, 19:25:46
Um das Niveau nicht noch weiter absacken zu lassen, hättest du auf diesen Ausdruck verzichten können...

r@h
2004-06-16, 06:24:06
Original geschrieben von DrumDub
nein. das ist die stage"optimierung", die sich bei uru über die ingame-af-setting nicht umgehen lässt.
mit dme rtool oder radlinker im fulltriaf gibt da keine wellen mehr. wellen gibts da höchsetns noch im kopf. Wenn Du meinst...
(werde einem fanATIsten doch nicht wiedersprechen ;-)

Razor

r@h
2004-06-16, 06:29:54
Original geschrieben von MadManniMan
Also das Wellenschieben gab sich bei mir de facto nur über Bi auf irgendwelchen Stages.

Was sein kann, ist daß du die Neigung zum leichten Unterfiltern der Radeons wahrnimmst - ich tus nicht (nicht mehr? :| ), aber dieses Unterfiltern kann IIRC auch einen leichten Bugwelleneffekt hervorrufen...

...Abhilfe wäre hier ein Senken des MipMap-LoD-Bias per 3rd-Partytool - +0,25 sollten wohl reichen :grübel:Mag sein... so weit bin ich dann doch nicht in die Analen des Treibers 'geschlüpft', um auszuprobieren welches Settung nun welche gewünschte Wirkung hat.

Was ich aber mit Sicherheit wahr genommen habe, ist die doch teilweise extrem auffällige Winkelabhängigkeit in diesem Game (in anderen auch, hier war's aber wirklich fast überall zu sehen).

-

Nur das würde ein weinig zu weit vom Thema weg führen, da sich solcherart 'Optimierungen' wohl kaum verändern lassen...

Razor

r@h
2004-06-16, 06:35:06
Original geschrieben von Tigerchen
3D Adventure. Was für Eierköpfe.:)Das ERSTE 3D Adventure aus dem Myst-Universum !
Du hast wirklich KEINE Ahnung...
:D

Razor

P.S.: Soll das heißen, dass die grausige BQ in Uru unwichtig ist, weil Dir das Genre nicht paßt ? Merkwürdige Einstellung...

resonatorman
2004-06-16, 06:36:30
Meintest du wirklich die "Analen" des Treibers :arsch: oder doch die "Annalen"? Würde ja beides irgendwie Sinn machen ;)

aths
2004-06-16, 09:27:17
Original geschrieben von Axel
Yep, die FX hat bei 8xAF eine ganz leichte Winkelabhängigkeit. Übliche 45°-Schwäche.

Sofern man die Formel "optimale Kernelgröße = max(s, t)" nimmt, gelangt man zu einem Quadrat als "Blume". Die "richtige Blume" zu implementieren erfordert noch etwas zusätzlichen Aufwand.

robbitop
2004-06-16, 10:31:55
Original geschrieben von r@h
Wenn Du meinst...
(werde einem fanATIsten doch nicht wiedersprechen ;-)

Razor

widersprechen :kicher:

sry, das musste ich auch ma probieren :D

DrumDub
2004-06-16, 13:22:47
Original geschrieben von r@h
Wenn Du meinst...
(werde einem fanATIsten doch nicht wiedersprechen ;-)

Razor

was soll man dazu noch sagen... bugwellen gibt bei vollem triaf bei mir nicht in der uru-demo auf meiner 9700np.

mit dem stage"oprimireung"s-af siehts hingegen grausam aus.

wüsste nicht, was da auf nem r350 anders sein sollte.

MadManniMan
2004-06-16, 13:23:55
Original geschrieben von r@h
Was ich aber mit Sicherheit wahr genommen habe, ist die doch teilweise extrem auffällige Winkelabhängigkeit in diesem Game (in anderen auch, hier war's aber wirklich fast überall zu sehen).

Jo, in Uru war es nervig - gut, daß ich das nicht zocke :D

Aber auch momentan bei NFSU frag ich mich bei den vielen Steilkurven ernsthaft, wieviel Qualität noch vom 16*AF tatsächlich bei mir ankommt... :|


nV, ATi ... :finger: für eure Füllratenmonster, die gegen jeden DeltaChrome qualitativ abstinken ... aber genug des OT :D

DrumDub
2004-06-16, 14:04:16
Original geschrieben von r@h
Mag sein... so weit bin ich dann doch nicht in die Analen des Treibers 'geschlüpft', um auszuprobieren welches Settung nun welche gewünschte Wirkung hat.

einfach mipmap detailebene von "high quality" auf "quality" reduzieren.

[Was ich aber mit Sicherheit wahr genommen habe, ist die doch teilweise extrem auffällige Winkelabhängigkeit in diesem Game (in anderen auch, hier war's aber wirklich fast überall zu sehen).


jupp.

Chris Lux
2004-06-16, 14:42:48
hi,
ich weiss nicht ob das schon jemand geschrieben hat.

hab gerade nen neuen treiber bekommen (61.34) (aktuelle beta aus dem nv dev rel).

dort erscheinen die beiden optionen wie im bild unten. beide sind AUS, und können auch nicht aktiviert werden. neu dabei ist die untere für das abschalten der anisotropen optimierungen. ist diese option für die gf 6x00? weil ich arbeite hier mit einer gfFX.

Gast
2004-06-16, 14:48:02
Schau ins Nvidia Forum http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=148461 , schon seit dem 12.06.2004 geleakt, und die Optionen sind afaik immer wählbar, schonmal Coolbits probiert und weiter oben bei AF "Anwendungsgesteuert" mal deaktiviert?
Bisher sind alle damit extrem zufrieden (bis auf die 3DMarkBencher...)

MadManniMan
2004-06-16, 14:48:38
Das müßte der Schalter für die Stageoptimierung sein - ich bin grad nicht ganz firm mit den aktuellen GFs ... betrifft diese auch die FX-Reihe?

q@w
2004-06-16, 15:00:18
Die beiden Schalter sind solange "aus", wie weiter oben die Option "High Quality" angewählt ist. Wenn dort nur "Quality" steht, sind die Schalter einzeln selektierbar.

Trilinear Optimization = Bri
Anisotropic Optimization = Stage Opt.

High Quality bewirkt zusätzlich das Abschalten der Schwellenerhöhung ab der innerhalb der Basistextur eine höhere Samplezahl zur Texturfilterung genutzt wird.

Das ganze funktioniert, soweit mir bekannt, sowohl auf GF6 (6800) als auch auf GF5 (FX).

;Q

MadManniMan
2004-06-16, 15:28:00
Original geschrieben von q@w
Die beiden Schalter sind solange "aus", wie weiter oben die Option "High Quality" angewählt ist. Wenn dort nur "Quality" steht, sind die Schalter einzeln selektierbar.

Trilinear Optimization = Bri
Anisotropic Optimization = Stage Opt.

High Quality bewirkt zusätzlich das Abschalten der Schwellenerhöhung ab der innerhalb der Basistextur eine höhere Samplezahl zur Texturfilterung genutzt wird.

Das ganze funktioniert, soweit mir bekannt, sowohl auf GF6 (6800) als auch auf GF5 (FX).

;Q

Könntest du das mal in einer dementsprechend begrenzten Situation benchen bitte? Wenn du Zeit hast? ;)

robbitop
2004-06-16, 15:37:38
hat Razor doch schon gemacht

MadManniMan
2004-06-16, 16:39:38
Original geschrieben von robbitop
hat Razor doch schon gemacht

Sorry, ich bin nicht mehr so aktiv wie früher ;( ...wo steht das dann?

DrumDub
2004-06-16, 16:51:33
Original geschrieben von MadManniMan
Sorry, ich bin nicht mehr so aktiv wie früher ;( ...wo steht das dann?

selber thread ein paar seiten zuvor: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1908867#post1908867

MadManniMan
2004-06-16, 16:56:13
Original geschrieben von DrumDub
selber thread ein paar seiten zuvor: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1908867#post1908867

Danke! :up:

r@h
2004-06-16, 21:03:18
Original geschrieben von resonatorman
Meintest du wirklich die "Analen" des Treibers :arsch: oder doch die "Annalen"? Würde ja beides irgendwie Sinn machen ;) *eg*

r@h
2004-06-16, 21:04:00
Original geschrieben von robbitop
widersprechen :kicher:

sry, das musste ich auch ma probieren :D Es sei Dir verziehen...
Aber nur dieses eine mal !
:D

Razor

r@h
2004-06-16, 21:06:04
Original geschrieben von DrumDub
einfach mipmap detailebene von "high quality" auf "quality" reduzieren. Werd' ich bei Gelegenheit mal ausprobieren...
Thx !

Razor

MechWOLLIer
2004-06-17, 16:46:43
Original geschrieben von q@w
Die beiden Schalter sind solange "aus", wie weiter oben die Option "High Quality" angewählt ist. Wenn dort nur "Quality" steht, sind die Schalter einzeln selektierbar.

Trilinear Optimization = Bri
Anisotropic Optimization = Stage Opt.

High Quality bewirkt zusätzlich das Abschalten der Schwellenerhöhung ab der innerhalb der Basistextur eine höhere Samplezahl zur Texturfilterung genutzt wird.

Das ganze funktioniert, soweit mir bekannt, sowohl auf GF6 (6800) als auch auf GF5 (FX).

;Q

Also hat High Quality eine bessere Bildqualität als Quality mit deaktivierten Optimierungen?

MadManniMan
2004-06-17, 16:57:16
Original geschrieben von MechWOLLIer
Also hat High Quality eine bessere Bildqualität als Quality mit deaktivierten Optimierungen?

Jup, einfach weil beim HQ zusätzlich noch mehr Samples "weiter vorn" genutzt werden - bei Quality kanns zu leichtem Texureshimmering kommen ... das ist wohl das Feature, das die Radeons seit Ewigkeiten schärfer und schimmriger hat scheinen lassen.

Was meint ihr?

robbitop
2004-06-17, 17:13:05
und das siehst du in der Praxis?

Quasar
2004-06-17, 17:15:54
Original geschrieben von MadManniMan
Was meint ihr?

Nö, das hat nV auch schon mind. seit der FX drin (-> IntelliSample)

MadManniMan
2004-06-17, 17:21:26
Original geschrieben von robbitop
und das siehst du in der Praxis?

Naja, meine letzte GF, die ich selbst mal genutzt hab, war die Ti4200 meiner Ex ;)

Ich mutmaße hier gerade, deshalb Frage ich ja. Was ich aber weiß, ist daß ich das Shimmering auf meinem R300 wahrnehme ;( Es stört mich allerdings nicht sooo sehr, daß ich den Mip-Regler um eins runterstellen würde.

MadManniMan
2004-06-17, 17:22:15
Original geschrieben von Quasar
Nö, das hat nV auch schon mind. seit der FX drin (-> IntelliSample)

Du meinst also, auf den FXen shimmert es nicht? Dann haben die Radeons ein vermurkstes LoD.

DrumDub
2004-06-17, 17:33:14
Original geschrieben von MadManniMan
Du meinst also, auf den FXen shimmert es nicht? Dann haben die Radeons ein vermurkstes LoD.

jupp.

Quasar
2004-06-17, 17:33:28
Ich weiß nicht, ab wann es aktiviert wurde, aber die Texturfilter der FX waren IMO nie so sauber, wie die der GF3/4. Irgendwie "fehlte" da was - was genau, läßt sich aber schwer in Worte fassen. Vielleicht ist's auch nur Einbildung.

r@h
2004-06-17, 22:52:37
Original geschrieben von Quasar
Ich weiß nicht, ab wann es aktiviert wurde, aber die Texturfilter der FX waren IMO nie so sauber, wie die der GF3/4. Irgendwie "fehlte" da was - was genau, läßt sich aber schwer in Worte fassen. Vielleicht ist's auch nur Einbildung. Und das ist jetzt mit der HQ-Einstellung weg ?
Also ich habe da rein gar keinen Unterschied bemerkt...
(obwohl sonst eigentlich schon mehr wahr zu nehmen schein, als so manch anderer hier ;-)

Sollte vielleicht mal wieder die gute alte gf3 raus kramen und mir das mal näher anscaun'.

Razor

r@h
2004-06-17, 22:57:22
Original geschrieben von MadManniMan
Naja, meine letzte GF, die ich selbst mal genutzt hab, war die Ti4200 meiner Ex ;)

Ich mutmaße hier gerade, deshalb Frage ich ja. Was ich aber weiß, ist daß ich das Shimmering auf meinem R300 wahrnehme ;( Es stört mich allerdings nicht sooo sehr, daß ich den Mip-Regler um eins runterstellen würde. Tjo, ich muss allerdings sagen, dass ich froh bin, dies nicht mehr wahr nehmen zu müssen. Mir ist es extrem unangenehm aufgefallen... so unangehm sogar, dass ich freiwillig den AF-Level zurück genommen habe, weil ich dann den Eindruck hatte, dass es weniger sein würde. 4°AF fand' ich ganz OK (bei deaktivierter Stage-Optimierung selbstverständlich)...

Razor

MadManniMan
2004-06-17, 23:02:56
Original geschrieben von r@h
Tjo, ich muss allerdings sagen, dass ich froh bin, dies nicht mehr wahr nehmen zu müssen. Mir ist es extrem unangenehm aufgefallen... so unangehm sogar, dass ich freiwillig den AF-Level zurück genommen habe, weil ich dann den Eindruck hatte, dass es weniger sein würde. 4°AF fand' ich ganz OK (bei deaktivierter Stage-Optimierung selbstverständlich)...

Razor

Wie gesagt: einfach die Texturenqualität im Controlpanel oder Thirdparty Tool um eine Stufe zurückstellen und schon ist jedes Shimmering weg. OK, ein wenig Schärfe geht verloren, aber das wäre für dich die wohl bessere Lösung gewesen.

Warum nicht einfach so?

Demirug
2004-06-17, 23:12:55
Original geschrieben von r@h
Und das ist jetzt mit der HQ-Einstellung weg ?
Also ich habe da rein gar keinen Unterschied bemerkt...
(obwohl sonst eigentlich schon mehr wahr zu nehmen schein, als so manch anderer hier ;-)

Sollte vielleicht mal wieder die gute alte gf3 raus kramen und mir das mal näher anscaun'.

Razor

Irgendwas anders macht HQ im gegensatz zu Q schon noch. Aber ich bin mir nicht sicher was und zudem weiss ich auch nicht ob es nicht doch nur an meiner 61.34 Version liegt.

r@h
2004-06-17, 23:23:45
Original geschrieben von MadManniMan
Wie gesagt: einfach die Texturenqualität im Controlpanel oder Thirdparty Tool um eine Stufe zurückstellen und schon ist jedes Shimmering weg. OK, ein wenig Schärfe geht verloren, aber das wäre für dich die wohl bessere Lösung gewesen.

Warum nicht einfach so? Also mit dem reduzieren des AF-Levels dürfte ich wohl ähnliches erreicht haben, oder ? Oder schlägst Du ernsthaft vor, den AF-Level zu erhöhen, aber im Gegenzug die Tex-Quali zu senken ? Ist doch wohl hoffentlich nicht Dein ernst...

Razor

r@h
2004-06-17, 23:26:38
Original geschrieben von Demirug
Irgendwas anders macht HQ im gegensatz zu Q schon noch. Aber ich bin mir nicht sicher was und zudem weiss ich auch nicht ob es nicht doch nur an meiner 61.34 Version liegt. Klar macht der HQ-Modus da was anders...
Sonst wäre der Performance-Verlust ja nicht zu erklären.

Nur was ?

Habe wie gesagt nichts entdecken können... und das, obwohl ich wirklich genau hingeschaut hab'.
(sagen wir... ich habe darauf geachtet ;-)

Razor

Demirug
2004-06-17, 23:35:30
Original geschrieben von r@h
Klar macht der HQ-Modus da was anders...
Sonst wäre der Performance-Verlust ja nicht zu erklären.

Nur was ?

Habe wie gesagt nichts entdecken können... und das, obwohl ich wirklich genau hingeschaut hab'.
(sagen wir... ich habe darauf geachtet ;-)

Razor

Den Unterschied selbst habe ich gesehen. Allerdings kenne ich die Ursache nicht. Noch nicht.

Ich muss allerdings sagen das es ein Zufall war das es gerade an der Stelle von Farcry die ich zum Prüfen von neuen Features nutze eben genu so eine Stelle gibt bei der man den Unterschied sehen kann. Allerdings braucht man da mal wieder zwei Screenshots zum vergleichen. Dort fällt es dann aber auch ohne Vergrösserung auf.

Gast
2004-06-17, 23:38:32
Original geschrieben von r@h
Also mit dem reduzieren des AF-Levels dürfte ich wohl ähnliches erreicht haben, oder ? Oder schlägst Du ernsthaft vor, den AF-Level zu erhöhen, aber im Gegenzug die Tex-Quali zu senken ? Ist doch wohl hoffentlich nicht Dein ernst...

Razor

wenn mit max af immer noch zu sehr texture noise da ist ja.

r@h
2004-06-17, 23:38:34
Könntest Du die Stelle ein wenig näher beschreiben ?
Thx in advance...

Razor

r@h
2004-06-17, 23:40:21
Original geschrieben von Gast
wenn mit max af immer noch zu sehr texture noise da ist ja. "texture noise" ?
:???:

Razor

P.S.: ich glaub', ich will gar nicht wissen, was Du damit beschreiben wolltest... ;)

Demirug
2004-06-17, 23:48:59
Original geschrieben von r@h
Könntest Du die Stelle ein wenig näher beschreiben ?
Thx in advance...

Razor

Also ich stehe da im gleichen Raum wie bei meinem 256xSSAA Screenshot nur an der anderen Tür. Mit etwas Glück kann man den Effekt aber an all den Stellen erkennen wo helles Licht auf einen gekachelten Boden fällt. Also die Stellen wo der Patch 1.1 den Shader vermurkst hat. Man erkennt das die Kanten der Bodeplatten zwischen HQ und Q anders aussehen. Die Platten selbst sich auch betroffen aber dort sieht man es nicht unbedingt so stark.

Vielleicht weiss ich morgen schon woher das kommt muss nur den entsprechenden Shader ein bischen patchen das ich die Quelle des Unterschieds besser lokalisieren kann.

Allerdings alles unter dem Vorbehalt das mein 61.34 möglicherweise etwas anders ist.

zeckensack
2004-06-18, 00:00:12
Jetzt neu, und sogar ein wenig passend zum Thema:
Der ultimative Härtetest für Texturfilter (http://home.t-online.de/home/zsack/buggy_stuff/moire_monster.zip).

Special Hinweising:
Auf R300-basierten Karten ist's dank eines Bugs momentan "normal", dass bei aktivem Aniso extremes Schimmern auftritt. Das war der eigentliche Grund für mich dieses Teil zu schreiben. Näheres dazu findet sich hier (http://www.opengl.org/discussion_boards/cgi_directory/ultimatebb.cgi?ubb=get_topic;f=3;t=012106). Abstellen kann man das, indem man Anisotropie im Treiber erzwingt.

edit:
Benötigt GLUT (http://www.xmission.com/~nate/glut/glut-3.7.6-bin.zip). Sorry, ganz vergessen :sulkoff:

Mr. Lolman
2004-06-18, 01:09:43
Uiuiui, ab 1.875 ist das Flimmern nur mehr im Hitnergrund wahrnehmbar, und bei 3.125 ists dann vollends verschwunden - am TFT, beim CRT ists sicher nicht ganz so schlimm, aber trotzdem :freak:

/edit: Bei mir gibts keinen Unterschied zw. App.AF und CP.AF, (Omega 4.4)

/edit2: Ist das bei neueren Catalysts etwa noch schlimmer?

MadManniMan
2004-06-18, 01:20:07
Original geschrieben von r@h
Also mit dem reduzieren des AF-Levels dürfte ich wohl ähnliches erreicht haben, oder ? Oder schlägst Du ernsthaft vor, den AF-Level zu erhöhen, aber im Gegenzug die Tex-Quali zu senken ? Ist doch wohl hoffentlich nicht Dein ernst...

Razor

Naja, nicht ganz ... ich habs grad mit Q3 gegengeprüft, ColoredMips usw. und was soll ich sagen: 16*QAF shimmert, 8*QAF shimmert ... eigentlich shimmerts immer, auch bei normalem Tri.

Reduziert man jedoch den Texturdetailsgrad im Treiber auf Hoch von Sehr hoch, so ist jedes Shimmering Geschichte, dabei sind jedoch die Texturen bei 16*QAF minimal schlechter denn 8*QAF normal.

ABER:
@150/195 MHz (eigentilch nur meine 2D-Einstellung, aber mein 15" Ersatz-TFT läßt nur 1024 zu) ... 16*QAF @HQ+ -> 134fps / 8*QAF @HQ+ -> 137fps / 16*QAF @HQ -> 118fps

...man sieht also, daß da irgendwas ganz bös im Argen liegt. Daß 16* nur unwesentlich mehr denn 8* filtert im Mittel über die demo.four hinweg, sollte nicht irritieren - ingame sieht man es dennoch, den Unterschied mein ich.

Aber daß 16*QAF mit reduziertem Detail langsamer ist ... wuääääh!

Mr. Lolman
2004-06-18, 01:24:01
Original geschrieben von MadManniMan
16*QAF @HQ+ -> 134fps / 8*QAF @HQ+ -> 137fps / 16*QAF @HQ -> 118fps


Ui, diese Zeile ist aber kryptisch.

HQ+ = Hohe Quali, & HQ w/o + = Qualität?

Gast
2004-06-18, 01:29:31
Original geschrieben von Mr. Lolman
Ui, diese Zeile ist aber kryptisch.

HQ+ = Hohe Quali, & HQ /wo + = Qualität?




Aber daß 16*QAF mit reduziertem Detail langsamer ist ... wuääääh!

Schätz' mal das daran dass wegen den vorgezogenen Mips mehr AF Samples verwendet werden!?

Zumindest hab ich das so von Demi gelernt :stolz:




@Zecki: Tatsächlich, am CRT brauch ich nur mehr ein LOD Bias von 2.875 und schon flimmert nix mehr :schlag:

MadManniMan
2004-06-18, 01:32:09
Original geschrieben von zeckensack
Jetzt neu, und sogar ein wenig passend zum Thema:

(...)

Hm, ganz schön was krass :o /me benützt grad den 4.4er ... keine Unterschiede zwischen App und Treiber - heiß konkret:

- erst ab 1.5 isses nicht mehr nervig

- Flimmerfrei ists erst ab 3.5(!)

:|

Mr. Lolman
2004-06-18, 01:32:17
Spät ists. Kekse waren auch schon wieder weg...

Original geschrieben von MadManniMan
- Flimmerfrei ists erst ab 3.5(!)

:|

Nagut, wenn du schon so genau schaust...





...selbst bei 4.000 sieht man noch Flimmern. V.A. dann, wenn mans vorher auf 3.875 gehabt hat :jediboom:

MadManniMan
2004-06-18, 01:37:03
Original geschrieben von Mr. Lolman
Spät ists. Kekse waren auch schon wieder weg...

Nich so schlimm :freak: Hier, magst :popcorn: ?

Zum Thema:

HQ+ steht für "Sehr Hoch" ... also Standard.
HQ (jup, mit ohne + ;) ) steht für "Hoch" ... ergo eins drunner :freak2:

Auf jeden Fall ists arg böse: man muß auf viel Performance und Schärfe verzichten, um kompletto flimmerfrei zu sein! Aber warum nun mehr Samples verwendet werden sollen? Das mußte mir nun echt mal erklären :|

Mr. Lolman
2004-06-18, 01:43:01
*mit:popcorn:mundvollstopf*

*runterschluck*



Ich habs so verstanden, dass ja ab der ersten Mipmap AF erst wirksam wird. Wenn die erste Mipmap weiter hinten liegt, brauchts insgesamt weniger AF.

Dementsprechend sollte ein negatives LOD-Bias beim AF performancemässig von Vorteil sein.

/edit:

*:popcorn:wiederraufhustundnochmalordentlichkauvormschlucken*




/edit2:


Aber dass das einen Unterschied von mehr als 13% macht, find ich dann schon recht heftig :|

zeckensack
2004-06-18, 01:56:02
Original geschrieben von MadManniMan
Hm, ganz schön was krass :o /me benützt grad den 4.4er ... keine Unterschiede zwischen App und Treiber - heiß konkret:

- erst ab 1.5 isses nicht mehr nervig

- Flimmerfrei ists erst ab 3.5(!)

:| Ich taufte das Ding nicht umsonst Moiré Monster.
Bei harten s/w-Kontrasten gibt's quasi unvermeidlich Moiré. Das sind hier mehr oder weniger flüssige, auch rhythmisch pulsierende hell/dunkel-Verschiebungen. Daran sind "optimierte" Texturfilter aber garnicht schuld!
Auch Texturfilter der reinen Lehre leiden darunter. Diese Applikation darfst du als den schlimmstmöglichen Extremfall in Punkto Moiré-Anfälligkeit betrachten.

Hier speziell gesucht ist aber Textur-Aliasing, wie man es normalerweise durch negativen LOD-Bias bekommt. Und das äussert sich in dem Tester in Form von hartem, zufällig erscheinendem Flackern und Aufblitzen, und weiter "hinten" in Form von Suppe(TM).

Mir ging es ursprünglich ums Aliasing. Wenn du keinen Unterschied zwischen Panel-AF und App-AF sehen kannst, dann muss ich wohl festhalten dass Cat 4.4 in der Hinsicht sauber ist.

Im Moment fahre ich auf der FX5700, und glaub mir, da ist auch nicht alles perfekt. Aber auf die Gefahr hin, mich zu wiederholen: das muss es auch nicht sein. Wenn irgendeine Karte in diesem Programm kein Moiré zeigt, dann ist sie IMO schlicht kaputt :freak:

edit: Die FX5700 (inklusive brilinear) ist "völlig ruhig" bei LOD +3.0 (8xAniso) bzw LOD +2.25 (kein Aniso).

MadManniMan
2004-06-18, 02:00:47
Hm, klingt logisch ... die schärferen Texturen beim AF kommen ja auch erst durch irgendwas zu Stande, das nem verringertem Mipmap-Bias gleichkommt.

Trotzdem böser Wert!

MadManniMan
2004-06-18, 02:07:22
Original geschrieben von zeckensack
Im Moment fahre ich auf der FX5700, und glaub mir, da ist auch nicht alles perfekt. Aber auf die Gefahr hin, mich zu wiederholen: das muss es auch nicht sein. Wenn irgendeine Karte in diesem Programm kein Moiré zeigt, dann ist sie IMO schlicht kaputt :freak:

Freut mich, daß mein R300 keinen um 1,5 bzw. 3,0 zu geringen Bias verfügt :freak:

Die 3,0 beziehen sich aufs Moire ... aber lieber Moire, als Voralistandardoptik X-D

Bei 1,5 ist in etwa der Punkt erreicht, wos nimmer shimmert. Also nix mehr Aliasing usw., ne?


BTW was ist deines Erachtens das Problem der Radeons? Ein HW-mäßig vermurkter Bias? Die allgemein bekannte Überschärfe mein ich.

Mr. Lolman
2004-06-18, 02:14:48
Original geschrieben von zeckensack
edit: Die FX5700 (inklusive brilinear) ist "völlig ruhig" bei LOD +3.0 (8xAniso) bzw LOD +2.25 (kein Aniso).


Hat ATi jetzt eigentlich ein StandardLOD von 0.0, und die Bestimmung so ungenau, oder ist das tatsächlich negativ?

BTW: Dein Moire Monster ist auch ein guter Müdigkeitsindikator. Mittlerweile ist 3.000 aufm TFT flimmerfrei. :freak2:

zeckensack
2004-06-18, 02:31:45
Original geschrieben von MadManniMan
BTW was ist deines Erachtens das Problem der Radeons? Ein HW-mäßig vermurkter Bias? Die allgemein bekannte Überschärfe mein ich. Das Problem der Radeons, das ich auch ATI beizubringen gedenke, ist schlicht dass die Applikations-Kontrolle von Aniso (unter OpenGL!) nicht richtig funktioniert. Es kann einfach nicht sein, dass das Panel-Aniso besser aussieht als das App-Aniso. Es sollte exakt gleich aussehen (Stage-Optimierungen mal aussen vor; der Tester benutzt nur Stage 0).

Ich würde nämlich ganz gerne 'nünftige Aniso-Kontrollen in meine Software einbauen. Sowas will ich meinen "Kunden" aber nicht zumuten, dann sollen sie lieber weiter das Treiber-Panel benutzen.

Das ist IMO ein reines Software-Problem. Irgendwas läuft da anders, je nachdem ob Panel oder App-Kontrolle.

edit: Wenn du so willst, ein Treiber-vermurkster Bias.

Mr. Lolman
2004-06-18, 02:38:49
Aber maximal erst seit dem 4.5 (wahrscheinlich sogar 4.6) ...


Womöglich eine 'Optimierung', hast du schon mal getestet ob das ungenauere App. AF speedtechnisch was bringt?

Demis AFtester kann man ja auch zum Moiremonster umstellen. So wie's aussieht ist die Gschicht' ja auch bei d3d vorhanden. (LockOn Beispiel im offiziellen Cat. Thread)

Und der einzige momentan erkennbare Vorteil ist bei Revolt in 1600x1200? Oder greifen die schon vor, für Spiele die AF direkt anfordern, und vielleicht sogar alle Stages trilinear haben wollen? :???:

zeckensack
2004-06-18, 04:48:31
Original geschrieben von Mr. Lolman
Aber maximal erst seit dem 4.5 (wahrscheinlich sogar 4.6) ...


Womöglich eine 'Optimierung', hast du schon mal getestet ob das ungenauere App. AF speedtechnisch was bringt?Sowas teste ich nicht. Ich kriege (in realen Spielen, wohlgemerkt) dermassen krasse Artefakte, dass ich meine Tastatur vollkotzen könnte. Was interessiert mich da noch die Geschwindigkeit?
Das ist keine "Optimierung". Das ist ein Treiber-Bug.
Demis AFtester kann man ja auch zum Moiremonster umstellen. So wie's aussieht ist die Gschicht' ja auch bei d3d vorhanden. (LockOn Beispiel im offiziellen Cat. Thread)Ja, beim AF-Tester kann man ja auch den LOD-Bias stark negativ machen, oder wenn garnichts mehr hilft, gleich Mipmapping abstellen :freak2:
Nutzt LockOn wirklich D3D?
Und der einzige momentan erkennbare Vorteil ist bei Revolt in 1600x1200? Oder greifen die schon vor, für Spiele die AF direkt anfordern, und vielleicht sogar alle Stages trilinear haben wollen? :???: Das ist IMO etwas ganz anderes (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1906206#post1906206).

Melbourne, FL
2004-06-18, 05:29:24
Original geschrieben von zeckensack
Nutzt LockOn wirklich D3D?

100%ig.

Original geschrieben von zeckensack
weiter "hinten" in Form von Suppe(TM).

Hey man...sowas kannst Du doch nicht einfach loslassen...haette beinahe Wasser ueber meine Tastatur gespuckt (war grad am trinken)... :D

Alexander

Mr. Lolman
2004-06-18, 07:04:36
Original geschrieben von zeckensack
Sowas teste ich nicht. Ich kriege (in realen Spielen, wohlgemerkt) dermassen krasse Artefakte, dass ich meine Tastatur vollkotzen könnte. Was interessiert mich da noch die Geschwindigkeit?

Ich habs bis jetzt, gottseidank, nur bei LockOn, auf Screenshots gesehen.



Ja, beim AF-Tester kann man ja auch den LOD-Bias stark negativ machen, oder wenn garnichts mehr hilft, gleich Mipmapping abstellen :freak2:


So war das nicht gemeint. :freak: Man kann ja vom Tunnel auf Plane umschalten und dann bei einem flachen Winkel mit der Tastatur den Distanceslider langsam verschieben...


Das ist IMO etwas ganz anderes (http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1906206#post1906206).

Wenn du meinst :grübel:

Vielleicht wollte ATi den Optimierungsaufdeckern nureins auswischen, und mal ne wirklich fiese Optimierung einbauen X-D

Quasar
2004-06-18, 08:56:21
Original geschrieben von MadManniMan
ABER:
@150/195 MHz (eigentilch nur meine 2D-Einstellung, aber mein 15" Ersatz-TFT läßt nur 1024 zu) ...
16*QAF @HQ+ -> 134fps
16*QAF @HQ -> 118fps


Der Unterschied ist also, daß du von "Slider ganz rechts" eine Position nach lynks gaywechselt bist?

MadManniMan
2004-06-18, 10:26:09
Original geschrieben von Quasar
Der Unterschied ist also, daß du von "Slider ganz rechts" eine Position nach lynks gaywechselt bist?

Jop, von "Sehr Hohe Qualität" auf "Hohe Qualität".

Ist doch toll: man verliert 13% Leistung und bemerkt in 90% der Fälle nur, daß da Matsch(R) am Werkeln ist. Das Schlimme sind ja nichtmal die 45er/90er Winkel ... dort wird aus 16* sowas wie 6* ...

Problematisch sind die durch die Winkelabhängigkeit eh schon miesen Winkel ... das Bildchen zeigt:

16*HQ / 2*SHQ
1*SHQ / 16*SHQ

http://img31.photobucket.com/albums/v94/MadManniMan/jaypag.jpg

Hier sieht man schön, daß gar simples Bilinear bei den kritischen Winkeln teils besser abschneidet...

:o

Mr. Lolman
2004-06-19, 12:19:06
Original geschrieben von MadManniMan
Hier sieht man schön, daß gar simples Bilinear bei den kritischen Winkeln teils besser abschneidet...

:o


...was ja eigentlich nicht weiter verwunderlich sein sollte, wenn man bedenkt, dass bei defaulteinstellungen selbst mit 16xAF bei kritischen Winkeln nicht mal 2x überbleibt.

Gut matschiger ist das Bild mit HQ schon. Aber imo noch nicht störend, v.A. da ja die Einstellung als Gegenpool für überscharf wirkende flimmrige Spiele, zu betrachten ist.



Im grossen und ganzen find ich ATis R3x0 AF bqmässig schon ok. (In Anbetracht der gebotenen Geschwindigkeit ists sogar richtig goil.) Aber nachdem was vom R420 AF bekannt ist, dürfte dieses wohl, in einigen Spielen, die Grenze des qualitativ Ertragbaren überschreiten. Mal abwarten, aths schreibt eh wieder einen Artikel.... (der hoffentlich auch genügend Praxisbezug aufweisen wird)

r@h
2004-06-19, 18:55:53
Also dazu fällt mir eigentlich nur eines ein:

Hut ab @ Manni !
:up:

Und...

Pfui @ Lolmann
:down:

Ich habe mir leider nicht die Mühe gemacht, die grausige BQ der R9800p genauer unter die Lupe zu nehmen, aber das hat Manni ja jetzt nachgeholt. Da muss man erst einmal drauf' kommen... Quali senken, um bessere Quali zu erhalten... (qualitative) Sichtweite mit bi erhöhen...

Oh mann.

Razor

P.S.: In letzter Zeit spiele ich eigentlich alles nur noch @ HQ (nVidia like ;-) und bin teils doch sehr erstaunt, Unterschiede dort zu sehen, wo ich eigentlich keine vermutet hätte...

Mr. Lolman
2004-06-19, 21:16:43
Original geschrieben von r@h
Also dazu fällt mir eigentlich nur eines ein:

Hut ab @ Manni !
:up:

Und...

Pfui @ Lolmann
:down:


Nageh, so plakativ unterwegs heute?

Ist doch logisch, dass wenn die Grafik aufgrund des zu hohen LOD flimmert dass man dieses etwas runterstellt. Dazu brauchts auch kein polemisches Gesülze.

Bekomm ich vielleicht noch ein :up: für diesen Artikel (http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=146879), oder hast du für heut schon alle Daumen vergeben? :???:

r@h
2004-06-25, 01:47:34
Erst mal sorry für die späte Antwort.
Original geschrieben von Mr. Lolman
Nageh, so plakativ unterwegs heute?Nö, wollte nur was dazu sagen, mich ansonsten aber kurz halten.
Ich denke, dass ist mir gelungen, oder ?
:D
Original geschrieben von Mr. Lolman
Ist doch logisch, dass wenn die Grafik aufgrund des zu hohen LOD flimmert dass man dieses etwas runterstellt. Dazu brauchts auch kein polemisches Gesülze.Das mit dem LOD ist logisch... nicht aber, dass ATI unter "Hoher Qualität" ein hohes LOD versteht und damit genau das Gegenteil erreicht.

Und dass 'hohe Qualität' sehr viel performanter ist, als nur 'Qualität', ist ebenfalls nicht einzusehen. Sorry, aber hier sollte ATI einfach nachbessern und diese beiden Modi vertauschen. Wäre doch ein Vorschlag, oder ?
Original geschrieben von Mr. Lolman
Bekomm ich vielleicht noch ein :up: für diesen Artikel (http://www.forum-3dcenter.de/vbulletin/showthread.php?threadid=146879), oder hast du für heut schon alle Daumen vergeben? :???: Leider gibt's hier kein 'half up', denn den hättest Du mit Sicherheit von mir bekommen.

Leider muss ich Dir aber wiedersprechen, dass es erst mit dem Cat 3.4 einige Leute gab, denen etwas aufgefallen ist. Ich hatte damals die R9500, als der Cat3.1... später dann auch Cat3.2 und zuletzt dann Cat3.3 aktuell war (kammen irgendwie recht schnell hintereinander... so wie jetzt auch ;-) und mir ist die BQ 'ATI like' sofort aufgefallen... vielleicht auch nur, weil ich einer der wenigen überhaupt war, die den direkten Vergleich hatten.

Damals wurde ich (auch von Dir !) als nVidiot verschrieen und so habe ich es mir dann auch geschenkt, weiter auf dieser Thematik herum zu hacken (wie ich das doch so gerne bei anderen Dingen tu ;-) und hab' eine sehr einfache Lösung für dieses Problem gefunden... und die Karte quasi verschenkt.

Jetzt habe ich wieder eine... und stelle das selbe fest.
Da ist es mir doch herzlich wurscht, ob ATI's zusätzliche Optimierung nun ins Gewicht fällt oder nicht... wenn schon der 'Rest' kaum (für mich) zu ertragen ist.

Ich finde das 16°Bi-AF von ATI schlicht zum würgen, auch wenn Du das anders sehen magst. Und wenn es die X800 nicht besser macht (vielleicht sogar das Gegenteil davon), gibt es für mich auch keinen Grund dieser Karte auch nur die geringste Aufmerksamkeit zu zollen.

Aber ja... ich finde es gut, dass Du den ATI-Leutz mit Deinen Empfehlungen 'unter die Arme greifst' und dort ein paar Tips gibst. Auch ich habe das mal testweise nachvollzogen und bin ebenfalls der Meinung, dass es damit 'besser' ist... auch wenn der Performance-Drop heftig ist (da ich kein Bilinear benutzen würde) und die BQ noch immer laaaaange nicht an die unoptimierte Variante von nVidia heran kommt.

Deshalb das 'halbe up'.
;-)

Razor

P.S.: Ich hau' mich jetzt in die Heia... und das Spiel zwischen P und E war der Hamma !
Gut nächtle... *gääääähnnn*

Mr. Lolman
2004-06-25, 02:43:49
Original geschrieben von r@h
Erst mal sorry für die späte Antwort.

Kein Problem :)


Nö, wollte nur was dazu sagen, mich ansonsten aber kurz halten.
Ich denke, dass ist mir gelungen, oder ?
:D


Allerdings ;(


Das mit dem LOD ist logisch... nicht aber, dass ATI unter "Hoher Qualität" ein hohes LOD versteht und damit genau das Gegenteil erreicht.


So sinds halt die Kanadier. *g* Übel find ich bloss, dass sich mit dem R420 hinsichtlich BQ doch nix zum Positiven gewendet hat. Aber lt. einigen Leuten hier im Forum, ist sie zumindest ok... (auch wenn man von einer 400€ Karte weitaus mehr verlangen könnte)


Leider muss ich Dir aber wiedersprechen, dass es erst mit dem Cat 3.4 einige Leute gab, denen etwas aufgefallen ist. Ich hatte damals die R9500, als der Cat3.1... später dann auch Cat3.2 und zuletzt dann Cat3.3 aktuell war (kammen irgendwie recht schnell hintereinander... so wie jetzt auch ;-) und mir ist die BQ 'ATI like' sofort aufgefallen... vielleicht auch nur, weil ich einer der wenigen überhaupt war, die den direkten Vergleich hatten.


Ja, dir ist der Unterschied im Vergleich zur Nvidia (GF4?)Karte aufgefallen. Nicht im Vergleich zum Cat 3.0.


Damals wurde ich (auch von Dir !) als nVidiot verschrieen und so habe ich es mir dann auch geschenkt, weiter auf dieser Thematik herum zu hacken (wie ich das doch so gerne bei anderen Dingen tu ;-) und hab' eine sehr einfache Lösung für dieses Problem gefunden... und die Karte quasi verschenkt.


Naja, damals hast du ja auch noch etwas fester auf die Pauke gehauen ;)

Aber deswegen gleich die Karte verschenken :???:

Original geschrieben von r@h
Jetzt habe ich wieder eine... und stelle das selbe fest.
Da ist es mir doch herzlich wurscht, ob ATI's zusätzliche Optimierung nun ins Gewicht fällt oder nicht... wenn schon der 'Rest' kaum (für mich) zu ertragen ist.


Welchen Treiber nutzt du? Denn lt. Cat 4.6 Thread ist die BQ schon wieder schlechter geworden, auch wenn ich das nicht verifizieren konnte, weil mit irgendwie meine Lockon CD abhanden gekommen ist :weg:



Ich finde das 16°Bi-AF von ATI schlicht zum würgen, auch wenn Du das anders sehen magst. Und wenn es die X800 nicht besser macht (vielleicht sogar das Gegenteil davon), gibt es für mich auch keinen Grund dieser Karte auch nur die geringste Aufmerksamkeit zu zollen.


16xbiAF hab ich ohnehin (fast) nie aktiviert. Da noch eher 4xtri-AF. Wenn das zulangsam ist, 8xbi-AF, oder 4xbi-AF. Klar seh ich das Mipband auch. Aber bevor ich garkeinAF, oder nur 2xtri AF (meist auch langsamer als 4xbi) aktiviert hab...

Schön langsam geht der 9700pro in manchen Spielen halt die Puste aus. :motz: ;)

BTW: Gestern beim Painkillerspielen (Ice Bridge, alles max, normalerweise 4xAA, 8xbi) hatte ich noch meine Farcry Settings aktiv. (4xAA, 4xbi) und ich hab tatsächlich noch mal das Spiel beendet und die Settings nachgekcukt ob wirklich bi AF aktiv ist. Selbst bei 4xbi hab ich keinerlei Mipmapband ausmachen können (im Ggs. zu Farcry, wo man es zumindest in Innenlevel bisweilen deutlich sieht, und wos tw. auch störend wirkt), bis ich dann zum ersten Metalltor kam, wo der Sprung zw. den sich deutlich unterschiendenden Mipmaps übels erkennbar ist, und somit auch störend wirkt.

Lange Rede kurzer Sinn: Die Sinnhaftigkeit von bi AF, hängt tatsächlich vom Texturecontent ab. Falls dus hast: Spiel' doch mal Rallisport Challenge. Imo das Paradebeispiel für ein Game wo bi-AF enorm Performance bringt, bei (für mich) nicht feststellbarer schlechterer BQ.



Aber ja... ich finde es gut, dass Du den ATI-Leutz mit Deinen Empfehlungen 'unter die Arme greifst' und dort ein paar Tips gibst. Auch ich habe das mal testweise nachvollzogen und bin ebenfalls der Meinung, dass es damit 'besser' ist... auch wenn der Performance-Drop heftig ist (da ich kein Bilinear benutzen würde) und die BQ noch immer laaaaange nicht an die unoptimierte Variante von nVidia heran kommt.


Bilinear, ist mit HQ meist sowieso nicht mehr tragbar. Zunahe, und damit deutlich sichtbar, ist das Mipmapband. (hab ich aber eh auch im Artikel geschrieben)


Deshalb das 'halbe up'.
;-)

Razor


Na immerhin :)


P.S.: Ich hau' mich jetzt in die Heia... und das Spiel zwischen P und E war der Hamma !
Gut nächtle... *gääääähnnn*

Habs leider sehen können. Musste Fliesen verlegen ;(

Mögen dir deine Träume den Schlaf versüssen. n8 *auchpenn0rngeh*

r@h
2004-06-25, 03:18:34
Original geschrieben von Mr. Lolman
Ja, dir ist der Unterschied im Vergleich zur Nvidia (GF4?)Karte aufgefallen. Nicht im Vergleich zum Cat 3.0.Die gf3 war's... ja.
Den Cat3.0 habe ich nie in Augenschein genommen...
Original geschrieben von Mr. Lolman
Naja, damals hast du ja auch noch etwas fester auf die Pauke gehauen ;)

Aber deswegen gleich die Karte verschenken :???:Das mit der Pauke mag stimmen...
;-)

Aber das mit dem Verschenken hab' ich ja damls erklärt.
Der Kollege hatte halt nicht so viel Geld, als das er sich was 'vernünftiges' leisten konnte. Und so habe ich sie ihm einfach 'kostenlos überlassen' - mit der Bedingung allerdings, dass ich sie mir mal ab und an ausborgen kann, um etwas testen zu können - was dann allerdings sehr selten der Fall war. Ja, ich habe sie ihm quasi geschenkt... aber weg geworfen habe ich sie lange nicht, falls sich das so angehört haben mag.

Und by the way: er hat sich tierisch darüber gefreut...
...hatte er doch vorher 'ne gf2 im Rechner.
Original geschrieben von Mr. Lolman
Welchen Treiber nutzt du? Denn lt. Cat 4.6 Thread ist die BQ schon wieder schlechter geworden, auch wenn ich das nicht verifizieren konnte, weil mit irgendwie meine Lockon CD abhanden gekommen ist :weg:Wie jetzt ? Schlechter ? Inwiefern ?
Also auf dem Testsystem (ATI-Ghost-Image ;-) habe ich wohl derzeit Cat4.5, wenn ich recht entsinne...
Original geschrieben von Mr. Lolman
16xbiAF hab ich ohnehin nie aktiviert. Da noch eher 4xtri-AF. Wenn das zulangsam ist, 8xbi-AF, oder 4xbi-AF. Klar seh ich das Mipband auch. Aber bevor ich garkeinAF, oder nur 2xtri AF (meist auch langsamer als 4xbi) aktiviert hab... <snip>Meine mich noch gut zu erinnern, dass Du 16xBi-AF super-toll fandest... kann mich aber auch täuschen. Schließlich fand' ich ja auch mal 2xQAA gut, gell ?
;-)

Hmmm... war da nicht mal was im Tron2-Thread damals ?
Original geschrieben von Mr. Lolman
Lange Rede kurzer Sinn: Die Sinnhaftigkeit von bi AF, hängt tatsächlich vom Texturecontent ab. Falls dus hast: Spiel' doch mal Rallisport Challenge. Imo das Paradebeispiel für ein Game wo bi-AF enorm Performance bringt, bei (für mich) nicht feststellbarer schlechterer BQ.Stimmt, Rallisport ist merkwürdiger weise ein Game, wo es nicht auffällt (was im übrigen auch für's AF-Opt der neuen nVidia-Treiber gilt)... mag wohl aber daran liegen, dass dieses Game gar kein trilinear fordert bzw. nutzt.

Echte Gegenbeispiel sind hier allerdings z.Bsp. CMR4 oder auch MotoGP2 (um im Rennspielgenre zu bleiben)... einfach nur übel.
Original geschrieben von Mr. Lolman
Habs leider sehen können. Musste Fliesen verlegen ;(Da hast Du echt was verpaßt... vielleicht hat's ja ein Kollege aufgenommen...
Ich bin nun wahrhaftig kein Fußball-Fanatiker, aber das Spiel war einfach nur klasse, spannend bis zu letzt, Ausgleich kurz vorm Ende, über 2 Verlängerungen und dann schlußendlich der verdiente Sieg (wenn auch etwas unbefriedigend). Aber ich will nicht zu viel verraten, falls Du es Dir nochmal anschaun' willst...
Original geschrieben von Mr. Lolman
Mögen dir deine Träume den Schlaf versüssen. n8 *auchpenn0rngeh* Danke, Dir auch die Deinigen.
Jetzt bleiben mir noch knappe 3h Schlaf.
*kreisch*

Nu aber in die Heia !
:zzz:

Razor

MadManniMan
2004-06-25, 10:45:31
Oy der Razor!

Zum Thema Stageoptimierung: diese fiel als AFAIK Allererstes mir und Piffan auf - Max Payne und Stage 0 ahoi!

Und das, obwohl ich sonst ein begeisterter User vom 16*Bi bin ;) Meine Spiele sind zumeist viel zu schnell, als daß ich mich großartig an fernen Mip-Bändern stören könnte. Ich selbst bin schon eher über das 4*RG froh, das nun auch der NV40 bringt :D

Und das Spiel gestern - es war das erste, was ich von Anfang an bis zum bitteren Ende schauen konnte... und ich war begeistert! Nur Becks dürfte ungern an die gesamte EM zurückdenken...

Mr. Lolman
2004-06-25, 15:19:02
Original geschrieben von r@h
Hmmm... war da nicht mal was im Tron2-Thread damals ?
Stimmt, Rallisport ist merkwürdiger weise ein Game, wo es nicht auffällt (was im übrigen auch für's AF-Opt der neuen nVidia-Treiber gilt)... mag wohl aber daran liegen, dass dieses Game gar kein trilinear fordert bzw. nutzt.


Da hab ichs nur gepostet, um euch an der Nase herumzuführen. Lustig ist, dass manche keinen Unterschied zw. ATis 16xbi AFund NV 8 max Quality AF mit aktiviertem 4xSAA, gesehen haben.

Wegen Rallisport. Klar nutzt das Spiel trilineares Filtering. Die Qualität des AF liegt halt aussschliesslich am Texturcontent. Um mich selbst zu Quoten:


Wann ist B(r)ilinearität, und Texturaliasing störend? Richtig bei scharfen mit deutlich kontrastierten Strukturen vershene Texturen, die zu dem vielleicht auch nicht allzuviele Mipmaps besitzen, oder wo soger mittels mimaps eine Art Fogging simuliert wird (hab ich auch schon erlebt ) Hier ist b(r)i-AF wirklich sh1ce. Bei der R200 am meisten, bei R300 bicht mehr so viel, bei der FX tw. auch noch merkbar (Tron 2.0).

Bei Spielen, in denen die Texturen mehr durch ihre Farbgebung hervorstechen (Rallisport) als durch scharfe, kontrastreiche, detaillierte Strukturen (Serious Sam), kann man wunderbar mit bi leben, während ein GF4 unnütze Überstunden schiebt, und Mipmapübergänge detaillierter berechnet, als eigentlich nötig. Bei der GF FX hat das auch NV eingesehen, und bietet deswegen die Brilinearität an, die im Normalfall auch ein durchaus zufriedenstellendes Ergebnis zustande bringt. Genau das gelang merh oder weniger auch der R200...


Das Rallisport Beispiel bring ich deswegen immer wieder, weil ich selbst bei genauestem hinsehen mit bi-AF kein Banding erkkennen konnte. Bei anderen Spielen, ists halt je nach Textur mal mehr oder weniger vorhanden. Aber man kann (mittels Tools) diesen Umstand, ja durch 3 verschiedene Qualitätsstufen regeln...

r@h
2004-06-26, 23:43:15
Original geschrieben von Mr. Lolman
Da hab ichs nur gepostet, um euch an der Nase herumzuführen. Lustig ist, dass manche keinen Unterschied zw. ATis 16xbi AFund NV 8 max Quality AF mit aktiviertem 4xSAA, gesehen haben.Und wie Du Dich vielleicht erinnerst, war dieser Unterschied sehr wohl und sogar deutlich vorhanden (wie ja mit äusserst vielen Sceenshots 'belegt' ;-).
Original geschrieben von Mr. Lolman
Wegen Rallisport. Klar nutzt das Spiel trilineares Filtering. Die Qualität des AF liegt halt aussschliesslich am Texturcontent.

<snip>

Das Rallisport Beispiel bring ich deswegen immer wieder, weil ich selbst bei genauestem hinsehen mit bi-AF kein Banding erkkennen konnte. Bei anderen Spielen, ists halt je nach Textur mal mehr oder weniger vorhanden. Aber man kann (mittels Tools) diesen Umstand, ja durch 3 verschiedene Qualitätsstufen regeln... Also mir ist das Banding eigentlich bei (fast) allen Games sofort ins Auge gestochen.
Was durchaus daran liegen mag, dass ich einfach etwas anders gewohnt bin...

Gut, man könnte nun annehmen, dass ich da vieleicht einen Geschmack an den Tag lege, der den ATI-Treibern (oder den Möglichkieten der Hardware ;-) einfach nicht schmeckt, aber das kann ich leider nicht zählen lassen... schließlich kommt's ja darauf an, was MIR die Karte bringt und nicht, wie sie anderen gefällt.

Auch bin ich mir sicher, dass es durchaus Leutchens gibt, die selbst zwischen dem 'high performance' und dem 'max quality' Modi der nVidia Treiber keinen Unterschied sehen. Allerdings ist denen 'eh nicht zu helfen...

Razor