PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : neue AA-Modi bei ATI?


mapel110
2005-08-02, 00:25:41
Wieder einmal wird die Füllrate recht stark ansteigen. Bei nvidia ists einfach. Man schaltet SuperSamplingAA ein und schon wird Füllrate in Bildqualität umgemünzt.
Aber was bietet ATI in dem Bereich?! Derzeit schlicht Nichts. Aber da muss doch was kommen?!

AF wäre wohl idealer, um Füllrate zu nutzen. Aber da ist ja sehr schwer von auszugehen, dass es dort keine ("positiven") Veränderungen geben wird.

Oder erwartet uns etwas ganz anderes, womit man die Power der neuen Generation besser ausnutzen kann?

DrFreaK666
2005-08-02, 00:31:32
Wieder einmal wird die Füllrate recht stark ansteigen. Bei nvidia ists einfach. Man schaltet SuperSamplingAA ein und schon wird Füllrate in Bildqualität umgemünzt.
Aber was bietet ATI in dem Bereich?! Derzeit schlicht Nichts. Aber da muss doch was kommen?!

AF wäre wohl idealer, um Füllrate zu nutzen. Aber da ist ja sehr schwer von auszugehen, dass es dort keine ("positiven") Veränderungen geben wird.


Ich gehe schwer davon aus, dass ATI SSAA anbieten wird.
Bisher hat es sich nicht gelohnt wegen der Begrenzung auf 1024 bei 4xSSAA imho.
An einer Verbesserung vom AF glaube ich jedoch nicht.
Ich denke man wird die Qualität beibehalten.

Oder erwartet uns etwas ganz anderes, womit man die Power der neuen Generation besser ausnutzen kann?

Habe mir hierzu auch schon Gedanken gemacht, aber womit könnte man noch die Grafik aufwerten?

tEd
2005-08-02, 00:45:47
Kein SSAA ausser bei Crossfire da bin ich mir ziemlich sicher. AF wird sicher nicht schlechter ausfallen eher besser. TMSAA ( ala force alpha to coverage) is eher wahrscheinlich aber noch nicht 100% sicher.

SSAA in höherer auflösung mit dxtweaker weil texturen mind. bis 4096*4096

Die MSAA modi werden sich nicht ändern. MSAA mit fx/fp16 render targets möglich.

deekey777
2005-08-02, 00:51:58
ATi muß unbedingt etwas äquivalentes zu nVidias Transparent-AA oder gar SSAA liefern.

Und das ist einer der Gründe, warum ich meine 9100 vermisse:
http://img227.imageshack.us/img227/9982/garage072620050045xp.th.jpg (http://img227.imageshack.us/my.php?image=garage072620050045xp.jpg)
http://img227.imageshack.us/img227/3041/garage072620050019ef.th.jpg (http://img227.imageshack.us/my.php?image=garage072620050019ef.jpg)

"etwas äquivalentes zu nVidias Transparent-AA" wurde doch schonmal von ATI angekündigt, oder?

Nix hören, nix sehen. :biggrin:

DrFreaK666
2005-08-02, 00:58:34
ATi muß unbedingt etwas äquivalentes zu nVidias Transparent-AA oder gar SSAA liefern.

"etwas äquivalentes zu nVidias Transparent-AA" wurde doch schonmal von ATI angekündigt, oder?

Gast_Diskutator
2005-08-02, 01:10:09
Wieder einmal wird die Füllrate recht stark ansteigen. Bei nvidia ists einfach. Man schaltet SuperSamplingAA ein und schon wird Füllrate in Bildqualität umgemünzt.
Aber was bietet ATI in dem Bereich?! Derzeit schlicht Nichts. Aber da muss doch was kommen?!

AF wäre wohl idealer, um Füllrate zu nutzen. Aber da ist ja sehr schwer von auszugehen, dass es dort keine ("positiven") Veränderungen geben wird.

Oder erwartet uns etwas ganz anderes, womit man die Power der neuen Generation besser ausnutzen kann?
Was erzaehlst du denn da??? Wer hat den bitte schön eine Flimmerkiste gelauncht ? ATI wohl kaum! Der G70 ist peinlich hoch 10 und du erzaehlst was von AA Modis die nicht exestieren bzw. deren Probleme!

Wenn du ein Problem mit ATI hats dann kauf nvidia, aber erzähle nicht so einen Unsinn!

mapel110
2005-08-02, 01:17:09
SuperSamplingAA fällt mir beim Gamen eher auf als dieses Flimmern, sagen wir besser leichtes Texturgrieseln in der Ferne bei einigen Pixeln. :)

betasilie
2005-08-02, 01:25:04
Tja, manchen Leuten kann man halt alles vor die Nase setzen. :biggrin: Manche Leute sind halt schon zufrieden, wenn SM3.0 auf dem Karton drauf steht, wobei ich mich frage wie sie SM3.0 erkennen wollen, wenn sie nicht mal flimmernde Texturen erkennen.



Zum Topic:
ATI wird das AF verbessern, da bin ich mir sicher. An SSAA glaube ich nicht so ganz und wenn das wird es richtig schönes SGSSAA geben. :)

mapel110
2005-08-02, 01:32:05
Tja, manche machen aus einer Mücke einen Elefanten. Manche stellen sich wohl unter dem Flimmern ein komplett flackerndes Bild vor. Mal abwechseld weiß und schwarz auf einem 50 Hz Fernseher. ^^

Die Meisten würden hier Probleme haben, dieses Flimmern Ingame zu sehen.

betasilie
2005-08-02, 01:40:17
Tja, genau das sind die Kunden, die Nvidia anspricht mit deren Karten. Wollen alle schön SSAA haben, aber nehmen flimmerndes AF in Kauf. :comfort:

Und wer das Nvidia Flimmern nicht ingame sieht, der sieht auch kein Flimmern durch Alphatest-Texturen.

tEd
2005-08-02, 01:53:03
Und wer das Nvidia Flimmern nicht ingame sieht, der sieht auch kein Flimmern durch Alphatest-Texturen.

So schlimm sollte es dann doch nicht sein. Das ganze hat aber doch was ironisches. Alle finden das alpha test AA toll was ich natürlich verstehe aber dafür flimmern dann die normalen texturen mehr oder weniger :|

Ailuros
2005-08-02, 02:09:38
Zum Topic:
ATI wird das AF verbessern, da bin ich mir sicher. An SSAA glaube ich nicht so ganz und wenn das wird es richtig schönes SGSSAA geben. :)

Definier mal bitte "verbessern", weil es mir jedes mal wenn ich es lese ziemlich unangenehm klingt.

betasilie
2005-08-02, 02:44:06
Definier mal bitte "verbessern", weil es mir jedes mal wenn ich es lese ziemlich unangenehm klingt.
Willst Du mich jetzt festnageln? *glatzekratz* ... Die Winkel, die jetzt voll gefiltert werden, sollen die Qualität behalten und möglichst viel der weniger schönen Winkelbereiche soll in der Qualität angehoben werden.

Ein gammakorrigiertes 4*SGSSAA würde ich allerdings auch gerne sehen.

Ailuros
2005-08-02, 03:22:02
Willst Du mich jetzt festnageln? *glatzekratz* ... Die Winkel, die jetzt voll gefiltert werden, sollen die Qualität behalten und möglichst viel der weniger schönen Winkelbereiche soll in der Qualität angehoben werden.

Ein gammakorrigiertes 4*SGSSAA würde ich allerdings auch gerne sehen.

Nein ich will nur wissen - da Du behauptest dass Du sicher ueber dieses bist - um was es sich genau handeln soll.

Also wenn ich das jetzt richtig verstehe, bleibt angeblich die Winkelabhaengigkeit, nur wird die Anzahl der samples der Winkel die bisher ~2xAF samples abbekamen erhoeht ja? Sagen wir mal 4x anstatt 2x.

Jetzt musst Du mir aber auch noch erklaeren, wie dieses vielleicht erreicht werden koennte, da das obrige Fuellrate kosten wird IMO und ATI nach allen Indizien diesmal keinen besonderen Fuellraten-Vorsprung haben wird (selbst 650MHz geben 10.4 GTexels/s).

Es kann durchaus sein dass ich etwas uebersehe und dass es doch moeglich ist, aber falls ATI wirklich etwas Leistung fuer hoehere Qualitaet opfern sollte, werde ich als erster aufstehen und applaudieren ;)

Grestorn
2005-08-02, 06:50:44
Tja, genau das sind die Kunden, die Nvidia anspricht mit deren Karten. Wollen alle schön SSAA haben, aber nehmen flimmerndes AF in Kauf. :comfort:

Und wer das Nvidia Flimmern nicht ingame sieht, der sieht auch kein Flimmern durch Alphatest-Texturen.
Da kann einer mitreden weil er sich ja ganz genau auskennt, hm?

Du weißt es natürlich besser als alle G70 Besitzer, die sich ausführlich mit dem Problem auseinander gesetzt haben.

Ich finde es absolut gut, wie sehr sich die beiden großen GPU Hersteller gegenseitig antreiben. Der Kunde profitiert und wirklich schlecht ist keines der Produkte. Wenn man aber die Leute so reden hört könnte man meinen, dass die Käufer des jeweils anderen Lagers voll einen an der Waffel haben müssen.

Ich finde das absolut ekelhaft selbstgerecht.

Ailuros
2005-08-02, 15:17:16
Ich will in der Zukunft Texturen-Filterung sehen die der 4*4 SSAA + 16xAF Kombination gleicht, und ja mir waere es auch schnuppe wenn der maximale EER nicht ueber 4*4 gehen wuerde.

Irgendwann wird die HW wohl stark genug werden, dass man verdammt noch mal mehr als nur oedes bilinear "for free" bekommt :mad:

betasilie
2005-08-02, 15:30:10
Nein ich will nur wissen - da Du behauptest dass Du sicher ueber dieses bist - um was es sich genau handeln soll.

Also wenn ich das jetzt richtig verstehe, bleibt angeblich die Winkelabhaengigkeit, nur wird die Anzahl der samples der Winkel die bisher ~2xAF samples abbekamen erhoeht ja? Sagen wir mal 4x anstatt 2x.

Jetzt musst Du mir aber auch noch erklaeren, wie dieses vielleicht erreicht werden koennte, da das obrige Fuellrate kosten wird IMO und ATI nach allen Indizien diesmal keinen besonderen Fuellraten-Vorsprung haben wird (selbst 650MHz geben 10.4 GTexels/s).

Es kann durchaus sein dass ich etwas uebersehe und dass es doch moeglich ist, aber falls ATI wirklich etwas Leistung fuer hoehere Qualitaet opfern sollte, werde ich als erster aufstehen und applaudieren ;)
Sorry, Rechnungen auf Basis von spekulativen R500-Daten will ich vermeiden. Ich weiß nicht wie der R500 aussieht und was er für Werte Fillrates erreicht. Daher ist meine sicheres Gefühl bzgl. des AF einfach nur Spekulation, wie alles andere um den R500 auch.

betasilie
2005-08-02, 15:30:19
Da kann einer mitreden weil er sich ja ganz genau auskennt, hm?

Du weißt es natürlich besser als alle G70 Besitzer, die sich ausführlich mit dem Problem auseinander gesetzt haben.

Ich finde es absolut gut, wie sehr sich die beiden großen GPU Hersteller gegenseitig antreiben. Der Kunde profitiert und wirklich schlecht ist keines der Produkte. Wenn man aber die Leute so reden hört könnte man meinen, dass die Käufer des jeweils anderen Lagers voll einen an der Waffel haben müssen.

Ich finde das absolut ekelhaft selbstgerecht.
Ich habe eine 6800GT und einen G70 hatte ich erst vor 2 Wochen für 3 Tage im Rechner. Also erzähl mir nichts von anderem Lager oder so. Ich sehe keine Lager ich sehe nur die Karten der jeweiligen Generation und die werden jedes mal neu gemischt. Und schon der NV40 hat stark geflimmert im Gegensatz zur ATI Hardware, gerade an der Grenze des Akzeptablen. Der G70 ist meiner Meinung unerträglich und nicht empfehlenswert. Mitlwerweile habe ich 3 Bekannte, die das Ding inakzeptabel fanden, wobei einer die Karte behalten hat, weil er vorher eine 9700 hatte, die nicht mehr vorhanden ist und er jetzt erstmal abwarten will. Der ärgert sich jedesmal, wenn er woanders ein flimmerfreies Bild sieht.

Und selbstgerecht ist hier niemand, nur sachlich objektiv. Es ist wohl eher so, dass die Leute selbstgerecht sind, die sich ihre G70 Karte schön reden und das große Manko einfach verdrängen und leugnen.

Ailuros
2005-08-02, 16:35:37
Sorry, Rechnungen auf Basis von spekulativen R500-Daten will ich vermeiden. Ich weiß nicht wie der R500 aussieht und was er für Werte Fillrates erreicht. Daher ist meine sicheres Gefühl bzgl. des AF einfach nur Spekulation, wie alles andere um den R500 auch.

Dann ist die Formulierung Deines Kommentars hier wohl doch etwas merkwuerdig.

ATI wird das AF verbessern, da bin ich mir sicher.

R500 uebrigens = Xenos/C1

betasilie
2005-08-02, 16:39:20
Sry, ich meine selbstverständlich den R520. Und das mit dem sicher, ist natürlich nur meine sichere Vorahnung. Wenn es wirklich sicher wäre, dann wäre es offiziell.

Ailuros
2005-08-02, 16:41:13
Ich habe eine 6800GT und einen G70 hatte ich erst vor 2 Wochen für 3 Tage im Rechner. Also erzähl mir nichts von anderem Lager oder so. Ich sehe keine Lager ich sehe nur die Karten der jeweiligen Generation und die werden jedes mal neu gemischt. Und schon der NV40 hat stark geflimmert im Gegensatz zur ATI Hardware, gerade an der Grenze des Akzeptablen. Der G70 ist meiner Meinung unerträglich und nicht empfehlenswert. Mitlwerweile habe ich 3 Bekannte, die das Ding inakzeptabel fanden, wobei einer die Karte behalten hat, weil er vorher eine 9700 hatte, die nicht mehr vorhanden ist und er jetzt erstmal abwarten will. Der ärgert sich jedesmal, wenn er woanders ein flimmerfreies Bild sieht.

Und selbstgerecht ist hier niemand, nur sachlich objektiv. Es ist wohl eher so, dass die Leute selbstgerecht sind, die sich ihre G70 Karte schön reden und das große Manko einfach verdrängen und leugnen.


Ich sag es mal anders (und es wird auch nicht das erste Mal sein):

vor dem G70 launch hoerte ich auch wiederholt dass das Ding "besseres" AF haben wird. Gleiches hoerte und hoere ich jetzt fuer R520.

Jetzt sollte mir jemand mal einen Massstab vorlegen was "besser" genau heissen soll und warum ich eher vorsichtig bin bis die fette Dame ihr Lied gesungen hat; im gegebenen Fall R520.

Denn wenn es - Gott hilf - sich um aehnlichen Mist handeln sollte, werde ich als erster Euch alle an die sogenannte Objektivitaet erinnern.

Nein keine Fakten, sondern nur etwas Futter zum weiter nachdenken und dass man nicht jeden Mist glauben sollte bis man es selber erstmal sieht.

Ailuros
2005-08-02, 16:47:38
Dass die 9700 oder R3xx nie geflimmert hat ist verdammt aber verdammt uebertrieben uebrigens. Ich hatte drei dieser Dinger ueber 1.5 Jahr und alle hatten den MIPmap LOD bias auf quality was +0.5 entspricht.

In vielen Faellen musste ich doch zum rTool greifen und bei OpenGL Applikationen war es auch nie besonders toll.

Eine G70 hab ich bis jetzt noch nicht ausprobieren koennen.

Demirug
2005-08-02, 16:50:48
Sry, ich meine selbstverständlich den R520. Und das mit dem sicher, ist natürlich nur meine sichere Vorahnung. Wenn es wirklich sicher wäre, dann wäre es offiziell.

Und was macht dich da so sicher?

Was hätte ATI von einer besseren Filterung?

ATI will genau wie nVidia nur unser bestes unser Geld.

Ailuros
2005-08-02, 16:53:16
Demi,

Gibt es irgend eine Anzeige von Deinen Kollegen, ob Xenos winkelabhaengiges AF hat? Nur mal so aus Neugierde.

Demirug
2005-08-02, 16:54:59
Demi,

Gibt es irgend eine Anzeige von Deinen Kollegen, ob Xenos winkelabhaengiges AF hat? Nur mal so aus Neugierde.

Über das AF hat noch niemand geredet. Fällt wohl auch noch unter NDA.

betasilie
2005-08-02, 22:26:07
Und was macht dich da so sicher?

Was hätte ATI von einer besseren Filterung?

ATI will genau wie nVidia nur unser bestes unser Geld.
Die Einsicht, dass die Kunden mit dem rapiden Anstieg an Terrainpolygonen mehr Qualität beim AF wollen.

Lightning
2005-08-02, 22:40:34
Die Einsicht, dass die Kunden mit dem rapiden Anstieg an Terrainpolygonen mehr Qualität beim AF wollen.

Warum sollte ATi diese Einsicht haben, wo sie nVidia doch nicht hatte?
Und das nur mal angenommen, dass diese Einsicht korrekt wäre. Sicher, ich will schöneres AF, du willst schöneres AF. Aber was ist mit der Masse? Es könnte durchaus sein, dass es in diesem Bereich (noch) nicht genug "Aufklärung" gibt, und nVidia und ATi es deshalb nicht nötig haben, Qualität Performance vorzuziehen.

Demirug
2005-08-02, 22:41:24
Die Einsicht, dass die Kunden mit dem rapiden Anstieg an Terrainpolygonen mehr Qualität beim AF wollen.

Welche Kunden? Die paar "Verrückten" in den Foren?

Du überschätzt die Macht der sogenannten Community.

tEd
2005-08-02, 22:41:55
Das AF vom r500 soll laut ATI bessere qualität bieten als das vom r420.

ATI says that the anisotropic filtering quality is improved from previous generations of hardware

..vom b3d xbo360 artikel

Gast
2005-08-03, 00:59:20
Ich habe eine 6800GT und einen G70 hatte ich erst vor 2 Wochen für 3 Tage im Rechner. Also erzähl mir nichts von anderem Lager oder so. Ich sehe keine Lager ich sehe nur die Karten der jeweiligen Generation und die werden jedes mal neu gemischt. Und schon der NV40 hat stark geflimmert im Gegensatz zur ATI Hardware, gerade an der Grenze des Akzeptablen. Der G70 ist meiner Meinung unerträglich und nicht empfehlenswert. Mitlwerweile habe ich 3 Bekannte, die das Ding inakzeptabel fanden, wobei einer die Karte behalten hat, weil er vorher eine 9700 hatte, die nicht mehr vorhanden ist und er jetzt erstmal abwarten will. Der ärgert sich jedesmal, wenn er woanders ein flimmerfreies Bild sieht.

Und selbstgerecht ist hier niemand, nur sachlich objektiv. Es ist wohl eher so, dass die Leute selbstgerecht sind, die sich ihre G70 Karte schön reden und das große Manko einfach verdrängen und leugnen.

Frage: Fanden es deinen Bekannten von selbst inakzeptabel und haben es dir erzählt ohne Kenntnis davon aus dem Web oder erst nachdem du ihnen davon erzählt hast bzw sie es irgendwo gelesen haben? Ich frage deshalb weil auch so einige hier aus dem Forum das Flimmern oder Grieseln auch erst bemerkt haben, nachdem wiederholt darauf hingewiesen wurde.

MadManniMan
2005-08-03, 01:09:45
Frage: Fanden es deinen Bekannten von selbst inakzeptabel und haben es dir erzählt ohne Kenntnis davon aus dem Web oder erst nachdem du ihnen davon erzählt hast bzw sie es irgendwo gelesen haben? Ich frage deshalb weil auch so einige hier aus dem Forum das Flimmern oder Grieseln auch erst bemerkt haben, nachdem wiederholt darauf hingewiesen wurde.

Ein imho nachvollziehbares Problem ... du hast Recht, daß vieles erst auffällt, wenn man drauf aufmerksam gemacht wird.

Ausgehend vom quasi-perfekten und flimmerfreien 2*AF diverser GF2MX, die ich hatte und vom nachfolgend noch weiter perfektionierten AF mit meinem NV20 wurde danach alles schleichend mieser. Wirklich beim spielen "merken" tu ich heut mit meiner 6600Go z.B. den Unterschied zwischen HQ und Performance sicherlich, zwischen HQ und Q mit ein oder zwei Optimierungen wird es schon happig, aber wenn das Bewußtsein da ist, fällt es schon ins Auge.

Ohne Vergleichsmöglichkeiten steht der G70 sicherlich erstmal blendend da - TSSAA ahoi! Wenn man aber ...

...halt, ich drehe mich im Kreis und wiederhole mich!


Fakt ist: man merkt die Unterschiede, ja.

MadManniMan
2005-08-03, 01:13:38
Gast, was mir grad auffällt ... hast ein gutes Stichwort gegeben - ich lerne gerade für eine Prüfung ("Empirische Kommunikationsforschung") und las folgenden Absatz ;)


2.5.2 Theorie und Beobachtung

Grundsatz: Jede Beobachtung ist theoriegetränkt.

1. Wahrnehmung ist kulturabhängig. Wir sehen nur das, was uns unsere Kultur zu sehen gelehrt hat.

2. Wahrnehmung wird durch Wissen und Erfahrung vorbestimmt. Die auf unserem Wissen und unseren Erfahrungen beruhenden Erwartungen prägen unsere Wahrnehmung.

3. Für die Auswahl relevanter Beobachtungsbedingungen ist Theorie notwendig.

4. Für die Entscheidung, was beobachtet werden soll, ist Theorie notwendig.

5. Beobachtungsaussagen müssen in der Sprache einer Theorie abgefasst werden.

6. Die Wahrnehmung mit Hilfe wissenschaftlicher Forschungsinstrumente beruht auf Theorien (Instrumententheorien, Hilfstheorien).

Ailuros
2005-08-03, 01:55:22
Das AF vom r500 soll laut ATI bessere qualität bieten als das vom r420.



..vom b3d xbo360 artikel

http://www.beyond3d.com/forum/showthread.php?t=22288

I don't know anything about Xenos, but if you are primarily combining textures, then you want fast trilinear. However, if you're primarily executing shaders, then texture filter speed becomes less important.

betasilie
2005-08-03, 01:55:23
Frage: Fanden es deinen Bekannten von selbst inakzeptabel und haben es dir erzählt ohne Kenntnis davon aus dem Web oder erst nachdem du ihnen davon erzählt hast bzw sie es irgendwo gelesen haben? Ich frage deshalb weil auch so einige hier aus dem Forum das Flimmern oder Grieseln auch erst bemerkt haben, nachdem wiederholt darauf hingewiesen wurde.
Ich habe es ihnen im Vorfeld gesagt, aber sie wollten es nicht glauben. Kann sein, dass ich sie mit dieser Aussage ein bischen manipuliert habe, nur ist es ihnen nicht nur aufgefallen, sondern es hat sie richtig gestört. Man mag das Flimmern eher akzeptieren, wenn man nicht um den Sachverhalt weiß, trotzdem wird es den Leuten, die über Vergleichsmöglichkeiten im Freundschaftskreis verfügen, früher oder später auffallen, wenn sie nur ein bischen sensibilisiert sind was Flimmern angeht.

betasilie
2005-08-03, 02:09:57
Warum sollte ATi diese Einsicht haben, wo sie nVidia doch nicht hatte?
Und das nur mal angenommen, dass diese Einsicht korrekt wäre. Sicher, ich will schöneres AF, du willst schöneres AF. Aber was ist mit der Masse? Es könnte durchaus sein, dass es in diesem Bereich (noch) nicht genug "Aufklärung" gibt, und nVidia und ATi es deshalb nicht nötig haben, Qualität Performance vorzuziehen.
Ligthning, ich weiß worauf Du hinaus willst, aber Du nicht worauf ich hinaus will. Einer der beiden IHVs wird irgendwann den Schritt zum besseren AF wagen und zwar aus ganz eigennützigen Gründen - Marketing. Angenommen ATI bringt nun ein wirklich besseres AF (von perfekt will ich nicht reden), dann könnte das eine professionelle Markteingabteilung durchaus ausschlachten. Ich behaupte nicht, dass ATi einfach ein besseres AF bietet und dann kräht kein Hahn danach, außer uns 3D-Freaks. Wenn dann wird damit richtig schön mit anschaulichen Beispielen bis in alle Vertriebsbereiche durchgeworben. ... Aber dass die Defaultsettings konkurrenzfähig bei den Benchmarks sein müssen, sollte auch klar sein.

Einer wird den Schritt tun, ob das ATI mit dem R520 ist oder Nvidia mit deren nächsten Chip.

Welche Kunden? Die paar "Verrückten" in den Foren?

Du überschätzt die Macht der sogenannten Community.
Siehe oben. Wenn man 3Dc oder SM3.0 bewerben kann für den normalen Kunden, dann kann man ein erheblich besseres AF gegenüber der Konkurrenz noch viel besser vermarkten mit plakativen Marketing.

Das realtiv gute AF beim NV30 war kein Teilgrund für dessen Misere, sondern der Grund weswegen der Chip überhaupt von einigen Leuten gekauft wurde. Nvidia hat im Wirbel des GF-FX Desasters leider nicht bemerkt, dass gerade ihr AF das Schlimmste verhindert hat. Diese Erkenntnis hätten sie zum NV40 mit rüber retten müssen.

Ailuros
2005-08-03, 02:41:00
Siehe oben. Wenn man 3Dc oder SM3.0 bewerben kann für den normalen Kunden, dann kann man ein erheblich besseres AF gegenüber der Konkurrenz noch viel besser vermarkten mit plakativen Marketing.

SM3.0 macht das Leben der Entwickler leichter falls Du es uebersehen hast; was ein jeglicher Treiber mit der Filterung anrichtet scheint den meisten Entwicklern egal zu sein.

Also, since SM3.0 is something you wanted to code in high-level shading languages, it didn't make much sense to squeeze that one in, also. Today, most of the SM3.0 effects, you can do with 2.0 shaders, but don't get me wrong - this will surely change very fast. And not to mention that SM3.0 is _much_ better for programming (looking from non-marketing, just developer's perspective now :). I personally can't wait to ditch PS1.x completely, write all the shaders in 3.0, and have a fall-back path for 2.0.

http://www.beyond3d.com/interviews/dean/index.php?p=02

Das realtiv gute AF beim NV30 war kein Teilgrund für dessen Misere, sondern der Grund weswegen der Chip überhaupt von einigen Leuten gekauft wurde. Nvidia hat im Wirbel des GF-FX Desasters leider nicht bemerkt, dass gerade ihr AF das Schlimmste verhindert hat. Diese Erkenntnis hätten sie zum NV40 mit rüber retten müssen.

NV30 wurde eher von die-hard hardcore NV fans gekauft (und es ist ja auch nicht so dass die Uebermasse von den Dingern gekauft wurde, ueberhaupt wenn die damalige Relation im high-end 80:20 zwischen ATI und NVIDIA).

NVIDIA hat im NV30 Wirbel gemerkt dass sie so stark wie moeglich mit ATI konkurrieren muessen und daher war es auch ziemlich schwer ohne Filterungs-Optimierungen weiterhin zu konkurrieren.

betasilie
2005-08-03, 02:53:29
Ailuros, das die genanten Dinge wie AF, 3Dc und SM3.0 völlig verschiedene paar Schuhe sind, ist mir klar. Es geht darum was man vermarkten kann für den gemeinen Kunden. Und was meinste wieviel Leute sich eine 6800GT nur gekauft haben, damit sie ja SM3.0 drauf stehen haben. Wobei SM3.0 rein technologisch ein anderes Kaliber, als 3Dc und AF ist.

Gutes AF kann man richtig gut vermarkten, wenn die Konkurrenz pennt.


Und Du hast zum NV30 eine andere Meinung als ich. Ich hatte den Eindruck, dass viele Leute den NV3x mochten, weil er besseres AF bot.

Ailuros
2005-08-03, 02:55:05
Einer wird den Schritt tun, ob das ATI mit dem R520 ist oder Nvidia mit deren nächsten Chip.

Es wird sowieso kommen in der Zukunft, wenn Applikationen wirklich shader-limitiert sein werden (siehe OpenGLguy's Kommentar nochmal oben).

Ailuros
2005-08-03, 03:13:41
Ailuros, das die genanten Dinge wie AF, 3Dc und SM3.0 völlig verschiedene paar Schuhe sind, ist mir klar. Es geht darum was man vermarkten kann für den gemeinen Kunden. Und was meinste wieviel Leute sich eine 6800GT nur gekauft haben, damit sie ja SM3.0 drauf stehen haben.

Ich kann mir mehr Leute vorstellen die letztes Jahr eine NV40 kauften, weil sie in AGP verfuegbar waren.

Gutes AF kann man richtig gut vermarkten, wenn die Konkurrenz pennt.

Leider sehe ich in dem Fall ATI in mehreren als nur einen Abteilung in letzter Zeit verpennt zu haben. Es kann durchaus sein dass sich das Bild ab Mitte 2006 wieder radikal aendert, aber momentan ist mir die Liste der potentiellen Fehlschlaege zu gross. Erst mit der R480/430 Linie stieg die generelle Verfuegbarkeit, die Verfuegbarkeit von AGP GPUs, es gab endlich eine Antwort auf die 6800nonUltra und einen um einiges besseren Konkurrenten fuer die 6800GT (X800XL). So und jetzt kommt noch Crossfire und R520 dazu und das Ganze verbundene Schlammasel das hinter den Kulissen in letzter Zeit vorging.

Hoehere AF Qualitaet koennte ATI einen extra-Punkt liefern, aber ich frage Dich ob die Leistung doch nicht vielleicht wichtiger sein koennte. Das Ding ist nach allen Indizien ein dual slot design mit einem ziemlich lauten Luefter, hat nicht mehr Fuellrate als eine G70 und soll in ALU limitierten Situationen vom G70 blamiert werden. Erklaer mir jetzt mal bitte wieso ATI nicht eher dringend jeden letzten Fleck von extra Leistung brauchen wuerde?

Ich will natuerlich nicht ausschliessen dass sie womoeglich eine oder andere Optimierung zum besseren geaendert haben, aber es wird genau wie lange dauern bis NVIDIA darauf reagiert?

Im einem Moment kommt eine Crossfire Ankuendigung (weil eben fuer shows eine X550 Vorstellung doch zu mager ist) und man blubbert mit froehlichen screenshots von 10x/14x hybriden FSAA-modi und nach sehr kurzer Zeit kommt die Antwort von der Konkurrenz und zwar aus zwei Richtungen: SLi-AA und TSAA. Das erste koennte ich sogar als redundant bewerten unter Umstaenden, das zweite aber nicht.


Und Du hast zum NV30 eine andere Meinung als ich. Ich hatte den Eindruck, dass viele Leute den NV3x mochten, weil er besseres AF bot.

Ich kann mich immer noch an die hitzigen Debatten mit aths ueber das AF der R3xx erinnern. Ich sagte schon damals dass die Winkel-abhaengigkeit zur Zukunft gehoert.

Von dem abgesehen ich befinde mich hier, in einigen englischen und sogar lokalen Foren tagtaeglich. Die meisten Herren die damals eine NV30 kauften, waren eher hardcore NVIDIA fans.

MadManniMan
2005-08-03, 03:35:21
Prinzipiell: höchstinteressante Diskussion zwischen euch beiden :) Weiter so.

Zum Thema NV30 - ich hab mir ja im Nachhinein auch noch einen geholt ... und ja, das AF war genau so, wie es mir vorgestellt hatte: der Hauptkritikpunkt pro FX5800!

Nur war es eben vor nem Jahr und für 90€ - Einsicht kommt manchmal seeehr spät ... zumal ich bei meiner 9500 Pro eigentlich eh die meiste Zeit nur 2*AA der Leistung wegen genutzt hatte :|

aths
2005-08-03, 04:10:17
Und was macht dich da so sicher?

Was hätte ATI von einer besseren Filterung?

ATI will genau wie nVidia nur unser bestes unser Geld.Genau. Dazu brauchen sie ein gutes Produkt. Ich traf im Gespräch mit NV-PR-Leuten allerdings auf wenig Verständis als es darum ging, AF-Qualität als Merkmal anzupreisen.

Im Nachhinein bin ich auf die Reatkionen von NV ziemlich sauer. Wir sollten entweder die Reviews in der Masse ändern, oder MS dazu bewegen, schärfere Kriterien festzulegen. NV weiß genau, dass wir weder das eine noch das andere können. Im Prinzip haben sie damit gesagt: 'Wenn du mit der Qualität nicht mehr leben kannst, dein Problem.'

ATI kann jetzt dabei bleiben, ihr AF nur minimal zu verbessern und es – im Vergleich zu NV – als Qualitäts-AF anpreisen. Ich fürchte jedenfalls, dass es so kommen wird.

aths
2005-08-03, 04:18:44
Es kann durchaus sein dass ich etwas uebersehe und dass es doch moeglich ist, aber falls ATI wirklich etwas Leistung fuer hoehere Qualitaet opfern sollte, werde ich als erster aufstehen und applaudieren ;)Wieso nur etwas Leistung? Selbst meine 6600 GT mit nur 4 GT hat genug Füllrate, um in vielen Games echtes 16x AF anzubieten. Ich will gefälligst viel Leistung opfern – für viel Qualität, versteht sich.

Merlin31
2005-08-03, 07:36:16
Ich finde es schade das Leute wie Thilo von der PCG Hardware, nie auf solche Themen eingeht. Denn wenn die Fachzeitschriften endlich mal anfangen würden, auch die AA bzw. AF-Qualtität vernünftig zu testen (was den grössten Faktor in der Punktewertung aus machen sollte), dann würde der Spuk endlich mal aufhören.

PhoenixFG
2005-08-03, 09:02:48
Ich glaube, diese ganze Geschichte wird hier etwas überschätzt. Wen bitte interessiert es denn, ob eine Grafikkarte unter den Umständen xyz und die Grafiktreibereinstellungen abcd flimmert? Außer ein paar "Freaks" niemanden.
Der Normalverbraucher hat weder die Zeit noch die Lust sich entsprechend zu informieren und vorallem ständig auf dem Laufenden zu bleiben. Da hilfte es meiner Meinung nach auch nicht, wenn Zeitschriften sowas publik machen würden. Die werden ja auch wieder nur von "Freaks" gelesen. Doch einen PC hat doch heute locker jeder zweite rumstehen.
Den normalen Käufer interessiert der Speicherausbau, ein paar Benchmarks und man kann ihm vielleicht noch was von Shadermodels erzählen. Da der Markt recht überschaubar ist, wird er sich entsprechend seines Geldbeutels, frisch erworbenem Halbwissen und den Ratschlägen seiner Bekanntschaften für irgendeine Karte von Nvidia oder ATI entscheiden (andere werden eh nicht beworben). Kantenglättung, Filterung oder ähnliches sind dann böhmische Dörfer und interessieren somit auch nicht.
Somit handeln ATI und NV sowie die diversen Kartenhersteller genau richtig. Nicht umsonst gibt es selbst die langsamsten Grafikchips zusammen mit 256MB RAM auf einer Karte. Nicht umsonst wird an Filterungen (egal ob in Hardware oder Software) gespart. So verdient man möglichst viel Geld.
Man kann sich hier also wunderbar (und zurecht) über die Entwicklung zum schlechteren ärgern, aber es gleicht doch eher einem Zwergenaufstand.

Somit glaube ich auch nicht, dass man "besseres" AF großartig als Marketingargument gebrauchen kann. Solange man das erst in irgendwelchen Kryptischen Einstellungsdialogen in einem Controlpanel oder im Spiel machen muss, kann man sowas nicht verwenden.
Werben kann ich nur mit Sachen bei denen der Kunde sagt: "Meine Karte hat das Feature XY und ist damit besser." und nicht mit "Meine Karte kann dieses und jenes, wenn ich mich durch diverse Einstelungsdialoge gehangelt habe ."

MfG

Merlin31
2005-08-03, 09:09:19
Aber ich denke mal das grade die Gamer die sich eine High End Graka kaufen sich mit aber schon vorher infos holen und vergleichen. Im Mainstream Sektor magst du ja recht haben.

Demirug
2005-08-03, 09:34:50
Genau. Dazu brauchen sie ein gutes Produkt. Ich traf im Gespräch mit NV-PR-Leuten allerdings auf wenig Verständis als es darum ging, AF-Qualität als Merkmal anzupreisen.

Für mehr als einen Zahlenwert reicht nun mal das algemeine Verständnis nicht aus. Zahlen kann jeder vergleichen.

Im Nachhinein bin ich auf die Reatkionen von NV ziemlich sauer. Wir sollten entweder die Reviews in der Masse ändern, oder MS dazu bewegen, schärfere Kriterien festzulegen. NV weiß genau, dass wir weder das eine noch das andere können. Im Prinzip haben sie damit gesagt: 'Wenn du mit der Qualität nicht mehr leben kannst, dein Problem.'

Ich fürchte du überschätzt da die Macht von MS. MS kann nur Kritieren festlegen wenn die IHVs zustimmen.

Ein weiteres problem ist das man zwar durchaus den Verfall der Filterqualität dokumentieren kann aber sich schwer tut eine Alternative aufzuzeigen. An der Bildqualität manipulieren ja alle IHVs rum. Einfach keine neue Hardware mehr zu kaufen kann bei den ständig steigenden Anforderungen dann irgendwie auch keine Alternative sein.

ATI kann jetzt dabei bleiben, ihr AF nur minimal zu verbessern und es – im Vergleich zu NV – als Qualitäts-AF anpreisen. Ich fürchte jedenfalls, dass es so kommen wird.

Ich gehe eher davon aus das sich da nichts zum positive hin ändert.

(del676)
2005-08-03, 09:35:20
also flimmern tut bei mir gar nix - da musst du wohl einen einstellungsfehler gemacht haben - global und im spieleprofil alle opts aus und HQ ein, wenns dann noch flimmert bekommst nen orden

Demirug
2005-08-03, 09:41:15
Ich finde es schade das Leute wie Thilo von der PCG Hardware, nie auf solche Themen eingeht. Denn wenn die Fachzeitschriften endlich mal anfangen würden, auch die AA bzw. AF-Qualtität vernünftig zu testen (was den grössten Faktor in der Punktewertung aus machen sollte), dann würde der Spuk endlich mal aufhören.

Welches allgemein annerkannte Verfahren zum Testen der AA und AF Qualität gibt es den? Gerade als Fachmagazin muss man die Bewertungsgrundlagen nachvollziebar darlegen.

aths
2005-08-03, 09:43:26
Somit glaube ich auch nicht, dass man "besseres" AF großartig als Marketingargument gebrauchen kann. Solange man das erst in irgendwelchen Kryptischen Einstellungsdialogen in einem Controlpanel oder im Spiel machen muss, kann man sowas nicht verwenden.
Werben kann ich nur mit Sachen bei denen der Kunde sagt: "Meine Karte hat das Feature XY und ist damit besser." und nicht mit "Meine Karte kann dieses und jenes, wenn ich mich durch diverse Einstelungsdialoge gehangelt habe ."Das grauenhafte Design der Control Panels (beider großen IHVs) hat doch der Kunde nicht verschuldet.

aths
2005-08-03, 09:46:35
Für mehr als einen Zahlenwert reicht nun mal das algemeine Verständnis nicht aus. Zahlen kann jeder vergleichen.



Ich fürchte du überschätzt da die Macht von MS. MS kann nur Kritieren festlegen wenn die IHVs zustimmen. Ja, das habe ich NV auch so ähnlich gesagt. Sobald auch nur einer nicht mitspielen will, wird MS keine solchen Kriterien festlegen. Nicht umsonst fühlte ich mich von NV so verarscht, angesichts der tollen Vorschläge von denen.

Auch du begehst hier den Fehler – imo ist es ein Fehler – dem Endkunden zu wenig zuzutrauen. Alle reden sich gegenseitig ein, wie blöd dieser sei.

Ein weiteres problem ist das man zwar durchaus den Verfall der Filterqualität dokumentieren kann aber sich schwer tut eine Alternative aufzuzeigen. An der Bildqualität manipulieren ja alle IHVs rum. Einfach keine neue Hardware mehr zu kaufen kann bei den ständig steigenden Anforderungen dann irgendwie auch keine Alternative sein.

Ich gehe eher davon aus das sich da nichts zum positive hin ändert.Ich hingegen meine, dass sich dort etwas ändern muss – schließlich ist Fotorealismus eines der Ziele, das verfolgt wird, und das kann mit qualitativ hochwertiger anisotropen Filterung performanter erledigt werden als mit den heutigen AF-Implementierungen.

aths
2005-08-03, 09:47:56
also flimmern tut bei mir gar nix - da musst du wohl einen einstellungsfehler gemacht haben - global und im spieleprofil alle opts aus und HQ ein, wenns dann noch flimmert bekommst nen ordenDie 7800 GTX neigt bei aktuellen Treibern grundsätzlich zum Flimmern, sofern AF aktiv ist. Da habe ich inzwischen genug Screenshots und Videos gesehen. Die 6800 hingegen lässt sich noch so einstellen, dass das AF nicht flimmert.

Merlin31
2005-08-03, 09:49:14
Welches allgemein annerkannte Verfahren zum Testen der AA und AF Qualität gibt es den? Gerade als Fachmagazin muss man die Bewertungsgrundlagen nachvollziebar darlegen.

Dann wird es aber höchste Zeit das man sich zusammen setzt und eine Norm (mit zugehörigem Test Tool) entwickelt.

(del676)
2005-08-03, 09:50:25
Die 7800 GTX neigt bei aktuellen Treibern grundsätzlich zum Flimmern, sofern AF aktiv ist. Da habe ich inzwischen genug Screenshots und Videos gesehen. Die 6800 hingegen lässt sich noch so einstellen, dass das AF nicht flimmert.

nö - falsch

was du mit HQ siehst (wenn man genau drauf schaut) und meinst ist höchstens leichtes grieseln
mit Q flimmert es

dazwischen liegt ein unterschied wie zwischen 0xAA und 8xS

aths
2005-08-03, 09:51:29
Dann wird es aber höchste Zeit das man sich zusammen setzt und eine Norm (mit zugehörigem Test Tool) entwickelt.Das geht nicht so einfach.

aths
2005-08-03, 09:52:59
nö - falsch

was du mit HQ siehst (wenn man genau drauf schaut) und meinst ist höchstens leichtes grieselnFür mich ist es Flimmern und unangenehm. Da muss ich auch gar nicht genau drauf achten. Erst recht im Vergleich zur 6800 oder X800 fällt das Flimmern auf.

(del676)
2005-08-03, 09:54:29
gut dann ist für mich alles unter 16xAA schlimmstes flimmern.

warum bietet ati flimmerndes AA an?

btw. gut das DU glaubst du kannst dir eine meinung bilden, wieviele g70 hast du selber getestet?

aths
2005-08-03, 09:55:28
gut dann ist für mich alles unter 16xAA schlimmstes flimmern.Nicht auf einer 6800 oder X800, sofern das Spiel nicht die LOD-Einstellung versaut hat. Dafür ist ja der Texturfilter (und das MIP-Mapping) da.

warum bietet ati flimmerndes AA an?Wie meinst du das?

btw. gut das DU glaubst du kannst dir eine meinung bilden, wieviele g70 hast du selber getestet?Ich glaube dass ich mir eine Meinung bilden kann aufgrund der Screenshots und Videos. Die beweisen, dass AF-Texturen auf dem G70 flimmern.

(del676)
2005-08-03, 09:56:43
Nicht auf einer 6800 oder X800, sofern das Spiel nicht die LOD-Einstellung versaut hat.


ich rede von Antialiasing - nicht mehr von AF
ich definiere hier und jetzt das alles unter 16xAA für mich Kantenflimmern ist.

diese definition ist genauso falsch wie deine, aber das ist mein gutes recht :P

(del676)
2005-08-03, 09:57:10
Ich glaube dass ich mir eine Meinung bilden kann aufgrund der Screenshots und Videos. Die beweisen, dass AF-Texturen auf dem G70 flimmern.

nö, es grieselt höchstens

aths
2005-08-03, 09:57:55
ich rede von Antialiasing - nicht mehr von AF
ich definiere hier und jetzt das alles unter 16xAA für mich Kantenflimmern ist.

diese definition ist genauso falsch wie deine, aber das ist mein gutes recht :PWas Antialiasing bei Texturen angeht, da gibt es gewisse Kriterien. Die werden entweder erfüllt, oder nicht. Demzufolge kann man objektiv feststellen, ob Texturen zum Flimmern neigen, oder nicht.

(del676)
2005-08-03, 09:59:20
Was Antialiasing bei Texturen angeht, da gibt es gewisse Kriterien. Die werden entweder erfüllt, oder nicht. Demzufolge kann man objektiv feststellen, ob Texturen zum Flimmern neigen, oder nicht.

aha, warum widersprichst du dich jetzt? wenn es so einfach ist - warum dann das:

Das geht nicht so einfach.

aths
2005-08-03, 09:59:49
nö, es grieselt höchstensIch glaube, es grieselt ganz woanders ...

Hast du schon mal G70-AF-Texturen (HQ) mit NV40-AF-Texturen (HQ) direkt verglichen? Dann wüsstest du, wie es auszusehen hat. Ich weiß nicht was dieses herunterspielen vom Flimmern des G70-AFs soll, á la 'Ist ja nicht so schlimmm, es grieselt höchstens (aber nur vielleicht)'. Wird hier ein Kauf schöngeredet?

aths
2005-08-03, 10:01:03
aha, warum widersprichst du dich jetzt? wenn es so einfach ist - warum dann das:Das ist kein Widerspruch. Ob ein Kriterium erfüllt wird oder nicht, kann man schnell sagen. Wenn es nicht erfüllt wird, muss man feststellen, wie weit man daneben liegt – und wie stark man das als Fehler gewichten will. Ich empfehle ernsthaft, weniger schnell auf meine Postings zu antworten.

(del676)
2005-08-03, 10:03:07
im gegensatz zu dir besitze ich eine g70 bei der mich das grieseln stört (und ja das bild hat auf der 6800 besser ausgesehen, aber zwischen Q FLIMMERN und HQ GRIESELN ist ein unterschied der RIESIG ist. und wenn jemand vom flimmern spricht dem kann geholfen werden -> HQ)
das sind 2 grundverschiedene dinge

ich rechtfertige GAR nichts, ich hasse es nur wenn leute die sich selbst kein bild machen konnten (screenshots/videos -> is ja witzig echt) fest mit falschen begriffen um sich hauen und andere sogar beleidigen.

aths
2005-08-03, 10:06:48
im gegensatz zu dir besitze ich eine g70 bei der mich das grieseln stört (und ja das bild hat auf der 6800 besser ausgesehen, aber zwischen Q FLIMMERN und HQ GRIESELN ist ein unterschied der RIESIG ist. und wenn jemand vom flimmern spricht dem kann geholfen werden -> HQ)
das sind 2 grundverschiedene dinge

ich rechtfertige GAR nichts, ich hasse es nur wenn leute die sich selbst kein bild machen konnten (screenshots/videos -> is ja witzig echt) fest mit falschen begriffen um sich hauen und andere sogar beleidigen.Warum muss man einen G70 haben, um wissen zu können, dass dort das AF vergurkt ist? Damit ich nicht mitreden darf, und deine Meinung die richtige ist?

Zwischen HQ und Q kann gerne ein Unterschied sein, meinetwegen ein großer – schon beim NV40 interessierte mich Q nicht. HQ auf dem G70 ist meiner bisherigen Untersuchung nach aber nur noch ein Stückchen besser als Q auf dem NV40, G70 HQ ist also soweit ich das sehe näher an NV40 Q als an NV40 HQ. Und das halte ich für inakzeptabel.

Warum ist es "witzig echt", AF anhand von Screenshots und Videos zu untersuchen? Wo haue ich mit falschen Begriffen um mich? Und warum fühlst du dich gleich beleidigt?

(del676)
2005-08-03, 10:07:10
Ich empfehle ernsthaft, weniger schnell auf meine Postings zu antworten.

ich empfehle den unterschied selbst zu sehen bevor man groß drüber redet
und ich empfehle eine freundlichere umgangsform deiner seits - denn nein auch wenn du es glaubst, in meinem hirn grieselt nichts

Merlin31
2005-08-03, 10:07:34
Also unsere MArketing abteilung hat mir die g70 wieder um die Ohren gehauen und meint das sie damit nicht gescheit arbeiten können.
Jetzt liegen diese Karten erstmal auf Lager. Schade das wir Admins uns die nicht einfach nehmen können (zur Entsorgung nach Hause nehmen :biggrin: ).
Also bei uns im Konzern brauche ich erstmal keine NV mehr zu bestellen.

aths
2005-08-03, 10:09:30
ich empfehle den unterschied selbst zu sehen bevor man groß drüber redet
und ich empfehle eine freundlichere umgangsform deiner seits - denn nein auch wenn du es glaubst, in meinem hirn grieselt nichtsDen Unterschied habe ich doch gesehen, auf Screenshots und in Videos. Mein Umgangston mag nicht durch Freundlichkeit bestechen, allerdings sehe ich auch dich hier nicht gerade als Vorbild. Dass es in deinem Kopf grieselt, habe ich nicht gesagt (so könnte man mein bewusstes Posting allerdings verstehen, ja.)

Ich rede groß darüber, weil ich mir – nach menschlichem Ermessen – meiner Sache sehr sicher bin: Der G70 flimmert bei aktiviertem AF auch in HQ. Ich halte es für seltsam, warum das – jedenfalls sieht es für mich so aus – kleingeredet werden sollte, dass es ja nur grieseln würde. Die Verletzung bestimmter Kriterien kann Aliasing zur Folge haben. Schon mit "richtigen" Texturfiltern können bestimmte Texturen ein Verhalten zeigen, dass fast jeder als "flimmern" bezeichnet, siehe zeckis Moire-Monster. Damit man so "böse" Texturen wie möglich benutzen kann, sollten Texturfilter bestimmte Kriterien erfüllen. Das G70-AF bietet das nicht. Nur vergleichsweise unscharfe Texturen werden noch flimmerfrei gerendert.

(del676)
2005-08-03, 10:13:29
Ich rede groß darüber, weil ich mir – nach menschlichem Ermessen – meiner Sache sehr sicher bin.

schön, nur leider liegst du falsch.

flimmert ist für mich z.b. etwas das da und wieder weg ist -> ein pixel der abwechseln schwarz/weiss wird -> wie eben bei ATs oder bei den Texturen im Q modus
bei den Texturen im HQ modus wechselt die farbe eben NICHT so abrupt, es sieht eher aus wie ein overlay einer transparenten textur (wie wenn eine durchsichtige, feine wolkentextur über die eigentlichen geschoben wird) das wechselt kein einziger pixel einfach nur farben wie im Q modus, das ist 1. auf screenshots nicht zu sehen und geht 2. bei der videokomprimierung verloren -> d.h. auf dem video sieht es schlimmer aus als es in wahrheit ist.
und es ist 3. schwer zu erklären, also lege ich dir nahe sowas auf einer G70 direkt anzusehen bevor du weiterredest

Demirug
2005-08-03, 10:14:58
Auch du begehst hier den Fehler – imo ist es ein Fehler – dem Endkunden zu wenig zuzutrauen. Alle reden sich gegenseitig ein, wie blöd dieser sei.

Es tut mitr leid. Die Masse der Endkunden ist blöd. Ich denke ich habe lange genug Endkundensupport gemacht um mir dieses Urteil zu erlauben.

Ich hingegen meine, dass sich dort etwas ändern muss – schließlich ist Fotorealismus eines der Ziele, das verfolgt wird, und das kann mit qualitativ hochwertiger anisotropen Filterung performanter erledigt werden als mit den heutigen AF-Implementierungen.

Nicht wirklich. Langfristig gesehen sind Texturen wie wir sie heute kennen sowieso tot.

Merlin31
2005-08-03, 10:15:07
Ich konnte mich grade beim Abteilungsleiter (Marketingabteilung) selber davon überzeugen.

Das Flimmern ist krass.

Ich finde es sogar so schlimm, das ich verusche die Karten zurück zu geben.
Was ich nicht verstehe, das NV so etwas beim Testen nicht selber gesehen hat?
die standen doch noch gar nicht so unter Zeitdruck ?! :confused:

PS: Ich bin übrigens NV/ATI neutral

aths
2005-08-03, 10:17:19
schön, nur leider liegst du falsch.

flimmert ist für mich z.b. etwas das da und wieder weg ist -> ein pixel der abwechseln schwarz/weiss wird -> wie eben bei ATs oder bei den Texturen im Q modusDas hängt entscheidend mit von der Framerate ab. Und ein Flimmern, in dem Pixel direkt von schwarz auf weiß schalten wirst du selbst im High-Performance-Modus nur schwer erzeugen können.

bei den Texturen im HQ modus wechselt die farbe eben NICHT so abrupt, es sieht eher aus wie ein overlay einer transparenten textur (wie wenn eine durchsichtige, feine wolkentextur über die eigentlichen geschoben wird) das wechselt kein einziger pixel einfach nur farben wie im Q modus, das ist 1. auf screenshots nicht zu sehen und geht 2. bei der videokomprimierung verloren -> auf dem video sieht es nämlich schlimmer aus als es in wahrheit ist.Genau deshalb habe ich mir unkomprimierte Videos besorgt.

und es ist 3. schwer zu erklären, also lege ich dir nahe sowas auf einer G70 direkt anzusehen bevor du weiterredestIch habe es, wie oft noch, doch auf Videos gesehen. Aber ich muss nicht mal Videos sehen. Das Standbild zeigt schon Aliasing. Vielleicht flimmert es nicht so doll, so dass du damit noch leben kannst, und es deshalb nicht als Flimmern bezeichnen möchtest.

Für mich ist das Flimmern beim G70 inakzeptabel.

aths
2005-08-03, 10:19:17
Es tut mitr leid. Die Masse der Endkunden ist blöd. Ich denke ich habe lange genug Endkundensupport gemacht um mir dieses Urteil zu erlauben.Und da wir uns da alle bekräftigen, versucht keiner, den Kunden klüger zu machen.

Eine Grafikkarte zu konfigurieren ist sicherlich nicht komplexer, als mit einem Auto zu fahren. Und wer hat nicht alles einen Fleppen ...

Nicht wirklich. Langfristig gesehen sind Texturen wie wir sie heute kennen sowieso tot.Ja, das sage ich auch immer wieder. Aber ich denke, dass traditionelle Texturen noch auf viele Jahre hinaus eine große haben werden.

(del676)
2005-08-03, 10:20:01
Ich habe es, wie oft noch, doch auf Videos gesehen. Aber ich muss nicht mal Videos sehen. Das Standbild zeigt schon Aliasing. Vielleicht flimmert es nicht so doll, so dass du damit noch leben kannst, und es deshalb nicht als Flimmern bezeichnen möchtest.

X-D

wird ja immer besser, als ich einen Screenshot von BF2 gepostet habe haben alle gemeckert, mich fast gelyncht weil man das Flimmern auf Screenshots ja nichtmal erahnen kann :rolleyes:

(del676)
2005-08-03, 10:21:19
Genau deshalb habe ich mir unkomprimierte Videos besorgt.

von welcher quelle, mit welcher auflösung?
kannst du deine hand ins feuer legen dass derjenige alles korrekt eingestellt hat, und auch den nvidia treiber bug bei den einstellungen richtig umgangen hat?

aths
2005-08-03, 10:21:53
X-D

wird ja immer besser, als ich einen Screenshot von BF2 gepostet habe haben alle gemeckert, mich fast gelyncht weil man das Flimmern auf Screenshots ja nichtmal erahnen kann :rolleyes:Nicht ohne Grund vergleiche ich synthetische Screenshots und keine Spiele, deren Texturen viele "Optimierungen" verstecken. Meine 3D-Szene ist nicht gerade optimal, um Texturflimmern zu erkennen, aber man kann es schon erkennen. Zumal ich den direkten Vergleich mit NV40 HQ habe.

Demirug
2005-08-03, 10:22:49
Und da wir uns da alle bekräftigen, versucht keiner, den Kunden klüger zu machen.

Eine Grafikkarte zu konfigurieren ist sicherlich nicht komplexer, als mit einem Auto zu fahren. Und wer hat nicht alles einen Fleppen ...

Der gewöhnliche Kunden will da nichts lernen. Was glaubst du warum MS bestrebt ist das Spielen auf einem PC genauso zu vereinfachen wie bei den Konsolen? Das Panel sollte der gewöhnliche Kunde nach dem Willen von MS eigentlich nie zu Gesicht bekommen.

Für den gewöhnlichen Kunden sit der PC ein Gebrauchsgegenstand wie ein Videorecorder und wenn man daran denkt bei wie vielen die Uhr des Videorecorders immer noch blinkt...

MadManniMan
2005-08-03, 10:26:13
Mein Gott Ulukay - nenn es meinethalben Pixelschunkeln, aber sich wegen einer Definition so aufzuspielen? Fakt is: auch bei HQ bleibt das Bild unruhig, was scheiße ist.

Warum kauen wir Verbraucher uns eigentlich dauernd an? Die bei nV und ATi wollen UNSER Geld, nicht aths Deins oder Q meines.

aths
2005-08-03, 10:30:43
von welcher quelle, mit welcher auflösung?Soll ich auch gleich noch meine Adresse und Schuhgröße angeben?

Bin ich so wenig vertrauenswürdig, dass man alles genau kontrollieren muss, damit ich auch ja keinen Fehler mache, bevor ich deinen aktuellen Neuerwerb als Flimmerkiste bezeichne?

Es ist noch nicht die Zeit, dass ich das alles verrate.

kannst du deine hand ins feuer legen dass derjenige alles korrekt eingestellt hat, und auch den nvidia treiber bug bei den einstellungen richtig umgangen hat?Der Mann weiß mehr über NV-Hardware und Treiber, als du. Er weiß auch deutlich mehr als ich. Desweiteren habe ich Screenshots von gleich zwei anderen Leuten, die jeweils Aliasing zeigen. Und das wird ja nicht mal von NV selbst (konkret Jens Neuschäfer und David Kirk) bestritten.

ShadowXX
2005-08-03, 10:30:49
Den Unterschied habe ich doch gesehen, auf Screenshots und in Videos. Mein Umgangston mag nicht durch Freundlichkeit bestechen, allerdings sehe ich auch dich hier nicht gerade als Vorbild. Dass es in deinem Kopf grieselt, habe ich nicht gesagt (so könnte man mein bewusstes Posting allerdings verstehen, ja.)

Ich rede groß darüber, weil ich mir – nach menschlichem Ermessen – meiner Sache sehr sicher bin: Der G70 flimmert bei aktiviertem AF auch in HQ.

aths....man sollte sich bei so einer Bewertung nicht nur auf Videos und Screenshots verlassen und gerade du solltest sowas wissen (gerade, nachdem du letzten wegen deiner "Q hab ich nie getestet, weils mich nie interessiert hat" Haltung doch etwas schelte bezogen hast).

Speziell, da die meisten sachen die du gesehen haben wirst absolute Worst-Case-Szenarien gewesen sein werden.
(Die GifAnimationen von Lolman kann ich inzwischen mich mich persönlich nicht mehr ganz akteptieren, da diese (unabhängig vom gewählten Content, der sowieso schon in Richtung "Ich flimmer selbst auf einer Geforce3" ging) unter bedingungen Produziert wurden, die kaum ein Game so vollzieht...ausserdem hat er mir zu stark am Material herumgebastelt...er hatte ja mal erklärt, wie er sowas zusammenbaut.)

Theorie und Praxis sind oftmals Grundlegend verschiedene Dinge (Datenbankdesign ist da übrigens ein sehr gutes Beispiel).

Mir ist zum Beispiel aufgefallen das das Grieseln (und ich mus Ullukay da recht geben (auch wenn ich in solchen belangen relativ blind bin), das mit HQ ist in 90% der Games grieseln und kein flimmern auf HQ) sehr stark vom Game abhängt.
Ich hab schon Games gehabt, auf denen das Griesen nicht da ist und dann wieder andere, wo es relativ stark vertreten ist...und so weit ich das von meiner in dem Breich laienhaften warte sagen kann, hing das nicht so soooo extrem mit dem Content zusammen.

Ich sagen nicht das das AF der G70 tool oder fantastisch ist und ich sagen auch, das es schlechter als das des nv40 ist....aber es ist nicht so schlecht, wie es hier teilweise dargestellt wird.

Ich habe hier viele Games und diese auch schon vielen Kumpels auf meiner G70 vorgeführt....und selbst, die die in den Foren vom "Flimmerproblem" gelesen hatte und darauf gachtet hatten, konnten in den seltensten Fällen was entdecken.
Hier und da mal Grieseln...und das ist mir dann sogar öfter aufgefallen, als denen die danach suchten und ich hab Sie darauf hingewiesen...meistens war die Reaktion: "Ach...das soll das Flimmern sein?".

Der eine fragte dann sogar, ob ich irgendetwas gedreht hätte (ala Supersampling), das da nix (bzw. nicht in dem maße, wie es teilweise dargestellt wird) zu sehen ist....was ich dannn aber verneinen konnte.

Als ich dann das ganze nochmal mit 8xS oder 16xS gezeigt habe, sind viele von der Qualität vom Hocker gefallen und zwei (interesannterweise die vorher am kritsichten eingestellten) haben sich inzwischen selbst eine 7800GTX gekauft....obwohl einer der beiden sich selbst zu den "Flimmerempfindlichen" zählt.

Besorg dir selbst irgendwie Testweise eine G70 und teste möglichst viele Games und entscheide bitte dann erst, ob das AF des G70 so extrem vom dem des nv40 abweicht, wie teilweise gesagt wird.
(Und ich wiederhole es nochmal...ja, es ist schlechter, aber nicht um den Grad, wie es manche darstellen.)

aths
2005-08-03, 10:34:11
Der gewöhnliche Kunden will da nichts lernen. Was glaubst du warum MS bestrebt ist das Spielen auf einem PC genauso zu vereinfachen wie bei den Konsolen? Das Panel sollte der gewöhnliche Kunde nach dem Willen von MS eigentlich nie zu Gesicht bekommen.Ein einfaches Traytool, mit dem man 3 oder 4 Profile hat (z. B. 2x AA, 4x AF für einfache Qualität, 4x AA und 16x AF für hohe Qualität) wäre kein Problem. Aber nein, der Kunde könnte ja versehentlich den 3DMark mit aktiviertem AA benchen, und das würde ja den Score drücken.

Für den gewöhnlichen Kunden sit der PC ein Gebrauchsgegenstand wie ein Videorecorder und wenn man daran denkt bei wie vielen die Uhr des Videorecorders immer noch blinkt...Was MS dem Kunden schon zumutet, wenn er mit Word einen Serienbrief erstellen will ...

Nicht jeder will wissen, was AA und AF heißt und wie man die tatsächlich gebotene Qualität beurteilt. Aber wenn es mehr Leute von denen, die es heute noch nicht wissen, wissen würden, wäre ein Teil von denen froh, es endlich zu wissen.

aths
2005-08-03, 10:38:02
Mein Gott Ulukay - nenn es meinethalben Pixelschunkeln, aber sich wegen einer Definition so aufzuspielen? Fakt is: auch bei HQ bleibt das Bild unruhig, was scheiße ist.Die Videos die ich hier habe nutzen hinterlistigerweise UT – wo ja bei NV immer nur brilinear gefiltert wird. Bei bilinearer Filterung fällt das Flimmern eher auf als bei trilinearer – und auch brilinear ist entsprechend anfälliger als trilinear. Der Vergleich mit der 6800 (ja ebenfalls nur brilinear) ist dennoch interessant. Bekanntlich filtert die X800 auch nicht vollständig trilinear, insofern wurde mit der Wahl von UT etwas Chancengleichheit (für NV) hergestellt.

(del676)
2005-08-03, 10:38:13
Mein Gott Ulukay - nenn es meinethalben Pixelschunkeln, aber sich wegen einer Definition so aufzuspielen? Fakt is: auch bei HQ bleibt das Bild unruhig, was scheiße ist.

weils 2 grundverschiedene dinge sind
wenn jemand ins forum kommt und er fragt warum BF2 flimmert kann man ihm sagen dass der auf HQ stellen soll
wenn jemand grieseln meint kann man ihm mit LOD +0.25 temporär helfen

das sind 2 komplett verschiedene dinge, die hier offenbar gerne gemischt werden

und ja, der Fakt ist richtig, aber es gibt 2 "Lösungs"wege für die 2 verschiedenen flimmerarten

seahawk
2005-08-03, 10:41:52
Das HAuptproblem ist viel komplexer.

Die Mehrheit der Kudnen ist wohl froh, wenn sie die Auflösung im CP richtig einstellen können.

AA+AF aktiveren können noch weniger. Optimierunge deaktiveren und HQ einstellen, noch weniger.

Das Flimmern als solches erkennen, noch weiniger.

Die Karte gegen eine ältere oder ein Konkurrenzprodukt zu vergleichen noch viel weniger.

Aber jeder Kunde kann Balkenlängen erkennen.

Ich würde von ATI eine Optimierung des AFs erwarten, allerdings würde ich dabei eine Verbesserung der BQ überraschen. Gerade zur Einführung der neuen Generation wird kein IHV irgendwelche Optionen anbieten, die die Balkenlänge seines Produktes reduzieren. Ich kann mir vorstellen, dass NV nach Vorstellung des R520 durchaus einen Treiber bringt ,der das Flimmern abstellt. Vorher sicher nicht, weil im Vergleich das Flimmern weniger wehtut, als ein kürzerer Balken.

Ailuros
2005-08-03, 10:43:49
Wieso nur etwas Leistung? Selbst meine 6600 GT mit nur 4 GT hat genug Füllrate, um in vielen Games echtes 16x AF anzubieten. Ich will gefälligst viel Leistung opfern – für viel Qualität, versteht sich.

Weil mir selbst volles 4xAF auf allen Winkeln erstmal genug waere.

Und die 4.0GTexels/sec maximale theoretische bilineare Fuellrate sagen mir schon gar nichts. Der Punkt ist eben gerade dass heutige Karten mit der Winkelabhaenigkeit und den anderen Optimierungen trilinear quasi umsonst bekommen.

Sonst sind es wohl eher 4.0 GTexels/s bilinear / 2 = 2.0 GTexels trilinear sein und das immer noch ein theoretisches maximum. Ich wuerde liebend gerne wissen wie sich solche GPUs schlagen wuerden in SS2 mit dem Shader der 8 texture fetches hat und dann auch noch mit winkelunabhaengigem nicht optimierten 16xAF....

Merlin31
2005-08-03, 10:45:03
Können mir die Graka Profis mir evtl. sagen, ob dieses Flimmern ein Treiber oder Hardware Bug ist ?

MadManniMan
2005-08-03, 10:47:06
und ja, der Fakt ist richtig, aber es gibt 2 "Lösungs"wege für die 2 verschiedenen flimmerarten

Du gestehst es ja selbst ein ;)

Es behauptet ja auch niemand, daß sich der G70 totflimmert - können wir uns auf schwaches(eben beim G70) und starkes Flimmern einigen?

aths
2005-08-03, 10:49:47
aths....man sollte sich bei so einer Bewertung nicht nur auf Videos und Screenshots verlassen und gerade du solltest sowas wissen (gerade, nachdem du letzten wegen deiner "Q hab ich nie getestet, weils mich nie interessiert hat" Haltung doch etwas schelte bezogen hast).Ich wüsste jetzt nicht, was das eine mit dem anderen zu tun hat. Der "optimierte" Treiberdefault interessiert mich eben nicht, wenn ich ein Kraftpaket wie eine 6600 GT gekauft habe.

Speziell, da die meisten sachen die du gesehen haben wirst absolute Worst-Case-Szenarien gewesen sein werden.
(Die GifAnimationen von Lolman kann ich inzwischen mich mich persönlich nicht mehr ganz akteptieren, da diese (unabhängig vom gewählten Content, der sowieso schon in Richtung "Ich flimmer selbst auf einer Geforce3" ging) unter bedingungen Produziert wurden, die kaum ein Game so vollzieht...ausserdem hat er mir zu stark am Material herumgebastelt...er hatte ja mal erklärt, wie er sowas zusammenbaut.)

Theorie und Praxis sind oftmals Grundlegend verschiedene Dinge (Datenbankdesign ist da übrigens ein sehr gutes Beispiel).Da gibts eben keine Unterschiede, sofern die Theorie richtig ist. Lolman hat soweit ich weiß bislang nichts zum G70 zusammengebastelt.

Mir ist zum Beispiel aufgefallen das das Grieseln (und ich mus Ullukay da recht geben (auch wenn ich in solchen belangen relativ blind bin), das mit HQ ist in 90% der Games grieseln und kein flimmern auf HQ) sehr stark vom Game abhängt.
Ich hab schon Games gehabt, auf denen das Griesen nicht da ist und dann wieder andere, wo es relativ stark vertreten ist...und so weit ich das von meiner in dem Breich laienhaften warte sagen kann, hing das nicht so soooo extrem mit dem Content zusammen.Hm, womit sonst? Es hängt auch vom Textur-Inhalt ab, ob diese leicht zum Flimmern neigen, oder nicht. Damit kann es Spiele geben, die auch in der Q-Einstellung beim G70 noch ordentlich aussehen, ohne störendes Flimmern. Ich möchte aber auch Spiele, die diesbezüglich schwierig sind (also leichter zum Flimmern neigen) spielen können, und zwar ohne Flimmern.

Ich sagen nicht das das AF der G70 tool oder fantastisch ist und ich sagen auch, das es schlechter als das des nv40 ist....aber es ist nicht so schlecht, wie es hier teilweise dargestellt wird.

Ich habe hier viele Games und diese auch schon vielen Kumpels auf meiner G70 vorgeführt....und selbst, die die in den Foren vom "Flimmerproblem" gelesen hatte und darauf gachtet hatten, konnten in den seltensten Fällen was entdecken.
Hier und da mal Grieseln...und das ist mir dann sogar öfter aufgefallen, als denen die danach suchten und ich hab Sie darauf hingewiesen...meistens war die Reaktion: "Ach...das soll das Flimmern sein?".Würde es sagen wir 95% der Leute, die den G70 kaufen, ernsthaft stören, hätte sich NV das Flimmer-AF nicht erlaubt. Meinetwegen stört es nur 5% der Leute. Deshalb akzeptiere ich aber noch keinen anisotropen Filter, der zum Flimmern neigt. Soll ich, der eben etwas empfindlicher sein mag, darunter leiden dass viele das Flimmern nicht (oder nicht störend) wahrnehmen?

Besorg dir selbst irgendwie Testweise eine G70 und teste möglichst viele Games und entscheide bitte dann erst, ob das AF des G70 so extrem vom dem des nv40 abweicht, wie teilweise gesagt wird.
(Und ich wiederhole es nochmal...ja, es ist schlechter, aber nicht um den Grad, wie es manche darstellen.)Eine 7800 GTX nützt mir nix, da ich kein PCIe-System habe. Aber ich muss diese Karte auch nicht live sehen um zu wissen, dass sie mit aktiviertem AF flimmert. Würde ich erst mal warten, bis ich ein PCIe-System gekauft habe (frühestens Weihnachten) oder bis ich bei irgendjemandem, der die Karte hat, stundenlang alle möglichen Spiele gespielt habe, würde die Information an den 3dc-Leser, dass das G70-AF flimmert, viel zu spät kommen.

Ich frage mich sogar: Was geht hier ab? NV zwingt den FX-User zur Brilinearität. Das wurde einfach geschluckt. ATI tut das auch, wenn auch nicht in dem krassen Ausmaß. Kaum einer regt sich auf, die Qualität sei ja noch ok, man würde eigentlich gar keinen Unterschied sehen.

ATI unterfiltert leicht. Interessieren tuts keinen. NV passt ihr AF-Muster im NV40 dem von ATI an, mit den bekannten Nachteilen. Kaum einer ist deshalb ernsthaft böse. Jetzt flimmert es beim AF, und zwar nicht nur im Auslieferungzustand, sondern auch im HQ-Modus. Leute wie du beschwichtigen selbst jetzt noch, man solle erst mal viele Spiele spielen und nicht überall würde es störend flimmern. Ich sehen keinen Grund, Kritik am G70-AF irgendwie abzumildern, nur weil Spiele die unscharfe Texturen nutzen, damit noch nicht störend flimmern.

aths
2005-08-03, 10:51:21
Können mir die Graka Profis mir evtl. sagen, ob dieses Flimmern ein Treiber oder Hardware Bug ist ?Das ist bisher nicht bekannt. Time will tell. Derzeit würde ich keinen G70 kaufen, da die Gefahr besteht, dass diese Hardware bei aktiviertem AF immer zum Flimmern neigt.

aths
2005-08-03, 10:55:08
Du gestehst es ja selbst ein ;)

Es behauptet ja auch niemand, daß sich der G70 totflimmert - können wir uns auf schwaches(eben beim G70) und starkes Flimmern einigen?Als zweites Problem sehe ich dass Leute wie Raff und andere es überschärft bevorzugen. Das heißt, Texturen werden eher nach Schärfe denn nach Flimmerfreiheit beurteilt. Wenn man es so handhabt, ist der G70 natürlich toll – gerade Standbilder wirken schön scharf. Doch eine Medallie hat zwei Seiten.

Was NV beim NV40 mit Q anbietet, ist – mit schlichten Worten ausgedrückt – eine Frechheit. Offenbar haben das so viele Leute geschluckt, dass sie beim G70 mit Phase 2 fortfahren konnten.

aths
2005-08-03, 10:58:01
Sonst sind es wohl eher 4.0 GTexels/s bilinear / 2 = 2.0 GTexels trilinear sein und das immer noch ein theoretisches maximum. Ich wuerde liebend gerne wissen wie sich solche GPUs schlagen wuerden in SS2 mit dem Shader der 8 texture fetches hat und dann auch noch mit winkelunabhaengigem nicht optimierten 16xAF....8 Texturen sind etwas zu viel. 4 oder 5 Texturen sind aber ok, zumindest in 1280x960.

(del676)
2005-08-03, 11:02:17
Du gestehst es ja selbst ein ;)

Es behauptet ja auch niemand, daß sich der G70 totflimmert - können wir uns auf schwaches(eben beim G70) und starkes Flimmern einigen?

von mir aus auch das -> schwaches Flimmern G70@HQ, starkes Flimmern G70@Q

Ailuros
2005-08-03, 11:08:25
8 Texturen sind etwas zu viel. 4 oder 5 Texturen sind aber ok, zumindest in 1280x960.

Ohne Opfer kommt das schwer hin in kommenden Spielen.

aths
2005-08-03, 11:18:09
Ohne Opfer kommt das schwer hin in kommenden Spielen.Ich möchte auch alte Spiele mit voller Qualität genießen. Reicht bei neuen Spielen die Leistung nicht, kann man über das grafische Detail, die Auflösung und den AA- und AF-Grad skalieren.

Grestorn
2005-08-03, 11:20:03
Ich habe hier viele Games und diese auch schon vielen Kumpels auf meiner G70 vorgeführt....und selbst, die die in den Foren vom "Flimmerproblem" gelesen hatte und darauf gachtet hatten, konnten in den seltensten Fällen was entdecken.
Hier und da mal Grieseln...und das ist mir dann sogar öfter aufgefallen, als denen die danach suchten und ich hab Sie darauf hingewiesen...meistens war die Reaktion: "Ach...das soll das Flimmern sein?".Du hast mit Deinem Beitrag (den ich nur Ausschnittsweise zitiert habe) mir meine Meinung von den Lippen abgelesen.

Danke fürs Ersparen der ganzen Tipparbeit! :)

aths: Wenn Du zufällig im Bereich München wohnst, würde ich Dir ne G70 ja gern mal vorführen, damit Du Dir ein eigenes Bild machen kannst.

seahawk
2005-08-03, 12:01:04
ATHS,

bei allem Verständnis für Deine Sichtweise der Dinge, so befürchte ich doch, dass Deine Meinung eine etwas einzigartige ist und eine Frma die Deine Vorstellung entspricht relativ schnell arge Absatzprobleme bekommen würde.
Der Markt intressiert sich nicht für die BQ in alten Spielen, der Markt intressiert sich nur sehr geringfügig für die reale BQ, höchstens höhere Settings werden belohnt.

Der normale Kunde intressiert sich hauptsächlich für die Blaknelänge und wenn eine Grafikkarte ein Spiel noch in 1600x1200 mit 4xAA/8xAF darstellen kann, während der Konkurrent nur noch 1280*91024 oder so schafft, dann wird die Karte mit mer FPS gekauft. Egal ob die BQ nun bescheiden ist, oder nicht.
Genauso wenig verzichten die wenigsten Spieler auf Auflösung und Details, nur um eine Vorbildfilterung zubekommen.

Es wäre wünschenswert, wenn beide IHVs dies wahlweise ermöglichen würden, aber da dies nunmal gewinnorientierte Firmen und keine Wohltäter sind, werden sie dies erst tun, wenn Deine Meinung weiter verbreitet ist.

LairD
2005-08-03, 12:17:34
ATHS,

bei allem Verständnis für Deine Sichtweise der Dinge, so befürchte ich doch, dass Deine Meinung eine etwas einzigartige ist und eine Frma die Deine Vorstellung entspricht relativ schnell arge Absatzprobleme bekommen würde.
Der Markt intressiert sich nicht für die BQ in alten Spielen, der Markt intressiert sich nur sehr geringfügig für die reale BQ, höchstens höhere Settings werden belohnt.

Der normale Kunde intressiert sich hauptsächlich für die Blaknelänge und wenn eine Grafikkarte ein Spiel noch in 1600x1200 mit 4xAA/8xAF darstellen kann, während der Konkurrent nur noch 1280*91024 oder so schafft, dann wird die Karte mit mer FPS gekauft. Egal ob die BQ nun bescheiden ist, oder nicht.
Genauso wenig verzichten die wenigsten Spieler auf Auflösung und Details, nur um eine Vorbildfilterung zubekommen.

Es wäre wünschenswert, wenn beide IHVs dies wahlweise ermöglichen würden, aber da dies nunmal gewinnorientierte Firmen und keine Wohltäter sind, werden sie dies erst tun, wenn Deine Meinung weiter verbreitet ist.


Wenn die Reviewer mehr auf die Bildqualität achten würden,wäre das auch dem Otto-Normal-User verständlich rüberzubringen.dass die Graka A zwar 10% schneller ist,dafür aber eine wesentlich schlechtere BQ bietet als Graka B.

Dann kann der Kunde immernoch entscheiden,ob er lieber die Karte mit Balken,oder die mit BQ nimmt und ich denke die IHVs würden sich schnell umschauen,wieviele User doch Wert auf die BQ legen.

Solange der Otto-Normal-User aber für zu blöd gehalten wird,für sich schlüssige Kaufentscheidungen zutreffen,wird sich da nichts tun.

Diese Kaufentscheidung hat nichts damit zu tun,ob der User ein Freak ist,denn BQ ist auch bei TV-Geräten ein Kaufkriterium,sondern das man dem User verständlich rüberbringt,warum Graka B aufgrund der besseren BQ für ihn die bessere Kaufentscheidung ist.
Die User die auf Balken stehen,lassen sich von etwas wie flimmern oder grieseln nicht abschrecken.

reunion
2005-08-03, 12:51:18
nö - falsch

was du mit HQ siehst (wenn man genau drauf schaut) und meinst ist höchstens leichtes grieseln
mit Q flimmert es

dazwischen liegt ein unterschied wie zwischen 0xAA und 8xS


Jetzt mach' dich hier nicht lächerlich.
Die Filterqualität wurde beim G70 weiter reduziert, ob du es jetzt flimmern, oder grieseln nennst, ist sowas von egal.

Demirug
2005-08-03, 13:02:23
Jetzt mach' dich hier nicht lächerlich.
Die Filterqualität wurde beim G70 weiter reduziert, ob du es jetzt flimmern, oder grieseln nennst, ist sowas von egal.

Ist es das wirklich?

Natürlich kann man sich über die Begrifflichkeit streiten aber um eine vergleichbarkeit zu erreichen muss man das ganze ja schon irgendwie einordnen. Wir unterscheiden ja auch zwischern leichter Unschärfe und Matsch wenn wir uns auf der anderen Seite des Filterbergs bewegen.

aths
2005-08-03, 13:03:49
Du hast mit Deinem Beitrag (den ich nur Ausschnittsweise zitiert habe) mir meine Meinung von den Lippen abgelesen.

Danke fürs Ersparen der ganzen Tipparbeit! :)

aths: Wenn Du zufällig im Bereich München wohnst, würde ich Dir ne G70 ja gern mal vorführen, damit Du Dir ein eigenes Bild machen kannst.Ich wohne am anderen Ende Deutschlands. Dass Spiele, die nicht durchgehend detail- und kontrastreiche Texturen verwenden auch nicht durchgehend flimmern, weiß ich allerdings auch ohne Vorführung. Trotzdem danke für das Angebot.

Falls du eine GeForce3 - FX auftreiben kannst, und beide Karten am besten nebeneinander betreiben kannst, könntest du mal vergleichen, wie 8x AF aussehen sollte – und was der G70 da abliefert.

aths
2005-08-03, 13:06:54
ATHS,

bei allem Verständnis für Deine Sichtweise der Dinge, so befürchte ich doch, dass Deine Meinung eine etwas einzigartige ist und eine Frma die Deine Vorstellung entspricht relativ schnell arge Absatzprobleme bekommen würde.
Der Markt intressiert sich nicht für die BQ in alten Spielen, der Markt intressiert sich nur sehr geringfügig für die reale BQ, höchstens höhere Settings werden belohnt.

Der normale Kunde intressiert sich hauptsächlich für die Blaknelänge und wenn eine Grafikkarte ein Spiel noch in 1600x1200 mit 4xAA/8xAF darstellen kann, während der Konkurrent nur noch 1280*91024 oder so schafft, dann wird die Karte mit mer FPS gekauft.Egal ob die BQ nun bescheiden ist, oder nicht.
Genauso wenig verzichten die wenigsten Spieler auf Auflösung und Details, nur um eine Vorbildfilterung zubekommen. Na gut, dann akzeptieren wir das und feinern NV für die clevere Idee. Wir können eh nichts machen, reden wir das Flimmern klein und rekapitulieren, wie NV und andere IHVs ihre Produkte vermarkten.

Es wäre wünschenswert, wenn beide IHVs dies wahlweise ermöglichen würden, aber da dies nunmal gewinnorientierte Firmen und keine Wohltäter sind, werden sie dies erst tun, wenn Deine Meinung weiter verbreitet ist.Es wäre wünschenswert, wenn den Firmen nicht ständig nach dem Munde geredet würde. Es mir bewusst, dass NV nicht die Menschheit beglücken will, sondern einen Profit erwirtschaften. Deswegen akzeptiere ich aber noch lange nicht das, was die aktuell unter AF verstehen.

Was hier abläuft, mach mich baff. Gewisse Leute, denen es Wurst ist warum, Hauptsache NV kommt an den Pranger, regen sich laut über das AF des G70 auf. Andere wiederum, bevorzugt Leute die den G70 haben, versuchen sich damit abzufinden. Und das wo ihre neue Grafikkarte einige 100 Euro gekostet haben dürfte. Solange ihr Käufer euch damit zufrieden gebt, von Generation zu Generation weniger Texturqualität zu haben, solange werden die IHVs das Spielchen weitertreiben können.

reunion
2005-08-03, 13:07:00
Ich sagen nicht das das AF der G70 tool oder fantastisch ist und ich sagen auch, das es schlechter als das des nv40 ist....aber es ist nicht so schlecht, wie es hier teilweise dargestellt wird.


Das mag ja alles stimmen.
Die Texturfilter wurden gegenüber dem NV40 nur leicht reduziert, nur machen hier viele den Fehler, immer nur die vorhergehende Generation zum Vergleich heranzuziehen. Wie sieht der Vergleich mit dem NV20 aus?

Die Filterqualität wird aktuell bei jeder neuen Generation leicht gesenkt, IMHO sollte inzwischen jeder an einem Punkt angelangt sein, an dem die Schmerzgrenze überstrapaziert wurde. An einem Punkt, an dem man einsieht, dass es so nicht weitergehen kann. Dieses Schönreden der weiteren Verschlechterung der Filterqualität beim G70, halte ich jedenfalls für den falschen Weg, selbst wenn man es wirklich nur in Ausnahmesituationen wahrnimmt.

Merlin31
2005-08-03, 13:11:50
Ist es das wirklich?

Natürlich kann man sich über die Begrifflichkeit streiten aber um eine vergleichbarkeit zu erreichen muss man das ganze ja schon irgendwie einordnen. Wir unterscheiden ja auch zwischern leichter Unschärfe und Matsch wenn wir uns auf der anderen Seite des Filterbergs bewegen.

Aber fakt ist, was ich heute leider selber mit eigenen Augen sehen konnte,
das die Qualität doch gelitten hat. Und als Verbraucher erwarte ich eigentlich so etwas nicht. Zumindest nicht im High End Bereich.

Ich persönlich bin irgendwie etwas entäuscht, da ich mir die Karte auch privat mir kaufen wollte.

Was nutzen mir Frames die jenseits dessen sind, was das Auge noch sehen kann, ich aber eine Quali künftig vorgesetzt bekomme, was mein Retro Herz zum c64 wieder grösser werden lässt.
Also so langsam denke ich mir, ich sollte alle meine alten High End sein. Weil nur noch iese vernünftige Qualität bieten.

seahawk
2005-08-03, 13:51:11
Na gut, dann akzeptieren wir das und feinern NV für die clevere Idee. Wir können eh nichts machen, reden wir das Flimmern klein und rekapitulieren, wie NV und andere IHVs ihre Produkte vermarkten.

Es wäre wünschenswert, wenn den Firmen nicht ständig nach dem Munde geredet würde. Es mir bewusst, dass NV nicht die Menschheit beglücken will, sondern einen Profit erwirtschaften. Deswegen akzeptiere ich aber noch lange nicht das, was die aktuell unter AF verstehen.

Was hier abläuft, mach mich baff. Gewisse Leute, denen es Wurst ist warum, Hauptsache NV kommt an den Pranger, regen sich laut über das AF des G70 auf. Andere wiederum, bevorzugt Leute die den G70 haben, versuchen sich damit abzufinden. Und das wo ihre neue Grafikkarte einige 100 Euro gekostet haben dürfte. Solange ihr Käufer euch damit zufrieden gebt, von Generation zu Generation weniger Texturqualität zu haben, solange werden die IHVs das Spielchen weitertreiben können.

Ich aktzeptiere die BQ von NV nicht und will sie auch nicht kleinreden, denn es ist eine Sauerei, wenn von Generation zu Generation die BQ abnimmt. Aber NV hat den Trend nicht gestartet. Die Konzentration auf den reinen Faktor FPS zur Bewertung von Grafikkarten in den Medien hat letzendlich dazu geführt. Und die Firmen liefern, was der Markt verlangt. Ich erinnere mich an die vielen enttäuschenden Kommentare zum geringen Speedplus beim G70. Hätte NV die BQ verbessert und den Speed der 6800U gehalten, dann bin ich mir absolut sicher, dass sie wesentlich weniger Karten verkaufen würden.

Ich wollte nur deutlich machen, dass beide IHVs nur auf den Markt reagieren. Wurde das AF des NV30s jemals hinreichend gewürdigt ?
Mich persönlich wundert sogar, dass NV in das neue TSAA investiert hat. Aber das läst sich wenigstens auf Screenshots darstelllen.

Erst wenn eine größere Gruppe an Käufern wieder auf die BQ achtet und nicht nur auf die FPS wird sich die Situation ändern. Dei Frage ist allerdings wieviele von den typischen High-Lauch-Endkunden (early adopters) achtet auf die BQ ? Eigentlich muss man die Käufer kritsieren, nicht die Hersteller.

Ich hoffe allerrdings, dass das Flimmern mit einem späteren Treiber beseitigt wird. Mehr ist gegenwärtig nicht zu erwarten.

aths
2005-08-03, 14:14:24
Ich aktzeptiere die BQ von NV nicht und will sie auch nicht kleinreden, denn es ist eine Sauerei, wenn von Generation zu Generation die BQ abnimmt. Aber NV hat den Trend nicht gestartet. Aber NV liefert hier und jetzt eine AF-Implementierung, die unter aller Kanone ist.

Die Konzentration auf den reinen Faktor FPS zur Bewertung von Grafikkarten in den Medien hat letzendlich dazu geführt. Und die Firmen liefern, was der Markt verlangt. Ich erinnere mich an die vielen enttäuschenden Kommentare zum geringen Speedplus beim G70. Hätte NV die BQ verbessert und den Speed der 6800U gehalten, dann bin ich mir absolut sicher, dass sie wesentlich weniger Karten verkaufen würden.

Ich wollte nur deutlich machen, dass beide IHVs nur auf den Markt reagieren. Wurde das AF des NV30s jemals hinreichend gewürdigt ? Von mir? Ja. Wie kam das Radeon-AF bei mir weg? Ziemlich schlecht. Wie dankte ich NV die Adaption beim NV40? Mit scharfen Worten.

Mich persönlich wundert sogar, dass NV in das neue TSAA investiert hat. Aber das läst sich wenigstens auf Screenshots darstelllen.

Erst wenn eine größere Gruppe an Käufern wieder auf die BQ achtet und nicht nur auf die FPS wird sich die Situation ändern. Dei Frage ist allerdings wieviele von den typischen High-Lauch-Endkunden (early adopters) achtet auf die BQ ? Eigentlich muss man die Käufer kritsieren, nicht die Hersteller. Ich kritisiere letzlich beide, aber nicht immer in einem Atemzug. In diesem Thread zB kritisiere ich auch die Kleinredner. Ich kritisiere auch dich, der du für meinen Geschmack zu viel Verständnis für NVs Geldbeutel und zu wenig Verständnis für die Ansprüche eines Qualitätliebhabers hast.

Du schreibst "Erst wenn eine größere Gruppe an Käufern wieder auf die BQ achtet und nicht nur auf die FPS wird sich die Situation ändern" da stimme ich zu, und und deshalb frage ich mich auch, warum mir ständig Steine in den Weg gelegt werden, wenn es darum geht, schlechte BQ zu beanstanden.

Ich hoffe allerrdings, dass das Flimmern mit einem späteren Treiber beseitigt wird. Mehr ist gegenwärtig nicht zu erwarten.Ich fürchte, dass das frühestens beim G75-Release der Fall sein wird.

seahawk
2005-08-03, 14:25:37
Meinst Du wirklich es ist ein Hardwareproblem, weil dann werde ich mir den G70 Kauf nochmal überlegen.

Ansonsten stimme ich Dir zu, wobei ich das Problem nichtkleinreden will, sondern es, sagen wir so erwartet habe. Der Trend war absehbar. Ich hoffe allerdings, dass dieses Thema jetzt auch in den Massenmedien mehr Aufmerksamkeit bekommt und wir jetzt endlich den Tiefpunkt erreicht haben.

Mir ist ebenso bewußt, dass Du als alter Qualitätsfanatiker dies schon lange anprangerst und ich finde deine Ausdauer bewundernswert, nur leider erreichst Du damit selbst hier im Forum wohl nur einen Bruchteil - weltweit gesehen niemanden. Und so meinte ich das auch mit dem Them Lob oder Kritik für die Entscheidungen von NV. (oder ATI wenn Du willst)

Demirug
2005-08-03, 14:41:58
seahawk, selbst wenn es nur der Treiber ist (was ich vermute) muss nVidia ja erst mal willig sein das wieder zu ändern.

Massenmedien? Solange es nicht mal bei den üblichen höherwertigen Webseiten in der Masse angekommen ist braucht man an die Massenmedien nicht mal zu denken.

aths, du kannst im Gegenzug den Leuten aber auch nicht vorschreiben das sie da gefälligst ein flimmern zu sehen haben. Zwischen Grafikchip und der Wahrnehmung sind noch eine Reihe von unterschiedlichen Komponenten bei jedem Benutzer.

aths
2005-08-03, 14:52:57
Meinst Du wirklich es ist ein Hardwareproblem, weil dann werde ich mir den G70 Kauf nochmal überlegen.

Ansonsten stimme ich Dir zu, wobei ich das Problem nichtkleinreden will, sondern es, sagen wir so erwartet habe. Der Trend war absehbar. Du hast erwartet, dass der G70 beim AF flimmern wird? Entschuldigung, aber das nehme ich dir nicht ab.

Ich hoffe allerdings, dass dieses Thema jetzt auch in den Massenmedien mehr Aufmerksamkeit bekommt und wir jetzt endlich den Tiefpunkt erreicht haben.

Mir ist ebenso bewußt, dass Du als alter Qualitätsfanatiker dies schon lange anprangerst und ich finde deine Ausdauer bewundernswert, nur leider erreichst Du damit selbst hier im Forum wohl nur einen Bruchteil - weltweit gesehen niemanden. Und so meinte ich das auch mit dem Them Lob oder Kritik für die Entscheidungen von NV. (oder ATI wenn Du willst)Wenn man wirklich glaubt, nichts erreichen zu können, braucht man es gar nicht erst anzupacken. Ich glaube nicht, dass meine Artikel direkten Einfluss auf NV haben. Aber ich sehe gar keinen anderen Weg als dass sich die IHVs endlich besinnen müssen. Und dass die User Wert auf Texturqualität legen, und nicht nur 16x AF einstellen – ohne es zu bekommen, sondern Flimmer-Texturen. In der Bewegung, die mehr Qualität fordert, und zwar mindestens GF3-Niveau, bin ich eines der vielen Rädchen.

Als Qualitätsfanatiker sehe ich mich keineswegs. "Vernünftige" Qualität würde mir erst mal reichen.

aths
2005-08-03, 14:55:38
aths, du kannst im Gegenzug den Leuten aber auch nicht vorschreiben das sie da gefälligst ein flimmern zu sehen haben. Zwischen Grafikchip und der Wahrnehmung sind noch eine Reihe von unterschiedlichen Komponenten bei jedem Benutzer.Ich weiß, dass was falsch läuft. Und ich weiß, dass ich das nicht will. Wer nicht dazu "erzogen" wurde (bzw. von selbst darauf kommt) auf Qualität zu achten, der sieht die ganzen Verschlechterungen nicht. Wohin das führt, sehen wir derzeit. Je mehr Leute mal hingucken und dann was sehen, womit sie unzufrieden sind, umso besser. Dank WoW sehen die ersten Leute, die da vorher nichts gesehen haben, die Nachteile der Winkelabhängigkeit á la ATI.

Würde das G70-AF so richtig übel flimmern, würden das viele Leute sehen. Doch im Q-Modus ist schon der NV40 schlimm genug – und das scheint sogut wie kein Reviewer zu bemerken. User haben mehr Zeit als Reviewer, sich die Spielegrafik anzusehen. Da kann ich nur dazu einladen, die G70-Grafik mal mit nicht flimmerdem AF zu vergleichen.

seahawk
2005-08-03, 15:16:08
Du hast erwartet, dass der G70 beim AF flimmern wird? Entschuldigung, aber das nehme ich dir nicht ab.

Nein, das habe ich nicht erwartet. Neue "Optimierungen" der AF- und Texturfilter schon. Momentan betrachte ich das Flimmern, als Bug, da NV es übertrieben hat. Ob sie es ändern - ich hoffe.


Wenn man wirklich glaubt, nichts erreichen zu können, braucht man es gar nicht erst anzupacken. Ich glaube nicht, dass meine Artikel direkten Einfluss auf NV haben. Aber ich sehe gar keinen anderen Weg als dass sich die IHVs endlich besinnen müssen. Und dass die User Wert auf Texturqualität legen, und nicht nur 16x AF einstellen – ohne es zu bekommen, sondern Flimmer-Texturen. In der Bewegung, die mehr Qualität fordert, und zwar mindestens GF3-Niveau, bin ich eines der vielen Rädchen.

Als Qualitätsfanatiker sehe ich mich keineswegs. "Vernünftige" Qualität würde mir erst mal reichen.

Erreichen können wird man etwas, wenn es für eine spürbare Anzahl von Anwendern sichtbar wird. Daher glaueb ich, dass der G70 Deiner Sache im Endeffekt sogar er dient, weil der die Nutzer sensibilisiert. Und das Problem zumindest mal auf einigen Websites und sogar in der PCGH angesprochen wurde. (was ich für eine Zeitschrift sehr lobenswert finde)

GF3 Niveau beim AF - schön wärs, daran glaube ich aber selbst mittelfristig nicht. Die Winkelabhängigkeit wird uns noch eine Zeit begleiten. Ich habe aber die Hoffnung, dass bald wenigstens alles mit min. 4xAF beglückt wird.

seahawk
2005-08-03, 15:19:39
seahawk, selbst wenn es nur der Treiber ist (was ich vermute) muss nVidia ja erst mal willig sein das wieder zu ändern.

Massenmedien? Solange es nicht mal bei den üblichen höherwertigen Webseiten in der Masse angekommen ist braucht man an die Massenmedien nicht mal zu denken.



Naja für mich gibt es schön Gründe warum NV es ändern könnte.

- es ist ein einfacher Bug (glaube ich nicht)
- ATI bringt eine deutlich bessere Qualität (unwahrscheinlich)
- NV hat soviel Leistungreserve, das es nichts ausmacht (unwahrscheinlich)
- der Druck überzeugt NV (möglich)
- Es gibt eine Nachfolgergeneration und man bruacht die Optimierung nicht mehr (wahrscheinlich)

Immerhin hat es in PCGH geschafft, was zumindest in Deutschland schon nicht unerheblich ist.

MadManniMan
2005-08-03, 18:32:21
Nennt mich kindisch, aber ich starte jetzte eine Sig-Kampagne - aths zeicht, daß man nich den Sand in den Kopf stecken sollte (wie einige hier :upara: )!

Mr. Lolman
2005-08-03, 18:41:29
Speziell, da die meisten sachen die du gesehen haben wirst absolute Worst-Case-Szenarien gewesen sein werden.
(Die GifAnimationen von Lolman kann ich inzwischen mich mich persönlich nicht mehr ganz akteptieren, da diese (unabhängig vom gewählten Content, der sowieso schon in Richtung "Ich flimmer selbst auf einer Geforce3" ging) unter bedingungen Produziert wurden, die kaum ein Game so vollzieht...ausserdem hat er mir zu stark am Material herumgebastelt...er hatte ja mal erklärt, wie er sowas zusammenbaut.)


x) Zum G70 hab ich nix geschrieben, oder zusammengebastelt. Ich hab nur gewissen Leuten nahegelegt die BQ des G70 näher zu untersuchen.

x) Meine gif Animationen sind nur kleine Fitzelausschnitte (damit das 8bit Dithering nicht so reinknallt) Ich hab schon sicher 2 Wochen bevor ich meine Q3a gifs in Forum gestellt hab, 3 unkomprimierte Videos à 100MB angeboten. Da war die Resonanz aber erstaunlich gering.

x) Am Material hab ich nix rumgebastelt. Dass Kais Texturefix aktiv war, machte die vglbare Szene zwar noch mehr zum Worstcase, aber andererseits: was will man anhand von unscharfen Texturen vergleichen, wenn der eine IHV dann praktisch total überfiltert und der Andere gerade so wenig unterfiltert, dass auch kein Flimmern sichtbar ist? (@default)

x) Es kam vll. etwas zeitgleich zur G70 BQ Problematik, aber meine Intention ist nicht, das G70 AF in den Dreck zu ziehen, sondern zu zeigen, dass schon N40 und R420 treiberdefault nicht vergleichbar sind.

x) Ich hab außerdem schon Gifs/Screenshots zu Farcry und Splintercell gepostet neben einer ganzen Liste an Spielen wo ich angeboten hab, weitere BQ Vergleiche ins Netz zu stellen.

x) Außerdem sei noch dazu gesagt, dass ich ursprünglich (schon vor ein paar Monaten) Q3dm17 (=enorm goil @ 1on1) verglichen hab, um zu zeigen, dass selbst Atis Performance AF ne weitaus bessere BQ bietet als NV Q+Opt1-3. Da wurde mir schon angedichtet biased zu sein, und ich solle doch gefälligst Q3dm15 nehmen, da man hier das Flimmern viel deutlicher sehen würde. Gesagt getan.

Rat mal wass dann an Argumenten vom NV Eck kam, im Sinne von: "Ja was willst du überhaupt mit Q3a, dass ist eh schon veraltet...." Zwar versuchte ich darauf hin zu erklären, dass das Alter des Spiels völlig unabhängig von der dort gebotenen AF Qualität ist, man glaubte mir das nicht, und deswegen kam ich dann mit SC3 gifs/Screenshots.


Man kanns den Leuten anscheinend nie recht machen, obwohl aufmerksame Leser wüssten, dass ich damit wohl kaum NV eine reinwixxen will, da ich ja schon (ohne Vergleiche zu Nv gehabt zu haben) ATis ungenaue LOD bestimmung bei Tenebrae bemängelte. Nun kam natürlich Kritik von der ATi Seite, dass ich nach solchen Fehlern extra suchen würde, and zwar mittels veralteten gemoddeten Engines usw, woraufhin ich konstatierte, dass sich einfach bei gewissem Texturcontent (eigentlich kommts ja zu einem großen Teil auf die Differenz zw, den einzelnen Mipstufen an, welche gerade bei manchen Tenebraetexturen enorm ist) eine Art Flimmern abzeichnet, welches wir u.U. künftig noch öfter zu Gesicht bekommen werden.

Und was is? Ich hab recht behalten. Riddick, stellenweise Farcry und eigentlich jedes Spiel, welches Texturen (mit einem überdurchschnittlich hohen Rauschgrad) mit Specularlighting versieht, flimmert auf ner R300, also auch mit NV40 HQ - und mit dem G70 sowieso!

Banshee18
2005-08-03, 20:21:56
Nennt mich kindisch, aber ich starte jetzte eine Sig-Kampagne - aths zeicht, daß man nich den Sand in den Kopf stecken sollte (wie einige hier :upara: )!

Dann klau ich mir einfach mal deine Sig. ;)

Dass manche die schlechtere Quali nicht sehen, kann ich akzeptieren, aber dass sie sie deshalb schönreden und gar verteidigen, absolut nicht.

Die nächste Generation wird dann vielleicht wieder ein wenig schlechter. Sagt ihr dann auch: "Das ist ja kaum schlechter, als G70-AF, ist doch nicht schlimm."? Irgendwann sind wir, was die Filterqualität betrifft, wieder in der Steinzeit (Pointsampling :biggrin: ) und kaum jemand bemerkt es, da man sich mit der Zeit ja an alles gewöhnt.

Die, die nicht über das G70-AF meckern, sollten vielleicht genau aus diesem Grund damit anfangen, auch wenn sie die aktuelle Qualität noch akzeptabel finden möchten. Denkt mal drüber nach!


MfG

Banshee

Edit: Btw., kann ein Mod diese Diskussion mal splitten? Der Großteil ist ja mehr als offtopic.

mapel110
2005-08-03, 20:50:05
hee

Edit: Btw., kann ein Mod diese Diskussion mal splitten? Der Großteil ist ja mehr als offtopic.
Nönö, kann ruhig bleiben. Für das eigentliche Threadthema gibts offenbar zu wenig Stoff. :(

Tritonus
2005-08-03, 21:33:23
Nennt mich kindisch, aber ich starte jetzte eine Sig-Kampagne - aths zeicht, daß man nich den Sand in den Kopf stecken sollte (wie einige hier :upara: )!


Dann klau ich mir einfach mal deine Sig. ;)
Ich schließe mich auch an!

R300
2005-08-04, 01:17:25
Und was is? Ich hab recht behalten. Riddick, stellenweise Farcry und eigentlich jedes Spiel, welches Texturen (mit einem überdurchschnittlich hohen Rauschgrad) mit Specularlighting versieht, flimmert auf ner R300, also auch mit NV40 HQ - und mit dem G70 sowieso!

FULL ACK!

Ich versteh nicht warum einige Leute das anscheinend heftige Flimmern des G70 kleinreden wollen.
Ich habe das AF des G70 zwar nur auf Bildern und Videos gesehen, aber es reichte um zu sehen wie schlecht die Qualität im Vergleich zum R300 ist (und viele andere haben das selbe gesagt).
Und das obwohl beim R300 auch bei so ziemlich jedem Spiel die Texturen flimmern. Selbst die Matchtexturen von Counter-Strike (1.5) haben stellenweise geflimmert.

Also ich finde die AF Qualität des R300 schon nicht so toll und wenn erst jetzt wegen dem G70 das (große) Geschrei wegen der miesen AF Quali losgeht, dann will ich einen G70 garnicht erst in action sehen. :mad: