PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Anisotrope Filterung - Qualität, Flimmern und A.I.-Einstellungen nach R5xx


Seiten : [1] 2 3 4

Coda
2008-07-06, 14:51:24
Ich will auch mal wieder darauf hinweisen, dass ATI auch bestimmt mindestens 10% verlieren würde wenn sie ordentlich filtern würden.

Die 4870 bleibt bei mir auch nur im Rechner weil sie 10.1 kann. A.I. on ist ne Zumutung und A.I. off ist nicht brauchbar.

Split aus: Welche der neuen Grafikkarten? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422139)
-punta

Gast
2008-07-06, 14:56:25
Was meinst du mit dem "ordentlich filtern", das AF? Ich denke da sieht man beim Spielen keinen Unterschied heissts doch immer? :confused:

Coda
2008-07-06, 14:58:44
Was meinst du mit dem "ordentlich filtern", das AF? Ich denke da sieht man beim Spielen keinen Unterschied heissts doch immer? :confused:
Man sieht definitiv einen Unterschied. Bei Half-Life 2 Episode 2 seh ich es überdeutlich ggü. meiner 8800 GTX mit A.I. on. Vor allem die hochfrequenten Grastexturen und Häuserfasaden sind deutlich unruhiger.

Die GeForce 8/9/GTX flimmert in keinem Modus. Egal ob HQ oder Q.

Bevor jetzt wieder die Fanboykollonen anrollen. Ja es ist subjektiv ob einen das stört, aber das kann wirklich jeder sehen der keine Tomaten auf den Augen hat wenn er es im direkten Vergleich hat.

Gast am Mast
2008-07-06, 15:05:02
Was meinst du mit dem "ordentlich filtern", das AF? Ich denke da sieht man beim Spielen keinen Unterschied heissts doch immer? :confused:
Es ist kein Showstopper, aber wenn man sucht, dann findet man auch einen Unterschied (das geschulte Auge vermutlich auch so) und das anzumerken ist legitim.

Dass A.I. Off die "Filteroptimierungen" bei R6xx und R7xx nicht mehr deaktiviert und damit sinnlos ist, sollte man aber auch ruhig ausschreiben, denn einige empfehlen diesen von der r5xx-Reihe entliehenen "Trick" zur Qualitätssteigerung ja ungebrochen bei der neuen Generation. Ich denke, die Deaktivierbarkeit zu entfernen ist von einer gewissen Warte aus auch durchaus verständlich, denn Tests von ATI A.I. Off gegen NV HQ lassen ATI extrem schlecht aussehen, schließlich wurden sinnvolle Performance-Tweaks und Bugfixes gleich mit deaktiviert. Jetzt machen solche Tests schlicht keinen Sinn mehr, die Filterqualität wird dadurch ja nicht besser.
Dies steht übrigens nicht im Widerspruch dazu, dass aus Usersicht natürlich wünschenswert wäre, selbst zu entscheiden und dabei die Shaderreplacements undCo nicht mit zu verlieren.

Coda
2008-07-06, 15:30:27
Es stimmt nicht, dass A.I. off nichts deaktiviert. Ich habe gerade den Vergleich gemacht:

http://www.mental-asylum.de/files/aioff.png
http://www.mental-asylum.de/files/aion.png

Q und HQ könnte ich auch anbieten wenn ich die GeForce einbaue aber dafür habe ich in den kommenden zwei Wochen praktisch keine Zeit. Aber ich kann euch garantieren dass selbst A.I. off niemals mit der Filterqualität einer GeForce mithalten kann.

Bumsfalara
2008-07-06, 15:52:17
Es stimmt nicht, dass A.I. off nichts deaktiviert. Ich habe gerade den Vergleich gemacht:

http://www.mental-asylum.de/files/aioff.png
http://www.mental-asylum.de/files/aion.png

Q und HQ könnte ich auch anbieten wenn ich die GeForce einbaue aber dafür habe ich in den kommenden zwei Wochen praktisch keine Zeit. Aber ich kann euch garantieren dass selbst A.I. off niemals mit der Filterqualität einer GeForce mithalten kann.
Irgendwie sind bei AIon mehr Details vorhanden, zumindest meiner Meinung nach?

Zumindest mal rechts an dem Haus, das links sieht ziemlich schrecklich aus im Vergleich dazu.

Coda
2008-07-06, 16:50:51
Irgendwie sind bei AIon mehr Details vorhanden, zumindest meiner Meinung nach?
Das sind nicht "mehr Details" sondern schlicht und einfach eine zu hohe Frequenz wegen Unterfilterung.

Genau das ist das Problem an der Sache. Die Leute sind einfach nicht fähig das richtig beurteilen zu können wenn man es ihnen nicht vor die Nase hält:

http://www.mental-asylum.de/files/aioff.gif
http://www.mental-asylum.de/files/aion.gif

anddill
2008-07-06, 16:51:14
AIon sieht deutlich detailreicher aus. Als Standbild definitiv besser. Ich könnte mir aber vorstellen, daß das in Bewegung sehr unruhig wirkt.

_DrillSarge]I[
2008-07-06, 16:54:27
irgendwie wird bei jedem 2. ai-vergleich half-life 2 vorgeführt. scheint ja eine besonders nette kombo aus unterfilterung und evil-content zu sein.

Coda
2008-07-06, 16:56:58
AIon sieht deutlich detailreicher aus. Als Standbild definitiv besser. Ich könnte mir aber vorstellen, daß das in Bewegung sehr unruhig wirkt.
Schau dir die GIFs an. Überhaupt kann A.I. on gar nicht "besser" aussehen. Das ist praktisch unmöglich dass man mit weniger Samples einen besseren Filter hinbekommt. Und anders erreicht man keinen Geschwindigkeitsvorteil.

Wer bei den GIFs A.I. off besser empfindet der möge sich doch bitte den MIP-LOD-Regler nach -23541 ziehen und sich aus der Filterdiskussion raushalten.

I[;6639510']irgendwie wird bei jedem 2. ai-vergleich half-life 2 vorgeführt. scheint ja eine besonders nette kombo aus unterfilterung und evil-content zu sein.
Das hat nichts mit HL² an sich zu tun, sondern an den Texturen die es verwendet.

_DrillSarge]I[
2008-07-06, 16:59:34
Das hat nichts mit HL² an sich zu tun, sondern an den Texturen die es verwendet.
sag ich ja. nur gibt es noch krassere beispiele. battlefield 1942 ist ekelhaft. in doom3 gibts flimmern + teilweise banding. usw.

Mr. Lolman
2008-07-06, 17:53:27
Das sind nicht "mehr Details" sondern schlicht und einfach eine zu hohe Frequenz wegen Unterfilterung.

Genau das ist das Problem an der Sache. Die Leute sind einfach nicht fähig das richtig beurteilen zu können wenn man es ihnen nicht vor die Nase hält:

http://www.mental-asylum.de/files/aioff.gif
http://www.mental-asylum.de/files/aion.gif

Probier mal AI High...

Coda
2008-07-06, 17:55:08
Urks. Das is so schon genug Aufwand gewesen Loli. Was willst du daran denn sehen? Ob's nochmal nen Unterschied gibt?

Mr. Lolman
2008-07-06, 18:12:03
Urks. Das is so schon genug Aufwand gewesen Loli. Was willst du daran denn sehen? Ob's nochmal nen Unterschied gibt?

Zumindest bei NFS Carbon und bei UT2004 fiel mir schon mit dem R580 auf, mit AI High, 'böse' Texturen tw. etwas besser gefiltert werden - was auch erklärt, warum mit AI High die fps manchmal niedriger sind, als mit Standard...

Coda
2008-07-06, 18:14:30
Zumindest bei NFS Carbon und bei UT2004 fiel mir schon mit dem R580 auf, mit AI High, 'böse' Texturen tw. etwas besser gefiltert werden
Nicht möglich. Alte Diskussion. Eine GPU hat einen mathematisch korrekten Output zu liefern und kein subjektiv irgendwie "besseres" Bild.

Wenn man weniger Samples nimmt ist der Filter schlechter. Einfache Gleichung. Und anders erreicht man wie schon gesagt keinen Geschwindigkeitsvorteil.

Mr. Lolman
2008-07-06, 18:19:13
Nicht möglich. Alte Diskussion. Eine GPU hat einen mathematisch korrekten Output zu liefern und kein subjektiv irgendwie "besseres" Bild.

Sicher ists möglich. Indem man mehr Samples als bei AI low nimmt...

Coda
2008-07-06, 18:32:22
Sicher ists möglich. Indem man mehr Samples als bei AI low nimmt...
Das glaubst du doch wohl selber nicht.

Da hast dein High: http://www.mental-asylum.de/files/aihigh.gif
Ist offenbar das gleiche wie Low.

Die Helligkeitsunterschiede kommen übrigens vom HDR wenn ich nachm Laden den Screenshot zu schnell gemacht habe.

Schlammsau
2008-07-06, 18:49:03
@Coda
mit A.I. Standard ist ein leichtes Flimmern bei ganz bestimmten Spielen wahrnehmbar. Mit A.I. Erweitert nicht mehr.
Hab jetzt, das erste Mal mit CoD 4 ein flimmern mit meiner ATi bemerkt. Was dann aber auch mit A.I. Erweitert nicht mehr da war!
Seh ich das richtig? Du hast den 2. A.I. Mode noch gar nicht ausprobiert?

Gast
2008-07-06, 18:49:36
Es stimmt nicht, dass A.I. off nichts deaktiviert. Ich habe gerade den Vergleich gemacht:

http://www.mental-asylum.de/files/aioff.png
http://www.mental-asylum.de/files/aion.png


wow, hätte nicht gedacht dass AI-on dermaßen grauenhaft ist (kenne AI-on live nur von der X19xx-serie, dort ist es nicht so schlimm)

Schlammsau
2008-07-06, 18:53:26
wow, hätte nicht gedacht dass AI-on dermaßen grauenhaft ist (kenne AI-on live nur von der X19xx-serie, dort ist es nicht so schlimm)
Zum ersten, Ich versteh jetzt nicht, was an den Bildern so grauenhaft sein soll!
Und zum zweiten, wird ständig nur HL² Bilder oder Videos gepostet. Meiner Erfahrung nach, ist es auch nur bei diesem Game am schlimmsten.

Coda
2008-07-06, 19:11:25
mit A.I. Standard ist ein leichtes Flimmern bei ganz bestimmten Spielen wahrnehmbar. Mit A.I. Erweitert nicht mehr.
Schwachsinn. A.I. Advanced ist wenn dann nur schlimmer, aber ganz sicher nicht besser.

Get over it. Die Filterqualität bei ATI suckt derzeit immer noch.

Seh ich das richtig? Du hast den 2. A.I. Mode noch gar nicht ausprobiert?
Doch habe ich. Aber war total unnötig, weil ich eh weiß dass Advanced nur noch schlimmer sein kann. Da wird noch mehr "optimiert".

http://www.mental-asylum.de/files/aioff.gif - Aus
http://www.mental-asylum.de/files/aion.gif - Standard
http://www.mental-asylum.de/files/aihigh.gif - Advanced

Die 4870 bleibt erstmal trotzdem im Rechner. Ich habe überhaupt keinen Grund mir das auszudenken.

Und nein es ist nicht nur Half-Life 2. Es sind schlicht und einfach nur die Texturen die dort verwendet wurden. Die kann ich dir in ein x-beliebiges anderes Spiel übertragen und es wird exakt das gleiche passieren.

Schlammsau
2008-07-06, 19:14:18
Schwachsinn. A.I. Advanced ist wenn dann nur schlimmer, aber ganz sicher nicht besser.

Get over it. Die Filterqualität bei ATI suckt derzeit immer noch.

Blödsinn, AI Advanced verbessert das Bildbei leichtem Performanceverlust gegenüber AI STandard!
Steht selbst in der Hilfe zum CCC.

Gast
2008-07-06, 19:16:23
Richtig. Bei ATI heisst es immer noch Flimmermode. Hier hat Nvidia seine Vorteile. ATI hat dafür 10.1 und besseres 8AA. Ich bevorzuge aber auch NVidia da mir das Atiflimmern deutlich auffällt. Und ich kann das berurteilen. Mein Bro hat ne 4850 und ich ne 260. Just my opinion.

Coda
2008-07-06, 19:16:48
Blödsinn, AI Advanced verbessert das Bildbei leichtem Performanceverlust gegenüber AI STandard!
Nein. Schlicht und einfach nein. A.I. Advanced liefert höhere Frameraten und verbessert deshalb das Bild ganz bestimmt nicht.

Steht selbst in der Hilfe zum CCC.
Du hast recht. Das ist aber mit absoluter Sicherheit ein Fehler. Advanced liefert ganz ganz sicher keine bessere Bildqualität.

Black-Scorpion
2008-07-06, 19:17:51
Schön wie etwas als Schwachsinn bezeichnet wird was derjenige noch nicht mal selbst gesehen hat.

Coda
2008-07-06, 19:19:07
Was laberst du? Sonst geht's noch? Ich habe heute Mittag selber die drei GIFs angefertigt auf der 4870

http://www.mental-asylum.de/files/aioff.gif - Aus
http://www.mental-asylum.de/files/aion.gif - Standard
http://www.mental-asylum.de/files/aihigh.gif - Advanced

Willst du mich als Lügner bezeichnen oder was? Manche Leute haben doch echt nen Dachschaden hier.

Schlammsau
2008-07-06, 19:22:42
Nein. Schlicht und einfach nein. A.I. Advanced liefert höhere Frameraten und verbessert deshalb das Bild ganz bestimmt nicht.
Ich habe mit Advanced leicht niedrigere Frameraten als mit Standard. Schon mit mehreren Games getestet!


Du hast recht. Das ist aber mit absoluter Sicherheit ein Fehler. Advanced liefert ganz ganz sicher keine bessere Bildqualität.
Ein Fehler der schon Jahrelang in der CCC Hilfedatei aufzufinden ist? Nein!

Was laberst du? Sonst geht's noch? Ich habe heute Mittag selber die drei GIFs angefertigt auf der 4870

http://www.mental-asylum.de/files/aioff.gif - Aus
http://www.mental-asylum.de/files/aion.gif - Standard
http://www.mental-asylum.de/files/aihigh.gif - Advanced

Willst du mich als Lügner bezeichnen oder was? Manche Leute haben doch echt nen Dachschaden hier.
Hab mich auch mal mit Gif´s beschäftigt um das Problem auf Bilder zu bannen.
Gif´s verstärken den Effekt nur! Mach Videos mit Fraps und lade sie am besten umkomprimiert auf irgendeinen Hoster

Coda
2008-07-06, 19:23:57
Ich habe mit Advanced leicht niedrigere Frameraten als mit Standard. Schon mit mehreren Games getestet!
Das glaube ich dir nicht, weil dann die Standardeinstellung des ATI-Treibers Ultra-Suckage wäre ("Standard" deiner Meinung nach). Und weil du es herausforderst werde ich es auch gleich mal nachprüfen.

Ein Fehler der schon Jahrelang in der CCC Hilfedatei aufzufinden ist? Nein!
Ganz offensichtlich ja. Du kannst gerne selber Benchmarks machen und feststellen dass A.I. Advanced höhere Frameraten liefert.

Ändert aber eh nichts daran, weil der Filter sowohl mit A.I. Standard als auch Advanced suckt.

Das Tooltip des Sliders ist bei mir auch "Adjust the level of driver optimizations". Und da ist "Advanced" ganz sicher mehr als "Standard". Braucht man gar nicht drüber diskutieren eigentlich wenn man sich mal zusammenreißen würde.

Gast
2008-07-06, 19:25:35
Hier gibts auch ne unschöne AF-Blume von der 4850. Es hat sich da nicht viel getan. Und jeder der mal ne Nvidia und ATI hatte weiss wovon man redet. Herrgott, es ist halt so. Dafür hat Ati wie oben geschrieben den Vorteil 10.1 und 8AA. Das Flimmern ist halt leider immer noch da.

Schlammsau
2008-07-06, 19:26:33
Das glaube ich dir nicht, weil dann die Standardeinstellung des ATI-Treibers Ultra-Suckage wäre ("Standard" deiner Meinung nach). Und weil du es herausforderst werde ich es auch gleich mal nachprüfen.


Ganz offensichtlich ja. Du kannst gerne selber Benchmarks machen und feststellen dass A.I. Advanced höhere Frameraten liefert.

Ändert aber eh nichts daran, weil der Filter sowohl mit A.I. Standard als auch Advanced suckt.

Mach aber bitte Videos per Fraps. Gif´s verstärken den Flimmereffekt nur!

Black-Scorpion
2008-07-06, 19:27:56
Was laberst du? Sonst geht's noch? Ich habe heute Mittag selber die drei GIFs angefertigt auf der 4870

http://www.mental-asylum.de/files/aioff.gif - Aus
http://www.mental-asylum.de/files/aion.gif - Standard
http://www.mental-asylum.de/files/aihigh.gif - Advanced

Willst du mich als Lügner bezeichnen oder was? Manche Leute haben doch echt nen Dachschaden hier.
Willst du mich blöd von der Seite anmachen oder was?

Ich lasse mir schon einiges sagen, aber von einem Crew Mitglied bestimmt nicht das ich einen Dachschaden habe.

Coda
2008-07-06, 19:27:59
Mach aber bitte Videos per Fraps. Gif´s verstärken den Flimmereffekt nur!
Du kannst mich mal am Allerwertesten. Das Flimmern ist exakt das gleiche egal ob ich's als 8-Bit GIF oder als 24-Bit APNG absolut verlustlos speichere. Das GIF war nur damit's Leute auch im IE sehen können.

Willst du mich blöd von der Seite anmachen oder was?

Ich lasse mir schon einiges sagen, aber von einem Crew Mitglied bestimmt nicht das ich einen Dachschaden habe.
Dann halt du dich mal lieber zurück wenn du meinen musst dass ich etwas noch "nichtmal gesehen" habe, was ich ganz offensichtlich getan hab.

Ich mach mir doch hier nicht so ne Arbeit um dann von paar Möchtegern-Fanboys als Lügner hingestellt zu werden. Akzeptiert die Fakten oder lasst es bleiben, aber ich lass mich ganz sicher nicht denunzieren.

Gast
2008-07-06, 19:30:30
wow, hätte nicht gedacht dass AI-on dermaßen grauenhaft ist (kenne AI-on live nur von der X19xx-serie, dort ist es nicht so schlimm)

Für den R600 wurde die Filterqualität nochmals reduziert, weil man bei 16 TMUs geblieben ist und dadurch noch mehr Boden gegenüber Nvidia verloren hätte. Bei AMD geht es eben nur noch um Balkenlänge und nicht um Bildqualität. Diese hin und wieder auftauchenden "Wundertreiber" mit ihren fps-Zuwächsen im zweistelligen %-Bereich sind auch nur durch weitere Qualitätsreduktion so schnell. Nur schaut da keiner hin oder kennst du Reviews, die die Filterqualität von verschiedenen Catalyst Treibern mal genauestens untersuchen?

Schlammsau
2008-07-06, 19:31:50
Du kannst mich mal am Allerwertesten. Das Flimmern ist exakt das gleiche egal ob ich's als 8-Bit GIF oder als 24-Bit APNG absolut verlustlos speichere.


Dann halt du dich mal lieber zurück wenn du meinen musst dass ich etwas noch "nichtmal gesehen" habe, was ich ganz offensichtlich getan hab.

Ich mach mir doch hier nicht so ne Arbeit um dann von paar Möchtegern-Fanboys als Lügner hingestellt zu werden.

Ganz schön agressiv!
Aber ich denke ne Gif zu basteln ist aufwändiger als ein unkomprimiertes Video mit FRAPS aufzunehmen.

Coda
2008-07-06, 19:33:46
Ganz schön agressiv!
Ja. Zurecht. Ich weiß ganz genau was ich sehe. Ich kann Fanboygelaber einfach nicht ab.

Aber ich denke ne Gif zu basteln ist aufwändiger als ein unkomprimiertes Video mit FRAPS aufzunehmen.
Das ist nicht vergleichbar weil es nicht die gleichen Frames wären.

Es sind bei allen drei GIFs exakt die gleichen 5 Frames. Ich kann es auch gern als APNG unkomprimiert speichern für Firefox. Man sieht eh keinen Unterschied.

Sowohl A.I. standard als auch advanced flimmern deutlich. Da braucht man überhaupt nicht drumrumreden.

Black-Scorpion
2008-07-06, 19:35:52
Ich mach mir doch hier nicht so ne Arbeit um dann von paar Möchtegern-Fanboys als Lügner hingestellt zu werden. Akzeptiert die Fakten oder lasst es bleiben, aber ich lass mich ganz sicher nicht denunzieren.
Du willst nicht als Lügner hingestellt werden und streitest im Gegenzug ab das A.I. Advanced niedrigere Frames liefert als Standard.

Und dein Ton lässt mehr als zu wünschen übrig. Erst habe ich einen Dachschaden und jetzt auch noch ein Fanboy.
Nur gut das du die Neutralität in Person bist.

*edit*
Schön das ein Crew Mitglied ohne Rücksicht auf Verluste hier Rundumschläge verteilen kann.

Aquaschaf
2008-07-06, 19:36:29
mit A.I. Standard ist ein leichtes Flimmern bei ganz bestimmten Spielen wahrnehmbar.

Was für Spiele spielst du denn ;)? Lediglich bei Fable habe ich von der Unterfilterung fast nichts bemerkt.

Coda
2008-07-06, 19:42:50
Du willst nicht als Lügner hingestellt werden und streitest im Gegenzug ab das A.I. Advanced niedrigere Frames liefert als Standard.
Ja weil es nicht stimmt. A.I. Advanced ist der Modus mit mehr "Optimierungen". Egal was in der Hilfe steht. Das weiß ich ganz sicher.

Nur gut das du die Neutralität in Person bist.
Wie man sieht ja. Ich bekomm es über mich auch wenn ich viel Geld für ne GPU bezahlt hab nicht über die offensichtlichen Schwächen hinwegzusehen.

Schön das ein Crew Mitglied ohne Rücksicht auf Verluste hier Rundumschläge verteilen kann.
Ich werde von der Moderation so behandelt wie jeder andere auch. Mein Ton hat sich mit dem Crew-Status auch nichts zu tun. Kannst dich gerne beschweren gehen.

Und für die ganz ungläubigen hier auch noch die APNGs (verlustlos)
http://www.mental-asylum.de/files/aioff.png
http://www.mental-asylum.de/files/aion.png

Soweit ich weiß geht das aber nur im Firefox 3.0.

Blaire
2008-07-06, 19:44:03
Was laberst du? Sonst geht's noch? Ich habe heute Mittag selber die drei GIFs angefertigt auf der 4870

http://www.mental-asylum.de/files/aioff.gif - Aus
http://www.mental-asylum.de/files/aion.gif - Standard
http://www.mental-asylum.de/files/aihigh.gif - Advanced


Advanced flackert ja richtig :eek:

Black-Scorpion
2008-07-06, 19:48:01
Ja weil es nicht stimmt. A.I. Advanced ist der Modus mit mehr "Optimierungen". Egal was in der Hilfe steht. Das weiß ich ganz sicher.
Und warum ist es dann nachweislich deutlich langsame wie Standard?

Gast
2008-07-06, 19:48:18
Joah sieht richtig übel aus. Als ob ein Windstoss am Zaun "rüttelt". Wenn das mal kein Beweis ist. Ich kapiers auch nicht wie man sowas "übersehen" kann. Grauenhaft...

reunion
2008-07-06, 19:53:26
Es stimmt nicht, dass A.I. off nichts deaktiviert. Ich habe gerade den Vergleich gemacht:

http://www.mental-asylum.de/files/aioff.png
http://www.mental-asylum.de/files/aion.png


In den Videos flimmert AI_off deutlich weniger. Also wenn da nichts deaktiviert wird, dann kann AMD offenbar zaubern.

/Edit: Falsch gelesen.

Ich habe mit Advanced leicht niedrigere Frameraten als mit Standard. Schon mit mehreren Games getestet!


Ein Fehler der schon Jahrelang in der CCC Hilfedatei aufzufinden ist? Nein!


Hab mich auch mal mit Gif´s beschäftigt um das Problem auf Bilder zu bannen.
Gif´s verstärken den Effekt nur! Mach Videos mit Fraps und lade sie am besten umkomprimiert auf irgendeinen Hoster

Die Diskussion ist lächerlich. ATi spart Samples ein, das ist offensichtlich. Jeder der mal hochfrequente Texturen direkt vergleichen konnte wird dir das bestätigen. Und Advanced ist natürlich nicht besser als Standard.

Coda
2008-07-06, 19:54:05
In den Videos sieht AI_off deutlich besser aus. Also wenn da nichts deaktiviert wird, dann kann AMD offenbar zaubern.
Natürlich sieht A.I. off besser aus. Bring mich doch nicht draus.

A.I. off deaktiviert die Filteroptimierungen. Zumindest teilweise.

Gast
2008-07-06, 19:54:30
Leuts, mal im ernst. Wer´s nicht glaubt kann doch dann den Gegenbeweis antreten?!
Wenn ihr meint das Advanced nicht nochn Tacken draufsetzt, bringt den Gegenbeweis!
Solange ihr das nicht macht, kann Coda tun und lassen was er will, ER legt euch Fakten auf den Tisch.

Überall wird gezankt, wie peinlich.

Coda
2008-07-06, 19:57:04
Und warum ist es dann nachweislich deutlich langsame wie Standard?
Den "Nachweis" will ich gerne sehen.

Wie gesagt würde das bedeuten dass ATI in der Defaulteinstellung die allerschlimmste Bildqualität eingestellt habe. Allein das sollte dir sagen dass dem nicht so ist. Zudem ist wie gesagt die Beschriftung des Tooltips "Adjust the Level of Driver Optimizations". Also MEHR nach rechts. Und da ist "Advanced".

Ich weiß auch noch sehr genau, dass bei meiner R520 Advanced noch viel schlimmer war als Standard. Heute sind beide wirklich sehr ähnlich.

reunion
2008-07-06, 20:00:11
Natürlich sieht A.I. off besser aus. Bring mich doch nicht draus.

A.I. off deaktiviert die Filteroptimierungen. Zumindest teilweise.

Ja richtig. Das sahen aber diverse Leute in der Vergangenheit anders. AI_off hat sehr wohl deutliche Auswirkungen. Und da ich das "nicht" von dir überlas musste ich schon an deinen Augen zweifeln. :)

Coda
2008-07-06, 20:00:50
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/14/#abschnitt_1600x1200_4xaa16xaf

Soviel zum Thema "Advanced langsamer als Standard". Q.e.d. Gut das ich nichts glaube was ich hier so lese von manchen.

Coda
2008-07-06, 20:11:36
Advanced flackert ja richtig :eek:
Nur um das klarzustellen: Die Helligkeitsunterschiede kommen vom HDR. Das hat nichts mit der Bildqualität zu tun.

pest
2008-07-06, 20:19:23
ohne Vergeich zu NV zieht das nur wieder unreflektiertes Bashing nach sich.

Gast
2008-07-06, 20:23:56
Zum ersten, Ich versteh jetzt nicht, was an den Bildern so grauenhaft sein soll!

sorry, aber da "sieht" man es ja förmlich auf standbildern flimmern, ich will garnicht erst wissen wie das in bewegung aussieht.

das off-bild sieht ja noch halbwegs akzeptabel aus, wobei ich denke dass NV selbst mit optimierungen immer noch besser ist.

Triskaine
2008-07-06, 20:35:27
Meint ihr das die Allgemeine Bildqualität im Vergleich zu einer 7800 GTX bessert oder verschlechtert, wenn ich auf eine 4870 wechsele? Da ich noch nie wirklich in den Genuss guter Bildqualtiät gekommen bin wird mir der Unterschied wohl nicht auffallen, oder?

Aquaschaf
2008-07-06, 20:38:39
Du hast dann immer noch keine tolle Texturfilterung, aber gutes und nutzbares Antialiasing und viel mehr Leistung. Also: ja, das wäre eine Verbesserung.

Gast
2008-07-06, 20:40:00
Naja, die Bildqualität wird sich verbessern. Die olle GTX war ja für ebenso grauenvolle BQ bekannt. Vom Regen in die Traufe. Ne im Ernst, schau dich mal auf seriösen Seiten um und Vergleiche 260/280 zu der ATI (BQ). Da sieht man schon nen Unterschied. Cheers

MartinRiggs
2008-07-06, 20:42:53
Also ich finde die GIFs totalen Schrott, so schlimm sieht das in Echt auf keinen Fall aus und ich habe sowohl die 8800er Serie als auch die HD4800er Serie "LIVE" gesehen.
Es mag sehr empfindliche naturen geben aber für Otto-Normalverbraucher ist die eine Karte so gut wie die andere:rolleyes:

Gast
2008-07-06, 20:44:58
So einen schwammigen Zaun hab ich auf meiner alten 8800 NICHT gesehen. Sorry, so isses.

Triskaine
2008-07-06, 20:49:27
Jaja, wie immer gilt: Was man nicht kennt, vermisst man auch nicht. Ich betreibe meine 7800 GTX übrigens mit Standardeinstellungen, was natürlich Matschhorror bei gewinkelten Texturen bedeutet, aber mal ganz im Ernst ich tue mich schwer den Unterschied im laufenden Spiel mit und ohne AF/AA zu erkennen. Auf Standbildern sieht man es natürlich gut aber im laufenden Spiel erkenne ich eigentlich nichts. Eigentlich schalte ich AF und AA (wo es noch mit meiner ollen Möhre geht :biggrin:) nur an weil ich es kann bzw. weil es da ist, nicht weil ich eine Verbesserung bemerke.

Gast
2008-07-06, 20:52:02
Na, bei ner 4870 würde ich 8AA auf jedenfall zuschalten. Klar, ist ne Verbesserung. Bedenke aber das gerade die Preise von 260/80 purzeln. Ich würde da nochmal nachdenken.

Coda
2008-07-06, 21:10:45
Also ich finde die GIFs totalen Schrott, so schlimm sieht das in Echt auf keinen Fall aus
Doch das sieht in echt genauso aus. Wie man an den APNGs sieht. Die sind unkomprimiert. Das sind 1zu1 Pixel aus dem Spiel.

An den GIFs erkennt man direkt fast keinen Unterschied zum 24-Bit-Bild. Das ist absolut nicht das Problem.

ohne Vergeich zu NV zieht das nur wieder unreflektiertes Bashing nach sich.
Ich habe den Vergleich:

http://www.mental-asylum.de/files2/gtx4870.jpg

Und ich werde den auch noch in Bild bringen sobald ich mal wieder Zeit dazu habe die Karten zu tauschen.

Ich habe es absolut nicht nötig irgend einen IHV zu "bashen", ich finde einfach nur die Filterqualität unter aller sau mit A.I. on. Sollen die glücklich sein die es nicht sehen.

Chris2CB
2008-07-06, 21:14:07
Jaja, wie immer gilt: Was man nicht kennt, vermisst man auch nicht. Ich betreibe meine 7800 GTX übrigens mit Standardeinstellungen, was natürlich Matschhorror bei gewinkelten Texturen bedeutet, aber mal ganz im Ernst ich tue mich schwer den Unterschied im laufenden Spiel mit und ohne AF/AA zu erkennen. Auf Standbildern sieht man es natürlich gut aber im laufenden Spiel erkenne ich eigentlich nichts. Eigentlich schalte ich AF und AA (wo es noch mit meiner ollen Möhre geht :biggrin:) nur an weil ich es kann bzw. weil es da ist, nicht weil ich eine Verbesserung bemerke.


AF fällt sehr stark auf, aber besser spielt man damit eigentlich auch nicht:wink:

Ronny145
2008-07-06, 21:15:16
Blödsinn, AI Advanced verbessert das Bildbei leichtem Performanceverlust gegenüber AI STandard!
Steht selbst in der Hilfe zum CCC.


Bei mir steht noch:

Note: Setting the Catalyst™ A.I. to Advanced improves the performance of some games.

Deutlicher gehts wohl kaum.

Im deluxx ist es noch viel krasser, da behaupten viele Fanboys die Ati liefere das bessere Bild...

Gast
2008-07-06, 21:19:34
Mal an Coda: Jede Wette sieht der Zaun auf der 8800 um Welten ruhiger aus. Das brauchst du mir nicht beweisen, das weiss ich;-). Die Karte war einfach göttlich in Sachen BQ. Sorry für Offtopic.

Coda
2008-07-06, 21:22:33
Natürlich sieht er auf der 8800 um Welten ruhiger aus. Sonst würde ich das Fass hier ja nicht schon wieder aufmachen. Ich hab Freitag die 4870 bekommen. Hab dann Episode 2 gespielt und mich gleich wieder geärgert.

Und von "war" braucht man nicht reden, das ist ziemlich sicher immer noch der Ist-Zustand bei HD4870 und GTX280. Das wird aber noch überprüft.

Raff
2008-07-06, 21:51:18
Immer wieder geil. Ich kann Coda komplett beipflichten, es ist ja nicht der erste Appell (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291789) an die ganzen Radeoner, die "nichts sehen". Ati flimmert. Punkt. Unabänderlich, durch A.I.-Umstellereien lässt sich das Flimmern nur verlagern - manchmal auch so, dass es kaum noch da ist. Eine aktuelle GeForce filtert @ HQ dennoch deutlich flimmerfreier (und kommt nun nicht wieder mit Rennspielen).

Die aktuellen Radeon-Karten sind dennoch sehr nett. Aber bei der doch mittlerweile beachtlichen Füllrate könnte Ati bei A.I. Off mal wieder den R5x0-Zustand erlauben.

Oh, ich vergaß: Wer die Sparmaßnahmen nicht sieht, hat entweder keinen Vergleich oder ist nicht so empfindlich. Beides ist partiell beneidenswert. Das ändert aber nichts daran, dass Ati immer Rechenarbeit spart. Nvidia tut das bei HQ vermutlich auch, aber man sieht es nur bei Quality + "Optimierungen".

MfG,
Raff

Coda
2008-07-06, 21:55:14
Ich behaupte dass selbst Q besser ist als A.I. off. Das werde ich aber noch untersuchen.

Es wird einfach Zeit, dass die Leute aufwachen und A.I. off Benchmarks machen. Da würde ich absolut keine Toleranz mehr kennen. Es ist nicht hinnehmbar dass man 250€ für eine GPU ausgibt und sich dann entscheiden will ob man jetzt auf sinnvolle Optimierungen verzichtet oder man das Flimmern erträgt.

A.I.-off-Qualität und dazu die anderen Optimierungen wären ja noch okay.

Gast
2008-07-06, 21:56:07
Meint ihr das die Allgemeine Bildqualität im Vergleich zu einer 7800 GTX bessert oder verschlechtert, wenn ich auf eine 4870 wechsele?

insgesamt dürfte sich die BQ durchaus verbessern, erstmals hast du kaum mehr winkelabhängigkeit beim AF und mit AI-off dürfte das flimmern auch noch akzeptabel und nicht schlechter als bei der 7800GTX sein (die ja selbst nicht gerade toll war)

Raff
2008-07-06, 22:00:13
insgesamt dürfte sich die BQ durchaus verbessern, erstmals hast du kaum mehr winkelabhängigkeit beim AF und mit AI-off dürfte das flimmern auch noch akzeptabel und nicht schlechter als bei der 7800GTX sein (die ja selbst nicht gerade toll war)

G7x-HQ ist besser als ihr Ruf. Es flimmert/grieselt "regelmäßiger", wohingegen aktuelle Ati-Karten "Flimmerbanding" zeigen (störend weil auffälliger). Dennoch sind Letztere klar schöner, eben weil das AF keine absurde Winkelabhängigkeit zeigt.

MfG,
Raff

Gast
2008-07-06, 22:01:09
Ich behaupte dass selbst Q besser ist als A.I. off. Das werde ich aber noch untersuchen.

Ja, klar. Selbst HP sieht besser als aus A.I. off. Aber untersuche das erstmal selbst, bevor du solche Pauschalaussagen bringst. Juiced 2 am Eiffelturm wäre prächtig dafür geeignet zu zeigen, dass Q durchaus erheblich schlechter aussehen kann als AI on.

Coda
2008-07-06, 22:02:53
Verwendet Juiced 2 negatives LOD? Das mag dann durchaus stimmen, hat aber nichts mit der Diskussion hier gerade zu tun.

Q ohne zusätzliche Optimierungen ist nämlich ausschließlich Brilinear statt Trilinear. Das ändert am Flimmerverhalten des Filters fast überhaupt nichts.

Raff
2008-07-06, 22:03:55
Ich behaupte dass selbst Q besser ist als A.I. off. Das werde ich aber noch untersuchen.

A.I. "Off" ist eine Farce. Das Off-AF von R5x0 war superb (G80-HQ-Niveau), jetzt aber flimmert es halt immer, abhängig von der A.I.-Stufe mal mehr, mal weniger. Das jetzige "Off" bringt keinen sinnvollen Vergleich.

MfG,
Raff

Gast
2008-07-06, 22:08:47
Dann bleibt die Frage warum die 4850 respektive 4870 trotz der enormen Füllrate immer noch so bescheiden filtert. Wo liegt der Hund begraben? Von so einem geflimmere kriegt man ja Kopfschmerzen.

Coda
2008-07-06, 22:10:34
Dazu sollte man erstmal Benchmarks ohne A.I. und mit den restlichen Optimierungen haben. Das geht aber mit keinem Treiber.

Weil dann könnte man eine Aussage darüber treffen wieviel ATI das Geflimmere derzeit wirklich noch bringt.

Schlammsau
2008-07-06, 22:37:40
Um nochmals eines klarzustellen, hier wird auf sehr hohem Niveau gejammert.
Ich zitiere allzu gerne wieder CB in ihren aktuellstem Review zur 4870.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/5/#abschnitt_benchmarks
Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, dass die Qualität der Texturfilterung auf aktuellen ATi- und Nvidia-Grafikkarten in der Standard-Einstellung in etwa vergleichbar sind (mit leichten Vorteilen für die GeForce-Produkte). Bei Nvidia verändern wir somit keinerlei Einstellungen und im ATi-Treiber belassen wir die A.I.-Funktion auf „Standard“.

Genauso sehe ich das auch. Hier wird nur über extreme Beispiele gestritten. ATi flimmert bei zugeschaltetem AI? Dafür ist ihr AA schöner!

Coda
2008-07-06, 22:39:21
Das kann man auch anders sehen. Mehr dazu bald.

Gast
2008-07-06, 22:41:16
Was heisst hohes Niveau? Hier hat Coda Bildlich verdeutlicht wie die ATI filtert. Ich sehe sehr wohl einen Unterschied zu meiner 260GTX und meiner "alten" 8800GTX. Vielleicht haben die CB-Leute dicke Hornbrillen auf oder was weiss ich. Mir fällts auf und anderen auch.

pest
2008-07-06, 22:43:59
Ich sehe sehr wohl einen Unterschied zu meiner 260GTX und meiner "alten" 8800GTX.

Zauberei :eek:

Gast
2008-07-06, 22:47:19
Was heisst Zauberei. Beide filtern gut ohne Flimmerei. CB schreibt in dieser Hinsicht Müll. Naja, Coda bringt ja bald was. So ein Flimmerkasten kommt mir jedenfalls nicht in den Rechner.

pest
2008-07-06, 22:51:07
Was heisst Zauberei. Beide filtern gut ohne Flimmerei. CB schreibt in dieser Hinsicht Müll. Naja, Coda bringt ja bald was. So ein Flimmerkasten kommt mir jedenfalls nicht in den Rechner.

axo, ich dachte du siehst nen Unterschied zwischen 260GTX und 8800GTX

meine 8800GT flimmert in CS:Source auch...mit 16xAF, ich bin gespannt auf die Vergleiche

Gast
2008-07-06, 22:53:19
wie gesagt,ein normaler gamer sieht keinen unterschied bei der bq.Coda ist ein guru der ganz andere augen hat.;)

dust
2008-07-06, 22:53:31
Dazu sollte man erstmal Benchmarks ohne A.I. und mit den restlichen Optimierungen haben. Das geht aber mit keinem Treiber.

Weil dann könnte man eine Aussage darüber treffen wieviel ATI das Geflimmere derzeit wirklich noch bringt.

deshalb kommen hoffentlich bald bessere open source treiber, da kann man eingreifen und solche optimierungen abschalten und bessere vergleiche machen.

hast du ausprobiert hl2 umzubenennen, damit der treiber es nicht erkennt und optimieren kann? weiss nicht ob das bei dem spiel funktioniert.

Gast
2008-07-06, 22:53:52
Richtig. Ich besitze die "alte" 8800GTX und die 260GTX. Und da flimmert nichts. HQ einstellen und 16AF. Und bei den ATI`S kannst du anscheinend einstellen was du willst, eine einzige Flimmershow. Aber, wie gesagt, Coda bringt ja bald Beweise. We`ll see...

dust
2008-07-06, 22:55:34
wie gesagt,ein normaler gamer sieht keinen unterschied bei der bq.Coda ist ein guru der ganz andere augen hat.;)

so ein geflimmere fällt sehr krass auf, auch mir als laien.

Gast
2008-07-06, 22:55:35
Richtig. Ich besitze die "alte" 8800GTX und die 260GTX. Und da flimmert nichts. HQ einstellen und 16AF. Und bei den ATI`S kannst du anscheinend einstellen was du willst, eine einzige Flimmershow. Aber, wie gesagt, Coda bringt ja bald Beweise. We`ll see...
Und bei Rennspiele siehts auf Ati Karten besser aus.

Gast
2008-07-06, 22:55:58
so ein geflimmere fällt sehr krass auf, auch mir als laien.
Das ist ein Gif Bild und nicht ingame.

Gast
2008-07-06, 22:56:30
Hier wird auf höchsten level gejammert.Typisch 3dcenter halt...

dust
2008-07-06, 22:58:20
Das ist ein Gif Bild und nicht ingame.

das ist unabhängig davon, ein gif flimmert nicht wenn die quelle nicht flimmert.

Gast
2008-07-06, 22:59:33
Oh man. Wegen Rennspiel. Grid sieht göttlich aus. Und nochmal: JA die ATI`S haben Probleme bei der Filterung. Haben es denn soviele an den Augen? Ich kapiers nicht....

dust
2008-07-06, 22:59:38
Hier wird auf höchsten level gejammert.Typisch 3dcenter halt...

flimmern ist nicht akzeptabel, die sollen die verschlechterungen abschaltbar machen und fertig.

Gast
2008-07-06, 23:06:26
Wo liegt der Hund begraben? Von so einem geflimmere kriegt man ja Kopfschmerzen.

weil man immer noch nur die halbe zahl an TMUs hat, die wenn man sie mit dem eigenen vorgänger vergleicht auch noch ineffizienter scheinen.

mit ordentlicher filterung wäre man wohl auch kaum der tolle P/L-knüller, ich glaube kaum dass die 4850 noch vor der 9800GTX wäre.

Blacksoul
2008-07-06, 23:09:36
Das kann man auch anders sehen. Mehr dazu bald.

Coda,

wäre es nicht sinnvoller oder besser für das 3dcenter, wenn du diesbezüglich wenigstens einen Kurzartikel schreiben würdest?
"Techleds" schön und gut (bullshit-bingo ftw), aber das macht das 3dc eben nicht aus. Demnächst kommt noch "Mysterium Wärmeleitpaste! -- Warum tut sie das, was sie tut?!". Und mal ganz unter uns, solche Artikel machen das 3dcenter ja nun wirklich nicht aus.

Es wäre einfach mal ganz nett auf der Hauptseite noch neben Leos persönlichem Blog und Linksammlungen noch einen guten Artikel zu finden. :)


t.b.d

Gast
2008-07-06, 23:11:25
Genau hier muss mal was klargestellt werden. CB geht ja nicht so darauf ein. Oder besser gesagt sehr "schwammig" lol

Coda
2008-07-06, 23:14:50
deshalb kommen hoffentlich bald bessere open source treiber, da kann man eingreifen und solche optimierungen abschalten und bessere vergleiche machen.
Open-Source-Treiber wird's für Windows nicht geben weil das die Treiber-API nur kommerziell verwendet werden kann.

Coda,

wäre es nicht sinnvoller oder besser für das 3dcenter, wenn du diesbezüglich wenigstens einen Kurzartikel schreiben würdest?
Ist bereits in Vorbereitung.

Blacksoul
2008-07-06, 23:19:34
Ist bereits in Vorbereitung.

Das ist klasse! Wirklich.

Ich denke auch, dass das durchaus Einfluss haben könnte.
Klar, ATI/AMD gibt euch zwar erst recht keine Reviewsamples mehr (;D), aber man erinnere sich an den G70-Flimmerartikel und dessen Auswirkungen.
Bei Geizhals ist er immer noch bei den 7er-Karten verlinkt.


t.b.d

Coda
2008-07-06, 23:21:23
Ich hab nur keine GTX 280 das verzögert das ganze etwas. Sonst wird nachher noch wieder behauptet es sei nicht vergleichbar.

meine 8800GT flimmert in CS:Source auch...mit 16xAF, ich bin gespannt auf die Vergleiche
Was du meinst ist sehr wahrscheinlich Shaderflimmern oder Flimmern von Alpha-Tests. Das hat mit dem Texturfilter nichts zu tun.

pest
2008-07-07, 00:36:12
Was du meinst ist sehr wahrscheinlich Shaderflimmern oder Flimmern von Alpha-Tests. Das hat mit dem Texturfilter nichts zu tun.

Alpha-Tests sind doch eher bei halbdurchsichtigen Sachen...
Shaderflimmern...hm ka wie sich das unterscheidet. Sieht jedenfalls ähnlich wie auf deinen Gifs aus, wenn man durch Dust2 stiefelt.

Aquaschaf
2008-07-07, 00:55:36
Also ich finde die GIFs totalen Schrott, so schlimm sieht das in Echt auf keinen Fall aus und ich habe sowohl die 8800er Serie als auch die HD4800er Serie "LIVE" gesehen.

Ich kenne die Qualität der Geforce 8 fast nicht, aber doch: auch im Vergleich zur Radeon 1900XT ist es leider ein spürbarer Rückschritt. Leider fällt es gerade bei älteren Titeln - die noch nichts potentiell durch Shader das verdecken was bei der Filterung nicht sauber läuft - doch sichtbar auf. Obwohl ja gerade dort die Filterleistung da wäre. Und das stört mich nun ehrlich; was hab ich von dem wunderbaren 24x-Edge-Detect-AA, wenn große Bildbereiche wieder am flimmern sind?

A.I.-off-Qualität und dazu die anderen Optimierungen wären ja noch okay.

Die sieht für mich subjektiv immer noch sehr deutlich schlechter aus als R5xx-A.I.-off. Es wäre besser, aber okay leider noch lange nicht.

y33H@
2008-07-07, 01:03:15
Ich habe den ganzen Tag gebencht. Wer ständig die gleichen Szenen auf nem G92, G80, RV670 und RV770 vor den Augen hat, der muss Coda und Raff einfach zustimmen. nV filtert nicht perfekt, aber die Radeons flimmern unübersehbar mehr. Ob AI-low oder AI-off macht imo zwar einen geringfügigen Unterschied, off eliminiert das Flimmern jedoch nicht. Allerdings kann man das imo auf den GIFs nur schlecht erkennen, in realer Bewegung dagegen eindeutig.

cYa

Odal
2008-07-07, 01:06:19
Oh man. Wegen Rennspiel. Grid sieht göttlich aus. Und nochmal: JA die ATI`S haben Probleme bei der Filterung. Haben es denn soviele an den Augen? Ich kapiers nicht....

das ist käse...sobald grid gemodded ist, und das ganze geblure und getinte mal raus ist, flimmert grid auf meiner 88gt deutlich....

@hq mit lod clamp....

erst SSAA macht es einigermaßen erträglich (aber nicht perfekt ist noch weit davon entfernt)

göttlich is da nix....bei weitem nicht

y33H@
2008-07-07, 01:09:04
GRID flimmert auch so, egal ob nV oder DAAMIT.

cYa

Gast
2008-07-07, 01:10:57
das ist käse...sobald grid gemodded ist, und das ganze geblure und getinte mal raus ist, flimmert grid auf meiner 88gt deutlich....

@hq mit lod clamp....

erst SSAA macht es einigermaßen erträglich (aber nicht perfekt ist noch weit davon entfernt)

göttlich is da nix....bei weitem nicht

LOD und Texturfilter anyone? Halt dich bitte raus wenn du den Unterschied nicht kennst.

Gast
2008-07-07, 01:32:27
Hier nochwas zum Schlafengehen http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6583140&postcount=1 schaut euch mal die AF-Blume an. Bilder sagen mehr als tausend Worte. In diesem Sinne, Gutes Nächtle zusammen

Coda
2008-07-07, 01:50:11
Die AF-Blume sagt nur aus welches LOD wo genommen wird, nicht wie gut die Filterqualität ist.

y33H@
2008-07-07, 01:53:48
Vor allem wie soll die Blume in Bewegung flimmern :rolleyes:

cYa

Gast
2008-07-07, 02:32:37
Die AF-Blume sagt nur aus welches LOD wo genommen wird, nicht wie gut die Filterqualität ist.

So siehts aus ;)

reunion@work
2008-07-07, 07:58:44
ohne Vergeich zu NV zieht das nur wieder unreflektiertes Bashing nach sich.

Richtig, ein Vergleich mit einer nV-Karten wäre schon angebracht. Denn es ist ja nicht so das dort nichts flimmert. Viele hochfrequente Texturen neigen einfach zum flimmern, da hilft der beste Filter nichts mehr.

Odal
2008-07-07, 08:16:12
LOD und Texturfilter anyone? Halt dich bitte raus wenn du den Unterschied nicht kennst.

mach die augen auf...ich schrieb das ich lod clamp aktiviert hatte

meld dich bitte an dann darfst du hier auch auf den putz hauen :rolleyes:

Gast
2008-07-07, 08:47:57
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=417434&highlight=grid

Mr. Lolman
2008-07-07, 08:53:33
Nein. Schlicht und einfach nein. A.I. Advanced liefert höhere Frameraten und verbessert deshalb das Bild ganz bestimmt nicht.

Es kommt anscheinend doch auf den Texturinhalt an. Zumindest am R580 wars so, dass ein UT04-Testlevel - nur bei 'bestimmten' sehr hochkontrastigen Texturen mit AIHigh nachweislich langsamer wurde, als mit AIlow. Bei der NFS-Carbondemo konnte ich genau das Gleiche feststellen, und in Just Cause bei gewissen Szenen mit hochkontrastigen Texturen auch...

Bei anderen Spielen, ist AIhigh wiederum flotter oder gleichschnell.

Außerdem ist bei ET:QW die Levelladezeit mit AiHigh deutlich höher als mit AIlow - was dafür spricht, dass die Texturen doch einer umfassenderen Prüfung, als mit AIlow, unterzogen werden.

Odal
2008-07-07, 08:53:34
genau, da war es solang das ingame blur an war ziemlich flimmerfrei (wen wunderts) aber auch nur mit SSAA

ohne ingame blur flimmerts sichtbar

desert
2008-07-07, 10:53:43
Was ich nur wieder merkwürdig und ein bischen komisch finde. Bei dem Test zur 280 gtx finde ich bei der computerbase die reiter, AA Kontrolliert und AF Kontrolliert.

Komischerweise ist die letzte so geteste ATI Karte die HD 2900 XT. Aber wird schon keiner auf die idee gekommen seinen das vielleicht die bildqualität wieder schlechter geworden ist? Und ATI so vielleicht seine leistung holt?.

Wieso traut sich keiner einen ordentlichen test mit a.i. on und a.i. off zumachen. Nur noch fanboys unterwegs.

Hardtecs4u hat ja auch ziemlich schnell damit aufgehört, nachdem man rausgefunden hat das die x1900 teilweise bis zu 50 % verloren hat mit a.i. off.

Bei dem hd 2900 xt test sollten die a.i. off ergebnisse nachgereicht werden, ist bis heute nicht passiert, jetzt steht da wegen der vielzahl der tests wird darauf verzichtet;)

pest
2008-07-07, 11:00:18
Bei dem hd 2900 xt test sollten die a.i. off ergebnisse nachgereicht werden, ist bis heute nicht passiert, jetzt steht da wegen der vielzahl der tests wird darauf verzichtet;)

Man kann die Filteroptimierungen nicht getrennt von anderen sinnvollen Optimierungen abschalten. Deshalb ist der Leistungseinbruch bei A.I. Off nicht nur auf die mittlerweile eh kaum bessere Filterung zurückzuführen.

desert
2008-07-07, 11:19:22
Man kann die Filteroptimierungen nicht getrennt von anderen sinnvollen Optimierungen abschalten. Deshalb ist der Leistungseinbruch bei A.I. Off nicht nur auf die mittlerweile eh kaum bessere Filterung zurückzuführen.


ok geh dann mal nvidia informieren das sie ihren sparfilter aus gf7 wieder einführen können, müssen das halt nur mit anderen sachen koppeln. Das geht dann schon in ordnung und kein mensch fragt mehr nach, solange das mit sinnvollen optimierungen kombiniert wird.

Gast
2008-07-07, 12:01:30
Hier wird ja bald was klargestellt. Soll ja auch nen Artikel geben. Jeder der kein Augenkrebs hat sieht das unruhige Bild am Zaun. Also ich könnte damit nicht leben. Aber immer auf Nvidia hauen wegen dies und das. Ich freue mich schon auf den Artikel.

Gast
2008-07-07, 12:05:32
Man kann die Filteroptimierungen nicht getrennt von anderen sinnvollen Optimierungen abschalten. Deshalb ist der Leistungseinbruch bei A.I. Off nicht nur auf die mittlerweile eh kaum bessere Filterung zurückzuführen.

du glaubst auch noch an dieses PR-märchen?

offiziell gibt es eh nur für doom3 leistungssteigernde optimierungen die mit AI abgeschalten werden, also testet man eben nur andere spiele.

so rein zufällig verliert ATI mit AI-off übrigens ähnlich viel wie G7x mit HQ.

deekey777
2008-07-07, 12:14:04
du glaubst auch noch an dieses PR-märchen?

offiziell gibt es eh nur für doom3 leistungssteigernde optimierungen die mit AI abgeschalten werden, also testet man eben nur andere spiele.

so rein zufällig verliert ATI mit AI-off übrigens ähnlich viel wie G7x mit HQ.
ZB in Crysis wird offiziell (etwas) Shader-Replacement betrieben.

Gast
2008-07-07, 12:25:06
ZB in Crysis wird offiziell (etwas) Shader-Replacement betrieben.

Was heisst hier "offiziell"? Eine Behauptung von AMD?
Wenn Shaderreplacement betrieben wird, dann sollte sich das durch Benches OHNE AA/AF nachweisen lassen.

deekey777
2008-07-07, 12:34:08
Was heisst hier "offiziell"? Eine Behauptung von AMD?
Wenn Shaderreplacement betrieben wird, dann sollte sich das durch Benches OHNE AA/AF nachweisen lassen.
Ja, von AMD. Und ich glaube, Shader-Replacement steht dort an der Tagesordnung (ist ja nichts Schlimmes dabei).
In Crysis kann man das nur mit einer Timedemo nachtesten, bei der es nicht darauf ankommt, wie schnell der PC beim Streamen von Daten ist, sondern einer Timedemo wie Research oder Regulator seinerzeit in Far Cry.

Das sind nicht "mehr Details" sondern schlicht und einfach eine zu hohe Frequenz wegen Unterfilterung.

Genau das ist das Problem an der Sache. Die Leute sind einfach nicht fähig das richtig beurteilen zu können wenn man es ihnen nicht vor die Nase hält:

http://www.mental-asylum.de/files/aioff.gif
http://www.mental-asylum.de/files/aion.gif

Hängt eigentlich das subjektive Empfinden dieser GIFs von der Qualität des Ausgabegerätes (perfekt eingestellte Röhre gegen ein lausig eingestelltes TFT mit Schaltzeiten von 20 ms)?

Gast
2008-07-07, 12:43:20
Hängt eigentlich das subjektive Empfinden dieser GIFs von der Qualität des Ausgabegerätes (perfekt eingestellte Röhre gegen ein lausig eingestelltes TFT mit Schaltzeiten von 20 ms)?

Ist mir auch aufgefallen, daheim am Sony CRT sieht es lange nicht so schlimm aus wie auf meinem Laptop hier bei der Arbeit.

mapel110
2008-07-07, 12:49:16
Ich hab hier einen 22" TFT mit TN-Panel(sind ja berühmt für Schlieren) und ich sehs deutlich. Auf einem CRT sollte mans auch prima erkennen, solange man nicht eine Auflösung verwendet, die die Lochmaske gnadenlos überfährt.

DrumDub
2008-07-07, 12:54:29
Ich hab hier einen 22" TFT mit TN-Panel(sind ja berühmt für Schlieren) und ich sehs deutlich. Auf einem CRT sollte mans auch prima erkennen, solange man nicht eine Auflösung verwendet, die die Lochmaske gnadenlos überfährt. ja, bei mir isses auch auf nem 19" crt mit ner aufllösung von 1152x864 wunderbar zu sehen.

Gast
2008-07-07, 13:56:37
Hängt eigentlich das subjektive Empfinden dieser GIFs von der Qualität des Ausgabegerätes (perfekt eingestellte Röhre gegen ein lausig eingestelltes TFT mit Schaltzeiten von 20 ms)?

auf einem CRT kannst du das ganze durch überfahren der maske oder wenn der bildschirm generell matscht verschleiern, auf einem TFT sollte es immer gut sichtbar sein.

deekey777
2008-07-07, 14:16:27
auf einem CRT kannst du das ganze durch überfahren der maske oder wenn der bildschirm generell matscht verschleiern, auf einem TFT sollte es immer gut sichtbar sein.
Wenn man sich bewegt und das TFT nicht schnell genug ist, so wird das Flimmern durch die Schlierenbildung verdeckt bzw. entschärft.
Oder?

Coda
2008-07-07, 14:45:37
Dann müsste der TFT bei dieser "Framerate" aber schon sehr arg schlieren. Es sind 20ms zwischen den Frames, das sollte bei jedem Billig-TFT reichen.

Gast
2008-07-07, 15:03:02
Wenn man sich bewegt und das TFT nicht schnell genug ist, so wird das Flimmern durch die Schlierenbildung verdeckt bzw. entschärft.
Oder?

das schafft nicht mal ein TFT der ersten generation und schon garnicht ein neuer.

durch die üblicherweise höhere schärfe ist das flimmern meistens deutlich schlimmer.

Tesseract
2008-07-07, 15:03:20
igitt das "on" sieht ja fast wie ungefiltertes pointsampling aus.

Gast
2008-07-07, 15:10:13
igitt das "on" sieht ja fast wie ungefiltertes pointsampling aus.

Du weisst offensichtlich nicht wovon du redest.

Gast
2008-07-07, 15:11:15
Dann formulieren wir es so: Es sieht Potthäßlich aus. So besser?

Tesseract
2008-07-07, 15:17:03
Du weisst offensichtlich nicht wovon du redest.

deine argumente haben mich vollkommen überzeugt!

Gast
2008-07-07, 18:01:59
Du weisst offensichtlich nicht wovon du redest.

offensichtlich, pointsampling mit korrektem LOD würde im minification-bereich nämlich deutlich weniger flimmern.

Gast
2008-07-07, 18:39:09
Immer die gleiche debatte um das Thema.Es kommt immer auf die sicht der tatsache an.Jeder sieht qualität anders.Es gibt genu Leute die von einer 8800 auf eine 3870 gewechselt sind.Viele haben gesagt das sie das Ati Bild besser finden.Man kann sowas nicht veralgemeinern.

Aquaschaf
2008-07-07, 18:49:04
Es gibt genu Leute die von einer 8800 auf eine 3870 gewechselt sind.Viele haben gesagt das sie das Ati Bild besser finden.Man kann sowas nicht veralgemeinern.

Wo, wer hat jemals gesagt dass er das Bild besser findet? Und doch, man kann es verallgemeinern. Unter sinnvollen Maßstäben sieht eine sauberere Filterung allgemein besser aus. Sonst musst du auch akzeptieren dass Leute das Bild ohne Anti-Aliasing besser finden als mit. Kann man zwar; aber in einer Diskussion um Bildqualität ist es reichlich sinnfrei.

Marty98
2008-07-07, 18:50:25
Immer die gleiche debatte um das Thema.Es kommt immer auf die sicht der tatsache an.Jeder sieht qualität anders.Es gibt genu Leute die von einer 8800 auf eine 3870 gewechselt sind.Viele haben gesagt das sie das Ati Bild besser finden.Man kann sowas nicht veralgemeinern.

Das erinnert mich an was (offtopic). Als Cola Zero rauskam, meinte ein Kumpel es schmeckt ihm besser als Cola Light. Da ich gerade beide da hatte habe ich ihn aus zwei Gläsern probieren lassen. Er meinte dann das Cola im linken Glas schmeckt deutlich besser. Beide Gläser hatten Cola Light drin.

In anderen Worten (ontopic): Es sind genug Blinde unterwegs.

Avalox
2008-07-07, 18:59:57
Beide Gläser hatten Cola Light drin.

In anderen Worten (ontopic): Es sind genug Blinde unterwegs.


Was soll man dazu sagen, das linke Glas Cola hat in besser geschmeckt und dagegen kannst du gar nichts sagen. Und wenn das linke Glas nur sauberer, oder einfach nur hübscher war.

Es spielt gar keine Rolle über einen Geschmack zu streiten. Rein subjektiv. Objektiv gar nicht zu betrachten.

Gast
2008-07-07, 19:06:52
95 % der Leute sehen ebend kein unterschied.Es sind vorallem die Leute die sich mit Grafikkarten beschäftigen,die einen unterschied sehen.Leute die Karten zum zocken kaufen juckt der minimale unterschied die bohne.Ausserdem ist HL2 schon alt.Kann mir nicht vorstellen das sowas bei heutigen spielen aufällt...

Marty98
2008-07-07, 19:09:29
Was soll man dazu sagen, das linke Glas Cola hat in besser geschmeckt und dagegen kannst du gar nichts sagen. Und wenn das linke Glas nur sauberer, oder einfach nur hübscher war.

Es spielt gar keine Rolle über einen Geschmack zu streiten. Rein subjektiv. Objektiv gar nicht zu betrachten.

Waren gleiche Gläser und beide kamen direkt aus der Spühlmaschine raus.

Er konnte keinen Unterschied feststellen, aber musste sich festlegen, damit er nicht dumm da steht. Über Geschmack kann man nicht streiten, so lange man brauchbaren Gaumen hat. Zwischen Cola Light und Cola Zero gibt es nur Unterschiede beim Konservierungsstoff, der Süsstoff ist der gleiche. Da jedoch Cola Light verschrien war als Frauenprodukt haben sie ein neues Männerprodukt (Cola Zero) rausgebracht und beinahe das gleiche reingesteckt.

--

Gibt auch Leute die so schlechte Augen haben dass sie nicht mal den Unterschied zwischen AF an/aus oder AA an/aus erkennen. Ich glaube schon dass ihnen dann egal ist was an und was aus ist, jedoch sollten sie sich aus Quali Diskussionen schlichtweg heraushalten.

Beim aktuellen Thema habe ich gar nicht das Gefühl dass es neutrale Leute gibt die Zweifel an Coda's aussagen hegen. Alle dummen Kommentare kamen von Fanboys.

Mich stört Flimmern extrem und zwar auch bei Nvidia HQ. Nur wenn ich SS einschalte bin ich halbwegs zufrieden. Spiele Grid mit 1280x720 8xSQ. Hat sogar bessere Performance als 1600x1200 4x, und subjektiv viel bessere Bildquali.

Gast
2008-07-07, 19:10:21
Jetzt mal Ontopic und ohne Scherz. Wer sieht auf diesen Bildern keinen unruhigen, flackernden Zaun? Ich Ja. Wer das nicht erkennt hat meiner Meinung nach Kartoffeln auf den Augen. Unabhängig ob Ati oder Nvidia, das sieht mistig aus. Und jede Wette macht das die Nvidia besser, was bald bewiesen wird.

Gast
2008-07-07, 19:12:42
Jetzt mal Ontopic und ohne Scherz. Wer sieht auf diesen Bildern keinen unruhigen, flackernden Zaun? Ich Ja. Wer das nicht erkennt hat meiner Meinung nach Kartoffeln auf den Augen. Unabhängig ob Ati oder Nvidia, das sieht mistig aus. Und jede Wette macht das die Nvidia besser, was bald bewiesen wird.

Dann sollte man aber auch noch aktuelle Spiele dagegen testen.Da wird es dann bestimmt nicht auffallen.Wollen wir uns jetzt also alle an Half Life 2 hochziehen was schon lange altbacken?Nene mall ganz locker.Wenn es bei heutigen Spielen auch so extrem ist ok.Dann können wir drüber reden.

pest
2008-07-07, 19:31:38
Wo, wer hat jemals gesagt dass er das Bild besser findet? Und doch, man kann es verallgemeinern. Unter sinnvollen Maßstäben sieht eine sauberere Filterung allgemein besser aus. Sonst musst du auch akzeptieren dass Leute das Bild ohne Anti-Aliasing besser finden als mit. Kann man zwar; aber in einer Diskussion um Bildqualität ist es reichlich sinnfrei.


Ich moechte keinen Streit vom Zaune reissen, da sicherlich viel vom subjektiven Eindruck abhängt , aber meinem persönliches Empfinden nach ist die BQ von ATI bei spielbaren Einstellungen (4xAA) besser als bei NV.
Hatte, bevor ich mir vor 3 Monaten eine 8800GT geholt habe, vorher nur ATIs
in meiner Kiste (zum Schluß eine 1900XT) und das AA (auf 4x) war/ist einfach schlechter bei meiner 8800er (gesehen mit aufgesetzter Brille auf 22' mit nativer Auflösung ).
Die schlechtere AF Qualität bei ATI ist mir dabei noch nicht aufgefallen (hatte damals bei der 1900XT nichts am AF auszusetzen und sofern sich ATI mit der neuen Serie nicht verschlechtert hat.... )

Gruß



Ich empfinde das AA schlechter aber das AF schärfer, obwohl es dadurch wieder auf ne gewisse Art unrealistisch wirkt. Subjektiv halt.

..

Coda
2008-07-07, 19:41:26
Dann sollte man aber auch noch aktuelle Spiele dagegen testen.
Ein anderes Spiel ändert leider überhaupt nichts am Texturfilter.

..
Erstens geht's da im Post von Redneck um die X1900XT die noch eine viel bessere Filterqualität hatte mit A.I. off und zweitens kannst du dir das "schärfere Bild" bei NV auch ohne Probleme besorgen indem du dir ein negatives LOD-Bias einstellst. Dann ist es sogar noch schärfer als bei ATI :ugly:

Ich hasse es wenn versucht wird Unterfilterung als "besser" darzustellen. Genau die Einstellung führt dazu dass irgend ein IHV immer wieder damit rumcheaten muss.

4 Vitamins
2008-07-07, 19:42:39
Das problem wurde hier vor monaten schon disskutiert.
Warum hatt damals niemand einen artikel verfasst?
Weil nvidia "damals" (:biggrin:) unangefochten die nr 1 war.
Heute wird nvidia von amd überrant und es gibt kein hoffnungsschiemer am horizont.
Nun versuchen die krassesten alle n-fanboys die niederlage mit märchengeschichten auszuzügern, was aber nix brinngt.



gruss

pest
2008-07-07, 19:47:01
Erstens geht's da im Post von Redneck um die X1900XT die noch eine viel bessere Filterqualität hatte mit A.I. off und zweitens kannst du dir das "schärfere Bild" bei NV auch ohne Probleme besorgen indem du dir ein negatives LOD-Bias einstellst. Dann ist es sogar noch schärfer als bei ATI :ugly:


ich hatte auch nur eine 1900XT, kann mich also nur daran orientieren, hatte aber A.I. immer on, und ich weiß nicht ob du mich richtig verstanden hast.
NV-Texturen sehen schärfer aus als bei ATI, aber das mag ich nicht (immer).

deekey777
2008-07-07, 19:47:26
Das problem wurde hier vor monaten schon disskutiert.
Warum hatt damals niemand einen artikel verfasst?
Weil nvidia "damals" (:biggrin:) unangefochten die nr 1 war.
Heute wird nvidia von amd überrant und es gibt kein hoffnungsschiemer am horizont.
Nun versuchen die krassesten alle n-fanboys die niederlage mit märchengeschichten auszuzügern, was aber nix brinngt.



gruss
Entweder trägst du nächstes Mal der Diskussion mit einem sinnvollen Posting bei oder es gibt beim nächsten Posting mit ähnlichen Inhalt Punkte.

Coda
2008-07-07, 19:49:23
NV-Texturen sehen schärfer aus als bei ATI, aber das mag ich nicht (immer).
Dann stell halt weniger AF ein. Zudem glaube ich dir das nicht, weil die "Schärfe" maßgeblich vom LOD-Algorithmus abhängt und der ist bei beiden IHVs inzwischen fast perfekt.

Außerdem erzeugt gerade Unterfilterung mehr "Schärfe" im Bild und nicht weniger. Das lässt mich bei so Aussagen auch immer stutzig werden.

Nazar
2008-07-07, 19:52:49
G7x-HQ ist besser als ihr Ruf. Es flimmert/grieselt "regelmäßiger", wohingegen aktuelle Ati-Karten "Flimmerbanding" zeigen (störend weil auffälliger). Dennoch sind Letztere klar schöner, eben weil das AF keine absurde Winkelabhängigkeit zeigt.

MfG,
Raff

Hier verbeisst du dich in etwas. Da nachgewiesen wurde, das der Q/HQ Schalter gerade beim AF keine Wirkung hatte. Mann musste einen Trick anwenden, um die Optimierungen unter HQ auszustellen.
Gabs hier mal einen ellenlangen Thread drüber und im I-Net Guieds wie man das machen musste.
Die 7XXX Reihe von NV hat alles gemacht, nur nicht ordentlich gefiltert.
In WoW gibt es gerade viele Texturen, die sich nur eines wünschen; und zwar zu Flimmern.
Ich hatte erst die GTX7800 und musste selbst unter HQ Kopfschmerzen wegen des Geflimmers bekommen. Mit der X1900XT war das Geschichte.
Und du willst jetzt ernsthaft erzählen, die 7XXX Serie hat besser gefiltert als die HD 4870?
NOT!

Coda
2008-07-07, 19:53:46
Hier verbeisst du dich in etwas. Da nachgewiesen wurde, das der Q/HQ Schalter gerade beim AF keine Wirkung hatte.
Der hatte ganz sicher eine Wirkung. Sowohl bei meiner 6800GT als auch bei der 7800GTX.

Und nein man hat keine "Trick" gebraucht. Mit späteren Treibern hat die 7800GTX exakt gleich "gut" gefiltert wie die 6800GT. Am Anfang war HQ eine Zeit lang schlechter, ja.

Und du willst jetzt ernsthaft erzählen, die 7XXX Serie hat besser gefiltert als die HD 4870?
HQ war auf gar keinen Fall schlechter als A.I. on auf der 4870.

Aber bevor ich sie nicht eingebaut hab und GIFs mache (liegt auch noch rum) glaubt mir ja eh niemand was.

mapel110
2008-07-07, 19:56:36
Der hatte ganz sicher eine Wirkung. Sowohl bei meiner 6800GT als auch bei der 7800GTX.

Und nein man hat keine "Trick" gebraucht. Mit späteren Treibern hat die 7800GTX exakt gleich "gut" gefiltert wie die 6800GT. Am Anfang war HQ eine Zeit lang schlechter, ja.
Es gab zum einen das Problem, dass die Einstellungen in den Treiberprofilen missachtet wurden und zum anderen war doch noch ein weiteres. Um sicher zu stellen, dass HQ aktiv war, sollte man zuerst alle 3 Optimierungen abstellen und erst dann auf HQ schalten.
So laß man es zumindest in einigen Postings von Grestorn.

Coda
2008-07-07, 19:57:28
Ich hatte das Problem wohl nie weil ich damals wahrscheinlich schon nHancer verwendet hatte. Da gab's das nicht. Wenn HQ korrekt eingestellt war war's aber wirklich nicht so übel.

NVIDIA hat sich mit CineFX 3 aber wirklich nicht mit Ruhm bekleckert was den Filter anging.

pest
2008-07-07, 19:58:06
Dann stell halt weniger AF ein. Zudem glaube ich dir das nicht, weil die "Schärfe" maßgeblich vom LOD-Algorithmus abhängt und der ist bei beiden IHVs inzwischen fast perfekt.

Außerdem erzeugt gerade Unterfilterung mehr "Schärfe" im Bild und nicht weniger. Das lässt mich bei so Aussagen immer auch stutzig werden.

Wie ich ein Bild empfinde, kannst du mir (leider) nicht vorschreiben.
und da solche Worte wie flimmern/flackern/grieseln auch subjektive Erfahrungen sind belass' ich es letztendlich bei diesem Satz


CS:Source hat mir auf der X1900XT mit A.I. default,16xAF,4xAA+TransparenzAA auf Qualität besser gefallen als auf der 8800GT@HQ,16xAF,4xAA+TRSSAA


und btw. langsam bekomm ich ne schöne Sammlung


schwachsinniges Argument
Willst du mich verarschen?
So ein Schwachsinnsargument.

Coda
2008-07-07, 19:59:51
Wie ich ein Bild empfinde, kannst du mir (leider) nicht vorschreiben.
Man kann Flimmern sehr wohl objektivieren indem man einfach die Abtastrate ausrechnet.

Es geht hier schließlich darum dass ATI sich hier Performancevorteile erschleicht. Wenn sie deinen heißgeliebten Flimmermodus optimal anbieten würden wäre ja gar nichts einzuwenden dagegen.

und btw. langsam bekomm ich ne schöne Sammlung
Hast du dir offensichtlich auch verdient. Wenn man unschärfere Texturen will dann nimmt man halt weniger AF, was soll man darauf denn bitte sonst noch sagen?

pest
2008-07-07, 20:03:06
Man kann Flimmern sehr wohl objektivieren indem man einfach die Abtastrate ausrechnet.


ja aber nicht wie es auf einen wirkt. Was nützt dir das SNR-Verhältnis bei nem MP3-Codec?



Hast du dir offensichtlich auch verdient.

nur weil ich deine subjektiven Wahrheiten nicht immer teile?

Gast
2008-07-07, 20:03:43
Ich hatte erst die GTX7800 und musste selbst unter HQ Kopfschmerzen wegen des Geflimmers bekommen. Mit der X1900XT war das Geschichte.
Und du willst jetzt ernsthaft erzählen, die 7XXX Serie hat besser gefiltert als die HD 4870?
NOT!


könnte durchaus sein, R6xx+ filtert deutlich schlechter als R5xx, die 7xxx-serie war aber auch alles andere als gut.

Coda
2008-07-07, 20:03:52
nur weil ich deine subjektiven Wahrheiten nicht immer teile?
Es ist nichts subjektiv daran dass ATI auf der 4870 unterfiltert. Das sind Fakten.

Und die Stelle die bei dir auf der 8800GT in CS:S angeblich flimmert solltest du mir auch mal zeigen. Wenn HQ dort flimmert, dann tut es eine X1900XT aber mit absoluter Sicherheit in A.I. on auch. Das kannst du mir einfach nicht erzählen. Ich kenn beide Chips.

Gast
2008-07-07, 20:07:13
Schwachsinn. A.I. Advanced ist wenn dann nur schlimmer, aber ganz sicher nicht besser.

Get over it. Die Filterqualität bei ATI suckt derzeit immer noch.


Doch habe ich. Aber war total unnötig, weil ich eh weiß dass Advanced nur noch schlimmer sein kann. Da wird noch mehr "optimiert".

http://www.mental-asylum.de/files/aioff.gif - Aus
http://www.mental-asylum.de/files/aion.gif - Standard
http://www.mental-asylum.de/files/aihigh.gif - Advanced



Schon mal dran gedacht, dass vor den Brettern ein Maschendrahtzaun steht , dass durch Lichteinfall und die Bewegung dieses "reflexionsspiel" entsteht , was einige als Flimmern erachten?
Nur mal so als Denkanstoss! ich selber hab ne 8800er ;)

Coda
2008-07-07, 20:09:08
Es ist keine Lichtreflexion auf dem Zaun. Und außerdem flimmert das Haus im Hintergrund genauso. Und wenn es nur die Lichtreflexion wäre würde A.I. on/off/high keinen Unterschied machen weil das nichts an der Shaderarithmetik ändert.

Ich hab es satt mich rechtfertigen zu müssen. Das Ergebnis ist eindeutig.

reunion
2008-07-07, 20:09:42
Aber bevor ich sie nicht eingebaut hab und GIFs mache (liegt auch noch rum) glaubt mir ja eh niemand was.

Flimmern tuen viele Texturen auch auf einem G80 auf HQ. Ohne Vergleiche sind solche Dinge eben nur begrenzt Aussagekräftig.

Coda
2008-07-07, 20:10:36
Dann tun sie es auf jedem anderen Chip aber noch viel mehr solange man nicht am Mip-LOD rumspielt.

pest
2008-07-07, 20:10:51
Es ist nichts subjektiv daran dass ATI auf der 4870 unterfiltert. Das sind Fakten.


da hab ich dir auch garnicht wiedersprochen ;)
wie jmd. das resultat beurteilt ist eine andere frage und bzgl. des weniger af
auf der 8800gt ist es eben auf die entfernung zu scharf,
als das es sich mit meiner realitätserfahrung decken würde, bei weniger
af würden die nahen sichtbereiche wieder unschärfer werden und das will ich nicht.


Und die Stelle die bei dir auf der 8800GT in CS:S angeblich flimmert solltest du mir auch mal zeigen. Wenn HQ dort flimmert, dann tut es eine X1900XT aber mit absoluter Sicherheit in A.I. on auch. Das kannst du mir einfach nicht erzählen. Ich kenn beide Chips.

ich habe nicht geschrieben das die 1900XT nicht flimmert.

Gast
2008-07-07, 20:11:22
Ein anderes Spiel ändert leider überhaupt nichts am Texturfilter.


.
Dann ist es doch nicht so ein grosses Thema.Ob Hl2 jetzt besser auf Nvidia aussieht ist schon zualt um drüber diskutieren zumüssen.WEnn sowas bei aktuellen Spielen der fall wär,dann könnte man drüber diskutieren.

vinacis_vivids
2008-07-07, 20:12:30
Also bei Wow konnte ich die Schärfe der texturen bei 16xAF auf weitem Terrain mit der 8800GT gut erkennen. Allerdings hats da meiner Meinung nach geflimmert.

Coda
2008-07-07, 20:13:19
da hab ich dir auch garnicht wiedersprochen ;)
wie jmd. das resultat beurteilt ist eine andere frage und bzgl. des weniger af
auf der 8800gt ist es eben auf die entfernung zu scharf,
als das es sich mit meiner realitätserfahrung decken würde, bei weniger
af würden die nahen sichtbereiche wieder unschärfer werden und das will ich nicht.
Ich will dir jetzt wirklich nicht zu nahe treten, aber bei einem korrekten Visum eines Menschen ist in der Realität immer alles so "scharf" wie möglich, d.h. unendliches AF.

Am besten wäre es daher immer aus der Basistextur zu filtern und dann eben so viele Samples zu nehmen dass Nyquiest mindestens eingehalten wird.

Dann ist es doch nicht so ein grosses Thema.Ob Hl2 jetzt besser auf Nvidia aussieht ist schon zualt um drüber diskutieren zumüssen.WEnn sowas bei aktuellen Spielen der fall wär,dann könnte man drüber diskutieren.
Doch es ist ein großes Thema, weil eine hochfrequente Bodentextur auch in Crysis und in allen zukünftigen Spielen auf einer 4870 flimmern wird.

Also bei Wow konnte ich die Schärfe der texturen bei 16xAF auf weitem Terrain mit der 8800GT gut erkennen. Allerdings hats da meiner Meinung nach geflimmert.
Gerade in WoW flimmert alles deutlich mehr als ein G8x/G9x/G2xx. Das weiß ich aus eigener Erfahrung.

Nazar
2008-07-07, 20:17:07
Der hatte ganz sicher eine Wirkung. Sowohl bei meiner 6800GT als auch bei der 7800GTX.

Und nein man hat keine "Trick" gebraucht. Mit späteren Treibern hat die 7800GTX exakt gleich "gut" gefiltert wie die 6800GT. Am Anfang war HQ eine Zeit lang schlechter, ja.


HQ war auf gar keinen Fall schlechter als A.I. on auf der 4870.

Aber bevor ich sie nicht eingebaut hab und GIFs mache (liegt auch noch rum) glaubt mir ja eh niemand was.

Sorry aber du verrennst dich hier offensichtlich.
Ich hatte von der X800Xt über die 7800GTX, der X1900XT der 8800GTX alle Karten und ich habe sehr empfindliche Augen und stimme dir im Bezug auf das AF "Flimmern" zu. Es ist zu sehen, wenn man extrem darauf achtet. Man muss sich Zeit nehmen und dann sieht man es an speziellen Texturen.

Aber das Du hier allen Ernstes die Filterqualität der 78(9)00 Serie als besser oder gelichwertig zur HD 48XX hinstellst, zeugt von einer stark verklärten Sichtweise.
Never ever hat die 7XXX es geschafft, so gut zu filtern wie die 48XX.
Mein Schwager hat die nämlich geerbt und ich frage in jedesmal weshalb er nicht HQ einstellt, wenn ich sein mieses Bild sehe und jedes mal steht das Teil schon auf HQ.
Ich glaube du "hyperventilierst" zur Zeit ;)

Gast
2008-07-07, 20:18:59
Leute wir drehen uns im Kreis. Die Vergleichsshots fehlen noch. Soweit ich das sehe hakts irgendwo bei der Ati. Ob jetzt mit Absicht geschummelt wird oder die Hardware einen Fehler hat ka. Der Rest wird sich durch Vergleichsbilder zeigen. Seid mal froh das Coda sich bemüht sowas zu machen. Der Rest hier scheint das nicht zu jucken.

Coda
2008-07-07, 20:19:00
Sorry aber du verrennst dich hier offensichtlich.
Das glaube ich nicht. Ich hab ein recht gutes Gedächtnis was solche Dinge angeht.

Aber das Du hier allen Ernstes die Filterqualität der 78(9)00 Serie als besser oder gelichwertig zur HD 48XX hinstellst, zeugt von einer stark verklärten Sichtweise.
Tut es nicht. Es war schon damals so, dass HQ besser gefiltert hat als ein R5xx auf A.I. on solange man kein negatives LOD hatte. Und R6xx filtert noch schlechter.

Das hat nichts mit "verklärter Sichtweise" zu tun. Ich hatte sowohl eine 7800GTX als auch eine X1800XT zu der Zeit. Die GeForce 7 hat einen viel zu schlechten Ruf was das angeht, wahrscheinlich auch weil sie HQ nicht immer korrekt einstellen lässt.

Raff
2008-07-07, 20:19:16
Also bei Wow konnte ich die Schärfe der texturen bei 16xAF auf weitem Terrain mit der 8800GT gut erkennen. Allerdings hats da meiner Meinung nach geflimmert.

WoW flimmert auf jeder Grafikkarte, mit einer aktuellen GeForce und HQ-Filterung aber am wenigsten. Viele Texturen sind einfach evil hochfrequent, etwa der Waldboden mit feinen Schwarz-Grün-Kontrasten. Darauf liegt so mancher Pixel-Shader, der seine Daten aus dem verpfuschten Texturinhalt bekommt - aua. Solch feindlich gesinnten Content kriegt der beste Filter nach normalen Kritierien nicht gebügelt, da hilft nur Oversampling. Mit 2x2 oder gleich 4x4 SSAA flimmert da nix mehr.

Ja, das Spiel flimmert auch auf einer GF8. Auf einem R5x0 mit A.I. Off sieht es genauso aus, mit A.I. On wird's mistig, weil das berüchtigte Flimmerbanding auftritt. Dito R600 und besser ... nur dort lässt sich das fast immer deutlich sichtbare (!) Gefussel aber nicht deaktivieren.

MfG,
Raff

ZÜNDELholz
2008-07-07, 20:20:23
Es ist keine Lichtreflexion auf dem Zaun. Und außerdem flimmert das Haus im Hintergrund genauso. Und wenn es nur die Lichtreflexion wäre würde A.I. on/off/high keinen Unterschied machen weil das nichts an der Shaderarithmetik ändert.

Ich hab es satt mich rechtfertigen zu müssen. Das Ergebnis ist eindeutig.


gereizt? Was ist, wenn das haus ne wellblechverkeidung besitzt?
Gibts da in Bewegung nicht auch ein Lichtspiel, bei Dir Flimmern genannt?

"Und wenn es nur die Lichtreflexion wäre würde A.I. on/off/high keinen Unterschied machen weil das nichts an der Shaderarithmetik ändert"

Dieses on/off ist vielleicht nur dazu da, um diejenigen leute zu befriedigen , welche nur vorm Pc hocken und denen somit das Lichtspiel im Freien völlig fremd ist! Jede Änderung des Lichteinfalles in der Bewegung wird von den Pc-Hockern als Flimmern betrachtet und drehen somit am off-schräubchen...

reunion
2008-07-07, 20:21:14
Es geht hier schließlich darum dass ATI sich hier Performancevorteile erschleicht. Wenn sie deinen heißgeliebten Flimmermodus optimal anbieten würden wäre ja gar nichts einzuwenden dagegen.


Ein gutes Stichwort. Wie sieht es performancemäßig aus zwischen AI_off/standard/high?

Blaire
2008-07-07, 20:21:25
Aber das Du hier allen Ernstes die Filterqualität der 78(9)00 Serie als besser oder gelichwertig zur HD 48XX hinstellst, zeugt von einer stark verklärten Sichtweise.
Never ever hat die 7XXX es geschafft, so gut zu filtern wie die 48XX.


Also HQ G7x war ganz sicher nicht schlechter als X1900 AI Standard meist sogar besser. Das waren auch meine Beobachtungen.

Schlammsau
2008-07-07, 20:22:26
Also HQ G7x war ganz sicher nicht schlechter als X1900 AI Standard meist sogar besser. Das waren auch meine Beobachtungen.
Dummfug, die Filterqualität des G7x war unter aller Sau!

Coda
2008-07-07, 20:22:48
gereizt? Was ist, wenn das haus ne wellblechverkeidung besitzt?
Gibts da in Bewegung nicht auch ein Lichtspiel, bei Dir Flimmern genannt?

"Und wenn es nur die Lichtreflexion wäre würde A.I. on/off/high keinen Unterschied machen weil das nichts an der Shaderarithmetik ändert"

Dieses on/off ist vielleicht nur dazu da, um diejenigen leute zu befriedigen , welche nur vorm Pc hocken und denen somit das lichtspiel im Freien völlig fremd ist! Jede Änderung des Lichteinfalles in der Bewegung wird von den Pc-Hocckern als Flimmern betrachtet und drehen somit am osff-schräubchen...
Es liegt am Texturfilter. Da werde ich nicht mehr darüber diskutieren, weil ich mir darüber technisch absolut sicher bin.

Wer diesem Ammenmärchen von angeblichen "Lichtreflexionen" glauben schenken möchte soll es tun. Ich werde dazu nichts mehr sagen.

Dummfug, die Filterqualität des G7x war unter aller Sau!
Was du so alles als "Dummfug" bezeichnet hast in diesem Thread ist ja bekannt. HQ war mit A.I. on vergleichbar.

Raff
2008-07-07, 20:23:12
Das glaube ich nicht. Ich hab ein recht gutes Gedächtnis was solche Dinge angeht.


Tut es nicht. Es war schon damals so, dass HQ besser gefiltert hat als ein R5xx auf A.I. on solange man kein negatives LOD hatte. Und R6xx filtert noch schlechter.

Das hat nichts mit "verklärter Sichtweise" zu tun. Ich hatte sowohl eine 7800GTX als auch eine X1800XT zu der Zeit. Die GeForce 7 hat einen viel zu schlechten Ruf was das angeht, wahrscheinlich auch weil sie HQ nicht immer korrekt einstellen lässt.

Full Ack (dass ich das nochmal bei dir sagen würde ;)). Quality + "Optimierungen" auf einer GF7 produziert den größten Scheißfilter nach dem R200-AF, HQ ist aber zufriedenstellend ... wenn man mal von der Winkelabhängigkeit absieht. Nur auf das Flimmern bezogen.

MfG,
Raff

Blaire
2008-07-07, 20:23:50
Dummfug, die Filterqualität des G7x war unter aller Sau!

Mit HighQuality ganz und garnicht, sonst hätte ich es ganz sicher nicht lange bei NV ausgehalten.

reunion
2008-07-07, 20:23:51
Tut es nicht. Es war schon damals so, dass HQ besser gefiltert hat als ein R5xx auf A.I. on solange man kein negatives LOD hatte. Und R6xx filtert noch schlechter.


Ai_on ist ident, nur off wurde schlechter.

Coda
2008-07-07, 20:24:37
Okay das kann sein.

Raff
2008-07-07, 20:26:43
Ja, das kann ich bestätigen. Könnte man bei den aktuellen GPUs wie bei R5x0 A.I. wirklich Off'en, würde kaum jemand heulen. Den derben Fps-Einbruch sollte es zumindest bei RV770 dank dickerer Füllrate nicht mehr in der Form geben.

MfG,
Raff

Blaire
2008-07-07, 20:29:36
Full Ack (dass ich das nochmal bei dir sagen würde ;)). Quality + "Optimierungen" auf einer GF7 produziert den größten Scheißfilter nach dem R200-AF, HQ ist aber zufriedenstellend ... wenn man mal von der Winkelabhängigkeit absieht. Nur auf das Flimmern bezogen.


Korrekt. Obwohl G7x HQ schon einen Tick schlechter aussah als auf NV4x. Aber es war akzeptabel in den meisten Fällen.

reunion
2008-07-07, 20:31:54
Mit HighQuality ganz und garnicht, sonst hätte ich es ganz sicher nicht lange bei NV ausgehalten.

Es wurde auch auf HQ gespart. Und HQ war ziemlich sicher nicht besser als AI_off heute auf einem RV770. Q war unter aller Sau und selbst gegen AI_on deutlich unterlegen. Trotzdem jammern genau die Leute, welche sich damals einen G7x angetan haben heute am lautesten über den Filter bei AMD. Doppelmoral ahoi. Nichtsdestotrotz ist dieser Filter heute nicht mehr konkurrenzfähig und keinesfalls gut zu heißen. Gerade das der nahezu perfekte Filter bei R5xx AI_off wieder entfernt wurde ist nicht zu entschuldigen.

Coda
2008-07-07, 20:32:43
Es wurde auch auf HQ deutlich gespart. Und HQ war sicher nicht besser als AI_off heute auf einem RV770.
Hab ich nicht behauptet. Ich sagte dass es nicht schlechter als A.I. on auf RV770 ist. Und ich denke das kommt sehr gut hin.

Und ich habe damals schon über G7x geheult was den Filter angeht. Kannst gerne suchen gehen. Die R5xx war damals keine Alternative aus den gleichen Gründen warum heute G2xx keine ist.

Nazar
2008-07-07, 20:33:42
könnte durchaus sein, R6xx+ filtert deutlich schlechter als R5xx, die 7xxx-serie war aber auch alles andere als gut.

Das ist es ja gerade. Ich spiele immer noch WoW und habe mir den Spass gemacht, ein bischen im Schlingendorntal zu killörn ;)
Das ist ein Gebiet, in dem man sofort sieht ob AF gut oder eben mistig ist und so wie es hier dargestellt, wird ist es ebne nicht.
Es ist spinnerei, wenn jemand behauptet das die 4870 genauso schlecht filtert wie die 7XXX von NV.
Reines Bashing und nichts anderes.
Hier wird ganz klar geistiger Dünnpfiff erzählt.
Ich würde die HD sofort zurückschicken, wenn es wirklich so wäre, wie einige hier in ihrem "Blutrausch" erzählen.
Ich Spiele CoD4 und auch wieder Crysis, HL², CSS, UT³, GTR², usw. und kann sagen, es gibt bei AF einen Unterschied, der aber extrem übertrieben dargestellt wird.
Das Thema wird hier nun ins lächerliche gezogen und das ist Schade, da ich selber dazu einen Thread aufmachen wollte, weil mir das eben aufgefallen ist (unterschwellig) und ich G80 Besitzer fragen wollte, ob diese das mal testen könnten (in WoW und Crysis habe ich das zumindest "bemerkt").
Doch wenn ich solche unhaltbaren Behauptungen wie hier lese, wo wirklich zum Schluss nur noch Aggro geschoben wird und das dazu führt, dass die Leute dann Blödsinn erzählen, dann bin ich froh, dass ich den Thread nicht gestartet habe!

Coda
2008-07-07, 20:34:49
Es ist spinnerei, wenn jemand behauptet das die 4870 genauso schlecht filtert wie die 7XXX von NV.
Wenn es nicht so aufwendig wäre die 7800GTX einzubauen würde ich dir zeigen das dem sehr wohl so ist auf A.I. on.

Doch wenn ich solche unhaltbaren Behauptungen wie hier lese, wo wirklich zum Schluss nur noch Aggro geschoben wird und das dazu führt, dass die Leute dann Blödsinn erzählen, dann bin ich froh, dass ich den Thread nicht gestartet habe!
Und damals war ich unsachlich weil ich mich über G7x beschwert hab. Immer wieder das gleiche Geschwätz.

Gast
2008-07-07, 20:34:54
Ja, von AMD. Und ich glaube, Shader-Replacement steht dort an der Tagesordnung (ist ja nichts Schlimmes dabei).


Ist damit "festes" Replacement gemeint, also einen Shader immer fest durch einen anderen zu ersetzen?
Ich denke, das ist heute nicht mehr machbar, weil die Shader viel zu komplex und lang sind. Für DX8 und 9 mag das bei kurzen Shadern noch gehen, aber IMO erledigt das heutzutage nur noch der Shadercomplier im Treiber.
Also kein starres Ersetzen, sonder richtiges "kompilieren", also den HLSL- oder GLSL-Shader in eine für den Chip verständliche Form möglichst optimal umzusetzen.

Raff
2008-07-07, 20:42:12
Es ist spinnerei, wenn jemand behauptet das die 4870 genauso schlecht filtert wie die 7XXX von NV.
Reines Bashing und nichts anderes.
Hier wird ganz klar geistiger Dünnpfiff erzählt.

Komisch, dass der "Dünnpfiff" in gleicher Konsistenz und Farbgebung aus so vielen Ärschen fließt, gell? Ok, das war vielleicht zu bildlich verfasst. Mea culpa. ;)

Thema Monitor: gaaanz wichtig. Wer kein Flimmern sieht, braucht einen neuen, guten Flachbildschirm. Dann fallen auch die ganzen üblen JPEG-Artefakte überall im Internet auf - das nur am Rande. ;) Auf meinem 8 Jahre alten Aldi-CRT schaut A.I. voll ok aus, auch NV-Quality kann man sich oft geben ...

Will sagen: Neben den Augen ist auch das Ausgabegerät wichtig zur Beurteilung der Filterqualität.

MfG,
Raff

Gast
2008-07-07, 20:44:33
Korrekt. Obwohl G7x HQ schon einen Tick schlechter aussah als auf NV4x.


Wieso eigentlich, ich denke die Chips sind fast identisch, außer daß der G7x mehr Einheiten hat?

Blaire
2008-07-07, 20:46:39
Es wurde auch auf HQ gespart. Und HQ war ziemlich sicher nicht besser als AI_off heute auf einem RV770. Q war unter aller Sau und selbst gegen AI_on deutlich unterlegen. Trotzdem jammern genau die Leute, welche sich damals einen G7x angetan haben heute am lautesten über den Filter bei AMD. Doppelmoral ahoi. Nichtsdestotrotz ist dieser Filter heute nicht mehr konkurrenzfähig und keinesfalls gut zu heißen. Gerade das der nahezu perfekte Filter bei R5xx AI_off wieder entfernt wurde ist nicht zu entschuldigen.

Ich sehe das etwas anders. Meist bekam Nvidia reichlich auf die Mütze teils zurecht garkeine Frage, aber Ati wurde hier praktisch ein Heiligenschein ausgestellt zu UNRECHT und so getan als wären alle Nvidiakarten DIE Flimmerkarten schlechthin. Ich erinnere mich noch wo dei X1800 erschien was wurde da nicht gelobt das endlich weitgehend wuAF zu sehen war und reichlich Screenshots aus der bekannten HL2 Schienenszene waren zu sehen. Aber auf die Filterung wurde nie eingegangen...man gab sich damit zufrieden und immer feste drauf auf Nvidia "Flimmern und kein wuAF..." und Atis Probleme konnten geschickt in den Hintergrund treten. Nun haben wir bei NV endlich vernünftige Filterung , Ati filtert schlechter und alles sei doch garnicht so schlimm ;D :| Wir drehen uns im Kreis entweder oder...was ist dir lieber?

Black-Scorpion
2008-07-07, 20:52:34
Der Unterschied war das nV schon einmal gutes AF hatte und so einen Rotz fabriziert hat.
ATI hatte bis dahin jede Generation das AF auf den damaligen Stand verbessert.
Und das wurde gelobt.
Das nV prügel kassiert war vollkommen zu recht für diesen Rückschritt den sie abgeliefert haben.

Gast
2008-07-07, 20:54:34
Jetzt ist es aber anders rum und jetzt wird nicht mit dem Finger draufgezeigt? Aha, tolle Doppelmoral...

Raff
2008-07-07, 20:54:38
Der Rückschritt kam aber schon mit dem NV40, bekannt als GeForce 6(800) ...

Der Ati-Filter wurde bis zum R520 besser, ja ... aber nun geht's tendenziell bergab.

MfG,
Raff

reunion
2008-07-07, 21:02:55
Ich sehe das etwas anders. Meist bekam Nvidia reichlich auf die Mütze teils zurecht garkeine Frage, aber Ati wurde hier praktisch ein Heiligenschein ausgestellt zu UNRECHT und so getan als wären alle Nvidiakarten DIE Flimmerkarten schlechthin. Ich erinnere mich noch wo dei X1800 erschien was wurde da nicht gelobt das endlich weitgehend wuAF zu sehen war und reichlich Screenshots aus der bekannten HL2 Schienenszene waren zu sehen. Aber auf die Filterung wurde nie eingegangen...man gab sich damit zufrieden und immer feste drauf auf Nvidia "Flimmern und kein wuAF..." und Atis Probleme konnten geschickt in den Hintergrund treten. Nun haben wir bei NV endlich vernünftige Filterung , Ati filtert schlechter und alles sei doch garnicht so schlimm ;D :| Wir drehen uns im Kreis entweder oder...was ist dir lieber?

Naja, man muss das schon etwas differenzierter betrachten. Das letzte mal, dass nV vor G80 den besseren Filter hatte war zu NV3x-Zeiten, und das auch nur zu beginn bis nur noch bri gefiltert wurde. Doch da gab es derart viele andere Nachteile, dass das auch nichts mehr nützte. Mit NV40 führte nV WA-AF ein, dass auch noch mächtig flimmerte auf Q. R420 war hier deutlich weniger flimmeranfällig. Mit R5xx führte AMD WU-AF ein, was natürlich für sehr viel positive Presse sorgte, verschlechterte aber gleichzeitig AI_on, das nun auch flimmerte. Doch da nV bei G7x zumindest zu beginn auch nochmal mit der Filterung weiter nach unten ging störte das niemanden. AI_off blieb zudem weiter perfekt, was es bei nV gar nicht gab.

Mit G80 lieferte nV dann schließlich perfekte Qualität. Inzwischen wurde Ati aber aufgekauft und der R600 wurde zum Desaster. Es sah so aus als ob AMD kurz vor dem Konkurs stehen würde. In einer solchen Situation ist es nur allzu verständlich, dass es nicht viel negative Presse in dieser Hinsicht gab. AMD war auch so schon bedient. Auf jemanden der am Boden liegt, tritt man nicht auch noch drauf. Doch jetzt hat AMD mit RV770 wieder konkurrenzfähige Produkte und muss sich deshalb natürlich auch zu Recht diese Kritik gefallen lassen. Man sollte zumindest endlich wieder die Möglichkeit bieten die man schon zu R5xx-Zeiten hatte. Da RV770 ohnehin 30GTexel/s Filterleistung erreicht sollte das auch nicht mehr so viel kosten.

Blaire
2008-07-07, 21:03:44
Der Rückschritt kam aber schon mit dem NV40, bekannt als GeForce 6(800) ...


Stimmt, NV Quality war damals schon schlimm auf ner 6800 Ultra...HQ war akzeptabel , kostete aber relativ viel Leistung. Aber der Gegenpart die X8x0 hatten ebenso Optimierungen aktiv nur waren diese nicht so extrem sichtbar wie bei NV "Quality" und so kam es zum Mythos das Ati das bessere Bild hatte. Dies setzte sich dann immer weiter so fort.

@Reunion: Gut geschrieben, dagegen gibt es aus meiner Sicht nichts einzuwenden.

Gast
2008-07-07, 21:06:11
Womit sich die Benchmarkwerte wieder Zugunsten Nvidia schieben dürften. Vielleicht äussert sich ATI ja mal dazu. Abwarten und Tee trinken

Coda
2008-07-07, 21:09:00
Naja, man muss das schon etwas differenzierter betrachten. Das letzte mal, dass nV vor G80 den besseren Filter hatte war zu NV3x-Zeiten, und das auch nur zu beginn bis nur noch bri gefiltert wurde. Doch da gab es derart viele andere Nachteile, dass das auch nichts mehr nützte. Mit NV40 führte nV WA-AF ein, dass auch noch mächtig flimmerte auf Q. R420 war hier deutlich weniger flimmeranfällig. Mit R5xx führte AMD WU-AF ein, was natürlich für sehr viel positive Presse sorgte, verschlechterte aber gleichzeitig AI_on, das nun auch flimmerte. Doch da nV bei G7x zumindest zu beginn auch nochmal mit der Filterung weiter nach unten ging störte das niemanden. AI_off blieb zudem weiter perfekt, was es bei nV gar nicht gab.

Mit G80 lieferte nV dann schließlich perfekte Qualität. Inzwischen wurde Ati aber aufgekauft und der R600 wurde zum Desaster. Es sah so aus als ob AMD kurz vor dem Konkurs stehen würde. In einer solchen Situation ist es nur allzu verständlich, dass es nicht viel negative Presse in dieser Hinsicht gab. AMD war auch so schon bedient. Auf jemanden der am Boden liegt, tritt man nicht auch noch drauf. Doch jetzt hat AMD mit RV770 wieder konkurrenzfähige Produkte und muss sich deshalb natürlich auch zu Recht diese Kritik gefallen lassen. Man sollte endlich wieder die Möglichkeit bieten die man schon zu R5xx-Zeiten hatte. Da RV770 ohnehin 30GTexel/s Filterleistung erreicht sollte das auch nicht mehr so viel kosten.
Sehr gute Zusammenfassung und volle Zustimmung.

Tectrex
2008-07-07, 21:27:16
Wollt mir jetzt auch ne 4870 kaufen, aber vorher noch wissen ob die noch immer so flimmern wie bei den 2900er/38x0er Karten. Nur gibt es leider nicht viele Besitzer so einer Karte, die das gerne zugeben^^ Schön das es hier jemanden gibt der das so aufdeckt. Dann wird es wohl doch ne 260er werden. Einige stört so nen flimmern evtl nicht so sehr, aber mich persönlich stört das schon...damals der Verkaufsgrund meiner 2900Pro u. 3850er. Dann ne 8800GT gehabt, da hat mich der VRAM Bug gestört^^ Glaub für mich muss es noch einen weiteren Kartenhersteller geben^^:D

Gast
2008-07-07, 21:28:06
Es gibt noch nichtmal einen Finalen Treiber für den RV770, aber hauptsachen eine Hexenjagd veranstalten :rolleyes:

Tectrex
2008-07-07, 21:29:16
Wieso Hexenjagt, das flimmern gab es schon bei der Vorserie ;)

Gast
2008-07-07, 21:32:00
Hier ist ein Vergleichsbild ATI 4870 zu Nvidia GTX 280
1920 x 1200 8x AA und 16x AF

Die GTX 280 sieht verwaschen, das Bild sieht auf der ATI wesentlich schärfer aus. Besonders gut zu erkennen an dem Rechteck(Konturen) an der Pistolenrückseite(Schlitten) und dem Steinstapel.
In diversen Foren sind diversen Ex-Nvidia-Usern positiv überrascht von der ATI-Bildqualität.

Daja, dafür bügelt die GTX ein paar Frames mehr raus, mehr Quantität halt :D

robbitop
2008-07-07, 21:32:11
Ich kann diese Beobachtungen nur teilen. Mit der R580 als auch mit der R600 sah ich das Flimmern nicht nur bei hochfrequenten Texturen, wie sie in HL2 vorkamen, sondern auch desöfteren in allen anderen Spielen. Beispielsweise die Wegtexturen bei Oblivion.

Dass ATI aufgrund der niedrigeren Füllrate am Texturfilter sparen muss, um nicht einen all zu großen Einbruch bei anisotroper Texturfilterung zu erleben, sollte klar sein.
NVIDIA hat seit dem G80 enormen Aufwand bzw enorm viele Transistoren in die TMUs gesteckt, damit ein vernünftiger Texturfilter bei geringem Performanceeinbruch zur Verfügung steht.
Und was haben wir nicht jahrelang mit dem Kopf geschüttelt und das AF angeprangert.
Läßt man ATI nun diese Unterfilterung durch, bzw lässt die Leute im Unwissen, wird mit Sicherheit genau das gleiche passieren, was seit dem NV30 passierte. Niemand honoriert die Texturfilterung und sie wird wieder eingespart.

Wer den nachweislich schlechteren Texturfilter nicht warhnimmt, kann dennoch nicht behaupten, dass dieser Mangel nicht vorhanden ist. Die Wahrnehmungsschwelle oder sogar die Optik ist in diesem Falle offenbar nicht ausreichend, um dies wahrzunehmen.

Hier ist ein Vergleichsbild ATI 4870 zu Nvidia GTX 280
1920 x 1200 8x AA und 16x AF

Die GTX 280 sieht verwaschen, das Bild sieht auf der ATI wesentlich schärfer aus. Besonders gut zu erkennen an dem Rechteck(Konturen) an der Pistolenrückseite(Schlitten) und dem Steinstapel.
In diversen Foren sind diversen Ex-Nvidia-Usern positiv überrascht von der ATI-Bildqualität.

Daja, dafür bügelt die GTX ein paar Frames mehr raus, mehr Quantität halt :D
Ich empfehle dringend, sofern du hier mitdiskutieren möchtest, dich mit folgenden Themen auseinander zu setzen:

1.) Grundlagen Texturfilterung
2.) LOD, MIPMapping, Lineare Interpolation, Anisotrope Texturfilterung
3.) Signalabtastung und -rekonstruktion (i.V.m. Shanon/Nyquist)

Gast
2008-07-07, 21:32:42
Achso, der Link noch zum vorigen Betrag:
http://www.forumdeluxx.de/forum/showpost.php?p=9490536&postcount=27

Gast
2008-07-07, 21:33:09
ATI 4870

http://www.abload.de/img/atibildsourcefeq.jpg (http://www.abload.de/image.php?img=atibildsourcefeq.jpg)


Nvidia GTX 280

http://www.abload.de/img/nvidiabildc0p.jpg (http://www.abload.de/image.php?img=nvidiabildc0p.jpg)


Beide Bilder sind mit 1920 x 1200 8x AA und 16x AF und alles im Game auf Hoch was nur geht.


Und nü?

Coda
2008-07-07, 21:34:02
Es gibt noch nichtmal einen Finalen Treiber für den RV770, aber hauptsachen eine Hexenjagd veranstalten :rolleyes:
Wenn sie in A.I. on wirklich auf A.I.-off-AF wechseln dann würde ich das natürlich auch entsprechend würdigen.

Nur irgendwie glaube ich nicht so recht daran.

Beide Bilder sind mit 1920 x 1200 8x AA und 16x AF und alles im Game auf Hoch was nur geht.


Und nü?
Man sieht flimmern auf einem Standbild nicht. Unterfilterung erzeugt natürlich ein "schärferes" Standbild das ist dann aber nicht gut sondern schlecht.

Gast
2008-07-07, 21:35:19
Textrex, die 260 gibts für 230 Nüsse. Jetzt kann man schon nicht mehr meckern. Aber pass auf, die fällt weiter. Kannst bedenkenlos zuschlagen. Einfach tolles Kärtchen in jeder Hinsicht:-)

mapel110
2008-07-07, 21:36:10
Achso, der Link noch zum vorigen Betrag:
http://www.forumdeluxx.de/forum/showpost.php?p=9490536&postcount=27
Was soll uns ein Bildervergleich sagen, der unterschiedliche Positionen zeigt?!

Und bravo, mit ATI natürlich dichter an der Mauer dran. Ist klar, dass da höher aufgelöste Texturen zu sehen sind.

Raff
2008-07-07, 21:37:21
Verschiedene Betrachtungswinkel: keine direkte Vergleichbarkeit. Ansonsten siehe Coda. Ja, ich weiß, dass man bei CSS nicht quicksaven kann. ;)

MfG,
Raff

4 Vitamins
2008-07-07, 21:38:59
Achso, der Link noch zum vorigen Betrag:
http://www.forumdeluxx.de/forum/showpost.php?p=9490536&postcount=27


Krass, es ist an der zeit das jemand ein artikel drüber schreibt, da werden ca. 30% der details auf seiten von nvidia eingespart.
Coder das ist dir bestimmt auch aufgefallen, ich meine wenn ich noob das schon sehen kann, was ist deine ferndiagnose?

GRUSS

Gast
2008-07-07, 21:44:03
Robbitop bringts auf den Punkt. Wenn kein Spieler das filtering interessiert wird Nvidia da auch einsparen. Deswegen einfach traurige Atigestalten hier.

Gast
2008-07-07, 21:46:49
wird Nvidia da auch einsparen.

Ach Nvidia spart an andern Stellen falls es dir noch nicht aufgefallen ist. Ich such jetzt aber nicht extram die Berichte zu Crysis und einigen OGL Games raus.
Kannste selbst nach googlen :P

Coda
2008-07-07, 21:49:01
Das waren Treiberfehler. Die gibt's inzwischen nicht mehr.

deekey777
2008-07-07, 22:18:25
ATI 4870

http://www.abload.de/img/atibildsourcefeq.jpg (http://www.abload.de/image.php?img=atibildsourcefeq.jpg)


Nvidia GTX 280

http://www.abload.de/img/nvidiabildc0p.jpg (http://www.abload.de/image.php?img=nvidiabildc0p.jpg)




Beide Bilder sind mit 1920 x 1200 8x AA und 16x AF und alles im Game auf Hoch was nur geht.


Und nü?
[ ] Ich habe den Sinn dieses Threads verstanden.
[X] Ich habe den Beweis gefunden, dass CSS auf einer NV schlechter aussieht als auf einer Radeon. Und ich weiß, dass das mit dem Thema nichts zu tun hat, denn ich habe das Kreuzchen bei der ersten Wahlmöglichkeit nicht gemacht.

Gast
2008-07-07, 22:24:34
Der Unterschied war das nV schon einmal gutes AF hatte und so einen Rotz fabriziert hat.

richtig.

ATI hatte bis dahin jede Generation das AF auf den damaligen Stand verbessert.

falsch, das AF wurde von R3xx auf RV3xx und dann natürlich auch bei R4xx verschlechtert. R5xx war wieder ein fortschritt, allerdings nicht in den standardeinstellungen, R(V)6xx ein weiterer rückschritt.



Das nV prügel kassiert war vollkommen zu recht für diesen Rückschritt den sie abgeliefert haben.

und warum soll man jetzt (eigentlich schon seit über 1 jahr) nicht auf ati genauso einprügeln, schließlich verschlechtern sie auch die qualität von generation zu generation?

Coda
2008-07-07, 22:36:07
[ ] Ich habe den Sinn dieses Threads verstanden.
[X] Ich habe den Beweis gefunden, dass CSS auf einer NV schlechter aussieht als auf einer Radeon. Und ich weiß, dass das mit dem Thema nichts zu tun hat, denn ich habe das Kreuzchen bei der ersten Wahlmöglichkeit nicht gemacht.
Jetzt weiß ich auch was er meint. Da ist die Texturauflösung doch eine ganz andere. Warum auch immer. Das ist ja gar nicht Thema der Diskussion.

Gast
2008-07-07, 22:42:43
Und nü?

toll, du zeigst uns 2 bilder mit ganz offensichtlich unterschiedlicher texturauflösung.

entweder war der ersteller der screenshots zu blöd beide male wirklich höchste detailstufe einzustellen oder aber die source-engine war zu blöd dazu, wäre ja nicht das erste mal, dass diese bei einer ihr unbekannten grafikkarte einen schwachsinn macht.

-Miles_Prower-
2008-07-07, 22:52:50
entweder war der ersteller der screenshots zu blöd beide male wirklich höchste detailstufe einzustellen oder aber die source-engine war zu blöd dazu, wäre ja nicht das erste mal, dass diese bei einer ihr unbekannten grafikkarte einen schwachsinn macht.
Ersteres ist der Fall, auf meiner 260 GTX gibt es keine Probleme mit der Texturauflösung.

Tesseract
2008-07-07, 23:39:04
pointsampling mit korrektem LOD würde im minification-bereich nämlich deutlich weniger flimmern.
pointsampling neigt immer zum flimmern, selbst mit bilinearem lod.

Gast
2008-07-07, 23:41:33
Na primo, mit der Ati High Texturen und NVIDA auf Medium? Ach, und alle flippen aus im deluxx, typisch...da wird vor nichts zurückgeschreckt.

Ich würde mich über einen 3DC Artikel freuen, der das ganze mal neu beleuchtet.

desert
2008-07-07, 23:46:05
ich zitiere mal ein bischen aus dem thread.

..Leider zeigen die Bilder etwas anderes als mir meine Augen und besonders mein Kopf mir sagt nach einer halben Stunde Spielen.
Kopfschmerzen ohne ende selbst mit dem G80, daher sind mir irgennd welche Tools die sagen das nichts Flimmert sowas von egal genau wie die Aussagen von denen dort auch wenn manch einer dort ein Experte ist.

Das war der einzige Grund warum ich damals meine 8800GTX verkauft und die 2900XT gekauft habe.
Leistung hatte die GTX ohne Ende doch ständige kopfschmerzen geht überhaupt nicht, dann lieber Wechseln auf etwas Augen Freundliches...

...Das bei NV das etwas besser ist ist schon lang bekannt und ATI ist beim AF besser Aber das ist nur meckern auf sehr hohem Niveau, nichts weiter.

Ich hab CRYSIS mit einer 8800GT gezockt und das auch geflimmert wie scheiße ....


...du meinst das geflimmer bei tf2, wenn du gefragged wurdest und dann ein bild von demjenigen machen konntest, der dich gekillt hat?
das wurde schon lange behoben.
soweit ich weiss sind die ati treiber um welten besser als die von nv...
bringt nv jeden monat nen neuen treiber raus?....



...Für mich sehen die Texturen der gtx280 klar matschiger aus - besonders an der Kiste gut zu sehen
Hätte ich nicht gedacht, daß der Unterschied so groß ist - für den Mega-Abzock-Preis der gtx280 könnte man schon etwas bessere BQ erwarten ...


Zitat:
Zitat von CBOT
Leider zeigen die Bilder etwas anderes als mir meine Augen und besonders mein Kopf mir sagt nach einer halben Stunde Spielen.
Kopfschmerzen ohne ende selbst mit dem G80, daher sind mir irgennd welche Tools die sagen das nichts Flimmert sowas von egal genau wie die Aussagen von denen dort auch wenn manch einer dort ein Experte ist.

Das war der einzige Grund warum ich damals meine 8800GTX verkauft und die 2900XT gekauft habe.
Leistung hatte die GTX ohne Ende doch ständige kopfschmerzen geht überhaupt nicht, dann lieber Wechseln auf etwas Augen Freundliches.

Ja, ich hab meine 8800gtx auch sehr schnell wieder verkauft... ist einfach kein Vergleich....


das passiert wenn fanboys aktiv werden. jetzt hat schon die 2900 xt die wesentlich besser bq.

Also coda gib es einfach auf. dagegen hast du keine chance, selbst wenn es zeitungen bringen werden, Ati hat immer und überall die bessere bildqualität, das war schon immer so und wird immer so sein und nivida ist nur eine abzockfirma bla bla usw.

Würde es nvidia sein, würde schon ein aufschrei durch das land gehen. aber wie andere vorhin schon schrieben, solange das alles an sinnvolle optimierungen geknüpft ist ist es nicht so schlimm:mad:

mapel110
2008-07-07, 23:52:51
, solange das alles an sinnvolle optimierungen geknüpft ist ist es nicht so schlimm:mad:
Jup, ist auch der Tenor von den Testern von Computerbase. ^^
CF-Benchmarks wären dann ja übrigens gar nicht mehr möglich, wenn man AI ausschalten würde. :uup:

Gast
2008-07-07, 23:54:43
Es gibt noch nichtmal einen Finalen Treiber für den RV770, aber hauptsachen eine Hexenjagd veranstalten :rolleyes:
Es gibt die karten längst zu kaufen - denen liegen wohl treiber bei. Wenn die die hohen standarts von ati nicht erfüllen, dann hätten sie sich eben mehr ranhalten oder den launch verschieben sollen. Für was dem kunden geld abgenommen wird, dass muss sich auch vergleichen lassen - meine Meinung.

Gast
2008-07-07, 23:55:30
Jup, ist auch der Tenor von den Testern von Computerbase. ^^
CF-Benchmarks wären dann ja übrigens gar nicht mehr möglich, wenn man AI ausschalten würde. :uup:
Umso mehr sollten sies endlich trennen. Sonst gibt's demnächst irgendwo Benchies mit BQ-Faktor in die Balkenlänge reingerechnet.

vinacis_vivids
2008-07-08, 00:03:01
Gerade in WoW flimmert alles deutlich mehr als ein G8x/G9x/G2xx. Das weiß ich aus eigener Erfahrung.

Hm ich hab über 2 Jahre Wow gespielt. Mit der 7900GTX hats bei mir arg geflimmert und die Texturen waren nach hinten unscharf, mit der 8800GT waren die Bodentexturen schärfer und es hat trotzdem geflimmert.
Weiß jetzt nicht von welcher Erfahrung zu spricht.

Coda
2008-07-08, 00:05:47
Ich spreche von der Erfahrung dass es wirklich mit jeder Karte schlimmer ist als mit ner GeForce 8+

vinacis_vivids
2008-07-08, 00:12:41
Ich spreche von der Erfahrung dass es wirklich mit jeder Karte schlimmer ist als mit ner GeForce 8+

Wenn meine HD4850 da ist, werd ich mir mal einen Gastaccount anlegen. Das Spiel ist aber für mich eh durchgelutscht.

dust
2008-07-08, 00:19:34
Ich spreche von der Erfahrung dass es wirklich mit jeder Karte schlimmer ist als mit ner GeForce 8+

habe nicht verstanden warum es flimmert. ist besserung in sicht oder muss man damit leben?

Gast
2008-07-08, 00:26:04
Waren wirklich Mid Details auf der NVIDIA, hier der Gegenbeweis: http://www.forumdeluxx.de/forum/showpost.php?p=9492769&postcount=123


Ist doch immer wieder lustig was dort abgeht, jetzt sind bestimmt alle enttäuscht da drüben. Da kann man eigentlich nur noch drüber schmunzeln.

Coda
2008-07-08, 00:32:11
habe nicht verstanden warum es flimmert. ist besserung in sicht oder muss man damit leben?
WoW hat extrem eklige Texturen. Das flimmert einfach immer leider.

Schlammsau
2008-07-08, 00:52:09
lade gerade ein von mir mit FRAPS aufgezeichnetes Video aus CoD4 hoch.
Viele hier wissen evtl. gar nicht (wie auch ich), welche Art von Flimmern gemeint ist.
Das Video ist mit folgenden Settings aufgenommen worden:
1280x1024, 4xAA/16xAF, alle Settings auf Maximum (Treiber und Ingame), A.I@Standard

Link folgt.....

L.ED
2008-07-08, 00:52:20
Aber,
es Flimmert immer, irgendwo und im allgemeinen, ja meistens und über die Spiellandschaft verteilt , ist es noch immer und nach wie vor so. :frown:

Dieser Verhalt hat mich diesbezüglich auch ein wenig nun mittlerweile resignieren lassen, so das mich das primär so lange nicht mehr Interessiert bzw. andere Werte wesentlich vordergründiger (bei Grafikkarten). Bis einer es dann mal hin bekommt, ein sozusagen nahe 1A Bild auf dem Schirm.

Die Technischen Hintergründe dazu warum das so und so ist, sind ja Interessant und gut und schön das zu Wissen, aber solange Hüben wie drüben (egal was man macht), da kein sonderliches weiterkommen zu verzeichnen. Beläuft sich das für mich schlicht auf, zu Kenntnis genommen aber im Grunde genommen Egal, :| denn nur die Hälfte reicht mir diesbezüglich nicht (stellt nicht zufriedener).

Denn finde es eben Beispielsweise nicht sonderlich toll oder viel geholfen wenn auf der einen Seite die Optik schon ganz schön akkurat und akzeptabel, aber im selben Szenario gleich dann irgend nen Shader (oder was weiß ich), munter weiter vor sich hin am Flimmern. ^^

Schlammsau
2008-07-08, 01:04:55
lade gerade ein von mir mit FRAPS aufgezeichnetes Video aus CoD4 hoch.
Viele hier wissen evtl. gar nicht (wie auch ich), welche Art von Flimmern gemeint ist.
Das Video ist mit folgenden Settings aufgenommen worden:
1280x1024, 4xAA/16xAF, alle Settings auf Maximum (Treiber und Ingame), A.I@Standard

Link folgt.....

Hier der Link:
http://rapidshare.de/files/39941657/CoD4_A.I._Standard.avi.html
@Coda
meinst du dieses flimmern?

Gast
2008-07-08, 01:15:00
Grausam das Video

Schlammsau
2008-07-08, 01:15:34
Grausam das Video
Inwiefern?
Ich würde mich über ein Video der gleichen Spielszene, einer nVidia Karte freuen.

Gast
2008-07-08, 01:20:02
An dem Garagentor rechts oder links die Mülleimer furchtbar. Selbst im Vordergrund flimmerts heavy.

Schlammsau
2008-07-08, 01:22:35
Video ohne A.I. kommt gleich.
Voila A.I. Off.....http://rapidshare.de/files/39941855/CoD4_A.I._Off.avi.html

jetzt gilt es nur noch zu beweisen, dass es auf nV Hardware besser aussieht!

Gast
2008-07-08, 01:39:15
Flimmert immer noch trotz AI off hmm

Gast
2008-07-08, 01:50:42
Und wie siehts da mit Advanced aus noch um einiges schlimmer?

Coda
2008-07-08, 01:59:23
Advanced ist von der Filterqualität auf R600+ wohl gleich. Das ersetzt z.B. noch unkomprimierte Texturen mit komprimierten und solche Dinge.

Gast
2008-07-08, 02:30:49
Video ohne A.I. kommt gleich.
Voila A.I. Off.....http://rapidshare.de/files/39941855/CoD4_A.I._Off.avi.html

jetzt gilt es nur noch zu beweisen, dass es auf nV Hardware besser aussieht!
Sieht -zumindest nach meinem Empfinden- auf meiner 9800 GX2 nicht besser aus.
Filtert die 9800GX2 auch nicht richtig?

Gast
2008-07-08, 03:02:02
Hallo,
gibt es ein 3d Modell mit Texturen die dieses Flimmern demonstriert?
Ich meine für 3ds, maya, blender ...
Dann könnte man ja eine Animation "richtig" Rendern - dabei sollte das Texturflimmern ja nicht mehr zu sehen sein - oder?
Und man könnte es in die ein oder andere Game Engine demonstrieren.

Müsste doch gehen - oder?

Marty98
2008-07-08, 03:18:33
WoW hat extrem eklige Texturen. Das flimmert einfach immer leider.

Stimmt nicht ganz, schon ab 2x SS flimmert es kaum noch.

Coda
2008-07-08, 03:20:30
Nun ja, Supersampling jetzt mal beiseite gelassen ;)

Schlammsau
2008-07-08, 09:33:55
Sieht -zumindest nach meinem Empfinden- auf meiner 9800 GX2 nicht besser aus.
Filtert die 9800GX2 auch nicht richtig?

eigentlich hat nV die Filterqualität seit dem G80 nicht mehr verändert, d.h. deine GX2 dürfte nicht "flimmern".

@Coda
ich warte immer noch auf dein Statement.

Raff
2008-07-08, 10:05:39
jetzt gilt es nur noch zu beweisen, dass es auf nV Hardware besser aussieht!

Ich kann dein Video nicht ansehen und auch keines liefern, da ich auf einer Insel ohne PC hocke, aber ich kann dir sagen, dass eine GF8/9/10 auch in CoD 4 besser filtert als eine aktuelle Radeon - allerdings nicht überdeutlich. Ich hab' Hunderttausendmal "Der Sumpf" (Kapitel I) gebencht. Renn mal da lang und frapse 10 Sekunden. Der Boden mit dem Flimmershader ist auf einer GeForce nicht komplett ruhig, aber besser als mit einer A.I.-igen Radeon.

MfG,
Raff

Schlammsau
2008-07-08, 12:13:18
Ich kann dein Video nicht ansehen und auch keines liefern, da ich auf einer Insel ohne PC hocke, aber ich kann dir sagen, dass eine GF8/9/10 auch in CoD 4 besser filtert als eine aktuelle Radeon - allerdings nicht überdeutlich. Ich hab' Hunderttausendmal "Der Sumpf" (Kapitel I) gebencht. Renn mal da lang und frapse 10 Sekunden. Der Boden mit dem Flimmershader ist auf einer GeForce nicht komplett ruhig, aber besser als mit einer A.I.-igen Radeon.

MfG,
Raff

werd ich später mal testen....
Aber was meinst du mit überdeutlich?

Gast
2008-07-08, 12:55:06
pointsampling neigt immer zum flimmern, selbst mit bilinearem lod.

schon, aber deutlich weniger als diese tollen "optimierungen"

Tesseract
2008-07-08, 15:46:01
schon, aber deutlich weniger als diese tollen "optimierungen"
das halte ich für ein gerücht.
absehen von ein paar sehr speziellen sonderfällen können die optimierungen garnicht so schlimm sein, um so ein niveau zu erreichen.

Coda
2008-07-08, 18:08:41
Wie kommst du eigentlich darauf? Mit Mipmapping sollte Pointsampling eigentlich nicht flimmern, vor allem wenn man bilerp bei den Mips macht.

Mr. Lolman
2008-07-08, 19:41:22
Wie kommst du eigentlich darauf? Mit Mipmapping sollte Pointsampling eigentlich nicht flimmern, vor allem wenn man bilerp bei den Mips macht.

Beim Pointsampling hast du innerhalb der Mips immer harte Übergänge zw. den einzelnen Texeln. Imo muss das flimmern, egal wie toll die Mips sind.

Xmas
2008-07-08, 21:01:17
Wie kommst du eigentlich darauf? Mit Mipmapping sollte Pointsampling eigentlich nicht flimmern, vor allem wenn man bilerp bei den Mips macht.
Pointsampling flimmert selbst mit linearem Mipfilter ziemlich übel. Ich wüßte auch nicht warum es "eigentlich nicht flimmern" sollte, denn auch von der Theorie her ist das Murks. Sonst könnte man sich ja gleich den bilinearen Filter sparen.

Mich würden bei der Diskussion auch mal Bilder/Animationen mit Narrow und Wide Tent Filter interessieren.

Coda
2008-07-09, 00:58:55
Naja die groben Texel sollten ja trotzdem nicht höherfrequenter sein als die maximale Abtastrate bei dem Mip-Level, oder nicht?

Ich habe Pointsampling schon lange nicht mehr gesehen, kann schon sein dass ihr recht habt.

Raff
2008-07-09, 10:18:40
werd ich später mal testen....
Aber was meinst du mit überdeutlich?

Ich meine, dass der Unterschied zwischen GeForce-HQ und Radeon nicht Himmel und Hölle gleichkommt, wie etwa bei WoW.

Mich würden bei der Diskussion auch mal Bilder/Animationen mit Narrow und Wide Tent Filter interessieren.

Hmja, die könnten helfen, das Flimmern einzudämmen. Aber dummerweise dämmen sie auch die Schärfe des Rests ein ... Eine Art "Shimmer Detection"-CFAA wäre nett. ;)

MfG,
Raff

misterh
2008-07-09, 11:13:02
Narrow und Wide Tent und Edge Filter sind einfach sinnlos für mich

HL2-LC-1920x1080-8xAA-16xAF-AI off-AAAQuality-Box
http://s2.directupload.net/images/080709/temp/kbkulf2n.jpg (http://s2.directupload.net/file/d/1485/kbkulf2n_jpg.htm)

HL2-LC-1920x1080-8xAA-16xAF-AI off-AAAQuality-Narrow
http://s6.directupload.net/images/080709/temp/49qzxvcs.jpg (http://s6.directupload.net/file/d/1485/49qzxvcs_jpg.htm)

HL2-LC-1920x1080-8xAA-16xAF-AI off-AAAQuality-Wide
http://s6.directupload.net/images/080709/temp/krjmo3ue.jpg (http://s6.directupload.net/file/d/1485/krjmo3ue_jpg.htm)

HL2-LC-1920x1080-8xAA-16xAF-AI off-AAAQuality-Edge
http://s8.directupload.net/images/080709/temp/9brxhx6x.jpg (http://s8.directupload.net/file/d/1485/9brxhx6x_jpg.htm)

aths
2008-07-09, 13:33:08
Naja die groben Texel sollten ja trotzdem nicht höherfrequenter sein als die maximale Abtastrate bei dem Mip-Level, oder nicht?

Ich habe Pointsampling schon lange nicht mehr gesehen, kann schon sein dass ihr recht habt.Da bei MIP-Map-Interpolation traditionell eine halbe MIP unterfiltert wird, flimmert Pointsampling. Mit LOD-BIAS +0,5 würde man das Nyquist-Shannon-Theorem einhalten.



Hmja, die könnten helfen, das Flimmern einzudämmen. Aber dummerweise dämmen sie auch die Schärfe des Rests ein ... Eine Art "Shimmer Detection"-CFAA wäre nett. ;)Bringt nichts, da die "Flimmer-Energie" nur verteilt wird.

Xmas
2008-07-09, 13:41:38
Naja die groben Texel sollten ja trotzdem nicht höherfrequenter sein als die maximale Abtastrate bei dem Mip-Level, oder nicht?
Die ungefilterten harten Übergänge beim Pointsampling sind mit Sicherheit höherfrequenter.

Hmja, die könnten helfen, das Flimmern einzudämmen. Aber dummerweise dämmen sie auch die Schärfe des Rests ein ...
So dumm ist das häufig gar nicht.


misterh,

Edge und Box sehen fast gleich aus – da scheint irgendwas nicht richtig zu funktionieren. Wide Tent ist zu extrem, aber Narrow Tent erscheint mir in den Bildern teilweise sogar angenehmer als Box. Natürlich ist es auch "unschärfer" was vor allem im direkten Vergleich auffällt, aber das soll es auch sein.

misterh
2008-07-09, 14:49:52
misterh,

Edge und Box sehen fast gleich aus – da scheint irgendwas nicht richtig zu funktionieren. Wide Tent ist zu extrem, aber Narrow Tent erscheint mir in den Bildern teilweise sogar angenehmer als Box. Natürlich ist es auch "unschärfer" was vor allem im direkten Vergleich auffällt, aber das soll es auch sein.

also jedenfall habe ich das per CCC ausgewählt und dann getestet.

Was falsch gemacht zu haben, könnte ich mir nicht vorstellen.
Mal auf neuen Treiber abwarten.

Gast
2008-07-09, 15:27:55
also jedenfall habe ich das per CCC ausgewählt und dann getestet.

Was falsch gemacht zu haben, könnte ich mir nicht vorstellen.
Mal auf neuen Treiber abwarten.

Vielleicht funzt es nur ohne aaa...