PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Doch schlechtere BQ mit 180.48?


Ernie
2008-12-16, 10:48:39
Hi!

Alle Welt schreibt, dass der Performancezuwachs nicht mit schlechterer BQ erkauft wurde. Dennoch sehe ich erhebliche Unterschiede in der BQ. Es sieht so aus, als ob die Lichtberechnung einem stärkeren LOD (anders ausgedrückt: ab 100 Meter, oder je nach Game "optimiert", keine differenzierte Lichtberechnung mehr) unterworfen worden ist. Deutlich zu sehen in den Screenshots der PCGH bei Grid und FC2.
http://www.pcgameshardware.de/aid,670216/Test/Benchmark/Radeon_gegen_Geforce-_Vergleich_der_Bildqualitaet_in_9_Spielen/

Achtet bitte generell auf "entferntere" Bereiche, bei Grid z.B. auf den hinteren Bereich der Fahrbahn. Diese ist "platter" dunkel, die weißen Linien leuchten nur noch gleichmäßig, während sie mit vorherigen Treibern differenziert und unetschiedlich ausgeleuchtet sind. Deutlich zu sehen auch auf dem Vergleich bei Assassins Creed: http://www.pcgameshardware.de/aid,670216/Test/Benchmark/Radeon_gegen_Geforce-_Vergleich_der_Bildqualitaet_in_9_Spielen/?page=2

Der hintere Schatten ist nicht mehr klar differenziert, sondern schlicht und einfach "gerade" wie mit dem Lineal! Na, wenn das keien schlechtere BQ sein soll, dann Prosit.

Megamember
2008-12-16, 11:32:57
Kann ich nicht nachvollziehen, ich seh da beim besten Willen keine Unterschiede. Einzig das bei den Atis die Schienen bei FC2 noch einen kleinen Schattenwurf machen der bei Nvidia fehlt. Das die eine Stelle bei Assasins Creed (Fahne) im Hintergrund etwas verschwommen aussieht liegt wohl eher an einem unterschiedlichen (ungünstigeren) Zeitpunkt des Screenshots.

Mr. Lolman
2008-12-16, 11:38:10
Das ist ja alles wurscht, denn wie wir alle wissen ist die Flimmeranfälligkeit beim AF ein viel wichtigeres Kriterium...

Ernie
2008-12-16, 11:53:40
Kann ich nicht nachvollziehen, ich seh da beim besten Willen keine Unterschiede. Einzig das bei den Atis die Schienen bei FC2 noch einen kleinen Schattenwurf machen der bei Nvidia fehlt. Das die eine Stelle bei Assasins Creed (Fahne) im Hintergrund etwas verschwommen aussieht liegt wohl eher an einem unterschiedlichen (ungünstigeren) Zeitpunkt des Screenshots.

Achte bitte auf das erste Bild im Link zu Assassins Creed. Rechts neben dem vorderen Pavillion ist der Schattenwurf auf das Gebäude im Hintergrund mit dem neuen Treiber (MouseIn!) völlig undifferenziert.

Edit:
ATI scheint bei diesem Game übrigens die gleiche Optmierung vorgenommen zu haben, wie aus dem Vergleich Cat 8.11 zu 8.12 zu entnehmen ist.

Mr. Lolman
2008-12-16, 12:11:13
Einzig das bei den Atis die Schienen bei FC2 noch einen kleinen Schattenwurf machen der bei Nvidia fehlt.

Und bei Left 4 Dead sind die Schatten bei NV härter abgestuft und bei Crysis wird bei NV stark brilinear gefiltert (fast bilinear),...

Achte bitte auf das erste Bild im Link zu Assassins Creed. Rechts neben dem vorderen Pavillion ist der Schattenwurf auf das Gebäude im Hintergrund mit dem neuen Treiber (MouseIn!) völlig undifferenziert.

Edit:
ATI scheint bei diesem Game übrigens die gleiche Optmierung vorgenommen zu haben, wie aus dem Vergleich Cat 8.11 zu 8.12 zu entnehmen ist.

AC ist für so einen Vergleich eher suboptimal, da sich durch dynamische Wolkenschatten der Bildinhalt andauernd ändert und es deswegen quasi unmöglich ist, 2 Bilder mit genau dem gleichen Inhalt anzufertigen...

Nazar
2008-12-16, 12:20:10
Beim Crysis Ausschnitt kann man deutlich sehen wie sich NV diesen Performanceboost erkauft.

Achtet mal auf die Wellblechütte rechts und auf die Bodentexture Details die weiter hinten komplett verschluckt werden.
Und das hat nichts mehr nur mit "Schärfe" zu tun.
Da wird bei weitem nicht so hoch aufgelöst, wie es sein sollte.
Und NV hat es irgenwie hinbekommen, das man die "Bodenwelle" nicht mehr sieht aber auf dem Screen sieht man deutlich wie die Bodentexturen schon nach 1 paar metern komplett "verissen" werden (sofort oberhalb des Crosshairs).

Man kann zwar versuchen die BQ zu vergelichen aber mit dem neuen Treiber hat sich NV ins Knie geschossen... ich bin lebe da lieber mit diesem "extremen" Flimmern als mit diesen Matschtexturen :D
Andere AF Stufe als bei den ATI Shots?

Megamember
2008-12-16, 12:25:13
Das ist komisch. Bei Nvidia ist das Wellblech im Hintergrung schärfer als bei Ati aber der Boden im Vordergrund ist matschiger (dafür halt nicht flimmrig).

Edit: Seh grad das das 16AF sein soll. Das sieht bei mir aber deutlich anders aus. Der Boden ist viel!!!!! schärfer

Ernie
2008-12-16, 12:25:30
AC ist für so einen Vergleich eher suboptimal, da sich durch dynamische Wolkenschatten der Bildinhalt andauernd ändert und es deswegen quasi unmöglich ist, 2 Bilder mit genau dem gleichen Inhalt anzufertigen...

Edit:
Wahrscheinlich liegt es wirklich am dynamischen Wolkenschatten. AUf den vergrößerten Aufnahmen sehen die Schatten bei AC ähnlich differenziert aus.

Mr. Lolman
2008-12-16, 13:02:34
Das ist komisch. Bei Nvidia ist das Wellblech im Hintergrung schärfer als bei Ati aber der Boden im Vordergrund ist matschiger (dafür halt nicht flimmrig).

Edit: Seh grad das das 16AF sein soll. Das sieht bei mir aber deutlich anders aus. Der Boden ist viel!!!!! schärfer

Das kommt vom POM. POM + 16xAF bringt so komische Ergebnisse (wo der Tester dann sich tw auch zu dem Schluß genötigt fühlt, dass das Bild ohne AF die beste Texturqualität hat ;))

Coda
2008-12-16, 15:33:17
Ernie auf diesem Level sind überhaupt keine "Optimierungen" möglich. Der Treiber hat überhaupt keine Informationen darüber was er rendert.

Könnt ihr bitte mal aufhören Gespenster zu sehen? Und ja, das gilt für beide IHVs - solange es nicht Shaderreplacements sind.

Nazar
2008-12-16, 15:39:57
Ernie auf diesem Level sind überhaupt keine "Optimierungen" möglich. Der Treiber hat überhaupt keine Informationen darüber was er rendert.

Könnt ihr bitte mal aufhören Gespenster zu sehen? Und ja, das gilt für beide IHVs - solange es nicht Shaderreplacements sind.

Wer sieht da wo Gespenster?
Offensichtlicher geht es kaum noch... die Schatten- und Texturedarstellung ist bei den NV Shots deutlich schlechter als bei denen von ATI oder welche Gespenster werden hier gesehen?

Coda
2008-12-16, 15:42:32
Das ATI einen besseren Texturfilter hat meinst du ja wohl nicht ernst? Das kann ich dir sogar bald objektiv wiederlegen.

Bei den Schatten ist vor allem die Rechengenauigkeit ein Problem. Aber welche Bilder meinst du überhaupt?

deekey777
2008-12-16, 16:07:47
Und bei Left 4 Dead sind die Schatten bei NV härter abgestuft ...
Unterschiedliche Schattenfilter?

Coda
2008-12-16, 16:19:00
Genau sowas meine ich. Das ist ein Programm. Der Shadercompiler müsste um dort in diese Richtung zu "optimieren" den Code verstehen können. Das kann ja in den meisten Fällen noch nichtmal ein Mensch wenn er nur das Assemblat hat.

Das sind eindeutig kleinere Abweichungen der Rechengenauigkeit. Und nein, es ist nicht klar, was schneller ist.

=Floi=
2008-12-16, 16:50:05
da wurde treiber default getestet...
schalt mal clamp aus und dann noch die trilineare optimierung und du hast ist crysis genau so ein scharfes bild, das flimmert.
clamp muß quasi immer an sein und es geht auf die ferne nicht flimmerfrei mit schafen texturen. Ich finde das passt schon so und wirkliche unterschiede sehe ich da bei beiden karten nicht.
Da gab es schon gröbere sachen wie die gröberen texturen und call of juarez bei ati

Schlammsau
2008-12-17, 11:12:44
Für mich sehen die allermeisten Bilder absolut identisch aus. Bis auf Crysis, dort sind bei den nVidia Karten, die Texturen mehr als deutlich schlechter gefiltert als bei ATi! Is mir schon klar, warum das weniger flimmern soll und auch schneller ist. :rolleyes:

V2.0
2008-12-17, 11:24:35
Unterschiedliche Schattenfilter?

Wurde nicht primär die Lampe heller?

Raff
2008-12-17, 11:54:34
Für mich sehen die allermeisten Bilder absolut identisch aus. Bis auf Crysis, dort sind bei den nVidia Karten, die Texturen mehr als deutlich schlechter gefiltert als bei ATi! Is mir schon klar, warum das weniger flimmern soll und auch schneller ist. :rolleyes:

Nimm dir eine Geforce (ok, das würdest du nicht tun ;)) und stell das Texture LOD via Rivatuner auf -0,5. Dann filtert die Karte auch so schön "scharf" wie die Radeon. Sogar schärfer. Noch besser wird's mit -2.

Wer in diesem Posting Schwachsinn findet, darf ihn deuten.

MfG,
Raff

Schlammsau
2008-12-17, 12:21:03
Nimm dir eine Geforce (ok, das würdest du nicht tun ;)) und stell das Texture LOD via Rivatuner auf -0,5. Dann filtert die Karte auch so schön "scharf" wie die Radeon. Sogar schärfer. Noch besser wird's mit -2.

Wer in diesem Posting Schwachsinn findet, darf ihn deuten.

MfG,
Raff

Im moment würde ich mir keine Geforce holen, weil sie mir zu teuer sind! ;)
Vielleicht mal wieder wenn sie billiger werden.
Aber mal ehrlich, wenn ich die beiden Crysis Bilder vergleiche, gefällt mir das ATi Ergebniss um Welten besser. Da sch**** ich auf das etwas mehr "flimmern". :cool:

Mr. Lolman
2008-12-17, 12:24:48
Nimm dir eine Geforce (ok, das würdest du nicht tun ;)) und stell das Texture LOD via Rivatuner auf -0,5. Dann filtert die Karte auch so schön "scharf" wie die Radeon. Sogar schärfer. Noch besser wird's mit -2.

1. Crysis nutzt wohl kein negatives LOD
2. ändert das auch nix an der Fastbiliniarität des TF bei den NV-Karten (zumindest am Boden bei aktiviertem POM)
3. würde negatives LOD auf GFs ohnehin deutlich stärker flimmern als auf Radeons.


EDIT:


Ähnlich war das einst auf Nvidias NV40 aka Geforce 6800: Auf Bildern oft "knackig scharf" bewertet, induzierte der Filter ingame auf der Stelle ein Augenkarzinom. Und das wurde zu Recht an den Pranger gestellt. Wenn Sie einen ähnlichen Unterfilter/Flimmereffekt nachstellen möchten, sollten Sie mal im Rivatuner das Texture LOD auf -0,5 (oder besser -2) stellen. ;-) HQ-AF auf der Geforce ist nahe an der flimmerfreien Perfektion.

Das Geflimmer fällt ja ohnehin nur in Bewegung auf, und da dürfte wohl bei so ziemlich jedem, das Ausgabegerät viel mehr kaputt machen, als das AF. Ich hab mit dem 19" Benq FP93GX+ so ziemlich den schnellsten TFT überhaupt - auch alle neuesten 22" Zoll Geräte sind deutlich schwächer als der Benq - und trotzdem hat imo die Reaktionszeit des TFTs einen deutlich größeren Einfluss auf die BQ, als ATis aktuelles AF (was natürlich nicht heißt, das ich Verbesserungen nicht begrüßen würde). Aber dem unbedarften NV-User zu erzählen, dass er das LOD auf -2 setzen soll um zu sehen, wie ATIs AF flimmert, fällt schon fast unter Rufschädigung. Nochdazu wo der Hr. Raff ohnehin ganz genau weiß, warum NV den Clamp-Schalter überhaupt einbauen musste. Außerdem waren die NV40 Screenshots immer unschärfer (solang kein biAF zum Einsatz kam) als die der Radeons - und trotzdem flimmriger!


Wie schon mehrfach gesagt - trotz des zu scharfen AFs - spiel ich das ein oder andere Spiel gern mit LOD -1. Warum? Darum: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6936079&postcount=166


BTW: Bezügl. TFT-Reaktionszeiten ist übrigens xbitlabs eine super Quelle...



Unterschiedliche Schattenfilter?

Mag schon sein. Die Frage ist nur woher die kommen.

deekey777
2008-12-17, 12:40:15
Wurde nicht primär die Lampe heller?
In L4D sieht man, dass die Leuchte auf 8.12 (http://www.pcgameshardware.de/aid,670216/Test/Benchmark/Radeon_gegen_Geforce-_Vergleich_der_Bildqualitaet_in_9_Spielen/&menu=browser&image_id=951606&article_id=670216&page=2&show=original) und 180.48 (http://www.pcgameshardware.de/aid,670216/Test/Benchmark/Radeon_gegen_Geforce-_Vergleich_der_Bildqualitaet_in_9_Spielen/&menu=browser&image_id=951624&article_id=670216&page=3&show=original) nicht exakt gleich den Raum beleuchtet, aber ich glaube kaum, dass das beim Schattenfilter berücksichtigt wird.

Es wäre denkbar, dass hier hardware-spezifische Eigenschaften zum Tragen kommen.

V2.0
2008-12-17, 13:55:21
In L4D sieht man, dass die Leuchte auf 8.12 (http://www.pcgameshardware.de/aid,670216/Test/Benchmark/Radeon_gegen_Geforce-_Vergleich_der_Bildqualitaet_in_9_Spielen/&menu=browser&image_id=951606&article_id=670216&page=2&show=original) und 180.48 (http://www.pcgameshardware.de/aid,670216/Test/Benchmark/Radeon_gegen_Geforce-_Vergleich_der_Bildqualitaet_in_9_Spielen/&menu=browser&image_id=951624&article_id=670216&page=3&show=original) nicht exakt gleich den Raum beleuchtet, aber ich glaube kaum, dass das beim Schattenfilter berücksichtigt wird.

Es wäre denkbar, dass hier hardware-spezifische Eigenschaften zum Tragen kommen.

Ich meinte vom 178.24 zu 180.48.

deekey777
2008-12-17, 14:17:55
Ich meinte vom 178.24 zu 180.48.
184.84 liefert das Bild wie das der Radeon (mit 8.12). Ich glaube eher, dass der Fehler beim 178er liegt.

Mr. Lolman
2008-12-17, 14:24:52
184.84 liefert das Bild wie das der Radeon (mit 8.12). Ich glaube eher, dass der Fehler beim 178er liegt.

Nö. Schau dir mal beim Mouseover Ausschnitt die Schatten an.

deekey777
2008-12-17, 14:29:36
Nö. Schau dir mal beim Mouseover Ausschnitt die Schatten an.
Lass doch die Schatten endlich in Ruhe. Man sieht doch, dass sie unterschiedlich gefiltert sind, was wohl darauf zurückzuführen ist, dass es sich einmal um eine Geforce und dann um eine Radeon handelt.

Mr. Lolman
2008-12-17, 14:37:19
Lass doch die Schatten endlich in Ruhe. Man sieht doch, dass sie unterschiedlich gefiltert sind, was wohl darauf zurückzuführen ist, dass es sich einmal um eine Geforce und dann um eine Radeon handelt.

Glaub ich nicht, Tim. Denn soweit ich am Fitzelbild erkennen kann, waren die Schatten mit dem 178er Treiber noch weicher.

V2.0
2008-12-17, 15:14:20
Was schwer zu sagen ist, weil die Lampe dunkler war und der Kontrast geringer.

Mr. Lolman
2008-12-17, 15:25:28
Was schwer zu sagen ist, weil die Lampe dunkler war und der Kontrast geringer.

Stimmt. Wahrscheinlich hab ich mich davon täuschen lassen. :redface:


EDIT: Kann das sein, dass PCGH die NFS-Screenshots vertauscht hat? Ich kann mir irgendwie nicht ganz vorstellen, dass der 8.12 vgl. zum 178.24 ein identisches Bild berechnet.

Gast
2008-12-17, 15:35:00
und zack! kann es sich auf einmal nur um ein irrtum handeln :ugly:

Gast
2008-12-17, 17:08:27
Und bei Left 4 Dead sind die Schatten bei NV härter abgestuft.

http://www.hardocp.com/article.html?art=MTU4OSw4LCxoZW50aHVzaWFzdA==

Schlammsau
2008-12-17, 17:19:15
http://www.hardocp.com/article.html?art=MTU4OSw4LCxoZW50aHVzaWFzdA==
Cat 8.11 ;)

Gast
2008-12-17, 17:28:19
Cat 8.11 ;)

Was macht das für einen Unterschied?

Schlammsau
2008-12-17, 17:37:13
da kommste schon selber drauf! ;)

Gast
2008-12-17, 17:38:08
da kommste schon selber drauf! ;)

Wurde es gefixt? Das steht bitte wo?

Schlammsau
2008-12-17, 17:48:32
Wurde es gefixt? Das steht bitte wo?
Wo steht, dass es nicht gefixt wurde?

Mr. Lolman
2008-12-17, 17:52:46
Wo steht, dass es nicht gefixt wurde?

PCGH hat den Bug nicht erwähnt, oder?


Was anderes: Hieß es nicht, dass GTA4 auf ATi-Karten garnicht laufen soll, bzw. ähnliche Fehler bringt, wie Hardocp bei L4D festgestellt hat? Hab sowas bei mir noch nie gehabt.

Schlammsau
2008-12-17, 17:56:20
PCGH hat den Bug nicht erwähnt, oder?


Nein haben sie nicht.

Blaire
2008-12-17, 17:58:26
PCGH hat den Bug nicht erwähnt, oder?


Vieleicht hat man nur nicht gut genug drauf geachtet. ;)

Schlammsau
2008-12-17, 18:17:05
Vieleicht hat man nur nicht gut genug drauf geachtet. ;)
Bei einem so grossen BQ Vergleich, will ich das nicht glauben!

Raff
2008-12-17, 21:41:36
Och Mensch, Lolli, so langsam glaube ich, dass du Geld von Ati/AMD bekommst. Was soll der Mist mit der Dauerkritik? Wir haben doch beide Augen im Kopf. Komisch, dass wir in Sachen 3dfx so einig sind. ;)

1. Crysis nutzt wohl kein negatives LOD
2. ändert das auch nix an der Fastbiliniarität des TF bei den NV-Karten (zumindest am Boden bei aktiviertem POM)
3. würde negatives LOD auf GFs ohnehin deutlich stärker flimmern als auf Radeons.

1. Sagte ich das auch nicht.
2. Lege ich meine Hand dafür ins Feuer, dass Q auf einer GF8+ in den meisten Fällen besser aussieht als A.I. Standard. "Besser" im Sinne von weniger sichtbarem Banding/Flimmern.
3. Steht das nicht zur Debatte.

Aber dem unbedarften NV-User zu erzählen, dass er das LOD auf -2 setzen soll um zu sehen, wie ATIs AF flimmert, fällt schon fast unter Rufschädigung.

Hinter der "Rufschädigung" steht ein Smiley. Mal davon abgesehen:

Nochdazu wo der Hr. Raff ohnehin ganz genau weiß, warum NV den Clamp-Schalter überhaupt einbauen musste.

Auch das steht nicht zur Debatte. Das mit dem Textur-LOD war eine Anspielung an die ganzen Leute, die sich die Shots ansehen und dann "Hey, das Ati-Bild schaut viel detaillierter/schärfer aus!" sagen. Das stimmt sogar irgendwie. Dumm ist nur, dass diese Details zuviel des Guten sind und die mangelhafte Abtastung einen Strich durch das Auge macht.

Und, apropos "Einbauen": Nvidia baut wenigstens etwas ein, wenn's denn nötig ist. Merkt ihr was? That's the way it's meant to ... listen to the users. ;)

Wie schon mehrfach gesagt - trotz des zu scharfen AFs - spiel ich das ein oder andere Spiel gern mit LOD -1. Warum? Darum: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6936079&postcount=166

Boah, jetzt hör aber auf. Du spielst mit Flimmer-LOD und stellst dann Leute an den Pranger, denen "optimiertes" AF zu sehr flimmert? Ich spiele auch immer mit einem LOD, das unter der Standard-0 zu finden ist. Aber nur, weil der Treiber das mit SSAA selbstständig macht. ;)

MfG,
Raff

V2.0
2008-12-18, 07:14:40
Stimmt. Wahrscheinlich hab ich mich davon täuschen lassen. :redface:


EDIT: Kann das sein, dass PCGH die NFS-Screenshots vertauscht hat? Ich kann mir irgendwie nicht ganz vorstellen, dass der 8.12 vgl. zum 178.24 ein identisches Bild berechnet.

Also ich bin gestern mal zwischen 178.24 und 180.48 hin und her gewchselt und habe L4D genauer angesehen. Fakt ist, dass die Lampe im 178 kaum Leuchtkraft hat. Aber die Schattenkanten sind imho wirklich weicher.Die Übergang erscheint feiner gestuft.

Mr. Lolman
2008-12-20, 11:15:09
Komisch, dass wir in Sachen 3dfx so einig sind. ;)


Stimmt. Komisch, dass dich da die Unterfilterung überhaupt nicht stört. Eigentlich müsste für dich schon LOD -1 bei 4xSGSSAA zuviel des Guten sein.


1. Sagte ich das auch nicht.
2. Lege ich meine Hand dafür ins Feuer, dass Q auf einer GF8+ in den meisten Fällen besser aussieht als A.I. Standard. "Besser" im Sinne von weniger sichtbarem Banding/Flimmern.
3. Steht das nicht zur Debatte.


1. Stimmt. Komisch nur, dass dann der NV-Shot soviel unschärfer ist.
2. Kommt wohl aufs Spiel draufan. Banding seh ich eigentlich nur beim NV Crysis Screenshot
3. Doch, und zwar solang du den Leuten empfiehlst, das LOD zu negativieren um sich ein Bild machen zu können, wies auf ATis aussieht...




Hinter der "Rufschädigung" steht ein Smiley. Mal davon abgesehen:

Auch das steht nicht zur Debatte. Das mit dem Textur-LOD war eine Anspielung an die ganzen Leute, die sich die Shots ansehen und dann "Hey, das Ati-Bild schaut viel detaillierter/schärfer aus!" sagen. Das stimmt sogar irgendwie. Dumm ist nur, dass diese Details zuviel des Guten sind und die mangelhafte Abtastung einen Strich durch das Auge macht.

Geschmackssache. Durch Unterfilterung in Form von auslassen von Textursamples wird das Bild ja nicht schärfer. Frag doch mal ruhig die LFS-macher warum sie überhaupt negatives LOD verwenden. Die Antwort wird dich wahrscheinlich überraschen...


Und, apropos "Einbauen": Nvidia baut wenigstens etwas ein, wenn's denn nötig ist. Merkt ihr was? That's the way it's meant to ... listen to the users. ;)


Genau. Und deswegen können NV40 Karten auch Transparenz AA, gell? ;)

Und deswegen wurden bei NV auch noch nie alte Karten ausgebremst, gell? ;)


Boah, jetzt hör aber auf. Du spielst mit Flimmer-LOD und stellst dann Leute an den Pranger, denen "optimiertes" AF zu sehr flimmert? Ich spiele auch immer mit einem LOD, das unter der Standard-0 zu finden ist. Aber nur, weil der Treiber das mit SSAA selbstständig macht. ;)

MfG,
Raff

Du doch auch (siehe 3dfx). Außerdem find ichs abseits vom Geflimmere (welches dank div. Shader ohne massig SSAA ohnehin nicht wegzubekomen ist*) viel irritierender wenn ich irgendwo ne Wand seh, wo die Texturen eigentlich noch deutlich schärfer sein könnten, trotz AF -> der Treiber aber trotzdem zuviel Gewichtung auf die niedriger aufgelöste Mip legt.



*mal ganz abgesehen davon, dass das Ausgabegerät, sprich der TFT-Monitor ohnehin immernoch der größte Irritationsfaktor bei bewegter Spielegrafik ist.

Coda
2008-12-20, 15:32:38
Stimmt. Komisch, dass dich da die Unterfilterung überhaupt nicht stört. Eigentlich müsste für dich schon LOD -1 bei 4xSGSSAA zuviel des Guten sein.
Nö, wieso denn?

Durch Unterfilterung in Form von auslassen von Textursamples wird das Bild ja nicht schärfer.
Natürlich wird es das.

Und deswegen wurden bei NV auch noch nie alte Karten ausgebremst, gell? ;)
Och komm, jetzt lass mal die FUD-Kiste zu.

Bei den GeForce-3/4-Karten war das der Fall weil sie eine fehlerhafte Z-Compression hatten und man es dann mit einem neueren Treiber einfach komplett ausgeschaltet hat um Supportkosten zu sparen. Ist zwar nicht die feine englische Art, aber hat sicher nichts damit zu tun neue Karten besser dastehen zu lassen.

Fetza
2008-12-20, 15:34:35
Mal eine zwischenfrage, kann ich eigentlich als geforce 8 user mir ein bild von der ati-filterqualität machen, wenn ich den clamp schaltern mal ausschalte?

Oder alternativ, auf welchen wert müsste ich den lod-regler stellen, um möglichst genau an die ati-filterqualität ranzukommen?

m.sch
2008-12-20, 16:02:35
Oder alternativ, auf welchen wert müsste ich den lod-regler stellen, um möglichst genau an die ati-filterqualität ranzukommen?

klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6982431&postcount=18)

Raff
2008-12-20, 16:10:18
klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6982431&postcount=18)

-2 ist eine "dezente" Überzeichnung, aber ein klein wenig negativ (+ Quality-Filtering) hat 'nen ähnlichen Effekt wie A.I. Standard (in den meisten Fällen).

MfG,
Raff

Mr. Lolman
2008-12-20, 16:43:35
Nö, wieso denn?

Weil man beim SG unregelmässige Sampleabstände hat.


Natürlich wird es das.

Nö. Oder macht Q (ohne Opts) etwa ein schärferes Bild als HQ?
Und wieso sollte das Bild überhaupt schärfer werden (abseits einer Reduktion der Triliniarität)?



Och komm, jetzt lass mal die FUD-Kiste zu.


Bei den GeForce-3/4-Karten war das der Fall weil sie eine fehlerhafte Z-Compression hatten und man es dann mit einem neueren Treiber einfach komplett ausgeschaltet hat um Supportkosten zu sparen. Ist zwar nicht die feine englische Art, aber hat sicher nichts damit zu tun neue Karten besser dastehen zu lassen.[/QUOTE]

Hm. Da gabs doch mal so nen Test, der zum Ergebnis kam, dass gerade für ältere Karten der neueste Treiber nicht immer der Beste ist. Und das galt aber für neuere Karten als GF3/4. Mal sehen, vll find ich den noch.

Coda
2008-12-20, 16:52:02
Weil man beim SG unregelmässige Sampleabstände hat.
Ich würde eher sagen man hat bei OG unregelmäßigere Sampleabstände. Vor allem bei 45° ist der Abstand bei OG fast zu groß.

Nö. Oder macht Q (ohne Opts) etwa ein schärferes Bild als HQ?
Ja, leicht.

Und wieso sollte das Bild überhaupt schärfer werden (abseits einer Reduktion der Triliniarität)?
Es wird "schärfer", weil die Frequenzen höher werden, da das Signal nicht genügend abgetastet wird.

Das sieht man hier doch auch wunderbar:
http://www.mental-asylum.de/files2/aion.gif
http://www.mental-asylum.de/files2/aioff.gif

Mr. Lolman
2008-12-20, 16:53:52
Mal eine zwischenfrage, kann ich eigentlich als geforce 8 user mir ein bild von der ati-filterqualität machen, wenn ich den clamp schaltern mal ausschalte?

Nö.


Oder alternativ, auf welchen wert müsste ich den lod-regler stellen, um möglichst genau an die ati-filterqualität ranzukommen?

Garnicht, weil NV Karten negatives LOD überhaupt nicht mögen. Ansonsten so ~ -0.1.

Mr. Lolman
2008-12-20, 17:07:05
Ich würde eher sagen man hat bei OG unregelmäßigere Sampleabstände. Vor allem bei 45° ist der Abstand bei OG fast zu groß.

Hm? Inwiefern soll das bei der Betrachtung der Texturqualität durch SSAA relevant sein? Beim Downsampling ists ja wurscht in welchem Winkel die Texturen ursprünglich dargestellt sind. Nur die Samples sollten schön gleichmäßig verteilt sein - und gleichmäßiger als mit OG gehts halt nicht.

Coda
2008-12-20, 17:11:33
Hm? Inwiefern soll das bei der Betrachtung der Texturqualität durch SSAA relevant sein? Beim Downsampling ists ja wurscht in welchem Winkel die Texturen ursprünglich dargestellt sind. Nur die Samples sollten schön gleichmäßig verteilt sein - und gleichmäßiger als mit OG gehts halt nicht.
Das ist auch bei 4xRG gleichmäßig genug verteilt.

Mr. Lolman
2008-12-20, 17:36:40
Das ist auch bei 4xRG gleichmäßig genug verteilt.

Imo schon. Aber gleichzeitig auch ungleichmäßig genug um den armen Herrn Nyquist zu verletzen.

Coda
2008-12-20, 17:53:02
Da wäre ich mir nicht so sicher.

Mr. Lolman
2008-12-20, 18:28:38
Da wäre ich mir nicht so sicher.

Nachdem ich das schon mehrfach mit aths diskutiert hab, bin ich mir eigentlich relativ sicher...

Fetza
2008-12-20, 21:13:51
Nö.



Garnicht, weil NV Karten negatives LOD überhaupt nicht mögen. Ansonsten so ~ -0.1.

Ok danke

Gast
2008-12-21, 23:02:32
Bei den GeForce-3/4-Karten war das der Fall weil sie eine fehlerhafte Z-Compression hatten und man es dann mit einem neueren Treiber einfach komplett ausgeschaltet hat um Supportkosten zu sparen.

und später als man den fehler behoben hatte netterweise auch wieder aktiviert hat.

Gast
2008-12-21, 23:06:23
Mal eine zwischenfrage, kann ich eigentlich als geforce 8 user mir ein bild von der ati-filterqualität machen, wenn ich den clamp schaltern mal ausschalte?

es dürfte dir kaum gelingen mit einer Geforce ab 8 eine ähnlich schlechte texturqualität wie es ati momentan bietet zu erzeugen, selbst alle optimierungen an und high performance dürften noch besser sein.

negatives LOD hilft hier auch nicht wirklich um sich ein bild zu machen, zwar flimmert es damit auch mehr und wirkt gleichzeitig schärfer, wirklich mit den optimierungen kann man den effekt aber nicht vergleichen.

Gast
2008-12-22, 14:22:16
es dürfte dir kaum gelingen mit einer Geforce ab 8 eine ähnlich schlechte texturqualität wie es ati momentan bietet zu erzeugen, selbst alle optimierungen an und high performance dürften noch besser sein.

negatives LOD hilft hier auch nicht wirklich um sich ein bild zu machen, zwar flimmert es damit auch mehr und wirkt gleichzeitig schärfer, wirklich mit den optimierungen kann man den effekt aber nicht vergleichen.


Was schreibst du da für einen Käse - unglaublich diese unsäglichen "Fanboys"... bleib am besten bei deiner ach so tollen nVidia-Karte samt nVidia gesponserten Spielchen und fertig! Aber lass es bitte Vergleiche anzustellen, die in in deinem verdrehten Geist heranwachsen - denn das sind leider nur DEINE eigenen kaputten Wunschvorstellungen und sonst nichts!