Archiv verlassen und diese Seite im Standarddesign anzeigen : ATis Filtertricks so leicht erkennbar? 56K Warning
VooDoo7mx
2004-07-07, 17:59:21
Guten Tag Leute.
Eines vorneweg. Ich bin weder ATi noch nVidia Fan.
Ich bin auch kein Bildqualitätsfetischicst der Screenshots um 300% vergrößert, nur um einen minimalen Unterschied zu sehen. Mir ist sogar der Bri Filter meiner alten FX5900 so gut wie nie und nur an ganz w enigen stellen aufgefallen.
Heute kam meine Connect3D X800 Pro ViVo bei mir an.
Sofort die Karte eingebaut und erflogreich den Mod ausgeführt. Nach eion paar synthetischen Benchmarks und Stabilitätskontrolle, hab ich mich an das 1. Spiel gewagt.
Max Payne 2
Ich hab nicht einmal 1 Minute gespielt und da musste ich das hier erblicken:
http://www.mitglied.lycos.de/utzu/ATi-Filter.jpg
Man achte auf die hintere ecke des Raumes, mit dem Riss in der Wand.
Einstellungen sind wie gefolgt: 1280x960+4MSAA+AF über Game Panel. In der Systemsteuerung ist alles auf "Qualität". (was immer das bei ATi auch heißen mag)
Worum handelt es sich hier?
Also irgendwie interlässt meine niegelnagelneue 430€ teure High-End Karte einen faden Beigeschmack bei mir...
tombman
2004-07-07, 18:04:03
sieht für mich wie ein moiré Muster aus--- nix besonderes, hast auf jeder Graka.
ich finds nur hochinteressant, daß du ordentlich gegen ati Bildqualität geredet hast gegen mich und dir dann doch eine ATI karte kaufst...
VooDoo7mx
2004-07-07, 18:05:51
Original geschrieben von tombman
sieht für mich wie ein moiré Muster aus--- nix besonderes, hast auf jeder Graka.
*Anfeindung entfernt*
Auf meiner FX5900 war es zu 1000% nicht da.
Sonst würde ich das ja auch hier nicht posten.
(del676)
2004-07-07, 18:06:10
imho ist es z.b. bei SuperSampling lange nicht so stark
VooDoo7mx: kannst du ein savegame an genau dieser stelle machen und onlinestellen?
BlackArchon
2004-07-07, 18:06:35
Äh, ich seh da nix besonderes?
€: Ach so, der Boden...
tombman
2004-07-07, 18:08:51
Original geschrieben von VooDoo7mx
Scherzkeks...
Auf meiner FX5900 war es zu 1000% nicht da.
Sonst würde ich das ja auch hier nicht posten. *Anfeindung und OT entfernt*
GloomY
2004-07-07, 18:11:47
Original geschrieben von tombman
sieht für mich wie ein moiré Muster aus--- nix besonderes, hast auf jeder Graka.Öhm? Ich bezweifel, dass du das auf jeder Graka hast. Hast du jede durchprobiert, oder wie kommst du zu dieser Aussage?
Original geschrieben von tombman
ich finds nur hochinteressant, daß du ordentlich gegen ati Bildqualität geredet hast gegen mich und dir dann doch eine ATI karte kaufst... Wie sagst du doch immer so schön? OT! Und damit irrelevant!
Original geschrieben von tombman
Kasperl...
Kauf dir doch wieder eine Nvidia, dann hast des Problem sicher nicht... *sinnfreies entfernt*
wenn es ein moiré Muster/effekt ist könnte man es beim monitor ändern, aber normal ist das niemals!
könnte ja auch am mod liegen den er gemacht hat
tombman
2004-07-07, 18:12:45
Original geschrieben von Gast
*quote anpass*
mod?
Birdman
2004-07-07, 18:13:05
mach mal in ControlPanel die "Einstellung für Textur" manuell von High_Quality auf Quality.
Das Moiré ist bei den Ati Karten afaik besonders gut sichbar weil sie mit einem leicht negativen LOD arbeiten. (um bei Screenshot IQ Vergleichen besser dazustehen)
Original geschrieben von tombman
mod?
Heute kam meine Connect3D X800 Pro ViVo bei mir an.
Sofort die Karte eingebaut und erflogreich den Mod ausgeführt
Tjell
2004-07-07, 18:14:57
Spekulation: Könnte an einem im Zusammenhang mit diesem Blickwinkel auf den Boden ungünstigen Winkel des Rotated Grid AA zusammenhängen.
[editiert] Ähm... oder viel eher Winkelabhängigkeit des AF?
Original geschrieben von tombman
*Anfeindung und OT entfernt*aja hier aber auch MOD
Gibt’s ja wohl nicht lächerlich das maß mit dem hier gemessen wird
*Quote angepasst*
tombman
2004-07-07, 18:17:29
er sollte mal die Auflösung ändern und schauen ob es dann immer noch da ist
DrFreaK666
2004-07-07, 18:17:31
Original geschrieben von Tjell
Spekulation: Könnte an einem im Zusammenhang mit diesem Blickwinkel auf den Boden ungünstigen Winkel des Rotated Grid AA zusammenhängen.
Was hat ATI´s AA mit der Textur zu tun??? edit: Edit gelesen ;-)
@Topic: Ändere Mal mit dem rTool die LOD-Einstellungen, dann wissen wir obs ein LOD-problem ist
Greetz
VooDoo7mx
2004-07-07, 18:18:54
So ich hab mal das Savegame hochgeladen, ich hoffe es ist das richtige. Bei MP2 kann man nicht wirklich die Savegames benennen.
http://www.mitglied.lycos.de/utzu/savegame003.mp2s
@Tombman
Halte dich bitte aus dieser Diskussion raus. es bringt einfach nichts.
Wenn ich deine Postings lese, guckt meine Hauptschlagader schon zu 2cm aus meinen Hals, aber ich kann mich noch zügeln.
*edit*
tombman
2004-07-07, 18:19:55
Original geschrieben von Gast
*Quote angepasst*
jetzt muß nur noch der *angepasst* weg, dann is der mod mit der Arbeit fertig...
tombman
2004-07-07, 18:23:35
Original geschrieben von VooDoo7mx
So ich hab mal das Savegame hochgeladen, ich hoffe es ist das richtige. Bei MP2 kann man nicht wirklich die Savegames benennen.
http://www.mitglied.lycos.de/utzu/savegame003.mp2s
@Tombman
Halte dich bitte aus dieser Diskussion raus. es bringt einfach nichts.
Wenn ich deine Postings lese, guckt meine Hauptschlagader schon zu 2cm aus meinen Hals, aber ich kann mich noch zügeln.
Die Community hier ist echt besser ohne dich dran.
mehr sag ich dazu nicht.
Ich werd mir das mal ansehen und dir dann sagen obs bei mir auch so aussieht...
*edit*
siegemaster
2004-07-07, 18:27:27
Wo sind wir den hier? Im Kindergarten?
Hört auf euch so sinnlos anzukacken und bleibt auf dem Boden,hat doch allet keinen sinn ! :)
seahawk
2004-07-07, 18:29:04
Ich sage mal LOD Problem. Mal einfach von HQ auf Quality zurückgehen.
Wenn es nichts bringt mal ohne AF versuchen.
Wenn es nichts bringt mal ohne AA versuchen.
Blaire
2004-07-07, 18:29:16
Original geschrieben von VooDoo7mx
So ich hab mal das Savegame hochgeladen, ich hoffe es ist das richtige. Bei MP2 kann man nicht wirklich die Savegames benennen.
http://www.mitglied.lycos.de/utzu/savegame003.mp2s
@Tombman
Halte dich bitte aus dieser Diskussion raus. es bringt einfach nichts.
Wenn ich deine Postings lese, guckt meine Hauptschlagader schon zu 2cm aus meinen Hals, aber ich kann mich noch zügeln.
*edit*
Savegame funzt bei mir leider nicht. Dann hät ich mal nen Screen von der 6800U gemacht. Muss ich einen Patch extra installieren?
MfG
GloomY
2004-07-07, 18:29:18
Original geschrieben von tombman
jetzt muß nur noch der *angepasst* weg, dann is der mod mit der Arbeit fertig... Vielleicht könntest du auch mal weniger zurückgiften, dann gäb's auch nicht so viel Arbeit und du müsstest nicht sofort nach einem Mod schreien.
Und für's Melden gibt's einen Button, da musst du nicht ein komplettes Postings mit den drei Buchstaben "Mod" und Fragezeichen schinden.
tombman
2004-07-07, 18:31:23
Original geschrieben von GloomY
Vielleicht könntest du auch mal weniger zurückgiften, dann gäb's auch nicht so viel Arbeit und du müsstest nicht sofort nach einem Mod schreien.
Und für's Melden gibt's einen Button, da musst du nicht ein komplettes Postings mit den drei Buchstaben "Mod" und Fragezeichen schinden.
Wie wärs wenn du den ersten Gifter rügst und nicht den der sich verteidigt?
VooDoo7mx
2004-07-07, 18:31:28
So ich hab mal den ratschlag von Birdman befolgt und hab im D3D Control panel die Texturen von "High Quality" auf "Quality" runtergesetzt.
Nur leider ist es immer noch da, sieht nur anders aus.
Gleiche Settings wie oben:
http://www.mitglied.lycos.de/utzu/ATi-Filter2.jpg
Endorphine
2004-07-07, 18:32:08
Das ist ein Moirémuster, könnte an einer fehlerhaften LoD-Bias Einstellung liegen.
Tjell
2004-07-07, 18:34:31
Stelle Dich doch mal einigermaßen gerade zu der Ecke hin.
Ich vermute einfach mal, daß das wirklich einzig und allein mit "einem unglücklichen Winkel" zu tun hat. (Welcher auch immer das ist.)
Mr. Lolman
2004-07-07, 18:34:39
Original geschrieben von Gast
*sinnfreies entfernt*
wenn es ein moiré Muster/effekt ist könnte man es beim monitor ändern, aber normal ist das niemals!
könnte ja auch am mod liegen den er gemacht hat
Moiréeffekte können auch auftreten, wenn mehrere Pixel einer Textur (=Texel) sich einen Bildschirmpixel teilen müssen.
Z.B. kann das bei einem zu scharfen LOD Bias passieren. Auf R3x0 Karten hat in dem Fall das Runterregeln der 'Mipmapdetailebene' um eine Stufe abhilfe gebracht. Vielleicht funzts damit auch auf ner R420...
edit: hm... zulangsam. :weg:
Madkiller
2004-07-07, 18:35:34
Original geschrieben von tombman
Wie wärs wenn du den ersten Gifter rügst und nicht den der sich verteidigt?
Falls du es nicht gelesen haben solltest:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1991410#post1991410
VooDoo7mx
2004-07-07, 18:36:02
Original geschrieben von Blaire
Savegame funzt bei mir leider nicht. Dann hät ich mal nen Screen von der 6800U gemacht. Muss ich einen Patch extra installieren?
MfG
Die Max Payne2 Savegames sind im Ordner Eigene Dateien.
Ich hab die deutsche Version von MP2 und da ist auch schon der 1.01 Patch integriert.
Falls du das Spiel schon durchgespielt hast oder weiter fortgeschritten bist, kannst du auch auf Neues Spiel gehen und dann unten ein ebstimmtes Kapitel anwählen.
Das ist so ziemlich am Levelanfang vom Level "Teil II Kapitel III".
Man muss nur am Anfang aus dem Raum rausrennen, dann rechts rum in den einen Raum. Da ist so ein Script, wo ein Cleaner sich selbst hochjagt und dann durch die Wand und wir sind in dem besagten raum.
GloomY
2004-07-07, 18:40:11
Original geschrieben von tombman
Wie wärs wenn du den ersten Gifter rügst und nicht den der sich verteidigt? Ist OT. Wenn du an meiner Moderation etwas auszusetzen hast, dann steht dir frei, im 3DC & 3DC-Forum einen Thread zu eröffnen.
Im Übrigen scheue ich keine Diskussion mit dir. Ich hätte Lust, auf dein Posting zu antworten, aber wie gesagt: Nicht hier.
Bitte nur noch On-Topic posten! (gilt für alle!)
Uller
2004-07-07, 18:44:11
Habe die Stelle auch mal probiert, das Moiree ist nur unter bestimmten Winkeln vorhanden.
Man sieht an dieser Stelle auch sehr leicht Banding auf dem Boden.
Dann bin ich mit der Nase wieder von 20cm auf 50-60cm Abstand gegangen, und konnte weder das Banding noch richtig sehen noch trat der Moiree Effekt störend auf.
Mein Fazit dazu:
sichtbar ja, für einen Spiel-Spieler aber recht egal.
(für einen Bild-Spieler aber vielleicht nicht egal)
Bevor aber alle rumschreien sollte man mal auf jeden Fall einen Screenshot einer Nvidia 6800er Karte an derselben Stelle machen.
Und ich gehe jetzt wieder Battlefield spielen...auch wenn ich Banding sehen könnte, so sah ich es bisher nicht, ganz einfach weil ich spiele und nicht mit der Nase am Bildschirm nach Fehlern suche.
Blaire
2004-07-07, 18:47:31
http://img10.exs.cx/img10/7666/mp10.jpg
6800 Ultra
siegemaster
2004-07-07, 18:48:28
So,die Szene auf einer Radeon 9800 Pro, 6xaa 16x af alle Settings auf high.
http://hometown.aol.de/siegemaster/fullquality.JPG
Mr. Lolman
2004-07-07, 18:48:29
Gratulation Voodoo7mx. Du als erster eine Stelle entdeckt, bei der, der Effekt der brilinearen Optimierungen seitens ATi auch auf Screenshots deutlich sichtbar ist. So schauts auf meiner GraKa aus:
R300, 4xAA, 16x Quality AF
http://img7.exs.cx/img7/803/MaxPayne2-2004-07-07-18-44-.jpg
Gott-sei-dank gibts Reg-Keys, mit denen man die Optimierungen abschalten kann. Zumindest beim ohnehin schon pfeilschnellen MP2 (siehe @ fps), dürfte man gut beraten sein, dieses zu tun...
Tjell
2004-07-07, 18:48:59
Na ich will mal hoffen, daß Ähnliches nicht auch bei der 6800er zutage tritt, auch wenn es womöglich so sein wird.
Ich persönlich würde mich dadurch in meinem Spielfluß gestört fühlen, und das wird vermutlich auch der Grund sein, warum
VooDoo7mx diesen Thread gestartet hat.
siegemaster
2004-07-07, 18:49:11
LoL lolman,da hatten wa beide die gleiche idee :)
Blaire
2004-07-07, 18:50:00
Original geschrieben von Tjell
Na ich will mal hoffen, daß Ahnliches nicht auch bei der 6800er zutage tritt, auch wenn es womöglich so sein wird.
Ich persönlich würde mich dadurch in meinem Spielfluß gestört fühlen, und das wird vermutlich auch der Grund sein, warum
VooDoo7mx diesen Thread gestartet hat.
Ist zum Glück nicht so wie bei der X800 Serie. :)
reunion
2004-07-07, 18:50:01
Original geschrieben von VooDoo7mx
Heute kam meine Connect3D X800 Pro ViVo bei mir an.
Sofort die Karte eingebaut und erflogreich den Mod ausgeführt.
Hmm, mich würde mal intressieren warum ATi soviele funktionsfähige R420 Chips als X800 pro verkauft, obwohl die XT-Version praktisch noch nicht verfügbar ist und man damit viel mehr profit machen könnte. Zu wenig hochgetakteten GDDR3 Speicher?
Ranz0r
2004-07-07, 18:50:19
Original geschrieben von Blaire
http://img10.exs.cx/img10/7666/mp10.jpg
6800 Ultra
Tri Opt. on oder off, Blaire? Und wieviel AA/AF verwendet?
Mr. Lolman
2004-07-07, 18:53:02
Original geschrieben von siegemaster
LoL lolman,da hatten wa beide die gleiche idee :)
LOL Stimmt... :D
Original geschrieben von Blaire
http://img10.exs.cx/img10/7666/mp10.jpg
6800 Ultra
Sieht auch, im Vergleich zum R3x0, leicht überscharf aus. Jedoch kein Vergleich zum R420 Shot. Deaktiviert mal alle Optimierungen...
Blaire
2004-07-07, 18:53:47
Original geschrieben von Ranz0r
Tri Opt. on oder off, Blaire? Und wieviel AA/AF verwendet?
Beides natürlich aus. 4xFSAA 16xAF 1600x1200 war es
Update: Mit Optimierungen an sieht es immer noch besser aus als bei der X800 auf dem ersten Bild!
MfG
(del676)
2004-07-07, 18:56:44
1280x960x32bit 4xAA 8xAF (Quality) @ 5900U
(ohne irgendwelche Reg hacks)
http://img16.exs.cx/img16/8531/mp2.jpg
Mr. Lolman
2004-07-07, 18:57:07
Sag mal Voodoo7mx,
hast du vielleicht am Texturschärfenregler von Max Payne 2 herumgespielt?
/edit:
Soviele Screenshots :eyes:. Schade, dass niemand ausser mir, seine fps postet.
/edit2:
Siegemaster, du hast auch den Regler für Texturschärfe ganz nach rechts gezogen?
Ranz0r
2004-07-07, 18:59:25
Original geschrieben von Mr. Lolman
Sag mal Voodoo7mx,
hast du vielleicht am Texturschärfenregler von Max Payne 2 herumgespielt?
/edit:
Soviele Screenshots :eyes:. Schade, dass niemand ausser mir, seine fps postet.
FPS sind hier doch nicht gefragt, sondern eher die Bildqualität... Auch wenn einige aufschreie werden, 100XXXXXXX FPS bringen nix, wenn das Bild so wie im ersten Shot aussieht.
Mr. Lolman
2004-07-07, 19:02:04
Original geschrieben von Ranz0r
FPS sind hier doch nicht gefragt, sondern eher die Bildqualität... Auch wenn einige aufschreie werden, 100XXXXXXX FPS bringen nix, wenn das Bild so wie im ersten Shot aussieht.
Sicher, was nützen 150 fps wenn die BQ im Axxxx ist. (vielleicht sogar eigenverschuldet? :ratlos: )
aber andererseits, was bringt nette BQ, wenn die fps am Axxxx sind? ;)
(del676)
2004-07-07, 19:02:33
Original geschrieben von Mr. Lolman
Sag mal Voodoo7mx,
hast du vielleicht am Texturschärfenregler von Max Payne 2 herumgespielt?
/edit:
Soviele Screenshots :eyes:. Schade, dass niemand ausser mir, seine fps postet.
/edit2:
Siegemaster, du hast auch den Regler für Texturschärfe ganz nach rechts gezogen?
ka ob er hat, aber ich, und sogar wenn ichs auf ganz high stell moiret da nix, nur die fps gehen zurück ;)
und ich hab fps gepostet :p
VooDoo7mx
2004-07-07, 19:03:13
Original geschrieben von Uller
Habe die Stelle auch mal probiert, das Moiree ist nur unter bestimmten Winkeln vorhanden.
Man sieht an dieser Stelle auch sehr leicht Banding auf dem Boden.
Dann bin ich mit der Nase wieder von 20cm auf 50-60cm Abstand gegangen, und konnte weder das Banding noch richtig sehen noch trat der Moiree Effekt störend auf.
Mein Fazit dazu:
sichtbar ja, für einen Spiel-Spieler aber recht egal.
(für einen Bild-Spieler aber vielleicht nicht egal)
Ich denke mal, du nimmst das zu schnell auf die leichte Schulter.
Im 1. Post hab ich ja geschrieben, dass mir so etwas kaum auffällt ich bin auch keinesfalls in 3D Technik so versiert wie andere hier.
Der Bri-Filter bei meiner FX5900 hat mich auch nur peripher tangiert.
Aber das ist mir sowas von schnell aufgefallen. Ich hab nicht mal richtig auf die Grafik geachtet sondern einfach nur das Spiel gespielt.
Ich will das Spiel ja auch so schnell wie möglich nochmal beenden. Das Alternative Ende will ich unbedingt sehen.
Ranz0r
2004-07-07, 19:03:39
Original geschrieben von Mr. Lolman
Sicher, was nützen 150 fps wenn die BQ im Axxxx ist. (vielleicht sogar eigenverschuldet? :ratlos: )
aber andererseits, was bringt nette BQ, wenn die fps am Axxxx sind? ;)
Stimmt schon, nur dann kann man ja immernoch auf 8AF etc zurückgreifen und das wird warscheinlich immernoch um Längen besser aussehen. Es wäre doch so einfach, einfach einen Schalter im CP um sowas zu deaktivieren und fertig.
Fällt nur mir der Unterschied zwischen eueren Bildern, und dem des threadstarters auf?
DrFreaK666
2004-07-07, 19:05:45
LOL ??
Mr. Lolman
2004-07-07, 19:05:47
Original geschrieben von Ulukay
ka ob er hat, aber ich, und sogar wenn ichs auf ganz high stell moiret da nix, nur die fps gehen zurück ;)
Hmm, wenn ich auf ganz high stell, moirets in Ansätzen. Wenn ATi sich mit dem R420 hier ohnehin schon im Grenzbereich bewegt, kann, imo ein app. spezifischer negativer(er) LOD Bias durchaus solche Folgen haben...
Original geschrieben von DrFreaK666
LOL ?? es ist ein objekt mehr vorhanden!
Mr. Lolman
2004-07-07, 19:07:08
Original geschrieben von VooDoo7mx
Aber das ist mir sowas von schnell aufgefallen.
Wo steht dein Texturschärfenregler in den Max Payne Optionen?
/stell im Controlpanel auch gleich alles auf Hohe Qualität
Uller
2004-07-07, 19:07:47
Mit den Optimierungen ausgeschalten sind die fps bei mir genau gleich wie mit Optimierungen an, 89/90fps zeigt mir fraps an. (1280x1024, 6x/16x)
Wird wohl der Prozessor limitieren, Barton @ 2.3 Ghz ist meiner.
VooDoo7mx
2004-07-07, 19:10:11
@Lolman
Ganz so blöd wie du mich darstellst bin ich wirklich nicht ;)
Ich weiß schon, was ich einstelle.
das game hab ich auf den selben Einstellungen auch mit meiner FX5900 gespielt, nur mit 2xMSAA.
Hier nochmal meine Einstellungen:
http://www.mitglied.lycos.de/utzu/Panel.jpg
mach mal den triple buffer an
siegemaster
2004-07-07, 19:13:01
Ich hab den Texturschärfenregler im Spiel auf Standart gelassen...
(del676)
2004-07-07, 19:13:15
Original geschrieben von VooDoo7mx
@Lolman
Ganz so blöd wie du mich darstellst bin ich wirklich nicht ;)
Ich weiß schon, was ich einstelle.
das game hab ich auf den selben Einstellungen auch mit meiner FX5900 gespielt, nur mit 2xMSAA.
Hier nochmal meine Einstellungen:
http://www.mitglied.lycos.de/utzu/Panel.jpg
und was is mitn ingame texturschärferegler?
Mr. Lolman
2004-07-07, 19:13:39
Original geschrieben von VooDoo7mx
@Lolman
Ganz so blöd wie du mich darstellst bin ich wirklich nicht ;)
Ich weiß schon, was ich einstelle.
das game hab ich auf den selben Einstellungen auch mit meiner FX5900 gespielt, nur mit 2xMSAA.
Ich stell dich nicht als blöd dar. Sry, wenn du dein Eindruck bekommen hast, aber das lag nun wirklich nicht in meiner Absicht.
Ausserdem sind das die falschen Optionen :P
Ich mein direkt im Spiel, gibts einen Regler, den stellt man gerne auf max. Dabei ändert sich nur das LOD. Kann sein , dass das auf der FX nix gemacht hat, aber wie hier ja alle wissen, bewegt sich da ATi viel mehr im Grenzbereich als NV...
Im ATi Control Panel würd' ich übrigens auch alles wieder auf hohe Qualität zurückstellen, denn iirc machen die Regler was anderes, als noch bei R3x0 Karten...
Mr. Lolman
2004-07-07, 19:14:36
Original geschrieben von siegemaster
Ich hab den Texturschärfenregler im Spiel auf Standart gelassen...
Komisch. Ich auch, und trotzdem wirkt dein Screenshot im vgl. zu meinem fast ein wenig zu scharf...
/edit: Was für einen treiber nutzt du? /me us0rt Catalyst 4.7 beta...
Iceman346
2004-07-07, 19:14:54
Just for reference:
Mit der 6800GT und (über den aTuner) abgeschalteten Optimierungen hab ich an der Stelle ein ganz leichtes Moire Muster welches nur zu sehen ist wenn man die Kamera bewegt.
Das ganze als Bild (.png, 1,1 MB):
http://staff.withingames.net/iceman/mp2.png
Aufgenommen mit 4xAA und 8xAF.
Edit: Meine fps sind da übrigens bei 64, allerdings rein CPU limitiert. Wenn ich anstatt 4xAA auf 8x umschalte hab ich immer noch 64fps.
Mr. Lolman
2004-07-07, 19:18:12
Original geschrieben von Iceman346
Mit der 6800GT und (über den aTuner) abgeschalteten Optimierungen ...
...und mit eingeschalteten?
VooDoo7mx
2004-07-07, 19:21:58
Texturschärfe war im Spiel natürlich die ganze Zeit auf Maximum aufgedreht.
@Iceman
Auf deinen Screenshot erkenne ich schon gar kein Muster mehr.
So müsste es aussehen :(
siegemaster
2004-07-07, 19:22:15
Ich nutze den Omega-Treiber auf Cata 4,6 Basis...
Iceman346
2004-07-07, 19:24:17
Original geschrieben von Mr. Lolman
...und mit eingeschalteten?
Hier ein Bild mit "High Performance" Einstellungen:
http://staff.withingames.net/iceman/mp2(2).PNG
Dabei sind deutliche Moire Muster in dem hinteren Bereich zu sehen, allerdings bei weitem nicht so krass wie auf der Radeon. Zusätzlich kann man übrigens in der Bewegung auch eindeutig die Mipmapgrenzen erkennen.
(del676)
2004-07-07, 19:27:38
Original geschrieben von Iceman346
Hier ein Bild mit "High Performance" Einstellungen:
http://staff.withingames.net/iceman/mp2(2).PNG
Dabei sind deutliche Moire Muster in dem hinteren Bereich zu sehen, allerdings bei weitem nicht so krass wie auf der Radeon. Zusätzlich kann man übrigens in der Bewegung auch eindeutig die Mipmapgrenzen erkennen.
welche settings????
(wegen den niedrigen fps mein ich)
Mr. Lolman
2004-07-07, 19:28:02
Original geschrieben von VooDoo7mx
Texturschärfe war im Spiel natürlich die ganze Zeit auf Maximum aufgedreht.
Ja natürlich :) Dann stell mal wieder auf Standardeinstellung, und mach bitte noch nen Screenshot...
GF6800, FW61.34, HQ, 1280x960, Settings wie Voodoo7mx, Texturenschärfe in-game auf default
http://home.arcor.de/quasat/3DC-Pics/MaxPayne2%202004-07-07%2019-23-56-48.JPG
Und hier mal mit Texturenschärfe in-Game auf Maximum.
http://home.arcor.de/quasat/3DC-Pics/MaxPayne2%202004-07-07%2019-24-14-60.JPG
Mr. Lolman
2004-07-07, 19:30:18
Original geschrieben von Iceman346
Hier ein Bild mit "High Performance" Einstellungen:
http://staff.withingames.net/iceman/mp2(2).PNG
...thx, und jetzt noch bitte ein Bild mit dem Texturschräfenregler am Anschlag :)
Iceman346
2004-07-07, 19:30:30
Original geschrieben von Ulukay
welche settings????
(wegen den niedrigen fps mein ich)
4xAA/8xAF
Aber wie schon oben gesagt wohl rein CPU limitiert, da sich an den fps nix ändert wenn ich auf 8xAA hochgehe. Und dabei kommt ja immerhin nen Supersampling Anteil mit rein.
Iceman346
2004-07-07, 19:30:59
Original geschrieben von Mr. Lolman
...thx, und jetzt noch bitte ein Bild mit dem Texturschräfenregler am Anschlag :)
Mit High Quality oder High Performance?
Mr. Lolman
2004-07-07, 19:32:01
@Quasar: Mit aktiven Optimierungen?
/edit:
@Iceman: High Performance, wär nett :)
VooDoo7mx
2004-07-07, 19:32:43
Original geschrieben von Mr. Lolman
Ja natürlich :) Dann stell mal wieder auf Standardeinstellung, und mach bitte noch nen Screenshot...
Das wars!! ;)
Auf Standard gibts immernoch so ein Muster aber das ist extrem minimal und man sieht es nur wenn man mit der Lupe draufschaut.
So, dann wäre das ja erledigt und ich kann ungetrübt MP2 weiterzocken auf meiner neuen X800Pro. :D
Mich würde allerdings interessiern, was diese Einstellung im MP2 In-Game-Menu bewirkt und wie dann so ein effekt zu stande kommt.
"HQ" ... bei nV heisst das seit kurzem offiziell wieder "ohne Spielereien an den Texturfiltern".
BTW:
Könnte ein Mod, meinen IMG-Tag oben heile machen?
Mr. Lolman
2004-07-07, 19:36:26
Original geschrieben von VooDoo7mx
Mich würde allerdings interessiern, was diese Einstellung im MP2 In-Game-Menu bewirkt und wie dann so ein effekt zu stande kommt.
Nix anderes, als das wofür ATi anscheinend schon ganze Zeit die Grenzen austestet. Der LOD Bias wird ins Negative verschoben. Bis zu einem subjektiv unterschiedlich wählbaren Punkt ist das auch voll ok. UT2003/4 haben z.B. standardmässig einen Wert von -0.5 und niemand störts (hier aber auch weil die Texturen z.T. zu unscharf sind)
Wenn man eine Karte hat, die sich schon in diesem Grenzbereich bewegt, dann kann ein Verringern des LOD Bias 'verheerend' wirken. Haben wir jetzt ja alle gesehen :)
/edit: 'Mit Zeckensacks Moire Monster (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&postid=1924165#post1924165) kann man den Effekt schön illustrieren und merkt gleichzeitig auch, wie er zustande kommt.
GloomY
2004-07-07, 19:37:28
Original geschrieben von VooDoo7mx
Das wars!! ;)
Auf Standard gibts immernoch so ein Muster aber das ist extrem minimal und man sieht es nur wenn man mit der Lupe draufschaut.
So, dann wäre das ja erledigt und ich kann ungetrübt MP2 weiterzocken auf meiner neuen X800Pro. :D
Mich würde allerdings interessiern, was diese Einstellung im MP2 In-Game-Menu bewirkt und wie dann so ein effekt zu stande kommt. D.h. der gezeigte Anfangs-Screenshot hat durch MP2 (d.h. durch die Applikation und nicht generell durch den Treiber) einen niedrigeren LOD Wert aufgewiesen?
Original geschrieben von q@e
BTW:
Könnte ein Mod, meinen IMG-Tag oben heile machen? *done*
edit: Lob an die Thread-Teilnehmer ab Seite 3. Es geht doch =)
Iceman346
2004-07-07, 19:37:56
Original geschrieben von Mr. Lolman
@Iceman: High Performance, wär nett :)
Auch wenns sich schon geklärt hat, wat solls, die Bilder sind schon geschossen ;)
High Quality mit Regler im Spiel auf Anschlag:
http://staff.withingames.net/iceman/mp2(3).png
High Performance mit Regler im Spiel auf Anschlag:
http://staff.withingames.net/iceman/mp2(4).png
Mr. Lolman
2004-07-07, 19:43:29
Original geschrieben von Iceman346
Auch wenns sich schon geklärt hat, wat solls, die Bilder sind schon geschossen ;)
High Quality mit Regler im Spiel auf Anschlag:
http://staff.withingames.net/iceman/mp2(3).png
High Performance mit Regler im Spiel auf Anschlag:
http://staff.withingames.net/iceman/mp2(4).png
Danke. Ist zumindest ein Beweis dafür, dass die Optimierungen auf dem NV40 (http://staff.withingames.net/iceman/mp2(4).png) fast gleiche BQ bringen wie die auf dem R420 (http://www.mitglied.lycos.de/utzu/ATi-Filter.jpg). Schade dass Voodoo7mx' erster Shot nicht genau an der Stelle des Savegames aufgenommen wurde.
tombman
2004-07-07, 19:43:49
tjo, und schon wieder hatte ich Recht--- aber lacht ruhig weiter über mich...
Hier mal ein Nvidia screenshot von mir mit Texturregler auf Voll -in-game.
Blaire
2004-07-07, 19:46:43
Original geschrieben von tombman
tjo, und schon wieder hatte ich Recht--- aber lacht ruhig weiter über mich...
Hier mal ein Nvidia screenshot von mir mit Texturregler auf Voll -in-game.
Aber sicher nicht High Quality und Optimierungen disabled.
Tjell
2004-07-07, 19:48:57
Original geschrieben von tombman
tjo, und schon wieder hatte ich Recht...
[Kein Kommentar] :(
---------------
Man, da sieht man mal, wieviel man mittlerweile falsch machen kann, wenn man die Bildqualität eigentlich erhöhen möchte. Tolle Sache. Weiter so NV & ATI. :-(
---------------
Da es hier nicht auf FPS ankommt, kann jemand diesen Screenshot mit einer GF3, GF4 oder Radeon 8500 nachstellen?
Würde mich doch interessieren, was dabei herauskäme.
Mr. Lolman
2004-07-07, 19:49:18
Original geschrieben von Blaire
Aber sicher nicht High Quality und Optimierungen disabled.
Dann schauts aber zumindest immernoch (viel) ähnlicher aus, als noch bei R3x0 vs NV3x0
tombman
2004-07-07, 19:49:20
Original geschrieben von Blaire
Aber sicher nicht High Quality und Optimierungen disabled.
doch, alles auf maximum ;)
war sogar 4xAA/16xAF drinnen, tri. und aniso opt OFF.
(high quality)
Hast noch gar ned mitbekommen, daß das game den LOD verschiebt mit dem game-eigenen Texturregler?
Mr. Lolman
2004-07-07, 19:50:55
Original geschrieben von Tjell
Da es hier nicht auf FPS ankommt, kann jemand diesen Screenshot mit einer GF3, GF4 oder Radeon 8500 nachstellen?
Würde mich doch interessieren, was dabei herauskäme.
Die fps wären aber trotzdem interessant :naughty:
So nebenbei: Mit 6xAA, 16x Quality AF sinds bei mir immernoch 93fps :o
ATi:
http://www.mitglied.lycos.de/utzu/ATi-Filter.jpg
nV:
http://home.arcor.de/quasat/3DC-Pics/MaxPayne2%202004-07-07%2019-24-14-60.JPG
Blaire
2004-07-07, 19:54:21
Original geschrieben von tombman
doch, alles auf maximum ;)
war sogar 4xAA/16xAF drinnen, tri. und aniso opt OFF.
(high quality)
Hast noch gar ned mitbekommen, daß das game den LOD verschiebt mit dem game-eigenen Texturregler?
Das stand bei mir voll auf Anschlag!
Das Moire da ist bleibt unbestritten ,allerdings sieht es auf der Nvidia bei weitem nicht so krass aus wie bei der X800 auf dem ersten Bild!
Mr. Lolman
2004-07-07, 19:55:11
@Quasar: Was soll das jetzt? Eingeschaltete Ati Optimierungen vs. abgeschalteten NV Optimierungen?
Mr. Lolman
2004-07-07, 19:56:22
Original geschrieben von Blaire
Das stand bei mir voll auf Anschlag!
Das Moire da ist bleibt unbestritten ,allerdings sieht es auf der Nvidia bei weitem nicht so krass aus wie bei der X800 auf dem ersten Bild!
lt. Icemans Shot schauts aber auf Nv Karten sogar fast (?) noch schlimmer aus...
@Quasar
Bei dir sind wenigstens gleich viele objekte im screeni
tombman
2004-07-07, 19:58:12
[SIZE=1]Original geschrieben von q@e
ati:
nV:
1.) sehen beide shit aus
2.) Kamera nicht gleich.- check den weißen Cursor-Punkt. Diese Muster sind Kamera abhängig.
seahawk
2004-07-07, 20:00:51
Wieder ist bewiesen, dass ATI die überlegene BQ hat.
Oder auch, warum Optimierungen - egal von welchem IHV - böse sind.
Blaire
2004-07-07, 20:00:55
Original geschrieben von Mr. Lolman
lt. Icemans Shot schauts aber auf Nv Karten sogar fast (?) noch schlimmer aus...
Iceman schrieb doch auch das es nicht so krass wie bei der X800 aussah. Selbst wenn ich die Optimierungen einschalte sieht es nicht so heftig aus wie bei Bild 1 !
Mr. Lolman
2004-07-07, 20:03:05
Original geschrieben von Blaire
Iceman schrieb doch auch das es nicht so krass wie bei der X800 aussah. Selbst wenn ich die Optimierungen einschalte sieht es nicht so heftig aus wie bei Bild 1 !
Original geschrieben von Mr. Lolman
Danke. Ist zumindest ein Beweis dafür, dass die Optimierungen auf dem NV40 (http://staff.withingames.net/iceman/mp2(4).png) fast gleiche BQ bringen wie die auf dem R420 (http://www.mitglied.lycos.de/utzu/ATi-Filter.jpg). Schade dass Voodoo7mx' erster Shot nicht genau an der Stelle des Savegames aufgenommen wurde.
Icemans letzes Bild vs. voodoo7mx' 1. Bild.
Blaire
2004-07-07, 20:06:08
Original geschrieben von Mr. Lolman
Icemans letzes Bild vs. voodoo7mx' 1. Bild.
Nicht vergleichbar , da unterschiedliche Perspektiven.
Mr. Lolman
2004-07-07, 20:12:11
Original geschrieben von Blaire
Nicht vergleichbar , da unterschiedliche Perspektiven.
Mann, was ist das für eine Argumentation? Glaubst du, dass alle Moiré Effekte beim Nv40 plötzlich verschwunden sind, wenn man die gleiche Position einnimmt, wie auf voodoo7mx' Shot?. Oder andere Frage. Glaubst du, dass die Atifakte noch soviel schlimmer werden, wenn beide Shots von der selben Position aufgenommen werden?
Da ist es noch plausibler anhand des vorliegenden Materials, damit zu argumentieren, dass beide mit aktiven Optimierungen und dem Texturschärfe Regler am Anschlag ungefähr gleich filtern (auch wenn in Wahrheit der Nv40 Shot schlechter aussieht), als dass man weiter eisern behauptet, dass die NV40 BQ besser sei, und nur durch die Perspektive schlechter wirke ?-)
GF6800, FW 61.34, HQ, 4xAA, App-AF (also im Panel des Spiels aktiviert), in-Game Texturschärferegler auf Maximum.
http://home.arcor.de/quasat/3DC-Pics/MaxPayne2%202004-07-07%2020-06-53-35.JPG
sry
;(
Original geschrieben von Mr. Lolman
Mann, was ist das für eine Argumentation? Glaubst du, dass alle Moiré Effekte beim Nv40 plötzlich verschwunden sind, wenn man die gleiche Position einnimmt, wie auf voodoo7mx' Shot?. Oder andere Frage. Glaubst du, dass die Atifakte noch soviel schlimmer werden, wenn beide Shots von der selben Position aufgenommen werden?
Komisch, hier hat dich das noch überhaupt nicht gestört:
Original geschrieben von tombman
[...]
2.) Kamera nicht gleich.- check den weißen Cursor-Punkt. Diese Muster sind Kamera abhängig.
Original geschrieben von Mr. Lolman
Danke. Ist zumindest ein Beweis dafür, dass die Optimierungen auf dem NV40 (http://staff.withingames.net/iceman/mp2(4).png) fast gleiche BQ bringen wie die auf dem R420 (http://www.mitglied.lycos.de/utzu/ATi-Filter.jpg). Schade dass Voodoo7mx' erster Shot nicht genau an der Stelle des Savegames aufgenommen wurde.
Ähm, Lolman:
a) High-Performance ist das mieseste an Qualität, was du bei nV einstellen kannst - kein Vergleich zu "nur" Qualität oder "Performance". Von daher kaum für einen Vergleich geeignet gegen eine ATi auf "Qualität" mit aktiven Optimierungen.
b) Hat Iceman346 nur 8xAF genommen, die in-Game Einstellung von Max-Payne2 könnte da etwas anderes vorsehen (oder bestimmte Texturen davon aus- oder einschließen).
Kurz gesagt:
Was du hier vergleichst, sind nicht Äpfel mit Birnen, sondern Apfelsinenschalen mit Birnbäumen.
Mr. Lolman
2004-07-07, 20:21:02
Original geschrieben von q@e
Komisch, hier hat dich das noch überhaupt nicht gestört:
Ach, tombman wird die ganze Zeit genug zurechtgewiesen. ;)
Andere Frage, warum postest du ganze Zeit NV40 Screenshots, mit deaktivierten Optimierungen, v.A. wo jetzt (scheinbar) ohnehion alles geklärt ist?
Oder wartest du darauf, dass wieder jemand den Fehler macht mit dieser LOD Verschärfung und aktiven ATi Optimierungen einen Screenshot ins Forum zu stellen, damit die Basherei von vorne losgeht?
GloomY
2004-07-07, 20:22:18
Original geschrieben von Mr. Lolman
Mann, was ist das für eine Argumentation? Glaubst du, dass alle Moiré Effekte beim Nv40 plötzlich verschwunden sind, wenn man die gleiche Position einnimmt, wie auf voodoo7mx' Shot?.Das ist durchaus möglich.
Original geschrieben von Mr. Lolman
Oder andere Frage. Glaubst du, dass die Atifakte noch soviel schlimmer werden, wenn beide Shots von der selben Position aufgenommen werden?Vergleich' doch lieber, anstatt zu spekulieren. Dann wissen wir's. ;)
Original geschrieben von tombman
1.) sehen beide shit ausIch würde das persönlich anders sehen. Der ATI Shot hat im Vordergrund weniger Moirée, dafür in der Ferne ziemlich stark. Das stört mich (zumindest als Standbild) stärker als das generelle aber schwächere Moirée von nV.
Original geschrieben von tombman
2.) Kamera nicht gleich.- check den weißen Cursor-Punkt. Diese Muster sind Kamera abhängig. Äh ja, das gilt genauso für dich:
Original geschrieben von tombman
Hier mal ein Nvidia screenshot von mir mit Texturregler auf Voll -in-game. http://www.forum-3dcenter.org/vbulletin/attachment.php?s=&postid=1992355Guck' mal, wo da der Punkt ist. Die Holzwand ist sehr viel weiter weg, als bei den anderen flacheren Shots. Dein Ausschnitt sieht nach einem sehr viel steilerem Blickwinkel aus, ähnlich wie bei Icecubes letztem Bild (http://staff.withingames.net/iceman/mp2(4).png).
Mr. Lolman
2004-07-07, 20:23:53
Original geschrieben von q@e
Ähm, Lolman:
a) High-Performance ist das mieseste an Qualität, was du bei nV einstellen kannst - kein Vergleich zu "nur" Qualität oder "Performance". Von daher kaum für einen Vergleich geeignet gegen eine ATi auf "Qualität" mit aktiven Optimierungen.
b) Hat Iceman346 nur 8xAF genommen, die in-Game Einstellung von Max-Payne2 könnte da etwas anderes vorsehen (oder bestimmte Texturen davon aus- oder einschließen).
a) wenn das stimmt, sry, High Performance war in meinen Augen nur ein Synonym für aktive OPtimierungen.
b) Ja und, hat doch voodoo7mx auch gemacht. Wo liegt da jetzt das Problem?
c) Was ich komisch finde: Hat NV schon wieder neue Wundertreiber? Standardmässig keine Optimierungen mehr, und trotzdem höhere fps?
Blaire
2004-07-07, 20:25:14
Original geschrieben von Mr. Lolman
Mann, was ist das für eine Argumentation? Glaubst du, dass alle Moiré Effekte beim Nv40 plötzlich verschwunden sind, wenn man die gleiche Position einnimmt, wie auf voodoo7mx' Shot?. Oder andere Frage. Glaubst du, dass die Atifakte noch soviel schlimmer werden, wenn beide Shots von der selben Position aufgenommen werden?
Da ist es noch plausibler anhand des vorliegenden Materials, damit zu argumentieren, dass beide mit aktiven Optimierungen und dem Texturschärfe Regler am Anschlag ungefähr gleich filtern (auch wenn in Wahrheit der Nv40 Shot schlechter aussieht), als dass man weiter eisern behauptet, dass die NV40 BQ besser sei, und nur durch die Perspektive schlechter wirke ?-)
Die Moire-Effekte wären sich nach hinten gewandert so wie bei dem Ati Shoot. Aber darum ging es mir garnicht.
So krass wie auf Bild 1 sieht es bei der Nvidia mit Optimierungen enabled nicht aus!
Original geschrieben von Mr. Lolman
b) Ja und, hat doch voodoo7mx auch gemacht. Wo liegt da jetzt das Problem?
c) Was ich komisch finde: Hat NV schon wieder neue Wundertreiber? Standardmässig keine Optimierungen mehr, und trotzdem höhere fps?
ad b)
Einstellungen sind wie gefolgt: 1280x960+4MSAA+AF über Game Panel.
Beides über's Game-Panel eingestellt - ich weiß nicht genau, welches AF MP2 da nimmt, ich meine aber, einmal testweise probiert zu haben, und da entsprach der FPS-Verlust 16xAF.
c) Versteh' ich nicht - wie meinst du das?
GloomY
2004-07-07, 20:27:00
Nur mal als Vergleich der Aussschnitt aus dem Anfangsshot:
Mr. Lolman
2004-07-07, 20:28:50
Original geschrieben von Blaire
Die Moire-Effekte wären sich nach hinten gewandert so wie bei dem Ati Shoot. Aber darum ging es mir garnicht.
So krass wie auf Bild 1 sieht es bei der Nvidia mit Optimierungen enabled nicht aus!
Trotz, dem Ingame Regler @ ganz rechts?
@Gloomy, das mit dem Verschwinden glaubst du ja selber nicht. Vielleicht dass man nahe genug der Wand ist, damit der letzte Mipmapübergang dazwischen nicht mehr angezeigt wird, aber der mittlere bleibt dann immernoch da...
Mr. Lolman
2004-07-07, 20:31:15
Original geschrieben von q@e
ad b)
Beides über's Game-Panel eingestellt - ich weiß nicht genau, welches AF MP2 da nimmt, ich meine aber, einmal testweise probiert zu haben, und da entsprach der FPS-Verlust 16xAF.
c) Versteh' ich nicht - wie meinst du das?
b) hab mich verlesen. Sry...
c) Naja, du meinst, die Optimierungen sind standardmässig nicht mehr aktiv, und in manchen Reviews, wird den NV Karten mit dem neuen Treiber trotzdem eine höhere Performance angedichtet?
Blaire
2004-07-07, 20:31:31
Original geschrieben von Mr. Lolman
Trotz, dem Ingame Regler @ ganz rechts?
@Gloomy, das mit dem Verschwinden glaubst du ja selber nicht. Vielleicht dass man nahe genug der Wand ist, damit der letzte Mipmapübergang dazwischen nicht mehr angezeigt wird, aber der mittlere bleibt dann immernoch da...
Genau das mein ich!
GloomY
2004-07-07, 20:33:26
Original geschrieben von Mr. Lolman
@Gloomy, das mit dem Verschwinden glaubst du ja selber nicht.Es kommt immer drauf an, wie viele Texel auf ein Pixel kommen und das ist u.a. davon abhängig, wie flach oder steil ich auf eine Fläche draufschaue.
Btw: Ich habe nicht gesagt, dass es so ist. Ich sagte man solle vergleichen anstatt zu spekulieren. ;)
So hier 2 Bilder die auf einer Geforce 2 pro geschossen wurden.
Treiber ist der 61.45. 2 AF 4 AA beides im Cp geforced und im spiel auch eingestellt. beim ersten Bild wurde der Texturregler aufs Maximum gestellt bei dem zweiten ist die Einstellung default. Trilinear ist auch eingestellt.
Bild 1:
http://img42.exs.cx/img42/8283/MaxPayne21.jpg
Bild 2:
http://img50.exs.cx/img50/6083/MaxPayne22.jpg
BTW: ich hatte mit 4 AA immernoch 30 Fps :freak:
Gast
Original geschrieben von Mr. Lolman
c) Naja, du meinst, die Optimierungen sind standardmässig nicht mehr aktiv, und in manchen Reviews, wird den NV Karten mit dem neuen Treiber trotzdem eine höhere Performance angedichtet?
Nein, nicht standardmäßig (hab ich das wirklich geschrieben? Dann sry!), sondern nur, wenn man "High Quality" bei den Systemleistungseinstellungen auswählt.
Original geschrieben von Mr. Lolman
Oder wartest du darauf, dass wieder jemand den Fehler macht mit dieser LOD Verschärfung und aktiven ATi Optimierungen einen Screenshot ins Forum zu stellen, damit die Basherei von vorne losgeht?
Eigentlich hatte ich gehofft, daß mal jemand einen ATi-Screenshot hier reinstellt, mit der maximal erreichbaren Qualität in den gegebenen Settings.
(sry, hatte dein Posting vorhin nicht gesehen)
Jesus
2004-07-07, 21:05:26
also ich finde das Bild von Iceman schlimmer als das auf Seite 1 ( beide mit Regler auf anschlag und optimierungen an ,HQ).
Ok der Winkel stimmt nicht , aber ich finds trotzdem eher besser wenn das Moire sich nicht über den ganzen Schirm verteilt.
und noch ne ganz dumme frage - wieso verschiebt ati eigentlich das LOD hin zu schärferen Texturen wenn man dadurch weniger FPS erzielt ? Zumindest hab ich das gerade festgestellt: Regler ganz rechts( scharf ) 91fps, ganz links (unscharf ) 105 fps.
btw so siehts bei mir aus mit 1280x1024 6xAA 16x qAF
Textureregler auf ganz rechts ingame. ( inklusive Moire ganz hinten aber kaum erkennbar , nur in bewegung )
http://nemesis.rushers.net/max.jpg
Hmm würde das ganze mal gerne auf einer Deltacrome sehen. Hat die jemand so ganz zufällig? Ich habe zwar die karte aber das game ned.
Blaire
2004-07-07, 21:31:34
Original geschrieben von Jesus
also ich finde das Bild von Iceman schlimmer als das auf Seite 1 ( beide mit Regler auf anschlag und optimierungen an ,HQ).
Ok der Winkel stimmt nicht , aber ich finds trotzdem eher besser wenn das Moire sich nicht über den ganzen Schirm verteilt.
und noch ne ganz dumme frage - wieso verschiebt ati eigentlich das LOD hin zu schärferen Texturen wenn man dadurch weniger FPS erzielt ? Zumindest hab ich das gerade festgestellt: Regler ganz rechts( scharf ) 91fps, ganz links (unscharf ) 105 fps.
btw so siehts bei mir aus mit 1280x1024 6xAA 16x qAF
Textureregler auf ganz rechts ingame. ( inklusive Moire ganz hinten aber kaum erkennbar , nur in bewegung )
Also für mich ist das schon sichtbar und nicht nur in Bewegung. Das ist HighQuality bei der Ati 9800 Pro? Dir ist auch klar das Icemans Shoots nicht HQ waren?
Jesus
2004-07-07, 21:33:18
Original geschrieben von Blaire
Dir ist auch klar das Icemans Shoots nicht HQ waren?
:O
Original geschrieben von Iceman346
High Quality mit Regler im Spiel auf Anschlag:
http://staff.withingames.net/iceman/mp2(3).png
;D
Original geschrieben von Jesus
...kaum erkennbar...
!= nicht sichtbar ;)
x-dragon
2004-07-07, 21:37:45
Original geschrieben von Gast
Hmm würde das ganze mal gerne auf einer Deltacrome sehen. Hat die jemand so ganz zufällig? Ich habe zwar die karte aber das game ned. Vielleicht ist die Szene ja in der Demo-Version drin:
http://www.3dgamers.com/games/maxpayne2
Blaire
2004-07-07, 21:39:42
Original geschrieben von Jesus
:O
;D
!= nicht sichtbar ;)
http://staff.withingames.net/iceman/mp2.png
Das ist HQ und Optimierungen Aus! Lies mal richtig.
Jesus
2004-07-07, 21:44:09
Original geschrieben von Blaire
http://staff.withingames.net/iceman/mp2.png
Das ist HQ und Optimierungen Aus! Lies mal richtig.
nö lies du besser richtig :) ich habe gesagt optimierungen an bei beiden ;)
Radeonator
2004-07-07, 21:44:18
Oki, ich schau mal ob ichs noch rumliegen hab und poste Später(morgen) DC shots.
Evtl auch mit 4xFSAA oder 6xFSAA ;)
Blaire
2004-07-07, 21:47:07
Original geschrieben von Jesus
nö lies du besser richtig :) ich habe gesagt optimierungen an bei beiden ;)
Das ist aber nicht High Quality! Das hättest du dazuschreiben müssen.
Außerdem wiederlegst du mit deinem Bild selbst, daß man das Moire bei der 9800 Pro nur in Bewegung sieht.
Jesus
2004-07-07, 21:52:26
Original geschrieben von Blaire
Das ist aber nicht High Quality! Das hättest du dazuschreiben müssen.
Außerdem wiederlegst du mit deinem Bild selbst, daß man das Moire bei der 9800 Pro nur in Bewegung sieht.
ich habe gesagt man sieht es KAUM, ok "nur" ist vielleicht kein gutes wort, hätte stattdessen "besser" schreiben sollen. Aber bitte was soll das eigentlich ? :)
Ausserdem bezieht iceman das HQ auf den Regler im CP ( deswegen unterscheidet er bei dem Post von dem ich das Quote gemacht habe auch zwischen HQ und Performance, bei beiden sieht man das Moire beim einen mehr, beim anderen weniger ) inkl. AKTIVIERTER Optimierungen.
Mr. Lolman
2004-07-07, 22:14:36
Original geschrieben von Blaire
Also für mich ist das schon sichtbar und nicht nur in Bewegung. Das ist HighQuality bei der Ati 9800 Pro? Dir ist auch klar das Icemans Shoots nicht HQ waren?
Sicher iceman hat 2 HQ Shots und 2 HP Shots gepostet.
Einmal jew. mit dem Ingame-Texturschärfenregler @ default und das andere Mal @ max.
Hier (http://staff.withingames.net/iceman/mp2(3).png) der Shot, der am ehesten mit Jesus 9800pro Bild vergleichbar ist. (Beide @ HQ, beide mit max. texturschärfe)
/edit: vielleicht sollte man sich darauf einigen, dass ein Weiterführen der Diskussion absurd ist, da die Karten von BEIDEN Herstellern bei negativem LOD Bias nunmal zu Flimmern/Moiré neigen, welches durch aktive Optimierungen zusätzlich verstärkt wird (was ja garnicht mal so absurd ist ;))
(del676)
2004-07-07, 22:47:29
also mit maximaler Texturschärfe hab ich kein Moire, allerings hab ich auch nur eine 5900u
tombman
2004-07-07, 23:03:57
[SIZE=1]Original geschrieben von Mr. Lolman
Ach, tombman wird die ganze Zeit genug zurechtgewiesen. ;)
falsch, ich weise zurecht ;)
Und hier mal was ganz feines, NULL moiré mit x800xt pe ;)
(ihr dürft raten wie ichs gemacht habe; textur-lod war maximum in-game, Rest auch Maximum ;))
http://img50.exs.cx/img50/8932/x800paynesuper.jpg
Als Randbemerkung zu den vorherigen Seiten betreff NV Shots:
In den neuen Treibern deaktiviert "High Quality" die beiden Optimierungen permanent, lassen sich auch nicht reaktivieren. Erst ab "Quality" darf man selbst hand anlegen.
Mit ner GF4 müsste man mal nen Screenshot machen, da dort ja die beste AF Quali erreicht werden "soll".
Das wäre dann der sogenannte "Refrast" :P
Jesus
2004-07-07, 23:06:20
@tomb: Application default ? :D
@gast: welche neuen treiber ? iceman hatte die 61.34 und auf HQ mit aktivierten optimierungen.
EDIT: nein hatte er wohl eher nicht :) welche hatte er ? ;)
tombman
2004-07-07, 23:08:37
Original geschrieben von Jesus
@tomb: Application default ? :D
@gast: welche neuen treiber ? iceman hatte die 61.34 und auf HQ mit aktivierten optimierungen.
nein, weiterraten ;)
Jesus
2004-07-07, 23:09:48
mach mal die leerzeichen weg nach dem [img] tag :)
hm kein Reg hack ?
tombman
2004-07-07, 23:10:46
Original geschrieben von Jesus
mach mal die leerzeichen weg nach dem [img] tag :)
hm kein Reg hack ?
nope ;)
Jesus
2004-07-07, 23:11:00
auflösung erhöht :)
Blaire
2004-07-07, 23:11:19
Textureschärferegler zurück? ;D
tombman
2004-07-07, 23:12:41
Original geschrieben von Jesus
auflösung erhöht :)
Yeah baby, yeah ;)
2048x1536, 6xAA, 16xAF ;) (obwohl ich ned sicher bin, ob der Treiber des 6xAA auch nimmt bei der res... soll ja nur bis 1920x1200 gehen laut CP)
Jesus
2004-07-07, 23:13:35
sieht auf jeden fall hammergeil aus in der auflösung :) bräuchte man nur noch nen passenden monitor :P
hier mal das andere übel bei mir in 640x480 sonst selbe Einstellungen wie vorher ( 16xAF ): Überall Moiré :)
http://nemesis.rushers.net/maxlow.jpg
tombman
2004-07-07, 23:18:32
Original geschrieben von Jesus
sieht auf jeden fall hammergeil aus in der auflösung :) bräuchte man nur noch nen passenden monitor :P
btw, auf 4xAA, was absolut ausreicht bei der res (2xAA reichen auch locker... sieht man eh keine Kanten mehr ;))
warens noch 75fps ;) (app-af, kein oc)
p.s.: ich hätte da was für unsere Neidhammel, die mir ihre schlechten Vibes geschickt haben:
ich hab mich jetzt 2 Stunden ned gemeldet weil meine x800xt pe nach einem Umstecken kaputt war. Ich habs tatsächlich so faul in den Agp port gesteckt, daß ein SMD-Widerstand abgebrochen war (1mm groß!). Danach ging KEIN 3D mehr, nicht mal in win kam ich rein ohne totalen Matsch am Schirm. Ich wußte, die is hin...
Naja, aber Genie, wie ich nun mal bin, holte ich meine x800pro her, welche ja das selbe layout hat und suchte den Unterschied- irgendwo MUSSTE einer sein, irgendwo war ein SMD-Widerstand zu wenig. Hehe, nach einer Stunde fand ich die Stelle ganz in der Nähe des AGP-ports. Leider hatte ich durch eine Unachtsamkeit diesen 1mm Widerstand verloren...normalerweise gibt man jetzt auf...ich nicht ;)
Habe einfach mit einem Multimeter den x800pro Widerstand abgemessen, welcher anscheinend 0.2 Ohm war.(kA ob das Voltmeter überhaupt genau genug für sowas ist, aber es reichte um zu wissen, daß der Widerstand jedenfalls SEHR KLEIN war) Also bin ich einfach mit der Silberleitlackfarbe drübergegangen mit der Hoffnung, daß der Eigenwiderstand des Lacks ziemlich genau hinkommen müßte- und es hat geklappt ;) Sie rennt wieder :D Wobei ich ned weiß ob sie noch ocen kann und wie stabil des ganze ist, aber fürs erste reichts ;))
MeLLe
2004-07-07, 23:21:02
Original geschrieben von tombman
Yeah baby, yeah ;)
2048x1536, 6xAA, 16xAF ;) (obwohl ich ned sicher bin, ob der Treiber des 6xAA auch nimmt bei der res... soll ja nur bis 1920x1200 gehen laut CP)
Und wie ist die Performance, so im allgemeinen?
Spielbarkeit bezweifle ich, ganz ehrlich. Damit ist das kein Setting, was praktikabel ist. Ganz abgesehn davon, dass es nicht jeder Monitor überhaupt darstellen kann.
Außerdem: eben AF sollte solchen Moirés bei "niedriger" Auflösung (=Unterabtastung) entgegenwirken.
Edit: Ok, 75fps bei 4xAA ist ok, trotzdem bleibt Punkt zwei bestehen.
Iceman346
2004-07-07, 23:21:42
Original geschrieben von Jesus
@gast: welche neuen treiber ? iceman hatte die 61.34 und auf HQ mit aktivierten optimierungen.
Ich hab die 61.71er laufen. Auf HQ scheint die Karte mit dem Treiber nicht 100% trilinear zu filtern, aber ansonsten ist afaik nichts optimiert.
GloomY
2004-07-07, 23:29:02
Original geschrieben von tombman
Yeah baby, yeah ;)
2048x1536, 6xAA, 16xAF ;) (obwohl ich ned sicher bin, ob der Treiber des 6xAA auch nimmt bei der res... soll ja nur bis 1920x1200 gehen laut CP) Das verschiebt das Problem aber nur weiter nach hinten und damit aus dem sichtbaren Bereich heraus. Würde der Boden nicht durch die Wand begrenzt sondern unendlich weit nach hinten ragen, würdest du in einiger Entfernung auch wieder Textureflimmern sehen. Durch die Entfernung wären natürlich weniger Pixel des Bildes betroffen und daher würde es nicht so auffallen. Das Problem der Unterfilterung besteht aber weiterhin, wenn auch nicht in den "vorderen" Pixeln des Bildes.
tombman
2004-07-07, 23:32:20
Original geschrieben von MeLLe
Edit: Ok, 75fps bei 4xAA ist ok, trotzdem bleibt Punkt zwei bestehen.
Was genau ist jetzt dein Problem?
MeLLe
2004-07-07, 23:35:09
Original geschrieben von tombman
Was genau ist jetzt dein Problem?
Wer lesen kann ist klar im Vorteil ...
Original geschrieben von MeLLe
[snip]
Ganz abgesehn davon, dass es nicht jeder Monitor überhaupt darstellen kann.
Außerdem: eben AF sollte solchen Moirés bei "niedriger" Auflösung (=Unterabtastung) entgegenwirken.
tombman
2004-07-07, 23:35:14
Original geschrieben von GloomY
Das verschiebt das Problem aber nur weiter nach hinten und damit aus dem sichtbaren Bereich heraus. Würde der Boden nicht durch die Wand begrenzt sondern unendlich weit nach hinten ragen, würdest du in einiger Entfernung auch wieder Textureflimmern sehen. Durch die Entfernung wären natürlich weniger Pixel des Bildes betroffen und daher würde es nicht so auffallen. Das Problem der Unterfilterung besteht aber weiterhin, wenn auch nicht in den "vorderen" Pixeln des Bildes.
Wieso? Weiter hinten gibts auch wieder eine andere LOD-Stufe, und diese könnte ja ausreichen um kein moiré zu sehen.
Jedenfalls hab ich das Problem gelöst . zugegeben, großer Monitor ist vielleicht unfair, aber auch Kirk hatte sein K-Maru ;)
Original geschrieben von Jesus
@gast: welche neuen treiber ? iceman hatte die 61.34 und auf HQ mit aktivierten optimierungen.
Ab 61.45
tombman
2004-07-07, 23:36:16
Original geschrieben von MeLLe
Wer lesen kann ist klar im Vorteil ...
sei ned frech, sonst kriegst von mir sicher keine Antwort.
Original geschrieben von Iceman346
Ich hab die 61.71er laufen. Auf HQ scheint die Karte mit dem Treiber nicht 100% trilinear zu filtern, aber ansonsten ist afaik nichts optimiert.
In der Beziehung scheint der 61.34er bislang vorbildhaft - da reichten dann auch schon moderate 1280x960 für eine moire-freies Bild.
tombman
2004-07-07, 23:39:11
Original geschrieben von q@e
In der Beziehung scheint der 61.34er bislang vorbildhaft - da reichten dann auch schon moderate 1280x960 für eine moire-freies Bild.
Auch auf in-game TExtur auf superscharf? Glaube nicht ;)
Glaube doch, das Bild hab ich ja schon gepostet. ;)
(del676)
2004-07-07, 23:45:27
Original geschrieben von tombman
Auch auf in-game TExtur auf superscharf? Glaube nicht ;)
Achtung: "Glauben heisst nix wissen"
Anbei ein 1280x960 4xMSAA 8xAF (Quality) Screenshot mit allen Details @ Max + Ingame Texturschärfe @ Max
http://img34.exs.cx/img34/1658/mp2-2.jpg
edit: zum vergleich mit standard texturschärfe http://img16.exs.cx/img16/8531/mp2.jpg
GloomY
2004-07-07, 23:53:57
Original geschrieben von tombman
Wieso? Weiter hinten gibts auch wieder eine andere LOD-Stufe, und diese könnte ja ausreichen um kein moiré zu sehen.Warum sieht man Moirée? Weil eine Unterabtastung stattfindet. Durch das negative LOD werden für alle Samplingberechnungen Texturen/Mipmaps verwendet, die eigentlich zu groß sind. Dadurch findet eine Unterabtastung statt, die sich in dem Moirée-Effekt äußert.
Jetzt zur Entfernung: Vorne siehst du kein Moirée, weil die Basistextur zu klein ist. Eigentlich würde der Treiber gerne eine Textur/Mipmap verwenden, die größer als die Ursprungstextur ist. Da das nicht geht, nimmt er eben die größtmögliche und wirkt dem Effekt des LOD-Verschiebens damit entgegen. Dadurch findet keine Unterabtastung statt und es entsteht somit auch kein Moirée.
Weiter hinten im Bild wird irgendwann der Punkt erreicht, wo der Treiber bei normal gewähltem LOD als eine der beiden Sampling-Texturen für den trilinearen Filter eine kleinere Mipmap wählen würde. Hier wirkt aber die LOD Verschiebung (wie überall), so dass hier noch die volle Basistextur benutzt wird. Das erzeugt dann aber wieder Moirée, denn dann findet ab diesem Punkt generell wieder eine Unterabtastung statt (Shannon lässt grüßen).
edit: Um noch mal dein Argument mit der anderen LOD Stufe aufzufassen: Ja, Mipmaps gibt es natürlich auch, aber die kleineren werden eben generell für das Bild zu spät verwendet, weil das LOD negativ ist.
tombman
2004-07-08, 00:01:39
tjo, wenn ich mich genau in dem selben Winkel hinstelle, bekomme ich auch mit der ATI kein moiré auf 1280x960...
@quasar, stell dich mal so hin wie bei dem ersten screenshot.
morgen vielleicht, wenn ich wieder zu Hause bin. =)
Mr. Lolman
2004-07-08, 00:14:18
Original geschrieben von Ulukay
Achtung: "Glauben heisst nix wissen"
Aber Ulukay, die FX filtert ja besser als die 6800...
Blaire
2004-07-08, 00:28:39
1280x960 4xFSAA 16xAF Optimizations Enabled 6800U
http://img48.exs.cx/img48/7507/mp2_16x_optOn.jpg
Dort sieht man ein leichtes Moire
zeckensack
2004-07-08, 00:37:30
Original geschrieben von Gast
Hmm würde das ganze mal gerne auf einer Deltacrome sehen. Hat die jemand so ganz zufällig? Ich habe zwar die karte aber das game ned. 2xAA, AF, beides über den Spieloptionator eingepegelt. 800x600. Wie Gloomy schon richtig sagte treten Filterartefakte durch falschen LOD vor allem in geringen Auflösungen zu Tage, das passt also.
Den "texture sharpness"-Regler im Spiel habe ich selbstverständlich in der Mitte gelassen, da wo er auch hingehört. IMO unverantwortlich von Remedy diesen bescheuerten Regler überhaupt einzubauen.
http://www.ystart.net/upload/20040708/1089239667.jpg
Mach es mal wie auf dem Screenshot der allerersten Seite, der weise Punkt muss nahe an die kleine Trennwand, dann sieht man vor dem Tisch dem Moire Effekt.
Kannst mal 1600x1200 8xAA+16AF auf "Quality" stellen Force Mipmaps auf None und Optimierungen aus, dann gehts teilweise weg und ist nur noch unter dem Tisch in der dunklen Ecke zu sehen (Force Mipmaps auf Trilinear hat in der Ecke keinen Effekt, nur in der nähe des Punktes werden die Texturen noch n tick schärfer=.
Ganz bekommt man den Effekt nicht weg (btw mit 40fps is das ja ganz gut spielbar auf meiner GT ^^)
Ach ja FW 61.34
betasilie
2004-07-08, 00:41:43
Original geschrieben von Tjell
Spekulation: Könnte an einem im Zusammenhang mit diesem Blickwinkel auf den Boden ungünstigen Winkel des Rotated Grid AA zusammenhängen.
[editiert] Ähm... oder viel eher Winkelabhängigkeit des AF?
Was hat AA mit Texturfiltern zu tun?
Was hat die Winkelbhängigkeit mit dem Effekt zu tun? Guck dir den Winkel doch mal genau an.
Wenn man den "texture sharpness"-Regler auf Default belässt bekommt man den Moire Effekt auf einer GF68 nicht zu sehen, egal welche Settings.
IFO Peter
2004-07-08, 00:44:57
Original geschrieben von Gast
Wenn man den "texture sharpness"-Regler auf Default belässt bekommt man den Moire Effekt auf einer GF68 nicht zu sehen, egal welche Settings.
Habs gecheckt hast Recht!
betasilie
2004-07-08, 00:45:44
Original geschrieben von zeckensack
Den "texture sharpness"-Regler im Spiel habe ich selbstverständlich in der Mitte gelassen, da wo er auch hingehört.
Ack.
Die Computerbild-Gamer hauen den dann hoch und wundern sich über Moireeffekte/Artefakte.
Bei SeriousSam war es das selbe. Da haben ein paar Kumpels von mir auch dran rumgespielt und wundern sich dann über unruhige Bilder.
betasilie
2004-07-08, 00:47:31
Original geschrieben von tombman
ich finds nur hochinteressant, daß du ordentlich gegen ati Bildqualität geredet hast gegen mich und dir dann doch eine ATI karte kaufst...
Na, der Herr haut sich die Karte in den Rechner rein und schickt sie dann zurück. Das hat er doch groß in den entsprechenden Threads angekündigt.
Dieses Fernabgabegesetzt sieht die faulen Motten wie das Licht an. ;(
Mr. Lolman
2004-07-08, 01:02:06
Original geschrieben von zeckensack
Den "texture sharpness"-Regler im Spiel habe ich selbstverständlich in der Mitte gelassen, da wo er auch hingehört. IMO unverantwortlich von Remedy diesen bescheuerten Regler überhaupt einzubauen.
http://www.ystart.net/upload/20040708/1089239667.jpg
Naja, so wies aussieht könnte der Deltachrome ruhig ein bisschen negatives LOD Bias vertragen :naughty:
P.S.: Bei www.imageshack.us kannst du, ohne Registrierung, bis 850kB grosse Bilder hochladen.
zeckensack
2004-07-08, 01:05:38
Nachtrag @Lolman ;)
fps laut fraps mit den angegebenen Settings "alles auf voll", "texture sharpness" in der Mitte, 2xAA und AF mittels Konfigurationsprogrämmli. DeltaChrome S8 ;)
nix nur AF 2xAA+AF
640x 480 55 fps 55 fps 55 fps
800x 600 55 fps 55 fps 53 fps
1024x 768 55 fps 55 fps 42 fps
1280x 960 55 fps 53 fps 31 fps
1600x1200 39 fps 38 fps 20 fps
*schnellereCPUbrauch*
In MP sollte der Texturschärferegler in der Mitte (auf Standard) stehen. Das hatten wir schon mal, als sich Piffan über Aliasing in den MP2-Zäunen beschwerte.
Tjell
2004-07-08, 09:26:24
Original geschrieben von betareverse
Was hat AA mit Texturfiltern zu tun?
Was hat die Winkelbhängigkeit mit dem Effekt zu tun? Guck dir den Winkel doch mal genau an.
Spekulation längst gegegessen und überholt.
Ersteres war falsch, das meinte ich eigentlich garnicht. Dachte mir bei zweiterem fälschlicherweise, daß sich die Winkelabhängigkeit des AF auf das Muster der Bodentextur auswirken könnte, ist aber bei längerem Nachdenken auch Käse gewesen.
Es liegt auf der Hand, daß ich die technischen Hintergründe nicht auf dem Kasten habe, kann aber durchaus aus Sicht des "Normalnutzers mit größerem Hintergrundwissen" ein bischen beitragen. Ich hoffe, auf diese Weise doch mal hin und wieder sinnvolle Denkanstöße geben zu können.
:ratlos:
Mr. Lolman
2004-07-08, 11:26:59
Original geschrieben von zeckensack
*schnellereCPUbrauch*
OC doch ein bisschen *gleicheCPUhab*
Obwohl, bei mir:
640x480 nAA/AF
1600MHz (12x133) 63fps
2000MHz (12x166) 78fps
2400MHz (12x200) 95fps
:grübel: dass meine Karte mit 4xAA, 16xtriAF in dieser Szene noch absolut am CPU Limit hängt (http://img7.exs.cx/img7/803/MaxPayne2-2004-07-07-18-44-.jpg)
/edit: eher FSB...
Jesus
2004-07-08, 12:15:00
ich finde das so geil,
da regen sich alle über genau diese MP2 auf auf ner x800 und das böse texturflackern, nur leider wird es eben durch diesen Regler im Spiel und die damit zu scharf dargestellten Texturen erzeugt.
Mich würde aber trotzdem die Frage mal intressieren, wieso ATI das LOD verändert wenn man doch dadurch niedrigere FPS bekommt.
seahawk
2004-07-08, 12:22:24
Original geschrieben von Jesus
Mich würde aber trotzdem die Frage mal intressieren, wieso ATI das LOD verändert wenn man doch dadurch niedrigere FPS bekommt.
Weil sie die maximale BQ für ihre Käufer anbieten wollen.
Oder auch, weil man damit unter AF Rechenleistung einspart.
Tesseract
2004-07-08, 12:30:45
Original geschrieben von seahawk
Weil sie die maximale BQ für ihre Käufer anbieten wollen.
nein, damit auf den screenshots der eindruck entsteht sie sei besser - das ist aber nicht der fall
zeckensack
2004-07-08, 12:37:48
Leicht OT ...
Original geschrieben von Mr. Lolman
OC doch ein bisschen *gleicheCPUhab*Nein :)
Obwohl, bei mir:
640x480 nAA/AF
1600MHz (12x133) 63fps
2000MHz (12x166) 78fps
2400MHz (12x200) 95fps
:grübel: dass meine Karte mit 4xAA, 16xtriAF in dieser Szene noch absolut am CPU Limit hängt (http://img7.exs.cx/img7/803/MaxPayne2-2004-07-07-18-44-.jpg)
/edit: eher FSB... Ich habe ja schon versucht messtechnisch zu beweisen, dass die Treiber von S3 (noch?) relativ ineffizient sind. Dh dass das CPU-Limit mit der Karte sehr viel niedriger hängt, einfach weil die Treiber mehr CPU-Leistung verballern.
Mit meiner 9500Pro oder mit der FX5700 erreiche ich sicher auch höhere Werte in den kleinen Auflösungen.
Original geschrieben von seahawk
Weil sie die maximale BQ für ihre Käufer anbieten wollen.
Oder auch, weil man damit unter AF Rechenleistung einspart. 1. Nein.
2. Genau.
Ausführlich :) Maximale BQ heißt nicht, maximal scharfe Texturen. Klingt erst mal komisch. Aber wenn man den Texturinhalt schärfemäßig zu 100% ausreizt, wird es schon langsam flimmerig. Aus diesem Grunde bemühen sich gute Content-Artists, zwar scharfe Texturen zu verwenden, die jedoch das angesichts der Texturauflösung mögliche Frequenzspektrum eben nicht ganz ausnutzen.
2. ATI nutzt dies, um weniger Samples als eigentlich erforderlich zu nehmen. Damit erscheinen einige Texturen auf Screenshots schärfer, besser wird die BQ damit allerdings nicht. (Ist ja auch irgendwie einsichtig, dass man durch das Nehmen von zu wenig Textursamples keine bessere BQ erzeugen kann.)
Jesus
2004-07-08, 13:40:14
das beantwortet meine Frage nicht. Wenn ich bei gleichbleibendem AF ( 16x ) den Textureschärferegler von ganz links ( unscharf ) nach ganz rechts ( scharf ) verschiebe dann habe ich ca. 15 fps weniger.
Original geschrieben von Jesus
das beantwortet meine Frage nicht. Wenn ich bei gleichbleibendem AF ( 16x ) den Textureschärferegler von ganz links ( unscharf ) nach ganz rechts ( scharf ) verschiebe dann habe ich ca. 15 fps weniger. Das verschiebt ja auch den LOD-Bias, das kostet mehr Leistung.
Jesus
2004-07-08, 14:05:21
wieso macht ATI das wenn es mehr Leistung kostet ?
Original geschrieben von Jesus
wieso macht ATI das wenn es mehr Leistung kostet ? Macht ATI ja nicht. ATI stellt nicht etwa ein negatives LOD-Bias ein, sondern nimmt für einen gegebenen AF-Grad zu wenig Samples.
betasilie
2004-07-08, 14:37:40
Original geschrieben von Tjell
Spekulation längst gegegessen und überholt.
Ersteres war falsch, das meinte ich eigentlich garnicht. Dachte mir bei zweiterem fälschlicherweise, daß sich die Winkelabhängigkeit des AF auf das Muster der Bodentextur auswirken könnte, ist aber bei längerem Nachdenken auch Käse gewesen.
Es liegt auf der Hand, daß ich die technischen Hintergründe nicht auf dem Kasten habe, kann aber durchaus aus Sicht des "Normalnutzers mit größerem Hintergrundwissen" ein bischen beitragen. Ich hoffe, auf diese Weise doch mal hin und wieder sinnvolle Denkanstöße geben zu können.
:ratlos:
Ich bin ja auch kein Fachmann, aber wenn man lange genug hier ist, bekommt man die eine oder andere Sache mit. ;)
Original geschrieben von Blaire
1280x960 4xFSAA 16xAF Optimizations Enabled 6800U
http://img48.exs.cx/img48/7507/mp2_16x_optOn.jpg
Dort sieht man ein leichtes Moire
Komisch, wenn man browser das bild dem monitor anpasst sehe ich moire, aber sobald ich das bild vergrössere ist es weg (orginalgrösse) , komisch, komisch :)
Nicht komisch, völlig normal. So ist das eben, wenn man hochfrequente Inhalte mit einer kleinen Auflösung abbilden will :)
btw, auf dem Bild sehe ich fast noch mehr JPEG-Artefakte als Moiré.
tombman
2004-07-08, 16:00:20
Original geschrieben von aths
Macht ATI ja nicht. ATI stellt nicht etwa ein negatives LOD-Bias ein, sondern nimmt für einen gegebenen AF-Grad zu wenig Samples.
und schaffen damit trotzdem nicht schlechtere bq als nvidia -bei mehr fps; intelligent eben :)
Wer den Unterschied nicht sieht, darf sich freuen. Andere stören sich daran.
Tesseract
2004-07-08, 16:07:32
Original geschrieben von tombman
und schaffen damit trotzdem nicht schlechtere bq als nvidia -bei mehr fps
genausogut könnte ich jetzt sagen die schaffen nicht die selbe bq bei gleichvielen fps
sind beides aussagen die nicht haltbar sind ;)
Tjell
2004-07-08, 16:14:47
Der AF-Filter von ATI mag noch so intelligent sein, dadurch daß sie ihn nicht deaktivierbar machen, verkaufen sie die Käufer für dumm.
betasilie
2004-07-08, 17:43:18
Original geschrieben von Tjell
Der AF-Filter von ATI mag noch so intelligent sein, dadurch daß sie ihn nicht deaktivierbar machen, verkaufen sie die Käufer für dumm.
Das machen wohl z.Zt. alle Hersteller auf dem Markt.
Original geschrieben von tombman
und schaffen damit trotzdem nicht schlechtere bq als nvidia -bei mehr fps; intelligent eben :) Die Bilder von firingsquad hast du gesehen?
Wäre der Algo wirklich "intelligent", wie du schreibst, würde er solche Texturinhalte erkennen und dort korrekt filtern.
tombman
2004-07-08, 18:56:00
Original geschrieben von aths
Die Bilder von firingsquad hast du gesehen?
Wäre der Algo wirklich "intelligent", wie du schreibst, würde er solche Texturinhalte erkennen und dort korrekt filtern.
hast du meine bilder gesehen? dort sind weit höher frequente inhalte zu sehen und die bq war gleich.
ich hab lomac nicht, sonst bin ich zu 99,9% sicher, daß firingsquad schweren mist gebaut hat. die fehler, die mit ati dort bei lomac gezeigt werden, könnte ich nicht mal erzeugen wenn ich es speziell darauf anlegen würde. dh, der fehler liegt entweder bei fs oder lomac.
namhafte sites sind i.ü. meiner meinung, daß ati nicht schlechtere bq als nvidia liefert.
selbst hier auf 3dc ist dir oder sonstwem gelungen, das gegenteil zu beweisen.
*angepasst*
tombman
2004-07-08, 19:13:56
Original geschrieben von Xmas
Wer den Unterschied nicht sieht, darf sich freuen. Andere stören sich daran.
wie sollten die sich dran stören? unterschied heißt nicht schlechter, nur eben anders. die bq ist gleichwertig
nur wer nvidia fixiert und unflexibel ist, kann andere ansätze als gleichwertig nicht zulassen.
Original geschrieben von tombman
wie sollten die sich dran stören? unterschied heißt nicht schlechter, nur eben anders. die bq ist gleichwertig
Für dich. Ich bewerte nach anderen Gesichtspunkten, darum komme ich auch zu einem anderen Ergebnis.
Schön dass du wenigstens endlich anerkennst dass es tatsächlich Unterschiede gibt.
nur wer nvidia fixiert und unflexibel ist, kann andere ansätze als gleichwertig nicht zulassen.
Das hat garantiert nichts mit irgendwelchen Firmen zu tun, und wenn du mir mit Nicht-Zulassen von anderen Ansätzen kommt, muss ich dich fragen wer dies wohl geschrieben hat:
"Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht !"
Korrekt, du warst das. Lässt du da irgendwelche anderen Ansätze zu?
Ich kann durchaus deine Einschätzung akzeptieren, dass du die beiden als gleichwertig ansiehst. Ich tue es aber nicht, und diese Ansicht lasse ich mir von dir bestimmt nicht verbieten. Schon gar nicht lasse ich mir vorwerfen, ich würde damit irgendjemanden täuschen wollen.
Jesus
2004-07-08, 20:07:26
also ich finde nicht das Tombman so unrecht hat. Sicher das einzige Manko bei ATI ist dass die Optimierungen nicht abschaltbar sind, aber das ist ja bei Nvidia hin und wieder ( 61.11 und jetzt der neueste wieder wenn ich richtig gelesen habe ) auch nicht anders. Für mich wichtig ist dass nach meiner Subjektiven Meinung das ATI optimierte Bild besser aussieht, da das Moiré weiter in der Ferne liegt.
Was Tombman sagt ist einfach dass die unterschiede da sind, aber dass man nicht sagen kann dass das eine oder das andere generell besser oder schlechter aussieht, eben rein subjektiv :) Und dass ist auch das was eigentlich alle Reviewer genauso sehen aber leider einige hier nicht einsehen wollen.
MikBach
2004-07-08, 20:13:51
Original geschrieben von VooDoo7mx
*zustimm*
Ein grauenhafter Charakter...
Stimme auch zu. Man sollte sich doch bisschen zurückhalten. Ob der Charakter grauenhaft ist, sollte der liebe Gott entscheiden.
Allerdings sehe ich bisher die "Beweise" von tombman als nicht wiederlegt an. Viele bemühen sich, es auf technischer Ebene zu erklären. Das ist aber sehr dürftig, da es darauf ankommt, was tatsächlich auf dem Monitor zu sehen ist.
OT
Ich kann tombman aber auch verstehen, die meisten sind gegen ihn, obwohl er versucht objektiv zu sein, was nicht immer gut gehen kann, da jeder eine andere Wahrnehmung hat(wie schon einige hier festgestellt haben). Ich frage mich nur warum keiner auf seinen Vorschlag eingeht und die Stellen in bestimmten Spielen zeigt, wo ATI doch so furchtbar schlecht filtern soll, damit er es überprüfen bzw. Videos davon machen kann.
Mich würde es interessieren, da ich mir eine 6800GT zulegen wollte, nach tombman´s Aussagen bin ich mir aber nicht mehr sicher.
@tombman
Kannst du auch Screens/Videos von Gothic2(Klosterdach) machen?
Radeonator
2004-07-08, 20:16:10
ATi BQ mit AF ist nicht gleichwertig, egal wie sehr paranoide Fanboys diese Unwahrheiten gebetmühlenartig wiederholen, um sich hier zu profilieren. Fakt bleibt Fakt und Punkt. Ein gutes Beispiel um die Schwächen dieser Form der Optimierung aufzuzeigen.
Genauso einfach ist es allerding, das Standard FSAA der bsp. FXen als schlechten Ansatz aufzuzeigen. Die inkorrekten Gammawerte beim Sampling sehen alles andere als gut aus...wenn man biased genug ist könnte man das natürlich auch ignorieren, aber wozu? Ich will KEINE sichtbaren Optimierung im Upper und Highend haben. Wer Vollpreis bezahlt, soll volle Qualität bekommen und nicht Balekn optimierten Müll! Zumindest muss man die Wahl haben, wenn man Quali auf max setzt, auch max Quali zu bekommen, alles andere ist IMO Betrug am Kunden!Die Hersteller werben mit tollster , nie gesehener BQ und Effekten, also darf man das als Konsument auch erwarten können.
Es gibt auf dem Markt kein gut und böse, es gibt im Desktop bereich zwei große Firmen, die möglichst viel verdienen wollen, nicht mehr und nicht weniger. Wer was anderes darin sieht, hat nicht mehr alle auf der Pfanne, sry, ist aber so!!!
Jesus
2004-07-08, 20:18:54
Original geschrieben von Radeonator
ATi BQ mit AF ist nicht gleichwertig, egal wie sehr paranoide Fanboys diese Unwahrheiten gebetmühlenartig wiederholen, um sich hier zu profilieren. Fakt bleibt Fakt und Punkt. Ein gutes Beispiel um die Schwächen dieser Form der Optimierung aufzuzeigen.
soll ich jetzt alle reviews raussuchen in denen genau das Gegenteil behauptet wird ? Das ist deine MEINUNG, auf dem Papier mag es vielleicht schlechter aussehen, aber das einzige was zählt ist was am Ende von der tollen Filterqualität am Bildschirm rauskommt.
MikBach
2004-07-08, 20:22:51
Original geschrieben von Radeonator
ATi BQ mit AF ist nicht gleichwertig, egal wie sehr paranoide Fanboys diese Unwahrheiten gebetmühlenartig wiederholen, um sich hier zu profilieren. Fakt bleibt Fakt und Punkt. Ein gutes Beispiel um die Schwächen dieser Form der Optimierung aufzuzeigen.
Beweise es, und gut is. Wenn du es nicht beweisen kannst, einfach mal die Füsse still halten. :D
Radeonator
2004-07-08, 20:25:13
Original geschrieben von MikBach
Allerdings sehe ich bisher die "Beweise" von tombman als nicht wiederlegt an. Viele bemühen sich, es auf technischer Ebene zu erklären. Das ist aber sehr dürftig, da es darauf ankommt, was tatsächlich auf dem Monitor zu sehen ist.
(Klosterdach) machen?
Häh? Den thread hier hast schon durchgeschaut? Wird alleine in diesem Thread wiederlegt? In Zig Online Reviews, man muss nur die Augen auf machen und vielleicht mal googeln. Zudem kann man sich selbst das ganze mal anschauen. Fraps Filmchen sind unbrauchbar, da komprimiert und nicht gerade Traumhafte quali das...
OK, ich hatte bisher nur ~1 Sunde, um die Kärtchen in Aktion zu erleben, jedoch reicht mir das für einen ersten Eindruck.Sogar ATi Besitzer haben hier im Thread das Gegenteil gezeigt, aber vielleicht bekommen die auch Geld von nV oder es sind gar die Geheimnis umwobenen nVidiati™ *grusel ;D
Jesus
2004-07-08, 20:37:51
Original geschrieben von Radeonator
Den thread hier hast schon durchgeschaut? Wird alleine in diesem Thread wiederlegt? In Zig Online Reviews,nVidiati™ *grusel ;D
Zeig mir eines in denen die BQ von ATI als miserable und viel schlechter als die von Nv dargestellt wird.
Btw. in diesem Thread gings darum dass man den LOD Regler in MaxPayne auf maximum gestellt hatte, und sich gewundert hat dass dadurch ein Moiré effekt aufgrund zu scharfer Texturen entstand.
MikBach
2004-07-08, 20:39:54
Original geschrieben von Radeonator
Häh? Den thread hier hast schon durchgeschaut? Wird alleine in diesem Thread wiederlegt? In Zig Online Reviews, man muss nur die Augen auf machen und vielleicht mal googeln. Zudem kann man sich selbst das ganze mal anschauen. Fraps Filmchen sind unbrauchbar, da komprimiert und nicht gerade Traumhafte quali das...
OK, ich hatte bisher nur ~1 Sunde, um die Kärtchen in Aktion zu erleben, jedoch reicht mir das für einen ersten Eindruck.Sogar ATi Besitzer haben hier im Thread das Gegenteil gezeigt, aber vielleicht bekommen die auch Geld von nV oder es sind gar die Geheimnis umwobenen nVidiati™ *grusel ;D
Lol.
Habe mir nicht nur diesen Thread ganz durchgelesen, auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=152660
Von welchen Reviews du sprichst würde ich gerne wissen. LOMAC? Lol.
Mach du mal die Augen auf bevor du hier so ein Sch**** postest.
Ach so, Videos bringen es auch nicht mehr, nachdem die die Screenshots wenig aussagekraft haben. Lol. Träum weiter.
Also du mienst dein(theoretischer) Dünnpfiff bringt mehr als die Praxis.
Denk mal nach.
Radeonator
2004-07-08, 20:51:22
Original geschrieben von Jesus
Zeig mir eines in denen die BQ von ATI als miserable und viel schlechter als die von Nv dargestellt wird.
Btw. in diesem Thread gings darum dass man den LOD Regler in MaxPayne auf maximum gestellt hatte, und sich gewundert hat dass dadurch ein Moiré effekt aufgrund zu scharfer Texturen entstand.
Ich habe niemals irgendetwas von Miserabel oder sonstiger Bewertung abgegeben, auch VIEL schlechter sehe ich da nirgendwo. Meine Sig trifft hier mal wieder voll ins schwarze. Es ist auf den Screenshots deutlich zu sehen, das der moirê Effekt auf ATi Karten stärker auftritt. Man kann damit leben, natürlich, jedoch hilft das nichts. Ich will nicht "damit leben" , sondern Qualitäts Maximum, wenn ich es einstelle. Egal ob ATi oder nV und bums.Ach ja, es geht btw darum, das man vielleicht auch das Thema einer Diskussion durchlesen sollte...danke ;)
Ändern, ach ja, ich bitte darum diese primitiven beleidigungen zu unterlassen, ich habe dieses "Gossen Niveau" nicht nötig und andere haben ebenfalls das Anrecht auf angemessenen Umgang.
p.s.: Komisch das ihr nichts dazu schreibt, das ich nVidias FSAA gegenüber ATis Lösung abwerte, ein Schelm wer böses dabei denkt...wo ihr doch so super "neutral" seit...:eyes:
Original geschrieben von MikBach
Also du mienst dein(theoretischer) Dünnpfiff bringt mehr als die Praxis.
Denk mal nach. Das ist jetzt allgemein gesagt und nicht speziell auf dich gemünzt: Mir dünkt, die Ablehnung der Theorie beruht bei einigen darauf, dass sie von ihr keine Ahnung haben. Damit hätte ich kein Problem, sofern dann nicht in der Regel im gleichen Zuge behauptet wird, was man nicht sehe, sei prinzipiell nicht da.
Noch allgemeiner: Etwas mehr Theoriekenntnisse könnten nicht schaden, wenn ich mir diese Diskussion ansehe. Etwas Samplingtheorie, wissen was LOD-Bias ist, wie man das Nyquist-Kriterium etc. pp., und viele Postings würde es zurecht nicht geben.
MikBach
2004-07-08, 21:13:25
Original geschrieben von aths
Das ist jetzt allgemein gesagt und nicht speziell auf dich gemünzt: Mir dünkt, die Ablehnung der Theorie beruht bei einigen darauf, dass sie von ihr keine Ahnung haben. Damit hätte ich kein Problem, sofern dann nicht in der Regel im gleichen Zuge behauptet wird, was man nicht sehe, sei prinzipiell nicht da.
Ist klar, die Wahrnehmungsgabe. Ich will ja nicht abstreiten, dass einige wenige(<5%- in diesem Forum) die Unterschiede(AF) in der BQ zwischen ATI und Nvidia sehen, ich sehe die BQ bei Nvidia(FX) als besser an als die von ATI(R3x0), ich habe aber leider sehr gute Augen.:( Muss deswegen auch dringest aufrüsten, weil ich keine Lust habe die Details abzuschalten(wie du es tust). Leider habe ich bisher noch keine NV40/R420 in meinen Händen gehalten, um die neue Generation zu prüfen.
Original geschrieben von MikBach
Ist klar, die Wahrnehmungsgabe. Ich will ja nicht abstreiten, dass einige wenige(<5%- in diesem Forum) die Unterschiede(AF) in der BQ zwischen ATI und Nvidia sehen, ich sehe die BQ bei Nvidia(FX) als besser an als die von ATI(R3x0), ich habe aber leider sehr gute Augen.:( Muss deswegen auch dringest aufrüsten, weil ich keine Lust habe die Details abzuschalten(wie du es tust). Für mich resultiert Gesamt-BQ aus dem "besten" Mix. Ein höherer AA/AF-Grad kann imo Detailreduzierung rechtfertigen. Das sind aber dann alles subjektive Ansichten.
Original geschrieben von tombman
@quasar, stell dich mal so hin wie bei dem ersten screenshot.
So in etwa?
http://home.arcor.de/quasat/3DC-Pics/MaxPayne2%202004-07-08%2021-33-18-40.JPG
GF6800, FW61.34, HQ, 4xAA, AF via Game-Panel, Texturenschärfe auf Maximum in-Game.
MikBach
2004-07-08, 21:44:03
Original geschrieben von aths
Für mich resultiert Gesamt-BQ aus dem "besten" Mix. Ein höherer AA/AF-Grad kann imo Detailreduzierung rechtfertigen. Das sind aber dann alles subjektive Ansichten.
Das ist richtig, jedoch verlierst du dadurch einiges an Atmosphere(richtig geschrieben?). Biespiel: Schaltest du bei NFSU den Motionblur-Effekt aus, kommt nicht der richtige Spielspass auf. Auf AA kann man da auch gerne verzichten.
Mr. Lolman
2004-07-08, 21:47:28
Original geschrieben von q@e
So in etwa?
http://home.arcor.de/quasat/3DC-Pics/MaxPayne2%202004-07-08%2021-33-18-40.JPG
GF6800, FW61.34, HQ, 4xAA, AF via Game-Panel, Texturenschärfe auf Maximum in-Game.
HQ ist doch genausowenig Standard wie deaktivierte Optimierungen seitens ATi. Machmal einen Q Shot...
LovesuckZ
2004-07-08, 21:51:16
Original geschrieben von Mr. Lolman
HQ ist doch genausowenig Standard wie deaktivierte Optimierungen seitens ATi.
Tuerlich, wenn ich es einstelle, bleibt es so.
Ansonsten Mister q,
mache doch mal einen Screen ohne AA/AF, ist "genausowenig Standard wie deaktivierte Optimierungen seitens ATi" :freak:
Mr. Lolman
2004-07-08, 21:54:53
Original geschrieben von LovesuckZ
Tuerlich, wenn ich es einstelle, bleibt es so.
g0ile Sache. Nur wenn man die ATi Optimierungen mittels Registry deaktiviert, bleibts auch so. (...und da muss man zusätzlich auch keine Angst haben, dass nach nem Treiberupdate der Modi wieder getauscht wurden, oder der HQ Schlater garnichtmehr funktioniert)
tombman
2004-07-08, 21:55:47
1.) quasar hat mir noch nicht geantwortet, ob sein moire freies bild auf 1280x960 nur unter einem bestimmten blickwinkel auftritt und/oder nur mit einem speziellen treiber (61.34). ich könnte auch ein moire freies bild mit ati erzeugen mit dem richtigen winkel.
2.) ati hat nicht die pflicht treiber so anzupassen, daß absichtlich negativer lod immer noch moire frei ist. man kann davon ausgehen, daß das bild auf mittler (und von angesehenem 3dc member zeckensack empfohlenen!) stufe schärfer als jenes von nvidia ist, eben weil es "zu" scharf (=moire) auf höchster stufe ist.
3.) aufgrund der höheren leistung der x800xt pe kann man
eine eventuell höhere auflösung schalten, wodurch das bild
sowieso megageil aussieht (siehe meinen 2048x1536 shot)
4.) auf ati spielt man mp2 nicht mit schlechterer bq als mit nvidia.
5.) ati ist nicht schneller weil sie bq opfern! (die wichtigste grundaussage all meines schreibens) bei deaktivierung sämtlicher optimierungen auf beiden seiten (!) ist atis vorsprung in den fps laut meinen fc und ut tests noch größer.
ati ist schneller wegen 30% mehr takt, so einfach ist das in der praxis. und praxis hat immer mehr gewicht als graue theorie!
p.s.: die 6800gt würde ich aber der x800pro vorziehen. 16pipes sind 16pipes... (die x800xt pe ist allerdings schneller als die 6800ultra!)
Mr. Lolman
2004-07-08, 21:58:36
Original geschrieben von tombman
5.) ati ist nicht schneller weil sie bq opfern! (die wichtigste grundaussage all meines schreibens) bei deaktivierung sämtlicher optimierungen auf beiden seiten (!) ist atis vorsprung in den fps laut meinen fc und ut tests noch größer.
ati ist schneller wegen 30% mehr takt, so einfach ist das in der praxis. und praxis hat immer mehr gewicht als graue theorie!
nicht nur lt. deinen Tests. Lars von THG hat das Selbe herausgefunden..
Piffan
2004-07-08, 22:00:32
Original geschrieben von tombman
1.) quasar hat mir noch nicht geantwortet, ob sein moire freies bild auf 1280x960 nur unter einem bestimmten blickwinkel auftritt und/oder nur mit einem speziellen treiber (61.34). ich könnte auch ein moire freies bild mit ati erzeugen mit dem richtigen winkel.
2.) ati hat nicht die pflicht treiber so anzupassen, daß absichtlich negativer lod immer noch moire frei ist. man kann davon ausgehen, daß das bild auf mittler (und von angesehenem 3dc member zeckensack empfohlenen!) stufe schärfer als jenes von nvidia ist, eben weil es "zu" scharf (=moire) auf höchster stufe ist.
3.) aufgrund der höheren leistung der x800xt pe kann man
eine eventuell höhere auflösung schalten, wodurch das bild
sowieso megageil aussieht (siehe meinen 2048x1536 shot)
4.) auf ati spielt man mp2 nicht mit schlechterer bq als mit nvidia.
5.) ati ist nicht schneller weil sie bq opfern! (die wichtigste grundaussage all meines schreibens) bei deaktivierung sämtlicher optimierungen auf beiden seiten (!) ist atis vorsprung in den fps laut meinen fc und ut tests noch größer.
ati ist schneller wegen 30% mehr takt, so einfach ist das in der praxis. und praxis hat immer mehr gewicht als graue theorie!
p.s.: die 6800gt würde ich aber der x800pro vorziehen. 16pipes sind 16pipes... (die x800xt pe ist allerdings schneller als die 6800ultra!)
Die Ati ist die Schnellste, die Ati hat ein top Bild, die Ati ist die allerbeste und darum jedwelche Kritik streng verboten.......
Kaufen!
HQ ist genauso simpel einzustellen, wie das AA-Level oder die AF-Stufe oder VSync oder ein Game-Profil.
Warum sollte ich das ausschalten?
(An dieser Stelle könnte ein bissiger Kommentar stehen)
BTW bezweifle ich, daß es dabei einen Unterschied gibt in diesem Falle.
"einen deutlichen Unterschied"... sry.
LovesuckZ
2004-07-08, 22:01:28
Original geschrieben von Mr. Lolman
Nur wenn man die ATi Optimierungen mittels Registry deaktiviert, bleibts auch so.
Ja, aber kann man dies per Treiber?
Ansonsten, warum waere HQ im gegensatz zu AA/AF kein Standard, wenn man es im Treiber ebenfalls wie die oben genannten features anwaehlen kann?
ironMonkey
2004-07-08, 22:03:53
Original geschrieben von aths
Für mich resultiert Gesamt-BQ aus dem "besten" Mix. Ein höherer AA/AF-Grad kann imo Detailreduzierung rechtfertigen. Das sind aber dann alles subjektive Ansichten.
Woraus ich jetzt auch verstehe als du geschrieben hast das du mit der FX5900XT bei 8xfull tri AF und 4xAA noch eher CPU limitiert bist, ich gehe da wie folgt vor:
Max Details, je nach dem dann Auflösung erhöhen, am liebsten Spiele ich auf 1280x960 und falls dann noch genug Leistung übrig ist AF und/oder AA, ich finde wenig details bei den meisten Spielen zu "kalt", da verzichte ich lieber auch auf Filter, wobei ich bei einem Shooter gerne eine min.fps von 40 hab, Farcry zB. läuft auf meiner 9800Pro bei 1280x960 nicht wirklich gut, da brauch ich erst garnicht mit AA/AF anfangen.
Gruß
dildo4u
2004-07-08, 22:04:47
Original geschrieben von Mr. Lolman
nicht nur lt. deinen Tests. Lars von THG hat das Selbe herausgefunden.. Das problem is aber wenn man alle optemierungen ausschaltet filtert die 6800 Tri die ATI aber nicht da whol hardware technich nicht möglich siehe 9600 hat ATI im interview in der PCGH selber zugegeben Antwort war bei der 9600 hats auch kein gestört :kratz:
Original geschrieben von tombman
1.) quasar hat mir noch nicht geantwortet, ob sein moire freies bild auf 1280x960 nur unter einem bestimmten blickwinkel auftritt und/oder nur mit einem speziellen treiber (61.34). ich könnte auch ein moire freies bild mit ati erzeugen mit dem richtigen winkel.
4.) auf ati spielt man mp2 nicht mit schlechterer bq als mit nvidia.
ad1)
Doch, siehe Bild auf letzter Seite. =)
ad4)
Doch, tut man. =)
Original geschrieben von Gast
ad1)
Doch, siehe Bild auf letzter Seite. =)
ad4)
Doch, tut man. =)
det war icke.
ironMonkey
2004-07-08, 22:07:50
Original geschrieben von dildo4u
Das problem is aber wenn man alle optemierungen ausschaltet filtert die 6800 Tri die ATI aber nicht da whol hardware technich nicht möglich siehe 9600 hat ATI im interview in der PCGH selber zugegeben Antwort war bei der 9600 hats auch kein gestört :kratz:
Ohne Optimierungen filter ATI auch Tri.
Gruß
dildo4u
2004-07-08, 22:09:01
Original geschrieben von ironMonkey
Ohne Optimierungen filter ATI auch Tri.
Gruß
Ok dann sagen wir mal ohne reg hacks
Mr. Lolman
2004-07-08, 22:10:51
Original geschrieben von Gast
ad4)
Doch, tut man. =)
Quelle? :naughty:
Hmm wie soll man denn überprüfen was der Treiber wirklich macht? Ein Screenshot vergleicht mit/ohne Optimierungen bringt ja fast nichts, weil man den Unterschied quasi nie sieht. Das einzige auf das man achten kann ist nach meinen Erfahrungen die Bugwelle, dazu sollte man aber die Finger vom LOD lassen, siehe MP2 ^^.
Also müsste man in extrem hohen Auflösungen benchen, in der die Füllrate richtig einbricht. Dann sieht man wenigstens "ob" das de/aktivieren der Optimierungen was auf der Performanceseite bringt.
Ob jetzt alle Optimierungen weggelassen werden, da kann man sich aber nie sicher sein (damit rücken beide IHV´s sicher nicht raus).
Grestorn
2004-07-08, 22:15:14
Original geschrieben von Mr. Lolman
Quelle? :naughty:
...weil nicht sein kann was nicht sein darf.
tombman
2004-07-08, 22:15:37
Original geschrieben von q@e
So in etwa?
GF6800, FW61.34, HQ, 4xAA, AF via Game-Panel, Texturenschärfe auf Maximum in-Game.
geht das mit neueren treibern als 61.34? wenn ja, poste beweis. (und ich kanns überprüfen ;))
Auf dem Screenshot dürfte der Moire Effekt schon unter dem Tisch sein, in der dunklen Ecke sieht man den nicht mehr, wenn man 2 Schritte zurück geht, sieht man ihn in voller Pracht.
Ich werde mal meine GF4 einbauen und die Stelle mal damit überprüfen, wenn die Karte da nicht sauber filtern kann, wer sonst ^^.
Original geschrieben von Mr. Lolman
Quelle? :naughty:
Alpha-Testing.
Original geschrieben von tombman
geht das mit neueren treibern als 61.34? wenn ja, poste beweis. (und ich kanns überprüfen ;))
Keine Ahnung - ist irgendwie auch irrelevant. =)
Original geschrieben von M@g
Auf dem Screenshot dürfte der Moire Effekt schon unter dem Tisch sein, in der dunklen Ecke sieht man den nicht mehr, wenn man 2 Schritte zurück geht, sieht man ihn in voller Pracht.
Nein, die ursprüngliche Save-Position _war_ ca. zwei Schritte weiter hinten - dort gab es auf meinem Screenie vor ein paar Seiten auch kein Moire - daher Tombmans Aufforderung an mich, doch bitte mal die Position des ersten Shots in diesem Thread nachzuahmen, frei nach dem Motto:
Original geschrieben von grestorn
...weil nicht sein kann was nicht sein darf.
zeckensack
2004-07-08, 22:32:31
Q, das hierOriginal geschrieben von q@e
GF6800, FW61.34, HQ, 4xAA, AF via Game-Panel, Texturenschärfe auf Maximum in-Game.verblüfft mich allerdings auch.
Spassfragen (falls du Zeit dafür hast, nicht dringend):
a)sieht das gleiche ohne AF auch "sauber" aus?
b)ignoriert der FW-Treiber evtl einfach negativen LOD-Bias?*
*hielte ich in Anbetracht der Tatsache, dass man mit diesem Feature sowieso nur Unsinn machen kann für garnicht mal so doof
Original geschrieben von zeckensack
Q, das hierverblüfft mich allerdings auch.
Spassfragen (falls du Zeit dafür hast, nicht dringend):
a)sieht das gleiche ohne AF auch "sauber" aus?
b)ignoriert der FW-Treiber evtl einfach negativen LOD-Bias?*
*hielte ich in Anbetracht der Tatsache, dass man mit diesem Feature sowieso nur Unsinn machen kann für garnicht mal so doof
a) Nein, ohne AF nicht mehr.
b) Nein, da gibt es Unterschiede zu sehen.
(ist dir geholfen, oder brauchst du weitere hints?)
Original geschrieben von Gast
a) Nein, ohne AF nicht mehr.
b) Nein, da gibt es Unterschiede zu sehen.
(ist dir geholfen, oder brauchst du weitere hints?)
^^ me. *grmpfl*
zeckensack
2004-07-08, 22:45:13
Original geschrieben von Gast
a) Nein, ohne AF nicht mehr.
b) Nein, da gibt es Unterschiede zu sehen.
(ist dir geholfen, oder brauchst du weitere hints?) Ich fühle mir geholfen ?-)
*verneig*
Original geschrieben von zeckensack
b)ignoriert der FW-Treiber evtl einfach negativen LOD-Bias?*
*hielte ich in Anbetracht der Tatsache, dass man mit diesem Feature sowieso nur Unsinn machen kann für garnicht mal so doof
Nicht nur Unsinn. Wenn man Supersampling von Hand machen will...
Blaire
2004-07-08, 23:03:55
Original geschrieben von tombman
5.) ati ist nicht schneller weil sie bq opfern! (die wichtigste grundaussage all meines schreibens) bei deaktivierung sämtlicher optimierungen auf beiden seiten (!) ist atis vorsprung in den fps laut meinen fc und ut tests noch größer.
ati ist schneller wegen 30% mehr takt, so einfach ist das in der praxis. und praxis hat immer mehr gewicht als graue theorie!
Bei Standbildern ja toll... Das sind 2 Spielstellen die du gefunden hast und das heisst natürlich die ATi sei schneller...da brauch man eigentlich nix mehr zu sagen.
MfG
DrFreaK666
2004-07-08, 23:12:47
mal eine Frage:
Wenn ich jetzt von meinem R300 auf ein R420 umsteigen würde (also ohne frische Treiberinstallation etc..): Würde ich dann einen Bildqualitätsverlust bemerken??
Eigentlich müssten doch die selben Einstellungen benutzt werden wie beim R300 da eben ja kein Treiber nachtträglich installiert wurde, oder??
Greetz
Ja, aber das hilft dir nicht, denn es wird nach vorhandenen Reg-Einträgen gesucht, bei deren Fehlen die Optimierungen aktiv werden
Mr. Lolman
2004-07-08, 23:20:13
Original geschrieben von Xmas
Nicht nur Unsinn. Wenn man Supersampling von Hand machen will...
Du meinst also Screenshots nachträglich auf ein 1/4 der Grösse zu verkleinern? Nagut, dann ists halt für unsinnige Aktionen ein ganz ein sinnvolles Feature ;)
DrFreaK666
2004-07-08, 23:21:25
Die Reg-Einträge werden nur dann eingefügt wenn der Treiber bei der Installation ein R420 erkennt??
Warum sollte ATI bei der R420 eine schlechtere Erzwingen als bei der R300?? Macht irgendwie keinen Sinn, scheint aber so zu sein (wie schon oft gelesen).
Mr. Lolman
2004-07-08, 23:22:28
Original geschrieben von q@e
Ja, aber das hilft dir nicht, denn es wird nach vorhandenen Reg-Einträgen gesucht, bei deren Fehlen die Optimierungen aktiv werden
Ja, er würde einen BQ Verlust bemerken? Ich glaube kaum, dass es so ist. Sonst müsste es schon überfüllte Foren geben, mit Threads, die diesem Thema entsprechen.
Oder glaubst du, dass tatsächlich jeder seinen Kauf schön redet?
Original geschrieben von Mr. Lolman
Du meinst also Screenshots nachträglich auf ein 1/4 der Grösse zu verkleinern? Nagut, dann ists halt für unsinnige Aktionen ein ganz ein sinnvolles Feature ;) Bei Verkleinerung von Hand bleibt es beim Aliasing, wenn das Bias < 0 ist.
Mr. Lolman
2004-07-08, 23:25:46
Original geschrieben von DrFreaK666
Die Reg-Einträge werden nur dann eingefügt wenn der Treiber bei der Installation ein R420 erkennt??
Warum sollte ATI bei der R420 eine schlechtere Erzwingen als bei der R300?? Macht irgendwie keinen Sinn, scheint aber so zu sein (wie schon oft gelesen).
Ja man kanns anhand von MP2 manifestieren. Da muss man nur einen negativen LOD Bias verwenden (tun scheinbar nicht wenige, vielleicht einfach aufgrund dessen, dass sie nicht wissen was sie tun), und schon sieht man dieses Moiè Muster, wie auf dem ersten Bild.
Da aber Spiele normalerweise keinen negativen LOD Bias verwenden, sollts im Normalfall auch nicht feststellbar sein. Und wenn kann mans ja immernoch mittels Registry (oder wahrscheinlich auch bald mittels Tool) abstellen
zeckensack
2004-07-08, 23:25:48
Original geschrieben von DrFreaK666
Die Reg-Einträge werden nur dann eingefügt wenn der Treiber bei der Installation ein R420 erkennt??Nein. Sie werden überhaupt nicht bei der Installation erzeugt, das muss der User selbst machen, sofern er die "Optimierungen" abschalten will.
Warum sollte ATI bei der R420 eine schlechtere Erzwingen als bei der R300?? Macht irgendwie keinen Sinn, scheint aber so zu sein (wie schon oft gelesen). Performance.
Die TMUs des R300 sind btw überhaupt nicht in der Lage, diese "Optimierungen" wirken zu lassen (Stichwort: brilinear). Das ganz hat dort AFAIK keinerlei Auswirkungen, weder auf die BQ, noch auf die Performance.
Q kann dir sicher mehr sagen, oder gar einen gewissen Artikel verlinken ;)
DrFreaK666
2004-07-08, 23:26:09
Original geschrieben von Mr. Lolman
Ja, er würde einen BQ Verlust bemerken? Ich glaube kaum, dass es so ist. Sonst müsste es schon überfüllte Foren geben, mit Threads, die diesem Thema entsprechen.
Oder glaubst du, dass tatsächlich jeder seinen Kauf schön redet?
Nicht jeder, der aufrüstet, schaut ob sich die Bildqualität verschlechtert hat. Die meisten denken garnicht darüber nach (steht ja auch nicht viel in der Gamestar darüber ;) ) sondern freuen sich über die 3DMarks...
Mr. Lolman
2004-07-08, 23:27:39
Original geschrieben von aths
Bei Verkleinerung von Hand bleibt es beim Aliasing, wenn das Bias < 0 ist.
Auch wieder wahr :bonk:
DrFreaK666
2004-07-08, 23:28:38
Damals war alles besser. Da hatte man mit der Voodoo Graphics die schnellste Graka mit der besten Bildqualität (zu den Anfangszeiten jedenfalls) :-)
Mr. Lolman
2004-07-08, 23:31:41
Original geschrieben von DrFreaK666
Nicht jeder, der aufrüstet, schaut ob sich die Bildqualität verschlechtert hat. Die meisten denken garnicht darüber nach (steht ja auch nicht viel in der Gamestar darüber ;) ) sondern freuen sich über die 3DMarks...
Imo merkt man das automatisch, wenn man spielt. Wo soll man da nachschaun?
Klar man kann seine ganzen Lieblingsspiele durchtesten, aber eigentlich sollte man die GraKa doch sowieso zum Spielen nutzen und nicht für 3dmarks, usw...
Jedenfalls kann man die Karte ja einbauen, und wenns sie einem nicht gefällt, wieder zurückschicken. Das aber möglichst BEVOR man moddet, OCed, oder sie an seinem Penix reibt...
Original geschrieben von Mr. Lolman
Du meinst also Screenshots nachträglich auf ein 1/4 der Grösse zu verkleinern? Nagut, dann ists halt für unsinnige Aktionen ein ganz ein sinnvolles Feature ;)
Nein, ich meinte dass die Applikation unter Verwendung des Multisample Maskings sozusagen selektiv Supersampling "von Hand" macht.
Mr. Lolman
2004-07-08, 23:41:43
Original geschrieben von Xmas
Nein, ich meinte dass die Applikation unter Verwendung des Multisample Maskings sozusagen selektiv Supersampling "von Hand" macht.
Also AA, wie es auch 3dfx schon gemacht hat?
Könnte man das mittels Wrapper theoretisch auch meiner graKa beibringen?
Original geschrieben von Mr. Lolman
Ja, er würde einen BQ Verlust bemerken? Ich glaube kaum, dass es so ist. Sonst müsste es schon überfüllte Foren geben, mit Threads, die diesem Thema entsprechen.
Oder glaubst du, dass tatsächlich jeder seinen Kauf schön redet?
Lies doch bitte den Rest des Satzes nach dem "ja" auch noch - dann merkst du sicher, worauf er (der Satz) sich bezieht. =)
Ich würde mir nicht anmaßen, über anderer Leute Augen zu urteilen, die sich so gar nicht einschätzen lassen - ergo kann ich auch nicht sagen, ob er einen Unterschied bemerken würde.
Habe das Bild von q@e leider nicht reproduzieren können (vieleicht isses ein anderer 61.34, vom 61.45 solls ja auch 2 Versionen geben).
Irgendwas verschwimmt da immer, egal welcher Treiber, subjektiv sag ich mal, das sich über die 61er Treiber hinweg die Filterqualität nie verändert hat, aber ich habe auch immer nur HQ an und erzwinge Trilineare Mipmaps (kostet kaum/gar keine Leistung, und warum soll mans nicht anschalten ^^).
Original geschrieben von q@e
ad 1) nVidia verkauft keine Karte - wende dich an deinen Boardhersteller, der ist für "offizielle" Treiber zuständig.:bonk: ist nicht dein Ernst?
MikBach
ironMonkey
2004-07-09, 07:51:32
Also bei ATI ist ja auch das Catalyst Team für die Treiber zuständig, bei NV ist es das Forceware Team, oder was weis ich wie die sich nennen, auf jeden Fall im Auftrag den Chipherstelle, somit NV.
Falls ich falsch liege klärt mich bitte auf.
Gruß
seahawk
2004-07-09, 08:44:09
Original geschrieben von Mr. Lolman
Ja, er würde einen BQ Verlust bemerken? Ich glaube kaum, dass es so ist. Sonst müsste es schon überfüllte Foren geben, mit Threads, die diesem Thema entsprechen.
Oder glaubst du, dass tatsächlich jeder seinen Kauf schön redet?
Naja, wenn er von R300 max Quality auf R420 default wechselt, dann imho möglicherweise ja.
Sonst eher nein.
Original geschrieben von ironMonkey
Also bei ATI ist ja auch das Catalyst Team für die Treiber zuständig, bei NV ist es das Forceware Team, oder was weis ich wie die sich nennen, auf jeden Fall im Auftrag den Chipherstelle, somit NV.
Falls ich falsch liege klärt mich bitte auf.
Gruß
Du liegst falsch. ATi stellt selbst Karten her und ist damit fuer deren Treibersupport zustaendig. NV stellt keine Karten her. Das ist der Unterschied.
tombman
2004-07-09, 09:18:20
Original geschrieben von Gast
Du liegst falsch. ATi stellt selbst Karten her und ist damit fuer deren Treibersupport zustaendig. NV stellt keine Karten her. Das ist der Unterschied.
es geht nicht um den support sondern wer die treiber programmiert und damit entscheidet wie schnell und wie gut nv hw ist- das macht nvidia. könnte auch niemand anderer.
Original geschrieben von MB@W
:bonk: ist nicht dein Ernst?
MikBach
Doch, schon. Spricht etwas dagegen?
Natürlich programmiert nVidia die Treiber - aber wenn die einen hinterletzten Dreck von Alpha zusammenschustern, und ein Kartenhersteller legt diesen seinen Karten bei, dann hat dieser Kartenhersteller offenbar entschieden, daß genau dieser Treiber auf seinem Produkt eine für ihn vertretbare Qualität liefert und begibt sich mit dem Beilegen des Treibers X in die Pflicht, bei möglichen Mängeln für Nachbesserung zu sorgen.
Original geschrieben von q@e
Doch, schon. Spricht etwas dagegen?
Natürlich programmiert nVidia die Treiber - aber wenn die einen hinterletzten Dreck von Alpha zusammenschustern, und ein Kartenhersteller legt diesen seinen Karten bei, dann hat dieser Kartenhersteller offenbar entschieden, daß genau dieser Treiber auf seinem Produkt eine für ihn vertretbare Qualität liefert und begibt sich mit dem Beilegen des Treibers X in die Pflicht, bei möglichen Mängeln für Nachbesserung zu sorgen.
:up: Genau so ist es.
Ich habe hier einen WHQL zertifizierten 61.34 AFAIK. Was will man mehr?
Original geschrieben von Gast
Es ist nach wie vor ausschliesslich der Kartenhersteller fuer Treibersupport verantwortlich. Das war schon immer so.
Lol. Überleg mal, was wäre, wenn jeder Grakahersteller eigene Treiber "von Grund auf" proggen müsste(wenn er es überhaupt könnte-knowhow?). Man würde einfach die gleiche Arbeit paar mal verrichten müssen, was sehr unwirtschaftlich wäre. Ausserdem stellt sich doch die Frage, ob Nvidia und ATI sich in ihre "Interna" schauen lassen.
Wenn ATI und Nvidia nicht den "Grundtreiber" liefern würden, hätten wir Karten ohne Treiber. ;)
Ich hoffe das ist dir klar.
MikBach
Original geschrieben von MB@W
Lol. Überleg mal, was wäre, wenn jeder Grakahersteller eigene Treiber "von Grund auf" proggen müsste(wenn er es überhaupt könnte-knowhow?).
[...]
Wenn ATI und Nvidia nicht den "Grundtreiber" liefern würden, hätten wir Karten ohne Treiber. ;)
Es geht darum, wer dafür verantwortlich ist, welchen Treiber er seiner Karte beilegt und diesem damit (für "ihn", für "seine" Karte) final-Status zuspricht, inkl. dem Recht auf Support bei Problemen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.