PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AF-Qualität 9800 vs. X800


resonatorman
2005-06-06, 12:05:24
Hat sich da was getan oder haben beide Chips noch vergleichbare AF-Qualität?

DrumDub
2005-06-06, 12:08:16
die af-qualität ist identisch, wenn man brilinear ausschaltet.

Quasar
2005-06-06, 12:20:05
Und wenn man A.I. ausschaltet (hoffentlich).

DrumDub
2005-06-06, 12:24:37
Und wenn man A.I. ausschaltet (hoffentlich). ja, das meinte ich ja oben. abgesehen davon ist brilinear eh nicht sichtbar schlechter. zumindest ist es mir in noch keinem spiel negativ aufgefallen. mein subjektiver eindruck wird ja auch durch mechwolliers artikel bei cb bestätigt.

resonatorman
2005-06-06, 12:28:27
Ok, also gab's bei ATi zum Generationswechsel nicht diese Verschlechterung des AF wie bei nVidia (Flimmern)...?

deekey777
2005-06-06, 12:28:50
Und wenn man A.I. ausschaltet (hoffentlich).

Gilt das für beide Grafikkarten? ;)
Auch die 9800Pro hat eine AF-Optimierung, möge sie in der Hölle brennen. Und es hieß, daß diese deaktiviert wird, wenn AI auf Off ist. Getestet habe ich es nicht, denn verzichten auf AI will ich nicht.
Obwohl: Kann man die Stage-Optimierung der 9800 nicht mit ATT ausschalten, ohne dabei das AI auszuschalten?

Lightning
2005-06-06, 12:46:22
Obwohl: Kann man die Stage-Optimierung der 9800 nicht mit ATT ausschalten, ohne dabei das AI auszuschalten?

Ja, das geht beispielsweise mit dem rTool, dem aTuner oder den ATi Tray Tools.

Gast
2005-06-06, 12:58:34
Ok, also gab's bei ATi zum Generationswechsel nicht diese Verschlechterung des AF wie bei nVidia (Flimmern)...?
Nein, glücklicher Weise nicht.

Quasar
2005-06-06, 13:29:26
ja, das meinte ich ja oben. abgesehen davon ist brilinear eh nicht sichtbar schlechter. zumindest ist es mir in noch keinem spiel negativ aufgefallen. mein subjektiver eindruck wird ja auch durch mechwolliers artikel bei cb bestätigt.
Es ist aber nicht nur die reduziert-trilineare Filterung. Die RV3xx, R4xx und RV4xx untersamplen beim AF zusätzlich, was zumindest die R9800 Pro nicht tat.

Quasar
2005-06-06, 13:29:54
Nein, glücklicher Weise nicht.
Doch, unglücklicherweise schon! :)

DaBrain
2005-06-06, 13:44:26
Ok, also gab's bei ATi zum Generationswechsel nicht diese Verschlechterung des AF wie bei nVidia (Flimmern)...?

Nein, ATI hatte schon vorher schlechtes AF. NV hat das AF nur dem ATI Level angepasst.

Edit:
Doch, unglücklicherweise schon! :)

Soll das heißen ATI hat die AF Qualität doch noch weiter gesenkt? :eek:

SKYNET
2005-06-06, 13:46:55
Soll das heißen ATI hat die AF Qualität doch noch weiter gesenkt? :eek:


ja!

Gast
2005-06-06, 13:48:37
Doch, unglücklicherweise schon! :)
Nein, das stimmt nicht! Das flimmern auf nVidia Hardware ist deutlich zu sehen in bewegung, bei 9800 und X800 hingeben gibt es kein Flimmern.

Nein, ATI hatte schon vorher schlechtes AF. NV hat das AF nur dem ATI Level angepasst.
Das bezieht sich nur auf die Winkelabhängigkeit. Das Flimmern ist ne ganz andere Sache und in der Hinsicht hat nVidia ganz klar ATI überholt in Sachen minderwertiger AF Qualität.

reunion
2005-06-06, 13:52:35
ja!


Nein, ohne A.I. sollte die Qualität identisch sein.

DrumDub
2005-06-06, 14:25:51
Es ist aber nicht nur die reduziert-trilineare Filterung. Die RV3xx, R4xx und RV4xx untersamplen beim AF zusätzlich, was zumindest die R9800 Pro nicht tat. also wenn du die ts-optimierung und die brilineare filterung ausschaltest ist es absolut identisch mit dem r3x0 af. nix mit untersamplen.

Quasar
2005-06-06, 14:29:55
also wenn du die ts-optimierung und die brilineare filterung ausschaltest ist es absolut identisch mit dem r3x0 af. nix mit untersamplen.
2004 war's noch nicht so, wie du sagst:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/radeon_x800_texturen/3/#abschnitt_lod_spielereien

Aber vielleicht hat sich das alles ja geändert... :)

edit:
Bevor hier das große Mißverständnis ausbricht: Ich gehe jetzt mal davon aus, daß sich all das mit Catalyst A.I. deaktivieren läßt. Hoffe ich. Default ist's jedenfalls an.
@Drumdub: Allein reduziert-trilineare Filterung und TS-Optimierung abschalten reicht nicht.

Crossfire
2005-06-06, 14:31:48
ja!

Hallo,

bitte belegen!

Grüsse
Crossfire

DrumDub
2005-06-06, 14:36:39
2004 war's noch nicht so, wie du sagst:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/radeon_x800_texturen/3/#abschnitt_lod_spielereien

Aber vielleicht hat sich das alles ja geändert... :) ach so. die lod geschichte meinst du. genau die ist eben nicht aktiv, wenn du a.i. deaktivierst.

DrumDub
2005-06-06, 14:37:24
@Drumdub: Allein reduziert-trilineare Filterung und TS-Optimierung abschalten reicht nicht.
stimmt. da haste natürlich recht.

StefanV
2005-06-06, 15:07:17
Nein, ATI hatte schon vorher schlechtes AF. NV hat das AF nur dem ATI Level angepasst.
Nein, nV hats 'nur' schlecht kopiert, eben mit dem flimmern usw...

SKYNET
2005-06-06, 15:16:43
Hallo,

bitte belegen!

Grüsse
Crossfire


http://www.computerbase.de/artikel/hardware/grafikkarten/2004/radeon_x800_texturen/3/#abschnitt_lod_spielereien

:naughty:

MarcWessels
2005-06-06, 15:24:59
also wenn du die ts-optimierung und die brilineare filterung ausschaltest ist es absolut identisch mit dem r3x0 af. nix mit untersamplen.

Schon der r3x0 hat ungenauer gerechnet als der NV40.

Das nVidia AF ist besser, da genauer.

Gast
2005-06-06, 15:48:45
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/radeon_x800_texturen/3/#abschnitt_lod_spielereien

:naughty:
Da ist AI an gewesen! Kennst Du überhaupt ein Stück mit dem Thema aus oder willst Du nur rumflamen?

StefanV
2005-06-06, 15:50:07
Das nVidia AF ist besser, da genauer.
Theoretisch ja, praktisch nein.

DrumDub
2005-06-06, 15:53:33
Schon der r3x0 hat ungenauer gerechnet als der NV40.

Das nVidia AF ist besser, da genauer. um den nv40 gings doch gar nicht. verstehe ehrlich gesagt nicht, was du mir mit deiner aussage sagen willst, welche du als antwort auf mein posting formuliert hast. :|

deekey777
2005-06-06, 15:59:22
Da ist AI an gewesen! Kennst Du überhaupt ein Stück mit dem Thema aus oder willst Du nur rumflamen?

Verbessere: Gab es damals schon AI? ;)

Gast
2005-06-06, 16:07:31
Verbessere: Gab es damals schon AI? ;)
Ja, AI war halt nur nicht auszuschalten. Heute allerdings schon. ;)

Und synthetische Tests sind ohnehin hinfällig. Ich habe nVidia und ATI Hardware und das Flimmern stört bei vielen Games mit der nVidia Karte einfach nur und ist nur mit Spielerien am LOD zu beheben, was das Bild dann aber matschig macht. ;(

resonatorman
2005-06-06, 16:24:16
Flimmert X800 mehr als 9800 (unter Idealbedingungen, full-tri in 3rd-Party-Tool erzwungen)?
-nein, kein Unterschied : 3 Stimmen
-ja, ist schlechter geworden : 2 Stimmen.

Wenn jemand z.B. von der 9800Pro auf eine X800 umgestiegen ist, der sollte den Unterschied doch wahrgenommen haben (oder eben nicht)?

Quasar
2005-06-06, 16:33:57
Unter Idealbedingungen filtert sie nicht schlechter als die 9800p denke ich.

Gast
2005-06-06, 16:52:26
Flimmert X800 mehr als 9800 (unter Idealbedingungen, full-tri in 3rd-Party-Tool erzwungen)?
-nein, kein Unterschied : 3 Stimmen
-ja, ist schlechter geworden : 2 Stimmen.

Wenn jemand z.B. von der 9800Pro auf eine X800 umgestiegen ist, der sollte den Unterschied doch wahrgenommen haben (oder eben nicht)?
Genau so sieht es aus. Ich bin von einer 9800Pro umgestiegen auf X800 und habe außerdem noch im Zweitrechner eine 6800GT.

Ohne AI ist es das selbe AF. SKYNET hatte doch noch nie ne 9800 oder X800 im Rechner. Der schriebt sowieso nur immer da, wo er ATI schlecht machen kann. ;)

Gast
2005-06-06, 16:53:42
... Wobei noch anzmerken ist, dass das AF bei der X800 im Vergleich auch weniger flimmert, wenn AI an ist.

Tigerchen
2005-06-06, 16:55:09
ja!

Skynet!
Ich bin nun günstig an eine 9800 Pro gekommen die die 9700 Pro ersetzt hat. Das erste was mir auffiel war daß es flimmert. Hab dann die A.I. Optimierung auf Low gestellt und schon war alles in Butter. Ich bitte dich also dich nicht mit solchen Falschaussagen zu disqualifizieren.

DrumDub
2005-06-06, 17:07:22
Wenn jemand z.B. von der 9800Pro auf eine X800 umgestiegen ist, der sollte den Unterschied doch wahrgenommen haben (oder eben nicht)? also ich merke sogar keinen unterschied und das sogar bei bri (a.i. auf low). die ts-"optimierung" hab ich aber deaktviert über das att.

Diskutator
2005-06-06, 17:51:41
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/radeon_x800_texturen/3/#abschnitt_lod_spielereien

:naughty:

Hast du schonmal das Fazit RICHTIG GELESEN????
:tongue:

Diskutator
2005-06-06, 17:55:52
Skynet!
Ich bin nun günstig an eine 9800 Pro gekommen die die 9700 Pro ersetzt hat. Das erste was mir auffiel war daß es flimmert. Hab dann die A.I. Optimierung auf Low gestellt und schon war alles in Butter. Ich bitte dich also dich nicht mit solchen Falschaussagen zu disqualifizieren.

Tigerchen,

das gleiche kann ich at home mit meiner 9800XT auch so NACHVOLLZIEHEN!

:mad: Sky

aths
2005-06-06, 17:58:36
Ok, also gab's bei ATi zum Generationswechsel nicht diese Verschlechterung des AF wie bei nVidia (Flimmern)...?Nvidias AF flimmert nicht mehr, wenn man die Qualität auf HQ setzt. Zumindest bei mir ist das so. Praktisch alles spiele ich auf HQ, aber was mich am AF der 6600 GT stört ist die Winkelabhängigkeit im ATI-Stil.

Quasar
2005-06-06, 18:34:51
@ Tigerchen und Diskutator:
Wie wollt ihr anhand eurer R9800 Pro / XT beurteilen, ob ATi die AF-Qualität beim Wechseln von R9800 zu X800 abgesenkt hat?

:confused:

Gast
2005-06-06, 18:37:00
Nvidias AF flimmert nicht mehr, wenn man die Qualität auf HQ setzt.
Mit HQ verliert man aber massig Leistung, deswegen testen auch alle mit Quality, sonst wäre der Balken nicht mehr so lang ;)

Quasar
2005-06-06, 18:37:52
Falsch. :)
edit: Falsch bezieht sich auf "...testen alle mit Quality [...]".

Gast
2005-06-06, 18:40:42
Falsch. :)
Nein:)
Wenn ich die Optimierungen ausschalte, habe ich mit HQ deutlich weniger fps als mit Quality.

deekey777
2005-06-06, 18:41:40
Mit HQ verliert man aber massig Leistung, deswegen testen auch alle mit Quality, sonst wäre der Balken nicht mehr so lang ;)

Ganze 39 Minuten hat es gedauert, bis so ein Posting kommt...

Zum Topic: Irgendwo hieß es, daß auch der R360 neue AF-Optimierungen im Vergleich zum R350 haben soll.

Raff
2005-06-06, 18:42:47
Nvidias AF flimmert nicht mehr, wenn man die Qualität auf HQ setzt. Zumindest bei mir ist das so. Praktisch alles spiele ich auf HQ, aber was mich am AF der 6600 GT stört ist die Winkelabhängigkeit im ATI-Stil.

Genau so ist es. Keine Textur, die nicht schon vorher flimmerte, wird mit HQ flimmern. Mit aktivierten Optimierungen @ Quality sieht das natürlich völlig anders aus. Da kann's schonmal dazu kommen, dass der nächste Termin beim Augenarzt verfrüht anberaumt werden muss.

MfG,
Raff

MarcWessels
2005-06-06, 18:50:16
um den nv40 gings doch gar nicht. verstehe ehrlich gesagt nicht, was du mir mit deiner aussage sagen willst, welche du als antwort auf mein posting formuliert hast. :|

*lol* Ist natürlich auch ein bißchen ungünstig, dass dieses Forum nur die letzte Aussage zitiert, statt die vorletzte mit einzubeziehen. ;)

Also: Lies Dein eigenes Posting mal in Zusammenhang mit demjenigen, auf das Du Dich bezogen hast; dann versthst Du auch, wie ich auf mein NV40-Posting gekommen bin.

BadONE
2005-06-06, 19:22:17
Wieso bezieht ihr euch eigentlich auf den alten Computerbase-Artikel vom 27.5.04.

Dieser Artikel ist doch viel aktueller:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/af-optimierungen_lupe/15/#abschnitt_fazit

Nun aber genug des Lobes für ATi. Nicht gefallen hat uns ein beinahe ständiges Flimmern der Texturen, welches selbst durch das Deaktivieren aller Optimierungsfunktionen nicht zu entfernen war. Hier kann nVidia auf einer GeForce 6x00 einen Sieg einfahren, da dieses Flimmern mit der Qualitätseinstellung Hohe Qualität nicht mehr auftritt. Somit bietet der NV4x bei Hohe Qualität eine überlegende Filterqualität an. Jedoch muss man gleichzeitig auch mit einer deutlich schlechteren Performance leben.

Kann mir mal jemand bestätigen, dass das Flimmern bei ATI-Treibern mittlerweile komplett abschaltbar ist?

Gast
2005-06-06, 19:25:20
Kann mir mal jemand bestätigen, dass das Flimmern bei ATI-Treibern mittlerweile komplett abschaltbar ist?
Die haben bestimmt die TS Optimierung nicht ausgeschaltet...

Gast
2005-06-06, 19:59:41
Ganze 39 Minuten hat es gedauert, bis so ein Posting kommt...
Warum?
Ich habe hier diverse Kärtchen von Nvidia und ATI rumliegen ;)
Ist doch offensichtlich, daß alle mit Quality testen ;)
Warum? Siehe den Beitrag, den du zitierst hast. :)

Zum Topic: Irgendwo hieß es, daß auch der R360 neue AF-Optimierungen im Vergleich zum R350 haben soll.
So ein Schmarn.
Der RV350/360 hat mehr Optimierungen als die R3x0-Reihe.
Andere Pipes, wie die 800er Karten.

Quasar
2005-06-06, 20:29:41
Wieso bezieht ihr euch eigentlich auf den alten Computerbase-Artikel vom 27.5.04.
*whoa* Ich bin schuld. Vergib mir!
:massa:

DrumDub
2005-06-06, 20:41:53
*lol* Ist natürlich auch ein bißchen ungünstig, dass dieses Forum nur die letzte Aussage zitiert, statt die vorletzte mit einzubeziehen. ;)

Also: Lies Dein eigenes Posting mal in Zusammenhang mit demjenigen, auf das Du Dich bezogen hast; dann versthst Du auch, wie ich auf mein NV40-Posting gekommen bin. versteh ich aber immer noch nicht, da quasar ebenfalls nicht von dem nv40 sprach.

resonatorman
2005-06-06, 20:51:02
Bitte...doch kein Streit darüber, ob der NV40 flimmert, nicht flimmert, mehr flimmert als ATi und in welcher Einstellung...ich wollte doch eigentlich nur Erfahrungswerte hören, wie's zwischen den beiden ATi-Generationen steht...nVidia hab ich nur zum Vergleich gebracht...um die geht's hier gar nicht! BTW hab ich das Flimmern auf der GT selbst schon bewundern dürfen... ;)

Gast
2005-06-06, 20:53:57
.ich wollte doch eigentlich nur Erfahrungswerte hören, wie's zwischen den beiden ATi-Generationen steht
Wenn man alle Optimierungen ausschaltet, ist die BQ gleich.

MechWOLLIer
2005-06-06, 21:24:21
Die haben bestimmt die TS Optimierung nicht ausgeschaltet...
Es gibt beim X800 keine Texture Stage Optimierung mehr, also kann die auch nicht aktiviert sein:)

Gast
2005-06-06, 21:48:37
Mit HQ verliert man aber massig Leistung, deswegen testen auch alle mit Quality, sonst wäre der Balken nicht mehr so lang ;)

in 90% der fälle gibt es auch keine optischen unterschiede, nur bei sehr hochfrequentem texturinhalt.

der geschwindigkeitsverlust ist je nach spiel auch stark unterschiedlich, wobei mir interessanterweise vorkommt dass spiele die von HQ qualitativ profitieren besonders wenig speed verlieren ;)

SKYNET
2005-06-07, 00:32:50
Genau so sieht es aus. Ich bin von einer 9800Pro umgestiegen auf X800 und habe außerdem noch im Zweitrechner eine 6800GT.

Ohne AI ist es das selbe AF. SKYNET hatte doch noch nie ne 9800 oder X800 im Rechner. Der schriebt sowieso nur immer da, wo er ATI schlecht machen kann. ;)


stimmt, hatte nur bis mai leztes jahr ne 9800pro, und im laptop habe ich ne 9700 mobile...
im nachbarsrechner den ich öfters mal machen muss steckt ne x800...

kann dadurch sehrwohl vergleichen.

Gast
2005-06-07, 09:24:25
Warum?
Ich habe hier diverse Kärtchen von Nvidia und ATI rumliegen ;)
Ist doch offensichtlich, daß alle mit Quality testen ;)
Warum? Siehe den Beitrag, den du zitierst hast. :)


warum nicht, ati-karten werden auch mit AI-on getestet, und dann ist die bildqualität nahezu identisch

MarcWessels
2005-06-07, 14:21:18
versteh ich aber immer noch nicht, da quasar ebenfalls nicht von dem nv40 sprach.

Ups - hatte den Threadtitel automatisch als "X800 AF vs 6800 AF" gelesen. :biggrin:

Oblivion
2005-06-07, 18:16:20
der geschwindigkeitsverlust ist je nach spiel auch stark unterschiedlich, wobei mir interessanterweise vorkommt dass spiele die von HQ qualitativ profitieren besonders wenig speed verlieren ;)

Also laut deiner Meinung haben die Spiele die mit HQ um Ecken besser ausschaun einen geringeren Leistungsverlust als welche wo der Unterschied nur schwer erkennbar ist?

Wo hastn das her :| :confused: :|

Gast
2005-06-07, 19:42:43
Also laut deiner Meinung haben die Spiele die mit HQ um Ecken besser ausschaun einen geringeren Leistungsverlust als welche wo der Unterschied nur schwer erkennbar ist?

Wo hastn das her :| :confused: :|

ein paar spiele getestet

riddick: sehr viel schöner in HQ als in Q, geschwindigkeitseinbußen schon fast im bereich der messungenauigkeiten (1-2fps)

Doom3: sehr geringe geschwindigkeitseinbußen, merkbar besseres bild (allerdings nicht so stark wie bei riddick)

UT2k4: unterschied zwischen Q und HQ praktisch nicht sichtbar, dafür starke performanceeinbrüche

SCCT: sehr starke performanceeinbrüche beim switchen auf HQ, qualitative unterschiede praktisch nicht sichtbar. das einzige spiel wo ich sogar noch die standardeinstellung mit trilinear und sample-optimierung noch durchgehen lasse (besser nur brilinear, ist bei diesen texturen wirklich nicht sichtbar), vor allem weil es überproportional viel performance im verhältnis zu anderen spielen bringt.

mag durchaus sein dass es spiele gibt in denen HQ viel qualität bringt und viel performance kostet.

bei meinen bisherigen beobachtungen verhält es sich eher anders rum, wenn HQ performance kostet bringt es kaum qualität, bringt es viel qualität kostet es kaum performance. ich habe irgendwie den verdacht dass bei HQ teilweise applikationsspezifische filteroptimierungen ausgeschaltet werden. sind diese vorhanden kostet es natürlich viel performance, dafür sind die optimierungen aber so gut an den spielecontent angepasst dass sie kaum auffallen.

sind natürlich alles nur beobachtungen und vermutungen meinerseits, die nicht allgemeine gültigkeit haben, bei den oben genannten games ist es auf jeden fall so.

Oblivion
2005-06-07, 20:06:23
ein paar spiele getestet

riddick: sehr viel schöner in HQ als in Q, geschwindigkeitseinbußen schon fast im bereich der messungenauigkeiten (1-2fps)

Doom3: sehr geringe geschwindigkeitseinbußen, merkbar besseres bild (allerdings nicht so stark wie bei riddick)

UT2k4: unterschied zwischen Q und HQ praktisch nicht sichtbar, dafür starke performanceeinbrüche

SCCT: sehr starke performanceeinbrüche beim switchen auf HQ, qualitative unterschiede praktisch nicht sichtbar. das einzige spiel wo ich sogar noch die standardeinstellung mit trilinear und sample-optimierung noch durchgehen lasse (besser nur brilinear, ist bei diesen texturen wirklich nicht sichtbar), vor allem weil es überproportional viel performance im verhältnis zu anderen spielen bringt.

mag durchaus sein dass es spiele gibt in denen HQ viel qualität bringt und viel performance kostet.

bei meinen bisherigen beobachtungen verhält es sich eher anders rum, wenn HQ performance kostet bringt es kaum qualität, bringt es viel qualität kostet es kaum performance. ich habe irgendwie den verdacht dass bei HQ teilweise applikationsspezifische filteroptimierungen ausgeschaltet werden. sind diese vorhanden kostet es natürlich viel performance, dafür sind die optimierungen aber so gut an den spielecontent angepasst dass sie kaum auffallen.

sind natürlich alles nur beobachtungen und vermutungen meinerseits, die nicht allgemeine gültigkeit haben, bei den oben genannten games ist es auf jeden fall so.

Doom3 und Riddick sind durch Bumpmapping zu erklären

bei UT2004 mekrt man den Unterschied wenn man nahe an Modelle herangeht

SCCT hab ich nicht - von daher kann ich nix sagen

Gast
2005-06-07, 20:11:57
bei UT2004 mekrt man den Unterschied wenn man nahe an Modelle herangeht



also wenn ich wo nah heran gehe merke ich erlich gesagt nirgends qualitätsunterschiede, die gibt es bei Q AF nur in der entfernung, wo feine strukturen dann seltsame moire-muster ergeben. sobald jedoch in der nähe texel größer als pixel werden gibt es kein moire mehr (irgendwie auch logisch)

Gast
2005-06-07, 20:13:15
Doom3 und Riddick sind durch Bumpmapping zu erklären


btw.: farcry nutzt auch mächtig bump-mapping, trotzdem sind imo unterschiede zwischen Q und HQ nicht sichtbar (wobei die performance bei Q allerdings auch kaum steigt)

Oblivion
2005-06-07, 20:19:48
also wenn ich wo nah heran gehe merke ich erlich gesagt nirgends qualitätsunterschiede, die gibt es bei Q AF nur in der entfernung, wo feine strukturen dann seltsame moire-muster ergeben. sobald jedoch in der nähe texel größer als pixel werden gibt es kein moire mehr (irgendwie auch logisch)

Also bei den Spielermodellen merkt mans schon - bei Pflanzen usw. weiß ich jetzt nicht

von mir aus installier ich es im laufe der Woche nochmal und zeig dir screens ;)

resonatorman
2005-06-07, 20:20:09
Leute...jetzt seid ihr aber sowas von OT...hier geht es nur um ATi-Karten!

Oblivion
2005-06-07, 20:20:47
btw.: farcry nutzt auch mächtig bump-mapping, trotzdem sind imo unterschiede zwischen Q und HQ nicht sichtbar (wobei die performance bei Q allerdings auch kaum steigt)

Du musst Unterscheiden zwischen Außenarealen und Innenräumen ;)

weil draußen gibts net viel bump-mapping

rince
2005-06-13, 11:59:58
...aber was mich am AF der 6600 GT stört ist die Winkelabhängigkeit im ATI-Stil.

...die genauso von der 6800-serie eingesetzt wird?

Quasar
2005-06-13, 12:06:01
...die genauso von der 6800-serie eingesetzt wird?
Ja.

dargo
2005-06-13, 14:53:45
btw.: farcry nutzt auch mächtig bump-mapping, trotzdem sind imo unterschiede zwischen Q und HQ nicht sichtbar (wobei die performance bei Q allerdings auch kaum steigt)
Hmm, klingt interessant. :uponder:
Als ich noch eine G6800GT@Ultra hatte war Farcry bei mir ganze 38% schneller mit Q statt HQ.

resonatorman
2005-06-13, 15:57:44
Als ich noch eine G6800GT@Ultra hatte war Farcry bei mir ganze 38% schneller mit Q statt HQ.
...Q mit allen 3 Optimierungen aus?

dargo
2005-06-13, 18:15:17
...Q mit allen 3 Optimierungen aus?
Nein, bei Q waren die Optimierungen ein. Bei HQ alle aus.

Quasar
2005-06-13, 18:20:04
Dann sind 38% nicht verwunderlich. Aber genausowenig wären sie dann zu übersehen. *graus*

DaBrain
2005-06-13, 19:13:26
Einfach 2x SSAA verwenden und von den Optimierungen profitieren.

Sollte das Performance Plus noch nichtmal ganz aufbrauchen. ^^

Gast
2005-06-13, 20:35:47
Einfach 2x SSAA verwenden und von den Optimierungen profitieren.

Sollte das Performance Plus noch nichtmal ganz aufbrauchen. ^^

sehr stark zu bezweifeln, dafür müssten die optimierungen schon 100% bringen, was selbst zwischen HQ und HP mit allen optimierungen kaum gelingen wird.

aths
2005-06-17, 21:29:22
SSAA ist sehr ineffizient, schon deshalb lohnt das nicht.

Quasar
2005-06-17, 21:45:32
Was willst du sonst gegen Alpha-Tests machen?
G70 kaufen?

aths
2005-06-17, 21:46:29
Was willst du sonst gegen Alpha-Tests machen?
G70 kaufen?Hier gehts um AF-, also Texturqualität :)