PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : RV770/GT200: AF-Skalierung


Seiten : [1] 2 3

KonKorT
2009-06-18, 20:37:58
Guten Abend liebe 3DCenter-Community,

ich möchte Euch im folgenden einen Test vorstellen, der die AF-Skalierung von GT200 und RV770 thematisiert.

Entgegen vieler Ansichten bricht der RV770 mit aktiviertem AF ähnlich stark ein wie der GT200, gleichwohl letzterer auf dem Papier nicht nur deutlich mehr Texturleistung hat, sondern auch Speicherbandbreite.

Unklar ist mir daher, ob sich der RV770 diese relativ gute Performance durch schlechtere Bildqualität erkauft. In erster Linie konnten wir feststellen, dass AMDs AF mehr flimmert als Nvidias. Ansonsten war es sehr ausgewogen.


GT200/RV770: AF-Skalierung (http://www.hardware-infos.com/tests.php?test=68)


Allen Lesern an dieser Stelle viel Spaß beim Lesen. Ich würde mich über Kritik und Anregungen freuen!

Gast
2009-06-18, 20:54:28
Schade, kein HQ oder AI-off.

Da der Einbruch von 8- auf 16-faches anisotropes Filtern mit fünf bis sechs Prozent dann verhältnismäßig groß ausfällt
Naja.
Es ist kritisch, BQ in % zu bewerten.

16-faches anisotropes Filtern aktiveren, das die Bildqualität für das menschliche Auge nur noch unwesentlich verbessert.Subjektive Bewertung unter objektivem Mantel versteckt.
So nicht!


Unklar ist mir daher, ob sich der RV770 diese relativ gute Performance durch schlechtere Bildqualität erkauft. Das ist bereits lange Fakt.

KonKorT
2009-06-18, 21:08:17
Schade, kein HQ oder AI-off.
Im Catalyst ist High Quality eingestellt und im Geforce bewusst nur Quality, weil sich hieraus eine ähnliche Qualität ergibt.
AI-off hätte man in der Tat auch noch benchen können.

Naja.
Es ist kritisch, BQ in % zu bewerten.

Subjektive Bewertung unter objektivem Mantel versteckt.
So nicht!
Von 8- auf 16-fach ergibt sich der größte Leistungsverlust und wie im Artikel bereits geschrieben fallen die Qualitäts-Unterschiede zwischen 8- und 16-fach AF subjektiv nicht mehr stark auf. Klar wird man auf einem Standbild noch Unterschiede erkennen können, es verbessert die Bildqualität aber nur noch unwesentlich.

Das ist bereits lange Fakt.
Ja? Bis auf das Flimmern, das auf der Radeon stärker ausgeprägt ist, hatte ich sie jetzt subjektiv für ähnlich gut gehalten.

y33H@
2009-06-18, 21:12:31
Geforce und Radeon vergleichen in Sachen Fps-Verlust ist schön und gut, hier muss aber imo dann auch die BQ verglichen werden.AI-off hätte man in der Tat auch noch benchen können.HQ auch ;)

LovesuckZ
2009-06-18, 21:15:58
Ja? Bis auf das Flimmern, das auf der Radeon stärker ausgeprägt ist, hatte ich sie jetzt subjektiv für ähnlich gut gehalten.

Soso. Du findest es subjektiv ähnlich, kannst aber einen objektiven Unterschied feststellen. :|
Ohne HQ und A.I off ein komplett unbedeutender Test.

Schlammsau
2009-06-18, 21:17:02
Soso. Du findest es subjektiv ähnlich, kannst aber einen objektiven Unterschied feststellen. :|
Ohne HQ und A.I off ein komplett unbedeutender Test.
Nein! Weil......

- erstens, die Bildquali von A.I. Off trotzdem nicht an HQ heranreicht. Ergo kein Vergleich!

- zweitens, werden auch die guten Optimierungen und Fixes mit abgeschaltet. Ohne A.I. gibt es u.a. in HL² fehlerhafte Darstellung. Also auch kein Vergleich!

DrFreaK666
2009-06-18, 21:29:48
lol, da sind ja wieder die richtigen hier :biggrin:

Spasstiger
2009-06-18, 21:31:45
Fakt ist auf jeden Fall, dass ATI beim AF spart. Selbst mit AI off.
Mich überrascht im Test, dass die GTX 285 doch so stark mit 16:1 AF einbricht. Eigentlich dachte ich, dass selbst 16:1 HQ-AF bei der Karte kaum mehr als 5% gegenüber noAF kostet.

LovesuckZ
2009-06-18, 21:36:02
Nein! Weil......

- erstens, die Bildquali von A.I. Off trotzdem nicht an HQ heranreicht. Ergo kein Vergleich!

Richtig, es muss nämlich Q und A.I Off sein. Aber ich will alle Informationen sehen.


- zweitens, werden auch die guten Optimierungen und Fixes mit abgeschaltet. Ohne A.I. gibt es u.a. in HL² fehlerhafte Darstellung. Also auch kein Vergleich!

Es geht hier um den ansiotropen Filter und nicht um irgendwelche "sinnhaften" Einstellungen. Das sollte man als Mitglied wenigsten in diesem Forum verstanden haben, wenn man mitreden will. :rolleyes:

Schlammsau
2009-06-18, 21:39:21
Richtig, es muss nämlich Q und A.I Off sein. Aber ich will alle Informationen sehen.
Nein, es muss A.I. ON vs Q sein. ;)


Es geht hier um den ansiotropen Filter und nicht um irgendwelche "sinnhaften" Einstellungen. Das sollte man als Mitglied wenigsten in diesem Forum verstanden haben, wenn man mitreden will. :rolleyes:


Es geht hier um einen Performance Vergleich! ;)

Spasstiger
2009-06-18, 21:41:31
Es geht hier um einen Performance Vergleich! ;)
Wenn die Optimierungen, die nicht die Texturfilterung betreffen, wegfallen, fallen sie auch ohne AF weg. Damit ist die Vergleichbarkeit über die verschiedenen AF-Modi gewährleistet. Und die Texturfilteroptimierungen sollen ja wegfallen. Man will schließlich die bestmögliche Bildqualität beider Karten vergleichen.

Schlammsau
2009-06-18, 21:47:30
Wenn die Optimierungen, die nicht die Texturfilterung betreffen, wegfallen, fallen sie auch ohne AF weg. Damit ist die Vergleichbarkeit über die verschiedenen AF-Modi gewährleistet. Und die Texturfilteroptimierungen sollen ja wegfallen. Man will schließlich die bestmögliche Bildqualität beider Karten vergleichen.

Wer sagt, dass das AF ohne A.I. auch richtig funktioniert?

LovesuckZ
2009-06-18, 21:47:45
Nein, es muss A.I. ON vs Q sein. ;)

Entweder bist du nicht in der Lage das Thema zu verstehen oder du willst es nicht verstehen, weil es gegen deine Lieblingsfirma geht. Beim zweiten kann ich nur sagen: Akzeptiere endlich, dass Q einzig mit A.I off verglichen werden darf. Alles andere ist unfair.

Es geht hier um einen Performance Vergleich! ;)

Und wieso sollte man da HQ und A.I Off nicht betrachten? :confused:
Beeinflussen die nicht die Performance? Dienen sie nicht zur Einstellung der Qualität der Filterung? :confused:

KonKorT
2009-06-18, 22:00:28
Und wieso sollte man da HQ und A.I Off nicht betrachten? :confused:
Beeinflussen die nicht die Performance? Dienen sie nicht zur Einstellung der Qualität der Filterung? :confused:
Gut, LovesuckZ, es wird einen Nachtest mit A.I off geben! Bin zwar selten mit Dir einer Meinung, aber dieses Mal schon. ;)

Was meinst du jetzt immer noch mit HQ? Es gibt doch nur bei A.I disabled, standard und advanced? Die Mip Map-Details sind wie gesagt schon jetzt auf High Quality im Catalyst.

LovesuckZ
2009-06-18, 22:02:12
Gut, LovesuckZ, es wird einen Nachtest mit A.I off geben! Bin zwar selten mit Dir einer Meinung, aber dieses Mal schon. ;)

:up:
Das ist sehr schön. =)


Was meinst du jetzt immer noch mit HQ? Es gibt doch nur bei A.I disabled, standard und advanced? Die Mip Map-Details sind wie gesagt schon jetzt auf High Quality im Catalyst.

Ich rede von nVidia, dass HQ ebenfalls mitgetestet gehört.

Coda
2009-06-18, 22:02:46
Wer sagt, dass das AF ohne A.I. auch richtig funktioniert?
Was soll da nicht richtig funktionieren? Drogen?

Schlammsau
2009-06-18, 22:07:21
Drogen?

Wie bitte? :|

KonKorT
2009-06-18, 22:09:26
Ich rede von nVidia, dass HQ ebenfalls mitgetestet gehört.
Bei Nvidia benchen wir bewusst nur mit Quality, weil ihr High Quality-Mode noch mal eine bessere Bildqualität bietet als ATIs High Quality. Also das war schon bewusst so.
Im übrigen ist die GTX 285 schon verpackt und geht morgen zurück nach Gainward. ;)

LovesuckZ
2009-06-18, 22:12:06
Bei Nvidia benchen wir bewusst nur mit Quality, weil ihr High Quality-Mode noch mal eine bessere Bildqualität bietet als ATIs High Quality. Also das war schon bewusst so.


Es handelt sich hierbei um einen Vergleich der AF. Diese setzt sich jedoch heute nicht nur einzig aus dem Grad der Ansiotropie sondern auch aus der generellen Art der Filterung zusammen. In solch einen Test gehört HQ mitgetestet.

BAGZZlash
2009-06-18, 22:16:37
wir wollen also herausfinden, wie viel Performance unter praxisnahen Anwendungen durch die Aktivierung von anisotropischer Filterung verloren geht.


Es heißt "anisotrope Filterung", nicht "anisotropische Filterung", und das trotz mauem Sommer... :rolleyes:

Coda
2009-06-18, 22:18:30
Wie bitte? :|
Ja, was faselst du denn da. Warum sollte AF mit A.I. off nicht mehr funktionieren? Es funktioniert sogar besser.

Wenn man keine Ahnung hat von einem Thema, dann sollte man sich raushalten.

Schlammsau
2009-06-18, 22:21:25
Ja, was faselst du denn da. Warum sollte AF mit A.I. off nicht mehr funktionieren? Es funktioniert sogar besser.

Wooos? Wo habe ich geschrieben, dass es nicht funktionieren soll?
Ich will nur wissen, ob es mit deaktiviertem A.I. auch immer greift!

Coda
2009-06-18, 22:23:45
Nein wolltest du nicht, sonst hättest du das nicht so provokant formuliert. Du wolltest nicht wissen ob AF evtl. mit A.I. off nicht funktioniert sondern hast gleich wieder einen solchen Test damit in Frage gestellt.

Schlammsau
2009-06-18, 22:24:56
Nein wolltest du nicht, sonst hättest du das nicht so provokant formuliert.

Provokant......Drogen? :|

Coda
2009-06-18, 22:26:13
Nein überhaupt nicht. Dann schreibt man "Funktioniert AF auch immer mit A.I. off" und nicht "Wer sagt..."

Das klingt schon wieder als müsste man dir dafür auch noch irgendwelche Beweise dafür liefern. Du verstricktst die ganze Sache schon wieder mit Sachen die total irrelevant sind.

Nochmal zum mitschreiben: NATÜRLICH funktioniert AF auch mit A.I. off. Das ist eine vorraussetzung die Direct3D-Spezifikation einzuhalten.

Schlammsau
2009-06-18, 22:28:01
Nein überhaupt nicht. Dann schreibt man "Funktioniert AF auch immer mit A.I. off" und nicht "Wer sagt..."

Das klingt schon wieder als müsste man dir dafür auch noch irgendwelche Beweise dafür liefern. Das ist einfach nur lächerlich.

Was denn ..... dass war eine ernst gemeinte Frage!

Coda
2009-06-18, 22:28:22
Und ich habe sie dir schon mehrfach beantwortet. Meine Fresse.

BAGZZlash
2009-06-18, 23:35:02
Drogen?



Ja, was faselst du denn da.



Wenn man keine Ahnung hat von einem Thema, dann sollte man sich raushalten.



Meine Fresse.


Du meine Güte, beruhig' Dich mal wieder und such' Dir professionelle Hilfe. Das wird ja immer schlimmer mit Dir, hat Dir schon mal jemand gesagt, dass Du ein Choleriker (http://de.wikipedia.org/wiki/Choleriker) bist? Die Anfälle häufen sich und werden auch noch immer schlimmer.

Und so jemand ist auch noch Mod (okay, danke: "3DCenter Crew"). Hast Du Dich jemals gefragt, wie Du nach außen hin wirkst? Das ist ja schon schädlich für den guten Ruf des 3DC. Denk' mal drüber nach.

Banshee18
2009-06-18, 23:41:56
1. ist Coda kein Mod
2. ist das hier nicht das Thema
3. sollten jetzt alle a)zum Thema zurückkehren, b)freundlicher zueinander sein und c) sachlich bleiben und nicht den Fanboy heraushängen lassen.

Danke für eure Aufmerksamkeit.

Coda
2009-06-19, 00:10:30
Du meine Güte, beruhig' Dich mal wieder und such' Dir professionelle Hilfe.
Ich seh's nicht ein wenn Schlammsau hier wieder und wieder versucht Tatsachen als gegeben hinzustellen die er nichtmal ansatzweise versteht. Und ja, da verwedende ich im Internet entsprechende Ausdrucksweise. Sonst verstehen es die Leute nicht.

Ich lass mich gern und ausführlich über Dinge aus die ich als nicht annehmbar empfinde. Wem's nicht passt kann mich auf die entsprechende Liste setzen.

Irgendwann ist Schluss mit lustig. Das Thema ist ja nicht erst seit gestern bekannt.

derguru
2009-06-19, 01:01:10
hab mal mit a.i.default und off gebencht und versucht die spiele zu nehmen die von hardware info getestet wurden.

4770 defaulttakt

COJ 1650*1050 1AA/16AF A.I. OFF
min: 17.6 fps //max:65.8 fps // avg:34.6 fps

COJ 1650*1050 1AA/16AF A.I. default
min: 18.3 fps //max:65.8 fps // avg:34.6 fps

warhead 1650*1050 1AA/16AF A.I. OFF
min: 10.64 fps //max:20.47 fps // avg:16.5 fps

warhead 1650*1050 1AA/16AF A.I. default
min: 11.23 fps //max:20.70 fps // avg:16.39 fps

stalkerbench 1280*1024 1AA/16AF A.I.OFF
http://www.abload.de/thumb/stalkera.i.offyp4v.gif (http://www.abload.de/image.php?img=stalkera.i.offyp4v.gif)


stalkerbench 1280*1024 1AA/16AF A.I.default
http://www.abload.de/thumb/stalkera.i.defaultrrv2.gif (http://www.abload.de/image.php?img=stalkera.i.defaultrrv2.gif)

lost planet 1440*900 1AA/16AF A.I.OFF
area1 26.8fps area2 42.8 fps

lost planet 1440*900 1AA/16AF A.I.default
area1 33.2fps area2 46.0 fps

außer lostplanet sind es im endeffekt nur meßtoleranzen und bei lost planet liegt es definitive nicht am af.
deshalb sind auch a.i. off vergleiche zu Q nichts wert auch wenn es am BQ-Vergleich am nahesten wäre, mein lieber Lovesucks.

Banshee18
2009-06-19, 01:17:33
deshalb sind auch a.i. off vergleiche zu Q nichts wert
Warum? Ich verstehe die Logik nicht.
Hast du überprüft, ob nicht die CPU limitiert?
Bei dem Test geht es nicht um einen Bildqualitätsvergleich oder generell um einen Vergleich ATi vs. nV, sondern um die AF-Skalierung. Es ist doch interessant zu erfahren, wieviel ATi durch A.I. einspart.

derguru
2009-06-19, 01:29:15
ja ist schon richtig das es nicht um ati vs. nv geht oder bildqualitätsvergleiche.ich will ja auch gerne wissen wieviel durch a.i eingespart wird aber das hat halt mit af wenig bis gar nichts zutun.cpu limit checke ich nochmal.

Banshee18
2009-06-19, 01:34:54
ich will ja auch gerne wissen wieviel durch a.i eingespart wird aber das hat halt mit af wenig bis gar nichts zutun.
A.I. on spart gegenüber A.I. off, das ist Fakt. Wieviel, lässt sich herausfinden, indem man AF aus vs. AF an bencht.

derguru
2009-06-19, 01:39:40
A.I. on spart gegenüber A.I. off, das ist Fakt. Wieviel, lässt sich herausfinden, indem man AF aus vs. AF an bencht.

klar aber wieviel ist die frage,durch a.i. off zu a.i. default kriegt man das jedenfalls nicht raus.
ich teste es bei spielen so,ich schalte af aus und switche dann von a.i. off zu default und wenn sich die performance ändert weiß man ob es noch andere optimierungen gibt oder nicht.

hier z.b.

A.I. off 1440*900 1AA/1AF
http://www.abload.de/thumb/lostplanetcoloniesdx10wu8d.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10wu8d.png)
A.I. default 1440*900 1AA/1AF
http://www.abload.de/thumb/lostplanetcoloniesdx10poxk.png (http://www.abload.de/image.php?img=lostplanetcoloniesdx10poxk.png)

puntarenas
2009-06-19, 01:55:28
Bei dem Test geht es nicht um einen Bildqualitätsvergleich oder generell um einen Vergleich ATi vs. nV, sondern um die AF-Skalierung. Es ist doch interessant zu erfahren, wieviel ATi durch A.I. einspart.
Das stimmt und der Test zeigt ja auch, dass ATI dank der Einsparungen mittlerweile ähnlich gut skaliert wie Nvidia.

Es ist trotzdem schade, dass auf die dabei abgelieferte Bildqualität nicht eingegangen wurde, unkommentiert kann man die Diagramme eigentlich nicht gegenüberstellen. Das erklärt aber vielleicht auch, warum Nvidia HQ nicht mitgetestet wurde, obwohl das bei Nvidia zweifellos der Modus der Wahl ist und dessen Skalierung interessiert nunmal weitaus mehr als "Quality". ATI A.I. Off-Skalierung hätte den Test ebenfalls abrunden können.

Banshee18
2009-06-19, 01:56:16
klar aber wieviel ist die frage,durch a.i. off zu a.i. default kriegt man das jedenfalls nicht raus.
ich teste es bei spielen so,ich schalte af aus und switche dann von a.i. off zu default und wenn sich die performance ändert weiß man ob es noch andere optimierungen gibt oder nicht.
Schalte A.I. aus, benche ein Spiel einmal mit 1xAF und einmal mit 16xAF. Der Prozentuale Einbruch müsste stärker sein, als mit A.I. on. So kannst du ausrechnen, wieviel A.I. beim AF spart.

derguru
2009-06-19, 02:54:34
das mache ich jetzt aber nur bei einem bench,keine lust mir 4 mal den selben bench anzuschauen;)
ich nehme mal komplett ein anderen bench wegen höheren fpswerten,devil may cry4.

so hab jetzt mit 16AF jeweils a.i. off . und default gebencht.
ich nehme zur berechnung nur scene 1.


A.I. OFF 16AF
http://www.abload.de/thumb/devilmaycry4_benchmarkd0u7.png (http://www.abload.de/image.php?img=devilmaycry4_benchmarkd0u7.png)
A.I. Default 16Af
http://www.abload.de/thumb/devilmaycry4_benchmarkr6nh.png (http://www.abload.de/image.php?img=devilmaycry4_benchmarkr6nh.png)

mit 16Af ist der unterschied von A.I.off zu default 6,9%,mal sehen was gleich noch übrig bleibt wenn ich af ausmache;)

A.I.OFF 1AF
http://www.abload.de/thumb/devilmaycry4_benchmark831l.png (http://www.abload.de/image.php?img=devilmaycry4_benchmark831l.png)
A.I.default 1AF
http://www.abload.de/thumb/devilmaycry4_benchmarky44c.png (http://www.abload.de/image.php?img=devilmaycry4_benchmarky44c.png)

mit 1AF ist der unterschied von A.I. off zu default 5,9%.

das bedeutet bei scene 1 von devil may cry4 eine einsparung von1% mit a.i. off.:rolleyes:

Gast
2009-06-19, 03:03:37
Musst schon Topgames die Häufiger gebencht werden, sonst bringt das nix.

derguru
2009-06-19, 03:12:50
Musst schon Topgames die Häufiger gebencht werden, sonst bringt das nix.

gerne mach du das,ist mir zuviel aufwand.
wenn du bei ati performance verlust sehen willst dann mach es mit hl2 oder HAWX,ich glaub das sind ca. 10%.:wink:

Gast
2009-06-19, 04:21:32
gerne mach du das,ist mir zuviel aufwand.


Was testest du dann erst? Irgendwelche Larifari Games die keiner kennt braucht man nicht zu testen.

LovesuckZ
2009-06-19, 07:59:18
deshalb sind auch a.i. off vergleiche zu Q nichts wert auch wenn es am BQ-Vergleich am nahesten wäre, mein lieber Lovesucks.

Wieso nicht? A.I off ist der Modus, der am nähsten an Q heranreicht, also ist er auch der zu vergleichende. Diese Logik wird auch bei 8xMSAA bei beiden IHVs angewendet.

reunion
2009-06-19, 08:37:40
Wieso nicht? A.I off ist der Modus, der am nähsten an Q heranreicht, also ist er auch der zu vergleichende. Diese Logik wird auch bei 8xMSAA bei beiden IHVs angewendet.

Nicht wirklich. AI_off ist tri, aber spart immer noch Samples. Q ist bri, aber spart wohl kaum Samples. Am ehesten Vergleichbar wäre wohl AI_low vs. Q plus Sample-Optimierung.

desert
2009-06-19, 08:52:49
Nicht wirklich. AI_off ist tri, aber spart immer noch Samples. Q ist bri, aber spart wohl kaum Samples. Am ehesten Vergleichbar wäre wohl AI_low vs. Q plus Sample-Optimierung.

Ist a.i. off nicht mittlerweile auch nur noch bri?

reunion
2009-06-19, 09:08:06
Ist a.i. off nicht mittlerweile auch nur noch bri?

Wenn es sich in den letzten paar Monaten nichts geändert hat nein.

Grestorn
2009-06-19, 09:15:46
Nicht wirklich. AI_off ist tri, aber spart immer noch Samples. Q ist bri, aber spart wohl kaum Samples. Am ehesten Vergleichbar wäre wohl AI_low vs. Q plus Sample-Optimierung.

Q ist nicht Bri, Bri ist eine extra schaltbare Option. Q spart wohl auch lediglich ein paar Samples ggü. HQ.

reunion
2009-06-19, 09:18:04
Q ist nicht Bri, Bri ist eine extra schaltbare Option. Q spart wohl auch lediglich ein paar Samples ggü. HQ.

Okay, das war unpräzise. Default ist bri. Also Q plus Tri-Ops.

Gast
2009-06-19, 18:17:37
Ai Off wäre also vergleichbar wie man in diversen Videos sehen kann, obwohl Quality immer noch Vorteile hat, aber man muss halt vergleichbare Verhältnisse schaffen.

Gast
2009-06-19, 19:06:37
Ai Off wäre also vergleichbar wie man in diversen Videos sehen kann, obwohl Quality immer noch Vorteile hat, aber man muss halt vergleichbare Verhältnisse schaffen.
Allgemein gesprochen? Der hier diskutierte Artikel war kein Benchmark-Shootout, sondern eine Betrachtung der AF-Skalierung.

y33H@
2009-06-19, 19:37:46
Dann darf man aber nicht sagen "Geforce verliert mehr" - denn das wäre vergleichend. Und wenn man den Fps-Einbruch vergleicht, muss man auch die BQ vergleichen. Sonst heißts in einem Artikel "boah geil, auf ner Radeon kostet AF kaum" und im anderen "boah, AF sieht auf ner Radeon scheiße aus".

Gast
2009-06-19, 19:59:55
Dann darf man aber nicht sagen "Geforce verliert mehr" - denn das wäre vergleichend.
Vollkommen richtig, schlechter Artikel. Was bleibt sind die Messergebnisse, wenn man den Text ausblendet, Nvidia-User hätten sich aber sicher für HQ interessiert. :frown:

Vielleicht nächstes Mal. :up:

Gast
2009-06-19, 20:02:20
Man will schließlich die bestmögliche Bildqualität beider Karten vergleichen.

Wo liest du das bei dem test?!
Bevor ich hier rumkacke würde ich an deine stelle mal den test anklicken und schauen was getestet wurde.
Ganz sicher nicht die bestmögliche qualität!
Es geht um einen "performanceverlust- vergleich" der verschiedenen AF modis.

gruss

Spasstiger
2009-06-19, 20:28:23
Wo liest du das bei dem test?!
Bevor ich hier rumkacke würde ich an deine stelle mal den test anklicken und schauen was getestet wurde.
Ganz sicher nicht die bestmögliche qualität!
Es geht um einen "performanceverlust- vergleich" der verschiedenen AF modis.

gruss
Dann formuliere ich es für dich etwas ausführlicher, ich dachte eigentlich, es wäre klar, was ich meine:
"Man will schließlich unter anderem auch sehen, wie die AF-Modi mit der jeweils bestmöglichen Bildqualität skalieren".

Ich hasse diese Korinthenkackerei in Internetforen. Da muss immer alles bis aufs letzte Schriftpixel definiert sein.

Userxy
2009-06-19, 23:48:19
Diese Korinthenkackerei hat man fast immer nur in deutschen Internetforen. Auch wenn man alles genau definiert, wird es immer noch jemanden geben, der es falsch versteht.

y33H@
2009-06-20, 05:04:36
Nicht falsch versteht. Falsch verstehen will - ein "zu dumm" spare ich mir an dieser Stelle, da manche Sichtweisen nur schwer nachvollziehen sind.

KonKorT
2009-06-20, 11:34:37
Wie ich schon hier im Thread schrieb, wird es einen Nachtest mit A.I off geben. Die Nvidia-Karte haben wir nicht mehr, aber haben hier auch bewusst mit Quality statt High Quality gebencht, weil dies eher dem High Quality-Modus im Catalyst entspricht.
Die Tests von derguru haben aber bereits durchblicken lassen, dass durch A.I off keine allzu großen Änderungen zu erwarten wird.

Der Blick lag bei diesem Artikel klar auf der Performance, auf die Bildqualität wird nur einmal kurz eingegangen ("Qualitativ schlägt das Pendel ebenfalls zugunsten Nvidias, weil deren AF weniger stark flimmert"). Sie ist auch schlichtweg in keine Zahlen zu pressen. Ich kann schlecht hergehen und sagen, dass Nvidia 100% Bildqualität liefert und ATI 96%.

derguru
2009-06-20, 11:43:30
kommt auf das spiel an,bei HAWX und HL2 hatte ich knapp 8% unterschied abzüglich a.i. optimierungen.

http://www.abload.de/thumb/hawx2009-06-a.i.defaul5x8x.png (http://www.abload.de/image.php?img=hawx2009-06-a.i.defaul5x8x.png) http://www.abload.de/thumb/hawx2009-a.i.off16affxg9.png (http://www.abload.de/image.php?img=hawx2009-a.i.off16affxg9.png)

Gast
2009-06-20, 11:47:55
Wie ich schon hier im Thread schrieb, wird es einen Nachtest mit A.I off geben. Die Nvidia-Karte haben wir nicht mehr, aber haben hier auch bewusst mit Quality statt High Quality gebencht, weil dies eher dem High Quality-Modus im Catalyst entspricht.

Der Catalyst kennt keinen HighQuality-Modus, du meinst vermutlich A.I. Default. ATI kommt mit A.I. Off in der Regel nahe an Nvidia Q heran (Ausnahmen bestätigen die Regel), ganz in diese Qualitätsregion kommen sie leider nicht.


Der Blick lag bei diesem Artikel klar auf der Performance, auf die Bildqualität wird nur einmal kurz eingegangen ("Qualitativ schlägt das Pendel ebenfalls zugunsten Nvidias, weil deren AF weniger stark flimmert"). Sie ist auch schlichtweg in keine Zahlen zu pressen. Ich kann schlecht hergehen und sagen, dass Nvidia 100% Bildqualität liefert und ATI 96%.
Ich dachte wirklich, dass du eben von einigen etwas falsch verstanden wurdest, weil sie deine Diagramme als Vergleich zwischen Nvidia und ATI mißverstanden haben. Du redest aber selbst von Vergleichbarkeit, was soll das für ein Vergleich sein? Was soll er zeigen?

Gast
2009-06-20, 11:55:25
Ich dachte wirklich, dass du eben von einigen etwas falsch verstanden wurdest, weil sie deine Diagramme als Vergleich zwischen Nvidia und ATI mißverstanden haben. Du redest aber selbst von Vergleichbarkeit, was soll das für ein Vergleich sein? Was soll er zeigen?

Ist das echt so schwer zu verstehen. Der Vergleich zeigt, wieviel AF durchschnittlich bei den Standardeinstellungen des Treibers kostet. Gleichzeitig sind die Standardeinstellungen auch relativ vergleichbar. NVidia AF hat eine größere Brilinearität, dafür werden bei ATI mehr Samples ausgelassen.

KonKorT
2009-06-20, 12:01:42
Der Catalyst kennt keinen HighQuality-Modus, du meinst vermutlich A.I. Default. ATI kommt mit A.I. Off in der Regel nahe an Nvidia Q heran (Ausnahmen bestätigen die Regel), ganz in diese Qualitätsregion kommen sie leider nicht.
Nein, ich meine hier das Mipmap Detail Level.

Ich dachte wirklich, dass du eben von einigen etwas falsch verstanden wurdest, weil sie deine Diagramme als Vergleich zwischen Nvidia und ATI mißverstanden haben. Du redest aber selbst von Vergleichbarkeit, was soll das für ein Vergleich sein? Was soll er zeigen?
Siehe Post 59.

LovesuckZ
2009-06-20, 12:38:32
Ist das echt so schwer zu verstehen. Der Vergleich zeigt, wieviel AF durchschnittlich bei den Standardeinstellungen des Treibers kostet. Gleichzeitig sind die Standardeinstellungen auch relativ vergleichbar. NVidia AF hat eine größere Brilinearität, dafür werden bei ATI mehr Samples ausgelassen.

Egal - was am Ende zählt ist nur das Ergebnis und nicht der Weg. Und da ist A.I off auf dem Niveau von Q.
Und Standardeinstellung - das bedeutet keine Änderungen an den Einstellungen. Wieso wurde dann hier eplizit Änderung am AF vorgenommen? :|

Gast
2009-06-20, 13:05:24
kommt auf das spiel an,bei HAWX und HL2 hatte ich knapp 8% unterschied abzüglich a.i. optimierungen.
Was spricht also gegen AI-off?

Die 8% können es nicht sein, Qualität kosten nunmal. 8% ist nicht viel, sondern ein Witz.


Mal davon abgesehen das AI-off manchmal sogar mehr als nur die Filterqualität verbessert, manchmal gibts auch mehr Details wie in UT3 oder CoD4.

Schlammsau
2009-06-20, 13:09:37
Was spricht also gegen AI-off?

Die 8% können es nicht sein, Qualität kosten nunmal. 8% ist nicht viel, sondern ein Witz.


Mal davon abgesehen das AI-off manchmal sogar mehr als nur die Filterqualität verbessert, manchmal gibts auch mehr Details wie in UT3 oder CoD4.

.....oder Grafikfehler wie u.a. in HL². :|

Wie bereits sehr oft geschrieben, deaktiviert man mit A.I. Off auch die sinnvollen Bugfixes.
Warum ATi das so gemacht hat, ist mir ein Rätsel aber immo ist es noch so.

IVN
2009-06-20, 13:15:12
oder Grafikfehler wie in HL². :|
Und? Man muss bei High-End-GPUs eben die höhst mögliche AF-Quali testen. Es ist nicht das Problem der Reviewer wenn ATI meint sinvolle Fixes mit dem Cheat-Filter koppeln zu müssen.

Schlammsau
2009-06-20, 13:16:21
Und? Man muss bei High-End-GPUs eben die höhst mögliche AF-Quali testen. Es ist nicht das Problem der Reviewer wenn ATI meint sinvolle Fixes mit dem Cheat-Filter koppeln zu müssen.

Mann muss? :crazy2:

derguru
2009-06-20, 13:19:00
Was spricht also gegen AI-off?

Die 8% können es nicht sein, Qualität kosten nunmal. 8% ist nicht viel, sondern ein Witz.


wenn a.i off keine spieleoptimierungen enthalten(wie z.b. in HAWX)und man kein cf nutzt spricht nichts gegen a.i.off aber das ist halt von spiel zu spiel unterschiedlich und genau das spricht gegen a.i. off.wer hat den lust jedes spiel erstmal auseinander zunehmen um zu schauen ob optimierungen enthalten sind oder nicht.
nunja 8% zusätzlich ist halt ich nicht ein witz,das sind fast 30% performanceverlust zu 1AF und man hat immer noch nicht die qualität von HQ.:wink:

IVN
2009-06-20, 13:22:01
Mann muss? :crazy2:
Ja, so ist es. Wozu mehrer 100 Euro für eine GraKa ausgeben, um dann nicht die best mögliche Quali einzustellen? Würdest du auf einer 4890 Spiele in 640*480 spielen?

wenn a.i off keine spieleoptimierungen enthalten(wie z.b. in HAWX)und man kein cf nutzt spricht nichts gegen a.i.off aber das ist halt von spiel zu spiel unterschiedlich und genau das spricht gegen a.i. off.wer hat den lust jedes spiel erstmal auseinander zunehmen um zu schauen ob optimierungen enthalten sind oder nicht.

Das ist ATIs Problem, und nicht der der Reviewer. Man sollte trotzdem mit AI Off testen, und im Fazit anmerken das Radeons Kompatibilitätsprobleme mit der Max-Quali-Einstellung haben, damit's ATI endlich lernt.

Gast
2009-06-20, 13:32:35
Wie bereits sehr oft geschrieben, deaktiviert man mit A.I. Off auch die sinnvollen Bugfixes.
So wie das weglassen von Details in UT3 oder CoD4?


Warum ATi das so gemacht hat, ist mir ein Rätsel aber immo ist es noch so. Es ist kein Rätsel, wie es dir sehr genau bekannt ist.
Es war ein extrem kluger Schachzug dieses zu koppeln. Keiner jammert mehr über die Qualität, keiner benutzt mehr diese lahme Einstellungin Benches.
Fast genauso clever waren die Jungs bei AAA. Einfach den Treiber entscheiden lassen, mit Glück wird am Ende MSAAA mit TSSAA verglichen, schön für AMD.

wer hat den lust jedes spiel erstmal auseinander zunehmen um zu schauen ob optimierungen enthalten sind oder nicht.Wer keine Lust auf Stress hat kauft Nvidia, schon klar.


nunja 8% zusätzlich ist halt ich nicht ein witz,das sind fast 30% performanceverlust zu 1AF und man hat immer noch nicht die qualität von HQ.:wink:
Und, 16x HQ AF ist auch nicht ganz umsonst. Dennoch siehts um Welten besser aus als 1x Default.
Der Versuch BQ in % aufwiegen zu wollen muss scheitern.

Mr.Magic
2009-06-20, 13:35:34
Das ist ATIs Problem, und nicht der der Reviewer. Man sollte trotzdem mit AI Off testen, und im Fazit anmerken das Radeons Kompatibilitätsprobleme mit der Max-Quali-Einstellung haben, damit's ATI endlich lernt.

Genau meine Meinung.
nVidia hat man damals beim NV3x durch Berichterstattung doch auch gezwungen die Optimierungen im Treiber (eingeführt, weil alle vom hässlich-schnellen 16xATiAF so begeistert waren) schleunigst wieder abschaltbar zu machen, und bei NV4/G7 wurde auch (zu recht) an den "Optimierungen" in Harware rumgemäkelt, und ab G8 waren sie wieder verschwunden.

Gast
2009-06-20, 13:36:32
.....oder Grafikfehler wie u.a. in HL². :|

Ist das nicht ein Armutszeugnis, das die schnellste AMD Lösung nicht in der Lage ist in Spielen wie HL2 maximale Texturfilterung zu ermöglichen?
Obs jetzt an schrottigen Treibern oder gekoppelten Cheats liegt ist mir egal.

Jedenfalls kann selbst eine 8500 GT HL2 mit 16x HQ AF darstellen.

IVN
2009-06-20, 13:44:05
Ist das nicht ein Armutszeugnis, das die schnellste AMD Lösung nicht in der Lage ist in Spielen wie HL2 maximale Texturfilterung zu ermöglichen?

Ja, ist es. Aber was soll man da machen, wenn es die Käufer nicht juckt?

Ich meine, selbst hier, im 3DC - einem Forum, welches angeblich voll mit Nerds und Technikfreaks ist (die eigentlich auf Bild-Quali abfahren sollten) - gibt es eine Menge Leute, die die Verarsche seitens ATi einfach so schlucken...und mehr als das, verteidigen es sogar. Ich glaube das muss man nicht verstehen können.

derguru
2009-06-20, 13:51:27
Das ist ATIs Problem, und nicht der der Reviewer. Man sollte trotzdem mit AI Off testen, und im Fazit anmerken das Radeons Kompatibilitätsprobleme mit der Max-Quali-Einstellung haben, damit's ATI endlich lernt.
hab ich nichts gegen nur vergleichen sollte man dann nicht.

Und, 16x HQ AF ist auch nicht ganz umsonst. Dennoch siehts um Welten besser aus als 1x Default.
Der Versuch BQ in % aufwiegen zu wollen muss scheitern.

klar nicht umsonst,beim performancerating von hardware infos müßten es so um die 25% sein.

IVN
2009-06-20, 13:53:17
hab ich nichts gegen nur vergleichen sollte man dann nicht.

Wieso nicht?

derguru
2009-06-20, 13:56:40
keine lust mich zu wiederholen.

IVN
2009-06-20, 14:00:29
keine lust mich zu wiederholen.
Es ist eher so das es keine Argumente gibt, für das Schonen von AMD/ATi. Wären die Positionen umgekehrt, würden ATi-User darauf bestehen, das man Nv für die Verarsch-Praktiken abstraft, und das zu Recht.

Gast
2009-06-20, 14:01:36
klar nicht umsonst,beim performancerating von hardware infos müßten es so um die 25% sein.
Na also, ob 25 oder 33%, ist relativ egal. Dazu kommt die geringe Qualität trotz minmal höheren Kosten.

Was soll diese Verteidigung.

Mit mehr als 1xAA verschwindet dieser "Einbruch" zum Teil wieder.

hmx
2009-06-20, 14:11:35
Mann muss? :crazy2:

Ja, weil immer noch Effekte (zum Bsp bei COD4) fehlen wenn AI on ist und man ohne AI on kein MSAA in diesem Spiel (und anderen hat).

Gast
2009-06-20, 14:17:35
Ja, weil immer noch Effekte (zum Bsp bei COD4) fehlen wenn AI on ist und man ohne AI on kein MSAA in diesem Spiel (und anderen hat).
Demnach muss man entweder da auf einwandfreie Darstellung oder dort auf Qualität verzichten.

btw. 8xMSAA ist damit nicht mehr zwingend notwendig, wenn hier auf MSAA gänzlich verzichtet wird.
Ich freue mich schon auf die zukünftigen 8xCSAA vs AMDs 8xMSAA Tests. ;)

Schlammsau
2009-06-20, 14:18:57
Ja, weil immer noch Effekte (zum Bsp bei COD4) fehlen wenn AI on ist und man ohne AI on kein MSAA in diesem Spiel (und anderen hat).
Das ist doch schon längst behoben.

Demnach muss man entweder da auf einwandfreie Darstellung oder dort auf Qualität verzichten.

btw. 8xMSAA ist damit nicht mehr zwingend notwendig, wenn hier auf MSAA gänzlich verzichtet wird.
Ich freue mich schon auf die zukünftigen 8xCSAA vs AMDs 8xMSAA Tests. ;)
Die wird es nicht geben! ;)

Gast
2009-06-20, 14:24:05
Das ist doch schon längst behoben.

Nicht jeder testet mit jedem neuen Treiber welche Einstellungen er jetzt ändern kann, welche zu unbekannten Darstellungsfehlern führen, usw.


Die wird es nicht geben! ;)Aus welchem Grund?

LovesuckZ
2009-06-20, 14:26:55
hab ich nichts gegen nur vergleichen sollte man dann nicht.


Natürlich gehört es verglichen. Entweder alles oder nichts. Aber kein Mischmasch, dass vollkommen flasche Schlüsse hervorzaubert.
Fakt ist, wenn A.I Off nicht mitgetestet wird, darf natürlich auch kein 8xMSAA bei nVidia verwendet werden.

Schlammsau
2009-06-20, 14:37:17
Nicht jeder testet mit jedem neuen Treiber welche Einstellungen er jetzt ändern kann, welche zu unbekannten Darstellungsfehlern führen, usw.
In Treiber kommen Fehler vor. Das ist bei nVidia genau das gleiche.

Aus welchem Grund?
Aus dem selben Grund, warum HQ und A.I. On nicht verglichen wird.

LovesuckZ
2009-06-20, 14:38:26
Aus dem selben Grund, warum HQ und A.I. On nicht verglichen wird.

Wir vergleichen Q und A.I On - und du willst nicht 8/16xCSAA gegen 8xMSAA vergleichen? ;D

Und wehe du kommst mit Bildqualität: Die ist dir doch fast vollkommen egal.

Schlammsau
2009-06-20, 14:42:22
Wir vergleichen Q und A.I On - und du willst nicht 8/16xCSAA gegen 8xMSAA vergleichen? ;D

Und wehe du kommst mit Bildqualität: Die ist dir doch fast vollkommen egal.

Q vs A.I. On ist Vergleichbar. Punkt!

Wann hast du eigentlich das letzte mal eine Radeon besessen?

Gast
2009-06-20, 14:55:30
Q vs A.I. On ist Vergleichbar. Punkt!

8xMSAA vs 8xCSAA ebenso. ;)


Wann hast du eigentlich das letzte mal eine Radeon besessen?
Offtopic.


Aus dem selben Grund, warum HQ und A.I. On nicht verglichen wird. Weil man Nvidia nicht noch mehr benachteiligen will, beim MSAA aber dann doch wieder?


In Treiber kommen Fehler vor.Und nicht jeder checkt bei jedem Treiber durch ob irgendwas anders ist.
So ist es nicht abwegig, das trotz Fix CoD4 mit AI-off gespielt wird. Und nun?

LovesuckZ
2009-06-20, 14:56:13
Q vs A.I. On ist Vergleichbar. Punkt!


Langsam muss man annehmen, dass du hier nur trollen willst.
Punkt ist, dass Q nur mit A.I off zu vergleichen ist. Du kannst gerne dir deine eigene Wahrheit zusammen spinnen, aber die Wirklichkeit sieht nunmal nicht so aus, wie du sie gerne sehen willst. :rolleyes:

y33H@
2009-06-20, 15:27:25
Punkt ist, dass Q nur mit A.I off in Sachen BQ zu vergleichen ist. Zieht man den Fps-Vergleich, säuft AMD in einigen Spielen massiv ab - in anderen nicht. Zieht man mal ein Review nicht an den Average-Balken mit "vergleichbarer" BQ auf, sondern bencht mit vergleichbarer max. BQ, wird es nämlich verdammt dunkel. In WoW etwa ist Q-AAA SSAA-basiert und mit AI-off gehen die Fps massiv in den Keller. Im Gegensatz dazu ist eine Geforce mit TSSAA und HQ ohne "Optimierungen" selbst mit 8x MSAA samt TAA viel viel schneller - die Radeon kackt beim SSAA wegen der mangelnden Füllrate ab und bekommt durch die geringe TMU-Anzahl "dank" 16:1 AF noch mehr aufs Maul (und das, obwohl AI-off immer noch schlechter aussieht als HQ ohne "Optimierungen").

Um es mal ganz drastisch zu sagen: Bei annähernd identischer, ans Limit getriebener BQ kackt eine aktuelle Radeon gnadenlos ab - u.a. weil sich AMD hier mit AI imo ins Bein schießt. Für mich als BQ-Fetischist ist das ein no go und mir ist dies auch einen Aufpreis von bis zu 50€ wert. Qualität hat eben ihren Preis. Immer und überall.

Schlammsau
2009-06-20, 15:34:40
Ich gebs auf, dann sollen alle BQ Fetischisten nVidia kaufen und alle anderen ATi.

y33H@
2009-06-20, 16:01:07
Das machen sie bereits ;)

puntarenas
2009-06-20, 16:31:24
Ich gebs auf, dann sollen alle BQ Fetischisten nVidia kaufen und alle anderen ATi.
Das sieht ATI genauso und wählt Standardeinstellungen, die es den Radeons erlauben konkurrenzfähige Frameraten zu liefern. Jenseits dieser, mit einem Schwerpunkt auf Performance gewählten Spareinstellungen, brechen die Karten überverhältnismäßig stark ein. Sie sind für Höheres einfach nicht geschaffen und erweisen sich dann als schlecht ausbalanciert.

Insofern kann man durchaus von sinnvollen Standardeinstellungen sprechen, eine Radeon ist eben in erster Linie ein Kompromiss aus Bildqualität und Geschwindigkeit. Trotzdem wäre oft genug Performance vorhanden, allerdings behandelt ATI seine Klientel wie unmündige Idioten und nagelt sie auf eine Standardeinstellung fest. Diese Haltung kann ich prinzipiell verstehen, man konkurriert mit kleineren, billigeren GPUs und hat keinerlei Interesse, ein Bewusstsein für Qualitätsunterschiede und Wahlfreiheit im Treiberpanel aufkommen zu lassen. Anfreunden kann ich mich mit dieser Haltung niemals.

Gast
2009-06-20, 16:33:12
Ich gebs auf, dann sollen alle BQ Fetischisten nVidia kaufen und alle anderen ATi.Wie oft muss man es noch schreiben?
In Zunkunft gibt es gar keine Wahl mehr.
Oder Nvidia Karten werden vergleichweise schlechter (bis auf BQ), soll ich mir nur weil ich Performance in BQ investieren will derart leiden?

Deine Gutstellung AMDs ist einfach nur störend.

Zieht man den Fps-Vergleich, säuft AMD in einigen Spielen massiv ab - in anderen nicht.
Im Standard 8xMSAA Vergleich stört es auch Niemanden, das die Pixelfüllrate der Geforce gefünftelt wird.
Alternative CSAA wird ignoriert.

Bei AMD ist es anders. Das sparen an TMUs wird auch noch in Schutz genommen: "Ach das kostet so viel, testen wir nicht".


Punkt ist, dass Q nur mit A.I off in Sachen BQ zu vergleichen ist.Der hardware infos test ordnet sich als BQ Test ein.
Sonst würde er kaum den "FPS Einbruch von 16xAF mit dem von 16xAF gegenüberstelle.

_DrillSarge]I[
2009-06-20, 16:42:38
Fakt ist, wenn A.I Off nicht mitgetestet wird, darf natürlich auch kein 8xMSAA bei nVidia verwendet werden.
der zusammenhang erschliesst sich mir jetzt nicht.

Punkt ist, dass Q nur mit A.I off zu vergleichen ist. Du kannst gerne dir deine eigene Wahrheit zusammen spinnen, aber die Wirklichkeit sieht nunmal nicht so aus, wie du sie gerne sehen willst. :rolleyes:
hä?
ai default -> Q
??? -> HQ

ich behaupte, dass in 80% der fälle null unterschied zwischen ai-off und low besteht (ich rede jetzt nur vom af). fakt ist, dass low und Q vergleichbar (!!! nicht identisch) sind. zu HQ gibt es bei ati einfach kein pendant, da kann man an den schaltern rumdrehen wie man will. also wars das mit vergleichbarkeit, weil ich es für mies halte, mit kastrierter qualität bild(!)qualitätsvergleiche anzustellen. sonst denken sich die IHVs irgendwann, dass dieses Q/A.i. low -niveau reicht und den rest streichen (wobei das hier nur nv betreffen würde :D).
HQ kann man zurzeit mit nix von ati vergleichen. daher sollte man es auch lassen bzw. getrennt aufführen (nicht gemeinsam in die berühmten balkendiagramme schreiben) und FETT drüber schreiben, dass ati dort einfach schlechter aussieht und auch keinerlei optionen zur besserung anbietet.

derguru
2009-06-20, 16:42:58
@y33H@

hast du noch mehr beispiele dazu oder ist bei WOW schluss.:rolleyes:

Das sieht ATI genauso und wählt Standardeinstellungen, die es den Radeons erlauben konkurrenzfähige Frameraten zu liefern. Jenseits dieser, mit einem Schwerpunkt auf Performance gewählten Spareinstellungen, brechen die Karten überverhältnismäßig stark ein. Sie sind für Höheres einfach nicht geschaffen und erweisen sich dann als schlecht ausbalanciert.


ach wo hast du denn das her,zeig mal.
komisch in benchmarks ist auffallend das umso höher die auflösung wird umso besser kommen ati karten in fahrt im gegensatz zu nv und damit meine ich nicht jetzt alibi 8MSAA.

Gast
2009-06-20, 16:48:58
I[;7370261']zu HQ gibt es bei ati einfach kein pendant, da kann man an den schaltern rumdrehen wie man will.
Muss auch nicht sein, AI-off vs Q reicht auch, ist auch fairer.
Eine Alternative wäre natürlich auch AI-off 16xAF vs HQ 8xAF.

Oder AMD nur noch mit 4xAF AI-on testen, da sollen nach Coda die Schummeleien weit weniger schlimm sein.

I[;7370261']
fakt ist, dass low und Q vergleichbar (!!! nicht identisch) sind.Nö. Und CSAA ist vergleichbar zu MSAA.


hast du noch mehr beispiele dazu oder ist bei WOW schluss.:rolleyes:
Langsam sollte es jeder kapiert haben, das der Filter unabhängig vom Spiel gleich schlecht filtert.



ach wo hast du denn das her,zeig mal.
komisch in benchmarks ist auffallend das umso höher die auflösung wird umso besser kommen ati karten in fahrt im gegensatz zu nv und damit meine ich nicht jetzt alibi 8MSAA.
Wo denn?
Wohl wieder eine 512MiB Karte getestet?

derguru
2009-06-20, 16:52:40
Langsam sollte es jeder kapiert haben, das der Filter unabhängig vom Spiel gleich schlecht filtert.

um af gehts nicht sondern um TSAA in WoW.

Wo denn?
Wohl wieder eine 512MiB Karte getestet?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet

finde es selbst heraus oder soll ich es dir malen.

Gast
2009-06-20, 17:17:37
um af gehts nicht sondern um TSAA in WoW.

Achso, gibt eben nicht viele Spiele, wo AMD SSAAA rendern lässt.


http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet

finde es selbst heraus oder soll ich es dir malen.
Mal es an, es sehe nicht worauf du hinaus willst.

y33H@
2009-06-20, 17:36:40
Achso, gibt eben nicht viele Spiele, wo AMD SSAAA rendern lässt.Die werden wissen warum. Wer weiß ob mit dem 9.6 Q-AAA noch SSAA-basierend ist ... das ändert sich hin und wieder.

@ derguru

Aktuell nicht. Da AMD das teils mit den Treiberversionen variiert und generell selten SSAA genutzt wird (warum sollte dir klar sein), ist das so ne Stecknadel-Heuhaufen-Sache. Aber darum geht es ja auch nicht. Es geht darum, dass AMD je höher man die BQ anzieht, immer weiter zurückfällt. Und als Bsp. habe ich eben WoW angeführt. Kannst ja gerne n Spiel suchen, wo AMD mit TSSAA besser dasteht.komisch in benchmarks ist auffallend das umso höher die auflösung wird umso besser kommen ati karten in fahrt im gegensatz zu nvDas lässt sich ebenso wenig pauschalisieren wie die 8x-MSAA-Geschichte.

derguru
2009-06-20, 17:51:56
http://www.abload.de/thumb/4890awda.gif (http://www.abload.de/image.php?img=4890awda.gif) http://www.abload.de/thumb/48901jw99.gif (http://www.abload.de/image.php?img=48901jw99.gif)
eben es gibt kaum ein spiel wo man TSSAA (QAAA+SSAA) anwenden kann aber wenn man nur nach der füllrate ausgehen würde müßte es in dem COJ-Bench eine ati karte viel stärker einbrechen als eine nv karte,macht es aber nicht und viel mehr beispiele gibts ja nicht.

Gast
2009-06-20, 18:04:54
Erst schreibst du Auflösung, jetzt bringst du ein Rating mit 4xAA und 16xAF ins Spiel.
Entscheide dich, was du jetzt wirklich willst.

Gast
2009-06-20, 18:16:29
Nicht abstürzen, aber die GTX 285 haut mächtige 7,5 FPS raus, während die 4890 beeindruckende 10,7 FPS liefern kann.
u.a. VRAM Mangel. :rolleyes:

Wie fliessen die 4xAA Benches aus Bioshock ins Ranking ein? Liefern ja nur die Geforces.

derguru
2009-06-20, 18:18:33
1680 auf 2560? Das ist imo Bullshit, da zB die Geforces in 2560 in Crysis abstürzen und das wohl mit 0 Fps ins Ranking einfließt :rolleyes:

yes,yes in 4aa ranking fließt seit neustem 8aa benchmarks mit ein.:wink:

y33H@
2009-06-20, 18:22:51
Ich bin blind, sorry ;(

Gast
2009-06-20, 18:35:04
yes,yes in 4aa ranking fließt seit neustem 8aa benchmarks mit ein.:wink:
Schon entschieden was du ursprünglich schreiben wolltest?
Auflösung oder Auflösung kombiniert mit 4xAA und 16xAF?

derguru
2009-06-20, 18:47:01
ja nichts was dich angehen würde denn ich hab mich auf post 90 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7370238&postcount=90) erste zeile bezogen gehabt und da war nicht die rede von was weiß ich was du von mir willst.

Gast
2009-06-20, 18:52:02
Dann lies Post 90 nochmal.

TSAAA und 16x HQ AF gehören ebenso zu BQ.


Du betrachtest natürlich nur 4xAA samt 16x LQ AF bei 2560x, Grundlage sind die 7 FPS in Crysis.
Obs in Bioshock überhaupt MSAA gibt ist im nächsten Augenblick wieder egal.

Nakai
2009-06-20, 18:53:16
Auflösung oder Auflösung kombiniert mit 4xAA und 16xAF?

Wir können es auch wahlweise mit oder ohne AF oder mit keinem AA machen. Oder ich bench mit HQ und mach kein AA und AF an.
Macht ja nicht viel Sinn, wenn man als BQ-Fetischist immer genau das nimmt, wo die BQ am schlechtesten ist. :rolleyes:

Und das soll nicht heißen, dass mir BQ am Arsch vorbeigeht. Diese Diskussion nervt sowas von dermaßen. Vor allem wenn Trolle und Fanboys beider Seiten in einer solchen Diskussion beteiligt sind.

Leute, wir wissen, dass ATI eine schlechtere Filterung hat. Wir wissen auch, dass dies bescheuert ist. Jeder sollte für mehr Freiheit und Selbstbestimmung sein. Wenn jemand den Unterschied nicht so schlimm findet oder kaum sieht, dann ist das seine persönliche und subjektive Entscheidung.


mfg Nakai

LovesuckZ
2009-06-20, 18:57:03
Und das soll nicht heißen, dass mir BQ am Arsch vorbeigeht. Diese Diskussion nervt sowas von dermaßen. Vor allem wenn Trolle und Fanboys beider Seiten in einer solchen Diskussion beteiligt sind.


Wie kann diese Diskussion nerven? Wenn einen die Wahrheit nervt, dann sollte man endlich anfangen diese auch zu akzeptieren.
Es nervt doch nur, weil bei vielen der Verdrängnismechanismus einsetzt.

Gast
2009-06-20, 19:00:06
Wir können es auch wahlweise mit oder ohne AF oder mit keinem AA machen. Oder ich bench mit HQ und mach kein AA und AF an.
Macht ja nicht viel Sinn, wenn man als BQ-Fetischist immer genau das nimmt, wo die BQ am schlechtesten ist. :rolleyes:
Es ging um die Auflösung, da macht ein Performancebalken bei hoher Auflösung mit 4xAA 16xF keinen Sinn. :rolleyes:

Nakai
2009-06-20, 19:13:31
Wie kann diese Diskussion nerven? Wenn einen die Wahrheit nervt, dann sollte man endlich anfangen diese auch zu akzeptieren.
Es nervt doch nur, weil bei vielen der Verdrängnismechanismus einsetzt.

Ich akzeptier doch die Wahrheit. :wink:
Nur mich stört die mangelnde BQ beim Filter nicht in dem Maße, wie es andere tut. Nur will ich selber entscheiden können, was ich im Treiber einstellen will.
Mit ner Nvidia sind die Einstellmöglichkeiten im Treiber deutlich besser und mit Nhancer wird man wirklich nicht mehr irgendwie eingeschränkt.

Viele wissen doch, dass ATI deutlich schlechter filtert, aber diesen Leuten stört es nicht, deswegen sehen sie jegliche Aufregung als anstrengend an. Ist doch das gleiche wie in der Politik. Solange wir keinen Aufstand machen, werden wir immer weiter vom Staat eingeschränkt. Wir sollten eine Petition machen, versuchen einschlägige Hardwareseiten für uns zu gewinnen, sogar international. Wenn Coda endlich den AI-Artikel fertig hätte, dann hätten wir eine starke Basis für dieses Vorhaben.


mfg Nakai

Gast
2009-06-20, 19:22:26
Das ist ja alles Korinthenkackerei. Der Unterschied zwischen NV default und ATI default ist minimalst. Und zwar so sehr, dass selbst die selbsternannten BQ Ritter eingestehen müssen, dass es teilweise verdammt schwer ist, auch in speziell ausgewählten Szenen, einen Unterschied bei beiden Kontrahenten feststellen zu können. Naja, schlagt ihr auch ruhig weiter die Köpfe ein, ich zock derweil mit meiner 157€ HD4890 auf GTX285 Niveau :rolleyes:

Gast
2009-06-20, 19:24:29
Viele wissen doch, dass ATI deutlich schlechter filtert, aber diesen Leuten stört es nicht, deswegen sehen sie jegliche Aufregung als anstrengend an.

Von wegen. In der Standardeinstellung wird fast gleich gut gefiltert. Aber die großen Experten hier können sich ja mal erkundigen wie NVidia das selbst sieht und was sie den unbeholfenen Hardwareredakteueren in ihren Reviewersguides für Bencheinstellungen vorschlagen.

y33H@
2009-06-20, 19:51:37
ich zock derweil mit meiner 157€ HD4890 auf GTX285 NiveauFps oder BQ? ;DIn der Standardeinstellung wird fast gleich gut gefiltert.Crysis-Videos angeschaut?

Gast
2009-06-20, 19:52:14
ich zock derweil mit meiner 157€ HD4890 auf GTX285 Niveau :rolleyes:Ich zock derweil mit meiner GTX 280 auf dem gefühlten FPS Niveau einer übertakteten 4870 X2. :rolleyes:

Der Unterschied zwischen NV default und ATI default ist minimalst.Uns gehts nicht um Default, sondern 16xAF AI-on vs 16xAF Q, bzw 16x AF AI-off vs 16xAF Q, bzw 16xAF HQ.
Bzw der nicht vorhandenen Wahl zwischen SSAAA und MSAAA.
Bzw der nicht vorhanden Wahl auf SSAA(-Hybride).

Wenn Coda endlich den AI-Artikel fertig hätte, dann hätten wir eine starke Basis für dieses Vorhaben.

Leider wird dies erst mit RV8xx der Fall sein.
Dennoch hoffe ich, das er uns nicht entäuschen wird. Wobei, er kann zumindest mich nicht entäsuchen, den selbst ein schlechter Artikel ist in der Wüste besser als gar nichts. Den bisher gibt es praktisch gar nichts und neben Codas Artikel erwarte ich kaum andere Artikel.

Gast
2009-06-20, 19:54:55
Fps oder BQ? ;D
Nichtmal FPS, eine 4890 braucht schon 8xMSAA um gegen die GTX 285 wirklich gewinnen zu können.

Ansonsten ist sie der GTX 275 Gegner, eine Karte, die gerne ignoriert wird. Ich habe es nie verstanden, wieso.

Genauso unverständlich, warum die "Bevormundung ist doch Bestens Schreier", CSAA vs MSAA strikt ablehnen.

Gast
2009-06-20, 20:07:31
Fps oder BQ? ;DCrysis-Videos angeschaut?

Ja. Ist Crysis das einzige Spiel, wo man das sieht? Was ist zB mit COD?

Uns gehts nicht um Default, sondern 16xAF AI-on vs 16xAF Q

Wenn das AF über die Anwendung eingestellt wird, bleibt der Treiber ja trotzdem auf default. Der Schalter im Treiber ist ja nur für Spiele, die entweder kein AF unterstützen (gibt aktuell imo kein aktuelles), oder wo das Spiel keine extra Einstellung fürs AF zulässt. Und da braucht man ja auch nicht unbedingt reinpfuschen. Die Entwickler wissen schon was sie machen.

Schlammsau
2009-06-20, 20:20:09
Nichtmal FPS, eine 4890 braucht schon 8xMSAA um gegen die GTX 285 wirklich gewinnen zu können.

Tatsächlich?
In Street Fighter IV zB ist eine 4870 sogar genauso schnell wie eine GTX280. ;)

Und dann gibbet eine 4890 bereits ab unter 160 €uronen....wieviel kostet eine GTX280 oder 285? ;D

Gast
2009-06-20, 20:30:19
Tatsächlich?
In Street Fighter IV zB ist eine 4870 sogar genauso schnell wie eine GTX280. ;)
Dann stimmst du mir zu?
Genauso schnell bleibt genauso schnell, wenn man auf beiden Seiten 10% zuzählt.

Im Übrigen gibt es natürlich immer ausreißer, ich habe nicht das Gegenteil behauptet.
Gothic 3 oder Bioshock oder GTA4 bekommt den AMD Karten auch nicht gut, was jetzt?

Und dann gibbet eine 4890 bereits ab 170€uronen....wieviel kostet eine GTX280 oder 285? GTX 280 ist EOL. Was kostet gleich eine 2900 XT? :rolleyes:
Wieviel kostete eine 4870 X2?

Eine GTX 260 kostet 128€, eine 4870 124€. Wieviel kostet gleich eine 4890?

Du schlägst genau da ein, wo der von dierte Post hinweist. Du ignorierst eine GTX 275 schlichtweg, obwohl sie der logische Gegner ist.
Muss daran liegen das es dann deutlich schwerer wäre über irgend einen Mackel, wie den Preis zu lästern.

Gast
2009-06-20, 20:46:48
Tatsächlich?
Und dann gibbet eine 4890 bereits ab unter 160 €uronen....wieviel kostet eine GTX280 oder 285? ;D

Siehst du, damit beweist du zum erneuten Male das du rein garnichts verstanden hast.

Gast
2009-06-20, 20:49:17
[QUOTE=Gast;7370516]Von wegen. In der Standardeinstellung wird fast gleich gut gefiltert. /QUOTE]

Sogar AI-off filtert schlechter als nvidias standard.

Gast
2009-06-20, 20:56:11
Nichtmal FPS, eine 4890 braucht schon 8xMSAA um gegen die GTX 285 wirklich gewinnen zu können.

Kommt immer aufs Spiel draufan: http://www.pcgameshardware.de/aid,687389/Call-of-Juarez-Bound-in-Blood-Systemanforderungen-und-Grafikkarten-Benchmarks/Action-Spiel/Test/

y33H@
2009-06-20, 22:32:15
Ja. Ist Crysis das einzige Spiel, wo man das sieht? Was ist zB mit COD?CoD4 kaum, CoD W@W sieht man es. Ansonsten seien noch HL2 und The Witcher genannt, ein ganz aktuelles Beispiel ist CoJ BiB.

Banshee18
2009-06-21, 02:53:16
Leute, wir wissen, dass ATI eine schlechtere Filterung hat. Wir wissen auch, dass dies bescheuert ist. Jeder sollte für mehr Freiheit und Selbstbestimmung sein. Wenn jemand den Unterschied nicht so schlimm findet oder kaum sieht, dann ist das seine persönliche und subjektive Entscheidung.
:umassa: Amen.
Genauso unverständlich, warum die "Bevormundung ist doch Bestens Schreier", CSAA vs MSAA strikt ablehnen.
CSAA vs. MSAA ist genauso wenig vergleichbar, wie A.I. on vs. Q. Wenn nV mit 8xAA stark einbricht, dann ist es ihr Problem und sollte deshalb nicht verschwiegen werden. Genauso ist es aber auch ATis Problem, wenn A.I. off einbricht.

Gast
2009-06-21, 08:55:49
CSAA vs. MSAA ist genauso wenig vergleichbar, wie A.I. on vs. Q. Wenn nV mit 8xAA stark einbricht, dann ist es ihr Problem und sollte deshalb nicht verschwiegen werden. Genauso ist es aber auch ATis Problem, wenn A.I. off einbricht.
Eben, entweder es wird 8xMSAA und AI-off getestet oder CSAA und AI-on.

In der jetztigen Situation wird Nvidia einfach nur benachteiligt weil, ja warum eigentlich?
Weil sie einem die Wahl lassen?
Weil sie kein AI eingeführt haben?

Palpatin
2009-06-21, 11:56:45
Eben, entweder es wird 8xMSAA und AI-off getestet oder CSAA und AI-on.

In der jetztigen Situation wird Nvidia einfach nur benachteiligt weil, ja warum eigentlich?
Weil sie einem die Wahl lassen?
Weil sie kein AI eingeführt haben?
Warum nicht einfach 8xMSAA ohne AF testen, dann wird niemand benachteiligt.

reunion
2009-06-21, 12:01:46
Punkt ist, dass Q nur mit A.I off in Sachen BQ zu vergleichen ist.

Punkt ist, dass das Bullshit ist. Aber das habe ich weiter hinten schon gesagt, wurde aber wohlwollend ignoriert.

die Radeon kackt beim SSAA wegen der mangelnden Füllrate ab

Auch das ist prinzipbedingt Bullshit. SSAA kostet auf jeder Karte gleich viel. Wenn ich doppelt so viele Samples nehme verdoppelt das die Rechenlast, was die FPS halbiert. Bei den Transparentverfahren kann es je nach Szene natürlich zu Unterschiede kommen, aber das lässt sich sicher nicht pauschalisieren.

puntarenas
2009-06-21, 12:06:30
Warum nicht einfach 8xMSAA ohne AF testen, dann wird niemand benachteiligt.

8xAA wird doch jetzt schon völlig weltfremd mit 16x(LQ|HQ)AF gebencht, ohne dass TAA oder AAA aktiviert wird. Wer macht denn im Spielealltag sowas, das legt einen aberwitzigen Schwerpunkt auf die Polygonkantenglättung. Wenn du jetzt auch noch AF abschaltest, dann hast du bloß noch Moppelkotze mit blitzeblanken Polygonkanten. :uclap:

reunion
2009-06-21, 12:09:51
Die werden wissen warum. Wer weiß ob mit dem 9.6 Q-AAA noch SSAA-basierend ist ... das ändert sich hin und wieder.

@ derguru

Aktuell nicht. Da AMD das teils mit den Treiberversionen variiert und generell selten SSAA genutzt wird (warum sollte dir klar sein), ist das so ne Stecknadel-Heuhaufen-Sache. Aber darum geht es ja auch nicht. Es geht darum, dass AMD je höher man die BQ anzieht, immer weiter zurückfällt. Und als Bsp. habe ich eben WoW angeführt. Kannst ja gerne n Spiel suchen, wo AMD mit TSSAA besser dasteht.

Das lässt sich ebenso wenig pauschalisieren wie die 8x-MSAA-Geschichte.

Ach y33H@, wenn du schon keine Ahnung hast dann bleibe doch wenigstens konsequent. Du pauschalisierst das sich die Balken biegen solange es gegen AMD geht und forderst im Gegensatz weniger Pauschalisierungen gegen NV. Das ist nicht nur inkonsequent - das ist lächerlich.

reunion
2009-06-21, 12:11:07
8xAA wird doch jetzt schon völlig weltfremd mit 16x(LQ|HQ)AF gebencht, ohne dass TAA oder AAA aktiviert wird. Wer macht denn im Spielealltag sowas, das legt einen aberwitzigen Schwerpunkt auf die Polygonkantenglättung. Wenn du jetzt auch noch AF abschaltest, dann hast du bloß noch Moppelkotze mit blitzeblanken Polygonkanten. :uclap:

TAA/AAA ist nicht vergleichbar, deswegen würde ich mich davor hüten damit zu benchen. Es sollte nicht der draufzahlen welcher mehr Bildpunkte erfasst.

Nakai
2009-06-21, 12:33:48
Von wegen. In der Standardeinstellung wird fast gleich gut gefiltert. Aber die großen Experten hier können sich ja mal erkundigen wie NVidia das selbst sieht und was sie den unbeholfenen Hardwareredakteueren in ihren Reviewersguides für Bencheinstellungen vorschlagen.

Das ist ja alles Korinthenkackerei. Der Unterschied zwischen NV default und ATI default ist minimalst. Und zwar so sehr, dass selbst die selbsternannten BQ Ritter eingestehen müssen, dass es teilweise verdammt schwer ist, auch in speziell ausgewählten Szenen, einen Unterschied bei beiden Kontrahenten feststellen zu können. Naja, schlagt ihr auch ruhig weiter die Köpfe ein, ich zock derweil mit meiner 157€ HD4890 auf GTX285 Niveau :rolleyes:

Mir ist der Unterschied egal. Ich sehe ihn, er ist da, aber mich stört die schlechtere Filterqualität nicht. Das ist mein subjektives Empfinden. Wenn die Flimmerei jemand stört, dann kann er sich beschweren, ich verstehe diese Einstellung, obwohl ich manchmal die Ziele gewisser Leute in Frage stelle.

Fakt ist, dass ATIs/AMDs Treiberpolitik fürn Arsch ist. Da sollte sich endlich was ändern. Ich will mehr Funktionen im Treiber, sodass ich meine Grafikqualität selber bestimmen kann. Das ist doch das grundlegende Problem. Ihr könnt ja danach immer noch über die BQ zwischen ATI und NV streiten (was ohne jeden Zweifel immer noch passieren wird), aber vorerst muss der Treiber verbessert werden.



mfg Nakai

Gast
2009-06-21, 12:35:12
TAA/AAA ist nicht vergleichbar, deswegen würde ich mich davor hüten damit zu benchen. Es sollte nicht der draufzahlen welcher mehr Bildpunkte erfasst.
So wie es bei AF ebenfalls der Fall ist.

Nvidia zahlt drauf einerseits weil sie mehr Transistoren geopfert haben, andereseits weil mehr berechnet wird.
1xAF wiederum ist auch keine Alternative, dadurch wird die Benachteiligung nicht gelindert, sondern der Nutzen des Benches gegen null sinken.

Auf TAA/AAA lässt es sich teilweise übertragen.
Für viele sind Benches ohne TAA/AAA wertlos, da nütz auch 24xED CFAA nichts.


8xMSAA ist ein anderes Thema. Einerseits wird AMD durch AF-AI bervorteilt, anderseits muss Nvidia durch ihre schlechte 8xMSAA Performance leiden.
Würde Nvidia im Umkehrschluss 8xMSAA aus dem Treiber verbannen oder mit "sinnvollen Optimierungen koppeln" wäre alles in Butter.
Ok nicht ganz, alle Welt würde zurecht über deren Vorgehen schimpfen.

Grestorn
2009-06-21, 12:44:44
So lange nVidia nicht beschließt die Möglichkeiten des Anwenders einzuschränken und die Bildqualität zu senken, um einfacher und billiger mit ATI konkurieren zu können, habe ich mit der Situation kein Problem.

Jeder soll glücklich werden und bekommt das, wofür er bezahlt.

Nur ich fürchte, nVidia wird sich anpassen müssen, denn letztlich zählt das Geld. Und die Maßnahmen von ATI sind so geschickt, dass sie viel Geld sparen und ihnen der Großteil der Welt auch noch applaudiert. Also laufe ich Gefahr als nVidia Kunde wegen ATI nachteile zu erleiden. Und das finde ich ehrlich gesagt ziemlich bescheiden.

puntarenas
2009-06-21, 12:57:48
TAA/AAA ist nicht vergleichbar, deswegen würde ich mich davor hüten damit zu benchen. Es sollte nicht der draufzahlen welcher mehr Bildpunkte erfasst.
TAA/AAA ist ein Segen und im Spielealltag nicht mehr wegzudenken. Wieso sollte man sich davor hüten, damit zu benchen, man sollte sich davor hüten in Diagrammen zu vergleichen, was nicht zu vergleichen ist.

Im Moment ist es doch so, dass Kartenreviews von zwei Balken dominiert werden, einmal 4xAA/16xAF, einmal 8xAA/16xAF. Der zweite Modus mag zwar qualitativ was das MSAA angeht vergleichbar sein, wenn man beim AF beide Augen zudrückt, aber tendenziell bevorzugt er ATI und gewährt den Radeons beeindruckend lange Balken. Das vermittelt den Eindruck, die Radeons seien bei besonders hohen Qualitätseinstellungen sehr schnell.

Das kann man aber aus den Benchmarks nicht ablesen, denn 8xAA/16x(LQ|HQ)AF ohne TAA/AAA bedeutet natürlich keine besonders tolle Bildqualität. Wenn ich bei 4xAA/16xAF noch Reserven habe, dann springe ich nicht auf 8xAA, sondern sehe zu dass ich erstmal Alphatests geglättet kriege. Habe ich dann noch Reserven, dann drehe ich das AA über Hybridmodi oder CSAA bis hin zu 8xQ (8xMSAA). Bei ATI hat man zwar weniger Auswahl und Zwischenschritte hin zur maximal möglichen Qualität, aber prinzipiell kommt hier auch erstmal AAA vor allem anderen.

Natürlich ist es möglich, dass das ständige Trommelfeuer mit 8xAA/16xAF/No-AAA mittlerweile Anwender geboren hat, die zu Hause tatsächlich vor einer derart unausgewogenen Flimmertapete sitzen, aber das macht den Modus nicht sinnvoller.

Der Vergleich hinkt aber auch an anderer Stelle, denn wer bei Nvidia 8xAA aktiviert, der wird den Anisotropen Filter kaum auf Sparflamme belassen, diese Krücke nehmen die Reviewer aber in Kauf, weil A.I. Standard mit Nvidia Q als vergleichbar gilt. Schau man sich die Wahlmöglichkeiten und die im Spielealltag sinnvollen möglichen Einstellungen beider Hersteller nochmal genau an und welche Bildqualität dabei für den Anwender herausspringt, dann wird schnell klar dass die Karten sich wesentlich mehr unterscheiden als rein über die stumpfe Framerate. Epic Fail in der Fachpresse, die regelmäßig einen anderen Eindruck vermittelt.

Gast
2009-06-21, 12:58:55
Hm? Was meinst du? Etwa, dass NV wegen ATIs optimiertem AF ihren HQ Modus streichen könnte? Ist imo etwas weit hergeholt. :|

Grestorn
2009-06-21, 13:03:08
Hm? Was meinst du? Etwa, dass NV wegen ATIs optimiertem AF ihren HQ Modus streichen könnte? Ist imo etwas weit hergeholt. :|

Finde ich gar nicht. ATI gewinnt Benches gegen eigentlich wesentlich stärkere nV Karten wegen der Einsparmaßnahmen und weil sich keiner traut, ATI mit AI off zu benchen, weil das ATI ja zu sehr benachteiligen würde (wobei eigentlich das genaue Gegenteil richtig ist).

Wäre ich nVidia würde ich mir scharf überlegen ob ich diesen Nachteil nicht ausgleichen sollte. Auf die billigste Weise natürlich, also letztlich mit der selben Methode wie ATI.

reunion
2009-06-21, 13:03:12
So wie es bei AF ebenfalls der Fall ist.

Nvidia zahlt drauf einerseits weil sie mehr Transistoren geopfert haben, andereseits weil mehr berechnet wird.
1xAF wiederum ist auch keine Alternative, dadurch wird die Benachteiligung nicht gelindert, sondern der Nutzen des Benches gegen null sinken.

Auf TAA/AAA lässt es sich teilweise übertragen.
Für viele sind Benches ohne TAA/AAA wertlos, da nütz auch 24xED CFAA nichts.


8xMSAA ist ein anderes Thema. Einerseits wird AMD durch AF-AI bervorteilt, anderseits muss Nvidia durch ihre schlechte 8xMSAA Performance leiden.
Würde Nvidia im Umkehrschluss 8xMSAA aus dem Treiber verbannen oder mit "sinnvollen Optimierungen koppeln" wäre alles in Butter.
Ok nicht ganz, alle Welt würde zurecht über deren Vorgehen schimpfen.

Das ist richtig, aber beim AF kann man es zumindest objektiv relativ einfach feststellen wer wie gut oder schlecht filtert und das dann auch entsprechend anmerken oder möglichst identische Bedingungen herstellen. Bei AAA/TAA müsste man jedes Frame einzeln kontrollieren wer was wie gut oder schlecht glättet. Denn nach welchen Kriterien welcher Treiber welche Bildpunkte zur Glättung freigibt weiß im Prinzip niemand. Viel Spaß dann dabei so etwas zu vergleichen wenn beim IHV X die Blätter des Baumes geglättet werden und dafür wieder die Stromleitung nicht oder umgekehrt - um nur mal ein Beispiel zu nennen.

reunion
2009-06-21, 13:09:28
Finde ich gar nicht. ATI gewinnt Benches gegen eigentlich wesentlich stärkere nV Karten wegen der Einsparmaßnahmen und weil sich keiner traut, ATI mit AI off zu benchen, weil das ATI ja zu sehr benachteiligen würde (wobei eigentlich das genaue Gegenteil richtig ist).

Wäre ich nVidia würde ich mir scharf überlegen ob ich diesen Nachteil nicht ausgleichen sollte. Auf die billigste Weise natürlich, also letztlich mit der selben Methode wie ATI.

Solange der HQ-Modi nur optimal im Treiber vorhanden ist und damit nicht gebencht wird kann sich nV über die positive Presse freuen ohne fps Einbüßen im Kauf nehmen zu müssen. Du erweckst andauernd den Eindruck als ob damit gebencht werden würde.

derguru
2009-06-21, 13:10:42
Finde ich gar nicht. ATI gewinnt Benches gegen eigentlich wesentlich stärkere nV Karten wegen der Einsparmaßnahmen und weil sich keiner traut, ATI mit AI off zu benchen, weil das ATI ja zu sehr benachteiligen würde (wobei eigentlich das genaue Gegenteil richtig ist).

schonmal benchmarks mit a.i.off gesehen oder woher nimmst du die gewissheit das dort die karten stark einbrechen?

hast du denn schonmal benchmarks mit A.I.off gesehen um zu beurteilen wieviel verlust dadurch die karten erleiden.
Wäre ich nVidia würde ich mir scharf überlegen ob ich diesen Nachteil nicht ausgleichen sollte. Auf die billigste Weise natürlich, also letztlich mit der selben Methode wie ATI.
Hm? Was meinst du? Etwa, dass NV wegen ATIs optimiertem AF ihren HQ Modus streichen könnte? Ist imo etwas weit hergeholt. :|
so ein quatsch,warum sollte nv HQ abschaffen?
haben dadurch überhaupt keine nachteile weil auch wirklich gar kein reviewer mit HQ benchen tut.(ist eher von vorteil weil es ein netter bonus)

IVN
2009-06-21, 13:15:52
mit bezogen auf gastkommentar
so ein quatsch,warum sollte nv HQ abschaffen?
haben dadurch überhaupt keine nachteile weil auch wirklich gar kein reviewer mit HQ benchen tut.
Ganau deswegen! Man bencht AI OFF gegen HQ nicht, und die TMUs auf NV-GPUs liegen brach. Deswegen kann sich NV denken "na wenn Leute eh nur Q/AI ON Qualität wollen, dann reduzieren wir halt die Anzahl der TMUs (und sparen vieeeeel Transis ein) bei unserer nächsten Gen, so wie ATi jetzt, und führen Spar-Filter ein, es interessiert eh keine Sau..."

puntarenas
2009-06-21, 13:16:08
mit bezogen auf gastkommentar
so ein quatsch,warum sollte nv HQ abschaffen?
haben dadurch überhaupt keine nachteile weil auch wirklich gar kein reviewer mit HQ benchen tut.
Nvidia könnte sich aber überlegen, das TEX:ALU-Verhältnis für kommende Hardware nach dem Beispiel von ATI zu verschieben.

Grestorn
2009-06-21, 13:21:33
Solange der HQ-Modi nur optimal im Treiber vorhanden ist und damit nicht gebencht wird kann sich nV über die positive Presse freuen ohne fps Einbüßen im Kauf nehmen zu müssen. Du erweckst andauernd den Eindruck als ob damit gebencht werden würde.

Wie schon oft geschrieben, es werden Treiberdefaults verglichen, bei denen ATI massiv im Vorteil ist.

Wenn ein Review die beste Optik vergleichen will, wird HQ mit AI low verglichen, wo ATI sogar noch mehr im Vorteil ist. Keiner vergleicht HQ gegen AI off.

Und die Krönung ist dann noch 8xAA zuzuschalten, bei einem in der Praxis überhaupt nicht sichtbarem optischen Vorteil, der gegen die AF Nachteile völlig absäuft und nur bei Standbildern in massiver Vergrößerung zu sehen ist, und dann zu behaupten nV kackt vollends ab.

Gast
2009-06-21, 13:21:52
Das ist richtig, aber beim AF kann man es zumindest objektiv relativ einfach feststellen wer wie gut oder schlecht filtert und das dann auch entsprechend anmerken oder möglichst identische Bedingungen herstellen.
Macht aber keiner.

Es ist nicht vergleichbar schön, korrekt. AF ist nicht vergleichbar schön, wird oft gar nicht mal erwähnt. MSAA ist nicht vergleichbar sinnvoll, wird gar nicht mal erwähnt.


so ein quatsch,warum sollte nv HQ abschaffen?
haben dadurch überhaupt keine nachteile weil auch wirklich gar kein reviewer mit HQ benchen tut.(ist eher von vorteil weil es ein netter bonus)
Nvidia muss wie grestorn angemerkt hat die Qualität von Q senken.
Im gleichem Atemzug würde HQ Nvidias Genick brechen, wenn die gesenkte Q Qualität auffällt, die Reviewer stattdessen wie damals HQ nehmen, aber die Karten bereits nicht mehr auf derart hohe Texturarbeit ausglegt sind.

Nvidia muss HQ abschaffen, TMUs einsparen, Q-Qualität senken.



schonmal benchmarks mit a.i.off gesehen oder woher nimmst du die gewissheit das dort die karten stark einbrechen?Da waren wir doch gerade noch.
Du hast 8% in den Raum gestellt, danach gesehen gibt es gar keinen Grund ohne AI-off in den Test zu marschieren.

Solange der HQ-Modi nur optimal im Treiber vorhanden ist und damit nicht gebencht wird kann sich nV über die positive Presse freuen ohne fps Einbüßen im Kauf nehmen zu müssen. Du erweckst andauernd den Eindruck als ob damit gebencht werden würde.
Welche postive Presse?
Momentan gibts positive Presse wenn der FPS Balken länger ist. AMD gewinnt ihn oft und seis bei 8xAA/16xLQAF/noAAA.

Grestorn
2009-06-21, 13:24:14
schonmal benchmarks mit a.i.off gesehen oder woher nimmst du die gewissheit das dort die karten stark einbrechen?Da die Spieloptimierungen dann nicht mehr greifen ist bei einigen Spielen der Einbruch sehr heftig, speziell mit CF. Und andere Spiele haben sogar Darstellungsfehler. Also kann man mit AI off nicht benchen. Sehr geschickt von ATI.

so ein quatsch,warum sollte nv HQ abschaffen?
haben dadurch überhaupt keine nachteile weil auch wirklich gar kein reviewer mit HQ benchen tut.(ist eher von vorteil weil es ein netter bonus)

Nicht HQ als Option abschaffen, sondern sie werden auch wieder Samplesparmaßnahmen einführen, die sich nicht oder bestenfalls nur zusammen mit allen anderen Optimierungen inkl. SLI abschalten lassen. Dann würden sie sich auf das selbe Niveau wie ATI begeben. Und Prügel beziehen, dass das ganze Netz wackelt.

reunion
2009-06-21, 13:26:12
TAA/AAA ist ein Segen und im Spielealltag nicht mehr wegzudenken. Wieso sollte man sich davor hüten, damit zu benchen, man sollte sich davor hüten in Diagrammen zu vergleichen, was nicht zu vergleichen ist.

Im Moment ist es doch so, dass Kartenreviews von zwei Balken dominiert werden, einmal 4xAA/16xAF, einmal 8xAA/16xAF. Der zweite Modus mag zwar qualitativ was das MSAA angeht vergleichbar sein, wenn man beim AF beide Augen zudrückt, aber tendenziell bevorzugt er ATI und gewährt den Radeons beeindruckend lange Balken. Das vermittelt den Eindruck, die Radeons seien bei besonders hohen Qualitätseinstellungen sehr schnell.

Das kann man aber aus den Benchmarks nicht ablesen, denn 8xAA/16x(LQ|HQ)AF ohne TAA/AAA bedeutet natürlich keine besonders tolle Bildqualität. Wenn ich bei 4xAA/16xAF noch Reserven habe, dann springe ich nicht auf 8xAA, sondern sehe zu dass ich erstmal Alphatests geglättet kriege. Habe ich dann noch Reserven, dann drehe ich das AA über Hybridmodi oder CSAA bis hin zu 8xQ (8xMSAA). Bei ATI hat man zwar weniger Auswahl und Zwischenschritte hin zur maximal möglichen Qualität, aber prinzipiell kommt hier auch erstmal AAA vor allem anderen.

Natürlich ist es möglich, dass das ständige Trommelfeuer mit 8xAA/16xAF/No-AAA mittlerweile Anwender geboren hat, die zu Hause tatsächlich vor einer derart unausgewogenen Flimmertapete sitzen, aber das macht den Modus nicht sinnvoller.

Der Vergleich hinkt aber auch an anderer Stelle, denn wer bei Nvidia 8xAA aktiviert, der wird den Anisotropen Filter kaum auf Sparflamme belassen, diese Krücke nehmen die Reviewer aber in Kauf, weil A.I. Standard mit Nvidia Q als vergleichbar gilt. Schau man sich die Wahlmöglichkeiten und die im Spielealltag sinnvollen möglichen Einstellungen beider Hersteller nochmal genau an und welche Bildqualität dabei für den Anwender herausspringt, dann wird schnell klar dass die Karten sich wesentlich mehr unterscheiden als rein über die stumpfe Framerate. Epic Fail in der Fachpresse, die regelmäßig einen anderen Eindruck vermittelt.

Du sprichst ein Problem an das es schon sehr lange gibt. Man kann nur vergleichen was auch vergleichbar ist, oder zumindest versuchen möglichst vergleichbare Bedingungen herzustellen. Bei unterschiedlichen IHVs mit unterschiedlichen Architekturen/Treiberphilosophieen wird das durch die immer komplexer werdenden Chips natürlich immer schwerer. Das ist sicherlich nicht toll und kann je nach Situation den einen oder anderen benachteiligen und führt auch zu solchen skurrilen Szenarien wie heute, dass hauptsächlich mit zwei Einstellungen verglichen wird die teils völlig an der Praxis vorbei gehen. Eine Lösung dafür habe ich allerdings auch nicht anzubieten.

Die User wollen einfache Vergleichsmöglichkeiten, die User wollen Balken sehen. Inzwischen wird zumindest schon etwas sensibler darauf geachtet was genau verglichen wird, man erinnere sich nur an alte 3dfx-Zeiten, als wirklich Kraut und Rüben verglichen wurden. Man kann als versierter User nur versuchen sich einen entsprechenden Überblick zu verschaffen fernab der Standardmodi und dementsprechend zu entscheiden. Jetzt einfach als Konsequenz daraus zu verlangen auch kaum vergleichbare Dinge gegeneinander zu stellen halte ich für den falschen Weg. Ich gebe dir also recht: Man sollte es natürlich benchen, aber man sollte auch klar zu erkennen geben das solche Werte dann nicht oder nur sehr eingeschränkt vergleichbar sind.

reunion
2009-06-21, 13:37:21
Wie schon oft geschrieben, es werden Treiberdefaults verglichen, bei denen ATI massiv im Vorteil ist.

Wenn ein Review die beste Optik vergleichen will, wird HQ mit AI low verglichen, wo ATI sogar noch mehr im Vorteil ist. Keiner vergleicht HQ gegen AI off.

Und die Krönung ist dann noch 8xAA zuzuschalten, bei einem in der Praxis überhaupt nicht sichtbarem optischen Vorteil, der gegen die AF Nachteile völlig absäuft und nur bei Standbildern in massiver Vergrößerung zu sehen ist, und dann zu behaupten nV kackt vollends ab.

Ich sage jetzt mal ganz plump es gab schon schlimmeres. Man erinnere sich nur an die NV4x/G7x Defaulteinstellungen, mit denen auch sehr lange verglichen wurde. Absolute Vergleichbarkeit wird man nur sehr schwer herstellen können. Bei der nächsten Generation kann es schon wieder anders aussehen. Damit will ich das nicht gut heißen, aber man sollte doch etwas die Relation im Auge behalten. Mit AI_off zu benchen kann aus bekannten Gründen auch nicht der Weisheit letzter Schluss sein.

So massiv wie du den Vorteil darstellst ist er bei Treiberdefault IMO nicht. Und das die NV-Karte ein Problem mit 8xAA haben ist nicht die Schuld von AMD oder den Reviewern. Als Konsequenz daraus darauf zu verzichten halte ich für die falschen Weg. Sowohl die Qualität als auch die zu erbringende Rechenleistung ist bei 8xMSAA sehr gut vergleichbar.

LovesuckZ
2009-06-21, 13:39:00
Und die Probleme, die sich aus A.I off ergeben, sind ebenfalls nicht die Schuld der Reviewer oder von nVidia. Also ist es doch auch sehr gut vergleichbar.

reunion
2009-06-21, 13:42:42
Und die Probleme, die sich aus A.I off ergeben, sind ebenfalls nicht die Schuld der Reviewer oder von nVidia. Also ist es doch auch sehr gut vergleichbar.

Wenn mit AI_off aber kein Crossfire mehr funktioniert, ich bei vielen Spiele kein AA mehr aktivieren kann, zum Teil Bildfehler habe, kurz alle spezifischen Optimierungen weg sind, dann ist das witzlos. Man sollte es anmerken, keine Frage. Aber ansonsten füht es wieder dazu das Kraut und Rüber verglichen werden.

puntarenas
2009-06-21, 13:43:11
Sowohl die Qualität als auch die zu erbringende Rechenleistung ist bei 8xMSAA sehr gut vergleichbar.
Das mag ja stimmen und den Modus abzudrucken ist ja nicht prinzipiell verkehrt. Allerdings wird dieser praxisferne (weil stumpfsinnige -> vgl. oben) Modus in aller Regel nicht als einer unter 10 Benchmarkdurchläufen mit unterschiedlich sinnvollen und sinnlosen Qualitätseinstellungen, sondern gleichberechtigt als einer von nur 2 betrachteten Modi präsentiert. Das erweckt einen völlig verfehlten Eindruck, während zugleich andere Aspekte wie die Wahlfreiheit und maximal erreichbare Bildqualität unter den Tisch fallen.

Grestorn
2009-06-21, 13:49:58
Mit AI_off zu benchen kann aus bekannten Gründen auch nicht der Weisheit letzter Schluss sein.

Doch kann es. Dadurch würde ATI genötigt, Qualitätsoptimierungen von den restlichen spieleabhängigen Optimierungen zu entkoppeln.

derguru
2009-06-21, 13:55:37
Ganau deswegen! Man bencht AI OFF gegen HQ nicht, und die TMUs auf NV-GPUs liegen brach. Deswegen kann sich NV denken "na wenn Leute eh nur Q/AI ON Qualität wollen, dann reduzieren wir halt die Anzahl der TMUs (und sparen vieeeeel Transis ein) bei unserer nächsten Gen, so wie ATi jetzt, und führen Spar-Filter ein, es interessiert eh keine Sau..."

ja super,das ist ja der schwachsinn überhaupt. wenn AI.off gegen HQ gebencht würde dann wärst du der erste der sagen würde HQ sieht aber besser aus und ist nicht vergleichbar.
Da die Spieloptimierungen dann nicht mehr greifen ist bei einigen Spielen der Einbruch sehr heftig, speziell mit CF. Und andere Spiele haben sogar Darstellungsfehler. Also kann man mit AI off nicht benchen. Sehr geschickt von ATI.


außer in alten schinken wie half-life2,doom3 gibt es keine,kaum probleme mit a.i.off(abgesehen vom cf).

http://www.abload.de/img/a.i.nvso.gif

LovesuckZ
2009-06-21, 13:55:38
Wenn mit AI_off aber kein Crossfire mehr funktioniert, ich bei vielen Spiele kein AA mehr aktivieren kann, zum Teil Bildfehler habe, kurz alle spezifischen Optimierungen weg sind, dann ist das witzlos. Man sollte es anmerken, keine Frage. Aber ansonsten füht es wieder dazu das Kraut und Rüber verglichen werden.

Und? Das ist nicht das Problem von nVidia oder das der Reviewer.

reunion
2009-06-21, 13:58:55
Doch kann es. Dadurch würde ATI genötigt, Qualitätsoptimierungen von den restlichen spieleabhängigen Optimierungen zu entkoppeln.

Vielleicht ja. Aber es sollte trotzdem auch noch anders gebencht werden um eine Vergleichsmöglichkeit zu haben.

Und? Das ist nicht das Problem von nVidia oder das der Reviewer.

Es ist sehr wohl ein Problem der Reviewer wenn die Vergleichbarkeit futsch ist. Aber das du das nicht sehen willst verwundert kaum.

Grestorn
2009-06-21, 14:00:38
ja super,das ist ja der schwachsinn überhaupt. wenn AI.off gegen HQ gebencht würde dann wärst du der erste der sagen würde HQ sieht aber besser aus und ist nicht vergleichbar.


außer in alten schinken wie half-life2,doom3 gibt es keine,kaum probleme mit a.i.off(abgesehen vom cf).

http://www.abload.de/img/a.i.nvso.gif

Anno? Titan Quest???? Ich bitte Dich. Wo ist Fallout3, Crysis, Dead Space, Lost Planet, Call of Juarez DX10, Gothic3, Witcher, Oblivion (mit HDR und AA) also ein paar Spiele die auch ein paar Texturen bewegen und filtern? Und für die auch treiberseitige Optimierungen notwendig sind?

Grestorn
2009-06-21, 14:01:38
Es ist sehr wohl ein Problem der Reviewer wenn die Vergleichbarkeit futsch ist. Aber das du das nicht sehen willst verwundert kaum.

Aber gerade die ist doch derzeit nicht gegeben, und das ist den Reviewern noch nicht mal eine Erwähnung wert.

Gast
2009-06-21, 14:02:57
Es ist sehr wohl ein Problem der Reviewer wenn die Vergleichbarkeit futsch ist. Aber das du das nicht sehen willst verwundert kaum.
Die Vergleichbarkeit ist bei 8xMSAA genauso futsch, weil eben die Pixelfüllrate gefünfelt wird.
So, nenn es eine Hardwareschwäche und einen Treiber der Alterntiven anbietet.

Ob AI-off eine Hardwareschwäche oder eine Treiberschwäche offenbart ist vollkommen gleichgültig.

LovesuckZ
2009-06-21, 14:03:05
Es ist sehr wohl ein Problem der Reviewer wenn die Vergleichbarkeit futsch ist. Aber das du das nicht sehen willst verwundert kaum.

Spielt keine Rolle, da es um die ansiotrope Filterung geht.
Wer "realitätsnahe Settings" haben will, bencht nicht mit 8xMSAA und Low-AF Qualität.
Aber das du das nicht sehen willst, verwundert kaum.

derguru
2009-06-21, 14:10:21
Anno? Titan Quest???? Ich bitte Dich. Wo ist Fallout3, Crysis, Dead Space, Lost Planet, Call of Juarez DX10, Gothic3, Witcher, Oblivion (mit HDR und AA) also ein paar Spiele die auch ein paar Texturen bewegen und filtern? Und für die auch treiberseitige Optimierungen notwendig sind?

paar von den spielen hab ich,ich mach das mal.mal schauen was da raus kommt.

reunion
2009-06-21, 14:22:50
Spielt keine Rolle, da es um die ansiotrope Filterung geht.
Wer "realitätsnahe Settings" haben will, bencht nicht mit 8xMSAA und Low-AF Qualität.
Aber das du das nicht sehen willst, verwundert kaum.

Es spielt für dich keine Rolle. "Realitätsnahe Settings" nützen nichts, wenn sie nicht vergleichbar sind. Wobei realitätsnah relativ ist. Aber ich habe keine Lust mehr mit dir zu diskutieren, das führt zu nichts.

LovesuckZ
2009-06-21, 14:33:30
Es spielt für dich keine Rolle. "Realitätsnahe Settings" nützen nichts, wenn sie nicht vergleichbar sind. Wobei realitätsnah relativ ist. Aber ich habe keine Lust mehr mit dir zu diskutieren, das führt zu nichts.

Nein, du findest es nicht fair, weil es gegen AMD geht.
Q gegen A.I off ist vergleichbar, da es eine ähnliche ansiotrope Filterung bringt. Das ist der einzige Fakt, der bei Test zu berücksichtigen ist. Ob A.I off für AMD User Sinn macht, spielt keine Rolle.

IVN
2009-06-21, 14:37:33
ja super,das ist ja der schwachsinn überhaupt. wenn AI.off gegen HQ gebencht würde dann wärst du der erste der sagen würde HQ sieht aber besser aus und ist nicht vergleichbar.


Wie ich schon gesagt habe, bei High-End-GraKas/GPUs sollte man die best-mögliche, vergleichbare Qualität benchen. Das ist eben, AI OFF vs HQ. Dazu sollte man auch noch anmerken, das ATis AF dem von NV unterlegen ist. Nur so wäre es fair.

Und ja, ich hab nichts dagegen, wenn MSAA 8x gebencht wird. Genau wie die Verkorkstheit (und die Performance bzw. Kompatibilität) des AI Off AF's ATI's Schuld/Problem ist, genau so ist die lahme Performance des 8x MSAA der Geforces NV's Schuld/Problem.

derguru
2009-06-21, 14:53:49
Anno? Titan Quest???? Ich bitte Dich. Wo ist Fallout3, Crysis, Dead Space, Lost Planet, Call of Juarez DX10, Gothic3, Witcher, Oblivion (mit HDR und AA) also ein paar Spiele die auch ein paar Texturen bewegen und filtern? Und für die auch treiberseitige Optimierungen notwendig sind?

also ich hab mal fall out 3 gemacht,oblivion wird sich in etwa gleich verhalten.crysis ist durch warhead gedeckt.
COJ hatte ich schon hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7367709&postcount=31

lost planet fällt aus weil unter a.i.off mit 1af schon gut performance verloren geht und das wiederrum nicht viel mit af zutun hat.http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7367751&postcount=35

fallout3 haut aber kräftig zu oder besser gesagt mit a.i.default sehr geringer verlust.

von links aus,
1AF // A.I.Default 16AF // A.I.OFF 16AF
50fps // 47fps // 42fps

http://www.abload.de/thumb/fallout3ng2009-06-2114c6jp.png (http://www.abload.de/image.php?img=fallout3ng2009-06-2114c6jp.png) http://www.abload.de/thumb/fallout3ng2009-06-2114g479.png (http://www.abload.de/image.php?img=fallout3ng2009-06-2114g479.png) http://www.abload.de/thumb/fallout3ng2009-06-2114r233.png (http://www.abload.de/image.php?img=fallout3ng2009-06-2114r233.png)

Grestorn
2009-06-21, 15:08:32
lost planet fällt aus weil unter a.i.off mit 1af schon gut performance verloren geht und das wiederrum nicht viel mit af zutun hat.http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7367751&postcount=35

Aber das ist doch genau der Punkt: Ohne AI fehlen Spielespezifische Optimierungen. Und das ist der Grund, warum sich keiner traut damit zu benchen.

reunion
2009-06-21, 15:20:13
Ich lass mir einen solchen Schwachsinn nicht ständig von einem derart verblendeten User wie dir unterjubeln. Deshalb - und jetzt endgültig - noch mal:

Nein, du findest es nicht fair, weil es gegen AMD geht.

Du sollst nicht immer von dir auf andere schließen.


Q gegen A.I off ist vergleichbar, da es eine ähnliche ansiotrope Filterung bringt.

Das ist falsch. Das habe ich hinten schon dargelegt.


Das ist der einzige Fakt, der bei Test zu berücksichtigen ist. Ob A.I off für AMD User Sinn macht, spielt keine Rolle.

Es spielt für dich keine Rolle, was niemanden wundert. Solange NV davon profitiert ist dir doch alles recht. Für alle andere offensichtlich schon wie man an den Reviews sieht. So und jetzt kannst du mit deiner Hand sprechen, ich werde nicht mehr antworten.

Grestorn
2009-06-21, 15:22:05
Das ist falsch. Das habe ich hinten schon dargelegt.

Es ist jedenfalls vergleichbarer als HQ gegen irgendwas anderes als AI off.

reunion
2009-06-21, 15:24:01
Es ist jedenfalls vergleichbarer als HQ gegen irgendwas anderes als AI off.

Nur weil es noch schlechtere Vergleiche gibt macht es das auch nicht besser.

Grestorn
2009-06-21, 15:29:58
Nur weil es noch schlechtere Vergleiche gibt macht es das auch nicht besser.

eben. Q gegen AI off ist der am wenigsten schlechte Vergleich. Zumal sich Q und HQ von der Performance und auch von der Optik kaum noch unterscheiden, so lang man die anderen Optionen aus lässt.

y33H@
2009-06-21, 15:35:55
Punkt ist, dass das Bullshit ist. Aber das habe ich weiter hinten schon gesagt, wurde aber wohlwollend ignoriert.Nö, NV-default und AMDs AI-off sind optisch am dichtesten beieinander - mit leichtem Vorteil für NV. Daran gibt es nichts zu rütteln. Das an AI noch der ganze andere Krempel dranhängt, ist für den reinen BQ-Vergleich ja wohl egal.Auch das ist prinzipbedingt Bullshit. SSAA kostet auf jeder Karte gleich viel. Wenn ich doppelt so viele Samples nehme verdoppelt das die Rechenlast, was die FPS halbiert. Bei den Transparentverfahren kann es je nach Szene natürlich zu Unterschiede kommen, aber das lässt sich sicher nicht pauschalisieren.Das hatten wir schon mal. Praxis schlägt Theorie. Ich spreche nicht von Fullscreen-SSAA, sondern von SSAA für die Alpha-Tests. Und da gibts halt nur wenige Beispiele aufseiten AMDs und da siehts eben düster aus.

LovesuckZ
2009-06-21, 15:36:11
Das ist falsch. Das habe ich hinten schon dargelegt.

So, du bist doch immer der erste, der hier mit 8xMSAA ist fair und vergleichb arkommt. Nein, du sagst es nur, weil AMD bevorteiligt wird. Deine Aussagen sind daher komplett überflüssig.
Du brauchst mir nicht (mehr) antworten - deine Meinung ist nämlich sozusagen genauso viel Wert wie die von Nagus und Tarkin: Nichts. Wer meint, A.I off und Q wären nicht vergleichbar, aber es bei 8xMSAA sagt, der zeigt, wie wenig ihn "Vergleichbarkeit" interessiert.

derguru
2009-06-21, 15:39:21
Aber das ist doch genau der Punkt: Ohne AI fehlen Spielespezifische Optimierungen. Und das ist der Grund, warum sich keiner traut damit zu benchen.
klar aber das hat mit trauen nichts zutun sondern es verfälscht die werte zustark und das ist auch verständlich das so niemand bencht.es gibt 2 alternativen
1.nur spiele zu benchen die keine anderen optimierungen unter a.i.off enthalten bloß ist das mit mehr aufwand verbunden oder,
2.ati ändert die treiber:rolleyes:

aber am besten wäre eine höhere instanz sagt so und so wird gefiltert und jeder hat sich dran zuhalten sonst gibts popoklatsche.;D

@Lovesucks
ich meine ich weiß warum du so auf 8msaa rumreitest aber da gibt es nicht mal ansatzweise was zu meckern.frag dich lieber warum nv karten da so verluste erleiden oder ati es irgendwie gebacken kriegt die verluste so gering zu halten.

reunion
2009-06-21, 15:43:11
eben. Q gegen AI off ist der am wenigsten schlechte Vergleich. Zumal sich Q und HQ von der Performance und auch von der Optik kaum noch unterscheiden, so lang man die anderen Optionen aus lässt.

Man muss ja nicht die anderen Optionen aus lassen, ganz einfach. Default ist ohnehin mit Tri-Ops. Ich habe es schon geschrieben: AI_off ist tri, aber spart noch einige Samples. Q plus Tri-Ops ist bri, aber spart wohl kaum Samples. Am ehesten Vergleichbar wäre wohl AI_low vs. Q plus Sample-Optimierung/Tri-Ops. Alles andere ist Äpfel/Birne und vorallem mit AI_off auch nicht vergleichbar.

Grestorn
2009-06-21, 15:48:01
Man muss ja nicht die anderen Optionen aus lassen, ganz einfach. Default ist ohnehin mit Tri-Ops. Ich habe es schon geschrieben: AI_off ist tri, aber spart noch einige Samples. Q plus Tri-Ops ist bri, aber spart wohl kaum Samples. Am ehesten Vergleichbar wäre wohl AI_low vs. Q plus Sample-Optimierung/Tri-Ops. Alles andere ist Äpfel/Birne und vorallem mit AI_off auch nicht vergleichbar.

Treiberdefaults sind aber Q mit allen Opts aus.

Wenn man AF übers Control Panel aktiviert, wird auch LOD Clamp eingeschaltet, was aber keinen Einfluss auf die Performance hat und bei vernünftigen Spielen (die kein negatives LOD verwenden) auch keinen Einfluss auf die Optik hat.

Ich kann mich nicht erinnern, dass jemals AI low gegen Q + TriOpt und SampleOpt gebencht worden wäre. Ich würde das aber durchaus für akzeptabel halten.

Korrektur: Gerade nochmal ausprobiert, wenn man im Panel "Restore" drückt, wird auch TriOpt eingeschaltet. Ich bin mir aber einigermaßen sicher, dass das bei einer frischen Treiberinstallation nicht so ist. Ist leider nicht immer konsequent wie sich die Treiber da verhalten.

Gast
2009-06-21, 15:52:45
ich meine ich weiß warum du so auf 8msaa rumreitest aber da gibt es nicht mal ansatzweise was zu meckern.frag dich lieber warum nv karten da so verluste leiden oder ati es irgendwie gebacken kriegt die verluste so gering zu halten.
Frag du dich im Gegenzug warum AMD Karten mit AI-off teilweise so arge Verluste hinnehmen müssen, während Nvidia Karten zum geringeren Preis einen weitaus schöneren HQ Modus bieten.


Es wurde langsam oft genug geschrieben:
Nvidia hat ein Hardwareproblem bei 8xMSAA
AMD hat ein Hardware/Softwareproblem bei AI-off

Jetzt nochmal ganz in Ruhe, warum darf man Nvidia benachteiligen, AMD jedoch nicht?

reunion
2009-06-21, 15:57:49
Ich kann mich nicht erinnern, dass jemals AI low gegen Q + TriOpt und SampleOpt gebencht worden wäre. Ich würde das aber durchaus für akzeptabel halten.

Ich auch nicht. Aber das wäre IMO die am ehesten vergleichbare Einstellung.


Korrektur: Gerade nochmal ausprobiert, wenn man im Panel "Restore" drückt, wird auch TriOpt eingeschaltet. Ich bin mir aber einigermaßen sicher, dass das bei einer frischen Treiberinstallation nicht so ist. Ist leider nicht immer konsequent wie sich die Treiber da verhalten.

Ich kenne es nur so das die Tri-Ops standardmäßig aktiv sind. Aber ich habe das auch nicht genauer analysiert, mag sein das es hier bei manchen Treibern Unterschiede gibt.

Dr. Cox
2009-06-21, 16:03:09
Jetzt nochmal ganz in Ruhe, warum darf man Nvidia benachteiligen, AMD jedoch nicht?

Das ist eine berechtigte und zugleich sehr interessante Frage :up:


Das an AI noch der ganze andere Krempel dranhängt, ist für den reinen BQ-Vergleich ja wohl egal.


Vielleicht könnte man, wenn man in Zukunft immer mit AI off testen würde, ATI dazu zwingen endlich die AF-Optimierungen von den "normalen" Optimierungen zu trennen, sodass wir im Treiber endlich selber entscheiden könnten was wir für eine AF-Qualität wollen ;)

y33H@
2009-06-21, 16:15:03
Wenn du ein komplettes Review nur mit AI-off machst, AMD redet nie wieder mit dir oder dich töten die Fanboys.

Schrotti
2009-06-21, 16:19:25
Wäre der Einbruch so drastisch?

reunion
2009-06-21, 16:21:11
Nö, NV-default und AMDs AI-off sind optisch am dichtesten beieinander - mit leichtem Vorteil für NV. Daran gibt es nichts zu rütteln.

Daran gibt es einiges zu rüttel, auch wenn du es noch zehnmal wiederholst, das habe ich auch schon dargelegt.

reunion
2009-06-21, 16:25:03
Frag du dich im Gegenzug warum AMD Karten mit AI-off teilweise so arge Verluste hinnehmen müssen, während Nvidia Karten zum geringeren Preis einen weitaus schöneren HQ Modus bieten.


Es wurde langsam oft genug geschrieben:
Nvidia hat ein Hardwareproblem bei 8xMSAA
AMD hat ein Hardware/Softwareproblem bei AI-off

Jetzt nochmal ganz in Ruhe, warum darf man Nvidia benachteiligen, AMD jedoch nicht?

Weil es ein Unterschied ist ob ich zwei beinahe identische MSAA-Modi vergleiche oder bei einem alle Profile ausschalte. Nicht alles was hinkt ist ein Vergleich.

y33H@
2009-06-21, 16:30:14
@ reunion

Du hast die Crysis- und Witcher-Videos gesehen? Da ist AI-off schlechter als NV-Default. Gleiches gilt aktuell für CoJ BiB oder auch Fallout 3. Bei Titeln wie CoD4 liegen beide gleichauf mit leichtem Vorteil für NV. AI-off ist im Schnitt am nächsten an NV-default dran.

@ Schrotti

Manche Spiele verlieren 20-30%, mit CF freilich viel mehr.

derguru
2009-06-21, 16:30:22
Frag du dich im Gegenzug warum AMD Karten mit AI-off teilweise so arge Verluste hinnehmen müssen, während Nvidia Karten zum geringeren Preis einen weitaus schöneren HQ Modus bieten.


Es wurde langsam oft genug geschrieben:
Nvidia hat ein Hardwareproblem bei 8xMSAA
AMD hat ein Hardware/Softwareproblem bei AI-off

Jetzt nochmal ganz in Ruhe, warum darf man Nvidia benachteiligen, AMD jedoch nicht?

brauch ich mich nicht fragen,ich weiß es.aachso hardwareproblem:rolleyes:
frag mal nv ob die sich benachteiligt fühlen:wink:
. Ich spreche nicht von Fullscreen-SSAA, sondern von SSAA für die Alpha-Tests. Und da gibts halt nur wenige Beispiele aufseiten AMDs und da siehts eben düster aus.
ja in deinen träumen,nach deiner theorie müßte bei einer ati es zum totaleinbruch kommen weil die füllrate nicht reicht,wieso komme ich mit einer popligen 4770 bei 4xssaa in COJ fast auf die werte einer 260gtx².klär mich mal auf.(propotional ist der verlust von msaa zu ssaa in COJ bei beiden karten fast identisch) wie geht das,VOODOO?
mit bissel oc und rate mal was eine 260gtx 1792mb hat,1fps mehr.
http://www.abload.de/thumb/coj_dx102009-06-2017-0p5jw.png (http://www.abload.de/image.php?img=coj_dx102009-06-2017-0p5jw.png)
Wäre der Einbruch so drastisch?
kommt auf das spiel an,bei two worlds hab ich bis zu 45% verlust bei a.i.off und dann bei anderen wiederum kaum bis gar kein unterschied.

a.i. off 16AF 48fps // a.i default 16AF52fps
http://www.abload.de/thumb/gothic32009-06-2116-18z3a2.png (http://www.abload.de/image.php?img=gothic32009-06-2116-18z3a2.png) http://www.abload.de/thumb/gothic32009-06-2116-20x6p2.png (http://www.abload.de/image.php?img=gothic32009-06-2116-20x6p2.png)

y33H@
2009-06-21, 16:43:14
@ derguru

Ich sagte TSSAA - kannst du nicht lesen? Woher nimmst du die GTX260-216-Werte? Btw ist der integrierte Flyby Müll ... nur mal so am Rande. Und dass die Chrome-Engine des Radeons liegt, weißt du auch?

derguru
2009-06-21, 16:47:24
@ derguru

Ich sagte TSSAA - kannst du nicht lesen? Woher nimmst du die GTX260-216-Werte? Btw ist der integrierte Flyby Müll ... nur mal so am Rande. Und dass die Chrome-Engine des Radeons liegt, weißt du auch?

ja und,das funzt auch mit einer ati karte und ob die chrome engine radeons liegen oder nicht tut nichts zur sache was den verlust angeht.

die werte nehme ich von mir,rate mal hab ich mal gebencht gehabt.:|

@Schlammsau

was sind das für komische werte bei hl2?
ich habe ca. 20% verlust gehabt.

Schlammsau
2009-06-21, 16:48:18
HL² Lost Coast
Höchste Qalität - 1680x1050 - 16xAF

A.I. Standard
http://www.abload.de/img/lostcoastaistandard5y4v.png

A.I. Off
http://www.abload.de/img/loastcoastai.offtl6r.png

y33H@
2009-06-21, 16:53:05
Vergiss diese dämliche Timedemo ...

Schlammsau
2009-06-21, 17:01:10
^^ CPU Limit sorry.....

Hier mit GPU Limit:

HL² Lost Coast
Höchste Qualität - 1680x1050 - 24xEDAA - 16xAF

A.I. Standard
http://www.abload.de/img/lostcoastaistandardub4l.png

A.I. Off
http://www.abload.de/img/loastcoastai.offdl5w.png

A.I Off sieht nur dummerweise dann so aus:
http://www.abload.de/thumb/hl22009-06-2117-05-06-k0ei.png (http://www.abload.de/image.php?img=hl22009-06-2117-05-06-k0ei.png)

IVN
2009-06-21, 17:06:30
^^ CPU Limit sorry.....

Hier mit GPU Limit:

HL² Lost Coast
Höchste Qualität - 1680x1050 - 24xEDAA - 16xAF

A.I. Standard
http://www.abload.de/img/lostcoastaistandardub4l.png

A.I. Off
http://www.abload.de/img/loastcoastai.offdl5w.png
Sehr interessant. Mach mal noch einen ohne AF. Pls?

P.S. Damit wir den Unterschied von ohne AF zu AIOFF AF erfahren.

derguru
2009-06-21, 17:08:35
das teils sich ca.,bleiben noch 10% übrig.bevor noch einer kommt und sagt boah soviel sparen die durch af ein:wink:

IVN
2009-06-21, 17:10:03
das teils sich ca.,bleiben noch 10% übrig.bevor noch einer kommt und sagt boah soviel sparen die durch af ein:wink:
Was?

derguru
2009-06-21, 17:13:14
so wie du sagst geht das nicht,
schlammsau muss mit 1af bei a.i.off und a.i.default benchen um die differenz rauszukriegen weil ca. 10% an spiele optimierung,bugfixes ect. drauf gehen.
Sehr interessant. Mach mal noch einen ohne AF. Pls?

P.S. Damit wir den Unterschied von ohne AF zu AIOFF AF erfahren.
kann nicht hellsehen.

IVN
2009-06-21, 17:20:41
so wie du sagst geht das nicht,
schlammsau muss mit 1af bei a.i.off und a.i.default benchen um die differenz rauszukriegen weil ca. 10% an spiele optimierung,bugfixes ect. drauf gehen.
Mhhh, ja, ich sagte auch "ohne AF". Womit beide, AIon und off, gemeint waren. ;)

Schlammsau
2009-06-21, 17:21:40
Hab mit bilinearer Filterung getestet.

HL² Lost Coast
Höchste Qualität - 1680x1050 - 24xEDAA - Bilinear

A.I. Standard = 139,1fps
http://www.abload.de/thumb/aistandardngdy.png (http://www.abload.de/image.php?img=aistandardngdy.png)

A.I. Off = 114,33fps
http://www.abload.de/thumb/aioffrco8.png (http://www.abload.de/image.php?img=aioffrco8.png)

Was sagt uns das jetzt?

IVN
2009-06-21, 17:25:12
Hab mit bilinearer Filterung getestet getestet.

HL² Lost Coast
Höchste Qualität - 1680x1050 - 24xEDAA - Bilinear

A.I. Standard = 139,1fps
http://www.abload.de/thumb/aistandardngdy.png (http://www.abload.de/image.php?img=aistandardngdy.png)

A.I. Off = 114,33fps
http://www.abload.de/thumb/aioffrco8.png (http://www.abload.de/image.php?img=aioffrco8.png)

Was sagt uns das jetzt?
Und wieso Bilinear? Wir wollen den Einbruch von Tri auf AF wissen - und zwar jeweils AIon und AIoff.

derguru
2009-06-21, 17:25:18
Sehr interessant. Mach mal noch einen ohne AF. Pls?

P.S. Damit wir den Unterschied von ohne AF zu AIOFF AF erfahren.
kann nicht hellsehen.ist aber auch egal jetzt.

Hab mit bilinearer Filterung getestet getestet.

HL² Lost Coast
Höchste Qualität - 1680x1050 - 24xEDAA - Bilinear

A.I. Standard = 139,1fps
http://www.abload.de/thumb/aistandardngdy.png (http://www.abload.de/image.php?img=aistandardngdy.png)

A.I. Off = 114,33fps
http://www.abload.de/thumb/aioffrco8.png (http://www.abload.de/image.php?img=aioffrco8.png)

Was sagt uns das jetzt?

rate mal mit rosenthal:wink:
ach den kennt ihr ja nit.:biggrin:

Und wieso Bilinear? Wir wollen den Einbruch von Tri auf AF wissen - und zwar jeweils AIon und AIoff.

ändern wird sich nichts.

Schlammsau
2009-06-21, 17:27:59
Dann teste ich auch mal mit 1xAF.....

Edit: 1xAF gibbet nich, geht nur 2x AF oder Trilinear. Also was soll ich machen?
Aber es wird sich nicht viel ändern!

Der bilineare Test zeigt, dass die 90% der Optimierungen nicht dem AF zugute kommen.
Das heisst das nur etwa 10% des Leistungsgwinns bei aktiviertem A.I. dem "optimierten" AF zu verdanken sind!

Die restlichen 90%, werden durch unsichtbare Optimierungen gewonnen!

y33H@
2009-06-21, 17:33:44
Tri ...

Schlammsau
2009-06-21, 17:35:53
Tri ...

:confused:

derguru
2009-06-21, 17:39:30
hm 90%?bei mir waren es in etwa 50/50,hab aber eine viel kleinere karte.
tri gleich Trilinear,voodoo.:eek:

Schlammsau
2009-06-21, 17:53:03
Bei 16xAF ist der Unterschied zwischen A.I. Standard und A.I Off rund 21%.
Bei bilinearer Filterung beträgt der Unterschied rund 18%.

Das heisst?

Banshee18
2009-06-21, 18:02:16
Wenn du ein komplettes Review nur mit AI-off machst, AMD redet nie wieder mit dir
ATi bietet diese Option im Treiber an, wieso sollte es also nicht legitim sein, sie zu nutzen? Paradox.
Es ist mir aber ein Rätsel, warum man sinnvolle Optimierungen überhaupt abschalten kann. Warum sollte man das wollen?
oder dich töten die Fanboys.
Wayne?

Vielen Dank an derguru, der sich wenigstens ein wenig Mühe gibt, einige Sachverhalte aufzudecken. Jetzt noch ein wenig neutraler (oh, ATi bricht bei Lost Planet zu stark ein, das lassen wir weg :uhammer:), und es ist perfekt.

reunion
2009-06-21, 18:07:14
(oh, ATi bricht bei Lost Planet zu stark ein, das lassen wir weg :uhammer:)

Es bricht auch ohne AF stark weg, ergo liegt es nicht an der Filterung. Im übrigen wäre das dieselbe Mentalität wie bei 8xMSAA.

Schlammsau
2009-06-21, 18:09:41
Trilinear:

A.I. Standard = 138,89fps
http://www.abload.de/thumb/standardoooo.png (http://www.abload.de/image.php?img=standardoooo.png)

A.I. Off = 115,45fps
http://www.abload.de/thumb/offhqih.png (http://www.abload.de/image.php?img=offhqih.png)

Banshee18
2009-06-21, 18:11:27
Es bricht ohne AF stark weg, ergo liegt es nicht an der Filterung.
Ja, und?
Im übrigen wäre das dieselbe Mentalität wie bei 8xMSAA.
Was? Ich finde einen 8xAA-Vergleich zwischen beiden IHVs (bzw. 8xQ bei nV) vollkommen legitim.

Schlammsau
2009-06-21, 18:13:00
Zusammenfassend:

Bei 16xAF beträgt der Unterschied zwischen A.I. Standard und A.I Off rund 21%.
Bei trilinearer Filterung beträgt der Unterschied rund 17%
Bei bilinearer Filterung beträgt der Unterschied rund 18%.

reunion
2009-06-21, 18:16:45
Ja, und?

Die Vergleichbarkeit geht flöten. Wenn man AI_off bencht sollte man Spiele nehmen wo es wirklich an der Filterung liegt, denn das ist doch die Intention des ganzen, nicht wahr?


Was? Ich finde einen 8xAA-Vergleich zwischen beiden IHVs (bzw. 8xQ bei nV) vollkommen legitim.

Das war auch nicht auf dich bezogen.

derguru
2009-06-21, 18:43:29
Vielen Dank an derguru, der sich wenigstens ein wenig Mühe gibt, einige Sachverhalte aufzudecken. Jetzt noch ein wenig neutraler (oh, ATi bricht bei Lost Planet zu stark ein, das lassen wir weg :uhammer:), und es ist perfekt.
das mit lost planet hab ich nur weggelassen gehabt wegen dem was reunion schon sagte,aber sogar das hatte ich gemacht gehabt.ganz am anfang.
1AF (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7367751&postcount=35)16AF (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7367709&postcount=31)
wenn ich nicht objetive wäre hätte ich gleich two worlds weggelassen das mit 46% eingebrochen ist.:rolleyes:
aber ich hab jetzt half life2 auch gebencht weil ich probs mit steam hatte gings nicht früher wegen irgendeiner fehlermeldung(nach steam update funzt es) und ehrlich gesagt fall ich gleich vom stuhl bei den werten.kommt gleich.

habs mehr mal gebencht da ich das irgendwie nicht glauben konnte.
http://www.abload.de/img/ai.halfilifelogf.gif

y33H@
2009-06-21, 18:59:34
Es ist mir aber ein Rätsel, warum man sinnvolle Optimierungen überhaupt abschalten kann. Warum sollte man das wollen?Weil AMD nur so konkurrenzfähig bleibt mit AF.Wayne?Lass mal CB oder PCGH ein Review mit HQ und AI-off machen ... die verschwinden von der Bildfläche - zumindest wenn sie das dauerhaft machen.

Banshee18
2009-06-21, 19:07:43
Weil AMD nur so konkurrenzfähig bleibt mit AF.
Ich könnte es nachvollziehen, wenn ATi A.I. off komplett streicht, aber den aktuellen Weg verstehe ich nicht.

Lass mal CB oder PCGH ein Review mit HQ und AI-off machen ... die verschwinden von der Bildfläche - zumindest wenn sie das dauerhaft machen.
Ich habe die Hoffnung, dass andere Magazine mitziehen würden. Es wäre außerdem ein Witz, wenn ein IHV so viel Macht hätte, ein Magazin von der Bildfläche verschwinden zu lassen.

Wenn ihr schon mit A.I. on bencht, warum passt ihr dann nicht die BQ von nV an? Auch bei nV kann man die BQ weiter senken.

y33H@
2009-06-21, 19:11:04
Die Hoffnung habe ich nicht. Es gibt zu viele (große) Seiten, die sogar AI-def gegen HQ stellen.

Schlammsau
2009-06-21, 19:12:54
Die Hoffnung habe ich nicht. Es gibt zu viele (große) Seiten, die sogar AI-def gegen HQ stellen.

Alle von ATi gekauft? :smile:

Gast
2009-06-21, 19:13:45
Zumindest HQ wurde vor G80 Zeiten bei vielen Seiten und bei PCGH (bis?) vor einem Jahr durchgängig getestet.

y33H@
2009-06-21, 19:14:45
@ Schlammsau

Wo sollen die die Kohle hernehmen? ;D Ist wohl eher so, dass viele warum auch immer die BQ schei0egal ist - Balken FTW! :eek:

Gast
2009-06-21, 19:15:10
Wenn die Review Seiten dazu übergehen AI Off zu benchen, was bei CF ja sowiso nicht möglich ist, kanns auch passieren das ATI die option AI off einfach aus dem Treiber nimmt, ich kenn sowiso keinen der ne ATI hat und das beim Zocken auf OFF stellt.

Gast
2009-06-21, 19:15:59
Alle von ATi gekauft? :smile:
Auf die Idee müsste man kommen, so wie getestet wird.

Aber das Ergebniss ist wohl eher das, das man sich der Macht AMDs beugt.
Ziemlich traurig, das hier nicht der Markt oder die Magazine die Macht haben. Wenn MS sich erbarmt nennt sich die Lösung D3D12: eine einheitliche Filterqualität.

_DrillSarge]I[
2009-06-21, 19:17:58
ich glaube, viele der diskutanten hier haben schon ewig keine ati mehr gehabt bzw. gesehen. es gibt in der überwältigenden mehrheit der games keinerlei unterschied zwischen off und low (nur AF!). :rolleyes:
warum sollte man nicht q vs. low vergleichen?

Jake Dunn
2009-06-21, 19:19:04
Es gibt zu viele (große) Seiten, die sogar AI-def gegen HQ stellen.

Hab ihr bei PCHG doch auch bis vor kurzem gemacht ^^



rate mal mit rosenthal:wink:
ach den kennt ihr ja nit.:biggrin:


Ich schon :)

derguru
2009-06-21, 19:19:19
I[;7372117']ich glaube, viele der diskutanten hier haben schon ewig keine ati mehr gehabt bzw. gesehen. es gibt in der überwältigenden mehrheit der games keinerlei unterschied zwischen off und low (nur AF!). :rolleyes:
warum sollte man nicht q vs. low vergleichen?

dito,abgesehen von spezialfällen wie z.b.HL2.

das einzige was mich an der sache skeptisch macht ist,warum zur hölle macht nv kein theater deswegen.sonst wird doch auch bei jedem mist ans bein gepinkelt.

Ich schon :)
;D:up:

Banshee18
2009-06-21, 19:20:22
Das war auch nicht auf dich bezogen.
Auch lovesucks fände den 8xAA Vergleich legitim. Ihn stört nur, dass nV mit 8xAA gebencht wird, obwohl die Karten damit stärker einbrechen, aber niemand mit A.I. off bencht, weil die Karten stark einbrechen. Das finde ich auch nicht gerecht.
Alle von ATi gekauft? :smile:
:uclap:

Gast
2009-06-21, 19:20:22
I[;7372117'
warum sollte man nicht q vs. low vergleichen?
Warum sollte man überhaupt AF Vergleiche anstellen?

Jake Dunn
2009-06-21, 19:22:32
Auch lovesucks fände den 8xAA Vergleich legitim. Ihn stört nur, dass nV mit 8xAA gebencht wird, obwohl die Karten damit stärker einbrechen, aber niemand mit A.I. off bencht, weil die Karten stark einbrechen. Das finde ich auch nicht gerecht.


Das sind komplett unterschiedliche paar Schuhe ;)

Gast
2009-06-21, 19:22:49
das einzige was mich an der sache skeptisch macht ist,warum zur hölle macht nv kein theater deswegen.sonst wird doch auch bei jedem mist ans bein gepinkelt.
Einfache Erklärung:
Angst wegen der pre G80 Ära? Nö, das ist vorbei.
Offenhalten neuer Richtung? Sehr wahrscheinlich. Würde mich gar nicht wundern, wenn mit GT300 das ALU:TEX Verhältnis vollkommen verändert wird.

Gast
2009-06-21, 19:24:20
Das sind komplett unterschiedliche paar Schuhe ;)
Nö:

...
Nvidia hat ein Hardwareproblem bei 8xMSAA
AMD hat ein Hardware/Softwareproblem bei AI-off

Jetzt nochmal ganz in Ruhe, warum darf man Nvidia benachteiligen, AMD jedoch nicht?

y33H@
2009-06-21, 19:25:56
Mit RV870 und GT300 muss die BQ neu unter die Lupe genommen werden. Bleibt alles wie bisher und AMD kickt AI nicht [wovon ich ausgehe], dann sollte man AI-def gegen Q mit allen Optis und ohne Clamp benchen.

LovesuckZ
2009-06-21, 19:29:22
Man sollte es auch heute benchen. Ich verstehe hier auch nicht, wo das Problem liegt. Niemand sagt, dass ausschließlich A.I Off verwendet werden soll - genauso wenig wie 16xCSAA. Aber das niemand mal auf die Idee weiter zu denken als immer nur nach Schema F, ist das bedauernswerte.

IVN
2009-06-21, 19:31:33
AIon:

138,89/122,87=13%

AIoff:

115,45/97,32=18,63%

y33H@
2009-06-21, 19:32:59
@ LovesuckZ

Was würde ein Review mit HQ und AI-off aussagen? "NV's HW kostet kaum etwas und ist AMDs AI-off fast durchgehend in Sachen BQ überlegen. AI-off sieht zwar teils klar besser aus als AI-def, aufgrund der Kopplung geht es aber teils mit drastischen Leistungseinbußen und Bildfehlern und Dingen wie nicht nutzbarem AA einher. Fazit: HQ ist praxistauglich und generell sehr empfehlenswert, BQ-Fetischisten sehen bei AMD in die Röhre und zugleich auch noch traurig auf den geschrumpften Fps-Balken.".

Banshee18
2009-06-21, 19:34:20
Bleibt alles wie bisher und AMD kickt AI nicht [wovon ich ausgehe], dann sollte man AI-def gegen Q mit allen Optis und ohne Clamp benchen.
Warum macht ihr das nicht jetzt schon? Hab ich schon mehrmals gefragt, und du ignorierst es immer.

y33H@
2009-06-21, 19:37:09
Weil du das erst in allen Spielen (die gebencht werden) verifizieren musst - und das kostet schei0 viel Zeit. Und wenn es verifiziert ist, musst du dem Leser noch erklären, warum man nun so bencht. Und du darfst dir wieder die schei0 Fanboys und "ich seh kein Unterschied"-Blindfische anhören ... das macht kein Spaß. Zudem bin ich ja nicht alleine und auch nicht die letzte Instanz ...

IVN
2009-06-21, 19:37:20
dito,abgesehen von spezialfällen wie z.b.HL2.

das einzige was mich an der sache skeptisch macht ist,warum zur hölle macht nv kein theater deswegen.sonst wird doch auch bei jedem mist ans bein gepinkelt.
Weil man die eigene, bessere Filterquali nicht in Form eines Balkens darstellen kann.

_DrillSarge]I[
2009-06-21, 19:40:21
Weil man die eigene, bessere Filterquali nicht in Form eines Balkens darstellen kann.
mit so einer begründung könnte man auch bei beiden IHVs alle optimierung voll aufdrehen und dann benchen. :ugly:
reine diagramme ohne erläuternden text sind immer null wert.

y33H@
2009-06-21, 19:42:28
I[]reine diagramme ohne erläuternden text sind immer null wert.Für DAUs ideal. Längerer Balken = super.

Am besten noch mit so einer abgefuckten Achsenbeschriftung, so dass 7,3 Fps einen doppelt so langen Balken bekommen wie 6,1 Fps. Und das ganze prozentual, damit keiner checkt, dass es bei beiden IHVs ruckelt wie blöde ;D

IVN
2009-06-21, 19:42:52
I[;7372175']mit so einer begründung könnte man auch bei beiden IHVs alle optimierung voll aufdrehen und dann benchen. :ugly:
reine diagramme ohne erläuternden text sind immer null wert.
Nahhh, du weißt wie das gemeint ist.

reunion
2009-06-21, 19:45:19
Auch lovesucks fände den 8xAA Vergleich legitim. Ihn stört nur, dass nV mit 8xAA gebencht wird, obwohl die Karten damit stärker einbrechen, aber niemand mit A.I. off bencht, weil die Karten stark einbrechen. Das finde ich auch nicht gerecht.


Du betrachtest nur die Wirkung, ignorierst aber die Ursache. Es ist ein Unterschied ob ich zwei praktisch identische MSAA-Modi vergleiche oder bei einem alle Profile ausschalte.

IVN
2009-06-21, 19:48:38
Du betrachtest nur die Wirkung, siehst aber nicht die Ursache. Es ist ein Unterschied ist ob ich zwei praktisch identische MSAA-Modi vergleiche oder bei einem alle Profile ausschalte.
Na wie war das noch mal? "Wichtig ist was hinten rauskommt."
Und zwar nicht nur auf die Leistung bezogen...

y33H@
2009-06-21, 19:49:40
Da kannste aber wieder ankommen und sagen, Pech gehabt AMD. Wenn ihr meint BQ mit Optis zu koppeln - dismissed, BQ FTW.

reunion
2009-06-21, 19:51:07
Na wie war das noch mal? "Wichtig ist was hinten rauskommt."
Und zwar nicht nur auf die Leistung bezogen...

Richtig, und was bei AI_off rauskommt sind Bildfehler, fehlendes AA, fehlendes Crossfire, etc.

derguru
2009-06-21, 19:51:30
AIon:

138,89/122,87=13%

AIoff:

115,45/97,32=18,63%
was ist das?Knowing?
Weil man die eigene, bessere Filterquali nicht in Form eines Balkens darstellen kann.
muss man auch nicht.

IVN
2009-06-21, 19:53:39
Richtig, und was bei AI_off rauskommt sind Bildfehler, fehlendes AA, fehlendes Crossfire, etc.
Aber der Load ist ähnlich...

Edit: Und auserdem ist es AMD's/ATi's Problem. Sollen sie doch mit dem Cheaten aufhören...
was ist das?

So viel gewinnt man, wenn man das AF ausschaltet...


muss man auch nicht.


Klar muss man das. Wie sonst soll man einem DAU klarmachen, das BQ gut für ihn ist, bzw. das mehr BQ=steigender Nutzen ist?

Gast
2009-06-21, 20:04:43
I[;7372117']
warum sollte man nicht q vs. low vergleichen?

Weil NVs default noch immer schöner als ATIs AI-off ist?

Gast
2009-06-21, 20:14:47
Richtig, und was bei AI_off rauskommt sind Bildfehler, fehlendes AA, fehlendes Crossfire, etc.


Wo gibt es bei AI_off Bildfehler? Bislang ist nur bekannt, daß bei AI_default manchmal ganze Effekte fehlen.

Schlammsau
2009-06-21, 20:14:52
Sagt mir einen einzigen plausiblen Grund, warum bei keinem einzigen Test von ATi Karten, keine einzige Seite auf der ganzen Welt, auch nur Ansatzweise auf diese Problematik eingeht?
Diese Problematik, die bei uns schon gefühlte 100 Seiten füllt.

Bitte einen plausiblen Grund ...... bitte!



Wo gibt es bei AI_off Bildfehler? Bislang ist nur bekannt, daß bei AI_default manchmal ganze Effekte fehlen.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7371824#post7371824 ;)

LovesuckZ
2009-06-21, 20:16:11
Weil Reviewer keine Ahnung haben. Man braucht weder Ausbildung noch Ahnung, um ein paar Zahlen zu repräsentieren. Und die, die darüber bescheid wissen, haben keine Eier, um sich von der Masse abheben zu wollen.

Schlammsau
2009-06-21, 20:19:16
Weil Reviewer keine Ahnung haben. Man braucht weder Ausbildung noch Ahnung, um ein paar Zahlen zu repräsentieren. Und die, die darüber bescheid wissen, haben keine Eier, um sich von der Masse abheben zu wollen.

Einen plausiblen Grund bitte. Es gibt teils sehr mächtige Testseiten, die viele Anhänger haben!

derguru
2009-06-21, 20:20:11
Aber der Load ist ähnlich...

Edit: Und auserdem ist es AMD's/ATi's Problem. Sollen sie doch mit dem Cheaten aufhören...

immerhin ist ati transparent was das "cheaten" angeht.;D

So viel gewinnt man, wenn man das AF ausschaltet...

bei was?

Klar muss man das. Wie sonst soll man einem DAU klarmachen, das BQ gut für ihn ist, bzw. das mehr BQ=steigender Nutzen ist?
bestimmt nicht mit balken.wie soll das im praktischen aussehen?gegen was willst du denn vergleichen?denn ohne vergleiche kannst du balken in die tonne kloppen:rolleyes:

Jake Dunn
2009-06-21, 20:26:35
Mit RV870 und GT300 muss die BQ neu unter die Lupe genommen werden. Bleibt alles wie bisher und AMD kickt AI nicht [wovon ich ausgehe], dann sollte man AI-def gegen Q mit allen Optis und ohne Clamp benchen.

Wird das nicht jetzt schon gemacht? (Q+Opt. vs AI Def.)

Zudem bin ich ja nicht alleine und auch nicht die letzte Instanz ...

Ein Glück ^^

Weil man die eigene, bessere Filterquali nicht in Form eines Balkens darstellen kann.

Gibt auch andere Möglichkeiten

Für DAUs ideal. Längerer Balken = super.

;D

Genau wie beim V-Ram Krüppel G92 damals, der nach ein paar Minuten einknickte wie ein wie die TT (911) ;D

Schlammsau
2009-06-21, 20:30:50
^^ CB Testet zB so......

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/6/#abschnitt_testsystem

Treibereinstellungen: Nvidia-Grafikkarten (G9x, GT200)

* Texturfilterung: Qualität
* Vertikale Synchronisierung: Aus
* MipMaps erzwingen: keine
* Trilineare Optimierung: Ein
* Anisotrope Muster-Optimierung: Aus
* Negativer LOD-Bias: Clamp
* Gamma-angepasstes AA: Ein
* AA-Modus: 1xAA, 4xAA, 8xQAA
* Transparenz AA: Aus


Treibereinstellungen: ATi-Grafikkarten (R(V)6x0, RV770)

* Catalyst A.I.: Standard
* Mipmap Detail Level: High Quality
* Wait for vertical refresh: Always off
* AA-Modus: 1xAA, 4xAA, 8xAA
* Adaptive Anti-Aliasing: Off

Gast
2009-06-21, 20:31:16
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7371824#post7371824 ;)


Wo siehst du da einen Fehler?

IVN
2009-06-21, 20:32:37
immerhin ist ati transparent was das "cheaten" angeht.;D?

bei was?Mit der Prozentrechnung bist du schon vertraut, oder?

Die AF-Werte von Schlamsau sind die Basis. Wenn man das AF ausschaltet bekommt man, wie mit de %en angegeben, mehr leistung.

bestimmt nicht mit balken.wie soll das im praktischen aussehen?gegen was willst du denn vergleichen?denn ohne vergleiche kannst du balken in die tonne kloppen:rolleyes:
Du denkst nicht nach. Das wahr nicht ernst gemeint. Das wahr eine Anspielung auf die Dummheit der DAUs, die eh keinen Unterschied erkennen können. Einige ATI-User hier - ich meine HIER, im 3DC-Forum (!!) - hatten auch ihre Probleme damit...in einem anderen Thread. Und jetzt sag mir, wie soll NV, bei sollchen Käufern (die die Mehrheit darstellen) ihre bessere BQ vermarkten?

derguru
2009-06-21, 20:33:19
?
Mit der Prozentrechnung bist du schon vertraut, oder?

Die AF-Werte von Schlamsau sind die Basis. Wenn man das AF ausschaltet bekommt man, wie mit de %en angegeben, mehr leistung.
ich glaub ich hatte dir schon gesagt das ich nicht hellsehen kann,dann schreib das bei das du dich auf schlammsaus werte beruhst und nicht irgendwelche zahlen 2 seiten später schreiben ohne jeglichen text.
Du denkst nicht nach. Das wahr nicht ernst gemeint. Das wahr eine Anspielung auf die Dummheit der DAUs, die eh keinen Unterschied erkennen können. Einige ATI-User hier - ich meine HIER, im 3DC-Forum (!!) - hatten auch ihre Probleme damit...in einem anderen Thread. Und jetzt sag mir, wie soll NV, bei sollchen Käufern (die die Mehrheit darstellen) ihre bessere BQ vermarkten?
sorry das ich deine alibi ironie nicht verstanden habe.wie gesagt nv muss es erstmal den testseiten ect. erstmal klar machen denn ich glaub nicht das es jedem bewußt ist aber keine eier hat es zuerwähnen,rest kommt dann wie von selbst.

Wo siehst du da einen Fehler?

du siehst keinen und beharrst auf HQ?ernsthaft?muhaa;D

Schlammsau
2009-06-21, 20:34:04
Wo siehst du da einen Fehler?


Woooos? Sieh dir doch mal den Hintergrund an!
Ein Tipp......zu hell! ;D

Blaire
2009-06-21, 20:38:08
Woooos? Sieh dir doch mal den Hintergrund an!
Ein Tipp......zu hell! ;D

Das ist lediglich der Fogging Bug den gab es zu Anfang der 8800GTX Karten auch und kostete keine Performance.

y33H@
2009-06-21, 20:38:11
Und die, die darüber bescheid wissen, haben keine Eier, um sich von der Masse abheben zu wollen. Weißt du wie schnell es heißt, Page XY sind Fanboys? Da bist du schneller weg als du schauen kannst.Wird das nicht jetzt schon gemacht? (Q+Opt. vs AI Def.)Nö, default vs. default, nur VSync aus.