PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI A.I


Henkman
2006-04-15, 16:29:59
Hello ich wollte eigentlich nur fragen ob man im CP Der Catalyst Treiber irgendwo den A.I wert einstellen kann oder ob das nur über die Ati Tray Tools geht im Treibermenü find ich nämlich nichts.

123456
2006-04-15, 18:06:56
Im normalen CP geht das nicht. Im CCC schon.

Henkman
2006-04-15, 22:30:56
Hm schade danke für die Antwort

Super Grobi
2006-04-15, 22:41:19
Ich GLAUB das du das auch mit Regedit machen kannst! Google mal, ich meine da mal was gelesen zu haben.

SG

Mike1
2006-04-15, 22:45:37
was macht dies einstellung überhaupt, bzw wie beeinflusst sie die performance?

AnarchX
2006-04-15, 22:50:41
was macht dies einstellung überhaupt, bzw wie beeinflusst sie die performance?

applikationsspezifische Optimierungen und Bugfixes, Optimierung der Speicherverwaltung, Optimierung des AF (Anwendung von briliniearen Filtering) und Forcierung anderer netter Sachen:z.B. HDR+AA bei Oblivion

Somit kann man sagen, das diese Option die Performance sehr stark beeinflusst und auf jeden Fall immer an sein sollte.

Einstellen kann man es statt dem CCC auch über die ATI Tray Tools.

Raff
2006-04-15, 22:59:30
Das kann in seltenen Fällen auch nach hinten losgehen. So waren diverse 5-er-Treiber in F.E.A.R. langsamer, wenn A.I. aktiviert war. In den meisten Fällen bringt es aber natürlich Leistung – auf Kosten der Qualität. Das Shader-Replacement macht nicht hässlicher, sondern nur schneller ... die sinnlos daran gekoppelten Filter-Einsparungen hingegen schon (es sei denn, man nutzt einen Chip < R420).

MfG,
Raff

(del)
2006-04-15, 23:50:10
Das kann in seltenen Fällen auch nach hinten losgehen. So waren diverse 5-er-Treiber in F.E.A.R. langsamer, wenn A.I. aktiviert war
Was aber klar ein Bug war. Die Schwachmaten haben versucht zu optimieren, aber es ging in der Tat nach hinten los. Als es behoben war hat FEAR mit AI_low noch zugelegt.

Die Zusammenfügung von den vin Dir erwähnten Sachen unter einem "AI"-Hut find ich auch suboptimal. Aber weißt Du 100% wie das bei NV abläuft? Die verlieren imho schweineviel Leistung mit HQ. Und alles außer HQ wäre für mich dagegen nicht hinnehmbar.

So hab ich mit ATI noch die Wahl zwischen wesentlich mehr Power und bissl schlechtere Quali oder echt Trilinear. Wogegen ich bei NV nur zwischen absolut mieser Quali und einen Batzen weniger Leistung wählen kann.
Den Leuten mit G70 ist es zum Glück egal. Den gönn ich das aber auch. Imho befinden sich die Jungs mit einem NV40 aber keineswegs in einer besseren Situation als ich mit meinem R420.

Vergleichbar ist das leider nicht wirklich (hallo LieblingsGast), aber wenn man AI_off gegenüber HQ stellt und AI_low gegenüber Q, dann bin ich schon froh einen R420 und keinen NV40 zu haben.
Für die R520 Reihe find ich das aber total beknackt. Das Zusammenspiel von Features unter AI (AF, Bugfixes, shader replacement) wertet die Karte imho wesentlich ab, da man quasi zu AI_low gezwungen wird, obwohl man den ganzen Filtermumpitz nicht nötig hätte und auch spielbar eine bessere Renderingsquali erreichen könnte.

The_Invisible
2006-04-15, 23:52:09
irgendwie ist es sowieso blöd das das alles hinter einem begriff "versteckt" ist

so wird man quasi gezwungen AI zu aktivieren wegen den Bugfixes, und den fps Balken tuts "nebensächlich" auch gut ;)

mfg

The_Invisible
2006-04-15, 23:59:26
Was aber klar ein Bug war. Die Schwachmaten haben versucht zu optimieren, aber es ging in der Tat nach hinten los. Als es behoben war hat FEAR mit AI_low noch zugelegt.

Die Zusammenfügung von den vin Dir erwähnten Sachen unter einem "AI"-Hut find ich auch suboptimal. Aber weißt Du 100% wie das bei NV abläuft? Die verlieren imho schweineviel Leistung mit HQ. Und alles außer HQ wäre für mich dagegen nicht hinnehmbar.

So hab ich mit ATI noch die Wahl zwischen wesentlich mehr Power und bissl schlechtere Quali oder echt Trilinear. Wogegen ich bei NV nur zwischen absolut mieser Quali und einen Batzen weniger Leistung wählen kann.
Den Leuten mit G70 ist es zum Glück egal. Den gönn ich das aber auch. Imho befinden sich die Jungs mit einem NV40 aber keineswegs in einer besseren Situation als ich mit meinem R420.

Vergleichbar ist das leider nicht wirklich (hallo LieblingsGast), aber wenn man AI_off gegenüber HQ stellt und AI_low gegenüber Q, dann bin ich schon froh einen R420 und keinen NV40 zu haben.
Für die R520 Reihe find ich das aber total beknackt. Das Zusammenspiel von Features unter AI (AF, Bugfixes, shader replacement) wertet die Karte imho wesentlich ab, da man quasi zu AI_low gezwungen wird, obwohl man den ganzen Filtermumpitz nicht nötig hätte und auch spielbar eine bessere Renderingsquali erreichen könnte.

wie ich heute in riddick gebencht habe (siehe benchmarkforum) habe ich auch versucht ob HQ soviel kostet gegenüber Q+TriOpt... in 1600x1200,4xAA,16xAF,TSAA warens genau 1-0,5fps (habs mehrmals durchlaufen lassen) mit shadermodell 2.0 und garnix bei shadermodell 2.0++... das finde ich eigentlich nicht schweineviel leistung... ich war übrigens selber überrascht darüber da man eigentlich immer was anderes liest (vro allem von ati user :ugly: )

mfg

(del)
2006-04-16, 00:05:16
wie ich heute in riddick gebencht habe (siehe benchmarkforum) habe ich auch versucht ob HQ soviel kostet gegenüber Q+TriOpt... in 1600x1200,4xAA,16xAF,TSAA warens genau 1-0,5fps (habs mehrmals durchlaufen lassen) mit shadermodell 2.0 und garnix bei shadermodell 2.0++... das finde ich eigentlich nicht schweineviel leistung... ich war übrigens selber überrascht darüber da man eigentlich immer was anderes liest (vro allem von ati user :ugly: )
Hatten wir das nicht schon mehrmals durchgekaut? Mit oder ohne loliman? :udevil: Und, meinte ich Q+TriOpt? Ist das bei D3D auch so? Muß wieder eine Batterie an Links raus, damit sie in 1 Monat wieder vergeßen werden kann?

edit: Und Du hast einen G70. Sprach ich grundsätzlich vom G70?

Raff
2006-04-16, 00:24:16
Teste mal bitte Primeval in UT2004 in 1600x1200 oder 2048x1536 mit lediglich 16xAF. HQ vs. Q mit Optimierungen. Ein NV40 bricht da schlappe 50% ein.

MfG,
Raff

(del)
2006-04-16, 00:34:07
Teste mal bitte Primeval in UT2004 in 1600x1200 oder 2048x1536 mit lediglich 16xAF. HQ vs. Q mit Optimierungen. Ein NV40 bricht da schlappe 50% ein
Hmm. 50% sind schon Hammer, aber die Einstellungen sind auch keine schlechte Granate :D 17 Zoll TFT, also 1280x1024, wären vielleicht doch fairer. Sag ich jetzt ;)

Raff
2006-04-16, 00:36:00
Hier geht's nicht um Fairness, sondern um Worst Cases, die zeigen, was Filter-Sparmaßnahmen reißen können. ;) In UT2004 gibt's kein Pixel-Shading, da zählt AFAIK praktisch nur die Füllrate.

MfG,
Raff

(del)
2006-04-16, 00:42:04
Hier geht's nicht um Fairness, sondern um Worst Cases, die zeigen, was Filter-Sparmaßnahmen reißen können. ;) In UT2004 gibt's kein Pixel-Shading, da zählt AFAIK praktisch nur die Füllrate
Eher was 1A Darstellung kostet. NV_Quality kann nichts reissen. Das ist leider nur zum Brechen :frown:
Geht den NV40 Boards da nicht schon langsam der Speicher aus bzw. der Speed derjenigen? Weil WorstCase der den Einfluss von Filtern zeigen soll, sollte auch am Filter und nicht am 'Interface' hängen bleiben. Ich nehme aber wie immer an, daß Du schon sehr wohl weißt, was Du sagst ;)

Raff
2006-04-16, 00:48:15
Genau deswegen ja ohne AA. :) Mit 4xAA wäre das Ergebnis eventuell verfälscht.

Ich habe gerade nur etwas ältere Werte mit Primeval (1600x1200 + 16xAF) und der Forceware 76.44 parat (ältere Treiber verhalten sich ähnlich):

HQ: 15,4 fps
Q+O: 33,2 fps

Das ist einfach nur abartig. ;)

MfG,
Raff

(del)
2006-04-16, 01:01:17
Genau deswegen ja ohne AA. :) Mit 4xAA wäre das Ergebnis eventuell verfälscht.

Ich habe gerade nur etwas ältere Werte mit Primeval (1600x1200 + 16xAF) und der Forceware 76.44 parat (ältere Treiber verhalten sich ähnlich):
Neuere nicht? Was soll sich da geändert haben? Vor allem für NV40? Eben.

HQ: 15,4 fps
Q+O: 33,2 fps

Das ist einfach nur abartig. ;)
Ja ok. Deshalb aber auch meine Frage im ersten Post, wer denn schon genau sagen kann, was bei Q und HQ alles passiert. Bei ATI ist es uns gesagt worden. Bei NV stellt man Theorien auf anhand von Bezeichnungen der Schieberegler. Die, wei Loli sagt, manchmal auch nicht wirklich das machen was man einstellt. Hmm...

Solche Unterschiede hätt ich aber auch eher zwischen AI_high und AI_off erwartet und nicht zwischen Q+O und HQ :eek:

Ich muß erstmal drüber schlafen :D ;)

The_Invisible
2006-04-16, 08:48:37
so, wie gewünscht habe ich den Benchmark durchlaufen lassen:

Primeval 3dc benchmark
1600x1200, 16xAF

HQ: 60,979
Q+AlleOpts: 61.247

kommt mir nicht großartig vor, ich mach mal 2048x1536

edit: 2048 geht leider aus irgendeinen grund nicht, 1600 ist das maximale. zudem ist da ganze cpu-limitiert, ich habe mit 1024x768/noaf/noaa und 1600x1200/4xaa/16xaf/tsaa die selbe framerate, mit 8xS gehts in 1600 dann auf 47 runter, vielleicht sehe ich da was

edit2: so, jetzt hab ich wenigsten mal einen unterschied gesehen:

Primeval 3dc benchmark
1600x1200, 8xS, tsaa, 16xAF
HQ: 46,908
Q+allOpts: 53,668

1600x1200, 16xS, tsaa, 16xAF
HQ: 20,876
Q+allOpts: 23,18

trotzdem bin ich vom extrembeispiel oben sehr weit entfernt ;)

mfg

Gast
2006-04-16, 09:11:56
falls es noch nicht aufgefallen sein sollte das ATT schaltet bei AI "normal" immer "tri" in AF an......

Raff
2006-04-16, 11:47:16
trotzdem bin ich vom extrembeispiel oben sehr weit entfernt ;)

mfg

Tjo, 10-15% sind wohl das Maximum, wenn es wirklich auf Füllrate ankommt. Das von dir erbenchte ist immerhin der größte Unterschied, der mir auf einem G7x bekannt ist.

Zeigt gut die Sinnlosigkeit von Quality. Auf einem NV4x brachte das oft enorm Power.

MfG,
Raff

The_Invisible
2006-04-16, 12:15:33
Tjo, 10-15% sind wohl das Maximum, wenn es wirklich auf Füllrate ankommt. Das von dir erbenchte ist immerhin der größte Unterschied, der mir auf einem G7x bekannt ist.

Zeigt gut die Sinnlosigkeit von Quality. Auf einem NV4x brachte das oft enorm Power.

MfG,
Raff

jo, vor allem wenn man SSAA einsetzt wird füllrate wieder wichtig, bei normalen MSAA dürfte das wohl nie so stark ausfallen

mfg

mbee
2006-04-16, 12:28:55
falls es noch nicht aufgefallen sein sollte das ATT schaltet bei AI "normal" immer "tri" in AF an......

"tri" oder "bri" (also nicht "bi"!)? Da war ich mir nämlich auch nie ganz sicher bzw. liest man da z.T. widersprüchliche Aussagen.
HQ AF ist ja nur für die Winkelab- bzw. -Unabhängigkeit zuständig, oder?

AnarchX
2006-04-16, 12:42:02
Ich habe gerade nur etwas ältere Werte mit Primeval (1600x1200 + 16xAF) und der Forceware 76.44 parat (ältere Treiber verhalten sich ähnlich):

HQ: 15,4 fps
Q+O: 33,2 fps

Das ist einfach nur abartig. ;)

MfG,
Raff

Wie sieht eigentlich der Einbruch bei ATI aus, wenn man auf allen Stages Trillinear forciert?

Odal
2006-04-16, 12:59:57
könnte auch daran liegen das sich der treiber mal wieder verselbstständigt hat..denn einfach auf HQ stellen reicht ja nicht ;) ein schelm der dabei böses denkt....

Gast
2006-04-16, 14:41:20
könnte auch daran liegen das sich der treiber mal wieder verselbstständigt hat..denn einfach auf HQ stellen reicht ja nicht ;) ein schelm der dabei böses denkt....
Zudem ist beim G70 der HQ Modus minimal schlechter als beim NV40.
Zwar nur marginal, könnte vielleicht trotzdem ein paar Prozent Performancevorteile gegenüber dem NV40 bringen.

Raff
2006-04-16, 15:08:21
Wie sieht eigentlich der Einbruch bei ATI aus, wenn man auf allen Stages Trillinear forciert?

Ich meine mehrfach gelesen zu haben, dass das nicht (mehr?) geht. Und selbst probiert habe ich es nicht, da es vermutlich deutlich mehr kostet als "halb-tri" und nahezu unsichtbar ist.

MfG,
Raff

The_Invisible
2006-04-16, 18:15:40
könnte auch daran liegen das sich der treiber mal wieder verselbstständigt hat..denn einfach auf HQ stellen reicht ja nicht ;) ein schelm der dabei böses denkt....

keine angst, ich weiß wie man im treiber WIRKLICH HQ einstellt ;)

und ja, nvidia ist ja immer böse und ati macht nie was :rolleyes:

mfg

AnarchX
2006-04-16, 20:23:03
Ich meine mehrfach gelesen zu haben, dass das nicht (mehr?) geht. Und selbst probiert habe ich es nicht, da es vermutlich deutlich mehr kostet als "halb-tri" und nahezu unsichtbar ist.

MfG,
Raff

Also kann man annehmen, dass es ein annähernde gleicher Leistungseinbruch sein wird.
ATI kocht halt auch nur mit Wasser...
Nur ärgerlich das es NV nicht hinbekommt auch so eine Optimierung zu proggen ;(

Mr. Lolman
2006-04-16, 20:29:00
Tjo, 10-15% sind wohl das Maximum, wenn es wirklich auf Füllrate ankommt. Das von dir erbenchte ist immerhin der größte Unterschied, der mir auf einem G7x bekannt ist.



http://www.3dcenter.org/artikel/neue_filtertricks/index3.php

(del)
2006-04-16, 23:18:30
Also kann man annehmen, dass es ein annähernde gleicher Leistungseinbruch sein wird.
ATI kocht halt auch nur mit Wasser...
Du nicht? =) Wie kommst Du jetzt zu Deiner Annahme, das kostet bei ATI genausoviel? Daß HQ 50% bis 10% kostet kann man FW unter Quality problemlos auch ansehen :( Die Unterschiede zwischen AI_low und AI_off sind dagegen gelegentlich in bewegten Bildern auszumachen und bleiben auch noch sehr gering. Meinst Du echt AI_off würde dann - wenn es nur den Filter steuern würde - soviel kosten wie Q->HQ? 50% bis 30% erreich ich nichtmal jetzt. Und da wird noch n ganzer Batzen mehr abgeschaltet als nur Bri AF.