PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : was ist atis AI???


lipp
2006-06-08, 15:19:44
habe ja schon gegoogelt und auch die sufu benutzt, aber nix gefunden.

ich weiss es ist eine optimierung, doch was für eine und wofür???

greetz lipp

HbKane
2006-06-08, 15:23:18
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/vorschau_atis_radeon_x700-serie/15/#catalyst_a_i


Dort im ersten Abschnitt wirds erklärt.
Wusste es bis gerade eben auch nicht. Ist es sinnvoll es anzuschalten? :biggrin:

Monger
2006-06-08, 15:24:15
Offizielles Statement ist wohl: Shader replacement und spielspezifische Bugfixes, keine Filteroptimierungen.

Aber ich glaube, ausser dem ATI Treiberteam weiß keiner, was GENAU da alles miteinfließt.


@HbKane: Natürlich! Ohne wirst du bei einigen Spielen Darstellungsfehler bekommen. AI auf low ist eigentllich Pflicht.

Rente
2006-06-08, 15:25:18
Catalyst AI fasst sämtliche Optimierungen und Bugfixes zusammen.
Wenn es aus ist werden nicht nur die Optimierungen sondern auch sämtliche Bugfixes abgeschaltet, auf Standard sind alle Bugfixes aktiv+Optimierungen die weniger auffallen (brilineare-Filterung, Shader-Replacement, etc.). Falls man es auf High/Advanced stellt sind sämtliche Optimierungen aktiv die teilweise stark auf die BQ schlagen meistens aber kaum noch Performancezuwachs bringen (AFAIK findet dann eine Analyse der Shader, etc. während der Ausführung statt).

€: Wieviele Optimierungen es gibt ist nicht bekannt bzw. ATi rückt damit nicht raus.

Gast
2006-06-08, 15:47:37
Leider sind bei ATI die "guten" Optimierungen an die "bösen" Filtercheats gekoppelt. Mit AI-low bekommt man nur "brilineare" Filterung, die desöfteren zu Quality-ähnlichem Flimmern führt. Schaltet man AI ganz ab, muss man leider auch auf diverse Bugfixes und sinnvolle Optimierungen verzichten.

BUG
2006-06-08, 16:04:10
..das ist bei nVidia aber leider nich anderes, auf HQ laufen auch diverse "Optimierungen" (Brilinear, Shader Replacement, usw...) mit wenn auch nich ganz so deutlich sichtbar wie unter Quality.

cu
BUG

Gast
2006-06-08, 17:51:03
BUG[/POST]']..das ist bei nVidia aber leider nich anderes, auf HQ laufen auch diverse "Optimierungen" (Brilinear, Shader Replacement, usw...) mit wenn auch nich ganz so deutlich sichtbar wie unter Quality.

cu
BUGGegen Shaderreplacement ist grundsätzlich nichts einzuwenden. Brilinear wird bei korrekt eingestelltem HQ bei NV aber nicht gefiltert. Ausnahme: UT2004.

erwingage
2006-06-09, 16:37:00
wenn ich ai auf erweitert stelle habe ich eine bessere BQ als mit anderen einstellungen :wink:
mir kommt auch die performance besser vor :wink:

diese aussagen beziehen sich auf BF2,SF,EF,AF :wink:
was anderes zocke ich im moment nicht :biggrin:

The_Invisible
2006-06-09, 16:45:01
erwingage[/POST]']wenn ich ai auf erweitert stelle habe ich eine bessere BQ als mit anderen einstellungen :wink:
mir kommt auch die performance besser vor :wink:

diese aussagen beziehen sich auf BF2,SF,EF,AF :wink:
was anderes zocke ich im moment nicht :biggrin:

klar, im HighPerformance Mode siehts bei nvidia auch super aus ;)

mfg

erwingage
2006-06-09, 16:52:25
The_Invisible[/POST]']klar, im HighPerformance Mode siehts bei nvidia auch super aus ;)

mfg

wer lesen kann ist klar im vorteil :biggrin:
hier gehts um ATi und um nichts anderes :wink:

erwingage
2006-06-09, 16:56:17
The_Invisible[/POST]']klar, im HighPerformance Mode siehts bei nvidia auch super aus ;)

mfg

da ich lange eine NV karte im rechner hatte kann ich nur sagen:entweder performance oder hohe BQ :wink:
beides zusammen geht da nicht :wink:

das ATI ai schafft hohe BQ und Performance :wink:

The_Invisible
2006-06-09, 17:03:43
erwingage[/POST]']da ich lange eine NV karte im rechner hatte kann ich nur sagen:entweder performance oder hohe BQ :wink:
beides zusammen geht da nicht :wink:

das ATI ai schafft hohe BQ und Performance :wink:

träum weiter, NV Quality schaut gleich besch...eiden aus wie AI Standard auf der x1600pro meines bruders...

mfg

Raff
2006-06-09, 17:08:45
Dann hat dein Bruder aber eine komische Radeon. X-D A.I. Low schaut lange nicht in allen Anwendungen ähnlich zum Kotzen aus wie NV-Quality. Ist ein kleinerer Prozentsatz, der auffällt ... aber dann richtig.

MfG,
Raff

erwingage
2006-06-09, 17:10:39
The_Invisible[/POST]']träum weiter, NV Quality schaut gleich besch...eiden aus wie AI Standard auf der x1600pro meines bruders...

mfg

ich rede ja auch von ai erweitert :wink:
ich sagte ja wer lesen kann ist klar im vorteil :biggrin:

Raff
2006-06-09, 18:16:29
A.I. Advanced schaut nur geringfügig "anders" aus als A.I. Low. Besser keinesfalls, schlechter kann man aber auch nicht sagen ... aber leicht andere Texturqualität. Das impliziert aber auch, dass NV-Q noch immer im Großteil der Fälle noch mehr saugt.

MfG,
Raff

BUG
2006-06-11, 12:50:45
Gast[/POST]']Gegen Shaderreplacement ist grundsätzlich nichts einzuwenden. Brilinear wird bei korrekt eingestelltem HQ bei NV aber nicht gefiltert. Ausnahme: UT2004...vieleicht nicht durchgängig, aber auf meinem 6800GT wurde z.B. in FEAR auch nicht überall 100% Trilinear auf HQ gefiltert (ja ich habe erst alle Optimierungen aus und dann auf HQ gestellt)! Das "Bri-Band" ging aber erst weg, wenn ich 4xS im Treiber erzwungen habe. :|

cu
BUG

Gast
2006-06-11, 13:11:06
BUG[/POST]']..vieleicht nicht durchgängig, aber auf meinem 6800GT wurde z.B. in FEAR auch nicht überall 100% Trilinear auf HQ gefiltert (ja ich habe erst alle Optimierungen aus und dann auf HQ gestellt)! Das "Bri-Band" ging aber erst weg, wenn ich 4xS im Treiber erzwungen habe. :|

cu
BUG
Wer weiß, vielleicht fordert Fear ja gar nicht überall trilineare Filterung an?

BUG
2006-06-11, 14:46:03
Gast[/POST]']Wer weiß, vielleicht fordert Fear ja gar nicht überall trilineare Filterung an?..naja wenn man im Spiel "Trilinear" eingestellt hat ging es glaub ich auch, aber da hat man dann eben kein AF. Sobald man InGame AF aktiviert hat war das Bri-Band teils deutlich sichtbar (imho ganz extrem auf der "Riffel-Blech" Textur). Über den Treiber AF forcen hat glaub ich auch nicht gefunzt (selbes problem wie InGame AF), das Bri-Band ging erst weg (oder war nicht mehr sichtbar), wenn man SSAA zum AA aktiviert hat.

cu
BUG

The_Invisible
2006-06-11, 15:04:54
Raff[/POST]']Dann hat dein Bruder aber eine komische Radeon. X-D A.I. Low schaut lange nicht in allen Anwendungen ähnlich zum Kotzen aus wie NV-Quality. Ist ein kleinerer Prozentsatz, der auffällt ... aber dann richtig.

MfG,
Raff

ich mein damit auch Quality ohne die anisotrope optimierung... aber ansonsten flimmerts zb bei der radeon in TRL genauso wie mit quality auf nv, war eigentlich richtig enttäuscht nach aussagen einiger user hier :rolleyes:

mfg

PingpiN
2006-06-11, 15:09:49
The_Invisible[/POST]']ich mein damit auch Quality ohne die anisotrope optimierung... aber ansonsten flimmerts zb bei der radeon in TRL genauso wie mit quality auf nv, war eigentlich richtig enttäuscht nach aussagen einiger user hier :rolleyes:

mfg

Du maulst hier immer rum ohne wissen.Wieso kaufst du dir nicht zum testen ne X1900 dann kannst du dir deine eigene Meinung bilden.Ich hatte davor ne 6800 die Bildquali meiner X1800 GTO ist 3mall besser.Bei CSS fühlt man sich in einer anderen Graka welt....

Deathcrush
2006-06-11, 19:01:17
Jo die Bildquali einer ATI ist um welten, ach was um lichtjahre, besser als wie auf einer Nvidia. Hatte vor meiner ATI eine 6800er, 6800GT und eine 7800GT und die ATI geb ich nie wieder her. CSS ist der Oberhammer. Kein Texturenflimmern mehr bei verwendung von AF und knackscharfe Texturen sind der lohn des wechsels :)

Gast
2006-06-11, 19:09:54
Deathcrush[/POST]']Jo die Bildquali einer ATI ist um welten, ach was um lichtjahre, besser als wie auf einer Nvidia.Ich hatte sowohl einen R580, als auch einen G70 und es gibt auch Fälle wo AI-low deutlich schlechter als NV-HQ ist. Mit AI-off ist allerdings alles in Ordnung und dank dem weniger winkelabhängigem AF ist die Qualität bei gleichen Einstellungen auch ein ganzes Stück besser als bei NV.

Wo die ATI aber nicht mehr mitkam sind die Hybridmodi wie 8xS und 16xS. Diese kosten sehr viel Performance, aber die Qualität ist auch superb. Da hatte der R580 kein Chance mehr. Ich würde mir für den R600 wünschen, dass ATI zusätzlich zum gutem AF auch noch solche Hybrid-AA-Modi einbaut.

Schade ist es auch, dass man mit AI-off auch Sachen wie Shaderreplacement abschaltet. Das sollte ATi lieber trennen in Zukunft.

The_Invisible
2006-06-11, 22:20:09
PingpiN[/POST]']Du maulst hier immer rum ohne wissen.Wieso kaufst du dir nicht zum testen ne X1900 dann kannst du dir deine eigene Meinung bilden.Ich hatte davor ne 6800 die Bildquali meiner X1800 GTO ist 3mall besser.Bei CSS fühlt man sich in einer anderen Graka welt....

ich habe für meinen bruder ne x1600pro gekauft, lies doch mal (und jetzt sag nicht das die bildquali auf ner x1900 besser ist). zudem kann ich da nur AI Standard und Erweitert wählen (Low gibts nicht, ka ob das nur bei der x1600 serie so ist)

und zumindestens da flimmern die gleichen texturen in TRL bei nv quality gleich wie bei AI Standard, darum war ich enttäuscht, weil ich halt immer solche postings ala Deathcrush gelesen habe ;)

CSS interessiert mich übrigens nicht...

mfg

Pixelfehler
2006-06-11, 22:52:10
Hi

Ich hab von ner 5900 Geforce auf ne 1800XT gewechselt und musste feststellen das der High Quality Modus der 5900 besser aussieht wie die beste Quali bei der 1800er.Hab das mal direkt verglichen mit 2 Rechnern parallel bei Max Payne 2.Soviel ich weiss,gibts bei der 5x00 Reihe von Nvidia noch keine "Filteroptimierungen" was ich auch direkt sehen konnte.Bei Lüftungsgitter z.B. war das Moire-Muster bei der 1800er stärker als bei der 5900er.Ich hatte übrigens bei den Atitraytools die beste Quali eingestellt !
Vielleicht hab ich auch was übersehen,weiss aber nicht was :confused:

bye

san.salvador
2006-06-11, 23:04:00
The_Invisible[/POST]']ich habe für meinen bruder ne x1600pro gekauft, lies doch mal (und jetzt sag nicht das die bildquali auf ner x1900 besser ist). zudem kann ich da nur AI Standard und Erweitert wählen (Low gibts nicht, ka ob das nur bei der x1600 serie so ist)

und zumindestens da flimmern die gleichen texturen in TRL bei nv quality gleich wie bei AI Standard, darum war ich enttäuscht, weil ich halt immer solche postings ala Deathcrush gelesen habe ;)

CSS interessiert mich übrigens nicht...

mfg

Du kannst "Disable CATALYST A.I." nicht anklicken??

Raff
2006-06-11, 23:09:18
Pixelfehler[/POST]']Hi

Ich hab von ner 5900 Geforce auf ne 1800XT gewechselt und musste feststellen das der High Quality Modus der 5900 besser aussieht wie die beste Quali bei der 1800er.Hab das mal direkt verglichen mit 2 Rechnern parallel bei Max Payne 2.Soviel ich weiss,gibts bei der 5x00 Reihe von Nvidia noch keine "Filteroptimierungen" was ich auch direkt sehen konnte.Bei Lüftungsgitter z.B. war das Moire-Muster bei der 1800er stärker als bei der 5900er.Ich hatte übrigens bei den Atitraytools die beste Quali eingestellt !
Vielleicht hab ich auch was übersehen,weiss aber nicht was :confused:

bye

Auch bei der FX-Serie gibt's seit der ForceWare 50 Filterspielereien. Die kann man aber alle mittels "High Quality" deaktivieren.

Bei ATi genügt eigentlich A.I. off, um optimale Texturen zu bekommen. Außer letztere sind wirklich "böse" und flimmern in ihrer Ursprungsgröße.

MfG,
Raff

Gast
2006-06-12, 00:13:20
The_Invisible[/POST]']ich habe für meinen bruder ne x1600pro gekauft, lies doch mal (und jetzt sag nicht das die bildquali auf ner x1900 besser ist). zudem kann ich da nur AI Standard und Erweitert wählen (Low gibts nicht, ka ob das nur bei der x1600 serie so ist)AI-Standard = AI-low. Beste Bildqualität gibt es sowieso nur mit AI-off.

Swp2000
2006-06-12, 17:19:22
Ob-1[/POST]']Catalyst AI fasst sämtliche Optimierungen und Bugfixes zusammen.
Wenn es aus ist werden nicht nur die Optimierungen sondern auch sämtliche Bugfixes abgeschaltet, auf Standard sind alle Bugfixes aktiv+Optimierungen die weniger auffallen (brilineare-Filterung, Shader-Replacement, etc.). Falls man es auf High/Advanced stellt sind sämtliche Optimierungen aktiv die teilweise stark auf die BQ schlagen meistens aber kaum noch Performancezuwachs bringen (AFAIK findet dann eine Analyse der Shader, etc. während der Ausführung statt).

€: Wieviele Optimierungen es gibt ist nicht bekannt bzw. ATi rückt damit nicht raus.Hab ich das auch mit dem CP?

Rente
2006-06-12, 17:23:02
Swp2000[/POST]']Hab ich das auch mit dem CP? AFAIK nicht, eventuell gibt es eine gemoddete Variante. Mit dem ATT bzw. dem CCC geht es aber.

Swp2000
2006-06-12, 17:30:14
Ob-1[/POST]']AFAIK nicht, eventuell gibt es eine gemoddete Variante. Mit dem ATT bzw. dem CCC geht es aber.Kann das auch damit zu tun haben das CSS bei mir stockt da ich noch den 6.5er mit CP anstatt CCC habe?

Rente
2006-06-12, 17:32:25
Swp2000[/POST]']Kann das auch damit zu tun haben das CSS bei mir stockt da ich noch den 6.5er mit CP anstatt CCC habe? Nein, sehr unwahrscheinlich, das wird an irgendetwas anderem liegen.
Mach doch im HL2/CSS-Unterforum einen Thread dazu auf, eventuell hilft dir jemand... ;)

Swp2000
2006-06-12, 17:45:30
Ob-1[/POST]']Nein, sehr unwahrscheinlich, das wird an irgendetwas anderem liegen.
Mach doch im HL2/CSS-Unterforum einen Thread dazu auf, eventuell hilft dir jemand... ;)Na dann mach ich das doch glad mal....

The_Invisible
2006-06-12, 19:28:15
san.salvador[/POST]']Du kannst "Disable CATALYST A.I." nicht anklicken??

naja, da hat man je nach game schon einbrüche die gerade bei ner x1600pro nicht immer leicht hinzunehmen sind

nach testen mehrerer spiele kann ich doch sagen das AI low(standard) besser aussieht als nv quality, aber gerade die störenden stellen sind nicht wirklich viel besser

mfg

Gast
2006-06-12, 20:18:44
Es wäre wirklich wünschenswert wenn ATI die Cheat-Sauerein endlich von den sinnvollen Optimierungen trennen würde.

(del)
2006-06-13, 01:22:39
The_Invisible[/POST]']nach testen mehrerer spiele
Ah. Hast Du das?

kann ich doch sagen das AI low(standard) besser aussieht als nv quality, aber gerade die störenden stellen sind nicht wirklich viel besser
Sorry. Nacht Testen mehrerer Spiele kann ich doch sagen, alles ist immer und überall besser als NV-Q. Und das nichtmal auf ATI bezogen.

Gast
2006-06-13, 01:47:25
BessereHälfte[/POST]']Sorry. Nacht Testen mehrere Spiele kann ich doch sagen, alles ist immer und überall besser als NV-Q. Und das nichtmal auf ATI bezogen.Wenn man wenigstens die Sample-Optimierung abschaltet ist es gar nicht mehr so arg schlimm. Aber die Default-Einstellungen sind nix gut, ja.

mbee
2006-06-13, 08:32:19
The_Invisible[/POST]']träum weiter, NV Quality schaut gleich besch...eiden aus wie AI Standard auf der x1600pro meines bruders...

mfg

Sorry, aber das ist schlichtweg Bullshit (zumindest für den Großteil der halbwegs aktuellen Games). Ich hatte zuvor zwei 7800GTX, was noch nicht all zu lange her ist, und weiß denke ich, wovon ich rede.