PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hd 2900 xt Benchmark-ergebnisse ohne anti -aliasing?


BlacKi
2007-06-04, 13:13:58
Hallo, ich würde mich gerne für benchmarks interresieren ohne AA der HD 2900 xt interressieren aber mit vollen AF. ich finde die bildqualität geht den bach runter wenn man aa einschaltet. aber 16 aF macht voll sinn. alle AA bilder die ich bis jetzt sah waren irgendwie deutlich matschiger als die ohne AA.


leider finde ich nirgends ergenisse mit meinen einstellungen.

am liebsten wäre mir ein Counterstrike source Videostresstest mit 1600x1200 er auflösung. geht aber auch 1280x1024.

kann die Hd 2900 XT gegen die GTShier voll punkten???


vielen dank

Blacki

Adam D.
2007-06-04, 13:20:43
Sorry, kannst du mir kurz erklären, inwiefern AA die Bildqualität verschlechtert (außer von dem Geblurre mal abgesehen)?

[dzp]Viper
2007-06-04, 13:21:12
Ohne AA/AF ist die 2900XT in fast allen Fällen schneller als die 8800GTS. Aber wer kauft sich schon so ne Karte und nutzt dann kein AA/AF?

Das ist wie, als würde ich mir einen Ferrari kaufen und dann nur noch 30kmh fahren und niemals schneller

Sry aber das wäre dann rausgeworfenes Geld.

Ohne AA/AF reicht auch eine 1900/1950XT locker aus um die 1600x1200 zu zocken

san.salvador
2007-06-04, 13:29:20
Wer AA nicht nutzen will braucht wirklich keine 2900XT, das Beispiel von [dzp]Viper trifft es schon ziemlich gut.

Du solltest mal den Artikel über AA von aths - zu finden auf der Hauptseite - lesen, vielleicht hast du ja noch das eine oder andere Verständnisproblem.

Gast
2007-06-04, 13:41:54
Sorry, kannst du mir kurz erklären, inwiefern AA die Bildqualität verschlechtert (außer von dem Geblurre mal abgesehen)?
Sorry, kannst du mir kurz erklären wo bei richtigem MSAA irgendwas geblurt wird ?
Nach so vielen jahren immer noch den mist hören zu müssen dass AA die bildqualität verschlechtert und/oder blurt... na ja, ich sag nichts mehr... vielleicht noch lesen, verstehen, posten

Gast
2007-06-04, 13:43:34
Sorry, kannst du mir kurz erklären wo bei richtigem MSAA irgendwas geblurt wird ?Mit Geblurre meint er doch die CFAA-Modi der x2900xt.

Adam D.
2007-06-04, 13:43:37
Sorry, kannst du mir kurz erklären wo bei richtigem MSAA irgendwas geblurt wird ?
Nach so vielen jahren immer noch den mist hören zu müssen dass AA die bildqualität verschlechtert und/oder blurt... na ja, ich sag nichts mehr... vielleicht noch lesen, verstehen, posten
Hmm, es geht hier um die 2900XT ... Lass mich überlegen ... Hast du ein Review gesehen, in dem das nicht angesprochen wurde? :|
Natürlich blurrt AA nicht allgemein, aber das meine ich hier auch gar nicht.

Gast
2007-06-04, 13:51:41
erstaml danke für die anteilnahme. auf diesem bild macht das AA einen matsch aus dem bild. wenn man das komplette bild betrachtet merkt man das das bild ohne AA viel klarer wirkt.

ich möchte einen bench mit 16 AF nicht ohne AF, fals ds falsch verstanden wurde.

mir ist klar das eine 1280 er auflösung das maximum ist was der monitor bei manchen wiedergeben kann. und da ist AA vl eine kompromisslösung, aber ich finde es geht nichts über eine hohe auflösung. da ist AA nur ein kompromiss.

mein monitor macht 1900 irgendwas. und mit meiner x850 pro läuft css auch flüssig. aber leider nicht mir 100fps. das ärgert mich. ausserdem ist meine aktuelle karte nicht zukunftstauglich. deswegen informiere ich mich

Gast
2007-06-04, 13:52:35
hier das bild^^ http://pics.krawall.de/4/fsaa_vergleich_kl.jpg

Gast
2007-06-04, 13:54:05
oder hier http://www.k-hardware.de/artikel.php?s=&artikel_id=6670&seite=6

gibts hier kein edit?

san.salvador
2007-06-04, 14:01:47
oder hier http://www.k-hardware.de/artikel.php?s=&artikel_id=6670&seite=6

gibts hier kein edit?
Für Gäste natürlich nicht.


Du bringst hier schwer was durcheinander. Du redest hier von CFAA, das wirklich Matsch produziert. Die 2900XT beherrscht aber wie alle anderen nennenswerten Karten auch normales MSAA, das keinen Matsch produziert.

tombman
2007-06-04, 14:07:10
"Normales" AA verursacht keinerlei Matsch (zb MSAA oder SSAA), aber das neue CFAA natürlich schon- dafür wurde AMD hier im Forum ja auch schon kritisiert.

Niemand zwingt einen dazu CFAA zu verwenden...

Gast
2007-06-04, 14:23:06
leute,
blacki wollte doch nur bilder mit 16x AF (AnisotroperFilter)
nix mit AA (AntiAliasing) oder sonstigen mischmodis alla CFAA (auch wenn in CFAA die Buchstaben "A" und "F" vorkommen ist das nicht pures AF)

also sowas in der art:

1600x1200 + 0x AA + 16x AF
oder auch
1280x1024 + 0x AA + 16x AF

BlacKi
2007-06-04, 14:23:14
mhh, stimmt. bei mir sieht es mit msaa so aus. http://viewmorepics.myspace.com/index.cfm?fuseaction=user.viewPicture&friendID=197273167&albumId=447362

die fps zeigen welches mit 0-4-6 fachem AA gemaht wurde. aber deutliche qualitätsunterschiede gibts nciht.

man ist das doof. nirgendwo kann man so große bilder hochladen

Henroldus
2007-06-04, 14:24:58
don't feed the troll!

die diskussion, dass Auflösung angeblich AA ersetzt hatten wir hier schon zur genüge.


mein monitor macht 1900 irgendwas. und mit meiner x850 pro läuft css auch flüssig. aber leider nicht mit 100fps. das ärgert mich. ausserdem ist meine aktuelle karte nicht zukunftstauglich. deswegen informiere ich mich
alles klar ne?

tombman
2007-06-04, 14:26:28
mhh, stimmt. bei mir sieht es mit msaa so aus. http://viewmorepics.myspace.com/index.cfm?fuseaction=user.viewPicture&friendID=197273167&albumId=447362

die fps zeigen welches mit 0-4-6 fachem AA gemaht wurde. aber deutliche qualitätsunterschiede gibts nciht.
1.) link geht ned. Du solltest links immer selbst überprüfen als ausgeloggter user, um sicherzustellen, daß auch andere sehen was du siehst

2.) Wenn du zwischen 0-4-6 keinen Unterschied siehst, dann gibts zwei Möglichkeiten.
a.) es gibt keine, weil AA in der Anwendung gar ned funkt- zb weil gleichzeitig full screen Effekte oder HDR aktiv sind.
b.) und das ist viel wahrscheinlicher: du weißt noch nicht wohin du schauen mußt, da du Anfänger bist. Das können wir aber ändern, du bist hier eindeutig im richtigen Forum dafür ;)

BlacKi
2007-06-04, 14:37:54
ich hab mich ausgelogt. link geht. aber die bilder kann man leider nicht in voller quali ansehen. kann einer mir sagen wo ich die bilder speichern kann?

auf den bildern sieht man das das AA schon funtioniert. aber man muss eigendlich schon die lupe holen bei 1900er auflösung.^^ stimmt schon, sieht ganz ok aus das bild mit AA, aber unterbewusst meine ich das das bild verschwommener ist. aber wenn ich genau hinsehe merk ich nixmehr.

Gast
2007-06-04, 15:19:35
Nein der link funzt nicht.

Up die Bilder doch einfach bei abload.de oder einem anderem hoster..

san.salvador
2007-06-04, 15:38:07
ich hab mich ausgelogt. link geht. aber die bilder kann man leider nicht in voller quali ansehen. kann einer mir sagen wo ich die bilder speichern kann?

auf den bildern sieht man das das AA schon funtioniert. aber man muss eigendlich schon die lupe holen bei 1900er auflösung.^^ stimmt schon, sieht ganz ok aus das bild mit AA, aber unterbewusst meine ich das das bild verschwommener ist. aber wenn ich genau hinsehe merk ich nixmehr.
Ob AA viel oder wenig nutzt hat mit der Auflösung per se nichts zu tun, es hängt nur von den pixel per inch ab. ;)

Das was du für verschwommen hältst, nennt sich Glättung und lässt weit mehr Bildinformationen in das Ergebnis mit einfließen.

Gast
2007-06-04, 17:17:05
Bilder speichern:

www.directupload.net

BlacKi
2007-06-04, 18:48:20
noAA
http://www.directupload.net/images/070604/temp/cJU9qsqD.jpg (http://www.directupload.net/file/d/1083/cJU9qsqD_jpg.htm)
4AA
http://www.directupload.net/images/070604/temp/cvaddyMS.jpg (http://www.directupload.net/file/d/1083/cvaddyMS_jpg.htm)
6AA
http://www.directupload.net/images/070604/temp/8fC8l7qn.jpg (http://www.directupload.net/file/d/1083/8fC8l7qn_jpg.htm)

danke, sehr nice mit dem uploadding

ich weiß jetzt wie ich mein verschwommene AA bild interprätieren kann: als hätte ich fettige brillengläser. :)

ich fühle mich mit AA nicht wohl. deswegen wollte ich fragen ob jemand die hd 2900 xt benchen kann ohne AA aber mit 16 fachen AF.

tombman
2007-06-04, 19:00:16
Schau dir doch bitte mal den Unterschied zwischen 0x und 6x an.

Bei 6x wird NICHTS unschärfer, nur die blöden Treppchen gehen weg- das 6x sieht zehn Mal besser aus.

Ist aber ein häufiger Anfängerfehler, die denken immer AA macht das Bild unschärfer ;D

Lightning
2007-06-04, 19:02:24
ich weiß jetzt wie ich mein verschwommene AA bild interprätieren kann: als hätte ich fettige brillengläser. :)

Genau das ist aber eine absolut falsche Beschreibung, ich kann daher nur vermuten, dass du da eine Art Placebo-Effekt hast. Von MSAA werden nämlich ausschließlich Polygonkanten bearbeitet (und auch da nicht einfach "vermatscht", sondern präziser wiedergegeben), was bedeutet, dass das Bild größtenteils vollkommen identisch ist (alle Texturen). Kannst du gut nachprüfen, in dem du dir die Bilder mal genau anschaust oder dir von einem Bildbearbeitungsprogramm die Differenzen anzeigen lässt. Bei verschwommenen Brillengläsern hingegen wäre das gesamte Bild unschärfer.

tombman
2007-06-04, 19:03:12
Genau das ist aber eine absolut falsche Beschreibung, ich kann daher nur vermuten, dass du da eine Art Placebo-Effekt hast. Von MSAA werden nämlich ausschließlich Polygonkanten bearbeitet (und auch da nicht einfach "vermatscht", sondern präziser wiedergegeben), was bedeutet, dass das Bild größtenteils vollkommen identisch ist (alle Texturen). Bei verschwommenen Brillengläsern hingegen wäre das gesamte Bild unschärfer.
Jo, das ist rein psycho-visuell ;)

Blacki, schneide dir einfach aus beiden Bildern einen Teil raus wo keine Poligonkanten zu sehen sind, zb ein Stück Wand.
Und dann vergleiche diese Ausschnitte miteiannder-> du wirst keine Unterschiede sehen.

BlacKi
2007-06-04, 19:15:55
ich hab mal zwischen de noAA und 6 AA hin und her geswitched, dabei ist mir aufgefallen das die kannten verschwimmen. die ecken sind ncihtmerh so klar. da wo bei noAA eine Harte linie/kannte ist, ist bei 6AA eine nicht genau deffinierbare kannte geworden. ich meine das das bei weit entfernteren kannten noch viel extremer ist.

wie siehts mit meinen ergebnissen aus, wegen denen ich eigendlich hier diskutiere ???;)

ich hab hier mal bissle gearbeitet: http://www.directupload.net/images/070604/temp/aG8r9ANw.jpg (http://www.directupload.net/file/d/1083/aG8r9ANw_jpg.htm)

jpg komprimiert leider die bilder. deswegen kommt das nciht so deutlich rüber

Lurtz
2007-06-04, 19:19:27
ich hab mal zwischen de noAA und 6 AA hin und her geswitched, dabei ist mir aufgefallen das die kannten verschwimmen. die ecken sind ncihtmerh so klar. da wo bei noAA eine Harte linie/kannte ist, ist bei 6AA eine nicht genau deffinierbare kannte geworden. ich meine das das bei weit entfernteren kannten noch viel extremer ist.
Wie gesagt, lies dir mal den AA-Artickel von der Hauptseite durch!

Es kommt zu einem Informationsgewinn, nicht zu einem Informationsverlust.

BlacKi
2007-06-04, 19:24:03
Wie gesagt, lies dir mal den AA-Artickel von der Hauptseite durch!

Es kommt zu einem Informationsgewinn, nicht zu einem Informationsverlust.
meinst du damit das ich mehr infos durchs lesen bekomme;) ;D

tombman
2007-06-04, 19:24:16
ich hab mal zwischen de noAA und 6 AA hin und her geswitched, dabei ist mir aufgefallen das die kannten verschwimmen. die ecken sind ncihtmerh so klar. da wo bei noAA eine Harte linie/kannte ist, ist bei 6AA eine nicht genau deffinierbare kannte geworden. ich meine das das bei weit entfernteren kannten noch viel extremer ist.

*lol*, na was glaubst warum wurde AA erfunden? Weil diese "harten Kanten" nicht der Realität entsprechen. Seit wann haben leicht schräge Kanten in der Realität TREPPEN?

Oder schau dir mal die Antenne auf dem Dach an. Seit wann schweben in der Realität einfach unzusammenhängende Punkte in der Gegend rum?

Genau deshalb wurde AA erfunden. Um das Auge so zu täuschen, daß es denkt es sieht mehr aus wie in der Realität. Darum geht es doch überhaupt in der Computergrafik.

tombman
2007-06-04, 19:25:22
ich hab hier mal bissle gearbeitet: http://www.directupload.net/images/070604/temp/aG8r9ANw.jpg (http://www.directupload.net/file/d/1083/aG8r9ANw_jpg.htm)

Eben, und was davon sieht mehr aus wie in der Realität? :cool:

Gast
2007-06-04, 19:29:05
Eben, und was davon sieht mehr aus wie in der Realität? :cool:

nix, weil CS einfach zu hässliche texturen hat ;)

Lightning
2007-06-04, 19:34:44
ich hab mal zwischen de noAA und 6 AA hin und her geswitched, dabei ist mir aufgefallen das die kannten verschwimmen. die ecken sind ncihtmerh so klar. da wo bei noAA eine Harte linie/kannte ist, ist bei 6AA eine nicht genau deffinierbare kannte geworden. ich meine das das bei weit entfernteren kannten noch viel extremer ist.

Gut, die Stellen, an denen MSAA greift, hast du jetzt jetzt zumindest schonmal erkannt. Nicht richtig ist allerdings, dass aus einer harten Kante eine "nicht definierbare" wird. Im Gegenteil ist die harte Kante weniger definiert, denn dort gibt es eben klar sichtbare Treppen, die das darzustellende Objekt ja gar nicht haben soll. Man nutzt Anti-Aliasing, um der eigentlichen Form des Objektes näherzukommen, nämlich indem man den Treppeneffekt durch Hinzufügung von Zwischenstufen verringert.

Übrigens werden bei jeglichem Offline-Rendering (ob nun für Präsentationen, Renderfilmen wie Shrek etc.) verdammt hohe Anti-Aliasing-Modi verwendet. Findest du diese auch unscharf?

wie siehts mit meinen ergebnissen aus, wegen denen ich eigendlich hier diskutiere ???;)

Da kann ich dir leider auch nicht behilflich sein. Ich wollte dir nur ein wenig näherbringen, was AA eigentlich macht.

MadManniMan
2007-06-05, 00:20:07
Hi Blacki!

Ich beschäftige mich jetzt seit rund 13 Jahren mit Grafikkarten, aber immer wieder habe ich irgendwann etwas missverstanden - ist halt ne schöne Sache, daß man sich da so fein reinsteigern kann, aber zum Thema:

Wenn Du die "undefinierbareren" Kanten doof findest, für was sollte denn dann AA Deiner Meinung nach gut sein?

BlacKi
2007-06-05, 07:09:53
bei mir gehts eigendlich nicht um die netteste grafik bei css. sondern es muss alles passen. wenn ich teilweise nur 50 fps im spiel hab dreh ich lieber die grafik runter als das ich in der action subjektiv ruckler wahrnehme.

genauso ist es mit AA. ich hab subjetktiv das gefühl das ich leicht unscharf sehe. ob ich das mir nur einbilde oder nicht interresiert mich nicht.

ich interressiere mich für die werte der hd 2900 xt, weil die 8800 gts zwar gut mit aa läuft, aber ohne aa rennt die hd2900 xt der Gts davon. praktisch wäre die ati die passend für meine bedürfnisse an eine grafikkarte.

meine frage ist eigendlich nur, ob das AF die karte so langsam macht oder das AA?

hoffentlich bringen die mal vernünftige treiber raus. soll ja einige probleme haben.

san.salvador
2007-06-05, 07:59:40
bei mir gehts eigendlich nicht um die netteste grafik bei css. sondern es muss alles passen. wenn ich teilweise nur 50 fps im spiel hab dreh ich lieber die grafik runter als das ich in der action subjektiv ruckler wahrnehme.

genauso ist es mit AA. ich hab subjetktiv das gefühl das ich leicht unscharf sehe. ob ich das mir nur einbilde oder nicht interresiert mich nicht.
Offenbar willst du einfach kein AA.
Glückwunsch! Du kannst dir die Kohle für HD 200XT/8800 GTS getrost sparen, denn ohne AA läuft CS:S mit weitaus günstigeren Karten butterweich.

ich interressiere mich für die werte der hd 2900 xt, weil die 8800 gts zwar gut mit aa läuft, aber ohne aa rennt die hd2900 xt der Gts davon. praktisch wäre die ati die passend für meine bedürfnisse an eine grafikkarte.
Wieso fragst du überhaupt nach, wenn die die Ergebnisse ohnehin schon zu kennen glaubst?

MadManniMan
2007-06-05, 08:12:01
Vorweg: jedem das Seine! :-)

Und gleich nochmal die Frage (bitte beantworten): wofür sollte AA wohl gut sein?

bei mir gehts eigendlich nicht um die netteste grafik bei css. sondern es muss alles passen. wenn ich teilweise nur 50 fps im spiel hab dreh ich lieber die grafik runter als das ich in der action subjektiv ruckler wahrnehme.

50 fps wären mir bei Quake 3 Arena auch zu wenig gewesen, prinzipiell kann ich Dich also verstehen. Und 50 im Mittel können durchaus Ausbrecher nach unten bedeuten, in denen man es wirklich deutlich spürt. Da spricht dann absolut gar nichts dagegen, mehr Power zu wollen.
Aber hast Du Dir schonmal die Frage gestellt, ob es wirklich einen Unterschied macht, oder Du Dich nur von einem Placebo verrückt machen läßt? Ich habe damals bei Q3A mal die Frames künstlich begrenzt und merkte, daß ich irgendwo über 100 (ist zu lange her) in der selben Zeit bei einem bestimmten Botmatch am besten war. Als ich das Ganze bei Elite Force machte und dann nochmal bei UT, da merkte ich, daß ich mir ziemlich viel nur eingebildet hatte, bzw. Q3A des framesabhängigen Movements wegen noch profitierte.
Aber soweit ich weiß ist es bei CS:S nicht so.

genauso ist es mit AA. ich hab subjetktiv das gefühl das ich leicht unscharf sehe. ob ich das mir nur einbilde oder nicht interresiert mich nicht.

Setz Dich mal bei anderen Apps damit auseinander, was AA für das Bild bedeutet.
Der Mensch ist ein Gewohnheitstier - und wenn Du immer ohne AA gezockt hattest, bist Du vielleicht irritiert.

Was hast Du eigentlich für einen Monitor?

ich interressiere mich für die werte der hd 2900 xt, weil die 8800 gts zwar gut mit aa läuft, aber ohne aa rennt die hd2900 xt der Gts davon. praktisch wäre die ati die passend für meine bedürfnisse an eine grafikkarte.

Hö? Wieso sagst Du hier, daß AA die Schwäche der Karte ist...

meine frage ist eigendlich nur, ob das AF die karte so langsam macht oder das AA?

...wenn Du hier sagst, daß Du Dir dessen gar nicht so sicher bist :|
Momentan sieht es so aus, daß beides keine Stärken des R600 sind. Das AA ist verbugt und fürs AF fehlts an Füllrate.

Wenn Du ein typische AF-only Spieler bist (als den Du Dich siehst), dann ist der R600 nicht tatsächlich die richtige Wahl für Dich. AF-Monsterkarten sind die 8800er. Und das sage ich nicht, um ATi zu bashen, sondern weil es einfach im Moment so aussieht.

hoffentlich bringen die mal vernünftige treiber raus. soll ja einige probleme haben.

...und unsicher über die Treiberlage bist Du Dir auch noch? Was spricht denn so sehr für die 2900? Denk nochmal drüber nach!
Außerdem würde ich mich an Deiner Stelle Hüten, einem Wundertreiber entgegenzufiebern. Ham die Leute schon viel zu oft gemacht.

Liszca
2007-06-05, 08:51:25
*lol*, na was glaubst warum wurde AA erfunden? Weil diese "harten Kanten" nicht der Realität entsprechen. Seit wann haben leicht schräge Kanten in der Realität TREPPEN?

was mir nach der GX2 aufgefallen ist, dass es mit höherer auflösung anfängt immer sterriler zu wirken. besonders schlimm wird es dann noch mit AA wobei gerade bei egoshootern könnte man doch mal der waffe in der hand ne höhere auflösung geben als der "landschaft" um danach wieder AA drüber zu bügeln...

...jo ich weiss das geht leider nicht;D

Gast
2007-06-05, 09:36:06
Auch für AF ist eine 8800 die bessere Wahl, da sie einfach brutal viel Füllrate hat und die Architektur darauf ausgelegt ist AF möglichst günstig zu liefern.

MadManniMan
2007-06-05, 09:38:47
was mir nach der GX2 aufgefallen ist, dass es mit höherer auflösung anfängt immer sterriler zu wirken. besonders schlimm wird es dann noch mit AA wobei gerade bei egoshootern könnte man doch mal der waffe in der hand ne höhere auflösung geben als der "landschaft" um danach wieder AA drüber zu bügeln...

...jo ich weiss das geht leider nicht;D

Natürlich wird Content für eine bestimmte Auflösung gestaltet - und alles über 1280*1024 wäre illusorisch, wie ich meine.

BlacKi
2007-06-05, 09:48:39
AA ist für die kantenglättung gut.

ich kenne die unterschiedlichen ergebnisse mit aa und AF; und die ohne alles. jetzt will ich nur wissen was die hd2900 xt so langsam macht aa oder AF oder beides geleich? ich vermute das das neue AA der ati die leitstungseinbusen hervorruft, und ohne AA aber mit aFdie gtx versägen kann. dann wäre sie eine günstige alternative für mich. aber wie gesagt: ich weiß es nciht!

die hd2900 xt hat enorme leistungs einbußen mit aa und AF die der g80 chip nicht hat. das meine ich mit problemen. ich finde die ati so wie sie jetzt verkauft wird nicht marktfähig.

einige spiele laufen garnicht auf ihr(trackmania).

da die treiber der g80 serie 6monate shyce waren darf man hoffen das das bei der ati auch der fall ist. muss aber nciht.


tatsache bei css ist, das man nicht vollen output an den server hat wenn die fps zahl nicht über 100 liegt. ob das auswirkungen auf das spiel hat, ka.

mein monitor hat eine diamanttron bildröhre. 1600x1200 bei 85 hz ;) das 350€ teure lcd meines bruders(fast unspielbar, überall raster und verschwimmen) ist ein dreck gegen meinen 19er.

James Ryan
2007-06-05, 09:53:00
Bei der HD 2900 XT bricht AA etwas stärker ein, da der R600 Chip wohl Probleme (ob Hard- oder Software bedingt lasse ich mal außen vor) mit dem FSAA generell hat.
Das AF bleibt so lange perfomant wie die Füllrate nicht limitiert. Die HD 2900 XT besitzt nur 16 ROPs mit einem Takt von 743 MHz. Das kann reichen, bei Füllraten-limitierten Spielen wird dies aber eng. Kommt dann noch AF hinzu, reicht die Füllrate nicht mehr und das AF kostet dann ebenfalls viel Perfomance.
Das FSAA kann eventuell per Treiber noch gefixt werden, wenn wirklich keine Hardwarebugs Schuld sind. Die mangelnde AF Perfomance liegt an der relativ geringen Füllrate, da kann nur der R650 mit 24 oder 32 ROPs was gegen tun.

MfG :cool:

Gast
2007-06-05, 09:58:43
Der R600 hat relativ wenig Füllrate, was einen größeren Einbruch bei AF verursacht. G80 hingegen ist wie geschaffen für den Einsatz von AF.

Außerdem würde ich nicht auf einen Wundertreiber für den R600 hoffen. Das wird nicht passieren, da es wohl an der Hardware krankt.

seahawk
2007-06-05, 09:58:47
Laut aktueller PCGH liegt die X2900XT ohne AA (und wenn die treiber nicht bocken) fast auf dem Niceau einer 8800GVTX.

Gast
2007-06-05, 09:59:17
Laut aktueller PCGH liegt die X2900XT ohne AA (und wenn die treiber nicht bocken) fast auf dem Niceau einer 8800GVTX.Und da wurde auch mit AF getestet? Afaik nämlich nicht.

James Ryan
2007-06-05, 10:01:41
Laut aktueller PCGH liegt die X2900XT ohne AA (und wenn die treiber nicht bocken) fast auf dem Niceau einer 8800GVTX.

Sorry, aber die PCGH wird sicher nur mit dem Launchtreiber getestet haben, es ist in den letzten Wochen soviel passiert, da kann ein Printmagazin gar nicht hinterher kommen.
Und wen interessieren denn bitte bei einer G80/R600 Benches ohne AA und AF? :rolleyes:

MfG :cool:

seahawk
2007-06-05, 10:08:22
Ja, ohne AA+AF.

Wenn ich nur AF nutzen würde, dann würde ich auf Grund der schärferen Filterung immer zu der ATI greifen. Da wären mir die Benchmarks egal, schnell genug sind beide Karten.

MadManniMan
2007-06-05, 10:18:32
Blacki,

wie schon gesagt, AF erscheint dem R600 fast noch mehr zuzusetzen.
Indizien: lies das Review von der Computerbase. STALKER funktioniert nicht mit AA, dementsprechend wird nu AF gebencht - und das bricht richtig übel ein.

Wenn ich nur AF nutzen würde, dann würde ich auf Grund der schärferen Filterung immer zu der ATI greifen. Da wären mir die Benchmarks egal, schnell genug sind beide Karten.

Hast Du beide schon live gesehen?

Ich werd aus Dir nicht schlau.

Lightning
2007-06-05, 10:20:43
Laut aktueller PCGH liegt die X2900XT ohne AA (und wenn die treiber nicht bocken) fast auf dem Niceau einer 8800GVTX.

Könnte das dann nicht eher an CPU-Limitierung liegen?

Gast
2007-06-05, 10:21:16
Wenn ich nur AF nutzen würde, dann würde ich auf Grund der schärferen Filterung immer zu der ATI greifen. Da wären mir die Benchmarks egal, schnell genug sind beide Karten.Erzähl doch nicht immer solchen Unfug. Das AF ist auf G80 sogar minimal besser als die ATIs unter AI-Off.

A.Wesker
2007-06-05, 10:28:11
Der R600 hat relativ wenig Füllrate, was einen größeren Einbruch bei AF verursacht. G80 hingegen ist wie geschaffen für den Einsatz von AF.

Außerdem würde ich nicht auf einen Wundertreiber für den R600 hoffen. Das wird nicht passieren, da es wohl an der Hardware krankt.

deutlich schlechter peformen tun nur die Source Engine, Far Cry und Call of Duty 2. Durch die neuen Treiber wurde in vielen Games die AA Performance schon bis zu 60 % gesteigert, sodass die Karte vorallem vor der GTS nicht mehr verstecken braucht.

Die DX10 Benches von CoH sollte man net ernst nehmen, da CoH mit DX10 auf dem R600 bisher nicht ohne Grafikfehler läuft, sodass eine Messung verfälscht wird.

Gast
2007-06-05, 10:39:10
deutlich schlechter peformen tun nur die Source Engine, Far Cry und Call of Duty 2. Andere R600-Besitzer berichten da anderes.

A.Wesker
2007-06-05, 10:50:19
Andere R600-Besitzer berichten da anderes.
links bitte

seahawk
2007-06-05, 11:02:29
Blacki,

wie schon gesagt, AF erscheint dem R600 fast noch mehr zuzusetzen.
Indizien: lies das Review von der Computerbase. STALKER funktioniert nicht mit AA, dementsprechend wird nu AF gebencht - und das bricht richtig übel ein.

Hast Du beide schon live gesehen?

Ich werd aus Dir nicht schlau.

Ja, durch die LOD Beeinflussung von ATI ist es schärfer neigt aber eben auch eher zum flimmern. Wenn jemand allerdings schon den Einsatz von AA als Unschärfe wahrnimmt, dann solte ihm das AF von ATI besser gefallen.

Gast
2007-06-05, 11:11:35
Welche LOD Beeinflussung von ATI?
Solange man nicht am LOD-Bias spielt liegt der LOD genau da wo er soll, bei ATI wie bei Nvidia.

MadManniMan
2007-06-05, 11:15:58
Ja, durch die LOD Beeinflussung von ATI ist es schärfer neigt aber eben auch eher zum flimmern. Wenn jemand allerdings schon den Einsatz von AA als Unschärfe wahrnimmt, dann solte ihm das AF von ATI besser gefallen.

Aaaah! Erkenntnis.

Ich wußte doch, daß man bei Dir immer ein bisschen tiefer denken sollte, als beim Durchschnittsposter. So ergibt das Ganze Sinn :D

Gast
2007-06-05, 17:00:23
ich kenne die unterschiedlichen ergebnisse mit aa und AF; und die ohne alles. jetzt will ich nur wissen was die hd2900 xt so langsam macht aa oder AF oder beides geleich? ich vermute das das neue AA der ati die leitstungseinbusen hervorruft, und ohne AA aber mit aFdie gtx versägen kann. dann wäre sie eine günstige alternative für mich. aber wie gesagt: ich weiß es nciht!

mal die theorie: dank der hohen bandbreite sollte der R600 eigentlich wie geschaffen sein AA ohne große inbrüche darstellen zu können, in der praxis sieht es zumindest im moment anders aus und die karte bricht mit FSAA massiv ein.

AF kann der R600 nicht wirklich schnell können, dazu fehlt ihm die füllrate, dementsprechend bricht er auch hier verdammt stark ein. (siehe skalierungstests bei computerbase)
dabei ist noch zu beachten dass der R600 selbst mit AI-off (was nochmal sehr viel leistung kostet) nicht mal an die flimmerfreiheit des G8x-AF rankommt.

BlacKi
2007-06-05, 18:21:09
also jetzt sprechen wir mal tacheles ;) das wollte ich wissen. was lod weiß ich noch nicht, aber google weiß alles immer besser... ich werde dafür den großen google befragen:)

also gut, dann werde ich eventuell die 650 er chips abwarten oder zur GTS greifen.

frisst AA eigendlich grafikspeicher? kann ich dann getrost zur 320mb version greifen?

wird durch sli die füllrate eigendlich größer?

Gast
2007-06-05, 18:25:13
wird durch sli die füllrate eigendlich größer?Ja, natürlich. Theoretisch verdoppelt sie sich sogar.
frisst AA eigendlich grafikspeicher? kann ich dann getrost zur 320mb version greifen?Ja, MSAA frisst ordentlich VRAM.

Gast
2007-06-05, 18:29:37
Das AF bleibt so lange perfomant wie die Füllrate nicht limitiert. Die HD 2900 XT besitzt nur 16 ROPs mit einem Takt von 743 MHz. Das kann reichen, bei Füllraten-limitierten Spielen wird dies aber eng. Kommt dann noch AF hinzu, reicht die Füllrate nicht mehr und das AF kostet dann ebenfalls viel Perfomance.
Das FSAA kann eventuell per Treiber noch gefixt werden, wenn wirklich keine Hardwarebugs Schuld sind. Die mangelnde AF Perfomance liegt an der relativ geringen Füllrate, da kann nur der R650 mit 24 oder 32 ROPs was gegen tun.Nicht vergessen, zwischen Pixelfüllrate und Texelfüllrate zu unterscheiden, beim AA kommt noch die Samplefüllrate hinzu. Pixelfüllrate und Samplefüllrate hängen an den ROPs/RBEs, Texelfüllrate hängt an den TMUs. Samplefüllrate braucht man (theoretisch) für hohe MSAA-Modi, praktisch limitiert die nie. Pixelfüllrate limitiert höchstens bei extrem hohem Overdraw oder SSAA in Verbindung mit - ähm - zweckmäßiger *hust* Grafik. Wirklich praktisch relevant ist eigentlich nur die Texelfüllrate, die 0,nix mit den ROPs/RBEs zu tun hat.

BlacKi
2007-06-05, 19:48:33
sacht mal, eigendlich würde ich gern mal selbst in den laden gehen und meine auswahl verschiedener produkte mitnehmen und testen;) die die ich am besten finde behalt ich den rest bring ich zurück:) hat das schonmal jemand gemacht? da hätte ich dann endlich ruhe und bräuchte mich nciht ständig zu fragen welche besser ist.

Gast
2007-06-05, 20:05:28
nunja, sofern du deine produkte im versandhandel bestellst hast du sowieso ein 14-tägiges rückgaberecht, während der zeit du das produkt testen kannst.

BlacKi
2007-06-05, 21:02:11
mhh, stimmt. ich glaube das werde ich mal mit 3-4 karten machen. ne woche urlaub dazu nehmen;)

Gast
2007-06-06, 06:42:04
nunja, sofern du deine produkte im versandhandel bestellst hast du sowieso ein 14-tägiges rückgaberecht, während der zeit du das produkt testen kannst.Das ist aber bestimmt nicht dafür gedacht, dass man sich 4 Karten bestellt und die beste behält. Man kann sich vor dem Kauf einer Grafikkarte auch einfach ordentlich informieren, dann braucht man solche Sachen nicht machen. Was soll der Händler denn deiner Meinung nach mit den "getesteten" Karten machen? Dem nächsten Kunden als neu verkaufen? Aber selbst am lautesten schreien, wenn man gebrauchte Hardware bekommt.

BlacKi
2007-06-06, 06:49:05
was meinst du wozu dieses thema da ist??? ich informiere mich. aber die informationen die ich wollte hab ich immernoch nicht :( nur theoretisch. deswegen mein gedanke praktische erfahrungen zu machen ;)

Gast
2007-06-06, 07:02:39
Welche Informationen fehlen dir denn? Wurde doch alles beantwortet. Der R600 bricht bei Nutzung von AF deutlich stärker ein als der G80. Die Gründe dafür liegen darin, dass R600 kaum Füllrate hat, während G80 ein wahres Füllratenmonster ist, dessen Architektur auch voll auf AF ausgelegt wurde.

BlacKi
2007-06-06, 09:17:20
tja aber in welchem ausmaß ist nur schätzen. naja. eigentlich reicht das auch.

James Ryan
2007-06-06, 09:42:26
Möchtest du jetzt und heute deine Spiele ohne Treiberstress spielen? Möchtest du keine Experimente sondern einfach eine Graka die für die nächste Zeit locker reicht? Wenn ja, dann nimm eine Gf 8800 GTS.
Tüftelst du gern, hast Lust auf was neues und magst du die Farbe rot, dann nimm eine HD 2900 XT.

MfG :cool:

san.salvador
2007-06-06, 09:48:57
Stimmt.

G80 = Bausparvertrag
R600 = Aktie

:D

Gast
2007-06-06, 10:23:31
wenn du ein ATI fan bist, dann bestell dir einfach die HD 2900 XT.
und wenn irgendwas wirklich nicht geht, oder nicht so ist, wie du möchtest, dann kannst du sie innerhalb 14 tagen wieder zurück geben.

Gast
2007-06-06, 16:07:22
Das ist aber bestimmt nicht dafür gedacht, dass man sich 4 Karten bestellt und die beste behält.


natürlich ist das rückgaberecht dafür gedacht das produkt eine ausreichende zeit testen zu können und nicht die katze im sack kaufen zu müssen.
wenn ich mir eine hose bestelle und die mir nicht passt/gefällt schick ich sie auch zurück.


Man kann sich vor dem Kauf einer Grafikkarte auch einfach ordentlich informieren, dann braucht man solche Sachen nicht machen.


vertrauen ist gut, kontrolle ist besser.


Was soll der Händler denn deiner Meinung nach mit den "getesteten" Karten machen? Dem nächsten Kunden als neu verkaufen?


natürlich, die getestete karte wird dadurch ja in keinster weise im wert gemindert. ich gehe natürlich davon aus das ein normaler mensch, wenn er gedenkt das produkt möglicherweise zurückzuschicken, damit auch entsprechend vorsichtig umgeht und es auch innerhalb der spezifikationen betreibt.


Aber selbst am lautesten schreien, wenn man gebrauchte Hardware bekommt.

ich habe kein problem ein produkt zu bekommen, welches schon mal in einem anderen rechner eingebaut war, so lange es keine beschädigungen (und damit mein ich nicht unvermeidbare kleine kratzer beispielsweise an den anschlüssen, die ja sowieso auf der karte sind wenn ich meinen monitor anschließe) aufweist.

Gast
2007-06-06, 16:11:03
tja aber in welchem ausmaß ist nur schätzen. naja. eigentlich reicht das auch.


schau die skalierungstests bei computerbase an.

mit voller qualität bricht der G80 beim AF-einsatz in maximaler qualität maximal 20-25% einbricht sind es beim R600 50-55%

A.Wesker
2007-06-06, 16:33:37
Bei folgenden Tests habe ich fordernde Szenen von Spielen getestet, sodass man diese fast als MinFPS ansehen kann!


1920x1200 AI->off HQ Cat7.5


Stalker
0AA/0AF --> 60 FPS
0AA/16AF --> 35 FPS
4AA/0AF --> /
4AA/16AF --> /

Battlefield 2:
0AA/0AF --> 146 FPS
0AA/16AF --> 108 FPS
4AA/0AF --> 90 FPS
4AA/16AF --> 75 FPS

Call of Juarez:
0AA/0AF --> 122 FPS
0AA/16AF --> 90 FPS
4AA/0AF --> 55 FPS
4AA/16AF --> 47 FPS

Call of Duty 2:
0AA/0AF --> 116 FPS
0AA/16AF --> 59 FPS
4AA/0AF --> 70 FPS
4AA/16AF --> 43 FPS

FEAR:
0AA/0AF --> 145 FPS
0AA/16AF --> 135 FPS
4AA/0AF --> 73 FPS
4AA/16AF --> 70 FPS

Test Drive Unlimited:
0AA/0AF --> 86 FPS
0AA/16AF --> 78 FPS
4AA/0AF --> 62 FPS
4AA/16AF --> 57 FPS

Doom 3:
0AA/0AF --> 178 FPS
0AA/16AF --> 174 FPS
4AA/0AF --> 119 FPS
4AA/16AF --> 117 FPS


System:
QX6700 @ 4.05 GHz (450x9 1:1 4-3-2-9 -- 4-4-4-30-6-7-15)
P35-DQ6
2900XT @ 890/999

Spasstiger
2007-06-06, 17:12:27
Doom 3:
0AA/0AF --> 178 FPS
0AA/16AF --> 174 FPS
4AA/0AF --> 119 FPS
4AA/16AF --> 117 FPS
Warum haut denn AF hier so wenig rein im Vergleich zu den anderen Spielen?
Generell rennt die 2900 XT ja ungewöhnlich schnell unter OpenGL und überflügelt bei extremen Settings (2560x1600, 8xAA) sogar eine GeForce 8800 Ultra (bei spielbaren fps natürlich).

PCGH_Raffael
2007-06-06, 17:15:01
dabei ist noch zu beachten dass der R600 selbst mit AI-off (was nochmal sehr viel leistung kostet) nicht mal an die flimmerfreiheit des G8x-AF rankommt.

Das liegt gemäß unserer Tests primär daran, dass A.I. Off auf dem R600 nicht mehr dem A.I. Off auf einem R5x0 entspricht. Während Letzterer bei deaktiviertem A.I. sauber und praktisch flimmerfrei filtert, gibt sich A.I. Off auf einer HD2900 XT flimmernd und eindeutig "optimiert" (wenn auch etwas besser als mit A.I. On). Ob das nun ein Treiberbug ist (Cat. 7.5) oder eine naheliegende Füllraten-Sparmaßnahme, bleibt unklar.

Auf www.pcghw.de wird es dazu morgen einen ausführlichen Bildvergleich geben.

MfG,
Raff

A.Wesker
2007-06-06, 17:30:32
Warum haut denn AF hier so wenig rein im Vergleich zu den anderen Spielen?
Generell rennt die 2900 XT ja ungewöhnlich schnell unter OpenGL und überflügelt bei extremen Settings (2560x1600, 8xAA) sogar eine GeForce 8800 Ultra (bei spielbaren fps natürlich).
Bei FEAR, Quake 4 und Prey sieht es ähnlich aus, SS2 läuft im OpenGL Modus um knapp 100% schneller bei 1920x1200 4AA/16AF (ohne HDR) als im DX-Modus. Nach meinen bisherigen Erfahrungen hat AF bei der Doom 3 Engine nie groß Leistung gekostet (von 6800 Ultra an).

Spasstiger
2007-06-06, 17:33:36
Nach meinen bisherigen Erfahrungen hat AF bei der Doom 3 Engine nie groß Leistung gekostet (von 6800 Ultra an).
Bei meiner Radeon 9700 war der Einbruch durch AF durchaus beachtlich, schon 4:1 AF kostete ca. 15-20% der fps.

Der_Korken
2007-06-06, 17:41:59
Ich denke mal, das hängt davon ab, welche speziellen Anforderungen die einzelnen Spiele stellen. Wenn das Spiel häufig an der Shader-Leistung hängt, wird AF auch nicht so teuer sein. Wenn allerdings von vornherein die TMUs limitieren, dann haut AF gleich doppelt rein. Man beachte CoD2, das ja ziemlich hoch aufgelöste Texturen hat. Kein Wunder, dass AF hier teuer ist.

Lightning
2007-06-06, 17:45:03
Gerade beim AF sollte man auch immer dazuschreiben, ob es im Spiel eingestellt oder über den Treiber geforct wurde. Ersteres kann je nach Spiel performanter, aber auch unschöner sein.

BlacKi
2007-06-06, 17:54:02
erhöht sich durch übertakten die füllrate?

Spasstiger
2007-06-06, 17:55:26
erhöht sich durch übertakten die füllrate?
Türlich. Höhere Taktraten erhöhen alle Eckdaten eines Chips.

Raff
2007-06-06, 17:56:06
erhöht sich durch übertakten die füllrate?

Klar. Eine übertaktete GPU berechnet AF schneller.

€dit: Argh. :biggrin: Hat das echt 30 Sekunden gedauert? Blödes Einloggen ...

MfG,
Raff

A.Wesker
2007-06-06, 18:08:49
Gerade beim AF sollte man auch immer dazuschreiben, ob es im Spiel eingestellt oder über den Treiber geforct wurde. Ersteres kann je nach Spiel performanter, aber auch unschöner sein.
AF ist immer im Treiber geforced, AA unterschiedlich, da es bei CoJ, BF2 und TDU nur aktiviert ist, wenn man es inGame einstellt.

Spasstiger
2007-06-06, 18:11:27
Bei Doom 3 muss man etwas aufpassen, das ist ab der High-Quality-Einstellung im Spiel automatisch 4:1 AF aktiv. Kann man aber in der ini ausschalten.

Gast
2007-06-06, 18:18:32
Ersteres kann je nach Spiel performanter, aber auch unschöner sein.

im gegenteil, wenn man AF im spiel einstellt ist es möglicherweise schneller und schöner, da dann z.b. AT-texturen kein AF abbekommen, da sie dadurch noch mehr flimmern würden und auch look-up-tables mit AF einzulesen ist nicht nur leistungsmäßig ein blödsinn sondern kann den wert drinnen auch verfälschen.
AF sollte man nur über den treiber erzwingen wenn es nicht anders möglich ist.

Lightning
2007-06-06, 18:35:39
im gegenteil, wenn man AF im spiel einstellt ist es möglicherweise schneller und schöner, da dann z.b. AT-texturen kein AF abbekommen, da sie dadurch noch mehr flimmern würden und auch look-up-tables mit AF einzulesen ist nicht nur leistungsmäßig ein blödsinn sondern kann den wert drinnen auch verfälschen.
AF sollte man nur über den treiber erzwingen wenn es nicht anders möglich ist.

Das deckt sich nicht mit meinen Erfahrungen. Ich kenne einige Spiele, bei denen ingame-AF schlechter aussieht.
Wie es mit Alpha-Testing aussieht weiß ich nicht genau, aber sorgt AF nicht nur dafür, dass diese auch bei größerer "Entfernung" bzw. Verzerrung noch vernünftig sichtbar sind, wie bei normalen Texturen auch? Dass diese Texturen dann mehr Flimmern als wenn sie praktisch gar nicht mehr sichtbar sind, sollte klar sein, aber ob man das nun als bessere Bildqualität wertet ist eine andere Geschichte.

Mr. Lolman
2007-06-06, 18:59:38
im gegenteil, wenn man AF im spiel einstellt ist es möglicherweise schneller und schöner, da dann z.b. AT-texturen kein AF abbekommen, da sie dadurch noch mehr flimmern würden und auch look-up-tables mit AF einzulesen ist nicht nur leistungsmäßig ein blödsinn sondern kann den wert drinnen auch verfälschen.
AF sollte man nur über den treiber erzwingen wenn es nicht anders möglich ist.

Manche Spiele vergessen anscheinend dabei den Mipmapfilter auf linear zu stellen => biAF. Außerdem sollten Apps konsequenterweise auch den Magfilter auf anisotrop stellen, was sie afaik auch nicht alle machen...

BlacKi
2007-06-06, 19:16:51
d.h. wenn ich den g80übertakte, steigt die füllrate um einiges höher als die bei der hd2900 xt. noch ein plus für den g80

Gast
2007-06-06, 19:27:40
Wie es mit Alpha-Testing aussieht weiß ich nicht genau, aber sorgt AF nicht nur dafür, dass diese auch bei größerer "Entfernung" bzw. Verzerrung noch vernünftig sichtbar sind, wie bei normalen Texturen auch?

AF sorgt quasi durch überfilterung in der verzerrungsrichtung dass die nächstkleinere mip erst später zum einsatz kommen kann ohne dass es flimmert.
bei AT-texturen passiert im prinzip das gleiche nur dass die überfilterung real garnicht stattfindet, da ein großer teil der zusätzlichen texel einfach löcher sind, die keinen einfluss auf das endergebnis haben. die mipverschiebung findet aber trotzdem statt, daher gibt es auch entsprechend mehr flimmern.

Manche Spiele vergessen anscheinend dabei den Mipmapfilter auf linear zu stellen => biAF.

wirklich, mir ist keines bekannt und ich kann mir kaum vorstellen dass ein entwickler, wenn er sich schon die mühe macht einen AF-schalter einzubauen dann auf die Tri-filterung vergisst.

Außerdem sollten Apps konsequenterweise auch den Magfilter auf anisotrop stellen, was sie afaik auch nicht alle machen...


stimmt, das sollte aber zumindest bei NV kein problem sein, da der treiber meines wissens den magfilter automatisch auf anisotrop stellt, wenn der minfilter auf anisotrop gestellt wird.

A.Wesker
2007-06-06, 19:39:00
d.h. wenn ich den g80übertakte, steigt die füllrate um einiges höher als die bei der hd2900 xt. noch ein plus für den g80
die limitiert beim G80 eh nicht mehr.

Gast
2007-06-06, 19:50:50
die limitiert beim G80 eh nicht mehr.So nicht ganz korrekt. Sie limitiert selten, aber manchmal eben schon. Vor allem bei älteren Spielen, wenn man neben AF noch massig SSAA reinbuttert, ist sie sicher die limitierende Komponente.

Lightning
2007-06-06, 20:04:41
AF sorgt quasi durch überfilterung in der verzerrungsrichtung dass die nächstkleinere mip erst später zum einsatz kommen kann ohne dass es flimmert.
bei AT-texturen passiert im prinzip das gleiche nur dass die überfilterung real garnicht stattfindet, da ein großer teil der zusätzlichen texel einfach löcher sind, die keinen einfluss auf das endergebnis haben. die mipverschiebung findet aber trotzdem statt, daher gibt es auch entsprechend mehr flimmern.

Hast du Beispiele, an welchen Spielen man das sehen kann?


wirklich, mir ist keines bekannt und ich kann mir kaum vorstellen dass ein entwickler, wenn er sich schon die mühe macht einen AF-schalter einzubauen dann auf die Tri-filterung vergisst.

Ich habe schon öfter von solchen Späßen gehört. Muss ja nicht mal rein bilinear sein, sondern u.U. auch "brilinear". Habe jetzt leider kein konkretes Beispiel parat, erinnere mich nur an Aussagen einiger Member hier im Forum. Vielleicht kann ein anderer mehr dazu sagen.

Etwas ähnliches konnte ich jedenfalls mit dem AF meiner Radeon 9700 Pro in Doom 3 erleben *klick* (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2129948#post2129948). Mit meiner jetzigen 8800 will er momentan überhaupt kein AF in Doom 3 forcieren, daher weiß ich nicht, ob das immer noch so ist. Evtl. später mal Rechner neustarten.

Weiterhin gibt es auch Spiele, die eben nicht alle Texturen anisotrop Filtern, bei denen man das eigentlich gerne haben würde. Beispiel ist hier die komplette Trackmania-Reihe. Mit dem Ingame-AF kriegt man da so einige Bodentexturen nicht gefiltert, die man aber häufig genug zu gesicht bekommt.

Gast
2007-06-06, 20:12:14
die limitiert beim G80 eh nicht mehr.


momantan schon noch teilweise.

bei anandtech gibt es einige skalierungstests, die zeigen dass bei einem großteil der spiele die perfomance mit dem haupttakt stärker skaliert als mit dem shadertakt.

Gast
2007-06-06, 20:18:28
Hast du Beispiele, an welchen Spielen man das sehen kann?


HL2 beispielsweise, da werden die zäune mit Treiber-AF wesentlich schneller unsichtbar.


Ich habe schon öfter von solchen Späßen gehört. Muss ja nicht mal rein bilinear sein, sondern u.U. auch "brilinear".

brilinear kann kein spiel machen, lediglich der treiber reduziert, falls die anwendung trilinear anfordert, mit standardeinstellungen die filterung zu brilinear.


Etwas ähnliches konnte ich jedenfalls mit dem AF meiner Radeon 9700 Pro in Doom 3 erleben *klick* (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2129948#post2129948). Mit meiner jetzigen 8800 will er momentan überhaupt kein AF in Doom 3 forcieren, daher weiß ich nicht, ob das immer noch so ist. Evtl. später mal Rechner neustarten.
[/quote]

was hier los ist weiß ich nicht, allerdings lässt sich bei der doom3-engine über die variablen "image_anisotropy" und "image_filter" einwandfrei korrektes AF einstellen, auch bei meiner 8800.

Mr. Lolman
2007-06-06, 20:31:27
HL2 beispielsweise, da werden die zäune mit Treiber-AF wesentlich schneller unsichtbar.


Lustigerweise passiert das bei aktivem EATM nichtmehr.

reunion
2007-06-06, 20:35:36
bei anandtech gibt es einige skalierungstests, die zeigen dass bei einem großteil der spiele die perfomance mit dem haupttakt stärker skaliert als mit dem shadertakt.

Der "Haupttakt" beschleunigt auch alles, vom Triangle-Setup bis zu den ROPs. Kein Wunder, dass der Chip da besser skaliert. Allerdings gibt es durchaus einige Anwendungen wo G80 ganz klar an den ALUs hängt, wie sich bei den Skalierungstests zeigt.

Gast
2007-06-06, 20:38:41
Der "Haupttakt" beschleunigt auch alles, vom Triangle-Setup bis zu den ROPs. Kein Wunder, dass der Chip da besser skaliert.

die allerdings allesamt keinen flaschenhals darstellen sollten (wenn doch ist was im chipdesign schiefgelaufen)

Ri*g*g*er
2007-06-06, 22:53:06
Hi all,

was mich immer noch sehr stört, ist die Aussage das A.I. Off so gut wie keine Leistung kostet. Rede hier vom 580/X1900XT etc.

Mein Beispiel: Battlefield 2 oder 2142

Einstellungen:

Auflösung 1920 x 1200
Vsync ON
Triple Buffering mit Hilfe den Try Tools aktiviert
AA 2 - InGame
AF 16 HQ im Treiber

wenn man das einmal mit A.I. low sprich normal
und dann mit A.I. off testet.

Werdet Ihr mal sehen das es wesentlich mehr FPS Brüche als 5~10 % sind.
Es sind eher Einbrüche um bis zu 50 % je nach Map bzw. ob z.b. im Flieger etc.

Mal ganz davon abgesehen, das bei A.I. On im mittleren Bild eine schöne Welle vor sich hergeschoben wird.

Meine Vermutung:

Die Rechenpower reicht einfach nicht um mit den oben genannten Werten und wirklich schönem AF zu zocken.
Außerdem wird auf manchen Maps der Grafikspeicher vollständig aufgebraucht was nicht gerade vorteilhaft ist.
Das kommt natürlich auch durch Vsync + Trible Buffering.

Leider ist die Battlefield Serie sehr schwer zu benchen sonst würde man das sehr leicht testen können.

Vieleicht könnte mal jemand mit ner 600/2900 XT nen Test starten.

Mfg
Ri*g*g*er

A.Wesker
2007-06-06, 23:14:47
beim R600 macht es so gut wie keinen Unterschied, ob AI on oder off ist. Das liegt wahrscheinlich daran, daß bei AI off trotzdem noch Optimierungen aktiv sind. Das Bild ist aber ziemlich ruhig.

Flashpoint
2007-06-06, 23:47:55
beim R600 macht es so gut wie keinen Unterschied, ob AI on oder off ist. Das liegt wahrscheinlich daran, daß bei AI off trotzdem noch Optimierungen aktiv sind. Das Bild ist aber ziemlich ruhig.


Das liegt gemäß unserer Tests primär daran, dass A.I. Off auf dem R600 nicht mehr dem A.I. Off auf einem R5x0 entspricht. Während Letzterer bei deaktiviertem A.I. sauber und praktisch flimmerfrei filtert, gibt sich A.I. Off auf einer HD2900 XT flimmernd und eindeutig "optimiert" (wenn auch etwas besser als mit A.I. On). Ob das nun ein Treiberbug ist (Cat. 7.5) oder eine naheliegende Füllraten-Sparmaßnahme, bleibt unklar.

Auf www.pcghw.de wird es dazu morgen einen ausführlichen Bildvergleich geben.

MfG,
Raff




Das schrieb der gute Raff dazu;)

Was soll man denn nun jetzt endlich glauben?
Das was Wesker und 3DC-Team sagen oder PCGH (Raff).

tombman
2007-06-07, 00:04:20
Bei folgenden Tests habe ich fordernde Szenen von Spielen getestet, sodass man diese fast als MinFPS ansehen kann!


1920x1200 AI->off HQ Cat7.5


Stalker
0AA/0AF --> 60 FPS
0AA/16AF --> 35 FPS
4AA/0AF --> /
4AA/16AF --> /

Battlefield 2:
0AA/0AF --> 146 FPS
0AA/16AF --> 108 FPS
4AA/0AF --> 90 FPS
4AA/16AF --> 75 FPS

Call of Juarez:
0AA/0AF --> 122 FPS
0AA/16AF --> 90 FPS
4AA/0AF --> 55 FPS
4AA/16AF --> 47 FPS

Call of Duty 2:
0AA/0AF --> 116 FPS
0AA/16AF --> 59 FPS
4AA/0AF --> 70 FPS
4AA/16AF --> 43 FPS

FEAR:
0AA/0AF --> 145 FPS
0AA/16AF --> 135 FPS
4AA/0AF --> 73 FPS
4AA/16AF --> 70 FPS

Test Drive Unlimited:
0AA/0AF --> 86 FPS
0AA/16AF --> 78 FPS
4AA/0AF --> 62 FPS
4AA/16AF --> 57 FPS

Doom 3:
0AA/0AF --> 178 FPS
0AA/16AF --> 174 FPS
4AA/0AF --> 119 FPS
4AA/16AF --> 117 FPS


System:
QX6700 @ 4.05 GHz (450x9 1:1 4-3-2-9 -- 4-4-4-30-6-7-15)
P35-DQ6
2900XT @ 890/999

OMG, der AF fps Verlust ist brutal :eek:

Sowas ist nicht mehr zeitgemäß, 16xAF kostet schon seit Generationen "fast nix mehr"...

Gast
2007-06-07, 00:11:46
Unter OpenGL verliert er aber fast nichts. Woran liegt das?

Ich denke ohne dieses Handicap wäre die GTS klar geschlagen, speziell wenn dann noch die übertakteten Karten kommen!

raffa
2007-06-07, 01:03:33
OMG, der AF fps Verlust ist brutal :eek:

Sowas ist nicht mehr zeitgemäß, 16xAF kostet schon seit Generationen "fast nix mehr"...

irgendwie schon seltsam, den Einbruch bei 4xAA find ich allerdings wegen der ja enormen Bandbreite noch unverständlicher. Und wie die OpenGL Werte andeuten, ist beim AF vieleicht auch noch was zu retten, beim 4xAA sind auch die OpenGL Werte mies bzw der Einbruch zu hoch.

Unter OpenGL verliert er aber fast nichts. Woran liegt das?


würde mich auch interessieren, wieso das so ist.

Coda
2007-06-07, 01:39:22
Das kann auch schlicht und einfach an den Engines liegen. Alle OpenGL-Engines beschränken sich grad eigentlich auf Stencil-Shadow-Zeug.

Gast
2007-06-07, 11:06:12
Sowas ist nicht mehr zeitgemäß, 16xAF kostet schon seit Generationen "fast nix mehr"...

was allerdings auch daran liegt dass wir bis vor kurzem nie "echtes" 16xAF zu sehen bekamen.

war ja zu erwarten, ATI hängt ja schließlich immerhin seit R420 an 16TMUs, das kann irgendwann nicht mehr gut gehen, so tolle filtertricks können die garnicht aus dem hut zaubern.

PCGH_Raffael
2007-06-07, 13:38:43
Das schrieb der gute Raff dazu;)

Was soll man denn nun jetzt endlich glauben?
Das was Wesker und 3DC-Team sagen oder PCGH (Raff).

Offenbar kann jeder seine Beobachtungen beweisen. ;) Die Aussage bezieht sich auf brandneue Betrachtungen mit dem Catalyst 7.5 und ist sowohl in stehendem als auch bewegtem Bild dokumentiert. Die Bilder gehen nachher online.

Vielleicht änderte sich die BQ mit den neueren Treibern?

MfG,
Raff