PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : wieviel leistung benötigt aa & anisotropes filtering?


Neon3D
2010-07-27, 02:32:38
also mich würde mal interessieren, wieviel leistung aa & af verbraucht.

gibt es so einen vergleichstest, wo man jeweils eine kleine, mittlere und hohe auflösung als basis hat und dann jeweils die af von 2x bis auf 16x hoch geht, wobei einmal ohne aa und einmal mit aa alles verglichen wird?

ich möchte z.b. wissen, ob z.b. 2xaf 5% kostet, 8xaf ca.10% usw. bei einer auflösung von 1280x1024, einmal ohne aa und einmal mit vorhandenem aa. dann das gleiche mit aa, also 2xaa kostet 15%, 4xaa 20% bei 0xaf und bei 4xaf.

Konami
2010-07-27, 03:03:49
Das ist doch individuell verschieden von Graka zu Graka. Je nachdem, ob der VRAM ausreicht oder nicht und wie groß die Speicherbandbreite ist.

Aber eins kann ich dir generell sagen: AF braucht weit weniger Leistung als AA – 8x AF geht eigentlich immer, und selbst 16x AF zieht nicht dramatisch viel Performance.

CryFreak
2010-07-27, 04:23:06
also mich würde mal interessieren, wieviel leistung aa & af verbraucht.

gibt es so einen vergleichstest, wo man jeweils eine kleine, mittlere und hohe auflösung als basis hat und dann jeweils die af von 2x bis auf 16x hoch geht, wobei einmal ohne aa und einmal mit aa alles verglichen wird?

ich möchte z.b. wissen, ob z.b. 2xaf 5% kostet, 8xaf ca.10% usw. bei einer auflösung von 1280x1024, einmal ohne aa und einmal mit vorhandenem aa. dann das gleiche mit aa, also 2xaa kostet 15%, 4xaa 20% bei 0xaf und bei 4xaf.


AF schluckt vielleicht 5 % Leistung, jedenfalls nicht so viel, dass es sich lohnen würde es zu reduzieren oder gar auszuschalten.

AA kann die fps schon mal halbieren oder dritteln, je nachdem wie potent eine Karte ist.

Kann man ganz genau aber schwer sagen.

G A S T @work
2010-07-27, 08:16:05
AF schluckt auf modernen Karten
bei Nvidia ab G80/G92(b) und bei ATI ca.
ab der HD 4000er-Serie so gut wie überhaupt keine Leistung.

Wer hier also nicht auf 16xAF schaltet, ist selber schuld.

Bei AA sieht die Sache allderings anders aus,
da kann ich nur Konamis erstem Satz nur zustimmen.

Außerdem - von welchem AA sprichst du?
SSAA oder MSAA oder andere Mischmodi?

Du siehst also - so einfach ist die Sache nicht...

Iceman346
2010-07-27, 08:54:07
Natürlich nicht allgemeingültig sondern von Spiel zu Spiel verschieben, aber gibt nen groben Eindruck:

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests

AF kostet also praktisch nichts, AA kann teilweise massiv Leistung kosten.

Raff
2010-07-27, 09:10:28
Crysis ist shaderlastig. In anderen Fällen, vor allen Dingen älteren Spielen, kann AF auf einer aktuellen GeForce bis zu 20 Prozent kosten (16:1 HQ anstatt trilinear); eine HD 5000 bricht durchschnittlich weniger ein.

MfG,
Raff

Palpatin
2010-07-27, 10:29:54
Crysis ist shaderlastig. In anderen Fällen, vor allen Dingen älteren Spielen, kann AF auf einer aktuellen GeForce bis zu 20 Prozent kosten (16:1 HQ anstatt trilinear); eine HD 5000 bricht durchschnittlich weniger ein.

MfG,
Raff
20% ist schon extrem heftig, wieviel bringts da ca auf 8x Q runterzugehen? Der Unterschied zwischen 16 und 8 glaub ich ist recht minimal oder?

harzer_knaller
2010-08-01, 11:44:49
@Raff: bis zu 20%? Hast du da mal Zahlen parat? Weil ich als Laie denke mir, wenn massig Texturierleistung vorhanden ist (mehr als die GPU auf den Schirm bringen kann?), dann ist AF quasi kostenlos. Oder liege ich da jetzt falsch?

Neon3D
2010-08-01, 12:05:18
Natürlich nicht allgemeingültig sondern von Spiel zu Spiel verschieben, aber gibt nen groben Eindruck:

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests

AF kostet also praktisch nichts, AA kann teilweise massiv Leistung kosten.
thx echt interessant.

Dr. Cox
2010-08-01, 13:14:28
Crysis ist shaderlastig. In anderen Fällen, vor allen Dingen älteren Spielen, kann AF auf einer aktuellen GeForce bis zu 20 Prozent kosten (16:1 HQ anstatt trilinear); eine HD 5000 bricht durchschnittlich weniger ein.


Dafür gibt es auf einer HD5XX0-Karte auch kein echtes 16xAF;)

Gast
2010-08-01, 14:13:15
Dafür gibt es auf einer HD5XX0-Karte auch kein echtes 16xAF;)
Und bei NV keine WU :tongue:

y33H@
2010-08-01, 14:14:09
WU?

Coda
2010-08-01, 14:30:39
Winkelunabhängigkeit vermutlich. Totaler Blödsinn.

THUNDERDOMER
2010-08-01, 14:36:50
Ich nutze AA und AF kaum, weil für mich kein Vorteil bringt. Ich spiele eh doch die höchsten Auflösung, da brauche ich kein Antialiasing. :ugly2:

Als ich 1024x768 oder 800x600 zockten müsste, war AA schon damals nützlich. (Röhrenmonitor :biggrin: )

AF schalte ich nur bei ältere Spiele ein, wenn das Textur schon ab Werk total vermatscht ist. ;)

hq-hq
2010-08-01, 14:41:06
Winkelunabhängigkeit vermutlich. Totaler Blödsinn.
der gamestarartikel schlägt wieder durch :biggrin:

y33H@
2010-08-01, 14:44:11
Ich möchte den sehen, der NVs und AMDs AF nur anhand der "WU" unterscheiden kann. Das können selbst Raff und ich nicht "on the fly" - außer Raff legt Veto ein :biggrin:

Gast
2010-08-01, 14:52:35
Selbst mit Codas AF Tester sieht man nahezu keinen Unterschied zwischen HD2,3,4 und 5.

xiao didi *
2010-08-01, 15:07:50
Ich nutze AA und AF kaum, weil für mich kein Vorteil bringt. Ich spiele eh doch die höchsten Auflösung, da brauche ich kein Antialiasing. :ugly2:

Als ich 1024x768 oder 800x600 zockten müsste, war AA schon damals nützlich. (Röhrenmonitor :biggrin: )

AF schalte ich nur bei ältere Spiele ein, wenn das Textur schon ab Werk total vermatscht ist. ;)
Bei den heute üblichen 90-100 DPI ist AA so gut wie immer nötig.
Und AF brauchts bei höheren Auflösungen sogar dringender als bei niedrigen.

Raff
2010-08-01, 21:59:33
Ich möchte den sehen, der NVs und AMDs AF nur anhand der "WU" unterscheiden kann. Das können selbst Raff und ich nicht "on the fly" - außer Raff legt Veto ein :biggrin:

Geht nicht. Auch, weil sich das AF eben durch mehr unterscheidet als nur die Gradientenberechnung. Was man jedoch sehr deutlich sieht, ist der winkelabhängige Murks, der von NV40, R300 & Co. fabriziert wird.

MfG,
Raff

Gast
2010-08-01, 23:16:20
Geht nicht. Auch, weil sich das AF eben durch mehr unterscheidet als nur die Gradientenberechnung. Was man jedoch sehr deutlich sieht, ist der winkelabhängige Murks, der von NV40, R300 & Co. fabriziert wird.
MfG,
Raff
Gut, früher hatte die Levelarchitektur auch nicht viel hergeben, um die Unterschiede auch begutachten zu können. Half-Life 2 war wohl einer der ersten Spiele, wo man die Unterschiede an einigen Stellen sehr deutlich sehen konnte und die X1800/X1900 besser aussah - solange man AI auf off stellte, um sich Flimmergries zu ersparen.