PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unterschiede zwischen Intels AF und AMDs/Nvidias AF


Match-Maker
2013-04-07, 21:53:13
Hallo,
ich wollte mal fragen, warum Intels HQ-AF, genauer gesagt die AF der Ivy Bridge IGPs, besser als die HQ-AF von AMD und Nvidia ist. Ich mein, wenn Intel mit ihren mickrigen IGPs schon komplett ohne Optimierungen filtert, dann sollten dass AMD und Nvidia doch auch machen oder zumindest optional können. Vor allem sollte der Performance-Unterschied doch nur relativ gering, wenn Intel selbst bei so schwachen GPUs meint, dass der Leistungseinbruch vertretbar ist. Bei AMD und Nvidia sind ja selbst bei HQ-AF noch Optimierungen aktiv (steht übrigens in der PCGH 11/2012 auf Seite 48). Einen Vergleich habe ich jetzt nicht, daher würde mich mal interessieren, wie groß der Unterschied nun ist.
Vielleicht kann ja jemand mal exakt identische Vergleichsbilder anfertigen, falls jemand Lust hat, sich die Mühe zu machen.

xxMuahdibxx
2013-04-08, 04:44:43
http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/

gucken lesen vergleichen

Match-Maker
2013-04-12, 14:14:04
Äh, also erstmal danke für den Link.
Allerdings ist die AF Intels auf den Videos schlechter als die Nvidias. Dann habe ich nochmal etwas weitergeguckt und habe herausgefunden, dass der für den Vergleich genutzte alte (Launch-)Treiber unter DX9 einen AF-Bug hat, weshalb die AF unter DX9 nicht so gut wie unter DX10/11 ist.
Kennt jemand vielleicht DX10/11 Vergleichvideos oder alternativ mit einem Treiber ohne den DX9-AF-Bug?

Coda
2013-04-12, 14:24:23
In der Praxis ist das NVIDIA-AF gleich gut, mach dir darüber keinen Kopf.

Sie haben eine Approximation für die Berechnung der Line-Of-Anisotropy, aber das kannst du nicht sehen. Spart wohl paar Transistoren oder macht die TMU schneller.

Match-Maker
2013-04-12, 14:32:03
Achso, ok.
Was mir aber trotzdem auffällt ist, dass Nvidias AF eine höhere Winkelabhängigkeit besitzt, sowohl im Vergleich zu AMDs als auch zu Intels AF. Oder ist das diese Approximation der Line-Of-Anisotropy?
Was ich aber sagen muss, ist, dass Nvidias AF etwas ruhiger als AMDs AF ist.

Coda
2013-04-12, 14:47:26
Achso, ok.
Was mir aber trotzdem auffällt ist, dass Nvidias AF eine höhere Winkelabhängigkeit besitzt, sowohl im Vergleich zu AMDs als auch zu Intels AF. Oder ist das diese Approximation der Line-Of-Anisotropy?
Ja. Ist es.

aths
2013-04-13, 22:04:54
Die standardmäßig nur "brilineare" Filterung bei Nvidia wirkt sich deutlich negativer aus als die Ungenauigkeit der MIP-Stufen-Berechnung. Es wird Zeit, dass Nvidia bei der Aktivierung von AF endlich standardmäßig zur vollen trilinearen Filterung zurückehrt und nicht größere Strecken ohne MIP-Map-Interpolation filtert.

Raff
2013-04-13, 22:12:28
Unter DX10+ filtert Nvidia doch schon seit Ewigkeiten mit HQ. Das ist ein Detail, das nur Wenige aktiv vor Augen haben. ;)

MfG,
Raff

aufkrawall
2013-04-13, 23:27:03
Unter DX10+ filtert Nvidia doch schon seit Ewigkeiten mit HQ. Das ist ein Detail, das nur Wenige aktiv vor Augen haben. ;)

Woran machst du das fest?
Negatives LOD-Bias ist bei DX11 seit r313 nur mit HQ gefixt.

Blaire
2013-04-14, 09:49:12
Unter DX10+ filtert Nvidia doch schon seit Ewigkeiten mit HQ. Das ist ein Detail, das nur Wenige aktiv vor Augen haben. ;)


Das war einmal. Seit R313.xx gibt es nun auch verschiedene Qualitäts-Stufen für DX10+.

Raff
2013-04-14, 12:04:58
Oha! Danke für die Info. Hast du zufällig schon Shots angefertigt, wo man das sieht?

Woran machst du das fest?
Negatives LOD-Bias ist bei DX11 seit r313 nur mit HQ gefixt.

Clamp außen vor, sehr lange Zeit war das Bild zwischen Q, HQ & Co. identisch, wenn man unter DX10+ unterwegs war.

MfG,
Raff

Blaire
2013-04-14, 12:32:51
Oha! Danke für die Info. Hast du zufällig schon Shots angefertigt, wo man das sieht?

Nur aus Codas-Filtertester

HighQuality / Quality / High Performance
http://www.abload.de/thumb/hq6cz8u.png (http://www.abload.de/image.php?img=hq6cz8u.png)http://www.abload.de/thumb/qualityftl18.png (http://www.abload.de/image.php?img=qualityftl18.png)http://www.abload.de/thumb/highpr6axl.png (http://www.abload.de/image.php?img=highpr6axl.png)
http://www.abload.de/thumb/hq4cbr6.png (http://www.abload.de/image.php?img=hq4cbr6.png)http://www.abload.de/thumb/quality5klay.png (http://www.abload.de/image.php?img=quality5klay.png)http://www.abload.de/thumb/highp4lxic.png (http://www.abload.de/image.php?img=highp4lxic.png)

Coda
2013-04-15, 13:57:58
Mal wieder zeigt sich, dass da mehr einstellbar ist als man denkt. Sie können offenbar die breite des Tri-Bandes frei wählen.

Raff
2013-04-15, 14:19:11
Sieht crappy aus. :| Hier mal ein uralter GT200-Shot:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45521&d=1366028321

MfG,
Raff

Coda
2013-04-15, 14:44:11
Exakt identisch, du verwendest nur einen anderen Tester.

aths
2013-04-15, 19:19:26
Mal wieder zeigt sich, dass da mehr einstellbar ist als man denkt. Sie können offenbar die breite des Tri-Bandes frei wählen.
Bei Nvidia? Das geht iirc seit GeForce FX.

Coda
2013-04-16, 11:46:38
Sie hatten Bri und Tri, aber ich hab nie gesehen, dass sie das wirklich frei einstellen können.

Raff
2013-04-16, 12:29:07
Der Bri-Sparfilter kam doch auf dem NV30 (GeForce FX) auch als reine, nachgerüstete Treibergeschichte (IIRC mit der ForeWare 50.xx), warum sollten sie es also nicht können? :)

MfG,
Raff

Coda
2013-04-16, 14:30:13
Ich denke sie hatten damals nur drei Möglichkeiten, Tri, Bri und Bi. Nicht frei einstellbar. Aber ich kann mich täuschen.

Air Force One
2013-04-16, 18:45:33
Bin ich eig. der einzige der da kaum einen Unterschied erkennt? :ulol:

Ich sehe den Unterschied nur zwischen den Stufen (sprich 2x 4x 8x 16x AF)
Aber jetzt zwischen "Performance und Qualität" nicht.

Und ja, ich habe eig. trotzdem gute Augen...suche ich nur falsch? :confused: :redface:

Gipsel
2013-04-16, 20:11:03
Bin ich eig. der einzige der da kaum einen Unterschied erkennt? :ulol:

Ich sehe den Unterschied nur zwischen den Stufen (sprich 2x 4x 8x 16x AF)
Aber jetzt zwischen "Performance und Qualität" nicht.

Und ja, ich habe eig. trotzdem gute Augen...suche ich nur falsch? :confused: :redface:
Den fast nicht mehr vorhandenen trilinearen Filter bei Performance siehst Du nicht?!?

aufkrawall
2013-04-16, 20:13:33
Den fast nicht mehr vorhandenen trilinearen Filter bei Performance siehst Du nicht?!?
High Performance. ;)

Edit: Wobei Performance allerdings auch nicht mehr schön ist.

Air Force One
2013-04-16, 20:59:36
Den fast nicht mehr vorhandenen trilinearen Filter bei Performance siehst Du nicht?!?

naja doch jetzt schon aber nur wenn ich danach krankhaft suche.

Habe jetzt das hier ergooglet:
http://alt.3dcenter.org/artikel/grafikfilter/index5.php

Danke

Raff
2013-04-16, 21:37:37
Und das sieht man dann auch in Spielen. Gegen Banding hilft leider gar nichts.

MfG,
Raff

kruemelmonster
2013-04-16, 22:04:24
Selbst HQ vs Q ist imo eindeutig, der Unterschied sticht mir nach 5x hin- und hertabben direkt ins Auge (mit normalen Blickabstand von 60cm). Interessanterweise machts für mich auch keinen Unterschied ob ich das am Eizo oder an dem per VGA angeschlossenen Acer-Billigteil am Zweitrechner vergleiche.

aths
2013-04-17, 10:53:21
Sie hatten Bri und Tri, aber ich hab nie gesehen, dass sie das wirklich frei einstellen können.
Die Bri-Breite war glaube ich per Registry einstellbar. Das Problem ist, dass eine kleine, nicht störende Tri-Verschmalerung der Framerate auch nicht hilft, während eine Verschmalerung mit Auswirkung auf die Framerate auch die Qualität spürbar senkt.

aths
2013-04-17, 11:14:44
Selbst HQ vs Q ist imo eindeutig, der Unterschied sticht mir nach 5x hin- und hertabben direkt ins Auge (mit normalen Blickabstand von 60cm). Interessanterweise machts für mich auch keinen Unterschied ob ich das am Eizo oder an dem per VGA angeschlossenen Acer-Billigteil am Zweitrechner vergleiche.
Ich finde es absurd, dass Q auch auf Highend-Karten noch standard ist. Wollen die wirklich den einen oder anderen Prozentpunkt an Framerate erschleichen um in Reviews gut dazustehen?

Zwar finde ich es gut, generell die Option zu haben, Feintuning an der Grafikqualität vornehmen zu können. Gerade wenn die eigene Karte nicht die stärkste ist, ist es nett, die Wahl zu haben zwischen voller MIP-Map-Interpolation oder einem höheren AF-Grad. Der eine bevorzugt dies, der andere das. Standardmäßig sollte die Karte aber exakt das machen was die App anfordert.

Da rede ich mir den Mund fusselig und schreib mir die Finger wund seit 2003 glaube ich.

Coda
2013-04-17, 12:23:56
Ich finde es auch nach wie vor enttäuschend, dass in DX11 nicht der genaue Algorithmus für AF standadisiert wurde. Damit könnte man dann nämlich auch andere Dinge machen, wenn man sich auf das mathematische Ergebnis verlassen könnte.

Match-Maker
2013-04-17, 16:34:11
Jup, ich verstehe irgendwie auch nicht, warum man nicht einfach standardmäßig einen Best-Quality-AF-Modus oder sowas anbietet.
Alle, die mehr fps benötigen und denen gute Bildqualität nicht so wichtig ist, könnten ja dann trotzdem, wie aths schon sagte, auf einen Sparfilter umschalten.

seaFs
2013-04-20, 18:51:31
Damit könnte man dann nämlich auch andere Dinge machen, wenn man sich auf das mathematische Ergebnis verlassen könnte.
Könntest du das näher erläutern? Was genau könnte man machen?

Der_Donnervogel
2013-04-21, 15:08:52
Den fast nicht mehr vorhandenen trilinearen Filter bei Performance siehst Du nicht?!?Auf der "Zielscheibe" sieht man den Unterschied deutlich. Bei der Grafik darüber ist er dagegen so winzig, dass ich die Bilder mehrfach vergleichen musste um festzustellen ob es überhaupt einen Unterschied zwischen den 3 Bildern gib. Erst als ich sie übereinander gelegt und dann schnell hin und her gewechselt bin, konnte ich einen Unterschied erkennen. :freak:

Ich bin allerdings auch alles andere als ein Grafikfetischist.

aths
2013-04-21, 19:42:11
Könntest du das näher erläutern? Was genau könnte man machen?
Mittelwertbildung über größere Datensätze.