PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATIs Adaptive AA in OpenGL-applikationen nutzbar?


Gast
2006-04-10, 00:38:49
hi

es wird mitunter behauptet dass nur das Transparency AA von NV in OpenGL funktioniert und das pendant von ATI nur in Direct3D. ist da was dran?

mfg

Gast
2006-04-10, 00:51:35
ja richtig, NVs TAA funktioniert soweit mir bekannt ist immer, ATIs AAA nur unter D3D, wobei es bei ATI auch mehr kompatibilitätsprobleme geben soll.

Raff
2006-04-10, 00:52:41
AAA geht (bei mir) nicht unter OpenGL, auch mit ASBT via ATi Tray Tools nicht.

MfG,
Raff

Gast
2006-04-10, 10:58:57
AAA geht (bei mir) nicht unter OpenGL, auch mit ASBT via ATi Tray Tools nicht.

MfG,
Raff

Könntest du das eventuell mit Screenshots belegen? Habe gerade einmal NVIDIAs TSAA mit einer 7900GTX in OpenGl getestet, habe aber leider nur die relativ schlecht geeigneten Spiele Riddick, Quake 4 und Doom 3 zur Verfügung. Ich habe in keinem der Spiele auf die schnelle eine Stelle ausfindig machen können an der TSAA angesprungen wäre. Die Benchmarks belegen mein subjektives Empfinden dadurch das der Unterschied bei 0% +/- Messtolleranzen liegt. Es könnte aber auch sein, dass in den genannten Spielen kein Alpha-Test für Transparenz zum Einsatz kommt, dass weiß ich leider nicht.

Odal
2006-04-10, 11:01:51
naja mit HL2 DoD:S oder CSS könnte man das sehr gut testen...allerdings hat raff ja keine TSAA fähige NV Karte afaik, das müsste also dann jemand testen der eine solche hat...
(stichwort: screenschots machen mit und ohne TSAA am besten auf kleiner Auflösung mit Zäunen im Bild)

Gast
2006-04-10, 11:18:32
Könntest du das eventuell mit Screenshots belegen? Habe gerade einmal NVIDIAs TSAA mit einer 7900GTX in OpenGl getestet, habe aber leider nur die relativ schlecht geeigneten Spiele Riddick, Quake 4 und Doom 3 zur Verfügung. Ich habe in keinem der Spiele auf die schnelle eine Stelle ausfindig machen können an der TSAA angesprungen wäre. Die Benchmarks belegen mein subjektives Empfinden dadurch das der Unterschied bei 0% +/- Messtolleranzen liegt. Es könnte aber auch sein, dass in den genannten Spielen kein Alpha-Test für Transparenz zum Einsatz kommt, dass weiß ich leider nicht.

Ich hab mir gerade mal die Serious Sam 2 Demo heruntergeladen, welche sowohl einen OpenGl als auch Direct3D-Rendermodus unterstützt. Während unter D3D TSAA anstandslos funktioniert, bekommt unter OpenGl die Vegetation (Alphatest) keine Glättung ab - ansonsten wird jedoch korrekt geglättet.

Ronin2k
2006-04-10, 11:26:48
also schauts mit adaptiv AA unter opengl ,bsp. jedi knight, negativ aus :confused:

reunion
2006-04-10, 11:30:33
hi

es wird mitunter behauptet dass nur das Transparency AA von NV in OpenGL funktioniert und das pendant von ATI nur in Direct3D. ist da was dran?

mfg


Ich erlaube mir hier mal ein Zitat von ShadowXX vorzubringen:

Dafür das es das nicht unter OGL geht, funktioniert das AAA bei JediAcademy aber ziemlich gut.

http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4157750#post4157750

Gast
2006-04-10, 15:10:05
Ich erlaube mir hier mal ein Zitat von ShadowXX vorzubringen:



http://www.forum-3dcenter.de/vbulletin/showthread.php?p=4157750#post4157750
Da ist er aber der einzige bei dem es funktioniert.

Banshee18
2006-04-10, 18:08:46
Gerade CoD getestet: Geht nicht. :(

mapel110
2006-04-17, 02:23:22
Der Thread wird heute in den News erwähnt mit dem Zusatz, dass es definitiv nicht unter Opengl geht.

Ich hab von dem Nachteil noch nie in irgendwelchen Reviews gelesen. O_o

Fallacy
2006-04-17, 14:24:54
*Accountrauskram* - Post #4 und #6 stammen von mir.

Digit-Life hatte es einmal in einem ihrer Reviews zu einer Karte aus der X1000-Serie erwähnt AFAIR.

Aber wer sagt dir, dass NVIDIAs TSAA unter OpenGl funktioniert? Bei Serious Sam 2 kann ich dir mit Sicherheit sagen, dass es mit einer 7900 GTX nicht unter OpenGl funktioniert und bei Doom3 und Quake4 vermute ich es, habe aber bisher noch nicht die Zeit gefunden eine Stelle herauszusuchen die es belegt.

Gast
2006-04-17, 20:42:46
Aber wer sagt dir, dass NVIDIAs TSAA unter OpenGl funktioniert? Bei Serious Sam 2 kann ich dir mit Sicherheit sagen, dass es mit einer 7900 GTX nicht unter OpenGl funktioniert und bei Doom3 und Quake4 vermute ich es, habe aber bisher noch nicht die Zeit gefunden eine Stelle herauszusuchen die es belegt.

sicher dass bei SS2 kein HDRR aktiviert war?

ich hab auf jeden fall schon screenshots von SS2 mit aktivem TAA gesehen.

Raff
2006-04-17, 20:46:24
In Direct3D geht das bei SeSam 2 ja auch wunderbar, sowohl bei ATi als auch bei NVidia.

MfG,
Raff

ShadowXX
2006-04-17, 21:06:21
Da ist er aber der einzige bei dem es funktioniert.
Also ich kann nur von Jedi Academy ausgehen und nach dem was ich das auf dem Screen sehe, springt das AAA auch dort an.

Ebenso sagt mir FRAPS, das ich mit aktiviertem AAA bis zu 50% weniger Frames habe.

Ich werde das ganze aber nächstens irgendwann mal direkt mit Screenshots vergleichen, denn natürlich kann ich mich durchaus irren und der FPS-Verlust kommt zwar irgendwie durch das aktivierte AAA, nur es wird vielleicht nicht appliziert.
(Das Problem ist das ich erst mal nen Save finden muss, wo es Gitter gibt, da ich immer nur mit 1nem Save + Quicksave daddle.)

Wo ich allerdings definitiv mit übereinstimme, ist das das AAA von ATI etwas "inkompatibler" als das TSAA von nV ist (zumindest kommt es mir bei den bis jetzt getesteten Games so vor.)

Gast
2006-04-17, 23:19:28
Aber wer sagt dir, dass NVIDIAs TSAA unter OpenGl funktioniert?Funktioniert definitiv, das kann ich dir versichern.

Fallacy
2006-05-18, 11:22:53
Ich weiß nicht inwiefern es noch von Interesse ist, aber aufgrund der der vielen konträren Meinung zu dem Thema, will ich etwas verspätet noch auf diese Erkenntnisse hinweisen:
http://hardtecs4u.de/reviews/2006/x1900_7900/index14.php

Mr. Lolman
2006-05-18, 11:40:27
Gast[/POST]']Funktioniert definitiv, das kann ich dir versichern.

Mach mal bitte einen Screenshot. Bisher hab ich das immernur im Forum gehört, aber in Reviews tw. eher das Gegenteil gelesen.

Mr. Lolman
2006-05-18, 11:42:59
Fallacy[/POST]']Ich weiß nicht inwiefern es noch von Interesse ist, aber aufgrund der der vielen konträren Meinung zu dem Thema, will ich etwas verspätet noch auf diese Erkenntnisse hinweisen:
http://hardtecs4u.de/reviews/2006/x1900_7900/index14.php

Von dem Test halt ich nix, weil man AI deaktiviert hat. Und nur deswegen weil man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind (was aber nicht stimmt!) .

Und so schaltet man bei Ati auch gleich die ganzen Bugfixes aus, während die bei NV weiter aktiv sind. Und warum? Nur damit die in den Control Panels angezeigten Optionen ähnlich sind...

Ich seh schon, mein 3DC Artikel war für die Katz! ;(

DrFreaK666
2006-05-18, 11:49:53
Mr. Lolman[/POST]']Von dem Test halt ich nix, weil man AI deaktiviert hat. Und nur deswegen weil man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind (was aber nicht stimmt!) .

Und so schaltet man bei Ati auch gleich die ganzen Bugfixes aus, während die bei NV weiter aktiv sind. Und warum? Nur damit die in den Control Panels angezeigten Optionen ähnlich sind...

Ich seh schon, mein 3DC Artikel war für die Katz! ;(

Artikel?
Wolltest du beide Techniken miteinander vergleichen?

Mr. Lolman
2006-05-18, 11:53:36
DrFreaK666[/POST]']Artikel?
Wolltest du beide Techniken miteinander vergleichen?

Ne, ich hab mich vor einiger Zeit mal über die Ungereimtheiten von NVs Treiberpanel ausgelassen: http://www.3dcenter.org/artikel/neue_filtertricks/

Rente
2006-05-18, 11:55:22
Mr. Lolman[/POST]']Von dem Test halt ich nix, weil man AI deaktiviert hat. Und nur deswegen weil man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind (was aber nicht stimmt!) .

Und so schaltet man bei Ati auch gleich die ganzen Bugfixes aus, während die bei NV weiter aktiv sind. Und warum? Nur damit die in den Control Panels angezeigten Optionen ähnlich sind...

Ich seh schon, mein 3DC Artikel war für die Katz! ;(
Ich würde die Schuld aber trotzdem ATi zuschieben, einfach weil es eine bescheuerte Idee ist Bilqualität an Bugfixes zu hängen, auch wenn sie mit AI Standart etwa auf NV HQ-Niveau liegt bzw. größtenteil sogar besser ist.
Wenn man solche Tests verhindern will koppelt man entweder BQ von Bugfixes ab, oder lässt nicht zu, dass AI ausgestellt werden kann.

On Topic: AFAIK funktioniert TSSAA in Riddick sehr gut mit meiner 7800GT, allerdings müsste ich das nochmal nachtesten. Das Quake 4 und Doom³ darauf nicht anschlagen liegt wahrscheinlich an den fehlenden Alpha-Test-Texturen, aber warum es SS² nicht macht ist mir unerklärlich.

Gast
2006-05-18, 11:55:34
Mr. Lolman[/POST]']Von dem Test halt ich nix, weil man AI deaktiviert hat. Und nur deswegen weil man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind (was aber nicht stimmt!) .

Und so schaltet man bei Ati auch gleich die ganzen Bugfixes aus, während die bei NV weiter aktiv sind. Und warum? Nur damit die in den Control Panels angezeigten Optionen ähnlich sind...

Ich seh schon, mein 3DC Artikel war für die Katz! ;(
Es geht doch nur darum, dass AAA/TSAA weder bei ATI noch Nvidia unter OpenGL funktioniert. Und das wird ja wohl kaum von irgendwelchen AF-Optimierungen beeinflusst werden.

Indiana
2006-05-18, 11:56:24
Mr. Lolman[/POST]']Von dem Test halt ich nix, weil man AI deaktiviert hat. Und nur deswegen weil man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind (was aber nicht stimmt!) .

Das schon; die Ergebnisse dieses Tests sprechen aber doch sehr stark dafür, daß NVidias TSAA eben auch nur unter D3D funktioniert, unter OGL dagegen wirkungslos ist. Wenn die Frameraten mit und ohne TSAA in OGL-Spielen identisch sind, kann TSAA ja eigentlich gar nicht greifen.

Das wird hier immer wieder mal in Einzelpostings, wie auch dem obigen
"Funktioniert definitiv, das kann ich dir versichern."
anders dargestellt, allerdings ohne einen Beweis in Form von Screenshots zu liefern.

Auch die Tatsache, daß sich NVidia auch auf Nachfragen gar nicht dazu äußert, ob TSAA unter OGL funktioniert, sagt ja schon einiges. :|

Vielleicht kann das mal jemand mit einer NVidia-Karte selbst testen und ein paar Screenshots vorlegen.

Simon
2006-05-18, 12:44:28
Hi,

also hier stehen teilweise Unwahrheiten :mad:
Transparenz-AA funktioniert sowohl auf X800 karten als auch auf den neueren X1k-Karten. Das gleiche gilt für Nvidia. Hier eine OpenGL Demo, damit alle Zweifler das selbst überprüfen können: http://developer.nvidia.com/object/nature_scene.html

Fallacy
2006-05-18, 12:45:16
Mr. Lolman[/POST]']
Und so schaltet man bei Ati auch gleich die ganzen Bugfixes aus, während die bei NV weiter aktiv sind. Und warum? Nur damit die in den Control Panels angezeigten Optionen ähnlich sind...

Danke für die produktiven Unterstellungen. Hast du den Artikel überhaupt komplett gelesen? Und nein, wir haben nicht "Nur damit die in den Control Panels angezeigten Optionen ähnlich sind..." diese Einstellungen verwendet.

Wir haben uns viele Gedanken zu den verwendeten Einstellungen gemacht und kamen letzendlich zu dem Entschluss, mit A.I. Off und HQ bei NVIDIA den fairsten gemeinsamen Nenner für einen herstellerübergreifenden Vergleich gefunden zu haben. Wie auch dem Artikel zu entnehmen ist sind wir bezüglich des Flimmerns beispielsweise durchaus der Meinung das ATI mit "A.I = Standard" mindestens vergleichbar mit HQ bei NVIDIA ist. Der brilineare Filter hingegen fällt indes in unseren Augen an einigen Stellen durchaus störend auf. Deshalb stellten wir A.I. auf Off, um NVIDIA, die, abgesehen von gamespezifischen Optimierungen in UT2004, korrekt trilinear filtern, nicht zu benachteiligen.

Davon abgesehen ist diese Thematik für den Punkt AAA/TSAA unter OpenGl absolut irrelevant.

Grüße,
Leander (HT4U)

Fallacy
2006-05-18, 12:48:29
Ob-1[/POST]']Das Quake 4 und Doom³ darauf nicht anschlagen liegt wahrscheinlich an den fehlenden Alpha-Test-Texturen, aber warum es SS² nicht macht ist mir unerklärlich.

Betrachte doch einmal das Bild im verlinkten Artikel. Für Quake4 müsste ich ebenfalls Screenshots gemacht haben AFAIR. Sobald ich wieder in Reichweite meiner Teststation bin, kann ich diese nachreichen.

Grüße,
Leander (HT4U)

Fallacy
2006-05-18, 12:52:35
Simon[/POST]']Hi,

also hier stehen teilweise Unwahrheiten :mad:
Transparenz-AA funktioniert sowohl auf X800 karten als auch auf den neueren X1k-Karten. Das gleiche gilt für Nvidia. Hier eine OpenGL Demo, damit alle Zweifler das selbst überprüfen können: http://developer.nvidia.com/object/nature_scene.html

Leider kann ich die Demo nicht mehr auspobieren, da die Karten mittlerweile bereits an die Hersteller zurückgingen. Aber könnte es in diesem Fall nicht ein Work-Around seitens NVIDIA sein?

Grüße,
Leander (HT4U)

Mr. Lolman
2006-05-18, 12:55:29
Fallacy[/POST]']Deshalb stellten wir A.I. auf Off, um NVIDIA, die, abgesehen von gamespezifischen Optimierungen in UT2004, korrekt trilinear filtern, nicht zu benachteiligen.

Ich wage zu bezweifeln, dass sich NV dabei nur auf UT2004 beschränkt. Thx für die Antwort.

BTW: Auch bin ich der Meinung, dass sich die Nachteile des brilinearen Filterns bei ATi, mit den Nachteilen des NV AFs (Qualität sehr stark von den Mipmaps abhängig; entweder Aufreissen, oder aufblurren von begrenzungslinien in manchen Rennspielen) so ca. aufwiegen...

Aber du hast recht. Die Diskussion gehört nicht hierher. Ich hab mir nur wieder ein weiteres mal dazu hinreissenlassen :redface:



/edit: Nur noch ein Einwurf: Es kommt nicht nur auf die "korrekte Trilinearität" an, sondern auch auf die Azahl verrechneter Textursamples. Und da spart NV beim G7x etwas mehr als beim NV40, was eben doch für Filteroptimeirungen spricht, da wir dem G7x ja nicht unterstellen wollen, dass er HW-bedingt qualitativ (leicht) schlechter filtert, als der NV40...

Würde man zB (hypothetisch und unpraktischerweise) 4x soviele Samples/Texel berechnen, könnte man das LODBias um -1 senken und sich dabei jegliche Interpolation zw. den Mipmaps sparen (also bi-AF statt tri-AF verwenden) und hätte dabei eine perfekte BQ...

Simon
2006-05-18, 13:05:02
Fallacy[/POST]']Leider kann ich die Demo nicht mehr auspobieren, da die Karten mittlerweile bereits an die Hersteller zurückgingen. Aber könnte es in diesem Fall nicht ein Work-Around seitens NVIDIA sein?

Grüße,
Leander (HT4U)
Nein, das wird mittels der GL_ARB_multisample-Extension realisiert. Die bietet halt normales AA und Transparenz-AA, beides haben beide Vendors implementiert.
Humus bietet dazu auch eine Demo: http://www.humus.ca/index.php?page=3D&ID=61

D.h. leider auch, dass der Software Hersteller diese Form von AA in das Programm integrieren muss oder man benutzt eine modifizierte "opengl32.dll" (wie sie humus auch anbietet) um einem alten Spiel TAA beizubringen. Im Endeffekt ist das egal, denn TAA funktioniert auch mit OpenGL.

Gast
2006-05-18, 13:14:29
Mr. Lolman[/POST]']Von dem Test halt ich nix, weil man AI deaktiviert hat. Und nur deswegen weil man davon ausgeht, dass bei NV HQ keine AF-Optimierungen mehr aktiv sind (was aber nicht stimmt!) .

Genau deshalb ist das der erste brauchbare Test.

Mr. Lolman[/POST]']
Und so schaltet man bei Ati auch gleich die ganzen Bugfixes aus, während die bei NV weiter aktiv sind. Und warum? Nur damit die in den Control Panels angezeigten Optionen ähnlich sind...


Catalyst A.I schaltet keine Bugfixes ab, das ist nur eine Schutzbehauptung von ATI, damit keiner deren Cheats abschaltet. Das kann man wunderbar nachweisen, indem man alle Anwendungen, die der ATi treiber namentlich kennt, einmal mit und einmal ohne A.I bencht.

Mr. Lolman
2006-05-18, 13:18:24
Gast[/POST]']Genau deshalb ist das der erste brauchbare Test.

Catalyst A.I schaltet keine Bugfixes ab, das ist nur eine Schutzbehauptung von ATI, damit keiner deren Cheats abschaltet. Das kann man wunderbar nachweisen, indem man alle Anwendungen, die der ATi treiber namentlich kennt, einmal mit und einmal ohne A.I bencht.

Cheats/Bugfixes....

Kommt doch aufs Gleiche raus, solang die BQ dabei nicht verschlechtert wird. Woher meinst du, kommen die (tw. auf ein einzelnes Spiel reduzierbaren) Performancesteigerungen zw. den NV Treibern?

"Auch" Cheats, oder doch nur Bugfixes?

Rente
2006-05-18, 13:50:26
Gast[/POST]']Catalyst A.I schaltet keine Bugfixes ab, das ist nur eine Schutzbehauptung von ATI, damit keiner deren Cheats abschaltet. Das kann man wunderbar nachweisen, indem man alle Anwendungen, die der ATi treiber namentlich kennt, einmal mit und einmal ohne A.I bencht.Dann bist du zu dumm zum Benchen. Das beste Beispiel ist UT2004, dort liegt der Unterschied zw. aus und Standard etwa bei 10%. Außerdem hatte man in HL² zeitweise Probleme mit der Darstellung der Wasserkanten, was sich mit dem Abschalten von AI beheben ließ allerdings auch die Performance darunter zu leiden hatte (ich weiß das war umgekehrtes Bugfixing).

Wer Catalyst AI ausschaltet verliert alle App.-spezifischen Optimierungen und Bugfixes und damit meistens auch Performance.

€: letzten Satz verbessert. :wink:

Black-Scorpion
2006-05-18, 13:57:02
Die Spielebezogenen Einstellungen für den Speichercontroller gehen auch verloren.

Gast
2006-05-18, 14:04:12
Fallacy[/POST]']Wir haben uns viele Gedanken zu den verwendeten Einstellungen gemacht und kamen letzendlich zu dem Entschluss, mit A.I. Off und HQ bei NVIDIA den fairsten gemeinsamen Nenner für einen herstellerübergreifenden Vergleich gefunden zu haben. Wie auch dem Artikel zu entnehmen ist sind wir bezüglich des Flimmerns beispielsweise durchaus der Meinung das ATI mit "A.I = Standard" mindestens vergleichbar mit HQ bei NVIDIA ist. Der brilineare Filter hingegen fällt indes in unseren Augen an einigen Stellen durchaus störend auf. Deshalb stellten wir A.I. auf Off, um NVIDIA, die, abgesehen von gamespezifischen Optimierungen in UT2004, korrekt trilinear filtern, nicht zu benachteiligen.Sehr gut. Endlich mal ein vernünftiger Test.

Gast
2006-05-18, 14:07:19
Simon[/POST]']Nein, das wird mittels der GL_ARB_multisample-Extension realisiert. Die bietet halt normales AA und Transparenz-AA, beides haben beide Vendors implementiert.
Humus bietet dazu auch eine Demo: http://www.humus.ca/index.php?page=3D&ID=61

D.h. leider auch, dass der Software Hersteller diese Form von AA in das Programm integrieren muss oder man benutzt eine modifizierte "opengl32.dll" (wie sie humus auch anbietet) um einem alten Spiel TAA beizubringen. Im Endeffekt ist das egal, denn TAA funktioniert auch mit OpenGL.

Meinst du dieses Alpha2Coverage-Ding?
In HL2 (jaja, es ist ein D3D-spiel, aber lasst mich ausreden) hat es schon durch den Austausch bzw. Hinzufügen seiner DLL eine Qualitätsverbesserung gegeben, aber sie war nicht so gut wie MSAA+AAA (besser gesagt etwas schlechter).

Gast
2006-05-18, 14:07:53
Anonym_001[/POST]']Die Spielebezogenen Einstellungen für den Speichercontroller gehen auch verloren.Dann hätte ATI sie nicht an den "Cheats-Schalter" binden sollen. Soll man ihnen deshalb etwa den Bri-Filter durchgehen lassen? Ich denke nicht.

Gast
2006-05-18, 14:10:18
Ob-1[/POST]']Wer Catalyst AI ausschaltet verliert alle App.-spezifischen Optimierungen und Bugfixes und damit meistens auch Performance.Wobei diese "appspezifischen Optimierungen" teilweise auch stark an der Bildqualität drehen (siehe Quake4).

Banshee18
2006-05-18, 14:12:37
Am sinnvollsten wäre vielleicht sogar ein Test mit A.I. low und der trilinearen Optimierung bei nVidia. Leider hat man damit natürlich nicht die maximale Bildqualität. Egal, wie man es macht, ist es falsch. :(

Raff
2006-05-18, 14:16:57
Was man auch macht: Es bleiben nur Annäherungen. Ich habe mittlerweile nichts mehr dagegen, wenn man A.I. off gegen HQ bencht. Ersteres schaut dann immer besser oder gleich gut aus. Mit A.I. low gegen HQ schwindet die Überlegenheit der ATi-Qualität durch fiese Ausreißer, die an NV-Q erinnern, dafür gibt's eben mehr Fps.

Seht das mal so: Wenn plötzlich alle A.I. ausschalten, dann überlegt es sich Ati vielleicht, Shader-Späße und Filtereinsparungen zu entkoppeln, da der Plan vereitelt wurde.

MfG,
Raff

777@Asyl
2006-05-18, 14:24:46
Banshee18[/POST]']Am sinnvollsten wäre vielleicht sogar ein Test mit A.I. low und der trilinearen Optimierung bei nVidia. Leider hat man damit natürlich nicht die maximale Bildqualität. Egal, wie man es macht, ist es falsch. :(
Man sollte sich vielleicht eine andere Frage stellen: Will man die bestmögliche Bildqualität bei beiden Herstellern erreichen oder eine, die am ehesten zwischen den beiden Herstellern vergleichbar ist. Beides (aufeinmal oder einzeln) ist unmöglich.

Banshee18
2006-05-18, 14:49:15
777@Asyl[/POST]']Man sollte sich vielleicht eine andere Frage stellen: Will man die bestmögliche Bildqualität bei beiden Herstellern erreichen oder eine, die am ehesten zwischen den beiden Herstellern vergleichbar ist. Beides (aufeinmal oder einzeln) ist unmöglich.
Das mit der bestmöglichen Bildqualität ist so eine Sache. Sollte dann bei ATI HQ-AF aktiviert werden? Treiben wir das ganze auf die Spitze: 16xS bei NV? ;)

Raff[/POST]']Was man auch macht: Es bleiben nur Annäherungen. Ich habe mittlerweile nichts mehr dagegen, wenn man A.I. off gegen HQ bencht. Ersteres schaut dann immer besser oder gleich gut aus. Mit A.I. low gegen HQ schwindet die Überlegenheit der ATi-Qualität durch fiese Ausreißer, die an NV-Q erinnern, dafür gibt's eben mehr Fps.
Es gibt auch (€: viele) Fälle, wo A.I. low besser ist als NV HQ. Eigentlich müsste man in jedem Spiel unterschiedliche Einstellungen nutzen. Es gibt sogar bestimmt Extremfälle, wo NV Q sogar kaum schlechter als HQ ist. Und jetzt? Der Aufwand wäre einfach zu groß.

Raff[/POST]']Seht das mal so: Wenn plötzlich alle A.I. ausschalten, dann überlegt es sich Ati vielleicht, Shader-Späße und Filtereinsparungen zu entkoppeln, da der Plan vereitelt wurde.

MfG,
Raff
Ich fürchte, das hilft nichts, solange nicht auch die Gamestar so bencht. ;( Außerdem siehe oben.

€: Vielleicht sollte man den Thread splitten, Raff oder deekey?

777@Asyl
2006-05-18, 15:13:52
Banshee18[/POST]']Das mit der bestmöglichen Bildqualität ist so eine Sache. Sollte dann bei ATI HQ-AF aktiviert werden? Treiben wir das ganze auf die Spitze: 16xS bei NV? ;)

Warum nicht? Natürlich wäre vielleicht von Vorteil, die Grafikkarten eines Hersteller untereinander zu testen, ohne dabei auf Werte des anderen Herstellers zu verweisen.

Und splitten kann ich nicht, da ich mich nicht einloggen will.

Gast
2006-05-18, 15:24:57
Gast[/POST]']Dann hätte ATI sie nicht an den "Cheats-Schalter" binden sollen. Soll man ihnen deshalb etwa den Bri-Filter durchgehen lassen? Ich denke nicht.

Hi

Dann kannste bei nVIDIA ja alles in die Tonne knicken, den die Herren nutzten auch einen Bri Filter und bei dennenn kann man die Optimierungen nicht deaktivieren.


Gruss Labberlippe

Gast
2006-05-18, 15:27:08
Mr. Lolman[/POST]']
BTW: Auch bin ich der Meinung, dass sich die Nachteile des brilinearen Filterns bei ATi, mit den Nachteilen des NV AFs (Qualität sehr stark von den Mipmaps abhängig; entweder Aufreissen, oder aufblurren von begrenzungslinien in manchen Rennspielen) so ca. aufwiegen...


Das Problem ist, dass bei der Betrachtung der Bildqualität großteils einfach das unterschiedliche subjektives Empfinden eine gewichtige Rolle einnimmt. In Bezug auf die Spiele die uns - innerhalb des auch nicht unendlichen Zeitraum - für den Artikel zu Verfügung standen, sind wir nach längeren Betrachtungen eben zu dem Entschluss gekommen, dass wir mit den verwendeten Einstellungen einen möglichst fairen Vergleich bewerkstelligen können.

Fallacy
2006-05-18, 15:34:04
Der obige Post #45 stammt von mir - Hab mich vergessen einzuloggen :(.

Simon[/POST]']Nein, das wird mittels der GL_ARB_multisample-Extension realisiert. Die bietet halt normales AA und Transparenz-AA, beides haben beide Vendors implementiert.
Humus bietet dazu auch eine Demo: http://www.humus.ca/index.php?page=3D&ID=61

D.h. leider auch, dass der Software Hersteller diese Form von AA in das Programm integrieren muss oder man benutzt eine modifizierte "opengl32.dll" (wie sie humus auch anbietet) um einem alten Spiel TAA beizubringen. Im Endeffekt ist das egal, denn TAA funktioniert auch mit OpenGL.

Das könnte einiges erklären. Alpha to Coverage ist Multi-Sampling-AA auf Alpha-Test-Kanten und kein Super-Sampling. Wir haben uns in unserem Test ausschließlich mit dem höherwertigen (T)SSAA beschäftigt, unter anderem aus dem Grund, weil auch ATIs Adaptive-AA Super-Sampling verwendet. Es könnte also durchaus sein, das TSAA mit Multi-Sampling funktioniert, allerdings kein Transparenz-Super-Sampling-AA.

Grüße,
Leander (HT4U)

Fallacy
2006-05-18, 15:52:23
Am sinnvollsten wäre vielleicht sogar ein Test mit A.I. low und der trilinearen Optimierung bei nVidia. Leider hat man damit natürlich nicht die maximale Bildqualität. Egal, wie man es macht, ist es falsch.

Das war ebenfalls einer meiner Gedanken. Aber es lässt sich - zumindest mit den neueren Forceware-Treibern - der brilineare Filter nicht mehr aktivieren, wenn die Systemleistung auf High-Quality gestellt wurde. Unter HQ sind automatisch alle über das CP erreichbaren Optimierungen deaktiviert.

Egal, wie man es macht, ist es falsch.
Nahezu den wortgleichen Kommentar bekam ich von einem Kollegen bei HT4U bereits vor dem Erscheinen des Artikels :-D.

Es gibt auch Fälle, wo A.I. low besser ist als NV HQ. Eigentlich müsste man in jedem Spiel unterschiedliche Einstellungen nutzen. Es gibt sogar bestimmt Extremfälle, wo NV Q sogar kaum schlechter als HQ ist. Und jetzt? Der Aufwand wäre einfach zu groß.

Wäre sicherlich die beste Lösung, aber - wie du schon sagst - wohl leider kaum in einem aktzeptabelen Zeitraum realisierbar :(.

Dann kannste bei nVIDIA ja alles in die Tonne knicken, den die Herren nutzten auch einen Bri Filter und bei dennenn kann man die Optimierungen nicht deaktivieren.

Bei welchen Einstellungen? Und in welchen Spielen? Mir ist diesbezüglich nur UT2004 bekannt.

Mr. Lolman
2006-05-18, 17:08:26
Hängt euch bitte am brilinearen Filter nicht so auf. Ich mag ihn auch nicht, aber deswegen wieder auf NV Q + Tri Opt gehen, halt ich für übertrieben.

Ihr könnt ja auch bedenken, dass bisher ganze Zeit zu Ungungsten Atis gebencht wurde, und dass jetzt bei Tests mit NV HQ vs AI low die insgesamt minimalen AF Vorteile bei NV HQ (wenn man überhaupt welche sehen will) zu im Zweifelsfall zu ungunsten NV sind.

Und genau diese Sichtweise würd ich mir wünschen, öfter anzutreffen. Denn NV biAF vs. Ati triAF wurde bisher auch fleissig, von fast allen "Größen der Reviewerbranche gebencht" Firingsquad war sich nichteinmal zu schade, zu behaupten, dass NVs biAF (Q+alle Opts) besser aussieht als Atis "triAF". Und dass das technisch nicht möglich ist, sollte jedem klar sein.


Also nur weil, Ati insgesamt beim AF (mit AIlow) ein bisschen schlechter sein mag (ich glaub immernoch nicht ganz daran), braucht man doch nicht gleich alle app spezifischen Optimierungen deaktivieren.

Da kann ich auch damit kommen, dass bei Ati im Gegenzug immernoch dass AA besser aussieht. Und daran kann man auch nix drehen.




Aber wie auch immer: Ich glaub nicht, dass meine Ausführungen jemanden zum Umdenken bewegen. Deswegen halt versuch ich mich da künftig rauszuhalten. Der Bauer lässt sich halt einerseits nicht gern erklären wie er die Kartoffeln anpflanzen soll, und andererseits les ich auch so regelmässig den gleichen Stuss immer wieder (ai low macht keine bugfixes, sondern cheats. nv cheatet nicht, usw...)


Außerdem bin ich mir sicher,dass, wenn ich nicht vor ca. 1 Jahr angefangen hätt, so einen Streß bezügl BQ zu bauen, immernoch jeder NV default mit ATI default für vergleichbar halten würde, bzw. je nach Fanboy zugehörigkeit NV sogar vorne sehen würde.

JA, das war der Grund warum ich mir einen NV40 gekauft hab. Weil damals noch jeder von ner überlegenen AF Qualität gefaselt hat. Bloß weil die, zw. sehr praxisfernen, AF-Blumen bei NV besser aussahen...

Wer wissen will, warum mir das so nahe geht, kann sich ja mal darüber wundern warum 3dfx, trotz absolut konkurrenzfähiger Produkte den bach runter gegangen ist. (Neben Misswirtschaft sicher auch aufgrunddessen, dass sich zuletzt niemand mehr die Karten gekauft hat. Weil alle NV vorne gesehen haben).

Naja, wenigstens kommen nach >5 Jahren die Leute schön langsam drauf, was ihnen damals mit demr TnL Geilheit, und dem dementsprechenden Verzicht auf SGSSAA entgangen ist. :mad:

Wer sich immernoch wundert, hat nicht verstanden, dass man für sein Hobby gerne viel Zeit investiert. Meins sind 3D-Grakas. Und ich war von Anfang an dabei (Matrox Impression). Da dann immer wieder den gleichen Stuss lesen zu müssen, ärgert einem halt.


Lolli

Mr. Lolman
2006-05-18, 17:13:53
Gast[/POST]']Wobei diese "appspezifischen Optimierungen" teilweise auch stark an der Bildqualität drehen (siehe Quake4).

Wo?

/edit: Ich weiss eher, dass die appspezifischen Optimierungen bei NV dran schuld waren, dass sich viele beklagten, dass Doom³ so arschdunkel war. Gabs halt bis zu irgendnem späten 77er Treiber kein Ambient Lighting mit NV Karten.

Und dafür gabs auch keinen Schalter...

Rente
2006-05-18, 17:19:47
Mr. Lolman[/POST]']Wo?
Ist gibt in den Level, die Außen spielen teilweise starkes Banding, was vorher nicht vorhanden war, außerdem werden manche Texturen verfäscht.

Mr. Lolman
2006-05-18, 17:20:38
Fallacy[/POST]']
Bei welchen Einstellungen? Und in welchen Spielen? Mir ist diesbezüglich nur UT2004 bekannt.

Und warum ist dir dass bekannt? Weil ICHs zufälligerweise herausgefunden hab. Ich hab dann noch ein bisschen herumprobiert, aber bei diversen Spielen erlaubt der NV Treiber lustigerweise nichtmal die Colormipmapfunktionion von Tommtis 3D-Analyze (die auch nur exisitert, weil ich dem Thomas damals nahegelegt hab sie einzubauen). Ein Schelm wer böses denkt...

Gast
2006-05-18, 17:21:14
Mr. Lolman[/POST]']Da kann ich auch damit kommen, dass bei Ati im Gegenzug immernoch dass AA besser aussieht. Und daran kann man auch nix drehen. Wie meinst du das? Wenn du beim G70 das gamma-korrekte Downsampling aktivierst, ist das MSAA gleichwertig. Das Muster ist nur gespiegelt, aber das weißt du ja sicher selbst.

Oder spielst du jetzt auf den 6x-Modus an? Da ist es aber auch stark subjektiv, was man besser findet. ATIs 6x MSAA oder NVs Hybridmodi.

Klar, ATIs Modus ist deutlich performanter und dadurch öfter noch brauchbar, aber 8xS hat auch seine Vorteile. Mir z.b. reicht 4x MSAA für Polygonkanten. Wenn ich dann noch Leistung über habe, investiere ich sie lieber in Supersampling.

Banshee18
2006-05-18, 17:24:04
Mr. Lolman[/POST]']Hängt euch bitte am brilinearen Filter nicht so auf. Ich mag ihn auch nicht, aber deswegen wieder auf NV Q + Tri Opt gehen, halt ich für übertrieben.

Fallacy[/POST]']Das war ebenfalls einer meiner Gedanken. Aber es lässt sich - zumindest mit den neueren Forceware-Treibern - der brilineare Filter nicht mehr aktivieren, wenn die Systemleistung auf High-Quality gestellt wurde. Unter HQ sind automatisch alle über das CP erreichbaren Optimierungen deaktiviert.
Sorry, das war ein Denkfehler meinerseits. Ich habe nicht bedacht, dass man mit HQ keine "Optimierungen" mehr anschalten kann.

Mr. Lolman[/POST]']Ihr könnt ja auch bedenken, dass bisher ganze Zeit zu Ungungsten Atis gebencht wurde, und dass jetzt bei Tests mit NV HQ vs AI low die insgesamt minimalen AF Vorteile bei NV HQ (wenn man überhaupt welche sehen will) zu im Zweifelsfall zu ungunsten NV sind.

Und genau diese Sichtweise würd ich mir wünschen, öfter anzutreffen. Denn NV biAF vs. Ati triAF wurde bisher auch fleissig, von fast allen "Größen der Reviewerbranche gebencht" Firingsquad war sich nichteinmal zu schade, zu behaupten, dass NVs biAF (Q+alle Opts) besser aussieht als Atis "triAF". Und dass das technisch nicht möglich ist, sollte jedem klar sein.


Also nur weil, Ati insgesamt beim AF (mit AIlow) ein bisschen schlechter sein mag (ich glaub immernoch nicht ganz daran), braucht man doch nicht gleich alle app spezifischen Optimierungen deaktivieren.

Da kann ich auch damit kommen, dass bei Ati im Gegenzug immernoch dass AA besser aussieht. Und daran kann man auch nix drehen.
Es wurde und wird oft Scheiße gebencht, aber wird es nicht langsam mal Zeit, daran was zu ändern, sofern es denn möglich ist? Ist es für dich eine angemessene Rechtfertigung, zu Ungunsten von NV zu benchen, da früher zu Ungunsten von ATI gebencht wurde? Es geht hier nicht um Rache, sondern darum, vielleicht irgendwann mal wieder eine sehr gute Bildqualität zu haben ohne Kompromisse eingehen zu müssen.

Mr. Lolman
2006-05-18, 17:24:40
Ob-1[/POST]']Ist gibt in den Level, die Außen spielen teilweise starkes Banding, was vorher nicht vorhanden war, außerdem werden manche Texturen verfäscht.

Bitte um Screenshots.

BTW: Banding ist höchstwahrscheinlich keine App.Optimierung, sondern eine Unzulänglichkeit des briFilters von ATi. Das muss man jetzt schon trennen. Ich behaupte ja auch nicht, dass NV bei GTA-SA "optimiert" nur weil die BQ dort selbst mit 8xS unzufiredenstellend ist.

Das Gleiche auch mit den Begrenzungslinien bei GTR/GTL/LFS. Das sind alles Unzulänglichkeiten des AF. Und die hat anscheinend jeder Hersteller.

Mit dem Unterschied, dass man sie bei Ati abschalten kann. (Bei NV nicht).

Gast
2006-05-18, 17:33:48
Mr. Lolman[/POST]']BTW: Banding ist höchstwahrscheinlich keine App.Optimierung, sondern eine Unzulänglichkeit des briFilters von ATi. Das muss man jetzt schon trennen.Das Problem tauchte aber erst mit dem Treiber auf, der auf einmal extrem starke Zuwächse unter Quake4 und Doom3 brachte. Vorher war alles in Ordnung.

Screenshots hat Blaire (?) glaube ich schonmal gemacht, als er noch x1900-CF hatte. Ich werde nachher mal die Suche bemühen, aber erst spiele ich ne Runde GTASA auf einem G70. ;D (und ja, es flimmert schrecklich, aber das liegt hauptsächlich am Content, R5x0-Karten flimmern da ähnlich, wenn auch nicht ganz so stark.)

Mr. Lolman
2006-05-18, 17:34:31
Banshee18[/POST]']
Es wurde und wird oft Scheiße gebencht, aber wird es nicht langsam mal Zeit, daran was zu ändern, sofern es denn möglich ist? Ist es für dich eine angemessene Rechtfertigung, zu Ungunsten von NV zu benchen, da früher zu Ungunsten von ATI gebencht wurde? Es geht hier nicht um Rache, sondern darum, vielleicht irgendwann mal wieder eine sehr gute Bildqualität zu haben ohne Kompromisse eingehen zu müssen.

Es geht um nicht Rache, sondern um die Philosophie hinter den Treibereinstellungen. Ich will dir ja nicht zunahe treten und fragen bei wievielen Spielen ihr die BQ verglichen habt, aber je nach Spieleauswahl steht ATi mit AI low sogar besser da als NV mit HQ.

Und fair ist es wirklich nicht, die ganzen "Bugfixes" zu deaktivieren. OK Ati, hat die Filteroptimierungen daran gekoppelt (=mies), dafür kann man die "Bugfixes" bei NV garnicht abschalten (=mies).

Damit erreicht ihr eher, dass Ati auch mit AI off, herumtrickselt, um die Performance auch bei AIoff vergleichen hochzuhalten. Das ist aber auch nicht im Sinne der Kunden, die auch hinundwieder auf die App spezifischen Opts. verzichten wollen/müssen. (weil zB AA treiberseitig deaktiviert wurde, oder der Treiber sonst irgendein bisher nicht behobenes Problem hat)

Es stecken 2 anscheinend sehr unterschiedliche Philosophien hinter ATi und NV. Und die bisherige Benchtechnik ist branchenübergreifend kompatibler zu der von NV. Ich vertief das gerne weiter per PN.

Mr. Lolman
2006-05-18, 17:38:48
Gast[/POST]']Das Problem tauchte aber erst mit dem Treiber auf, der auf einmal extrem starke Zuwächse unter Quake4 und Doom3 brachte. Vorher war alles in Ordnung.

Screenshots hat Blaire (?) glaube ich schonmal gemacht, als er noch x1900-CF hatte. Ich werde nachher mal die Suche bemühen, aber erst spiele ich ne Runde GTASA auf einem G70. ;D (und ja, es flimmert schrecklich, aber das liegt hauptsächlich am Content, R5x0-Karten flimmern da ähnlich, wenn auch nicht ganz so stark.)

Naja, der NV40 hat selbst mit HQ + SSAA merkbar mehr geflimmert, als jetzt die R580 ohne SSAA. Aber stimmt. Einwandfrei ists auch nicht bei ATi. Dafür bekommt man bei ner ATi Karte auch nicht immer wieder vor augen geführt, welche Textur nun mipmaps besitzt (=dank SSAA garkein Flimmern) und welche keine hat (=dank AF.Logik selbst mit SSAA Flimmern). Dadurch, dass Ati Chips die Existenz von Mipmaps (im Ggs. zu NV Chips) relativ gleichgültig ist, ist das Bild etwas homogener.

Wobei GTASA natürlich ein Extrembeispiel ist....

Fallacy
2006-05-18, 17:44:46
Mr. Lolman[/POST]']Hängt euch bitte am brilinearen Filter nicht so auf. Ich mag ihn auch nicht, aber deswegen wieder auf NV Q + Tri Opt gehen, halt ich für übertrieben.


Schreibt das jemand?!

Es war die Überlegung ob es sinnvoll wäre evtl bei beiden Herstellern den brilinearen Filter zu aktivieren. Nicht mehr und nicht weniger. Aber ich schrieb doch extra, dass dies nicht (mehr) möglich ist, da unter HQ alle Optimierungen deaktiviert werden und Quality einen herstellerübgreifenden Vergleich nicht rechtfertigt.


Ihr könnt ja auch bedenken, dass bisher ganze Zeit zu Ungungsten Atis gebencht wurde, und dass jetzt bei Tests mit NV HQ vs AI low die insgesamt minimalen AF Vorteile bei NV HQ (wenn man überhaupt welche sehen will) zu im Zweifelsfall zu ungunsten NV sind.


Die Logik versteh ich nicht. Weil in der Vergangenheit bein einigen Seiten NVIDIA bevorteiligt wurde, sollen wir nun anfangen ATI zu bevorteilen? Nein, das ist sicherlich nicht Sinn und Zweck der Sache.


Also nur weil, Ati insgesamt beim AF (mit AIlow) ein bisschen schlechter sein mag (ich glaub immernoch nicht ganz daran), braucht man doch nicht gleich alle app spezifischen Optimierungen deaktivieren.


Nenne mir doch einmal bitte die Applikationspezifischen-Optimierungen die ATI wirklich bei den Benchmarks schaden. Bis auf die Shader-Replacements für Doom 3 sind mir keine perfomancesteigernde Maßnahmen bekannt die durch "A.I. = Off" deaktiviert würden - außer eben dem brilinearen Filter, den wir bewusst deaktivieren wollten. Deshalb verstehe ich deine Aufruhr nicht wirklich; bis auf Doom 3 sehe ich keinen wirklichen Nachteil für ATI und den haben sie sich unserer Meinung selbst zuzuschreiben durch die Kopplung von A.I. mit dem brilinearen Filter.


Da kann ich auch damit kommen, dass bei Ati im Gegenzug immernoch dass AA besser aussieht. Und daran kann man auch nix drehen.


An dieser Stelle kann ich mich nur dem obigen Post des Gastes anschließen. Worauf willst du konkret hinaus?


Aber wie auch immer: Ich glaub nicht, dass meine Ausführungen jemanden zum Umdenken bewegen. Deswegen halt versuch ich mich da künftig rauszuhalten. Der Bauer lässt sich halt einerseits nicht gern erklären wie er die Kartoffeln anpflanzen soll, und andererseits les ich auch so regelmässig den gleichen Stuss immer wieder (ai low macht keine bugfixes, sondern cheats. nv cheatet nicht, usw...)

Langsam aber sicher wird es wird unsachlich :(.


Außerdem bin ich mir sicher,dass, wenn ich nicht vor ca. 1 Jahr angefangen hätt, so einen Streß bezügl BQ zu bauen, immernoch jeder NV default mit ATI default für vergleichbar halten würde, bzw. je nach Fanboy zugehörigkeit NV sogar vorne sehen würde.

Glaubst du ernsthaft du wärst der einizige der darüber berichtet hat? Hardware.fr und Beyond3D werf ich einfach nur mal spontan in den Raum. Oder auch Carsten Spille (früher CB - jetzt PCGH).


Wer sich immernoch wundert, hat nicht verstanden, dass man für sein Hobby gerne viel Zeit investiert. Meins sind 3D-Grakas. Und ich war von Anfang an dabei (Matrox Impression). Da dann immer wieder den gleichen Stuss lesen zu müssen, ärgert einem halt.


Du wirst es nicht glauben, aber für fast alle hier ist es ein unentgeldlicher Zeitvertreib - genauso für die meisten Artikelschreiber.

Gast
2006-05-18, 17:47:12
Komisch das City of Heroes (Villains) nicht dieses Flimmern zeigt, und da gibt es ein paar Straßen mehr und Linien als in irgend welchen Renngames. Aber ist ja auch ein OpenGL Game, und OHO on Topic mal wieder nach der ganzen offtopic-sinnlos-sichwiederholende-"diskussion".

TSAA und MSAA funktionieren in City of Heroes leider nicht, das Game häts nötig mit seinen Pixelbäumen.

Mr. Lolman
2006-05-18, 17:47:51
Gast[/POST]']Wie meinst du das? Wenn du beim G70 das gamma-korrekte Downsampling aktivierst, ist das MSAA gleichwertig. Das Muster ist nur gespiegelt, aber das weißt du ja sicher selbst.


Ne nicht ganz. Ich hab (leider*) schon div. Screenshots gesehen wo NVs gammakorrektes AA minimal schlechter (=härter abgestuft) aussah, als das von ATi. (u.A. von Hl², Farcry und div. 3dmark05 Szenen). Vll. mach ich mir die Mühe die betreffenden Posts rauszusuchen.





*weil das wieder unnötige Diskussion heraufbeschwört...

Banshee18
2006-05-18, 17:53:03
Mr. Lolman[/POST]']Es geht um nicht Rache,...
Das hat sich in deinem letzten Posting so angehört. ;)

Mr. Lolman[/POST]']Ich will dir ja nicht zunahe treten und fragen bei wievielen Spielen ihr die BQ verglichen habt, aber je nach Spieleauswahl steht ATi mit AI low sogar besser da als NV mit HQ.
Ich hatte einen NV40 und habe jetzt einen R520 (der hoffentlich bald aus der RMA kommt :( ) und konnte deshalb bei einigen Spielen (leider nicht direkt) vergleichen. Dass A.I. low oft besser ist, habe ich ja weiter oben schon geschrieben und sogar extra noch ein "viel" hinzugefügt.


Mr. Lolman[/POST]']Und fair ist es wirklich nicht, die ganzen "Bugfixes" zu deaktivieren. OK Ati, hat die Filteroptimierungen daran gekoppelt (=mies), dafür kann man die "Bugfixes" bei NV garnicht abschalten (=mies).
Genau. Allerdings verstehe ich nicht, warum es mies sein soll, dass man Bugfixes nicht abschalten kann, wenn es wirklich reine Bugfixes (bzw. Shaderreplacements) sind, die nichts an der Bildqualität ändern. Wofür es da extra eine Option ala A.I. gibt, ist mir rätselhaft. Wahrscheinlich gehts ATI beim A.I. doch nur um die "Filteroptimierungen" (=fies).

Mr. Lolman[/POST]']Es stecken 2 anscheinend sehr unterschiedliche Philosophien hinter ATi und NV. Und die bisherige Benchtechnik ist branchenübergreifend kompatibler zu der von NV. Ich vertief das gerne weiter per PN.
Für Interessante Infos habe ich immer ein offenes Ohr bzw. Postfach. ;)

Mr. Lolman
2006-05-18, 18:00:53
Fallacy[/POST]']
Die Logik versteh ich nicht. Weil in der Vergangenheit bein einigen Seiten NVIDIA bevorteiligt wurde, sollen wir nun anfangen ATI zu bevorteilen? Nein, das ist sicherlich nicht Sinn und Zweck der Sache.

Nein sollt ihr nicht. Es ist ja noch nichtmal geklärt, ob ATi dadurch nen minimalen (minimal weil NV ja auch herumtrixt) Vorteil hätte, oder nicht.

Aber so pfeif ich doch drauf. Z.B. ist bei mir Oblivion mit Aioff HDR+noAA tw. sogar langsamer als mit AIlow HDR+AA. Und nur weil ihr der Meinung seid, dass NV durch die, mit AIlow tw. auftretenden Unfeinheiten, benachteiligt würde, soll ich gleich ein völlig falsches Bild von der Leistungsfähigkeit der Karte bekommen? AFAIK ist ja nichtmal mehr der automatische Shader compiler aktiv, wenn man AI deaktiviert.

In so nem Fall darf man dann aber auch keine TWIMTBP Spiele mehr benchenm, weil die Shader dann ja ohnehin nach NV Geschmack geschrieben wurden. (oder gar direkt von ihnen selbst)

Fallacy[/POST]']
Nenne mir doch einmal bitte die Applikationspezifischen-Optimierungen die ATI wirklich bei den Benchmarks schaden. Bis auf die Shader-Replacements für Doom 3 sind mir keine perfomancesteigernde Maßnahmen bekannt die durch "A.I. = Off" deaktiviert würden - außer eben dem brilinearen Filter, den wir bewusst deaktivieren wollten. Deshalb verstehe ich deine Aufruhr nicht wirklich; bis auf Doom 3 sehe ich keinen wirklichen Nachteil für ATI und den haben sie sich unserer Meinung selbst zuzuschreiben durch die Kopplung von A.I. mit dem brilinearen Filter.

x Shader compiler
x per Hand ausgetauschte Shader
x Speichercontroller Optimierungen
x und wahrscheinlich sonst noch irgendwas ;)

Fallacy[/POST]']
An dieser Stelle kann ich mich nur dem obigen Post des Gastes anschließen. Worauf willst du konkret hinaus?

Dass AIlow vs HQ fairer ist, als AIoff vs HQ.

Fallacy[/POST]']
Glaubst du ernsthaft du wärst der einizige der darüber berichtet hat? Hardware.fr und Beyond3D werf ich einfach nur mal spontan in den Raum. Oder auch Carsten Spille (früher CB - jetzt PCGH).

Ne, nicht der Einzige. Aber einer der Ersten.. (obwohl diverse AF/Control Panel Probleme schon vorher min 1 Jahr exisiterten. Bloß hatt ich da noch keine NV Karte)

Fallacy[/POST]']
Du wirst es nicht glauben, aber für fast alle hier ist es ein unentgeldlicher Zeitvertreib - genauso für die meisten Artikelschreiber.

Um so wichtiger ists, dass man einen gemeinsamen Konsens findet. Was soll sich der Leser denken, wenn 3DC, CB, PCGH meinen, dass AIlow mit HQ vergleichbar ist, HT4U mit AIoff bencht und alle anderen überhaupt nach NVs Benchguides mit Q+Opts testen?

Fallacy
2006-05-18, 18:01:39
Mr. Lolman[/POST]']Und warum ist dir dass bekannt? Weil ICHs zufälligerweise herausgefunden hab. Ich hab dann noch ein bisschen herumprobiert, aber bei diversen Spielen erlaubt der NV Treiber lustigerweise nichtmal die Colormipmapfunktionion von Tommtis 3D-Analyze (die auch nur exisitert, weil ich dem Thomas damals nahegelegt hab sie einzubauen). Ein Schelm wer böses denkt...

Ehrlich gesagt, denke ich eher, dass bei Hardware.fr gelesen zu haben - kann mich diesbezüglich auch irren. Aber auch hier die Frage: Worauf willst du hinaus? Falls die Erkenntnis von dir stammt ist es doch auch in Ordnung.

Damit erreicht ihr eher, dass Ati auch mit AI off, herumtrickselt, um die Performance auch bei AIoff vergleichen hochzuhalten. Das ist aber auch nicht im Sinne der Kunden, die auch hinundwieder auf die App spezifischen Opts. verzichten wollen/müssen. (weil zB AA treiberseitig deaktiviert wurde, oder der Treiber sonst irgendein bisher nicht behobenes Problem hat)

Wir wollten mit dem Artikel nicht erreichen, dass ATI deshalb den brilinearen Filter von deren Catalyst A.I. trennt - Das wäre wohl etwas weltfremd soetwas zu denken ;). Unser Ziel war lediglich ein möglichst fairer Vergleich zwischen beiden Herstellern.

Es stecken 2 anscheinend sehr unterschiedliche Philosophien hinter ATi und NV. Und die bisherige Benchtechnik ist branchenübergreifend kompatibler zu der von NV. Ich vertief das gerne weiter per PN.
Ich warte irgendwie immernoch vergebens auf meinen Scheck von NVIDIA :(.

@Banshee18: Full Ack. :)

Mr. Lolman
2006-05-18, 18:07:06
Banshee18[/POST]']
Genau. Allerdings verstehe ich nicht, warum es mies sein soll, dass man Bugfixes nicht abschalten kann, wenn es wirklich reine Bugfixes (bzw. Shaderreplacements) sind, die nichts an der Bildqualität ändern. Wofür es da extra eine Option ala A.I. gibt, ist mir rätselhaft. Wahrscheinlich gehts ATI beim A.I. doch nur um die "Filteroptimierungen" (=fies).

Vll. um ggf. der optimierungswut des Treibers einen Riegel vorsetzen zu können. Bei BF2 funzt bei mir zB kein AAA wenn ich AI aktiv hab. Bei FEAR gabs auch nen Treiber wo das Spiel nur korrekt rannte wenn man AI deaktivierte.

Banshee18[/POST]']
Für Interessante Infos habe ich immer ein offenes Ohr bzw. Postfach. ;)

Naja, wär eh nur ein Abriss an Beispielen wo irgendwas unfair verglichen wurde, oder Wettbewerbsverzerrung stadtfand in dem man unwissenderweise all das Geschwätz div Marketingspapiere für voll genommen hat und im Artikel als ergründete Tatsachen hingestellt hat...

Raff
2006-05-18, 18:18:22
Die Lösung ist eigentlich ganz einfach – aber keinesfalls mehr objektiv. Aber da BQ eine Frage des Geschmacks und der Kenntnisse ist, wäre "adaptives Benchmarking" (ABM ;)) genau das richtige. Wenn man sich schon Timedemos aussucht und eventuell auch mal auf den Screen schaut, dann kann man auch die BQ vergleichen. Dann wird mit den Optimierungen gebencht, die ähnlich aussehen (den Arbeitsaufwand dahinter außen vor gelassen).

MfG,
Raff

Mr. Lolman
2006-05-18, 18:19:44
Fallacy[/POST]']Ehrlich gesagt, denke ich eher, dass bei Hardware.fr gelesen zu haben - kann mich diesbezüglich auch irren. Aber auch hier die Frage: Worauf willst du hinaus? Falls die Erkenntnis von dir stammt ist es doch auch in Ordnung.

Anscheinend geh ich fälschlicherweise davon aus, dass die Infos zwischen den Zeilen, leichter zu deuten sind. Klar ists ok wenn ich das herausgefunden hab. Aber oft genug wird UT2004 als die berühmte Ausnahme von der Regel verkauft. Und dadurch, dass die Entdeckung eher Zufall war, und ich feststellen musste dass die Colormipmapfunktion von Tommti nicht immer funktioniert, hab ichs dabei belassen.

Soll heissen = die einzig bemerkte HQ "bri"-Optimierung != die einzig existente. Umgekehrt könnt ich ja davon ausgehen, dass überall beschissen wird, wenn in 100% der überprüften Fälle ein Beschiss vorliegt, oder?

BTW: Hardwarefr. hat iirc davon erst 4-5 Monate später berichtet. Und zwar erst zum R520 Release. Den NV40 gibts aber doch schon ein bisschen länger.


Fallacy[/POST]']
Wir wollten mit dem Artikel nicht erreichen, dass ATI deshalb den brilinearen Filter von deren Catalyst A.I. trennt - Das wäre wohl etwas weltfremd soetwas zu denken ;). Unser Ziel war lediglich ein möglichst fairer Vergleich zwischen beiden Herstellern.

Ein ehrenwertes Ziel. Das ist aber auch das von xbitlabs und die benchen immernoch mit Q+Opts. Imo habt ihr dieses Ziel auch nicht erreicht (seid aber näher als xbit ;))

Fallacy[/POST]']
Ich warte irgendwie immernoch vergebens auf meinen Scheck von NVIDIA :(.

@Banshee18: Full Ack. :)

Jaja. Die Scheckkeule. Das ist auch das Totschlagargument der PCGH. Tatsächlich spielen warhscheinlich (meinetwegen unterbewusst) die persönlichen Vorlieben ein bisschen mit. *aufdenschlipstret*

Carsten hat bei dem PCGH AreaAF Debakel sicher auch keinen Scheck von NV kassiert (hoff ich halt). Trotzdem ist der Bildvergleich alles andere als fair gewesen...

Fallacy
2006-05-18, 18:22:37
Mr. Lolman[/POST]']Aber so pfeif ich doch drauf. Z.B. ist bei mir Oblivion mit Aioff HDR+noAA tw. sogar langsamer als mit AIlow HDR+AA. Und nur weil ihr der Meinung seid, dass NV durch die, mit AIlow tw. auftretenden Unfeinheiten, benachteiligt würde, soll ich gleich ein völlig falsches Bild von der Leistungsfähigkeit der Karte bekommen? AFAIK ist ja nichtmal mehr der automatische Shader compiler aktiv, wenn man AI deaktiviert.

Dann ist Oblivion ein Extremfall, die von uns getesteten Spiele leideten deutlich weniger stark unter der Deaktivierung von Catalyst A.I. Der Perfomance-Verlust bewegte sich - wenn ich mich richtig entsinne - in den meisten Fällen im gleichen Bereich wie die Aktivierung des Brilinearen Filter unter Q. Also denke ich, dass der Hauptgrund für die schlechtere Perfomance auch der brilineare Filter ist (Abgesehen von den Shaderreplacements in Doom3) ist.


x Shader compiler
x per Hand ausgetauschte Shader
x Speichercontroller Optimierungen
x und wahrscheinlich sonst noch irgendwas ;)


Hast du hierzu irgendwelche Quellen? Vor allem die Optimierungen bezüglich des Shader Compilers und Speichercontroller würden mich interessieren, weil ich es hier überhaupt nicht nachvollziehen könnte, warum es ATI erlauben sollte diese zu deaktivieren.

Mr. Lolman
2006-05-18, 18:29:27
Raff[/POST]']Die Lösung ist eigentlich ganz einfach – aber keinesfalls mehr objektiv. Aber da BQ eine Frage des Geschmacks und der Kenntnisse ist, wäre "adaptives Benchmarking" (ABM ;)) genau das richtige. Wenn man sich schon Timedemos aussucht und eventuell auch mal auf den Screen schaut, dann kann man auch die BQ vergleichen. Dann wird mit den Optimierungen gebencht, die ähnlich aussehen (den Arbeitsaufwand dahinter außen vor gelassen).

MfG,
Raff

Meine Rede. Noch besser: Es sollte nicht die BQ der kleinste gemeinsame Nenner sein, sondern die fps. BQ kann man eh nicht vernünftig angleichen. Ein Test wo alle Karten zB. in Oblivion 25fps avg, und in D³ MP 60fps und in GTL 45 fps erreichen und man die Balken gegen, max. mögliche Darstellungsqualität illustrierende Screenshots, austauscht wär ja mal echt ne Verbesserung vgl zur bisherigen Benchsituation.

Am besten man koppelt das mit Savegamebenchmarks, und schon exisitiert der 1. echte praxisnahe, faire Test.

Mr. Lolman
2006-05-18, 18:36:22
Fallacy[/POST]']Dann ist Oblivion ein Extremfall, die von uns getesteten Spiele leideten deutlich weniger stark unter der Deaktivierung von Catalyst A.I. Der Perfomance-Verlust bewegte sich - wenn ich mich richtig entsinne - in den meisten Fällen im gleichen Bereich wie die Aktivierung des Brilinearen Filter unter Q. Also denke ich, dass der Hauptgrund für die schlechtere Perfomance auch der brilineare Filter ist (Abgesehen von den Shaderreplacements in Doom3) ist.

Hast du hierzu irgendwelche Quellen? Vor allem die Optimierungen bezüglich des Shader Compilers und Speichercontroller würden mich interessieren, weil ich es hier überhaupt nicht nachvollziehen könnte, warum es ATI erlauben sollte diese zu deaktivieren.

Zumindest lt. ATi deaktiviert man mit AIoff jegliche applikationsspezifische Optimierung.

Aber man kanns ja testen. Den Releasetreiber von vom R520 gegen einen aktuellen benchen. Jew. in D³ mit AIon/off. Wenn der Einbruch beim Releasetreiber kleiner ist, bzw. die AIoff Performance relativ ähnlich, werden die spez. Speichercontrolleroptimierungen auch mit deaktiviert.

BTW: Zumindest bei QuakeIV und Riddick existiert auch Shaderreplacement. Ich geh noch weiter und behaupte, dass fast jeder komplexere Shader, der nicht direkt vom IHV stammt, umgebastelt/ausgetauscht wird.

Fallacy
2006-05-19, 11:55:16
Mr. Lolman[/POST]']Zumindest lt. ATi deaktiviert man mit AIoff jegliche applikationsspezifische Optimierung.


Die Aussage ist mir bekannt. Ich glaube ich habe dich einfach nur missverstanden, bezüglich der Shader-Compiler-Optimierungen und Speichercontroller-Optimierungen. Ich hatte es so verstanden als handelt es sich hier um generelle Optimierungen und nicht um applikationsabhängige Optimierungen. Auch wenn ich mir ehrlich gesagt nicht vorstellen kann - falls solche Optimierungen (applikationsspezifisch) wirklich existieren -, dass ATI diese mit in das Catalyst A.I. packt. Diese Beiden Optimierungen würden letztendlich ja nur interne Abläufe verändern und keinen Einfluss auf das Ergebniss haben, wenn ich die Namen dieser Optimierungen richtig deute.


Aber man kanns ja testen. Den Releasetreiber von vom R520 gegen einen aktuellen benchen. Jew. in D³ mit AIon/off. Wenn der Einbruch beim Releasetreiber kleiner ist, bzw. die AIoff Performance relativ ähnlich, werden die spez. Speichercontrolleroptimierungen auch mit deaktiviert.


So eine absolute Aussage kannst du IMHO mit so einem Vergleich nicht treffen. Schließlich weißt du nicht, welche Verbesserungen und Veränderungen der Treiber generell in der Zwischenzeit erhalten hat.


BTW: Zumindest bei QuakeIV und Riddick existiert auch Shaderreplacement. Ich geh noch weiter und behaupte, dass fast jeder komplexere Shader, der nicht direkt vom IHV stammt, umgebastelt/ausgetauscht wird.
Ich wäre dir wirklich dankbar für ein paar Quellen oder Beweise :).

Aber auch selbst wenn zusätzlich Quake 4 und Riddick Shaderreplacements einsetzen und zusätzlich applikationsspezifische Speichercontroller- und Shader-Compiler-Optimierungen deaktiviert würden, hätten wir das Catalyst A.I. deaktiviert. Denn - ich merke wir drehen uns langsam im Kreis - in den getesteten Spielen (welche z.B. keine Autorennspiele beinhalteten) war in unseren Augen die Bildqualität von HQ zu A.I Off ohne HQ-AF am besten vergleichbar.

Gast
2006-05-19, 11:58:03
Vor allem die Optimierungen bezüglich des Shader Compilers und Speichercontroller würden mich interessieren, weil ich es hier überhaupt nicht nachvollziehen könnte, warum es ATI erlauben sollte diese zu deaktivieren.

Das sehe ich auch so, es macht doch gar keinen Sinn, notwendige Bugfixes deaktivierbar zu machen, also wird das auch nicht so sein, da kann ATI behaupten was sie wollen.

Winter[Raven]
2006-05-19, 11:59:06
Fallacy[/POST]']Denn - ich merke wir drehen uns langsam im Kreis - in den getesteten Spielen (welche z.B. keine Autorennspiele beinhalteten) war in unseren Augen die Bildqualität von HQ zu A.I Off ohne HQ-AF am besten vergleichbar.

Lass es einfach, du redest sowieso nur gegen die Wand... :|

Gil-galad
2006-05-19, 12:40:07
Mr. Lolman[/POST]']Ne nicht ganz. Ich hab (leider*) schon div. Screenshots gesehen wo NVs gammakorrektes AA minimal schlechter (=härter abgestuft) aussah, als das von ATi. (u.A. von Hl², Farcry und div. 3dmark05 Szenen). Vll. mach ich mir die Mühe die betreffenden Posts rauszusuchen.

X1800 XL 4xAA
http://bilder.amd-insight.de/07520062139554xaa_fsaa_test_ati.png

Geforce 7800 GT 4xAA (gamma-korrigiert)
http://bilder.amd-insight.de/07520062140454xaa_fsaa_test_nv.png

Die Bilder sind zwar nicht aus einem Spiel, aber trotzdem sehen die meisten Kanten bei ATi imo besser aus.

Coda
2006-05-19, 12:47:19
Das Muster ist umgedreht, das ist alles, deshalb sind manche Kanten auf ATi und manche auf nVIDIA schöner.

Dass das Testbild durch die Unsymetrie einen bevorzugen könnte ist klar. Das ganze sollte man auch mal 90° gedreht haben.

Gast
2006-05-27, 21:00:59
Gil-galad[/POST]']X1800 XL 4xAA
http://bilder.amd-insight.de/07520062139554xaa_fsaa_test_ati.png

Geforce 7800 GT 4xAA (gamma-korrigiert)
http://bilder.amd-insight.de/07520062140454xaa_fsaa_test_nv.png

Die Bilder sind zwar nicht aus einem Spiel, aber trotzdem sehen die meisten Kanten bei ATi imo besser aus.

wenn ich die bilder übereinanderlege finde ich ungefähr gleich viel kanten die bei ati und gleich viele kanten die eine spur besser bei ati und welche die besser auf nv aussehen.