Mähman
2003-07-26, 11:52:49
Ich habe soeben die neuen Omega-Treiber ausgiebig getestet und dabei folgendes unerklärliches Phänomen festgestellt:
Wenn ich das alte Unreal (d.h. Unreal I) spiele, komme ich unter 12x10 unter Open GL auf durchschnittlich 98 fps (ohne AA und AF). Mit 16xAF und 4xAA komme ich hingegen auf durchschnittlich 108 fps (es ist wirklich eingeschaltet, man sieht es, die Qualität ist besser). Wie ist sowas zu erklären? Beim vorherigen Omegatreiber sowie bei den vorher getesteten ATI-Treibern konnte ich dieses Phänomen nicht feststellen. Hat jemand hiefür eine Erklärung? Den Vulpine GL Mark habe ich übrigens auch getestet, dort liegt das Verhalten des Treibers im grünen Bereich.
Bei dieser Gelegenheit wäre ich dankbar, zu wissen, ob Unreal II standardmässig eigentlich unter Direct3D oder unter Open GL läuft (meines Wissens Direct 3D, bin jedoch nicht mehr ganz sicher).
Wenn ich das alte Unreal (d.h. Unreal I) spiele, komme ich unter 12x10 unter Open GL auf durchschnittlich 98 fps (ohne AA und AF). Mit 16xAF und 4xAA komme ich hingegen auf durchschnittlich 108 fps (es ist wirklich eingeschaltet, man sieht es, die Qualität ist besser). Wie ist sowas zu erklären? Beim vorherigen Omegatreiber sowie bei den vorher getesteten ATI-Treibern konnte ich dieses Phänomen nicht feststellen. Hat jemand hiefür eine Erklärung? Den Vulpine GL Mark habe ich übrigens auch getestet, dort liegt das Verhalten des Treibers im grünen Bereich.
Bei dieser Gelegenheit wäre ich dankbar, zu wissen, ob Unreal II standardmässig eigentlich unter Direct3D oder unter Open GL läuft (meines Wissens Direct 3D, bin jedoch nicht mehr ganz sicher).