PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal 2 benchmarks! warum optimiert nvidia nicht?


mapel110
2003-07-21, 04:54:05
http://www.digit-life.com/articles2/radeon/r9600-2.html#p3
da, schauts euch mal an. also ich finds interessant.
wieso schaffts ATI auf dieses game zu optimieren und nvidia nicht ?

Demirug sagte zwar, dass unreal2 andere shader einsetzt, aber was soll das konkret heissen ?
ATI bringt in unreal2 viel mehr leistung als sämtliche nv karten. aber in unreal tournament 2003 siehts teilweise extrem anders aus.

unreal2
http://www.ixbt.com/video2/images/r9600-2/unr2.png

unreal tournament 2003
http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_a.php

tb
2003-07-21, 05:26:12
Einfachste Theorie wäre: Viele Tester lassten UT2003 ablaufen anstatt Unreal 2, wozu also die Mühe.... (wie gesagt nur ne einfache Theorie von mir)

Wenn mir jemand sagen könnte ob und wie ich mit der Unreal 2 Demo nen Benchmark ablaufen lassen kann, könnt ich da mal ein wenig forschen.

Thomas

Gast1307
2003-07-21, 15:03:37
Wat wissen wir ??? Frag doch NVidia ;)

PCGH_Thilo
2003-07-21, 18:39:05
Original geschrieben von tb
Einfachste Theorie wäre: Viele Tester lassten UT2003 ablaufen anstatt Unreal 2, wozu also die Mühe.... (wie gesagt nur ne einfache Theorie von mir)

Wenn mir jemand sagen könnte ob und wie ich mit der Unreal 2 Demo nen Benchmark ablaufen lassen kann, könnt ich da mal ein wenig forschen.

Thomas

dazu braucht man entweder ein savegame (könnte ich dir schicken) und jemand weiß, wie man eine zwischensequenz per konsole aufruft.

PCGH_Thilo
2003-07-21, 18:41:15
Original geschrieben von mapel110
http://www.digit-life.com/articles2/radeon/r9600-2.html#p3
da, schauts euch mal an. also ich finds interessant.
wieso schaffts ATI auf dieses game zu optimieren und nvidia nicht ?

Demirug sagte zwar, dass unreal2 andere shader einsetzt, aber was soll das konkret heissen ?
ATI bringt in unreal2 viel mehr leistung als sämtliche nv karten. aber in unreal tournament 2003 siehts teilweise extrem anders aus.

unreal2
http://www.ixbt.com/video2/images/r9600-2/unr2.png

unreal tournament 2003
http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_a.php

an sich uralt, wenn hier jemand pcgh liest. dass die komplette fx-riege bei unreal 2 alt aussieht, haben wir schon öfter geschrieben. erklärungen sind bisher dürftig. stichwort "shader-optimierung" dürfte hier aber eine wichtige rolle spielen.

][immy
2003-07-21, 18:42:38
wie kommst du auf die idee das diese sachen noch net optimiert sind?
das sind ja nicht die top-modelle der grafikkarten bzw die GeForce 5600 ist langsamer als die Radeon 9600 pro.
ich würd mich mal lieber fragen wie langsam die 5600 pro wäre wenn diese keine optimierungen besitzen würd ;)

DocEvil
2003-07-21, 20:12:57
hm, ich hab jetzt mal nach einem benchmark für u2 ausschau gehalten, alles was ich auch anhieb gefunden hab war BenchEmAll (http://benchemall.nvworld.ru/?src=bta23):


"Benchmark session result
Operating System: Windows 2000 Professional (5.0, Build 2195) Service Pack 3
Processor: AMD Athlon(tm) XP 2200+, MMX, 3DNow, ~1.8GHz
Memory: 512MB RAM
DirectX Version: DirectX 9.0a (4.09.0000.0901)
Card name: RADEON 9500
Driver Version: 6.14.0010.6360 (English)

Detailed info dir:
C:\Programme\BenchEmAll\result\2003.07.21.20.01.36.\

-----------------------------------------------------------
Unreal II: The Awakening
1024x768 Average: 63.45 Unreal 2001, 33.81 Min, 91.44 Max
-----------------------------------------------------------

Update:

Mit 2xAA und 8xAF:
1024x768 Average: 57.16 Unreal 2001, 32.64 Min, 80.19 Max

Mit 4xAA und 16xAF:
1024x768 Average: 53.51 Unreal 2001, 31.34 Min, 76.85 Max


wohl eher cpu-limitiert bei mir :grübel:

tb
2003-07-21, 22:12:11
Original geschrieben von PCGH_Thilo
dazu braucht man entweder ein savegame (könnte ich dir schicken) und jemand weiß, wie man eine zwischensequenz per konsole aufruft.

Okay, wäre nett, wenn Du mir dass savegame mal mailen(thomas@tommti-systems.com) könntest.

Thomas

PCGH_Thilo
2003-07-22, 10:09:28
Original geschrieben von tb
Okay, wäre nett, wenn Du mir dass savegame mal mailen(thomas@tommti-systems.com) könntest.

Thomas

unterwegs =)

LovesuckZ
2003-07-22, 10:11:16
Original geschrieben von PCGH_Thilo
unterwegs =)

Könntest du mal Unreal2 mit dem unoptimierten AF der r300 Serie durchlaufen lassen?

Quasar
2003-07-22, 11:03:55
Original geschrieben von PCGH_Thilo
unterwegs =)

Mir auch plz?

PCGH_Thilo
2003-07-22, 13:36:48
Original geschrieben von Quasar
Mir auch plz?

im körbchen ;-)

Riptor
2003-07-22, 14:29:02
Ich gern verpackt zum mitnehmen! :D

ernesto.che
2003-07-23, 03:18:18
Original geschrieben von Riptor
Ich gern verpackt zum mitnehmen! :D

wie soll das gehen?

<<

Dieser Benutzer hat festgelegt, dass er keine eMails durch dieses Board erhalten will. Wenn Du ihm trotzdem eine eMail schicken möchtest, wende Dich bitte an den Administrator, der Dir vielleicht weiterhelfen kann.
>>

mapel110
2003-08-10, 12:57:26
http://www.digit-life.com/articles2/digest3d/0703/itogi-video-un2-w2k-aaa-p41024.html
mal wieder nen paar "aktuellere" zahlen :D

LovesuckZ
2003-08-10, 13:14:15
Original geschrieben von mapel110
http://www.digit-life.com/articles2/digest3d/0703/itogi-video-un2-w2k-aaa-p41024.html
mal wieder nen paar "aktuellere" zahlen :D

Und überaus unrealistisch. Dies faellt mir beim Roundup von denen schon des öfteren aus...

StefanV
2003-08-10, 13:27:40
Original geschrieben von LovesuckZ
Und überaus unrealistisch. Dies faellt mir beim Roundup von denen schon des öfteren aus...

Warum??
Weil NV so schlecht abschneidet bzw ATI so gut??

Außerdem find ich den Bench äußerst unfair, da ATI mit 16° AF gebencht wurde, während die nV Karten 'nur' mit 8°AF gebencht wurden!!

LovesuckZ
2003-08-10, 13:30:47
Nein, weil eine 9600pro gleichschnell wie eine 5900 ist
Eine 9100 gleichschnell wie eine 9600 ist.
Eine 5200 mit 64BIT schneller als eine mit 128BIT ist.
Eine TI4200 schneller als eine TI4600 mit Übertaktung ist.
Eine 9000pro schneller als eine 5200 ist.
Eine 5900 gleichschnell wie eine 5800 ist.
usw.

Razor
2003-08-10, 13:39:30
Der Vergleich ist insofern schon 'unfair', weil ATI hier Cheatet (Aniso-Cheat, siehe auch UT2003), nVidia aber nicht.

Auch habe ich grad' mal selbst getestet...
(XP2700+, FX5900 @450/950 WinXPSP1a-fp Deto 44.71 4xAA/8°AF)
Unreal II: The Awakening

800x600 not selected.
1024x768 Average: 45.09 Unreal 2001, 27.15 Min, 104.94 Max,
1280x1024 not selected.
1600x1200 not selected.
Und für 'ne 9500u auf P4 3.2 kam bei denen nur 36,7fps zustande...
Hinten und vorne einfach nicht vergleichbar.

Razor

P.S.: 51,77fps habe ich mit 4xAA/4°AF bekommen und damit auch eine wesentlich bessere aniso-quali, als bei den Radeons...
:D

mapel110
2003-08-10, 13:42:57
Original geschrieben von Razor
Der Vergleich ist insofern schon 'unfair', weil ATI hier Cheatet (Aniso-Cheat, siehe auch UT2003), nVidia aber nicht.

Auch habe ich grad' mal selbst getestet...
(XP2700+, FX5900 @450/950 WinXPSP1a-fp Deto 44.71 4xAA/8xAF)
Unreal II: The Awakening

800x600 not selected.
1024x768 Average: 45.09 Unreal 2001, 27.15 Min, 104.94 Max,
1280x1024 not selected.
1600x1200 not selected.
Und für 'ne 9500u auf P4 3.2 kam bei denen nur 36,7fps zustande...

Hinten und vorne einfach nicht vergleichbar.

Razor

bei ATI ist es eine generelle optimierung des AF. die betrifft alle D3D anwendungen.
was können wir dafür, dass nvidia das nicht in jedem game so macht und es lieber nur für benchies liebling ut2003 einschaltet?!

/edit
hast ja obendrein deinen ram um 50 mhz übertaktet.

StefanV
2003-08-10, 13:44:10
Original geschrieben von LovesuckZ
Nein, weil eine 9600pro gleichschnell wie eine 5900 ist
Eine 9100 gleichschnell wie eine 9600 ist.
Eine 5200 mit 64BIT schneller als eine mit 128BIT ist.
Eine TI4200 schneller als eine TI4600 mit Übertaktung ist.
Eine 9000pro schneller als eine 5200 ist.
Eine 5900 gleichschnell wie eine 5800 ist.
usw.

1. ja und??
Schonmal die Settings betrachtet??
Kann also durchaus sein..

2. das ebenfalls...
Noch dazu, da eine 9100 den Vorteil von Bi-AF hat...

3. Messtoleranz bzw Druckfehler/Irrtum oder die Bandbreite ist irrelevant...

4. da die Karte nicht näher genannt ist -> ev. sind die Latenzen des RAMs deutlich höher??
Oder aber man hat zu hoch übertaktet...

5. aufgrund der Settings kann das durchaus passieren, zumal nV ja nicht wirklich gut auf UT2 optimiert hat...

6. ist das nicht ein offenes Geheimnis?? :|

Razor
2003-08-10, 14:06:26
Original geschrieben von mapel110
bei ATI ist es eine generelle optimierung des AF. die betrifft alle D3D anwendungen.
was können wir dafür, dass nvidia das nicht in jedem game so macht und es lieber nur für benchies liebling ut2003 einschaltet?!

/edit
hast ja obendrein deinen ram um 50 mhz übertaktet.
50MHzDDR oder auch 100MHz... ja.
Dafür hab' ich keine 256MB Speicher !
;-)

Nichts desto trotz sind diese Benches NICHT vergleichbar.
Zumal hier ATI zu lasten der BQ 'optimiert' und damit im eigentlichen Sinne cheatet, oder ?

Mich würden die gleichen Ergebnisse mal interessieren, wenn bei den Radeons mal mit dem rTool aktiviertes Aniso zum Einsatz kommt, welches per InGame-INI angesteuert wird (wichtig ;-).

UT2003 ist insofern vergleichbar, als dass hier 'gleichartige Optimierungen' zum Tragen kommen...
:D

Razor

P.S.: Das so 'etwas' von SP kommt, war ja klar... *eg*

mapel110
2003-08-10, 14:18:36
Original geschrieben von Razor
50MHzDDR oder auch 100MHz... ja.
Dafür hab' ich keine 256MB Speicher !
;-)

Nichts desto trotz sind diese Benches NICHT vergleichbar.
Zumal hier ATI zu lasten der BQ 'optimiert' und damit im eigentlichen Sinne cheatet, oder ?

Mich würden die gleichen Ergebnisse mal interessieren, wenn bei den Radeons mal mit dem rTool aktiviertes Aniso zum Einsatz kommt, welches per InGame-INI angesteuert wird (wichtig ;-).

UT2003 ist insofern vergleichbar, als dass hier 'gleichartige Optimierungen' zum Tragen kommen...
:D

Razor

P.S.: Das so 'etwas' von SP kommt, war ja klar... *eg*

dafür cheatet ja nvidia beim AA, gelle :D

LovesuckZ
2003-08-10, 14:20:24
Original geschrieben von mapel110
dafür cheatet ja nvidia beim AA, gelle :D

wie denn?

Razor
2003-08-10, 14:21:34
Würde mich auch interessieren...

Exxtreme
2003-08-10, 14:23:10
Original geschrieben von Razor
Nichts desto trotz sind diese Benches NICHT vergleichbar.
Zumal hier ATI zu lasten der BQ 'optimiert' und damit im eigentlichen Sinne cheatet, oder ?


Razor

Nicht unbedingt.

Die Detail- und Lightmaps müssen nur in den seltensten Fällen mit dem Tri-AF gefiltert werden um Mipmap-Banding zu vermeiden. Da fällt mir nur UT2003 und BF1942 ein, bei dem man das Banding leicht sieht. Letzteres aber wohl auch nur wegen dem vermurksten LOD-Bias von -1,5.

mapel110
2003-08-10, 14:25:53
nur ordered grid bei 4x und fehlende gammakorrektur. wie sich das auswirkt, sieht man hier
http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zh_aa_bildqualitaet.php

LovesuckZ
2003-08-10, 14:27:01
Original geschrieben von mapel110
nur ordered grid bei 4x und fehlende gammakorrektur. wie sich das auswirkt, sieht man hier
http://www.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zh_aa_bildqualitaet.php

Was soll dadran ein Cheat sein?
Dann cheatet ATi erst recht beim AF, weil sie es nur mit einer Winkelabhaengigkeit anbieten...

mapel110
2003-08-10, 16:02:37
Original geschrieben von LovesuckZ
Was soll dadran ein Cheat sein?
Dann cheatet ATi erst recht beim AF, weil sie es nur mit einer Winkelabhaengigkeit anbieten...

tja, razor stellt eine generelle optimierung als cheat hin, dann tue ich das auch.

Mr. Lolman
2003-08-10, 16:05:33
Mann jetzt fangt nicht wieder an mit ATis cheat Geschichte.


Stellt euch vor, zwei Baecker backen Broetchen. Die von dem einen sind perfekt,(wenn auch etwas kleiner;)) und der Baecker hat auch im ganzen Dorf den Ruf die Besten Broetchen ueberhaupt zu machen.

Der andere Baecker hats mit den Broetchen nicht ganz so drauf. Sie sind zwar etwas groesser, schmecken aber nicht ganz so gut. (ausserdem gehen die grossen Broetchen in manchen Situationen schneller ein;)) Diese Broetchen, werden billiger verkauft, damit der Baecker genug Gewinn macht. Damit er mit dem perfekten Broetchenbaecker noch konkurrieren kann, macht er seit einiger Zeit alle etwas kleiner und verkauft sie noch billiger. Hinter der Ladentheke, kann man aber immernoch die Broetchen in der alten Groesse, zum alten Preis bekommen, sofern mans weiss.

Der andere Baecker, mit seinen perfekten Broetchen, denkt sich nun, dass mehr Gewinn rauszuschlagen ware, wenn er seinem groessten Kunden (das Hotel zum irreellem Turnier) nun Broetchen verkauft, die auch etwas kleiner sind, waehrend sie im Laden immernoch die gleiche Groesse haben. Nun merkt ein Hotelgast ploetzlich den Unterschied, und faengt an dies den weiteren Kunden des Baeckers zu erzaehlen.

Ein paar sind entruestet, doch die langjaehrigen Freunde des Baeckers meinen, dass dieser ja nur durch die Konkurrenz angespornt wurde, da diese neuerdings generell kleinere Breotchen verkauft. Ausserdem koenne dies auch durch einen Fabrikationsfehler bedingt sein...


So und jetzt frag ich euch, welcher Baecker moralisch schlechter dasteht... (mal ganz abgsehen davon, dass der nicht-so-gute-Broetchen--machende Baecker, seine meisten Kunden wegen seinen genialen Salzstangen hat)

Razor
2003-08-10, 21:34:58
Original geschrieben von Exxtreme
Nicht unbedingt.

Die Detail- und Lightmaps müssen nur in den seltensten Fällen mit dem Tri-AF gefiltert werden um Mipmap-Banding zu vermeiden. Da fällt mir nur UT2003 und BF1942 ein, bei dem man das Banding leicht sieht. Letzteres aber wohl auch nur wegen dem vermurksten LOD-Bias von -1,5.
Auch bei U2 fällt dies verstärkt auf...

Razor

Razor
2003-08-10, 21:36:12
Original geschrieben von mapel110
tja, razor stellt eine generelle optimierung als cheat hin, dann tue ich das auch.
Ich stelle sie lediglich als Cheat hin, wenn BQ geopfert wird.
Dies ist bei UT2003 und U2 (auch bei BF1492) definitiv der Fall !

Razor

mapel110
2003-08-10, 21:38:12
Original geschrieben von Razor
Ich stelle sie lediglich als Cheat hin, wenn BQ geopfert wird.
Dies ist bei UT2003 und U2 (auch bei BF1492) definitiv der Fall !

Razor

tja, das ist bei nvidia und 4xAA generell der fall

Razor
2003-08-10, 21:40:52
Original geschrieben von Mr. Lolman
So und jetzt frag ich euch, welcher Baecker moralisch schlechter dasteht... (mal ganz abgsehen davon, dass der nicht-so-gute-Broetchen--machende Baecker, seine meisten Kunden wegen seinen genialen Salzstangen hat)
Sehr blumig formuliert, aber leider völlig deplaziert.

Mit UT2003 und U2 hat man mal einen direkten Vergleich, wie sich bestimmte Optimierungen auswirken. ATI 'optimiert' (oder cheatet gar) bei beiden, nVidia nur bei UT2003. nVidia liegt dank 'ähnlicher' Optimierung bei UT2003 mit ATI gleichauf, bei U2 hingegen weit zurück. Wenn ich auch trotz 'schlechterer' CPU dieses Ergebnis von ixbt nicht nachvollziehen kann...

Ich hoffe, dass Dir zumindest dazu etwas Vernünftiges einfällt.

Razor

Razor
2003-08-10, 21:43:10
Original geschrieben von mapel110
tja, das ist bei nvidia und 4xAA generell der fall
nVidia macht also das AA absichtlich schlechter, obwohl es besser möglich wäre ?
Sehr interessant...

Oh mann.
Zeig mit bitte, wo das nVidia MSAA jemals besser ausgesehen hat und dann können wir weiter reden.
Bei ATI wird 'richtige' Qualität auf jeden Fall absichtlich zurück gehalten.

Razor

Mr. Lolman
2003-08-11, 12:46:00
Original geschrieben von Razor
Sehr blumig formuliert, aber leider völlig deplaziert.

Mit UT2003 und U2 hat man mal einen direkten Vergleich, wie sich bestimmte Optimierungen auswirken. ATI 'optimiert' (oder cheatet gar) bei beiden, nVidia nur bei UT2003. nVidia liegt dank 'ähnlicher' Optimierung bei UT2003 mit ATI gleichauf, bei U2 hingegen weit zurück. Wenn ich auch trotz 'schlechterer' CPU dieses Ergebnis von ixbt nicht nachvollziehen kann...

Ich hoffe, dass Dir zumindest dazu etwas Vernünftiges einfällt.

Razor


Dass ATis Optimerungen für jedes Spiel allgemeingültig sind, weisst du.. Dass ATi, im Gegensatz zu NV, die auf applikationsspezifischer Ebene geforderte BQ auch erreiht, weisst du auch.

Dass Optimieren nichts verwerfliches ist, solange die Optimierungen die BQ nicht verschlechteren, oder die Fachpresse dies auch dokumentiert, weisst du auch.

In nahezu jedem ATi Review wird auf deren Winkelabhängigkeit hingewiesen. Dass man aber bei NV Karten bei UT2003 nur unter gewissen Verrenkungen zur max BQ kommt, weisst du auch. Dass NV schon beim deaktiverten AF in UT2003 cheatet, weisst du auch... Dass demanch jeder Tester der UT2003 bencht mit NV HW gefälshcte Ergebnisse erreicht ist dir hoffentlich auch klar.

Wenn du das jetzt noch immer abstreitest, hast du den Unterschied zw. Cheaten und Optimieren immernoch nicht kapiert.

(ATIs OPtimierungen sind auch nicht das Gelbe vom Ei. Dadurch, dass das AF aber IMMER gleich wirkt (die BQ nicht für häufig zum benchen verwende Programme gesenkt wird) und die Reviewer auch immer brav, auf das 'schlechtere' AF bei ATi Karten hinweisen, kann ich hier kein Vergehen feststellen.)

Anscheinend ist kommt es auch bei Leos Artikel nicht deutlich genug heraus, das ATi generell ihren AF Algorithmus etwas umschrieben, um mehr Geschwindigkeit bei geringfügig schlechterer BQ zu erreichen, und NV im Ggs. die BQ gezielt für des wahrscheinlich meistgebenchte Spiel herabsetzt. Wäre die BQ genau wie bei ATi generell in ALLEN Spielen niedriger UND würden die Tester darauf HINWEISEN, dann wäre es kein Cheat mehr, sondern genau wie bei ATi eine Optimierung mit dem Nudelholz, und ein Kaufargument würde gänzlich wegfallen.*

Ausserdem gibts ja das rTool, den aTuner, und die OmegaTreiber (beinhalten das rTool) um diese OPtimierung zu umgehen.



*würdest du es auch als gerechtfertigte Optimierung bezeichnen, wenn ATi plötzlich anfinge, geziehlt in UT2003 bei 4xAA nur mehr 2xAA Qualität zu liefern, um beim benchmmarken besser dazustehen?

Razor@Work
2003-08-11, 13:01:58
Original geschrieben von Mr. Lolman
Dass ATis Optimerungen für jedes Spiel allgemeingültig sind, weisst du.. Dass ATi, im Gegensatz zu NV, die auf applikationsspezifischer Ebene geforderte BQ auch erreiht, weisst du auch.
Ja und nein...
ATI's Optimierung führt nur zur visuellen Einbußen, wenn Stages > 0 sichtbar sind.
Insofern werden hier bei weitem nicht alle Spiele gleich behandelt. Auch ist diese Optimierung nicht Allgemeingültig, da diese ja offenbar bei OGL-Engines nicht angewendet wird.
Original geschrieben von Mr. Lolman
Dass Optimieren nichts verwerfliches ist, solange die Optimierungen die BQ nicht verschlechteren, oder die Fachpresse dies auch dokumentiert, weisst du auch.
Klar... und das ist es, was ich ATI bei UT2003, U2 und BF1492 (neben ein paar anderen Apps) ankreide. Und zumindest bei UT2003 tue ich das bei nVidia auch...
Original geschrieben von Mr. Lolman
In nahezu jedem ATi Review wird auf deren Winkelabhängigkeit hingewiesen. Dass man aber bei NV Karten bei UT2003 nur unter gewissen Verrenkungen zur max BQ kommt, weisst du auch. Dass NV schon beim deaktiverten AF in UT2003 cheatet, weisst du auch... Dass demanch jeder Tester der UT2003 bencht mit NV HW gefälshcte Ergebnisse erreicht ist dir hoffentlich auch klar.
Wie auch bei ATI-Karten... ja.
Original geschrieben von Mr. Lolman
Wenn du das jetzt noch immer abstreitest, hast du den Unterschied zw. Cheaten und Optimieren immernoch nicht kapiert.
Ich streite dies in keinem meiner Kommentare ab... ganz im Gegenteil.
So wüsste ich denn gerne, auf was Du hinaus willst...
Original geschrieben von Mr. Lolman
(ATIs OPtimierungen sind auch nicht das Gelbe vom Ei. Dadurch, dass das AF aber IMMER gleich wirkt (die BQ nicht für häufig zum benchen verwende Programme gesenkt wird) und die Reviewer auch immer brav, auf das 'schlechtere' AF bei ATi Karten hinweisen, kann ich hier kein Vergehen feststellen.)
Und genau das ist falsch.
Bei den meisten Games sind die Stages > 0 ja gar nicht sichtbar.
Insofern hier die Verschlechterung der BQ ja gar nicht zum Tragen kommt.

Und da OGL-basierte Games nicht in dieser Form 'optimiert' werden, führt dies Deine Argumentation gar ad Aburdum.
Original geschrieben von Mr. Lolman
Anscheinend ist kommt es auch bei Leos Artikel nicht deutlich genug heraus, das ATi generell ihren AF Algorithmus etwas umschrieben, um mehr Geschwindigkeit bei geringfügig schlechterer BQ zu erreichen, und NV im Ggs. die BQ gezielt für des wahrscheinlich meistgebenchte Spiel herabsetzt. Wäre die BQ genau wie bei ATi generell in ALLEN Spielen niedriger UND würden die Tester darauf HINWEISEN, dann wäre es kein Cheat mehr, sondern genau wie bei ATi eine Optimierung mit dem Nudelholz, und ein Kaufargument würde gänzlich wegfallen.*
Verstehe ich nicht... nur wenn die Tester auf dieses Verhalten der ATI-Treiber hinweisen, ist's dann kein Cheat mehr ?
:|
Original geschrieben von Mr. Lolman
Ausserdem gibts ja das rTool, den aTuner, und die OmegaTreiber (beinhalten das rTool) um diese OPtimierung zu umgehen.
Welche nur in den seltensten Fällen von den Testern (oder gar den Usern) genutzt werden, insofern auch kein Argument gegen die fehlende Option in den Treibern ist.
Original geschrieben von Mr. Lolman
*würdest du es auch als gerechtfertigte Optimierung bezeichnen, wenn ATi plötzlich anfinge, geziehlt in UT2003 bei 4xAA nur mehr 2xAA Qualität zu liefern, um beim benchmmarken besser dazustehen?
Nein, ich würde es genauso als Cheat bezeichnen.
Jede Form von absichtlicher Reduzierung der BQ zur Leistungserhöhung ist für mich ein Cheat. Und damit interessiert es micht nicht, ob diese Form des Eingriffs genereller Natur ist, oder nur bei einem einzigen Game zum Tragen kommt...

Schlechtere BQ ist schlechtere BQ.
Punkt.

Razor

HOT@Work
2003-08-11, 13:07:36
Original geschrieben von Razor
nVidia macht also das AA absichtlich schlechter, obwohl es besser möglich wäre ?
Sehr interessant...

Oh mann.
Zeig mit bitte, wo das nVidia MSAA jemals besser ausgesehen hat und dann können wir weiter reden.
Bei ATI wird 'richtige' Qualität auf jeden Fall absichtlich zurück gehalten.

Razor


Nein, NVidia hat ausversehen OGAA eingebaut :D

Razor@Work
2003-08-11, 13:33:52
Original geschrieben von HOT@Work
Nein, NVidia hat ausversehen OGAA eingebaut :D
Klar... und das immerhin in den letzten 3 Generationen seit gf3...
:lol:

Razor

Steel
2003-08-11, 13:38:39
Original geschrieben von Razor
nVidia macht also das AA absichtlich schlechter, obwohl es besser möglich wäre ?
Sehr interessant...

Oh mann.
Zeig mit bitte, wo das nVidia MSAA jemals besser ausgesehen hat und dann können wir weiter reden.
Bei ATI wird 'richtige' Qualität auf jeden Fall absichtlich zurück gehalten.

Razor
Zum Thema IQ:
Die Unterschiede beim AA sind absolut offensichtlich, während man beim AF mit der Lupe suchen muss - und trotzdem nichts findet.

Gast
2003-08-11, 13:45:36
Original geschrieben von Steel
Zum Thema IQ:
Die Unterschiede beim AA sind absolut offensichtlich, während man beim AF mit der Lupe suchen muss - und trotzdem nichts findet.
Was genau hast Du bei der Forumlierung "absichtlich" jetzt nicht verstanden ?
???

Auch brauche ich sicher keine Lupe, um die Unterschiede beim AF auszumachen...

Razor

Steel
2003-08-11, 14:33:48
Original geschrieben von Gast
Was genau hast Du bei der Forumlierung "absichtlich" jetzt nicht verstanden ?
???

Auch brauche ich sicher keine Lupe, um die Unterschiede beim AF auszumachen...

Razor
Jaja die unglaubliche Verschlechterung der BQ durch ATIs winkelabhängiges AF. ;D

Haarspalterei!!!

Was ist Dir lieber:

* eine "absichtliche" Optimierung, die sich optisch mehr oder weniger überhauptnicht negativ auswirkt, die Geschwindigkeit jedoch verbessert
* eine "unbeabsichtigte" bzw. "technisch begründete" (ROFL) Verschlechterung der BQ

mapel110
2003-08-11, 14:36:31
Original geschrieben von Steel
Jaja die unglaubliche Verschlechterung der BQ durch ATIs winkelabhängiges AF. ;D

Haarspalterei!!!

Was ist Dir lieber:

* eine "absichtliche" Optimierung, die sich optisch mehr oder weniger überhauptnicht negativ auswirkt, die Geschwindigkeit jedoch verbessert
* eine "unbeabsichtigte" bzw. "technisch begründete" (ROFL) Verschlechterung der BQ

naja, es wird gemunkelt, dass auch ATIs "winkelabhängigkeit" eine hardwarelimitierung sein könnte.

Tigerchen
2003-08-11, 14:49:50
Original geschrieben von mapel110
naja, es wird gemunkelt, dass auch ATIs "winkelabhängigkeit" eine hardwarelimitierung sein könnte.

Sieht in U2 jedenfalls toll aus und ist rasend schnell.Und nur darauf kommt es mir an.Wenn ich Unterschiede zur GF3/GF FX mit der Lupe suchen muß ist mir völlig wurscht ob da was winkelabhängig ist.

Razor@Work
2003-08-11, 15:24:53
Original geschrieben von Steel
Jaja die unglaubliche Verschlechterung der BQ durch ATIs winkelabhängiges AF. ;D

Haarspalterei!!!

Was ist Dir lieber:

* eine "absichtliche" Optimierung, die sich optisch mehr oder weniger überhauptnicht negativ auswirkt, die Geschwindigkeit jedoch verbessert
* eine "unbeabsichtigte" bzw. "technisch begründete" (ROFL) Verschlechterung der BQ
Hmmm...
Ich mokiere hier nicht die Winkelabhängigkeit, sondern die schlechte (bilineare) AF-Filterung bei Engines, die visuelle Stages >0 haben... -> Cheat (und sehr wohl optisch negativ wahrnehmbar).

Und bei nVidia wurde beim AA nichts 'verschlechtert'...

Habe ich mich jetzt klar ausgedrückt ?
???

Razor

Mr. Lolman
2003-08-11, 15:58:35
Original geschrieben von Razor@Work
Wie auch bei ATI-Karten... ja.


Nein eben nicht. Ohne AF erreicht ATi bei UT2003 (und bei allen anderen Spielen) die maximal mögliche BQ. NV filtert in UT2003 NIE trilinear. D.H. alle UT2003 Vergleiche (auch die ohne AF) sind bei NV Karten für die Tonne, da selbst der Verzicht aufs AF (und AA sowieso;)) KEINE, zw. beiden Karten, vergleichbare BQ auf den Schirm bringt.


Nein, ich würde es genauso als Cheat bezeichnen.
Jede Form von absichtlicher Reduzierung der BQ zur Leistungserhöhung ist für mich ein Cheat. Und damit interessiert es micht nicht, ob diese Form des Eingriffs genereller Natur ist, oder nur bei einem einzigen Game zum Tragen kommt...

Schlechtere BQ ist schlechtere BQ.
Punkt.

Razor

Gut, dann sehen wir das ja ziemlich ähnlich. Nur gilt dann auch nicht das Argument, dass NV trotz des cheatens ähnliche BQ wie ATi mit deren TS>0 Optimierung. Die NV Karten werden ja zu eine grossem Teil wegen ihrer (theoretisch) besseren AF Qualität gekauft. In UT2003 Benchmarks erreichen sie nur eine ähnliche BQ bei ähnlicher Geschwindigkeit (Level!=Antalus) und schlechterer AA Qualität. Wo ist da der Vorteil??

Ausserdem würde es dich auch ziemlich stören, wenn ATi mit dem Cat 4.0 alle AA Level und eine Stufe verschiebt, und dann das als 4xAA titulierte 2xRGMSAA von den Testern gleichwertig zu NVs echtem 4xAA gesetzt und fortan auch mit diesem verglichen werden würde.
(Wo dann die NV Karten, trotz ähnlicher BQ, leistungsmässig stehen, kannst du dir ja selbst ausrechnen)


P.S.: ATis TS>0 Optimerung ist zwar sehr wohl optisch wahrnehmbar(wenn man danach sucht), aber nur bei MotoGP2 wirklich störend (und lt. Lovesuckz auch bei RTL Schispringen), bei UT2003 musste ich den bi-AF Detailtextur-Mipmapübergang sogar mit Colormipmaps suche, bevor er mir auf der normalen Textur wirklich auffiel.

LovesuckZ
2003-08-11, 16:09:33
Original geschrieben von Mr. Lolman
[...]bei UT2003 musste ich den bi-AF Detailtextur-Mipmapübergang sogar mit Colormipmaps suche, bevor er mir auf der normalen Textur wirklich auffiel.

UT2003 ist son Sonderfall. Da faellt mir Nvidia's schlechte AF Filterung nicht auf. Verwende ich diese nun in Battlefield, koennte ich kotzen, wie schlecht sie doch eigentlich ist.

Razor
2003-08-11, 17:14:36
Original geschrieben von Mr. Lolman
Nein eben nicht. Ohne AF erreicht ATi bei UT2003 (und bei allen anderen Spielen) die maximal mögliche BQ. NV filtert in UT2003 NIE trilinear. D.H. alle UT2003 Vergleiche (auch die ohne AF) sind bei NV Karten für die Tonne, da selbst der Verzicht aufs AF (und AA sowieso;)) KEINE, zw. beiden Karten, vergleichbare BQ auf den Schirm bringt.
Und ? Was lernen wir daraus ?
Man sollte beim Vergleichen auf UT2003 verzichten.
Oder willst Du mir ernsthaft vorschlagen, dann man UT2003 dann halt ohne Quali-Einstellungen benutzen sollte, da zumindest hier ATI nicht cheatet ? Aber ich denke, dass Du das so wohl nicht meintest, oder ?
Original geschrieben von Mr. Lolman
Gut, dann sehen wir das ja ziemlich ähnlich. Nur gilt dann auch nicht das Argument, dass NV trotz des cheatens ähnliche BQ wie ATi mit deren TS>0 Optimierung. Die NV Karten werden ja zu eine grossem Teil wegen ihrer (theoretisch) besseren AF Qualität gekauft. In UT2003 Benchmarks erreichen sie nur eine ähnliche BQ bei ähnlicher Geschwindigkeit (Level!=Antalus) und schlechterer AA Qualität. Wo ist da der Vorteil??
Bei UT2003 ?
Es gibt keinen... weder bei nVidia, noch bei ATI.

Ansonsten bekommt man in jeder Situation auch das, was man erwartet.
Wer sich allerdings eine FX ausschließlich wegen der besonders guten Quali beim AF unter UT2003 kaufen will, der hat eindeutig einen an der Waffel (selbiges gilt übrigens für das 'fantastische' und schnelle 16x 'quality' AF bei Games mit visuellen Inhalten auf Stages > 0 (und da kommen ja wohl doch schon so einige Games zusammen ;-).
Original geschrieben von Mr. Lolman
Ausserdem würde es dich auch ziemlich stören, wenn ATi mit dem Cat 4.0 alle AA Level und eine Stufe verschiebt, und dann das als 4xAA titulierte 2xRGMSAA von den Testern gleichwertig zu NVs echtem 4xAA gesetzt und fortan auch mit diesem verglichen werden würde.
(Wo dann die NV Karten, trotz ähnlicher BQ, leistungsmässig stehen, kannst du dir ja selbst ausrechnen)
Nö, kann ich mir nicht ausrechnen...
Und Du meinst also, dass ATI beim AA das tun wird, was sie auch schon mit dem AF getan haben ?
DANN (und nur dann ;-) Schande über sie !

Ich hoffe wirklich inständig, dass Du das nicht ernst meintest. Ist es doch schon schlimm genug, dass ATI beim AF unter D3D cheatet.
Original geschrieben von Mr. Lolman
P.S.: ATis TS>0 Optimerung ist zwar sehr wohl optisch wahrnehmbar(wenn man danach sucht), aber nur bei MotoGP2 wirklich störend (und lt. Lovesuckz auch bei RTL Schispringen), bei UT2003 musste ich den bi-AF Detailtextur-Mipmapübergang sogar mit Colormipmaps suche, bevor er mir auf der normalen Textur wirklich auffiel.
Gerade bei UT2003 ist mir das (vor allem in Bewegung) sogar sehr stark aufgefallen. Ich war ja vorher nur die gf3-quali gewohnt und als ich dann das erste mal die ATI-quali auf 'ner R9500 in Augenschein nahm, bin ich fast von Stuhl gefallen (nein, nicht aus Begeisterung ;-).

Sicher mag das etwas übertrieben klingen, aber so ähnlich kam es mir einfach vor. Und ich muss wirklich sagen, dass ich mich ein klein wenig um die 200€ betrogen fühlte, die das Ding gekostet hatte... na ja, das legte sich dann, als der R9500->R9700 Mod geklappt hatte...
;-)

Wie gesagt, für mich war es mit (also nicht ausschließlich !) ein Hauptgrund, warum ich auf eine ATI-High-End-Lösung verzichtet habe.

Razor

Mr. Lolman
2003-08-11, 17:36:44
Original geschrieben von Razor
Und ? Was lernen wir daraus ?
Man sollte beim Vergleichen auf UT2003 verzichten.
Oder willst Du mir ernsthaft vorschlagen, dann man UT2003 dann halt ohne Quali-Einstellungen benutzen sollte, da zumindest hier ATI nicht cheatet ? Aber ich denke, dass Du das so wohl nicht meintest, oder ?


Naja, AF Vergleiche kann man ja durch die vergleichbare Qualität ganz gut machen. (Nur auf Antalus würd ich verzichten, da der Unterschied mit dem Unwinderscript im Vergleich zu den anderen Level eher schon bedenklich war)

Bei UT2003 ?
Es gibt keinen... weder bei nVidia, noch bei ATI.

Wenn du nur das AF meinst, geb ich dir Recht. Sonst geht der BQ Sieg eindeutig an ATi

Ansonsten bekommt man in jeder Situation auch das, was man erwartet.
Wer sich allerdings eine FX ausschließlich wegen der besonders guten Quali beim AF unter UT2003 kaufen will, der hat eindeutig einen an der Waffel (selbiges gilt übrigens für das 'fantastische' und schnelle 16x 'quality' AF bei Games mit visuellen Inhalten auf Stages > 0 (und da kommen ja wohl doch schon so einige Games zusammen ;-).

Naja, hoffen wir mal, dass dies ein einmaliger Ausrutscher seitens NV war :) (Wann kommt endlich das neue Tommti Tool??)

Nö, kann ich mir nicht ausrechnen...
Und Du meinst also, dass ATI beim AA das tun wird, was sie auch schon mit dem AF getan haben ?
DANN (und nur dann ;-) Schande über sie !

Ausrechnen kann man sich das ganz leicht;): Man nimmt Leistung die NV unter UT2003 mit 4xAA erbringt und setzt sie gegen die 2xAA Leistung von ATi. Von der BQ her dürfte der Unterschied geringer sein, als er im Moment bei 4xAA vs. 4xAA Vergleihen ist.

Ich hoffe wirklich inständig, dass Du das nicht ernst meintest. Ist es doch schon schlimm genug, dass ATI beim AF unter D3D cheatet.

Ich will ja garnicht, dass ATi zu solchen Mitteln greift. Wenn das allerdings im nächsten Treiber bei UT2003 (und nur bei UT2003) zu sehen ist, kann man dies ihnen nicht aber übler nehmen, als es bei NV mit dem AF der Fall war.

Gerade bei UT2003 ist mir das (vor allem in Bewegung) sogar sehr stark aufgefallen. Ich war ja vorher nur die gf3-quali gewohnt und als ich dann das erste mal die ATI-quali auf 'ner R9500 in Augenschein nahm, bin ich fast von Stuhl gefallen (nein, nicht aus Begeisterung ;-).

Mir fällts nicht so auf, (Lovesuckz anscheinend auch nicht:)) anderen schon, dem nächsten wiederum nur ein bisschen oder gleich garnicht....

Sicher mag das etwas übertrieben klingen, aber so ähnlich kam es mir einfach vor. Und ich muss wirklich sagen, dass ich mich ein klein wenig um die 200€ betrogen fühlte, die das Ding gekostet hatte... na ja, das legte sich dann, als der R9500->R9700 Mod geklappt hatte...
;-)

Wieso betrogen? Man kbekomnmt genau die AF Qualität, die man erwartet (wenn man sich zuvor vernünftig informiert hat.)

Die Winkelabhängigkeit ist bei weitem nicht so schlimm wie es immer dargestellt wird (meinen AF-Test Link kennst du ja), das AA tw. deutlich besser. (fuer Polygonkanten braucht NV 8xS AA um die Glättung von ATis 4xAA zu erreichen)

Ausserdem hast du ja durch den Mod anscheinend für 200 Euro (muss auch shon länger her sein) eine Karte bekommen, die sich durch OCing u.U. fast auf 5900Ultra/9800pro Niveau betreiben lässt.


Wie gesagt, für mich war es mit (also nicht ausschließlich !) ein Hauptgrund, warum ich auf eine ATI-High-End-Lösung verzichtet habe.

Razor

Und was waren die anderen Gründe. Das P/L Verhältnis kanns ja niht gewesen sein. Und die Treiber sind mittlerweile auch min. auf NVidia Niveau.

Razor@Work
2003-08-12, 15:11:31
*ächts*
;-)

Habe ich nicht schonmal darauf geantwortet ? Egal...
Original geschrieben von Mr. Lolman
Naja, AF Vergleiche kann man ja durch die vergleichbare Qualität ganz gut machen. (Nur auf Antalus würd ich verzichten, da der Unterschied mit dem Unwinderscript im Vergleich zu den anderen Level eher schon bedenklich war)
Auf UT2003 würde ich lieber ganz verzichten wollen.
Irgendwie cheaten mir hier alle zuviel herum...
Original geschrieben von Mr. Lolman
Wenn du nur das AF meinst, geb ich dir Recht. Sonst geht der BQ Sieg eindeutig an ATi
Nur bei UT2003... ja. Ansonsten ist dies eher Geschmackssache, oder ?
Original geschrieben von Mr. Lolman
Naja, hoffen wir mal, dass dies ein einmaliger Ausrutscher seitens NV war :) (Wann kommt endlich das neue Tommti Tool??)
Das war wohl kein Ausrutscher, sondern eher voll beabsichtigt (wie auch diese unglückliche ATI-AF-'Optimierung' ;-)...
Original geschrieben von Mr. Lolman
Ausrechnen kann man sich das ganz leicht;): Man nimmt Leistung die NV unter UT2003 mit 4xAA erbringt und setzt sie gegen die 2xAA Leistung von ATi. Von der BQ her dürfte der Unterschied geringer sein, als er im Moment bei 4xAA vs. 4xAA Vergleihen ist.
Ist das Dein ernst ?
Original geschrieben von Mr. Lolman
Ich will ja garnicht, dass ATi zu solchen Mitteln greift. Wenn das allerdings im nächsten Treiber bei UT2003 (und nur bei UT2003) zu sehen ist, kann man dies ihnen nicht aber übler nehmen, als es bei NV mit dem AF der Fall war.
Du meinst also, dies dann auch wie die AF-Optimierung bei UT2003 von nVidia und auch die AF-Optimierung von ATI bei allen Games mit visuellen Stages > 0 als absolut intolerabel zu sehen ?

Ja klar !
;-)
Original geschrieben von Mr. Lolman
Mir fällts nicht so auf, (Lovesuckz anscheinend auch nicht:)) anderen schon, dem nächsten wiederum nur ein bisschen oder gleich garnicht....
Und was soll uns das sagen ?
Dass einige da etweas unempfindlicher sind, als andere ?
Also irgendwie...
Original geschrieben von Mr. Lolman
Wieso betrogen? Man kbekomnmt genau die AF Qualität, die man erwartet (wenn man sich zuvor vernünftig informiert hat.)
Nö... aus offiziellen Quellen kommt lediglich die Aussage:
Schönes und schnelles 16x-'quality' AF.

Und als ich die Karte in den Fingern hatte (Cat3.2-Zeiten), war von dieser generellen 'Optimierung' bei ATI noch nichts zu hören... es sah einfach schlechter aus.
Original geschrieben von Mr. Lolman
Die Winkelabhängigkeit ist bei weitem nicht so schlimm wie es immer dargestellt wird (meinen AF-Test Link kennst du ja), das AA tw. deutlich besser. (fuer Polygonkanten braucht NV 8xS AA um die Glättung von ATis 4xAA zu erreichen)
Was bitte hat AA mit AF zu tun ?
Original geschrieben von Mr. Lolman
Ausserdem hast du ja durch den Mod anscheinend für 200 Euro (muss auch shon länger her sein) eine Karte bekommen, die sich durch OCing u.U. fast auf 5900Ultra/9800pro Niveau betreiben lässt.
Ja und ?
Hat das was an der AF-Quali geändert ?
Original geschrieben von Mr. Lolman
Und was waren die anderen Gründe. Das P/L Verhältnis kanns ja niht gewesen sein. Und die Treiber sind mittlerweile auch min. auf NVidia Niveau.
Glaube mir, ich will hier nicht noch mehr im Dreck wühlen...
Auch dürfte das weniger was mit U2-'Optimierungen' zu tun haben, oder ?

Razor

Mr. Lolman
2003-08-12, 16:26:42
Original geschrieben von Razor@Work
*ächts*
;-)

Habe ich nicht schonmal darauf geantwortet ? Egal...

Auf UT2003 würde ich lieber ganz verzichten wollen.
Irgendwie cheaten mir hier alle zuviel herum...


IMO wird in allen Spielen/Benchmarks, welche häufig in Reviews zu finden sind, gecheatet...


Nur bei UT2003... ja. Ansonsten ist dies eher Geschmackssache, oder ?

Full ACK!


Das war wohl kein Ausrutscher, sondern eher voll beabsichtigt (wie auch diese unglückliche ATI-AF-'Optimierung' ;-)...

Teil ACK! Nur seltsam, dass die wenigsten ATi Karten Besitzer diese Optimierung als unglücklich betrachten...

Ist das Dein ernst ?

Ja klar, oder hast du dem was Vernünftiges entgegenzusetzen?

Du meinst also, dies dann auch wie die AF-Optimierung bei UT2003 von nVidia und auch die AF-Optimierung von ATI bei allen Games mit visuellen Stages > 0 als absolut intolerabel zu sehen ?

Ja klar !
;-)

Optimierungen, in denen vorgegeben wird, eine Quality zu erreichen, die man tatsächlich nicht am Schirm zu sehen bekommt, sind absolut intolerabel. (=Cheats)
Optimierungen in denen die theoretisch erreichbare max. Quality gesenkt wird, ohne dem User die Wahl zu lassen, sind solange tolerabel, solange sie die tatsächliche max. BQ nicht merkbar darunter leidet. Da es aber bei Ati das ein oder andere Spiel gibt, in denen die AF Optimierungen in TS>0 eindeutig zu erkennen sind, betrachte ich diese Optimierung ebenfalls als unglücklich. (Exxtreme erklärte allerdings oft genug, warum es tatsächlich Sinn macht die TS hinsichtlich AF zu optimieren, wenn auch nicht unbedingt mit ATis Bruteforce Methode)

Ausserdem gibts ja das rTool für max. ATi AF BQ....

Und was soll uns das sagen ?
Dass einige da etweas unempfindlicher sind, als andere ?
Also irgendwie...


Manche haben dafür anscheinend eine Hypersensibilisierung beim AF während das, lt. einigen Usern, eindeutig stärker ins Gewicht fallende, bessere AA der ATi Karten, für sie kaum der Rede wert ist.


Nö... aus offiziellen Quellen kommt lediglich die Aussage:
Schönes und schnelles 16x-'quality' AF.


Dem Marketinggelaber, darf man sowieso nicht trauen, und die (m.E. einen absolut übertriebenen Eindruck vermittelnden) AF Blumen gabs auch schon bei Cat. 3.0 Reviews zu sehen.


Und als ich die Karte in den Fingern hatte (Cat3.2-Zeiten), war von dieser generellen 'Optimierung' bei ATI noch nichts zu hören... es sah einfach schlechter aus.


Wenns dir damals wirklich aufgefallen ist, warum hast du deine Erfahrungen nicht im Forum kundgetan? Exxtreme hätte, durch seine Arbeit am rTool eigentlich schon damals auffallen müssen, dass im Treiber eine AF Optimierung eingebaut ist. (und ein Blick in die Registry offenbahrt jedem Laien, dass seit dem Cat. 3.1 ein Reg.Key einen anderen Wert hat.)

BTW: fand ich seit dem Release des R300 im ATi Forum kein einziges Post à la "Hilfe, das ATi AF ist so scheisse (überhaupt seit dem Cat.3.1) was kann man dagegen machen"?


Was bitte hat AA mit AF zu tun ?


Nichts, ausser das Beide der BQ dienen, sich wohl kaum ein User wegen der einen Technik alleine eine GraKa zulegt, und laut einigen Usern ATis BQ Vorspung durchs AA grösser ist, als NVs durchs AF.

Ja und ?
Hat das was an der AF-Quali geändert ?

Nö, aber an der Geschwindigkeit :)

Glaube mir, ich will hier nicht noch mehr im Dreck wühlen...
Auch dürfte das weniger was mit U2-'Optimierungen' zu tun haben, oder ?

Razor

Stimmt natürlich. Aber was für 'Dreck' du an deiner ATi Karte entdecken konntest, würde mich schon interessieren. V.A. weils ziemlich leicht ist eine pauschale Aussage im Sinne von

"Ja, ich mochte die ATi wegen ihrem AF nicht, aber keine Angst, da gabs noch genügend Mist bei der Karte der mich letztendlich zu NV gebracht hat."

zu tätigen. Es ist ja auch nicht das erste Mal, dass du eine, in diese Richtung geartete, unbegründete Aussage von dir gibst. Ich wills halt wissen, damit ich abwägen kann ob ich weiter ruhigen Gewissens eine ATi Karte im Rechner haben kann, oder ob ich eines Tages mit einer bösen Überraschung konfrontiert werde ;)

Razor
2003-08-13, 17:09:40
Original geschrieben von Mr. Lolman
IMO wird in allen Spielen/Benchmarks, welche häufig in Reviews zu finden sind, gecheatet...
Ein wahres Wort...
Original geschrieben von Mr. Lolman
Teil ACK! Nur seltsam, dass die wenigsten ATi Karten Besitzer diese Optimierung als unglücklich betrachten...
Irgendwie scheint da jeder andere Maßstäbe anzulegen...
Original geschrieben von Mr. Lolman
Ja klar, oder hast du dem was Vernünftiges entgegenzusetzen?
Um was ging's hier noch ?
*zurückblätter*

Ah ja...
Habe ich einfach schon zu oft... nimm einfach zugehörige Antworten aus anderen Threads.
;-)
Original geschrieben von Mr. Lolman
Optimierungen, in denen vorgegeben wird, eine Quality zu erreichen, die man tatsächlich nicht am Schirm zu sehen bekommt, sind absolut intolerabel. (=Cheats)
Optimierungen in denen die theoretisch erreichbare max. Quality gesenkt wird, ohne dem User die Wahl zu lassen, sind solange tolerabel, solange sie die tatsächliche max. BQ nicht merkbar darunter leidet. Da es aber bei Ati das ein oder andere Spiel gibt, in denen die AF Optimierungen in TS>0 eindeutig zu erkennen sind, betrachte ich diese Optimierung ebenfalls als unglücklich. (Exxtreme erklärte allerdings oft genug, warum es tatsächlich Sinn macht die TS hinsichtlich AF zu optimieren, wenn auch nicht unbedingt mit ATis Bruteforce Methode)

Ausserdem gibts ja das rTool für max. ATi AF BQ....
"merkbar leidet" ?
Solange es also nur ein 'bischen' leidet ist's OK ?
Nö.

Und auch das rTool liefert nur dann maxBQ, wenn's von der App angefordert wird (sonst kommen da die merkwürdigsten Sachen zustande (ziehe auch meine Diskussion mit zeckensack im Speku-Forum dazu). Dazu muss der User aber wissen, wie man dies der App entlockt, was, wenn's nicht über die Oberfläche einzustellen ist (=Regelfall), nur über die direkte Änderung von Konfig-Files möglich ist (wenn überhaupt).
Original geschrieben von Mr. Lolman
Manche haben dafür anscheinend eine Hypersensibilisierung beim AF während das, lt. einigen Usern, eindeutig stärker ins Gewicht fallende, bessere AA der ATi Karten, für sie kaum der Rede wert ist.
Warum ziehst Du immer wieder AA ins Feld ?
Sag's doch einfach wie es ist:
- bei ATI ist's AF verbesserungswürdig, während das AA top ist
- bei nVidia ist's AA verbesserungswürdig, während das AF top ist
(Ausnahmen hiervon bestätigen die Regel ;-)
Original geschrieben von Mr. Lolman
Dem Marketinggelaber, darf man sowieso nicht trauen, und die (m.E. einen absolut übertriebenen Eindruck vermittelnden) AF Blumen gabs auch schon bei Cat. 3.0 Reviews zu sehen.
Nur bei den nachfolgenden Reviews nicht mehr... schon merkwürdig.
Aber klar, nur ist das Marketing-Geblubber das, was bei der Masse ankommt...
Original geschrieben von Mr. Lolman
Wenns dir damals wirklich aufgefallen ist, warum hast du deine Erfahrungen nicht im Forum kundgetan? Exxtreme hätte, durch seine Arbeit am rTool eigentlich schon damals auffallen müssen, dass im Treiber eine AF Optimierung eingebaut ist. (und ein Blick in die Registry offenbahrt jedem Laien, dass seit dem Cat. 3.1 ein Reg.Key einen anderen Wert hat.)
Oh doch... meinen Unmut habe ich darüber Luft gemacht... nur hat's keinen interessiert.
Original geschrieben von Mr. Lolman
BTW: fand ich seit dem Release des R300 im ATi Forum kein einziges Post à la "Hilfe, das ATi AF ist so scheisse (überhaupt seit dem Cat.3.1) was kann man dagegen machen"?
Das Thema Hilfe-Foren und ATI ist sowieso ein Thema für sich...
Original geschrieben von Mr. Lolman
Nichts, ausser das Beide der BQ dienen, sich wohl kaum ein User wegen der einen Technik alleine eine GraKa zulegt, und laut einigen Usern ATis BQ Vorspung durchs AA grösser ist, als NVs durchs AF.
Was subjektiver Natur sein dürfte, oder ?
Original geschrieben von Mr. Lolman
Nö, aber an der Geschwindigkeit :)
Jo.
Nur wirklich getröstet hat mich das nicht...
Original geschrieben von Mr. Lolman
Stimmt natürlich. Aber was für 'Dreck' du an deiner ATi Karte entdecken konntest, würde mich schon interessieren. V.A. weils ziemlich leicht ist eine pauschale Aussage im Sinne von

"Ja, ich mochte die ATi wegen ihrem AF nicht, aber keine Angst, da gabs noch genügend Mist bei der Karte der mich letztendlich zu NV gebracht hat."

zu tätigen. Es ist ja auch nicht das erste Mal, dass du eine, in diese Richtung geartete, unbegründete Aussage von dir gibst. Ich wills halt wissen, damit ich abwägen kann ob ich weiter ruhigen Gewissens eine ATi Karte im Rechner haben kann, oder ob ich eines Tages mit einer bösen Überraschung konfrontiert werde ;)
Ich werde auch weiterhin keine tiefer gründigen Informationen dazu raus lassen. Ich hab's damals im ATI-Forum versucht, aber das einzige was kam war so etwas wie:
- dat Problem kenn ich nicht
- Du willst doch 'eh nur rumspammen
- installier mal den Treiber richtig
- formatier mal C
Und so weiter...
War alles nicht wirklich hilfreich.

DAS war übrigens auch mit ein Grund. Die ATI-Community kann man im Groben (es gibt auch lobenswerte Ausnahmen) hinsichtlich effektiver Hilfestellung vollkommen vergessen. Auch ist der Umgangston ein anderer. So wie hier diverse Leutz versuchen, im nVidia-Hilfe-Forum (!) die Leute zu überreden sich 'ne ATI zuzulegen, auch wenn dies vom TI explizit ausgeschlossen wurde etc.pp.. Insofern habe ich mich als ATI-Nutzer zusätzlich nicht so richtig 'wohl' gefühlt... aber das steht noch auf einem anderen Blatt.

Zum anderen waren da immer wieder
- Prob's mit modernen Games (die durch nachfolgende Treiber behoben wurden, teilw. aber auch neue Fehler brachten)
- Prob's mit Tech/Scene-Demos (über die Hälfte liefen gar nicht, der Rest teils fehlerhaft)
- Prob's mit...

Aber wie schon gesagt, das würde hier echt zu weit führen.
Und eigentlich will ich diese Diskussion darüber auch gar nicht, weil das Thema für mich nunmehr gestorben ist... heute ärgere ich mich nur noch darüber, dass ich für den 'Test' der R9500 locker doppelt so viel raus tun musste, als für den 'Test' der FX5200 (beide DX9-Technologien gegenüber gestellt). Dafür hat's aber einen Bekannten von mir sehr gefreut, der nun mit modernster Technologie umgehen kann, ohne es sich eigentlich leisten zu können.

Und ja, er ist absolut glücklich damit !
;-)

Razor

mapel110
2003-08-13, 17:32:42
du hast im ATI forum nie einen thread aufgemacht, wo du um hilfe bei deinen problemen gebeten hast :|
die suchfunktion lügt nicht ;)

Razor
2003-08-13, 19:05:48
Original geschrieben von mapel110
du hast im ATI forum nie einen thread aufgemacht, wo du um hilfe bei deinen problemen gebeten hast :|
die suchfunktion lügt nicht ;)
Stimmt... aber ich hab' in den Thread's gepostet...
(auch als Razor@Work, glaube ich ;-)

Razor

aths
2003-08-14, 08:29:16
Original geschrieben von Mr. Lolman
Ausserdem gibts ja das rTool für max. ATi AF BQ....*Schleichwerbung* Mit aTuner geht's auch.

Gast
2003-08-15, 13:11:51
im prinzip sind alle FSAA methoden die momentan verwendet werden nur annäherungslösungen an die mathematisch perfekte, weil diese zu aufwendig ist
selbes gilt für alle arten von filterung (zB AF)

cheat liegt in meinen augen nur dann vor wenn die hersteller was anderes verwenden als sie zugeben
also wenn zB trilinear "draufsteht" und nur bi "drinen ist"

nvidias OGMS is genausowenig ein cheat wie atis winkelabhängiges AF, weil beide genau das zugeben zu machen

(was dann aber blödsinn ist, wenn man zB nvidias 4x gegen atis 4x testet, da wird der einfachheit halber name gegen name getestet und nicht wirkung gegen wirkung, was eigendlich bei einem BQ verbessernden feature zählt)

also ob cheat oder nicht ist imho nur abhängig davon ob "gelogen" wird oder nicht - alles andere ist optimierung, und wenn diese BQ kostet, dann ist es halt eine schlechte optimierung, so wie nvidias FSAA(>2) schlechter is als atis 2x und andersrum beim AF
optimierung ohne einbusse auf die BQ ist sowieso praktisch nicht möglich

Razor@Work
2003-08-15, 14:08:32
Und warum hat ATI dann das Verfahren für AF von Cat3.0 zu Cat3.1 geändert ?
Ist eine sog. Performance-Optimierung gewesen und fürte teilweise zu schlechterer BQ.
Cheat ?
???

Razor

Gast
2003-08-15, 16:40:23
aber auch zu mehr leistung

ich hab nix gegen optimierungen, bei der die vorteile (höhere performance) die nachteile (in wenigen ausnahmefällen banding) überwiegen
ich hab eine R300 und bin mit dem AF eigendlich sehr zufrieden - klar gehts besser aber der unterschied is fast nicht sichtbar im gegensatz zu zB RGMSAA vs. OGMSAA wodurch mir persönlich eine ati im mom weit lieber ist

da diese optimierung aber immer greift würde ich nicht sagen das es ein cheat is da die effizienz des filters (leistung pro bildquallität) dadurch eher zugenommen hat
aber dann dürften sie halt nicht mehr von einem kompletten AF reden, sondern von einem optimierten (was sowieso durch die winkelabhängigkeit gegeben ist)