PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NEW Game Tests and the FX 5900 without "Optimizations"


mapel110
2003-07-13, 16:25:35
http://www.digit-life.com/articles2/gffx/gffx-16.html

muss selber erstmal lesen. statement von mir kommt noch :)

/edit
also die 9800er verliert mit antidetect nichts an leistung, aber die fx5900 bricht doch sehr heftig ein bei ut2003 und codecreatures.

unreal2 wird anscheinend nicht "gesondert" behandelt vom nvidia treiber. sprich keine performanceänderung.

GastGast
2003-07-13, 16:31:46
das bild sagt alles:

http://www.ixbt.com/video2/images/gffx-16/creat-aa.png

nagus
2003-07-13, 16:45:16
Nvidia mit ANTIDetect: -25 % !
ATi bleibt dagegen gleich.

Endorphine
2003-07-13, 16:47:55
Original geschrieben von nagus
Nvidia mit ANTIDetect: -25 % !
ATi bleibt dagegen gleich. Dieser Benchmark strotzt geradezu vor Praxisrelevanz. Ich kenne Heerscharen von Leuten, die nur neue 3D-Spielebeschleuniger kaufen, um damit Codecreatures möglichst schnell ablaufen zu lassen ;D

LovesuckZ
2003-07-13, 16:59:53
Ich war schneller als digitlife.
Die Ergebnisse sind somit eigentlich schon woher bekannt gewesen :D

mapel110
2003-07-13, 17:24:43
bildqualität wird wirklich nicht geopfert. aber ich finds schade, dass nvidia die zusätzliche performance nicht auf unreal2 übertragen hat.

was-ist-mit-GAST-los
2003-07-13, 17:26:57
wenn bildqualität nicht geopfert wird ... was dann?

Endorphine
2003-07-13, 17:31:18
Original geschrieben von was-ist-mit-GAST-los
wenn bildqualität nicht geopfert wird ... was dann? Alter Treibercode, den man effizienter schreiben konnte.

Demirug
2003-07-13, 17:35:52
Original geschrieben von mapel110
bildqualität wird wirklich nicht geopfert. aber ich finds schade, dass nvidia die zusätzliche performance nicht auf unreal2 übertragen hat.

Ist wohl noch nicht vollständig geprüft ob es wirklich keine BQ Verluste gibt. Unreal II benutzt ja etwas aufwendigere Shader als UT

was-ist-mit-GAST-los
2003-07-13, 17:38:12
Original geschrieben von Endorphine
Alter Treibercode, den man effizienter schreiben konnte.
Ja das sehe ich etwas skeptisch ... wenss Treiberoptimierungen wären dann würde mans ja nicht CHEATEN nennen :)

Endorphine
2003-07-13, 17:46:14
Original geschrieben von was-ist-mit-GAST-los
Ja das sehe ich etwas skeptisch ... wenss Treiberoptimierungen wären dann würde mans ja nicht CHEATEN nennen :) Du hast gefragt, welche Möglichkeit es abseits von Tricksereien gibt. Diese habe ich dir genannt.

Ein Cheat sind nur "unlautere" Optimierungen, die lediglich auf populäre Benchmarks abzielen oder Veränderungen, die Mehrleistung durch geringere Bildqualität erkaufen.

Mr. Lolman
2003-07-13, 19:46:13
Was? Kein BQ Verlust? Ist denn die tri-AF Approximation die in UT2003 beim Balancaed AF zum Einsatz kommt, kein BQ Verlust ggü. dem "perfekten Application AF" ?

Wenn nein, dann ist das App.AF anscheinend wirklich nur mehr am Papier so perfekt und kein Kaufgrund mehr für eine GFFX. Wenn dem nicht so ist, müsste ein BQ Verlust auftreten und insofern kann man wieder von "Cheats" sprechen...


@ Endorphine:

Alter Treibercode, den man effizienter schreiben konnte.

??? Und warum löscht man dann nicht denn alten Treibercode, und verwendet den Neuen und zwar gleich für alle Spiele? So hinterlassen die ganzen Optimierungen, zumindest bei mir einen übler Beigeschmack...


/edit:

Wenn man beide UT2003 Pics vergleicht, kann im ersten Moment wirklich kein Unterschied festgestellt werden. Fakt ist, das bei dem einen Bild AppAF zum Einsatz kommt, während beim anderen balAF verwendet wird. An der linken Felswand sieht man, dass ohne Antidetect mehr Details zusehen sind. Liegt imho daran, dass der Übergang zw. beiden Mipmaps später einsetzt, dafür aber auch härter ist.

Ausserdem sollte man mögliche BQ Unterschiede zweier Treiber nie an einem einzigen Bild festmachen.

Razor
2003-07-13, 20:00:01
Original geschrieben von was-ist-mit-GAST-los
Ja das sehe ich etwas skeptisch ... wenss Treiberoptimierungen wären dann würde mans ja nicht CHEATEN nennen :)
Wer nennt es denn 'CHEATEN' ?
???

Wenn die BQ nicht reduziert wurde, ist's 'ne einfache Optimierung. Und ob ATI nicht auch 'optimiert' hat, dieses nur nicht durch das Script deaktiviert wurde, weiß auch niemand (nach Unwinders eigener Aussage).

Razor

StefanV
2003-07-13, 20:00:53
Original geschrieben von nagus
Nvidia mit ANTIDetect: -25 % !
ATi bleibt dagegen gleich.

Interessante Ergebnisse, zumal die 9800 PRO sogar im Normalzustand gleichauf mit der FX5900 ULTRA ist...

Und das beim Codecreatures Test!!

LovesuckZ
2003-07-13, 20:07:32
Original geschrieben von Mr. Lolman
Was? Kein BQ Verlust? Ist denn die tri-AF Approximation die in UT2003 beim Balancaed AF zum Einsatz kommt, kein BQ Verlust ggü. dem "perfekten Application AF" ?


Wie waren deine Worte: Niemand schreibe ATi vor, wie Quality und Performance auszusehen habe. Nvidia entscheidet sich für diese Qualitaet als Quality. Somit sehe ich bei Nvidia keinen "BQ Verlust".
Ausserdem, würde das ASC bei ATi vernünftig arbeiten, muesste es auch das "richtige AF" erkennen.

mapel110
2003-07-13, 20:15:44
Original geschrieben von LovesuckZ

Ausserdem, würde das ASC bei ATi vernünftig arbeiten, muesste es auch das "richtige AF" erkennen.

kannste das mal genauer erklären ? ich versteh echt nicht, was du mit dem satz sagen willst.

Mr. Lolman
2003-07-13, 20:16:20
Wäre ok, wenn bei BalAF und AppAF ein Unterschied festzustellen wäre.
Und wenn beim App.AF bei jeden Spiel immer die Gleiche Technik zum Einsatz käme.

Es wäre das Gleiche wie wenn ATi in UT2003 beim qAF plötzlich bilinear gefiltert werden würdev (=pAF) und bei allen anderen Spielen (die nicht so oft gebencht werden) wird das echte tri-AF verwendet.


Der User wird im Falle NV bei UT2003 einfach hinters Licht geführt (sofern er App/Qual. AF verwenden will = Täuschung = Cheat) **

*Mal ganz absehen davbon dass sich die Trickserei natürlich auf die Benchmarkergebnisse auswirkt, was ja NVs primäre Absicht gewesen sein dürfte

Razor
2003-07-13, 20:17:13
Original geschrieben von Mr. Lolman
Was? Kein BQ Verlust? Ist denn die tri-AF Approximation die in UT2003 beim Balancaed AF zum Einsatz kommt, kein BQ Verlust ggü. dem "perfekten Application AF" ?
Bei UT2003 wurde auf jeden Fall bei nVidia 'eingegriffen', das ist klar. Ob dieses aber als Cheat gewertet werden kann, oder nur als Versuch eine 'on-the-fly'-Optimierung (Texturanalyse ahoi ;-) durchzuführen, hingegen noch nicht. UT2003 hat sich ja schon immer etwas 'störrisch' verhalten, wenn es um Optimierungen ging, denkt man hier doch mal an die Stages-Optimierungen mit der gf4 (oder auch gf3, wenn der der Treiber gehackt wurde). Wurde nur die ST0 anisotrop gefiltert, dann hat's im Prinzip bei den darauf folgenden Stages keine gegeben. Deswegen gab's für UT2003 auch eine eigene Einstellung dafür.

Wenn nVidia es schaffen sollte be besserer Qualität die gleiche Leistung zu bringen, ist's kein Cheat mehr, sondern nur noch eine Optimierung.
Original geschrieben von Mr. Lolman
Wenn nein, dann ist das App.AF anscheinend wirklich nur mehr am Papier so perfekt und kein Kaufgrund mehr für eine GFFX. Wenn dem nicht so ist, müsste ein BQ Verlust auftreten und insofern kann man wieder von "Cheats" sprechen...
Wenn man von UT2003 spricht... derzeit ja.
Bei allen anderen Games da draußen, müsstest Du den beweis antreten, dass dem so ist.
Und glaube mir, es gibt ne' Menge mehr, als nur UT2003 !
:D

Und was mir da noch einfällt... das, was ATI da macht, ist ja nun auch nicht gerade 'nett', so ist doch diese Optimierung, die nVidia da triebt, bei ATI ganz offiziell. Auch hier wird selbst bei 'quality'-Einstellungen bei Stages >0 (die bei UT2003 seht häfig sichtbar sind !) nur bilienar gefiltert. Man will 'qiality' und bekommt defakto nur 'performance'. Insofern muss man ja sagen, dass man von ATI generell keine gute BQ bei UT2003 bekommt, ganz egal, was man im Treiber einstellt. Aber ds steht für Dich wahrscheinlich auf einem anderen Blatt, oder ?
;-)

Hoffen wir mal nur, dass nicht noch mehr solche Games wie UT2003 heruas kommen, denn dann müsste man das Thema ATI und BQ unter einem ganz anderen Licht betrachten, oder ?
Original geschrieben von Mr. Lolman
Alter Treibercode, den man effizienter schreiben konnte.

??? Und warum löscht man dann nicht denn alten Treibercode, und verwendet den Neuen und zwar gleich für alle Spiele? So hinterlassen die ganzen Optimierungen, zumindest bei mir einen übler Beigeschmack...
Dass dies bei Dir einen 'üblen' Beigeschmack verursacht, war klar. Und woher willst Du wissen, dass diese Optimierung nicht auch anderen Games zugute kommt, die ebenso wie Codecreatures arbeiten. Da es solche Games aber wohl offensichtlich (noch) nicht gibt, dürfte diese Frage nur sehr schwer zu beantworten sein.
Original geschrieben von Mr. Lolman
Wenn man beide UT2003 Pics vergleicht, kann im ersten Moment wirklich kein Unterschied festgestellt werden. Fakt ist, das bei dem einen Bild AppAF zum Einsatz kommt, während beim anderen balAF verwendet wird. An der linken Felswand sieht man, dass ohne Antidetect mehr Details zusehen sind. Liegt imho daran, dass der Übergang zw. beiden Mipmaps später einsetzt, dafür aber auch härter ist.
Soso...
Ist es also doch vielleicht nur eine 'fehlgeschlagene' Texturanalyse, der Du da aufgesessen bist ? Ich will nicht sagen, dass dem so ist, denn dazu fehlen mir einfach noch zu viele Informationen, um dies beurteilen zu können. Offenbar gibt es also Scenarien, bei der diese Form der Optimierung visuell deutlich zum Tragen kommt (obwohl ich diese Stellen wirklich suchen müsste) und wieder welche, bei denen es offenbar funktioniert.
Original geschrieben von Mr. Lolman
Ausserdem sollte man mögliche BQ Unterschiede zweier Treiber nie an einem einzigen Bild festmachen.
Oder auch nur an einer einzelnen Scene...

Schaun' wir mal, wie sich das Ganze entwickelt.
Ist auf jeden Fall äusserst interessant, das Ganze !
:D

Razor

nggalai
2003-07-13, 20:20:21
Hola,
Original geschrieben von Endorphine
Alter Treibercode, den man effizienter schreiben konnte. Ist eine Möglichkeit, die allerdings bei den 4x.xx-Treibern nicht gross zum Tragen kommt, wie ich mich belehren lassen musste. Das soll (man beachte das "soll") dann bei den 5x.xx-Treibern bös reinhauen. Offenbar führt NV schon seit einigen Monaten zwei Treibercrews; eine, die die 4x.xx weiterführt, und eine andere, die dediziert und von Grund auf neu an den 5x.xx (Series 6) spezifisch und ausschliesslich für die CineFX-Architektur arbeitet. Ob das was bringt werden auch nicht-Devs mit ein wenig Glück bereits Ende Monat wissen.

Zum Thema direkt: Ich würd' in der Betrachtung echt nur Referenz-Treiber mit Referenz-Treiber vergleichen. Und der aktuellste Referenztreiber ist noch immer der 44.03er, ohne die lustigen UT2003-"Optimierungen".

93,
-Sascha.rb

Razor
2003-07-13, 20:21:53
Original geschrieben von Mr. Lolman
Der User wird im Falle NV bei UT2003 einfach hinters Licht geführt (sofern er App/Qual. AF verwenden will = Täuschung = Cheat) **
Und wie nennt man das, wenn man in Treiber bei ATI 'quality' einstellt (und auch haben möchte ;-), grundsätzlich aber nur 'performance' bekommt (die wirkliche 'quality' also nur über einen Registery-Hack eingestellt werden kann) ?
???

Wer sagt eigentlich, dass 'quality' immer und überall gleich sein muss ?
Ich persönlich würde das auf jeden Fall besser finden, aber wer legt so etwas fest ?
???

Wenn es von niemanden 'festgelegt' wird, warum kann das AF nicht bei jeder Engine anders arbeiten, um 'quality' zu erhalten ?

Nur so eine Frage...
:D

Razor

Exxtreme
2003-07-13, 20:22:00
Original geschrieben von Razor

Und was mir da noch einfällt... das, was ATI da macht, ist ja nun auch nicht gerade 'nett', so ist doch diese Optimierung, die nVidia da triebt, bei ATI ganz offiziell. Auch hier wird selbst bei 'quality'-Einstellungen bei Stages >0 (die bei UT2003 seht häfig sichtbar sind !) nur bilienar gefiltert. Man will 'qiality' und bekommt defakto nur 'performance'. Insofern muss man ja sagen, dass man von ATI generell keine gute BQ bei UT2003 bekommt, ganz egal, was man im Treiber einstellt. Aber ds steht für Dich wahrscheinlich auf einem anderen Blatt, oder ?
;-)

Razor
Das stimmt nicht ganz. :)

Wenn du den AF über das Controlpanel erzwingst, dann trifft deine These zu. Wenn du aber im Controlpanel "Application preference" einstellst und den AF-Level im Spiel selbst einschaltest, dann bekommst du volle Filterqualität so wie es die Entwickler vorgesehen haben.

Und das bekommst du bei NV nur noch per Antidetect.

P.S. Und wenn du das rTool benutzt, dann kannst du auch die volle Qualität erzwingen.

Razor
2003-07-13, 20:25:14
Original geschrieben von Exxtreme
Das stimmt nicht ganz. :)

Wenn du den AF über das Controlpanel erzwingst, dann trifft deine These zu. Wenn du aber im Controlpanel "Application preference" einstellst und den AF-Level im Spiel selbst einschaltest, dann bekommst du volle Filterqualität so wie es die Entwickler vorgesehen haben.

Und das bekommst du bei NV nur noch per Antidetect.
Und wie kann ich im Panel von UT2003 den anisotropen Filter einstellen und damit per Applikation steuern ? Dass dies bei SS:SE geht, ist klar, aber diese Option dürften nur sehr wenige Games bieten (wohl auch, um den User nicht zu überfordern ;-)...

Razor

Exxtreme
2003-07-13, 20:26:10
Original geschrieben von Razor
Und wie kann ich im Panel von UT2003 den anisotropen Filter einstellen und damit per Applikation steuern ? Dass dies bei SS:SE geht, ist klar, aber diese Option dürften nur sehr wenige Games bieten (wohl auch, um den User nicht zu überfordern ;-)...

Razor
Man kann den AF-Level in der UT2003.ini einstellen.

Razor
2003-07-13, 20:27:11
Original geschrieben von Exxtreme
Man kann den AF-Level in der UT2003.ini einstellen.
DAS überfordert den Normaluser sicherlich !
:D

Razor

P.S.: Hat schon jemand getestet, wie sich nVidia's Treiber dann verhalten ?

Exxtreme
2003-07-13, 20:30:50
Original geschrieben von Razor

P.S.: Hat schon jemand getestet, wie sich nVidia's Treiber dann verhalten ?
Die Jungs bei B3D haben's gemacht. Es hat sich exakt so verhalten als wenn man es per Controlpanel erzwungen hätte.

Guckst du hier:
http://www.beyond3d.com/forum/viewtopic.php?t=6719

LovesuckZ
2003-07-13, 20:30:52
Original geschrieben von mapel110
kannste das mal genauer erklären ? ich versteh echt nicht, was du mit dem satz sagen willst.

So wie ich dieses ASC interpretiere, solle es ein Anti Cheat Script sein. ATi's AF "Optimierung" faellt für mich (wie Nvidia's AF in UT2003) eindeutig unter den Begriff Cheat, wird doch Leistung durch Qualitaetseinbußen gewonnen. Da das Script es nicht erkennt, verfehlt es seine Wirkung...

nggalai
2003-07-13, 20:31:56
Hi Alex,
Original geschrieben von Exxtreme
Man kann den AF-Level in der UT2003.ini einstellen. DAS hat mich eh schon länger gewundert--weshalb nicht im In-Game Menü? Hat Epic resp. DE da aus gutem Grund den Eintrag nicht "öffentlich zugänglich" gemacht? ???

93,
-Sascha.rb

reunion
2003-07-13, 20:33:18
Original geschrieben von Razor
Und wie nennt man das, wenn man in Treiber bei ATI 'quality' einstellt (und auch haben möchte ;-), grundsätzlich aber nur 'performance' bekommt (die wirkliche 'quality' also nur über einen Registery-Hack eingestellt werden kann) ?
???

Wer sagt eigentlich, dass 'quality' immer und überall gleich sein muss ?
Ich persönlich würde das auf jeden Fall besser finden, aber wer legt so etwas fest ?
???

Wenn es von niemanden 'festgelegt' wird, warum kann das AF nicht bei jeder Engine anders arbeiten, um 'quality' zu erhalten ?

Nur so eine Frage...
:D

Razor

Wenn man bei ATI Quality einstellt bekommt man immer die gleiche (zugegebenermaßen nicht überragende) Qualität. Bei Nvidia hingegen sucht sich der Treiber aus was für eine Qualität man bekommt. Also: ATI schlechtes AF, NV cheat!

Exxtreme
2003-07-13, 20:33:38
Original geschrieben von nggalai
Hi Alex,
DAS hat mich eh schon länger gewundert--weshalb nicht im In-Game Menü? Hat Epic resp. DE da aus gutem Grund den Eintrag nicht "öffentlich zugänglich" gemacht? ???

93,
-Sascha.rb
Keine Ahnung.

Frag doch Daniel Vogel. :D

LovesuckZ
2003-07-13, 20:33:43
Original geschrieben von Exxtreme
Wenn du den AF über das Controlpanel erzwingst, dann trifft deine These zu. Wenn du aber im Controlpanel "Application preference" einstellst und den AF-Level im Spiel selbst einschaltest, dann bekommst du volle Filterqualität so wie es die Entwickler vorgesehen haben.
Und das bekommst du bei NV nur noch per Antidetect.

Tja, wieviele Spiele unterstuetzen dies per Menue? 5%? oder weniger? Selbst in UT2003 muss man durch die ini durch, um die richtige Einstellung zu finden. In anderen Games dagegen muss man mit den Einstellungen im CP sich zu frieden geben.


P.S. Und wenn du das rTool benutzt, dann kannst du auch die volle Qualität erzwingen.

Ein externes Tool macht die Sache wohl kaum "legitimer"...

nggalai
2003-07-13, 20:36:22
Original geschrieben von Exxtreme
Keine Ahnung.

Frag doch Daniel Vogel. :D Hab' ich, aber schon laaaaange nix mehr von Daniel gehört. :(

Hat hier sonst noch wer Infos dazu? Wär noch interessant, wenn auch ein wenig OT.

93,
-Sascha.rb

Demirug
2003-07-13, 20:36:45
Original geschrieben von nggalai
Hi Alex,
DAS hat mich eh schon länger gewundert--weshalb nicht im In-Game Menü? Hat Epic resp. DE da aus gutem Grund den Eintrag nicht "öffentlich zugänglich" gemacht? ???

93,
-Sascha.rb

Alles was man nicht einbaut muss man nicht testen, dokumentieren, usw ...

Exxtreme
2003-07-13, 20:40:06
Original geschrieben von LovesuckZ

Tja, wieviele Spiele unterstuetzen dies per Menue? 5%? oder weniger? Selbst in UT2003 muss man sich durch die ini durch, um die richtige Einstellung zu finden. In anderen Games dagegen muss man mit den Einstellungen im CP sich zu frieden geben.

Ist nicht ATis Problem wenn die Entwickler keine Möglichkeit anbieten, den AF-Level einzustellen. Und keiner der Entwickler kann sich hinterher beschweren, daß ATi nicht so filtert wie vorgesehen.
Original geschrieben von LovesuckZ
Ein externes Tool macht die Sache wohl kaum "legitimer"...
OpenGL guy hat schon angedeutet, daß in den zukünftigen Controlpanels es einen Schalter geben wird, mit dem man zwischen TS-optimierten trilinear-AF und "echten" trilinear-AF umschalten kann.

Endorphine
2003-07-13, 20:42:29
Original geschrieben von Mr. Lolman
Alter Treibercode, den man effizienter schreiben konnte.

??? Und warum löscht man dann nicht denn alten Treibercode, und verwendet den Neuen und zwar gleich für alle Spiele? So hinterlassen die ganzen Optimierungen, zumindest bei mir einen übler Beigeschmack... Es ging ja nur darum, was man abseits von Cheats noch an Optimierungen vornehmen kann. Von den ganzen "Optimierungen", die nur auf populären Benchmarks irgendwelche Zahlen erhöhen und dem Nutzer sonst nichts bringen halte ich nichts. Ebenso wenig halte ich etwas davon, Bildqualität gegen Mehrleistung einzutauschen, wenn das nicht im Treiber veränderbar ist.

Ich bin nach wie vor dafür, einfach generische Optimierungen vorzunehmen, von denen jede Software profitiert, ganz klar. Und sonst höchstens Bugs zu fixen, für die der Softwarehersteller nicht verantwortlich ist.

Leider beschränkt sich ja die Treiberpflege bei ATI und nVidia derzeit hauptsächlich auf Bugfixing und Cheating :-/

Demirug
2003-07-13, 20:45:04
Original geschrieben von Exxtreme
Ist nicht ATis Problem wenn die Entwickler keine Möglichkeit anbieten, den AF-Level einzustellen. Und keiner der Entwickler kann sich hinterher beschweren, daß ATi nicht so filtert wie vorgesehen.

Genau wenn die App nicht sagt was sie will muss sie eben das benutzten was sie bekommt. Aber das es schon etwas hinterhältig von ATI war das einfach mal so einzuführen musst du ja zugeben, oder?

LovesuckZ
2003-07-13, 20:48:03
Original geschrieben von Demirug
Genau wenn die App nicht sagt was sie will muss sie eben das benutzten was sie bekommt.

Dann ist an Nvidia's Verfahren erst dann ein cheat, wenn man per ini AF einstellt.
Bis dahin ist Nvidia also cheatfrei...

Exxtreme
2003-07-13, 20:48:06
Original geschrieben von Demirug
Genau wenn die App nicht sagt was sie will muss sie eben das benutzten was sie bekommt. Aber das es schon etwas hinterhältig von ATI war das einfach mal so einzuführen musst du ja zugeben, oder?
Hinterhältig? Moralisch gesehen... ja. :D

Rein technisch gesehen können sie eigentlich machen, was sie wollen. Und die Möglichkeit so zu filtern, wie es die Entwickler vorgesehen haben gibt's auch.

Exxtreme
2003-07-13, 20:48:55
Original geschrieben von LovesuckZ
Dann ist an Nvidia's Verfahren erst dann ein cheat, wenn man per ini AF einstellt.
Bis dahin ist Nvidia also cheatfrei...
Technisch gesehen ja.

Demirug
2003-07-13, 20:49:08
Original geschrieben von Endorphine
Ich bin nach wie vor dafür, einfach generische Optimierungen vorzunehmen, von denen jede Software profitiert, ganz klar. Und sonst höchstens Bugs zu fixen, für die der Softwarehersteller nicht verantwortlich ist.

Es gibt aber auch durchaus Optimierungen die sich bei einer Application gut und bei einer anderen übel auswirken. Was soll man machen wenn man als Treiberteam sowas entdeckt?

Demirug
2003-07-13, 20:51:06
Original geschrieben von Exxtreme
Hinterhältig? Moralisch gesehen... ja. :D

Rein technisch gesehen können sie eigentlich machen, was sie wollen. Und die Möglichkeit so zu filtern, wie es die Entwickler vorgesehen haben gibt's auch.

Deswegen ja doch auch kursiv. Technisch betrachtet darf man ja fast alles als AF verkaufen. :D

Endorphine
2003-07-13, 20:54:29
Original geschrieben von Demirug
Es gibt aber auch durchaus Optimierungen die sich bei einer Application gut und bei einer anderen übel auswirken. Was soll man machen wenn man als Treiberteam sowas entdeckt? Natürlich gewichten, welche Software für die Kunden des Produkts wichtiger ist. Auch wenn das heissen sollte, dass vielleicht mal ein Theoriebenchmark langsamer läuft, dafür aber eine oft genutzte Applikation profitiert.

Und generell - für mich heisst das Prinzip "generische Optimierung" einfach, dass jeder sauber normal geschriebene Code profitiert. Da könnte man IMHO doch auch Anreize für die Programmierer schaffen, wie man coden sollte denke ich...

Exxtreme
2003-07-13, 20:57:46
Original geschrieben von Endorphine
Und generell - für mich heisst das Prinzip "generische Optimierung" einfach, dass jeder sauber normal geschriebene Code profitiert.

Tja, und da haben wir schon das Problem. ;)

Und andererseits kann "sauber geschriebener Code" auf dem einen Grafikchip sehr gut laufen, auf einem anderen wiederum nicht.

LovesuckZ
2003-07-13, 21:00:08
Original geschrieben von nggalai
Ob das was bringt werden auch nicht-Devs mit ein wenig Glück bereits Ende Monat wissen.


Hm, bedeutet dies, dass der Deto 5x.xx nicht wirklich viel bringt?

nggalai
2003-07-13, 21:01:32
*Exxtreme anschliess*

Deshalb bin ich noch immer Anhänger des Kyro-Ansatzes--Applikationsspezifische Settings, die sich auch z.T. im Treiber oder fast durchgehend mit Tweaking-Tools pro Programm anpassen lassen. Wie Demiurg schon sagte--nur weil zwei Applikationen "dieselbe Engine" verwenden, heisst das noch lange nicht, dass dieselben Optimierungen bei den beiden Spielen dieselben (guten) Ergebnisse bringen; noch viel weniger gilt das bei derselben API (z.B. D3D). Dem entsprechend mag ich applikationsspezifische Optimierungen.

93,
-Sascha.rb

Demirug
2003-07-13, 21:03:29
Original geschrieben von Endorphine
Natürlich gewichten, welche Software für die Kunden des Produkts wichtiger ist. Auch wenn das heissen sollte, dass vielleicht mal ein Theoriebenchmark langsamer läuft, dafür aber eine oft genutzte Applikation profitiert.

Und generell - für mich heisst das Prinzip "generische Optimierung" einfach, dass jeder sauber normal geschriebene Code profitiert. Da könnte man IMHO doch auch Anreize für die Programmierer schaffen, wie man coden sollte denke ich...

OK ich habe die Situation jetzt falsch beschrieben. Wenn das Treiberteam eine Möglichkeit findet verschiedene Spiel zu beschleunigen (ohne Verlust bei der IQ) dieser Code aber andere Spiele langsamer macht soll man dann diesen Code nicht einbauen und bei den Apps wo es etwas bringt benutzten?

Den sauber normal geschriebenen Code gibt es leider nicht und die auswirkung auf die Performance aufgrund des reinen Codes wird sowieso überschätzt. Man kann bei einer guten Engine ohne eine Zeile Code zu ändern aleine durch die Möglichkeiten des Leveldesigns die Lastsituation dramatisch ändern.

nggalai
2003-07-13, 21:04:17
Original geschrieben von LovesuckZ
Hm, bedeutet dies, dass der Deto 5x.xx nicht wirklich viel bringt? Nein--nur, dass erst beim öffentlichen Release der neuen Det-Serie jeder sich ein Bild davon machen kann. Und da NV die NDA vor ein paar Monaten ziemlich heftig verschärft hat, wird man bis dahin auch keine fundierten Beobachtungen öffentlich finden.

Ich mein' nur, von den 50er-Treibern gab's mitlerweilen AFAIK bereits 3-4 Releases "breit" an die Entwickler, und kein einziger ist geleakt . . .

93,
-Sascha.rb

Demirug
2003-07-13, 21:07:38
Original geschrieben von nggalai
*Exxtreme anschliess*

Deshalb bin ich noch immer Anhänger des Kyro-Ansatzes--Applikationsspezifische Settings, die sich auch z.T. im Treiber oder fast durchgehend mit Tweaking-Tools pro Programm anpassen lassen. Wie Demiurg schon sagte--nur weil zwei Applikationen "dieselbe Engine" verwenden, heisst das noch lange nicht, dass dieselben Optimierungen bei den beiden Spielen dieselben (guten) Ergebnisse bringen; noch viel weniger gilt das bei derselben API (z.B. D3D). Dem entsprechend mag ich applikationsspezifische Optimierungen.

93,
-Sascha.rb

Ich würde ja ein Konzept bevorzugen bei dem man in die Treibern "Applications Performance Packs" als Plugins einfügen kann. Bei Bedarf sogar noch mit einem eigenen Sheet im Panel wo man noch etwas einstellen kann was die Entwickler die Spiels nicht vorgesehen haben oder vergessen haben.

nggalai
2003-07-13, 21:09:24
Original geschrieben von Demirug
Ich würde ja ein Konzept bevorzugen bei dem man in die Treibern "Applications Performance Packs" als Plugins einfügen kann. Bei Bedarf sogar noch mit einem eigenen Sheet im Panel wo man noch etwas einstellen kann was die Entwickler die Spiels nicht vorgesehen haben oder vergessen haben. Das wär' allerdings sehr geil. Aber ist das noch praxistauglich? Kommen da die Treiberentwickler überhaupt noch nach? Der Kyro-Ansatz ist da ein guter Mittelweg, IMO.

93,
-Sascha.rb

Demirug
2003-07-13, 21:14:51
Original geschrieben von nggalai
Das wär' allerdings sehr geil. Aber ist das noch praxistauglich? Kommen da die Treiberentwickler überhaupt noch nach? Der Kyro-Ansatz ist da ein guter Mittelweg, IMO.

93,
-Sascha.rb

Man müsste in die Treiber ja nur entsprechende Schnittstellen einbauen welche dann von den entsprechenden Plugins benutzt werden können. Und das ganze müsste man ja auch nur für Spiele machen bei denen es wirklich was bringt. Vom Kyroansatz ist das gar nicht so weit weg dort hat man ja auch nur einfach massenhaft Schalter im Treiber.

Das Problem ist nur das dieses bei den meisten Kunden nicht funktioniert. Da sind ja viele noch nicht mal in der Lage ein Treiberupdat5e durchzuführen.

silverhawk
2003-07-13, 21:40:32
Original geschrieben von Demirug
Genau wenn die App nicht sagt was sie will muss sie eben das benutzten was sie bekommt. Aber das es schon etwas hinterhältig von ATI war das einfach mal so einzuführen musst du ja zugeben, oder?

worauf beziehst du das genau demi?

@exxtreme: wenn ich aber in rtool "real" AF einstelle und dies von games nicht detectier wird in dem eventuell eine option wie "details" gleich auf max ist, wird dies dann trotzdem erzwungen? andre frage noch, was ist denn wenn ich dann noch die details auf max stellen würde? ändert sich dann was oder bleibt das "real" AF via rTool fixiert?

Exxtreme
2003-07-13, 21:42:54
Original geschrieben von silverhawk
@exxtreme: wenn ich aber in rtool "real" AF einstelle und dies von games nicht detectier wird in dem eventuell eine option wie "details" gleich auf max ist, wird dies dann trotzdem erzwungen? andre frage noch, was ist denn wenn ich dann noch die details auf max stellen würde? ändert sich dann was oder bleibt das "real" AF via rTool fixiert?
Das rTool erzwingt OHNE AUSNAHME den "vollständigen" Tri-AF. DIese Funktion ist nämlich schon in den Treibern drin. Nur das Controlpanel bietet diese nicht an.

mapel110
2003-07-13, 21:45:02
Original geschrieben von Razor
Wenn nVidia es schaffen sollte be Dass dies bei Dir einen 'üblen' Beigeschmack verursacht, war klar. Und woher willst Du wissen, dass diese Optimierung nicht auch anderen Games zugute kommt, die ebenso wie Codecreatures arbeiten. Da es solche Games aber wohl offensichtlich (noch) nicht gibt, dürfte diese Frage nur sehr schwer zu beantworten sein.

Razor

siehe benchmarks von unreal2.

Demirug
2003-07-13, 21:46:16
Original geschrieben von silverhawk
worauf beziehst du das genau demi?


Das man wenn man AF über das Panel erzwingt nur für den Stage 0 tri-AF bekommt. Etwas Fantasieloss aber wirkungsvoll.

Razor
2003-07-13, 22:09:06
Original geschrieben von mapel110
siehe benchmarks von unreal2.
Was bitte hat Unreal2 mit codecreatures zu tun ?
???

Razor

Mr. Lolman
2003-07-13, 22:15:02
editiert ;)

mapel110
2003-07-13, 22:18:19
Original geschrieben von Razor
Was bitte hat Unreal2 mit codecreatures zu tun ?
???

Razor

du verstehst auch nur das was du verstehen willst, oder ?!

ut2003 hat optimierungen, u2 offenbar nicht.

Mr. Lolman
2003-07-13, 22:56:11
Original geschrieben von Razor
Bei UT2003 wurde auf jeden Fall bei nVidia 'eingegriffen', das ist klar. Ob dieses aber als Cheat gewertet werden kann, oder nur als Versuch eine 'on-the-fly'-Optimierung (Texturanalyse ahoi ;-) durchzuführen, hingegen noch nicht. UT2003 hat sich ja schon immer etwas 'störrisch' verhalten, wenn es um Optimierungen ging, denkt man hier doch mal an die Stages-Optimierungen mit der gf4 (oder auch gf3, wenn der der Treiber gehackt wurde). Wurde nur die ST0 anisotrop gefiltert, dann hat's im Prinzip bei den darauf folgenden Stages keine gegeben. Deswegen gab's für UT2003 auch eine eigene Einstellung dafür.
Ne Razorle, das ist keine Texturanalsyse. Schau nochmnal genau auf B3D nach, kuck dir Lovesucks Screenshots an. und du wirs merken, dass da einfach statt App. Bal. AF zum Einsatz kommt.

Wenn nVidia es schaffen sollte be besserer Qualität die gleiche Leistung zu bringen, ist's kein Cheat mehr, sondern nur noch eine Optimierung.
Stimmt. Im Moment schaffen sie bessere Leistung aber nur bei schlechterer BQ zu bringen. Das ist nichts anderes als ein vom User ungewolltes Umverteilen von BQ/Speed. Moralisch gesehen ein Cheat.

Wenn man von UT2003 spricht... derzeit ja.
Bei allen anderen Games da draußen, müsstest Du den beweis antreten, dass dem so ist.
Und glaube mir, es gibt ne' Menge mehr, als nur UT2003 !

Jaja, ich oder ein anderer müsst beweisen. Du würdest ja nie deinen Hersteller des Cheatens bezichtigen wollen, also kann man von dir da auch keine Aufklärungsarbeit erwarten, oder wie seh ich das.?

Und was mir da noch einfällt... das, was ATI da macht, ist ja nun auch nicht gerade 'nett', so ist doch diese Optimierung, die nVidia da triebt, bei ATI ganz offiziell. Auch hier wird selbst bei 'quality'-Einstellungen bei Stages >0 (die bei UT2003 seht häfig sichtbar sind !) nur bilienar gefiltert. Man will 'qiality' und bekommt defakto nur 'performance'. Insofern muss man ja sagen, dass man von ATI generell keine gute BQ bei UT2003 bekommt, ganz egal, was man im Treiber einstellt. Aber ds steht für Dich wahrscheinlich auf einem anderen Blatt, oder ?
;-)
Ich sehe bei meiner ATi wirklich sehr häufig keinen Unterschied zw. Perf und Qual AF. Nur leider ist der BQunterschied zw. unoptimiertem und optimiertem Quality AF nochmal viel geringer. (anscheinend genauso wie beim perfekten hochwohlgecodetem App. AF und dem schnöden bürgerlichem Balanced AF)

Hoffen wir mal nur, dass nicht noch mehr solche Games wie UT2003 heruas kommen, denn dann müsste man das Thema ATI und BQ unter einem ganz anderen Licht betrachten, oder ?

Ich glaub nicht. Weiter unten gibts da einen netten UT2003 Screenshot. (Mit Winkelabhängikeit :O)

Dass dies bei Dir einen 'üblen' Beigeschmack verursacht, war klar. Und woher willst Du wissen, dass diese Optimierung nicht auch anderen Games zugute kommt, die ebenso wie Codecreatures arbeiten. Da es solche Games aber wohl offensichtlich (noch) nicht gibt, dürfte diese Frage nur sehr schwer zu beantworten sein.

Ja man sollte wirklich überprüfen ob bei NV Karten nicht noch mehr spiele nur Balanced AF statt Quality AF bekommen.

Soso...
Ist es also doch vielleicht nur eine 'fehlgeschlagene' Texturanalyse, der Du da aufgesessen bist ? Ich will nicht sagen, dass dem so ist, denn dazu fehlen mir einfach noch zu viele Informationen, um dies beurteilen zu können. Offenbar gibt es also Scenarien, bei der diese Form der Optimierung visuell deutlich zum Tragen kommt (obwohl ich diese Stellen wirklich suchen müsste) und wieder welche, bei denen es offenbar funktioniert.

Nönö. Hab ich oben schon erklärt.

Oder auch nur an einer einzelnen Scene...

Schaun' wir mal, wie sich das Ganze entwickelt.
Ist auf jeden Fall äusserst interessant, das Ganze !

Full Ack!:-)


Ein Spiel für alle (so zur Auflockerung):

Folgender Screenshot wurde in 1280x960 vom UT2003 BonuspackONE aufgenommen, vom Müllhalden Level (k.A wie der jetzt heisst)
Man kann ja als NV Karten Besitzer schaun ob man auf vergleichbare Qualität kommt und dann die fps vergleichen.... ;)

Klick das Bild für volle 460kB Ladung
http://www.dodstudios.net/uploads/uploads/Shot00080thumb.jpg (http://www.dodstudios.net/uploads/uploads/Shot00080.jpg)



Original geschrieben von Razor
Und wie nennt man das, wenn man in Treiber bei ATI 'quality' einstellt (und auch haben möchte ;-), grundsätzlich aber nur 'performance' bekommt (die wirkliche 'quality' also nur über einen Registery-Hack eingestellt werden kann) ?
Der grosse Unterschied ist, dass mn bei ATi die Optimierungen ganz einfach Umgehen kann, dss bei ATi das ganze offiziell ist, und man wahrscheinlich demnächst sowieso den Schalter einbaut. Bei Nvidia musste das mam schon disassamblen, und das Ganze funktioniert bei neueren Treibern auch nicht mehr. Behoben wirds auch nicht, zugegeben schon garnicht und als Absicherunggegn neue Aufdeckungsaktionen verschlüsselt man neuerdings die Treiber. Da die Fachpresse aber kaum darüber berichtet und kaum ein Reviewrer seine Testmethoden ändert, ists ja (im Moment) eh nicht weiter schlimm ;-).

Wer sagt eigentlich, dass 'quality' immer und überall gleich sein muss ?
Ich persönlich würde das auf jeden Fall besser finden, aber wer legt so etwas fest ?
Wer sagt denn dass das Auto immer gleich gut fahren muss?
Wass würde man sagen, wenn nach dem Service das Auto plötzlich bei 2/3 der Strecke auf dem Grossglockner hängen bleibt und das Navigationssystem dazu noch behauptet man sei am Ziel ??

Wenn es von niemanden 'festgelegt' wird, warum kann das AF nicht bei jeder Engine anders arbeiten, um 'quality' zu erhalten ?
Weil sich der User dann doch irgendwann verarscht fühlen würde, denk ich mal....

Nur so eine Frage...
:D

Razor


Schon klar...
:bäh:

Mr. Lolman

Razor
2003-07-14, 06:31:01
Original geschrieben von mapel110
du verstehst auch nur das was du verstehen willst, oder ?!

ut2003 hat optimierungen, u2 offenbar nicht.
Das steht auf einem ganz anderen Blatt (versuchen wir ja gerade zu klären ;-). Aber wenn Du Dir noch mal genau Dein Zitat anschaust, dann wirst auch Du vielleicht bemerken, dass ich von codecreatures sprach und nicht von UT2003, oder ?

Razor

Razor
2003-07-14, 06:37:27
Original geschrieben von Mr. Lolman
Ein Spiel für alle (so zur Auflockerung):

Folgender Screenshot wurde in 1280x960 vom UT2003 BonuspackONE aufgenommen, vom Müllhalden Level (k.A wie der jetzt heisst)
Man kann ja als NV Karten Besitzer schaun ob man auf vergleichbare Qualität kommt und dann die fps vergleichen.... ;)

Klick das Bild für volle 460kB Ladung
http://www.dodstudios.net/uploads/uploads/Shot00080thumb.jpg (http://www.dodstudios.net/uploads/uploads/Shot00080.jpg)
Ich kann jetzt nicht Deinen ganzen Post beantworten (muss gleich zur Arbeit ;-).

Aber könntest Du diesen Shot bitte nochmal NUR mit 8°AF ('quality') machen.. meinetwegen auch 16°AF... und dabei AA weglassen ? Dann würde ich vielleicht auch einen Shot machen, den wir dann vergleichen könnten... ganz toll wäre natürlich auch gleich ein eingefäbter Shot dazu !

Müsste zwar selber einen neueren Deto installieren und diesen dann wieder vom System 'wischen', aber das wär's mir Wert. Wenn Du AA allerdings drin läßt, sehe ich keine notwendigkeit dies zu tun...

Du vestehst ?
;-)

Razor

Und... :weg:

Quasar ohne Keks
2003-07-14, 08:45:21
Original geschrieben von Exxtreme
Das rTool erzwingt OHNE AUSNAHME den "vollständigen" Tri-AF. DIese Funktion ist nämlich schon in den Treibern drin. Nur das Controlpanel bietet diese nicht an.

Naja, vollständig müsste es heissen: Es war schon immer im Treiber integriert und wurde ab dem Cat3.1 (?) vorsätzlich entfernt, um in UT2003 u.a. Leistungssteigerungen von "bis zu 30%" als Wunderwerk der Catalyst-Crew verkaufen und leistungsmäßig konkurrenzfähig bleiben zu können, oder?

Exxtreme
2003-07-14, 08:54:29
Original geschrieben von Quasar ohne Keks
Naja, vollständig müsste es heissen: Es war schon immer im Treiber integriert und wurde ab dem Cat3.1 (?) vorsätzlich entfernt, um in UT2003 u.a. Leistungssteigerungen von "bis zu 30%" als Wunderwerk der Catalyst-Crew verkaufen und leistungsmäßig konkurrenzfähig bleiben zu können, oder?
So kann man es auch sehen. :)

Wobei man sagen muß, daß das "Wunderwerk" der Leistungssteigerung erst mit dem Cat3.2 richtig da war.

Gastgaytnicht
2003-07-14, 11:12:50
Original geschrieben von Exxtreme
Hinterhältig? Moralisch gesehen... ja. :D

Rein technisch gesehen können sie eigentlich machen, was sie wollen. Und die Möglichkeit so zu filtern, wie es die Entwickler vorgesehen haben gibt's auch. mal drüber nachdenken

quote:Original geschrieben von LovesuckZ
Dann ist an Nvidia's Verfahren erst dann ein cheat, wenn man per ini AF einstellt.
Bis dahin ist Nvidia also cheatfrei...
Technisch gesehen ja.


So das vom rtool Macher damit ist jetzt wohl klar und jede weitere Diskussion um cheating ist besser einzustellen.

oder wurde die aussage schön überlesen

dann cheatet nv also nur bei ini Umstellungen tja darf man das denn überhaupt bzw. das ist dann ein cheat

@razor und lolman damit braucht es nun keiner pics mehr!

Mr. Lolman
2003-07-14, 11:27:16
Original geschrieben von Razor
Ich kann jetzt nicht Deinen ganzen Post beantworten (muss gleich zur Arbeit ;-).

Aber könntest Du diesen Shot bitte nochmal NUR mit 8°AF ('quality') machen.. meinetwegen auch 16°AF... und dabei AA weglassen ? Dann würde ich vielleicht auch einen Shot machen, den wir dann vergleichen könnten... ganz toll wäre natürlich auch gleich ein eingefäbter Shot dazu !


Warum sollte ich den Shot nur mit 8xAF machen?. Warum nur ein Quality Feature gesondert betrachten? Kauf ich mir eine 300-500€ Karte, ohne dann AA einzuschalten?. Da tuts dann eine schnöde Radeon8500 genauso.

LOL und eingefärbte Mipmaps... Spielst du mit eingefärbten Mipmaps? Warum müsstest du einen anderen Deto installieren? Läfut Unreal mit dem jetzigen nicht? Wollstes du einen 'Cheatfreien' Deto installieren? Hast du eigentlich schon deine neue FX5900?


Müsste zwar selber einen neueren Deto installieren und diesen dann wieder vom System 'wischen', aber das wär's mir Wert. Wenn Du AA allerdings drin läßt, sehe ich keine notwendigkeit dies zu tun...


Es hiess ja immer, dass das bessere NV AF die schlechtere AA Qualität locker ausgleicht. Zur Unterstützung der NV Fraktion nam ich auch extra eine Szene bei der man die Winkelabhängigkeit der ATi Karten erkennt. Ausserdem verlangte ich nicht einmal einen Screenshot einer Karte der gleichen Preisklasse(weil ja meine auch etwas oced ist). Meinetwegen könnte man den Screenshot auch mit einem 250W Peltier gekühlten, gemoddetem 600MHz NV35 Monster machen. Nur sich komplett davor zu drücken ist feig...


/Hmm: Ich glaub einen AF only Shot präsentiere ich erst, wenn du den mit AA/AF gepostet hast. Warum weisst du ja. Und wenn nicht, dann soll dir Lovesucks erklären.

LovesuckZ
2003-07-14, 11:28:54
Original geschrieben von Mr. Lolman
/Hmm: Ich glaub einen AF only Shot präsentiere ich erst, wenn du den mit AA/AF gepostet hast. Warum weisst du ja. Und wenn nicht, dann soll dir Lovesucks erklären.

Was soll ich erklaeren?
Kann man die Map auch ohne das Bonuspaket runterladen?

Mr. Lolman
2003-07-14, 11:29:19
Original geschrieben von Gastgaytnicht

@razor und lolman damit braucht es nun keiner pics mehr!

Technisch gesehen cheatet NV nur bei der 'ini' Umstellung. Moralisch gesehen aber schon sobald man AF überhaupt einschaltet und UT2003 spielen will.... Warum? Das hab ich weiter oben erklärt....

LovesuckZ
2003-07-14, 11:30:42
Original geschrieben von Mr. Lolman
Technisch gesehen cheatet NV nur bei der 'ini' Umstellung. Moralisch gesehen aber schon sobald man AF überhaupt einschaltet und UT2003 spielen will.... Warum? Das hab ich weiter oben erklärt....

ATi und Nvidia cheaten, wenn wir die Sache aus der Sicht der Moral betrachten. Da gibt es nichts zu ruetteln.

Gastgaytnicht
2003-07-14, 11:35:22
Original geschrieben von Mr. Lolman
Technisch gesehen cheatet NV nur bei der 'ini' Umstellung. Moralisch gesehen aber schon sobald man AF überhaupt einschaltet und UT2003 spielen will.... Warum? Das hab ich weiter oben erklärt....

bohha

So ein grober unfug las es dir von exxtreme oder lovezucks erklären!

Mr. Lolman
2003-07-14, 11:38:05
Original geschrieben von LovesuckZ
Was soll ich erklaeren?
Kann man die Map auch ohne das Bonuspaket runterladen?

Du warst doch immer der Verfechter von der Sichtweise "kein Quali Feature gesondert" zu betrachten. Die Map fürchte ich, wirst du nur mit dem Bonuspack (150MB) bekommen. Sie heisst "Rustatorium": Mirrors (http://www.unrealtournament2003.com/dl_addon_epic_bonus.php)



Original geschrieben von Gastgaytnicht
bohha

So ein grober unfug las es dir von exxtreme oder lovezucks erklären!

Das (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=79978&postid=1039256#post1039256) kommt raus wenn man mit einer NV Karte bei UT2003 Application AF haben will.

Gastgaytnicht
2003-07-14, 12:02:02
Original geschrieben von Mr. Lolman
Du warst doch immer der Verfechter von der Sichtweise "kein Quali Feature gesondert" zu betrachten. Die Map fürchte ich, wirst du nur mit dem Bonuspack (150MB) bekommen. Sie heisst "Rustatorium": Mirrors (http://www.unrealtournament2003.com/dl_addon_epic_bonus.php)





Das (http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=79978&postid=1039256#post1039215) kommt raus wenn man mit einer NV Karte bei UT2003 Application AF haben will. Ja noch Mals boohh aa sag mir doch bitte mal dazu ob die ini angepaßt würde und welcher Treiber da ich nun wirklich nicht auf die schnelle 13 Seiten lesen kann Ne das verstehst du sicher!
und wenn du Ne ini Anpassung für deine ati machst danach diese dann mit der nv machst cheatet sie aber nur weil die ini vermurkst würde meint nicht ORIGINAL ist War es nicht futermark denen soetwas auch nicht schmeckt

Radeonatoir@work
2003-07-14, 12:25:30
Das ist wieder eine "Diskussion" de lux hier...

ALLE Hersteller optimieren zu ihren gunsten, ihr nutzt nur wieder jede Gelegenheit zum bashen, um das eigentliche geht es hier anscheinend den Wenigsten...

Gerade in UT2k3 sieht auch mit dem neusten Treiber das AF immer noch besser auf als auf meiner vorherigen 9500Pro!!!

Mr. Lolman
2003-07-14, 12:30:35
@Radeonator:
Gerade in UT2K3 wo nur balanced AF verwendet wird, siehts besser aus. Ja klar... Dann mach du mal einen Screenshot.

@Gast: nein die ini wurde nicht angepasst, und der Treiber war der letzt, der nette Performance Steigerungen brachte (Lovesucks?). Bei Beyond3D gibts übrigens auch solche Bilder...

ShadowXX
2003-07-14, 12:32:41
@Gastgaytnicht

weisst du überhaupt von was du redest???

Radeonator@work
2003-07-14, 13:00:51
Original geschrieben von Mr. Lolman
@Radeonator:
Gerade in UT2K3 wo nur balanced AF verwendet wird, siehts besser aus. Ja klar... Dann mach du mal einen Screenshot.


1. Hatte ich selber lange Zeit die 9500Pro (bis cat 3.5)
2. Hatten wir am WE ein LAN und konnten dort direkt vergleichen

Willst /Kannst du eigentlich nur noch bash00rn ??? Gehts dir dann irgendwie besser ??? Versuch mal neutral an die sache zu gehen, auch wenn es dir sehr,sehr schwer fällt...

Auf der LAN hat man die BQ unterschiede schon stark sehen können und screens kannst du gerne bekommen wenn ich wieder zuhause bin, pack ich welche rein...

Gastgaytnicht
2003-07-14, 13:04:36
Original geschrieben von Mr. Lolman
@Radeonator:
Gerade in UT2K3 wo nur balanced AF verwendet wird, siehts besser aus. Ja klar... Dann mach du mal einen Screenshot.

@Gast: nein die ini wurde nicht angepasst, und der Treiber war der letzt, der nette Performance Steigerungen brachte (Lovesucks?). Bei Beyond3D gibts übrigens auch solche Bilder... ist der überhaupt offieziel nö iss er nich
mit dem offieziellen musst du vergleichen ok ansonsten hingt es ein bissel

@ShadowXX ja sicher doch!
blickst du nicht durch ???
obwohl lolie und ich ne andere auffasung haben kommen wir wenigstens stück für stück näher zusammen er antwortet doch auf die fragen oder etwa nicht aber he klär uns auf

ShadowXX
2003-07-14, 13:17:42
@Gastgaytnicht

ich weiss schon wovon ich rede....
für mich ist alles (egal ob nv oder ati) dann ein cheat, wenn das Game nicht das macht das ich im CP vorgegeben habe!!!

Dabei sollten .ini's & treiberversionen egal sein.


Es cheaten beide...und beide werden auch weitercheaten....

@Radeonator@work:

toller Beweis:
War bei ner LAN, nv sah besser aus.....

Ich war letztens auch bei einer LAN, da sahen die ATI's besser aus....es ist auch immer ein bisserl Geschmacks/Ansichtsache und dazu kommen noch ca. 1000 andere sachen wie: verschiedene Treiber, verschiedene Treibereinstellungen, verschiedene Monitore, verschiedene Augen der Betrachter.......
Bei den grossen ATI's und NV's ist sehr sehr viel persönliche Einstellung mit dabei.....

J.S.Shadow

Gastgaytnicht
2003-07-14, 13:35:59
Original geschrieben von ShadowXX
@Gastgaytnicht

ich weiss schon wovon ich rede....
für mich ist alles (egal ob nv oder ati) dann ein cheat, wenn das Game nicht das macht das ich im CP vorgegeben habe!!!

Dabei sollten .ini's & treiberversionen egal sein.


Es cheaten beide...und beide werden auch weitercheaten....

@Radeonator@work:

toller Beweis:
War bei ner LAN, nv sah besser aus.....

Ich war letztens auch bei einer LAN, da sahen die ATI's besser aus....es ist auch immer ein bisserl Geschmacks/Ansichtsache und dazu kommen noch ca. 1000 andere sachen wie: verschiedene Treiber, verschiedene Treibereinstellungen, verschiedene Monitore, verschiedene Augen der Betrachter.......
Bei den grossen ATI's und NV's ist sehr sehr viel persönliche Einstellung mit dabei.....

J.S.Shadow
@Exxtreme würdest du bitte nochmals dazu stellung nehmen

quote:Original geschrieben von Exxtreme
Hinterhältig? Moralisch gesehen... ja.

Rein technisch gesehen können sie eigentlich machen, was sie wollen. Und die Möglichkeit so zu filtern, wie es die Entwickler vorgesehen haben gibt's auch. mal drüber nachdenken

quoteriginal geschrieben von LovesuckZ
Dann ist an Nvidia's Verfahren erst dann ein cheat, wenn man per ini AF einstellt.
Bis dahin ist Nvidia also cheatfrei...
Technisch gesehen ja.


ps@all in der ini pfüscht der ALDI kunde nicht rum es ist auch ein witz das ich es muss um ne qualität zu erreichen di ati offieziell nicht liefert.

radeonator@work
2003-07-14, 13:38:21
@shadowxx : Vielleicht solltst du mal alles lesen und dann schreiben...

Ich hatte im selben Rechner bis vor kurzem die 9500Pro und kann dadurch sehrwohl direkt vergleichen.
Wie gesagt screens folgen...

Exxtreme
2003-07-14, 13:49:51
Original geschrieben von Gastgaytnicht
@Exxtreme würdest du bitte nochmals dazu stellung nehmen

quote:Original geschrieben von Exxtreme
Hinterhältig? Moralisch gesehen... ja.

Rein technisch gesehen können sie eigentlich machen, was sie wollen. Und die Möglichkeit so zu filtern, wie es die Entwickler vorgesehen haben gibt's auch. mal drüber nachdenken

quoteriginal geschrieben von LovesuckZ
Dann ist an Nvidia's Verfahren erst dann ein cheat, wenn man per ini AF einstellt.
Bis dahin ist Nvidia also cheatfrei...
Technisch gesehen ja.

Was soll ich denn dazu sagen?

Wenn man den AF über das Controlpanel erzwingt, dann dürfen die IHVs eigentlich alles machen was sie wollen.

Wenn man es aber per Spiel macht, dann sollte der Treiber so filtern wie das Spiel es fordert. Bei ATi ist das immer der Fall, bei NV in UT2003 ist das nicht der Fall.

ShadowXX
2003-07-14, 14:10:18
@radeonator@work

ich hatte es durchaus ganz durchgelesen.
Du vielleicht aber nicht mein Posting....Ich sagte das ich auch Leute kenne die bei eine LAN (mit nv und ati GraKas) die ATI BQ besser fanden....

Es ist sehr oft persönliche Preferenz.....

Mr. Lolman
2003-07-14, 14:44:00
Original geschrieben von Gastgaytnicht
ist der überhaupt offieziel nö iss er nich
mit dem offieziellen musst du vergleichen ok ansonsten hingt es ein bissel

Da bin ich ganz deiner Meinung. Aber als ersten Schritt, sollten die Reviewer dazu übergehen, auch nur offizielle Treiber zu testen. Sonst kann man sich bei div. womöglich auftretenden Irregularitäten darauf rausreden, dass der Treiber nicht offiziell war. (Man muss dann halt in Kauf nehmen, dass der offizielle Treiber mit AA/AF ~25% langsamer ist (bei UT2003). (Ohne AA dürften es noch mehr sein, und die Zahlen hab ich aus dem Pyramiddemo Benchmarkthread)

Original geschrieben von Radeonator@work
Willst /Kannst du eigentlich nur noch bash00rn ??? Gehts dir dann irgendwie besser ??? Versuch mal neutral an die sache zu gehen, auch wenn es dir sehr,sehr schwer fällt...

Bash0rn ist in meinen Augen das übertriebene Herziehen über eine bestimmte Sache. Ich glaube, dass meine Posts fair genug sind, um nicht als Fanboy durchzugehen. Und ja ich hab auch eine Ti4200, und bestreite auch garnicht, das in bestimmten Preisklassen manche NVKarten für michsogar erste Wahl wären. (Die 4200 würd ich sofort wieder empfehlen, sofern ich keine 8500LE finde die ~20€ günstiger ist)

Das einzige was ATis cheaten von NVs cheaten unterscheidet ist, dass man bei ATi eine in allen Spielen konstante Qualität serviert bekommt, bei NV aber zumindest bei UT2003 dem User/Reviewer vorgegaukelt wird, dass App. AF zum Einsatz kommt, während es tatsächlich nur Bal.AF ist. Dem User ists anscheinend wurscht, wie man an deinem und Razors Beispiel sehen kann. Mir persönlich ists auch egal ob der User beschissen wird. Wenn man jetzt eine NV Karte kauft, weiss man ja worauf man sich einlässt. Das dann aber diverse GraKa Tests nicht mehr stimmem steht in einem anderem Licht.

Nochmal:
Bei ATi muss man sagen, dass eine TS Optimierung nicht ganz die feine Art ist, der interessierte User, wird aber schnell die Möglichkeit finden, diese zu Umgehen. (Mit dem atuner, welchen ich persönlich dem rTool im Moment vorziehe), kann man sogar frei wählen, welches AF man jetzt will. Cheat ists aber keiner, da jeder sein AF darstellen kann wie er will. Wenn NV so konsequent wäre, dass App.AF komplett zu streichenm und das Balanced AF plötzlich als App. AF zu bezeichnen, dann wäre es genau so wenig ein Cheat wie bei ATi. Fakt ist, dass nur bei UT2003 die AF Modi getauscht sind, und bei manchen Leuten denn Schluss zulässt, das es eine reguläre Optimierung ist, und nicht einfach ein Fallback zum nächst schlechteren Modus. Wenn NV dies offiziel zugibt (so wie es ATi bei der TS Optimierung machte), und in den Reviews zukünftig auf die AF Situation bei UT2003 hingewiesen wird, dann hab ich kein Probblem mehr damit.
Im Moment sieht man aber nur die hohe UT2003 Geschwindigkeit beim schönen App. AF, und dies ist schlichtweg falsch...


Auf der LAN hat man die BQ unterschiede schon stark sehen können und screens kannst du gerne bekommen wenn ich wieder zuhause bin, pack ich welche rein...

Mach das bitte, am besten ein Screenshot mit AA/AF** vom Rustatorium Level. Meine Screenshotsposition lässt sich auch ganz leicht nachvollziehen, ich bin nämlich so weit zurückgegeangen wie nur möglich und war dann praktisch in einer Art Kerbe mit der Spielfigur. Das untere Ende des Fadenkreuzes schliesst genau mit dem oberen Ende des "Healthpacks" ab. Bots gab es keine im Level.


**Ich glaube nämlich kaum, dass alle Leute auf der LAN nur mit AF gespielt haben ;)

Original geschrieben von Gastgaytnicht
ps@all in der ini pfüscht der ALDI kunde nicht rum es ist auch ein witz das ich es muss um ne qualität zu erreichen di ati offieziell nicht liefert.

Muss sie auch nicht. Aber dann gilt das schönere AF auch nicht mehr als Kaufgrund... (Hat den kein NV Kartenbesitzer Bock, ein paar andere Spiele wo man Colormipmaps verwenden kann, durchzutesten?)

LovesuckZ
2003-07-14, 14:53:06
Mr. Lolman,

Cheat ists aber keiner, da jeder sein AF darstellen kann wie er will.

Nehmen wir ein Spiel, welches mir keine Moeglichkeit gibt AF einzustellen. Um "richtiges" AF zu bekommen, muesste ich also ein externes Tool verwenden. Ob rTool oder Rivatuner, ohne externes Tool geht es einfach nicht.
Da du dies nicht als Cheat deklarierst, dürfte es den begriff überhaupt nicht geben. Denn jeder hat doch die Moeglichkeit die Cheats zum Beispiel im 3dmark mit dem ASC zu umgehen... :bonk:
Und nur weil du eine TI4200 Karte besitzt, heißt das noch lange nicht, dass du neutral seist. Dies bestaetigst du mit der Ausredensammlung, die ATi's AF Cheat (egal ob technisch oder moralisch) "legal" macht.

(Hat den kein NV Kartenbesitzer Bock, ein paar andere Spiele wo man Colormipmaps verwenden kann, durchzutesten?)

Wenn du mir Spiele nennst bei denen das Moeglich ist und dann auch gleich den Befehl.

Mr. Lolman
2003-07-14, 15:00:28
@LS:

Wir drehen uns schon wieder im Kreis, aber trotzdem veruche ich das Karusell ein letztes Mal anzuhalten:

ATi sagt nirgendwo, dass deren AF vollständig trilinear gefiltert wird.

NV lässt dem User im Glauben, dass es bei UT2003 nettes App.AF serviert bekommt, (natürlich nur wenn ers auch eingestellt hat ;))

LovesuckZ
2003-07-14, 15:03:45
Original geschrieben von Mr. Lolman
@LS:
ATi sagt nirgendwo, dass deren AF vollständig trilinear gefiltert wird.
NV lässt dem User im Glauben, dass es bei UT2003 nettes App.AF serviert bekommt, (natürlich nur wenn ers auch eingestellt hat ;))

Woher weiß der Nvidia User, dass App. AF (ich beziehe mich auf die Einstellung im Treiber) vollstaendigiges tri AF sein sollte und der ATi user dies nicht?
Wenn Nvidia es mal zugab, dann würde ich es auch anders so sehen. So drehst du dich leider nur allein im Karussell.

Mr. Lolman
2003-07-14, 15:18:19
Es ist doch sh1ce egal, ob das AF aus pointsampling, ripmaps, mipmaps (bi/tri), oder was auch immer generiert wird.

Das wäre das Gleiche wie wenn ATi überall einen tollen Qualitätsmodus hätte, und nur in dem Spiel, welches schon fast als Standardbenchmark gilt, unbemerkt den schnelleren Performance Modus verwenden würde um somit schönere Benchmarkergebnisse zu haben.

Die Verschlechterung der AF Qualität bei den FX Karten, ist mir dabei eigentlich fast egal, da meine GF4 Ti4200 sowieso immer das schöne tri-AF verwendet.


/edit: Colormipmaps weiss ich nur, wie man sie bei Q3a Engine Spielen aktiviert ("r_colorMipLevels 1" gefolgt von "vid_restart")
Vielleicht funktioniert der UT2003 Befehl auch bei anderen Spielen mit der UT2003 Engine....

nggalai
2003-07-14, 15:34:10
Hola,

NV lässt dem User im Glauben, dass es bei UT2003 nettes App.AF serviert bekommt, (natürlich nur wenn ers auch eingestellt hat;))

hmm. Bin ich der einzige, der's lustig findet, dass bei den Treibern, wo "Application" bei UT2003 noch "richtig" Filtert der Modus auch wirklich "Application" heisst, aber z.B. beim 44.67er plötzlich "Quality?" Bug, Methode oder Zufall?

Naja. Mal schaun, was bei den nächsten Referenztreibern Sache ist. Irgendwie find' ich's nicht sehr spannend, NV für die verteilten Treiber der Graka-Hersteller und Leaks zu verdammen. Offenbar war das u.a. Sparkle recht egal, mit den "Optimierungen" bei UT2003, oder sie haben's echt einfach nicht selbst angeschaut. Aber solange NV nicht selbst einen Referenztreiber mit dem beobachteten Verhalten rauslässt . . . ich weiss nicht. Da spare ich mir das Rumfluchen lieber auf später auf. ;D

93,
-Sascha.rb

Demirug
2003-07-14, 15:36:28
Wobei ja noch die Frage offen ist wieviel Tri-Anteil muss sein damit sich ein Filter legal als Tri-Filter bezeichnen darf?

LovesuckZ
2003-07-14, 15:37:07
Original geschrieben von nggalai
hmm. Bin ich der einzige, der's lustig findet, dass bei den Treibern, wo "Application" bei UT2003 noch "richtig" Filtert der Modus auch wirklich "Application" heisst, aber z.B. beim 44.67er plötzlich "Quality?" Bug, Methode oder Zufall?


Noe, die Bezeichnung "Quality", "Performance" und "High Performance" besteht seit dem 44.03. Ob es die UT2003 Optimierung auch seit diesem Treiber gibt, weiß ich nicht.

LovesuckZ
2003-07-14, 15:43:44
Original geschrieben von Mr. Lolman
Es ist doch sh1ce egal, ob das AF aus pointsampling, ripmaps, mipmaps (bi/tri), oder was auch immer generiert wird.

Die Frage besteht immer noch: Warum muss Quality (per Treiber eingestellt) bei Nvidia vollstaendig trilinear sein und bei ATi reicht schon ein Misch Masch Modus?

Das wäre das Gleiche wie wenn ATi überall einen tollen Qualitätsmodus hätte, und nur in dem Spiel, welches schon fast als Standardbenchmark gilt, unbemerkt den schnelleren Performance Modus verwenden würde um somit schönere Benchmarkergebnisse zu haben.

Haben sie doch gemacht. Die Qualitaet wurde in jedem D3D Game nach dem Treiberupdate (CAT 3.0 -> 3.1) gesenkt "um somit schoenere Benchergebnisse zu haben". Nvidia's macht es eben nen bissl langsamer und stellt immer nur ein Spiel um :D

Mr. Lolman
2003-07-14, 16:41:55
Original geschrieben von LovesuckZ
Die Frage besteht immer noch: Warum muss Quality (per Treiber eingestellt) bei Nvidia vollstaendig trilinear sein und bei ATi reicht schon ein Misch Masch Modus?

Verlangt ja keiner. Nur erreich0rt man mit dem Treiber in UT2003 Benchmarkergebnisse, die tatsächlich um einiges niedriger sein müssten, da ja das App. AF ein Synonym für "perfekte BQ" ist. Wenn sich das in Zukunft ändert, und darauf auch in den Reviews hingewiesen wird, solls mir auch recht sein.


Nvidia's macht es eben nen bissl langsamer und stellt immer nur ein Spiel um :D

Bis das App. AF irgendwann kein Kaufgrund mehr ist...

Radeonator
2003-07-14, 19:13:09
So ihr lieben hier zwei Screeshots.
Der erste ist mit meiner Radeon9500Pro (noAA/16xAFQualy)
gemacht worden :

http://berg.heim.at/tibet/451882/noneaa.JPG

Der zweite mit meiner GF FX5800 (noAA / 4x(!!!)Ap.AF)

http://berg.heim.at/tibet/451882/noneaagf.JPG

Also schon 4x sieht IMO besser aus.
Ach ja Cat3.5 beim ersten und DetFX 44.67 beim zweiten beide auf max Qualy (Textur/Mip) und Farb Grundeinstellung)

Wenn NV´s "Cheatings" so aussehen, dann weiter so ;)

LovesuckZ
2003-07-14, 19:20:14
Original geschrieben von Mr. Lolman
Verlangt ja keiner.

Du verlangst es.

ATi sagt nirgendwo, dass deren AF vollständig trilinear gefiltert wird.
NV lässt dem User im Glauben, dass es bei UT2003 nettes App.AF serviert bekommt, (natürlich nur wenn ers auch eingestellt hat)

Nur erreich0rt man mit dem Treiber in UT2003 Benchmarkergebnisse, die tatsächlich um einiges niedriger sein müssten, da ja das App. AF ein Synonym für "perfekte BQ" ist. Wenn sich das in Zukunft ändert, und darauf auch in den Reviews hingewiesen wird, solls mir auch recht sein.

Das Problem an der Sache ist, dass ATI's Quality bis zum CAT 3.0 auch richtig trilinear gefiltert hat, wenn man es über das CP einstellt. Durch dem naechsten Treiber "erreich0rt man [...] Benchmarkergebnisse, die tatschaechlich um einiges niedriger sein muessten, da ja das [...] [Quality] AF ein Synonym für 'perfekte BQ' ist."
Wie oft wurde das AF von ATi immer mit dem von Nvidia gleichgestellt, weil es doch kaum Unterschiede zwischen den Verfahren geben sollte?
Ich weiß nicht, doch langsam machst du den Eindruck, ob du von dieser Sache, dass ATi die User belogen und moralisch eindeutig sich Leistung erschummelt hat, nichts wissen willst und versuchst, auf Teufel komm raus, ATi zu verteidgen (kein Cheat, ein Feature...).

Crushinator
2003-07-14, 19:23:33
@Radeonator

Du hast die Avg/Min/Max vergessen. ;)

@all

Was stimmt mit mir nicht??? Ich finde das obere Bild nämlich schöner/detailreicher.

/edit: ARGH!!! Jetzt sehe ich das. Beim unteren Bild sind die Texturen hinten wirklich (viel) schärfer.

Crushinator
2003-07-14, 19:31:14
Radeonator,

ist der R300-Shot mit durchgehend trilinearem AF?

Sumpfmolch
2003-07-14, 19:40:06
Original geschrieben von Radeonator
So ihr lieben hier zwei Screeshots.
Der erste ist mit meiner Radeon9500Pro (noAA/16xAFQualy)
gemacht worden :

http://berg.heim.at/tibet/451882/noneaa.JPG



bei mir sieht 1024x768 max details 16xquality AF so aus:

http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/Shot00041.jpg


radeon9700 pro, cat3.4

the_MAD_one
2003-07-14, 19:43:32
Original geschrieben von Radeonator
So ihr lieben hier zwei Screeshots.
Der erste ist mit meiner Radeon9500Pro (noAA/16xAFQualy)
gemacht worden :

Der zweite mit meiner GF FX5800 (noAA / 4x(!!!)Ap.AF)

Also schon 4x sieht IMO besser aus.
Ach ja Cat3.5 beim ersten und DetFX 44.67 beim zweiten beide auf max Qualy (Textur/Mip) und Farb Grundeinstellung)

Wenn NV´s "Cheatings" so aussehen, dann weiter so ;)

Warum ist bei der Radeon Nebel zu sehen und bei der Gffx nicht? *Ut2003 rauskram um selber mal n Screenshot zu machen*

Sumpfmolch
2003-07-14, 19:43:57
und hier eingefärbt:

http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/Shot00042.jpg

Mr. Lolman
2003-07-14, 19:45:47
GeForce FX5800 (4x Application/Quality AF)
http://berg.heim.at/tibet/451882/noneaagf.JPG

ATi Radeon 9700pro (4x Perfomance AF)
http://www.dodstudios.net/uploads/uploads/Shot00044.jpg

Exxtreme
2003-07-14, 19:48:06
Also bei mir sieht 16x tri-AF so aus:
http://exxtreme78.bei.t-online.de/Pics/AF-Test1_16x_tri-AF.jpg

Ich möchte die armen Modem-User nicht quälen. :D

P.S. Cat3.5

Razor
2003-07-14, 19:49:15
Original geschrieben von Mr. Lolman
/Hmm: Ich glaub einen AF only Shot präsentiere ich erst, wenn du den mit AA/AF gepostet hast. Warum weisst du ja. Und wenn nicht, dann soll dir Lovesucks erklären.
Du postest also keinen vergleichbaren Shot ?
Dann hast Du mir 'ne menge Arbeit gespart !
:D

Razor

Crushinator
2003-07-14, 19:54:12
Original geschrieben von Razor
Du postest also keinen vergleichbaren Shot ? ??? Hat er doch jetzt, nu' mach schon. :D

Sumpfmolch
2003-07-14, 19:55:51
HIER (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/Shot00043.jpg) noch 16xüerformance AF auf meiner radeon 9700 pro, Cat3.4



:laola:

Mr. Lolman
2003-07-14, 19:56:30
Original geschrieben von Exxtreme
Also bei mir sieht 16x tri-AF so aus:
http://exxtreme78.bei.t-online.de/Pics/AF-Test1_16x_tri-AF.jpg

Ich möchte die armen Modem-User nicht quälen. :D

P.S. Cat3.5

Hast du irgendwas am Mipmap LOD gedreht?

Exxtreme
2003-07-14, 19:57:25
Original geschrieben von Mr. Lolman

Hast du irgendwas am Mipmap LOD gedreht?
LOD-Bias ist bei mir auf 0 und der Detailtexturen-LOD-Bias ist auch auf 0... so wie es sich normalerweise gehört... :|

P.S. Wie kann ich mirdie Mipmap-Level farbig anzeigen lassen?

Sumpfmolch
2003-07-14, 19:58:30
Original geschrieben von Exxtreme
LOD-Bias ist bei mir auf 0 und der Detailtexturen-LOD-Bias ist auch auf 0... so wie es sich normalerweise gehört... :|

P.S. Wie kann ich mirdie Mipmap-Level farbig anzeigen lassen?

firstcoloredmip 1

Mr. Lolman
2003-07-14, 19:58:43
Original geschrieben von Exxtreme
LOD-Bias ist bei mir auf 0 und der Detailtexturen-LOD-Bias ist auch auf 0... so wie es sich normalerweise gehört... :|

Hab LOD Bias auf -0.5 lassen, so wie es voreingestellt war.

reunion
2003-07-14, 19:59:50
Original geschrieben von Radeonator
So ihr lieben hier zwei Screeshots.
Der erste ist mit meiner Radeon9500Pro (noAA/16xAFQualy)
gemacht worden :

http://berg.heim.at/tibet/451882/noneaa.JPG


Das ist nie im Leben 16x AF und schon gar nicht quality :P

Sumpfmolch
2003-07-14, 20:00:36
Original geschrieben von Mr. Lolman
Hab LOD Bias auf -0.5 lassen, so wie es voreingestellt war.

worum gehts eigentlich ?

[WinDrv.WindowsClient]
TextureMaxLOD=0
TextureMinLOD=0

oder

[D3DDrv.D3DRenderDevice]
DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000

Razor
2003-07-14, 20:02:10
Original geschrieben von Mr. Lolman
ATi sagt nirgendwo, dass deren AF vollständig trilinear gefiltert wird.

NV lässt dem User im Glauben, dass es bei UT2003 nettes App.AF serviert bekommt, (natürlich nur wenn ers auch eingestellt hat ;))
Dann erzähl mir Du doch mal, warum man dann bei UT2003 'performance' AF bei ATI bekommt, obwohl man 'quality' eingestellt hat ?
???

Razor

Mr. Lolman
2003-07-14, 20:02:36
[D3DDrv.D3DRenderDevice]
DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000

Detailmipbias ist bei mir jedoch auf 0.0, da ATi ja diesen AF Bug hat(te?).

Sumpfmolch
2003-07-14, 20:03:46
Original geschrieben von Mr. Lolman
[D3DDrv.D3DRenderDevice]
DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000

Detailmipbias ist bei mir jedoch auf 0.0, da ATi ja diesen AF Bug hat(te?).

hmm sieht man das ob auf meinen shots detailtexturen da sind ?

Mr. Lolman
2003-07-14, 20:04:30
Original geschrieben von Razor
Dann erzähl mir Du doch mal, warum man dann bei UT2003 'performance' AF bei ATI bekommt, obwohl man 'quality' eingestellt hat ?
???

Razor

Weil die Colormips der Detailtexturen anscheinend die der TS0 überlagern. Wenn man die Detailtexturen ausschaltet kann das reine tri-AF der TS0 eindeutig erkennen.

BTW: Was sagst du eigentlich dazu, dass ATis 4x Perf.AF besser aussieht als NV. App./Quality AF?

Exxtreme
2003-07-14, 20:05:14
Original geschrieben von Razor
Dann erzähl mir Du doch mal, warum man dann bei UT2003 'performance' AF bei ATI bekommt, obwohl man 'quality' eingestellt hat ?
???

Razor
???

Verstehe ich jetzt nicht... :|

Mr. Lolman
2003-07-14, 20:06:31
Original geschrieben von Sumpfmolch
hmm sieht man das ob auf meinen shots detailtexturen da sind ?

Eindeutig. stells mal aus (im Menü) und mach dann noch einen Shot.

Exxtreme
2003-07-14, 20:07:47
OK, hier ein Shot mit 4x tri-AF:

http://exxtreme78.bei.t-online.de/Pics/AF-Test2_4x_tri-AF.jpg

Mit dem rTool eingestellt. :)

P.S. Radeonator,

irgendetwas stimmt mit deiner Config nicht. Stell mal den Detailtexturen-LOD-Bias auf 0... so wie es sich normalerweise gehört.

Mr. Lolman
2003-07-14, 20:11:17
Original geschrieben von Exxtreme
OK, hier ein Shot mit 4x tri-AF:

http://exxtreme78.bei.t-online.de/Pics/AF-Test2_4x_tri-AF.jpg

Mit dem rTool eingestellt. :)

Du solltest auch ein TexturLOD von -0.5 verwenden, da das jeder hier macht.

/edit: Zu langsam :balla:

Exxtreme
2003-07-14, 20:12:19
Original geschrieben von Mr. Lolman
Du solltest auch ein TexturLOD von -0.5 verwenden, da das jeder hier macht.
Da fängt's an zu flimmern. :(

Mr. Lolman
2003-07-14, 20:18:27
Original geschrieben von Exxtreme
Da fängt's an zu flimmern. :(

Es geht ja jetzt nur um den Vergleich.

Radeonator
2003-07-14, 20:21:44
Original geschrieben von Mr. Lolman
Weil die Colormips der Detailtexturen anscheinend die der TS0 überlagern. Wenn man die Detailtexturen ausschaltet kann das reine tri-AF der TS0 eindeutig erkennen.

BTW: Was sagst du eigentlich dazu, dass ATis 4x Perf.AF besser aussieht als NV. App./Quality AF?

:lol:

mit an der ini geschummelten lod und das sieht selbst dann nicht besser aus...aber ihr dürft ja rum murksen bis es irgendwie passt (wo wir gerade bei treiber cheating sind, aber in solchem Falle ist das ja legitim...so einfach geht das :idea: )...ne für mich ist hier eod. Es wurde mehrfach bewiesen und ist auch technisch so umgesetzt, das das NV AF Verfahren die bessere Quali bringt. schau dir mal die hinteren Texturen bei extreemes Screenshot an, aber da siehst du bestimmt auch nichts gelle ;)

Gott sei dank hatte ich lange genug beide Karten um zu vergleichen...

Razor
2003-07-14, 20:21:53
Original geschrieben von Exxtreme
???

Verstehe ich jetzt nicht... :|
Hat Lolman doch gerade wunderbar erklärt...
:D

Razor

Crushinator
2003-07-14, 20:27:08
Original geschrieben von Exxtreme
OK, hier ein Shot mit 4x tri-AF:
Mit dem rTool eingestellt. :) Jaaaaa!!! Ich liebe rTool -> Der einzige "Tweaker", den ich nutz'. =)

nggalai
2003-07-14, 20:28:41
Hola,

hier noch zwei Screenshots von mir. Treiber 44.67, "Application", die MIPMap-LOD BIAS-Einstellungen wie bei Exxtreme natürlich auf 0 gesetzt.

http://www.nggalai.com/images/3dc/8afapp.jpg

Und hier mit firstcoloredmip 1:

http://www.nggalai.com/images/3dc/8afappmip.jpg

Die Screenshots sind recht gross geworden. Ist also gut möglich, dass mir schnell mal die Bandbreite aus geht. ;)

93,
-Sascha.rb

Crushinator
2003-07-14, 20:30:55
Original geschrieben von Radeonator
(...) Gott sei dank hatte ich lange genug beide Karten um zu vergleichen... :lol: Klar, kann man Äpfel mit Birnen vergleichen.

Exxtreme
2003-07-14, 20:31:11
@ Sascha

Welcher AF-Level?

nggalai
2003-07-14, 20:31:58
Ooop, sorry, vergessen dazuzuschreiben: 8°AF. Halt so, wie ich's spiele.

93,
-Sascha.rb

Sumpfmolch
2003-07-14, 20:32:20
Original geschrieben von Radeonator
:lol:

mit an der ini geschummelten lod und das sieht selbst dann nicht besser aus...aber ihr dürft ja rum murksen bis es irgendwie passt (wo wir gerade bei treiber cheating sind, aber in solchem Falle ist das ja legitim...so einfach geht das :idea: )...ne für mich ist hier eod. Es wurde mehrfach bewiesen und ist auch technisch so umgesetzt, das das NV AF Verfahren die bessere Quali bringt. schau dir mal die hinteren Texturen bei extreemes Screenshot an, aber da siehst du bestimmt auch nichts gelle ;)

Gott sei dank hatte ich lange genug beide Karten um zu vergleichen...

hier nochmal die screens mit deaktivierten detail texturen, Lod auf standard (DetailTexMipBias=0.800000, DefaultTexMipBias=-0.500000)

16xquality ohne detail texturen (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/16xquality-nodetail.jpg)
16xperf ohne detail texturen (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/16xperf-nodetail.jpg)
16xperf ohne detail texturen ohne coloredmips (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/16xperf-nodetail2.jpg)

Mr. Lolman
2003-07-14, 20:32:26
Original geschrieben von Radeonator
:lol:

mit an der ini geschummelten lod und das sieht selbst dann nicht besser aus...aber ihr dürft ja rum murksen bis es irgendwie passt (wo wir gerade bei treiber cheating sind, aber in solchem Falle ist das ja legitim...so einfach geht das :idea: )...ne für mich ist hier eod. Es wurde mehrfach bewiesen und ist auch technisch so umgesetzt, das das NV AF Verfahren die bessere Quali bringt. schau dir mal die hinteren Texturen bei extreemes Screenshot an, aber da siehst du bestimmt auch nichts gelle ;)

Gott sei dank hatte ich lange genug beide Karten um zu vergleichen...

*schwitz* Du machst es einem nicht einfach. Naja, anscheinend hat ATi den Bug schon behoben. (Jetzt mit original UT2003.ini):

ATi Radeon 9700pro (4x Perfomance AF):
http://www.dodstudios.net/uploads/uploads/Shot00045.jpg

Nvidia Geforce FX 5800 (4x App./Balanced AF):
http://berg.heim.at/tibet/451882/noneaagf.JPG

/hmm, anscheinend doch nicht.

Radeonator
2003-07-14, 20:36:29
Original geschrieben von crushinator
:lol: Klar, kann man Äpfel mit Birnen vergleichen.

Sag mal bist du so "klug" oder tust du nur so...denk noch mal nach und rate wer nun alles lacht ;)

Mr. Lolman
2003-07-14, 20:40:15
Original geschrieben von Radeonator
Sag mal bist du so "klug" oder tust du nur so...denk noch mal nach und rate wer nun alles lacht ;)

Und weil deine neue Karte so toll ist, ists dir sicher ein Vergnügen einen Screenshot mit angezeigten "fps" zu posten (und schreib nicht dazu, was für eine AF/(und AA??:o) Einstellung du verwendet hast)

/Und das du cheatest (obwohl du ja garnix umgestellt hast :bonk: ) merkt man an nggalais Screenshots.

Sumpfmolch
2003-07-14, 20:43:46
Original geschrieben von Radeonator
Sag mal bist du so "klug" oder tust du nur so...denk noch mal nach und rate wer nun alles lacht ;)

deine Radeon9500Pro screens sehen ganz und garnicht aus wie noAA/16xQualy AF :kratz:

nggalai
2003-07-14, 20:49:18
. . . und hier noch 4°AF auf "Performance" (früher "Balanced" genannt):

http://www.nggalai.com/images/3dc/4afperf.jpg

http://www.nggalai.com/images/3dc/4afperfmip.jpg

LOD-Bias natürlich immernoch auf 0.

93,
-Sascha.rb

AlfredENeumann
2003-07-14, 21:10:52
Original geschrieben von Radeonator
So ihr lieben hier zwei Screeshots.
Der erste ist mit meiner Radeon9500Pro (noAA/16xAFQualy)
gemacht worden :

http://berg.heim.at/tibet/451882/noneaa.JPG

Der zweite mit meiner GF FX5800 (noAA / 4x(!!!)Ap.AF)

http://berg.heim.at/tibet/451882/noneaagf.JPG

Also schon 4x sieht IMO besser aus.
Ach ja Cat3.5 beim ersten und DetFX 44.67 beim zweiten beide auf max Qualy (Textur/Mip) und Farb Grundeinstellung)

Wenn NV´s "Cheatings" so aussehen, dann weiter so ;)


Für mich absolut nicht vergleichbar, da etwas andere winkel genommen wurden und das Bild mit der FX dunkler ist, bzw das Radeon Bild zu hell.

Sicher das diese gewählten Einstellungen genommen wurden ?
Wundert mich das die Bodentextur hinten so gut wie gar nicht gefiltert wurde.

MadManniMan
2003-07-15, 00:08:14
@all:
Das ATi-Bild vom Radeonator stimmt einfach hinten und vorn nicht. Wie man an den anderen Bildern leicht sieht, ist das nie und nimmer 16tap AF, zudem hat mich vom ersten Blick an die höhere Verkomprimierung als bei allen anderen Bildern, sowie die zu helle Darstellung gestört.

@nV-AF:
Saschas Bild zeigt mir, daß das neue App-AF nach nV ohne Mips genauso beschissen gut aussieht, wie alle anderen AF-Bilder hier. Die einzige Verwerflichkeit an all dem bisher hier geposteten ist wohl die Tatsache, daß man beim App noch immer an das nährungsweise optimale Tri-AF der alten Zeiten denkt. Verabschiedet euch davon...


@Radeonator: Kann es sein, daß du deinen (imho noch dezenten) Bias mit dem Kauf der FX um 180° gewendet hast?

aths
2003-07-15, 03:37:50
Original geschrieben von Exxtreme
P.S. Und wenn du das rTool benutzt, dann kannst du auch die volle Qualität erzwingen. Mit aTuner wird ebenfalls standardmäßig die volle Filterung genommen :) (was nur dank Exxtremes Hilfe möglich war.)

aths
2003-07-15, 03:43:39
Original geschrieben von Demirug
Wobei ja noch die Frage offen ist wieviel Tri-Anteil muss sein damit sich ein Filter legal als Tri-Filter bezeichnen darf? Imo: Soviel wie notwendig ist, um die Qualität zu erhöhen.
Original geschrieben von Exxtreme
Da fängt's an zu flimmern. :( Bei mir flimmern einige Texturen in UT2003 sogar, wenn ich (im Deto) Lod +0.5 einstelle :grübel:

nggalai
2003-07-15, 14:06:55
Hola Manni,
Original geschrieben von MadManniMan
Saschas Bild zeigt mir, daß das neue App-AF nach nV ohne Mips genauso beschissen gut aussieht, wie alle anderen AF-Bilder hier.ROFL ;D Der war geil. :D

Und ja, ich seh's momentan ähnlich--es schaut momentan danach aus, als ob NV das "perfekte" Filtern ad acta gelegt hat und ebenfalls nur noch eine Näherung anbieten könnte. Man beachte die Möglichkeitsformen, weil, wie schon gesagt--bevor nicht ein offizieller Referenztreiber mit diesem Verhalten aufkreuzt, und die Folgetreiber gleich reagieren, kann sich's gerade so gut um einen Bug handeln.

93,
-Sascha.rb

Exxtreme
2003-07-15, 14:22:02
Original geschrieben von MadManniMan
@nV-AF:
Saschas Bild zeigt mir, daß das neue App-AF nach nV ohne Mips genauso beschissen gut aussieht, wie alle anderen AF-Bilder hier.

Sehe ich auch so.

Will jemand der GFFX-Nutzer einen AA-Qualität-Wettkampf? ;D ;D ;D

Demirug
2003-07-15, 14:23:09
Original geschrieben von nggalai
Hola Manni,
ROFL ;D Der war geil. :D

Und ja, ich seh's momentan ähnlich--es schaut momentan danach aus, als ob NV das "perfekte" Filtern ad acta gelegt hat und ebenfalls nur noch eine Näherung anbieten könnte. Man beachte die Möglichkeitsformen, weil, wie schon gesagt--bevor nicht ein offizieller Referenztreiber mit diesem Verhalten aufkreuzt, und die Folgetreiber gleich reagieren, kann sich's gerade so gut um einen Bug handeln.

93,
-Sascha.rb

Die Treiber haben ja sowieso ein genereles AF-Problem.

LovesuckZ
2003-07-15, 14:26:35
Original geschrieben von Demirug
Die Treiber haben ja sowieso ein genereles AF-Problem.

Koenntest du das bitte ein bisschen genauer erklaeren?

Demirug
2003-07-15, 14:26:36
Original geschrieben von aths
Imo: Soviel wie notwendig ist, um die Qualität zu erhöhen.

So einfach kommst du mir hier nicht weg. Die Qualität würde ja schon mit einem einzigen Point-Sample an der richtigen Stelle besser.

Demirug
2003-07-15, 14:32:53
Original geschrieben von LovesuckZ
Koenntest du das bitte ein bisschen genauer erklaeren?

44.67 nimmt ja keine AF-Einstellungen von der Applikation an. Nur was man über das Panel wählt funktioniert.

Radeonator
2003-07-15, 17:35:52
Genau, ich hab zwar 16AF standartmäßig IMMER und OHNE Ausnahme auf der R300 angehabt, aber sicherlich habe ich mir die Mühe gemacht die Screens in acribischer Handarbeit zu verfälschen... :bonk:
Habt ihr irgendwelche Wahnvorstellungen oder sowas ???

Auch auf nggalai´s Screenies sieht man , das die hinteren Texturen schärfer sind, Cheated er nun auch ??? Ach nein, das wird natürlich einfach übersehen...
Es geht hier um die BQ und was soll die lächerliche Anspielung mit den fps ? Mach dir mal keine Sorgen, die Karte rotzt genügend heraus.Aber werde extra für die Fanboy Gemeinde welche nachreichen...

Mein Gott, begreift doch endlich alle mal das HW ein totes stück Materie ist und kein heiliger Grahl. Ich verstehe nicht, wie man so
versessen darauf sein kann, alles andere als das was man selbst hat, als Schrott zu bezeichnen. Erklärt mir das lieber mal und bashed nicht rum! Mir wird schon schlecht wenn ich Sätze wie "Ne ATi wollte ich mir nicht kaufen weil anno1800 mal schlechtere Treiber für diese Karte..." geplärre oder eben wie in diesem Falle das anti NV gebahse höre.

Aber was schreib ich das, ist eh sinnlos bei den meisten hier...

p.s.: Habe mir die FX5800er aus interesse gekauft und bin mehr als positiv überrascht worden. Falls ihrs immer noch nicht begriffen habt, ich bin jemand den so ziemlich jede neue Karte in einem gewissen preislichen Rahmen interessiert. Ich will selber sehen wie sich eine Karte in der Praxis schlägt (ich hatte locker über 40 Karten btw) . Die Ultra war wegen des hohen Preises der Lautstärke und der schwachen OCing Leistug uninteressant, aber die 5800er ist einen Blick wert!

Sumpfmolch
2003-07-15, 18:03:05
Original geschrieben von Radeonator
Genau, ich hab zwar 16AF standartmäßig IMMER und OHNE Ausnahme auf der R300 angehabt, aber sicherlich habe ich mir die Mühe gemacht die Screens in acribischer Handarbeit zu verfälschen... :bonk:
Habt ihr irgendwelche Wahnvorstellungen oder sowas ???

Auch auf nggalai´s Screenies sieht man , das die hinteren Texturen schärfer sind, Cheated er nun auch ??? Ach nein, das wird natürlich einfach übersehen...
Es geht hier um die BQ und was soll die lächerliche Anspielung mit den fps ? Mach dir mal keine Sorgen, die Karte rotzt genügend heraus.Aber werde extra für die Fanboy Gemeinde welche nachreichen...

Mein Gott, begreift doch endlich alle mal das HW ein totes stück Materie ist und kein heiliger Grahl. Ich verstehe nicht, wie man so
versessen darauf sein kann, alles andere als das was man selbst hat, als Schrott zu bezeichnen. Erklärt mir das lieber mal und bashed nicht rum! Mir wird schon schlecht wenn ich Sätze wie "Ne ATi wollte ich mir nicht kaufen weil anno1800 mal schlechtere Treiber für diese Karte..." geplärre oder eben wie in diesem Falle das anti NV gebahse höre.

Aber was schreib ich das, ist eh sinnlos bei den meisten hier...




von schummeln hat hier niemand geredet, es interessiert mich nur warum unsere beiden bilder so stark unterschiedlich sind :ratlos:

Gast
2003-07-15, 18:06:13
Original geschrieben von Sumpfmolch
von schummeln hat hier niemand geredet, es interessiert mich nur warum unsere beiden bilder so stark unterschiedlich sind :ratlos:

Weil die anderen Fanboys an der LOD gedreht haben.

Sumpfmolch
2003-07-15, 18:12:00
Original geschrieben von Gast
Weil die anderen Fanboys an der LOD gedreht haben.

ähh hallo...ich beziehe mich auf MEINE screens und die sind allesamt mit den standardsettings:

DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000

:nono:

Sumpfmolch
2003-07-15, 18:26:20
Original geschrieben von Radeonator


http://berg.heim.at/tibet/451882/noneaa.JPG



zum vergleich mein shot:

http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/test.jpg

Radeon9700pro Cat3.4 16xqualyAF
ut2003 settings sollten standard sein..trotzdem post ichs mal

[WinDrv.WindowsClient]
WindowedViewportX=640
WindowedViewportY=480
FullscreenViewportX=1024
FullscreenViewportY=768
MenuViewportX=640
MenuViewportY=480
Brightness=0.800000
Contrast=0.700000
Gamma=0.800000
UseJoystick=False
CaptureMouse=True
StartupFullscreen=True
ScreenFlashes=True
NoLighting=False
MinDesiredFrameRate=35.000000
Decals=True
Coronas=True
DecoLayers=True
Projectors=True
NoDynamicLights=False
ReportDynamicUploads=False
TextureDetailInterface=UltraHigh
TextureDetailTerrain=UltraHigh
TextureDetailWeaponSkin=UltraHigh
TextureDetailPlayerSkin=UltraHigh
TextureDetailWorld=UltraHigh
TextureDetailRenderMap=UltraHigh
TextureDetailLightmap=UltraHigh
TextureMaxLOD=0
TextureMinLOD=0
NoFractalAnim=False
ScaleHUDX=0.000000
MouseYMultiplier=0.000000
MouseXMultiplier=0.000000

[D3DDrv.D3DRenderDevice]
DetailTextures=True
HighDetailActors=True
SuperHighDetailActors=True
UsePrecaching=True
UseTrilinear=True
AdapterNumber=-1
ReduceMouseLag=True
UseTripleBuffering=False
UseHardwareTL=True
UseHardwareVS=True
UseCubemaps=True
DesiredRefreshRate=60
UseCompressedLightmaps=False
UseStencil=False
Use16bit=False
Use16bitTextures=False
MaxPixelShaderVersion=255
UseVSync=False
LevelOfAnisotropy=1
DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000
UseNPatches=False
TesselationFactor=1.000000
CheckForOverflow=False
AvoidHitches=False
OverrideDesktopRefreshRate=False
DecompressTextures=False
UseXBoxFSAA=False
TerrainLOD=0
SkyboxHack=False
LowQualityTerrain=False


irgendjemand ne ahnung warum die bilder sich unterscheiden ? :bonk:

Aquaschaf
2003-07-15, 18:53:07
das obere bild ist einfach stärker komprimiert und etwas heller.

Sumpfmolch
2003-07-15, 18:54:39
Original geschrieben von Aquaschaf
das obere bild ist einfach stärker komprimiert und etwas heller.

d.h. man kanns als vergleichshot vergessen gegenüber dem fx shot ? (thread seite5) ?

mapel110
2003-07-15, 19:00:54
Original geschrieben von Sumpfmolch
zum vergleich mein shot:



man könnte fast tippen, einer von beiden hätte AA an. gamma ist bei radonator recht hoch. was macht das bild unscharf ? die kompression ?
das ist schon teilweise ein enormer unterschied. sumpfmolchs shot sieht viel detailreicher aus. zu sehen vor allem links oben am gitter.
/edit
löl 330 kb zu 99 kb. schlechter scherz, echt. wie will man da vergleichen ?!

Sumpfmolch
2003-07-15, 19:03:04
Original geschrieben von mapel110
man könnte fast tippen, einer von beiden hätte AA an. gamma ist bei radonator recht hoch. was macht das bild unscharf ? die kompression ?
das ist schon teilweise ein enormer unterschied. sumpfmolchs shot sieht viel detailreicher aus. zu sehen vor allem links oben am gitter.

aa kanns nicht sein...an den rändern der maschine sieht man die stufen bei beidne bildern recht gleich...

Aquaschaf
2003-07-15, 19:28:25
Wenn mans vergrößert sieht man, dass die "geglätteten" Kanten durch Kompressionsartefakte kommen.

Radeonator
2003-07-15, 19:57:14
Original geschrieben von mapel110
man könnte fast tippen, einer von beiden hätte AA an. gamma ist bei radonator recht hoch. was macht das bild unscharf ? die kompression ?
das ist schon teilweise ein enormer unterschied. sumpfmolchs shot sieht viel detailreicher aus. zu sehen vor allem links oben am gitter.
/edit
löl 330 kb zu 99 kb. schlechter scherz, echt. wie will man da vergleichen ?!

:zzz: der einzige schlechte Scherz ist dein paranoides Fanboy geschreibsel...echt ;)

Es sind genügend Screenies von Sumpfi/Extreemes LoD shots etc. am Start, warum vergleichst du net mit denen...ach ja das würde bestätigen was ich schrieb und das geht ja nun wirklich nicht :lol:

Crushinator
2003-07-15, 20:10:19
Original geschrieben von Radeonator
(...) Es sind genügend Screenies von Sumpfi/Extreemes LoD shots etc. am Start, warum vergleichst du net mit denen...ach ja das würde bestätigen was ich schrieb und das geht ja nun wirklich nicht :lol: Was genau meinst Du damit? ??? Es gibt genügend Shots, wo zumindest ich wirklich keinen Unterschied mehr zu Deinem nV-Bild sehe.

Also, nochmal Klartext: Wenn das ATi-AF in UT2K3 bei "richtiger" Einstellung dem "perfekten" nV-AF verdammt nahe kommt, was genau ist denn daran noch soooooo schlimm?

Radeonator
2003-07-15, 20:17:21
Leg die bilder übereinander und schalte hin und her...
Wenn du dann nichts siehst, gehe zum nächsten Optiker und kauf dir ne Brille ;)

Ich sage doch gar nichts gegen das ATi AF, habe lediglich festgestellt, das das FX AF noch besser ausschaut. Da wird man derbst von den kläffern...ehm...Fanboys angegangen und es werden einfach alle Fakten ignoriert.

Aber mir ists jetzt echt egal...ach ja mit 4xFSAA Max Qualy + 8xAF komme ich nie unter 60fps auf Asbestos.

Sumpfmolch
2003-07-15, 20:24:36
Original geschrieben von Radeonator
Leg die bilder übereinander und schalte hin und her...
Wenn du dann nichts siehst, gehe zum nächsten Optiker und kauf dir ne Brille ;)

Ich sage doch gar nichts gegen das ATi AF, habe lediglich festgestellt, das das FX AF noch besser ausschaut. Da wird man derbst von den kläffern...ehm...Fanboys angegangen und es werden einfach alle Fakten ignoriert.

Aber mir ists jetzt echt egal...ach ja mit 4xFSAA Max Qualy + 8xAF komme ich nie unter 60fps auf Asbestos.

es ging hier eigentlich nur darum warum der ati screen von dir so mies aussah.

zum optiker solltest vielleicht eher du gehen wenn du tatsächlich der meinung warst dass ut2003 auf deiner r9500pro so aussah wie der screen den du gepostet hast ;)

LovesuckZ
2003-07-15, 20:26:31
Original geschrieben von crushinator
Also, nochmal Klartext: Wenn das ATi-AF in UT2K3 bei "richtiger" Einstellung dem "perfekten" nV-AF verdammt nahe kommt, was genau ist denn daran noch soooooo schlimm?

Es gibt von Nvidia in UT2003 kein "perfekt[es]" AF.

Crushinator
2003-07-15, 20:32:22
Original geschrieben von Radeonator
Leg die bilder übereinander und schalte hin und her...
Wenn du dann nichts siehst, gehe zum nächsten Optiker und kauf dir ne Brille ;) Dann muß ich wohl zum Optiker, denn ich sehe z.B. bei Extreemes 16°AF mit 0er LOD überhaupt keinen Unterschied mehr zum FX-Bild (8°) von nggalai. :(
Aber mir ists jetzt echt egal...ach ja mit 4xFSAA Max Qualy + 8xAF komme ich nie unter 60fps auf Asbestos. :up: Cool, könntest Du bitte einen Shot davon machen? (mit Avg/Max)

nggalai
2003-07-15, 20:37:03
Original geschrieben von Sumpfmolch
d.h. man kanns als vergleichshot vergessen gegenüber dem fx shot ? (thread seite5) ? Naja, ich hab' die Bilder mit 85% (15% Kompression) erstellt. Das sollte eigentlich reichen.

Die MIPMap-Bilder sind stärker komprimiert, aber da ist's auch ned so wichtig.

Was man bei all den Betrachtungen hier auch nie vergessen darf: Wir sprechen ja nicht nur von der generellen "Schärfe" der Screenshots, sondern auch von den Optimierungen. Und besonders die Sache mit den Bilinearen Filtern sieht man erst in Bewegung richtig.

93,
-Sascha.rb

Sumpfmolch
2003-07-15, 20:48:04
Original geschrieben von nggalai
Naja, ich hab' die Bilder mit 85% (15% Kompression) erstellt. Das sollte eigentlich reichen.

Die MIPMap-Bilder sind stärker komprimiert, aber da ist's auch ned so wichtig.

Was man bei all den Betrachtungen hier auch nie vergessen darf: Wir sprechen ja nicht nur von der generellen "Schärfe" der Screenshots, sondern auch von den Optimierungen. Und besonders die Sache mit den Bilinearen Filtern sieht man erst in Bewegung richtig.

93,
-Sascha.rb

ich meinte eigentlich allein radeonators ati af screenshot welcher wohl stark komprimiert scheint (im gegensatz zu seinem fx screenshot)

falls es jemand brauchen kann:
br-anubis screens am roten tor an einer stelle welche man sehr leicht exakt nachstellen kann da dort ne ecke is an der man hängen bleibt wenn man rückwärts+rechts drückt (16xquality af, no AA)

no detail textures, normal (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/nodetailnormal.jpg)
no detail textures, mipmaps colored (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/nodetailcolored.jpg)

detail textures, normal (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/detailnormal.jpg)
detail textures, mipmaps colored (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/detailcolored.jpg)

LovesuckZ
2003-07-15, 21:33:57
Original geschrieben von Sumpfmolch
detail textures, normal (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/detailnormal.jpg)


Koenntest du bitte das unkompremierte Bild hoch laden? im Gegensatz zu meinem PNG Bildchen ist deins im hinteren Bildabschnitt unsaerfer.

Sumpfmolch
2003-07-15, 21:44:14
Original geschrieben von LovesuckZ
Koenntest du bitte das unkompremierte Bild hoch laden? im Gegensatz zu meinem PNG Bildchen ist deins im hinteren Bildabschnitt unsaerfer.

HIER (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/detailnormal.bmp)

tut sich allerdings so gut wie nix bei der bildqualität da meine .jpg nur 4% kompression hatten

Radeonator
2003-07-15, 21:50:54
Mal ne friedliche Frage von mir : wie bekomme ich die color mips wieder auf normal Wert ???

Razor
2003-07-15, 21:55:17
Original geschrieben von nggalai
Und ja, ich seh's momentan ähnlich--es schaut momentan danach aus, als ob NV das "perfekte" Filtern ad acta gelegt hat und ebenfalls nur noch eine Näherung anbieten könnte. Man beachte die Möglichkeitsformen, weil, wie schon gesagt--bevor nicht ein offizieller Referenztreiber mit diesem Verhalten aufkreuzt, und die Folgetreiber gleich reagieren, kann sich's gerade so gut um einen Bug handeln.
Zumal dieses Verhalten ja nur bei einem einzigen Game zutage tritt...
(wenn es auch ein populäres Bench-Game ist ;-)

Warten wir erst einmal ab, was sich mit den nächsten Treibern so tut. Man möge hier bitte auch in Betracht ziehen, dass sich beipsielsweise die schlechte BQ im Murks03 zum Positiven gewandelt hat... und das ohne irgendwelchen Performance-Einbußen.

Es bleibt auf jeden Fall spannend !
:D

Razor

Mr. Lolman
2003-07-15, 22:00:12
Macht(et) ihr jetzt alle eure Bilder mit:

DetailTexMipBias=0.000000
DefaultTexMipBias=0.000000


???

Razor
2003-07-15, 22:02:51
Original geschrieben von Radeonator
Mal ne friedliche Frage von mir : wie bekomme ich die color mips wieder auf normal Wert ???
Stell den Wert einfach auf '999' oder so... soooo viele MipMap-Stufen wird's ja wohl nicht geben, oder ?
:D

Razor

Sumpfmolch
2003-07-15, 22:15:32
Original geschrieben von Mr. Lolman
Macht(et) ihr jetzt alle eure Bilder mit:

DetailTexMipBias=0.000000
DefaultTexMipBias=0.000000


???

nein

DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000

weil das die standardsettings sind ;)

Radeonator
2003-07-15, 22:25:19
http://berg.heim.at/tibet/451882/Shot00102.JPG

Ups nur 59fps ;)

Sumpfmolch
2003-07-15, 22:52:17
Original geschrieben von Radeonator


Ups nur 59fps ;)

4xAA 8xAF ?

dann liegt die karte ungefähr auf radeon9700 pro niveau

xp2400+@166x12
512mb ddr333 2,5-3-3
Radeon 9700pro 325/310
4xAA 16xquali AF

~58fps in dieser szene

Radeonator
2003-07-15, 23:32:55
Kommt aber auf den FSAA modus an! mit 4xs gehen die Frames "etwas" in den Keller (-10fps ungefähr) Zudem sieht das ATi FSAA etwas "smoother" aus.Ergo ist insgesammt soetwas wie Gleichstand.

Mr. Lolman
2003-07-16, 00:19:12
Mein Shot:

http://www.dodstudios.net/uploads/uploads/Shot00065.jpg

/edit: Die Szene ist aber zu CPU limitiert (bei 2xAA nur 5fps mehr).

Wäre dafür, diese Szene zu vergleichen :

http://www.dodstudios.net/uploads/uploads/Shot00080thumb.jpg (http://www.dodstudios.net/uploads/uploads/Shot00080.jpg)

MadManniMan
2003-07-16, 00:26:19
Radeonatorle, nur noch eine kurze Frage: hast du jetzt mitgekriegt, daß es uns nur um die fragwürdige Qualität des R95P-Screens ging? :)

Und außerdem: reagier am besten nicht so schnell über, daß du mit "Fanboy" um dich wirfst, oki?

mapel110
2003-07-16, 00:35:11
Original geschrieben von Radeonator
:zzz: der einzige schlechte Scherz ist dein paranoides Fanboy geschreibsel...echt ;)

Es sind genügend Screenies von Sumpfi/Extreemes LoD shots etc. am Start, warum vergleichst du net mit denen...ach ja das würde bestätigen was ich schrieb und das geht ja nun wirklich nicht :lol:

schön, das du gleich persönlich wirst, bloss weil ich ne tatsache festgestellt habe, an der es nix zu rütteln gibt.

vergleich was du willst, ich seh hier nicht unbedingt sinn, jpgs miteinander zuvergleichen, die allein ein dateigrössenunterschied von 300 % haben.

hier kann jeder jeden verarschen, wie er gerade lustig is.
da schau ich mir lieber bilder von digit life an, oder ich mach selber screens.

(del676)
2003-07-16, 00:49:37
Original geschrieben von Radeonator

Mein Gott, begreift doch endlich alle mal das HW ein totes stück Materie ist und kein heiliger Grahl. Ich verstehe nicht, wie man so
versessen darauf sein kann, alles andere als das was man selbst hat, als Schrott zu bezeichnen. Erklärt mir das lieber mal und bashed nicht rum! Mir wird schon schlecht wenn ich Sätze wie "Ne ATi wollte ich mir nicht kaufen weil anno1800 mal schlechtere Treiber für diese Karte..." geplärre oder eben wie in diesem Falle das anti NV gebahse höre.


full ack

als ich von ti4600 auf r9700pro umgestiegen bin war ich in nvidioten augen ein fanATIker

als ich von 9700 auf 5900u umgestiegen bin in fanATIker augen ein nvidiot

mir egal, wer mich kennt der weiss das ich Matroxiot bin :D

MadManniMan
2003-07-16, 01:06:28
Original geschrieben von Ulukay
full ack

als ich von X auf Y umgestiegen bin war ich Z

...es geht doch nicht um den Besitz einer solchen, oder eben einer anderen Karte, sondern ganz einfach nur darum, daß der minderwertige R95P "Screenshot" irgendwie intentional gestellt wirkt, wobei sich bei mir dieser Gedanke erst bei den patzigen Antworten auf gewisse Ideen entstand.

Razor
2003-07-16, 06:56:19
Original geschrieben von Mr. Lolman
Mein Shot:

http://www.dodstudios.net/uploads/uploads/Shot00065.jpg

/edit: Die Szene ist aber zu CPU limitiert (bei 2xAA nur 5fps mehr).

Wäre dafür, diese Szene zu vergleichen :

http://www.dodstudios.net/uploads/uploads/Shot00080thumb.jpg (http://www.dodstudios.net/uploads/uploads/Shot00080.jpg)
Hi Lolman,

habe gerade mal Deine Vermutung wegen dem trilinearem Filter bei UT2003 nachgeprüft.Und Du hattest recht !Der Deto43.45 aktivierte bei 'application' noch den altbekannten, trilinearen Filter. Ein neuer Deto (habe jetzt den 44.65 getestet) tut das nicht mehr !

So scheinen die Performance-Stufen sich nun wie folgt darzustellen:
Stufe Deto43.45 Deto44.65 Bemerkung

appl/qual application balanced 'balanced' sieht sogar noch besser aus !
qual/perf balanced performance
perf/hperf performance performance
Somit existiert defakto kein 'application' mehr und damit auch keine trilineare Filterung unter UT2003. Der 'quality'-Modus sieht fast so aus, wie das frühere 'balanced' (nicht wirklich, denn das damalige 'balanced' sah besser aus). Und zwischen den Stufen 'performance' und 'high performance' gibt es schlicht keinen Unterschied mehr und entspricht dem früheren 'performance'.

BUMM !

Entweder ist das der dümmste Versuch zu cheaten, oder es ist einfach nur ein kräftiger Bug, der dann bald behoben werden sollted. Werde vielleicht heute abend mal Vergleichsshots posten, muss jetzt aber schäffeln gehn'...

Razor

Und :weg:
:D

Radeonator@work
2003-07-16, 08:00:15
Original geschrieben von mapel110
schön, das du gleich persönlich wirst, bloss weil ich ne tatsache festgestellt habe, an der es nix zu rütteln gibt.

vergleich was du willst, ich seh hier nicht unbedingt sinn, jpgs miteinander zuvergleichen, die allein ein dateigrössenunterschied von 300 % haben.

hier kann jeder jeden verarschen, wie er gerade lustig is.
da schau ich mir lieber bilder von digit life an, oder ich mach selber screens.

:lol: , so ein schmarrn. Schön das du alle anderen getätigten Screens einfach übersiehst und auch gar nicht darauf eingehst, sondern dich nur an einem Fest klammerst...die anderen Poster sind schon lange drüber weg nur ist dir das vielleicht entgangen ???
Ergo ist dieser eine shot längst relativiert (btw wurde alles andere längst geklärt) wo ist also dein Problem, ausser das du ein wenig Klugsh1c3n wolltest sehe ich von dir nichts konstruktives...

aths
2003-07-16, 08:48:54
Razor, wenn du beim Wort "gehen" das e weglässt und durch ein Apostroph ersetzt, müsste dieses an Stelle des ausgelassenen Zeichens stehen, demzufolge geh'n heißen, nicht gehn'.

Ich fürchte, dass Nvidias "Optimierungen" Absicht sind. Wie nggalai aber schon mal sagte, sollte man erst dann lamentieren, wenn auch offizielle Treiber solch merkwürdiges Gebaren an den Tag legen. Hoffentlich lässt Nvidia auch für die FX-Karten weiterhin die bestmögliche AF zu, die diese Karten zubieten hätten. Wenn nicht, wären die BQ-Vorteile zwischen Radeon und FX neu zu überdenken.


Radeonator,

bitte ändere deinen Tonfall.

Radeonator@work
2003-07-16, 09:41:25
Mich regt es tierisch auf wenn leute sich wie kleine Kinder an einer
Sache festhalten, die von anderen hier lange abgeklärt wurde.Mich regt solche Sturheit einfach auf, weil Sie sich kontra Produktiv auf den bereits abgefertigten Vorgang auswirken (bzw auswirken sollen...)
Ich sehe den Sinn und Zweck nicht, den Mapel110 und MadManni hier verfolgen (ausser das Sie die Diskussion ablenken wollen) ???

p.s.: Jetzt kommt gleich wieder "...aber wir wollten doch nur..." ;)

p.s.2.: Sorry 4 OT

Gast
2003-07-16, 10:32:44
Original geschrieben von Radeonator@work
Mich regt es tierisch auf wenn leute sich wie kleine Kinder an einer
Sache festhalten, die von anderen hier lange abgeklärt wurde.Mich regt solche Sturheit einfach auf, weil Sie sich kontra Produktiv auf den bereits abgefertigten Vorgang auswirken (bzw auswirken sollen...)
Ich sehe den Sinn und Zweck nicht, den Mapel110 und MadManni hier verfolgen (ausser das Sie die Diskussion ablenken wollen) ???

p.s.: Jetzt kommt gleich wieder "...aber wir wollten doch nur..." ;)

p.s.2.: Sorry 4 OT

Der eigentliche Spinner bist du.

Belegst deine Aussagen mit Screenshots, bei denen die Kompressionsrate um ein vielfaches auseinderliegt. Dabei war der Unterschied so augenscheinlich, daß das selbst einem Blinden aufgefallen wäre.

Stellst dich jetzt als "weltoffen" und unparteiisch hin und verstehst doch auch selbst so, obwohl du nur die Hartware verteidigst/lobst, die du aktuell dein Eigen nennst.

Die Gabe zur Selbstreflektion ist leider nicht so sehr verbreitet wie der Ehrgeiz, sich gegen andere durchzusetzen (wobei das mitunter als Tugend falsch verstanden wird).

Omnicron
2003-07-16, 11:13:29
Original geschrieben von Razor
Und zwischen den Stufen 'performance' und 'high performance' gibt es schlicht keinen Unterschied mehr und entspricht dem früheren 'performance'.


Wenn es keinen Unterschied mehr gibt, wieso ist high performance dann immer noch schneller ???

Korak
2003-07-16, 11:49:06
Und immer schön friedlich und freundlich bleiben Leute.

Dann klappts auch mit dem Diskutieren.

Mr. Lolman
2003-07-16, 12:14:34
Original geschrieben von Omnicron
Wenn es keinen Unterschied mehr gibt, wieso ist high performance dann immer noch schneller ??? ^

Gute Frage, hab ich mir auch schon Gedanken gemacht, mögliche Lösungen:

x) weils doch noch (einen geringen) Unterschied gibt.

x) absichtlich, damit man nicht ganz so schnell stutzig wird.

x) vielleicht ists wirklich ein Bug (eher unwahrscheinlich)


Naja, mal abwarten,wie sich das Ganze entwickelt... :)

Sumpfmolch
2003-07-16, 13:37:37
Original geschrieben von Radeonator@work
:lol: , so ein schmarrn. Schön das du alle anderen getätigten Screens einfach übersiehst und auch gar nicht darauf eingehst, sondern dich nur an einem Fest klammerst...die anderen Poster sind schon lange drüber weg nur ist dir das vielleicht entgangen ???
Ergo ist dieser eine shot längst relativiert (btw wurde alles andere längst geklärt) wo ist also dein Problem, ausser das du ein wenig Klugsh1c3n wolltest sehe ich von dir nichts konstruktives...

nunja..wenn ich jetz hier nen fx5900 screen mit 50% kompression reinstell und gegen nen radeon9800pro screen mit 0% kompression stelle und dann sowas drunter schreib wie "Na, tolles AF hat Nvidia da" würdest du bestimmt auch schreien, oder ? ;)

aber legen wir das thema mal ad acta, es ist wirklich schon geklärt dass du bei diesem screenshotvergleichen äußerst schlampig warst ;)

Razor
2003-07-16, 17:37:34
Original geschrieben von Omnicron
Wenn es keinen Unterschied mehr gibt, wieso ist high performance dann immer noch schneller ???
Das ist eine verdammt gute Frage !
Hmmm...

Razor

Radeonator
2003-07-16, 17:53:50
Original geschrieben von Sumpfmolch
nunja..wenn ich jetz hier nen fx5900 screen mit 50% kompression reinstell und gegen nen radeon9800pro screen mit 0% kompression stelle und dann sowas drunter schreib wie "Na, tolles AF hat Nvidia da" würdest du bestimmt auch schreien, oder ? ;)

aber legen wir das thema mal ad acta, es ist wirklich schon geklärt dass du bei diesem screenshotvergleichen äußerst schlampig warst ;)

:zzz: netter Versuch...
Vielleicht bist du ja etwas sharping, aber dieser von mir reingepackte Screen wurde durch viele nachfolgende Relativiert, da diese ja anscheinend deinem Geschmack eher entsprechen, wo ist also dein Problem ??? Begreifst du es nicht ? Es geht hier um Optimierungen bei den großen FX en und nicht darum alles zu ignorieren, um sich an einem Strohhalm festzuhalten, der nichtmal wirklich einer ist.Wenn du um die Qualy von jpgs diskutieren willst, ist dies evtl. das falsche Forum, schonmal drüber nachgedacht?
Ich hingegen spreche aus Erfahrung mit beiden Karten und warne vor Pauschalisierungen, die hier von Fanboys all zu gerne vorgenommen werden.Aus eben diesem Grund habe ich die Screenies gepostet.

Sumpfmolch
2003-07-16, 18:05:47
Original geschrieben von Radeonator
:zzz: netter Versuch...
Vielleicht bist du ja etwas sharping, aber dieser von mir reingepackte Screen wurde durch viele nachfolgende Relativiert, da diese ja anscheinend deinem Geschmack eher entsprechen, wo ist also dein Problem ??? Begreifst du es nicht ? Es geht hier um Optimierungen bei den großen FX en und nicht darum alles zu ignorieren, um sich an einem Strohhalm festzuhalten, der nichtmal wirklich einer ist.Wenn du um die Qualy von jpgs diskutieren willst, ist dies evtl. das falsche Forum, schonmal drüber nachgedacht?
Ich hingegen spreche aus Erfahrung mit beiden Karten und warne vor Pauschalisierungen, die hier von Fanboys all zu gerne vorgenommen werden.Aus eben diesem Grund habe ich die Screenies gepostet.

wenn ich aus versehen nen screenvergleich mache der zu falschen schlüssen einläd, dann kommt von mir ein SORRY und keine beleidigung !!

was hat das ganze mit geschmack zu tun ? genau...GARNICHTS

das ganze hat 0 mit fanboy blabla zu tun, sondern nur mit deinem verhalten zur diskussion um deinen screenshotvergleich.

erklär mir bitte nochmal genau warum du einen qualitativ schlechten r9500 screenshot welcher dem tatsächlichen bild bei ut2003 nicht entspricht einem qualitativ hochwertigem fx5800 screen gegenüberstellst und dadurch pauschalisierungen vorbeugen wolltest ? :freak2:

DrumDub
2003-07-16, 18:07:13
hmm... komisch... für mich sieht dieser shot von nggalai mit 8xappaf auf der fx und der shot von sumpfmolch von seite 8 des threads mit 16xtriaf auf der radeon sehen identisch aus an besagter stelle:

http://www.nggalai.com/images/3dc/8afapp.jpg

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=82209&perpage=20&pagenumber=8

ow
2003-07-16, 18:25:03
Original geschrieben von Omnicron
Wenn es keinen Unterschied mehr gibt, wieso ist high performance dann immer noch schneller ???


Ich hab das schon einmal in irgendeinem Thread hier geschrieben (woraus aber iirc niemand reagierte) und falls sich die Fxe diesbezüglich wie meine GF4 verhalten, dann wird bei high performance Texturkompression erzwungen.

Razor
2003-07-16, 18:46:19
Original geschrieben von Mr. Lolman
Gute Frage, hab ich mir auch schon Gedanken gemacht, mögliche Lösungen:

x) weils doch noch (einen geringen) Unterschied gibt.
x) absichtlich, damit man nicht ganz so schnell stutzig wird.
x) vielleicht ists wirklich ein Bug (eher unwahrscheinlich)

Naja, mal abwarten,wie sich das Ganze entwickelt... :)
Na ja... ob da nicht der Wunsch der Vater des Gedanken ist ?
:D

Wie dem auch sei... ich versprach ja, meine Feststellung, die durch Dich inspiriert wurde, mit Bildchen zu unterlegen. Dazu hab' ich mir den 'Vergleichs-Shot' aus dem anderen Thread genommen (nicht der aus dem Bonuspack, sondern den aus der Asbestos-Map). Mit beiden Treibern bin ich dann mal alle Modi ohne AA/AF bei MaxQuality-Ingame-Einstellungen (MaxDetail.ini) durchgegangen. Leider ist mir erst bei Erstellung des Vergleichs aufgefallen, dass die Shots nur 800x600x32 waren (war heute ein wenig in Eile ;-), insofern bitte nicht über die recht harten Kanten wundern...

Hier also der 'Beweis':

http://mitglied.lycos.de/razor3dc/pics/ut2003_vergl_tri_4345-4465_razor_50_16m_85.jpg (http://mitglied.lycos.de/razor3dc/pics/ut2003_vergl_tri_4345-4465_razor.png)
(Klick mich und ich werde größer und schöner ;-)Wie man hier gut erkennen kann, wird damit meine Feststellung unterlegt:
Stufe Deto43.45 Deto44.65 Bemerkung

appl/qual application balanced 'balanced' sieht sogar noch besser aus !
qual/perf balanced performance
perf/hperf performance performance absolut identisch, oder...
"schlimmer geht's nimmer" ;-)
Nun ja, ich würde nVidia schon 'ne Menge zutrauen, aber so etwas dann doch nicht. Es ist offensichtlich, dass zwischen den Stufen 'performance' und 'high performance' KEIN Unterschied auszumachen ist (zumindest ohne AF ;-).

Und da dies derzeit wohl das einzige Game ist, welches von diesem Problem betroffen ist, halte ich es erst einmal für einen Bug. Insofern ich hier in den Tonus mit einstimme, erst einmal das nächste offizielle Treiber-Release abzuwarten, um zu sehen, ob das wirklich beabsichtigt war, oder nicht...

Interessant ist es allemal... allerdings zu offensichtlich, wenn man sich rest mal damit beschäftigt.

Bis denne

Razor

Und hier der genutzte Ausschnitt aus dem Screen:

Sumpfmolch
2003-07-16, 18:51:06
so nebenbei..könnten wir uns mal einigen ob mit oder ohne AA und welches lod denn nu genau ? nggalais screens sehen aus als wär da AA drin....andere kommen mit DefaultTexMipBias=0.0 daher statt mit den standard DefaultTexMipBias=-0.500000

da wird man doch :balla:

könnten wir uns auch auf DetailTexMipBias=0.000000 einigen ? ;)

Sumpfmolch
2003-07-16, 18:53:58
Original geschrieben von Razor

[...]



hast du für die colored mips auch vorsichtshalber mal die detail textures ausgemacht ? bei den ati karten überlagern die nämlich die texture mips und daher kam auch das gerücht, dass ati nur noch komplett performance AF macht in ut2003 :kratz2:

Razor
2003-07-16, 18:54:58
Original geschrieben von Sumpfmolch
so nebenbei..könnten wir uns mal einigen ob mit oder ohne AA und welches lod denn nu genau ? nggalais screens sehen aus als wär da AA drin....andere kommen mit DefaultTexMipBias=0.0 daher statt mit den standard DefaultTexMipBias=-0.500000

da wird man doch :balla:

könnten wir uns auch auf DetailTexMipBias=0.000000 einigen ? ;)
KEINE Veränderungen an der INI !sonst macht das Ganze keinerlei Sinn...

Einfach die "MaxDetail.INI" ins System-Verzeichnis als "UT2003.INI" kopieren uns dann fröhlich drauf los testen, OHNE die Einstellungen zu verändern.

Razor

zeckensack
2003-07-16, 18:57:09
Original geschrieben von ow
Ich hab das schon einmal in irgendeinem Thread hier geschrieben (woraus aber iirc niemand reagierte) und falls sich die Fxe diesbezüglich wie meine GF4 verhalten, dann wird bei high performance Texturkompression erzwungen. Wäre denkbar.
Hier (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/009975.html) gibt es jemanden, der über Verschlechterungen der Texturqualtiät berichtet, obwohl er weder filtert, noch überhaupt Mipmaps einsetzt. Das läßt sich also weder mit 'vereinfachtem' Filter, noch mit Lod-Bias-Spielereien erklären. Texturkompression scheint mir die einzig plausible Erklärungsmöglichkeit zu sein.

Razor
2003-07-16, 18:57:53
Original geschrieben von Sumpfmolch
hast du für die colored mips auch vorsichtshalber mal die detail textures ausgemacht ? bei den ati karten überlagern die nämlich die texture mips und daher kam auch das gerücht, dass ati nur noch komplett performance AF macht in ut2003 :kratz2:
Deswegen habe ich schlicht kein AF benutzt...
MaxQuality-Treiber- und -InGame-Einstellungen und dann ein bissel mit dem Performance-Slider rum gespielt.

Beide Treiber mit den gleichen Einstellungen und UT2003 mit schreibgeschützter INI.
Was soll da noch schief gehen ?

Auch ist das bei ATI tatsächlich eine Einschränkung, wenn die Detail-Texturen nicht mehr trilinear gefiltert werden, obwohl 'quality' eingestellt ist. Insofern ist das nicht nur ein 'Gerücht'...

Razor

ow
2003-07-16, 18:59:10
Original geschrieben von Sumpfmolch
hast du für die colored mips auch vorsichtshalber mal die detail textures ausgemacht ? bei den ati karten überlagern die nämlich die texture mips und daher kam auch das gerücht, dass ati nur noch komplett performance AF macht in ut2003 :kratz2:

könntest du das mal genauer erklären?? das mit dem überlagern. und den zusammenhang mit den detailed texturen.

ow
2003-07-16, 19:02:14
Original geschrieben von zeckensack
Wäre denkbar.
Hier (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/009975.html) gibt es jemanden, der über Verschlechterungen der Texturqualtiät berichtet, obwohl er weder filtert, noch überhaupt Mipmaps einsetzt. Das läßt sich also weder mit 'vereinfachtem' Filter, noch mit Lod-Bias-Spielereien erklären. Texturkompression scheint mir die einzig plausible Erklärungsmöglichkeit zu sein.


Ich sag da nur Quake3, der beste Indikator für sowas.:D

Trotz deaktivierter TC unter Q3 kann ich in 'high performance' sehr schön die DXT1-TC Qualität der GF4 bewundern.;)

In 'performance' und 'application' gibt´s dagegen unkomprmierte Texturen.

zeckensack
2003-07-16, 19:03:11
Original geschrieben von ow
könntest du das mal genauer erklären?? das mit dem überlagern. und den zusammenhang mit den detailed texturen. Wenn man die Mipmaps einfärbt, überlagern sich die Farben von Basis- und Detail-Texturen.
Da beide unterschiedliche Auflösungen haben, und per default unterschiedlichen lod bias bekommen, decken sich auch die Farben nicht.

Um nun zu sehen, wo welche Mipmap-Stufe genutzt wird, muß man entweder Detail- oder Basis-Texturen deaktivieren, und das erreicht man eben am leichtesten, wenn man diese per Lod-Bias gaaaanz weit weg schiebt.

Sumpfmolch
2003-07-16, 19:05:00
Original geschrieben von Razor
KEINE Veränderungen an der INI !sonst macht das Ganze keinerlei Sinn...

Einfach die "MaxDetail.INI" ins System-Verzeichnis als "UT2003.INI" kopieren uns dann fröhlich drauf los testen, OHNE die Einstellungen zu verändern.

Razor

schön und gut..aber mit detailtextures lod auf 0.8 sind auf ati karten die detail textures so gut wie nicht zu sehen...bug ? :spock:

Gast
2003-07-16, 19:05:16
Original geschrieben von Sumpfmolch
wenn ich aus versehen nen screenvergleich mache der zu falschen schlüssen einläd, dann kommt von mir ein SORRY und keine beleidigung !!

was hat das ganze mit geschmack zu tun ? genau...GARNICHTS

das ganze hat 0 mit fanboy blabla zu tun, sondern nur mit deinem verhalten zur diskussion um deinen screenshotvergleich.

erklär mir bitte nochmal genau warum du einen qualitativ schlechten r9500 screenshot welcher dem tatsächlichen bild bei ut2003 nicht entspricht einem qualitativ hochwertigem fx5800 screen gegenüberstellst und dadurch pauschalisierungen vorbeugen wolltest ? :freak2:

Lass ihn doch...

inzwischen weiß jeder was für einer er ist, also Schwamm drüber und weiter gehts. Mit dem gehts mir wie mit Nvidia. Nachdem sie so viel Scheiße verzapft haben müssen sie erst wieder für lange Zeit extrem gute Performance bieten um noch anerkannt zu werden. Wenn der Radeonator in Zukunft Screenshots posted gehe ich einfach weiter zum nächsten Bild von jemand anderem....

That's life.

ow
2003-07-16, 19:05:39
Original geschrieben von zeckensack
Wenn man die Mipmaps einfärbt, überlagern sich die Farben von Basis- und Detail-Texturen.
Da beide unterschiedliche Auflösungen haben, und per default unterschiedlichen lod bias bekommen, decken sich auch die Farben nicht.

Um nun zu sehen, wo welche Mipmap-Stufe genutzt wird, muß man entweder Detail- oder Basis-Texturen deaktivieren, und das erreicht man eben am leichtesten, wenn man diese per Lod-Bias gaaaanz weit weg schiebt.

Achso, es werden die mipmaps alle Texturlayer eingefärbt, hab ich das jetzt richtig verstanden?

Das macht diese Farbenspielerei natürlich etwas.....undurchsichtig.:D

Sumpfmolch
2003-07-16, 19:12:21
Original geschrieben von ow
könntest du das mal genauer erklären?? das mit dem überlagern. und den zusammenhang mit den detailed texturen.

ich meinte das:
ATI Radeon9700pro 4xAA 8xQualy AF

mit detail textures (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/8xAF@Qualydetail.jpg)

ohne detail textures (http://www.rommel.stw.uni-erlangen.de/~sumpfmolch/8xAF@Qualynodetail.jpg)

Razor
2003-07-16, 19:21:55
Original geschrieben von ow
Achso, es werden die mipmaps alle Texturlayer eingefärbt, hab ich das jetzt richtig verstanden?

Das macht diese Farbenspielerei natürlich etwas.....undurchsichtig.:D
Stimmt... deswegen sollte man bei ATI dann die Detail-Texturen abschalten...
Oder etwa bei nVidia auch ?
Hmmm...

Razor

Sumpfmolch
2003-07-16, 19:24:48
Original geschrieben von Razor
Stimmt... deswegen sollte man bei ATI dann die Detail-Texturen abschalten...
Oder etwa bei nVidia auch ?
Hmmm...

Razor

das ist die frage..ob nvidia nun alles bi filtert oder doch "nur" bei ati abgeguckt hat und die detail textures nun bi filtert :D

zeckensack
2003-07-16, 19:31:32
Original geschrieben von Razor
Stimmt... deswegen sollte man bei ATI dann die Detail-Texturen abschalten...
Oder etwa bei nVidia auch ?
Hmmm...

Razor Bei beiden. Sonst verfälscht sich das Meßergebnis. Das was man für einen Mipwechsel der Basistextur hält, könnte auch ein solcher der Detailtextur sein. Spuren von echtem Trilinear lassen sich nicht mehr einer Texturschicht zuordnen, etc ;)

Wenn man sich ein umfassendes Bild machen will, sollte man beide Texturlayer (einmal Base, einmal Detail) getrennt betrachten.

Ist aber alles reichlich akademisch. Ehrlich sind mir in diesem speziellen Fall pure Screenshots ohne Einfärbung lieber. UT2k3 ist was Texturfilter angeht so dermaßen verkorkst, daß ich die Notwendigkeit für gewisse Treiber- ... hmmm ... Anpassungen ( :D ) sogar nachvollziehen kann.

nggalai
2003-07-16, 19:43:50
Original geschrieben von zeckensack
Wäre denkbar.
Hier (http://www.opengl.org/discussion_boards/ubb/Forum3/HTML/009975.html) gibt es jemanden, der über Verschlechterungen der Texturqualtiät berichtet, obwohl er weder filtert, noch überhaupt Mipmaps einsetzt. Das läßt sich also weder mit 'vereinfachtem' Filter, noch mit Lod-Bias-Spielereien erklären. Texturkompression scheint mir die einzig plausible Erklärungsmöglichkeit zu sein. Das hab' ich mitlerweilen auch (inoffiziell) von einem NV-Mutz bestätigt gekriegt. High-Performance erzwingt offenbar Texturkompression.

Obwohl er sehr schwammig blieb, hat er zumindest indirekt meine "weshalb heisst das seit 44.03 Quality und nicht Application? Weil schon Quality 'optimiert' wird" ebenfalls bestätigt. Er hat allerdings auch was von "warte bis zum 'next step in the series'" gefaselt. Ich hol jedenfalls schonmal vorsorglich meine Asbest-Unterwäsche für den Launch der 5x.xx-Treiber hervor.

*Asbest-Unterwäsche rauskram*

*Feuerlöscher bereithalt*

93,
-Sascha.rb

Razor
2003-07-16, 20:00:40
Original geschrieben von zeckensack
Bei beiden. Sonst verfälscht sich das Meßergebnis. Das was man für einen Mipwechsel der Basistextur hält, könnte auch ein solcher der Detailtextur sein. Spuren von echtem Trilinear lassen sich nicht mehr einer Texturschicht zuordnen, etc ;)

Wenn man sich ein umfassendes Bild machen will, sollte man beide Texturlayer (einmal Base, einmal Detail) getrennt betrachten.

Ist aber alles reichlich akademisch. Ehrlich sind mir in diesem speziellen Fall pure Screenshots ohne Einfärbung lieber. UT2k3 ist was Texturfilter angeht so dermaßen verkorkst, daß ich die Notwendigkeit für gewisse Treiber- ... hmmm ... Anpassungen ( :D ) sogar nachvollziehen kann.
Na ja... das Ergebnis verändert sich dadurch nicht wirklich...
Ausschauen tut's aber schon irgendwie anders.
... es ist dunkler...
*eg*

Hier mal ein Direkt-Vergleich mit'n Deto43.45:
(oben mit Detail-Texturen, unten ohne)

http://mitglied.lycos.de/razor3dc/pics/ut2003_vergl_tri_noDet_4345-4465_razor_50_16m_85.jpg (http://mitglied.lycos.de/razor3dc/pics/ut2003_vergl_tri_noDet_4345-4465_razor.png)
(Und Klickern macht wieder groß und 'stark' ;-)Chööööön, gelle ?
;-)

Kann das mal jemand mit 'nem 44.6x machen ?
Hab' jetzt irgendwie nicht die Lust, den anderen nochmals nur dafür drauf' zu machen...

Razor

zeckensack
2003-07-16, 20:09:25
Original geschrieben von Razor
Na ja... das Ergebnis verändert sich dadurch nicht wirklich...
<...>

Hier mal ein Direkt-Vergleich mit'n Deto43.45:
(oben mit Detail-Texturen, unten ohne)

http://mitglied.lycos.de/razor3dc/pics/ut2003_vergl_tri_noDet_4345-4465_razor_50_16m_85.jpg (http://mitglied.lycos.de/razor3dc/pics/ut2003_vergl_tri_noDet_4345-4465_razor.png)
(Und Klickern macht wieder groß und 'stark' ;-)Chööööön, gelle ?
;-)Razor, da tut sich IMO schon was.
1)Schau mal auf die Stellen, die oben schwarz (!) sind, die sind unten grün.
2)Gibt's im unteren Bild gelbe Mips? Nein? Aha!

;)

edit:
In der Tat sehr chön! =)

Demirug
2003-07-16, 20:27:17
Original geschrieben von nggalai
Das hab' ich mitlerweilen auch (inoffiziell) von einem NV-Mutz bestätigt gekriegt. High-Performance erzwingt offenbar Texturkompression.

Obwohl er sehr schwammig blieb, hat er zumindest indirekt meine "weshalb heisst das seit 44.03 Quality und nicht Application? Weil schon Quality 'optimiert' wird" ebenfalls bestätigt. Er hat allerdings auch was von "warte bis zum 'next step in the series'" gefaselt. Ich hol jedenfalls schonmal vorsorglich meine Asbest-Unterwäsche für den Launch der 5x.xx-Treiber hervor.

*Asbest-Unterwäsche rauskram*

*Feuerlöscher bereithalt*

93,
-Sascha.rb

Ich vermute mal jetzt ganz stark das es "Application" in Zukunft wirklich nur noch gibt wenn die Application auch wirklich AF anfordert.

Bezüglich Texturekompression: Ich habe da eine (unbestätigten) Verdacht das die FXen ein paar neue Kompressionverfahren beherschen.

Razor
2003-07-16, 20:29:17
Original geschrieben von Demirug
Ich vermute mal jetzt ganz stark das es "Application" in Zukunft wirklich nur noch gibt wenn die Application auch wirklich AF anfordert.
Aber warum ?
Weil jetzt UT2003 als einziges dieses Verhalten zeigt ?
???

Razor

mapel110
2003-07-16, 20:32:43
Original geschrieben von Razor
Aber warum ?
Weil jetzt UT2003 als einziges dieses Verhalten zeigt ?
???

Razor

imo weil es nunmal ein eklatantes missverhältnis aus verbrauchter leistung zur erbrachten qualität darstellt.

ow
2003-07-16, 20:34:44
Original geschrieben von mapel110
imo weil es nunmal ein eklatantes missverhältnis aus verbrauchter leistung und zur erbrachten qualität darstellt.

???
Das Verhältnis ist sogar sehr gut, 'billiger' ist richtiges AF derzeit nun mal nicht zu haben.

nggalai
2003-07-16, 20:37:39
Hi Demiurg,Original geschrieben von Demirug
Ich vermute mal jetzt ganz stark das es "Application" in Zukunft wirklich nur noch gibt wenn die Application auch wirklich AF anfordert.

Bezüglich Texturekompression: Ich habe da eine (unbestätigten) Verdacht das die FXen ein paar neue Kompressionverfahren beherschen. In beiden Fällen *zustimm* von mir. Ich warte noch immer auf eine E-mail, aber wenn ich einiges vom Material, das ich habe, so anschaue, wird NV schon fast einen--achtung, beliebter Marketingblubber--Paradigmawechsel versuchen anzufeuern.

Wenn man das 5900er-Review von [H] SEHR aufmerksam durchliest, wird man die ersten Ausläufer davon schon sehen. Hoffen wir, dass am Ende der Kunde nicht der Verarschte ist . . .

93,
-Sascha.rb

Demirug
2003-07-16, 20:43:35
Original geschrieben von ow
???
Das Verhältnis ist sogar sehr gut, 'billiger' ist richtiges AF derzeit nun mal nicht zu haben.

Das nennst du richtiges AF? Ich nennen das eine einigermassen brauchbare Annäherung.

Der zusätzliche optische Gewinn würde aber immer geringer werden. Wenn ich mich nicht verrechnet habe verliert das "gekappte" Tri maximal 22% an Farbinformation bei einer Einsparrung von 7 bi Samples von insgesamt 19 bi Samples.

Demirug
2003-07-16, 22:13:46
So ich habe mal überprüft welche nicht standard Textureformate die FXen so alles unterstützen:

NVCS,
NVHS,
NVHU,
NVM0, NVM1, NVM2, NVM3,
NVN0, NVN1, NVN2, NVN3, NVN4, NVN5,
NVX0, NVX1, NVX2, NVX3, NVX4, NVX5,
NVY0, NVY1, NVY2

Schöne Liste auch wenn ich keine Ahnung habe für was die einzelnen Formate zu gebrauchen sind.

nggalai
2003-07-16, 23:02:45
arrrgh. Dann hat der Mutz echt keinen Scheiss erzählt.

Kann sich noch wer an die "Chrome"-Gerüchte erinnern?

Holy shit. Bin mal gespannt, wie das in 3 Monaten aussehen wird.

*hangs head*

93,
-Sascha.rb

Demirug
2003-07-16, 23:05:45
Original geschrieben von nggalai
arrrgh. Dann hat der Mutz echt keinen Scheiss erzhält.

Kann sich noch wer an die "Chrome"-Gerüchte erinnern?

Holy shit. Bin mal gespannt, wie das in 3 Monaten aussehen wird.

*hangs head*

93,
-Sascha.rb

Ich muss morgend mal prüfen in wie fern es auch schon im NV20 zusätzliche Formate gibt.

Chrome == Gilde 4+ oder so ähnlich ???

LovesuckZ
2003-07-16, 23:10:16
Original geschrieben von nggalai
Holy shit. Bin mal gespannt, wie das in 3 Monaten aussehen wird.


???

Ich muss sagen, du kannst es ganz gut einem den Mund waessrig zu machen... :D

Gast
2003-07-17, 10:21:10
Original geschrieben von nggalai
arrrgh. Dann hat der Mutz echt keinen Scheiss erzählt.

Kann sich noch wer an die "Chrome"-Gerüchte erinnern?

Holy shit. Bin mal gespannt, wie das in 3 Monaten aussehen wird.

*hangs head*

93,
-Sascha.rb ja chrome war ne wir bringen für unsere gf reihe ne schnittstelle die eine bis zu 300% leistungssteigerung bringen sollte sogar für die gf1!

5 monate nach den ersten infos (ist jahre her) würde dann ein april schertz darazs gemacht infos könnten noch in den diskusionen bei 3dconcept liegen im archive sollte noch der aprilschertz zu finden sein.

aber wenn die das machen haben sie wohl recht mit der aussage wenn wir uns zu den cheats äussern bringen wir die ganze industrie in aufruhe :)

nggalai
2003-07-17, 13:46:53
Hi there,

zu der "Chrome" Sache in meiner Post oben einfach der Sicherheit halber eine Erläuterung: Es geht nicht darum, ob "Chrome" kommen soll oder nicht (wird's AFAIK nicht), aber um die grundlegende Idee dahinter, geschäftspolitisch gesehen. Daher der Satz da oben.

93,
-Sascha.rb

Quasar
2003-07-17, 14:16:33
Original geschrieben von Demirug
Bezüglich Texturekompression: Ich habe da eine (unbestätigten) Verdacht das die FXen ein paar neue Kompressionverfahren beherschen.

Schau dir mal die "AF"-Flammen im Templemark an. Besonders die vermuteten Ränder der durchsichtigen Textur... ;)

Gast
2003-07-17, 14:19:40
Original geschrieben von nggalai
Hi there,

zu der "Chrome" Sache in meiner Post oben einfach der Sicherheit halber eine Erläuterung: Es geht nicht darum, ob "Chrome" kommen soll oder nicht (wird's AFAIK nicht), aber um die grundlegende Idee dahinter, geschäftspolitisch gesehen. Daher der Satz da oben.

93,
-Sascha.rb Jep Film industrie legt nen Film nach und schwub gibts ein game dazu wenn man dann cine fx in verbindung bringt .....

Demirug
2003-07-17, 15:14:56
Original geschrieben von nggalai
Hi there,

zu der "Chrome" Sache in meiner Post oben einfach der Sicherheit halber eine Erläuterung: Es geht nicht darum, ob "Chrome" kommen soll oder nicht (wird's AFAIK nicht), aber um die grundlegende Idee dahinter, geschäftspolitisch gesehen. Daher der Satz da oben.

93,
-Sascha.rb

Ich dachte diese Idee wäre im TWIMTBP Programm eingeflossen? Oder war doch noch mehr dahinter?

aths
2003-07-17, 17:51:30
Original geschrieben von ow
???
Das Verhältnis ist sogar sehr gut, 'billiger' ist richtiges AF derzeit nun mal nicht zu haben. Eben, solange es keinen single-clock 16-tap-TF-Filter gibt, kostet richtig trilineares AF nunmal eine Menge Leistung.

mapel110
2003-07-17, 19:12:48
http://www.digit-life.com/news.html?93467#93467
nochmal ein statement dazu. derjenige siehts genauso wie ich. warum ut2003 optimiert und u2 nicht ? einfach, weils kein benchmark gibt zum optimieren.

Benchmark optimizations or what NVIDIA was keeping silence about — Cormac @ 17:49
The editor of our Video section, Andrew Vorobyev, told us a very interesting story related to drivers "optimizations".

"We’ve recently posted a number of reviews dedicated to benchmark "optimizations" implemented by ATI and NVIDIA (it turned out the latter implemented more of them). We found out that all NVIDIA drivers up to 44.71 inclusive contain "optimizations" for all games that have benchmarks (it’s strange, but none have been made for Unreal II, though it’s based on the same engine, as UT2003, but still doesn’t contain a benchmark.)

But there are some optimizations for UT2003. Funny, isn’t it? Unreal II performs with Anti-detect same as without it. I doubt that Unreal II just doesn’t require any optimizations. Unfortunately it just doesn’t have an exposed benchmarking tool to "optimize" :). NVIDIA specialists might have actually overlooked the tweakers who found scripts in Unreal II for executing the test.

Anyway, the thing is that in Code Creatures Anti-Detect found out that speed of all GeForce FX cards was "optimized" by cheating, as Code Creatures is not a game, but a pure benchmark. E.g., FX 5900 shows 46 fps (1024x768, 32bpp), but only 33 fps with Anti-Detect. And the newly leaked 44.90 beta doesn’t seem to contain any optimizations, as we obtained the same fps values on the same card at the same resolutions, as 44.03 and 44.65 versions had provided with Anti-Detect. We’ll continue checking the situation, and it will be very good if optimizations have really been removed from other tests as well!"

Razor
2003-07-17, 22:00:46
Warte doch einfach den nächsten offiziellen Treiber ab, mapel...
Dann wissen WIR ALLE es ganz genau !
...und müssen nicht wild spekulieren.

Razor

P.S.: Ein Game = möglicher Bug, mehrere Games = ?`
:D

Mr. Lolman
2003-07-17, 22:12:35
Original geschrieben von Razor
Warte doch einfach den nächsten offiziellen Treiber ab, mapel...
Dann wissen WIR ALLE es ganz genau !
...und müssen nicht wild spekulieren.
Razor

P.S.: Ein Game = möglicher Bug, mehrere Games = ?`
:D

Ich glaube, dann wissen wir gar nichts mehr. Oder sollte das Unwinderscript trotz Verschlüsselung immernoch funktionieren??

Andererseits hoffe ich das sich Thomas von Tommti Systems mal auf meine Mail antwortet, bezügl. meiner Colormipmapidee... :naughty:

Razor
2003-07-17, 22:16:41
Original geschrieben von Mr. Lolman
Ich glaube, dann wissen wir gar nichts mehr. Oder sollte das Unwinderscript trotz Verschlüsselung immernoch funktionieren??
Wir werden doch das Ergebnis (wie früher auch ;-) mit den eigenen Augen wahr nehmen können ?
Oder etwa nicht ?
???
Original geschrieben von Mr. Lolman
Andererseits hoffe ich das sich Thomas von Tommti Systems mal auf meine Mail antwortet, bezügl. meiner Colormipmapidee... :naughty:
DAS hoffe ich auch... los, nerv ihn doch mal ein bissel !
;-)

Razor

P.S.: Was wissen wir denn jetzt ?

Das nVidia's Optimierungen und Workarounds 'effektiv' sind ?
Das nur ohne sie die tatsächlich mögliche BQ erreicht wird ?

JETZT wissen wir nichts... nur dass Unwinder bei den nVidia-Treibern etwas hinbekommen hat, was bei den ATI-Treibern wohl nicht so hingehauen hat (oder nicht hinhauen sollte ;-).

mapel110
2003-07-17, 22:20:23
razor, was hat AF und bildqualität mit den unterschiedlichen benchmarkergenissen zwischen unreal2 und ut2003 zu tun ?

es ist eine tatsache, dass ut2003 optimiert ist und unreal2 nicht, obwohls die selbe engine ist.
darum gehts in dem statement und nicht um trilinear und nicht trilinear.

Demirug
2003-07-17, 22:24:17
Original geschrieben von mapel110
razor, was hat AF und bildqualität mit den unterschiedlichen benchmarkergenissen zwischen unreal2 und ut2003 zu tun ?

es ist eine tatsache, dass ut2003 optimiert ist und unreal2 nicht, obwohls die selbe engine ist.
darum gehts in dem statement und nicht um trilinear und nicht trilinear.

Die gleiche Engine schon aber in der Benutzung gibt es doch ehrhebliche unterschiede. Für eine Grafikkarte können sich durcvhaus zwei spiele die mit komplett anderen Engine gemacht wurde viel näher sein als zwei Spiele die mit der gleichen Engine programmiert wurden.

Razor
2003-07-17, 22:25:33
Original geschrieben von mapel110
razor, was hat AF und bildqualität mit den unterschiedlichen benchmarkergenissen zwischen unreal2 und ut2003 zu tun ?

es ist eine tatsache, dass ut2003 optimiert ist und unreal2 nicht, obwohls die selbe engine ist.
darum gehts in dem statement und nicht um trilinear und nicht trilinear.
Es geht bei UT2003 ganz allgemein um das Thema Filterung... und nicht nur nVidia hat damit ein Problem, sondern auch ATI... selbst aths 'mochte' die Quali seiner Optimierungen für die gf4ti bei UT2003 nicht.

Irgendetwas ist also bei UT2003 anders...
... anders als bei U2.

Und evtl. hat ein 'bug' zu mehr Performance geführt... vielleicht auch ein Cheat... wer weiß.

Beim Murks03 hieß es doch auch, dass nVidia nur deswegen so schnell war, weil an der BQ 'gefummelt' und ganze Teil-Scenen nicht gerendert wurden. Jetzt ist die BQ optimal und die Scenen werden auch vollständig gerendert... und die Treiber sind nicht langsamer, sondern sogar schneller geworden.

Und wenn das auch auf UT2003 zutrifft, dann ist das ganze Gerede hier für's Keks !
(nicht einmal ;-)

Darum geht es hier, um nichts anderes...

Razor

mapel110
2003-07-17, 22:48:04
Original geschrieben von Demirug
Die gleiche Engine schon aber in der Benutzung gibt es doch ehrhebliche unterschiede. Für eine Grafikkarte können sich durcvhaus zwei spiele die mit komplett anderen Engine gemacht wurde viel näher sein als zwei Spiele die mit der gleichen Engine programmiert wurden.

hmmm, ja.
deswegen auch die unterschiedliche leistung bei ut2003 zwischen "asbetos und antalus" und den restlichen levels. in den beiden bevorzugten benchlevels steht nv wesentlich besser da als in den anderen flybys und botmatches.
nv hat hier gezielt auf die zwei benchabläufe optimiert. deswegen gabs nix zu übertragen auf unreal2.

Razor
2003-07-18, 20:15:55
Wart's einfach ab mapel...

Razor

dildo4u
2003-07-18, 23:16:53
http://www.warp2search.net/modules.php?name=News&file=article&sid=13266

Nvidia Driver Policy Changes

mapel110
2003-07-18, 23:31:38
Original geschrieben von dildo4u
http://www.warp2search.net/modules.php?name=News&file=article&sid=13266

Nvidia Driver Policy Changes

jo, wollt ich auch gerade posten. was wolltest du doch gleich, razor ?! *eg*

LovesuckZ
2003-07-19, 08:58:56
Original geschrieben von mapel110
hmmm, ja.
deswegen auch die unterschiedliche leistung bei ut2003 zwischen "asbetos und antalus" und den restlichen levels. in den beiden bevorzugten benchlevels steht nv wesentlich besser da als in den anderen flybys und botmatches.
nv hat hier gezielt auf die zwei benchabläufe optimiert. deswegen gabs nix zu übertragen auf unreal2.

Aeh, wenn ich mir meine Werte mit dem ADC angucke, dann erkwenne ich, dass antalus und asbestos die Maps sind, die ohne AF am wenigsten von den "Cheats" profitieren. Bei einen Verlust von 3 bzw. einen Gewinn von 9% liegt alles noch im grünen Bereich.

Razor
2003-07-19, 15:52:15
Original geschrieben von mapel110
jo, wollt ich auch gerade posten. was wolltest du doch gleich, razor ?!
Wieso ?

Wen ich das richtig verstanden habe, dann werden sie ein Release-Log zu den Treibern legen und zuküftig solche 'Schnitzer', wie bei Murks03 (nicht den Performance-Gewinn, sondern die miese BQ und das Problem mit der FreeCam) und UT2003 (jetzt miese BQ, mit dem nächsten Treiber.... ja was ?) vermeiden.

Was bitte willst Du denn daraus gelesen haben wollen ?
???

Razor

Leonidas
2003-07-21, 01:15:17
Original geschrieben von dildo4u
http://www.warp2search.net/modules.php?name=News&file=article&sid=13266

Nvidia Driver Policy Changes



Mmh. Das was NV bei der BQ in UT2003 macht, entspricht aber defenitiv nicht dem, was da steht.

Quasar
2003-07-21, 01:41:09
Original geschrieben von Leonidas
Mmh. Das was NV bei der BQ in UT2003 macht, entspricht aber defenitiv nicht dem, was da steht.

It looks like there is going to be a change quite soon.