PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : UNREAL 2 "HELL" - Was limitiert denn hier, wie schnell seid ihr???


pervert
2003-08-02, 07:33:51
Hallo!

Angesichts des Wechsels von einer GF4 4600 auf eine 9800 Pro habe ich mit Unreal 2 herumgebenchmarkt, Levelstart Mission: "Hell", Blick auf das Gebäude (siehe Bild), direkt nach den Videosequenzen.

Diese Aussicht ist bekannt für ihre niedrigen Frameraten, doch woher kommt das eigentlich??? CPU limitiert? Graka limitiert???

Wenn ich den Takt meines Prozessors von 2400+/266 auf 2800+/333 anhebe, bewirkt das gar nichts.

Mit der GF4 hatte ich hier ohne Aniso/FSAA 33-36fps (schwankend), mit der Radeon 9800 habe ich aber auch nur schlappe 39fps Durchschnitt (ganz frischer Treiber, keine Settings durch Tools verändert). Ca. lächerliche
17-18fps mit 6xFSAA/16xAniso/Voll trilinear,
27fps mit 6xFSAA/16xAniso/TS0=Tri (ATIControlPanel: qualität)
35fps 6xFSAA/16xAniso/Bilinear (CP: leistung)
über rTool. Die letzten drei Werte nur der Vollständigkeit halber, es interessiert mich eher der "unoptimierte" 39fps-Wert!

Wie kann das sein, was limitiert hier, bzw. macht diese Szene so langsam??? Ist eine 9800 Pro hier etwa wirklich nur 10-20% schneller als eine GF4 4600 ??? Und was braucht man dann um hier vernünftige fps zu bekommen, eine Geforce 10 o.Ä. ??? Welcher Teil der Graka wird hier so stark belastet, dass es Aniso und FSAA fast for free gibt (zumindest bilinear)??

Die Tests liefen alle auf 2400+/266 nForce2, AGP4x-8x, 1024x768x32bit, Catalyst 3.6 kein CP, vsync aus natürlich, WinXP SP1

Achja: die fps-Anzeige erhaltet Ihr durch Eingabe von "stat fps" in der console (TAB). Bitte nicht mit FRAPS benchmarken, wird langsamer.


Wäre schön, wenn das mal einige Benchmarken könnten, insbesondere Besitzer einer 9700/9800pro bzw. FX 5800/5900 (ultra)!

Verwendet dazu nach Möglichkeit einen frischen Treiber bzw. mit maiximalen Qualitätseinstellungen und stellt im Spiel alles auf "hoch" (Schatten-Auflösung also nicht auf ultra sondern Masterschatten=hoch) und die Regler nicht verschieben (auf Seite 2 ist ein Bild davon)! EAX Sound AUS! Achtet auf eine unmodifizierte/ungetweakte Unreal2.ini.

Quasar
2003-08-02, 09:12:31
Also an dieser speziellen Stelle habe ich mit P4-3,0C und R9600p so ungefähr ~27fps. Mit 4xAA und 8xAF via rTool wurden's dann nur noch 13-15fps.

Beruhigt dich das oder macht es dich eher unsicherer?

pervert
2003-08-02, 09:28:02
Jeder darf mitbenchen, auch ohne 9800 pro :-)
Aber bitte ein wenig die Settings einhalten, zur besseren Vergleichbarkeit. Wieviel ist es mit 6x/16x?

Quasar
2003-08-02, 09:48:55
öhm....6x/16x mit 'ner R9600p? Ich meine gehen würd' das schon, aber es würde sinnlos langsam werden.

0x/0x: 28
2x/4x: 17
4x/8x: 15
6x/16x: 13

MechWOLLIer
2003-08-02, 09:54:23
38Fps bei 4xaa/8xaf(mit dem RTool) mit dem Rechner
Radeon 9700Pro(350/310), P4 2,53@2,95, FSB133@155, Asus P4T 533, 512RD-RAM@PC1266

Die stelle muss jawohl super mies programmiert sein

pervert
2003-08-02, 09:55:55
Bitte KEINE Benchmarks mit nur 4xAA/8xAF!!!
Warum? Weil ich z. B. mit 4xFSAA/16xAF/Bi immer noch 39fps habe, genauso wie ohne alles!!!!! Das ist dann wohl etwas sinnlos!
Und schreibt bitte im FAll von aktiven AA/AF UNBEDINGT dazu ob bilinear, TS0=Tri oder voll trilinear, sonst bringt das nichts!!!

@Quasar und MechWOLLIer, bitte tragt bi/ts0/tri mal nach in eure Postings!

@MechWOLLIer wieviel fps hast Du ohne AA/AF und mit 6x/16x?

Quasar
2003-08-02, 10:06:12
Meine Werte natürlich via rTool, wie im ersten Posting erwähnt. Also komplett tri.

pervert
2003-08-02, 10:09:38
Das rTool ist glaube ich default auf bilinear eingestellt (wenn man zuvor nichts am Treiber geändert hat), deswegen wäre das also durchaus eine zusätzliche Erwähnung wert gewesen! :)

Quasar
2003-08-02, 10:14:42
Bei mir war's das nicht, deswegen keine Erwähnung.

DocEvil
2003-08-02, 10:15:14
bei mir ist U2 jedenfalls komplett cpu-limitiert mit meinem XP2200+ und radeon 9700. Kaum ein fps-unterschied ohne AA bzw mit AA.
Diese von dir beschriene szene hatte bei mir glaub ich so 30fps...

Probier auch mal einen richtigen bench, z.b. mit "BenchEmAll". Meine ergebnisse hab ich hier (http://forum-3dcenter.net/vbulletin/showthread.php?s=&postid=1067964#post1067964) schon geposted.

VoodooJack
2003-08-02, 11:32:19
@pervert

Zunächst meine 9800Pro Werte für die ca. 300 Meter lange Strecke des Hell-Levels, die dir soviel Kopfzerbrechen macht:

an der Stelle auf deinem Screenshot: 50 fps - über die vereiste Fläche: 65 fps - während der einzigen Action auf der Brücke mit diesem Alien-Tier: 50 fps - am Lifteinstieg: 150 fps - im Lift: 170 - 190 fps - unten im Gang: 110 fps

Diese 300 Meter des Hell-Levels machen etwa 0.5% des gesamten Hell-Levels aus, um das Ganze mal in die richtigen Relationen einzuordnen.

Gebencht hab ich mit in-game alles auf High. Entscheidend dabei sind die Video-Optionen "World Texture Detail" und "Skin-Detail". Wenn ich diese beiden Optionen auf "Medium" stelle, bekomme ich an der Screenshot-Stelle 80 fps.

Wenn ich deine Zeilen richtig interpretiere, willst du uns sagen, dass man mit einer 9800Pro das Hell-Level nicht richtig spielen kann. Ich muss mich wundern. Wie du siehst, packt meine 9800Pro selbst diese Stelle locker. Und, ich wiederhole mich gerne, diese Stelle macht nur etwa 0.5% des Hell-Levels aus. 99.5% des Levels spiele ich mit 100 fps und darüber. Natürlich würde ich da 16xAF zuschalten. Hab ich auch gemacht, als ich Unreal 2 auf meiner 9700Pro spielte. Außerdem hab ich Unreal 2 damals in 1600x1200 gespielt.

Du packst diese Stelle laut eigener Aussage mit etwa 10 fps weniger als ich. Ich muss mich wundern. Willst du sagen, dass du mit ca. 40 fps nicht an diesem Tier auf der Brücke vorbeikommst?

Warum diese Stelle so leistungshungrig ist, da kann ich nur vermuten. Ist eine riesige Map mit ziemlich viel Details. Ich bin mal im Ghost-Mode in der ganzen Map herumgeschwebt. Ist schon eine riesengroße Map. Ich entdeckte dabei einige interessante Details, die man auf normalem Weg nicht sieht. Ich bin aber sicher, unsere zahlreichen Experten werden dir das ganz anders und viel besser erklären, hehe.

Mr. Lolman
2003-08-02, 13:11:53
@ pervert:

Verwende in der 'unreal2.ini' mal folgende Einstellungen:


[Engine.GameEngine]
CacheSizeMegs=32 (macht den Spielablauf etw. flüssiger)

[D3DDrv.D3DRenderDevice]
ReduceMouseLag=False (bringt die meisten fps)
DefaultTexMipBias=0.000000 (bessere Grafik durch schöneres Detailtex-AF)



mit diesen Eisntellungen sind die fps in der HELL Szene folgendermassen (1024x768):

0xAA, kein AF: 46fps
6xAA, 16xbi-AF: 47fps :grübel: (Screenshot (http://www.ystart.de/upload/1059845132.jpg))
6xAA, 16xTS0-AF: 41fps
6xAA, 16xtri-AF: 31fps

Quasar
2003-08-02, 14:36:14
Nun mit R9800

0x/0x: 37
2x/4x: 20
4x/8x: 18
6x/16x: 17


Mit Lolman's "unerlaubten Optimierungen":

0x/0x: 31 (WTF)
2x/4x: 30
4x/8x: 27
6x/16x: 25

Wobei das Abschalten von ReduceMouseLag IMO sinnfrei ist, da die Steuerung einfach zu stark hinterherzieht.

Mr. Lolman
2003-08-02, 14:53:55
Mit was für einem Rechner benchst du?

Reduce Mouselag ist bei weitem nicht sinnfrei, Wenn man mit VSync=off spielt, zieht da nix hinterher. P.S:

ReduceMouseLag=True, sonst alles wie gehabt:

1024x768 6xAA, 16xtri-AF (unoptimiert): 29fps


Hab ehrlich gesagt keine Ahnung, warum ich so hohe fps hab, aber dadurch das sicher wieder meine Werte angezweifelt werden, hab ich ja den Screenshot angefügt. Naja, was solls... mich freuts auf jeden Fall! :bigl2:

edit: Hier (http://www.ystart.de/upload/1059886646.jpg) kann man sich meine 'ini' runterladen. (als Unreal2.ini abspeichern)

edit2: Hm, ich hab das ganze Spiel ohne Reduce Mouselag durchgespielt und hab keine Probs gehabt. K.A. waums bei mir keine Probs macht. Vielleicht liegts daran, dass meine CPU nie auf die GraKa warten muss :ratlos:

edit3: Neue 'ini' hochgeladen...

Quasar
2003-08-02, 14:57:49
Es geht mir nicht darum, ob deine Werte höher sind als meine, sondern einzig darum, dass die Maussteurerung total indirekt wird, wenn man ReduceMouseLag=True setzt.
Ich hab's eben selber ausprobiert.

Ach ja, ist'n P4.

Raff
2003-08-02, 15:10:58
Ich mach gern mit, wenn mir jemand sagt, wo es diese schöne Timedemo (?) gibt und ob man noch nen Patch für Unreal 2 braucht. Ich nehme mal an, dass 1024x768x32 als Grundlage gilt, dann eben noch ggf. AA/AF dazu.

MfG
Raff

Quasar
2003-08-02, 15:17:27
Mach ruhig mit. Das ist leider kein Timedemo, sondern die statischen FPS am Beginn des Levels PA_Hell.un2, den du einfach mit der Unreal.exe starten kannst.

Mr. Lolman
2003-08-02, 15:24:25
Original geschrieben von Quasar
Mach ruhig mit. Das ist leider kein Timedemo, sondern die statischen FPS am Beginn des Levels PA_Hell.un2, den du einfach mit der Unreal.exe starten kannst.

Da wird ja zuvor noch (unnötigerweise) die Zwischensequenz geladen. Direkt gehts mit 'm01a.un2'. Entweder im UnrealII: "[Tabulator]open m01a" oder gleich die Datei mit UnrealII öffnen.

ow
2003-08-02, 15:37:16
Original geschrieben von Quasar
Es geht mir nicht darum, ob deine Werte höher sind als meine, sondern einzig darum, dass die Maussteurerung total indirekt wird, wenn man ReduceMouseLag=True setzt.
Ich hab's eben selber ausprobiert.

Ach ja, ist'n P4.


Kann ich bestätigen. Ist praktisch unspielbar mit ReduceMouseLag auf 'off'.

Und 'mouse smoothing' sollte man zum Spielen auch eingeschaltet lassen.

Quasar
2003-08-02, 15:44:23
Vielleicht hat Mr.Lolman ja das Prerenderlimit schon von Haus aus auf einen niedrigen Wert wie 1 oder 0 eingestellt, dann wäre ReduceMouseLag in der Tat kaum zu bemerken, ausser U2 stellt das PreRenderlimit auf eine sehr dämliche Weise um, die viel Leistung kostet.

Raff
2003-08-02, 17:41:57
Athlon XP 1600+ Palomino @ 160 MHz FSB => 1680 MHz
TwinMOS WB CH-5 PC3200 @ PC2700, schärfste Timings
GeForce3 Ti-200 @ 220/460
cooled by: Luft & Klimaanlage :D

1280x1024x32 kein AA/AF: ~ 8 fps
1024x768x32 kein AA/AF: ~ 12 fps
1024x768x32 4xS/8xAF: 5 fps
640x480x32 kein AA/AF: ~ 13 fps
640x480x32 2xAA/2xAF: ~ 13 fps

Würde ich nach diesem Level gehen, käme ich wohl zu den Schluss, dass sowohl meine CPU als auch meine GraKa schlicht Müll sind ;)
Bis 1024x768x32 limitiert eindeutig die CPU, gehen Auflösung oder Qualitätsfeatures hoch, verliert die GraKa dramatisch an Speed.

MfG
Raff

MechWOLLIer
2003-08-02, 18:10:20
Meine Werte sind alle Trilinear. Ohne aa/af kann icjh jetzt nicht testen, weil ich meine Cd verliehen habe

MechWOLLIer
2003-08-02, 18:46:15
Original geschrieben von pervert


@Quasar und MechWOLLIer, bitte tragt bi/ts0/tri mal nach in eure Postings!

@MechWOLLIer wieviel fps hast Du ohne AA/AF und mit 6x/16x?


Es war Tri. Kann leider keine andere Benches machen, weil ich eben einem Kollegen das game ausgeliehen habe

Nedo
2003-08-02, 22:07:26
Mr. Lolman
deaktivier mal reducemouselag und aktivier Usetriplebuffering
bei mir hats dann mehr performance+kein mouselag ;)

pervert
2003-08-02, 23:17:42
Wäre schön, wenn diejenigen mit mehr als 39fps mal herausfinden könnten, wie sie das geschafft haben und ob sie meine fps reproduzieren können.

Ich habe übrigends eine frische Spiel-Installation, mit dem neuesten Patch verwendet.

@Quasar, Du schriebst irgendwas von "prerender limit"... Kann man das bei ner ATI-Karte irgendwie einstellen? Kenne das nur von NV.

pervert
2003-08-02, 23:21:32
Original geschrieben von VoodooJack
@pervert

Zunächst meine 9800Pro Werte für die ca. 300 Meter lange Strecke des Hell-Levels, die dir soviel Kopfzerbrechen macht:

an der Stelle auf deinem Screenshot: 50 fps - über die vereiste Fläche: 65 fps - während der einzigen Action auf der Brücke mit diesem Alien-Tier: 50 fps - am Lifteinstieg: 150 fps - im Lift: 170 - 190 fps - unten im Gang: 110 fps


Wenn ich deine Zeilen richtig interpretiere, willst du uns sagen, dass man mit einer 9800Pro das Hell-Level nicht richtig spielen kann. Ich muss mich wundern. Wie du siehst, packt meine 9800Pro selbst diese Stelle locker.

Interpretierst Du falsch.

Da kommen mir gerade einige Ideen. Was für ein System hast Du und vor allem wieviel RAM? Wie ist deine AGP Aperture Size eingestellt?

Bist Du sicher, dass Du Deine unreal2.ini nicht verändert hast? Folge ich den Optimierungen von mr.lolman, komme ich auch auf über 50fps!

pervert
2003-08-02, 23:24:39
Es wäre übrigends auch sehr schön hier einige Ergebnisse von FX 5800/5900 (ultra) Besitzern zu sehen!

Hier meine Ergebnisse mit den Optimierungen von Mr.Lolman:

20fps voll trilinear
38fps bilinear, 6x/16x mit cache=32 mouse=false
Ich glaube es waren dann 42-44 fps ohne AA/AF

53-54fps mit "DefaultTexMipBias=0.00000" OHNE AA/AF

Übrigends reduziert "DefaultTexMipBias=0.00000" die Qualität der Normaltexturen (=mehr Speed) und verbessert nicht die der Detailtexturen, welche in der ini auch direkt darüber erwähnt werden. Wie kommst Du also darauf mr.lolman?

@Quasar
Deine Benches stammten tatsächlich von einer 9800 oder doch von einer 9800 PRO? Ich frage deshalb, weil die 9800 ja noch nicht so verbreitet ist.

Mr. Lolman
2003-08-02, 23:40:22
Original geschrieben von pervert
Wäre schön, wenn diejenigen mit mehr als 39fps mal herausfinden könnten, wie sie das geschafft haben und ob sie meine fps reproduzieren können.


Probier mal meine 'ini' die ich verlinkt hab.

Sonstige Konfiguration:
Catalyst 3.6
4xAGP, 32MB Aparture Size, Fast Writes ON
Cracked EXE

pervert
2003-08-02, 23:51:42
Original geschrieben von ow
Kann ich bestätigen. Ist praktisch unspielbar mit ReduceMouseLag auf 'off'.

Und 'mouse smoothing' sollte man zum Spielen auch eingeschaltet lassen.

Ich konnte in der Hell-Szene keine Probleme feststellen mit RML Off.

pervert
2003-08-03, 00:00:44
Original geschrieben von Mr. Lolman
Probier mal meine 'ini' die ich verlinkt hab.

Sonstige Konfiguration:
Catalyst 3.6
4xAGP, 32MB Aparture Size, Fast Writes ON
Cracked EXE

Ja, die Werte haben sie nochmals verbessert (knapp unter Deinen, aber IMMER NOCH langsamer!?), also hast Du noch mehr in deiner ini verändert? Bist Du sicher, dass Du nicht am am Treiber rumgefuckelt hast? Eigentlich solltest Du mit der 9700pro eher langsamer sein (pass mal den core takt auf das niveau einer 9800pro an, falls die Karte wie in Deiner Sig. OCed war!)...

Wie wärs wenn Du es jetzt mal mit einer jungfräulichen ini versuchst?

Meine Vergleichswerte mit 32MB AP Size kommen später...

Mr. Lolman
2003-08-03, 00:53:04
Die lief schon auf 400/350. Ich dachte eigentlich, dass dies offensichtlich ist. Deine Werte dürften demnach volkommen in Ordnung sein, einzig und allein deine 'ini' war ein bisschen unoptimiert.

(was auch der Grund war, warum UII z.T. so stark wegen der schlechten Performance verissen wurde. Ein bisschen Optimierung der seitens Hersteller hätte so manches Urteil über UII wahrscheinlich anders aussehen lassen. Wenngleich ich der Meinung bin, dass das Spiel viel zu kurz war, und sich einfach nicht dieses 'Feeling' einstellen wollte, was man beim Unreal1 spielen hatte. Trotzdem find ichs ganz gut, das Game)

P.S.:

Ich hab mich leider zuvor vertan:

DetailTexMipBias=0.800000
DefaultTexMipBias=0.000000

sollte

DetailTexMipBias=0.000000
DefaultTexMipBias=0.000000


heissen. 'DefaultTexMipBias=0.000000' damit die Haupttexturen keinen negativen LOD Bias bekommen um nicht zu flimmern, und 'DefaultTexMipBias=0.000000' damit die Detailtexturen auf Radeons besser zur Geltung kommen. Die fps ändern sich dadurch nicht. Bei der Standardeinstellung von 'DefaultTexMipBias=-0.500000' sind die fps um ~10% niedriger.

BTW: Meine (nochmals neu hochgeladene) 'ini' verschlechtert die BQ keineswegs, und gilt deswegen als legitime Optimierung ;)

pervert
2003-08-03, 05:10:04
Schön schön, es wäre trotzdem toll, wenn Du es mal mit der originalen ini versuchen würdest :-)

Alle Menü-Settings dann noch auf "hoch" (Schatten nicht auf ultra) und KEINEN der Regler zusätzlich auf maximum.

Treiber möglichst frisch natürlich.

Seltsam finde ich auch, dass ich trotzdem nicht dein Werte erreiche, auch mit Deiner ini. Kannst Du Deinen CoreTakt nicht mal auf 380MHz einstellen?

Razor
2003-08-03, 07:57:38
Original geschrieben von Mr. Lolman
BTW: Meine (nochmals neu hochgeladene) 'ini' verschlechtert die BQ keineswegs, und gilt deswegen als legitime Optimierung ;)
'Deine' INI sorgt dafür, dass ALLES, was hier (von Dir !) gepostet wurde, nicht mit den anderen Ergebnissen verglichen werden sollte. Und da Du Dich sogar offenbar weigerst, mit Treiber-Default-Einstellungen und 'ungemoddeter' INI zu benchen...

Sorry, aber Dein Beitrag zu perverts Fragestellung (ist wie meiner ;-) gleich Null !
:kratz:

Razor

P.S.: Also kann mann von Deinen Ergebnissen rund 30% abziehen, um diese mit anderen zu vergleichen ?
:D

P.P.S.: Die Standard-Einstellungen sind:
DetailTexMipBias=0.800000
DefaultTexMipBias=-0.500000und damit sollte auch gebencht werden !

Razor
2003-08-03, 08:04:29
Original geschrieben von pervert
Alle Menü-Settings dann noch auf "hoch" (Schatten nicht auf ultra) und KEINEN der Regler zusätzlich auf maximum.
Wie jetzt ?

TextureDetailInterface=UltraHigh
TextureDetailTerrain=UltraHigh
TextureDetailWeaponSkin=UltraHigh
TextureDetailPlayerSkin=UltraHigh
TextureDetailWorld=UltraHigh
TextureDetailRenderMap=UltraHigh
TextureDetailLightmap=UltraHighDas sind die einzigen diesbezüglichen Parameter... wo also willst Du die 'Schatten' nicht auf 'ultra' setzen ?
???

Und ich verstehe noch immer nicht, warum nicht einfach die orginale 'maxdetail'-INI benutzt wird und schon ist's gut. Alles andere ist doch Augenwischerei !

Razor

Razor
2003-08-03, 08:05:37
"Die fps ändern sich dadurch nicht. Bei der Standardeinstellung von 'DefaultTexMipBias=-0.500000' sind die fps um ~10% niedriger."
:lol:

pervert
2003-08-03, 09:32:16
Original geschrieben von Razor
Wie jetzt ?

TextureDetailInterface=UltraHigh
TextureDetailTerrain=UltraHigh
TextureDetailWeaponSkin=UltraHigh
TextureDetailPlayerSkin=UltraHigh
TextureDetailWorld=UltraHigh
TextureDetailRenderMap=UltraHigh
TextureDetailLightmap=UltraHighDas sind die einzigen diesbezüglichen Parameter... wo also willst Du die 'Schatten' nicht auf 'ultra' setzen ?
???


Woher stammen diese Bezeichnungen, aus irgendeiner ini???

Ich habe die deutsche Version des Spiels, dort haben die Detailbuttons IM SPIEL als Maximalwert "hoch". (MASTERSCHATTENDETAILS=hoch, somit ist Schattenauflösung nicht auf ultra eingestellt)

Kleiner Nachtrag zu den Ingame Einstellungen: EAX natürlich aus!

Mr. Lolman
2003-08-03, 12:29:06
@Razor:

Jetzt reichts schön langsam mit deinen persönlichen Anfeindeungen. Meine Einstellungen sind nicht gecheatet, sondern entsprechen meinen Gameeinstellungen.
Pervert wollte wissen wie schnell das Hell Level bei einem abläuft. Da stand nichts von 'original ini'. Wenn jemand mit der 'original ini' spielt, ist er selbst schuld, weil er einen gazen Haufen an Leistung in den Wind schiesst, die man wunderbar für höhere Auflösungen, oder AA/AF verwneden könnte.

Original geschrieben von Razor
"Die fps ändern sich dadurch nicht. Bei der Standardeinstellung von 'DefaultTexMipBias=-0.500000' sind die fps um ~10% niedriger."
:lol:

Was soll das?? Du reisst Sachen aus dem Kontext um dich dann darüber lustig zu machen? Hast du das wirklich notwendig? Zur Erklärung: Mit dem ersten Satz meinte ich, dass die fps nach dem Umstellen des Detailtexwertes gleich bleiben....

@pervert:
Wie wärs wenn du mal deine Ergebnisse mit meiner (für gut befundenen) 'ini' postest. Du kennst sie ja anscheinend, und ersparst mir die herumtakterei. (Grob geschätzt, sollten sie aber im Rahmen von -5% liegen.) (edit: Sorry hast du schon gemacht, habs übersehen)

BTW: Ich hab meine original ini nicht mehr. Am besten wäre es wenn jemand sie auf www.ystart.de (mit 'jpg' Endung ;)) hochlädt.

Mr. Lolman
2003-08-03, 12:34:37
Original geschrieben von Razor
'Deine' INI sorgt dafür, dass ALLES, was hier (von Dir !) gepostet wurde, nicht mit den anderen Ergebnissen verglichen werden sollte. Und da Du Dich sogar offenbar weigerst, mit Treiber-Default-Einstellungen und 'ungemoddeter' INI zu benchen...


Meine Treibereinstellung sind DEFAULT !!!!


Sorry, aber Dein Beitrag zu perverts Fragestellung (ist wie meiner ;-) gleich Null !
:kratz:


Ich legte eindeutige Benchmarkergebnisse vor, hab meine 'ini hochgeladen, kurzum, ich befasste mich mit Perverts Prob. Du flamest nur rum, und bist anscheinend zu feig, selbst Ergebnisse zu posten.



P.S.: Also kann mann von Deinen Ergebnissen rund 30% abziehen, um diese mit anderen zu vergleichen ?
:D


Muss man nicht, falls jemand seine original 'ini' hochlädt, bringe ich neue Ergebnisse.

Raff
2003-08-03, 14:04:29
So, mit einer frischen INI und keinen "Mods" habe ich zwischen 17 und 20 fps in 1024x768x32 ohne AA/AF, System wie oben. Nur oben hatte ich alles auf Ultra...
Mit ReduceMouselag=FALSE und CacheSizeMegs=32 dann sogar 23-25 fps...

Bilde ich mir das nur ein oder sind bei CacheSizeMegs=256 die Ladezeiten deutlich kürzer? Da bringt ein Gig RAM mal was :D

MfG
Raff

VoodooJack
2003-08-03, 14:21:03
Original geschrieben von pervert
Interpretierst Du falsch.

Da kommen mir gerade einige Ideen. Was für ein System hast Du und vor allem wieviel RAM? Wie ist deine AGP Aperture Size eingestellt?

Bist Du sicher, dass Du Deine unreal2.ini nicht verändert hast? Folge ich den Optimierungen von mr.lolman, komme ich auch auf über 50fps!

Du suchst nach einer Erklärung für meine um 25% höheren Werte?

Hier ist die Erklärung:

P4: 3.68
9800Pro: 450/360 (so ist sie bei mir immer eingestellt in Spielen)
RAM: 1 GB (läuft im 1:1 Teiler und mit 2-2-3-5 Timings)
Aperture Size: 64 MB (diese Größe wird auch von ATI empfohlen)

An der Unreal2.ini hab ich nicht rumgespielt. An inis spiel ich grundsätzlich nicht rum, weil das für mich Unfug ist. Mein System bietet mir Leistung satt. Falls es wirklich mal nicht reicht, lasse ich AA weg. Ist bei meiner Standard-Auflösung von 1600x1200 nicht sooo tragisch.

Ich hab heute die Anfangsszene von Hell nochmals gebencht. Und zwar so wie ich Unreal 2 spiele.

1600x1200x32
16xPAF
Video-Options auf High
Shadows: Medium
EAX: off (EAX frisst unwahrscheinlich viel in Unreal 2)

Start: 26 fps
Eisfläche: 30 bis 33 fps
Action auf Brücke: 26 fps
Lift: 130 bis 150 fps
Gang: 75 fps

Geruckelt hat da nichts. Selbst auf der Brücke mit nur 26 fps.

Die Bildqualität ist ein Fest für die Augen!

Wer trotzdem Zweifel hat, ob meine 1600x1200 Hell-Startwerte für Unreal 2 insgesamt ausreichen, dem sei gesagt, dass die ersten 300 Meter des Hell-Levels die extremsten Meter im ganzen Spiel sind.

Die Missionen, die der Anfangsszene von Hell am nächsten kommen, sind die 4. Mission, "Swamp" genannt, und die 20. Mission, "Drakk Hive Planet" genannt.

Diese beiden Missionen begannen bei mir aber bereits doppelt so schnell wie die Anfangsszene von Hell.

pervert
2003-08-03, 14:49:13
Danke für die ausführliche Erläuterung VoodooJack.

Aber sagt mal bilde ich mir das nur ein, oder gibts hier kaum jemanden der mit nem normalen System/Game benchmarken kann?

Entweder wird an den inis rumgefuckelt oder das System ist hoffnungslos OCed.

Ich will doch nur mal nen normalen 9800er Wert sehen :-(

Würde mich freuen, wenn Du das auch noch schaffst VoodooJack :) Vielleicht sogar gar nichts OCed? :)

Darüberhinaus frage ich mich, ob die 1GB Ram noch einen Unterschied machen. GPU Takterhöhung scheint hier aber am meisten zu bewirken...

pervert
2003-08-03, 14:50:53
Original geschrieben von Raff
Nur oben hatte ich alles auf Ultra...


Was bitte meinst Du damit?

Quasar
2003-08-03, 14:56:33
Original geschrieben von Quasar
Nun mit R9800

0x/0x: 37
2x/4x: 20
4x/8x: 18
6x/16x: 17


Ich quote mich dann mal selber...

LovesuckZ
2003-08-03, 14:58:14
@ Quasar

Hast du noch die 5900Ultra und koenntest damit ein paar Werte posten?

Quasar
2003-08-03, 15:13:08
Ich weiß nicht, ob ich heute noch Zeit finde, die einzubauen. Prinzipiell aber schon.

Raff
2003-08-03, 15:49:15
Original geschrieben von pervert
Was bitte meinst Du damit?

Bei Schatten alle Regler nach rechts, killt derbst Leistung.

MfG
Raff

pervert
2003-08-03, 16:13:41
Mag sein, aber ich habe extra erwähnt, dass wir das lassen wollten, gelle?

pervert
2003-08-03, 16:14:26
Original geschrieben von Quasar
Ich weiß nicht, ob ich heute noch Zeit finde, die einzubauen. Prinzipiell aber schon.

Wäre toll, endlich ein FX-Ergebnis hier zu sehen!

Quasar
2003-08-03, 16:17:48
Mach dir nicht zuviele Hoffnungen, angeblich performen die GFFX in U2 nicht so berauschend.

Raff
2003-08-03, 16:18:46
Original geschrieben von pervert
Mag sein, aber ich habe extra erwähnt, dass wir das lassen wollten, gelle?

Jo, aber bei mir war das schon so eingestellt, ich wusste nicht, auf was für Werten das standardmäßig steht. Dann habe ich vorhin einfach die INI gelöscht und gut wars :D

MfG
Raff

VoodooJack
2003-08-03, 20:26:04
Original geschrieben von pervert
Danke für die ausführliche Erläuterung VoodooJack.

Aber sagt mal bilde ich mir das nur ein, oder gibts hier kaum jemanden der mit nem normalen System/Game benchmarken kann?

Entweder wird an den inis rumgefuckelt oder das System ist hoffnungslos OCed.

Ich will doch nur mal nen normalen 9800er Wert sehen :-(

Würde mich freuen, wenn Du das auch noch schaffst VoodooJack :) Vielleicht sogar gar nichts OCed? :)

Darüberhinaus frage ich mich, ob die 1GB Ram noch einen Unterschied machen. GPU Takterhöhung scheint hier aber am meisten zu bewirken...

Es lag nicht in meiner Absicht, dir die Frage, ob 1 GB Ram einen Unterschied machen, tiefschürfend zu beantworten. Du hast mich nach meinem RAM gefragt und ich hab dir darauf geantwortet.

Falls du mich zu denjenigen zählst, die ihre 9800Pro "hoffnungslos" übertaktet haben, muss ich dich korrigieren. Ich spiel grundsätzlich mit 450/360 und das stundenlang. Hab ich übrigens auch erwähnt.

Dir zuliebe werde ich jetzt meine Connect3D "runtertakten" auf 380/340 und nochmals benchen. Hoffentlich fallen die Werte recht niedrig aus, damit sich auch die FX-User endlich trauen (hehe).

BlackArchon
2003-08-03, 20:45:36
Könnt ihr bitte in einem Post zusammenfassen, was man wo testen soll mit welcher ini-Datei? Ziemliches Chaos hier, findet ihr nicht?

VoodooJack
2003-08-03, 20:52:30
Gesagt, getan.

9800Pro: 380/340

1024x768x32
Video-Options: High
noAA
noAF

Start: 45 fps
Eisfläche: 50 bis 60 fps
Brücke: 50 fps
Lift: 160 bis 180 fps
Gang: 113 fps

Vielleicht sollte ich auch noch erwähnen, dass ich diesmal mit "stat fps" benchte. Bei meinem 450/360 Bench benutzte ich FRAPS.

Raff
2003-08-03, 20:53:11
Original geschrieben von BlackArchon
Könnt ihr bitte in einem Post zusammenfassen, was man wo testen soll mit welcher ini-Datei? Ziemliches Chaos hier, findet ihr nicht?

Diese Map mit Unreal 2 öffnen: m01a.un2
Dann alle Details auf "hoch" stellen, auch die Schatten (nicht Ultra high). Dann losbenchen....
So habe ich das verstanden und gemacht.
Ach und dann eben im Spiel mit Tab die Konsole öffnen und "stat fps" eingeben.

MfG
Raff

Mr. Lolman
2003-08-04, 00:09:39
.

Mr. Lolman
2003-08-04, 00:17:18
mit unoptimierter 'ini' und Highdetail Einstellungen, bei 1024x768 (EAX aus):

Radeon 9800pro Takt (380/340):

0xAA, noAF: 40fps
6xAA, 16xbiAF: 36fps
6xAA, 16xTS0AF: 28fps
6xAA, 16xtriAF: 19fps

Radeon 9700 Takt (275/270):

0xAA, noAF: 32fps
6xAA, 16xbiAF: 27fps
6xAA, 16xTS0AF: 21fps
6xAA, 16xtriAF: 14fps

Also limitiert auch schon ohne AA/AF eindeutig die Grafikkarte...


@VoodooJack: Gerade bei Unreal2 machts Sinn an der 'ini' herum zu pfuschen, da mit einer optimierten 'ini' mit 6xAA/16xqAF die fps immernoch höher sind als bei einer unotpimierten ohne AA/AF. (und da ists auch egal ob die Radeon mit 450MHZ läuft;))

@Pervert: Die Übertaktung meiner Karte (400/350) entspricht den Einstellungen mit der sie (ab dem Windowsstart) die ganze Zeit läuft. Villagemark liess ich mal probehalber mit 430/370 durchlaufen. Und selbst bei dieser Taktung gabs keine Bildfehler. Beim 3dmark03 jedoch, treten die ersten Fehler ab 405/350 (bzw.400/360) auf.

pervert
2003-08-04, 02:01:12
Na also!

Das sind so ziemlich genau die Werte, die ich auch habe - verdammt niedrig aber scheinbar normal. Nur hast Du scheinbar den jeweils höchsten angezeigten Durchschnittswert genommen, während ich die Anzeige ein wenig abgewartet hatte?
dein Wert, mein Wert, (kurz nachgetestet)
40 zu 39
36 zu 35
28 zu 27 (manchmal 28)
19 zu 18 (anfangs 19)

Quasar, jetzt bin ich langsam verdammt gespannt was eine FX hier bringt :)

Witzig, dass eine 9700 hier sogar einen hauch langsamer ist als eine 4600 :)

pervert
2003-08-04, 02:06:48
Original geschrieben von VoodooJack
Gesagt, getan.

9800Pro: 380/340

1024x768x32
Video-Options: High
noAA
noAF

Start: 45 fps
Eisfläche: 50 bis 60 fps
Brücke: 50 fps
Lift: 160 bis 180 fps
Gang: 113 fps

Vielleicht sollte ich auch noch erwähnen, dass ich diesmal mit "stat fps" benchte. Bei meinem 450/360 Bench benutzte ich FRAPS.

Danke für deine Mühe (Dank auch an all die Anderen!)!

War der Rechner immer noch übertaktet, nur die Grafikkarte normal? Die Werte sind immer noch recht hoch. Sicher das deine ini unmodded ist? Kannst Du auch mal mit 6x/16x bi/TS0/tri benchen (das Startbild reicht eigentlich)?

Ich habe es nochmals getestet, schnellere CPU/FSB brachte bei mir gar nichts, also woher kommen deine 45fps zu 39 fps?
Wie gehts deinem AGP Takt? Bring das System doch mal auf "normale" Frequenzen.

Mr. Lolman
2003-08-04, 09:26:34
Original geschrieben von pervert
Na also!

Das sind so ziemlich genau die Werte, die ich auch habe - verdammt niedrig aber scheinbar normal. Nur hast Du scheinbar den jeweils höchsten angezeigten Durchschnittswert genommen, während ich die Anzeige ein wenig abgewartet hatte?

LoL und ich dachte, du nimmst die min. Werte :)


dein Wert, mein Wert, (kurz nachgetestet)
40 zu 39
36 zu 35
28 zu 27 (manchmal 28)
19 zu 18 (anfangs 19)

zu meinen Werten. Ich wartete die Anzeige ca. 5sec. ab. Nach nochmaligem überprfen, (inkl. längerem Warten) kam folgendes raus:


40er Wert: beginnt mit 44 und schwankt auch nach längerer Zeit (1min) zw. 39-41 (manchmal 38).

36er Wert: beginnt mit 36, schwankt innerhalb von 10 sec. zw. 35-37 fällt aber nach ~1min bis 30 ab (!!!), pendelt sich danach bei ~34 ein.

28er Wert: beginnt mit 30 (manchmal 31) schwankt auch nach 10sec zw. 27-30. pendelt sich dann zw. 27-28 ein.

19er Wert: beginnt mit 20/21, schwankt innerhalb von 10 sec. zw. 18-20 (manchmal 21) pendelt sich nach 1min. auf 19 ein (hinundwieder kurz auf 18).


Keine Ahnung wieso ich etwas höhere Werte bekomme. Immerhin hab ja eine 9700pro. Vielleicht sind die Speichertimings ein wenig unterschiedlich.

BTW: könntest du mal in deiner 'ini' nachschauen ob unter [D3DDrv.D3DRenderDevice] UseTripleBuffering=False steht, oder ist dieser Wert standardmässig True? Meine Werte entstande mit False,vielleicht ist das der Grund...

pervert
2003-08-04, 09:36:11
Danke für diese ausführliche Analyse :)

Tripple Buffering ist aus!

Frage mich aber ernsthaft welchen technischen Hintergrund das hat, das ReduceMouseLag=True die Grafikkarte verlangsamt...

PCGH_Thilo
2003-08-04, 10:31:56
Original geschrieben von Mr. Lolman
Mit was für einem Rechner benchst du?

Reduce Mouselag ist bei weitem nicht sinnfrei, Wenn man mit VSync=off spielt, zieht da nix hinterher. P.S:

ReduceMouseLag=True, sonst alles wie gehabt:

1024x768 6xAA, 16xtri-AF (unoptimiert): 29fps


Hab ehrlich gesagt keine Ahnung, warum ich so hohe fps hab, aber dadurch das sicher wieder meine Werte angezweifelt werden, hab ich ja den Screenshot angefügt. Naja, was solls... mich freuts auf jeden Fall! :bigl2:

edit: Hier (http://www.ystart.de/upload/1059886646.jpg) kann man sich meine 'ini' runterladen. (als Unreal2.ini abspeichern)

edit2: Hm, ich hab das ganze Spiel ohne Reduce Mouselag durchgespielt und hab keine Probs gehabt. K.A. waums bei mir keine Probs macht. Vielleicht liegts daran, dass meine CPU nie auf die GraKa warten muss :ratlos:

edit3: Neue 'ini' hochgeladen...

das sagt übrigens daniel vogel von epic zu "reduce mouselag":

> Just a quick question to the unreal engine (ut 2003): the
> option "reduce mouse lag" seems to have a significant
> performance impact. What exactly does this feature do?

It locks the backbuffer at the end of each frame to induce syncronisation between the GPU and CPU which eliminates mouse lag. I haven't seen a scenario yet where you were better off with ReduceMouseLag disabled as the cases where it creates big framerate differences are also the ones where turning it off will result in mouse lag.

-- Daniel, Epic Games Inc.

es ist also höchst fragwürdig, diese option auszuschalten.

Mr. Lolman
2003-08-04, 11:12:53
Hm.. Dankeschön, jetzt wissen wir, was gemacht wird, um das Mouselag zu eliminieren. Aber wieso es auftritt ist mirt immernoch ein Rätsel.

*geradeeinetheoriezusammenspinn*

Womöglich verschafft einem diese Option eine bessere Spielbarkeit bei sehr niedrigen fps (unter 20), da ich bei meiner Voodoo Banshee (ja ist schon etwas länger her;) die Erfahrung machte, dass D3D Spiel bei niedrigen fps zum laggen anfingen, während Glide keine Probs bereitete...


Also IMO eine Eigenheit von D3D...

pervert
2003-08-04, 12:57:43
Öhm Thilo, Du meintest wohl es ist fragwürdig sie AUSzuschalten, nachdem was Daniel dort schreibt!

Schliesslich ist sie ja per default EINgeschaltet und stiehlt uns ja die fps an dieser Hardcorestelle in Unreal2!

Allerdings verwundert mich das Statement von Daniel, war diese Funktion nicht bei UT2003 ausgeschaltet? Habe mich leider mit dem Game nicht so sehr beschäftigt...

PCGH_Thilo
2003-08-04, 13:10:14
Original geschrieben von pervert
Öhm Thilo, Du meintest wohl es ist fragwürdig sie AUSzuschalten, nachdem was Daniel dort schreibt!

Schliesslich ist sie ja per default EINgeschaltet und stiehlt uns ja die fps an dieser Hardcorestelle in Unreal2!

Allerdings verwundert mich das Statement von Daniel, war diese Funktion nicht bei UT2003 ausgeschaltet? Habe mich leider mit dem Game nicht so sehr beschäftigt...

da hab ich wohl was verknotet, thx =)

VoodooJack
2003-08-04, 13:43:01
@pervert

Ich hab keine Lust mehr, nochmals und nochmals diese Stelle zu benchen. Ich bin zufrieden mit dem, was ich bei meinen Tests gesehen hab. Lieber spiel ich mit Genuss Unreal 2.

Und auch du könntest zufrieden sein mit deinen 39 fps. Ist doch ein Spitzenwert für die härteste Stelle des gesamten Spiels und ein Indiz dafür, dass du 99.99% des Spiels locker mit doppelt so viel Frames spielen kannst!

6xAA schaltest du an dieser Stelle kurz mal aus!

:D

pervert
2003-08-04, 15:16:04
Jaja, hast ja recht, ich bin nur halt noch in der "Validierungsphase" meiner Radeon und da will man halt alles genau wissen. (Habe z. B. übrigends immer noch ein unscharfes Bild, auch mit der zweiten Hercules 9800 pro!)

Wenn man auf 4xAA/16xAF runtergeht, hat man schon wieder 39fps wie ohne AA/AF :) Damit kann man wohl auch das ganze Game zocken. Dazu noch die beiden Stellen in der ini angepasst und es lüppt jut :)

Darf ich deiner Formulierung entnehmen, dass Du tatsächlich nur die Graka runtergetaktet hattest und der Rest nach wie vor ultra OCed war? :)

Mr. Lolman
2003-08-04, 15:37:07
...und wenn man meine 'ini' verwendet kann man das Spiel sogar mit 6xAA. 16x Quality AF spielen, und hat immernoch mehr fps. V.A. wenn bewi dir anscheind das Mouselagproblem auch nicht auftritt.

VoodooJack
2003-08-04, 20:32:30
Original geschrieben von pervert
Darf ich deiner Formulierung entnehmen, dass Du tatsächlich nur die Graka runtergetaktet hattest und der Rest nach wie vor ultra OCed war? :)

Ja, meine CPU, ein 3.2er, war weiterhin übertaktet. Aber nur um bescheidene 15%. So läuft sie ständig bei mir. Ultra Oced würde ich das nicht nennen. Ultra Oced ist für mich, wenn einer seine CPU um 50% oder so übertaktet.

pervert
2003-08-05, 07:26:29
Ich wollte damit ausdrücken, dass der erreichte Takt für "normale" Verhältnisse und Mittel (von denen ich jetzt mal ausgehe) ziemlich hoch ist (ganz egal ob mit nem 2.4er oder 3.2er erreicht) und weit über dem Performanceniveau normaler Systeme liegt. Nicht gerade optimal für (Grafikkarten-) Vergleiche, wenn man den Einfluss des restlichen Systems noch nicht kennt :) Wobei gerade DU uns diesen dann aufzeigen könntest!!!

Wäre wirklich toll wenn Du den mal ein ganzes Stück runtertaktest. Wie wärs also mal mit Underclocking :) ? (Z. B. auf 2600MHz bei einem FSB800 System und sonst alles auf Default?)

Quasar
2003-08-05, 17:50:16
So, hab' jetzt mal die GFFX5k9u drin:

FPS schwanken ein bißchen, ich hab mal den Bereich angeben.
1024x768, standard: 39 - 44
2xAA / 4xAF: 26 - 30
4xAA / 8xAF: 22 - 27
4xS-AA / 8xAF: 12 - 15 (sieht aber extrem lecker aus...)

LovesuckZ
2003-08-05, 17:56:56
Wenn du einen Treiber von 44.67 - 44.90 benutzt, koenntest du mal mit "UT2003.exe" "benchen"?

Quasar
2003-08-05, 18:24:57
Hm, geht das auch mit dem 44.65er?

edit: Ja,

ohne AA / AF krieg' ich so ~52fps.

LovesuckZ
2003-08-05, 18:26:49
Original geschrieben von Quasar
Hm, geht das auch mit dem 44.65er?

Oehm, probiers :)

Quasar
2003-08-05, 20:04:21
Hab' ich. Ergebnis: s.o.

pervert
2003-08-06, 06:22:15
Original geschrieben von Quasar
Hm, geht das auch mit dem 44.65er?
edit: Ja,
ohne AA / AF krieg' ich so ~52fps.

Als "UT2003.exe" oder wie?

Wie war das mit dem Schwanken? Der Durchschnittswert von "stat fps" pendelt sich logischerweise immer irgendwo ein!?

Quasar
2003-08-06, 06:26:56
Ja, mit UT2003.exe....

Ich weiß jetzt auch, warum Hell so langsam ist... dazu später mehr.

Das Schwanken hat nach ca. 30sek. auch noch nicht aufgehört, deswegen hab ich's mit reingenommen.

pervert
2003-08-06, 06:40:21
Was mir hier auffällt und was ich noch in keinem anderen Benchmark gesehen habe ist, dass die Radeons hier mit vollem trilinearem Filter auf die Hälfte der Performance der Werte mit bilinearem Filter einbrechen. Da traut man sich ja gar nicht mehr den trilinearen überhaupt noch in irgendeinem Game einzuschalten, wenn das so reinknallen kann.

Verstehe schon warum ATI hier optimiert hat und ich finde das sogar sehr sinnvoll, agesichts dieser Ergebnisse hier!

Ich will endlich trilienar filternde TMUs auf den Grakas :D
Sollen eigentlich der NV40 oder die nächste ATI-Generation diese mitbringen?

@Quasar
Waren das bei deinen Messungen "Quality AF" FPS-Werte?

Gast
2003-08-06, 09:30:55
Ja, war es, zumindest, soweit UT2003.exe-AF das zuläßt ;)

Nein, die ersten Werte oben sind natürlich mit quality-AF entstanden und bei Umbenennung in UT2003.exe wird automatisch ein optimierter Filter zugeschaltet, der dem Performance-Modus recht ähnlich ist.


Der Anfang des Hell-Levels ist deswegen so langsam (IMO), weil im Gegensatz zu Innenlevels eine riesige Fläche im ersten Mip-Level dargestellt wird.
Evtl. hatten somit auch die 256MB der GFFX 5900u einen kleinen Vorteil.

pervert
2003-08-06, 10:12:59
Gibt es denn für Unreal2 einen Befehl, mit dem man eine Mipmap Colorierung ähnlich wie bei UT2003 oder Q3-Games erreicht?

Mein Versuch mit dem UT2003 Console Befehl, der hier glaube ich auch im Review über das Cheating genannt wurde, führten leider nur zu ziemlich häßlichen ergebnissen in Unreal2.

Kann es sein, dass die Füllrate der Grafikkarte hier der limitierende Faktor ist (wenn nicht, was dann)? Hat die FX dann rein theoretisch mehr davon als die 9800pro?


Was mich hier eigentlich noch interessiert ist, wie halt die beiden Karten sowhl bi- als auch trilinear gegeneinander performen. Als UT2003.exe werden ja auch die mipmaps zusätzlich nach vorne gezogen, so dass das kein Vergleich ist. Vielleicht kann man notfalls per modifikation in der ini-Datei ein rein bilinears Bild bei der FX erzugen, ansonsten der normale performance modus ohne ut2003.exe!?

Mich ärgert hier einfach wie die 9800pro mit trilinearem filter wegbricht und ich wüsste zu gerne ob es der FX genauso ergeht. Ich gehe davon aus, dass die FX im Gegensatz zur GF4 bilinear wieder deutlich schneller ist?

Mr. Lolman
2003-08-06, 10:34:14
Du glaubst, dass die FX trilinear nicht so stark wegbricht, und gleichzeitig, bilinear viel schneller sein muesste??

Dementsprechend muesste Quasars FX wohl um einiges schneller sein.


Teste doch mal wie schnell deine ATi mit 4xAA 8xTS0 AF ist. (Ich bin mir ziemlich sicher, dass Quasar nur mit Performance AF getestet hat)
Ich kann im Moment leider keine Benches liefern, da mein Windows grad ziemlich am abkacken ist...

V.A ists Tatsache, dass die FXen gerade bei Unreal II erstaunlich langsam performen, da NV anschneinend in dieses Spiel keine Optimierungsarbeit gesteckt hat. (Warum auch, wenns sowieso niemand bencht ;)) *SCNR*

Quasar
2003-08-06, 10:51:31
Original geschrieben von Mr. Lolman
Du glaubst, dass die FX trilinear nicht so stark wegbricht, und gleichzeitig, bilinear viel schneller sein muesste??

Dementsprechend muesste Quasars FX wohl um einiges schneller sein.


Teste doch mal wie schnell deine ATi mit 4xAA 8xTS0 AF ist. (Ich bin mir ziemlich sicher, dass Quasar nur mit Performance AF getestet hat)
Ich kann im Moment leider keine Benches liefern, da mein Windows grad ziemlich am abkacken ist...

V.A ists Tatsache, dass die FXen gerade bei Unreal II erstaunlich langsam performen, da NV anschneinend in dieses Spiel keine Optimierungsarbeit gesteckt hat. (Warum auch, wenns sowieso niemand bencht ;)) *SCNR*

Mr.Lolman,

Ich habe, wie ich oben schrieb, ziemlich sicher mit Quality-AF getestet und die FX ist bei mir schneller in dieser Situation als die R350, das ist Fakt. Tut mir leid, wenn dir das sauer aufstößt.

Performance-AF ist für mich keine Option, wie oft soll ich das noch sagen? Mit weniger als der bestmöglichen Qualität kann ich auch mit meiner GF3 noch bequem zocken.

"Erstaunlich langsam" performt dann ja wohl auch deine Radeon, oder? *SCNR*


@pervert:
Ja, "firstcoloredmip" sieht ein wenig komisch aus, aber nichtsdestotrotz kriegst du zumindest den Übergang zum ersten Mip-Level gut zu sehen (wenn er auch ins dunkle übergeht), und da bewirkt erst eine Umbenennung der unreal2.exe in ut2003.exe eine Aktivierung der angepassten Einstellungen.

Mr. Lolman
2003-08-06, 11:21:55
@Quasar: Sry hab ich wirklich uebersehen, obwohl ich min. 3x nachgekuckt hab. Wenn du's so sagst, dann glaub ich dir das auch. :)

BTW: Alle ATi Benches entstanden mit 6xAA, insofern ist da keine Vergleichbarkeit gegeben, aber wenn ich mein System heute noch zum laufen bringe (im Moment schauts nach 33GB Datenverlust aus:() liefer ich noch Benches nach...

VoodooJack
2003-08-07, 13:51:13
@pervert und Mr. Lolman

Ich wende mich bewusst an euch zwei, da ihr in diesem Thread besonderes Interesse an Unreal2 gezeigt habt und da ihr die gleiche Grafikkarte wie ich (pervert) bzw. fast die gleiche Grafikkarte wie ich (Mr. Lolman) habt.

Als Unreal2 rauskam, spielte ich Unreal2 mit 'ner 9700Pro. In 1600x1200 plus Performance AF. Ohne AA. War flüssig zu spielen und von der Bildqualität war ich sehr angetan.

Seitdem hab ich Unreal2 nicht mehr gespielt. Als nun pervert diesen Thread startete und uns zum Benchen von Hell aufforderte, begann ich mich wieder etwas intensiver mit Unreal2 zu beschäftigen.

Gestern beschloss ich, Unreal2 nochmals durchzuspielen. Diesmal mit meiner 9800Pro. Da die 9800Pro etwas stärker ist als die 9700Pro, fasste ich den Entschluss, in Sachen Bildqualtität etwas zuzulegen. Zum Experimentieren verwendete ich die Hell-Mission.

Als erstes machte ich mich auf die Suche nach Jaggies. Die Waffe war tadellos, aber an der schneebedeckten Bergkante direkt vor meinen Füßen entdeckte ich welche. Also 2xAA zugeschaltet und überprüft. Siehe da, die Jaggies waren weg. Ich war angenehm überrascht und überprüfte zusätzlich weitere Kanten an Geländern, etc. Auch nichts zu entdecken. Auf dieser Entdeckungstour kam ich bis in die große Halle. Ihr wisst schon, die erste große Halle nach dem Lift. Dort wo in einer Ecke die Flammen lodern. Da ich die härteste Stelle des ganzen Spiels bisher einigermaßen flüssig geschafft hatte, ging ich dazu über, die Frage zu klären, ob Quality AF einen Unterschied zu Performance AF machen würde. Und jetzt kommt der Hammer. In der großen Halle machte das einen Unterschied wie Tag und Nacht. Ich bin sofort mit QAF bewaffnet (hehe) tiefer in das Hell-Level vorgedrungen und hab mit offenem Mund den Qualitätsunterschied bestaunt. Kann man schlecht mit Worten beschreiben. Das muss man selbst gesehen haben. Und ich konnte weiterhin flüssig spielen.

Einen solchen Genuss darf man sich nicht entgehen lassen. Ich startete sofort Unreal2 mit folgenden Einstellungen:

- 1600x1200
- 2xAA
- Quality AF
- CP: Einstellungen für Texturen und Mipmap-Details auf "Hohe Qualität"
- im Spiel: das Wesentliche (Video-Optionen, etc.) auf "High", Schatten auf Medium

Ich schaffte gestern noch die Sanctuary Mission, die Swamp Mission und die Hell Mission.

Und warum erzähle ich euch das alles? Nun, falls ihr einen 1600x1200 fähigen Monitor habt, dann würde ich euch bitten, mit obigen Einstellungen das eine oder andere Level, am besten wär eigentlich das Hell Level zwecks besserer Vergleichbarkeit, zu überprüfen. Auch wenn ihr in dieser Auflösung bzw. mit diesen Einstellungen nie und nimmer spielen würdet, würde ich sehr gerne eure Erfahrungen mit 1600x1200 + 2xAA + QAF im Spiel Unreal2 und eure Meinung dazu wissen.

Langer Rede kurzer Sinn: Ich würde gerne wissen, ob ihr auch von der Bildqualität so begeistert seid wie ich?

BlackArchon
2003-08-07, 14:45:48
16x QAF?

ow
2003-08-07, 18:17:37
Original geschrieben von pervert
Frage mich aber ernsthaft welchen technischen Hintergrund das hat, das ReduceMouseLag=True die Grafikkarte verlangsamt...

Der Mouselag entsteht dadurch, dass die Game-Engine schon mehrere Frames an die Graka zum Rendern weitergegeben hat, bevor der Effekt einer Mausbewegung in den Berechnungen zum Tragen kommt.

Um den Mouselag zu reduzieren muss man dann halt unterbinden, dass die Engine zu viele Frames an die Graka schickt, in denen der Mauseinfluss noch garnicht erfasst ist.

Es wird nicht die Graka verlangsamt, sondern eigentlich die Game-Engine.

Nedo
2003-08-07, 18:29:18
Original geschrieben von VoodooJack
@pervert und Mr. Lolman

Ich wende mich bewusst an euch zwei, da ihr in diesem Thread besonderes Interesse an Unreal2 gezeigt habt und da ihr die gleiche Grafikkarte wie ich (pervert) bzw. fast die gleiche Grafikkarte wie ich (Mr. Lolman) habt.

Als Unreal2 rauskam, spielte ich Unreal2 mit 'ner 9700Pro. In 1600x1200 plus Performance AF. Ohne AA. War flüssig zu spielen und von der Bildqualität war ich sehr angetan.

Seitdem hab ich Unreal2 nicht mehr gespielt. Als nun pervert diesen Thread startete und uns zum Benchen von Hell aufforderte, begann ich mich wieder etwas intensiver mit Unreal2 zu beschäftigen.

Gestern beschloss ich, Unreal2 nochmals durchzuspielen. Diesmal mit meiner 9800Pro. Da die 9800Pro etwas stärker ist als die 9700Pro, fasste ich den Entschluss, in Sachen Bildqualtität etwas zuzulegen. Zum Experimentieren verwendete ich die Hell-Mission.

Als erstes machte ich mich auf die Suche nach Jaggies. Die Waffe war tadellos, aber an der schneebedeckten Bergkante direkt vor meinen Füßen entdeckte ich welche. Also 2xAA zugeschaltet und überprüft. Siehe da, die Jaggies waren weg. Ich war angenehm überrascht und überprüfte zusätzlich weitere Kanten an Geländern, etc. Auch nichts zu entdecken. Auf dieser Entdeckungstour kam ich bis in die große Halle. Ihr wisst schon, die erste große Halle nach dem Lift. Dort wo in einer Ecke die Flammen lodern. Da ich die härteste Stelle des ganzen Spiels bisher einigermaßen flüssig geschafft hatte, ging ich dazu über, die Frage zu klären, ob Quality AF einen Unterschied zu Performance AF machen würde. Und jetzt kommt der Hammer. In der großen Halle machte das einen Unterschied wie Tag und Nacht. Ich bin sofort mit QAF bewaffnet (hehe) tiefer in das Hell-Level vorgedrungen und hab mit offenem Mund den Qualitätsunterschied bestaunt. Kann man schlecht mit Worten beschreiben. Das muss man selbst gesehen haben. Und ich konnte weiterhin flüssig spielen.

Einen solchen Genuss darf man sich nicht entgehen lassen. Ich startete sofort Unreal2 mit folgenden Einstellungen:

- 1600x1200
- 2xAA
- Quality AF
- CP: Einstellungen für Texturen und Mipmap-Details auf "Hohe Qualität"
- im Spiel: das Wesentliche (Video-Optionen, etc.) auf "High", Schatten auf Medium

Ich schaffte gestern noch die Sanctuary Mission, die Swamp Mission und die Hell Mission.

Und warum erzähle ich euch das alles? Nun, falls ihr einen 1600x1200 fähigen Monitor habt, dann würde ich euch bitten, mit obigen Einstellungen das eine oder andere Level, am besten wär eigentlich das Hell Level zwecks besserer Vergleichbarkeit, zu überprüfen. Auch wenn ihr in dieser Auflösung bzw. mit diesen Einstellungen nie und nimmer spielen würdet, würde ich sehr gerne eure Erfahrungen mit 1600x1200 + 2xAA + QAF im Spiel Unreal2 und eure Meinung dazu wissen.

Langer Rede kurzer Sinn: Ich würde gerne wissen, ob ihr auch von der Bildqualität so begeistert seid wie ich?
Hey VoodooJack :)
Hast du Quality AF vom CP eingeschaltet?
Wenn ja lässt sich die Qualität noch weiter steigern. Mit dem neuen rTool gibts ja jetzt die einstllungen AF TS (so wie im CP) und RICHTIGES TriAF
(TS, da is nur die Stufe 0 mit TriAF gefilter, der rest mit BiAF)
und bei dem richtigen TriAF gehts zwar n bisschen weiter runter, sieht aber nochmal besser aus :)

PS.: ich installier jetz auch nochmal :)

pervert
2003-08-07, 20:48:42
@Voodoojack

Also eigentlich gehts mir nicht darum das Spiel doll spielen zu können. Das ist mir sogar völlig egal - denn eine bessere Grafikkarte gibts eh nicht! Ich wollte nur austesten und klären was zur Hölle in "Hell" los ist (nobelpreisverdächtiges Wortspiel, gell? :))!

Aber mal ganz im Ernst, hast Du gerade was getrunken? :D

Der Unterschied zwichen performance AF = bi und quality AF = teil-tri ist praktisch kaum zu sehen und äußert sich in den meisten Fällen gerade mal in seltenem Pixelflimmern an den Mipübergängen die auch bei quality AF sichtbar sein können (auf den anderen "TS")! Also was hat dich bitteschön am Qualiätsmodus so begeistert?? ?? ?? ??

@OW
Ich weiss wie Mouselag zustande kommt, wollte nur wissen warum die Funktion IM SPIEL das spiel verlangsamt. Durch das herabsetzen des prerender limits bei NV Karten ist mir bisher kein Performanceunterschied aufgefallen - oder denkst Du da müsste eigentlich der gleiche Zustande kommen?

Nedo
2003-08-07, 20:58:42
wie scheisse is das eigentlich programmiert. in 1600x1200 isses für mich unspielbar. da gehn die fps gut mal unter 20fps.
in 1024x768 2xAA 16xTriTSAF:
wenn da n gegner kommt sinken meine fps auf 25. wenn ich dann noch schiess.. gute nacht ;D.
ABER: die bildqualität ist echt berauschend bei 1600x1200
hammer.

VoodooJack
2003-08-07, 21:29:25
Original geschrieben von pervert
@Voodoojack

Also eigentlich gehts mir nicht darum das Spiel doll spielen zu können. Das ist mir sogar völlig egal - denn eine bessere Grafikkarte gibts eh nicht! Ich wollte nur austesten und klären was zur Hölle in "Hell" los ist (nobelpreisverdächtiges Wortspiel, gell? :))!

Aber mal ganz im Ernst, hast Du gerade was getrunken? :D

Der Unterschied zwichen performance AF = bi und quality AF = teil-tri ist praktisch kaum zu sehen und äußert sich in den meisten Fällen gerade mal in seltenem Pixelflimmern an den Mipübergängen die auch bei quality AF sichtbar sein können (auf den anderen "TS")! Also was hat dich bitteschön am Qualiätsmodus so begeistert?? ?? ?? ??


Nichts überprüft von dem, was ich dir erzählt hab, aber beleidigende Fragen stellen!

Ich bedauere, dass ich dich angesprochen habe. Wird nicht mehr vorkommen.

pervert
2003-08-07, 21:49:20
Meine Güte, bist Du sensibel! War doch nur Spass! Da war deutlich sichtbar ein Smiley!

Ich kann nicht auf 1600x1200 testen, habe im Moment einen 17" Monitor dran - sorry!

Trotzdem wäre es interessant, was mit tri plötzlich so toll bei Dir aussieht :)

Nedo
2003-08-08, 10:52:16
Original geschrieben von pervert
Meine Güte, bist Du sensibel! War doch nur Spass! Da war deutlich sichtbar ein Smiley!

Ich kann nicht auf 1600x1200 testen, habe im Moment einen 17" Monitor dran - sorry!

Trotzdem wäre es interessant, was mit tri plötzlich so toll bei Dir aussieht :)
voodoojack hat da schon recht, es gibt einfach keine unschönen übergänge mehr. in unreal 2 sieht man das vor allem auf dem boden. entweder bei sollchen rippen auf dem boden oder solche metallmuster.
@VoodooJack
Wie viele fps hast du ganz am anfang von HELL mit 1600x1200 2xAA 16xTriAF (CP) wenn du auf das gebäude schaust?

VoodooJack
2003-08-08, 12:18:22
Original geschrieben von Nedo
voodoojack hat da schon recht, es gibt einfach keine unschönen übergänge mehr. in unreal 2 sieht man das vor allem auf dem boden. entweder bei sollchen rippen auf dem boden oder solche metallmuster.
@VoodooJack
Wie viele fps hast du ganz am anfang von HELL mit 1600x1200 2xAA 16xTriAF (CP) wenn du auf das gebäude schaust?

An dieser Stelle hatte ich 17 fps. Zähflüssig, aber ruckelfrei. Ansonsten spiele ich Unreal2, hab schon wieder 7 Missions geschafft, so zwischen 30 und 100 fps. Durchschnitt dürfte bei 60 fps liegen.

Nedo, es freut mich, dass du a) einen 1600x1200 fähigen Monitor hast und dass du b) auch den Unterschied zwischen Bi- und Trilinear in den Texturen von Unreal2 erkennst. Wie ich schon weiter oben sagte, das muss man mit eigenen Augen gesehen haben. Ich finde, ATI's Methode, nur die erste Textur-Schicht, auch Layer genannt, in Trilinear zu filtern, ist völlig ausreichend. Die anderen Layers auch noch trilinear zu filtern würde nur unnötige Rechenarbeit erfordern bzw. unnötige Performance kosten. Entscheidend ist doch, was dabei rauskommt. Und das ist in diesem Fall ein optischer Leckerbissen.

Zusätzlich zu dem, was dir an den Bodentexturen aufgefallen ist, sind mir noch einige weitere Verbesserungen aufgefallen, nämlich viel detailgetreuere Wandtexturen und sattere Farben. Wenn du mal Zeit und Lust hast, dann überprüf meine Angaben. Wo? Achte schon im Gang nach dem Lift darauf und dann in der großen Halle. Du kannst natürlich auch jedes andere Level hernehmen, z. B. das sumpfartige Swamp-Level oder das marsähnliche Sulferon-Level oder das traumhaft schöne Na Koja Abad-Level.

pervert
2003-08-08, 12:40:52
Detailiertere Wandtexturen und sattere Farben durch trilineares Filtering??

SCREENSHOTS bitte, das ist ja wohl ziemlich unmöglich!


Die beschriebenen Effekte am Boden treten aber nunmal nicht in jedem Spiel auf , da es eben nicht überall solche Gitterstrukturen als Bodentextur gibt etc. bla bla. Aber ich bin auch nach wie vor der Meinung (wie Ihr), trilinear nur auf TS0 (CP: quality) ist der beste Kompromiss. Wer Angst vor schlechter Performance hat und die optischen Auswirkungen kennt, sollte lieber bilinear spielen bis es ihm negativ auffällt (ganz allgemein, weniger auf U2 bezogen).

Ehrlich gesagt wundere ich mich über die scheinbar hohe Qualität eurer Monitore, wenn euch bei 1600x1200 die genannten Effekte noch auffallen. Normalerweise ist das LOD in dieser hohen Auflösung schon so weit in die Tiefe verschoben und das Bild zudem auch nicht mehr so 100% scharf, dass diese Fehler längst nicht mehr so extrem auffallen wie in niedrigeren Auflösungen...

Nedo
2003-08-08, 14:32:10
Die gute Bildqualität in dem Raum kommt denk ich mla auch stark von den 1600x1200.
jaa, 1600x1200 ist seeehr scharf.
Die TS Methode von ATi genügt schon, aber zB in motogp 2 wird mit dieser weiße die straße BiAF gefiltert, was sehr schlecht aussieht in einem rennspiel. hier greif ich zum "richtigen" TriAF