PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 1. Oblivion Benchmark-Test!


Seiten : [1] 2 3

PingpiN
2006-04-04, 19:57:59
http://www.firingsquad.com/hardware/oblivion_high-end_performance/

Single:ATI hui NVIDIA pfui
DOUBLE:ATI pfui NVIDIA hui
..

up¦²
2006-04-04, 20:04:03
Catalyst 6.4 bringt CrossFire für Obvilion :smile:

Frank1974
2006-04-04, 20:13:15
Wenn man eine 1900XT hat, so wie ich, dann sehen die Ergebnisse sehr gut aus :smile:, ich schätze so wie die Ergebnisse aussehen, wird Crossfire noch gar nicht richtig unterstützt bei Oblivion, oder :|.

Ist aber ein schöner Vergleich, wird es wohl auch eine Timedemo oder so, für uns normale User geben, oder können wir das nur anhand von Savegames und Standbildern vergleichen :rolleyes:.

MFG
Frank

Gast
2006-04-04, 20:15:41
ich schätze so wie die Ergebnisse aussehen, wird Crossfire noch gar nicht richtig unterstützt bei Oblivion, oder :|.Das ist ja gerade das Problem bei Crossfire. Man kann keine eigenen Profile erstellen und ist so auf ATI angewiesen. Das einzige was einem bleibt, ist .exe-Renaming. Bringt manchmal gute Ergebnisse, manchmal aber auch nur Probleme.

PingpiN
2006-04-04, 20:18:37
Catalyst 6.4 bringt CrossFire für Obvilion :smile:

Schade das man immer drauf warten muss aber wenn die ergebnisse dann wie bei denn Single Cards aussehen hat sich das warten gelohnt.

Super Grobi
2006-04-04, 20:26:44
Was habt ihr alle mit euern Cata 6.4 ??? Gibts den irgentwo? Nö, also.

Topic:
Ich hab von einem 7800GT SLI Gespann auf eine X1900XTX gewechselt und habe auch mehr FPS. Zwar sind die max. FPS jetzt niedriger, aber dafür sind die min. FPS jetzt höher!

SG

Frank1974
2006-04-04, 20:39:49
Was habt ihr alle mit euern Cata 6.4 ??? Gibts den irgentwo? Nö, also.

Man muss das ein wenig anders sehen, Nvidia hat 1 Jahr oder sogar mehr Vorsprung mit SLI, Ati wird mit jedem Treiber den sie rausbringen, Crossfire immer weiter verbessern, Nvidia hat da nicht mehr soviel auszubessern, wenn Nvidia bei einem Game mit SLI 80-90% Mehrleistung bringt, geht nicht viel mehr, ATI ist da aber noch nicht soweit, wenn ich mir die Benches in vielen Spielen anschaue, Crossfire wird immer näher an SLI rankommen, aber Nvidia hat ja mit Quad-SLI, schon die nächste Ausbaustufe :rolleyes:.

MFG
Frank

PHuV
2006-04-04, 20:39:50
Puhhh, ich dachte schon, der teure Umstieg auf 7900 GTX mit SLI wäre ein Fehlkauf...., Glück gehabt ;) .

PingpiN
2006-04-04, 20:42:35
Puhhh, ich dachte schon, der teure Umstieg auf 7900 GTX mit SLI wäre ein Fehlkauf...., Glück gehabt ;) .

Ja war defenetiv kein fehlkauf (bis auf die Bildquali).(will auch haben)

Kladderadatsch
2006-04-04, 20:46:51
als vergleich ok, repräsentativ sind die werte trotzdem nicht. 1280x1024 mit hdr und 8xaf ist mit einer 7900gtx zu 90% unspielbar.

ati vs. nv würde ich sagen, dass der eine mal da, der andere mal da schneller ist. überraschend finde ich auch, dass nv unter aa und af teils wirklich gewinnt. tendenziell tendiert die tendenz aber natürlich zu ati;)

svenw
2006-04-04, 20:48:20
Man muss das ein wenig anders sehen, Nvidia hat 1 Jahr oder sogar mehr Vorsprung mit SLI, Ati wird mit jedem Treiber den sie rausbringen, Crossfire immer weiter verbessern, Nvidia hat da nicht mehr soviel auszubessern, wenn Nvidia bei einem Game mit SLI 80-90% Mehrleistung bringt, geht nicht viel mehr, ATI ist da aber noch nicht soweit, wenn ich mir die Benches in vielen Spielen anschaue, Crossfire wird immer näher an SLI rankommen,

Was micht wirklich wundert ist, wie weit Crossfire SLI hinterher hinkt. UNd das das nicht relativ schnell abgestellt wird. Entweder gibt es da ein Monsterproblem im Treiber oder der Wurm steckt in der Hardware. Da ein TReiberproblem wesentlich schneller zu lösen ist, würde ich eher auf ein HArdware Problem tippen. Es wird auch schon seinen Grund haben das es angeblich für den 600er keine Masterkarte mehr geben soll, sondern das ganze in den Chip integriert wird.

Frank1974
2006-04-04, 20:56:59
als vergleich ok, repräsentativ sind die werte trotzdem nicht. 1280x1024 mit hdr und 8xaf ist mit einer 7900gtx zu 90% unspielbar.

Naja, mit einer 1900XT ist es im Grenzbereich würde ich sagen, aber ich weiß ja nicht, was du als unspielbar bezeichnest, bei Oblivion würde ich sagen sind 20fps minimum, so gerade noch akzeptabel, ist ja eh ein langsames Game, und kein schneller Ego-Shooter wo man 60fps+ braucht.

MFG
Frank

Kladderadatsch
2006-04-04, 20:59:08
Naja, mit einer 1900XT ist es im Grenzbereich würde ich sagen, aber ich weiß ja nicht, was du als unspielbar bezeichnest, bei Oblivion würde ich sagen sind 20fps minimum, so gerade noch akzeptabel, ist ja eh ein langsames Game, und kein schneller Ego-Shooter wo man 60fps+ braucht.

MFG
Frank
ja, mit 20 gebe ich mich zufrieden. aber im dichten wald + gras sind 12x10 nicht drin. (noch nicht mal mit 2xaf, wo das bei nv karten in oblivion doch angeblich so viel frisst)

Mr. Lolman
2006-04-04, 21:00:42
ati vs. nv würde ich sagen, dass der eine mal da, der andere mal da schneller ist. überraschend finde ich auch, dass nv unter aa und af teils wirklich gewinnt.

Ja, in 1024 und Indoor :|

Kladderadatsch
2006-04-04, 21:04:13
Ja, in 1024 und Indoor :|
wie auch im mountains area-bench...mit nv ist man nunmal zum vampir prädestiniert:tongue:

es war ja schon vor dem release klar, zumindest, wenn man jenen benchmarks glauben schenken mochte, dass oblivion eher ein game für ati-karten wird. und die bisherigen erfahrungsberichte der jeweiligen kartenbesitzer sprechen auch dafür. von daher sind die ergebnisse nicht wirklich überraschend, weshalb man als geforce-besitzer ja wohl seine karte ein wenig in schutz nehmen darf:P ;)

Frank1974
2006-04-04, 21:05:03
Was micht wirklich wundert ist, wie weit Crossfire SLI hinterher hinkt. UNd das das nicht relativ schnell abgestellt wird. Entweder gibt es da ein Monsterproblem im Treiber oder der Wurm steckt in der Hardware. Da ein TReiberproblem wesentlich schneller zu lösen ist, würde ich eher auf ein HArdware Problem tippen. Es wird auch schon seinen Grund haben das es angeblich für den 600er keine Masterkarte mehr geben soll, sondern das ganze in den Chip integriert wird.

Ich habe doch geschrieben, das ATI mehr als 1 Jahr aufzuholen hat, das geht nicht mit 1-2 Treibern :rolleyes:, außerdem finde ich das Nvidia eh besser bei den Treibern ist, siehe nur OpenGL, für mich hat ATI im Moment die beste Hardware(sry ich hab den Standardkühler vergessen, der ist das einzig schlechte an der Karte :wink:), aber wohl auch das schlechteste Treiberteam was es gibt, man kann wahrscheinlich viel mehr aus den ATIs holen.

MFG
Frank

Gast
2006-04-04, 21:09:06
ati vs. nv würde ich sagen, dass der eine mal da, der andere mal da schneller ist. überraschend finde ich auch, dass nv unter aa und af teils wirklich gewinnt.

was ist daran überraschend, die 7900GTX hat immerhin ~50% mehr texelfüllrate.

Kladderadatsch
2006-04-04, 21:12:08
was ist daran überraschend, die 7900GTX hat immerhin ~50% mehr texelfüllrate.
ich weiß nicht, wie oft ich gelesen habe, dass die x1900xtx unter aa/af ach so schnell wäre, bzw. die 7900gtx diesbezüglich kein land sehen würde. daher wollte ich jenes ergebnis ein wenig hervorheben;) *siehe letzten beitrag*

Raff
2006-04-04, 21:13:22
was ist daran überraschend, die 7900GTX hat immerhin ~50% mehr texelfüllrate.

Die aber blockiert wird, wenn die ALUs überfordert sind. Zudem verbrät Nvidia mehr VRAM mit MSAA und bricht idR mehr ein als eine vergleichbare Radeon.

MfG,
Raff

Matrix316
2006-04-04, 21:13:46
Eigentlich wollte ich mir ja irgendwann Oblivion mal kaufen, aber bei den Werten muss doch eher eine neue Grafikkarte her. ;)

Raff
2006-04-04, 21:15:40
Ich hab's auch vorerst aufs Abstellgleis befördert, bis (wahrscheinlich) ein R580 im Rechner steckt. Sonst macht das keinen Spaß ... alle Details müssen schon rein.

MfG,
Raff

The_Invisible
2006-04-04, 21:25:34
ja, mit 20 gebe ich mich zufrieden. aber im dichten wald + gras sind 12x10 nicht drin. (noch nicht mal mit 2xaf, wo das bei nv karten in oblivion doch angeblich so viel frisst)

hm, ich hab seit anfang an 1400x1050, 16xAF, HDR drinnen mit max. Details (außer gras und körperschatten) und komm damit eigentlich mehr recht als schlecht zusammen (bin allerdings auch "gothic2 + khorinis" geprägt :D)

mfg

Kladderadatsch
2006-04-04, 21:28:55
hm, ich hab seit anfang an 1400x1050, 16xAF, HDR drinnen mit max. Details (außer gras und körperschatten) und komm damit eigentlich mehr recht als schlecht zusammen (bin allerdings auch "gothic2 + khorinis" geprägt :D)

mfg
gras und körperschatten sind bei mir zwar voll auf, aber ich dachte, dass betrifft eher die cpu? aber ich mache mal schnell ein paar screens mit deinen settings;)

1360x768 @10x7 (1400x1050 ist scheinbar keine standard-auflösung). daher nur 1360x786, hdr, 16xaf, schatten jeweils zu 3/4 auf, q:
http://img129.imageshack.us/img129/6270/oblivion20060404213232394gr.jpg

und schon da hart an der grenze...

The_Invisible
2006-04-04, 22:25:26
gras und körperschatten sind bei mir zwar voll auf, aber ich dachte, dass betrifft eher die cpu? aber ich mache mal schnell ein paar screens mit deinen settings;)

1360x768 @10x7 (1400x1050 ist scheinbar keine standard-auflösung). daher nur 1360x786, hdr, 16xaf, schatten jeweils zu 3/4 auf, q:
http://img129.imageshack.us/img129/6270/oblivion20060404213232394gr.jpg

und schon da hart an der grenze...

das mit den schatten könnte es natürlich sein, das frisst wirklich viel leistung... aber was du da zeigst is ja eigentlich schon fast der extremfall

ich taumel eignetlich fast immer zwischen 30-40fps rum

mfg

Gast
2006-04-04, 22:26:53
Die aber blockiert wird, wenn die ALUs überfordert sind. Zudem verbrät Nvidia mehr VRAM mit MSAA und bricht idR mehr ein als eine vergleichbare Radeon.



nö, es ist genau umgekehrt, das textursampling blockiert die ALU nicht die ALU die TMU, und das was man mehr an VRAM mit FSAA braucht spart man auf der anderen seite bei der benötigten bandbreite ein.

Frank1974
2006-04-04, 23:37:09
gras und körperschatten sind bei mir zwar voll auf, aber ich dachte, dass betrifft eher die cpu? aber ich mache mal schnell ein paar screens mit deinen settings;)

1360x768 @10x7 (1400x1050 ist scheinbar keine standard-auflösung). daher nur 1360x786, hdr, 16xaf, schatten jeweils zu 3/4 auf, q:
http://img129.imageshack.us/img129/6270/oblivion20060404213232394gr.jpg

und schon da hart an der grenze...

Hast du das Savegame von der Stelle, ich würde es gerne mal mit meiner XT anschauen, ich habe aber auch einen 3700+@2650MHz, das könnte vielleicht auch was ändern, aber die Stelle da mit dem vielen Gras müsste eher GPU limitiert sein.

MFG
Frank

Ronny145
2006-04-04, 23:51:37
Und vermutlich mit Quality getestet. Mit HQ bricht meine 7800 GT nochmal ziemlich ein. Mich wundern die Indoor Benches der X1800XT. Langsamer als die 7800 GTX.

Kladderadatsch
2006-04-05, 08:21:44
Hast du das Savegame von der Stelle, ich würde es gerne mal mit meiner XT anschauen, ich habe aber auch einen 3700+@2650MHz, das könnte vielleicht auch was ändern, aber die Stelle da mit dem vielen Gras müsste eher GPU limitiert sein.

MFG
Frank
sry, die finde ich jetzt auch nicht mehr. ich habe aber ein neues gemacht:
http://rapidshare.de/files/17238096/Save_33_-_Hannes_-_Der_Grosse_Forst__Level_1__Playing_Time_08.35.21.ess.html

an genau dieser stelle habe ich wieder 20 fps. (weniger 'finde' ich nicht;))
settings: 1280x1024, max. details, nur schatten 3/4, 4xaf, q

Undertaker
2006-04-05, 09:10:48
Und vermutlich mit Quality getestet. Mit HQ bricht meine 7800 GT nochmal ziemlich ein. Mich wundern die Indoor Benches der X1800XT. Langsamer als die 7800 GTX.

evntl kostet hq indoor ja besonders viel? naja, eigentlich auch egal, jede karte ab ner x1800xl/7800gt sollte indoor durchgängig >30fps liefern können -> wayne...

Ronny145
2006-04-05, 09:43:24
evntl kostet hq indoor ja besonders viel? naja, eigentlich auch egal, jede karte ab ner x1800xl/7800gt sollte indoor durchgängig >30fps liefern können -> wayne...


Nein, ohne AF sieht es genauso aus und die X1900 sieht deutlich besser aus. Die Min FPS ist bis 35 FPS besser. Da liegt die X1800XT fast gleichauf mit der 7800 GT.

Henroldus
2006-04-05, 09:47:00
gras und körperschatten sind bei mir zwar voll auf, aber ich dachte, dass betrifft eher die cpu? aber ich mache mal schnell ein paar screens mit deinen settings;)

1360x768 @10x7 (1400x1050 ist scheinbar keine standard-auflösung). daher nur 1360x786, hdr, 16xaf, schatten jeweils zu 3/4 auf, q:

und schon da hart an der grenze...

stört hier eigentlich nicht die Fackel auch etwas?
die solltest du bei tageslicht eigentlich abschalten.
in den dungeons werden doch die wände extrem angeleuchtet mit fackel und vielleicht das gras dann auch, obwohl man am tag davon fast nichts sieht.
Könnte mir vorstellen, das zieht auch etwas leistung
war nur ne idee! :cool:

Odal
2006-04-05, 09:58:05
naja der Test bringt ja nicht wirklich was neues...wie es ungefähr aussieht konnten wir in dem einen Diagramm im Spekuforum hier:

http://img425.imageshack.us/img425/6246/12ez.jpg

schon sehen

Gast
2006-04-05, 10:25:00
Zudem verbrät Nvidia mehr VRAM mit MSAA und bricht idR mehr ein als eine vergleichbare Radeon.

MfG,
Raff

ALso das halte ich für Nebensächlich, solange man unter 1600*1200 und 4xAA bleibt langen 256MB, das ist auch bei ATI nicht anders wenn man höher geht brechen Radeons genauso ein weil der VRAM ausgeht.

tombman
2006-04-05, 10:38:45
Den Tests könnts vergessen, da FS kein .exe renaming betreibt. Bei mir rennt Crossfire mit sam2.exe sehr wohl im AFR Modus mit schöner Skalierung...

r@w
2006-04-05, 10:53:21
http://www.firingsquad.com/hardware/oblivion_high-end_performance/

Single:ATI hui NVIDIA pfui
DOUBLE:ATI pfui NVIDIA hui
..
:hammer:

Und wieder einer, der nicht mitbekommen hat, dass es mehr ein Vergleich "512MB vs. 256MB" ist, der da gezeigt wurde.

Eigentlich wollte ich mir ja irgendwann Oblivion mal kaufen, aber bei den Werten muss doch eher eine neue Grafikkarte her. ;)
Und eine neue CPU.
Grafikkarte hin oder her... vieles ist in Oblivion CPU-limitiert... und bringt nicht einmal DC-Unterstützung mit.

Ich hab's auch vorerst aufs Abstellgleis befördert, bis (wahrscheinlich) ein R580 im Rechner steckt. Sonst macht das keinen Spaß ... alle Details müssen schon rein.
Mit 'ner 7900GT in 1280 überhaupt kein Problem!
:D

Razor

Ronny145
2006-04-05, 11:02:48
Und eine neue CPU.
Grafikkarte hin oder her... vieles ist in Oblivion CPU-limitiert... und bringt nicht einmal DC-Unterstützung mit.



Selbst mit meiner 7800 GT bin ich fast immer GPU limitiert. Er hat eine 6800 GS. Eine neue Grafikkarte würde viel bringen.


Und wieder einer, der nicht mitbekommen hat, dass es mehr ein Vergleich "512MB vs. 256MB" ist, der da gezeigt wurde.


Nein, zumindestens bis 1280x1024 macht das nichts aus. Erst mit ein paar ini Tweaks kommt man drüber.

r@w
2006-04-05, 11:10:52
Den Tests könnts vergessen, da FS kein .exe renaming betreibt. Bei mir rennt Crossfire mit sam2.exe sehr wohl im AFR Modus mit schöner Skalierung...
Wird gerade nachgeholt... siehe Update im Fazit.

Selbst mit meiner 7800 GT bin ich fast immer GPU limitiert. Er hat eine 6800 GS. Eine neue Grafikkarte würde viel bringen.

Allerdings hat er auch 'nur' eine SC 2GHz CPU im Rechner... auch da würde ein +40% Update helfen.

Nein, zumindestens bis 1280x1024 macht das nichts aus. Erst mit ein paar ini Tweaks kommt man drüber.Das habe ich jetzt nicht wirklich verstanden...
- was für Tweaks?
- wo 'drüber'?
:confused:

Razor

Ronny145
2006-04-05, 11:24:19
Das habe ich jetzt nicht wirklich verstanden...
- was für Tweaks?
- wo 'drüber'?
:confused:

Razor


Um die Grafik zu verbessern. Der Texturmod oder uGridsToLoad um die Matchtexturen zu verbessern. Das verbraucht mehr Speicher.

r@w
2006-04-05, 11:56:48
Um die Grafik zu verbessern. Der Texturmod oder uGridsToLoad um die Matchtexturen zu verbessern. Das verbraucht mehr Speicher.
Hab' ich mir grade gestern angeschaut...
Also Shajas TextureLOD-Mod und auch noch das Zeug von dem anderen Kerl... was die Schatten wieder gerade biegt.
Kein Problem!
Hmmm...

Also noch fehlt mir da kein GraKa-RAM...
...aber bitte immer bedenken: mehr als 1280x1024 ist da bei mir nicht drin!

Razor

r@w
2006-04-05, 11:57:43
OK, des "Grid2Load" Zeug muss ich mir nochmal anschaun'...
Soll das nicht irgendwelche Probleme machen?

Spasstiger
2006-04-05, 12:05:42
Eigentlich wollte ich mir ja irgendwann Oblivion mal kaufen, aber bei den Werten muss doch eher eine neue Grafikkarte her. ;)
Man kann sichs auch auf Mittelklasse einigermaßen zurecht tunen, auf einer GeForce 6800 sogar brauchbar mit aktivem HDR-Rendering.
Auf meiner Radeon 9700 spiele ich mit vollen Texturdetails und mit Sicht bis praktisch zum Horizont. Allerdings ohne Gebäudedarstellung in der Ferne und mit relativ schwachem Bewuchs. Gras habe ich an, allerdings auch nur relativ weit verteilt, dafür so, dass einem der Übergang zum graslosen nicht gleich ins Auge sticht. So spiele ich in 1024x768 mit 4:1 AF und es ist recht brauchbar und macht auf jeden Fall Spass.

Habt ihr bei den Benchmarks den Unterschied gesehen zwischen X1800 XT und X1900 XTX in der Indoor-Szene? Die X1900 XTX ist bis zu 56% schneller, außergewöhnlich.

Undertaker
2006-04-05, 12:09:43
Man kann sichs auch auf Mittelklasse einigermaßen zurecht tunen, auf einer GeForce 6800 sogar brauchbar mit aktivem HDR-Rendering.
Auf meiner Radeon 9700 spiele ich mit vollen Texturdetails und mit Sicht bis praktisch zum Horizont. Allerdings ohne Gebäudedarstellung in der Ferne und mit relativ schwachem Bewuchs. Gras habe ich an, allerdings auch nur relativ weit verteilt, dafür so, dass einem der Übergang zum graslosen nicht gleich ins Auge sticht. So spiele ich in 1024x768 mit 4:1 AF und es ist recht brauchbar und macht auf jeden Fall Spass.

Habt ihr bei den Benchmarks den Unterschied gesehen zwischen X1800 XT und X1900 XTX in der Indoor-Szene? Die X1900 XTX ist bis zu 56% schneller, außergewöhnlich.

jop, sehr merkwürdig, zumal der unterschied in 1280x1024 in der gleichen szene sehr viel geringer war... :|

r@w
2006-04-05, 12:24:17
Kommt halt vermutlich dabei heraus, wenn solche "Benchmarks" mit nicht gleichförmigen Abläufen und eben Fraps macht.
Ich halte von solcherart "Tests" überhaupt nichts...

Dann schon eher ein SaveGame einer bestimmten Stelle hernehmen und schauen, was sich da am InGame-Counter tut, wenn sich die Scene 'beruhigt' hat. IMO ist da der Aussagewert sehr viel höher, als dieser Friggelkram... zumlal ich Fraps ohnehin nicht über den Weg traue.

Razor

P.S.: daran ändert auch der Hinweis nichts, dass man jeden Durchlauf 10x gemacht hat, um schlußendlich den Mittelwert zu nehmen... was für ein Unsinn.

The_Invisible
2006-04-05, 13:57:54
früher hat man sowieso mal gesagt das oblivion nicht "benchbar" ist da immer alles "random"-mäßig dargestellt wird, und jetzt gehts auf einmal?

naja, zeiten ändern sich :D

mfg

Gast
2006-04-05, 14:46:32
http://www.firingsquad.com/hardware/oblivion_high-end_performance/

Single:ATI hui NVIDIA pfui
DOUBLE:ATI pfui NVIDIA hui
..
Ich würde eher sagen:
256 MByte Pfui
512 MByte Hui


=)
Q

reunion
2006-04-05, 15:07:31
Den Tests könnts vergessen, da FS kein .exe renaming betreibt. Bei mir rennt Crossfire mit sam2.exe sehr wohl im AFR Modus mit schöner Skalierung...

Warum sollte es auch anders sein? Wenn AFR bei SLi funktioniert, tut es das auch bei CF, sofern das entspechende Profil vorhanden ist.

Ich würde eher sagen:
256 MByte Pfui
512 MByte Hui


=)
Q


Das erklärt dann auch die bescheidene Leistung meiner 6600GT 128. X-D
Wobei die 7900GTX trotz 512MB VRAM in hohen Auflösungen doch ziemlich abfällt.

r@w
2006-04-05, 15:31:40
früher hat man sowieso mal gesagt das oblivion nicht "benchbar" ist da immer alles "random"-mäßig dargestellt wird, und jetzt gehts auf einmal?

naja, zeiten ändern sich :D
DAS kommt ja noch dazu!
Aber Reden hilft hier wohl nicht...

Ich würde eher sagen:
256 MByte Pfui
512 MByte Hui
=)
Wie ich schon sagte...
:up:

Warum sollte es auch anders sein? Wenn AFR bei SLi funktioniert, tut es das auch bei CF, sofern das entspechende Profil vorhanden ist.
Und das gilt dann auch für AFR2?
:confused:

Razor

Gast
2006-04-05, 15:55:43
Wobei die 7900GTX trotz 512MB VRAM in hohen Auflösungen doch ziemlich abfällt.

Ich kann dir garantieren, das es nicht am VRAM liegt, sondern ein generelles Problem der 7800/7900 Serie darstellt.

Bisher war es nämlich so, das die 7800/7900 Serie gegenüber der X1800/X1900 immer mehr an Boden verliert, je höher die Auflösung und je höher das AA+AF geschraubt wird.

Hier ist es ganz gut zu beobachten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/17/#abschnitt_performancerating
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating

Scheinbar geht ATI sparsamer mit der Speicherbandbreite um, oder wie immer man sich das erklären mag.

Gast
2006-04-05, 16:45:16
Mist!

Jetzt war für mich schon klar das die 7900gt her muss.(alleine schon wegen der geilen overclocking Performance)

Und nu schon wieder halblang!

@Razor
Bist Du zufrieden mit deiner 7900GT?

Hüh, Hot!

dilated
2006-04-05, 17:29:14
nvidia kauft doch keiner mehr jetzt wo ati sm3,hdr hat *gg*, nur spass

ich würd ja 1800xt nehmen,weil hdr+aa,area af

die 7900gt is schneller, aber preis/qual/leistungssieger is für mich 1800xt

oder eben gleich die 1900 kaufn..(da fehlt irgendwas dazwischen..im angebot von ati imo,1900gto würd ichs nennen)

Frank1974
2006-04-05, 18:19:01
sry, die finde ich jetzt auch nicht mehr. ich habe aber ein neues gemacht:
http://rapidshare.de/files/17238096/Save_33_-_Hannes_-_Der_Grosse_Forst__Level_1__Playing_Time_08.35.21.ess.html

an genau dieser stelle habe ich wieder 20 fps. (weniger 'finde' ich nicht;))
settings: 1280x1024, max. details, nur schatten 3/4, 4xaf, q

Danke =)

Test mit 1900XT@Standard A64 3700+getestet von 2000-2800MHz
1280x1024, Rest siehe unten auf den Bildern, 4xaf,AI-Standard Cat 6.3

Aber das Game ist wohl wirklich nicht Benchbar, bei ersten laden des Savegames hatte ich 21fps beim 2 mal 26fps :|.
Naja wie auch immer :rolleyes:, dann habe ich noch schnell die CPU getestet von 2000-2800MHz waren immer ungefähr dieselben Werte, also ist die Stelle zu 100% GPU limitiert, soviel weiß ich schonmal :wink:.

Hier nochmal ein paar Bilder von meinen Einstellungen, damit auch jeder weiß was fast Maximal bedeutet, ich glaube einige schauen Ingame gar ned ins Grafikmenü :rolleyes:.

http://img300.imageshack.us/img300/152/oblivioneinstellung15zc.th.jpg (http://img300.imageshack.us/my.php?image=oblivioneinstellung15zc.jpg) http://img317.imageshack.us/img317/4374/oblivioneinstellung23zn.th.jpg (http://img317.imageshack.us/my.php?image=oblivioneinstellung23zn.jpg) http://img300.imageshack.us/img300/7905/oblivioneinstellung30ix.th.jpg (http://img300.imageshack.us/my.php?image=oblivioneinstellung30ix.jpg) http://img300.imageshack.us/img300/407/oblivioneinstellung45dd.th.jpg (http://img300.imageshack.us/my.php?image=oblivioneinstellung45dd.jpg)


MFG
Frank

Kladderadatsch
2006-04-05, 18:29:12
Danke =)

Test mit 1900XT@Standard A64 3700+getestet von 2000-2800MHz
1280x1024, Rest siehe unten auf den Bildern, 4xaf,AI-Standard Cat 6.3

Aber das Game ist wohl wirklich nicht Benchbar, bei ersten laden des Savegames hatte ich 21fps beim 2 mal 26fps :|.
Naja wie auch immer :rolleyes:, dann habe ich noch schnell die CPU getestet von 2000-2800MHz waren immer ungefähr dieselben Werte, also ist die Stelle zu 100% GPU limitiert, soviel weiß ich schonmal :wink:.

interessant. ich hatte gerade nach dem laden plötzlich auch 22 fps, statt 20. 20 waren es allerdings wieder, nachdem ich mich einmal um 360° drehte;)
mit der fackel in der hand sind es übrigens 18.

naja, schön zu sehen, dass ati in oblivion doch nicht so viel schneller ist:wink:

Frank1974
2006-04-05, 18:49:46
interessant. ich hatte gerade nach dem laden plötzlich auch 22 fps, statt 20. 20 waren es allerdings wieder, nachdem ich mich einmal um 360° drehte;)
mit der fackel in der hand sind es übrigens 18.

naja, schön zu sehen, dass ati in oblivion doch nicht so viel schneller ist:wink:

Ja, das mit dem drehen stimmt, schon merkwürdig das Spiel :smile:

naja, schön zu sehen, dass ati in oblivion doch nicht so viel schneller ist:wink:

Habe ich auch nie behauptet, in Serious Sam2, ist meine 1900XT gerade mal so schnell die 7800GTX 256MB die ich vorher hatte, und die BQ ist auch nur minimal besser als mit der 7800GTX, einem Standard Gamer fällt es 100% nicht auf, ich bin bis auf den Lüfter aber zufrieden, ich hatte vorher immer NV und wollte halt mal was anderes :wink:.

MFG
Frank

r@w
2006-04-06, 10:56:51
Ich kann dir garantieren, das es nicht am VRAM liegt, sondern ein generelles Problem der 7800/7900 Serie darstellt.

Bisher war es nämlich so, das die 7800/7900 Serie gegenüber der X1800/X1900 immer mehr an Boden verliert, je höher die Auflösung und je höher das AA+AF geschraubt wird.
Bei 1600x1200+ mag das so sein, aber der Unterschied ist einfach zu gering, um hier eine "Schwäche" der nVidia-Karten zu konstruieren.

Habe auch nochmal nachgerechnet... muss tatsächlich gar nicht mal der Speicher sein, da die 7900GTX ja mit einem wesentlich höheren Takt antritt. Schließlich sind das 650MHz statt 450MHz bei der GT... was wiederum ein Mehr an Shader-Leistung von satten 44,5% bedeutet. Insofern ist der Performance-Zuwachs von gerade mal

Hier ist es ganz gut zu beobachten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_asus_eax1800xt_top/17/#abschnitt_performancerating
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/25/#abschnitt_performancerating

Scheinbar geht ATI sparsamer mit der Speicherbandbreite um, oder wie immer man sich das erklären mag.
Das "Performance-Rating" auf cb ist einfach nur ein Witz.
Schau' Dir mal lieber die Benches direkt an und auch, mit welchen Einstellungen da vergleichen wurde.
Äpfel und Birnen halt...

Bist Du zufrieden mit deiner 7900GT?
Hüh, Hot!
Jup... eigentlich schon.
Was natürlich eine Einschränkung ist.

Performance top, Lautstärke nicht.
(weiß gar nicht, wie die Leutz das mit der X1x00'en aushalten?)
Das AF könnte besser sein, aber das ist ja allgemeinhin bekannt.

Die X1800er empfinde ich als etwas unausgewogen, während die X1900er einen sehr guten Eindruck machen...
...wenn da nicht das Problem mit der Stromausnahme und der daraus resultierenden Abwärme und Lautstärke wäre.

Das hatten wir alles schon mal mit der 5800... damals haben sich ATI'ler weg geschmissen (ich auch ;-), aber heute holen sich die gleichen Leutz so etwas von ATI in den Rechner... und plötzlich ist das nicht mehr so schlimm. Ich verstehe das heute genauso wenig wie damals. Noch viel weniger verstehe ich allerdings, dass es Leute gibt, die sich gleich 2 solcher Monster in den Rechner schieben... zumindest das gab es damals nicht!
:D

Das mit der Performance 7900GT vs. 7900GTX hat nix mit dem Speicher zu tun (zumindest nicht bei Oblivion ;-).
Aber das zeige ich gleich noch...

Bin halt am überlegen, ob ich das Angebot annehmen werde, meine 7900GT gegen eine 7900GTX zu tauschen...
...150 Tacken aufpreis wären das.
(wären dann 350 für 'ne GTX ;-)

Hmmm...

Razor

Ronny145
2006-04-06, 11:07:34
Performance top, Lautstärke nicht.
(weiß gar nicht, wie die Leutz das mit der X1x00'en aushalten?)



Ist die überhaupt soviel lauter, vergleichen mit der kaputten Lüftersteuerung der 7900 GT? btw, die 7900 GTX ist doch völlig enttäuschend in Oblivion. In den Außengebieten gerade mal gleichauf mit der X1800 XT.

r@w
2006-04-06, 11:25:24
Soderle... habe mir mal ein bissi Zeit vertrieben und mir diesen unglücklichen Bench von firingsquad mal näher angeschaut:
http://www.firingsquad.com/hardware/oblivion_high-end_performance/default.asp

Das ist dabei heraus gekommen:

7900GTX ist 100% X1900 XTX X1900 XT X1800XT 7900GT delta % zu fps zu %

Mountains HDR 1024 0xAA 8xAF - 9,7 - 12,6 - 13,6 - 35,7 1% ~ 0,71 = 1 ~ 1,41%
Mountains HDR 1280 0xAA 8xAF + 3,3 - 0,8 - 9,8 - 24,1 1% ~ 0,52 = 1 ~ 1,92%
Mountains HDR 1600 0xAA 8xAF + 10,1 + 3,8 - 12,5 - 23,6 1% ~ 0,43 = 1 ~ 2,33%

Mountains BAA 1024 4xAA 8xAF - 8,7 - 10,7 - 11,9 - 30,5 1% ~ 0,74 = 1 ~ 1,35%
Mountains BAA 1280 4xAA 8xAF + 11,2 + 6,8 - 4,1 - 22,4 1% ~ 0,52 = 1 ~ 1,92%
Mountains BAA 1600 4xAA 8xAF + 14,6 + 10,5 + 2,0 - 24,1 1% ~ 0,41 = 1 ~ 2,44%

Foliage HDR 1024 0xAA 8xAF + 12,5 + 7,1 + 5,7 - 28,9 1% ~ 0,34 = 1 ~ 2,94%
Foliage HDR 1280 0xAA 8xAF + 32,1 + 24,4 + 16,3 - 30,1 1% ~ 0,27 = 1 ~ 3,70%
Foliage HDR 1600 0xAA 8xAF + 34,5 + 26,1 + 12,8 - 30,5 1% ~ 0,20 = 1 ~ 5,00%

Foliage BAA 1024 4xAA 8xAF + 7,8 + 2,8 + 2,5 - 30,1 1% ~ 0,36 = 1 ~ 2,78%
Foliage BAA 1280 4xAA 8xAF + 17,9 + 11,1 + 3,6 - 22,4 1% ~ 0,28 = 1 ~ 3,57%
Foliage BAA 1600 4xAA 8xAF + 14,6 + 10,5 + 2,0 - 24,1 1% ~ 0,42 = 1 ~ 2,36%

Indoor HDR 1024 0xAA 8xAF + 12,1 + 7,2 - 17,1 - 4,9 1% ~ 1,32 = 1 ~ 0,76%
Indoor HDR 1280 0xAA 8xAF + 9,8 - 7,2 - 9,8 - 9,8 1% ~ 1,01 = 1 ~ 0,99%
Indoor HDR 1600 4xAA 8xAF + 4,2 - 0,5 - 31,5 - 13,8 1% ~ 0,81 = 1 ~ 1,23%

Indoor BAA 1024 4xAA 8xAF + 10,9 + 7,5 - 7,1 - 4,4 1% ~ 1,30 = 1 ~ 0,77%
Indoor BAA 1280 4xAA 8xAF + 1,6 - 2,5 - 35,1 - 25,9 1% ~ 1,31 = 1 ~ 0,76%
Indoor BAA 1600 4xAA 8xAF - 0,6 - 4,5 - 28,8 - 16,0 1% ~ 0,83 = 1 ~ 1,20%Erstaunlich, nicht wahr?

Erst einmal zu dem Vergleich 7900GT vs. 7900GTX.
(liegt mir persönlich am Herzen ;-)

Der GPU-Takt der GT beträgt 450MHz, der der GTX 650... das sind 44,4% mehr Shader-Leistung für die GTX. Die Ergebnisse zeigen aber grundweg weniger 'Einbruch' bei der GT und dass die Speicherbandbreite auch bei den 7900ern schon limitiert, wage ich mal zu bezweifeln.

Was also bleibt, ist eine CPU-Limitierung, die also ebenfalls in diesen Vergleich mit hinen spielt.
Dies ist umso tragischer, da Fraps selber ja auch CPU-Zeit kostet und so direkt in das Ergebnis pfuscht.

Ergo: meine übertaktete GT mit derzeit 560MHz GPU-Takt (Standard-Kühlung), liegt leistungsseitig näher an der GTX, denn an der GT. Das Verhältnis von GT zu GToc zu GTX wäre demnach:

450 -> 560 (+24,4%) -> 650 (+44,4/+16,1)

Ich würde also 150€ für 16% Mehrleistung bezahlen, die ich vermutlich mit 'ner vernünftigen Kühlung auch selber hinbekommen... 'vernünftig' vor allem im sinne einer wesentlich leiseren Kühlung, die damit schon fast zwangsläufig Effizienter sein muss. Mit Chance paßt der NVSilencer meiner 6800LE, ansonsten liebäugel ich derzeit mit der Thermaltake Symphony... dann hat sich das Thema Lautstärke (wie auch effiziente Kühlung ;-) gleich komplett erledigt.

OK, die 512MB würde ich quasi 'dazu' bekommen, nur sehe ich derzeit noch absolut KEINEN Grund dazu.

Nun zu dem Vergleich 7900 vs. 1900/1800

Sooo eindeutig ist das Ergebnis, dass hier heraus gelesen worden ist, keinesfalls. So bewegen sich gerade die großen Unterschiede im Bereich von wenigen Frames, was ich durch die Verhältnisse von % zu fps bzw. umgekehrt darzustellen versuchte.

Gerade dort, wo die 1900'er mit 20-35% "in Führung gehen" ist das Verhältnis von Frames zu fps auch extrem 'unausgewogen'. Die +35% resultieren dann in dem einen Beispiel in 7fps 'mehr' und das bei einer durchschnittlichen Framerate von gerade mal 30. Klar könnte man argumentieren, dass vielleicht genau DAS den Unterschied ausmachen könnte, nur tut es das gerade mal bei diesem einen Game. Bei niedrigerer Anforderung (kann man an den anderen Beispielen sehen) relativiert sich das Ganze schon wieder, wie auch bei höherer Anforderung auch die 1900 'versagen' wird (was sie im Prinzip schon jetzt bei 1600 tut).

Wo hier eine "nVidia Schwäche" hergedeutelt werden kann, ist mir absolut Schleierhaft.

Viel interessanter finde ich den massiven Einbruch der X1800 in den Indoor-Leveln.
Selbst eine 7900GT schlägt sie hier noch um Welten (und ja, hier sind es 'echte' Frames ;-)!

Treiber-Bug?
Oder wie soll das erklärt werden?
:confused:

Nein, ausgewogen ist dieser Test keinesfalls, auch sollten die "Ergebnisse" hier wahrhaft noch einmal intensiv durchleuchtet werden, denn wenn hier die CPU mit eingreift, Fraps damit noch ins Spiel kommt und dier "Ergebnisse" dann auch noch recht... sagen wir mal... inpausibel erscheinen... nein... daraus Rückschlüsse zu ziehen halte ich für recht gewagt.

Oder doch, einiges kann hier vielleicht doch noch mitnehmen:
- ein Vorteil von 512MB Karten ist hier nicht ersichtlich
- 1600 ist auch auf einer X1900 nicht wirklich sinnvoll
- die CPU scheint bei Oblivion eine sehr große Rolle zu spielen

Tjo... das war es erst einmal.

Anregungen und Kommentare sind ausdrücklich erwünscht!
:)

Razor

r@w
2006-04-06, 11:26:12
Wollte eigentlich nochmal drüber schaun'... habe aber "Antworten" geklickt.
Egal, muss auch so gehen!
:D

Ronny145
2006-04-06, 11:30:48
Naja, bei den Min FPS sieht es für die 7900 GTX noch etwas schlechter aus. Nicht nur der Einbruch der X1800XT in Indoor Leveln, sondern auch der Unterschied zwischen XT/XTX beim R580 ist erstaunlich.

r@w
2006-04-06, 11:36:09
Ist die überhaupt soviel lauter, vergleichen mit der kaputten Lüftersteuerung der 7900 GT? btw, die 7900 GTX ist doch völlig enttäuschend in Oblivion. In den Außengebieten gerade mal gleichauf mit der X1800 XT.
Wus?
Ich sprach von der GT...

Und ja, die 'kaputte' Lüftersteuerung der 7900GT ist um Welten angenehmer, als das, was sich ATI da mit der X1900 geleistet hat. DAS war der Grund, warum ich von den ATI's abgekommen bin. Das mal 'live' selbst zu erleben hat meinen vorherigen Eindruck "das wird schon noch irgendwie gehen" auf "unerträglich" geändert. Und die X1800 paßt hier ja nun gar nicht...

Nichts desto trotz ist mir die GT immer noch zu laut... zwar sind da keine unangenehmen Geräusche wie 'surren' oder 'brummen', aber das 'rauschen' ist deutlich zu hören und stellt in meinem System (weit vor dem 'boxed' Kühler meines Opterons) die größte Lärmquelle dar... gut, dass ich so ein gutes Gehäuse habe, welches das erheblich eindämmt... trotzdem... ich bin ein Silent-Fan und so 'passt' das einfach nicht.

Wenn ich das Teil behalte, dann kommt da erst einmal der NVSilencer drauf.
Aber über kurz oder Lang kommt mir 'eh wieder 'ne vernünftige WaKü in den Rechner...
...obwohl das im Falle der Thermaltake Symphony so nicht ganz korrekt ausgedrückt ist!
:D

Und nein, "enttäuschend" sind hier ALLE dargebotenen Leistungen.
Du solltest Dir die "Ergebnisse" vielleicht noch einmal genauer anschauen...

Razor

Kladderadatsch
2006-04-06, 11:38:57
Ich würde also 150€ für 16% Mehrleistung bezahlen, die ich vermutlich mit 'ner vernünftigen Kühlung auch selber hinbekommen... 'vernünftig' vor allem im sinne einer wesentlich leiseren Kühlung, die damit schon fast zwangsläufig Effizienter sein muss. Mit Chance paßt der NVSilencer meiner 6800LE, ansonsten liebäugel ich derzeit mit der Thermaltake Symphony... dann hat sich das Thema Lautstärke (wie auch effiziente Kühlung ;-) gleich komplett erledigt.

OK, die 512MB würde ich quasi 'dazu' bekommen, nur sehe ich derzeit noch absolut KEINEN Grund dazu.

mit der gtx hast du (ach ne) garantie auf gtx-taktraten und mit sehr hoher wahrscheinlichkeit nochmal einen wesentlich höheren core- und besonders vram-takt, sofern du die auch ocen willst. (700/900 sind da wohl durchschnittlich drin)
die 512 mb vram hast du ja schon angesprochen. wenn du dir die gtx gönnst (zu dem preis ein muss, da gibts schon alleine deswegen gar nichts zu diskutieren;)), kannst du ja mal direkt 256 mb mit 512 vergleichen=)

r@w
2006-04-06, 11:41:56
Naja, bei den Min FPS sieht es für die 7900 GTX noch etwas schlechter aus.
Was Du jetzt woraus geschlossen hast?
Im Gegenteil, die "minFPS" werden vermutlich ausschließlich auf CPU-Limitierungen zurück zu führen sein.

"Ruckler" gibt es offenbar auch auf absoluten High-End-Systemen... die sowohl CPU- wie auch GPU-seitig mit dem heute maximal möglichen ausgestattet sind. Da brauchst Du Dir nur mal einschlägige "Forengesänge" anschauen... offenbar gibt es heute noch KEIN System, welches Oblivion in JEDER Situation flüssig darstellen kann... woran auch immer das jetzt im Detail liegen mag.

Nicht nur der Einbruch der X1800XT in Indoor Leveln, sondern auch der Unterschied zwischen XT/XTX beim R580 ist erstaunlich.
Da hat ATI doch was an den Latenzen der XT 'gedreht', um das Teil künstlich ein gutes Stück unterhalb der XTX zu 'plazieren'... ist aber schon länger bekannt.

Razor

r@w
2006-04-06, 11:49:59
mit der gtx hast du (ach ne) garantie auf gtx-taktraten und mit sehr hoher wahrscheinlichkeit nochmal einen wesentlich höheren core- und besonders vram-takt, sofern du die auch ocen willst. (700/900 sind da wohl durchschnittlich drin)
die 512 mb vram hast du ja schon angesprochen. wenn du dir die gtx gönnst (zu dem preis ein muss, da gibts schon alleine deswegen gar nichts zu diskutieren;)), kannst du ja mal direkt 256 mb mit 512 vergleichen=)
Nee... ich hol' mir doch nicht 'ne GT und 'ne GTX.
Wozu denn so etwas?
:confused:

Ich überlege mir halt, ob sich die 150 zusätzlich zu den bereits 'investierten' 200 lohnen würden.

Selbst mit 700/900 wäre der Taktvorteil 'nur' mit 25% bzw. 18,4% zu meinen 560/760 gegeben.
(die OC "Erfolge" der GTX sind einfach ein Witz!)

Und dafür dann 75% mehr ausgeben?

Dann würde ich schon eher überlegen, einfach mal SLI zu testen.
Das wären dann 100% mehr, aber ich hätte zumindest ein bissel 'Spaß', gell?
;)

Aber da SLI für mich 'eh nicht in Frage kommt...
...wie gesagt, bin noch am überlegen.

Derzeit kommen mir die 512MB noch reichlich sinnfrei vor und der Takt allein rechtfertigt den 'Aufschlag' nicht.
So bin ich halt... ohne vernünftiges P/L-Verhältnis geht es bei mir nicht... und da waren die 200 für die GT schon OK...

Razor

Odal
2006-04-06, 11:52:05
Nun zu dem Vergleich 7900 vs. 1900/1800

Sooo eindeutig ist das Ergebnis, dass hier heraus gelesen worden ist, keinesfalls. So bewegen sich gerade die großen Unterschiede im Bereich von wenigen Frames, was ich durch die Verhältnisse von % zu fps bzw. umgekehrt darzustellen versuchte.

30% schneller sind nunmal 30% schnaller da gibts nix dran zu deuteln..auch wenn es sich nur um den unterschied zwischen 9 und 12 FPS handelt gerade bei wenig FPS kommts auf jedes FPS an und somit jedes Prozent Leistung...
ob ich nun in einer Szene 100FPS oder 80FPS habe ist relativ wumpe für das spiel...das spielt sich mit 80 genausogut wie mit 100FPS nämlich durch und durch flüssig


Gerade dort, wo die 1900'er mit 20-35% "in Führung gehen" ist das Verhältnis von Frames zu fps auch extrem 'unausgewogen'.

wie jetzt das verhältnis von frames zu fps ist unausgewogen? :confused:


Die +35% resultieren dann in dem einen Beispiel in 7fps 'mehr' und das bei einer durchschnittlichen Framerate von gerade mal 30. Klar könnte man argumentieren, dass vielleicht genau DAS den Unterschied ausmachen könnte, nur tut es das gerade mal bei diesem einen Game.

so könnte man nicht nur argumentieren so MUSS man sogar argumentieren...denn es ist viel zuträglicher an stellen 27 statt 20 FPS zu haben als an stellen 120 statt 80 FPS zu haben...
und es geht hier in diesem thread und auch in diesem benchtest nunmal um genau dieses eine game und kein anderes.


Bei niedrigerer Anforderung (kann man an den anderen Beispielen sehen) relativiert sich das Ganze schon wieder, wie auch bei höherer Anforderung auch die 1900 'versagen' wird (was sie im Prinzip schon jetzt bei 1600 tut).


wie wo was? versteh ich nicht den abschnitt


Wo hier eine "nVidia Schwäche" hergedeutelt werden kann, ist mir absolut Schleierhaft. ne allgemeine NVidia Schwäche von einem Spiel abhängig zu machen bestimmt nicht..aber eine NVidia Schwäche in Oblivion ist deutlich erkennbar...denn an den Stellen wo es extrem zäh läuft ist das ATI Flagschiff manchmal gut nen drittel schneller als das NVidia Flagschiff


Viel interessanter finde ich den massiven Einbruch der X1800 in den Indoor-Leveln.
Selbst eine 7900GT schlägt sie hier noch um Welten

1. indoor sind so ziemlich alle GraKas schnell genug..selbst eine 6600GT performt da noch recht flüssig...wichtig ist es für den spieler dort wo es zäh läuft
2. was für ein massiver einbruch? hier sind es bis zu 10% Unterschied..dann sollte der massive einbruch der 7900GT im vergleich zur X1800XT aber im gleichen Atemzug erwähnt werden (outdoor level) oder was ist mit dem massiven einruch der 7900GTX im vergleich zur x1900xtx ... bis zu 35% ^^
Und man kann es nicht oft genug erwähnen, wichtig sind FPS nicht da wo es sowieso flüssig läuft sondern dort wo es ruckelt und hängt und stockt.


(und ja, hier sind es 'echte' Frames ;-)!


was weillst du immer mit "echten Frames" gibts auch unechte? ein Frame ist ein dargestelltes Bild. Stellt eine Karte falsche Bilder dar? Läuft auf einigen Karten vielleicht HL2 und garnicht Oblivion und wir deppen habens noch garnicht gemerkt? :D


Treiber-Bug?
Oder wie soll das erklärt werden?
:confused:


bahnhof?


Anregungen und Kommentare sind ausdrücklich erwünscht!
:)

Razor

hab ich :)

r@w
2006-04-06, 12:26:43
30% schneller sind nunmal 30% schnaller da gibts nix dran zu deuteln..auch wenn es sich nur um den unterschied zwischen 9 und 12 FPS handelt gerade bei wenig FPS kommts auf jedes FPS an und somit jedes Prozent Leistung...
ob ich nun in einer Szene 100FPS oder 80FPS habe ist relativ wumpe für das spiel...das spielt sich mit 80 genausogut wie mit 100FPS nämlich durch und durch flüssig
Unsinn, sorry.
"unspielbar" + 30% ist immer noch "unspielbar"

Schau' einfach nochmal hin.

wie jetzt das verhältnis von frames zu fps ist unausgewogen? : confused :
Frames zu % natürlich...
Habe ich im Folgepost geschrieben, dass mir eine Korrektur 'verwehrt' wurde?
Oder wolltest Du einfach nur ein bissl 'meckern'?
:confused:

so könnte man nicht nur argumentieren so MUSS man sogar argumentieren...denn es ist viel zuträglicher an stellen 27 statt 20 FPS zu haben als an stellen 120 statt 80 FPS zu haben...
und es geht hier in diesem thread und auch in diesem benchtest nunmal um genau dieses eine game und kein anderes.
Tjo... nur sind das leider Durchschnittswerte.
Und ich muss Dir hoffentlich nicht erklären, was avg 27fps dann tatsächlich heißen, oder?

wie wo was? versteh ich nicht den abschnitt
Ist kein Abschnitt, sondern nur ein Satz.
Einfach nochmal lesen... vielleicht kommst Du dann ja drauf'.

ne allgemeine NVidia Schwäche von einem Spiel abhängig zu machen bestimmt nicht..aber eine NVidia Schwäche in Oblivion ist deutlich erkennbar...denn an den Stellen wo es extrem zäh läuft ist das ATI Flagschiff manchmal gut nen drittel schneller als das NVidia Flagschiff
Wie schon geschrieben.
Diese Stellen sind auch mit dem "ATI Flagschiff" unspielbar...
Siehe oben: "unspielbar" + 30% ist immer noch "unspielbar"

1. indoor sind so ziemlich alle GraKas schnell genug..selbst eine 6600GT performt da noch recht flüssig...wichtig ist es für den spieler dort wo es zäh läuft
2. was für ein massiver einbruch? hier sind es bis zu 10% Unterschied..dann sollte der massive einbruch der 7900GT im vergleich zur X1800XT aber im gleichen Atemzug erwähnt werden (outdoor level) oder was ist mit dem massiven einruch der 7900GTX im vergleich zur x1900xtx ... bis zu 35% ^^
Und man kann es nicht oft genug erwähnen, wichtig sind FPS nicht da wo es sowieso flüssig läuft sondern dort wo es ruckelt und hängt und stockt.
Klingt in meinen Ohren wie eine Rechtfertigung Deinerseits...
Ich selbst habe versucht, das Ganze nüchtern zu sehen und entsprechend zu belegen.

Ich prangere hier nicht die Leistung irgendwelcher Karten oder gar IHV's an, sondern ich bezweifele die Aussagefähigkeit dieses "Tests" und seiner "Ergebnisse" auf firingsquad.

was weillst du immer mit "echten Frames" gibts auch unechte? ein Frame ist ein dargestelltes Bild. Stellt eine Karte falsche Bilder dar? Läuft auf einigen Karten vielleicht HL2 und garnicht Oblivion und wir deppen habens noch garnicht gemerkt? : D
Schon wieder so Abschnitt ohne verwertbaren Inhalt von Dir.
Was wolltest Du mir jetzt noch gleich damit sagen?
(gilt auch für den vorherigen Abschnitt)
:confused:

Mit "echten" Frames meine ich "spielbare" Frames.
Ich denke, dass ich das recht eindeutig rüber gebracht habe...

Razor

Low Rider
2006-04-06, 12:40:35
Also man kann sich auch alles schönreden wie es einem paßt... :rolleyes:
Du bist der erste den ich sehe, dem es wichtiger ist an Stellen mit 80fps 120 zu haben, als an Stellen mit 20fps 27 zu haben.
Und wie das einen Unterschied macht! Genau hier wird doch zwischen spielbar und unspielbar entschieden. 30% mehr im 20-30fps Bereich - aber hallo!!
Und da brauchst du auch nicht mit min fps zu kommen.

Wenn ich für mich persönlich nach einer geeigneten Grafikkarte suche, dann lasse ich fps-Werte, bei denen es in richtung dreistellig geht, außen vor (egal welche Karte da führt).

Und ja, die 'kaputte' Lüftersteuerung der 7900GT ist um Welten angenehmer, als das, was sich ATI da mit der X1900 geleistet hat. DAS war der Grund, warum ich von den ATI's abgekommen bin. Das mal 'live' selbst zu erleben hat meinen vorherigen Eindruck "das wird schon noch irgendwie gehen" auf "unerträglich" geändert. Und die X1800 paßt hier ja nun gar nicht...

Nichts desto trotz ist mir die GT immer noch zu laut... zwar sind da keine unangenehmen Geräusche wie 'surren' oder 'brummen', aber das 'rauschen' ist deutlich zu hören und stellt in meinem System (weit vor dem 'boxed' Kühler meines Opterons) die größte Lärmquelle dar... gut, dass ich so ein gutes Gehäuse habe, welches das erheblich eindämmt... trotzdem... ich bin ein Silent-Fan und so 'passt' das einfach nicht.

Wenn ich das Teil behalte, dann kommt da erst einmal der NVSilencer drauf.
Aber über kurz oder Lang kommt mir 'eh wieder 'ne vernünftige WaKü in den Rechner...
Verstehe ich das korrekt? Du hattest eine aktuelle ATI aber bist zu nVidia gewechselt weil sie dir zu laut war. Die nVidia ist leiser, aber ist dir immer noch zu laut, deshalb baust du einen anderen Kühler drauf.
Tja da hättest du doch gleich die ATI behalten und dort nen anderen Kühler draufpacken können?!? :confused:

Gomorah
2006-04-06, 12:52:12
Jupp!

Die 7900GT der GTX klar vorzuziehen(Euro/Fames).

@Razor
http://www.vr-zone.com/?i=3437
Beim Umstieg auf den neuen AM2 umsteige wirds wohl ne 7900GT(SLI??).
Da ich mit der 6800GT(mit Wakü) und den Voltmods von "shamino" bis jetzt gute Erfahungen gesammelt hab spar ich mir die GTX.


Zu SLI/CF: Binn bisher auch skeptisch doch vielleicht kommt ja noch Bewegung ins Spiel(Physikberechnungen).
Wenn die Performance mit AGEIA mindestens gleichauf ist und die Bildquali nicht sehr leiden muss hätte ich auch endlich einen Grund für SLI/CF.

Hätte währe wenn.......

Odal
2006-04-06, 13:13:19
Unsinn, sorry.
"unspielbar" + 30% ist immer noch "unspielbar"

Schau' einfach nochmal hin.


also bitte wo kommen wir denn da hin? dann sagen wir bei den fiktiv angenommenen 30% Geschwindigkeitssteigerungen der kommenden GraKa Generation im vergleich zur X1900XTX auch noch unspielbar..sind ja auch nur 30% mehr...die darauffolgende wird vielleicht auch nur 30% performanter sein... ergo unspielbar...
was ist denn das für ein bockmist? 30-35% schneller ist 1/3 schneller das ist soviel wie viele hier im forum bei GraKa Wechseln zur nächsten Generation an Leistung gewinnen. Wenn du so rangehst...wozu kaufen wir uns überhaupt noch neue GraKas? mehr als 30% schneller sind die doch eh alle nicht...
ist doch eh alles unspielbar :|
manmanman einige leute reden sich sonstwas für fakten schön...

Oblivion ist ein Spiel was es jetzt gibt...und dieses Spiel wird derzeit gespielt..und das nicht von wenigen...und nun komm mir nochmal mit deinem Unspielbar...
Das spielen sogar noch leute mit reduzierten Grafiksettings auf 9800pro&Co
dann dreh halt die settings zurück wenn es bei dir keinen unterschied macht ob 20 oder 27 fps... dann hast du eben 30 auf der GTX oder 40 FPS auf der XTX
vielleicht ist das dann ja eher spielbar? und komm mir jetzt nicht ja 30 FPS reichen ja...dann reichen auch 27FPS bei höheren settings auf der XTX...

manmanman


Frames zu % natürlich...
Habe ich im Folgepost geschrieben, dass mir eine Korrektur 'verwehrt' wurde?
Oder wolltest Du einfach nur ein bissl 'meckern'?
:confused:


was interessieren denn frames zu prozent? das is doch völlig wumpe
vergleichst du auch äpfel und birnen? ok is ja alles obst


Tjo... nur sind das leider Durchschnittswerte.
Und ich muss Dir hoffentlich nicht erklären, was avg 27fps dann tatsächlich heißen, oder?

jo sicherlich was besseres als avg 20 fps ^^ naja...drehs dir hin wie du es sehen möchtest...


Wie schon geschrieben.
Diese Stellen sind auch mit dem "ATI Flagschiff" unspielbar...
Siehe oben: "unspielbar" + 30% ist immer noch "unspielbar"


bla siehe oben...


Klingt in meinen Ohren wie eine Rechtfertigung Deinerseits...
Ich selbst habe versucht, das Ganze nüchtern zu sehen und entsprechend zu belegen.


ja nee is klar


Schon wieder so Abschnitt ohne verwertbaren Inhalt von Dir.
Was wolltest Du mir jetzt noch gleich damit sagen?
(gilt auch für den vorherigen Abschnitt)
:confused:

kann ich unverändert zurückgeben..bla


Mit "echten" Frames meine ich "spielbare" Frames.
Ich denke, dass ich das recht eindeutig rüber gebracht habe...


frames sind einzelbilder...ein einzelbild kannst nicht spielen, ausser Minesweeper whatever

reunion
2006-04-06, 13:40:48
Und das gilt dann auch für AFR2?
:confused:

Razor

Das kommt darauf an, was nV unter "AFR2" versteht. AFR bedeutet nunmal Alternate Frame Rendering, und das ist eben mit machen Dinge inkompatibel. Die heutigen Verfahren sind jedenfalls identisch, und deshalb sollten auch die selben Kompatibilitätskriterien gelten.

Gerade dort, wo die 1900'er mit 20-35% "in Führung gehen" ist das Verhältnis von Frames zu fps auch extrem 'unausgewogen'. Die +35% resultieren dann in dem einen Beispiel in 7fps 'mehr' und das bei einer durchschnittlichen Framerate von gerade mal 30. Klar könnte man argumentieren, dass vielleicht genau DAS den Unterschied ausmachen könnte, nur tut es das gerade mal bei diesem einen Game. Bei niedrigerer Anforderung (kann man an den anderen Beispielen sehen) relativiert sich das Ganze schon wieder, wie auch bei höherer Anforderung auch die 1900 'versagen' wird (was sie im Prinzip schon jetzt bei 1600 tut).


Du gibst dir die Antwort eigentlich selbst:


- die CPU scheint bei Oblivion eine sehr große Rolle zu spielen


In niedrigen Auflösungen dürfte hauptsächlich die CPU limitieren, während es mit steigender Auflösung natürlich immer mehr auf die Grafikkarte ankommt.

Neomi
2006-04-06, 13:43:37
Unsinn, sorry.
"unspielbar" + 30% ist immer noch "unspielbar"

Nehmen wir mal folgende 10 Aussagen:

1. unspielbar + 30 % = unspielbar
2. unspielbar + 30 % = unspielbar
3. unspielbar + 30 % = unspielbar
...
10. unspielbar + 30 % = unspielbar

Du wirst wohl bestimmt zustimmen, daß alle korrekt sind. Wenn wir die jetzt zusammenfassen, bekommen wir das:

"unspielbar + 1278 % = unspielbar"

Wenn also 20 Frames/s unspielbar sind, dann sind demnach 275 Frames/s ebenfalls unspielbar. Entweder ist das korrekt, oder von den ursprünglichen Aussagen ist eine falsch. Aber welche bloß?

r@w
2006-04-06, 14:00:34
Also man kann sich auch alles schönreden wie es einem paßt... :rolleyes:
Du bist der erste den ich sehe, dem es wichtiger ist an Stellen mit 80fps 120 zu haben, als an Stellen mit 20fps 27 zu haben.
Und wie das einen Unterschied macht! Genau hier wird doch zwischen spielbar und unspielbar entschieden. 30% mehr im 20-30fps Bereich - aber hallo!!
Und da brauchst du auch nicht mit min fps zu kommen.
Nochmal und nur ganz kurz: avg != min.
Mehr braucht man dazu eigentlich nicht zu sagen...

Wenn ich für mich persönlich nach einer geeigneten Grafikkarte suche, dann lasse ich fps-Werte, bei denen es in richtung dreistellig geht, außen vor (egal welche Karte da führt).
"fps-Werte" sind für mich grundsätzlich zweitrangig.
Das Produkt muss 'rund' sein, sonst paßt es einfach nicht...

Verstehe ich das korrekt? Du hattest eine aktuelle ATI aber bist zu nVidia gewechselt weil sie dir zu laut war. Die nVidia ist leiser, aber ist dir immer noch zu laut, deshalb baust du einen anderen Kühler drauf.
Tja da hättest du doch gleich die ATI behalten und dort nen anderen Kühler draufpacken können?!? :confused:
Nein, nicht gewechselt.
Habe mir 'ne X1900 und 'ne 7900 zur Ansicht (mit Ankündigung!) schicken lassen und die 7900 behalten.
Habe da gewisse Vorteile, die ich ab und ganz gerne nutze...

Razor

r@w
2006-04-06, 14:03:02
http://www.vr-zone.com/?i=3437
Beim Umstieg auf den neuen AM2 umsteige wirds wohl ne 7900GT(SLI??).
Da ich mit der 6800GT(mit Wakü) und den Voltmods von "shamino" bis jetzt gute Erfahungen gesammelt hab spar ich mir die GTX.
:up:

Zu SLI/CF: Binn bisher auch skeptisch doch vielleicht kommt ja noch Bewegung ins Spiel(Physikberechnungen).
Wenn die Performance mit AGEIA mindestens gleichauf ist und die Bildquali nicht sehr leiden muss hätte ich auch endlich einen Grund für SLI/CF.
Da würde ich den Ball erst einmal noch gaaaaanz flach halten.
Momentan gibt es wohl genau EIN Game, welches von einem Physik-Beschleuniger profitieren wird.
Und das auch nur aus Marketing-Gründen...

Kann gut sein, dass dies von Anfang an eine Totgeburt ist.

Razor

r@w
2006-04-06, 14:06:09
manmanman einige leute reden sich sonstwas für fakten schön...
Das scheint bei Dir der Fall zu sein, ja.

Oblivion ist ein Spiel was es jetzt gibt...
Bist Du alt genug, um dich an WingCommander erinnern zu können?

Eine Anmerkung noch: in diesem Tonfall mag ich nicht Kommunizieren.
Sollte sich das bei Dir nicht ändern, dann wudere Dich nicht, wenn ich nicht reagiere...

Razor

r@w
2006-04-06, 14:11:52
Das kommt darauf an, was nV unter "AFR2" versteht. AFR bedeutet nunmal Alternate Frame Rendering, und das ist eben mit machen Dinge inkompatibel. Die heutigen Verfahren sind jedenfalls identisch, und deshalb sollten auch die selben Kompatibilitätskriterien gelten.
Nach allem, was ich bis dato darüber gehört habe, ist AFR2 sehr viel kompatibler und funktioniert fast immer.

Du gibst dir die Antwort eigentlich selbst:

In niedrigen Auflösungen dürfte hauptsächlich die CPU limitieren, während es mit steigender Auflösung natürlich immer mehr auf die Grafikkarte ankommt.
Es gibt so einige Situationen in Oblivion, in welcher die CPU immer limitiert!
Aber klar, bei 2560x irgendwas wird auch das relativ... schon klar.

Wenn also 20 Frames/s unspielbar sind, dann sind demnach 275 Frames/s ebenfalls unspielbar. Entweder ist das korrekt, oder von den ursprünglichen Aussagen ist eine falsch. Aber welche bloß?
Bist Du Mathematiker?
:D

Du weißt aber schon, dass meine Kommentare im Kontext dieses Theads stehen, oder?
Aber klar, wenn Du in dem hier zugrunde liegenden "Benchmarks" doch irgendwo "275 Frames/s" sehen solltest, dann nehme ich natürlich alles zurück.

Razor

Mr. Lolman
2006-04-06, 14:44:28
Habe da gewisse Vorurteile, die ich ab und ganz gerne nutze...

Razor

So war das wohl gemeint, oder :biggrin:

*sry4spam*

Odal
2006-04-06, 14:46:28
Das scheint bei Dir der Fall zu sein, ja.

aha was rede ich mir denn für fakten schön? Zitate bitte. Danke.


Bist Du alt genug, um dich an WingCommander erinnern zu können?


Natürlich erinnere ich mich an WingCommander wieso? Ich habe schon einen vc20 besessen da bist du wahrscheinlich noch mit der trommel um den baum gelaufen


Eine Anmerkung noch: in diesem Tonfall mag ich nicht Kommunizieren.
Sollte sich das bei Dir nicht ändern, dann wudere Dich nicht, wenn ich nicht reagiere...

Razor

Dann bleib Realist bei deinen Beiträgen und Argumentiere objektiv, dann kommen auch nicht solche fehltritte wie das 30-35% MEhrleistung an Stellen wo es hakt nix bringen und unspielbar unspielbar bleibt heraus.

mfG

r@w
2006-04-06, 14:51:46
So war das wohl gemeint, oder :biggrin:
*sry4spam*
Soll ich Dich jetzt etwa melden?
:D

Razor

deekey777
2006-04-06, 14:52:28
An alle: Auf Sticheleien ist zu verzichten!

Low Rider
2006-04-06, 18:01:13
Nochmal und nur ganz kurz: avg != min.
Mehr braucht man dazu eigentlich nicht zu sagen...

Ja ich kenne die Problematik mit avg und min fps ;)
Trotzdem kann ich davon ausgehen, daß bei avg 20 vs 27 fps die Karte mit den 27 fps die besseren min fps bietet. Und ja, die min fps könnten dann wirklich unspielbar sein, aber es kommt dann darauf an, wie weit sie denn nun tatsächlich absinken und wie oft das passiert (wobei man bei Oblivion 20fps noch als halbwegs flüssig bezeichnen kann). Wenn es zu eng wird, kann man immer noch Details reduzieren - das ändert aber nix daran, daß die Karte mit den 27fps viel schneller in den spielbaren min fps Bereich kommen dürfte.

Gast
2006-04-06, 18:07:45
warum isn das so lahm?
sooo toll sieht das game doch garnich aus

(del676)
2006-04-06, 18:25:21
schön zu sehen wie eine X1900XT die nvidia Fraktion so richtig herwatscht - diesbezüglich lag ich vollkommen richtig beim kauf einer ati für 1920x1200 :)

tombman
2006-04-06, 19:10:06
schön zu sehen wie eine X1900XT die nvidia Fraktion so richtig herwatscht - diesbezüglich lag ich vollkommen richtig beim kauf einer ati für 1920x1200 :)
Eine reicht aber ned aus um O zu spielen ;) Da brauchst schon 2.

deekey777
2006-04-06, 20:05:15
Update:
UPDATE 4/6/06: In dual-card testing, we initially reported that NVIDIA's GeForce SLI solution delivered better performance than CrossFire, however ATI's Terry Makedon informed us that Oblvivion can be forced to run the X1900 XTX and X1800 XT cards in CrossFire mode by renaming the oblivion.exe executable to "AFR-FriendlyD3D.exe". After making this change, we saw a dramatic boost in performance and now the Radeon cards scale appropriately, with the X1900 XTX CrossFire outrunning the GeForce 7900 GTX SLI in all tests except our indoors area. All isn't perfect with this workarond however, as occasionally we'd notice flashing textures on the screen regardless of which area of the game we were testing. The textures would flash randomly: during one run in the foliage section everything may go perfectly, and then the next may be filled with flashing textures, so we'd still definitely give NVIDIA the nod when it comes to multi-GPU compatibility with Oblivion. We sent ATI a video demonstrating the problem and other info on the issue, so hopefully it can be resolved in a future Catalyst release.

http://firingsquad.com/hardware/oblivion_high-end_performance/page9.asp

Gast
2006-04-06, 20:32:41
warum isn das so lahm?
sooo toll sieht das game doch garnich aus

BadONE
2006-04-06, 21:49:54
Neue Oblivion Benchmarks mit Crossfire

http://firingsquad.com/hardware/oblivion_high-end_performance/page11.asp

scheint das Crossfire unschlagbar ist in dem Spiel ..

reunion
2006-04-06, 22:56:27
Neue Oblivion Benchmarks mit Crossfire

http://firingsquad.com/hardware/oblivion_high-end_performance/page11.asp

scheint das Crossfire unschlagbar ist in dem Spiel ..


Nicht nur das:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=289478

Ronny145
2006-04-06, 23:05:21
Nicht nur das:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=289478


http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=21960


Scheinbar gibt es den HDR+AA Fix schon.

reunion
2006-04-06, 23:17:00
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=21960


Scheinbar gibt es den HDR+AA Fix schon.


Tatsächlich, allerdings scheint das teil noch eher "alpha", den "beta" zu sein:

This driver is provided as a proof-of-concept and is not supported by Bethesda, 2K games or ATI Technologies.

Known issues:

1. SuperAA with CrossFire in HDR mode is not enabled. If you have SupperAA enabled you will get the quality and performance of one card as opposed to two.

2. Rendering issues with grass shadows

3. On an ATI Radeon X1600XT CrossFire configuration, the game may intermittently crash if they set resolution is higher than 1600x1200

4. On an ATI Radeon X1900 series card, the game may crash while task-switching between the desktop and game (alt-tab).

ATI Engineering is currently investigating these issues. Updates will be posted as they become available.

BadONE
2006-04-06, 23:18:15
Nicht nur das:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=289478


Äußerst interessant! Oblivion könnte zum großen Showstopper von Nvidia werden! Nvidia goes into oblivion :biggrin:

Gast
2006-04-07, 00:28:59
In Oblivion hatte Ati sowieso schon klar die Nase vorn, allein wegen Area-AF, das haut hier schon richtig rein im positiven Sinne. Abermit HDR wird's für AA performancemäßig wohl etwas knapp, wenn man sich nicht auf 1280 oder so beschränken will.


Q

Odal
2006-04-07, 00:42:39
Neue Oblivion Benchmarks mit Crossfire

http://firingsquad.com/hardware/oblivion_high-end_performance/page11.asp

scheint das Crossfire unschlagbar ist in dem Spiel ..


wenn man bedenkt das crossfire nicht so effizient wie SLI ist dann ledert das crossfire system das 7900er GTX gespann ganz schön ab :eek: selbst mit 2xx1800XTs noch :eek:

Gast
2006-04-07, 02:13:09
Abermit HDR wird's für AA performancemäßig wohl etwas knapp, wenn man sich nicht auf 1280 oder so beschränken will.In Oblivion gibt es kein AA, wenn HDR-R aktiviert ist. Auf keiner Karte, auch nicht auf x1900.

Gast
2006-04-07, 06:12:06
wenn man bedenkt das crossfire nicht so effizient wie SLI ist dann ledert das crossfire system das 7900er GTX gespann ganz schön ab :eek: selbst mit 2xx1800XTs noch :eek:

Wer sagt denn daß CF nicht so effizient wäre. ATI hat bisher einfach nicht genug aus den Treibern gekitzelt.

Gast
2006-04-07, 06:16:50
In Oblivion gibt es kein AA, wenn HDR-R aktiviert ist. Auf keiner Karte, auch nicht auf x1900.


Offensichtlich scheinst du dich zu irren...

Ja, HDR + AA funktioniert in Oblivion. Hab ich soeben auch überprüft. Nach Far Cry HDR + AA nun Oblivion HDR + AA. Exklusiv bei ATI.

Da die Oblivion-Performance für Xfire durch diesen Hotfix nochmals zulegte, war zuvor nach Umbenennen der Oblivion.exe auch schon sehr gut, ist die Leistung trotz zusätzlichem HDR gleich geblieben. Ich kann nun Oblivion in 1600x1200 mit HDR + 4xAA genau so gut spielen wie zuvor mit Bloom + 4xAA.

doppelschwoer
2006-04-07, 09:05:49
Wie sieht es eigentlich mit der performance einer X1800 (XL/XT) mit 256MB aus?
Welche fps kann man hier mit HDR @1280*1024 erwarten? Leider hab ich dazu noch nichts gefunden...

Gast
2006-04-07, 09:33:33
Wie sieht es eigentlich mit der performance einer X1800 (XL/XT) mit 256MB aus?
Welche fps kann man hier mit HDR @1280*1024 erwarten? Leider hab ich dazu noch nichts gefunden...
Wenn du die "uGridstoload" nicht änderst, bleibt's definitiv spielbar. Mit meiner bevorzugten Einstellung (ugrids 9) braucht's Spiel aber durchaus mal 380-400 MByte Grafikram, da würde also jede 256-MB-Karte abk*cken.


Q

Piffan
2006-04-07, 10:23:46
warum isn das so lahm?
sooo toll sieht das game doch garnich aus

Ich finde doch. Es gilt aber auch das Gesetz des abnehmenden Ertrages; d.h. ausgehend von einem hohen Niveau fordern weitere visuelle Verbesserungen überproportional hohen Aufwand.....

Fear ist da so ein klasse Beispiel: Die Texturen teilweise nicht so dolle, der Polycount mancher Objekte niedrig, aber dennoch schlechte Peformance. Der Grund ist die aufwändige Beleuchtung mit Schattenspielereien.
Oblivion spart bei den Schatten, liefert aber klasse Oberflächen- Effekte und geizt nicht mit Polygonen....Für mich die gelungenste Mischung bisher......

crane
2006-04-07, 11:51:00
Neue Oblivion Benchmarks mit Crossfire

http://firingsquad.com/hardware/oblivion_high-end_performance/page11.asp

scheint das Crossfire unschlagbar ist in dem Spiel ..


..naja, aber mit starker Einschränkung:
Fazit-Update SLI/Crossfire:
UPDATE 4/6/06: In dual-card testing, we initially reported that NVIDIA's GeForce SLI solution delivered better performance than CrossFire, however ATI's Terry Makedon informed us that Oblvivion can be forced to run the X1900 XTX and X1800 XT cards in CrossFire mode by renaming the oblivion.exe executable to "AFR-FriendlyD3D.exe". After making this change, we saw a dramatic boost in performance and now the Radeon cards scale appropriately, with the X1900 XTX CrossFire outrunning the GeForce 7900 GTX SLI in all tests except our indoors area. All isn't perfect with this workarond however, as occasionally we'd notice flashing textures on the screen regardless of which area of the game we were testing. The textures would flash randomly: during one run in the foliage section everything may go perfectly, and then the next may be filled with flashing textures, so we'd still definitely give NVIDIA the nod when it comes to multi-GPU compatibility with Oblivion. We sent ATI a video demonstrating the problem and other info on the issue, so hopefully it can be resolved in a future Catalyst release.

Performance auf Kosten der BQ, zumindest mit diesem Workaroundfix. Mal abwarten, wie es mit dem nächsten Cat.aussieht.

Grüße

Gast
2006-04-07, 12:26:04
Einfach in F.E.A.R. umbenennen, dann läuft's eigentlich ohne Bildfehler.


Q

Gast
2006-04-07, 13:03:04
Ich finde doch. Es gilt aber auch das Gesetz des abnehmenden Ertrages; d.h. ausgehend von einem hohen Niveau fordern weitere visuelle Verbesserungen überproportional hohen Aufwand.....

Fear ist da so ein klasse Beispiel: Die Texturen teilweise nicht so dolle, der Polycount mancher Objekte niedrig, aber dennoch schlechte Peformance. Der Grund ist die aufwändige Beleuchtung mit Schattenspielereien.
Oblivion spart bei den Schatten, liefert aber klasse Oberflächen- Effekte und geizt nicht mit Polygonen....Für mich die gelungenste Mischung bisher......


omg wie wird das das in UT 2007 sein oder gehn? die entwickler meinen doch es wäre gut spielbar mit jetzt akt. hardware oder irre ich da?

VoodooJack
2006-04-07, 13:58:42
..naja, aber mit starker Einschränkung:
Fazit-Update SLI/Crossfire:
UPDATE 4/6/06: In dual-card testing, we initially reported that NVIDIA's GeForce SLI solution delivered better performance than CrossFire, however ATI's Terry Makedon informed us that Oblvivion can be forced to run the X1900 XTX and X1800 XT cards in CrossFire mode by renaming the oblivion.exe executable to "AFR-FriendlyD3D.exe". After making this change, we saw a dramatic boost in performance and now the Radeon cards scale appropriately, with the X1900 XTX CrossFire outrunning the GeForce 7900 GTX SLI in all tests except our indoors area. All isn't perfect with this workarond however, as occasionally we'd notice flashing textures on the screen regardless of which area of the game we were testing. The textures would flash randomly: during one run in the foliage section everything may go perfectly, and then the next may be filled with flashing textures, so we'd still definitely give NVIDIA the nod when it comes to multi-GPU compatibility with Oblivion. We sent ATI a video demonstrating the problem and other info on the issue, so hopefully it can be resolved in a future Catalyst release.

Performance auf Kosten der BQ, zumindest mit diesem Workaroundfix. Mal abwarten, wie es mit dem nächsten Cat.aussieht.

Grüße

FiringSquad hat sich mit diesem Review nicht mit Ruhm bekleckert. Ich spreche hier vom Xfire vs SLI Vergleich. Ganz im Gegenteil, FS demonstrierte große Ahnungslosigkeit bezüglich Xfire. Zunächst benchten sie Oblivion mit Xfire und schöpften zunächst keinen Verdacht, obwohl die ermittelten Werte unmöglich das wahre Leistungsvermögen von 2 Karten wiedergaben. Als sie ihren Irrtum bemerkten, schossen sie den nächsten Bock. Sie hatten da was von einem Umbenennungstrick gehört und stürzten sich sofort auf die afr-friendlyd3d.exe. Dabei gibt es so viele Alternativen, wenn man umbenennen will. Spätestens als Oblivion mit afr-friendlyd3d flackerte, hätte FS mal eine andere .exe fürs Umbenennen überprüfen müssen, um ein qualifiziertes Urteil über Xfire im Spiel Oblivion abgeben zu können. Mir war nämlich das Flackern mit der afr-friendlyd3d.exe auch aufgefallen und ich hatte daher sofort eine andere .exe gewählt. Quasar empfiehlt die fear.exe für Oblivion. Ich persönlich hatte mit der sam2.exe beste Erfahrungen gemacht. Da flackerte nix und sam2.exe bot bereits eine 80%-ige Mehrleistung im Vergleich zu einer Karte.

Nun, nach dem gestrigen Oblivion-Hotfix erübrigt sich ein Umbenennen der Oblivion.exe. Oblivion hat nun ein eigenes Xfire-Profil und die Xfire-Performance wurde nochmals gesteigert. Wär eine gute Gelegenheit für FS, seinen ramponierten Benchmarking-Ruf wieder aufzupolieren, indem sie ein weiteres Benchmark-Update an Hand des Oblivion-Hotfixes machen.

tombman
2006-04-08, 04:20:59
Eigentlich macht es FS total richtig. Warum sollte ein User gezwungen sein, solange wie ein Blöder die .exe umzubenennen bis eine gefunden wird, womit AFR dann rennt? Zumal es dann keine Garantie gibt, daß es dann funkt. Condemned und TMN rennt auch mit renamen NICHT beschleunigt im CF-Modus, während es das bei SLI sehr wohl tut.

Und auch beim renamen muß man aufpassen, denn manche games starten erst über einen Umweg einer anderen .exe. Da würde dann beim renamen gar nichts starten weil .exe Nr.1 .exe Nr.2 nicht mehr findet, da diese ja umbenannt wurde.

Einem normalen Anwender ist sowas nicht zuzutrauen, basta.

p.s: ich habe damals ja FS erst überhaupt auf die ganze Thematik aufmerksam gemacht, und je mehr sich alles verbreitet umso besser :cool: ;)

Matrix316
2006-04-08, 10:58:11
Allerdings hat er auch 'nur' eine SC 2GHz CPU im Rechner... auch da würde ein +40% Update helfen.

Höy, nicht so abwertend. ;) Am Ende denkt ein Pentium 4 mit 2 GHz Besitzer er hätte eine ähnlich schnelle CPU. ;)

40% mehr bei einer 2 GHz CPU wären 2800 MHz, also ein FX57 oder je nach dem ein Pentium 4 mit 2,8 GHz :D. 40% mehr bei einem 3000+ wäre ein 4200+, also entweder Dual Core :D oder ein 4000+ etwas übertaktet. ;) Jetzt kommts drauf an worauf sich die 40% beziehen.

Die Alternative zu allem, die Auflösung und die Details runter zu schrauben, gefällt mir eher weniger...

Razor
2006-04-08, 11:32:21
Ja ich kenne die Problematik mit avg und min fps ;)
Trotzdem kann ich davon ausgehen, daß bei avg 20 vs 27 fps die Karte mit den 27 fps die besseren min fps bietet.
Es gibt keine "besseren min fps" wenn sich diese unterhalb von 25fps befinden!
Dann ruckelt es und es ist "ungenießbar"...

Und ja, die min fps könnten dann wirklich unspielbar sein, aber es kommt dann darauf an, wie weit sie denn nun tatsächlich absinken und wie oft das passiert (wobei man bei Oblivion 20fps noch als halbwegs flüssig bezeichnen kann).
Kann man leider nicht...
Aber es soll ja weniger empfindliche Naturen geben.
:D

Wenn es zu eng wird, kann man immer noch Details reduzieren - das ändert aber nix daran, daß die Karte mit den 27fps viel schneller in den spielbaren min fps Bereich kommen dürfte.
Das ist leider ein Irrtum.

Razor

reunion
2006-04-08, 12:56:53
Eigentlich macht es FS total richtig. Warum sollte ein User gezwungen sein, solange wie ein Blöder die .exe umzubenennen bis eine gefunden wird, womit AFR dann rennt? Zumal es dann keine Garantie gibt, daß es dann funkt. Condemned und TMN rennt auch mit renamen NICHT beschleunigt im CF-Modus, während es das bei SLI sehr wohl tut.

Und auch beim renamen muß man aufpassen, denn manche games starten erst über einen Umweg einer anderen .exe. Da würde dann beim renamen gar nichts starten weil .exe Nr.1 .exe Nr.2 nicht mehr findet, da diese ja umbenannt wurde.

Einem normalen Anwender ist sowas nicht zuzutrauen, basta.

p.s: ich habe damals ja FS erst überhaupt auf die ganze Thematik aufmerksam gemacht, und je mehr sich alles verbreitet umso besser :cool: ;)


Was jemanden zuzutrauen ist, oder nicht, das hat noch immer jeder selbst zu entscheiden. Und sonst hat sich die Diskussion mit dem neuen Treiber ohnehin erledigt.

Odal
2006-04-08, 13:03:18
Es gibt keine "besseren min fps" wenn sich diese unterhalb von 25fps befinden!
Dann ruckelt es und es ist "ungenießbar"...


Kann man leider nicht...
Aber es soll ja weniger empfindliche Naturen geben.
:D


Das ist leider ein Irrtum.

Razor


dann bau dir doch eine FX5200 ein. Als Prozessor reicht ein AthlonXP 1700+

es gibt kein System was Oblivion durchgängig mit über 25FPS darstellt... (in default einstellungen) es gibt immer mal die ein oder andere stelle die nur mit unter 25FPS läuft.

und oblivion lässt sich auch mit unter 25FPS noch sehr gut spielen...

millionen von menschen auf dieser erde sind der beweis.

reunion
2006-04-08, 13:03:51
Es gibt keine "besseren min fps" wenn sich diese unterhalb von 25fps befinden!
Dann ruckelt es und es ist "ungenießbar"...


Wie im Kindergarten. Wenn du nicht einsehen willst, dass eine Karte, die mit gewissen Settings 27fps erreicht "besser" ist als eine andere, die nur 20fps erreicht, dann kann dir wohl niemand helfen.


Das ist leider ein Irrtum.


Nein, ist es in der Regel nicht.

Razor
2006-04-08, 14:25:41
Wie im Kindergarten. Wenn du nicht einsehen willst, dass eine Karte, die mit gewissen Settings 27fps erreicht "besser" ist als eine andere, die nur 20fps erreicht, dann kann dir wohl niemand helfen.
Oder Du begreifst es einfach nicht.
Tombman hat hier eindeutig recht... wenn Du das Game 'vernünftig 'zocken' willst, brauchst Du gleich 2 X1900.
(und 'ne mega-heftige CPU... wohl eine, die es noch gar nicht gibt ;-)

That's it!

27fps avg bei einem ganzen Durchlauf (nicht in einer Scene!) ist einfach zu wenig.
Und klar... 20fps sind genauso wenig "spielbar".

Capiche?

Razor

Gast
2006-04-08, 14:37:26
Quasar empfiehlt die fear.exe für Oblivion. Ich persönlich hatte mit der sam2.exe beste Erfahrungen gemacht. Da flackerte nix und sam2.exe bot bereits eine 80%-ige Mehrleistung im Vergleich zu einer Karte.
Interessant. Ich hatte beim Benchen lediglich den Performance-Verlust bemerkt und das natürlich auf ein unverständlicherweise fehlendes Crossfire-Profil geschoben. Ausprobiert habe ich lediglich 3DMark05.exe und eben F.E.A.R.. Nachdem 3DMark05.exe heftige Bildfehler ergab (ich vermute mal, dass das auch zu AFR defaulted) einfach mal ein "echtes" Spiel probiert und das lief.

Herauszufinden, welche .exe und damit welche Profileinstellung nun die besten Resultate liefert, ist nicht mein Job sondern der von Atis Treiberabteilung. Wenn die mir zukünftig meine Brötchen bezahlen, probiere ich auch gern 100 verschiedene .exe-Dateien aus. ;)

Allerdings frage ich mich wieder einmal, wieso Ati soviel Potential verschenkt? Oblivion ist ja nun kein Spiel, welches plötzlich aus der Versenkung aufgetaucht ist - allein das Vorhandensein der atimgpu.dll beweist, dass Kontakt zum Dev-Rel-Team da war. Warum entsprechende Fixes, auch hinsichtlich der Schattenproblematik (selbst und gras), nicht schon im Cat6.3 drin gewesen sind, bleibt mir ein Rätsel.


Q

Gast
2006-04-08, 14:41:32
27fps avg bei einem ganzen Durchlauf (nicht in einer Scene!) ist einfach zu wenig.
Und klar... 20fps sind genauso wenig "spielbar".

Würde ich pauschal so nicht sagen. Gerade bei Spielen wie Oblivion kommt es IMO stark darauf an, wie die Szene, die man zum Benchmark hernimmt, ausschaut.

Setzen sich die 27 avg. aus einer Spanne von 25-29 Fps zusammen und sind halbwegs gleichmäßig verteilt, würde ich einem Spiel wie Oblivion problemlose Spielbarkeit attestieren.

Bekomme ich nun aber "Aussetzer" von 10 Fps und Spitzen von 44 Fps (ebenfalls der Einfachheit halber mal gleichmäßige Verteilung angenommen), bleibt das Setting eben nur eingeschränkt spielbar.

Bringt eine zweite Grafikkarte diese Spitzen dann auf meinetwegen 88 Fps und steigen die Avg-Fps dadurch auf 40, bringt mir das für meine 10-Fps-Ärgernisse erst einmal gar nichts.

Daher sollte man sowas genau analysieren.

Q

reunion
2006-04-08, 16:09:07
Oder Du begreifst es einfach nicht.
Tombman hat hier eindeutig recht... wenn Du das Game 'vernünftig 'zocken' willst, brauchst Du gleich 2 X1900.
(und 'ne mega-heftige CPU... wohl eine, die es noch gar nicht gibt ;-)

That's it!

27fps avg bei einem ganzen Durchlauf (nicht in einer Scene!) ist einfach zu wenig.
Und klar... 20fps sind genauso wenig "spielbar".

Capiche?

Razor

Im grunde hat Quasar alles dazu gesagt. Solche pauschalisierungen sind wenig sinnvoll.

Razor
2006-04-08, 19:46:55
Im grunde hat Quasar alles dazu gesagt. Solche pauschalisierungen sind wenig sinnvoll.
Wenn Du Dir das genauso zu Herzen nehmen würdest, dann wäre dies ja auch OK.
Du hingegen attestierst Spielbarkeit, ohne es zu wissen...

Ansonsten verweise ich auf folgenden Post:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4165918#post4165918

Hier ein kleiner Ausschnitt:
Nein, ausgewogen ist dieser Test keinesfalls, auch sollten die "Ergebnisse" hier wahrhaft noch einmal intensiv durchleuchtet werden, denn wenn hier die CPU mit eingreift, Fraps damit noch ins Spiel kommt und dier "Ergebnisse" dann auch noch recht... sagen wir mal... inpausibel erscheinen... nein... daraus Rückschlüsse zu ziehen halte ich für recht gewagt.

Oder doch, einiges kann hier vielleicht doch noch mitnehmen:
- ein Vorteil von 512MB Karten ist hier nicht ersichtlich
- 1600 ist auch auf einer X1900 nicht wirklich sinnvoll
- die CPU scheint bei Oblivion eine sehr große Rolle zu spielen
Razor

Grindcore
2006-04-08, 20:00:57
Nachdem Du Dich jetzt selbst zitiert hast, werden Dir die übrigen Diskutanten natürlich vorbehaltlos zustimmen. >Razor, Diskussionskultur at it´s best.<

Ronny145
2006-04-08, 20:04:07
- ein Vorteil von 512MB Karten ist hier nicht ersichtlich




Aber erst klang das ganz anders :rolleyes:


:hammer:

Und wieder einer, der nicht mitbekommen hat, dass es mehr ein Vergleich "512MB vs. 256MB" ist, der da gezeigt wurde.

Razor
2006-04-08, 20:23:00
Aber erst klang das ganz anders :rolleyes:
Jo...
Ich beharre ja auch nicht auf einer Meinung, wenn sich diese durch eigene Untersuchung revidiert.
Ich denke, dass ich das umfassend in dem von mir verlinkten Post dargelegt habe...

[EDIT]

Als ich den Treiber von 84.24 beta auf 84.26 (@Razor-Mod ;-) gewechselt bin, dachte ich zuerst: "Oy, des ist aber nicht so prall!"... aber dann stellte ich fest, dass RMClock noch in der "Performance on demand" Einstellung lief... was einen maximalen CPU-Takt von 2GHz bedeutet. "No management" löste die selbst auferlegte 'Bremse' und die CPU taktete wieder mit 2,75GHz... und alles war wieder im Lot.
:D

Razor

davidzo
2006-04-10, 22:18:32
Also wer unter 20FPS mit eine rguten Mittelklassegraka bei Oblivon hat ist selber Schuld. Ich habe eine 6800 128MB @16/6 mit nem ollen AthlonXP 2,2Ghz, KT400 und 1GB RAM.
Zuerst war ich auch schockiert über die schlechte leistung, dann habe ich angefangen zu forschen. Der Obliviontreiber brachte ein gutes bisschen Mehrleistung, dann habe ich angefangen die ini zu editieren. jetzt kann ich Oblivion mit HDR, 4x Aniso, alle Regler auf 1/3, Grasbewuchs noch weiter als normal, mit wasserspiegelungen, ohne treeshadows und ohne selfshadows, mit verbesserten gesichtstexturen (gibts nen inoffiziellen patch für) und besserem displacementmapping im gesicht und voller sichtweite, also distant buildings, trees und land. Frames sind indoor so 50-70 und outdoor 20-40. Sieht jetzt wesentlich geiler aus als die von Oblivion vorgeschlagenen einstellungen und ist viel ruckelfreier.

dafür habe ich die Grassdichte reduziert, was man nicht wirklich bemerkt weil die wirklich abartig hoch war, dafür habe ich den grasbewuchs vergrößert bis fast zu den distant lands, die texturen auf medium gestellt (habe nur 128mb grakaram, mehr geht da net), die sichtweite zwischen normal und distandt lands ein wenig reduziert, shadowmaps reduziert und mit einem größeren blurfilter versehen, das macht sie runder, softer und realistischer bei besserer perfromance. Und etliches mehr. man muss einfach nur mal die ini zeile für zeile durchgehen und übersetzen bzw. ausprobieren was die Einstellungen bewirken. hab mir in eine txtdatei alles notiert was man so ändern kann, bzw. von dem ich weiß was es alles bewirkt. habe sogar die sonnenfarbe geändert damit nicht immer die ferne so blau und kahl aussieht, jetzt wirkts fast wie in farcry von den farben.

Hier mal meine txtdatei die ich mir beim testen notiert habe:
Oblivion Grafik-Tweaks Sammlung

Generelle Grafik Settings:

Large Texturen verursachen einen Performanceeinbruch von biszu 40%, Medium ist also für die meisten empfehlenswert. Small gibt selten auch nur 10% mehr Leistung.

Der Baumfader kann biszu 20% Leistungseinbrüche verursachen wenn von der Mittelstellung nach ganz rechts verschoben. empfohlen jedoch mindestens 1/3, sonst siehts arg mies aus.

Der Grassfader sollte nicht weiter als halb aufgerissen werden, Sonst bricht die Performance um biszu 20% ein.

Generell kosten die Distant Lands etwa 20% Performance. Gebäude, Bäume zu deaktivieren bringt selten 5% verbesserung, wenn DistandLands dann auch die weiteren Optionen on. Es muss jeder für sich selber entscheiden ob die relativ niedrig auflösenden DistandLands eine Bildverbesserung geben die es lohnt oder nicht.

Tree canopy Shadows bringen kaum Bildverbesserung, kosten aber viel performance (bis 20%).

SelfShadows verunstalten aufgrund der ungenauen schattierung eher als dass sie die Grafik verbessern. sieht man sowieso nur bei First person view. Kostet trotzdem anständig Leistung.

Shadows auf dem vielen gras kostet logischerweise unmengen an performance und bei der Grasdichte kaum zu sehen, lohnt also nicht.

HDR Rendering ist erst ab 6800GT und X1800 Grafikkarten sinnvoll nutzbar, bringt dann zwar keinen in Standbildern sichtbaren Effekt gegenüber Bloom, aber sorgt für realistisches gameplay wie dass die sonne blendet wenn man aus einem Dungeon kommt oder stärkere Kontraste wenn man fast direkt in die Sonne guckt und generell bessere Ausnutzung der 32bit farben durch natürlich anmutende anpassung der Farb und Lichtverhältnisse. Für absolutes Outdoorfeeling empfehlenswert, bringt ohne Bewegung allerdings keinen wirklichen Vorteil. Kostet biszu 20% Leistung. Ohne HDR ist der normale Filter zu empfehlen, Bloom bedeutet lediglich eine fake Überlendung, dass es nach HDR aussieht, was lediglich bewirkt dass der Kontrast zu hoch wirkt und man bestimmte Dinge schlechter erkennen kann (hellgrau auf weiß wird zu nur weiß z.B.).

Defragmentieren hilft gelegentliche kurze Ruckler beim automatischen level laden im Himtergrund zu verringern, verbessert aber nicht wesentlich die Framerate.

Exteriour Shadows sind relativ selten bemerkbar auf den unregelmäßigen outdoortexturen. Der Verzicht darauf gibt ein gutes performanceplus von biszu 10%.

Interiour Shadows können meist ruhig aktiviert bleiben, zumindest auf der dritten Stufe von Links. Dungeons sind Frameratenmäßig nicht das Problem, wieso also shadows aus, wo es doch gerade bei den relativ gleichmäßigen Steintexturen etc. einen gut sichtbaren Bildqualitätsbonus gibt.

Bei Shaderlimitierten karten kann das herunterschalten oder gar abschalten von Specular Lights große Performancegewinne bedeuten. Ich persönlich habe specular lights auf 1/4 und sehe keine großen Unterschiede zu 1/2 o.ä.





Ini-Tweaking

Wir tweaken folgende INI-datei (danach darf das Optionspanel im spiel nicht mehr geöffnet werden, sonst werden manche getweakte Einstellungen wieder zurückgesetzt):
C:\Dokumente und Einstellungen\§§§\Eigene Dateien\My Games\Oblivion\Oblivion.ini

Performance Tweaking:

Gras Performance verbessern (dichte verringern):
[Grass]
iMinGrassSize=200

Die weite des Grasbewuchses verringern:
fGrassEndDistance=1000.0000
fGrassStartFadeDistance=500.0000

Intro herauskürzen:
SMainMenuMovieIntro=
SIntroSequence=
bPreloadIntroSequence=0

Landschaft mehr vorladen (erhöht Ladezeiten, verringert HDDzugriff):
iPreloadSizeLimit=52428800

Anzahl vorladeThreads (verringert Ladelags):
iThreads=10
iOpenMPLevel=10

Nvidia Performancetweak per Coolbits2:
Im Treibermenü weitere Direct3D-Einstellungen Frames im Vorraus rendern=0

ATI Performancetweak im Treiber:
A.I. deaktivieren.

Festplattencache benutzen(schnelleres level Loading):
bUseHardDriveCache=1

Bei geringem Arbeitsspeicher (512MB)?:
bPreemptivelyUnloadCells=1

Performancehit bei Oblivion gates verringern:
bUseRefractionShader=1 to 0

Das Ändern der Lichtfarbe kann den hässlichen Blaustich verringern, den man automatisch bekommt, wenn man die distant lands abschaltet (der dritte Wert ist blau, je geringer desto wneiger blauanteil im Licht):
SBumpFadeColor=255,255,250,255
SLerpCloseColor=255,255,250,255
SEnvReduceColor=255,255,250,255

Extreme Performance Tweaking (zusätzlich zu Performance-Einstellungen):
Entfernt Bumpmapping und Specular lighnting. Bei Shaderschwachen Karten einzusetzen (Radeon 96xx, GeforceFX)
bDoSpecularPass=0
bDoDiffusePass=0
bDoAmbientPass=0


Eye candy Tweaking:

Schatten genauer berechnen:
iShadowFilter=5 (oder höher, je höher der Wert deste runder)

Dichteres Gras:
[Grass]
iMinGrassSize=50

Gras reicht weiter:
fGrassEndDistance=10000.0000
fGrassStartFadeDistance=5000.0000

Schatten auf dem Playerkörper (nur bei first Person zu bemerken):
bActorSelfShadowing=1

Fackeln werfen auch Schatten:
bEquippedTorchesCastShadows=1

Wasser refelektiert auch Bäume, Personen und Gebäude:
bUseWaterReflectionsMisc=1
bUseWaterReflectionsStatics=1
bUseWaterReflectionsTrees=1
bUseWaterReflectionsActors=1

Höher aufgelöste Schattenmaps (hier doppelt so hoch):
iShadowMapResolution=2048

Besseres Bumpmapping im gesicht:
bFixFaceNormals=1

Größere highdetail exteriour Fläche (großer performancehit):
uGridsToLoad=10


Praktische Tweaks:

Bei Audioproblemen oder knacksern kann man auf Softwarebeschleunigung wechseln (kann Performance negativ beeinflussen):
bDSoundHWAcceleration=0
bUseSoftwareAudio3D=1

Screenshots erlauben:
bAllowScreenShot=1

Schrift verkleinern + lesbarer:
SFontFile_1=Data\Fonts\Tahoma_Bold_Small.fnt

r@w
2006-04-13, 11:54:04
Es gibt einen weiteren Teil zu firingsquads Oblivion-Test... "Mainstreamkarten".
Vor allen dem Thema "256MB vs. 512MB" haben sie sich diesmal näher angeschaut!
Hier verglichen die 7900GTX auf GT-Takt vs. einer 'echten' GT.
Eigentlich genau das, was ich haben wollte...
:D

256MB vs. 512MB
in Oblivion

Hier der Link auf den "256MB vs. 512MB" Teil:
http://www.firingsquad.com/hardware/oblivion_mainstream_performance/page2.asp
(Seite 2 des 2. Teils ;-)

Hier mal die für mich relevanten Auszüge:
(links der "256MB vs. 512MB Nachtest", rechts der originale Test)

http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280mtshdr.gif http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/geforcemts1280.gif

Wie man sieht, hat hier die größere Speicherausstattung tatsächlich einen Einfluß.
Das Gros des ursprünglichen Tests kommt aber von dem offensichtlich höheren Takt der GPU (+ 44,5%).

Vorher: 39,8 -> 52,2 = + 31,2%
Jetzt: 39,6 -> 43,5 = + 9,8%

Defakto gibt es hier also einen 10%igen Vorteil für die doppelte Speicherausstatung.
Immerhin 'etwas', wenn auch nicht viel (wie z.Bsp. bei CoD2)...

http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280foliagehdr.gif http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/geforcefol1280.gif

Bei dem (für die GPU) sehr viel aufwändigeren Test sieht es schon ganz anders aus.
Ein Vorteil des größeren Speichers ist hier nicht zu erkennen...

Vorher: 17,2 -> 24,6 = + 43,0%
Jetzt: 17,2 -> 17,9 = + 0,4%

Der "Unterschied" liegt innerhalb der Meßtoleranz und kann vernachlässigt werden.
Der Vorteil der GTX beim ursprünglichen Test resultiert ausschließlich aus dem höheren Takt von +44,4%.

http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280indoorshdr.gif http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/geforceindoors1280.gif

Die 512MB GTX ist hier sogar langsamer... nein, nicht wirklich, zeigt sich doch das gleiche Bild wie bei "Foliage".
Ein Vorteil des größeren Speichers ist hier nicht zu erkennen...

Vorher: 91,0 -> 100,9 = + 10,9%
Jetzt: 91,0 -> 90,6 = - 0,4%

Der "Unterschied" liegt innerhalb der Meßtoleranz und kann vernachlässigt werden.
Der Vorteil der GTX beim ursprünglichen Test resultiert ausschließlich aus dem höheren Takt von +44,4%.

---

Und ich hoffe inständig, dass hier jetzt einigen ein Licht aufgeht.

Offenbar gibt es durchaus (seltene) Situationen, in denen der Speicher limitiert, bzw. limitieren kann... dann aber auch offenbar nicht in dem Maße, den einige hier propagiert haben. Und wenn zudem die Rogperformance 'kneift', gibt es sowieso keinen Vorteil für einen größeren Speicher (wie man gut an den Midrange-ATI-Ergebnissen sehen kann)... schließlich ist dieser Vorteil lediglich in Gebieten mit extremer Sichtweite vorhanden, der 'eh schon problematisch für 'schwächere' Karten ist.

So bleibt CoD2 das einzige Game, welches mit 512MB effektiv besser zurecht kommt!
(und das wohl auch nur, weil es 'gammelig' geproggt wurde... siehe auch BF2 vs. Arbeitsspeicher ;-)

Mein Dank gilt firingsquad, welche ihren Lapsus zumindest in einem zweiten Artikel wieder zurecht gerückt haben.
Auch wenn sie in dem ursprünglichen Test nicht darauf verweisen... aber vielleicht kommt das ja noch...

Razor

sklave_gottes
2006-04-13, 12:11:00
@Razor

danke :-) du hast uns erlöst!

so wie ich es mir gedacht hatte.
Das spiel geht auf ati karten einfach viel besser.

r@w
2006-04-13, 15:58:01
Hehe... ja.

@all (other ;-)

Wat is los?
Hat's Euch die Sprache verschlagen?
:confused:

Razor

Coda
2006-04-13, 15:59:39
(und das wohl auch nur, weil es 'gammelig' geproggt wurde... siehe auch BF2 vs. Arbeitsspeicher ;-)
Was ist daran "gammelig", wenn man viele hochauflösende Texturen verwendet?

mapel110
2006-04-13, 16:05:55
Was ist daran "gammelig", wenn man viele hochauflösende Texturen verwendet?
Weil man keine Rücksicht auf Razors besonderen 1GB Ram gelegt hat, der selbst bei Fear völlig ausreichend ist auf maximalen Details. :)

Razor
2006-04-13, 18:12:02
Was ist daran "gammelig", wenn man viele hochauflösende Texturen verwendet?
Schau Dir die Grafik an und weine...

Weil man keine Rücksicht auf Razors besonderen 1GB Ram gelegt hat, der selbst bei Fear völlig ausreichend ist auf maximalen Details. :)
Du weiß hoffentlich dass sich schon seit Monaten 1,5Gig im Rechner befinden.
Und für FEAR braucht es nicht mehr als 1Gig... nur was das jetzt mit dem VRAM-Verschwender CoD2 zu tun haben soll?

Razor

P.S.: Ein schönes Beispiel gibst Du ab, Mapel... ":up:"

Banshee18
2006-04-13, 18:39:56
Du weiß hoffentlich dass sich schon seit Monaten 1,5Gig im Rechner befinden.
Und für FEAR braucht es nicht mehr als 1Gig... nur was das jetzt mit dem VRAM-Verschwender CoD2 zu tun haben soll.

Razor

Bitte nicht schon wieder. ;(

Unschuld
2006-04-13, 19:07:35
Gott sei Dank!

>>No one can ever know that they understand something, they can only hope to understand.<<

Jetzt ist wieder alles im Lot für mich!

robbitop
2006-04-13, 19:28:48
Was ich nicht verstehen kann, ist die extreme CPU Last des Spieles. Es gibt Städte, in denen es tw unspielbar ruckelig ist. Und das auf einem nicht ganz langsamen 2,7GHz Opteron (1MiB L2).

Razor
2006-04-13, 19:42:34
Und mich würde interessieren, was hier mit den ganzen vermeitlich "Wissenden" ist, die behauptet haben, dass man für Oblivion nun unbedingt 512MB VSpeicher braucht und deswegen ATI-Karten 'optimal' sein sollen.

War aber eigentlich klar, dass da nur dumme Sprüche kommen.

Razor

Odal
2006-04-13, 19:59:58
@Razor

danke :-) du hast uns erlöst!

so wie ich es mir gedacht hatte.
Das spiel geht auf ati karten einfach viel besser.


nicht nur das... das spiel geht äusserst gut auf einer X800XL im Vergleich mit einer 7900GT/7800GTX

http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/geforcefol1280.gif
http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/radeonfol1280.gif

auch wenn auf der 7900GT HDR an ist und auf der X800XL wohl Bloom dafür aber 2xAA

schon beeindruckend ;) wie gut eine X800XL da noch geht....eine X850XT sollte da ja nochmal ne ganze scheibe (20-23%) drauflegen (Computerbase Performancerating)

leider wurde nicht mal ohne HDR als vergleich zwischen beiden getestet...
aber man kann ja mal ein bisschen rumrechnen....


http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280foliagehdr.gif
http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280foliageaa.gif

hier ist leider 4xAA an aber die 7900GT gewinnt von 0xAA+HDR auf noHDR+4xAA 13,4% mit nur 2xAA dürfte es natürlich mehr sein...bzw. bei der X800XL mit 4xAA etwas weniger...

d.h. nehmen wir obigen vergleich...rechnen auf die 17,2FPS der 7800GT 13,4% drauf sind wir bei 19,5FPS die die 7900GT mit 4xAA ohne HDR ca. haben dürfte...

treffen wir die aussage eine X800XL ist mit 2xAA bei dieser Area knapp 30% schneller als eine 7900GT mit 4xAA (bei beiden kein HDR)...

kommt die spekulation auf..macht der unterschied zwischen 2xAA und 4xAA 30% aus? d.h. würde die x800xl 30% speed verlieren wenn man von 2xAA auf 4xAA wechselt?

ich glaube nicht....

ich denke mal man kann guten gewissens die aussage treffen das eine X800XL eine 7900GT in gebieten mit wenig FPS bügelt :rolleyes:

The_Invisible
2006-04-13, 20:10:34
aha, und ne 7600gt ist schneller wie ne 7900gt ?

http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/1280foliagehdr.gif

ich glaub eher die benchmarks kann man in die tonne klopfen

mfg

Odal
2006-04-13, 20:21:00
aha, und ne 7600gt ist schneller wie ne 7900gt ?

http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/1280foliagehdr.gif

ich glaub eher die benchmarks kann man in die tonne klopfen

mfg

ich denke das ist nachvollziehbar...

6800GT 16pipes 350Mhz Takt...

7600GT 12 pipes 560Mhz takt

16*350=5600
12*560=6720

hinzu kommt das die pixelshaderleistung nochmals höher ist da die 7600GT 2 PS Alus pro pipe hat.

macht 20% mehr GPU Leistung für die 7600GT + die erhöhte Shaderleistung durch die 2 PS Alus pro pipe


es wurde schonmal nachgewiesen das oblivion nicht sooo Bandbreitenhungrig ist...

Bandbreite:

6800GT 500*2=1000 (*2 da 256Bit interface)
7600GT 700*1=700 (*1 da 128Bit)

macht gute 40% mehr bandbreite für die 6800GT aber wie gesagt bandbreite soll bei oblivion nicht soooo die rolle spielen

wenn das jetzt wirklich PS limitiert ist kann das durchaus hinkommen
man sieht ja auch wieviel die x1600XT trotz der nur 4 kompletten Pipes im vergleich zur 6800GT reisst....

The_Invisible
2006-04-13, 20:26:53
hä, ich rede hier von ner 7900gt :

7900gt = 450 x 2 x 24 = 21600
7600gt = 560 x 2 x 12 = 13440

welche karte müsste also nun deutlich schneller sein, ist es aber nicht...

mfg

Odal
2006-04-13, 22:23:23
hä, ich rede hier von ner 7900gt :

7900gt = 450 x 2 x 24 = 21600
7600gt = 560 x 2 x 12 = 13440

welche karte müsste also nun deutlich schneller sein, ist es aber nicht...

mfg


ich seh in deinem geposteten benchmarkdiagramm nix von einer 7900GT

http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/1280foliagehdr.gif

:rolleyes: nur eine 7600GT und eine 6800GT

falls du jetzt darauf hinaus willst das im oberen diagramm wo eine 7900GT dabei war auch nur soviel FPS erreicht wurden wie im anderen Diagramm mit 7600GT sag ich nur: es soll durchaus verschiedene stellen in einem spiel geben ^^

Ronny145
2006-04-13, 22:28:38
Und mich würde interessieren, was hier mit den ganzen vermeitlich "Wissenden" ist, die behauptet haben, dass man für Oblivion nun unbedingt 512MB VSpeicher braucht und deswegen ATI-Karten 'optimal' sein sollen.

War aber eigentlich klar, dass da nur dumme Sprüche kommen.

Razor


Optimal sind sie doch. Zum einen sind die schneller und HDR+AA ist möglich. Bei weiteren ini tweaks kommt der 512 MB VRAM Vorteil noch mehr zur Geltung. Der Einbruch unter HQ nervt auch.

Gast
2006-04-13, 22:30:45
falls du jetzt darauf hinaus willst das im oberen diagramm wo eine 7900GT dabei war auch nur soviel FPS erreicht wurden wie im anderen Diagramm mit 7600GT sag ich nur: es soll durchaus verschiedene stellen in einem spiel geben ^^

angeblich ist es aber die gleiche stelle ;)

Quasar
2006-04-14, 00:35:49
Und mich würde interessieren, was hier mit den ganzen vermeitlich "Wissenden" ist, die behauptet haben, dass man für Oblivion nun unbedingt 512MB VSpeicher braucht und deswegen ATI-Karten 'optimal' sein sollen.

War aber eigentlich klar, dass da nur dumme Sprüche kommen.

Razor
Ich habe schon VRAM-Verbräuche von 377 MByte gesehen. Allerdings mit LOD-Texture-Fix und uGrids auf Werten jenseits von 10.

Mehr als 256 MByte sind für HDR und FSAA allerdings auch nicht verkehrt (und ja, es sieht ziemlich geil aus).

Ronny145
2006-04-14, 07:28:11
Ich habe schon VRAM-Verbräuche von 377 MByte gesehen. Allerdings mit LOD-Texture-Fix und uGrids auf Werten jenseits von 10.



Ich auch. Deswegen sind 512 MB VRAM sinnvoll in Oblivion.

Razor
2006-04-14, 07:58:03
ich denke mal man kann guten gewissens die aussage treffen das eine X800XL eine 7900GT in gebieten mit wenig FPS bügelt :rolleyes:
Zu viele Annahmen, falscher Schluß.
Mächtiger Äpfel/Birnen-Irrtum.

Mehr muss man dazu nicht sagen...

aha, und ne 7600gt ist schneller wie ne 7900gt ?
http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/1280foliagehdr.gif
ich glaub eher die benchmarks kann man in die tonne klopfen
Was erwartest Du?
Die haben mit Fraps 'gemessen', mächtig an der INI 'gespielt' und die CPU völlig aussen vor gelassen.

Optimal sind sie doch. Zum einen sind die schneller und HDR+AA ist möglich. Bei weiteren ini tweaks kommt der 512 MB VRAM Vorteil noch mehr zur Geltung. Der Einbruch unter HQ nervt auch.
Darum ging es nicht...
512MB sind auch auf den ATI's 'überflüssig'.
Immer noch von einem "512 MB VRAM Vorteil" zu sprechen, grenzt ja schon fast an Ignoranz!

Razor

Razor
2006-04-14, 07:58:19
Ich habe schon VRAM-Verbräuche von 377 MByte gesehen. Allerdings mit LOD-Texture-Fix und uGrids auf Werten jenseits von 10.
Soll ich mal 4096'er Texturen basteln und das dann auf uGrids >10 auf Deine 'kleine' ATI los lassen?
Es würde in einen VRAM-"Verbrauch">500MB resultieren und der "Vorteil" wäre dahin.
Du könntest höchstens sagen, dass Dir die 512MB ein bischen (!) mehr Spielraum geben...
...mehr ist es aber auch nicht.

Und einen 10%'igen Vorteil hat es doch in dem "Mountain"-Bench gegeben.
Also ein bischen bringt es an bestimmten Stellen schon...
Allerdings ist nicht geklärt, wie das TexManagement bei Oblivion funktioniert.
Eventuell wird mehr in den VRAM geladen, wenn genug davon da ist.

Und ich muss ganz ehrlich sagen, dass ich aufgehört habe, Oblivion zu "modden".
Das Spiel wird so gezockt, wie es vom Hersteller geliefert wurde und nicht weiter "verschlimmbessert"...
...alle Veränderungen, die man vornimmt, haben auf der "anderen Seite" IMMER Nachteile.

Mehr als 256 MByte sind für HDR und FSAA allerdings auch nicht verkehrt
Also das wäre mir neu!
Bis Du sicher, das mal ohne Deine TexMods ausprobiert zu haben?
:confused:

(und ja, es sieht ziemlich geil aus).
DAS glaube/weiß ich!
:D

Razor

Ronny145
2006-04-14, 08:10:51
Darum ging es nicht...
512MB sind auch auf den ATI's 'überflüssig'.
Immer noch von einem "512 MB VRAM Vorteil" zu sprechen, grenzt ja schon fast an Ignoranz!

Razor


Ich schrieb mit ini tweaks und Mods genauso! Willst du da auch den Vorteil absprechen oder warum der Einwand? Das grenzt bei dir eher an Ignoranz.

Soll ich mal 4096'er Texturen basteln und das dann auf uGrids >10 auf Deine 'kleine' ATI los lassen?
r


Ja mach das mal. 120 MB VRAM verbrauchte das zusätzlich bei einem anderen User. (http://forum-3dcenter.de/vbulletin/showpost.php?p=4151558&postcount=313)
Erstmal mit uGrids 5 und danach mit uGrids 9 am Besten.

Razor
2006-04-14, 08:30:20
'Glaubst' Du denn wenigstens, dass Oblivion im Standard (ruhig@max settings aber ohne TexMods!) mit 256MB VRAM auskommt?
Oder liegt auch das nicht auf Deinem Horizont?
:confused:

Und wer sagt, dass Oblivion mit dem VRAM Speicher nicht anders umgeht, wenn zuviel davon da ist?
(lesen bildet... siehe Post@Quasar)

Razor

P.S.:
Ja mach das mal. 120 MB VRAM verbrauchte das zusätzlich bei einem anderen User. (http://forum-3dcenter.de/vbulletin/showpost.php?p=4151558&postcount=313)
"Unkomprimierte Normalmaps für die Geländeschatten wurden noch nicht verwendet!"
Wie ich schon sagte... Lesen bildet.

Odal
2006-04-14, 09:36:36
Zu viele Annahmen, falscher Schluß.
Mächtiger Äpfel/Birnen-Irrtum.

Mehr muss man dazu nicht sagen...


warum? die fakten liegen auf der hand... eine 7900GT wird von einer X800XL im direkten Vergleich um 47% gebashed wenn die 7900GT HDR anhat und X800XL Bloom und 2xAA

Der unterschied bei der 7900GT zwischen HDR und non-HDR aber dafür 4xAA ist marginal....

also ich kann da eins und eins zusammenzählen das eine 7900GT in einigen Aussenarealen von einer X800XL abgeledert wird :rolleyes:

hier kommen wir vermutlich noch in den Bereich wo noch keine CPU Limitierung vorliegt...ab so gut 30-35FPS fängt die CPU in den Aussenarealen meist mächtig zu limitieren...szenenbedingt natürlich manchmal schon deutlich eher...

das ne 7900GT von einer X800XL abgeledert wird sieht man sowohl im direkten vergleich (oben) , als auch an Diagrammen wie hier

http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280foliageaa.gif

da schiesst die X1800XT die 7900GT schonmal mit knapp 50% ab ;)
naja vermutlich der hohen Füllrate und Geometrieleistung der Radeon Karten sei Dank
mit 6800GT braucht man mit 4xAA und 8xAF garnicht mehr antraben, da ist die Diashow gleich vorprogrammiert...
den Vergleich zw. X800XL und 6800GT erspare ich mir an dieser Stelle besser (sonst wirds peinlich :D) der findige Leser sieht das ja auch an den Diagrammen :rolleyes:

ich dachte zwar erst das es shaderlimitiert ist...aber bei dem marginalen unterschied zw. X1900XT und X1800XT hängts wohl doch nicht an der Shaderleistung (zumindest da wo die FPS allgemein mies sind).

The_Invisible
2006-04-14, 09:54:19
das ist alles nur speku, "äpfel/birnen" (hdr vs nonhdr) vergleich und die benchmarks sind nicht nachvollziebar, ich bitte dich, du wirst doch nicht daraus ein fazit ziehen

ich finde eigentlich nur arm das die x800er Serie garkein HDR kann ;)

mfg

Razor
2006-04-14, 10:03:04
:D

Ich weiß auch nicht... er redet von "Fakten auf der Hand" und im gleichen Athemzug von "wenn... und...".
Aber sei es drum... wenn er sich mit 'ner vollkommen veralteten Grafikkarte abgeben möchte... ;)
...und irgendwelchen Unfug konstruiert, nur um sich dann besser zu fühlen... sein Ding.

Dass er aber regelrecht 'wirr' redet, scheint er gar nicht zu merken...
...zeigt ein Diagramm, erzählt irgendwas von X800 vs. 7900GT und auf diesem ist überhaupt nix davon zu sehen.

Neee...
Ein bissel muss man schon bei der Realität bleiben!

Razor

Geo72
2006-04-14, 10:04:28
...ich finde eigentlich nur arm das die x800er Serie garkein HDR kann ;)

mfg
Genau! Tatsächlich ist Oblivion das erste Spiel wo ich wirklich froh bin, daß ich mir damals eine 6800 geholt habe und keine x800. Das Spiel sieht erst mit HDR richtig gut aus und wegen der CPU Limitierung kostet das auch kaum Leistung.

Odal
2006-04-14, 10:06:01
das ist alles nur speku, "äpfel/birnen" (hdr vs nonhdr) vergleich und die benchmarks sind nicht nachvollziebar, ich bitte dich, du wirst doch nicht daraus ein fazit ziehen

nö eigentlich is es bzgl. der X800XL vs 7900GT 2xAA vs 4xAA mit 30% höherer Performance bei ersterer....

bzgl. X1800XT vs 7900GT ist es 4xAA vs 4xAA also identische Settings... mit 50% Speedvorteil für die X1800XT


ich finde eigentlich nur arm das die x800er Serie garkein HDR kann ;)

mfg

ich find es eigentlich nur arm das die 7900GT/GTX noch kein HDR+AA kann ;)
ich find es eigentlich nur arm das das eine 6800GT bei HDR und AF in TFT üblichen Settings dermaßen ins stocken gerät ;) das es mal wieder unbenutzbar ist (ausser man verzichtet an anderer Stelle)
ich find bloom toll :tongue: besonders mit AA und AF in sehr gut spielbaren FPS :biggrin:
btw. gibts auch ein fakehdr plugin welches eine Art Irissimulation (welche beim Oblivion HDR ja fehlt) übernimmt und mit Bloom funktioniert...die üblichen nachteile von Bloom werden aber natürlich damit nicht beseitigt...allerdings erkenne ich dort keinen/kaum unterschied :wink:

Odal
2006-04-14, 10:08:26
:D

Ich weiß auch nicht... er redet von "Fakten auf der Hand" und im gleichen Athemzug von "wenn... und...".
Aber sei es drum... wenn er sich mit 'ner vollkommen veralteten Grafikkarte abgeben möchte... ;)
...und irgendwelchen Unfug konstruiert, nur um sich dann besser zu fühlen... sein Ding.

Dass er aber regelrecht 'wirr' redet, scheint er gar nicht zu merken...
...zeigt ein Diagramm, erzählt irgendwas von X800 vs. 7900GT und auf diesem ist überhaupt nix davon zu sehen.

Neee...
Ein bissel muss man schon bei der Realität bleiben!

Razor

ich poste es nochmal für dich

1.
http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/radeonfol1280.gif
2.
http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280foliageaa.gif
3.
http://www.firingsquad.com/hardware/oblivion_mainstream_performance/images/geforcefol1280.gif
4.
http://www.firingsquad.com/hardware/oblivion_high-end_performance/images/1280foliagehdr.gif

ein bisschen aufmerksameres Lesen kann man doch erwarten..ich sprach von "obigen" Diagrammen
und wenn du mir jetzt weiss machen willst das eine X800XL beim wechsel von 2xAA auf 4xAA dort mehr als 30% Leistung verliert (dann wär sie so schnell wie die 7900GT) dann fang ich an zu lachen.

ich kann dir auch noch die logik dazu definieren:
a)7900GT FPS wert aus 3. und 4. exakt der selbe => gleicher Benchmark/Stelle
b)1. und 3. Diagramm aus dem gleichen Benchmark.... => Gleiche Stelle

c) folgt aus a) && b) transitivität 1. Diagramm und 4. Diagramm gleicher Benchmark und gleiche Stelle

d) 2. und 4. Diagramm gleicher Benchmark/gleiche Stelle nur unterschiedliche Settings...

e) folgt aus c) && d) transitivität 1. Diagramm und 2. Diagramm gleicher Benchmark/gleiche stelle.... einmal mit 2xAA und einmal mit 4xAA

das nun leider nicht beides mit gleichen AA einstellungen getestet ist wirkt sich natürlich darauf aus das ich nicht eineindeutig den Vergleich ziehen kann....aber wohl keiner wird hier behaupten das die X800XL beim wechsel von 2xAA auf 4xAA auf das niveau einer 6800GT absinkt, vermutlich (jetzt mal wirklich vermutlich) wird sie auch nicht um viel mehr als 30% einknicken, die sie ja mit 2xAA schneller ist als eine 7900GT mit 4xAA

Gast
2006-04-14, 10:09:24
Also das wäre mir neu!
Bis Du sicher, das mal ohne Deine TexMods ausprobiert zu haben?
:confused:

Ja, da waren von 512 MByte gerade mal noch 141 frei. Natürlich nicht in-Game gemessen, sondern mit VidMemWatch von www.nonatainment.de und ein paar verschiedenen Arealen.

Natürlich besteht die Möglichkeit, wie du schon sagtest, dass Oblivion ein schlaues Video-Speichermanagement hat und Texturen nur aus dem VRAM rausschmeisst, wenn es wirklich voll wird.


Q

Razor
2006-04-14, 11:39:33
ich poste es nochmal für dich
Und ich quote hier mal was für Dich:
These cards don’t have the shading horsepower and memory bandwidth of the high-end cards we tested with last week, so we’re going to be more aggressive in weaking the settings for optimal performance rather than image quality.
Die relevanten Stellen habe ich ob des massiven Textes, der sicher nicht leicht zu verstehen ist, einfach mal hervor gehoben.

Wie schon gesagt... lesen bildet.
Und wie ich ebenfalls schon sagte: "Äpfel/Birnen-Vergleich", den Du da anstellst.
(nicht firingsquad... die haben nicht solch aberwitzige Bezüge hergestellt, wie Du das tust!)

Ich kann Dir bestimmt auch eine Situation konstruieren, in der eine X1900 sehr viel langsamer ist, als eine GF2.
Man bracht eigentlich nur das Rendering abschalten...
:rolleyes:

Razor

Razor
2006-04-14, 11:43:09
Ja, da waren von 512 MByte gerade mal noch 141 frei. Natürlich nicht in-Game gemessen, sondern mit VidMemWatch von www.nonatainment.de und ein paar verschiedenen Arealen.
Hast da mal eine Scene mit der man das nachmessen kann?
Warum wird da so viel Speicher 'verschwendet'?
:confused:

370MB mit 'normalen' Texturen... was macht da der 'gehackte' Treiber von ATI nur?

Natürlich besteht die Möglichkeit, wie du schon sagtest, dass Oblivion ein schlaues Video-Speichermanagement hat und Texturen nur aus dem VRAM rausschmeisst, wenn es wirklich voll wird.
Welches für den nur geringen Performance-Drop sprechen würde...
...das bliebe aber festzustellen, was ja nicht ganz einfach ist.

Muss man für das von Dir genannte Tool .NET installiert haben?

Razor

Gast
2006-04-14, 11:53:59
Hast da mal eine Scene mit der man das nachmessen kann?
Warum wird da so viel Speicher 'verschwendet'?
:confused:

370MB mit 'normalen' Texturen... was macht da der 'gehackte' Treiber von ATI nur?


Welches für den nur geringen Performance-Drop sprechen würde...
...das bliebe aber festzustellen, was ja nicht ganz einfach ist.

Muss man für das von Dir genannte Tool .NET installiert haben?

Razor
Es ist nicht "eine Stelle", sondern verschiedene Savegames - so wie man, wenn man spielt, auch in verschiedene Bereiche, Städte oder Dungeons kommt. Ich glaube nicht, dass der Chuck-Patch damit was zu tun hat.
Wie gesagt, kann auch sein, dass das Spiel Texture-Daten so lange einfach nicht wegwirft, bis der VRAM wirklich knapp wird. Das wäre IMO jedenfalls intelligent, da man durchaus ja nochmal aus dem Dungeon wieder herausgeht und die Gras-, Busch- und Baum-Dingenskirchens von vorher ja auch nachher wieder da sind und nicht neu geladen werden müssen.


Q

VidMemWatch läuft, glaube ich, auch so.

Gast
2006-04-14, 12:00:18
Nochmal ich. *gg*
Habe gerade nochmal eine einzelne Stelle verglichen. Ist irgendwo draussen in den Bergen in der Nähe einer Ayleid-Ruine und aus der Verfolgerperspektive.

360 MByte braucht's in 1.600x1.200, HDR und 6xAA laut VidMemWatch.

Die Anzeige im Spiel zeigt ja nur den Texturspeicher an, nicht aber die benötigten Buffer.

Zu dem, was der Chuck-Patch genau macht, hat Hexus.net ein schönes Interview mit eben dem besagten Chuck.


Q

Odal
2006-04-14, 12:13:21
Und ich quote hier mal was für Dich:

Die relevanten Stellen habe ich ob des massiven Textes, der sicher nicht leicht zu verstehen ist, einfach mal hervor gehoben.

Wie schon gesagt... lesen bildet.
Und wie ich ebenfalls schon sagte: "Äpfel/Birnen-Vergleich", den Du da anstellst.
(nicht firingsquad... die haben nicht solch aberwitzige Bezüge hergestellt, wie Du das tust!)

Ich kann Dir bestimmt auch eine Situation konstruieren, in der eine X1900 sehr viel langsamer ist, als eine GF2.
Man bracht eigentlich nur das Rendering abschalten...
:rolleyes:

Razor

ähm ja :confused:

As you recall from our “foliage” demo last week, this puts a huge strain on the graphics card. Since we purposely designed this demo to stress the cards as much as possible we didn’t want to make foliage any less effective at stress-testing the graphics cards

:rolleyes:

The_Invisible
2006-04-14, 12:26:13
aha, darum ist die 7600GT schneller als ne 7900GT (bei eingeblich gleichen settings) ;D

mfg

reunion
2006-04-14, 12:26:36
VidMemWatch läuft, glaube ich, auch so.

Nein, tut er (bei mir) definitiv nicht.

Habe gerade nochmal eine einzelne Stelle verglichen. Ist irgendwo draussen in den Bergen in der Nähe einer Ayleid-Ruine und aus der Verfolgerperspektive.

360 MByte braucht's in 1.600x1.200, HDR und 6xAA laut VidMemWatch.

Q

Und diese Settings sind spielbar?

Odal
2006-04-14, 12:28:49
aha, darum ist die 7600GT schneller als ne 7900GT (bei eingeblich gleichen settings) ;D

mfg


andere Szene? die 6800GT ist im Diagramm mit der 7600GT auch schneller als im Diagramm mit der 7900GT

oder eben in der woche vorher mainstreamkarten mit verminderten details getestet? mein quote bezieht sich auf den letzten test bei firinsquad

zumindest steht auf der seite mit den 512MB/256MB Vergleich

We’re running the X800 XL with the same graphics settings as we outlined on the previous page

und auf der vorherigen seite steht das sie foliage im gegensatz zu den anderen demos als stresstestdemo nehmen und keine grafiksettings runteregeln.....

reunion
2006-04-14, 12:49:44
Das Spiel läuft auf ATi-Hardware (zumindest in Außenarealen) einfach wesentlich flüssiger. Alleine schon wenn man sich ansieht, wie sich die X1600XT im vergleich zur 7600GT oder gar 6800GT schlägt, wird dieser Eindruck schnell gefestigt. Auch die letzte Generation von ATi-Karten erreicht trotz fehlendem SM3 (wobei dies entgegen mancher Aussagen zumindest auf meiner 6600GT ohnehin nicht verwendet wird) wesentlich höhere fps als die nV-Konkurrenz. Und IMO ist dieser Vorteil hauptsächlich auf die Xbox 360 zurückzuführen, auf welche das Spiel auch primär entwickelt/optimiert wurde, und in welcher nunmal ATi-Hardware schlummert. Mich würde es nicht wundern, wenn nV hier noch einiges an Performance herauskitzeln kann.

The_Invisible
2006-04-14, 13:01:08
Das Spiel läuft auf ATi-Hardware (zumindest in Außenarealen) einfach wesentlich flüssiger. Alleine schon wenn man sich ansieht, wie sich die X1600XT im vergleich zur 7600GT oder gar 6800GT schlägt, wird dieser Eindruck schnell gefestigt. Auch die letzte Generation von ATi-Karten erreicht trotz fehlendem SM3 (wobei dies entgegen mancher Aussagen zumindest auf meiner 6600GT ohnehin nicht verwendet wird) wesentlich höhere fps als die nV-Konkurrenz. Und IMO ist dieser Vorteil hauptsächlich auf die Xbox 360 zurückzuführen, auf welche das Spiel auch primär entwickelt/optimiert wurde, und in welcher nunmal ATi-Hardware schlummert. Mich würde es nicht wundern, wenn nV hier noch einiges an Performance herauskitzeln kann.

dem will ich ja garnicht widersprechen, aber viele aussagen im thread hier sind einfach falsch...

btw die nächste frage ist, was überhaupt limitiert. Shaderleistung? Nein, siehe x1800 vs x1900. Speicherbandbreite? anscheinend auch nicht, davon hat die geforce ja sogar mehr als die ati konkurrenz. Füllrate? gleich wie speicherbandbreite. bin ja auch mal gespannt ob nv da nochwas reißt.

mfg

Gast
2006-04-14, 13:16:32
Und diese Settings sind spielbar?
Mit einer Karte nur in "ausgewählten" Szenen.


Q

Gast
2006-04-14, 13:18:32
Das Spiel läuft auf ATi-Hardware (zumindest in Außenarealen) einfach wesentlich flüssiger.
Ein Wort: Gras. :)
Das selbe Gras, welches so unschönes Schattenflackern mit aktuellen Treibern produziert.


Q

Odal
2006-04-14, 13:49:38
dem will ich ja garnicht widersprechen, aber viele aussagen im thread hier sind einfach falsch...

btw die nächste frage ist, was überhaupt limitiert. Shaderleistung? Nein, siehe x1800 vs x1900. Speicherbandbreite? anscheinend auch nicht, davon hat die geforce ja sogar mehr als die ati konkurrenz. Füllrate? gleich wie speicherbandbreite. bin ja auch mal gespannt ob nv da nochwas reißt.

mfg

welche aussagen sind denn falsch? ich beziehe mich auf den firinsquad bench...und ziehe diesen (plus erläuterungen) ran

höhere geometrieleistung bei den ATI Karten? Oblivion macht viel gebrauch von Grass welches kein alphatesting grass ist... => extrem viele polygone
zusätzlich optimiert auf ATI hardware?

Odal
2006-04-14, 13:57:27
Das Spiel läuft auf ATi-Hardware (zumindest in Außenarealen) einfach wesentlich flüssiger. Alleine schon wenn man sich ansieht, wie sich die X1600XT im vergleich zur 7600GT oder gar 6800GT schlägt, wird dieser Eindruck schnell gefestigt. Auch die letzte Generation von ATi-Karten erreicht trotz fehlendem SM3 (wobei dies entgegen mancher Aussagen zumindest auf meiner 6600GT ohnehin nicht verwendet wird)

naja in der .ini ist useSM3 default auch immer disabled (egal ob SM3 hardware oder nicht....) wenn ich es enable gibts zumindest keine abstürze...

in den Interviews vorher hiess es ja das Oblivion einen SM2_b und ein SM2_a profil verpasst bekommt....

wenn man sich mal die "RenderInfo" anschaut sieht diese so aus

Renderer Device Information:
RADEON X800 XT
ati2dvag.dll
RenderPath : BSSM_SV_2_B
PSversion : 200
VSversion : 200
VStarget : vs_2_0
PStarget : ps_2_b
PS2xtarget : ps_2_b
maxPS20inst : 512
3.0 Shaders : yes
Image space effects : yes
Nonpowerof2textures : yes
FP16ARGB blending : no
FP16ARGB filtering : no
High dynamic range : no
Bloom lighting : yes
Refraction : yes
2.0 hair : yes
SLI mode : yes
Water shader : yes
Water reflections : yes
Water displacement : yes
Water high res : yes
Multisample Type : 2
Shader Package : 7


das lustige ist zum einen "3.0 Shaders : yes"
ob ich nun useSM3 in der ini aktiviere oder nicht....

und das eben hier "
PStarget : ps_2_b
PS2xtarget : ps_2_b
RenderPath : BSSM_SV_2_B
"

bei einer X1800 oder 6800GT sowie 7800GT afaik ps_2_a steht...

also der etwas mächtigere ps_2_a pfad genutzt wird....und nicht wie man vermuten würde ps_3

von daher denke ich mal das kein SM3 genutzt wird sondern wirklich nur ein ps_2 , ps_2_a und ps_2_b profil

ich find das eigentlich ganz interessant weil immer behauptet wurde das ein ps_2_a oder ps_2_b target eh nicht genutzt wird und wenn dann nur PS_2 und ps_3

MechWOLLIer
2006-04-14, 17:10:09
welche aussagen sind denn falsch? ich beziehe mich auf den firinsquad bench...und ziehe diesen (plus erläuterungen) ran

höhere geometrieleistung bei den ATI Karten? Oblivion macht viel gebrauch von Grass welches kein alphatesting grass ist... => extrem viele polygone
zusätzlich optimiert auf ATI hardware?
Für das GRas werden definitiv Alphatesttexturen verwendet.
Das Spiel bricht in entsprechenden Szenen bei AAA/TSSAA einfach nur derbe ein und wird auf jeder Karte unspielbar.

Coda
2006-04-14, 17:13:06
Schau Dir die Grafik an und weine...
Normalmaps und Zeug verbraucht halt viel VRAM, dann bleibt nicht mehr soviel für Diffusemaps übrig. War doch schon in Doom 3 so.

Man kann VRAM nur vollmachen, aber nicht ineffient verwalten - das machen DX und OpenGL selber.

Odal
2006-04-14, 17:13:14
warum flimmert das grass dann nicht?

Coda
2006-04-14, 17:14:58
Wieso sollte es Flimmern? Es ist eben nicht antialiased, das erzeugt doch kein Flimmern.

Es ist definitiv Alphatesting, das hab ich auch schon festgestellt.

Mr. Lolman
2006-04-14, 17:29:08
Für das GRas werden definitiv Alphatesttexturen verwendet.
Das Spiel bricht in entsprechenden Szenen bei AAA/TSSAA einfach nur derbe ein und wird auf jeder Karte unspielbar.

Naja 4xPAAA sollte auf ner XTX schon möglich sein, oder?

Gast
2006-04-14, 17:32:11
Naja 4xPAAA sollte auf ner XTX schon möglich sein, oder?
Ist hart an der Grenze. Kommt aber, wie immer, ganz auf die Szene an.


Q

MechWOLLIer
2006-04-14, 17:34:09
Naja 4xPAAA sollte auf ner XTX schon möglich sein, oder?
Das habe ich auch mit X1900 CF mal ausprobiert, das ist von Stelle zu Stelle unterschiedlich. Es gibt Spielstellen (mit recht weiter Sicht auf Gras), da ist selbst das CrossFire-System überfordert und eine X1900 XTX ruckelt nur noch kläglich vor sich hin.
Andere stellen im Gegensatz laufen auf ner X1900 XTX zähflüssig, auf dem CF-System dagegen flüssig. Immer die Frage, wieviel Gras man sieht.

edit: hab mich verlesen, mein Text steht für QAAA. Wie es bei PAAA aussieht weiß ich nicht.

Odal
2006-04-14, 17:56:12
Wieso sollte es Flimmern? Es ist eben nicht antialiased, das erzeugt doch kein Flimmern.

Es ist definitiv Alphatesting, das hab ich auch schon festgestellt.

aber alphatexturen aliasen doch eigentlich immer...durchs resizen usw. und flimmern dann meistens brutal...warum in oblivion nicht?

also ist in oblivion jeder grassbüschel ein mesh und nicht jeder grashalm?

Razor
2006-04-14, 18:57:17
welche aussagen sind denn falsch? ich beziehe mich auf den firinsquad bench...und ziehe diesen (plus erläuterungen) ran
Odal... ich will Dir nicht wirklich an den Kragen, aber offenbar hast Du da was durcheinander bekommen.
Diesmal ohne Polemik...

Der Teil, den Du zitiertest, bezog sich auf das reduzierte Gras (Setting 80 -> 100), welches sie extra bei foliage nicht gemacht haben, um den Anspruch der maximalen Belastung weiterhin gerecht zu werden (das Gras hatte im HighEnd-Artikel einen erheblichen Einfluß gehabt). Alle anderen Veränderungen/Reduzierungen, die sie sonst vorgenommen haben, galten natürlich auch für den foliage Teil. Nur hast Du leider den relevanten Teil nicht mit zitiert:

As you recall from our “foliage” demo last week, this puts a huge strain on the graphics card. Since we purposely designed this demo to stress the cards as much as possible we didn’t want to make foliage any less effective at stress-testing the graphics cards so we’ve left this setting at 80.
Damit dürfte das dann ja geklärt sein...

---

Hier dann nochmal der (vollständige) Quote von firingsquad:
("256MB vs. 512MB", Seite 2)

In order to properly determine the performance impact the added video memory brings, we decided to split our testing in two. We’re going to run one batch of tests with a mainstream card to see if the added memory makes a difference in a way that’s similar to how most users will actually play the game, as well as a second test that’s designed to stress the graphics card as much as possible. For the mainstream test we used ATI’s Radeon X800 XL GPU, as it was a popular upgrade choice up until it was replaced by more recent Radeon offerings, while on the high-end, we took a GeForce 7900 GTX board and underclocked it to the same speeds as the GeForce 7900 GT. We’re running the X800 XL with the same graphics settings as we outlined on the previous page, while the 7900 GTX is running with the game’s highest settings in order to stress the card as much as possible.
Soll ich es Dir genau übersetzen?
Na gut...

Um die Performance-Veränderung zu ermitteln, die der zusätzliche Video-Speicher mit sich bringt, haben wir den Test in zwei Teile gesplittet. Wir werden den einen Teil mit einer Mainstream-Karte durchführen, um zu sehen, ob der zusätzliche Speicher in den Einstellungen etwas bringt, mit denen die meisten Benutzer wirklich spielen... ebenso ein zweiter Test, der so gewählt ist, dass die Grafikkarte größtmögliche Belastung erfährt.

Für den Mainstream-Test benutzen wir ATI's Radeon X800 XL, weil sie eine weitverbreitete Upgrade-Option war, bis diese durch aktuellere Radeon Angebote ersetzt wurde. Im High-End Bereich nahmen wir eine GeForce 7900 GTX zur Hand und untertakteten diese auf den Level einer 7900 GT. Wir ließen die X800 XL mit den gleichen [anm. Razor: 'reduzierten' !] Einstellungen laufen, die wir eine Seite zuvor detailliert dargelegt haben... die 7900 GTX hingegen ließen wir mit den größtmöglichen Einstellungen laufen, um diese maximal zu belasten.
Oder gibt es etwas an dieser Übersetzung auszusetzen?
Ich denke... nein... sonst bitte ich um Korrektur!

Ich vermute, dass Du diesen Passus, der sich einzig auf den "256MB vs. 512MB" Part auf Seite 2 bezog, mißverstanden hast. Aber seien wir doch mal ehrlich... das, was Du da dargelegt hast, kann so überhaupt nicht stimmen... das geben die Spezifikationen der X800 überhaupt nicht her.

Und nochmal meine Bitte: wenn ich die Einleitung auf Seite 2 falsch verstanden haben sollte, dann korrigiere mich bitte!
Ich würde meine Meinung/Interpretation auf jeden fall revidieren, wenn dem so wäre...

Klar haben die ATI-Karten (X1800 und darüber!) in Oblivion einen Vorteil... und es wäre wirklich interessant zu erfahren, worin dieser begründet ist (bei den X1900 würde ich das ja noch verstehen), aber die X800 gehört der vergangenenen Generation an, die sich zwar mit nVidias letzten (6'er) Generation mehr als nur messen kann, der aktuellen aber nichts entgegen zu setzen vermag.

So, nun nochmal das Fazit zu dem "256MB vs. 512MB" Teil:

Based on all this, it looks like you’ll only see improved performance with 512MB cards if you’re running Oblivion with the highest graphics settings, and even then, only under limited conditions.

Genau übersetzt heißt dies:

Basierend auf all dem, schaut es so aus, als ob man nur dann einen (Performance-)Vorteil durch 512MB hat, wenn Oblivion in den höchst-möglichen Einstellungen läuft... und selbst dann nur in wenigen Situationen.
... dem ich nur uneingeschränkt zustimmen kann.

Aber auch Quasar stimme ich zu, der zu Bedenken gegeben hat, dass sich - sobald man das Spiel selbst verändert, also sehr viel höher aufgelöste Texturen und extrem erhöhte (detailliertere) Sichtweite benutzt (weit über das von den InGame-Settings ermöglichte hinaus!) - 512MB durchaus rechnen können. Dass allerdings HDR + AA ohne diese 'Extras' schon locker 370MB VRAM verbraten sollen, ist regelrecht schockierend... es sei denn natürlich, dass wir mir der Vermutung recht haben, dass Oblivion den VRAM einfach 'zumüllt', TexSpeicher also erst dann 'frei' macht, wenn dieser benötigt wird.

Dann allerdings, sind 512MB wirklich weitestgehend sinnfrei...
...zumindest in Oblivion.

So... habe hier versucht, das Ganze möglichst neutral und diplomatisch auszudrücken und bin gespannt, was Du/andre nun dazu sagst/sagen.

Razor

Razor
2006-04-14, 19:46:41
Ich wäre wirklich an Kritik/Kommentaren interessiert!

Razor

Odal
2006-04-14, 19:57:51
und was sollen das für reduzierungen sein?

Gast
2006-04-14, 20:00:24
aber alphatexturen aliasen doch eigentlich immer...durchs resizen usw. und flimmern dann meistens brutal...warum in oblivion nicht?


ein grünton auf dem anderen --> geringer kontrast --> alsiasing fällt kaum auf.

wenn du beispielsweise durch die baumblätter richtung himmel schaust liegt ein wesentlich größerer kontrast vor, wodurch das aliasing deutlich sichtbarer wird.

Razor
2006-04-14, 20:55:52
und was sollen das für reduzierungen sein?
firingsquad hat ja die komplette INI verlinkt.
Wollen wir mal schauen...

Habe die vorhandene INI gelöscht und durch Oblivion neu erstellen lassen.
Dann im Launcher Auflösungen und Grundeinstellungen vorgenommen (HDR) und InGame alles auf Max gedreht.

Das Ergebnis habe ich dann mit der von firingsquad verlinkten INI verglichen:

max reduced

[Display]
bDoCanopyShadowPass 1 0
fSpecularLOD2 1300 1000
fSpecularLOD1 1000 700
iShadowFilter 2 0
bShadowsOnGrass 1 0
bActorSelfShadowing 1 0
iActorShadowCountInt 10 5
iActorShadowCountExt 10 3

[Water]
bUseWaterReflections 1 0
bUseWaterHiRes 1 0
bUseWaterDisplacements 1 0

[LOD]
fLODFadeOutMultActors 15 5.91
fLODFadeOutMultItems 15 3.54
fLODFadeOutMultObjects 15 5.42
fLODMultTrees 2 0.6188

[Grass]
iMinGrassSize 80 80 (ist gleich geblieben!)
fGrassEndDistance 8000 4140
fGrassStartFadeDistance 7000 3140

[BlurShaderHDR]
bDoHighDynamicRange 1 0 (geht ja auch nicht anders)Na, wenn das mal keine "Reduktion" in Sachen Qualität ist...
firingsquad hat aber auch sehr detailliert dargelegt, warun sie das machen mussten.

Razor

up¦²
2006-04-14, 22:12:23
Toll: Die 1900XTX ist sogar mit HDR+AA noch schneller :rolleyes:
http://www.pcinpact.com/articles/a/186/0.htm?pge=1

Deutsch, naja so lala:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcinpact.com%2Farticles%2Fa%2F186%2F0.htm%3Fpge%3D1&langpair=fr%7Cde&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Razor
2006-04-14, 22:33:15
Toll: Die 1900XTX ist sogar mit HDR+AA noch schneller :rolleyes:
http://www.pcinpact.com/articles/a/186/0.htm?pge=1
In 2048x1536 aber nicht mehr!
:biggrin:

http://www.pcinpact.com/images/bd/news/27274.jpg

Will ich auch haben!
:up:

Razor

Odal
2006-04-14, 23:06:05
Toll: Die 1900XTX ist sogar mit HDR+AA noch schneller :rolleyes:
http://www.pcinpact.com/articles/a/186/0.htm?pge=1

Deutsch, naja so lala:
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcinpact.com%2Farticles%2Fa%2F186%2F0.htm%3Fpge%3D1&langpair=fr%7Cde&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools


war auch nicht anders zu erwarten :D bei der schlechten performance die NV Karten bieten. Das AA kostet bei ATI ja nicht viel....

würde mich aber mal interessieren was dieser Chuck Patch eigentlich genau macht....

sklave_gottes
2006-04-14, 23:51:17
aber die X800 gehört der vergangenenen Generation an, die sich zwar mit nVidias letzten (6'er) Generation mehr als nur messen kann, der aktuellen aber nichts entgegen zu setzen vermag.

Ja meistens hast du da recht aber es gibt gerade bei Oblivion einige stellen da ist eine x850xt pe schneller als eine 7900gt bei 1280x1024 4aa/8af.
Auch das wieder ist ein beweis das das game auf ati karten schneller läuft.

Gast
2006-04-15, 01:19:07
Auch das wieder ist ein beweis das das game auf ati karten schneller läuft.Will das denn irgendjemand abstreiten? Oblivion liegt den ATI-Karten nun mal deutlich besser. Dafür kacken sie halt bei Riddick & co. ziemlich ab.

up¦²
2006-04-15, 01:43:03
TWIMTBP :biggrin:
http://www.nzone.com/object/nzone_twimtbp_gameslist.html

Odal
2006-04-15, 01:50:16
Dafür kacken sie halt bei Riddick & co. ziemlich ab.

naja nicht mehr wirklich...siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4022903#post4022903)

mapel110
2006-04-15, 01:52:02
TWIMTBP :biggrin:
http://www.nzone.com/object/nzone_twimtbp_gameslist.html
http://www.nzone.com/object/nzone_oblivion_home.html
meinst wohl eher den Link. ;)

up¦²
2006-04-15, 01:59:18
Ja,
OT:denke gerade zurück an das erste mal bei UT, als alle sich ihren eigenen 'ersatz' gebastelt haben

Gast
2006-04-15, 10:14:00
würde mich aber mal interessieren was dieser Chuck Patch eigentlich genau macht....
Hexus.net hat dazu ein Interview mit Chuck.


@Razor:
Die Schattentexturen fressen auch wahnsinnig viel, wenn man die manuell verändert, auf 2048² zum Beispiel. Scheint so, als würde Oblivion zwar für mehrere Lichtquellen Shadowmaps anlegen, aber nur wenige anzeigen.


Q

Odal
2006-04-15, 10:56:08
Hexus.net hat dazu ein Interview mit Chuck.


den artikel gibts überigends hier (http://www.hexus.net/content/item.php?item=5282&page=1)

liesst sich recht interessant (etwas kurz)
verstehe zwar nicht genau was die Funktion CreateRenderTarget() genau macht, also ob sie nur einfach veranlasst das auch in den MSAA Buffer gerendert wird, damit dort automatisch antialised wird aber so ungefähr kann ich mir jetzt vorstellen wie der Treiber Oblivion austrickst ^^
interessant ist das das Austricksen universell ist und noch bei allen anderen FP16 HDR Spielen zum einsatz kommen könnte (wenns per a.i. profil aktiviert wird)
Fragt sich nur wieso da bisher noch keiner drauf gekommen ist...



Die Schattentexturen fressen auch wahnsinnig viel, wenn man die manuell verändert, auf 2048² zum Beispiel.

meinst du iShadowMapResolution=1024 ?
is der (visuelle) unterschied sehr gross oder kann man die beruhigt auf 512 runtersetzen?


Scheint so, als würde Oblivion zwar für mehrere Lichtquellen Shadowmaps anlegen, aber nur wenige anzeigen.


Q

das heisst das oblivion da mehr aufwand betreibt wovon man garnix sieht? Sprich Bug?

Geo72
2006-04-15, 11:11:28
meinst du iShadowMapResolution=1024 ?
is der (visuelle) unterschied sehr gross oder kann man die beruhigt auf 512 runtersetzen?
Wenn du die Schattenfilterung zumindest auf niedrig hast, fällt das überhaupt nicht auf. Ich habs auf 256 gesetzt und seh den Unterschied nur wenn ich mir die Schatten genau ansehe.

geo

AnarchX
2006-04-15, 11:27:23
Wenn du die Schattenfilterung zumindest auf niedrig hast, fällt das überhaupt nicht auf. Ich habs auf 256 gesetzt und seh den Unterschied nur wenn ich mir die Schatten genau ansehe.

geo

Bringt es spürbare Leistung?

Die Reduzierung der Speedtree-Schatten finde ich imo sehr erkennbar, aber einen Leistungsanstieg konnte ich nicht wirklich spüren.

Geo72
2006-04-15, 11:59:07
Bringt es spürbare Leistung?

Die Reduzierung der Speedtree-Schatten finde ich imo sehr erkennbar, aber einen Leistungsanstieg konnte ich nicht wirklich spüren.
Die Lestungssteigerung ist gering, aber da mir die gröberen Schattenränder wie gesagt nicht auffallen hab ichs so gelassen.

geo

Odal
2006-04-15, 12:05:46
Wenn du die Schattenfilterung zumindest auf niedrig hast, fällt das überhaupt nicht auf. Ich habs auf 256 gesetzt und seh den Unterschied nur wenn ich mir die Schatten genau ansehe.

geo


ich hab iShadowFilter=2

was ist niedrig? 1? oder ist 2 schon niedrig?

Geo72
2006-04-15, 13:26:19
Für niedrig steht die "1" und ohne Filterung "0".

Razor
2006-04-15, 17:31:33
Ja meistens hast du da recht aber es gibt gerade bei Oblivion einige stellen da ist eine x850xt pe schneller als eine 7900gt bei 1280x1024 4aa/8af.
Auch das wieder ist ein beweis das das game auf ati karten schneller läuft.
Und wo bitte soll das sein?
Die X800'er kacken regelrecht ab, um mal Odals Worte zu benutzen.
:D

Im ernst, mich würde wirklich interessieren, an welchen Stellen das sein soll.
firingsquad hat solche Angaben auf jeden Fall nicht gemacht...

Razor

Razor
2006-04-15, 17:48:29
Hexus.net hat dazu ein Interview mit Chuck.
Jo, hab' ich auch gelesen...
Des war wohl nur ein schlechter Scherz, oder?

Frage: "Und? Wie fühlt man sich so als Held? Steht der Ferrari schon vor der Tür?"
Antwort: "Die könnten mir zumindest mal frei geben... dann hätte ich mehr Zeit zum Spielen!"
Also echt...

Damals war es Humus, der ATI-Treiber für die Community 'gehackt' hat und nun ist es Chuck. Humus wurde damals von ATI angestellt... endlich mal ein kompetenter Entwickler! Und jetzt hackt Chuck ATI-Treiber, damit diese etwas hinbekommen, was ATI-Karten ja eigentlich sowieso können sollten... ist Humus jetzt Chuck?
:D

Die Schattentexturen fressen auch wahnsinnig viel, wenn man die manuell verändert, auf 2048² zum Beispiel. Scheint so, als würde Oblivion zwar für mehrere Lichtquellen Shadowmaps anlegen, aber nur wenige anzeigen.
Öhm... ja klar.

Aber warum sollte man auch 2048'er Schatten nehmen... selbst die 1024'er sind Overkill... der Unterschied zu 256'ern fällt kaum auf (wie hier ja schon gesagt wurde). Allerdings gleich in mehrfacher Hinsicht... den Perfromace kostet/bringt das auch nicht... ;)

Razor

Od@l
2006-04-15, 18:00:20
Und wo bitte soll das sein?
Die X800'er kacken regelrecht ab, um mal Odals Worte zu benutzen.
:D

Im ernst, mich würde wirklich interessieren, an welchen Stellen das sein soll.
firingsquad hat solche Angaben auf jeden Fall nicht gemacht...

Razor

ja nee is klar, ne X850XT-PE ist nur gut doppelt so schnell wie eine 9800Pro auf der das Spiel noch ganz anständig performt..und welche in oblivion etwas mehr dampf hat wie eine 6600GT obwohl sie sonst ein ganzes stück hinter der 6600GT liegt....

eine 6800GT ist aber bei weitem nicht doppelt so schnell wie eine 6600GT

ne X850XT macht ne 6800GT oder Ultra in Oblivion dermaßen platt das es schon nichtmehr feierlich ist (ohne hdr)...ih hab das game auf ner 6800GT bei nem kumpel gesehen und sehs bei mir der performanceunterschied is riesig...

sieh es ein das game performt auf ati hardware nunmal besser ob du es nun wahr haben willst oder peng
dürfte auch noch für ne 7800GT reichen ^^

Od@l
2006-04-15, 18:08:27
Jo, hab' ich auch gelesen...
Des war wohl nur ein schlechter Scherz, oder?

Frage: "Und? Wie fühlt man sich so als Held? Steht der Ferrari schon vor der Tür?"
Antwort: "Die könnten mir zumindest mal frei geben... dann hätte ich mehr Zeit zum Spielen!"
Also echt...

Damals war es Humus, der ATI-Treiber für die Community 'gehackt' hat und nun ist es Chuck. Humus wurde damals von ATI angestellt... endlich mal ein kompetenter Entwickler! Und jetzt hackt Chuck ATI-Treiber, damit diese etwas hinbekommen, was ATI-Karten ja eigentlich sowieso können sollten... ist Humus jetzt Chuck?
:D


dem aufmerksamen leser sollte aufgefallen sein das das interview lustig geführt wurde

ATI KArten können es ja, nur es muss im Spiel implementiert sein...und da wurde bei oblivion geschlampt...

aber wenn man dem interview glauben schenken kann wirds wohl ab catalyst 6.5 unterstützung für alle HDR games für AA per A.I. Profil eingebaut sein


Öhm... ja klar.

Aber warum sollte man auch 2048'er Schatten nehmen... selbst die 1024'er sind Overkill... der Unterschied zu 256'ern fällt kaum auf (wie hier ja schon gesagt wurde). Allerdings gleich in mehrfacher Hinsicht... den Perfromace kostet/bringt das auch nicht... ;)

Razor

ich habs mal getestet...die 256 shadowmapresolution fällt deutlich auf...ich bleib bei 1024

Gast
2006-04-15, 18:39:17
aber wenn man dem interview glauben schenken kann wirds wohl ab catalyst 6.5 unterstützung für alle HDR games für AA per A.I. Profil eingebaut sein




das ist ein widerspruch in sich, wenn es per ai-profil funktioniert kann es nicht für alle games sein, bzw. wird kein ai-profil dafür gebraucht wenn es bei allen games funktioniert.

Odal
2006-04-15, 19:46:39
naja die brauchen blos im a.i. profil eintragen das der chuck renderpfad genutzt wird...so las es sich für mich

Gast
2006-04-15, 20:00:43
naja die brauchen blos im a.i. profil eintragen das der chuck renderpfad genutzt wird...so las es sich für mich


sie müssen das aber für jedes spiel extra machen, da geht kein allgemeines FSAA-aktivieren.

eigentlich sollte es so sogar möglich sein spiele bei denen einfach kein FSAA funktionieren will, damit doch mit FSAA laufen zu lassen.

nur wird sich ATI kaum die mühe machen dass für jedes spiel extra zu machen.

Razor
2006-04-16, 02:00:58
ja nee is klar,...
Nix ist klar...
Offenbar hast Du ein echtes Problem damit, mich zu vestehen.

Ich habe auf folgenden Post geantwortet:

Ja meistens hast du da recht aber es gibt gerade bei Oblivion einige stellen da ist eine x850xt pe schneller als eine 7900gt bei 1280x1024 4aa/8af.
Auch das wieder ist ein beweis das das game auf ati karten schneller läuft.
Wenn Du mir jetzt nochmal erzählen könntest, was Deine Antwort nun damit zu tun haben soll?
:confused:

ATI KArten können es ja, nur es muss im Spiel implementiert sein...und da wurde bei oblivion geschlampt...
Und in welchem Spiel (abgesehen von der von ATI 'gekauften' Source-Engine ;-) gibt es HDR+AA?

aber wenn man dem interview glauben schenken kann wirds wohl ab catalyst 6.5 unterstützung für alle HDR games für AA per A.I. Profil eingebaut sein
Wäre gut, wenn ATI den 'Tip' von "Humus" annehmen würde...
Wird dann aber ein ziemliches Gefriemel.

IMO sollten sie dafür einen Schalter einbauen (was ATI ja so ungern macht ;-), denn die Alternative über die AI-Profile halte ich nicht für sehr glücklich... "HDR+AA für alle" wäre damit grundsätzlich nicht möglich!

ich habs mal getestet...die 256 shadowmapresolution fällt deutlich auf...ich bleib bei 1024
Tut sie nicht... ist aber wohl Geschmackssache.
Und klar ist sie bei mir auch auf Default... warum auch nicht?

Razor

Gast
2006-04-16, 03:54:06
Und in welchem Spiel (abgesehen von der von ATI 'gekauften' Source-Engine ;-) gibt es HDR+AA?Sind nicht gerade viele. Far Cry mit Beta-Patch, Serious Sam 2 afaik und jetzt halt Oblivion. Wenn man diesen FX10-Krams als HDR-R bezeichnen würde (was ich nicht tue), kann man auch AoE3 dazu zählen.

Razor
2006-04-16, 09:06:21
Sind nicht gerade viele. Far Cry mit Beta-Patch, Serious Sam 2 afaik und jetzt halt Oblivion. Wenn man diesen FX10-Krams als HDR-R bezeichnen würde (was ich nicht tue), kann man auch AoE3 dazu zählen.
Und das bei SS2 ist tatsächlich HDR?
Erstaunlich...

Aber dann sind es ja doch zumindest 3 Games... oder eben 4 ;)

Razor

Gast
2006-04-16, 09:16:15
Und das bei SS2 ist tatsächlich HDR?
Erstaunlich...

Aber dann sind es ja doch zumindest 3 Games... oder eben 4 ;)

Razor


Tja Razor, da staunst du. Tendenz steigend.

PS: Wieviele Games hatten denn HDR oder SM3 zu der Zeit als Du so auf die GeForce6 geschworen hast...?!

The_Invisible
2006-04-16, 10:29:02
Tja Razor, da staunst du. Tendenz steigend.

PS: Wieviele Games hatten denn HDR oder SM3 zu der Zeit als Du so auf die GeForce6 geschworen hast...?!

fast gleich viele, und auch dort war die tendenz steigend ;)

mfg

Odal
2006-04-16, 11:31:53
Nix ist klar...
Offenbar hast Du ein echtes Problem damit, mich zu vestehen.

Ich habe auf folgenden Post geantwortet:


Wenn Du mir jetzt nochmal erzählen könntest, was Deine Antwort nun damit zu tun haben soll?
:confused:


die hat sehr viel damit zutun...du behauptest das X800 karten in Oblivion abkacken....das stimmt aber nicht...ganz im gegenteil die schlagen sich richtig gut...und das dafür das sie 2 jahre alt sind.


Und in welchem Spiel (abgesehen von der von ATI 'gekauften' Source-Engine ;-) gibt es HDR+AA?

SS2, Farcry...
wer weiss vielleicht haben wir bald ein profil im treiber für AoE3, wenn die es jetzt wirklich hinbekommen HDR und AA generell zu ermöglichen überleg ich wirklich auf X1800GTO oder besser zu wechseln da HDR dann wirklich brauchbar ist.


Wäre gut, wenn ATI den 'Tip' von "Humus" annehmen würde...
Wird dann aber ein ziemliches Gefriemel.

IMO sollten sie dafür einen Schalter einbauen (was ATI ja so ungern macht ;-), denn die Alternative über die AI-Profile halte ich nicht für sehr glücklich... "HDR+AA für alle" wäre damit grundsätzlich nicht möglich!


natürlich man kann doch im Treiber abfangen ob in eine FP16Textur gerendert wird oder nicht...falls das der fall ist erzeugt man eben ein RenderTarget für MSAA und leitet den Spass halt auf den Chuck Pfad um. Die werden das schon hingefrickelt bekommen...es las sich nur so als könnte es dann Probleme mit der whql zertifizierung von microsoft geben wenn man da zu generell eingriffe vornimmt....


Tut sie nicht... ist aber wohl Geschmackssache.
Und klar ist sie bei mir auch auf Default... warum auch nicht?

Razor


man erkennt es an den spiegelungen von gebäuden im wasser in der ferne deutlich...genauso wenn ein feind in einem Dungon auf dem Boden liegt..die Schatten sehen dann extrem grobpixlig und flimmerig aus....zumindest im vergleich 256 zu 1024

Odal
2006-04-16, 11:37:44
Tja Razor, da staunst du. Tendenz steigend.

PS: Wieviele Games hatten denn HDR oder SM3 zu der Zeit als Du so auf die GeForce6 geschworen hast...?!


besser gesagt wieviele games haben denn bisher überhaupt FP16 HDR?

ich denke mal davon sind 4 spiele ein sehr hoher prozentsatz ^^

Gast
2006-04-16, 14:09:29
fast gleich viele, und auch dort war die tendenz steigend ;)

mfg

Und genau das führt doch Razor's "situationsabhängige" (Haben oder nicht Haben) Argumentation ad absurdum.

PingpiN
2006-04-16, 14:13:47
Was mich mall intressieren würde warum die X1800 Serie in innenlevels sowas von abloost.Zwischen X1900 und X1800 liegen wirklich Welten bei Innenlevels.Weiss einer warum das so ist.Liegt es an denn *nur*16 Alus ?Oder wird bei OBlivion fetch 4 für die Schattenberechnung eingesetzt =?Oder liegt es an was ganz anderen? :smile:

The_Invisible
2006-04-16, 18:22:37
Was mich mall intressieren würde warum die X1800 Serie in innenlevels sowas von abloost.Zwischen X1900 und X1800 liegen wirklich Welten bei Innenlevels.Weiss einer warum das so ist.Liegt es an denn *nur*16 Alus ?Oder wird bei OBlivion fetch 4 für die Schattenberechnung eingesetzt =?Oder liegt es an was ganz anderen? :smile:

da wird anscheinend der limitierente faktor in aussenlevels (welcher auch immer das sein mag) aufgehoben und die karte kann sich richtig austoben in sachen pixelshading... wäre mal interesant zu wissen was das ist

mfg

Razor
2006-04-17, 03:18:39
die hat sehr viel damit zutun...du behauptest das X800 karten in Oblivion abkacken....das stimmt aber nicht...ganz im gegenteil die schlagen sich richtig gut...und das dafür das sie 2 jahre alt sind.
Die X800 (wie auch die anderen Midrange-Karten) mussten massiv in der BQ reduziert werden, damit sie "konkurrenz-fähig" sind.

natürlich man kann doch im Treiber abfangen ob in eine FP16Textur gerendert wird oder nicht...falls das der fall ist erzeugt man eben ein RenderTarget für MSAA und leitet den Spass halt auf den Chuck Pfad um. Die werden das schon hingefrickelt bekommen...es las sich nur so als könnte es dann Probleme mit der whql zertifizierung von microsoft geben wenn man da zu generell eingriffe vornimmt....
Also das jetzt muss man sich wirklich auf der Zunge zergehen lassen.
Denk lieber nochmal darüber nach...

Wenn Du wirklich der Meinung bist, dass man während der laufenden Anwendung zwischen Renderpfaden hin- und herschaltet, dann tust Du mir leid.

man erkennt es an den spiegelungen von gebäuden im wasser in der ferne deutlich...genauso wenn ein feind in einem Dungon auf dem Boden liegt..die Schatten sehen dann extrem grobpixlig und flimmerig aus....zumindest im vergleich 256 zu 1024
Soll ich es Dir buchstabieren?
Es ist vollkommen UNINTERESSANT!

Stell das ein wie du willst, es macht keinen (performance-seitigen) Unterschied.

da wird anscheinend der limitierente faktor in aussenlevels (welcher auch immer das sein mag) aufgehoben und die karte kann sich richtig austoben in sachen pixelshading... wäre mal interesant zu wissen was das ist
Klar... was ganz sicher der Grund dafür sein wird, warum hier die nVidia-Karten wieder vorne liegen.
Weil die X1900 ihre Shader voll "ausspielen" können...
Ah ja.

Razor

Odal
2006-04-17, 10:57:52
Die X800 (wie auch die anderen Midrange-Karten) mussten massiv in der BQ reduziert werden, damit sie "konkurrenz-fähig" sind.

komischerweise kann ich meine BQ über default erhöhen und es performt bei mir deutlich besser als bei einem kumpel mit 6800GT


Also das jetzt muss man sich wirklich auf der Zunge zergehen lassen.
Denk lieber nochmal darüber nach...

Wenn Du wirklich der Meinung bist, dass man während der laufenden Anwendung zwischen Renderpfaden hin- und herschaltet, dann tust Du mir leid.

was denn für eine laufende Anwendung? viel ahnung hast du nicht oder? Die genauen Details kenn ich zwar auch nicht aber dieser Chuck Pfad ist ein mapping in der treiber api das hat mit dem spiel selbst nichts zutun...das Spiel greift auf die DX API zu welche auf die Treiber API zugreift..und dort geschied das mapping beim rendern in FP16 Texturen auf ein zusätzlich erzeugtes FP16 rendertarget für das MSAA. Nach dem MSAA wird (per Treiber) das MSAA resultat in die FP16 Textur kopiert.


Soll ich es Dir buchstabieren?
Es ist vollkommen UNINTERESSANT!

Stell das ein wie du willst, es macht keinen (performance-seitigen) Unterschied.

für mich ist es sehr interessant wie es aussieht. Und ja ich hab längst wieder auf 1024 gestellt, wollte nur warnen das der unvorsichtige Leser diesen wert nicht auf 256 stellt und dann mit schlechter BQ leben muss. Das ging nichtmal wirklich an dich.

Gast
2006-04-17, 11:56:58
Irgendwie sieht es aus, das Razor nicht gerade unparteisch ist.

Fakt ist das der NV40 und der G70 einfach eine ziemlich inneffektive Architectur ist.
Wenn es zur Texturoperationen kommt wird die erste Alu blockiert, aber wenn es zur Texturfilterung kommt wird der gesamte Quadpatch unterbrochen.

Nun zu Oblivion:
Oblivion ist extrem Textur- und Shaderlastig, wenn es jetzt zu solchen Berechnungen kommt brechen die NV-Karte total ein, die ATI dagegen nicht.
Natürlich kann es daran liegen dass die X800 kein Sm 3.0 hat, er wird also nicht soviel gerechnet.

mfg Nakai

Odal
2006-04-17, 12:03:43
Nun zu Oblivion:
Oblivion ist extrem Textur- und Shaderlastig, wenn es jetzt zu solchen Berechnungen kommt brechen die NV-Karte total ein, die ATI dagegen nicht.
Natürlich kann es daran liegen dass die X800 kein Sm 3.0 hat, er wird also nicht soviel gerechnet.

mfg Nakai

SM3 wird nicht benutzt....

Oblivion nutzt das SM2_a Profil für SM3 Karten und die FXen für die X800/x850 wird das SM2_b Profil genutzt....sieht man auch in der RenderInfo.txt

robbitop
2006-04-17, 12:36:33
Fakt ist das der NV40 und der G70 einfach eine ziemlich inneffektive Architectur ist.
Wenn es zur Texturoperationen kommt wird die erste Alu blockiert, aber wenn es zur Texturfilterung kommt wird der gesamte Quadpatch unterbrochen.

Das ist m.E. zu sehr generalisiert. Wäre dem so, wäre CineFX3/4 wohl ein ziemlicher Fehlschlag gewesen.

Zur Tex-Op (was eigentlich gar keine richtige Op ist). Die Texturkoordinaten werden bei der CineFX Pipeline über die Crossbars der ALU übergeben. Das geschieht allerdings nur einmal pro Texel. Im Vergleich zur Dauer der Filterung eines Texels und zum Shading eines Texels geht das soziemlich unter.

Zum Phasenkonzept: dieses ist schon ein relativ effizientes Konzept. Ist ja nicht so, dass das Ding dauernd stallen würde. Solange das Aritmetik : Filter Verhältnis halbwegs passt, gibt es keine großartigen Stalls. Wäre dieser "Issue" so drastisch, dann müsste ja folgerichtig das AF beim NV4x/G7x sehr teuer bei shaderintensiven Spielen sein. Beim NV40 war dem so, da er im Vergleich zur Konkurrenz (X800 Serie) einfach viel weniger Füllrate besaß. Beachtet man aber bsw mal Messungen in FEAR vom G7x, so sieht man, dass AF ziemlich günstig ist. Längeres Filtern bringt zwar Stalls, aber es ist nicht so drastisch wie beschrieben. Was wirklich Leistung auf dem G7x kostet, ist das MSAA. Ich habe leider keinerlei Ahnung, warum die X1800/1900 dermaßen weniger bei MSAA verliert, aber hier liegt die Ursache. Und AA hat mit den Pipelinestalls wirklich wenig zu tun. (es sei denn, die ROPs limitieren, was eigentlich selten bis nie der Fall sein dürfte)

Was auf jedenfall die Rechenleistung schmälert, ist die geringere Granularität. Pro Pipeline sind zwei seriell geschaltete ALUs. Beim R5xx sind diese eher als parallel geschaltet zu bezeichnen. Allerdings limitiert die Rechenleistung in Spielen noch nicht wirklich. Siehe die eher (aritmetisch) schwachbrüstige R520 vs G7x oder R520 vs R580.

robbitop
2006-04-17, 12:41:15
Oblivion ist extrem Textur- und Shaderlastig, wenn es jetzt zu solchen Berechnungen kommt brechen die NV-Karte total ein, die ATI dagegen nicht.
Natürlich kann es daran liegen dass die X800 kein Sm 3.0 hat, er wird also nicht soviel gerechnet.

mfg Nakai
Das Ding ist eigentlich belastend für soziemlich alle Komponenten, insbesondere die CPU. (die NV D3D Treiber erzeugen btw deutlich mehr CPU Last als die ATI D3D Treiber ...das könnte hier eine Rolle spielen)
Allerdings muss man auch bedenken, dass in den Entwicklerrechnern von den Machern von Oblivion nur ATI Hardware steckte. Was sowas bewirkt, sieht man ja schön an Doom3/HL2.
Ist also eine ziemlich sinnfreie Betrachtung. Es ist in Realworld Applikationen sowieso vermessen, irgendwelche Limitierungen herauszuerahnen, da einfach zuviele Dinge gleichzeit limitieren und je nach Spielsituation sich das dynamisch einfach mal ändert.
Mittels synthetischen Tests, welche ja ganz klare Flaschenhälse untersuchen, ist ein NV4x/G7x aritmetisch ziemlich rechenstark. Nur an die X1900 kommt natürlich niemand heran.

Gast
2006-04-17, 13:01:36
Das ist m.E. zu sehr generalisiert. Wäre dem so, wäre CineFX3/4 wohl ein ziemlicher Fehlschlag gewesen.

Zur Tex-Op (was eigentlich gar keine richtige Op ist). Die Texturkoordinaten werden bei der CineFX Pipeline über die Crossbars der ALU übergeben. Das geschieht allerdings nur einmal pro Texel. Im Vergleich zur Dauer der Filterung eines Texels und zum Shading eines Texels geht das soziemlich unter.

Zum Phasenkonzept: dieses ist schon ein relativ effizientes Konzept. Ist ja nicht so, dass das Ding dauernd stallen würde. Solange das Aritmetik : Filter Verhältnis halbwegs passt, gibt es keine großartigen Stalls. Wäre dieser "Issue" so drastisch, dann müsste ja folgerichtig das AF beim NV4x/G7x sehr teuer bei shaderintensiven Spielen sein. Beim NV40 war dem so, da er im Vergleich zur Konkurrenz (X800 Serie) einfach viel weniger Füllrate besaß.



Ja man kann immer etwas dazu lernen, und genau um den Nv40 ging es ja eigentlich.
Er war gegenüber dem X800 einfach zu schwach.


Ist also eine ziemlich sinnfreie Betrachtung. Es ist in Realworld Applikationen sowieso vermessen, irgendwelche Limitierungen herauszuerahnen, da einfach zuviele Dinge gleichzeit limitieren und je nach Spielsituation sich das dynamisch einfach mal ändert.
Mittels synthetischen Tests, welche ja ganz klare Flaschenhälse untersuchen, ist ein NV4x/G7x aritmetisch ziemlich rechenstark. Nur an die X1900 kommt natürlich niemand heran.


Wie sollte man auch an die X1900 rankommen?
48 Alus welche jede eine Madd und Add ist verdammt stark, die g70 hat das zwar auch, die Alus können nur ein Madd berechnen.

[QUOTE]
Zum Phasenkonzept: dieses ist schon ein relativ effizientes Konzept. Ist ja nicht so, dass das Ding dauernd stallen würde. Solange das Aritmetik : Filter Verhältnis halbwegs passt, gibt es keine großartigen Stalls. Wäre dieser "Issue" so drastisch, dann müsste ja folgerichtig das AF beim NV4x/G7x sehr teuer bei shaderintensiven Spielen sein.


Eigentlich bei jedem Game das es zurzeit gibt. (betrachtet man Benchmarks)
Wenn man das AF auf 16x stellt beansprucht das schon 32 Takte, antürlich ist das bei einem guten Verhältnis irrelevant.
Aber sobald das Verhältnis nicht mehr stimmt, was wohl bei Oblivion durch andere Limitierungen der Fall sein könnte, kann es schon zu stalls kommen.

mfg Nakai

sklave_gottes
2006-04-17, 13:09:18
Die X800 (wie auch die anderen Midrange-Karten) mussten massiv in der BQ reduziert werden, damit sie "konkurrenz-fähig" sind.

schwachsin.
wenn du mit deiner 7900gt kein hdr anmachst sondern aa/af hast du das selbe bild wie auf einer x800.

PingpiN
2006-04-17, 13:13:22
Hätte wenn und aber aber Ati war ziemlich dumm.Wenn die X800 Generation PS 3.0 unterstützt hätte wer das die Bomben Karte ala 9700 geworden.Naja jetzt ist es die X1900 aber Ati hätte 4 Generation lang unangefochten die number 1 sein können.

Gast
2006-04-17, 13:31:40
Hätte wenn und aber aber Ati war ziemlich dumm.Wenn die X800 Generation PS 3.0 unterstützt hätte wer das die Bomben Karte ala 9700 geworden.Naja jetzt ist es die X1900 aber Ati hätte 4 Generation lang unangefochten die number 1 sein können.

Ps 3.0 war doch nur billiges Marketing!
Damals war es unnötig, da Ps 3.0 gar nicht benutzt wurde.
Selbst jetzt ist der Nv40 zu schwach für Ps 3.0....

PingpiN
2006-04-17, 13:37:18
Ps 3.0 war doch nur billiges Marketing!
Damals war es unnötig, da Ps 3.0 gar nicht benutzt wurde.
Selbst jetzt ist der Nv40 zu schwach für Ps 3.0....

Ja für die die sich ein bisschen auskannten war es Marketing.Aber die meissten haben PS 3.0 damals zur 6800/X800 zeiten als Kaufgrund angesehen.Ich kann mich noch gut drann erinnern in Kaufberatungs Forum hies es immer Kauf dir eine langsamere 6800 Ultra die hat Ps 3.0 und kann HDR.Die meissten laus haben das dann auch gemacht.Wenn die X800 Serie PS 3.0 ünterstüzt hätte hätte Ati jetzt wahrscheinlich 80 % MArkanteil. :eek: Wenn es so wäre:5 Millionen hätten dann ne X800 gekauft und 1 Million ne 6800 sicher.

robbitop
2006-04-17, 13:48:45
Eigentlich bei jedem Game das es zurzeit gibt. (betrachtet man Benchmarks)
Wenn man das AF auf 16x stellt beansprucht das schon 32 Takte, antürlich ist das bei einem guten Verhältnis irrelevant.
Aber sobald das Verhältnis nicht mehr stimmt, was wohl bei Oblivion durch andere Limitierungen der Fall sein könnte, kann es schon zu stalls kommen.

Ach 32 Takte...ja aber auch nur wenn die Berechnung der Line of Anisotropy das Ergebnis ergibt, dass 16 Samples für den jeweiligen Texel nötig sind. Das ist ja nur bei ganz wenigen Texeln der Fall. Hinzukommt, dass heutige Texturfilter bis zum Ende optimiert sind. Letztendlich ist der Durchschnittswert Samples pro Texel deutlich kleiner als man denkt. IMO ist Oblivion auch wenig shaderlimitiert ggü anderen Spielen. Richtig shaderlimitierte Spiele gibt's auch noch nicht. Und wie gesagt, ist das mit dem Stallen nicht so drastisch, wie es hier im Forum immer nachgeplappert wird. Wäre dem so, hätte man den Chip ganz anders designed.

Odal
2006-04-17, 14:00:45
schwachsin.
wenn du mit deiner 7900gt kein hdr anmachst sondern aa/af hast du das selbe bild wie auf einer x800.

bis auf das pixelflimmern auf seiner karte *scrn*

Odal
2006-04-17, 14:06:08
Ja für die die sich ein bisschen auskannten war es Marketing.Aber die meissten haben PS 3.0 damals zur 6800/X800 zeiten als Kaufgrund angesehen.Ich kann mich noch gut drann erinnern in Kaufberatungs Forum hies es immer Kauf dir eine langsamere 6800 Ultra die hat Ps 3.0 und kann HDR.Die meissten laus haben das dann auch gemacht.Wenn die X800 Serie PS 3.0 ünterstüzt hätte hätte Ati jetzt wahrscheinlich 80 % MArkanteil. :eek: Wenn es so wäre:5 Millionen hätten dann ne X800 gekauft und 1 Million ne 6800 sicher.

mit SM3 wär der chip zu komplex geworden und die hätten ihn nicht so hoch takten können...von höheren fertigungskosten bei höherem transistorcount mal ganz zu schweigen...

zum erscheinen der X800 karten hab ich auch noch gedacht...mensch die dinger kannste in die tonne kloppen da kein SM3.... heute hat mich die zeit belert und ich muss sagen SM3 ist nicht wirklich was das man mit einer X800 Karte vermissen muss...

Verkauft haben die von den Dingern immer noch ganz gut...vorallem durch den wahnsinnig günstigen preis bei sehr guter leistung in den letzten paar monaten...

hätte es ATI gebacken bekommen da schon SM3 reinzubauen und trotzdem schnelle chips zu bauen hätten sie es auch getan...

robbitop
2006-04-17, 14:24:48
hätte es ATI gebacken bekommen da schon SM3 reinzubauen und trotzdem schnelle chips zu bauen hätten sie es auch getan...
Man hat es mit R400 ja versucht und ist dabei gescheitert. Vermutlich NV30 alike. Zu ambitioniert für das damalige Transistorbudget.

Ich persönlich denke, dass NV40 ein sehr guter Chip ist. Inzwischen ist er bei shaderlastigen Spielen ziemlich gleich auf und kann zusätzlich noch HDR. Ich finde persönlich insbesondere in Oblibivin HDR deutlich schöner als Bloom.

reunion
2006-04-17, 14:43:51
Ach 32 Takte...ja aber auch nur wenn die Berechnung der Line of Anisotropy das Ergebnis ergibt, dass 16 Samples für den jeweiligen Texel nötig sind.

Und wenn der anisotrope Filter wirklich bei allen Winkel 16x Filterung erlauben würde. IMHO ist dieses Pipeline-Konzept mit ein Grund, warum man den AF seit der GF3 ständig "optimiert".

robbitop
2006-04-17, 14:50:20
Das tut man, um Füllrate zu sparen. Warum auch nicht?
Winkelabhängigkeit hat man sich bei der Konkurrenz abgeschaut. Die Presse bestrafte das damals nicht. Heute ist sie anscheinend aufgeklärter und so werden wir auch bei NV vermutlich bald wieder WU AF sehen.
Aber mal von der Winkelabhängigkeit abgesehen gibt es noch viele weitere Dinge, wo man am AF optimieren kann. Und das tut jeder IHV. (z.B. an der Granularität der AF Abstufung...das kann richtig Samples sparen nach der Berechnung der Line of Anisotropy)

reunion
2006-04-17, 14:55:56
Solange das Aritmetik : Filter Verhältnis halbwegs passt, gibt es keine großartigen Stalls. Wäre dieser "Issue" so drastisch, dann müsste ja folgerichtig das AF beim NV4x/G7x sehr teuer bei shaderintensiven Spielen sein.

Naja, man versucht halt durch eine sehr hohe Füllrate diesen Nachteil möglichst klein zu halten. Was auch ziemlich gut zu funktionieren scheint.

Wenn man sich allerdings ansieht, was so ein G71 mit seinem 50%igen Füllratenvorteil speziell mit AF und hohen Auflösungen unterm Strich leistet (wo diese hohe Füllrate ja eigentlich ein Vorteil sein sollte), dann wird doch schnell klar, dass es eben ganz ohne Probleme auch nicht funktioniert. Allerdings muss man natürlich auch dazu sagen, dass man trotzdem mit deutlich weniger Transistoren auskommt, sodass dies nicht wirklich ein Nachteil ist.


Was wirklich Leistung auf dem G7x kostet, ist das MSAA. Ich habe leider keinerlei Ahnung, warum die X1800/1900 dermaßen weniger bei MSAA verliert, aber hier liegt die Ursache. Und AA hat mit den Pipelinestalls wirklich wenig zu tun. (es sei denn, die ROPs limitieren, was eigentlich selten bis nie der Fall sein dürfte)


Der voll assoziative Cache sowie der fein unterteile Speichercontroller scheint halt doch nicht ganz umsonst zu sein.

robbitop
2006-04-17, 15:05:00
Naja, man versucht halt durch eine sehr hohe Füllrate diesen Nachteil möglichst klein zu halten. Was auch ziemlich gut zu funktionieren scheint.

Wenn man sich allerdings ansieht, was so ein G71 mit seinem 50%igen Füllratenvorteil speziell mit AF und hohen Auflösungen unterm Strich leistet (wo diese hohe Füllrate ja eigentlich ein Vorteil sein sollte), dann wird doch schnell klar, dass es eben ganz ohne Probleme auch nicht funktioniert. Allerdings muss man natürlich auch dazu sagen, dass man trotzdem mit deutlich weniger Transistoren auskommt, sodass dies nicht wirklich ein Nachteil ist.
Da müsste man differenzieren woran es liegt. M.E. liegts am AA. Wenn man ohne AA mit 16xAF und 16x12 testen würde, sähe das ganz anders aus. Ich weiß nicht, warum das AA so teuer bei NV ist. Aber es wird ja eh nur noch 4xAA getestet.



Der voll assoziative Cache sowie der fein unterteile Speichercontroller scheint halt doch nicht ganz umsonst zu sein.
Die X800 Serie hat auch kaum Performance beim AA verloren. Ich persönlich denke, dass beides schon etwas bringt (obacht: das NV4x/G7x Cache System ist auch nicht von schlechten Eltern...von der Hitrate liegt es IIRC näher am R5xx als am R4xx). Es wird beides viel überschätzt. Ich vermute, dass es am MSAA Verfahren selbst liegt. ATI muss angeblich bei gleichen Farbwerten an Subpixeln pro Pixel den Farbwert nur einmal schreiben. Bei NV wohl nicht. Die Framebufferkompression wäre dann also bei ATI deutlich besser als die von NV. Sowas ist leider schwer herauszubekommen.

reunion
2006-04-17, 15:11:21
Das tut man, um Füllrate zu sparen. Warum auch nicht?
Winkelabhängigkeit hat man sich bei der Konkurrenz abgeschaut. Die Presse bestrafte das damals nicht.


Natürlich, allerdings ist das Cine-FX-Konzept IMHO auch ein driftiger Grund dafür. Denn umso mehr gefiltert werden muss, umso schwerer wiegt dieser Nachteil logischerweise. Ich war von Anfang an davon überzeugt, dass wir mit G7x keinen winkelunabhängigen Filter mehr sehen würden, da man diesen dann natürlich auch gegen ATis WU-AF benchen würde, was für nV nur ein Nachteil sein kann.

robbitop
2006-04-17, 15:13:02
G7x ist ein Refresh, da baut man nicht mal eben ein WU AF ein.

Gast
2006-04-17, 15:24:21
Man hat es mit R400 ja versucht und ist dabei gescheitert. Vermutlich NV30 alike. Zu ambitioniert für das damalige Transistorbudget.

Ich persönlich denke, dass NV40 ein sehr guter Chip ist. Inzwischen ist er bei shaderlastigen Spielen ziemlich gleich auf und kann zusätzlich noch HDR. Ich finde persönlich insbesondere in Oblibivin HDR deutlich schöner als Bloom.

Er war gut, keine Frage. Er ist aber zu schwach für HDR und für SM 3.0.
Aus PS 3.0 hat man noch lange nicht alles rausgeholt und schon wird wieder Ps 4.0 hinterhergeschmissen.
Keine Frage, Ps 3.0 ist nicht schlecht, hätte mir auch beinahe eine 6800ultra statt einer X800xt gekauft, aber leider war der sogenannte Stromverbrauch so hoch das Alternate die 6800ultra nicht in ihrem Konfigurator einfügte.
Schade drum, mein Sn25p hätte sie gepackt.

Naja meine X800xt wird eh irgendwann abgelöst...

robbitop
2006-04-17, 15:27:05
Er war gut, keine Frage. Er ist aber zu schwach für HDR und für SM 3.0.
Aus PS 3.0 hat man noch lange nicht alles rausgeholt und schon wird wieder Ps 4.0 hinterhergeschmissen.
Keine Frage, Ps 3.0 ist nicht schlecht, hätte mir auch beinahe eine 6800ultra statt einer X800xt gekauft, aber leider war der sogenannte Stromverbrauch so hoch das Alternate die 6800ultra nicht in ihrem Konfigurator einfügte.
Schade drum, mein Sn25p hätte sie gepackt.

Naja meine X800xt wird eh irgendwann abgelöst...
Das HDR gab's ja obendrauf. Und dafür, dass NV40 angeblich zu schwach ist, funktionierte sowohl Far Cry, Lost Coast, SeSam2 und auch Oblivion gut auf meinem "alten" NV40.
Dass SM3 nicht ausgenutzt worden ist, lag daran, dass nicht alle IHV es zu seiner Zeit boten. Vor allem Shader hätte man damit etwas beschleunigen können. Siehe Far Cry 1.3.

Razor
2006-04-17, 16:30:14
schwachsin.
wenn du mit deiner 7900gt kein hdr anmachst sondern aa/af hast du das selbe bild wie auf einer x800.
Geht es hier immer noch um den Oblivion-Test auf Firingsqad?

Wenn ja: LESEN BILDET!
(wie oft muss man es denn noch sagen?)

Die Midrange-Karten wurden massiv in der BQ reduziert, bevor man mit diesen zu testen anfing.
Firingsqad hat dies gleich auf der ersten Seite detailliert dargelegt... inkl. warum und wieso.

Beim 512MB vs. 256MB hat man im HighEnd-Bereich (also der Vergleich zweier 7900'er) nix reduziert und weiterhin mit höchsten Einstellungen gebencht. Dann behauptet hier doch glatt jemand, dass eine X800 schneller sei, als eine 7900, weil er alle Fakten ausgeblendet und nur noch Balken vor Augen hatte... und kommt im Finale jetzt damit, dass eine X800 zumindest schneller sei, als ein 6800.

Ganz ehrlich:Mir reicht es jetzt!

Sollen doch solche Hirnies untereinander diskutieren... mindestens Lesen sollte man können... und wenn man des englischen nicht mächtig ist, dann sollte man sich einfach heraus halten. Im Kindergarten gab es reine Bilderbücher, aber mit wachsendem Alter sollte man schon mitbekommen haben, dass das geschriebene Wort durchaus von Relevanz ist.

Razor

P.S.: Robbie hat es (wie schon so oft) auf den Punkt gebracht:
(um die Problematik 7900 vs. 1900 bzw. 6800 vs. X800 zu verdeutlichen)

Allerdings muss man auch bedenken, dass in den Entwicklerrechnern von den Machern von Oblivion nur ATI Hardware steckte. Was sowas bewirkt, sieht man ja schön an Doom3/HL2.

Odal
2006-04-17, 17:36:39
Ich persönlich denke, dass NV40 ein sehr guter Chip ist. Inzwischen ist er bei shaderlastigen Spielen ziemlich gleich auf und kann zusätzlich noch HDR. Ich finde persönlich insbesondere in Oblibivin HDR deutlich schöner als Bloom.

Farcry ist shaderlastig, FEAR ist schaderlastig...

was für shaderlastige spiele meinst du? der NV40 ist sicherlich ein toller sensationeller chip (im vergleich zur alten FX Serie) aber bei den meisten spielen hat er gegen den R420 keine schnitte von der leistung her...

HDR ist zwar nett aber imho ohne AA und auf GPUs der Leistungsklasse NV40 recht sinnlos....gerade in oblivion brauch man mit nv40 jedes FPS...es gibt zwar genug die mit NV40 da mit HDR spielen, verzichten dann aber an anderer stelle auf imho zuviel.

robbitop
2006-04-17, 17:55:00
Farcry ist shaderlastig, FEAR ist schaderlastig...

was für shaderlastige spiele meinst du? der NV40 ist sicherlich ein toller sensationeller chip (im vergleich zur alten FX Serie) aber bei den meisten spielen hat er gegen den R420 keine schnitte von der leistung her...

HDR ist zwar nett aber imho ohne AA und auf GPUs der Leistungsklasse NV40 recht sinnlos....gerade in oblivion brauch man mit nv40 jedes FPS...es gibt zwar genug die mit NV40 da mit HDR spielen, verzichten dann aber an anderer stelle auf imho zuviel.
Naja aber nicht shaderlastig genug. Sonst würde X1900XT deutlich mehr in Front sein vA ohne AA.
Und so viel schneller ist R420 trotz 33% Mehrtakt nun auch wieder nicht. Vor allem bei neueren Spielen nehmen sich die beiden nicht mehr so viel.

Und dennoch: ich konnte all die Spiele mit meinem NV40 mit HDR wunderbar spielen. Klar ein bisschen tweaken musste man schon aber es lohnte sich. Dieses Totgerede (welches ich in dem Maße genauso sinnfrei finde wie das gehype) kommt sowieso von Leuten die ständig eine neue GPU kaufen.

Odal
2006-04-17, 18:05:22
Geht es hier immer noch um den Oblivion-Test auf Firingsqad?

Wenn ja: LESEN BILDET!
(wie oft muss man es denn noch sagen?)

Die Midrange-Karten wurden massiv in der BQ reduziert, bevor man mit diesen zu testen anfing.
Firingsqad hat dies gleich auf der ersten Seite detailliert dargelegt... inkl. warum und wieso.

Beim 512MB vs. 256MB hat man im HighEnd-Bereich (also der Vergleich zweier 7900'er) nix reduziert und weiterhin mit höchsten Einstellungen gebencht. Dann behauptet hier doch glatt jemand, dass eine X800 schneller sei, als eine 7900, weil er alle Fakten ausgeblendet und nur noch Balken vor Augen hatte... und kommt im Finale jetzt damit, dass eine X800 zumindest schneller sei, als ein 6800.

Ganz ehrlich:Mir reicht es jetzt!

Sollen doch solche Hirnies untereinander diskutieren... mindestens Lesen sollte man können... und wenn man des englischen nicht mächtig ist, dann sollte man sich einfach heraus halten. Im Kindergarten gab es reine Bilderbücher, aber mit wachsendem Alter sollte man schon mitbekommen haben, dass das geschriebene Wort durchaus von Relevanz ist.

Razor

P.S.: Robbie hat es (wie schon so oft) auf den Punkt gebracht:
(um die Problematik 7900 vs. 1900 bzw. 6800 vs. X800 zu verdeutlichen)

Razor du bist sehr Pro Nvidia, das wurde von anderer Stelle schon oft genug bemerkt. Akzeptier doch einfach das Oblivion auf ATI KArten einfach deutlich besser läuft. Du musst doch nicht traurig oder trozig sein, es gibt doch auch Spiele die auf deinen heiss und innig geliebten NVidia Karten besser laufen. Da wäre AoE3 zu nennen, wo alle ATI Karten ohne fetch4 support regelrecht untergehen. Erfreu dich eben daran und verteidige "deine lieben Kleinen" nicht dort bis aufs Messer wo es sowieso keinen Zweck hat, und bezeichne andere Leute hier als Hirnies.

Razor
2006-04-17, 18:08:17
Halt einfach den Schnabel Odal.
DU hast deutlich bewiesen, dass Du einer Diskussion einfach nicht würdig bist.
Nicht einmal einen Fehler kannst Du eingestehen und kommtst mit immer neueren Versuchen, "Deine" Argumentation hoch zu halten.
Fakten scheinen Dich nicht im geringsten zu beirren, wozu also sollte man mit Dir 'reden'?

Sorry, aber so etwas ist einfach nur arm.

EOD.

Razor

The_Invisible
2006-04-17, 18:13:40
HDR ist zwar nett aber imho ohne AA und auf GPUs der Leistungsklasse NV40 recht sinnlos....gerade in oblivion brauch man mit nv40 jedes FPS...es gibt zwar genug die mit NV40 da mit HDR spielen, verzichten dann aber an anderer stelle auf imho zuviel.

hm, mal sehn, ich habe farcry + hdr voriges jahr mit ner 6800gt in 1280x960 gespielt un es sah SO geil aus... die ATI jünger haben halt gleich geschrien "braucht ja niemand, sieht schei*e aus"... heute können es die ATI karten auch und es sieht auf einmal wieder supergeil aus ;D

ganz nach der devise "was nvidia zuerst macht ist alles schei*e, aber wenns dann wer nachmacht ist alles supi"... genauso wie beim AF... die geforce4 hat lupenreines AF können, der gegenpart von ATI hat sich damit blamiert, aber wurde halt nix berichtet und keinen hats geschert... heute ist jeder 2te post mit "flimmern auf nv" und "scheiß af mit nv" zugepflastert...

ich finde das einfach nur arm und auf der anderen seite wieder lustig, vor allem bei den leuten die ne nv4x/g7x noch nie life gesehen haben und so tun als ob JEDES game mit ner nvidia karte flimmern würde (was selbst mit Q+TriOpts so nie der Fall ist) und nur bei speziellen texturen auftritt... aber nein, nvidia flimmert immer, das flimmern bei nem tv ohne signal ist nix dagegen ;)

mfg

RLZ
2006-04-17, 18:16:44
Aus PS 3.0 hat man noch lange nicht alles rausgeholt und schon wird wieder Ps 4.0 hinterhergeschmissen.
Eigentlich müsste man in die Forenregeln einbauen, dass man eine solche Aussage nicht mehr posten darf.
Sie wurde so oft bei jedem Shadermodell gepostet und es wurde jedes mal erklärt warum sie totaler Schwachsinn ist...

IVN
2006-04-17, 18:21:46
Razor du bist ein Fanboy übelster Sorte, das wurde von anderer Stelle schon oft genug bemerkt. Akzeptier doch einfach das Oblivion auf ATI KArten einfach deutlich besser läuft. Du musst doch nicht traurig oder trozig sein, es gibt doch auch Spiele die auf deinen heiss und innig geliebten NVidia Karten besser laufen. Da wäre AoE3 zu nennen, wo alle ATI Karten ohne fetch4 support regelrecht untergehen. Erfreu dich eben daran und verteidige "deine lieben Kleinen" nicht dort bis aufs Messer wo es sowieso keinen Zweck hat, und bezeichne andere Leute hier als Hirnies.
Mein lieber Odal,
du solltest erst den Baumstamm aus deinem Auge entfernen, bevor du das Dorn aus dem von Razor ziehen willst.
- Du willst es so hinstellen, als koennte man mit einer Nv-Karte Oblivion gar nicht spielen, oder mit einer von Ati AoE3. Die Realitaet ist weniger dramatisch. Man kann sogar mit einen P4 Spiele spielen, obwohl das die Mehrheit verneint. (stell dir das vor.)

Odal
2006-04-17, 18:27:15
Naja aber nicht shaderlastig genug. Sonst würde X1900XT deutlich mehr in Front sein vA ohne AA.


ist die X1900XT doch...in FEAR 21% schneller als die X1800XT
was sind denn deiner ansicht nach sonst shaderlastige spiele?


Und so viel schneller ist R420 trotz 33% Mehrtakt nun auch wieder nicht. Vor allem bei neueren Spielen nehmen sich die beiden nicht mehr so viel.

naja beim imho shaderlastigen neuen spiel FEAR ist der R420 schonmal 71% schneller Quelle (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1800_gto/13/#abschnitt_fear)

Serious Sam 2 haben wir gute 30% (gleiche Quelle) ist auch relativ neu
Quake4 ist noch relativ neue....haben wir immerhin noch knapp 28% vorteil für den R420 (immerhin eigentlich ein NV Spiel)

CoD2 sieht es mal andersrum aus... 32% Vorteil für NV40
AoE3 lässt sich schlecht anhand Tests vergleichen..wegen unterschiedlichen Settings... aber NV40 ist da auf alle Fälle im Vorteil....
Oblivion (auch neu) sind es anhand firinsquad schonmal 68% Vorteil für R420

Alles in allem kann man imho schon sagen das (gerade) bei neuen Spielen ein R420 noch sehr oft gute Trümpfe in der Hand hat.


Und dennoch: ich konnte all die Spiele mit meinem NV40 mit HDR wunderbar spielen. Klar ein bisschen tweaken musste man schon aber es lohnte sich. Dieses Totgerede (welches ich in dem Maße genauso sinnfrei finde wie das gehype) kommt sowieso von Leuten die ständig eine neue GPU kaufen.

kannst du ja auch, für mich ist ein Spielen ohne AA nicht möglich, genauso wie ich nicht ohne AF spielen kann. Und klar ich hab Oblivion sogar auf meiner FX5600go (ruckelig) spielbar zum laufen bekommen :D

Odal
2006-04-17, 18:31:03
hm, mal sehn, ich habe farcry + hdr voriges jahr mit ner 6800gt in 1280x960 gespielt un es sah SO geil aus... die ATI jünger haben halt gleich geschrien "braucht ja niemand, sieht schei*e aus"... heute können es die ATI karten auch und es sieht auf einmal wieder supergeil aus ;D

naja ich finde auch heute HDR bei Farcry auf einer X1800 recht ungeil obwohls AA gibt ^^ das HDR ist bei Farcry schlecht reingeschustert...


ganz nach der devise "was nvidia zuerst macht ist alles schei*e, aber wenns dann wer nachmacht ist alles supi"... genauso wie beim AF... die geforce4 hat lupenreines AF können, der gegenpart von ATI hat sich damit blamiert, aber wurde halt nix berichtet und keinen hats geschert... heute ist jeder 2te post mit "flimmern auf nv" und "scheiß af mit nv" zugepflastert...

nutz mal die suchfunktion ich hab das AF des R300/350 damals auch aufs stärkste angeprangert und das AF des NV25 und NV30 gelobt.


ich finde das einfach nur arm und auf der anderen seite wieder lustig, vor allem bei den leuten die ne nv4x/g7x noch nie life gesehen haben und so tun als ob JEDES game mit ner nvidia karte flimmern würde (was selbst mit Q+TriOpts so nie der Fall ist) und nur bei speziellen texturen auftritt... aber nein, nvidia flimmert immer, das flimmern bei nem tv ohne signal ist nix dagegen ;)

ich fühl mich da mal angesprochen da du mich gequotet hast..
ich besaß 2 NV4x :biggrin:

Odal
2006-04-17, 18:39:39
Mein lieber Odal,
du solltest erst den Baumstamm aus deinem Auge entfernen, bevor du das Dorn aus dem von Razor ziehen willst.
- Du willst es so hinstellen, als koennte man mit einer Nv-Karte Oblivion gar nicht spielen, oder mit einer von Ati AoE3. Die Realitaet ist weniger dramatisch. Man kann sogar mit einen P4 Spiele spielen, obwohl das die Mehrheit verneint. (stell dir das vor.)

stell dir mal vor ich hab oblivion auf einer FX5600go mit 1.4 ersatzshadern lauffähig gemacht...klar kann man es irgendwie spielen...fragt sich aber nur obs spass macht...meine X800XT @ 605/620 ist mir mittlerweile auch schon etwas langsam geworden...es gibt aber derzeit kein preisknaller der ordentlich performancezuwachs bringt und nicht zu teuer ist

15 FPS (beim NV40) sind bei Oblivion hart an der grenze für ein rpg..die 25 FPS des R420 sind da imho schon deutlich spielbarer

Genauso empfinde ich die 24FPS bei einer X1800XL in AoE3 schon äusserst knapp für das spielen....bei einer 7800GT flutscht das mit 35 FPS dahingegen...

wenn ich highend hardware kaufe erwarte ich nunmal das es flüssig läuft....wenn es das beim Konkurenzprodukt nunmal tut und bei meiner Hardware nicht dann schau ich neidisch zum konkurenzprodukt...

so einfach is das...ich hab doch keine 300-400€ für eine Grafikkarte aus damit das alles nur so vor sich hinruckelt

Odal
2006-04-17, 18:44:56
Halt einfach den Schnabel Odal.
DU hast deutlich bewiesen, dass Du einer Diskussion einfach nicht würdig bist.
Nicht einmal einen Fehler kannst Du eingestehen und kommtst mit immer neueren Versuchen, "Deine" Argumentation hoch zu halten.
Fakten scheinen Dich nicht im geringsten zu beirren, wozu also sollte man mit Dir 'reden'?

Sorry, aber so etwas ist einfach nur arm.

EOD.

Razor

Nein mit dir kann man einfach nicht vernünftig diskutieren....das Oblivion auf ATI KArten besser läuft sieht ein Blinder mit nem Krückstock..das AoE3 auf NVidia Karten besser läuft ebenso....wer gegenteiliges behauptet sollte mal seine farbige brille abnehmen und eine normale aufsetzen.
Ich bete jedenfalls kein IHV an und springe immer hin und her...je nachdem wer das bessere Produkt fürs geld bietet.
Hier gehts um Oblivion und da sind die Fakten klar.

und ja EOD

Mr. Lolman
2006-04-17, 18:55:36
Nein mit dir kann man einfach nicht vernünftig diskutieren....das Oblivion auf ATI KArten besser läuft sieht ein Blinder mit nem Krückstock..das AoE3 auf NVidia Karten besser läuft ebenso....wer gegenteiliges behauptet sollte mal seine farbige brille abnehmen und eine normale aufsetzen.


Naja:

http://www2.tomshardware.de/graphic/20060308/vga_charts_fruehling_2006-13.html

Odal
2006-04-17, 19:09:15
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1800_gto/9/#abschnitt_age_of_empires_3

bei computerbase schauts anders aus...

ausserdem sollte man erwähnen das bei den X1x00 Karten nur Int10 HDR zum einsatz kommt
die X1900XT geht halt wegen fetch fear gut ab...hatte in einem vorherigen beitrag mal geschrieben alle ATI Karten ohne fetch4.... wieso bei THG die X1800er so gut abschneiden kann ich mir aber nicht erklären

Mr. Lolman
2006-04-17, 19:11:22
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1800_gto/9/#abschnitt_age_of_empires_3

bei computerbase schauts anders aus...

ausserdem sollte man erwähnen das bei den X1x00 Karten nur Int10 HDR zum einsatz kommt

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/15/#abschnitt_age_of_empires_3

Raff
2006-04-17, 19:14:48
4xAA? Kommt da bei NV nicht SSAA zum Einsatz? Kann ja nicht gleich schnell sein, wenn HDR-R an ist ...

€dit: Ja, bei CBase steht's ja. Wenn man das beachtet, sind die GeForces durchaus schnell.

MfG,
Raff

Ronny145
2006-04-17, 19:15:38
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/15/#abschnitt_age_of_empires_3


Dort liefen die NVIDIA Karten mit SSAA und die X800er ohne HDR. Für ein Vergleich also nutzlos.

Odal
2006-04-17, 19:23:13
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/15/#abschnitt_age_of_empires_3


naja zumindest im HDR relevanten setting ist die X1800'XT langsamer als einer 7600GT...und bietet dabei nichtmal FP16 HDR

aber eigentlich ist das ja recht irrelevant für mich da AA sein muss...ok stimmt die nehmen sich nicht wirklich viel, aber auf den ATIs wird halt kein echts (mdr) HDR geboten.

Odal
2006-04-17, 19:24:55
Dort liefen die NVIDIA Karten mit SSAA und die X800er ohne HDR. Für ein Vergleich also nutzlos.

naja um die X800 gings da ja jetzt garnicht...sondern um die X1800er...aber auch da hast du recht die liefen nicht mit richtigem HDR.

The_Invisible
2006-04-17, 19:30:12
4xAA? Kommt da bei NV nicht SSAA zum Einsatz? Kann ja nicht gleich schnell sein, wenn HDR-R an ist ...

€dit: Ja, bei CBase steht's ja. Wenn man das beachtet, sind die GeForces durchaus schnell.

MfG,
Raff

jo, für "echtes" HDR+SSAA sind die nv karten sogar sauschnell

aber es stimmt schon, mal ist die eine karte besser mal die andere... die sollten mal ein paar patente bzw features austauschen... ich weiß, spielt sich sicher nicht :D

mfg

Gast
2006-04-17, 20:18:03
Eigentlich müsste man in die Forenregeln einbauen, dass man eine solche Aussage nicht mehr posten darf.
Sie wurde so oft bei jedem Shadermodell gepostet und es wurde jedes mal erklärt warum sie totaler Schwachsinn ist...

Sry, hab ich nicht gewusst.


Naja:

http://www2.tomshardware.de/graphic...ng_2006-13.html


Naja Tomshardware, davon halt ich nicht sonderlich viel.

RLZ
2006-04-17, 20:36:06
Sry, hab ich nicht gewusst.
Das klingt genauso wie:
Warum haben sie Festplatten eingeführt, wenn noch nichtmal die Lochkarten voll ausgenutzt wurden?
Warum haben sie SSE eingeführt, wenn nichtmal die FPU voll ausgenutzt wird?