Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bildqualität Far Cry 6800GT vs Radeon 9800


gunja
2005-05-23, 22:58:54
Ich weiß nicht, obs so einen Thread hier schon mal gab, aber auf den ersten 3 Seiten jedenfalls nicht.
Nach meinem Umstieg von meiner Radeon 9800 auf eine 6800GT (die ich fast geschrottet hätte, aber das ist ein anderes Thema), mußte ich feststellen, daß die Bildqualität in Far Cry gegenüber meiner alten Radeon 9800 um Klassen schlechter ist. Ich wußte ja, daß es da einige Unterschiede geben sollte aber so deutlich ?. Entfernte Objekte verlieren sehr schnell ihre Details und die Texturen sehen irgendwie schwammig aus. Treiber verwende ich den neuesten, dens grade bei Nvidia gab (71.89). Alle Einstellungsmöglichkeiten, die der Treiber hergibt, ändern nichts daran: Filteroptimierungen Ein/Aus, AA/AF ein/aus, egal es bleibt schlecht. Ist das wirklich so krass schlechter ?
In Doom ist die Qualität super

Banshee18
2005-05-23, 23:24:57
Eigentlich sollte da nix schlechter sein. Kannst du mal Screenshots posten? Vielleicht ist es nur Einbildung. Hast du in Far Cry alle Details auf Maximum? Neuster Patch? Schon neuere Treiber versucht?

eLw00d
2005-05-23, 23:32:54
Ich bin und war nie so der "Hardcore-FarCry-Zocker" , aber nach meinem Umstieg von ner 9500pro auf eine 6800GT ist mir gerade bei FarCry nichts aufgefallen.
Außer ,dass HDR einfach saumäßig hammer aussieht ;D und leider genauso saumäßig die performance in den Keller reißt ;(

Mr. Lolman
2005-05-23, 23:43:55
Eigentlich sollte da nix schlechter sein. Kannst du mal Screenshots posten? Vielleicht ist es nur Einbildung. Hast du in Far Cry alle Details auf Maximum? Neuster Patch? Schon neuere Treiber versucht?

Naja die Schatten sind schon definitv schlechter. Und AF brauchts jetzt 8xHQ, wo ich vorher mit 4x (tw. auch nur bi) voll zufrieden war. Aber die BQ in DoomIII ist super (nicht zuletzt mit der 6800GT jetzt auch noch 4xAA bei 1280 möglich ist, während auf meiner ex9700p (400/350) sogar 2xAA zulangsam war für 1280x1024...

Raff
2005-05-23, 23:48:16
Mir ist da auch nichts wirklich Aufälliges vor die Glubscher gekommen -- außer einer Sache. Wer die Pier-Timedemo kennt, wird das zuverlässig mit jedem Treiber erkennen, der mit einer 7 beginnt: An manchen Stellen werden die Felstexturen total offensichtlich auf die Grundtextur gepappt. Je näher man kommt, desto mehr Stücke finden ihren Weg darauf ... Das gab's auf meiner 9800 Pro nicht.

Erinnert an die berüchtigten Pop-Ups, die man in den Anfangszeiten von 3D vor allem auf einer bekannten Konsole von Nintendo mit Nebel kaschieren wollte. ;)

MfG,
Raff

Banshee18
2005-05-23, 23:52:15
Ja, die Schatten hab ich ganz vergessen, sonst konnte ich keinen Unterschied feststellen und ich bin Far Cry-Hardcorezocker. :biggrin:
Quality ohne Optimierungen reicht imho bei Far Cry. Wo soll bei NV 4xHQ AF und Ati 4xAF ein (erkennbarer) Unterschied sein?

Banshee18
2005-05-23, 23:53:26
Mir ist da auch nichts wirklich Aufälliges vor die Glubscher gekommen -- außer einer Sache. Wer die Pier-Timedemo kennt, wird das zuverlässig mit jedem Treiber erkennen, der mit einer 7 beginnt: An manchen Stellen werden die Felstexturen total offensichtlich auf die Grundtextur gepappt. Je näher man kommt, desto mehr Stücke finden ihren Weg darauf ... Das gab's auf meiner 9800 Pro nicht.

Erinnert an die berüchtigten Pop-Ups, die man in den Anfangszeiten von 3D vor allem auf einer bekannten Konsole von Nintendo mit Nebel kaschieren wollte. ;)

MfG,
Raff

Das kann ich nicht nachvollziehen... :confused:

Raff
2005-05-23, 23:58:09
Das kann ich nicht nachvollziehen... :confused:

Pier-Timedemo, nachdem er mit dem Gleiter gelandet ist mal auf die Felsen links vorne schauen. Ich habe das beim Zocken allerdings auch nur 1x gesehen, wenn ich mich recht erinnere ... ;)

MfG,
Raff

Banshee18
2005-05-24, 00:34:27
Hab grad nachgeschaut, kann immernoch nix erkennen. Treiber ist der 76.41. Du hast komische Probleme mit Far Cry... ;)

Raff
2005-05-24, 00:37:06
Ja, aber reproduzierbar, auch auf einer GeForce3 oder 4. ;)

MfG,
Raff

Blaire
2005-05-24, 00:46:34
Pier-Timedemo, nachdem er mit dem Gleiter gelandet ist mal auf die Felsen links vorne schauen. Ich habe das beim Zocken allerdings auch nur 1x gesehen, wenn ich mich recht erinnere ... ;)

MfG,
Raff

Ist beim AMD64 Patch behoben. Muss wohl am Game gelegen haben. Ich weiss aber was du meinst.

Raff
2005-05-24, 01:03:07
Na da habe ich ja nochmal Glück gehabt. :D Bin also kein Einzelfall.

Aber wie gesagt: Das tritt nur auf GeForces mit den neuesten Treibern auf!

MfG,
Raff

Banshee18
2005-05-24, 01:17:21
Was ist eigentlich die technische Erklärung für die hässlichen Schatten auf GFs? Gibts einen Treiber. der die Schatten korrekt rendert?

Coda
2005-05-24, 01:20:34
Das liegt daran dass Crytek bei GeForces schnelleres fake-PCF Shadowmapping in Hardware verwendet.

Es liegt nicht am Treiber oder an den Karten von nVidia. Zumindest nicht direkt.

deLuxX`
2005-05-24, 02:12:00
Und warum verwendet dies Crytek nur bei GeForces? Geht damit wirklich ein gerechtfertigter Geschwindigkeitsvorteil einher?

Fetza
2005-05-24, 02:42:29
Ich weiß nicht, obs so einen Thread hier schon mal gab, aber auf den ersten 3 Seiten jedenfalls nicht.
Nach meinem Umstieg von meiner Radeon 9800 auf eine 6800GT (die ich fast geschrottet hätte, aber das ist ein anderes Thema), mußte ich feststellen, daß die Bildqualität in Far Cry gegenüber meiner alten Radeon 9800 um Klassen schlechter ist. Ich wußte ja, daß es da einige Unterschiede geben sollte aber so deutlich ?. Entfernte Objekte verlieren sehr schnell ihre Details und die Texturen sehen irgendwie schwammig aus. Treiber verwende ich den neuesten, dens grade bei Nvidia gab (71.89). Alle Einstellungsmöglichkeiten, die der Treiber hergibt, ändern nichts daran: Filteroptimierungen Ein/Aus, AA/AF ein/aus, egal es bleibt schlecht. Ist das wirklich so krass schlechter ?
In Doom ist die Qualität super

als ich von meiner radeon 9800 auf die 6800 umgestiegen bin, hab ich auch diesen krassen unterschied festgestellt. Ist bei dir die pixel shader 3 unterstützung aktiviert? Steht irgendwo bei den grafikoptionen, um den zu aktivieren muss man glaub ich die licht berechnung auf very high stellen. Seit dem sieht farcry wieder super bei mir aus. Aber vorher war es echt krampfoptik, so wie bei einer geforce 5900er.

Gruss

Fetza

gunja
2005-05-24, 09:42:36
@All: Danke für die Antworten, Screenshots kann ich heute Abend mal posten.

@Fetza: Danke, werde ich auch heute Abend mal schauen.

Im Büro muß ich mich leider mit Intel i865 "Extreme" Graphics zufrieden geben.

jacky
2005-05-24, 10:09:22
Also ich bin ja auch von einer 9800pro auf ne 6800gt gewechselt. Und ich muss sagen FarCry sieht einfach godlike aus.
Besonders wie smooth das in 1280*1024 , 8xAF, Very High alles, SM 3.0 und HDR.
Ey sowas geiles hab ich echt noch nie gesehen :)

Also keine Ahnung ob ihr was auf den Augen habt :D

Mr. Lolman
2005-05-24, 10:43:17
Vll haben wir einfach höhere Ansprüche als du ;): http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2868171#post2868171

jacky
2005-05-24, 10:47:37
Naja man kann auch übertreiben.
Außerdem scheint, dass mitm Schatten teilweise am Game zu liegen?!?
Also das bei Nvidia extra nen billigerer Schatten verwendet wird oder irre ich mich?

hq-hq
2005-05-24, 12:32:27
probier doch mal den omega treiber, ist zwar nur 69.93 aber man kann
den im "quality modus" installieren. da schauen die texturen schärfer aus.
aber bei schatten bringts nix glaub i.

NV die schummler :)
2005-05-24, 12:42:49
Habe die gleiche erfahrung gemacht,Far cry ist nicht das einzigste game aws ziemlich verwaschen aussieht.Auf meiner damaligen 9600 Pro sah call of duty viel schärfer aus als auf meiner jetzigen 6800 16/6!Mich stört das aber nicht wirklich weil es nicht dolle auffällt.

Wolfram
2005-05-24, 12:53:01
Mir ist da auch nichts wirklich Aufälliges vor die Glubscher gekommen -- außer einer Sache. Wer die Pier-Timedemo kennt, wird das zuverlässig mit jedem Treiber erkennen, der mit einer 7 beginnt: An manchen Stellen werden die Felstexturen total offensichtlich auf die Grundtextur gepappt. Je näher man kommt, desto mehr Stücke finden ihren Weg darauf ... Das gab's auf meiner 9800 Pro nicht.

Sicher? Ich kann mich an Textur/Detail-Poppen auf Felsen an an allen möglichen Stellen auf meiner früheren 9800 erinnern.

Dafür gibt es auch eine Variable (e_terrain_lod_ratio o.ä.) die zumindest noch beim 1.3er Patch aber nicht dauerhaft gesetzt werden konnte (nur bis zum Levelwechsel an der Konsole) und per default in unterschiedlichen Levels unterschiedliche Werte hatte. Dieses Setting zog allerdings auch sehr stark an der Performance.

Gast
2005-05-24, 13:09:40
imo erkennt farcry unter patch1.3 die 6800 noch nicht, und stellt dann eine art "kompatibilitätsmodus" mit niedrigen details ein.

gunja
2005-05-24, 14:45:25
imo erkennt farcry unter patch1.3 die 6800 noch nicht, und stellt dann eine art "kompatibilitätsmodus" mit niedrigen details ein.

Das würde es erklären, ich habe nämlich wirklich den Eindruck das es weniger Details sind.

dsfgg
2005-05-24, 15:36:42
imo erkennt farcry unter patch1.3 die 6800 noch nicht, und stellt dann eine art "kompatibilitätsmodus" mit niedrigen details ein.

Totaller schwassin dann dürfte mann garkeine benchmark mit einer NV 40 machen.Und schon garnicht ein vergleich zwischen Ati und NV.

Gasdd
2005-05-24, 15:37:28
Totaller schwassin dann dürfte mann garkeine benchmark mit einer NV 40 machen.Und schon garnicht ein vergleich zwischen Ati und NV.

Wenn Far Cry eine 6800 nicht erkennen würde wieso geht dann HDr ?OMG

Wishnu@sonstwo
2005-05-24, 15:39:19
Irgendwie habe ich bei der 6800 mehr Texturflimmern, als bei der 9800.
Geht das euch auch so?

ps. werde die karte wohl eh wieder zurückbringen, weil ich bf42 einfach nicht gescheit zum Laufen bringe (fps gehen zu stark in den keller...neue Spiele hingegen laufen schon flott).

Coda
2005-05-24, 15:42:55
Und warum verwendet dies Crytek nur bei GeForces? Geht damit wirklich ein gerechtfertigter Geschwindigkeitsvorteil einher?Weil es die ATi Karten nicht können.

Mr. Lolman
2005-05-24, 15:50:35
Weil es die ATi Karten nicht können.

Ich finds dumm das es überhaupt verwendet wird -> es sieht mies aus :frown:

Blaire
2005-05-24, 16:01:40
Ich finds dumm das es überhaupt verwendet wird -> es sieht mies aus :frown:

Ist sicher ein Makel , aber mich störts relativ wenig weil ich mich aufs Spiel konzentriere. Aber Nvidia kann hier wenigstens HDR vorweisen , das entschädigt dann wenigstens.

Coda
2005-05-24, 16:03:00
Ich finds dumm das es überhaupt verwendet wird -> es sieht mies aus :frown:Dito. Aber das must du Crytek sagen und nicht an nVidia ranmotzen.

Gast
2005-05-24, 16:09:41
Das kann schon sein. Als ich von einer GFTI4200 auf eine Radeon 9800 Pro umgestiegen bin, fiel mir sofort die schlechtere Bildqualität in UT2003 auf. Mit der GFTI4200 waren die Texdturen schärfer, was ich mir auch anhand Screenshots beweisen konnte.
Da ja mittlerweile die GKarte immer schneller werden sollen, muß wohl irgendwo gespart werden. Möglicherweise auf Kosten der Bildqualität.

Marscel
2005-05-24, 16:10:05
Ich finds dumm das es überhaupt verwendet wird -> es sieht mies aus :frown:

Ich meine, das ist Geschmackssache, denn ich kann mich über die Verwendung im Spiel nicht beschweren, sprich ich finde es nicht hässlich. Mag wohl ein wenig grob aussehen, wenn 40% der Bildfläche blenden, aber mir gefällts, bei Splinter Cell 3 ists so dezent, dass man auch wieder drauf verzichten kann (meine Meinung) und die übrige Performance anders verwenden kann.

Gaestle
2005-05-24, 16:10:48
Irgendwie habe ich bei der 6800 mehr Texturflimmern, als bei der 9800.
Geht das euch auch so?


Clamp-Schalter im Treiber?

Grüße

Gast
2005-05-24, 16:11:17
Das kann schon sein. Als ich von einer GFTI4200 auf eine Radeon 9800 Pro umgestiegen bin, fiel mir sofort die schlechtere Bildqualität in UT2003 auf. Mit der GFTI4200 waren die Texdturen schärfer, was ich mir auch anhand Screenshots beweisen konnte.
Da ja mittlerweile die GKarte immer schneller werden sollen, muß wohl irgendwo gespart werden. Möglicherweise auf Kosten der Bildqualität.

ums zu verdeutlichen, die Bildqualität der GFTI4200 war eindeutig besser.

gunja
2005-05-24, 17:38:01
Also wenn mir jemand erklärt, wie man ein Bild einfügt, hätte ich einen Screenshot.....

Blaire
2005-05-24, 17:43:25
Also wenn mir jemand erklärt, wie man ein Bild einfügt, hätte ich einen Screenshot.....

imageshack.us und BILD hochladen ;)

Coda
2005-05-24, 17:45:47
Das kann schon sein. Als ich von einer GFTI4200 auf eine Radeon 9800 Pro umgestiegen bin, fiel mir sofort die schlechtere Bildqualität in UT2003 auf. Mit der GFTI4200 waren die Texdturen schärfer, was ich mir auch anhand Screenshots beweisen konnte.
Da ja mittlerweile die GKarte immer schneller werden sollen, muß wohl irgendwo gespart werden. Möglicherweise auf Kosten der Bildqualität.Wahrscheinlich hattest du bei der GeForce 4 AF an und bei der Radeon nicht. Anders kann ich mir das nicht erklären.

deekey777
2005-05-24, 17:54:36
Totaller schwassin, dann dürfte man gar keine benchmarks mit einer NV 40 machen. Und schon gar nicht ein vergleich zwischen Ati und NV.

Was heißt hier "Schwachsinn"? Vor dem Patch 1.2, später zurückgezogen wurde, wurde die NV40 als eine FX erkannt, was zur Folge hatte, daß diese iV Far Cry 1.1 eine etwas "andere" Bildqualität lieferte als eine R300/R420 bzw. die FX vor dem Patch 1.1.

gunja
2005-05-24, 17:56:48
Danke

Ein Beispiel zu dem was ich meine sind die 4 Büsche oberhalb des Fadenkreuzes. Trotzdem daß sie so nah sind, sind sie völlig verwaschen. Bei der Radeon 9800 ist mir so was nicht aufgefallen
http://img200.echo.cx/my.php?image=farcry000414le.jpg

Blaire
2005-05-24, 18:01:50
Danke

Ein Beispiel zu dem was ich meine sind die 4 Büsche oberhalb des Fadenkreuzes. Trotzdem daß sie so nah sind, sind sie völlig verwaschen. Bei der Radeon 9800 ist mir so was nicht aufgefallen
http://img200.echo.cx/my.php?image=farcry000414le.jpg

Das dürfte mit der Vegetations oder Objects LOD zu tun haben. Das kann man in der system.cfg einstellen , frage mich aber jetzt bitte nicht wo. Da gibts hier im 3dcenter auch einen Extra Thread für der sich mit sowas beschäftigt.
Schau mal bitte dort: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=200180&highlight=LOD

gunja
2005-05-24, 18:10:17
Danke für den Link

Dann liegts wohl eher daran, daß ich gleichzeitig mit dem Graka-Wechsel von Patch 1.1 auf Patch 1.31 umgestiegen bin

Edit: Jaaa, jetzt ist´s viel besser danke nochmal.

Quasar
2005-05-24, 20:32:34
Ich finds dumm das es überhaupt verwendet wird -> es sieht mies aus :frown:
Eigentlich sieht das ganz n1 aus - wenn ausreichend hoch aufgelöste Schattentexturen genutzt werden.
Vielleicht läßt sich das ja über die Konsole forcieren.

2048x2048er Shadowmaps (links)
http://home.arcor.de/quasat/3DC-Pics/3DMark05%20-%20Schatten.png

Quasar
2005-05-24, 20:35:34
Wahrscheinlich hattest du bei der GeForce 4 AF an und bei der Radeon nicht. Anders kann ich mir das nicht erklären.
Das hätte er aber bei der GF bemerkt *gg* AF bei UT2003 wäre richtig teuer in Sachen FPS gekommen.

Ich vermute eher, daß er den fehlenden Detail-Texturen, die sich durch "auf 0.0 setzen" des Detail-Map LOD in der .ini berichtigen lassen, zum Opfer gefallen ist.
http://www.computerbase.de/artikel/hardware/grafikkarten/2002/connect3d_radeon9700_pro/32/#abschnitt_ut2003_demo_flyby
Ganz unten, direkt über'm Botmatch-Abschnitt.

Mr. Lolman
2005-05-24, 20:36:49
Eigentlich sieht das ganz n1 aus - wenn ausreichend hoch aufgelöste Schattentexturen genutzt werden.
Vielleicht läßt sich das ja über die Konsole forcieren.

2048x2048er Shadowmaps (links)
http://home.arcor.de/quasat/3DC-Pics/3DMark05%20-%20Schatten.png

Selbst bei doppelter Auflösung wär der Übergang noch härter als bei den ATi Schatten (insgesamt würds natürlich besser aussehen). Mir wär da lieber ne Möglichkeit das ATi Schattenrendering für NV Karten freizuschalten.

HansDampf
2005-05-24, 20:41:39
Wenn Far Cry eine 6800 nicht erkennen würde wieso geht dann HDr ?OMG

Weil HDR erst mit Patch 1.3 implementiert wurde?! OMG

Quasar
2005-05-24, 20:44:51
e_active_shadow_maps_receving = "0"
e_shadow_maps = "0"
e_stencil_shadows = "1"

So schaut's auf einem alternativen DX9-Part aus. Kannste ja mal probieren.